Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [32]

aufkrawall
2025-05-13, 11:15:34
Wobei man sagen muss, dass Transformer-RR da bereits heute wirklich jedem anderen Algorithmus um Magnituden überlegen ist (und auch SR-K jedem non-ML-TAAU). Nur steht leider nicht besonders häufig zur Auswahl...

Gast
2025-05-13, 11:41:26
In der Praxis wird mit Raster weniger im World Space vorgehalten.

Was wieder ein "Raster-Problem" ist, da dort der Aufwand mit O(n) steigt, bei Raytracing O(log(n)).

basix
2025-05-13, 12:52:59
Wobei man sagen muss, dass Transformer-RR da bereits heute wirklich jedem anderen Algorithmus um Magnituden überlegen ist (und auch SR-K jedem non-ML-TAAU). Nur steht leider nicht besonders häufig zur Auswahl...

Ist Transformer-RR nicht noch etwas unschärfer als normales SR?

Gast
2025-05-13, 13:12:10
Ist Transformer-RR nicht noch etwas unschärfer als normales SR?

Umgekehrt Transformer ist viel schärfer, speziell mit höheren Faktoren.

aufkrawall
2025-05-13, 13:18:48
Ohne RT bei Standbildern, ansonsten kann es auch trotz besserer Stabilität weniger Blur haben.

Geldmann3
2025-05-13, 16:38:03
"Besser machen" gibt es in der IT fast nie. Es gibt praktisch nur "Welche Kompromisse geht man ein". Und jetzt ist die Frage welche Kompromisse würdest du eingehen? Wenn dich die Disocclusion-Problematik arg stört dann versuche andere Presets.

Ich vermute tatsächlich, dass man hier kaum Kompromisse machen müsste, außer mehr Entwicklungszeit, daher wird es wahrscheinlich gefixt. Im Zweifelsfall kostet es etwas Performance, dafür kann man an anderer Stelle bestimmt wieder effizienter werden.

Jupiter
2025-05-18, 18:41:43
Welches DLSS-Modell soll insgesamt am besten sein? K?

Und welches glättet am besten?

robbitop
2025-05-18, 19:06:29
Unterm Strich K. Aber es hat Regressionen ggü E bei Disocclusion. IIRC war F am intensivsten beim Wegbügeln von Treppenstufen.
Ich hab tatsächlich im nvprofileinspector global auf K gestellt und bin bis dato happy :)

aufkrawall
2025-05-18, 19:38:25
IIRC war F am intensivsten beim Wegbügeln von Treppenstufen.

Das macht K (und RR-Transformer) ähnlich gut.

aufkrawall
2025-05-31, 19:45:29
Das neue Frame Pacing von StreamLine 2.7+ mit FG ist echt ein riesiger Fortschritt. Fühlt sich auch bez. Lag total konsistent an. Trotz mieser Skalierung der FSR 3.1-Mod von nur 27% auf der 3060 in 4k, fühlt es sich immer noch wesentlich direkter an als ohne FG mit Reflex off. Mit der nativen FSR 3.1-Implementierung ohne Reflex hingegen völliges Gummiband-Feeling.

Relex
2025-05-31, 19:53:14
Mich würde ja mal interessieren, was die da genau seit SL 2.7 bzw. DLSS4 verändert haben. Vor allem die Frametimegraphen von diversen Overlays zeigen ja jetzt alle nen sehr fetten graphen. Also muss man ja was völlig grundlegendes geändert haben.

Sowohl latenzen, framepacing/judder, als auch performance scheint damit deutlich besser zu sein (zumindest zusammen mit DLSS4 FG, FSR FG hab ich mittlerweile aufgegeben).

aufkrawall
2025-05-31, 20:00:17
In Talos Reawakened klappt es mit Nukem-Mod via OptiScaler, gibt damit dann entsprechend trotz FSR 3.1-FG das "DLSS 4-Frame-Pacing" + Reflex im RTSS-Graphen:
https://s1.directupload.eu/images/250531/temp/bryzx7oh.jpg (https://www.directupload.eu/file/d/8936/bryzx7oh_jpg.htm)

Sieht auch smooth aus und bringt meinen IPS nicht zum Flackern, anders als das kaputte Frame Pacing auf RDNA4 (auch mit nativem FSR 3.1 FG, bzw. sogar ohne FG. Wieder mal classic AMD, irgendwas ist immer...).

Lurtz
2025-06-01, 13:03:42
Was entspricht Streamline 2.7? Ist das der Branch in dem die "neue" FG eingeführt wurde?

Lurtz
2025-06-01, 13:04:42
Mich würde ja mal interessieren, was die da genau seit SL 2.7 bzw. DLSS4 verändert haben. Vor allem die Frametimegraphen von diversen Overlays zeigen ja jetzt alle nen sehr fetten graphen. Also muss man ja was völlig grundlegendes geändert haben.

Unwinder meinte das Frame Pacing findet jetzt ganz am Ende der Pipeline statt, deshalb können Monitoringtools nicht mehr das endgültige Framepacing ausgeben.

Relex
2025-06-01, 13:13:23
Was entspricht Streamline 2.7? Ist das der Branch in dem die "neue" FG eingeführt wurde?

Ja, richtig. Also das was wir seit Ende Januar kennen. Die ganzen Games die DLSS4 Patches bekommen haben, haben idr. auch SL 2.7 bekommen.

aufkrawall
2025-06-15, 09:45:03
Man, ist die BQ vom TC-FG mies. Selbst bei 2x sieht das in Talos mit Terrain und Ziegelsteinwänden komplett schlecht gegen FSR FG aus. Der eigene Schatten wird zwar damit mit vollen fps animiert, hat dafür aber hässliche Lücken. Und Preset K sieht auch aus wie Müll gegen FSR 4 bei Nanite und VSM. :freak:
Zum Glück kann man RR reinmodden, mit Transformer Preset E stellt das den "historisch normalen" Abstand wieder her...
Würde mich nicht wundern, wenn das ML-Update für FSR das Nvidia-FG komplett deklassiert...

robbitop
2025-06-15, 10:07:39
Was ist TC-FG? DLSS FG? :)

Bzgl RR. Hab neulich CP77 mit RT Ultra und DLSS-SR @K im balanced mode in 1440p probiert und war krass überrascht wie schlecht Lampen und Leuchtschilder aussehen. Verpixelt, flimmern. RR angeschaltet und bäm -> Problem gelöst.
Muss mal testen ob RR auch angeht wenn ma RT in CP ausschaltet

aufkrawall
2025-06-15, 10:09:55
Tensor Core anstatt Optical Flow Accelerator. FG mit Letzterem war mir auf der 4070S jedenfalls nicht so negativ aufgefallen.
Das neue TC-FG braucht dringend ein Qualitätsupdate...

robbitop
2025-06-15, 10:10:29
Krass - hatte NV nicht gesagt die neue Variante ist schneller und bessere BQ?

aufkrawall
2025-06-15, 10:11:50
Schneller ist es ja (OFA war da schlecht), aber diese Garble-Linien erinnern etwas an die ATi-Texturfilterung der Nullerjahre. :freak:


Muss mal testen ob RR auch angeht wenn ma RT in CP ausschaltet
RT-Reflexionen oder PT müssen an sein.

Lurtz
2025-06-15, 10:52:37
Zum Glück kann man RR reinmodden, mit Transformer Preset E stellt das den "historisch normalen" Abstand wieder her...

Funktioniert das ohne größere Nebenwirkungen? Bei Teil 2 gabs damit doch einige Bildfehler.

aufkrawall
2025-06-15, 11:05:59
Funktioniert das ohne größere Nebenwirkungen? Bei Teil 2 gabs damit doch einige Bildfehler.
In Oblivion Remastered gibt's damit, ähnlich zu den Fehlern mit Transformer-SR in anderen Titeln, mitunter seltsame Gitter-/Rasterartefakte etwa bei Zaubern in der Hand etc.
Das Preset E-Update hatte allerdings das Geflacker mit VSM und DoF in Unreal gefixt. Die Vorteile wiegen die Nachteile damit imho weit mehr als auf. Die VSM haben in Unreal offenbar gar keinen eigenen Denoiser, deshalb profitieren die extremst. :eek: Bzw. umgekehrt ist SR-Preset K dafür komplett fehl am Platz.

Lurtz
2025-06-15, 11:17:47
Ok. Die Situation ist etwas unbefriedigend, entweder es bräuchte RR in mehr Spielen oder ein Preset, das die Vorteile von E und K vereint.

Die Garble-Linien können echt schlimm sein, treten in manchen Spielen aber auch nicht so drastisch auf. Scheint auch wieder vom Content abzuhängen. Ansonsten bin ich bei FG offenbar nicht mit den richtigen Sinnesorganen gesegnet, mir fallen Fuckups da kaum auf.

In TP gibts teils auch ganz ohne FG leichtes Garblen :uponder:

aufkrawall
2025-06-15, 12:01:13
Gerade mal AW2 getestet, da fällt es wirklich auf die Schnelle mit 3xMFG fast gar nicht auf.
Da regelt RR Preset E auch wieder derbe. Einfach nur unglaublich, wie viel besser das als alles andere ist. UP-Mode geht damit btw. mittlerweile auch, sieht aber massiv softer als P aus. Leistung reicht auf der 5070 mit Performance, PT high, 3xMFG zum Glück so gerade.

robbitop
2025-06-15, 12:10:55
Schneller ist es ja (OFA war da schlecht), aber diese Garble-Linien erinnern etwas an die ATi-Texturfilterung der Nullerjahre. :freak:



Bei CP77 fällt mir wenn ich in der Wüste schnell geradeaus fahre eine horizontales garble Band hinter dem Auto auf. Klingt so ähnlich. (4x MFG)

Lurtz
2025-06-15, 12:11:54
Wie aktivierst du RR, immer noch so?
r.NGX.DLSS.denoisermode=1
r.Lumen.Reflections.BilateralFilter=0
r.Lumen.Reflections.ScreenSpaceReconstruction=0
r.lumen.Reflections.Temporal=0
r.Shadow.Denoiser=0

aufkrawall
2025-06-15, 12:18:00
Ja, wobei r.Shadow.Denoiser=0 imho wirkungslos ist und sich vermutlich nur auf das alte UE4 Legacy-RT bezieht.
Ggf. sind auch noch
r.Lumen.Reflections.DownsampleFactor=1
r.LumenScene.Radiosity.Temporal=0
sinnvoll. Nicht vergessen, bei Talos die engine.ini schreibgeschützt zu machen. RR Preset E dann via Inspector. Sharpen würd ich Tonemapper Sharpen ebenfalls via Config nehmen.

Edit: In AW2 ist das FG-Garbling auch teilweise sehr unschön, etwa bei Schildern, bedruckten Kartons oder mit der Taschenlampe angestrahlten Spinten...
Aha ja, die Ringe des Lichtkegels auf Steinwänden sind übel...

Lurtz
2025-06-15, 16:05:28
RR Preset E dann via Inspector.
Hast du eine CustomSettingNames.xml dafür? War mir neu, dass man da überhaupt wie bei SR Presets setzen kann, dachte da geht es noch rein nach DLL.

robbitop
2025-06-15, 16:12:29
Geht mit der aktuellen Version (github) auch mit der Standard xml.

Lurtz
2025-06-15, 16:54:26
Stimmt, hatte nicht die aktuelle Version. Bei RR Profile E steht aber unused.

aufkrawall
2025-06-15, 17:11:04
Ist aber veraltet, im HUD steht auch E.

Lurtz
2025-06-15, 19:34:44
Ich kriegs nicht hin.

Engine.ini read-only unter AppData\Local\Talos1\Saved\Config\Windows erstellt (da lagen nur zwei Dateien, sonst sind da meist mehr bei UE5-Spielen?).
DLL unter The Talos Principle Reawakened\Engine\Plugins\Marketplace\nvidia\DLSS\Binaries\ThirdParty\Win64 abgelegt.

Zeigt nur SR Preset K an.

Edit:
War dumm, funktioniert.

Schon heftig wie stabiler das ist an den Schwachstellen von Preset K :eek: Ich will das öfter nativ angeboten haben!

Von Preset E sehe ich da aber nichts, sondern diamond_wallaby. 310.2.1.

Ex3cut3r
2025-06-15, 19:44:34
Normalweiser musst du im Inspector nicht mehr manuell DLL Dateien ausstauchen Sondern die Option DLL Override aktiveren - "Latest avaible" Für RR das gleiche siehe Bild.

https://s1.directupload.eu/images/250615/7g8955dz.png

aufkrawall
2025-06-15, 19:45:15
Huh? Da sollte preset E: Truthful Shrimp stehen. :confused:

Ex3cut3r
2025-06-15, 19:48:21
Wtf?

Das ist doch die aktuellste Inspector Version?

https://github.com/Orbmu2k/nvidiaProfileInspector/releases

Vom März

Lurtz
2025-06-15, 19:50:47
Normalweiser musst du im Inspector nicht mehr manuell DLL Dateien ausstauchen Sondern die Option DLL Override aktiveren - "Latest avaible" Für RR das gleiche siehe Bild.

Ja, aber das Spiel supportet RR nicht nativ. Gehts dann dennoch ohne DLL? Vermutlich.

Hab jetzt truthful_shrimp nach dem Setzen im globalen Profil. Preset E steht da aber immer noch nicht :D

aufkrawall
2025-06-15, 20:02:07
Höchst merkwürdig. :freak:
https://s1.directupload.eu/images/250615/temp/q6tkaonn.jpg (https://www.directupload.eu/file/d/8951/q6tkaonn_jpg.htm)

Lurtz
2025-06-15, 20:22:40
Eigenartig, hab noch nie "Render Preset" im RR-Overlay gesehen. Kann ja eigentlich nur mit der genutzten DLL in Zusammenhang stehen.

aufkrawall
2025-06-15, 20:24:32
Ich nutze die RR-DLL aus dem StreamLine-Release ohne Treiber-DLL-Override (reinkopiert wegen der App).

Lurtz
2025-06-15, 20:28:01
Jo, mit der DLL sieht es aus wie bei dir.

aufkrawall
2025-06-15, 20:45:32
Jetzt frag ich mich, was diamond_wallaby war. Preset D? RR Preset D schien wesentlich schlechter auszusehen. Kann mich an den Modellnamen nicht mehr erinnern.

Lurtz
2025-06-15, 20:57:02
Ja, D.

aufkrawall
2025-06-15, 21:03:02
Und deine Meinung zu E? :)

Btw. das FG-Garbling in AW2 wurde richtig extrem in der Morgue mit den Taschenlampenringen. Nach dem Level war auch der VRAM übergelaufen, lief mit 10,xGB Belegung wie Abfall. Ausschalten von FG hatte die Performance wiederhergestellt. So viel zu den tollen VRAM-Optimierungen vom RT und DLSS 4. :freak:

The_Invisible
2025-06-19, 10:07:18
Neue dlss version 310.3.0, Presets A-E sind anscheinend deprecated und werden irgendwann im nächsten Release entfernt

https://github.com/NVIDIA-RTX/Streamline/blob/main/docs/DLSS%20Programming%20Guide.pdf

Lurtz
2025-06-19, 10:15:36
Und deine Meinung zu E? :)

Ich hab RR nicht genug benutzt um da feine Unterschiede zu sehen. E sieht aber ziemlich gut aus in Talos.
Neue dlss version 310.3.0, Presets A-E sind anscheinend deprecated und werden irgendwann im nächsten Release entfernt

https://github.com/NVIDIA-RTX/Streamline/blob/main/docs/DLSS%20Programming%20Guide.pdf
E zu entfernen ohne K gefixt zu haben ist aber nicht so geil... :rolleyes:

Relex
2025-06-19, 11:24:06
Das Smearing das K manchmal zeigte lag an falschen Auto Exposure Settings oder anderweitigen Problemen mit dem Input vom Spiel.

Ich denke wenn K für den Entwickler das ist, was er selbst integriert anstatt nur als User Override, dann wird sowas auch auffallen und entsprechend korrigiert.

Das muss also nicht zwangsläufig ein Problem sein.


Was mich aber eher wundert ist, was das für RTX2000 und RTX3000 Karten bedeutet, wo man ggf. aus Performancegründen das CNN Model nutzen würde.
Sollen die user dann den Override nutzen, um die älteren Presets zu bekommen?

x-force
2025-06-19, 11:47:42
Was mich aber eher wundert ist, was das für RTX2000 und RTX3000 Karten bedeutet, wo man ggf. aus Performancegründen das CNN Model nutzen würde.
Sollen die user dann den Override nutzen, um die älteren Presets zu bekommen?

ist das wirklich noch eine relevante frage, wenn das ergebnis mit k performance meist ähnlich zu cnn quality ist?

Relex
2025-06-19, 11:57:19
Kann ich nicht beurteilen, da ich keine ältere GPU + niedriger aufglösten Monitor habe.

Mit Ada + 4K Monitor ist CNN für mich obsolet ja. Aber das muss ja nicht für alle Setups gelten.

Lurtz
2025-06-19, 12:28:22
Das Smearing das K manchmal zeigte lag an falschen Auto Exposure Settings oder anderweitigen Problemen mit dem Input vom Spiel.

Ich denke wenn K für den Entwickler das ist, was er selbst integriert anstatt nur als User Override, dann wird sowas auch auffallen und entsprechend korrigiert.

Ist ja nicht die einzige Regression. Gerade UE5 mit vollem Featureset ist mit K oft gar nicht mal so gut... Da kann man E arguably deutlich besser finden (das Gras in Hellblade 2 zB ist komplett kaputt mit J und K).

Mal ganz davon zu schweigen, dass es offiziell ja immer noch in Beta sein soll, irgendwie. Kann ja schlecht sein, dass das gleiche Preset nur durch die Spiele-Integration von Beta zu Final reifen soll?

aufkrawall
2025-06-19, 14:34:37
Ich hab RR nicht genug benutzt um da feine Unterschiede zu sehen. E sieht aber ziemlich gut aus in Talos.

Ich sehe da ziemlich heftige Unterschiede bei der temporalen Stabilität von Vegetation etwa in Oasen, mit E massiv besser als mit D. :)

basix
2025-06-20, 08:48:17
Nvidia hat ca. 20% Memory-Footprint wegoptimieren können.

Lustigerweise haben sie "RTX 20 series" vergessen zu nennen ;)

Lurtz
2025-06-20, 09:03:36
Wie kriegt man den Treiber-Override jetzt dazu, die neue DLL-Version zu verwenden (per Inspector)? Muss man die DLL manuell irgendwo hinterlegen?

The_Invisible
2025-06-20, 09:14:11
Nvidia hat ca. 20% Memory-Footprint wegoptimieren können.

Lustigerweise haben sie "RTX 20 series" vergessen zu nennen ;)

Schon nett für ein Minor Update. Bin ja gespannt ob dann eventuell mit Wegfall der alten Models ein neues kommt, weil im Prinzip wird es ja noch immer als Beta deklariert

Relex
2025-06-20, 10:03:12
Ja, memory footprint von Super Resolution ist ein wenig geringer geworden. Konnte ich auch in Spielen so nachmessen. Ist aber mit dem Transformer model immernoch höher als mit dem CNN Model. Auch die Performance ist gleich geblieben und damit weiterhin geringer als mit dem CNN Model

Durch das neue Frame Gen (seit DLSS4) wird das aber sowieso überkompensiert, da es deutlich schneller läuft und auch deutlich weniger Speicher braucht.

Aber schön zu sehen, dass sich da weiterhin was tut. Neues Model wäre trotzdem nicht schlecht. Ich will sehen, was mit dem Transformer Model noch möglich ist.

basix
2025-06-20, 11:04:01
Ach ja, seit April haben wir auch ein paar Performance Daten für Framegeneration:
https://github.com/NVIDIA-RTX/Streamline/blob/main/docs/ProgrammingGuideDLSS_G.md#10-requirements

Erstaunlich, dass eine 5080 in 4K fast gleich schnell wie eine 4090 sein soll. Und FG ist etwa 2.5x so heavy wie SR, 2.77ms vs. 1.07ms auf einer 4090. Hätte ich nicht gedacht.

Was ich nicht ganz verstehe ist, dass 4x MFG fast doppelt so viel Zeit braucht wie 2x MFG. Hiess es nicht mal, dass das Primärnetzwerk von FG deutlich mehr Ausführungszeit als das Sekundärnetzwerk benötigt? Anhand diesen Zahlen würde ich annehmen, dass beide etwa gleich viel Zeit benötigen.

Nimmt man SR, FG und RR zusammen (4K DLSS-P auf Ada/Blackwell), benötigt man doch insgesamt 1.5 GByte an VRAM. Die Hälfte davon ist FG! Nvidia wäre wohl gut beraten, wenn man die nächste Iteration auf FP8 oder gar FP4 umstellt.

aufkrawall
2025-06-20, 15:52:40
Wie kriegt man den Treiber-Override jetzt dazu, die neue DLL-Version zu verwenden (per Inspector)? Muss man die DLL manuell irgendwo hinterlegen?
Musst unter C:\ProgramData\NVIDIA\NGX\models gucken, welcher Dateiname genutzt wird und die DLL/.bin dann entsprechend umbenennen und dort ersetzen. :freak:

Ex3cut3r
2025-06-20, 16:11:40
Musst unter C:\ProgramData\NVIDIA\NGX\models gucken, welcher Dateiname genutzt wird und die DLL/.bin dann entsprechend umbenennen und dort ersetzen. :freak:

Müsste ich noch nie manuell machen. Allerdings habe ich auch keine Benutzerkontensteuerung aktiv.

aufkrawall
2025-06-20, 16:23:34
Müsste ich noch nie manuell machen. Allerdings habe ich auch keine Benutzerkontensteuerung aktiv.
Doch, "musst" du, wenn du weiterhin den Treiber-DLL-Override nutzen willst, der Treiber bzw. der NGX-Updater aber noch nicht die neusten DLLs aus dem StreamLine-Release verteilt.
Man kann natürlich weiterhin einfach händisch reinkopieren und nur das Preset überschreiben.

Lurtz
2025-06-20, 16:33:45
Musst unter C:\ProgramData\NVIDIA\NGX\models gucken, welcher Dateiname genutzt wird und die DLL/.bin dann entsprechend umbenennen und dort ersetzen. :freak:
Also im Ordner dlss_override die entsprechenden DLLs ersetzen? In der nvngx_package_config.txt auch was ändern? Für RR liegt da gar keine DLL.

Ex3cut3r
2025-06-20, 16:41:05
Benutze das, nix mit Hand machen. :freak:

Einfach die neusten DLSS Dateien aus hier irgendwo hin entpacken.

https://github.com/NVIDIA-RTX/Streamline

https://github.com/SimonMacer/AnWave/releases/tag/AnWave-DLSS

https://private-user-images.githubusercontent.com/136802581/409839686-714e7bc4-a194-4275-898d-f51af9d17e01.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY2 9tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3NT A0MzA4MjEsIm5iZiI6MTc1MDQzMDUyMSwicGF0aCI6Ii8xMzY4MDI1ODEvNDA5ODM5Njg2LTcxNGU3Ym M0LWExOTQtNDI3NS04OThkLWY1MWFmOWQxN2UwMS5wbmc_WC1BbXotQWxnb3JpdGhtPUFXUzQtSE1BQy 1TSEEyNTYmWC1BbXotQ3JlZGVudGlhbD1BS0lBVkNPRFlMU0E1M1BRSzRaQSUyRjIwMjUwNjIwJTJGdX MtZWFzdC0xJTJGczMlMkZhd3M0X3JlcXVlc3QmWC1BbXotRGF0ZT0yMDI1MDYyMFQxNDQyMDFaJlgtQW 16LUV4cGlyZXM9MzAwJlgtQW16LVNpZ25hdHVyZT1kMGNkN2MxNjdkODk5NWZhZTIxMDVkZWFhNjRkMT Y1NmFkYTUwNjk2MDM2ZGQwNTUwN2U5YmJhNTIyOTE3ODU3JlgtQW16LVNpZ25lZEhlYWRlcnM9aG9zdC J9.rJ2qHUc356lB_mWku2ZXlMvBQuUrqVmJ_ZpPrs8IJC4

aufkrawall
2025-06-20, 16:41:06
Bei mir ist da ein dlssd-Ordner für RR. In der txt muss man nichts ändern, Dateien überschreiben reicht. Weiß gerade nicht mehr, ob man die dann schreibschützen musste...

Darkman.X
2025-06-20, 17:02:46
@Lurtz:

Ich habe es selber noch nie verwendet:

Der Entwickler "emoose" (bekannt durch die Tools "DLSSTweak" und "NvTrueHDR") hat mal ein Powershell-Script (https://gist.github.com/emoose/11271bbb3b42fb3b1b0e1c83eef47c05) veröffentlicht, welche die vom User angegebene DLL-Datei nach "C:\ProgramData\NVIDIA\NGX\models" kopiert und die "nvngx_config.txt" anpasst.

Die komplette Anleitung steht in den ersten 37 Zeilen, alle Zeilen, die mit einem # beginnen.

Im Grunde läuft es so, wenn du das Script lokal gespeichert hast:
Rechtsklick auf die Script-Datei -> "Mit Powershell ausführen" -> es öffnet sich ein Konsolen-Fenster, welches nach "DllPath" fragt -> mit Drag & Drop die DLL-Datei in das Konsolenfenster schieben, dann müsste der Pfad+Dateiname stehen -> ENTER drücken.

Diese Prozedur führt man für alle 3 DLL-Dateien durch.

Keine Ahnung ob es mittlerweile eine komfortablere Variante gibt...


EDIT: Oh Gott, bin ich langsam :( Das verlinkte "AnWave-DLSS" scheint wohl eine komfortablere Variante zu sein.

aufkrawall
2025-06-20, 17:24:16
@Lurtz:

Ich habe es selber noch nie verwendet:

Der Entwickler "emoose" (bekannt durch die Tools "DLSSTweak" und "NvTrueHDR") hat mal ein Powershell-Script (https://gist.github.com/emoose/11271bbb3b42fb3b1b0e1c83eef47c05) veröffentlicht, welche die vom User angegebene DLL-Datei nach "C:\ProgramData\NVIDIA\NGX\models" kopiert und die "nvngx_config.txt" anpasst.

Ah ja, ganz vergessen. Das ist dann natürlich korrekter, als händisch mit einzelnen Dateien rumzupfuschen.
Na ja, auch wenn imho alles nicht sehr wichtig oder interessant. Ich sehe nicht 1MB weniger Allozierung in Talos mit den neuen DLLs (mit RR und MFG), und würde eh, falls möglich, in jedes UE-Spiel RR reinmodden.

RR Preset E sieht btw. auch in AW2 einfach nur hervorragend aus. Wahnsinn, welche Weiterentwicklung das seit der ersten Iteration gemacht hat. Da ist das reguläre SR einfach nur maximal uninteressant geworden bzw. eine Strafe, wenn man es mangels RR verwenden muss. :freak:

robbitop
2025-06-20, 18:57:32
Vermutest du es hat einen Grund warum das für nicht RT Titel nicht genutzt wird bzw. ohne RT ausgeschaltet wird, wenn es ja doch (siehe Mods) auch ohne RT zu funktionieren scheint? Entsprechend könnte man SR begraben

aufkrawall
2025-06-20, 19:09:22
Hatten wir doch schon mal besprochen: Imho Leistungskosten. Selbst in UE mit hoher Anteil an der Frame Time durch Lumen + VSM kostet das mal eben 10-15% gegenüber Transformer-SR (was auch auf Lovelace+ schon etwas teurer als CNN ist). In Spielen mit höheren fps dürfte das dann richtig reinhauen.

Lurtz
2025-06-20, 20:30:54
https://github.com/SimonMacer/AnWave/releases/tag/AnWave-DLSS

:up:

Wenn man den Streamline-Override-Mode nutzt, wird das nur bei kompatibler Streamline-Version aktiviert? Oder kann man damit Crashes verursachen?

Der Entwickler "emoose" (bekannt durch die Tools "DLSSTweak" und "NvTrueHDR") hat mal ein Powershell-Script (https://gist.github.com/emoose/11271bbb3b42fb3b1b0e1c83eef47c05) veröffentlicht, welche die vom User angegebene DLL-Datei nach "C:\ProgramData\NVIDIA\NGX\models" kopiert und die "nvngx_config.txt" anpasst.

Das habe ich schon benutzt, war mir jetzt nicht sicher ob das mit dem Override harmonisiert.

robbitop
2025-06-21, 08:09:21
Hatten wir doch schon mal besprochen: Imho Leistungskosten. Selbst in UE mit hoher Anteil an der Frame Time durch Lumen + VSM kostet das mal eben 10-15% gegenüber Transformer-SR (was auch auf Lovelace+ schon etwas teurer als CNN ist). In Spielen mit höheren fps dürfte das dann richtig reinhauen.
Ja ich meine abseits der Kosten (das ist bekannt). Man könnte ja einen Treibertoggle für Modelle setzen. Performance Modell (SR Modelle) / Quality (RR Modelle).

dildo4u
2025-06-21, 15:09:53
Computerbase testet hier DLSS 3 vs 4 Performance in The Alters


https://www.computerbase.de/artikel/gaming/dlss-4-vs-3-fsr-4-vs-3-1-stellar-blade-the-alters-benchmarks.93220/

Lurtz
2025-06-21, 20:20:52
Ziemlich liebloser Vergleich. Dass FSR4/DLLS4 langsamer sind, ist ja bekannt, das könnte man schonmal ausführlicher untersuchen als so.

Relex
2025-06-21, 20:37:36
RR Preset E sieht btw. auch in AW2 einfach nur hervorragend aus.

Wann wurde denn das Preset E für RR eingeführt? Das muss doch ziemlich neu sein?

Komisch ist, dass man mit dem Treiber Override auf "Latest" nur RR Preset D (diamond_wallaby) bekommt.
Also die erste Iteration des Transformer RR).

Erst wenn man im Inspector explizit Preset E auswählt, bekommt man auch RR Preset E (truthful_shrimp).
DLL Override via Treiber reicht aber (dll Tausch unnötig). Die Treiber dll files können also Preset E bereits, aber offiziell scheint Nvidia es noch nicht zur Verfügung zu stellen.

Qualitativ ist es definitiv besser. Schärfe ist gleich aber vor allem das Anti-Aliasing ist an manchen Stellen besser. Manchmal sogar deutlich.

aufkrawall
2025-06-21, 22:01:54
Wann wurde denn das Preset E für RR eingeführt? Das muss doch ziemlich neu sein?

Ja, im vorletzten Release:
Added Preset E to DLSS Ray Reconstruction, which adds provision for Depth of Field Guide Buffer in addition to Subsurface Scattering (SSS)
https://github.com/NVIDIA/DLSS/releases/tag/v310.2.1

Hatte damals auch schon mal erwähnt, dass es vs. RR D Probleme mit DoF und dem mutmaßlichen Screen Space-Anteil von VSM in UE5 fixt. Dass es auch ansonsten die Qualität nochmal deutlich erhöht, war mir erst später in Talos aufgefallen. Da muss man mit viel Vegetation wirklich nur einmal kurz strafen, um die deutlich gesteigerte Stabilität sofort zu bemerken. Reduziert auch massiv Moiré an einigen feineren Strukturen von Säulen etc. Massivst full of win.

Ex3cut3r
2025-06-23, 13:44:47
Krawall hat recht. RR Preset E sieht fantastisch aus, selbst ohne jegliches CAS @ 4K DLSS Q. Leider ist die RTX 3080 Ti UV am Zahnfleisch. Normalerweise müsste ich jetzt nach 4 Jahren Nutzung. Die Wärmeleitpaste tauschen. Aber ich bin zu faul. :freak:

Deshalb UV auf 270W von 350W. Dadurch verliere aber ca 10-15% Leistung.

Eine RTX 5080 OC muss her. :smile:


RR Q - Preset E:
https://s1.directupload.eu/images/250623/temp/vhvbg4uz.png (https://www.directupload.eu/file/d/8959/vhvbg4uz_png.htm)

RR P - Preset E:
https://s1.directupload.eu/images/250623/temp/srnvxsj3.png (https://www.directupload.eu/file/d/8959/srnvxsj3_png.htm)

SR Q Preset K:
https://s1.directupload.eu/images/250623/temp/iozrpem5.png (https://www.directupload.eu/file/d/8959/iozrpem5_png.htm)

Lurtz
2025-06-23, 15:11:35
RR E ist wirklich beeindruckend in CP 2077. Das wertet sowohl den PT als auch SR-Effekt nochmal deutlich auf. Wenn nVidia das ähnlich schnell wie SR laufen lassen kann ist man der Konkurrenz im Grunde schon wieder eine Generation voraus.

Schon ganz nett wie sich das innerhalb von weniger als zwei Jahren von einem Denoiser mit Ölgemäldefilter zum heutigen Stand entwickelt hat.

aufkrawall
2025-06-23, 20:00:27
Ja, ist eigentlich immer wesentlich stabiler als SR K oder SR E und hat dabei auch noch viel weniger Bewegungsunschärfe als SR E (wenn auch etwas mehr als K, zumindest für die Kamera). Also nochmal viel näher an "echtem" SSAA. Der Unschärfe-Bereich um Objekte bei Disocclusion ist offenbar auch deutlich kleiner/genauer als mit SR K. Zeigt eindrücklich, dass ML weiterhin eine Goldgrube ist, auch wenn da noch viel Forschung bez. der Performance und ggf. auch VRAM-Verbrauch nötig sein wird.
Sofern die PS6 aber wirklich mit UDNA, moderner Fertigung und normaler GPU-Größe kommt, wird das dann wohl endlich das goldene RT- und ML-TAAU-Zeitalter. Politische potenzielle Störquellen wie lästige Invasionen mal ausgeklammert. :freak:

The_Invisible
2025-06-24, 20:15:16
Mit dem 310.3.0 Release ist das Transformer Modell aus der Beta draußen: https://github.com/NVIDIA/DLSS/releases/tag/v310.3.0

Relex
2025-06-24, 20:30:30
Ja, ist eigentlich immer wesentlich stabiler als SR K oder SR E und hat dabei auch noch viel weniger Bewegungsunschärfe als SR E (wenn auch etwas mehr als K, zumindest für die Kamera). Also nochmal viel näher an "echtem" SSAA. Der Unschärfe-Bereich um Objekte bei Disocclusion ist offenbar auch deutlich kleiner/genauer als mit SR K. Zeigt eindrücklich, dass ML weiterhin eine Goldgrube ist, auch wenn da noch viel Forschung bez. der Performance und ggf. auch VRAM-Verbrauch nötig sein wird.
Sofern die PS6 aber wirklich mit UDNA, moderner Fertigung und normaler GPU-Größe kommt, wird das dann wohl endlich das goldene RT- und ML-TAAU-Zeitalter. Politische potenzielle Störquellen wie lästige Invasionen mal ausgeklammert. :freak:


RR E sieht schon ziemlich sauber und stabil aus, aber trotzdem hat es temporale Unschärfe.

Nach SR Preset K vermisse ich die schärfe bei RR schon ziemlich.


Mal sehen, wie viele Jahre es dauern wird, bis RR die schärfe erreicht, wie aktuell SR mit Preset K. Das wäre für mich quasi der holy grail.


Puh, langsam wird das mit den Abkürzungen und buchstaben fast schon zum insider. Jemand der da nicht drinsteckt checkt doch nichtmal ansatzweise worüber hier diskutiert wird O.o

Lurtz
2025-06-24, 20:37:01
Mit dem 310.3.0 Release ist das Transformer Modell aus der Beta draußen: https://github.com/NVIDIA/DLSS/releases/tag/v310.3.0
Also tatsächlich ohne Fixes der größten Regressions. Und ich habe die Tage noch darüber geunkt :ugly:

aufkrawall
2025-06-25, 03:26:23
Jemand bei Guru3D meinte, in einem Fall wären mit der neuen DLL und K nun Raster-Artefakte bei afair Haaren weg. Aber dass sich am Preset selbst nichts verbessern würde, war ja abzusehen.

Lurtz
2025-06-25, 07:31:18
Aber man hätte mit dem viel besseren Preset L die Beta verlassen können :D

crux2005
2025-06-29, 10:06:37
20% weniger VRAM Verbrauch 310.2.1 vs. 310.3.1.0: https://wccftech.com/nvidia-upcoming-dlss-transformer-model-will-slash-vram-usage-by-20/

Immer noch deutlich mehr als das alte CNN Model.

Relex
2025-06-29, 12:20:33
Na ja, in 1440p sind es rund 50 MB mehr. Dafür kannste im zweifel Balanced statt Quality nehmen und sparst so effektiv wieder mehr VRAM ein. Die Leute mit so wenig VRAM, wo das relevant wäre spielen außerdem eh nicht in 4K.

Nutzt man Upsampling + Frame Gen zusammen, dann ist die VRAM belegung mit den neuen Algos deutlich niedriger.

x-force
2025-06-29, 12:49:13
Die Leute mit so wenig VRAM, wo das relevant wäre spielen außerdem eh nicht in 4K.

laut raff muss selbst ne 5060 alle regler nach ganz rechts drehen können, kein kompromisse, egal wie low end die karte ist :freak:
es gibt offenbar nicht wenige masochisten, die von zeitlicher auflösung noch nie etwas gehört haben und gerne bei 30fps und >50ms inputlag spielen, hauptsache der screenshot sieht gut aus.

interessant wäre mal zu betrachten was von den maximierten settings überhaupt noch übrig bleibt, wenn mit dlss und 1080p praktisch mit 720p gerendert wird, da die performance nicht für mehr reicht.
findet die forensik dort spuren von 4k texturen und 16x af?

robbitop
2025-06-29, 13:25:29
Naja leider skalieren Assets oft ab einer gewissen Stufe nicht mehr so toll und es sieht dann unnötig schlecht aus. Hängt aber stark vom Spiel und Studio ab. Und man misst ja eine neue GPU nicht nur anhand des „hier und jetzt“ sondern man muss im Hinterkopf behaltrn, dass die ein paar Jahre im Einsatz sein wird. IMO gibt es an 8 gb vram in 2025 nichts gutzureden. Insbesondere wenn man sich die Spotpreise für gddr Speicher anschaut.

x-force
2025-06-29, 13:30:56
Und man misst ja eine neue GPU nicht nur anhand des „hier und jetzt“ sondern man muss im Hinterkopf behaltrn, dass die ein paar Jahre im Einsatz sein wird.

es bleibt abzuwarten, ob es überhaupt jemals ein game geben wird, dass mit low settings die 8gb sprengt UND gleichzeitig auf den genannten karten mit 16 gb und gleicher rechenleistung trotzdem noch flüssig läuft.

Relex
2025-06-29, 13:38:31
Eine nagelneue GPU, die schon mit aktuellen Spielen überfordert ist, wäre halt ein schlechter kauf. Man kauft ja mit dem Ziel sie nicht schon direkt nach dem Kauf wieder ersetzen zu müssen... Daher sind Maximale Details schon ein sinnvolles Ziel. Ist ja okay, wenn man dann nach 1-2 Jahren nicht mehr mit maximalen Details spielen kann. Aber wenn man bei einsteiger oder mittelklasse Karten schon direkt mit medium settings starten muss, damit es läuft, dann ist die Karte eh schon an dem Punkt wo sie langsam ausgetauscht werden sollte. Da läuft dann also was falsch...
Wobei es natürlich auch um Verhältnismäßigkeit geht. Wenn Max Settings unnötig fordernd sind, ist es nicht unbedingt sinnvoll das als Maßstab anzusetzen. Tatsächlich können die Entwickler ja die Anforderungen beliebig skalieren. Max Settings könnten auch 10x so fordernd sein, wenn ein Entwickler bock drauf hat.
Wie immer sollte man halt mit gesundem Menschenverstand an die Sache rangehen, aber eine 500€ GPU sollte halt mindestens bessere Settings nutzen können, als eine Konsole.


Und ja, manche Games skalieren über die Grafiksettings sehr schlecht. Da ist Upsampling dann immer die sinnvolle Variante. Aber eigentlich auch sonst immer. Denn DLSS 4 verliert ja bis zum performance preset bei reduzierter Auflösung keine tatsächliche Schärfe mehr gegenüber nativ, praktisch wird das bild dann nur ein bisschen weniger stabil und hat etwas mehr Artefakte und verliert ggf. ein paar feine Details. Aber Unschärfe wie bei DLSS3 gibts ja quasi nicht mehr.
Die Artefakte durch DLSS sind dann aber sehr viel geringer als die Artefakte, die beim Reduzieren von Grafiksettings entstehen (flimmernde schatten und andere flimmernede Effekte, PopIn und LoD Übergänge usw). Ein niedrigeres DLSS Preset ist da meist deutlich unauffälliger.

robbitop
2025-06-29, 14:03:00
es bleibt abzuwarten, ob es überhaupt jemals ein game geben wird, dass mit low settings die 8gb sprengt UND gleichzeitig auf den genannten karten mit 16 gb und gleicher rechenleistung trotzdem noch flüssig läuft.

Auf low sieht es aber wie von mir geschrieben oft überproportional schlecht aus (weil assets oft nicht für zu kleine Detailstufen optimiert sind - wäre das der Fall würde ich hier zustimmen) und ist auch nicht ggf der Anspruch einer brandneuen Karte.
Und dass Speicherbedarf über die Zeit zunimmt ist empirisch über die letzten Jahrzehnte doch hinreichend belegt. IMO braucht man da nicht abzuwarten. :)

Wenn man bedenkt wie günstig gddr im spotpreis ist und dass 8gb seit bereits 10 Jahren im Midrange vorhanden sind (im high end waren es sogar 12) ist das schon eine unschöne Entwicklung. Braucht man IMO nicht schönzureden.

Dass es nicht gleich 16 gb im midrange sein müssen - ok. Aber 12 wäre schon gut.

x-force
2025-06-30, 00:59:06
Auf low sieht es aber wie von mir geschrieben oft überproportional schlecht aus (weil assets oft nicht für zu kleine Detailstufen optimiert sind - wäre das der Fall würde ich hier zustimmen) und ist auch nicht ggf der Anspruch einer brandneuen Karte.

low ist auch worst case szenario. häufig gibts ja mindestens drei stufen.
wenn das spiel z.b. high und very high bietet, reicht das schon um speicher zu sparen.

gerade die von mir häufig erwähnten texturen sind ein sehr guter regler.
ich bezweifle ernsthaft, dass die höchste stufe mit 720p rendertarget überhaupt sichtbar ist.

Gast
2025-06-30, 01:22:07
gibt genug Leute die Spielen nur Valorant oder League/Dota und da reichen auch locker 8GB, sogar 4GB würde ich sagen.

dafür reicht so eine GPU doch locker? wer AAA Titel mit so einer GPU Spielen will und alles auf High ist doch selber schuld.

Nightspider
2025-06-30, 02:37:32
Mal meinen Beitrag aus dem Hunt Showdown Thread kopiert:

Ich habe das Spiel jetzt gerade angefangen.

Sagt mal wieso flimmert das Spiel mit DLSS wie die Hölle?

Mit FSR ist das bild zwar unschärfer aber flimmert viel, viel weniger.

Selbst wenn ich DLSS 4 erzwinge und DLAA einschalte flimmert es. Da bekomme ich Augenkrebs.
Erst ab 4XXX*XXXX Auflösung wird es langsam erträglich aber flimmert trotzdem noch sichtlich mehr.

Scheint total kaputt zu sein.

robbitop
2025-06-30, 07:23:19
low ist auch worst case szenario. häufig gibts ja mindestens drei stufen.
wenn das spiel z.b. high und very high bietet, reicht das schon um speicher zu sparen.

gerade die von mir häufig erwähnten texturen sind ein sehr guter regler.
ich bezweifle ernsthaft, dass die höchste stufe mit 720p rendertarget überhaupt sichtbar ist.

Mag sein. Ist doch aber trotzdem kacke bei einer neuen Grafikkarte ein Setting runterstellen muss, was normalerweise keine Leistung kostet. Das ist weder gut noch normal. Und wir reden hier nicht von einem Wegwerfartikel oder irgendetwas richtig billigem. Das ist ja kein lowend Kram aus der 30er, 40er oder 50er Reihe. Wor reden über 60 und 60ti. Die Dinger kosten bis zu 365€ (5060ti 8gb). IMO nicht in Ordnung. Ich kann es aus Endkundensicht auch überhaupt nicht nachvollziehen wie man sowas relativieren kann. Aus Sicht des IHVs schon.

gibt genug Leute die Spielen nur Valorant oder League/Dota und da reichen auch locker 8GB, sogar 4GB würde ich sagen.

dafür reicht so eine GPU doch locker? wer AAA Titel mit so einer GPU Spielen will und alles auf High ist doch selber schuld.

Mag sein dass es solche Leute auch viel gibt. Aber nochmal wir reden über eine brandneue GPU die bis zu 365€ kostet. Warum muss das aus Esport/Moba limitiert sein und kann bei AAA Spielen nicht volle Texturdetails bieten? Das ist ein Setting was normalerweise keine Leistung kostet. Und es geht um brandneue und zT nicht gerade billige GPUs.
Für die Preisklasse gab es diese Limitierung sonst nicht.

Ist es immer ein Problem? Nein - aber es ist definitiv unter dem was eine eneue GPU für das Geld bieten sollte. Für viele Leute und PC Zusammenstellungen ist das immernoch ziemlich viel Geld.

crux2005
2025-06-30, 09:15:52
Ist AFAIR grob das was auch Hardware Unboxed im FSR4 vs. DLSS4 Video berichtet haben.

aufkrawall
2025-06-30, 15:55:12
Mal flugs getestet:
06inv0Q3OfQ

Was eine Fehlentwicklung. Einfach nur völlig überhypt, zumindest mit modernem Rendering.

Relex
2025-06-30, 16:44:26
Der schärfegewinn ist halt absolut gewaltig.

Vorher stieg der Unschärfe Grad je niedriger das Upscaler Preset war. Schärfe war also bis dahin immer auch direkt an die Performance gebunden. Selbst wenn man DLAA nutzte und das Spiel je nach GPU kaum noch spielbar wurde hat man aber nicht die Bildschärfe erreicht, die man jetzt mit DLSS Performance (in 4K) erreicht.

Das ist halt der Durchburch, der sich fast schon wie "cheaten" anfühlt. Und das überwiegt für mich absolut alles mit großem Abstand. DLSS4 könnte wahrscheinlich doppelt so viele Artefakte erzeugen und ich würde es immernoch bevorzugen.

Ändert natürlich nichts daran, dass die Probleme existieren. Es ist halt nur die Frage, was man eher tolerieren kann, und ob Nvidia das ohne RR fixen kann und ohne wieder Schärfe zu opfern.

Für mich ist die generelle TAA Unschärfe jedenfalls weniger tolerierbar als die paar Rausch artefakte. Zumal CNN SR und Transformer RR ja auch nicht frei von Artefakten sind.
Aber kann natürlich auch sein, dass mir das am OLED jetzt einfach auch deutlicher auffällt, wenn der AA Algo blurrt, weil man mit Transformer SR + OLED eine bis dato quasi unerreichte Kantenschärfe im bewegtbild erreichen kann.

Nightspider
2025-06-30, 16:58:08
Ich weiß nicht obs an 4K liegt aber ich nehme diesen Schärfevorteil von DLSS4 nicht so dramatisch wahr, wie ich es immer lese.

Oder liegts daran das ich mit 4K@1440p Monitor spiele, das ich diesen Schärfevorteil nicht so wahrnehmen kann?


Edit:

Und hat noch jemand einen Tipp für Hunt Showdown ?

aufkrawall
2025-06-30, 17:01:57
Bro findet's mit 4k 240Hz OLED und 5090 auch ätzend in Talos. Aber nicht die Bewegungsunschärfe mit RR, sondern das Gebrösel mit K. :freak:
In Fortnite mit niedrigsten Details 4k geht K ab Quality, darunter nimmt auch wieder das Geschmiere sich bewegender Objekte in der Ferne etc. deutlich zu.

Hunt ist komisch, das hatte afair ein DLL-Update bekommen, womit dann auch das grässliche alte DLSS-Sharpen kein Thema mehr sein sollte. Neue Regression per Spiel-Update?

Relex
2025-06-30, 17:10:34
Na ja, so setzt halt jeder andere Prios.

Ich weiß nicht obs an 4K liegt aber ich nehme diesen Schärfevorteil von DLSS4 nicht so dramatisch wahr, wie ich es immer lese.

Oder liegts daran das ich mit 4K@1440p Monitor spiele, das ich diesen Schärfevorteil nicht so wahrnehmen kann?



Kann vom Sitzabstand abhängig sein oder auch der eigenen Sehkraft oder schlichtweg der eigenen Wahrnehmung.


Wenn du aber mit DL-DSR in 4K auf einem 1440p Monitor spielst hast du durch den Downsampling Filter von DL-DSR auf jeden Fall eine gewisse Unschärfe im Bild und nicht mehr die Pixel perfect Schärfe die du nativ hättest.

Das sollte z.B. direkt am Desktop auffallen. Wenn du da die höhere DL-DSR Auflösung nutzt, sollte z.B. Schrift etwas unschärfer als nativ aussehen.

Das mindert den Schäfevorteil von DLSS4 natürlich ein Stück.
Und wenn du DLSS3 nutzt, dann überwiegt dort die höhere Renderauflösung. Das sorgt für deutlich mehr Schärfegewinn, als das bisschen Unschärfe durch den Downsampling filter jemals wegenehmen könnte, da ja wie gesagt, die Bildschärfe von DLSS3 direkt mit der Renderauflösung aber sogar schon alleine durch die höhere Ausgabeauflösung skaliert.

Also ja, in deinem Szenario ist DLSS3 in Sachen Schärfe bevorteilt und DLSS4 benachteiligt.


In Videos geht der Schärfegewinn auch immer gerne in der Kompression unter. Ich finde mir ist es hier aber ganz gut gelungen, den Unterschied deutlich sichtbar einzufangen. Wobei du das natürlich auch auf nem nativen 4K Screen sehen müsstest, sonst haste ja wieder downsampling:
cUTGoDRC9OE

EDIT: Wobei ich da nur TAA vs TSR vs DLSS4 vs FSR vergleiche und kein DLSS3. Aber DLSS3 ist halt in etwa auf TAA niveau...

Nightspider
2025-06-30, 17:29:00
Und wenn du DLSS3 nutzt, dann überwiegt dort die höhere Renderauflösung. Das sorgt für deutlich mehr Schärfegewinn, als das bisschen Unschärfe durch den Downsampling filter jemals wegenehmen könnte, da ja wie gesagt, die Bildschärfe von DLSS3 direkt mit der Renderauflösung aber sogar schon alleine durch die höhere Ausgabeauflösung skaliert.



Die Renderauflösung, die ich selbst auswähle, ist doch unabhängig davon, ob ich nun DLSS3 oder DLSS4 verwende.

Bin mir nicht sicher ob ich dir ganz folgen kann, wie du das meinst.



Also ja, in deinem Szenario ist DLSS3 in Sachen Schärfe bevorteilt und DLSS4 benachteiligt.

Sowas habe ich mir schon fast gedacht, weil ich manchmal vom scharfen Bild angetan war (beispielsweise bei 4XXX oder 5XXX Auflösung bei 21:9) und dann gemerkt habe, das gar nicht Preset K aktiv war sondern E.

Und dann beim Wechsel auf K nicht so ganz sicher war obs schärfer ist oder ein Placebo Effekt.

1440p Monitor ist wahrscheinlich einfach zu niedrig aufgelöst um da den Unterschied groß zu merken.

aufkrawall
2025-06-30, 17:39:16
SR CNN Preset E ist beim Standbild schon recht scharf, selbst bei 50% mitunter deutlich schärfer als TAA. "Nur" in Bewegung halt nicht. Transformer RR Preset E ist hinsichtlich Bewegtbild sowohl massiv schärfer als auch stabiler. Smeart btw. auch beim wichtigen Thema Objekte vor der Skybox deutlich weniger als SR Preset K (auch wenn's in Unreal da bei bestimmten Farbwechseln ein seltsames Silhouetten-Ghosting gibt, was mir so in AW2 noch nicht aufgefallen ist).

Relex
2025-06-30, 17:46:51
Hmm, wie soll ich das erklären.. Ich erklärs einfach mal ausführlicher, vielleicht hilft das.


DLSS3 erzeugt ein vergleichsweise unscharfes Bild in bewegung ähnlich wie es TAA macht. Auch FSR3 hat das Problem.

Diese Unschärfe verschlimmert sich, je niedriger die Auflösung ist. 1440p mit DLSS Quality (also intern 960p) ist z.B. in Bewegung schon arg unscharf.

Wenn du nun die Auflösung erhöhst, also sowohl die interne Renderauflösung, als auch die Ausgabeauflösung, dann steigt die Bildschärfe mit DLSS3 sehr deutlich an.

DLSS3 Performance @ 4K sieht z.B. schon sehr viel schärfer aus als DLSS3 Quality @ 1440p, obwohl sich die interne Renderauflösung von 960p auf 1080p nur leicht erhöht hat.

Die Ausgabeauflösung spielt also schonmal einen sehr großen, wenn nicht den größten Faktor.

Natürlich erhöht sich die Schärfe dann aber durch erhöhen der Internen Renderauflösung weiter. Wenn du DLSS Balanced oder Quality und schlussendlich DLAA wählst, wird das Bild mit jedem Schritt schärfer.


Es ist also bei DLSS3 grundsätzlich sinnvoll, z.B. auf einem 1440p Monitor via Downsampling bzw. DL-DSR die (Ziel)Auflösung, mit der DLSS arbeitet, noch oben zu pushen, also in deinem Fall auf 4K. Du bekommst bei gleicher oder ähnlicher interner Renderauflösung so bereits ein deutlich schärferes Bild. Dass das Bild durch den Downsampling Filter minimal unschärfer wird spielt hier keine Rolle, da der Schärfegewinn durch die höhere Auflösung bei weitem überwiegt.


DLSS4 funktioniert aber komplett anders. Zwischen DLSS Performance, Balanced und Quality gibt es nahezu gar keinen Schärfeunterschied. Auch ob du 1440p oder 4K als Zielauflösung hast spielt keine Rolle. Beides sieht so scharf aus wie es nur sein kann. Das Bild ist praktisch immer knack scharf.

Das heißt, wenn du jetzt Downsampling machst und auf deinem 1440p Monitor in 4K spielst, dann gewinnst du mit DLSS4 keine Bildschärfe dazu. Klar bekommst du sicher bessere Kantenglättung etwas mehr Bilddetails, weniger Artefakte, aber die Schärfe profitiert nicht.

Im Gegenteil, dadurch dass du das Bild einmal durch den Downsampling Algorithmus jagst, verlierst du ein bisschen Bildschärfe (was du ja wie ich vorher schon sagte z.B. am Desktop mit Text nachvollziehen können solltest).



Heißt also mit DLSS3 + 4K Downsampling @ 1440p gewinnst du unterm Strich deutlich an Bildschärfe, während du mit DLSS4 in diesem Szenario etwas schärfe einbüßt.


Würdest du einfach nur in 1440p ohne Downsampling spielen sollte der Unterschied zwischen z.B. DLSS Quality mit CNN Model (Preset E) und Transformer Model (Preset K) sehr viel deutlicher ausfallen.
Der Unterschied ist auch in 4K auf nem 4K Monitor sehr groß. Das "Problem" ist halt, sobald du Downsampling machst, maskierst du diesen Unterschied ein Stückweit (was dir aber auch ein Stück performance kostet).

Die Frage die man sich hier also stellen kann ist: Sieht DLSS4 Quality @ 1440p besser oder zumindest gleichwertig aus als DLSS 3 mit Downsampling. Falls ja, hättest du nicht nur bessere oder zumidnest gleiche Bildqualität sondern auch deutlich höhere Performance.

aufkrawall
2025-06-30, 17:52:40
Zwischen DLSS Performance, Balanced und Quality gibt es nahezu gar keinen Schärfeunterschied.
Natürlich gibt es den bei Disocclusion und auch Effekten wie SSR, von RT gar nicht erst zu sprechen. Partikel-Ghosting wird auch schlechter.
Irgendwie stellst du es immer so da, als würden 3D-Szenen nur aus frei betrachtbaren Texturen bestehen, wo DLSS Transformer-SR natürlich super ist...

Relex
2025-06-30, 17:55:55
Na ja, mir hat der Wald in Avowed schon gereicht.

Das ganze Blattwerk war mit CNN Preset E in bewegung einfach total unscharf, flimmernd und low res.

Mit transformer Preset K war es subjektiv doppelt so scharf und gleichzeitig stabiler. Übrigens kein Vergleich zu der Artefakthölle in Talos Principle. Ich verstehe aber immer noch nicht, woran das liegt, dass das eine UE5 game gut und das andere schlecht aussieht.


Ansonsten finde ich es sinnfrei darüber in der Form zu diskutieren. Wenn du das Transformer Model nicht gut genug findest dann nimm halt CNN oder RR. Ich bestreite ja auch in keinster Weise, dass die Probleme nicht existieren und noch viel Luft nach oben ist. Aber es ist nunmal so, dass Unschärfe etwas ist, das seit einführung von TAA vor etwa 10 Jahren die Spielegrafik plagt, (obwohl ich es längst akzeptiert hatte) und DLSS 4 SR hat das Problem nun gelöst. Natürlich mit hier und da neuen und anderen Artefakten und Regressionen. Für mich ist es aber mMn ein riesen Schritt in die richtige Richtung. Für mich überwiegen die Vorteile bei weitem. Und ja, natürlich wäre die Qualität von Transformer RR in Kombination mit der Schärfe von Transformer SR ideal. Aber bei der Spielbarkeit überwiegt für mich die hohe Bildschärfe zusammen mit hohen Bildraten (was bisher ein harter widerspruch war!) deutlich stärker als etwas weniger Artefakte auf Kosten von Unschärfe. letzteres funktioniert für mich halt wenn Pathtracing an ist und ich einfach die bestmögliche grafische Darstellung will und mir auch die performance ein stückweit unwichtig ist.

Für normales angenehmes und ermüdungsfreies gameplay will ich aber hohe Bildraten und hohe Kantenschärfe -> daher DLSS 4 Transformer SR für mich ein Gamechanger.

Aber das darfst du gerne anders sehen.

Lurtz
2025-06-30, 18:54:52
In Avowed gabs doch auch schon Demonstrationen von Kaputtheit mit Transformer, zB Wasserspiegelungen.

Ist ja schön, dass K schärfer als FSR3 ist, aber das Gebrösel nervt schon massiv bei komplexerem Content. Das muss IMO besser werden, sonst ist es angesichts der kommenden bzw. schon existierenden Vorherrschaft von Techniken wie VSMs, Nanite und Co einfach nicht fit für die Zukunft.

In Death Stranding merkt man auch ganz drastisch den Schärfeunterschied, insbesondere bei Texturen. Selbst in 1440p DLAA noch. Auch die Kantenglättung ist um Welten besser als E.
Aber eben auch, wie K teils deutlich stärker smeart und mit manchen Effekten einfach deutlich mehr Probleme macht.
Bei älteren Spielen mit genügsamerem Content ist es aber definitiv vorzuziehen, bei UE5 kann E je nach Bröselgrad echt angenehmer sein für den Gesamteindruck.

redpanther
2025-06-30, 20:06:03
Soll halt jeder selbst testen und nach Geschmack einstellen.
Man hat ja meist die Möglichkeit.

Ich habe Avowed mit Transformer gespielt und fand es sehr sehr gut so.
Artefakte habe ich kaum war genommen, dafür die tolle Schärfe.
Nix ist umsonst, aber ich Zahl hier den Preis gerne.

DrFreaK666
2025-07-05, 14:18:20
qyGClSlO8Ck

aufkrawall
2025-07-08, 04:01:17
Neue RTSS-Beta kann jetzt über PresentMon msBetweenDisplayChange erfassen und damit die korrekten Frame Times für DLSS 4 anzeigen.
4xMFG:
https://s1.directupload.eu/images/250708/temp/4uzsv885.jpg (https://www.directupload.eu/file/d/8974/4uzsv885_jpg.htm)

FSR FG:
https://s1.directupload.eu/images/250708/temp/ddwdblmv.jpg (https://www.directupload.eu/file/d/8974/ddwdblmv_jpg.htm)

Sieht auch entsprechend flüssig mit DLSS aus, gegenüber abartig ruckelig mit FSR FG (warum auch immer das hier wieder so kaputt ist, das Frame Pacing von OptiFG oder Nukem-Mod ist normal...).

robbitop
2025-07-08, 08:56:09
Ist es immernoch so dass FSR FG nur auf radeons brauchbares Framepacing liefert?
IIRC wurde in den neueren Versionen von FSR3.1.x da irgendwas dran gemacht. Ggf nutzt Nukem Mod da diese codebasis?

aufkrawall
2025-07-08, 09:11:42
Mit Nukem-Mod wird nicht das FSR-eigene Frame Pacing genutzt. Ansonsten keine Ahnung, das Spiel hatte selbst ohne FG mit RDNA4 durch den Radeon-Treiber meinen IPS zum Flackern gebracht. Gar keine Lust mich weiter damit zu befassen, was genau von AMD kaputt bzw. nicht kaputt ist, DLSS 4 FG sieht hier bislang in jedem Spiel völlig korrekt flüssig aus...

robbitop
2025-07-08, 10:17:38
Kann ich für DLSS4 FG bisher meinerseits auch bestätigen.

Lurtz
2025-07-09, 08:28:22
Neue RTSS-Beta kann jetzt über PresentMon msBetweenDisplayChange erfassen und damit die korrekten Frame Times für DLSS 4 anzeigen.

Könntest du das RTSS-Layout bitte mal hochladen? Also die ovl-Datei?

aufkrawall
2025-07-18, 11:13:42
Post übersehen, strunzdummer Forensoftware sei Dank. :redface:
Siehe Anhang. Keine Garantie auf Korrektheit, hab auch nur schnell Templates gemergt und leicht angepasst. Die RTSS- und AB-eigenen Statistiken in den Programmen entsprechend deaktivieren.

Gibt übrigens eine Auskopplung von AnWave, mit der man sowohl DLSS als auch StreamLine für den Treiber-Override updaten kann:
https://github.com/SimonMacer/AnWave/releases/tag/AnWave-DLSS
Einfach die Release-DLLs (nicht aus dem development-Ordner!) vom StreamLine-Release auf GitHub mit in's Verzeichnis schmeißen + Inspector-Override und fertig.

robbitop
2025-07-18, 11:55:57
Schade dass das tool nicht automatisch die neusten DLLs auch noch runterlädt (nicht getestet aber klingt so). Der DLSS Swapper hat das erledigt.

Platos
2025-07-18, 12:01:24
Was kann denn das Tool, was DLSS Swapper nicht kann?

Lurtz
2025-07-18, 12:04:30
Der DLSS-Swapper macht was völlig anderes. Der tauscht die DLLs im Spielverzeichnis, Anwave tauscht die DLLs für den Override.

Gast
2025-07-18, 12:04:37
Was kann denn das Tool, was DLSS Swapper nicht kann?

Wozu braucht man das überhaupt? Wäre mir den Aufwand nicht wert, zudem fängt man sich visuelle Probleme ein, wenn Bugfixes auf ner älteren Version basieren.

robbitop
2025-07-18, 12:06:52
Mir ging es nur darum warum man bei obigen Tool wie in den 1990ern die dlls sich noch selbst besorgen muss, wenn ein anderes Tool das ja auch schon automatisiert kann (warum also auch nicht oberes auch?). #Bequemlichkeit X-D
So oft wie neue Modelle rauskommen ^^

aufkrawall
2025-07-18, 12:44:41
Ich halte es für arg dämlich, einem Tool zu vertrauen, das 439 Dateien/Ordner im Hauptverzeichnis hat und DLLs ohne Angabe der URLs runterlädt.

robbitop
2025-07-18, 15:20:33
Könnte man ja optional machen. Bei DLSS swapper meckert auch keiner. Und da das Open source ist, würden shinanigons sicher auffliegen die die Reputation des Entwicklers wäre futsch (und die ist den Leuten die viel auf GitHub contributen schon oft wichtig) :)

aufkrawall
2025-07-18, 15:45:18
Ja, schon. Aber wer garantiert, dass nicht durch ein Versehen etwa erstmal die Dev-Version-DLLs verteilt werden? Vorstellbar, dass darauf etwa Anti-Cheats anschlagen, mit wer weiß was für Folgen. Ich weiß auch nicht, was daran komfortabler sein soll, für jedes einzelne Spiel die DLLs auszutauschen und das bei jedem Titeln nach Patches wiederholen zu müssen.
Gerade du hattest dich mehrfach darüber beschwert, dass etwa Rockstar Launcher die DLLs jedes Mal wieder überschreiben, und jetzt ist ein einmaliges Aktualisieren für den globalen Override, mit dem man das Problem nicht hat, schon wieder zu stressig? :freak:

robbitop
2025-07-18, 16:19:35
Ne kleine Warnmessage und optionales Häkchen und dann würde gelten es ist jeder selbst verantwortlich. :)
Ich bin halt bequem und ich vermute viele andere sind es auch ^^

Zur Klarifizierung: das manuelle Herunterladen ist mir zu nervig. Die dlls zusammenzusuchen, entpacken, in das Verzeichnis kopieren. Und das immer wieder wenns eine neue dll gibt. (will ja immer das neuste) Auf dem Laufenden bleiben wann es neue dlls gibt. Ich will einfach immer das neuste. Tool ab und zu mal starten -> aktualisieren klicken und fertig. So wie beim DLSS Swapper. Oder hab ich da was verkehrt verstanden in der Beschreibung von dem Tool?

aufkrawall
2025-07-18, 16:28:11
Nein, aber etwa in dem Archiv von StreamLine auf GitHub sind schon auf einen Schlag alle Dateien mit dabei, und wenigstens aktuell die neusten Versionen. Und DLSS Swapper aktualisiert StreamLine nicht einmal, obwohl neue Versionen laut Changelogs auch ständig Bugfixes für die einzelnen Features wie DLSS/FG haben.

robbitop
2025-07-18, 16:42:00
Welche Limitierung hat eigentlich das Setzen der Häkchen rein über den Inspektor? Der nimmt dann doch schon die neusten dlls die beim jeweiligen Treiber dabei waren inkl Steamline oder? Wenn man den Treiber immer up to date hällt sollte man ja kaum hinterherhängen damit? :)
Sorry falls das hier schon erwähnt worden sein sollte :)

aufkrawall
2025-07-18, 16:43:22
Das Programm existiert, weil das gerade nicht der Fall ist. "Latest" gibt einem immer noch 310.2.xx.

robbitop
2025-07-18, 16:47:57
Du meinst weil die Treiber mit den dlls relativ deutlich hinterherhängen? :)