Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4
aufkrawall
2025-05-13, 11:15:34
Wobei man sagen muss, dass Transformer-RR da bereits heute wirklich jedem anderen Algorithmus um Magnituden überlegen ist (und auch SR-K jedem non-ML-TAAU). Nur steht leider nicht besonders häufig zur Auswahl...
In der Praxis wird mit Raster weniger im World Space vorgehalten.
Was wieder ein "Raster-Problem" ist, da dort der Aufwand mit O(n) steigt, bei Raytracing O(log(n)).
basix
2025-05-13, 12:52:59
Wobei man sagen muss, dass Transformer-RR da bereits heute wirklich jedem anderen Algorithmus um Magnituden überlegen ist (und auch SR-K jedem non-ML-TAAU). Nur steht leider nicht besonders häufig zur Auswahl...
Ist Transformer-RR nicht noch etwas unschärfer als normales SR?
Ist Transformer-RR nicht noch etwas unschärfer als normales SR?
Umgekehrt Transformer ist viel schärfer, speziell mit höheren Faktoren.
aufkrawall
2025-05-13, 13:18:48
Ohne RT bei Standbildern, ansonsten kann es auch trotz besserer Stabilität weniger Blur haben.
Geldmann3
2025-05-13, 16:38:03
"Besser machen" gibt es in der IT fast nie. Es gibt praktisch nur "Welche Kompromisse geht man ein". Und jetzt ist die Frage welche Kompromisse würdest du eingehen? Wenn dich die Disocclusion-Problematik arg stört dann versuche andere Presets.
Ich vermute tatsächlich, dass man hier kaum Kompromisse machen müsste, außer mehr Entwicklungszeit, daher wird es wahrscheinlich gefixt. Im Zweifelsfall kostet es etwas Performance, dafür kann man an anderer Stelle bestimmt wieder effizienter werden.
Jupiter
2025-05-18, 18:41:43
Welches DLSS-Modell soll insgesamt am besten sein? K?
Und welches glättet am besten?
robbitop
2025-05-18, 19:06:29
Unterm Strich K. Aber es hat Regressionen ggü E bei Disocclusion. IIRC war F am intensivsten beim Wegbügeln von Treppenstufen.
Ich hab tatsächlich im nvprofileinspector global auf K gestellt und bin bis dato happy :)
aufkrawall
2025-05-18, 19:38:25
IIRC war F am intensivsten beim Wegbügeln von Treppenstufen.
Das macht K (und RR-Transformer) ähnlich gut.
aufkrawall
2025-05-31, 19:45:29
Das neue Frame Pacing von StreamLine 2.7+ mit FG ist echt ein riesiger Fortschritt. Fühlt sich auch bez. Lag total konsistent an. Trotz mieser Skalierung der FSR 3.1-Mod von nur 27% auf der 3060 in 4k, fühlt es sich immer noch wesentlich direkter an als ohne FG mit Reflex off. Mit der nativen FSR 3.1-Implementierung ohne Reflex hingegen völliges Gummiband-Feeling.
Relex
2025-05-31, 19:53:14
Mich würde ja mal interessieren, was die da genau seit SL 2.7 bzw. DLSS4 verändert haben. Vor allem die Frametimegraphen von diversen Overlays zeigen ja jetzt alle nen sehr fetten graphen. Also muss man ja was völlig grundlegendes geändert haben.
Sowohl latenzen, framepacing/judder, als auch performance scheint damit deutlich besser zu sein (zumindest zusammen mit DLSS4 FG, FSR FG hab ich mittlerweile aufgegeben).
aufkrawall
2025-05-31, 20:00:17
In Talos Reawakened klappt es mit Nukem-Mod via OptiScaler, gibt damit dann entsprechend trotz FSR 3.1-FG das "DLSS 4-Frame-Pacing" + Reflex im RTSS-Graphen:
https://s1.directupload.eu/images/250531/temp/bryzx7oh.jpg (https://www.directupload.eu/file/d/8936/bryzx7oh_jpg.htm)
Sieht auch smooth aus und bringt meinen IPS nicht zum Flackern, anders als das kaputte Frame Pacing auf RDNA4 (auch mit nativem FSR 3.1 FG, bzw. sogar ohne FG. Wieder mal classic AMD, irgendwas ist immer...).
Lurtz
2025-06-01, 13:03:42
Was entspricht Streamline 2.7? Ist das der Branch in dem die "neue" FG eingeführt wurde?
Lurtz
2025-06-01, 13:04:42
Mich würde ja mal interessieren, was die da genau seit SL 2.7 bzw. DLSS4 verändert haben. Vor allem die Frametimegraphen von diversen Overlays zeigen ja jetzt alle nen sehr fetten graphen. Also muss man ja was völlig grundlegendes geändert haben.
Unwinder meinte das Frame Pacing findet jetzt ganz am Ende der Pipeline statt, deshalb können Monitoringtools nicht mehr das endgültige Framepacing ausgeben.
Relex
2025-06-01, 13:13:23
Was entspricht Streamline 2.7? Ist das der Branch in dem die "neue" FG eingeführt wurde?
Ja, richtig. Also das was wir seit Ende Januar kennen. Die ganzen Games die DLSS4 Patches bekommen haben, haben idr. auch SL 2.7 bekommen.
aufkrawall
2025-06-15, 09:45:03
Man, ist die BQ vom TC-FG mies. Selbst bei 2x sieht das in Talos mit Terrain und Ziegelsteinwänden komplett schlecht gegen FSR FG aus. Der eigene Schatten wird zwar damit mit vollen fps animiert, hat dafür aber hässliche Lücken. Und Preset K sieht auch aus wie Müll gegen FSR 4 bei Nanite und VSM. :freak:
Zum Glück kann man RR reinmodden, mit Transformer Preset E stellt das den "historisch normalen" Abstand wieder her...
Würde mich nicht wundern, wenn das ML-Update für FSR das Nvidia-FG komplett deklassiert...
robbitop
2025-06-15, 10:07:39
Was ist TC-FG? DLSS FG? :)
Bzgl RR. Hab neulich CP77 mit RT Ultra und DLSS-SR @K im balanced mode in 1440p probiert und war krass überrascht wie schlecht Lampen und Leuchtschilder aussehen. Verpixelt, flimmern. RR angeschaltet und bäm -> Problem gelöst.
Muss mal testen ob RR auch angeht wenn ma RT in CP ausschaltet
aufkrawall
2025-06-15, 10:09:55
Tensor Core anstatt Optical Flow Accelerator. FG mit Letzterem war mir auf der 4070S jedenfalls nicht so negativ aufgefallen.
Das neue TC-FG braucht dringend ein Qualitätsupdate...
robbitop
2025-06-15, 10:10:29
Krass - hatte NV nicht gesagt die neue Variante ist schneller und bessere BQ?
aufkrawall
2025-06-15, 10:11:50
Schneller ist es ja (OFA war da schlecht), aber diese Garble-Linien erinnern etwas an die ATi-Texturfilterung der Nullerjahre. :freak:
Muss mal testen ob RR auch angeht wenn ma RT in CP ausschaltet
RT-Reflexionen oder PT müssen an sein.
Lurtz
2025-06-15, 10:52:37
Zum Glück kann man RR reinmodden, mit Transformer Preset E stellt das den "historisch normalen" Abstand wieder her...
Funktioniert das ohne größere Nebenwirkungen? Bei Teil 2 gabs damit doch einige Bildfehler.
aufkrawall
2025-06-15, 11:05:59
Funktioniert das ohne größere Nebenwirkungen? Bei Teil 2 gabs damit doch einige Bildfehler.
In Oblivion Remastered gibt's damit, ähnlich zu den Fehlern mit Transformer-SR in anderen Titeln, mitunter seltsame Gitter-/Rasterartefakte etwa bei Zaubern in der Hand etc.
Das Preset E-Update hatte allerdings das Geflacker mit VSM und DoF in Unreal gefixt. Die Vorteile wiegen die Nachteile damit imho weit mehr als auf. Die VSM haben in Unreal offenbar gar keinen eigenen Denoiser, deshalb profitieren die extremst. :eek: Bzw. umgekehrt ist SR-Preset K dafür komplett fehl am Platz.
Lurtz
2025-06-15, 11:17:47
Ok. Die Situation ist etwas unbefriedigend, entweder es bräuchte RR in mehr Spielen oder ein Preset, das die Vorteile von E und K vereint.
Die Garble-Linien können echt schlimm sein, treten in manchen Spielen aber auch nicht so drastisch auf. Scheint auch wieder vom Content abzuhängen. Ansonsten bin ich bei FG offenbar nicht mit den richtigen Sinnesorganen gesegnet, mir fallen Fuckups da kaum auf.
In TP gibts teils auch ganz ohne FG leichtes Garblen :uponder:
aufkrawall
2025-06-15, 12:01:13
Gerade mal AW2 getestet, da fällt es wirklich auf die Schnelle mit 3xMFG fast gar nicht auf.
Da regelt RR Preset E auch wieder derbe. Einfach nur unglaublich, wie viel besser das als alles andere ist. UP-Mode geht damit btw. mittlerweile auch, sieht aber massiv softer als P aus. Leistung reicht auf der 5070 mit Performance, PT high, 3xMFG zum Glück so gerade.
robbitop
2025-06-15, 12:10:55
Schneller ist es ja (OFA war da schlecht), aber diese Garble-Linien erinnern etwas an die ATi-Texturfilterung der Nullerjahre. :freak:
Bei CP77 fällt mir wenn ich in der Wüste schnell geradeaus fahre eine horizontales garble Band hinter dem Auto auf. Klingt so ähnlich. (4x MFG)
Lurtz
2025-06-15, 12:11:54
Wie aktivierst du RR, immer noch so?
r.NGX.DLSS.denoisermode=1
r.Lumen.Reflections.BilateralFilter=0
r.Lumen.Reflections.ScreenSpaceReconstruction=0
r.lumen.Reflections.Temporal=0
r.Shadow.Denoiser=0
aufkrawall
2025-06-15, 12:18:00
Ja, wobei r.Shadow.Denoiser=0 imho wirkungslos ist und sich vermutlich nur auf das alte UE4 Legacy-RT bezieht.
Ggf. sind auch noch
r.Lumen.Reflections.DownsampleFactor=1
r.LumenScene.Radiosity.Temporal=0
sinnvoll. Nicht vergessen, bei Talos die engine.ini schreibgeschützt zu machen. RR Preset E dann via Inspector. Sharpen würd ich Tonemapper Sharpen ebenfalls via Config nehmen.
Edit: In AW2 ist das FG-Garbling auch teilweise sehr unschön, etwa bei Schildern, bedruckten Kartons oder mit der Taschenlampe angestrahlten Spinten...
Aha ja, die Ringe des Lichtkegels auf Steinwänden sind übel...
Lurtz
2025-06-15, 16:05:28
RR Preset E dann via Inspector.
Hast du eine CustomSettingNames.xml dafür? War mir neu, dass man da überhaupt wie bei SR Presets setzen kann, dachte da geht es noch rein nach DLL.
robbitop
2025-06-15, 16:12:29
Geht mit der aktuellen Version (github) auch mit der Standard xml.
Lurtz
2025-06-15, 16:54:26
Stimmt, hatte nicht die aktuelle Version. Bei RR Profile E steht aber unused.
aufkrawall
2025-06-15, 17:11:04
Ist aber veraltet, im HUD steht auch E.
Lurtz
2025-06-15, 19:34:44
Ich kriegs nicht hin.
Engine.ini read-only unter AppData\Local\Talos1\Saved\Config\Windows erstellt (da lagen nur zwei Dateien, sonst sind da meist mehr bei UE5-Spielen?).
DLL unter The Talos Principle Reawakened\Engine\Plugins\Marketplace\nvidia\DLSS\Binaries\ThirdParty\Win64 abgelegt.
Zeigt nur SR Preset K an.
Edit:
War dumm, funktioniert.
Schon heftig wie stabiler das ist an den Schwachstellen von Preset K :eek: Ich will das öfter nativ angeboten haben!
Von Preset E sehe ich da aber nichts, sondern diamond_wallaby. 310.2.1.
Ex3cut3r
2025-06-15, 19:44:34
Normalweiser musst du im Inspector nicht mehr manuell DLL Dateien ausstauchen Sondern die Option DLL Override aktiveren - "Latest avaible" Für RR das gleiche siehe Bild.
https://s1.directupload.eu/images/250615/7g8955dz.png
aufkrawall
2025-06-15, 19:45:15
Huh? Da sollte preset E: Truthful Shrimp stehen. :confused:
Ex3cut3r
2025-06-15, 19:48:21
Wtf?
Das ist doch die aktuellste Inspector Version?
https://github.com/Orbmu2k/nvidiaProfileInspector/releases
Vom März
Lurtz
2025-06-15, 19:50:47
Normalweiser musst du im Inspector nicht mehr manuell DLL Dateien ausstauchen Sondern die Option DLL Override aktiveren - "Latest avaible" Für RR das gleiche siehe Bild.
Ja, aber das Spiel supportet RR nicht nativ. Gehts dann dennoch ohne DLL? Vermutlich.
Hab jetzt truthful_shrimp nach dem Setzen im globalen Profil. Preset E steht da aber immer noch nicht :D
aufkrawall
2025-06-15, 20:02:07
Höchst merkwürdig. :freak:
https://s1.directupload.eu/images/250615/temp/q6tkaonn.jpg (https://www.directupload.eu/file/d/8951/q6tkaonn_jpg.htm)
Lurtz
2025-06-15, 20:22:40
Eigenartig, hab noch nie "Render Preset" im RR-Overlay gesehen. Kann ja eigentlich nur mit der genutzten DLL in Zusammenhang stehen.
aufkrawall
2025-06-15, 20:24:32
Ich nutze die RR-DLL aus dem StreamLine-Release ohne Treiber-DLL-Override (reinkopiert wegen der App).
Lurtz
2025-06-15, 20:28:01
Jo, mit der DLL sieht es aus wie bei dir.
aufkrawall
2025-06-15, 20:45:32
Jetzt frag ich mich, was diamond_wallaby war. Preset D? RR Preset D schien wesentlich schlechter auszusehen. Kann mich an den Modellnamen nicht mehr erinnern.
Lurtz
2025-06-15, 20:57:02
Ja, D.
aufkrawall
2025-06-15, 21:03:02
Und deine Meinung zu E? :)
Btw. das FG-Garbling in AW2 wurde richtig extrem in der Morgue mit den Taschenlampenringen. Nach dem Level war auch der VRAM übergelaufen, lief mit 10,xGB Belegung wie Abfall. Ausschalten von FG hatte die Performance wiederhergestellt. So viel zu den tollen VRAM-Optimierungen vom RT und DLSS 4. :freak:
The_Invisible
2025-06-19, 10:07:18
Neue dlss version 310.3.0, Presets A-E sind anscheinend deprecated und werden irgendwann im nächsten Release entfernt
https://github.com/NVIDIA-RTX/Streamline/blob/main/docs/DLSS%20Programming%20Guide.pdf
Lurtz
2025-06-19, 10:15:36
Und deine Meinung zu E? :)
Ich hab RR nicht genug benutzt um da feine Unterschiede zu sehen. E sieht aber ziemlich gut aus in Talos.
Neue dlss version 310.3.0, Presets A-E sind anscheinend deprecated und werden irgendwann im nächsten Release entfernt
https://github.com/NVIDIA-RTX/Streamline/blob/main/docs/DLSS%20Programming%20Guide.pdf
E zu entfernen ohne K gefixt zu haben ist aber nicht so geil... :rolleyes:
Relex
2025-06-19, 11:24:06
Das Smearing das K manchmal zeigte lag an falschen Auto Exposure Settings oder anderweitigen Problemen mit dem Input vom Spiel.
Ich denke wenn K für den Entwickler das ist, was er selbst integriert anstatt nur als User Override, dann wird sowas auch auffallen und entsprechend korrigiert.
Das muss also nicht zwangsläufig ein Problem sein.
Was mich aber eher wundert ist, was das für RTX2000 und RTX3000 Karten bedeutet, wo man ggf. aus Performancegründen das CNN Model nutzen würde.
Sollen die user dann den Override nutzen, um die älteren Presets zu bekommen?
x-force
2025-06-19, 11:47:42
Was mich aber eher wundert ist, was das für RTX2000 und RTX3000 Karten bedeutet, wo man ggf. aus Performancegründen das CNN Model nutzen würde.
Sollen die user dann den Override nutzen, um die älteren Presets zu bekommen?
ist das wirklich noch eine relevante frage, wenn das ergebnis mit k performance meist ähnlich zu cnn quality ist?
Relex
2025-06-19, 11:57:19
Kann ich nicht beurteilen, da ich keine ältere GPU + niedriger aufglösten Monitor habe.
Mit Ada + 4K Monitor ist CNN für mich obsolet ja. Aber das muss ja nicht für alle Setups gelten.
Lurtz
2025-06-19, 12:28:22
Das Smearing das K manchmal zeigte lag an falschen Auto Exposure Settings oder anderweitigen Problemen mit dem Input vom Spiel.
Ich denke wenn K für den Entwickler das ist, was er selbst integriert anstatt nur als User Override, dann wird sowas auch auffallen und entsprechend korrigiert.
Ist ja nicht die einzige Regression. Gerade UE5 mit vollem Featureset ist mit K oft gar nicht mal so gut... Da kann man E arguably deutlich besser finden (das Gras in Hellblade 2 zB ist komplett kaputt mit J und K).
Mal ganz davon zu schweigen, dass es offiziell ja immer noch in Beta sein soll, irgendwie. Kann ja schlecht sein, dass das gleiche Preset nur durch die Spiele-Integration von Beta zu Final reifen soll?
aufkrawall
2025-06-19, 14:34:37
Ich hab RR nicht genug benutzt um da feine Unterschiede zu sehen. E sieht aber ziemlich gut aus in Talos.
Ich sehe da ziemlich heftige Unterschiede bei der temporalen Stabilität von Vegetation etwa in Oasen, mit E massiv besser als mit D. :)
basix
2025-06-20, 08:48:17
Nvidia hat ca. 20% Memory-Footprint wegoptimieren können.
Lustigerweise haben sie "RTX 20 series" vergessen zu nennen ;)
Lurtz
2025-06-20, 09:03:36
Wie kriegt man den Treiber-Override jetzt dazu, die neue DLL-Version zu verwenden (per Inspector)? Muss man die DLL manuell irgendwo hinterlegen?
The_Invisible
2025-06-20, 09:14:11
Nvidia hat ca. 20% Memory-Footprint wegoptimieren können.
Lustigerweise haben sie "RTX 20 series" vergessen zu nennen ;)
Schon nett für ein Minor Update. Bin ja gespannt ob dann eventuell mit Wegfall der alten Models ein neues kommt, weil im Prinzip wird es ja noch immer als Beta deklariert
Relex
2025-06-20, 10:03:12
Ja, memory footprint von Super Resolution ist ein wenig geringer geworden. Konnte ich auch in Spielen so nachmessen. Ist aber mit dem Transformer model immernoch höher als mit dem CNN Model. Auch die Performance ist gleich geblieben und damit weiterhin geringer als mit dem CNN Model
Durch das neue Frame Gen (seit DLSS4) wird das aber sowieso überkompensiert, da es deutlich schneller läuft und auch deutlich weniger Speicher braucht.
Aber schön zu sehen, dass sich da weiterhin was tut. Neues Model wäre trotzdem nicht schlecht. Ich will sehen, was mit dem Transformer Model noch möglich ist.
basix
2025-06-20, 11:04:01
Ach ja, seit April haben wir auch ein paar Performance Daten für Framegeneration:
https://github.com/NVIDIA-RTX/Streamline/blob/main/docs/ProgrammingGuideDLSS_G.md#10-requirements
Erstaunlich, dass eine 5080 in 4K fast gleich schnell wie eine 4090 sein soll. Und FG ist etwa 2.5x so heavy wie SR, 2.77ms vs. 1.07ms auf einer 4090. Hätte ich nicht gedacht.
Was ich nicht ganz verstehe ist, dass 4x MFG fast doppelt so viel Zeit braucht wie 2x MFG. Hiess es nicht mal, dass das Primärnetzwerk von FG deutlich mehr Ausführungszeit als das Sekundärnetzwerk benötigt? Anhand diesen Zahlen würde ich annehmen, dass beide etwa gleich viel Zeit benötigen.
Nimmt man SR, FG und RR zusammen (4K DLSS-P auf Ada/Blackwell), benötigt man doch insgesamt 1.5 GByte an VRAM. Die Hälfte davon ist FG! Nvidia wäre wohl gut beraten, wenn man die nächste Iteration auf FP8 oder gar FP4 umstellt.
aufkrawall
2025-06-20, 15:52:40
Wie kriegt man den Treiber-Override jetzt dazu, die neue DLL-Version zu verwenden (per Inspector)? Muss man die DLL manuell irgendwo hinterlegen?
Musst unter C:\ProgramData\NVIDIA\NGX\models gucken, welcher Dateiname genutzt wird und die DLL/.bin dann entsprechend umbenennen und dort ersetzen. :freak:
Ex3cut3r
2025-06-20, 16:11:40
Musst unter C:\ProgramData\NVIDIA\NGX\models gucken, welcher Dateiname genutzt wird und die DLL/.bin dann entsprechend umbenennen und dort ersetzen. :freak:
Müsste ich noch nie manuell machen. Allerdings habe ich auch keine Benutzerkontensteuerung aktiv.
aufkrawall
2025-06-20, 16:23:34
Müsste ich noch nie manuell machen. Allerdings habe ich auch keine Benutzerkontensteuerung aktiv.
Doch, "musst" du, wenn du weiterhin den Treiber-DLL-Override nutzen willst, der Treiber bzw. der NGX-Updater aber noch nicht die neusten DLLs aus dem StreamLine-Release verteilt.
Man kann natürlich weiterhin einfach händisch reinkopieren und nur das Preset überschreiben.
Lurtz
2025-06-20, 16:33:45
Musst unter C:\ProgramData\NVIDIA\NGX\models gucken, welcher Dateiname genutzt wird und die DLL/.bin dann entsprechend umbenennen und dort ersetzen. :freak:
Also im Ordner dlss_override die entsprechenden DLLs ersetzen? In der nvngx_package_config.txt auch was ändern? Für RR liegt da gar keine DLL.
Ex3cut3r
2025-06-20, 16:41:05
Benutze das, nix mit Hand machen. :freak:
Einfach die neusten DLSS Dateien aus hier irgendwo hin entpacken.
https://github.com/NVIDIA-RTX/Streamline
https://github.com/SimonMacer/AnWave/releases/tag/AnWave-DLSS
https://private-user-images.githubusercontent.com/136802581/409839686-714e7bc4-a194-4275-898d-f51af9d17e01.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY2 9tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3NT A0MzA4MjEsIm5iZiI6MTc1MDQzMDUyMSwicGF0aCI6Ii8xMzY4MDI1ODEvNDA5ODM5Njg2LTcxNGU3Ym M0LWExOTQtNDI3NS04OThkLWY1MWFmOWQxN2UwMS5wbmc_WC1BbXotQWxnb3JpdGhtPUFXUzQtSE1BQy 1TSEEyNTYmWC1BbXotQ3JlZGVudGlhbD1BS0lBVkNPRFlMU0E1M1BRSzRaQSUyRjIwMjUwNjIwJTJGdX MtZWFzdC0xJTJGczMlMkZhd3M0X3JlcXVlc3QmWC1BbXotRGF0ZT0yMDI1MDYyMFQxNDQyMDFaJlgtQW 16LUV4cGlyZXM9MzAwJlgtQW16LVNpZ25hdHVyZT1kMGNkN2MxNjdkODk5NWZhZTIxMDVkZWFhNjRkMT Y1NmFkYTUwNjk2MDM2ZGQwNTUwN2U5YmJhNTIyOTE3ODU3JlgtQW16LVNpZ25lZEhlYWRlcnM9aG9zdC J9.rJ2qHUc356lB_mWku2ZXlMvBQuUrqVmJ_ZpPrs8IJC4
aufkrawall
2025-06-20, 16:41:06
Bei mir ist da ein dlssd-Ordner für RR. In der txt muss man nichts ändern, Dateien überschreiben reicht. Weiß gerade nicht mehr, ob man die dann schreibschützen musste...
Darkman.X
2025-06-20, 17:02:46
@Lurtz:
Ich habe es selber noch nie verwendet:
Der Entwickler "emoose" (bekannt durch die Tools "DLSSTweak" und "NvTrueHDR") hat mal ein Powershell-Script (https://gist.github.com/emoose/11271bbb3b42fb3b1b0e1c83eef47c05) veröffentlicht, welche die vom User angegebene DLL-Datei nach "C:\ProgramData\NVIDIA\NGX\models" kopiert und die "nvngx_config.txt" anpasst.
Die komplette Anleitung steht in den ersten 37 Zeilen, alle Zeilen, die mit einem # beginnen.
Im Grunde läuft es so, wenn du das Script lokal gespeichert hast:
Rechtsklick auf die Script-Datei -> "Mit Powershell ausführen" -> es öffnet sich ein Konsolen-Fenster, welches nach "DllPath" fragt -> mit Drag & Drop die DLL-Datei in das Konsolenfenster schieben, dann müsste der Pfad+Dateiname stehen -> ENTER drücken.
Diese Prozedur führt man für alle 3 DLL-Dateien durch.
Keine Ahnung ob es mittlerweile eine komfortablere Variante gibt...
EDIT: Oh Gott, bin ich langsam :( Das verlinkte "AnWave-DLSS" scheint wohl eine komfortablere Variante zu sein.
aufkrawall
2025-06-20, 17:24:16
@Lurtz:
Ich habe es selber noch nie verwendet:
Der Entwickler "emoose" (bekannt durch die Tools "DLSSTweak" und "NvTrueHDR") hat mal ein Powershell-Script (https://gist.github.com/emoose/11271bbb3b42fb3b1b0e1c83eef47c05) veröffentlicht, welche die vom User angegebene DLL-Datei nach "C:\ProgramData\NVIDIA\NGX\models" kopiert und die "nvngx_config.txt" anpasst.
Ah ja, ganz vergessen. Das ist dann natürlich korrekter, als händisch mit einzelnen Dateien rumzupfuschen.
Na ja, auch wenn imho alles nicht sehr wichtig oder interessant. Ich sehe nicht 1MB weniger Allozierung in Talos mit den neuen DLLs (mit RR und MFG), und würde eh, falls möglich, in jedes UE-Spiel RR reinmodden.
RR Preset E sieht btw. auch in AW2 einfach nur hervorragend aus. Wahnsinn, welche Weiterentwicklung das seit der ersten Iteration gemacht hat. Da ist das reguläre SR einfach nur maximal uninteressant geworden bzw. eine Strafe, wenn man es mangels RR verwenden muss. :freak:
robbitop
2025-06-20, 18:57:32
Vermutest du es hat einen Grund warum das für nicht RT Titel nicht genutzt wird bzw. ohne RT ausgeschaltet wird, wenn es ja doch (siehe Mods) auch ohne RT zu funktionieren scheint? Entsprechend könnte man SR begraben
aufkrawall
2025-06-20, 19:09:22
Hatten wir doch schon mal besprochen: Imho Leistungskosten. Selbst in UE mit hoher Anteil an der Frame Time durch Lumen + VSM kostet das mal eben 10-15% gegenüber Transformer-SR (was auch auf Lovelace+ schon etwas teurer als CNN ist). In Spielen mit höheren fps dürfte das dann richtig reinhauen.
Lurtz
2025-06-20, 20:30:54
https://github.com/SimonMacer/AnWave/releases/tag/AnWave-DLSS
:up:
Wenn man den Streamline-Override-Mode nutzt, wird das nur bei kompatibler Streamline-Version aktiviert? Oder kann man damit Crashes verursachen?
Der Entwickler "emoose" (bekannt durch die Tools "DLSSTweak" und "NvTrueHDR") hat mal ein Powershell-Script (https://gist.github.com/emoose/11271bbb3b42fb3b1b0e1c83eef47c05) veröffentlicht, welche die vom User angegebene DLL-Datei nach "C:\ProgramData\NVIDIA\NGX\models" kopiert und die "nvngx_config.txt" anpasst.
Das habe ich schon benutzt, war mir jetzt nicht sicher ob das mit dem Override harmonisiert.
robbitop
2025-06-21, 08:09:21
Hatten wir doch schon mal besprochen: Imho Leistungskosten. Selbst in UE mit hoher Anteil an der Frame Time durch Lumen + VSM kostet das mal eben 10-15% gegenüber Transformer-SR (was auch auf Lovelace+ schon etwas teurer als CNN ist). In Spielen mit höheren fps dürfte das dann richtig reinhauen.
Ja ich meine abseits der Kosten (das ist bekannt). Man könnte ja einen Treibertoggle für Modelle setzen. Performance Modell (SR Modelle) / Quality (RR Modelle).
dildo4u
2025-06-21, 15:09:53
Computerbase testet hier DLSS 3 vs 4 Performance in The Alters
https://www.computerbase.de/artikel/gaming/dlss-4-vs-3-fsr-4-vs-3-1-stellar-blade-the-alters-benchmarks.93220/
Lurtz
2025-06-21, 20:20:52
Ziemlich liebloser Vergleich. Dass FSR4/DLLS4 langsamer sind, ist ja bekannt, das könnte man schonmal ausführlicher untersuchen als so.
Relex
2025-06-21, 20:37:36
RR Preset E sieht btw. auch in AW2 einfach nur hervorragend aus.
Wann wurde denn das Preset E für RR eingeführt? Das muss doch ziemlich neu sein?
Komisch ist, dass man mit dem Treiber Override auf "Latest" nur RR Preset D (diamond_wallaby) bekommt.
Also die erste Iteration des Transformer RR).
Erst wenn man im Inspector explizit Preset E auswählt, bekommt man auch RR Preset E (truthful_shrimp).
DLL Override via Treiber reicht aber (dll Tausch unnötig). Die Treiber dll files können also Preset E bereits, aber offiziell scheint Nvidia es noch nicht zur Verfügung zu stellen.
Qualitativ ist es definitiv besser. Schärfe ist gleich aber vor allem das Anti-Aliasing ist an manchen Stellen besser. Manchmal sogar deutlich.
aufkrawall
2025-06-21, 22:01:54
Wann wurde denn das Preset E für RR eingeführt? Das muss doch ziemlich neu sein?
Ja, im vorletzten Release:
Added Preset E to DLSS Ray Reconstruction, which adds provision for Depth of Field Guide Buffer in addition to Subsurface Scattering (SSS)
https://github.com/NVIDIA/DLSS/releases/tag/v310.2.1
Hatte damals auch schon mal erwähnt, dass es vs. RR D Probleme mit DoF und dem mutmaßlichen Screen Space-Anteil von VSM in UE5 fixt. Dass es auch ansonsten die Qualität nochmal deutlich erhöht, war mir erst später in Talos aufgefallen. Da muss man mit viel Vegetation wirklich nur einmal kurz strafen, um die deutlich gesteigerte Stabilität sofort zu bemerken. Reduziert auch massiv Moiré an einigen feineren Strukturen von Säulen etc. Massivst full of win.
Ex3cut3r
2025-06-23, 13:44:47
Krawall hat recht. RR Preset E sieht fantastisch aus, selbst ohne jegliches CAS @ 4K DLSS Q. Leider ist die RTX 3080 Ti UV am Zahnfleisch. Normalerweise müsste ich jetzt nach 4 Jahren Nutzung. Die Wärmeleitpaste tauschen. Aber ich bin zu faul. :freak:
Deshalb UV auf 270W von 350W. Dadurch verliere aber ca 10-15% Leistung.
Eine RTX 5080 OC muss her. :smile:
RR Q - Preset E:
https://s1.directupload.eu/images/250623/temp/vhvbg4uz.png (https://www.directupload.eu/file/d/8959/vhvbg4uz_png.htm)
RR P - Preset E:
https://s1.directupload.eu/images/250623/temp/srnvxsj3.png (https://www.directupload.eu/file/d/8959/srnvxsj3_png.htm)
SR Q Preset K:
https://s1.directupload.eu/images/250623/temp/iozrpem5.png (https://www.directupload.eu/file/d/8959/iozrpem5_png.htm)
Lurtz
2025-06-23, 15:11:35
RR E ist wirklich beeindruckend in CP 2077. Das wertet sowohl den PT als auch SR-Effekt nochmal deutlich auf. Wenn nVidia das ähnlich schnell wie SR laufen lassen kann ist man der Konkurrenz im Grunde schon wieder eine Generation voraus.
Schon ganz nett wie sich das innerhalb von weniger als zwei Jahren von einem Denoiser mit Ölgemäldefilter zum heutigen Stand entwickelt hat.
aufkrawall
2025-06-23, 20:00:27
Ja, ist eigentlich immer wesentlich stabiler als SR K oder SR E und hat dabei auch noch viel weniger Bewegungsunschärfe als SR E (wenn auch etwas mehr als K, zumindest für die Kamera). Also nochmal viel näher an "echtem" SSAA. Der Unschärfe-Bereich um Objekte bei Disocclusion ist offenbar auch deutlich kleiner/genauer als mit SR K. Zeigt eindrücklich, dass ML weiterhin eine Goldgrube ist, auch wenn da noch viel Forschung bez. der Performance und ggf. auch VRAM-Verbrauch nötig sein wird.
Sofern die PS6 aber wirklich mit UDNA, moderner Fertigung und normaler GPU-Größe kommt, wird das dann wohl endlich das goldene RT- und ML-TAAU-Zeitalter. Politische potenzielle Störquellen wie lästige Invasionen mal ausgeklammert. :freak:
The_Invisible
2025-06-24, 20:15:16
Mit dem 310.3.0 Release ist das Transformer Modell aus der Beta draußen: https://github.com/NVIDIA/DLSS/releases/tag/v310.3.0
Relex
2025-06-24, 20:30:30
Ja, ist eigentlich immer wesentlich stabiler als SR K oder SR E und hat dabei auch noch viel weniger Bewegungsunschärfe als SR E (wenn auch etwas mehr als K, zumindest für die Kamera). Also nochmal viel näher an "echtem" SSAA. Der Unschärfe-Bereich um Objekte bei Disocclusion ist offenbar auch deutlich kleiner/genauer als mit SR K. Zeigt eindrücklich, dass ML weiterhin eine Goldgrube ist, auch wenn da noch viel Forschung bez. der Performance und ggf. auch VRAM-Verbrauch nötig sein wird.
Sofern die PS6 aber wirklich mit UDNA, moderner Fertigung und normaler GPU-Größe kommt, wird das dann wohl endlich das goldene RT- und ML-TAAU-Zeitalter. Politische potenzielle Störquellen wie lästige Invasionen mal ausgeklammert. :freak:
RR E sieht schon ziemlich sauber und stabil aus, aber trotzdem hat es temporale Unschärfe.
Nach SR Preset K vermisse ich die schärfe bei RR schon ziemlich.
Mal sehen, wie viele Jahre es dauern wird, bis RR die schärfe erreicht, wie aktuell SR mit Preset K. Das wäre für mich quasi der holy grail.
Puh, langsam wird das mit den Abkürzungen und buchstaben fast schon zum insider. Jemand der da nicht drinsteckt checkt doch nichtmal ansatzweise worüber hier diskutiert wird O.o
Lurtz
2025-06-24, 20:37:01
Mit dem 310.3.0 Release ist das Transformer Modell aus der Beta draußen: https://github.com/NVIDIA/DLSS/releases/tag/v310.3.0
Also tatsächlich ohne Fixes der größten Regressions. Und ich habe die Tage noch darüber geunkt :ugly:
aufkrawall
2025-06-25, 03:26:23
Jemand bei Guru3D meinte, in einem Fall wären mit der neuen DLL und K nun Raster-Artefakte bei afair Haaren weg. Aber dass sich am Preset selbst nichts verbessern würde, war ja abzusehen.
Lurtz
2025-06-25, 07:31:18
Aber man hätte mit dem viel besseren Preset L die Beta verlassen können :D
crux2005
2025-06-29, 10:06:37
20% weniger VRAM Verbrauch 310.2.1 vs. 310.3.1.0: https://wccftech.com/nvidia-upcoming-dlss-transformer-model-will-slash-vram-usage-by-20/
Immer noch deutlich mehr als das alte CNN Model.
Relex
2025-06-29, 12:20:33
Na ja, in 1440p sind es rund 50 MB mehr. Dafür kannste im zweifel Balanced statt Quality nehmen und sparst so effektiv wieder mehr VRAM ein. Die Leute mit so wenig VRAM, wo das relevant wäre spielen außerdem eh nicht in 4K.
Nutzt man Upsampling + Frame Gen zusammen, dann ist die VRAM belegung mit den neuen Algos deutlich niedriger.
x-force
2025-06-29, 12:49:13
Die Leute mit so wenig VRAM, wo das relevant wäre spielen außerdem eh nicht in 4K.
laut raff muss selbst ne 5060 alle regler nach ganz rechts drehen können, kein kompromisse, egal wie low end die karte ist :freak:
es gibt offenbar nicht wenige masochisten, die von zeitlicher auflösung noch nie etwas gehört haben und gerne bei 30fps und >50ms inputlag spielen, hauptsache der screenshot sieht gut aus.
interessant wäre mal zu betrachten was von den maximierten settings überhaupt noch übrig bleibt, wenn mit dlss und 1080p praktisch mit 720p gerendert wird, da die performance nicht für mehr reicht.
findet die forensik dort spuren von 4k texturen und 16x af?
robbitop
2025-06-29, 13:25:29
Naja leider skalieren Assets oft ab einer gewissen Stufe nicht mehr so toll und es sieht dann unnötig schlecht aus. Hängt aber stark vom Spiel und Studio ab. Und man misst ja eine neue GPU nicht nur anhand des „hier und jetzt“ sondern man muss im Hinterkopf behaltrn, dass die ein paar Jahre im Einsatz sein wird. IMO gibt es an 8 gb vram in 2025 nichts gutzureden. Insbesondere wenn man sich die Spotpreise für gddr Speicher anschaut.
x-force
2025-06-29, 13:30:56
Und man misst ja eine neue GPU nicht nur anhand des „hier und jetzt“ sondern man muss im Hinterkopf behaltrn, dass die ein paar Jahre im Einsatz sein wird.
es bleibt abzuwarten, ob es überhaupt jemals ein game geben wird, dass mit low settings die 8gb sprengt UND gleichzeitig auf den genannten karten mit 16 gb und gleicher rechenleistung trotzdem noch flüssig läuft.
Relex
2025-06-29, 13:38:31
Eine nagelneue GPU, die schon mit aktuellen Spielen überfordert ist, wäre halt ein schlechter kauf. Man kauft ja mit dem Ziel sie nicht schon direkt nach dem Kauf wieder ersetzen zu müssen... Daher sind Maximale Details schon ein sinnvolles Ziel. Ist ja okay, wenn man dann nach 1-2 Jahren nicht mehr mit maximalen Details spielen kann. Aber wenn man bei einsteiger oder mittelklasse Karten schon direkt mit medium settings starten muss, damit es läuft, dann ist die Karte eh schon an dem Punkt wo sie langsam ausgetauscht werden sollte. Da läuft dann also was falsch...
Wobei es natürlich auch um Verhältnismäßigkeit geht. Wenn Max Settings unnötig fordernd sind, ist es nicht unbedingt sinnvoll das als Maßstab anzusetzen. Tatsächlich können die Entwickler ja die Anforderungen beliebig skalieren. Max Settings könnten auch 10x so fordernd sein, wenn ein Entwickler bock drauf hat.
Wie immer sollte man halt mit gesundem Menschenverstand an die Sache rangehen, aber eine 500€ GPU sollte halt mindestens bessere Settings nutzen können, als eine Konsole.
Und ja, manche Games skalieren über die Grafiksettings sehr schlecht. Da ist Upsampling dann immer die sinnvolle Variante. Aber eigentlich auch sonst immer. Denn DLSS 4 verliert ja bis zum performance preset bei reduzierter Auflösung keine tatsächliche Schärfe mehr gegenüber nativ, praktisch wird das bild dann nur ein bisschen weniger stabil und hat etwas mehr Artefakte und verliert ggf. ein paar feine Details. Aber Unschärfe wie bei DLSS3 gibts ja quasi nicht mehr.
Die Artefakte durch DLSS sind dann aber sehr viel geringer als die Artefakte, die beim Reduzieren von Grafiksettings entstehen (flimmernde schatten und andere flimmernede Effekte, PopIn und LoD Übergänge usw). Ein niedrigeres DLSS Preset ist da meist deutlich unauffälliger.
robbitop
2025-06-29, 14:03:00
es bleibt abzuwarten, ob es überhaupt jemals ein game geben wird, dass mit low settings die 8gb sprengt UND gleichzeitig auf den genannten karten mit 16 gb und gleicher rechenleistung trotzdem noch flüssig läuft.
Auf low sieht es aber wie von mir geschrieben oft überproportional schlecht aus (weil assets oft nicht für zu kleine Detailstufen optimiert sind - wäre das der Fall würde ich hier zustimmen) und ist auch nicht ggf der Anspruch einer brandneuen Karte.
Und dass Speicherbedarf über die Zeit zunimmt ist empirisch über die letzten Jahrzehnte doch hinreichend belegt. IMO braucht man da nicht abzuwarten. :)
Wenn man bedenkt wie günstig gddr im spotpreis ist und dass 8gb seit bereits 10 Jahren im Midrange vorhanden sind (im high end waren es sogar 12) ist das schon eine unschöne Entwicklung. Braucht man IMO nicht schönzureden.
Dass es nicht gleich 16 gb im midrange sein müssen - ok. Aber 12 wäre schon gut.
x-force
2025-06-30, 00:59:06
Auf low sieht es aber wie von mir geschrieben oft überproportional schlecht aus (weil assets oft nicht für zu kleine Detailstufen optimiert sind - wäre das der Fall würde ich hier zustimmen) und ist auch nicht ggf der Anspruch einer brandneuen Karte.
low ist auch worst case szenario. häufig gibts ja mindestens drei stufen.
wenn das spiel z.b. high und very high bietet, reicht das schon um speicher zu sparen.
gerade die von mir häufig erwähnten texturen sind ein sehr guter regler.
ich bezweifle ernsthaft, dass die höchste stufe mit 720p rendertarget überhaupt sichtbar ist.
gibt genug Leute die Spielen nur Valorant oder League/Dota und da reichen auch locker 8GB, sogar 4GB würde ich sagen.
dafür reicht so eine GPU doch locker? wer AAA Titel mit so einer GPU Spielen will und alles auf High ist doch selber schuld.
Nightspider
2025-06-30, 02:37:32
Mal meinen Beitrag aus dem Hunt Showdown Thread kopiert:
Ich habe das Spiel jetzt gerade angefangen.
Sagt mal wieso flimmert das Spiel mit DLSS wie die Hölle?
Mit FSR ist das bild zwar unschärfer aber flimmert viel, viel weniger.
Selbst wenn ich DLSS 4 erzwinge und DLAA einschalte flimmert es. Da bekomme ich Augenkrebs.
Erst ab 4XXX*XXXX Auflösung wird es langsam erträglich aber flimmert trotzdem noch sichtlich mehr.
Scheint total kaputt zu sein.
robbitop
2025-06-30, 07:23:19
low ist auch worst case szenario. häufig gibts ja mindestens drei stufen.
wenn das spiel z.b. high und very high bietet, reicht das schon um speicher zu sparen.
gerade die von mir häufig erwähnten texturen sind ein sehr guter regler.
ich bezweifle ernsthaft, dass die höchste stufe mit 720p rendertarget überhaupt sichtbar ist.
Mag sein. Ist doch aber trotzdem kacke bei einer neuen Grafikkarte ein Setting runterstellen muss, was normalerweise keine Leistung kostet. Das ist weder gut noch normal. Und wir reden hier nicht von einem Wegwerfartikel oder irgendetwas richtig billigem. Das ist ja kein lowend Kram aus der 30er, 40er oder 50er Reihe. Wor reden über 60 und 60ti. Die Dinger kosten bis zu 365€ (5060ti 8gb). IMO nicht in Ordnung. Ich kann es aus Endkundensicht auch überhaupt nicht nachvollziehen wie man sowas relativieren kann. Aus Sicht des IHVs schon.
gibt genug Leute die Spielen nur Valorant oder League/Dota und da reichen auch locker 8GB, sogar 4GB würde ich sagen.
dafür reicht so eine GPU doch locker? wer AAA Titel mit so einer GPU Spielen will und alles auf High ist doch selber schuld.
Mag sein dass es solche Leute auch viel gibt. Aber nochmal wir reden über eine brandneue GPU die bis zu 365€ kostet. Warum muss das aus Esport/Moba limitiert sein und kann bei AAA Spielen nicht volle Texturdetails bieten? Das ist ein Setting was normalerweise keine Leistung kostet. Und es geht um brandneue und zT nicht gerade billige GPUs.
Für die Preisklasse gab es diese Limitierung sonst nicht.
Ist es immer ein Problem? Nein - aber es ist definitiv unter dem was eine eneue GPU für das Geld bieten sollte. Für viele Leute und PC Zusammenstellungen ist das immernoch ziemlich viel Geld.
crux2005
2025-06-30, 09:15:52
Ist AFAIR grob das was auch Hardware Unboxed im FSR4 vs. DLSS4 Video berichtet haben.
aufkrawall
2025-06-30, 15:55:12
Mal flugs getestet:
06inv0Q3OfQ
Was eine Fehlentwicklung. Einfach nur völlig überhypt, zumindest mit modernem Rendering.
Relex
2025-06-30, 16:44:26
Der schärfegewinn ist halt absolut gewaltig.
Vorher stieg der Unschärfe Grad je niedriger das Upscaler Preset war. Schärfe war also bis dahin immer auch direkt an die Performance gebunden. Selbst wenn man DLAA nutzte und das Spiel je nach GPU kaum noch spielbar wurde hat man aber nicht die Bildschärfe erreicht, die man jetzt mit DLSS Performance (in 4K) erreicht.
Das ist halt der Durchburch, der sich fast schon wie "cheaten" anfühlt. Und das überwiegt für mich absolut alles mit großem Abstand. DLSS4 könnte wahrscheinlich doppelt so viele Artefakte erzeugen und ich würde es immernoch bevorzugen.
Ändert natürlich nichts daran, dass die Probleme existieren. Es ist halt nur die Frage, was man eher tolerieren kann, und ob Nvidia das ohne RR fixen kann und ohne wieder Schärfe zu opfern.
Für mich ist die generelle TAA Unschärfe jedenfalls weniger tolerierbar als die paar Rausch artefakte. Zumal CNN SR und Transformer RR ja auch nicht frei von Artefakten sind.
Aber kann natürlich auch sein, dass mir das am OLED jetzt einfach auch deutlicher auffällt, wenn der AA Algo blurrt, weil man mit Transformer SR + OLED eine bis dato quasi unerreichte Kantenschärfe im bewegtbild erreichen kann.
Nightspider
2025-06-30, 16:58:08
Ich weiß nicht obs an 4K liegt aber ich nehme diesen Schärfevorteil von DLSS4 nicht so dramatisch wahr, wie ich es immer lese.
Oder liegts daran das ich mit 4K@1440p Monitor spiele, das ich diesen Schärfevorteil nicht so wahrnehmen kann?
Edit:
Und hat noch jemand einen Tipp für Hunt Showdown ?
aufkrawall
2025-06-30, 17:01:57
Bro findet's mit 4k 240Hz OLED und 5090 auch ätzend in Talos. Aber nicht die Bewegungsunschärfe mit RR, sondern das Gebrösel mit K. :freak:
In Fortnite mit niedrigsten Details 4k geht K ab Quality, darunter nimmt auch wieder das Geschmiere sich bewegender Objekte in der Ferne etc. deutlich zu.
Hunt ist komisch, das hatte afair ein DLL-Update bekommen, womit dann auch das grässliche alte DLSS-Sharpen kein Thema mehr sein sollte. Neue Regression per Spiel-Update?
Relex
2025-06-30, 17:10:34
Na ja, so setzt halt jeder andere Prios.
Ich weiß nicht obs an 4K liegt aber ich nehme diesen Schärfevorteil von DLSS4 nicht so dramatisch wahr, wie ich es immer lese.
Oder liegts daran das ich mit 4K@1440p Monitor spiele, das ich diesen Schärfevorteil nicht so wahrnehmen kann?
Kann vom Sitzabstand abhängig sein oder auch der eigenen Sehkraft oder schlichtweg der eigenen Wahrnehmung.
Wenn du aber mit DL-DSR in 4K auf einem 1440p Monitor spielst hast du durch den Downsampling Filter von DL-DSR auf jeden Fall eine gewisse Unschärfe im Bild und nicht mehr die Pixel perfect Schärfe die du nativ hättest.
Das sollte z.B. direkt am Desktop auffallen. Wenn du da die höhere DL-DSR Auflösung nutzt, sollte z.B. Schrift etwas unschärfer als nativ aussehen.
Das mindert den Schäfevorteil von DLSS4 natürlich ein Stück.
Und wenn du DLSS3 nutzt, dann überwiegt dort die höhere Renderauflösung. Das sorgt für deutlich mehr Schärfegewinn, als das bisschen Unschärfe durch den Downsampling filter jemals wegenehmen könnte, da ja wie gesagt, die Bildschärfe von DLSS3 direkt mit der Renderauflösung aber sogar schon alleine durch die höhere Ausgabeauflösung skaliert.
Also ja, in deinem Szenario ist DLSS3 in Sachen Schärfe bevorteilt und DLSS4 benachteiligt.
In Videos geht der Schärfegewinn auch immer gerne in der Kompression unter. Ich finde mir ist es hier aber ganz gut gelungen, den Unterschied deutlich sichtbar einzufangen. Wobei du das natürlich auch auf nem nativen 4K Screen sehen müsstest, sonst haste ja wieder downsampling:
cUTGoDRC9OE
EDIT: Wobei ich da nur TAA vs TSR vs DLSS4 vs FSR vergleiche und kein DLSS3. Aber DLSS3 ist halt in etwa auf TAA niveau...
Nightspider
2025-06-30, 17:29:00
Und wenn du DLSS3 nutzt, dann überwiegt dort die höhere Renderauflösung. Das sorgt für deutlich mehr Schärfegewinn, als das bisschen Unschärfe durch den Downsampling filter jemals wegenehmen könnte, da ja wie gesagt, die Bildschärfe von DLSS3 direkt mit der Renderauflösung aber sogar schon alleine durch die höhere Ausgabeauflösung skaliert.
Die Renderauflösung, die ich selbst auswähle, ist doch unabhängig davon, ob ich nun DLSS3 oder DLSS4 verwende.
Bin mir nicht sicher ob ich dir ganz folgen kann, wie du das meinst.
Also ja, in deinem Szenario ist DLSS3 in Sachen Schärfe bevorteilt und DLSS4 benachteiligt.
Sowas habe ich mir schon fast gedacht, weil ich manchmal vom scharfen Bild angetan war (beispielsweise bei 4XXX oder 5XXX Auflösung bei 21:9) und dann gemerkt habe, das gar nicht Preset K aktiv war sondern E.
Und dann beim Wechsel auf K nicht so ganz sicher war obs schärfer ist oder ein Placebo Effekt.
1440p Monitor ist wahrscheinlich einfach zu niedrig aufgelöst um da den Unterschied groß zu merken.
aufkrawall
2025-06-30, 17:39:16
SR CNN Preset E ist beim Standbild schon recht scharf, selbst bei 50% mitunter deutlich schärfer als TAA. "Nur" in Bewegung halt nicht. Transformer RR Preset E ist hinsichtlich Bewegtbild sowohl massiv schärfer als auch stabiler. Smeart btw. auch beim wichtigen Thema Objekte vor der Skybox deutlich weniger als SR Preset K (auch wenn's in Unreal da bei bestimmten Farbwechseln ein seltsames Silhouetten-Ghosting gibt, was mir so in AW2 noch nicht aufgefallen ist).
Relex
2025-06-30, 17:46:51
Hmm, wie soll ich das erklären.. Ich erklärs einfach mal ausführlicher, vielleicht hilft das.
DLSS3 erzeugt ein vergleichsweise unscharfes Bild in bewegung ähnlich wie es TAA macht. Auch FSR3 hat das Problem.
Diese Unschärfe verschlimmert sich, je niedriger die Auflösung ist. 1440p mit DLSS Quality (also intern 960p) ist z.B. in Bewegung schon arg unscharf.
Wenn du nun die Auflösung erhöhst, also sowohl die interne Renderauflösung, als auch die Ausgabeauflösung, dann steigt die Bildschärfe mit DLSS3 sehr deutlich an.
DLSS3 Performance @ 4K sieht z.B. schon sehr viel schärfer aus als DLSS3 Quality @ 1440p, obwohl sich die interne Renderauflösung von 960p auf 1080p nur leicht erhöht hat.
Die Ausgabeauflösung spielt also schonmal einen sehr großen, wenn nicht den größten Faktor.
Natürlich erhöht sich die Schärfe dann aber durch erhöhen der Internen Renderauflösung weiter. Wenn du DLSS Balanced oder Quality und schlussendlich DLAA wählst, wird das Bild mit jedem Schritt schärfer.
Es ist also bei DLSS3 grundsätzlich sinnvoll, z.B. auf einem 1440p Monitor via Downsampling bzw. DL-DSR die (Ziel)Auflösung, mit der DLSS arbeitet, noch oben zu pushen, also in deinem Fall auf 4K. Du bekommst bei gleicher oder ähnlicher interner Renderauflösung so bereits ein deutlich schärferes Bild. Dass das Bild durch den Downsampling Filter minimal unschärfer wird spielt hier keine Rolle, da der Schärfegewinn durch die höhere Auflösung bei weitem überwiegt.
DLSS4 funktioniert aber komplett anders. Zwischen DLSS Performance, Balanced und Quality gibt es nahezu gar keinen Schärfeunterschied. Auch ob du 1440p oder 4K als Zielauflösung hast spielt keine Rolle. Beides sieht so scharf aus wie es nur sein kann. Das Bild ist praktisch immer knack scharf.
Das heißt, wenn du jetzt Downsampling machst und auf deinem 1440p Monitor in 4K spielst, dann gewinnst du mit DLSS4 keine Bildschärfe dazu. Klar bekommst du sicher bessere Kantenglättung etwas mehr Bilddetails, weniger Artefakte, aber die Schärfe profitiert nicht.
Im Gegenteil, dadurch dass du das Bild einmal durch den Downsampling Algorithmus jagst, verlierst du ein bisschen Bildschärfe (was du ja wie ich vorher schon sagte z.B. am Desktop mit Text nachvollziehen können solltest).
Heißt also mit DLSS3 + 4K Downsampling @ 1440p gewinnst du unterm Strich deutlich an Bildschärfe, während du mit DLSS4 in diesem Szenario etwas schärfe einbüßt.
Würdest du einfach nur in 1440p ohne Downsampling spielen sollte der Unterschied zwischen z.B. DLSS Quality mit CNN Model (Preset E) und Transformer Model (Preset K) sehr viel deutlicher ausfallen.
Der Unterschied ist auch in 4K auf nem 4K Monitor sehr groß. Das "Problem" ist halt, sobald du Downsampling machst, maskierst du diesen Unterschied ein Stückweit (was dir aber auch ein Stück performance kostet).
Die Frage die man sich hier also stellen kann ist: Sieht DLSS4 Quality @ 1440p besser oder zumindest gleichwertig aus als DLSS 3 mit Downsampling. Falls ja, hättest du nicht nur bessere oder zumidnest gleiche Bildqualität sondern auch deutlich höhere Performance.
aufkrawall
2025-06-30, 17:52:40
Zwischen DLSS Performance, Balanced und Quality gibt es nahezu gar keinen Schärfeunterschied.
Natürlich gibt es den bei Disocclusion und auch Effekten wie SSR, von RT gar nicht erst zu sprechen. Partikel-Ghosting wird auch schlechter.
Irgendwie stellst du es immer so da, als würden 3D-Szenen nur aus frei betrachtbaren Texturen bestehen, wo DLSS Transformer-SR natürlich super ist...
Relex
2025-06-30, 17:55:55
Na ja, mir hat der Wald in Avowed schon gereicht.
Das ganze Blattwerk war mit CNN Preset E in bewegung einfach total unscharf, flimmernd und low res.
Mit transformer Preset K war es subjektiv doppelt so scharf und gleichzeitig stabiler. Übrigens kein Vergleich zu der Artefakthölle in Talos Principle. Ich verstehe aber immer noch nicht, woran das liegt, dass das eine UE5 game gut und das andere schlecht aussieht.
Ansonsten finde ich es sinnfrei darüber in der Form zu diskutieren. Wenn du das Transformer Model nicht gut genug findest dann nimm halt CNN oder RR. Ich bestreite ja auch in keinster Weise, dass die Probleme nicht existieren und noch viel Luft nach oben ist. Aber es ist nunmal so, dass Unschärfe etwas ist, das seit einführung von TAA vor etwa 10 Jahren die Spielegrafik plagt, (obwohl ich es längst akzeptiert hatte) und DLSS 4 SR hat das Problem nun gelöst. Natürlich mit hier und da neuen und anderen Artefakten und Regressionen. Für mich ist es aber mMn ein riesen Schritt in die richtige Richtung. Für mich überwiegen die Vorteile bei weitem. Und ja, natürlich wäre die Qualität von Transformer RR in Kombination mit der Schärfe von Transformer SR ideal. Aber bei der Spielbarkeit überwiegt für mich die hohe Bildschärfe zusammen mit hohen Bildraten (was bisher ein harter widerspruch war!) deutlich stärker als etwas weniger Artefakte auf Kosten von Unschärfe. letzteres funktioniert für mich halt wenn Pathtracing an ist und ich einfach die bestmögliche grafische Darstellung will und mir auch die performance ein stückweit unwichtig ist.
Für normales angenehmes und ermüdungsfreies gameplay will ich aber hohe Bildraten und hohe Kantenschärfe -> daher DLSS 4 Transformer SR für mich ein Gamechanger.
Aber das darfst du gerne anders sehen.
Lurtz
2025-06-30, 18:54:52
In Avowed gabs doch auch schon Demonstrationen von Kaputtheit mit Transformer, zB Wasserspiegelungen.
Ist ja schön, dass K schärfer als FSR3 ist, aber das Gebrösel nervt schon massiv bei komplexerem Content. Das muss IMO besser werden, sonst ist es angesichts der kommenden bzw. schon existierenden Vorherrschaft von Techniken wie VSMs, Nanite und Co einfach nicht fit für die Zukunft.
In Death Stranding merkt man auch ganz drastisch den Schärfeunterschied, insbesondere bei Texturen. Selbst in 1440p DLAA noch. Auch die Kantenglättung ist um Welten besser als E.
Aber eben auch, wie K teils deutlich stärker smeart und mit manchen Effekten einfach deutlich mehr Probleme macht.
Bei älteren Spielen mit genügsamerem Content ist es aber definitiv vorzuziehen, bei UE5 kann E je nach Bröselgrad echt angenehmer sein für den Gesamteindruck.
redpanther
2025-06-30, 20:06:03
Soll halt jeder selbst testen und nach Geschmack einstellen.
Man hat ja meist die Möglichkeit.
Ich habe Avowed mit Transformer gespielt und fand es sehr sehr gut so.
Artefakte habe ich kaum war genommen, dafür die tolle Schärfe.
Nix ist umsonst, aber ich Zahl hier den Preis gerne.
DrFreaK666
2025-07-05, 14:18:20
qyGClSlO8Ck
aufkrawall
2025-07-08, 04:01:17
Neue RTSS-Beta kann jetzt über PresentMon msBetweenDisplayChange erfassen und damit die korrekten Frame Times für DLSS 4 anzeigen.
4xMFG:
https://s1.directupload.eu/images/250708/temp/4uzsv885.jpg (https://www.directupload.eu/file/d/8974/4uzsv885_jpg.htm)
FSR FG:
https://s1.directupload.eu/images/250708/temp/ddwdblmv.jpg (https://www.directupload.eu/file/d/8974/ddwdblmv_jpg.htm)
Sieht auch entsprechend flüssig mit DLSS aus, gegenüber abartig ruckelig mit FSR FG (warum auch immer das hier wieder so kaputt ist, das Frame Pacing von OptiFG oder Nukem-Mod ist normal...).
robbitop
2025-07-08, 08:56:09
Ist es immernoch so dass FSR FG nur auf radeons brauchbares Framepacing liefert?
IIRC wurde in den neueren Versionen von FSR3.1.x da irgendwas dran gemacht. Ggf nutzt Nukem Mod da diese codebasis?
aufkrawall
2025-07-08, 09:11:42
Mit Nukem-Mod wird nicht das FSR-eigene Frame Pacing genutzt. Ansonsten keine Ahnung, das Spiel hatte selbst ohne FG mit RDNA4 durch den Radeon-Treiber meinen IPS zum Flackern gebracht. Gar keine Lust mich weiter damit zu befassen, was genau von AMD kaputt bzw. nicht kaputt ist, DLSS 4 FG sieht hier bislang in jedem Spiel völlig korrekt flüssig aus...
robbitop
2025-07-08, 10:17:38
Kann ich für DLSS4 FG bisher meinerseits auch bestätigen.
Lurtz
2025-07-09, 08:28:22
Neue RTSS-Beta kann jetzt über PresentMon msBetweenDisplayChange erfassen und damit die korrekten Frame Times für DLSS 4 anzeigen.
Könntest du das RTSS-Layout bitte mal hochladen? Also die ovl-Datei?
aufkrawall
2025-07-18, 11:13:42
Post übersehen, strunzdummer Forensoftware sei Dank. :redface:
Siehe Anhang. Keine Garantie auf Korrektheit, hab auch nur schnell Templates gemergt und leicht angepasst. Die RTSS- und AB-eigenen Statistiken in den Programmen entsprechend deaktivieren.
Gibt übrigens eine Auskopplung von AnWave, mit der man sowohl DLSS als auch StreamLine für den Treiber-Override updaten kann:
https://github.com/SimonMacer/AnWave/releases/tag/AnWave-DLSS
Einfach die Release-DLLs (nicht aus dem development-Ordner!) vom StreamLine-Release auf GitHub mit in's Verzeichnis schmeißen + Inspector-Override und fertig.
robbitop
2025-07-18, 11:55:57
Schade dass das tool nicht automatisch die neusten DLLs auch noch runterlädt (nicht getestet aber klingt so). Der DLSS Swapper hat das erledigt.
Platos
2025-07-18, 12:01:24
Was kann denn das Tool, was DLSS Swapper nicht kann?
Lurtz
2025-07-18, 12:04:30
Der DLSS-Swapper macht was völlig anderes. Der tauscht die DLLs im Spielverzeichnis, Anwave tauscht die DLLs für den Override.
Was kann denn das Tool, was DLSS Swapper nicht kann?
Wozu braucht man das überhaupt? Wäre mir den Aufwand nicht wert, zudem fängt man sich visuelle Probleme ein, wenn Bugfixes auf ner älteren Version basieren.
robbitop
2025-07-18, 12:06:52
Mir ging es nur darum warum man bei obigen Tool wie in den 1990ern die dlls sich noch selbst besorgen muss, wenn ein anderes Tool das ja auch schon automatisiert kann (warum also auch nicht oberes auch?). #Bequemlichkeit X-D
So oft wie neue Modelle rauskommen ^^
aufkrawall
2025-07-18, 12:44:41
Ich halte es für arg dämlich, einem Tool zu vertrauen, das 439 Dateien/Ordner im Hauptverzeichnis hat und DLLs ohne Angabe der URLs runterlädt.
robbitop
2025-07-18, 15:20:33
Könnte man ja optional machen. Bei DLSS swapper meckert auch keiner. Und da das Open source ist, würden shinanigons sicher auffliegen die die Reputation des Entwicklers wäre futsch (und die ist den Leuten die viel auf GitHub contributen schon oft wichtig) :)
aufkrawall
2025-07-18, 15:45:18
Ja, schon. Aber wer garantiert, dass nicht durch ein Versehen etwa erstmal die Dev-Version-DLLs verteilt werden? Vorstellbar, dass darauf etwa Anti-Cheats anschlagen, mit wer weiß was für Folgen. Ich weiß auch nicht, was daran komfortabler sein soll, für jedes einzelne Spiel die DLLs auszutauschen und das bei jedem Titeln nach Patches wiederholen zu müssen.
Gerade du hattest dich mehrfach darüber beschwert, dass etwa Rockstar Launcher die DLLs jedes Mal wieder überschreiben, und jetzt ist ein einmaliges Aktualisieren für den globalen Override, mit dem man das Problem nicht hat, schon wieder zu stressig? :freak:
robbitop
2025-07-18, 16:19:35
Ne kleine Warnmessage und optionales Häkchen und dann würde gelten es ist jeder selbst verantwortlich. :)
Ich bin halt bequem und ich vermute viele andere sind es auch ^^
Zur Klarifizierung: das manuelle Herunterladen ist mir zu nervig. Die dlls zusammenzusuchen, entpacken, in das Verzeichnis kopieren. Und das immer wieder wenns eine neue dll gibt. (will ja immer das neuste) Auf dem Laufenden bleiben wann es neue dlls gibt. Ich will einfach immer das neuste. Tool ab und zu mal starten -> aktualisieren klicken und fertig. So wie beim DLSS Swapper. Oder hab ich da was verkehrt verstanden in der Beschreibung von dem Tool?
aufkrawall
2025-07-18, 16:28:11
Nein, aber etwa in dem Archiv von StreamLine auf GitHub sind schon auf einen Schlag alle Dateien mit dabei, und wenigstens aktuell die neusten Versionen. Und DLSS Swapper aktualisiert StreamLine nicht einmal, obwohl neue Versionen laut Changelogs auch ständig Bugfixes für die einzelnen Features wie DLSS/FG haben.
robbitop
2025-07-18, 16:42:00
Welche Limitierung hat eigentlich das Setzen der Häkchen rein über den Inspektor? Der nimmt dann doch schon die neusten dlls die beim jeweiligen Treiber dabei waren inkl Steamline oder? Wenn man den Treiber immer up to date hällt sollte man ja kaum hinterherhängen damit? :)
Sorry falls das hier schon erwähnt worden sein sollte :)
aufkrawall
2025-07-18, 16:43:22
Das Programm existiert, weil das gerade nicht der Fall ist. "Latest" gibt einem immer noch 310.2.xx.
robbitop
2025-07-18, 16:47:57
Du meinst weil die Treiber mit den dlls relativ deutlich hinterherhängen? :)
aufkrawall
2025-07-31, 17:56:22
Meh, selbst mit SSR ist Preset K komplett überfordert und wird von RR an die Wand geklatscht:
https://s1.directupload.eu/images/250731/temp/ltb45qdp.jpg (https://www.directupload.eu/file/d/8997/ltb45qdp_jpg.htm)
https://s1.directupload.eu/images/250731/temp/jp5seba2.jpg (https://www.directupload.eu/file/d/8997/jp5seba2_jpg.htm)
Ein Glück, dass man das mittlerweile wirklich fast überall mit UE5 reinmodden kann...
Ggf. addiert sich ohne RR auch das Rauschen vom Lumen-Fallback und der SSR...
Relex
2025-07-31, 18:12:34
Liegt wohl eher daran, dass ohne RR kein oder kein gutes Denoising greift. DLSS SR hat dafür halt keine Komponente.
In Clair Obscur habe ich mit gemoddeten RR übrigens vermehrt rauschen auf Oberflächen mit specular reflections incl Pfützen.
Gibt bestimmt auch wieder irgend nen parameter, um das zu fixen, keine Ahnung...
Aber ganz so einfach würde ich mir die Beurteilung nicht machen, solange du nicht weißt, was da im Detail passiert.
Ich halte es für wahrscheinlicher, dass die Entwickler da einfach Mist bauen und das Ergebnis auch ohne RR deutlich besser sein könnte.
aufkrawall
2025-07-31, 18:20:34
Die spezifischen Lumen-Artefakte/Glitches werden eher kein Best Case für RR sein, in AW2 PT war mir kein merkwürdiges Rauschen aufgefallen.
FSR 4 räumt SSR auch viel besser auf als Preset K, bei wesentlich weniger Unschärfe als CNN Preset E...
robbitop
2025-07-31, 18:56:22
Geht das Modden mit mods oder muss man da was an inis oder per Kommandozeile machen in UE5 Spielen für RR?
Deisi
2025-07-31, 19:38:04
engine.ini oder ingame console. Wichtig ist noch das man andere Denoiser abschaltet. btw es gehen auch UE4 Spiele wie Atomic Heart.
Relex
2025-07-31, 21:25:34
Hast du ne Anleitung, welche Denoiser man abschalten muss und wie?
Bzw. was du alles an parametern setzen würdest?
Ich würde gern prüfen, ob ich es "richtig" mache...
Im netz finde ich da immer total unterschiedliche Angaben, die wohl eher spielspezifisch sind.
Ist halt dumm, wenn jeder nur irgendwelche parameter kopiert, ohne zu verstehen (oder zu beschreiben), was er da überhaupt macht.
Ex3cut3r
2025-07-31, 21:46:47
Ok. Ich glaube Uniform Brightness auf ON, sorgt für Flickering in SDR.
EDIT: Falscher Thread sry.
Deisi
2025-07-31, 22:11:42
Hast du ne Anleitung, welche Denoiser man abschalten muss und wie?
Bzw. was du alles an parametern setzen würdest?
Ich würde gern prüfen, ob ich es "richtig" mache...
Im netz finde ich da immer total unterschiedliche Angaben, die wohl eher spielspezifisch sind.
Ist halt dumm, wenn jeder nur irgendwelche parameter kopiert, ohne zu verstehen (oder zu beschreiben), was er da überhaupt macht.
RR aktivieren mit r.NGX.DLSS.denoisermode=1
UE denoiser deaktivieren:
r.Lumen.Reflections.Temporal=0 bei UE5
Bei UE4 je nachdem was genutzt wird: r.Reflections.Denoiser, r.Shadow.Denoiser, r.AmbientOcclusion.Denoiser
Generell find ich bei der UE ganz nett wieviel über die ini geht. z.B HW Lumen in Wuchang https://imgsli.com/NDAzMDQy
Natürlich etwas buggy.
Hast du ne Anleitung, welche Denoiser man abschalten muss und wie?
Bzw. was du alles an parametern setzen würdest?
Ich würde gern prüfen, ob ich es "richtig" mache...
Im netz finde ich da immer total unterschiedliche Angaben, die wohl eher spielspezifisch sind.
Für eine kleine Übersicht der richtigen Commands/Parameter für UE4/5 Titel wäre ich auch sehr dankbar (y)
x-force
2025-08-01, 00:55:00
RR aktivieren mit r.NGX.DLSS.denoisermode=1
UE denoiser deaktivieren:
r.Lumen.Reflections.Temporal=0 bei UE5
danke!
Generell find ich bei der UE ganz nett wieviel über die ini geht. z.B HW Lumen in Wuchang https://imgsli.com/NDAzMDQy
unecht :eek:
die räumliche tiefe geht komplett verloren/sieht aus als wäre ao in sw lumen nicht vorhanden
farbkorrektur fehlt
wtf... warum lassen das die devs liegen?
rr und hw lumen sind mal wieder die nächste große evolutionsstufe sponsored by nv, hoffentlich kann amd demnächst mitziehen, sonst sind die schneller wieder weg als huang gb200 verkauft.
aufkrawall
2025-08-01, 07:37:59
Das scheint gut zu funktionieren:
[SystemSettings]
r.NGX.DLSS.denoisermode=1
r.Lumen.Reflections.BilateralFilter=0
r.Lumen.Reflections.ScreenSpaceReconstruction=0
r.lumen.Reflections.Temporal=0
r.Lumen.Reflections.DownsampleFactor=1
r.LumenScene.Radiosity.Temporal=0
r.SSR.Temporal=0
Man kann noch weitere temporale Komponenten von Lumen deaktivieren, aber dann gibt es arges Geflacker anstatt Rauschen. Könnte darauf hindeuten, dass Lumen und RR nicht ganz optimal zusammen passen. Auf manchen Oberflächen wie ggf. Wasser kann es auch mehr Rauschen geben. Aber ist schon meist trotzdem eine gigantische Verbesserung, für die VSM ist es definitiv wie gemacht.
rr und hw lumen sind mal wieder die nächste große evolutionsstufe sponsored by nv
HWRT-Lumen läuft mittlerweile mit 60fps auf der normalen PS5 in Fortnite.
robbitop
2025-08-01, 08:49:46
Nur zur Klarstellung - damit die Einträge funktionieren muss man im Spiel selbst auch RT aktivieren oder reichen rein die ini Einträge? Würde das dann in Mechwarrior 5 Clans ausprobieren. (UE5 Titel)
aufkrawall
2025-08-01, 08:52:06
Wir hatten doch schon mehrfach diskutiert, dass es überhaupt keine technische Notwendigkeit für RT mit RR gibt? Das ist eine rein willkürliche Schranke hinter einer Menü-Option, die mit der Config-Änderung nicht zutrifft.
robbitop
2025-08-01, 08:53:52
Wir hatten doch schon mehrfach diskutiert, dass es überhaupt keine technische Notwendigkeit für RT mit RR gibt? Das ist eine rein willkürliche Schranke hinter einer Menü-Option, die mit der Config-Änderung nicht zutrifft.
Absolut aber ich meine mich erinnern zu können, dass du gesagt hattest damals, dass irgendein minimum RT Setting an sein muss damit es funktioniert.
Also die ini settings reichen egal was ich im Game einstelle, richtig? :)
aufkrawall
2025-08-01, 08:58:23
Absolut aber ich meine mich erinnern zu können, dass du gesagt hattest damals, dass irgendein minimum RT Setting an sein muss damit es funktioniert.
Du verwechselst das wohl mit der Option von Cyberpunk im Optionsmenü, für die mindestens die RT-Reflexionen genutzt werden müssen.
Es geht auch mit reinem SWRT-Lumen in UE5. Bzw. wahrscheinlich selbst ohne das, wenn es es über die Config auch noch abschaltet.
Also die ini settings reichen egal was ich im Game einstelle, richtig? :)
Ja, und RR-DLL in das Verzeichnis kopieren, in der auch die normale SR-DLL liegt.
robbitop
2025-08-01, 09:01:23
Ja das stimmt - so war es. Sorry :)
Und danke. Ich probiere es mal aus in MW5C.
Relex
2025-08-01, 09:36:55
Und beim reinkopieren in die Engine.ini das "[SystemSettings]" nicht vergessen.
Hab schonmal ne halbe Stunde versenkt, weil ich das vergessen hatte und mich gewundert habe, warum die Änderungen nicht greifen.
aufkrawall
2025-08-01, 15:55:51
Offenbar blockt EAC jetzt den DLL-Override vom Treiber, geht nicht mehr in Fortnite...
MadManniMan
2025-08-02, 10:54:38
Hm ... warum kann man bei manchen Spielen den DLSS-Modus überschreiben, bei anderen nicht? Spiele gerade Deathloop (sooo toll!) und würde gern auf Transformer wechseln, geht aber nicht ...
aufkrawall
2025-08-02, 10:55:33
Wird per Inspector gehen, wenn du die App deinstallierst.
Relex
2025-08-02, 11:02:54
Oder die nvngx_dlss.dll im Spielverzeichnis durch die aktuellste version ersetzen und im Inspector für das Spiel DLSS SR Preset K setzen.
Dann kann die Nvidia App auch drauf bleiben.
aufkrawall
2025-08-02, 11:20:20
Stümmt, vergessen. :redface:
Das scheint gut zu funktionieren:
[SystemSettings]
r.NGX.DLSS.denoisermode=1
r.Lumen.Reflections.BilateralFilter=0
r.Lumen.Reflections.ScreenSpaceReconstruction=0
r.lumen.Reflections.Temporal=0
r.Lumen.Reflections.DownsampleFactor=1
r.LumenScene.Radiosity.Temporal=0
r.SSR.Temporal=0
Man kann noch weitere temporale Komponenten von Lumen deaktivieren, aber dann gibt es arges Geflacker anstatt Rauschen. Könnte darauf hindeuten, dass Lumen und RR nicht ganz optimal zusammen passen. Auf manchen Oberflächen wie ggf. Wasser kann es auch mehr Rauschen geben. Aber ist schon meist trotzdem eine gigantische Verbesserung, für die VSM ist es definitiv wie gemacht.
Besten Dank :cool: (y)
MadManniMan
2025-08-02, 18:27:58
Oder die nvngx_dlss.dll im Spielverzeichnis durch die aktuellste version ersetzen und im Inspector für das Spiel DLSS SR Preset K setzen.
Dann kann die Nvidia App auch drauf bleiben.
Danke sehr, genau das habe ich gemacht :up:
robbitop
2025-08-02, 20:11:41
Wird per Inspector gehen, wenn du die App deinstallierst.
Ach - ist das grundsätzlich so, dass der Inspektor nicht beim DLSS Profil greift solange die Nvidia App drauf ist?
Darkman.X
2025-08-02, 20:49:28
Die Nvidia-App setzt die DLSS-Overrides vom Inspector bei vielen Spielen zurück. Die App hat eine interne Whitelist, welche nur bei freigegebenen Spielen eine Änderung des Presets zulässt.
Die Möglichkeiten gegen die Rücksetzungen:
Nvidia-App deinstallieren.
Ein Tool (https://gist.github.com/rajkosto/6bb60346d8a7f7f4e21566618e44020a) (unterhalb des Source-Codes hat jemand eine kompilierte EXE-Datei verlinkt) ODER PS-Script (https://gist.github.com/JPersson77/91a5c53af55104a2bfc5c9be32118203) ausführen, welches die Rücksetzungen von der App mit Datei-Modifikationen deaktiviert.
Die DLL-Datei(en) im Spiele-Verzeichnis ersetzen und das DLSS-Preset per Inspector erzwingen. Aber die Option "Enable DLL-Override" darf im Inspector nicht aktiviert werden.
Das sind die mir bekannten Optionen gegen das Verhalten der App.
Relex
2025-08-02, 21:11:31
Ach - ist das grundsätzlich so, dass der Inspektor nicht beim DLSS Profil greift solange die Nvidia App drauf ist?
Die Nvidia App setzt nur den dll Override zurück. Die whitelist greift nur für diese Option. Der Preset override den du im NV Inspector separat vom dll override nutzen kannst (wo du z.B. Preset K für das Transformer Model wählst) ist davon nicht betroffen.
Wenn für ein Spiel in der Nvidia App der Override nicht verfügbar ist (und er somit ständig zurückgesetzt werden würde, wenn du versuchst, es pber den Inspector trotzdem zu aktivieren, dann gehst du ins Spielverzeichnis, tauscht die dll Datei gegen die aktuelle version aus (dll override via treiber somit nicht mehr notwendig) und stellst über den Nvidia Inspector das Preset K ein, damit das Transformer Model genutzt wird.
Ich denke einfacher gehts kaum (ohne irgendwelche treiber Hacks und registry pfusch)
Vorteil von der Nvidia App ist halt, dass man mit zwei Klicks den Override aktivieren kann. Das ist halt super bequem und imho auch der bevorzugte und sinnvollste Weg.
Aber wenn Nvidia entschieden hat, dass ein Spiel nicht auf die whitelist darf, muss man sich eben mit dem beschriebenen Umweg helfen. Zumal das eh nur für ältere titel notwendig sein sollte. Aktuellere games sind ja fast immer auf der whitelist.
robbitop
2025-08-02, 22:46:58
Aber wenn man die NV All deinstalliert ist der vom inspector eingestellte dll override aktiv?
Wie sieht es mit MFG aus? Das kann man im inspector auch (von FG) erzwingen. Würde das dann auch immer greifen ohne nv App oder gibt es da im Treiber selbst eine eigene whitelist?
MadManniMan
2025-08-03, 10:12:24
Ich kann es hier nur für DLSS Super Resolution und ein Spiel (Deathloop) sagen, aber ich musste für Transformer DLSS:
- DLL im Ordner ersetzen (habe die DLL von The Last of Us 2 genommen - ich nahm an, die sei recht neu)
- im Profile Inspector den konkreten Buchstaben (K) auswählen
- (wenn ich "neueste" genommen habe, war glaube ich E aktiv oder so)
- einfach nur Profile Inspector hat nichts geändert, weil ich die NV App nicht deinstalliert habe(?), da ich die manchmal benutzen möchte
robbitop
2025-08-03, 10:45:53
IMO geht auch alles über den Inspektor und Afterburner was die App kann. Ich nutze sie tatsächlich nur aus bequemlichkeit für Treiberupdates - aber wenn es mir das mit dem dll override verbaut verzichte ich gerne und lade den treiber manuell runter. :)
Relex
2025-08-04, 12:56:03
Displays und Anzeigemodi einstellen geht nicht über Inspector ;)
redpanther
2025-08-04, 13:04:54
RTX HDR (Einstellungen) und die anderen NV Filter geht auch nur mit app
robbitop
2025-08-04, 13:28:07
RTX HDR kann man im Nvinspektor aktivieren und parametrieren. Die anderen Filter (interessieren mich zumindest nicht) nicht.
Displays und Anzeigemodi kann man auch in Windows bzw dem klassischen NV Treiberpanel einstellen.
aufkrawall
2025-08-04, 14:08:03
Es dürfte die App für den Filter-Inject brauchen.
redpanther
2025-08-04, 14:56:59
RTX HDR kann man im Nvinspektor aktivieren und parametrieren. Die anderen Filter (interessieren mich zumindest nicht) nicht.
Displays und Anzeigemodi kann man auch in Windows bzw dem klassischen NV Treiberpanel einstellen.
Warum steht dann im NVInspector bei den RTX HDR Parametern (NV App / Freestyle ONLY) ?
Relex
2025-08-04, 15:07:03
RTX HDR kann man im Nvinspektor aktivieren und parametrieren. Die anderen Filter (interessieren mich zumindest nicht) nicht.
Displays und Anzeigemodi kann man auch in Windows bzw dem klassischen NV Treiberpanel einstellen.
Sowas wie Farbtiefe (z.B. 10 Bit für HDR) kann man meines Wissens nicht unter Windows einstellen. G-Sync auch nicht.
Der Knackpunkt ist, dass das classic NVCP demnächst von der Nvidia App ersetzt werden soll.
Spätestens dann muss man sich mit der App anfreunden oder Alternativen für alle übrigen Settings finden.
aufkrawall
2025-08-04, 15:16:47
Glaub ich nicht, die alte Systemsteuerung wird für Firmen als Store-App sicherlich noch ewig erhalten bleiben.
10 Bit wählt Windows auch von sich aus, wenn man ACM/HDR nutzt. Aber ist auch kein Drama, die App installiert zu haben.
BiZiNiZz
2025-08-05, 19:31:42
Moin,
bevor ich hier 20 Seiten wälze, was ist den aktuell das beste Preset für DLSS?
Und macht es sinn es global zu aktivieren?
kemedi
2025-08-05, 19:34:49
Moin,
bevor ich hier 20 Seiten wälze, was ist den aktuell das beste Preset für DLSS?
Und macht es sinn es global zu aktivieren?
Habe "K" global forciert und bin zufrieden. Ich weiß aber, dass das nicht für jedes Spiel gut / richtig ist. Da kann dir aufkrawall aber sicher mehr sagen :D
robbitop
2025-08-05, 19:38:16
Habe "K" global forciert und bin zufrieden. Ich weiß aber, dass das nicht für jedes Spiel gut / richtig ist. Da kann dir aufkrawall aber sicher mehr sagen :D
Dito. K für dlss super resolution und E glaube ich für DLSS Ray Reconstruction. Mit dem nvinspector
kemedi
2025-08-05, 20:13:09
Dito. K für dlss super resolutiom und E glaube ich für DLSS Ray Reconstruction. Mit dem nvinspector
Ich weiß (endlich XD), dass RR auch Presets hat. Ist "Always use latest" nicht das aktuellste und somit "E", sofern ich die DLLs für den Override auch aktualisiert habe? Ich spreche vom Aktualisieren via NVGlom, womit man ja auch die Streamline-DLLS aktualisieren kann, was ich natürlich auch gemacht habe.
Relex
2025-08-05, 20:30:17
Habe "K" global forciert und bin zufrieden. Ich weiß aber, dass das nicht für jedes Spiel gut / richtig ist. Da kann dir aufkrawall aber sicher mehr sagen :D
Wenn dir ganze bestimmte Dinge mit K ein großer Dorn im Auge sind, dann kanns schon Sinn machen, andere Presets auszuprobieren.
Aber ich finde, dass trotz einiger Regressionen das Transformer Model alleine schon in Sachen Bildschärfe und AntiAliasing/Stabilität den CNN Presets so meilenweit voraus ist, dass die Regressionen im Vergleich belanglos erscheinen.
Immerhin bekommt man jetzt selbst im Performance modus eine Bildklarheit, die selbst das alte CNN Model mit DLAA übertrifft.
Aber muss natürlich jeder selbst wissen.
Es liegt auch ein bisschen in der Natur der Sache, ganz besonders bei KI Modellen, dass man immer zwei Schritte vor und einen zurück macht.
Es kommt nur sehr selten vor, dass wirklich ausnahmslos alles durch die Bank besser wird.
Idr. ist es aber so, dass man lieber die großen Fortschritte mitnimmt und ein paar Regressionen in Kauf nimmt, um diese dann später versuchen auszubügeln.
Fragt sich nur, wie lange sich Nvidia damit noch Zeit lässt. :rolleyes:
kemedi
2025-08-05, 20:37:07
Wenn dir ganze bestimmte Dinge mit K ein großer Dorn im Auge sind, dann kanns schon Sinn machen, andere Presets auszuprobieren.
Aber ich finde, dass trotz einiger Regressionen das Transformer Model alleine schon in Sachen Bildschärfe und AntiAliasing/Stabilität den CNN Presets so meilenweit voraus ist, dass die Regressionen im Vergleich belanglos erscheinen.
Immerhin bekommt man jetzt selbst im Performance modus eine Bildklarheit, die selbst das alte CNN Model mit DLAA übertrifft.
Exakt deshalb habe ich "K" global forciert. Die Benefits sind, für mich, im gesamten einfach größer als kleinere Wehwehchen bei Spiel XY - und da könnte ich es ja noch immer im Profil für das jeweilige Spiel manuell ändern und das globale Profil bzw. die Einstellung dort überschreiben.
kemedi
2025-08-06, 17:08:46
Ich weiß (endlich XD), dass RR auch Presets hat. Ist "Always use latest" nicht das aktuellste und somit "E", sofern ich die DLLs für den Override auch aktualisiert habe? Ich spreche vom Aktualisieren via NVGlom, womit man ja auch die Streamline-DLLS aktualisieren kann, was ich natürlich auch gemacht habe.
Hat da jemand zufällig ne Antwort drauf? :redface:
aufkrawall
2025-08-06, 17:20:59
Nein, latest nimmt weiterhin D. Warum auch immer.
Lurtz
2025-08-06, 17:20:59
Bei RR sollte man AFAIK E direkt einstellen, nicht latest.
kemedi
2025-08-06, 17:34:55
Danke für eure Antworten :)
Dann werde ich mal global "E" forcieren.
kemedi
2025-08-08, 00:10:57
Interessant:
Doom: The Dark Ages nimmt die neuere DLL für RR (313.3 statt 313.2.1) erst, wenn ich sie von Hand im Spielverzeichnis ersetze. Der Override via Inspector wird hier eiskalt ignoriert.
Jemand ne Idee? Die DLLs im Ordner für den Override sind aktualisiert.
Mit der neueren DLL funktioniert "E" dann natürlich wie gewünscht, also scheint der Override fürs Preset zumindest zu funktionieren.
Edit:
Fehler gefunden. Global ist alles richtig eingestellt, aber warum auch immer war der Override beim Profil für Dark Ages auf "Off" und dann wird die globale Einstellung natürlich ignoriert. Habs jetzt mit der globalen Einstellung gleichgesetzt und klappt, obwohl die DLL im Spielverzeichnis wieder die 313.2.1 ist. Hab wieder die mitgelieferte DLL drin, um zu sehen, ob der Override funktioniert - läuft alles :)
Sardaukar.nsn
2025-08-08, 07:01:47
DLSS Swapper macht das aber auch recht komfortabel. Empfehle ich gerne weiter: https://dlssswapper.com/
Lurtz
2025-08-11, 17:30:38
Konnte man per Inspector jetzt eigentlich grundsätzlich in jedem FG-Spiel auch MFG-Faktoren forcieren? :uponder: Oder geht das nur mit Whitelist?
aufkrawall
2025-08-11, 17:31:56
Geht wohl generell ab StreamLine 2.7.
Lurtz
2025-08-11, 17:32:33
Ok, dann wirds in Witcher 3 nichts, da konnte man Streamline ja nicht ersetzen ohne Probleme zu bekommen.
aufkrawall
2025-08-11, 17:36:45
Jo. In Horizon Zero Dawn Remastered geht es auch nicht, weil die Nixxes-Schweinefirma ebenfalls völlig veraltete DLLs shipt, die sich nicht updaten lassen. :freak:
kemedi
2025-08-19, 00:25:17
So langsam weiß ich nicht mehr weiter:
Der DLL-Override für RR bei Doom The Dark Ages wird grundsätzlich IMMER deaktiviert, sobald ich das Spiel beendet habe. Es macht keinen Unterschied, ob ich da was global forciere oder direkt im Spielprofil. Ändere ich das nicht von Hand, nimmt er wieder die alte DLL v310.2.XXX statt der neueren 310.3.XXX. DLSS-Swapper könnte hier helfen, will ich aber eigentlich nach Möglichkeit nicht mehr verwenden, solange der Override funktioniert.
Hatte das ja oben schon beschrieben. Mittlerweile weiß ich, dass die Einstellung halt nach dem Beenden zurückgesetzt wird.
Alles andere funktioniert, aber der Override von RR bei Dark Ages ist irgendwie mein Endgegner :S
Help? Pls? X_X
aufkrawall
2025-08-19, 06:19:17
Setzt er die Einstellung im Profil zurück, oder wo nimmt er die alte DLL nach dem ersten Start her?
kemedi
2025-08-19, 18:22:11
Setzt er die Einstellung im Profil zurück, oder wo nimmt er die alte DLL nach dem ersten Start her?
Die Einstellung im Profil von Dark Ages wird zurückgesetzt. Das globale Profil bleibt, wie es ist, aber steht das Spielprofil auf "Off" beim Override, überschreibt das ja die globale Einstellung :/
Die veraltete DLL ist ja die, die bei Dark Ages mitgeliefert wird.
Edit:
Mit dem letzten Treiberupdate funktioniert endlich alles :D
Lurtz
2025-08-26, 20:55:11
DLSS SDK 310.4.0:
Streamline 2.9.0 also released at same time, includes 310.4.0 DLLs for all the DLSS files: https://github.com/NVIDIA-RTX/Streamline/releases/tag/v2.9.0
DLSS programming guide mentions that presets A to E have been removed (and DLSS-RR presets A to C), not clear if that's just removal from SDK headers or also the DLL too, DLL size has reduced a bit compared to 310.3.0.
DLSS SDK now includes the SDK parts for DLSSG as well, previously DLSSG was only available publicly in the closed-source SL DLSSG plugin - looks like that SL plugin is still closed-source though, too bad.
https://www.reddit.com/r/nvidia/comments/1n0rrjw/dlss_sdk_31040_released/
basix
2025-08-27, 08:42:21
Hier die Doku zu FG, RR und SR falls jemand interessiert ist:
https://github.com/NVIDIA/DLSS/tree/main/doc
Ex3cut3r
2025-08-28, 08:26:50
Ich finde es schon ziemlich heftig, dass A–E rausgeflogen ist. Das bedeutet, dass künftig neue Spiele nur noch mit Transformer (Preset J und K) ausgeliefert werden. Für Hardware unterhalb von Ada ist das allerdings ziemlich teuer – insbesondere für Turing und Ampere.
Meiner Meinung nach wäre es besser gewesen, bei Ampere und Turing standardmäßig weiterhin E zu nutzen und nur eine Option im Spiel selbst anzubieten, um auf Transformer umzuschalten. Bei Ada und Blackwell kann Transformer hingegen ruhig von Anfang an Standard sein.
Zumindest für die nächsten zwei Jahre wäre das sinnvoll, bis ein größerer Teil der Nutzer von Turing und Ampere auf neuere Hardware gewechselt ist.
Exxtreme
2025-08-28, 09:07:56
Naja, mit dem Transformer kann man aber eine Qualitätsstufe runter gehen. Dann spart man unter dem Strich mehr auch auf Ampere und Turing. Und ich kann mit vorstellen, dass sie das deshalb entfernen damit man keine zwei AI-Modelle pflegen muss.
robbitop
2025-08-28, 09:18:11
Ich finde es schon ziemlich heftig, dass A–E rausgeflogen ist. Das bedeutet, dass künftig neue Spiele nur noch mit Transformer (Preset J und K) ausgeliefert werden. Für Hardware unterhalb von Ada ist das allerdings ziemlich teuer – insbesondere für Turing und Ampere.
Meiner Meinung nach wäre es besser gewesen, bei Ampere und Turing standardmäßig weiterhin E zu nutzen und nur eine Option im Spiel selbst anzubieten, um auf Transformer umzuschalten. Bei Ada und Blackwell kann Transformer hingegen ruhig von Anfang an Standard sein.
Zumindest für die nächsten zwei Jahre wäre das sinnvoll, bis ein größerer Teil der Nutzer von Turing und Ampere auf neuere Hardware gewechselt ist.
Naja Super Resolution ist gar nicht so extrem teuer auf pre-Ada. Aber RR ist es.
Aber wie Extreme schon sagt - unterm strich ist Transformer DLSS SR/RR trotzdem besser weil man BQ normiert ein aggressiveres Preset nehmen kann und dann trotzdem mehr BQ/fps erhält.
The_Invisible
2025-08-28, 10:05:51
Ja eigentlich kann man dlss-p statt dlss-q verwenden (in 4k zumindest). Problematisch wird's dann eher bei Benchmarks weil dann dlss4 gegen fsr3 bei älteren radeons getestet wird, vor allem da immer mehr Games schon nativ dlss4 mitbringen
robbitop
2025-08-28, 10:28:11
Naja dank FSR4 sollte das Thema mittlerweile dann erledigt sein. Dank Optiscaler kann man FSR4 ja auch so gut wie überall nutzen mittlerweile.
Relex
2025-08-28, 10:38:42
Benchmarks sind halt nur die halbe Wahrheit und reine Interpretationssache.
Wenn ich bei Nvidia 5% weniger performance mit DLSS4 habe, dafür aber die Bewegtbildschärfe ansteigt, weil es viel weniger temporale unschärfe im Bild gibt (vor allem im Vergleich zu FSR3 und DLSS3) und ich zugleich in sehr vielen Spielen Reflex aktivieren kann, dann hab ich trotz weniger FPS auf dem Zähler mit der Nvidia Karte sowohl das schärfere Bewegtbild als auch das bessere Spielgefühl.
Welche rolle spielt es dann noch, dass bei AMD ein paar FPS mehr auf dem Zähler stehen, wenn das weder spürbar noch sichtbar wäre?
Das ist halt der Punkt, wo man sich ernsthaft fragen muss, was solche Zahlen überhaupt nocht wert sind. Letztendlich taugen sie eh nur als grober Richtwert, da die FPS ja sowieso von Level zu level und ja auch schon abhängig der Kameraausrichtung stark schwanken. Dass sich die gesamte branche dann so akribisch auf genaue Messwerte und Unterschiede von +/- 5 oder 10% fokussiert finde ich angesichts dieser Umstände schon ziemlich absurd.
robbitop
2025-08-28, 10:39:57
Bei pre-FSR4 verstehe ich diese Ansicht. Aber wir sind ja jetzt in einer Welt in der FSR4 existiert. Da sind die Unterschiede nur noch Nuancen. Und die Kosten für FSR4 und DLSS4 sind nahezu identisch in ms pro Frame. So ausgeglichen war es schon lange nicht mehr.
Relex
2025-08-28, 10:41:41
The_Invisible hat ja explizit ältere Geforce Karten incl deren performanceienbußen durch DLSS4 im Vergleich zu älteren Radeon Karten mit FSR3 angesprochen. Darauf hab ich mich bezogen.
FSR4 ist ja auf älteren Radeon Karten momentan gar kein Thema. DLSS4 auf alten GeForces aber schon. ;)
robbitop
2025-08-28, 10:57:08
Ja ok. Das stimmt - allerdings hat das ja kein Einfluss mehr auf irgendwelche Kaufentscheidungen. Und: man kann mittels Optiscaler auf XeSS nutzen und FSR4 soll ja zumindest für RDNA3 noch nachgeliefert werden. Dann sieht es nicht mehr ganz so schlimm aus. Aber ja aktuell trifft das absolut zu.
Aber wir sind ja jetzt in einer Welt in der FSR4 existiert. Da sind die Unterschiede nur noch Nuancen.
DLSS4 vs. FSR4 sind immer noch Welten. FSR4 vs. DLSS2/3 sind Nuancen, mit Vorteilen für FSR4.
Auf einer Skala auf der die BQ von DLSS2/3 100% und die von DLSS4 200% liegt FSR4 vielleicht bei 120%. Was jetzt ja nicht schlecht ist, so lange ist es nicht her da war DLSS2/3 state of the art. Aber der Sprung zu DLSS4 ist schon extrem, vergleichbar mit DLSS1 zu DLSS2.
Dazu kommt noch der immer noch sehr schleppende Support für FSR4, sorry Optiscaler und andere Hacks zählen nicht, das ist zwar für Enthusiasten interessant, aber für die Allgemeinheit nicht zumutbar.
Für Hardware unterhalb von Ada ist das allerdings ziemlich teuer – insbesondere für Turing und Ampere.
Für SR ist Transformer auch für alte Architekturen ein Netto-Win, bei der man mit den möglichen höheren Upsampling eine bessere Performance/BQ als mit CNN bekommt.
Richtig teuer wird es nur für RR, wobei man ehrlicherweise sagen muss RR braucht Transformer um vernünftige Ergebnisse zu liefern.
RR war ja auch der Antrieb für NV auf das Transformer-Modell zu wechseln, da die Ergebnisse mit CNN nicht so toll waren, Transformer für SR war eher ein "Abfallprodukt" aus der Entwicklung von RR.
Es hat auch seinen Grund warum NV das RR-Modell nicht für reines Upsampling verwendet obwohl es prinzipiell dazu in der Lage wäre.
DLSS4 vs. FSR4 sind immer noch Welten. FSR4 vs. DLSS2/3 sind Nuancen, mit Vorteilen für FSR4.
Auf einer Skala auf der die BQ von DLSS2/3 100% und die von DLSS4 200% liegt FSR4 vielleicht bei 120%. Was jetzt ja nicht schlecht ist, so lange ist es nicht her da war DLSS2/3 state of the art. Aber der Sprung zu DLSS4 ist schon extrem, vergleichbar mit DLSS1 zu DLSS2.
Dazu kommt noch der immer noch sehr schleppende Support für FSR4, sorry Optiscaler und andere Hacks zählen nicht, das ist zwar für Enthusiasten interessant, aber für die Allgemeinheit nicht zumutbar.
Glatter Blödsinn offensichtlich wie der jüngste CB-Test belegt:
DLSS 4 und FSR 4 sind allen anderen Upsampling-Technologien weit überlegen. Das gilt auch in Metal Gear Solid Delta: Snake Eater und geht so weit, dass DLSS 4 und FSR 4 im Performance-Modus eine bessere Bildqualität abliefern als DLSS 3 mit der Quality-Einstellung. Und das war vor dem Release von DLSS 4 immerhin noch der Benchmark.
https://www.computerbase.de/artikel/grafikkarten/metal-gear-solid-delta-snake-eater-dlss-4-fsr-4.94075/seite-2#abschnitt_fazit
Glatter Blödsinn offensichtlich wie der jüngste CB-Test belegt:
Es ist offensichtlich, dass CB hier reine Screenshotvergleiche für die Bewertung nimmt, was auch verständlich ist, schließlich kann man in Screenshots leicht hin- und herschalten.
In Spielen bewegt man sich aber in der Regel, und in Bewegung ist der Vorteil von DLSS4 gegenüber allem anderen Enorm.
Hat uns DLSS2 weitestgehend die Bildqualität von TAA trotz Upsampling gebracht, hat und DLSS4 weitestgehend die Native Bildqualität vor TAA - Aliasing gebracht.
Gastbeschwerde
2025-08-29, 11:08:06
Glatter Blödsinn offensichtlich wie der jüngste CB-Test belegt:
https://www.computerbase.de/artikel/grafikkarten/metal-gear-solid-delta-snake-eater-dlss-4-fsr-4.94075/seite-2#abschnitt_fazitDas ist aber nicht die feine Art! Des ersten Gastes Aussage ist nicht falsch, dessen Wissensgrundlage war vor der Veröffentlichung der computerbase-Artikels.
Wie so oft ist die generierte Qualität von DLSS4/FSR4 im Erstzustand nicht innerhalb eines Games gleich. Es folgen Treiberupdates die dann Anpassungen für das Spiel bewirken.
Nur weil jetzt ein Artikel des Gastes Aussage ins Wanken gebracht hat, sollte das auf gar keinen Fall als Blödsinn hingestellt werden.
DrFreaK666
2025-08-29, 12:44:51
...Auf einer Skala auf der die BQ von DLSS2/3 100% und die von DLSS4 200% liegt FSR4 vielleicht bei 120%....
Was ist das für eine bescheuerte Skala? :ugly:
aufkrawall
2025-08-29, 20:05:35
DLSS4 vs. FSR4 sind immer noch Welten. FSR4 vs. DLSS2/3 sind Nuancen, mit Vorteilen für FSR4.
Sieht jeder anders, der beide selbst genutzt hat. Weniger Stuss labern.
Eher muss Nvidia aufpassen, dass es mit Redstone nicht auf die Mütze gibt.
Solche hässlichen Rastermuster-Artefakte sind für FSR 4 btw. auch nicht berichtet...
https://s1.directupload.eu/images/250829/temp/rehs4x2n.jpg (https://www.directupload.eu/file/d/9026/rehs4x2n_jpg.htm)
Relex
2025-08-29, 20:11:37
To be fair, Nvidia hat das Transformer Model für den Ultra Performance Modus auch noch nicht freigegeben. Im Programming guide steht immer noch Preset F.
Im Performance Modus ist das eigentlich kein Problem mehr, wobei man sie hier und da auch entdecken kann, wenn man akribisch danach sucht. Das ist aber so subtil, Aufgefallen sind sie mir zumindest noch kein einziges Mal.
aufkrawall
2025-08-29, 20:21:02
Fällt auch mit Performance noch etwas auf:
https://s1.directupload.eu/images/250829/temp/zry2ln7e.jpg (https://www.directupload.eu/file/d/9026/zry2ln7e_jpg.htm)
Relex
2025-08-29, 20:26:47
Hmm, also jetzt seh ich nichts mehr auf deinem Bild, bis auf horizontalen Streifen an der Wand, aber das ist leider ein Control spezifisches denosier/ghosting problem, das ja auch mit TAA auftritt.
aufkrawall
2025-08-29, 20:36:03
"Ich sehe den Fehler nicht, bis auf den Fehler." :freak:
Nein? Es tritt mit CNN Preset E auch mit Ultra Performance exakt gar nicht auf.
RR Preset E hat btw. ein ähnliches Problem, wenn man in CP77 in den Himmel guckt. Da bleiben die Artefakte auch dauerhaft bestehen, so lange man im Exposure-Bereich bleibt.
Der Bug ist in Transformer-DLSS (warum auch immer RR Preset D das nicht aufweist) oder im Treiber-Part dafür, und nicht irgendwo sonst...
Dein ständiges Relativier-Gequatsche, wenn es um Transformer-DLSS geht, nervt...
Relex
2025-08-29, 20:41:40
Sorry, aber für mich sieht das Artefakt völlig anders aus. Das ist niemals das gleiche Artefakt bzw. gleiche Ursache.
Diese Ghosting Artefakte gabs z.B. auch ganz besonders im Hub in Control wenn man um die Säulen läuft. Wenn mich nicht alles täuscht war das aber wie gesagt auch mit CNN oder TAA nicht weg zu bekommen.
Ich schau später selber nochmal nach, das interessiert mich jetzt...
Dein ständiges Relativier-Gequatsche, wenn es um Transformer-DLSS geht, nervt...
Solche herablassenden Kommentare kannst dir sparen. Darauf geh ich auch nicht weiter ein. Ich muss mich nicht rechtfertigen.
aufkrawall
2025-08-29, 20:48:55
Seit wann geht es um Ghosting? Es ging um die seltsamen Rastermuster-Artefakte, die auch mit P noch über der Metalltafel an der Wand zu sehen sind, und natürlich auch an anderen Stellen in Bewegung noch auftauchen. Berichte über solche Artefakte mit insbesondere volumetrischen Effekte gibt es auch für diverse adere Spiele mit Transformer-DLSS. Da braucht man gar nicht weiter zu diskutieren bzw. zu relativieren...
Relex
2025-08-29, 22:19:54
Das hier meinte ich:
Ist mit TAA. DLSS hat das gleiche Problem.
https://i.ibb.co/KjChCMgD/Screenshot-2025-08-29-221700.png (https://ibb.co/FbG3GS1X)
Sieht für mich auch nach der Art von Artefakten aus, die du im zweiten Bild ziegst. Streifen entlang einer Objektkante.
Im ersten Bild sieht man hingegen Schachbrettmuster.
aufkrawall
2025-08-29, 22:59:12
Auch im zweiten. Und nochmal: Ist mit CNN E komplett nicht existent. Weiß nicht, was daran so schwer zu verstehen ist...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.