Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4
basix
2026-01-30, 14:00:34
TMEM erwarte ich auch, aber ich denke im Moment nicht, dass wir ne verdopplung der TCs sehen. Verdoppelt/vervielfachte Geschwindigkeit bei 1,58 Bit vs FP4 als neues Format. Aber man hat ja auch nur begrenzten Platz und sehe bei Consumer erstmal eher nur die verstärkte Nutzung von NVFP4 zur Geschwindigkeitserhöhung.
Verdopplung TCs seh ich nur, wenn man die Flops pro SM generell verdoppelt um damit die Skalierungsprobleme die GB202 hat zu bekämpfen. Da wird es generell spannend, wie Nvidia die Mauer angeht gegen die ihre Architektur gelaufen ist.
Rubin wird in N3P kommen, wo primär Logikdichte gegenüber N4P steigt. Und zusätzliche Tensor-FLOPS benötigen primär Logik-Transistoren.
Allem Anschein nach wird GR202 bei 192 SM bleiben. Also kann man Performance nur durch IPC und Takt gewinnen. Verbessert man das DLSS Scaling, könnte man das prinzipiell unter IPC einordnen. Nur indirekt und wenn man DLSS nutzt. Aber wenn man DLSS nutzt, sieht das für den Nutzer schlicht nach Mehrperformance aus.
Man kann sich auch überlegen: Wie viel grösser wird der Chip für +10% Performance bei DLSS SR. Oder +33% bei DLSS + 4x MFG?
Hier der alte Post von Turing: https://www.reddit.com/r/nvidia/comments/baaqb0/rtx_adds_195mm2_per_tpc_tensors_125_rt_07/?rdt=47655
Tensor Cores kosteten damals abgeschätzt ca. +13% auf ein SM gesehen oder +6% auf die gesamte Chipfläche gsehen. Mittlerweile kamm ein fetter L2$ dazu und die SMs wurden grösser (mehr shared memory, verdoppelte FP32, stärkere RT Cores). Die Tensor FLOPS pro FP32 FLOP haben sich aber halbiert. Es sind vor allem neue Datentypen dazu gekommen. Ganz grob abgeschätzt dürften die heutigen Tensor Cores etwa gleich viel Platz beanspruchen wie bei Turing (+5%). Bei einer Verdopplung kämen also nochmals +5% dazu. Das würde sich also zu 100% lohnen, wenn man DLSS nutzt. Und eben, dass N3P sehr gut mit Logik skaliert. Jetzt kommt noch TMEM dazu, was Fläche kosten wird. Sagen wir mal +5% (nur 128kByte TMEM anstat 256kByte wie bei B200). Netto steigt die Chipfläche +10% bei +10% Performance bei DLSS SR. Sobald FG und Neural Rendering ins Spiel kommt, wird es aber deutlich mehr sein. Netto also ein Gewinn: Mehrperformance steigt mehr als die zusätzlich notwendige Chipfläche.
Und dann eben auch die Nutzung dieser Chips für z.B. RTX Pro usw. wo zusätzliche Tensor Core Performance gerne gesehen wird. Mehr Tensor Core Throughput würde also gut in Nvidias generelle Strategie rein passen.
Edit:
Evtl. ist TMEM sogar günstiger, die 10% erscheinen mir aber irgendwie niedrig https://arxiv.org/pdf/2512.02189
The 256KB TMEM per SM (10% of SM memory) [...]
basix
2026-01-31, 14:45:52
Extrem beeindruckender Showcase von DLSS 4.5 Preset L.
Bereits 20% Scaling sieht ziemlich gut aus und selbst 10% ist erstaunlich (100x weniger gerenderte Pixel!)
https://youtu.be/DKCyk3CeUFY?t=382
Blase
2026-01-31, 15:15:54
Aktueller Computerbase Test (https://www.computerbase.de/artikel/grafikkarten/nativ-dlss-4-5-fsr-4-upscaling-ai-benchmarks.95958/) von heute. Zitatensammlung:
DLSS 4.5 Perf. schlägt „nativ“
DLSS 4.5 Performance hat es im Test geschafft, aus Sicht der Redaktion in vier der sechs Spiele die beste Bildqualität zu liefern. In einem Fall gibt es ein Unentschieden und in einem zweiten liegt Nativ vorne. Doch dabei muss angemerkt werden, dass die genutzt Szene für Upsampler ein Extremszenario darstellte, in dem sie sich traditionell schwer tun: rauschende Schatten. Ohne die entsprechenden Schatten im Bild liegt DLSS 4.5 Performance auch in dem Spiel qualitativ vorne.
Und wir reden hier nur von DLSS@P. Da gibt es qualitativ noch zwei weitere Stufen drüber.
Aber es wird wohl noch etwas dauern, bis auch der letzte "Nur-nativ-ist-toll-Verfechter" überzeugt ist. Wobei einige sich wahrscheinlich nie überzeugen lassen werden. Aber jeder wie er mag...
MfG Blase
robbitop
2026-01-31, 15:46:28
Naja man kann ja noch DLSS mit Downsampling kombinieren um die BQ zu steigern. Also DLSS-P @2x2 downsampling.
ZB bei einem 4K Monitor: Auflösung im Spiel auf 8K stellen (dsr downsamplet auf 4k) und per DLSS-P doe real gerenderte Inputresolution auf 4k (wie der Monitor).
Kostet allerdings richtig Leistung.
Ganon
2026-01-31, 16:09:53
Aber es wird wohl noch etwas dauern, bis auch der letzte "Nur-nativ-ist-toll-Verfechter" überzeugt ist. Wobei einige sich wahrscheinlich nie überzeugen lassen werden. Aber jeder wie er mag...
Nunja... mir wurde schon seit DLSS2 erzählt, dass DLSS besser als nativ ist. Ich hab damals schon die ganzen Artefakte gesehen, die selbst die übelsten Pixelzähler im Forum sich noch schöngeredet / übersehen haben. Auch das ganze temporale Geschmiere und instabile Bild bei DLSS wurde gerne unter den Teppich gekehrt und immer erst beachtet, wenn DLSS Version +1 raus kam, was irgendwas davon behoben hat.
Dass man genau jetzt mit DLSS 4.5 wirklich endlich und ganz ganz sicher besser als nativ ist... klar ist da nicht sofort jeder ungesehen überzeugt. Ich persönlich hab es mir jetzt noch nicht angesehen und will auch nichts diesbezüglich sagen, aber die Sau "besser als nativ" wurde schon oft durchs Dorf getrieben.
Bin natürlich kein 4K nativ Verfechter, da das eine handelsübliche Grafikkarte eh nicht packt.
robbitop
2026-01-31, 16:25:16
Was man bedenken muss ist, dass die Ergebnisse sehr variabel sein können. Von extrem gut bis hat doch ein paar sichtbare Artefakte. Denn wenn man die Renderauflösung aggressiv reduziert und dann mit temporalen Daten arbeiten muss und die in starker Dynamik der Kamera dann auch mal fehlen können und die AI dann halluzinieren muss - dann liegt die AI auch mal daneben.
Aber je moderner der Verfahren desto schmaler wird die Variabilität und desto besser der Median.
Auch bei DLSS 4.5 gab es ja bei genug Reviews und Usererfahrungen schon den Input zu Schwächen (also Beispiele wo die Ergebnisse eher am unteren Rand sind).
Entsprechend werden zukünftige Verfahren da immer weiter ein oben drauf setzen können. :)
Allerdings ist die Frage auch immer was die Referenz ist. Auch native hat Schwächen. Auch da gibt es Unterabtastung, Artefakte, temporale Instabililität usw - entsprechend kann es schon gut sein dass bessere temporale Verfahren auch mit weniger Auflösung oft (aber nicht immer) besser sind. Die Frage ist aber auch was da ein guter Maßstab ist. Muss es immer und ohne Ausnahmen besser/gleich gut sein? Immerhin spart es ja auch Rechenzeit / erhöht die fps. Was ist wenn zwar nicht jeder Aspekt im Bild besser wird aber die Mehrzahl so dass der Gesamteindruck besser ist? Dann kann man auch Erbsen zählen und auf die Schwächen zeigen und die Verbesserungen ignorieren.
Wenn der Referenz die „ground truth“ ist ist die Lücke natürlich größer.
IMO ist die Bewertung ein komplexes Thema. Entsprechend ist ein „genauso gut“ oder „besser“ wahrscheinlich immer mit einem Sternchen zu versehen :)
Ganon
2026-01-31, 17:08:21
Ja das stimmt schon. Ich mein selbst der Test bei Computerbase sagte es trifft auf "4 von 6 Spielen" zu. Wie du sagst, praktisch ist der Vergleich mMn eh recht sinnlos, da z.B. "4K nativ" die meisten Grafikkarten gar nicht packen. Da nimmt man in der Regel die Artefakte in Kauf, anstatt es nativ in der Auflösung zu spielen, die die gleiche Performance hat. Also im 4K Beispiel dann irgendwo so 720p-1440p, je nach GPU. Das heißt aber natürlich im Umkehrschluss nicht, dass die Artefakte nicht da sind. Es ist im Endeffekt so, wie man damals das Bild ohne jegliches Anti-Aliasing "gut genug" fand. Man denke an die 3DFX Zeit, wo Leute ebenfalls Performance der Bildqualität den Vorzug gegeben haben (z.B. Hardware T&L vs 3dfx AA).
raffa
2026-01-31, 17:47:53
Die fps sind ja auch ein Teil der (Bild)Qualität, wenn ich also mit (performance) Upscaling bei ähnlichem Bildeindruck statt mit 60 mit 90 fps spielen kann, dann nehm ich letzteres, weils deutlich smoother daherkommt und zudem der input direkter wird - das muss freilich nicht jeder so sehen so sehen.
robbitop
2026-01-31, 17:52:18
Und Bewegtschärfe ist auch Bildqualität (man kann also mehr Details in Bewegung sehen). Zumindest wenn das Bild sich bewegt. :)
Nunja... mir wurde schon seit DLSS2 erzählt, dass DLSS besser als nativ ist.
War es auch, schon DLSS2 in Wolfenstein war besser als Nativ und das obwohl der Gegner da eine der besten TAA-, die es vor den DL-Basierten Varianten gegeben hat, war.
Freilich damals nur auf DLSS-Q. Heute kann man schon behaupten dass DLSS-P besser als Nativ ist
Relex
2026-01-31, 19:28:13
Extrem beeindruckender Showcase von DLSS 4.5 Preset L.
Bereits 20% Scaling sieht ziemlich gut aus und selbst 10% ist erstaunlich (100x weniger gerenderte Pixel!)
https://youtu.be/DKCyk3CeUFY?t=382
Ja, hab jetzt auch mal mit so geringen Auflösungen getestet. Würde sagen, in Bewegung ist das bei 540p ungefähr auf dem Niveau von KCD1 mit SMAA2TX in Nativen 4K. Bei 720p bereits deutlich besser. Ich hab beide Spiele installiert und verglichen.
Einfach nur krank.
Wenn man bisschen mit dem Slider in Special K rumspielt und sieht wann die Bildqualität tatsächlich schlechter wird, dann erscheint mir alles höher als 50% Skalierung tatsächlich schon völliger overkill in 4K zu sein. Die Unterschiede sind selbst in Bewegung so minimal, das lohnt nur noch in seltenen Fällen.
SamLombardo
2026-02-01, 10:11:08
9aLkdaCixDw
hier schneidet DLSS 4.5 ziemlich gut ab vs. Ray Reconstruction
Jupiter
2026-02-01, 11:19:43
Als ich es getestet habe bin ich gleich wieder zu RR zurück.
00-Schneider
2026-02-01, 11:45:00
https://youtu.be/9aLkdaCixDw
hier schneidet DLSS 4.5 ziemlich gut ab vs. Ray Reconstruction
Naja, RR würde besser abschneiden, wenn er für beide auf Quality hoch gehen würde.
Ist ein dezenter Apfel-Birnen Vergleich.
Thunder99
2026-02-01, 19:44:55
das macht die neue DLL besser, jetzt als 310.5.3 verfügbar?
basix
2026-02-02, 08:14:27
Siehe Release-Notes: Nichts weltbewegendes für Gamer
https://github.com/NVIDIA/DLSS/releases
- Added CUDA application support to DLSS Ray Reconstruction
- Bug Fixes & Stability Improvements
"Bug Fixes & Stability Improvements" steht bei jedem Release.
basix
2026-02-02, 13:29:33
Noch spannend:
UP scheint bei DLSS 4.5 vs. 4.0 besser zu performen verglichen mit P/B/Q
https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-45-aktivieren-Test-Performance-Spiele-1490771/4/
robbitop
2026-02-02, 15:25:12
Noch spannend:
UP scheint bei DLSS 4.5 vs. 4.0 besser zu performen verglichen mit P/B/Q
https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-45-aktivieren-Test-Performance-Spiele-1490771/4/
Was meinst du damit genau?
basix
2026-02-02, 15:29:31
UP hat in der Vergangenheit immer etwas viel Performance gekostet. Jetzt gibt es Fälle, wo UP mit TR 2.0 (Preset M) schneller läuft als mit TR 1.0 (Preset K). Bei P/B/Q ist TR 1.0 immer schneller als TR 2.0. Und wenn TR 2.0 bei UP nicht schneller ist, so ist immerhin der Abstand zu TR 1.0 meistens deutlich kleiner (mehr oder minder Gleichstand von TR 1.0 mit TR 2.0) als in den anderen Upsampling Modi (P/B/Q).
Nvidia scheint die Performance von UP bei TR 2.0 optimiert zu haben.
robbitop
2026-02-02, 15:35:58
Hm komisch. Müsste eigentlich langsamer sein laut dem Overhead der in Nvidias programming guide in ms angegeben wird. Und "M" ist eigentlich auch eine seltsame Wahl für UP. Eigentlich nimmt man da doch "L"? Komische Wahl für den Test.
basix
2026-02-02, 15:41:02
M oder L sind egal. Es gehen alle Modi mit allen Presets. L ist einfach ein aggressiveres Upscaling Preset (mMn ein Vorbote für DLSS 5) als Preset M.
Die Werte im Programming Guide sind allesamt für Performance-Mode Upscaling. UP kann sich dort anders verhalten.
robbitop
2026-02-02, 15:46:13
Ja aber L ist ja extra für UP gemacht weil es sehr gut mit kleinen Inputresolutions gemacht wurde. Erzielt bei UP bessere Ergebnisse, kostet aber auch mehr Overhead. L ist für UP das ideale Setting. M für den Rest (wobei man hier mit Turing/Ampere eventuell auch auf K zurück muss aus Overheadkostengründen)
Aber ich glaube ich verstehe was du meinst. Ich denke UP ist einfach nur teuer gewesen, weil DLSS wie alle upscaling Verfahren sehr stark ihre Kosten mit der outputresolution skalieren.
Relex
2026-02-02, 16:08:12
Preset L ist weder ein Vorbote auf DLSS5 noch ist es das generell hochwertigste Setting.
Gerade im PCGH Video sieht man immer wieder, dass Preset L z.B. im performance Modus stärker flimmern kann als Preset M.
Preset M ist dann nicht nur schneller, sondern erzeugt auch das bessere Bild.
Es kommt stark aufs Spiel an, ob Preset L oder M besser sind. Fast immer äußert es sich im Flimmern von Kanten oder Oberflächen.
Im Ultra Performance Modus ist L meiner Erfahrung nach immer am besten und stabiler als M.
Beim Performance, Balanced oder Quality Modus ist meistens (aber nicht immer) Preset M stabiler als Preset L. Hier muss man also ausprobieren.
Abgesehen von den leichten Unterschieden bei der Flimmerneigung sehen beide Presets aber zu 99% identisch aus. Ich hatte bisher nur sehr wenige Fälle, wo preset L ein deutlich anderes Bild erzeugt hat. Den auffälligsten Unterschied hatte ich mit Preset L in Clair Obscur, wo in Akt1 die mit Gras vollbewachsenen Felder mit Preset L deutlich glatter sind, aber auch etwas stärker zu ghosting neigen.
Grundregel:
Ultra Performance Modus -> Preset L
Performance, Balanced oder Quality -> Preset M
Falls flimmern mit Preset M sichtbar -> Preset L ausprobieren -> Falls beides nichts hilft, Preset K nutzen - Falls das auch nichts hilft -> einfach damit leben.
Das Video ist übrigens gemeint: :)
-aGW2OXGxVw
MfG
Raff (wie zuletzt immer kurz angebunden)
M4xw0lf
2026-02-03, 14:27:19
Gucken und abstimmen werte Pixelzähler und alle die es noch werden möchten ;)
https://www.computerbase.de/artikel/grafikkarten/nativ-vs-dlss-4-5-vs-fsr-upscaling-ai-leser-blindtest.95965/
Relex
2026-02-03, 17:36:00
Das Video ist übrigens gemeint: :)
https://youtu.be/-aGW2OXGxVw
MfG
Raff (wie zuletzt immer kurz angebunden)
Sorry, war irgendwie gemein von mir das Video zu erwähnen aber nichtmal zu verlinken, wo ich sonst immer zig Videos verlinke. :redface:
War aber der Tatsache geschuldet, dass ich es am Vortag gesehen hatte und keine Lust hatte es rauszusuchen.
Blase
2026-02-04, 10:24:18
Gucken und abstimmen werte Pixelzähler und alle die es noch werden möchten ;)
https://www.computerbase.de/artikel/grafikkarten/nativ-vs-dlss-4-5-vs-fsr-upscaling-ai-leser-blindtest.95965/
Ja, auf die Auswertung bin ich auch gespannt :tongue:
MfG Blase
Relex
2026-02-04, 18:48:18
Lv8tJoiApd8
DF hat sich jetzt auch Preset L angesehen.
Alex ist noch aufgefallen, dass man das verstärkte Rauschen mit RT Effekten vollständig beheben kann, wenn man den Ingame Denoiser deaktiviert.
Das ist ja mal interessant. Sieht so aus, als würden wir in Zukunft bereits ohne RayReconstruction, deutlich besseres RT Denoising durch DLSS Super Resolution bekommen, als es bisher der Fall war.
https://i.ibb.co/mrJ78QBY/Screenshot-2026-02-04-184715.png (https://ibb.co/XfXT8m4d)
Troyan
2026-02-04, 19:34:16
Das sagt ja eher aus, dass der Denoiser-Input nicht für M/L optimiert ist. Frage wäre jetzt, wie das in Bewegung aussieht.
Die Aussage, dass M/L sollte mit Denoising besser arbeiten, ist eher zweifelhaft. Wenn die mit Raw-Daten genauso gut umgehen, dann ist Denoising sinnbefreit und verursacht nur unnötige Kosten.
aufkrawall
2026-02-04, 19:45:48
Das ist ja mal interessant. Sieht so aus, als würden wir in Zukunft bereits ohne RayReconstruction, deutlich besseres RT Denoising durch DLSS Super Resolution bekommen, als es bisher der Fall war.
Das ist aber eine optimistische Lesart.
Tesseract
2026-02-04, 20:01:44
Das sagt ja eher aus, dass der Denoiser-Input nicht für M/L optimiert ist.
denoiser zerstören sampleinformation, das sind glorified blur filter. "optimieren" bedeutet weniger zu denoisen.
Lurtz
2026-02-04, 20:22:04
Alex sagt im Video, dass DLSS bessere Ergebnisse liefern kann, wenn der Ingame-Denoiser schlecht ist, Preset M/L derartige Inputs aber prinzipiell falsch verarbeitet, was gefixt werden sollte.
Schon seltsam, dass ausgerechnet nVidia das final releast mit ihrem RT-Fokus :ugly: Ist nicht so als hätte auch nur jedes zweite RT-Spiel RR-Support.
aufkrawall
2026-02-04, 20:23:52
War doch bei K auch schon schlecht, nur anders. Hatte er in einem früheren Video bei den Wasserreflexionen in Jedi Survivor gezeigt.
Alex sagt im Video, dass DLSS bessere Ergebnisse liefern kann, wenn der Ingame-Denoiser schlecht ist, Preset M/L derartige Inputs aber prinzipiell falsch verarbeitet, was gefixt werden sollte.
Musst du den Game Entwicklern klar machen, darüber hinaus hast du die Wahl, was ist so schwer daran zwischen Preset "K" und "M" je nach Game zu wechseln?
Lurtz
2026-02-04, 20:46:44
Was willst du denen klar machen? Dass Nvidias Upscaling Probleme mit Denoisern hat oder dass sie jetzt in jedes Spiel teures Ray Reconstruction einbauen sollten? :ugly:
Und wie aufkrawall schon richtig sagte ist auch K nicht optimal für derartigen Content.
Wenn selbst Digital Foundry eine Nvidia Technologie deutlich kritisiert liegt schon was im argen.
Was willst du denen klar machen? Dass Nvidias Upscaling Probleme mit Denoisern hat oder dass sie jetzt in jedes Spiel teures Ray Reconstruction einbauen sollten? :ugly:
Und wie aufkrawall schon richtig sagte ist auch K nicht optimal für derartigen Content.
Wenn selbst Digital Foundry eine Nvidia Technologie deutlich kritisiert liegt schon was im argen.
Du solltest einfach mal lernen, dass es keine Upscaler Technik gibt, welche perfekt alle Anwendungsfälle abdeckt, darauf kannst du lange warten! ;-)
Und natürlich ist der Game Entwickler in der Pflicht, für mehr Flexibilität zu sorgen, wenn Ingame Denoiser problematisch, gab es ja schon mehrfach u.a. Nixxes und den Spider Man Titeln.
Preset "K" und "M" sind aktuell die empfohlenen Presets für Perf/Bal./Quality/DLAA, etwas besseres gibts nicht für Super Resolution! Für Control taugt nur DLSS 3.7 da direkt dafür optimiert, alle anderen sorgen für Shimmering etc.
rumpeLson
2026-02-04, 21:44:24
Das sagt ja eher aus, dass der Denoiser-Input nicht für M/L optimiert ist. Frage wäre jetzt, wie das in Bewegung aussieht.
https://www.youtube.com/watch?v=ZH599M-J6Hg
Preset M mit und ohne Denoising vs. FSR 3.1
Relex
2026-02-04, 22:23:32
Das ist aber eine optimistische Lesart.
Warum optimistisch? Offensichtlich ist es doch mit Preset M ohne denoiser besser als alles was wir bisher hatten (außer RR)
Noch besser: Wenn der Denoiser des Spiels wegfallen kann, gibts nen gratis performance boost. Win Win.
basix
2026-02-04, 22:31:30
Alex ist noch aufgefallen, dass man das verstärkte Rauschen mit RT Effekten vollständig beheben kann, wenn man den Ingame Denoiser deaktiviert.
Das ist ja mal interessant. Sieht so aus, als würden wir in Zukunft bereits ohne RayReconstruction, deutlich besseres RT Denoising durch DLSS Super Resolution bekommen, als es bisher der Fall war.[/url]
Jetzt sollte DLSS den Denoiser noch selber automatisch abschalten (Nvidia könnte das ja einbauen, z.B. via Game Whitelisting) oder einen Treiber-globalen "Disable Game Denoiser when possible" Schalter ins Control Panel hinzufügen und wir wären alle zufrieden ;)
aufkrawall
2026-02-04, 23:00:32
Warum optimistisch? Offensichtlich ist es doch mit Preset M ohne denoiser besser als alles was wir bisher hatten (außer RR)
Noch besser: Wenn der Denoiser des Spiels wegfallen kann, gibts nen gratis performance boost. Win Win.
Ja, wenn, wenn-Situation. :freak:
Relex
2026-02-04, 23:05:41
Wenn RR eingebaut wird, schalten die Entwickler den Denoiser ja auch aus, also warum künftig nicht auf bei SR. Oder ggf. muss der Densoier anders konfiguriert werden.
Könnte schon sein, dass sich Nvidia bei dem Verhalten was gedacht hat, und die Regression mit aktivem Denoiser bewusst in Kauf genommen hat. Die nächsten Monate werden es zeigen.
Troyan
2026-02-05, 00:02:34
https://www.youtube.com/watch?v=ZH599M-J6Hg
Preset M mit und ohne Denoising vs. FSR 3.1
Danke. Sieht stabil aus.
aufkrawall
2026-02-05, 00:23:28
https://www.youtube.com/watch?v=ZH599M-J6Hg
Preset M mit und ohne Denoising vs. FSR 3.1
Wow, crazy. Aber auch nicht ganz überraschend, wenn der interne Modellname rrlite ist:
https://forums.guru3d.com/threads/info-zone-gengines-ray-tracing-ai-dlss-dlaa-dldsr-tsr-fsr-xess-directsr-and-mods-etc.439761/page-247#post-6388116
Trotzdem wird es ständig Fälle geben, wo sich der spielinterne Denoiser nicht abschalten lassen wird. Was man davon halten soll...
The_Invisible
2026-02-05, 07:55:10
Schon interessant aber bis das die Entwickler wieder checken...
Was willst du denen klar machen? Dass Nvidias Upscaling Probleme mit Denoisern hat oder dass sie jetzt in jedes Spiel teures Ray Reconstruction einbauen sollten? :ugly:
Weißt du es gibt so was wie DLSS-Guidelines.
Diese Guidelines stehen den Entwicklern zur Verfügung, die können diese Lesen oder von einem KI-Tool ihrer Wahl zusammenfassen lassn.
Und in diesen Guidelines steht seit Anbeginn von DLSS drinnen, dass Entwickler ihre Denoiser unter Berücksichtigung von DLSS finetunen sollen und dass die Deniosing-Ergebnisse mit DLSS schlechter ausfallen können insbesondere wenn diese zuvor dafür ausgelegt waren, dass der inhärente TAA-Blur quasi einen Teil des Deniosings mit übernimmt.
Dass eine DLSS-Version welche den TAA-Blur Quasi komplett eliminiert da Probleme verursachen kann wenn der Denoiser nicht verändert wird, ist jetzt alles andere als überraschend.
Wenn Entwickler ihre Spiele mit DLSS4/4.5 ausliefern werden, werden sie auch ihre Denoiser entsprechend anpassen.
Dass ein externer Override zu suboptimalen Ergebnissen führen kann ist zu erwarten und war schon immer so. Auch in der MSAA-Zeit haben Treiber-Overrides oftmals zu schlechteren Ergebnissen als Spieleimplementierungen geführt. Und damals waren die Engines noch viel simpler.
Lurtz
2026-02-05, 08:16:03
Das kann man jetzt kaum nur den Entwicklern anlasten. nVidia muss sich dessen ja bewusst gewesen sein, ebenso, dass alte Spiele da nichts mehr dran ändern werden. Dennoch hat man das nicht an die Presse kommuniziert, obwohl das Handling des Denoisings neben dem Flimmern mancher Elemente der größte Einzelkritikpunkt an DLSS 4.5 sein dürfte, DF erfährt das jetzt durch die Hintertür von einzelnen Entwicklern?
Dass man jetzt Super Resolution und Denoising fest verknüpft ist ein ziemlicher Paradigmenwechsel.
Steht dazu nichts im Developer Guide? Sonst hätten Leute wie basix das doch sicher schon ausfindig gemacht. Sollen Entwickler für RT in Kombination mit DLSS 4.5 den Ingame-Denoiser zukünftig deaktivieren?
Wenn man zB das aktuelle UE5-Plugin für DLSS nutzt, wird der Denoiser mit M/L dann automatisch deaktiviert oder ist das Handarbeit für die Entwickler?
dildo4u
2026-02-05, 08:36:58
Weiß jemand warum das in Doom Dark Age nicht auftritt ich zocke mit 4.5 Performance und es scheint sauber.
Weiß jemand warum das in Doom Dark Age nicht auftritt ich zocke mit 4.5 Performance und es scheint sauber.
Weil Doom The Dark Ages schon seit Anfang an DLSS4.0 implementiert hat.
robbitop
2026-02-05, 09:23:31
https://youtu.be/Lv8tJoiApd8
DF hat sich jetzt auch Preset L angesehen.
Alex ist noch aufgefallen, dass man das verstärkte Rauschen mit RT Effekten vollständig beheben kann, wenn man den Ingame Denoiser deaktiviert.
Das ist ja mal interessant. Sieht so aus, als würden wir in Zukunft bereits ohne RayReconstruction, deutlich besseres RT Denoising durch DLSS Super Resolution bekommen, als es bisher der Fall war.
https://i.ibb.co/mrJ78QBY/Screenshot-2026-02-04-184715.png (https://ibb.co/XfXT8m4d)
Hatte er nicht aber auch gesagt dass das komische Rauschen (mit Denoiser) eine Regression ggü K ist? Kam bei mir so an als muss man nun den Denoiser aktivieren um dort wieder auf K oder gar CNN Level zu kommen? Vom Bildeindruck dachte ich aber auch das was du geschrieben hast. Ist leider nicht ganz eindeutig.
Lurtz
2026-02-05, 09:41:24
Hatte er nicht aber auch gesagt dass das komische Rauschen (mit Denoiser) eine Regression ggü K ist? Kam bei mir so an als muss man nun den Denoiser aktivieren um dort wieder auf K oder gar CNN Level zu kommen? Vom Bildeindruck dachte ich aber auch das was du geschrieben hast. Ist leider nicht ganz eindeutig.
Er sagt das passiert laut Entwickler wenn das Denoising anhand der geringeren Renderauflösung vorgenommen wird, bevor DLSS upscaled. Und das soll wohl eine Regression gegenüber K und CNN sein. Oder neues Standardverhalten :confused:
Troyan
2026-02-05, 10:38:33
Hier mal ein Beispiel aus Dragon Dogma 2 mit dem Pathtracing Mod: https://www.youtube.com/watch?v=WJ52UZK9vRc
L produziert ein ziemlich gutes, ruhiges Bild. Macht den Leistungsverlust viel interessanter.
Relex
2026-02-05, 10:50:41
Hatte er nicht aber auch gesagt dass das komische Rauschen (mit Denoiser) eine Regression ggü K ist? Kam bei mir so an als muss man nun den Denoiser aktivieren um dort wieder auf K oder gar CNN Level zu kommen? Vom Bildeindruck dachte ich aber auch das was du geschrieben hast. Ist leider nicht ganz eindeutig.
Praktisch ist es eine Regression. Aber so wie ich das verstehe ist es wohl doch nur der Tatsache geschuldet, dass Preset K das Bild stärker verschmiert und das eigentliche Problem daher kaum sichtbar ist.
Letztendlich wohl das gleiche Problem wie mit den Scharfzeichnern in den Spielen.
Man könnte auch sagen, Preset M ist zusammen mit den Spielinternen Scharfzeichnern eine regression, weil das Bild total überschärft aussieht.
Schaltet man den Scharfzeichner aber ab ist es ein Fortschritt gegenüber Preset K, egal ob man es mit oder ohne Scharfzeichner genutzt hat.
Genauso scheint es mit den Denoisern auch zu sein.
Preset K hat das Problem besser kaschiert, aber es war trotzdem ein Problem.
Mit DLSS4.5 wird das Problem nur deutlicher, dafür sieht es umso besser aus, wenn man das Problem an der Wurzel behebt und den Denoiser deaktiviert.
Ich hab gestern etwas mit Outer Worlds 2 und deaktiviertem Denoising gespielt. Grundsätzlich kommt DLSS4.5 mit dem nicht-denoisten Bild mit abstand am besten zurecht. Also besser als K oder das alte CNN Model.
Das heißt Preset M liefert mit deaktivertem Denoiser wirklich das bestmögliche Bild. Selbst im Vergleich zu Nativ TSR.
Allerdings hab ich auch ein paar Regressionen gesehen. Es gibt stellen, wo mit aktivem Denoisern ein Smootheres Ergebnis erzeugt wird und großflächiges, sehr niederfrequentes Wabern stark reduziert ist, mit DLSS4.5 aber stärker sichtbar ist. Mittel bis hochfrequentes flimmern und boiling ist aber mit DLSS4.5 und deaktiviertem Denoising deutlich stärker reduziert.
Ich würde sagen, je nachdem wo man hinschaut ist es ein bisschen ein Trade-Off. Allgemein gefällt mir das Bild mit deaktiviertem Denoising und DLSS4.5 trotzdem am besten, einfach weil das offensichtliche Flackern der RT Spiegelungen viel besser aussieht.
Ich schätze mal, dass die Entwickler das einfach korrekt implementieren müssen und den Denoiser entsrechend für DLSS konfigurieren müssen.
Ich meine man sieht es ja auch bei RayReconstruction. Theoretisch kann man in jedem UE5 spiel RR nutzen, dafür muss man auch die Denoiser abschalten. Aber selten funktioniert das so gut und fehlerfrei wie eine offizielle Implementierung.
SamLombardo
2026-02-05, 11:18:32
Hier mal ein Beispiel aus Dragon Dogma 2 mit dem Pathtracing Mod: https://www.youtube.com/watch?v=WJ52UZK9vRc
L produziert ein ziemlich gutes, ruhiges Bild. Macht den Leistungsverlust viel interessanter.
Sehr eindrucksvoll. Gut auch dass er mal DLSSQ genommen hat. Ich würde gern mal den Vergleich zu M sehen in DLSSQ. Ich frage mich gerade: DLSSQ M vs DLSS Ausgeglichen L. Die fps sowie die Leistungsaufnahme sind ungefähr gleich.
Disconnected
2026-02-05, 13:27:10
Ich habe jetzt ein Beispiel gefunden, wo der Unterschied zwischen K und M wie Tag und Nacht ist, und das bei einem Titel der eigentlich nativ gar kein DLSS unterstützt: Dead Island 2. Hier habe ich Optiscaler verwendet.
In UHD wirkt das native Bild schon relativ sauber. Die Unschärfe ist weniger schlimm als bei anderen Titeln. Mit Preset K Quality ist zwar alles schärfer, flimmert jedoch deutlich störend. Mit Preset M hat man die Schärfe von K ohne das Flimmern. Selbst im Performance Mode ist die Bildqualität besser als mit K oder nativ. Auf meiner GPU lauf M Performance ungefähr so wie nativ.
SamLombardo
2026-02-05, 15:32:54
Ich habe jetzt auch mal 4k DLSS Quality mit L und M hin und her getestet in zwei Spielen einmal Baldur's Gate 3 und einmal Assassin's Creed Shadows .... die Bildruhe mit L ist schon beeindruckend, wenn ich L nehme kann ich auch den Ingame Schärferegler wieder ein bisschen anheben, so dass es eine schöne Schärfe hat ohne überschärft zu wirken. Aber das macht schon was her durch Gras, Gebüsch, Wald zu reiten ohne die kleinste Krieselei oder "Ameisenbewegung:D". Ich glaube ich werde das noch weiter testen und erst mal dabei bleiben, der 5090 sei Dank kann ich den nochmaligen fps-Verlust ja wegstecken;). Den Unterschied sieht man auf jeden Fall sofort, jetzt muss ich halt nur noch rauskriegen, ob es auch offensichtliche Nachteile gibt die mir noch nicht aufgefallen sind.
dildo4u
2026-02-05, 21:07:15
Dynamische MFG kommt im April
https://www.hardwareluxx.de/index.php/news/software/anwendungsprogramme/68148-multi-frame-generation-ausprobiert-dynamic-mfg-und-6x-erscheinen-im-april.html
basix
2026-02-05, 22:50:16
Dass man jetzt Super Resolution und Denoising fest verknüpft ist ein ziemlicher Paradigmenwechsel.
Steht dazu nichts im Developer Guide? Sonst hätten Leute wie basix das doch sicher schon ausfindig gemacht. Sollen Entwickler für RT in Kombination mit DLSS 4.5 den Ingame-Denoiser zukünftig deaktivieren?
Bei den DLSS 3.7.0 und DLSS 4.0 / 4.5 Programming Guides steht genau das gleiche drin: Grundsätzlich nichts ;)
Unter "Future DLSS Parameters" steht (mindestens bereits seit 3.7.0):
The following is a list of rendering engine resources that the DLSS library can optionally accept, and which may be used in future DLSS algorithms.
[...]
8. Frame time delta (in milliseconds): helps in determining the amount to denoise or anti-alias based on the speed of the object from motion vector magnitudes and fps as determined by this delta
9. Ray tracing hit distance: For Each effect - good approximation to the amount of noise in a raytraced color (supported format – 16-bit or 32-bit floating-point)
Im Gegensatz dazu findet man im RR Programming Guide mehrere Best Practice Infos zu Noise sowie Denoising.
Ich glaube es ist eher prinzipbedingt, das DLSS und jetzt insbesondere "rrlite" (Preset L) sowie "rrlite_folded" (Preset M) schon ansprechend gute Denoiser sind. Bereits bei DLSS 2.0 hat man solche Effekte sehen können (soweit ich mich erinnere bei irgendeinem Super Mario Spiel aufgezeigt).
DLSS kumuliert Informationen auf und umso mehr man aufkumuliert, desto weniger Informationen fehlen. Das wiederum führt zu reduziertem Noise. Insbesondere dann, wenn man stochastische Verfahren fürs Sampling verwendet. RT ist da mit z.B. oftmals genutzem Monte Carlo Sampling etc. ein Paradebeispiel. DLSS 4.5 hat anscheinend ein so grosses Budget über viele Frames und kann fast Pixelgenau Infos tracken, sodass da auch ohne vorgängiges denoisen nicht mehr viel Noise übrigbleibt. Beim geposteten Vergleich von DLSS 4.5 mit FSR 3.1 inkl. Denoiser on/off sieht FSR 3.1 im Stillstand ohne Denoiser auch besser aus. Sobald man sich bewegt kann FSR aber nicht mehr so gut Infos tracken und der Noise steigt. DLSS 4.5 gelingt das viel besser, der Noise bleibt auf niedrigem Niveau.
Inkl. Denoiser besteht vermutlich das Problem, das der Denoiser selbst die Boiling Artefakte erzeugt. Und umso geringer die Rendering-Auflösung, desto mehr Probleme haben die Denoiser damit. Ist bei fast allen aktuellen RT-Denoisern ausser Nvidias RR der Fall. Und DLSS kann das dann natürlich nicht beheben. Wenn du nur schmieriges Zeugs reinbekommst, wird auch nur schmieriges Zeugs rauskommen da der vorgelagert Denoiser die Informationen schlicht vernichtet hat. Und die Boiling Artefakte haben auch eine zu geringe Frequenz für DLSS, das sieht für DLSS wie "echt ändernde" Information aus.
Edit:
Wenn wir schon bei Denoiser sind, da wird aktiv geforscht und verbessert. Folgendes wäre schon fast Realtime fähig
https://www.nature.com/articles/s41598-025-23942-8
Lurtz
2026-02-06, 11:39:42
6x und Dynamic MFG soll im April kommen und zumindest die Ersteindrücke klingen viel versprechend:
Zum neuen 6×-Modus lässt sich schwerlich etwas sagen. Dazu ist die Zeit zu knapp gewesen und nur ein Spiel sagt schlussendlich ohnehin nicht sonderlich viel aus. Das Spielgefühl ist absolut vergleichbar mit MFG 4× gewesen, die Steuerung hat sich nicht indirekter angefühlt.
Dynamic MFG ist dabei sehr flexibel. Sämtliche Frame-Generation-Modi können die Technik nutzen. Also nicht nur 6×, auch 5×, 4× sowie 3× stehen zur Verfügung, Dynamic MFG kann auch auf 2× zurückschalten. Und auch der nächste Schritt ist möglich: Kann für die anvisierte Framerate auf Frame Generation verzichtet werden, schaltet Dynamic MFG die künstlichen Bilder auch komplett ab. Das soll zu einer bestmöglichen Latenz führen.
Der MFG-Modus wird dabei je nach Szene unterschiedlich schnell gewechselt, allem Anschein nach aber nicht mehrfach innerhalb einer Sekunde. Zumindest laut dem in München angezeigten Overlay ist es nicht so, dass der Faktor mehrmals in der Sekunde hin und herspringt. Pro Sekunde etwa eine Änderung ist aber möglich. In einem kurzen Selbsttest war die Änderung nicht zu spüren. Doch ob das auch für andere Spielszenen oder für andere Spiele gilt, wird sich erst mit richtigen Tests zeigen.
https://www.computerbase.de/artikel/grafikkarten/dlss-mfg-6x-dynamic-mfg-erfahrungsbericht.96056/
Sehr schön, auf Dynamic FG warte ich schon, seit es FG gibt. In Zukunft wird man dem Spiel einfach sagen es soll bis zu den maximalen Display-Hertz rendern und DLSS erledigt den Rest.
Besserer Engine-Support wäre noch denkbar. Wenn die Engine verlässliche Latenzwerte liefern würde und dynamische Auflösungsskalierung unterstützen würde, könnte man DLSS zB sagen: Halte mindestens 60 "native" fps bzw. x ms Latenz, wenn die Leistung nicht reicht, reduziere den SR-Skalierungsfaktor bis höchstens 50%, dann schalte Dynamic MFG ein bis die maximalen Hertz erreicht sind. Vielleicht kommt das in den nächsten Jahren ja noch in irgendeiner Form...
aceCrasher
2026-02-06, 11:43:44
Ich nehme an dass mit 6x dann nochmal ein neueres Modell mit weniger Artefaktbildung kommt? Ich spiele gerade DOOM: The Dark Ages und habe da zum ersten Mal MFG ausprobiert. Ab 3x sind mir dann doch teilweise Artefakte ums UI herum aufgefallen, bei Fadenkreuz beispielsweise. Ich spiele es jetzt gerade mit 2x. Wie 6x problemlos gehen soll kann ich mir gerade noch schwer vorstellen, außer der Algorithmus ist wirklich nochmal deutlich verbessert worden.
robbitop
2026-02-06, 11:48:58
6x und Dynamic MFG soll im April kommen und zumindest die Ersteindrücke klingen viel versprechend:
https://www.computerbase.de/artikel/grafikkarten/dlss-mfg-6x-dynamic-mfg-erfahrungsbericht.96056/
Sehr schön, auf Dynamic FG warte ich schon, seit es FG gibt. In Zukunft wird man dem Spiel einfach sagen es soll bis zu den maximalen Display-Hertz rendern und DLSS erledigt den Rest.
Besserer Engine-Support wäre noch denkbar. Wenn die Engine verlässliche Latenzwerte liefern würde und dynamische Auflösungsskalierung unterstützen würde, könnte man DLSS zB sagen: Halte mindestens 60 "native" fps bzw. x ms Latenz, wenn die Leistung nicht reicht, reduziere den SR-Skalierungsfaktor bis höchstens 50%, dann schalte Dynamic MFG ein bis die maximalen Hertz erreicht sind. Vielleicht kommt das in den nächsten Jahren ja noch in irgendeiner Form...
Ist IMO noch einen Schritt vom Endgame entfernt. dynamic mfg schaltet ja in Ganzzahlen zwischen den FG Faktoren. Da wird es ggf Situationen geben wo man das merkt oder wo es durch LFG dann vrr flackern mal gibt wenn da hin und hergesprungen wird. IMO ist Endgame dass die output fps völlig entkoppelt von den input fps sind. Entsprechend sind alle fps die man sieht generiert. Das macht der adaptive Mode von LSFG. Allerdings noch nicht beeindruckend von der BQ. Ich bin mir aber sicher, dass Nvidia das hinbekommen wird mit ihrem KI Fokus (und der Vorteil der Gameintegration). Kann mir gut vorstellen, dass das eine der zukünftigen FG Modi ist bei DLSS FG.
Zu deinem letzten Absatz: großartige Idee und nimmt das ganze manuelle Gefummel ab und liefert dann potenziell out of the box eine sehr gute Erfahrung
robbitop
2026-02-06, 11:51:08
Ich nehme an dass mit 6x dann nochmal ein neueres Modell mit weniger Artefaktbildung kommt? Ich spiele gerade DOOM: The Dark Ages und habe da zum ersten Mal MFG ausprobiert. Ab 3x sind mir dann doch teilweise Artefakte ums UI herum aufgefallen, bei Fadenkreuz beispielsweise. Ich spiele es jetzt gerade mit 2x. Wie 6x problemlos gehen soll kann ich mir gerade noch schwer vorstellen, außer der Algorithmus ist wirklich nochmal deutlich verbessert worden.
Das verbesserte Modell haben wir wohl schon im aktuellen Driver. Aber noch nicht die neuen MFG Modi.
Relex
2026-02-06, 11:53:14
Ich bin gespannt, ob der verbesserte Algorithmus dann auch für RTX40 kommt, so wie letztes Jahr beim MFG release.
Müsste ja eigentlich der Fall sein, weil es ne generelle Verbesserung ist und der Algo für 6x MFG tendenziell eher schneller statt langsamer/fordernder werden müsste. Da seh ich für 2x FG zumindest keine offensichtlichen Gründe das nicht für alle Karten zu bringen.
Ich hab ja mit dem DLSS4.5 Release dem Framepacing bereits attestiert, dass es mittlerweile extrem smooth ist und nochmal besser als zum 4.0 Release. Tatsächlich wurde an der FG DLL aber zu 4.5 nichts geändert. Das waren also vermutlich doch "nur" Treiber/Reflex Optimierungen über das letzte Jahr. Umso gespannter bin auf das neue Model im April.
Aber das zeigt, dass Nvidia auch ohne es öffentlich zu kommunizieren wohl immer wieder an den Features herumschraubt und sie verbessert. Wenn auch oft nur minimal. Sieht man ja auch in der Nvidia App. Da sind manche Games ewig nicht whitelisted, weil es Probleme gibt, irgendwann sind sie dann aber doch whitelisted, weil Nvidia irgendwas optimiert/korrigiert hat.
Bei Smooth Motion das selbe. Anfangs noch extrem Buggy in z.B. Kingdom Come Deliverance 1, mittlerweile läuft es aber perfekt. In den Reelasenotes wurde nie irgendwas davon erwähnt, weder im Treiber noch in der NV App.
robbitop
2026-02-06, 11:55:41
Ah ok. Das las sich im Januar anders im Forum dass es schon das neue Modell gibt und BQ Verbesserungen gesehen worden sind. Sicher dass es nicht so ist?
Was wohl auch besser geworden ist ist Smooth Motion Frames was ja sicherlich Teile der Entwicklung von DLSS FG teilt. (optical flow)
basix
2026-02-06, 12:30:26
Soweit ich verstanden habe gibt es das verbesserte FG Modell bereits, ja (2x FG für Lovelace und 4x MFG für Blackwell).
Besserer Engine-Support wäre noch denkbar. Wenn die Engine verlässliche Latenzwerte liefern würde und dynamische Auflösungsskalierung unterstützen würde, könnte man DLSS zB sagen: Halte mindestens 60 "native" fps bzw. x ms Latenz, wenn die Leistung nicht reicht, reduziere den SR-Skalierungsfaktor bis höchstens 50%, dann schalte Dynamic MFG ein bis die maximalen Hertz erreicht sind. Vielleicht kommt das in den nächsten Jahren ja noch in irgendeiner Form...
Ich hätte gerne folgende Einstellungsmöglichkeiten:
- Ziel Output FPS (fixed)
- Min. Render FPS (=Latenz)
- Max/Min Auflösungs Skalierung (dynamisch)
- Max/Min MFG Faktor (dynamisch)
DLSS könnte dann Auflösung und/oder FG dynamisch anpassen. Die Auflösung kann man dabei granularer steuern als MFG und somit besser gewährleisten, dass die Ziel Output FPS auch gehalten werden können.
The_Invisible
2026-02-06, 13:22:38
Ja dynamisches resolution scaling wär geil, machen Konsolen ja schon lange :)
Disconnected
2026-02-06, 13:33:01
Gibts auch am PC. Ist nur nicht so sehr verbreitet. Man erwartet eben, dass PC-Spieler die Regler selbst bedienen können.
basix
2026-02-06, 17:48:27
Ist dennoch dumm, dass man das nicht öfters anbietet. Dynamische Auflösungsskalierung ist ein sehr sinnvolles Feature, wenn man ein Frame Rate Target haben will. Wenn PC Spieler also Regler selbst bedienen können, darf man ihnen hier ja auch die Wahl lassen ;)
Zudem kann dynamische Auflösungsskalierung ein paar OLED Unzlänglichkeiten wie VRR Flicker abfedern. Wird spannend beim dynamischen MFG, da man dort dann Framerate-Sprünge drin haben wird. Wenn dynamisches MFG aus diesem Grund nur im oder überhalb vom Framerate Limit angewendet würde (also wenn z.B. fixe 240fps sollen gehalten werden), würde Leistung verschenkt werden. Zusätzliche dynamische Auflösungsskalierung könnte hier die Lücke nahtlos schliessen und dynamisches MFG "perfekt" machen.
Relex
2026-02-06, 17:56:32
Dynamische Auflösungsskalierung stell ich mir dann aber witzig bei manchen UE5 spielen vor. Hoppla, ein 16 oder 33 ms Ruckler. Ich stelle mal ganz schnell die Auflösung auf 720p runter...
Was? Cyberpunk speichert sein Savegame? -> Ruckler -> Bildmatsch.
VRAM Usage variiert dann auch sehr stark, LoD Bias muss ständig mit angepasst werden und generell muss man etwas performance verschenken um die Framerate stabil zu halten.
Auf Konsolen in einer fest definierten Umgebung sicherlich sinnvoll. Am PC... ich denke da holt man sich nur mehr probleme, als es löst. Ganz besonders auf schwächeren GPUs.
Aber wer weiß, vielleicht bringt ja Nvidia mit DLSS5 ein AI Model, das Upscaling, Frame Gen und Frame Pacing in einem großen AI Model macht. Dann hätten wir zumindest was die komplette Bildausgabe angeht schonmal reines Neural Rendering welches vom Rasterizing losgelöst arbeiten könnte.
basix
2026-02-06, 18:04:54
Es ist und bleibt eine Option. Nicht ein müssen ;)
Und wenn es Ruckler gibt, passiert erstmal genau gar nichts. Zum Beispiel die Game Logik läuft während dieser Zeit ja nicht weiter und mit entsprechender Heuristik oder einem Handshaking zwischen Game Engine und DLSS kann man solche "Glitches" wegfiltern. Für mich ist das ein reines Engineering Problem. Am besten optimiert man aber die Ruckler weg ;)
Und ich glaube das mit dem LoD Bias usw. ist ein gelöstes Problem (siehe Konsolen). VRAM Usage variiert auch beim normalen Spielen, das ist ein non-issue. Dynamische Skalierung sollte nur "nach unten" skalieren und mit einer klar definierten Skalierungs-Obergrenze hast du VRAM Überlauf im Griff.
Verschenkte Performance hast du mit Framerate Target sowieso. Ohne Framerate Target kannst du dir dynamische Skalierungen eh schenken.
aufkrawall
2026-02-06, 18:05:44
Dynamische Auflösungsskalierung stell ich mir dann aber witzig bei manchen UE5 spielen vor. Hoppla, ein 16 oder 33 ms Ruckler. Ich stelle mal ganz schnell die Auflösung auf 720p runter...
Nö, weil es sich nach der GPU Frame Time richtet, und Traversal Ruckler durch die CPU Frame Time kommen.
VRAM Usage variiert dann auch sehr stark, LoD Bias muss ständig mit angepasst werden und generell muss man etwas performance verschenken um die Framerate stabil zu halten.
Auf Konsolen in einer fest definierten Umgebung sicherlich sinnvoll. Am PC... ich denke da holt man sich nur mehr probleme, als es löst. Ganz besonders auf schwächeren GPUs.
Nö, das funktionierte schon in Doom Eternal gut, und in Fortnite mit dynamic TSR auch.
basix
2026-02-06, 18:09:52
Nö, weil es sich nach der GPU Frame Time richtet, und Traversal Ruckler durch die CPU Frame Time kommen.
Guter Punkt.
Relex
2026-02-06, 18:10:22
Na ich weiß nicht, bei Cyberpunk varriert der VRAM verbrauch sehr extrem, wenn ich mit Pathtracing von Performance Upscaling auf Quality Upscaling umschalte.
Das Problem ist, dass ein Algorithmus, der die Qualität anhand der Frame Time justiert nicht weiß, wie weit er die Auflösung hochschrauben darf, bis der VRAM voll ist. Erst wenn es so weit ist und die FPS einbrechen würde wieder runter justiert werden. Aber bis es soweit ist haste dann einzelne fiese Ruckler.
Ich hatte das Problem schonmal mit meiner 3060ti die ich vor meiner 4080 hatte genau so in einem Spiel. Aber frag mich nicht welches... Ist ewig her. Aber da hatte ich auch in irgend nem Spiel dynamische Auflösungsskalierung ausprobiert und mir hat's einfach den VRAM voll geballert, weil der Algo dachte, er kann die Auflösung bedenkenlos hoch schrauben.
Und ja, mit der GPU Frametime geb ich dir Recht, das ergibt Sinn.
basix
2026-02-06, 18:11:42
Ist doch egal, wenn VRAM Verbrauch variiert. Du musst einfach sicherstellen, dass die maximalen Einstellungen den VRAM nicht überfüllen. Das musst du heute auch schon. Alle Skalierungen gegen unten verringern die VRAM Auslastung, maximieren aber die FPS.
Was theoretisch denkbar wäre, aber als zusätzliches Feature:
DLSS dynamic resolution behält auch den VRAM Verbauch im Auge. Damit könnte man akkuten VRAM Mangel über reduzierte Renderauflösung abfedern. Ist das ein geiles Feature? Nein. Hilft aber im Notfall den 8GB Karten oder Leuten, die nicht wissen wie man den VRAM nicht überfüllt. Aber die nehmen wohl eh bereits Nvidia recommended Settings im Control Panel und gut ist.
aufkrawall
2026-02-06, 18:15:57
Das Problem ist, dass ein Algorithmus, der die Qualität anhand der Frame Time justiert nicht weiß, wie weit er die Auflösung hochschrauben darf, bis der VRAM voll ist.
Wieso nicht? Die Engine weiß immer, wie viel VRAM verfügbar ist. Dass der Entwickler seine Hausaufgaben gemacht haben muss, ist selbstverständlich.
Wenn Texturen ab und zu etwas verzögerter als sonst laden, ist das auf schwacher Hardware auch kein Dealbreaker.
Relex
2026-02-06, 18:17:04
Weißt du was: Du hast absolut recht.
Ich bin gerade irgendwie nicht auf Höhe :D
Zeit fürs Wochenende...
basix
2026-02-06, 18:18:09
Gute Idee, viel Spass euch allen im wohlverdienten WE ;)
Das Problem ist, dass ein Algorithmus, der die Qualität anhand der Frame Time justiert nicht weiß, wie weit er die Auflösung hochschrauben darf, bis der VRAM voll ist.
Bei dynamischer Auflösung wird der VRAM immer fürs maximale Resolution-Target reserviert. Wird nicht die volle Auflösung gerendert, wird eben ein Teil davon nicht verwendet.
Disconnected
2026-02-07, 09:37:19
Ist dennoch dumm, dass man das nicht öfters anbietet. Dynamische Auflösungsskalierung ist ein sehr sinnvolles Feature, wenn man ein Frame Rate Target haben will. Wenn PC Spieler also Regler selbst bedienen können, darf man ihnen hier ja auch die Wahl lassen ;)
Zudem kann dynamische Auflösungsskalierung ein paar OLED Unzlänglichkeiten wie VRR Flicker abfedern. Wird spannend beim dynamischen MFG, da man dort dann Framerate-Sprünge drin haben wird. Wenn dynamisches MFG aus diesem Grund nur im oder überhalb vom Framerate Limit angewendet würde (also wenn z.B. fixe 240fps sollen gehalten werden), würde Leistung verschenkt werden. Zusätzliche dynamische Auflösungsskalierung könnte hier die Lücke nahtlos schliessen und dynamisches MFG "perfekt" machen.
Ja, aber wenn, dann sollte man es gleich richtig machen, in dem man z.B. zusätzlich unterschiedliche Bildbereiche oder -objekte mit unterschiedlicher Auflösung rendert, ähnlich wie Foveated Rendering. Shadow Warrior 2 hatte so eine Option, dass die äußeren Bildbereiche eine niedrigere Auflösung hatten. Das war aber vor DLSS und sah entsprechend mies aus.
basix
2026-02-07, 10:05:43
Schritt für Schritt. Lieber mal etwas haben als alle überfordern und gar nichts bekommen ;)
Ich stimme dir da aber sicher zu. Wenn man noch innerhalb des Bildes unterschiedliche Auflösungen fahren kann, wäre das noch optimaler. Grundsätzlich geht das ja in die Richtung von Variable Rate Shading. Primär wären hier ja Disocclusion Bereiche im Fokus. ReSTIR PT macht das z.B. bereits.
Momentan scheint es aber einfacher zu sein, im allgemeinen dynamische Render-Auflösungen zu fahren. Hier noch innerhalb des Bildes zu variieren geht langsam in Richtung abnehmender Grenzertrag, würde aber einige letzte Problemstellen verbessern, insbesondere bei hohen Upsampling Faktoren.
Relex
2026-02-07, 10:27:56
Ich glaube im DLSS Programming Guide steht irgendwas zu den Jitter Phasen, die je nach input auflösung anders konfiguriert werden sollten.
Würde man dynamisch die Auflösung im Bild an unterschiedlichen Stellen reduzieren, würde der Kamera Jitter wahrscheinlich nicht mehr für jeden Bereich optimal arbeiten können.
Ansonsten würde ich glauben, dass Nvidia, AMD und Intel in den letzten 7 Jahren sicherlich viele Möglichkeiten erforscht haben. VRS gibts ja nicht erst seit gestern. Wird wohl alles seinen eigenen Kompromiss mit sich bringen.
AwesomeSauce
2026-02-07, 10:33:23
Sowas funktioniert nur, wenn man den Fokus der Augen tracken kann. Ich möchte nicht, dass ich im MSFS aufm Widescreen nicht auf die Seiten des Monitors blicken kann, ohne Augenkrebs zu bekommen.
Disconnected
2026-02-07, 10:40:35
Ja, für solche Spezialfälle schon.
basix
2026-02-07, 15:38:12
Ich habe mir mal Portal RTX mit DLSS 4.5 angeschaut. Das coole an Portal RTX ist, dass man den standard Denoiser ein-/ausschalten kann ;)
Und es ist wirklich interessant, wie viele Details auch DLSS 4 RR mit Preset E (Transformer) verschluckt.
Preset M ohne Denoiser vs. RR Preset E (4K Performance Mode):
- Texturdetails deutlich höher
- Statische Schatten höher aufgelöst und kontraststärker
- Dynamische Schatten an den Kanten schärfer
- Schwache dynamische Lichtquellen gut sichtbar, bei RR fehlen die komplett
- Noise sieht man halt
- Ghosting sichtbar
- Reflexionen sehen schlechter aus
- Partikel deutlich besser sichtbar
Preset M mit Denoiser vs. RR Preset E (4K Performance Mode):
- Texturdetails immer noch einiges höher
- Statische Schatten immer noch höher aufgelöst und kontraststärker
- Dynamische Schatten verlieren ihre harten Kanten, schlechter als RR
- Schwache dynamische Lichtquellen immer noch sichtbar, aber dezenter als ohne Denoiser
- Kein Ghosting mehr sichtbar
- Reflexionen zum Teil nicht mehr sichtbar (Denoiser hält das für Noise). Wenn man aber inter-Textur Details hat bei Reflexionen (z.B. Kratzer auf Metall) sieht das mit RR schlechter aus
- Partikel werden immer noch deutlich besser dargestellt
Relex
2026-02-07, 15:40:11
Hmm, es gibt doch aber mit RayReconstruction häufig Schatten, die ohne RR vollständig verschluckt werden und einfach komplett fehlen.
Ich gehe mal nicht davon aus, dass Preset M solche Schatten ebenfalls rekonstruiert?
basix
2026-02-07, 15:45:26
Hier noch ein Video dazu (ist nicht von mir):
https://www.youtube.com/watch?v=PHFPLcAmSGo
Hmm, es gibt doch aber mit RayReconstruction häufig Schatten, die ohne RR vollständig verschluckt werden und einfach komplett fehlen.
Ich gehe mal nicht davon aus, dass Preset M solche Schatten ebenfalls rekonstruiert?
Soweit ich das sehe, fehlen eher bei RR Schatten und Preset M stellt die korrekt dar.
Relex
2026-02-07, 15:52:41
Dann verstehe ich den Sinn deines Tests nicht. In dem Video sind doch Sowohl preset K als auch preset M völlig unzureichend beim Denoising.
Das Problem ist ja, dass beim Denoising potenziell details verschwinden. Deswegen machts doch auch nur Sinn, Denoiser zu vergleichen die es schaffen, das rauschen zu beseitigen.
Der Vergleich zeigt zwar, dass Preset M stärker denoised als Preset K, aber der Vergleich zu RR ist doch totaler Äpfel/Birnen Vergleich.
Bei Pathtraced spielen hat man halt das Problem, dass der standard Denoiser zwar das rauschen beseitigt aber dabei viele Details. RR macht das deutlich besser.
Wenn du jetzt den denoiser abschaltest und Preset M nimmst, was völlig unzureichend denoised und dann sagst "ja aber ich seh mehr Details" dann stellst du nur das offensichtliche fest. Nämlich dass weniger Denoising auch weniger details vernichtet :up: Die Kunst beim Denoising ist aber schon immer, das rauschen zu beseitigen und dabei so viele Details wie möglich zu erhalten.
Das sind zwei absolute Gegensätze und beides zu kombinieren extrem schwierig.
basix
2026-02-07, 15:56:06
Es gibt da drei Aussagen von mir dazu:
- RR ist gut und vor allem clean, dessen Denoiser verschluckt aber immer noch sehr viele Details (M/L ohne Denoising können da wie eine Art "Ground Truth" angesehen werden)
- Preset M & L rekonstruieren Details besser als RR mit Preset E
- Letzteres bleibt für den Grossteil des Bildes auch inkl. Denoiser so. Einzig ein paar wenige Reflexionen verschluckt der standard Denoiser, welche mit RR nicht verschluckt werden
Ich würde sagen, Preset M mit standard Denoiser sieht über einen Grossteil des Bildes besser als RR aus. Und RR Preset E ist somit noch lange nicht das perfekte DLSS ;)
Relex
2026-02-07, 16:01:10
Sorry, aber die Argumentation klingt für mich wie TAA vs kein-AA und du sagst mir kein-AA ist ground truth.
Also ich kann das wirklich nicht nachvollziehen. Das rechte Bild ist doch komplett übersäht mit noise artefakten. Und es ist völlig logisch und offensichtlich, dass man mehr Details sieht, je weniger man denoised. Aber dann haste halt unerträgliches Bildrauschen. Genau das ist doch das Kernproblem. Ich verstehe beim besten Willen deine Argumentation nicht. Aber vielleicht gehts nur nur mir so :)
Und was der Standard Denoiser gegenüber RR vernichtet sieht man sehr gut hier im Vergleich bei den Schatten auf dem Tisch: https://imgsli.com/MzUxNjk1
Wenn der Standard Denoiser die schatten vernichtet kann auch Preset M + Standard Denoiser nichts mehr retten. Was weg ist ist weg.
basix
2026-02-07, 16:39:41
Liest du das, was ich schreibe? :)
Auch mit Denoiser zeigt Preset M an vielen Orten mehr Details als RR. Ja, RR behält Kontaktschatten / dynamische Schatten deutlich besser. Ebenso generelle Genaugkeit bei Reflexionen. Das habe ich alles bereits vorhin geschrieben. Aber RR verliert sehr, sehr viele Details auf Flächen, bei Partikeln und manche Sachen werden schlicht verschluckt. Auch sehr viele Schatten und Lichter werden von RR schlecht / stark geblurred dargestellt (gegenüber dem not-denoised Bild: Das soll uns als Beispiel dienen, was DLSS RR noch nicht gut macht / interessant für Technik interessierte).
Insgesamt ist die Beleuchtungsqualität von RR sicher akkurater und näher an der Ground Truth, sieht aber an vielen Orten auch gegenüber Preset M + standard Denoiser stark detailärmer aus.
Überzeuge dich selbst:
https://imgsli.com/NDQ4MjQy
https://imgsli.com/NDQ4MjQz
https://imgsli.com/NDQ4MjQ0
Relex
2026-02-07, 18:00:32
Danke für die Vergleiche, jetzt wird ein Schuh draus. Ich versteh aber ehrlich gesagt immernoch nicht warum du den Vergleich ohne Denoiser gemacht hast. Wolltest du nur sehen, wie viele Texturdetails das Spiel eigentlich hätte?
Und ja, Preset M zeigt viel mehr Details, RR, verschluckt einige Details.
RR ist dafür oft bei der Beleuchtung besser.
z.B. Bild 2. Die Schatten unter den Schwarzen "Füßen" der Druckschalter oder die Schatten unterhalb der Ausgangstür, sowie auch über der Tür an den Schildern.
Auch rechts wo der Laser rauskommt die schwarze vertikale Strebe wirft mit RR einen schatten. Fehlt ohne RR komplett. Der Metallzylider auf dem der Laser sitzt sieht auch deutlich sauberer aus. Das licht das unter den Wänden hervor kommt auch viel sauberer und kräftiger mit RR.
Ja ich denke ich verstehe worauf du hinaus willst. RR vernichtet viele Oberflächendetails (eben hochfrequente Details), die mit Preset M sichtbar sind, dafür rekonstruiert RR sehr viel mehr Beleuchtungs und Schattendetails, die sonst komplett verschwinden würden.
Ich würde da RR auf jeden Fall vorziehen. Mir ist eine glaubhaftere und konsistentere Ausleuchtung lieber als das letzte Oberflächendetail. Aber ja, RR ist da sicher noch lange nicht perfekt. Da ist noch seeehr viel Luft nach oben. Nur ist das Denoising Problem halt generell verdammt komplex. Dass das aktuell in echtzeit so aussieht wie es aussieht ist eh schon ein kleines Wunder.
Diesen Trade-off aus schärfe und Denoising hast du übrigens in praktisch jedem RT spiel. Auch in Cyberpunk verliert man sehr viel Schärfe wenn mann von Rasterizing auf Raytracing umschaltet. Und natürlich nochmal mehr wenn man pathtracing nutzt.
Bei Black Myth Wukong ist das auch sehr extrem aufgefallen. Ohne Pathtracing mit dem Standard UE5 Lumen ein relativ scharfes Bild. Sobald man Pathtracing an macht sieht alles halb so detailliert aus. Der recht kleine Gewinn bei der Beleuchtung war mir den starken Detailverlust dann auch nicht wert.
aufkrawall
2026-02-07, 18:17:29
Konnte mit Lumen für helle Bereiche durch Abschalten von Denoiser und ~allen temporalen Verrechnungen auch kein klassisches RT-Rauschen provozieren, das gibt es nur in dunklen Bereichen. In hellen Bereichen gibt es stattdessen Geflacker größerer Flächen. RR passt wahrscheinlich besser zu reinem Rauschen ohne andere temporale Filter.
Lurtz
2026-02-07, 18:43:42
Insgesamt ist die Beleuchtungsqualität von RR sicher akkurater und näher an der Ground Truth, sieht aber an vielen Orten auch gegenüber Preset M + standard Denoiser stark detailärmer aus.
Überzeuge dich selbst:
https://imgsli.com/NDQ4MjQy
https://imgsli.com/NDQ4MjQz
https://imgsli.com/NDQ4MjQ0
Die Beleuchtung ist ja teils komplett anders. Was ist denn jetzt "richtig"? :ugly:
Woher kommt der ganze orange "Glow" mit M mit/ohne Denoiser im zweiten Vergleich?
basix
2026-02-07, 18:55:07
Ich nehme an das ist dem Thema logarithmischem / linearem Scaling des Farbraums geschuldet. Helle Objekte (wie dieser Energieball) werden bei Log-Scale helligkeitsmässig "komprimiert". Dadurch haben helle Objekt einen relativ gesehen kleineren Beitrag zum Gesamtergebnis. Mit linearem Scaling ist der Beitrag korrekt. RR Preset E ist noch auf Stand DLSS 4.0 mit logarithmischem Scaling.
Das "farblich richtigste" Bild wird am ehesten das nicht-denoised DLSS 4.5 Bild abgeben. Von da aus kannst du jetzt einen der verschiedenen Denoising-Tode sterben :D RR oder Standard Denoiser
- RR ist bei Schatten, Reflexion usw. akkurater aber nutzt farblich noch das alte Log-Scaling und ist generell blurrier
- Standard Denoiser pfuscht bei Beleuchtungsgenauigkeit, Preset M nutzt die akkuratere lineare Farbraum Skalierung und kann mehr Details herausarbeiten
Relex
2026-02-07, 22:25:19
Oder man legt einfach beide Bilder halbtransparent übereinander und nimmt das beste aus beiden Welten :D
https://i.ibb.co/MxgTNL7f/01.png (https://ibb.co/ZpfsTCxS)
basix
2026-02-08, 10:54:33
Oder das :D
Ich finde die Entwicklung von DLSS 2 bis heute spannend und irgendwie auch ein wenig amüsant. Jedes mal wenn eine neue Iteration rauskommt wird es besser und man denkt, es ist schon ziemlich gut (klar gab es Probleme mit Disocclusion, Ghosting, Smearing und Unschärfe). Aber wenn man dann die nächste Iteration zu Gesicht bekommt oder wie hier RR, DLSS 4.5 und Denoising zusammen anschaut und vergleicht bemerkt man, dass da doch noch ziemlich viel Luft nach oben ist :)
Und es überrascht mich jedes mal wieder aufs Neue, wie viele Details bei Geometrie und Texturen grundsätzlich vorhanden wären. Aber Temporal AA, Denoising und zum Teil Post Processing Effekte vernichten viele von den feinen Details.
vBulletin®, Copyright ©2000-2026, Jelsoft Enterprises Ltd.