Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35] 36 37

Darkman.X
2026-01-06, 20:24:18
Ich habe immer noch nur bis Profil K zur Auswahl mit dem neusten Treiber und neustem Inspector?
Wenn du im Inspector-Verzeichnis noch eine ältere CustomSettingNames.xml hast, in der DLSS-Presets hinterlegt sind, dann lösche sie oder benenne sie um. Die XML-Datei hat eine höhere Priorität und überschreibt nativen Inspector-Code.

Die Datei war früher mal notwendig, als der Inspector noch keinen nativen Support für DLSS, RTX-HDR, usw. hatte. Das wurde in den letzten Versionen aber alles eingebaut.

crux2005
2026-01-06, 20:27:49
Die Informationen sind für mich als stiller Mitleser gerade ein wenig durcheinander.

Wenigstens bin ich nicht der einzige. ;)

SamLombardo
2026-01-06, 20:31:22
Das weiß ich nicht, probiere es aus. Man kann sich per Registry-Eintrag ein Overlay aktivieren und dann sieht man links unten, welches Preset aktuell genutzt wird.

Die Informationen sind für mich als stiller Mitleser gerade ein wenig durcheinander.
Angeblich wird das Preset passend zur eingestellten Qualität ausgewählt, weil M nur für Performance geeignet wäre.
Andererseits soll laut Nvidia das M-Preset für alle Qualitätseinstellungen geeignet sein. Daher bezweifle ich, dass das Preset bei "always use latest" dynamisch ausgewählt wird.

Daher mein Tipp, es einfach selber mit dem DLSS-Overlay zu prüfen.

Danke für deine Antwort. Dann versuche ich das mal.

crux2005
2026-01-06, 20:46:43
So, jetzt mit RR "aus" geht auch Preset M/L in Hogwarts Legacy. Davor hatte ich die ganze Zeit Preset D. Klar konnte ich keinen Unterschied sehen, weil es keinen gab. Wieder was dazu gelernt. :D

1440p, DLSS Q und 4x MFG - Mit Preset M ist das Bild deutlich schärfer. Davor benutzte ich 0,15 Nachschärfen, das ist jetzt zu viel. In Bewegung ist es etwas stabiler/besser.

Edit: Eigentlich ist Preset M (1440p, DLSS Q) auch mit 0,0 Nachschärfen zu scharf für meinen Geschmack.

Edit2: IMHO braucht es noch einen Sprung bei MFG Qualität.

aufkrawall
2026-01-06, 20:56:58
Edit2: IMHO braucht es noch einen Sprung bei MFG Qualität.
Ist es mehr als ein Mythos, dass sich mit der neusten FG-DLL irgendetwas verbessert hätte?

crux2005
2026-01-06, 20:58:18
Ist es mehr als ein Mythos, dass sich mit der neusten FG-DLL irgendetwas verbessert hätte?

Ich denke die Unterschiede die ich mit MFG sehe sind nur wegen dem besseren SR. AFAIK hat sich noch nichts an der MFG "Logik" getan. Wenn ich mich bewege gibt es "die gleichen" Artefakte wie davor. NV meinte auch erst später (Spring 2026) gibt es das neue MFG.

Kann aber noch herumfragen, vielleicht bekomme ich eine bessere Antwort.

robbitop
2026-01-06, 21:03:11
So, jetzt mit RR "aus" geht auch Preset M/L in Hogwarts Legacy. Davor hatte ich die ganze Zeit Preset D. Klar konnte ich keinen Unterschied sehen, weil es keinen gab. Wieder was dazu gelernt. :D

1440p, DLSS Q und 4x MFG - Mit Preset M ist das Bild deutlich schärfer. Davor benutzte ich 0,15 Nachschärfen, das ist jetzt zu viel. In Bewegung ist es etwas stabiler/besser. Würde sagen 4x MFG (mit 138 FPS) sieht jetzt so aus wie davor 2x FG (mit 138 FPS).

Edit: Eigentlich ist Preset M (1440p, DLSS Q) auch mit 0,0 Nachschärfen zu scharf für meinen Geschmack.

Edit2: IMHO braucht es noch einen Sprung bei MFG Qualität.
Wobei dlss-rr (Model D bei dir?) dlss-sr (auch mit Model M) überlegen sein sollte. Wenn RR zur Verfügung steht (was leider selten ist), ist das immer vorzuziehen (und es ist auch ziemlich teuer).

aufkrawall
2026-01-06, 21:06:37
Er hatte ja nur RR D genommen, nicht das bessere E.

crux2005
2026-01-06, 21:15:43
Müsste Bilder machen um es genau zu sagen. Preset E ghostet in Bewegung aber mehr als Preset M, ist weniger scharf aber die RT Spiegelungen sind schärfer.

Edit: DLSS-RR Preset E vs. DLSS-SR Preset M in Hogwarts Legacy (1440p, DLSS Q, 0,15 Schärfe im Spiel, was zu viel für Preset M ist... )
https://i.imgur.com/S1pnjhT.jpeg
https://i.imgur.com/7Zt2EKS.jpeg

Ex3cut3r
2026-01-06, 21:19:10
Wieso habt Ihr beim Testen nicht wenigstens die DLSS Indicator Reg eingelesen? Damit wird einen einen links unten in der Ecke das Preset und die DLL Version angezeigt.

https://gofile.io/d/EDWv2s

Beinhaltet auch eine Reg, um es wieder zu deaktivieren.

Lurtz
2026-01-06, 21:19:42
Ich vermute die aktualisieren die DLLs immer, damit sie auf dem gleichen Versionsstand sind. Irgendwas hat sich bei der FG DLL getan, es fehlt ja jetzt der Warp-Parameter. Das heißt natürlich nicht, dass das Modell verändert wurde.

robbitop
2026-01-06, 21:21:15
Er hatte ja nur RR D genommen, nicht das bessere E.
Waren D und E bei RR Transformer? Bei RR bin ich mit den Models viel weniger firm :)
Wollte sagen: In jedem Fall ist das neuste RR (was von 2025 ist) besser als das neuste SR.

robbitop
2026-01-06, 21:24:33
Müsste Bilder machen um es genau zu sagen. Preset E ghostet in Bewegung aber mehr als Preset M, ist weniger scharf aber die RT Spiegelungen sind schärfer.

Edit: Preset E vs. Preset M in Hogwarts Legacy (1440p, DLSS Q, 0,15 Schärfe im Spiel, was zu viel für Preset M ist... )
Nur um sicherzugehen dass nicht Äpfel mit Birnen verglichen werden. Wenn du E schreibst meinst du preset E von DLSS-SR (also DLSS-RR aus) oder meinst du DLSS-RR Model E (also RR an mit neustem Model was dort E ist) vs DLSS-SR (also RR aus) Model M?

RR Model E sollte besser als SR Model M sein. Aber SR Model M kann je nach Spiel besser als SR Model E sein. Je nach Kriterium. (Schärfe und Detail preserving zB)

crux2005
2026-01-06, 21:26:21
Nur um sicherzugehen dass nicht Äpfel mit Birnen verglichen werden. Wenn du E schreibst meinst du preset E von DLSS-SR (also DLSS-RR aus) oder meinst du DLSS-RR Model E (also RR an mit neustem Model was dort E ist) vs DLSS-SR (also RR aus) Model M?

DLSS-RR Preset E vs. DLSS-SR Preset M, siehe Bilder oben. Ja, ist Äpfel vs. Birnen, aber in dem Fall (Hogwarts Legacy) kann ich beide benutzen und suche was besser ist.

robbitop
2026-01-06, 21:28:09
Schon merkwürdig. Bis auf Schärfe ist RR E eigentlich immer vorzuziehen.

aufkrawall
2026-01-06, 21:33:39
An die "Überschärfung" von M kann man sich imho ähnlich zu dem etwas künstlichen Look von RR gewöhnen, weil kein ekliges Ringing auftritt. Ist mir zumindest so nicht aufgefallen. Würde ich in UE5-Spielen wohl nutzen, wenn kein RR zur Verfügung steht. Der ganz große Wurf ist es nicht, aber immerhin eine Verbesserung gegenüber den massiven Fails von K. Ich hab auch den Eindruck, bewegte Objekte/Gegner in Fortnite verschwimmen deutlich weniger. Nur dass selbst M etwas teurer ist als K, ist etwas unglücklich. Tolle neue TC-Gen in Blackwell...

SamLombardo
2026-01-06, 21:52:17
Baldurs Gate 3 crasht unter Vulkan reproduzierbar mit den neuen Presets (Vulkan Error). DX11 läuft. Zurück auf Preset K gestellt läuft es wieder unter Vulkan.

Cubitus
2026-01-06, 21:58:36
Neues Statement von Nvidia:

https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/580689/dlss-45-super-resolution-faq/

Wir haben aus der Community einige Fragen zu DLSS 4.5 Super Resolution erhalten und möchten dazu ein paar Punkte klarstellen.
DLSS 4.5 Super Resolution verwendet ein Transformer-Modell der zweiten Generation, das die Lichtgenauigkeit verbessert, Ghosting reduziert und die zeitliche Stabilität erhöht. Diese verbesserte Bildqualität wird durch erweitertes Training, algorithmische Verbesserungen und fünffache rohe Rechenleistung erreicht.
DLSS 4.5 Super Resolution nutzt FP8-Präzision, die auf RTX-40- und RTX-50-Serien beschleunigt wird, um die Performance-Auswirkungen des komplexeren Modells zu minimieren. Da RTX-20- und RTX-30-Serien FP8 nicht unterstützen, kommt es bei diesen Karten zu einem größeren Performance-Einbruch im Vergleich zu neuerer Hardware. Nutzer dieser Karten bevorzugen daher möglicherweise weiterhin das bestehende Model K (DLSS 4.0)-Preset, um höhere FPS zu erzielen.
DLSS 4.5 Super Resolution ergänzt zwei neue Presets:
Model M: Optimiert und empfohlen für den DLSS-Super-Resolution-Performance-Modus
Model L: Optimiert und empfohlen für 4K DLSS Super Resolution im Ultra-Performance-Modus
Obwohl Model M und Model L auch in den Modi Quality, Balanced sowie im DLAA-Modus unterstützt werden, profitieren Nutzer am meisten vom besten Qualitäts-/Performance-Verhältnis in den Modi Performance und Ultra Performance.
Zusätzlich gilt: Ray Reconstruction wurde nicht auf die Transformer-Architektur der zweiten Generation aktualisiert – die Verbesserungen sind ausschließlich bei Super Resolution sichtbar.
Um zu überprüfen, ob das gewünschte Modell aktiv ist, aktivieren Sie die Statistikansicht im NVIDIA-App-Overlay über:
Alt + Z → Statistik → Statistikansicht → DLSS

Jow Performance wurde defenitiv verbessert,
Halte ich in den Games welche ich heute getestet hatte, auch für den Sweetspot.

Getestet bei DL3, BL4, TQ2 und eben KCD2

Shaft
2026-01-06, 22:05:29
Hatte zwar was anderes vor Heute, aber gut die Zeit habe ich mir gerne genommen.

Nutze selten FG und nur da wo es nötig ist.

Kurz AW 2 getestet, da wo es zu Artefakten kam, nichts mehr. Insbesondere Wegweiser, Schilder mit Text, nichts mehr. Hellblade 2 soweit auch ok.

Aber da wo ich AW2 immer zu unscharf fand, selbst in nativ und quali Dlss, ich muss nicht mehr nachschärfen, alles Top.

Ob mit K oder M, alles Top.

Ich habe jetzt einige Spiele getestet und durchaus kann man auch M verwenden, wenn die Spiele von Haus aus ziemlich unscharf waren.

Bei anderen Spielen empfiehlt es sich dann doch bei Preset K zu bleiben, da M gerade bei Vegetation zu überschärft.

Da muss man sich glaube ich herantasten, je nach Geschmack.

Das tolle, soweit kann ich wohl erst einmal auf nachschärfen verzichten.

Ex3cut3r
2026-01-06, 22:05:45
Ok. Ich habs jetzt mal in TLOU2 ausprobiert. Preset M @ DLSS Q @ 4K, 31,5" mit 140 PPi hat ein neues Bildqualitätsniveau in dem Spiel erreicht. Das ist ja der Wahnsinn wie klar, smooth und keinerlei Alasing Artefakte noch übrig sind.

crux2005
2026-01-06, 22:09:29
Waren D und E bei RR Transformer? Bei RR bin ich mit den Models viel weniger firm :)
Wollte sagen: In jedem Fall ist das neuste RR (was von 2025 ist) besser als das neuste SR.

Ich kannte mich mit DLSS-RR auch überhaupt nicht aus. Hogwarts Legacy ist das erste Spiel was es hat während ich es spiele (viele haben es ja erst später bekommen).
Deswegen dachte ich auch das RR "an" im Spiel nur mehr Daten an den Upscaler sendet und nicht gleich das Model samt Preset ändert. Auch dachte ich das "use latest" bei DLSS-RR dann Preset E wählen würde anstatt Preset D. Man lernt immer was dazu. :)

Schon merkwürdig. Bis auf Schärfe ist RR E eigentlich immer vorzuziehen.

Habe nur ein Bild gemacht und dann RR ausgeschaltet. Vielleicht braucht das Spiel einen Neustart. Dann könnte ich aber nicht die Stelle vergleichen.
Jedenfalls sehe ich keine großen Unterschiede was die RT Spiegelungsqualität angeht. Und Schärfe kann ich bei Preset M noch auf 0,0 ändern.

Relex
2026-01-06, 22:11:22
Wow, Starfield sieht einfach unfassbar gut aus mit Preset L im Ultra Performance Modus.
Das sind 720p @ 4K

https://i.ibb.co/21Z88fVd/Screenshot-2026-01-06-220231.png (https://ibb.co/1tzsswyT)
https://i.ibb.co/84Ry3pwW/Screenshot-2026-01-06-220337.png (https://ibb.co/gFX01p85)
https://i.ibb.co/RGTM185w/Screenshot-2026-01-06-215355.png (https://ibb.co/Xfxd9HwR)
https://i.ibb.co/TVB4M2F/Screenshot-2026-01-06-215532.png (https://ibb.co/Rxp3TbV)


Ja, es ist noch nicht perfekt. Ein paar Effekte zeigen noch pixelblöcke. Aber absolut nutzbar und überwiegend sehr gut, auch in Bewegung.

crux2005
2026-01-06, 22:14:09
Wow, Starfield sieht einfach unfassbar gut aus mit Preset L im Ultra Performance Modus.
Das sind 720p @ 4K

https://i.ibb.co/21Z88fVd/Screenshot-2026-01-06-220231.png (https://ibb.co/1tzsswyT)
https://i.ibb.co/84Ry3pwW/Screenshot-2026-01-06-220337.png (https://ibb.co/gFX01p85)
https://i.ibb.co/RGTM185w/Screenshot-2026-01-06-215355.png (https://ibb.co/Xfxd9HwR)
https://i.ibb.co/TVB4M2F/Screenshot-2026-01-06-215532.png (https://ibb.co/Rxp3TbV)


Ja, es ist noch nicht perfekt. Ein paar Effekte zeigen noch pixelblöcke. Aber absolut nutzbar und überwiegend sehr gut, auch in Bewegung.

Wow, das sieht auf Bildern echt toll aus. Aber wenn es auch in Bewegung diese Qualität hält. :eek:

Rush
2026-01-06, 22:14:49
Ich habe immer noch nur bis Profil K zur Auswahl mit dem neusten Treiber und neustem Inspector?

In der App -> Settings -> About -> Opt-In to acces Beta and..

Relex
2026-01-06, 22:16:56
Wow, das sieht auf Bildern echt toll aus. Aber wenn es auch in Bewegung diese Qualität hält. :eek:

Natürlich nicht ganz, aber es hält vor allem in Starfield erstaunlich gut.
Hab auch bisher kein Spiel gefunden, das mit Ultra Performance so gut aussieht. Bin schwer beeindruckt. Das ist wirklich ein Fortschritt.


EDIT: Jup selbst den Vergleich mit nativ TAA hält es in Bewegung stand. Würde DLSS UP klar vorziehen. Das sieht sauberer, schärfer und stabiler aus. Auch wenn der ein oder andere Effekt probleme macht, insgesamt siehts besser aus.

aufkrawall
2026-01-06, 22:20:09
Schon merkwürdig. Bis auf Schärfe ist RR E eigentlich immer vorzuziehen.
Auf Vergleichsbildern fehlen schon gerne mal ein paar feinere Details bei Vegetation etc. gegenüber dem regulären SR.
Relativiert sich nur halt, wenn dann in Bewegung trotzdem viel mehr kaputt geht. Aber mit M geht zum Glück viel weniger kaputt und räumt auch RT-Artefakte viel besser auf als K. Je mehr RT-Artefakte und Nanite, desto besser wird RR halt wieder im Vergleich.

SamLombardo
2026-01-06, 22:25:13
In VR auch Vorsicht, Kayak VR Mirage mit Preset M rucklig und hat Nachzieh Effekte. Musste auf K zurück dann wieder alles okay. Ich überlege ob ich standardmäßig doch K lasse und bei den Spielen bei denen es was bringt dann im Einzelfall M einstelle. Bisher hat mir bei denen die ich auf der Platte habe in Star Wars Outlaws und Assassin's Creed shadows M besser gefallen. Bei Baldurs Gate 3 musste ich auf K zurück weil sonst Vulkan abstürzt und bei Kayak VR Mirage halt wie geschrieben. Mal gucken wie das Testen in den nächsten Tagen weitergeht.

Oliver_M.D
2026-01-06, 22:34:24
Wurde ja schon ausführlich diskutiert, aber der Hardware-Hunger des M-Presets kann schon etwas heftig seien.
Habe nur ein paar schnelle Tests gemacht, aber ich kann verstehen dass Nvidia das Preset erst ab Performance empfiehlt.

Darktide, Hauptmenü:
Balanced, 90 FPS: K = 100–110 W / M = 140–150 W
Performance + 2×FG (158 FPS): K = 170 W / M = 190 W

X4 Timelines, Hauptmenü:
Quality, 72 FPS: M = 130–135 W / K = 115–120 W

Übrigens: Kann es sein dass Smooth Motion auch eine neue Version bekommen hat? Eventuell bin ich bescheuert, aber es wirkte mit den neusten treiber deutlich besser als zum release.

crux2005
2026-01-06, 22:37:37
[..] Nur dass selbst M etwas teurer ist als K, ist etwas unglücklich. Tolle neue TC-Gen in Blackwell...

Ja, das finde ich auch etwas lächerlich. Aber für NV gibt es wohl nur die 5090.

Übrigens: Kann es sein dass Smooth Motion auch eine neue Version bekommen hat? Eventuell bin ich bescheuert, aber es wirkte mit den neusten treiber deutlich besser als zum release.

Laut dem was ich gehört habe soll SM mit jedem Treiber verbessert worden sein. Mit dem letzten sollte es auch in Control möglich sein. Das war davor blacklisted.

Oliver_M.D
2026-01-06, 22:53:37
Laut dem was ich gehört habe soll SM mit jedem Treiber verbessert worden sein.Echt coole Nachricht wenn das stimmt. Sieht in meinem 30FPS Test merkbar sauberer aus, selbst bei vielen Menübewegungen. Klar sieht man weiterhin die üblichen Artefakte, aber längst nicht mehr so grausig offensichtlich wie zum ursprünglichen Release. Bin gespannt wie nützlich das Zeug jetzt für Emulation und Co. ist.

horn 12
2026-01-06, 23:05:57
Da muss AMD nun wirklich nachlegen
und Konkurrenz ist immer das Salz in der Suppe!

crux2005
2026-01-06, 23:47:49
Habe jetzt eine Stelle gefunden wo DLSS-RR Preset E besser aussieht als DLSS-SR Preset M:

https://i.ibb.co/QFJkLMmT/507.png
https://i.ibb.co/vxwdnbTG/508.png
Was nicht zu sehen ist, Preset M ist dazu deutlich temporal instabiler.

Gymnopédies
2026-01-06, 23:59:58
Wenn du im Inspector-Verzeichnis noch eine ältere CustomSettingNames.xml hast, in der DLSS-Presets hinterlegt sind, dann lösche sie oder benenne sie um. Die XML-Datei hat eine höhere Priorität und überschreibt nativen Inspector-Code.

Die Datei war früher mal notwendig, als der Inspector noch keinen nativen Support für DLSS, RTX-HDR, usw. hatte. Das wurde in den letzten Versionen aber alles eingebaut.

Danke, das war der Grund. :smile:

Cubitus
2026-01-07, 00:04:28
Wow, Starfield sieht einfach unfassbar gut aus mit Preset L im Ultra Performance Modus.
Das sind 720p @ 4K

https://i.ibb.co/21Z88fVd/Screenshot-2026-01-06-220231.png (https://ibb.co/1tzsswyT)
https://i.ibb.co/84Ry3pwW/Screenshot-2026-01-06-220337.png (https://ibb.co/gFX01p85)
https://i.ibb.co/RGTM185w/Screenshot-2026-01-06-215355.png (https://ibb.co/Xfxd9HwR)
https://i.ibb.co/TVB4M2F/Screenshot-2026-01-06-215532.png (https://ibb.co/Rxp3TbV)


Ja, es ist noch nicht perfekt. Ein paar Effekte zeigen noch pixelblöcke. Aber absolut nutzbar und überwiegend sehr gut, auch in Bewegung.

WOW :eek:

IceKillFX57
2026-01-07, 00:22:08
Habe jetzt eine Stelle gefunden wo DLSS-RR Preset E besser aussieht als DLSS-SR Preset M:

https://i.ibb.co/QFJkLMmT/507.png
https://i.ibb.co/vxwdnbTG/508.png
Was nicht zu sehen ist, Preset M ist dazu deutlich temporal instabiler.


Ich komme nicht mehr klar. Was bedeutet RR und SR?

crux2005
2026-01-07, 00:33:22
RR = RayReconstruction
SR = SuperResolution

Cubitus
2026-01-07, 01:15:10
Mein vorläufiges Resümee unter 4K nach weiteren Tests..
M kann ganz nett sein und ist ab DLSS Performance quasi immer die erste Wahl.
Bei „Ausgewogen“ würde ich ebenfalls M bevorzugen, da die K-Einstellungen in diesen beiden Modi schlechter wirken.
Ultra Performance mit L kann hingegen richtig beeindruckend aussehen wie uns Relex mit Starfield bewiesen hat.

Bei Qualität bzw. DLAA und M ist es so eine Sache, kann in Bewegung etwas schärfer -und im Detail geringfügig besser wirken, das ist allerdings sehr Spiel abhängig.
Der Performance-Hit ist dagegen immer vorhanden und teilweise nicht zu unterschätzen!

Klar, wer eine 5080 oder 5090 hat, kann sich das gönnen. Allerdings sind die Unterschiede oft so gering, dass es sich eher nicht lohnt, weshalb ich aus Kompatibilitätsgründen bei K bleiben werde, sofern ich DLSS-Q nutze.
Wer allerdings z. B. eine 5070 Ti hat, 4K spielen möchte oder wegen höherer Hz mehr FPS braucht: Go for it, Performance und M sind hier definitiv die beste Wahl!

crux2005
2026-01-07, 01:39:15
PuQ3wwLCEHo

Preset M kostet sogar mit 5080 viel Leistung und die Bäume rauschen mehr als mit Preset K.

Preset M ist wirklich sehr Spiel abhängig.

QUERSCHLÄGER
2026-01-07, 02:52:36
Was erhalte ich denn eigentlich, wenn ich mir nur die dll ins Spiel bügele? Habe noch keine app :freak:.

Maorga
2026-01-07, 07:01:17
Was erhalte ich denn eigentlich, wenn ich mir nur die dll ins Spiel bügele? Habe noch keine app :freak:.

Im Normalfall NICHTS. Da das Preset nicht geändert wird. Musst auf nvinspector zurückgreifen und dort das entsprechende Preset wählen.

Ex3cut3r
2026-01-07, 07:09:18
Bei Qualität bzw. DLAA und M ist es so eine Sache, kann in Bewegung etwas schärfer -und im Detail geringfügig besser wirken, das ist allerdings sehr Spiel abhängig.
Der Performance-Hit ist dagegen immer vorhanden und teilweise nicht zu unterschätzen!

Klar, wer eine 5080 oder 5090 hat, kann sich das gönnen. Allerdings sind die Unterschiede oft so gering, dass es sich eher nicht lohnt, weshalb ich aus Kompatibilitätsgründen bei K bleiben werde, sofern ich DLSS-Q nutze.
Wer allerdings z. B. eine 5070 Ti hat, 4K spielen möchte oder wegen höherer Hz mehr FPS braucht: Go for it, Performance und M sind hier definitiv die beste Wahl!

Ja unterschreibe ich so. Allerdings werden eine 5080 und eine 5090 auch älter, jetzt im hier und jetzt sagt man, ja klar kann man mit M @ Q @ 4K. Aber es werden auch noch neue anspruchsvollere Games dieses Jahr kommen, wo man doch lieber auf K runtergeht bei Q @ 4K dafür aber 15-20% mehr FPS hat. Muss/wird man abwägen müssen. :wink:

dildo4u
2026-01-07, 07:10:48
Cyberpunk M Model Performance Test auf 2060,3600Ti,4060 Ti,5090.

MT5ad4esWbs

SamLombardo
2026-01-07, 07:54:41
Mein vorläufiges Resümee unter 4K nach weiteren Tests..
M kann ganz nett sein und ist ab DLSS Performance quasi immer die erste Wahl.
Bei „Ausgewogen“ würde ich ebenfalls M bevorzugen, da die K-Einstellungen in diesen beiden Modi schlechter wirken.
Ultra Performance mit L kann hingegen richtig beeindruckend aussehen wie uns Relex mit Starfield bewiesen hat.

Bei Qualität bzw. DLAA und M ist es so eine Sache, kann in Bewegung etwas schärfer -und im Detail geringfügig besser wirken, das ist allerdings sehr Spiel abhängig.
Der Performance-Hit ist dagegen immer vorhanden und teilweise nicht zu unterschätzen!

Klar, wer eine 5080 oder 5090 hat, kann sich das gönnen. Allerdings sind die Unterschiede oft so gering, dass es sich eher nicht lohnt, weshalb ich aus Kompatibilitätsgründen bei K bleiben werde, sofern ich DLSS-Q nutze.
Wer allerdings z. B. eine 5070 Ti hat, 4K spielen möchte oder wegen höherer Hz mehr FPS braucht: Go for it, Performance und M sind hier definitiv die beste Wahl!

Sehr interessant danke! Was würdest du sagen, Performance M versus Qualiy K bezüglich Bildqualität? Liegt nah beieinander?

Gast
2026-01-07, 07:55:16
Das bestätigt vermutlich die Cache-These, benötigt auf Karten vor Ada deutlich mehr VRAM:
https://cdn.wccftech.com/wp-content/uploads/2026/01/DLSS-4.5-RTX-20-30-40-50-VRAm.png

Nein, das bestätigt die "These" des fehlenden FP8-Supports.

QUERSCHLÄGER
2026-01-07, 08:58:44
Im Normalfall NICHTS. Da das Preset nicht geändert wird. Musst auf nvinspector zurückgreifen und dort das entsprechende Preset wählen.

Das ist mir schon klar, weil das anders noch nicht zugänglich ist. Ich wollte nur wissen, wenn ich die alte 310.30 mit 310.50 überschreibe, ob dann... ja, wahrscheinlich läuft einfach das alte Modell weiter.

Kann mich schlecht ausdrücken. Gestern hatte jemand meine Gedanken ganz gut auf den Punkt gebracht, irgendwo in was englischem, kann auch so ein Moloch wie reddit gewesen sein. Die usability ist für den Moment irgendwie flöten gegangen. Wenn gsc zB. für Stalker mit einem Patch die neuere dll ins Spieleverzeichnis bugsiert hat, konnten die user gleich auf Transformer oder so umschalten, ingame. Ob das jetzt so auch kommen wird?

Mir geht es im Moment nur um ein einziges Spiel und das wäre Anno117. Dem Spiel fehlt ootb ein Schärferegler für dlss, högschde Qualität sieht verwaschen aus. Mag auch daran liegen, daß sich dieser Fieselkram in Iso-Perspektive generell nicht so einfach einfangen läßt wie ein Arcade-Renner. Da sieht TAA fünfmal schärfer aus, obwohl immer alle drüber schimpfen (treibt meine 70ti aber auch knapp 20% in der Auslastung nach oben). Dafür hätte ich mir gerne mal die neue Iteration angesehen. Ja und wo ich Stalker erwähnt habe, dafür dann auch, das würde ich jetzt mal über den Winter anfangen, wenn Zeit bleibt.

Aber ich werde mir die app da noch runterladen, tatsächlich nicht dafür, um jetzt sofort dlss auszuprobieren, sondern weil ich mir mal dieses smoothmotion einmal ansehen wollte. Vielleicht brauche ich das später mal in..tadaaaa: auch 117. Wie lange dauert das so in der Regel, bis die jetzige beta in den fertigen Zustand übergeht?

00-Schneider
2026-01-07, 09:07:32
Wie lange dauert das so in der Regel, bis die jetzige beta in den fertigen Zustand übergeht?


Full kommt nächste Woche Dienstag.

robbitop
2026-01-07, 09:11:29
Cyberpunk M Model Performance Test auf 2060,3600Ti,4060 Ti,5090.

https://youtu.be/MT5ad4esWbs
Hoffe er hat RR ausgemacht ^^ Und RR hat er nicht kommentiert.

Was im Video bisschen schade war, dass er bis inkl Ada 60er GPUs hatte und bei Blackwell dann eine 90er die mit 4K Performance DLSS garantiert nicht im GPU Limit war. Dementsprechend ist dort die Aussage, dass es nur wenige Prozent kostet IMO bedeutungslos.

gnomi
2026-01-07, 09:30:55
Konnte gestern nur Avowed und The Outer Worlds 2 testen.
Imho mal wieder eine starke Verbesserung.
Nicht so krass wie die vollen Schritte, aber schon merklich.
Würde sagen, auf der 4080 kann man in UE5 Games Global Neuste Erzwingen, und falls Quality einem zu langsam ist, auf Balanced oder gar Performance gehen.
Sieht astrein aus und ich wundere mich einfach nur, dass das immer noch besser wird.
Auflösung scheint mir zunehmend unwichtiger, je besser diese Modelle werden.
Das wird noch richtig genial mit der 6000er Serie, die dann vermute ich alles spielerisch berechnet und FG an jedes Display perfekt anpasst.
Die 4000er Serie ist im Grunde genommen schon zu alt, aber hält noch gut mit.

Bei weniger spezieller GPU Power bis Ampere würde ich für neue Spiele beim alten Modell bleiben. DLSS 4 noch zu bekommen, war hier wichtiger.

HOT
2026-01-07, 09:33:06
Interessant, dass DLSS4.5 auf FP8 umsteigt, genau wie FSR AI. Interssant auch, dass NV nicht den Fehler machen wollte, alte GPUs ausschließen zu wollen, obwohl man es hätte tun können, da 2000 und 3000 ja den Umweg über FP16 gehen müssen.

Cyberpunk M Model Performance Test auf 2060,3600Ti,4060 Ti,5090.

https://youtu.be/MT5ad4esWbs

Das Video ist wirklich informativ.

Lurtz
2026-01-07, 09:39:18
https://youtu.be/PuQ3wwLCEHo

Preset M kostet sogar mit 5080 viel Leistung und die Bäume rauschen mehr als mit Preset K.

Preset M ist wirklich sehr Spiel abhängig.
RDR2 war aber auch ein best case für Preset K :)

IMO kann man mit allem unter einer 5090 mit 4k Display einfach M Performance einstellen und sobald einem keine großen Probleme auffallen einfach dabei belassen...

Lurtz
2026-01-07, 09:41:49
Interessant, dass DLSS4.5 auf FP8 umsteigt, genau wie FSR AI. Interssant auch, dass NV nicht den Fehler machen wollte, alte GPUs ausschließen zu wollen, obwohl man es hätte tun können, da 2000 und 3000 ja den Umweg über FP16 gehen müssen.

Vielleicht überlegt AMD es sich ja jetzt nochmal nachdem nVidia teures DLSS anbietet :ugly:

SamLombardo
2026-01-07, 09:49:20
RDR2 war aber auch ein best case für Preset K :)

IMO kann man mit allem unter einer 5090 mit 4k Display einfach M Performance einstellen und sobald einem keine großen Probleme auffallen einfach dabei belassen...
Und was meinst du für jemanden mit einer 2070 Super, der an einem 4k Display spielt (ja gibt's wirklich;)) standardmäßig auf Preset L und Ultra Performance?

dildo4u
2026-01-07, 09:54:57
Hoffe er hat RR ausgemacht ^^ Und RR hat er nicht kommentiert.

Was im Video bisschen schade war, dass er bis inkl Ada 60er GPUs hatte und bei Blackwell dann eine 90er die mit 4K Performance DLSS garantiert nicht im GPU Limit war. Dementsprechend ist dort die Aussage, dass es nur wenige Prozent kostet IMO bedeutungslos.
Das sind alles Raster Tests.

Cubitus
2026-01-07, 10:03:42
Sehr interessant danke! Was würdest du sagen, Performance M versus Qualiy K bezüglich Bildqualität? Liegt nah beieinander?

Quality K ist von der Bildschärfe immer besser als Performance M.
M an sich geht ab und zu anders mit Details um, wie härtere Schatten oder Umgang mit Transparenz und es kann bei manchen Spielen FG Artefakte verhindern.

Ich würde Performance M erst anstelle DLSS Balanced K also ab Ausgewogen verwenden,
da Balanced K von der Schärfe her, Perfomance M quasi gleich kommt.

Und was meinst du für jemanden mit einer 2070 Super, der an einem 4k Display spielt (ja gibt's wirklich;)) standardmäßig auf Preset L und Ultra Performance?

Nope kein L sondern M da schneller. Aber er kann natürlich L versuchen.

00-Schneider
2026-01-07, 10:11:02
Nope kein L sondern M da schneller. Aber er kann natürlich L versuchen.


Kosten M und L nicht zu viel Leistung unter RTX2000/3000?

Cubitus
2026-01-07, 10:18:12
Kosten M und L nicht zu viel Leistung unter RTX2000/3000?

Ach er hat eine 2070, ich hab 4070 Super gelesen, oh mann :freak:
Punkt für dich, ja M und L sind dann nix für diese Karte.

Hab es vorhin ja auch schon selbst gepostet:

Wir haben aus der Community einige Fragen zu DLSS 4.5 Super Resolution erhalten und möchten dazu ein paar Punkte klarstellen.
DLSS 4.5 Super Resolution verwendet ein Transformer-Modell der zweiten Generation, das die Lichtgenauigkeit verbessert, Ghosting reduziert und die zeitliche Stabilität erhöht. Diese verbesserte Bildqualität wird durch erweitertes Training, algorithmische Verbesserungen und fünffache rohe Rechenleistung erreicht.
DLSS 4.5 Super Resolution nutzt FP8-Präzision, die auf RTX-40- und RTX-50-Serien beschleunigt wird, um die Performance-Auswirkungen des komplexeren Modells zu minimieren. Da RTX-20- und RTX-30-Serien FP8 nicht unterstützen, kommt es bei diesen Karten zu einem größeren Performance-Einbruch im Vergleich zu neuerer Hardware. Nutzer dieser Karten bevorzugen daher möglicherweise weiterhin das bestehende Model K (DLSS 4.0)-Preset, um höhere FPS zu erzielen.
DLSS 4.5 Super Resolution ergänzt zwei neue Presets:
Model M: Optimiert und empfohlen für den DLSS-Super-Resolution-Performance-Modus
Model L: Optimiert und empfohlen für 4K DLSS Super Resolution im Ultra-Performance-Modus
Obwohl Model M und Model L auch in den Modi Quality, Balanced sowie im DLAA-Modus unterstützt werden, profitieren Nutzer am meisten vom besten Qualitäts-/Performance-Verhältnis in den Modi Performance und Ultra Performance.
Zusätzlich gilt: Ray Reconstruction wurde nicht auf die Transformer-Architektur der zweiten Generation aktualisiert – die Verbesserungen sind ausschließlich bei Super Resolution sichtbar.
Um zu überprüfen, ob das gewünschte Modell aktiv ist, aktivieren Sie die Statistikansicht im NVIDIA-App-Overlay über:
Alt + Z → Statistik → Statistikansicht → DLSS

Relex
2026-01-07, 10:24:21
Quality K ist von der Bildschärfe immer besser als Performance M.
M an sich geht ab und zu anders mit Details um, wie härtere Schatten oder Umgang mit Transparenz und es kann bei manchen Spielen FG Artefakte verhindern.

Ich würde Performance M erst anstelle DLSS Balanced K also ab Ausgewogen verwenden,
da Balanced K von der Schärfe her, Perfomance M quasi gleich kommt.


Finde ich schwer vergleichbar. Quality K leidet im Vergleich auch unter Smearing und Ghosting und allgemein diesen leicht "nebligen" look wenn das Model probleme hat, was mit M behoben wird und sich dann eben bis runter auf den Performance mode auswirkt.

Also ich finds echt seltsam wenn man sagen würde, "mit performance oder Balanced nutzt du M, mit Quality K".

Ähm nein, es sieht doch deutlich anders aus. Wenn ich Quality mit K nutze, dann verliere ich einige Vorteile die M mit Balanced noch hatte...

Und wofür sollte ich überhaupt Quality K nutzen, wenn es "overall" dann nur die Qualität und Performance von Balanced M erreicht, aber M einige grundlegende Probleme fixed?

Cubitus
2026-01-07, 10:41:49
Finde ich schwer vergleichbar. Quality K leidet im Vergleich auch unter Smearing und Ghosting und allgemein diesen leicht "nebligen" look wenn das Model probleme hat, was mit M behoben wird und sich dann eben bis runter auf den Performance mode auswirkt.

Also ich finds echt seltsam wenn man sagen würde, "mit performance oder Balanced nutzt du M, mit Quality K".

Ähm nein, es sieht doch deutlich anders aus. Wenn ich Quality mit K nutze, dann verliere ich einige Vorteile die M mit Balanced noch hatte...

Und wofür sollte ich überhaupt Quality K nutzen, wenn es "overall" dann nur die Qualität und Performance von Balanced M erreicht, aber M einige grundlegende Probleme fixed?

Die ursprüngliche Frage war, ob man eher den Performance-Modus mit Model M bei 50 % Skalierung oder den Quality-Modus mit Model K bei 68 % Skalierung bevorzugen sollte. Meiner Ansicht nach wirkt Quality mit Model K insgesamt weiterhin schärfer.

Zwar lässt sich Model M auch im Quality-Modus einsetzen, allerdings empfinde ich den zusätzlichen Performance-Impact dabei als zu hoch. Für mich ergibt Model M vor allem dann Sinn, wenn man ohnehin auf den Balanced- oder Performance-Modus wechseln würde. In diesem Fall macht es in Bezug auf die Gesamtbildqualität kaum noch einen Unterschied, während die Vorteile von Model M deutlich stärker zum Tragen kommen.

Das ist jedoch meine persönliche Einschätzung. Letztlich lässt sich das pro Spiel individuell entscheiden: Viele Titel laufen weiterhin sehr gut mit Model K, während andere stärker von den Eigenschaften von Model M profitieren.

Wenn einen Ghosting oder Smearing besonders stören, ist Model M durchaus eine valide Option. Dennoch würde ich aktuell nicht pauschal sagen, dass Performance mit Model M Quality mit Model K ersetzen kann.
Meiner Meinung nach fehlt hier noch ein zusätzliches bzw optmierteres Modell für die höheren Qualitätsstufen, möglicherweise liefert NVIDIA hier künftig noch nach.

NVIDIA scheint das ähnlich zu sehen sonst würden Sie M auch explizit mitunter für Qualität empfehlen.

SamLombardo
2026-01-07, 10:54:51
Und wofür sollte ich überhaupt Quality K nutzen, wenn es "overall" dann nur die Qualität und Performance von Balanced M erreicht, aber M einige grundlegende Probleme fixed?
Tut es das? Also jetzt mal nicht den Performance sondern den Balanced vs Quality K. Kann man das so ungefähr sagen?

Und @ Cubitus und 00-Schneider, danke für eure Antworten. So langsam gibt dieses ganze Durcheinander ein Bild:). Bei der 2070s @4k spielt der Betreffende derzeit meist in DLSSP. Ich hatte erst gedacht dass dann vielleicht mit dem neuen Model auf Ultra Performance zurückgehen kann und mit Model L vielleicht sogar dann noch eine bessere Qualität bei höherern fps hat, aber wenn ihr sagt dass das technisch schon deutlich schlechter läuft, rate ich ihm mal lieber, die Finger davon zu lassen. Also danke noch mal!

Lurtz
2026-01-07, 11:27:24
Wenn einen Ghosting oder Smearing besonders stören, ist Model M durchaus eine valide Option. Dennoch würde ich aktuell nicht pauschal sagen, dass Performance mit Model M Quality mit Model K ersetzen kann.
Meiner Meinung nach fehlt hier noch ein zusätzliches bzw optmierteres Modell für die höheren Qualitätsstufen, möglicherweise liefert NVIDIA hier künftig noch nach.
Da gehst du halt nur auf die Schärfe und blendest die Fuckups von K auch abseits von Ghosting und Smearing aus. Bei Hellblade 2 zB würde ich M-Performance K-Quality jederzeit vorziehen.

Aber ja, es wird nicht weniger komplex...

gnomi
2026-01-07, 11:28:17
Wegen dieser ellenlangen Diskussionen, tut nvidia gut daran, keine Modelle für bestimmte RTX Karten zu sperren.
Einfach gute Standard Einstellungen. Rest lassen zum Austoben.
Die langsameren GPU's verschwinden dann über die Zeit und Alle sind zufrieden. :wink:
Mit meinen alten Karten (2080/3080 TI) könnte ich jetzt alles dreifach testen. Aber ich finde es mit der aktuellen GPU auf UE5 beschränkt im Grunde genommen völlig ausreichend, denn das deckt dann den gehäuften Anwendungsfall in nächster Zeit ab.
Bei den grafisch aussichtsreichen Games im PC Forum waren schon etwa 10 Games mit der Engine...
Für die alten Karten ist DLSS4 bereits aufwendiger als 3.
Also mit der 2080 ist man quasi wie so ein Konsolen Entwickler mit mehr Upscaling Möglichkeiten unterwegs.
Vielleicht hat nvidia auch wegen der Switch 2 Entwicklung das Potential gesehen, was man da noch so rauskitzeln kann aus vielen Spielen.
Bindet auf jeden Fall die Kunden.
Bin sehr gespannt, ob da weitere Videos zu kommen.
Es ist auf jeden Fall interessant, weil die Hardware langlebiger und teurer geworden ist.

robbitop
2026-01-07, 11:41:26
Es ist auch alles eine Frage der Ansprüche. DLSS Model E oder K wird ja durch M nicht schlechter und wir meckern hier auf einem hohen Niveau.
Mit moderaten Details, etwas Auflösung runter laufen moderne Spiele auch auf Turing (da aber dann eher die 2080/ti) und Ampere. Ärgerlich ist, dass es dort gar kein FG gibt. Aber DLSS Model E und K sind doch da ok. Gerade wenn man ohnehin nur ein 1440p oder 1080 display hat.
Zur Not kann man zusätzlich noch mit LSFG 3.1 testen (was nicht ideal ist) oder per Optiscaler dann FSR-FG (was aber auf Nvidia Karten kein tolles Framepacing bieten soll - also ggf lieber doch nicht) oder OptiFG (ggf ist das Framepacing hier besser?) oder XeSS FG (dito?).

FP8 zu nutzen ist IMO eine gute Entscheidung - sofern man die HW dafür hat, die ihren Durchsatz ggü FP16 verdoppelt kann man ja schon auch mehr Compute vom NN verlangen weil der Durchsatz ja höher ist.
Die Frage ist: wäre das auch mit INT8 gegangen? Denn dort wäre IIRC auch der Durchsatz von Turing und Ampere mitgestiegen. Aber ggf bringt das eben zu viele Nachteile womit man dann die Innovation für neue HW nicht belasten wollte.

Ich empfinde es jedenfalls positiv, dass Nvidia alle Modelle auf allen GPUs zulässt. Aber FG hätte man nicht künstlich beschränken müssen. AMD hingegen bringt FSR4 nichtmal für RDNA3 welches noch aktiv neu verkauft wird. Sowohl dGPUs als auch APUs.
Das ist sicherlich einer der Nachteile mit Matrixcores erst so spät angefangen zu haben - aber zumindest die FP8 Emulationsvariante hätte man ja für RDNA3 liefern können. Die INT8 Variante kann ich verstehen - das war ein älteres leicht schlechteres Modell und da will man sicher auch keinen Ballast mitschleppen/mitsupporten. Aber mit FP8 Emulation hätte man zumindest FSR4 im aktuellen Modell unverändert (nur eben mit Performance penalty wie jetzt auch bei Nvidia mit den neuen Transformer Modellen) mit anbieten können.

Relex
2026-01-07, 11:51:54
Da gehst du halt nur auf die Schärfe und blendest die Fuckups von K auch abseits von Ghosting und Smearing aus. Bei Hellblade 2 zB würde ich M-Performance K-Quality jederzeit vorziehen.

Aber ja, es wird nicht weniger komplex...


Hab mir gerade Ratchet & Clank mit M angeschaut. Es sieht halt selbst mit Performance besser aus als Preset K mit Quality.

Ja, Preset K sieht mit Quality "feiner" und etwas hochauflösender aus, aber das Bild wirkt halt auch sehr viel gedimmter und obwohl Preset K unglaublich hohe Bewegtbildschärfe hat und vor allem die Kanten in bewegung rasiermesserscharf hält, so gehen in bewegung doch irgendwie Details und definition von Materialien und Lichteffekten verloren. Das Bild wirkt dadurch etwas blasser. Da glänzt eben Preset K. Das Bild wirkt viel klarer definiert.

Ich bin mir selbst noch nicht sicher, ob man das "überschärft" nennen kann. In manchen Spielen definitiv, aber ich denke wir sind durch den ganzen TAA Matsch über die letzten Jahre auch einfach daran gewohnt. Grundsätzlich hasse ich überschärfung wie die Pest, aber Preset M beginnt mir trotzdem zu gefallen, weil es halt trotzdem keine überschärfungsartefakte hat. Wahrscheinlich ist es vom allgemeinen Look tatsächlich deutlich näher an einem "Ground Truth", als alles was wir bisher hatten. Nur wenn die Entwickler selbst schon den TAA Blur mit Kontrastverstärkern in der Postprocessing Pipeline und Scharfzeichnern entgegen wirken, dann ist Preset M on Top natürlich suboptimal, da das alles entfallen kann.


Ratchet & Clank sieht mit Ultra Performance übrigens furchtbar aus. Die AO effekte gehen auch mit RT komplett kaputt.
Was mir aber aufgefallen ist: Performance Mode sieht mit Preset L nicht besser aus. Im Gegenteil, in der Intro Sequenz gibts am Fell mehr Rauschen zu sehen, als mit Preset M.
Also gut möglich, dass L wirkliuch nur für Ultra Performance getuned ist und für alles darüber nicht optimal ist. Wobei ich schon gern wüsste was genau an dem Preset anders ist. Ich sehe dass es bei Ultra Performance Modus irgendwie besser aussieht, das Bild wirkt etwas glatter, Artefakte die beim UP Modus vermehrt aufkommen, wie z.B. rauschen auf Texturen wird mit Preset L meistens komplett eliminiert, weshalb ich dachte, das würde auch im Performance mode helfen. Aber genau das Gegenteil ist der Fall. Zumindest in dem einen Fall. Sonst sind mir keine Unterschiede aufgefallen. Ich weiß eben nicht, worauf man sonst noch achten müsste.

robbitop
2026-01-07, 12:20:52
Weisst du sicher aber es ist ja immer gut wenn es für alle hier steht: DLSS-SR ist mit RT leider nicht so toll wirksam mangels erhöhter samples für die Strahlen (insbesondere Reflexionen sehen dann schnell furchtbar aus). Upsampling und RT ist IMO erst mit DLSS-RR eine gute Option. Und bis dato gibt es dafür noch von keinem anderen IHV ein Äquivalent (auch AMDs RR nicht weil das nur ein denoiser ist aber kein upsampler für RT Strahlen). :)

Gast
2026-01-07, 12:41:07
FP8 zu nutzen ist IMO eine gute Entscheidung - sofern man die HW dafür hat, die ihren Durchsatz ggü FP16 verdoppelt kann man ja schon auch mehr Compute vom NN verlangen weil der Durchsatz ja höher ist.
Die Frage ist: wäre das auch mit INT8 gegangen? Denn dort wäre IIRC auch der Durchsatz von Turing und Ampere mitgestiegen. Aber ggf bringt das eben zu viele Nachteile womit man dann die Innovation für neue HW nicht belasten wollte.



Zumindest das geleakte INT8 FSR4 hatte schon deutliche optische Nachteile.

dildo4u
2026-01-07, 13:02:51
Diese halbfertigen Lösungen saugen ich will Avatar und Star Wars zocken beide sind unscharf mit RR was das Modell M lösen würde.

Also kann man sich jetzt aussuchen was ein mehr Stört RT Artefakte oder ein Unscharfes Bild.

basix
2026-01-07, 13:11:48
Hab mir gerade Ratchet & Clank mit M angeschaut. Es sieht halt selbst mit Performance besser aus als Preset K mit Quality.

Ja, Preset K sieht mit Quality "feiner" und etwas hochauflösender aus, aber das Bild wirkt halt auch sehr viel gedimmter und obwohl Preset K unglaublich hohe Bewegtbildschärfe hat und vor allem die Kanten in bewegung rasiermesserscharf hält, so gehen in bewegung doch irgendwie Details und definition von Materialien und Lichteffekten verloren. Das Bild wirkt dadurch etwas blasser. Da glänzt eben Preset K. Das Bild wirkt viel klarer definiert.

Das mit dem Licht ist wirklich sehr interessant. Nvidia beschreibt es so:
https://www.nvidia.com/en-us/geforce/news/dlss-4-5-dynamic-multi-frame-gen-6x-2nd-gen-transformer-super-res/
DLSS 4.5 achieves a breakthrough in lighting effects by solving a traditional challenge faced by Temporal Anti-Aliasing (TAA), and earlier super resolution models. Previous techniques operated in logarithmic space to dampen flickering, which unfortunately resulted in muted lighting, clipped details, and crushed shadows in high-contrast scenes. In comparison, DLSS 4.5 Super Resolution trains and infers directly in linear space, the game engine’s native ground truth. Because the new AI model is powerful enough to manage instability without compressing the data, it accumulates lighting with physical accuracy, allowing glowing neon signs and bright reflections to retain their full color range and detail.

Cubitus
2026-01-07, 13:39:40
Ich möchte gerne verdeutlichen, was ich meine.
Ich behaupte ja nicht, dass M grundsätzlich schlecht ist, im Gegenteil, ich finde es sogar richtig gut.
Ab Balanced oder Performance würde ich es immer aktvieren, sofern man eine 40er- oder 50er-GPU besitzt.

Ob ich Performance mit Model M gegenüber Quality mit Model K bevorzugen würde, würde ich eher verneinen, zumindest dann, wenn es nicht wirklich notwendig ist.

Egal ob aus Performance-Gründen oder wegen anderer Verbesserungen wie weniger Smearing oder Artefakten:
In diesem Fall sollte man genauer abwägen. Es ist hier definitiv kein No-Brainer, sondern eine Entscheidung, die vom jeweiligen Spiel und den persönlichen Prioritäten abhängt.

Beispiel: Dying Light 3.

Volles Bild
https://i.postimg.cc/3JLq4zB4/Screenshot-2026-01-07-133047.png (https://postimg.cc/7f29jsjw)

hier sieht man deutlich den Vorteil von Qualität-K
https://i.postimg.cc/dtWfkgBm/Screenshot-2026-01-07-133114.png (https://postimg.cc/9r7bs8sr)

Auch hier sieht man feinere Details zugunsten von Qualität K besonders am Giebel und Schornstein, die Farben sind bei M allerdings etwas kräftiger das stimmt.
Aber so richtig ausgewaschen wirken diese bei K nun auch nicht.
https://i.postimg.cc/3JLq4zBX/Screenshot-2026-01-07-133232.png (https://postimg.cc/rKrj7n7s)

Wie gesagt, ich hoffe auf ein extra optimiertes und angepasstes Modell für die höheren Qualitätsstufen.

SamLombardo
2026-01-07, 14:03:54
Ich möchte gerne verdeutlichen, was ich meine.
Ich behaupte ja nicht, dass M grundsätzlich schlecht ist, im Gegenteil, ich finde es sogar richtig gut.
Ab Balanced oder Performance würde ich es immer aktvieren, sofern man eine 40er- oder 50er-GPU besitzt.

Beispiel: Dying Light 3.

Volles Bild
https://i.postimg.cc/3JLq4zB4/Screenshot-2026-01-07-133047.png (https://postimg.cc/7f29jsjw)

hier sieht man deutlich den Vorteil von Qualität-K
https://i.postimg.cc/dtWfkgBm/Screenshot-2026-01-07-133114.png (https://postimg.cc/9r7bs8sr)

Auch hier sieht man feinere Details zugunsten von Qualität K besonders am Giebel und Schornstein, die Farben sind bei M allerdings etwas kräftiger das stimmt.
Aber so richtig ausgewaschen wirken diese bei K nun auch nicht.
https://i.postimg.cc/3JLq4zBX/Screenshot-2026-01-07-133232.png (https://postimg.cc/rKrj7n7s)

Wie gesagt, ich hoffe auf ein extra optimiertes und angepasstes Profil für die höheren Qualitätsstufen.

Sehr interessant, das ist jetzt Qualität K versus Performance M richtig?

Wenn man die Leistung übrig hat, also einem der FPS Drop nichts ausmacht, wäre Qualität M trotzdem Qualität K überlegen? Müsste ja dann all die Vorteile bei Licht und Partikeln trotzdem bringen. Oder?

Cubitus
2026-01-07, 14:18:15
Sehr interessant, das ist jetzt Qualität K versus Performance M richtig?

Wenn man die Leistung übrig hat, also einem der FPS Drop nichts ausmacht, wäre Qualität M trotzdem Qualität K überlegen? Müsste ja dann all die Vorteile bei Licht und Partikeln trotzdem bringen. Oder?

Genau das ist der Vergleich. :)

M ist K an sich schon überlegen, weil damit einfach vieles gefixt ist. Mit einer 5090 schluckt man das performance-mäßig schon ganz gut, vor allem wenn noch M (FG) aktiviert ist. Und jetzt im Winter sind die paar Watt mehr ja auch gleich extra Heizung :freak:

Mit Quality + M hast du natürlich auch alle Vorteile von M, die Relex und Lurtz aufgezählt haben , die sind definitiv nicht von der Hand zu weisen.
Allerdings leiden dabei die Min-FPS. Ich hab gestern z. B. mein 3-GHz-Profil aktiviert, als ich mit Q-M unterwegs war, und bin dann schön mit 2.900–3.050 MHz bei über 550+ Watt rumgegurkt.
--> muss natürlich auch nicht sein, aber wer hat der kann :redface:
Da hab ich schon ein bisschen Schiss um die Karte, vor allem weil das WireView von Roman noch nicht da ist.

Effizient ist das Ganze halt nicht wirklich , aber wie gesagt: machen kann man’s schon vorallem mit der 5090 :D

robbitop
2026-01-07, 14:27:29
Jo die 5090 schluckt das gut, weil sie meistens kaum im GPU Limit ist ^^
Entsprechend sind teurere Modelle "billig" weil ohnehin noch nicht ganz ausgelastet ^^

SamLombardo
2026-01-07, 14:40:25
Alles klar danke euch. Das mit der Angst um die 5090 bei ständiger 550+ Watt Auslastung kann ich absolut verstehen. Vielleicht wird es doch auf ein DLSS Balanced mit Model M hinaus laufen. Muss echt bald mal ein bisschen Zeit freischaufeln um das alles mal selber ausgiebig zu testen :wink:.

aceCrasher
2026-01-07, 14:48:58
In Forza Motorsport ist Model M viel besser als K oder die alten CNN Modelle. Das Spiel bleibt mein Härtetest für DLSS, ich hab zum Teil sogar das Gefühl dass dort irgendwas nicht richtig implementiert wurde.

Mit Preset K oder E flimmert die Zäune in dem Spiel wie wahnsinnig, selbst in 4K mit Quality upsampling. Mit M sind sie endlich einigermaßen stabil und die Linien fast alle durchgezogen. Der Unterschied zwischen M und K ist hier tatsächlich viel größer als von E auf K.

Preset M balanced sieht hier auch wesentlich besser aus als Preset K quality.

Insgesamt bin ich ziemlich überzeugt, obwohl es natürlich absurd ist wenn Upscaler immer teurer werden, da der Performancegewinn ja der Grund ist wieso das ganze eingeführt wurde.

Zum ersten Mal erwische ich mich also dabei dass "bessere Tensorcore Leistung" bei mir ganz oben auf der Wunschliste für meine nächste Grafikkarte steht, sodass ich die teureren Modelle mit weniger Overhead nutzen kann, vorallem in high fps Szenarien.

robbitop
2026-01-07, 14:49:12
Hoffentlich überdenkt Nvidia ihre Stecker nochmal. Es kann ja nicht sein, dass man 3rd Party Equipment braucht, um sicherzustellen, dass der Stecker richtig steckt und auch alle Kontakte immer korrekt gesteckt sind (und sich das nicht durch relativ normale Einflüsse ändert). Ein robuster Stecker der funktioniert sollte doch bei einer so teuren Grafikkarte das Minimum sein.

Cubitus
2026-01-07, 14:50:10
Alles klar danke euch. Das mit der Angst um die 5090 bei ständiger 550+ Watt Auslastung kann ich absolut verstehen. Vielleicht wird es doch auf ein DLSS Balanced mit Model M hinaus laufen. Muss echt bald mal ein bisschen Zeit freischaufeln um das alles mal selber ausgiebig zu testen :wink:.

Läuft auch mit UV-Profil, allerdings zieht Q + M halt trotzdem mehr Leistung. Aber wie gesagt: Man muss die Karte nicht unbedingt so dermaßen hochprügeln. Eine 5090 ist dick genug, und wenn du MFG x3 oder so einsetzt, fällt das leistungsmäßig auch nicht extrem ins Gewicht. Ich hab halt so ein Profil, das ich gerne für Heavy Load nutze ,sei es zum Shader-Kompilieren beim Start oder um einfach noch das letzte bisschen Leistung rauszupressen :)

Hoffentlich überdenkt Nvidia ihre Stecker nochmal. Es kann ja nicht sein, dass man 3rd Party Equipment braucht, um sicherzustellen, dass der Stecker richtig steckt und auch alle Kontakte immer korrekt gesteckt sind (und sich das nicht durch relativ normale Einflüsse ändert). Ein robuster Stecker der funktioniert sollte doch bei einer so teuren Grafikkarte das Minimum sein.

Jup, der Stecker ist schon was ganz Besonderes xD Aber halt keine Rocket Science wie DLSS. Irgendwie herrscht da schon eine gewisse Diskrepanz

Relex
2026-01-07, 15:05:27
Ich möchte gerne verdeutlichen, was ich meine.
Ich behaupte ja nicht, dass M grundsätzlich schlecht ist, im Gegenteil, ich finde es sogar richtig gut.
Ab Balanced oder Performance würde ich es immer aktvieren, sofern man eine 40er- oder 50er-GPU besitzt.

Ob ich Performance mit Model M gegenüber Quality mit Model K bevorzugen würde, würde ich eher verneinen, zumindest dann, wenn es nicht wirklich notwendig ist.

Egal ob aus Performance-Gründen oder wegen anderer Verbesserungen wie weniger Smearing oder Artefakten:
In diesem Fall sollte man genauer abwägen. Es ist hier definitiv kein No-Brainer, sondern eine Entscheidung, die vom jeweiligen Spiel und den persönlichen Prioritäten abhängt.

Beispiel: Dying Light 3.

Volles Bild
https://i.postimg.cc/3JLq4zB4/Screenshot-2026-01-07-133047.png (https://postimg.cc/7f29jsjw)

hier sieht man deutlich den Vorteil von Qualität-K
https://i.postimg.cc/dtWfkgBm/Screenshot-2026-01-07-133114.png (https://postimg.cc/9r7bs8sr)

Auch hier sieht man feinere Details zugunsten von Qualität K besonders am Giebel und Schornstein, die Farben sind bei M allerdings etwas kräftiger das stimmt.
Aber so richtig ausgewaschen wirken diese bei K nun auch nicht.
https://i.postimg.cc/3JLq4zBX/Screenshot-2026-01-07-133232.png (https://postimg.cc/rKrj7n7s)

Wie gesagt, ich hoffe auf ein extra optimiertes und angepasstes Profil für die höheren Qualitätsstufen.



Ich bin grundsätzlich ganz bei dir. Aber schau, ich zeigt dir, was ich meine:

Ratchet & Clank. Von links nach rechts bzw. von oben nach unten:
DLSS Performance Preset K
DLSS Quality Preset K
DLSS Performance Preset M
DLSS Quality Preset M

100% Zoom
https://i.ibb.co/d8vyfkv/Vergleich-100.png (https://ibb.co/LVyf09y)

300% Zoom
https://i.ibb.co/1GcT8JWB/Vergleich-300.png (https://ibb.co/qY6pkFQh)



Hier nochmal als Imgsli https://imgsli.com/NDM5OTA1/1/2

Hier hast du eine Menschenmenge die sich bewegt und da sieht man recht deutlich wie Preset K selbst im Quality Modus einfach blass und matschig wird und viel verschmiert. Es wirkt fast so wie Videokomprimierung. Gut, das ist jetzt ne Kritik die ich früher eher für FSR geäußert hätte, aber auf nem deutlich höheren Niveau passt es halt auch hier, obwohl das auch schon eine große Verbesserung zum CNN Model war.
Schaut man sich Model M an, völlig egal ob Performance oder Quality, dann sieht man dass die Zuschauer sehr viel sauberer dargestellt werden als mit K.

Und diese Charakteristik sieht man eben überall, sobald das Bild mal in Bewegung kommt. Ich gebe dir zwar damit Recht, dass man je nach Spiel schauen muss, was besser funktioniert. Aber da würde ich dann eigentlich nur noch auf Probleme mit Ingame Scharfzeichnern oder generell Totalausfälle prüfen, nicht aber welches Model überhaupt sinnvoll ist. Denn da finde ich M eigentlich immer sinnvoller.

Wie gesagt, ist am Ende auch nur meine persönliche Meinung, aber ich wollte nur nochmal herausarbeiten wo genau ich die großen Vorteile beim Model M sehe und dass es bei Model K mit höherer Input Auflösung lange nicht getan ist, um die Probleme los zu werden...

Und ja, Model K hat im Quality Modus auch Vorteile an anderen Stellen, keine Frage. Mir gehts nur darum, alle möglichen Vor und Nachteile herauszuarbeiten, damit man dann eine sinnvolle Entscheidung treffen kann. Und bei deinem Vergleich war das was ich jetzt gezeigt habe eben nicht wirklich sichtbar.

aufkrawall
2026-01-07, 15:09:20
Ratchet & Clank hat btw. erzwungenes Sharpen immer aktiv. Wenn man auf Kabel reinzoomt, sieht man (auch ohne DLSS 4.5) schon Ringing.

Gast
2026-01-07, 15:09:55
Hoffentlich überdenkt Nvidia ihre Stecker nochmal. Es kann ja nicht sein, dass man 3rd Party Equipment braucht, um sicherzustellen, dass der Stecker richtig steckt und auch alle Kontakte immer korrekt gesteckt sind (und sich das nicht durch relativ normale Einflüsse ändert). Ein robuster Stecker der funktioniert sollte doch bei einer so teuren Grafikkarte das Minimum sein.

Achwas..Sturm im Wasserglas, mehr ist das Ganze auch nicht... aber wohl gutes Geschäftsmodell für die Paniktreiber. :p

robbitop
2026-01-07, 16:24:39
Es gab iirc einige Untersuchungen die gezeigt haben, dass der Kontakt bei etwas mechanischer Spannung auf dem Kabel auf einigen der Kontakten verloren gehen kann. Und es sind ja auch schon einige Karten deswegen abgeraucht. Das gab es vorher nicht. Es ist zumindest unnötig, dass die Fehlerwahrscheinlichkeit da deutlich zu steigen scheint.

aufkrawall
2026-01-07, 16:38:41
Das Menü von Kena:

K P:
https://s1.directupload.eu/images/260107/temp/q734h6fg.jpg (https://www.directupload.eu/file/d/9157/q734h6fg_jpg.htm)

L P:
https://s1.directupload.eu/images/260107/temp/7cb4drdi.jpg (https://www.directupload.eu/file/d/9157/7cb4drdi_jpg.htm)

M P:
https://s1.directupload.eu/images/260107/temp/wrpx3yhm.jpg (https://www.directupload.eu/file/d/9157/wrpx3yhm_jpg.htm)

nativ:
https://s1.directupload.eu/images/260107/temp/g8kkyihb.jpg (https://www.directupload.eu/file/d/9157/g8kkyihb_jpg.htm)


Kurioserweise verschwindet das DoF mit DLSS. Mit K ist der Bloom vs. nativ etwas zu dunkel, mit L/M etwas zu hell (wobei TAA auch "falsch" sein kann). Wobei es mit L/M auch etwas großflächig aufblitzt. Ggf. ist der punktuelle "Bloom-Explosionsbug" jetzt dagegen ausgetauscht, mal ein Auge drauf haben.

Gut, dass L teurer ist als M. Wär bitter, wäre das bessere der neuen Presets noch teurer als ohnehin schon.

dildo4u
2026-01-07, 16:39:13
Krass wie teuer das auf der 5090 ist.


3j2J3qrux3A

Lurtz
2026-01-07, 16:56:51
Kann man echt nicht verallgemeinern wie K vs M performet.

In RDR2 löst es Vegetation nochmals feiner auf, dafür flimmert sie auch deutlich, während K fast komplett ruhig ist. Da würde ich K weiterhin vorziehen.

Jedi Survivor flimmern beide.

Witcher 3 ähnlich wie RDR2.

Relex
2026-01-07, 17:02:39
Ich hab gerade Hellblade 2 getestet.

Preset M fixed erwartungsgemäß das matschige Gras, aber ich hab hier mal spaßeshalber DLAA ausprobiert, womit ich mit meiner 4080 trotz FG bei ca 60 FPS lande, also nur noch 30 FPS als basis aber scheiße, sieht das mit Controller jetzt smooth aus.

Ich hab natürlich in dem Spiel aus ästehtischen gründen Motion Blur an, aber trotzdem, mit 60 FPS hätte ich mit FG vorher niemals das Spiel ernsthaft spielen wollen. Dafür war FG einfach nicht gemacht, wobei ich es ehrlicherweise eher darauf geschoben habe, dass ich einfach höhere Framerates gewöhnt bin und da war ja FG auch seit DLSS4 schon verdammt smooth. Aber dass das jetzt bei 60 FPS dermaßen gut funktioniert ist wirklich neu. Das sieht aus wie perfekte Vsynced 60 FPS, ohne microruckler, ohne irgend ein stotter, ohne dass ich bilder mehfrach sehe. ich sehe nur noch super weichen motion und persistence blur und kann die Frames nicht mehr unterscheiden.

Wenn sich der Nutzen von DLAA nicht so stark in Grenzen halten würde, würde ich das Game völlig problemlos mit den 60 FPS durchspielen.


Wie gesagt, gilt nur für das Game. Das darf Blur und CA haben. :tongue: Kein anderes Game würde ich so spielen wollen. ABER es hat mir gezeigt, wie gut FG mittlerweile geworden ist und das kann man auch in anderen Spielen dann definitiv als nettogewinn in Sachen wahrgenommener Smoothness verbuchen, auch wenn sich am FPS zähler nichts ändert oder er mit Preset M nominell sogar runter geht.

aufkrawall
2026-01-07, 17:05:46
Würde auch K weiterhin auf jeden Fall L vorziehen. Die Unschärfe/Smearing/Ghosting mit L in Bewegung fällt auch in Kena ständig nervig auf.
K hat aber definitiv teilweise bessere temporale Stabilität bei unverdeckten Bereichen als M. Dafür filtert M hässliche Artefakte von Rendering-Effekten einfach unendlich viel besser weg. Bei Kena fällt das sowohl bei Schatten als auch SSR deutlich auf. Sobald RT und Nanite ins Spiel kommen, ist halt komplett vorbei für K.

QUERSCHLÄGER
2026-01-07, 17:39:40
Na los, werf doch mal einer ne normale Draufsicht von 117 mit M in den Faden, kann das leider noch nicht selber ausprobieren:redface:

Relex
2026-01-07, 18:03:46
Bei Anno hält sich der Unterschied in Grenzen. Da sieht aber selbst FSR3 ganz gut aus.

https://imgsli.com/NDQwMDA0

https://i.postimg.cc/5jFTzYzC/K.png (https://postimg.cc/5jFTzYzC) https://i.postimg.cc/HVwNSqBT/M.png (https://postimg.cc/HVwNSqBT)

robbitop
2026-01-07, 18:11:00
Gibt wenit disocclusion und im Vergleich zu manch anderen Spieln ist der Content reletic low poly / low detail. Ist für solche Verfahren wahrscheinlich relativ dankbar.

crux2005
2026-01-07, 18:35:09
Es ist auch alles eine Frage der Ansprüche. DLSS Model E oder K wird ja durch M nicht schlechter und wir meckern hier auf einem hohen Niveau.
Mit moderaten Details, etwas Auflösung runter laufen moderne Spiele auch auf Turing (da aber dann eher die 2080/ti) und Ampere. Ärgerlich ist, dass es dort gar kein FG gibt. Aber DLSS Model E und K sind doch da ok. Gerade wenn man ohnehin nur ein 1440p oder 1080 display hat.
Zur Not kann man zusätzlich noch mit LSFG 3.1 testen (was nicht ideal ist) oder per Optiscaler dann FSR-FG (was aber auf Nvidia Karten kein tolles Framepacing bieten soll - also ggf lieber doch nicht) oder OptiFG (ggf ist das Framepacing hier besser?) oder XeSS FG (dito?).

Auf NV dann zur Not XeSS FG was deutlich bessere Frametimes liefert als FSR FG.

FP8 zu nutzen ist IMO eine gute Entscheidung - sofern man die HW dafür hat, die ihren Durchsatz ggü FP16 verdoppelt kann man ja schon auch mehr Compute vom NN verlangen weil der Durchsatz ja höher ist.
Die Frage ist: wäre das auch mit INT8 gegangen? Denn dort wäre IIRC auch der Durchsatz von Turing und Ampere mitgestiegen. Aber ggf bringt das eben zu viele Nachteile womit man dann die Innovation für neue HW nicht belasten wollte.

Das habe ich mich auch gefragt. Dann hätte aber Turing einen Vorteil. :D

crux2005
2026-01-07, 18:43:30
Ich möchte gerne verdeutlichen, was ich meine.
Ich behaupte ja nicht, dass M grundsätzlich schlecht ist, im Gegenteil, ich finde es sogar richtig gut.
Ab Balanced oder Performance würde ich es immer aktvieren, sofern man eine 40er- oder 50er-GPU besitzt.

Ob ich Performance mit Model M gegenüber Quality mit Model K bevorzugen würde, würde ich eher verneinen, zumindest dann, wenn es nicht wirklich notwendig ist.

Egal ob aus Performance-Gründen oder wegen anderer Verbesserungen wie weniger Smearing oder Artefakten:
In diesem Fall sollte man genauer abwägen. Es ist hier definitiv kein No-Brainer, sondern eine Entscheidung, die vom jeweiligen Spiel und den persönlichen Prioritäten abhängt.

Beispiel: Dying Light 3.

Volles Bild
https://i.postimg.cc/3JLq4zB4/Screenshot-2026-01-07-133047.png (https://postimg.cc/7f29jsjw)

hier sieht man deutlich den Vorteil von Qualität-K
https://i.postimg.cc/dtWfkgBm/Screenshot-2026-01-07-133114.png (https://postimg.cc/9r7bs8sr)

Auch hier sieht man feinere Details zugunsten von Qualität K besonders am Giebel und Schornstein, die Farben sind bei M allerdings etwas kräftiger das stimmt.
Aber so richtig ausgewaschen wirken diese bei K nun auch nicht.
https://i.postimg.cc/3JLq4zBX/Screenshot-2026-01-07-133232.png (https://postimg.cc/rKrj7n7s)

Wie gesagt, ich hoffe auf ein extra optimiertes und angepasstes Modell für die höheren Qualitätsstufen.

IMHO kann man die Qualität von Preset K und Preset M noch schlechter an Bilder fest machen, weil in Bewegung Preset M meistens besser ist (in Spielen die ich getestet habe). Wobei ich auch nicht 4K Perf. sondern 1440p Q probierte. Das sieht man auch daran das eigentlich Preset M mit MFG noch mehr garble Artefakte, meistens bei Vegetation hat die es so mit Preset K nicht gibt oder deutlich weniger sichtbar sind.

aufkrawall
2026-01-07, 18:50:10
Mit den Texturen in Talos 1 garblet DLSS (M)FG immer wie Hulle, völlig egal welches SR/RR.

Relex
2026-01-07, 19:16:45
Warum nutzt du eigentlich immer Talos? Das Spiel hat in der Demo schon extreme Probleme mit sämtlichen Upscalern gemacht.

Ich glaube die haben irgendwas an der Postprocessing Pipeline verhunzt, so dass die Motion Vectors nicht mehr stimmen oder was weiß ich... anders lässt es sich kaum erklären, dass das Bild in dem Game so schnell kaputt geht.

Andere UE5 Games haben doch auch nicht solche Probleme.

QUERSCHLÄGER
2026-01-07, 19:17:01
Bei Anno hält sich der Unterschied in Grenzen. Da sieht aber selbst FSR3 ganz gut aus.

https://imgsli.com/NDQwMDA0

https://i.postimg.cc/5jFTzYzC/K.png (https://postimg.cc/5jFTzYzC) https://i.postimg.cc/HVwNSqBT/M.png (https://postimg.cc/HVwNSqBT)

Danke, da hat sich ja gar nichts getan.

aufkrawall
2026-01-07, 19:19:49
Warum nutzt du eigentlich immer Talos? Das Spiel hat in der Demo schon extreme Probleme mit sämtlichen Upscalern gemacht.

Das ist deine Interpretation. Ich sehe in Talos genau die gleichen Probleme wie in anderen Spielen, nur durch den Content stärker ausgeprägt.
Also absolut das beste Test-Spiel überhaupt.

Relex
2026-01-07, 19:22:38
Und warum sollte ne simple Textur mit FG garblen? Das macht FG nur wenn die Motion Vectors kaputt sind oder bei Disocclusion. Aber nicht, wenn die Textur klar sichtbar ist und sich bewegt. (außer es ist ein ganz fieses high frequency muster, z.B. ein feines schachbrettmuster, dann hängts aber vom Kameraabstand ab)

Aber ich weiß ja nicht was genau du getestet hast.

aufkrawall
2026-01-07, 19:26:54
Und warum sollte ne simple Textur mit FG garblen? Das macht FG nur wenn die Motion Vectors kaputt sind oder bei Disocclusion. Aber nicht, wenn die Textur klar sichtbar ist und sich bewegt.

Wieso sollte eine Textur magisch von FG-Artefakten ausgenommen sein? Ergibt null Sinn. Ich sehe es doch in zig anderen Spielen auch garbeln, nur sind da flache Plateaus mit symmetrischen, klaren Mustern in der Art viel seltener...

Lurtz
2026-01-07, 19:40:25
Soll Dynamic MFG jetzt doch mit allen FG-Faktoren funktionieren und sogar FG deaktivieren können? :confused: Dachte das war für 3x-6x angekündigt.

5) Our final question in the session was to find out whether Dynamic Frame Generation only automatically adjusted the rate of frame generation (between 0x and 6x) to achieve the target framerate specified in DLSS Override, or whether it also adjusted DLSS super resolution presets (upscaling percentage). NVIDIA clarified here, that Dynamic Frame Generation only adjusts the Frame Generation factor, it doesn't touch the super resolution factor.
https://www.techpowerup.com/344926/nvidia-answers-techpowerup-questions-on-dlss-4-5-6x-multi-framegen-and-240-hz-mode

Kann ich mir nicht vorstellen, beim An/Abschalten gibts immer einen kurzen Ruckler (bisher).

Oder ist das nur eine komische Suggestivfrage von Techpowerup.

robbitop
2026-01-07, 19:48:24
Im LTT Video war es IIRC zu sehen wie auch zwischen 1x und 2x geschaltet wurde. Also 1-6x wohl.

Relex
2026-01-07, 19:57:52
Was soll denn 0x sein? Gar keine FPS? 1x ist ja schon FG off. :rolleyes:

Meine Ada kann dann auch schon MFG mit 0x, 1x und 2x FG. ;D
Und vor allem ist ja 1x bereits unendlich viel mehr als 0x. Also brauch ich gar kein 2x.



Übrigens
das hier sollte sich am besten jeder schonmal verinnerlichen
[SystemSettings]
r.Tonemapper.Sharpen=0

Spätestens mit Preset M wird es bei vielen UE5 und auch UE4 games zur Pflicht den Scharfzeichner abzuschalten.

Einfach unter C:\Users\[Name]Appdata\Local zur Engine.ini des jeweiligen Spiels navigieren und am Ende einfügen.

Ich wollt's nur mal erwähnt haben, weil ich davon ausgehe, dass es die meisten nicht tun und sich dann trotzdem darüber beschweren, dass Preset M zu scharf aussieht.

aufkrawall
2026-01-07, 20:18:57
Ich wollt's nur mal erwähnt haben, weil ich davon ausgehe, dass es die meisten nicht tun und sich dann trotzdem darüber beschweren, dass Preset M zu scharf aussieht.
Klappt aber nicht überall, in Stalker gibts afair weiter Ringing an Stromkabeln etc. Wobei das UE Tonemapper Sharpen ohne übertriebene Intensität noch gutartig ist. Tippe, bei Stalker ist das irgendein Custom Schrott-Shader.

SamLombardo
2026-01-07, 20:21:51
Hat jemand zufällig Baldurs Gate 3 installiert und kann mal testen, ob das Spiel mit DLSS 4.5 (Preset M) unter Vulkan auch mit einem Vulkan Error nach dem Logo am Anfang abstürzt? Ist bei mir reproduzierbar der Fall. Mit K geht es problemlos.

Exxtreme
2026-01-07, 20:39:06
Installiere mal die aktuelle Vulkan-Runtime:
https://vulkan.lunarg.com/sdk/home#windows

Lurtz
2026-01-07, 20:46:13
Im LTT Video war es IIRC zu sehen wie auch zwischen 1x und 2x geschaltet wurde. Also 1-6x wohl.
Ah, nicht mitbekommen. Das wäre super.

0x ist natürlich Unsinn.

Hat jemand zufällig Baldurs Gate 3 installiert und kann mal testen, ob das Spiel mit DLSS 4.5 (Preset M) unter Vulkan auch mit einem Vulkan Error nach dem Logo am Anfang abstürzt? Ist bei mir reproduzierbar der Fall. Mit K geht es problemlos.
Crasht hier ebenfalls.

Nightspider
2026-01-07, 20:54:01
Spätestens mit Preset M wird es bei vielen UE5 und auch UE4 games zur Pflicht den Scharfzeichner abzuschalten.

Gilt dann sicherlich auch für DSR Nachschärfen.

SamLombardo
2026-01-07, 21:25:36
Installiere mal die aktuelle Vulkan-Runtime:
https://vulkan.lunarg.com/sdk/home#windows
Danke, Versuch st es Wert.

Ah, nicht mitbekommen. Das wäre super.

0x ist natürlich Unsinn.


Crasht hier ebenfalls.

Danke für die Info gut zu wissen. Dann braucht sicherlich doch noch einen Patch von Larian oder einen Fix von Nvidia.

Relex
2026-01-07, 22:11:52
Klappt aber nicht überall, in Stalker gibts afair weiter Ringing an Stromkabeln etc. Wobei das UE Tonemapper Sharpen ohne übertriebene Intensität noch gutartig ist. Tippe, bei Stalker ist das irgendein Custom Schrott-Shader.


Ja, gut möglich, bei Stellar Blade klappts auch nicht, aber in Outer Worlds 2, Sackboy und Lego Horizon hat's z.B. funktioniert. Kann also nicht schaden, was einfach auszuprobieren.


Also Partikel hat das neue Model wirklich drauf. Links M, rechts K. Beides Performance mode. Aber der Modus ist egal.

Und ja, das muss so hell leuchten. Tut es auch, mit K wenn man ganz nah ran geht.
Selbst K mit DLAA hat das Problem, genauso wie TAA und TSR nativ.

Mal wieder ein gutes Beispiel, dass Auflösung alleine rein gar nichts bringt, wenn das Model fehler macht.

In HDR ist der Unterschied übrigens umso deutlicher. Deswegen ist es mir überhaupt erst aufgefallen.

https://i.ibb.co/7dzyMBTj/Screenshot-2026-01-07-220618.png

crux2005
2026-01-07, 22:15:17
Ja, gut möglich, bei Stellar Blade klappts auch nicht, aber in Outer Worlds 2, Sackboy und Lego Horizon hat's z.B. funktioniert. Kann also nicht schaden, was einfach auszuprobieren.


Also Partikel hat das neue Model wirklich drauf. Links M, rechts K. Beides Performance mode. Aber der Modus ist egal.

Und ja, das muss so hell leuchten. Tut es auch, mit K wenn man ganz nah ran geht.
Selbst K mit DLAA hat das Problem, genauso wie TAA und TSR nativ.

Mal wieder ein gutes Beispiel, dass Auflösung alleine rein gar nichts bringt, wenn das Model fehler macht.

https://i.ibb.co/7dzyMBTj/Screenshot-2026-01-07-220618.png

Digital Foundry hat das mit der Beleuchtung und Preset M erklärt. So wie ich das verstehe liegt es daran wo in der render-pipeline das TAA, bzw. DLSS "greift" und nicht wie "gut" der Algorithmus ist.

Edit: Laut DF Alex ist DLSS 4.5 vor dem tone-mapping, TAA/ältere DLSS waren nach dem tone-mapping.

The_Invisible
2026-01-07, 22:46:41
Ah, nicht mitbekommen. Das wäre super.

0x ist natürlich Unsinn.


Crasht hier ebenfalls.

Bei Enshrouded bleibt mit M das Bild auch schwarz, mit K geht es normal.

Hat eventuell auch damit zu tun das M jetzt an anderer Stelle in der Render-Pipline eingreift?

crux2005
2026-01-07, 22:51:28
Bei Enshrouded bleibt mit M das Bild auch schwarz, mit K geht es normal.

Hat eventuell auch damit zu tun das M jetzt an anderer Stelle in der Render-Pipline eingreift?

Genau.

aufkrawall
2026-01-07, 23:07:56
Ok, wenn man die Betrachtung auf UP isoliert, ist L kein Reinfall. Das fällt wirklich erstaunlich minimal von P auf UP ab. Würd es wohl kaum merken, wenn mir das heimlich jemand umstellt.

Relex
2026-01-07, 23:24:53
In den meisten Spielen gehen mit UP leider ziemlich viele effekte kaputt. Meistens die Schatten oder reflexionen. Rein von der Bildschärfe und Rekonstruktion wäre es einwandfrei nutzbar. Auch die Kantenglättung und rauschunterdrückung ist gut. Wenn diese kaputten effekte nur nicht wären.

Je cleaner das rendering und der content im Spiel und je besser die implementierung desto eher ist es nutzbar. Das macht dann mit UP auch enorme Unterschiede von Spiel zu spiel. Manchmal ist es ein totalausfall, manchmal erstaunlich gut.

Man kann eigentlich schon froh sein, dass wenigstens 50% skalierung meistens ziemlich problemfrei funktioniert und diese Probleme erst mit 33% auffallen.

aufkrawall
2026-01-07, 23:50:11
Wow. Also, in Witcher 3 (RT off, NIS und doppeltes Mip Bias via Config abgeschaltet) zersägt M K imho. Mit K sieht das Gras aus wie Pudding, flackert trotzdem mehr, entfernte Vögel sehen aus wie dunkle Spermien und vor Gras entlanggehende NPCs haben eine Art Quantenzustandsveränderung-Unschärfe um sich. Mit M alles massiv reduziert.
Ach so, und das Gebrösel um Geralt herum bei Kameradrehungen ist natürlich auch weg. Es gibt etwas temporales Aliasing in dichter Vegetation, aber eher unterschwellig. Insgesamt schon eine tolle Sache. FSR 4 (das volle auf RDNA4) sah in dem Spiel deutlich schlechter aus, damit nahm die Flimmerneigung im Gras erst bei 66% ab.
Nur die SSR sind wie mit K komisch noisy.

IceKillFX57
2026-01-08, 06:33:08
Wow. Also, in Witcher 3 (RT off, NIS und doppeltes Mip Bias via Config abgeschaltet) zersägt M K imho.

Wie macht man das? 😅
Muss das Spiel mal langsam anfangen. Nur Gutes von gehört😬

Gymnopédies
2026-01-08, 08:43:02
Hat sich schon mal wer Star Wars Outlaws mit DLSS 4.5 angenommen und verglichen, irgendwo? :)

Lurtz
2026-01-08, 08:50:44
Outlaws setzt stark auf RT, da würde man RR wahrscheinlich immer vorziehen.

00-Schneider
2026-01-08, 08:52:04
Wow. Also, in Witcher 3 (RT off, NIS und doppeltes Mip Bias via Config abgeschaltet) zersägt M K imho. Mit K sieht das Gras aus wie Pudding, flackert trotzdem mehr, entfernte Vögel sehen aus wie dunkle Spermien und vor Gras entlanggehende NPCs haben eine Art Quantenzustandsveränderung-Unschärfe um sich. Mit M alles massiv reduziert.
Ach so, und das Gebrösel um Geralt herum bei Kameradrehungen ist natürlich auch weg. Es gibt etwas temporales Aliasing in dichter Vegetation, aber eher unterschwellig. Insgesamt schon eine tolle Sache. FSR 4 (das volle auf RDNA4) sah in dem Spiel deutlich schlechter aus, damit nahm die Flimmerneigung im Gras erst bei 66% ab.
Nur die SSR sind wie mit K komisch noisy.


Wie schlägt sich "L" gegenüber "K" und "M" in der Szene?

robbitop
2026-01-08, 08:57:46
L macht ja nur für Ultra Performance Sinn (kostet auch nochmal ordentlich mehr als M) ist aber halt für UP getunt. Also 1/9 der Auflösunf bzw 1/3 pro Achse. Ab Performance macht M (bei den neuen Modellen) Sinn.

Allerdings galt das IIRC für ein 4K target. Bei einem 1440p oder 1080p target (haben ja viele solche Monitore). Ggf macht L zB beim Performance Preset hier schon Sinn (weil die input resolutions dort so klein sind wie 4K mit UP (bei 1080p sogar noch kleiner). Aber ggf hat es auch mehr mit dem Verhältnis von input und output resolution zu tun.
Hat das schon jemand getestet?

Cubitus
2026-01-08, 09:04:06
Habe gestern auch kurz Witcher 3 mit M getestet, gefällt mir sehr gut. Bei Dying Light 3 bleibe ich allerdings bei K, da M flackert, vermutlich wegen der RT-Schatten. Angiesan hatte das gestern ja auch schon festgestellt.
Die Pragmata-Demo sieht auf den ersten Blick mit M richtig gut aus.
Cyberpunk ist bei mir dagegen wohl irgendwie kaputt: Es nimmt bei mir immer D, trotz neuester DLLs. Stelle ich mich da zu blöd an oder weiß jemand, was man tun kann?
Vermutlich wegen RR oder?

Und kann es sein, dass das NVIDIA Overlay manchmal bei der DLSS-Anzeige rumzickt? Der gute alte Registry-Key funktioniert dagegen bei mir immer zuverlässig.

@Relex
Danke für deine Bilder, ja muss zugeben das M dort besser wirkt.

Ex3cut3r
2026-01-08, 09:06:40
Outlaws setzt stark auf RT, da würde man RR wahrscheinlich immer vorziehen.

Genau, überall wo RR verfügbar ist sollte man mit RT AO, Schatten und Reflections IHMO immer Preset E RR vorziehen.

Nightspider
2026-01-08, 09:07:54
Also so richtig zufrieden bin ich nach einigem Testen jetzt mit gar keiner Methode in Arc Raiders. ^^

Mir fällt da einfach noch zu viel Kanten-/Pixelrauschen auf aber vielleicht erwarte ich einfach zu viel. Vielleicht liegts auch an der Unreal Engine 5 bzw. wie halt die Details in dem Spiel gerendert werden.
Also gerade wenn viele vertikale Masten auf mittlerer bis großer Entfernung nicht einfach mal gerade sein können sondern eben irgendwie unscharf wabbelig aussehen....

Die 5090 kotzt da schon ab in höheren DSR Auflösungen und der Lag bzw. die fps hat mich jetzt doch gestört so das ich vieles wieder runtergeschraubt habe und wieder mit einem hässlicheren Bild leben muss. *seufz*

Und egal was manche zu DLAA sagen, ich habe das Gefühl das DSR Downsampling von hohen Auflösungen ein Bild mit deutlich weniger Aliaising produziert als native Auflösung mit DLAA.

Wahrscheinlich bin ich schon zu verwöhnt und war mit den Augen zu viel zu nah am Monitor um die Fehler immer zu suchen.

6090 nach aktuellen Gerüchten ja nicht vor 2. Halbjahr 2027. *seufz*

Relex
2026-01-08, 09:10:30
Habe gestern auch kurz Witcher 3 mit M getestet, gefällt mir sehr gut. Bei Dying Light 3 bleibe ich allerdings bei K, da M flackert, vermutlich wegen der RT-Schatten. Angiesan hatte das gestern ja auch schon festgestellt.
Die Pragmata-Demo sieht auf den ersten Blick mit M richtig gut aus.
Cyberpunk ist bei mir dagegen wohl irgendwie kaputt: Es nimmt bei mir immer D, trotz neuester DLLs. Stelle ich mich da zu blöd an oder weiß jemand, was man tun kann?
Vermutlich wegen RR oder?

Und kann es sein, dass das NVIDIA Overlay manchmal bei der DLSS-Anzeige rumzickt? Der gute alte Registry-Key funktioniert dagegen bei mir immer zuverlässig.

@Relex
Danke für deine Bilder, ja muss zugeben das M dort besser wirkt.


RayReconstruction nutzt ganz eigene Presets und ersetzt SuperResolution komplett.
Preset D und E sind bei RR das Transformer model. Mit 4.5 gabs da diesmal keine neuen Presets.
RR bleibt also auf dem Stand von letztem Jahr.

Der Preset Override auf Preset M und L ist nur für Super Resolution. SR ist nur dann aktiv, wenn RR aus ist.


Ich denke ein neues RR Preset dürfte spannend werden. Falls das auch teurer wird, könnte das auf aktuellen GPUs mit PT schon zu teuer werden. Denn gerade da braucht man ja dringend performance.
Und so gut, dass man auf Ultra Performance gehen kann, wird es nicht sein, da dort der RT Noise ja stark zunimmt.

Aber vielleicht gehen sie dann bei Blackwell schon auf FP4 und holen so mehr Performance raus, trotz gestiegener Compute Anforderungen. Ich rechne auch fast schon damit, dass sie nächstes Jahr mit DLSS5 beim SR auf FP4 gehen und Ada dann das gleiche schicksal ereilt wie Ampere und Turing. Wäre schade für mich, aber wenn ich eines gelernt habe, dann dass Nvidia immer einen Schritt weiter denkt. Bei DLSS4 FG hatte ich noch vemrutet, dass erstmal das FG Modell schneller wird, das ja bei DLSS3 in manchen Spielen nur 50% mehr FPS lieferte aufgrund der hohen Kosten. Aber sie haben direkt ein viel schnelleres Model + besseres Framepacing + Multi Frame Gen geliefert.
Bei SR hatte ich auch schon spekuliert, wann sie denn ein Model bringen das nur auf Ada und Blackwell brauchbar läuft und ich hätte nie gedacht, dass sie das jetzt schon bringen, wo doch das 1st gen Transformer Model auf Turing und Ampere noch sehr performant war und sich viele gewünscht hätten, dass das Model weiter optimiert wird, bei gleichen Performancekosten. Aber sie gehen direkt in die vollen mit Model M, FP8 und viel mehr compute.

Ich meine auf lange sicht gesehen sind die hohen Kosten für das Upscaling Model kein Problem, da die Rechenkosten für den Upscaler fix sind und mit der nächsten GPU gen sicher wieder halbiert werden, wohingegen die Anforderungen der Spiele, die eigentlichen Pixel zu rendern natürlich immer weiter ansteigt. Die Anforderungen/Kosten für das Upscaling egalisieren sich also langfristig gesehen komplett. Ist halt nur suboptimal für ältere GPUs. Aber immerhin sperrt Nvidia die neuen Presets nicht komplett für ältere Karten...

robbitop
2026-01-08, 09:39:23
Die Frage ist, wie gut 4 bit Genauigkeit noch funktioniert für solche NNs.

SamLombardo
2026-01-08, 09:47:48
RayReconstruction nutzt ganz eigene Presets und ersetzt SuperResolution komplett.
Preset D und E sind bei RR das Transformer model. Mit 4.5 gabs da diesmal keine neuen Presets.
RR bleibt also auf dem Stand von letztem Jahr.

Der Preset Override auf Preset M und L ist nur für Super Resolution. SR ist nur dann aktiv, wenn RR aus ist..

Was ist dann wen ich in der APP oder im Inspector einfach global "latest" eingestellt habe und dann ein Spiel mit RayReconstruction spiele? Nimmt sich das dann das Preset das es braucht? Oder läuft das dann mit M?

Tobalt
2026-01-08, 09:49:03
Die Frage ist, wie gut 4 bit Genauigkeit noch funktioniert für solche NNs.

Bei einer solche Umstellung wird ja die Anzahl der Neuronen entsprechend (und meist überproportional) erhöht. Diese Anzahl und Vernetzung der Nodes ist ja, was dem NN die Power gibt, nicht dir Präzision der einzelnen Parameter. Sie es mal so: Die Gesamte Bitzahl Pro Layer steigt bei einer Umstellung auf 4-bit Arithmetik, nicht fällt.

Cubitus
2026-01-08, 09:57:48
@Relex

Danke dir :)
Dann werde ich das mal ohne RR testen.

Allgemein finde ich es gerade ziemlich spannend, was NVIDIA aktuell plant und „kocht“. Gerade Blackwell war beziehungsweise ist zum Start noch nicht vollständig ausgefahren. Jensen hat auf der GTC auch abseits von DLSS den Entwicklern ziemlich deutlich durch die Blume nahegelegt, sich stärker mit Neural Shaders zu beschäftigen. Natürlich nicht uneigennützig, dort erhofft man sich künftig deutlich bessere Synergien zwischen dem KI-Lineup

Spannend bleibt auch, wie die neue Sidequest, die sich durch die allg. Verknappung auf den Gaming GPUs durch den KI Boom ergeben hat, welche Nvidia umgehen will, ohne viel Geld zu verlieren. Erst gestern hat Jensen angedeutet, dass es grundsätzlich möglich sei, neue AI-Technologien auch auf ältere GPU-Generationen zu bringen, wenn auch mit erheblichem Engineering-Aufwand. Er hat das explizit als „gute Idee“ bezeichnet, die man aktuell prüft.
Vor dem Hintergrund wäre es auch nicht überraschend, wenn NVIDIA tatsächlich die Ampere-Produktion über Samsung wieder hochfahren sollte.

robbitop
2026-01-08, 09:58:31
Was ist dann wen ich in der APP oder im Inspector einfach global "latest" eingestellt habe und dann ein Spiel mit RayReconstruction spiele? Nimmt sich das dann das Preset das es braucht? Oder läuft das dann mit M?
IIRC kann man im Inspektor beides unabhängig voneinander einstellen.
Wenn das neuste wirklich so funktioniert wie es soll, müsste es für DLSS-SR dann M sein und DLSS-RR Model E. Ich würde es aber explizit einstellen. Also M und E. Fire and Forget. Bis das nächste Modell rauskommt.

SamLombardo
2026-01-08, 10:04:04
IIRC kann man im Inspektor beides unabhängig voneinander einstellen.
Wenn das neuste wirklich so funktioniert wie es soll, müsste es für DLSS-SR dann M sein und DLSS-RR Model E. Ich würde es aber explizit einstellen. Also M und E. Fire and Forget. Bis das nächste Modell rauskommt.
Stimmt jetzt wo du es sagst, das kann für RR separat einstellen. Dann mache ich das so. Vielen Dank!

PingpiN
2026-01-08, 11:49:03
Bei dead space Remake habe ich ein merklichen Unterschied festgestellt. Habe die neuste dlss Datei im Spielordner überschrieben. Ich weiß nicht welches preset er da nutzt. Jedenfalls sind die Anzüge jetzt knackscharf als ob ich eine Textur Einstellung höher gegangen bin. Leider steigt dadurch auch der Stromverbrauch! Deswegen bin ich jetzt wieder zu der alten dlss Version gewechselt. Da achtet man nach kurzer Zeit eh nicht mehr drauf.

Relex
2026-01-08, 12:28:19
Wenn du die dll Datei im Spielverzeichnis austauschst, wird das neue Preset M nur genutzt, wenn du im Spiel den DLSS Performance Modus einstellst. Bei Quality und Balanced das alte Preset K.

SamLombardo
2026-01-08, 12:58:27
@Baldurs Gate 3, das stürzt unter Vulkan mit den neuen Presets auch mit der aktuellen Runtime (danke @Exxtreme) weiterhin ab. Bin jetzt daher auf DX 11 gegangen um DLSS 4.5 mal zu testen. Und gleich auf den ersten Blick kann ich sagen ich bleibe dabei:tongue:. Absolut auffällig ist, wie viel schöner Partikel aussehen, Schattenherz hat einen Stab auf dem Rücken, der orange Funken beim Laufen sprüht, mit Model K eher flau und unscheinbar, mit Model M leuchtend und auch mehr davon, das ist ein krasser Unterschied. Der hat in etwa die Dimension wie auf Relex´Bildern von Stellar Blade. Dann in einer Höhle (Unterreich), ich habe meinen aktuellen Spielstand geladen, da fliegen Glühwürmchen in Scharen rum und leuchten, es ist echt schön. Ich dachte mir hm, daran kann ich mich gar nicht erinnern, habe Model K wieder eingeschaltet und verglichen. Ja, die Glühwürmchen sind auch da wenn ich gezielt gucke, aber unscheinbar und dimm, kein Wunder dass sie mir gar nicht aufgefallen sind.
Lange Rede kurzer Sinn, die verbesserte Darstellung von Partikeln ist für mich DAS Highlight von 4.5, schon deswegen wird M bei mir der neue Standard, das wiegt etwaigen Performanceverlust mehr als auf.

Relex
2026-01-08, 14:13:33
Hier mal ein Vergleich zwischen reinem 4xSSAA, DLSS Q mit Preset M und Preset K.

Zeigt sehr gut, dass Preset M dem 4xSSAA am nächsten kommt, was den Kontrast in den Details und Highlights betrifft. Es ist also keineswegs überschärft oder zu kontraststark, sondern einach viel näher am Ground-Truth. Preset K ist dagegen zu unscharf und verliert Kontrast.

https://imgsli.com/NDQwNDM0/0/2 (imgsli hat gerade server probleme, keine Ahnung, ob der Link korrekt ist) :D

https://i.ibb.co/7xXPFxBr/4x-SSAA.png (https://ibb.co/7xXPFxBr) https://i.ibb.co/HDzGQhwM/DLSSQ-K.png (https://ibb.co/HDzGQhwM) https://i.ibb.co/7tjFT9YR/DLSSQ-M.png (https://ibb.co/7tjFT9YR)


Wenn also Preset M zu scharf wirkt liegts 100% am Spiel und einem vom Entwickler erzwungenen Scharfzeichner.

Lurtz
2026-01-08, 14:28:49
Ist down, ihr ladet zu viele Bilder hoch :D

Sehr schöner Vergleich, danke dafür :up: Im Vergleich mit SSAA relativieren sich die Leistungskosten dann doch deutlich ;)

Auf Laras Hose verschwindet die Struktur. Ist das in der Textur enthalten und DLSS vernichtet das oder ist das ungewolltes Rauschen, das DLSS rausrechnet?

Das AA bei DLSS ist um Welten besser...

Gast
2026-01-08, 14:43:19
Da achtet man nach kurzer Zeit eh nicht mehr drauf.

Aber auf den Stromverbrauch achtet man 🙈

Relex
2026-01-08, 14:48:28
Das an der Hose ist rauschen von der Schattierung. Das ist im echten Bild am Monitor extrem noisy und auch voll von Moire artefakten. Mit DLSS ist alles perfekt clean und stabil.

Das ist praktisch dann ja auch der Hauptvorteil von DLSS und TAA basierten verfahren. Das SSAA Bild wirkt trotz 4xSSAA fast schon so als wäre gar kein AA aktiv. Ja, das einzelbild sieht halbwegs passabel aus und enthält auch viele Details.
Aber die Bilder in folge sind temporal halt trotzdem extrem instabil, weil die Frames über Zeit keinerlei Bezug haben und die Subpixeldetails wahrscheinlich trotz 4 facher Samplezahl zu stark zwischen den Samples springen. Da wird man locker 16 oder 32x SSAA brauchen, um das zu beruhigen, wenn schon 4x fast komplett machtlos dagegen ist.

aufkrawall
2026-01-08, 14:55:16
Mit K hatte DLSS bewegte Objekte noch eindeutig schlechter als FSR 4 behandelt, M hat da imho FSR 4 nun überholt. Im Grunde seit sechs Jahren war da DLSS ziemlich suckig, von Transformer-RR abgesehen. Das ist schon eine große Verbesserung, insbesondere für MP-Spiele. Mal gucken, ob mit L UP in Fortnite nun entfernte Gegner evtl. sogar besser erkennbar sind als mit K P. :biggrin:

SamLombardo
2026-01-08, 16:41:11
Ich muss jetzt auch noch mal fragen damit ich es endlich kapiere, wie ist das denn mit Ray Reconstruction? . ..wenn ich es in einem Spiel in den Optionen einschalte, haben dann die Upscaling Presets über die wir hier diskutieren K, M und so weiter noch einen Einfluss oder macht Ray Reconstruction da "sein eigenes Ding"? Oder ist es so dass die dlss Upscaling Presets trotzdem aktiv sind und RR quasi oben drauf kommt? Aufklärung erbeten:).

Tesseract
2026-01-08, 16:43:46
RR ist unabhänig und hat ein eigenes preset, aber eher "unten drunter" als "oben drauf".

SamLombardo
2026-01-08, 16:50:48
:eek:RR ist unabhänig und hat ein eigenes preset, aber eher "unten drunter" als "oben drauf".
Danke. Das heißt die schließen sich nicht aus? Wenn ich ein RR-spiel habe macht es trotzdem einen Unterschied ob ich Preset K oder M in der NV App bei dlss upscaling einstelle?

aufkrawall
2026-01-08, 16:55:28
Doch, schließt sich aus. RR ersetzt SR komplett.

SamLombardo
2026-01-08, 17:03:24
Doch, schließt sich aus. RR ersetzt SR komplett.
Na so langsam gibt es ein Bild, das würde meine Beobachtungen bei Avatar frontiers of Pandora mit eingeschaltetem Ray Reconstruction erklären bei denen ich nämlich keinen Unterschied zwischen Preset M und Preset K sah nicht mal beim Stromverbrauch.

Loomes
2026-01-08, 17:22:47
Ja sobald RR aktiviert ist übernimmt das Preset alles komplett.
Kann man ja auch wunderbar im DLSS Overlay sehen wenn man es aktiviert.

RR ON = Preset D (oder auch E wenn manuell eingestellt)
RR OFF = Preset K/M/L

SamLombardo
2026-01-08, 17:53:00
Ja sobald RR aktiviert ist übernimmt das Preset alles komplett.
Kann man ja auch wunderbar im DLSS Overlay sehen wenn man es aktiviert.

RR ON = Preset D (oder auch E wenn manuell eingestellt)
RR OFF = Preset K/M/L
Vielen Dank für die Erklärung!

ChaosTM
2026-01-08, 18:26:08
4.5 schaut für mich in vielen Situationen etwas über-schärft aus. Ok, youtube ist kein Gradmesser.

Hatte noch keine Zeit das selbst nachzuprüfen. Ich habe es aber prinzipiell lieber eine Spur "softer" als überschärft. Das geht gar nicht..

00-Schneider
2026-01-08, 18:31:59
4.5 schaut für mich in vielen Situationen etwas über-schärft aus. Ok, youtube ist kein Gradmesser.

Hatte noch keine Zeit das selbst nachzuprüfen. Ich habe es aber prinzipiell lieber eine Spur "softer" als überschärft. Das geht gar nicht..


Kommt wohl dadurch wenn ohne DLSS etc. schon ein minimales Nachschärfen im Spiel selbst vorhanden ist. Preset M verstärkt dies dann nochmal.

Relex
2026-01-08, 19:11:21
Jap, so viele Spiele haben sharpening aktiviert, welches man bei der Nutzung von Preset K oder TAA nichtmal wirklich bemerkt, weil es so subtil ist. Wenn man dann Preset M drüberbügelt siehts aber direkt überschärft aus.

Hatte ich eben wieder bei Returnal. Das Game sah für mich mit Preset K eigentlich nie überschärft aus, obwohl ich scharfzeichner eigentlich nicht mag. Aber hey, vielleicht werden meine Augen langsam schlecht :D

Jedenfalls mit M wieder direkt diesen überschärften Look bemerkt. Scharfzeichner für DLSS war ingame sogar AUS.
Kurz den befehl zum ausschalten des UnrealEngine Sharpening in die Engine.ini gehaut und zack schon ist es perfekt und der scharfzeichner look trotz Preset M komplett verschwunden. Es war also noch ein zweiter scharfzeichner aktiv, den man ingame nicht einstellen konnte.

Wenn das sharpen der Engine aus ist, dann sollte in vielen Fällen das Bild mit Preset M sogar etwas weicher sein, als mit Preset K und dem default scharfzeichner... das war jetzt fast immer der Fall. Von überschärft ist da wirklich keine Spur mehr zu sehen.


Ich wiederhole mich, aber ihr könnt zu 99% davon ausgehen, dass die Engine einen Scharfzeichner nutzt, wenn das Bild zu scharf aussieht.

Am besten mal Preset M in einem Game testen, wo man 100% weiß dass kein Scharfzeichner mehr aktiv ist oder eben ein UE4/5 Game wo man mit dem engine.ini befehl erfolgreich den Scharfzeichner abschalten konnte. So wie das Bild dann aussieht wird Preset M dann auch in jedem anderen Spiel aussehen, wo kein scharfzeichner aktiv ist. Falls es doch anders aussieht, wisst ihr sofort was los ist...

crux2005
2026-01-08, 19:19:18
Cyberpunk ist bei mir dagegen wohl irgendwie kaputt: Es nimmt bei mir immer D, trotz neuester DLLs. Stelle ich mich da zu blöd an oder weiß jemand, was man tun kann?
Vermutlich wegen RR oder?

Ja, du musst RR ausschalten um Preset M zu sehen.

Was ist dann wen ich in der APP oder im Inspector einfach global "latest" eingestellt habe und dann ein Spiel mit RayReconstruction spiele? Nimmt sich das dann das Preset das es braucht? Oder läuft das dann mit M?

"latest" bei DSL-RR nimmt Preset D. Wenn du Preset E willst musst du es auswählen.

aufkrawall
2026-01-08, 19:19:32
Am besten mal Preset M in einem Game testen, wo man 100% weiß dass kein Scharfzeichner mehr aktiv ist
Das weiß man halt erst so richtig, wenn man bei etwas wie dunklen Kabeln reingezoomt hat. In Texturen sind auch oft Sharpen- oder Kompressionsartefakte, die verstärkt werden können.

Ich find's nach kurzer Eingewöhnung aber auch gut. Hoffentlich wird RR mit 2nd Gen Transformer auch so scharf, dann könnte man damit mit 4k auch UP nutzen.

DrFreaK666
2026-01-08, 20:03:50
AoD6ssxloxk

Bin auf das Video von Hardware Unboxed gespannt.
Meiner Meinung nach macht Tim die besten Bildqualitäts-Vergleiche

ChaosTM
2026-01-08, 20:27:40
abseits von DLSS 4.5

könnte adaptives MFG das sein, was sich viele inklusive mir, gewünscht haben.
Ich will zb. 138fps @ 8k (VR) haben aber meine lahme 5090er kann das nicht stemmen.
Kann A-MFG das auffüllen, wenn ich nativ oder mit 2x FG deutlich drunter bin ?


ok..hab mich wieder zu blöd erklärt.
Ich hab zb. nativ 80fps und will eigentlich nur 120 oder 300fps, ohne einen Limiter reinzuknallen

Exxtreme
2026-01-08, 21:03:37
Kann A-MFG das auffüllen, wenn ich nativ oder mit 2x FG deutlich drunter bin ?


Nein, das ist nicht empfehlenswert. Es ist so, (M)FG glänzt dann wenn man aus einer unterausgelasteten Grafikkarte viel mehr fps rausholen will. Sprich, wenn man im harten CPU-Limit ist und man statt 40 fps eher 120 oder 160 fps will. Hast man aber eine überlastete Grafikkarte weil 8K-Auflösung dann wird (M)FG die Latenzen übelst nach oben treiben. Weil (M)FG die Grafikkarte noch zusätzlich belastet.

Relex
2026-01-08, 21:50:45
Nein, mit Reflex ist die GPU nie voll ausgelastet. Man ist quasi immer in einem künstlichen CPU Limit, so dass die Renderqueue leer bleibt und die Latenzen minimal sind.

Also genau das was du in deinem "harten" CPU Limit auch hast.



EDIT: Clair Obscur war gerade mein nächster Kandidat. Preset L ist eine absolute Geheimwaffe gegen Bröselgrafik.
Mir hat nie gefallen, dass das Spiel so rauschig und bröselig aussieht, egal was man einstellt. Mit Preset L (und deaktiviertem Scharfzeichner) sieht die Grafik jetzt wie glatt geleckt aus. In dem Fall sieht man einen riesen Unterschied zu Preset M.
Ja, Preset L neigt ein bisschen mehr zum verwischen, aber zeigt dabei trotzdem um Welten mehr Details als jegliches TSR, XeSS, TAA oder FSR, denn die verwischen alle deutlich mehr und flimmern dabei auch noch.

00-Schneider
2026-01-08, 23:54:42
JBk_X32CJN0

M Performance(1080p) schlägt K Quality(1440p), wtf!? :freak:

aufkrawall
2026-01-09, 00:04:28
Wieso wtf? RR E Performance schlägt bei der Stabilität teilweise auch K DLAA, auch abseits von RT-Artefakten (etwa Nanite).
Und L ist halt ähnlich RR deutlich teurer als K. Die BQ ist einfach durch die ML-Performance der GPUs limitiert. Da kann man nur beten, dass RR 2nd Gen Transformer nicht auch mal eben 20% teurer wird.

Thomas1973
2026-01-09, 00:21:18
Laut KI, trainiert man die KI fuer DLSS 5 und 6 und 7 und weiter, was dazu fuehren wird, dass bis zu 10+ Zwischenbilder generiert werden.
Was haette es fuer einen Sinn, wenn man DLSS 7 z.B. nicht fuer 8k 10 FPS nutzen kann, um dann mit DLSS 7 100-150 FPS herauszukitzeln, das ist doch der ganze Sinn an der Sache?
Ich habe schon Videos auf youtube gesehen, wo bereits nur mit KI live gerendert wird und die sehen unglaublich aus. Ich weiss nur nicht mit welcher GPU gerendert worden ist.

sapito
2026-01-09, 00:27:32
Was haette es fuer einen Sinn, wenn man DLSS 7 z.B. nicht fuer 8k 10 FPS nutzen kann, um dann mit DLSS 7 100-150 FPS erzeugen zu koennen, das ist doch der ganze Sinn an der Sache?
.


spiele mal mit 10 FPS, VIEL SPASS

alles unter 60 FPS als BASE macht keinen Sinn da viel zu laggy

Thomas1973
2026-01-09, 00:32:00
spiele mal mit 10 FPS, VIEL SPASS

alles unter 60 FPS als BASE macht keinen Sinn da viel zu laggy


Ich meinte anstatt 10 FPS mit 100 FPS mit DLSS 7, war ein wenig missverstaendlich von mir. Das Thema ist ja auch nicht einfach meine ich.( hahaha ) Oder meinst du, dass 10 FPS mit DLSS 7 (in Zukunft) nicht Sinnvoll in 100 FPS sind ? Wozu braucht man das dann, um mit 600 FPS zu zocken ?

sapito
2026-01-09, 00:42:47
Ich meinte anstatt 10 FPS mit 100 FPS mit DLSS 7, war ein wenig missverstaendlich von mir. Das Thema ist ja auch nicht einfach meine ich. hahaha


och manno es bleibt bei 10 BASE FPS > das wird nix. da helfen auch keine 100 "Fake" FPS durch FG

kannst ja heute schonmal versuchen mit 30 FPS als BASE FG anzu werfen

egal welcher faktor, das ist schlimmer als kaugummi

Thomas1973
2026-01-09, 00:49:51
och manno es bleibt bei 10 BASE FPS > das wird nix. da helfen auch keine 100 "Fake" FPS durch FG

kannst ja heute schonmal versuchen mit 30 FPS als BASE FG anzu werfen

egal welcher faktor, das ist schlimmer als kaugummi


Aber wenn NVIDIA sich so ein Ziel setzt 10 + Zwischenbilder, dann sehen die vielleicht auch fuer Latenz eine Loesung? Weil da ist ja sonst dieses Problem mit 60 FPS plus 10 Zwischenbilder sind 600 FPS. In welchem Universum wird jemals jemand mit 600 FPS zocken?

ChaosTM
2026-01-09, 00:53:53
Mir wäre eines aus 100 fps gut genug, sollte es funktionieren. Anders gehts momentan nicht.

Wir stehen vor der Hardware Wand. Vielleicht schaffen TSMC und Intel/Samsung noch ein paar
kleine Node Sprünge, aber selbst ASML kann keine Strukturbreiten < einer Atomlage belichten

Thats it, wir brauchen was neues



Aus der Hardware können wir vielleicht 10-20% mehr herausholen, ohne den Stromverbrauch massiv zu erhöhen.

Thomas1973
2026-01-09, 00:56:03
Ich persoenlich wuensche mir ja sowieso reines KI live Rendering, weiss nicht wie die anderen dazu stehen. Die Frage ist ja nur, wie lange ich noch darauf warten muss, es heisst sowas wie Generative AI Rendering.
https://www.youtube.com/watch?v=y23djJsm_oM

Atma
2026-01-09, 04:02:46
Konnte Preset M (Quality) bisher nur in BF6 für 2-3 Stunden testen, was eher eine enttäuschende Vorstellung war. Die Vegetation ist in Bewegung weniger stabil und Stromleitungen vor kontrastreichem Hintergrund sorgten für seltsame Artefakte. Was mir auch auffiel: mit Preset K ist laut Indikator Autoexposure aus, mit Preset M an.

robbitop
2026-01-09, 06:24:33
Wieso wtf? RR E Performance schlägt bei der Stabilität teilweise auch K DLAA, auch abseits von RT-Artefakten (etwa Nanite).
Und L ist halt ähnlich RR deutlich teurer als K. Die BQ ist einfach durch die ML-Performance der GPUs limitiert. Da kann man nur beten, dass RR 2nd Gen Transformer nicht auch mal eben 20% teurer wird.
Unter welchen Voraussetzungen empfiehlst du L und M? L nur für UP und ab dann M oder spielabhängig? :)

Lurtz
2026-01-09, 10:02:43
Gab es das schon immer oder berücksichtigen M und L HDR in besonderer Weise?
https://s1.directupload.eu/images/260109/mxxb3822.jpg

dildo4u
2026-01-09, 11:32:48
4.5 Performance Tests auf 5070,4070S,3090,2080TI

Blackwell setzt sich nicht ab gegen die 4070S.

36zbGPECzDI

Relex
2026-01-09, 11:42:22
Jap, sieht man auch im Computerbase Test. 5070ti verliert auch etwas mehr Performance als die 4080S.

Das Model skaliert also auf beiden Architekturen genau gleich und hängt 1:1 an der Performance der GPU. Je schneller die GPU, desto geringer die Kosten. Aber das ist ja schon immer so seit es DLSS gibt.

dildo4u
2026-01-09, 12:17:53
Bildqualität Beispiele auf Computerbase


https://www.computerbase.de/artikel/grafikkarten/nvidia-dlss-4-5-super-resolution-test.95687/seite-2

00-Schneider
2026-01-09, 12:27:31
Wir brauchen mehr Vergleiche mit DLSS-Q und DLAA.

Mich würde stark interessieren, wie sich hier die teuerste Variante L ggü. M schlägt.

edit: Hab was gefunden:

gVQC0KyzucI

sapito
2026-01-09, 12:53:19
Aber wenn NVIDIA sich so ein Ziel setzt 10 + Zwischenbilder, dann sehen die vielleicht auch fuer Latenz eine Loesung? Weil da ist ja sonst dieses Problem mit 60 FPS plus 10 Zwischenbilder sind 600 FPS. In welchem Universum wird jemals jemand mit 600 FPS zocken?

sorry aber du verstehst das zugrunde liegende "problem" einfach nicht ...

und die Trillionen "FAKE" FPS sind doch auch nur Dummen Verarsche für einfach gestrickte Individuen

FG ist schon gut und brauchbar aber nicht so wie du es dir ausmalst

DLSS = Latenz runter
Frame Generation = Latenz rauf
Reflex = Latenz runter
Kombiniert ergibt das: 👉 DLSS + FG + Reflex = meist neutral bis leicht besser als Native,
aber nie so gut wie echte hohe Engine‑FPS.

viel spass bei deiner shitshow

KI Bot deiner Wahl
wie schaut es in Verbindung mit DLLS und mutli Frame Gen aus





Gute Frage, das ist genau der Punkt, an dem der ganze Framegen‑Hype auseinanderfällt, wenn man ihn zu Ende denkt.
Ich geh das einmal sauber durch:

1. Ausgangslage: 10 FPS Base
• Engine‑FPS: 10
• Framezeit:

• Input‑Latenz grob: 100–150 ms (Engine‑Loop + Render + Display)
Das fühlt sich schon ohne Framegen wie Kaugummi an.

2. Hypothetisches Multi‑Frame‑Gen ×10
Annahme:
• Aus jedem echten Engine‑Frame werden 9 zusätzliche AI‑Frames erzeugt
• Also:
• 10 echte Frames/s
• 90 generierte Frames/s
• 100 sichtbare FPS
Wichtig:
Die Webanalyse bestätigt genau das Grundproblem: Input‑Latenz bleibt an der Baseloop hängen, Framegen erhöht nur die sichtbare FPS, nicht die Reaktionsgeschwindigkeit.

3. Was passiert mit der Latenz?
a) Anzeige‑FPS
• Optisch: 100 FPS → sehr flüssige Bewegung
• Subjektiv: weniger Ruckeln, weniger Stottern
b) Input‑Latenz
• Deine Eingabe wird nur in echten Engine‑Frames verarbeitet
• Die Engine läuft mit 10 FPS → alle 100 ms ein neuer „realer“ Zustand
• Framegen kann nur zwischen diesen Zuständen interpolieren, nicht neue Physik/Logik berechnen
👉 Input‑Latenz bleibt bei ~100–150 ms, egal wie viele AI‑Frames du dazwischen klebst.
c) Zusätzliche Framegen‑Verzögerung
Framegen braucht immer mindestens 1 echten Frame „Vorlauf“, um zwischen zwei Zuständen zu interpolieren. Das ist auch bei realen DLSS‑FG‑Messungen sichtbar: +10–20 ms Latenz on top.
Bei 10 FPS:
• 1 Frame Delay = 100 ms extra
• Deine Eingabe wirkt also effektiv mit ~200–250 ms Verzögerung.

4. Wie fühlt sich das an?
• Optisch:
• Sieht aus wie 100 FPS
• Smooth Camera, flüssige Bewegungen
• Spielgefühl:
• Reaktion wie ein 10 FPS‑Spiel mit zusätzlichem Delay
• Aiming, Timing, Parry‑Windows → komplett matschig
• Du siehst viel, aber alles ist „hinterher“
Das deckt sich mit realen Analysen: Framegen kann Spiele glatter aussehen lassen, aber sie fühlen sich nicht zwingend besser an, wenn die Baseloop zu langsam ist.

5. Fazit für dein Szenario
• Multi‑Frame‑Gen ×10 bei 10 FPS Base ist technisch absurd unspielbar, egal wie gut die AI ist.
• Du bekommst:
• 100 FPS fürs Auge
• 10 FPS fürs Hirn (Input/Logik)
• +1 Frame Delay durch Framegen → Latenz explodiert
Die harte Wahrheit:
Unter ~40–50 echten FPS ist Framegen immer ein Pflaster auf einem offenen Bruch. Erst wenn die Baseloop schnell genug ist, wird Framegen zu „Bonus‑Smoothness“ statt zu „schönem Lag“.
Wenn du magst, können wir das gleiche Szenario mal mit 30 oder 60 Base‑FPS durchspielen und eine kleine Matrix bauen: Base‑FPS vs. Framegen‑Faktor vs. effektive Latenz.



dürfte IMHO so ganz gut hinkommen, daran ändert auch das Marketing von NVIDA/ AMD nix

Thomas1973
2026-01-09, 13:49:26
Was du scheinbar nicht verstehst, dass mit steigenden facke FPS bei DLSS (im Gaming geht es immer nur um facke FPS) auch die Hardware sich weiter entwickeln muss, um die Hardware Wand zu ueberwinden. DLSS bemueht ja die KI Rechenkerne, und die muessen einfach schneller werden oder mehr. Das geht auf kosten der moeglichen Transistor Menge, die dann uebrig bleibt fuer andere Aufgaben. Es kommt zu einer Schwerpunkt Verschiebung, um die Latenzen bei z.B. 10+ Zwischenbildern zu verringern, muess in die GPU mehr AI-Rechenleistung hinein und weniger GPU- Rechenleistung . So kann man die Latenzen verringern. Weil im Moment ja die GPU Rechenleistung auf AI Berechnungen warten muss, und deswegen Latenzen hoch sind. NVIDIA wir sicherlich das Problem mit Latenz so und nicht anders loesen in der naechste Architektur , also durch bessere Balance zwischen AI TOPS und normalen GPU TFLOPS, besser gesagt die naechst Generation wird beinahe reine KI GPU und dann gibt es weniger Latenzen.
Zur Erinnerung RTX 5090 hat 110 TFLOPS und nur AI 838 TOPS (FP8). Klar, das hier Latenz gross ist. Uebrigens keiner hier im Forum weiss genau Bescheid ueber die Plaene von GPU Hersteller dich inklusive, deswegen diskutieren wir hier in aller Ruhe. Aber jeder hier weiss ungefaehr wo die Reise mit den Grafikkarten hingeht, AI forever.

ChaosTM
2026-01-09, 14:29:44
d39o7m-aNCc


Raff und sein Schüler .. er lernt aber schnell ;)

Relex
2026-01-09, 14:42:24
Was du scheinbar nicht verstehst, dass mit steigenden facke FPS bei DLSS (im Gaming geht es immer nur um facke FPS) auch die Hardware sich weiter entwickeln muss, um die Hardware Wand zu ueberwinden. DLSS bemueht ja die KI Rechenkerne, und die muessen einfach schneller werden oder mehr. Das geht auf kosten der moeglichen Transistor Menge, die dann uebrig bleibt fuer andere Aufgaben. Es kommt zu einer Schwerpunkt Verschiebung, um die Latenzen bei z.B. 10+ Zwischenbildern zu verringern, muess in die GPU mehr AI-Rechenleistung hinein und weniger GPU- Rechenleistung . So kann man die Latenzen verringern. Weil im Moment ja die GPU Rechenleistung auf AI Berechnungen warten muss, und deswegen Latenzen hoch sind. NVIDIA wir sicherlich das Problem mit Latenz so und nicht anders loesen in der naechste Architektur , also durch bessere Balance zwischen AI TOPS und normalen GPU TFLOPS, besser gesagt die naechst Generation wird beinahe reine KI GPU und dann gibt es weniger Latenzen.
Zur Erinnerung RTX 5090 hat 110 TFLOPS und nur AI 838 TOPS (FP8). Klar, das hier Latenz gross ist. Uebrigens keiner hier im Forum weiss genau Bescheid ueber die Plaene von GPU Hersteller dich inklusive, deswegen diskutieren wir hier in aller Ruhe. Aber jeder hier weiss ungefaehr wo die Reise mit den Grafikkarten hingeht, AI forever.



Wenn die Framerate des Spiels bei 10 FPS liegt, dann wird nur alle 100ms ein Frame ausgegeben.
Kannste ja selber ausrechnen. 1000 ms / 10 ergibt 100 ms. Ergo ist die minimal mögliche Latenz bei 10 FPS bei 100ms.

Da ist also über AI nichts zu holen. Denn wenn du was holst, also z.B. via DLSS die renderauflösung senkst, dann erhöht sich auch die Framerate und die Latenz geht runter.

Aber wenn du wirklich von 10 FPS sprichst, dann ist das ne Sackgasse. Das Spiel kann dann nur 10x pro Sekunde, also alle 100 ms inhaltlich auf deine Eingabe reagieren. Daran führt kein Weg vorbei.

Du kannst via AI die Zwischenbilder hochschrauben und du kannst vielleicht die Kamerabewegungen flüssig und direkt machen (Stichwort Reflex 2, wo die Kamera von der Framerate des Spiels abgekoppelt wird) aber du kannst niemals dafür sorgen, dass das Spiel tatsächlich schneller auf deine Eingaben reagiert. Willst du dich im Spiel also nach vorne bewegen oder springen, dann passiert das unweigerlich mit 100ms verzögerung. Keine AI der Welt wird daran jemals was ändern können, solange die AI die native Framerate nicht pusht, indem die Rechenlast reduziert wird (wie eben bei DLSS Upscaling)

Das was du hier verlangst ist so rein logisch einfach nicht möglich. Und eine AI ist nunmal auch an die Gesetze der Logik gebunden und kann nicht einfach zaubern.

sapito
2026-01-09, 15:01:40
Was du scheinbar nicht verstehst, dass mit steigenden facke FPS bei DLSS (im Gaming geht es immer nur um facke FPS) auch die Hardware sich weiter entwickeln muss, um die Hardware Wand zu ueberwinden. DLSS bemueht ja die KI Rechenkerne, und die muessen einfach schneller werden oder mehr. Das geht auf kosten der moeglichen Transistor Menge, die dann uebrig bleibt fuer andere Aufgaben. Es kommt zu einer Schwerpunkt Verschiebung, um die Latenzen bei z.B. 10+ Zwischenbildern zu verringern, muess in die GPU mehr AI-Rechenleistung hinein und weniger GPU- Rechenleistung . So kann man die Latenzen verringern. Weil im Moment ja die GPU Rechenleistung auf AI Berechnungen warten muss, und deswegen Latenzen hoch sind. NVIDIA wir sicherlich das Problem mit Latenz so und nicht anders loesen in der naechste Architektur , also durch bessere Balance zwischen AI TOPS und normalen GPU TFLOPS, besser gesagt die naechst Generation wird beinahe reine KI GPU und dann gibt es weniger Latenzen.
Zur Erinnerung RTX 5090 hat 110 TFLOPS und nur AI 838 TOPS (FP8). Klar, das hier Latenz gross ist. Uebrigens keiner hier im Forum weiss genau Bescheid ueber die Plaene von GPU Hersteller dich inklusive, deswegen diskutieren wir hier in aller Ruhe. Aber jeder hier weiss ungefaehr wo die Reise mit den Grafikkarten hingeht, AI forever.


[x] Merkbefreit

Exxtreme
2026-01-09, 15:08:15
Nein, mit Reflex ist die GPU nie voll ausgelastet. Man ist quasi immer in einem künstlichen CPU Limit, so dass die Renderqueue leer bleibt und die Latenzen minimal sind.



Ja, aber du wirst trotzdem Latenzen aus der Hölle haben weil Reflex die nativen fps absenkt. Oder andersrum gesagt: schafft die CPU 100 fps und die Grafikkarte 20 fps dann wird das Spiel mit 18 fps laufen. Und 18 fps nativ sind dann nicht toll weil sie sich wegen FG wie 12 anfühlen werden.

Thomas1973
2026-01-09, 15:09:29
[x] Merkbefreit


Was, hat dir deine Oma gesagt, Junge spiele nie mit Facke FPS, weil zu meiner Zeit es so was nicht gegeben hat.

Relex
2026-01-09, 15:13:34
Ja, aber du wirst trotzdem Latenzen aus der Hölle haben weil Reflex die nativen fps absenkt. Oder andersrum gesagt: schafft die CPU 100 fps und die Grafikkarte 20 fps dann wird das Spiel mit 18 fps laufen. Und 18 fps nativ sind dann nicht toll weil sie sich wegen FG wie 12 anfühlen werden.


Was kommst du jetzt mit 20 FPS? Davon war doch nicht die Rede.

Deine Aussage war, dass FG dann "glänzt", wenn man bei 40 FPS im harten CPU Limit ist.


Was ich mit meiner Aussage impliziere: Das exakt gleiche Verhalten hast du auch im GPU Limit bei 40 FPS, weil Reflex effektiv für ein CPU Limit sorgt und die Renderqueue leer hält. Im CPU limit passiert nämlich nichts anderes.


Klar, du brauchst die 40 FPS base natürlich nachdem FG aktiv ist, nicht vorher, da FG natürlich was kostet. Also meinetwegen 50 FPS. Aber das ändert ja nichts and der Tatsache, dass man in beiden Fällen mit 40 Base FPS bei aktivier Frame Gen spielt und die latenzen im CPU Limit genauso wie im GPU Limit identisch wären, weil du mit Reflex effektiv IMMER ein CPU Limit hast.

ChaosTM
2026-01-09, 15:15:23
Wir können die Physik derzeit noch nicht umgehen, daher brauchen wir (AI)Software Lösungen.

Quanten/FTL Rechner haben wir (noch) nicht

aufkrawall
2026-01-09, 15:33:00
Unter welchen Voraussetzungen empfiehlst du L und M? L nur für UP und ab dann M oder spielabhängig? :)
L nur, wenn in Titel x die zusätzliche Unschärfe in Bewegung nicht nervt und es damit substanziell stabiler als mit M aussieht, und auch die Artefakte von K zu viel nerven. Und halt generell für UP.

Thomas1973
2026-01-09, 15:53:17
[QUOTE=Relex;13865774]

Willst du dich im Spiel also nach vorne bewegen oder springen, dann passiert das unweigerlich mit 100ms verzaegerung.




Du meist die spuerbare Latenz bei Maus und Tastatur Eingaben, was sich nicht fluessig anfuehlt, waehrend das Bild auf dem Bildschirm fluessig und ohne hohe Latenz lauft .(Kamera entkoppelt)
Laut KI - Intel arbeitet an Techniken fuer die naechste Generation des Frame-Pacing. Dabei wird KI eingesetzt, um Blickwinkelbewegungen des Spielers vorherzusagen.
Dies behebt das Problem, dass bei schnellen Mausbewegungen die Position der Objekte auf dem Bildschirm kurzzeitig nicht mit der Zeit Üebereinstimmt, in der sie gerendert werden.

aufkrawall
2026-01-09, 15:58:44
Stichwort KI:
https://s1.directupload.eu/images/260109/temp/fl56stzf.png (https://www.directupload.eu/file/d/9159/fl56stzf_png.htm)

Sofern das stimmt, wird das also nichts mit DLSS SR -> DLSS RR Wrapper. Aber ggf. lässt sich ein Tool basteln, das in UE5 RR on per Inject erzwingt, da dort ja oft die korrekte Implementierung vorhanden zu sein scheint.

Thomas1973
2026-01-09, 16:15:32
Wie gesagt, laut dem oben verlinkten Video von Raff, welches sehenswert ist, wird am FG und allen damit verbundenen Problemen intensiv geforscht und es ist noch viel zu frueh jetzt und hier zu behaupten, dass man alles schon weiss und alles ist schlecht, und alles ist unmoeglich.

Relex
2026-01-09, 16:25:55
Hat ja auch keiner behauptet oder?

Das was du in deinem letzten Post beschreibst ist nichts anderes als das Prinzip das mit Reflex 2 vorgestellt wurde, wo die kamera vom eigentlichen Spiel entkoppelt wird. Das lässt die Kamerabewegung verzögerungsfrei erscheinen, während das Spiel mit 10 FPS rendern würde, aber einen Schuss den du abgibst oder ein Springen das du auslöst würde trotzdem mit mindestens 100ms verzögerung ausgeführt werden.

Niemand behauptet, dass Frame Generation oder KI nicht unzählige Probleme lösen kann.

Intel sagt ja auch, dass man die komplette Frameausgabe vollständig vom eigentlichen Spielrendering entkoppen will. Das könnte man so weit treiben, dass gar keine Frames mehr rasterized werden, sondern höchstens ein Datensetz vorbereitet wird auf basis dessen dann eine AI Engine die Bildfolge ableitet die perfekt zum Display passt.

Aber letztendlich wird deine Eingabe in einer bestimmten Frequenz vom Spiel abgetastet und verarbeitet. Und solange diese rate bei 10 FPS oder 10x pro Sekunde bleibt ist es halt müll.


Eigentlich stehst du dir gerade selbst im Weg. Du versuchst hervorzuheben, wie toll AI sein kann und was Intel und nvidia da noch alles am köcheln haben aber du versteifst dich mit deinem 10 FPS Beispiel auf etwas was in der Form mit dieser 10 FPS Vorgabe so niemals lösbar sein wird.

Selbst wenn man alternative wege findet ein Spiel zu rendern. Vielleicht nicht mehr in festem intervall, sondern einem stetigen Datenstrom oder was auch immer. Sobald es sowas gegebn würde wäre deine 10 FPS voraussetzung bereits verletzt, da wir dann nicht mehr von FPS sprechen würden, sondern von einem völlig anderem Konzept Inhalte zu rendern und darzustellen.

Daredevil
2026-01-09, 16:43:08
Kann es sein, dass das neue DLSS(M) ein wenig mehr die CPU belastet, oder bilde ich mir das ein?
Habe in D4 mit meinem Oldscool 5700X ohne aktiviertem SMT gut und gerne jetzt mal in Städten oder bei viel Action 70-80% Auslastung und es kommt zu kleinen Rucklern, das hatte ich bislang noch nicht, weswegen ich ja SMT ausgelassen habe. Macht sich jetzt aber auch nur bemerkbar, weil die Kiste hart am CPU Limit gebaut war. ^^

Thomas1973
2026-01-09, 16:52:15
Hat ja auch keiner behauptet oder?

Das was du in deinem letzten Post beschreibst ist nichts anderes als das Prinzip das mit Reflex 2 vorgestellt wurde, wo die kamera vom eigentlichen Spiel entkoppelt wird. Das lässt die Kamerabewegung verzögerungsfrei erscheinen, während das Spiel mit 10 FPS rendern würde, aber einen Schuss den du abgibst oder ein Springen das du auslöst würde trotzdem mit mindestens 100ms verzögerung ausgeführt werden.

Niemand behauptet, dass Frame Generation oder KI nicht unzählige Probleme lösen kann.

Intel sagt ja auch, dass man die komplette Frameausgabe vollständig vom eigentlichen Spielrendering entkoppen will. Das könnte man so weit treiben, dass gar keine Frames mehr rasterized werden, sondern höchstens ein Datensetz vorbereitet wird auf basis dessen dann eine AI Engine die Bildfolge ableitet die perfekt zum Display passt.

Aber letztendlich wird deine Eingabe in einer bestimmten Frequenz vom Spiel abgetastet und verarbeitet. Und solange diese rate bei 10 FPS oder 10x pro Sekunde bleibt ist es halt müll.


Eigentlich stehst du dir gerade selbst im Weg. Du versuchst hervorzuheben, wie toll AI sein kann und was Intel und nvidia da noch alles am köcheln haben aber du versteifst dich mit deinem 10 FPS Beispiel auf etwas was in der Form mit dieser 10 FPS Vorgabe so niemals lösbar sein wird.

Selbst wenn man alternative wege findet ein Spiel zu rendern. Vielleicht nicht mehr in festem intervall, sondern einem stetigen Datenstrom oder was auch immer. Sobald es sowas gegebn würde wäre deine 10 FPS voraussetzung bereits verletzt, da wir dann nicht mehr von FPS sprechen würden, sondern von einem völlig anderem Konzept Inhalte zu rendern und darzustellen.


Nein mir geht es nicht um 10 FPS, sondern um das, um was es allen geht, fluessiges spielen auch kuenftiger Games, die auch auf einer RTX 5... z.B spielbar waeren dank der KI, dass man nicht gleich eine neue GPU kaufen muss, die aber tatsaechlich nur 10% mehr Transistoren hat, weil Hardware Entwicklung an physikalische Grenzen stoesst.

Das Konzept, Spiele nicht mehr in festen Intervallen (Frames), sondern als
stetigen Datenstrom zu rendern, wird in der Forschung oft als "Continuous Rendering" oder "Tickless Rendering" bezeichnet.
Wir bewegen uns weg vom "Daumenkino-Prinzip" hin zu einer zeitlich hochauflösenden Abtastung, bei der die GPU einen kontinuierlichen Strom an Pixel-Updates liefert, die erst am Display zu einem flüssigen Erlebnis verschmelzen.

aufkrawall
2026-01-09, 17:02:54
Kann es sein, dass das neue DLSS(M) ein wenig mehr die CPU belastet, oder bilde ich mir das ein?

Kann ich nicht feststellen:
https://s1.directupload.eu/images/260109/temp/589vgq98.jpg (https://www.directupload.eu/file/d/9159/589vgq98_jpg.htm) https://s1.directupload.eu/images/260109/temp/jnto4ibl.jpg (https://www.directupload.eu/file/d/9159/jnto4ibl_jpg.htm)

Siehe CPU-Werte im Overlay. Man kann auf jeden Fall feststellen, dass das Gras mit K hässlich matscht und dem Bild gegenüber M deutlich Kontrast fehlt.

Gast
2026-01-09, 17:06:09
Habe in D4 mit meinem Oldscool 5700X ohne aktiviertem SMT gut und gerne jetzt mal in Städten oder bei viel Action 70-80% Auslastung und es kommt zu kleinen Rucklern, das hatte ich bislang noch nicht, weswegen ich ja SMT ausgelassen habe.


Nein du hast einen Treiber neuinstalliert, wodurch die Shader neu kompiliert werden müssen.

BlacKi
2026-01-09, 17:28:55
lieber 4k up mit M oder L, als 4k P mit K? ich finde den performanceverlust ein bisschen ärgerlich.

Relex
2026-01-09, 17:32:23
UP würde ich nur als Notnagel nutzen. Die Kompromisse beim Smearing (gerade in UE5) und das kaputtgehen einiger Grafikeffekte (hängt stark vom Spiel ab) wären mir zu groß.
Es muss schon einiges zusammenkommen, damit UP wirklich sauber funktioniert.

Alternativ kann man aber im Nvidia Treiber auch den Scaling Faktor auf z.B. 42% stellen. Das wäre rechnerisch die Stufe zwischen Performance und Ultra Performance. Das dürfte besser funktionieren.

Aber mit deiner 5070ti sehe ich das Problem ehrlich gesagt nicht. Wenns dir wirklich auf ein paar FPS ankommt, stell halt ein paar Details runter. Oder mach MFG an. Selbst 2x FG fühlt sich mit dem neuen Release auf meienr 4080 nochmal smoother an, was den Performanceverlust durch Preset M praktisch eh wieder ausgleicht. Die FPS gehen nominell zwar runter, aber wenns trotzdem smoother aussieht und die "fake" frames somit mehr "wert" sind, dann ist das kein wirklicher Verlust.

Wuge
2026-01-09, 17:37:13
Hab mal ein bisschen gebencht... DCS, immer gleiche Szene... 8k Auflösung eingestellt, wude aber wohl nicht übernommen, ist daher ehr 4K. 5090 mit sattem OC.

Die neuen Prsets sind ziemlich teuer. Frist ja fast den Performancevorsprung von DLSS auf. DLAA dann langsamer als MSAA.

Bildqualität ist mit K schon sehr gut. Kannste in VR jetzt DLSS machen, ich hab recht viel Oversampling da reicht dann DLSS P. Das war mit dem alten DLSS undenkbar, da gabs nur Matsch - selbst in Quality.
M hingegen brint mir keine bessere Bildqualität... sogar mehr Artefakte in bestimmten Szenarien. Bleibe erstmal bei K.

Läuft das auf den shadern (FP32) oder kommt da die tensorpower an ihre Grenzen?

Relex
2026-01-09, 17:40:46
Völlig logisch. 1-2 ms mehr Renderzeit pro Frame für das neue Model wirken sich bei hohen FPS viel stärker aus als bei niedrigen FPS. Kannste ganz einfach nachrechnen.

Wenn DLSS z.B. 2 ms Renderzeit auf deiner GPU braucht, dann könntest du z.B. gar nicht mehr als 500 FPS erreichen, selbst wenn der Frame des Spiels in 0,0001 ms berechnet werden würde.
oder anders gesagt, wenn bei den ca 250 FPS die du da hast die renderzeit bei 4ms ist, dann kosten 2 ms on top bereits 50% mehr Performance.
Wenn du hingegen bei 60 FPS (also 16,6ms) 2ms mehr Zeit für das neue DLSS Model brauchst, dann sind das nur ein paar prozent Verlust.


Kann ich nicht feststellen:
https://s1.directupload.eu/images/260109/temp/589vgq98.jpg (https://www.directupload.eu/file/d/9159/589vgq98_jpg.htm) https://s1.directupload.eu/images/260109/temp/jnto4ibl.jpg (https://www.directupload.eu/file/d/9159/jnto4ibl_jpg.htm)

Siehe CPU-Werte im Overlay. Man kann auf jeden Fall feststellen, dass das Gras mit K hässlich matscht und dem Bild gegenüber M deutlich Kontrast fehlt.


Krass, das sieht mit M wie pre-rendered aus.

Du sagtest doch man muss das NIS sharpen und das doppelte Mip Bias via config deaktivieren? Könntest du bitte mal posten was man da genau einstellen muss? Oder hast du nen Link? Hab mich bisher nie mit der Config befasst und alles default - hab die Next-Gen Version zwar nie durchgespielt, aber das steht noch auf dem Plan.

Platos
2026-01-09, 17:51:34
Kann ich nicht feststellen:
https://s1.directupload.eu/images/260109/temp/589vgq98.jpg (https://www.directupload.eu/file/d/9159/589vgq98_jpg.htm) https://s1.directupload.eu/images/260109/temp/jnto4ibl.jpg (https://www.directupload.eu/file/d/9159/jnto4ibl_jpg.htm)

Siehe CPU-Werte im Overlay. Man kann auf jeden Fall feststellen, dass das Gras mit K hässlich matscht und dem Bild gegenüber M deutlich Kontrast fehlt.

Welches ist das linke Bild mit 98 am Schluss in der URL ? Weil das Linke sieht viel natürlicher aus und das rechte einfach total überschärft.

Wuge
2026-01-09, 17:51:44
Ist der Zuschlag an Renderzeit etwa fix? Oder skaliert das mit der Auflösung.
In VR hab ich etwa 1/3 der FPS durch die viel höhere Auflösung. Lässt sich nur scheiße benchen, daher hab ich die 2D Variante gewählt.

Dorn
2026-01-09, 17:56:55
Also das neue DLSS 4.5 M preset mag ich aktuell überhaupt nicht.
Beispiel Red Dead Redemption 2 Preset M verbraucht in Quality mehr Watt als Nativ!

Oder Preset M in Performance liegt an der Grafikkarte gleich ca. 20 Watt mehr an als Preset K und meine Augen sehen jetzt keine großartigen Veränderungen.

Bin eh 46 und meine Augen sind nicht mehr die von vor 20 Jahren...

aufkrawall
2026-01-09, 18:00:43
Du sagtest doch man muss das NIS sharpen und das doppelte Mip Bias via config deaktivieren? Könntest du bitte mal posten was man da genau einstellen muss? Oder hast du nen Link? Hab mich bisher nie mit der Config befasst und alles default - hab die Next-Gen Version zwar nie durchgespielt, aber das steht noch auf dem Plan.
In Documents\The Witcher 3\dx12user.settings
TextureMipBias=0
NISSharpness=0

setzen. Das Spiel zeigt dann im Menü Texturen @low an. Ist aber eine Fehlanzeige, die sich nur auf das Bias bezieht. Das Spiel löscht dann auch TextureMipBias= aus der Config, wenn man sie nicht schreibschützt.
Das Spiel wendet halt zusätzlich ein weiteres Mip Bias mit DLSS/FSR auf den -2 Wert an. Es kann sein, dass die Mip-Anpassung für DLSS/FSR auch nicht ausnahmslos alle Texturen betrifft. Ist aber trotzdem der weitaus bessere Kompromiss als die völlige temporale Zerstörung durch die doppelte Verschiebung für die meisten anderen Texturen.
Und über den Treiber noch AF forcieren, verkackt das Spiel auch. :freak:

Welches ist das linke Bild mit 98 am Schluss in der URL ? Weil das Linke sieht viel natürlicher aus und das rechte einfach total überschärft.
Steht unten im HUD. Denke auch, dass es mit M nicht mehr neutral scharf ist, aber überschärft ist etwas anderes. Hast du nicht so einen Riesen-Oschi mit weniger als 140 ppi? Finde den Fehler.

Relex
2026-01-09, 18:05:30
Ist der Zuschlag an Renderzeit etwa fix? Oder skaliert das mit der Auflösung.
In VR hab ich etwa 1/3 der FPS durch die viel höhere Auflösung. Lässt sich nur scheiße benchen, daher hab ich die 2D Variante gewählt.


Die kosten steigen abhängig von der Auflösung, ja. Ein fertiges Bild in 4K oder 8K via "AI" zusammenzubasteln ist natürlich ein viel großerer Aufwand, als eines in 1080p oder 1440p zu erstellen. Völlig unabhängig von der Auflösung in der das Spiel intern vorm upscaling läuft. Auch Frame Generation ist in 4K und 8K deutlich teurer als in 1080p oder 1440p, weil eben auch das erzeugen eines generierten 8K Frames mehr Leistung erfordert und mehr Zeit braucht. Es sind schlichtweg mehr Pixel die erzeugt werden müssen, auch wenn sie nicht via rasterizing berechnet werden sondern über einen AI Algorithmus, ist es teurer.

Und ja, die kosten sind für deine GPU natürlich für jede Auflösung und jeden Algorithmus fix, was zwangsläufig eben dazu führt, dass sich eine steigerung dieser fixen kosten mit dem neuen Modell bei hohen FPS stärker auf die FPS auswirkt, als bei niedrigen FPS, da die Kosten anteilig an der gesamten frametime größer werden je höher die FPS sind. Die kosten skalieren also logischerweise nicht mit den FPS, sondern praktisch entgegengesetzt. Je kürzer die Frametime, desto "teurer" sind X ms extra renderzeit.


In Documents\The Witcher 3\dx12user.settings
TextureMipBias=0
NISSharpness=0

setzen. Das Spiel zeigt dann im Menü Texturen @low an. Ist aber eine Fehlanzeige, die sich nur auf das Bias bezieht. Das Spiel löscht dann auch TextureMipBias= aus der Config, wenn man sie nicht schreibschützt.
Das Spiel wendet halt zusätzlich ein weiteres Mip Bias mit DLSS/FSR auf den -2 Wert an. Es kann sein, dass die Mip-Anpassung für DLSS/FSR auch nicht ausnahmslos alle Texturen betrifft. Ist aber trotzdem der weitaus bessere Kompromiss als die völlige temporale Zerstörung durch die doppelte Verschiebung für die meisten anderen Texturen.
Und über den Treiber noch AF forcieren, verkackt das Spiel auch. :freak:



Firma dankt! :)
<--*spieldownloadenundgleichausprobieren*

Thomas1973
2026-01-09, 18:29:36
Wir koennen die Physik derzeit noch nicht umgehen, daher brauchen wir (AI)Software Loesungen.

Quanten/FTL Rechner haben wir (noch) nicht



Ja absolut, weil dieser Weg schon jetzt vorgezeichnet ist. Alle forschen in diese Richtung, weil es keine Alternativen gibt. Reflex 2 mit entkoppelter Kammer und DLSS 4.5, dann kommt Tickless Rendering, der das "Daumenkino" Rendering abloest. Das alles basiert auf KI, die man dafür trainieren kann. Ich gehöre auch zu PCVR Fans, und darür braucht man mehr Leistung als für PC Gaming.

Tobalt
2026-01-09, 18:38:26
Tickless bezeichnet eher die asynchronous Bearbeitung von input, oder? Ich kenne dein Konzept als frameless und bin ein Fan.

Dafür braucht es vor allem andere engines, die nur noch szenen vektoren berechnen und dann einzelne pixel snapshotten. Das ist IMO noch nicht gelöst.

Aich braucht es idealerweise frameless displays, wo einzelne Bildpunkte nur aufblitzen. das ist im Prinzip möglich aber auch hier sagen Leute wie Mark Rehjon dass man dabei soviel overhead erzeugt, dass das gamze so Ineffizient wird, dass man trotz der extrem hohen Effizienz von frameless netto keine Vorteile mehr erzielt.

Ich halte es trotzdem für den richtigen Weg, weil es einfach gegenüber bruteforce unnatürlichem Frame Rendering unausweichlich ist

Platos
2026-01-09, 19:23:19
Steht unten im HUD. Denke auch, dass es mit M nicht mehr neutral scharf ist, aber überschärft ist etwas anderes. Hast du nicht so einen Riesen-Oschi mit weniger als 140 ppi? Finde den Fehler.

Habs zuerst auf dem Handy mit Zoom angeschaut, da sieht es überschärft aus (weil es auch ziemlich stark geschärft ist). Aber jetzt, wo ich es auf dem Monitor ansehe, siehts nur noch "nicht mehr neutral scharf" aus. Das triffts wohl besser. Fällt nicht ganz so krass auf, auf dem 4k Monitor mit 100% Zoom. Sieht dann eig. ganz gut aus auf den ersten Blick. Ich müsste es aber zuerst mal selber testen, um mir ein eigenes Bild zu machen und auch in mehr als nur einem Spiel. Dürfte vlt. schon ganz nett sein in vielen Spielen. Aber den anscheinenden Perofmanceverlust muss man dann jenachdem mit einbeziehen ins Fazit. Ich muss es mal in ein paar Spielen testen. Sieht vielversprechend aus, aber ich muss es in Bewegung sehen.

Und ja, ich habe ein 38" 2160p Monitor (16:9). Das tut aber für die Bewertung von Überschärfung nichts zur Sache. Mit 1440p 27" hat man immer noch weniger PPI und das Szenario ist somit nicht gerade unrealistisch. Ich sitze ja nicht 50cm vor ner 65" Glotze. Im Gegenteil: Man kann mit 38" 2160p sehr gut Video/Games analysieren. Eher besser, als mit meinem 27" 4k. Da sehe ich schneller die Fehler.

aufkrawall
2026-01-09, 19:40:21
Und ja, ich habe ein 38" 2160p Monitor (16:9). Das tut aber für die Bewertung von Überschärfung nichts zur Sache.

Für die Bewertung ob neutral oder nicht, tatsächlich nicht, objektiv stimmt das. Allerdings ist es halt so, dass sowohl durch steigende Auflösung (bei gleichem Skalierungsfaktor), als auch höhere Pixeldichte diverse Bildartefakte wesentlich erträglicher werden. Ich glaub, auf einem 1440p-Monitor wär ich nach wie vor nicht extrem begeistert von etwa RR.

Mir ist bislang ohne in-game Sharpen jedenfalls kein Ringing aufgefallen, und es verfälscht nicht lokale Bildinhalte so seltsam selektiv wie DLDSR. Etwas neutraler wär besser, aber als insgesamt eine deutliche Verbesserung gegenüber K empfinde ich es trotzdem. Wenigstens ist es scharf. Das Transformer-RR sieht mit Sharpen für vergleichbare (oder überhaupt mehr) Schärfe imho "komischer" aus.

Relex
2026-01-09, 19:52:48
Das komische ist halt, dass in meinem SSAA Test mit TombRaider Preset M tendenziell sogar noch nen tick zu unscharf war und keineswegs Details zu stark betont hätte.

Gut, 4xSSAA taugt jetzt auch nicht als absolute Referenz, da noch genug Artefakte sichtbar sind, aber ich glaube ich mach morgen nochmal nen Test mit 8K DSR + 4xSSAA. Oder kann man das noch zusätzlich via NV Inspector auf 8xSSAA overriden?

Jedenfalls wäre man dann noch näher an einer möglichen Referenz und könnte nach einem downsampling des 8K+8xSSAA Bildes auf 4K direkt wieder mit DLSS vergleichen.

Thomas1973
2026-01-09, 20:02:19
:uup::uup:Tickless bezeichnet eher die asynchronous Bearbeitung von input, oder? Ich kenne dein Konzept als frameless und bin ein Fan.

Dafuer braucht es vor allem andere engines, die nur noch szenen vektoren berechnen und dann einzelne pixel snapshotten. Das ist IMO noch nicht gelöest.

Aich braucht es idealerweise frameless displays, wo einzelne Bildpunkte nur aufblitzen. das ist im Prinzip moeglich aber auch hier sagen Leute wie Mark Rehjon dass man dabei soviel overhead erzeugt, dass das gamze so Ineffizient wird, dass man trotz der extrem hohen Effizienz von frameless netto keine Vorteile mehr erzielt.

Ich halte es trotzdem fuer den richtigen Weg, weil es einfach gegenueber bruteforce unnatuerlichem Frame Rendering unausweichlich ist

:uup: Es heisst Continuous Rendering oder frameless.

crux2005
2026-01-09, 20:40:44
Hier ein random Youtuber damit sich jemand darüber beschweren/aufregen kann:

G_EQZqBKH84

4.5 Performance Tests auf 5070,4070S,3090,2080TI

Blackwell setzt sich nicht ab gegen die 4070S.

https://youtu.be/36zbGPECzDI

Wo ist der versprochene uArch Vorteil NVidia? Wo?

Relex
2026-01-09, 21:17:57
In Documents\The Witcher 3\dx12user.settings
TextureMipBias=0
NISSharpness=0

setzen. Das Spiel zeigt dann im Menü Texturen @low an. Ist aber eine Fehlanzeige, die sich nur auf das Bias bezieht. Das Spiel löscht dann auch TextureMipBias= aus der Config, wenn man sie nicht schreibschützt.
Das Spiel wendet halt zusätzlich ein weiteres Mip Bias mit DLSS/FSR auf den -2 Wert an. Es kann sein, dass die Mip-Anpassung für DLSS/FSR auch nicht ausnahmslos alle Texturen betrifft. Ist aber trotzdem der weitaus bessere Kompromiss als die völlige temporale Zerstörung durch die doppelte Verschiebung für die meisten anderen Texturen.
Und über den Treiber noch AF forcieren, verkackt das Spiel auch. :freak:



Kleine Ergänzung. Wenn man im Treiber 16x AF forciert wird das Negative LOD Bias auf Clamp gesetzt. Das muss aber auf Erlauben/Allow stehen, sonst sieht das Spiel aus wie ein Wassergemälde.

Aber mit den Settings und dem neuen DLSS Model sieht es wirklich extrem clean aus.

Hast du auf deinen Screenshots eigentlich RT tatsächlich komplett aus? Weil ich komme ebenfalls mit DLSS Performance auf 110-120 FPS, allerdings mit RT an.
Aber irgendwie sieht das game ohne RT bei mir deutlich schlechter aus als auf deinen Bildern. Entweder hab ich ne schlechte Tageszeit erwischt oder du hast noch andere Tweaks aktiv?

aufkrawall
2026-01-09, 21:22:52
Kleine Ergänzung. Wenn man im Treiber 16x AF forciert wird das Negative LOD Bias auf Clamp gesetzt. Das muss aber auf Erlauben/Allow stehen, sonst sieht das Spiel aus wie ein Wassergemälde.

Afair hat die Clamp-Option keinen Effekt. Könnte man mit OptiScaler auch nochmal überprüfen, der zeigt die Range der genutzten Biase in seinem Overlay an.
Wenn man im Treiber auf HQ-Texturfilterung stellt (was ein Muss für DLSS ist, weil dann mit D3D10-12 ein höherqualitativeres Mip-Bias genutzt wird), wird aber sowieso auf allow gestellt.


Hast du auf deinen Screenshots eigentlich RT tatsächlich komplett aus?
Kein RT, kann man mit der 5070 in der Schrotthaufen-Engine vergessen.

Platos
2026-01-09, 21:25:19
Für die Bewertung ob neutral oder nicht, tatsächlich nicht, objektiv stimmt das. Allerdings ist es halt so, dass sowohl durch steigende Auflösung (bei gleichem Skalierungsfaktor), als auch höhere Pixeldichte diverse Bildartefakte wesentlich erträglicher werden. Ich glaub, auf einem 1440p-Monitor wär ich nach wie vor nicht extrem begeistert von etwa RR.

Mir ist bislang ohne in-game Sharpen jedenfalls kein Ringing aufgefallen, und es verfälscht nicht lokale Bildinhalte so seltsam selektiv wie DLDSR. Etwas neutraler wär besser, aber als insgesamt eine deutliche Verbesserung gegenüber K empfinde ich es trotzdem. Wenigstens ist es scharf. Das Transformer-RR sieht mit Sharpen für vergleichbare (oder überhaupt mehr) Schärfe imho "komischer" aus.

Ja, das meinte ich. Ich kann z.B bei Spielfilm-Bearbeitung besser ein Überschärfen oder sonst Artefakte erkennen oder bei Upscaling usw, eben darum. Also ja, höhere Pixeldichte (und einfach kleinere Pixel) führt natürlich dazu, dass man Dinge weniger sieht. Umgekehrt natürlich anders rum. Beim Gaming natürlich nicht unbedingt von Vorteil, aber mit mehr Pixel erschlagen ist auch nicht die (effizienteste) Lösung (bin ja schon bei 2160p).

Aber sieht vielversprechend aus. Ich sehs mir an.

Relex
2026-01-09, 21:33:07
Afair hat die Clamp-Option keinen Effekt. Könnte man mit OptiScaler auch nochmal überprüfen, der zeigt die Range der genutzten Biase in seinem Overlay an.
Wenn man im Treiber auf HQ-Texturfilterung stellt (was ein Muss für DLSS ist, weil dann mit D3D10-12 ein höherqualitativeres Mip-Bias genutzt wird), wird aber sowieso auf allow gestellt.


Kein RT, kann man mit der 5070 in der Schrotthaufen-Engine vergessen.

Hmm ne, bei mir stellt die Nvidia App direkt auf Clamp, sobald 16x AF eingestellt ist. Das war aber mMn. schon immer so. Auch im nvidia Control Panel. Aber wahrscheinlich nutzt du den NV inspector?


Und ja, jetzt seh ichs. Hab ne schlechte Tageszeit erwischt. Da sahs ohne RT echt seltsam aus. Bei Sonnenschein siehts ohne RT wie auf deinen Bildern aus.

aufkrawall
2026-01-09, 21:42:26
Hmm ne, bei mir stellt die Nvidia App direkt auf Clamp, sobald 16x AF eingestellt ist. Das war aber mMn. schon immer so. Auch im nvidia Control Panel. Aber wahrscheinlich nutzt du den NV inspector?
Stimmt, verwechselt. Ist aber trotzdem egal, weil die Clamp-Option nicht funktioniert. Steht im Treiber auf Clamp, OptiScaler zeigt trotzdem -4 an:
https://s1.directupload.eu/images/260109/temp/s95qg2rj.png (https://www.directupload.eu/file/d/9159/s95qg2rj_png.htm)

-4 ist dann der Wert, wenn man es nicht in der Config auf 0 stellt. Im Inventar greift auch kein DLSS, da sieht man dann das Monster-Gebrösel entsprechend.
-4 ;D

crux2005
2026-01-09, 21:45:27
Stehe auf dem Schlauch, ist der Wert TextureMipBias=0 nötig mit DLSS? oder nur mit 16xAF im Treiber?

aufkrawall
2026-01-09, 21:52:01
Stehe auf dem Schlauch, ist der Wert TextureMipBias=0 nötig mit DLSS? oder nur mit 16xAF im Treiber?
Du stellst es in der Config auf 0, damit das Spiel den korrekten Wert wie -2 für DLSS/FSR Performance nimmt. Sonst resultiert es durch doppelte Verschiebung in den falschen Wert -4. AF zusätzlich erzwingen, weil das Spiel auch dafür zu doof ist.
Kannst du auch mit OptiScaler in anderen Spielen überprüfen. -4 ist kompletter Wahnsinn, kein Spiel wird mit Performance mit nennenswert weniger als -2 laufen.

Nur für XeSS stellt man es in der Config nicht auf null, weil die Dödel es offenbar dafür vergessen haben. Oder sie haben es vergessen, es für DLSS/FSR abzuschalten. Whatever, hingekackt und hingeschissen.

crux2005
2026-01-09, 21:57:23
Für Quality oder Balanced gilt das nicht? :D Verstehe, danke. :up:

aufkrawall
2026-01-09, 22:01:41
Für Quality oder Balanced gilt das nicht?
Für alle Upscaling-Stufen mit DLSS/FSR, es sind bei dem Spiel sonst immer -2 "zu viel on top".

Relex
2026-01-09, 22:18:28
Stimmt, verwechselt. Ist aber trotzdem egal, weil die Clamp-Option nicht funktioniert. Steht im Treiber auf Clamp, OptiScaler zeigt trotzdem -4 an:
https://s1.directupload.eu/images/260109/temp/s95qg2rj.png (https://www.directupload.eu/file/d/9159/s95qg2rj_png.htm)

-4 ist dann der Wert, wenn man es nicht in der Config auf 0 stellt. Im Inventar greift auch kein DLSS, da sieht man dann das Monster-Gebrösel entsprechend.
-4 ;D


Hab den Fehler gefunden.

Mit AF auf Quality wird Clamp auch tatsächlich umgesetzt. Bias wird wahrscheinlich auf 0 gesetzt, was für DLSS P oder DLSS UP viel zu wenig ist, also Matsch.

Mit AF auf HighQuality wird Clamp ignoriert und es sieht exakt genauso aus wie mit Allow.

Ich hatte den Treiber vor einigen Wochen komplett neu installiert und vergessen auf HQ AF zu stellen, deswegen ist das jetzt aufgefallen.


Und ja, die Config hab ich natürlich angepasst und schreibgeschützt, nachdem ich meine Settings ingame eingestellt habe. Das passt.

Lurtz
2026-01-09, 23:02:40
Hier ein random Youtuber damit sich jemand darüber beschweren/aufregen kann:

https://youtu.be/G_EQZqBKH84

Gerne:
You can use M for higher quality modes as well, but the cost begins to rise, and at that point, K with a higher quality level starts to look better.

Das Fazit kann man auch nur ziehen, wenn man jetzt ein Jahr lang die Fuckups von K nicht mitbekommen hat, dann frage ich mich aber, wieso man solche Videos macht.
Dass das ganze Video kein Spiel mit der weitverbreitetsten Engine am Markt enthält, dafür lauter Sony-Ports mit Custom Engines und zwei Mal Decima, ist dann immerhin konsequent :uup:

Relex
2026-01-10, 01:42:14
So, hab jetzt mal nochmal mit DSR die Auflösung in TombRaider gepushed. Diesmal 7K mit 4xSSAA, was effektiv 14K entspricht. 8K mit 4x SSAA hat meine Karte leider nicht gepackt wegen des VRAM. :freak:

14K Referenz downsampled @ 4K | 4K DLSS Q | 4K DLSS P | https://imgsli.com/NDQwOTkz
https://i.ibb.co/Xxhy3yVz/14K-4K.png (https://ibb.co/Xxhy3yVz) https://i.ibb.co/FqJmjDZN/4-K-DLSS-Q.png (https://ibb.co/FqJmjDZN) https://i.ibb.co/HD2r6GdR/4-K-DLSS-P.png (https://ibb.co/HD2r6GdR)


14K Referenz downsampled @ 4K | 4K DLSS Q | 4K DLSS P | https://imgsli.com/NDQwOTkw
https://i.ibb.co/rLrWBMp/14K-4K.png (https://ibb.co/rLrWBMp) https://i.ibb.co/qYRdtYdb/4-K-DLSS-Q.png (https://ibb.co/qYRdtYdb) https://i.ibb.co/XxMvSkj8/4-K-DLSS-P.png (https://ibb.co/XxMvSkj8)


14K Referenz downsampled @ 2K | 2K DLSS Q | https://imgsli.com/NDQwOTkx
https://i.ibb.co/gFF4Sx9m/14K-2K.png (https://ibb.co/gFF4Sx9m) https://i.ibb.co/23fY4Hr0/2-K-DLSS-Q.png (https://ibb.co/23fY4Hr0)


Erkenntnis ist praktisch die selbe wie beim letzten mal auch. Preset M kommt sehr nah an die Referenz. Den Vergleich mit K hab ich mir gespart. Sieht man ja auch schon im letzten Vergleich. Kontrast und Schärfe von Preset M passen sehr gut, wobei Preset M immernoch einen Tick zu unscharf ist. Details fehlen auch noch im Vergleich zur Referenz, wobei das teilweise wohl auch daran liegt, dass das Spiel das LoD Bias nicht für alle Texturen korrekt setzt. Trotzdem insgesamt ziemlich nah dran.

SamLombardo
2026-01-10, 08:22:43
So, hab jetzt mal nochmal mit DSR die Auflösung in TombRaider gepushed. Diesmal 7K mit 4xSSAA, was effektiv 14K entspricht. 8K mit 4x SSAA hat meine Karte leider nicht gepackt wegen des VRAM. :freak:

14K Referenz downsampled @ 4K | 4K DLSS Q | 4K DLSS P | https://imgsli.com/NDQwOTkz
https://i.ibb.co/Xxhy3yVz/14K-4K.png (https://ibb.co/Xxhy3yVz) https://i.ibb.co/FqJmjDZN/4-K-DLSS-Q.png (https://ibb.co/FqJmjDZN) https://i.ibb.co/HD2r6GdR/4-K-DLSS-P.png (https://ibb.co/HD2r6GdR)


14K Referenz downsampled @ 4K | 4K DLSS Q | 4K DLSS P | https://imgsli.com/NDQwOTkw
https://i.ibb.co/rLrWBMp/14K-4K.png (https://ibb.co/rLrWBMp) https://i.ibb.co/qYRdtYdb/4-K-DLSS-Q.png (https://ibb.co/qYRdtYdb) https://i.ibb.co/XxMvSkj8/4-K-DLSS-P.png (https://ibb.co/XxMvSkj8)


14K Referenz downsampled @ 2K | 2K DLSS Q | https://imgsli.com/NDQwOTkx
https://i.ibb.co/gFF4Sx9m/14K-2K.png (https://ibb.co/gFF4Sx9m) https://i.ibb.co/23fY4Hr0/2-K-DLSS-Q.png (https://ibb.co/23fY4Hr0)


Erkenntnis ist praktisch die selbe wie beim letzten mal auch. Preset M kommt sehr nah an die Referenz. Den Vergleich mit K hab ich mir gespart. Sieht man ja auch schon im letzten Vergleich. Kontrast und Schärfe von Preset M passen sehr gut, wobei Preset M immernoch einen Tick zu unscharf ist. Details fehlen auch noch im Vergleich zur Referenz, wobei das teilweise wohl auch daran liegt, dass das Spiel das LoD Bias nicht für alle Texturen korrekt setzt. Trotzdem insgesamt ziemlich nah dran.
Danke @Relex. Was mal interessant wäre: L (ist ja wohl das Forderndste) vs. M bei DLSSQ. Irgendwie findet nan zu diesem Vergleich im Netz gar nichts. Hast du das evtl schon mal probiert? Unter Umständen schlägt L hier M nochmal (bei höheren Kosten). Wäre dann natürlich wieder ein Tradeoff aber bei anspruchsloseren Spielen wie Baldur's Gate 3 könnte man dann L nehmen. Wenn es denn so wäre;).

00-Schneider
2026-01-10, 10:36:42
Danke @Relex. Was mal interessant wäre: L (ist ja wohl das Forderndste) vs. M bei DLSSQ. Irgendwie findet nan zu diesem Vergleich im Netz gar nichts. Hast du das evtl schon mal probiert? Unter Umständen schlägt L hier M nochmal (bei höheren Kosten). Wäre dann natürlich wieder ein Tradeoff aber bei anspruchsloseren Spielen wie Baldur's Gate 3 könnte man dann L nehmen. Wenn es denn so wäre;).


Schau mal hier:

gVQC0KyzucI

FEdKM98n5pg

--------------

Soweit ich sehe, hat L in den Spielen keine nennenswerten Vorteile ggü. M.

Relex
2026-01-10, 10:36:49
Preset L erzeugt grundsätzlich erstmal das gleiche Bild.

Preset L hat vorteile bei Rauschunterdrückung und temporaler stabilität. Wenn Oberflächen zu flimmern oder rauschen neigen, wird das besser unterdrückt. Disocclusion artefakte werden auch deutlich stärker unterdrückt, aber potenziell auf Kosten von Smearing/Bildschärfe.


https://i.ibb.co/fVsTCPZy/Screenshot-2026-01-10-102553.png (https://ibb.co/fVsTCPZy) https://i.ibb.co/TqHRXQ7m/Screenshot-2026-01-10-102612.png (https://ibb.co/TqHRXQ7m)


Preset M ist schon die beste Wahl, nicht nur für Performance, auch für Bildqualität.
Nur wenn man weiterhin zu viel flimmern und rauschen sieht, kann man Preset L ausprobieren. Manchmal beseitigt es oder reduziert es diese Probleme, manchmal bringt es aber auch gar nichts.

Grundsätzlich ist das Anti-Aliasing auch gleich gut. Wenn also in bewegung noch irgendwelche Kanten flimmern oder unruhig sind, dann wird das mit Preset L auch nicht besser geglättet. Vorteil liegt wie gesagt eher bei Disocclusion und Rauschen. Die Rekonstruktion und das Anti-Aliasing von Geometrie sind gleich.
Da flimmern und rauschen vor allem im Ultra Performance Modus sehr ausgeprägt sind, wahrscheinlich auch durch die art und weise wie der Jitter dann funktionieren soll, Mip-Map-Bias usw, wirkt gerade dort Preset L dann ziemliche Wunder und erfasst genau die Artefakte die dort dann entstehen.


Solange ich es nicht besser weiß, kann man sich Preset L wahrscheinlich vorstellen, wie ein Preset M, das noch mehr Bilder verrechnet und eine längere frame history akkumuliert, eben auf Kosten von Smearing. GGf sogar intelligent an den Stellen wo der Algorithmus "weiß", dass er unsicher ist? Aber keine Ahnung... reine Mutmaßung mit ganz viel Halbwissen.

00-Schneider
2026-01-10, 10:48:49
https://i.ibb.co/fVsTCPZy/Screenshot-2026-01-10-102553.png (https://ibb.co/fVsTCPZy) https://i.ibb.co/TqHRXQ7m/Screenshot-2026-01-10-102612.png (https://ibb.co/TqHRXQ7m)


Hab die Bilder mal geklaut und bei imgsli hochgeladen:

https://imgsli.com/NDQxMTAy

Vegetation ist minimal schärfer bei M, und seltsamerweise hat M minimal mehr Kontrast(siehe dunkle Bereiche) ggü. L. Sonst sehe ich keine Unterschiede. Größter Unterschied sind 110fps bei M und 97fps bei L.

horn 12
2026-01-10, 10:50:55
@Relex

Wie viel besser ist nun DLSS 4.5 gegenüber FSR 4.01
Konntest du da bitte Vergleich aufstellen?

Relex
2026-01-10, 11:07:51
Das hab ich bereits hier getan: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13865192&postcount=8630

Da hab ich 4x SSAA vs Preset K vs Preset M getestet.

Ansonsten einfach selbst vergleichen. Entweder einfach ein Savegame laden, die Kamera nicht bewegen und einen Screenshot machen, dann spiel mit anderem Preset Override neustarten, wieder savegame laden und nochmal nen Screenshot machen. Schon habt ihr zwei direkt vergleichbare Bilder.
Alternativ Optiscaler nutzen, dann kann man ingame im Optiscaler menü die Presets wechseln.

Ist jetzt echt kein Hexenwerk ;)

Bei - keine Ahnung - 90-95% Marktanteil von nvidia werd ich jetzt nicht der einzige hier im Forum mit ner GeForce Karte sein.


EDIT: Jetzt lese ich es erst, du meintest FSR.
Dann vergiss was ich geschrieben habe. FSR vergleich ist ohne zweite AMD GPU natürlich nicht möglich.


Ich hab gerade ne halbe Stunde Tomb Raider mit Preset M gespielt und dann mal auf K zurück gewechselt. Was für ne verschwommene Scheiße ist das bitte :D
Es ist echt krass wie stark unsere Augen auf den typischen TAA Blur trainiert sind so dass selbst K letztes Jahr noch super scharf wirkte. Aber jetzt im Vergleich mit M merkt man erst wie schmierig und unsauber das immernoch war. Wahnsinn...

SamLombardo
2026-01-10, 11:26:08
@00-Schneider und Relex, vielen Dank! Wirklich sehr interessant.

von Richthofen
2026-01-10, 12:05:23
Bin bisher nicht so überzeugt von den Vorteilen dieser neuen Iteration, mal ausgenommen der wohl verbesserten BQ.

Einige Test mit Kumpel angestellt:

Seine RTX 4090 unter DLAA in TLOU 2: Preset M liefert ca. 20% bis 25% geringere Performance ggü. DLSS3 (Ori. im Spiel)

Gegencheck mit 5070 Ti unter DLAA in Stalker 2: ebenso über 20% weniger Druck im Vgl. mit DLSS3 (Ori. im Spiel).
Dazu reproduzierbar gut Mehrverbrauch: 195W->215W (UV) - Kann das wer bestätigen?

Die Kosten für nur etwas mehr Quali sind (zu?) hoch.

Hakim
2026-01-10, 12:12:30
Welche Version nutzt eigentlich das neue Warzone seit dem Update? In den Optionen hat man die Wahl zwischen CNN und Transformer, Transformer kostet bei meiner kleinen Karte viel Performance aber sieht halt deutlich stabiler aus. Selbst Transformer "Leistung" deutlich stabiler als das CNN (vermutlich 3.0?) auf "Qualität" bei WQHD

rumpeLson
2026-01-10, 12:16:59
Bin bisher nicht so überzeugt von den Vorteilen dieser neuen Iteration, mal ausgenommen der wohl verbesserten BQ.

Einige Test mit Kumpel angestellt:

Seine RTX 4090 unter DLAA in TLOU 2: Preset M liefert ca. 20% bis 25% geringere Performance ggü. DLSS3 (Ori. im Spiel)

Gegencheck mit 5070 Ti unter DLAA in Stalker 2: ebenso über 20% weniger Druck im Vgl. mit DLSS3 (Ori. im Spiel).
Dazu reproduzierbar gut Mehrverbrauch: 195W->215W (UV) - Kann das wer bestätigen?

Die Kosten für nur etwas mehr Quali sind (zu?) hoch.
Klingt alles soweit plausibel bis auf das Fazit: M Balanced/Quality sollte schneller laufen und besser aussehen als DLAA DLSS 3.
Ich finde es mit Presets M schon "schwer" Unterschiede zwischen Performance und Quality auszumachen, daher ist DLAA für mich etwas outdated :)

von Richthofen
2026-01-10, 12:24:25
Mich triggert meist die Vegetation und gerade in Stalker hängt kein Blatt am Baum. Die Rekonstruktion von feinen Strukturen,wie etwa Ästen, wenn man die Kamera darauf zubewegt ist mit DLAA, ungeachtet des Presets, einfach glaubwürdiger.
Und falls die Performance fehlt: FG zugeben - ich weiss nicht jedermanns Sache..

Lurtz
2026-01-10, 13:24:52
Daniel stellt hier auch nochmal klar, dass M aufgrund der Performance für Performance empfohlen wird, aus keinem anderen Grund:
TLl3BeKpbZQ

Keine Ahnung wie man auf das Gegenteil kommen kann.

robbitop
2026-01-10, 13:28:59
Bin bisher nicht so überzeugt von den Vorteilen dieser neuen Iteration, mal ausgenommen der wohl verbesserten BQ.

Einige Test mit Kumpel angestellt:

Seine RTX 4090 unter DLAA in TLOU 2: Preset M liefert ca. 20% bis 25% geringere Performance ggü. DLSS3 (Ori. im Spiel)

Gegencheck mit 5070 Ti unter DLAA in Stalker 2: ebenso über 20% weniger Druck im Vgl. mit DLSS3 (Ori. im Spiel).
Dazu reproduzierbar gut Mehrverbrauch: 195W->215W (UV) - Kann das wer bestätigen?

Die Kosten für nur etwas mehr Quali sind (zu?) hoch.

Ist halt ordentlich mehr Overhead bei M vs K. Vs CNN wird die Differenz noch größer sein. ~40% mehr compute in ms pro frame M vs K auf Ada laut dem programming guide. Und K war ja auch schon teurer als E. Da habe ich keine Daten gefunden. Insgesamt kommt man da mit Ada/Blackwell sicher auf +40…60% mehr compute time pro Frame für M vs E. (L ist noch intensiver und DLSS-RR mit Transformer (D und E) ischerlich noch mehr)

Je höher die fps desto mehr der impact für den konstanten Anteil für compute pro frame. (weil der Anteil der Frametime für das rendering relativ zum immer gleich großen Anteil für DLSS abnimmt)

Man könnte sagen mit steigenden fps nähert sich der Gesamtanteil des Performancehits dann asymptotisch diesen 50-60% an bzw geht asymptotisch gegen 0 je kleiner die fps sind.

robbitop
2026-01-10, 13:33:45
Mich triggert meist die Vegetation und gerade in Stalker hängt kein Blatt am Baum. Die Rekonstruktion von feinen Strukturen,wie etwa Ästen, wenn man die Kamera darauf zubewegt ist mit DLAA, ungeachtet des Presets, einfach glaubwürdiger.
Und falls die Performance fehlt: FG zugeben - ich weiss nicht jedermanns Sache..
Wie Tom Petersen schon sagt: FG erhöht nicht die Performance sondern macht nur Animationen smoother. Einfach weil ein nicht unwesentlicher Teil schlechter Performance durch FG nicht besser wird. FG ist eher eine Maßnahme um Bildqualität anzuheben durch höhere Bewegtschärfe und flüssigere Animation.

von Richthofen
2026-01-10, 13:52:49
Mir hilft es auch die Performance der mittlerweile recht angestaubten CPU in NPC-Gebieten und dadurch erzeugten FT-Schluckauf abzumildern.

Gast
2026-01-10, 14:01:22
Die Kosten für nur etwas mehr Quali sind (zu?) hoch.

Es macht keinen Sinn auf gleicher Renderauflösung zu vergleichen, der einzig sinnvolle Vergleich ist auf gleicher Bildqualität.

Wenn nun Performance die Qualität erreicht für die man früher Quality brauchte ist es immer noch schneller.

robbitop
2026-01-10, 15:45:09
Mir hilft es auch die Performance der mittlerweile recht angestaubten CPU in NPC-Gebieten und dadurch erzeugten FT-Schluckauf abzumildern.
ZB Frametimespikes bekommen FGs auch nicht weg. Shit in shit out.
FG ist nicht zum primär Richten schlechter Performance da.

Platos
2026-01-10, 15:52:35
Also was ist denn bisher so die anstrebenswerte Reihenfolge (die Frage richtet sich an die, die selbst getestet haben)?

1: Dlss Quality M (DLAA und/oder DLDSR ablöser?)
2: DLSS Balanced M oder Quality K ?
3: DLSS Perfomance M
4: DLSS Perfomance K

Wie sieht da eure Reihenfolge aus? Alles darunter würde ich sowieso nicht empfehlen/nutzen.

von Richthofen
2026-01-10, 16:54:51
ZB Frametimespikes bekommen FGs auch nicht weg. Shit in shit out.
FG ist nicht zum primär Richten schlechter Performance da.
Mag sein, der Bildlauf fühlt sich in derartigen Szenen trotzdem runder an.

Preset M frisst einfach richtig Performance. Gerade in Hell is us probiert. Standardmäßig aktiviert wird dort Preset E (DLSS 3.7?)
Preset M drüberbügeln und sofort wird das Game in 4K+DLSSQ, alles hoch auf 5070 ti merklich langsamer gerendert, so das man dlss-pixel verringern oder FG zugeben muss.
Wenn Bildfehler nicht zu sehr stören und die Performance kritisch ist, seh ich Preset K als rundere Lösung aktuell.

aufkrawall
2026-01-10, 16:58:19
Es kostet bei um die 100fps 8% gegenüber K. Bei niedrigeren fps wird es weniger sein, bei höheren mehr. Lässt sich nicht über verschiedene fps so einfach pauschalisieren.

00-Schneider
2026-01-10, 17:22:10
7MrK3LC7qzo


Einfach nur insane was NVidia hier abgeliefert hat. :eek:

Relex
2026-01-10, 18:49:21
Ich glaub er sollte mal die Schärfe runter drehen...

Hier, so sieht das mit Preset L im UP Modus aus. Deutlich sauberer als im Video.

Das einzige was nervt ist, dass diverse Rasterizer Effekte wie AO und SSR sowie das LoD unruhiger werden. Mit Pathtracing ist das alles weg, da sieht man dann erst wie clean Preset L arbeitet, aber dafür gibts ohne RR dann RT Boiling auf Oberflächen.

https://i.ibb.co/8DM7KPX1/Screenshot-2026-01-10-183711.png (https://ibb.co/8DM7KPX1)https://i.ibb.co/LDnPp0tJ/Screenshot-2026-01-10-183533.png (https://ibb.co/LDnPp0tJ)https://i.ibb.co/Xf1rkcyC/Screenshot-2026-01-10-183142.png (https://ibb.co/Xf1rkcyC)

Ach ja, die bilder sind übrigens alle bei voller Fahrt entstanden. Sieht man am Tacho links unten. Also quasi worst case für den Upscaler.

DerGerd
2026-01-10, 19:25:53
Ist 4.5 einfach aktiv, wenn ingame auf 4 gestellt ist und ich den neusten Treiber habe?

Ex3cut3r
2026-01-10, 19:33:27
Nein, am besten in der Nvidia Beta App dann auf Preset M stellen, M ist 4.5. K ist 4.0

Lurtz
2026-01-10, 20:53:14
https://youtu.be/7MrK3LC7qzo

Einfach nur insane was NVidia hier abgeliefert hat. :eek:
Ultra Performance dürfte in 5k dann doch sehr brauchbar sein (falls "in-engine" nicht schon zu viel kaputt geht). Wenn nVidia das nicht schon auf die demnächst im Gaming-Segment vermehrt auf den Markt kommenden 5k-Displays ausgerichtet hat...

aufkrawall
2026-01-10, 20:59:52
Hab mein Overlay dank SpecialK (weil open-source) mit FG am laufen :cool: :
https://s1.directupload.eu/images/260110/temp/695wfja4.jpg (https://www.directupload.eu/file/d/9160/695wfja4_jpg.htm)

Eigentlich wär ja eine eigene Zeile mit allen DLSS-Informationen (Preset, Upscaling-Faktor...) praktisch. Ob ich das geschissen kriege? Keine Ahnung.
Muss mir die Credits in Windsurf (gibt keine guten Angebote von Google mehr für Antigravity) erstmal für andere Dinge einteilen.

BlacKi
2026-01-10, 21:14:42
Ist 4.5 einfach aktiv, wenn ingame auf 4 gestellt ist und ich den neusten Treiber habe?wenn du die nv app hast, kannst du im overlay checken welches modell du fährst. nur L und M sind 4,5 und dazu musst du den experiellen modus aktivieren. standard ist der nicht aktiv.

Dorn
2026-01-10, 21:58:15
Auch ohne die nvidia Beta App mit dem aktuellen Treiber hat man 4.5 M wenn man neuste auswählt.

aufkrawall
2026-01-10, 22:12:02
Hab den Fehler gefunden.

Mit AF auf Quality wird Clamp auch tatsächlich umgesetzt. Bias wird wahrscheinlich auf 0 gesetzt, was für DLSS P oder DLSS UP viel zu wenig ist, also Matsch.

Mit AF auf HighQuality wird Clamp ignoriert und es sieht exakt genauso aus wie mit Allow.

Tatsache. OptiScaler zeigt weiterhin -4 an, aber alles ist matschig. Erkennt also offenbar nicht, dass der Treiber der Anwendung das angeforderte Mip Bias verweigert.
Allerdings auch nur, wenn tril. Optimierung aktiviert ist (default).

MAX|HASS
2026-01-11, 00:11:03
Was ist denn das hier eigentlich in der äpp? Sollte das mit den Spieleinstellungen übereinstimmen? :confused:

**edit: und wo geht jetzt 4.5?

Exxtreme
2026-01-11, 00:17:13
Was ist denn das hier eigentlich in der äpp? Sollte das mit den Spieleinstellungen übereinstimmen? :confused:

**edit: und wo geht jetzt 4.5?

Beim Model musst du L oder M einstellen. Falls das nicht geht dann musst du die Beta der Äpp installieren.

MAX|HASS
2026-01-11, 00:31:02
Ist ja schon 1106374. Es geht um die Stelle, wo L oder M hin muß.

Exxtreme
2026-01-11, 00:32:34
Du musst ganz nach unten scrollen zu den Treibereinstellungen.

MAX|HASS
2026-01-11, 00:45:59
Da sind soviele Einstellungen, ich habe kein Preset gesehen. Jemand anderes vielleicht? Trotzdem danke.

Exxtreme
2026-01-11, 00:55:31
Du klickst auf "DLSS-Überschreiben - Modell-Voreinstellungen", dann auf "Benutzerdefiniert" und dann wählst du unter "Super Resolution" das Model aus. Für DLSS 4.5 sind es L oder M.

00-Schneider
2026-01-11, 08:00:37
tUTvSZX4l6s

Döner-Ente
2026-01-11, 09:16:55
Auch ohne die nvidia Beta App mit dem aktuellen Treiber hat man 4.5 M wenn man neuste auswählt.

Jo, hier auch. Aber nicht in jedem Spiel, wenn man es global einstellt, muss da Nvidia noch Spiele individuell auf eine Whitelist setzen?

MAX|HASS
2026-01-11, 09:58:45
Du klickst auf "DLSS-Überschreiben - Modell-Voreinstellungen", dann auf "Benutzerdefiniert" und dann wählst du unter "Super Resolution" das Model aus. Für DLSS 4.5 sind es L oder M.

Ich habe es gefunden, danke. War vielleicht gestern auch ein bisschen ang*pißt.

Weil: ich starte das Ding und genau wie vor fast 15 Jahren, als ich ein erstes und einziges Mal die sogenannte experience ausprobiert habe, ist das erste was ich lesen darf (sinngemäß), wir haben gleich mal alle deine Spiele "optimiert". Ein völlig wilder Mix aus (oben ist es nun zufällig 117 als erstes Spiel in einer Reihe gewesen) RT aus, Schatten ultrahoch, bla bla gewesen, ohne Kenntnis, worauf ich Wert lege, ohne Wissen, daß ich in meinem Szenario qhd@60fps meine 70ti auch untertaktet und untervoltet kaum auf über 50% kriege. Was für eine DAU-Veranstaltung, scheinbar auch nach all den Jahren noch.

Komischerweise startete ich Anno dann aber und nichts war "optimiert", alles noch meine Einstellungen. Oder wird das erst wirksam, wenn man aus der äpp heraus oben rechts auf spielen drückt? Was aber beim ersten Start passierte: zwei Fenster, rotes x, GPU-Fehler, mein erster, seit ich 117 besitze.

Ich habe das Ding nicht wegen dlss installiert, habe mir dafür einfach immer die neueste dll ins Spiel gebügelt. Auf die Platte kam das gestern nur, weil ich mal smooth motion ausprobieren wollte, was in dem Spiel auch gut klappt. Aber bei der Vorstellung, daß das funktionale controlpanel irgendwann verschwindet und von diesem Machwerk ersetzt wird, graust es mir heute schon. Würden zwei/drei Einstellungen dort hinein wandern, würden ich sicherlich die äpp nicht mehr starten. Da war mit meiner 6800er sogar die software von amd noch intuitiver.