Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 [34] 35 36 37

Relex
2025-12-09, 13:15:10
Wie kommt man denn überhaupt auf 8 ms?

Bei 60 FPS braucht ein Frame 16,66 ms.
Selbst wenn also der Input in Nullzeit verarbeitet wird, ist der Input frühestens nach 16,6 ms am Display sichtbar. Denn der Input wird von der CPU in der Spiellogik umgesetzt und dann wandert das vorbereitete Frame zur GPU wo es bei 60 FPS nunmal 16 ms rendert.

Dann kommen noch Double oder triple buffer dazu die die Latenz ohne VRR noch weiter erhöhen…
Also die Diskussion hier kapier ich gerade nicht…

Ex3cut3r
2025-12-09, 13:53:53
Spielt natürlich eine Rolle. Entsprechende Spiele, wie Shmups, Hardcore Jump'n'Runs und andere Bullet-Hell Spiele wurden nicht dafür designed mit >= 3 Frames Lag gespielt zu werden.

Heute brauchst du die 3-fache Bildwiederholrate, millionenfach höhere Rechenleistung und spezielle Treiber-Features und bist halt immer noch beim doppelten bis dreifachen Input-Lag im Vergleich zu den 80ern / frühen 90ern.

Von daher finde ich es in dem Kontext "wie wir früher gespielt haben" schon recht witzig, da wir "früher" noch gar nicht wieder erreicht haben. Klar, Leute die noch nie an einem CRT irgendwas gespielt haben und entsprechende Spiele nur aus Emulatoren kennen, wissen das natürlich nicht und darum werden halt 30ms gefeiert.

Ach ja, die „Früher war alles "besser“-Mentalität. Da ist sie wieder. Weißt du was? Wenn für dich damals wirklich alles so großartig war, dann kauf dir doch wieder eine Röhre, spiel deine Klassiker in 480p und genieße die pixelige Klotz-Grafik samt CRT-Artefakten. Wenn dir das so viel Freude bereitet, nur zu.

Können wir dann wieder zurück zum eigentlichen Thema kommen?

Ganon
2025-12-09, 16:39:33
Bei 60 FPS braucht ein Frame 16,66 ms.
[...]
Dann kommen noch Double oder triple buffer dazu die die Latenz ohne VRR noch weiter erhöhen…

Ein CRT zeichnet keine Vollbilder, sondern einzelne Zeilen. Der Input Lag ist dann abhängig davon wo der Strahl gerade ist. Schwankt dann also zwischen 0 und 16 ms, was sich dann auf 8ms mittelt.

Konsolen aus den 80ern / frühen 90ern hatte weder Double noch Triplebuffer. Sie rendern den Frame direkt.

Darum flackern übrigens auch auf dem NES manchmal die Sprites, weil ein NES nur 8 Sprites pro Scanline ansteuern kann und man dann einfach die Sprites abgewechselt hat, damit man sie trotzdem noch sehen kann.

Ach ja, die „Früher war alles "besser“-Mentalität.

Noch einer der übelst hart getriggert wurde. Meine Güte, chillt einfach mal, statt wegen so simpler Aussagen gleich an die Decke zu gehen. :ugly:

Relex
2025-12-09, 17:56:20
Ein CRT zeichnet keine Vollbilder, sondern einzelne Zeilen. Der Input Lag ist dann abhängig davon wo der Strahl gerade ist. Schwankt dann also zwischen 0 und 16 ms, was sich dann auf 8ms mittelt.



Das ist mir schon klar, der Scanout erfolgt zeilenweise. Aber damit du einen Scanout machen kannst muss ja erstmal das fertige Frame vorliegen.

Denn eine GPU rendert das Bild interne nicht zeilenweise sondern baut es über verschiedene Renderpasses auf.

Man muss also alle Renderpasses abwarten, bevor man überhaupt erst den ersten Pixel der ersten Zeile ausgeben kann.

Das heißt man hätte bei 60 FPS minimum die 16,67 ms Renderzeit + den Scanout (der ja dann sehr viel schneller erfolgen kann.


Hmm. Schade dass das hier offtopic ist. Mich interessiert das Thema, aber es hat hier eigentlich überhaupt nichts verloren...

Ganon
2025-12-09, 18:40:29
Aber damit du einen Scanout machen kannst muss ja erstmal das fertige Frame vorliegen.

Die alten Konsolen rendern das Bild aber tatsächlich zeilenweise. Kein Doublebuffer. Die Konsole "steuert" tatsächlich den direkt Strahl des CRT. Es gibt sogar Spiele die während einer Scanline die Auflösung ändern (z.B. um das HUD mit einer höheren Auflösung zu rendern).

Es gibt dann aber, um es vollständig zu halten, die Vblank Phase. Da wo der Strahler von unten nach oben wandert, um das neue Bild zu zeichnen. Dort werden dann in der Regel intensivere CPU Berechnungen gemacht.

Super Mario Kart hat z.B. im Multiplayer über den jeweiligen Screens dickere schwarze Balken, weil dort u.a. der User-Input pro Spieler verarbeitet wird und deswegen keine Pixel gerendert werden (können). Aber das Super Nintendo kann prinzipiell auch zusätzlichen Input Lag haben, je nach Spiel. Ältere Konsolen hängen noch direkter am CRT-Signal.

Relex
2025-12-09, 19:07:07
OK. Ich hab mich mit solchen alten Spielen nie tiefer auseinandergesetzt. Das kann dann wenn ich das richtig verstehe aber wirklich nur für grafisch sehr simple 2D Games funktionieren.

Alleine das Grundkonzept eines im Ansatz "modernen" Renderers würde so ein vorgehen komplett unmöglich machen, da du das Bild während der Ausgabe nicht erst fertig rendern kannst. Es muss halt schon fertig sein, weil die Renderpasses eben nacheinander kommen und aufeinander aufbauen und nicht zeilenweise abgefrühstückt werden können (würde man das versuchen, wäre es wahrscheinlich unendlich langsam, weil du die parallelität der GPU überhaupt nicht nutzen könntest). Wenn du das erste Pixel der ersten Zeile darstellen willst musst du alle Renderpasses durchlaufen haben. Sonst ist die Farbe eben falsch. Man muss die Geometrie Laden, die Texturen, die Shader usw. Aber hatte ich ja schon gesagt.

Das alles fällt halt mit nem 2D game weg. Man braucht keine 3D Modelle und Texturen, keine Shader und kein Filtering. Man hat die Sprites und kann sie direkt in einem Schritt rendern, zeile für zeile.

Der geringe Inputlag ergibt sich dann also prinzipbedingt aus der simplen Technik und bleibt für moderne Spiele damit unerreichbar, da der Renderansatz das überhaupt nicht ermöglicht.

Tobalt
2025-12-09, 20:22:24
Relex du hast insofern Recht, dass aktuelle Enginee ganze Frames buffern, und diese erst dann ausgeben.

Künftig steht dies aber wieder zur Disposition IMO, auch wenn ich damit hier traditionell in der Minderheit bin..

Das temporale Upsampling wie DLSS gehen ja schon einen kleinen Schritt in diese Richtung.. Sie samplen an jedem Zeitpunkt nur einen Teilframe. Damit das ganze dann mit der restlichen Render und Display Kette kompatibel bleibt, wird auf der GPU selbst zum vollständigen Frame interpoliert.

Aber dieser letzte Schritt ist ja eben genau der Displaytechnik geschuldet, die halt ganze Frames will. Wenn man dies jetzt nicht annimmt, dann wäre auch folgendes denkbar:

Zu einem Zeitpunkt wird nur ein kleines Tile oder gar nur einziges Pixel geshadet und dann auch nur dieses ausgegeben. Das macht natürlich nur mit Selbstleuchtern mit sehr hoher Peakhelligkeit sinn. Der Seheindruck eines solchen Displays wäre quasi "Natürlich", weil damit sämtlichen Artefakte von aktuellen Frame basierten Displays ausgeräumt würden.

Leider noch weite Zukunftsmusik. Man braucht völlig asynchrone Engines und Displays. Mal schauen ob es irgendwann etwas in der Richtung gebe wird. Vielleicht an einem Punkt so unsere jetzige Technik eh nicht einsetzbar ist...ZB vollimmersive VR

Lurtz
2025-12-09, 20:23:40
Noch einer der übelst hart getriggert wurde. Meine Güte, chillt einfach mal, statt wegen so simpler Aussagen gleich an die Decke zu gehen. :ugly:
Sagt derjenige, der mit einem Äpfel-Birnen-Vergleich hier reintrollt, nur um dann rumzujammern, dass er "missverstanden" wird :ugly:

Ganon
2025-12-09, 20:41:04
Der geringe Inputlag ergibt sich dann also prinzipbedingt aus der simplen Technik und bleibt für moderne Spiele damit unerreichbar, da der Renderansatz das überhaupt nicht ermöglicht.

Das stimmt natürlich.

Aber die Rendering-Technik alleine ist es ja nicht. Du kannst die Spiele mit 240 fps rendern und dein Input-Lag ist trotzdem Mist und nicht bei ~8ms (Frameraten Entkoppelung, geringere Logik Hz, etc.)

Aber darum gibt es ja nun Dinge wie Reflex. Die Dinge die Reflex so liefert hatten einige Emulatoren schon lange davor ähnlich drinnen. Ähnliches Problem, ähnliche Lösung. Besser wäre es, wenn die Engine es von alleine schon besser machen würde.

Du könntest aber natürlich wieder Spiellogik an die Framerate koppeln und den Input im Mainloop verarbeiten. Das macht dann natürlich woanders Probleme mit komplexeren Lösungen. Technisch spricht aber prinzipiell erst mal nichts dagegen, auch die Rendering Technik nicht. Du könntest auch die Logik-Hz einstellbar machen, aber da die Engines ja heutzutage eher für den 20Hz Multiplayer-Kram optimiert werden, ist das halt oft keine Option.

Sagt derjenige, der mit einem Äpfel-Birnen-Vergleich hier reintrollt, nur um dann rumzujammern, dass er "missverstanden" wird :ugly:

Gejammert hab ich nicht, eigentlich war es nur eine lustige Anekdote. Dass das einige Leute hier hart triggert und sie sofort alle unsinnigen Gegenmaßnahmen hochfahren, war einfach nur ein amüsanter Bonus für den Tag und nicht unbedingt beabsichtigt. :ugly:

Gast
2025-12-09, 22:06:48
Der Input Lag ist dann abhängig davon wo der Strahl gerade ist. Schwankt dann also zwischen 0 und 16 ms, was sich dann auf 8ms mittelt.




Der Lag ist nicht abhängig von 0-16ms sondern (bei 60Hz) immer mindestens 16ms oder bei PAL/50Hz sogar 20ms. Von einer zur nächsten Änderung einer Scanline vergeht immer mindestens diese Zeit. Auch wenn die Scanline in der Mitte 8ms nach der ersten gezeichnet wird, muss ja erst die untere Hälfte des Bildes, und dann wieder die obere Hälfte gezeichnet werden bis sie sich wieder ändern kann. Die Untergrenze für die Latenz ist damit immer eine ganze Frametime.

aufkrawall
2025-12-28, 04:05:45
Das Feature lebt ja doch noch (so halb): In Avatar ist der Unterschied RR Preset E vs. SR K mal wieder gigantisch. Quasi alles am flackern ohne RR, alles sieht mit K nach der Hälfte der Auflösung aus. Auch animiertes Wasser ist mit RR massiv schärfer. Absolut beeindruckend, was da RR, FG und Reflex unterm Strich rausholen. Selbst wenn man Auflösung von Schatten und Reflexionen mit RR runterdreht, sehen die immer noch besser damit aus als mit SR K @max. 12GB machen nach etwas Traversal bislang auch keine Zicken bei high-medium settings:
https://s1.directupload.eu/images/251228/temp/4jeshzqz.jpg (https://www.directupload.eu/file/d/9147/4jeshzqz_jpg.htm)

(Ich mag den Look der Engine trotzdem nicht. Quasi alles, was an der Grafik nicht RT ist, sieht veraltet gegen UE5 aus.)

robbitop
2025-12-28, 08:04:29
Ist mir in CP77 auch aufgefallen mit dem Flackern vs alles sauber. Normales SR hat mit RT zT dann echt Probleme. In GTA 5 EE sehen die RT reflections mit SR auch echt bescheiden aus (andere Schwäche - weil SR in reflections keine zusätzliche Abtastung bieten aber die Auflösung je nach preset gesenkt wird). IMO sollte es immer RR als Option geben. :)
Schade, dass man das nicht durch tools wie Optiscaler reininjedten kann.

Relex
2025-12-28, 10:28:27
Das Feature lebt ja doch noch (so halb): In Avatar ist der Unterschied RR Preset E vs. SR K mal wieder gigantisch. Quasi alles am flackern ohne RR, alles sieht mit K nach der Hälfte der Auflösung aus. Auch animiertes Wasser ist mit RR massiv schärfer. Absolut beeindruckend, was da RR, FG und Reflex unterm Strich rausholen. Selbst wenn man Auflösung von Schatten und Reflexionen mit RR runterdreht, sehen die immer noch besser damit aus als mit SR K @max. 12GB machen nach etwas Traversal bislang auch keine Zicken bei high-medium settings:
https://s1.directupload.eu/images/251228/temp/4jeshzqz.jpg (https://www.directupload.eu/file/d/9147/4jeshzqz_jpg.htm)


Hab mich bei dem Spiel mittlerweile auch für RR entschieden und gegen SR.

Das Bild ist so viel sauberer und glatter und wirkt alleine dadurch schon realistischer.

So schwer ich mich auch tue, die deutlich höhere Schärfe von SR dafür aufzugeben, am Ende gewinnt für mich doch immer die inhaltlich wertigere Grafik, solange die performance keine Prio hat. Deshalb hab ich eben auch schon das erste Ray Reconstruction in Cyberpunk gerne genutzt, auch wenn es mit den schmier und KI-Look Artefakten ein großer Kompromiss war, der ja mit dem Transformer Model weitestgehend beseitigt wurde.

Ich hoffe einfach, dass Nvidia es irgendwie schafft, annähernd die Schärfe von SR Preset K mit RR zu erreichen. Wenn sie das hinbekommen wäre das ein Gamechanger.


Ich bin gespannt, ob und wenn ja was Nvidia uns am 5. Januar auf der CES präsentieren wird.
Wenn kein neues SR oder RR preset angekündigt wird, wär ich enttäuscht...




(Ich mag den Look der Engine trotzdem nicht. Quasi alles, was an der Grafik nicht RT ist, sieht veraltet gegen UE5 aus.)

Ich möchte aber gar nicht wissen, wie schlecht ein UE5 Spiel mit dieser Detaildichte incl. HW RT performen würde. Das würde ich frühestens der UE5.7 mit einem sehr fähigen Entwicklerteam zutrauen. Aber das Spiel kam ja schon 2023 raus...

robbitop
2025-12-28, 10:45:13
Ggf ist die Unschärfe auch ein Kompromiss da man ggf nicht alle Kriterien erreichen kann.
Ich muss sagen, was bereits erreicht wurde mit NN Upsampling ist der Wahnsinn. Der damalige Gral 8x SGSSAA wäre trotz viel mehr Kosten auch nicht besser.

aufkrawall
2025-12-28, 10:56:18
Ich möchte aber gar nicht wissen, wie schlecht ein UE5 Spiel mit dieser Detaildichte incl. HW RT performen würde. Das würde ich frühestens der UE5.7 mit einem sehr fähigen Entwicklerteam zutrauen. Aber das Spiel kam ja schon 2023 raus...
Die größeren Pflanzen/Zweige sind ziemlich Low-Poly und die Sichtweiten-Optionen sind quasi das Einzige, was wirklich gut mit den fps skaliert. Mit entsprechendem Hit, will man nicht ständig Geploppe auch größerer Objekte unmittelbar vor einem haben.
Ja, für 2023 war es gut und mit Unreal hätte es massive Probleme gegeben. Ich will den Gammel trotzdem nicht mehr sehen...

Relex
2025-12-28, 12:32:31
Ggf ist die Unschärfe auch ein Kompromiss da man ggf nicht alle Kriterien erreichen kann.
Ich muss sagen, was bereits erreicht wurde mit NN Upsampling ist der Wahnsinn. Der damalige Gral 8x SGSSAA wäre trotz viel mehr Kosten auch nicht besser.


Mit 8×SGSSAA hätte man wahrscheinlich deutlich stärkeres Flimmern und sicher nicht den Effekt, den DLSS RR bringt. Das Ergebnis würde vermutlich eher in Richtung DLSS Super Resolution gehen, aber ohne dessen temporale Stabilität und Bildruhe.

Ansonsten hast du natürlich recht. Rausch bzw. Störunterdrückung durch temporale Akkumulation steht in starken Konflikt zur zeitlichen Konsistenz, was ja allgemein ein Problem in der Signalverarbeitung ist.

Je mehr Informationen über mehrere Frames akkumuliert werden, desto sauberer, stabiler und detailierter wird das Bild. Gleichzeitig leidet aber die Schärfe bei Bewegung, weil durch die zeitliche Mittelung zwangsläufig Unschärfe entsteht.

Das Transformer Model war in der Hinsicht ja schon ein riesen Fortschritt. Normales SR ist dadurch deutlich schärfer geworden und auch das Ray Reconstruction Model ist zumindest ein gutes Stück schärfer und sauberer geworden.

Die Frage ist eben, wie weit Nvidia diesen Zielkonflikt zwsichen zeitlicher konsistenz/schärfe in Bewegung sowie Detailgewinn/Rauschunterdrückung noch "entschärfen" (:D) kann.

Und klar, genau dieser Gegensatz macht das Problem so verdammt schwierig.

Aber gerade die KI basierten, neuronalen Ansätze sind es ja, die in dem Bereich vielversprechend sind und die bisherigen Lösungen erst ermöglicht hatten und potenziell immer besser werden.

Aber sind wir schon bei den diminishing returns oder kann ein RR künftig auch so knack scharf wie das normale SR werden? Zumindest ist RR jetzt so scharf wie DLSS3 SR und sogar stabiler und natürlich viel Detaillierter + Denosing.

Wenn sie es einmal geschafft haben, warum nicht nochmal?

robbitop
2025-12-28, 12:45:24
Wobei 8xSGSSAA immerhin 8 Strahlen pro Pixel (statt einem) verschiessen würde. Das würde auch bei RT was bringen. Aber du hast schon Recht ohne temporale Akkumulation hätte es was Stabiltät angeht keine Chance. Und auch von der Glättung wahrscheinlich dahinter weil ja schon je nach Situation mehr Samples akkumuliert werden als 8x pro Pixel. In guten Fällen iirc bis zu 64.
Aber es könnte weniger variabel bzw konsistenter sein weil es immer 8 samples pro Pixel sind und es da keine fails gibt (wenn falsche samples ausgesucht werden oder was falsch halluziniert wird). Aber unterm Strich ist es natürlich kein Vergleich. :)
Wir leben schon in einer sau geilen Zeit. ^^

Relex
2025-12-28, 12:49:40
Ich bezweifle aber, dass 8 Strahlen Pro pixel wirklich viel bringen. In den RTX Remix Demos (und auch anderen Demos) kann ich mich erinnern, dass man häufiger die Möglichkeit hatte, die Strahlen pro Pixel einzustellen. Die Unterschiede waren aber seeeehr marginal, weshalb alleine das Vorhaben die Strahlen Pro Pixel zu erhöhen auch eine Sackgasse ist. Man verbrennt unendlich viel Leistung für kaum einen Zugewinn. Was ja auch der Grund war, warum man vor einigen Jahren echtzeit RT oder echtzeit PT für völlig unmöglich hielt. Einfach weil man von absurd hohen Strahlen pro Pixel ausging.

Ich denke man muss hier schon wirklich Größenordnungen mehr Strahlen nutzen, um da wirklich Unterschiede zu sehen. RR ist daher mMn. äquivalent zu einer sehr viel höheren Anzahl an Strahlen Pro Pixel als 8xSGSSAA.

Achill
2025-12-28, 13:02:38
DLSS und FSR fügen die temporalen Informationen immer in das Zielbild ein. UE's TSR hält einen Satz von Bildern. Der nächste Schritt für DLSS und FSR könnte imho in diese Richtung gehen, da es die Informationen im Context erhöht ohne mehr Ray-tracing zu benötigen. Es benötigt mehr Rechenpower für die AI-Modelle aber dies ergibt sich eh aus der Weiterentwicklung der Compute Sparte beider Firmen.

robbitop
2025-12-28, 13:09:04
Ich bezweifle aber, dass 8 Strahlen Pro pixel wirklich viel bringen. In den RTX Remix Demos (und auch anderen Demos) kann ich mich erinnern, dass man häufiger die Möglichkeit hatte, die Strahlen pro Pixel einzustellen. Die Unterschiede waren aber seeeehr marginal, weshalb alleine das Vorhaben die Strahlen Pro Pixel zu erhöhen auch eine Sackgasse ist. Man verbrennt unendlich viel Leistung für kaum einen Zugewinn. Was ja auch der Grund war, warum man vor einigen Jahren echtzeit RT oder echtzeit PT für völlig unmöglich hielt. Einfach weil man von absurd hohen Strahlen pro Pixel ausging.

Ich denke man muss hier schon wirklich Größenordnungen mehr Strahlen nutzen, um da wirklich Unterschiede zu sehen. RR ist daher mMn. äquivalent zu einer sehr viel höheren Anzahl an Strahlen Pro Pixel als 8xSGSSAA.

Ohne Frage ja. Sehe ich auch so. Wollte es auch nicht so ausdrücken dass das vergleichbar wäre. :)

robbitop
2025-12-28, 16:31:47
DLSS und FSR fügen die temporalen Informationen immer in das Zielbild ein. UE's TSR hält einen Satz von Bildern. Der nächste Schritt für DLSS und FSR könnte imho in diese Richtung gehen, da es die Informationen im Context erhöht ohne mehr Ray-tracing zu benötigen. Es benötigt mehr Rechenpower für die AI-Modelle aber dies ergibt sich eh aus der Weiterentwicklung der Compute Sparte beider Firmen.

Kannst du das mit TSR ausführen? Ich zumindest verstehe leider noch nicht was du mit dem Satz an Zielbildern im Unterschied zu DLSS/FSR meinst :)

OgrEGT
2025-12-29, 06:22:49
Ich vermute dass es darum geht immer weniger RT "echt" in "echt" erzeugten Frames zu berechnen sondern noch mehr RT und Frames per KI zu erzeugen... also dass ein immer kleinerer "Satz" (=Anzahl) an echten Bildern bzw. echt berechneten RT Effekten notwendig wird...

Exxtreme
2025-12-29, 08:25:45
Bilderzeugung mit KI ist viel teurer als klassisch. Deshalb glaube ich nicht, dass man Frames mit KI erzeugen wird. Eventuell wird man KI nutzen um ein paar Artefakte zu unterdrücken, mehr aber nicht.

robbitop
2025-12-29, 08:57:09
Vielleicht kann Achill ja nochmal genauer ausführen was er meint. :) Klingt zumindest erstmal sehr interessant :)

x-force
2025-12-29, 13:23:21
Bilderzeugung mit KI ist viel teurer als klassisch. Deshalb glaube ich nicht, dass man Frames mit KI erzeugen wird. Eventuell wird man KI nutzen um ein paar Artefakte zu unterdrücken, mehr aber nicht.

alles nur eine frage der zeit. in nvidias vision sind spiele llms.
gibt doch sogar schon erste beispiele.

robbitop
2025-12-29, 15:32:15
LLMS (large language models) meinst du sicher nicht oder? Einfach nur NNs.

Die Frage ist ob das so funktioniert. Man sieht ja bei solchen Versuchen interaktiven Spielwelten mit NNs vieles schnell auseinander bricht. Klar kann man mehr Parameter einbauen ins NN aber die Rechenleistung steigt leider nur noch sehr langsam (moores law is dead ^^) insofern ist die Frage ob das der richtige Weg ist.
Zumindest im Moment (und auch wenigstens mittelfristig m) erscheint mir der Einsatz von besser für das geeignet zu sein was NV zur CES gezeigt hat (nämlich Materialien, Textures usw). Ganze Spiele - muss man mal sehen wie sich das langfristig entwickelt. Ob es eine bessere Architektur der NNs dafür gibt und/oder wie man bisherige noch skalieren kann ohne dass die Anforderungen der Rechenleistung und Speicher extremst durch die Decke gehen. Denn genau da ist die Entwicklung leider sehr langsam geworden.

Troyan
2025-12-29, 15:40:58
Ich vermute dass es darum geht immer weniger RT "echt" in "echt" erzeugten Frames zu berechnen sondern noch mehr RT und Frames per KI zu erzeugen... also dass ein immer kleinerer "Satz" (=Anzahl) an echten Bildern bzw. echt berechneten RT Effekten notwendig wird...

Lumen, probenbaisertes RTGI (MetroEE) und ReStir GI arbeiten schon so: Es werden Informationen aus vorigen Frames gesammelt und dann mitverwendet.
Ist natürlich nur für solche Sachen brauchbar, die relativ statische Inhalte haben.

Reflektionen wären z.B. absoluter Murks. Hier benötigt man bessere Denoiser.

Spring
2025-12-29, 15:52:45
Ich glaube ~2035 wird es reines AI-Rendering geben, ohne klassisches Raster/RT. Nicht für jeden (eher Top Dog karten bzw "AI-Beschleuniger"), aber das wird kommen.

Gibt es ja jetzt schon (seit der RTX 5xxx Series) als einfacher Hybrid Ansatz (ohne Raster/RT geht noch nix), aber die Pixellast wird sich (unabhängig von DLSS/FSR, was ja auch massig die Pixellast nach AI verschiebt, aber eben "nur" als Upscaler) Richtung AI bewegen.

Vor zehn Jahren (2015) wäre ich auch noch ausgelacht worden, wenn ich mit Raytracing im Gaming angekommen wäre.

robbitop
2025-12-29, 16:04:24
RT war eigentlich schon länger absehbar. 2006/07 auf der Cebit gab es bereits Demos die auf G80 liefen und Intel ist damals mit Larrabee mit festem Glaubem gestartet, dass das kommt. Genauso wie etwas später IMG lange vor Nvidia dedizierte RT hatte.
Die waren beide zu früh dran. Ab einem bestimmten Punkt reichte dann einfach die Rechenleistung und es brauchte dann einen Quasi Monopolisten der das in den Gamingmarkt gedrückt hat.

Aber wann es soweit war, war natürlich nicht absehbar. Aber dass es kommt schon. Genauso ist es wahrscheinlich auch mit NN. Spart potentiell Speicher und Entwicklerarbeit und der Fortschritt ist rasant (auch wenn IMO die krassen Sprünge etwas abgeebbt zu sein scheinen - ChatGPT hat 2022 alle aus den Socken gehauen - die neuen LLMs sind besser aber keine Revolution und haben die gleichen Schwächen - nur weniger ausgeprägt)

Platos
2025-12-29, 17:23:19
ChatGPT hat 2022 alle aus den Socken gehauen? Wohl eher ist/war es strohblöd und ist es auch heute noch.

robbitop
2025-12-29, 18:14:28
Die Begeisterung in der Masse (die elitäre bubble mal ausgeklammert) lässt sich nicht bestreiten die es damals gab.
Selbst LTT (ja die können im Vergleich zur echten Elite gar nix - aber es ist immerhin ein Tech Channel und wahrscheinlich wissen die mehr als ein Großteil der Menschenmasse) war extrem ekstatisch damals.
Ich denke man muss für sowas immer den richtigen, möglichst neutralen Bezugspunkt wählen.
Einige von uns sind erfahrene und überdurchschnittlich intelligente und gebildete Akademiker und einige davon mit Hintergrund in computer science. Das ist aber nicht der Maßstab. ^^
Fällt mir persönlich aber auch manchmal schwierig den zu wählen :)

Ex3cut3r
2025-12-29, 18:22:31
Also ich könnte man meinen Job ohne ChatGPT (E-Commerce Manager) weitaus weniger effizient gestalten als ohne. Also mir helfen KIs enorm.
Ich hätte nämlich kein Bock für eine neue Serie, mit 20 Varianten, 20 individuelle SEO geeignete Produktbeschreibungen eigenständig zu formulieren. Ich gebe ChatGPT das Datenblatt und er haut mit Prompt 20 gute Produktbeschreibungen raus. Mit HTML Formatierung und Co. diese muss ich dann nur noch per CSV Upload hochladen.

Ich habe so das Gefühl der Großteil hat keine Erfahrung damit, sondern haut irgendwas raus, was er mal privat festgestellt hat.

Spring
2025-12-29, 18:36:20
Ich habe so das Gefühl der Großteil hat keine Erfahrung damit, sondern haut irgendwas raus, was er mal privat festgestellt hat.


Yup. Was Gemini 3 Pro hier an Arbeit abnimmt, könnte ich bestimmt zwei Hiwis einstellen.

Relex
2025-12-29, 20:23:53
ChatGPT hat 2022 alle aus den Socken gehauen? Wohl eher ist/war es strohblöd und ist es auch heute noch.

Du siehst wirklich kein Potenzial in der Technik? Respekt.

ChatGPT und AlphaFold reichen mir als Meilensteine um zu erkennen, dass das absolute gamechanger Technologie ist.

aufkrawall
2025-12-29, 20:36:31
Ich habe so das Gefühl der Großteil hat keine Erfahrung damit, sondern haut irgendwas raus, was er mal privat festgestellt hat.
Hab mir eine 15000+ Zeilen C++ App ge-vibe-coded, die Videos in Spielen flüssiger und mit weniger Leistungsverlust aufnimmt als obs oder die Nvidia App. :biggrin:
Es checken noch nicht so viele, aber Opus 4.5 ist quasi der ChatGPT-Moment für AI-Coding.

Hat gerade Support für DX9, 10 und OpenGL in einem einzelnen Prompt eingebaut. :ulol:

Achill
2025-12-29, 20:42:42
DLSS und FSR fügen die temporalen Informationen immer in das Zielbild ein. UE's TSR hält einen Satz von Bildern. Der nächste Schritt für DLSS und FSR könnte imho in diese Richtung gehen, da es die Informationen im Context erhöht ohne mehr Ray-tracing zu benötigen. Es benötigt mehr Rechenpower für die AI-Modelle aber dies ergibt sich eh aus der Weiterentwicklung der Compute Sparte beider Firmen.

Kannst du das mit TSR ausführen? Ich zumindest verstehe leider noch nicht was du mit dem Satz an Zielbildern im Unterschied zu DLSS/FSR meinst :)


Mein alter link zu einen Block-Post geht nicht mehr. Ich habe nur dies in der offz. Doku gefunden: https://dev.epicgames.com/documentation/en-us/unreal-engine/temporal-super-resolution-in-unreal-engine#tsrhistory

Ich bin aber der Meinung, es ist dieses Feature: History Resurrection (https://dev.epicgames.com/documentation/en-us/unreal-engine/temporal-super-resolution-frequently-asked-questions-for-unreal-engine#historyresurrection)

Hier hab ich ein Paper von Epic gefunden was den Blog-Post beschreibt den ich in Erinnerung hatte: https://assets-unreal2-epic-prod-us2.s3.dualstack.us-east-1.amazonaws.com/original/4X/a/2/2/a22bbaca051180deefaef7a61f5f6160b4ddd19b.pdf

aufkrawall
2025-12-29, 20:48:50
Nur leider sieht TSR in Fortnite immer noch absolut grauslich mit Lumen aus gegen Spiele (ob UE5 oder andere) mit Ray Reconstruction. Auch bzw. erst recht, was die Disocclusion-Problematik angeht. RR Preset E ist da quasi eine Galaxie für sich.

robbitop
2025-12-29, 21:07:31
Mein alter link zu einen Block-Post geht nicht mehr. Ich habe nur dies in der offz. Doku gefunden: https://dev.epicgames.com/documentation/en-us/unreal-engine/temporal-super-resolution-in-unreal-engine#tsrhistory

Ich bin aber der Meinung, es ist dieses Feature: History Resurrection (https://dev.epicgames.com/documentation/en-us/unreal-engine/temporal-super-resolution-frequently-asked-questions-for-unreal-engine#historyresurrection)

Hier hab ich ein Paper von Epic gefunden was den Blog-Post beschreibt den ich in Erinnerung hatte: https://assets-unreal2-epic-prod-us2.s3.dualstack.us-east-1.amazonaws.com/original/4X/a/2/2/a22bbaca051180deefaef7a61f5f6160b4ddd19b.pdf

Das macht Sinn und könnte auch wenn die history lang genug ist oftmals bei Disocclusion Artefakten passen.
Ist denn bekannt ob DLSS das nicht auch macht? Für mich ist das eigentlich die offensichtliche Wahl alle möglichen Artefakte zu reduzieren und gerade wenn man ein NN basiertes Verfahren hat was für das Wiederfinden sinnvoller Positionen von Samples in vergangenen Frames hat, wäre das eigentlich extrem passsend und naheliegend. :)
Wenn man es nicht nutzt, lässt man wertvolle Informationen die temporal vorhanden sind jedenfalls ungenutzt aka verschwendet sie. :)

Exxtreme
2025-12-30, 10:21:36
Ich glaube ~2035 wird es reines AI-Rendering geben, ohne klassisches Raster/RT. Nicht für jeden (eher Top Dog karten bzw "AI-Beschleuniger"), aber das wird kommen.


Höchst unwahrscheinlich. AI-generierter Content ist viel zu ineffizient. Hier mal AI-generierter Quake2-Klon von Micros~1:
https://www.theverge.com/news/644117/microsoft-quake-ii-ai-generated-tech-demo-muse-ai-model-copilot

"While Microsoft originally demonstrated its Muse AI model at 10fps and a 300 x 180 resolution, this latest demo runs at a playable frame rate and at a slightly higher resolution of 640 x 360. It’s still a very limited experience though, and more of hint at what might be possible in the future."

Auf klassischer Hardware dürfte Quake2 mit 700 FPS in 4k-Auflösung laufen.

aufkrawall
2025-12-30, 10:25:18
Ja, ja. Vor einem Jahr waren auch ML-generierte Bilder ohne derbe Artefakte noch eine Vision für die ferne Zukunft...

Exxtreme
2025-12-30, 10:31:06
Die AI-Hardware wird aber nicht von jetzt auf nachher um Faktor 1000 schneller. Es ist wahrscheinlich viel effizienter Content ala Texturen mit Hilfe von AI zu generieren und dann klassisch zu nutzen.

aufkrawall
2025-12-30, 10:39:02
Die AI-Hardware wird aber nicht von jetzt auf nachher um Faktor 1000 schneller.
Muss sie auch nicht, wenn man bessere Lösungen als Brute Force findet.

Relex
2025-12-30, 10:54:35
Ich denke fotorealistische Grafik über klassisches Rendering dürfte ähnlich weit entfernt sein wie komplett KI generierte Bilder mit fotorealistischer Grafik mit hohen FPS. Das scheint stand HEUTE mMn. beides gleichermaßen fordernd zu sein.

Der Unterschied ist, dass man bei der Skalierung der Hardware für klassisches rendering scheinbar gegen ne Wand rennt, man die KI Leistung aber weiterhin noch gut steigern kann und die KI Algorithmen durch training und Forschung immer besser und effizienter werden und man so mit nem vollständigen KI chip künftig mehr beim Grafik Rendering erreichen kann, als wenn man den Chip als normale GPU aufbaut.


Aber ob diese Wette aufgeht wird man erst in einigen Jahren, vielleicht erst Jahrzehnten sehen.
Bis dahin werden die aufwändigsten Bereiche des Renderings von KI beschleunigt und das funktioniert ja bereits sehr gut und lässt sich noch stark ausbauen. Ist also jetzt schon enorm vielversprechend und scheint der logische Weg zu sein.

Heißt auf dem Weg zum vollständig KI generierten Bild wird man erstmal schritt für schritt nach Anwendungen im klassischen Rendering suchen und die Anwendungsmöglichkeiten ausbauen. Ob dann am Ende das Bild mit dem Gerüst eines klassischen rasterizers aufgebaut wird und die KI irgendwann das komplette Shading übernimmt oder ob man komplett via KI generiert, wird sich dann schon irgendwann zeigen. Spielt dann aber vermutlich auch keine große Rolle mehr.

robbitop
2025-12-30, 11:24:11
Hier mal eine kontroverse Ansicht dazu: Braucht Gaming wirklich Fotorealismus?
IMO ist die Grafik in den meisten Genres schon lange so gut, dass sie den Spielspaß nicht mehr limitiert. (im Citybuilder Genre IMO noch nicht- das sieht zT immernoch nach 90er Jahre 3D Grafik aus - selbst bei Skylines 2)
Die Assets werden immer aufwändiger und steigern sie Kosten von AAA Projekten aber ohne, dass die (IMO) mehr Spaß machen. Und seien wir ehrlich: wie schnell vergeht die Begeisterung und bei einer Grafikbombe? Wow Pathtracing, wow Crysis (in 2007). Aber man sieht sich dann doch satt und was bleibt ist das Gameplay. Und zum Gameplay gehört gute Performance - idealerweise nicht nur auf high end Systemen.

Was ich persönlich viel wünschenswerter finde, sind von Anfang an optimierte Titel mit ausbalanciertem Frametimebudget.
Positivbeispiele: Die Doom Reihe, Wolfenstein 2, Half Life Alyx. Was die aus dem bisschen Performance machen die sie brauchen ist super. Und auch kein scheiss Gestottere.
In den 2010ern gab es einige Spiele die reasonable mit der Frametime umgingen. Clever genutzt günstige Effekte statt teuren Effekten die oft kaum besser aussehen.
Was heute an oft an Leistung verschwendet wird, in Zeiten wo Hardware kaum noch schneller pro Zeit wird und so teuer wie lange nicht mehr ist. Meh. Bei vielen Studios bloatet UE5 übelst rum (und die wenigen Studios die selbst optimieren zeigen aber dass einiges gehen kann siehe Witcher 4 Techdemo und ich bin mir auch sicher dass The Coalition im nächsten Gears of War Titel es hinbekommen wird).

Hier mal ein paar Videos die die Frametime von gut optimierten Spielen auseinander nehmen und gegen modernen UE bloat vergleichen (allerdings ist der Autor IMO unnötig intensiv mit seiner Kritik - wahrscheinlich weil noch jung - aber inhaltlich ist das soweit ich sehe korrekt - das einzige wo ich nicht konform bin ist seine Ansicht zu TAA):
Fox Engine is crazy optimized: https://youtu.be/aB5qxp6SPPQ?si=LA17g5zTw76m7aor

Dynamic lighting was better 10 years ago: https://youtu.be/6Ov9GhEV3eE?si=SnVroE8965okzkqw


Da gibts einen Haufen weiterer Videos welche die Frametime moderner Games untersucht und Effekt für Effekt sich anschaut wir teuer er ist und wie man es hätte zT massiv günstiger machen können.

aufkrawall
2025-12-30, 11:30:52
Dynamic lighting was better 10 years ago: https://youtu.be/6Ov9GhEV3eE?si=SnVroE8965okzkqw

Du verlinkst da Müll von einem Bescheißer.

Exxtreme
2025-12-30, 11:34:59
Dynamic lighting was better 10 years ago: https://youtu.be/6Ov9GhEV3eE?si=SnVroE8965okzkqw




Ohhh, Threat Interactive. Das ist der Typ, der jedem einen Copyright Strike verpasst, der es wagt ihn zu kritisieren.

robbitop
2025-12-30, 11:36:24
Du verlinkst da Müll von einem Bescheißer.

Das ist eine ernsthafte Anschuldigung die konkreten Argumenten und Belegen bedarf IMO. Kannst du das genauer ausführen? Welche Aspekte sind genau inhaltlich falsch? Er hat eine gewöhnungsbedürftige Art und Weise aber ich sehe erstmal keine groben Fehler. :)

Ohhh, Threat Interactive. Das ist der Typ, der jedem einen Copyright Strike verpasst, der es wagt ihn zu kritisieren.
Er ist leider viel zu aggressiv und die Axt im Walde wirkt nicht seriös. Und mit solchem Verhalten schadet er sich selbst. Das Problem mit EQ und IQ haben ja nicht wenige ^^ Aber: IMO muss man das „wie“ vom „was“ trennen. Wenn man ihn diskreditieren möchte, sollte es inhaltliche Argumente geben. XYZ ist falsch weil. Wenn man davon 2-3 Beispiele hat ok. Aber für mich sind Verhalten und Inhalt zwei verschiedene Dinge. :)

Relex
2025-12-30, 11:39:15
Hier mal eine kontroverse Ansicht dazu: Braucht Gaming wirklich Fotorealismus?


Ja, braucht es. Das heißt nicht, dass die Grafik fotorealistisch sein muss, sondern es schafft erstmal nur die Grundlage für beliebig komplexe Materialien, beliebig viele Lichtquellen und bounces, die Tatsache, dass JEDES noch so kleine Detail verschattet werden kann. Und und und.

Das schafft die Voraussetzungen, jeden beliebigen Grafikstil umsetzen zu können.

Ein Cell Shading spiel kann davon genauso profitieren, wie irgend ein hoch stilisiertes sehr künstlerisches Spiel.

Es geht beim Fototrealismus nicht unbedingt darum, alles fotorealistisch aussehen zu lassen, sondern darum alle limitierungen irgendwann loszuwerden. Erst das ermöglicht dann echte künstlerische Freiheit.


Einfaches Beispiel: Schau dir an, wie das Spiel Dispatch aussieht und vergleich es mit Tell Tale Spielen von vor 10 Jahren. Gewaltiger Qualitätsunterschied.
Oder das Lego Builders Journey Spiel, das stark auf Raytracing setzt.
Selsbt fortnite sieht trotz des einfachen Grafikstils heute besser aus als vor einigen Jahren, obwohl realismus keine Rolle spielt.

Selbst bei Nintendo sieht ein Mario Kart World sehr viel besser aus als ein MK8 und ich würde behaupten, dass sie mit World den Grafikstil den sie im Kopf hatten (eher richtung Pixar style) sehr viel besser umsetzen konnten als noch bei MK8, welches rückwirkend wie ein typisches Rasterizer Spiel aussieht und einen weniger eigenständigen look hat. Gerade wenn man heute rückwirkend ältere spiele betrachtet, wirken viele sehr gleichförmig, weil sie alle unter den selben rasterizer limitationen leiden.

aufkrawall
2025-12-30, 11:42:25
aber ich sehe erstmal keine groben Fehler. :)

Ich glaub, dann erübrigt sich die Diskussion.

robbitop
2025-12-30, 11:43:39
Ja, braucht es. Das heißt nicht, dass die Grafik fotorealistisch sein muss, sondern es schafft erstmal nur die Grundlage für beliebig komplexe Materialien, beliebig viele Lichtquellen und bounces, die Tatsache, dass JEDES noch so kleine Detail verschattet werden kann. Und und und.

Das schafft die Voraussetzungen, jeden beliebigen Grafikstil umsetzen zu können.

Ein Cell Shading spiel kann davon genauso profitieren, wie irgend ein hoch stilisiertes sehr künstlerisches Spiel.

Es geht beim Forotrealismus nicht unbedingt darum, alles fotorealistisch aussehen zu lassen, sondern darum alle limitierungen irgendwann loszuwerden. Erst das ermöglicht dann echte künstlerische Freiheit.
Verstehe ich - aber ganz ehrlich hat das wirklich bis dato Spielspaß verhindert? Die Studios haben gezeigt, dass man alles mögliche auch hinfaken / hinbauen kann.

Mein Eindruck ist dass Studios hier eher Arbeit sparen wollen und es lieber systemisch lösen wollen. Auf Kosten der Rechenleistung.
Die best bewertesten Spiele sind sehr sehr oft jedenfalls nicht unbedingt die grafisch besten oder modernsten. IMO besteht da keine statistisch erkennbare Korrelation.
Ich als Gamer empfinde das auch so ehrlich gesagt - erkenne aber auch an, dass das subjektiv ist und sicher individuell unterschiedlich.
Ich fand CP77 auch oppulent. Aber es macht mir nicht weniger Spaß, mit weniger Details zu spielen oder gar ohne RT wenn ich ans schwächeren Systemen spiele. Gerade auf den Handhelds merke ich das immer wieder.

Relex
2025-12-30, 11:52:37
Öhm, ja natürlich korreliert das nicht zwangsweise, aber war doch bei Filmen genauso. Nur weil ich Filme jetzt in 4K und HDR ansehen kann sind sie nicht besser als alte Filme auf VHS und DVD.

Allgemein werden Filme auch nicht dadurch besser, dass heute mit CGI viel mehr möglich ist. rein grafisch und auch künstlerisch. Es würde nur andere Filme geben die auf andere Weise inszeniert werden und andere dinge zeigen, um eben mit den früheren Limitationen umzugehen.

Es würde die Filmemacher einschränken, aber nicht zwangsweise die Qualität beeinflussen.


Trotzdem sind das Fortschritte die man nicht mehr missen will und sowohl Zuschauer als auch den Machern zu Gute kommen. Bei Spielen seh ich das eben ganz genauso.

robbitop
2025-12-30, 11:52:53
Ich glaub, dann erübrigt sich die Diskussion. Du hast eine Behauptung aufgestellt (sogar eine Anschuldigung), willst diese aber nicht durch Argumente und Belege untersetzen? Ich wüsste gern warum?
Wenn sich mit der Einstellung eine Diskussion erübrigt dann mit dir. Ohne Argument und Beleg ist deine Behauptung jedenfalls leider substanzlos. Ich vermute aber, dass diese Substanz vorhanden ist, denn du bist nicht auf den Kopf gefallen - aber du müsstest sie schon teilen. :)

Nochmal: lieber aufkrawall kannst du bitte deine Behauptung begründen um eine sinnvolle Diskussion zu ermöglichen und alle anderen auch deine Einsicht zu gewähren? Was spricht dagegen? Zur Klarstellung - meine Intention: Ich bin da wirklich interessiert und würde gern wissen ob und warum derjenige falsch liegt. Und wenn er falsch liegt und das erklärt werden kann entferne ich die Links und füge deine Begründung hinzu. Ich habe hier keinen bias - wüsste aber schon gern wieso. Ohne das warum geht das nicht. :)

robbitop
2025-12-30, 11:57:27
Öhm, ja natürlich korreliert das nicht zwangsweise, aber war doch bei Filmen genauso. Nur weil ich Filme jetzt in 4K und HDR ansehen kann sind sie nicht besser als alte Filme auf VHS und DVD.

Allgemein werden Filme auch nicht dadurch besser, dass heute mit CGI viel mehr möglich ist. rein grafisch und auch künstlerisch. Es würde nur andere Filme geben die auf andere Weise inszeniert werden und andere dinge zeigen, um eben mit den früheren Limitationen umzugehen.

Es würde die Filmemacher einschränken, aber nicht zwangsweise die Qualität beeinflussen.


Trotzdem sind das Fortschritte die man nicht mehr missen will und sowohl Zuschauer als auch den Machern zu Gute kommen. Bei Spielen seh ich das eben ganz genauso.

Hm also mir fallen ehrlich gesagt keine wesentlichen Beispiele für Spiele ein, die nur durch grafischen Fortschritt in den letzten 10 Jahren jetzt möglich wurden, die vorher nicht möglich gewesen wären.
Von Gameplayinnovation oder Stil: ja auf jeden Fall. Aber ohne Effekte wie RT/PT usw? Mir fällt nicht eines ein - insbesondere ein richtig gutes. Wahrscheinlich kann man die 10 Jahre deutlich verlängern würde ich sagen.

IMO gab es den von dir benannten Punkt auf jeden Fall in moderner 3D Grafik. Aber in „letzter Zeit“ irgendwie nicht mehr. Trotz Größenordnungen mehr Power und krassen 3D Revolutionen wie KI upsampling, RT/PT, Frame Generation usw usf.

Aber ggf irre ich mich und habe auch nicht das richtige Spiel im Kopf. Also wenn jemandem eines einfällt, dann immer raus damit. :)
Bin gern bereit meine Meinung zu ändern wenn ich was übersehe.

aufkrawall
2025-12-30, 12:19:11
Du hast eine Behauptung aufgestellt (sogar eine Anschuldigung), willst diese aber nicht durch Argumente und Belege untersetzen?
Ne, will ich eigentlich nicht, wenn du so etwas selber in 10s in ein LLM eingeben kannst:
https://gemini.google.com/share/ff5ffc5a7228

Zusammenfassung
Während Threat Interactive bei einigen Spielern (Laymen) beliebt ist, weil er ihren Frust über unscharfe Grafik und schlechte Performance validiert, gilt er unter Entwicklern als jemand, der Halbwissen verbreitet, moderne Rendering-Mathematik ignoriert und Kritiker durch YouTube-Strikes mundtot machen will.

Würde wirklich mal das mentale Ankommen im LLM-Zeitalter empfehlen.

robbitop
2025-12-30, 12:33:04
LLMs erzählen auch viel Quatsch. Ich habe auch eine bemüht und die hat vor allem sich an bestimmten Punkten aufgehangen und war da nicht wirklicn unbiast. Das ist nicht das gleiche wie konkret seine Behauptungen zu belegen.
Dein Link fokussiert sich auch sehr einseitig auf ein paar wenige Dinge, ist sehr unkonkret und anscheinend gebiast weil
nur das Negative aber nicht das Positive beleuchtet wird.
Viel sinnvoller wäre es die Frametime die er in den zwei links auseinander nimmt Stück für Stück zu beleuchten und zu sehen wie viel davon wirklich falsch ist.
Mich überzeugt das mangels Substanz und konkreten Punkten nur partiell.
Aber von mir aus auch EoD wenn du keine Zeit/Lust hast. :)

Achill
2025-12-30, 12:49:46
Ne, will ich eigentlich nicht, wenn du so etwas selber in 10s in ein LLM eingeben kannst:
https://gemini.google.com/share/ff5ffc5a7228



Würde wirklich mal das mentale Ankommen im LLM-Zeitalter empfehlen.


Dein Prompt ist schon spezifisch auf eine bestimmte Antwort zugeschnitten und liefert dir entsprechende Ergebnisse, vom Video am Ende will ich gar nicht erst reden. Imho besser, da offener Prompt: https://gemini.google.com/share/7ea3d3023b5d

Platos
2025-12-30, 12:50:54
Du siehst wirklich kein Potenzial in der Technik? Respekt.

ChatGPT und AlphaFold reichen mir als Meilensteine um zu erkennen, dass das absolute gamechanger Technologie ist.

Textverständnis ist hald wichtig. Dass diese Technik (privater Assistent, der alles Weiss) selbstverständlicherweise eine Revolution. Darum gings aber nicht. Es ging um die Aussage, dass ChatGPT damals bei Release einem aus der Socke gehauen hat. Das hat es maximal deswegen, weil es so schlecht war/ist.

Platos
2025-12-30, 12:55:52
Hier mal eine kontroverse Ansicht dazu: Braucht Gaming wirklich Fotorealismus?
IMO ist die Grafik in den meisten Genres schon lange so gut, dass sie den Spielspaß nicht mehr limitiert.

Die Frage ist wohl eher: Hat sie das jemals ? Ich erinnere mich persönlich an die guten Spiele in meiner Spielkarriere und davon ist kein einziges aufgrund der Grafik auf der Liste gelandet. Ok, eine Ausnahme gibts, die ich in erinnerung habe: Schlechte Lippensynchro.

Aber ansonsten sollte man mal lieber wieder gute Storys machen. Und damit meine ich nicht Krampfhaft versuchen anders zu sein, sondern einfach nicht so ne billige Standartstory. Ist hald eig. wie bei den Filmen auch.

aufkrawall
2025-12-30, 13:00:52
LLMs erzählen auch viel Quatsch.
Die werten in dem Punkt erstmal nur die Aussagen anderer zu dem Typen aus und fassen das zusammen. Und servieren dir auf dem Silbertablett, dass er Geld für leere Versprechen einsammelt und DMCA-Strikes missbraucht, Kritiker mundtot zu machen. Positive Meldungen von echten Entwicklern wurden komischerweise nicht gefunden...
Ich weiß wirklich nicht, warum dir bei dir da nicht die Alarmglocken läuten. Zeigt wieder mal, wie Betrugsmaschen auch bei intelligenten Menschen erfolgreich sind, aus Nostalgiegründen oder was auch immer.

Tesseract
2025-12-30, 13:04:14
Imho besser, da offener Prompt: https://gemini.google.com/share/7ea3d3023b5d

diese antwort ist oberflächerlicher inhaltsloser reddit-circlejerk.

aufkrawall
2025-12-30, 13:08:32
Dein Prompt ist schon spezifisch auf eine bestimmte Antwort zugeschnitten
Wirklich nicht. Hast ja auch null Begründung gegeben. Trolling?

Ex3cut3r
2025-12-30, 13:14:18
Mich würde interessieren, wie Tesseract und andere erfahrene Game-Entwickler im Forum Threat Interactive einschätzen.

Aus meiner Sicht als Laie liefert er keine belastbaren Belege für seine Aussagen. Auf mich wirkt er eher wie ein typischer „Corona“-Influencer nur eben zu einem anderen Thema. :biggrin:

robbitop
2025-12-30, 13:16:03
Dein Prompt ist schon spezifisch auf eine bestimmte Antwort zugeschnitten und liefert dir entsprechende Ergebnisse, vom Video am Ende will ich gar nicht erst reden. Imho besser, da offener Prompt: https://gemini.google.com/share/7ea3d3023b5d
Selbst der Prompt fuhrt nur zu mittelmäßigen Ergebnissen (IMO).

bspw

Ignoranz der Produktionsrealität: Seine Lösungsvorschläge (z. B. alles in Custom-Engines hochgradig manuell zu optimieren) sind für moderne AAA-Produktionen oft wirtschaftlicher Selbstmord. Engines wie UE5 werden genutzt, um die Entwicklungszeit zu verkürzen, nicht nur um die beste Grafik zu liefern.

Mangelnde Erfolgsbilanz: Ein Hauptkritikpunkt ist, dass Threat Interactive bisher kein eigenes Spiel veröffentlicht hat, das seine Theorien in der Praxis beweist. Er tritt als Experte auf, ohne jemals eine komplexe Rendering-Pipeline für ein kommerzielles Produkt fertiggestellt zu haben.
Argument „fehlende Erfolgsbilanz“ ist ein klassisches und IMO völlig falsches Argument. Es kritisiert, dass er selbst kein Spiel veröffentlicht hat, was es besser macht. Wenn man Dinge nur kritisieren dürfte, wenn man es besser machen konnte, würde es beinahe keine Kritiken mehr von irgendwas geben. Sport, Filme, Theaterstücke usw. Diese Art Argument wird immer wieder genutzt weil es schön einfach ist, aber ist objektiv eigentlich nicht korrekt weil es sich mit der Kritik als solcher nicht objektiv auseinandersetzt sondern versucht arbiträre Eintrittsbarrieren zu schaffen.

„Wirtschaftliche Realität“. Naja er könnte das schon denke ich besser anerkennen. Sehe ich auch so. Und klar gibt es einen Grund für unzureichende Optimierung. Der ist nicht Faulheit oder Boshaftigkeit. Es stehen einfach nicht die richtigen Ressourcen in der richtigen Menge zur richtigen Zeit bereit.
Aber dennoch muss man konstatieren, dass es eben doch ettliche Beispiele gibt, die zeigen, dass vernünftige Optimierung mit ähnlichem Budget machbar ist. Das hat wahrscheinlich auch mit den Leuten zu tun, die in der Entwicklung arbeiten und wie dort die Philosophie ist. Manche Studios sind da einfach traditionell besser drin als andere.

Und viel vom Rest des Promptes ist wenig konkret und krisiert seine (so finde ich auch) sehr fragwürdige Art und Weise mit Menschen umzugehen oder unkonkrete Vorwürfe von Entwicklern, dass er technobubblet. Mag ja sein - aber ist ohne konkreten Beleg erstmal nur ein substanzloser Vorwurf. Viel besser wäre: Video xyz Zeitstamp t das ist falsch weil.

Kann ja auch sein, dass er falsch liegt. Aber zumindest die LLMs belegen es nicht besonders gut sondern scheinen nur die kontroversen Diskussionen die in anderen Foren abzulaufen scheinen zu lesen die anscheinend auch sehr unkomkret sind wo es primär darum zu gehen scheint ihn zu diskreditieren und die Studios zu verteidigen. Was okay ist - aber wie gesagt, es fehlt da schon Substanz.

Hinzu kommt eben (und wem von uns geht es nicht so?), dass man immer öfter mal vor einem Spiel sitzt und komplett negativ überrascht von der Performance ist in Relation zu dem was auf dem Monitor zu sehen ist und man denkt, dass habe ich schon deutlich hübscher oder ähnlich für ein Bruchteil der Ressources gesehen. Insbesondere in Zeiten wo eine Geforce MX (das war
mit Absicht sarkastisch - aber wenn man sich mal das nackte board und den kleinen gb203 anschaut und auf den Kassenzettel schaut kommt das Gefühl schon auf) fast vierstellig kostet. X-D

robbitop
2025-12-30, 13:19:43
Die Frage ist wohl eher: Hat sie das jemals ? Ich erinnere mich persönlich an die guten Spiele in meiner Spielkarriere und davon ist kein einziges aufgrund der Grafik auf der Liste gelandet. Ok, eine Ausnahme gibts, die ich in erinnerung habe: Schlechte Lippensynchro.

Aber ansonsten sollte man mal lieber wieder gute Storys machen. Und damit meine ich nicht Krampfhaft versuchen anders zu sein, sondern einfach nicht so ne billige Standartstory. Ist hald eig. wie bei den Filmen auch.

Naja die Zeit der flüssigen 3D Grafik mit halbwegs okayem Polygonbudget hat sicherlich doch einige Spielegenres erlebt die es ohne nicht gegeben hätte. Die Frage ist ja nicht ob Spiele nicht vorher schon Spaß gemacht haben sondern ob bestimmte Spiele erst ab einem gewissen Grafiklevel
möglich waren. Und das würde ich schon mit ja beantworten. Moderne Open World 3D Spiele - ich denke das brauchte schon Mitte/Ende 2000er HW. Sagen wir großzügig 2010er Jahre. Danach ist mit zumindest noch kein Spiel untergekommen was nicht auch technisch mit älterer Grafik möglich gewesen wäre. Also das Gameplay und Storytelling nicht auch funktioniert hätte.

Achill
2025-12-30, 13:22:33
Ok, der Prompt "threat interactive kritisiert oft modernes rendering. wie ist er gegenüber anderen entwicklern aufgefallen, und wie bewerten diese ihn?" ist geschlossen und fragt nicht, ob etwas in seinen Videos berechtigt ist.

Der Prompt von mir ist offen. Man kann den chat jetzt weiter führen mit einen detaillierten Prompt wie: "Gehe auf falsche oder verzerrte Fakten detaillierter ein und liefere Quellen dazu.". Wenn man die Quellen hat, kann man diese genauso prüfen lassen.

---
Edit: Mein freies Thinking und Pro Guthaben von Gemini ist aufgebraucht. Ich bin raus ... :D

Troyan
2025-12-30, 13:24:29
Dynamic lighting was better 10 years ago: https://youtu.be/6Ov9GhEV3eE?si=SnVroE8965okzkqw


Nichts davon sah besser aus. Der Unterschied ist, dass vieles deutlich schneller zu berechnen ist als Raytracing. Dadurch ist man eben nicht auf Upscaling und TAA angewiesen.

Früher hätte man in Indiana Jones die Texturen entsprechend so gestaltet, das die Lichtinformationen vorhanden sind. Mit dem RTGI hat man sich das gespart, wodurch der Dschungel auch so miserabel aussieht und erst mit Pathtracing-GI einen realistichen Look erhält.

robbitop
2025-12-30, 13:26:47
Die werten in dem Punkt erstmal nur die Aussagen anderer zu dem Typen aus und fassen das zusammen. Und servieren dir auf dem Silbertablett, dass er Geld für leere Versprechen einsammelt und DMCA-Strikes missbraucht, Kritiker mundtot zu machen. Positive Meldungen von echten Entwicklern wurden komischerweise nicht gefunden...
Ich weiß wirklich nicht, warum dir bei dir da nicht die Alarmglocken läuten. Zeigt wieder mal, wie Betrugsmaschen auch bei intelligenten Menschen erfolgreich sind, aus Nostalgiegründen oder was auch immer.

Ich unterscheide/differenziere da ehrlich gesagt lieber. Und ich denke das macht gebildete Menschen aus. Nichts ist schwarz/weiss. Ich will wissen was genau objektiv falsch ist. Diskreditierung allein ist IMO eine Stufe zu low. Das wird vor (zumindest in Film und Serie) Gericht gemacht und damit kann man IMO weniger gebildete Menschen catchen. Und ich sage auch nicht, dass ich überzeugt von der Richtigkeit seiner Videos bin. Ich sage: es gibt Kritik - lasst mal sehen was davon Substanz auf technischer und objektiver Ebene hat und klammere mal die menschlichen Fehltritte aus (dass das Fehltritte sind - da sind sich alle einig). Denn das ist klar da benimmt er sich völlig daneben und das ist nicht akzeptabel- da bin ich d‘accord.
Aber per bias auf einzelne Schwachstellen einzugehen und daraus zu schließen, dass damit dann alles falsch und diskreditiert sein soll geht einfach nicht tief genug IMO. Ggf ist auch alles falsch - aber das Netz scheint sehr reich an Diskreditierung und sehr arm an sehr konkreten Punkten zu sein was genau falsch ist. Deshalb sage ich: ein Video wo er den kompletten Frame durch geht - Punkt für Punkt - und dann schauen, was ist richtig und was ist falsch. Gleichermaßen. Denn das richtige wird durch das flasche nicht auch falsch und irrelevant. :)

Und wenn wir ehrlich sind: die Chance ist nicht gerade klein, dass einige Aspekte auch stimmen (ich sehe das nicht schwarz weiss - also jemand ist kacke oder super- sondern differenziert - jemand kann in manchen Aspekten Recht haben auch wenn andere Aspekte falsch sind - die falschen Aspekte machen nicht alles andere auch falsch). Wie eben beschrieben strotzen viele moderne Spiele vor Beispielen wo man verdattert auf den Monitor schaut und sicht denkt: wtf warum sieht es so kacke aus und kostet so viel Performance? Das aktuelle Borderlands zB.
Andere zeigen dass es geht (Witcher 4 Demo, Doom Dark Ages usw). Das gleiche gab es auch zu UE4 wo the coalition zB sehr gute Ergebnisse mit der UE4 hinbekommen hat mit GoW4 und vor allem 5. :)

robbitop
2025-12-30, 13:49:11
Nichts davon sah besser aus. Der Unterschied ist, dass vieles deutlich schneller zu berechnen ist als Raytracing. Dadurch ist man eben nicht auf Upscaling und TAA angewiesen.

Früher hätte man in Indiana Jones die Texturen entsprechend so gestaltet, das die Lichtinformationen vorhanden sind. Mit dem RTGI hat man sich das gespart, wodurch der Dschungel auch so miserabel aussieht und erst mit Pathtracing-GI einen realistichen Look erhält.

Der Titel ist (wie immer auf dieser unsäglichen Videoplattform) nur ein Clickbait.
Objektiv und nüchtern (davon hällt der Alogrithmus aber nix) müsste es „performancenomiert besser“ oder „bq normiert bessere performance“ heissen. Und in Zeiten wo Performancessteigerungen wahrlich nicht mehr auf Bäumen wachsen, ist das schon ein wichtiger Punkt besonders effizient mit der Rechenleistung umzugehen.

Relex
2025-12-30, 13:56:51
Nichts davon sah besser aus. Der Unterschied ist, dass vieles deutlich schneller zu berechnen ist als Raytracing. Dadurch ist man eben nicht auf Upscaling und TAA angewiesen.

Früher hätte man in Indiana Jones die Texturen entsprechend so gestaltet, das die Lichtinformationen vorhanden sind. Mit dem RTGI hat man sich das gespart, wodurch der Dschungel auch so miserabel aussieht und erst mit Pathtracing-GI einen realistichen Look erhält.


Ich finde bei deinem letzten Statement übertreibst du etwas. Wald bzw. vor allem die indirekte Beleuchtung in einem verschatteten Wald sah ohne Raytracing schon immer ziemlich schlecht aus.

Ja, man kann mit Lightmaps die Beleuchtung vorberechnen und sie dann ohne weiteren Rechenaufwand im Spiel nutzen. Das klappt aber nur bis zu nem gewissen Detaillevel. Große, quadratische Gebäude und ähnliches lässt sich leicht via Lightmap ausleuchten ohne dass es viele Kompromisse braucht. Mirrors Edge hat das damals eindrucksvoll gezeigt.

Bei Vegetation wirds aber schon schwieriger, weil Lightmaps mit dem dafür notwendigen Detailgrad extrem groß werden und daher unmengen an Speicherplatz und VRAM brauchen würden. Lightmaps können daher immer nur für recht großflächige Ausleuchtung sorgen. Auf kleinerer Ebene muss es dann Ambient Occlusion richten und die ist arg limitiert.

Bevor es RT gab, waren die meisten Bäume und Sträucher deshalb von einem dunklen "blob" aus Ambient Occlusion umgeben. Das funktionierte je nach Spiel halbwegs okay oder sah furtchtbar aus. Im Vergleich zu RT-GI oder Pathtracing war es auf jeden Fall eine sehr große Limitierung, die selbst damals als man noch gar kein RT oder PT gesehen hatte immer wieder kritisiert wurde.

Manche Spiele boten sogar unterschiedlichste Versionen von Ambient Occlusion, SSAO, HBAO+ und viele weitere, weil alle ihre eigenen Kompromisse eingehen mussten, weil letztendlich alles nur höchst instabile Screen Space Berechnungen waren.

Schau dir mal z.B. die damaligen Reviews zu Rise of the Tomb Raider an, dann verstehst du was ich meine. Die ganze Vegetation war extrem flimmernd und kaum richtig verschattet. Kein TAA,sondern nur SMAA und FXAA, nur instabiles SSAO/HBAO... es war furchtbar :D

aufkrawall
2025-12-30, 14:07:08
Ok, der Prompt "threat interactive kritisiert oft modernes rendering. wie ist er gegenüber anderen entwicklern aufgefallen, und wie bewerten diese ihn?" ist geschlossen und fragt nicht, ob etwas in seinen Videos berechtigt ist.

"Geschlossen" ist ein Wischi-Waschi-Begriff. Jede Fragestellung ist irgendwie geschlossen, sonst wäre jede Frage "Was ist der Sinn des Lebens?". :rolleyes:
Mein Prompt ist eben nicht auf NEGATIVE Aussagen anderer Entwickler geschlossen. Wenn andere Entwickler (zwar wenige insgesamt, aber trotzdem) sich ausschließlich negativ über den Typen äußern und sich deshalb nichts substanzielles anderes finden lässt, liegt das wohl kaum an einem "zu geschlossenen" Prompt, sondern daran, dass es keine Quelle gibt, dass irgendjemand seriöses ihm zustimmen würde...
Der hat sich einfach auf die Stimmung der miesen Optimierung von Spielen und UE5 draufgesetzt und das mit Geschwurbel abgemelkt...

Lurtz
2025-12-30, 15:33:36
Du hast eine Behauptung aufgestellt (sogar eine Anschuldigung), willst diese aber nicht durch Argumente und Belege untersetzen? Ich wüsste gern warum?

Der Typ ist ein bekannter Grifter, der den Leuten erzählt was sie hören wollen, um Spenden abzugreifen. Man muss nicht jeden Schwachsinn wie die Ungefährlichkeit von Impfungen erstmal herleiten.

robbitop
2025-12-30, 15:44:58
Man muss aber Behauptungen durch konkrete Argumente und Belege untersetzen. Das gilt in einer vernünftigen Diskussionskultur ohne Ausnahme. Wenn man darauf keine Lust hat, gibt es auch die Option nichts zu posten. :) Und bis dato habe ich wenig Konkretes und hauptsächlich verallgemeinerte Diffamierungen gesehen.

Und einfach nur ein Scammer der Leuten erzählt was sie hören wollen - ist das wirklich so? Er geht draw call für draw call durch die frame time und begründet das. (und das zu machen kann auch nicht jeder unfähige scammer - ich würde sogar vermuten die wenigsten hier im Forum können das) Wenn das alles Quatsch ist warum geht keiner konkret auf genau diese Dinge ein? Ist einfacher alles als Quatsch (in dem man ihn diffamiert) abzutun. Kann auch ggf sein, dass vieles nicht korrekt ist. Aber wenn dann müsste es schon spezifisch beleuchtet werden. Komisch dass sich das Internet nicht die Mühe macht und nur schnell schnell versucht ihn zu diffarmieren und gleich alles an Content damit wegzureden anstatt den Kontent objektiv zu beleuchten.

Also wenn nichts in die Richtung kommt ist jeder Post zu dem Thema Zeitverschwendung und wir sollten es dann lieber gut sein lassen und zum Threadthema zurück kommen. ;)

aufkrawall
2025-12-30, 16:02:44
Von dir kommt auch nichts, welcher seiner Punkte jetzt so schlagend wäre. Aber schön von anderen einfordern, mal wieder classic scheinheilig.

robbitop
2025-12-30, 17:17:08
Von mir kam aber auch keine Anschuldigung.
Zu jeder Anschuldigung gehören Argumente und Belege. Entsprechend ist das eine damit verbundene Bringschuld. Das sind die Grundregeln der Diskussion die man während des Abiturs erlernt. Wenn man keine Lust darauf hat, kann man alternativ auch einfach nichts posten. Ist immer eine Option. :)

Es wäre im übrigen der Diskussion dienlich, sachlich zu bleiben anstatt persönlich auch noch andere anzugehen. Insbesondere wenn man andere für ihr unsachliches Verhalten (TI - die Kritik ist allerdings angebracht) kritisiert gilt das gleich doppelt.

aufkrawall
2025-12-30, 17:29:25
Was willst du eigentlich? Ich kann in BF6 selbst mit niedrigsten Details und 4k DLSS Performance keine konstanten 140fps halten. Dabei hat das Spiel null RT, kein Nanite und sieht aus wie Müll:
https://s1.directupload.eu/images/251230/temp/9vs3427n.jpg (https://www.directupload.eu/file/d/9149/9vs3427n_jpg.htm)

Was soll sich jetzt am Rendering in Spielen ändern? Hast du überhaupt so etwas wie ein Argument? Ich kann es nicht entdecken...

robbitop
2025-12-30, 17:39:38
Ich sage ja nicht, dass es nicht auch viele Positivbeispiele (Armored Core 6 ist ein weiteres oder Doom Dark Ages und es gibt sicher viele mehr) gibt. Battlefield und CoD sind OORC dafür bekannt ganz gut optimiert zu sein - ggf auch wegen des MP Fokus so dass man möglichst viele Kunden mit zT auch schwachen Systemen und auch auf Konsolen mit hoher Framerate läuft (ggf ist die Motivation da intrinsisch höher?). Leider zunehmend immer mehr Negativbeispiele.

Was soll sich ändern? Möglichst alle AAA Spiele sollten gut optimiert sein und eine gesunde BQ pro Rechenleistungsanforderung haben (dazu muss aufs frametime budget geachtet werden und sichergestellt wetden, möglichst wenig zu verschwenden und abzuwägen ob einiges nicht auch mit anderen günstigeren Effekten gemacht werden kann - auch wenn man dafür mal was faken oder prebaken muss). Da gibt es wie das von dir benannte BF6 absolute Positivbeispiele aber wie gesagt leider auch zunehmend Negativbeispiele. ZB Borderlands 4, Cities Skylines 2, Oblivion Remastered um nur fix 3 zu nennen.

aufkrawall
2025-12-30, 17:45:49
Doom Dark Ages
Das nutzt RT und ist damit laut TI wohl eher kein gutes Beispiel.
Würde ich auch eher als negatives Beispiel heranziehen. Die GI von Doom ist nur probe-based, was in Arc Raiders abseits der höchsten Stufe relativ wenig Leistung kostet. Trotzdem läuft Dark Ages deutlich langsamer als Eternal mit seinen auch schon teuren RT-Reflexionen...

robbitop
2025-12-30, 17:54:41
Das nutzt RT und ist damit laut TI wohl eher kein gutes Beispiel.
Würde ich auch eher als negatives Beispiel heranziehen. Die GI von Doom ist nur probe-based, was in Arc Raiders abseits der höchsten Stufe relativ wenig Leistung kostet. Trotzdem läuft Dark Ages deutlich langsamer als Eternal mit seinen auch schon teuren RT-Reflexionen...

Ich =/ TI. Ich habe keine Verbindung zu ihm und ich sage auch nicht, dass das was er sagt unbedingt richtig sein muss. Ich empfand es nur nicht als korrekt (moralisch aber auch objektiv) jemand anderen zu diffamieren ohne es konkret zu begründen - das ist einfach das absolute Minimum. Unabhängig von TI ist das einfach nicht richtig. Das würde ich bei jedem anderen genauso machen. Einfach weil alles andere nicht richtig ist. Ich hoffe, dass das jetzt klar ist. :)

Mir persönlich geht es um die Performence für das optisch Gebotene. Doom DA läuft mit RT wirklich sehr sehr gut für das optisch Gebotene (da gibt es durchaus noch einiges mehr an solchen Beispielen mit RT und es gut läuft) und sieht auch sehr gut aus. Das ist der Punkt für mich persönlich - nicht welche Technik angewendet wird. :)

Deshalb fand ich die Witcher 4 Demo, die mit 60 fps auf „Volkshardware“ (PS5) sauber lief und sehr gut aussah auch super und wichtig. Ein gutes Vorbild. So muss das sein. Borderlands 4 war das Gegenteil - und anstatt es einzusehen pöbelt der CEO des Studios lieber rum. X-D

Troyan
2025-12-31, 11:09:23
Ich finde bei deinem letzten Statement übertreibst du etwas. Wald bzw. vor allem die indirekte Beleuchtung in einem verschatteten Wald sah ohne Raytracing schon immer ziemlich schlecht aus.


Rede nicht von Open World Spielen mit Tag/Nacht Wechsel. Der Start von Indiana Jones wird ja auch nur einmal besucht. Früher hätte man hier gefakt bis zum Umfallen.

Heute wird die Arbeit jedoch reduziert, wozu man eben dynamische GI Lösungen benutzt. Nur ist das problematisch, weil diese viel mehr Leistung benötigen. Also hat man entweder solche komplett reduzierten RTGI-Lösungen wie in Indiana Jones oder Lumen/Pathtracing GI, was deutlich schnellere Hardware benötigt. Die Effizienz pro Pixelberechnung sinkt also massiv.

Natürlich könnte man nun die native Auflösungen deutlich reduzieren - Layers of Fears UE5 Version rendert mit 540p und bis zu 60 FPS auf der Switch mit reduzierten Lumen-Einstellungen - aber das führt einfach nur zu mehr Problemen.

Relex
2025-12-31, 11:25:52
@Troyan

Ich habe dir Rise of the Tomb Raider als Beispiel genannt. Das ist extrem linear und trotz bester "fake" Voraussetzungen sieht die Verschattung der Vegetation sehr schäbig aus.

aufkrawall
2025-12-31, 11:30:51
Es gibt kein einziges Open-World-Spiel mit dynamischer ToD ohne RT, wo nicht spätestens indirekt beleuchtete Areale komplett flach und trist aussehen. Es war nie gut. Null, nix, hat es nie gegeben. Anderslautende Behauptungen sind einfach nur kompletter Unfug.
Es hindert keinen Entwickler etwas daran, Nanite und Lumen komplett nicht zu nutzen. Will nur komischerweise kaum jemand...

Troyan
2025-12-31, 12:06:01
@Troyan

Ich habe dir Rise of the Tomb Raider als Beispiel genannt. Das ist extrem linear und trotz bester "fake" Voraussetzungen sieht die Verschattung der Vegetation sehr schäbig aus.

Rise stammt aus einer Zeit, wo man gerade von PS3/360 zur PS4 gewandert ist. Shadow ist deutlich besser von Ende 2018:
https://i.ibb.co/sd2cxv95/Shadow-of-the-Tomb-Raider-Screenshot-2025-12-31-12-00-00-66.png (https://ibb.co/sd2cxv95)

Und so sieht Indiana Jones aus:
https://i.ibb.co/Xkv541BZ/Indiana-Jones-And-The-Great-Circle-Screenshot-2025-09-05-12-37-39-69.png (https://ibb.co/Xkv541BZ)

Indiana Jones benötigt das Pathtracing GI, um überhaupt in solchen Szenen eine Bildqualität zu erreichen, die über Shadows liegt. Das zeigt ja die Problematik mit dynamischen Lichtsystemen.

aufkrawall
2026-01-04, 13:25:12
Gerade schwer am kochen:
[App.4]
ProcessName=SonsOfTheForest.exe
vsync_mode=fifo
anisotropic_filtering=16x
mip_mapping=trilinear
;mip_bias=-2.0
cpu_prerender_limit=1
backbuffer_count=2
dlss_sr_preset=K
dlss_rr_preset=E
dlss_sharpening=off
dlss_auto_exposure=on
dlss_exposure_normalization=off
dlss_sr_dll_path=...
dlss_rr_dll_path=
dlss_fg_dll_path=
streamline_dll_path=
dlss_debug_overlay=on
capture_sync_enabled=false
capture_sync_multiplier=1
general_enabled=true
general_fps=140

https://s1.directupload.eu/images/260104/temp/zg9pekch.jpg (https://www.directupload.eu/file/d/9154/zg9pekch_jpg.htm)

Inject-Lösung, die komplett ohne DLL-Änderungen im Spieleverzeichnis auskommt. Natürlich trotzdem potenzielle Ban-Gefahr mit Anti-Cheat, aber könnte davon ab nützlich sein.
Release ggf. noch in diesem Monat. Alles oben funktioniert schon gut/perfekt, aber FG-Support für Overlay/Capture und performantes DX9-Capture sind nicht so einfach. Oder das Fixen von Audio-Drifts...
Geht schon Richtung 35k Zeilen Code...

robbitop
2026-01-04, 14:23:27
Wird das ein tool mit dem man in allen modernen Spielen DLSS (und auch RR) forcen kann? :O
Viel mit vibe coding (du hast dich zu dem Thema ja schon mehrfach positiv geäußert)

aufkrawall
2026-01-04, 14:32:55
Wird das ein tool mit dem man in allen modernen Spielen DLSS (und auch RR) forcen kann? :O

Nein. Da könnte man eher mal OptiScaler ins LLM schmeißen und gucken, ob was geht. Das Programm ist kein OptiScaler-Ersatz.


Viel mit vibe coding (du hast dich zu dem Thema ja schon mehrfach positiv geäußert)
Habe nicht ein Zeichen selbst gesetzt.

Ansonsten macht Opus 4.5 halt so etwas in mitunter einem Prompt mit funktionierendem Ergebnis:
https://s1.directupload.eu/images/251231/fs8zfvmw.jpg

Find mal hier einen Programmierer, der das kann. Ich hatte hier vor einigen Tagen was von Opus 4.5 = ChatGPT-Moment für Coding geschrieben. Kurze Zeit später ging auf Social Media steil, dass selbst gute Programmierer mit dem Modell kaum noch selbst coden und sich von der Entwicklung überfordert fühlen.
Gemini schätzt, dass das nächste Sonnet noch besser und dabei deutlich günstiger werden sollte...

robbitop
2026-01-04, 14:49:47
Ich meinte eher dass DLSS geforct werden kann wenn das Spiel kein DLSS/FSR oder sonst was supportet (dann bringt Optiscaler auch nichts)?
Wenn auch hier nein - was macht das tool dann? :) Sorry habs nicht kapiert :)

aufkrawall
2026-01-04, 14:54:32
Geht eindeutig aus meinem Post hervor? Du kannst Auto-Exposure, Preset, Debug-Overlay und DLLs überschreiben, ohne Dateien im Spielverzeichnis ändern zu müssen?

Relex
2026-01-04, 15:49:54
Na ja, so wirklich klar hervor geht aus deinem Post nicht, was du genau machst, das lässt sehr viel Interpretationsspielraum. Ich dachte auch erst, es geht um irgend ein Tool, um DLSS in non-DLSS Spielen zu forcieren. Gerade weil du noch irgendwas mit DX9 schreibst...


Aber scheint wohl um ein Tool zu gehen mit dem man die dll files zur Laufzeit austauschen/umleiten und Settings forcieren kann ohne dass man im Spielverzeichnis Dateien tauschen muss.

Wäre tatsächlich sehr praktisch, da man so weder in der Registry rumpfuschen muss, noch die Nvidia App deinstallieren muss, die ja über Profile Inspector forciertes DLL Override ständig automatisch wieder abschaltet, wenn das game nicht whitelistet ist.

Das wäre also ne Endgültige, quasi 1 klick lösung? Sprich ein altes Game mit DLSS3 FG und DLSS3 Preset C könnte man dann mit einem Klick auf die neuen DLL Files umleiten und direkt z.B. Preset K und das neue FG Model forcieren, völlig unabhängig davon, was in den Nvidia App whitelisted ist?


Das mit Opus ist natürlich sehr geil. Das wird sehr viel verändern.

aufkrawall
2026-01-04, 15:55:54
Das wäre also ne Endgültige, quasi 1 klick lösung? Sprich ein altes Game mit DLSS3 FG und DLSS3 Preset C könnte man dann mit einem Klick auf die neuen DLL Files umleiten und direkt z.B. Preset K und das neue FG Model forcieren, völlig unabhängig davon, was in den Nvidia App whitelisted ist?
Will jetzt nicht zu viel versprechen, aber im Grunde ist es das für Spiele ohne Anti-Cheat. Aber das geht natürlich auch nicht für Spiele, die einfach inkompatibel mit neueren StreamLine-Versionen sind. Irgendein Pferdefuß bleibt immer.
Aber es läuft ein Prozess mit Tray-Icon und wenn einmal die .exe in der Config hinzugefügt, bleibt das auch so 100% unabhängig von jeglichen Updates/Neuinstallationen des Spiels oder des Treibers, ja.

Wird 100% open-source MIT sein, mit entsprechend sauber getrennten Lizenzen/Modulen für andere genutzte open-source Projekte.
Ich versuch gerade, den Nvidia-Treiber für besseres negatives Mip Bias mit Vulkan und ggf. auch DX9 im Speicher zu patchen. Bin schon mal vorsichtig optimistisch. Bzw. scheint im Prinzip schon zu funktionieren, allerdings sind die Hex-Codes mit neueren Treibern nicht mehr gültig:
https://forums.developer.nvidia.com/t/bad-texture-filtering-quality-with-negative-lod-bias-on-vulkan/195807/9
Aber rechtliche Grauzone. Bedarf noch genauen Löcherns von LLMs hinsichtlich der Rechtslage...

Relex
2026-01-04, 16:00:46
Schon klar, der Teufel liegt meistens im Detail, auch damit die Robustheit und Zuverlässigkeit gewährleistet ist.

Aber schönes Projekt. :up:



Ach ja, morgen ist es so weit. Ab 22:00 Uhr hält Nvidia die CES Keynote. Gibt wohl noch keine Leaks.
Mal sehen, über was wir morgen an dieser Stelle diskutieren. Ich bin gespannt. Wahrscheinlich muss man aber ohne neuen GPU Release auch mit der Möglichkeit rechnen, dass gar nichts neues in sachen DLSS und co. vorgestellt wird. Ich hoffe nicht...


0NBILspM4c4

aufkrawall
2026-01-04, 16:13:12
Schon klar, der Teufel liegt meistens im Detail, auch damit die Robustheit und Zuverlässigkeit gewährleistet ist.

Oh ja. Ich hatte gehofft, ich könnte mit WGC-Capture ohne Inject für Fortnite obs beerben. Dass obs im Kern oft richtig kacke funktioniert, war quasi meine ursprüngliche Motivation für das Projekt.
Aber, Überraschung, stellt sich raus, dass Microsoft-APIs außerhalb von DirectX offenbar ständig grotesker Müll sind. Mit WGC-Capture gehen nicht mehr als 48fps in 4k. :crazy:
Und jede API braucht für Inject bzw. insbesondere Capture eine passgenaue Einzel-Lösung. Ich muss also jeden Scheiß einzeln durchtesten, und für DX9 und älter vermutlich noch eine d3d9.dll als Wrapper schreiben lassen, damit Zero Copy-Capture geht.
Ganz ehrlich, das ist unter Linux vermutlich alles zunehmend massiv besser...
Aber wundert mich schon fast, dass der ganze "Bonus-Kram" wie die ganzen Overrides für alle Anwendungen und APIs so gut funktioniert. Kann selbst mit Vulkan und DX12 Prerenderlimit 0 forcieren, womit die GPU dann nicht mehr über 80% Auslastung geht. :D



Ich bin gespannt. Wahrscheinlich muss man aber ohne neuen GPU Release auch mit der Möglichkeit rechnen, dass gar nichts neues in sachen DLSS und co. vorgestellt wird. Ich hoffe nicht...
Das wär bitter. Sie sind Reflex 2 immer noch schuldig, das ist selbst schon bislang schwach für Nvidia-Verhältnisse.

robbitop
2026-01-04, 16:48:02
Geht eindeutig aus meinem Post hervor? Du kannst Auto-Exposure, Preset, Debug-Overlay und DLLs überschreiben, ohne Dateien im Spielverzeichnis ändern zu müssen?

Ah ok. Ich hab den Post 3x gelesen und mir war der Kontext nicht 100% klar. Danke für die Klarstellung :)

Lurtz
2026-01-04, 20:36:50
Ich erwarte erstmal nichts. Wir müssen uns wohl daran gewöhnen, dass Gaming bis auf Weiteres höchstens die zweite Geige spielt.

aceCrasher
2026-01-05, 14:58:34
https://videocardz.com/newz/nvidia-dlss-4-5-to-feature-2nd-gen-transformer-model-and-dynamic-6x-frame-generation

DLSS 4.5 mit 2nd gen Transformer Model, 6x Frame Gen und Dynamic Multi Frame Generation

DLSS 4.5 SR kommt auf allen Karten ab Turing, DMFG nur auf Blackwell.

Lurtz
2026-01-05, 15:04:57
Dynamic Multi Frame Generation, as the name suggests, is not locked to a single multiplier. Instead, users may see 3x to 6x more frames, depending on settings. NVIDIA frames this update as a way to deliver smoother gameplay on high-refresh monitors, including 240Hz panels.
Sehr sehr nice, darauf warte ich seit es FG gibt :up: Leider nur von 3x bis 6x FG...

Relex
2026-01-05, 15:26:26
6x Frame Gen bei Blackwell? Dann könnten sie ja jetzt 3x für Ada freigeben :D
Bei 6x FG würde ich aber auch erwarten, dass der FG Algorithmus nochmal schneller geworden ist, sonst würde die Skalierung irgendwann leiden. Mal sehen ob es an der Front auch nochmal besserung gibt.

Aber neues SR Transformer Model hört sich schonmal sehr gut an. Endlich.

Lurtz
2026-01-05, 15:42:48
Lasse mal jemand die DLL rüberwachsen, war die nicht auch beim letzten Mal schon vor der Vorstellung unterwegs? :D

BUG
2026-01-05, 15:43:08
Hoffentlich bekommen RTX2000 und/oder 3000 wenigsten 1-fach Frame Generation. :smile:

Relex
2026-01-05, 15:46:29
Lasse mal jemand die DLL rüberwachsen, war die nicht auch beim letzten Mal schon vor der Vorstellung unterwegs? :D

Ja.
Huang! Gib dll. Jetzt. :ujump2:

Sardaukar.nsn
2026-01-05, 16:18:27
https://videocardz.com/newz/nvidia-dlss-4-5-to-feature-2nd-gen-transformer-model-and-dynamic-6x-frame-generation

DLSS 4.5 mit 2nd gen Transformer Model, ...

Da bin ich schon mal auf Vergleichsbilder gespannt. Das erste Transformer Modell war schon sehr gut.

The_Invisible
2026-01-05, 17:19:49
Dynamic mfg hört sich interessant an, also dynamischen Multiplikator um die max refresh Rate bzw eingestellten max FPS zu erreichen? Hätte ich doch Blackwell gekauft :D

Nightspider
2026-01-05, 17:26:36
Damit schwankt dann aber auch der Inputlag, will das jemand?

Viel interessanter ist die bessere Bildqualität durch 2nd Gen. Transformer Model.

aufkrawall
2026-01-05, 17:29:07
Damit schwankt dann aber auch der Inputlag, will das jemand?

Kommt auf's Spiel an. Für slow-paced Spiele können bessere Bildflüssigkeit/weniger Artefakte auf jeden Fall überwiegen.

dildo4u
2026-01-05, 17:29:19
Das schwankt auch wenn du VRR nutzt daran ändert MFG nichts.

Lurtz
2026-01-05, 20:37:25
Ach das Event ist erst morgen um 6 Uhr? Na hoffentlich gibts dann gleich die DLL, hätte morgen Zeit zum Spielen.

Bilder und Videos reichen zur Beurteilung eh nicht und viele Reviewer haben auch keine Ahnung :ugly:

Relex
2026-01-05, 20:42:24
Ja, die CES Keynote beginnt heute 22:00 Uhr. Die Pre Show dazu startet gleich, aber die neuigkeiten zu DLSS gibts wohl erst in einem anderen Stream morgen um 6:00 Uhr.

Ich hoffe auch, dass sie direkt irgend ein GameUpdate, einen neuen Treiber oder eine Demo mit der dll raushauen. Erst auf die Ankündigung warten und dann nochmal auf den Release finde ich immer so semi-geil... Bei solchen sachen bin ich ungeduldig wie ein Kind an weihnachten :D

Nightspider
2026-01-05, 20:45:06
Kommt auf's Spiel an. Für slow-paced Spiele können bessere Bildflüssigkeit/weniger Artefakte auf jeden Fall überwiegen.

Vielleicht spiele ich zu wenig verschiedene Spiele aber da fällt mir im Moment nichts ein, wo ich das brauchen würde.

Weniger Artefakte wird schwierig wenn das dynamische MFG dann auch 3-4 fach FG wechselt, weil einfach mehr Artefakte auftreten bei höheren Faktoren.

Wird sicherlich auch mit DLSS 4.5 so bleiben, das mit steigendem Faktor bei FG die Artefakte zunehmen und der Inputlag steigt.

aufkrawall
2026-01-05, 20:48:49
Weniger Artefakte wird schwierig wenn das dynamische MFG dann auch 3-4 fach FG wechselt, weil einfach mehr Artefakte auftreten bei höheren Faktoren.

Kannst dann halt 4x gelegentliche Einbrüche abfedern lassen, die es mit 3x noch geben würde, anstatt die zusätzlichen Artefakte und Lag die ganze Zeit mit festen 4x zu haben.


Wird sicherlich auch mit DLSS 4.5 so bleiben, das mit steigendem Faktor bei FG die Artefakte zunehmen und der Inputlag steigt.
Bessere Qualität als bislang sollte es für 6x schon sein. Ansonsten mal abwarten, was zu Reflex 2 gesagt wird. Eigentlich kann man das nicht weiter unter den Teppich kehren. Außer, sie bekommen es einfach gar nicht hin, die Artefakte an den Bildrändern in den Griff zu bekommen.

robbitop
2026-01-05, 20:51:52
Sehr sehr nice, darauf warte ich seit es FG gibt :up: Leider nur von 3x bis 6x FG...

Wenn es adaptiv ist wie bei LSFG: Das hatte ich letztes Jahr schon vermutet. LSFG hat ja letztes ja diesen Adaptive Mode eingeführt - das Prinzip als basis von DLSS-FG war zumindest semi vorhersehbar :)

Relex
2026-01-05, 20:52:41
@Nightspider
Jap, rein logisch ist dynamisches FG eine herausforderung, da performance Schwankungen quasi in der Amplitude verstärkt werden.

Sinkt die Framerate erhöht sich der Inputlag (schon immer) nutzt man dann aber FG mit höherem Faktor, um den Framerate einbruch zu kompensieren erhöht sich der Rechenaufwand für FG und somit sinkt die Performance weiter, was die Latenzen noch höher werden lässt.

Abgedämpft dürfte das Problem dadurch werden, dass die Frametimekosten von FG anteilig an der gesamten Frametime geringer werden, je länger die gesamte Frametime ist. In der Praxis dürfte es daher weniger schlimm sein, aber ich stelle mir trotzdem die Frage, ob es sinnvoll ist, auf 6x FG zu gehen, wenn @240 Hz die Framerate auf 40 FPS dropt oder ob es nicht sinnvoller wäre den Faktor dann auf 2x oder 3x zu halten und dann die Base FPS hoch zu bringen auf vielleicht 50 FPS und dann mit 100 oder 150 FPS zu spielen und auf die 240 FPS einfach zu verzichten.

Für mich grundsätzlich ein Tricky Problem, das man auch recht einfach nachstellen kann, wenn man Lossless Scaling nutzt. Für mich ist der Dynamische modus bei LSFG z.B. ziemlich nutzlos, weil es ein sich selbst verstärkendes Problem ist. Erhöht man den Faktor, sinkt die Base Framerate - sinkt die Base Framerate wird aber der Faktor erhöht, um das ziel zu erreichen, was die Base FPS aber nur weiter nach unten drückt. Das kann schnell zur Sackgasse werden.
Ich bin gespannt, wie Nvidia das gelöst hat. Der "einfachste" schritt um das Problem zu minimieren wäre ein schnellerer Frame Gen Algorithmus der weniger Frametime kostet.

Nightspider
2026-01-05, 20:55:10
Vielleicht hat die Marketingabteilung auch gesagt das sie etwas brauchen um die 720Hz Monitore zu füttern und weil die ersten 1000Hz Monitore schon um die Ecke warten.

Mal schauen was die Nvidia Präsentation zeigen wird.

Außer, sie bekommen es einfach gar nicht hin, die Artefakte an den Bildrändern in den Griff zu bekommen.

Hab ich 'was verpasst?

robbitop
2026-01-05, 20:55:49
Kannst dann halt 4x gelegentliche Einbrüche abfedern lassen, die es mit 3x noch geben würde, anstatt die zusätzlichen Artefakte und Lag die ganze Zeit mit festen 4x zu haben.

Die Frage ist ob das auch funktioniert wenn es solche slowdowns mit großem Gradient in den Frametimes gibt. Gerade wenn mal eine fordernde Szene reinkommt, wo das System kurz in die Knie geht.

aufkrawall
2026-01-05, 21:06:08
Hab ich 'was verpasst?
Man kann es in einer inoffiziellen/beta/whatever Form schon unlocken, und soll sich auch extrem viel direkter anfühlen. Es hat dann aber üble Artefakte an den Bildrändern.
Das Feature ist halt seit einem Jahr angekündigt, da kann man schon mal Verschwörungstheorien anstellen.

Die Frage ist ob das auch funktioniert wenn es solche slowdowns mit großem Gradient in den Frametimes gibt. Gerade wenn mal eine fordernde Szene reinkommt, wo das System kurz in die Knie geht.
Jo, Skepsis ist immer angebracht.

crux2005
2026-01-05, 21:32:05
https://videocardz.com/newz/nvidia-dlss-4-5-to-feature-2nd-gen-transformer-model-and-dynamic-6x-frame-generation

DLSS 4.5 mit 2nd gen Transformer Model, 6x Frame Gen und Dynamic Multi Frame Generation

DLSS 4.5 SR kommt auf allen Karten ab Turing, DMFG nur auf Blackwell.

Die sollen lieber die Qualität von MFG verbessern. 3x und 4x erzeugen noch immer zu viele Artefakte am Bildrand.

Relex
2026-01-05, 21:38:47
Warte doch mal ab. Wenn sie jetzt 6x anbieten, dann ist es nicht unwahrscheinlich, dass sie die Qualität verbessert haben. Sonst hätten sie vorher ja nicht auf 4x limitieren müssen.

Cubitus
2026-01-05, 22:15:48
Die sollen lieber die Qualität von MFG verbessern. 3x und 4x erzeugen noch immer zu viele Artefakte am Bildrand.

3x und 4x erzeugen je nach Spiel etwas Ghosting und Artefakte, aber ich gehe davon aus, dass das mit dem neuen Transformer-Modell behoben wird. Ganz ehrlich, schon jetzt sieht Transformer in den Qualitäts- und sogar Balanced-Einstellungen extrem gut aus, besonders unter 4K. Ich bin gespannt, ob es weitere Qualitätssteigerungen gibt, zum Beispiel bei Performance, sodass sich die Qualitätsstufen noch weiter reduzieren lassen. Das wäre natürlich großartig und auch vorteilhaft für schnelle Displays. Mit meinem 120-Hz-Setup freue ich mich ebenso, in Verbindung mit MFG bringt es zudem eine fette Stromersparnis, bei kaum oder null Qualitätsverlusten.

Ex3cut3r
2026-01-05, 22:40:12
Geil. Freue mich richtig auf das neue DLSS und MFG.

Daredevil
2026-01-05, 22:48:28
Warte doch mal ab. Wenn sie jetzt 6x anbieten, dann ist es nicht unwahrscheinlich, dass sie die Qualität verbessert haben. Sonst hätten sie vorher ja nicht auf 4x limitieren müssen.
+1! Das ist ein elementarer Faktor im Gaming in der heutigen Zeit, nicht nur die Hardware und die Raw Horsepower verändert das Gaming, sondern die AI Power in der Hardware und die damit verbundene Software. Ehrlich gesagt freue mich mehr über besseres Upscaling und Frame Generation als über so ne olle SUPER Karte. :)
Und Blackwell ist der AI Beschleuniger der heutigen Zeit, also wird damit man damit noch eine Menge Spaß haben, wir haben ebenso soweit ich weiß immer noch nichts von den Neural Shadern gehört, mh?

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/
„Neural Shader“: Eine Wette auf die Gaming-Zukunft

Eine Fähigkeit ist gänzlich neu in den ALUs. Sie wird laut Nvidia zu einem großen Ding werden, gesichert, dass es so kommt, ist das aber nicht.

Und zwar können bei Blackwell in gewöhnlichem Shader Code nun auch AI-Programme integriert werden, die dann von den Tensor-Kernen beschleunigt werden. Nvidia nennt sie „Neural Shader“. Mit ihnen soll AI auch abseits von DLSS den Weg in Spiele finden, zum Beispiel indem besonders realistische Texturen oder Gesichter nicht vom Entwickler vorgehalten, sondern auf Basis der notwendigen „Prompts“ in Echtzeit mit AI erstellt werden. Die Funktion soll den Weg in DirectX finden und dort unter der Bezeichnung „Cooperative Vectors“ laufen – wann, ist unbekannt.

Durch die Neural Shader will Nvidia ohne zusätzlichen Rechenaufwand für die normalen ALUs die Grafik in Spielen verschönern und den Speicherbedarf reduzieren, RTX Neural Materials, RTX Skin und RTX Neural Faces sind ein paar Stichpunkte. Stand jetzt ist es aber unmöglich abzusehen, wann oder ob überhaupt Neural Shader in Spielen großflächig zum Einsatz kommen. Erfahrungsgemäß kann es mehrere Jahre dauern, bis neue Technologien in breiterem Ausmaß von Spieleentwicklern angenommen werden.

Darkman.X
2026-01-06, 06:42:30
L und M sollen wohl die neuen Presets heißen.

https://www.computerbase.de/news/grafikkarten/nvidia-dlss-4-5-mfg-6x-dynamisches-mfg-und-besseres-super-resolution.95649/
Preset M ist der neue Standard-Modus

Wie gewohnt versteckt sich das neue Transformer-Modell bei Nvidia wieder hinter einzelnen DLSS-Presets, die sich in der Nvidia-App oder mit externen Tools umstellen lassen. DLSS 4 (Transformer 1) wird bei den Presets „J“ und „K“ genutzt, DLSS 4.5 (Transformer 2) dagegen bei den Presets „L“ und „M“. Modell M ist der Standard-Modus, der laut Nvidia mit allen DLSS-SR-Modi gut zusammenarbeiten soll. Modell L ist hingegen explizit für DLSS SR Ultra Performance in Ultra HD gedacht und sollte nicht mit DLAA, DLSS Quality, DLSS Balanced und DLSS Performance genutzt werden.

The_Invisible
2026-01-06, 06:59:16
Jap ist schon verfügbar :eek:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=95205&stc=1&d=1767679136

Semmel
2026-01-06, 07:07:56
F, J, K, L, M
Sehr nutzerfreundlich. :uup:

Ich freu mich natürlich trotzdem über den geschenkten Gaul. :)

The_Invisible
2026-01-06, 07:10:30
Die DAUs stellen auf "Neueste" und gut ist...

Relex
2026-01-06, 07:16:29
Geil. Direkt als App Beta, kein gefrickel mit dll Files. So muss das!

Das neue Model soll wohl auf FP8 setzen und mehr compute nutzen. Laut Nvidia ist es minimal langsamer.

Für Frame Gen wurde ebenfalls die Bildqualität verbessert. Also wie vermutet. Deshalb jetzt eben 6x sinnvoll möglich.

Lurtz
2026-01-06, 07:30:47
Sieht nicht aus als würde man den Treiber brauchen, App-Update reicht?

DLSS FG Override nutzt auch 310.5.0, das ist dann vermutlich auch die aktuelle Version.

Mini-Eindruck: Mein bisheriger Worst Case, das Gras in Hellblade 2 scheint jetzt wesentlich weniger Artefakte zu zeigen, aber auch wieder softer zu sein.

crux2005
2026-01-06, 07:32:57
Für Frame Gen wurde ebenfalls die Bildqualität verbessert. Also wie vermutet. Deshalb jetzt eben 6x sinnvoll möglich.

Soweit ich das verstehe gibt es das MFG Update erst später. "Spring 2026". Sehe auch keinen Unterschied in Hogwarts Legacy mit 3x oder 4x MFG ggü. älterem Treiber.

Edit: Konnte auch keinen Unterschied sehen, weil RayReconstruction die ganze Zeit "an" war samt Preset "D".

Lurtz
2026-01-06, 07:33:52
Soweit ich das verstehe gibt es das MFG Update erst später. "Spring 2026". Sehe auch keinen Unterschied in Hogwarts Legacy mit 3x oder 4x MFG ggü. älterem Treiber.
Die DLL wurde aber auch aktualisiert.

crux2005
2026-01-06, 07:34:42
Kann sein. Sehe trotzdem in Bewegung keinen Unterschied ggü 310.4.0. Sue me.

Lurtz
2026-01-06, 07:35:29
Achso, willst nur mal wieder stänkern, sag das halt gleich.

crux2005
2026-01-06, 07:36:44
Keine Ahnung was du hast. Habe mich auf eine Verbesserung der MFG Qualität gefreut aber sehe keine Unterschied.

Nightspider
2026-01-06, 07:41:58
u4cfzFd9HzU

Lurtz
2026-01-06, 07:44:59
Ich wollte lediglich darauf hinweisen, dass die DLL aktualisiert wurde und deshalb davon ausgehe, dass das neue Model bereits nutzbar ist.

In Talos Principle Reawakened ist das Garbling mit 3xFG besser, es ist jetzt eher eine kleiner, abgegrenzter Bereich am unteren Bildschirmrand, statt starkes Garbling im unteren Fünftel des Bildschirms.
Beim schnellen Rückwärtslaufen wirds immer noch stärker, aber das dürfte auch so ziemlich der Worst Case für MFG sein.

Super Resolution scheint tendenziell besser zu sein, wenn auch (vermutlich erwartbar) nach wie vor nicht auf dem Level von Ray Reconstruction.
Aber da warte ich auf die Expertenmeinung von aufkrawall :D

Echt schade, die Hardware-Misere. Im Gegensatz zum generellen Gejammer finde ich die aktuelle Gaming-Situation ja einfach luxuriös. Echter Mehrwert für Bildqualität/Performance per Knopfdruck. Sowas gabs vor zehn Jahren nur in schmierigen, zweifelhaften Tuning-Tricks. Die Bildqualität mit 4k DLSS Performance SR ist schon einfach krass insgesamt, auch wenn die Entwicklung mittlerweile doch etwas stagniert.

dildo4u
2026-01-06, 07:47:32
Scheint sehr teuer auf der 5070 zu sein hoffentlich muss ich mir nicht neue Settings suchen.

Nightspider
2026-01-06, 07:50:49
Scheint ein guter Sprung zu sein, auf den ersten Blick.

rh-RM30i-yg

jrD1JRkIVDY

RxvZFasCIMM

mL4u9m3aZkM

Ex3cut3r
2026-01-06, 07:57:22
Neue DLL ist schon da.

https://github.com/NVIDIA-RTX/Streamline/releases

Wer kann Preset M (das ist der neue Buchstabe, wie vorher K) mit Inspector per Hex Code?! modden?

Nightspider
2026-01-06, 07:59:43
Nimmt er jetzt L oder M bei "Neueste" ?

Gibts schon Infos zu den Unterschieden?

Lurtz
2026-01-06, 08:03:19
Wer kann Preset M (das ist der neue Buchstabe, wie vorher K) mit Inspector per Hex Code?! modden?
Einfach den Hexcode zwei Schritte weiter zählen...

Darkman.X
2026-01-06, 08:08:13
Wer kann Preset M (das ist der neue Buchstabe, wie vorher K) mit Inspector per Hex Code?! modden?

???

Wenn man die neueste Version nutzt (2.4.0.29), dann sind nativ schon alle Buchstaben bis O auswählbar. Man darf sich nur nicht am "unused" stören, weil das fest im Code vom Inspector hinterlegt ist.


Später Nachtrag:
Falls du schon die neueste Version nutzt und nur Einträge mit K siehst, dann mal die CustomSettingNames.xml umbenennen, damit sie nicht mehr verwendet wird. Spätestens dann solltest du alle Buchstaben bis O sehen.

Lurtz
2026-01-06, 08:10:20
L und M scheinen echt teuer zu sein. Das dürften viele sich nicht unter einem "gefixten" Preset K vorgestellt haben, das klingt eher nach teurerer Alternative für besondere Fälle... Wobei man dann auch gleich RR nutzen könnte, falls verfügbar.

Insofern, mal abwarten. Klingt nicht nach dem neuen All Purpose-Modell, da dürften viele bei K bleiben, oder sogar E, wenn das zu sehr buggt, aber E soll ja abgeschafft werden? Nicht so doll.

Auf RTX 6000 läuft es dann sicher deutlich besser ;) Ich würde nVidia dennoch erstmal zugute halten, dass sie es für alle Generationen verfügbar machen, auch wenn die Abwägung, was man nutzt, schwerer wird. Das in der App für den gemeinen User nur per Buchstabe, ohne weitere Empfehlung anzubieten, dürfte aber spätestens jetzt zweifelhaft sein, wenn man plötzlich per DLSS wesentlich weniger Performance gewinnt als bisher.

Lurtz
2026-01-06, 08:24:24
Laut Overlay gibts jetzt übrigens eine "Exposure Scale", was auch immer die macht :D Steht standardmäßig auf 1,0.

00-Schneider
2026-01-06, 08:25:10
L und M scheinen echt teuer zu sein. Das dürften viele sich nicht unter einem "gefixten" Preset K vorgestellt haben, das klingt eher nach teurerer Alternative für besondere Fälle... Wobei man dann auch gleich RR nutzen könnte, falls verfügbar.


Wahrscheinlich wie bei 4.0 wieder abhängig von der genutzten Gen und dem Modell?

Wie wir wissen, ist hier nur die Performance auf der 5090 relevant. ;)

Relex
2026-01-06, 08:32:35
Ja, in KCD gehen die FPS von z.B. 174 auf 164 FPS runter mit dem neuen Model.

Bei weniger FPS verliert man natürlich auch weniger FPS (auch prozentual! weil fixe frametime kosten), aber die Kosten sind schon deutlich.

Bildqualität nähert sich aber stark der Charakteristik von Ray Reconstruction an.

Bild wirkt etwas softer und weniger künstlich bzw. weniger Pixel perfect scharf, dafür gibts deutlich mehr Details in Texturen und Vegetation. Vor allem Gras wird sehr viel sauberer definiert, das neigte ja mit dem bisherigen Transformer Model dazu ein wenig matschig auszusehen, obwohl das bereits besser war als mit dem CNN Model. Aber das wurde behoben.

Insgesamt hat sich die gesamte Bildcharakteristik aber doch recht stark verändert. Wie gesagt mehr richtung Ray Reconstruction.

Der Performance hit ist dann natürlich schon nicht so geil. Aber gut, in fast allen Games wo ich normales SR und kein RR nutze bin ich eh fast immer weit jenseits der 120 FPS unterwegs. Von daher ist es mir relativ egal. Ich nehm einfach das was mir besser gefällt.

Nightspider
2026-01-06, 08:34:20
Der Performance-Hit ist auf den ersten Blick so groß wie von Quality auf DLAA.

Teste es gerade in Arc Raiders.

DLSS4.5+5160*2160+DLAA+3xFG läuft und sieht erstmal pervers gut aus. ^^

Ob das jetzt die sinnvollste Einstellung ist muss erstmal ausgetestet werden.

Relex
2026-01-06, 08:35:05
Hä? Das ist doch quatsch. Von Quality auf DLAA kann in manchen Games die performance halbieren. Vor allem mit RT oder PT.

dildo4u
2026-01-06, 08:35:50
Hängt vermutlich vom Game selber ab Performance in Avatar mit 4k DLSS Performance mit meiner 4070 Super hat sich nicht geändert.
Zum Glück hatte ich gestern noch ein Benchmark gemacht.

Kann sein das RR den Performance Hit verdeckt?

Relex
2026-01-06, 08:38:07
Check mal das Preset im Debug Overlay. Bei mir hat der Override auf "neueste" in Avatar eben nicht funktioniert. Hab dann in der App manuell auf preset M umgestellt, erst dann hats funktioniert. Ich hab das game allerdings noch nicht gebencht, kann auch nur ein einmaliger Bug gewesen sein, hab mir das nicht weiter angesehen.
Aber ich hab jetzt extra mal das Debug Overlay angemacht, damit ich auch sicher gehen kann, dass alles direkt greift.

Avatar sieht übrigens furchtbar aus mit dem neuen Preset, weil sich der Ingame scharfzeichner nicht abschalten lässt - warum auch immer.

Nightspider
2026-01-06, 08:38:30
Hä? Das ist doch quatsch. Von Quality auf DLAA kann in manchen Games die performance halbieren. Vor allem mit RT oder PT.

Ich teste aber gerade nicht "manche Games" sondern Arc Raiders. ;)

Muss nochmal genaue Werte testen.

Edit:

Okay es sind bei mir gerade im Test 14% weniger fps in der gleichen Szene.

Der Unterschied in gleicher Szene sind bei mir zwischen DLAA und Quality übrigens 23 %.

00-Schneider
2026-01-06, 08:44:03
Teste es gerade in Arc Raiders.


Schmiert Transformer jetzt weniger bei rumfliegenden Partikeln etc.?

Ich empfand das in dem Spiel dermaßen schlimm, dass ich lieber CNN genutzt habe.

dildo4u
2026-01-06, 08:51:16
Transformer ist grottig in Arc bin dort zurück zu CNN.

Lurtz
2026-01-06, 08:57:31
Kann sein das RR den Performance Hit verdeckt?
Natürlich, RR ersetzt SR komplett.

Lurtz
2026-01-06, 09:01:31
Insgesamt hat sich die gesamte Bildcharakteristik aber doch recht stark verändert. Wie gesagt mehr richtung Ray Reconstruction.

No such thing as a free lunch:
https://s1.directupload.eu/images/260106/uejsek2r.webp

SamLombardo
2026-01-06, 09:11:26
...

dildo4u
2026-01-06, 09:11:58
Natürlich, RR ersetzt SR komplett.

Ok also kann es gar kein Unterschied mit DLSS 4.5 geben das nur SR ein Update bekommen hat?

Lurtz
2026-01-06, 09:12:59
Wenn du Ray Reconstruction aktivierst nicht.

Nightspider
2026-01-06, 09:13:16
Schmiert Transformer jetzt weniger bei rumfliegenden Partikeln etc.?

Ja, scheint deutlich weniger zu schmieren.

Gras sieht aber auch anders aus. Also in 1440p ist jetzt gefühlt wieder mehr Pixelrauschen im Gras bei Arc Raiders aber das flimmert ja eh von Haus aus extrem. Mit Preset K war das Gras halt eher leicht unscharf aber hat nicht geflimmert.

Mit DSR und rund 2000p (~4K) Rendertarget siehts wieder sehr gut aus. Ob ich jetzt aber bei hoher Auflösung mit Preset M Details gewinne oder primär Leistung verliere muss erstmal genauer untersucht werden.

Das sind so viele Variablen, da fiel es mir schon vor DLSS4.5 schwer, mich für ein Setting zu entscheiden.

Relex
2026-01-06, 09:16:11
Also Frame Gen scheint wirklich besser geworden zu sein. Hab gerade mal 30->60 FPS probiert und diese "tearing" ahnlichen Artefakte die man seit DLSS4 bei so geringen Frameraten gesehen hat, scheinen jetzt behoben zu sein. Mir ist da jedenfalls nichts mehr aufgefallen. Sieht jetzt alles ziemlich sauber und stabil aus.

robbitop
2026-01-06, 09:25:58
Ja, in KCD gehen die FPS von z.B. 174 auf 164 FPS runter mit dem neuen Model.

Bei weniger FPS verliert man natürlich auch weniger FPS (auch prozentual! weil fixe frametime kosten), aber die Kosten sind schon deutlich.

Der obige genannte drop ergibt ein delta von 0,3 ms pro Frame. IIRC liegt DLSS je nach Szenario (GPU, Auflösung) in der Größenordnung von grob 2 ms. Sind also grob 15% mehr Overhead für DLSS. Die Frage ist: lohnt es sich performancenormiert?
Also müsste man mit dem neuen DLSS die Inputauflösung um den Teil senken um diese 0,3 ms aus dem geringeren Renderingaufwand rauszunehmen. Und dann die BQ vergleichen. (denn umgekehrt kann man für 0,3 ms mit dem alten Modell auch etwas mehr Auflösung „erkaufen“).
In dem obigen Szenario vermute ich kostete das Rendering bei dir 3-4 ms pro Frame. 0,3 ms würde also ein Äquivalent von etwa 10% der Pixel (bzw (je nach Achse) grob 3-4% pro Achse sein.

Dass das Verfahren in Teilen etwas Schärfe opfert, wundert mich nicht. Ist wahrscheinlich einfach ein tradeoff (über den wir neulich glaube ich sogar geschrieben haben). :)

edit: sehe gerade die Tabelle von Nvidia - da hat sich der Overhead ja deutlich mehr als die o.g. 15% erhöht (ggf waren die Werte nixht voll im GPU limit) sondern un 50% (bei Ada/Blackwell mit FP8 Units - bei Ampere und Turing sind es 250+%… :O). Also 1 ms. Uff - das macht performancenormiert deutlich mehr Auflösungsunterschied. Dann irgendwas um 25-30 % mehr Pixel die man mit dem alten Modell dann mehr fahren kann. Das muss das neue Modell erstmal reinholen.
IMO ist ein“fairer“ side by side Vergleich nur performance normiert wirklich relevant.

Lurtz
2026-01-06, 09:34:13
Der obige genannte drop ergibt ein delta von 0,3 ms pro Frame. IIRC liegt DLSS je nach Szenario (GPU, Auflösung) in der Größenordnung von grob 2 ms. Sind also grob 15% mehr Overhead für DLSS. Die Frage ist: lohnt es sich performancenormiert?
Also müsste man mit dem neuen DLSS die Inputauflösung um den Teil senken um diese 0,3 ms aus dem geringeren Renderingaufwand rauszunehmen. Und dann die BQ vergleichen. (denn umgekehrt kann man für 0,3 ms mit dem alten Modell auch etwas mehr Auflösung „erkaufen“).
In dem obigen Szenario vermute ich kostete das Rendering bei dir 3-4 ms pro Frame. 0,3 ms würde also ein Äquivalent von etwa 10% der Pixel (bzw (je nach Achse) grob 3-4% pro Achse sein.
Ich glaube nicht, dass die Qualität so viel besser ist, dass es das bei den hohen Kosten noch rausreißt. Sieht so aus als wären wir endgültig bei diminishing returns angekommen.

robbitop
2026-01-06, 09:34:56
Gibt es eigentlich auch ein neues RR Modell? Ansonsten sollten wenn RR genutzt wird kein Unterschied in Performance und BQ vorhanden sein weil ja SR durch RR ersetzt wird.

Lurtz
2026-01-06, 09:36:28
Nein, RR ist gleich.

Bleibt jetzt alles unbefriedigend. K ist viel schärfer als E, hat aber deutliche Schwächen. E ist immer noch gut, aber eben ziemlich unscharf. M ist (zu) teuer.

Kriege M über den Inspector in Uncharted gerade nicht forciert, trotz ersetzter DLL im Spielverzeichnis, das ist eins der wenigen Spiele wo der Override nicht geht :uponder:

robbitop
2026-01-06, 09:37:57
Ich glaube nicht, dass die Qualität so viel besser ist, dass es das bei den hohen Kosten noch rausreißt. Sieht so aus als wären wir endgültig bei diminishing returns angekommen.

Dann ist die Frage was das soll. Wenn es nicht mehr BQ pro fps gibt oder gleiche BQ bei mehr fps bringt die absolute BQ Steigerung im Rahmen des Zieles eines Upsamplingverfahrens jedenfalls nichts. Wenn Performance keine Rolle spielt hingegen kann man einfach nur BQ steigern und dann bringt es einen Mehrwert. Also quasi eher in die Richtung eines AAs als eines upsamplings (aber die Welten verschwimmen ja schon länger ineinander). Hurra für 5090 Besitzer würde ich sagen. Für alle anderen wahrscheinlich/potenziell (muss man erstmal untersuchen) ein halbes „meh“. ^^

Lurtz
2026-01-06, 09:38:40
Deshalb verstehe ich auch nicht, wieso sie das jetzt automatisch als "latest" nehmen. Dafür ist es zu teuer, das werden die meisten so nicht benutzen können.

Relex
2026-01-06, 09:38:50
Der obige genannte drop ergibt ein delta von 0,3 ms pro Frame. IIRC liegt DLSS je nach Szenario (GPU, Auflösung) in der Größenordnung von grob 2 ms. Sind also grob 15% mehr Overhead für DLSS. Die Frage ist: lohnt es sich performancenormiert?
Also müsste man mit dem neuen DLSS die Inputauflösung um den Teil senken um diese 0,3 ms aus dem geringeren Renderingaufwand rauszunehmen. Und dann die BQ vergleichen. (denn umgekehrt kann man für 0,3 ms mit dem alten Modell auch etwas mehr Auflösung „erkaufen“).
In dem obigen Szenario vermute ich kostete das Rendering bei dir 3-4 ms pro Frame. 0,3 ms würde also ein Äquivalent von etwa 10% der Pixel (bzw (je nach Achse) grob 3-4% pro Achse sein.

Dass das Verfahren in Teilen etwas Schärfe opfert, wundert mich nicht. Ist wahrscheinlich einfach ein tradeoff (über den wir neulich glaube ich sogar geschrieben haben). :)

edit: sehe gerade die Tabelle von Nvidia - da hat sich der Overhead ja deutlich mehr als die o.g. 15% erhöht (ggf waren die Werte nixht voll im GPU limit) sondern un 50% (bei Ada/Blackwell mit FP8 Units - bei Ampere und Turing sind es 250+%… :O). Also 1 ms. Uff - das macht performancenormiert deutlich mehr Auflösungsunterschied. Dann irgendwas um 25-30 % mehr Pixel die man mit dem alten Modell dann mehr fahren kann. Das muss das neue Modell erstmal reinholen.
IMO ist ein“fairer“ side by side Vergleich nur performance normiert wirklich relevant.


Die Unterschiede kann man mit Auflösung aber nicht ausgleichen. Die Charakteristiken bleiben unabhängig der Auflösung erhalten.

Soll heißen, das was das neue Model an Definition z.B. beim Gras erreicht kannst du beim alten Perset nicht bekommen, indem du einfach von Performance auf Quality wechselst, weil performance und quality an den selben Problemen leiden.

Umgekehrt wird das neue Model aber wenn du von Performance auf Quality wechselst ebenfalls nicht ganz so knackig scharf wie das alte Model. (Also scharf im sinne von harten Kanten, nicht scharf im sinne von bilddetails, denn da ist das neue model besser)

Es ist daher schwer vergleichbar und nicht so einfach wie beim wechseln von CNN auf Transformer, wo selbst der Performance Modus in absolut jeder Hinsicht schärfer war als CNN mit DLAA. Diesmal bleibt dieser klare schärfegewinn komplett aus, deshalb kannst du auch nicht einfach sagen Neues Performance Preset = altes Balanced Preset oder so. Das funktioniert so nicht. Es geht viel mehr um Bildklarheit und definition von Details.

Ich werde später mal testen, wie der Unterschied performance normiert ist, sprich wenn ich z.B. vorher den performance Mode mit 50% genutzt habe, wie sieht dann das neue Model z.B. mit 40% aus bei dann eben gleicher performance.
Ich werde diesmal aber keine Bildvergleiche posten. Kann ja jeder selber testen und so groß ist der Unterschied im Standbild auch nicht.

robbitop
2026-01-06, 09:39:48
Kriege M über den Inspector in Uncharted gerade nicht forciert, trotz ersetzter DLL im Spielverzeichnis, das ist eins der wenigen Spiele wo der Override nicht geht :uponder:

Streamline Spiel glaube ich. War da nicht was dass da der Override nicht oder nur komplizierter ging? Probiers mal mit dem Optiscaler.
IIRC gab es aber auch irgendso ein tool was die steamline dlls global ersetzt. Hatte aufkrawall iirc mal einen github link gepostet.

Lurtz
2026-01-06, 09:41:06
Streamline Spiel glaube ich. War da nicht was dass da der Override nicht oder nur komplizierter ging? Probiers mal mit dem Optiscaler.
IIRC gab es aber auch irgendso ein tool was die steamline dlls global ersetzt. Hatte aufkrawall iirc mal einen github link gepostet.
Also K ging wenn man die DLL (wie früher ;)) kopiert und K über den Inspector forciert. Bleibt jetzt mit 310.5.0 aber bei K hängen. Funktioniert weder mit Preset M noch latest

robbitop
2026-01-06, 09:44:32
Die Unterschiede kann man mit Auflösung aber nicht ausgleichen. Die Charakteristiken bleiben unabhängig der Auflösung erhalten.

Soll heißen, das was das neue Model an Definition z.B. beim Gras erreicht kannst du beim alten Perset nicht bekommen, indem du einfach von Performance auf Quality wechselst.

Umgekehrt wird das neue Model aber wenn du von Performance auf Quality wechselst ebenfalls nicht ganz so knackig scharf wie das alte Model.

Es ist daher schwer vergleichbar und nicht so einfach wie beim wechseln von CNN auf Transformer, wo selbst der Performance Modus schärfer war als CNN mit DLAA. Diesmal bleibt dieser klare schärfegewinn komplett aus, es geht viel mehr um Bildklarheit und definition von Details.

Das kann ich nachvollziehen. Ggf muss man aber trotzdem subjektiv performancenormiert vergleichen. Denn ohne den Kontext der Performance ist es nur ein halber Vergleich.

Was mich stark wundert wie viel schneller es auf Ada/BW ist. 250-300%. Der FP8 Durchsatz erhöht sich auf den neueren GPUs aber nur um Faktor 2 IIRC. Ob das in suboptimalerweise emuliert wird? Ein bisschen wie FSR4 FP8@FP16 auf RDNA3. Das war ja auch anfangs sehr langsam wurde mit Optimierungen aber deutlich besser (aber weit entfernt vom geleakten INT8 Modell).
Ggf hat man die Optimierung für alte GPUs etwas limitiert weil es da wenig incentive gibt.

robbitop
2026-01-06, 09:47:13
Also Frame Gen scheint wirklich besser geworden zu sein. Hab gerade mal 30->60 FPS probiert und diese "tearing" ahnlichen Artefakte die man seit DLSS4 bei so geringen Frameraten gesehen hat, scheinen jetzt behoben zu sein. Mir ist da jedenfalls nichts mehr aufgefallen. Sieht jetzt alles ziemlich sauber und stabil aus.
Schon irgendwie merkwürdig. Es gibt eine neue DLL mit anscheinend neuem FG Modell aber ohne die neuen Features (6x, adaptive). Das soll ja dann erst im Frühling kommen. Ob es dann noch ein neues Modell gibt oder ob dann nur die Features freigeschaltet werden?

Lurtz
2026-01-06, 09:47:13
Darf man Reflex 2.0 eigentlich als Vapor Ware bezeichnen? Offenbar sind die da ja konzeptionell auf so große Probleme gestoßen, dass es nicht releasefähig ist.

Das passiert nVidia ja nicht so häufig, zumindest nicht, wenn schon was angekündigt ist.

Relex
2026-01-06, 09:49:02
Das kann ich nachvollziehen. Ggf muss man aber trotzdem subjektiv performancenormiert vergleichen. Denn ohne den Kontext der Performance ist es nur ein halber Vergleich.

Was mich stark wundert wie viel schneller es auf Ada/BW ist. 250-300%. Der FP8 Durchsatz erhöht sich auf den neueren GPUs aber nur um Faktor 2 IIRC. Ob das in suboptimalerweise emuliert wird? Ein bisschen wie FSR4 FP8@FP16 auf RDNA3. Das war ja auch anfangs sehr langsam wurde mit Optimierungen aber deutlich besser (aber weit entfernt vom geleakten INT8 Modell).
Ggf hat man die Optimierung für alte GPUs etwas limitiert weil es da wenig incentive gibt.


Wahrscheinlich spielt hier der Cache eine große Rolle. Ab Ada ist der Cache sehr viel größer und Mark Cerny hat uns ja in seiner PS5 Pro Vorstellung gut eingetrichtert, warum es so wichtig ist, dass das Model in den Cache passt.

Ist natürlich nur mutmaßung und Halbwissen könnte aber ein entscheidender Faktor abseits des reinen FP8 durchsatzes sein.


Darf man Reflex 2.0 eigentlich als Vapor Ware bezeichnen? Offenbar sind die da ja konzeptionell auf so große Probleme gestoßen, dass es nicht releasefähig ist.

Das passiert nVidia ja nicht so häufig, zumindest nicht, wenn schon was angekündigt ist.


Gut möglich. Der "warp" parameter wird auch im Debug Overlay nicht mehr angezeigt. Wurde scheinbar komplett entfernt.

Vielleicht basteln sie für RTX6000 und DLSS5 ja an einer Hardwarelösung. Wer weiß.

Lurtz
2026-01-06, 09:51:58
Deshalb verstehe ich auch nicht, wieso sie das jetzt automatisch als "latest" nehmen. Dafür ist es zu teuer, das werden die meisten so nicht benutzen können.
Sorry, vielleicht verbreite ich gerade Fake News:
If you set DLSS Preset Override to Latest and DLSS Super Resolution Override to Quality, Balanced or DLAA, it will use preset K by default. Preset M is used for Performance and preset L for Ultra Performance.
Das ergibt eher Sinn, irgendwie...

Nightspider
2026-01-06, 09:52:35
Mir ist aber gerade in Arc Raiders aufgefallen das mit Frame Gen (selbst 2x) der eigene Schatten und die Taschenlampe (mit 3x stark) flimmert.

Wobei das Schattenrendering im Spiel eh bissl verkorkst ist und das stark provoziert.


Das ergibt eher Sinn, irgendwie...

Heißt das die neuen Presets sind eher für Performance und Ultra Performance?

dildo4u
2026-01-06, 10:06:07
Linus guckt sich die neuen Updates an

9rnjawJ_QDc

Nightspider
2026-01-06, 10:16:05
Ingame umschalten würde ich auch gerne können für einen besseren Vergleich.

SamLombardo
2026-01-06, 10:30:52
Sagt mal wie funktioniert das mit dem neuen Model über den Inspector, muss ich eine neue Version des Inspector installieren und/oder brauche ich den neuesten Treiber, ...?

Bleibt noch die Frage ob das überhaupt für dlss-quality gedacht ist, in dem Linus Video schien es ja so dass es auch da was bringt.

The_Invisible
2026-01-06, 10:39:28
Ingame umschalten würde ich auch gerne können für einen besseren Vergleich.

Jap wär geil, technisch ja anscheinend möglich :confused:

robbitop
2026-01-06, 10:54:03
Wenn es adaptiv ist wie bei LSFG: Das hatte ich letztes Jahr schon vermutet. LSFG hat ja letztes ja diesen Adaptive Mode eingeführt - das Prinzip als basis von DLSS-FG war zumindest semi vorhersehbar :)
Update: Scheint doch anders zu funktionieren. Es schaltet in geraden Faktoren je nach FPS den FG Faktor hoch und runter. Wohingegen nach meinem Verständnis LSFG im Adaptive Mode immer genau die output fps Rate hällt die man ihm vorgibt aber dabei keine "echten" Bilder mehr ausgegeben werden. Alle Bilder sind Fake Frames und nutzen echte Bilder als Input.
Das ist aus BQ Sicht dann wahrscheinlich herausfordernder (finde es in LSFG auch definitiv optisch schlechter als der fixed mode) aber so hat man dann eine sehr glatte Frametimeline (ob das was hilft wenn die input frames große Gradienten haben -> kA). Aber in der Hinsicht erwarte ich Unterschiede. Wahrscheinlich ist es mit variablen Faktoren viel einfacher umzusetzen als es LSFG gemacht hat.

robbitop
2026-01-06, 11:02:57
Darf man Reflex 2.0 eigentlich als Vapor Ware bezeichnen? Offenbar sind die da ja konzeptionell auf so große Probleme gestoßen, dass es nicht releasefähig ist.

Das passiert nVidia ja nicht so häufig, zumindest nicht, wenn schon was angekündigt ist.
Kann mir gut vorstellen, dass es (insbesondere bei Spielen mit nicht so irre hohen fps wie bei den online shootern die auf jeder Kartoffel hohe fps erzeugen) es optisch in Spielen oder Szenen mit weniger fps zu Artefakten kommt, mit denen man nicht zufrieden ist. (was ja wegen diesem Verzerren des Bildes schwieriger zu vermeiden ist - auch mit viel AI)
Nvidia hat (was ich auch richtig finde) hohe Anforderungen, dass features beim Kunden in möglichst allen Situationen sehr sehr robust und gut laufen. Und dazu kommt, dass sowas vom Studio ins Spiel eingebaut werden muss, was eine weitere Variable ist - insbesondere wenn Verfahren komplexer sind. Idealerweise hat man da alles in einer Hand.

Cubitus
2026-01-06, 11:05:58
https://youtu.be/u4cfzFd9HzU

Man sieht deutlich, dass die Artefakte bei MFG beseitigt wurden, geil :)
Ich werde es erstmal gemütlich angehen, einfach das Neueste setzen und fertig. :freak:

robbitop
2026-01-06, 11:08:43
Wahrscheinlich spielt hier der Cache eine große Rolle. Ab Ada ist der Cache sehr viel größer und Mark Cerny hat uns ja in seiner PS5 Pro Vorstellung gut eingetrichtert, warum es so wichtig ist, dass das Model in den Cache passt.

Ist natürlich nur mutmaßung und Halbwissen könnte aber ein entscheidender Faktor abseits des reinen FP8 durchsatzes sein.
Ist gut möglich. :) Können wir nicht seriös einschätzen. Aber ganz fern liegt der Gedanke nicht, dass nicht unbedingt die größte Optimierungskeule für alte HW gefahren wird. Insbesondere wenn man die resources gerade für neue AI Innovationen gebrauchen kann. Selbst fine-wine AMD scheint mittlerweile diese Strategie zu fahren, so dass die community dann die Arbeit macht (INT8 und optimiertes FP8 für RDNA2/3).
Es kann natürlich auch beides sein (Optimierung und Cache)





Gut möglich. Der "warp" parameter wird auch im Debug Overlay nicht mehr angezeigt. Wurde scheinbar komplett entfernt.

Vielleicht basteln sie für RTX6000 und DLSS5 ja an einer Hardwarelösung. Wer weiß.
Wobei die Frage ist ob HW da hilft. Hieß es ja beim OFA Block auch und zack ging dann auf einmal auch mit Compute. ^^
Könnte aber sein, dass es noch reifen muss und man dann unabhängig davon einen HW Block einbaut um effizienter zu werden und ein Argument hat warum es nicht auf "alten GPUs" geht und man doch bitte neue kaufen soll. (wofür es mit MFG nach DLSS4.0 auf Ada bis heute keinen Grund gibt und für FG auf Turing/Ampere auch nicht ^^)

robbitop
2026-01-06, 11:12:01
Heißt das die neuen Presets sind eher für Performance und Ultra Performance?
Linus meinte in Quality sah es auch besser aus als DLSS 4.0 (K?). Wobei die Unterschiede im Video mit Wukon so stark waren - da war ich ein wenig skeptisch ob da wirklich K gegen M lief oder man ein altes Modell genommen hat damit die Unterschiede döller waren ^^

Ich vermute mal ein besseres Modell macht bei größerem Upsampling mehr Unterschied und wenn es dann auch noch deutlich teurer ist, passt das um so mehr zu größeren Upsampling Faktoren.

Ich bin auf jeden Fall auf das Performance Preset in 1440p gespannt. Mit K war das immernoch sehr unscharf fand ich. Unter Balanced konnte ich nicht gehen ohne nicht wirklich zufrieden zu sein (was mit 4K anders wäre). Mal schauen was das M Modell da kann ^^

Relex
2026-01-06, 11:33:24
Also Preset M sieht in Last of Us Part 2 wirklich extrem gut aus.

Selbst im Quality Modus eine deutliche Verbesserung zu Preset K, was man am Gras sehr deutlich sieht.

https://imgsli.com/NDM4OTE2

https://i.ibb.co/GvvhhW8x/K-Quality.png (https://ibb.co/DDDqq9vV)
https://i.ibb.co/cK950K0P/M-Quality.png (https://ibb.co/6cShzcz2)


Performance hit auch hier wieder sehr deutlich, was Upscaling eigentlich bisschen ins absurde führt, da der performance Vorteil zu native TAA deutlich geschmälert wird, vor allem bei rasterized Spielen, aber es ist, was es ist...


Ach ja, ich bin von dem neuen FG Model ziemlich begeistert. Das Framepacing ist absolut perfekt und die Artefakte stark reduziert. Ich glaube selbst Smooth Motion hat das neue Model bekommen. In Anno 117 gibts zwar hier und da noch kleinere Microruckler, aber es läuft deutlich smoother als zuvor und es gibt einfach keine Artefakte mehr bei HUD elementen.

Lurtz
2026-01-06, 11:38:46
Schon heftig was L gegenüber K im Detail rausholt:
https://imgsli.com/NDM4OTE5


Ach ja, ich bin von dem neuen FG Model ziemlich begeistert. Das Framepacing ist absolut perfekt und die Artefakte stark reduziert. Ich glaube selbst Smooth Motion hat das neue Model bekommen. In Anno 117 gibts zwar hier und da noch kleinere Microruckler, aber es läuft deutlich smoother als zuvor und es gibt einfach keine Artefakte mehr bei HUD elementen.
Sagte LTT im Video, sie würden jetzt gar keine Hilfe des Entwicklers zur UI-Erkennung mehr benötigen :eek:

Ex3cut3r
2026-01-06, 11:39:00
Konnte mal einer 1zu1 Vergleichs Screenshot mit Preset K und M posten mit FPS Counter. Auf dem Stillstand Bild es geht mir nicht um die Qualität, sondern um den FPS Verlust. Ich arbeitere gerade. Deswegen kann ich erst am Abend. :D

@ Relex. Danke sieht selbst auf dem Standbild sehr viel besser aus. Nice. :)

Und sofort nutzbar Day 1 für jedes DLSS Spiel. So muss das sein.

Freue mich schon nachher auf das verbesserte MFG. :)

SamLombardo
2026-01-06, 11:44:59
War zwar schon mal Thema aber noch mal zur Verifizierung: M ist das was man einstellen sollte wenn man DLSSQ nutzt, nicht L, richtig?

The_Invisible
2026-01-06, 11:57:35
Ich bin auf jeden Fall auf das Performance Preset in 1440p gespannt. Mit K war das immernoch sehr unscharf fand ich. Unter Balanced konnte ich nicht gehen ohne nicht wirklich zufrieden zu sein (was mit 4K anders wäre). Mal schauen was das M Modell da kann ^^

Ich habs mal im Notebook getestet, dort habe ich 2560x1600 auf 200ppi, DLSS-P sieht dort wirklich knackig aus und mir kommt vor besser bzw stabiler als vorher, könnte aber auch nur Placebo sein, ka bin da schon auf prof. Tests gespannt, selber bin ich zu faul :D

robbitop
2026-01-06, 12:09:25
Schon heftig was L gegenüber K im Detail rausholt:
https://imgsli.com/NDM4OTE5


Sagte LTT im Video, sie würden jetzt gar keine Hilfe des Entwicklers zur UI-Erkennung mehr benötigen :eek:
Aber gab es nicht gerade im LTT Video beim HUD mit FG Artefakte? Ich habe das vor allem unten rechts im Bild gesehen.

Cubitus
2026-01-06, 12:11:35
War zwar schon mal Thema aber noch mal zur Verifizierung: M ist das was man einstellen sollte wenn man DLSSQ nutzt, nicht L, richtig?

https://www.computerbase.de/news/grafikkarten/nvidia-dlss-4-5-mfg-6x-dynamisches-mfg-und-besseres-super-resolution.95649/#abschnitt_preset_m_ist_der_neue_standardmodus

Genau oder, so sagt man, neuste sollte auch passen.
Und du brauchst die Beta App, musst noch aktvieren das er die herunterlädt.

https://i.postimg.cc/VNqYvwSM/Screenshot-2026-01-06-121424.png (https://postimg.cc/Ny0hCWkf)

Edit:

Erster Eindruck: WOW! Ganz ehrlich, DyingLight 3 wirkt auf den ersten Blick dank M deutlich schärfer und knackiger. Unter 4K fällt es mir schwer, zwischen Balanced und Qualität noch einen Unterschied festzustellen, aber der Stromverbrauch unter Balanced ist etwas besser.
Qualität haut etwas mehr rein.. Aber ich stell mir gerade die Frage wozu ich das dann zukünftig wählen soll unter 4K :uponder:

Die Artefakte und Doppelbilder bei 3x MFG sind etwas reduziert, wenn auch noch nicht ganz verschwunden.
DLSS 4.5 wird sicher abliefern, und mit der neuen FPS-Automatik mit MFG+ sehe ich eine lange Lebensdauer für GPUs auf uns zukommen.

Lurtz
2026-01-06, 12:37:31
Mit Smooth Motion konnte ich gerade gar keine UI-Probleme mehr provozieren in Anno 117. Das ist schon sehr nett. Wenn die Kompatibilität jetzt noch etwas besser wäre.

Wenn man Preset L und M richtig anwendet ist das schon wieder full of win.

Gerade mal Jusant angeworfen, das sieht mit 4k Quality M wie ein CGI-Film. Wer hätte das nach den ersten TAA-Versuchen gedacht...

Exxtreme
2026-01-06, 12:43:34
Jap wär geil, technisch ja anscheinend möglich :confused:

Das wäre möglich wenn das Spiel es unterstützen würde. Sachen über den Treiber zu ändern während ein Spiel läuft geht wohl in vielen Fällen nicht.

Cubitus
2026-01-06, 12:45:43
Mit Smooth Motion konnte ich gerade gar keine UI-Probleme mehr provozieren in Anno 117. Das ist schon sehr nett. Wenn die Kompatibilität jetzt noch etwas besser wäre.

Wenn man Preset L und M richtig anwendet ist das schon wieder full of win.

Gerade mal Jusant angeworfen, das sieht mit 4k Quality M wie ein CGI-Film. Wer hätte das nach den ersten TAA-Versuchen gedacht...

Bei KCD2 und wohl auch anderen CryEngine-Spielen ist es leider umgekehrt – Smooth Motion will dort nicht gut mit M zusammenarbeiten.. Mal weiter testen..

Edit: Wobei M-Qualität jetzt eigentlich fast so wie Nativ-AA-K aussieht, und Smooth Motion nicht mehr benötigt wird, jetzt ergibt das Ganze Sinn. :)

Ex3cut3r
2026-01-06, 13:00:45
Mittagspause im Home Office:

M VS K DLSS P - Doom Dark Ages: Im Standbild nicht wirklich was auszumachen. Muss ich nachher mal ausgiebiger testen.

https://s1.directupload.eu/images/user/260106/thumb/c6s4zgim.webp (https://www.directupload.eu/file/u/79486/c6s4zgim_png.htm) https://s1.directupload.eu/images/user/260106/thumb/s9qddq65.webp (https://www.directupload.eu/file/u/79486/s9qddq65_png.htm)

SamLombardo
2026-01-06, 13:02:19
https://www.computerbase.de/news/grafikkarten/nvidia-dlss-4-5-mfg-6x-dynamisches-mfg-und-besseres-super-resolution.95649/#abschnitt_preset_m_ist_der_neue_standardmodus

Genau oder, so sagt man, neuste sollte auch passen.
Und du brauchst die Beta App, musst noch aktvieren das er die herunterlädt.

https://i.postimg.cc/VNqYvwSM/Screenshot-2026-01-06-121424.png (https://postimg.cc/Ny0hCWkf)

Edit:

Erster Eindruck: WOW! Ganz ehrlich, DyingLight 3 wirkt auf den ersten Blick dank M deutlich schärfer und knackiger. Unter 4K fällt es mir schwer, zwischen Balanced und Qualität noch einen Unterschied festzustellen, aber der Stromverbrauch unter Balanced ist etwas besser.
Qualität haut etwas mehr rein.. Aber ich stell mir gerade die Frage wozu ich das dann zukünftig wählen soll unter 4K :uponder:

Die Artefakte und Doppelbilder bei 3x MFG sind etwas reduziert, wenn auch noch nicht ganz verschwunden.
DLSS 4.5 wird sicher abliefern, und mit der neuen FPS-Automatik mit MFG+ sehe ich eine lange Lebensdauer für GPUs auf uns zukommen.

Vielen Dank Cubitus! Dann werde ich das mal so machen:wink:

Nightspider
2026-01-06, 13:10:10
Mittagspause im Home Office:

M VS K DLSS P - Doom Dark Ages: Im Standbild nicht wirklich was auszumachen. Muss ich nachher mal ausgiebiger testen.

https://s1.directupload.eu/images/user/260106/thumb/c6s4zgim.webp (https://www.directupload.eu/file/u/79486/c6s4zgim_png.htm) https://s1.directupload.eu/images/user/260106/thumb/s9qddq65.webp (https://www.directupload.eu/file/u/79486/s9qddq65_png.htm)

Sehe eigentlich kein Unterschied.
Minimal etwas bei den Texturen aber könnte auch an der wechselnden Beleuchtung liegen.

robbitop
2026-01-06, 13:13:23
Mit Smooth Motion konnte ich gerade gar keine UI-Probleme mehr provozieren in Anno 117. Das ist schon sehr nett. Wenn die Kompatibilität jetzt noch etwas besser wäre.

Du kannst im Nvprofileinspector pro Spiel unterschiedliche Compatibility Presets für SM setzen. Das hat mir bisher eigentlich immer geholfen, wenn es out of the box bei einem Spiel nicht ging.

robbitop
2026-01-06, 13:15:06
Mittagspause im Home Office:

M VS K DLSS P - Doom Dark Ages: Im Standbild nicht wirklich was auszumachen. Muss ich nachher mal ausgiebiger testen.

https://s1.directupload.eu/images/user/260106/thumb/c6s4zgim.webp (https://www.directupload.eu/file/u/79486/c6s4zgim_png.htm) https://s1.directupload.eu/images/user/260106/thumb/s9qddq65.webp (https://www.directupload.eu/file/u/79486/s9qddq65_png.htm)
Ggf ist der Content bei Doom einfach zu "unproblematisch", dass selbst das alte DLSS da keine Probleme hat. IIRC achten die bei Doom sehr darauf, dass shader und Texturen nicht "high frequency" sind so, dass diese relativ robust gegen Unterabtastung sind.

dildo4u
2026-01-06, 13:15:59
Linus hat doch im Video gezeigt der größte Unterschied sieht man bei Partikel Effekten.
Was gut ist Arc Raiders ist dort eine Katastrophe.

Ex3cut3r
2026-01-06, 13:16:27
Sehe eigentlich kein Unterschied.
Minimal etwas bei den Texturen aber könnte auch an der wechselnden Beleuchtung liegen.

Doch im Zoom. Achte mal hinten beim Zaun auf die feinen Linien, diese sind bei M jetzt voll gerendert, während Sie bei K Sie nur halb gerendert werden. Auch das "Sternen Emblem" am Mast weiter hinten im Hintergrund wird voll dargestellt, ohne Aliasing. Es sind feine Details die jetzt mehr hervorstechen.

Hier ein Video was ich meine:

https://gofile.io/d/pna0Fw

Relex
2026-01-06, 13:29:06
Also die Ergebnisse und auch Unterschiede zum alten Preset K sind je nach Spiel extrem unterschiedlich.

Stellar Blade ist z.B. ein negativbeispiel und sieht extrem überschärft aus. Also wirklich richtig extrem überschärft.

In Doom hingegen macht es tatsächlich kaum einen Unterschied.


Ich habe das Gefühl, dass das neue Model ja nach Content selbstständig entscheidet, wie es das Bild am besten verarbeitet und aufbereitet. Nur scheint das bei manchen Games wohl komplett in die Hose zu gehen. Irgendwas in Stellar Blade lässt das Model wohl denken, dass das Bild die ganze Zeit unscharf ist und das Model haut dann den kompletten Eimer Scharfzeichner drüber.

Starfield hingegen sieht absolut sauber aus und nicht überschärft, obwohl es ebenfalls ein reines Rasterized Game wie Stellar Blade ist. Wobei ich auch schon immer der meinung war, dass Starfield nach den ganzen patches die beste DLSS Implementierung am markt hat. Die Implementierung und der Content greifen hand in hand und erzeugen ein extrem sauberes Bild. Das zeigt sich auch mit dem Preset M wieder deutlich.

Nightspider
2026-01-06, 13:31:15
Ja okay, wenn man bis auf die Pixel hineinzoomt sieht man auch die bessere Kantenglättung von M.
Kanten sehen weniger ausgefranst aus.

DrFreaK666
2026-01-06, 13:31:58
Es sind feine Details die jetzt mehr hervorstechen.

Also Nichts, das man beim normalen Spielen bemerkt. Aber trotzdem nice, dass da was passiert.
Aber ist es bei Performanceverlust nicht einfach eher einer Qualitätsstufe gleichzusetzen?
Wie ist die Performance bei DLAA 4 gegen DLSS 4.5 Q?

IceKillFX57
2026-01-06, 13:33:54
Für mich eher leider enttäuschend.
Hätte gern besser Bildqualität in 1440p@ultra Performance gesehen.
Dafür gibts jetzt ein Preset das natürlich gut nachgelegt hat bei der Qualität dafür aber unverhältnismässig mehr performance kostet.
Wirkt für mich eher so, das dafür dann die 5 bzw 6 Fache Bilderzeugung herhalten muss.

Cubitus
2026-01-06, 13:38:15
Vielen Dank Cubitus! Dann werde ich das mal so machen:wink:

Gerne :)
Kann jetzt auch bestätigen, wenn du Global Neuste einstellst nutzt er immer M.

dildo4u
2026-01-06, 13:42:20
Bei mir sinds ca 20% Lesitungsverlust auf einer 4070 Super.

Kann man gut mit Menü von Fortnite Testen.

4k Balanced mit Lumen/Nanite Model M 98fps Model K 117fps.

Ex3cut3r
2026-01-06, 13:47:53
Ich denke M macht tatsächlich wohl am meisten Sinn bei 1440p @ 27" und 1080p @ 24"

Für 4K und 31,5" bzw. 27" muss man von Game zu Game sehen, ob es groß was bringt. Vorallem mit dem Performance Verlust den M erzeugt. K wird wohl weiterhin das Good2Go Preset bleiben. Bei Ampere und Turing wurde ich tatsächlich bei CNN @ Preset E bleiben. Bringt einfach die beste Performance. Und die Bildqualität ist voll in Ordnung, besser als TAA.

Relex
2026-01-06, 13:50:05
Dann teste mal andere Spiele. Wie gesagt, in Doom macht es kaum einen Unterschied. Dürfte auch wirklich von allen Spielen die ich bisher getestet habe, das Spiel sein, das am wenigsten Unterschied zeigt.

Ex3cut3r
2026-01-06, 13:53:22
Dann teste mal andere Spiele. Wie gesagt, in Doom macht es kaum einen Unterschied. Dürfte auch wirklich von allen Spielen die ich bisher getestet habe, das Spiel sein, das am wenigsten Unterschied zeigt.

Kann ich nicht. Ich arbeite noch bis 17 Uhr. :biggrin:
Mache im am Abend.

Rush
2026-01-06, 13:53:55
Gerne :)
Kann jetzt auch bestätigen, wenn du Global Neuste einstellst nutzt er immer M.

Welches Preset wird gepulled, wenn du den Mode vorgibst? Performance vs. Quality?

Nightspider
2026-01-06, 13:56:18
Wenn ich Star Citizen starte wird mir noch Preset K angezeigt obwohl ich M über die Nvidia App forciere.

Ex3cut3r
2026-01-06, 13:58:05
Global? Oder im Game Profil? Hat ein User hier auch schon gehabt. Workaround. Im Gameprofil selbst auf M stellen. ;)

Exxtreme
2026-01-06, 14:00:15
In Final Fantasy 14 flimmert alles wenn man M einstellt. Das verschwindet mit K komplett.

Lurtz
2026-01-06, 14:00:15
Joa, das backfired gerade etwas. Vorhersehbarerweise.

Ich vermute stark, dass nVidia M bzw. L vor allem aufgrund der Kosten für niedrigere Renderauflösung empfiehlt. Nicht, weil es nicht auf höhere optimiert wäre oder sowas.

Jetzt denken die Leute aber letzteres und sie müssen ständig an den Presets rumspielen. Was einerseits stimmt, andererseits Quatsch ist...

https://www.reddit.com/r/nvidia/comments/1q5h14w/psa_do_not_force_latest_preset_with_dlss_45_aka/

Nightspider
2026-01-06, 14:02:01
Global? Oder im Game Profil? Hat ein User hier auch schon gehabt. Workaround. Im Gameprofil selbst auf M stellen. ;)

Global. Star Citizen wird von der Nvidia App nicht erkannt und wenn ich es manuell hinzufüge, dann sind die DLSS-Überschreiben Punkte ausgegraut. ("Nicht unterstützt")

Hab das damals auch nicht hinbekommen DLSS4 in SC zu forcieren, bevor es offiziell eingebaut wurde.

Im Menü von Star Citizen kann man ja sogar auswählen on CNN oder Transformer aber genauer/neuer eben nicht.

aufkrawall
2026-01-06, 14:13:25
Preset L beim Seitwärts-Strafen in Talos:
https://s1.directupload.eu/images/260106/temp/d7wcaoec.jpg (https://www.directupload.eu/file/d/9156/d7wcaoec_jpg.htm)

Was ein Komplett-Schrott. X-(
M scheint deutlich weniger Ghosting/Smearing zu haben, aber kann auch nicht im Entferntesten mit RR E mithalten. Aber es funktioniert besser mit Nanite/VSM als K.

Bei FG merke ich übrigens auch null Verbesserung, garblet auf den ersten Blick noch genauso vor sich hin wie mit der alten DLL.

Nightspider
2026-01-06, 14:19:16
Muss am Abend auch nochmal etwas testen.
Auf den letzten Testbildern von Arc Raiders, die ich gemacht habe, hatte ich beim reinzoomen deutliches Aliaising an allen Kanten mit M festgestellt und muss nochmal nachschauen wie das mit K aussah oder ob das ein Bug war.

IceKillFX57
2026-01-06, 14:27:57
ich bleibe bei K und verwende die verbesserte Bildgenerierung. Funktioniert für MICH am besten. Stecke da aber nicht so tief drin wie ihr.

SamLombardo
2026-01-06, 14:28:37
Im Hardwareluxx schreibt jemand dass es mit dem Profile Inspector problemlos gehen würde. Einfach aktuellen Treiber installieren und mittels NV Inspector DLSS override aktivieren und Preset Profil auswählen und man ist fertig. Wäre ja schön wenn es so einfach wäre, dann könnte ich mir die Beta App und das alles sparen, bin ja derzeit ohne nv-app unterwegs. Bin aber auch auf Arbeit und kann es erst heute Abend testen.

aufkrawall
2026-01-06, 14:30:46
Die Schärfe von M ist ziemlich grenzwertig. Wenn das Spiel gar kein Sharpen hat, geht das noch gerade so. Wenn aber etwas Sharpen zusätzlich vom Entwickler forciert wird (kommt ja leider ständig vor), dürfte es ziemlich unangenehm werden. :rolleyes:

Lurtz
2026-01-06, 14:36:04
Das bestätigt vermutlich die Cache-These, benötigt auf Karten vor Ada deutlich mehr VRAM:
https://cdn.wccftech.com/wp-content/uploads/2026/01/DLSS-4.5-RTX-20-30-40-50-VRAm.png

Hm, mixed bag nach der langen Wartezeit. Eigentlich wollten doch alle nur ein gefixtes Preset K :ugly:

Relex
2026-01-06, 14:42:10
Hab jetzt in Avatar rausgefunden, wie man den Scharfzeichner abschalten kann. Einfach irgend ne Grafikoption ändern, so dass oben beim Preset "Custom" steht. Wenn man dann den scharfzeichner ändert, wird es auch gespeichert. Dämlicher Bug...

Was mir direkt auffällt: Insgesamt sieht Preset M praktisch genauso wie RayReconstruction aus, nur dass es viel schärfer/hochauflösender aussieht.


Hier zur Erinnerung mein Vergleich vor einigen Wochen mit Preset K vs RayReconstruction:
https://imgsli.com/NDMyODc4

Man sieht nen deutlichen Unterschied, vor allem im Kontrast und der Definition von Vegetation und deren Beleuchtung und Materialeigenschaften. Scharfzeichner war da bei beiden auf Default Einstellung und zwar auf Stufe 7/10.


Und jetzt Ray Reconstruction vs das neue Preset M
RR wieder mit Scharfzeichner auf Stufe 7 vs Preset M auf Stufe 1:

https://imgsli.com/NDM5MDc4

https://i.ibb.co/qMLNNwNq/Preset-M.png (https://ibb.co/svpKKrKx)
https://i.ibb.co/r2hNHPth/RR.png (https://ibb.co/MkHQ7ThH)


Das ist mal richtig geil. Jetzt gibts quasi den RR Look, aber in scharf.
Gut, ich denke wenn man sich einzelne RT Effekte ansieht wie Schatten und Spiegelungen, wird RR sicher nochmal besser sein. Aber der Schärfeverlust lohnt sich mMn. in dem Spiel nicht.
Aber wenn man sich ansieht, wie viel schlechter Preset K vorher aussah, dann ist das ein gewaltiger Sprung.

aufkrawall
2026-01-06, 14:42:50
mixed bag
Das scheint mir noch sehr positiv ausgedrückt. Das ist jetzt offenbar deutlich teurer als FSR 4 und hat viel mehr Probleme. wtf :confused:


Das ist mal richtig geil. Jetzt gibts quasi den RR Look, aber in scharf.

Ne, ne. Temporale Stabilität von M ist in Talos massiv schlechter als RR E, und deutlich mehr Smearing/Ghosting hat es auch.

DrFreaK666
2026-01-06, 15:12:05
Könnte mal jemand DLSS4 und DLSS4.5 Performance-normiert vergleichen?

Cubitus
2026-01-06, 15:32:25
Welches Preset wird gepulled, wenn du den Mode vorgibst? Performance vs. Quality?


Ich habe die neueste Global eingestellt, dabei wählt er immer M.
Wenn ich den DLSS-Modus zusätzlich erzwinge, weiß ich nicht, was er dann nimmt, werde testen.

Edit: Wenn du Neuste forcierst und aber zusätzlich die DLSS Qualitätsstufe wie z.b Qualität erzwingst, nimmt er K.
Ab erzwungener Qualitätsstufe Leistung nimmt er M.

Wenn man global neuste setzt und im Spiel DLSS-Qualitätsstufen einstellt nimmt er immer M

Okay, hab's kapiert.

M scheint bei manchen Spielen gut zu funktionieren, ist aber nicht immer die beste Wahl.
Im Zweifelsfall wird K wohl die kompatibelste Option bleiben.

aufkrawall
2026-01-06, 15:34:42
Provokativer Take: L können sie auch direkt wieder rauslöschen, das ist quasi das Transformer-Gegenstück zum gescheiterten CNN Preset D. :freak:

Darkman.X
2026-01-06, 16:01:32
Im Hardwareluxx schreibt jemand dass es mit dem Profile Inspector problemlos gehen würde. Einfach aktuellen Treiber installieren und mittels NV Inspector DLSS override aktivieren und Preset Profil auswählen und man ist fertig. Wäre ja schön wenn es so einfach wäre, dann könnte ich mir die Beta App und das alles sparen, bin ja derzeit ohne nv-app unterwegs. Bin aber auch auf Arbeit und kann es erst heute Abend testen.

JA, das ist so einfach. Im Inspector 2.4.0.29 sind ja schon alle Buchstaben bis O eingepflegt, wenn man keine CustomSettingNames.xml verwendet, in der Presets eingetragen sind. Da nimmt man einfach das Preset M, vom "unused" nicht beirren lassen.
Ich hatte es mit Satisfactory (ein UE5-Spiel) und es funktionierte.

Und während ich den Text schreibe, sehe ich gerade, dass 2.4.0.30 heute veröffentlicht wurde. Da wurde das "unused" bei M und L entfernt.

SamLombardo
2026-01-06, 16:03:58
JA, das ist so einfach. Im Inspector 2.4.0.29 sind ja schon alle Buchstaben bis O eingepflegt, wenn man keine CustomSettingNames.xml verwendet, in der Presets eingetragen sind. Da nimmt man einfach das Preset M, vom "unused" nicht beirren lassen.
Ich hatte es mit Satisfactory (ein UE5-Spiel) und es funktionierte.

Und während ich den Text schreibe, sehe ich gerade, dass 2.4.0.30 heute veröffentlicht wurde. Da wurde das "unused" bei M und L entfernt.

Exzellent. Danke für die Info!

00-Schneider
2026-01-06, 16:15:01
https://i.imgur.com/TJtQS8y.png

https://i.postimg.cc/gk21QZvd/image.png

Hakim
2026-01-06, 16:18:13
Nur mal gefragt, wenn ich bei der NvApp bei den Spiel Profilen unter DLSS Überschreiben Modell und Super Resolution jetzt von "Voreinstellung K" auf "Neuste" switche, müßte es das 2nd Gen Transfer Modell sein ja??

robbitop
2026-01-06, 16:19:26
Interesssant, dass M günstiger als L ist anhand der Angaben.

Exxtreme
2026-01-06, 16:20:27
Nur mal gefragt, wenn ich bei der NvApp bei den Spiel Profilen unter DLSS Überschreiben Modell und Super Resolution jetzt von "Voreinstellung K" auf "Neuste" switche, müßte es das 2nd Gen Transfer Modell sein ja??

Du brauchst noch die Beta-Version der App damit das auswählbar wird. Oder die aktuelle Version der Profile Inspectors.

rumpeLson
2026-01-06, 16:30:55
Interesssant, dass M günstiger als L ist anhand der Angaben.
Finde ich auch. Spannend wäre wie sich L und M in höheren Presets schlagen. Sieht L vielleicht generell sogar besser aus, wird aber wegen des höheren Performance Impacts nicht empfohlen?

Relex
2026-01-06, 16:39:33
Das neue Model kommt sehr gut mit Transparenzen in Bewegung zurecht.

Links Preset K, rechts Preset M
4K Quality Modus

https://i.ibb.co/XxmPSD3J/Screenshot-2026-01-06-163751.png (https://ibb.co/5hq3Bknc)

Hakim
2026-01-06, 17:02:20
Du brauchst noch die Beta-Version der App damit das auswählbar wird. Oder die aktuelle Version der Profile Inspectors.

Jo danke, jetzt wird das M Profil auch angezeigt

dildo4u
2026-01-06, 17:11:28
DF Ersteindruck zu DLSS 4.5

SJdGjRGGU70

horn 12
2026-01-06, 17:17:44
@Relex

Updatest deinen wie meinen QD Oled Dell 3225QF
Grüße!

Gymnopédies
2026-01-06, 17:22:03
Neuste Treiber von Nöten oder wie bekomme ich DLSS 4.5 default an den Start? Der Inspector (aktuelle Version) zeigt bei den Presets bis K an und die Override Presets zeigen dann bis O an.

Exxtreme
2026-01-06, 17:24:31
Neuste Treiber von Nöten oder wie bekomme ich DLSS 4.5 default an den Start? Der Inspector (aktuelle Version) zeigt bei den Presets bis K an und die Override Presets zeigen dann bis O an.

Du brauchst den aktuellen Treiber.

teezaken
2026-01-06, 17:27:58
Habe es in Outer Worlds 2 und in Forza Horizon 5 probiert, die kosten schwanken je nach Spiel schon sehr.

In Outer Worlds 2 hab ich ca. 10% FPS verloren gegenüber K mit M und L, M und L sind aber sehr nah beieinander, habe dann L mit Ray Reconstruction verglichen fand L etwas besser, vorallem die Kantenglättung, die Performance von L war mit RR vergleichbar (Preset E).

In Forza Horizon 5 bin ich mit DLAA mit K von 170 Fps auf M mit 123 Fps und L mit 116 Fps gefallen also auf 2/3 der Performance, K ghostet ja enorm in FH5 weshalb ich es nie nutzen konnte, M hatte Artefakte schlimmer als alles was ich je gesehen habe und L sah nahezu perfekt aus, das werde ich hier in Zukunft auch nutzen, der immense IQ Gewinn wird mit viel Leistung erkauft, aber ich finde es eine gute Sache, denn man hat ja die Wahl.

Alles genannte lief auf einer RTX 5090.

Hakim
2026-01-06, 17:42:12
Puh unter Diablo 4 hat zumindest die kleine Ampere bei mir ordentlich mehr zu tun mit dem neuen DLSS, Fps ist auf 75 gecapt, unter K zieht es 78-79W, mit dem neuen M ist es schon 135-152W Bord Power.

dildo4u
2026-01-06, 17:50:22
M Modell Performance Verluste auf 3080 Ti in Cyberpunk


https://videocardz.com/newz/nvidia-dlss-4-5-costs-2-3-performance-on-rtx-50-rtx-20-30-may-be-hit-with-20-drops

robbitop
2026-01-06, 18:12:13
Habe es in Outer Worlds 2 und in Forza Horizon 5 probiert, die kosten schwanken je nach Spiel schon sehr.

In Outer Worlds 2 hab ich ca. 10% FPS verloren gegenüber K mit M und L, M und L sind aber sehr nah beieinander, habe dann L mit Ray Reconstruction verglichen fand L etwas besser, vorallem die Kantenglättung, die Performance von L war mit RR vergleichbar (Preset E).

In Forza Horizon 5 bin ich mit DLAA mit K von 170 Fps auf M mit 123 Fps und L mit 116 Fps gefallen also auf 2/3 der Performance, K ghostet ja enorm in FH5 weshalb ich es nie nutzen konnte, M hatte Artefakte schlimmer als alles was ich je gesehen habe und L sah nahezu perfekt aus, das werde ich hier in Zukunft auch nutzen, der immense IQ Gewinn wird mit viel Leistung erkauft, aber ich finde es eine gute Sache, denn man hat ja die Wahl.

Alles genannte lief auf einer RTX 5090.
DLSS hat einen festen overhead in ms pro Frame und die Differenz zwischen 4.5 und 4.0 ist konstant. Und das bedeutet, dass man bei hohen fps mehr fps verliert als mit wenigen fps. :)

Relex
2026-01-06, 18:16:37
Ja, aber Forza Horizon ist seeehr speziell in der Hinsicht. Schon das CNN Model hat damals relativ wenig performance durch das Upscaling freigeschaufelt. Die DLSS3 Frame Generation hat die FPS auch nicht sonderlich stark erhöht und vergleichsweise viele FPS gefressen und DLSS4.5 schlägt bei dem Spiel auch wieder übermäßig stark auf die FPS.

Das Spiel lässt sich offiziell nichtmal auf das neue FG Model via Nvidia App updaten.

FH5 und Nvidia Technik sind einfach seltsam.

Immerhin gibts bei Forza absolut keine Anzeichen einer Überschärfung des Bildes. Gleiches bei der Pragmata Demo.

SamLombardo
2026-01-06, 18:17:34
Habe es in Outer Worlds 2 und in Forza Horizon 5 probiert, die kosten schwanken je nach Spiel schon sehr.

In Outer Worlds 2 hab ich ca. 10% FPS verloren gegenüber K mit M und L, M und L sind aber sehr nah beieinander, habe dann L mit Ray Reconstruction verglichen fand L etwas besser, vorallem die Kantenglättung, die Performance von L war mit RR vergleichbar (Preset E).

In Forza Horizon 5 bin ich mit DLAA mit K von 170 Fps auf M mit 123 Fps und L mit 116 Fps gefallen also auf 2/3 der Performance, K ghostet ja enorm in FH5 weshalb ich es nie nutzen konnte, M hatte Artefakte schlimmer als alles was ich je gesehen habe und L sah nahezu perfekt aus, das werde ich hier in Zukunft auch nutzen, der immense IQ Gewinn wird mit viel Leistung erkauft, aber ich finde es eine gute Sache, denn man hat ja die Wahl.

Alles genannte lief auf einer RTX 5090.

L ist besser als M? Und kostet mehr? Interessant. Und das war DLAA? Wäre mal interessant ob es mit DLSSQ genauso ist.

Rush
2026-01-06, 18:27:19
Ich habe die neueste Global eingestellt, dabei wählt er immer M.
Wenn ich den DLSS-Modus zusätzlich erzwinge, weiß ich nicht, was er dann nimmt, werde testen.

Edit: Wenn du Neuste forcierst und aber zusätzlich die DLSS Qualitätsstufe wie z.b Qualität erzwingst, nimmt er K.
Ab erzwungener Qualitätsstufe Leistung nimmt er M.

Wenn man global neuste setzt und im Spiel DLSS-Qualitätsstufen einstellt nimmt er immer M

Okay, hab's kapiert.

M scheint bei manchen Spielen gut zu funktionieren, ist aber nicht immer die beste Wahl.
Im Zweifelsfall wird K wohl die kompatibelste Option bleiben.

Super, Danke!

teezaken
2026-01-06, 18:34:39
L ist besser als M? Und kostet mehr? Interessant. Und das war DLAA? Wäre mal interessant ob es mit DLSSQ genauso ist.
Laut dem DLSS Programming Guide ist das korrekt so mit den kosten.

95211

Quelle:
https://github.com/NVIDIA-RTX/Streamline

aufkrawall
2026-01-06, 18:46:03
In Fortnite sind L und M jedenfalls beide K eindeutig vorzuziehen, beide funktionieren mit Nanite, Lumen und VSM wesentlich besser. Aber selbst mit dem Low Poly-Fortnite-Gras fällt das Gematsche mit L mitunter unschön auf. Quasi das andere Extrem zum K Disocclusion-Gebrösel.

Cubitus
2026-01-06, 18:46:33
Super, Danke!

Nvidia empfiehlt, es global zu belassen, weist jedoch auch auf alternative Methoden hin.

https://www.reddit.com/r/nvidia/comments/1q5h14w/comment/ny0t93w/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button
Für alle, die es interessiert: Ich habe KCD2 unter 4k mal etwas ausführlicher getestet.

Anmerkung BA- Steht für Balanced

https://i.postimg.cc/k4qbq7jb/Screenshot-2026-01-06-172844.png (https://postimg.cc/QBYtqZZ8)

https://i.postimg.cc/Hn7HNyQT/Screenshot-2026-01-06-172922.png (https://postimg.cc/Fkm2d1W6)

https://i.postimg.cc/YC2F5rs9/Screenshot-2026-01-06-184117.png (https://postimg.cc/Ln7hfpRK)

M ist vor allem in Bewegung ein Mü schärfer, kostet einen Tick mehr Performance hier mit der 5090, ist allerdings vertretbar.

Ansonsten gibt es in diesen Szenen kaum Unterschiede zu K.
Ich würde behaupten, dass Performance mit M tatsächlich ein Sweetspot zwischen FPS und Darstellung sein könnte.
Balance mit M wirkt zumindest hier obsolet

Bei KCD2 ist mir zudem aufgefallen, dass die Schattierung, etwa am Fenster, mit dem M-Preset etwas härter wirkt.

Alles in allem scheint M brauchbar zu sein, werde es vorerst mal auf Global lassen.

SamLombardo
2026-01-06, 18:55:24
JA, das ist so einfach. Im Inspector 2.4.0.29 sind ja schon alle Buchstaben bis O eingepflegt, wenn man keine CustomSettingNames.xml verwendet, in der Presets eingetragen sind. Da nimmt man einfach das Preset M, vom "unused" nicht beirren lassen.
Ich hatte es mit Satisfactory (ein UE5-Spiel) und es funktionierte.

Und während ich den Text schreibe, sehe ich gerade, dass 2.4.0.30 heute veröffentlicht wurde. Da wurde das "unused" bei M und L entfernt.
wenn ich das im Profil Inspector so einstelle und "always use latest" nehme, wird da Preset M ausgewählt? "DLSS overridden by latest installed (v310.5.0)" steht da. Ist das M?

Relex
2026-01-06, 19:09:07
Nvidia empfiehlt, es global zu belassen, weist jedoch auch auf alternative Methoden hin.

https://www.reddit.com/r/nvidia/comments/1q5h14w/comment/ny0t93w/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button
Für alle, die es interessiert: Ich habe KCD2 unter 4k mal etwas ausführlicher getestet.

Anmerkung BA- Steht für Balanced

https://i.postimg.cc/k4qbq7jb/Screenshot-2026-01-06-172844.png (https://postimg.cc/QBYtqZZ8)

https://i.postimg.cc/Hn7HNyQT/Screenshot-2026-01-06-172922.png (https://postimg.cc/Fkm2d1W6)

https://i.postimg.cc/YC2F5rs9/Screenshot-2026-01-06-184117.png (https://postimg.cc/Ln7hfpRK)

M ist vor allem in Bewegung ein Mü schärfer, kostet einen Tick mehr Performance hier mit der 5090, ist allerdings vertretbar.

Ansonsten gibt es in diesen Szenen kaum Unterschiede zu K.
Ich würde behaupten, dass Performance mit M tatsächlich ein Sweetspot zwischen FPS und Darstellung sein könnte.
Balance mit M wirkt zumindest hier obsolet

Bei KCD2 ist mir zudem aufgefallen, dass die Schattierung, etwa am Fenster, mit dem M-Preset etwas härter wirkt.

Alles in allem scheint M brauchbar zu sein, werde es vorerst mal auf Global lassen.


Guter Vergleich :up:

Preset K im Performance Modus fällt von allen Modi die du getestet hast am deutlichsten ab.
Preset M hebt den Performance modus deutlich näher an die anderen Modi.

Gymnopédies
2026-01-06, 19:16:04
Ich habe immer noch nur bis Profil K zur Auswahl mit dem neusten Treiber und neustem Inspector?

crux2005
2026-01-06, 20:08:44
Wenn du Ray Reconstruction aktivierst nicht.

Aber die RR .dll wurde auch auf v310.5.0 aktualisiert. :freak:

Spaß bei Seite. Das würde erklären wieso ich in Hogwarts Legacy keinen Unterschied zu v310.4.0 gesehen habe, weil RR aktiv war. Wieder was dazu gelernt. :up:

Darkman.X
2026-01-06, 20:22:13
wenn ich das im Profil Inspector so einstelle und "always use latest" nehme, wird da Preset M ausgewählt? "DLSS overridden by latest installed (v310.5.0)" steht da. Ist das M?

Das weiß ich nicht, probiere es aus. Man kann sich per Registry-Eintrag ein Overlay aktivieren und dann sieht man links unten, welches Preset aktuell genutzt wird.

Die Informationen sind für mich als stiller Mitleser gerade ein wenig durcheinander.
Angeblich wird das Preset passend zur eingestellten Qualität ausgewählt, weil M nur für Performance geeignet wäre.
Andererseits soll laut Nvidia das M-Preset für alle Qualitätseinstellungen geeignet sein. Daher bezweifle ich, dass das Preset bei "always use latest" dynamisch ausgewählt wird.

Daher mein Tipp, es einfach selber mit dem DLSS-Overlay zu prüfen.