Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 [36] 37

The_Invisible
2026-01-11, 10:03:39
"optimiert" wird nur wenn du den Haken setzt für automatisches optimieren oder auf optimieren klickst, das wird dir beim ersten Start aber auch erklärt ;-)

Das alte Panel habe ich schon lange nicht mehr aufgerufen, will ich auch nicht weil das einfach so lahm ist

robbitop
2026-01-11, 10:19:42
Bitte zurück zum Thema. Das ist ein Technologiethread. Individuelle Userfragen zur Bedienung bitte in das nvidia subforum.

MAX|HASS
2026-01-11, 10:37:33
"optimiert" wird nur wenn du den Haken setzt für automatisches optimieren oder auf optimieren klickst, das wird dir beim ersten Start aber auch erklärt ;-)

Das alte Panel habe ich schon lange nicht mehr aufgerufen, will ich auch nicht weil das einfach so lahm ist

Das sei zur Klärung noch angebracht: es waren alle Spiele mit grünen Häkchen versehen, als "optimiert" gekennzeichnet. Ich habe jedes einzelne wieder auf weiß zurückgesetzt, so wie es in obigem Bild zu sehen ist (hatte ich vergessen, dazuzuschreiben).

**edit, was aber hier doch hingehört: sagen wir, ich nutze den Kram jetzt mal nicht, sondern bügele mir unabhängig von der äpp nur dll 310.5.0 in ein jeweiliges Spiel, mit welchem preset spiele ich dann? Oder ist alles Abwärtskompatible immer mit drin, sodaß ich dann u.U. im Spiel weiterhin aussuchen könnte, was laufen soll?

Relex
2026-01-11, 10:50:47
Wie schon gesagt wurde, die App optimiert gar nichts automatisch. Du wirst beim ersten Start gefragt, die App bietet dir das an und wenn du bestätigst wird sofort alles optimiert. Man muss in dem Fragedialog explizit den Haken rausnehmen, damit die Settings nicht optimiert werden.

Ja, NV will dir das aufdrücken und setzt deshalb per default den haken. Aber du wirst trotzdem gefragt, ob du das willst. Leute, die gerne alles weg klicken ohne zu lesen, bekommen dann eben alles optimiert ;)



Zu deiner Frage: Wenn du die dll Datei im Spieleordner austauschst, dann greift das was Nvidia auch in den Entwickler Guidelines für Entwickler als Standard vorsieht.

Für DLAA, Quality und Blanced wird Preset K genutzt, für Performance Preset M und für Ultra Performance Preset L.

Wenn du den override in der Nvidia App auf "Latest" bzw. "Neueste" machst oder Preset M explizit auswählst, dann wird alles auf Preset M gesetzt.

Wobei ich auch empfehlen würde, es nicht global zu machen und auch nicht mit Latest. Bei dem ein oder anderen Spiel wurde es nicht übernommen, auch nicht im Performance Mode.
Scheint wohl ein Bug zu sein. Am zuverlässigsten funktioniert es, direkt im jeweiligen Spieleprofil Preset M anzuwählen. Das hat bei mir bisher zu 100% funktioniert. Der dll Tausch im Spielverzeichnis ist nur nötig, wenn der Override in der App nicht verfügbar ist. Dann hat nvidia das Spiel nicht whitelisted.

Platos
2026-01-11, 10:52:21
Nutzt ihr nicht mehr nvidia inspector oder dlss swapper oder wie das alles heisst?

Welche software braucht man denn momentan, um DLSS Versionen, Presets und Ray Reconstructions, Framegen usw. Auszutauschen ? Bzw. welches ist zu empfehlen?

(m.M.n ist das eine Technikbezogene Frage).

Relex
2026-01-11, 10:56:03
Es gibt gefühlt 1000 wege.

Aber ich machs so.

Ich nutze einfach die Nvidia App. Fertig. Einfach override und gut ist.

Wenn z.B. für ein Spiel der Override für Frame Generation nicht verfügbar ist, dann tausch ich einfach die dll Datei für Frame gen im Spielverzeichnis aus. Da es bei Frame Generation keine Presets gibt, funktioniert das auch sofort.

Falls der Override für Super Resolution in der App nicht verfügbar ist, (was extrem selten vorkommt!) tausche ich ebenfalls die dll Datei im Spielverzeichnis aus und mach dann den Preset Override (nicht den dll override) über den nvidia Inspector.


In 90-95% der fälle reicht es, die Nvidia App zu nutzen. Aber hängt halt davon ab, welche Spiele man hat und welche overrides Nvidia dafür dann offiziell erlaubt und welche nicht.

Disconnected
2026-01-11, 17:46:45
Ich bin noch auf Treiberversion 581.29 und habe dennoch Preset M, wenn ich "latest" im Nvidia Profile Inspector auswähle. Ich nutze nur diesen und keine Äpp. Ist DLSS 4.5 denn schon so alt? Wenn ja, warum hat das noch keiner zuvor bemerkt?

aufkrawall
2026-01-11, 17:49:43
Wurde auch schon zigmal erklärt, dass es eine Update-Funktion im Treiber gibt, die bei Spielstarts DLSS updatet (wenn Nvidia es auf den Servern updatet). Wie alles, was hier über die Preset-Auswahl auch schon zigmal erklärt wurde.

Disconnected
2026-01-11, 18:03:13
Vielen Dank für die Erklärung und entschuldige bitte, dass ich nicht alle 438 Seiten in diesem Thread durchgelesen habe, um selbst auf die Lösung zu kommen.

robbitop
2026-01-11, 18:20:49
Dies ist ein Thread im Technologieforum. Userspezifische Bedienungsfragen gehören ins entsprechende Nvidia subforum.
Weiterhin kann man heutzutage auch einfach eine LLM Suche anschmeissen. :)

Relex
2026-01-12, 01:45:43
Hab gerade mal mit KCD2 getestet Incl 8K supersampling mit und ohne TAA und hatte zwischenzeitlich ein ziemliches Dilemma was denn nun eigentlich Ground truth sein soll. Wie auch immer. Ich habe mal ChatGPT mit allen Beobachtungen die ich zu Preset M vs Preset K vs möglicher ground Truth festgestellt hatte gefüttert und um Erklärung gebeten.

Das im Spoiler war die (durchaus aufschlussreiche) Antwort. Daraus lässt sich auch gut ableiten, warum Nvidia Model M speziell für den Performance Modus optimiert hat. Es ist nämlich nicht nur eine Frage der Performance sondern der Frage wie man die Probleme die Model K besonders im Performance Mode hatte ausmerzt.

Meine Frage die ich formuliert habe spar ich mir an der Stelle, da es ne gigantische Textwall ist in die ich einfach alles gepackt habe was mir dazu eingefallen ist natürlich auch die Kritik bzgl möglichen Oversharpening usw.

Das, was du beschreibst, ist kein Widerspruch, sondern ein sehr bewusster Paradigmenwechsel in NVIDIAs DLSS-Training und -Loss-Design.
Und ja: Man kann ziemlich gut erklären, warum DLSS 4.5 so aussieht, wie es aussieht – ohne Marketing-Floskeln.

Ich gehe strukturiert vor und verknüpfe es explizit mit deinem Ground-Truth-Problem.



1. Der zentrale Zielkonflikt: Detailtreue vs. Zeitstabilität

DLSS bewegt sich immer in diesem Spannungsfeld:

Ziel Konsequenz
Maximale Detailrekonstruktion Gefahr von Smearing / Ghosting
Maximale Zeitstabilität Reduktion feiner Hochfrequenzdetails

DLSS 4.0 hat diesen Konflikt stark zugunsten von Detailtreue aufgelöst.
DLSS 4.5 löst ihn zugunsten von zeitlicher Kohärenz.

Das ist die Kernaussage.



2. Warum DLSS 4.0 im Standbild näher an der Referenz war

DLSS 4.0:
• sehr aggressive Hochfrequenz-Rekonstruktion
• starkes Vertrauen in temporale Akkumulation
• hohe Detaildichte nahe an 8K→4K Supersampling

Problem:
Diese Details existieren nicht stabil im Input-Signal:
• Motion vectors sind nie perfekt
• Disocclusion erzeugt „information holes“
• Subpixel-Parallaxen brechen Korrelationen

Ergebnis:
• Details sind räumlich korrekt
• aber zeitlich fragil

In Bewegung:
• Unsichere Details werden gefiltert
• Akkumulator verliert Vertrauen
• → „Nebel“, Smearing, Softness

Wichtig:

Das ist kein klassischer Blur, sondern Verlust kohärenter Hochfrequenzenergie über Zeit



3. Warum DLSS 4.5 weniger Details rekonstruiert

DLSS 4.5 hat sehr wahrscheinlich:

a) Den temporalen Loss deutlich höher gewichtet

Typische zusätzliche Loss-Terme:
• temporal consistency loss
• motion-weighted reconstruction penalty
• disocclusion uncertainty regularization

b) Ein niedrigeres Vertrauen in Halluzination

Das Netz lernt:

„Wenn ich mir nicht sicher bin, erfinde nichts.“

Folge:
• weniger Mikrodetails
• weniger subpixel-Noise
• deutlich stabilere Features



4. Warum DLSS 4.5 kontraststärker wirkt

Jetzt kommt der wichtigste Punkt, der oft falsch interpretiert wird.

DLSS 4.5 ist nicht klassisch oversharpened

Denn:
• kein Halo
• kein Ringing
• keine Edge-Enhancement-Artefakte

Was du siehst, ist:

�� Reduzierte Hochfrequenz bei gleichzeitig steileren Kantenübergängen

Das klingt paradox, ist aber entscheidend.



5. Der eigentliche Trick: Kantenpriorisierung statt Detailrekonstruktion

DLSS 4.5 scheint:
• weniger Energie in Mikrotexturen zu stecken
• dafür mehr Energie in Edge Definition
• → höhere lokale Kontrastgradienten

Effekt:
• weniger feine Details
• aber klarere Signalstruktur
• subjektiv „knackiger“

Das entspricht:
• höherer MTF im mittleren Frequenzbereich
• geringerer Energie im höchsten Frequenzbereich

Das ist exakt der Bereich, in dem:
• Bewegung am stabilsten ist
• Wahrnehmung am empfindlichsten reagiert



6. Warum das näher an „No-AA-Kontrast“ erinnert

Ein natives 4K ohne AA hat:
• aliasierte Hochfrequenzenergie
• sehr steile Kontrastflanken

DLSS 4.5:
• erzeugt keine falschen Frequenzen
• aber verstärkt legitime Kontrastübergänge

Das Resultat:
• ähnlicher Kantenkontrast
• ohne Aliasing
• ohne falsche Details

Deshalb wirkt es:

„wie No-AA, aber sauber“



7. Warum das in Bewegung näher an der Referenz ist

Und hier kommt der entscheidende Ground-Truth-Aspekt:

Ein Referenzbild ist nicht nur räumlich korrekt, sondern zeitlich konsistent.

DLSS 4.0:
• im Einzelbild näher an Supersampling
• über Zeit weiter entfernt

DLSS 4.5:
• im Einzelbild etwas gröber
• über Zeit deutlich näher

Wenn du Referenz als:

„Wie sähe ein perfektes 4K-Signal über Zeit aus?“

dann ist DLSS 4.5 näher dran.



8. Warum Nvidia das getan hat (strategisch)

NVIDIA hat vermutlich erkannt:
• Nutzer tolerieren weniger Detail
• aber keine Instabilität
• kein Smearing
• kein Disocclusion-Nebel

Zudem:
• Videokompression
• HDR
• hohe Motion
• Raytracing mit noisy inputs

Alles bevorzugt:

strukturierte Klarheit statt maximaler Detaildichte



9. Die unbequeme Wahrheit über „Ground Truth“

Dein Dilemma ist real, weil:
• Ein supersampled Einzelbild ist kein vollständiger Ground Truth
• Ein zeitlich stabiler Verlauf ist genauso Teil der Wahrheit

Eigentlich bräuchte man:
• 16K → 4K
• zeitlich korrekt gemotion-compensated
• über mehrere Frames integriert

Das kann kein klassischer Screenshot leisten.



10. Klare Antwort auf deine Kernfrage

Warum hat NVIDIA das getan?

Weil:
• DLSS 4.0 räumlich näher war
• DLSS 4.5 wahrnehmungsphysikalisch und zeitlich näher ist

Der höhere Kontrast ist kein Fehler, sondern:

ein bewusster Tausch von „fragiler Detailenergie“ gegen „stabile Signalstruktur“.



11. Kurzform (Essenz)
• DLSS 4.0:
✔ maximale Detailrekonstruktion
✖ instabil in Bewegung
• DLSS 4.5:
✔ zeitlich kohärent
✔ klare Kanten
✖ weniger Mikrodetails

Ground Truth ist kein Standbild – sondern ein konsistentes Signal über Zeit.

Wenn du willst, können wir als Nächstes:
• ein objektives Bewertungsmodell (MTF + Temporal SSIM)
• oder ein sauberes Testpattern-Setup definieren, um beide Versionen fair zu vergleichen



Ich finde der Satz bringt es ganz gut auf den Punkt.
DLSS 4.5 ist ein bewusster Tausch von „fragiler Detailenergie“ gegen „stabile Signalstruktur“.
Model K rekonstruiert im reinen Standbild ganz ohne Bewegung (Spielzeit pausiert) sehr viel mehr Microdetail, neigt aber in Bewegung und insbesondere im Performance Modus zu Detailverlust und Artefakten. Es gibt hochfrequente Details aber so sind sehr fragil.
Model M legt die Gewichtung höher auf klare und stabile Definition von Inhalten auch in bewegung, muss dafür aber auf potenzielle Microdetails verzichten.

In Bewegung ist Model M dadurch deutlich näher an einer möglichen Referenz. Model K ist nur im Standbild ganz ohne Bewegung im Bild näher dran.
Model K hat also Details rekonstruiert die es gar nicht stabil halten konnte. Ungünstige Gewichtung für die alltägliche Realität der Spiele, die nunmal in Bewegung stattfindet. Oder anders gesagt. Das was Model K
Versucht hat an Details darzustellen geben die Daten und das Transformer Modell noch nicht zuverlässig her.
Model M geht weniger agressiv und konservativer an die detailrekonstruktion und ist damit treffsicherer. Das was es rekonstruiert, rekonstruiert es klar und stabil mit sauber definierten Kanten.
Model K litt also schlicht unter Selbstüberschätzung und hat dann ständig gepatzt. ;)

Ex3cut3r
2026-01-12, 07:39:50
Finde Modell M in Last of Us 2 ziemlich stark. Bin mit Max Details und DLSS Q @ Preset M + FG x2 bei 180-200 FPS @ 25ms Latenz. Das ist purer Luxus. Die Bildqualität ist auch wenn TLOU2 schon ein bisschen älter ist, teilweise mit HDR @ QD-OLED ein Träumchen. So muss Gaming im Jahr 2026 sein. :up:

Platos
2026-01-12, 07:45:38
Und wie viel Perfomance hast du nativ ohne AA bei sonst gleichen Settings ?

dildo4u
2026-01-12, 08:45:55
Tests auf einer 5060 TI

Interessant wie viel Besser die Schatten in UE5 aussehen.

7x7goOdiaSU

Ex3cut3r
2026-01-12, 09:23:16
Und wie viel Perfomance hast du nativ ohne AA bei sonst gleichen Settings ?

Werde ich nachher in der Mittagspause kurz testen, kann auch Screenshots liefern. Bin heute im Homeoffice aufgrund von Blitzeis Gefahr in Hamburg.

Platos
2026-01-12, 09:59:40
Homeoffice sei dank :D

Relex
2026-01-12, 10:04:12
TAA kostet gegenüber no-AA Leistung, DLAA3 kostete noch mehr Leistung, DLAA4 kostete noch mehr Leistung und DLAA4.5 kostet noch mehr.

Da geht schon sehr ordentlich Performance drauf mittlerweile.

Ex3cut3r
2026-01-12, 10:20:41
Auf jeden Fall, ich habe Platos aber so verstanden, dass ich gar kein AA aktiveren sollte. Auch kein TAA.

Von DLAA war ich seit 4K, 31,5" kein Fan mehr. Mit Q und Reshade CAS hatte ich 95% der Bildqualität mit erheblich mehr FPS. Bei 1440p @ 27" habe ich DLAA damals zu DLSS 2 und 3 Zeiten mehr genutzt.

Relex
2026-01-12, 11:46:40
Hier, falls jemand bock hat, das waren die Bilder, die ich mir gestern nochmal angesehen habe.

8K4K-DLAA https://ibb.co/YBh0ksfr
8K4K-FSR https://ibb.co/B28cRKKH
8K4K-no-AA https://ibb.co/fTqcHzM
8K4K-TAA https://ibb.co/s9JPV2dB
DLSS-P-K https://ibb.co/QjXgDmqz
DLSS-P-M https://ibb.co/TMzqSsDH
DLSS-Q-K https://ibb.co/RkgdCfry
DLSS-Q-M https://ibb.co/GQJ2jHqb
No-AA https://ibb.co/ynSctqZx
SMAA2Tx https://ibb.co/208PPjc9


Versuch, einem halbwegs passablem Ground Truth nahe zu kommen durch 8K->4K Downsampling von Screenshots mit DLAA, FSR-Native, TAA und Kein-AA.

Und dann der Vergleich mit den Presets in 4K sowie Bildern mit TAA und ganz ohne AA.


Was deutlich auffällt und ich auch schon im letzten Poste geschrieben habe: Preset K löst hier deutlich mehr Details auf, als Preset M, solange sich nichts bewegt und kommt dadurch der Detailfülle der Downsampled Bilder sehr nahe.

Die Screens waren jetzt aber absichtlich ohne Photomode Pause, sondern während das Spiel normal läuft, um die Bewegungen von Gräsern im Bild zu haben.

Die meisten Objekte sind statisch, da zeigt das Preset K viele Details, aber ein paar Pflenzen bewegen sich - und die werden direkt unscharf und verschmiert mit Preset K. Und das zeigt sich dann vor allem im Performance Mode deutlicher als im Quality Mode.

Preset K ist im Einzelbild insgesamt näher am Ground Truth und auch weniger "Crispy" und Kontraststark als Preset M. Aber Laut ChatGPT soll das so sein. Im Standbild ist Preset K hier also klar im Vorteil.


Denn Preset M erzeugt ein kontraststärkeres Bild, erzeugt weniger Microdetails, aber bleibt dafür bei sich bewegenden Details deutlich stabiler und klarer. Praktisch entspricht das Preset M Bild somit mehr dem No-AA Bild, jedoch in "geglättet".

Laut ChatGPT ist das eigentlich ein "falsches" verhalten. Ohne AA ist der Kontrast zu hoch und die Kanten zu hart definiert. Dass durchs Supersampling subjektiv etwas kontrast verloren geht ist mathematisch so absolut korrekt und würde einem Ground Truth näher kommen.

Sprich Preset M geht hier klar in eine andere Richtung als Preset K.
Während Preset K noch versucht hat, ein möglichst extrem hochauflösendes Supersampled Bild zu erzeugen, damit aber in Bewegung scheitert (Smearing, Noise etc.) hat man bei Preset M mehr auf zuverlässige, stabile Rekonstruktion gesetzt, die zwar weniger Details zeigt, aber auch weniger schnell zusammenbricht.

Im Standbild sieht es in der Szene also tatsächlich gar nicht so gut aus für Preset M. Man ist in sachen Detailfülle weiter vom Supersampled Bild weg und kommt dem No-AA Bild näher, aber auch der Kontrast entspricht stärker dem No-AA Bild.
Erst in Bewegung macht der Trade-Off dann wirklich Sinn. Preset M bleibt stabil und klar, während Preset K Probleme bekommt und undefiniert wird.


Und ja, langsam beginne ich mich zu wiederholen. Deshalb auch Schluss an der Stelle mit diesem Vergleich. ;)

SamLombardo
2026-01-12, 12:04:00
Mir kommt es so vor dass bei zumindest den paar Spielen die ich bisher getestet habe das neue Preset M auch das HDR nochmal ein klein bisschen eindrucksvoller macht. Es arbeitet Spitzenlichter besser raus, das Bild hat mehr HDR Punch. Bei Assassin's Creed Shadows z.B habe ich das mit mehrmals hin und her an derselben Szene genauer angeschaut und da ist es ziemlich eindeutig. Ebenso bei Baldur's Gate 3. Was davon nun "korrekt" ist sei mal dahingestellt, aber mir gefällt das Bild mit Preset M schon deswegen besser.

00-Schneider
2026-01-12, 12:28:42
@Relex und SamLombardo:

Hier sind wir wieder bei der uralten Diskussion bzgl. "creators intent" und "personal preference".

Man kann immer mit "creators intent" argumentieren, aber letztlich ist es hier Unterhaltungselektronik, d.h. wenn einem Preset M optisch mehr zusagt, sollte man es nutzen, auch wenn Preset K näher am "creators intent" liegt.

von Richthofen
2026-01-12, 12:52:32
@Relex
Im Standbild gefällt mir bei den Shots Preset K tatsächlich am besten, sogar mehr als NoAA oder DLAA. Es wirkt beinahe als bekäme K etwas mehr an AO ab - die Bäume sind weniger "luftig".

robbitop
2026-01-12, 13:06:22
@Relex und SamLombardo:

Hier sind wir wieder bei der uralten Diskussion bzgl. "creators intent" und "personal preference".

Man kann immer mit "creators intent" argumentieren, aber letztlich ist es hier Unterhaltungselektronik, d.h. wenn einem Preset M optisch mehr zusagt, sollte man es nutzen, auch wenn Preset K näher am "creators intent" liegt.
Naja die Highlights bei HDR sind tatsächlich mit Model M (und L) jetzt korrekter weil vor dem tonemapping gearbeitet wird anstatt wie vorher nach dem Tonemapping. Das ist schon eine Verbesserung.

@Relex
Sehr interessante Überlegungen - würde das nicht in nächster Konsequenz bedeuten, dass Model L (und RR Model E) noch näher am ground truth ist?

SamLombardo
2026-01-12, 13:08:57
Naja die Highlights bei HDR sind tatsächlich mit Model M (und L) jetzt korrekter weil vor dem tonemapping gearbeitet wird anstatt wie vorher nach dem Tonemapping. Das ist schon eine Verbesserung.

Sehr interessant, war mir noch gar nicht so bewusst. Also war es doch keine Einbildung:biggrin:.

Ex3cut3r
2026-01-12, 13:43:06
Homeoffice sei dank :D

So. ;)

Kein AA - Nativ
https://s1.directupload.eu/images/user/260112/thumb/29n3aigx.webp (https://www.directupload.eu/file/u/79486/29n3aigx_png.htm)

DLSS Q - CPU Limit (GPU Auslastung nur bei ca. 90%
https://s1.directupload.eu/images/user/260112/thumb/4ke824rj.webp (https://www.directupload.eu/file/u/79486/4ke824rj_png.htm)

DLSS P - CPU Limit - Aber FPS Trotzdem gestiegen?!
https://s1.directupload.eu/images/user/260112/thumb/9botobj5.webp (https://www.directupload.eu/file/u/79486/9botobj5_png.htm)

DLSS Q + FG x2
https://s1.directupload.eu/images/user/260112/thumb/2rknze8h.webp (https://www.directupload.eu/file/u/79486/2rknze8h_png.htm)

DLSS P + FG x2
https://s1.directupload.eu/images/user/260112/thumb/qcz3mbo4.webp (https://www.directupload.eu/file/u/79486/qcz3mbo4_png.htm)

Latenz Anzeige: Abfotografiert - da das Nvidia Overlay in Screenshots bei mir zumindest nicht angezeigt wird.

NoAA - Nativ:
https://s1.directupload.eu/images/user/260112/thumb/g7uvgy2s.webp (https://www.directupload.eu/file/u/79486/g7uvgy2s_jpg.htm)

DLSS Q:
https://s1.directupload.eu/images/user/260112/thumb/k9gbt9db.webp (https://www.directupload.eu/file/u/79486/k9gbt9db_jpg.htm)

DLSS P:
https://s1.directupload.eu/images/user/260112/thumb/7abh85rk.webp (https://www.directupload.eu/file/u/79486/7abh85rk_jpg.htm)

DLSS Q + FG x2
https://s1.directupload.eu/images/user/260112/thumb/4sht8m4y.webp (https://www.directupload.eu/file/u/79486/4sht8m4y_jpg.htm)

DLSS P + FG x2
https://s1.directupload.eu/images/user/260112/thumb/4sht8m4y.webp (https://www.directupload.eu/file/u/79486/tr9ev696_jpg.htm)

Böse Latzenz. Alles blödsinn IHMO.

Relex
2026-01-12, 13:51:23
Naja die Highlights bei HDR sind tatsächlich mit Model M (und L) jetzt korrekter weil vor dem tonemapping gearbeitet wird anstatt wie vorher nach dem Tonemapping. Das ist schon eine Verbesserung.

@Relex
Sehr interessante Überlegungen - würde das nicht in nächster Konsequenz bedeuten, dass Model L (und RR Model E) noch näher am ground truth ist?

Warum Model L? Model L ist zwar temporal stabiler und unterdrückt rauschen auf Kosten von Ghosting noch stärker, aber es rekonsturiert nicht mehr Details als K oder M. Die grundsätzliche Bildzeichnung ist genauso wie M. Es sind gleich viele Details im Bild enthalten.


Ich habe gerade nochmal mit ChatGPT über eine mögliche weiterentwicklung von DLSS überlegt und das LLM ist ganz klar der Meinung, dass DLSS4 durch die agressive Mikrodetail Rekonstruktion über der Nyquist grenze war und mehr Details mit geringer confidence rekonstruiert hat, als tatsächlich verlässlich im Input enthalten sind. Sprich das Model sieht immer wieder mal Details, versucht sie beizubehalten, ignoriert aber, dass sie aufgrund des schwachen signals über Zeit nicht stabil nachvollzogen werden können.

Das entscheidende dabei ist laut ChatGPT, dass das keine grenze des Trainings oder des AI Models mehr ist, sondern dass wir hier mittlerweile an die theoretischen Grenzen des temporalen Supersamplings stoßen. Dass DLSS4.5 diesen Trade off geht, Microdetails mit geringer signalstärke und geringer confidence lieber zu verwerfen zeigt bereits, dass man sich eingestehen muss, dass man einfach nicht so viele Details zuverlässig rekonstruieren kann. Einziger Weg wäre mehr und präzisere Engine Seitge Daten in den Algorithmus zu pumpen, was aber auch grenzen hat.


Soll heißen, das was wir bisher gesehen haben: Interne renderauflösung runter, Details werden mit neuem DLSS trotzdem immer besser - das wird es wohl so nicht mehr geben. DLSS4 hat bereits "zu viel" und zu aggressiv rekonstruiert, mit DLSS4.5 setzt man auf zuverlässigkeit und klarheit.

Das Bild wird mit DLSS5 und DLSS6 vielleicht nochmal sauberer, cleaner und wertiger, aber wahrscheinlich nicht mehr (viel) detaillierter. Dass man die Detaildichte von preset K auch in bewegung erreicht scheint sehr unrealistisch zu sein. Eine Zukunft in der DLSS Ultra Performance genauso gut wie ein aktuelles Supersampled Bild aussieht, wird es wahrscheinlich nicht geben. Die Temporalen Daten geben das nichtmal in der Theorie her, weil im bewegtbild zu viel instabilität ist, die kein Training der Welt kompensieren kann. Es wird ein informationsproblem, kein Trainings oder Compute Problem sein.

Heißt für mich: 50% der Auflösung wird wohl auch in Zukunft bei kleinem Detail-loss "good enough" sein und toll aussehen.
Ultra Performance wird wahrscheinlich immer sauberer und cleaner werden, aber mit klarem detailverlust.
Wer maximal viele feine Details will, wird bei DLAA oder Quality Mode bleiben müssen.

Natürlich wird da der selbe Trade-Off beibehalten, den Preset M geht, da ja K instabil war. Das heißt der Vorteil bei der Bildqualität wird zwischen DLSS Q und DLSS P sehr gering bleiben, da es ja nur 50% vs 66% Renderauflösung sind. Mit dem Supersampled 8K Bild wird man niemals mithalten können, was die Detailfülle angeht.

Man kann jetzt natürlich hinterfragen, wie plausibel die Herleitung von ChatGPT ist oder ob es sich nicht kritisch genug damit auseinander setzt, aber in gewisser Weise klingt es zumindest plausibel. Zumindest sollte man jetzt nachdem DLSS4.5 Microdetail für klarere Definition opfert nicht allzu überoptimistisch auf ein DLSS5 sein. Ich denke die großen Sprünge sind vermutlich schon vorbei.

Hier nochmal die Kernaussage:


4. Der entscheidende Punkt: Wir stoßen jetzt an die Informationsgrenze

Du triffst den Nagel auf den Kopf mit dieser Beobachtung:

„Wir können die Renderauflösung nicht weiter senken, ohne zwangsläufig Detail zu verlieren.“

Warum?

Bei ~50 % Auflösung pro Achse:

Subpixel-Information ist stark unterabgetastet

Texturfrequenzen liegen weit über Nyquist

Temporale Phasen sind nicht mehr eindeutig

DLSS kann:

Kanten rekonstruieren

Formen stabil halten

Aber:

feine Texturen existieren nicht mehr im Input

egal wie gut das Training ist

5. Warum mehr Training hier nicht mehr hilft

Training hilft, wenn:

das Modell falsche Entscheidungen trifft

es Artefakte produziert

es falsch priorisiert

Training hilft nicht, wenn:

das Signal keine eindeutige Information mehr enthält

DLSS4.0 hat versucht, diese Grenze zu überschreiten:

mit temporaler Halluzination

mit aggressiver Rekonstruktion

DLSS4.5 ist das Eingeständnis:

„Das geht so nicht stabil.“

6. Sind wir also in einer Sackgasse?
Ja – für Detaildichte aus niedriger Renderauflösung.
Nein – für Bildqualität insgesamt.

Zukünftige Verbesserungen werden sein:

noch stabilere Bewegung

bessere Materialklassifikation

bessere Kantengenauigkeit

weniger Kontrastabweichung

Aber:

nicht mehr „mehr echte Details aus weniger Pixeln“

Lurtz
2026-01-12, 14:08:21
Kam das LLM da selbst drauf oder hast du Thesen in die Richtung formuliert?

Wieso ist M dann temporal teils instabiler als K?

Platos
2026-01-12, 14:57:09
@ Ex3cut3r: Also du hast jetzt bei allen Versionen DLSS Preset M genutzt oder? Nativ ohne TAA bzw. AA ist somit kaum langsamer als DLSS Q bzw DLSS Q ist kaum noch schneller als nativ. Natürlich ist DLSS dank flimmerfrei und co. Wertvoller, aber trotzdem ist das schon krass, wenn man bedenkt, dass die interne Auflösung bei DLSS niedriger ist (und du auch Blackwell nutzt). DLSS war ja schonmal gedacht, deutlich schneller als nativ ohne AA zu sein.

Model M scheint gut zu sein, aber ich denke für DLSS 5.0 ist es wichtig, wieder mehr Perfomance zu kriegen. Bin mir nicht sicher, ob mit Model M die Optik/Perfomance gestiegen ist. Ich muss das mal heute Abend selber testen.

Edit: Das letzte Bild ist doch doppelt? Da steht die exakt gleiche Latenz und FPS und im screenshot steht aber bei DLSS P +2x Framegen um die 220FPS. Kann glaube ich nicht stimmen.

Relex
2026-01-12, 15:27:25
@Lurtz
Um deine Frage bzgl. M zu beantworten: Das deckt sich ja mit den Eigenschaften von Preset M.
Preset M gewichtet mittlere Frequenzen höher und kann sie klarer rekonstruieren. Die Kantenflanken sind steiler. Preset K legt mehr wert auf hohe frequenzen und feine details, mittelt mehr temporale Daten, neigt dann aber zu einem in Bewegung softeren Bild mit mehr microdetails und weniger harten Kantenübergängen, was für weniger potenzielles Aliasing sorgt
(ja, des hab ich geschrieben, nicht das LLM)

Bzgl. deiner Frage zu ChatGPT. Ich habe vorher über Ground Truth diskutiert und wie man ihn am besten erzeugt. Da war noch keine Rede von DLSS. Dann habe ich die Frage zu DLSS4.5 gestellt und meine Beobachtungen zu den Unterschieden beschrieben. Ich hab dir mal alles von dieser Frage ab in den Spoiler kopiert.
Ob Chat GPT eigene Thesen aufgestellt hat oder ob ich zu viel suggeriert habe, musst du beantworten. Ich bin kein sprachwissenschaftler. Aber ich würde sagen, dass ich zumindest anfangs kaum Thesen aufgestellt habe sondern nur meine beobachtungen die ja sogar stellenweise etwas wiedersprüchlich erscheinen niedergeschrieben habe. Und ja, natürlich kam die Analyse der Bilddaten und die subjektive Bewertungen grundsätzlich erstmal von mir. Ich habe ChatGPT nicht gebeten sich die Bilder anzusehen und zu vergleichen. Ich habe nur die Beobachtungen formuliert. ChatGPT hat das eben plausibel auseinandergedröselt und thesen aufgestellt, warum das denn so ist. Erst in meiner aller letzten Anfrage habe ich stark suggestiv das zusammengefasst was ChatGPT eh schon geschrieben hatte und um Bestätigung gefragt, und natürlich habe ich die dann auch bekommen. Grundsätzlich ist es natürlich witzig, wie überzeugend ChatGPT argumentiert, ohne je ein Bild gesehen zu haben. Aber gut, die generellen Regeln gelten ja trotzdem.

Aber nur um das klar zu stellen. Ich versuche hier nicht mit nem LLM zu argumentieren oder euch vermeintlich tolle Erkenntnisse zu verkaufen. Das ist reines Brainstorming und Spekulation. Ich kann die Aussagen weder prüfen, noch vernünftig plausibilisieren. Und jeder weiß wie stark die LLMs zur Echokammer neigen. Ich poste das nur, weil mich das Thema sehr interessiert und es vermutlich schwer wird, hier jemanden zu finden, der irgendwas qualifiziertes über die technischen und mathematischen hintergründe und Limits sagen kann. In erster Linie ging es mir darum meine Subjektiven Eindrücke irgendwie logisch zu begründen. Alles weitere war dann nur noch nachfragen aus neugier.



Nvidia hat letztes Jahr DLSS4.0 Super Resolution Released das war zwar ein gewaltiger Sprung verglichen zu DLSS3 und in allen Aspekten besser, aber verglichen mit dem neuen DLSS4.5 litt es immer noch unter relativ gut sichtbarem Blur und smearing bei disocclusion. Dafür hat es aber enorm viele feine Details rekonstruiert. In sachen feiner Detail Rekonstruktion kommt es den supersampled Bild mMn. extrem nahe, in Bewegung oder bei disocclusion jedoch verschwimmen die Details. DLSS 4.5 hingegen hat das Problem nicht. Details bleiben auch in Bewegung extrem sauber und klar definiert. Es gibt kaum noch Probleme mit disocclusion oder smearing. Das AntiAliasing ähnlich gut, aber stellenweise etwas mehr Kantenflimmern trotz weniger noise im Bild. Allerdings, und das ist der entscheidende Unterschied: Die Details sind zwar klarer und sauberer definiert, allerdings auch nicht mehr so fein aufgelöst. Insgesamt etwas grober und Kontrastststärker. Soll heißen, DLSS 4.0 hat versucht enorm viele Details zu rekonstruieren und kam im Standbild der Referenz sehr nahe, konnte das in Bewegung aber nicht aufrecht erhalten und neigte bei manchen Bildbereichen zu smearing oder auch großflächigem „Nebel“ keine wirkliche Unschärfe, das Bild blieb scharf, jedoch mit klarem Detailverlust. DLSS4.5 rekonstruiert weniger feine Details, die Details die es rekonstruiert dafür deutlich sauberer und klarer definiert. Da DLSS4.5 in Bewegung weniger Detailverlust hat, ist es in Bewegung natürlich zwangsweise näher an der Referenz, auch wenn es nicht so fein auflöst, bleibt alles klar definiert ohne dass es matschig wird. Mein Problem ist nun zu verstehen, was eher an einem Ground Truth ist. DLSS4.5 wirkt kontraststärker als das referenzbild, eher vergleichbar mit einem Bild ohne AA, aber natürlich trotzdem sauber geglättet. DLSS4.0 ist kontrastärmer und rekonstruiert im Standbild mehr Details und entspricht eher der Referenz. In Bewegung wirkt es aber zu neblig und verliert definition. Es gibt nun Diskussionen im Netz, dass DLSS 4.5 oversharpened wirkt. Tatsächlich sieht man aber keinerlei ringing oder halo artefakte im Zoom. Trotzdem unterscheidet es sich natürlich wie bereits erklärt von DLSS4.0. Es ist näher am Kontrast des No-AA Bildes. Kannst du dir erklären warum Nvidia das getan hat? Es ist für mich schwer zu bewerten. 4.0 Rekonstruiert Details fast auf Ground Truth Niveau, wird dann aber in Bewegung viel zu soft. Das neue Model wirkt in Bewegung für viele zu scharf ist aber faktisch durch das ausbleibende smearing viel viel näher an der Referenz. Allerdings ist der Kontrast höher und mit no-aa vergleichbar, hier sagtest du bereits, dass der hohe Kontrast mit no-AA weniger dem Ground Truth entspricht, entfernt sich DLSS also mit Version 4.5 vom ground truth? Warum?


Das, was du beschreibst, ist kein Widerspruch, sondern ein sehr bewusster Paradigmenwechsel in NVIDIAs DLSS-Training und -Loss-Design.
Und ja: Man kann ziemlich gut erklären, warum DLSS 4.5 so aussieht, wie es aussieht – ohne Marketing-Floskeln.

Ich gehe strukturiert vor und verknüpfe es explizit mit deinem Ground-Truth-Problem.

1. Der zentrale Zielkonflikt: Detailtreue vs. Zeitstabilität

DLSS bewegt sich immer in diesem Spannungsfeld:

Ziel Konsequenz
Maximale Detailrekonstruktion Gefahr von Smearing / Ghosting
Maximale Zeitstabilität Reduktion feiner Hochfrequenzdetails

DLSS 4.0 hat diesen Konflikt stark zugunsten von Detailtreue aufgelöst.
DLSS 4.5 löst ihn zugunsten von zeitlicher Kohärenz.

Das ist die Kernaussage.

2. Warum DLSS 4.0 im Standbild näher an der Referenz war

DLSS 4.0:

sehr aggressive Hochfrequenz-Rekonstruktion

starkes Vertrauen in temporale Akkumulation

hohe Detaildichte nahe an 8K→4K Supersampling

Problem:
Diese Details existieren nicht stabil im Input-Signal:

Motion vectors sind nie perfekt

Disocclusion erzeugt „information holes“

Subpixel-Parallaxen brechen Korrelationen

Ergebnis:

Details sind räumlich korrekt

aber zeitlich fragil

In Bewegung:

Unsichere Details werden gefiltert

Akkumulator verliert Vertrauen

→ „Nebel“, Smearing, Softness

Wichtig:

Das ist kein klassischer Blur, sondern Verlust kohärenter Hochfrequenzenergie über Zeit

3. Warum DLSS 4.5 weniger Details rekonstruiert

DLSS 4.5 hat sehr wahrscheinlich:

a) Den temporalen Loss deutlich höher gewichtet

Typische zusätzliche Loss-Terme:

temporal consistency loss

motion-weighted reconstruction penalty

disocclusion uncertainty regularization

b) Ein niedrigeres Vertrauen in Halluzination

Das Netz lernt:

„Wenn ich mir nicht sicher bin, erfinde nichts.“

Folge:

weniger Mikrodetails

weniger subpixel-Noise

deutlich stabilere Features

4. Warum DLSS 4.5 kontraststärker wirkt

Jetzt kommt der wichtigste Punkt, der oft falsch interpretiert wird.

DLSS 4.5 ist nicht klassisch oversharpened

Denn:

kein Halo

kein Ringing

keine Edge-Enhancement-Artefakte

Was du siehst, ist:

�� Reduzierte Hochfrequenz bei gleichzeitig steileren Kantenübergängen

Das klingt paradox, ist aber entscheidend.

5. Der eigentliche Trick: Kantenpriorisierung statt Detailrekonstruktion

DLSS 4.5 scheint:

weniger Energie in Mikrotexturen zu stecken

dafür mehr Energie in Edge Definition

→ höhere lokale Kontrastgradienten

Effekt:

weniger feine Details

aber klarere Signalstruktur

subjektiv „knackiger“

Das entspricht:

höherer MTF im mittleren Frequenzbereich

geringerer Energie im höchsten Frequenzbereich

Das ist exakt der Bereich, in dem:

Bewegung am stabilsten ist

Wahrnehmung am empfindlichsten reagiert

6. Warum das näher an „No-AA-Kontrast“ erinnert

Ein natives 4K ohne AA hat:

aliasierte Hochfrequenzenergie

sehr steile Kontrastflanken

DLSS 4.5:

erzeugt keine falschen Frequenzen

aber verstärkt legitime Kontrastübergänge

Das Resultat:

ähnlicher Kantenkontrast

ohne Aliasing

ohne falsche Details

Deshalb wirkt es:

„wie No-AA, aber sauber“

7. Warum das in Bewegung näher an der Referenz ist

Und hier kommt der entscheidende Ground-Truth-Aspekt:

Ein Referenzbild ist nicht nur räumlich korrekt, sondern zeitlich konsistent.

DLSS 4.0:

im Einzelbild näher an Supersampling

über Zeit weiter entfernt

DLSS 4.5:

im Einzelbild etwas gröber

über Zeit deutlich näher

Wenn du Referenz als:

„Wie sähe ein perfektes 4K-Signal über Zeit aus?“

dann ist DLSS 4.5 näher dran.

8. Warum Nvidia das getan hat (strategisch)

NVIDIA hat vermutlich erkannt:

Nutzer tolerieren weniger Detail

aber keine Instabilität

kein Smearing

kein Disocclusion-Nebel

Zudem:

Videokompression

HDR

hohe Motion

Raytracing mit noisy inputs

Alles bevorzugt:

strukturierte Klarheit statt maximaler Detaildichte

9. Die unbequeme Wahrheit über „Ground Truth“

Dein Dilemma ist real, weil:

Ein supersampled Einzelbild ist kein vollständiger Ground Truth

Ein zeitlich stabiler Verlauf ist genauso Teil der Wahrheit

Eigentlich bräuchte man:

16K → 4K

zeitlich korrekt gemotion-compensated

über mehrere Frames integriert

Das kann kein klassischer Screenshot leisten.

10. Klare Antwort auf deine Kernfrage

Warum hat NVIDIA das getan?

Weil:

DLSS 4.0 räumlich näher war

DLSS 4.5 wahrnehmungsphysikalisch und zeitlich näher ist

Der höhere Kontrast ist kein Fehler, sondern:

ein bewusster Tausch von „fragiler Detailenergie“ gegen „stabile Signalstruktur“.

11. Kurzform (Essenz)

DLSS 4.0:
✔ maximale Detailrekonstruktion
✖ instabil in Bewegung

DLSS 4.5:
✔ zeitlich kohärent
✔ klare Kanten
✖ weniger Mikrodetails

Ground Truth ist kein Standbild – sondern ein konsistentes Signal über Zeit.

Wenn du willst, können wir als Nächstes:

ein objektives Bewertungsmodell (MTF + Temporal SSIM)

oder ein sauberes Testpattern-Setup definieren, um beide Versionen fair zu vergleichen

Kannst du genauer erklären, was du mit den letzten beiden Punkten meinst? Also die Schritte die du mir angeboten hast, als nächstes zu tun.

Sehr gern – das sind genau die richtigen nächsten Schritte, wenn man weg will von subjektiven Eindrücken („wirkt schärfer / kontrastreicher“) hin zu technisch belastbaren Aussagen.
Ich erkläre beide Ansätze präzise, aber ohne unnötige Mathematik, und zeige dir, was sie messen und warum sie dein Dilemma auflösen.

1. Objektives Bewertungsmodell
MTF + Temporal SSIM

Das Ziel hier ist:

Räumliche Detailwiedergabe und zeitliche Stabilität getrennt, aber vergleichbar zu messen.

1.1 MTF – Modulation Transfer Function
Was MTF wirklich misst

MTF beschreibt:

Wie viel Kontrast eines bestimmten Detailmaßstabs (Frequenz) im Ausgangsbild ankommt.

Vereinfacht:

Niedrige Frequenzen → Flächenkontrast

Mittlere Frequenzen → Kanten, Formen

Hohe Frequenzen → feine Details

Ein perfektes System hätte:

MTF(f) = 1.0 für alle f ≤ Nyquist


In der Realität:

Supersampling → sanfter Abfall

No-AA → Überschwinger (Aliasing)

DLSS → selektive Verstärkung / Dämpfung

Wie du MTF praktisch misst (ohne Labor)
Testpattern

Du brauchst keine FFT-Suite, sondern:

Slanted-edge Pattern (ISO 12233)

oder hochfrequentes Siemens-Stern-Pattern

Warum:

Kanten enthalten alle Frequenzen

ideal zur Kontrastmessung

Vorgehen

Render das Pattern:

Native 4K (No-AA)

16K → 4K Downsample (Lanczos)

DLSS 4.0

DLSS 4.5

Messe:

Kontrastabfall entlang der Kante

Übergangsbreite (Edge Spread Function)

daraus MTF

Was du erwarten wirst

16K → 4K
→ gleichmäßiger, physikalischer MTF-Abfall

DLSS 4.0
→ hohe MTF nahe Nyquist
→ instabil bei Bewegung

DLSS 4.5
→ weniger Hochfrequenz
→ höherer MTF im mittleren Frequenzband

�� Das erklärt:

„Weniger Details, aber klarer“

1.2 Temporal SSIM – Zeitliche Strukturtreue

SSIM misst:

Luminanz

Kontrast

Struktur

Temporal SSIM erweitert das:

Wie ähnlich sind Bildstrukturen über Zeit?

Warum PSNR hier versagt

PSNR ignoriert Wahrnehmung

bestraft legitime Kantenschärfe

ignoriert zeitliche Instabilität

SSIM:

bewertet strukturelle Konsistenz

reagiert stark auf Smearing & Ghosting

Temporal SSIM – so gedacht

Du misst nicht nur:

SSIM(frame_n, reference_frame_n)


sondern zusätzlich:

SSIM(frame_n, frame_{n-1})


Gewichtet mit Motion:

hohe Bewegung → höhere Toleranz

niedrige Bewegung → strengere Bewertung

Interpretation

DLSS 4.0

hoher räumlicher SSIM

niedriger temporaler SSIM

DLSS 4.5

minimal niedriger räumlicher SSIM

deutlich höherer temporaler SSIM

Das entspricht exakt deiner Wahrnehmung.

2. Synthetisches Testpattern-Setup
(Der „ehrliche“ DLSS-Test)

Das Ziel:

DLSS gezielt in seine Schwachstellen treiben – ohne subjektive Inhalte.

2.1 Warum reale Spiele ungeeignet sind

Texturen variieren

Post-Processing verfälscht

Inhalte ändern sich frameweise

Du willst:

deterministische Inputs

kontrollierte Bewegung

bekannte Frequenzen

2.2 Das ideale Pattern
Inhalt

feine Checkerboards

dünne Linien (1–2 Subpixel)

harte Kontrastkanten

gleichmäßige Farbflächen

Bewegung

langsame Subpixel-Pan-Bewegung

abrupte Disocclusion

rotierende Kanten

2.3 Aufbau

Render 16K Referenz

Downsample → 4K (Lanczos, linear light)

Render 4K:

No-AA

DLSS 4.0

DLSS 4.5

Vergleiche:

Frame einzeln

Frame-Differenzen

Zeitverlauf

2.4 Was du dabei sehen wirst
DLSS 4.0

Details erscheinen / verschwinden

temporales Pumping

Smearing bei Disocclusion

DLSS 4.5

weniger Detail

aber stabile Strukturen

keine Energie-Wanderung

3. Warum diese beiden Schritte dein Problem auflösen

Du hast aktuell:

„Welches ist näher an Ground Truth?“

Nach diesen Schritten hast du:

eine räumliche MTF-Kurve

eine zeitliche Stabilitätsmetrik

Und kannst sagen:

DLSS 4.0 maximiert räumliche Frequenzen,
DLSS 4.5 maximiert zeitliche Kohärenz.

Das ist keine Meinung mehr – sondern messbar.

4. Wichtigster Gedanke zum Schluss

Ein einzelnes supersampled Standbild ist kein Ground Truth für temporale Rekonstruktion.

DLSS 4.5 ist näher an:

dem, was ein perfektes 4K-System über Zeit liefern würde.

DLSS 4.0 ist näher an:

dem, was ein perfektes Einzelbild liefern könnte.

Wenn du willst, kann ich dir als nächsten Schritt:

ein konkretes Testpattern (Pixel-genau beschrieben)

oder eine einfache MTF-Analyse-Pipeline (auch ohne Spezialsoftware)
ausarbeiten

Ok lassen wir das, würde ja nur bestätigen, was ich eh schon sehe. Soweit verstanden.

Nvidia gibt an, dass DLSS4.5 für den Algorithmus 5x mehr compute bei der Ausführung nutzt. Das Model ist auch von FP16 auf FP8 umgestiegen.
Auf Ada und Blackwell kostet es je nach Auflösung und Framerate 5-10% performance gegenüber DLSS4.

Alles klar �� – dann gehen wir nicht weiter in Mess-Frameworks, sondern beantworten genau das, was hier eigentlich offen ist:

Warum braucht DLSS 4.5 deutlich mehr Compute, nutzt FP8 – und liefert trotzdem „weniger feine Details“, aber bessere Bewegung und höheren Kontrast?

Das wirkt auf den ersten Blick paradox. Ist es aber nicht.

1. 5× mehr Compute heißt nicht „mehr Details“

Das ist der wichtigste Denkfehler, den viele machen.

Mehr Compute wird bei DLSS nicht primär für:

höhere Auflösung

mehr Detailfrequenzen

verwendet, sondern für:

Unsicherheitsabschätzung

temporale Entscheidungslogik

Feature-Selektion statt Feature-Explosion

DLSS 4.5 rechnet nicht „feiner“, sondern vorsichtiger und selektiver.

2. Was das zusätzliche Compute sehr wahrscheinlich tut

Ohne NDA-Details, aber aus Architektur- und Verhaltensänderungen ziemlich eindeutig:

2.1 Mehr interne Feature-Pfade

DLSS 4.0:

relativ direkter Feed-Forward-Pfad

starke temporale Akkumulation

DLSS 4.5:

mehrere Feature-Hypothesen

Bewegung / Disocclusion explizit getrennt

mehr interne Masken:

Vertrauen

Sichtbarkeit

Bewegungskohärenz

➡️ Mehr Compute = mehr Entscheidungen, nicht mehr Details

2.2 Disocclusion wird aktiv modelliert

Das ist der große Unterschied, den du siehst.

Statt:

„Ich versuche Details temporär mitzunehmen, bis es schiefgeht“

DLSS 4.5:

„Hier ist neue Information – keine Historie verwenden“

Das braucht:

zusätzliche Netze oder Heads

Cross-Frame-Vergleiche

Unsicherheitsabschätzung

Das frisst massiv Compute.

3. Warum FP8 dabei Sinn ergibt (und sogar notwendig ist)
3.1 FP8 ≠ schlechtere Qualität

FP8 wird nicht benutzt, um:

Details zu sparen

Bildqualität zu opfern

Sondern:

um größere Modelle in Echtzeit auszuführen

mit mehr Layern / Pfaden

DLSS 4.5 ist:

tiefer

breiter

strukturierter

FP8 ist hier ein Enabler, kein Downgrade.

3.2 Warum FP8 sogar besser für Stabilität ist

Klingt kontraintuitiv, ist aber real:

FP16 begünstigt sehr kleine Aktivierungen

→ fragile Hochfrequenzdetails

→ temporales Flattern

FP8:

quantisiert aggressiver

unterdrückt sehr schwache, instabile Features

verstärkt robuste Strukturen

�� Genau das, was du siehst:

weniger Mikrodetail

höhere Kantenklarheit

stabileres Bild

Das ist kein Zufall, sondern ein Nebeneffekt der Numerik.

4. Warum der Kontrast steigt, obwohl „mehr gerechnet wird“

Weil DLSS 4.5:

weniger Energie auf hochfrequentes Rauschen verteilt

mehr Energie auf strukturierte Übergänge bündelt

Das Ergebnis:

steilere Kanten

höhere lokale Kontrastgradienten

kein Halo, weil:

keine explizite Schärfung

sondern implizite Feature-Selektion

Das erklärt:

„Sieht schärfer aus, ist es aber nicht im klassischen Sinn“

5. Warum das 5–10 % Performance kostet – trotz FP8

Zwei Gründe:

Mehr Layer / Heads

FP8 kompensiert das nur teilweise

Mehr temporale Logik

weniger Cache-Hits

mehr Frame-zu-Frame-Abhängigkeiten

DLSS 4.0 war:

sehr effizient

aber optimistisch

DLSS 4.5 ist:

konservativer

rechnet mehr „Was-wäre-wenn“

6. Warum NVIDIA diesen Trade-off bewusst eingeht

Weil:

Standbild-Vergleiche ≠ Spielerfahrung

Smearing ist hochgradig störend

Klar definierte Strukturen sind subjektiv wichtiger als maximale Detaildichte

Und ganz nüchtern:

Ein leicht überschärft wirkendes Bild verkauft sich besser als ein weiches.

Aber entscheidend:

DLSS 4.5 ist wahrnehmungsnäher

nicht „falscher“

7. Kurzfassung (Essenz)

Mehr Compute ≠ mehr Details

DLSS 4.5 nutzt Compute für:

Disocclusion-Erkennung

Feature-Vertrauen

zeitliche Kohärenz

FP8 hilft:

größere Modelle auszuführen

fragile Details zu unterdrücken

Der höhere Kontrast ist:

eine Folge stabilerer Feature-Selektion

kein klassisches Oversharpening

Wenn du willst, kann ich dir als letzten Schritt noch erklären:

warum DLSS 4.5 subjektiv näher an „echtes 4K“ erinnert als DLSS 4.0, obwohl es objektiv weniger Details rekonstruiert
oder

warum Oversharpening heute oft fälschlich diagnostiziert wird, obwohl es eigentlich Kontrast-Umverteilung ist

Könnte Nvidia bei DLSS5 dann auf FP4 gehen oder würde das wenig Sinn ergeben?

Kurzantwort: Ja, NVIDIA könnte bei DLSS 5 auf FP4 gehen – aber nur unter sehr spezifischen Bedingungen.
Langantwort: FP4 bringt für das aktuelle DLSS-Problem kaum Nutzen und würde neue Probleme einführen. Deshalb ist FP4 eher unwahrscheinlich für DLSS-Super-Resolution, deutlich wahrscheinlicher aber für Hilfsnetze oder separate Stages.

Ich erkläre das sauber entlang von Numerik, Modellstruktur und Wahrnehmung.

1. Was FP4 wirklich bedeutet (ohne Marketing)

FP4 ist extrem grob:

sehr wenige Exponenten

sehr wenige Mantissen

massive Quantisierung

hoher Rundungsrauschanteil

FP8 war bereits ein großer Schritt:

viele kleine Aktivierungen verschwinden

fragile Details werden unterdrückt

FP4 geht noch weiter:

Es zwingt das Modell, nur sehr robuste, grobe Strukturen zu repräsentieren.

Das ist kein reines „Performance-Upgrade“, sondern ein radikaler Bias.

2. Warum FP8 für DLSS 4.5 perfekt passt

DLSS 4.5 profitiert von FP8, weil:

temporale Rekonstruktion empfindlich auf kleine Fehler ist

FP8 instabile Mikrofeatures automatisch dämpft

Kanten, Flächen, Bewegungsvektoren stabil bleiben

FP8 liegt hier im Sweet Spot:

genug Dynamik für Kantenverläufe

genug Präzision für Kontrastübergänge

aber nicht genug für flackernde Subpixel-Details

3. Warum FP4 für Super Resolution problematisch wäre
3.1 Kanten würden „stufig“ werden

Nicht sichtbar als Aliasing, sondern als:

reduzierte Subpixelpräzision

diskrete Kontraststufen

geringere Edge-Localization

Das ist subtil, aber:

genau das Gegenteil dessen, was DLSS gerade verbessert hat.

3.2 FP4 verschiebt den Bias zu stark

Mit FP4 würde das Modell lernen:

lieber nichts rekonstruieren

als unsichere Details zu erzeugen

Ergebnis:

extrem stabile Bilder

aber sichtbar gröbere Rekonstruktion

DLSS würde sich eher wie ein temporaler Edge-Aware Upscaler anfühlen

Das wäre regressiv.

4. Wo FP4 trotzdem Sinn machen könnte

Und hier wird es interessant ��

4.1 Separate Disocclusion- / Confidence-Netze

DLSS 5 könnte:

Hauptnetz in FP8 behalten

aber Hilfsnetze in FP4 ausführen:

z. B.:

Sichtbarkeitsmasken

Bewegungsunsicherheit

Reprojection-Confidence

Diese Netze brauchen:

keine feinen Details

nur robuste Klassifikationen

FP4 wäre hier:

extrem effizient

sehr stabil

praktisch ohne sichtbare Nachteile

4.2 Global Feature Gating

FP4 eignet sich hervorragend für:

Feature-Enable/Disable-Entscheidungen

„Nutze Historie / nutze sie nicht“

„Edge / Fläche / Textur“

Das spart Compute im Hauptnetz.

5. Warum NVIDIA wahrscheinlich nicht komplett auf FP4 geht
5.1 Wahrnehmungsgrenze

DLSS 4.5 hat gezeigt:

Nutzer akzeptieren weniger Details

aber nicht weniger Kantengenauigkeit

FP4 riskiert genau das.

5.2 Training wird extrem schwierig

FP4-Training:

instabil

stark abhängig von Kalibrierung

weniger generalisierungsfähig

Für ein universelles Upscaling-Produkt (alle Games, alle Engines) ist das hochriskant.

6. Realistischstes Szenario für DLSS 5

Meine Einschätzung (technisch, nicht marketinggetrieben):

Haupt-Rekonstruktionsnetz: FP8

Hilfsnetze (Temporal / Confidence / Motion): FP4

Compute-Zuwachs: moderat, nicht mehr 5×

Qualitätsziel:

gleiche Detaildichte wie DLSS 4.5

noch bessere Disocclusion

weniger Kontrastabweichung

Also:

nicht gröber, sondern kontrollierter

7. Kernaussage

FP8 ist für DLSS-Super-Resolution aktuell der optimale Punkt.
FP4 wäre für das Hauptmodell ein Rückschritt,
für Hilfsentscheidungen aber hochattraktiv.

Oder anders:

DLSS 4.0: zu optimistisch

DLSS 4.5: realistisch

DLSS 5: vermutlich hierarchisch

Wenn du willst, kann ich dir noch erklären:

warum FP4 in Video-Super-Resolution besser funktioniert als in DLSS

oder warum „mehr Compute + weniger Präzision“ aktuell der dominierende Trend in Echtzeit-Rekonstruktion ist

Ich glaube nur Blackwell kann FP4 beschleunigen, Ada nicht. Würde das mit einem DLSS5 dann einen großen Performanceunterschied ausmachen oder wäre es deshalb wahrscheinlich, dass Nvidia erstmal weiter vollständig bei FP8 bleibt?

Dein Bauchgefühl ist vollkommen richtig, und die Konsequenzen daraus sind ziemlich klar, wenn man es nüchtern betrachtet.

Kurzfassung vorweg:
�� DLSS 5 wird mit sehr hoher Wahrscheinlichkeit nicht FP4-abhängig sein, sondern weiter primär FP8 nutzen, selbst wenn Blackwell FP4 extrem gut beschleunigt.

Jetzt die saubere Begründung – technisch und strategisch.

1. Hardware-Realität: Ada vs. Blackwell
Ada (RTX 40)

FP16: voll

FP8: ja (Tensor Cores)

FP4: nein (emuliert / nicht performant)

Blackwell (RTX 50)

FP16: ja

FP8: ja (deutlich schneller)

FP4: native Hardwarebeschleunigung

Das bedeutet:

FP4-DLSS wäre auf Ada dramatisch langsamer

oder müsste doppelt gepflegt werden (FP8-Pfad + FP4-Pfad)

Beides ist für NVIDIA extrem unattraktiv.

2. DLSS ist kein „Blackwell-only Feature“

Historisch:

DLSS-Versionen laufen immer generationenübergreifend

selbst große Modellwechsel (DLSS 2 → 3 → 4) blieben kompatibel

NVIDIA vermeidet bewusst:

„Diese DLSS-Version läuft nur auf neuer Hardware“

FP4 als Pflichtnumerik würde genau das erzwingen.

3. Performance-Gewinn durch FP4 wäre begrenzt

Das ist der oft übersehene Punkt.

DLSS 4.5 Performanceprofil

5× mehr Compute intern

aber nur 5–10 % FPS-Verlust

Das heißt:

DLSS ist nicht Tensor-bound

sondern:

speichergebunden

latency-bound

synchronisationslastig

FP4 würde:

Tensor-Arithmetik beschleunigen

aber nicht:

Memory-Access

Frame-Abhängigkeiten

Control-Flow

➡️ Der reale FPS-Gewinn wäre einstellig, selbst auf Blackwell.

4. FP8 ist der Sweet Spot für alle GPUs

FP8 bietet NVIDIA etwas Entscheidendes:

gleiche Modellgewichte

gleiche Inferenzpfade

gleiche Bildcharakteristik

gleiche QA-Pipeline

Für:

Ada

Blackwell

vermutlich auch Next-Next-Gen

FP4 würde diese Einheitlichkeit aufbrechen.

5. Wahrscheinliches NVIDIA-Vorgehen bei DLSS 5

Sehr realistisch:

5.1 Einheitlicher FP8-Hauptpfad

DLSS 5 SR läuft:

identisch auf Ada & Blackwell

gleiche Qualität

gleiche Performanceklasse

5.2 Optionales FP4 nur intern auf Blackwell

Falls überhaupt:

einzelne Hilfsnetze oder

Confidence-Masken

Gating-Logik

Und selbst dann:

rein transparent

kein sichtbarer Unterschied

kein Feature-Split

6. Warum NVIDIA FP4 trotzdem einführt

FP4 ist primär für:

LLMs

Video-AI

Offline-Inference

Cloud-Serving

DLSS:

latenzkritisch

qualitätssensitiv

visuell extrem anspruchsvoll

Das ist nicht das ideale FP4-Ziel.

7. Würde Blackwell mit FP4 „massiv schnelleres DLSS“ haben?

Sehr wahrscheinlich:

Nein.

Blackwell wird schnelleres DLSS haben durch:

höhere Tensor-Throughput

bessere Cache-Strukturen

niedrigere Latenzen

Nicht primär durch FP4.

8. Klare Antwort auf deine Frage

Würde FP4 bei DLSS 5 einen großen Performanceunterschied machen?

�� Nein, nicht groß genug, um einen Bruch mit Ada zu rechtfertigen.

Bleibt NVIDIA wahrscheinlich erstmal bei FP8?

�� Ja, mit sehr hoher Wahrscheinlichkeit vollständig.

FP4 kommt – wenn überhaupt – unsichtbar, optional und Blackwell-spezifisch.

9. Ein Satz als Fazit

FP8 ist für DLSS das, was FP16 lange für Rasterisierung war: gut genug, universell, stabil.

FP4 ist mächtig – aber für DLSS aktuell zu grob und zu exklusiv.

Wenn du willst, können wir noch einen Schritt weitergehen und darüber sprechen:

ob DLSS 5 überhaupt noch „Super Resolution“ im klassischen Sinne sein wird

oder ob NVIDIA eher Richtung perceptual reconstruction pipeline geht

führe aus, was genau du mit den weiteren schritten meinst

Gerne. Ich führe das konkret, technisch und ohne Marketing-Sprache aus – und zwar genau das, was ich mit den „weiteren Schritten“ meinte. Es geht dabei nicht um neue Buzzwords, sondern um eine strukturelle Weiterentwicklung, die logisch aus DLSS 4.5 folgt.

Ausgangspunkt (wo DLSS 4.5 steht)

DLSS 4.5 hat faktisch drei Dinge klargemacht:

Maximale Detailrekonstruktion ist nicht das Endziel

Zeitliche Stabilität schlägt Einzelbild-Treue

Kontrast- und Strukturwahrnehmung sind wichtiger als Nyquist-nahe Details

Das heißt:
DLSS ist kein klassischer Upscaler mehr, sondern bereits ein perzeptueller Rekonstruktionsfilter.

Die „weiteren Schritte“ bedeuten also:

Weg von „mehr Pixel korrekt rekonstruieren“
hin zu „das visuell plausibelste Signal erzeugen“.

Schritt 1: Trennung von Geometrie, Struktur und Textur
Was das bedeutet

Aktuell macht DLSS SR alles in einem großen Netz:

Kanten

Flächen

Mikrodetails

temporale Logik

Das skaliert schlecht.

Wahrscheinliche Weiterentwicklung

DLSS 5 wird sehr wahrscheinlich intern aufgesplittet:

Geometrie-/Edge-Rekonstruktion

Subpixel-Kanten

Objektgrenzen

Silhouetten

extrem stabil, kontrastbetont

Strukturrekonstruktion

mittlere Frequenzen

Formen, Muster

Materialstruktur

Textur-/Detail-Layer (optional)

nur dort, wo Signal sicher ist

stark confidence-gated

➡️ Ergebnis:

Weniger „alles überall“

Mehr „das Richtige am richtigen Ort“

Das erklärt, warum DLSS 4.5 bereits gröber, aber klarer wirkt.

Schritt 2: Confidence-First statt Detail-First
Heute (DLSS 4.0)

„Wenn ich ein Detail rekonstruieren könnte, tue ich es.“

Morgen (DLSS 5)

„Nur wenn ich mir sicher bin, tue ich es.“

Das ist ein fundamentaler Wechsel.

Technisch heißt das:

Jedes rekonstruierte Feature bekommt ein Vertrauensmaß

Unsichere Details werden:

nicht weichgefiltert

sondern gar nicht erst erzeugt

Das:

reduziert Smearing

erhöht Kontrast

senkt Detaildichte

Aber:

Das Bild bleibt strukturell korrekt, nicht matschig.

Schritt 3: DLSS wird weniger „Upscaling“, mehr „Signalrekonstruktion“

Ein sehr wichtiger Punkt.

DLSS 5 wird sich vermutlich weniger daran orientieren:

wie nah es an ein supersampled Einzelbild kommt

Sondern stärker daran:

wie nah es an wahrgenommene native 4K-Ausgabe kommt

Das heißt konkret:

bewusste Abweichung von physikalischem Supersampling

bewusste Kontrastpriorisierung

bewusste Detailselektion

Das erklärt auch:

warum „oversharpened“-Vorwürfe entstehen

obwohl keine klassischen Sharpening-Artefakte existieren

Schritt 4: FP4 (wenn überhaupt) nur als Entscheidungsebene

Hier schließt sich der Kreis zu FP4 / FP8.

Sehr wahrscheinlich:

Hauptrekonstruktionsnetz bleibt FP8

FP4 wird (wenn überhaupt) genutzt für:

Confidence Maps

Disocclusion Detection

Temporal Gating

Feature Enable/Disable

Das sind:

binäre oder grobe Entscheidungen

keine kontinuierlichen Bildwerte

➡️ FP4 passt hier perfekt, ohne Bildqualität zu riskieren.

Schritt 5: Vereinheitlichung über Generationen

Ein extrem wichtiger strategischer Punkt.

DLSS 5 muss:

auf Ada gut laufen

auf Blackwell besser skalieren

ohne visuelle Inkonsistenz

Das spricht klar für:

FP8 als gemeinsamen Nenner

optionale Beschleunigung auf Blackwell

keine sichtbaren FP4-only-Features

Was das für dich als Beobachter heißt

Wenn DLSS 5 kommt, wirst du sehr wahrscheinlich sehen:

❌ nicht: „noch mehr Details“

❌ nicht: „noch näher am 16K→4K Standbild“

✅ ja: noch stabilere Bewegung

✅ ja: konsistentere Kontrastwiedergabe

✅ ja: weniger Unterschied zwischen Standbild und Bewegung

Und:

DLSS wird sich weniger wie ein Upscaler
und mehr wie eine native Renderpipeline anfühlen.

Zusammengefasst in einem Satz

Die nächsten Schritte bedeuten nicht „mehr rechnen für mehr Details“,
sondern „mehr entscheiden, was überhaupt rekonstruiert werden sollte“.

Wenn du willst, können wir als nächstes noch:

darüber sprechen, wo die Wahrnehmungsgrenze für Detail überhaupt liegt

oder warum DLSS sich zunehmend von klassischem AA/SS emanzipiert

Das heißt, so viele Details wie aktuell im DLSS4 Standbild werden wir zukünftig mit weiteren DLSS Versionen nicht mehr sehen? Sprich so viele Details aus temporalen Bildinformationen stabil zu rekonstruieren ist nicht möglich? Oder wie meinst du das?

Kurzantwort:
In der Form, wie DLSS 4.0 sie im Standbild zeigt, nein – diese Detaildichte werden wir sehr wahrscheinlich nicht mehr sehen.
Und ja: das liegt nicht an „schlechteren Netzen“, sondern an einer fundamentalen Grenze temporaler Rekonstruktion.

Jetzt die saubere, technisch ehrliche Erklärung – ohne Ausflüchte.

1. Das Kernproblem ist nicht „Rechenleistung“, sondern Information

Temporale Rekonstruktion lebt von einer Annahme:

Ein Detail existiert konsistent über mehrere Frames und kann daher integriert werden.

Das trifft auf:

Geometrie

größere Strukturen

stabile Texturen

zu.

Nicht auf:

Subpixel-Texturen

hochfrequente Noise-Komponenten

feine Muster mit Parallaxen

dünne Details nahe Nyquist

DLSS 4.0 hat versucht, diese Grenze zu ignorieren – mit beeindruckenden Standbildern, aber instabilem Verhalten.

2. Warum DLSS 4.0 im Standbild „zu gut“ war

Das ist wichtig zu verstehen:

DLSS 4.0 hat:

temporale Information überoptimistisch akkumuliert

Details rekonstruiert, die:

statistisch plausibel

aber physikalisch nicht eindeutig waren

Im Standbild:

alles wirkt korrekt

Detaildichte extrem hoch

Über Zeit:

dieselben Details:

ändern leicht ihre Phase

verlieren Korrelation

werden gefiltert

➡️ Das Ergebnis ist Smearing / Nebel – nicht wegen Blur, sondern wegen fehlender zeitlicher Eindeutigkeit.

3. Warum das kein „Trainingsproblem“ ist

Man könnte denken:

„Trainiert man das Netz besser, lernt es, die Details stabil zu halten.“

Das stimmt nicht.

Denn:

Bewegungsvektoren sind approximativ

Shading ist view-dependent

Speculars ändern sich frameweise

Parallaxen erzeugen neue Information

Diese Unsicherheiten sind physikalisch irreduzibel.

Kein Netz kann Information stabil rekonstruieren, die:

im Input nicht stabil vorhanden ist

4. Die harte Grenze temporaler Detailrekonstruktion

Man kann es so formulieren:

Temporale Rekonstruktion kann nur Details stabil halten, deren Frequenzband unterhalb der zeitlich projizierbaren Nyquist-Grenze liegt.

DLSS 4.0 ist darüber hinausgegangen.
DLSS 4.5 bleibt darunter.

5. Warum zukünftige DLSS-Versionen eher konservativer werden

Weil NVIDIA jetzt weiß:

Nutzer akzeptieren weniger Detail

aber keine Instabilität

Daher:

weniger „halluzinierte“ Hochfrequenz

mehr Vertrauen in räumlich stabile Information

stärkere Feature-Selektion

Das ist kein Rückschritt – sondern Reife.

6. Bedeutet das „Stillstand“? Nein.

Wichtig:
Das heißt nicht, dass DLSS nicht besser wird.

Verbesserungen werden kommen in:

Kantengenauigkeit

Subpixel-Stabilität

Disocclusion-Erkennung

Materialklassifikation

Aber:

nicht mehr in „noch feineren Texturen aus dem Nichts“.

7. Der Vergleich mit realer Bildgebung

Das ist exakt derselbe Trade-off wie bei:

Kameras ohne OLPF (mehr Detail, aber Moiré)

Kameras mit OLPF (weniger Detail, aber korrekt)

DLSS 4.0 war:

„ohne OLPF“

DLSS 4.5 und folgende sind:

„mit intelligentem OLPF“

8. Die ehrliche Antwort auf deine Frage

Ist es schlichtweg unmöglich, so viele Details stabil aus temporalen Bildinformationen zu rekonstruieren?

Ja – ab einem Punkt ist es unmöglich.

Nicht wegen fehlender Rechenleistung.
Nicht wegen fehlender Trainingsdaten.
Sondern weil:

die Information nicht eindeutig existiert.

DLSS 4.0 hat diesen Punkt überschritten – beeindruckend, aber instabil.
DLSS 4.5 ist wieder auf der physikalisch haltbaren Seite.

9. Ein Satz zum Mitnehmen

Die Zukunft von DLSS liegt nicht in maximaler Detailrekonstruktion,
sondern in maximaler Verlässlichkeit der rekonstruierten Details.

Und genau deshalb fühlt sich DLSS 4.5 trotz „weniger Detail“ näher an echtes natives Rendering an.

Wenn du willst, können wir als Nächstes noch über:

welche Detailarten grundsätzlich temporalisierbar sind

oder wo DLSS langfristig eher Richtung „perceptual renderer“ als Upscaler geht

Aber wenn man nur genug temporale Daten also Frames kombiniert, dann müssten sich doch mit steigender Anzahl und genaueren Bewegungsvektoren rein tehoretisch beliebig viele Details rekonstruieren lassen oder nicht?

Sehr gute Frage – und sie trifft exakt den Kern, an dem viele (auch sehr gute) Intuitionen aus Signaltheorie und Praxis auseinanderlaufen.

Die intuitiv logische Antwort wäre:

„Ja – mit genug Frames und perfekten Motion Vectors müsste man beliebig viele Details rekonstruieren können.“

Die korrekte Antwort ist:

Nein – selbst theoretisch gibt es harte Grenzen.

Ich erkläre dir warum, Schritt für Schritt, und trenne dabei sauber:

was theoretisch möglich ist

was physikalisch / mathematisch unmöglich ist

1. Wann die Intuition stimmen würde

Du hättest recht, wenn alle folgenden Bedingungen erfüllt wären:

Das Signal ist zeitlich bandbegrenzt

Die Bewegung ist perfekt bekannt

Die Szene ist lambertisch

Beleuchtung ist konstant

Keine Disocclusion

Kein Shading-Noise

Unendliche Präzision

In diesem rein idealisierten Modell könnte man durch Subpixel-Shifts:

Super-Resolution über Zeit betreiben

tatsächlich über die native Rasterauflösung hinaus rekonstruieren

Das ist klassische Multi-Frame Super-Resolution (MFSR).

2. Warum dieses Modell in realen Renderpipelines nicht gilt

Jetzt die harten Brüche.

3. Zeitlich ist das Signal nicht bandbegrenzt
Speculars, BRDFs, Shading

ändern sich nicht linear mit der Bewegung

erzeugen hochfrequente zeitliche Komponenten

Beispiel:

Glanzpunkt wandert nicht starr mit der Geometrie

er „springt“ abhängig vom View-Vektor

➡️ Das verletzt die Grundannahme von MFSR.

4. Motion Vectors sind nie vollständig

Selbst mit perfekter Engine:

Motion Vectors beschreiben Geometrie

nicht:

Shading

Schatten

Reflexionen

Transparenzen

DLSS kann nicht wissen:

welches Detail wirklich korrespondiert

Je mehr Frames du integrierst:

desto mehr falsche Korrelationen sammelst du

5. Disocclusion ist ein fundamentaler Informationsbruch

Disocclusion bedeutet:

Information existiert vorher nicht

kein Frame enthält sie

Kein noch so langer temporaler Verlauf kann rekonstruieren:

was nie gesehen wurde

DLSS 4.0 hat versucht, das zu „glätten“
DLSS 4.5 erkennt es und verzichtet.

6. Das Nyquist-Limit gilt auch über Zeit – nur anders

Wichtig:

Zeit ist eine weitere Dimension

aber sie hebt das Nyquist-Limit nicht auf

sie verschiebt es

Um höhere räumliche Frequenzen zu rekonstruieren, brauchst du:

ausreichend unterschiedliche Subpixel-Phasen

kohärente Korrelation

Aber:

reale Bewegungen sind nicht ideal

Sample-Phasen sind nicht gleichverteilt

Korrelation zerbricht mit steigender Frequenz

Ab einem Punkt:

Mehr Frames = mehr Rauschen, nicht mehr Information

7. Wahrnehmungsphysik setzt eine weitere Grenze

Selbst wenn man theoretisch mehr rekonstruieren könnte:

das Auge integriert über Zeit

instabile Details werden als Flimmern wahrgenommen

stabile Kontraste dominieren die Wahrnehmung

DLSS 4.5 optimiert bereits gegen das visuelle System, nicht gegen mathematische Maximalrekonstruktion.

8. Warum DLSS 4.0 „zu viel“ gemacht hat

DLSS 4.0 hat implizit angenommen:

„Diese Details müssen existieren, ich habe sie ja schon einmal gesehen.“

Aber:

diese Details waren oft momentane Projektionen

nicht zeitlich invariant

Über viele Frames:

sie löschen sich gegenseitig aus

→ Smearing

9. Die harte theoretische Grenze (klar formuliert)

Temporale Super-Resolution kann nur Details stabil rekonstruieren,
deren zeitliche Projektion eindeutig und kohärent ist.

Das ist unabhängig von:

Rechenleistung

Netzwerkgröße

Präzision

10. Ein Gedankenexperiment

Stell dir vor:

eine extrem feine Textur

bewegt sich minimal

Phasen ändern sich chaotisch

Du kannst:

unendlich viele Frames sammeln

Aber:

keine eindeutige Zuordnung herstellen

keine stabile Phase rekonstruieren

Das Problem ist Identifizierbarkeit, nicht Samplingdichte.

11. Die präzise Antwort auf deine Frage

Kann man mit genug temporalen Daten beliebig viele Details rekonstruieren?

�� Nur in idealisierten, realitätsfernen Modellen.
�� In realen Renderpipelines: Nein.

Und genau deshalb ist:

DLSS 4.5 konservativer

DLSS 4.0 eine Art „Upper Bound“-Experiment

12. Merksatz

Mehr Frames ersetzen keine fehlende Eindeutigkeit.

Oder anders:

Zeit kann Auflösung erhöhen – aber nicht unbegrenzt und nicht stabil.

Wenn du willst, können wir noch einen letzten Schritt gehen und konkretisieren:

welche Detailklassen grundsätzlich temporalisierbar sind

und welche niemals stabil rekonstruiert werden können

Aber DLSS ist doch aufgrund des KI Trainings bereits vielfach besser als per hand geschriebene Algorithmen wie FSR2 und FSR3. Man hat auch gesehen, dass DLSS4 Performance Mode bereits DLSS3 Quality Mode schlägt. Selbst jetzt mit DLSS4.5 sind viele der Meinung, dass der Ultra performance Mode mit nur 33% input auflösung pro achse teilweise den DLSS4 Performance Mode überbietet.

Die hoffnung war also dass es mit mehr Training und mehr Rechenleistung zur ausführung immer mehr Details bei immer geringeren input Auflösungen geben wird. Klar sind dem irgendwann grenzen gesetzt, aber so wie ich das raushöre, geraten wir bereits mit DLSS4 bzw. 4.5 an eine Grenze bei der man nicht mehr sagen kann "wir reduzieren die render Auflösung weiter und erhalten genauso viele Details wie vorher mit altem model und höherer Auflösung" Der Weg, die Auflösung immer weiter zu reduzieren führt also bereits jetzt mit praktisch 50% Auflösung je achse zu einer Sackgasse bei der jede weitere reduktion unweigerleich zu deutlichem detailverlust führt.

Große Sprünge sind also nicht mehr zu erwarten und DLAA, DLSS Quality oder Supersampling bleiben weiter unverzichtbar wenn man maximale Detaildichte erreichen will?

Das ist eine sehr präzise Zusammenfassung, und ja:
Deine Schlussfolgerung ist im Kern richtig – mit ein paar wichtigen Nuancierungen, die helfen, das Bild einzuordnen, ohne falsche Hoffnungen zu erzeugen.

Ich gehe Punkt für Punkt darauf ein und sage am Ende klar, was realistisch ist – und was nicht.

1. Warum DLSS so viel besser ist als FSR2/3 – und warum das trotzdem nicht „unendlich“ skaliert

DLSS ist FSR klar überlegen, weil:

es nicht nur rekonstruiert, sondern vorhersagt

es semantische Muster erkennt (Kanten, Materialien, Texturen)

es gelernte Prioritäten hat (z. B. „Kante wichtiger als Mikrotextur“)

Das erlaubt DLSS:

mit extrem wenig Input erstaunlich gute Ergebnisse zu liefern

klassische Algorithmen deutlich zu übertreffen

Aber:
DLSS ersetzt Algorithmik, nicht Information.

KI kann:

fehlende Information plausibel ergänzen

aber nicht eindeutig rekonstruieren, was nicht im Signal enthalten ist

2. Warum DLSS4 Performance > DLSS3 Quality möglich war

Das war ein echter Durchbruch – aber aus einem einmaligen Grund:

DLSS3 war:

konservativ

stark aliasing-vermeidend

weniger semantisch

DLSS4:

nutzte deutlich bessere Trainingsdaten

hatte bessere Motion- / Disocclusion-Modelle

war aggressiver bei Detailrekonstruktion

Das war ein Modellqualitäts-Sprung, kein reiner Upscaling-Trick.

Solche Sprünge sind:

diskret, nicht kontinuierlich

3. Warum Ultra Performance plötzlich „überraschend gut“ wirkt

Das ist ein Wahrnehmungseffekt kombiniert mit Modellbias:

DLSS4.5 Ultra Performance:

rekonstruiert weniger, aber stabilere Details

hat höheren Kantenkontrast

vermeidet temporales Verschwimmen

Ergebnis:

wirkt klarer

obwohl objektiv weniger Detail vorhanden ist

Das ist keine neue Informationsgewinnung, sondern bessere Auswahl dessen, was gezeigt wird.

4. Der entscheidende Punkt: Wir stoßen jetzt an die Informationsgrenze

Du triffst den Nagel auf den Kopf mit dieser Beobachtung:

„Wir können die Renderauflösung nicht weiter senken, ohne zwangsläufig Detail zu verlieren.“

Warum?

Bei ~50 % Auflösung pro Achse:

Subpixel-Information ist stark unterabgetastet

Texturfrequenzen liegen weit über Nyquist

Temporale Phasen sind nicht mehr eindeutig

DLSS kann:

Kanten rekonstruieren

Formen stabil halten

Aber:

feine Texturen existieren nicht mehr im Input

egal wie gut das Training ist

5. Warum mehr Training hier nicht mehr hilft

Training hilft, wenn:

das Modell falsche Entscheidungen trifft

es Artefakte produziert

es falsch priorisiert

Training hilft nicht, wenn:

das Signal keine eindeutige Information mehr enthält

DLSS4.0 hat versucht, diese Grenze zu überschreiten:

mit temporaler Halluzination

mit aggressiver Rekonstruktion

DLSS4.5 ist das Eingeständnis:

„Das geht so nicht stabil.“

6. Sind wir also in einer Sackgasse?
Ja – für Detaildichte aus niedriger Renderauflösung.
Nein – für Bildqualität insgesamt.

Zukünftige Verbesserungen werden sein:

noch stabilere Bewegung

bessere Materialklassifikation

bessere Kantengenauigkeit

weniger Kontrastabweichung

Aber:

nicht mehr „mehr echte Details aus weniger Pixeln“

7. Bedeutet das, dass DLAA / native Auflösung langfristig unverzichtbar bleiben?
Klare Antwort: Ja.

Wenn dein Ziel ist:

maximale Texturauflösung

feinste Mikrodetails

höchste Materialtreue

Dann gilt:

Es gibt keinen Ersatz für native Samplingdichte.

KI kann:

kaschieren

optimieren

priorisieren

Sie kann:

Sampling nicht aufheben.

8. Was sich vielleicht noch verschiebt (wichtig!)

Zwei Dinge könnten die Grenze indirekt verschieben:

8.1 Engine-seitige Hilfe

bessere Motion Vectors

Material-IDs

G-Buffers für KI

Das erhöht die Eindeutigkeit des Signals.

8.2 Wahrnehmungsoptimierung

KI lernt, irrelevante Details wegzulassen

Fokus auf das, was das Auge wirklich sieht

Das fühlt sich besser an – ersetzt aber keine Detaildichte.

9. Deine Schlussfolgerung, klar beantwortet

Große Sprünge sind also nicht mehr zu erwarten?

➡️ Nein, nicht mehr in Detaildichte bei weiter sinkender Renderauflösung.

Wer maximale Details will, muss native Auflösung / DLAA nutzen?

➡️ Ja – auch in 5–10 Jahren.

DLSS wird:

immer besser darin, weniger Input gut aussehen zu lassen

aber nicht darin, echtes Detail aus dem Nichts zu erschaffen

10. Ein ehrlicher Abschlusssatz

DLSS hat die Grenze des Machbaren erstaunlich weit verschoben –
aber es hat sie nicht aufgehoben.

Und genau deshalb fühlt sich DLSS 4.5 nicht mehr wie ein Quantensprung an,
sondern wie das, was es ist: Feintuning nahe am physikalischen Limit.

robbitop
2026-01-12, 15:51:51
Model M scheint gut zu sein, aber ich denke für DLSS 5.0 ist es wichtig, wieder mehr Perfomance zu kriegen. Bin mir nicht sicher, ob mit Model M die Optik/Perfomance gestiegen ist. Ich muss das mal heute Abend selber testen.

Ich würde nicht vermuten, dass die computational cost in Zukunft sinken wird. Eher werden es immer mehr Parameter beim Neuronalen Netzwerk um mehr Qualität zu erzeugen.
Aber wie bei K und M kann man ggf bei der inputresolution sparen um insgesamt trotzdem BQ normiert schneller zu sein.
Ggf schwenkt man nochmal auf FP4 um und zukünftige HW erhöht entsprechend den Durchsatz so dass trotz mehr computational cost die Performance nicht sinkt.

Platos
2026-01-12, 16:14:47
Gerade im Bereich Upscaling mittels KI gibts aber (allg. gesehen) auch immer wieder Modelle, die mit deutlich weniger Parameter gleiche Qualität bieten (Also ausserhalb Gaming und nvidia). Eig. ist es bisher meistens so gewesen, dass zuerst Models mit vielen Parameter kommen und Jahre später ein anderes mit deutlich weniger Parameter auskommt.

Keine Ahnung, ob das hier noch immer möglich ist bzw. nvidia dazu fähig ist, aber das muss es eigentlich. Oder aber nvidia nutzt andere "KI" technologien, um "echte" frames zu steigern. Ich denke aber, dass auf jeden Fall noch etwas kommt, was die Rechenleistung pro "echtem" Frame senken wird. Aber das ist natürlich reine Vermutung.

Ex3cut3r
2026-01-12, 17:15:11
Edit: Das letzte Bild ist doch doppelt? Da steht die exakt gleiche Latenz und FPS und im screenshot steht aber bei DLSS P +2x Framegen um die 220FPS. Kann glaube ich nicht stimmen.

Ja, ist gefixt.

robbitop
2026-01-12, 17:29:45
Gerade im Bereich Upscaling mittels KI gibts aber (allg. gesehen) auch immer wieder Modelle, die mit deutlich weniger Parameter gleiche Qualität bieten (Also ausserhalb Gaming und nvidia). Eig. ist es bisher meistens so gewesen, dass zuerst Models mit vielen Parameter kommen und Jahre später ein anderes mit deutlich weniger Parameter auskommt.

Keine Ahnung, ob das hier noch immer möglich ist bzw. nvidia dazu fähig ist, aber das muss es eigentlich. Oder aber nvidia nutzt andere "KI" technologien, um "echte" frames zu steigern. Ich denke aber, dass auf jeden Fall noch etwas kommt, was die Rechenleistung pro "echtem" Frame senken wird. Aber das ist natürlich reine Vermutung.

Tja Nvidia macht NN upsampling für Spiele seit 8 Jahren. Und bis dato gibt es zumindest hier noch nicht einen Präzedenzfall für eine Reduktion. Ggf hat man die von dir beschriebenen Effekte schon genutzt um die BQ zu erhöhen aber trotzdem in top noch mehr BQ holen wollen und man hätte ohne diese Effekte noch mehr computational cost gehabt.
Ich bin jedenfalls sehr skeptisch, dass es nochmal eine Reduktion gibt in nächster Zeit.

aufkrawall
2026-01-12, 17:48:23
Ist wohl eher davon auszugehen, dass auch RR mit 2nd Gen Transformer teurer wird, weil für die Nutzung mit PT gedacht, was andere Anteile an der Frame Time wie Upsampling relativ kleiner macht und man auch eine bessere Skalierung mit sinkender Auflösung hat. Wär schon der Knaller, wenn es mit UP schärfer wäre als jetzt mit Performance.

robbitop
2026-01-12, 19:21:35
Ich bin gespannt. ^^
Was schon doch merkwürdig ist wie wenig Verbreitung das relativ zu SR bekommen hat. Selbst in aktuellen Titeln. Frage mich warum. Sind es die zusätzlichen Inputs die nötig sind die es verkomplizieren?

aufkrawall
2026-01-12, 19:24:25
Könnte imho schon naheliegend sein, wenn man sieht, was Entwickler selbst mit den wenigeren Inputs für die simpleren Upsampler oft vergeigen.

Relex
2026-01-12, 19:31:41
Bei Avatar haben sie ja auch was an den Inputs verkackt. Laut Alex Battaglia fehlen die Regentropfen auf Oberflächen. Die werden größtenteils einfach weg denoised. Er vermutet falsche/fehlende inputs, weil RR das normalerweise problemlos handeln kann.

Aber gut, wir können immer nur meckern. Die Technik ist sehr jung und für viele Entwickler die erste Implementierung. Für viele Studios wenn sie ein Spiel rausbringen womöglich sogar die erste Upscaler Implementierung überhaupt. Bei den mittlerweile langen Entwicklungszyklen also nicht so überraschend.

aufkrawall
2026-01-12, 19:46:57
Wahrscheinlich ein weiterer Vorteil von Unreal, wo die Implementierung von Nvidia selbst ist, selbst wenn man es inoffiziell einschaltet. Offenbar ist ja auch der Default bei neueren UE-Versionen, dass StreamLine immer mit dabei ist.

Lurtz
2026-01-12, 20:32:46
Aber nur um das klar zu stellen. Ich versuche hier nicht mit nem LLM zu argumentieren oder euch vermeintlich tolle Erkenntnisse zu verkaufen. Das ist reines Brainstorming und Spekulation. Ich kann die Aussagen weder prüfen, noch vernünftig plausibilisieren. Und jeder weiß wie stark die LLMs zur Echokammer neigen. Ich poste das nur, weil mich das Thema sehr interessiert und es vermutlich schwer wird, hier jemanden zu finden, der irgendwas qualifiziertes über die technischen und mathematischen hintergründe und Limits sagen kann. In erster Linie ging es mir darum meine Subjektiven Eindrücke irgendwie logisch zu begründen. Alles weitere war dann nur noch nachfragen aus neugier.

Danke für den Kontext. Die Grundaussage wird schon stimmen, man nähert sich einem Plateau, unter das man nicht gehen kann.

Ob das LLM jetzt wirklich Belege hat, dass das bei DLSS 4.5 schon der Fall ist, so souverän wie es das formuliert, würde ich aber anzweifeln.

Relex
2026-01-12, 21:11:09
Jap, da habe ich auch meine Zweifel, aber zumindest ist es eine sehr plausible Schlussfolgerung die sich ChatGPT da ausgedacht hat, wenn man sieht wie sich die Charaktersistik mit Model M jetzt geändert hat. Das wäre ja bereits ein Hinweis darauf, dass man an Grenzen stößt, was die Detailrekonstruktion angeht. Denn teilweise ist das ein Rückschritt zu Model K. Zumindest im Standbild ohne Bewegung von Inhalten gibts eben steillenweise weniger feine Details.

Auch die Probleme und Limitierungen die temporales Supersampling mit sich bringt hat es für mich plausibel erklärt.

Aber so wirklich stark sind die Indizien natürlich nicht, dass Nvidia bereits mit DLSS4 tatsächlich den Detail-Peak erreicht hatte. Es könnte natürlich sein, dass man mit DLSS5 und mehr compute noch mehr rausholen kann. Ich traue ChatGPT jedenfalls nicht zu, dass es korrekt beurteilen kann, ob man jetzt schon wirklich am theoretischen Limit ist oder eher compute performance oder Training limitiert. Dafür hat es schlichtweg nicht die nötigen Daten von mir bekommen. Das kann es einfach nicht wissen. Es kann nur auf basis meiner beobachtungen extrapolieren.
Aber ich fand die Ausführungen trotzdem sehr spannend und aufschlussreich. Denn die Frage ist ja weniger OB man ans physikalische limit kommt, sondern WANN das passiert. Und das was zwischen Preset K und Preset M passiert ist und was ChatGPT darin sieht kann ja durchaus eine mögliche Realität sein, wenn man dann tatsächlich das physikalische Limit temporaler akkumulation erreicht (angenommen es ist noch nicht passiert)

Kann also sein, dass die Schlussfolgerung an sich korrekt ist, aber evtl. aktuell im Kontext aus den noch falschen Gründen, eben weil z.B. andere Aspekte wie Compute und Training limitieren und noch nicht wirklich die theoretische Informationsmenge.


Und ganz "out of the box" gedacht könnte ein DLSS 10 ja auch irgendwann einfach Bilddetails erfinden oder generieren, die tatsächlich überhaupt nicht im Inputsignal vorhanden sind. Das könnte auf basis vordefinierter Regeln passieren, die vorschreiben, wie z.B. ein objekt auszusehen hat. Ob das jemals praktikabel sein wird? Wer weiß. Aber Neural Rendering scheint ja schon ein wenig in die Richtung zu gehen und vollständig AI generierte Bilder sind ja auch ein alter Hut. In der Richtung wäre dann natürlich alles möglich, nur eben kein klassisches temporales Supersampling. Das würde dann eben durch was völlig neues ersetzt werden.

aufkrawall
2026-01-12, 21:14:28
Ob das LLM jetzt wirklich Belege hat, dass das bei DLSS 4.5 schon der Fall ist, so souverän wie es das formuliert, würde ich aber anzweifeln.
Ist immer gut, auf konkrete Links und Zitate zu bestehen.

Relex
2026-01-12, 21:18:34
Welchen Sinn hätte das bei meiner Fragestellung gehabt? Es hätte mir maximal ein paar Links zu Tech Webseiten geliefert, die genau das gleiche schreiben was ich als Beobachtung formuliert hatte, oder es hätte mir links zu irgendwelchen Whitepapern gegeben, die zwar die Theorie beschreiben, aber ich erstmal sehr aufwändig mit meinen Beobachtungen in Einklang bringen müsste.

Das hätte doch keinerlei Nutzen. Ich hatte auch erst überlegt, ob ich mir alles was es sagt wieder validieren lasse bin dann aber nach 2 Sekunden nachdenken zu dem Ergebnis gekommen, dass es mir dann einfach gar nichts brauchbares aussprucken wird.
Dass es sich selbstständig was plausibles ausdenkt ohne jeder Aussage auf Fakten überprüfen zu können war also vollstens beabsichtigt.

Wie gesagt ging es mir hier um Brainstorming einfach mal um das Thema und alle Probleme und Theorien die dahinter stecken etwas zu beleuchten, nicht um irgend welche belastbaren Aussagen zu bekommen. Sowas kann man von einem LLM wie du ja schon andeutest nicht erwarten, ohne dass es jede Aussage mit Link belegt.

Platos
2026-01-12, 21:21:25
Ich habe jetzt auch mal Preset M selber getestet und finde, dass zumindest in Witcher 3 vor allem Perfomance "glänzt" (Preset K glänzt aber auch wortwörtlich ein bisschen). Perfomance war schon unter Preset K ganz brauchbar/ok, wenn man mal wenig Perfomance hatte (im Gegensatz zu davor, da war es für mich zu blurry). Aber mit Preset M ist es aus meiner Sicht nun deutlich besser. Man kann es nun von der Qualität her schon ziemlich gut gebrauchen und muss weniger Augen zudrücken, wenn mal die Perfomance fehlt oder falls man hohe FPS anpeilt. Die Perfomance ist aber zumindest bei Witcher 3 nur um 5-7% gesunken, d.h die Qualität ist meiner Meinung nach stark angestiegen und die Perfomance nur ein bisschen gesunken unter Wichter 3. Mit DLSS Quality Preset M sieht es manchmal sogar schärfer aus, als Nativ ohne AA. Manchmal mag ich das, manchmal ist es mir (zumindest bei Witcher 3) fast etwas zu viel. Und es "Glänzt" auch mehr, als Nativ (Preset K war hier gegenteilig).

Insgesammt würde ich also sagen, hat man vor allem mit Perfomance Preset M einen deutlichen Anstieg von Quality pro Perfomance (oder umgekehrt). Bei Quality bin ich mir noch nicht so sicher. Da muss ich mal mehr Spiele testen, gerade wegen dem "glänzen" und wegen mehr schärfe als nativ. Je nach Spiel kann das gut oder aber schlecht sein, vermute ich.

Edit: Weiss eig. jemand, ob man mittlerweile RR in Spiele ohne RR (aber mit DLSS) implementieren kann irgendwie ?

Tja Nvidia macht NN upsampling für Spiele seit 8 Jahren. Und bis dato gibt es zumindest hier noch nicht einen Präzedenzfall für eine Reduktion. Ggf hat man die von dir beschriebenen Effekte schon genutzt um die BQ zu erhöhen aber trotzdem in top noch mehr BQ holen wollen und man hätte ohne diese Effekte noch mehr computational cost gehabt.
Ich bin jedenfalls sehr skeptisch, dass es nochmal eine Reduktion gibt in nächster Zeit.

Schon möglich, dass es erstmal so ist. Ich habe nur Parallelen zu Video-Upscaling gezogen.

aufkrawall
2026-01-12, 21:37:48
Welchen Sinn hätte das bei meiner Fragestellung gehabt? Es hätte mir maximal ein paar Links zu Tech Webseiten geliefert, die genau das gleiche schreiben was ich als Beobachtung formuliert hatte, oder es hätte mir links zu irgendwelchen Whitepapern gegeben, die zwar die Theorie beschreiben, aber ich erstmal sehr aufwändig mit meinen Beobachtungen in Einklang bringen müsste.

Nö? Kannst dir die Stelle aus dem Whitepaper geben lassen.


Dass es sich selbstständig was plausibles ausdenkt ohne jeder Aussage auf Fakten überprüfen zu können war also vollstens beabsichtigt.

Plausibel kann halt auch trügen.

Relex
2026-01-12, 21:52:55
Wie gesagt, ich wollte dass es hypothesen aufstellt (plausible hypothesen, keine plausiblen verifizierbaren fakten) und meine praktischen beobachtungen mit bekannten gegebenheiten und grenzen in dem Bereich verbindet.
Wer könnte das sonst außer ein Experte auf dem Gebiet? Vielleicht schreib ich Jensen mal ne Mail? Mal sehen ob er einen seiner Forscher in dem bereich ranholt und er bock hat zu diskutieren? Blöde idee? Ach verdammt...


Whitepaper zu lesen lässt mich sicherlich keine besseren Schlussfolgerungen machen, als das LLM. Ich kenne alles was es angesprochen hat und kann damit was anfangen, aber ich könnte nicht damit argumentieren oder ernsthaft arbeiten. Das bringt mir nichts. Dafür fehlt mir einfach die praktische erfahrung auf den gebieten und die mathematik dahinter um das wirklich nachzuvollziehen ist mir eh zu hoch bzw. alles zu lange her damit fang ich jetzt ganz sicher nicht an. Und selbst wenn ich es könnte, dann könnte ich wahrscheinlich immernoch keine besseren hypothesen aufstellen, als das LLM, weil die wirklichen fakten zu meiner spezifischen Frage nur intern bei nvidia vorliegen.
Wenn mir das LLM aber zeigen kann, was alles dahinter steckt, wo die theoretischen Probleme sind usw. dann hilft mir das zumidnest schonmal besser zu verstehen, mit welchen Problemen sich Nvidia bei der Entwicklung herumschlagen muss (naturlich erstmal nur auf einem sehr einfachen level) und welche Entwicklung man noch erwarten kann und welche eher nicht. Einfach nur extrapoliert auf basis von allgemeinem wissen das das LLM in dem Bereich vorweisen kann.

Aber keine Ahnung, warum ich mich jetzt schon wieder rechtfertigen muss, nur weil ich ein LLM ein paar hypothesen aufstellen lasse, um ein bisschen mit dem Thema zu spielen... Aber belassen wirs dabei. Ich würde sagen, zurück zum eigentlichen Thema.

robbitop
2026-01-13, 06:38:50
Ich glaube aufkrall wollte darauf aufmerksam machen, dass man in solchen Situationen auch schnell falsche Sachen „lernen“ kann. Auch wenn die falschen Sachen (oft sind ein paar wenige falsche Sachen unter vielen richtigen Sachen eingestreut/halluziniert was es schwieriger zu unterscheiden macht) gut begründet klingen. Das ist die inhärente Gefahr in Themen wo man nicht fit genug ist. Aber auch wenn man sich mit einem Menschen unterhält. :)
IMO musst du dich nicht rechtfertigen sondern das nur in Hinterkopf behalten dass zumindest eine unbekannte Teilmenge des inputs inkorrekt sein kann. :) Andererseits liest es sich in deinen Postings auch als wäre dir das klar. :) Insofern -> kann das Unterthema ja auch beendet werden. Ich empfand es als brainstorming auch interessant und danke dass du es hier geteilt hast - hat die Diskussion doch sehr angeregt. War ein guter Beitrag.

Ich mache das mit dem Brainstorming übrigens auch öfter mit LLMs. :) (bin mir aber auch oft bewusst dass die Infos auch wackelig sein können - und solange man hier skeptisch und vorsichtig bleibt ist alles ok IMO)

Relex
2026-01-13, 10:09:15
NXAYR-ZtbH4

DLSS4.5 vs FSR4 Redstone

Natürlich keine Analyse auf HW Unboxed oder Digital Foundry Niveau, vor allem da er Video Captures nimmt, die er in ein Video zum Vergleich packt und das Video dann für YouTube nochmal aufnimmt, während es youtube ebenfalls nochmal codiert.

Also praktisch 4 encodes bis man es sieht... Sehr suboptimal. Aber man sieht ja trotzdem noch Unterschiede.

Lurtz
2026-01-13, 10:20:04
Mal was gut abgehangenes - Skyrim SE bzw. Enderal SE.

M vs K Quality:
https://imgsli.com/NDQyMDA4

K Quality vs M Performance:
https://imgsli.com/NDQyMDA5

Insgesamt gefällt mir M hier besser. Performance fehlt zwar etwas Auflösung für die feinsten Details, aber Dinge wie das Wasser oder das zweite beleuchtete Fenster beim Haus in der Mitte werden viel besser herausgearbeitet. Auch die sich bewegende Wache ist besser definiert.

Ist aber schon echt teuer bei ~150 fps, selbst auf Blackwell...

Ex3cut3r
2026-01-13, 10:20:12
https://youtu.be/NXAYR-ZtbH4

Also praktisch 4 encodes bis man es sieht... Sehr suboptimal. Aber man sieht ja trotzdem noch Unterschiede.
Ja, encodig Hölle. Wieso nicht einfach das RAW Footage auf GoFile hochschieben?

Ich finde M bisher immer klar besser als K. Nur die Performance wird später nicht lustig werden. Werde wohl in 2 Jahren falls ich dann immer noch eine RTX 5080 habe, performance bedingkt auf K downgraden müssen. :freak:

Für RTX 6000 brauchen wir mehr Tensor Power.

robbitop
2026-01-13, 10:25:08
Daniel macht das Youtube Ding nur nebenbei. Ist dadurch alles swhr hemdsärmelig. Aber er beschäftigt sich mit dem was er zeigt und ist auch nicht auf den Kopf gefallen. Ich ignoriere in der Regel was auf der „Bildspur“ ist und höre eher zu was er beobachtet hat.

Lurtz
2026-01-13, 10:25:39
Nicht unbedingt, abseits von hochgedrehtem Raytracing. Ob die nächste Konsolengeneration bzw. die nächste Playstation regulär startet, darf man bezweifeln, und die Crossgen-Periode wird diesmal noch länger andauern. Falls man überhaupt noch von Konsolengenerationen wie früher sprechen kann. Software wird immer wichtiger werden.

DrFreaK666
2026-01-13, 11:14:29
DLSS4.5 scheint teilweise überschärft zu sein, aber im Großen und ganzen ist DLSS4.5 besser als FSR4

robbitop
2026-01-13, 11:20:08
Es ist anscheinend eher so, dass DLSS4.5 nicht überschärft sondern die Schärfefilter das tun. Diese waren bis dato immer notwendig (und auch empfohlen) um den Unschärfeeffekt von TAA und temporalem Upsamping zu kompensieren. Seit den Transformer Models ist der output aber so scharf, dass zusätzliche Schärfefilter es überschärfen. Das ist der Nachteil, wenn man einfach nur Modelle wechselt. Empfohlenerweise schaltet man dann die Schärfefilter aus wenn man auf DLSS4.5 wechselt

DrFreaK666
2026-01-13, 11:34:25
Das geht aber anscheinend nicht bei jedem Spiel.
Und das ist mir in Owens Video erst bei 4k aufgefallen, bei 1440p noch nicht

robbitop
2026-01-13, 11:36:23
In manchen Spielenmuss man in die ini anscheinend ja.

Ex3cut3r
2026-01-13, 11:45:08
Oder die exe. per Hex Editor bearbeiten. Findet man oft auf Reddit im r/fuckTAA Sub.

Habe ich für RE4 Remake und Uncharted 4 auch so immer gelöst.

Suchen & Ersetzen wie in Excel auf der Arbeit. :D

Dicker Igel
2026-01-13, 11:48:26
Seit den Transformer Models ist der output aber so scharf, dass zusätzliche Schärfefilter es überschärfen. Das ist der Nachteil, wenn man einfach nur Modelle wechselt. Empfohlenerweise schaltet man dann die Schärfefilter aus wenn man auf DLSS4.5 wechseltIst mir bei RDR2 aufgefallen. Da wundert mich es auch, wieso TAA-Sharpening aktiv bleibt, wenn man DLSS aktiviert und dadurch halt TAA + Resolution-Scale automatisch deaktiviert wird. Das weiß wohl nur R* ...

Mal generell: Welches Modell ist unter 'Q' oder 'DLAA' am performantesten? Ins kleinste Detail gehende Bildquali wäre dabei nicht relevant.

robbitop
2026-01-13, 11:52:02
Das CNN Modell ist am schnellsten weil am wenigsten rechenaufwändig. Das beste ist in der Regel Model E.
Aber man verliert BQ ggü K und M. Es kann am Ende sein, dass man BQ normiert mit K oder M mehr Performance rausholt durch kleinere Presets.

Was RDR2 angeht. RDR2 kam raus als es noch ziemlich alte CNN Models gab. Das war noch eine 2.1 oder 2.2 Version damals. Das Spiel selbst weiß ja von neueren Modellen nichts, die man dann durch Austausch der dlls da reinstöpselt. Und die Studios haben anscheinend auch kein Budget dafür neue Models reinzupatchen und zu validieren.

Lurtz
2026-01-13, 11:54:04
Am Ende gehts drum DLSS-Support auf die Packung schreiben zu können, die Feinheiten interessieren die meisten nicht.

Bei RDR2 funktioniert der DLL-Override aber und K/M lohnen sich da auch sehr weil sie die Vegetation massiv entmatschen. Finds daher mit dem artistic intent in Spielen auch immer schwierig. Das Spiel sieht schon deutlich anders aus damit, aber IMO zum ersten Mal so, wie es eigentlich aussehen sollte...

Dicker Igel
2026-01-13, 12:01:24
Danke euch beiden, bin da noch nicht so tief drin. Habe mit RDR2 und AFOP schon bisschen herumprobiert und ja, die Overrides funktionieren super! Bei Red Dead fällt mit bspw DLAA richtig ein "Schleier", das ist schon beeindruckend.

Relex
2026-01-13, 16:40:25
DLSS4.5 scheint teilweise überschärft zu sein, aber im Großen und ganzen ist DLSS4.5 besser als FSR4

Preset M hat keinen Schärfefilter. Zumindest gibt es keine Ringing oder Halo artefakte, die nunmal jeder Scharfzeichner erzeugt, indem er den Kantenkontrast erhöht.

Es kann natürlich sein, dass schon das Upscaling model so trainiert ist, dass es schärfere Kanten erzeugt, und das Bild quasi schärfer rekonstruiert/rendert, ohne dass scharfzeichner Artefakte entstehen oder ein klassischer Scharpening filter angewendet werden müsste.

Aber wie meine KCD2 screens zeigen, ist der Kontrast feiner Details allerhöchstens auf dem Kontrastniveau von "AA-off" und das eben auch nur für manche Elemente und nie fürs gesamte Bild.

Und ja, schärfefilter des Spiels müssen unbedingt aus sein. Oft ist neben dem scharfzeichner im Spiel selbst noch ein weiterer aktiv, den man nicht einstellen kann. Bei UE4/5 muss man dann die Engine.ini bemühen.


Ist ne ziemlich dämliche Situation, aber früher oder später musste es ja zwangsläufig so kommen. Ein Upscaler der "perfekt" upscalen würde und perfekte natürliche schärfe eins 64K Bildes erreichen könnte, würde mit den von den Spielen applizierten Scharzeichnern ausnahmslos immer überschärft ausehen. Model M ist sicher weit von perfekt, aber das Problem war unausweichlich.

Das Problem ist also nicht das Upscaler Model sondern die Scharfzeichner im Spiel.
Aber vielleicht macht ja Nvidia noch ein Model N, welches ein bewusst weicheres Bild erzeugt. Fall sie dafür nur ein paar parameter anpassen müssen, wärs bestimmt ne Überlegung wert. So könnte man besser mit Spielen umgehen, die sharpening erzwingen oder wo die Spieler nicht in config files frickeln wollen.

robbitop
2026-01-13, 16:59:21
Sinnvoller wäre es einfach nur den Schärfefilter auszumachen. Blöd, dass man sich je nach Spiel kurz damit beschäftigen muss aber naja. IMO besser als absichtlich ein weiches Bild zu errechnen, was dann nachgeschärft wird. Zumindest aus Sicht der teuer errechneten Informationen die damit ineffizienter behandelt werden ^^

Dicker Igel
2026-01-13, 17:25:35
Hab' paar RDR2 und RDO Shots gemacht und dabei das In-game Sharpening für DLSS und TAA deaktiviert. Gleiche Bedingungen ist in RDR2 unmöglich und kA, ob man die Modelle via Inspector on the fly ändern kann. Ich hab's von Modell zu Modell neu gestartet.

RDR2 M

https://i.ibb.co/twHJXXzx/RDR2-M-DLAA.png (https://ibb.co/V0LqmmxQ)

RDR2 K

https://i.ibb.co/r20GZ4mZ/RDR2-K-DLAA.png (https://ibb.co/60wR4gm4)

RDO jeweils K

https://i.ibb.co/svrzf5h4/RDO-DLAA-K.png (https://ibb.co/hRvw6XkN)

https://i.ibb.co/VYmCRV1D/RDO-01-DLAA-K.png (https://ibb.co/8gcxqMC2)

robbitop
2026-01-13, 17:29:51
Modelle on the fly ändern ginge mit Optiscaler - aber der funktioniert nicht mit Vulkan. Zumindest immer wenn ich RDR2 mit DX12 probiert habe, hat das Spiel oftmals mehr rumgespackt und sich auch oft beim Starten über zu wenig RAM (32 GB!!) beschwert was es mit Vulkan nie gemacht hat. Und ich habe Optiscaler nie ohne Crash mit dem Spiel zum Laufen bekommen. Ist aber schon ne Weile her dass ich es getestet hab.

Dicker Igel
2026-01-13, 17:36:53
Joar, unter DX12 hat man imo auch eher kleiner Ruckler, die man unter Vulkan nicht hat. Vor allem bei viel Geometrie, wie in Saint Denis gegen in-game 14:00 rum bei blauen Himmel. In Rhodes kann man das auch gut testen, durch die organgen Dust-Partikel, die man dort immer in der Luft hat.

aufkrawall
2026-01-14, 00:12:34
Es wurd hier glaub ich noch gar nicht erwähnt: Mit Preset L und M ist offenbar immer Auto-Exposure on erzwungen.

Lurtz
2026-01-14, 09:25:44
Die ganze Bibliothek wurde auf 310.5.2 aktualisiert, ist im Override schon aktiv. Vermutlich nur Detailverbesserungen/Bugfixes...

dildo4u
2026-01-14, 09:32:45
Preset sollen jetzt automatisch wechseln

https://www.reddit.com/r/nvidia/comments/1qcaccy/new_dlss_version_31052_auto_preset_switch/

SamLombardo
2026-01-14, 09:53:57
Preset sollen jetzt automatisch wechseln

https://www.reddit.com/r/nvidia/comments/1qcaccy/new_dlss_version_31052_auto_preset_switch/
Heißt das jetzt dass wieder auf K zurückgestellt wird wenn man DLSS Quality einstellt?

Lurtz
2026-01-14, 10:05:09
Ja, aber nur wenn latest eingestellt ist für Super Resolution.

SamLombardo
2026-01-14, 10:06:00
Ja, aber nur wenn latest eingestellt ist für Super Resolution.
Danke, ja das habe ich bisher so. Dann werde ich mal auf M umstellen.

dildo4u
2026-01-14, 10:13:54
Path Tracing in Cyberpunk ist jetzt möglich auf einer 5070 wenn man Ultra Performance nutzt.
Sieht gut aus in "4k" die Artefakte kommen eher von dem nicht vorhandenen RR der Rest ist sauber.
Ca 90 bis 100fps mit FG.

Relex
2026-01-14, 10:14:53
EDIT: Vergiss was ich geschrieben habe, bin zu blöd zum lesen :D

SamLombardo
2026-01-14, 10:20:35
Noch mal zu dem automatisch wechseln, heißt dass das z.B bei Performance standardmäßig wenn man nichts anderes forciert immer M genommen wird und bei Ultra Performance immer L? Unabhängig von der verbauten Hardware also z.B auch auf einem 2070?

Dicker Igel
2026-01-14, 10:58:46
Via Profil erzwingt man das Modell doch eh, oder setzt Du es global ohne zu forcieren?

SamLombardo
2026-01-14, 11:05:30
Via Profil erzwingt man das Modell doch eh, oder setzt Du es global ohne zu forcieren?

Ich hatte das tatsächlich jetzt global auf always use latest gesetzt und bin davon ausgegangen dass M genommen wird. Ist nun keine große Hürde das standardmäßig wieder manuell auf M zu setzen. Meine Frage war eher bezogen auf meinen Sohn der noch einen Unterklasse Rechner mit einer 2070 Super hat. Wenn ich da global always use latest einstelle wie verhält sich das dann? Quality K, Performance M, Ultra Performance L und das Ganze automatisch?

Dicker Igel
2026-01-14, 11:22:02
Ich denke schon, nur bin ich mir wegen der älteren GPU unsicher. So tief bin ich da auch noch nicht drin :)

Holundermann
2026-01-14, 12:07:37
Schade das es kein Upgrade für RR gab - somit ist DLSS 4.5 für mich nur bedingt nutzbar weil ich alle Spiele mit RT spiele und da RR definitiv bessere Resultate liefert als DLSS 4.5 - zumindest in Cyberpunk + SW Outlaws.

Ich hoffe es kommt bald ein neues RR Model mit den Vorteilen von DLSS 4.5.

Davon abgesehen macht es in Kingdom Come Deliverance 2 und Arc Raiders eine richtig gute Figur!

Gibt es irgendwelche News hinsichtlich eines neuen RR Models?

Relex
2026-01-14, 12:44:37
Es gibt doch eh nur ne handvoll Spiele mit RR https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/

Wenn das bei dir die Mehrheit der Spiele ist... :D

The_Invisible
2026-01-14, 14:54:20
Neue Nvidia App mit neuem "recommended" setting

https://www.reddit.com/r/nvidia/s/fSY02t26f7

Relex
2026-01-14, 15:01:42
Das Verhalten war schon seit heute früh mit der 310.5.2 dll so.
Jetzt haben sie nur noch den Text in der App von "Latest" auf "Empfohlen" geändert. Denn "Latest" gibt es nicht mehr.

Ist sinnvolles Vorgehen aus Performance Sicht, aber IMO allgemein immer noch quatsch.

Ich würds generell ganz anders aufbauen und statt der Preset Buchstaben einfach die Optionen "DSS4.0" oder "DLSS4.5" taufen und die Preset Buchstaben nur als zusätzliche Referenz anhängen. und dabei immer nen Erklärtext anfügen.

In den Entwickler guidelines sind sie ja auch dazu fähig die Unterschiede zu erklären. Warum sollte das einen Nutzer mehr verwirren, als völlig nichtssagende Buchstaben, die nichtmal einem Release zuzuordnen sind?
Da bewerben sie groß "DLSS4.5" aber in der App ist davon nichts zu finden. Welcher normalo soll das verstehen?

Ich frag mich wirklich, was Nvidia da geritten hat.

Gast
2026-01-14, 15:02:22
Preset sollen jetzt automatisch wechseln

https://www.reddit.com/r/nvidia/comments/1qcaccy/new_dlss_version_31052_auto_preset_switch/

War schon immer so wenn man Latest verwendet und nicht manuell ein Preset forciert.

Lurtz
2026-01-14, 15:42:07
Ich sehe keinen einfachen Weg das zu fixen, weil DLSS 3.0, 4.0, 4.5 erstmal nur Marketinghüllen sind, während DLLs und Presets nochmal anders versioniert sind.

Aber ja, die Bezeichnungen wie sie jetzt sind sind ziemlich bescheuert.

Relex
2026-01-14, 16:01:50
Vor allem, jemand der jetzt das "Empfohlen" Setting nimmt und den Quality Modus nutzt bekommt gar kein DLSS4.5 zu Gesicht.

Vor allem nachdem in den letzten Tagen unzählige Guides für die DAUs gepostet wurden, wie man das einstellt. Die stellen jetzt alle auf Empfohlen, starten im Quality Modus (was ja vor allem in 1440p und 1080p das gewählte Setting der meisten Nutzer sein dürfte) und denken sich dann "aah oh ja, das sieht so viel besser aus als vorher" obwohl sich nichts geändert hat oder denken sich "was fürn müll, sieht genauso aus wie vorher und dafür hab ich jetzt weniger performance"?

Das ist für mich echt schon wieder so ein richtiger Marketing fail. Man bekommt es nicht hin, das sauber zu kommunizieren. Weder an die Presse noch über die eigenen Anwendungen.

Dass praktisch jedes spiel aufgrund ingame scharfzeichner überschärft aussieht ist auch nicht gerade förderlich. Da hätte man zumindest mal ne Warnung dazu schreiben müssen, dass man den Scharfzeichner im Spiel deaktivieren soll und wenn man ganz schlau gewesen wäre hätte man noch nen weiterführenden Link auf die GeForce website gepostet wo dann erklärt wird, wie man den Scharfzeichner z.B. in UE5 spielen komplett abschaltet incl. Vergleichsbildern. Denn sowas hat Nvidia früher auch mit ihren Settings Guides gemacht, wo sie sogar erklärt haben, wann und ob man bei einem Spiel z.B. 16x AF forcieren sollte.

Ich kapiers nicht. Die betreiben hier mit ihren DLSS Models, Neural Rendering und allgemein der GPU entwicklung mit eine der komplexesten Wissenschaft die wir haben und dann kriegen sie es nicht hin, dass sich jemand mit nem IQ größer als der Durchschnitt mal ein Konzept überlegt, wie man das denn sauber an den Nutzer herantragen kann. Absolut verrückt...

Gast
2026-01-14, 16:52:06
Vor allem, jemand der jetzt das "Empfohlen" Setting nimmt und den Quality Modus nutzt bekommt gar kein DLSS4.5 zu Gesicht.


Natürlich nicht, der Quality Modus sieht mit Preset "K" in den meisten Fällen am besten aus.

Relex
2026-01-14, 18:23:28
Keine Ahnung, wo das am besten ins Forum passt, aber noch eine Randnotiz:


Neural Shaders: The RTX Neural Shaders SDK was introduced last year with the GeForce RTX 50 Series GPUs. Now, we’re releasing the RTX Neural Texture Compression SDK, an application of neural shaders. It uses AI to significantly compress textures more than traditional methods while maintaining similar image quality. This has resulted in significant performance improvements in the new 0.9 version. Block Compression 7 (BC7) encoding has been sped up by 6x, and inference speed has increased by 20% to 40% compared to version 0.8. That allows developers to minimize FPS impact when saving up to 7x system memory.This has resulted in significant performance improvements in the new 0.9 version. Developers can get started with the latest RTX Neural Texture Compression SDK today.



Das hört sich doch schonmal gut an. NRC SDK ist draußen und vielleicht sehen wir dann im Verlaufe des Jahres schon erste Spiele oder Demos die das nutzen.

Bin gespannt, wie hoch die Frametime Kosten für Inference on Sample sind. Nachdem Nvidia aber wohl 8 GB GPUs wieder vermehrt verkaufen will, ist es wohl nicht die schlechteste Idee, das jetzt zu pushen. :freak:

DrFreaK666
2026-01-14, 19:50:31
...vielleicht sehen wir dann im Verlaufe des Jahres schon erste Spiele oder Demos die das nutzen.

Wahrscheinlich Cyberpunk 😜

SamLombardo
2026-01-14, 20:09:28
Natürlich nicht, der Quality Modus sieht mit Preset "K" in den meisten Fällen am besten aus.
Nicht korrekt. K ist in Quality das beste Kosten-Nutzen Verhältnis. Die beste Bildqualität (wenn man die Leistung übrig hat) ist Preset M. Erst Recht bei HDR.

DrFreaK666
2026-01-14, 22:21:46
4JNmb54hR3A

Gast
2026-01-14, 22:29:29
Nicht korrekt. K ist in Quality das beste Kosten-Nutzen Verhältnis. Die beste Bildqualität (wenn man die Leistung übrig hat) ist Preset M. Erst Recht bei HDR.

Nicht wirklich, wenn man ruhiges supersampled Bild und flimmerfreie Filterung bevorzugt, dann sind die neuen Presets L/M weit entfernt von optimal.

aufkrawall
2026-01-14, 22:54:59
K hat mit Disocclusion massiv schlimmere Aliasing-Ausfälle. Maximal simplifiziert runtergebrochen, sieht K eher aus wie ein massiv besseres FSR 2.1, während M eher ein massiv besseres DLSS SR Preset E ist.

Lurtz
2026-01-14, 22:56:14
Da hat sich deine Meinung gegenüber dem Ersteindruck aber noch ordentlich ins Positive gedreht :)

Gast
2026-01-14, 23:00:31
K hat mit Disocclusion massiv schlimmere Aliasing-Ausfälle. Maximal simplifiziert runtergebrochen, sieht K eher aus wie ein massiv besseres FSR 2.1, während M eher ein massiv besseres DLSS SR Preset E ist.

Du testest die falschen Games.

aufkrawall
2026-01-14, 23:05:26
Da hat sich deine Meinung gegenüber dem Ersteindruck aber noch ordentlich ins Positive gedreht :)
Ja. Der Ersteindruck war stark von Preset L in Talos beeinflusst, was dort auch wirklich eklig im Nanite-Gras ghostet. Was RR E ja (im Vergleich zu anderen Upsamplern) quasi gar nicht tut, trotz mit weitem Abstand bester Stabilität. Das Ding ist trotz der gewissen Unschärfe einfach geil. Preset M und K ghosten dabei eher vergleichbar zueinander. K vielleicht etwas weniger, aber dafür halt massive andere Fails.
K versagt mit Performance bei dem Gammel-Content von Witcher 3, sowie modernem Rendering ala UE5/RT sowieso. Was will man da eigentlich noch argumentieren? :freak:
Die Handhabung sich bewegender Objekte war bei DLSS SR vor 2nd Gen Transformer, abseits von RR, halt einfach nur richtig schlecht. 2nd Gen Transformer dürfte dahingehend der größte Sprung sein, den DLSS jemals erfahren hat.

Btw. es ist so ein Krebs, dass in diesem Müll-Forum Gast-Posts einfach so zwischendrin aufploppen. Maximaler Abfuck by design. Deswegen spende ich hier auch exakt null Cent...
Andere Gründe wären auch noch die unglaublich müllige Suchfunktion, die zu blöd für einfachste Datumssortierung usw. ist. wtf ist das...

Gast
2026-01-14, 23:12:47
Btw. es ist so ein Krebs, dass in diesem Müll-Forum Gast-Posts einfach so zwischendrin aufploppen. Maximaler Abfuck by design. Deswegen spende ich hier auch exakt null Cent...

Texture-Shimmering und Filterung ist wesentlich schlimmer, Disocclusion ist gar nirgends ein wirkliches Problem, ist auch egal du bist nicht relevant in der Meinungsfindung.

Jupiter
2026-01-14, 23:16:03
Altes DLSS mit RR bietet aktuell bei den von mir getesteten Spielen die beste Bildqualität.

Bei Spielen ohne RR scheint das neue DLSS am besten zu sein.

aufkrawall
2026-01-14, 23:19:03
ist auch egal du bist nicht relevant in der Meinungsfindung.
Oh, der relevante Gast hat gesprochen. Die Mehrheit der Nutzer in Foren empfindet M als Verbesserung für 4k Performance, kannst dich also wieder verkriechen.

robbitop
2026-01-14, 23:20:33
Kein Wunder. RR ist immer noch das teuerste Modell und nutzt edit noch mehr Inputs als SR.

Relex
2026-01-14, 23:33:11
Kommt drauf an. Cyberpunk mit pathtracing läuft mit Preset M oder L deutlich langsamer als mit RayReconstruction.

RayReconstruction ersetzt den standard Densoiser. Das spart einiges an performance, trotz aufwändigerem Model.

robbitop
2026-01-14, 23:45:35
IIRC hatte hier mal vor Monaten jemand offizielle Zahlen in MS von Nvidia angeben mit Screenshot. Sah aus wie aus einem Programming Guide. Finde es aber gerade nicht. Da war RR iirc überraschend teuer in ms vs SR. Aber andererseits ist M und L auch ordentlich teurer geworden und wie du sagst gibt es durch den schnelleren denoiser Einsparungen. Was ich aber meinte war rein der computational Overhead für DLSS ohne den benefit vom denoiser. :)

aufkrawall
2026-01-14, 23:48:36
Ist auch teuer, in Avatar auf der 5070 trotz ordentlich RT-Last sogar überraschend teuer. Offenbar wird klassisches Denoising mit PT massiv teurer. Wär zumindest die logische Schlussfolgerung, wenn damit RR oft "gratis" ist.

Gast
2026-01-15, 00:26:00
Kommt drauf an. Cyberpunk mit pathtracing läuft mit Preset M oder L deutlich langsamer als mit RayReconstruction.


Weil es nicht dafür gedacht ist, ich denke mal Ray Reconstruction wird ein leichtgewichtigeres Preset vom Transformer 2nd Gen erhalten, sonst wäre der Leistungsverlust bei doppelten Inferencing Durchsatz einfach zu heftig.

Gast
2026-01-15, 07:23:22
Kein Wunder. RR ist immer noch das teuerste Modell und nutzt nich mehr Inputs als SR.

Wenn ich mich richtig erinnere nutzt RR mehr Inputs (G-Buffer).

Lurtz
2026-01-15, 09:04:26
So, bei Reddit hat sich jetzt die Erkenntnis durchgesetzt, dass M oversharpened und völlig unbrauchbar für Balanced und Quality ist :uup: Das wird sich jetzt wieder monatelang halten... Naja, nicht mein Problem :usweet:

robbitop
2026-01-15, 09:08:02
Wenn ich mich richtig erinnere nutzt RR mehr Inputs (G-Buffer).
Scheiß iPhone - so oft wenn ich "noch" tippe, kommt irgendwie "nich" dabei heraus was ich übersehe. Und die Leute denken ich meine "nicht". Irgendwie ist die Erkennung der Buchstaben oft Mist (autokorrektur ist aus).
Also wir meinen das gleiche. :)

00-Schneider
2026-01-15, 09:15:51
So, bei Reddit hat sich jetzt die Erkenntnis durchgesetzt, dass M oversharpened und völlig unbrauchbar für Balanced und Quality ist :uup: Das wird sich jetzt wieder monatelang halten... Naja, nicht mein Problem :usweet:


Jup.

Wobei man sagen muss, das einige Engines(z.b.UE) ja out-of-the-box schon minimal nachschärfen. In Kombination mit L/M könnte das Bild dann leicht überschärft wirken.

Oder die Leute haben sich an die Unschärfe von K und TAA gewöhnt, und alles was schärfer ist, ist dann direkt "überschärft".

DrFreaK666
2026-01-15, 09:24:04
Btw. es ist so ein Krebs, dass in diesem Müll-Forum Gast-Posts einfach so zwischendrin aufploppen. Maximaler Abfuck by design...
Gast-Beiträge kann man sperren. Habe ich schon vor Monaten erledigt

Lurtz
2026-01-15, 11:48:51
10/10 Shitpost oder das ist das dümmste, was ich seit langem gelesen habe :hammer:

Today I found a solution that suits me personally much better and I want to share it with the community. I created a custom 1800p resolution, switched to it and proceeded to the game with the Quality Preset Model M enabled. The additional sharpness from the preset was largely mitigated by the naive upscale from 1800p to 2160p and the resulting picture looks both temporally stable, and pleasingly (to me) sharp. All while not really negatively affecting performance!
https://www.reddit.com/r/nvidia/comments/1qcviqb/how_to_make_presets_m_and_l_less_sharp_guide/

Die Leute die FXAA einschalten um die Schärfe zu senken sind aber auch gut.

raffa
2026-01-15, 11:58:20
Ich hab ein paar Screenshots gesehen von jemandem der tendenziell gerne überschärft, und da sieht dann Model M/L DLAA gar nicht mal so schön aus - aber man kann ja einfach das Nachschärfen lassen (bzw ausschalten)

Dicker Igel
2026-01-15, 12:23:54
Vor allem sind die Sharpening-Presets in den Spielen meist abartig hoch voreingestellt. 7/10(Avatar zB) odA ... übel. In RDR2 ist das mit ~ 30/100 ja noch im Rahmen, wobei man das trotzdessen deaktivieren sollte.


10/10 Shitpost oder das ist das dümmste, was ich seit langem gelesen habe :hammer:


https://www.reddit.com/r/nvidia/comments/1qcviqb/how_to_make_presets_m_and_l_less_sharp_guide/

Die Leute die FXAA einschalten um die Schärfe zu senken sind aber auch gut.
Oh man ;D

Badesalz
2026-01-15, 12:28:01
Was ich mich grad frage ist warum NV auf der eigenen Werbeseite :| sich möglichst schlechtes Beispeil rausgesucht hat um darzustellen wieviel mehr 4.5 vermatscht als 4 :freak: (MFG)
(Outer Worlds 2)
https://www.nvidia.com/en-us/geforce/news/ces-2026-nvidia-geforce-rtx-announcements/

Genau, es geht nicht einfach nur um Kantenschärfe. Ich fühl mich von dem Hyperianern irgendwie verschaukelt

Relex
2026-01-15, 13:22:13
Also ich versteh nicht was du meinst.

Das Outer Worlds Video zeigt doch nur, dass FG mit 4.5 besser arbeitet und weniger Fehler am HUD macht. Wobei man das auch jetzt schon einfach mit ner Variable in der Engine ini fixen kann...

Disconnected
2026-01-15, 14:46:08
...

Oder die Leute haben sich an die Unschärfe von K und TAA gewöhnt, und alles was schärfer ist, ist dann direkt "überschärft".

Ich denke, was als "überschärft" gilt, ist für jeden rein subjektiv zu betrachten.

Gast
2026-01-15, 14:59:58
Oder die Leute haben sich an die Unschärfe von K und TAA gewöhnt, und alles was schärfer ist, ist dann direkt "überschärft".

Überschärft ist es wenn man Halos sieht alles andere ist per se nicht überschärft.

Wobei man natürlich darüber diskutieren kann welcher "Schärfegrad" der eigentliche Creative Intent war, und dieser kann auch schon überschritten sein bevor Halos sichtbar werden.

Dicker Igel
2026-01-15, 15:31:04
Ich denke, was als "überschärft" gilt, ist für jeden rein subjektiv zu betrachten.
LCD, LED, OLED ... + derer Wertigkeit spielt da imo auch 'ne große Rolle und wird logischerweise verschieden wahrgenommen. Imo schwierig da allgemeingültig zu sein.

Relex
2026-01-15, 15:36:40
Da DLSS jetzt die Daten vorm Tonemapping nutzt wird es wohl immer etwas kräftiger aussehen als bisher. Und damit eben auch anders als TAA in nativer Auflösung.

Ich muss aber auch sagen, dass mit dem neuen DLSS mein OLED auch mehr wie ein OLED aussieht, selbst in SDR mit sRGB Profil wirken kleine details klarer. Also nicht nur in bezug auf schärfe. Die Farben sind einfach klarer und sauberer.

Sieht man z.B. auch in Clair Obscur. Irgend ne wiese mit bunten Gräsern und Blüten, das sieht jetzt richtig gut aus. Vorher eben eher leicht gedämpft und neblig, was man aber selbst mit einem Kontrastfilter nicht ausgleichen kann, weil man damit das gesamte Bild verändern würde oder clipping erzeugen würde.

Creators intent ist halt so ne Sache. Praktisch hat man jetzt einen minimalen Schleier entfernt, den vorher jedes TAA basierte verfahren hatte. Entwickler müssten das jetzt als neue Grundlage nutzen. Andererseits sind die Unterschiede so subtil... Juckt eigentlich nicht wirklich.
Das Hauptproblem ist die überschärfte Darstellung, sobald ein Spiel schafzeichner nutzt. Aber da müssen die Entwickler ran. DLSS deswegen absichtlich unscharf zu machen wäre ja kompletter unsinn.

Disconnected
2026-01-15, 16:22:10
Creator's intent ist auch oft chromatic aberration, motion blur, film grain, etc. :P

Lurtz
2026-01-15, 16:41:42
Eben, klappt doch nicht mal bei Filmen, wo teils jeder Release ein anderes Color Grading hat.

Bei Spielen wird sich das allein wegen der unterschiedlichen Displays und immer mehr AI-Processing in TVs noch weniger umsetzen lassen.

The_Invisible
2026-01-15, 17:02:52
Was ich mich grad frage ist warum NV auf der eigenen Werbeseite :| sich möglichst schlechtes Beispeil rausgesucht hat um darzustellen wieviel mehr 4.5 vermatscht als 4 :freak: (MFG)
(Outer Worlds 2)
https://www.nvidia.com/en-us/geforce/news/ces-2026-nvidia-geforce-rtx-announcements/

Genau, es geht nicht einfach nur um Kantenschärfe. Ich fühl mich von dem Hyperianern irgendwie verschaukelt

Hört sich an wie ein verbitterter AMDler der nix abbekommen hat :D

Badesalz
2026-01-15, 17:39:04
Also ich versteh nicht was du meinst.Weswegen ich irgendwann aufgehört hab auf 3DC über Bildquali zu diskutieren. Ja, ein Trauerspiel.
Hört sich an wie ein verbitterter AMDler der nix abbekommen hat :DIm Gegensatz zu dir, der mal 5 Sievert abbekommen hat? :up:

Relex
2026-01-15, 18:18:59
Ne, du hast nicht aufgehört, du hast hier geposted - was du nicht getan hättest, wenn du nicht irgend ne Reaktion darauf erwartet hättest.

Dein post ist halt nur sinnfrei, wenn du dich nicht erklären kannst.

Badesalz
2026-01-15, 18:49:57
Ne, du hast nicht aufgehört, Macht der Gewohnheit. Ich vergesse das ab und zu bis es mir wieder... vor den Augen geführt wird :wink:
Dein post ist halt nur sinnfrei, wenn du dich nicht erklären kannst.Ich kann damit anfangen zu beschreiben was ich sehe was du meinst nicht zu sehen. Ja. Fällt dir grad was ein? Genau. Das wäre ebenfalls sinnfrei.

Etwas zu sehen und unterschiedlicher Meinung darüber sein, das geht. Und ist die Grundvoraussetzung. Eine Diskussion zwischen Sehen und Nichtssehen, ist es nicht.
Ja es kann "nur" an MFG in Verbidnung mit dem Scaler liegen. Nicht prinzipiell am 4.5 Scaler. Die anderen Beispiele sind bei Weitem nicht so übel (tatsächlich). Auch wenn da auch teils eben nicht soviel Content zu sehen ist.
Oder an der exaktheit der Aufnahme bei so hohen FPS. Das Videomaterial kann da ggf. gestolpert sein. Ich hab nichts genauer beurteilt bisher. Alles gut. Die Verwunderung war wie sie war. Mehr erstmal nicht.

Aber Nichtssehen, ist eben keine Grundlage für das Thema. Sorry. Wenn du da nichts siehst, ruhigen Schlaf und weiterhin toi toi toi. Kein Ding.

aufkrawall
2026-01-15, 19:11:19
Geflacker der Bloom-Rattenaugen in Plague Tale ist btw. massiv verbessert mit Preset L/M gegenüber K. Zumindest mit Performance, mit DLAA wird es kurioserweise schlechter (wobei beim über die Schulter Schauen Overlay dabei nicht ganz genau gecheckt, falls es mit DLAA nicht doch wieder K oder whatever war).
Für 4k Performance/UP definitiv bestes Update ever.

Oliver_M.D
2026-01-15, 21:18:13
10/10 Shitpost oder das ist das dümmste, was ich seit langem gelesen habe :hammer:
https://www.reddit.com/r/nvidia/comments/1qcviqb/how_to_make_presets_m_and_l_less_sharp_guide/
Die Leute die FXAA einschalten um die Schärfe zu senken sind aber auch gut.Kann man echt nur hoffen dass das ein Shitpost ist. Ansonsten sind das mal wieder 10/10 Mental Gymnastics, die Reddit da vollzieht;D

IceKillFX57
2026-01-15, 23:27:24
X-D verstehe das Problem der Schärfe einiger Leute nicht. Ich schärfe sogar noch relativ stark nach haha.
Bin mal gespannt wohin die Reise geht bezüglich DLSS. Einige im netz finden ja eine Skalierung von 110p-360p je nach Titel mit DLSS4.5 brauchbar (im Notfall?)

aufkrawall
2026-01-15, 23:34:40
Die Erwartungshaltung ist jetzt, dass RR UP -> 4k absolut brauchbar werden sollte. Das würd der 5070 auch nochmal VRAM-Luft verschaffen, falls RR 2nd Gen Transformer nicht massiv davon frisst. Dann wäre etwa AW2 mit PT darauf uneingeschränkt spielbar.

x-force
2026-01-16, 00:49:05
Creators intent ist halt so ne Sache.

creators die sharpening, chromatic aberration, motion blur, film grain, usw nutzen und am besten auch noch nyquist shannon nicht achten, sollten sowieso erschossen werden :wink:

Lehdro
2026-01-16, 21:18:10
Mal eine schöne knackige Zusammenfassung der unterschiedlichen Presets/Modelle. Leider nur in CP2077, aber immerhin.

iOY6wL6tv9w

aufkrawall
2026-01-16, 21:44:49
Da sieht man die üble Bloom-Explosion (etwa mit der Flasche auf dem Tisch) auch nur pre 2nd Gen Transformer, scheint also wie in Plague Tale dort mit 2nd Gen auch massiv besser geworden zu sein.
Geniales Update.

aceCrasher
2026-01-17, 14:35:38
Mal eine schöne knackige Zusammenfassung der unterschiedlichen Presets/Modelle. Leider nur in CP2077, aber immerhin.

https://youtu.be/iOY6wL6tv9w
Ich finde gerade die Verbesserungen beim Ultra Performance Mode beeindruckend. Vor nicht allzu langer Zeit habe ich noch die Nase über den UP Mode gerümpft, jetzt würde ich sagen dass 720->4K auf einer 5070 vielleicht sogar Sinn ergibt. Irgendwie komplett irre dass man mit 1->9 Pixel so eine (relative) Stabilität bekommt :eek:

Ultra Performance mit Model L könnte vielleicht auch 5K und 6K Monitore viable machen wenn der P-Mode mal nicht reicht.

5K UP: 960p -> 2880p

6K UP: 1152p -> 3456p

Relex
2026-01-17, 14:58:16
Man muss ja nicht zwangsweise gleich den Ultra Performance Modus nehmen.

Man kanns auch so machen.

12/12 = Faktor 1x = 100% Auflösung pro Achse (DLAA)
8/12 = Faktor 1,5x = 66,7% Auflösung pro Achse (Quality)
7/12 = Faktor 1,71x = 58,3% Auflösung pro Achse (Balanced)
6/12 = Faktor 2x = 50% Auflösung pro Achse (Performance)
5/12 = Faktor 2,4x = 41,7% Auflösung pro Achse (High Performance)
4/12 = Faktor 3x = 33,3% Auflösung pro Achse (Ultra Performance)


Also einfach 42% einstellen und man hat eine sinnvolle Stufe zwischen Performance und Ultra Performance.

robbitop
2026-01-17, 15:33:40
Ich finde gerade die Verbesserungen beim Ultra Performance Mode beeindruckend. Vor nicht allzu langer Zeit habe ich noch die Nase über den UP Mode gerümpft, jetzt würde ich sagen dass 720->4K auf einer 5070 vielleicht sogar Sinn ergibt. Irgendwie komplett irre dass man mit 1->9 Pixel so eine (relative) Stabilität bekommt :eek:

Ultra Performance mit Model L könnte vielleicht auch 5K und 6K Monitore viable machen wenn der P-Mode mal nicht reicht.

5K UP: 960p -> 2880p

6K UP: 1152p -> 3456p
Man darf nicht außer acht lassen, dass die Kosten für DLSS mit der Outputlösung steigen. Bis zu einem Punkt wo das eigentliche Rendering dann relativ zu den Kosten nur noch ein Bruchteil kostet (und eine Verringerung sann asymptotisch wenig bringt). Bspw wurde die 3090 als 8K Karte vermarktet und dafür wurde ursprünglich der UP Mode vorgesehen. Und die Benchmarkwerte in 8K UP waren (damals erstaunlich) wenig beeindruckend trotz eigentlich geringer 1440p Renderauflösung. Einfach weil die computational cost so hoch war. Das wird mit 2nd gen Transformer noch weiter verstärkt.


Ich bin ehrlich gesagt auch skeptisch ob eine Erhöhung der Auflösung (ggü 4K) bei normalen Monitorgrößen (27…32“) in Spielegrafik noch signifikante optische Vorteile bringt. Insbesondere wenn das Spiel DLSS nutzt. Früher ohne gutes temporales Upsampling schon - aber heutzutage? Ich würde vermuten das sind schon deminishing returns.

aceCrasher
2026-01-17, 21:07:48
Man darf nicht außer acht lassen, dass die Kosten für DLSS mit der Outputlösung steigen. Bis zu einem Punkt wo das eigentliche Rendering dann relativ zu den Kosten nur noch ein Bruchteil kostet (und eine Verringerung sann asymptotisch wenig bringt). Bspw wurde die 3090 als 8K Karte vermarktet und dafür wurde ursprünglich der UP Mode vorgesehen. Und die Benchmarkwerte in 8K UP waren (damals erstaunlich) wenig beeindruckend trotz eigentlich geringer 1440p Renderauflösung. Einfach weil die computational cost so hoch war. Das wird mit 2nd gen Transformer noch weiter verstärkt.
Da gebe ich dir recht, aber ich denke mit Raytracing/Pathtracing wird in Zukunft die Last auch bei geringen Auflösungen noch hoch genug bleiben.


Ich bin ehrlich gesagt auch skeptisch ob eine Erhöhung der Auflösung (ggü 4K) bei normalen Monitorgrößen (27…32“) in Spielegrafik noch signifikante optische Vorteile bringt. Insbesondere wenn das Spiel DLSS nutzt. Früher ohne gutes temporales Upsampling schon - aber heutzutage? Ich würde vermuten das sind schon deminishing returns.
Ich träume ja auch eher von einem 37"/38" OLED für den Schreibtisch (42 sind mir zu groß), ich denke da wären 5K oder 6K schon angemessen, groß denken! :biggrin:

crux2005
2026-01-21, 02:19:58
g05Fs3I1qkg

Vergleich der ganzen Upscaler die es bis jetzt so gab.

basix
2026-01-21, 08:32:41
360p auf 720p mit DLSS2 Preset A war ein riesen Sprung verglichen mit spatial Upscalern. Und DLSS 4 & 4.5 legen nochmals eine grosse Schippe drauf.

Pirx
2026-01-21, 08:37:13
bald sind wir wieder bei 320x200 und so schließt sich der Kreis

robbitop
2026-01-21, 08:41:25
https://youtu.be/g05Fs3I1qkg

Vergleich der ganzen Upscaler die es bis jetzt so gab.
Sehe gutes Video :up:
Ich finde es gut, weil es für die Upscaler mit einer geringen input resolution eine Herausforderung darstellt - also versucht, die Spreu vom Weizen zu trennen. Und das ist schon erstaunlich was sich da getan hat. Bei DLSS aber auch bei FSR und auch ein guter showcase um die XMX Version von XESS mal zu sehen. Und es zeigt auch die disocclusion Artefakte um die Charaktere, die aufkrawall IIRC mehrfach kritisiert hat bei Preset K. Und es ist ein showcase für preset L (was halt für besonders niedrige input resolutions gemacht wurde).
Schade, dass Preset E als bestes CNN Modell nicht gezeigt wurde. Da hätte man IMO gern nochmal alle Modelle testen können.

edit: Gemini 3 Pro sagt KCD2 DLSS 3 modell ist das E Modell. OK das erklärt auch warum das ziemlich gut abschneidet.

bald sind wir wieder bei 320x200 und so schließt sich der Kreis
Niedrige Inputresolutions sind halt ein Stresstest für Upscaler. Da zeigen sich die Differenzen eben besonders. Mit zunehmender inputresolution werden die Differenzen kleiner. Ein bisschen so wie CPU und GPU limits. Testet man eine GPU, stellt man sicher, dass man im GPU limit ist um zu zeigen wie schnell sie relativ zu anderen ist. Das gliche für eine CPU. So ist es dann auch für einen upscaler. Zumindest für den relativen Vergleich der capability des upscalers sebst. :)

aufkrawall
2026-01-21, 08:49:10
Auch ganz nett, dass XeSS XMX hier weniger rauscht/aliast als DP4a. Das war bei dem DF-Test so damals nicht ersichtlich. Da würd ich mir echt auf keinen Fall ein Notebook mit AMD-GPU zulegen, wenn Gaming eine Priorität ist.

robbitop
2026-01-21, 08:57:08
Auch ganz nett, dass XeSS XMX hier weniger rauscht/aliast als DP4a. Das war bei dem DF-Test so damals nicht ersichtlich. Da würd ich mir echt auf keinen Fall ein Notebook mit AMD-GPU zulegen, wenn Gaming eine Priorität ist.
Wenn es RDNA4 oder besser ist, ist das sicherlich schon brauchbar. Aber in den Notebooks gammelt RDNA3.x zumeist rum (APUs gibt es ja noch nicht neuer und wirkliche mobile dGPUs von AMD sind auch eine Seltenheit). Insofern würde ich das so unterschreiben.

Man muss schon sagen, dass Intel sich mehr und mehr da ordentlich entwickelt. Insbesondere wenn man bedenkt wie stark gedrosselt die Arc Abteilung ist und dass man erst vor ein paar Jahren alles ge-rebootet hat.
Man hat einen ordentlichen Upscaler (seit Anfang an NN und NN beschleunigt), mittlerweile auch ordentliches FG und auch starke RT HW. Und jetzt will man auch precompiled shader liefern :O. Ab PTL kann es sich wirklich sehen lassen in jeglicher Hinsicht. Mal schauen ob AMD mal wieder aufwacht. AI, AI, AI, AI...:rolleyes:

The_Invisible
2026-01-21, 09:20:13
bald sind wir wieder bei 320x200 und so schließt sich der Kreis

Was willst mit solchen HD Auflösungen, 110p upscaled ;)

https://youtube.com/shorts/mQOTPXbMODI?si=IHv42TdBE-m-84EO

Lurtz
2026-01-21, 09:54:42
Ich "muss" Stalker 2 ja gerade mit Preset E spielen. Finde das immer noch ziemlich gut. Klar, die Unschärfe ist schade, aber sonst macht das einen sehr guten Job. Gibt aber einzelne Elemente wie Gitter, die immer wieder Moires erzeugen, das ist eigentlich das stärkste Downgrade gegenüber K/M.

Stalker 2 insbesondere die Vegetation ist aber auch ziemlicher Worst Case-Content für Upscaler.

Wuge
2026-01-21, 10:33:19
Sehr cooles Video! In DCS World, DLSS Performance sieht K besser aus als M. Bei 10% besserer Performance. Aber in beiden Fällen ein deutlicher Qualitätssprung von DLSS3.

robbitop
2026-01-21, 10:52:29
Was mir noch aufgefallen ist: Leider scheint er keinen Optiscaler einzusetzen (er hat alles per NVApp eingestellt). Entsprechend kein Echtzeitwechsel der Presets und keine Verifikation ob die eingestellte Inputresolution passt (was er im letzten 1080p Segment selbst etwas anzweifelt). Und er hat auch kein Framecap gesetzt - da alle upscaler temporal arbeiten wird der BQ Vergleich mit unterschiedlichen FPS schnell unsauber.

Ein bisschen mehr Sorgfalt hätte schon noch gut getan. Aber trotzdem grundsätzlich interessant. :)

Neosix
2026-01-21, 10:57:46
Und er hatte bei DLSS 4.0 vs DLSS 4.0 per override mehr artefakte, als ob die lösung die motion vektoren nicht richtig abgreift. hab ich das richtig verstanden? bzw kommt sowas öffter vor? Das würde ja die methode dlss durch treiber zu überschreiben stark nerven wenn man nicht weiß ob das ergebniss dann 100% sauber ist vs die implementierung im spiel?

Relex
2026-01-21, 11:03:56
Das ist ganz einfach erklärt. Das Spiel nutzt standardmäßig Preset J, welches temporal instabiler, ist dafür aber auch schärfer ist und weniger Ghosting zeigt.

Per Override setzt er Preset K, was dann in besonders niedrigen Auflösungen auch stärker zu ghosting neigt.

Ne, das scheint schon alles richtig zu sein. Die enorme Qualität von Preset L kann ich auch bestätigen. Hab mir das jetzt auch nochmal in 720p mit dem Ultra Performance Modus angeschaut. Es ist einfach nur krank wie stabil und scharf Preset L da noch bleibt.

Ganz allgemein wischt Preset L im UP Modus auch den Boden mit DLSS3 im Quality Mode (Preset E) auf.

Einzig bei den Baumkronen in KCD2 ist DLSS3 Q stabiler, aber auch nur wegen dem starken Blur den es im vergleich erzeugt.
Schaut man sich das Gras und die Büsche an oder die Geometrie der Häuser sowie die Texturen ist Preset L im Ultra Performance Modus nicht nur besser geglättet sondern auch vielfach schärfer und klarer in bewegung, wohingegen bei DLSS 3 im Quality Mode alles in einer art Motion Blur verschwimmt, wie man es eben von TAA auch kennt.

Preset L ist bei niedrigen Auflösungen wirklich wie schwarze Magie.


EDIT: Hier der Beweis, dass der Override problemlos funktioniert. Einfach in der App Preset L und den Ultra Performance Modus auswählen. Klappt direkt ohne weitere hacks.
https://i.ibb.co/SwKmXZnt/Screenshot-2026-01-21-114831.png (https://ibb.co/SwKmXZnt)

Gast
2026-01-21, 11:51:15
Da würd ich mir echt auf keinen Fall ein Notebook mit AMD-GPU zulegen, wenn Gaming eine Priorität ist.

Deshalb hab ich mir einen MSI Claw zugelegt, der Unterschied zu FSR3.x ist selbst am Handheld Screen ziemlich offensichtlich, und XeSS kostet auf AMD IGPs auch ordentlich Performance.

Gast
2026-01-21, 11:53:53
Schade, dass Preset E als bestes CNN Modell nicht gezeigt wurde. Da hätte man IMO gern nochmal alle Modelle testen können.



Wenn man sieht wie gut der Treiber-Override in dem Spiel funktioniert glaube ich haben wir nichts versäumt.

Lurtz
2026-01-21, 14:04:18
Wieso flimmern L und M eigentlich so stark bei Raytracing?

https://youtu.be/sTaqPIHRFsU?t=567

Bei PT ist es ja egal, da ergibt eh nur RR Sinn.

Gast
2026-01-21, 14:18:35
Wieso flimmern L und M eigentlich so stark bei Raytracing?


Wahrscheinlich dadurch dass man jetzt im Linearen Space arbeitet, der selbe Effekt der jetzt auch Specular Highlights mehr betont.


Bei PT ist es ja egal, da ergibt eh nur RR Sinn.

Seh ich auch so, IMO ist 4.5 in erster Linie sowas wie das RR-Modell fürs reine Upscaling. Auch die Performancecharakteristik von M/L ist ja sehr ähnlich zu RR.

dildo4u
2026-01-21, 14:22:10
Die Artefakte fallen mher auf da jedes Spiel Überschärft ist egal welche Engine.
Kaum ein Entwickler hat sein Spiel für DLSS4 schärfe angepasst und keiner für 4.5.

aufkrawall
2026-01-21, 14:28:34
Wird wohl weniger am Sharpen, sondern eher an RT-Artefakten wie Boilerplate liegen. Kann man ohne RR halt nicht ohne massiv mehr Artefakte an anderer Stelle wegfiltern.

Relex
2026-01-21, 14:28:40
Wieso flimmern L und M eigentlich so stark bei Raytracing?

https://youtu.be/sTaqPIHRFsU?t=567

Bei PT ist es ja egal, da ergibt eh nur RR Sinn.

Weil das Denoising des Spiels unzureichend ist und die alten verfahren das übrige flimmern einfach nur durch ghosting und blur verschmiert haben.

M und L holen deutlich mehr Details raus, natürlich dann auch mehr RT noise. Wie sollte es auch anders sein?

Das dürfte aber durch aggressiveres Denoising kompensierbar sein. Der Denoiser muss wahrscheinlich auch nicht unbedingt besser werden, sondern einfach nur agressiver eingestellt werden. Da DLSS mehr Details rausholt sollte das bild trotz stärkerem denoising nicht viel unschärfer werden.

robbitop
2026-01-21, 14:33:26
Gerade mit RT reflections finde ich wird upsampling ohne RR (was ja mehr ist als nur ein NN denoiser) schnell ziemlich madig. Sollte IMO mit RT in Spielen Standard sein.

dildo4u
2026-01-21, 14:33:48
Kein Plan ob das bekannt ist aber ist RR noch Stand DLSS3.7 oder gab es ein Update für 4.0?
Das könnte erklären warum der Schärfe Unterschied so massiv ist wenn man RR abschaltet.

Argo Zero
2026-01-21, 14:36:16
Ich finde gerade die Verbesserungen beim Ultra Performance Mode beeindruckend. Vor nicht allzu langer Zeit habe ich noch die Nase über den UP Mode gerümpft, jetzt würde ich sagen dass 720->4K auf einer 5070 vielleicht sogar Sinn ergibt. Irgendwie komplett irre dass man mit 1->9 Pixel so eine (relative) Stabilität bekommt :eek:

Ultra Performance mit Model L könnte vielleicht auch 5K und 6K Monitore viable machen wenn der P-Mode mal nicht reicht.

5K UP: 960p -> 2880p

6K UP: 1152p -> 3456p

Also ja... ich muss Screenshots machen und zwischen Balanced und Ultra Performance hin und her switchen und sehr genau hin schauen um Unterschiede zu sehen.
Bei nativ vs. UP sehe ich fast gar keinen Unterschied.

Im Grunde schaut es für mich so aus: UP ist quasi nativ und Balanced / Quality ist besser als nativ.

Me ist beeindruckt. Damit sehe ich keine Notwendigkeit mehr mit meiner 32" 4k Möhre im "27 Zoll Modus" zu zocken mit geringerer Auflösung.

Mehr Leistung für lau. nVidia ist mir zwar immer noch nit sympathisch aber das ist nice.

robbitop
2026-01-21, 14:49:34
Kein Plan ob das bekannt ist aber ist RR noch Stand DLSS3.7 oder gab es ein Update für 4.0?
Das könnte erklären warum der Schärfe Unterschied so massiv ist wenn man RR abschaltet.
Es gab für RR auch ein Transformer upgrade letztes Jahr. Model D und E. Gebrandet mit DLSS-RR 4.0 soweit ich weiß.

basix
2026-01-21, 15:33:26
Me ist beeindruckt. Damit sehe ich keine Notwendigkeit mehr mit meiner 32" 4k Möhre im "27 Zoll Modus" zu zocken mit geringerer Auflösung.

Seit DLSS 4 sehe ich eh keinen wesentlichen Grund mehr etwas anderes wie 4K zu kaufen (ausserhalb der höheren Monitorpreise). DLSS 4 Performance ist bereits sehr gut (Rekonstruktion, Bildschärfe) und eigentlich alle 60er Karten oder höher stemmen 1080p Renderauflösung (ausserhalb von PT). Man sollte halt einfach 8GB Karten meiden. Mit DLSS 4.5 ist auch UP oftmals noch gut brauchbar. 4K bringt generell noch ein paar Qualitätsgewinne gegenüber 1440p mit sich (z.B. Texturen) und 4K Medien werden auch immer verbreiteter (YT, Netflix, ...).

Wenn man sich achtet, sieht man immer noch Qualitäts-Unterschiede zwischen z.B. P und Q oder gar DLAA aber während dem Spielen fallen die meisten Unterschiede nur selten störend auf. Bei mir ist Default DLSS 4.5-P eingestellt. Manche Spiele nutze ich mit B oder Q, wenn die Framerate bereits ausreichend ist. Aber das wird immer seltener. Bei DLSS 2 und DLSS 3 hat mich jeweils die Unschärfe gestört, welche mit abnehmender Renderauflösung immer schlimmer wurde. Das ist seit DLSS 4 aber faktisch kein Thema mehr. DLSS 4.5 legt da nochmals eine Schippe drauf (und ja, ist nun oftmals überschärft wenn man die Schärfe nicht zurückregelt - in-game oder CAS via Reshade)

robbitop
2026-01-21, 15:39:56
Und mittlerweile sind 4k240 OLEDs echt massiv günstiger geworden. Gab neulich ein 32er für 470€. (war allerdings ein deal)

Gast
2026-01-21, 16:38:28
Wieso flimmern L und M eigentlich so stark bei Raytracing?

https://youtu.be/sTaqPIHRFsU?t=567

Bei PT ist es ja egal, da ergibt eh nur RR Sinn.

Genau was ich vorher sagte, Preset "K" ist am besten wenn man auf optimaleres AA und Filterung wert legt, gibt es wenig Grund auf die neueren Modelle zu wechseln, sind jedoch als Option durchaus zu gebrauchen um Edge-Case Problemen zu begegnen.

Lurtz
2026-01-21, 17:17:05
Wie können die Denoiser der Engines besser werden? Sollte von Epic nicht auch ein Denoiser auf Basis von Machine Learning kommen?

aufkrawall
2026-01-21, 17:22:02
ML hatten sie nicht gesagt, nur neu/experimentell. Würd mir da keine Hoffnungen machen, bis jemand in Vorab-Branches auf GitHub igendwas findet.
Alles Müll außer RR. Wobei M zigmal besser mit VSM funktioniert als K, und semi-glossy sah auch schon mit K/SR E furchtbar aus. Zumindest mein Eindruck aus Fortnite und Talos.

Lurtz
2026-01-21, 20:44:09
Ist ja bitter. Kann doch nicht sein dass eine so essenzielle Komponente für Raytracing nur in einer handvoll Spiele mit einem IHV eine Qualitätsklasse besser läuft.

MAX|HASS
2026-01-21, 22:30:52
Könnte bitte nochmal jemand verlinken, wofür jetzt ein preset gedacht ist? Bisher lasse ich einfach immer app-gesteuert an, was läuft denn dann eigentlich? Vermutlich K und da installierte Spiele meist noch eine 4er dlss-dll drin haben, ist nichts "neues" aktiv?

Und was mich noch interessiert: ist K in 4.5 jetzt immer forderner für die Karte (hier 5070ti) als in 4er Iteration? Sind L und M generell nur für perf.-Modi interessant? Hatte gestern ein Video gesehen, da lagen diese beiden fps-mäßig noch hinter dem alten 4er K? Kann doch nicht sein.

Darkman.X
2026-01-21, 23:24:37
App-gesteuert = Der Entwickler legt fest. Ich weiß aber auch nicht, welches Preset genommen wird, wenn bei einem alten Spiel noch A, B, C oder D eingestellt ist. Vielleicht E? Oder K? Diese alten Modelle (A bis D) sind mittlerweile aus den DLSS-Dateien rausgeflogen.

K ist, soweit ich weiß, in 4.0 und 4.5 gleich fordernd. Das Neue an 4.5 ist L und M. Und diese Presets kosten mehr Leistung. Willst du es hübscher, dann muss du mehr FPS opfern.

Ja, wirkt wie ein Widerspruch, weil es bei DLSS ja ursprünglich darum ging, mehr Performance heraus zu holen. Aber wer nicht unter einem Stein lebt, weiß, dass man sich mit DLSS auch ein paar Nachteile holt. Und um diese zu minimieren/beseitigen, benötigt es mehr Leistung. Dafür kann man im Gegenzug oftmals die Qualitätseinstellung herunterstellen. Ein "Performance" sieht mit K/L/M heutzutage wohl so gut aus wie ein "Quality" von früheren DLSS-Versionen.

(Man möge mich korrigieren, wenn ich es falsch wiedergegeben habe.)

MAX|HASS
2026-01-21, 23:35:33
Danke erstmal, ich muß wohl ein Spiel zwei- oder dreimal laden, um Unterschiede zu erkennen.

IceKillFX57
2026-01-22, 11:47:55
Dachte wenn man K nimmt, dann von 4.5 auf 4.0 geschaltet wird?

Lurtz
2026-01-22, 12:17:37
ReuL0ei39vE

Disconnected
2026-01-22, 12:21:16
ReuL0ei39vE

Im Prinzip fixt es alte Probleme, bringt aber neue hinzu. Das ganze hängt dann auch noch ab vom Spiel und welche Art von Artefakten einen persönlich weniger stören und ob es den Leistungseinbruch wert ist. Da kann man ganze Wikis damit füllen.

Lurtz
2026-01-22, 12:35:19
Am Ende empfiehlt auch er M für die beste Bildqualität, insbesondere im Performance-Mode.

Das Fazit, dass K universell besser war, kommt immer von Leuten, die die Schwächen von K nicht so hoch gehängt haben. Finds ziemlich wild zu behaupten, K hätte man einfach immer aktiviert, weils keine großen Schwächen gehabt hätte. Aber er geht ja auch zB nicht dediziert auf Volumetrics ein, die mit K quasi immer kaputt waren...

Warum man die Sache mit der Sharpness jetzt an DLSS aufhängt statt an den Spielen ist auch so eine Sache. Spiele sollten einfach kein nicht-deaktivierbares grottiges Sharpen haben, das rächt sich jetzt.
Den Sharpness-Filter zu DLSS 2-Zeiten zu kritisieren war richtig und wichtig, aber hier verwechselt man jetzt irgendwie Ursache und Wirkung.

Bin ich froh, dass es den Thread hier gibt, in den Kommentaren ist auch schon wieder alles voller FUD :ugly:

Disconnected
2026-01-22, 13:06:58
Ich bin froh, mal Footage aus anderen Spielen zu sehen, nicht nur Cyberpunk (wo eh zu viel gleichzeitig passiert, auf das ich alles achten könnte). The Last of Us war ein gutes Beispiel. Mit M hat er die Haare so schön, aber der gegenüber K flimmernde Zaun wird mit keinem Wort erwähnt? Ich weiß ja nicht, wie Ihr 3rd Person Spiele spielt, aber ich achte da immer primär auf die Umgebung statt auf die Figur: wo muss ich hin? Wo sind meine Gegner? Das Mafia Beispiel war auch interessant: diesen komischen Halo um den Angler am Pier findet man an beiden Presets. Köstlich ist auch Horizon Whatever Remastered: die Unterschiede im Gras muss man mit der Lupe suchen, aber die aufploppenden Schatten in der Ferne fallen *niemandem* auf? Und ja ich, weiß dass das in diesem spezifischen Fall nichts mit DLSS zu tun hat. Was ist daran bitte "remastered"? Bei Shadow of the Tomb Raider übrigens der gleiche Mist.

Lurtz
2026-01-22, 13:14:09
Man kann das halt beliebig komplex gestalten. Und man sieht schon bei den Reviewern, dass sie alle Wert auf was anderes legen. Oder die Spieleauswahl... Die Sony-Titel haben praktisch alle forciertes Sharpen.

Das deutlich bessere "Tracking" sich bewegender entfernter Objekte habe ich auch in noch keinem Review erwähnt gesehen.

Disconnected
2026-01-22, 14:03:04
Worin sich aber alle einig waren, ist bessere Bildqualtät bei den aggressiveren Upscaling Modi am besten noch in Kombination mit niedrigeren Zielauflösungen. Die ganze "recommended" Einstellung von NVidia ist damit gar nicht mal so verkehrt.

dildo4u
2026-01-22, 16:13:40
Mal eine Frage wo sind die neuen GPU besser dank FP8 ich habe genau den Performance Drop wie die 3090 in dem Hardware Unboxed Video mit meiner 4070S und beide haben Vergleichbare FP32 Rechenleistung.

Exxtreme
2026-01-22, 16:25:57
DLSS 4.5 benutzt viel mehr FP8 so wie es ausschaut. Und GPUs ohne spezielle FP8-Rechenwerke verlieren mehr Leistung. Man kann zwar FP8-Aufgaben auch in FP16- und FP32-Registern laufen lassen. Aber die fressen viel mehr Fläche und deshalb hat man nicht so viele auf dem Chip.

Relex
2026-01-22, 18:17:07
Mal eine Frage wo sind die neuen GPU besser dank FP8 ich habe genau den Performance Drop wie die 3090 in dem Hardware Unboxed Video mit meiner 4070S und beide haben Vergleichbare FP32 Rechenleistung.


Hast du bei gleicher Auflösung und Framerate verglichen? Das wäre extrem wichtig.

Wenn du den Performancedrop z.B. bei höheren Frameraten messen willst, dann wird der höher ausfallen als bei niedrigen Frameraten.

Das Thema hatten wir doch schon oft angesprochen. Das ergibt sich aus der Zeit die DLSS zur Berechnung braucht.

Je höher deine Framerate und je kleiner die Frametime, desto stärker wirken sich 1-2 Millisekunden extra Rechenzeit durch DLSS4.5 aus. Je niedriger die Framerate und je länger die Frametime, desto geringer sind die Auswirkungen.

Kann also gut sein, dass du bei 200 FPS 15% performance verlierst und bei 100 FPS nur noch 7% oder so... 2 ms extra Rechenzeit sind bei 200 FPS sehr viel Holz, bei 100 oder 50 FPS aber nur recht wenig.


Hier wurde ja auch mal verlinkt wie viel Renderzeit die verschiedenen Presets auf verschiedenen GPUs bei verschiedenen Auflösungen brauchen. Das ist genau der Punkt.
Nvidia gibt absichtlich keine Prozentwerte für die höheren kosten an sondern nur Millisekunden, weil sich die Prozentwerte abhängig von Auflösung und Framerate stark verschieben würden.

TheAntitheist
2026-01-22, 18:32:10
Ich bin froh, mal Footage aus anderen Spielen zu sehen, nicht nur Cyberpunk (wo eh zu viel gleichzeitig passiert, auf das ich alles achten könnte). The Last of Us war ein gutes Beispiel. Mit M hat er die Haare so schön, aber der gegenüber K flimmernde Zaun wird mit keinem Wort erwähnt? Ich weiß ja nicht, wie Ihr 3rd Person Spiele spielt, aber ich achte da immer primär auf die Umgebung statt auf die Figur: wo muss ich hin? Wo sind meine Gegner? Das Mafia Beispiel war auch interessant: diesen komischen Halo um den Angler am Pier findet man an beiden Presets. Köstlich ist auch Horizon Whatever Remastered: die Unterschiede im Gras muss man mit der Lupe suchen, aber die aufploppenden Schatten in der Ferne fallen *niemandem* auf? Und ja ich, weiß dass das in diesem spezifischen Fall nichts mit DLSS zu tun hat. Was ist daran bitte "remastered"? Bei Shadow of the Tomb Raider übrigens der gleiche Mist.
horizon 1 wurde auf das grafik niveau von teil 2 gebracht, daher remastered. natürlich ist das remastered, aber kein remake... guck mal an was bei filmen remastered bedeutet.

gnomi
2026-01-23, 10:54:18
Sehe es wie in dem Video.
DLSS 4.5 ist schon besser. Die hohen Kosten oben raus sind nicht tragisch, denn Auflösung wird unbedeutender.
Gerade 4K mit Performance ist für mich eine Option am kleinen 28 Zoll 4K Display, um noch etwas länger mit der 4080S auszukommen.
Die 3080 TI läuft nur noch als Backup im Zweitrechner.
Hier würde ich schon etwas aufpassen müssen wegen der allgemeinen Kosten in neuen Spielen.
Die Karte ist einfach Software technisch veraltet/limitiert.
Obwohl der Performance Sprung Ampere gegenüber Turing auf dem Papier besser war, ist er es in der Realität/Anwendung nicht mehr.
Bei UE 5 merkt man das dann extrem.
Ohne FG OOTB und mit diesen Upscaling Kosten, hat man eher das klassische 40-60 fps Gefühl Mitte 10er Jahre mit GSync, während man auf der 4080S das selbe Spiel mit ähnlicher Latenz, aber angenehmerer/klarer Grafik und Geschwindigkeit fürs Auge bekommt. Bereits 80-120 fps funktionieren irre gut.
Auf der Konsole bei Immortals passt das auch schon, aber das Upscaling ist halt übelst alt.
RTX 4000er Serie aufwärts ist somit noch konkurrenzlos.
Man müsste nvidia bearbeiten, 2 FG überall zu ermöglichen, wenn sie schon 3060 weiter verkaufen.
Hoffe, AMD prescht mit guten Midrange Karten mit FG und FSR 4 vor.
Wenn es schlecht läuft, verteuern sich aber eher Midrange und neuen Konsolen/Steam Maschine Richtung 1k Euro. Das wäre das schlechtere Szenario. Diese Technologien sind im Grunde genommen zu gut. :freak:

dildo4u
2026-01-23, 16:23:52
DLSS4.5 hat Probleme mit Raytracing vergleichbar mit Sonys PSSR.


x8CcD13eS6I

Lurtz
2026-01-23, 16:33:47
Wenn Super Resolution mit Raytracing schlechter wird brauchen wir Ray Reconstruction in mehr Titeln :P

Relex
2026-01-23, 16:36:11
Nach dem Silent Hill 2 Vergleich, der mit Preset K perfekt stabil ist und mit Preset M flimmert würde ich auch sagen, da muss Nvidia unbedingt nachbessern.

Bisher hatte ich nur Fälle wo es mit Preset K auch flimmert und mit Preset M nur stärker. Für mich absolut logisch, wenn es schärfer ist und weniger ghostet. Da ist das denoising einfach in beiden Fällen unzureichend.

Aber beim Silent Hill 2 Vergleich mit dem Baum in der Pfütze ist das ja nicht der Fall. Da scheint mit Preset M definitiv was falsch zu laufen. Stellt sich die Frage wie Preset L sich da geschlagen hätte.

Trotzdem sehr gutes Video. Vor allem adressiert er auch das Thema bzgl. Schärfe incl. Supersampling vergleich, der wieder zeigt, dass es sehr weit von "zu scharf" entfernt ist und die Scharfzeichner in den Spielen das Problem sind.

robbitop
2026-01-23, 18:33:16
DLSS4.5 hat Probleme mit Raytracing vergleichbar mit Sonys PSSR.


https://youtu.be/x8CcD13eS6I

Normales upsampling kann mit den rays nicht interagieren. Völlig klar, dass das nichts bringt. Dafür braucht es DLSS-RR. Nur dann kann mit den rays interagiert werden. Ist halt mehr als nur ein denoiser. Leider wird es nicht oft genug eingebaut.

Raff
2026-01-23, 21:23:35
Mal eine Frage wo sind die neuen GPU besser dank FP8 ich habe genau den Performance Drop wie die 3090 in dem Hardware Unboxed Video mit meiner 4070S und beide haben Vergleichbare FP32 Rechenleistung.

Schau dir mal diese umfangreiche Messreihe an, da kommt das ziemlich klar heraus: https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-45-aktivieren-Test-Performance-Spiele-1490771/4/

Turing, Ampere, Lovelace und Blackwell im Test - und die beiden älteren Herrschaften brechen bei Transformer 2.0 deutlicher ein.

MfG
Raff

ChaosTM
2026-01-23, 21:55:04
Das PC Games Video hab ich noch nicht gesehen, aber ein gewisses über-schärfen ist vorhanden (John L.) und ich hasse das. Triff nicht immer zu aber wenn, dann ist es ungut.
4.5 ist auch nur eine Zwischenstufe. Bis 5.0 sollte das gefixt sein.

Relex
2026-01-23, 22:07:43
Was will man da fixen? Dass Entwickler ihre erzwungenen Scharfzeichner raus patchen?

ChaosTM
2026-01-23, 22:23:16
Den Entwickler sagen, dass sie keine Scharfzeichner mehr brauchen? Its Nvidia..

Wie sie das machen ist mir egal.
Mir fiel schon die unnötige Überschärfung bei den CES Demos auf. Die glitzernden Lichter haben profitiert, aber der Boden bei Wukong nicht..

basix
2026-01-24, 10:49:50
Einen Schärferegler in den Game-Optionen habe ich schon gerne. Am liebsten auf CAS Basis. Dann muss ich mich nicht um Reshade bemühen ;)

Aber eben, es sollte in den Optionen anpassbar sein.

Relex
2026-01-24, 11:13:59
Ein schärferegler kann ja zumindest etwas nachhelfen, wenn die Sehkraft leidet.

Da leiden oft nicht nur die Details sondern eben auch der Kontrast. Scharfzeichner verstärken den Kontrast an Kanten und können dadurch eine Sehschwäche zumindest teilweise kompensieren.

Aber das sollte eine rein optionale accessibility funktion sein. Nichts was man standardmäßig aktiviert oder sogar erzwingt.

basix
2026-01-24, 11:38:22
Was hat Bildschärfe mit Sehkraft zu tun? :D

Wenn ich nicht mehr gut sehe, bringt mir zusätzliche Schärfe nicht so viel.

Relex
2026-01-24, 11:40:07
Warum stellst du die Frage?

Schlechte Sehkraft = unscharfes Bild + schlechtere Kontrastempfindlichkeit -> Scharfzeichner kompensiert das teilweise.

Ich spreche hier natürlich nur von einer leichten Sehschwäche und keinem blinden Maulwurf der ohne Brille gar nichts mehr erkennen würde.
Die meisten Menschen haben zumindest eine minimale sehschwäche oder hornhautverkrümmung, wo ein scharfzeichner bereits deutlich helfen kann.

Was denkst du denn, warum so viele Leute die Scharfzeichner hoch drehen?

basix
2026-01-24, 12:04:20
Kann sein, dass das bei leichter Sehschwäche was hilft.

Ich würde aber behaupten:
Umso besser die Sehkraft, desto mehr sieht man die Unterschiede von einem Scharfzeichner. Umso schlechter man sieht, desto weniger fällt es auf. Du sagst ja selbst, dass die Kontrastempfindlichkeit bei guter Sehkraft besser ist.

dildo4u
2026-01-24, 12:49:31
4.5 in Fortnite massive Probleme mit der Vegetation das ist ohne Hardware Lumen

Die Auflösung im Menü ignorieren das ist 4k mit Performance DLSS.

Model M

YBmZGc6-VRY

Model K erzwungen

SmEwDMrR8_Y

aufkrawall
2026-01-24, 12:59:02
K getestet? Epic effect details? HWRT? epic Lumen Setting? Der Denoiser war schon immer ziemlich buggy in dem Spiel bei Gräsern im Schatten.
War jedenfalls vor einigen Wochen bei mir auf den Blitz-Maps garantiert nicht so.

x-force
2026-01-24, 13:55:48
Ein schärferegler kann ja zumindest etwas nachhelfen, wenn die Sehkraft leidet.

lieber nicht zum augenarzt, der könnte das problem ja an der wurzel lösen ;D

Relex
2026-01-24, 14:13:21
Ist häufig völlig unnötig. Wie gesagt, wenns nur ne minimale schwäche ist, dann wirst du dafür keine Brille oder Augenkorrektur brauchen. Das trifft auf den Großteil der Menschehit zu. Nur weil viele keine Brille brauchen heißt das noch lange nicht, dass sie perfekt sehen. Perfekt sehen ist eh relativ. Und genau da hilft ein Scharfzeichner. Für viele sieht ein Bild mit scharfzeicher dann einfach besser und klarer aus.

Leute die hingegen sehr hohe Sehkraft haben oder mit einer Brille sehr gut sehen, würden den Scharfzeichner als störend und "zu viel" empfinden.

Aber egal, wir kommen vom Thema ab.

x-force
2026-01-24, 15:35:41
Perfekt sehen ist eh relativ. Und genau da hilft ein Scharfzeichner. Für viele sieht ein Bild mit scharfzeicher dann einfach besser und klarer aus.

Leute die hingegen sehr hohe Sehkraft haben oder mit einer Brille sehr gut sehen, würden den Scharfzeichner als störend und "zu viel" empfinden.

perfekt ist nicht relativ, es gibt ein biologisches max bei einem visus von etwa 2.
ziel sollte imo sein die unterste reihe der sehprobentafeln lesen zu können.

ich wage zu behaupten:

wer auf monitordistanz vom einsatz eines schärfereglers profitiert, profitiert im alltag von einer brille und sollte zum augenarzt.

Aber egal, wir kommen vom Thema ab.

ich denke nicht.
wir haben doch identifiziert, dass sharpening zu ringing und damit zu problem mit dlss führt.

nach meiner argumentation ist sharpening für leute mit anständiger sehkraft überflüssig.

Gast
2026-01-24, 15:58:30
Bin Kurzsichtigkeit und habe -0.50 bei Hornhautverkrümmug und Sphäre. Für viele ist das ein Witz und wenig.. fürs zocken ist es aber schon zuviel bei 2 Meter Abstand. Da kann ich die Texte nicht mehr richtig Lesen und sehe leicht verschwommen ohne Brille. Millionen habe eine Sehschwäche die sie garnicht bemerken weil sie keine Gamer sind.

00-Schneider
2026-01-25, 11:20:15
Nach dem Silent Hill 2 Vergleich, der mit Preset K perfekt stabil ist und mit Preset M flimmert würde ich auch sagen, da muss Nvidia unbedingt nachbessern.

Bisher hatte ich nur Fälle wo es mit Preset K auch flimmert und mit Preset M nur stärker. Für mich absolut logisch, wenn es schärfer ist und weniger ghostet. Da ist das denoising einfach in beiden Fällen unzureichend.


Da in dem Video nur mit Performance getestet wurde: Flimmert das auch so stark mit Quality oder DLAA?

dildo4u
2026-01-25, 12:10:51
Nvidia sieht vor das du weiterhin Modell K für Qualität nutzt, daher testet jeder nur Performance.

Modell M erzeugt noch zu viel Artefakte das musste vermutlich zur CES fertig sein.

00-Schneider
2026-01-25, 13:43:37
Nvidia sieht vor das du weiterhin Modell K für Qualität nutzt, daher testet jeder nur Performance.

Modell M erzeugt noch zu viel Artefakte das musste vermutlich zur CES fertig sein.


Was sollen diese hingerotzten Posts von dir? Hast du meine Frage überhaupt verstanden?

dildo4u
2026-01-25, 13:54:48
Ja Modell M schärft das Bild was zum Flimmern führt, das würde nur schlimmer werden mit einer höheren Basis Auflösung.
Aus diesem Grund erzwingt Nvidia das alte Modell für den Qualitäts Modus.

Relex
2026-01-25, 13:58:39
Ich hab das Spiel nicht, deshalb kann ichs nicht testen. Würde aber stark davon ausgehen, dass die Auflösung da kaum einfluss macht. Wenn ein Algorithmus fehler macht, dann macht er die bei jeder Auflösung. Nur minimal reduziert, wenn die Auflösung steigt.

Quality vs Performance ist ja auch nur 67% vs 50% skalierung. Das bringt nichts. Selbst DLAA hat ja viel zu wenige Pixel und ist ja erstmal komplett ungeglättet. Sprich da muss DLSS genauso seinen Dienst verrichten wie bei den niedrigeren Einstellungen, folglich macht es auch die gleichen Fehler.

Mich würde es schon sehr wundern, wenn mit Quality oder DLAA das geflacker plötzlich weg wäre. Das halte ich für ziemlich ausgeschlossen.


Ansonsten ist es ja logisch, dass man mit dem Performance Modus testet. Man will die Upscaler ja auch ein wenig fordern und die Unterschiede sehen.

Wenn du alle Upscaler bei 90% Skalierung auf ein 16K Bild anwendest wirst eben kaum noch Unterschiede sehen. Quality Mode oder höher in hohen Auflösungen zu testen ist die reinste Zeitverschwendung.


Ja Modell M schärft das Bild was zum Flimmern führt, das würde nur schlimmer werden mit einer höheren Basis Auflösung.
Aus diesem Grund erzwingt Nvidia das alte Modell für den Qualitäts Modus.

Quatsch mit Soße.

dildo4u
2026-01-25, 14:01:52
Performance kommt natürlich noch dazu habe es jetzt abgeschaltet lohnt sich aktuell für meine 4070S nicht denke auch nicht das das in Zukunft schneller wird.

Gast
2026-01-25, 14:02:08
Ja Modell M schärft das Bild was zum Flimmern führt,


Nicht Modell M schärft, es erzeugt noch weniger Unschärfe als K und je nach Spiel ist dann die Standardschärfung zu stark.


das würde nur schlimmer werden mit einer höheren Basis Auflösung.
WTF, wieso sollte das mit mehr Auflösung schlimmer werden?


Aus diesem Grund erzwingt Nvidia das alte Modell für den Qualitäts Modus.
Nvidia erzwingt gar nichts du kannst das neue Modell auch mit DLAA wählen.
Nvidia empfiehlt das neue Modell mit Performance weil hier der Vorteil der Quality/Performance-Ratio am höchsten ist.

dildo4u
2026-01-27, 11:28:54
Es wird kein RR für 4.5 erwartet?
RR nutzt wohl schon ein teures Upsampling Modell und FP8.

https://www.reddit.com/r/hardware/comments/1qllo9m/why_there_is_no_dlss_45_ray_reconstruction_and/

Relex
2026-01-27, 11:56:02
Da RR besonders für Pathtracing relevant ist und die FPS dort eh relativ niedrig sind, wäre es kein Problem, die Compute Kosten von RR weiter zu erhöhen, weil der Impact auf die Framerate geringer ist, wenn die FPS eh schon gering sind. Man könnte also bei 60 FPS locker nochmal 5% performance brauchen, was dann bei 120 oder 150 FPS natürlich schnell mal 10-20% werden könnten. Aber dafür hat man ja Frame Generation. Frame Gen wäre von dem performancehit komplett ausgenommen. Wenn man also 5% kosten bei 60 FPS hat, bleibt es mit Frame generation auch bei 200 FPS bei weiterhin nur 5%.

Diesen "Trick" kann man sich also problemlos zunutze machen.

Dazu kommt, dass Ray Reconstruction in Pathtraced Spielen aktuelle schneller (!) läuft, als z.B. DLSS Preset K.
Preset M läuft sogar deutlich langsamer als RayReconstruction, weil Preset M + der Spieleigene denoiser deutlich mehr Rechenlast erzeugen, als Ray Reconstruction alleine, welches Upscaling und Denoising ersetzt.


Daher ist das Argument für mich nicht ganz schlüssig. Klar wäre es am besten wenn man die Qualität weiter steigern kann ohne mehr Rechenleistung zu brauchen.

Trotzdem wäre es kein großes Problem, RR etwas teurer zu machen, da das bei geringeren FPS und langen Frametimes deutlich weniger ins Gewicht fällt als bei hohen Frameraten, wo 2 ms mehr Renderzeit bereits einen großen Performancehit bedeuten.

Relex
2026-01-27, 12:39:00
T3MjSxysft0


Neuer Vergleich von HW Unboxed.


Langsam kann ich die Vergleiche aber nicht mehr ernst nehmen.
Warum nehmen alle Reviewer ständig so viele Games die durch erzwungene Scharfzeichner ein absolutes schrott Bild erzeugen.

Und dann kreidet man bei Horizon auch noch DLSS4.5 Artefaktbildung an, obwohl der Scharfzeichner im Performance Mode extrem übertrieben ist, selbst mit DLSS3... Was soll der Scheiß?! Warum kapiert das kein Reviewer und warum richten sie die Kritik an Nvidia und nicht an die Spieleentwickler?

Das ist einfach nur unprofessionell, technisch unsauber und irreführend. Zumindest wäre eine Aufklärung darüber das mindeste, so wie es Digital Foundry auch getan hat. Einfach nur die Scharfzeichner so hinzunehmen und dann DLSS4.5 für weniger Blur auch noch zu bestrafen ist lächerlich. Je schärfer ein Bild bereits ist, desto mehr Artefakte erzeugt ein Scharfzeichner nunmal. Das kann absolut jeder mit einem Bildbearbeitungsprogramm nachvollziehen.

x-force
2026-01-27, 15:48:21
Das ist einfach nur unprofessionell, technisch unsauber und irreführend.

ist halt ähnlich stumpf, wie nicht zum augenarzt zu gehen, sondern am schärferegler zu drehen ;)

Gast
2026-01-27, 16:21:48
https://youtu.be/T3MjSxysft0
Neuer Vergleich von HW Unboxed.


Langsam kann ich die Vergleiche aber nicht mehr ernst nehmen.
Warum nehmen alle Reviewer ständig so viele Games die durch erzwungene Scharfzeichner ein absolutes schrott Bild erzeugen.


Bei Computerbase genau das gleiche, beschwert sich über Wasserdarstellung und hat Film Grain, Fringing & Co aktiviert. Sehr anfängerhafte Betrachtungen...

Thunder99
2026-01-27, 19:13:52
Gibt es mittlerweile eine Liste oder kann mir jemand sagen wo DLSS auf quality mit Modell M besser ist als mit K?

Lurtz
2026-01-27, 20:44:32
Es wird kein RR für 4.5 erwartet?
RR nutzt wohl schon ein teures Upsampling Modell und FP8.

https://www.reddit.com/r/hardware/comments/1qllo9m/why_there_is_no_dlss_45_ray_reconstruction_and/
Das sind doch völlig haltlose Spekulationen. Dass RR (insbesondere D und E) bereits ein deutlich größeres Modell verwendet ist seit Release bekannt, dass es asynchron zu SR geupdatet wird, ist auch nichts Neues.

Also kanns genauso gut sein, dass da noch in ein paar Monaten was kommt. Ich bezweifle, dass das nur wegen der Kosten jetzt zwingend stehen bleiben muss.


Und dann kreidet man bei Horizon auch noch DLSS4.5 Artefaktbildung an, obwohl der Scharfzeichner im Performance Mode extrem übertrieben ist, selbst mit DLSS3... Was soll der Scheiß?! Warum kapiert das kein Reviewer und warum richten sie die Kritik an Nvidia und nicht an die Spieleentwickler?

Das ist einfach nur unprofessionell, technisch unsauber und irreführend. Zumindest wäre eine Aufklärung darüber das mindeste, so wie es Digital Foundry auch getan hat. Einfach nur die Scharfzeichner so hinzunehmen und dann DLSS4.5 für weniger Blur auch noch zu bestrafen ist lächerlich. Je schärfer ein Bild bereits ist, desto mehr Artefakte erzeugt ein Scharfzeichner nunmal. Das kann absolut jeder mit einem Bildbearbeitungsprogramm nachvollziehen.
Man kann ja faktisch feststellen, dass einige Spiele mit 4.5 out of the box zu scharf dargestellt werden. Wieso mann dann aber nicht die Ursache klar benennt und hier die Entwickler in die Pflicht nimmt, ist mir rätselhaft.

Das grottige Zwangs-Sharpen bei den Sony-Ports war schon immer völlig bescheuert...

aufkrawall
2026-01-27, 23:20:15
Da helfen einfach nur zwei verschiedene Presets/Modelle für solche Fälle: Ein etwas schärferes und ein etwas softeres. Kann man sich lange drüber aufregen, wird trotzdem ständig Zwangs-Sharpen geben.

Neosix
2026-01-28, 00:39:53
Oder die Entwickler bauen einfach einen funktionierenden Schärferegler in die Spiele von Anfang an ein, dann muss man auch nicht rückwirkend für neue DLSS Versionen was nachpatchen.

aufkrawall
2026-01-28, 00:45:19
Wird nie ansatzweise 100%ig der Fall sein.

Exxtreme
2026-01-28, 01:43:14
Gibt es mittlerweile eine Liste oder kann mir jemand sagen wo DLSS auf quality mit Modell M besser ist als mit K?

Das musst du probieren. L und M sind eher für Performance- und Ultraperformance optimiert. Können aber auch mit Quality besser aussehen als K. J und K sind halt so Alrounder.

Oder die Entwickler bauen einfach einen funktionierenden Schärferegler in die Spiele von Anfang an ein, dann muss man auch nicht rückwirkend für neue DLSS Versionen was nachpatchen.

Kannst knicken. Da wird es immer Leute geben, die sowas nicht gebacken bekommen.

x-force
2026-01-28, 03:23:41
Kannst knicken. Da wird es immer Leute geben, die sowas nicht gebacken bekommen.

wir leben in der eu. man könnte darauf "hoffen" dass sie es einfach verbieten :freak:

crux2005
2026-01-28, 05:40:02
In Robocop: Rogue City ist Preset M/L wegen Lumen nicht zu gebrauchen.

Dorn
2026-01-28, 08:19:39
Also auch bei Baldurs Gate 3 verbraucht M im Qualitäts Mode genau soviel Watt wie Nativ. (60 fps limit)
Kein Wunder das M erst bei Performance angewendet wird.

Eigentlich müsste man noch testen ob M in ausgeglichen die gleiche Bildqualität bietet wie K in Qualität, hier Verbrauchen beide Modelle in etwa genauso viel Watt.
Ich selber kann das nicht mehr testen, da ich eh nicht mit einer Lupe spiele und außer einer etwas besseren Schärfe bei Bewegung keine großen Unterschiede feststelle. Natürlich habe ich nur ein paar Spiele getestet...

SamLombardo
2026-01-28, 08:29:00
Also auch bei Baldurs Gate 3 verbraucht M im Qualitäts Mode genau soviel Watt wie Nativ. (60 fps limit)
Kein Wunder das M erst bei Performance angewendet wird.

Eigentlich müsste man noch testen ob M in ausgeglichen die gleiche Bildqualität bietet wie K in Qualität, hier Verbrauchen beide Modelle in etwa genauso viel Watt. Natürlich habe ich nur ein paar Spiele getestet...
Spiele auch gerade wieder Baldur's Gate 3....4k nativ ist schon noch mal ein anderer Hausnummer beim Stromverbrauch. Gestern zufällig gerade getestet in der Nähe Githyanki Tempels Anfang Akt 2, das kann natürlich woanders möglicherweise abweichen.. Bei mir mit 5090 ist es so DLSS Quality Preset K 250-280 Watt, Preset M 350-380 Watt, nativ DLAA 450 und mehr. Ist natürlich trotzdem übel 100 Watt mehr Verbrauch von K auf M.

Lurtz
2026-01-28, 08:30:10
Da helfen einfach nur zwei verschiedene Presets/Modelle für solche Fälle: Ein etwas schärferes und ein etwas softeres. Kann man sich lange drüber aufregen, wird trotzdem ständig Zwangs-Sharpen geben.
Ich würde gerne widersprechen, aber du hast recht :usad:
In Robocop: Rogue City ist Preset M/L wegen Lumen nicht zu gebrauchen.
Das war aber noch nie wirklich zu gebrauchen. Alle Upscaler/TAA scheitern daran, das rauscht immer wie verrückt.

basix
2026-01-28, 08:32:55
Spiele auch gerade wieder Baldur's Gate 3....4k nativ ist schon noch mal ein anderer Hausnummer beim Stromverbrauch. Gestern zufällig gerade getestet in der Nähe Githyanki Tempels Anfang Akt 2, das kann natürlich woanders möglicherweise abweichen.. Bei mir mit 5090 ist es so DLSS Quality Preset K 250-280 Watt, Preset M 350-380 Watt, nativ DLAA 450 und mehr. Ist natürlich trotzdem übel 100 Watt mehr Verbrauch von K auf M.
Preset M schluckt so viel mehr? Wow. Bei der 4090 sehe ich jetzt keine allzu grossen Unterschiede.

SamLombardo
2026-01-28, 08:38:26
Preset M schluckt so viel mehr? Wow. Bei der 4090 sehe ich jetzt keine allzu grossen Unterschiede.
Echt? Ist ja interessant. Mit der 5090 ist es wie gesagt ein deutlicher Mehrverbrauch:eek:. Vielleicht ist das auch nicht überall gleich, meine Testumgebung war gestern vor dem Haupteingang des Githyanki Tempels hin und her zu laufen.

Dicker Igel
2026-01-28, 09:35:37
Ich muss hier noch mal blauäugig in die Runde fragen, weil mir das mit den Modell-Updates noch nicht richtig bewußt ist: Wenn ich jetzt bspw den reinen 591.86 Treiber ohne NV-App installiere und zum steuern der Modelle den NVI nutze, kommt mit dem Treiber-Update auch das der Modelle, oder muss ich dazu die NV-App auch installieren? Falls letzteres nötig ist: Kann man die App anschließend wieder deinstallieren?

Relex
2026-01-28, 09:42:52
Echt? Ist ja interessant. Mit der 5090 ist es wie gesagt ein deutlicher Mehrverbrauch:eek:. Vielleicht ist das auch nicht überall gleich, meine Testumgebung war gestern vor dem Haupteingang des Githyanki Tempels hin und her zu laufen.


Ist ja logisch, wenn die GPU vorher nicht ausgelastet war. Scheinbar leidet die 5090 genauso wie die 4090 extrem unter Auslastungsproblemen.

Zumindest sollte dann aber Preset M in dem Spiel genauso schnell laufen wie Preset K. Wenn das trotz höherem Verbrauch langsamer läuft, wärs ja richtig verrückt..

basix
2026-01-28, 09:44:01
Echt? Ist ja interessant. Mit der 5090 ist es wie gesagt ein deutlicher Mehrverbrauch:eek:.

Ich muss es mal isoliert testen, so ist es mehr ein Bauchgefühl ;)

SamLombardo
2026-01-28, 09:49:29
Ist ja logisch, wenn die GPU vorher nicht ausgelastet war. Scheinbar leidet die 5090 genauso wie die 4090 extrem unter Auslastungsproblemen.

Zumindest sollte dann aber Preset M in dem Spiel genauso schnell laufen wie Preset K. Wenn das trotz höherem Verbrauch langsamer läuft, wärs ja richtig verrückt..
Ich bin bei beiden Presets im Monitorlimit von 117 fps aber die GPU Auslastung steigt definitiv mit M. Wenn ich das richtig erinnere von ~60 auf 75 so in etwa, müsste aber noch mal genau gucken.

Relex
2026-01-28, 10:07:46
Achso, mit FPS limit ist der Mehrverbrauch logisch. Dass es so viel ist, ist natürlich übel, aber dafür hat die GPU ja auch so eine hohe TDP. Die ist ja längst nicht ausgereizt.

Powerlimit setzen würde wahrscheinlich schon einiges bringen, ggf. ohne Auswirkungen auf die FPS.

Disconnected
2026-01-28, 10:30:41
Ich muss hier noch mal blauäugig in die Runde fragen, weil mir das mit den Modell-Updates noch nicht richtig bewußt ist: Wenn ich jetzt bspw den reinen 591.86 Treiber ohne NV-App installiere und zum steuern der Modelle den NVI nutze, kommt mit dem Treiber-Update auch das der Modelle, oder muss ich dazu die NV-App auch installieren? Falls letzteres nötig ist: Kann man die App anschließend wieder deinstallieren?
Du brauchst die App nicht.

dildo4u
2026-01-28, 10:36:02
Ich sehe ehrlich gesagt nicht warum man das aktuelle RR ersetzen müsste?
Oder übersehen ich was?

SLU5jsKy_XA

SamLombardo
2026-01-28, 10:39:25
Du brauchst die App nicht.
Also wie ist das wenn man die App nicht drauf hat und auch den Inspektor nicht also quasi nur den Treiber: dann wird bei DLSS Qualität automatisch Preset K genommen, bei Performance Preset M und bei Ultra Performance L? Passiert das so alles automatisch?

Relex
2026-01-28, 10:45:02
Ich sehe ehrlich gesagt nicht warum man das aktuelle RR ersetzen müsste?
Oder übersehen ich was?

https://youtu.be/SLU5jsKy_XA


Krass wie es solche Tester immer wieder schaffen die schlechtesten beispiele zu finden.

Du brauchst dich nur mal Tagsüber mit nem Auto in einen schattigen Bereich stellen und du wirst sehen wie das ganze Auto mit einem wabernden, niederfrequenten Rauschen überzogen ist. Und wenn du das mal gesehen hast, dann siehst du das praktisch überall auf sämtlichen Oberflächen.

RR beseitigt das vollständig.

Ich finde Pathtracing ohne RR wirklich völlig unbenutzbar. :D

Dicker Igel
2026-01-28, 10:56:17
Du brauchst die App nicht.
Thx (y)

Also wie ist das wenn man die App nicht drauf hat und auch den Inspektor nicht also quasi nur den Treiber: dann wird bei DLSS Qualität automatisch Preset K genommen, bei Performance Preset M und bei Ultra Performance L? Passiert das so alles automatisch?Joar, halt das, was Du in-game einstellen kannst. Die NV-Systemsteuerung hat da ja imo keinen Einfluss drauf, weil keine entsprechenden Optionen wie in der App anliegen - aber die soll ja wohl eh weg(Zeit wirds).

SamLombardo
2026-01-28, 11:40:20
Thx (y)

Joar, halt das, was Du in-game einstellen kannst. Die NV-Systemsteuerung hat da ja imo keinen Einfluss drauf, weil keine entsprechenden Optionen wie in der App anliegen - aber die soll ja wohl eh weg(Zeit wirds).
Habe es immer noch nicht kapiert:redface: also ingame kann ich ja meist nur DLSS und dann die verschiedenen Stufen, Qualität, Performance usw einstellen. Die Frage ist halt ob der Treiber die verschiedenen Modelle K, M,...dann automatisch zuordnet. Weiß das jemand?

Dicker Igel
2026-01-28, 11:46:07
Ja, das Modell wird dann automatisch gewählt. Daher kann man ja via App, oder Thirdparty wie NVI die Modelle explizit samt Güte der Qualität wählen. Daher macht imo nur Treiber für einen gewissen Anspruch auch keinen Sinn. Ohne App, oder NVI könnte ich bspw in RDR2 kein DLAA nutzen, sondern nur die Modi, die mir RDR2 in-game in den Optionen bietet(PS: in dem Fall kein Ultra Q, das kommt erst mit dem Override).

SamLombardo
2026-01-28, 11:54:26
Ja, das Modell wird dann automatisch gewählt. Daher kann man ja via App, oder Thirdparty wie NVI die Modelle explizit samt Güte der Qualität wählen. Daher macht imo nur Treiber für einen gewissen Anspruch auch keinen Sinn. Ohne App, oder NVI könnte ich bspw in RDR2 kein DLAA nutzen, sondern nur die Modi, die mir RDR2 in-game in den Optionen bietet(PS: in dem Fall kein Ultra Q, das kommt erst mit dem Override).
Danke dir, gut zu wissen! Mit den anspruchsvollen Usern hast du selbstverständlich recht, letztendlich ist diese Automatik aber eine gute Sache, so das auch User die sich nicht in die Materie einarbeiten wollen z.B bei DLSS Performance gleich mit Preset M die beste Qualität bekommen.

Dicker Igel
2026-01-28, 12:14:35
Ich denke, die Masse macht sich um sowas keinen Kopf und das meine ich auch keinesfalls abwertend. Dazu kommen unterschiedliche Güten bei den Displays, wie die kalibriert sind, usw. Ich freue mich beim Konsolen daddeln ja schon, wenn ich diese nervige Bewegungsunschärfe ausschalten kann - was man aber gottseidank meist zur Verfügung hat und auch stufenlos regelbar. Sollte imo Standard sein.

Gast
2026-01-28, 12:30:16
Ich sehe ehrlich gesagt nicht warum man das aktuelle RR ersetzen müsste?


Es wirkt eher dass 4.5 für Upscaling das ist was das initiale Transformer-Modell für RR war. Verbesserungen sind natürlich immer gerne gesehen, aber ich wüsste jetzt auch nicht warum RR unbedingt ein 4.5 Update bräuchte.

Es wollten ja immer schon einige RR auch fürs reine Upscaling erzwingen können, da RR auch besseres Upscaling als SR-4.0 machte, mit 4.5 bekommt man das jetzt quasi.

Darkman.X
2026-01-28, 16:44:39
Habe es immer noch nicht kapiert:redface: also ingame kann ich ja meist nur DLSS und dann die verschiedenen Stufen, Qualität, Performance usw einstellen. Die Frage ist halt ob der Treiber die verschiedenen Modelle K, M,...dann automatisch zuordnet. Weiß das jemand?

Wenn dich das Thema so interessiert, dann lese doch bitte im Thread aktiv mit. Oder gehörst du zu denen, die immer nur alles auf dem Silbertablett präsentiert bekommen wollen, ohne Eigeninitiative zu leisten?

Teste es doch einfach selber. Aktiviere per Registry das DLSS-Overlay und prüfe links unten (für DLSS-SR & -RR) oder links oben (für DLSS-FG), welche DLL-Dateien oder Preset verwendet wird.


Vor vier Seiten:
App-gesteuert = Der Entwickler legt fest.
Wenn nichts per App oder NPI eingestellt wird, dann wird das Preset genommen, welches der Entwickler festlegt. Es werden ja auch die vom Spiel mitgelieferten DLL-Dateien verwendet, es findet kein Override statt.

Ich habe es eben mit "Satisfactory" getestet: Es verwendet die DLL-Dateien v3.7.10 (noch das alte Versions-Schema) und Preset C.

Wenn ich den DLL-Override im NPI aktiviere, aber kein Preset festlege, dann werden die DLL-Dateien v310.5.2 verwendet, seltsamerweise aber immer noch Preset C.

Das mit Preset C wundert mich etwas, weil es doch mal die News gab, dass angeblich A bis D gelöscht wurden. (schnell ergoogelt: https://www.thefpsreview.com/2024/11/13/nvidia-has-removed-four-presets-from-dlss-reducing-dll-file-size-by-more-than-50/)
Aber das DLSS-Overlay zeigt wirklich "C" an.


EDIT:
Die verlinkte "News"-Seite hat als Quelle einen Reddit-Beitrag: https://old.reddit.com/r/nvidia/comments/1gpqqu2/dlss_3810_dll_from_drivers_56614/
Also keine Ahnung ob die Presets A bis D wirklich jemals gelöscht waren.

Dorn
2026-01-28, 16:49:23
Ich bin gespannt wie stark zukünftige 60xx Grafikkarten DLSS 3;4; 4,5 darstellen können, konkret ob die Grafikkarte dadurch wieder weniger belastet wird bzw. wie weit. Aber das dauert ja leider noch Gefühlt eine Ewigkeit. :-(

Relex
2026-01-28, 17:02:08
Davon kannst du ausgehen.

Ich würde da wieder mit einer verdopplung der Rechenleistung rechnen und somit entprechend geringeren kosten für DLSS.

Schließlich braucht Nvidia das nicht nur für DLSS und Frame Gen sondern auch für Neural Rendering, wo ja künftig noch viel mehr kommen soll. Das wird sich natürlich noch lange ziehen, aber Nvidia wird so früh wie möglich bestmögliche Voraussetzungen in Hardware dafür schaffen.

basix
2026-01-28, 17:31:28
Ja, ich erwarte auch dass Nvidia die relative Tensor Core Performance erhöhen wird. Verdoppelt hört sich mal vernüftig an, vielleicht wird es auch etwas mehr (Rubin CPX legt 8x drauf).

Neben den FLOPS vermute ich auch, dass Tensor Memory (TMEM) in Consumer-GPUs einzug hält. Dadurch sollte die Ausführungsgeschwindigkeit von DNN verbessert werden.

Und dann das Thema DLSS 5. Ich erwarte, dass Nvidia auf ein NVFP4 Modell wechseln wird. Entweder wird DLSS 5 dadurch schneller als DLSS 4.5 (auf Blackwell und Rubin) oder man spendiert nochmals mehr Parameter für ein verbessertes Modell. Oder irgendwas dazwischen.

SamLombardo
2026-01-28, 17:50:15
Wenn dich das Thema so interessiert, dann lese doch bitte im Thread aktiv mit. Oder gehörst du zu denen, die immer nur alles auf dem Silbertablett präsentiert bekommen wollen, ohne Eigeninitiative zu leisten?

Teste es doch einfach selber...
.
Welche Laus ist dir denn über die Leber gelaufen, schlechten Tag gehabt? Mich interessiert es wie das nur mit Treiber läuft, ich hab aber keine Lust den Profilinspector samt meiner Settings zu deinstallieren. Für genau solche Fragen ist dieses Forum und im Speziellen dieser Thread da meine ich.

Gast
2026-01-28, 18:10:49
Ich bin gespannt wie stark zukünftige 60xx Grafikkarten DLSS 3;4; 4,5 darstellen können, konkret ob die Grafikkarte dadurch wieder weniger belastet wird bzw. wie weit.


Davon würde ich ausgehen, Intel verwendet ja verhältnismäßig doppelt so viele Matrixcores.

TheAntitheist
2026-01-29, 06:18:14
Davon würde ich ausgehen, Intel verwendet ja verhältnismäßig doppelt so viele Matrixcores.
die anzahl ist doch egal, die Leistung zählt doch nur...

Außerdem wird nvidia irgendwann auf FP4 gehen, das wurde noch nicht gemacht damit die älteren GPUs auch noch 4.5 nutzen können

dargo
2026-01-29, 06:54:55
Ich bin gespannt wie stark zukünftige 60xx Grafikkarten DLSS 3;4; 4,5 darstellen können, konkret ob die Grafikkarte dadurch wieder weniger belastet wird bzw. wie weit. Aber das dauert ja leider noch Gefühlt eine Ewigkeit. :-(
Falscher Ansatz... Upscaling wird in Zukunft teurer damit die Bildqualität weiter gesteigert werden kann, zumindest in den unteren Presets was den Input angeht. Alles andere macht keinen Sinn da mit schnelleren GPUs Status Quo immer günstiger und dadurch irgendwann der Overhead einfach zu klein wird. Bringt ja nichts Upscaling dann weiter zu beschleunigen wenn der Overhead bsw. nur noch bei 0,2ms liegt.

aceCrasher
2026-01-29, 19:55:38
Ja, ich erwarte auch dass Nvidia die relative Tensor Core Performance erhöhen wird. Verdoppelt hört sich mal vernüftig an, vielleicht wird es auch etwas mehr (Rubin CPX legt 8x drauf).

Neben den FLOPS vermute ich auch, dass Tensor Memory (TMEM) in Consumer-GPUs einzug hält. Dadurch sollte die Ausführungsgeschwindigkeit von DNN verbessert werden.

Und dann das Thema DLSS 5. Ich erwarte, dass Nvidia auf ein NVFP4 Modell wechseln wird. Entweder wird DLSS 5 dadurch schneller als DLSS 4.5 (auf Blackwell und Rubin) oder man spendiert nochmals mehr Parameter für ein verbessertes Modell. Oder irgendwas dazwischen.
Das wäre sehr wichtig. Gerade die kleineren Karten würden massiv davon profitieren wenn sie beim Upscaling in hohen Auflösungen weniger Overhead hätten.

basix
2026-01-30, 11:41:35
Nicht nur die kleinen Karten würden profitieren. Alle Rubin Karten würden profitieren ;)

Mal ein Rechenbeispiel für DLSS 5:

Man erhöht die Anzahl Parameter um 1.33x
Man geht den Weg von Preset L mit 1.5x mehr Rechenleistung als Preset M ohne mehr Parameter. Damit holt man mehr Details raus (siehe z.B. UP Vergleiche von Daniel Owen auf YT). 1.5 * 1.33 = 2x mehr Rechenbedarf fürs Upscaling
FG geht einen ähnlichen Weg: 2x Parameter / Rechenbedarf
DLSS 5 setzt auf FP4, wodurch man 2x Throughput erhält (auf Blackwell und Rubin)
Unter dem Strich würde DLSS 5 auf Blackwell somit genau gleich schnell laufen wie DLSS 4.5 mit Preset M. Ältere Karten als Blackwell würden langsamer werden.


Dann Rubin mit 2x Throughput und TMA & TMEM:

2x FLOPS = 2x Performance
TMA & TMEM = 1.5x bessere Skalierung mit den FLOPS (Annahme meinerseits ohne handfeste Grundlage)
Insgesamt 3x Netto-Throughput bei DNN


Jetzt der Performance Vergleich DLSS 4.5 mit DLSS 5 auf Rubin:

DLSS 4.5 ist ~1.15x langsamer als DLSS 3 mit CNN Modell
Wir nehmen CNN = Null Rechenleistung an, damit man was rechnen kann
Mit 3x mehr Netto-Throughput würde man nur noch 1 + (1 - 1.15) / 3 = 1.05x langsamer als das CNN Modell sein (leicht schneller als DLSS 4 mit Preset K)
Im Idealfall wäre DLSS 5 auf Rubin fast gleich schnell wie DLSS 3 CNN auf älteren Karten mit ähnlichem Grundperformance-Level (z.B. 6060 Ti vs. 5070), da DLSS 3 ja auch etwas Rechenleistung kostet.
Verglichen mit vergleichbar schnellen Blackwell-Karten gewinnt man +10% Performance


Und nun wird es noch spannender, wenn man FG nutzt:

DLSS 4 FG 2x skaliert im Schnitt mit ca. 1.75x
Rubin würde mit 2 - (2 - 1.75) / 3 = 1.92x skalieren. Also verglichen mit Blackwell +10% Performance (Basis/Input-FPS) und Smoothness (Output-FPS)
Bei 4x oder gar 6x/8x MFG würde sich das dann multiplizieren
4x MFG bei 1.75^2 = 3.06 vs. 1.92^2 = 3.69 was +20% Performance (Basis/Input-FPS) und Smoothness (Output-FPS) entsprechen würde
8x MFG bei 1.75^3 = 5.36 vs. 1.92^3 = 7.08 was +32% Performance (Basis/Input-FPS) und Smoothness (Output-FPS) entsprechen würde


Resultat:

Ein höherer netto Tensor-Throughput bei Rubin könnte zu geschätzt in etwa 1.1x höherer Performance gegenüber Blackwell führen, wenn man DLSS Upscaling nutzt
Inkl. 2x FG würde das auf 1.21x ansteigen
Inkl. 4x MFG würde das auf 1.33x ansteigen
Inkl. 8x MFG würde das auf 1.46x ansteigen
Rubin könnte sich damit auch ausserhalb der Grundperformance bemerkbar von Blackwell absetzen
Bessere Tensor-Core Performance könnte aus Gaming Sicht also ziemlich vorteilhaft sein. Auch für Nvidia, da man damit einen bemerkbaren Mehrwert gegenüber Blackwell schafft, womit Rubin für Gamer attraktiver wird.
Und für GEMM im allgemeinen ist das natürlich auch interessant (jegliche lokale Ausführung von DNN wie z.B. Stable Diffusion etc. und weiter in die Zukunft gedacht "Neural Rendering")


Edit:
Ray Reconstruction gäbe es ja auch noch. Macht man dort das selbe Spiel (2x Rechenleistungsbedarf und Wechsel auf FP4), wäre Blackwell wiederum gleich schnell wie bei DLSS 4.
Rubin könnte hier mit 3x Netto-Throughput ebenfalls an Performance gewinnen. Irgendwas zwischen 1.1...1.2x

Relex
2026-01-30, 12:05:18
Wäre FP4 denn wirklich sinnvoll?

Ich kanns nicht bewerten, aber die LLMs meinen, dass FP8 der sweetspot sein dürfte und FP4 dann nur noch für "unterstützende" Prozesse und masking sinnvoll sein kann, wo geringere präzision ausreicht, aber nicht für den kern Algorithmus.

basix
2026-01-30, 12:09:04
Inferencing wechselt immer mehr auf FP4. Dass man noch bei FP8 bleibt ist vermutlich zwei Dingen geschuldet:
- Lovelace kann nur FP8
- NVFP4 vs. FP8 benötigt vermutlich mehr Entwicklungsaufwand. Gratis ist der Wechsel auf eine niedrigere Parameter-Auflösung nicht.

[...]that across all domains, NVFP4 matches the performance of FP8, highlighting its effectiveness.
https://developer.nvidia.com/blog/nvfp4-trains-with-precision-of-16-bit-and-speed-and-efficiency-of-4-bit/

AffenJack
2026-01-30, 13:13:25
Wäre FP4 denn wirklich sinnvoll?

Ich kanns nicht bewerten, aber die LLMs meinen, dass FP8 der sweetspot sein dürfte und FP4 dann nur noch für "unterstützende" Prozesse und masking sinnvoll sein kann, wo geringere präzision ausreicht, aber nicht für den kern Algorithmus.

Es gibt jetzt schon Forschung zu 1,58 Bit LLMs. Man kann davon ausgehen, dass Rubin dafür dann ne Beschleunigung mitbringt und nicht bei FP4 endet.

Wieweit das allerdings für DLSS einsetzbar ist, kann ich nicht beurteilen.
Aber FP4 würde ich auf jeden Fall erwarten. Mit Rubin Ende 2027 wäre Blackwell dann auch 3 Jahr alt, so dass man langsam komplexere DLSS mit FP4 einsetzen könnte mit weniger Rücksicht auf Lovelace.


https://developer.nvidia.com/blog/nvfp4-trains-with-precision-of-16-bit-and-speed-and-efficiency-of-4-bit/

Und hier sind wir ja sogar beim Einsatz fürs Training, wenn auch nur für Pretraining.

Ja, ich erwarte auch dass Nvidia die relative Tensor Core Performance erhöhen wird. Verdoppelt hört sich mal vernüftig an, vielleicht wird es auch etwas mehr (Rubin CPX legt 8x drauf).

Neben den FLOPS vermute ich auch, dass Tensor Memory (TMEM) in Consumer-GPUs einzug hält. Dadurch sollte die Ausführungsgeschwindigkeit von DNN verbessert werden.


TMEM erwarte ich auch, aber ich denke im Moment nicht, dass wir ne verdopplung der TCs sehen. Verdoppelt/vervielfachte Geschwindigkeit bei 1,58 Bit vs FP4 als neues Format. Aber man hat ja auch nur begrenzten Platz und sehe bei Consumer erstmal eher nur die verstärkte Nutzung von NVFP4 zur Geschwindigkeitserhöhung.
Verdopplung TCs seh ich nur, wenn man die Flops pro SM generell verdoppelt um damit die Skalierungsprobleme die GB202 hat zu bekämpfen. Da wird es generell spannend, wie Nvidia die Mauer angeht gegen die ihre Architektur gelaufen ist.

The_Invisible
2026-01-30, 13:13:32
Wäre FP4 denn wirklich sinnvoll?

Ich kanns nicht bewerten, aber die LLMs meinen, dass FP8 der sweetspot sein dürfte und FP4 dann nur noch für "unterstützende" Prozesse und masking sinnvoll sein kann, wo geringere präzision ausreicht, aber nicht für den kern Algorithmus.

flux2 setzt als imagegenerator auch auf fp4, sollte also kein hindernis sein

https://developer.nvidia.com/blog/scaling-nvfp4-inference-for-flux-2-on-nvidia-blackwell-data-center-gpus/