Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4
The_Invisible
2026-01-11, 10:03:39
"optimiert" wird nur wenn du den Haken setzt für automatisches optimieren oder auf optimieren klickst, das wird dir beim ersten Start aber auch erklärt ;-)
Das alte Panel habe ich schon lange nicht mehr aufgerufen, will ich auch nicht weil das einfach so lahm ist
robbitop
2026-01-11, 10:19:42
Bitte zurück zum Thema. Das ist ein Technologiethread. Individuelle Userfragen zur Bedienung bitte in das nvidia subforum.
MAX|HASS
2026-01-11, 10:37:33
"optimiert" wird nur wenn du den Haken setzt für automatisches optimieren oder auf optimieren klickst, das wird dir beim ersten Start aber auch erklärt ;-)
Das alte Panel habe ich schon lange nicht mehr aufgerufen, will ich auch nicht weil das einfach so lahm ist
Das sei zur Klärung noch angebracht: es waren alle Spiele mit grünen Häkchen versehen, als "optimiert" gekennzeichnet. Ich habe jedes einzelne wieder auf weiß zurückgesetzt, so wie es in obigem Bild zu sehen ist (hatte ich vergessen, dazuzuschreiben).
**edit, was aber hier doch hingehört: sagen wir, ich nutze den Kram jetzt mal nicht, sondern bügele mir unabhängig von der äpp nur dll 310.5.0 in ein jeweiliges Spiel, mit welchem preset spiele ich dann? Oder ist alles Abwärtskompatible immer mit drin, sodaß ich dann u.U. im Spiel weiterhin aussuchen könnte, was laufen soll?
Relex
2026-01-11, 10:50:47
Wie schon gesagt wurde, die App optimiert gar nichts automatisch. Du wirst beim ersten Start gefragt, die App bietet dir das an und wenn du bestätigst wird sofort alles optimiert. Man muss in dem Fragedialog explizit den Haken rausnehmen, damit die Settings nicht optimiert werden.
Ja, NV will dir das aufdrücken und setzt deshalb per default den haken. Aber du wirst trotzdem gefragt, ob du das willst. Leute, die gerne alles weg klicken ohne zu lesen, bekommen dann eben alles optimiert ;)
Zu deiner Frage: Wenn du die dll Datei im Spieleordner austauschst, dann greift das was Nvidia auch in den Entwickler Guidelines für Entwickler als Standard vorsieht.
Für DLAA, Quality und Blanced wird Preset K genutzt, für Performance Preset M und für Ultra Performance Preset L.
Wenn du den override in der Nvidia App auf "Latest" bzw. "Neueste" machst oder Preset M explizit auswählst, dann wird alles auf Preset M gesetzt.
Wobei ich auch empfehlen würde, es nicht global zu machen und auch nicht mit Latest. Bei dem ein oder anderen Spiel wurde es nicht übernommen, auch nicht im Performance Mode.
Scheint wohl ein Bug zu sein. Am zuverlässigsten funktioniert es, direkt im jeweiligen Spieleprofil Preset M anzuwählen. Das hat bei mir bisher zu 100% funktioniert. Der dll Tausch im Spielverzeichnis ist nur nötig, wenn der Override in der App nicht verfügbar ist. Dann hat nvidia das Spiel nicht whitelisted.
Platos
2026-01-11, 10:52:21
Nutzt ihr nicht mehr nvidia inspector oder dlss swapper oder wie das alles heisst?
Welche software braucht man denn momentan, um DLSS Versionen, Presets und Ray Reconstructions, Framegen usw. Auszutauschen ? Bzw. welches ist zu empfehlen?
(m.M.n ist das eine Technikbezogene Frage).
Relex
2026-01-11, 10:56:03
Es gibt gefühlt 1000 wege.
Aber ich machs so.
Ich nutze einfach die Nvidia App. Fertig. Einfach override und gut ist.
Wenn z.B. für ein Spiel der Override für Frame Generation nicht verfügbar ist, dann tausch ich einfach die dll Datei für Frame gen im Spielverzeichnis aus. Da es bei Frame Generation keine Presets gibt, funktioniert das auch sofort.
Falls der Override für Super Resolution in der App nicht verfügbar ist, (was extrem selten vorkommt!) tausche ich ebenfalls die dll Datei im Spielverzeichnis aus und mach dann den Preset Override (nicht den dll override) über den nvidia Inspector.
In 90-95% der fälle reicht es, die Nvidia App zu nutzen. Aber hängt halt davon ab, welche Spiele man hat und welche overrides Nvidia dafür dann offiziell erlaubt und welche nicht.
Disconnected
2026-01-11, 17:46:45
Ich bin noch auf Treiberversion 581.29 und habe dennoch Preset M, wenn ich "latest" im Nvidia Profile Inspector auswähle. Ich nutze nur diesen und keine Äpp. Ist DLSS 4.5 denn schon so alt? Wenn ja, warum hat das noch keiner zuvor bemerkt?
aufkrawall
2026-01-11, 17:49:43
Wurde auch schon zigmal erklärt, dass es eine Update-Funktion im Treiber gibt, die bei Spielstarts DLSS updatet (wenn Nvidia es auf den Servern updatet). Wie alles, was hier über die Preset-Auswahl auch schon zigmal erklärt wurde.
Disconnected
2026-01-11, 18:03:13
Vielen Dank für die Erklärung und entschuldige bitte, dass ich nicht alle 438 Seiten in diesem Thread durchgelesen habe, um selbst auf die Lösung zu kommen.
robbitop
2026-01-11, 18:20:49
Dies ist ein Thread im Technologieforum. Userspezifische Bedienungsfragen gehören ins entsprechende Nvidia subforum.
Weiterhin kann man heutzutage auch einfach eine LLM Suche anschmeissen. :)
Relex
2026-01-12, 01:45:43
Hab gerade mal mit KCD2 getestet Incl 8K supersampling mit und ohne TAA und hatte zwischenzeitlich ein ziemliches Dilemma was denn nun eigentlich Ground truth sein soll. Wie auch immer. Ich habe mal ChatGPT mit allen Beobachtungen die ich zu Preset M vs Preset K vs möglicher ground Truth festgestellt hatte gefüttert und um Erklärung gebeten.
Das im Spoiler war die (durchaus aufschlussreiche) Antwort. Daraus lässt sich auch gut ableiten, warum Nvidia Model M speziell für den Performance Modus optimiert hat. Es ist nämlich nicht nur eine Frage der Performance sondern der Frage wie man die Probleme die Model K besonders im Performance Mode hatte ausmerzt.
Meine Frage die ich formuliert habe spar ich mir an der Stelle, da es ne gigantische Textwall ist in die ich einfach alles gepackt habe was mir dazu eingefallen ist natürlich auch die Kritik bzgl möglichen Oversharpening usw.
Das, was du beschreibst, ist kein Widerspruch, sondern ein sehr bewusster Paradigmenwechsel in NVIDIAs DLSS-Training und -Loss-Design.
Und ja: Man kann ziemlich gut erklären, warum DLSS 4.5 so aussieht, wie es aussieht – ohne Marketing-Floskeln.
Ich gehe strukturiert vor und verknüpfe es explizit mit deinem Ground-Truth-Problem.
⸻
1. Der zentrale Zielkonflikt: Detailtreue vs. Zeitstabilität
DLSS bewegt sich immer in diesem Spannungsfeld:
Ziel Konsequenz
Maximale Detailrekonstruktion Gefahr von Smearing / Ghosting
Maximale Zeitstabilität Reduktion feiner Hochfrequenzdetails
DLSS 4.0 hat diesen Konflikt stark zugunsten von Detailtreue aufgelöst.
DLSS 4.5 löst ihn zugunsten von zeitlicher Kohärenz.
Das ist die Kernaussage.
⸻
2. Warum DLSS 4.0 im Standbild näher an der Referenz war
DLSS 4.0:
• sehr aggressive Hochfrequenz-Rekonstruktion
• starkes Vertrauen in temporale Akkumulation
• hohe Detaildichte nahe an 8K→4K Supersampling
Problem:
Diese Details existieren nicht stabil im Input-Signal:
• Motion vectors sind nie perfekt
• Disocclusion erzeugt „information holes“
• Subpixel-Parallaxen brechen Korrelationen
Ergebnis:
• Details sind räumlich korrekt
• aber zeitlich fragil
In Bewegung:
• Unsichere Details werden gefiltert
• Akkumulator verliert Vertrauen
• → „Nebel“, Smearing, Softness
Wichtig:
Das ist kein klassischer Blur, sondern Verlust kohärenter Hochfrequenzenergie über Zeit
⸻
3. Warum DLSS 4.5 weniger Details rekonstruiert
DLSS 4.5 hat sehr wahrscheinlich:
a) Den temporalen Loss deutlich höher gewichtet
Typische zusätzliche Loss-Terme:
• temporal consistency loss
• motion-weighted reconstruction penalty
• disocclusion uncertainty regularization
b) Ein niedrigeres Vertrauen in Halluzination
Das Netz lernt:
„Wenn ich mir nicht sicher bin, erfinde nichts.“
Folge:
• weniger Mikrodetails
• weniger subpixel-Noise
• deutlich stabilere Features
⸻
4. Warum DLSS 4.5 kontraststärker wirkt
Jetzt kommt der wichtigste Punkt, der oft falsch interpretiert wird.
DLSS 4.5 ist nicht klassisch oversharpened
Denn:
• kein Halo
• kein Ringing
• keine Edge-Enhancement-Artefakte
Was du siehst, ist:
�� Reduzierte Hochfrequenz bei gleichzeitig steileren Kantenübergängen
Das klingt paradox, ist aber entscheidend.
⸻
5. Der eigentliche Trick: Kantenpriorisierung statt Detailrekonstruktion
DLSS 4.5 scheint:
• weniger Energie in Mikrotexturen zu stecken
• dafür mehr Energie in Edge Definition
• → höhere lokale Kontrastgradienten
Effekt:
• weniger feine Details
• aber klarere Signalstruktur
• subjektiv „knackiger“
Das entspricht:
• höherer MTF im mittleren Frequenzbereich
• geringerer Energie im höchsten Frequenzbereich
Das ist exakt der Bereich, in dem:
• Bewegung am stabilsten ist
• Wahrnehmung am empfindlichsten reagiert
⸻
6. Warum das näher an „No-AA-Kontrast“ erinnert
Ein natives 4K ohne AA hat:
• aliasierte Hochfrequenzenergie
• sehr steile Kontrastflanken
DLSS 4.5:
• erzeugt keine falschen Frequenzen
• aber verstärkt legitime Kontrastübergänge
Das Resultat:
• ähnlicher Kantenkontrast
• ohne Aliasing
• ohne falsche Details
Deshalb wirkt es:
„wie No-AA, aber sauber“
⸻
7. Warum das in Bewegung näher an der Referenz ist
Und hier kommt der entscheidende Ground-Truth-Aspekt:
Ein Referenzbild ist nicht nur räumlich korrekt, sondern zeitlich konsistent.
DLSS 4.0:
• im Einzelbild näher an Supersampling
• über Zeit weiter entfernt
DLSS 4.5:
• im Einzelbild etwas gröber
• über Zeit deutlich näher
Wenn du Referenz als:
„Wie sähe ein perfektes 4K-Signal über Zeit aus?“
dann ist DLSS 4.5 näher dran.
⸻
8. Warum Nvidia das getan hat (strategisch)
NVIDIA hat vermutlich erkannt:
• Nutzer tolerieren weniger Detail
• aber keine Instabilität
• kein Smearing
• kein Disocclusion-Nebel
Zudem:
• Videokompression
• HDR
• hohe Motion
• Raytracing mit noisy inputs
Alles bevorzugt:
strukturierte Klarheit statt maximaler Detaildichte
⸻
9. Die unbequeme Wahrheit über „Ground Truth“
Dein Dilemma ist real, weil:
• Ein supersampled Einzelbild ist kein vollständiger Ground Truth
• Ein zeitlich stabiler Verlauf ist genauso Teil der Wahrheit
Eigentlich bräuchte man:
• 16K → 4K
• zeitlich korrekt gemotion-compensated
• über mehrere Frames integriert
Das kann kein klassischer Screenshot leisten.
⸻
10. Klare Antwort auf deine Kernfrage
Warum hat NVIDIA das getan?
Weil:
• DLSS 4.0 räumlich näher war
• DLSS 4.5 wahrnehmungsphysikalisch und zeitlich näher ist
Der höhere Kontrast ist kein Fehler, sondern:
ein bewusster Tausch von „fragiler Detailenergie“ gegen „stabile Signalstruktur“.
⸻
11. Kurzform (Essenz)
• DLSS 4.0:
✔ maximale Detailrekonstruktion
✖ instabil in Bewegung
• DLSS 4.5:
✔ zeitlich kohärent
✔ klare Kanten
✖ weniger Mikrodetails
Ground Truth ist kein Standbild – sondern ein konsistentes Signal über Zeit.
Wenn du willst, können wir als Nächstes:
• ein objektives Bewertungsmodell (MTF + Temporal SSIM)
• oder ein sauberes Testpattern-Setup definieren, um beide Versionen fair zu vergleichen
Ich finde der Satz bringt es ganz gut auf den Punkt.
DLSS 4.5 ist ein bewusster Tausch von „fragiler Detailenergie“ gegen „stabile Signalstruktur“.
Model K rekonstruiert im reinen Standbild ganz ohne Bewegung (Spielzeit pausiert) sehr viel mehr Microdetail, neigt aber in Bewegung und insbesondere im Performance Modus zu Detailverlust und Artefakten. Es gibt hochfrequente Details aber so sind sehr fragil.
Model M legt die Gewichtung höher auf klare und stabile Definition von Inhalten auch in bewegung, muss dafür aber auf potenzielle Microdetails verzichten.
In Bewegung ist Model M dadurch deutlich näher an einer möglichen Referenz. Model K ist nur im Standbild ganz ohne Bewegung im Bild näher dran.
Model K hat also Details rekonstruiert die es gar nicht stabil halten konnte. Ungünstige Gewichtung für die alltägliche Realität der Spiele, die nunmal in Bewegung stattfindet. Oder anders gesagt. Das was Model K
Versucht hat an Details darzustellen geben die Daten und das Transformer Modell noch nicht zuverlässig her.
Model M geht weniger agressiv und konservativer an die detailrekonstruktion und ist damit treffsicherer. Das was es rekonstruiert, rekonstruiert es klar und stabil mit sauber definierten Kanten.
Model K litt also schlicht unter Selbstüberschätzung und hat dann ständig gepatzt. ;)
Ex3cut3r
2026-01-12, 07:39:50
Finde Modell M in Last of Us 2 ziemlich stark. Bin mit Max Details und DLSS Q @ Preset M + FG x2 bei 180-200 FPS @ 25ms Latenz. Das ist purer Luxus. Die Bildqualität ist auch wenn TLOU2 schon ein bisschen älter ist, teilweise mit HDR @ QD-OLED ein Träumchen. So muss Gaming im Jahr 2026 sein. :up:
Platos
2026-01-12, 07:45:38
Und wie viel Perfomance hast du nativ ohne AA bei sonst gleichen Settings ?
dildo4u
2026-01-12, 08:45:55
Tests auf einer 5060 TI
Interessant wie viel Besser die Schatten in UE5 aussehen.
7x7goOdiaSU
Ex3cut3r
2026-01-12, 09:23:16
Und wie viel Perfomance hast du nativ ohne AA bei sonst gleichen Settings ?
Werde ich nachher in der Mittagspause kurz testen, kann auch Screenshots liefern. Bin heute im Homeoffice aufgrund von Blitzeis Gefahr in Hamburg.
Platos
2026-01-12, 09:59:40
Homeoffice sei dank :D
Relex
2026-01-12, 10:04:12
TAA kostet gegenüber no-AA Leistung, DLAA3 kostete noch mehr Leistung, DLAA4 kostete noch mehr Leistung und DLAA4.5 kostet noch mehr.
Da geht schon sehr ordentlich Performance drauf mittlerweile.
Ex3cut3r
2026-01-12, 10:20:41
Auf jeden Fall, ich habe Platos aber so verstanden, dass ich gar kein AA aktiveren sollte. Auch kein TAA.
Von DLAA war ich seit 4K, 31,5" kein Fan mehr. Mit Q und Reshade CAS hatte ich 95% der Bildqualität mit erheblich mehr FPS. Bei 1440p @ 27" habe ich DLAA damals zu DLSS 2 und 3 Zeiten mehr genutzt.
Relex
2026-01-12, 11:46:40
Hier, falls jemand bock hat, das waren die Bilder, die ich mir gestern nochmal angesehen habe.
8K4K-DLAA https://ibb.co/YBh0ksfr
8K4K-FSR https://ibb.co/B28cRKKH
8K4K-no-AA https://ibb.co/fTqcHzM
8K4K-TAA https://ibb.co/s9JPV2dB
DLSS-P-K https://ibb.co/QjXgDmqz
DLSS-P-M https://ibb.co/TMzqSsDH
DLSS-Q-K https://ibb.co/RkgdCfry
DLSS-Q-M https://ibb.co/GQJ2jHqb
No-AA https://ibb.co/ynSctqZx
SMAA2Tx https://ibb.co/208PPjc9
Versuch, einem halbwegs passablem Ground Truth nahe zu kommen durch 8K->4K Downsampling von Screenshots mit DLAA, FSR-Native, TAA und Kein-AA.
Und dann der Vergleich mit den Presets in 4K sowie Bildern mit TAA und ganz ohne AA.
Was deutlich auffällt und ich auch schon im letzten Poste geschrieben habe: Preset K löst hier deutlich mehr Details auf, als Preset M, solange sich nichts bewegt und kommt dadurch der Detailfülle der Downsampled Bilder sehr nahe.
Die Screens waren jetzt aber absichtlich ohne Photomode Pause, sondern während das Spiel normal läuft, um die Bewegungen von Gräsern im Bild zu haben.
Die meisten Objekte sind statisch, da zeigt das Preset K viele Details, aber ein paar Pflenzen bewegen sich - und die werden direkt unscharf und verschmiert mit Preset K. Und das zeigt sich dann vor allem im Performance Mode deutlicher als im Quality Mode.
Preset K ist im Einzelbild insgesamt näher am Ground Truth und auch weniger "Crispy" und Kontraststark als Preset M. Aber Laut ChatGPT soll das so sein. Im Standbild ist Preset K hier also klar im Vorteil.
Denn Preset M erzeugt ein kontraststärkeres Bild, erzeugt weniger Microdetails, aber bleibt dafür bei sich bewegenden Details deutlich stabiler und klarer. Praktisch entspricht das Preset M Bild somit mehr dem No-AA Bild, jedoch in "geglättet".
Laut ChatGPT ist das eigentlich ein "falsches" verhalten. Ohne AA ist der Kontrast zu hoch und die Kanten zu hart definiert. Dass durchs Supersampling subjektiv etwas kontrast verloren geht ist mathematisch so absolut korrekt und würde einem Ground Truth näher kommen.
Sprich Preset M geht hier klar in eine andere Richtung als Preset K.
Während Preset K noch versucht hat, ein möglichst extrem hochauflösendes Supersampled Bild zu erzeugen, damit aber in Bewegung scheitert (Smearing, Noise etc.) hat man bei Preset M mehr auf zuverlässige, stabile Rekonstruktion gesetzt, die zwar weniger Details zeigt, aber auch weniger schnell zusammenbricht.
Im Standbild sieht es in der Szene also tatsächlich gar nicht so gut aus für Preset M. Man ist in sachen Detailfülle weiter vom Supersampled Bild weg und kommt dem No-AA Bild näher, aber auch der Kontrast entspricht stärker dem No-AA Bild.
Erst in Bewegung macht der Trade-Off dann wirklich Sinn. Preset M bleibt stabil und klar, während Preset K Probleme bekommt und undefiniert wird.
Und ja, langsam beginne ich mich zu wiederholen. Deshalb auch Schluss an der Stelle mit diesem Vergleich. ;)
SamLombardo
2026-01-12, 12:04:00
Mir kommt es so vor dass bei zumindest den paar Spielen die ich bisher getestet habe das neue Preset M auch das HDR nochmal ein klein bisschen eindrucksvoller macht. Es arbeitet Spitzenlichter besser raus, das Bild hat mehr HDR Punch. Bei Assassin's Creed Shadows z.B habe ich das mit mehrmals hin und her an derselben Szene genauer angeschaut und da ist es ziemlich eindeutig. Ebenso bei Baldur's Gate 3. Was davon nun "korrekt" ist sei mal dahingestellt, aber mir gefällt das Bild mit Preset M schon deswegen besser.
00-Schneider
2026-01-12, 12:28:42
@Relex und SamLombardo:
Hier sind wir wieder bei der uralten Diskussion bzgl. "creators intent" und "personal preference".
Man kann immer mit "creators intent" argumentieren, aber letztlich ist es hier Unterhaltungselektronik, d.h. wenn einem Preset M optisch mehr zusagt, sollte man es nutzen, auch wenn Preset K näher am "creators intent" liegt.
von Richthofen
2026-01-12, 12:52:32
@Relex
Im Standbild gefällt mir bei den Shots Preset K tatsächlich am besten, sogar mehr als NoAA oder DLAA. Es wirkt beinahe als bekäme K etwas mehr an AO ab - die Bäume sind weniger "luftig".
robbitop
2026-01-12, 13:06:22
@Relex und SamLombardo:
Hier sind wir wieder bei der uralten Diskussion bzgl. "creators intent" und "personal preference".
Man kann immer mit "creators intent" argumentieren, aber letztlich ist es hier Unterhaltungselektronik, d.h. wenn einem Preset M optisch mehr zusagt, sollte man es nutzen, auch wenn Preset K näher am "creators intent" liegt.
Naja die Highlights bei HDR sind tatsächlich mit Model M (und L) jetzt korrekter weil vor dem tonemapping gearbeitet wird anstatt wie vorher nach dem Tonemapping. Das ist schon eine Verbesserung.
@Relex
Sehr interessante Überlegungen - würde das nicht in nächster Konsequenz bedeuten, dass Model L (und RR Model E) noch näher am ground truth ist?
SamLombardo
2026-01-12, 13:08:57
Naja die Highlights bei HDR sind tatsächlich mit Model M (und L) jetzt korrekter weil vor dem tonemapping gearbeitet wird anstatt wie vorher nach dem Tonemapping. Das ist schon eine Verbesserung.
Sehr interessant, war mir noch gar nicht so bewusst. Also war es doch keine Einbildung:biggrin:.
Ex3cut3r
2026-01-12, 13:43:06
Homeoffice sei dank :D
So. ;)
Kein AA - Nativ
https://s1.directupload.eu/images/user/260112/thumb/29n3aigx.webp (https://www.directupload.eu/file/u/79486/29n3aigx_png.htm)
DLSS Q - CPU Limit (GPU Auslastung nur bei ca. 90%
https://s1.directupload.eu/images/user/260112/thumb/4ke824rj.webp (https://www.directupload.eu/file/u/79486/4ke824rj_png.htm)
DLSS P - CPU Limit - Aber FPS Trotzdem gestiegen?!
https://s1.directupload.eu/images/user/260112/thumb/9botobj5.webp (https://www.directupload.eu/file/u/79486/9botobj5_png.htm)
DLSS Q + FG x2
https://s1.directupload.eu/images/user/260112/thumb/2rknze8h.webp (https://www.directupload.eu/file/u/79486/2rknze8h_png.htm)
DLSS P + FG x2
https://s1.directupload.eu/images/user/260112/thumb/qcz3mbo4.webp (https://www.directupload.eu/file/u/79486/qcz3mbo4_png.htm)
Latenz Anzeige: Abfotografiert - da das Nvidia Overlay in Screenshots bei mir zumindest nicht angezeigt wird.
NoAA - Nativ:
https://s1.directupload.eu/images/user/260112/thumb/g7uvgy2s.webp (https://www.directupload.eu/file/u/79486/g7uvgy2s_jpg.htm)
DLSS Q:
https://s1.directupload.eu/images/user/260112/thumb/k9gbt9db.webp (https://www.directupload.eu/file/u/79486/k9gbt9db_jpg.htm)
DLSS P:
https://s1.directupload.eu/images/user/260112/thumb/7abh85rk.webp (https://www.directupload.eu/file/u/79486/7abh85rk_jpg.htm)
DLSS Q + FG x2
https://s1.directupload.eu/images/user/260112/thumb/4sht8m4y.webp (https://www.directupload.eu/file/u/79486/4sht8m4y_jpg.htm)
DLSS P + FG x2
https://s1.directupload.eu/images/user/260112/thumb/4sht8m4y.webp (https://www.directupload.eu/file/u/79486/tr9ev696_jpg.htm)
Böse Latzenz. Alles blödsinn IHMO.
Relex
2026-01-12, 13:51:23
Naja die Highlights bei HDR sind tatsächlich mit Model M (und L) jetzt korrekter weil vor dem tonemapping gearbeitet wird anstatt wie vorher nach dem Tonemapping. Das ist schon eine Verbesserung.
@Relex
Sehr interessante Überlegungen - würde das nicht in nächster Konsequenz bedeuten, dass Model L (und RR Model E) noch näher am ground truth ist?
Warum Model L? Model L ist zwar temporal stabiler und unterdrückt rauschen auf Kosten von Ghosting noch stärker, aber es rekonsturiert nicht mehr Details als K oder M. Die grundsätzliche Bildzeichnung ist genauso wie M. Es sind gleich viele Details im Bild enthalten.
Ich habe gerade nochmal mit ChatGPT über eine mögliche weiterentwicklung von DLSS überlegt und das LLM ist ganz klar der Meinung, dass DLSS4 durch die agressive Mikrodetail Rekonstruktion über der Nyquist grenze war und mehr Details mit geringer confidence rekonstruiert hat, als tatsächlich verlässlich im Input enthalten sind. Sprich das Model sieht immer wieder mal Details, versucht sie beizubehalten, ignoriert aber, dass sie aufgrund des schwachen signals über Zeit nicht stabil nachvollzogen werden können.
Das entscheidende dabei ist laut ChatGPT, dass das keine grenze des Trainings oder des AI Models mehr ist, sondern dass wir hier mittlerweile an die theoretischen Grenzen des temporalen Supersamplings stoßen. Dass DLSS4.5 diesen Trade off geht, Microdetails mit geringer signalstärke und geringer confidence lieber zu verwerfen zeigt bereits, dass man sich eingestehen muss, dass man einfach nicht so viele Details zuverlässig rekonstruieren kann. Einziger Weg wäre mehr und präzisere Engine Seitge Daten in den Algorithmus zu pumpen, was aber auch grenzen hat.
Soll heißen, das was wir bisher gesehen haben: Interne renderauflösung runter, Details werden mit neuem DLSS trotzdem immer besser - das wird es wohl so nicht mehr geben. DLSS4 hat bereits "zu viel" und zu aggressiv rekonstruiert, mit DLSS4.5 setzt man auf zuverlässigkeit und klarheit.
Das Bild wird mit DLSS5 und DLSS6 vielleicht nochmal sauberer, cleaner und wertiger, aber wahrscheinlich nicht mehr (viel) detaillierter. Dass man die Detaildichte von preset K auch in bewegung erreicht scheint sehr unrealistisch zu sein. Eine Zukunft in der DLSS Ultra Performance genauso gut wie ein aktuelles Supersampled Bild aussieht, wird es wahrscheinlich nicht geben. Die Temporalen Daten geben das nichtmal in der Theorie her, weil im bewegtbild zu viel instabilität ist, die kein Training der Welt kompensieren kann. Es wird ein informationsproblem, kein Trainings oder Compute Problem sein.
Heißt für mich: 50% der Auflösung wird wohl auch in Zukunft bei kleinem Detail-loss "good enough" sein und toll aussehen.
Ultra Performance wird wahrscheinlich immer sauberer und cleaner werden, aber mit klarem detailverlust.
Wer maximal viele feine Details will, wird bei DLAA oder Quality Mode bleiben müssen.
Natürlich wird da der selbe Trade-Off beibehalten, den Preset M geht, da ja K instabil war. Das heißt der Vorteil bei der Bildqualität wird zwischen DLSS Q und DLSS P sehr gering bleiben, da es ja nur 50% vs 66% Renderauflösung sind. Mit dem Supersampled 8K Bild wird man niemals mithalten können, was die Detailfülle angeht.
Man kann jetzt natürlich hinterfragen, wie plausibel die Herleitung von ChatGPT ist oder ob es sich nicht kritisch genug damit auseinander setzt, aber in gewisser Weise klingt es zumindest plausibel. Zumindest sollte man jetzt nachdem DLSS4.5 Microdetail für klarere Definition opfert nicht allzu überoptimistisch auf ein DLSS5 sein. Ich denke die großen Sprünge sind vermutlich schon vorbei.
Hier nochmal die Kernaussage:
4. Der entscheidende Punkt: Wir stoßen jetzt an die Informationsgrenze
Du triffst den Nagel auf den Kopf mit dieser Beobachtung:
„Wir können die Renderauflösung nicht weiter senken, ohne zwangsläufig Detail zu verlieren.“
Warum?
Bei ~50 % Auflösung pro Achse:
Subpixel-Information ist stark unterabgetastet
Texturfrequenzen liegen weit über Nyquist
Temporale Phasen sind nicht mehr eindeutig
DLSS kann:
Kanten rekonstruieren
Formen stabil halten
Aber:
feine Texturen existieren nicht mehr im Input
egal wie gut das Training ist
5. Warum mehr Training hier nicht mehr hilft
Training hilft, wenn:
das Modell falsche Entscheidungen trifft
es Artefakte produziert
es falsch priorisiert
Training hilft nicht, wenn:
das Signal keine eindeutige Information mehr enthält
DLSS4.0 hat versucht, diese Grenze zu überschreiten:
mit temporaler Halluzination
mit aggressiver Rekonstruktion
DLSS4.5 ist das Eingeständnis:
„Das geht so nicht stabil.“
6. Sind wir also in einer Sackgasse?
Ja – für Detaildichte aus niedriger Renderauflösung.
Nein – für Bildqualität insgesamt.
Zukünftige Verbesserungen werden sein:
noch stabilere Bewegung
bessere Materialklassifikation
bessere Kantengenauigkeit
weniger Kontrastabweichung
Aber:
nicht mehr „mehr echte Details aus weniger Pixeln“
Lurtz
2026-01-12, 14:08:21
Kam das LLM da selbst drauf oder hast du Thesen in die Richtung formuliert?
Wieso ist M dann temporal teils instabiler als K?
Platos
2026-01-12, 14:57:09
@ Ex3cut3r: Also du hast jetzt bei allen Versionen DLSS Preset M genutzt oder? Nativ ohne TAA bzw. AA ist somit kaum langsamer als DLSS Q bzw DLSS Q ist kaum noch schneller als nativ. Natürlich ist DLSS dank flimmerfrei und co. Wertvoller, aber trotzdem ist das schon krass, wenn man bedenkt, dass die interne Auflösung bei DLSS niedriger ist (und du auch Blackwell nutzt). DLSS war ja schonmal gedacht, deutlich schneller als nativ ohne AA zu sein.
Model M scheint gut zu sein, aber ich denke für DLSS 5.0 ist es wichtig, wieder mehr Perfomance zu kriegen. Bin mir nicht sicher, ob mit Model M die Optik/Perfomance gestiegen ist. Ich muss das mal heute Abend selber testen.
Edit: Das letzte Bild ist doch doppelt? Da steht die exakt gleiche Latenz und FPS und im screenshot steht aber bei DLSS P +2x Framegen um die 220FPS. Kann glaube ich nicht stimmen.
Relex
2026-01-12, 15:27:25
@Lurtz
Um deine Frage bzgl. M zu beantworten: Das deckt sich ja mit den Eigenschaften von Preset M.
Preset M gewichtet mittlere Frequenzen höher und kann sie klarer rekonstruieren. Die Kantenflanken sind steiler. Preset K legt mehr wert auf hohe frequenzen und feine details, mittelt mehr temporale Daten, neigt dann aber zu einem in Bewegung softeren Bild mit mehr microdetails und weniger harten Kantenübergängen, was für weniger potenzielles Aliasing sorgt
(ja, des hab ich geschrieben, nicht das LLM)
Bzgl. deiner Frage zu ChatGPT. Ich habe vorher über Ground Truth diskutiert und wie man ihn am besten erzeugt. Da war noch keine Rede von DLSS. Dann habe ich die Frage zu DLSS4.5 gestellt und meine Beobachtungen zu den Unterschieden beschrieben. Ich hab dir mal alles von dieser Frage ab in den Spoiler kopiert.
Ob Chat GPT eigene Thesen aufgestellt hat oder ob ich zu viel suggeriert habe, musst du beantworten. Ich bin kein sprachwissenschaftler. Aber ich würde sagen, dass ich zumindest anfangs kaum Thesen aufgestellt habe sondern nur meine beobachtungen die ja sogar stellenweise etwas wiedersprüchlich erscheinen niedergeschrieben habe. Und ja, natürlich kam die Analyse der Bilddaten und die subjektive Bewertungen grundsätzlich erstmal von mir. Ich habe ChatGPT nicht gebeten sich die Bilder anzusehen und zu vergleichen. Ich habe nur die Beobachtungen formuliert. ChatGPT hat das eben plausibel auseinandergedröselt und thesen aufgestellt, warum das denn so ist. Erst in meiner aller letzten Anfrage habe ich stark suggestiv das zusammengefasst was ChatGPT eh schon geschrieben hatte und um Bestätigung gefragt, und natürlich habe ich die dann auch bekommen. Grundsätzlich ist es natürlich witzig, wie überzeugend ChatGPT argumentiert, ohne je ein Bild gesehen zu haben. Aber gut, die generellen Regeln gelten ja trotzdem.
Aber nur um das klar zu stellen. Ich versuche hier nicht mit nem LLM zu argumentieren oder euch vermeintlich tolle Erkenntnisse zu verkaufen. Das ist reines Brainstorming und Spekulation. Ich kann die Aussagen weder prüfen, noch vernünftig plausibilisieren. Und jeder weiß wie stark die LLMs zur Echokammer neigen. Ich poste das nur, weil mich das Thema sehr interessiert und es vermutlich schwer wird, hier jemanden zu finden, der irgendwas qualifiziertes über die technischen und mathematischen hintergründe und Limits sagen kann. In erster Linie ging es mir darum meine Subjektiven Eindrücke irgendwie logisch zu begründen. Alles weitere war dann nur noch nachfragen aus neugier.
Nvidia hat letztes Jahr DLSS4.0 Super Resolution Released das war zwar ein gewaltiger Sprung verglichen zu DLSS3 und in allen Aspekten besser, aber verglichen mit dem neuen DLSS4.5 litt es immer noch unter relativ gut sichtbarem Blur und smearing bei disocclusion. Dafür hat es aber enorm viele feine Details rekonstruiert. In sachen feiner Detail Rekonstruktion kommt es den supersampled Bild mMn. extrem nahe, in Bewegung oder bei disocclusion jedoch verschwimmen die Details. DLSS 4.5 hingegen hat das Problem nicht. Details bleiben auch in Bewegung extrem sauber und klar definiert. Es gibt kaum noch Probleme mit disocclusion oder smearing. Das AntiAliasing ähnlich gut, aber stellenweise etwas mehr Kantenflimmern trotz weniger noise im Bild. Allerdings, und das ist der entscheidende Unterschied: Die Details sind zwar klarer und sauberer definiert, allerdings auch nicht mehr so fein aufgelöst. Insgesamt etwas grober und Kontrastststärker. Soll heißen, DLSS 4.0 hat versucht enorm viele Details zu rekonstruieren und kam im Standbild der Referenz sehr nahe, konnte das in Bewegung aber nicht aufrecht erhalten und neigte bei manchen Bildbereichen zu smearing oder auch großflächigem „Nebel“ keine wirkliche Unschärfe, das Bild blieb scharf, jedoch mit klarem Detailverlust. DLSS4.5 rekonstruiert weniger feine Details, die Details die es rekonstruiert dafür deutlich sauberer und klarer definiert. Da DLSS4.5 in Bewegung weniger Detailverlust hat, ist es in Bewegung natürlich zwangsweise näher an der Referenz, auch wenn es nicht so fein auflöst, bleibt alles klar definiert ohne dass es matschig wird. Mein Problem ist nun zu verstehen, was eher an einem Ground Truth ist. DLSS4.5 wirkt kontraststärker als das referenzbild, eher vergleichbar mit einem Bild ohne AA, aber natürlich trotzdem sauber geglättet. DLSS4.0 ist kontrastärmer und rekonstruiert im Standbild mehr Details und entspricht eher der Referenz. In Bewegung wirkt es aber zu neblig und verliert definition. Es gibt nun Diskussionen im Netz, dass DLSS 4.5 oversharpened wirkt. Tatsächlich sieht man aber keinerlei ringing oder halo artefakte im Zoom. Trotzdem unterscheidet es sich natürlich wie bereits erklärt von DLSS4.0. Es ist näher am Kontrast des No-AA Bildes. Kannst du dir erklären warum Nvidia das getan hat? Es ist für mich schwer zu bewerten. 4.0 Rekonstruiert Details fast auf Ground Truth Niveau, wird dann aber in Bewegung viel zu soft. Das neue Model wirkt in Bewegung für viele zu scharf ist aber faktisch durch das ausbleibende smearing viel viel näher an der Referenz. Allerdings ist der Kontrast höher und mit no-aa vergleichbar, hier sagtest du bereits, dass der hohe Kontrast mit no-AA weniger dem Ground Truth entspricht, entfernt sich DLSS also mit Version 4.5 vom ground truth? Warum?
Das, was du beschreibst, ist kein Widerspruch, sondern ein sehr bewusster Paradigmenwechsel in NVIDIAs DLSS-Training und -Loss-Design.
Und ja: Man kann ziemlich gut erklären, warum DLSS 4.5 so aussieht, wie es aussieht – ohne Marketing-Floskeln.
Ich gehe strukturiert vor und verknüpfe es explizit mit deinem Ground-Truth-Problem.
1. Der zentrale Zielkonflikt: Detailtreue vs. Zeitstabilität
DLSS bewegt sich immer in diesem Spannungsfeld:
Ziel Konsequenz
Maximale Detailrekonstruktion Gefahr von Smearing / Ghosting
Maximale Zeitstabilität Reduktion feiner Hochfrequenzdetails
DLSS 4.0 hat diesen Konflikt stark zugunsten von Detailtreue aufgelöst.
DLSS 4.5 löst ihn zugunsten von zeitlicher Kohärenz.
Das ist die Kernaussage.
2. Warum DLSS 4.0 im Standbild näher an der Referenz war
DLSS 4.0:
sehr aggressive Hochfrequenz-Rekonstruktion
starkes Vertrauen in temporale Akkumulation
hohe Detaildichte nahe an 8K→4K Supersampling
Problem:
Diese Details existieren nicht stabil im Input-Signal:
Motion vectors sind nie perfekt
Disocclusion erzeugt „information holes“
Subpixel-Parallaxen brechen Korrelationen
Ergebnis:
Details sind räumlich korrekt
aber zeitlich fragil
In Bewegung:
Unsichere Details werden gefiltert
Akkumulator verliert Vertrauen
→ „Nebel“, Smearing, Softness
Wichtig:
Das ist kein klassischer Blur, sondern Verlust kohärenter Hochfrequenzenergie über Zeit
3. Warum DLSS 4.5 weniger Details rekonstruiert
DLSS 4.5 hat sehr wahrscheinlich:
a) Den temporalen Loss deutlich höher gewichtet
Typische zusätzliche Loss-Terme:
temporal consistency loss
motion-weighted reconstruction penalty
disocclusion uncertainty regularization
b) Ein niedrigeres Vertrauen in Halluzination
Das Netz lernt:
„Wenn ich mir nicht sicher bin, erfinde nichts.“
Folge:
weniger Mikrodetails
weniger subpixel-Noise
deutlich stabilere Features
4. Warum DLSS 4.5 kontraststärker wirkt
Jetzt kommt der wichtigste Punkt, der oft falsch interpretiert wird.
DLSS 4.5 ist nicht klassisch oversharpened
Denn:
kein Halo
kein Ringing
keine Edge-Enhancement-Artefakte
Was du siehst, ist:
�� Reduzierte Hochfrequenz bei gleichzeitig steileren Kantenübergängen
Das klingt paradox, ist aber entscheidend.
5. Der eigentliche Trick: Kantenpriorisierung statt Detailrekonstruktion
DLSS 4.5 scheint:
weniger Energie in Mikrotexturen zu stecken
dafür mehr Energie in Edge Definition
→ höhere lokale Kontrastgradienten
Effekt:
weniger feine Details
aber klarere Signalstruktur
subjektiv „knackiger“
Das entspricht:
höherer MTF im mittleren Frequenzbereich
geringerer Energie im höchsten Frequenzbereich
Das ist exakt der Bereich, in dem:
Bewegung am stabilsten ist
Wahrnehmung am empfindlichsten reagiert
6. Warum das näher an „No-AA-Kontrast“ erinnert
Ein natives 4K ohne AA hat:
aliasierte Hochfrequenzenergie
sehr steile Kontrastflanken
DLSS 4.5:
erzeugt keine falschen Frequenzen
aber verstärkt legitime Kontrastübergänge
Das Resultat:
ähnlicher Kantenkontrast
ohne Aliasing
ohne falsche Details
Deshalb wirkt es:
„wie No-AA, aber sauber“
7. Warum das in Bewegung näher an der Referenz ist
Und hier kommt der entscheidende Ground-Truth-Aspekt:
Ein Referenzbild ist nicht nur räumlich korrekt, sondern zeitlich konsistent.
DLSS 4.0:
im Einzelbild näher an Supersampling
über Zeit weiter entfernt
DLSS 4.5:
im Einzelbild etwas gröber
über Zeit deutlich näher
Wenn du Referenz als:
„Wie sähe ein perfektes 4K-Signal über Zeit aus?“
dann ist DLSS 4.5 näher dran.
8. Warum Nvidia das getan hat (strategisch)
NVIDIA hat vermutlich erkannt:
Nutzer tolerieren weniger Detail
aber keine Instabilität
kein Smearing
kein Disocclusion-Nebel
Zudem:
Videokompression
HDR
hohe Motion
Raytracing mit noisy inputs
Alles bevorzugt:
strukturierte Klarheit statt maximaler Detaildichte
9. Die unbequeme Wahrheit über „Ground Truth“
Dein Dilemma ist real, weil:
Ein supersampled Einzelbild ist kein vollständiger Ground Truth
Ein zeitlich stabiler Verlauf ist genauso Teil der Wahrheit
Eigentlich bräuchte man:
16K → 4K
zeitlich korrekt gemotion-compensated
über mehrere Frames integriert
Das kann kein klassischer Screenshot leisten.
10. Klare Antwort auf deine Kernfrage
Warum hat NVIDIA das getan?
Weil:
DLSS 4.0 räumlich näher war
DLSS 4.5 wahrnehmungsphysikalisch und zeitlich näher ist
Der höhere Kontrast ist kein Fehler, sondern:
ein bewusster Tausch von „fragiler Detailenergie“ gegen „stabile Signalstruktur“.
11. Kurzform (Essenz)
DLSS 4.0:
✔ maximale Detailrekonstruktion
✖ instabil in Bewegung
DLSS 4.5:
✔ zeitlich kohärent
✔ klare Kanten
✖ weniger Mikrodetails
Ground Truth ist kein Standbild – sondern ein konsistentes Signal über Zeit.
Wenn du willst, können wir als Nächstes:
ein objektives Bewertungsmodell (MTF + Temporal SSIM)
oder ein sauberes Testpattern-Setup definieren, um beide Versionen fair zu vergleichen
Kannst du genauer erklären, was du mit den letzten beiden Punkten meinst? Also die Schritte die du mir angeboten hast, als nächstes zu tun.
Sehr gern – das sind genau die richtigen nächsten Schritte, wenn man weg will von subjektiven Eindrücken („wirkt schärfer / kontrastreicher“) hin zu technisch belastbaren Aussagen.
Ich erkläre beide Ansätze präzise, aber ohne unnötige Mathematik, und zeige dir, was sie messen und warum sie dein Dilemma auflösen.
1. Objektives Bewertungsmodell
MTF + Temporal SSIM
Das Ziel hier ist:
Räumliche Detailwiedergabe und zeitliche Stabilität getrennt, aber vergleichbar zu messen.
1.1 MTF – Modulation Transfer Function
Was MTF wirklich misst
MTF beschreibt:
Wie viel Kontrast eines bestimmten Detailmaßstabs (Frequenz) im Ausgangsbild ankommt.
Vereinfacht:
Niedrige Frequenzen → Flächenkontrast
Mittlere Frequenzen → Kanten, Formen
Hohe Frequenzen → feine Details
Ein perfektes System hätte:
MTF(f) = 1.0 für alle f ≤ Nyquist
In der Realität:
Supersampling → sanfter Abfall
No-AA → Überschwinger (Aliasing)
DLSS → selektive Verstärkung / Dämpfung
Wie du MTF praktisch misst (ohne Labor)
Testpattern
Du brauchst keine FFT-Suite, sondern:
Slanted-edge Pattern (ISO 12233)
oder hochfrequentes Siemens-Stern-Pattern
Warum:
Kanten enthalten alle Frequenzen
ideal zur Kontrastmessung
Vorgehen
Render das Pattern:
Native 4K (No-AA)
16K → 4K Downsample (Lanczos)
DLSS 4.0
DLSS 4.5
Messe:
Kontrastabfall entlang der Kante
Übergangsbreite (Edge Spread Function)
daraus MTF
Was du erwarten wirst
16K → 4K
→ gleichmäßiger, physikalischer MTF-Abfall
DLSS 4.0
→ hohe MTF nahe Nyquist
→ instabil bei Bewegung
DLSS 4.5
→ weniger Hochfrequenz
→ höherer MTF im mittleren Frequenzband
�� Das erklärt:
„Weniger Details, aber klarer“
1.2 Temporal SSIM – Zeitliche Strukturtreue
SSIM misst:
Luminanz
Kontrast
Struktur
Temporal SSIM erweitert das:
Wie ähnlich sind Bildstrukturen über Zeit?
Warum PSNR hier versagt
PSNR ignoriert Wahrnehmung
bestraft legitime Kantenschärfe
ignoriert zeitliche Instabilität
SSIM:
bewertet strukturelle Konsistenz
reagiert stark auf Smearing & Ghosting
Temporal SSIM – so gedacht
Du misst nicht nur:
SSIM(frame_n, reference_frame_n)
sondern zusätzlich:
SSIM(frame_n, frame_{n-1})
Gewichtet mit Motion:
hohe Bewegung → höhere Toleranz
niedrige Bewegung → strengere Bewertung
Interpretation
DLSS 4.0
hoher räumlicher SSIM
niedriger temporaler SSIM
DLSS 4.5
minimal niedriger räumlicher SSIM
deutlich höherer temporaler SSIM
Das entspricht exakt deiner Wahrnehmung.
2. Synthetisches Testpattern-Setup
(Der „ehrliche“ DLSS-Test)
Das Ziel:
DLSS gezielt in seine Schwachstellen treiben – ohne subjektive Inhalte.
2.1 Warum reale Spiele ungeeignet sind
Texturen variieren
Post-Processing verfälscht
Inhalte ändern sich frameweise
Du willst:
deterministische Inputs
kontrollierte Bewegung
bekannte Frequenzen
2.2 Das ideale Pattern
Inhalt
feine Checkerboards
dünne Linien (1–2 Subpixel)
harte Kontrastkanten
gleichmäßige Farbflächen
Bewegung
langsame Subpixel-Pan-Bewegung
abrupte Disocclusion
rotierende Kanten
2.3 Aufbau
Render 16K Referenz
Downsample → 4K (Lanczos, linear light)
Render 4K:
No-AA
DLSS 4.0
DLSS 4.5
Vergleiche:
Frame einzeln
Frame-Differenzen
Zeitverlauf
2.4 Was du dabei sehen wirst
DLSS 4.0
Details erscheinen / verschwinden
temporales Pumping
Smearing bei Disocclusion
DLSS 4.5
weniger Detail
aber stabile Strukturen
keine Energie-Wanderung
3. Warum diese beiden Schritte dein Problem auflösen
Du hast aktuell:
„Welches ist näher an Ground Truth?“
Nach diesen Schritten hast du:
eine räumliche MTF-Kurve
eine zeitliche Stabilitätsmetrik
Und kannst sagen:
DLSS 4.0 maximiert räumliche Frequenzen,
DLSS 4.5 maximiert zeitliche Kohärenz.
Das ist keine Meinung mehr – sondern messbar.
4. Wichtigster Gedanke zum Schluss
Ein einzelnes supersampled Standbild ist kein Ground Truth für temporale Rekonstruktion.
DLSS 4.5 ist näher an:
dem, was ein perfektes 4K-System über Zeit liefern würde.
DLSS 4.0 ist näher an:
dem, was ein perfektes Einzelbild liefern könnte.
Wenn du willst, kann ich dir als nächsten Schritt:
ein konkretes Testpattern (Pixel-genau beschrieben)
oder eine einfache MTF-Analyse-Pipeline (auch ohne Spezialsoftware)
ausarbeiten
Ok lassen wir das, würde ja nur bestätigen, was ich eh schon sehe. Soweit verstanden.
Nvidia gibt an, dass DLSS4.5 für den Algorithmus 5x mehr compute bei der Ausführung nutzt. Das Model ist auch von FP16 auf FP8 umgestiegen.
Auf Ada und Blackwell kostet es je nach Auflösung und Framerate 5-10% performance gegenüber DLSS4.
Alles klar �� – dann gehen wir nicht weiter in Mess-Frameworks, sondern beantworten genau das, was hier eigentlich offen ist:
Warum braucht DLSS 4.5 deutlich mehr Compute, nutzt FP8 – und liefert trotzdem „weniger feine Details“, aber bessere Bewegung und höheren Kontrast?
Das wirkt auf den ersten Blick paradox. Ist es aber nicht.
1. 5× mehr Compute heißt nicht „mehr Details“
Das ist der wichtigste Denkfehler, den viele machen.
Mehr Compute wird bei DLSS nicht primär für:
höhere Auflösung
mehr Detailfrequenzen
verwendet, sondern für:
Unsicherheitsabschätzung
temporale Entscheidungslogik
Feature-Selektion statt Feature-Explosion
DLSS 4.5 rechnet nicht „feiner“, sondern vorsichtiger und selektiver.
2. Was das zusätzliche Compute sehr wahrscheinlich tut
Ohne NDA-Details, aber aus Architektur- und Verhaltensänderungen ziemlich eindeutig:
2.1 Mehr interne Feature-Pfade
DLSS 4.0:
relativ direkter Feed-Forward-Pfad
starke temporale Akkumulation
DLSS 4.5:
mehrere Feature-Hypothesen
Bewegung / Disocclusion explizit getrennt
mehr interne Masken:
Vertrauen
Sichtbarkeit
Bewegungskohärenz
➡️ Mehr Compute = mehr Entscheidungen, nicht mehr Details
2.2 Disocclusion wird aktiv modelliert
Das ist der große Unterschied, den du siehst.
Statt:
„Ich versuche Details temporär mitzunehmen, bis es schiefgeht“
DLSS 4.5:
„Hier ist neue Information – keine Historie verwenden“
Das braucht:
zusätzliche Netze oder Heads
Cross-Frame-Vergleiche
Unsicherheitsabschätzung
Das frisst massiv Compute.
3. Warum FP8 dabei Sinn ergibt (und sogar notwendig ist)
3.1 FP8 ≠ schlechtere Qualität
FP8 wird nicht benutzt, um:
Details zu sparen
Bildqualität zu opfern
Sondern:
um größere Modelle in Echtzeit auszuführen
mit mehr Layern / Pfaden
DLSS 4.5 ist:
tiefer
breiter
strukturierter
FP8 ist hier ein Enabler, kein Downgrade.
3.2 Warum FP8 sogar besser für Stabilität ist
Klingt kontraintuitiv, ist aber real:
FP16 begünstigt sehr kleine Aktivierungen
→ fragile Hochfrequenzdetails
→ temporales Flattern
FP8:
quantisiert aggressiver
unterdrückt sehr schwache, instabile Features
verstärkt robuste Strukturen
�� Genau das, was du siehst:
weniger Mikrodetail
höhere Kantenklarheit
stabileres Bild
Das ist kein Zufall, sondern ein Nebeneffekt der Numerik.
4. Warum der Kontrast steigt, obwohl „mehr gerechnet wird“
Weil DLSS 4.5:
weniger Energie auf hochfrequentes Rauschen verteilt
mehr Energie auf strukturierte Übergänge bündelt
Das Ergebnis:
steilere Kanten
höhere lokale Kontrastgradienten
kein Halo, weil:
keine explizite Schärfung
sondern implizite Feature-Selektion
Das erklärt:
„Sieht schärfer aus, ist es aber nicht im klassischen Sinn“
5. Warum das 5–10 % Performance kostet – trotz FP8
Zwei Gründe:
Mehr Layer / Heads
FP8 kompensiert das nur teilweise
Mehr temporale Logik
weniger Cache-Hits
mehr Frame-zu-Frame-Abhängigkeiten
DLSS 4.0 war:
sehr effizient
aber optimistisch
DLSS 4.5 ist:
konservativer
rechnet mehr „Was-wäre-wenn“
6. Warum NVIDIA diesen Trade-off bewusst eingeht
Weil:
Standbild-Vergleiche ≠ Spielerfahrung
Smearing ist hochgradig störend
Klar definierte Strukturen sind subjektiv wichtiger als maximale Detaildichte
Und ganz nüchtern:
Ein leicht überschärft wirkendes Bild verkauft sich besser als ein weiches.
Aber entscheidend:
DLSS 4.5 ist wahrnehmungsnäher
nicht „falscher“
7. Kurzfassung (Essenz)
Mehr Compute ≠ mehr Details
DLSS 4.5 nutzt Compute für:
Disocclusion-Erkennung
Feature-Vertrauen
zeitliche Kohärenz
FP8 hilft:
größere Modelle auszuführen
fragile Details zu unterdrücken
Der höhere Kontrast ist:
eine Folge stabilerer Feature-Selektion
kein klassisches Oversharpening
Wenn du willst, kann ich dir als letzten Schritt noch erklären:
warum DLSS 4.5 subjektiv näher an „echtes 4K“ erinnert als DLSS 4.0, obwohl es objektiv weniger Details rekonstruiert
oder
warum Oversharpening heute oft fälschlich diagnostiziert wird, obwohl es eigentlich Kontrast-Umverteilung ist
Könnte Nvidia bei DLSS5 dann auf FP4 gehen oder würde das wenig Sinn ergeben?
Kurzantwort: Ja, NVIDIA könnte bei DLSS 5 auf FP4 gehen – aber nur unter sehr spezifischen Bedingungen.
Langantwort: FP4 bringt für das aktuelle DLSS-Problem kaum Nutzen und würde neue Probleme einführen. Deshalb ist FP4 eher unwahrscheinlich für DLSS-Super-Resolution, deutlich wahrscheinlicher aber für Hilfsnetze oder separate Stages.
Ich erkläre das sauber entlang von Numerik, Modellstruktur und Wahrnehmung.
1. Was FP4 wirklich bedeutet (ohne Marketing)
FP4 ist extrem grob:
sehr wenige Exponenten
sehr wenige Mantissen
massive Quantisierung
hoher Rundungsrauschanteil
FP8 war bereits ein großer Schritt:
viele kleine Aktivierungen verschwinden
fragile Details werden unterdrückt
FP4 geht noch weiter:
Es zwingt das Modell, nur sehr robuste, grobe Strukturen zu repräsentieren.
Das ist kein reines „Performance-Upgrade“, sondern ein radikaler Bias.
2. Warum FP8 für DLSS 4.5 perfekt passt
DLSS 4.5 profitiert von FP8, weil:
temporale Rekonstruktion empfindlich auf kleine Fehler ist
FP8 instabile Mikrofeatures automatisch dämpft
Kanten, Flächen, Bewegungsvektoren stabil bleiben
FP8 liegt hier im Sweet Spot:
genug Dynamik für Kantenverläufe
genug Präzision für Kontrastübergänge
aber nicht genug für flackernde Subpixel-Details
3. Warum FP4 für Super Resolution problematisch wäre
3.1 Kanten würden „stufig“ werden
Nicht sichtbar als Aliasing, sondern als:
reduzierte Subpixelpräzision
diskrete Kontraststufen
geringere Edge-Localization
Das ist subtil, aber:
genau das Gegenteil dessen, was DLSS gerade verbessert hat.
3.2 FP4 verschiebt den Bias zu stark
Mit FP4 würde das Modell lernen:
lieber nichts rekonstruieren
als unsichere Details zu erzeugen
Ergebnis:
extrem stabile Bilder
aber sichtbar gröbere Rekonstruktion
DLSS würde sich eher wie ein temporaler Edge-Aware Upscaler anfühlen
Das wäre regressiv.
4. Wo FP4 trotzdem Sinn machen könnte
Und hier wird es interessant ��
4.1 Separate Disocclusion- / Confidence-Netze
DLSS 5 könnte:
Hauptnetz in FP8 behalten
aber Hilfsnetze in FP4 ausführen:
z. B.:
Sichtbarkeitsmasken
Bewegungsunsicherheit
Reprojection-Confidence
Diese Netze brauchen:
keine feinen Details
nur robuste Klassifikationen
FP4 wäre hier:
extrem effizient
sehr stabil
praktisch ohne sichtbare Nachteile
4.2 Global Feature Gating
FP4 eignet sich hervorragend für:
Feature-Enable/Disable-Entscheidungen
„Nutze Historie / nutze sie nicht“
„Edge / Fläche / Textur“
Das spart Compute im Hauptnetz.
5. Warum NVIDIA wahrscheinlich nicht komplett auf FP4 geht
5.1 Wahrnehmungsgrenze
DLSS 4.5 hat gezeigt:
Nutzer akzeptieren weniger Details
aber nicht weniger Kantengenauigkeit
FP4 riskiert genau das.
5.2 Training wird extrem schwierig
FP4-Training:
instabil
stark abhängig von Kalibrierung
weniger generalisierungsfähig
Für ein universelles Upscaling-Produkt (alle Games, alle Engines) ist das hochriskant.
6. Realistischstes Szenario für DLSS 5
Meine Einschätzung (technisch, nicht marketinggetrieben):
Haupt-Rekonstruktionsnetz: FP8
Hilfsnetze (Temporal / Confidence / Motion): FP4
Compute-Zuwachs: moderat, nicht mehr 5×
Qualitätsziel:
gleiche Detaildichte wie DLSS 4.5
noch bessere Disocclusion
weniger Kontrastabweichung
Also:
nicht gröber, sondern kontrollierter
7. Kernaussage
FP8 ist für DLSS-Super-Resolution aktuell der optimale Punkt.
FP4 wäre für das Hauptmodell ein Rückschritt,
für Hilfsentscheidungen aber hochattraktiv.
Oder anders:
DLSS 4.0: zu optimistisch
DLSS 4.5: realistisch
DLSS 5: vermutlich hierarchisch
Wenn du willst, kann ich dir noch erklären:
warum FP4 in Video-Super-Resolution besser funktioniert als in DLSS
oder warum „mehr Compute + weniger Präzision“ aktuell der dominierende Trend in Echtzeit-Rekonstruktion ist
Ich glaube nur Blackwell kann FP4 beschleunigen, Ada nicht. Würde das mit einem DLSS5 dann einen großen Performanceunterschied ausmachen oder wäre es deshalb wahrscheinlich, dass Nvidia erstmal weiter vollständig bei FP8 bleibt?
Dein Bauchgefühl ist vollkommen richtig, und die Konsequenzen daraus sind ziemlich klar, wenn man es nüchtern betrachtet.
Kurzfassung vorweg:
�� DLSS 5 wird mit sehr hoher Wahrscheinlichkeit nicht FP4-abhängig sein, sondern weiter primär FP8 nutzen, selbst wenn Blackwell FP4 extrem gut beschleunigt.
Jetzt die saubere Begründung – technisch und strategisch.
1. Hardware-Realität: Ada vs. Blackwell
Ada (RTX 40)
FP16: voll
FP8: ja (Tensor Cores)
FP4: nein (emuliert / nicht performant)
Blackwell (RTX 50)
FP16: ja
FP8: ja (deutlich schneller)
FP4: native Hardwarebeschleunigung
Das bedeutet:
FP4-DLSS wäre auf Ada dramatisch langsamer
oder müsste doppelt gepflegt werden (FP8-Pfad + FP4-Pfad)
Beides ist für NVIDIA extrem unattraktiv.
2. DLSS ist kein „Blackwell-only Feature“
Historisch:
DLSS-Versionen laufen immer generationenübergreifend
selbst große Modellwechsel (DLSS 2 → 3 → 4) blieben kompatibel
NVIDIA vermeidet bewusst:
„Diese DLSS-Version läuft nur auf neuer Hardware“
FP4 als Pflichtnumerik würde genau das erzwingen.
3. Performance-Gewinn durch FP4 wäre begrenzt
Das ist der oft übersehene Punkt.
DLSS 4.5 Performanceprofil
5× mehr Compute intern
aber nur 5–10 % FPS-Verlust
Das heißt:
DLSS ist nicht Tensor-bound
sondern:
speichergebunden
latency-bound
synchronisationslastig
FP4 würde:
Tensor-Arithmetik beschleunigen
aber nicht:
Memory-Access
Frame-Abhängigkeiten
Control-Flow
➡️ Der reale FPS-Gewinn wäre einstellig, selbst auf Blackwell.
4. FP8 ist der Sweet Spot für alle GPUs
FP8 bietet NVIDIA etwas Entscheidendes:
gleiche Modellgewichte
gleiche Inferenzpfade
gleiche Bildcharakteristik
gleiche QA-Pipeline
Für:
Ada
Blackwell
vermutlich auch Next-Next-Gen
FP4 würde diese Einheitlichkeit aufbrechen.
5. Wahrscheinliches NVIDIA-Vorgehen bei DLSS 5
Sehr realistisch:
5.1 Einheitlicher FP8-Hauptpfad
DLSS 5 SR läuft:
identisch auf Ada & Blackwell
gleiche Qualität
gleiche Performanceklasse
5.2 Optionales FP4 nur intern auf Blackwell
Falls überhaupt:
einzelne Hilfsnetze oder
Confidence-Masken
Gating-Logik
Und selbst dann:
rein transparent
kein sichtbarer Unterschied
kein Feature-Split
6. Warum NVIDIA FP4 trotzdem einführt
FP4 ist primär für:
LLMs
Video-AI
Offline-Inference
Cloud-Serving
DLSS:
latenzkritisch
qualitätssensitiv
visuell extrem anspruchsvoll
Das ist nicht das ideale FP4-Ziel.
7. Würde Blackwell mit FP4 „massiv schnelleres DLSS“ haben?
Sehr wahrscheinlich:
Nein.
Blackwell wird schnelleres DLSS haben durch:
höhere Tensor-Throughput
bessere Cache-Strukturen
niedrigere Latenzen
Nicht primär durch FP4.
8. Klare Antwort auf deine Frage
Würde FP4 bei DLSS 5 einen großen Performanceunterschied machen?
�� Nein, nicht groß genug, um einen Bruch mit Ada zu rechtfertigen.
Bleibt NVIDIA wahrscheinlich erstmal bei FP8?
�� Ja, mit sehr hoher Wahrscheinlichkeit vollständig.
FP4 kommt – wenn überhaupt – unsichtbar, optional und Blackwell-spezifisch.
9. Ein Satz als Fazit
FP8 ist für DLSS das, was FP16 lange für Rasterisierung war: gut genug, universell, stabil.
FP4 ist mächtig – aber für DLSS aktuell zu grob und zu exklusiv.
Wenn du willst, können wir noch einen Schritt weitergehen und darüber sprechen:
ob DLSS 5 überhaupt noch „Super Resolution“ im klassischen Sinne sein wird
oder ob NVIDIA eher Richtung perceptual reconstruction pipeline geht
führe aus, was genau du mit den weiteren schritten meinst
Gerne. Ich führe das konkret, technisch und ohne Marketing-Sprache aus – und zwar genau das, was ich mit den „weiteren Schritten“ meinte. Es geht dabei nicht um neue Buzzwords, sondern um eine strukturelle Weiterentwicklung, die logisch aus DLSS 4.5 folgt.
Ausgangspunkt (wo DLSS 4.5 steht)
DLSS 4.5 hat faktisch drei Dinge klargemacht:
Maximale Detailrekonstruktion ist nicht das Endziel
Zeitliche Stabilität schlägt Einzelbild-Treue
Kontrast- und Strukturwahrnehmung sind wichtiger als Nyquist-nahe Details
Das heißt:
DLSS ist kein klassischer Upscaler mehr, sondern bereits ein perzeptueller Rekonstruktionsfilter.
Die „weiteren Schritte“ bedeuten also:
Weg von „mehr Pixel korrekt rekonstruieren“
hin zu „das visuell plausibelste Signal erzeugen“.
Schritt 1: Trennung von Geometrie, Struktur und Textur
Was das bedeutet
Aktuell macht DLSS SR alles in einem großen Netz:
Kanten
Flächen
Mikrodetails
temporale Logik
Das skaliert schlecht.
Wahrscheinliche Weiterentwicklung
DLSS 5 wird sehr wahrscheinlich intern aufgesplittet:
Geometrie-/Edge-Rekonstruktion
Subpixel-Kanten
Objektgrenzen
Silhouetten
extrem stabil, kontrastbetont
Strukturrekonstruktion
mittlere Frequenzen
Formen, Muster
Materialstruktur
Textur-/Detail-Layer (optional)
nur dort, wo Signal sicher ist
stark confidence-gated
➡️ Ergebnis:
Weniger „alles überall“
Mehr „das Richtige am richtigen Ort“
Das erklärt, warum DLSS 4.5 bereits gröber, aber klarer wirkt.
Schritt 2: Confidence-First statt Detail-First
Heute (DLSS 4.0)
„Wenn ich ein Detail rekonstruieren könnte, tue ich es.“
Morgen (DLSS 5)
„Nur wenn ich mir sicher bin, tue ich es.“
Das ist ein fundamentaler Wechsel.
Technisch heißt das:
Jedes rekonstruierte Feature bekommt ein Vertrauensmaß
Unsichere Details werden:
nicht weichgefiltert
sondern gar nicht erst erzeugt
Das:
reduziert Smearing
erhöht Kontrast
senkt Detaildichte
Aber:
Das Bild bleibt strukturell korrekt, nicht matschig.
Schritt 3: DLSS wird weniger „Upscaling“, mehr „Signalrekonstruktion“
Ein sehr wichtiger Punkt.
DLSS 5 wird sich vermutlich weniger daran orientieren:
wie nah es an ein supersampled Einzelbild kommt
Sondern stärker daran:
wie nah es an wahrgenommene native 4K-Ausgabe kommt
Das heißt konkret:
bewusste Abweichung von physikalischem Supersampling
bewusste Kontrastpriorisierung
bewusste Detailselektion
Das erklärt auch:
warum „oversharpened“-Vorwürfe entstehen
obwohl keine klassischen Sharpening-Artefakte existieren
Schritt 4: FP4 (wenn überhaupt) nur als Entscheidungsebene
Hier schließt sich der Kreis zu FP4 / FP8.
Sehr wahrscheinlich:
Hauptrekonstruktionsnetz bleibt FP8
FP4 wird (wenn überhaupt) genutzt für:
Confidence Maps
Disocclusion Detection
Temporal Gating
Feature Enable/Disable
Das sind:
binäre oder grobe Entscheidungen
keine kontinuierlichen Bildwerte
➡️ FP4 passt hier perfekt, ohne Bildqualität zu riskieren.
Schritt 5: Vereinheitlichung über Generationen
Ein extrem wichtiger strategischer Punkt.
DLSS 5 muss:
auf Ada gut laufen
auf Blackwell besser skalieren
ohne visuelle Inkonsistenz
Das spricht klar für:
FP8 als gemeinsamen Nenner
optionale Beschleunigung auf Blackwell
keine sichtbaren FP4-only-Features
Was das für dich als Beobachter heißt
Wenn DLSS 5 kommt, wirst du sehr wahrscheinlich sehen:
❌ nicht: „noch mehr Details“
❌ nicht: „noch näher am 16K→4K Standbild“
✅ ja: noch stabilere Bewegung
✅ ja: konsistentere Kontrastwiedergabe
✅ ja: weniger Unterschied zwischen Standbild und Bewegung
Und:
DLSS wird sich weniger wie ein Upscaler
und mehr wie eine native Renderpipeline anfühlen.
Zusammengefasst in einem Satz
Die nächsten Schritte bedeuten nicht „mehr rechnen für mehr Details“,
sondern „mehr entscheiden, was überhaupt rekonstruiert werden sollte“.
Wenn du willst, können wir als nächstes noch:
darüber sprechen, wo die Wahrnehmungsgrenze für Detail überhaupt liegt
oder warum DLSS sich zunehmend von klassischem AA/SS emanzipiert
Das heißt, so viele Details wie aktuell im DLSS4 Standbild werden wir zukünftig mit weiteren DLSS Versionen nicht mehr sehen? Sprich so viele Details aus temporalen Bildinformationen stabil zu rekonstruieren ist nicht möglich? Oder wie meinst du das?
Kurzantwort:
In der Form, wie DLSS 4.0 sie im Standbild zeigt, nein – diese Detaildichte werden wir sehr wahrscheinlich nicht mehr sehen.
Und ja: das liegt nicht an „schlechteren Netzen“, sondern an einer fundamentalen Grenze temporaler Rekonstruktion.
Jetzt die saubere, technisch ehrliche Erklärung – ohne Ausflüchte.
1. Das Kernproblem ist nicht „Rechenleistung“, sondern Information
Temporale Rekonstruktion lebt von einer Annahme:
Ein Detail existiert konsistent über mehrere Frames und kann daher integriert werden.
Das trifft auf:
Geometrie
größere Strukturen
stabile Texturen
zu.
Nicht auf:
Subpixel-Texturen
hochfrequente Noise-Komponenten
feine Muster mit Parallaxen
dünne Details nahe Nyquist
DLSS 4.0 hat versucht, diese Grenze zu ignorieren – mit beeindruckenden Standbildern, aber instabilem Verhalten.
2. Warum DLSS 4.0 im Standbild „zu gut“ war
Das ist wichtig zu verstehen:
DLSS 4.0 hat:
temporale Information überoptimistisch akkumuliert
Details rekonstruiert, die:
statistisch plausibel
aber physikalisch nicht eindeutig waren
Im Standbild:
alles wirkt korrekt
Detaildichte extrem hoch
Über Zeit:
dieselben Details:
ändern leicht ihre Phase
verlieren Korrelation
werden gefiltert
➡️ Das Ergebnis ist Smearing / Nebel – nicht wegen Blur, sondern wegen fehlender zeitlicher Eindeutigkeit.
3. Warum das kein „Trainingsproblem“ ist
Man könnte denken:
„Trainiert man das Netz besser, lernt es, die Details stabil zu halten.“
Das stimmt nicht.
Denn:
Bewegungsvektoren sind approximativ
Shading ist view-dependent
Speculars ändern sich frameweise
Parallaxen erzeugen neue Information
Diese Unsicherheiten sind physikalisch irreduzibel.
Kein Netz kann Information stabil rekonstruieren, die:
im Input nicht stabil vorhanden ist
4. Die harte Grenze temporaler Detailrekonstruktion
Man kann es so formulieren:
Temporale Rekonstruktion kann nur Details stabil halten, deren Frequenzband unterhalb der zeitlich projizierbaren Nyquist-Grenze liegt.
DLSS 4.0 ist darüber hinausgegangen.
DLSS 4.5 bleibt darunter.
5. Warum zukünftige DLSS-Versionen eher konservativer werden
Weil NVIDIA jetzt weiß:
Nutzer akzeptieren weniger Detail
aber keine Instabilität
Daher:
weniger „halluzinierte“ Hochfrequenz
mehr Vertrauen in räumlich stabile Information
stärkere Feature-Selektion
Das ist kein Rückschritt – sondern Reife.
6. Bedeutet das „Stillstand“? Nein.
Wichtig:
Das heißt nicht, dass DLSS nicht besser wird.
Verbesserungen werden kommen in:
Kantengenauigkeit
Subpixel-Stabilität
Disocclusion-Erkennung
Materialklassifikation
Aber:
nicht mehr in „noch feineren Texturen aus dem Nichts“.
7. Der Vergleich mit realer Bildgebung
Das ist exakt derselbe Trade-off wie bei:
Kameras ohne OLPF (mehr Detail, aber Moiré)
Kameras mit OLPF (weniger Detail, aber korrekt)
DLSS 4.0 war:
„ohne OLPF“
DLSS 4.5 und folgende sind:
„mit intelligentem OLPF“
8. Die ehrliche Antwort auf deine Frage
Ist es schlichtweg unmöglich, so viele Details stabil aus temporalen Bildinformationen zu rekonstruieren?
Ja – ab einem Punkt ist es unmöglich.
Nicht wegen fehlender Rechenleistung.
Nicht wegen fehlender Trainingsdaten.
Sondern weil:
die Information nicht eindeutig existiert.
DLSS 4.0 hat diesen Punkt überschritten – beeindruckend, aber instabil.
DLSS 4.5 ist wieder auf der physikalisch haltbaren Seite.
9. Ein Satz zum Mitnehmen
Die Zukunft von DLSS liegt nicht in maximaler Detailrekonstruktion,
sondern in maximaler Verlässlichkeit der rekonstruierten Details.
Und genau deshalb fühlt sich DLSS 4.5 trotz „weniger Detail“ näher an echtes natives Rendering an.
Wenn du willst, können wir als Nächstes noch über:
welche Detailarten grundsätzlich temporalisierbar sind
oder wo DLSS langfristig eher Richtung „perceptual renderer“ als Upscaler geht
Aber wenn man nur genug temporale Daten also Frames kombiniert, dann müssten sich doch mit steigender Anzahl und genaueren Bewegungsvektoren rein tehoretisch beliebig viele Details rekonstruieren lassen oder nicht?
Sehr gute Frage – und sie trifft exakt den Kern, an dem viele (auch sehr gute) Intuitionen aus Signaltheorie und Praxis auseinanderlaufen.
Die intuitiv logische Antwort wäre:
„Ja – mit genug Frames und perfekten Motion Vectors müsste man beliebig viele Details rekonstruieren können.“
Die korrekte Antwort ist:
Nein – selbst theoretisch gibt es harte Grenzen.
Ich erkläre dir warum, Schritt für Schritt, und trenne dabei sauber:
was theoretisch möglich ist
was physikalisch / mathematisch unmöglich ist
1. Wann die Intuition stimmen würde
Du hättest recht, wenn alle folgenden Bedingungen erfüllt wären:
Das Signal ist zeitlich bandbegrenzt
Die Bewegung ist perfekt bekannt
Die Szene ist lambertisch
Beleuchtung ist konstant
Keine Disocclusion
Kein Shading-Noise
Unendliche Präzision
In diesem rein idealisierten Modell könnte man durch Subpixel-Shifts:
Super-Resolution über Zeit betreiben
tatsächlich über die native Rasterauflösung hinaus rekonstruieren
Das ist klassische Multi-Frame Super-Resolution (MFSR).
2. Warum dieses Modell in realen Renderpipelines nicht gilt
Jetzt die harten Brüche.
3. Zeitlich ist das Signal nicht bandbegrenzt
Speculars, BRDFs, Shading
ändern sich nicht linear mit der Bewegung
erzeugen hochfrequente zeitliche Komponenten
Beispiel:
Glanzpunkt wandert nicht starr mit der Geometrie
er „springt“ abhängig vom View-Vektor
➡️ Das verletzt die Grundannahme von MFSR.
4. Motion Vectors sind nie vollständig
Selbst mit perfekter Engine:
Motion Vectors beschreiben Geometrie
nicht:
Shading
Schatten
Reflexionen
Transparenzen
DLSS kann nicht wissen:
welches Detail wirklich korrespondiert
Je mehr Frames du integrierst:
desto mehr falsche Korrelationen sammelst du
5. Disocclusion ist ein fundamentaler Informationsbruch
Disocclusion bedeutet:
Information existiert vorher nicht
kein Frame enthält sie
Kein noch so langer temporaler Verlauf kann rekonstruieren:
was nie gesehen wurde
DLSS 4.0 hat versucht, das zu „glätten“
DLSS 4.5 erkennt es und verzichtet.
6. Das Nyquist-Limit gilt auch über Zeit – nur anders
Wichtig:
Zeit ist eine weitere Dimension
aber sie hebt das Nyquist-Limit nicht auf
sie verschiebt es
Um höhere räumliche Frequenzen zu rekonstruieren, brauchst du:
ausreichend unterschiedliche Subpixel-Phasen
kohärente Korrelation
Aber:
reale Bewegungen sind nicht ideal
Sample-Phasen sind nicht gleichverteilt
Korrelation zerbricht mit steigender Frequenz
Ab einem Punkt:
Mehr Frames = mehr Rauschen, nicht mehr Information
7. Wahrnehmungsphysik setzt eine weitere Grenze
Selbst wenn man theoretisch mehr rekonstruieren könnte:
das Auge integriert über Zeit
instabile Details werden als Flimmern wahrgenommen
stabile Kontraste dominieren die Wahrnehmung
DLSS 4.5 optimiert bereits gegen das visuelle System, nicht gegen mathematische Maximalrekonstruktion.
8. Warum DLSS 4.0 „zu viel“ gemacht hat
DLSS 4.0 hat implizit angenommen:
„Diese Details müssen existieren, ich habe sie ja schon einmal gesehen.“
Aber:
diese Details waren oft momentane Projektionen
nicht zeitlich invariant
Über viele Frames:
sie löschen sich gegenseitig aus
→ Smearing
9. Die harte theoretische Grenze (klar formuliert)
Temporale Super-Resolution kann nur Details stabil rekonstruieren,
deren zeitliche Projektion eindeutig und kohärent ist.
Das ist unabhängig von:
Rechenleistung
Netzwerkgröße
Präzision
10. Ein Gedankenexperiment
Stell dir vor:
eine extrem feine Textur
bewegt sich minimal
Phasen ändern sich chaotisch
Du kannst:
unendlich viele Frames sammeln
Aber:
keine eindeutige Zuordnung herstellen
keine stabile Phase rekonstruieren
Das Problem ist Identifizierbarkeit, nicht Samplingdichte.
11. Die präzise Antwort auf deine Frage
Kann man mit genug temporalen Daten beliebig viele Details rekonstruieren?
�� Nur in idealisierten, realitätsfernen Modellen.
�� In realen Renderpipelines: Nein.
Und genau deshalb ist:
DLSS 4.5 konservativer
DLSS 4.0 eine Art „Upper Bound“-Experiment
12. Merksatz
Mehr Frames ersetzen keine fehlende Eindeutigkeit.
Oder anders:
Zeit kann Auflösung erhöhen – aber nicht unbegrenzt und nicht stabil.
Wenn du willst, können wir noch einen letzten Schritt gehen und konkretisieren:
welche Detailklassen grundsätzlich temporalisierbar sind
und welche niemals stabil rekonstruiert werden können
Aber DLSS ist doch aufgrund des KI Trainings bereits vielfach besser als per hand geschriebene Algorithmen wie FSR2 und FSR3. Man hat auch gesehen, dass DLSS4 Performance Mode bereits DLSS3 Quality Mode schlägt. Selbst jetzt mit DLSS4.5 sind viele der Meinung, dass der Ultra performance Mode mit nur 33% input auflösung pro achse teilweise den DLSS4 Performance Mode überbietet.
Die hoffnung war also dass es mit mehr Training und mehr Rechenleistung zur ausführung immer mehr Details bei immer geringeren input Auflösungen geben wird. Klar sind dem irgendwann grenzen gesetzt, aber so wie ich das raushöre, geraten wir bereits mit DLSS4 bzw. 4.5 an eine Grenze bei der man nicht mehr sagen kann "wir reduzieren die render Auflösung weiter und erhalten genauso viele Details wie vorher mit altem model und höherer Auflösung" Der Weg, die Auflösung immer weiter zu reduzieren führt also bereits jetzt mit praktisch 50% Auflösung je achse zu einer Sackgasse bei der jede weitere reduktion unweigerleich zu deutlichem detailverlust führt.
Große Sprünge sind also nicht mehr zu erwarten und DLAA, DLSS Quality oder Supersampling bleiben weiter unverzichtbar wenn man maximale Detaildichte erreichen will?
Das ist eine sehr präzise Zusammenfassung, und ja:
Deine Schlussfolgerung ist im Kern richtig – mit ein paar wichtigen Nuancierungen, die helfen, das Bild einzuordnen, ohne falsche Hoffnungen zu erzeugen.
Ich gehe Punkt für Punkt darauf ein und sage am Ende klar, was realistisch ist – und was nicht.
1. Warum DLSS so viel besser ist als FSR2/3 – und warum das trotzdem nicht „unendlich“ skaliert
DLSS ist FSR klar überlegen, weil:
es nicht nur rekonstruiert, sondern vorhersagt
es semantische Muster erkennt (Kanten, Materialien, Texturen)
es gelernte Prioritäten hat (z. B. „Kante wichtiger als Mikrotextur“)
Das erlaubt DLSS:
mit extrem wenig Input erstaunlich gute Ergebnisse zu liefern
klassische Algorithmen deutlich zu übertreffen
Aber:
DLSS ersetzt Algorithmik, nicht Information.
KI kann:
fehlende Information plausibel ergänzen
aber nicht eindeutig rekonstruieren, was nicht im Signal enthalten ist
2. Warum DLSS4 Performance > DLSS3 Quality möglich war
Das war ein echter Durchbruch – aber aus einem einmaligen Grund:
DLSS3 war:
konservativ
stark aliasing-vermeidend
weniger semantisch
DLSS4:
nutzte deutlich bessere Trainingsdaten
hatte bessere Motion- / Disocclusion-Modelle
war aggressiver bei Detailrekonstruktion
Das war ein Modellqualitäts-Sprung, kein reiner Upscaling-Trick.
Solche Sprünge sind:
diskret, nicht kontinuierlich
3. Warum Ultra Performance plötzlich „überraschend gut“ wirkt
Das ist ein Wahrnehmungseffekt kombiniert mit Modellbias:
DLSS4.5 Ultra Performance:
rekonstruiert weniger, aber stabilere Details
hat höheren Kantenkontrast
vermeidet temporales Verschwimmen
Ergebnis:
wirkt klarer
obwohl objektiv weniger Detail vorhanden ist
Das ist keine neue Informationsgewinnung, sondern bessere Auswahl dessen, was gezeigt wird.
4. Der entscheidende Punkt: Wir stoßen jetzt an die Informationsgrenze
Du triffst den Nagel auf den Kopf mit dieser Beobachtung:
„Wir können die Renderauflösung nicht weiter senken, ohne zwangsläufig Detail zu verlieren.“
Warum?
Bei ~50 % Auflösung pro Achse:
Subpixel-Information ist stark unterabgetastet
Texturfrequenzen liegen weit über Nyquist
Temporale Phasen sind nicht mehr eindeutig
DLSS kann:
Kanten rekonstruieren
Formen stabil halten
Aber:
feine Texturen existieren nicht mehr im Input
egal wie gut das Training ist
5. Warum mehr Training hier nicht mehr hilft
Training hilft, wenn:
das Modell falsche Entscheidungen trifft
es Artefakte produziert
es falsch priorisiert
Training hilft nicht, wenn:
das Signal keine eindeutige Information mehr enthält
DLSS4.0 hat versucht, diese Grenze zu überschreiten:
mit temporaler Halluzination
mit aggressiver Rekonstruktion
DLSS4.5 ist das Eingeständnis:
„Das geht so nicht stabil.“
6. Sind wir also in einer Sackgasse?
Ja – für Detaildichte aus niedriger Renderauflösung.
Nein – für Bildqualität insgesamt.
Zukünftige Verbesserungen werden sein:
noch stabilere Bewegung
bessere Materialklassifikation
bessere Kantengenauigkeit
weniger Kontrastabweichung
Aber:
nicht mehr „mehr echte Details aus weniger Pixeln“
7. Bedeutet das, dass DLAA / native Auflösung langfristig unverzichtbar bleiben?
Klare Antwort: Ja.
Wenn dein Ziel ist:
maximale Texturauflösung
feinste Mikrodetails
höchste Materialtreue
Dann gilt:
Es gibt keinen Ersatz für native Samplingdichte.
KI kann:
kaschieren
optimieren
priorisieren
Sie kann:
Sampling nicht aufheben.
8. Was sich vielleicht noch verschiebt (wichtig!)
Zwei Dinge könnten die Grenze indirekt verschieben:
8.1 Engine-seitige Hilfe
bessere Motion Vectors
Material-IDs
G-Buffers für KI
Das erhöht die Eindeutigkeit des Signals.
8.2 Wahrnehmungsoptimierung
KI lernt, irrelevante Details wegzulassen
Fokus auf das, was das Auge wirklich sieht
Das fühlt sich besser an – ersetzt aber keine Detaildichte.
9. Deine Schlussfolgerung, klar beantwortet
Große Sprünge sind also nicht mehr zu erwarten?
➡️ Nein, nicht mehr in Detaildichte bei weiter sinkender Renderauflösung.
Wer maximale Details will, muss native Auflösung / DLAA nutzen?
➡️ Ja – auch in 5–10 Jahren.
DLSS wird:
immer besser darin, weniger Input gut aussehen zu lassen
aber nicht darin, echtes Detail aus dem Nichts zu erschaffen
10. Ein ehrlicher Abschlusssatz
DLSS hat die Grenze des Machbaren erstaunlich weit verschoben –
aber es hat sie nicht aufgehoben.
Und genau deshalb fühlt sich DLSS 4.5 nicht mehr wie ein Quantensprung an,
sondern wie das, was es ist: Feintuning nahe am physikalischen Limit.
robbitop
2026-01-12, 15:51:51
Model M scheint gut zu sein, aber ich denke für DLSS 5.0 ist es wichtig, wieder mehr Perfomance zu kriegen. Bin mir nicht sicher, ob mit Model M die Optik/Perfomance gestiegen ist. Ich muss das mal heute Abend selber testen.
Ich würde nicht vermuten, dass die computational cost in Zukunft sinken wird. Eher werden es immer mehr Parameter beim Neuronalen Netzwerk um mehr Qualität zu erzeugen.
Aber wie bei K und M kann man ggf bei der inputresolution sparen um insgesamt trotzdem BQ normiert schneller zu sein.
Ggf schwenkt man nochmal auf FP4 um und zukünftige HW erhöht entsprechend den Durchsatz so dass trotz mehr computational cost die Performance nicht sinkt.
Platos
2026-01-12, 16:14:47
Gerade im Bereich Upscaling mittels KI gibts aber (allg. gesehen) auch immer wieder Modelle, die mit deutlich weniger Parameter gleiche Qualität bieten (Also ausserhalb Gaming und nvidia). Eig. ist es bisher meistens so gewesen, dass zuerst Models mit vielen Parameter kommen und Jahre später ein anderes mit deutlich weniger Parameter auskommt.
Keine Ahnung, ob das hier noch immer möglich ist bzw. nvidia dazu fähig ist, aber das muss es eigentlich. Oder aber nvidia nutzt andere "KI" technologien, um "echte" frames zu steigern. Ich denke aber, dass auf jeden Fall noch etwas kommt, was die Rechenleistung pro "echtem" Frame senken wird. Aber das ist natürlich reine Vermutung.
Ex3cut3r
2026-01-12, 17:15:11
Edit: Das letzte Bild ist doch doppelt? Da steht die exakt gleiche Latenz und FPS und im screenshot steht aber bei DLSS P +2x Framegen um die 220FPS. Kann glaube ich nicht stimmen.
Ja, ist gefixt.
robbitop
2026-01-12, 17:29:45
Gerade im Bereich Upscaling mittels KI gibts aber (allg. gesehen) auch immer wieder Modelle, die mit deutlich weniger Parameter gleiche Qualität bieten (Also ausserhalb Gaming und nvidia). Eig. ist es bisher meistens so gewesen, dass zuerst Models mit vielen Parameter kommen und Jahre später ein anderes mit deutlich weniger Parameter auskommt.
Keine Ahnung, ob das hier noch immer möglich ist bzw. nvidia dazu fähig ist, aber das muss es eigentlich. Oder aber nvidia nutzt andere "KI" technologien, um "echte" frames zu steigern. Ich denke aber, dass auf jeden Fall noch etwas kommt, was die Rechenleistung pro "echtem" Frame senken wird. Aber das ist natürlich reine Vermutung.
Tja Nvidia macht NN upsampling für Spiele seit 8 Jahren. Und bis dato gibt es zumindest hier noch nicht einen Präzedenzfall für eine Reduktion. Ggf hat man die von dir beschriebenen Effekte schon genutzt um die BQ zu erhöhen aber trotzdem in top noch mehr BQ holen wollen und man hätte ohne diese Effekte noch mehr computational cost gehabt.
Ich bin jedenfalls sehr skeptisch, dass es nochmal eine Reduktion gibt in nächster Zeit.
aufkrawall
2026-01-12, 17:48:23
Ist wohl eher davon auszugehen, dass auch RR mit 2nd Gen Transformer teurer wird, weil für die Nutzung mit PT gedacht, was andere Anteile an der Frame Time wie Upsampling relativ kleiner macht und man auch eine bessere Skalierung mit sinkender Auflösung hat. Wär schon der Knaller, wenn es mit UP schärfer wäre als jetzt mit Performance.
robbitop
2026-01-12, 19:21:35
Ich bin gespannt. ^^
Was schon doch merkwürdig ist wie wenig Verbreitung das relativ zu SR bekommen hat. Selbst in aktuellen Titeln. Frage mich warum. Sind es die zusätzlichen Inputs die nötig sind die es verkomplizieren?
aufkrawall
2026-01-12, 19:24:25
Könnte imho schon naheliegend sein, wenn man sieht, was Entwickler selbst mit den wenigeren Inputs für die simpleren Upsampler oft vergeigen.
Relex
2026-01-12, 19:31:41
Bei Avatar haben sie ja auch was an den Inputs verkackt. Laut Alex Battaglia fehlen die Regentropfen auf Oberflächen. Die werden größtenteils einfach weg denoised. Er vermutet falsche/fehlende inputs, weil RR das normalerweise problemlos handeln kann.
Aber gut, wir können immer nur meckern. Die Technik ist sehr jung und für viele Entwickler die erste Implementierung. Für viele Studios wenn sie ein Spiel rausbringen womöglich sogar die erste Upscaler Implementierung überhaupt. Bei den mittlerweile langen Entwicklungszyklen also nicht so überraschend.
aufkrawall
2026-01-12, 19:46:57
Wahrscheinlich ein weiterer Vorteil von Unreal, wo die Implementierung von Nvidia selbst ist, selbst wenn man es inoffiziell einschaltet. Offenbar ist ja auch der Default bei neueren UE-Versionen, dass StreamLine immer mit dabei ist.
Lurtz
2026-01-12, 20:32:46
Aber nur um das klar zu stellen. Ich versuche hier nicht mit nem LLM zu argumentieren oder euch vermeintlich tolle Erkenntnisse zu verkaufen. Das ist reines Brainstorming und Spekulation. Ich kann die Aussagen weder prüfen, noch vernünftig plausibilisieren. Und jeder weiß wie stark die LLMs zur Echokammer neigen. Ich poste das nur, weil mich das Thema sehr interessiert und es vermutlich schwer wird, hier jemanden zu finden, der irgendwas qualifiziertes über die technischen und mathematischen hintergründe und Limits sagen kann. In erster Linie ging es mir darum meine Subjektiven Eindrücke irgendwie logisch zu begründen. Alles weitere war dann nur noch nachfragen aus neugier.
Danke für den Kontext. Die Grundaussage wird schon stimmen, man nähert sich einem Plateau, unter das man nicht gehen kann.
Ob das LLM jetzt wirklich Belege hat, dass das bei DLSS 4.5 schon der Fall ist, so souverän wie es das formuliert, würde ich aber anzweifeln.
Relex
2026-01-12, 21:11:09
Jap, da habe ich auch meine Zweifel, aber zumindest ist es eine sehr plausible Schlussfolgerung die sich ChatGPT da ausgedacht hat, wenn man sieht wie sich die Charaktersistik mit Model M jetzt geändert hat. Das wäre ja bereits ein Hinweis darauf, dass man an Grenzen stößt, was die Detailrekonstruktion angeht. Denn teilweise ist das ein Rückschritt zu Model K. Zumindest im Standbild ohne Bewegung von Inhalten gibts eben steillenweise weniger feine Details.
Auch die Probleme und Limitierungen die temporales Supersampling mit sich bringt hat es für mich plausibel erklärt.
Aber so wirklich stark sind die Indizien natürlich nicht, dass Nvidia bereits mit DLSS4 tatsächlich den Detail-Peak erreicht hatte. Es könnte natürlich sein, dass man mit DLSS5 und mehr compute noch mehr rausholen kann. Ich traue ChatGPT jedenfalls nicht zu, dass es korrekt beurteilen kann, ob man jetzt schon wirklich am theoretischen Limit ist oder eher compute performance oder Training limitiert. Dafür hat es schlichtweg nicht die nötigen Daten von mir bekommen. Das kann es einfach nicht wissen. Es kann nur auf basis meiner beobachtungen extrapolieren.
Aber ich fand die Ausführungen trotzdem sehr spannend und aufschlussreich. Denn die Frage ist ja weniger OB man ans physikalische limit kommt, sondern WANN das passiert. Und das was zwischen Preset K und Preset M passiert ist und was ChatGPT darin sieht kann ja durchaus eine mögliche Realität sein, wenn man dann tatsächlich das physikalische Limit temporaler akkumulation erreicht (angenommen es ist noch nicht passiert)
Kann also sein, dass die Schlussfolgerung an sich korrekt ist, aber evtl. aktuell im Kontext aus den noch falschen Gründen, eben weil z.B. andere Aspekte wie Compute und Training limitieren und noch nicht wirklich die theoretische Informationsmenge.
Und ganz "out of the box" gedacht könnte ein DLSS 10 ja auch irgendwann einfach Bilddetails erfinden oder generieren, die tatsächlich überhaupt nicht im Inputsignal vorhanden sind. Das könnte auf basis vordefinierter Regeln passieren, die vorschreiben, wie z.B. ein objekt auszusehen hat. Ob das jemals praktikabel sein wird? Wer weiß. Aber Neural Rendering scheint ja schon ein wenig in die Richtung zu gehen und vollständig AI generierte Bilder sind ja auch ein alter Hut. In der Richtung wäre dann natürlich alles möglich, nur eben kein klassisches temporales Supersampling. Das würde dann eben durch was völlig neues ersetzt werden.
aufkrawall
2026-01-12, 21:14:28
Ob das LLM jetzt wirklich Belege hat, dass das bei DLSS 4.5 schon der Fall ist, so souverän wie es das formuliert, würde ich aber anzweifeln.
Ist immer gut, auf konkrete Links und Zitate zu bestehen.
Relex
2026-01-12, 21:18:34
Welchen Sinn hätte das bei meiner Fragestellung gehabt? Es hätte mir maximal ein paar Links zu Tech Webseiten geliefert, die genau das gleiche schreiben was ich als Beobachtung formuliert hatte, oder es hätte mir links zu irgendwelchen Whitepapern gegeben, die zwar die Theorie beschreiben, aber ich erstmal sehr aufwändig mit meinen Beobachtungen in Einklang bringen müsste.
Das hätte doch keinerlei Nutzen. Ich hatte auch erst überlegt, ob ich mir alles was es sagt wieder validieren lasse bin dann aber nach 2 Sekunden nachdenken zu dem Ergebnis gekommen, dass es mir dann einfach gar nichts brauchbares aussprucken wird.
Dass es sich selbstständig was plausibles ausdenkt ohne jeder Aussage auf Fakten überprüfen zu können war also vollstens beabsichtigt.
Wie gesagt ging es mir hier um Brainstorming einfach mal um das Thema und alle Probleme und Theorien die dahinter stecken etwas zu beleuchten, nicht um irgend welche belastbaren Aussagen zu bekommen. Sowas kann man von einem LLM wie du ja schon andeutest nicht erwarten, ohne dass es jede Aussage mit Link belegt.
Platos
2026-01-12, 21:21:25
Ich habe jetzt auch mal Preset M selber getestet und finde, dass zumindest in Witcher 3 vor allem Perfomance "glänzt" (Preset K glänzt aber auch wortwörtlich ein bisschen). Perfomance war schon unter Preset K ganz brauchbar/ok, wenn man mal wenig Perfomance hatte (im Gegensatz zu davor, da war es für mich zu blurry). Aber mit Preset M ist es aus meiner Sicht nun deutlich besser. Man kann es nun von der Qualität her schon ziemlich gut gebrauchen und muss weniger Augen zudrücken, wenn mal die Perfomance fehlt oder falls man hohe FPS anpeilt. Die Perfomance ist aber zumindest bei Witcher 3 nur um 5-7% gesunken, d.h die Qualität ist meiner Meinung nach stark angestiegen und die Perfomance nur ein bisschen gesunken unter Wichter 3. Mit DLSS Quality Preset M sieht es manchmal sogar schärfer aus, als Nativ ohne AA. Manchmal mag ich das, manchmal ist es mir (zumindest bei Witcher 3) fast etwas zu viel. Und es "Glänzt" auch mehr, als Nativ (Preset K war hier gegenteilig).
Insgesammt würde ich also sagen, hat man vor allem mit Perfomance Preset M einen deutlichen Anstieg von Quality pro Perfomance (oder umgekehrt). Bei Quality bin ich mir noch nicht so sicher. Da muss ich mal mehr Spiele testen, gerade wegen dem "glänzen" und wegen mehr schärfe als nativ. Je nach Spiel kann das gut oder aber schlecht sein, vermute ich.
Edit: Weiss eig. jemand, ob man mittlerweile RR in Spiele ohne RR (aber mit DLSS) implementieren kann irgendwie ?
Tja Nvidia macht NN upsampling für Spiele seit 8 Jahren. Und bis dato gibt es zumindest hier noch nicht einen Präzedenzfall für eine Reduktion. Ggf hat man die von dir beschriebenen Effekte schon genutzt um die BQ zu erhöhen aber trotzdem in top noch mehr BQ holen wollen und man hätte ohne diese Effekte noch mehr computational cost gehabt.
Ich bin jedenfalls sehr skeptisch, dass es nochmal eine Reduktion gibt in nächster Zeit.
Schon möglich, dass es erstmal so ist. Ich habe nur Parallelen zu Video-Upscaling gezogen.
aufkrawall
2026-01-12, 21:37:48
Welchen Sinn hätte das bei meiner Fragestellung gehabt? Es hätte mir maximal ein paar Links zu Tech Webseiten geliefert, die genau das gleiche schreiben was ich als Beobachtung formuliert hatte, oder es hätte mir links zu irgendwelchen Whitepapern gegeben, die zwar die Theorie beschreiben, aber ich erstmal sehr aufwändig mit meinen Beobachtungen in Einklang bringen müsste.
Nö? Kannst dir die Stelle aus dem Whitepaper geben lassen.
Dass es sich selbstständig was plausibles ausdenkt ohne jeder Aussage auf Fakten überprüfen zu können war also vollstens beabsichtigt.
Plausibel kann halt auch trügen.
Relex
2026-01-12, 21:52:55
Wie gesagt, ich wollte dass es hypothesen aufstellt (plausible hypothesen, keine plausiblen verifizierbaren fakten) und meine praktischen beobachtungen mit bekannten gegebenheiten und grenzen in dem Bereich verbindet.
Wer könnte das sonst außer ein Experte auf dem Gebiet? Vielleicht schreib ich Jensen mal ne Mail? Mal sehen ob er einen seiner Forscher in dem bereich ranholt und er bock hat zu diskutieren? Blöde idee? Ach verdammt...
Whitepaper zu lesen lässt mich sicherlich keine besseren Schlussfolgerungen machen, als das LLM. Ich kenne alles was es angesprochen hat und kann damit was anfangen, aber ich könnte nicht damit argumentieren oder ernsthaft arbeiten. Das bringt mir nichts. Dafür fehlt mir einfach die praktische erfahrung auf den gebieten und die mathematik dahinter um das wirklich nachzuvollziehen ist mir eh zu hoch bzw. alles zu lange her damit fang ich jetzt ganz sicher nicht an. Und selbst wenn ich es könnte, dann könnte ich wahrscheinlich immernoch keine besseren hypothesen aufstellen, als das LLM, weil die wirklichen fakten zu meiner spezifischen Frage nur intern bei nvidia vorliegen.
Wenn mir das LLM aber zeigen kann, was alles dahinter steckt, wo die theoretischen Probleme sind usw. dann hilft mir das zumidnest schonmal besser zu verstehen, mit welchen Problemen sich Nvidia bei der Entwicklung herumschlagen muss (naturlich erstmal nur auf einem sehr einfachen level) und welche Entwicklung man noch erwarten kann und welche eher nicht. Einfach nur extrapoliert auf basis von allgemeinem wissen das das LLM in dem Bereich vorweisen kann.
Aber keine Ahnung, warum ich mich jetzt schon wieder rechtfertigen muss, nur weil ich ein LLM ein paar hypothesen aufstellen lasse, um ein bisschen mit dem Thema zu spielen... Aber belassen wirs dabei. Ich würde sagen, zurück zum eigentlichen Thema.
robbitop
2026-01-13, 06:38:50
Ich glaube aufkrall wollte darauf aufmerksam machen, dass man in solchen Situationen auch schnell falsche Sachen „lernen“ kann. Auch wenn die falschen Sachen (oft sind ein paar wenige falsche Sachen unter vielen richtigen Sachen eingestreut/halluziniert was es schwieriger zu unterscheiden macht) gut begründet klingen. Das ist die inhärente Gefahr in Themen wo man nicht fit genug ist. Aber auch wenn man sich mit einem Menschen unterhält. :)
IMO musst du dich nicht rechtfertigen sondern das nur in Hinterkopf behalten dass zumindest eine unbekannte Teilmenge des inputs inkorrekt sein kann. :) Andererseits liest es sich in deinen Postings auch als wäre dir das klar. :) Insofern -> kann das Unterthema ja auch beendet werden. Ich empfand es als brainstorming auch interessant und danke dass du es hier geteilt hast - hat die Diskussion doch sehr angeregt. War ein guter Beitrag.
Ich mache das mit dem Brainstorming übrigens auch öfter mit LLMs. :) (bin mir aber auch oft bewusst dass die Infos auch wackelig sein können - und solange man hier skeptisch und vorsichtig bleibt ist alles ok IMO)
Relex
2026-01-13, 10:09:15
NXAYR-ZtbH4
DLSS4.5 vs FSR4 Redstone
Natürlich keine Analyse auf HW Unboxed oder Digital Foundry Niveau, vor allem da er Video Captures nimmt, die er in ein Video zum Vergleich packt und das Video dann für YouTube nochmal aufnimmt, während es youtube ebenfalls nochmal codiert.
Also praktisch 4 encodes bis man es sieht... Sehr suboptimal. Aber man sieht ja trotzdem noch Unterschiede.
Lurtz
2026-01-13, 10:20:04
Mal was gut abgehangenes - Skyrim SE bzw. Enderal SE.
M vs K Quality:
https://imgsli.com/NDQyMDA4
K Quality vs M Performance:
https://imgsli.com/NDQyMDA5
Insgesamt gefällt mir M hier besser. Performance fehlt zwar etwas Auflösung für die feinsten Details, aber Dinge wie das Wasser oder das zweite beleuchtete Fenster beim Haus in der Mitte werden viel besser herausgearbeitet. Auch die sich bewegende Wache ist besser definiert.
Ist aber schon echt teuer bei ~150 fps, selbst auf Blackwell...
Ex3cut3r
2026-01-13, 10:20:12
https://youtu.be/NXAYR-ZtbH4
Also praktisch 4 encodes bis man es sieht... Sehr suboptimal. Aber man sieht ja trotzdem noch Unterschiede.
Ja, encodig Hölle. Wieso nicht einfach das RAW Footage auf GoFile hochschieben?
Ich finde M bisher immer klar besser als K. Nur die Performance wird später nicht lustig werden. Werde wohl in 2 Jahren falls ich dann immer noch eine RTX 5080 habe, performance bedingkt auf K downgraden müssen. :freak:
Für RTX 6000 brauchen wir mehr Tensor Power.
robbitop
2026-01-13, 10:25:08
Daniel macht das Youtube Ding nur nebenbei. Ist dadurch alles swhr hemdsärmelig. Aber er beschäftigt sich mit dem was er zeigt und ist auch nicht auf den Kopf gefallen. Ich ignoriere in der Regel was auf der „Bildspur“ ist und höre eher zu was er beobachtet hat.
Lurtz
2026-01-13, 10:25:39
Nicht unbedingt, abseits von hochgedrehtem Raytracing. Ob die nächste Konsolengeneration bzw. die nächste Playstation regulär startet, darf man bezweifeln, und die Crossgen-Periode wird diesmal noch länger andauern. Falls man überhaupt noch von Konsolengenerationen wie früher sprechen kann. Software wird immer wichtiger werden.
DrFreaK666
2026-01-13, 11:14:29
DLSS4.5 scheint teilweise überschärft zu sein, aber im Großen und ganzen ist DLSS4.5 besser als FSR4
robbitop
2026-01-13, 11:20:08
Es ist anscheinend eher so, dass DLSS4.5 nicht überschärft sondern die Schärfefilter das tun. Diese waren bis dato immer notwendig (und auch empfohlen) um den Unschärfeeffekt von TAA und temporalem Upsamping zu kompensieren. Seit den Transformer Models ist der output aber so scharf, dass zusätzliche Schärfefilter es überschärfen. Das ist der Nachteil, wenn man einfach nur Modelle wechselt. Empfohlenerweise schaltet man dann die Schärfefilter aus wenn man auf DLSS4.5 wechselt
DrFreaK666
2026-01-13, 11:34:25
Das geht aber anscheinend nicht bei jedem Spiel.
Und das ist mir in Owens Video erst bei 4k aufgefallen, bei 1440p noch nicht
robbitop
2026-01-13, 11:36:23
In manchen Spielenmuss man in die ini anscheinend ja.
Ex3cut3r
2026-01-13, 11:45:08
Oder die exe. per Hex Editor bearbeiten. Findet man oft auf Reddit im r/fuckTAA Sub.
Habe ich für RE4 Remake und Uncharted 4 auch so immer gelöst.
Suchen & Ersetzen wie in Excel auf der Arbeit. :D
Dicker Igel
2026-01-13, 11:48:26
Seit den Transformer Models ist der output aber so scharf, dass zusätzliche Schärfefilter es überschärfen. Das ist der Nachteil, wenn man einfach nur Modelle wechselt. Empfohlenerweise schaltet man dann die Schärfefilter aus wenn man auf DLSS4.5 wechseltIst mir bei RDR2 aufgefallen. Da wundert mich es auch, wieso TAA-Sharpening aktiv bleibt, wenn man DLSS aktiviert und dadurch halt TAA + Resolution-Scale automatisch deaktiviert wird. Das weiß wohl nur R* ...
Mal generell: Welches Modell ist unter 'Q' oder 'DLAA' am performantesten? Ins kleinste Detail gehende Bildquali wäre dabei nicht relevant.
robbitop
2026-01-13, 11:52:02
Das CNN Modell ist am schnellsten weil am wenigsten rechenaufwändig. Das beste ist in der Regel Model E.
Aber man verliert BQ ggü K und M. Es kann am Ende sein, dass man BQ normiert mit K oder M mehr Performance rausholt durch kleinere Presets.
Was RDR2 angeht. RDR2 kam raus als es noch ziemlich alte CNN Models gab. Das war noch eine 2.1 oder 2.2 Version damals. Das Spiel selbst weiß ja von neueren Modellen nichts, die man dann durch Austausch der dlls da reinstöpselt. Und die Studios haben anscheinend auch kein Budget dafür neue Models reinzupatchen und zu validieren.
Lurtz
2026-01-13, 11:54:04
Am Ende gehts drum DLSS-Support auf die Packung schreiben zu können, die Feinheiten interessieren die meisten nicht.
Bei RDR2 funktioniert der DLL-Override aber und K/M lohnen sich da auch sehr weil sie die Vegetation massiv entmatschen. Finds daher mit dem artistic intent in Spielen auch immer schwierig. Das Spiel sieht schon deutlich anders aus damit, aber IMO zum ersten Mal so, wie es eigentlich aussehen sollte...
Dicker Igel
2026-01-13, 12:01:24
Danke euch beiden, bin da noch nicht so tief drin. Habe mit RDR2 und AFOP schon bisschen herumprobiert und ja, die Overrides funktionieren super! Bei Red Dead fällt mit bspw DLAA richtig ein "Schleier", das ist schon beeindruckend.
Relex
2026-01-13, 16:40:25
DLSS4.5 scheint teilweise überschärft zu sein, aber im Großen und ganzen ist DLSS4.5 besser als FSR4
Preset M hat keinen Schärfefilter. Zumindest gibt es keine Ringing oder Halo artefakte, die nunmal jeder Scharfzeichner erzeugt, indem er den Kantenkontrast erhöht.
Es kann natürlich sein, dass schon das Upscaling model so trainiert ist, dass es schärfere Kanten erzeugt, und das Bild quasi schärfer rekonstruiert/rendert, ohne dass scharfzeichner Artefakte entstehen oder ein klassischer Scharpening filter angewendet werden müsste.
Aber wie meine KCD2 screens zeigen, ist der Kontrast feiner Details allerhöchstens auf dem Kontrastniveau von "AA-off" und das eben auch nur für manche Elemente und nie fürs gesamte Bild.
Und ja, schärfefilter des Spiels müssen unbedingt aus sein. Oft ist neben dem scharfzeichner im Spiel selbst noch ein weiterer aktiv, den man nicht einstellen kann. Bei UE4/5 muss man dann die Engine.ini bemühen.
Ist ne ziemlich dämliche Situation, aber früher oder später musste es ja zwangsläufig so kommen. Ein Upscaler der "perfekt" upscalen würde und perfekte natürliche schärfe eins 64K Bildes erreichen könnte, würde mit den von den Spielen applizierten Scharzeichnern ausnahmslos immer überschärft ausehen. Model M ist sicher weit von perfekt, aber das Problem war unausweichlich.
Das Problem ist also nicht das Upscaler Model sondern die Scharfzeichner im Spiel.
Aber vielleicht macht ja Nvidia noch ein Model N, welches ein bewusst weicheres Bild erzeugt. Fall sie dafür nur ein paar parameter anpassen müssen, wärs bestimmt ne Überlegung wert. So könnte man besser mit Spielen umgehen, die sharpening erzwingen oder wo die Spieler nicht in config files frickeln wollen.
robbitop
2026-01-13, 16:59:21
Sinnvoller wäre es einfach nur den Schärfefilter auszumachen. Blöd, dass man sich je nach Spiel kurz damit beschäftigen muss aber naja. IMO besser als absichtlich ein weiches Bild zu errechnen, was dann nachgeschärft wird. Zumindest aus Sicht der teuer errechneten Informationen die damit ineffizienter behandelt werden ^^
Dicker Igel
2026-01-13, 17:25:35
Hab' paar RDR2 und RDO Shots gemacht und dabei das In-game Sharpening für DLSS und TAA deaktiviert. Gleiche Bedingungen ist in RDR2 unmöglich und kA, ob man die Modelle via Inspector on the fly ändern kann. Ich hab's von Modell zu Modell neu gestartet.
RDR2 M
https://i.ibb.co/twHJXXzx/RDR2-M-DLAA.png (https://ibb.co/V0LqmmxQ)
RDR2 K
https://i.ibb.co/r20GZ4mZ/RDR2-K-DLAA.png (https://ibb.co/60wR4gm4)
RDO jeweils K
https://i.ibb.co/svrzf5h4/RDO-DLAA-K.png (https://ibb.co/hRvw6XkN)
https://i.ibb.co/VYmCRV1D/RDO-01-DLAA-K.png (https://ibb.co/8gcxqMC2)
robbitop
2026-01-13, 17:29:51
Modelle on the fly ändern ginge mit Optiscaler - aber der funktioniert nicht mit Vulkan. Zumindest immer wenn ich RDR2 mit DX12 probiert habe, hat das Spiel oftmals mehr rumgespackt und sich auch oft beim Starten über zu wenig RAM (32 GB!!) beschwert was es mit Vulkan nie gemacht hat. Und ich habe Optiscaler nie ohne Crash mit dem Spiel zum Laufen bekommen. Ist aber schon ne Weile her dass ich es getestet hab.
Dicker Igel
2026-01-13, 17:36:53
Joar, unter DX12 hat man imo auch eher kleiner Ruckler, die man unter Vulkan nicht hat. Vor allem bei viel Geometrie, wie in Saint Denis gegen in-game 14:00 rum bei blauen Himmel. In Rhodes kann man das auch gut testen, durch die organgen Dust-Partikel, die man dort immer in der Luft hat.
aufkrawall
2026-01-14, 00:12:34
Es wurd hier glaub ich noch gar nicht erwähnt: Mit Preset L und M ist offenbar immer Auto-Exposure on erzwungen.
Lurtz
2026-01-14, 09:25:44
Die ganze Bibliothek wurde auf 310.5.2 aktualisiert, ist im Override schon aktiv. Vermutlich nur Detailverbesserungen/Bugfixes...
dildo4u
2026-01-14, 09:32:45
Preset sollen jetzt automatisch wechseln
https://www.reddit.com/r/nvidia/comments/1qcaccy/new_dlss_version_31052_auto_preset_switch/
SamLombardo
2026-01-14, 09:53:57
Preset sollen jetzt automatisch wechseln
https://www.reddit.com/r/nvidia/comments/1qcaccy/new_dlss_version_31052_auto_preset_switch/
Heißt das jetzt dass wieder auf K zurückgestellt wird wenn man DLSS Quality einstellt?
Lurtz
2026-01-14, 10:05:09
Ja, aber nur wenn latest eingestellt ist für Super Resolution.
SamLombardo
2026-01-14, 10:06:00
Ja, aber nur wenn latest eingestellt ist für Super Resolution.
Danke, ja das habe ich bisher so. Dann werde ich mal auf M umstellen.
dildo4u
2026-01-14, 10:13:54
Path Tracing in Cyberpunk ist jetzt möglich auf einer 5070 wenn man Ultra Performance nutzt.
Sieht gut aus in "4k" die Artefakte kommen eher von dem nicht vorhandenen RR der Rest ist sauber.
Ca 90 bis 100fps mit FG.
Relex
2026-01-14, 10:14:53
EDIT: Vergiss was ich geschrieben habe, bin zu blöd zum lesen :D
SamLombardo
2026-01-14, 10:20:35
Noch mal zu dem automatisch wechseln, heißt dass das z.B bei Performance standardmäßig wenn man nichts anderes forciert immer M genommen wird und bei Ultra Performance immer L? Unabhängig von der verbauten Hardware also z.B auch auf einem 2070?
Dicker Igel
2026-01-14, 10:58:46
Via Profil erzwingt man das Modell doch eh, oder setzt Du es global ohne zu forcieren?
SamLombardo
2026-01-14, 11:05:30
Via Profil erzwingt man das Modell doch eh, oder setzt Du es global ohne zu forcieren?
Ich hatte das tatsächlich jetzt global auf always use latest gesetzt und bin davon ausgegangen dass M genommen wird. Ist nun keine große Hürde das standardmäßig wieder manuell auf M zu setzen. Meine Frage war eher bezogen auf meinen Sohn der noch einen Unterklasse Rechner mit einer 2070 Super hat. Wenn ich da global always use latest einstelle wie verhält sich das dann? Quality K, Performance M, Ultra Performance L und das Ganze automatisch?
Dicker Igel
2026-01-14, 11:22:02
Ich denke schon, nur bin ich mir wegen der älteren GPU unsicher. So tief bin ich da auch noch nicht drin :)
Holundermann
2026-01-14, 12:07:37
Schade das es kein Upgrade für RR gab - somit ist DLSS 4.5 für mich nur bedingt nutzbar weil ich alle Spiele mit RT spiele und da RR definitiv bessere Resultate liefert als DLSS 4.5 - zumindest in Cyberpunk + SW Outlaws.
Ich hoffe es kommt bald ein neues RR Model mit den Vorteilen von DLSS 4.5.
Davon abgesehen macht es in Kingdom Come Deliverance 2 und Arc Raiders eine richtig gute Figur!
Gibt es irgendwelche News hinsichtlich eines neuen RR Models?
Relex
2026-01-14, 12:44:37
Es gibt doch eh nur ne handvoll Spiele mit RR https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/
Wenn das bei dir die Mehrheit der Spiele ist... :D
The_Invisible
2026-01-14, 14:54:20
Neue Nvidia App mit neuem "recommended" setting
https://www.reddit.com/r/nvidia/s/fSY02t26f7
Relex
2026-01-14, 15:01:42
Das Verhalten war schon seit heute früh mit der 310.5.2 dll so.
Jetzt haben sie nur noch den Text in der App von "Latest" auf "Empfohlen" geändert. Denn "Latest" gibt es nicht mehr.
Ist sinnvolles Vorgehen aus Performance Sicht, aber IMO allgemein immer noch quatsch.
Ich würds generell ganz anders aufbauen und statt der Preset Buchstaben einfach die Optionen "DSS4.0" oder "DLSS4.5" taufen und die Preset Buchstaben nur als zusätzliche Referenz anhängen. und dabei immer nen Erklärtext anfügen.
In den Entwickler guidelines sind sie ja auch dazu fähig die Unterschiede zu erklären. Warum sollte das einen Nutzer mehr verwirren, als völlig nichtssagende Buchstaben, die nichtmal einem Release zuzuordnen sind?
Da bewerben sie groß "DLSS4.5" aber in der App ist davon nichts zu finden. Welcher normalo soll das verstehen?
Ich frag mich wirklich, was Nvidia da geritten hat.
Preset sollen jetzt automatisch wechseln
https://www.reddit.com/r/nvidia/comments/1qcaccy/new_dlss_version_31052_auto_preset_switch/
War schon immer so wenn man Latest verwendet und nicht manuell ein Preset forciert.
Lurtz
2026-01-14, 15:42:07
Ich sehe keinen einfachen Weg das zu fixen, weil DLSS 3.0, 4.0, 4.5 erstmal nur Marketinghüllen sind, während DLLs und Presets nochmal anders versioniert sind.
Aber ja, die Bezeichnungen wie sie jetzt sind sind ziemlich bescheuert.
Relex
2026-01-14, 16:01:50
Vor allem, jemand der jetzt das "Empfohlen" Setting nimmt und den Quality Modus nutzt bekommt gar kein DLSS4.5 zu Gesicht.
Vor allem nachdem in den letzten Tagen unzählige Guides für die DAUs gepostet wurden, wie man das einstellt. Die stellen jetzt alle auf Empfohlen, starten im Quality Modus (was ja vor allem in 1440p und 1080p das gewählte Setting der meisten Nutzer sein dürfte) und denken sich dann "aah oh ja, das sieht so viel besser aus als vorher" obwohl sich nichts geändert hat oder denken sich "was fürn müll, sieht genauso aus wie vorher und dafür hab ich jetzt weniger performance"?
Das ist für mich echt schon wieder so ein richtiger Marketing fail. Man bekommt es nicht hin, das sauber zu kommunizieren. Weder an die Presse noch über die eigenen Anwendungen.
Dass praktisch jedes spiel aufgrund ingame scharfzeichner überschärft aussieht ist auch nicht gerade förderlich. Da hätte man zumindest mal ne Warnung dazu schreiben müssen, dass man den Scharfzeichner im Spiel deaktivieren soll und wenn man ganz schlau gewesen wäre hätte man noch nen weiterführenden Link auf die GeForce website gepostet wo dann erklärt wird, wie man den Scharfzeichner z.B. in UE5 spielen komplett abschaltet incl. Vergleichsbildern. Denn sowas hat Nvidia früher auch mit ihren Settings Guides gemacht, wo sie sogar erklärt haben, wann und ob man bei einem Spiel z.B. 16x AF forcieren sollte.
Ich kapiers nicht. Die betreiben hier mit ihren DLSS Models, Neural Rendering und allgemein der GPU entwicklung mit eine der komplexesten Wissenschaft die wir haben und dann kriegen sie es nicht hin, dass sich jemand mit nem IQ größer als der Durchschnitt mal ein Konzept überlegt, wie man das denn sauber an den Nutzer herantragen kann. Absolut verrückt...
Vor allem, jemand der jetzt das "Empfohlen" Setting nimmt und den Quality Modus nutzt bekommt gar kein DLSS4.5 zu Gesicht.
Natürlich nicht, der Quality Modus sieht mit Preset "K" in den meisten Fällen am besten aus.
Relex
2026-01-14, 18:23:28
Keine Ahnung, wo das am besten ins Forum passt, aber noch eine Randnotiz:
Neural Shaders: The RTX Neural Shaders SDK was introduced last year with the GeForce RTX 50 Series GPUs. Now, we’re releasing the RTX Neural Texture Compression SDK, an application of neural shaders. It uses AI to significantly compress textures more than traditional methods while maintaining similar image quality. This has resulted in significant performance improvements in the new 0.9 version. Block Compression 7 (BC7) encoding has been sped up by 6x, and inference speed has increased by 20% to 40% compared to version 0.8. That allows developers to minimize FPS impact when saving up to 7x system memory.This has resulted in significant performance improvements in the new 0.9 version. Developers can get started with the latest RTX Neural Texture Compression SDK today.
Das hört sich doch schonmal gut an. NRC SDK ist draußen und vielleicht sehen wir dann im Verlaufe des Jahres schon erste Spiele oder Demos die das nutzen.
Bin gespannt, wie hoch die Frametime Kosten für Inference on Sample sind. Nachdem Nvidia aber wohl 8 GB GPUs wieder vermehrt verkaufen will, ist es wohl nicht die schlechteste Idee, das jetzt zu pushen. :freak:
DrFreaK666
2026-01-14, 19:50:31
...vielleicht sehen wir dann im Verlaufe des Jahres schon erste Spiele oder Demos die das nutzen.
Wahrscheinlich Cyberpunk 😜
SamLombardo
2026-01-14, 20:09:28
Natürlich nicht, der Quality Modus sieht mit Preset "K" in den meisten Fällen am besten aus.
Nicht korrekt. K ist in Quality das beste Kosten-Nutzen Verhältnis. Die beste Bildqualität (wenn man die Leistung übrig hat) ist Preset M. Erst Recht bei HDR.
DrFreaK666
2026-01-14, 22:21:46
4JNmb54hR3A
Nicht korrekt. K ist in Quality das beste Kosten-Nutzen Verhältnis. Die beste Bildqualität (wenn man die Leistung übrig hat) ist Preset M. Erst Recht bei HDR.
Nicht wirklich, wenn man ruhiges supersampled Bild und flimmerfreie Filterung bevorzugt, dann sind die neuen Presets L/M weit entfernt von optimal.
aufkrawall
2026-01-14, 22:54:59
K hat mit Disocclusion massiv schlimmere Aliasing-Ausfälle. Maximal simplifiziert runtergebrochen, sieht K eher aus wie ein massiv besseres FSR 2.1, während M eher ein massiv besseres DLSS SR Preset E ist.
Lurtz
2026-01-14, 22:56:14
Da hat sich deine Meinung gegenüber dem Ersteindruck aber noch ordentlich ins Positive gedreht :)
K hat mit Disocclusion massiv schlimmere Aliasing-Ausfälle. Maximal simplifiziert runtergebrochen, sieht K eher aus wie ein massiv besseres FSR 2.1, während M eher ein massiv besseres DLSS SR Preset E ist.
Du testest die falschen Games.
aufkrawall
2026-01-14, 23:05:26
Da hat sich deine Meinung gegenüber dem Ersteindruck aber noch ordentlich ins Positive gedreht :)
Ja. Der Ersteindruck war stark von Preset L in Talos beeinflusst, was dort auch wirklich eklig im Nanite-Gras ghostet. Was RR E ja (im Vergleich zu anderen Upsamplern) quasi gar nicht tut, trotz mit weitem Abstand bester Stabilität. Das Ding ist trotz der gewissen Unschärfe einfach geil. Preset M und K ghosten dabei eher vergleichbar zueinander. K vielleicht etwas weniger, aber dafür halt massive andere Fails.
K versagt mit Performance bei dem Gammel-Content von Witcher 3, sowie modernem Rendering ala UE5/RT sowieso. Was will man da eigentlich noch argumentieren? :freak:
Die Handhabung sich bewegender Objekte war bei DLSS SR vor 2nd Gen Transformer, abseits von RR, halt einfach nur richtig schlecht. 2nd Gen Transformer dürfte dahingehend der größte Sprung sein, den DLSS jemals erfahren hat.
Btw. es ist so ein Krebs, dass in diesem Müll-Forum Gast-Posts einfach so zwischendrin aufploppen. Maximaler Abfuck by design. Deswegen spende ich hier auch exakt null Cent...
Andere Gründe wären auch noch die unglaublich müllige Suchfunktion, die zu blöd für einfachste Datumssortierung usw. ist. wtf ist das...
Btw. es ist so ein Krebs, dass in diesem Müll-Forum Gast-Posts einfach so zwischendrin aufploppen. Maximaler Abfuck by design. Deswegen spende ich hier auch exakt null Cent...
Texture-Shimmering und Filterung ist wesentlich schlimmer, Disocclusion ist gar nirgends ein wirkliches Problem, ist auch egal du bist nicht relevant in der Meinungsfindung.
Jupiter
2026-01-14, 23:16:03
Altes DLSS mit RR bietet aktuell bei den von mir getesteten Spielen die beste Bildqualität.
Bei Spielen ohne RR scheint das neue DLSS am besten zu sein.
aufkrawall
2026-01-14, 23:19:03
ist auch egal du bist nicht relevant in der Meinungsfindung.
Oh, der relevante Gast hat gesprochen. Die Mehrheit der Nutzer in Foren empfindet M als Verbesserung für 4k Performance, kannst dich also wieder verkriechen.
robbitop
2026-01-14, 23:20:33
Kein Wunder. RR ist immer noch das teuerste Modell und nutzt edit noch mehr Inputs als SR.
Relex
2026-01-14, 23:33:11
Kommt drauf an. Cyberpunk mit pathtracing läuft mit Preset M oder L deutlich langsamer als mit RayReconstruction.
RayReconstruction ersetzt den standard Densoiser. Das spart einiges an performance, trotz aufwändigerem Model.
robbitop
2026-01-14, 23:45:35
IIRC hatte hier mal vor Monaten jemand offizielle Zahlen in MS von Nvidia angeben mit Screenshot. Sah aus wie aus einem Programming Guide. Finde es aber gerade nicht. Da war RR iirc überraschend teuer in ms vs SR. Aber andererseits ist M und L auch ordentlich teurer geworden und wie du sagst gibt es durch den schnelleren denoiser Einsparungen. Was ich aber meinte war rein der computational Overhead für DLSS ohne den benefit vom denoiser. :)
aufkrawall
2026-01-14, 23:48:36
Ist auch teuer, in Avatar auf der 5070 trotz ordentlich RT-Last sogar überraschend teuer. Offenbar wird klassisches Denoising mit PT massiv teurer. Wär zumindest die logische Schlussfolgerung, wenn damit RR oft "gratis" ist.
Kommt drauf an. Cyberpunk mit pathtracing läuft mit Preset M oder L deutlich langsamer als mit RayReconstruction.
Weil es nicht dafür gedacht ist, ich denke mal Ray Reconstruction wird ein leichtgewichtigeres Preset vom Transformer 2nd Gen erhalten, sonst wäre der Leistungsverlust bei doppelten Inferencing Durchsatz einfach zu heftig.
Kein Wunder. RR ist immer noch das teuerste Modell und nutzt nich mehr Inputs als SR.
Wenn ich mich richtig erinnere nutzt RR mehr Inputs (G-Buffer).
Lurtz
2026-01-15, 09:04:26
So, bei Reddit hat sich jetzt die Erkenntnis durchgesetzt, dass M oversharpened und völlig unbrauchbar für Balanced und Quality ist :uup: Das wird sich jetzt wieder monatelang halten... Naja, nicht mein Problem :usweet:
robbitop
2026-01-15, 09:08:02
Wenn ich mich richtig erinnere nutzt RR mehr Inputs (G-Buffer).
Scheiß iPhone - so oft wenn ich "noch" tippe, kommt irgendwie "nich" dabei heraus was ich übersehe. Und die Leute denken ich meine "nicht". Irgendwie ist die Erkennung der Buchstaben oft Mist (autokorrektur ist aus).
Also wir meinen das gleiche. :)
00-Schneider
2026-01-15, 09:15:51
So, bei Reddit hat sich jetzt die Erkenntnis durchgesetzt, dass M oversharpened und völlig unbrauchbar für Balanced und Quality ist :uup: Das wird sich jetzt wieder monatelang halten... Naja, nicht mein Problem :usweet:
Jup.
Wobei man sagen muss, das einige Engines(z.b.UE) ja out-of-the-box schon minimal nachschärfen. In Kombination mit L/M könnte das Bild dann leicht überschärft wirken.
Oder die Leute haben sich an die Unschärfe von K und TAA gewöhnt, und alles was schärfer ist, ist dann direkt "überschärft".
DrFreaK666
2026-01-15, 09:24:04
Btw. es ist so ein Krebs, dass in diesem Müll-Forum Gast-Posts einfach so zwischendrin aufploppen. Maximaler Abfuck by design...
Gast-Beiträge kann man sperren. Habe ich schon vor Monaten erledigt
Lurtz
2026-01-15, 11:48:51
10/10 Shitpost oder das ist das dümmste, was ich seit langem gelesen habe :hammer:
Today I found a solution that suits me personally much better and I want to share it with the community. I created a custom 1800p resolution, switched to it and proceeded to the game with the Quality Preset Model M enabled. The additional sharpness from the preset was largely mitigated by the naive upscale from 1800p to 2160p and the resulting picture looks both temporally stable, and pleasingly (to me) sharp. All while not really negatively affecting performance!
https://www.reddit.com/r/nvidia/comments/1qcviqb/how_to_make_presets_m_and_l_less_sharp_guide/
Die Leute die FXAA einschalten um die Schärfe zu senken sind aber auch gut.
raffa
2026-01-15, 11:58:20
Ich hab ein paar Screenshots gesehen von jemandem der tendenziell gerne überschärft, und da sieht dann Model M/L DLAA gar nicht mal so schön aus - aber man kann ja einfach das Nachschärfen lassen (bzw ausschalten)
Dicker Igel
2026-01-15, 12:23:54
Vor allem sind die Sharpening-Presets in den Spielen meist abartig hoch voreingestellt. 7/10(Avatar zB) odA ... übel. In RDR2 ist das mit ~ 30/100 ja noch im Rahmen, wobei man das trotzdessen deaktivieren sollte.
10/10 Shitpost oder das ist das dümmste, was ich seit langem gelesen habe :hammer:
https://www.reddit.com/r/nvidia/comments/1qcviqb/how_to_make_presets_m_and_l_less_sharp_guide/
Die Leute die FXAA einschalten um die Schärfe zu senken sind aber auch gut.
Oh man ;D
Badesalz
2026-01-15, 12:28:01
Was ich mich grad frage ist warum NV auf der eigenen Werbeseite :| sich möglichst schlechtes Beispeil rausgesucht hat um darzustellen wieviel mehr 4.5 vermatscht als 4 :freak: (MFG)
(Outer Worlds 2)
https://www.nvidia.com/en-us/geforce/news/ces-2026-nvidia-geforce-rtx-announcements/
Genau, es geht nicht einfach nur um Kantenschärfe. Ich fühl mich von dem Hyperianern irgendwie verschaukelt
Relex
2026-01-15, 13:22:13
Also ich versteh nicht was du meinst.
Das Outer Worlds Video zeigt doch nur, dass FG mit 4.5 besser arbeitet und weniger Fehler am HUD macht. Wobei man das auch jetzt schon einfach mit ner Variable in der Engine ini fixen kann...
Disconnected
2026-01-15, 14:46:08
...
Oder die Leute haben sich an die Unschärfe von K und TAA gewöhnt, und alles was schärfer ist, ist dann direkt "überschärft".
Ich denke, was als "überschärft" gilt, ist für jeden rein subjektiv zu betrachten.
Oder die Leute haben sich an die Unschärfe von K und TAA gewöhnt, und alles was schärfer ist, ist dann direkt "überschärft".
Überschärft ist es wenn man Halos sieht alles andere ist per se nicht überschärft.
Wobei man natürlich darüber diskutieren kann welcher "Schärfegrad" der eigentliche Creative Intent war, und dieser kann auch schon überschritten sein bevor Halos sichtbar werden.
Dicker Igel
2026-01-15, 15:31:04
Ich denke, was als "überschärft" gilt, ist für jeden rein subjektiv zu betrachten.
LCD, LED, OLED ... + derer Wertigkeit spielt da imo auch 'ne große Rolle und wird logischerweise verschieden wahrgenommen. Imo schwierig da allgemeingültig zu sein.
Relex
2026-01-15, 15:36:40
Da DLSS jetzt die Daten vorm Tonemapping nutzt wird es wohl immer etwas kräftiger aussehen als bisher. Und damit eben auch anders als TAA in nativer Auflösung.
Ich muss aber auch sagen, dass mit dem neuen DLSS mein OLED auch mehr wie ein OLED aussieht, selbst in SDR mit sRGB Profil wirken kleine details klarer. Also nicht nur in bezug auf schärfe. Die Farben sind einfach klarer und sauberer.
Sieht man z.B. auch in Clair Obscur. Irgend ne wiese mit bunten Gräsern und Blüten, das sieht jetzt richtig gut aus. Vorher eben eher leicht gedämpft und neblig, was man aber selbst mit einem Kontrastfilter nicht ausgleichen kann, weil man damit das gesamte Bild verändern würde oder clipping erzeugen würde.
Creators intent ist halt so ne Sache. Praktisch hat man jetzt einen minimalen Schleier entfernt, den vorher jedes TAA basierte verfahren hatte. Entwickler müssten das jetzt als neue Grundlage nutzen. Andererseits sind die Unterschiede so subtil... Juckt eigentlich nicht wirklich.
Das Hauptproblem ist die überschärfte Darstellung, sobald ein Spiel schafzeichner nutzt. Aber da müssen die Entwickler ran. DLSS deswegen absichtlich unscharf zu machen wäre ja kompletter unsinn.
Disconnected
2026-01-15, 16:22:10
Creator's intent ist auch oft chromatic aberration, motion blur, film grain, etc. :P
Lurtz
2026-01-15, 16:41:42
Eben, klappt doch nicht mal bei Filmen, wo teils jeder Release ein anderes Color Grading hat.
Bei Spielen wird sich das allein wegen der unterschiedlichen Displays und immer mehr AI-Processing in TVs noch weniger umsetzen lassen.
The_Invisible
2026-01-15, 17:02:52
Was ich mich grad frage ist warum NV auf der eigenen Werbeseite :| sich möglichst schlechtes Beispeil rausgesucht hat um darzustellen wieviel mehr 4.5 vermatscht als 4 :freak: (MFG)
(Outer Worlds 2)
https://www.nvidia.com/en-us/geforce/news/ces-2026-nvidia-geforce-rtx-announcements/
Genau, es geht nicht einfach nur um Kantenschärfe. Ich fühl mich von dem Hyperianern irgendwie verschaukelt
Hört sich an wie ein verbitterter AMDler der nix abbekommen hat :D
Badesalz
2026-01-15, 17:39:04
Also ich versteh nicht was du meinst.Weswegen ich irgendwann aufgehört hab auf 3DC über Bildquali zu diskutieren. Ja, ein Trauerspiel.
Hört sich an wie ein verbitterter AMDler der nix abbekommen hat :DIm Gegensatz zu dir, der mal 5 Sievert abbekommen hat? :up:
Relex
2026-01-15, 18:18:59
Ne, du hast nicht aufgehört, du hast hier geposted - was du nicht getan hättest, wenn du nicht irgend ne Reaktion darauf erwartet hättest.
Dein post ist halt nur sinnfrei, wenn du dich nicht erklären kannst.
Badesalz
2026-01-15, 18:49:57
Ne, du hast nicht aufgehört, Macht der Gewohnheit. Ich vergesse das ab und zu bis es mir wieder... vor den Augen geführt wird :wink:
Dein post ist halt nur sinnfrei, wenn du dich nicht erklären kannst.Ich kann damit anfangen zu beschreiben was ich sehe was du meinst nicht zu sehen. Ja. Fällt dir grad was ein? Genau. Das wäre ebenfalls sinnfrei.
Etwas zu sehen und unterschiedlicher Meinung darüber sein, das geht. Und ist die Grundvoraussetzung. Eine Diskussion zwischen Sehen und Nichtssehen, ist es nicht.
Ja es kann "nur" an MFG in Verbidnung mit dem Scaler liegen. Nicht prinzipiell am 4.5 Scaler. Die anderen Beispiele sind bei Weitem nicht so übel (tatsächlich). Auch wenn da auch teils eben nicht soviel Content zu sehen ist.
Oder an der exaktheit der Aufnahme bei so hohen FPS. Das Videomaterial kann da ggf. gestolpert sein. Ich hab nichts genauer beurteilt bisher. Alles gut. Die Verwunderung war wie sie war. Mehr erstmal nicht.
Aber Nichtssehen, ist eben keine Grundlage für das Thema. Sorry. Wenn du da nichts siehst, ruhigen Schlaf und weiterhin toi toi toi. Kein Ding.
aufkrawall
2026-01-15, 19:11:19
Geflacker der Bloom-Rattenaugen in Plague Tale ist btw. massiv verbessert mit Preset L/M gegenüber K. Zumindest mit Performance, mit DLAA wird es kurioserweise schlechter (wobei beim über die Schulter Schauen Overlay dabei nicht ganz genau gecheckt, falls es mit DLAA nicht doch wieder K oder whatever war).
Für 4k Performance/UP definitiv bestes Update ever.
Oliver_M.D
2026-01-15, 21:18:13
10/10 Shitpost oder das ist das dümmste, was ich seit langem gelesen habe :hammer:
https://www.reddit.com/r/nvidia/comments/1qcviqb/how_to_make_presets_m_and_l_less_sharp_guide/
Die Leute die FXAA einschalten um die Schärfe zu senken sind aber auch gut.Kann man echt nur hoffen dass das ein Shitpost ist. Ansonsten sind das mal wieder 10/10 Mental Gymnastics, die Reddit da vollzieht;D
IceKillFX57
2026-01-15, 23:27:24
X-D verstehe das Problem der Schärfe einiger Leute nicht. Ich schärfe sogar noch relativ stark nach haha.
Bin mal gespannt wohin die Reise geht bezüglich DLSS. Einige im netz finden ja eine Skalierung von 110p-360p je nach Titel mit DLSS4.5 brauchbar (im Notfall?)
aufkrawall
2026-01-15, 23:34:40
Die Erwartungshaltung ist jetzt, dass RR UP -> 4k absolut brauchbar werden sollte. Das würd der 5070 auch nochmal VRAM-Luft verschaffen, falls RR 2nd Gen Transformer nicht massiv davon frisst. Dann wäre etwa AW2 mit PT darauf uneingeschränkt spielbar.
x-force
2026-01-16, 00:49:05
Creators intent ist halt so ne Sache.
creators die sharpening, chromatic aberration, motion blur, film grain, usw nutzen und am besten auch noch nyquist shannon nicht achten, sollten sowieso erschossen werden :wink:
Lehdro
2026-01-16, 21:18:10
Mal eine schöne knackige Zusammenfassung der unterschiedlichen Presets/Modelle. Leider nur in CP2077, aber immerhin.
iOY6wL6tv9w
aufkrawall
2026-01-16, 21:44:49
Da sieht man die üble Bloom-Explosion (etwa mit der Flasche auf dem Tisch) auch nur pre 2nd Gen Transformer, scheint also wie in Plague Tale dort mit 2nd Gen auch massiv besser geworden zu sein.
Geniales Update.
aceCrasher
2026-01-17, 14:35:38
Mal eine schöne knackige Zusammenfassung der unterschiedlichen Presets/Modelle. Leider nur in CP2077, aber immerhin.
https://youtu.be/iOY6wL6tv9w
Ich finde gerade die Verbesserungen beim Ultra Performance Mode beeindruckend. Vor nicht allzu langer Zeit habe ich noch die Nase über den UP Mode gerümpft, jetzt würde ich sagen dass 720->4K auf einer 5070 vielleicht sogar Sinn ergibt. Irgendwie komplett irre dass man mit 1->9 Pixel so eine (relative) Stabilität bekommt :eek:
Ultra Performance mit Model L könnte vielleicht auch 5K und 6K Monitore viable machen wenn der P-Mode mal nicht reicht.
5K UP: 960p -> 2880p
6K UP: 1152p -> 3456p
Relex
2026-01-17, 14:58:16
Man muss ja nicht zwangsweise gleich den Ultra Performance Modus nehmen.
Man kanns auch so machen.
12/12 = Faktor 1x = 100% Auflösung pro Achse (DLAA)
8/12 = Faktor 1,5x = 66,7% Auflösung pro Achse (Quality)
7/12 = Faktor 1,71x = 58,3% Auflösung pro Achse (Balanced)
6/12 = Faktor 2x = 50% Auflösung pro Achse (Performance)
5/12 = Faktor 2,4x = 41,7% Auflösung pro Achse (High Performance)
4/12 = Faktor 3x = 33,3% Auflösung pro Achse (Ultra Performance)
Also einfach 42% einstellen und man hat eine sinnvolle Stufe zwischen Performance und Ultra Performance.
robbitop
2026-01-17, 15:33:40
Ich finde gerade die Verbesserungen beim Ultra Performance Mode beeindruckend. Vor nicht allzu langer Zeit habe ich noch die Nase über den UP Mode gerümpft, jetzt würde ich sagen dass 720->4K auf einer 5070 vielleicht sogar Sinn ergibt. Irgendwie komplett irre dass man mit 1->9 Pixel so eine (relative) Stabilität bekommt :eek:
Ultra Performance mit Model L könnte vielleicht auch 5K und 6K Monitore viable machen wenn der P-Mode mal nicht reicht.
5K UP: 960p -> 2880p
6K UP: 1152p -> 3456p
Man darf nicht außer acht lassen, dass die Kosten für DLSS mit der Outputlösung steigen. Bis zu einem Punkt wo das eigentliche Rendering dann relativ zu den Kosten nur noch ein Bruchteil kostet (und eine Verringerung sann asymptotisch wenig bringt). Bspw wurde die 3090 als 8K Karte vermarktet und dafür wurde ursprünglich der UP Mode vorgesehen. Und die Benchmarkwerte in 8K UP waren (damals erstaunlich) wenig beeindruckend trotz eigentlich geringer 1440p Renderauflösung. Einfach weil die computational cost so hoch war. Das wird mit 2nd gen Transformer noch weiter verstärkt.
Ich bin ehrlich gesagt auch skeptisch ob eine Erhöhung der Auflösung (ggü 4K) bei normalen Monitorgrößen (27…32“) in Spielegrafik noch signifikante optische Vorteile bringt. Insbesondere wenn das Spiel DLSS nutzt. Früher ohne gutes temporales Upsampling schon - aber heutzutage? Ich würde vermuten das sind schon deminishing returns.
aceCrasher
2026-01-17, 21:07:48
Man darf nicht außer acht lassen, dass die Kosten für DLSS mit der Outputlösung steigen. Bis zu einem Punkt wo das eigentliche Rendering dann relativ zu den Kosten nur noch ein Bruchteil kostet (und eine Verringerung sann asymptotisch wenig bringt). Bspw wurde die 3090 als 8K Karte vermarktet und dafür wurde ursprünglich der UP Mode vorgesehen. Und die Benchmarkwerte in 8K UP waren (damals erstaunlich) wenig beeindruckend trotz eigentlich geringer 1440p Renderauflösung. Einfach weil die computational cost so hoch war. Das wird mit 2nd gen Transformer noch weiter verstärkt.
Da gebe ich dir recht, aber ich denke mit Raytracing/Pathtracing wird in Zukunft die Last auch bei geringen Auflösungen noch hoch genug bleiben.
Ich bin ehrlich gesagt auch skeptisch ob eine Erhöhung der Auflösung (ggü 4K) bei normalen Monitorgrößen (27…32“) in Spielegrafik noch signifikante optische Vorteile bringt. Insbesondere wenn das Spiel DLSS nutzt. Früher ohne gutes temporales Upsampling schon - aber heutzutage? Ich würde vermuten das sind schon deminishing returns.
Ich träume ja auch eher von einem 37"/38" OLED für den Schreibtisch (42 sind mir zu groß), ich denke da wären 5K oder 6K schon angemessen, groß denken! :biggrin:
crux2005
2026-01-21, 02:19:58
g05Fs3I1qkg
Vergleich der ganzen Upscaler die es bis jetzt so gab.
basix
2026-01-21, 08:32:41
360p auf 720p mit DLSS2 Preset A war ein riesen Sprung verglichen mit spatial Upscalern. Und DLSS 4 & 4.5 legen nochmals eine grosse Schippe drauf.
bald sind wir wieder bei 320x200 und so schließt sich der Kreis
robbitop
2026-01-21, 08:41:25
https://youtu.be/g05Fs3I1qkg
Vergleich der ganzen Upscaler die es bis jetzt so gab.
Sehe gutes Video :up:
Ich finde es gut, weil es für die Upscaler mit einer geringen input resolution eine Herausforderung darstellt - also versucht, die Spreu vom Weizen zu trennen. Und das ist schon erstaunlich was sich da getan hat. Bei DLSS aber auch bei FSR und auch ein guter showcase um die XMX Version von XESS mal zu sehen. Und es zeigt auch die disocclusion Artefakte um die Charaktere, die aufkrawall IIRC mehrfach kritisiert hat bei Preset K. Und es ist ein showcase für preset L (was halt für besonders niedrige input resolutions gemacht wurde).
Schade, dass Preset E als bestes CNN Modell nicht gezeigt wurde. Da hätte man IMO gern nochmal alle Modelle testen können.
edit: Gemini 3 Pro sagt KCD2 DLSS 3 modell ist das E Modell. OK das erklärt auch warum das ziemlich gut abschneidet.
bald sind wir wieder bei 320x200 und so schließt sich der Kreis
Niedrige Inputresolutions sind halt ein Stresstest für Upscaler. Da zeigen sich die Differenzen eben besonders. Mit zunehmender inputresolution werden die Differenzen kleiner. Ein bisschen so wie CPU und GPU limits. Testet man eine GPU, stellt man sicher, dass man im GPU limit ist um zu zeigen wie schnell sie relativ zu anderen ist. Das gliche für eine CPU. So ist es dann auch für einen upscaler. Zumindest für den relativen Vergleich der capability des upscalers sebst. :)
aufkrawall
2026-01-21, 08:49:10
Auch ganz nett, dass XeSS XMX hier weniger rauscht/aliast als DP4a. Das war bei dem DF-Test so damals nicht ersichtlich. Da würd ich mir echt auf keinen Fall ein Notebook mit AMD-GPU zulegen, wenn Gaming eine Priorität ist.
robbitop
2026-01-21, 08:57:08
Auch ganz nett, dass XeSS XMX hier weniger rauscht/aliast als DP4a. Das war bei dem DF-Test so damals nicht ersichtlich. Da würd ich mir echt auf keinen Fall ein Notebook mit AMD-GPU zulegen, wenn Gaming eine Priorität ist.
Wenn es RDNA4 oder besser ist, ist das sicherlich schon brauchbar. Aber in den Notebooks gammelt RDNA3.x zumeist rum (APUs gibt es ja noch nicht neuer und wirkliche mobile dGPUs von AMD sind auch eine Seltenheit). Insofern würde ich das so unterschreiben.
Man muss schon sagen, dass Intel sich mehr und mehr da ordentlich entwickelt. Insbesondere wenn man bedenkt wie stark gedrosselt die Arc Abteilung ist und dass man erst vor ein paar Jahren alles ge-rebootet hat.
Man hat einen ordentlichen Upscaler (seit Anfang an NN und NN beschleunigt), mittlerweile auch ordentliches FG und auch starke RT HW. Und jetzt will man auch precompiled shader liefern :O. Ab PTL kann es sich wirklich sehen lassen in jeglicher Hinsicht. Mal schauen ob AMD mal wieder aufwacht. AI, AI, AI, AI...:rolleyes:
The_Invisible
2026-01-21, 09:20:13
bald sind wir wieder bei 320x200 und so schließt sich der Kreis
Was willst mit solchen HD Auflösungen, 110p upscaled ;)
https://youtube.com/shorts/mQOTPXbMODI?si=IHv42TdBE-m-84EO
Lurtz
2026-01-21, 09:54:42
Ich "muss" Stalker 2 ja gerade mit Preset E spielen. Finde das immer noch ziemlich gut. Klar, die Unschärfe ist schade, aber sonst macht das einen sehr guten Job. Gibt aber einzelne Elemente wie Gitter, die immer wieder Moires erzeugen, das ist eigentlich das stärkste Downgrade gegenüber K/M.
Stalker 2 insbesondere die Vegetation ist aber auch ziemlicher Worst Case-Content für Upscaler.
Sehr cooles Video! In DCS World, DLSS Performance sieht K besser aus als M. Bei 10% besserer Performance. Aber in beiden Fällen ein deutlicher Qualitätssprung von DLSS3.
robbitop
2026-01-21, 10:52:29
Was mir noch aufgefallen ist: Leider scheint er keinen Optiscaler einzusetzen (er hat alles per NVApp eingestellt). Entsprechend kein Echtzeitwechsel der Presets und keine Verifikation ob die eingestellte Inputresolution passt (was er im letzten 1080p Segment selbst etwas anzweifelt). Und er hat auch kein Framecap gesetzt - da alle upscaler temporal arbeiten wird der BQ Vergleich mit unterschiedlichen FPS schnell unsauber.
Ein bisschen mehr Sorgfalt hätte schon noch gut getan. Aber trotzdem grundsätzlich interessant. :)
Neosix
2026-01-21, 10:57:46
Und er hatte bei DLSS 4.0 vs DLSS 4.0 per override mehr artefakte, als ob die lösung die motion vektoren nicht richtig abgreift. hab ich das richtig verstanden? bzw kommt sowas öffter vor? Das würde ja die methode dlss durch treiber zu überschreiben stark nerven wenn man nicht weiß ob das ergebniss dann 100% sauber ist vs die implementierung im spiel?
Relex
2026-01-21, 11:03:56
Das ist ganz einfach erklärt. Das Spiel nutzt standardmäßig Preset J, welches temporal instabiler, ist dafür aber auch schärfer ist und weniger Ghosting zeigt.
Per Override setzt er Preset K, was dann in besonders niedrigen Auflösungen auch stärker zu ghosting neigt.
Ne, das scheint schon alles richtig zu sein. Die enorme Qualität von Preset L kann ich auch bestätigen. Hab mir das jetzt auch nochmal in 720p mit dem Ultra Performance Modus angeschaut. Es ist einfach nur krank wie stabil und scharf Preset L da noch bleibt.
Ganz allgemein wischt Preset L im UP Modus auch den Boden mit DLSS3 im Quality Mode (Preset E) auf.
Einzig bei den Baumkronen in KCD2 ist DLSS3 Q stabiler, aber auch nur wegen dem starken Blur den es im vergleich erzeugt.
Schaut man sich das Gras und die Büsche an oder die Geometrie der Häuser sowie die Texturen ist Preset L im Ultra Performance Modus nicht nur besser geglättet sondern auch vielfach schärfer und klarer in bewegung, wohingegen bei DLSS 3 im Quality Mode alles in einer art Motion Blur verschwimmt, wie man es eben von TAA auch kennt.
Preset L ist bei niedrigen Auflösungen wirklich wie schwarze Magie.
EDIT: Hier der Beweis, dass der Override problemlos funktioniert. Einfach in der App Preset L und den Ultra Performance Modus auswählen. Klappt direkt ohne weitere hacks.
https://i.ibb.co/SwKmXZnt/Screenshot-2026-01-21-114831.png (https://ibb.co/SwKmXZnt)
Da würd ich mir echt auf keinen Fall ein Notebook mit AMD-GPU zulegen, wenn Gaming eine Priorität ist.
Deshalb hab ich mir einen MSI Claw zugelegt, der Unterschied zu FSR3.x ist selbst am Handheld Screen ziemlich offensichtlich, und XeSS kostet auf AMD IGPs auch ordentlich Performance.
Schade, dass Preset E als bestes CNN Modell nicht gezeigt wurde. Da hätte man IMO gern nochmal alle Modelle testen können.
Wenn man sieht wie gut der Treiber-Override in dem Spiel funktioniert glaube ich haben wir nichts versäumt.
Lurtz
2026-01-21, 14:04:18
Wieso flimmern L und M eigentlich so stark bei Raytracing?
https://youtu.be/sTaqPIHRFsU?t=567
Bei PT ist es ja egal, da ergibt eh nur RR Sinn.
Wieso flimmern L und M eigentlich so stark bei Raytracing?
Wahrscheinlich dadurch dass man jetzt im Linearen Space arbeitet, der selbe Effekt der jetzt auch Specular Highlights mehr betont.
Bei PT ist es ja egal, da ergibt eh nur RR Sinn.
Seh ich auch so, IMO ist 4.5 in erster Linie sowas wie das RR-Modell fürs reine Upscaling. Auch die Performancecharakteristik von M/L ist ja sehr ähnlich zu RR.
dildo4u
2026-01-21, 14:22:10
Die Artefakte fallen mher auf da jedes Spiel Überschärft ist egal welche Engine.
Kaum ein Entwickler hat sein Spiel für DLSS4 schärfe angepasst und keiner für 4.5.
aufkrawall
2026-01-21, 14:28:34
Wird wohl weniger am Sharpen, sondern eher an RT-Artefakten wie Boilerplate liegen. Kann man ohne RR halt nicht ohne massiv mehr Artefakte an anderer Stelle wegfiltern.
Relex
2026-01-21, 14:28:40
Wieso flimmern L und M eigentlich so stark bei Raytracing?
https://youtu.be/sTaqPIHRFsU?t=567
Bei PT ist es ja egal, da ergibt eh nur RR Sinn.
Weil das Denoising des Spiels unzureichend ist und die alten verfahren das übrige flimmern einfach nur durch ghosting und blur verschmiert haben.
M und L holen deutlich mehr Details raus, natürlich dann auch mehr RT noise. Wie sollte es auch anders sein?
Das dürfte aber durch aggressiveres Denoising kompensierbar sein. Der Denoiser muss wahrscheinlich auch nicht unbedingt besser werden, sondern einfach nur agressiver eingestellt werden. Da DLSS mehr Details rausholt sollte das bild trotz stärkerem denoising nicht viel unschärfer werden.
robbitop
2026-01-21, 14:33:26
Gerade mit RT reflections finde ich wird upsampling ohne RR (was ja mehr ist als nur ein NN denoiser) schnell ziemlich madig. Sollte IMO mit RT in Spielen Standard sein.
dildo4u
2026-01-21, 14:33:48
Kein Plan ob das bekannt ist aber ist RR noch Stand DLSS3.7 oder gab es ein Update für 4.0?
Das könnte erklären warum der Schärfe Unterschied so massiv ist wenn man RR abschaltet.
Argo Zero
2026-01-21, 14:36:16
Ich finde gerade die Verbesserungen beim Ultra Performance Mode beeindruckend. Vor nicht allzu langer Zeit habe ich noch die Nase über den UP Mode gerümpft, jetzt würde ich sagen dass 720->4K auf einer 5070 vielleicht sogar Sinn ergibt. Irgendwie komplett irre dass man mit 1->9 Pixel so eine (relative) Stabilität bekommt :eek:
Ultra Performance mit Model L könnte vielleicht auch 5K und 6K Monitore viable machen wenn der P-Mode mal nicht reicht.
5K UP: 960p -> 2880p
6K UP: 1152p -> 3456p
Also ja... ich muss Screenshots machen und zwischen Balanced und Ultra Performance hin und her switchen und sehr genau hin schauen um Unterschiede zu sehen.
Bei nativ vs. UP sehe ich fast gar keinen Unterschied.
Im Grunde schaut es für mich so aus: UP ist quasi nativ und Balanced / Quality ist besser als nativ.
Me ist beeindruckt. Damit sehe ich keine Notwendigkeit mehr mit meiner 32" 4k Möhre im "27 Zoll Modus" zu zocken mit geringerer Auflösung.
Mehr Leistung für lau. nVidia ist mir zwar immer noch nit sympathisch aber das ist nice.
robbitop
2026-01-21, 14:49:34
Kein Plan ob das bekannt ist aber ist RR noch Stand DLSS3.7 oder gab es ein Update für 4.0?
Das könnte erklären warum der Schärfe Unterschied so massiv ist wenn man RR abschaltet.
Es gab für RR auch ein Transformer upgrade letztes Jahr. Model D und E. Gebrandet mit DLSS-RR 4.0 soweit ich weiß.
basix
2026-01-21, 15:33:26
Me ist beeindruckt. Damit sehe ich keine Notwendigkeit mehr mit meiner 32" 4k Möhre im "27 Zoll Modus" zu zocken mit geringerer Auflösung.
Seit DLSS 4 sehe ich eh keinen wesentlichen Grund mehr etwas anderes wie 4K zu kaufen (ausserhalb der höheren Monitorpreise). DLSS 4 Performance ist bereits sehr gut (Rekonstruktion, Bildschärfe) und eigentlich alle 60er Karten oder höher stemmen 1080p Renderauflösung (ausserhalb von PT). Man sollte halt einfach 8GB Karten meiden. Mit DLSS 4.5 ist auch UP oftmals noch gut brauchbar. 4K bringt generell noch ein paar Qualitätsgewinne gegenüber 1440p mit sich (z.B. Texturen) und 4K Medien werden auch immer verbreiteter (YT, Netflix, ...).
Wenn man sich achtet, sieht man immer noch Qualitäts-Unterschiede zwischen z.B. P und Q oder gar DLAA aber während dem Spielen fallen die meisten Unterschiede nur selten störend auf. Bei mir ist Default DLSS 4.5-P eingestellt. Manche Spiele nutze ich mit B oder Q, wenn die Framerate bereits ausreichend ist. Aber das wird immer seltener. Bei DLSS 2 und DLSS 3 hat mich jeweils die Unschärfe gestört, welche mit abnehmender Renderauflösung immer schlimmer wurde. Das ist seit DLSS 4 aber faktisch kein Thema mehr. DLSS 4.5 legt da nochmals eine Schippe drauf (und ja, ist nun oftmals überschärft wenn man die Schärfe nicht zurückregelt - in-game oder CAS via Reshade)
robbitop
2026-01-21, 15:39:56
Und mittlerweile sind 4k240 OLEDs echt massiv günstiger geworden. Gab neulich ein 32er für 470€. (war allerdings ein deal)
Wieso flimmern L und M eigentlich so stark bei Raytracing?
https://youtu.be/sTaqPIHRFsU?t=567
Bei PT ist es ja egal, da ergibt eh nur RR Sinn.
Genau was ich vorher sagte, Preset "K" ist am besten wenn man auf optimaleres AA und Filterung wert legt, gibt es wenig Grund auf die neueren Modelle zu wechseln, sind jedoch als Option durchaus zu gebrauchen um Edge-Case Problemen zu begegnen.
Lurtz
2026-01-21, 17:17:05
Wie können die Denoiser der Engines besser werden? Sollte von Epic nicht auch ein Denoiser auf Basis von Machine Learning kommen?
aufkrawall
2026-01-21, 17:22:02
ML hatten sie nicht gesagt, nur neu/experimentell. Würd mir da keine Hoffnungen machen, bis jemand in Vorab-Branches auf GitHub igendwas findet.
Alles Müll außer RR. Wobei M zigmal besser mit VSM funktioniert als K, und semi-glossy sah auch schon mit K/SR E furchtbar aus. Zumindest mein Eindruck aus Fortnite und Talos.
Lurtz
2026-01-21, 20:44:09
Ist ja bitter. Kann doch nicht sein dass eine so essenzielle Komponente für Raytracing nur in einer handvoll Spiele mit einem IHV eine Qualitätsklasse besser läuft.
MAX|HASS
2026-01-21, 22:30:52
Könnte bitte nochmal jemand verlinken, wofür jetzt ein preset gedacht ist? Bisher lasse ich einfach immer app-gesteuert an, was läuft denn dann eigentlich? Vermutlich K und da installierte Spiele meist noch eine 4er dlss-dll drin haben, ist nichts "neues" aktiv?
Und was mich noch interessiert: ist K in 4.5 jetzt immer forderner für die Karte (hier 5070ti) als in 4er Iteration? Sind L und M generell nur für perf.-Modi interessant? Hatte gestern ein Video gesehen, da lagen diese beiden fps-mäßig noch hinter dem alten 4er K? Kann doch nicht sein.
Darkman.X
2026-01-21, 23:24:37
App-gesteuert = Der Entwickler legt fest. Ich weiß aber auch nicht, welches Preset genommen wird, wenn bei einem alten Spiel noch A, B, C oder D eingestellt ist. Vielleicht E? Oder K? Diese alten Modelle (A bis D) sind mittlerweile aus den DLSS-Dateien rausgeflogen.
K ist, soweit ich weiß, in 4.0 und 4.5 gleich fordernd. Das Neue an 4.5 ist L und M. Und diese Presets kosten mehr Leistung. Willst du es hübscher, dann muss du mehr FPS opfern.
Ja, wirkt wie ein Widerspruch, weil es bei DLSS ja ursprünglich darum ging, mehr Performance heraus zu holen. Aber wer nicht unter einem Stein lebt, weiß, dass man sich mit DLSS auch ein paar Nachteile holt. Und um diese zu minimieren/beseitigen, benötigt es mehr Leistung. Dafür kann man im Gegenzug oftmals die Qualitätseinstellung herunterstellen. Ein "Performance" sieht mit K/L/M heutzutage wohl so gut aus wie ein "Quality" von früheren DLSS-Versionen.
(Man möge mich korrigieren, wenn ich es falsch wiedergegeben habe.)
MAX|HASS
2026-01-21, 23:35:33
Danke erstmal, ich muß wohl ein Spiel zwei- oder dreimal laden, um Unterschiede zu erkennen.
IceKillFX57
2026-01-22, 11:47:55
Dachte wenn man K nimmt, dann von 4.5 auf 4.0 geschaltet wird?
Lurtz
2026-01-22, 12:17:37
ReuL0ei39vE
Disconnected
2026-01-22, 12:21:16
ReuL0ei39vE
Im Prinzip fixt es alte Probleme, bringt aber neue hinzu. Das ganze hängt dann auch noch ab vom Spiel und welche Art von Artefakten einen persönlich weniger stören und ob es den Leistungseinbruch wert ist. Da kann man ganze Wikis damit füllen.
Lurtz
2026-01-22, 12:35:19
Am Ende empfiehlt auch er M für die beste Bildqualität, insbesondere im Performance-Mode.
Das Fazit, dass K universell besser war, kommt immer von Leuten, die die Schwächen von K nicht so hoch gehängt haben. Finds ziemlich wild zu behaupten, K hätte man einfach immer aktiviert, weils keine großen Schwächen gehabt hätte. Aber er geht ja auch zB nicht dediziert auf Volumetrics ein, die mit K quasi immer kaputt waren...
Warum man die Sache mit der Sharpness jetzt an DLSS aufhängt statt an den Spielen ist auch so eine Sache. Spiele sollten einfach kein nicht-deaktivierbares grottiges Sharpen haben, das rächt sich jetzt.
Den Sharpness-Filter zu DLSS 2-Zeiten zu kritisieren war richtig und wichtig, aber hier verwechselt man jetzt irgendwie Ursache und Wirkung.
Bin ich froh, dass es den Thread hier gibt, in den Kommentaren ist auch schon wieder alles voller FUD :ugly:
Disconnected
2026-01-22, 13:06:58
Ich bin froh, mal Footage aus anderen Spielen zu sehen, nicht nur Cyberpunk (wo eh zu viel gleichzeitig passiert, auf das ich alles achten könnte). The Last of Us war ein gutes Beispiel. Mit M hat er die Haare so schön, aber der gegenüber K flimmernde Zaun wird mit keinem Wort erwähnt? Ich weiß ja nicht, wie Ihr 3rd Person Spiele spielt, aber ich achte da immer primär auf die Umgebung statt auf die Figur: wo muss ich hin? Wo sind meine Gegner? Das Mafia Beispiel war auch interessant: diesen komischen Halo um den Angler am Pier findet man an beiden Presets. Köstlich ist auch Horizon Whatever Remastered: die Unterschiede im Gras muss man mit der Lupe suchen, aber die aufploppenden Schatten in der Ferne fallen *niemandem* auf? Und ja ich, weiß dass das in diesem spezifischen Fall nichts mit DLSS zu tun hat. Was ist daran bitte "remastered"? Bei Shadow of the Tomb Raider übrigens der gleiche Mist.
Lurtz
2026-01-22, 13:14:09
Man kann das halt beliebig komplex gestalten. Und man sieht schon bei den Reviewern, dass sie alle Wert auf was anderes legen. Oder die Spieleauswahl... Die Sony-Titel haben praktisch alle forciertes Sharpen.
Das deutlich bessere "Tracking" sich bewegender entfernter Objekte habe ich auch in noch keinem Review erwähnt gesehen.
Disconnected
2026-01-22, 14:03:04
Worin sich aber alle einig waren, ist bessere Bildqualtät bei den aggressiveren Upscaling Modi am besten noch in Kombination mit niedrigeren Zielauflösungen. Die ganze "recommended" Einstellung von NVidia ist damit gar nicht mal so verkehrt.
dildo4u
2026-01-22, 16:13:40
Mal eine Frage wo sind die neuen GPU besser dank FP8 ich habe genau den Performance Drop wie die 3090 in dem Hardware Unboxed Video mit meiner 4070S und beide haben Vergleichbare FP32 Rechenleistung.
Exxtreme
2026-01-22, 16:25:57
DLSS 4.5 benutzt viel mehr FP8 so wie es ausschaut. Und GPUs ohne spezielle FP8-Rechenwerke verlieren mehr Leistung. Man kann zwar FP8-Aufgaben auch in FP16- und FP32-Registern laufen lassen. Aber die fressen viel mehr Fläche und deshalb hat man nicht so viele auf dem Chip.
Relex
2026-01-22, 18:17:07
Mal eine Frage wo sind die neuen GPU besser dank FP8 ich habe genau den Performance Drop wie die 3090 in dem Hardware Unboxed Video mit meiner 4070S und beide haben Vergleichbare FP32 Rechenleistung.
Hast du bei gleicher Auflösung und Framerate verglichen? Das wäre extrem wichtig.
Wenn du den Performancedrop z.B. bei höheren Frameraten messen willst, dann wird der höher ausfallen als bei niedrigen Frameraten.
Das Thema hatten wir doch schon oft angesprochen. Das ergibt sich aus der Zeit die DLSS zur Berechnung braucht.
Je höher deine Framerate und je kleiner die Frametime, desto stärker wirken sich 1-2 Millisekunden extra Rechenzeit durch DLSS4.5 aus. Je niedriger die Framerate und je länger die Frametime, desto geringer sind die Auswirkungen.
Kann also gut sein, dass du bei 200 FPS 15% performance verlierst und bei 100 FPS nur noch 7% oder so... 2 ms extra Rechenzeit sind bei 200 FPS sehr viel Holz, bei 100 oder 50 FPS aber nur recht wenig.
Hier wurde ja auch mal verlinkt wie viel Renderzeit die verschiedenen Presets auf verschiedenen GPUs bei verschiedenen Auflösungen brauchen. Das ist genau der Punkt.
Nvidia gibt absichtlich keine Prozentwerte für die höheren kosten an sondern nur Millisekunden, weil sich die Prozentwerte abhängig von Auflösung und Framerate stark verschieben würden.
TheAntitheist
2026-01-22, 18:32:10
Ich bin froh, mal Footage aus anderen Spielen zu sehen, nicht nur Cyberpunk (wo eh zu viel gleichzeitig passiert, auf das ich alles achten könnte). The Last of Us war ein gutes Beispiel. Mit M hat er die Haare so schön, aber der gegenüber K flimmernde Zaun wird mit keinem Wort erwähnt? Ich weiß ja nicht, wie Ihr 3rd Person Spiele spielt, aber ich achte da immer primär auf die Umgebung statt auf die Figur: wo muss ich hin? Wo sind meine Gegner? Das Mafia Beispiel war auch interessant: diesen komischen Halo um den Angler am Pier findet man an beiden Presets. Köstlich ist auch Horizon Whatever Remastered: die Unterschiede im Gras muss man mit der Lupe suchen, aber die aufploppenden Schatten in der Ferne fallen *niemandem* auf? Und ja ich, weiß dass das in diesem spezifischen Fall nichts mit DLSS zu tun hat. Was ist daran bitte "remastered"? Bei Shadow of the Tomb Raider übrigens der gleiche Mist.
horizon 1 wurde auf das grafik niveau von teil 2 gebracht, daher remastered. natürlich ist das remastered, aber kein remake... guck mal an was bei filmen remastered bedeutet.
gnomi
2026-01-23, 10:54:18
Sehe es wie in dem Video.
DLSS 4.5 ist schon besser. Die hohen Kosten oben raus sind nicht tragisch, denn Auflösung wird unbedeutender.
Gerade 4K mit Performance ist für mich eine Option am kleinen 28 Zoll 4K Display, um noch etwas länger mit der 4080S auszukommen.
Die 3080 TI läuft nur noch als Backup im Zweitrechner.
Hier würde ich schon etwas aufpassen müssen wegen der allgemeinen Kosten in neuen Spielen.
Die Karte ist einfach Software technisch veraltet/limitiert.
Obwohl der Performance Sprung Ampere gegenüber Turing auf dem Papier besser war, ist er es in der Realität/Anwendung nicht mehr.
Bei UE 5 merkt man das dann extrem.
Ohne FG OOTB und mit diesen Upscaling Kosten, hat man eher das klassische 40-60 fps Gefühl Mitte 10er Jahre mit GSync, während man auf der 4080S das selbe Spiel mit ähnlicher Latenz, aber angenehmerer/klarer Grafik und Geschwindigkeit fürs Auge bekommt. Bereits 80-120 fps funktionieren irre gut.
Auf der Konsole bei Immortals passt das auch schon, aber das Upscaling ist halt übelst alt.
RTX 4000er Serie aufwärts ist somit noch konkurrenzlos.
Man müsste nvidia bearbeiten, 2 FG überall zu ermöglichen, wenn sie schon 3060 weiter verkaufen.
Hoffe, AMD prescht mit guten Midrange Karten mit FG und FSR 4 vor.
Wenn es schlecht läuft, verteuern sich aber eher Midrange und neuen Konsolen/Steam Maschine Richtung 1k Euro. Das wäre das schlechtere Szenario. Diese Technologien sind im Grunde genommen zu gut. :freak:
dildo4u
2026-01-23, 16:23:52
DLSS4.5 hat Probleme mit Raytracing vergleichbar mit Sonys PSSR.
x8CcD13eS6I
Lurtz
2026-01-23, 16:33:47
Wenn Super Resolution mit Raytracing schlechter wird brauchen wir Ray Reconstruction in mehr Titeln :P
Relex
2026-01-23, 16:36:11
Nach dem Silent Hill 2 Vergleich, der mit Preset K perfekt stabil ist und mit Preset M flimmert würde ich auch sagen, da muss Nvidia unbedingt nachbessern.
Bisher hatte ich nur Fälle wo es mit Preset K auch flimmert und mit Preset M nur stärker. Für mich absolut logisch, wenn es schärfer ist und weniger ghostet. Da ist das denoising einfach in beiden Fällen unzureichend.
Aber beim Silent Hill 2 Vergleich mit dem Baum in der Pfütze ist das ja nicht der Fall. Da scheint mit Preset M definitiv was falsch zu laufen. Stellt sich die Frage wie Preset L sich da geschlagen hätte.
Trotzdem sehr gutes Video. Vor allem adressiert er auch das Thema bzgl. Schärfe incl. Supersampling vergleich, der wieder zeigt, dass es sehr weit von "zu scharf" entfernt ist und die Scharfzeichner in den Spielen das Problem sind.
robbitop
2026-01-23, 18:33:16
DLSS4.5 hat Probleme mit Raytracing vergleichbar mit Sonys PSSR.
https://youtu.be/x8CcD13eS6I
Normales upsampling kann mit den rays nicht interagieren. Völlig klar, dass das nichts bringt. Dafür braucht es DLSS-RR. Nur dann kann mit den rays interagiert werden. Ist halt mehr als nur ein denoiser. Leider wird es nicht oft genug eingebaut.
Mal eine Frage wo sind die neuen GPU besser dank FP8 ich habe genau den Performance Drop wie die 3090 in dem Hardware Unboxed Video mit meiner 4070S und beide haben Vergleichbare FP32 Rechenleistung.
Schau dir mal diese umfangreiche Messreihe an, da kommt das ziemlich klar heraus: https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-45-aktivieren-Test-Performance-Spiele-1490771/4/
Turing, Ampere, Lovelace und Blackwell im Test - und die beiden älteren Herrschaften brechen bei Transformer 2.0 deutlicher ein.
MfG
Raff
ChaosTM
2026-01-23, 21:55:04
Das PC Games Video hab ich noch nicht gesehen, aber ein gewisses über-schärfen ist vorhanden (John L.) und ich hasse das. Triff nicht immer zu aber wenn, dann ist es ungut.
4.5 ist auch nur eine Zwischenstufe. Bis 5.0 sollte das gefixt sein.
Relex
2026-01-23, 22:07:43
Was will man da fixen? Dass Entwickler ihre erzwungenen Scharfzeichner raus patchen?
ChaosTM
2026-01-23, 22:23:16
Den Entwickler sagen, dass sie keine Scharfzeichner mehr brauchen? Its Nvidia..
Wie sie das machen ist mir egal.
Mir fiel schon die unnötige Überschärfung bei den CES Demos auf. Die glitzernden Lichter haben profitiert, aber der Boden bei Wukong nicht..
basix
2026-01-24, 10:49:50
Einen Schärferegler in den Game-Optionen habe ich schon gerne. Am liebsten auf CAS Basis. Dann muss ich mich nicht um Reshade bemühen ;)
Aber eben, es sollte in den Optionen anpassbar sein.
Relex
2026-01-24, 11:13:59
Ein schärferegler kann ja zumindest etwas nachhelfen, wenn die Sehkraft leidet.
Da leiden oft nicht nur die Details sondern eben auch der Kontrast. Scharfzeichner verstärken den Kontrast an Kanten und können dadurch eine Sehschwäche zumindest teilweise kompensieren.
Aber das sollte eine rein optionale accessibility funktion sein. Nichts was man standardmäßig aktiviert oder sogar erzwingt.
basix
2026-01-24, 11:38:22
Was hat Bildschärfe mit Sehkraft zu tun? :D
Wenn ich nicht mehr gut sehe, bringt mir zusätzliche Schärfe nicht so viel.
Relex
2026-01-24, 11:40:07
Warum stellst du die Frage?
Schlechte Sehkraft = unscharfes Bild + schlechtere Kontrastempfindlichkeit -> Scharfzeichner kompensiert das teilweise.
Ich spreche hier natürlich nur von einer leichten Sehschwäche und keinem blinden Maulwurf der ohne Brille gar nichts mehr erkennen würde.
Die meisten Menschen haben zumindest eine minimale sehschwäche oder hornhautverkrümmung, wo ein scharfzeichner bereits deutlich helfen kann.
Was denkst du denn, warum so viele Leute die Scharfzeichner hoch drehen?
basix
2026-01-24, 12:04:20
Kann sein, dass das bei leichter Sehschwäche was hilft.
Ich würde aber behaupten:
Umso besser die Sehkraft, desto mehr sieht man die Unterschiede von einem Scharfzeichner. Umso schlechter man sieht, desto weniger fällt es auf. Du sagst ja selbst, dass die Kontrastempfindlichkeit bei guter Sehkraft besser ist.
dildo4u
2026-01-24, 12:49:31
4.5 in Fortnite massive Probleme mit der Vegetation das ist ohne Hardware Lumen
Die Auflösung im Menü ignorieren das ist 4k mit Performance DLSS.
Model M
YBmZGc6-VRY
Model K erzwungen
SmEwDMrR8_Y
aufkrawall
2026-01-24, 12:59:02
K getestet? Epic effect details? HWRT? epic Lumen Setting? Der Denoiser war schon immer ziemlich buggy in dem Spiel bei Gräsern im Schatten.
War jedenfalls vor einigen Wochen bei mir auf den Blitz-Maps garantiert nicht so.
x-force
2026-01-24, 13:55:48
Ein schärferegler kann ja zumindest etwas nachhelfen, wenn die Sehkraft leidet.
lieber nicht zum augenarzt, der könnte das problem ja an der wurzel lösen ;D
Relex
2026-01-24, 14:13:21
Ist häufig völlig unnötig. Wie gesagt, wenns nur ne minimale schwäche ist, dann wirst du dafür keine Brille oder Augenkorrektur brauchen. Das trifft auf den Großteil der Menschehit zu. Nur weil viele keine Brille brauchen heißt das noch lange nicht, dass sie perfekt sehen. Perfekt sehen ist eh relativ. Und genau da hilft ein Scharfzeichner. Für viele sieht ein Bild mit scharfzeicher dann einfach besser und klarer aus.
Leute die hingegen sehr hohe Sehkraft haben oder mit einer Brille sehr gut sehen, würden den Scharfzeichner als störend und "zu viel" empfinden.
Aber egal, wir kommen vom Thema ab.
x-force
2026-01-24, 15:35:41
Perfekt sehen ist eh relativ. Und genau da hilft ein Scharfzeichner. Für viele sieht ein Bild mit scharfzeicher dann einfach besser und klarer aus.
Leute die hingegen sehr hohe Sehkraft haben oder mit einer Brille sehr gut sehen, würden den Scharfzeichner als störend und "zu viel" empfinden.
perfekt ist nicht relativ, es gibt ein biologisches max bei einem visus von etwa 2.
ziel sollte imo sein die unterste reihe der sehprobentafeln lesen zu können.
ich wage zu behaupten:
wer auf monitordistanz vom einsatz eines schärfereglers profitiert, profitiert im alltag von einer brille und sollte zum augenarzt.
Aber egal, wir kommen vom Thema ab.
ich denke nicht.
wir haben doch identifiziert, dass sharpening zu ringing und damit zu problem mit dlss führt.
nach meiner argumentation ist sharpening für leute mit anständiger sehkraft überflüssig.
Bin Kurzsichtigkeit und habe -0.50 bei Hornhautverkrümmug und Sphäre. Für viele ist das ein Witz und wenig.. fürs zocken ist es aber schon zuviel bei 2 Meter Abstand. Da kann ich die Texte nicht mehr richtig Lesen und sehe leicht verschwommen ohne Brille. Millionen habe eine Sehschwäche die sie garnicht bemerken weil sie keine Gamer sind.
00-Schneider
2026-01-25, 11:20:15
Nach dem Silent Hill 2 Vergleich, der mit Preset K perfekt stabil ist und mit Preset M flimmert würde ich auch sagen, da muss Nvidia unbedingt nachbessern.
Bisher hatte ich nur Fälle wo es mit Preset K auch flimmert und mit Preset M nur stärker. Für mich absolut logisch, wenn es schärfer ist und weniger ghostet. Da ist das denoising einfach in beiden Fällen unzureichend.
Da in dem Video nur mit Performance getestet wurde: Flimmert das auch so stark mit Quality oder DLAA?
dildo4u
2026-01-25, 12:10:51
Nvidia sieht vor das du weiterhin Modell K für Qualität nutzt, daher testet jeder nur Performance.
Modell M erzeugt noch zu viel Artefakte das musste vermutlich zur CES fertig sein.
00-Schneider
2026-01-25, 13:43:37
Nvidia sieht vor das du weiterhin Modell K für Qualität nutzt, daher testet jeder nur Performance.
Modell M erzeugt noch zu viel Artefakte das musste vermutlich zur CES fertig sein.
Was sollen diese hingerotzten Posts von dir? Hast du meine Frage überhaupt verstanden?
dildo4u
2026-01-25, 13:54:48
Ja Modell M schärft das Bild was zum Flimmern führt, das würde nur schlimmer werden mit einer höheren Basis Auflösung.
Aus diesem Grund erzwingt Nvidia das alte Modell für den Qualitäts Modus.
Relex
2026-01-25, 13:58:39
Ich hab das Spiel nicht, deshalb kann ichs nicht testen. Würde aber stark davon ausgehen, dass die Auflösung da kaum einfluss macht. Wenn ein Algorithmus fehler macht, dann macht er die bei jeder Auflösung. Nur minimal reduziert, wenn die Auflösung steigt.
Quality vs Performance ist ja auch nur 67% vs 50% skalierung. Das bringt nichts. Selbst DLAA hat ja viel zu wenige Pixel und ist ja erstmal komplett ungeglättet. Sprich da muss DLSS genauso seinen Dienst verrichten wie bei den niedrigeren Einstellungen, folglich macht es auch die gleichen Fehler.
Mich würde es schon sehr wundern, wenn mit Quality oder DLAA das geflacker plötzlich weg wäre. Das halte ich für ziemlich ausgeschlossen.
Ansonsten ist es ja logisch, dass man mit dem Performance Modus testet. Man will die Upscaler ja auch ein wenig fordern und die Unterschiede sehen.
Wenn du alle Upscaler bei 90% Skalierung auf ein 16K Bild anwendest wirst eben kaum noch Unterschiede sehen. Quality Mode oder höher in hohen Auflösungen zu testen ist die reinste Zeitverschwendung.
Ja Modell M schärft das Bild was zum Flimmern führt, das würde nur schlimmer werden mit einer höheren Basis Auflösung.
Aus diesem Grund erzwingt Nvidia das alte Modell für den Qualitäts Modus.
Quatsch mit Soße.
dildo4u
2026-01-25, 14:01:52
Performance kommt natürlich noch dazu habe es jetzt abgeschaltet lohnt sich aktuell für meine 4070S nicht denke auch nicht das das in Zukunft schneller wird.
Ja Modell M schärft das Bild was zum Flimmern führt,
Nicht Modell M schärft, es erzeugt noch weniger Unschärfe als K und je nach Spiel ist dann die Standardschärfung zu stark.
das würde nur schlimmer werden mit einer höheren Basis Auflösung.
WTF, wieso sollte das mit mehr Auflösung schlimmer werden?
Aus diesem Grund erzwingt Nvidia das alte Modell für den Qualitäts Modus.
Nvidia erzwingt gar nichts du kannst das neue Modell auch mit DLAA wählen.
Nvidia empfiehlt das neue Modell mit Performance weil hier der Vorteil der Quality/Performance-Ratio am höchsten ist.
dildo4u
2026-01-27, 11:28:54
Es wird kein RR für 4.5 erwartet?
RR nutzt wohl schon ein teures Upsampling Modell und FP8.
https://www.reddit.com/r/hardware/comments/1qllo9m/why_there_is_no_dlss_45_ray_reconstruction_and/
Relex
2026-01-27, 11:56:02
Da RR besonders für Pathtracing relevant ist und die FPS dort eh relativ niedrig sind, wäre es kein Problem, die Compute Kosten von RR weiter zu erhöhen, weil der Impact auf die Framerate geringer ist, wenn die FPS eh schon gering sind. Man könnte also bei 60 FPS locker nochmal 5% performance brauchen, was dann bei 120 oder 150 FPS natürlich schnell mal 10-20% werden könnten. Aber dafür hat man ja Frame Generation. Frame Gen wäre von dem performancehit komplett ausgenommen. Wenn man also 5% kosten bei 60 FPS hat, bleibt es mit Frame generation auch bei 200 FPS bei weiterhin nur 5%.
Diesen "Trick" kann man sich also problemlos zunutze machen.
Dazu kommt, dass Ray Reconstruction in Pathtraced Spielen aktuelle schneller (!) läuft, als z.B. DLSS Preset K.
Preset M läuft sogar deutlich langsamer als RayReconstruction, weil Preset M + der Spieleigene denoiser deutlich mehr Rechenlast erzeugen, als Ray Reconstruction alleine, welches Upscaling und Denoising ersetzt.
Daher ist das Argument für mich nicht ganz schlüssig. Klar wäre es am besten wenn man die Qualität weiter steigern kann ohne mehr Rechenleistung zu brauchen.
Trotzdem wäre es kein großes Problem, RR etwas teurer zu machen, da das bei geringeren FPS und langen Frametimes deutlich weniger ins Gewicht fällt als bei hohen Frameraten, wo 2 ms mehr Renderzeit bereits einen großen Performancehit bedeuten.
Relex
2026-01-27, 12:39:00
T3MjSxysft0
Neuer Vergleich von HW Unboxed.
Langsam kann ich die Vergleiche aber nicht mehr ernst nehmen.
Warum nehmen alle Reviewer ständig so viele Games die durch erzwungene Scharfzeichner ein absolutes schrott Bild erzeugen.
Und dann kreidet man bei Horizon auch noch DLSS4.5 Artefaktbildung an, obwohl der Scharfzeichner im Performance Mode extrem übertrieben ist, selbst mit DLSS3... Was soll der Scheiß?! Warum kapiert das kein Reviewer und warum richten sie die Kritik an Nvidia und nicht an die Spieleentwickler?
Das ist einfach nur unprofessionell, technisch unsauber und irreführend. Zumindest wäre eine Aufklärung darüber das mindeste, so wie es Digital Foundry auch getan hat. Einfach nur die Scharfzeichner so hinzunehmen und dann DLSS4.5 für weniger Blur auch noch zu bestrafen ist lächerlich. Je schärfer ein Bild bereits ist, desto mehr Artefakte erzeugt ein Scharfzeichner nunmal. Das kann absolut jeder mit einem Bildbearbeitungsprogramm nachvollziehen.
x-force
2026-01-27, 15:48:21
Das ist einfach nur unprofessionell, technisch unsauber und irreführend.
ist halt ähnlich stumpf, wie nicht zum augenarzt zu gehen, sondern am schärferegler zu drehen ;)
https://youtu.be/T3MjSxysft0
Neuer Vergleich von HW Unboxed.
Langsam kann ich die Vergleiche aber nicht mehr ernst nehmen.
Warum nehmen alle Reviewer ständig so viele Games die durch erzwungene Scharfzeichner ein absolutes schrott Bild erzeugen.
Bei Computerbase genau das gleiche, beschwert sich über Wasserdarstellung und hat Film Grain, Fringing & Co aktiviert. Sehr anfängerhafte Betrachtungen...
Thunder99
2026-01-27, 19:13:52
Gibt es mittlerweile eine Liste oder kann mir jemand sagen wo DLSS auf quality mit Modell M besser ist als mit K?
Lurtz
2026-01-27, 20:44:32
Es wird kein RR für 4.5 erwartet?
RR nutzt wohl schon ein teures Upsampling Modell und FP8.
https://www.reddit.com/r/hardware/comments/1qllo9m/why_there_is_no_dlss_45_ray_reconstruction_and/
Das sind doch völlig haltlose Spekulationen. Dass RR (insbesondere D und E) bereits ein deutlich größeres Modell verwendet ist seit Release bekannt, dass es asynchron zu SR geupdatet wird, ist auch nichts Neues.
Also kanns genauso gut sein, dass da noch in ein paar Monaten was kommt. Ich bezweifle, dass das nur wegen der Kosten jetzt zwingend stehen bleiben muss.
Und dann kreidet man bei Horizon auch noch DLSS4.5 Artefaktbildung an, obwohl der Scharfzeichner im Performance Mode extrem übertrieben ist, selbst mit DLSS3... Was soll der Scheiß?! Warum kapiert das kein Reviewer und warum richten sie die Kritik an Nvidia und nicht an die Spieleentwickler?
Das ist einfach nur unprofessionell, technisch unsauber und irreführend. Zumindest wäre eine Aufklärung darüber das mindeste, so wie es Digital Foundry auch getan hat. Einfach nur die Scharfzeichner so hinzunehmen und dann DLSS4.5 für weniger Blur auch noch zu bestrafen ist lächerlich. Je schärfer ein Bild bereits ist, desto mehr Artefakte erzeugt ein Scharfzeichner nunmal. Das kann absolut jeder mit einem Bildbearbeitungsprogramm nachvollziehen.
Man kann ja faktisch feststellen, dass einige Spiele mit 4.5 out of the box zu scharf dargestellt werden. Wieso mann dann aber nicht die Ursache klar benennt und hier die Entwickler in die Pflicht nimmt, ist mir rätselhaft.
Das grottige Zwangs-Sharpen bei den Sony-Ports war schon immer völlig bescheuert...
aufkrawall
2026-01-27, 23:20:15
Da helfen einfach nur zwei verschiedene Presets/Modelle für solche Fälle: Ein etwas schärferes und ein etwas softeres. Kann man sich lange drüber aufregen, wird trotzdem ständig Zwangs-Sharpen geben.
Neosix
2026-01-28, 00:39:53
Oder die Entwickler bauen einfach einen funktionierenden Schärferegler in die Spiele von Anfang an ein, dann muss man auch nicht rückwirkend für neue DLSS Versionen was nachpatchen.
aufkrawall
2026-01-28, 00:45:19
Wird nie ansatzweise 100%ig der Fall sein.
Exxtreme
2026-01-28, 01:43:14
Gibt es mittlerweile eine Liste oder kann mir jemand sagen wo DLSS auf quality mit Modell M besser ist als mit K?
Das musst du probieren. L und M sind eher für Performance- und Ultraperformance optimiert. Können aber auch mit Quality besser aussehen als K. J und K sind halt so Alrounder.
Oder die Entwickler bauen einfach einen funktionierenden Schärferegler in die Spiele von Anfang an ein, dann muss man auch nicht rückwirkend für neue DLSS Versionen was nachpatchen.
Kannst knicken. Da wird es immer Leute geben, die sowas nicht gebacken bekommen.
x-force
2026-01-28, 03:23:41
Kannst knicken. Da wird es immer Leute geben, die sowas nicht gebacken bekommen.
wir leben in der eu. man könnte darauf "hoffen" dass sie es einfach verbieten :freak:
crux2005
2026-01-28, 05:40:02
In Robocop: Rogue City ist Preset M/L wegen Lumen nicht zu gebrauchen.
Also auch bei Baldurs Gate 3 verbraucht M im Qualitäts Mode genau soviel Watt wie Nativ. (60 fps limit)
Kein Wunder das M erst bei Performance angewendet wird.
Eigentlich müsste man noch testen ob M in ausgeglichen die gleiche Bildqualität bietet wie K in Qualität, hier Verbrauchen beide Modelle in etwa genauso viel Watt.
Ich selber kann das nicht mehr testen, da ich eh nicht mit einer Lupe spiele und außer einer etwas besseren Schärfe bei Bewegung keine großen Unterschiede feststelle. Natürlich habe ich nur ein paar Spiele getestet...
SamLombardo
2026-01-28, 08:29:00
Also auch bei Baldurs Gate 3 verbraucht M im Qualitäts Mode genau soviel Watt wie Nativ. (60 fps limit)
Kein Wunder das M erst bei Performance angewendet wird.
Eigentlich müsste man noch testen ob M in ausgeglichen die gleiche Bildqualität bietet wie K in Qualität, hier Verbrauchen beide Modelle in etwa genauso viel Watt. Natürlich habe ich nur ein paar Spiele getestet...
Spiele auch gerade wieder Baldur's Gate 3....4k nativ ist schon noch mal ein anderer Hausnummer beim Stromverbrauch. Gestern zufällig gerade getestet in der Nähe Githyanki Tempels Anfang Akt 2, das kann natürlich woanders möglicherweise abweichen.. Bei mir mit 5090 ist es so DLSS Quality Preset K 250-280 Watt, Preset M 350-380 Watt, nativ DLAA 450 und mehr. Ist natürlich trotzdem übel 100 Watt mehr Verbrauch von K auf M.
Lurtz
2026-01-28, 08:30:10
Da helfen einfach nur zwei verschiedene Presets/Modelle für solche Fälle: Ein etwas schärferes und ein etwas softeres. Kann man sich lange drüber aufregen, wird trotzdem ständig Zwangs-Sharpen geben.
Ich würde gerne widersprechen, aber du hast recht :usad:
In Robocop: Rogue City ist Preset M/L wegen Lumen nicht zu gebrauchen.
Das war aber noch nie wirklich zu gebrauchen. Alle Upscaler/TAA scheitern daran, das rauscht immer wie verrückt.
basix
2026-01-28, 08:32:55
Spiele auch gerade wieder Baldur's Gate 3....4k nativ ist schon noch mal ein anderer Hausnummer beim Stromverbrauch. Gestern zufällig gerade getestet in der Nähe Githyanki Tempels Anfang Akt 2, das kann natürlich woanders möglicherweise abweichen.. Bei mir mit 5090 ist es so DLSS Quality Preset K 250-280 Watt, Preset M 350-380 Watt, nativ DLAA 450 und mehr. Ist natürlich trotzdem übel 100 Watt mehr Verbrauch von K auf M.
Preset M schluckt so viel mehr? Wow. Bei der 4090 sehe ich jetzt keine allzu grossen Unterschiede.
SamLombardo
2026-01-28, 08:38:26
Preset M schluckt so viel mehr? Wow. Bei der 4090 sehe ich jetzt keine allzu grossen Unterschiede.
Echt? Ist ja interessant. Mit der 5090 ist es wie gesagt ein deutlicher Mehrverbrauch:eek:. Vielleicht ist das auch nicht überall gleich, meine Testumgebung war gestern vor dem Haupteingang des Githyanki Tempels hin und her zu laufen.
Dicker Igel
2026-01-28, 09:35:37
Ich muss hier noch mal blauäugig in die Runde fragen, weil mir das mit den Modell-Updates noch nicht richtig bewußt ist: Wenn ich jetzt bspw den reinen 591.86 Treiber ohne NV-App installiere und zum steuern der Modelle den NVI nutze, kommt mit dem Treiber-Update auch das der Modelle, oder muss ich dazu die NV-App auch installieren? Falls letzteres nötig ist: Kann man die App anschließend wieder deinstallieren?
Relex
2026-01-28, 09:42:52
Echt? Ist ja interessant. Mit der 5090 ist es wie gesagt ein deutlicher Mehrverbrauch:eek:. Vielleicht ist das auch nicht überall gleich, meine Testumgebung war gestern vor dem Haupteingang des Githyanki Tempels hin und her zu laufen.
Ist ja logisch, wenn die GPU vorher nicht ausgelastet war. Scheinbar leidet die 5090 genauso wie die 4090 extrem unter Auslastungsproblemen.
Zumindest sollte dann aber Preset M in dem Spiel genauso schnell laufen wie Preset K. Wenn das trotz höherem Verbrauch langsamer läuft, wärs ja richtig verrückt..
basix
2026-01-28, 09:44:01
Echt? Ist ja interessant. Mit der 5090 ist es wie gesagt ein deutlicher Mehrverbrauch:eek:.
Ich muss es mal isoliert testen, so ist es mehr ein Bauchgefühl ;)
SamLombardo
2026-01-28, 09:49:29
Ist ja logisch, wenn die GPU vorher nicht ausgelastet war. Scheinbar leidet die 5090 genauso wie die 4090 extrem unter Auslastungsproblemen.
Zumindest sollte dann aber Preset M in dem Spiel genauso schnell laufen wie Preset K. Wenn das trotz höherem Verbrauch langsamer läuft, wärs ja richtig verrückt..
Ich bin bei beiden Presets im Monitorlimit von 117 fps aber die GPU Auslastung steigt definitiv mit M. Wenn ich das richtig erinnere von ~60 auf 75 so in etwa, müsste aber noch mal genau gucken.
Relex
2026-01-28, 10:07:46
Achso, mit FPS limit ist der Mehrverbrauch logisch. Dass es so viel ist, ist natürlich übel, aber dafür hat die GPU ja auch so eine hohe TDP. Die ist ja längst nicht ausgereizt.
Powerlimit setzen würde wahrscheinlich schon einiges bringen, ggf. ohne Auswirkungen auf die FPS.
Disconnected
2026-01-28, 10:30:41
Ich muss hier noch mal blauäugig in die Runde fragen, weil mir das mit den Modell-Updates noch nicht richtig bewußt ist: Wenn ich jetzt bspw den reinen 591.86 Treiber ohne NV-App installiere und zum steuern der Modelle den NVI nutze, kommt mit dem Treiber-Update auch das der Modelle, oder muss ich dazu die NV-App auch installieren? Falls letzteres nötig ist: Kann man die App anschließend wieder deinstallieren?
Du brauchst die App nicht.
dildo4u
2026-01-28, 10:36:02
Ich sehe ehrlich gesagt nicht warum man das aktuelle RR ersetzen müsste?
Oder übersehen ich was?
SLU5jsKy_XA
SamLombardo
2026-01-28, 10:39:25
Du brauchst die App nicht.
Also wie ist das wenn man die App nicht drauf hat und auch den Inspektor nicht also quasi nur den Treiber: dann wird bei DLSS Qualität automatisch Preset K genommen, bei Performance Preset M und bei Ultra Performance L? Passiert das so alles automatisch?
Relex
2026-01-28, 10:45:02
Ich sehe ehrlich gesagt nicht warum man das aktuelle RR ersetzen müsste?
Oder übersehen ich was?
https://youtu.be/SLU5jsKy_XA
Krass wie es solche Tester immer wieder schaffen die schlechtesten beispiele zu finden.
Du brauchst dich nur mal Tagsüber mit nem Auto in einen schattigen Bereich stellen und du wirst sehen wie das ganze Auto mit einem wabernden, niederfrequenten Rauschen überzogen ist. Und wenn du das mal gesehen hast, dann siehst du das praktisch überall auf sämtlichen Oberflächen.
RR beseitigt das vollständig.
Ich finde Pathtracing ohne RR wirklich völlig unbenutzbar. :D
Dicker Igel
2026-01-28, 10:56:17
Du brauchst die App nicht.
Thx (y)
Also wie ist das wenn man die App nicht drauf hat und auch den Inspektor nicht also quasi nur den Treiber: dann wird bei DLSS Qualität automatisch Preset K genommen, bei Performance Preset M und bei Ultra Performance L? Passiert das so alles automatisch?Joar, halt das, was Du in-game einstellen kannst. Die NV-Systemsteuerung hat da ja imo keinen Einfluss drauf, weil keine entsprechenden Optionen wie in der App anliegen - aber die soll ja wohl eh weg(Zeit wirds).
SamLombardo
2026-01-28, 11:40:20
Thx (y)
Joar, halt das, was Du in-game einstellen kannst. Die NV-Systemsteuerung hat da ja imo keinen Einfluss drauf, weil keine entsprechenden Optionen wie in der App anliegen - aber die soll ja wohl eh weg(Zeit wirds).
Habe es immer noch nicht kapiert:redface: also ingame kann ich ja meist nur DLSS und dann die verschiedenen Stufen, Qualität, Performance usw einstellen. Die Frage ist halt ob der Treiber die verschiedenen Modelle K, M,...dann automatisch zuordnet. Weiß das jemand?
Dicker Igel
2026-01-28, 11:46:07
Ja, das Modell wird dann automatisch gewählt. Daher kann man ja via App, oder Thirdparty wie NVI die Modelle explizit samt Güte der Qualität wählen. Daher macht imo nur Treiber für einen gewissen Anspruch auch keinen Sinn. Ohne App, oder NVI könnte ich bspw in RDR2 kein DLAA nutzen, sondern nur die Modi, die mir RDR2 in-game in den Optionen bietet(PS: in dem Fall kein Ultra Q, das kommt erst mit dem Override).
SamLombardo
2026-01-28, 11:54:26
Ja, das Modell wird dann automatisch gewählt. Daher kann man ja via App, oder Thirdparty wie NVI die Modelle explizit samt Güte der Qualität wählen. Daher macht imo nur Treiber für einen gewissen Anspruch auch keinen Sinn. Ohne App, oder NVI könnte ich bspw in RDR2 kein DLAA nutzen, sondern nur die Modi, die mir RDR2 in-game in den Optionen bietet(PS: in dem Fall kein Ultra Q, das kommt erst mit dem Override).
Danke dir, gut zu wissen! Mit den anspruchsvollen Usern hast du selbstverständlich recht, letztendlich ist diese Automatik aber eine gute Sache, so das auch User die sich nicht in die Materie einarbeiten wollen z.B bei DLSS Performance gleich mit Preset M die beste Qualität bekommen.
Dicker Igel
2026-01-28, 12:14:35
Ich denke, die Masse macht sich um sowas keinen Kopf und das meine ich auch keinesfalls abwertend. Dazu kommen unterschiedliche Güten bei den Displays, wie die kalibriert sind, usw. Ich freue mich beim Konsolen daddeln ja schon, wenn ich diese nervige Bewegungsunschärfe ausschalten kann - was man aber gottseidank meist zur Verfügung hat und auch stufenlos regelbar. Sollte imo Standard sein.
Ich sehe ehrlich gesagt nicht warum man das aktuelle RR ersetzen müsste?
Es wirkt eher dass 4.5 für Upscaling das ist was das initiale Transformer-Modell für RR war. Verbesserungen sind natürlich immer gerne gesehen, aber ich wüsste jetzt auch nicht warum RR unbedingt ein 4.5 Update bräuchte.
Es wollten ja immer schon einige RR auch fürs reine Upscaling erzwingen können, da RR auch besseres Upscaling als SR-4.0 machte, mit 4.5 bekommt man das jetzt quasi.
Darkman.X
2026-01-28, 16:44:39
Habe es immer noch nicht kapiert:redface: also ingame kann ich ja meist nur DLSS und dann die verschiedenen Stufen, Qualität, Performance usw einstellen. Die Frage ist halt ob der Treiber die verschiedenen Modelle K, M,...dann automatisch zuordnet. Weiß das jemand?
Wenn dich das Thema so interessiert, dann lese doch bitte im Thread aktiv mit. Oder gehörst du zu denen, die immer nur alles auf dem Silbertablett präsentiert bekommen wollen, ohne Eigeninitiative zu leisten?
Teste es doch einfach selber. Aktiviere per Registry das DLSS-Overlay und prüfe links unten (für DLSS-SR & -RR) oder links oben (für DLSS-FG), welche DLL-Dateien oder Preset verwendet wird.
Vor vier Seiten:
App-gesteuert = Der Entwickler legt fest.
Wenn nichts per App oder NPI eingestellt wird, dann wird das Preset genommen, welches der Entwickler festlegt. Es werden ja auch die vom Spiel mitgelieferten DLL-Dateien verwendet, es findet kein Override statt.
Ich habe es eben mit "Satisfactory" getestet: Es verwendet die DLL-Dateien v3.7.10 (noch das alte Versions-Schema) und Preset C.
Wenn ich den DLL-Override im NPI aktiviere, aber kein Preset festlege, dann werden die DLL-Dateien v310.5.2 verwendet, seltsamerweise aber immer noch Preset C.
Das mit Preset C wundert mich etwas, weil es doch mal die News gab, dass angeblich A bis D gelöscht wurden. (schnell ergoogelt: https://www.thefpsreview.com/2024/11/13/nvidia-has-removed-four-presets-from-dlss-reducing-dll-file-size-by-more-than-50/)
Aber das DLSS-Overlay zeigt wirklich "C" an.
EDIT:
Die verlinkte "News"-Seite hat als Quelle einen Reddit-Beitrag: https://old.reddit.com/r/nvidia/comments/1gpqqu2/dlss_3810_dll_from_drivers_56614/
Also keine Ahnung ob die Presets A bis D wirklich jemals gelöscht waren.
Ich bin gespannt wie stark zukünftige 60xx Grafikkarten DLSS 3;4; 4,5 darstellen können, konkret ob die Grafikkarte dadurch wieder weniger belastet wird bzw. wie weit. Aber das dauert ja leider noch Gefühlt eine Ewigkeit. :-(
Relex
2026-01-28, 17:02:08
Davon kannst du ausgehen.
Ich würde da wieder mit einer verdopplung der Rechenleistung rechnen und somit entprechend geringeren kosten für DLSS.
Schließlich braucht Nvidia das nicht nur für DLSS und Frame Gen sondern auch für Neural Rendering, wo ja künftig noch viel mehr kommen soll. Das wird sich natürlich noch lange ziehen, aber Nvidia wird so früh wie möglich bestmögliche Voraussetzungen in Hardware dafür schaffen.
basix
2026-01-28, 17:31:28
Ja, ich erwarte auch dass Nvidia die relative Tensor Core Performance erhöhen wird. Verdoppelt hört sich mal vernüftig an, vielleicht wird es auch etwas mehr (Rubin CPX legt 8x drauf).
Neben den FLOPS vermute ich auch, dass Tensor Memory (TMEM) in Consumer-GPUs einzug hält. Dadurch sollte die Ausführungsgeschwindigkeit von DNN verbessert werden.
Und dann das Thema DLSS 5. Ich erwarte, dass Nvidia auf ein NVFP4 Modell wechseln wird. Entweder wird DLSS 5 dadurch schneller als DLSS 4.5 (auf Blackwell und Rubin) oder man spendiert nochmals mehr Parameter für ein verbessertes Modell. Oder irgendwas dazwischen.
SamLombardo
2026-01-28, 17:50:15
Wenn dich das Thema so interessiert, dann lese doch bitte im Thread aktiv mit. Oder gehörst du zu denen, die immer nur alles auf dem Silbertablett präsentiert bekommen wollen, ohne Eigeninitiative zu leisten?
Teste es doch einfach selber...
.
Welche Laus ist dir denn über die Leber gelaufen, schlechten Tag gehabt? Mich interessiert es wie das nur mit Treiber läuft, ich hab aber keine Lust den Profilinspector samt meiner Settings zu deinstallieren. Für genau solche Fragen ist dieses Forum und im Speziellen dieser Thread da meine ich.
Ich bin gespannt wie stark zukünftige 60xx Grafikkarten DLSS 3;4; 4,5 darstellen können, konkret ob die Grafikkarte dadurch wieder weniger belastet wird bzw. wie weit.
Davon würde ich ausgehen, Intel verwendet ja verhältnismäßig doppelt so viele Matrixcores.
TheAntitheist
2026-01-29, 06:18:14
Davon würde ich ausgehen, Intel verwendet ja verhältnismäßig doppelt so viele Matrixcores.
die anzahl ist doch egal, die Leistung zählt doch nur...
Außerdem wird nvidia irgendwann auf FP4 gehen, das wurde noch nicht gemacht damit die älteren GPUs auch noch 4.5 nutzen können
dargo
2026-01-29, 06:54:55
Ich bin gespannt wie stark zukünftige 60xx Grafikkarten DLSS 3;4; 4,5 darstellen können, konkret ob die Grafikkarte dadurch wieder weniger belastet wird bzw. wie weit. Aber das dauert ja leider noch Gefühlt eine Ewigkeit. :-(
Falscher Ansatz... Upscaling wird in Zukunft teurer damit die Bildqualität weiter gesteigert werden kann, zumindest in den unteren Presets was den Input angeht. Alles andere macht keinen Sinn da mit schnelleren GPUs Status Quo immer günstiger und dadurch irgendwann der Overhead einfach zu klein wird. Bringt ja nichts Upscaling dann weiter zu beschleunigen wenn der Overhead bsw. nur noch bei 0,2ms liegt.
aceCrasher
2026-01-29, 19:55:38
Ja, ich erwarte auch dass Nvidia die relative Tensor Core Performance erhöhen wird. Verdoppelt hört sich mal vernüftig an, vielleicht wird es auch etwas mehr (Rubin CPX legt 8x drauf).
Neben den FLOPS vermute ich auch, dass Tensor Memory (TMEM) in Consumer-GPUs einzug hält. Dadurch sollte die Ausführungsgeschwindigkeit von DNN verbessert werden.
Und dann das Thema DLSS 5. Ich erwarte, dass Nvidia auf ein NVFP4 Modell wechseln wird. Entweder wird DLSS 5 dadurch schneller als DLSS 4.5 (auf Blackwell und Rubin) oder man spendiert nochmals mehr Parameter für ein verbessertes Modell. Oder irgendwas dazwischen.
Das wäre sehr wichtig. Gerade die kleineren Karten würden massiv davon profitieren wenn sie beim Upscaling in hohen Auflösungen weniger Overhead hätten.
basix
2026-01-30, 11:41:35
Nicht nur die kleinen Karten würden profitieren. Alle Rubin Karten würden profitieren ;)
Mal ein Rechenbeispiel für DLSS 5:
Man erhöht die Anzahl Parameter um 1.33x
Man geht den Weg von Preset L mit 1.5x mehr Rechenleistung als Preset M ohne mehr Parameter. Damit holt man mehr Details raus (siehe z.B. UP Vergleiche von Daniel Owen auf YT). 1.5 * 1.33 = 2x mehr Rechenbedarf fürs Upscaling
FG geht einen ähnlichen Weg: 2x Parameter / Rechenbedarf
DLSS 5 setzt auf FP4, wodurch man 2x Throughput erhält (auf Blackwell und Rubin)
Unter dem Strich würde DLSS 5 auf Blackwell somit genau gleich schnell laufen wie DLSS 4.5 mit Preset M. Ältere Karten als Blackwell würden langsamer werden.
Dann Rubin mit 2x Throughput und TMA & TMEM:
2x FLOPS = 2x Performance
TMA & TMEM = 1.5x bessere Skalierung mit den FLOPS (Annahme meinerseits ohne handfeste Grundlage)
Insgesamt 3x Netto-Throughput bei DNN
Jetzt der Performance Vergleich DLSS 4.5 mit DLSS 5 auf Rubin:
DLSS 4.5 ist ~1.15x langsamer als DLSS 3 mit CNN Modell
Wir nehmen CNN = Null Rechenleistung an, damit man was rechnen kann
Mit 3x mehr Netto-Throughput würde man nur noch 1 + (1 - 1.15) / 3 = 1.05x langsamer als das CNN Modell sein (leicht schneller als DLSS 4 mit Preset K)
Im Idealfall wäre DLSS 5 auf Rubin fast gleich schnell wie DLSS 3 CNN auf älteren Karten mit ähnlichem Grundperformance-Level (z.B. 6060 Ti vs. 5070), da DLSS 3 ja auch etwas Rechenleistung kostet.
Verglichen mit vergleichbar schnellen Blackwell-Karten gewinnt man +10% Performance
Und nun wird es noch spannender, wenn man FG nutzt:
DLSS 4 FG 2x skaliert im Schnitt mit ca. 1.75x
Rubin würde mit 2 - (2 - 1.75) / 3 = 1.92x skalieren. Also verglichen mit Blackwell +10% Performance (Basis/Input-FPS) und Smoothness (Output-FPS)
Bei 4x oder gar 6x/8x MFG würde sich das dann multiplizieren
4x MFG bei 1.75^2 = 3.06 vs. 1.92^2 = 3.69 was +20% Performance (Basis/Input-FPS) und Smoothness (Output-FPS) entsprechen würde
8x MFG bei 1.75^3 = 5.36 vs. 1.92^3 = 7.08 was +32% Performance (Basis/Input-FPS) und Smoothness (Output-FPS) entsprechen würde
Resultat:
Ein höherer netto Tensor-Throughput bei Rubin könnte zu geschätzt in etwa 1.1x höherer Performance gegenüber Blackwell führen, wenn man DLSS Upscaling nutzt
Inkl. 2x FG würde das auf 1.21x ansteigen
Inkl. 4x MFG würde das auf 1.33x ansteigen
Inkl. 8x MFG würde das auf 1.46x ansteigen
Rubin könnte sich damit auch ausserhalb der Grundperformance bemerkbar von Blackwell absetzen
Bessere Tensor-Core Performance könnte aus Gaming Sicht also ziemlich vorteilhaft sein. Auch für Nvidia, da man damit einen bemerkbaren Mehrwert gegenüber Blackwell schafft, womit Rubin für Gamer attraktiver wird.
Und für GEMM im allgemeinen ist das natürlich auch interessant (jegliche lokale Ausführung von DNN wie z.B. Stable Diffusion etc. und weiter in die Zukunft gedacht "Neural Rendering")
Edit:
Ray Reconstruction gäbe es ja auch noch. Macht man dort das selbe Spiel (2x Rechenleistungsbedarf und Wechsel auf FP4), wäre Blackwell wiederum gleich schnell wie bei DLSS 4.
Rubin könnte hier mit 3x Netto-Throughput ebenfalls an Performance gewinnen. Irgendwas zwischen 1.1...1.2x
Relex
2026-01-30, 12:05:18
Wäre FP4 denn wirklich sinnvoll?
Ich kanns nicht bewerten, aber die LLMs meinen, dass FP8 der sweetspot sein dürfte und FP4 dann nur noch für "unterstützende" Prozesse und masking sinnvoll sein kann, wo geringere präzision ausreicht, aber nicht für den kern Algorithmus.
basix
2026-01-30, 12:09:04
Inferencing wechselt immer mehr auf FP4. Dass man noch bei FP8 bleibt ist vermutlich zwei Dingen geschuldet:
- Lovelace kann nur FP8
- NVFP4 vs. FP8 benötigt vermutlich mehr Entwicklungsaufwand. Gratis ist der Wechsel auf eine niedrigere Parameter-Auflösung nicht.
[...]that across all domains, NVFP4 matches the performance of FP8, highlighting its effectiveness.
https://developer.nvidia.com/blog/nvfp4-trains-with-precision-of-16-bit-and-speed-and-efficiency-of-4-bit/
AffenJack
2026-01-30, 13:13:25
Wäre FP4 denn wirklich sinnvoll?
Ich kanns nicht bewerten, aber die LLMs meinen, dass FP8 der sweetspot sein dürfte und FP4 dann nur noch für "unterstützende" Prozesse und masking sinnvoll sein kann, wo geringere präzision ausreicht, aber nicht für den kern Algorithmus.
Es gibt jetzt schon Forschung zu 1,58 Bit LLMs. Man kann davon ausgehen, dass Rubin dafür dann ne Beschleunigung mitbringt und nicht bei FP4 endet.
Wieweit das allerdings für DLSS einsetzbar ist, kann ich nicht beurteilen.
Aber FP4 würde ich auf jeden Fall erwarten. Mit Rubin Ende 2027 wäre Blackwell dann auch 3 Jahr alt, so dass man langsam komplexere DLSS mit FP4 einsetzen könnte mit weniger Rücksicht auf Lovelace.
https://developer.nvidia.com/blog/nvfp4-trains-with-precision-of-16-bit-and-speed-and-efficiency-of-4-bit/
Und hier sind wir ja sogar beim Einsatz fürs Training, wenn auch nur für Pretraining.
Ja, ich erwarte auch dass Nvidia die relative Tensor Core Performance erhöhen wird. Verdoppelt hört sich mal vernüftig an, vielleicht wird es auch etwas mehr (Rubin CPX legt 8x drauf).
Neben den FLOPS vermute ich auch, dass Tensor Memory (TMEM) in Consumer-GPUs einzug hält. Dadurch sollte die Ausführungsgeschwindigkeit von DNN verbessert werden.
TMEM erwarte ich auch, aber ich denke im Moment nicht, dass wir ne verdopplung der TCs sehen. Verdoppelt/vervielfachte Geschwindigkeit bei 1,58 Bit vs FP4 als neues Format. Aber man hat ja auch nur begrenzten Platz und sehe bei Consumer erstmal eher nur die verstärkte Nutzung von NVFP4 zur Geschwindigkeitserhöhung.
Verdopplung TCs seh ich nur, wenn man die Flops pro SM generell verdoppelt um damit die Skalierungsprobleme die GB202 hat zu bekämpfen. Da wird es generell spannend, wie Nvidia die Mauer angeht gegen die ihre Architektur gelaufen ist.
The_Invisible
2026-01-30, 13:13:32
Wäre FP4 denn wirklich sinnvoll?
Ich kanns nicht bewerten, aber die LLMs meinen, dass FP8 der sweetspot sein dürfte und FP4 dann nur noch für "unterstützende" Prozesse und masking sinnvoll sein kann, wo geringere präzision ausreicht, aber nicht für den kern Algorithmus.
flux2 setzt als imagegenerator auch auf fp4, sollte also kein hindernis sein
https://developer.nvidia.com/blog/scaling-nvfp4-inference-for-flux-2-on-nvidia-blackwell-data-center-gpus/
vBulletin®, Copyright ©2000-2026, Jelsoft Enterprises Ltd.