PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 20. Januar 2026


Leonidas
2026-01-21, 06:59:23
Link zur News:
https://www.3dcenter.org/news/news-des-20-januar-2026

Blase
2026-01-21, 10:46:17
Generell wurde eigentlich schon DLSS4 als leicht besser als FSR4 angesehen

Ja. Und wenn dann DLSS4.5 dafür gelobt wird, dass es in diesem Kontext weitere Verbesserungen gibt, passt die Aussage, dass DLSS4.5 ungefähr vergleichbar mit FSR4 ist, nicht wirklich.

Aber schauen wir einfach, was weitere Testberichte hierzu beisteuern...

MfG Blase

Gast
2026-01-21, 12:20:54
Ich frag mich ja, was aus den Ansaetzen der "analogen AI chips" auch bekannt als CiF (Compute in Flash) geworden ist und warum es scheinbar noch nicht ein Produkt gibt.

Grafikspachtel
2026-01-21, 12:33:56
Egal wie lange und wieviel an DLSS oder FSR rumgefrickelt wird, es ist und bleibt Rotz.
Ein Spiel hat in nativer Auflösung mit halbwegs aktueller Hardware zu laufen.
Aktuell wird halbgarer unperformanter Rotz rausgehauen, frei nach dem Motto: DLSS wird's schon richten.

Ich will weniger UE5 und mehr idTech sehen.

ChaosTM
2026-01-21, 12:39:36
hast du DLSS in letzter Zeit versucht ?
Nativ + DLAA zeiht immer öfter den kürzeren vs. DLSS Q und sogar P

Blase
2026-01-21, 12:52:38
Egal wie lange und wieviel an DLSS oder FSR rumgefrickelt wird, es ist und bleibt Rotz.

Mit der Meinung stehst du zwar nicht alleine, aber doch klar in einer stetig schwindenden Minderheit. In wahrscheinlich ausnahmslos allen aktuellen Titeln ist ein DLSS einer nativen Darstellung in allen Belangen überlegen. Und das gilt bald nicht einmal mehr für DLSS@Q, sondern auch oftmals schon für noch niedrigere Presets. Besseres Bild und gleichzeitig mehr FPS. Besser gehts nicht.

Ich stelle bewusst auf DLSS@Q um in 4K, selbst wenn ich nativ genügend FSP hätte.

Ich sage nicht, dass heute alles Top ist in dem Kontext. Aber das sture Festhalten an alten Themen - weil war schon immer so - scheint mir auch nicht der richtige Ansatz...

MfG Blase

Aroas
2026-01-21, 12:59:00
Egal wie lange und wieviel an DLSS oder FSR rumgefrickelt wird, es ist und bleibt Rotz.

Diese Technologie ist kein Rotz. Dass diverse Spieleentwickler ihre Machwerke mies optimieren und sich lieber auf DLSS/FSR ausruhen, ist eine andere Baustelle.

Angesichts aktuell wieder deutlich ansteigender Graka Preise, können viele Spieler um DLSS/FSR sehr froh sein.
Denn dadurch können sie eben auch mit weniger performanten Karten bessere Ergebnisse erzielen und müssen nicht gleich Unsummen ausgeben.

Gast
2026-01-21, 13:14:27
Der Schlüssel hierfür ist, dass man eben recht einfach zwischen den verschiedenen Speichersorten umschichten, nicht jedoch ein Chipwerk für echte Prozessoren und Grafikchips (wie die Fertigungsanlagen von Intel und TSMC) zur Speicherfertigung verwenden kann.

Selbstverständlich könnte man die "höhenwertigen" Fertigungsanlagen von Intel und TSMC für NAND oder DRAM verwenden.

Nur wären die auch bei den heutigen Preisen nicht profitabel. Die Kosten und natürlich auch der Umsatz per Area an Waferfläche ist bei TSMC/Intel um ein vielfaches über dem von dedizierten DRAM-Fabs.

Gast
2026-01-21, 13:18:31
Laut WCCF Tech scheint jener Bildqualitätsgewinn schließlich im Vergleich zu FSR4 nun nicht drastisch verbessert auszufallen, vielmehr werden dort die Bildqualitäten von DLSS 4.5 und FSR4 als "in the same ballpark" eingeordnet.

Das ist das Problem der Screenshotvergleiche.

In denen sehen die Transformer DLSS-Modelle in der Tat nicht wirklich besser als DLSS3 oder FSR4 aus.

Es ist der Fortschritt der Bildqualität in Bewegung der DLSS4+ von den anderen abhebt und das deutlich.

Gast
2026-01-21, 13:28:31
Ja. Und wenn dann DLSS4.5 dafür gelobt wird, dass es in diesem Kontext weitere Verbesserungen gibt, passt die Aussage, dass DLSS4.5 ungefähr vergleichbar mit FSR4 ist, nicht wirklich.[...]
Mit der Meinung stehst du zwar nicht alleine, aber doch klar in einer stetig schwindenden Minderheit. In wahrscheinlich ausnahmslos allen aktuellen Titeln ist ein DLSS einer nativen Darstellung in allen Belangen überlegen. [...]
Es gab doch etliche Beispiele, die in den Previews genannt wurden. Sei es nun Wasser, welches mit DLSS4 klar schlechter als mit FSR4 oder native aussah. Oder Schatten in etlichen UE5 Titeln, welche mit DLSS4 zum großen Krabbel wurden. DLSS4 hatte etliche Bugs, die mit DLSS4.5 gefixed wurden. Und die hatte FSR4 nicht (dafür vermutlich Andere), native auch nicht. Insofern ist DLSS eben mit nichten "in wahrscheinlich ausnamslos allen aktuellen Titeln" besser als native, weil KI eben auch Fehler machen kann und halluzinieren kann. Und dann ist das Bild halt Mist.
Dass man meist viel Bildqualität für relativ wenig Aufwand bekommt, trifft durchaus zu, aber halt nicht immer, weil es hier einfach noch Fehlinterpretationen und andere Fehler gibt. Insofern kann ich durchaus nachvollziehen, dass einige diese Techniken ablehnen, auch wenn ich persönlich damit kein Problem habe.

Leonidas
2026-01-21, 14:01:27
Selbstverständlich könnte man die "höhenwertigen" Fertigungsanlagen von Intel und TSMC für NAND oder DRAM verwenden.

Nur wären die auch bei den heutigen Preisen nicht profitabel. Die Kosten und natürlich auch der Umsatz per Area an Waferfläche ist bei TSMC/Intel um ein vielfaches über dem von dedizierten DRAM-Fabs.

In der Tat. Dies ist die längere, bessere Erklärung für diesen Fall.

mironicus
2026-01-21, 14:24:23
Das Problem für den N1X und Co ist vor allem das Windows nicht für Unified Memory-Systeme geschrieben worden ist und es einen fest zugewiesenen VRAM-Bereich verlangt, der dann auch brach liegen kann, wenn man ihn mal nicht braucht. Linux hat das Problem nicht, genau so wenig wie Mac OS.

Gast
2026-01-21, 14:54:56
Das Problem für den N1X und Co ist vor allem das Windows nicht für Unified Memory-Systeme geschrieben worden ist und es einen fest zugewiesenen VRAM-Bereich verlangt, der dann auch brach liegen kann, wenn man ihn mal nicht braucht.


Das Problem ist nicht Windows, das Problem ist höchstens die Software die auf Windows läuft.

Wobei Intel sich da einen recht netten "Trick" hat einfallen lassen. Da wird beim Start tatsächlich nur im Bereich 256-512MB für die GPU reserviert, die Software bekommt aber mitgeteilt dass sie den maximalen Anteil am Unified Memory als VRAM zur Verfügung hat.

Das funktioniert wesentlich besser als bei AMD, wo die Software nur den fixen GPU-Anteil als VRAM mitgeteilt bekommt, und der fixe Anteil ist eben "verloren" wenn er gerade nicht benötigt wird.

crnkoj
2026-01-21, 21:02:34
Das Problem für den N1X und Co ist vor allem das Windows nicht für Unified Memory-Systeme geschrieben worden ist und es einen fest zugewiesenen VRAM-Bereich verlangt, der dann auch brach liegen kann, wenn man ihn mal nicht braucht. Linux hat das Problem nicht, genau so wenig wie Mac OS.

Interessant. Das habe ich nicht gewusst.
Aber was ist dann los, wenn man Z. B. Ein Laptop mit igpu hat und im BIOS der RAM ausgewiesen wird - oder auch steam deck oder rog ally. Da muss man doch im BIOS den zur gpu ausgewiesenen Speichers auswählen, - was ist dann unter Linux, wird es dort ignoriert oder ist Linux dann auch gebunden, wie Windows?

Platos
2026-01-21, 21:08:18
Die einzigen, grossen Probleme, die DLSS m.M.n noch hat, ist, dass man nicht DLSS nutzen kann und gleichzeitig RT auf Nativ lassen kann. Z.B sieht DLSS Quality mit Model K oder M fast so aus, wie nativ oder sogar manchmal besser, wenn es um Raster geht. Aber bei allem, wo dann RT im Spiel ist, sieht man einen sichtbaren Quakitätsverlust, der das Gesammtergebnis trübt. Beim Raster-Zeug muss man oft mit der Lupe suchen, beim RT-Zeugs hingegen fällts relativ schnell auf (z.B bei Wasser bzw. Reflexionen).

Hier muss m.M.n noch eine Baustelle geschlossen werden, dann würde ich dlss im Normalfall immer nativ vorziehen.

crnkoj
2026-01-22, 07:47:06
Das Problem ist nicht Windows, das Problem ist höchstens die Software die auf Windows läuft.

Wobei Intel sich da einen recht netten "Trick" hat einfallen lassen. Da wird beim Start tatsächlich nur im Bereich 256-512MB für die GPU reserviert, die Software bekommt aber mitgeteilt dass sie den maximalen Anteil am Unified Memory als VRAM zur Verfügung hat.

Das funktioniert wesentlich besser als bei AMD, wo die Software nur den fixen GPU-Anteil als VRAM mitgeteilt bekommt, und der fixe Anteil ist eben "verloren" wenn er gerade nicht benötigt wird.
Heisst das bei Intel igpu kann man die Einstellung im BIOS immer auf 33mb oder 64mb belassen?

Gast
2026-01-22, 10:26:39
Interessant. Das habe ich nicht gewusst.
Aber was ist dann los, wenn man Z. B. Ein Laptop mit igpu hat und im BIOS der RAM ausgewiesen wird - oder auch steam deck oder rog ally. Da muss man doch im BIOS den zur gpu ausgewiesenen Speichers auswählen, - was ist dann unter Linux, wird es dort ignoriert oder ist Linux dann auch gebunden, wie Windows?

Ist es nicht, mit dem Betriebssystem hat das gar nichts zu tun das läuft unter Linux nicht besser oder schlechter.

Die Software sieht immer 2 Speicherpools einmal für VRAM einmal für RAM, und die Software "kopiert" das was die GPU benötigt vom RAM in den VRAM. Bei iGPUs wird dabei nichts physisch kopiert sondern nur Adressbereiche entsprechend zugewiesen.

Grundsätzlich wäre das auch relativ egal, schon mit AGP und erst recht mit PCIe kann die GPU auf den Hauptspeicher direkt zugreifen, du kannst also mehr in den VRAM laden als physisch VRAM vorhanden ist. Bei Grafikkarten hat man damit natürlich einen enormen Performancenachteil, weil der Hauptspeicher über PCIe viel langsamer als der lokale VRAM ist. Bei IGPs ist es komplett egal ob die Daten nun im "dediziertem VRAM" (jener Teil der fix der GPU zugeordnet ist) oder "ausgelagert" im Hauptspeicher sind. Physisch ist beides an selber Stelle und wird über den selben Speichercontroller angesprochen.

Problematisch ist da nur jene Software die explizit versucht unter dem Verbrauch des verfügbaren VRAMs zu bleiben. Die glaubt nur der Teil welcher der GPU zugeordnet wurde ist VRAM, und wenn der dann zu klein ist kannst du quasi in einem Endlosloop enden in dem die Software ständig versucht zwischen RAM und VRAM hin- und herzukopieren.

Lehdro
2026-01-22, 14:14:33
Und so kommen dann am Ende auch deren Preise unter Druck, obwohl bei NAND-Speicher eigentlich keine große Bedarfsausweitung stattgefunden hat.
Diese Aussage würde ich als fragwürdig einstufen.
HDDs werden knapp -> Bestellung schwappen über auf NAND -> NAND wird mehr nachgefragt. News dafür hatten wir seit Oktober/November 2025.
Siehe auch Crucial, die haben nicht nur den DRAM Teil des Geschäfts aufgegeben, sondern vor allem den NAND Teil, der DEUTLICH größer war. Können jetzt halt alles direkt an die KI Bros verklappen.

Leonidas
2026-01-22, 14:42:31
Deswegen das "keine *große*". Es hat eine Bedarfsausweitung stattgefunden, aber eben nicht jene wie die von OpenAI bei HBM/DDR.

Eddyk
2026-01-22, 16:24:10
Hier einige Beispiele mit DLSS 4.5 vs. Nativ.

https://www.youtube.com/watch?v=Uy4x1ESak78

Lehdro
2026-01-22, 16:31:19
Deswegen das "keine *große*". Es hat eine Bedarfsausweitung stattgefunden, aber eben nicht jene wie die von OpenAI bei HBM/DDR.
Ich behaupte einfach mal dass es trotzdem eine *große* Ausweitung ist. Jeder Server der DRAM verschlingt, braucht auch HDDs/SSDs. Und wir reden hier von einer massiv großen & geplanten Ausbauwelle...

Gast
2026-01-22, 18:32:21
Ich behaupte einfach mal dass es trotzdem eine *große* Ausweitung ist. Jeder Server der DRAM verschlingt, braucht auch HDDs/SSDs. Und wir reden hier von einer massiv großen & geplanten Ausbauwelle...

So ist es die riesigen AI Trainingsmodelle wollen auch irgendwo gespeichert werden und das auf SSDs. Der relative Sprung an DRAM-Bedarf mag höher sein, zu vernachlässigen ist aber auch der NAND-Bedarf nicht.