Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 19. März 2026


Leonidas
2026-03-20, 08:35:14
Link zur News:
https://www.3dcenter.org/news/news-des-19-maerz-2026

Lehdro
2026-03-20, 14:59:31
Das DLSS 5 Drama wird mit jedem Tag verrückter. Jetzt hat sich NV zum zweiten Mal innerhalb einer Woche massiv korrigiert - jedes mal musste etwas zugegeben werden, was vorher nur vermutet wurde. Das sieht rein technisch gar nicht gut aus und erklärt auch die ganzen Bildfehler und Fehlinformationen im eigentlichen Output. Marketingtechnisch ein Desaster was selbst die Radeon Division nicht besser hinbekommen würde.

Hochzeit2
2026-03-20, 15:26:23
WOW. Nvidia hat innerhalb einer Woche zig-fach dreist gelogen und die Bückstückmedien wie CB haben min. eine zweistellige Anzahl an Accounts gesperrt, für Aussagen die Nvidia jetzt mit dem 3ten Statment als wahr deklariert.

Ja damit konnte ja keiner rechnen...

FrozenPie
2026-03-20, 16:33:46
Also ist DLSS 5 am Ende effektiv nur ein Instagram-Filter für das fertig gerenderte 2D-Bild und die Ausgabe ist dann ein Gen AI Bild auf Basis des Ausgangsbilds, ohne auch nur im Ansatz die 3D-Strukturen, Texturen + Shader, Lichtquellen, Tiefeninformationen, usw. in die Generierung mit einzubeziehen... Einfach unglaublich...
Ganz dreist: "The underlying geometry is unchanged.". Ja natürlich, weil der Algorithmus gar keinen Zugriff auf die hat und nur auf 2D-Daten arbeitet. Die 2D-Darstellung der Geometrie wird allerdings sehr wohl verändert.

Dovregubben
2026-03-20, 17:06:41
WOW. Nvidia hat innerhalb einer Woche zig-fach dreist gelogen und die Bückstückmedien wie CB haben min. eine zweistellige Anzahl an Accounts gesperrt, für Aussagen die Nvidia jetzt mit dem 3ten Statment als wahr deklariert.

Ja damit konnte ja keiner rechnen...
CB sperrt wegen Netiquette, nicht weil jemand argumentativ Aussagen trifft.
Bei "Bückstückmedien" im Vokabular versteh ich sowas dann auch.

Gastein
2026-03-20, 18:53:16
CB sperrt wegen Netiquette, nicht weil jemand argumentativ Aussagen trifft.
Bei "Bückstückmedien" im Vokabular versteh ich sowas dann auch.

Wobei man bei dem was Nvidia da versucht abzuziehen je nach Perspektive auch mal das Vokabular deutlich verrutschen kann, ist auch schon Freitagabend.

Platos
2026-03-20, 20:02:45
Wie macht das DLSS (also Upscaling) nochmals? Ist es dort nicht gleich mit Frame + Motion Vectors + DLSS Model zum upscalen?

Oder nutzt man da mehrere Frames ?

Gast
2026-03-20, 20:58:33
DLSS5 only takes the rendered frame and motion vectors as inputs.
Also schlussendlich auch nichts anderes als ein Instagram/Snapchat-Filter. So ein Filter kriegt auch jeden einzelnen Frame, und kann sich via Optical Flow aus mehreren aufeinanderfolgenden Frames die Bewegungsvektoren berechnen. Klingt nicht nach einer durchschlagenden Argumentation von Nvidia, wie das anders als ein Filter sein soll.

Hochzeit2
2026-03-21, 00:12:13
CB sperrt wegen Netiquette,


Genau! Und Zitronenfalter falten Zitronen.

Achso und zum Thema:

Wer hat doch gleich gelogen und offensichtliche Lügen promoted?

:biggrin:

https://www.youtube.com/watch?v=D0EM1vKt36s

Gast
2026-03-21, 00:31:52
Oder nutzt man da mehrere Frames ?

Alles was Motion-Vectors benutzt, benutzt auch mehrere Frames, ansonsten wären die Motion Vectors sinnlos.

CCCP
2026-03-21, 07:48:23
Es wird nicht so heiß gegessen wie gekocht. Das DL$$$ kocht schon über. Wenn man es generell betrachtet für die Leistung die es braucht und was es abwirft ist es unbrauchbar. Ich habe die Screenshots angeschaut, Ghosting und Texturmatch im hintergrund, Schatten im Gesicht. Mit Tonemapping war der unterschied nicht so groß das man es vermissen würde bzw gegen den Texturmatch und Ghosting tauschen würde. Wenn es im hintergrund dann noch flimmern würde weil AI alle Paar Frames da sich was neues ausdenkt. Dann ist es für mich für die Tonne.

Platos
2026-03-21, 09:21:06
Alles was Motion-Vectors benutzt, benutzt auch mehrere Frames, ansonsten wären die Motion Vectors sinnlos.

So meinte ich das nicht. Ich meinte natürlich mehrere Frames an Bildinhalten (also nicht bezogen auf die Motion Vectors)

MasterElwood
2026-03-21, 15:02:28
"Auch erscheinen die derzeit vorliegenden Eingriffsmöglichkeiten der Spieleentwickler als zu gering angesetzt, wirklich schlagkräftig ist faktisch nur die Funktion, ganze Bildbereiche von der DLSS5-Aufhübschung auszuschließen."

Wirklich? DAS holst du heraus aus "Developers will have detailed controls such as intensity and color grading. Artists can use these controls to adjust blending, contrast, saturation, and gamma, and determine where and how enhancements are applied to maintain the game's unique aesthetic. Developers can also mask specific objects or areas to be excluded from enhancement."

:freak:

Leonidas
2026-03-21, 16:51:30
.... intensity and color grading. adjust blending, contrast, saturation, and gamma.

-> sind doch alles nur typische Bildfilter. Ich hatte vorher geschrieben, was man wahrscheinlich wirklich braucht: Zugriff aufs 3D-Modell der Figur und Beschreibungen der Szenen-Intention (welche Stimmung die Figuren/Objekte zeigen sollen). Das ist deutlich mehr als ein paar Photoshop-Filter.

FarCry
2026-03-22, 06:41:07
CB sperrt wegen Netiquette, nicht weil jemand argumentativ Aussagen trifft.
Bei "Bückstückmedien" im Vokabular versteh ich sowas dann auch.

Wieder einer, der Haltung, Vokabular und Moral in den Vordergrund rückt, Leute erziehen will, inhaltlich aber nichts zu sagen hat. Der linksgrüne Zeitgeist eben, hm? 🤮

"Bückstückmedien" ist harmlos und trifft es in diesem Fall wunderbar auf den Punkt.

Solange nichts eindeutig Strafbares gesagt wird, sollte man Leuten nicht den Mund verbieten.

Platos
2026-03-22, 14:25:46
Ich bin ja auch für Meinungsfreiheit, auch wenn's "Arschloch" oder ähnliches beinhaltet (was heutzutage ja schon als Anzeige genutzt werden könnte, glaube ich...leider).

Aber andererseits kann man ja auch einfach konstruktive Kritik äussern. Was in einem Text im Vordergrund steht, hängt nämlich primär vom Schreiber ab. Die Auslegung vom Leser gibts dann auch noch, das stimmt. Und wenn der "Inhalt" von vielem anderen überschattet wird, dann muss man vlt. daran arbeiten, den Inhalt besser in den Vordergrund zu rücken und das drum herum sein zu lassen.

Bin aber dort nicht unterwegs, kann das also nicht beurteilen, aber generell gesprochen so als Denkansatz ist es trotzdem dienlich.

Und am Schluss: Auch wenn ich dafür bin, dass man rechtlich gesehen ein "loses Mundwerk" (und ähnliches) nicht verbieten sollte, heisst das noch lange nicht, dass es gewünscht, gut oder sonst irgendwie einer Diskussion dienlich ist. Aber ich weiss, heutzutage tendieren die Leute immer mehr dazu, dass alles verboten werden soll, was nicht Idealzustand ist (aus derer Sicht) und umgekehrt aber auch, alles Idealzustand ist, was nicht verboten ist (ausser dort natürlich, wo es noch nicht verboten ist, weil die Person der Meinung ist, dass es besser so sein sollte).

Manchmal habe ich auch das Gefühl, dass die Verbotskultur und Privatpolizei in gewissen Kulturen sehr gut vertreten ist :D

Gast
2026-03-23, 11:10:03
So meinte ich das nicht. Ich meinte natürlich mehrere Frames an Bildinhalten (also nicht bezogen auf die Motion Vectors)

Natürlich mehrere Frames an Bildinhalten, ein Motion-Vector ist nichts anderes als ein Pointer auf einen Pixel im vorherigen Frame. Die Motion-Vectors alleine bringen überhaupt nichts, die Tatsache dass Motion-Vectors benutzt werden impliziert dass mindestens 2 Frames an Bildinhalten benutzt werden.
Wobei es auch ein History-Buffer über mehrere Frames sein könnte.

Was man auf jeden Fall mit dem Wissen, dass Motion-Vectors notwendige Input-Daten sind ausschließen kann ist, dass nur ein einzelner Frame fürs Endergebnis herangezogen wird.

Gast
2026-03-23, 11:17:30
.... intensity and color grading. adjust blending, contrast, saturation, and gamma.


Das waren alles nur Beispiele, nirgends steht dass die Liste vollständig ist.



Zugriff aufs 3D-Modell der Figur und Beschreibungen der Szenen-Intention (welche Stimmung die Figuren/Objekte zeigen sollen). Das ist deutlich mehr als ein paar Photoshop-Filter.

Nicht wirklich, was es braucht ist Zugriff auf den G-Buffer. Der wird eh schon für Ray-Regeneration verwendet.
Damit hat man alle 3D-Informationen innerhalb des Screenspace mit der Ausnahme von Transparenzen.

Normalerweise werden auch Materialinformationen in den G-Buffer encodiert. Die werden allerdings in einem Custom-Shader der jeweiligen Engine zerlegt. Höchstwahrscheinlich kann DLSS5 diese (noch) nicht nutzen, da es kein standardisiertes Format für die G-Buffer gibt.

Aber DLSS5 ist auch nur ein erster Schritt, mit dem man mal die Entwickler an Board holt, für weitere Verwendung der G-Buffer Daten braucht es eine tiefere Engine-Integration.

Aber das wird sicher alles noch kommen.