PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Welches Interesse besteht an nVidias DLSS?


Leonidas
2020-04-05, 09:23:18
Link zur Umfrage:
https://www.3dcenter.org/umfrage/welches-interesse-besteht-nvidias-dlss


Link zum Umfrage-Ergebnis:
https://www.3dcenter.org/news/umfrage-auswertung-welches-interesse-besteht-nvidias-dlss

Neosix
2020-04-05, 10:15:40
Kann mich nicht entscheiden. Wenn die Performance damit für RT reicht, dann das. Wenn nicht, dann kann man immer halt andere Schalter höher stellen ect. Plus in Controll hat der Einsatz von DLSS 2.0 sogar ein Qualitätsgewinn bei den Details und ein ruhigeres Bild oben drauf. Habs selbst nicht live erlebt, aber wenn es quasi nur Vorteile hat. Warum nicht nutzen.

JVC
2020-04-05, 10:21:34
DLSS = Interesse gleich Null.

DLSS 2.0
"Bin interessiert - primär zugunsten von höheren Auflösungen."

Qualität Verbesserer, die auch noch die Leistung erhöhen, sind immer willkommen :)

Bin aber noch etwas skeptisch.
Das muss sich erst noch besser/breiter beweisen bevor es zum Wunsch-Feature wird.
Im Moment schau ich interessiert zu was das wird ;)

M.f.G. JVC

P.s.: Was Alles läuft den jetzt über die Tensor-Cores ? DLSS und .... ?
Denkt ihr die Tensor-Cores werden zum bleibendem Standard ?

WedgeAntilles
2020-04-05, 10:23:08
Ich habe mich noch nicht näher damit beschäftigt.
Generell bin ich aber natürlich an Features interessiert, die z.B. mehr Performance bringen. Ob da jetzt die Optik minimal anders ist, ist mir egal, merke ich sowieso nicht.

Ich behalte meine Rechner ca. 5 Jahre. Die ersten 2 Jahre oder so kann ich alles auf Max spielen, und dann geht es runter.
Meine aktuelle GTX 970 ist für aktuelle Spiele zu langsam (obwohl nur Full HD bei mir). Allerdings spiele ich seit 2 Jahren oder so eh keine AAA Titel mehr, daher hat es mich bisher nicht gestört. Neuer Rechner kommt mit Verfügbarkeit der neuen Ryzen- und GraKa Generation.

Am Anfang des Lebenszyklus meiner neuen GraKa wird das Feature zunächst eher unwichtig sein.
Je älter mein neuer Rechner aber wird, desto mehr wird mich das Feature interessieren.

Ben Carter
2020-04-05, 10:34:31
Wenn mit "Bin interessiert - primär zugunsten von höheren Auflösungen." gemeint ist, dass mit der Displayauflösung gerendert, mittels DLSS hochgerechnet und anschließend wieder auf Displayauflösung herunterskaliert wird, dann interessiert mich das. Quasi wie ein AI-Anti Aliasing. Alles andere kann mir gestohlen bleiben.

Ich habe (noch) nicht abgestimmt, weil mir noch nicht klar ist, ob das so gemeint ist.

JVC
2020-04-05, 10:38:59
@Ben Carter
Davon ging ich aus.
Ich will ja einen Vorteil in der Optik haben !
(also das gewonnene in BQ investieren)
"Simples Up-scaling" interessiert mich nicht die Bohne.

Edit:
"Keine Chance für Features, welche die Bildqualität beeinträchtigen."
Trifft bei mir auch auf jeden Fall auch zu !
BQ muss mindestens gleich wenn nicht besser sein.

M.f.G. JVC

Dorn
2020-04-05, 10:39:17
Kein Interesse - Kann ich ja gleich das Spiel von Anbieter XYZ streamen.

Leonidas
2020-04-05, 11:54:01
Wenn mit "Bin interessiert - primär zugunsten von höheren Auflösungen." gemeint ist, dass mit der Displayauflösung gerendert, mittels DLSS hochgerechnet und anschließend wieder auf Displayauflösung herunterskaliert wird, dann interessiert mich das. Quasi wie ein AI-Anti Aliasing. Alles andere kann mir gestohlen bleiben.


Jein. Man kann mit demn Performance-Boost von DLSS höhere Auflösungen erreichen. Wenn beispielsweise die Performance vorher nur für FullHD reicht - mit DLSS nun aber für WQHD.

ChaosTM
2020-04-05, 12:18:55
Die erste Iteration war nicht so toll, aber mittlerweile ist das richtig gut geworden. Ein ähnliche Technik wird jetzt auch für die Hochskalierung von alten Serien verwendet.

Knuddelbearli
2020-04-05, 12:22:15
Weder och, interessiere mich dafür wegen verminderten Aufrüstdruck, falls sich das wirklich bewahrheitet das man mit Qualitiy Stufe besseres Bild hat UND schneller ist

Rente
2020-04-05, 12:29:46
Kein Interesse - Kann ich ja gleich das Spiel von Anbieter XYZ streamen.Das ist nicht... wie DLSS2.0 funktioniert. Schau dir besser noch mal Erläuterungen (von Nvidia und z.B. DigitalFoundry) dazu an.

Zur Umfrage: Sind die letzten 3 Punkte nicht quasi jeweils die gleiche Antwort? Höhere Performance gibt mehr Spielraum für höhere Auflösungen oder Raytracing/mehr Raytracing (und natürlich auch andere Features).
Ich verstehe nicht so ganz warum die Punkte gesplittet wurden...

derF
2020-04-05, 13:44:28
Die wenigen Screenshots von DLSS 2.0, die ich mir angeschaut habe, fand ich nicht so überzeugend, da es schon zu einigen Änderungen im Bild geführt hat, die eher negativ waren.
Die Performance-Gains allerdings sind sehr interessant. Ich würde das Feature je nach Zielperformance und Spiel durchaus einsetzen. Aber nVidia kaufe ich dennoch nicht.

von Richthofen
2020-04-05, 14:05:05
...
Zur Umfrage: Sind die letzten 3 Punkte nicht quasi jeweils die gleiche Antwort? Höhere Performance gibt mehr Spielraum für höhere Auflösungen oder Raytracing/mehr Raytracing (und natürlich auch andere Features).
Ich verstehe nicht so ganz warum die Punkte gesplittet wurden...


Sehe das auch so. Höhere Performance.....zugunsten von A bzw. zu Gunsten von B, usw.

Lehdro
2020-04-05, 14:41:35
Komplizierte Antwort:

- Interessant wenn die derzeit beste Umsetzung von DLSS 2.0 für Bildqualitätssteigerungen ausreicht - völlig egal ob das durch die Nutzung höherer Auflösungen, mehr Details oder gar RTX geschieht

- Wichtig wenn es deutliche Performancesteigerungen bei verschmerzbaren Einbußen der Bildqualität erreicht werden

- völlig uninteressant wenn der Tradeoff deutlichst zuungunsten der Bildqualität ausschlägt (siehe die meisten DLSS 1.0 Implementationen)

JVC
2020-04-05, 14:50:59
Naja, man sieht in der jetzigen Umfrage das es,
~52% eher egal ist und sich ~48% dafür interessieren.

Aber stimmt schon.
Falsch abstimmen werden viele, denn interessiert daran dürften wohl die Meisten sein,
für wie viele es kaufentscheidend wäre kann man aber schlecht/nicht herauslesen.

M.f.G. JVC

Gast
2020-04-05, 16:32:09
Hm also ich finde da keine der Antwortmöglichkeiten so wirklich passend.
Bin grundsätzlich sehr interessiert, habe aber keine Präferenz zu den gegebenen Antwortmöglichkeiten.

Und der Punkt den ich eventuell noch leicht vorne sehen würde ist gar nicht dabei.

"Bin sehr interessiert wegen der höheren Bildqualität"

Es ist wirklich kaum zu glauben, aber es ist tatsächlich der Fall, DLSS zeigt trotz geringerer berechneter Auflösung mehr Details, dabei ein ruhigeres/geglätteteres Bild und weniger Probleme als die native Auflösung mit heute eingesetzten üblichen AA-Techniken.

Dabei muss man gar nicht erst die Auflösung zusätzlich erhöhen oder zusätzliche Effekte aktivieren die durch die gewonnene Performance möglich werden, es reicht ganz einfach aus bei sonst identischen Einstellungen (falls das möglich ist) und Auflösung DLSS statt dem TAA/MLAA/FXAA oder was das Spiel auch immer verwendet zu aktivieren.

Man bekommt damit mehr Bildqualität und einen deutlichen Performanceboost, das ist eigentlich das geniale.

Dass man dann den Performanceboost für Raytracing, oder höhere Auflösungen oder ganz einfach die Erhöhung anderer Details investieren kann ist dann eher ein Goodie oben drauf.

Ich glaube das hat es in der Entwicklung der Echtzeit-3D-Grafik noch niemals gegeben, dass ein neues Feature gleichzeitig die Bildqualität und die Performance erhöht.

Es ist wirklich kaum zu glauben, wenn man das nicht live gesehen hat, vor allem wenn man weiß wie weit die tatsächlich berechnete Auflösung in der Realität verringert wird, was jetzt mit DLSS 2.0 und den fixen Faktoren ja auch für jeden nachvollziehbar ist.

Um es kurz zu machen, DLSS wäre schon genial, wenn es einfach nur die Bildqualität liefern würde, die es liefert ganz ohne Performancegewinn.
Dass es dabei auch noch massiv die Performance steigern kann ist natürlich ein nicht zu verachtender Pluspunkt, den man dann zur weiteren Steigerung der Bildqualität verwenden kann.

Blutmaul
2020-04-05, 18:37:57
Ich finde da schon erstaunlich viel Beschönigung bei DLSS - erstmal wird schon gar keine Qualität erhöht, oder hochgerechnet!

Sondern ein Bild, das in einer niedrigen Auflösung gerendert wurde, wird mittel KI Berechnungen pixelungetreu auf eine höhere Auflösung aufgeblasen, die je nach Treffsicherheit der KI-Annahmen für diese Berechnung, mal mehr, oder mal weniger vom dem original Bild, das pixelgetreu in der hohen Auflösung gerendert würde, abweicht.

Also entsteht im Endeffekt immer ein Qualitätsverlust!!!

Das ganze ist doch bloß ein "PR-Scheme" um Benchmarks zu gewinnen und Leute PR-Mässig zu verarschen!

Es gäbe eine gerechtfertigte Anwendung für DLSS - die wird aber nicht beworden - sondern der Benchmarkeffekt von "ganz superduper wunderzauber viel mehr FPS"!

Rente
2020-04-05, 18:50:31
Du hast offensichtlich auch die verfügbaren Videos und Analysen (nicht nur von Nvidia) zu DLSS 2.0 nicht gesehen und beziehst dich noch auf alte Versionen...
Es gibt in Control und auch in Mechwarrior immer wieder Stellen in denen mit DLSS, trotz niedrigerer Grundauflösung, mehr Details im Vergleich zur nativen Auflösung zu sehen sind (z.B. Poren in der Haut, mehr ununterbrochene Haarsträhnen, Zäune, etc.).

Bei Interesse: https://www.eurogamer.net/articles/digitalfoundry-2020-control-dlss-2-dot-zero-analysis

YWIKzRhYZm4

P.S.: Und das ganze "PR-Scheme" zu nennen, also bitte, schadet dir DLSS als Verbraucher in irgendeiner Form?

Platos
2020-04-05, 20:23:12
Also ich habe mal Interesse wegen besserer Grafik genommen. Ich habe da vor allem DSR und DLSS im Kopf.

Ich hätte natürlich auch gerade so gut Interesse und Perfomance nehmen können, weil DSR kann ich ja auch so fahren, aber natürlich brauchts viel Perfomance.

Elite_Warrior
2020-04-05, 20:56:53
Gibts irgendwo auch ein Vergleich zwischen DLSS 2.0 und dem (Radeon/Nvidias) Sharpening? Bei der ersten Version war der Scharfzeichner teilweise besser.

Gast
2020-04-05, 21:41:36
Sondern ein Bild, das in einer niedrigen Auflösung gerendert wurde, wird mittel KI Berechnungen pixelungetreu auf eine höhere Auflösung aufgeblasen, die je nach Treffsicherheit der KI-Annahmen für diese Berechnung, mal mehr, oder mal weniger vom dem original Bild, das pixelgetreu in der hohen Auflösung gerendert würde, abweicht.


In dem entstehenden Bild sind allerdings mehr Details als in einem nativ gerenderten.

Gast
2020-04-05, 21:43:44
Gibts irgendwo auch ein Vergleich zwischen DLSS 2.0 und dem (Radeon/Nvidias) Sharpening? Bei der ersten Version war der Scharfzeichner teilweise besser.

Das ist nicht wirklich vergleichbar.
DLSS erzeugt tatsächlich glaubwürdig mehr Details die in der höheren Auflösung vorhanden wären.

Jedes Sharpening erhöht immer nur den lokalen Kontrast bereits vorhandener Details.

Leonidas
2020-04-06, 03:29:07
Sind die letzten 3 Punkte nicht quasi jeweils die gleiche Antwort?


Ja. Es geht nur darum, aus welcher Absicht heraus man das macht.





"Bin sehr interessiert wegen der höheren Bildqualität"


Wurde augenscheinlich vergessen. Ich hab diese Differenz für nicht so hoch erachtet, möglicherweise mein Fehler. Lohnt sich das noch, das nachzutragen?

Neosix
2020-04-06, 05:47:30
Obs nachträglich noch lohnt, ka aber das wäre für mich am ehesten die passende option. Weil Qualität verschlimmern nur um an anderer Stelle Leistung für Grafikoptionen gewinnen macht für mich irgend wie, wenig Sinn. Aber wenn diese Schwachstelle ausgemerzt ist, dann ist das eine Valide Lösung wo man dann nachträglich sich angucken kann, ob noch FPS für RT frei ist ect.

FlashBFE
2020-04-06, 07:50:25
Was passiert eigentlich mit pixelgroßen Details, die in der niedrigeren internen Auflösung verschwinden würden? DLSS kann vielleicht glaubhaft neue Pixel dazuschätzen, aber doch nur auf Basis bekannter Muster. Das dürfte alle Spiele mit hoher Sichtweite betreffen. Bei Control gibt's die ja prinzipiell nicht, bei Mechwarrior schon, aber da habe ich noch keinen Test gesehen, was passiert, wenn man gegnerische Mechs aus maximaler Entfernung beobachtet. Der neue Flight Simulator wäre ein perfekter Testkandidat mit seinen 200km Sichtweite.

Aber es gibt allgemein noch zu wenige Spiele, die DLSS 2.0 implementieren, um sich eine vollumfängliche Meinung bilden zu können.

pixeljetstream
2020-04-06, 08:03:37
Was passiert eigentlich mit pixelgroßen Details, die in der niedrigeren internen Auflösung verschwinden würden?

GTC Talk mit mehr Details
https://developer.nvidia.com/gtc/2020/video/s22698

Es ist ein temporaler Ansatz, durch das Jittern über mehrere Frames erwischt man schon recht viel Information.

Es gibt auch Diskussion hier https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12270779#post12270779

Legendenkiller
2020-04-06, 08:18:37
...

Qualität Verbesserer, die auch noch die Leistung erhöhen, sind immer willkommen :)

...

ist keine Qualität Verbesserer... Ist das Gegenteil.
Wenn ist es ein FPS-Verbesserer...

Es wird in reduzierter Qualität gerendert und dann mit KI-Snakeoil wieder auf ganz ok aufgepäppt.

Also sowenn ich eine JPG stärker kompremiere und dann ein schärfe-Filter trüber laufen lasse.

AnnoDADDY
2020-04-06, 08:33:33
offensichtlich haben hier viele noch nicht DLSS 2.0 gesehen sonst würden diese ganzen Aussagen von nur SchärfeFilter nicht getroffen werden da eindeutig mehr Details als in der nativen Auflösung dargestellt werden und das meistens mit wesentlich mehr Bildruhe in der Bewegung

MasterElwood
2020-04-06, 08:41:13
ist keine Qualität Verbesserer... Ist das Gegenteil.
Wenn ist es ein FPS-Verbesserer...

Es wird in reduzierter Qualität gerendert und dann mit KI-Snakeoil wieder auf ganz ok aufgepäppt.


Nope. Das ist das was DU im Kopf hast dazu. :wink:

JEDE AA Methode, JEDER Schärfe Filter ect. machen genau das gleiche: sie verändern das original gerechnete Bild so das es am Monitor/für uns "besser" aussieht. Und ÄNDERN es dadurch.

Nix anderes machen MSAA, FXAA, SMAA, und TXAA. Und DLSS macht es auch. Und mit WESENTLICH besserem Ergebnis bei wesentlich besseren Performance.

Aber nur weil die Methode "geringe interne Renderauflösung" beinhaltet, zählt das reine Ergebnis nicht, weil die Methode selbst ist ja dadurch automatisch giftig. Aber MSAA & CO sind ok - weil DA ist das Bild ja ORIGINAL :facepalm:

MasterElwood
2020-04-06, 08:53:47
"Keine Chance für Features, welche die Bildqualität beeinträchtigen."

Die Auswahl gehört eigentlich gar nicht zum Thema.


DSSL ist besser als das Originalbild mit Kantenflimmern

DSSL ist besser als die fast alle klassischen AA Varianten

Und selbst wenn in einem Game eine klassische AA Methode ein kleines bisschen besser wäre, wäre das Bild mit DSSL insgesamt TROTZDEM deutlich besser, da der Performance Unterschied zum klassischen AA so groß ist, das man dafür einen Haufen Qualitäts Regler höher stellen kann.

Bei "gleicher" Performance wird DSSL also IMMER besser aussehen. Die "Keine Chance für Features, welche die Bildqualität beeinträchtigen." Auswahl ist also unpassend.

Disclaimer: Geltend für DSSL ab Version 2.0

Leonidas
2020-04-06, 09:01:22
Update der Umfrage:

Neue Antwortoption "Bin interessiert - primär zugunsten einer besseren Grafikqualität."

Gast Ritis
2020-04-06, 10:27:34
Im Prinzip finde ich Rendern per Fake OK. Das ist beim Rasterizing ohnehin das Grundprinzip. Der Ansatz gibt sehr gute Ergebnisse gemessen an dem Leistungsbedarf.

Das massive Problem von DLSS ist die Nvidia only Vorarbeit um die KI zu trainieren.

Also kommt das nur Titeln zugute von Nvidias gnaden. Die haben damit auch durchgriff bis auf die GPU-Generationen, mit denen die das in künftigen Versionen noch rückwirkend unterstützen wollen. Da ist jetzt schon klar dass die Katerstimmung die gleiche wie beim überbordenden Tesselation ala GameWorx sein wird. Im Ende vielleicht wieder nur genutzt um der Konkurrenz zu schaden oder Kunden zum Neukauf zu bewegen.

Das geht komplett in die falsche Richtung. Statt offener Standards proprietärer Mist um die Branche zu knebeln soblad es sich etabliert hat.

Die Entwickler müssen die Kontrolle behalten - und zwar durchgängig - und nicht die Hardwarehersteller. Solange AI-Upscaling kein allgemeiner Standard ist der Anbieterunabhängig unterstützt und weiterentwickelt werden kann soll das bitte in den Entwicklungslabors vergammeln.

Leonidas
2020-04-06, 11:20:52
Kann ich zustimmen. Eigentlich eine Sackgasse in der derzeitigen Ausführung.

N0Thing
2020-04-06, 11:27:49
Ich finde DLSS ziemlich interessant und bin gespannt, wie es sich weiter entwickelt. Solange es aber auf eine handvoll Titel beschränkt ist (und teilweise erst Monate später angeboten wird), bleibt es für mich persönlich bei einer Kaufentscheidung nur ein Mitnahme-Feature, mehr nicht.

Rente
2020-04-06, 11:53:56
Im Prinzip finde ich Rendern per Fake OK. Das ist beim Rasterizing ohnehin das Grundprinzip. Der Ansatz gibt sehr gute Ergebnisse gemessen an dem Leistungsbedarf.

Das massive Problem von DLSS ist die Nvidia only Vorarbeit um die KI zu trainieren.

Also kommt das nur Titeln zugute von Nvidias gnaden. Die haben damit auch durchgriff bis auf die GPU-Generationen, mit denen die das in künftigen Versionen noch rückwirkend unterstützen wollen. Da ist jetzt schon klar dass die Katerstimmung die gleiche wie beim überbordenden Tesselation ala GameWorx sein wird. Im Ende vielleicht wieder nur genutzt um der Konkurrenz zu schaden oder Kunden zum Neukauf zu bewegen.

Das geht komplett in die falsche Richtung. Statt offener Standards proprietärer Mist um die Branche zu knebeln soblad es sich etabliert hat.

Die Entwickler müssen die Kontrolle behalten - und zwar durchgängig - und nicht die Hardwarehersteller. Solange AI-Upscaling kein allgemeiner Standard ist der Anbieterunabhängig unterstützt und weiterentwickelt werden kann soll das bitte in den Entwicklungslabors vergammeln.
Es gibt unter Windows und auf der XBOX mit DirectML einen (für andere Hersteller offenen) Standard, bis jetzt liefert aber AMD da aber absolut nichts (nebenbei erwähnt: genauso wie bei DXR, aber das ändert sich wohl immerhin endlich mit RDNA2).
Nvidia nimmt, nach meinem Kenntnisstand, den Entwicklern auch viel Arbeit und Zeit ab die sie wiederum in andere Sachen stecken können. Ich persönliche empfinde das, bei der Komplexität heutiger AA- und AAA-Spiele, eher als positiv.

Wie es aktuell mit Vulkan im Bezug auf Machine Learning aussieht weiß ich nicht, aber Nvidia hat auch dafür ML-Erweiterungen (s. https://devblogs.nvidia.com/machine-learning-acceleration-vulkan-cooperative-matrices/).

downforze
2020-04-06, 12:13:18
Also ist DLSS ein Interpolationsverfahren. Im Rendering wie in Maya funktioniert das ja auch, wenn man Keypoints setzt.

aufkrawall
2020-04-06, 12:14:53
Ich war wegen der Proprietarität (cooelles Wort) auch lange skeptisch, aber ich kann es nachvollziehen, dass Nvidia als Marktführer nicht den Samariter spielen will. Wir wissen ja noch nicht einmal, ob RDNA2 wirklich entsprechende NN-Algorithmen vergleichbar wird beschleunigen können. Und selbst wenn, ob die Software-Implementierungen anderer Parteien mit Nvidias werden mithalten können. Immerhin haben sie fast zwei Jahre nach Turing gebraucht, bis DLSS offenbar etwas taugt.

DLSS erscheint erstmal konkurrenzlos und ich persönlich werde mir auch keine Grafikkarte mehr ohne oder ohne etwas vergleichbares zulegen. Die Chance ist einfach zu groß, dass man ansonsten eine Fehlanschaffung tätigt.

Troyan
2020-04-06, 12:21:31
Jeder kann sein eigenes Netzwerk trainieren und es per DirectML ausliefern. Ob viele Spielefirmen überhaupt das Know-How dazu haben, ist dann eine andere Sache.

Außerdem spielt die Hardware eine immense Rolle. AMD ist hier Jahre hinter dem kompletten Markt. Google hat vor vier Jahren schon TensorCores in Produkte gegossen, nVidia mit Volta vor drei Jahren. AMD ist mit RDNA2 auf dem Stand von 2016 Gaming-Pascal. Selbst mobile SoCs verfügen über dedizierte Einheiten zur Beschleunigung von Inference-Aufgaben.

MiamiNice
2020-04-06, 13:14:52
Ich bin der Meinung das das Feature im falschen Bereich eingesetzt wird. In VR hätte ich es gerne, am Desktop mag ich es wenn meine Pixel nativ berechnet werden.

Gast Ritis
2020-04-06, 14:07:42
Jeder kann sein eigenes Netzwerk trainieren und es per DirectML ausliefern. Ob viele Spielefirmen überhaupt das Know-How dazu haben, ist dann eine andere Sache.

Außerdem spielt die Hardware eine immense Rolle. AMD ist hier Jahre hinter dem kompletten Markt. Google hat vor vier Jahren schon TensorCores in Produkte gegossen, nVidia mit Volta vor drei Jahren. AMD ist mit RDNA2 auf dem Stand von 2016 Gaming-Pascal. Selbst mobile SoCs verfügen über dedizierte Einheiten zur Beschleunigung von Inference-Aufgaben.

Deine Aussage macht überhaupt keinen Sinn. Schon die Vega-Arch mit Int8 und Int16 sowie HBM sind sehr gute Inferencing-Beschleuniger. Mitunter besser als Turing. Nur für das Training benötigt man Tensor-Cores.
Grüsse an D. Nuhr.

Das ganze proprietäre Zeugs hinter den CopyRight und Patentschranken wurde zu Lasten der Branche noch immer an die Wand gefahren. PhysiX ist da das beste Beispiel. Glide ebenso wie EAX und Aureal.

Gast
2020-04-06, 14:13:40
Es ist schon lustig wie viele hier scheinbar weder Deep Learning noch DSLL im speziellen verstanden haben und das mit einem simplen nachschärfen, aka Kontrast gleichsetzen.

Auf der Seite gibt es Vergleichsbilder ohne, mit DLSS und mit DLSS2.
https://www.nvidia.com/en-us/geforce/news/control-nvidia-dlss-2-0-update/

Aktuell spiele ich Metro Exodus (erst am Wochenende gekauft) mit einer 2070 Super in 1440p alles voll aufgedreht mit RTX und habe DLSS an. Die Performance ist super und ich kann keine Einbußen bei der Qualität erkennen. Allerdings bin ich auch nicht der Freak der weint wenn irgendwo mal 1-2 Pixel flimmern. Gesehen habe ich so etwas jedenfalls noch nicht bewußt.

Wenn man natürlich ein Pixel Peeper ist und auf Screenshots danach sucht, dann mag man etwas finden, auch wenn ich die Screenshots allesamt 100% OK finde. In der Praxis, wenn man das Spiel genießt und nicht nach Grafikfehlern sucht, dann fällt mir jedenfalls absolut nichts auf.

Für mich bedeutet das, das ich in der Zukunft gerne immer DLSS2 hätte. :) Ich hoffe ATI wird hier Ende des Jahres nachziehen.

AnnoDADDY
2020-04-06, 14:44:35
Ich bin der Meinung das das Feature im falschen Bereich eingesetzt wird. In VR hätte ich es gerne, am Desktop mag ich es wenn meine Pixel nativ berechnet werden.

Das willst du nicht denn dann hättest du auch keine texturfilterung etc. Das würde scheußlich aussehen

Gast
2020-04-06, 14:55:45
Was passiert eigentlich mit pixelgroßen Details, die in der niedrigeren internen Auflösung verschwinden würden?

Die werden vom DLSS erzeugt. Das ist wirklich kaum zu glauben wenn man es nicht live gesehen hat, vor allem wenn man es mit einem einfach skalierten Bild in der tatsächlichen Renderauflösung vergleicht, und wirkt wirklich fast wie "Magic", aber es funktioniert.

Hier ein Vergleich DLSS mit native Resolution.
https://i.imgur.com/kPtPjdK.jpg

https://i.imgur.com/0Isqe5f.jpg

Und ja das DLSS Bild ist tatsächlich jenes in denen die Seile/Kabel an denen die roten Fähnchen hängen bis ganz hinten als solche erkennbar sind.

Und das native Bild ist jenes, bei dem schon das erste Seil kaum, und ab dem 2. Seil gar keines mehr erkennbar ist.

Und derartiges gibt es bei vielen filigranen Strukturen, wie Geländer, Zäune oder ähnliches, diese sind tatsächlich mit DLSS besser definiert.

Beim hochladen wird das Bild leider vom Hoster hier recht übel komprimiert, in den originalen PNGs ist der Vorteil von DLSS sogar noch größer, weil das JPEG einen Teil der filigranen Details vernichtet die im DLSS Bild eigentlich da sind.

Und das Beste, DLSS erreicht dies mit besserer Glättung/weniger Kantenflimmern in Bewegung, wobei dieser Punkt nicht massiv ist, TAA glättet eigentlich schon sehr gut, aber trotzdem wahrnehmbar ist.

Ich würde sagen DLSS ist mit Abstand die beste aktuell verfügbare und realistisch in Echtzeit einsetzbare Antialiasing-Methode

Ja ich würde sogar soweit gehen zu sagen, DLSS ist besser als 2x2 SSAA, und das ist schon weit entfernt von realistisch einsetzbar.

aufkrawall
2020-04-06, 15:03:48
Seine Aussage ist natürlich völliger Quatsch, denn wer tut sich schon freiwillig den Ameisenhaufen von 1x Sample/Pixel ohne AA an.

Gast
2020-04-06, 15:44:04
Du hast offensichtlich auch die verfügbaren Videos und Analysen (nicht nur von Nvidia) zu DLSS 2.0 nicht gesehen und beziehst dich noch auf alte Versionen...
Es gibt in Control und auch in Mechwarrior immer wieder Stellen in denen mit DLSS, trotz niedrigerer Grundauflösung, mehr Details im Vergleich zur nativen Auflösung zu sehen sind (z.B. Poren in der Haut, mehr ununterbrochene Haarsträhnen, Zäune, etc.).

Bei Interesse: https://www.eurogamer.net/articles/digitalfoundry-2020-control-dlss-2-dot-zero-analysis

https://youtu.be/YWIKzRhYZm4

P.S.: Und das ganze "PR-Scheme" zu nennen, also bitte, schadet dir DLSS als Verbraucher in irgendeiner Form?
Sorry, heute als Gast, meinen Login vergessen:

Und genau deshalb ist für mich DLSS nicht nur einfach irgendein Feature, es ist für mich ein absolutes Killerfeature
Für mich ist die Umfrage unzutreffend, weil es eine Mischung der "Pro" Argumente ist. Ich mag DLSS weil
1) es ermöglicht mir in 4K (eigentlich eine niedrigere Auflösung nativ, aber hochskaliert) höhere FPS, teils sogar BESSERE Qualität, ansonsten hatl ähnliche wie nativ
2) es ermöglicht mir, wenn ich sonst mit den FPS am Limit bin und einzelne Effekte abschalte, alle Effekte einzuschalten und trotzdem höhere FPS zu haben - weil ich wie bei 1) einfach in eine niedrigere Auflösung wechsle
3) das gejammere von wegen Raytracing ist ein sinnloses Feature, da nur FHD möglich hört auf. Ist also ähnlich wie bei 1 und 2, ich kann auch extrem leistungsfressende Features einschalten, in diesem Fall halt RT.
4) bei gleichen FPS (in nativer Auflösung) im Vergleich zu einer AMD GPU hat die Nvidia dann also dank DLSS2 unter Umständen eine wesentlich erhöhte Lebensdauer. Sollte der GPU nativ die Power ausgehen, lasse ich hochskalieren.

Best Case Szenario: jedes halbwegs fordernde Spiel verwendet in Zukunft DLSS 2 (oder neuer) und hoffentlich hat auch AMD bald eine solche Lösung.

Kurzum: Gratis deutlich mehr FPS oder höhere Auflösung oder mehr Effekte -> nehm ich. Wobei "Gratis" natürlich bei Nvidias derzeitiger Preisgestaltung eh nicht gegeben ist. Aber falls das Feature flächendeckend (also bei den neueren Spielen) eingesetzt wird, ist es ein absolutes Traum Feature. Mehr FPS, höhere Auflösungen (selbst 8K scheinen dann in Greifweite). Wenn das Feature noch etwas Feintuning bekommt, dann spricht auch bald wirklich nichts mehr dagegen.

Auch interessant vielleicht: wie sieht es mit den Frametimes aus, wie mit VR?
Es gibt ja auch 8K VR Brillen, oder zumindest werden die kommen.

Dank DLSS alles endlich greifbarer. Außerdem können wir dann flächendeckend 4K@144hz spielen oder gar bald 8K

MasterElwood
2020-04-06, 16:24:41
Alles was Raster ist, ist sowieso fake. Fake Beleuchtung, fake Oberflächen, fake Schatten, fake Reflexionen... und zum Schluß fake geglättete Kanten. Wer da von ECHT oder ORIGINAL spricht, :insertpicardhere:

Troyan
2020-04-06, 16:33:40
Deine Aussage macht überhaupt keinen Sinn. Schon die Vega-Arch mit Int8 und Int16 sowie HBM sind sehr gute Inferencing-Beschleuniger. Mitunter besser als Turing. Nur für das Training benötigt man Tensor-Cores.
Grüsse an D. Nuhr.

Lol, klar. T4 hat 130TOPS mit 70W, MI60 mit 300W liegt bei 60TOPS. ;D

Leonidas
2020-04-06, 17:14:11
Hier ein Vergleich DLSS mit native Resolution.


@ Gast:
Ich habe ausnahmesweise Dein Posting verändert, in dem ich die Bilder in Links umgewandelt habe. Ich weiss nicht, wie man in DE derzeit auf Bilder mit Hakenkreuzen reagiert. Im Spiel selber geht das wohl durch, aber als Abbildung könnte es schon wieder grenzwertig sein.

Zaungast
2020-04-06, 17:54:34
NVIDIA hätte es mal nicht DLSS2 nennen sollen, denn es funktioniert komplett anders und viel besser als DLSS1.

ist keine Qualität Verbesserer... Ist das Gegenteil.
Wenn ist es ein FPS-Verbesserer...

Es wird in reduzierter Qualität gerendert und dann mit KI-Snakeoil wieder auf ganz ok aufgepäppt.
Was passiert eigentlich mit pixelgroßen Details, die in der niedrigeren internen Auflösung verschwinden würden? DLSS kann vielleicht glaubhaft neue Pixel dazuschätzen, aber doch nur auf Basis bekannter Muster.

DLSS2 erfindet keine neuen Pixel auf Grund von gelernten Mustern. Die Grundlage ist "Temporal Supersampling", es wird auf "echte" Pixel von mehreren Frame zurückgegriffen, ähnlich wie bei TAA. Natürlich kann man nicht einfach mehrere Frames übereinander lagern, es braucht eine Heuristik, wie diese Samples zu verwenden sind.

Anstatt nun aber eine vom Programmierer durch Trial und Error gefundene Heuristik zu verwenden, lernt DLSS diese Heuristik. Das eliminiert den Großteil der Probleme dieser Methode. Die Qualität steht nativer Auflösung kaum nach, die Details sind scharf, Artefakte sind kaum erkennbar. Es ist ein riesiger Fortschritt.

Zudem ist die Methode simpel zu implementieren und funktioniert bei allen Titeln ohne zusätzliches langwieriges lernen, wie es bei DLSS1 der Fall war.

FlashBFE
2020-04-06, 23:26:48
Die werden vom DLSS erzeugt. Das ist wirklich kaum zu glauben wenn man es nicht live gesehen hat, vor allem wenn man es mit einem einfach skalierten Bild in der tatsächlichen Renderauflösung vergleicht, und wirkt wirklich fast wie "Magic", aber es funktioniert.

Hier ein Vergleich DLSS mit native Resolution.
https://i.imgur.com/kPtPjdK.jpg

https://i.imgur.com/0Isqe5f.jpg

Und ja das DLSS Bild ist tatsächlich jenes in denen die Seile/Kabel an denen die roten Fähnchen hängen bis ganz hinten als solche erkennbar sind.

Und das native Bild ist jenes, bei dem schon das erste Seil kaum, und ab dem 2. Seil gar keines mehr erkennbar ist.
Danke für den Vergleich, der ist schon ziemlich eindrücklich. Da frage ich mich aber, warum die Seile in der nativen Auflösung so verschwinden. Da läuft doch irgendein AA drüber, was die Details eher vermatscht als glättet. Ein drittes Vergleichsbild ohne AA wäre noch schön, um herauszufinden, wieviele volle Pixel tatsächlich von den Seilen gesampelt werden würden.


DLSS wäre eine tolle Lösung für eine "Pro"-Version der Nintendo Switch. So könnte man die kleine Konsole zur Hälfte ihrer Lebenszeit vielleicht doch noch dazu kriegen, die vorhandenen Spiele in UHD/4K auszugeben.

Razor
2020-04-07, 00:29:51
Offenbar haben hier viele den Unterschied zwischen DLSS (vor-/letztes Jahr) und DLSS 2.0 heute nicht wirklich durchdrungen...
Hab's schon im Treiber-Thread gepostet, hier also noch mal:
0X1RtXCvPFQ

Jein. Man kann mit dem Performance-Boost von DLSS höhere Auflösungen erreichen. Wenn beispielsweise die Performance vorher nur für FullHD reicht - mit DLSS nun aber für WQHD.
Habe nicht abgestimmt, weil das "Bin interessiert, primär..." einfach nicht passt.
- DLSS (1.0) "nice to have" mit trade off - RT frisst in hohen Auflösungen (selbst 1440p) ordentlich Performance...
- DLSS 2.0: Synergie von 1080p redering und ordentlichem Performance-Zuwachs mit RT bei gleichzeitig besser BQ als in nativem 1440p rendering

Ergo: mit DLSS 2.0 kommt alles zusammen!

Hoffen wir mal, dass dies spätestens mit DX12 "ultra" (und damit weiterer Verbreitung von RT) ebenfalls vielfache Anwendung in Games findet!

Razor

Gast
2020-04-07, 03:14:54
Danke für den Vergleich, der ist schon ziemlich eindrücklich. Da frage ich mich aber, warum die Seile in der nativen Auflösung so verschwinden. Da läuft doch irgendein AA drüber, was die Details eher vermatscht als glättet. Ein drittes Vergleichsbild ohne AA wäre noch schön, um herauszufinden, wieviele volle Pixel tatsächlich von den Seilen gesampelt werden würden.

Die werden vom TAA vernichtet, wobei kein AA keine Alternative ist, da ist TAA viel viel besser, ohne AA gibt es überall das übliche Flimmern wie vor 20 Jahren, und gerade bei den feinen Strukturen hast du die üblichen Lücken weil mal das Pixelzentrum das Objekt trifft, dann wieder nicht.

Die verschluckten Details fallen ja nicht großartig auf, wenn man nicht extra darauf achtet, jegliches flimmern zieht das Auge ja magisch an, da ist ein wenig Unschärfe die viel bessere Wahl.

#44
2020-04-07, 08:12:17
Mein Interesse gilt Performance und dem reduzierten Flimmern (also Quali).

Ich hab für Performance gestimmt, da die den Kauf günstigerer GPUs erlaubt und ich P/L Käufer bin.

Jein. Man kann mit demn Performance-Boost von DLSS höhere Auflösungen erreichen. Wenn beispielsweise die Performance vorher nur für FullHD reicht - mit DLSS nun aber für WQHD.
Genau deswegen verstehe ich übrigens auch die Differenzierung von Performance/Auflösung nicht so recht. Die Beiden hängen einfach viel zu direkt zusammen.

pixeljetstream
2020-04-07, 15:09:21
Mein Interesse gilt Performance und dem reduzierten Flimmern (also Quali).

Ich hab für Performance gestimmt, da die den Kauf günstigerer GPUs erlaubt und ich P/L Käufer bin.


Genau deswegen verstehe ich übrigens auch die Differenzierung von Performance/Auflösung nicht so recht. Die Beiden hängen einfach viel zu direkt zusammen.

Ich glaube Leonidas wollte rauskriegen für was die Mehrperformance genutzt werden soll (höhere settings, höhere Auflösung oder geringere Latenz). Aber imo sind das dann irgendwie mehrere polls in einer. Weil wie die Leute settings einstellen (was die Präferenz ist) ist ja unabhängig von DLSS und immer gegeben.

Leonidas
2020-04-08, 04:59:00
So ungefähr. Zur Auswertung der Hauptfrage kann man die letzten 3/4 Antwortoptionen zusammenziehen, keine Frage. Nur ist dann halt eine Nebenfrage versteckt, nach der Intention. Natürlich ergib alles irgendwie mehr Performance - aber was ist der Anlaß, weswegen man sich dafür interessiert? Ergibt am Ende sowohl mir als dem Hersteller vielleicht Einblicke darin, wie die Nutzer ticken.

wa2lugge
2020-04-08, 17:24:11
Ich denke und hoffe DLSS 2.0 wird in vielen kommenden Spielen "verfügbar" sein finde die Technik Absolut Genial.
Immenser Performance Boost für fast gleiche Grafik.
Ich hoffe wirklich Amd bringt mit rdna2 auch was vergleichbares wenn diese Technik in den kommenden Konsolen auch angewendet wird wäre das auch für uns pc Gamer denke ich genial.
Die ohnehin schon nicht "schwachen" neuen Konsolen hätten somit noch mehr "Leistung" zu Verfügung und könnten die Performancesteigerung für Bessere Texturen,Raytracing usw nutzen.
Und wie es ja inzwischen leider ist sind die meistens Spiele nur noch Konsolen Ports die auch mit High end Hadware nur ein bisschen besser aussehen wie auf z.b der aktuellen Xbox one X
Daher sind wir Pc spieler leider auch ein bisschen abhängig von der Konsolen Leistung denke ich.

BigKid
2020-04-08, 19:48:36
Anregung: Mir fehlt die Option - Interessiert zu gunsten höherer Laufzeit oder weniger Krach (Laptops)

Leonidas
2020-04-09, 09:13:48
Interessant. Funktioniert in der Tat - habe ich aber leider nicht bedacht.

Gastei
2020-04-23, 20:02:39
Was mich am meisten stört, ist die geringe Zahl an unterstützten Spielen, deshalb habe ich es als Mitnahmefeature bewertet.

Ich habe keine aktuelle Liste mit den Spielen gefunden oder die Info, welche DLSS-Version genutzt wird. Falls jemand etwas besseres kennt als diese bei nVidia selbst, sollte er damit den Wikipedia-Artikel füttern :)

https://www.nvidia.com/en-us/geforce/news/geforce-rtx-dlss-new-games-september-2018/

Von den Spielen interessiert mich nur Hellblade.

Platos
2020-04-24, 02:17:22
Mit DLSS 2.0 könnte das Interesse auch steigen, dass in sein Spiel zu implementieren (die Entwickler müssen ja schliesslich immer noch etwas dafür tun und selbst wenn nicht, muss man sicher dafür ordentlich blechen).

Müsste ich mich heute entscheiden, würde ich DLSS sicher nur als nice to have sehen. Da ich aber vermutlich erst in der übernächsten Gen eine neue GPU kaufe, also bei den jetzigen Zyklen 2 Jahre nach Ampere, könnte das durchaus ein must to have werden. Ich nehme an, dass AMD da in den nächsten 2-3 Jahren durchaus ein Konterversuch startet.

Wenn nvidia es schafft, sich in ein paar grosse Blockbuster Spieleserien einzuklinken (z.B Assassins Creed), dann wird AMD gezwungen sein, was vergleichbares zu liefern, ansonsten sind sie aufgeschmissen. Hängt aber davon ab, ob DLSS in solchen Spielen den Durchbruch findet.

Eigentlich ist klar, das KI der nächste logische Schritt ist (nicht nur im Bereich Gaming, das ist die nächste Stufe in jedem Bereich der Technik und ist es in vielen schon - in Kinderschuhen) und aus meiner Sicht ist RT ohne solche Techniken einfach noch lange nicht richtig nutzbar. Vergleichbar ist da Rendering nur im Sichtbereich (mit Eyetracking) mit hoher Auflösung.

Das sind einfach nicht nur Features. Das ist der Anfang von einem Durchbruch und mit DLSS 2.0 gehts langsam in eine brauchbare Richtung (Und so wird auch ganz schnell 8k30FPS interessant :) )

Die Tests sagen eig. alles. Selbst auf dem Quality-Mode ist bei Controll z.B noch ein + von 85% erreichbar. Das ist einfach ne riesen Nummer.

Gast
2020-04-24, 16:36:39
Mit DLSS 2.0 könnte das Interesse auch steigen, dass in sein Spiel zu implementieren (die Entwickler müssen ja schliesslich immer noch etwas dafür tun und selbst wenn nicht, muss man sicher dafür ordentlich blechen).

DLSS wird von Nvidia den Entwicklern kostenlos zur Verfügung gestellt, schon von Anfang an mit den notwendigen Kapazitäten für das Training.

Jetzt wo kein spieleindividuelles Training mehr notwendig ist, gibt es eigentlich keinen Grund, warum sich die Verbreitung von DLSS verzögern sollte.

Nvidia stellt da ja eine sehr einfach zu benutzende Blackbox zur Verfügung, und die Anpassungen in der Engine halten sich in Grenzen, speziell für Engines die eh schon TAA verwenden und dynamische Auflösungsskalierung unterstützen.

Über die großen Game-Engines wie Unreal und Unity sollte sich das recht schnell verbreiten.

Leonidas
2020-04-24, 17:54:13
Dann bitte vorwärts, liebe Spiele-Entwickler.

Platos
2020-04-24, 19:25:19
DLSS wird von Nvidia den Entwicklern kostenlos zur Verfügung gestellt, schon von Anfang an mit den notwendigen Kapazitäten für das Training.

Jetzt wo kein spieleindividuelles Training mehr notwendig ist, gibt es eigentlich keinen Grund, warum sich die Verbreitung von DLSS verzögern sollte.

Nvidia stellt da ja eine sehr einfach zu benutzende Blackbox zur Verfügung, und die Anpassungen in der Engine halten sich in Grenzen, speziell für Engines die eh schon TAA verwenden und dynamische Auflösungsskalierung unterstützen.

Über die großen Game-Engines wie Unreal und Unity sollte sich das recht schnell verbreiten.

Wusste ich nicht, dann gibt es mit DLSS 2.0 wirklich keinen wirklichen Grund mehr, das nicht zu implementieren, wenn das wirklich ohne Kosten verbunden ist und der Aufwand sehr gering ist.

Gast
2020-04-25, 01:11:46
Kein Interesse - Kann ich ja gleich das Spiel von Anbieter XYZ streamen.

Es ist schon krass wie viele leute hier stumpf meinen zu wissen wie gut oder schlecht DLSS 2.0 ist ohne es offensichtlich ausprobiert zu haben. :D

Ich würde mir mal einen Test zwischen zwei Gruppen wünschen, oder auch eine Gruppe, der man den Titel mit DLSS 2.0 und ohne im Wechsel vorsetzt und dann fragt wie sie die Qualität wahrgenommen haben.

Selbst mit DLSS bei Metro mußte ich schon danach suchen und kann nicht mal sagen ob es an DLSS lag oder an dem Wasser. Es gab da 1-2 Situationen da habe ich etwas bemerkt, aber nur bei Wasser und das könnt genauso gut jeder andere Grafikfehler gewesen sein.

Wer mein das DLSS die Grafik wie ein Stream in niedriger Bitrate aussehen läßt erzählt schlicht groben Müll und hat es nie getestet.