PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Gast
2020-07-04, 15:19:40
:confused: Woher kommen denn die Details?

Indem sie tatsächlich berechnet werden. Zwar nicht in einem Bild, aber über mehrere Bilder hintereinander. So gesehen handelt es sich tatsächlich um Supersampling, allerdings nicht spatial sondern temporal.

Die zusätzlichen Details werden also großteils tatsächlich berechnet und nicht erfunden.

Was das neuronale Netzwerk macht ist aus den über mehrere Bilder verteilten Details Einzelbilder zu erzeugen die glaubhaft aussehen und dabei möglichst alle Details beinhalten.

Badesalz
2020-07-04, 20:14:01
Die zusätzlichen Details werden also großteils tatsächlich berechnet und nicht erfunden.Interessant. Bisher konnte Software niemals nie etwas erfinden. Sie bräuchte immer eine CPU oder GPU auf der sie etwas berechnete. Wann fand denn diese Revolution statt? Das ist post-KI :eek:

robbitop
2020-07-04, 21:14:04
GTC talk von NV anschauen. Da wird es recht gut erklärt.

Weiterhin: Temporales Upsampling ist nichts neues - funktioniert mit ML aber deutlich zuverlässiger und artefaktärmer als mit regulären Algorithmen.

Akkarin
2020-07-05, 00:28:26
Nur um das richtig zu verstehen: DLSS 1.0 war noch "richtiges" DL/NN/AI (spatial) upscaling, während bei DLSS 2.0 die DL/NN/AI nicht fürs eigentliche "upscaling" verantwortlich ist, sonder für temporales super-sampling ? Was wird dann zum upscaling benutzt, immernoch biliear/nearest-neighbor ?

Raff
2020-07-05, 00:32:46
Das ist immer noch spatiotemporales Upscaling unter Zuhilfenahme eines neuronalen Netzwerks. Neu ist laut den von Nvidia veröffentlichten Informationen (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/DLSS-20-Test-Infos-1346121/), dass man nicht mehr für jedes Spiel Einzel-Trainings durchexerziert, sondern einen generalisierten Ansatz ("Convolutional Autoencoder") verwendet. Wie das im Detail funktioniert und wie man das Hauptproblem früherer Iterationen - die temporale Stabilität - im Detail verbessern konnte, übersteigt meine laienhafte Sicht auf die Welt. ;)

MfG
Raff

BlacKi
2020-07-05, 00:53:16
man muss das erlebt haben um es einschätzen zu können. ich bin mit dem modus performance definitiv zufrieden. performance könnte ich ertragen wenn ich ne 200€ karte hätte. man muss das auch immer im verhältniss sehen.

Raff
2020-07-05, 00:57:49
Ack. Es ist wirklich bemerkenswert, was diese "secret sauce" live auf den Schirm zaubert (wenngleich ich nicht unter Q-DLSS einsteige). Die Kompromisse sind durchaus sichtbar, aber im Verhältnis zum Performance-Gewinn könnte man tatsächlich von einem "Game Changer" sprechen - wenn DLSS 2.0 in ausnahmslos jedem Spiel enthalten wäre.

MfG
Raff

Badesalz
2020-07-05, 07:06:15
Oha...
Wie in einem (eigentlich) GFX-Enthusiasten-Forum die PR-Sklaven das Thema quality-regression voranpeitschen ist recht verwunderlich.

Ja man kann auch mit Q-DLSS die Rückbildungen der Quali sehen. Und zwar ohne die Lupe rauszuholen (was eigentlich aber das Ziel hätte sein sollen).
Dafür bekommt man halt mehr FPS. Wie seit Anbeginn der Zeit also...

Ein Feature für Arme, die in 4k spielen wollen, aber eine FHD Graka haben? Kann man machen... Man stellt leider nur fest, daß was man an Regression an all den Stellen bemerkt, unter FHD und spätestens 2k, besser aussieht.

Im Gegensatz zu Mush-Shading (VRS), was WENN DENN wirklich gut mit Bedacht gewählt, bisschen mehr FPS für quasi nothing-annoying bieten KANN, ist DLSS ohne auffallende Einbüsse bisher anscheinend nicht machbar.
Ob sowas der GameChanger werden kann? Ich hoffe nicht. PCGH & Co. jodeln leider konstant über DLSS.
Man kann es ja wie die Bild halten und heuchlerisch behaupten, man berichtet eben einfach darüber was die Leute bewegt :usweet: Wenn man nicht benagelt ist sieht man aber sofort, daß man darüber berichtet was die Leute bewegen soll.

Hmm... Ok, diese Regression könnte vielleicht in der heutigen Zeit, den nerv dieser Zeit treffen und mit all den anderen Rückbildungen und Degenerationen doch etwas populäres werden. Ich bleibe aber erstmal positiv und hoffe, daß es trotz der PR-Sklaven mit all ihren niederen Beweggründen, DLSS ein Notnagel für wenige wird.
So wie die Unreal5 Techdemo auf einer KonsolenHW läuft, so reicht mir das erstmal. Also, sozusagen, auf einem bisschen gepimpten 3600er und einer RDNA2 irgendwo aus dem oberem Abschnitt der bald folgenden Mittelklasse.

Da nehme ich einfach mal an, wird die 3000er Serie bei NV keineswegs schlechter.
Wovon DLSS uns zukünftig also retten soll das weiß ich nicht. Es ist an sich ein 2000er Feature, wenn mann die FPS näher der 3000er haben will und die Regression dafür in Kauf nimmt. Oder um RT auf einer 2600 zu fahren (?) Würde mal Sinn machen soweit.
Wirklich sinnvoll wäre es aktuell und so langsam für Pascal. Wirtschaftlich gesehen aber wohl nicht ganz genehm...

Hier einen akzeptablen goldenen Weg zu finden ist heute noch und trotz der Jodelarien der Fanboys und der ferngestuerten Fachmänner immernoch keinswegs einfach. Wir hatten schon 1.0, gefolgt von 2.0 und nun ist eigentlich 2.1 (oder 2.0b?) aktuell.
Den Glauben an objektive Forenmeinungen oder gar aufrichtige berufliche Berichtserstattung hab ich spätestens schon bei 1.0 verloren, was bereits bejubelt wurde, als jeder der seine -5dpt Brille finden konnte sehen dürfte was das noch für Katastrophe war.

Troyan
2020-07-05, 09:45:45
Sorry, aber niemand wird den Unterschied zwischen DLSS-Q und 4K+TAA sofort erkennen. Selbst zwischen DLSS-P und 4K sind die Unterschiede so minimal, dass die Leute auf 4K+TAA verzichten.

Es ist des Weiteren auch lächerlich 4K als Ausgangspunkt zu betrachten. Man könnte genauso gut auch 60/120FPS nehmen und schauen, mit welchen Einstellungen die beste Bildqualität erreicht wird. Die Fixierung auf eine feste Auflösung wie 4K ist vollkommen falsch und führt auch dazu, dass andere Bereiche eines Bildes aufgrund fehlender Leistung ignoriert werden müssen.

Badesalz
2020-07-05, 09:59:34
@Troyan
Ja. Geht auch. Wenn die Chips (ab Werk) schon die Taktleiter in nur zig µs rauf und runter fahren, die FPS wie wild hin und her schwanken, warum nicht auch die reale Auflösung dynamisieren?
Ich weiß eh nicht warum noch soviele Eckdaten in den Datenblättern stehen. Beim Monitor würde die Diagonale reichen. Bei GPUs Tflops und bei CPUs Mips.

Bei Netzteilen ein Faktor aus Blindleistung und Scheinleistung.

Selbst zwischen DLSS-P und 4K sind die Unterschiede so minimal, dass die Leute auf 4K+TAA verzichten.Kannst du das irgendwie untermauern oder ist das dein Eindruck anhand z.B. eines Reddit-Threads oder so? Oder was ist das für eine Behauptung, die da nun einfach so im luftleeren Raum vor sich her baumelt?

unl34shed
2020-07-05, 10:02:01
Liegt vielleicht auch daran, dass TAA auch nicht so toll ist, was die Bildqualität angeht :wink:

Kann hier Badesalz nur zustimmen. Die Grafik der letzten Jahre wurde gefühlt immer matschiger und jetzt kommt DLSS und es wird mit "es sieht kaum schlechter aus" (TAA, Blur und sonstige Unschärfen, die wir ertragen müssen) schöngeredet.

DLSS wir genauso wie RT gegen künstlich schlechte Implementierungen verglichen um einen Mehrwert oder nur wenig Verschlechterung zu zeigen.

Badesalz
2020-07-05, 10:16:37
Naja. So verbissen sieht er das ja auch nicht. Er hat z.B. über den Teil mit UE5/PS5, also DLSS-free, ehrlich-ungekonnt drüber hinweg geschaut.
Muss man ihm auch mal hochhalten sowas...

Raff
2020-07-05, 10:31:03
@Badesalz: Das ist mir zu viel generalisierte Kritik aller Medien anstelle nötiger Differenzierung, um da genauer drauf einzugehen. Für den Anfang wäre es gut, wenn du mal ein paar Beispiele für "Lob über DLSS 1.0" heraussuchst, denn ich kann mich nicht erinnern, je etwas Positives darüber geschrieben zu haben.

MfG
Raff

Dampf
2020-07-05, 10:32:18
Liegt vielleicht auch daran, dass TAA auch nicht so toll ist, was die Bildqualität angeht :wink:

Kann hier Badesalz nur zustimmen. Die Grafik der letzten Jahre wurde gefühlt immer matschiger und jetzt kommt DLSS und es wird mit "es sieht kaum schlechter aus" (TAA, Blur und sonstige Unschärfen, die wir ertragen müssen) schöngeredet.

DLSS wir genauso wie RT gegen künstlich schlechte Implementierungen verglichen um einen Mehrwert oder nur wenig Verschlechterung zu zeigen.

Jedes Game nutzt halt TAA und in einigen Spielen ist es fundamentaler Bestandteil, ohne die die Grafik nicht mehr richtig funktioniert.

DLSS ist da schon um einiges genauer und weniger matschig als TAA, unter anderem deswegen sieht DLSS ja deswegen auch schärfer und sauberer aus als native Auflösung.

Ohne TAA mag man doch auch gar nicht spielen. Lieber hab ich etwas Unschärfe als diese hässlichen Treppen. Dank DLSS hab ich aber beides nicht.

unl34shed
2020-07-05, 10:38:37
Es ist ja nicht so, dass es nur TAA, DLSS und kein AA gibt.

Troyan
2020-07-05, 10:51:29
DLSS sieht in Wolfenstein YB Lichtjahre besser aus als 8xTSSAA. Rainbow Six verwendet Upscaling aus 720p mit 8xMSAA, das kann man vergessen. Es gibt bis jetzt keine bessere Technik, die auf dem Stand von DLSS ist.

Hier mal Vergleiche von den beiden von mir genannten Beispielen:
#1 Soviele Frames wie möglich in Control:
Ohne Raytracing: DLSS-Performance gegen 4K
https://s1.imagebanana.com/file/200705/thb/eXAIkTQy.png (https://www.imagebanana.com/s/1808/eXAIkTQy.html)
https://s1.imagebanana.com/file/200705/thb/XG4NOpfY.png (https://www.imagebanana.com/s/1808/XG4NOpfY.html)

#2 Bildqualitätsvergleich in AMID EVIL mit Raytracing
DLSS-Performance gegen 4K
https://s2.imagebanana.com/file/200705/thb/ku0Q6thS.png (https://www.imagebanana.com/s/1808/ku0Q6thS.html)
https://s1.imagebanana.com/file/200705/thb/7Vt3DSxM.png (https://www.imagebanana.com/s/1808/7Vt3DSxM.html)

Badesalz
2020-07-05, 10:52:51
@Badesalz: Das ist mir zu viel generalisierte Kritik aller Medien anstelle nötiger Differenzierung, um da genauer drauf einzugehen. Für den Anfang wäre es gut, wenn du mal ein paar Beispiele für "Lob über DLSS 1.0" heraussuchst, denn ich kann mich nicht erinnern, je etwas Positives darüber geschrieben zu haben.
Raff... du bist zum Glück nicht Medien alleine. Ok beruflich angebunden, aber wohl meist rein privat hier unterwegs (hoff ich mal...). Von daher ist sowas nicht immer ein Schuh was explizit du dir anziehen musst (oder solltest).

Eine Differenzierung an der Stelle zerstreut nur den mittlerweile bitternötigen Fokus. Es gibt bisher kein netzpolitik.org und keinen fefe was PC-Publikationen angeht. So braucht man bisher auch nicht großartig zu differenzeiren, um solche aus der Kritik rauszunhemen.

@unl34shed
Oder kein CAS ;)

Bis denne.

y33H@
2020-07-05, 10:53:29
In vielen aktuellen Spielen ist das tatsächlich der Fall.

Raff
2020-07-05, 10:57:43
Raff... du bist zum Glück nicht Medien alleine. Ok beruflich angebunden, aber wohl meist rein privat hier unterwegs (hoff ich mal...). Von daher ist sowas nicht immer ein Schuh was explizit du dir anziehen musst (oder solltest).

Du schreibst "PCGH & Co." und "jodeln" bzw. "jubeln". Da ist klar, dass ich mich angesprochen fühle, oder? Schreib doch lieber "Die 'AWESOME, AWESOME, JUST BUY IT!'-Youtuber spielen seit Jahren die Jubelperser und so mancher Tester stimmt mit ein", anstatt alle über einen Kamm zu scheren. :)

Grundsätzlich ist auch wichtig, die Texte richtig zu verstehen. DLSS 1.0 wurde belächelt, weil es weder die Marketing-Aussagen noch irgendwelche anderen Wünsche erfüllen konnte. DLSS 2.0 hingegen kann wirklich so etwas wie "Zaubern" (Bildteile trotz geringerer Auflösung mit mehr Details) und das ist aller Ehren wert. Ein geiler Bonus. Es fehlt im Grunde nur das offizielle DLSS 2x für BQ-Fetischisten, das Nvidia seit zwei Jahren in der Schublade hat. Inoffiziell kann man sich das mittlerweile dank DSR hinschnitzen. Mit Ampere kommt das Verfahren vielleicht endlich auf die Bühne.

MfG
Raff

BlacKi
2020-07-05, 11:48:00
TAA ist auch ein rückschritt in sachen bildqualität, trotzdem nutzt es jeder ohne kritik. jetzt kommt nv mit dlss und verbessert das bild ggü. taa + bringt mehr performance mit und schon darf den medienvertreter nichts positives mehr schreiben. merkt ihr eigentlich noch was?

das performance/qualitäts verhältnis hat dlss auf jeden fall gewonnen. das ist auch die richtung in die sich seit jahrzehnten alles verschiebt. das vorgehen ist mit dem P/Q verhältnis gerechtfertigt.

robbitop
2020-07-05, 12:13:35
TAA ist gemessen an MSAA und SGSSAA zu Forward Rendererzeiten ein Rückschritt. Aber auf keinen Fall gemessen an der Performance (inbesondere bei modernen Defered Renderern). Die besonders guten und modernen TAA Implementierungen sind ja auch massiv besser als das was es vor ein paar Jahren noch gab und auch heute gibt es noch miese Implementierungen. Ganz kompromisslos ist es nie - aber für die Performance schon sehr gut.

DLSS 2.0 kann pro Performance auch schon enorm gut sein. Dass es natürlich BQ kostet ist klar. Zaubern kann niemand. Aber es bringt mehr Performance als es BQ kostet.

N0Thing
2020-07-05, 12:19:47
TAA ist auch ein rückschritt in sachen bildqualität, trotzdem nutzt es jeder ohne kritik.

Du vergisst dabei die Entwicklung der letzten Jahre. Die Zeit von SSAA und MSAA ist quasi vorbei und was uns am Anfang dieses Umbruchs mit FXAA als Alternative angeboten wurde (gibt es bedauerlicherweise auch heute noch), war tatsächlich ein Rückschritt in der Bildqualität.
SMAA hat da schon vieles besser gemacht. Es hat quasi nichts gekostet, das Bild, wenn du gut umgesetzt, nur wenig unschärfer werden lassen und Kanten relativ gut geglättet. TAA hat da bei guter Umsetzung nochmal weniger Unschärfe und bessere Kantenglättung gebracht, sodass man inzwischen ab WQHD gerne mal die Lupe herausholen muss, um die verringerte Bildqualität zu finden.
Deshalb wird in der Regel nicht TAA als Ganzes kritisiert oder gelobt, sondern die jeweilige Variante in einem Spiel.
Bei DLSS ist es ähnlich, die erste Variante war ein nettes Gimmick und hat wegen durchwachsener Ergebnisse nicht viel Zuspruch bekommen.
Die aktuelle Variante DLSS 2.0 wird für die Ergebnisse in der Regel gelobt. Der Unterschied in der Bewertung hier im Forum liegt vor allem darin, dass es an einen Hardwarehersteller gebunden ist und die nicht ganz unbegründete Befürchtung im Raum steht, dass man in Zukunft auch in Benchmarks DLSS verwendet, weil es ja quasi keinen Unterschied bei der Bildqualität gibt.

Badesalz
2020-07-05, 14:29:47
Jep. Das hab ich mir schon so gedacht, daß dies nur von irgendwelchen AMD-Fanboys angegangen wird.

Top @N0Thing :uup:

pixeljetstream
2020-07-05, 14:41:57
@Badesalz was sind denn die besseren alternativen die Du willst. robbitop und N0thing geben ja gut die Historie wider, warum sich die Verfahren so weiterentwickelt haben.

Hauwech
2020-07-05, 16:50:03
Naja. So verbissen sieht er das ja auch nicht. Er hat z.B. über den Teil mit UE5/PS5, also DLSS-free, ehrlich-ungekonnt drüber hinweg geschaut.
Muss man ihm auch mal hochhalten sowas...

Auch wenn die UE5 Demo grafisch eindrucksvoll ist, in 1440 mit 30fps und VRS, naja. Dazu die Geschichte das es eine fast 2 Jahre alte 2080 auch stemmen kann, ich weiss ja nicht...

DLSS 2.0 als Option wie alle sonstigen Regler in Spielen ist auf jeden Fall gut. Es hat auch nicht jeder ein HighEnd System zuhause und/oder ist Pixelzähler. Die Zeiten mit jährlich 100% mehr GPU Leistung sind halt vorbei. Den ganzen Strauß an "Sparmaßnahmen" gibt es nicht umsonst. Wer nicht tiefer (2080/S/Ti) oder ganz tief (Titan) in die Tasche greifen will oder kann, für den ist DLSS als mögliche Option prima. Mit DirectStorage dazu könnte da ein ordentlicher Schub vor allem für die umsatzstarken Preissegmente entstehen.

Auch im Hinblick auf den ja nicht gerade kleinen Notebookbereich sehe ich DLSS2.0 als attraktiv an da dort außer Ram und SSD nix großartig mehr an Aufrüstung geht. Wenn es da also "etwas gibt" womit ich das NB länger nutzen/genießen kann - sehr gut.

Letztendlich ist es eh noch recht neu und wird mit Sicherheit weiterentwickelt. Da kann ich mir gut vorstellen das nV da richtig Gas geben wird. Wenn es (hoffentlich) auf jeder neuen und den bestehenden Karten von nV technisch möglich und relativ leicht zu implementieren und/oder zu patchen ist, dann kann sich das durchaus zum GameChanger mausern kann.

Vom Preis-/Leistungsverhältnis ist DLSS 2.0 schon ziemlich gut.

DrFreaK666
2020-07-05, 17:41:29
... Da kann ich mir gut vorstellen das nV da richtig Gas geben wird. Wenn es (hoffentlich) auf jeder neuen und den bestehenden Karten von nV technisch möglich und relativ leicht zu implementieren und/oder zu patchen ist, dann kann sich das durchaus zum GameChanger mausern kann....

Genauso wie die anderen NV-only Sachen zum Gamechanger wurden...
Mir gefällt die Technologie, aber ich hoffe dass es bald was ähnliches gibt, mit dem auch Radeons was anfangen können

Badesalz
2020-07-05, 18:42:52
Auch wenn die UE5 Demo grafisch eindrucksvoll ist, in 1440 mit 30fps und VRS, naja.Ah? Vielen Dank! Mir fehlten immernoch die Infos was für Auflösung das war und wieviel FPS.
Wenn das stimmt dann waren das aber die schnellsten 30fps die ich je gesehen habe :wink:

Dazu die Geschichte das es eine fast 2 Jahre alte 2080 auch stemmen kann, ich weiss ja nicht...Wer hat die wo erzählt?

DrFreaK666
2020-07-05, 19:27:08
FPS haben ja nichts mit Geschwindigkeit zu tun

x-force
2020-07-05, 19:40:33
irgendwie scheint ein großer teil der anwesenden nicht zu realisieren, daß mit dlss eine höhere qualität als nativ möglich ist.

Gast
2020-07-05, 22:41:15
Oha...

Ja man kann auch mit Q-DLSS die Rückbildungen der Quali sehen. Und zwar ohne die Lupe rauszuholen (was eigentlich aber das Ziel hätte sein sollen).
Dafür bekommt man halt mehr FPS. Wie seit Anbeginn der Zeit also...


Ja richtig, man kann die Qualität von DLSS Quali auch ohne Lupe deutlich sehen.

Und was man sieht ist, dass es in allen von mir getesteten Spielen mehr als deutlich viel besser als native Rendering aussieht.

Man bekommt BESSERE Qualität, gepaart mit BESSERER Performance, das ist in der Geschichte der Computerspielegrafik einmalig. Es war immer eine Wahl zwischen Performance und Qualität und je weiter die Grafik fortgeschritten ist desto mehr Performance musste man für immer weniger Mehrqualität opfern. Jetzt haben wir ein Feature das beides bringt, mehr Performance und mehr Qualität und obendrein noch die Option hat für ganz wenig Qualitätsverlust (die meistens aber nicht immer trotzdem noch besser als native ist) sehr viel Performance zu bringen (DLSS-Performance).

Raff
2020-07-05, 23:23:14
Genauso wie die anderen NV-only Sachen zum Gamechanger wurden...
Mir gefällt die Technologie, aber ich hoffe dass es bald was ähnliches gibt, mit dem auch Radeons was anfangen können

AMD versucht bereits seit einiger Zeit etwas in die Richtung: FidelityFX Upscaling. Hier wird intern die Auflösung reduziert und der Verlust mithilfe von Nachschärfung zu kompensieren versucht. Das wirkt bei einem ersten, oberflächlichen Blick ähnlich wie DLSS, ist technisch aber nicht vergleichbar. Es fehlen die Zusatzberechnungen (spatial & temporal), welche man bei DLSS bekommt. Einfach Pixel wegzulassen und Sharpening drüberzujagen ist nicht das Gleiche wie zusätzliche Samples über die Zeit.

Man bekommt BESSERE Qualität, gepaart mit BESSERER Performance, das ist in der Geschichte der Computerspielegrafik einmalig. Es war immer eine Wahl zwischen Performance und Qualität und je weiter die Grafik fortgeschritten ist desto mehr Performance musste man für immer weniger Mehrqualität opfern. Jetzt haben wir ein Feature das beides bringt, mehr Performance und mehr Qualität und obendrein noch die Option hat für ganz wenig Qualitätsverlust (die meistens aber nicht immer trotzdem noch besser als native ist) sehr viel Performance zu bringen (DLSS-Performance).

Übers ganze Bild betrachtet ist die Aussage "bessere Qualität UND bessere Performance" nicht haltbar. Was man immer kriegt, ist eine höhere Bildrate. Die Bildqualität hingegen ist in einigen Disziplinen sichtbar schlechter ("Sägezähne" bei Bewegung), in einigen anderen aber tatsächlich besser als bei nativer Wiedergabe (Detailrekonstruktion).

MfG
Raff

aufkrawall
2020-07-05, 23:31:00
Kann man denn überhaupt noch ernsthaft in Erwägung ziehen, z.B. das missratene TAA in Control nutzen, seitdem es DLSS 2.0 dort gibt?

Raff
2020-07-05, 23:40:36
Ja, mit allem, das nicht Turing ist. :ugly:

MfG
Raff

basix
2020-07-06, 08:14:48
Übers ganze Bild betrachtet ist die Aussage "bessere Qualität UND bessere Performance" nicht haltbar. Was man immer kriegt, ist eine höhere Bildrate. Die Bildqualität hingegen ist in einigen Disziplinen sichtbar schlechter ("Sägezähne" bei Bewegung), in einigen anderen aber tatsächlich besser als bei nativer Wiedergabe (Detailrekonstruktion).

Das Thema Sägezähne und anderer solcher Artefakte wäre doch ein Thema für DLSS 3.0? In Bereichen mit entsprechenden Kanten würde partiell eine höhere Auflösung gefahren. Das geht in Richtung DLSS + Edge AA + Radeon Boost. Bei letzterem aber sozusagen in umgekehrter Richtung wie es AMD macht ;)

Läuft Edge Detection / Edge AA + DLSS über die schnelleren Ampere Tensor Cores, könnte man das fast ohne Leistungseinbussen realisieren (bspw. 1080p DLSS @ 4K faktisch gleich schnell wie 1080p nativ). Die dynamische Auflösung wird etwas an Performance kosten, sollte bei BQ vs. Performance aber dennoch positiv sein. 4K Bildqualität über das gesamte Bild bei quasi 1080p Performance wäre ein Quantensprung. DLSS 2.0 war aber auch schon ein riesen Schritt.

Börk
2020-07-06, 09:23:36
Das Thema Sägezähne und anderer solcher Artefakte wäre doch ein Thema für DLSS 3.0? In Bereichen mit entsprechenden Kanten würde partiell eine höhere Auflösung gefahren. Das geht in Richtung DLSS + Edge AA + Radeon Boost. Bei letzterem aber sozusagen in umgekehrter Richtung wie es AMD macht ;)

Läuft Edge Detection / Edge AA + DLSS über die schnelleren Ampere Tensor Cores, könnte man das fast ohne Leistungseinbussen realisieren (bspw. 1080p DLSS @ 4K faktisch gleich schnell wie 1080p nativ). Die dynamische Auflösung wird etwas an Performance kosten, sollte bei BQ vs. Performance aber dennoch positiv sein. 4K Bildqualität über das gesamte Bild bei quasi 1080p Performance wäre ein Quantensprung. DLSS 2.0 war aber auch schon ein riesen Schritt.
Machine Learning sind in der Regel nicht sonderlich gut darin adaptive Auflösungen zu fahren, da dadurch eine der grundlegende Annahmen von neuronalen Netzen verletzt wird. Generell, wäre alles was in Richtung Kantenerkennung geht ja eine Heuristik die komplett gegenläufig ist zu dem aktuellen Ansatz, dass durch ein Netz erkennen zu lassen.

Zusätzliche Qualität ist dann eher im Bereich Samplingstrategie und Nutzung zusätzlicher G-Buffer information zu erwarten...

DrFreaK666
2020-07-06, 12:43:48
AMD versucht bereits seit einiger Zeit etwas in die Richtung: FidelityFX Upscaling. Hier wird intern die Auflösung reduziert und der Verlust mithilfe von Nachschärfung zu kompensieren versucht. Das wirkt bei einem ersten, oberflächlichen Blick ähnlich wie DLSS, ist technisch aber nicht vergleichbar. Es fehlen die Zusatzberechnungen (spatial & temporal), welche man bei DLSS bekommt. Einfach Pixel wegzulassen und Sharpening drüberzujagen ist nicht das Gleiche wie zusätzliche Samples über die Zeit...

MfG
Raff

Muss man daran überhaupt arbeiten? Ich erkenne schon in dem Text, dass das nicht gut aussehen kann.

Wieso gibt es zu DirectML so gut wie nichts im Netz? Wäre das denn keine Alternative?

pixeljetstream
2020-07-06, 13:15:39
DirectML ist nur eine api, das know how um die Gestaltung des Algorithmus, der Netzwerke und das Training für den konkreten Anwendungsfall muss von jedem selbst kommen. Experten und die Logistik für das Training findet sich halt eher bei Firmen die das zum Fokus haben.

basix
2020-07-06, 13:50:59
Machine Learning sind in der Regel nicht sonderlich gut darin adaptive Auflösungen zu fahren, da dadurch eine der grundlegende Annahmen von neuronalen Netzen verletzt wird. Generell, wäre alles was in Richtung Kantenerkennung geht ja eine Heuristik die komplett gegenläufig ist zu dem aktuellen Ansatz, dass durch ein Netz erkennen zu lassen.

Zusätzliche Qualität ist dann eher im Bereich Samplingstrategie und Nutzung zusätzlicher G-Buffer information zu erwarten...

Woher die Zusatzinformation kommt, ob es eine Kante oder was auch immer ist, spielt im Prinzip nicht so Rolle. Es geht um die Idee, dass man die problematischen Bereiche adaptiv anders anfasst. Höhere Auflösung ist eine Variante. So wie du sagst gibt es sicher auch andere Strategien.

Bezüglich der verschiedenen Auflösungen: Ich würde gerne mehr darüber erfahren, was hier die Knacknüsse sind und wieso das mit einem DNN nicht gut funktionieren sollte. DLSS 2.0 kann in beliebiger Auflösung angewandt werden. Was ist jetzt das Problem, wenn ich von 1080p auf 4K upsample und einige Bildbereiche von 1440p auf 4K? Letzteres ist ja bei einem Gesamtbild problemlos möglich. Die Game-Engine muss unterschiedliche Auflösungen im selben Frame natürlich als Vorbedingung unterstützen, das ist klar. Und das Game wüsste zudem selber, was die eher kritischen Bereiche sind. Einige Bereich werden in 900p gerendert, andere in 1080p oder 1440p. Im Prinzip eine Art VRS, welche man mit DLSS kombiniert.

Das neuronale Netz bekäme also Bild-Tiles mit unterschiedlicher Auflösung zugespielt und muss es zu einem möglichst homogenen Gesamtbild zusammensetzen. So stelle ich mir das vereinfacht vor.

Hauwech
2020-07-06, 15:03:02
Ah? Vielen Dank! Mir fehlten immernoch die Infos was für Auflösung das war und wieviel FPS.
Wenn das stimmt dann waren das aber die schnellsten 30fps die ich je gesehen habe :wink:

Wer hat die wo erzählt?

Es hat zwar nichts mit DLSS zu tun und ist OT aber dennoch:

Die Geschichte samt, mittlerweile zurückgezogenem, Video, stammt von Epic Games China. Denke mal nicht das dort solche Hornis arbeiten die eine Demo nicht von einem Video unterscheiden können.

https://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/UE5-Techdemo-laeuft-bereits-auf-Notebooks-fluessig-1350354/

https://www.dsogaming.com/news/epic-games-claims-that-unreal-engine-5-tech-demo-can-run-with-40fps-on-rtx2080-notebook-at-1440p/

Gast
2020-07-06, 17:13:34
Übers ganze Bild betrachtet ist die Aussage "bessere Qualität UND bessere Performance" nicht haltbar.


Es gibt Bildbereiche in denen DLSS schlechter als nativ aussieht.
Es gibt aber viel mehr Bildbereiche in denen DLSS besser als nativ aussieht und der Qualitätsvorteil ist in jenen Bereichen in denen DLSS besser aussieht auch viel höher als der Qualitätsnachteil in den Bereichen in denen DLSS nicht so gut aussieht.

Übers gesamte Bild gesehen ist DLSS also eindeutig qualitativ besser als natives Rendering, auch wenn es heruntergebrochen auf einzelne Pixel welche gibt die mit DLSS besser aussehen und welche die nativ besser aussehen.

Dampf
2020-07-22, 14:28:25
Ein netter Nebeneffekt von DLSS: VRAM-Allocation wird gespart.
https://images.tweaktown.com/content/9/5/9532_105_death-stranding-benchmarked-how-does-hideo-kojimas-game-run-at-8k_full.png

Gast
2020-07-22, 16:03:43
Ein netter Nebeneffekt von DLSS: VRAM-Allocation wird gespart.

Das hängt davon ab, ob mehr VRAM durch die kleineren Puffer gespart wird oder durch das NN verbraucht wird.


Bei "normaleren" Auflösungen dürfte die Ersparnis jedenfalls wesentlich geringer sein.

Dampf
2020-07-23, 22:40:53
Das hängt davon ab, ob mehr VRAM durch die kleineren Puffer gespart wird oder durch das NN verbraucht wird.


Bei "normaleren" Auflösungen dürfte die Ersparnis jedenfalls wesentlich geringer sein.

Ich habe bereits Tests bei 1440p und 1080p durchgeführt und kam zu ähnlichen Einsparungen.

Geldmann3
2020-07-26, 14:19:19
DLSS 2.0 ist für mich ein Killerfeature, welches mich meinem 8k@120Hz Dream wesentlich näher bringt, da ich damit nur noch in 4k rendern muss. Denn selbst 8k-DLSS@Performance sieht meist schon leicht besser als 8k-Nativ@SMAA aus. Doch ich muss nur noch mit 1/4 der Auflösung rendern.

Allerdings hoffe ich auf ähnlich gute, Hardware-Agnositische Temporale-Upsampling-Lösungen, da ich sowohl bei Big Navi als auch bei Ampere zuschlagen möchte und ich absolut nicht glaube, dass es gut für den Gesamtmarkt wäre, wenn Nvidia keine Konkurrenz in diesem Bereich hätte. Denn für den Gamer ist das praktisch so, als hätte er plötzlich die Performance der übernächsten Grafikkarten-Generation zur Hand. Die Unreal-Engine kann nativ Ähnliches, leider nicht ganz so effektiv wie DLSS. Auch andere Engines haben immerhin Techniken die DLSS 1.0 übertreffen, doch 2.0 hat in meinen Augen einfach nochmal völlig neue Maßstäbe gesetzt.

Slipknot79
2020-07-27, 01:23:49
Wenn DLSS in 720p rendert, warum ist ein Spiel dann nicht im CPU-Limit? :redface:

Gast
2020-07-27, 01:31:45
Kann mehrere Gruende haben. Unter anderem ist nicht alles was auf der GPU laeuft ueberhaupt abhaengig von der Aufloesung. Schatten z.B. oder GPU particles.

Dazu kommt, dass DLSS auch GPU-Zeit braucht. Das ist nicht unerheblich und 720p->1080p DLSS ist signifikant langsamer als natives 720p

BlacKi
2020-07-27, 02:14:06
wer sagt denn das es nicht zu einem cpu limit kommen kann unter dlss 1080p? manche games haben ein cpu limit von 100fps, manche andere erst bei 1000fps.

Gast
2020-07-28, 02:06:07
Wenn DLSS in 720p rendert, warum ist ein Spiel dann nicht im CPU-Limit? :redface:

Kommt darauf an wie hoch dieses beim jeweiligen Spiel ist.

Grundsätzlich hat DLSS fixe kosten pro Frame, je höher die Framerate bereits ist desto weniger kann es gewinnen.

Platos
2020-07-29, 19:27:13
DLSS 2.0 ist für mich ein Killerfeature, welches mich meinem 8k@120Hz Dream wesentlich näher bringt, da ich damit nur noch in 4k rendern muss. Denn selbst 8k-DLSS@Performance sieht meist schon leicht besser als 8k-Nativ@SMAA aus. Doch ich muss nur noch mit 1/4 der Auflösung rendern.

Allerdings hoffe ich auf ähnlich gute, Hardware-Agnositische Temporale-Upsampling-Lösungen, da ich sowohl bei Big Navi als auch bei Ampere zuschlagen möchte und ich absolut nicht glaube, dass es gut für den Gesamtmarkt wäre, wenn Nvidia keine Konkurrenz in diesem Bereich hätte. Denn für den Gamer ist das praktisch so, als hätte er plötzlich die Performance der übernächsten Grafikkarten-Generation zur Hand. Die Unreal-Engine kann nativ Ähnliches, leider nicht ganz so effektiv wie DLSS. Auch andere Engines haben immerhin Techniken die DLSS 1.0 übertreffen, doch 2.0 hat in meinen Augen einfach nochmal völlig neue Maßstäbe gesetzt.

Jetzt brauchst du nur noch einen Monitor/TV, der auch 8k @120Hz kann und eine Schnittstelle (HDMI/Displayport). Oder anders gesagt: Man kann noch sehr lange (viele Jahre) auf sowas warten.

Ausser natütlich per DSR und einem 4K 120/144Hz Monitor. DSR sieht schon gut aus, aber verglichem mit der Nativen Auflösung schon beinahe ein Witz.

Tobalt
2020-07-30, 06:51:59
Ein Panel zu bauen, was mit 120Hz oder gar 240 Hz auf 8k refresht jst kein Problem. Machen ja viele TV auch bei 60 Hz Zuspielung mittels Zwischenbildberechnung.

Der große Knackpunkt ist immer wieder die Datenübertragung. Deshalb ist es so enorm wichtig, dass sich Techniken wie DSC durchsetzen. Chroma-Subsampling und andere nichtadaptive Sparmechanismen sind ja zurecht eher unbeliebt wegen ihren Artefakten in bestimmten Situationen. Adaptive Verfahren vergleichbar mit h265 müssen implementiert werden. Natürlich nicht mit Zielbitrate von 10 Mbps sondern eher von 40 Gbps. Größe ist gar nicht so wichtig, sondern eher die Latenz und Qualität.

Ich weiß dass aktuell viele dagegen sind, aber das hoffen auf auf neuere S
HDMI Standards wird künftig immer länger dauern und die Verbesserungen pro Version werden wohl auch geringer ausfallen.

BlacKi
2020-07-30, 12:49:02
einfach 2x hdmi2.1 kabel nehmen. so, wie man es schon 2015 gemacht hat als man 8k60hz wollte, aber es noch kein 2.1 gab.

das problem ist eher, das man das nicht will, nicht das es nicht gehen würde.

Tobalt
2020-07-30, 13:05:00
richtig. mehrere Kabel will niemand. ;-)

Deshalb verstehe ich nicht warum über Kompression kaum gesprochen wird. Bei Standbildern ist ein guter adaptiver Algo nicht von nativ unterscheidbar, liefert aber über die Zeit hinweg weniger Bilddaten. In Bewegung gehen also Details verloren, wo man sie aber eh am wenigsten wahrnimmt.

DLSS könnte hier helfen, falls man es im TV und nicht auf der Graka implementiert. Allerdings erfüllt es die Anforderungen an das beschriebene Kompressionsverfahren nicht in Gänze

Platos
2020-07-30, 13:29:38
Ist schon klar, das technisch vieles geht. Gemacht wirds aber nicht oder nur selten...

Aber ja, liegt schlussendlich an der Übertragungsrate. Deswegen meine ich ja, wirds noch Jahre gehen, bis es auch funktioniert.

BlacKi
2020-07-30, 15:55:55
hätte ich ein problem damit 2 oder 4 kabel anzuschließen um mit hdmi2.0/2.1 8k 120hz zu betreiben? nein. ich müsste mir entweder kabel adapter kaufen, oder gpus mit den ausgängen. aber ich würds glatt machen wenn der preis halbwegs bezahlbar wäre.

dank dlss könnte man dann die renderauflösung frei nach performance wählen und trotzdem von der 8k120hz auflösung profitieren.

das problem ist nicht dass das niemand will, sondern das es die masse nicht will.

basix
2020-07-30, 20:14:58
Von mir aus könnte man auf HDMI verzichten und direkt Glasfaser verwenden. Die Kabel sind pro Meter viel günstiger und schön dünn und unsichtbar.

BlacKi
2020-07-30, 20:42:06
Von mir aus könnte man auf HDMI verzichten und direkt Glasfaser verwenden. Die Kabel sind pro Meter viel günstiger und schön dünn und unsichtbar.
da würde aber eine ganzer wirtschaftsbereich kaputtgehen, denn man braucht nie wieder ein neues kabel, es sei denn man knickt es:biggrin:

Platos
2020-07-31, 04:13:47
hätte ich ein problem damit 2 oder 4 kabel anzuschließen um mit hdmi2.0/2.1 8k 120hz zu betreiben? nein. ich müsste mir entweder kabel adapter kaufen, oder gpus mit den ausgängen. aber ich würds glatt machen wenn der preis halbwegs bezahlbar wäre.

dank dlss könnte man dann die renderauflösung frei nach performance wählen und trotzdem von der 8k120hz auflösung profitieren.

das problem ist nicht dass das niemand will, sondern das es die masse nicht will.

Hätte ich auch nicht. Wobei mit 4 HDMI Kabel bräuchte es wieder andere Grafikkarten.

Aber würde man im Monitor/TV-Bereich auf LWL setzten, hätte ich wirklich nichts dagegen. Dann wäre auch 8k 120Hz kein Problem mehr. Vermutlich wird es irgendwann kommen (müssen).

Von mir aus könnte man auf HDMI verzichten und direkt Glasfaser verwenden. Die Kabel sind pro Meter viel günstiger und schön dünn und unsichtbar.

Naja, das sind dann aber Kunststoff-LWL. Aber die sind eig. sowieso besser im Homebereich, da fast nicht tot zu kriegen. Glasfaserkabel aus (eben) Quarzglas sind nix für den Homebereich. Das wäre unmöglich/viel zu empfindlich für den normalo-user.

Aber es gibt immerhin HDMI-Kabel mit LWL (und bei den Steckern dann auf Kupfer).

https://www.amazon.de/UGREEN-Glasfaser-unterst%C3%BCtzt-Ethernet-Beamer-Schwarz/dp/B078KB993Z?th=1

basix
2020-07-31, 08:19:48
da würde aber eine ganzer wirtschaftsbereich kaputtgehen, denn man braucht nie wieder ein neues kabel, es sei denn man knickt es:biggrin:

Genau das habe ich mir auch gedacht ;)


Naja, das sind dann aber Kunststoff-LWL. Aber die sind eig. sowieso besser im Homebereich, da fast nicht tot zu kriegen. Glasfaserkabel aus (eben) Quarzglas sind nix für den Homebereich. Das wäre unmöglich/viel zu empfindlich für den normalo-user.

Aber es gibt immerhin HDMI-Kabel mit LWL (und bei den Steckern dann auf Kupfer).

https://www.amazon.de/UGREEN-Glasfaser-unterst%C3%BCtzt-Ethernet-Beamer-Schwarz/dp/B078KB993Z?th=1

Natürlich sollte es Enduser freundlich sein ;) Und danke für den Link, wusste ich nicht. 18 Gbps sind OK, mit LWL sollten aber 100 Gbps locker drin liegen, OM2 sollte für 10-20m oder so reichen. Und vom Preis her ist es wie alle anderen HDMI Kabel wenn man etwas Qualität will: (Zu) teuer.

Platos
2020-07-31, 14:15:58
Ja, ist viel zu teuer. Aber mit HDMI 2.1 (oder gar höher) könnte es langsam für manche notwendig werden. Momentan gehen noch 5m Kabel mit Kupfer. Aber mit HDMI 2.1 geht das vlt. nicht mehr. Anscheinend soll ja die Abschirmung immer besser werden müssen (und deshalb nur noch 3m Kabel gehen...hiess es mal), aber bei LWL müsste das ja eigentlich hinfällig sein, da man die (dafür) nicht abschirmen muss.

gedi
2020-07-31, 19:47:44
Ihr habt Probleme... Im Endeffekt ist es aber so, dass mit DLSS die Texturen gestochen scharf sind, aber niemals (!) an die native Auflösung heranreichen. Es fehlen z.B. manche Schatten komplett und auch die Texturen sind zwar scharf, aber wenig detailliert. Für mich die Verarschung hoch 10. Spielt alle weiter in 576/1080p und lasst euch hinters Licht führen ��. Ach ja, ich hatte lange genug ne 2080Ti unter Wasser, von daher denke ich doch mir ein objektives Bild machen zu dürfen

BlacKi
2020-07-31, 20:00:17
Ihr habt Probleme... Im Endeffekt ist es aber so, dass mit DLSS die Texturen gestochen scharf sind, aber niemals (!) an die native Auflösung heranreichen. Es fehlen z.B. manche Schatten komplett und auch die Texturen sind zwar scharf, aber wenig detailliert. Für mich die Verarschung hoch 10. Spielt alle weiter in 576/1080p und lasst euch hinters Licht führen ��. Ach ja, ich hatte lange genug ne 2080Ti unter Wasser, von daher denke ich doch mir ein objektives Bild machen zu dürfen
komplett am punkt vorbei...

der punkt ist: 4k dlss sieht besser aus als 1080p und 1440p nativ und 8k dlss besser als 1440p 4k nativ.

gedi
2020-07-31, 20:18:20
4K nativ sieht besser aus als 4K mit DLSS.

robbitop
2020-07-31, 20:28:18
Und 8K DLSS @4K mit downsampling noch besser. Der Punkt ist, dass BQ/Perf besser word. Die gewonnene Perf kann man in BQ investieren.

Wer zB gern high fps mit 1440p spielt (>100fps) kann das künftig auch auf 5K mit 1440p Downsampling haben. Bei >100fps mit sehr hoher Bewegtschärfe.
Wer gern 4K spielt kann 8K Downsampling mit DLSS ins Ausge fassen mit GA102. Usw.

x-force
2020-07-31, 20:32:17
ich rieche hier grundsätzliche verständnisprobleme.

dlss 2.0 ist eine bereicherung für qualität bzw performance.
man muss es nur entsprechend einsetzen/konfigurieren.

robbitop
2020-07-31, 20:50:08
So ist es. Es ist eine Option, die Zugang zu deutlich höheren Auflösungen (bei der jeweils angesetzten Framerate) liefert - optional mit Downsampling oder aber lediglich höhere Auflösung. Alternativ eine etwas höhere Lebensdauer mit gewissen Kompromissen in der BQ.

Der Vergleich gegen Checkerboarding von DF war hoch interessant. Die Implementation von Checkerboarding in der Decima Engine war schon verdammt gut. DLSS 2.0 übertrifft das Endergebnis mit deutlich weniger Pixeln als Basis. Und wenn man sich anschaut, wie DLSS 2.0 funktioniert, ist es auch klar, dass das so sein muss.
Der Informationsgehalt, der temporal vorhanden ist, ist schon relativ groß. Man muss ihn nur abschöpfen können. Und genau da treffen fixe Heuristiken eben schnell auf ihre Grenzen, so dass man mehr Artefakte hinnehmen muss. Neuronale Netzwerke sind genau das richtige Mittel. Und wenn man sich anschaut, wo man heute gerade mal angekommen ist und was mit deutlich mehr Inferencing Leistung, besserem Training und mehr Forschung möglich wäre, ist es eigentlich klar, dass da noch große Potenziale vorhanden sind.
DLSS ist wie es heute funktioniert eben auch noch stark kompromissbehaftet.

00-Schneider
2020-07-31, 21:05:19
DLSS ist wie es heute funktioniert eben auch noch stark kompromissbehaftet.


Was meinst du? Große Kompromisse hab ich im DF-Video nicht gesehen.

BlacKi
2020-07-31, 21:20:47
4K nativ sieht besser aus als 4K mit DLSS.
Thats not the point.

robbitop
2020-07-31, 21:28:08
Was meinst du? Große Kompromisse hab ich im DF-Video nicht gesehen.

Ich meine nicht das Resultat sondern das NN. :)

Gipsel
2020-07-31, 21:34:16
Naja, das sind dann aber Kunststoff-LWL. Aber die sind eig. sowieso besser im Homebereich, da fast nicht tot zu kriegen. Glasfaserkabel aus (eben) Quarzglas sind nix für den Homebereich. Das wäre unmöglich/viel zu empfindlich für den normalo-user.Auch Fasern aus "echtem Glas" sind spottbillig, insbesondere, wenn man die Massenproduktion für den Kommunikationsbereich bedenkt (die verwendeten Glassorten haben im Wellenlängenbereich um 1,5µm praktisch kaum Dispersion [gut für schnelle Signale/ hohe Datenrate] und dort auch kaum Absorption, da kann man das Signal über mehrere Kilometer schicken, bevor das merklich abgeschwächt wird). Und wenn Du die nicht gerade um 90° knickst, überleben die auch viel (dünne Glasfasern [wir reden hier von ~100µm inklusive Cladding oder sowas] sind sehr flexibel, die haben akzeptable Biegeradien von 1cm oder gar weniger ;)). Wenn man denen noch eine Plastikumhüllung gibt, sind die praktisch auch kaum totzubekommen (außer man legt es drauf an). Das kann man locker in Kabel verpacken, die dünner als herkömmliche HDMI-Kabel sind und gleichzeitig kaum Abstriche bei der Haltbarkeit haben.

wolik
2020-07-31, 21:39:37
Auch Fasern aus "echtem Glas" sind spottbillig, insbesondere, wenn man die Massenproduktion für den Kommunikationsbereich bedenkt (die verwendeten Glassorten haben im Wellenlängenbereich um 1,5µm praktisch kaum Dispersion [gut für schnelle Signale/ hohe Datenrate] und dort auch kaum Absorption, da kann man das Signal über mehrere Kilometer schicken, bevor das merklich abgeschwächt wird). Und wenn Du die nicht gerade um 90° knickst, überleben die auch viel (dünne Glasfasern [wir reden hier von ~100µm inklusive Cladding oder sowas] sind sehr flexibel, die haben akzeptable Biegeradien von 1cm oder gar weniger ;)). Wenn man denen noch eine Plastikumhüllung gibt, sind die praktisch auch kaum totzubekommen (außer man legt es drauf an). Das kann man locker in Kabel verpacken, die dünner als herkömmliche HDMI-Kabel sind und gleichzeitig kaum Abstriche bei der Haltbarkeit haben.

Bist du dir sicher das du in richtige Thread postest?

Gipsel
2020-07-31, 21:57:26
Bist du dir sicher das du in richtige Thread postest?Ist zugegeben ein wenig abseits des Threadthemas, aber immerhin ist das hier ja das Technologieforum, wo man darauf hoffen kann, daß die Leute angemessen reagieren. ;)

gedi
2020-07-31, 22:09:40
Thats not the point.

Aber natürlich geht es genau darum: Verschiedene Magazine mögen einem Weißmachen, wie toll doch alles ist - und ich sage mitnichten

BlacKi
2020-07-31, 22:15:39
Aber natürlich geht es genau darum: Verschiedene Magazine mögen einem Weißmachen, wie toll doch alles ist - und ich sage mitnichten
wenn du eine 4k karte hast, und einen 4k bildschirm und dir die performance reicht, dann spielst du 4k nativ.

wenn du aber bessere quality/performance ratio willst. dann ist dlss die beste lösung.

stell dir vor ich hab nen 1080p60hzmonitor und ne 2080ti(ich kenne so einen der das wirklich so betrieben hat) dann brauch ich kein dlss.

wenn ich eine 4080ti habe mit 100% besserer performance als eine 2080ti und mir reichen 4k 60fps. dann brauch ich auch kein dlss.

aber auch alles nur unter der vorraussetzung, das spiel hat vernünftiges AA.

da ich aber keinen bock auf +-2000€ grafikkarten habe, nehm ich ne 500-1000€ gpu und füttere damit meinen 4k120hz tv.

gedi
2020-07-31, 22:22:01
Eben nicht, da mir unter 1440p nativ keine Bildinformationen verloren gehen. Und ich möchte betonen, dass ich da CAS seitens AMD keineswegs ausnehmen will. Es ist alles Spielzeug, wo ich mich dann fragen muss, warum nen schnellen PC und keine Konsole?

BlacKi
2020-07-31, 22:27:10
4kdlss sieht besser aus als 1440p nativ.

x-force
2020-07-31, 22:29:01
Eben nicht, da mir unter 1440p nativ keine Bildinformationen verloren gehen.

du hast also 1440p?
du willst bessere qualität als nativ?
dann musst du 1440p als native dlss auflösung via dsr einstellen.
das ist in jeder lebenslage besser als 1440p nativ.

so einfach ist das ;)

gedi
2020-07-31, 22:30:36
4kdlss sieht besser aus als 1440p nativ.
Eben nicht

BlacKi
2020-07-31, 22:31:43
doch:biggrin:

gedi
2020-07-31, 22:32:47
du hast also 1440p?
du willst bessere qualität als nativ?
dann musst du 1440p als native dlss auflösung via dsr einstellen.
das ist in jeder lebenslage besser als 1440p nativ.

so einfach ist das ;)

Nö ich habe 4K auf nem riesigen Monitor, wo selbst ein beinaher Blinder erkennen kann, was stimmt und nicht

gedi
2020-07-31, 22:35:37
@ Blacki

Mach mal bitte einen unkomprimiertem Screenshot eines Games ohne RT und lade es hoch

BlacKi
2020-07-31, 22:40:09
morgen

x-force
2020-07-31, 22:46:26
Nö ich habe 4K auf nem riesigen Monitor, wo selbst ein beinaher Blinder erkennen kann, was stimmt und nicht

dann stellst du via dsr auf 8k und nimmst dlss

prinzip verstanden?

gedi
2020-07-31, 22:50:40
Ich habe schon verstanden was du gemeint hast. Abgesehen davon dass deine 2070s hier an der Kotzgrenze arbeiten muss und trotzdem Bildinformationen fehlen

Geldmann3
2020-07-31, 22:52:41
Nö ich habe 4K auf nem riesigen Monitor, wo selbst ein beinaher Blinder erkennen kann, was stimmt und nicht

Wir müssen natürlich immer differenzieren zwischen DLSS 2.0 und den vorherigen Implementierungen. DLSS 2.0 sieht in 95% der Szenen besser aus als natives Rendering ganz ohne AA, selbst im Performance Mode, welcher unter 4k nur mit internen 1080p pro Frame rendert.

x-force
2020-07-31, 22:54:13
und trotzdem Bildinformationen fehlen

wie sollen infos zu 4k fehlen, wenn von 4k basisauflösung das bild hochskaliert wird?

(zu 8k nativ natürlich, aber das lässt mich jetzt wieder zweifeln, ob du es wirklich verstanden hast. :freak:)

gedi
2020-07-31, 22:57:09
Eben nicht! Das Bild ist schärfer-ja. Trotzdem ist lediglich ein nett gemeinter Kompromiss.

Es fehlen zum Beispiel die Schatten, oder werden nur rudimentär dargestellt. Die Texturen sind zwar Ultra-Scharf, allerdings fehlen Details auch die Beleuchtung betreffend, wo wir wieder bei den Schatten wären ...

BlacKi
2020-07-31, 22:57:28
Ich habe schon verstanden was du gemeint hast. Abgesehen davon dass deine 2070s hier an der Kotzgrenze arbeiten muss und trotzdem Bildinformationen fehlen
die bildinfos werden nur nicht mehr gerendert, die informationen werden andersweitig zur verfügunggestellt.

Geldmann3
2020-07-31, 23:00:11
die bildinfos werden nur nicht mehr gerendert, die informationen werden andersweitig zur verfügunggestellt.

Die Bildinformationen werden sogar noch klassisch gerendert, nur stammen sie nicht aus dem aktuellen Frame.

x-force
2020-07-31, 23:18:38
Es fehlen zum Beispiel die Schatten, oder werden nur rudimentär dargestellt. Die Texturen sind zwar Ultra-Scharf, allerdings fehlen Details auch die Beleuchtung betreffend, wo wir wieder bei den Schatten wären ...

ahja... zeig mir mal bitte anhand der screenshots wo du genau fehlende schatten und details siehst:

https://www.pcgameshardware.de/screenshots/original/2020/03/Mechwarrior-5-1440p-DLSS-OFF_cr-pcgh.png
https://www.pcgameshardware.de/screenshots/original/2020/03/Mechwarrior-5-2880p-DLSS-Quality_cr-pcgh.png

ich erkenne nämlich das gegenteil, detaillierte schatten z.b. schatten des zauns
die brücke über den kabelschacht zwischen den zäunen ist z.b. auf nativer auflösung fast gar nicht zu erkennen
ebenso die geländer auf der erhöhten plattform im rechten zaungelände

Dampf
2020-08-01, 00:06:13
Eben nicht! Das Bild ist schärfer-ja. Trotzdem ist lediglich ein nett gemeinter Kompromiss.

Es fehlen zum Beispiel die Schatten, oder werden nur rudimentär dargestellt. Die Texturen sind zwar Ultra-Scharf, allerdings fehlen Details auch die Beleuchtung betreffend, wo wir wieder bei den Schatten wären ...

Das entspricht so nicht der Wahrheit, wie x-force schon belegt hat.

Im Gegenteil, dank 16K Trainings-Material werden sogar Details addiert. Guck dir doch einfach mal mein Wolfenstein Screenshot im ersten Beitrag des Threads an, dort werden beim Sonnensegel rechts zusätzliche Schatten gerendert.

TheAntitheist
2020-08-01, 00:53:04
4K nativ sieht besser aus als 4K mit DLSS.
tja Death Stranding hat doch sogar das Gegenteil bewiesen. Es wird immer getrickst bei Spielen, das solltest du doch langsam mal verstehen. auch AF ist nicht perfekt, 4k Auflösung reicht auch nicht aus um ein perfektes Bild zu bekommen und shaderflimmern etc.

Dazu noch Rasterizer die eigentlich nur "verarschen" wie du es nennst... DLSS wird immer besser und es bringt dir kostenlos ein besseres Bild bei nahezu gleicher Leistung.

ChaosTM
2020-08-01, 01:20:24
8k 120 ist das Ziel bzw die "letzte" Auflösung

Geldmann3
2020-08-01, 01:43:00
8k 120 ist das Ziel bzw die "letzte" Auflösung

Geht mir genauso, dieses Ziel habe ich mir für meinen TV vor einigen Jahren mal gesetzt, damit möchte ich mich dann zufriedengeben. Doch ich habe auch schon viel mit Supersampling-Screenshots experimentiert und konnte selbst auf 1080p gedownsampled noch den Unterschied zwischen 8k und 16k erkennen. Dann erkennt man nativ auch locker noch einen Unterschied zwischen 8k und 16k@8k.

16k schien mir in meinen Tests damals die ,,ultimative Auflösung" zu sein, doch 8k erreicht bereits 99% dessen Optik und damit wäre ich zufrieden.

In neueren Games würde ich auch DLSS@Performance verwenden, um das 8k Ziel zu erreichen. In älteren Games warte ich hingegen einfach darauf die Brute-Force dafür zu haben und injecte noch SMAA in das 8k Bild.

Doch ich habe festgestellt und das hat meine Welt als Purust etwas ins Wanken gebracht, dass sehr gutes 4k TAA auf 16k-Downsampling Level sein kann und dabei extrem viel besser performt. Genauso wie 1080p DLSS 2.0 viel besser aussehen kann als 4k nativ+SMAA. Mir gefällt an Downsampling einfach, dass es einfach alles glättet, Brute-Force eben, unendliches Downsampling ist die ultimative Methode zur perfekten BQ. Bei TAA und DLSS hingegen kommt es sehr auf die Implementierung an, wie gut es glättet und welche Artefakte generiert werden, doch das Potenzial, wenn richtig eingesetzt ist astronomisch.

Gast
2020-08-01, 01:49:48
DLSS 2.0 ist temporales Upsampling mit Subpixel-Jitter und das neural net wird nur zum history clamping verwendet.

Im Standbild ist temporales Upsampling 100% so gut native Aufloesung oder sogar besser weil mehr Informationen zur Verfuegung stehen durch den Subpixel-Jitter.

Das Problem was DLSS 2.0 beim temporalen Upsampling loest ist das es ohne neural net verdammt schwer war eine Heuristik fuer das History Clamping zu konstruieren die nicht zu sehr clampt und das Bild wieder vermatscht. Ohne Clamping bekommt man in Bewegung andererseits andauernd Ghosting-Artefakte.

Allein von der Theorie ist es also plausibel das DLSS 2.0 wirklich besser aussieht als natives Rendering. Und in der Praxis sieht es fuer mich zumindest auch sehr gut aus. Ich habe in Death Stranding manchmal Artefakte gesehen, z.B. an Lampen-Masten mit hellem Himmel im Hintergrund (typische schlieren in Bewegung weil das History Clamping versagt). Das wird aber auch immer besser werden.

ChaosTM
2020-08-01, 01:52:40
Kommt immer auf die Display Größe an. Für Desktop Monitore bis zu einem Meter wird 8k/120 definitiv genügen ..

Für ganze Wände (2+ Meter) wird man wohl mehr brauchen.

Geldmann3
2020-08-01, 01:57:23
Ich sitze gerade z.b. etwa 50cm vor einem 65 Zoll QLED und zocke so oft auch.^^.

Doch ich habe auch auf einem 27 Zoll 4k Monitor viel mit Downsampling experimentiert und 8k@4k sieht auch dort noch nicht 100% perfekt aus. Habe es damals mit GTA San Andreas und GeDoSaTo probiert. Bei 16k waren feine Strukturen wie die Stromkabel in Los Santos noch glatter und jegliches Flickern, was in 8k noch minimal hervortrat war fort. In 4k hat man sogar noch starkes Flimmern ohne AA.

Gast
2020-08-01, 02:07:31
4K nativ sieht besser aus als 4K mit DLSS.

Aber nicht 4k DLSS 2.0, das sieht um Welten besser aus als nativ in der Quality Einstellung.

-=Popeye=-
2020-08-01, 04:23:53
Wenn Kanten in Bewegung schlieren sieht es nicht besser aus, auf Standbildern ja.

Neosix
2020-08-01, 04:31:17
War in Wolfenstein nicht von berichtet worden, außerdem war die halbe feine Geometrie in Death Stranding ohne DLSS gar nicht zu sehen weil "verschluckt". Mag sein das es aktuell ein "traide off" is wo man auf einer Stelle was gewinnt auf der anderen verliert. Das kann aber mit v3 in Zukunft komplett anders aussehen. Nvidia schraubt ständig an DLSS. Der Sprung von v1 auf 2 war enorm. Ich bin da schon sehr auf weitere Etarationen gespannt. Und selbst aktuell würde ich bei Death Stranding es aktivieren, weil viel besser als alle anderen Kantenglättung Modi.

dildo4u
2020-08-01, 06:25:06
9ggro8CyZK4

gedi
2020-08-01, 08:00:11
ahja... zeig mir mal bitte anhand der screenshots wo du genau fehlende schatten und details siehst:

https://www.pcgameshardware.de/screenshots/original/2020/03/Mechwarrior-5-1440p-DLSS-OFF_cr-pcgh.png
https://www.pcgameshardware.de/screenshots/original/2020/03/Mechwarrior-5-2880p-DLSS-Quality_cr-pcgh.png

ich erkenne nämlich das gegenteil, detaillierte schatten z.b. schatten des zauns
die brücke über den kabelschacht zwischen den zäunen ist z.b. auf nativer auflösung fast gar nicht zu erkennen
ebenso die geländer auf der erhöhten plattform im rechten zaungelände

Ich habe keine RTX mehr. Wenn ich ehrlich sein soll, dann bin ich mir auch nicht mehr ganz sicher, ob es DLSS 1 oder 2 war. Deine Screenshots sehen mit besser aus - zugegeben :)

robbitop
2020-08-01, 08:21:13
Der Unterschied zwischen 1.0 und 2.0 ist buchstäblich Tag und Nacht. :)

Tobalt
2020-08-01, 08:34:50
8k 120 ist das Ziel bzw die "letzte" Auflösung

Das würde ich so nicht unterschreiben.
BlurBusters habe mal einen interessanten Artikel verfasst. Sie plädieren dafür dass Strobing langfristig nicht mehr verwendet wird da es eben auch Artefakte erzeugt. Der natürlichste Weg zu hoher Bewegtschärfe sind sehr hohe fps. Sie nannten 1000 Hz als Hausnummer.

8k kann für übliche Bildschirmgrößen langfristig entweder ausreichend sein, aber für andere Zwecke zu klein/groß.

Ich würde wohl spätestens ab 300 dpi/m Betrachtungsabstand keinen Unterschied mehr wahrnehmen

Dies ohne Techniken wie DLSS zuerreichen ist sowohl illusorisch als auch sinnlos.
Sinnlos ist es weil wir halt mit unserem "minderwertigem" Auge-Hirn-Apparat zwar sowohl sehr schnelle Veränderungen als auch sehr filigrane Details wahrnehmen können aber nicht gleichzeitig. Also ist es sinnlos alle Details bei der maximalen Framerate anzubieten. Videokompressionsverfahren nutzen dies schon lange aus

robbitop
2020-08-01, 10:49:12
Ich kann mir auch vorstellen mit NN gutes und latenzarme fps Upsampling zu betreiben. Mehr Bewegtschärfe ist schon was Feines.

Dampf
2020-08-01, 11:24:03
Wenn Kanten in Bewegung schlieren sieht es nicht besser aus, auf Standbildern ja.
Selbst bei der temporalen Stabilität ist DLSS besser. Mit TAA flackern die geglätteten Kanten, bei DLSS ist alles stabil.

BlacKi
2020-08-01, 11:53:09
hier gibts auch 2 kostenlose unreal engine demos für dlss und raytracing, falls jemand keine lust hat für ein dlss spiel geld auszugeben.
das erste ist die demo die hier zu sehen ist.
g1p7qROx6xo
https://onedrive.live.com/?authkey=%21AAllYavtY9nR44g&cid=D702FD2A6252D169&id=D702FD2A6252D169%21149667&parId=root&action=locate

und hier die infiltrator demo mit raytracing und dlss.
https://onedrive.live.com/?cid=d702fd2a6252d169&id=D702FD2A6252D169%21152442&authkey=!AMSDVH-q6LQ_qbk

man merkt das die demo nicht für raytracing gemacht ist, denn mit raytracing on kommt es gegen ende zu massivem ruckeln.

schade das kein freiflug wie in der ersten demo möglich ist.

Raff
2020-08-01, 12:01:53
Cool. Haben die Demos denn DLSS 2.0?

MfG
Raff

Troyan
2020-08-01, 12:02:49
Ja, gibt keine UE4.x mit DLSS 1.x. Der Branch von nVidia hat 2.0.

Raff
2020-08-01, 12:06:43
Ich frage, weil die 2018 gezeigte Infiltrator-Demo, die dann auch als Standalone ins Internet gelangte, definitiv DLSS 1.x nutzt.

MfG
Raff

Troyan
2020-08-01, 12:19:51
Ja, aber an die Demo wirst du nicht herankommen...

Ansonsten danke dafür. Wenn man Raytracing in der DefaultEngine.ini unter NGXTest deaktiviert, läuft das hier mit über 100FPS bei 4K als Zielauflösung und sieht immer noch fantastisch aus.

Gibt zwar noch die typischen Probleme (kein Bloom und Probleme mit Blur), aber das ist erheblich schneller bei ähnlicher bis besserer Bildqualität im Vergleich zum TAA-Upsampling auf 100%.

BlacKi
2020-08-01, 13:09:00
Ich frage, weil die 2018 gezeigte Infiltrator-Demo, die dann auch als Standalone ins Internet gelangte, definitiv DLSS 1.x nutzt.

MfG
Raff

das ist ein frischer build mit der etwa 4 wochen alten unreal engine.

der performance gain spricht ebenfalls für 2.0, der war bei 1.0 nicht so immens.

Tobalt
2020-08-01, 13:49:54
Ich kann mir auch vorstellen mit NN gutes und latenzarme fps Upsampling zu betreiben. Mehr Bewegtschärfe ist schon was Feines.

Definitiv! Mit latenzarmer Zwischenbildberechnung könnten auch Gamer was anfangen.

ABER:

Zwischenbildberechnung generell ist ein ineffizientes Verfahren. Weil: Die Aufgliederung der Anzeige in Frames ist ineffizient. Der Weg, den TAA und DLSS gehen, kratzt an der Vorherrschaft der Frames.

Das Endziel sieht IMO so aus: Das Rendern und die Anzeige müssen völlig entkoppelt und asynchronisiert werden.

Beispiel 1:
Deine Renderlösung schafft 25 MP/s. Du kannst jetzt bspw. 3 frames in 4K Rendern und hast dann 3 fps. Oder du renderst 12 frames in FHD und hast dann 12 fps. Oder du renderst in VGA und hast dann 81 fps..

Beispiel 2:
Du renderst 3 fps in 4k und erzeugst mittels Zwischenbildberechnung 81 fps. Allerdings wird dies sehr hakelig aussehen, weil die ZBB lange zeitliche Durststrecken ohne neue Informationen auskommen muss.

Beispiel 3:
*oder* du renderst mit 1 Pixel pro Frame und hast dann 25 Mfps. Wenn man nun die Position des Pixels jedesmal varriert, deckt man eine beliebig hohe räumliche Auflösung ab (wenn man lange genug wartet) und die framerate bleibt beliebig hoch. Spatiale und Temporale Auflösung werden also völlig austauschbar. Steht die Kamera still kriegt man volle Details, fährt die Kamera schnell, kriegt man volle Bewegtschärfe und framerate (bei reduzierten Details)

Da aktuelle Anzeigegeräte aber Frames brauchen, ist letzterer Weg derzeit unpraktisch. Entweder man rendert nun in vollen frames was aber eine sehr ungünstige Abtastung des x-y-t Parameterraums darstellt. Oder man samplet den x-y-t Parameterraum effizienter (s. Bsp. 3) und muss aus den zufallsverteilten x-y-t Renderpunkten ein x-y Frame interpolieren. Hier ist DLSS einen mächtigen Schritt zu einer brauchbaren Lösung gekommen.

Anstelle große Frames zu rendern und ZBB zu betreiben, ist es IMO sinnvoller die interne Framegröße immer soweit zu reduzieren, dass eine fps Vorgabe gehalten werden kann (zB 60 fps oder 120 fps...) und dann mittels DLSS auf die Auflösung des Anzeigegeräts zu samplen. Letzterer Weg nutzt in aktuellen Gegebenheiten die Möglichkeiten des Anzeigegeräts und der Renderhardware am effizientesten aus.

Gast
2020-08-01, 22:17:06
Wenn Kanten in Bewegung schlieren sieht es nicht besser aus, auf Standbildern ja.

Doch, auch natives Rendering ist nicht perfekt, ohne AA flimmert es untragbar und TAA hat wesentlich mehr Unschärfe und trotzdem wesentlich mehr Artefakte.

Ist das Bild mit DLSS2.0 perfekt? Nein! Aber es ist mit großem Abstand das perfekteste was Echtzeit-Rendering bisher auf den Bildschirm zaubern konnte.

Gouvernator
2020-08-02, 09:47:41
Das würde ich so nicht unterschreiben.
BlurBusters habe mal einen interessanten Artikel verfasst. Sie plädieren dafür dass Strobing langfristig nicht mehr verwendet wird da es eben auch Artefakte erzeugt. Der natürlichste Weg zu hoher Bewegtschärfe sind sehr hohe fps. Sie nannten 1000 Hz als Hausnummer.

8k kann für übliche Bildschirmgrößen langfristig entweder ausreichend sein, aber für andere Zwecke zu klein/groß.


Mit heutigen 8K TV kann man mit BFI schon erstaunliches Bild erzeugen. Wenn das bei noch guter Helligkeit und Flickerfreiheit funktionieren würde, dann bräuchte man für lange Zeit überhaupt keine "Upgrades" wie 16k usw. Ich habe unter Battlefield 2 natives 8K mit 30Hz und BFI laufen lassen. Bei Samsung Q950R hat man bis 30Hz unter BFI gar kein Flicker. Und die Auflösung bzw. Bildeindruck wird massivst verbessert. Gegenüber einer großen Hauswand wenn man sich davor bewegt, erzeugt BFI in 8K beinah fotorealistischen Eindruck. Mit fotorealistisch meine ich Standbild-Qualität. Es ist immer noch weit davon entfernt, aber man bekommt zumindest ein Eindruck davon. Die ultimative Bildqualität wäre ein 8K Bild das in Bewegung wie ein Standbild scharf ist. Sowas wie 8K Plasma TV oder LCD mit flickerfree BFI auch bei 60Hz würde reichen. Mehr AA oder Auflösung bringt ab 8K signifikant weniger Vorteile, als "nur" 8K aber mit BFI und entsprechender Bewegtschärfe.

Karümel
2020-08-25, 16:52:54
Mal eben ne doofe Frage.
Wenn man 2 Screenshots hat einmal native 4K und einmal von Full-HD oder 1440P "hochskaliert" auf 4 K, Würde man sehen/ hrausfinden können nur anhand des Screenshots welches Bild native 4K ist und welches nicht?

Kommt wohl auch auf das Spiel selber dann an wie gut DLSS dort ist, oder?

Gast
2020-08-25, 19:01:05
Mal eben ne doofe Frage.
Wenn man 2 Screenshots hat einmal native 4K und einmal von Full-HD oder 1440P "hochskaliert" auf 4 K, Würde man sehen/ hrausfinden können nur anhand des Screenshots welches Bild native 4K ist und welches nicht?


Ja DLSS sieht in der 2.0 Variante merklich anders als nativ, und ein wenig bis sehr viel besser aus.


Kommt wohl auch auf das Spiel selber dann an wie gut DLSS dort ist, oder?

Bei DLSS2.0 nicht wirklich, da sieht die DLSS Variante als ganzes immer besser als nativ aus.

Troyan
2020-08-25, 19:41:48
Du siehst die Unterschiede, weil 4K immer noch erheblich mehr Informationen hat. Screen-Space Reflektionen sind z.B. immer noch kritisch.

aufkrawall
2020-08-25, 19:48:43
Für das Postprocessing muss der Spielentwickler doch weiterhin zusätzlich komplett auf eine eigene TAA-Lösung setzen, oder nicht?

w0mbat
2020-08-27, 13:46:24
Gamestar hat nen Artikel zu DLSS geposted (https://www.gamestar.de/artikel/wie-gut-ist-nvidias-dlss,3360685.html) und es ist wie immer: die DLSS Bilder sehen eindeutig schlechter aus, im Text wird aber behauptet, DLSS hätte mehr "Details". Das hab ich jetzt bisher bei jedem DLSS "Review" gesehen. Was im Text beschrieben wird passt nicht mit den Bildern überein.

Hier was im Text steht:

Das Wappen des Federal Bureau of Control, kurz FBC, wirkt mit dem DLSS Qualitäts-Modus etwas schärfer als mit dem nativen Rendering, Reflexionen und Schatten werden klarer dargestellt.

Die von der kopfstehenden Pyramide ausgehenden Strahlen sind im DLSS Qualitäts-Modus deutlicher zu erkennen und tatsächlich etwas detailreicher. Die Schrift auf dem Banner ist in den DLSS-Modi jedoch nicht zu erkennen - das native Rendering lässt sie zumindest erahnen.

Das hört sich erstmal super an. DLSS soll schärfer sein, Reflextionen und Schatten klarer und bestimmte Bereiche detailreicher. OK, schauen wir uns mal die Bilder an:

Nativ: https://10images.cgames.de/images/gamestar/279/dlss-20-control-4k-sz-8-rt-off-dlss-off-300-prozent_6109609.jpg

DLSS Qualität: https://1images.cgames.de/images/gamestar/279/dlss-20-control-4k-sz-2-rt-off-dlss-q-on-300-prozent_6109610.jpg

Und plötzlich ist alles anders. Das DLSS Bild ist total schlecht, es fehlen überall Details und das Bild ist voller Artifakte. Man muss sich nur die Pyramide oder die Burg ansehen, das ist einfach falsch (macht ja auch Sinn, weil bei upsampling Informationen erraten werden).

Ich habe das Gefühl, viele verwechseln Artifakte mit "Schärfe" oder "Details".

Wenn man den Text liest denkt man, DLSS sieht sogar etwas besser aus als nativ. In Realität sieht DLSS viel schlechter aus und es fehlen sehr viele Details bzw. das Bild ist von lauter Artifakten übersäht.

Aber jemand der nur den Text liest denkt sich super, DLSS ist der geile Scheiß. Schneller und sieht besser aus :ugly:

Den gleichen Fehler hat CB gemacht und DF. Das gesagte passt überhaupt nicht zu den Bildern/Videos. Ich verstehe nicht ob das Absicht ist, oder einfach Dummheit?

aufkrawall
2020-08-27, 13:51:24
Ich würde solche Artefakte auch nicht in Kauf nehmen wollen, wenn die Alternative zu DLSS das TSAA von Doom: Eternal wäre.
Wenn wie in Horizon: Zero Dawn aber mit dem spielinternen TAA die Grafik einfach nur ein kaputter, unscharfer Ameisenhaufen ist, und DLSS viel mehr Bildruhe reinbringen würde...

Dampf
2020-08-27, 13:59:06
Klar, an dieser Pyramide kannst du dich jetzt richtig schön aufhängen Wombat und gleichzeitig wirst du vermutlich komplett ignorieren, dass DLSS 2.0 in Wolfenstein Youngblood mehr Details als native Qualität zaubert, wie hier deutlich an dem roten Radar-Kreis zu erkennen ist:

DLSS
https://10images.cgames.de/images/gamestar/279/dlss-20-wolfenstein-youngblood-4k-rt-off-dlss-q-on-600-prozent_6109649.jpg

DLSS off https://2images.cgames.de/images/gamestar/279/dlss-20-wolfenstein-youngblood-4k-rt-off-dlss-off-600-prozent_6109651.jpg

Den Spieß kann man auch umdrehen, den 30-70% Boost an Framerates jedoch nicht ;)

Auch sonst sieht das Bild schärfer, aber nicht überschärft aus.

Das DLSS 2.0 in Control ist bekannt dafür, den Sharpening Regler zu hoch angesetzt zu haben.

Die Leute von GameStar haben das Bild im Gegensatz zu dir nicht nur auf JPEGs gesehen sondern live auf dem Bildschirm.

w0mbat
2020-08-27, 14:11:47
Da sind doch nicht mehr Details, das ist ein sich drehender Kreis und DLSS hat fälschlicher Weise dort noch sichtbare Artifakte. Ist doch das gleiche mit dem linken Radar. Das bewegt sich halt und nur ein Teil ist rot, der Rest ist schwarz. DLSS macht das falsch und zeigt den ganzen Radar als rot an, alles einfach nur fehlerhafte Artifakte. Das kommt vom upsampling.

Und schau dir doch auch einfach den Kopf der Figur vor dem Hindergrund an. Mit DLSS hat der einen Heiligenschein ;D Und auch der rest vom Bild hat mit DLSS lauter fehlerhafte Reflektionen.

Ich hoffe gerade ernsthaft dass du einfach nur trollen willst und nicht wirklich der Meinung bis upsampling würde mehr Details aus dünner Lüft erschaffen. Ja klar, 16K Blockchain-AI Training...

Sorry, aber das ist doch lächerlich. Als nächstes wird noch behauptet wenn DLSS aus versehen einen Charakter doppelt darstellt, man hätte doppelt so viele Details :ugly:

aufkrawall
2020-08-27, 14:14:19
Und schau dir doch auch einfach den Kopf der Figur vor dem Hindergrund an. Mit DLSS hat der einen Heiligenschein ;D

Das wird daran liegen, dass GameStar das spielinterne Sharpen mit DLSS nicht vom nachschärfenden Standardwert 2.0 auf neutrale 1.0 geändert haben wird.

Dampf
2020-08-27, 14:19:19
Na da weiß wohl jemand nicht, wie solche Radars funktionieren :D

Der außenstehende Kreis ist statisch, während sich die Linie im Inneren diesen bewegt.

https://ak.picdn.net/shutterstock/videos/3392222/thumb/1.jpg

Und eben diese statische Linie wird von DLSS deutlich besser dargestellt.

Diese Halos die du da siehst kommen nicht von DLSS, sondern wahrscheinlich weil sich die Figur bewegt hat. Nennt sich Object-based Motion Blur.

Na dann versuch doch mal diesen Vergleich schlecht zu reden: warum sieht man die Schnüre der Ballons mit der besten AA-Stufe in Wolfenstein nicht, aber mit DLSS schon?

https://imgsli.com/MjA5NTg/0/1

Weshalb sehen diese Schnüre sogar besser aus als ohne irgendein AA? Bin gespannt :)

w0mbat
2020-08-27, 14:23:04
Kann sein, aber es passt halt nicht zu dem im Text beschriebenen.

DLSS ist doch ne super Sache, man sollte halt nur realistisch damit um gehen. Also sagen, dass es in vielen Bereiche fast so gut wie nativ aussehen kann aber einige Details fehlen und es hier und da Artifakte gibt. Das ist doch OK so.

Aber es wird so oft behauptet DLSS würde besser aussehen und wenn man sich dann die Bilder/Videos ansieht stimmt das einfach nicht. Ganz im Gegenteil, DLSS sieht sehr deutlich schlechter aus, es fehlen Details, es gibt Artifakte und es wird überschärft. Macht ja auch Sinn, weil es upsampling ist. Nur eben besser als wir es bisher hatten und mit noch mehr Potential in der Zukunft.

Super tolle Sache, aber man sollte das einfach so sagen und nicht Lügenmärchen auftischen die dann platzen, wenn man die Bilder vergleicht. Dadurch schaded man DLSS doch eher.


@Dampf: Das erste Bild ist nicht aus dem Spiel, sondern wo anders her. Hör doch auf Sachen zu erfinden. Und das zweite Bild sieht ganz gut aus mit DLSS, ohne AA sind die Schnüre aber auch so da, die werden von dem schlechten TSSAA verkackt. An den Balkonen fehlen mit TSSAA und DLSS Details. Hör doch bitte auf dich noch weiter lächerlich zu machen.

Nightspider
2020-08-27, 14:29:20
Klar, an dieser Pyramide kannst du dich jetzt richtig schön aufhängen Wombat und gleichzeitig wirst du vermutlich komplett ignorieren, dass DLSS 2.0 in Wolfenstein Youngblood mehr Details als native Qualität zaubert, wie hier deutlich an dem roten Radar-Kreis zu erkennen ist:

DLSS
https://10images.cgames.de/images/gamestar/279/dlss-20-wolfenstein-youngblood-4k-rt-off-dlss-q-on-600-prozent_6109649.jpg

DLSS off https://2images.cgames.de/images/gamestar/279/dlss-20-wolfenstein-youngblood-4k-rt-off-dlss-off-600-prozent_6109651.jpg

Den Spieß kann man auch umdrehen, den 30-70% Boost an Framerates jedoch nicht ;)

Auch sonst sieht das Bild schärfer, aber nicht überschärft aus.

Das DLSS 2.0 in Control ist bekannt dafür, den Sharpening Regler zu hoch angesetzt zu haben.

Die Leute von GameStar haben das Bild im Gegensatz zu dir nicht nur auf JPEGs gesehen sondern live auf dem Bildschirm.

Da sieht aber auch nicht alles besser aus. Rechts unten beim orangenen sieht man deutlich gröbere Kanten mit DLSS.

Mit DLSS wird wohl manches einfach besser und manches einfach schlechter aussehen.

Dampf
2020-08-27, 14:30:24
Kann sein, aber es passt halt nicht zu dem im Text beschriebenen.

DLSS ist doch ne super Sache, man sollte halt nur realistisch damit um gehen. Also sagen, dass es in vielen Bereiche fast so gut wie nativ aussehen kann aber einige Details fehlen und es hier und da Artifakte gibt. Das ist doch OK so.

Aber es wird so oft behauptet DLSS würde besser aussehen und wenn man sich dann die Bilder/Videos ansieht stimmt das einfach nicht. Ganz im Gegenteil, DLSS sieht sehr deutlich schlechter aus, es fehlen Details, es gibt Artifakte und es wird überschärft. Macht ja auch Sinn, weil es upsampling ist. Nur eben besser als wir es bisher hatten und mit noch mehr Potential in der Zukunft.

Super tolle Sache, aber man sollte das einfach so sagen und nicht Lügenmärchen auftischen die dann platzen, wenn man die Bilder vergleicht. Dadurch schaded man DLSS doch eher.

Ich stimme dir zu, dass man realistisch damit umgehen soll. Deswegen finde ich es immer gut, wenn Seiten wie PCGH und Digital Foundry die Schwachstellen von DLSS entlarven, beispielsweise die Artifakte aufgrund fehlender Motion-Vektoren in Death Stranding.

Aber wie du damit umgehst ist mitnichten realistisch. Du schreibst das Bild sehe "sehr deutlich schlechter aus" was definitiv nicht der Fall ist und zwar in keinem DLSS 2.0 Titel. Als Beweis gibst du ein 300% Zoom Asset in einem Spiel mit dutzenden anderer Assets aus, die oftmals auch mit DLSS gleich oder besser aussehen.

Fakt ist, dass DLSS in den allermeisten Fällen mit der nativen Auflösung mithalten kann und das wurde ja auch schon durch genügend Seiten belegt. Als Bonus kriegt man oftmals mehr Details zu sehen, wie in meinem Wolfenstein Vergleich und beispielsweise in Mech Warriors zu sehen ist. Als Nachteil gibt es durchaus Artifakte, wenn das DLSS nicht ordentlich integriert wurde, so wie in Death Stranding.

Ungeachtet dessen davon kriegt man eben deutlich bessere Performance ohne einen Qualitätsverlust in 90% der Fälle.

Edit: na gut, zum Glück hat DF schon einen ähnlichen Vergleich in Video-Form wo du siehst wie ein Radar funktioniert: https://youtu.be/gpzFX4P1Jow?t=707

Die Schnüre der Ballons sind mit DLSS aber noch ersichtlicher als ohne AA und an den Balkonen fehlen keine Details, im Gegenteil. Dort werden auch mehr Details konstruiert als native Qualität, wie ich schon oft im Spiel gesehen hab.

BTW, das TSAA der ID Tech Engine gehört zu den besten Anti Aliasing Methoden die Gaming zur Zeit zu bieten hat und wird sogar noch zusätzlich geschärft.

Nightspider
2020-08-27, 14:40:17
Im Video sieht man ja auch das der Ring außen mit DLSS besser aussieht aber das Innere, sich bewegende, etwas seltsam aussieht.

w0mbat
2020-08-27, 16:55:58
@Dampf: wie sollten denn Details bitte schön aus dem Nichts erschaffen werden? Das geht nicht. Bisher waren es jedes Mal, wenn eben dies behauptet wurde, Artifakte.

pixeljetstream
2020-08-27, 17:10:50
Die Details kommen ja nicht aus dem nichts, sondern durch das temporale/jittering über mehrere Frames. Es wird nicht ein Bild allein hoch skaliert. Der Vergleich in Standbildern ist halt nicht so repräsentativ wie das was man in-Game erlebt.

BlacKi
2020-08-27, 17:11:20
mir ist auf gefallen, das bei wombats erstem vergleich das schwert anders aussieht. hat das mit dem LoD und der niedrigeren auflösung zu tun? die auflösung alleine oder dlss sind garantiert nicht schuld daran. komisch das euch das nicht aufgefallen ist.

Nightspider
2020-08-27, 17:36:52
@Dampf: wie sollten denn Details bitte schön aus dem Nichts erschaffen werden? Das geht nicht. Bisher waren es jedes Mal, wenn eben dies behauptet wurde, Artifakte.

Weil ja auch mit einer viel niedrigeren Auflösung gerechnet wird.

Du kannst auch noch Zwischenstufen einfügen und wirst dann trotz niedrigerer internet Auflösung trotzdem mehr Details rausbekommen.

Das ist keine Zauberei.

Achill
2020-08-27, 18:06:44
Ich habe schon mehrfach überlegt etwas ähnliches zu schreiben wie w0mbat, weil ich das Übernehmen des NV Marketings auf Presse-Seiten nicht gut fand.

Vorab, der FPS Vorteil bei der gebotenen Qualität ist mit DLSS ist nicht von der Hand zu weisen, genauso wie sicherlich eine Menge Aufwand und Expertise dafür notwendig war und vom techn. Standpunkt es auch ein sehr interessantes Einsatzszenario für Machine-Learning ist.

Folgende Aspekte verzerren meines Erachtens jedoch die Berichterstattung:

1. Der Begriff "Native Auflösung" wird auf vielen Seiten auf die Darstellung mit TAA angewendet und dann mit DLSS verglichen, damit also TAA dann als "nativ" deklariert. Dabei haben wir schon sehr oft im Forum über den Detail-Verlust von TAA gesprochen. Wenn man also weiß, dass TAA (je nach Umsetzung mal mehr oder weniger) Details verliert, warum zieht man dies zum Vergleich bzgl. Details heran?

Will man m.E. Details vergleichen (und nicht Details&FPS) dann gehen bei vielen aktuellen Spielen m.E. nur SMAA + Downsampling. Dann könnte man bzgl. Details und Schärfe Aussagen treffen.

2. DLSS ist faktisch weiterhin GameWorks, nur das man dies nicht mehr unter diese Marke packt (bzw. bewirbt). Die Auswirkungen auf die Mitbewerber sind die gleichen. Ebenso kann NV in den GPU-Generationen selbst die Umsetzung/Unterstützung kontrollieren.

aufkrawall
2020-08-27, 18:11:50
2. DLSS ist faktisch weiterhin GameWorks, nur das man dies nicht mehr unter diese Marke packt (bzw. bewirbt). Die Auswirkungen auf die Mitbewerber sind die gleichen. Ebenso kann NV in den GPU-Generationen selbst die Umsetzung/Unterstützung kontrollieren.
Es ist in der Hinsicht viel schlimmer als die meisten GameWorks-Effekte, weil es über eine proprietäre API läuft und Implementierungs-Details unter NDA stehen.
NGX-Support für Linux gabs auch erst ca. 1,5 Jahre verspätet und man müsste es reverse engineeren, um es in Wine ans Laufen zu bekommen.

Gast
2020-08-27, 21:38:43
DLSS ist doch ne super Sache, man sollte halt nur realistisch damit um gehen. Also sagen, dass es in vielen Bereiche fast so gut wie nativ aussehen kann aber einige Details fehlen und es hier und da Artifakte gibt. Das ist doch OK so.



Ja es gibt Artefakte mit DLSS und es gibt Artefakte ohne DLSS.

Wenn man danach sucht wird man Pixel finden die mit DLSS besser aussehen und welche die ohne DLSS besser aussehen.

Insgesamt findet man allerdings mit DLSS bedeutend weniger Artefakte und wesentlich mehr Pixel die besser aussehen als umgekehrt.

Gerade viele feine Details sind ohne DLSS einfach nicht da, mit DLSS schon, das ist weit mehr als einfaches Schärfen was immer nur Details die schon da sind betonen kann, DLSS zeigt mehr echte Details als kein DLSS.

Slipknot79
2020-08-27, 21:43:43
DLSS ist doch ne super Sache, man sollte halt nur realistisch damit um gehen.


Du drückst also 5x shift um die 300% Bildschirmlupe ingame zu aktivieren? :redface:

w0mbat
2020-08-27, 23:55:12
Mit dem Argument kann ich auch in 720p low spielen und habe mehr FPS als mit DLSS.

BlacKi
2020-08-28, 00:10:12
Mit dem Argument kann ich auch in 720p low spielen und habe mehr FPS als mit DLSS.
wenn du eine 3060 im rechner hast und gerade so 30 fps in 4k hinbekommst, und mit dlss im schlimmsten fall ein paar artefakte bekommst aber 60fps halten kannst, dann nehme ich nicht 1440p um 60fps zu erhalten. da nehm ich dlss, im optimalfall verbessert sich das bild sogar im vergleich zu nativ 4k und im schlimmsten fall sieht es immernoch besser aus als 1440p.

w0mbat
2020-08-28, 00:31:08
Ja, da hast du Recht. Aber das ist nicht das Standardargument für DLSS.

Gast
2020-08-28, 20:09:38
Mit dem Argument kann ich auch in 720p low spielen und habe mehr FPS als mit DLSS.

Sieht aber beschissen aus.

Ganz im Gegensatz zu DLSS, das schneller ist und im gesamten auch besser aussieht.

Tobalt
2020-08-28, 21:02:03
Wenn man "Upscaling" zu DLSS2.0 sagt, hat man IMO das Prinzip nicht verstanden.

DLSS2.0 nutzt die DNN ja nicht um das Bild von der Renderauflösung auf die Displayauflösung hochzuskalieren, wie zahlreiche Tools die man via google findet ;) Sowas in der Art hat wohl "DLSS"1 gemacht. nV hat sich mit dem Namen keinen Gefallen getan. IMO war DLSS zu Turing Release nicht fertig und so mussten sie irgendwas anbieten, weil es ja vollmundig versprochen wurde also haben sie den Trash namens DLSS gebracht.

DLSS2.0 nutzt das DNN zur besseren zeitlichen Interpolation der schon bestehenden hochaufgelösten Bildinformationen. Die hohe räumliche Auflösung ist durch das Pixeljittering gegeben.

Deshalb hat es nichts mit Magie und Details erfinden zu tun, wenn DLSS2.0 auf Standbildern besser als nativ aussieht, sondern ist absolut zu erwarten. Es ist ziemlich das selbe wie der SuperResolution Modus der Handykamera. Der nutzt ja auch kein Softwareupscaling sondern macht bspw. 4 Fotos mit um eine halbe Pixellänge verschobenem Sensor.

In Bewegung fehlt dann aber schon Information gegenüber nativ, aber ich weiß nicht in wie weit das von den Magazinen verglichen wird.

Gast
2020-08-28, 22:59:18
nV hat sich mit dem Namen keinen Gefallen getan.


Im Nachhinein schon, weil DLSS2.0 ist in der Tat Supersampling.

Tobalt
2020-08-29, 00:44:19
Ich meinte auch explizit dlss1

DLSS2.0 ist tolle technik aber viele assoziieren mit dem Name zurecht den DLSS1-Upscaling-Müll

Dann noch die Verwirrung mit DLSS2X, was es glaub nie in der Praxis gab. :facepalm:

x-force
2020-08-29, 01:40:47
SMAA + Downsampling

smaa vernichtet genau wie fxaa details, da es ein postprocessing filter ist.
ein downsampling bild ist ganz sicher nicht die native qualität, sondern bleibt egal wie man es nennt am ende eine form von supersampling.
ein sinnvoller vergleich ist bei reiner bildqualität(vollkommen egal wie sie erzeugt wird) ohne betrachtung der leistung(frametimes) nicht möglich

erschreckend wie viel unwissen nach 20 seiten noch immer vorhanden ist.

Dampf
2020-08-29, 12:16:40
https://pbs.twimg.com/media/EgZ3JF8WAAI6orx?format=png&name=small

Anscheinend eine Interne Referenz zum nächsten Generationssprung des DLNN Modells.

Meine Vermutung ist, dass sie mit DLSS 2.1 ein paar Fixes haben was Artefakte angeht. Zum Beispiel könnten die Motion Vektor Probleme in Death Stranding der Vergangenheit angehören. Mal abwarten!

Mit Ampere möchte man sicherlich DLSS von der besten Seite zeigen, daher macht hier so ein Build mit der neuesten DLSS Generation schon Sinn.

BlacKi
2020-08-29, 12:19:12
ah, nice, 2.1 statt 3.0

Dampf
2020-08-29, 12:24:41
ah, nice, 2.1 statt 3.0

DLSS 3.0 war nur ein Gerücht von einem YouTuber.

Einen großen Generationssorung bzw Evolution des DNN intern als DLSS 2.1 zu bezeichnen macht jedoch absolut Sinn für Entwickler und für Nvidia. Aus Marketing Sicht macht es aber mehr Sinn, es weiterhin DLSS 2.0 zu nennen. Sonst wirds zu kompliziert für das Fußvolk :D

Slipknot79
2020-08-29, 14:41:08
Warum ballert Lederjacke nicht einfach mal Metro Exodus durch seine Server, damit es DLSS 2.0 verpasst bekommt? Oo

aufkrawall
2020-08-29, 14:47:28
Huh? Lederjacke/Nvidia muss da gar nichts für machen. Der Entwickler selbst müsste vermutlich kaum mehr tun als einfach die Libs durch neuere zu ersetzen.

Gast
2020-08-29, 15:24:11
Warum ballert Lederjacke nicht einfach mal Metro Exodus durch seine Server, damit es DLSS 2.0 verpasst bekommt? Oo

Das müssten die Entwickler machen, wäre auch kein Problem weil DLSS 2.0 braucht ja kein per application learning mehr.

Dampf
2020-08-31, 13:54:44
DLSS 2.0 als Stromsparer - Test von Igor

"Im Detail sehe ich dann die Frame-Time-Verläufe als Kurve analog auf der gleichen Zeitachse wie die hochauflösende Leistungsaufnahmemessung und ich bekomme auch über den gesamten Benchmark eine sehr gut gemittelte Leistungsaufnahme, die ja je nach Spiel, Einstellungen und Szene auch gehörig schwanken kann. Hier jetzt alle Karten einheitlich und absolut vergleichbar messen zu können, ist fast schon unbezahlbar. Addiert man dann noch GPU und CPU, sieht man sogar die Auswirkungen der jeweiligen Grafiksettings auf den Leistungshunger der CPU.

Soweit, so theoretisch. Denn rein optisch sieht man beim Durchlauf mit DLSS 2.0 kaum einen Unterschied, eher im Gegenteil. Viele Details, die sogar in der nativen UHD-Auflösungen verschwinden, sind mit DLSS wieder sichtbar, auch wenn man ab und an fast mehr sieht, als die Spielentwickler reingepackt haben. Ein genau hier setzt mein heutiges Experiment dann an."

Fazit:

"Andererseits sind sowohl der Perfomance-Gewinn durch DLSS 2.0 ohne Limiter als auch der Effizienz-Zuwachs bei DLSS 2.0 mit aktiviertem Limiter eine echte Hausnummer. Noch einmal zum Mitschreiben: satte 80 Watt bei eigentlich identischer Bildqualität sind schon ein echter Hammer, den ich so auch nicht erwartet hätte. Bei älteren Spielen wie Wolfenstein Youngblood fällt der Unterschied mit Limiter nicht so extrem aus, dafür kann DLSS ohne Limiter voll auftrumpfen. Auch eine Erkenntnis."

https://www.igorslab.de/mit-nvidia-und-dlss-2-0-auf-dem-oeko-trip-stromsparen-gegen-den-trend-geht-naemlich-auch/

w0mbat
2020-08-31, 14:18:00
Viele Details, die sogar in der nativen UHD-Auflösungen verschwinden, sind mit DLSS wieder sichtbar [...]
Schon wieder dieser offensichtliche Blödsinn :ugly:

Ich mag Igor ja sehr, aber Artifake sind nicht "Details".

robbitop
2020-08-31, 14:19:35
DLSS2.0 nutzt das DNN zur besseren zeitlichen Interpolation der schon bestehenden hochaufgelösten Bildinformationen. Die hohe räumliche Auflösung ist durch das Pixeljittering gegeben.

Deshalb hat es nichts mit Magie und Details erfinden zu tun, wenn DLSS2.0 auf Standbildern besser als nativ aussieht, sondern ist absolut zu erwarten. Es ist ziemlich das selbe wie der SuperResolution Modus der Handykamera. Der nutzt ja auch kein Softwareupscaling sondern macht bspw. 4 Fotos mit um eine halbe Pixellänge verschobenem Sensor.

In Bewegung fehlt dann aber schon Information gegenüber nativ, aber ich weiß nicht in wie weit das von den Magazinen verglichen wird.
Das machen schon TSSAA und andere temporale Upscaling Varianten. Wo man das NN braucht ist eben gerade in der Bewegung. Dort versagen die klassichen Heuristiken (Unschärfe, Ghosting). Das NN bekommt die Zuordnung temporal gerade bei Bewegung deutlich besser hin als bisherige feste Ansätze.

Zum Beispiel könnten die Motion Vektor Probleme in Death Stranding der Vergangenheit angehören. Mal abwarten!
Da kann DLSS 2.0 nichts dafür. Die Partikel auf die du anspielst (die ghosten) werden seitens des Spiels nicht mit Motion Vectors an DLSS übergeben.
Auch Dinge wie Überschärfung/Unterschärfung in anderen Spielen hängen eher mit der Anwendung zusammen. Die Schnittstellen müssen sauber bedient werden.

AnnoDADDY
2020-08-31, 14:21:34
Doch, es sind Details die in ohne DLSS im temporalen Jitter untergehen und mit DLSS raus gearbeitet werden. Du hast immer noch nicht verstanden was DLSS macht. Nein, es ist kein Upscaling ;)

robbitop
2020-08-31, 14:28:23
Doch, es sind Details die in ohne DLSS im temporalen Jitter untergehen und mit DLSS raus gearbeitet werden. Du hast immer noch nicht verstanden was DLSS macht. Nein, es ist kein Upscaling ;)
Beziehst du dich auf w0mbat? :)

Naja das kann schon zu Artefakten in Bewegung führen. Das clamping (genau das ist ja die Stärke des NN) wird dann einfach exponential schwieriger und nicht alles ist mehr mit Jitter heilbar. Null Artefakte wird es wohl niemals geben - aber ich kann mir gut vorstellen, dass mit aufwändigerem NN und aufwändigerem Inferencing noch eine ganze Menge mehr geht in den nächsten Jahren.

w0mbat
2020-08-31, 14:32:06
Doch, es sind Details die in ohne DLSS im temporalen Jitter untergehen und mit DLSS raus gearbeitet werden. Du hast immer noch nicht verstanden was DLSS macht. Nein, es ist kein Upscaling ;)
Stimmt, es ist upsampling. Und das sieht man auch. Ich habe bisher in jedem auch so tollen Review noch niemals ein Bild oder Video gesehen, das mehr Details aufweist als der native Vergleich. Es sieht fast immer schlechter und manchmal ähnlich aus. Diese "mehr Details" stimmt einfach nicht, das weißt du doch auch. Und bitte komm mir nicht so dämlich aka "du hast es nicht verstanden", wenn du derjenige bist, der upsampling als was ganz anderes hindrehen will. Lässt du dich immer durch Werbe-BS so beeinflussen, oder nur wenn es von der Lederjacke kommt?

Ich werde den Tag feiern an dem DLSS "3.0" (oder wie auch immer) wirklich besser als nativ aussieht und deutlich schneller rennt. Das wäre nämlich der Heilige Gral und mega geil.

AnnoDADDY
2020-08-31, 14:32:36
Beziehst du dich auf w0mbat? :)

Ja, warst zu schnell :D

Dampf
2020-08-31, 15:00:16
Schon wieder dieser offensichtliche Blödsinn :ugly:

Ich mag Igor ja sehr, aber Artifake sind nicht "Details".

Hör jetzt mal auf zu trollen.

https://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=159818

Sind Zäune jetzt Artefakte?

w0mbat
2020-08-31, 15:06:10
Vergleichst du jetzt wieder schlechtes AA mit nativ?

Was stimmt: es gibt viel Geschwurbel, dass die BQ verschlechtert und dann, anders als DLSS, nicht mal mehr Leistung bringt. Nochmal: DLSS ist eine super Sache, ich kann nur nicht abhaben wie fälschlicher Weise behauptet wird es sähe besser aus als nativ.

robbitop
2020-08-31, 15:08:49
Stimmt, es ist upsampling.
Ich kann hier nur empfehlen, den GTC talk anzuschauen zu DLSS. Es ist schon mehr als nur Upsampling. Es wird da ziemlich gut vermittelt:
https://www.youtube.com/watch?v=d5knHzv0IQE

Es ist im Prinzip temporale Rekonstruktion mit einem neuronalem Netzwerk für das Clamping.

w0mbat
2020-08-31, 15:14:57
Ja, es kommt noch einiger Schnickschnack dazu. Aber im Kern steckt upsampling dahinter und das sieht man auch (noch).

Dampf
2020-08-31, 15:22:59
Vergleichst du jetzt wieder schlechtes AA mit nativ?


Hab doch auch schon andere Spiele verglichen. Wolfenstein hat z.B. tolles AA und selbst da sieht DLSS mitunter deutlich besser aus.

Spielst du etwa ganz ohne AA oder wie? Da sehen die Kanten doch echt zum Gruseln aus!

robbitop
2020-08-31, 15:28:42
Ja, es kommt noch einiger Schnickschnack dazu. Aber im Kern steckt upsampling dahinter und das sieht man auch (noch).
Damit es keine Missverständnisse gibt: was meinst du denn mit Upsampling.
Wenn du Upsampling im konventionellen Sinne meinst, liegst du damit wirklich falsch. Wenn du Rekonstruktion meinst - wäre das richtig - aber dann wäre der Term falsch. :)

w0mbat
2020-08-31, 15:34:56
"Rekonstruktion" ist Marketing BS.

Dampf
2020-08-31, 15:36:33
"Rekonstruktion" ist Marketing BS.

???

Es ist einfach eine Technik. Sony nutzt beispielsweise Checkerboard-Rendering, was auch Rekonstruktion ist.

dargo
2020-08-31, 15:37:01
Naja das kann schon zu Artefakten in Bewegung führen. Das clamping (genau das ist ja die Stärke des NN) wird dann einfach exponential schwieriger und nicht alles ist mehr mit Jitter heilbar. Null Artefakte wird es wohl niemals geben - aber ich kann mir gut vorstellen, dass mit aufwändigerem NN und aufwändigerem Inferencing noch eine ganze Menge mehr geht in den nächsten Jahren.
Ich frage mich gerade ob DLSS oder ein non proprietäres Equivalent in Zukunft nicht erst bei 8k Bildschirmen richtig Vorteile bringt? Ob das Auge auf einem 8k Bildschirm die Artefakte dann noch wahrnehmen kann?

TheAntitheist
2020-08-31, 15:40:16
Stimmt, es ist upsampling. Und das sieht man auch. Ich habe bisher in jedem auch so tollen Review noch niemals ein Bild oder Video gesehen, das mehr Details aufweist als der native Vergleich. Es sieht fast immer schlechter und manchmal ähnlich aus. Diese "mehr Details" stimmt einfach nicht, das weißt du doch auch. Und bitte komm mir nicht so dämlich aka "du hast es nicht verstanden", wenn du derjenige bist, der upsampling als was ganz anderes hindrehen will. Lässt du dich immer durch Werbe-BS so beeinflussen, oder nur wenn es von der Lederjacke kommt?

Ich werde den Tag feiern an dem DLSS "3.0" (oder wie auch immer) wirklich besser als nativ aussieht und deutlich schneller rennt. Das wäre nämlich der Heilige Gral und mega geil.
Es wurden hier doch schon beispielbilder von DLSS 2.0 ohne upsampling gezeigt, das Bild hatte viel mehr details als vorher. Es heißt Supersampling und das ist es auch. Es skaliert zurzeit eben auch noch hoch. Du kannst dennoch 1080p fahren, DLSS seine Arbeit machen lassen und als 1080p ausgeben und es sieht VIEL besser aus.
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Tuning-Tipps-DLSS-2x-aktivieren-1346292/

dildo4u
2020-08-31, 15:44:01
Stimmt, es ist upsampling. Und das sieht man auch. Ich habe bisher in jedem auch so tollen Review noch niemals ein Bild oder Video gesehen, das mehr Details aufweist als der native Vergleich. Es sieht fast immer schlechter und manchmal ähnlich aus. Diese "mehr Details" stimmt einfach nicht, das weißt du doch auch.
Er hat hier ein gutes Beispiel in Control Nativ kann den Zaun nicht genau genug darstellen.

https://youtu.be/eS1vQ8JtbdM?t=242

robbitop
2020-08-31, 15:44:36
"Rekonstruktion" ist Marketing BS.
Ich fürchte, wie auch die anderen, dass du dich mit dem Thema temporaler Rekonstruktion so gut wie gar nicht beschäftigt hast. Das hat nichts mit Marketing zu tun. Da gibt es etliche Veröffentlichungen zu dem Thema. Nicht nur im Zusammenhang mit DLSS. Temporale Rekonstruktion gibt es grundsätzlich schon relativ lange.

Das gute ist ja, dass temporal die hohe Auflösung wirklich vorhanden ist. Das schwierige ist nur, diese auch in Bewegung immer sinnvoll zuzuordnen.

Mit klassischem Upsampling hat DLSS 2.0 fast gar nichts mehr zu tun. Es verwertet echte Informationen, die temporal vorhanden sind zur Rekonstruktion. Auf 2D Bildebene passiert da praktisch kaum noch was.

Ich frage mich gerade ob DLSS oder ein non proprietäres Equivalent in Zukunft nicht erst bei 8k Bildschirmen richtig Vorteile bringt? Ob das Auge auf einem 8k Bildschirm die Artefakte dann noch wahrnehmen kann?
Das liegt im Auge des Betrachters. Es ist einfach ein neues Werkzeug in unserem Werkzeuggürtel / eine neue Option.

Für schwache Hardware ermöglicht es mit (wenn korrekt umgesetzt) relativ wenig optischen Nachteilen, gewisse Auflösungen zu fahren, die sonst nicht gehen würden. 4K wird im Performancesetting massentauglich.
Für (relativ) super schwache Hardware / bzw ultra low power Hardware (Switch Nachfolger) kann es bei gleicher Auflösung einen Detailgrad spielbar möglich machen, der sonst nicht gehen würde.
Es kann einer GPU die Lebenszeit (Spiel mit DLSS noch spielbar) ein wenig verlängern.
Enthusiasten kann es besonders hohe Auflösungen oder Frameraten oder DSR ermöglichen. 5K@1440p mit highfps; 8K@4K mit 60 fps.

Möglich ist vieles.

Ich hoffe auch auf nicht-propertäre Äquivalente.

Dampf
2020-08-31, 15:51:11
Er hat hier ein gutes Beispiel in Control Nativ kann den Zaun nicht genau genug darstellen.

https://youtu.be/eS1vQ8JtbdM?t=242

Wobei ich bei Control, abseits von Zäunen, Wombat fast schon zustimmen muss. Beim Ranzoomen sieht man das übertriebene Sharpening und die daraus resultierenden Artefakte doch deutlich.

Im normalen Spielverlauf sollte das aber nicht auffallen.

why_me
2020-08-31, 15:52:01
Er hat hier ein gutes Beispiel in Control Nativ kann den Zaun nicht genau genug darstellen.

https://youtu.be/eS1vQ8JtbdM?t=242

Die Details gehen hier durch TAA verloren.
Vereinfacht gesagt werden die helleren Flächen vergrößert um rauschen am Rand zu verhindern -> die dünnen Linien des Zauns verschwinden...

robbitop
2020-08-31, 15:53:16
Wobei ich bei Control, abseits von Zäunen, Wombat fast schon zustimmen muss. Beim Ranzoomen sieht man das übertriebene Sharpening und die daraus resultierenden Artefakte doch deutlich.

Im normalen Spielverlauf sollte das aber nicht auffallen.


Rekonstruktion ist nunmal nicht nativ. Zaubern kann man noch nicht. ;)

Je nach dem wie der Content ist und wie gut es implementiert ist kann es von ganz ok bis sehr sehr gut aussehen. Von klassischen Upsampling + Sharpening ist DLSS 2.0 schon ein gutes Stück entfernt. DLSS 1 war schon eher sowas wie Upsampling.

Aber Upsampling ist schon was anderes.

w0mbat
2020-08-31, 15:54:20
Ich hab mir schon X Videos dazu angeschaut, viele Artikel dazu gelesen und im Ergebnis ist das (bis jetzt) einfach 90% Marketing BS und 10% echte Verbesserungen gegenüber einfachem upsampling.

DLSS 2.0 macht schon vieles besser als DLSS 1.0 und ich hoffe, da wird sich in Zukunft noch viel bewegen. Aber aktuell sind wir da eben noch nicht, was man an den Vergleichsbildern bzw. Vergleichsvideos auch sehen kann.

In der Idee ist es ja super, dass man einem "Neuronales Netz" extrem hoch aufgelöste Daten füttert, es dann "trainiert" diese (ich glaube 16K?) Bilder aus Quellmaterial mit niedrigerer Auflösung wieder aufzubauen.

Aber in der Praxis hast du dann in deinem PC ne kleine GPU die Versucht viele Dinge anzunähern und dann dabei aktuell noch häufig scheitert.

Und zum 100x: super Sache, mich stört einfach nur, dass jetzt schon behauptet wird es sieht besser aus als nativ und dann die screenshots eine ganz andere Sprache sprechen.

robbitop
2020-08-31, 15:56:51
In der Idee ist es ja super, dass man einem "Neuronales Netz" extrem hoch aufgelöste Daten füttert, es dann "trainiert" diese (ich glaube 16K?) Bilder aus Quellmaterial mit niedrigerer Auflösung wieder aufzubauen.

Du gibst gerade DLSS 1 wieder. DLSS 2.0 funktioniert anders. Das NN hat völlig andere Aufgaben. So intensiv hast du dich also nicht damit beschäftigt.

w0mbat
2020-08-31, 16:02:43
Was macht es denn deiner Meinung nach anders? Anstatt hier nur zu meckern...

(und bitte sag mir jetzt nicht, dass du die "motion vectors" bzw. das low res training meinst, weil das ja immer noch das selbe Konzept, nur ausgefeilter ist.)

Troyan
2020-08-31, 16:04:27
Die Details gehen hier durch TAA verloren.
Vereinfacht gesagt werden die helleren Flächen vergrößert um rauschen am Rand zu verhindern -> die dünnen Linien des Zauns verschwinden...

Das ist ja das Problem mit TAA. Es benötigt hohe Auflösungen und hohe Frames, um vernünftige BQ und Stabilität zu erreichen. Ist also für Auflösungen unter 4K kaum zu gebrauchen. Und in 4K schafft man gerademal mit einer 2080TI die 60FPS.

DLSS dagegen ist stabiler und stellt Lichtjahre mehr Details her. Führt dazu, dass es vorallem in geringeren Auflösungen einen massiven Effekt hat. Damit kann man in 1080p+DLSS auf einem 4K Monitor vernünftig zocken ohne mit dem massiven Nachteilen von 1080 und TAA leben zu müssen.

Und je nachdem, wie fein Geometrie ist, ist der Unterschied immens:
https://i.ibb.co/JdxTS6L/Wolfenstein-Youngblood-Screenshot-2020-01-19-13-17-34-26.png (https://ibb.co/JdxTS6L) https://i.ibb.co/Fk1sRmJ/Wolfenstein-Youngblood-Screenshot-2020-01-19-13-18-06-31.png (https://ibb.co/Fk1sRmJ)

robbitop
2020-08-31, 16:19:39
Was macht es denn deiner Meinung nach anders? Anstatt hier nur zu meckern...

Ich habe dir doch hilfreiches Material verlinkt und sogar angerissen, was anders ist ;)

Ich kann hier nur empfehlen, den GTC talk anzuschauen zu DLSS. Es ist schon mehr als nur Upsampling. Es wird da ziemlich gut vermittelt:
https://www.youtube.com/watch?v=d5knHzv0IQE

Es ist im Prinzip temporale Rekonstruktion mit einem neuronalem Netzwerk für das Clamping.

Kurzzusammenfassung:

DLSS 1.0
Für DLSS 1.0 trainiert NVIDIA ein spielespezifisches NN mit besonders hochauflösendem Material des jeweiligen Spieles.
Im Spiel selbst wird das so trainierte NN genutzt um Upsampling inkl adaptiver Nachschärfung des jeweilgen Frames zu betreiben

DLSS 2.0
Für DLSS 2.0 trainiert NVIDIA ein generalisiertes NN darin, temporale Daten in Bewegung zu clampen.
Im Prinzip ist es sowas wie temporales Supersampling. In jedem Frame wird der Sampling Punkt innerhalb eines Pixels gewechselt. Das nennt man temporales pixel jittering. Dadurch erhälst du über mehrere Frames automatisch mehr Auflösung.
Problem ist allerdings wenn es Bewegung gibt. Dann muss das jeweilige Objekt im Bild gefunden und zugeordnet werden und so viel wie möglich von der temporal erzeugten Auflösung nutzen zu können. Als Eingangsgröße braucht das NN dazu motion vectors. Und genau das ist super kniffelig. Heuristiken sind da am Limit und führen oft zu Artefakten, weil diese starr sind. Mittels NN ist die Aufgabe schon eher lösbar. Das NN wird ganz anders genutzt.
Dazu kommt noch ein weiterer/zusätzlicher Effekt: man kann aus Bewegung noch mehr Informationen gewinnen. Stell dir einen Sportplatz vor, der hinter einer Hecke ist. Du siehst nur Teile des Sportplatzes wo die Lücken der Blätter sind. Bewegst du dich entlang der Hecke verändern sich die Lücken und dein Gehirn (ein großes NN) rekonstruiert den Sportplatz, weil du durch Veränderung des Blickwinkels mehr Informationen bekommst.

DLSS 2.0 denkt sich also grundsätzlich im Gegensatz zu 1.0 nicht irgendwas aus sondern versucht aus der großen Fülle an temporal gewonnenen Informationen das maximal mögliche zu machen.
Im Prinzip sind die Informationen ja vorhanden - und man versucht sie eben zu nutzen. Das war jahrelang kaum machbar in Bewegung (statisch gibt es das schon lange - siehe ATIs temporal MSAA und NVs MFAA - aber Bewegung ist eben der Clou).

Das ist eben etwas was erst mit NN wirklich gut nutzbar ist. Perfekt ist es natürlich nicht. Aber das wird sicherlich noch evolutioniert. Mit aufwändigeren NN und mehr Rechenleistung für das Inferencing ist das Potenzial nicht gerade klein. ;)

Schaue dir einfach den GTC talk an. Allein die Details in manchen Beispielen dort in der Ferne zeigen, dass das nur temporal funktionieren kann. Details in der Ferne, die bei geringer Auflösung nicht da sind - und das auch noch stabil - das kann sich kein NN ausdenken. ;)

w0mbat
2020-08-31, 16:25:45
Ich habe dir doch hilfreiches Material verlinkt und sogar angerissen, was anders ist ;)



Kurzzusammenfassung:

DLSS 1.0
Für DLSS 1.0 trainiert NVIDIA ein spielespezifisches NN mit besonders hochauflösendem Material des jeweiligen Spieles.
Im Spiel selbst wird das so trainierte NN genutzt um Upsampling inkl adaptiver Nachschärfung des jeweilgen Frames zu betreiben

DLSS 2.0
Für DLSS 2.0 trainiert NVIDIA ein generalisiertes NN darin, temporale Daten in Bewegung zu clampen.
Im Prinzip ist es sowas wie temporales Supersampling. In jedem Frame wird der Sampling Punkt innerhalb eines Pixels gewechselt. Das nennt man temporales pixel jittering. Dadurch erhälst du über mehrere Frames automatisch mehr Auflösung.
Problem ist allerdings wenn es Bewegung gibt. Dann muss das jeweilige Objekt im Bild gefunden und zugeordnet werden und so viel wie möglich von der temporal erzeugten Auflösung nutzen zu können. Als Eingangsgröße braucht das NN dazu motion vectors. Und genau das ist super kniffelig. Heuristiken sind da am Limit und führen oft zu Artefakten, weil diese starr sind. Mittels NN ist die Aufgabe schon eher lösbar. Das NN wird ganz anders genutzt.
Dazu kommt noch ein weiterer/zusätzlicher Effekt: man kann aus Bewegung noch mehr Informationen gewinnen. Stell dir einen Sportplatz vor, der hinter einer Hecke ist. Du siehst nur Teile des Sportplatzes wo die Lücken der Blätter sind. Bewegst du dich entlang der Hecke verändern sich die Lücken und dein Gehirn (ein großes NN) rekonstruiert den Sportplatz, weil du durch Veränderung des Blickwinkels mehr Informationen bekommst.

DLSS 2.0 denkt sich also grundsätzlich im Gegensatz zu 1.0 nicht irgendwas aus sondern versucht aus der großen Fülle an temporal gewonnenen Informationen das maximal mögliche zu machen.
Im Prinzip sind die Informationen ja vorhanden - und man versucht sie eben zu nutzen. Das war jahrelang kaum machbar in Bewegung (statisch gibt es das schon lange - siehe ATIs temporal MSAA und NVs MFAA - aber Bewegung ist eben der Clou).

Das ist eben etwas was erst mit NN wirklich gut nutzbar ist. Perfekt ist es natürlich nicht. Aber das wird sicherlich noch evolutioniert. Mit aufwändigeren NN und mehr Rechenleistung für das Inferencing ist das Potenzial nicht gerade klein. ;)

Schaue dir einfach den GTC talk an. Allein die Details in manchen Beispielen dort in der Ferne zeigen, dass das nur temporal funktionieren kann. Details in der Ferne, die bei geringer Auflösung nicht da sind - und das auch noch stabil - das kann sich kein NN ausdenken. ;)
Ich hab die Unterschiede schon verstanden (bzw. umrissen, verstehen ist hier so ne Sache), vielleicht fehlt mir etwas die Fachsprache um das rüber zu bringen. Es wird aber trotzdem weiterhin angenähert, was man in vielen Bildern/Videos auch sieht.

Dampf
2020-08-31, 16:38:37
Das AMD keine Alternative hat ich hoffe das ihre Lösung nicht auf RDNA 2 beschränkt ist.

AMD kann jederzeit eine Alternative zu DLSS erschaffen. Es gibt nur ein paar Dinge, die sie beachten müssen:

Es wird sehr viel Expertise im Bereich der künstlichen Intelligenz vorausgesetzt, um solch ein neuronales Netzwerk zu erschaffen. Dann brauchst du auch noch eine große Infrastruktur, um das Teil ordentlich zu trainieren. Nvidia nutzt dafür ihre DGX Server-Farm. Im Bereich der KI ist Nvidia leider AMD deutlich überlegen. Muss man so sehen und akzeptieren. Ich könnte mir aber eine Kooperation mit MS vorstellen.

Du kannst das Modell dann theoretisch auch auf den Shader-Cores einer 5700XT laufen lassen, soweit ich informiert bin, sind INT8 Instruktionen schon in RDNA1 freigeschaltet. Das Problem ist aber, dass solch ein komplexes DNN Unmengen an Rechenleistung frisst. Wenn die Shader Cores mit dem Rendern der Spielegrafik und dem DNN gleichzeitig beschäfigt sind, dann wird die Performance zwangsläufig nicht gut sein, bedeutet, solche großen Performance Sprünge wie mit Turing wird es nicht geben, da bei Turing die Tensor Cores diese Aufgabe ungeachtet der ALUs übernehmen. Ich kann mir vorstellen, dass die Performance sogar so langsam ist, dass es sich nicht mehr lohnt. Als Referenz, eine 2060 hat bereits über 60 TFLOPS FP16 und 120 INT8 TOPS dank ihren Tensor Cores, das übersteigt die normale Shader Performance einer 5700XT bei weitem.

Du kannst die Modellkomplexität aber auch so sehr reduzieren, dass die Rechenlast auf den Shader Cores nicht mehr so stark ist. Dann leidet die Bildqualität aber deutlich.

robbitop
2020-08-31, 16:39:40
Ich hab die Unterschiede schon verstanden (bzw. umrissen, verstehen ist hier so ne Sache), vielleicht fehlt mir etwas die Fachsprache um das rüber zu bringen.

Das Zitat zeigt, dass das nicht der Fall war:


In der Idee ist es ja super, dass man einem "Neuronales Netz" extrem hoch aufgelöste Daten füttert, es dann "trainiert" diese (ich glaube 16K?) Bilder aus Quellmaterial mit niedrigerer Auflösung wieder aufzubauen.
Das hat auch nichts mit Fachbegriffen zu tun. Du hast 1:1 DLSS 1.0 wieder gegeben.

---------------

Es wird aber trotzdem weiterhin angenähert, was man in vielen Bildern/Videos auch sieht.

Es wird rekonstruiert. Und das ist kein Marketing. Das funktioniert tatsächlich so. Ergebnisse können stark variieren. Je nach dem wie gut die Übergabe der temporalen Daten von der Engine an DLSS 2.0 läuft (bei einigen Spielen gab es da Probleme) und je nach dem wie gut DLSS 2.0 implementiert ist.

DLSS 2.0 ist noch sehr neu und es dauert sicherlich eine Weile, bis das gut implementiert ist. Da ist noch jede Menge Potenzial. Sowohl in der Implementierung als auch im NN als auch im Inferencing. Mit zunehmender (Matritzen) Rechenleistung wird da schon noch was kommen.

Wenn man sich anschaut, was DLSS 2.0 in guten Implementierungen schafft in Relation zu den Leistungseinsparungen ist das schon etwas anderes als Upsampling.

Wenn es einem nur um pure BQ geht, kann man DLSS 2.0 auch für Downsampling nutzen. Z.B 5K@1440p oder 8K@4K.
Es wirkt sich unterm Strich potenziell damit sogar positiv auf die BQ pro TFLOP aus. ;)

y33H@
2020-08-31, 16:44:20
Geh mal die Galerie durch: https://www.golem.de/news/nvidia-dlss-v2-im-test-kuenstliche-intelligenz-kreiert-klasse-kanten-2003-147100.html

AnnoDADDY
2020-08-31, 16:47:58
An sich arbeitet dieses neuronale Netz ähnlich wie unser Gehirn, unser Gehirn baut beim Sehen auch Dinge, welche unsere Netzhaut gar nicht darstellen kann. Stichwort: Blinder Fleck. Normalerweise funktioniert das sehr gut, allerdings kann man auch diese Rekonstruktion entlarven.

w0mbat
2020-08-31, 16:50:54
Geh mal die Galerie durch: https://www.golem.de/news/nvidia-dlss-v2-im-test-kuenstliche-intelligenz-kreiert-klasse-kanten-2003-147100.html
TSSAA sucks :freak:

x-force
2020-08-31, 16:52:59
@robbi

mit technischem hintergrund brauchst du doch gar nicht kommen, solange es schon am erkennen, sprich der verarbeitung und auswertung der informationen des auges, scheitert :freak:

was ich in #339 vor einigen seiten gezeigt habe, kann man schlicht nicht wegreden. bei ganz wenigen scheitert es aber etwas tiefer im eigenen neuronalen netz aka hirn.

w0mbat
2020-08-31, 16:56:38
Ja, wenn man schlechtes temporales AA als Vergleich nimmt sieht DLSS in manchen Situationen ganz OK aus. Vielleicht solltest du diese Erkenntnis mal in dein eigenens neuronales Netz trainieren? :ugly:

robbitop
2020-08-31, 16:57:38
TSSAA sucks :freak:
Das sind stark vergrößerte Screenshots. Ohne TSSAA sieht man noch mehr Aliasing.

w0mbat
2020-08-31, 16:59:10
Es geht nicht um das AA, es geht um Schärfe/Details.

Dampf
2020-08-31, 17:02:52
Es geht nicht um das AA, es geht um Schärfe/Details.

Das TSAA der Id tech engine wird aber von vielen hochgelobt und sieht besser aus als das TAA in den meisten Games.

Noch dazu schärft die Engine in allen AA Arten außer DLSS selbst nach, also besser geht's nun echt nicht.

AnnoDADDY
2020-08-31, 17:06:10
Was nützt dir Schärfe und Details wenn das Bild flimmert wie verrückt? DSSL 2.0 bringt deutlich höhere Bildruhe als nativ mit meistens mehr an Details und Schärfe bei höherer Bildqualität. Trainiere da vllt mal dein Neuronales Netz oder bring bitte Beispiele die über diese komische Pyramiden in Control hinaus geht was Details angeht. Perfekt ist DLSS natürlich nicht aber besser als alles bis jetzt vorhandene wenn man erträgliche Performance möchte.

pixeljetstream
2020-08-31, 17:10:00
Was genau soll überhaupt nativ sein? Das AA was sonst bei Max Details aktiv in nem spiel ist wäre naheliegend oder? Bei manchen klingt es eher wie ein Wunsch nach super high dpi Display und dann ohne AA Technik in der Software, wieviel dpi sind das dann?

w0mbat
2020-08-31, 17:13:52
Naja, optimal wäre 4K+ ohne blurr AA. Die Realität sieht anders aus, deshalb ist DLSS ja so interessant.

Dampf
2020-08-31, 17:21:13
Naja, optimal wäre 4K+ ohne blurr AA. Die Realität sieht anders aus, deshalb ist DLSS ja so interessant.

Wie sieht's denn mit 1440p aus? Da hab ich dir ja schon ein Vergleich ohne AA gezeigt.

Aber 4K ohne AA auf einem 25 Zoll Monitor würde bestimmt gut aussehen, da hast du schon recht.

w0mbat
2020-08-31, 17:22:13
Aha, hast du mir? Die, wo DLSS wie 480p aussah?

y33H@
2020-08-31, 17:24:11
4K ohne AA (auf 27 oder drüber) ist Flimmerhölle, danke nein.

Dampf
2020-08-31, 17:29:30
Aha, hast du mir? Die, wo DLSS wie 480p aussah?

Hä? Du sagtest mir doch, das Bild von Wolfenstein sehe sogar noch gut aus. Dort hab ich TSAA, DLSS und ohne AA verglichen.

Edit: hier https://imgsli.com/MjA5NTg/0/1

Wo jetzt die 480p herkommen musst du mir erklären.

w0mbat
2020-08-31, 18:40:04
Achso, das Bild mit dem schlechten AA. Wenn du schon die Kirschen pflückst, was ist mit dem Control Wappen?

Timbaloo
2020-08-31, 19:21:27
Du kannst in dem Link von 8xTSSAA auf No AA umstellen

:facepalm:

aufkrawall
2020-08-31, 19:29:31
Aber 4K ohne AA auf einem 25 Zoll Monitor würde bestimmt gut aussehen, da hast du schon recht.
Hatte es schon selbst auf 27" in Aktion und so viel feiner wird es mit 25" dann auch nicht mehr.
4k ohne brauchbares AA sieht überhaupt nicht gut aus, da zieh ich 1440p mit dem TSSAA von Doom Eternal ohne zu zögern vor.

Gast
2020-08-31, 20:15:37
Stimmt, es ist upsampling. Und das sieht man auch. Ich habe bisher in jedem auch so tollen Review noch niemals ein Bild oder Video gesehen, das mehr Details aufweist als der native Vergleich.


1. Native Auflösung
https://i.imgur.com/WP1NLDu.jpg

2. Native Auflösung mit max ingame sharpening
https://i.imgur.com/CsKGYA0.jpg

3. DLSS @ Default Sharpening
https://i.imgur.com/w7zoaY6.jpg

Wie man sieht hat das DLSS Bild mit Abstand die meisten Details.
Die Schnur/das Kabel an dem die kleinen roten Fähnchen hängen sind im nativen ab der 2. Reihe nicht mehr erkennbar.
Auch voll aufgedrehtes Sharpening bringt da nur Artefakte und keine zusätzlichen Details, wie auch nicht anders zu erwarten war, reines Sharpening kann keine Details erzeugen nur schon vorhandene Details betonen.

Im DLSS Bild ist das Seil bis zur vorletzten Reihe klar erkennbar, und auch in der letzten Reihe noch zu erahnen.

Wie man sieht hat das DLSS Bild deutlich mehr ECHTE Details. Die Starke Kompression von Ingur unterschlägt leider einen großen Teil des Vorteils, keine Details lassen sich nun mal besser komprimieren als viele Details. Real ist der DLSS Vorteil noch deutlich Größer als auf diesen Screenshots zu erkennen ist.

Was am Ende auch kein Wunder ist wenn man sich mal ansieht wie DLSS funktioniert, das Rendert nämlich Quasi mit 4x4SSAA. Also selbst mit der Quality-Einstellung die im Verhältnis zur eingestellten Auflösung jede Achse halbiert wird effektiv immer noch ein Bild mit 2x2SSAA berechnet.

Gast
2020-08-31, 20:22:54
Und je nachdem, wie fein Geometrie ist, ist der Unterschied immens:
https://i.ibb.co/JdxTS6L/Wolfenstein-Youngblood-Screenshot-2020-01-19-13-17-34-26.png (https://ibb.co/JdxTS6L) https://i.ibb.co/Fk1sRmJ/Wolfenstein-Youngblood-Screenshot-2020-01-19-13-18-06-31.png (https://ibb.co/Fk1sRmJ)

Hier sieht man auch vollkommen Objektiv, dass im DLSS-Bild viel mehr Details vorhanden sind.

Beides PNGs, also verlustfrei komprimiert und das DLSS Bild ist fast doppelt so groß, ganz einfach weil sich mehr Details weniger stark ohne Verluste komprimieren lassen.

Gast
2020-08-31, 21:08:21
Aber 4K ohne AA auf einem 25 Zoll Monitor würde bestimmt gut aussehen, da hast du schon recht.

Nicht wirklich, 4k ohne AA würde auf einem Handymonitor von 6-7" gut aussehen.

Geldmann3
2020-09-01, 14:34:07
Ich stimme meinen beiden Vorrednern zu.
Das DLSS-Bild arbeitet am meisten hochfrequente Details heraus.

Natives 4k auf 25 Zoll sieht gut aus, aber es flimmert und aliased eben noch immer deutlich.

Natives 4k Rendering auf einem Smartphone sieht dagegen perfekt aus.

Dampf
2020-09-01, 14:36:44
Schöner Post von Gast, da sieht man es perfekt!

w0mbat
2020-09-01, 15:05:19
Wow, in einem Spiel das niemand spielt, wo das default AA kaputt ist, kann DLSS in bestimmten Szenen ähnlich gut aussehen. Control ignoriert man da lieber :ugly:

aufkrawall
2020-09-01, 15:07:47
Äh, es ist genau umgekehrt: Das TSSAA in idTech ist sehr gut, das in Control Schrott.
Ich weiß, dass CB zum AA in Wolf YB meinte, es wär schlecht. CB-Wolfgang schreibt aber leider ständig so einen kompletten Müll.

w0mbat
2020-09-01, 15:09:51
Genau, es ist immer umgekehrt, wenn es der eigenen Meinung wiederspricht.

Machen wirs einfach so: du spielst einfach mit upsampling und erfreust dich an den Artifakten Details :)

y33H@
2020-09-01, 15:10:56
Ich weiß, dass CB zum AA in Wolf YB meinte, es wär schlecht. CB-Wolfgang schreibt aber leider ständig so einen kompletten Müll.Ich fürchte du irrst:
Die Kantenglättung TSSAA (8TX) ist sehr gut

Gleich sechs verschiedene Kantenglättungsoptionen stehen im Spiel zur Verfügung. Doch anstatt diese umfangreich auszuprobieren, sollte einfach sofort die höchste Stufe TSSAA (8TX) ausgewählt werden. Denn diese bietet nicht nur eine gute Geometrie-Glättung, sondern auch eine gute temporale Komponente, die das Flackern von Oberflächen effektiv verhindert.
https://www.computerbase.de/2019-07/wolfenstein-youngblood-benchmark-test/

Achill
2020-09-01, 15:15:29
Schöner Post von Gast, da sieht man es perfekt!

Neben der starken JPG-Kompression scheinen die Bilder von Gast aus diesem Redit-Post zu kommen: https://www.reddit.com/r/gaming/comments/emy2yt/the_state_of_nvidias_dlss_now/

Der Redit-User heißt "u/dampflokfreund" ... Zufälle gibt es aber auch, nicht war Dampf?

aufkrawall
2020-09-01, 15:21:48
Ich fürchte du irrst:

https://www.computerbase.de/2019-07/wolfenstein-youngblood-benchmark-test/
Hast recht, mea culpa.
Er schreibt trotzdem ständig Mist, jüngst etwa
Nun beherrscht die History Edition endlich DirectX 10 und DirectX 9 lässt sich nicht mal mehr per .ini-Eintrag erzwingen.
https://www.computerbase.de/2020-08/anno-1404-history-collection-patch-benchmark-test/
Hatte es noch vorgestern mit DX9 am Laufen...

robbitop
2020-09-01, 15:59:05
Ich empfinde das id Tech TSSAA auch als sehr gut. Kein Wunder - stammt von Tiago Sousa - er ist praktisch der Erfinder des temporalen Anti Aliasing.

Allerdings ghostet es in Bewegung ein wenig.

Dampf
2020-09-01, 16:06:25
Neben der starken JPG-Kompression scheinen die Bilder von Gast aus diesem Redit-Post zu kommen: https://www.reddit.com/r/gaming/comments/emy2yt/the_state_of_nvidias_dlss_now/

Der Redit-User heißt "u/dampflokfreund" ... Zufälle gibt es aber auch, nicht war Dampf?

Ja, die hab ich aber auch von diesem Forum entnommen, weil es die erhöhte Detaildichte sehr gut zeigt. Der Beitrag hat der Gast schon mal gepostet, weiß aber nicht mehr in welchem Thread.

Ich hab die Screenshots nicht aufgenommen.

aufkrawall
2020-09-01, 16:09:41
Allerdings ghostet es in Bewegung ein wenig.
Konnte ich in Doom Eternal nicht mehr feststellen, anders als noch in Doom oder Wolf 2 (YB nicht gespielt).

robbitop
2020-09-01, 16:54:08
Interessant - Eternal kenne ich noch nicht. Scheint die Heuristik besser geworden zu sein. Wobei das auch immer stark vom Content abhängig zu sein scheint.

aufkrawall
2020-09-01, 16:59:36
Ja. In den älteren Spielen war das Ghosting extrem, wenn man die Waffe im Viewport vor bestimmten Mustern wie dunkelgraue Teppiche bewegte. Ich hab Eternal nur bis ca. zur Hälfte gespielt, aber so etwas ließ sich trotz ähnlichen Contents überhaupt nicht mehr provozieren.

Gast
2020-09-01, 19:18:45
Neben der starken JPG-Kompression scheinen die Bilder von Gast aus diesem Redit-Post zu kommen: https://www.reddit.com/r/gaming/comments/emy2yt/the_state_of_nvidias_dlss_now/

Nicht wirklich, die kommen zufälligerweise aus einem 3DCenter-posting:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12188504&postcount=1059

Geldmann3
2020-09-02, 02:41:32
DLSS kann jetzt in beliebigen, dynamischen Auflösungen rendern: https://news.developer.nvidia.com/new-features-to-dlss-coming-to-nvidia-rtx-unreal-engine-4-branch/

Ich kann mir vorstellen, dass man in einigen Jahren Wunschauflösung und Framerate einstellen kann, DLSS macht dann im Hintergrund Magie und man erreicht das scheinbar.

Natürlich stört mich das als Enthusiast, da die Leute mit langsamen Grafikkarten ja gar nicht mehr merken, dass sie langsame Grafikkarten haben. ;)
Sie haben dann nur unbewusst eine niedrigere, interne Renderauflösung.

Hell, wie stellt man dann die Benchmarkbalken dar, um zu zeigen, wie toll die neuesten Karten sind?

Rooter
2020-09-02, 07:26:51
Hell, wie stellt man dann die Benchmarkbalken dar, um zu zeigen, wie toll die neuesten Karten sind?Man wird DLSS ja hoffentlich weiterhin abschalten können.

MfG
Rooter

dildo4u
2020-09-02, 08:48:14
8k DLSS in Watch Dogs 3.


https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/geforce-rtx-3090-8k-hdr-gaming/watch-dogs-legion-geforce-rtx-comparison-screenshot-001-8k.jpg

https://www.nvidia.com/en-us/geforce/news/geforce-rtx-3090-8k-hdr-gaming/

Geldmann3
2020-09-02, 09:05:01
Wow, der neue ,,Ultra-Performance-Mode" scheint optisch nativen TAA-Rendering gleichzukommen, muss für ein 8k-Bild allerdings nur noch in 1440p rendern- Für 4k würde das nur noch ein internes 720p Bild erfordern. Für 1080p reichen dann interne 360p.

Ich würde für 8k noch immer interne 4k präferieren, doch es ist besser als die Ausgabeauflösung auf unter 8k zu senken....

Ich hoffe doch, dass es sich auch in Zukunft immer deaktivieren lässt, auch wenn es kurzfristig in den meisten Usecases, in meinen Augen, kaum Sinn macht.

Sardaukar.nsn
2020-09-02, 09:15:47
DLSS kann jetzt in beliebigen, dynamischen Auflösungen rendern: https://news.developer.nvidia.com/new-features-to-dlss-coming-to-nvidia-rtx-unreal-engine-4-branch/

Ich kann mir vorstellen, dass man in einigen Jahren Wunschauflösung und Framerate einstellen kann, DLSS macht dann im Hintergrund Magie und man erreicht das scheinbar.

Natürlich stört mich das als Enthusiast, da die Leute mit langsamen Grafikkarten ja gar nicht mehr merken, dass sie langsame Grafikkarten haben. ;)
Sie haben dann nur unbewusst eine niedrigere, interne Renderauflösung.

Hell, wie stellt man dann die Benchmarkbalken dar, um zu zeigen, wie toll die neuesten Karten sind?

Danke, finde ich sehr spannend.

Daredevil
2020-09-02, 09:19:04
8k DLSS in Watch Dogs 3.


https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/geforce-rtx-3090-8k-hdr-gaming/watch-dogs-legion-geforce-rtx-comparison-screenshot-001-8k.jpg

https://www.nvidia.com/en-us/geforce/news/geforce-rtx-3090-8k-hdr-gaming/
Was wurde ich noch ausgelacht vor ner Woche, als ich 8K angesprochen habe. :D
Das sei ja „ ne Nische“ und „erst in 2-3 Generationen soweit“ , allgemein „ viel zu fordernd“.
Joa, oder auch nicht.

00-Schneider
2020-09-02, 09:23:16
Was wurde ich noch ausgelacht vor ner Woche, als ich 8K angesprochen habe. :D
Das sei ja „ ne Nische“ und „erst in 2-3 Generationen soweit“ , allgemein „ viel zu fordernd“.
Joa, oder auch nicht.


Ich glaube die Aussagen bezogen sich auf native 8K. ;)

Argo Zero
2020-09-02, 09:30:49
Hat AMD eigentlich irgendwas vergleichbares in der Planung?
Frage, weil ich wegen dem OS (Hacki MacOS) keine NV Treiber habe aber das Feature klingt schon sehr nice.

Daredevil
2020-09-02, 09:48:15
Ich glaube die Aussagen bezogen sich auf native 8K. ;)
Und auch da ist es kein Ding der Unmöglichkeit.
Solche Aussagen kommen ja meist eh nur von Leuten, die noch nie "zuviel Leistung" gehabt hatten, so das man echt mal auf 8K schaltet, ich kann es ihnen ja nicht mal verübeln.

Ich erkläre dir mal, wie ich das mache.
Meine ZielFPS sind 118fps, da max 120hz und Gsync.
Ich starte das spiel zuerst in WQHD, sehe feste 118fps und wechsel dann immer weiter die Auflösung, bis es keine fixe 118fps mehr sind. Da lande ich jetzt schon oft bei 6k, 8k ist da nicht mehr weit weg und Ampere bietet den Speed an.
Sowas lernt man aber erst, wenn man "zuviel" Leistung im Rechner stecken hat.

Mit DLSS ist das spielend einfach.

Dampf
2020-09-02, 10:49:00
DLSS kann jetzt in beliebigen, dynamischen Auflösungen rendern: https://news.developer.nvidia.com/new-features-to-dlss-coming-to-nvidia-rtx-unreal-engine-4-branch/

Ich kann mir vorstellen, dass man in einigen Jahren Wunschauflösung und Framerate einstellen kann, DLSS macht dann im Hintergrund Magie und man erreicht das scheinbar.

Natürlich stört mich das als Enthusiast, da die Leute mit langsamen Grafikkarten ja gar nicht mehr merken, dass sie langsame Grafikkarten haben. ;)
Sie haben dann nur unbewusst eine niedrigere, interne Renderauflösung.

Hell, wie stellt man dann die Benchmarkbalken dar, um zu zeigen, wie toll die neuesten Karten sind?

Dynamische Auflösung mit DLSS das ist ja wunderbar. Dann hat man immer perfekte Performance und durch die hervorragende Arbeit von DLSS wird man nicht mal bemerken, wenn die Auflösung runtergeht.

Das bedeutet theoretisch auch, dass man nun VRS in Kombination mit DLSS nutzen kann, für noch einen größeren Performance und Effizienz-Boost, da die interne Render-Auflösung nicht statisch sein muss (musste sie aber vorher auch nicht, oder? Keine Ahnung).

Also das ist nun wirklich ein Game-Changer. Dynamic Resolution gabs ja schon auf den Konsolen, aber da hat man doch immer bemerkt, wenn die Auflösung zugunsten der Performance gedroppt wurde. Der PC hat nun das Feature mit DLSS kombiniert und so quasi die perfekte Waffe gegen FPS-Drops erschaffen.

Geldmann3
2020-09-02, 15:57:19
Doch, ich meine die interne Renderauflösung musste vorher statisch sein.

Ja, das ist in der Tat ein Gamechanger, wenn es entsprechend breit adaptiert wird. DLSS funktioniert nur Artefaktfrei, wenn ein Spiel von Anfang an mit DLSS 2.0 ,,in mind" entwickelt wurde. Vor allem braucht jedes Objekt auch möglichst Motion-Vektoren. Selbst sowas blödes wie 2D-Videohintergründe und Partikel oder es muss eben anders gelöst werden. Z.b. könnte man Partikel in der Render-Pipeline nach DLSS 2.0 applizieren, wie Post-Processing.

Ich schätze auch deshalb ist Horizon Zero Dawn ungeeignet für DLSS. Zu viel sich wild bewegende Vegetation, deren Samples schwer von Frame zu Frame an die richtige Stelle übertragen werden können. Eventuell geht es, wenn man das nächste Spiel von Anfang an daraufhin optimiert. Minecraft ist das genaue Gegenteil und daher ein Paradebeispiel für DLSS. Alles statisch und daher jede Pixelbewegung sehr vorhersehbar.

Tobalt
2020-09-02, 20:27:20
Dampf ich finde die Entwicklung mit DLSS auch spannend aber beim Thema FPS Drops vergisst du, dass die auch mal gern von der CPU oder RAM ausgehen.

Was DLSS auf jeden fall beweist, ist, dass es künftig noch zwingender notwendig wird fur engines einen guten Multicore support zu bieten um das CPU Limit jenseits von 200 fps zu halten.

Bzgl motion Vektoren: Ja toll wäre es. aber Ziel der GPU Hersteller muss es sein, das gerade nicht zwingend vorauszusetzen oder zumindest nicht für jedes objekt. Mit neural nets kann man doch sicher auch die Bewegung lokal nach objekt bestimmen, etwa so wie bei zwischenbildberechnung.

pixeljetstream
2020-09-02, 21:12:16
Bzgl motion Vektoren: Ja toll wäre es. aber Ziel der GPU Hersteller muss es sein, das gerade nicht zwingend vorauszusetzen oder zumindest nicht für jedes objekt. Mit neural nets kann man doch sicher auch die Bewegung lokal nach objekt bestimmen, etwa so wie bei zwischenbildberechnung.
Warum hw auf etwas schmeißen um etwas umständlich rückzugewinnen, was jede moderne Engine eh berechnen wird.

00-Schneider
2020-09-02, 21:30:03
Und auch da ist es kein Ding der Unmöglichkeit.
Solche Aussagen kommen ja meist eh nur von Leuten, die noch nie "zuviel Leistung" gehabt hatten, so das man echt mal auf 8K schaltet, ich kann es ihnen ja nicht mal verübeln.

Ich erkläre dir mal, wie ich das mache.
Meine ZielFPS sind 118fps, da max 120hz und Gsync.
Ich starte das spiel zuerst in WQHD, sehe feste 118fps und wechsel dann immer weiter die Auflösung, bis es keine fixe 118fps mehr sind. Da lande ich jetzt schon oft bei 6k, 8k ist da nicht mehr weit weg und Ampere bietet den Speed an.
Sowas lernt man aber erst, wenn man "zuviel" Leistung im Rechner stecken hat.

Mit DLSS ist das spielend einfach.


Control läuft bei dir also mit allen RT-Effekten mit 118fps? Welche Ursprungsauflösung fährst du da? 480p?

Gast
2020-09-02, 22:02:18
Bzgl motion Vektoren: Ja toll wäre es. aber Ziel der GPU Hersteller muss es sein, das gerade nicht zwingend vorauszusetzen oder zumindest nicht für jedes objekt. Mit neural nets kann man doch sicher auch die Bewegung lokal nach objekt bestimmen, etwa so wie bei zwischenbildberechnung.


Jedes Spiel erhält so lange es sich im 3D-Space bewegt eh die Moition-Vektoren "for free".

Wieso diese umständlich "erraten" was das Spiel eh mit 100%iger Genauigkeit liefern kann?

Das war wohl eher das Problem von DLSS 1.0 (wobei es für die genaue Funktionalität davon meines Wissens keine öffentlichen Informationen abseits "berechne das Bild offline mit 4x4SSAA und mach "Magic") gibt.

DLSS 2.0 ist viel mehr konventionelles TAA, und setzt das NN nur mehr dort ein wo TAA versagt.

Raff
2020-09-02, 22:34:35
8k DLSS in Watch Dogs 3.

https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/geforce-rtx-3090-8k-hdr-gaming/watch-dogs-legion-geforce-rtx-comparison-screenshot-001-8k.jpg

https://www.nvidia.com/en-us/geforce/news/geforce-rtx-3090-8k-hdr-gaming/

Ich finde ja die Benchmarks geil. 8 Fps (ja, acht) mit einer RTX 3090 ohne DLSS. Mit DLSS dann 57 Fps. Wenn wir hier nicht von einer 24-GiByte-Grafikkarte sprächen, würde ich sagen, dass der Speicher voll ist. 33 Millionen Pixel pro Frame sind aber derart krank (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Praxistest-Super-High-Resolution-1281392/), dass das verständlich ist. Control ist eines der grafiklimitiertesten Spiele derzeit. Schade, dass Nvidia es erneut versäumt, einen Modus für die Aufwertung nativer Auflösungen einzuführen. Stattdessen gibt es den "Ultra Performance"-Modus, der die interne Auflösung neuntelt. Ok, in 8K und spätestens 16K ist das schon nett. Grmpf, ich muss stark sein. :ugly:

MfG
Raff

Dampf
2020-09-02, 22:35:46
Das erinnert mich: DF sprach in dem neuen Video davon, dass man mit den Tensor Cores ein AI Motion Interpolations NN machen könnte, das die fehlenden Zwischenframes quasi einfügt und rekonstruiert. Sowas ähnliches gibts ja auf manchen Fernsehern, aber AI würde diese Technik auf die nächste Stufe heben. Das wäre dann ein DLSS für die FPS sozusagen.

So hätte man dann mit 30 FPS plötzlich 60 FPS und aus 60 FPS wird 120 FPS. Wenn das so gut funktioniert, dass es keine Artefakte gibt und wie echte Bildinformation aussieht, könnte das doch wieder der nächste Hammer von Nvidia werden. Eventuell funktioniert sowas ja auch dann in jedem Spiel (kenn mich da nicht aus)

Wäre das möglich? Der einzige Nachteil den DF da sieht ist die Latenz, da der AI Zwischenschritt diese hinzufügt, so hätte man zwar das Bild von 60 FPS aber die Eingabelatenz wäre immer noch gefühlt wie 30 FPS.

Wenn das so ist, dann könnte man diese Technik doch mit der neuen Nvidia Reflex Technologie kombinieren um so die Latenzen wieder auszugleichen.

Aber wahrscheinlich spinn ich nur rum :D

N0Thing
2020-09-02, 22:40:00
Control ist eines der grafiklimitiertesten Spiele derzeit.

Benchmarks zu Quantum Break ohne das interne Upsampling wären eigentlich auch ganz nett für die neue Generation von AMD und Nvidia. :naughty:

Troyan
2020-09-02, 23:45:30
Schade, dass Nvidia es erneut versäumt, einen Modus für die Aufwertung nativer Auflösungen einzuführen. Stattdessen gibt es den "Ultra Performance"-Modus, der die interne Auflösung neuntelt. Ok, in 8K und spätestens 16K ist das schon nett. Grmpf, ich muss stark sein. :ugly:

MfG
Raff

Output ist optimiert für 8K. Das Zielbild ist also nicht mehr 4K und wird dann "hochskaliert" wie jetzt. Ergo macht DSR noch mehr Sinn als vorher.

Geldmann3
2020-09-03, 02:52:27
Ich habe ja die böse Befürchtung dass ,,Optimiert für 8k" bedeutet, dass es unter niedrigeren Auflösungen schlecht aussehen würde, wenn man eben nur in 1/9 der Zielauflösung rendert, es bei 8k aber einfach nicht so auffällt, weil die Pixel so klein im Verhältnis zum Gesamtbild sind.

Nichtsdestotrotz sieht es definitiv besser aus als natives 4k und ist sicher die beste Art das Bild upzuscalen, wenn die Leistung für 1/4 der Renderauflösung nicht mehr reicht und auch eindeutig besser, als die Ausgabeauflösung zu senken.

Wobei, wenn ich darüber nachdenke, kommt es sicher noch immer an natives 8k mit SMAA heran, was ich gerade in GTA IV verwende und fast perfekt aussieht.

Wex
2020-09-03, 03:51:38
Ich bin überrascht dass Nvidia es nicht geschafft hat DLSS retroaktiv über alle Spiele aktivieren zu können.

Reaping_Ant
2020-09-03, 04:42:22
Bei der derzeitigen Funktionsweise von DLSS2.0 wüsste ich nicht, wie das gehen soll. Schließlich ist DLSS ja kein Postprocessing sondern nutzt Informationen über die aktuelle Bewegungsrichtung der einzelnen Objekte. Wenn das Spiel dem neuralen Netz diese Informationen nicht zur Verfügung stellt, dann kann man nur auf die Informationen im fertigen Bild, oder bestenfalls in irgendwelchen Buffern, zugreifen. Man könnte jetzt natürlich daraus wieder versuchen, die Bewegungsinformationen zu rekonstruieren, aber das führt dann wohl zwangsläufig zu mehr Artefakten. Alternativ könnte man auch ohne diese Informationen arbeiten, z.B. mit Subpixel-Jitter und anschließender Rekonstruktion durch das neurale Netz, aber ich bezweifle, dass das eine vergleichbare Qualität in bewegten Szenen liefert.

Meiner Einschätzung nach ist das beste, was NV im Moment machen kann, es den Entwicklern so einfach wie möglich zu machen, DLSS zu implementieren. Wenn Navi 2x eine ähnliche Funktion bietet, wird sich hoffentlich schnell ein herstellerübergreifender Standard etablieren, der dann auch zügig Verbreitung findet. Zusammen mit anderen Technologien wie variable rate shading, kommen wir dann hoffentlich bald von der "brute force" Rasterisierung weg zu einer intelligenteren Nutzung der zur Verfügung stehenden Rechenleistung.

Gouvernator
2020-09-03, 05:38:26
Ich finde ja die Benchmarks geil. 8 Fps (ja, acht) mit einer RTX 3090 ohne DLSS. Mit DLSS dann 57 Fps. Wenn wir hier nicht von einer 24-GiByte-Grafikkarte sprächen, würde ich sagen, dass der Speicher voll ist. 33 Millionen Pixel pro Frame sind aber derart krank (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Praxistest-Super-High-Resolution-1281392/), dass das verständlich ist. Control ist eines der grafiklimitiertesten Spiele derzeit. Schade, dass Nvidia es erneut versäumt, einen Modus für die Aufwertung nativer Auflösungen einzuführen. Stattdessen gibt es den "Ultra Performance"-Modus, der die interne Auflösung neuntelt. Ok, in 8K und spätestens 16K ist das schon nett. Grmpf, ich muss stark sein. :ugly:

MfG
Raff
Ab 8K kannst du das Bild nicht mehr wirklich durch 3D Rendering aufwerten. Die einzige wirkungsvolle Methode da wirklich was zu verbessern ist Bewegtbildschärfe durch BFI auf Monitorseite. Ich habe in Battlefield 2 so gut wie alles schon in 8K getestet. Bester 8K Modus nach dem 8K BFI ist eigentlich Downsampling auf 4K mit 120Hz. Ich nehme an das geht bei NV offiziell in diese Richtung 8K DLSS per Downsampling auf 4K 120Hz.

pixeljetstream
2020-09-03, 09:23:15
... wird sich hoffentlich schnell ein herstellerübergreifender Standard etablieren, der dann auch zügig Verbreitung findet.
An einen richtigen Standard glaube ich nicht. Da wird festgelegt wie jeder Pixel genau auszusehen hat. Es ist einfach zu viel Fortschritt/Veränderung in den Verfahren um da etwas festzuzurren.
Weil auch vorher mit den unzähligen AA Varianten (TSAA Varianten, TXAA, SMAA...) wurde das nie gemacht.
Es ist auch viel Architektur spezifisches drin: hw Fähigkeiten und Wahl des Algorithmus beeinflussen sich da.l gegenseitig.

IMO reicht es aus wenn aus Entwickler Sicht die Integration relativ ähnlich ist. Vielleicht wird es auch eine offene Implementierung geben, wobei ich wegen der Kosten und der HW Architektur nicht so daran glaube. Die Theorie dass MS, Sony, große Publisher etwas ähnliches für ihre Platform/Titel bauen halte ich für wahrscheinlicher.

herbert_
2020-09-03, 10:18:04
Wenn ich AMD wäre, würde ich es in GPU Open spezifizieren und soweit fest zurren, dass nur noch die implementation details übrig bleiben. Da könnte dann Nvidia ihre Black Box rein machen. :biggrin:

Reaping_Ant
2020-09-03, 11:09:57
An einen richtigen Standard glaube ich nicht. Da wird festgelegt wie jeder Pixel genau auszusehen hat.
OK, vielleicht ist Standard der falsche Begriff. Ich stelle mir hier eine Art API vor, die definiert, welche Daten (Bewegungsvektoren etc.) die Engine in welchem Format liefern muss. Die konkrete Implementierung, wie aus diesen Daten dann das endgueltige Bild generiert wird darf dann gerne dem Hersteller ueberlassen sein. Das haette den Vorteil, dass NV, AMD und Intel noch genug Moeglichkeiten haben, sich durch Bildqualitaet und Performance zu differenzieren, die Spieleentwickler es aber nur einmal implementieren muessen. Im Idealfall koennten sogar aeltere Spiele direkt von Verbesserungen der Technologie profitieren, ohne dass sie erneut angepasst werden muessen.

Aus Konsumentensicht vermeidet man damit so unschoene Situationen wie "Spiel A unterstuetzt nur das Verfahren von Hersteller B; mit Hersteller C gibt's nur Postprocessing-AA". Im Moment ist das natuerlich noch kein Problem weil es halt nur DLSS oder gar nichts gibt. Aber es waere sehr schade, wenn man in seinem Lieblingstitel auf diese an sich extrem sinnvolle Technologie verzichten muesste, nur weil man die GPU beim "falschen" Hersteller gekauft hat.

Ich muss aber zugeben, ich stecke nicht tief genug in der Materie drin um beurteilen zu koennen ob das realistisch und praktikabel ist.

pixeljetstream
2020-09-03, 11:29:33
Imo ist das fast erreicht wenn die Unterschiede der Inputs eben nicht zu groß sind. Ich wage auch zu vermuten daß andere sich an DLSS orientieren werden was Integration angeht. Das ist quasi dann nicht offiziell ein Standard aber warum sollte man sich nicht daran orientieren. Ich sehe es relativ unkritisch und unkompliziert, weil das was von der engine will/wo es eingefügt wird ist ja nicht hochgradig speziell IMO. Und es ist ja auch durch die GTC Präsentation öffentlich.

Armaq
2020-09-03, 12:11:00
https://youtu.be/YWIKzRhYZm4?t=382

Die Stelle illustriert wunderbar was DLSS kann und was nicht. 4k DLSS ist besser als kein 4k, aber 4k nativ ist immernoch deutlich drüber.

Dampf
2020-09-03, 12:13:27
https://youtu.be/YWIKzRhYZm4?t=382

Die Stelle illustriert wunderbar was DLSS kann und was nicht. 4k DLSS ist besser als kein 4k, aber 4k nativ ist immernoch deutlich drüber.

Ja, das sind aber Sharpening Artefakte, die habens damit in Control ziemlich übertrieben.

Screemer
2020-09-03, 12:26:17
hier (https://youtu.be/YWIKzRhYZm4?t=473)sieht man auch ringing am rand des gesichts? ein dlss artefakt? das stört mich jetzt deutlich mehr als die weiche Gesichtstextur.

N0Thing
2020-09-03, 13:09:12
Wobei man in der Regel nicht mit 4 oder 8-facher Vergrößerung durch den Level wandert. ;)
Sofern es sich nicht als Flackern bemerkbar macht, scheint man die Artefakte und Fehler während des Spielens selber gar nicht zu bemerken.

Tobalt
2020-09-03, 17:38:36
Jedes Spiel erhält so lange es sich im 3D-Space bewegt eh die Moition-Vektoren "for free".

Wieso diese umständlich "erraten" was das Spiel eh mit 100%iger Genauigkeit liefern kann?

[...]

DLSS 2.0 ist viel mehr konventionelles TAA, und setzt das NN nur mehr dort ein wo TAA versagt.

Wieso versagt TAA, wenn die Motion Vektoren 100% genau sind ? (Keine rhetorische Frage, interessiert mich wirklich)

Hott3X
2020-09-03, 17:53:29
Wird DLSS 2.1 eigentlich auch auf Turing laufen?

wolik
2020-09-03, 18:13:16
Schade, dass Nvidia es erneut versäumt, einen Modus für die Aufwertung nativer Auflösungen einzuführen. Stattdessen gibt es den "Ultra Performance"-Modus, der die interne Auflösung neuntelt. Ok, in 8K und spätestens 16K ist das schon nett. Grmpf, ich muss stark sein. :ugly:

MfG
Raff
Irgendwie, bei mir lief das Spiel (Control) mit DLSS und DLSS Auflösung in 4K. Ich könnte kein Qualität Verbesserung feststellen.
DLSS (1440p) in Control hat paar Fehler, aber die sind ganz winzig.

https://youtu.be/YWIKzRhYZm4?t=382

Die Stelle illustriert wunderbar was DLSS kann und was nicht. 4k DLSS ist besser als kein 4k, aber 4k nativ ist immernoch deutlich drüber.
Bei FFXV war das Fall, bei Control ich könnte Unterschied nicht mehr feststellen. (65" 1m abstand). Ausser paar Fehler, schmierende Kanten (kaum zu sehen) , und flackernde Gegenstände in Videos.

ich muss stark sein. :ugly:

MfG
Raff

eine von schönste Erinnerungen... kauf (bei Saturn) Voodoo 5500 :biggrin: Sei ein Mann, werde schwach

Digidi
2020-09-03, 18:16:00
DLS bring ja einen guten Performance gewinn. Ich frage mich wenn ich so dinge wie Nanite sehe ob man besser Spezielle Hardware für micro Polygonen oder mehr Schader nicht besser gewesen wäre. Da bekommt man mehr Performance und vie bessere Bilder. Siehe hierzu die Bilder der Nanite 5 Engine:

https://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/laut-Epic-Geometrie-Berechnung-auf-dem-Niveau-von-Fortnite-1353317/