PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erste Tests geben AMDs temporalem Upscaler "FSR 2.0" gute Wertungen


Leonidas
2022-05-13, 13:25:27
Link zur News:
https://www.3dcenter.org/news/erste-tests-geben-amds-temporalem-upscaler-fsr-20-gute-wertungen

Gast
2022-05-13, 13:37:17
Wie zu erwarten, mal besser mal schlechter als DLSS, wobei erst Iteration 2.0, nicht 2.3. Minimal langsamer als DLSS, aber dafür open source und völlig ohne Tensor.

Tja Nvidia? Gsync, Tensor, what??? Wahrscheinlich auch RT Cores überflüssig? Mal wieder Ver*sche pur?

MiamiNice
2022-05-13, 14:03:33
Aber im Laufe der Zeit könnten gerade seitens des Managments der Spiele-Entwickler die strategische Entscheidung gefällt werden, nur noch einen der Upscaler zu unterstützen.

Da auf der Welt weit mehr NV als AMD Karten von Gamer gekauft und genutzt werden - sehe ich hier kein Problem für NV.

Gast
2022-05-13, 14:16:28
Das sehe ich anders, zumindest bei Plattformübergreifenden Spielen. Ich gehe stark davon aus das ähnliches auch für die Konsolen kommt. Wenn für diese Spiele FSR integriert wurde, wird man sich nicht hinsetzten und für die PC-Variante extra auf DLSS umschwenken.

Ätznatron
2022-05-13, 14:17:58
Da FSR 2.0 mittlerweile als "Plugin" für die großen Spieleengines (Unity, Unreal) verfügbar ist und die Spieleentwickler vor allem die Konsolen im Auge haben, sehe ich für FSR keine Probleme, schnell an Verbreitung zu gewinnen.

Was DLSS angeht: Vermutlich auf dem Weg, den G-Sync, Physx, etc. gehen mussten.

Raff
2022-05-13, 14:33:45
Da macht man einmal nur 'ne halbe Nachtschicht und dann gibt's sofort eine Zusammenfassung. Hier noch PCGH mit reichlich Technik-Info und Splitscreen-Videos: https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/Specials/FSR20-Test-vs-dlss-1394934/

Gut Ding, Weile und so. =)

MfG
Raff

Spring
2022-05-13, 14:35:32
Da auf der Welt weit mehr NV als AMD Karten von Gamer gekauft und genutzt werden - sehe ich hier kein Problem für NV.

Und nvidia ist nicht existierend im Konsolen Sektor (Shield ist ja ein Witz von der Stückzahl + Switch ist ein Smartphone Chip, da brauchen wir nicht über DLSS oder FSR reden), AMDs Lösung ist kompatibler.

Ätznatron war schneller, stimme ihm zu.

Das sehe ich anders, zumindest bei Plattformübergreifenden Spielen. Ich gehe stark davon aus das ähnliches auch für die Konsolen kommt. Wenn für diese Spiele FSR integriert wurde, wird man sich nicht hinsetzten und für die PC-Variante extra auf DLSS umschwenken.

So siehts aus.

Raff
2022-05-13, 14:42:15
Btw, ganz ehrlich, mir ist es ein Rätsel, wie angesichts solch eklatanter Unterschiede oft von "nahezu DLSS-Level" gesprochen werden kann:

Q-Modi im Vergleich: https://www.youtube.com/watch?v=cF-rSTAwDJM
P-Modi im Vergleich: https://www.youtube.com/watch?v=PVaToAgVruQ&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G

Sicher, das DLSSmearing lässt sich nicht schönreden, aber alles andere ist viel besser. Insofern "Bestenfalls, mit viel Augenzudrücken, DLSS-Level". Das ist natürlich trotzdem geil für alle Nicht-RTX-Nutzer. =)

MfG
Raff

Lehdro
2022-05-13, 14:46:35
Da auf der Welt weit mehr NV als AMD Karten von Gamer gekauft und genutzt werden - sehe ich hier kein Problem für NV.
Hm, lieber nahezu 100% Marktabdeckung, oder doch nur teilweise? Da entscheidet man sich doch eindeutig für Zweiteres, weil Logik und so. :freak:

DLSS ist damit faktisch ohne gravierenden Vorteil (gemäß dem Fall das die Deathloop Implementation von FSR 2.0 halbwegs repräsentativ ist) abseits der bisherigen Verbreitung - die aber gar kein Argument für die Zukunft ist.
DLSS ist damit tot, wenn da nicht noch deutlich mehr kommt: Entweder Geld für den Spieleentwickler der es einbaut, deutlich leichtere Integration als FSR 2.0 (wer es glaubt) oder halt deutlichere technische Vorteile mit DLSS 3.0. Ansonsten ist das nur noch rausgeschmissenes Geld/Zeit.

Ätznatron
2022-05-13, 14:48:02
Btw, ganz ehrlich, mir ist es ein Rätsel, wie angesichts solch eklatanter Unterschiede oft von "nahezu DLSS-Level" gesprochen werden kann:

Q-Modi im Vergleich: https://www.youtube.com/watch?v=cF-rSTAwDJM
P-Modi im Vergleich: https://www.youtube.com/watch?v=PVaToAgVruQ&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G

Sicher, das DLSSmearing lässt sich nicht schönreden, aber alles andere ist viel besser. Insofern "Bestenfalls, mit viel Augenzudrücken, DLSS-Level". Das ist natürlich trotzdem geil für alle Nicht-RTX-Nutzer. =)

MfG
Raff

Na ja, das ist halt in diesem Fall ein Alleinstellungsmerkmal des PCGH-Tests: Der eher negative Unterton.

Jetzt kann man es sich natürlich leicht machen und Fragen, was alle anderen Tester wohl falsch machen.

Raff
2022-05-13, 14:49:26
Wenn es ein Alleinstellungsmerkmal ist, wirklich die BQ zu beurteilen, anstatt einfach zu feiern, ja, dann ist das exklusiver Content. WTF? Das ist so deutlich, dass die Diskussion irgendwie deplatziert wirkt.

MfG
Raff

Ätznatron
2022-05-13, 14:55:05
Wenn es ein Alleinstellungsmerkmal ist, wirklich die BQ zu beurteilen, anstatt einfach zu feiern, ja, dann ist das exklusiver Content. WTF? Das ist so deutlich, dass die Diskussion irgendwie deplatziert wirkt.

MfG
Raff

Wenn man partout ein Haar in der Suppe finden will, dann findet man es auch.

Die anderen Seiten sind da wohl etwas weniger fixiert ans Werk gegangen.

Leonidas
2022-05-13, 15:08:17
Da macht man einmal nur 'ne halbe Nachtschicht und dann gibt's sofort eine Zusammenfassung. Hier noch PCGH mit reichlich Technik-Info und Splitscreen-Videos: https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/Specials/FSR20-Test-vs-dlss-1394934/

Ich füge es umgehend ein.

Raff
2022-05-13, 15:18:39
Spitze, danke! :up:

MfG
Raff

Lehdro
2022-05-13, 15:28:27
Wenn es ein Alleinstellungsmerkmal ist, wirklich die BQ zu beurteilen, anstatt einfach zu feiern, ja, dann ist das exklusiver Content.
Liegt wohl auch daran das BQ eben doch subjektiv ist. Tim von HWU hat ja auch gemeint das schärfere Bild gefällt ihm persönlich besser, obwohl das nicht jedermanns Sache ist. Ebenso kann es eine Menge Leute geben denen das Shimmering deutlich auf den Senkel geht. Wieder Andere stören die Artefakte von DLSS, oder das Smearing. Da kann man doch als Test eben nicht 100% "objektiv" sein, wenn das Publikum schon so unterschiedlich urteilt.

Ich bin zum Beispiel kein Fan von der "Über"schärfung von FSR die viele so geil finden, allerdings mag ich absolut auch kein Smearing ausstehen. TAA ist mir hingegen schon wieder vieeeeeeel zu soft - ergo ist derzeit nichts für mich drin. Bleibts halt aus, mit einer 6900XT auf 1440p ist sowas auch derzeit kein Zwang.

Ich freu mich einfach nur das es überall in die richtige Richtung geht.

Raff
2022-05-13, 15:29:28
Es gibt immer Leute, denen das "schärfere" Bild besser gefällt. Die gab es sogar bei den furchtbaren, augenzerschneidenden AF-Verbrechen von Nvidia um 2005. "Schärfe" ist oft schlicht Aliasing. Playstation 2, das waren noch Zeiten. MIP-Mapping? Anti-Aliasing? Schnickschnack, der den "Knack" am CRT am Ende doch verwässert. :ulol: ;)

MfG
Raff

Lehdro
2022-05-13, 15:34:40
Es gibt immer Leute, denen das "schärfere" Bild besser gefällt. Die gab es sogar bei den furchtbaren, augenzerschneidenden AF-Verbrechen von Nvidia um 2005. "Schärfe" ist oft schlicht Aliasing.

Hör bloß auf. Kriege ich direkt G70 Flashbacks.

Dann halt die Patentlösung: Mehr Daten, Downsampling. 8k/5k und dann mit FSR 2.0 und DLSS 2.x drauf, da gibt es dann definitiv genug Rohmaterial für eine super Bildqualität. DLDSR ist da der Weg, wird sicherlich mit FSR 2.0 auch möglich sein. Zum Beispiel 5k Auflösung auf einem 1440p Monitor mitsamt FSR 2.0 Quality. Sollte sehr ordentlich aussehen und annehmbar performen.

basix
2022-05-13, 15:34:49
Btw, ganz ehrlich, mir ist es ein Rätsel, wie angesichts solch eklatanter Unterschiede oft von "nahezu DLSS-Level" gesprochen werden kann:

Q-Modi im Vergleich: https://www.youtube.com/watch?v=cF-rSTAwDJM
P-Modi im Vergleich: https://www.youtube.com/watch?v=PVaToAgVruQ&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G

Sicher, das DLSSmearing lässt sich nicht schönreden, aber alles andere ist viel besser. Insofern "Bestenfalls, mit viel Augenzudrücken, DLSS-Level". Das ist natürlich trotzdem geil für alle Nicht-RTX-Nutzer. =)

MfG
Raff

Niemand bestreitet, dass feine Details von DLSS besser ausgearbeitet werden, insbesondere solche Dinge wie die Stromleitungen vor hellem Hintergrund. DLSS benutzt vermutlich einen grösseren History-Buffer als FSR. Mir persönlich gefällt die Bewegungsunschärfe von DLSS ohne manuelles Nachschärfen aber überhaupt nicht, da gehen viele Details verloren. In 4K oder 2880p + DLDSR ist das Problem schon deutlich abgeschwächt (wenn die Performance reicht) aber in 1440p hat mich das immer gestört. Und genau in diesem Aspekt ist FSR mMn überlegen. Wem das leicht verwaschene Bild mit dafür höherer temporaler Stabilität von DLSS besser gefällt, OK. Mir sind höherer Detailreichtum im Grossteil des Bildes wichtiger.

arcanum
2022-05-13, 15:51:19
für mich vor allem fürs konsolengaming interessant. damit kann man mehr leistung in eye candy stecken damit sich die neue gen endlich deutlich von der vorherigen abheben kann.

fondness
2022-05-13, 16:01:46
Btw, ganz ehrlich, mir ist es ein Rätsel, wie angesichts solch eklatanter Unterschiede oft von "nahezu DLSS-Level" gesprochen werden kann:

Q-Modi im Vergleich: https://www.youtube.com/watch?v=cF-rSTAwDJM
P-Modi im Vergleich: https://www.youtube.com/watch?v=PVaToAgVruQ&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G

Sicher, das DLSSmearing lässt sich nicht schönreden, aber alles andere ist viel besser. Insofern "Bestenfalls, mit viel Augenzudrücken, DLSS-Level". Das ist natürlich trotzdem geil für alle Nicht-RTX-Nutzer. =)

MfG
Raff

Warum überrascht es eigentlich niemandem mehr, dass ausgerechnet PCGH wieder Nv vorne sieht und alle anderen das anders sehen?

Raff
2022-05-13, 16:07:41
Niemanden. PCGH ist dafür bekannt, wirklich hinzusehen und zu quälen, in der Regel unter Zuhilfenahme vieler Überstunden. Augen zu und durch war noch nie mein Motto - okay, ertappt, in der Schule schon. :D

MfG
Raff

WedgeAntilles
2022-05-13, 16:19:59
Warum überrascht es eigentlich niemandem mehr, dass ausgerechnet PCGH wieder Nv vorne sieht und alle anderen das anders sehen?

"alle anderen"?
Die hier schon verlinkten HWU zumindest schon mal nicht.
Oder zählen für dich nur deutsche Reviews?

Und ja, natürlich findet auch HWU FSR 2.0 sehr gut. Das ist es ja auch, darum geht es nicht.
Auch PC findet FSR 2.0 ja nicht schlecht.

Leonidas
2022-05-13, 16:24:59
Ein gewisses Maß an abgestufter Meinung ist doch eher vorteilhaft - ansonsten schreibt doch jeder dasselbe, das wäre langweilig.

Gast für AMD
2022-05-13, 16:57:47
Na ja, das ist halt in diesem Fall ein Alleinstellungsmerkmal des PCGH-Tests: Der eher negative Unterton.

Jetzt kann man es sich natürlich leicht machen und Fragen, was alle anderen Tester wohl falsch machen.
Und ihn noch gleich als Gegenbeweis hier ins Forum verlinken (alle anderen sind wieder zu doof richtig zu testen). Kann man mit dieser Schleichwerbung hier im Forum mal aufhören!

Der größte Vorteil an FSR ist, die Entwickler können es ihren Bedürfnissen nach anpassen, sich mit der Funktionsweise auseinandersetzen und es sinnvoll implementieren, nicht dem Nvidia Bedürfnis nach. Du pumpst was in eine "schwarze Box" und wunderst dich was daraus wird. Das letztliche Ergebnis und deren Funktionsweise inbegriffen, kontrolliert allein Nvidia nicht der Entwickler. Daher ist es dann auch schwer, Schwächen im Zusammenspiel mit der eigenen Engine auszumerzen, ist langwirig und zum Haare raufen, wenn man nicht zu den Günstlingen gehört oder man bemüht den kostenpflichtigen Support.

Die Frage stellt sich also gar nicht, was auf lange Zeit für den Großteil besser sein wird und sich verbreiten. Es birgt einfach mehr Freiheiten, nicht nur für Spieler. Nvidia hatte Tensor und Tensor musste irgendwie sinnvoll Arbeit verrichten, ob man es wirklich für sinnvolles und qualitatives Upscaling braucht, die Frage stellte sich nirgends. Es geht also um Auslastung, die seit Turing eine Schwäche der Nvidiaarchitektur ist und man sich dann an dedizierte Techniken binden muss, um eine hohe Auslastung aller verfügbaren Einheiten zu erreichen. Ansonsten verbraten sie sinnlos Energie. DLSS auf Basis von Tensor existiert also nur zum Selbstzweck und genauso wird es von Nvidia auch vermarktet.

Etwas zu hoch für den einen oder anderen! Früher gabs mal eine Community die zusammen stand und Enthusiasten die Trends derr Zukunft prägten weil sie es finanziell können. Sucht man heute vergebens. Heute denkt jeder, weil er eine 1,5 oder 2K GPU kauft, Enthusiast zu sein. Mitnichten, wenn Anerkennung schwer fällt, beim Blick über den Tellerrand des eigenen Mikrokosmus. Leider...:freak:

Virtual
2022-05-13, 17:28:29
Niemanden. PCGH ist dafür bekannt, wirklich hinzusehen und zu quälen, in der Regel unter Zuhilfenahme vieler Überstunden. Augen zu und durch war noch nie mein Motto - okay, ertappt, in der Schule schon. :D

MfG
Raff
Überstunden und Nachtschichten bis zur Qual sind natürlich sehr förderlich für Konzentration und Aufmerksamkeit. Sie schärfen sicherlich den Sinn für das Detail und helfen kleinste Unterschiede zu erkennen. Und treibt man es damit auf die Spitze, sieht man auch noch weiße Mäuse über den Bildschirm fliegen.

Dein Argument für den besonders Akurat ausgeführten Blick auf die Unterschiede ist eigenlich ein Argument dagegen. Außerdem impilizierst du, die anderen Rewiews sind vergleichsweise oberflächlich durchgeführt worden.

Berniyh
2022-05-13, 17:29:16
Da auf der Welt weit mehr NV als AMD Karten von Gamer gekauft und genutzt werden - sehe ich hier kein Problem für NV.
Daher hat sich ja auch G-Sync durch gesetzt. wait …
Das sehe ich anders, zumindest bei Plattformübergreifenden Spielen. Ich gehe stark davon aus das ähnliches auch für die Konsolen kommt. Wenn für diese Spiele FSR integriert wurde, wird man sich nicht hinsetzten und für die PC-Variante extra auf DLSS umschwenken.
Wurde nicht schon bei der Vorstellung der Konsolen angekündigt, dass sie Upscaling beherrschen sollen?

aufkrawall
2022-05-13, 17:34:26
Nach FSR 2.0 ist theoretisch auch vorstellbar, dass XeSS besser wird als DLSS.

OpenVMSwartoll
2022-05-13, 17:40:27
Erst mal: Cool, endlich. Und breiter Hardwaresupport. Keine TCs dafür nötig, schöne Sache, gute Performance. Danke an AMD und lassen wir es noch reifen.

MiamiNice
2022-05-13, 17:46:47
Das sehe ich anders, zumindest bei Plattformübergreifenden Spielen. Ich gehe stark davon aus das ähnliches auch für die Konsolen kommt. Wenn für diese Spiele FSR integriert wurde, wird man sich nicht hinsetzten und für die PC-Variante extra auf DLSS umschwenken.


Ich denke das Spiele lange beides unterstützen werden. Sprich alle Games generell FSR und DLSS bei Games die eh DLSS bekommen hätten. Oder anders: Ich denke es bleibt wie es ist, nur das alle Games zusätzlich FSR bekommen. Alleine aus dem Grund weil die überwiegende Mehrheit NV nutzt und NV aggressiv bei den diversen Entwicklern drei Füße in der Tür hat.

Daher hat sich ja auch G-Sync durch gesetzt. wait …


Wo hat sich G-Sync nicht durch gesetzt? G-Sync in der absolute Standard und das AMD Pendant wird unter G-Sync "kompatibel" geführt. Ich weiß nicht was für ein Jahrgang Du bist - das ist in etwa so wie damals als AMD Intel kompatible CPUs gebaut hat. G-Sync Ultimate gibt es weiterhin nur mit NV Karte und Monitor mit NV Platine und 100€ mehr - und genau das ist der Scheiß den man als Gamer haben möchte.

ChaosTM
2022-05-13, 17:51:00
Wie zu erwarten, mal besser mal schlechter als DLSS, wobei erst Iteration 2.0, nicht 2.3. Minimal langsamer als DLSS, aber dafür open source und völlig ohne Tensor.

Tja Nvidia? Gsync, Tensor, what??? Wahrscheinlich auch RT Cores überflüssig? Mal wieder Ver*sche pur?

Den Verdacht, dass RTX eigentlich gar keine dedizierten Einheiten braucht, hege ich schon lange. Damit ließ man alte Karten aussen vor. Würde zu Lügen-Jensen passen. ;)

Ist aber nicht so..

Ex3cut3r
2022-05-13, 17:57:50
Btw, ganz ehrlich, mir ist es ein Rätsel, wie angesichts solch eklatanter Unterschiede oft von "nahezu DLSS-Level" gesprochen werden kann:

Q-Modi im Vergleich: https://www.youtube.com/watch?v=cF-rSTAwDJM
P-Modi im Vergleich: https://www.youtube.com/watch?v=PVaToAgVruQ&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G

Sicher, das DLSSmearing lässt sich nicht schönreden, aber alles andere ist viel besser. Insofern "Bestenfalls, mit viel Augenzudrücken, DLSS-Level". Das ist natürlich trotzdem geil für alle Nicht-RTX-Nutzer. =)

MfG
Raff

Bist du sicher, dass FSR 2.0 auch richtig eingestellt wurde? Sowie ich gehört habe, gibt es oft einen Bug, der trotz ausgewählten FSR 2.0, in Wahrheit 1.0 geschaltet wird. :biggrin:

Und genau das, ist in deinen/euren Bespiel passiert, denke ich.

MiamiNice
2022-05-13, 18:07:33
War es nicht so das wir DLSS eh nur bekommen haben weil man eine Verwendung für die Tensor Cores gesucht hat? Vielleicht wollte man die Die size des gaming chips aufblähen um ihn teurer verkaufen zu können.

Rabiata
2022-05-13, 18:51:36
Ich denke es bleibt wie es ist, nur das alle Games zusätzlich FSR bekommen. Alleine aus dem Grund weil die überwiegende Mehrheit NV nutzt und NV aggressiv bei den diversen Entwicklern drei Füße in der Tür hat.

Dem gegenüber steht die Situation bei den Konsolen, die bekanntlich mit AMD-Grafik arbeiten. Konsolenprojekte und deren PC-Ports haben damit erst mal FSR zur Verfügung, aber nicht automatisch DLSS.

Und ob die Publisher das extra Entwicklungsbudget bereitstellen, um DLSS zusätzlich einzubauen? Die sind oft schon zu geizig, um die Spiele vor dem Release vernünftig zu testen und die Bugs zu beheben.

Gast
2022-05-13, 19:21:19
Damit gerät nVidias proprietär DLSS einigermaßen unter Druck,

Sehe ich nicht so.

Auf Nvidia Karten ist DLSS immer noch das etwas schönere und etwas schnellere Verfahren.
Die Voraussetzungen in der Spieleengine sind für beide gleich, ich sehe also keinen Grund warum beide Verfahren nicht koexistieren können.

Exxtreme
2022-05-13, 20:05:40
Sehe ich nicht so.

Auf Nvidia Karten ist DLSS immer noch das etwas schönere und etwas schnellere Verfahren.
Die Voraussetzungen in der Spieleengine sind für beide gleich, ich sehe also keinen Grund warum beide Verfahren nicht koexistieren können.

So wie ich das sehe, schafft es AMD derzeit alle Neuerungen Nvidias zu einem Rohrkrepierer zu machen. Ja, Nvidias Ideen sind vielleicht konsequenter und besser zuende gedacht. Aber AMDs Lösungen sind "gut genug". Und AMD macht das eigene Zeug opensource und nicht-proprietär. Sodass es ebenfalls auf Nvidia- wie auch Intel-GPUs laufen kann und damit eine 100%-Abdeckung bekommt.

Das hat mit Freesync funktioniert, das hat mit OpenCL funktioniert, das hat mit Mantle ala Vulkan funktioniert und das wird wohl auch mit FSR > 1.0 funktionieren. Nachteil für Nvidia, die stecken massiv Entwicklungsaufwand rein und sie haben auch noch oft spezialisierte Hardware ala Tensor-Kerne oder die G-Sync-Prozessoren, die dann ungenutzt mitgeschleppt werden. Das erhöht die Kosten, die dann an den Kunden weitergegeben werden.

Ist zwar ärgerlich, dass sich das Bessere nicht durchsetzt. Aber das war schon bei VHS vs. Betamax der Fall wie auch bei USB vs. Firewire. Alleine die Bedingungen, die man eingehen musste, dass man das Bessere nutzen darf waren so kostentreibend, dass viele Firmen das eben gelassen haben.

ChaosTM
2022-05-13, 20:15:07
Hatte der Nvidia Data Leak möglicherweise einen Einfluss auf die Qualität von FSR 2.0 und dem kommenden XeSS, oder würden diese Firmen solchen "Hot Stuff" nicht mal mit der Kneifzange anfassen ?

aufkrawall
2022-05-13, 20:26:25
Ich halte die Auswirkungen vom Data Leak auf die Konkurrenz für nicht-existent. Eher wird Nvidia umgekehrt mysteriöserweise auf einmal bessere DLSS-Versionen anbieten, wenn die Source Codes von FSR 2.0 und XeSS online gegangen sind.

DSD512
2022-05-13, 20:51:46
Wenn Aufkrawall schon schreibt, dass FSR 2.0 über DLSS steht ... dann ist alles klar.
Mit AMD hat er ja nicht besonders viel am Hut.

Von daher ... was dann eine Zeitschrift schreibt ... Pffff.

Denniss
2022-05-13, 22:05:07
Die Zeit und andere Spiele werden zeigen wie gut oder schlecht FSR 2.x ist bzw sein wird.
Kein Grund sich jetzt anhand eines Spieles die Rüben einzuschlagen

aufkrawall
2022-05-13, 22:11:31
Die FSR 2.0-Option im Spielmenü ist halt verbugt. Leider gibts von PCGH überhaupt keine PNG-Screenshots (srsly?). Anhand der YT-Fitzelchen kann man schwer erraten, was Sache ist. Allerdings hatte ich das Problem schon hier im Forum erwähnt, bevor der Test on ging. Wenn also dort der verbugte Zustand getestet wurde, wär das recht unschön.

basix und Ex3cut3r finden es btw. auch ziemlich gut, nicht nur aufkrawall (aber danke für die Blumen). ;)
Mit den meisten DLSS 2.3-Versionen, die Spiele shippen, gibt es halt mitunter Zentimeter lange Schlieren in ungünstigen Situationen zu sehen. Klar ist auch FSR 2.0 nicht frei von temporalen Artefakten, aber diese DLSS-Schlieren sind einfach eine andere Dimension.

Ich hab btw. gar nichts so sehr gegen AMD. Nur ging mir die Schlampigkeit bei der QA der Windows-Treiber gewaltig auf den Zeiger, neben anderen Dingen. Ich fürchte, ich würde auch jeden weiteren Radeon-Kauf bereuen.

hmmm
2022-05-13, 22:28:04
Ich fürchte, ich würde auch jeden weiteren Radeon-Kauf bereuen.
Ich glaube AMD auch. ;)

MrSpadge
2022-05-13, 23:34:01
"spatialer Upscaler"

spatial = räumlich - da kräuseln sich mir die Fußnägel bei dieser "Verdenglischung" :eek:
Upscaler = Hochskalierer - schon OK, hier beim englischen Wort zu bleiben.

... und wenn es schon Englisch bleiben muss, dann konsequent mit "spatial upscaler".

(ja, ich weiß, dass das nicht das Wichtigste auf der Welt ist... für mich auch nicht)

MrS

Gast
2022-05-13, 23:58:44
Mit fsr 2.0, dlss 2.0 und Xess ist dies doch mehrheitlich eine Bildrekonstruktion, ein Hinzufügen/rekonstruieren von Details aus vorherigen Frames in den aktuellen.
Immer belustigend zu lesen wie die Schreiber weiterhin von upscaler schreiben, nur weil es sich einfacher zu merken ist.
Denken wohl die Mehrheit ist zu doof es zu verstehen.


Die Bildqualität zu dlss 2.x erreicht fsr 2.0 unter dem gezeigten Spiel nie; das ist wohlwollende Verklärung und Voreingenommenheit derjenigen Tester/Reviewer.
Bei Techpowerup sehe ich hier wieder deutlich der Schreiber zwar Vergleiche bietet wo sich jeder ein eigenes Bild machen kann, der Text und das Fazi ist aber geschönt und teils gelogen.
Hier schreibt jemand auch davon, bei DF ist man ehrlicher, zeigt weitere Untesrcheide und keine Beschönigung https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13003658#post13003658


Ich beurteile was ich sehe auf einem 4K uhd Oled TV.
https://www.techpowerup.com/review/amd-fidelity-fx-fsr-20/3.html
Bei Techpowerup kann man dies mit den Bildern und Videos am Besten beurteilen.
Unter 4K UHD dlss 2.0/fsr 2.0 beides die Qualität Stufe -> nativ 4K UHD kommt fsr 2.0 beim Standbild schon teils sehr nahe heran; beim bewegten Bild vergrößert sich der Abstand.
Alles darunter, 1440p, 1080p, Balanced-/Performance-Qualität fällt es weiter ab.

Fsr 2.0 glättet die feinsten und kleineren Kanten, Linien, Objekte etc. etwas nach, erreicht aber nie den rekonstruierten Detailgrad von dlss 2.0; das heißt fsr 2.0 sieht immer pixeliger aus und versucht auf das Pixelung eine Schärfung draufzuballern :D

FSR 2.0 legt selbst ohne manuelle Nachschärfung, eine Schärfung über das Bild; erkennt man im Video deutlich. 1080p am meisten, 1440p etwas weniger, 4K UHD am wenigsten. Das führt dazu dass jedenfalls auf meinem 4K TV fsr 2.0 immer am unnatürlichsten aussieht.

Den größten Vorteil von dlss 2.0 kann man im Video erkennen, dort ist das Bild in der Bewegung immer etwas ruhiger, die Kanten flimmern weniger.
Man schaue sich die Bildbereiche des Tores, des Zauns, die eher transparenten Objekte an. Fsr 1.0 flimmert deutlich, fsr 2.0 nur noch ein ganz klein wenig, dlss 2.0 gar nicht mehr.
Bei den Szenen mit ganz viel Gras sieht man es auch. An der Kette des Baggers auch.

Wer davon etwas versteht, ob fsr 2.0 ohne Machine-/Deep-learning-Rekonstruktion diese Nachteile je aufholen können wird, soll dazu was schreiben.
Mit meinem begrenzten Verständnis sage ich aber bereits nein.
FSR 2.0 hat den Vorteil dass auf auf fast allem läuft, aber gleichzeitig zwei Nachteile: Kostet mehr Leistung und der AI Ansatz zeigt in vielen Lebensbereichen, und vor allem hier bei Nvidias Bildrekonstruktion, dass er dem manuellen/fixen Ansatz von per Hand geschriebenem Code überlegen ist.

Es ist natürlich dennoch ein sehr zu begrüßender offener Ansatz, der doch bleiben mag und sich verbessern sollte.

Wie bereits erwähnt wäre es schade wenn die besseren Ansätze (dlss 2.0) verschwinden, nur weil fsr 2.0 offen zugänglich ist.
Hoffnung liegt darauf das der XeSS AI-Ansatz es besser macht und bei AMD man noch einen fsr 3.0 AI-Ansatz entwickelt.

Raff
2022-05-14, 00:11:56
Bist du sicher, dass FSR 2.0 auch richtig eingestellt wurde? Sowie ich gehört habe, gibt es oft einen Bug, der trotz ausgewählten FSR 2.0, in Wahrheit 1.0 geschaltet wird. :biggrin:

Und genau das, ist in deinen/euren Bespiel passiert, denke ich.

Ich weiß, kaputte Platte, aber ich sehe mir tatsächlich an, was ich da filme und publiziere. Ja, auch mitten in der Nacht. :) Insofern ist es leider nicht so einfach und kein Bug (zumindest nicht der genannte). Beweis: der Dreifach-Vergleich inklusive FSR 1.0 UQ (https://www.youtube.com/watch?v=i4KHaIqdTc0&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G&index=6), der ganz klar drei verschiedene Verfahren zeigt.

Hier nochmal die ganze Playlist: https://www.youtube.com/playlist?list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G

Außerdem impilizierst du, die anderen Rewiews sind vergleichsweise oberflächlich durchgeführt worden.

Das tue ich in diesem Fall tatsächlich, denn viel Zeit war dafür nicht. Wer am 12. Mai um 15 Uhr schon einen kompletten Artikel mit Benchmarks, Video und allem Pipapo online hatte, kann das ohne Zeitmaschine gar nicht wirklich sauber gemacht haben. Ich selbst maße mir trotz der Nachtschicht nicht an, genug für ein finales Urteil gesehen zu haben, daher auch "Zwischenfazit". :)

Digital Foundry bestätigt im gerade veröffentlichten Video übrigens alles, was PCGH nennt: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13003683&postcount=180

MfG
Raff

aufkrawall
2022-05-14, 00:46:28
Beweis: der Dreifach-Vergleich inklusive FSR 1.0 UQ (https://www.youtube.com/watch?v=i4KHaIqdTc0&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G&index=6), der ganz klar drei verschiedene Verfahren zeigt.

Das tut es auch, wenn die FSR 2.0-Option kaputt übernommen wird.

Nazar
2022-05-14, 00:48:33
Zitat: "....zudem stellt DLSS natürlich auch eine einwandfrei funktionierende Lösung dar..." Zitat Ende
@Leonidas
Kannst du bitte erklären von welchem DLSS du da schreibst welches !!!!einwandfrei!!!! funktionieren soll. Kennst du eine Version, die nV-GPU Besitzern derzeit noch nicht vorliegt?
DLSS funktioniert, ja, aber von einwandfrei ist es Lichtjahre entfernt, wie du selber in deinem Titel nahegelegt hast (Verfälschung von Texturen, Blurring, etc. pp.).
Man merkt, dass erneut für nV besonders "schön" geschrieben wird. ;)


Wie bereits erwähnt wäre es schade wenn die besseren Ansätze (dlss 2.0) verschwinden, nur weil fsr 2.0 offen zugänglich ist.
Hoffnung liegt darauf das der XeSS AI-Ansatz es besser macht und bei AMD man noch einen fsr 3.0 AI-Ansatz entwickelt.

Wie kann eine geschlossene Technologie überhaupt als guter Ansatz angesehen werden und wie schafft man es dann auch daraus noch einen besseren !!!Ansatz!!! als den einer offenen Technologie zu basteln?
Geschlossene Technologien behindern den Fortschritt, wie !!!alles!!!, was nV bisher als "nV only" brachte, deutlich gemacht haben sollte.
Marktbeherrschung ist im günstigsten Fall Stagnation, im schlimmsten Fall führt sie zu Rückschritten.

Leonidas
2022-05-14, 03:19:36
Kannst du bitte erklären von welchem DLSS du da schreibst welches !!!!einwandfrei!!!! funktionieren soll.

Nun gut, "eindwandfrei" war vielleicht das falsche Wort, wenn man es soooo genau betrachtet. Für Dich wäre "ausreichend gut funktionierend" die bessere Formulierung.



Man merkt, dass erneut für nV besonders "schön" geschrieben wird. ;)

Warum sollte ich das tun? Was hätte ich davon?

WedgeAntilles
2022-05-14, 10:16:56
Digital Foundry bestätigt im gerade veröffentlichten Video übrigens alles, was PCGH nennt: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13003683&postcount=180

MfG
Raff

Wie ich hier ja schon mal schrieb, ist auch das Hardware-Unboxed Fazit: Sehr gut, nah an DLSS, aber DLSS ist einen Tick vorne.

Nur muss man für HWU eben englisch können, vielleicht hapert es da bei vielen.
Anders kann ich mir nicht erklären, warum hier mehrfach stumpf behauptet wird, "alle anderen" würden es nicht wie ihr sehen.

Aber so ist das eben, wenn man AMD bescheinigt gute Arbeit gemacht zu haben reicht das nicht.
AMD MUSS besser als alles andere sein.
Ein "Glückwunsch, tolle Arbeit, ihr seit nahe dran, aber eben noch nicht ganz da" darf da nicht existieren.
Und alle Tests die genau das sagen werden entweder schlicht in ihrer Existenz geleugnet oder sonstwie diffamiert.

Muss man nicht verstehen.
Es ist doch nicht schlimm, wenn DLSS rein vom Ergebnis her etwas besser ist - dafür gibt es ja andere Nachteile. Die es möglicherweise unterm Strich zur schlechteren Lösung machen (das wird die Zukunft zeigen).

Exxtreme hat das denke ich gut zusammengefasst:
"Ja, Nvidias Ideen sind vielleicht konsequenter und besser zuende gedacht. Aber AMDs Lösungen sind "gut genug". Und AMD macht das eigene Zeug opensource und nicht-proprietär. Sodass es ebenfalls auf Nvidia- wie auch Intel-GPUs laufen kann und damit eine 100%-Abdeckung bekommt.

Ist zwar ärgerlich, dass sich das Bessere nicht durchsetzt. Aber das war schon bei VHS vs. Betamax der Fall wie auch bei USB vs. Firewire. Alleine die Bedingungen, die man eingehen musste, dass man das Bessere nutzen darf waren so kostentreibend, dass viele Firmen das eben gelassen haben."


Aber nein, so ein differenziertes Urteil ist für viele unerträglich, da MUSS AMD einfach generell besser sein...

iamthebear
2022-05-14, 10:32:03
Nach FSR 2.0 ist theoretisch auch vorstellbar, dass XeSS besser wird als DLSS.

So hart wie Arc gefailed ist glaube ich nicht, dass es bei XeSS sehr viel anders sein wird. Abgesehen davon: Auf welcher GPU willst du das laufen lassen? Mit Nvidia/AMD wird da der Performance Overhead ziemlich grauenhaft sein.

Wenn es ein Alleinstellungsmerkmal ist, wirklich die BQ zu beurteilen, anstatt einfach zu feiern, ja, dann ist das exklusiver Content. WTF? Das ist so deutlich, dass die Diskussion irgendwie deplatziert wirkt.

MfG
Raff

Auch wenn hier einige jammern aber von mir einmal ein großes Dankeschön, dass du wirklich versuchst die Unterschiede in der Bildqualität herauszufinden.

Ich kann mich noch gut an die ganzen FSR 1.0 Reviews erinnern. Da wurde auch schon behauptet, dass FSR 1.0 fast so gut wie DLSS ist und nun sieht man sehr gut, dass da doch Welten dazwischen liegen.

Berniyh
2022-05-14, 10:57:30
Ist zwar ärgerlich, dass sich das Bessere nicht durchsetzt. Aber das war schon bei VHS vs. Betamax der Fall wie auch bei USB vs. Firewire. Alleine die Bedingungen, die man eingehen musste, dass man das Bessere nutzen darf waren so kostentreibend, dass viele Firmen das eben gelassen haben."
Solche Beurteilungen sind ja nicht in Stein gemeiselt. DLSS hat ja auch eine gewisse Entwicklungsgeschichte hinter sich und auch bei FSR wird es sicher weiter gehen.
Am Ende spielt es aktuell eigentlich keine große Rolle, ob FSR etwas besser oder schlechter oder gleichauf ist, sondern nur, dass die Lücke größtenteils geschlossen werden konnte.
Das erlaubt es dann nicht mehr nur nach Qualität zu urteilen, sondern andere Aspekte (Verfügbarkeit, Kosten etc.) anzuwenden.
Die Qualität kann ja durchaus weiter verbessert werden.

Dein Beispiel mit USB ist hier ja schon gut. Ja, in manchen Aspekten war USB damals Firewire unterlegen, aber USB hat ziemliche Fortschritte gemacht und ist heutzutage eine ziemlich gute Lösung.
Mit der Wahl kann man durchaus zufrieden sein. ;)

iamthebear
2022-05-14, 11:21:09
Hm, lieber nahezu 100% Marktabdeckung, oder doch nur teilweise? Da entscheidet man sich doch eindeutig für Zweiteres, weil Logik und so. :freak:

DLSS ist damit faktisch ohne gravierenden Vorteil (gemäß dem Fall das die Deathloop Implementation von FSR 2.0 halbwegs repräsentativ ist) abseits der bisherigen Verbreitung - die aber gar kein Argument für die Zukunft ist.
DLSS ist damit tot, wenn da nicht noch deutlich mehr kommt: Entweder Geld für den Spieleentwickler der es einbaut, deutlich leichtere Integration als FSR 2.0 (wer es glaubt) oder halt deutlichere technische Vorteile mit DLSS 3.0. Ansonsten ist das nur noch rausgeschmissenes Geld/Zeit.

Das ist doch keine entweder/oder Situation. Die Arbeit ist das Vorbereiten der Engine:
.) Motion Vektoren bereitstellen
.) Entkoppelte Render und Display Auflösung
.) Berücksichtigung der Output Resolution bei Dingen wie LOD bias etc.

Wenn man all diese Punkte bereits für DLSS 2.0 erledigt hat ist FSR 2.0 von einem Entwickler in 2-3 Tagen in die Engine eingebaut.
Für den Entwickler geht es dann in Zukunft noch schneller wenn diese zunehmend auf Engines unterstützen, die beides bereits können. Da ist das aufwändigste davon das Einstellungsmenü.

Und auch wenn FSR 2.0 auf Nvidia Karten gut läuft: DLSS ist bei der Bildqualität immer noch etwas vorne und der Performance Overhead etwas geringer. Das ist zwar vielleicht nicht genug um die Existenz der Tensor Cores zu rechtfertigen aber diese sind ja bei Nvidia Karten sowieso da.

Es ist jedoch auch fraglich was Nvidia mit DLSS 3.0 vor hat. Angeblich soll es hier in erster Linie um RT Performance gehen. Das würde jedoch eventuell bedeuten, dass es wieder geänderte Schnittstellen gibt und mehr Eingangsdaten benötigt werden.
Dann könnte es sein, dass DLSS und FSR 2.0 wieder etwas auseinander driften.

Dovregubben
2022-05-14, 11:57:42
Warum überrascht es eigentlich niemandem mehr, dass ausgerechnet PCGH wieder Nv vorne sieht und alle anderen das anders sehen?
Digital Foundry zeigt grade in Bewegung noch viel drastischere Unterschiede als PCGH.

https://abload.de/img/fsrs0kbg.jpg

OpenVMSwartoll
2022-05-14, 12:28:45
Digital Foundry zeigt grade in Bewegung noch viel drastischere Unterschiede als PCGH.

https://abload.de/img/fsrs0kbg.jpg

Stimmt, das tun sie. Bisweilen treten bestimmte Artefakte auf, die unschön sind. Und die Härte der Kritik an Raff ist für mich nicht nachvollziehbar, wenn er auf derzeit bestehende Probleme hinweist. Schauen wir mal, wie andere Implementierungen aussehen. Trotzdem finde ich die Technologie durchaus akzeptabel.

Gast
2022-05-14, 13:09:23
Geht den Weg von Gsync und PhysX.




Immer wieder lustig zu lesen, wie die über locker ein Jahrzehnt meistverwendete Physikengine als "Fail" eingestuft wird.

Gast
2022-05-14, 13:11:32
Und die Härte der Kritik an Raff ist für mich nicht nachvollziehbar, wenn er auf derzeit bestehende Probleme hinweist.

Wenn die Aussage "eine gute Lösung die nicht ganz an den aktuellen Klassenprimus rankommt" "harte Kritik" ist dann gute Nacht. Bei AMD sind sicher nicht solche Weicheier wie ein paar Leser hier.

Exxtreme
2022-05-14, 14:15:17
Wenn die Aussage "eine gute Lösung die nicht ganz an den aktuellen Klassenprimus rankommt" "harte Kritik" ist dann gute Nacht. Bei AMD sind sicher nicht solche Weicheier wie ein paar Leser hier.
Ernsthaft? Das ganze Ding ist komplett subjektiv. Und die Artefakte sieht man eher mit 10x Vergrößerung so richtig. Spielst du ernsthaft mit 10x Vergrößerung? Also ich nicht.

bbott
2022-05-14, 14:53:57
Digital Foundry zeigt grade in Bewegung noch viel drastischere Unterschiede als PCGH.

https://abload.de/img/fsrs0kbg.jpg

Dafür ist die Landschaft und die Berge selbst bei Performance bei FSR 2 extrem besser besser als bei dlss quality.
DLSS Weichspüler?!

Dovregubben
2022-05-14, 15:03:50
Dafür ist die Landschaft und die Berge selbst bei Performance bei FSR 2 extrem besser besser als bei dlss quality.
DLSS Weichspüler?!
Nope. Scharfzeichner bei FSR so stark, dass man sogar das Ringing überall sieht ;)

Gast
2022-05-14, 15:39:57
Und die Artefakte sieht man eher mit 10x Vergrößerung so richtig. Spielst du ernsthaft mit 10x Vergrößerung? Also ich nicht.

Ich spiele auf 32“ und da sehe ich das auch ohne Vergrößerung deutlich.

Gast
2022-05-14, 17:33:06
Immer wieder lustig zu lesen, wie die über locker ein Jahrzehnt meistverwendete Physikengine als "Fail" eingestuft wird.
Welche soll das sein Havox? PhysX benutzt kein Mensch. Erst als AMD eine open source Erweiterung in Form FEMFX als Physik-Erweiterung für GPU Open veröffentlichte und sie ihren Weg in die Unreal Engine 4 fand, von Epic veröffentlicht, viel Nvidia auch ein das es noch PhysX gibt. Auf CPUs nimmt man also ein herstellerspezifische Engine, braucht also PhysX nicht. Ist der gleiche Kram wie mit Cuda, Gsync, Tensor und RT. Für jeden Mist einen dedizierten Core, wozu gibt es Unifiedsshader?

Es kostet einfach nur und keiner hat wirklich Zugriff darauf. Es geht aber völlig ohne PhsyX. Nur ist es so, dass es wie ein Exploit überall von Nvidia versucht wird, diesen Müll auf Spielerechner zu installieren ob sie nun eine Geforce nutzen oder nicht, um dann Daten dazu erfassen zu können.

Gast
2022-05-14, 18:54:57
PhysX benutzt kein Mensch.

Fast alles was auf Unreal oder Unity basiert benutzt PhysX.

Dazu kommen noch jede Menge anderer games, die Mafia Reihe, Witcher, die ganzen Batman-Spiele, die Assassins Creed Serie, Project Cars.

Klar PhysX hat mittlerweile den Status einer Legacy Software, war aber trotzdem im letzten Jahrzehnt extrem erfolgreich.

etp_inxession
2022-05-14, 19:07:53
Nettes Geplänkel hier.

FSR 2.0 ist gelungen. Soviel steht fest.

Das DLSS 2.x etwas besser aussieht oder ist, ist völlig ok.

Man stelle sich vor die Tensor Cores wären genauso überflüssig wie ein G-Sync Modul.
Schon hart was AMD an allen Fronten leisten kann. Absoluter Respekt.

Btw ... Der oben genannte Standard ist weder G-Sync noch Freesync. Es ist Adaptive Sync. Und beide Techniken bauen darauf auf.
G-Sync hält sich in der Nische weiter... das ist auch völlig ok. Einen Mehrwert hat die Kombi allerdings nicht mehr.
Aber nicht jeder ist gewillt direkt wieder den teueren Monitor zu verticken.
Das ist klar.

Auch klar ist, das nVidia durch Freesync, überhaupt zum "G-Sync Compatible"-Move gedrängt wurde. Das nVidia diesen Weg gegangen ist, ist absolut positiv zu beurteilen.

Auch der neuerliche Open Source Ansatz für Linux Treiber geht in die richtige Richtung.

Alleine an solchen Entscheidungen sieht man, das AMD sehr viel richtig gemacht hat.

Gast
2022-05-14, 19:25:43
Tolle Arbeit an @Raff
Danke sehr.

Erkenne jetzt noch zwei Nachteile für dlss 2.3 in diesem Spiel, oder generell:
- Dlss 2.3 hat den Nachteil dass immer noch zu viel und zu oft der fallende Schnee diese Spuren nach sich zieht. Erinnere mich dass dies auch in so einigen dlss 2.x unterstützen Spielen, für andere sich schnell bewegende und kleinere Objekte der Fall ist.
https://www.youtube.com/watch?v=PVaToAgVruQ&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G&index=14
Oder ist dies kein Nachteil, sondern muss genau so aussehen? Denn dlss 2.3 rekonstruiert den fallenden Schnee eher so wie fsr 1.0 diesen upscaled.
https://www.youtube.com/watch?v=qAaKxjwuoTU&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G&index=4
Vielleicht ist es auch einfach fsr 2.0 was hier zu viel und zu oft nach schärft, die Schneeflocken deshalb so weiß und grob herausstechen, und dem diese nachziehenden Spuren fehlen?


- wie bereits erwähnt verliert dlss 2.3 in den Bereichen wo viel rekonstruiert wird, feine Elemente, Transparenz, weit entfernt etc. in Bewegung an Schärfe und sieht dann nicht mehr so toll aus
https://www.youtube.com/watch?v=j14VwMNjePE&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G&index=10
Dann rekonstruiert es in diesen Bereich zwar immer noch besser als fsr 2.0, glättet besser, sieht weniger pixelig aus etc. aber es wird merkbar weniger scharf und deutlich.
https://www.youtube.com/watch?v=sO5tNTIc8Uk&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G&index=9

Hier sieht man auch nochmal dass auch in fsr 2.0 die Schneeflocken diese dunklen Spuren nach sich ziehen, nur halt nicht so oft.
Wobei ich hier auch denke dass der Nachteil womöglich beabsichtigt ist (und selbst wenn nicht) und nicht 100 % ein Nachteil ist. Denn dass ist natürliche Unschärfe denn auch das menschliche Auge in Bewegung wahrnimmt :)

Ansonsten wurde das meiste auch schon im Video bei HWU erwähnt. Dlss 2.x ist qualitativ und bildtechnisch überlegen. Mal schauen ob fsr 2.0 dies ohne KI-Ansatz je aufholen können wird; ich denke eher nicht.
Wenn überhaupt könnte dies Intel's XeSS erreichen, denn dort wird auch ML-Rekonstruktion verwendet.

ChaosTM
2022-05-14, 19:29:11
Wegen des völlig sinnfreien G-Sync Lärm-Moduls hab ich den Alienware QD-OLED letztendlich abbestellt. Warum DELL ?
FSR 2.0 ist definitiv ein Gewinn für alle.

Gast
2022-05-15, 01:52:01
Wegen des völlig sinnfreien G-Sync Lärm-Moduls hab ich den Alienware QD-OLED letztendlich abbestellt. Warum DELL ?
FSR 2.0 ist definitiv ein Gewinn für alle.

Ja genau... dazu müsste es erstmal breiflächige Unterstützung in Games geben (alt wie neue Titel) und soweit ist man noch lange nicht.

Gastxyz
2022-05-15, 02:00:46
Fast alles was auf Unreal oder Unity basiert benutzt PhysX.
LOL: https://gpuopen.com/femfx/

Das ist drei Jahre her! Meinst du Epic integriert dieses Plugin für AMD umsonst? Das setzt auf Multicore der CPU. Keiner braucht noch GPU PhysX, ausser NVidia. Mit ihrem ganzen dedizierten Quatsch behindern sie die Entwicklung mehr nicht, bis sie dann auf die gleichen Standards setzen (wie bei GSync), sie das aber unter Eigennamen vermarkten. Das hat nummehr selbst Epic kapiert. Anscheinend wollen sie genau mit dieser zum Teil übertriebenen und agressiven Marketingtaktik seitens Nvidia nichts mehr zu tun haben.

Mein Laptop hatte so ein Gsynclogo (und zu dem Zeitpunkt als ich es kaufte, gab es noch kein Gsync compatible), aber nie ein Modul. Man setze von Anfang an, auf eDP und vermarktete das Ganze als GSync. Die lügen das sich die Balken biegen...und sind sich für nichts zu Schade.

Genau dieses Problem wird auch in diesem Thread ziemlich offensichtlich, inklusive gefährlichem Halbwissen. Und wenn sie es so nicht schaffen, erkaufen sie den Rest. Traurig...man kann mit offenen Standards eben keine Unsummen verdienen, und Nvidia geht es vor allem um Geld. Die machen nichts umsonst.

AMD zu FSR 2.0: https://gpuopen.com/fidelityfx-superresolution-2/

DrFreaK666
2022-05-15, 08:05:52
... Keiner braucht noch GPU PhysX, ausser NVidia...

Es wird auch seit Ewigkeiten kein GPU-PhysX mehr genutzt, CPU-PhysX aber sehr wohl

Berniyh
2022-05-15, 08:34:38
Nvidia geht es vor allem um Geld. Die machen nichts umsonst.
Du kannst dir sicher sein, dass AMD das auch nicht umsonst macht. ;)

Gast
2022-05-15, 10:59:23
Es wird auch seit Ewigkeiten kein GPU-PhysX mehr genutzt, CPU-PhysX aber sehr wohl
Wieder dieses Halbwissen, wenn eine GPU von NVidia im System steckt, wird es von Cuda "übernommen" (Game ready), also der GPU. Nichts daran sieht besser aus oder funktioniert anders, weil es Plugins sind die auf der Arbeit des Entwicklers und der Engine aufbauen. Gepflegte Altlasten die niemand braucht, aber Entwicklungsgelder kosten, wobei es längst offene Standards gibt die genauso viel leisten. Auch als PhysX auf den Markt kam. Das sind die typischen NVidia Schnellschüsse, so zu tun als wäre das alles auf deren Mist gewachsen, gleiches gilt für Gsync ala Async und RT ala DXR, und die Liste kann man unzählige Male erweitern. Ich kann mich noch erinnern, wie man behauptete man braucht kein DX12 und Entwicklern nahe legte es ja nicht zu verwenden...dann mit Scripten in Treibern aber diese Arbeit zum Selbstzweck fixte, also Inhalte einfach uberschrieb obwohl man es anfänglich selbst so vorgab, aber sich Entwickler weigerten das im Nachgang zu verschlimmbessern. Früher nannte man sowas ja Treiber cheaten. Heute wird es bejubelt. Nur um nicht mehr des Ganzen an Entwickler weitergeben zu müssen und es dann aber den Entwicklern in die Tasche zu schieben (anzulasten), um zeigen zu können wie toll man doch ist.

Aber das ist halt Team Grün...lügen, betrügen, behindern und knechten zum Eigennutz. Alles für Spieler, ja lächerlich. Wer so ein Verhalten unterstützt, der sollte sich mal fragen was er dort überhaupt macht. Schönreden hilft da nämlich gar nicht. Wenn ich mir diesen Thread hier und den im Technikforum durchlese, muss man sich fragen ob dort noch alle ganz klar in ihrem Kopf sind. Heuchler pur. Sind immer die Gleichen. Bezahlt von NVidia, in welcher Form auch immer? Dafür sind sie auch bekannt, man kann sich seine Wahrheit ja auch einkaufen!

Ich bin ja gespannt was passiert wenn herauskommt, Tensor in den Gamer GPUs setzte nie auf einen AI NN Anteil und ist ein Shader der Matrixops ausführt und RTX Cores werden genauso, eigentlich gar nicht gebraucht. Selbst dann würden sich hier welche einreden, das ist alles nicht richtig.

Der Physikanteil in Spielen wird von der CPU berechnet und von NVidia als PhysX vermarktet. Cuda passes sind nur dafür da, zu verschleiern das es so ist. Das ach so tolle NVidia! Das ja alles besser kann.

Gast
2022-05-15, 17:34:31
Nur um nicht mehr des Ganzen an Entwickler weitergeben zu müssen...
Das ist ihr Monopol.

Tensor wird in vielerlei Hinsicht, auch von der Presse und dem Marketing selbst falsch erklärt.

Ein NN läuft auf der jeweiligen GPU nicht, dort wertet der Tensorcore anhand von vorher berechneten Bildalgorithmen, Bilder aus, die die GPU als Ganzes berechnet und kann die GPU auf Grundlage dessen, die Auflösung (also die reine Pixelanzahl) minimieren oder auch erhöhen, ohne das es groß auffällt. Das AI basierende NN, das diese Bilder auswertet und den Algorithmus dazu berechnet, läuft auf nVidias Supercomputer. Nicht erst auf der GPU im Spiele-PC. Der Tensor Core beschleunigt also nur die Berechnung des Bildes auf der GPU, er berechnet das Bild nicht. Das läuft wie gewohnt ab, über Shader etc..

Die Frage ist, wie schafft es AMD ohne den Tensorcore, eine fast ebenbürdige Bildqualität zu liefern, wobei die Bildausgabe (FPS) nur minimal langsamer ausfällt. Dann ist der Tensorcore also doch nicht so wichtig, oder wie nVidia diesen immer darstellt. Unter CP2077 behauptet man sogar, Tensor würde ganze 233 % schneller sein. Da fehlt leider der Vergleich zu FSR 2.0.

AI ist in dem Fall was komplett anderes und wird auch von nVidias Marketing in dem Zusammenhang gänzlich falsch dargestellt. Auf Basis dessen ja, aber nicht durch auf der GPU. Bildvorlagen vergleichen, gabs es schon bei AA Varianten. Der Tensorcore entlastet dabei die Shader, wie gut oder schlecht ist unbekannt, denn dazu hält sich nVidia bedeckt. Darauf hat man keinen Zugriff.

Natürlich kann man so auch Bilder bspw. in 1440p mit Bildvorlagen in 2160p vergleichen (höhere Pixelanzahl) und wenn man es leistungstechnisch schafft, kann die GPU anhand dieser Bilder Pixel rekonstruieren, die in 1440p verloren gehen würden (zum Beispiel durch Glättung [AA]). Auch dadurch erhöht sich die Bildqualität, sie erreicht aber nie 2160p. Dürfte aber sukzessive besser aussehen als reines 1440p, weil höhere Auflösungen weniger geglättet werden müssen, gehen dabei weniger Bildinformationen verloren. Das wird trotzdem alles bereits auf dem Supercomputer berechnet, nicht erst auf der GPU. NVidias Aufwand für vergleichbare Bildqualität, dürfte damit deutlich höher liegen und mehr Energie kosten als bei AMD's FSR. Immerhin muss man das NN zweitweise mit den Daten füttern, vor allem wenn neue Spiele auf den Markt kommen. Es kostet somit mehr.

Inwieweit sich die Entwickler/Publisher daran beteiligen/müssen ist unbekannt.

Ich vermute AMD lässt den (Rekonstruktions-) Anteil einfach über die Shader laufen und braucht daher keinen Beschleuniger wie Tensor, machine learning geht auch ohne. Sie haben mit RDNA kein Auslastungproblem das dies beeinflussen würde, nVidia schon. Das man Tensor also braucht, ist ein reines Architekturproblem, dass die Chips weiter aufbläht und zusätzlich kostet.

Gast
2022-05-15, 19:29:59
Das ist drei Jahre her! Meinst du Epic integriert dieses Plugin für AMD umsonst?


Merkst du was? Das ist gerade mal 3 Jahre her, ja PhysX ist wie erwähnt mittlerweile Legacy Software. Von ca. 2008 bis 2018 war es aber die Physik-Engine schlechthin und da kann man schlecht von einem Fail sprechen, nur wenn 10 Jahre später mal was besseres kommt.


Das setzt auf Multicore der CPU. Keiner braucht noch GPU PhysX, ausser NVidia.


Wer redet von GPU PhysX? PhysX ist weit mehr als nur der GPU beschleunigte Teil, genau genommen ist der GPU beschleunigte Part nur ein kleiner Teil vom Gesamtpaket.

Gast
2022-05-15, 19:32:44
Wieder dieses Halbwissen, wenn eine GPU von NVidia im System steckt, wird es von Cuda "übernommen" (Game ready), also der GPU.


Wieder dieses Halbwissen. Die GPU wurde bei PhysX immer lediglich für Effektphysik verwendet. Alles an gameplayrelevanter Physik, und das ist der größte Teil, wurde immer schon auf der CPU gerechnet.

Gast
2022-05-15, 20:44:04
Merkst du was? Das ist gerade mal 3 Jahre her, ja PhysX ist wie erwähnt mittlerweile Legacy Software. Von ca. 2008 bis 2018 war es aber die Physik-Engine schlechthin und da kann man schlecht von einem Fail sprechen, nur wenn 10 Jahre später mal was besseres kommt.
Nein, war sie nicht. Unity hat zum einen eine eigene Physik Engine und zum Anderen auch die Havoc Engine integriert. Nicht jeder Entwickler nutzt das Physx Plugin. Die Aussage "Fast alles was auf Unreal oder Unity basiert benutzt PhysX." ist einfach übertrieben.

AMD Center
2022-05-16, 13:19:57
Warum überrascht es eigentlich niemandem mehr, dass ausgerechnet PCGH wieder Nv vorne sieht und alle anderen das anders sehen?
Warum überrascht es eigentlich niemandem mehr, dass ausgerechnet AMD Center wieder AMD vorne sieht?

Legendenkiller
2022-05-17, 15:23:01
AMDs FSR läuft auf meiner Nvidia GRafikarte...
Nvidias DLSS läuft nicht auf meiner Nvidia GRafikarte...

...

Gast
2022-05-17, 18:25:08
AMDs FSR läuft auf meiner Nvidia GRafikarte...
Nvidias DLSS läuft nicht auf meiner Nvidia GRafikarte...

...

Ohne DLSS würde es so etwas von AMD Seite garnicht geben, das ist doch sonnenklar und beweist einmal mehr, dass NVIDIA trotz prioritärer Lösung alles richtig gemacht und sich Qualität sich am Ende doch durchsetzt und den Mitbewerber zum Handeln zwingt.

Denniss
2022-05-18, 00:13:04
Lieber Gast, bitte höre doch mal auf Dir alles von Nvidia schönzusaufen. Das schadet nur Deiner Leber.

Gast
2022-05-18, 00:20:09
Lieber Gast, bitte höre doch mal auf Dir alles von Nvidia schönzusaufen. Das schadet nur Deiner Leber.

Nun, seit gut 2 Jahren kann ich die meisten aktuellen und populären Games mit DLSS-Unterstützung genießen und brauch nicht auf einen Papiertiger hoffen, was in naher Zukunft wird oder nicht. ;-)