PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erste Testberichte zu AMDs "FidelityFX Super Resolution" zeigen ...


Leonidas
2021-06-24, 12:23:19
Link zur News:
https://www.3dcenter.org/news/erste-testberichte-zu-amds-fidelityfx-super-resolution-zeigen-staerken-schwaechen-des-dlss-kont

Kleebl00d
2021-06-24, 12:36:09
Was ich gerade nicht so ganz verstehe:
Ist die SuperResolution-Lösung einer einfachen Hochskalierung der Bildschirminhalte, wie es ja rotes und grünes Lager seit geraumer Zeit können, so groß überlegen?
Bisher lese ich immer nur Hochskalieren+Nachschärfen, das war ja bisher auch möglich und auch älteren Nvidia-Karten nicht vorenthalten.

Gaston
2021-06-24, 13:02:55
Danke für die Zusammenfassung!

Aber es gibt doch einen Fall wo FSR besser aussieht als nativ, hier zu sehen: https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/Specials/FSR-vs-DLSS-Test-Vergleich-Benchmark-Review-1374282/2/#a3 (Terminator)

mfg

Troyan
2021-06-24, 13:06:39
Minimal vielleicht besser, aber ansonsten nicht. Der Unterschied ist, dass beim Treiberupscaling das Bild zuerst fertig gerendert und dann komplett inkl. HUD hochskaliert wird.

Lehdro
2021-06-24, 13:16:17
In Terminator Resistance erblicken wir den bisher einzigen Fall, bei dem FSR gut sichtbar Details rekonstruieren kann, die im nativen Bild mit höherer Auflösung nicht zu sehen sind.
Steht so bei PCGH.

@Troyan Natürlich ist FSR deutlich besser als simples Upscaling + Nachschärfen. Es kommt ja teilweise sogar an eigentlich überlegene Techniken ran:
Vergleichen Sie am besten FSR Ultra Quality mit TAAU 75 %, denn in WQHD sind beide Einstellungen noch ansehnlich. Bei (fast) gleicher Pixelmenge kann sich FidelityFX Super Resolution auf den ersten Blick durch das Sharpening in Szene setzen, die Texturen profitieren sichtbar. Doch damit nicht genug, FSR erzielt außerdem deutlich glattere Kanten, am besten erkennbar an den Stromleitungen. Interessant sind auch die Speichen des Fahrrads, welche von FSR rekonstruiert und bei reinem TAA verschluckt werden, neben weiteren Details. Dieser Vergleich zeigt in aller Deutlichkeit, dass FSR mehr macht, als zu schärfen - die Aufwertung ist unübersehbar.
Quelle (https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/Specials/FSR-vs-DLSS-Test-Vergleich-Benchmark-Review-1374282/2/)

Ich würde den DF Test jetzt nicht als repräsentativ ansehen, da handwerkstechnisch grob fahrlässig gearbeitet wurde und zudem bildtechnisch der Hauptfokus auf dem Performancemodus liegt. Doch gerade der UQ Mode wurde vom Rest der Presse durchweg gelobt.

WedgeAntilles
2021-06-24, 13:17:26
Ein guter Artikel IMO, der sowohl auf die Stärken, als auch auf die Schwächen und auch ein bisschen auf die Technik als solche eingeht. (Ohne jedoch den Leser mit massig Details zu überfordern - wer einen tiefen Blick in die Technik tun will findet da sicherlich andere Quellen mit dem 100 fachen an Wörtern.)

Das wie jeweils ein Vergleich zu DLSS gezogen wird (auch was die Performance angeht) ist angenehm übersichtlich und unaufgeregt dargestellt.

Gaston
2021-06-24, 13:35:34
Ich würde den DF Test jetzt nicht als repräsentativ ansehen, da handwerkstechnisch grob fahrlässig gearbeitet wurde und zudem bildtechnisch der Hauptfokus auf dem Performancemodus liegt. Doch gerade der UQ Mode wurde vom Rest der Presse durchweg gelobt.

Der DF Alex macht eigentlich ne sehr gute Arbeit, ist aber tendenziell leicht nVidia zugetan (subjektiv). Im Deutsch sprachigen Raum fragt man sich jedoch mal wieder ob die Pcgh mehr Zeit hatte als die anderen. Ich merk mir das jedenfalls - warum die anderen Sites lesen wenn da eigentlich immer der beste Test zu finden ist? Haben die eigentlich Patreon?^^

mfg

Gast
2021-06-24, 13:37:48
Was ich gerade nicht so ganz verstehe:
Ist die SuperResolution-Lösung einer einfachen Hochskalierung der Bildschirminhalte, wie es ja rotes und grünes Lager seit geraumer Zeit können, so groß überlegen?

Ja, der Upscaler ist "intelligenter" als das einfache bilineare Upscaling was es schon ewig gibt.

Objektkanten scheint der Algorithmus auch einigermaßen gut zu skalieren, die Texturen scheinen dagegen kaum zu profitieren und heben sich nicht wirklich von einer einfachen bilinearen/bikubischen Filterung ab.

Ich vermute mal dass der Algorithmus neben den eigentlichen Bilddaten noch auf Z-Buffer und/oder G-Buffer zugreift und damit relativ gut weiß wo Objekte beginnen und enden und diese auch recht gut in der Zielauflösung rekonstruieren kann. Dort wo man auf reine Farbwerte angewiesen ist funktioniert es wesentlich schlechter.

Angesichts der Tatsache dass gut implementierte Upsampling-Methoden die temporale Daten verwenden wie beispielsweise in der Unreal Engine schon bessere Ergebnisse liefern ist die Frage für wen soll diese Technik sein?

Opensource ist hier kein Vorteil, auch die UE ist Opensource, und eine Implementierung durch den Entwickler ist weiterhin notwendig.

Mit DLSS hat man eine Qualitativ weit überlegene Technik allerdings nur mit beschränktem Zugang, mit Unreals temporalen Upscaling hat man ebenfalls eine qualitativ überlegene Technik, mit ähnlich niederschwelligem Zugang, also wer braucht noch FSR?

Wäre es möglich FSR über den Treiber in beliebige Spiele zu injecten hätte es wenigstens noch irgendeine Daseinsberechtigung.


Zu den offiziell Unterstützten Grafikkarten gehören soweit ich weiß allerdings lediglich AMD Grafikkarten. Unterstützung hat hier nichts mit lauffähig oder nicht zu tun, sondern eben damit, dass es von AMD Unterstützung bei der Implementierung gibt. Und ich glaube kaum, dass AMD helfen wird, falls jemand Unterstützung für die Implementierung auf einer Nvidia-Karte braucht.

Gast Ritis
2021-06-24, 14:04:34
Der Artikel hat in meinen Augen ein paar entscheidende Fehler. Irgendwie haben ganz viele News-Seiten auch keine blasse Ahnung was das eine oder andere technisch ist.

Die höhere Quali als Nativ von DLSS kommt nicht von dem höher aufgelösten vorgerechneten Bild im Game. Die Quali kommt doch von dem Referenzmaterial mit dem das NN aufgebaut wurde. Das muss dafür in höher als "Nativ" gerendert und trainiert worden sein.
Die temporale Komponente hat damit null komma nix zu tun. Sonst würden Details in der Ferne nur sichtbar sein wenn man sich davon wegbewegt, nicht wenn man sich darauf zubewegt.
Die temporale Bildinfo wird benötigt um die Entscheidungen im Inferencing zu normieren, damit hinterher nicht Shimmering auftritt weil von einem Frame zum anderen sonst ein unterschiedlicher Referenzwert erkannt wird. Für etwas anders ist das kaum relevant.

DLSS und FSR sind aber schon deshalb überhaupt nicht vergleichbar, weil das DLSS erst mal durch Inferencing die Upscaling-Korrektur mit vielen Ops auf den TensorCores berechnen muss. Wenn das hochgerechnete Bild zu wenig Anhaltspunkte für das Inferencing liefert gibts keine zusätzlichen Details.

FSR in der aktuellen Version macht ein paar relativ simple Shader Ops, das geht schnell und kostet keine speziellen Cores. Das hinzufügen von Details kann dann nur einen gewissen Sprung machen.

Man kann also nicht davon ausgehen, dass die beiden Verfahren bei gleicher Eingangs-Render-Auflösung gleich viel Aufwand für die Auflösung der Ausgabe benötigen. Voraussichtlich ist das bei DLSS viel mehr Compute-Aufwand und bringt dann auch mehr Input-Delay mit sich.
Es ist deshalb noch lange nicht sicher, ob mit dem geringen Overhead von FSR nicht doch eher die höchste Quali bei DLSS im Gesamtaufwand und erreichbaren FPS verglichen werden muss, ganz einfach weil FSR so viel simpler ist, weil es wahrscheinlich auch Tile für Tile im L2 Cache läuft und kein zusätzlichen VRAM verbraucht, zumindest nicht für einen komplexes NN.

Im Gegenteil glaube ich eher dass ein künftiges DLSS von dem genialen Trick von FSR profitieren kann und dann ein viel besseres Ergebnis für eine NN-basierte Korrektur von Details liefert. Besser noch wenn dann DLSS nur dort eingesetzt würde, wo man mit FSR nicht weit genug käme.

Auch Adobe wird ganz schnell nen Skalierungsfilter nach dem OSS Release nachliefern müssen, hat doch HW Unboxed das nicht geschaftt mit üblichen skalaren Filtern in Photoshop nachzumachen.

Mir sind die extremen Bilddetails die da in Standbildern der Action-Games verglichen werden völlig banane. Es darf im Bewegtbild keine Artefakte wie Shimmering oder Moiree geben, wenn Details überbetont oder im Gaming irrelevanten minim falsch dargestellt werden ist mir das zumindest schnuppe. Die Performance muss stimmen, ich bevorzuge halt Action und nicht Schach und MineSweeper. Muss aber jeder für sich selbst wissen was er will.

Bei den ganzen Laptop-Class GPUs auf SteamSurvey geh ich aber davon aus, dass für die FSR ein riesen Ding wird, falls die nicht mehr alle Grafik-Optionen runter ziehen müssen, damit es über 60FPS läuft. Da interessiert beim Headshot, im BossRaid oder besten Rundenzeiten sicherlich nicht das Detail im Gestrüpp vom Drumherum. Bildflackern aber schon. Da wird AMD noch ne temporale Korrektur für FSR Performance Mode nachliefern müssen, wenns nicht schon vorher ein anderer im OSS macht.

Für den direkten Vergleich wird man bald einige Games haben wenn die Ankündigungen stimmen.
Chernobylite, EoEternity, Hired Gun, Medium, Swordsman

Einfach abwarten und weniger spekulieren! Dabei kommt es aber in erster Linie nicht auf die Bildqualität an, sondern mindestens genauso auch auf den zusätzlichen Delay, die Schwankungen in den FPS und den Zugewinn beim Min-FPS.

Der ganze Grafik-Optionen Settings Kram geht einem eh nur noch auf den Senkel. Deshalb kauft man ja die teuren GPUs damit man da nicht rumklicken muss. Aber wenn ich da künftig fix 120 oder 144FPS einstellen kann und das Game mir dynamisch die Renderauflösung mit FSR Faktor anpasst wie Konsolen das teilweise tun - statt dass ich myriade von Grafik-Features einstellen soll wo ich einzelnd prüfen muss was der Progger damit gemeint hat wär das genial. AFK Stehbleibbilder könnten dann ganz von alleine nativ HiRes kommen.

Ob nun FSR oder DLSS "schwächer" ist, ist deshalb eine Frage der Perspektive bzw. Erwartungen. Für die Bildbearbeitung ist FSR auf jeden Fall ein riesen Fortschritt der ganz ohne den AI-Hype-Krempel funktioniert.

Also immer her damit - per default. :D

Leonidas
2021-06-24, 14:14:48
Zu den offiziell Unterstützten Grafikkarten gehören soweit ich weiß allerdings lediglich AMD Grafikkarten.

Es gibt eine AMD-Folie, da werden GF 10/16/20/30 als "offiziell" unterstützt angegeben. Ansonsten wäre ich nicht auf die Idee gekommen, das so zu schreiben.




Die höhere Quali als Nativ von DLSS kommt nicht von dem höher aufgelösten vorgerechneten Bild im Game. Die Quali kommt doch von dem Referenzmaterial mit dem das NN aufgebaut wurde. Das muss dafür in höher als "Nativ" gerendert und trainiert worden sein.
Die temporale Komponente hat damit null komma nix zu tun. Sonst würden Details in der Ferne nur sichtbar sein wenn man sich davon wegbewegt, nicht wenn man sich darauf zubewegt.
Die temporale Bildinfo wird benötigt um die Entscheidungen im Inferencing zu normieren, damit hinterher nicht Shimmering auftritt weil von einem Frame zum anderen sonst ein unterschiedlicher Referenzwert erkannt wird. Für etwas anders ist das kaum relevant.

Hast Recht. Hätte man besser herausstellen sollen.

Gastone
2021-06-24, 14:33:22
Die Liste mit den möglichen Games ist auf jeden Fall mal krass. Wenn die angekündigten Partner durch die bisherigen AMD FFX Partner auch noch ergänzt werden ist das fett.
https://forum.planet3dnow.de/index.php?threads/amd-fidelityfx-fsr-adaption-update.447106/

Soll ja teilweise in weniger als einem Tag Arbeit eingebaut werden können. Dann ab mitte Juli als OpenSauce für umme.

GerryB
2021-06-24, 15:19:06
Intel APU´s funzen wohl auch z.T., z.Bsp die UHD630.

Damit tut sich ein weites Feld bei Notebooks auf.

btw.
Großes Kompliment an PCGH, hat sehr gut erkannt das man auch den passenden Moni+Resi braucht. (xx)
(und net son Schmarrn wie DF gemacht)
Lt. PCGH lohnt sich in 4k Ultra FSR auf jeden Fall, weil sogar feine Strukturen besser werden und man ggü. TAA
nen Vorteil durch das Sharpen im FSR hat.(x)

(x)sieht man schön bei TPU, wenn man die Slider benutzt
https://www.techpowerup.com/review/amd-fsr-fidelityfx-super-resolution-quality-performance-benchmark/6.html

(xx) Da ich selbst keinen WQHD mehr habe, hat freundlicherweise mal ein User im Luxx 5k probiert und war sehr zufrieden.

edit: Raff hat auch nochmal die eff. Auflösungen für 5k@FSR aus dem Terminator genannt. (= sinnvolle Resis am WQHD-Moni)

von Richthofen
2021-06-24, 15:29:06
Die temporale Komponente in DLSS ist dessen großer Vorteil. NVidias Technik wirkt hier, wie der Name schon sagt, als Kantenglättungsmethode und ist daher im Bewegtbild FSR überlegen.
FSR hingegen, das muss man zugeben, sieht weit besser aus als vorab angenommen. Bei (Stand-)Bildvergleichen auf CB zwischen nativem 4K und FSR UltraQuality darf mir gern einer erzählen wo da die Unterschiede auszumachen sind. Das ist mMn ein klasse Ergebnis und so nicht zu erwarten gewesen. Auf einem 4K-Schirm kann man der Performance wegen locker FSR-Quality verwenden und hat ein sichtbar besseres Bild als auf WQHD runterzuschalten.

Was ich mich noch frage (Laie) ist ob man bei beiden Techniken einen Schärferegler "dazugeben" könnte?
Da die Schärfung innerhalb der Renderpipeline stattfindet, sollte das Ergebnis beiderseits besser als per Postprocessingeffekt (ReShade, Fidelity FX Sharpening, nV Freestyle) ausfallen. Also quasi nicht so anfällig hinsichtlich Überschärfung sein bzw. den ganzen 2D-Inhalt mit in die Mangel zu nehmen.

Gast
2021-06-24, 15:44:35
Die höhere Quali als Nativ von DLSS kommt nicht von dem höher aufgelösten vorgerechneten Bild im Game. Die Quali kommt doch von dem Referenzmaterial mit dem das NN aufgebaut wurde. Das muss dafür in höher als "Nativ" gerendert und trainiert worden sein.
Die temporale Komponente hat damit null komma nix zu tun. Sonst würden Details in der Ferne nur sichtbar sein wenn man sich davon wegbewegt, nicht wenn man sich darauf zubewegt.


Die höhere Qualität von DLSS kommt (fast) nur von der temporalen Komponente. Wie sich der Viewport bewegt ist komplett irrelevant, bzw. sogar störend.
Die Bewegung wird im Subpixelbereich automatisch beim Rendering gemacht, auch wenn sich der Viewport nicht ändert, und Änderungen des Viewports müssen von der Gesamtbewegung wieder abgezogen werden, damit nur mehr die bekannte Bewegung durch die Subpixel-Offsets übrig bleibt. Genau dafür sind die Bewegungsvektoren da.
Das zusätzliche "Erfinden" von Details erfolgt nur mehr als Fallback, wenn keine temporalen Daten bzw. keine ausreichend genauen Bewegungsvektoren vorhanden sind.


Auch Adobe wird ganz schnell nen Skalierungsfilter nach dem OSS Release nachliefern müssen, hat doch HW Unboxed das nicht geschaftt mit üblichen skalaren Filtern in Photoshop nachzumachen.


Adobe hat gerade vor ein paar Wochen einen Upscaling Filter auf NN-Basis veröffentlicht. Und die Ergebnisse sind geradezu lächerlich und maximal geringfügig über den bisherigen Upsalilng-Filtern.


Es darf im Bewegtbild keine Artefakte wie Shimmering oder Moiree geben, wenn Details überbetont oder im Gaming irrelevanten minim falsch dargestellt werden ist mir das zumindest schnuppe.

Was gerade DLSS dank temporaler Komponente extrem gut macht, besser als so ziemlich alle bisherigen Techniken. Die gute Detailtreue von DLSS kommt auch daher, dass man temporales Aliasing extrem gut im Griff hat, und sich daher die gute Bildschärfe "leisten" kann.
Es wäre für TAA grundsätzlich überhaupt kein Problem die Detailtreue von DLSS zu erreichen, allerdings nur auf kosten extremer temporaler Artefakte. Da das nicht praktikabel ist muss TAA gegenüber DLSS auf sehr viel Bildschärfe verzichten um nur eine annähernd vergleichbare Bildruhe zu erreichen.



Ob nun FSR oder DLSS "schwächer" ist, ist deshalb eine Frage der Perspektive bzw. Erwartungen. Für die Bildbearbeitung ist FSR auf jeden Fall ein riesen Fortschritt der ganz ohne den AI-Hype-Krempel funktioniert.


Das ist für die Bildqualität keine Frage der Perspektive sondern lässt sich ganz klar beantworten.
Ob DLSS ohne Tensorcores Performancemäßig praktikabel wäre lässt sich mangels entsprechender Implementierung nicht beantworten.

Lehdro
2021-06-24, 15:48:05
Angesichts der Tatsache dass gut implementierte Upsampling-Methoden die temporale Daten verwenden wie beispielsweise in der Unreal Engine schon bessere Ergebnisse liefern ist die Frage für wen soll diese Technik sein?

Opensource ist hier kein Vorteil, auch die UE ist Opensource, und eine Implementierung durch den Entwickler ist weiterhin notwendig.

Mit DLSS hat man eine Qualitativ weit überlegene Technik allerdings nur mit beschränktem Zugang, mit Unreals temporalen Upscaling hat man ebenfalls eine qualitativ überlegene Technik, mit ähnlich niederschwelligem Zugang, also wer braucht noch FSR?

Aha, es gibt also nur eine einzige Engine. Wusste ich so auch noch nicht. :confused:

ChaosTM
2021-06-24, 16:02:20
Riftbreaker schaut zb. bis zu "Balanced" hinunter zumindest besser aus, als krudes (NV)Treiber/Monitor Upscaling.
Für mich als 1080ti Nutzer wird das in vielen Spielen Vorteile bringen, bis es die 3090er wieder in normalpreisig gibt. ;)
Vielleicht schafft es AMD, in eine der nächsten Iterationen auch temporale Komponenten einzubauen.
Luft nach oben ist auf jeden Fall massig vorhanden.

Gast Ritis
2021-06-24, 16:03:16
Die temporale Komponente in DLSS ist dessen großer Vorteil. NVidias Technik wirkt hier, wie der Name schon sagt, als Kantenglättungsmethode und ist daher im Bewegtbild FSR überlegen.


DeepLearningSuperSampling ist doch keine Kantenglättungsmethode im Namen?

Super Sampling ist IMHO nicht Antialiasing sondern Berechnung genauerer Details allgemein via Downsampling eben eines Supersampling.
Mit DL will Nvidia doch nur sagen, dass das SuperSample als NN vorliegt und nicht nativ berechnet wird vor dem Downsampling.
Das hat erst mal mit Bewegtbild gar nix zu tun. Im Gegenteil ist ohne temporale Info vom vorhergehenden Frame DLSS1.0 katastrophal gewesen, das Problem hat spatiales Upsampling von FSR erst mal nicht so extrem.
Also ist im simplen Fall FSR besser geeignet für Bewegtbild, bei DLSS hats V2.0 gebraucht.

In dem Link von @Gaston/Gastone? hat es ne Ref auf den FidelityFX CAS Algo. Dort gibt es für die Entwickler einen Inensity-Bereich von 0-1 in Gleitzahl. Sowas ähnliches wirds wohl für FSR auch geben wenn das stimmt was da so steht mit der Evolution von CAS... sollte aber der Game-Designer wissen wie viel zu viel ist. Macht der beim normalen Shader und Postpro ja auch.

amdfanuwe
2021-06-24, 16:19:44
Schade, hatte Infos zu FSR erwartet und lese eigentlich nur: DLSS ist besser.
Das auch DLSS seine Makken hat, kein Wort.
Allerdings ist DLSS nicht perfekt – auch nicht bei der Bildqualität. Gibt es in Games beispielsweise Grafikfehler, seien es verschmierte Objekte oder ohnehin vorhandene Fehler, werden sie von DLSS gnadenlos verstärkt. Manchmal verlieren Titel mit DLSS obendrein an Schärfe (https://www.computerbase.de/2021-06/amd-fidelityfx-super-resolution-fsr-test/)

Ich sehe FSR auch nicht als Konkurrenz zu DLSS. Dazu müsste DLSS auch für alle verfügbar sein. So bleibt es dabei, dass lediglich Nvidia Karten Besitzer entscheiden müssen, was sie bei einem Game einschalten.
Als Besitzer einer anderen Grafiklösung kann man sich freuen durch FSR überhaupt die Möglichkeit zu haben ein paar Frames mehr herauszukitzeln und damit vielleicht überhaupt erst akzeptabel spielen zu können.

ChaosTM
2021-06-24, 16:26:13
In 4K sind das mehr als ein paar Frames. Für 1080p User bringt es sehr wenig. Da reicht aber meistens die Leistung für Nativ.

Redirion
2021-06-24, 17:41:07
kann man eigentlich VSR und FSR kombinieren? Auf meinem 1440p Monitor würde ich gern VSR 4k fahren und dann mit FSR Quality nutzen. D.h. 4k-Renderauflösung wird auf native Monitorauflösung zurückgerechnet.

Das war das, was ich auch immer vom angekündigten DLSS2X erhofft hatte. Aber davon spricht ja mittlerweile Niemand mehr.

edit: ok, soll wohl gehen. Werde ich mal bei Anno 1800 ausprobieren.

MD_Enigma
2021-06-24, 17:56:51
Ich sehe FSR auch nicht als Konkurrenz zu DLSS. Es werden zwei unterschiedliche Techniken angewendet, die das gleiche Ziel haben - den Rechenaufwand zu senken bei möglichst wenig Bildqualitätsverlust.

Ich sehe FSR daher als eine Alternative. Eine Alternative die viel Sand bei NVidia ins Marketing-Getriebe spült: Wenn man ein FSR mit geringem Aufwand bekommt, warum muss ich viel Aufwand für DLSS reinstecken? Gerade wenn Multi-Plattform-Titel anstehen und man die Mehrkosten einer PC-Variante betrachtet. Netter Schachzug.

Benutzername
2021-06-24, 18:43:25
Ich sehe FSR auch nicht als Konkurrenz zu DLSS. Es werden zwei unterschiedliche Techniken angewendet, die das gleiche Ziel haben - den Rechenaufwand zu senken bei möglichst wenig Bildqualitätsverlust.


Äh genau das ist die Definiton von Konkurrenz? Das Ziel ist mit geringerer Auflösung Rechenzeit zu sparen um damit dann mehr FPS aus den GRakas zu bekommen. Die technische Lösung ist unterschiedlich bei letztlich ähnlichem Ergebnis: einem gut aussehenden Bild trotz Hochskalierung. "Gut genug" reicht meistens aus.




Ich sehe FSR daher als eine Alternative. Eine Alternative die viel Sand bei NVidia ins Marketing-Getriebe spült: Wenn man ein FSR mit geringem Aufwand bekommt, warum muss ich viel Aufwand für DLSS reinstecken? Gerade wenn Multi-Plattform-Titel anstehen und man die Mehrkosten einer PC-Variante betrachtet. Netter Schachzug.

Nicht nur Sand ins Getriebe streut. Es ist die einfachere und billigere Lösung und funktioniert mit allen Grafikchip-herstellern und nicht nur mit einem bestimmen Hersteller.

Screemer
2021-06-24, 18:46:11
kann man eigentlich VSR und FSR kombinieren? Auf meinem 1440p Monitor würde ich gern VSR 4k fahren und dann mit FSR Quality nutzen. D.h. 4k-Renderauflösung wird auf native Monitorauflösung zurückgerechnet.

Das war das, was ich auch immer vom angekündigten DLSS2X erhofft hatte. Aber davon spricht ja mittlerweile Niemand mehr.

edit: ok, soll wohl gehen. Werde ich mal bei Anno 1800 ausprobieren.ja kann man.

https://www.reddit.com/r/Amd/comments/o61yc4/using_fsr_amd_virtual_super_resolution_or_nvidia/

von Richthofen
2021-06-24, 19:00:42
DeepLearningSuperSampling ist doch keine Kantenglättungsmethode im Namen?
Supersampling bezeichnet kein Anti-Aliasing?
Nun, scheinbar doch: https://de.wikipedia.org/wiki/Supersampling

Gast
2021-06-24, 19:59:41
und funktioniert mit allen Grafikchip-herstellern und nicht nur mit einem bestimmen Hersteller.
Eigentlich müsste es heißen "nicht nur mit bestimmten Grafikkarten eines Herstellers", denn DLSS gibt's z.B. auf einer 1660TI ja auch nicht. Insofern freut sich der ein oder andere NVidia Kunde über AMDs Arbeit.

Gast Ritis
2021-06-24, 21:17:47
Supersampling bezeichnet kein Anti-Aliasing?
Nun, scheinbar doch: https://de.wikipedia.org/wiki/Supersampling
Ich meine den Terminus SuperSample wird verwendet ->im Namen<- wenn man betonen will, dass man mehr Pixel berechnet um beim Downsampling eine bessere Qualität zu bekommen. Kanten wie Flächen ist dabei egal.
Ich denke wenn man im Namen Anti-Aliasing verwendet macht man in der Regel etwas anderes. Z.B. bei TAA, dass man die Kanten extrahiert und allein diese über die temporale Komponente optimiert. DLSS kann ja Deteils hinzufügen, die das Low-Res Image gar nicht aufweist, weil aus dem NN diese aus Erfahrungswerten wiederhergestellt werden.

D.h. ja SuperSampling ist eine Familie von Methoden, die Anti-Aliasing machen können.
Nein - es bezeichnet nicht im Namen eine "Kantenglättungs"Methode denn es meint nicht nur Kanten sondern alle Details. So hab ichs gemeint.
So nach dem Motto "Verbrennungsmotor" ist nicht dem Namen nach ein Dieselaggregat.

(heieiei, eigentlich hasse ich diese Haarspalterei)

Gast Ritis
2021-06-24, 21:27:35
Die höhere Qualität von DLSS kommt (fast) nur von der temporalen Komponente....

es ging um höhere Quali als NATIV gerendert.


Adobe hat gerade vor ein paar Wochen einen Upscaling Filter auf NN-Basis veröffentlicht.

es ging darum dass Adobe für Photoshop den FOSS FSR Algo als Filteroption bringen muss, nix AI-Krempel.


Es wäre für TAA grundsätzlich überhaupt kein Problem die Detailtreue von DLSS zu erreichen, allerdings nur auf kosten extremer temporaler Artefakte.

es ging darum, das AMDs FSR besser ist als alle TAA-Verfahren.


Ob DLSS ohne Tensorcores Performancemäßig praktikabel wäre lässt sich mangels entsprechender Implementierung nicht beantworten.
interessiert doch niemand weil das nur dazu da ist die Tensor Cores auch an Gamer teuer verkaufen zu können, aber offensichtlich liest Du nur halbe Sätze und schwebst sonst in ganz eigenen Gedankenwelten ;D

Redirion
2021-06-24, 23:46:31
habe FSR Quality mit VSR 4k auf meinem 1440p Monitor mit Anno 1800 ausprobiert. Damit sollte FSR 4k auf die native Auflösung des Monitors zurückrechnen. Leider ist das Ergebnis sehr verwaschen. Natives 1440p sieht besser aus. Eventuell harmoniert FSR mit VSR noch nicht wirklich.

aufkrawall
2021-06-24, 23:53:35
Du hast Unschärfe durch das Hochskalieren mit FSR, die es durch Sharpen versucht zu kaschieren. Dann hast du mit VSR aber danach noch wieder zusätzliche Unschärfe durchs unscharfe Runterskalieren eingeführt, die du nur durch den Monitor/Fernseher mit weiterem Sharpen versuchen kannst zu lindern.
Das ist bei Nvidia besser, weil Faktor 4x mit DSR mit der Einstellung Smoothness (Unschärfe) 0% ohne Shimmering oder sonstige Artefakte nutzbar und komplett scharf ist. Mit DLSS Performance (50% RS) ist man dann wieder bei der nativen Auflösung, will man DLSS nur als AA nutzen. FSR eignet sich aber ohnehin nicht gut dafür, weil es, anders als DLSS, kein wirkliches AA (keine Samples >1x, abseits vom TAA in niedriger Auflösung) ist.

iamthebear
2021-06-25, 01:00:26
Die höhere Quali als Nativ von DLSS kommt nicht von dem höher aufgelösten vorgerechneten Bild im Game. Die Quali kommt doch von dem Referenzmaterial mit dem das NN aufgebaut wurde. Das muss dafür in höher als "Nativ" gerendert und trainiert worden sein.

Dass das neurale Netzwerk mit höher aufgelösten Bildern trainiert wurde, stimmt zwar, hat aber nur sehr indirekten Einfluss. Im Gegensatz von DLSS 1.0 handelt es sich hier nicht um ein einzelnes Modell pro Spiel, das mit den Texturen des Spiels trainiert wurde, sondern um ein generisches Modell. Das geht so weit, dass wenn man DLSS über das Plugin für Unreal Engine 4 verwendet, man sich ein DLSS fähiges Spiel erstellen kann ohne dass Nvidia die Texturen auch nur einmal gesehen hat.

Der Grund, warum DLSS in manchen Situationen besser als native aussehen kann liegt dran, dass DLSS auch die AA Aufgaben übernimmt.
DLSS kann hier je nachdem mit welcher AA Lösung man es vergleicht für bessere geglättete Kanten sorgen, hat aber gleichzeitig nicht den Unschärfeeffekt in der Bewegung vieler TAA Lösungen.

FSR ist nur ein reiner Upscaler und wird einem bestehenden AA Verfahren kombiniert, was meiner Meinung nach auch das größte Problem derzeit ist. Wenn die AA Lösung des Spiel nicht gut ist, dann wird es durch Absenken der Renderauflösung mit FSR nur noch schlimmer und Texturen fangen stark an zu flackern. Das sieht man leider auf den ganzen Screenshots nicht.

Gast
2021-06-25, 07:52:20
es ging um höhere Quali als NATIV gerendert.


Genau diese kommt dadurch dass man mit DLSS trotz nominell reduzierter Auflösung mehr als 1 Sample pro Pixel hat. Diese werden zwar nicht pro Frame berechnet aber über mehrere Frames TEMPORAL akkumuliert.

Damit landest du bei Nativ = 1 Sample pro Pixel, DLSS = mehr Samples pro Pixel, und mehr führt zu höherer Qualität.


es ging darum dass Adobe für Photoshop den FOSS FSR Algo als Filteroption bringen muss, nix AI-Krempel.


Sehr unwahrscheinlich dass dieser für Fotos überhaupt vernünftig funktioniert, außerdem ist dessen Qualität ab ca. +25% Skalierung pro Achse auch schon sehr bescheiden.


es ging darum, das AMDs FSR besser ist als alle TAA-Verfahren.


Ist es aber nicht. Es ist deutlich besser als schlechte TAA Implementierungen. Es ist aber nicht besser, eher schlechter, als heute schon verfügbare gute TAA Implementierungen.

Und genau das macht das ganze obsolet, auch wenn die erreichte Qualität zumindest in manchen Situationen akzeptabel ist gibt es heute schon Implementierungen die das selbe Problem hochwertiger lösen, auch wenn man sich nicht auf NV Hardware beschränkt und auch Opensource verfügbar.

AMD ist für das gebotene schlicht und einfach zu spät dran, wenn eine neue Technologie auf den Markt kommt die ein bestimmtes Problem löst muss sie entweder die erste sein, oder besser als bereits verfügbare Technologien für das selbe Problem. Und das ist einfach nicht der Fall, es gibt bereits temporale Upsampling-Methoden die nicht Vendor-Locked sind und bessere Ergebnisse liefern, selbst das gute alte Checkerboarding was auf Konsolen seit Jahren verwendet wird lieefert bessere Ergebnisse.

Redirion
2021-06-25, 09:56:34
Du hast Unschärfe durch das Hochskalieren mit FSR, die es durch Sharpen versucht zu kaschieren. Dann hast du mit VSR aber danach noch wieder zusätzliche Unschärfe durchs unscharfe Runterskalieren eingeführt, die du nur durch den Monitor/Fernseher mit weiterem Sharpen versuchen kannst zu lindern.ist.

ja, mittlerweile ist mir mein Denkfehler auch klar. Der Modus, den ich mir wünsche, muss erst noch entwickelt werden.

Was ich gern hätte: Bild in höherer Renderauflösung(z.B. mittels VSR) als nativer Monitorauflösung rechnen, mit FSR auf native Monitorauflösung runterskalieren und auch in dieser Auflösung ausgeben. Das sollte eigentlich für bessere Bildqualität sorgen.

Funktioniert natürlich derzeit nicht, weil VSR die "Ausgabeauflösung" weiterhin hoch hält und dadurch alles zu Brei wird. Schade.

Gast
2021-06-25, 10:54:31
Die höhere Quali als Nativ von DLSS kommt nicht von dem höher aufgelösten vorgerechneten Bild im Game.
Sie kommt hauptsächlich von mehr Daten und besserer Adaptivität durch das NN.
Die temporale Bildinfo wird benötigt um die Entscheidungen im Inferencing zu normieren, damit hinterher nicht Shimmering auftritt weil von einem Frame zum anderen sonst ein unterschiedlicher Referenzwert erkannt wird.
Falsch.
Wenn das hochgerechnete Bild zu wenig Anhaltspunkte für das Inferencing liefert gibts keine zusätzlichen Details.
Falsch. Selbst einfache Interpolation wären zusätzliche Details. NN bilden relativ günstig sehr hochdimensionale Funktionen für den Wertebereich der Trainingsdaten ab. Daher können hier bessere zusätzliche Details rekonstruiert werden. Mit Fortschritten beim NN und mehr Rechenleistung wird DLSS auch immer noch besser werden im Rahmen des abnehmenden Ertrags.

Voraussichtlich ist das bei DLSS viel mehr Compute-Aufwand und bringt dann auch mehr Input-Delay mit sich.
Auch falsch, da Tensor-Cores wesentlich schneller sind und asynchron laufen können.

Den Rest schenk ich mir, da auf zu viele Verständnisprobleme bei dir bestehen.

Troyan
2021-06-25, 11:16:31
Ist es aber nicht. Es ist deutlich besser als schlechte TAA Implementierungen. Es ist aber nicht besser, eher schlechter, als heute schon verfügbare gute TAA Implementierungen.


FSR benötigt eine AA-Methode, um überhaupt funktionieren zu können. Es sieht nie besser aus als TAA. Je schlechter die TAA-Implementierung, umso schlechter ist auch das Endergebnis von FSR.

Gast
2021-06-25, 22:15:22
FSR benötigt eine AA-Methode, um überhaupt funktionieren zu können. Es sieht nie besser aus als TAA. Je schlechter die TAA-Implementierung, umso schlechter ist auch das Endergebnis von FSR.

Genau das macht FSR eben, ich will jetzt nicht obsolet sagen, weil dafür ist es das Ergebnis doch zu gut, aber entbehrlich.

Es kann nirgends hervorstechen, sowohl qualitativ als auch in der Verfügbarkeit gibt es mittlerweile Technologien mit dem gleichen Ziel die zumindest gleichwertig oder besser sind.

Das allermindeste wäre gewesen, dass man alles außer DLSS ganz klar distanziert.
Dann hätte man zumindest mit der breiteren Hardwareverfügbarkeit punkten können.

So hat man eine Technologie die qualitativ aber ganz klar hinter DLSS hinterherhinkt, und sich weder in der Verfügbarkeit noch in der Qualität von bereits vorhandenen Upcaling-Technologien nennenswert absetzen kann.

GerryB
2021-06-26, 10:39:34
Der Modus, den ich mir wünsche, muss erst noch entwickelt werden.

Was ich gern hätte: Bild in höherer Renderauflösung(z.B. mittels VSR) als nativer Monitorauflösung rechnen, mit FSR auf native Monitorauflösung runterskalieren und auch in dieser Auflösung ausgeben.

Man sollte so nah wie möglich bei den Pixeln vom Moni bleiben!
Insofern ist auf WQHD nur 5k-VSR sinnvoll. (und am FHD wäre 4k-VSR@FSR nen Versuch wert)

Die entspr. FSR-Auflösungen hat Raff mal gepostet. (die Er bei Terminator verwendet hat)

Generell bin ich bei Raff! nur ab ner ausreichenden Menge Polygone kann FSR gut funzen, weils kein Supersampling wie DLSS im Hintergrund hat.
man braucht auch ein paar Dreiecke, um überhaupt Was glätten zu können
Deswegen sollte man FSR immer ne Stufe höher wählen als DLSS.(mindestens)

Nach m.E. hat das Marketing von AMD etwas übertrieben, ich hätte die Modi jeweils ne Stufe niedriger benannt und den komischen
Performance gar nur MOBIL für APU´s.

https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/News/FSR-gegen-DLSS-Ersteindruck-1374665/
= überwiegend positiver Ersteindruck bei den Redakteuren von PCGH

btw.
bzgl. Bildvergl. mit TAAU muss man vorsichtig sein und genau schauen, Was der jeweilige Reviewer für Settings nimmt.
Das wurde im Forum bei TPU ganz gut erklärt.