Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26

robbitop
2024-02-02, 18:19:51
Zu meiner Verwunderung ist selbst die Skalierung in Avatar mit der DLSS3 Mod nahezu identisch mit FSR3 FG.

Obwohl das also auf völlig anderer Codebasis funktioniert, scheint es sich gleich zu verhalten.



FSR3 FG und DLSS 3 FG arbeiten extrem ähnlich. Sie nutzen zur Interpolation der Zwischenframes motion vectors und optical flow.
Nur eben dass Ada für optical flow compute fixed function hardware hat und FSR3 dafür compute über die fpus machen lässt.

Details wie „was passiert mit dem hud“ sind unterschiedlich.

Der Grund warum es so schnell so einfach DLSS3->FSR3 Mods gibt ist eben ihre starke Ähnlichkeit.

DrFreaK666
2024-02-02, 18:29:33
Starfield bekommt nächste Woche wohl FSR3, zumindest im Beta-Patch
https://wccftech.com/starfield-fsr-3-steam-beta-next-week-full-release-february/

Cubitus
2024-02-02, 18:37:20
https://youtu.be/wxlHq_EuxFU

Nur eine FSR3-Mod getestet

Frametimes aus der Hölle :freak:

Relex
2024-02-02, 18:39:12
https://youtu.be/wxlHq_EuxFU

Nur eine FSR3-Mod getestet

Interessant. Er sagt, dass er den FSR3 VRR judder in Avatar auch mit einer 7900XTX reproduzieren konnte. Auch ohne Overlays.

Also gibts doch keine Unterschiede zwischen AMD und Nvidia.

Er sagt aber auch, dass es mal auftritt und mal nicht. Warum weiß man wohl nicht.

Es scheinen also tatsächlich alle recht zu haben, wenn sie sagen es ruckelt, aber auch wenn sie sagen, es ruckelt nicht.

Na toll. Das nennt man dann wohl Schrödingers FSR3 ;D



Nachtrag:
Ich konnte jetzt mal den neuen Patch von Talos Principle 2 mit FSR3 support testen.

Tja, was soll ich sagen. Perfekt flüssig mit VRR! :massa:
Egal ob im Vsync limit oder mit schwankenden FPS. Es läuft wie es sein sollte.
Zur Sicherheit auch nochmal mit Avatar gegengetestet. Das ruckelt immernoch mit VRR.


Also an den neuen Treibern oder Windows Update kanns somit nicht liegen. Es muss an der Implementierung im Spiel liegen.

Na gut, damit konnte ich mich endlich selbst davon überzeugen, dass FSR3 mit VRR auch flüssig sein kann. Sehr schön.

Das einzige was halt insbesondere bei Talos2 ins Auge springt ist die miserable qualität vom FSR Upscaling bzw. AntiAliasing. Die Vegetation flimmert wie hölle und specular flimmern ist sehr ausgeprägt.
Das sieht alles sehr kaputt aus.

Das ist extrem schade. In Kombination mit TSR wäre FSR3 FG ein Träumchen. Immerhin kann man Reflex zu FSR3 hinzuschalten, was die Latenz wirklich spürbar verbessert. :D


Aber zumindest hat mir der Test gerade Hoffnung gemacht, dass FSR3 wirklich noch gut werden kann.

Platos
2024-02-03, 11:15:16
Ist doch bei AMD normal, dass deren Zeug erst 1-2 Generationen später brauchbar wird (+ 1 Generation später überhaupt erst auftaucht).

robbitop
2024-02-03, 11:55:06
Ja leider ist das so. Wahrscheinlich haben die einen Lappen als VP/SVP der sowas zulässt.

The_Invisible
2024-02-03, 12:59:02
Interessant. Er sagt, dass er den FSR3 VRR judder in Avatar auch mit einer 7900XTX reproduzieren konnte. Auch ohne Overlays.

Also gibts doch keine Unterschiede zwischen AMD und Nvidia.

Er sagt aber auch, dass es mal auftritt und mal nicht. Warum weiß man wohl nicht.

Es scheinen also tatsächlich alle recht zu haben, wenn sie sagen es ruckelt, aber auch wenn sie sagen, es ruckelt nicht.

Na toll. Das nennt man dann wohl Schrödingers FSR3 ;D



Nachtrag:
Ich konnte jetzt mal den neuen Patch von Talos Principle 2 mit FSR3 support testen.

Tja, was soll ich sagen. Perfekt flüssig mit VRR! :massa:
Egal ob im Vsync limit oder mit schwankenden FPS. Es läuft wie es sein sollte.
Zur Sicherheit auch nochmal mit Avatar gegengetestet. Das ruckelt immernoch mit VRR.


Also an den neuen Treibern oder Windows Update kanns somit nicht liegen. Es muss an der Implementierung im Spiel liegen.

Na gut, damit konnte ich mich endlich selbst davon überzeugen, dass FSR3 mit VRR auch flüssig sein kann. Sehr schön.

Das einzige was halt insbesondere bei Talos2 ins Auge springt ist die miserable qualität vom FSR Upscaling bzw. AntiAliasing. Die Vegetation flimmert wie hölle und specular flimmern ist sehr ausgeprägt.
Das sieht alles sehr kaputt aus.

Das ist extrem schade. In Kombination mit TSR wäre FSR3 FG ein Träumchen. Immerhin kann man Reflex zu FSR3 hinzuschalten, was die Latenz wirklich spürbar verbessert. :D


Aber zumindest hat mir der Test gerade Hoffnung gemacht, dass FSR3 wirklich noch gut werden kann.

Die Frage ist warum noch keiner offiziell FSR3 mit DLSS/TSR zulässt, wenn man den DLSS-FG to FSR3 Mod ansieht sollte das ja kein Problem sein.

robbitop
2024-02-03, 13:50:21
Der Quellcode von FSR3 von AMD sieht es offenbar nicht so vor. Offiziell hieß es beim FSR3 launch dass FSR die motion vectors liefert.

Achill
2024-02-03, 14:03:15
Ist soch bei AMD normal, dass deren Zeug erst 1-2 Generationen später brauchbar wird (+ 1 Generation später überhaupt erst auftaucht).

Die gute alte Verallgemeinerung ...

---

Ja leider ist das so. Wahrscheinlich haben die einen Lappen als VP/SVP der sowas zulässt.

Dem stimme ich zu, das QA beim Marketing oder hier wie in diesen Fall bei tech. Release ist nicht gut. Das Frametime und -pacing wichtig ist, dies ist nichts neues ...

---

Der Quellcode von FSR3 von AMD sieht es offenbar nicht so vor. Offiziell hieß es beim FSR3 launch dass FSR die motion vectors liefert.

Die umgesetzte Lösung von AMD ist halt das Zusammenspiel von FSR2 mit ihren FG. Es gibt keinen Grund für AMD das FG mit die anderen Lösungen funktioniert, bis evtl. auf Epics TSR.

Generell ist der Quellcode frei einsehbar und die Verwendung ist unter der sehr freien MIT Lizenz möglich (darum gibt es ja diverse Mods wie LukeFZ (https://www.patreon.com/LukeFZ) (geht mit fasst allen Herstellern und unterstützt schon viele Spiele) oder von Nukem (https://www.nexusmods.com/site/mods/738?tab=description) (nur NV und wenige Spiele)).

=> Das heißt aber auch, NV könnte den FSR Teil für FG nehmen und für die älteren Architekturen nutzen. Müsste nach MIT Lizenz nur den Urheber (aka AMD) nennen. Die Möglichkeit wird nur wie immer nicht thematisiert ...

Relex
2024-02-03, 14:10:12
Die Frage ist warum noch keiner offiziell FSR3 mit DLSS/TSR zulässt, wenn man den DLSS-FG to FSR3 Mod ansieht sollte das ja kein Problem sein.


Weil Nvidia User dann DLSS + FSR3 FG nutzen können und damit ein besseres Ergebnis bekommen, als die AMD User, die immer FSR nutzen müssen. Ich denke AMD möchte das einfach so.

Aber zumindest TAA oder TSR sollte AMD wirklich dringend freigeben.

Denn die Konkurrenz wird in Zukunft nur größer werden.
Ich denke da auch an Sony und Microsoft im Konsolenbereich...

fondness
2024-02-03, 14:16:35
Der Quellcode frei einsehbar und die Verwendung ist unter der sehr freien MIT Lizenz möglich. NV könnte also den FSR Teil für FG nehmen und für die älteren Architekturen nutzen. Müsste nach MIT Lizenz nur den Urheber (aka AMD) nennen. K.a. warum hier wieder nur in eine Richtung geschossen wird ...

Weil selbst die AMD-Threads längst von NV-Usern überrannt wurden, die sich besonders toll vorkommen, wenn sie AMD bashen. Was im übrigen maximal dämlich ist, da es nur weiter in Richtung Monopol führt.

robbitop
2024-02-03, 14:27:57
=> Das heißt aber auch, NV könnte den FSR Teil für FG nehmen und für die älteren Architekturen nutzen. Müsste nach MIT Lizenz nur den Urheber (aka AMD) nennen. Die Möglichkeit wird nur wie immer nicht thematisiert ...
Das stimmt. Aber die Erfahrung lehrt: überlässt du das den Studios kommt meistens nicht das Optimum heraus. Am besten ist wenn man so viel wie möglich vorgibt um die best mögliche und so konsistent wie mögliche Lösung zu erzielen. So macht Nvidia das.
Das ginge mMn auch mit open source. Einfach dafür sorgen dass das Verfahren im default Zustand so gut wie möglich ist und die Entwickler so gut wie möglich an die Hand nehmen und supporten.

Das erfordert aber schon einen gewissen Spirit / Drive bzw. Anspruch von Perfektionismus. Und den lebt man als VP/SVP vor und sorgt dafür dass die Organisation dem folgt.

Obiges war nicht auf DLSS + FSR3 gemünzt denn daran kann AMD nichts haben. Aber auf den grundsätzlichen Zustand ihrer Verfahren.

vinacis_vivids
2024-02-03, 14:30:59
Weil Nvidia User dann DLSS + FSR3 FG nutzen können und damit ein besseres Ergebnis bekommen, als die AMD User, die immer FSR nutzen müssen. Ich denke AMD möchte das einfach so.

Aber zumindest TAA oder TSR sollte AMD wirklich dringend freigeben.

Denn die Konkurrenz wird in Zukunft nur größer werden.
Ich denke da auch an Sony und Microsoft im Konsolenbereich...

Wovon träumst du nachts, dass du hier behauptest FSR3-FG mit NV besser läuft als bei AMD :crazy:

DrFreaK666
2024-02-03, 14:47:42
Wovon träumst du nachts, dass du hier behauptest FSR3-FG mit NV besser läuft als bei AMD :crazy:

Es geht doch ganz klar um die Bildqualität von FSR im Vergleich zu DLSS. :rolleyes:

vinacis_vivids
2024-02-03, 14:53:45
Mit AMD Freesync HDR on ist AMD`s FSR deutlich besser und schöner als DLSS.

Relex
2024-02-03, 14:57:56
Was hat Freesync mit FSR zu tun.

Und warum sollte HDR mit FSR besser aussehen, als mit DLSS.


Ich bin mir ehrlich gesagt nichtmal sicher ob ich verstanden habe, was du sagen willst. Du wirfst einfach random begriffe durcheinander. WTF. :freak:

Gast
2024-02-03, 18:19:57
Weil selbst die AMD-Threads längst von NV-Usern überrannt wurden, die sich besonders toll vorkommen, wenn sie AMD bashen. Was im übrigen maximal dämlich ist, da es nur weiter in Richtung Monopol führt.
daran ist aber AMD schuld. In jeder Präsentation bashed AMD gegen Nvidia, Nvidia macht sowas im Gegensatz aber nicht.

GerryB
2024-02-04, 13:58:06
Jo, die NV-präsis sind State of Art. ... wenn man Turing vs Ada vergleichen möchte.

Ich finds bei AMD aktueller, um nicht zu sagen = informativer.
vor Allem das Vgl.tool ist doch net sooo schlecht: siehe Anhang

Das man noch gesondert auf FSR2 eingeht in allen Qualitätsstufen, ist auch nicht verkehrt.
(in Zukunft wirds dann hoffentlich bezgl. FSR3+FG ergänzt)

GerryB
2024-02-04, 15:38:52
Was hat Freesync mit FSR zu tun.

Und warum sollte HDR mit FSR besser aussehen, ...

FreeSync 2 bekommt mit dem neuen Treiber GPU-basiertes automatisches Tone-Mapping in HDR-Spielen. Das soll eine detaillierte Darstellung ermöglichen, etwa wenn man aus einer dunklen Höhle ins Sonnenlicht draußen blickt.

https://www.heise.de/news/Neuer-Radeon-Treiber-mit-Auto-OC-und-Streaming-Funktionen-4249481.html

War damals, 2018 in dem Treiber ein Fortschritt bezgl. HDR.

Gast
2024-02-04, 19:34:31
Mit AMD Freesync HDR on ist AMD`s FSR deutlich besser und schöner als DLSS.
JEDER Test ohne Ausnahme, zeigt genau das Gegenteil.

Deine dauerhaften Lügen lassen AMD immer schlechter dastehen...

Gast
2024-02-05, 00:20:16
FreeSync 2 bekommt mit dem neuen Treiber GPU-basiertes automatisches Tone-Mapping in HDR-Spielen. Das soll eine detaillierte Darstellung ermöglichen, etwa wenn man aus einer dunklen Höhle ins Sonnenlicht draußen blickt.

https://www.heise.de/news/Neuer-Radeon-Treiber-mit-Auto-OC-und-Streaming-Funktionen-4249481.html

War damals, 2018 in dem Treiber ein Fortschritt bezgl. HDR.
freesync != FSR

Relex
2024-02-05, 02:12:30
FreeSync 2 bekommt mit dem neuen Treiber GPU-basiertes automatisches Tone-Mapping in HDR-Spielen. Das soll eine detaillierte Darstellung ermöglichen, etwa wenn man aus einer dunklen Höhle ins Sonnenlicht draußen blickt.

https://www.heise.de/news/Neuer-Radeon-Treiber-mit-Auto-OC-und-Streaming-Funktionen-4249481.html

War damals, 2018 in dem Treiber ein Fortschritt bezgl. HDR.


Danke für die Antwort.

Habe mir mehrere Artikel dazu durchgelesen.

https://www.igorslab.de/en/amd-graphics-cards-freesync-latency-hdr/

Alles was hier getan wird ist Displayseitiges Tonemapping abzuschaffen, indem das Spiel die Metadaten des Monitors zugespielt bekommt und das Tonemapping Spielintern bereits passiert.

Aber genau das ist mittlerweile seit Jahren Standard und nennt sich HGiG…
Über die EDID werden die Metadaten des Displays ausgelesen, kann man sich auch in Windows in den Displayeigenschaften anzeigen lassen. Die Spiele lesen das aus und justieren den Tonemapper passend, während das Display selbst kein Tonemapping mehr macht.

VRR + HGIG
Gsync Ultimate HDR
Freesync 2 HDR

Alles nur Marketing Namen für die selbe Funktion.

Was das jetzt mit FSR zu tun haben soll, versteh ich immer noch nicht.

jorge42
2024-02-05, 11:10:58
1. Wenn man ein A/F-Sync Monitor hat und dessen VRR Feature nutzen will, dann muss man für AFMF ein Framelimiter wie RTSS nutzen mit den oben beschriebenen Settings. Ob dies sinnvoll ist muss jeder für sich entscheiden und kommt mit Sicherher darauf an, wie hoch die Hz des Monitors ist.

2. Hat man ein A/F-Sync Monitor und verursacht dieser kein Micro-Stutter bei über-/unterschreitung der VRR Rage und/oder stört einen Tearing nicht, dann kann man AFMF wie auch FG nutzen ohne V-Sync ...

3. Hat man eine starke GPU oder ein genügsames Spiel und erreicht seine Wunsch/Ziel FPS so, dann braucht man nicht AFMA nutzen. Wenn doch, tauscht man bessere Latenz gegen niedrigeren Energieverbrauch ...

4. Wer die beste Latenz will/braucht, dann ist weder AFMF noch FG von DLSS/FSR wirklich die richtige Wahl.

5. Will man V-Sync nutzen, dann muss man FSR3 oder DLSS3 nutzen. AMD's FMF wird nicht für V-Sync beworben, anders als der Kommentar von 00-Schneider vermuten lässt.

Danke

vinacis_vivids
2024-02-05, 20:09:00
AMD FSR3 ersetzt NV DLSS-Frame Generation

ingCAwzSBV8

Robocop - FSR3 aka DLSS upscale + FG
Cyberpunk 2077 - FSR3 FG solo
The Witcher 3 - FSR3 FG solo
Spider-Man - FSR3 FG solo
Ratchet & Clank: Rift Apart - FSR3 FG solo
Hogwarts Legacy - FSR3 aka DLSS upscale + FG

Alles "DLSS" ausgeführt an einer AMD Radeon RX6700!

AMD fine wine :-) - FSR3 schmeckt auch frisch gebraut ganz gut.

Wäre geil wenn FSR3 + FG auch auf der Vega uArch funktionieren würde.

robbitop
2024-02-05, 20:28:38
Sollte eigentlich auf jeder GPU laufen. Auch auf Vega. Oder Pascal.

DrFreaK666
2024-02-05, 21:29:25
Laut AMD wird es erst ab der 5700 unterstützt. Könnte mit der Mod aber anders aussehen
Supported:
AMD Radeon™ RX 5700 and above

dargo
2024-02-06, 08:21:54
Verstehe ich es richtig? Mit der Mod geht nun FSR3 + TSR und FG von AMD liefert bessere Ergebnisse als FG von Nvidia, Thema UI? :|

robbitop
2024-02-06, 08:57:24
Laut AMD wird es erst ab der 5700 unterstützt. Könnte mit der Mod aber anders aussehen
Ab da haben sie es vielleicht validiert. War mit FSR2 auch so - das lief auch überall. Einfach mal auspropieren. Das ist normales compute. Das ist dann vielleicht nicht mehr optimiert für ältere GPUs aber ausführen können sollte das jede halbwegs moderne GPU.

The_Invisible
2024-02-06, 09:17:11
Verstehe ich es richtig? Mit der Mod geht nun FSR3 + TSR und FG von AMD liefert bessere Ergebnisse als FG von Nvidia, Thema UI? :|

Nö er bezieht sich auf die vorige Version der Mod.

Aber schon interessant, braucht man sich nicht mehr mit FSR2 Upscaling herumschlagen obwohls schon ziemlich Frickelei ist und dann noch die 5 EUr monatlich.

Relex
2024-02-06, 09:30:13
Verstehe ich es richtig? Mit der Mod geht nun FSR3 + TSR und FG von AMD liefert bessere Ergebnisse als FG von Nvidia, Thema UI? :|

Die FSR3 mod hatte bisher probleme mit dem UI, weil wohl die richtigen motion vectors gefehlt haben.
Man nutzt jetzt die motion vectors die das Spiel mit DLSS3 FG generiert und führt sie dem ins Spiel gemoddeten FSR3 FG zu, um die UI Probleme mit FSR3 zu beseitigen.

Es ist halt ein Workaround der für die Mod gebraucht wird.


Interessant ist hierbei, dass die FSR3 FG Mods wohl Motion Vectors von DLSS3 brauchen, damit das UI nicht eskaliert, während es umgekehrt bei den DLSS3 Mods nicht gebraucht wurde (da gabs ja auch noch kein FSR3.) Bei den DLSS3 Mods haben die Motion Vectors vom Upscaler oder TAA ausgebreicht bzw. man hat das ganze über ein ebenfalls ins Spiel gemoddetes DLSS/DLAA realisiert, wie z.B. bei Starfield, welches ja anfangs nur den FSR Upscaler hatte.

Wenn hier FSR3 etwas robuster in Sachen UI wäre, dann wäre das ganze modding sogar noch viel einfacher. Aber vielleicht bekommen die Modder das ja in Zukunft auch ohne die Hilfe von DLSS3 hin.

robbitop
2024-02-06, 10:03:11
und dann noch die 5 EUr monatlich.
Finde ich für einen Mod auch irgendwie...ungewöhnlich. Es gibt aber auch keine Pflicht, ein Monatsabo zu erhalten. Einmalig 5 EUR und alle Mods runterladen und wieder kündigen geht wohl auch.


Interessant ist hierbei, dass die FSR3 FG Mods wohl Motion Vectors von DLSS3 brauchen, damit das UI nicht eskaliert, während es umgekehrt bei den DLSS3 Mods nicht gebraucht wurde (da gabs ja auch noch kein FSR3.) Bei den DLSS3 Mods haben die Motion Vectors vom Upscaler oder TAA ausgebreicht bzw. man hat das ganze über ein ebenfalls ins Spiel gemoddetes DLSS/DLAA realisiert, wie z.B. bei Starfield, welches ja anfangs nur den FSR Upscaler hatte.

Wenn hier FSR3 etwas robuster in Sachen UI wäre, dann wäre das ganze modding sogar noch viel einfacher. Aber vielleicht bekommen die Modder das ja in Zukunft auch ohne die Hilfe von DLSS3 hin.
IIRC ist hier tatsächlich der Ansatz bei DLSS 3 FG ein anderer.

FSR 3 FG empfiehlt, statische Elemente (HUD) zu exkludieren. Vorteil: keine Artefakte. Nachteil: UI was sich bewegt erscheint nicht flüssiger und kann immersionsbrechend sein. Und wenn das HUD schlecht ausmaskiert ist (siehe Avatar), sieht man dort auch unschöne Artefakte.

DLSS 3 FG appliziert Frame Generation auch für statische Elemente. Entsprechend muss es nicht ausmaskiert werden. Umgekehrte Vor- Nachteile von FSR 3. Ich könnte mir vorstellen, dass es hierfür eine heuristische Erkennung von statischen Elemennten gibt (die ggf. auch AI gestützt ist um die Trefferrate besser zu machen).

Gast
2024-02-06, 11:32:45
FSR 3 FG empfiehlt, statische Elemente (HUD) zu exkludieren. Vorteil: keine Artefakte. Nachteil: UI was sich bewegt erscheint nicht flüssiger und kann immersionsbrechend sein.


Für alles was sich im 3D-Raum befindet (z.B. Questmarker) ist das zwangsläufig immersionsbrechend. Selbst bei Pixelperfekter Maskierung springt der dann alternierend zwischen 2 Frames im Raum herum.


DLSS 3 FG appliziert Frame Generation auch für statische Elemente. Entsprechend muss es nicht ausmaskiert werden.


Soweit ich weiß ist es beides, auch für DLSS3 müssen die GUI-Elemente gekennzeichnet werden, was schon einige vergessen haben und dementsprechend aussah. Der Unterschied ist allerdings, dass DLSS diese trotzdem auch interpoliert und nicht auf halber Framerate belässt.

Achill
2024-02-06, 12:44:39
Finde ich für einen Mod auch irgendwie...ungewöhnlich. Es gibt aber auch keine Pflicht, ein Monatsabo zu erhalten. Einmalig 5 EUR und alle Mods runterladen und wieder kündigen geht wohl auch.


IIRC ist hier tatsächlich der Ansatz bei DLSS 3 FG ein anderer.

FSR 3 FG empfiehlt, statische Elemente (HUD) zu exkludieren. Vorteil: keine Artefakte. Nachteil: UI was sich bewegt erscheint nicht flüssiger und kann immersionsbrechend sein. Und wenn das HUD schlecht ausmaskiert ist (siehe Avatar), sieht man dort auch unschöne Artefakte.

DLSS 3 FG appliziert Frame Generation auch für statische Elemente. Entsprechend muss es nicht ausmaskiert werden. Umgekehrte Vor- Nachteile von FSR 3. Ich könnte mir vorstellen, dass es hierfür eine heuristische Erkennung von statischen Elemennten gibt (die ggf. auch AI gestützt ist um die Trefferrate besser zu machen).

Das UI-Handling ist etwas anders beschrieben ...



[..]

FSR 3 supports three composition modes of UI (User Interface) rendering:
• Callback (recommended)
• UI texture
• HUDLess (compatibility mode, not recommended)

[..]


Wie schon richtig gesagt, Callback wird von AMD für FSR3 empfohlen.


[..]

UI Handling
• Three different UI composition options: (note: this step is REQUIRED for integration)
• UI texture: UI is stored in another RT on top of generated frames.
• Callback: User calls an FSR 3 function where UI can rendered on top of the generated frame.
• HUDLess: Identify UI by comparing the game frame without UI to the game frame with UI.


+ Später ist hier der Ablauf für den Callback Fall visualisiert: https://gpuopen.com/presentations/2023/AMD_FidelityFX_Super_Resolution_3-Overview_and_Integration.pdf#page=28

=> Der Callback-Ansatz ermöglicht also, dass für eine generiertes Frame ein neuer UI Zustand (vom Spiel) berechnet werden kann. Es ist also nicht zwangsläufig die UI vom Frame davor sondern kommt ganz auf die Umsetzung durch das Studio an.

robbitop
2024-02-06, 12:56:39
Sehr gut :up:
Dann steht ja mit richtiger Konfiguration halbwegs sauberen UIs auch ohne Ausmaskieren bei FSR3 FG nichts mehr im Weg.

Tesseract
2024-02-06, 13:07:28
Soweit ich weiß ist es beides, auch für DLSS3 müssen die GUI-Elemente gekennzeichnet werden, was schon einige vergessen haben und dementsprechend aussah. Der Unterschied ist allerdings, dass DLSS diese trotzdem auch interpoliert und nicht auf halber Framerate belässt.

DLSS bekommt einmal den frame ohne UI, einmal das UI allein mit alpha und einmal den fertigen frame mit UI. was damit passiert entscheidet dann allein das NN bzw. die blackbox.

Achill
2024-02-06, 13:25:33
[..]
Soweit ich weiß ist es beides, auch für DLSS3 müssen die GUI-Elemente gekennzeichnet werden, was schon einige vergessen haben und dementsprechend aussah. Der Unterschied ist allerdings, dass DLSS diese trotzdem auch interpoliert und nicht auf halber Framerate belässt.

DLSS bekommt einmal den frame ohne UI, einmal das UI allein mit alpha und einmal den fertigen frame mit UI. was damit passiert entscheidet dann allein das NN bzw. die blackbox.

Was Tesseract sagt, siehe: https://github.com/NVIDIAGameWorks/Streamline/blob/main/docs/ProgrammingGuideDLSS_G.md#50-tag-all-required-resources

---

Die FSR3 mod hatte bisher probleme mit dem UI, weil wohl die richtigen motion vectors gefehlt haben.
Man nutzt jetzt die motion vectors die das Spiel mit DLSS3 FG generiert und führt sie dem ins Spiel gemoddeten FSR3 FG zu, um die UI Probleme mit FSR3 zu beseitigen.

Es ist halt ein Workaround der für die Mod gebraucht wird.


Interessant ist hierbei, dass die FSR3 FG Mods wohl Motion Vectors von DLSS3 brauchen, damit das UI nicht eskaliert, während es umgekehrt bei den DLSS3 Mods nicht gebraucht wurde (da gabs ja auch noch kein FSR3.) Bei den DLSS3 Mods haben die Motion Vectors vom Upscaler oder TAA ausgebreicht bzw. man hat das ganze über ein ebenfalls ins Spiel gemoddetes DLSS/DLAA realisiert, wie z.B. bei Starfield, welches ja anfangs nur den FSR Upscaler hatte.

Wenn hier FSR3 etwas robuster in Sachen UI wäre, dann wäre das ganze modding sogar noch viel einfacher. Aber vielleicht bekommen die Modder das ja in Zukunft auch ohne die Hilfe von DLSS3 hin.

=> Damit ist dann klar, dass dieser Post falsch ist. Sowohl in der Beschreibung, wie DLSS die UI behandelt noch die Behauptung, dass bei der Lösung von LukeFZ Mod es sich um ein Work-Around handelt.

=> Wenn Spiele DLSS-FG integriert haben und da DLSS-FG nur den HUD-Textur Ansatz unterstützt, so kann FSR3 für FG auch nicht anders betrieben werden, da es keine anderen Daten/Callbacks im org. Spiel gibt.

Relex
2024-02-07, 18:54:48
Starfield hat jetzt den Beta Patch für FSR3 Support bekommen

https://steamcommunity.com/games/1716740/announcements/detail/4064004100620219003


Mein erster Eindruck ist sehr positiv.

+ Das Framepacing mit VRR funktioniert.
+ Das HUD zeigt keine Artefakte.
+ Die Performanceskalierung ist besser als mit DLSS FG
- Die Bildqualität mit FSR auf 100% Auflösung ist - na ja - "akzeptabel"


Beispiel zur Performanceskalierung im GPU Limit:

1440p max Settings

DLAA: 77 FPS
DLAA + DLSS FG: 123 FPS (+59,7%)

FSR 100%: 75 FPS
FSR 100% + FSR FG: 137 FPS (+82,67%)



Nvidia sollte hier aufpassen, dass sie bei der Performanceskalierung von FSR3 in Zukunft nicht häufiger überholt werden. Sonst hat AMD bald die längeren Balken in den FG Benchmarks.

Jetzt wo das VRR Ruckeln beseitigt ist, ist das schon echt ein knaller. Wenn das Problem mit der Bildqualität nicht wäre...
Ich finds echt super, dass AMD beim FG Anteil auch ordentliche Bildqualität hinbekommen hat. Jetzt muss "nur" noch der Upscaling/AA Part ordentlich werden oder man erlaubt die Kombination mit anderen Methoden.

Platos
2024-02-07, 19:23:08
Die Latenzen müsste man jetzt noch vergleichen, um ein abachliessendes Urteil zu bilden (und ein Bildqualitätsvergleich).

Ex3cut3r
2024-02-07, 19:28:34
Das man als Nvidia User bei FSR 3.0 (AMDs FG) auch FSR 2.0 als Nvidia User nutzen muss, ist eigentlich das größte Verbrechen seit es Software gibt. :freak:

Relex
2024-02-07, 19:42:21
Die Latenzen müsste man jetzt noch vergleichen, um ein abachliessendes Urteil zu bilden (und ein Bildqualitätsvergleich).

Bei den Latenzen kann ich hier subjektiv keinen Unterschied zwischen FSR3 FG und DLSS FG feststellen.

Das GeForce Overlay versagt hier komplett und taugt nichtmal als Anhaltspunkt. Bei FSR3 zeigt es mir latenzen zwischen 5 und 10ms an. Komplett unrealistisch und schwankt auch sehr stark. Da brauchts ne richtige Messung.


Nett ist auch, dass mein Monitor mit FSR3 jetzt nicht mehr flimmert (auch bei Talos 2 nicht mehr). Bei Avatar hatte ich das Gefühl, auf einem 75 Hz CRT zu spielen...

Relex
2024-02-07, 19:48:34
Das man als Nvidia User bei FSR 3.0 (AMDs FG) auch FSR 2.0 als Nvidia User nutzen muss, ist eigentlich das größte Verbrechen seit es Software gibt. :freak:

Leider ja. Aber man könnte versuchen, es mit Downsampling via DL-DSR + größerem Upscaling Faktor als performance ausgleich zu umgehen.

Da DL-DSR eine temporale Komponente hat, sollte man zumindest das Kantenflimmern mit FSR etwas eindämmen können.

Für GeForce Nutzer ohne Ada Karte wahrscheinlich die beste Option.

Exxtreme
2024-02-07, 19:50:30
FSR2/3 hat auch eine temporale Komponente. ;) Was es halt nicht hat ist eine Pilz-Komponente, die Halluzinationen erzeugt wenn zu wenig temporale Daten vorliegen.

Linmoum
2024-02-07, 19:56:41
Das man als Nvidia User bei FSR 3.0 (AMDs FG) auch FSR 2.0 als Nvidia User nutzen muss, ist eigentlich das größte Verbrechen seit es Software gibt. :freak:Es ist ja nicht nur DLSS SR FSR2 (weit) überlegen. Am Ende kann man aber halt schön mit Open-Source werben und wie toll man doch ist, obwohl die Nutzung in der aktuellen Form nur auf den eigenen Radeon-GPUs Sinn ergibt (und man zudem AL+ auch exklusiv RDNA3 vorbehält, ist der amateurhafte dll-Quatsch mittlerweile eigentlich schon gefixt und es funktioniert?). AMD ist halt auch nur eine Firma wie jede andere, die sich in erster Linie um die eigenen (aktuellen) Produkte schert.

Mir aber auch immer noch ein Rätsel, was AMD damit bezwecken will, dass FSR2 im Jahr 2024 immer noch in diesem schlechten Zustand ist. Bevor man FMF in diesem Alpha-Status auf die Kunden loslässt und seit Monaten schlechte Presse ob dieser Umstände einheimst, hätte man sich lieber um das bestehende Probleme kümmern sollen, das ja zudem auch noch zwingend Voraussetzung für Frame Generation ist.

Relex
2024-02-07, 20:19:47
FSR2/3 hat auch eine temporale Komponente. ;) Was es halt nicht hat ist eine Pilz-Komponente, die Halluzinationen erzeugt wenn zu wenig temporale Daten vorliegen.

Ist mir schon bewusst. Hatte es nur erwähnt, weil das normale DSR oder AMDs VSR keine temporale Komponente haben.

Und ob es bei DLSS nur an den Pilzen liegt weiß ich ja nicht. Das Flimmern ist auch mit TAA deutlich besser im Vergleich zu FSR@100%. Und das wenn ich still stehe und einfach nur die Kamera langsam bewege.
Sind also noch nichtmal besondere Bedingungen unter denen FSR zurückfällt. Es reicht einfach nur die maus zu bewegen und vorwärts zu laufen.

Tesseract
2024-02-07, 21:24:58
Was es halt nicht hat ist eine Pilz-Komponente, die Halluzinationen erzeugt wenn zu wenig temporale Daten vorliegen.

das wird zwar so genannt aber der begriff verleitet definitiv dazu irgendwas reinzudichten was es nicht ist. die temporalen verfahren gehen im prinzip alle ähnlich vor: wenn man sich die temporalen samples als punkte in einem farbkoordinatensystem vorstellt liegen die meisten punkte meistens nahe beisammen und ein paar schlechte samples irgendwo weiter weg. der TAA-algorithmus ermittelt dann eine hülle die möglichst alle guten samples einschließt aber relativ klein bleibt. die outlier werden dann einfach an den rand dieser hülle geclampt. das ist im prinzip auch "halluzinieren" von daten aber auf eine extrem primitive weise. das NN von DLSS kann die outlier nicht nur an die hülle clampen sondern sinnvoller platzieren, je nach dem welche pattern die "guten" samples bilden.

Lurtz
2024-02-07, 21:41:41
Beispiel zur Performanceskalierung im GPU Limit:

1440p max Settings

DLAA: 77 FPS
DLAA + DLSS FG: 123 FPS (+59,7%)

FSR 100%: 75 FPS
FSR 100% + FSR FG: 137 FPS (+82,67%)

Nvidia sollte hier aufpassen, dass sie bei der Performanceskalierung von FSR3 in Zukunft nicht häufiger überholt werden. Sonst hat AMD bald die längeren Balken in den FG Benchmarks.

Ich hab die kostenlose Mod mal getestet und auch mit der ist die Skalierung deutlich besser als mit DLSS FG.

Man hat immer mehr den Eindruck nVidia nutzt den tollen Optical Flow Accelarator primär zur Produktsegmentierung. Das ist schon reichlich absurd, dass eine reine Softwarelösung von AMD auf Geforces besser läuft als die proprietäre, "native" Lösung.

Relex
2024-02-07, 21:52:49
Das bringt Nvidia hoffentlich dazu, nachzubessern.

Starke Konkurrenz ist eine tolle Sache.
Mal sehen, wer zuerst mehr als nur ein Zwischenbild generieren kann.

Gast
2024-02-07, 22:29:36
Das bringt Nvidia hoffentlich dazu, nachzubessern.

Starke Konkurrenz ist eine tolle Sache.
Mal sehen, wer zuerst mehr als nur ein Zwischenbild generieren kann.

Erstmal muss sich FSR 3 wirklich in Games bewähren und flexibler werden, solche Mods/HDR haben da keine Relevanz. Die Qualität ist halt bescheiden und zu den Latenzen gibt es auch keine Messungen.

robbitop
2024-02-08, 09:43:20
Da DL-DSR eine temporale Komponente hat, sollte man zumindest das Kantenflimmern mit FSR etwas eindämmen können.
Hat es nicht. Es ist transparent zum Spiel. Ergo keine Motion Vectors ergo kein temporal. DL-DSR nutzt den DL Anteil für den Filterkernel und sicherlich andere spatiale Tricks.

Es ist ja nicht nur DLSS SR FSR2 (weit) überlegen. Am Ende kann man aber halt schön mit Open-Source werben
IMO ist selbst das zu bezweifeln. "Open Source" ist mehr als nur den Source Code auf Github zu dumpen. Und genau das ist das was AMD tut. Open Source ist auch "developing in public". Also Dialog mit der Community inkl. Einarbeiten des (besonders sinnvollen) Inputs - oder zumindest diesen erwägen.
Ich finde es ziemlich dämlich, dass man das Potenzial von Open Source nicht nutzt. Nicht den Input um seine Verfahren zu verbessern über einen aktiven Dialog und auch nicht diesen Dialog um Talent an Board zu bringen. Auf github treiben sich immer wieder richtig gute Talente rum die dann an sowas mitunter auch aktiv mitarbeiten. Die braucht man nur über aktive community Arbeit zu identifizieren. (guter Code wird gut gerated und eigene Entwickler sollten in der Lage sein das zu verifizieren) Aber nope: dump den Code und fertig.

Ich hab das eine Weile nicht mehr beobachtet - also man möge mich bitte korrigieren, wenn sich das mittlerweile geändert hat.

das wird zwar so genannt aber der begriff verleitet definitiv dazu irgendwas reinzudichten was es nicht ist. die temporalen verfahren gehen im prinzip alle ähnlich vor: wenn man sich die temporalen samples als punkte in einem farbkoordinatensystem vorstellt liegen die meisten punkte meistens nahe beisammen und ein paar schlechte samples irgendwo weiter weg. der TAA-algorithmus ermittelt dann eine hülle die möglichst alle guten samples einschließt aber relativ klein bleibt. die outlier werden dann einfach an den rand dieser hülle geclampt. das ist im prinzip auch "halluzinieren" von daten aber auf eine extrem primitive weise. das NN von DLSS kann die outlier nicht nur an die hülle clampen sondern sinnvoller platzieren, je nach dem welche pattern die "guten" samples bilden.
Ich habe die Vermutung, dass wenn DLSS keine Samples findet (z.B. bei Disocclusion oder wenn die Geometrie sich von frame zu frame zu sehr verändert (durch starken Perspektivwechsel, Kameraschwenks in Querrichtung etc - genau da kollabiert FSR und auch andere Verfahren leider oft wohingegen DLSS relativ robust bleibt), aber auch versucht, sinnvolle Samples zu erfinden. Oder zumindest das Fehlen gut zu kaschieren. Das macht es temporal ziemlich stabil.

Gast
2024-02-09, 10:54:02
Das bringt Nvidia hoffentlich dazu, nachzubessern.

Starke Konkurrenz ist eine tolle Sache.
Mal sehen, wer zuerst mehr als nur ein Zwischenbild generieren kann.
nein, dlss FG sieht deutlich besser aus und hat viel weniger Fehler...

robbitop
2024-02-09, 17:07:56
nein, dlss FG sieht deutlich besser aus und hat viel weniger Fehler...

Man sollte hier sicherstellen dass man hier (um FG isoliert zu betrachten) gleiches mit gleichem vergleicht.
Leider haben die offiziellen FSR3 FG Implementierungen FSR Upsampling drin.
Entsprechend müsste man DLSS 3 FG entweder mit FSR Upsampling kombinieren oder aber einen DLSS -> FSR3 Mod nehmen wo FSR3 FG mit DLSS Upsampling auf einer Geforce kombiniert wird.


IMO kommen die meisten negativen FSR 3 Eindrücke vom schlechteren Upsampling und zT von den immernoch nicht immer konsistent funktionierenden Frametimes (manchmal sauber und manchmal nicht - siehe DF Video).

DrFreaK666
2024-02-09, 18:00:49
Im DF-Video geht's um ein Spiel (Avatar), wenn ich mich nicht irre. Seitdem haben noch mehr Games FSR3 bekommen, das aber irgendwie keiner unter die Lupe nimmt

FunkyChris
2024-02-09, 20:03:13
Ich hab die kostenlose Mod mal getestet und auch mit der ist die Skalierung deutlich besser als mit DLSS FG.

Man hat immer mehr den Eindruck nVidia nutzt den tollen Optical Flow Accelarator primär zur Produktsegmentierung. Das ist schon reichlich absurd, dass eine reine Softwarelösung von AMD auf Geforces besser läuft als die proprietäre, "native" Lösung.

Problem bei DLSS 3 FG ist, dass sie die Aktivierung immer an die Aktivierung von Reflex knüpfen. In dieser Kombination wird die GPU-Last auf ca. 75% gehalten. Dadurch gehen leider ordentlich fps verloren.

**Hab hier Mist geschrieben, sorry! Habe mich auf die GPU-Load-Anzeige der Windows Game-Bar verlassen, die ist bei aktivierter FG nicht korrekt!**

Lurtz
2024-02-09, 21:36:37
Inwiefern 75%?

The_Invisible
2024-02-09, 22:22:20
Problem bei DLSS 3 FG ist, dass sie die Aktivierung immer an die Aktivierung von Reflex knüpfen. In dieser Kombination wird die GPU-Last auf ca. 75% gehalten. Dadurch gehen leider ordentlich fps verloren.

Dann hast du das fps-Limit schon erreicht, ansonsten bei so 98-99%

Exxtreme
2024-02-09, 22:39:27
Inwiefern 75%?


GN haben grad ein neues Video darüber gemacht:

Fj-wZ_KGcsg

Ist sehr empfehlenswert. Der Nvidia-Fritze meint, dass die Latenzen in der Render Queue sehr schlecht werden können wenn die GPU stark ausgelastet ist. Und das macht Reflex u.A., dass es versucht zu verhindern, dass die GPU ans Limit kommt.

ChaosTM
2024-02-09, 22:40:06
75 vs 99% GPU Last sind bei Big Ada erschreckend wenige %. Im einstelligen Bereich.

Lurtz
2024-02-09, 23:04:23
Verstehe trotzdem nicht wo genau 75% herkommen. Steckt das irgendwo in dem Video? Am Ende meint er nur FPS-Verluste von mehr als 3% mit Reflex werden als Bug geflaggt und möglichst behoben.

Gast
2024-02-09, 23:11:48
Verstehe trotzdem nicht wo genau 75% herkommen. Steckt das irgendwo in dem Video? Am Ende meint er nur FPS-Verluste von mehr als 3% mit Reflex werden als Bug geflaggt und möglichst behoben.


Ist auch kompletter Blödsinn.
Er sagt auch, dass nicht die die GPU Auslastung künstlich verringert wird, sondern die CPU pausiert, so dass die Frametime von CPU und GPU identisch ist.

Exxtreme
2024-02-09, 23:14:17
Ist auch kompletter Blödsinn.
Er sagt auch, dass nicht die die GPU Auslastung künstlich verringert wird, sondern die CPU pausiert, so dass die Frametime von CPU und GPU identisch ist.

Wenn du die CPU künstlich pausierst dann wirkt das wie eine zu schwache CPU und das Spiel wird dann defakto CPU-limitiert. Und dann läuft die Renderqueue auch nicht voll.

FunkyChris
2024-02-09, 23:38:56
Vielleicht hängt es auch nur mit den DLSS FG-Mods von PureDark zusammen. Aber da ist es so, dass die Deaktivierung von Reflex (was nicht vorgesehen ist) die GPU-Last von 75% wieder auf 98, 99 % hochgehen lässt und die "fehlenden" frames sind wieder da. Ich muss das ganze mal bei CP2077 gegentesten.

Aber hier ist ja auch der FSR-Thread :D

Relex
2024-02-10, 01:07:46
Nö, kann ich auch nicht nachvollziehen.

Habe auch Mods von Pure Dark und das ist nirgends so. Mit Reflex und FG geht die GPU Last ganz normal auf 99%.

Wenn die GPU Last runter geht, kommst du mit FG wahrscheinlich in ein FPS Limit.

Denk dran, dass Reflex die FPS knapp unterhalb der maximalen Frequenz deines Monitors begrenzt. Zumindest dann, wenn Vsync an ist.

The_Invisible
2024-02-10, 07:57:31
GN haben grad ein neues Video darüber gemacht:

https://youtu.be/Fj-wZ_KGcsg

Ist sehr empfehlenswert. Der Nvidia-Fritze meint, dass die Latenzen in der Render Queue sehr schlecht werden können wenn die GPU stark ausgelastet ist. Und das macht Reflex u.A., dass es versucht zu verhindern, dass die GPU ans Limit kommt.

Eigentlich nix neues, mit Reflex gibts das schon ewig, fps limit 2-3% unter max Range und GPU Auslastung 98-99%...

FunkyChris
2024-02-10, 12:02:06
Vielleicht hängt es auch nur mit den DLSS FG-Mods von PureDark zusammen. Aber da ist es so, dass die Deaktivierung von Reflex (was nicht vorgesehen ist) die GPU-Last von 75% wieder auf 98, 99 % hochgehen lässt und die "fehlenden" frames sind wieder da. Ich muss das ganze mal bei CP2077 gegentesten.

Aber hier ist ja auch der FSR-Thread :D

OK, Kommando zurück: Problem gefunden. Ich habe mich bei der GPU-Auslastung auf die Anzeige der Windows Game-Bar verlassen, weil in RDR2 im DX12-Modus das RTSS-Overlay das Spiel zum Absturz bringt. Die GPU-Load-Anzeige bei aktivierter FG ist in der Game-Bar nicht korrekt! Tatsächlich ist die GPU-Auslastung auch mit FG nahe 100%. Also skaliert die DLSS-FG nicht so gut wie die FSR, wo man wohl des Öfteren eine echte Veroppelung hat.

Platos
2024-02-10, 12:11:36
Woran könnte das denn liegen? Also dass nvidia hier perfomancetechnisch so viel schlechter dasteht?

Ich finde nämlich, dass nvidia Framegen vor allem den Nachteil hat, dass es eben keine echte Verdopplung bringt (oder nahe). Das führt dazu, dass die "echten" frames bei Nutzung von Framgen weniger werden, als ohne. Hat man beispielsweise 60FPS ohne und 90FPS mit Framegen, hat man nur noch 45 echte FPS anstatt 60, wenn man framegen nutzt.

Von daher finde ich, sollte Framegen immer möglichst eine echte verdopplung geben, da sonst die echten Frames weniger werden, wie ohne Framegen. Das wäre auch latenztechnisch sinnvoll, denn bei obigen Beispiel hat man ja nur noch 45 CPU Frames anstatt 60.

Gerade in solchen FPS Bereichen dürfte man solche Nachteile der "nicht echten Verdopplung" merken. Denn 45 anstatt 60 FPS ist latenztechnisch schon ein Unterschied. Und bei sehr schnellen Bewegungen dürfte auch die Bildqualität der generierten Zwischenbilder darunter leiden, weil es nur noch 45 anstatt 60 echte fps hat, die man als Basis hat. Das führt dann potentiell zu schlechterer Bildqualität bzw. schlechterer Bewegtschärfe (bei schnellen Bewegungen).

Das Ziel sollte m.M.n also sein, dass Framegen mind. immer eine echte Verdopplung der FPS ergibt, so dass die echten Frames nicht weniger werden bei Nutzung von framegen. Und bei nvidia scheint das wohl nicht so gut zu klappen.

robbitop
2024-02-10, 12:42:46
Nach meinem Verständnis hängt die Skalierung von FSR3 vom jeweiligen Limit ab. Limitiert die CPU (und es sind Ressourcen auf der GPU über) ist die Skalierung besser (FSR3 kostet ja compute Zeit). Ist die GPU jedoch im Limit skaliert es weniger gut, weil der Compute ja oben drauf kommt.
Ich würde Nvidias DLSS 3 FG da von der Theorie her eigentlich eher etwas besser vermuten (insbesondere im GPU Limit) da ja viel compute über seperate HW läuft (optical flow accelerator und die Tensor Cores). Müsste man also vor allem mal im GPU Limit vergleichen.

Achill
2024-02-10, 13:06:36
Nach meinem Verständnis hängt die Skalierung von FSR3 vom jeweiligen Limit ab. Limitiert die CPU (und es sind Ressourcen auf der GPU über) ist die Skalierung besser (FSR3 kostet ja compute Zeit). Ist die GPU jedoch im Limit skaliert es weniger gut, weil der Compute ja oben drauf kommt.
Ich würde Nvidias DLSS 3 FG da von der Theorie her eigentlich eher etwas besser vermuten (insbesondere im GPU Limit) da ja viel compute über seperate HW läuft (optical flow accelerator und die Tensor Cores). Müsste man also vor allem mal im GPU Limit vergleichen.

Es gibt wiederum viele GPU-Limits und u.a. auch immer das TBP der Karte selbst. Alle FF-HW (sofern der optical flow accelerator so etwas ist) benötigen auch Energie um Operationen durchzuführen (und genauso der Zugriff auf die Daten). In wie fern diese jetzt energetisch günstiger Ausfallen wird, dies kann man nicht einfach feststellen ... wichtig ist nur, dass wenn im Non-FG Fall schon das Power-Budget ausgeschöpft wird, dann sind zwar die Einheiten "frei" für Berechnungen (und können dies hoffentlich parallel), werden in diesen Fall aber Auswirkungen auf andere Teile der GPU haben (Power-Budget) wenn diese jetzt genutzt werden.

Raff
2024-02-10, 13:23:28
Nach meinem Verständnis hängt die Skalierung von FSR3 vom jeweiligen Limit ab. Limitiert die CPU (und es sind Ressourcen auf der GPU über) ist die Skalierung besser (FSR3 kostet ja compute Zeit). Ist die GPU jedoch im Limit skaliert es weniger gut, weil der Compute ja oben drauf kommt.
Ich würde Nvidias DLSS 3 FG da von der Theorie her eigentlich eher etwas besser vermuten (insbesondere im GPU Limit) da ja viel compute über seperate HW läuft (optical flow accelerator und die Tensor Cores). Müsste man also vor allem mal im GPU Limit vergleichen.

Interessanterweise ist genau das nicht der Fall. In allen Proben, die ich in den letzten Monaten genommen habe, skalierte FSR FG besser als DLSS FG. Die neuesten Messungen gibt's im Starfield-Benchfred: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13487645&postcount=4

Aber: DLAA ist in einigen Fällen schneller als TAA (dort nicht zu sehen), was die naheliegende Theorie mit den Tensor Cores unterstützt.

MfG
Raff

Tesseract
2024-02-10, 13:52:53
die frage ist wie das auf kleineren karten aussieht. der OFA ist ja, soweit ich weiß, auf allen ada karten identisch und die 4090 hat shaderthroughput ohne ende. dass mit fast 100 TFLOPS ein shaderbasierter algo schnell durch ist verwundert nicht sonderlich.

Relex
2024-02-10, 14:16:13
Es gibt wiederum viele GPU-Limits und u.a. auch immer das TBP der Karte selbst. Alle FF-HW (sofern der optical flow accelerator so etwas ist) benötigen auch Energie um Operationen durchzuführen (und genauso der Zugriff auf die Daten). In wie fern diese jetzt energetisch günstiger Ausfallen wird, dies kann man nicht einfach feststellen ... wichtig ist nur, dass wenn im Non-FG Fall schon das Power-Budget ausgeschöpft wird, dann sind zwar die Einheiten "frei" für Berechnungen (und können dies hoffentlich parallel), werden in diesen Fall aber Auswirkungen auf andere Teile der GPU haben (Power-Budget) wenn diese jetzt genutzt werden.

Das könnte ich entkräftigen.

Ich habe letztens Benchmarks in Cyberpunk gemacht, um mal auszutesten, wie meine Karte über die gesamte Range des einstellbaren Powerlimits skaliert in 5% schritten.
Dabei hab ich sichergestellt, dass die GPU das Powerlimit auch wirklich zu 100% ausnutzt.

Wenn ich die performanceskalierung mit und ohne Framegen vergleiche, dann ist sie beim jeweiligen Powerlimit identisch.

Wenn ich z.B. bei 70% Powertarget sagt wir 10% Performance verliere, dann verliere ich sie sowohl mit als auch ohne Framegeneration.

Ich hatte zuerst auch die Vermutung, dass Features wie FG, DLAA oder RayReconstruction mehr Powerbudget brauchen und die performanceskalierung mit reduziertem Powerlimit dadurch schlechter ausfällt. War aber nicht so. Der Einfluss muss so minimal sein, dass es kaum messbar ist.


Also powerlimit ist definitiv nicht der Grund für eine schlechte Performanceskalierung mit FG.

Ich frage mich, ob ein etwas agressiver agierendes Reflex hier abhilfe schaffen könnte, indem es die GPU Last nicht bei sagen wir 98-99% hält, sondern vielleicht nur bei 95%. Wenn dann eine (nahezu) Verdoppelung der Framerate möglich wäre, wie es idr. bei einem CPU Limit der Fall wäre, dann würde man viel größeren Nutzen aus FG ziehen können.

Klar, die Nvidia Entwickler werden das sicherlich alles berücksichtigen. (Das sind mit die klügsten Leute, die wir haben :freak:) Aber mich würde wirklich interessieren, was da tatsächlich bremst und warum man das nicht besser hinbekommt.


Meine Vermutung war immer, dass FG auf das Speicherinterface schlägt und GPUs mit breiterem Bus Vorteile haben. Dafür würde sprechen, dass FG in 4K weniger gut skaliert, als in 1440p. Selbst wenn die Framerate in 4K mit DLSS sogar höher wäre, als in 1440p nativ, skaliert die Performance mit einer 4K Ausgabe einfach schlechter. Könnte also ein Bandbreitenthema sein, oder einfach die Tatsache, dass ein 4K Zwischenbild zu generieren einfach teurer ist und mehr Rechenzeit braucht.
Wenn ich mir die gängigen benchmarks mit FG ansehe, dann ist der FPS Gewinn zwischen einer 4070 und einer 4090 sehr ähnlich. Also kanns am SI auch nicht liegen.


Na ja, nachdem FSR3 Open Source ist, vielleicht kann sich Nvidia da ja ein wenig von AMDs Methodik "inspirieren" lassen. Irgendwas an AMDs Ansatz ist in der Hinsicht einfach deutlich besser.

Lurtz
2024-02-10, 15:36:25
die frage ist wie das auf kleineren karten aussieht. der OFA ist ja, soweit ich weiß, auf allen ada karten identisch und die 4090 hat shaderthroughput ohne ende. dass mit fast 100 TFLOPS ein shaderbasierter algo schnell durch ist verwundert nicht sonderlich.
Auf meiner 4070 skaliert FSR FG im GPU-Limit auch deutlich besser als DLSS FG.

Achill
2024-02-10, 16:12:36
Das könnte ich entkräftigen.

Ich habe letztens Benchmarks in Cyberpunk gemacht, um mal auszutesten, wie meine Karte über die gesamte Range des einstellbaren Powerlimits skaliert in 5% schritten.
Dabei hab ich sichergestellt, dass die GPU das Powerlimit auch wirklich zu 100% ausnutzt.

Wenn ich die performanceskalierung mit und ohne Framegen vergleiche, dann ist sie beim jeweiligen Powerlimit identisch.

Wenn ich z.B. bei 70% Powertarget sagt wir 10% Performance verliere, dann verliere ich sie sowohl mit als auch ohne Framegeneration.

Ich hatte zuerst auch die Vermutung, dass Features wie FG, DLAA oder RayReconstruction mehr Powerbudget brauchen und die performanceskalierung mit reduziertem Powerlimit dadurch schlechter ausfällt. War aber nicht so. Der Einfluss muss so minimal sein, dass es kaum messbar ist.


Also powerlimit ist definitiv nicht der Grund für eine schlechte Performanceskalierung mit FG.

Ich frage mich, ob ein etwas agressiver agierendes Reflex hier abhilfe schaffen könnte, indem es die GPU Last nicht bei sagen wir 98-99% hält, sondern vielleicht nur bei 95%. Wenn dann eine (nahezu) Verdoppelung der Framerate möglich wäre, wie es idr. bei einem CPU Limit der Fall wäre, dann würde man viel größeren Nutzen aus FG ziehen können.

Klar, die Nvidia Entwickler werden das sicherlich alles berücksichtigen. (Das sind mit die klügsten Leute, die wir haben :freak:) Aber mich würde wirklich interessieren, was da tatsächlich bremst und warum man das nicht besser hinbekommt.


Meine Vermutung war immer, dass FG auf das Speicherinterface schlägt und GPUs mit breiterem Bus Vorteile haben. Dafür würde sprechen, dass FG in 4K weniger gut skaliert, als in 1440p. Selbst wenn die Framerate in 4K mit DLSS sogar höher wäre, als in 1440p nativ, skaliert die Performance mit einer 4K Ausgabe einfach schlechter. Könnte also ein Bandbreitenthema sein, oder einfach die Tatsache, dass ein 4K Zwischenbild zu generieren einfach teurer ist und mehr Rechenzeit braucht.
Wenn ich mir die gängigen benchmarks mit FG ansehe, dann ist der FPS Gewinn zwischen einer 4070 und einer 4090 sehr ähnlich. Also kanns am SI auch nicht liegen.


Na ja, nachdem FSR3 Open Source ist, vielleicht kann sich Nvidia da ja ein wenig von AMDs Methodik "inspirieren" lassen. Irgendwas an AMDs Ansatz ist in der Hinsicht einfach deutlich besser.

Zu aller erst, mir ging es nicht um besser oder schlechter skalierendes FG und auch nicht um einen Vergleich zwischen den Lösungen von AMD und NV.

Mein Punkt war nur, dass ein GPU Limit auch eben das TBP sein kann. Wenn man jetzt via Treiber/Tools das max. TBP (wie von dir beschrieben) absenkt, so widerlegt man damit nichts. Man senkt ja faktisch das TBP ab was der Karte zur Verfügung steht und imho sehe ich eher mein Punkt bestätigt.


Ich hatte zuerst auch die Vermutung, dass Features wie FG, DLAA oder RayReconstruction mehr Powerbudget brauchen und die performanceskalierung mit reduziertem Powerlimit dadurch schlechter ausfällt. War aber nicht so. Der Einfluss muss so minimal sein, dass es kaum messbar ist.


Das war deine Vermutung und du hast diese widerlegt. Die Erkenntnis sollte jetzt sein, die angesprochenen Features entsprechend ihrer Nutzung skalieren und auch bzgl. ihres Verbrauchs. Dies ist gut und war naheliegend, da ja die Teile einer CPU/GPU (heutzutage) sinnvollerweise verschieden Takten können. Wäre ein anderes (schlechteres) Ergebnis heraus gekommen, dann hätte dies nur bedeutet, dass die Einheiten konstant Energie benötigen sobald diese verwendet werden, unabhängig ihrer Auslastung - und dies ist auch etwas, was ich nicht behauptet habe.

robbitop
2024-02-10, 16:55:31
Es gibt wiederum viele GPU-Limits und u.a. auch immer das TBP der Karte selbst. Alle FF-HW (sofern der optical flow accelerator so etwas ist) benötigen auch Energie um Operationen durchzuführen (und genauso der Zugriff auf die Daten). In wie fern diese jetzt energetisch günstiger Ausfallen wird, dies kann man nicht einfach feststellen ... wichtig ist nur, dass wenn im Non-FG Fall schon das Power-Budget ausgeschöpft wird, dann sind zwar die Einheiten "frei" für Berechnungen (und können dies hoffentlich parallel), werden in diesen Fall aber Auswirkungen auf andere Teile der GPU haben (Power-Budget) wenn diese jetzt genutzt werden.
Naja FF HW wäre ein schlechter Deal (ggü. der Opportunität von mehr GP HW) wenn sie nicht deutlich effizienter in dem ist wofür sie gebaut wurde. Das sind oft Größenordnungen (FF vs GP).

DrFreaK666
2024-02-10, 22:02:35
Niedrigere Frame Times mit einer Radeon verglichen zu einer Geforce.
FtgGOKeGraQ

Wäre "clever" von Alex, FSR3 nur mit einer Geforce zu testen (wenns denn mal kommt)

Relex
2024-02-10, 23:14:48
Das readout bei nvidia ist einfach falsch.

Ich weiß nicht, welches Tool er da zum auslesen nutzt, zumindest die zahl die angezeigt wird erscheint halbwegs plausibel, aber bei mir zeigt der Afterburner z.B. Frametimes von teilweise 0,4 ms an. Das ist mit aktivem Vsync und FPS limit überhaupt nicht möglich, wenn man keinen 2500 Hz Monitor hat.

Sowohl mein Auge als auch die 240 FPS Aufnahme vom Handy sagen mir, dass die Frameausgabe mit FSR FG absolut smooth und gleichwertig zu DLSS FG ist.


Schon witzig, dass ich bei den ersten Spielen das Ruckeln bemängelt habe und FSR jetzt auch noch verteidige. :freak:
Hört einfach auf, solchen tools blind zu vertrauen.


Ich finds eh lächerlich, dass man über Smoothness in dem Spiel spricht und die meisten nichtmal bemerken, dass die Samplerate für die Maus in dem Spiel viel zu gering ist, so dass man mit der voreingestellten Kamerageschwindigkeit ständig pixel skipping und dadurch eine ruckelige Kamera hat. Das kann man eigentlich nur beheben, indem man die Kamerageschwindigkeit im Spiel minimiert und die DPI der Maus maximiert.

Praktisch müsste jeder das das nicht so eingestellt hat, sich über eine ruckelige Kamera beschweren (bei langsameren bewegungen, insbesondere beim zielen sieht man es deutlich, man siehts sogar im Video wenn er reinzoomt. Die Mausbewegungen zeigen pixelskipping, die bewegungen des Spielers durch vorwärts oder seitwärts bewegung sind hingegen deutlich smoother ;D) Komisch, dass die Leute sowas dann plötzlich überhaupt nicht merken...

The_Invisible
2024-02-11, 10:00:31
Niedrigere Frame Times mit einer Radeon verglichen zu einer Geforce.
https://youtu.be/FtgGOKeGraQ

Wäre "clever" von Alex, FSR3 nur mit einer Geforce zu testen (wenns denn mal kommt)

Nicht wirklich eine technische Analyse, eher "pi mal daumen" wenn man es mit DF reviews vergleicht...

Zumindest sieht man einmal wieder warum FSR Upscaling schleunigst durch ein AI Pendant ersetzt werden soll.

robbitop
2024-02-11, 10:03:16
Also die Frametimes sahen aber auf der radeon besser aus auf dem Graph.

vinacis_vivids
2024-02-11, 11:05:24
Nicht wirklich eine technische Analyse, eher "pi mal daumen" wenn man es mit DF reviews vergleicht...

Zumindest sieht man einmal wieder warum FSR Upscaling schleunigst durch ein AI Pendant ersetzt werden soll.

Eher muss das proprietäre DLSS verschwinden und in FSR integriert werden.

robbitop
2024-02-11, 11:20:26
Dass Nvidias Verfahren proprietär sind ist unschön. Aber ohne diese gäbe es für andere keinen Innovationsdruck. AMD reagiert leider meist nur anstatt zu agieren.

ChaosTM
2024-02-11, 11:41:18
AMD fehlt es einfach am nötigen R&R* R&D Budget und sie kämpfen einen 2 Frontenkrieg gegen die jeweiligen Marktführer.

Da kann man fast nur reagieren.

*freudscher ^^

The_Invisible
2024-02-11, 11:51:51
Find ich net, die AMD CPUs sind den Intels klar voraus. Da fehlt es eher an Marketing & Verkauf hier die CPUs mehr durchzudrücken.

Bei den GPUs scheut man sich vor Innovation wie es derzeit aussieht...

ChaosTM
2024-02-11, 12:21:13
Das bezog sich auch auf GPUs.
Im CPU Bereich kann man mithalten bzw liegt im Server Bereich weit vorne, was aber viel mit der überlegenen Chipfertigung von TSMC zu tun hat

robbitop
2024-02-11, 12:23:31
AMD fehlt es einfach am nötigen R&R* R&D Budget und sie kämpfen einen 2 Frontenkrieg gegen die jeweiligen Marktführer.

Da kann man fast nur reagieren.

*freudscher ^^
Naja die CPU Abteilung ist separat und mittlerweile haben sie auch wieder ordentlich Geld da. Da könnte man auch wieder etwas mehr die Initiative ergreifen.

Außerdem spielt es für R&D weniger eine Rolle ob man agiert oder reagiert. So oder so entwickelt man entsprechende Verfahren.

ChaosTM
2024-02-11, 12:30:51
Naja die CPU Abteilung ist separat und mittlerweile haben sie auch wieder ordentlich Geld da. Da könnte man auch wieder etwas mehr die Initiative ergreifen.

Außerdem spielt es für R&D weniger eine Rolle ob man agiert oder reagiert. So oder so entwickelt man entsprechende Verfahren.


Ja, wie schon weiter oben gesagt - im CPU Bereich ist man mit an der Spitze, aber bei den GPUs muss man aufholen, und das kostet richtig Geld

DrFreaK666
2024-02-11, 13:29:44
Nicht wirklich eine technische Analyse, eher "pi mal daumen" wenn man es mit DF reviews vergleicht...

Welche FSR3-Reviews von DF denn? :ugly:
Wenn das von NV wäre, dann hätte es schon 10 Analysen dazu gegeben

robbitop
2024-02-11, 16:34:02
Naja es gibt ja noch viele andere Redaktionen als DF. Aber wirklich gute Analysen sieht man von FSR3 FG nicht. Und auch von DLSS FG eigentlich nur von DF. Schade.

DrFreaK666
2024-02-11, 16:36:38
Zu allem Überfluss ist das neueste DF-Video über TAA.
DAU Foundry?

basix
2024-02-12, 10:58:47
Ich finde das TAA Video eigentlich ganz gut. Es zeigt auf, dass auch blankes TAA sehr gut sein kann (und besser als sein Ruf ist), vor allem wenn man es mit MSAA, FXAA und SMAA vergleicht. Grundbedingungen sind 1.) genug hohe Auflösung und 2.) genug hohe FPS. Bei 1080p sieht TAA eigentlich immer beschi**en aus. Bei 4K ist es meistens ganz gut. Bei 8K oftmals exzellent. Bei 30fps hast du oft temporale Artefakte, welche mit 120fps fast nicht mehr zu sehen sind. DLSS /FSR und Co. sind einfach die neuste Iteration, welche TAA um Upsampling und verbesserte History-Reuse erweitern.

Dieses Verhalten rund um TAA ist nur gut informierten Leuten richtig bewusst. Das hat mMn gar nichts mit DAU zu tun.

dargo
2024-02-12, 11:05:34
Ich finde das TAA Video eigentlich ganz gut. Es zeigt auf, dass auch blankes TAA sehr gut sein kann (und besser als sein Ruf ist), vor allem wenn man es mit MSAA, FXAA und SMAA vergleicht.
Da sollte man aber auch etwas differenzieren. :) MSAA hat auch seine Vorteile, natürlich auch Nachteile. In FH5 flimmern bsw. die Stromkabel mit TAA und den üblichen Upscalern. Mit 8xMSAA sind die Stromkabel absolut ruhig in Bewegung, Kosten halten sich in Grenzen dank Forward+ Rendering. Mit 8xMSAA ist das Aliasing direkt am Fahrzeug allerdings wieder leicht zu sehen im Gegensatz zu TAA. Die eierlegende Wollmilchsau fehlt noch etwas. :tongue:

Gast
2024-02-12, 11:51:18
Zu allem Überfluss ist das neueste DF-Video über TAA.

Was ist daran schlecht die Funktionalität von TAA mal zu erklären? Wenn man so manche DLSS vs. Native Diskussion verfolgt hat das ein Großteil scheinbar immer noch nicht kapiert.

DrFreaK666
2024-02-12, 12:29:40
Ich finde das TAA Video eigentlich ganz gut. Es zeigt auf, dass auch blankes TAA sehr gut sein kann (und besser als sein Ruf ist), vor allem wenn man es mit MSAA, FXAA und SMAA vergleicht. Grundbedingungen sind 1.) genug hohe Auflösung und 2.) genug hohe FPS. Bei 1080p sieht TAA eigentlich immer beschi**en aus...

Hat mal jemand untersucht ob FSR2/3 auch durch höhere FPS an Qualität zunimmt? Es hat ja auch eine temporale Komponente

Gast
2024-02-12, 12:38:46
Hat mal jemand untersucht ob FSR2/3 auch durch höhere FPS an Qualität zunimmt?


Selbstverständlich, insbesondere für FG sind höhere Grund-FPS Voraussetzung für eine gute Qualität der interpolierten Frames.

mboeller
2024-02-12, 12:54:06
seufz.. falscher Thread, aber ich weiß nicht wo ich den "Scherz" sonst unterbringen sollte. Im Win11-Unterforum habe ich nix entsprechendes gefunden:

Bessere Gaming-Performance in Windows 11 24H2: Microsoft AI Super Resolution macht DLSS und FSR Konkurrenz (https://www.notebookcheck.com/Bessere-Gaming-Performance-in-Windows-11-24H2-Microsoft-AI-Super-Resolution-macht-DLSS-und-FSR-Konkurrenz.802606.0.html)

redpanther
2024-02-12, 13:26:23
Wie wäre es mit einem eigenen Thread?

Warum haben die das nicht getestet und beschrieben ob und wie das generell funktioniert.
Im Artikel steht nur das es in einer Beta drin ist und es sich aktivieren lässt... Bissle schwach, oder hab ich was überlesen.

basix
2024-02-12, 13:43:03
Hat mal jemand untersucht ob FSR2/3 auch durch höhere FPS an Qualität zunimmt? Es hat ja auch eine temporale Komponente

Die temporalen Artefakte wie Ghosting, Flimmern etc. nehmen sicher ab, ja. Das weiss ich aus erster Hand. Entweder weil sie weniger stark werden und/oder weniger auffallen (weil kürzer dargestellt).

Ob die generelle Qualität mit höheren FPS zunimmt (Kantenglättung, Details, usw.)? Würde sagen ja, müsste eigentlich rein vom Prinzip her. Grundsätzlich ist die Summe aus Informationen (spatial, temporal) entscheidend und die kann mit höheren FPS steigen. Wüsste aber nicht, ob das irgendwer irgendwo mit entsprechend guter Aufbereitung/Darstellung getestet hat. Ich würde sagen, die Verfahren profitieren qualitativ mehr von spatialer Auflösung. Mehr FPS vermeiden primär Artefakte (oder deren Wahrnehmbarkeit).

Da sollte man aber auch etwas differenzieren. :) MSAA hat auch seine Vorteile, natürlich auch Nachteile. In FH5 flimmern bsw. die Stromkabel mit TAA und den üblichen Upscalern. Mit 8xMSAA sind die Stromkabel absolut ruhig in Bewegung, Kosten halten sich in Grenzen dank Forward+ Rendering. Mit 8xMSAA ist das Aliasing direkt am Fahrzeug allerdings wieder leicht zu sehen im Gegensatz zu TAA. Die eierlegende Wollmilchsau fehlt noch etwas. :tongue:
MSAA kann gut sein, klar. Gibt es halt in fast keinem aktuellen Spiel als Auswahloption. Es gibt immer noch viele, die MSAA nachweinen und TAA verteufeln. Aber TAA hat ganz eindeutig einige Vorteile, welche leider mit geringen Auflösungen und Framerates nicht so wirklich sichtbar werden. Ich war bei 1440p auch nicht wirklich ein Fan von vielen TAA Implementationen (wird alles ein wenig blurry). Bei 4K sieht es ganz anders aus. Und TAA ist fast gratis von den Performancekosten her. Deswegen meine Meinung: Sobald die Auflösung (+fps) hoch genug ist, gibt es keinen Grund mehr für MSAA, weil TAA den Job genauso gut macht. Und weniger Performance kostet.

The_Invisible
2024-02-12, 13:44:39
Fraglich ob das wirklich gut aussieht ohne Spieleintegration bzw Motion Vectors & Co, hätten sie lieber mal eine allgemeine Schnittstelle implementiert wo diese ganze Upscaling-Verfahren andocken können ala Streamline.

Platos
2024-02-12, 15:28:00
Also rein logisch betrachtet, kann man die Frage nur mit "Potentiell Ja" beantworten.

Beispiel: Spiderman-Test mit nvidia Framegen. Da gab es schnelle Bewegungen beim Hochhaus-Hochrennen, bei denen die Framegen-Bilder eig. immer wieder fehlerhaft waren.

Hätte man in solchen Situationen mehr Grundframes, wären da auch potentiel weniger fehlerhaft generierte Frames.

Also kurz gesagt: Bei Bewegungen, die sich schnell ändern und "unvorhersehbar" sind (wie in Actiongames mit viel "Choreographie" ("coole Animationen")), ist eine hohe Grundframerate schon wichtig, um die Bewegungen gut darzustellen.

DrFreaK666
2024-02-12, 17:06:48
Mir ging es nicht unbedingt um FG. Das scheint bei AMD ja gut zu funktionieren

Gast
2024-02-12, 21:47:23
Mir ging es nicht unbedingt um FG. Das scheint bei AMD ja gut zu funktionieren

Auch bei FSR2 hilft eine hohe Framerate. Die Flimmerei verschwindet zwar nicht, aber zumindest die Bildfläche die flimmert ist kleiner, wenn die Framerate höher ist.

DrFreaK666
2024-02-14, 17:02:35
"Anti-Lag+ comming back soon"
Hoffentlich kein "FSR3-soon"
https://videocardz.com/newz/amd-confirms-anti-lag-is-coming-back-soon

Da wir kein Anti-Lag Thread haben, pack ich das hier rein, da AL+ bei FG Sinn machen sollte

DrFreaK666
2024-02-18, 11:13:23
Entwickler unfähig FSR zu implementieren
https://www.pcgameshardware.de/Nightingale-Spiel-73528/News/AMD-FSR-3-muss-entfernt-werden-1441034/

robbitop
2024-02-18, 11:35:34
Wirklich krass - gerade wenn man bedenkt, dass Modder (meistens sind das irgendwelche Hobby Leute und keine echten 3D Entwickler) ohne Quellcodezugriff des Games das in unter einem Tag schaffen.

The_Invisible
2024-02-18, 11:54:50
Entwickler unfähig FSR zu implementieren
https://www.pcgameshardware.de/Nightingale-Spiel-73528/News/AMD-FSR-3-muss-entfernt-werden-1441034/

Gleiche Problem gabs mit DLSS3 und wenigen UE5 Games, dort hieß es Nvidia ist schuld :freak:

Ex3cut3r
2024-02-18, 11:58:03
Wirklich krass - gerade wenn man bedenkt, dass Modder (meistens sind das irgendwelche Hobby Leute und keine echten 3D Entwickler) ohne Quellcodezugriff des Games das in unter einem Tag schaffen.

Bezahlung Miserabl, Überstunden, Stress. Schnelle Entlassungen, gerade wenn das Spiel die wirtschaftlichen Erwartungen nicht erfüllt hat. (Wenige Frauen) Die paar Frauen werden dann auch noch sexuell belästigt?

Wer hat darauf Bock? Außer ein paar Praktis, Azubis, frische Werkstudenten? Für den 40-Jährigen Familienvater nicht so toll.

Gibt sicherlich auch ein paar Ausnahmen. Remedy fällt mir spontan ein. Aber sonst?

DrFreaK666
2024-02-18, 12:25:35
Gleiche Problem gabs mit DLSS3 und wenigen UE5 Games, dort hieß es Nvidia ist schuld :freak:
Keine Ahnung wieso du mir immer wieder Wörter in den Mund legst.
Das nächste Mal bitte mit einer Quelle oder du lässt den Scheiß einfach.
Das wird langsam lästig

Gast
2024-02-18, 14:01:21
Entwickler unfähig FSR zu implementieren
https://www.pcgameshardware.de/Nightingale-Spiel-73528/News/AMD-FSR-3-muss-entfernt-werden-1441034/

Bei FSR scheint es sich um ein in jeder Hinsicht fragiles Stück Software zu handeln, nicht nur in optischer.

Lurtz
2024-02-18, 14:25:35
Bei FSR scheint es sich um ein in jeder Hinsicht fragiles Stück Software zu handeln, nicht nur in optischer.
DLSS Frame Generation geht doch auch ständig kaputt, das scheint sich nicht viel zu nehmen.

DrFreaK666
2024-02-18, 14:53:38
Bei FSR scheint es sich um ein in jeder Hinsicht fragiles Stück Software zu handeln, nicht nur in optischer.

Klar, deswegen bekommt es die Mehrheit der Studios hin, nur ein neues nicht :rolleyes:

We strive to inspire as a world class studio

Gast
2024-02-18, 19:19:56
Klar, deswegen bekommt es die Mehrheit der Studios hin, nur ein neues nicht :rolleyes:

Wenn eine Library abstürzt ist immer die Library Schuld egal wie blöd der Anwender dieser ist.

Es ist die Responsibility einer Library, auf Fehlanwendungen in einer Form zu reagieren, die nicht zu einem Absturz führt.

Exxtreme
2024-02-18, 21:41:45
Wenn eine Library abstürzt ist immer die Library Schuld egal wie blöd der Anwender dieser ist.

Es ist die Responsibility einer Library, auf Fehlanwendungen in einer Form zu reagieren, die nicht zu einem Absturz führt.

Nein, es ist nicht die Aufgabe einer Bibliothek komplett idiotensicher zu sein. Und wenn man bedenkt, dass Modder es schaffen stabile Implementierungen zu liefern dann ist das ein absolutes Armutszeugnis für das Studio.

Gast
2024-02-18, 21:43:12
Klar, deswegen bekommt es die Mehrheit der Studios hin, nur ein neues nicht :rolleyes:

What? Bisher funktioniert FSR 3 nirgends überzeugend.

DrFreaK666
2024-02-18, 23:08:35
What? Bisher funktioniert FSR 3 nirgends überzeugend.
Geh woanders trollen

OpenVMSwartoll
2024-02-18, 23:12:02
Geh woanders trollen

Das Forum braucht eine "Like"-Funktion.

TheAntitheist
2024-02-19, 00:29:27
Geh woanders trollen
sorry aber er hat ja Recht. überzeugend funktioniert es nirgends, es funktioniert okayish aber nie überzeugend. Das ist auch subjektiv aber das direkt als trollen abzustempeln ist auch schon fragwürdig...

Überzeugend wäre es ohne flackern, disocclusion Probleme etc und wenn es in Kombination mit anderen upscalern funktionieren würde.

Gast
2024-02-19, 00:32:21
sorry aber er hat ja Recht. überzeugend funktioniert es nirgends, es funktioniert okayish aber nie überzeugend. Das ist auch subjektiv aber das direkt als trollen abzustempeln ist auch schon fragwürdig...

Überzeugend wäre es ohne flackern, disocclusion Probleme etc und wenn es in Kombination mit anderen upscalern funktionieren würde.

Nichtmal mit VRR tut es problemlos, ohne Digital Foundry wäre der Umstand womöglich nie angesprochen worden. Die meisten Tester kuschen halt vor AMD und kritisieren sie nicht dafür, das ist eben Qualitätsjournalismus 2024...

DrFreaK666
2024-02-19, 01:51:36
wenn es in Kombination mit anderen upscalern funktionieren würde.

DLSS funktioniert nur mit Nvidia, was natürlich deutlich besser ist, oder was?
Außerdem geht es hier um FSR3 und hier schließe ich natürlich FG mit ein, was wohl zu funktionieren scheint

vinacis_vivids
2024-02-19, 08:06:55
Frame Generation funktioniert auch ohne FSR3 sehr gut:

AFMF + FSR2
https://youtu.be/TJMdVVf-LOY?si=AAOxj4wu8cnNUE5q

AFMF ohne FSR3
https://youtu.be/qAGiW4tEZpk?si=myGrC47_NA5Bpdmd

FSR3 + FG funzt perfekt:
https://youtu.be/71KZaJCwhyg?si=q0o0yuoLi0TDpwC2


Die Gäste Einzeller, die nur AMD bashen wollen, sollten umgehend gelöscht werden.

Gast
2024-02-19, 10:15:46
Nein, es ist nicht die Aufgabe einer Bibliothek komplett idiotensicher zu sein.

Doch, die erste und wichtigste Regel beim Erstellen einer Library, ist "Never trust your user".

Und das gilt auch wenn der User, der Entwickler ist der dir im Büro gegenüber sitzt, und erst recht wenn er nicht mal im selben Haus ist.

Klar kann man nicht bei jeder noch so idiotischen Verwendung ein sinnvolles/erwartetes Ergebnis bringen, einen Absturz darf es durch eine Library aber niemals geben, egal was der User mit ihr anstellt.

Gast
2024-02-19, 10:51:09
DLSS funktioniert nur mit Nvidia, was natürlich deutlich besser ist, oder was?


Eine Funktionalität mit DLSS wäre natürlich eher akademischer Natur. Was aber sehr wünschenswert wäre, eine Funktionalität in Kombination mit XeSS und vor allem TSR, bzw. auch ganz ohne Upscaler, während FSR sieht zwar mit Upscaling deutlich besser als die meisten TAA-Lösungen aus, mit 100% resolution scaling aber meistens deutlich schlechter.

Exxtreme
2024-02-19, 12:01:50
Doch, die erste und wichtigste Regel beim Erstellen einer Library, ist "Never trust your user".

Und das gilt auch wenn der User, der Entwickler ist der dir im Büro gegenüber sitzt, und erst recht wenn er nicht mal im selben Haus ist.

Klar kann man nicht bei jeder noch so idiotischen Verwendung ein sinnvolles/erwartetes Ergebnis bringen, einen Absturz darf es durch eine Library aber niemals geben, egal was der User mit ihr anstellt.

Diese Anforderung 100% idiotensicher zu sein erfüllt so ziemlich keine einzige Bibliothek. Also müssten so ziemlich alle Bibliotheken auf diesem Planeten schlecht sein, richtig?

Und zweitens, ausser den Devs weiss niemand was die Abstürze verursacht. Und wahrscheinlich wissen nicht einmal die das. Das kann schon ein simpler Linker-Fehler sein. Und da kann die Bibliothek nichts dafür wenn die Devs zu blöd zum linken sind.

Achill
2024-02-19, 12:47:45
Doch, die erste und wichtigste Regel beim Erstellen einer Library, ist "Never trust your user".

Und das gilt auch wenn der User, der Entwickler ist der dir im Büro gegenüber sitzt, und erst recht wenn er nicht mal im selben Haus ist.

Klar kann man nicht bei jeder noch so idiotischen Verwendung ein sinnvolles/erwartetes Ergebnis bringen, einen Absturz darf es durch eine Library aber niemals geben, egal was der User mit ihr anstellt.

Diese Anforderung 100% idiotensicher zu sein erfüllt so ziemlich keine einzige Bibliothek. Also müssten so ziemlich alle Bibliotheken auf diesem Planeten schlecht sein, richtig?

Und zweitens, ausser den Devs weiss niemand was die Abstürze verursacht. Und wahrscheinlich wissen nicht einmal die das. Das kann schon ein simpler Linker-Fehler sein. Und da kann die Bibliothek nichts dafür wenn die Devs zu blöd zum linken sind.

Die vom Gast aufgestellt Anforderung ist FUD (https://en.wikipedia.org/wiki/Fear,_uncertainty,_and_doubt), warum?
- Es gibt kein "Never trust your user" für Libs (es ist nicht deren Aufgabe)
- Es gibt weder eine noch überhaupt die "erste und wichtigste Regel", es wird damit auch nicht "wahrer"
- Für den Fall das es eine neue Erkenntnis ist, so sollte dies fundiert (fakten, wissenschaftlich, in der Literatur) referenziert werden

=> Alle darauf aufbauenden Aussagen sind nicht richtig, auch wenn diese gut klingen mögen.

Der Fakt, dass selbst ohne Nutzung von FSR es Abstürze gab aber keine wenn FSR nicht integriert war, sollte ausreichend sein für jeden SWE:
- Der Fehler liegt in der Integration (damit beim Studio)
- Der Fehler liegt in einen anderen Teil des Spiels aber ohne das Plugin ändert sich das Artefakt, kann also nur noch nicht wieder getriggered werden

---

Fun Fact: "Never trust your user" (https://www.google.com/search?q=%22Never+trust+your+user%22) gibt es nur im Context von Daten-Eingabe zwischen einen Client und Server - und bezieht sich auf die Ungewissheit der Übermittelten Daten. Das kann also gar nicht passen, weil FSR im besagten Spiel durch die gleichen Entwickler integriert wurde. Es kann also zu keiner falschen Dateneingabe kommen, weil alles im Prozess/Projekt ist, außer es gibt ein Bug woanders ...

---

Was heißt das für uns hier im Forum? Man sollte die Sache an sich ansprechen und gar nicht erst anfangen zu Diskutieren, wenn es keine Grundlage dafür gibt. Ansonsten schafft man Raum und Aufmerksamkeit für etwas was initial es gar nicht wert gewesen ist.

Relex
2024-02-19, 12:49:07
Ich vermute, dass AMD und Nvidia ihre Libs und Guidelines entspreched updaten und ggf. bei den Treiber den ein oder anderen Fix implementieren, damit solche Probleme künftig vermieden werden.
Auch die Spieleentwickler werden dazulernen.

Der Prozess startet eben mit jedem neuen Feature von vorne, ganz egal ob DLSS, FSR, DLSS FG, FSR FG, Reflex oder Ray Reconstruction.

Selbst bei Cyberpunk gibt es aktuell den Bug dass man Ray Reconstruction zusammen mit DLAA aktivieren kann, was ja nicht vorgesehen ist. Das Spiel deaktiviert dann die spieleigenenen Denoiser, weil ja RR aktiv ist, aber RR wird nicht wirklich aktiviert, weil es nicht unterstützt wird. Und schon haste ein Bild ohne Denoising.

Typische Kinderkrankheiten. War noch nie anders, wird immer so sein.

The_Invisible
2024-02-20, 11:45:31
DLSS funktioniert nur mit Nvidia, was natürlich deutlich besser ist, oder was?


Bei DLSS-FG hat man nicht den Need für einen anderen Upscaler weil dieser eh fast durchgehend die beste Qualität liefert. AMD kann sich ja gerne selber einen "AI-Upscaler" bauen, dieses "muss überall rennen" behindert halt nur die Weiterentwicklung und Tech-Sprünge.
Irgendwann muss man eben Zöpfe abschneiden, macht man mit AntiLag+ eh schon...

dargo
2024-02-20, 12:13:05
Bei DLSS-FG hat man nicht den Need für einen anderen Upscaler weil dieser eh fast durchgehend die beste Qualität liefert.
Jo... insbesondere bei non Ada. :weg:

robbitop
2024-02-20, 14:24:09
Bei DLSS-FG hat man nicht den Need für einen anderen Upscaler weil dieser eh fast durchgehend die beste Qualität liefert. AMD kann sich ja gerne selber einen "AI-Upscaler" bauen, dieses "muss überall rennen" behindert halt nur die Weiterentwicklung und Tech-Sprünge.
Irgendwann muss man eben Zöpfe abschneiden, macht man mit AntiLag+ eh schon...
Naja TSR zeigt ja heute schon dass es auch ohne AI geht. Und von der reinen Ausführung ginge DLSS auch ohne Tensor Cores. Nur eben langsamer. Wenn man gewollt hätte hätte man es wie Intel auch öffnen können. Nvidia will halt unique selling points. Würde ich auch so machen. Aber mit alten Zöpfen und Behinderung hat das nicht viel zu tun.
Basix hatte die TC Utilization mal mit nsight bei DLSS nachgemessen. Das war so wenig, dass man das hätte auch mit FPUs machen können und immernoch einen guten Benefit gehabt hätte.

TheAntitheist
2024-02-20, 23:41:08
Naja TSR zeigt ja heute schon dass es auch ohne AI geht. Und von der reinen Ausführung ginge DLSS auch ohne Tensor Cores. Nur eben langsamer. Wenn man gewollt hätte hätte man es wie Intel auch öffnen können. Nvidia will halt unique selling points. Würde ich auch so machen. Aber mit alten Zöpfen und Behinderung hat das nicht viel zu tun.
Basix hatte die TC Utilization mal mit nsight bei DLSS nachgemessen. Das war so wenig, dass man das hätte auch mit FPUs machen können und immernoch einen guten Benefit gehabt hätte.
also liegen Nvidia und Intel falsch, weils ja ohne tensor/matrix Einheiten geht... natürlich weißt du es besser.

Dann frag ich mich warum noch niemand so etwas über die shader laufen lässt wenns ja geht. Könnte man schön viel Geld machen und das als middleware verkaufen.

DrFreaK666
2024-02-20, 23:53:33
Wie oft will man das hier eigentlich noch durchkauen? :rolleyes:
Wird das nicht irgendwann langweilig?

FSR3 (und XeSS) nun offiziell in Starfield
https://videocardz.com/newz/starfield-now-supports-amd-fsr3-and-intel-xess-no-longer-in-beta

robbitop
2024-02-21, 00:19:22
also liegen Nvidia und Intel falsch, weils ja ohne tensor/matrix Einheiten geht... natürlich weißt du es besser.

Dann frag ich mich warum noch niemand so etwas über die shader laufen lässt wenns ja geht. Könnte man schön viel Geld machen und das als middleware verkaufen.

Wo hab ich geschrieben dass ich es besser weiß (und warum der toxische „Ton“?). Ich habe lediglich die vorliegenden Fakten über Indizien benannt. Intel XeSS läuft zudem auch über dp4a über die Shader. Allerdings mit geringerer Genauigkeit des NNs - sieht aber oft wesentlich besser aus als FSR. Und warum NV es aktuell nicht macht hab ich ja geschrieben: USP. Und AMD: weil sie noch kein NN Verfahren haben.
Ansonsten habe ich doch Fakten genannt. Das Argument „warum hat dat das noch nicht gemacht“ übrigens eines der dümmsten Standartotschlagargumente.Es gibt immer einen Zeitpunkt für das erste Mal. Wenn man das Argument immer bringt dürfte nie was neues erfunden werden.

GerryB
2024-02-21, 00:57:07
Gerade als Admin:
Wollt Ihr euere eeeeewig gleiche Diskussion zu theor. Fragen net in nen eigenen Thread auslagern?

Das interessiert keinen AMD-User wirklich.
Man lebt mit Dem was man hat und fertig.

FSR3+FG sieht für mich in SF gut aus.
(und ja, FSR3 hat keinen Regler für die QualityModes sondern nutzt wohl den %-Upsamplerwert vom Game)

FG+AFMF scheint auch keine Probleme zu machen.
(vorsichtshalber habe ich den ShaderCache im Adrenalin gelöscht, ... Neuaufbau geht mit dem 24.2.1 ja zügig)

TheAntitheist
2024-02-21, 05:34:36
Gerade als Admin:
Wollt Ihr euere eeeeewig gleiche Diskussion zu theor. Fragen net in nen eigenen Thread auslagern?

Das interessiert keinen AMD-User wirklich.
Man lebt mit Dem was man hat und fertig.

FSR3+FG sieht für mich in SF gut aus.
(und ja, FSR3 hat keinen Regler für die QualityModes sondern nutzt wohl den %-Upsamplerwert vom Game)

FG+AFMF scheint auch keine Probleme zu machen.
(vorsichtshalber habe ich den ShaderCache im Adrenalin gelöscht, ... Neuaufbau geht mit dem 24.2.1 ja zügig)
FG zu Rechtfertigen mit einem Screenshot wo du dich nicht bewegst und vllt kein "FG Frame" zu sehen ist... extrem smart ;D

GerryB
2024-02-21, 10:55:32
Keine Bange, es wird wohl demnächst genug Videos auf YT dazu geben.
https://www.youtube.com/watch?v=KGRPmEnjCtw

btw.
Raff findet FSR3 in SF ebenfalls bezgl. Bildqualität gut.
https://extreme.pcgameshardware.de/threads/starfield-fsr-3-mit-frame-generation-mit-update-1-9-67-fuer-jedermann-freigeben.646155/#post-11545808

Relex
2024-02-21, 11:35:17
Die Bildqualität ist die gleiche wie in den letzten zwei Jahren. Das Flickering, das Aliasing, das Disocclusion Handling. Da hat sich nichts gebessert.

Es hängt immer stark vom Content ab, wie stark es auffällt.
Ein 3rd Person Spiel wo der Charakter sich ständig vorm Bildschirm bewegt hat VIEL größere Probleme mit FSR als ein First Person Spiel.
Und es kommt eben auf die Assets an. Oberflächen mit viel specular und shader flicker schmecken FSR überhaupt nicht.

Starfield ist hingegen ein relativ "cleanes" game. Kein 3rd Person und wenig sonstige Grafikartefakte. Das sind gute Voraussetzungen damit einem die Probleme nicht ständig ins Auge fallen.

The_Invisible
2024-02-21, 11:38:12
Naja TSR zeigt ja heute schon dass es auch ohne AI geht. Und von der reinen Ausführung ginge DLSS auch ohne Tensor Cores. Nur eben langsamer. Wenn man gewollt hätte hätte man es wie Intel auch öffnen können. Nvidia will halt unique selling points. Würde ich auch so machen. Aber mit alten Zöpfen und Behinderung hat das nicht viel zu tun.
Basix hatte die TC Utilization mal mit nsight bei DLSS nachgemessen. Das war so wenig, dass man das hätte auch mit FPUs machen können und immernoch einen guten Benefit gehabt hätte.

TSR ist ein (guter) Sonderfall da eng mit der Engine verbandelt. Klar würds wahrscheinlich auch ohne Tensor gehen, aber vielleicht auch nur mit verringerter Qualität wie bei Intel oder höherer Latenz. Wissen tut das ja leider nur Nvidia aber zumindest ist DLSS/FG in der Form eine Runde Sache.

AMD könnte ja auch einfach ein "FSR-AI" für RDNA3 bringen das halt als Plugin den FSR-Upscaler ersetzt, anscheinend bringt es ja selbst die Community zusammen die Upscaler quasi beliebig zu tauschen.

GerryB
2024-02-21, 12:17:34
https://www.youtube.com/watch?v=A85ivTMWjGk
Der Klassiker mit 3rd Person-View.
(ist jetzt zwar nicht mit FSR aber AFMF)

oder
FSR2+AFMF in RDR2
https://www.youtube.com/watch?v=wQOQmvxAjpo&t=1223s

Sieht für mich nicht so aus, als ob man´s gar net nutzen könnte.
Der Kollege ist übrigens mit dem Adrenalin 24.2.1 unterwegs.

DrFreaK666
2024-02-21, 12:49:44
Alles, das nicht von Nvidia kommt, ist nicht nutzbar. :ugly:
Und damit sollte das Thema endlich mal zu Ende sein.
Was AMD oder Nvidia vielleicht machen könnten, ist uninteressant. Wir sind nicht um Spekulatius-Forum.
Sich ständig wiederholende Themen nerven

Relex
2024-02-21, 13:06:15
Ich verstehe eben nicht, warum man ständig aufs neue versucht die Probleme klein zu reden, wenn sie doch content abhängig sind.

Klar dass der Upscaler der schlecht mit Disocclusion Problemen umgehen kann in einem Spiel das wenig Disocclusion Probleme in der Nähe der Spielerkamera verursacht plötzlich besser aussieht. Welch ein Wunder.
Aber deswegen ist das Problem nicht weg.

Trotzdem müssen Spiele mit weniger problematischen Eigenschaften ständig dafür herhalten um zu zeigen, dass FSR ja gar nicht so schlecht sei.


Ich verstehe die intention dabei nicht. Es ist doch sinnvoll genau die Problemstellen zu analysieren. Hier gehts scheinbar immer nur darum die favorisierte Technik oder Unternehmen zu verteidigen, anstatt sich einfach mal die Probleme anzusehen.

Ich habe bei meinem Starfield FG test ja auch gesehen, dass Nvidia schlechter skaliert und sehe hier nachbesserungsbedarf bei Nvidia. Ich sag ja auch nicht "passt schon, ist doch gut genug" Nein, ich suche die fehler und will, dass es besser gemacht wird. Egal ob AMD oder Nvidia. Und AMD hat beim FSR Upscaler eben ne besonders große Baustelle.

Ich finde es traurig dass so wenig interesse herrscht, dass die Qualität von FSR gesteigert wird.
Ich würde mir nichts lieber wünschen, als ein zu DLSS gleichwertiges oder besseres FSR zu haben.
Ich wünsche mir Fortschritte und keine Stangation oder das Ignorieren von Schwachpunkten. Wohin soll das denn führen?

GerryB
2024-02-21, 13:20:30
Das Problem liegt nach m.E. zum Teil bei den Studios.

CP2077 hatte beim Launch auch "schlechtes" POM beim Strassenbelag.(zuviel Krisseln winkelabhängig)
Das wurde aber später irgendwie gefixt.
Warum FSR2/3 Probleme mit verdeckten Pixeln hat, who knows. Da sollte das Studio halt darauf aufpassen,
damits nicht Überhand nimmt.
Genauso wichtig wäre mir der Sharpen-Regler für FSR2/3. (und nicht vergessen das alte CAS-Sharpen rauszunehmen,
damits nicht doppelt gemoppelt drin ist und verdeckte Pixel unnötig nachschärft)

Ansonsten wäre ich dafür, immer nur das gerade aktuell gelaunchte Game zu diskutieren.
(bzw. heute den SF-Patch)

Alles Andere ufert zu weit aus und macht den Thread unleserlich.

DrFreaK666
2024-02-21, 14:08:37
Wir wissen nicht wie perfektes FSR2 aussieht. Hat es ein Game schon oder geht da noch mehr?
Die eine Tech-Demo von AMD ist da nicht wirklich dazu geeignet.
Bis auf den Springbrunnen gibt es keine bewegenden Elemente

Exxtreme
2024-02-21, 14:16:57
Warum FSR2/3 Probleme mit verdeckten Pixeln hat, who knows. Da sollte das Studio halt darauf aufpassen,
damits nicht Überhand nimmt.

Das Problem ist, dass du hier als Entwickler nicht wirklich "aufpassen" kannst. Das ist nämlich vollkommen normal, dass verdeckte Pixel plötzlich sichtbar werden. Verhindern kann man das nur wenn sich am Bildschirm gar nichts mehr bewegt. :freak: Aber dann hat man kein Spiel sondern ein Standbild.

Was mich halt wundert, dass AMD hier keinen Fallback-Mechanismus eingebaut hat. FSR muss wissen, welche Pixel gerade nicht gefiltert werden weil zu wenig temporale Informationen vorhanden sind. Für diese Bildbereiche könnten sie FXAA oder CMAA2 drüberjagen. Ist zwar auch nicht perfekt aber immer noch besser als gar nichts. :freak:

Gast
2024-02-21, 15:21:17
Starfield ist hingegen ein relativ "cleanes" game. Kein 3rd Person und wenig sonstige Grafikartefakte. Das sind gute Voraussetzungen damit einem die Probleme nicht ständig ins Auge fallen.

Also bei Starfield ist mir schon im Tutorial mit FSR ständiges flimmern aufgefallen, wohlgemerkt mit 100% Skalierung. TAA + CAS sah (mit 100%) wesentlich besser aus.

Viel länger hab ich es ja nicht gespielt, weil es doch sehr schnell eintönig wurde.

Tesseract
2024-02-21, 20:29:21
Was mich halt wundert, dass AMD hier keinen Fallback-Mechanismus eingebaut hat. FSR muss wissen, welche Pixel gerade nicht gefiltert werden weil zu wenig temporale Informationen vorhanden sind.

das fundamentale problem ist, dass ein derartiger algorithmus vor allem schnell sein muss und je komplexer man das ganze macht umso langsamer wird es, besonders auf der GPU wo idealerweise alles ohne branching im lockstep läuft. das clamping-paradigma der TAA-familie ist darauf ausgelegt jedes pixel nach kochrezept gleich abzuarbeiten und am ende kommt hoffentlich was sinnvolles raus.

GerryB
2024-02-22, 07:54:53
Das Problem ist, dass du hier als Entwickler nicht wirklich "aufpassen" kannst. Das ist nämlich vollkommen normal, dass verdeckte Pixel plötzlich sichtbar werden. Verhindern kann man das nur wenn sich am Bildschirm gar nichts mehr bewegt. :freak: Aber dann hat man kein Spiel sondern ein Standbild.

Als Laie würde ich vorschlagen bei Texturen mit POM das POM an den AF-Faktor zu koppeln. Im Nahbereich bis 8x AF gibts ne Textur mit POM und darüber hinaus nur flache Texturen ohne POM, ... reduziert das Problem bei flachem Sichtwinkel.

Das müsste sich doch gerade beim Strassenbelag oder Wänden einrichten lassen.

Auf jeden Fall bin ich gespannt, wie die Implementierung von FSR3 in CP2077 + W3 aussehen wird.
Staune eeh, das es so lange dauert. Gerade CD Projekt hat doch ausreichend Erfahrung.

Gast
2024-02-22, 13:41:02
Als Laie würde ich vorschlagen bei Texturen mit POM das POM an den AF-Faktor zu koppeln. Im Nahbereich bis 8x AF gibts ne Textur mit POM und darüber hinaus nur flache Texturen ohne POM, ... reduziert das Problem bei flachem Sichtwinkel.



POM ist nicht für Disocclusion verantwortlich.

Exxtreme
2024-02-22, 14:55:35
Als Laie würde ich vorschlagen bei Texturen mit POM das POM an den AF-Faktor zu koppeln. Im Nahbereich bis 8x AF gibts ne Textur mit POM und darüber hinaus nur flache Texturen ohne POM, ... reduziert das Problem bei flachem Sichtwinkel.


Bei TAA ist ein anderes Occlusion gemeint. Da ist es gemeint, dass Objekte, die sich hinter anderen Objekten befinden, plötzlich sichtbar werden weil das Objekt, welches verdeckt, nicht mehr da ist. TAA und die Abwandlungen davon brauchen aber Informationen aus der Vergangenheit um das aktuelle Bild zu glätten. Sind diese Informationen aber nicht vorhanden weil ein Objekt gerade eben sichtbar geworden ist dann bekommen diese Techniken so ihre Probleme. Bei DLAA/DLSS/Xess sieht es so aus als ob die fehlenden Informationen einfach mal erfunden werden.

FSR hingegen tut gar nichts. Und deshalb flimmern hier und da ein paar Bildbereiche wenn der Content sehr aggressiv ist. Und das Flimmern kann man als sehr störend empfinden je nach Spiel. Und verhinden lässt sich das auch nicht. Denn in Computerspielen ist es normal, dass es verdeckte Objekte gibt, die irgendwannmal sichtbar werden. Sei es weil die Deckung nicht mehr da ist oder der Spieler um die Deckung herumgelaufen ist.

Lurtz
2024-02-22, 15:44:21
Alex hackt mal wieder auf FSR2 (und DLSS Presets) rum :ugly:

https://twitter.com/Dachsjaeger/status/1760590120078467169

Troyan
2024-02-22, 15:54:56
DLSS kann überhaupt nicht das Preset "fixen". Das ist Aufgabe vom Entwickler für sein Content und seinem Spiel das beste Preset auszuwählen.

AMD dagegen... naja. 10 Jahre alte Hardware ist eben 10 Jahre alt. Da muss man mit 10 Jahre alter Software leben.

Lurtz
2024-02-22, 15:57:35
Als könnten Entwickler was dafür, dass mit dem Standard-Preset D der "Content" bei Kamera-Stillstand einfach kaputt geht.

DrFreaK666
2024-02-22, 15:59:05
Man kann ja notfalls TAA nehmen, wenns einen so extrem stört.
War Ubi Softs TAA nicht relativ gut bei den Assasin´s Creeds?

Lurtz
2024-02-22, 16:04:02
Es geht ihm vor allem um Konsolen, wo man nicht die Wahl hat.

Shink
2024-02-26, 21:11:56
Sons of the Forest hat seine Early Access-Phase verlassen und seit Version 1.0 auch FSR 3.0.
Wider erwarten funktioniert das out-of-the-box mit meiner Radeon W5700 unter Linux.

Raff
2024-02-26, 22:56:06
Leider ist das aber kein "echtes FSR 3.0, denn es gibt kein Frame Generation. Skaliert hier nur mit den Pixeln, keine Spur von einem FG-Toggle.

MfG
Raff

dargo
2024-03-01, 09:38:04
RoboCop Rogue City Update 1.005 Dispatched This Feb. 29

* Improved game stability
* Fixed the Sony Dualshock detection issue
* Fixed a few localization issuese
* Added AMD FSR 3.03
* Fixed the Tattoo Shop quest
* Other minor fixes

https://mp1st.com/news/robocop-rogue-city-update-1-005-dispatched-this-feb-29

Edit:
Remnant II hat seit gestern auch FSR3 mit FG.
https://i.postimg.cc/Lh3jXwjw/Remnant-II-2024-03-01-10-04.jpg (https://postimg.cc/Lh3jXwjw) https://i.postimg.cc/FY7STKwX/Remnant-II-2024-03-01-10-04-1.jpg (https://postimg.cc/FY7STKwX)

Irgendwas haben die DEVs da aber bei Vsync On verhunzt, könnte mit dem spieleigenen Framelimiter bei Vsync On zusammen hängen. Wenn Vsync On normal mit FSR3 + FG verwendet wird läuft es absolut sauber. Limitiere ich zusätzlich mit RTSS auf 140fps ruckelt das Bild obwohl die Frametimes 100% sauber sind. Mit Vsync Off und 140fps Limit über RTSS ist die Frameausgabe ebenfalls sauber. Insofern empfehle ich hier Vsync Off + fps-Limit sofern man FSR3 mit FG verwenden möchte.

dildo4u
2024-03-03, 08:18:42
Neu? AMD hat eine Liste mit FSR Support.
Bei FSR2 wird angezeigt welche Version. :up:


https://community.amd.com/t5/gaming-discussions/latest-amd-fsr-2-amp-3-supported-games-list/td-p/549534

robbitop
2024-03-03, 09:21:10
Insofern empfehle ich hier Vsync Off + fps-Limit sofern man FSR3 mit FG verwenden möchte.

Ist das nicht grundsätzlich (sofern man befürchten muss dass die vrr range überschritten wird) die beste Konfiguration mit vrr unabhängig von FG?

00-Schneider
2024-03-03, 09:28:50
Ist das nicht grundsätzlich (sofern man befürchten muss dass die vrr range überschritten wird) die beste Konfiguration mit vrr unabhängig von FG?


Nope. VRR + V-Sync on + fps cap (drei Frames unter der maximalen Refreshrate des Monitors/TV).

Das funktioniert unabhängig von FG (on/off) bei Nvidia.

https://forums.blurbusters.com/viewtopic.php?t=7288

robbitop
2024-03-03, 11:53:09
Aber vsync greift doch dann gar nicht weil das fps cap vorher greift?
Ich kenne auch den BB Artikel und der empfiehlt vrr + fps cap 2-3 fps unter dem max vrr range aber iirc dann nicht noch vsync on top.
Bzw ist es dann wahrscheinlich egal ob vsync noch an ist oder nicht weil es ja nie greift da die vrr range nicht verlassen wird.

Gast
2024-03-03, 12:01:35
Nope. VRR + V-Sync on + fps cap (drei Frames unter der maximalen Refreshrate des Monitors/TV).



VSync ON/OFF ist irrelevant wenn der Framelimiter niedrig genug ist, wobei Refreshrate -3 in vielen Fällen nicht niedrig genug sein dürfte, ich würde mindestens -5 besser -10 empfehlen.

Wenn der Framelimiter es mal nicht schafft innerhalb des VRR-Limits zu bleiben bekommst du mit VSync-ON einen Latency-Spike, mit OFF tearing. Da insbesondere mit high refresh Monitoren ersteres wesentlich besser wahrnehmbar ist würde ich generell V-Sync-OFF empfehlen. Auch tritt das Tearing in solchen Fällen praktisch immer in den unteren 10% des Monitors auf, also einen Bereich den man in den seltensten Fällen aktiv fokussieren dürfte.

DrFreaK666
2024-03-04, 12:36:13
CB hat DLSS FG und FSR FG verglichen

In Sachen Bildqualität zeigen sich keine nennenswerten Unterschiede zwischen DLSS und FSR Frame Generation. Beide Technologien agieren zwar leicht unterschiedlich, schneiden schlussendlich aber gleichwertig ab.
Bei der Performance gibt es derweil größere Differenzen, die zwar bereits bei vorherigen Artikeln zu erkennen gewesen sind, aber noch nie so intensiv von ComputerBase analysiert wurden. Und zwar hat AMD FSR leistungstechnisch klar die Nase vorne.
https://www.computerbase.de/2024-03/amd-fsr-nvidia-dlss-frame-generation-vergleich/3/#abschnitt_die_analyse_von_frame_generation

Bemängelt wird erwartungsgemäß das Upscaling

fondness
2024-03-04, 13:51:24
Auf jeden Fall kann man FSR Vergleiche mit Nvidia-Karten kübeln:

Interessant ist ebenso, dass FSR FG auf einer Radeon-Grafikkarte besser läuft als auf einer GeForce. In allen vier Games liefern AMDs künstliche Bilder einen größeren Leistungsschub auf der Radeon RX 7800 XT als auf der GeForce RTX 4070. Je nach Titel kann der Vorteil der AMD-Hardware weniger als 10 Prozentpunkte betragen, genauso sind aber auch 20 Prozentpunkte möglich. Darüber hinaus ist das Framepacing auf einer AMD-Karte besser und zugleich werden die Latenzen effektiver reduziert.

Raff
2024-03-04, 13:53:44
Somit gibt es drei Skalierungsszenarien (aufsteigend sortiert):

1.) DLSS Frame Generation.
2.) FSR Frame Generation auf Geforce.
3.) FSR Frame Generation auf Radeon.

MfG
Raff

DrFreaK666
2024-03-04, 13:59:16
Sollten die Punkte 2 und 3 nicht vertauscht sein?
Wie kommst du zu dieser Auflistung?

Raff
2024-03-04, 14:00:48
Fps-Skalierung. FSR-FG erzielt auf Geforce mehr Fps zwischen aus und an als DLSS-FG. Und FSR-FG skaliert laut CB auf Radeon besser als auf Geforce.

MfG
Raff

Exxtreme
2024-03-04, 14:07:28
Sollten die Punkte 2 und 3 nicht vertauscht sein?
Wie kommst du zu dieser Auflistung?

1 ist das langsamste, 3 ist das schnellste. So ist das sortiert. Auch wenn hier die alphabetische Sortierung ebenfalls passt. ;D

fondness
2024-03-04, 14:11:53
Das hat mich jetzt auch verwirrt, warum sortiert man das langsamste auf Platz 1? :crazy:

DrFreaK666
2024-03-04, 14:16:43
Fps-Skalierung. FSR-FG erzielt auf Geforce mehr Fps zwischen aus und an als DLSS-FG. Und FSR-FG skaliert laut CB auf Radeon besser als auf Geforce.

MfG
Raff

Achso, dachte du hättest die Qualität von DLSS miteinbezogen, weshalb dann DLSS FG auf Platz 1 ist

DrFreaK666
2024-03-04, 14:50:30
AMD exec hints at AI-powered upscaling
https://videocardz.com/newz/amd-exec-hints-at-ai-powered-upscaling

Oho?

DrFreaK666
2024-03-04, 23:10:16
Die Konsolen-Versionen von Robocop haben nun FSR3 FG integriert - auch auf Series S und PS5

DFqZgKul38I

TheAntitheist
2024-03-05, 00:38:21
Die Konsolen-Versionen von Robocop haben nun FSR3 FG integriert - auch auf Series S und PS5

https://youtu.be/DFqZgKul38I

"Its bugged and doesnt work, digital foundry has already tested it earlier, same goes for avatar on consoles."

sieht man ja auch an den fps. Und warum sieht das teilweise aus wie 540p oO

Milchkanne
2024-03-05, 10:13:06
Und warum sieht das teilweise aus wie 540p oO

Schon am Anfang das Series X interface sieht nicht nach 4k aus. Später sieht deren Beschriftung tatsächlich nach 540p aus. Also das Spiel/FSR3 ist in dem Video sicherlich nicht das größte Problem.

Aber seh ich das richtig, dass die im FSR3 Quality Modus von 15fps auf 30fps interpolieren? Also das, was als absolut untauglich gilt?

Relex
2024-03-05, 10:29:17
War ja klar. Wenn man auf Konsolen jetzt sogar anfängt, von 720p auf 4K und von 15/30 auf 30/60 FPS mit Frame Generation geht, dann brauchste bald eine RTX5090 um die Spiele noch irgendwie mit halbwegs akzeptabler Bildqualität in 4K lauffähig zu bekommen.

Scheint so, als würde FSR3 die Anforderungen aktueller Spiele damit nochmals verdoppeln.
Aktuell ist Upscaling obligatorisch, bald wird es auch FG sein.

"Tolle" Entwicklung.

Das ist der Nachteil, wenn man die Technik "frei" für alle macht. Sie wird praktisch nutzlos.

Aber was solls, früher oder später wäre das so oder so passiert. Selbst ohne FSR. Sony und Microsoft hätten dann eben was eigenes entwickelt.

Also genießt FSR und DLSS noch solange sie einen echten performancebonus bringen. Bald wird der Zeitpunkt kommen, ab dem kein Spiel mehr ohne spielbar ist. Die zusätzliche Performance wird komplett von den Entwicklern einkassiert.


Schade dass die Konsolenhersteller da keine strikteren Vorgaben machen.
Für Upscaling sollte die Mindestauflösung bei 1080p sein, für Frame Generation die mindestframerate bei 60 FPS für non-VRR 120 Hz Modi und 40 FPS für VRR.
Das wären vernünftige Targets. Dieser Wildwuchs aktuell ist eine Katastrophe. Selbst zu PS4 Pro Zeiten hatten wir mit Checkerboarding eine deutlich bessere Bildqualität auf Konsolen.
Aktuell sorgt hier FSR für eine krasse regression.

DrFreaK666
2024-03-05, 11:05:11
... Aber seh ich das richtig, dass die im FSR3 Quality Modus von 15fps auf 30fps interpolieren? Also das, was als absolut untauglich gilt?

Klingt so als würde es durchgehend nur mit 15FPS laufen

Exxtreme
2024-03-05, 11:28:44
Das Spiel läuft mit 30 fps im Quality-Modus und mit 60 fps im Performance-Modus. Es ist aber so, die Konsolen können das nicht durchgehend halten. Und da kann es schon sein, dass es auf 15 fps runtergeht. Wenn aber 15 fps durchgehend anliegen und das dann auf 30 fps hochskaliert wird dann gute Nacht. X-D Andererseits fällt das wohl 95% der Konsolenspieler wohl nicht auf. Und die 5%, die das stört, das nimmt man inkauf.

DrFreaK666
2024-03-05, 12:29:30
Robocop ist ein langsames Spiel oder? Kommt es da auf niedrige Latenzen an?

Milchkanne
2024-03-05, 12:45:22
Was ich nicht raffe, das Spiel ist ja ohne FG auf den Markt gekommen und man kann ja auch auf Konsole FG abschalten? Was passiert dann? FSR off ist in dem Video nur mit nem Standbild ohne Frametimes gezeigt worden...

Bei dem Video hier:
https://www.youtube.com/watch?v=iDHpeE8Lsjc
hab ich nicht das Gefühl, dass FG überhaupt was bringt. Der macht das am Ende auch aus, wenn man Frame für Frame durchgeht, sind das dennoch 60fps...

DrFreaK666
2024-03-16, 13:56:15
FSR und 1080p sind keine Freunde

CbJYtixMUgI

Gast
2024-03-16, 14:20:41
FSR und 1080p sind keine Freunde

https://youtu.be/CbJYtixMUgI

Auch in 4K unzureichend.

00-Schneider
2024-03-16, 14:52:38
https://youtu.be/DFqZgKul38I


Boah, die Bild"qualität" ist wirklich abenteuerlich schlecht auf Konsole bei UE5-Games. Da reicht auch locker ein FullHD-TV zum Zocken.

Gast
2024-03-17, 12:13:04
FSR und 1080p sind keine Freunde

https://youtu.be/CbJYtixMUgI

Ratchet & Clank ist FSR so schlecht, dass ich selbst auf meinem Ally stattdessen XeSS verwende. Selbst mit einer Qualitätsstufe niedriger, die bei XeSS notwendig ist um auf die selbe Performance zu kommen, ist es immer noch viel besser als FSR.

dargo
2024-03-18, 07:22:32
FSR und 1080p sind keine Freunde

https://youtu.be/CbJYtixMUgI
Breaking News... das gilt für alle drei Upscaler. 1080p ist einfach ein viel zu niedriger Output. Zumindest für übliche Desktop Bildschirme. Auf einem Handy oder so würde das sicherlich auch überzeugen.

Gast
2024-03-18, 08:22:47
Breaking News... das gilt für alle drei Upscaler. 1080p ist einfach ein viel zu niedriger Output. Zumindest für übliche Desktop Bildschirme. Auf einem Handy oder so würde das sicherlich auch überzeugen.

Selbst auf einem ROG-Ally Screen sieht FSR bedeutend schlechter aus (mit der Ausnahme Diablo 4, Isometrische Ansichten mit kaum disocclusion sind anscheinend eine Stärke)

Raff
2024-03-18, 09:21:50
Es gilt für alle Upscaler, aber DLSS kommt mit Gülle-Input am besten klar.

MfG
Raff

Gast
2024-03-18, 10:15:25
Breaking News... das gilt für alle drei Upscaler. 1080p ist einfach ein viel zu niedriger Output.


Bei den anderen Upscalern ist der Performancegewinn immerhin noch deutlich höher als der Qualitätsverlust.

dargo
2024-03-18, 11:17:51
Das ist je nach Szene und Content zu subjektiv für meinen Geschmack. Ich sehe da auch jede Menge Gülle bei DLSS. Auch wenn FSR noch mehr Gülle produziert ist beides für mich persönlich unbrauchbar. Auch hier je nach Szene und Content.

Lurtz
2024-03-18, 11:56:11
Das ist je nach Szene und Content zu subjektiv für meinen Geschmack. Ich sehe da auch jede Menge Gülle bei DLSS. Auch wenn FSR noch mehr Gülle produziert ist beides für mich persönlich unbrauchbar. Auch hier je nach Szene und Content.
Schau mal über den Tellerrand und zB auf die Konsolen, die regelmäßig FSR2 mit weit unter 1080p verwenden.
Mit den Konsolen argumentierst du doch sonst so gerne, wenn es zB um die Raytracing-Verbreitung geht ;D

Raff
2024-03-18, 11:57:47
DLSS güllt ordentlich, aber die Schweinerei ist halt kleiner. :ugly: Besonders deutlich wird das Brutalo-Faktoren wie Ultra Performance. DLSS UP sieht ausgehend von UHD (720p intern) noch erstaunlich gut aus, was man von FSR nie behaupten kann. Bildruhe und Rekonstruktion sind im Vergleich von einer anderen Welt.

MfG
Raff

dargo
2024-03-18, 12:13:33
Schau mal über den Tellerrand und zB auf die Konsolen, die regelmäßig FSR2 mit weit unter 1080p verwenden.
Mit den Konsolen argumentierst du doch sonst so gerne, wenn es zB um die Raytracing-Verbreitung geht ;D
Konsolen sind hier kein Maßstab. Eigentlich solltest du wissen, dass Konsolenspieler in der Regel weit vor einem TV sitzen. Da fallen diverse Fuckups weniger ins Gewicht als wenn man als PC-Gamer dicht vor einem Monitor sitzt. Galt auch schon bei reinem TAA und/oder weniger Pixelcount. Gebe dir bitte etwas mehr Mühe beim nächsten Trollversuch. Ergänzend dazu möchte ich noch beifügen, dass jeder dieser Konsolenspieler diverse Fuckups (sofern sie visuell auffallen) auch etwas anders empfindet. Es gibt nicht nur schwarz/weiß bei diesem Thema.

DLSS güllt ordentlich, aber die Schweinerei ist halt kleiner. :ugly:
Passend beschrieben. ;D (y)

The_Invisible
2024-03-18, 12:20:32
Kann man nur hoffen das FSR bald ein AI-Upscaling bekommt das es dort auch nicht mehr so viel güllt ; ) Vielleicht greift ihnen ja Sony unter die Arme oder so...

DrFreaK666
2024-03-18, 12:35:07
Ich glaube Sony kocht ihr eigenes Süppchen. Glaube MS wäre da eher ein Partner mit deren AI/ML Know-how

Exxtreme
2024-03-18, 12:58:45
Kann man nur hoffen das FSR bald ein AI-Upscaling bekommt das es dort auch nicht mehr so viel güllt ; ) Vielleicht greift ihnen ja Sony unter die Arme oder so...

Ich glaube nichteinmal, dass man zum brauchbaren Upscaling AI braucht. Epics TSR benutzt AFAIR auch kein AI und hat trotzdem viele Nachteile von FSR nicht. Ich glaube eher, FSR spart mit Absicht was weg damit es auch auf Billigstgrafikkarten ala Switch oder Steamdeck noch ordentlich schnell läuft. Und das Beheben der Artefakte lagern sie dann auf die Entwickler aus. Und wenn die Entwickler keine Lust oder kein Knowhow haben um das zu beheben dann sieht man halt heftige Artefakte.

dargo
2024-03-18, 13:24:02
Ich glaube nichteinmal, dass man zum brauchbaren Upscaling AI braucht. Epics TSR benutzt AFAIR auch kein AI und hat trotzdem viele Nachteile von FSR nicht. Ich glaube eher, FSR spart mit Absicht was weg damit es auch auf Billigstgrafikkarten ala Switch oder Steamdeck noch ordentlich schnell läuft. Und das Beheben der Artefakte lagern sie dann auf die Entwickler aus. Und wenn die Entwickler keine Lust oder kein Knowhow haben um das zu beheben dann sieht man halt heftige Artefakte.
Erstmal müsste geklärt werden ob die Technik an sich zu miserablen Ergebnissen führt oder die Implementierung der DEVs dieser. Absolut niemand konnte das bis heute aufklären! Alles nur reine Spekulationen. Man muss sich nur mal anschauen wie die FSR2-Mod in Horizon Zero Down funktioniert. Das Gras wird extrem gut beruhigt in Bewegung. Und wir reden hier von einer Mod und keiner offiziellen Implementierung. Das einzige Problem was HZD damit hat ist dann, dass die Symbole der bekämpften Gegner in Bewegung unterbrochen werden und somit flimmern. Ich meine diese weißen, schmalen Dinger. Auch in Witcher 3 funktioniert FSR2 hervorragend. Hier sogar offiziell implementiert. Das einzige was die DEVs vergessen haben ist Mipmap anzupassen. Da muss mal wieder der User selbst dran. Und so gibt es schon einige Beispiele wo FSR2 gut funktioniert. Bei Uncharted fand ich es auch in Ordnung. Ich verwende immer Quality bei 1440p Output oder höher, falls ich FSR2 überhaupt anwende. Bei UE5 nehme ich aber generell TSR weil mich das mehr überzeugt. Und auch dort mindestens 1080p als Input, eher 1152p.

btw.
Und ich erinnere gerne an den Fall von CP77. Die erste FSR2 Implementierung war deutlich besser als die aktuelle was Bildstabilität angeht. Das muss man auch erstmal als DEV schaffen, absolut gaga. Offenbar gibt es nicht mal Interesse bei manchen DEVs optimale Ergebnisse abzuliefern.

Gast
2024-03-18, 14:35:34
Ich glaube eher, FSR spart mit Absicht was weg damit es auch auf Billigstgrafikkarten ala Switch oder Steamdeck noch ordentlich schnell läuft.


FSR2 läuft auf der Switch eben nicht schnell genug, weshalb es dort fast immer nur FSR1 gibt. Einzig No Mans Sky verwendet FSR2, allerdings in einer heftig angepassten Version um schnell genug zu sein.

Ich denke allerdings trotzdem, dass es Absicht ist, dass FSR2 so ist wie es ist, allerdings nicht aus Performancegründen, sondern weil es ein Blender sein will und in Screenshots eine höhere Schärfe vortäuschen will, als es das vorhandene Oversampling eigentlich erlaubt.

Dabei ist das daraus entstehende Flimmern wesentlich störender als es eine etwas geringere Bildschärfe wäre.

FSR2 ist ein bischen so als würde man ein AF verwenden, dass zwar das MIP-Bias ins negative verschiebt ohne allerdings tatsächlich die Samples zu verwenden um das daraus entstehende Flimmern zu unterdrücken.

Gast
2024-03-18, 14:38:24
Erstmal müsste geklärt werden ob die Technik an sich zu miserablen Ergebnissen führt oder die Implementierung der DEVs dieser.

Das ist komplett irrelevant. Wenn ein Algo so instabil ist, das kleinste Änderungen schon zu solchen Instabilitäten führen ist der Algo beschissen.
Man kann nicht von Devs verlangen, dass sie für jede Szene eine andere Config verwenden nur weil kleinste Abweichungen schon zum kompletten Versagen führen.

DrFreaK666
2024-03-18, 14:59:26
Das ist komplett irrelevant. Wenn ein Algo so instabil ist, das kleinste Änderungen schon zu solchen Instabilitäten führen ist der Algo beschissen.
Man kann nicht von Devs verlangen, dass sie für jede Szene eine andere Config verwenden nur weil kleinste Abweichungen schon zum kompletten Versagen führen.

Man sollte schon als Dev überprüfen, ob es besser geworden ist oder nicht.
DLSS wurde mit einer neuen DLL auch nicht immer automatisch besser.

Aber CDPR halt... Bis heute nicht mal ein Datum wann es FSR3 in CP2077 schafft. Eher NV PR

dargo
2024-03-18, 15:05:23
Aber CDPR halt... Bis heute nicht mal ein Datum wann es FSR3 in CP2077 schafft. Eher NV PR
CDPR ist ein schwieriges Thema. Witcher 3 kommt auch von denen und dort funktioniert FSR2 wie gesagt hervorragend. Man muss nur eine Kleinigkeit in der "ini" anpassen. Letzteres ist natürlich trotzdem Humbug, sowas erwarte ich direkt von den DEVs. Man kann doch nicht von einem 08/15 Hans Spieler erwarten, dass der in einer "ini" fummelt.

Edit:
Hier mal zwei Beispiele aus W3 da ich es noch auf der SSD drauf habe.
https://i.postimg.cc/3ypxymj2/The-Witcher-3-Wild-Hunt-Game-of-the-Year-Edition-2024-03-18-15-37.png (https://postimg.cc/3ypxymj2) https://i.postimg.cc/9wXmNk6B/The-Witcher-3-Wild-Hunt-Game-of-the-Year-Edition-2024-03-18-15-38.png (https://postimg.cc/9wXmNk6B)

Und bevor gleich wieder einer mit mimimi Screenshots um die Ecke kommt... das ganze inkl. dem Gemüse ist auch in Bewegung absolut ruhig. Ist sogar nur 960p als Input (1440p + FSR2_Q), dafür finde ich das Ergebnis sehr gut.

Exxtreme
2024-03-18, 15:07:28
Das ist komplett irrelevant. Wenn ein Algo so instabil ist, das kleinste Änderungen schon zu solchen Instabilitäten führen ist der Algo beschissen.
Man kann nicht von Devs verlangen, dass sie für jede Szene eine andere Config verwenden nur weil kleinste Abweichungen schon zum kompletten Versagen führen.

Mhhhh, weiss nicht. In Baldur's Gate 3 ist FSR offenbar sehr gut umgesetzt. Keinerlei Flimmern und man hat eine Bildschärfe, die Größenordnungen über der von DLSS/DLAA liegt. Auch in Diablo 4 sieht man die typischen Nachteile von FSR nicht und man hat trotzdem eine gute Schärfe. Mir scheint das eher Engine-abhängig zu sein. Praktisch alle Spiele, die Probleme mit FSR haben, laufen auf der Unreal- oder der Insomniac Engine.

raffa
2024-03-18, 16:55:41
alles 1440p:

Witcher 3 mit FSR-Q ist einwandfrei, gerade viele Stunden gespielt, und hatte quasi nichts zu meckern.
Ich könnte auch ein paar Shots posten, hab viele gemacht, aber das ist halt nur die halbe Wahrheit.
Allerdings auch in Bewegung ein sehr gutes Ergebnis, natürlich grieselts hier und da etwas und bissl ghosting gibts auch, aber nix dramatisches.

BG3 hab ich nicht gespielt, aber ein guter Freund hats mit FSR-UQ gespielt, weils das beste Bild lieferte. Der er ne 3090ti hat, hat er aber trotzdem noch DLSDR drübergebügelt... : )

Er sagte aber auch, in Alan Wake 2 ist FSR2 ne Katastrophe...

Es kommt also drauf an

dargo
2024-03-18, 17:00:13
Er sagte aber auch, in Alan Wake 2 ist FSR2 ne Katastrophe...

Kann ich so bestätigen. Ich glaube das ist die schlimmste Implementierung die ich je gesehen habe. Obwohl... CP77 reiht sich auch dicht ein.

Gast
2024-03-18, 19:14:52
Mir scheint das eher Engine-abhängig zu sein. Praktisch alle Spiele, die Probleme mit FSR haben, laufen auf der Unreal- oder der Insomniac Engine.

Es ist nicht Engine-abhängig, es ist Content-abhängig, nur kann man nicht jedes Spiel derart einschränken nur damit FSR damit klar kommt.

raffa
2024-03-18, 20:23:25
Wie muss man sich die KI in so einem Upscaler vorstellen, was macht die und wie wird die trainiert?

Gast
2024-03-18, 20:40:54
Wie muss man sich die KI in so einem Upscaler vorstellen, was macht die und wie wird die trainiert?

Im wesentlichen bekommt der Bilder in niedriger und hoher Auflösung präsentiert, und "lernt" damit mit der Zeit wie Bilder in eigentlich aussehen, auch wenn sie nur in geringer Auflösung vorliegen.

Tesseract
2024-03-18, 21:04:01
Wie muss man sich die KI in so einem Upscaler vorstellen, was macht die und wie wird die trainiert?


hab das hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13486905&postcount=4045) grob erklärt.

trainiert wird das mit hochauflösenden bildern als referenz. samples werden geclampt und verrechnet und das resultat mit dem referenzbild verglichen. je näher man dran ist umso besser.

Exxtreme
2024-03-18, 21:14:04
Es ist nicht Engine-abhängig, es ist Content-abhängig, nur kann man nicht jedes Spiel derart einschränken nur damit FSR damit klar kommt.

Wobei ich jetzt nicht erkennen kann wo sich die Baldur's Gate 3-Macher eingeschränkt hätten. Das Spiel enthält so ziemlich alles, was in anderen Spielen massive Schwierigkeiten macht im Zusammenspiel mit FSR. Sei es Vegetation, Alphatesting, Transparenzeffekte, Partikeleffekte etc.

DrFreaK666
2024-03-18, 21:19:21
Vielleicht begünstigt es die Perspektive.
Ist sicherlich kein Zufall, dass die positiven Beispiele keine Third Person Games sind

Exxtreme
2024-03-18, 21:22:26
Vielleicht begünstigt es die Perspektive.
Ist sicherlich kein Zufall, dass die positiven Beispiele keine Third Person Games sind

Du kannst so weit reinzoomen, dass du quasi die 3rd-person-Perspektive hast. Und auch da zeigt sich nichts.

Ich habe es hier mal gemacht:
https://imgsli.com/MjM2ODk2

Und das ist in Bewegung entstanden.

Gast
2024-03-18, 21:45:22
Wobei ich jetzt nicht erkennen kann wo sich die Baldur's Gate 3-Macher eingeschränkt hätten.

Es ist ein rundenbasiertes Spiel, was mal eine massive Einschränkung gegenüber fast allem ist.

raffa
2024-03-18, 22:01:33
hab das hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13486905&postcount=4045) grob erklärt.

trainiert wird das mit hochauflösenden bildern als referenz. samples werden geclampt und verrechnet und das resultat mit dem referenzbild verglichen. je näher man dran ist umso besser.

danke, jetzt hab ich ne idee davon.

Gast, hast du mal ein Beispiel für deine These, dass es am Content liegt?

dargo
2024-03-19, 09:04:49
Vielleicht begünstigt es die Perspektive.
Ist sicherlich kein Zufall, dass die positiven Beispiele keine Third Person Games sind
Hä? Was ist für dich dann Witcher3 oder ein Uncharted? Gerade bei W3 hast du viel feines Gemüse @Gras zum Beispiel welches perfekt erfasst wird.

robbitop
2024-03-19, 09:14:41
danke, jetzt hab ich ne idee davon.

Gast, hast du mal ein Beispiel für deine These, dass es am Content liegt?
Wenn es besonders schwer wird zwischen mehreren Frames sinnvolle Samples für das jeweilige Pixel wieder zu finden. Disocclusion ist so ein Beispiel. Da ist ein Objekt plötzlich verdeckt oder kommt plötzlich aus der Verdeckung wieder. Entsprechend gibt es für die Frames wo es verdeckt war keine Samples zum Akkumulieren.
Oder wenn sich die Perspektive deutlich verändert (die dann entsprechende Geometrie deutlich anders ausrichtet).
All das ist schwieriger Content weil es entweder keine sinnvollen Samples von den jeweiligen Frames gibt oder sie besonders schwer zu finden sind.

Und dann kann folgendes passieren:
(1) man entdeckt falsche Samples (Artefaktbildung)
(2) man nimmt keine Samples (Flimmern)
(3) man denkt sich Samples aus (Artefakt beim Fehlschlag)
(4) man schaut noch weiter in die Vergangenheit (z.B. bevor etwas verdeckt wurde was ettliche Frames später wieder aufgedeckt wurde)

All das kann auch eine Heuristik. Je nach dem wie komplex diese ist, desto besser ist die Hitrate. TSR scheint hier (besonders bei Occlusion) schon besser zu sein.

Die AI bei DLSS und XeSS sind bei obigem hinsichtlich der Trefferrate besser. Aber das Argument mit TSR zeigt, dass auch Heuristiken konkurrenzfähig sein können. Das durchweg beste Ergebnis scheint aber DLSS zu erzeugen.

Gast
2024-03-19, 09:34:39
Gast, hast du mal ein Beispiel für deine These, dass es am Content liegt?

Augen auf. Es sind immer wieder die selben Situationen die Probleme verursachen. Disocclusion, schnelle Bewegungen generell etc. Und je größer die Bildteile sind, welche davon betroffen sind desto eher fällt es auf.

Und es sind "zufällig" immer genau Spiele, die entweder generell sehr langsam sind, die nur an wenigen Bildstellen disoclussion aufweisen, bei denen FSR passabel aussieht.

Und das schlimme an FSR, dass es genau jene Problembereiche, die grundsätzlich auch andere Upscaler haben, welche mit temporalen Daten arbeiten, mit großem Abstand am schlechtesten aussehen.

Das menschliche Auge/Gehirn ist durch die Evolution darauf trainiert seine Aufmerksamkeit auf derart flackernde Bildbereiche zu lenken, weshalb man es sofort wahrnimmt. Würde FSR die betroffenen Bereiche einfach nur stark blurren wäre schon viel gewonnen.

Lurtz
2024-03-19, 09:40:14
Konsolen sind hier kein Maßstab. Eigentlich solltest du wissen, dass Konsolenspieler in der Regel weit vor einem TV sitzen. Da fallen diverse Fuckups weniger ins Gewicht als wenn man als PC-Gamer dicht vor einem Monitor sitzt.

Doch, fällt auf. Gibt genug normale Spieler, denen die Bildqualität von Immortals of Aveum oder Talos Principle 2 auf Konsole sehr negativ aufgefallen ist, weil die typischen Artefakte von FSR2 das komplette Bild in einen Pixelbrei verwandeln.

Gebe dir bitte etwas mehr Mühe beim nächsten Trollversuch.
Der Troll-Meister muss es ja wissen.

robbitop
2024-03-19, 10:03:30
Zu FSR2/3 vs TSR. Der Start von FSR2 war ja in 2022 nicht so schlecht. Klar war man hinter DLSS aber vor TSR und auch TAUU und anderen etablierten Methoden. Das Problem ist m.E. mangelnde Iteration. Seit Version 2.1 (Spätsommer 2022) ist optisch nichts Wesentliches mehr passiert. Währenddessen hat Epic Stück für Stück weiter iteriert und zog dann irgendwann vorbei. Das hätte auch ohne AI FSR sein können, hätte man da weiter gemacht.

Wir wissen nicht, warum da nichts mehr passiert ist. Hat AMD einen Mangel an SW Talent was an dieser Art Projekten arbeiten kann und die die sie haben wurden dann zu FSR3 Framegeneration verschoben? Oder hat AMD die Leute an eine Art AI FSR gesetzt?
Wenn ich als Ingenieur eines gelernt habe, dann dass es kaum so etwas Mächtiges gibt wie Iteration.

Exxtreme
2024-03-19, 11:12:41
Wobei man auch fairerweise sagen muss, bei DLSS und Xess tut sich auch nichts mehr. Womöglich hat man da auch einen Status erreicht, wo es sich nicht lohnt noch mehr Aufwand reinzustecken.

dargo
2024-03-19, 11:13:33
Doch, fällt auf. Gibt genug normale Spieler, denen die Bildqualität von Immortals of Aveum oder Talos Principle 2 auf Konsole sehr negativ aufgefallen ist, weil die typischen Artefakte von FSR2 das komplette Bild in einen Pixelbrei verwandeln.

Dann zähl mal auf wieviel Prozent der Konsolenspieler ein Drama daraus macht wie das grüne Lager von Nvidia. Bin schon sehr auf deine Zahlen gespannt.


Das menschliche Auge/Gehirn ist durch die Evolution darauf trainiert seine Aufmerksamkeit auf derart flackernde Bildbereiche zu lenken, weshalb man es sofort wahrnimmt. Würde FSR die betroffenen Bereiche einfach nur stark blurren wäre schon viel gewonnen.
Was ein Blödsinn wieder. Blur ist genauso eine Seuche. Dann habe ich plötzlich eine ekelhafte Unschärfe in Teilbereichen. Hast super viel gewonnen. :uclap: Das wäre nichts weiter als ein weiterer Kompromiss dessen Auswirkung jeder anders gewichtet.


Wir wissen nicht, warum da nichts mehr passiert ist.
Man war/ist mit Framegeneration beschäftigt. Das fällt auch nicht einfach so vom Himmel.

robbitop
2024-03-19, 11:18:04
Wobei man auch fairerweise sagen muss, bei DLSS und Xess tut sich auch nichts mehr. Womöglich hat man da auch einen Status erreicht, wo es sich nicht lohnt noch mehr Aufwand reinzustecken.
Naja XeSS hat mit Version 1.1 und 1.2 erst relativ kürzlich noch ordentlich was getan. DLSS hat zumindest mit Model F in 2.5.1 noch Verbesserungen erhalten - das ist allerdings auch schon >1 Jahr her. Etwas später gab es noch Optimierungen für das Ultra Performance Preset (aber für die meisten ist das wohl nicht relevant).

dargo
2024-03-19, 11:23:21
Naja XeSS hat mit Version 1.1 und 1.2 erst relativ kürzlich noch ordentlich was getan.
Ach komm... hör mir doch auf. CP77 verwendet XeSS 1.2 und die Bildstabilität ist genauso grausam wie die von FSR 2.1. Da finde ich die Bildstabilität von XeSS in anderen Spielen besser, ohne jetzt die Version zu kennen.

PS: ich kann natürlich nur die Sparversion von XeSS bewerten. Ich werde mir sicherlich keinen ARC holen um die "bessere" Version zu testen.

The_Invisible
2024-03-19, 11:47:00
Wobei man auch fairerweise sagen muss, bei DLSS und Xess tut sich auch nichts mehr. Womöglich hat man da auch einen Status erreicht, wo es sich nicht lohnt noch mehr Aufwand reinzustecken.

DLSS-RR schon vergessen? Ist der nächste logische Schritt da es genauso zu den Upsampling Problemen dazugehört.

robbitop
2024-03-19, 12:08:52
Dann zähl mal auf wieviel Prozent der Konsolenspieler ein Drama daraus macht wie das grüne Lager von Nvidia. Bin schon sehr auf deine Zahlen gespannt.
Man könnte es auch anders herum sehen. Je stabiler ein Verfahren auflösungsnormiert ist, desto geringer kann die Inputresolution (Qualitätsnormiert) sein. Bei einer Performancelimitierten Plattform kann man dann mehr Performance extrahieren bei gleicher Qualität.

dargo
2024-03-19, 12:11:13
Wow... echt? Da wäre ich selbst nicht drauf gekommen. :freak:

DrFreaK666
2024-03-19, 12:19:47
Ich frage mich wieso FG dann vergleichsweise sehr gut funktioniert. Mehr Infos hat die Technologie da ja auch nicht

robbitop
2024-03-19, 12:30:16
Ach komm... hör mir doch auf. CP77 verwendet XeSS 1.2 und die Bildstabilität ist genauso grausam wie die von FSR 2.1. Da finde ich die Bildstabilität von XeSS in anderen Spielen besser, ohne jetzt die Version zu kennen.

PS: ich kann natürlich nur die Sparversion von XeSS bewerten. Ich werde mir sicherlich keinen ARC holen um die "bessere" Version zu testen.
Es ging Exxtreme aber darum, dass es keine Innovation mehr gab. Nicht ob die Innovation in CP77 gut genug ist, um dargo zu gefallen. ;) Und auf genau ersteres habe ich geantwortet.
Und XeSS (dp4a) hat auch ein gewisses Spektrum. In manchen Spielen sieht es nicht so doll aus und in anderen hingegen deutlich besser als FSR.

Wow... echt? Da wäre ich selbst nicht drauf gekommen. :freak:
Nun es addressiert deinen Kommentar aber. Auf was du kommst und nicht kommst, kann ich nicht beurteilen.

Gast
2024-03-19, 12:46:33
Ich frage mich wieso FG dann vergleichsweise sehr gut funktioniert. Mehr Infos hat die Technologie da ja auch nicht

FG ist ein alter Hut, die gibt es schon seit 10 Jahren und das mit sogar noch deutlich weniger Infos. Die Schwierigkeit bei FG ist nicht es schön genug sondern, schnell genug für Echtzeitanwendungen zu schaffen.

Lurtz
2024-03-19, 15:00:05
Dann zähl mal auf wieviel Prozent der Konsolenspieler ein Drama daraus macht wie das grüne Lager von Nvidia. Bin schon sehr auf deine Zahlen gespannt.

Als hättest du dazu Zahlen außer deine rote Gefühls-Brille.

Hardware Unboxed sind vor allem als echte nVidia-Fanboys bekannt... :ugly:

dargo
2024-03-19, 15:07:20
Als hättest du dazu Zahlen außer deine rote Gefühls-Brille.

Du hast eine These aufgestellt also liefere endlich entsprechende Zahlen und laber nicht um den heißen Brei rum. Nur weil ein paar Konsolenspieler von Millionen sich über Thema X beschweren hat da absolut Null Relevanz.

DrFreaK666
2024-03-19, 15:07:39
...Hardware Unboxed sind vor allem als echte nVidia-Fanboys bekannt... :ugly:

Hardware Unboxed ist vor allem für Konsolen bekannt :rolleyes:

dargo
2024-03-19, 15:08:44
Hardware Unboxed ist vor allem für Konsolen bekannt :rolleyes:
Habe nichts anderes erwartet, billiges Ablenkmanöver vom Thema welches gleich gescheitert ist.


Und XeSS (dp4a) hat auch ein gewisses Spektrum. In manchen Spielen sieht es nicht so doll aus und in anderen hingegen deutlich besser als FSR.

Mal wieder eine völlige Übertreibung. :rolleyes: Das sind nicht selten Nuancen oder Unterschiede in Teilbereichen. Bei X siehts etwas besser aus, bei Y wieder etwas schlechter. Und die Kosten von XeSS "Sparversion" sind immer erheblich höher.

robbitop
2024-03-19, 15:38:48
Mal wieder eine völlige Übertreibung. :rolleyes: Das sind nicht selten Nuancen oder Unterschiede in Teilbereichen. Bei X siehts etwas besser aus, bei Y wieder etwas schlechter. Und die Kosten von XeSS "Sparversion" sind immer erheblich höher.
Sieht HWUB anders:
https://www.youtube.com/watch?v=wrd8RfxCwvQ

Auch Leute wie DF die den ganzen Tag pixelpeepen sagen das immer wieder im DF direct.

Aber ja es ist teurer. Aber HWUB sagt auch, dass performancenormiert (also mit niedrigeren Renderauflösungen) in der Mehrzahl der Spiele besser aussieht als FSR2.2.

DrFreaK666
2024-03-19, 15:45:11
XeSS gibt es im Vergleich halt nicht so oft.
Outcast 2 und neuerdings Alone in the dark haben nicht mal FSR2

dargo
2024-03-19, 18:16:26
Aber HWUB sagt auch, dass performancenormiert (also mit niedrigeren Renderauflösungen) in der Mehrzahl der Spiele besser aussieht als FSR2.2.
:rolleyes:

Hat HWU bsw. bei Witcher3, HZD oder Uncharted FSR2.x mit XeSS 1.x verglichen? Oh wait... da war doch was. Als weiteres... HWU hat im Vergleich u.a. Ratchet & Clank und denen fällt nicht die miserable Darstellung mit XeSS (gleiches gilt für FSR2) beim Fell vom Protagonisten in den Cutszenen auf? Davon gibt es übrigens im Spiel jede Menge. Da ist das spieleigene TAA um Welten besser.

Edit:
Diese Szene ist auch wieder zu lustig.
https://youtu.be/wrd8RfxCwvQ?si=MqcWIA9Q12KPaRRt&t=1062

Der schmierige Vogel bei DLSS wird mal wieder gar nicht erwähnt, geschenkt. Mir geht es hier eher um den Zoom-Vergleich. XeSS hat da massive Probleme im DOF links bei der Kuppel. Immerhin wird das erwähnt. Dann wird auch erwähnt, dass XeSS die feinen Details besser als FSR2 rekonstruiert (was auch stimmt). Lustigerweise wird aber die Palme links im Bild nicht erwähnt die mit XeSS schlechter dargestellt wird. Warum die aber Performance vs. Quality vergleichen kann ich nicht ganz nachvollziehen. Wegen vergleichbaren fps? Ich muss aber auch dabei sagen, dass ich von diesen starken Zooms (hier 300%) nichts halte. Würde es im Spiel Kameraszenen geben die so stark rein zoomen kein Thema, dann passt so ein Vergleich. Aber "künstlich" da so stark zu zoomen finde ich übertrieben. Wenn ein Upscaling in einer Szene ohne diesen Zoom überzeugt dann ist es doch ok.

Relex
2024-03-19, 19:47:11
The Last of Us Part 1 hat heute FSR3 bekommen.

https://feedback.naughtydog.com/hc/en-us/articles/24742951155732-The-Last-of-Us-Part-I-v1-1-3-Patch-Notes-for-PC


Tja, und wieder einmal ist FSR3 völlig kaputt.

Das Upsampling ist wieder eine Frechheit, so wie da alles flimmert. Zudem wird mindestens Quality Upsampling forciert, da es keinen Modus mit nativer Auflösung gibt. Will man FG nutzen muss also immer FSR Quality Upsampling aktiv sein.
Und die Frame Generation macht genau das gleiche wie seit dem letzten Avatar Update, wo die Frames einfach nur dupliziert werden, aber keine tatsächlichen Zwischenbilder zu sehen sind.

Daher macht es optisch absolut keinen Unterschied, ob FG an oder aus ist. Nur der FPS Zähler sagt, dass sich die FPS veroppelt hätten.

Und mit der Beobachtung bin ich auch nicht alleine.
https://twitter.com/beyond_fps/status/1770131563365179809


Das kann langsam wirklich nicht mehr wahr sein...
Bald ist FSR3 ein halbes Jahr draußen und es ist immernoch in völlig katastrophalem Zustand.


Sorry, aber mich macht das traurig und wütend. Wie kann man seinen Ruf nur so durch den Dreck ziehen... Zumal FSR3 ja in einigen wenigen Spielen perfekt funktioniert. Dass man seitens AMD absolut keinen Bock hat, die Entwickler zu untersützen und ein Mindestmaß an Qualität sicherzustellen sagt leider viel aus. Irgendwas muss bei AMD gerade intern aus dem Ruder laufen, anders lässt sich das kaum noch erklären. Sowas passiert vielleicht einmal, vielleicht zweimal oder dreimal, wenn man nicht aufpasst. Aber nicht das x-te mal nach einem halben Jahr und etlichen Releases. Ich fasse es nicht...
:facepalm:

raffa
2024-03-19, 20:07:01
The Last of Us Part 1 PC...

Da erwartet man freilich eine 1a Implementierung, nachdem der Port ja von Anfang von hervorragender Qualität war : )

Relex
2024-03-19, 20:14:12
Nein.
Siehe Avatar. Das war ein exzellenter Port und trotzdem läuft FSR3 dort genauso schlecht.
Starfield war ein schlechter Port und FSR3 läuft sauber.

Das eine hat mit dem anderen nichts zu tun.

raffa
2024-03-19, 20:17:21
Naja, es überrascht mich halt aber auch nicht, dass hier bei der Implementiertung nicht besonders sauber gearbeitet wurde. Warum bringt man das Update (oder den Port) denn überhaupt, wenn es nicht gscheid funktioniert? Aus Entwicklersicht macht das keinen Sinn.

Ich bin übrigens nicht der Meinung, das bei der AMD GPU Sparte alles rund läuft, bei weitem nicht.

FSR3 ist aber beileibe nicht schlecht dokumentiert, siehe hier https://gpuopen.com/manuals/fidelityfx_sdk/fidelityfx_sdk-page_techniques_super-resolution-interpolation/
und ich sehe erstmal keinen Grund, warum das ein guter Spielentwickler nicht ordentlich implementiert bekommt.

Es ist auch seltsam, warum es hier kein FSR NativeAA gibt, das ist inzwischen nämlich Teil der FSR3 Presets.

Relex
2024-03-19, 20:20:38
Warum bringt man das Update (oder den Port) denn überhaupt, wenn es nicht gscheid funktioniert? Aus Entwicklersicht macht das keinen Sinn.



Jup, genau die Frage stelle ich mir generell seit FSR3 Release :confused:

DrFreaK666
2024-03-19, 20:34:28
...Sowas passiert vielleicht einmal, vielleicht zweimal oder dreimal, wenn man nicht aufpasst. Aber nicht das x-te mal nach einem halben Jahr und etlichen Releases. Ich fasse es nicht...
:facepalm:

Aktuell ist es bei Robocop, Avatar und hier. Was vergessen?
Also dreimal :biggrin:

1ch0
2024-03-19, 20:53:55
So treibt man die Leute zu Nvidia. Well done, AMD.

DLSS Verfügbarkeit und Bildruhe ist auch einer der Gründe wieso ich wieder zu Nvidia zurück bin..

Von Framegeneration Verfügbarkeit und Raytracing Capabilities mal ganz zu schweigen. ^^

The_Invisible
2024-03-19, 20:57:47
Aktuell ist es bei Robocop, Avatar und hier. Was vergessen?
Also dreimal :biggrin:

Naja wennst die ganzen FSR2 Fails noch dazuzählst...

Aber wie schon öfter gesagt, mir unverständlich wie man bei GPU technisch so zurückliegen kann aber CPU seitig so ein geiles Stück Technik wie den 7800x3d bringen kann

Linmoum
2024-03-19, 21:39:12
Alles, was einen zur Nutzung von FSR2 zwingt, ist sowieso völlig überflüssig und unbrauchbar. Wie man dessen Entwicklung derart verkommen lassen kann, ist mir weiterhin ein völliges Rätsel. Von wann ist FSR 2.2 als aktuellstes mittlerweile? Ende 2022?

DrFreaK666
2024-03-19, 21:46:06
16.2.23 laut AMD. Es gab aber noch eine Version 2.2.2

Exxtreme
2024-03-19, 21:48:50
Aber wie schon öfter gesagt, mir unverständlich wie man bei GPU technisch so zurückliegen kann aber CPU seitig so ein geiles Stück Technik wie den 7800x3d bringen kann

Wenn man Intel als Messlatte sieht und nicht Nvidia dann passiert das.

dargo
2024-03-19, 21:59:28
The Last of Us Part 1 hat heute FSR3 bekommen.

https://feedback.naughtydog.com/hc/en-us/articles/24742951155732-The-Last-of-Us-Part-I-v1-1-3-Patch-Notes-for-PC


Tja, und wieder einmal ist FSR3 völlig kaputt.

Das Upsampling ist wieder eine Frechheit, so wie da alles flimmert. Zudem wird mindestens Quality Upsampling forciert, da es keinen Modus mit nativer Auflösung gibt.

Nö... vollkommen falsch. Es gibt weiterhin spieleigenes TAA. Dann gibt es optional FSR3 Native-AA und die sonstigen, üblichen Upscaling Presets wie zb. Quality. Aber Hauptsache wieder Dummfug verbreiten.

Will man FG nutzen muss also immer FSR Quality Upsampling aktiv sein.
Wieder bullshit. Frame Generation lässt sich auch mit Native-AA kombinieren. Bei einem 1440p Bildschirm ergo 1440p Input + FSR3 + FG.

Edit:
Kurzer Test im Prolog mit Native-AA + FSR3 + FG... läuft absolut sauber mit 140fps Limit @RTSS + Vsync Off hier mit der 6800XT. Nicht der kleinste Mikroruckler bei der Bildausgabe.

Gast
2024-03-19, 22:36:13
Hast super viel gewonnen. :uclap: Das wäre nichts weiter als ein weiterer Kompromiss dessen Auswirkung jeder anders gewichtet.



Es wäre ein Kompromiss, allerdings ein besserer.

HOT
2024-03-19, 23:08:34
Also ich hab in keinem Titel bisher FG genutzt obwohl ich etliche habe, weil ich es immer für sinnlos erachtet habe, es brachte schlichtweg keinen Vorteil beim Testen. FSR3 funzt auch wunderbar ohne FG. Und ich hab nen Moni mit 240Hz :freak:.

raffa
2024-03-19, 23:09:27
Danke für die Aufklärung. Nur TwitterX als Quelle reicht halt dann noch nicht immer ;)

Es hat sich echt lange nichts getan am Upscaler von FSR, da könnte AMD durchaus mal nachlegen. Ob das jetzt mit AI oder ohne ist, ist (mir) erstmal egal. Aber da AI grad der letzte Schrei ist, wärs vielleicht gut wenn man das draufschreiben kann.

Relex
2024-03-19, 23:14:37
@dargo
Meine Güte, da fühlt sich aber jemand angegriffen. Du kannst auch normal mit mir sprechen. Deinen „Bullshit“ kannste für dich behalten. Sind hier nicht im Kindergarten.


Ich habs eben nochmal getestet und du hast recht, die Native Option ist unter AntiAliasing versteckt. Wenn man da auf FSR geht, dann wird der Schalter für FG ebenfalls freigegeben. Die Menüführung ist aber auch zum davonlaufen…
Auch wieder nett von dir, meinen Beitrag als Bullshit zu bezeichnen ohne den Hinweis zu geben, wo du die Option gesehen hast. Sollte doch offensichtlich sein, dass ich es in dem Fall nicht gefunden/übersehen habe. Anstatt mich darauf hinzuweisen, gehst du mich an. Zum kotzen diese Diskussionskultur hier….


Ändert aber nichts daran, dass FG einfach nicht funktioniert. Es läuft sauber, ja. Keine Ruckler, unauffälliges Framepacing, aber es sieht nunmal genauso aus wie ohne. Das Bild wird kein bisschen flüssiger.


Danke für die Aufklärung. Nur TwitterX als Quelle reicht halt dann noch nicht immer ;)

Ich habe twitter nur verlinkt um zu zeigen, dass ich wohl nicht der einzige bin. Denn im Gegensatz zu manch anderen teste ich gerne selbst, wie dir bei den meisten meiner Beiträge hier im Forum vielleicht schon aufgefallen ist. Du machst doch jetzt auch nichts anderes als der Aussage eines Users glauben zu schenken die die meinung eines anderen Users vermeintlich widerlegt.

Wenn Meinungsbildung für dich auf diese weise funktionieren kann, bitte, aber dann kannste genauso gut ne Münze werfen. :wink:

raffa
2024-03-19, 23:36:42
...
Wenn Meinungsbildung für dich auf diese weise funktionieren kann, bitte, aber dann kannste genauso gut ne Münze werfen. :wink:


Keine Sorge, meine Meinung bildet sich schon bissl anders als mit nem Münzwurf. Leider hab ich das Spiel nicht, also kann ichs mir vorerst auch nicht selbst ansehen.

Hab schon einige Posts von dargo gelesen, und deine Beschreibung der Sachlage war ja auch nicht korrekt. Ich bin zwar pro AMD und eher gegen nvidia, aber das hat andere Gründe als die Upscaler Qualität.

Ich würde es begrüßen, wenn wir diese Diskussionen irgendwann nicht mehr führen, weil sich die Lage vereinheitlicht hat, und die proprietären Lösungen verschwunden sind.

edit:
Ändert aber nichts daran, dass FG einfach nicht funktioniert. Es läuft sauber, ja. Keine Ruckler, unauffälliges Framepacing, aber es sieht nunmal genauso aus wie ohne. Das Bild wird kein bisschen flüssiger.

Er hier teilt deine Einschätzung, dass die FG nicht richtig funktioniert: https://www.youtube.com/watch?v=89XXX0wcX4s
Und dazu sagt er mit LukeFZ FSR3 Mod fühlt sich FG flüssig an (hat aber leichte Darstellungsprobleme)

Dann bleibt die Frage, wie das kommt.

dargo
2024-03-20, 06:43:28
@dargo
Meine Güte, da fühlt sich aber jemand angegriffen. Du kannst auch normal mit mir sprechen. Deinen „Bullshit“ kannste für dich behalten. Sind hier nicht im Kindergarten.


Ich habs eben nochmal getestet und du hast recht, die Native Option ist unter AntiAliasing versteckt. Wenn man da auf FSR geht, dann wird der Schalter für FG ebenfalls freigegeben. Die Menüführung ist aber auch zum davonlaufen…
Auch wieder nett von dir, meinen Beitrag als Bullshit zu bezeichnen ohne den Hinweis zu geben, wo du die Option gesehen hast. Sollte doch offensichtlich sein, dass ich es in dem Fall nicht gefunden/übersehen habe. Anstatt mich darauf hinzuweisen, gehst du mich an. Zum kotzen diese Diskussionskultur hier….

Sorry von meiner Seite aus. Aber bei den ganzen grünen Trollen hier fällt es mir langsam schwer zu unterscheiden. Siehst du ja schon alleine an den Reaktionen nach deinem letzten Post. Sofort werden die Hate-Lemminge magisch angezogen. Beim nächsten Mal vielleicht mal in Ruhe die Grafikoptionen durchgehen und erst dann beurteilen. Nur so eine Idee.


Ändert aber nichts daran, dass FG einfach nicht funktioniert. Es läuft sauber, ja. Keine Ruckler, unauffälliges Framepacing, aber es sieht nunmal genauso aus wie ohne. Das Bild wird kein bisschen flüssiger.

Diesen Punkt muss ich mir noch genauer anschauen, gestern keine Zeit mehr dafür gehabt. Was mir gestern aber noch auffiel... es gibt wieder Probleme bei Framegeneration wenn Vsync aktiv ist. Sprich... kaputte Bildausgabe und witzigerweise hatte ich mit Vsync On auch paar Mal Crashes auf den Desktop sobald FG aktiv war. Aber auch das werde ich noch genauer untersuchen. Mit 140fps Limit + Vsync Off war die Bildausgabe wie gesagt bei mir jedenfalls absolut sauber und keine Crashes.

Es wäre ein Kompromiss, allerdings ein besserer.
In deinen Augen vielleicht, in anderen womöglich nicht.

Also ich hab in keinem Titel bisher FG genutzt obwohl ich etliche habe, weil ich es immer für sinnlos erachtet habe, es brachte schlichtweg keinen Vorteil beim Testen. FSR3 funzt auch wunderbar ohne FG. Und ich hab nen Moni mit 240Hz :freak:.
Geht mir hier bisher genauso, habe aber nur 144Hz. Der Hauptgrund warum ich kein FG beim Gaming nutze liegt wohl eher daran, dass meine Karte für alles noch schnell genug ist ohne FG. Aber auch der Inputlag mit FG schreckt mich etwas ab. Nur so als Beispiel... wenn ich mit FG 140fps habe und ohne FG 90-100 dann nehme ich zweiteres, fühlt sich an der Maus einfach direkter an.

The_Invisible
2024-03-20, 07:31:39
Wenn man Intel als Messlatte sieht und nicht Nvidia dann passiert das.

Selbst Intel hat mit XeSS ein bessers/moderneres Upsampling

DrFreaK666
2024-03-20, 07:55:43
AMD ist hintendran. Wir wissen es langsam :rolleyes:

dargo
2024-03-20, 09:17:51
Er hier teilt deine Einschätzung, dass die FG nicht richtig funktioniert: https://www.youtube.com/watch?v=89XXX0wcX4s
Und dazu sagt er mit LukeFZ FSR3 Mod fühlt sich FG flüssig an (hat aber leichte Darstellungsprobleme)

Ich habe mir jetzt das Video von Ancient angesehen. Bisher nur den Teil mit der Geforce. Auch er erwähnt die Problematik hier ganz gut. Mit FSR-Upscaling flimmert diverses mehr während es mit DLSS blurrt. Beides für mich inakzeptable Kompromisse. Was hilft dagegen bzw. schwächt diese Fuckups ab? Mehr Pixelinput, ergo alles wie gehabt.

Edit:
Der Hinweis von Ancient, dass die FSR3-Mod besser funktionieren soll als die offizielle Implementierung ist natürlich wieder zu geil. ;D Und auch der Hinweis, dass FG mit Radeon (nach seiner Einschätzung) besser funktioniert als mit Geforce spricht wieder Bände bezüglich mimimi FSR3 + FG läuft auf meiner Geforce kacke.

robbitop
2024-03-20, 10:01:24
Nein.
Siehe Avatar. Das war ein exzellenter Port und trotzdem läuft FSR3 dort genauso schlecht.
Starfield war ein schlechter Port und FSR3 läuft sauber.

Das eine hat mit dem anderen nichts zu tun.
Bei Avatar lief FSR3FG auch gut bevor es kaputt gepatcht wurde.

Das Problem mit der Konsistenz ist definitiv unschön verglichen mit dem was Nvidia bietet. Entweder sind die Verfahren (Upsampling und Framegeneration) einfach zu empfindlich um konsistent zu funktionieren oder AMD ist einfach zu wenig involviert. Wenn man weiß, was unbedingt alles stimmen muss, damit das läuft, dann sollte man sicherstellen, dass das auch der Fall ist. Ich kann mir kaum vorstellen, dass Hilfe von AMD mit "hands on" hier etwas ist, was man ablehnt.

Aber ggf. sind dann eben die Aspekte des Verfahrens zu verändern, die dafür sorgen, dass die Robustheit in der Implementierung steigt.
FSR2 zeigt ja in Witcher 3, dass es ganz gut sein kann. Und FSR3 FG zeigt in ein paar Spielen, dass es gut funktionieren kann. Es sollte aber besser konsistent abliefern.