Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)
Das mag ja sein. Trotzdem ist es so, dass die Spieleentwickler FSR nicht selbst implementieren. Die lassen alles die Spieleengine bzw. von AMD gelieferte Bibliotheken machen.
Das ist aber bezogen auf die Optimierungsmöglichkeiten komplett wurscht.
Der_Korken
2025-05-22, 21:04:06
die 5-6ms inkludieren bereits FSR3.1 Kosten. Im Video sagt er 3-3,5 ms extra vs FSR3.1
Habe mit 4ms Differenz gerechnet, d.h. real wären die Einbrüche etwas schwächer. Allerdings nur in Bezug auf die getestete 7900XT. Alles darunter verliert noch stärker.
raffa
2025-05-22, 21:17:45
5-6ms sind ~1/3 der Renderzeit bei 60fps, das ist sehr viel!
Zu viele Kompromisse kommt dann was raus wie das generische XeSS, was schlecht performt und schlecht aussieht, da bevorzuge ich klar FSR3.1
Vergleiche PSSR: Die PS5 pro bekommt auch nur ein vernünftiges PSSR hin, weil die Hardware extra dafür erweitert wurde, dass sie die nötigen Operationen schnell genug ausführen kann.
Exxtreme
2025-05-22, 23:53:43
Das ist aber bezogen auf die Optimierungsmöglichkeiten komplett wurscht.
Nein, ist es nicht. Denn der Grafikchip bekommt ja nicht mehr die originalen Shader, die die Entwickler programmiert haben sondern kompilierte Shader, die ein proprietäres BLOB sind, welches ein Shadercompiler generiert hat. Und der Shadercompiler kann dann sehr wohl div. Optimierungen durchführen.
Nein, ist es nicht. Denn der Grafikchip bekommt ja nicht mehr die originalen Shader, die die Entwickler programmiert haben sondern kompilierte Shader, die ein proprietäres BLOB sind, welches ein Shadercompiler generiert hat.
Und genau dieser Shader wurde extrahiert und Bugfixed damit er auf RDNA3 lauffähig ist.
Das einzige Optimierungspotential wäre evtl. dass man bessere Bugfixes für RDNA3 machen könnte, ansonsten ist es der selbe Shader.
robbitop
2025-05-23, 09:15:51
Die Diskussion ist doch sinnlos. Der Konvertierungsschritt hat sehr wahrscheinlich nicht annähernd das Optimierungspotenzial um das Gesamtergebnis entscheidend zu ändern. Und genau deshalb kam FSR4 in seinem heutigen Form nur für RDNA4 (und wird für RDNA3 explizit umgebaut). Das ist nicht aus Spaß so geschehen.
IceKillFX57
2025-05-25, 16:02:16
hmmm.
Ich habe grade FSR(2? oder doch schon 3? egal, kein 4er) in Dead Island 2 ausprobiert.
Warum zum Teufel ist das so gut?
In Cyberpunkt kann ich das total vergesse, da muss XESS nachhelfen schaut aber auch nicht annähernd so gut aus.
Wenn ich das so sehe dann frage ich mich wirklich ob man es doch nicht überall so gut hinbekommen könnte....
DrFreaK666
2025-05-25, 17:19:01
Wieso findest du es in CP2077 nicht gut?
dargo
2025-05-25, 17:28:32
hmmm.
Ich habe grade FSR(2? oder doch schon 3? egal, kein 4er) in Dead Island 2 ausprobiert.
Warum zum Teufel ist das so gut?
In Cyberpunkt kann ich das total vergesse, da muss XESS nachhelfen schaut aber auch nicht annähernd so gut aus.
Wenn ich das so sehe dann frage ich mich wirklich ob man es doch nicht überall so gut hinbekommen könnte....
CDPR hat überhaupt kein Interesse daran an FSR zu feilen bzw. nachzubessern. Das FSR war in CP77 auch schon mal besser, wurde später von CDPR verschlechtert. Böse Zungen würden behaupten Nvidia hat da seine Finger im Spiel. Wie gut FSR funktioniert hängt aber auch vom Content noch ab.
IceKillFX57
2025-05-25, 17:38:41
Wieso findest du es in CP2077 nicht gut?
weil es da soviel Häuslichkeiten veranstaltet.
Ich rede natürlich nicht von irgendwelchen FSR4 Mods (sofern möglich).
Cyberpunk ist sowieso schmutz, wenn man keine nvidia hat (die ich natürlich auch hier habe).
Das Wasser kann man sich ohne RT da auch nicht antun...
DrFreaK666
2025-05-25, 19:13:47
weil es da soviel Häuslichkeiten veranstaltet.
Ich rede natürlich nicht von irgendwelchen FSR4 Mods (sofern möglich)...
Hab dein "kein 4er" im Posting davor übersehen.
Mit FSR4 sieht es sehr gut aus
dargo
2025-05-29, 13:13:32
Da offenbar Framegen in TLOU 1 kaputt ist (beim 25.4.1 gleiche Grafikfehler)...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13763994&postcount=60
... gibt es eine andere Möglichkeit FG hier zu verwenden? Optiscaler?
Edit:
Keine Ahnung ob die amd_fidelityfx_dx12.dll in TLOU 1 defekt ist oder was auch immer. Jedenfalls habe ich mit Optiscaler 0.77 -pre9 mit FSR 3.1 und optifg keine Grafikfehler mehr mit Framegen. :up: Also wieder zurück zum Adrenalin 25.5.1 und die Gebäudeshader neu in TLOU 1 kompilieren. :ulol:
dargo
2025-06-01, 08:10:30
Ich weiß nicht wohin sonst damit... gibt es eine Möglichkeit das UI in reshade zu skalieren? reshade verwendet 100% scaling und das sieht auf dem 27" 4k Screen verdammt winzig aus. Jedes Mal wenn ich in reshade was ändern will auf 1080p zu wechseln Ingame nervt ein wenig auf Dauer.
Lurtz
2025-06-01, 12:55:04
Google... Press Ctrl and use the mouse wheel to adjust font size. Grab the bottom right corner to resize the window. This is covered by the tutorial at first launch.
dargo
2025-06-01, 16:28:08
Super, danke. :up:
dargo
2025-06-09, 09:43:33
Es ist wirklich heftig wie der FSR3-Algorithmus im Regen in TLOU 2 zusammenbricht. Das Video habe ich jetzt mit Absicht in SDR aufgenommen, halt fürs Video. In HDR (womit ich eigentlich spiele) sieht das noch übler aus da die aufleuchtenden Pixel im Gemüse in der Helligkeit nochmal verstärkt werden.
_QY5aWU1qcg
Schon seltsam, dass AMD das nicht gefixt bekommt, schließlich kann das XeSS ohne KI auch wesentlich besser.
Κριός
2025-06-09, 10:10:05
Worauf muss ich hier achten? Ich habe das Spiel nie gespielt und habe keine Ahnung wo das Versagen ist? Vor allem weil das Video zwar vs XESS im Namen hat, du aber scheinbar nichts in den Einstellungen änderst.
robbitop
2025-06-09, 10:33:02
schließlich kann das XeSS ohne KI auch wesentlich besser.
XeSS nutzt ein neuronales Netzwerk wie auch DLSS. Wahrscheinlich ein CNN. Die dp4a Variante hat nur weniger Parameter als die XMX Variante.
Allerdings ist TSR oft besser als FSR und das nutzt kein NN.
dargo
2025-06-09, 10:40:45
Worauf muss ich hier achten? Ich habe das Spiel nie gespielt und habe keine Ahnung wo das Versagen ist? Vor allem weil das Video zwar vs XESS im Namen hat, du aber scheinbar nichts in den Einstellungen änderst.
Hä? Tomaten auf den Augen? :freak: Schau dir das Video 3x an. :tongue:
Allerdings ist TSR oft besser als FSR und das nutzt kein NN.
Nicht immer, habe schon genug Szenarien gesehen wo TSR schlechter ist. Diese Pauschalisierungen sind einfach ermüdend.
btw.
Glücklicherweise lassen sich die Upscaler "on the fly" in Games ändern. Ich bin da eher pragmatisch... im Regen verwende ich in TLOU 2 XeSS, ansonsten FSR da es etwas schneller ist.
Κριός
2025-06-09, 10:49:03
Hä? Tomaten auf den Augen? :freak: Schau dir das Video 3x an. :tongue:
Ich sehe den Unterschied nicht. Statt sich dumm anzustellen kann man auch einfach mal antworten.
Relex
2025-06-09, 10:51:45
Also die vielen aufblitzenden weißen Punkte in der Vegetation solltest du schon sehen können.
Das ist doch extrem deutlich.
FSR3 macht das Bild völlig kaputt.
Das ist aber ein ziemlich typisches Verhalten von FSR2/3 bei Vegetation. Selbst ohne dieses offensichtliche Specular filmmern, das hier wegen des Regens und dem wet-shader auftritt, bröselt die Vegetation bei Kamerabwegung immer extrem auf.
Am deutlichsten sieht man das immer in den Baumkronen, wenn dahinter der Himmel ist. Das ist in vielen Spielen so.
robbitop
2025-06-09, 10:53:13
Nicht immer, habe schon genug Szenarien gesehen wo TSR schlechter ist. Diese Pauschalisierungen sind einfach ermüdend.
Ich habe doch „oft“ und nicht „immer“ geschrieben? :| (entsprechend stehen unsere Aussagen nicht konträr und entsprechend wurde nicht pauschalisiert)
dargo
2025-06-09, 11:01:05
Ich sehe den Unterschied nicht. Statt sich dumm anzustellen kann man auch einfach mal antworten.
Wenn du den Unterschied nicht siehst, was soll ich dazu noch sagen?
Das ist aber ein ziemlich typisches Verhalten von FSR2/3 bei Vegetation. Selbst ohne dieses offensichtliche Specular filmmern, das hier wegen des Regens und dem wet-shader auftritt, bröselt die Vegetation bei Kamerabwegung immer extrem auf.
Das ist schlicht und ergreifend falsch. Zumindest bei meinen 166ppi bröselt in vielen Games keine Vegetation sichtbar auf.
Ich habe doch „oft“ und nicht „immer“ geschrieben? :|
Stimmt, sorry.
Relex
2025-06-09, 11:21:14
Das ist schlicht und ergreifend falsch. Zumindest bei meinen 166ppi bröselt in vielen Games keine Vegetation sichtbar auf.
.
Oh gott, nein, bitte nein. Du wirst doch jetzt nicht bei jeder Diskussion mit deinen beknackten ppi daher kommen, die völlig irrelevant für solche Betrachtungen sind.
Ich kann das nicht mehr... :facepalm:
Kein weiterer Kommentar. Diese Diskussion tu ich mir nicht an.
dargo
2025-06-09, 11:47:23
Du hast doch schon Schwierigkeiten einfachste Basics zu verstehen. Jedes Kind weiß, dass eine höhere Auflösung pro gleiche Fläche bei gleichen Sitzabstand diverse Fuckups vom Upscaling fürs Auge mindert (gleiches gilt logischerweise auch für TAA). Nicht unbedingt vollständig beseitigt je nach Fuckup-Ausprägung, aber mindert. Wäre dem nicht so bräuchte niemand mehr als Performance-Upscaling bei 4k weil reine Verschwendung der GPU-Rechenleistung. Und trotzdem gibt es solche Späße wie DLAA oder Nativ-AA FSR/XeSS weiterhin.
Κριός
2025-06-09, 12:06:12
Wenn du den Unterschied nicht siehst, was soll ich dazu noch sagen?
Du kannst mir immer noch sagen worauf ich achten muss? :confused:
Was ist so schwierig wenn es so offensichtlich ist zu sagen: "Achte auf oben Rechts den Baum!" oder was weiß ich...
Ich verstehe echt nicht wie man sich so blöd anstellen kann nur weil man im Internet ist. Sei doch bitte mal ein vernunftbegabtes menschliches Wesen. Oder gehst du im echten Leben auch einfach nach Hause wenn dich jemand nicht versteht?
dargo
2025-06-09, 13:19:45
Du kannst mir immer noch sagen worauf ich achten muss? :confused:
Ich habs doch geschrieben... "aufleuchtende Pixel im Gemüse". Keine Ahnung was daran jetzt unverständlich sein soll.
Gemüse = Vegetation
Darkman.X
2025-06-09, 14:15:23
Einfach in einem vernünftigem Deutsch kommunizieren, dann verstehen das auch mehr Leute.
Und nicht vergessen:
Es gibt auch Leute, die Spiele aus Spaß spielen und keine Technik-Experten sind. Sie können nicht unterscheiden, was vom Entwickler ein gewollter Effekt ist oder nicht. Oder die Leute haben kein Bewusstsein für solche Fehler.
Und wenn es ein Spiel ist, welches man selber noch nie gespielt hat, wird es noch schwieriger.
Es hat schon seinen Sinn, wenn man Grafikfehler manchmal mit Zeitlupe und 300 % Zoom zeigen muss.
dargo
2025-06-09, 14:18:58
Ja sorry. Mein erste Gedanke dabei war da will mich einer trollen der die Grafikfehler nicht erkennt. :tongue:
Edit:
Hehe... ich hatte zwar schon die Vermutung, jetzt aber die Bestätigung. Dieses völlige Zusammenbrechen vom Algorithmus bei Regen in TLOU 2 liegt nur an FSR 3. Mit FSR 2.1.2 ist alles tutti. Zumindest blitzt da nichts mehr im Gemüse auf. Um den Charakter selbst gibt es aber leichtes Ghosting, finde ich allerdings weniger störend als dieses üble Aufblitzen mit FSR 3.
sy1H97HgGMU
Sumpfmolch
2025-06-09, 16:40:20
Ja sorry. Mein erste Gedanke dabei war da will mich einer trollen der die Grafikfehler nicht erkennt. :tongue:
Edit:
Hehe... ich hatte zwar schon die Vermutung, jetzt aber die Bestätigung. Dieses völlige Zusammenbrechen vom Algorithmus bei Regen in TLOU 2 liegt nur an FSR 3. Mit FSR 2.1.2 ist alles tutti. Zumindest blitzt da nichts mehr im Gemüse auf. Um den Charakter selbst gibt es aber leichtes Ghosting, finde ich allerdings weniger störend als dieses üble Aufblitzen mit FSR 3.
Wie schaut die Stabilität aus, wenn man das treiberintegrierte FSR4 Upgrade nutzt statt OptiScaler?
https://i.ibb.co/5whK747/fsr4.png
dargo
2025-06-09, 16:49:31
Wird schwierig mit RDNA2. ;)
DrFreaK666
2025-06-18, 10:46:28
Hier hat jemand FSR4 mit einer 7900XTX getestet. Ist irgendwie kaum sinnvoll
https://www.reddit.com/r/radeon/comments/1lbbdaa/fsr4_on_rdna3_7900xtx_tests/
Lurtz
2025-06-18, 13:22:58
Ist doch längst bekannt dass es ohne angepasste Version nichts bringt.
dildo4u
2025-06-28, 09:29:50
Vermutlich immer noch grottige Performance dafür besseres Bild?
Monster Hunter FSR4 Support ab Montag.
https://info.monsterhunter.com/wilds/update/en-us/Ver.1.020.00.00.html
qu3x^
2025-06-28, 22:33:48
Vermutlich immer noch grottige Performance dafür besseres Bild?
Monster Hunter FSR4 Support ab Montag.
https://info.monsterhunter.com/wilds/update/en-us/Ver.1.020.00.00.html
Steht ja sonst kein Wort von irgend welchen Performanceverbesserungen in den Patchnotes. Also Capcom und PC Spiele :freak:
Gorkon
2025-07-18, 12:40:27
Hier hat jemand FSR4 mit einer 7900XTX getestet. Ist irgendwie kaum sinnvoll
https://www.reddit.com/r/radeon/comments/1lbbdaa/fsr4_on_rdna3_7900xtx_tests/
Ist schon wesentlich besser geworden:
https://www.reddit.com/r/linux_gaming/comments/1m1mieo/fsr4_on_rdna3_keeps_getting_better/
https://www.phoronix.com/news/More-AMD-FSR-4-Mesa-25.2
basix
2025-07-18, 12:51:04
Cool :)
Exxtreme
2025-07-18, 12:58:50
Nice. Und wie ich schon vor ein paar Wochen schrieb, da ist ziemlich sicher noch Optimierungspotential da weil "Hobby-Entwickler" die ganzen RDNA3-Interna so nicht kennen. Dämlich ist aber, dass "Hobby-Entwickler" wieder schneller sind als der eigentliche Hersteller.
robbitop
2025-07-18, 15:18:10
Ist aber immernoch niedrig. 10% bei quality und 30% bei Performance (bei grob halber, respektive Viertel Auflösung). Und das beim Topdog (N31) - von kleineren SKUs abgesehen... Da wird einfach zu viel compute investiert so dass ein Großteil der Einsparung der Auflösung weg gefressen wird. Aber bei der FP8 Leistung von rdna3 ggü RDNA4 kein Wunder. Gibt schon einen Grund warum man bei Arc, RTX und RDNA4 gpus in Tensor HW investiert hat und warum AMD FSR4 versucht auf HW mit weniger FP8 compute optimiert.
aufkrawall
2025-07-18, 15:48:53
Sinnvoll ist es so aber schon, immerhin zigfach besseres AA für gratis.
Exxtreme
2025-07-18, 15:56:26
Ist aber immernoch niedrig. 10% bei quality und 30% bei Performance (bei grob halber, respektive Viertel Auflösung).
Ich meine eher das Vorher/Nachher. Die Min-FPS bei Cyberpunk 2077 sind von 41,45 auf 61,09 hoch. Und das ist Plus von ~47%, was durchaus spürbar ist. Wäre zu hoffen, dass AMD hier am Ball bleibt und noch ordentlich was nachlegt.
robbitop
2025-07-18, 16:16:00
Sinnvoll ist es so aber schon, immerhin zigfach besseres AA für gratis.
OK sagen wir eingeschränkt sinnvoll. Einfach weil die Masse da sehr wahrscheinlich was anderes erwartet. Ich sehe schon die reviews und den shitstorm vor mir. Insbesondere bei SKUs die deutlich weniger compute Leistung haben als N31. Da wird es dann noch schlimmer.
DrFreaK666
2025-07-19, 14:26:39
VL01X4LkvoI
aufkrawall
2025-07-19, 15:49:11
Insbesondere bei SKUs die deutlich weniger compute Leistung haben als N31. Da wird es dann noch schlimmer.
Die haben aber i.d.R. kein 4k-Target, was deutlich teurer ist.
robbitop
2025-07-19, 16:25:12
Das stimmt - aber das schöne an Upsampling ist ja auch dass man trotzdem hohe Auflösungen fahren kann mit kleineren SKUs und dafür die Inputresolution senken kann. In dem Fall leiden dann kleine SKUs besonders.
Gorkon
2025-07-21, 17:22:18
Das FSR4 auf RDNA3 immer noch langsam ist, stellt ja niemand in Frage. Aber wir kommen auch von der Annahme, dass das niemals gehen bzw. unbenutzbar lahm wäre...von daher nicht so schäbig die Entwicklung ;)
aufkrawall
2025-07-21, 17:29:15
Zeigt auf jeden Fall, dass AMD locker ein relativ performantes Modell mit nicht extrem viel schlechterer Qualität auf RDNA3 bringen könnten, sofern sie das denn wollten.
basix
2025-07-21, 17:38:26
Auch wenn es langsamer sein sollte, ist es vermutlich immer noch ein Gewinn für RDNA4. Warten wir mal FSR4 Redstone ab.
robbitop
2025-07-21, 19:23:19
Es wird ja gemunkelt dass es eine rdna3 (ggf sogar GPU agnostische) Variante geben soll und man daran arbeitet. Potenziell ohne den Transformerteil.
Wenn man sieht wieviel FSR4 sogar auf RDNA4 kostet, ist es klar dass es niemals für RDNA3 und früher kommen wird: https://youtu.be/DIJU6UGbtAg?t=432
Eventuell in einer stark abgespeckten Variante wie bei XESS XMX vs DP4a, aber ganz sicher nicht in der Form in der wir es aktuell auf RDNA4 sehen.
basix
2025-07-23, 10:03:06
-30% ist ziemlich ungewöhnlich. Normalerweise ist "FSR4 native" eher im Bereich 7...10% gegenüber nativ TAA. Genau gleich wie DLSS4 auf Nvidia Karten. Da scheint irgendwas noch nicht zu passen in CP2077.
Selbst FSR2 scheint bei Owens Test fast so viel Performance zu verlieren wie FSR4 (FSR4-Q ist nur wenig langsamer wie FSR2-Q), was schon auf irgendein Problem hindeutet. Das selbe Verhalten sieht man bei Ancient Gameplays.
robbitop
2025-07-23, 11:15:47
Wahrscheinlich auch stark davon abhängig wie stark compute in der jeweiligen Frametime limitiert. Spiele mit viel compute und hoher output resolution resultieren ggf in höherem impact.
Exxtreme
2025-07-23, 11:40:40
Ich würde Cyberpunk 2077 jetzt nicht überbewerten was das angeht. Da haben Programmierer von Nvidia dran gebastelt und man weiss auch nicht was die da eingebaut haben. Wenn andere Spiele solche Ausreisser nicht zeigen dann weiss man auch warum.
Das FSR4 auf RDNA3 immer noch langsam ist, stellt ja niemand in Frage. Aber wir kommen auch von der Annahme, dass das niemals gehen bzw. unbenutzbar lahm wäre...von daher nicht so schäbig die Entwicklung ;)This. Ich könnte mich ja immer noch beklagen mit meinem RDNA 2 ;D Aber dass es überhaupt möglich ist, solange alle Instruktionen prinzipiell unterstützt werden wie bei RDNA 3, und es einen tatsächlichen Performancegewinn zeigt statt einfach nur die technische Machbarkeit zu demonstrieren, gefällt mir an AMD's Ansatz. Jetzt noch offizialisieren das Ganze...
Vermutlich werden neue Features, wie durch Redstone, einen offiziellen Backport mehr verhindern als fördern.
DrFreaK666
2025-07-25, 08:22:40
FSR Redstone könnte auch eine abgespeckte Variante für RDNA3 enthalten, wer weiß
ChaosTM
2025-07-25, 08:52:26
Ich würde Cyberpunk 2077 jetzt nicht überbewerten was das angeht. Da haben Programmierer von Nvidia dran gebastelt und man weiss auch nicht was die da eingebaut haben. Wenn andere Spiele solche Ausreisser nicht zeigen dann weiss man auch warum.
Jo, das wurde sicher nicht besonders AMD-freundlich ausgelegt.
robbitop
2025-07-25, 09:15:12
Das stimmt aber man muss konstatieren seit dem AMD anständige RT HW hat läuft es relativ zur Rohleistung sehr gut (insbesondere außerhalb von PT). In Raster IIRC sogar gleichauf mit blackwell rohleistungsnormiert. Bei RT und PT hat man halt auch den Nachteil dass man weniger FF HW spendiert hat. Das gleiche gilt für Intel Battlemage. Der überwiegende Anteil scheint schon eher HW als SW zu sein wenn man darauf zurückblickt wie stark RDNA4 ggü RDNA3 auch hier zugelegt hat.
dildo4u
2025-07-25, 13:34:39
Rennt doch ok 5070 = 9070 mit RT genau das war das Ziel laut UVP.
https://youtu.be/nE8Qz6RLhME?si=je33WAQvOTj2mqcj
dildo4u
2025-07-26, 14:40:45
Performance Gewinn FSR4 vs DLSS4 ist im Schnitt vergleichbar
OSvyUFSIUtU
dargo
2025-08-07, 12:04:19
Nach den ersten Spielstunden gefällt mir der Fortschritt von FSR4 schon ganz gut. Perfekt ist es aber noch lange nicht. Insgesamt ist zwar die Bildstabilität in Spiderman 2 deutlich besser im Outdoor als mit FSR2/3, es gibt aber Stellen wo noch viel Luft ist. Hier zb. flimmern die Regale links und rechts in Bewegung mit 4k + FSR4 balanced noch recht unschön.
-50mV
https://i.postimg.cc/Bj2Q1Nfy/Spider-Man2-2025-08-07-11-54-03-172.jpg (https://postimg.cc/Bj2Q1Nfy)
Der Anzug bzw. sein Muster bleibt mit FSR4 aber ziemlich stabil. Mit den Vorgängern gabs dort einen kleinen Ameisenhaufen, vergleichbar mit Rauschen bei miesen Denoisern.
Wie gut FSR4 funktioniert hängt offenbar auch wieder recht stark vom Content ab. In TLOU 2 und Ghost of Tsushima finde ich FSR4 fantastisch. In CP77 überzeugt mich FSR4 auch noch nicht so ganz. Habe bisher aber nur die Ingameversion gesehen, nicht die vom Optiscaler.
dildo4u
2025-08-08, 08:23:55
Laut AMD wird auch das 3.1 Upsampling weiter verbessert.
https://gpuopen.com/learn/amd-fsr3-ue5-6-redstone/
dargo
2025-08-08, 10:30:07
Ich sehe da kein neues Uscaling, FSR 3.1.4 gibts schon länger.
dildo4u
2025-08-08, 10:39:43
Ah dachte das ist neu der Artikel ist vom 7.8.
AintCoolName
2025-08-08, 16:20:56
Ah dachte das ist neu der Artikel ist vom 7.8.
Ich verstehe auch nicht so richtig wie man das verstehen soll. Dem Text nach enthält FSR 3.1.4 (oder 3.1.4a mit UE 5.6 support) Redstone. Das gibt es natürlich nur für die 9000 Karten. Aber was sollen die vier Stufen, sind die enthalten oder sind das Zukunftsaussichten?
basix
2025-08-08, 16:31:19
Die 4x Stufen sind FSR4 Redstone. Das hat nichts mit FSR 3 zu tun.
Wenn man jetzt aber FSR 3.1.4 (das oben verlinkte Plugin) in die UE 5.6 einbaut, kann man via Treiber einen Switch auf FSR4 machen.
Und anscheinend umfasst das per-Treiber Upgrade auch FSR4 Redstone Features, auch wenn die von FSR 3.1.4 nicht unterstützt werden. Bei Neural Radiance Caching & Ray Regeneration bin ich mir nicht zu 100% sicher (vermutlich muss man die trotzdem noch separat ins Spiel einbauen), bei SR und FG aber 100%. Im besten Fall kann man FSR ML FG sogar mit FSR 3.1.4 nutzen und nicht nur FSR4.
FSR 3.1.4 support for FSR ML Frame Generation
In addition to all the other benefits of adding or upgrading FSR 3.1.4 in your game, such as reduced upscaler ghosting and support for our FSR 4 driver upgrade feature, FSR 3.1.4 also adds the required camera parameters to support ML Frame Generation. This feature is part of FSR Redstone.
aufkrawall
2025-08-09, 00:40:58
Toll, wie es immer noch kein Status-Update über ein FSR 4 GitHub-Release gibt. Hat eher den Anschein, das wird vor Redstone nichts. Bzw. muss man ja schon überhaupt hoffen, dass es wenigstens dann etwas wird...
dargo
2025-08-09, 09:01:02
Ich habe mir jetzt mal in CP77 FSR4 mit dem Optiscaler genauer angesehen. Die Bildstabilität ist zwar definitiv besser als bsw. mit FSR 2.1.2 in vielen Teilbereichen. Auch wirkt das Gesamtbild cleaner. Von Perfektion ist aber selbst FSR4 hier noch gut entfernt. Verglichen habe ich 4k + Quality Upscaling auf dem 27" QD-OLED. Lampen, Geländer, Stromleitungen bsw. sind immer noch nicht ganz flimmerstabil. Der Content von CP77 scheint worst case für Upscaler zu sein.
dildo4u
2025-08-09, 09:20:06
Das Game hat doch jetzt nativen FSR4 Support warum Optiscaler oder ist das nicht besser?
dargo
2025-08-09, 09:49:21
Weil ich es kann. ;)
Spaß bei Seite... wollte FSR4 @Optiscaler mit der CDPR Implementierung vergleichen.
robbitop
2025-08-09, 09:54:39
Was noch was bringen könnte ist per Optiscaler eine GeForce zu spoofen, im Spiel DLSS zu wählen das dann auf FSR4 via Optiscaler gemappt wird. Manchmal sind die Inputs besser. Ggf alternativ XeSS im Spiel einstellen und auf FSR4 Mappen.
Ich finde (als Referenzpunkt für die Diskussion) dass cp77 erst mit DLSS Ray reconstruction wirklich arteraktarm ist. DLSS 4 super resolution zeigt noch öfter moire usw
dargo
2025-08-09, 10:57:28
Du meinst Ingame DLSS und im Optiscaler dann FSR4? Ich tue mir schwer da nennenswerten Unterschied bei der Bildstabilität in Teilbereichen zu sehen. Sieht imo mehr oder weniger gleich aus.
robbitop
2025-08-09, 11:01:51
Genau :)
DrFreaK666
2025-08-10, 02:54:33
Vnt_NliT1II
Jetzt nicht unbedingt FSR-related, passt hier aber trotzdem gut rein.
Anscheinend kann man bei jedem Spiel, das FSR3.1 unterstützt, FSR4 erzwingen
dargo
2025-08-14, 17:50:14
Ich habe noch nicht reingeschaut, aber eventuell für den einen oder anderen RDNA3 Nutzer interessant.
NX-gFtPEYBE
robbitop
2025-08-14, 18:19:20
Fand das Video komisch. Hab nur durchgescrubt aber er testet selbst nicht und redet über Ergebnisse die 1 Monat alt sind. Das Video impliziert dass es sich un was Neues handelt. Aber ist kalter Kaffee.
dargo
2025-08-15, 15:18:32
Nachdem ich mir jetzt so einige Games mit FSR 4 angeschaut habe... schöner Fortschritt. :up: Nur bei CP77 könnte das Upscaling noch etwas mehr Stabilität vertragen. Aber ansonsten echt top. Bei dem 27" 4K QD-OLED bin ich oftmals schon mit dem balanced Preset super zufrieden. Bei "leichtem" Content sieht selbst Performance noch super aus. So ist 4k Gaming auf jeden Fall salonfähig. (y)
basix
2025-08-20, 21:34:42
Yes!
FSR4 Release nun amtlich auf GPUOpen und Github, zusammen mit FidelityFX SDK 2.0:
https://gpuopen.com/fidelityfx-super-resolution-4/
https://gpuopen.com/manuals/fidelityfx_sdk2/techniques/super-resolution-ml/
https://github.com/GPUOpen-LibrariesAndSDKs/FidelityFX-SDK/releases
Und:
UE 5.6 Plugin gleich zum Start verfügbar :up:
Edit:
- 1.3ms auf einer 9070 XT bei 4K FSR4-P vs. 0.8ms auf einer 7900XTX bei 4K FSR3-P
- Zum Vergleich: DLSS4 Transformer auf einer 5080 benötigt ebenfalls 1.3ms
- Speicherbedarf bei 4K ist bei FSR4 wie auch DLSS4 ~310 MByte
The_Invisible
2025-08-20, 21:59:47
Ist FSR4 jetzt eigentlich OpenSource? Finde im Github Repo nur FSR2/3 Files
Edit: OK fragt sich auch wer anders aber noch keine Antwort: https://github.com/GPUOpen-LibrariesAndSDKs/FidelityFX-SDK/issues/164
basix
2025-08-20, 22:02:27
Ist anscheinend wieder entfernt worden, da zu viele Files veröffentlicht wurden :D
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-467#post-41494839
Edit:
Wenn man das UE5 Plugin runterlädt, ist etwas an Code drin. Sieht aber primär nach UE5 Zeugs aus und nicht nach FSR4 selbst (die FSR4 DLL ist aber drin)
Anscheinend auch "Private" Sachen, die wohl nicht auf dem Repo landen hätten sollen.
Edit:
In der gitlab History findet man es noch
https://github.com/GPUOpen-LibrariesAndSDKs/FidelityFX-SDK/commit/01446e6a74888bf349652fcf2cbf5f642d30c2bf
-> Soweit ich das sehe vielleicht sogar inkl. den FSR4 DNN Model Weights...
-> Mann, Mann, AMD...was für ein Leak....
-> Ich hoffe, das fällt AMD nicht auf die Füsse (weil vermutlich nicht so geplant)
Aber als positive Nachricht:
Es gibt Hinweise auf eine INT8 DOT4-Product Version, nicht nur FP8. Vielleicht gibt irgendwann mal eine FSR4 Version für Non-RDNA4 GPUs.
DrFreaK666
2025-08-21, 00:47:15
Ist doch offiziell wieder online
The_Invisible
2025-08-21, 07:07:44
Ist anscheinend wieder entfernt worden, da zu viele Files veröffentlicht wurden :D
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-467#post-41494839
Edit:
Wenn man das UE5 Plugin runterlädt, ist etwas an Code drin. Sieht aber primär nach UE5 Zeugs aus und nicht nach FSR4 selbst (die FSR4 DLL ist aber drin)
Anscheinend auch "Private" Sachen, die wohl nicht auf dem Repo landen hätten sollen.
Edit:
In der gitlab History findet man es noch
https://github.com/GPUOpen-LibrariesAndSDKs/FidelityFX-SDK/commit/01446e6a74888bf349652fcf2cbf5f642d30c2bf
-> Soweit ich das sehe vielleicht sogar inkl. den FSR4 DNN Model Weights...
-> Mann, Mann, AMD...was für ein Leak....
-> Ich hoffe, das fällt AMD nicht auf die Füsse (weil vermutlich nicht so geplant)
Aber als positive Nachricht:
Es gibt Hinweise auf eine INT8 DOT4-Product Version, nicht nur FP8. Vielleicht gibt irgendwann mal eine FSR4 Version für Non-RDNA4 GPUs.
Ui, ui, ui, ja, scheint man wohl vergessen haben das es die Github Activity gibt, hat man nur das Git Repo bereinigt, kann man sogar noch browsen: https://github.com/GPUOpen-LibrariesAndSDKs/FidelityFX-SDK/tree/01446e6a74888bf349652fcf2cbf5f642d30c2bf/Kits/FidelityFX/upscalers/fsr4
ob die initializers.bin die Models sind ka, würde jedenfalls zu den quality modes passen.
Interessant auch in Code Comments https://github.com/GPUOpen-LibrariesAndSDKs/FidelityFX-SDK/blob/01446e6a74888bf349652fcf2cbf5f642d30c2bf/Kits/FidelityFX/upscalers/fsr4/internal/shaders/fsr4_model_v07_i8_balanced/passes_1080.hlsl
// Copyright(C) 2024-2025 Advanced Micro Devices, Inc. All rights reserved.
// Autogenerated 2025-02-26 12:36:34 using ML2Code from "models\2024\October\Release7\Balanced\fsr4_model_v07_i8.onnx". Do not edit.
// Compile with dxc.exe -no-warnings -O3 -enable-16bit-types -HV 2021 -T cs_6_6 -I . -I hlsl -E fsr4_model_v07_i8_pass0 "generated\hlsl\fsr4_model_v07_i8.hlsl"
// Scratch memory size needed: 20736000 (19.78MB)
// This file was generated for navi48 SKU
Also int8 doch nur für navi48 als weiteres Format!?!
Die onnx Files findet man leider nicht
@DrFreaK666
Ja aber nicht die FSR4 Files
dargo
2025-08-21, 08:02:06
Im nächsten Treiber soll FSR 4.0.2 kommen, mit Redstone dann FSR 4.1.
nBV1X7GUgUo
Ansonsten gibts noch FSR 2.3.4 und FSR 3.1.5 als Neuerung.
basix
2025-08-21, 22:05:07
Gestern scheint da schon ein wenig Release-Chaos auf dem Repo gewesen zu sein...
SDK 2.0
SDK 2.0 überschreiben
Wieder zurück auf 1.1.4
SDK 2.0
Wieder zurück auf 1.1.4
...
:freak:
DrFreaK666
2025-08-22, 00:31:05
Größte Enttäuschung: Immer noch nicht für Vulkan
aufkrawall
2025-08-22, 00:42:42
Da fragt man sich, warum das nicht schon zusammen mit RDNA4 so releast wurde. Wenn eh alles Neue in einem proprietären Binary-Blob versteckt ist, muss auch keine Rechtsabteilung drüber gucken. Und der Loader-Kram ist schon seit 3.1 damit kompatibel. Und das Modell wurde auch schon im Oktober trainiert, war also auch nicht der Grund für die Verzögerung von RDNA4. Wieder pure AMD-Comedy/Tragödie, das ist einfach ihr Dauer-Modus...
TheGood
2025-08-22, 05:09:45
Da fragt man sich, warum das nicht schon zusammen mit RDNA4 so releast wurde. Wenn eh alles Neue in einem proprietären Binary-Blob versteckt ist, muss auch keine Rechtsabteilung drüber gucken. Und der Loader-Kram ist schon seit 3.1 damit kompatibel. Und das Modell wurde auch schon im Oktober trainiert, war also auch nicht der Grund für die Verzögerung von RDNA4. Wieder pure AMD-Comedy/Tragödie, das ist einfach ihr Dauer-Modus...
pure aufkrawall comedy hier im foum, wie immer wenns um AMD geht...
Meine Güte...
dildo4u
2025-08-22, 06:01:14
Da fragt man sich, warum das nicht schon zusammen mit RDNA4 so releast wurde. Wenn eh alles Neue in einem proprietären Binary-Blob versteckt ist, muss auch keine Rechtsabteilung drüber gucken. Und der Loader-Kram ist schon seit 3.1 damit kompatibel. Und das Modell wurde auch schon im Oktober trainiert, war also auch nicht der Grund für die Verzögerung von RDNA4. Wieder pure AMD-Comedy/Tragödie, das ist einfach ihr Dauer-Modus...
Was für eine Frage für Positive Reviews die Karten waren fertig die können nicht Jahre im Lager liegen bleiben.
AMD hat massiv im Gameing Bereich zugelegt das ist Hauptsächlich RDNA4.
https://www.computerbase.de/news/wirtschaft/quartalszahlen-von-amd-ryzen-und-radeon-werden-zum-staerksten-pferd-im-stall.93792/
basix
2025-08-22, 08:08:22
Und das Modell wurde auch schon im Oktober trainiert, [...]
Wie kommst du darauf?
dargo
2025-08-22, 08:11:03
Größte Enttäuschung: Immer noch nicht für Vulkan
Kommt vermutlich mit Redstone.
aufkrawall
2025-08-22, 11:32:19
Wie kommst du darauf?
Sah in der von The_Invisible verlinkten Git-History so aus, scheint jetzt aber nicht mehr nachvollziehbar zu sein.
Es war afair aber auch die FSR 4-DLL schon in einem UWP Preview-Treiber von Dezember mit geshipt, würde also passen.
Der_Korken
2025-08-29, 00:06:41
Um die Thematik der hohen Renderzeit von FSR4 auf RDNA3 nochmal aufzugreifen: CB hat im neuen Metal Gear Solid mithilfe von OptiScaler und co. FSR4 und DLSS4 zum Laufen gebracht und mit den Vorgängern verglichen: https://www.computerbase.de/artikel/grafikkarten/metal-gear-solid-delta-snake-eater-dlss-4-fsr-4.94075/
Ergebnis ist, dass sowohl FSR4 Performance als auch DLSS4 Performance das Bildqualitätsduell gegenüber FSR3/DLSS3 Quality gewinnen. Die höhere Renderauflösung des Quality-Presets macht anscheinend strukturelle Schwächen in den Modellen/Algorithmen nicht wett und die neuere Version ist quasi immer zu bevorzugen. Auf einer 9070XT läuft FSR4-P über 40% schneller als FSR3-Q, während der Performance-Verlust von FSR3-Q auf FSR4-Q ca. 4% beträgt. Selbst wenn die langsamere Implementierung auf RDNA3 die Gesamtrenderzeit um 40% erhöhen würde (was schon absurd viel wäre), wäre FSR4 immer noch die bessere Wahl, weil FSR4-P gegenüber FSR3-Q bei dann gleicher Leistung das bessere Bild abliefern würde.
basix
2025-08-29, 08:06:37
Ich sehe das genau wie du. FSR4 würde auch bei deutlichem Performanceverlust noch einen Nettogewinn für RDNA3 darstellen.
DrFreaK666
2025-08-29, 08:44:47
FSR4 für RDNA3 wäre aber schon ein Grund weniger sich eine RX9000 zu holen.
Ich denke FSR Redstone wird auch RX9000 exklusiv. Denke dann könnte FSR4 für RDNA3 kommen
robbitop
2025-08-29, 09:24:12
Ich sehe das genau wie du. FSR4 würde auch bei deutlichem Performanceverlust noch einen Nettogewinn für RDNA3 darstellen.
Würde es wenn man es differenziert betrachtet. Aber ich vermute, AMD will gute Presse (was für die Marke auch wichtig ist). Da darf dann das jeweilige Preset nicht zu krass abkacken. Entsprechend baut man (ggf darf Playstation das dann mitbenutzen) an einer etwas freundlicheren Variante für diese HW.
Aber man hätte es ggf als Nerd Setting mit fettem beta disclaimer trotzdem zugänglich machen können. :)
robbitop
2025-08-29, 09:29:21
FSR4 für RDNA3 wäre aber schon ein Grund weniger sich eine RX9000 zu holen.
Ich denke FSR Redstone wird auch RX9000 exklusiv. Denke dann könnte FSR4 für RDNA3 kommen
Ich denke eher dass sie Angst vor schlechtem Messaging haben. Sie bauen die Marke Radeon ja gerade wieder auf. Wir werden sehen ob eine FSR4 light Variante nochmal kommt - angeblich arbeiten sie daran. Das wäre ja Zeitverschwendung wenn es ihnen nur um Exklusivität geht.
Redstone treibt die Kosten für das NN ja noch weiter in die Höhe (Rayreconstruction, neural rendering usw). Da wäre dieser Effekt ohne Matrix HW noch krasser (RR kostet nochmal deutlich mehr als SR).
Man muss jetzt damit leben, dass AMD erst so spät auf den NN Zug aufgesprungen ist - entsprechend kam ihre eigene HW erst 3 Gens (bzw 6,5ish Jahre) später. Entsprechend hat man nicht den Luxus solche Features so nachteilsarm auf last gen zugänglich zu machen.
dildo4u
2025-08-29, 09:35:06
Wenn es langsamer als DLSS4 auf Ampere ist würde ich es nicht veröffentlichen.
Das wäre suboptimal wenn sie GPU von 2020 nicht schlagen.
Selbst wenn die langsamere Implementierung auf RDNA3 die Gesamtrenderzeit um 40% erhöhen würde (was schon absurd viel wäre),
Das ist nicht absurd viel, sondern nach den ersten Tests die FSR4 auf RDNA3 zum laufen bekommen haben durchaus im Bereich des realistischen. Nachdem die Upscaling-Kosten konstant sind freilich je nach Grundframerate, bei niedriger Grundframerate dürfte es für RDNA3 trotzdem noch ein Netto-Gewinn sein, bei hoher das Gegenteil.
Vor allem geht es AMD nicht darum ob es ein Netto-Gewinn für den User ist oder nicht.
Nachdem man jahrelang davon profitiert hat, dass praktisch alle Medien mit gleicher Renderauflösung anstatt gleicher Qualität gegeneinander testen wäre man durch diese Praxis deutlich im Nachteil wenn man FSR4 für RDNA3 freigeben würde. Selbst wenn FSR4-P schöner und eventuell auch vergleichbar oder schneller als FSR3-Q wäre, würden immer noch alle Q vs. Q bzw. P vs. P testen, und da schaut es dann ziemlich blöd aus wenn der Balken plötzlich 30% kürzer ist.
basix
2025-08-29, 11:57:59
Würde es wenn man es differenziert betrachtet. Aber ich vermute, AMD will gute Presse (was für die Marke auch wichtig ist). Da darf dann das jeweilige Preset nicht zu krass abkacken. Entsprechend baut man (ggf darf Playstation das dann mitbenutzen) an einer etwas freundlicheren Variante für diese HW.
Aber man hätte es ggf als Nerd Setting mit fettem beta disclaimer trotzdem zugänglich machen können. :)
Man könnte für RDNA3 ja andere Qualitäts-Presets definieren. Beispielsweise:
- FSR4-QualityPlus = 1.5x (heutiges Quality)
- FSR4-Quality = 1.7x (heutiges Balanced)
- FSR4-Balanced = 2.0x (heutiges Performance)
- FSR4-Performance = 2.3x (neues Setting)
Intel hat das bei XeSS 2 auch so gemacht. Das ergibt dann halt einen leichten Qualitätsunterschied zwischen RDNA3 und RDNA4, aber der dürfte in den meisten Fällen relativ klein ausfallen. So ein Ansatz wäre mir deutlich lieber (und für AMD wohl auch einfacher umzusetzen) als einen separaten und abgespeckten FSR4-Algorithmus zu entwerfen. Klar, man muss FP8 gegen INT8 ersetzen und das hat auch Einfluss auf die Qualität / Präzision des DNN. Aber mehr als das würde ich nicht machen, wenn ich AMD wäre. Es ist ja immer noch so, dass ein Grossteil der Rechenzeit von z.B. DLSS4-SR nicht vom DNN stammen sondern vom Rest drum herum. Meiner Abschätzung nach macht das DNN nur ca. 25% der Ausührungszeit aus. Läuft das DNN 4...5x langsamer auf einer RDNA3 Karte, wäre FSR4 netto "nur" halb so langsam und der Performanceverlust gegenüber TAA liegt bei 20% auf RDNA3 anstatt bei 10% auf RDNA4. Diesen Unterschied sollte man mit leicht angepassten Auflösungen bei den Qualitäts-Presets kompensieren können. Und aufgrund fehlender dedizierter Matrix-Acceleration könnte man das auch relativ gut der Presse sowie den Consumern gegenüber erklären. "FSR4-Full" auch für RDNA3 aber dafür ein leichter Kompromiss bei der Render-Auflösung, damit die Performance nicht leidet.
Aber ganz klar:
AMD will Negativpresse bei FSR4 vermeiden, jetzt wo sie so viel positive Presse dazu bekommen haben. Die Marke FSR4 soll positiv bewertet werden.
Ach ja, noch als zusätzliche Überlegung:
Verwendet die Implementation DOT4/DP4a-Operationen anstatt WMMA (wie XeSS auf non-Intel GPUs), dann läuft das auf RDNA2 mit dem selben Speed wie auf RDNA3 (beide haben 512 INT8-Ops/Clk pro CU). Und damit auch auf den Konsolen.
Die fälschlicherweise geleakten und mittlerweile gelöschten FSR4 Code-Snippets haben genau das angedeutet: DOT4 / DP4a mit INT8.
horn 12
2025-08-29, 12:13:20
Sollte nicht im September Redstone und FSR 4.0.1 vorgestellt und im Treiber dann enthalten sein.
Dürfte wohl bald releast werden,- denke vor dem 10 September könnte möglich sein.
Intel hat das bei XeSS 2 auch so gemacht.
Und es hat ihnen nichts genützt fast die gesamte Presse testet auf identischer Renderauflösung und nicht identischer Qualitätsbezeichnung.
Im Falle von Intel auch zurecht, schließlich liegt man bei identischer Renderauflösung keineswegs Qualitätsmäßig in Front, sondern gerade mit DP4a sogar deutlich hinten.
Es ist ja immer noch so, dass ein Grossteil der Rechenzeit von z.B. DLSS4-SR nicht vom DNN stammen sondern vom Rest drum herum.
Weil Nvidia/Intel dedizierte DL-Hardware haben, müsste dies auf der regulären Hardware laufen sähe es ganz anders aus.
basix
2025-08-29, 12:14:49
Redstone ist auf H2/2025 angekündigt worden. Mitte September wäre schön, aber wäre definitiv etwas früher als man erwarten kann.
robbitop
2025-08-29, 12:15:16
Wenn es langsamer als DLSS4 auf Ampere ist würde ich es nicht veröffentlichen.
Das wäre suboptimal wenn sie GPU von 2020 nicht schlagen.
Genau solche Schlagzeilen würde es hageln wenn FSR4 mit auffällig hohem Impact läuft. Wirft ein Licht auf AMD was sie sicher nicht unbedingt wollen.
Ich denke man wird sich noch etwas gedulden müssen und es würde mich nicht wundern wenn eine FSR4 lite Version zeitlich mit Redstone veröffentlicht wird.
Ggf gibt es da dann auch Gemeinsamkeiten mit PSSR2 (auch wenn Cerny sagt, dass PSSR2 full fat FSR4 wird - aber die PS5PRO HW hat nach meinem Verständnis eher Optimierungen für Instructionarten die typisch für ein für SR eingesetztes CNN sind).
dargo
2025-08-29, 12:17:20
Sollte nicht im September Redstone und FSR 4.0.1 vorgestellt und im Treiber dann enthalten sein.
???
FSR 4.0.1 gibt es schon lange, wir sind aktuell bei FSR 4.0.2.
robbitop
2025-08-29, 12:22:02
Man könnte für RDNA3 ja andere Qualitäts-Presets definieren. Beispielsweise:
- FSR4-QualityPlus = 1.5x (heutiges Quality)
- FSR4-Quality = 1.7x (heutiges Balanced)
- FSR4-Balanced = 2.0x (heutiges Performance)
- FSR4-Performance = 2.3x (neues Setting)
Intel hat das bei XeSS 2 auch so gemacht.
Könnte man machen - das hat Intel mit XeSS 1.3 IIRC sogar schon gemacht. Das wurde aber auch sofort kritisiert. Und die Gap ist wahrscheinlich größer als FSR2/3x -> XeSS entsprechend müsste man die Presets nochmehr verzerren.
Am Ende muss man sich die Frage stellen: was ist das Risiko das zu machen und was gewinnt man dadurch?
Ich kann mir gut vorstellen, dass es deutlich "cleaner" aus der risk/reward Funktion wird, wenn ein anständiges FSR4 lite kommt. Aber genau wissen tut es keiner ^^
Wäre es einfach nur mit Presets getan, wäre FSR4 schon lange für RDNA3 veröffentlicht. Ich denke das ist also eher kontraindikativ, dass das passieren wird.
Ich persönlich als PC Enthusiast0 würde deinen Vorschlag super finden. Ggf. mit disclaimer und bissl unter Expertenfunktionen versteckt. Ich vermute aber, AMD favorisiert eine cleanere, gesamtheitlichere Lösung. Zumal es mit der PS5PRO HW ja auch einen anderen gemeinsamen Interessenten gäbe, der von der Entfernung des Transformeranteils profitieren würde.
Hier gibt es einen interessanten Ansatz dazu, der auch gut hinterlegt ist im Video: https://www.reddit.com/r/radeon/comments/1j4ls74/fsr_4_on_rdna_3_gpus/
Was ich mittelfristig hoffe, dass moderne NN SR Verfahren eine cooperative vectors API bekommen. Dann können diese die Matrix HW auf jeder GPU jedes Vendors nutzen. Intel und AMD traue ich den move zu. ^^
basix
2025-08-29, 12:34:00
Die PS5 Pro hat 3x3 Convolution-Accelerators integriert (INT8). Mit total 300 TOPS. Ich denke nicht, dass man das direkt übertragen kann. Mit DP4a kann man das emulieren, man würde allerdings nur 75% des Throughputs erreichen und anstatt 1x Instruction benötigt man 3x Instructions. Kann man machen aber zusammen mit den geringeren TOPS und ohne eigentständige Accelerators (6900XT = 80 TOPS; 7900XTX = 120 TOPS // mit DP4a effektiv 6900XT = 60 TOPS; 7900XTX = 90 TOPS falls man eine PS5 Pro ähnliche Umsetzung verwendet) macht es solch relativ ineffiziente HW-Nutzung noch schwieriger.
Aber who knows. Wenn FSR4 auf einer PS5 gleich schnell wie auf einer N48 Karte zu laufen kommt und wir 4...5x langsameres DNN Processing annehmen (mehr Instructions, weniger TOPS) sowie 25% DNN-Anteil an FSR4, könnte es mit dem ~2x langsamerer Ausführung evtl. klappen. Und dann hätte man auch einen Blueprint für die Verwendung auf einer PS5 Base (woran Sony auch interessiert sein könnte). Eine PS5 Pro könnte dann Upscaling auf 4K machen und bei einer PS5 auf 1440p (+ spatial upscaling auf 4K) mit etwas mehr Performance-Verlust als bei der PS5 Pro. Die Qualität mit FSR4 sollte allerdings deutlich besser sein als das FSR2/3 oder TSR von heute.
robbitop
2025-08-29, 12:43:48
Die PS5 Pro hat 3x3 Convolution-Accelerators integriert (INT8). Mit total 300 TOPS. Ich denke nicht, dass man das direkt übertragen kann.
Deshalb auch die Entfernung des Transformer Teils. Schau dir doch mal das Video an was ich verlinkt habe. :)
Und ich bin auch skeptisch über das was Cerni sagte, dass es full fat FSR4 werden wird - aber am Ende kann man alles wieder irgendwie auslegen.
basix
2025-08-29, 12:45:28
Naja, der Transformer Teil ist ja genau das, was FSR4 so gut macht (siehe DLSS4). Aus meiner Sicht also nicht die sinnvollste Stossrichtung ;)
robbitop
2025-08-29, 12:46:39
Der Autor des Videos (das du dich anscheinend weigerst dir anzuschauen) sieht das anders und er erklärt auch warum und zeigt eine existierendes paper dazu und erklärt es auch sehr im Detail. Glaube mir - es ist wirklich sehenswert und kein üblicher YT Schrott
basix
2025-08-29, 12:47:44
Das Video hatte ich bereits vor Monaten angeschaut und bereits damals gedacht, dass es nicht die sinnvollste Variante ist ;)
robbitop
2025-08-29, 12:48:21
OK und warum genau? Welche der Argumente des Autors sind warum genau nicht stimmig aus deiner Sicht?
Darüber hinaus hat Nvidia doch mit DLSS 3.7 / Model E demonstriert, dass mit einem CNN sehr gutes SR möglich ist. Klar ist DLSS4 besser - aber nicht um Welten. FSR4 auch nicht. Und wenn man dafür das ganze deutlich leichter machen kann -> könnte immer noch ein guter trade off sein.
Exxtreme
2025-08-29, 13:32:07
FSR4 funktioniert vielleicht sogar ohne Qualitätsverlust auf RDNA2 und RDNA3 mit brauchbarer Geschwindigkeit. Schon "Hobby-Modder" haben da bis zu 50% mehr Leistung rausgeholt ggu. dem ersten RDNA3-Hack. Und die können das Transformer-Model auch nicht so wirklich modifizieren. Kann sein, dass eine Mischung aus INT4, INT8 und FP16 auch sehr gut wird. Aber das kann aber wohl nur AMD liefern.
robbitop
2025-08-29, 13:42:21
Wir drehen uns im Kreis...
Achill
2025-08-29, 13:46:10
Der Autor des Videos (das du dich anscheinend weigerst dir anzuschauen) sieht das anders und er erklärt auch warum und zeigt eine existierendes paper dazu und erklärt es auch sehr im Detail. Glaube mir - es ist wirklich sehenswert und kein üblicher YT Schrott
Hab mal das Video überflogen, er liest Stellen aus einen Paper vor was nicht explizit FSR4 / von AMD ist und nutzt diese um seine These zu begründen. Er verbleibt die ganze Zeit im konjunktiv (seems, like, I think ...) und das zeigt mehr das es wünschen ist und weniger machbare Fakten.
Das Ende ist dann in so (7:12): "Yeah, I think it is very possible for AMD to do something similar like this ..." oder so ähnlich. Ob es wirklich geht oder wieviel Qualitätsverlust / Artefakte man in kauf nehmen muss, bleibt völlig offen.
Ich stimme hier einigen anderen zu, dass AMD sich nichts gutes tut, wenn FSR4 mit zu vielen Nachteilen für ältere GPUs und/oder man deutlich hinter der Konkurrenz bei gleichen Generationen landet. Hier im Forum und auch im Netz würden dann Vergleiche bzgl. Qualität und Performance zu älteren Generationen kommen, die aus AMDs Sicht keine Marktstärkung erzeugen sondern den Fokus weg von den aktuellen GPUs hin zur Vergangenheit wo FSR2/3 mit DLSS2/3/4 verglichen wurde. Ein FSR4-Lite würde diese Vergleiche jetzt wie besser machen?
Vielleicht kommt es ja als Open-Source ... (wenn es denn wirklich so einfach ist).
basix
2025-08-29, 13:48:56
OK und warum genau? Welche der Argumente des Autors sind warum genau nicht stimmig aus deiner Sicht?
Jetzt nötigst du mich, das Video und auch das Paper nochmals anzuschauen :D
Aus dem ersten Paper: EMT = Transformer Sub-Blocks
With Transformer vs. without Transformer: As shown in Table 3, we can see that when our model drops the EMT, PSNR descends from 32.76 to 31.96. Therefore, the self-attention mechanism in the EMT has excellent performance for capturing long-term similarity information in pictures and improving performance.
Nur geringfügiger Unterschied der Anzahl Parameter und somit Rechenlast, wenn man den Transformer rausnimmt:
- Parameters mit Transformer = 4.40M
- Parameters ohne Transformer = 3.94M -> RDCB Block (CNN)
- Der RDCP Block beinhaltet hauptsächlich 3x3 Convolutions (PS5 Pro sowie mögliche DP4a Emulation)
However, using the previously reported visual Transformer structure requires a high GPU memory and computational overhead, contrary to our goal of practical efficiency. In this work, the LTB effectively captures the long-term dependencies of similar parts in an image, but it accomplishes this with less computational cost than the previous Transformer.
Der LTB Transformer-Block ist also eine stark optimierte Version eines Vision Transformers. Der Multi-Head-Attention Hauptblock nennt sich "Scaled Dot-Product Attention" ;)
Der DAB Block geht dann wieder auf 3x3 Convolutions zurück.
Im zweiten Paper vom Video:
For example, the PSNR dropped from 39.06 dB to 38.70 dB on the Manga109 dataset. So, the conv2Former block in the conv2FormerB block can greatly impact the performance due to its ability to extract local and non-local features.
Der conv2Former ist von dem her interessant, da man damit einen Transformer in normale Convolutions umwandeln kann (-> z.B. 3x3 Convolutions auf einer PS5 Pro). Hier das originale Paper dazu: https://arxiv.org/pdf/2211.11943
Und hier nennen sie was interessantes: 27M Parameter benötigen nur 4.4 GFLOPS. Im ersten Paper ist das DNN deutlich kleiner (4.4M Parameter insgesamt und ~500k Parameter der Transformer-Teil).
Im conv2Former Paper ist eine grössere Kernel-Size wie z.B. 9x9 von Vorteil. Hier allerdings der Trick: 2x 3x3 Layer ergeben einen 5x5 Kernel. Das kann man jetzt entsprechend aneinanderreihen: https://data-ai.theodo.com/en/technical-blog/convolutional-layer-convolution-kernel
We can replace 5x5 or 7x7 convolution kernels with multiple 3x3 convolutions on top of one another.
Deswegen meine Vermutung: Bei der PS5 Pro wird man den nativen FSR4-Transformer in einen conv2former umwandeln und die ursprüngliche Kernel-Size via stacked 3x3 Convolution-Netzwerken "emulieren".
=========================================
Mein Fazit:
Im Endeffekt hilft der Transformer-Block der Qualität stark. Und das sagen sie in beiden Papers und sogar der Typ im Video nennt das. Man kann den Transformer aus FSR4 nehmen aber ich tendiere stark dazu, dass das die Qualität dann (zu stark) negativ beeinflusst. Und anhand weiterer Paper und Infos sehe ich nicht, wieso der Transformer-Block extrem viel Rechenleistung benötigen muss. Wenn AMD das so designed hat: OK, dann ist das eine entsprechende Designauslegung. Aber die im Video und anderen genannten Paper deuten nicht unbedingt auf sowas hin.
Die PS5 Pro kann ein "Full FSR4" anbieten, indem man die Blöcke umwandelt (wohl nicht 100% das gleiche aber nahe dran). Die Limitation auf 3x3 Convolutions kann man umgehen. Unterschiede wegen FP8 und INT8 bleiben natürlich. Die Performance dürfte ganz gut sein.
RDNA2 / 3 könnten dann den PS5 Ansatz nehmen und via DP4a Operationen emulieren. Allerdings mit reduzierter Performance (allgemein weniger TOPS, 3x Overhead für Instruktionen, max. 75% Throughput erreichbar).
Vielleicht kommt FSR4 für prä-RDNA4 GPUs, wenn man FSR4 für die PS5 Pro released (die FSR4 Anpassung läuft auch unter dem "Amethyst" Projekt).
robbitop
2025-08-29, 13:54:38
Hab mal das Video überflogen, er liest Stellen aus einen Paper vor was nicht explizit FSR4 / von AMD ist und nutzt diese um seine These zu begründen. Er verbleibt die ganze Zeit im konjunktiv (seems, like, I think ...) und das zeigt mehr das es wünschen ist und weniger machbare Fakten.
Das Ende ist dann in so (7:12): "Yeah, I think it is very possible for AMD to do something similar like this ..." oder so ähnlich. Ob es wirklich geht oder wieviel Qualitätsverlust / Artefakte man in kauf nehmen muss, bleibt völlig offen.
Ich stimme hier einigen anderen zu, dass AMD sich nichts gutes tut, wenn FSR4 mit zu vielen Nachteilen für ältere GPUs und/oder man deutlich hinter der Konkurrenz bei gleichen Generationen landet.
Vielleicht kommt es ja als Open-Source ... (wenn es denn wirklich so einfach ist).
Naja immerhin gibt es ein Paper. Natürlich kann niemand - auch der Autor des Videos - nicht wissen was AMD tut. Aber es ist im Moment das einzige mit halbwegs Substanz. Mehr werden wohl nur Leute wissen, die in FSR/PSSR involviert sind.
Der Denkansatz macht, wenn man bedenkt, dass FP8 für RDNA3 und PS5/PRO nicht in hohem Durchsatz verfügbar ist schon Sinn.
Und wenn man bedenkt, dass es mit DLSS 3.7 Modell E ja auch durchaus ein CNN SR Verfahren gibt, was sehr sehr gut ist, ist das nicht sooo weit hergeholt, oder?
Wenn man nur ein Bruchteil des Durchsatzes hat, kann man nunmal nicht erwarten, dass es keine Abstriche gibt.
Am Ende hat alles sein Für und Wieder. Ein 1:1 Port hat die beste BQ aber auch den höchsten Einbruch. Eine lightweight Version wird BQ aufgeben, spart aber compute. Am Ende ist sicherlich auch nicht irrelevant was am meisten BQ pro fps bringt (wenn eben keine starke FP8 HW vorhanden ist).
Mal schauen was AMD daraus macht. Aber: dass es kein FSR4 1:1 Port gibt ein halbes Jahr nach Release von FSR4 (und eigentlich ist es ja schon länger fertig als März) ist kontraindikativ, dass das der Weg ist, den AMD gehen wird. Es ist ja nur FP8 Umrechnung dafür notwendig. Und die INT8 Codeschnipsel im FSR4 Quellcode der neulich zurückgenommen wurde, spricht auch gegen einen 1:1 Port.
robbitop
2025-08-29, 13:57:34
Jetzt nötigst du mich, das Video und auch das Paper nochmals anzuschauen :D
Aus dem ersten Paper: EMT = Transformer Sub-Blocks
Nur geringfügiger Unterschied der Anzahl Parameter und somit Rechenlast, wenn man den Transformer rausnimmt:
- Parameters mit Transformer = 4.40M
- Parameters ohne Transformer = 3.94M -> RDCB Block (CNN)
- Der RDCP Block beinhaltet hauptsächlich 3x3 Convolutions (PS5 Pro sowie mögliche DP4a Emulation)
Der LTB Transformer-Block ist also eine stark optimierte Version eines Vision Transformers. Der Multi-Head-Attention Hauptblock nennt sich "Scaled Dot-Product Attention" ;)
Der DAB Block geht dann wieder auf 3x3 Convolutions zurück.
Im zweiten Paper vom Video:
Der conv2Former ist von dem her interessant, da man damit einen Transformer in normale Convolutions umwandeln kann (-> z.B. 3x3 Convolutions auf einer PS5 Pro). Hier das originale Paper dazu: https://arxiv.org/pdf/2211.11943
Und hier nennen sie was interessantes: 27M Parameter benötigen nur 4.4 GFLOPS. Im ersten Paper ist das DNN deutlich kleiner (4.4M Parameter insgesamt und ~500k Parameter der Transformer-Teil).
Im conv2Former Paper ist eine grössere Kernel-Size wie z.B. 9x9 von Vorteil. Hier allerdings der Trick: 2x 3x3 Layer ergeben einen 5x5 Kernel. Das kann man jetzt entsprechend aneinanderreihen: https://data-ai.theodo.com/en/technical-blog/convolutional-layer-convolution-kernel
Deswegen meine Vermutung: Bei der PS5 Pro wird man den nativen FSR4-Transformer in einen conv2former umwandeln und die ursprüngliche Kernel-Size via stacked 3x3 Convolution-Netzwerken "emulieren".
=========================================
Mein Fazit:
Im Endeffekt hilft der Transformer-Block der Qualität stark. Und das sagen sie in beiden Papers und sogar der Typ im Video nennt das. Man kann den Transformer aus FSR4 nehmen aber ich tendiere stark dazu, dass das die Qualität dann (zu stark) negativ beeinflusst. Und anhand weiterer Paper und Infos sehe ich nicht, wieso der Transformer-Block extrem viel Rechenleistung benötigen muss. Wenn AMD das so designed hat: OK, dann ist das eine entsprechende Designauslegung. Aber die im Video und anderen genannten Paper deuten nicht unbedingt auf sowas hin.
Sehr guter Post und auch absolut schlüssig :up: Vielen lieben Dank für die Mühe :)
Zeigt dass es ggf nicht direkt den Weg des Papers gehen könnte aber es damit es effizienter wird trotzdem nicht bloß ein 1:1 port werden sollte (was ja Extreme vorschlägt). Und es würde zu dem Statement von Mark Cerny passen.
basix
2025-08-29, 15:34:26
Zum Thema Transformer und Super-Resolution neuere Papers:
https://arxiv.org/pdf/2407.05878
https://arxiv.org/html/2508.19927v1
https://www.nature.com/articles/s41598-025-97190-1.pdf
https://arxiv.org/html/2401.06312v1
Es wird in Zukunft also sicher noch besser werden ;)
Das ist auch ein Grund, wieso AMD da auf den "Transformer Zug" aufspringen sollte. Es gibt momentan einfach auch sehr viel Research auf dem Gebiet und hat man die gleiche oder zumindest ähnliche Grundarchitektur, kann man von der Forschung anderer profitieren.
Auch interessant:
In den Papers wird eigentlich immer 2x / 3x / 4x SR verglichen. Das ist pro Auflösungsachse gemeint. In DLSS/FSR-Sprech ist das dementsprechend Performance, Ultra Performance und UP++
Ziemlich erstaunlich, was man da auch aus 4x SR rausholen kann (hier mal mit Video Super Resolution): Aus völligem Matsch gibt es doch etwas, was in die Nähe der Ground Truth kommt (siehe Bild im Anhang).
https://arxiv.org/pdf/2401.06312v1
Und hier noch eine Real-Time Rendering Variante von SR:
https://openaccess.thecvf.com/content/CVPR2025/papers/Zheng_Efficient_Video_Super-Resolution_for_Real-time_Rendering_with_Decoupled_G-buffer_Guidance_CVPR_2025_paper.pdf
horn 12
2025-08-29, 15:57:51
https://videocardz.com/newz/new-fidelityfx-sdk-reportedly-enables-manual-dll-swap-of-fsr-4-in-fsr-3-1-games
Relex
2025-08-29, 16:10:51
@basix
Als Laie kann ich das nicht tiefer bewerten, aber verschmischst du hier nicht zwei Dinge?
Image Super Resolution bezieht sich immer auf ein einziges Input Bild das dann nach der bearbeitung in höherer Auflösung ausgegeben werden soll. Das wäre also eher generative KI, da es wenigen Informationen völlig neue Informationen generiert werden.
So arbeitet FSR und DLSS aber meines Wissens nicht. Da geht es nicht um das generieren oder erfinden von Details, sondern um temporales super resolution, indem möglichst viele Daten aus alten Frames verwertet und sinnvoll ins neue Bild eingebracht werden, um effektiv eine mehrfachabtastung der Szene zu erreichen. Man akkumuliert also nur bereits vorhandene Informationen.
Ich vermute, nur das Paper zur Video Super Resolution wäre für DLSS/FSR relevant.
basix
2025-08-29, 16:58:09
Ja, "normale" Image Superresolution verwendet Einzelbilder. Erfinden von Details kann man es nennen, aber man verwertet schlussendlich auch den Noise im Bild, was Maschinen noch wahrnehemen und unterscheiden können aber das Auge nicht. Es ist also nicht "komplett" erfunden ;)
Die zugrunde liegenden DNN von Einzelbildern und Bewegtbildern sind nicht so unähnlich. Bewegtbild-Upscaling verwertet allerdings noch zusätzliche Informationen über mehrere Bilder hinweg. Und bei beiden Bereichen wird aktiv geforscht und immer wieder verbessert (was meine Grundaussage ist ;))
Savay
2025-08-29, 17:16:31
@basix
Image Super Resolution bezieht sich immer auf ein einziges Input Bild das dann nach der bearbeitung in höherer Auflösung ausgegeben werden soll. Das wäre also eher generative KI, da es wenigen Informationen völlig neue Informationen generiert werden.
Ich glaube basix will eher auf ML basierte Dekonvolutionsfilter raus...
Also sowas wie bspw. das hier...
https://www.rc-astro.com/software/bxt/
Nicht auf generatives Upscaling.
DrFreaK666
2025-08-29, 18:40:12
https://videocardz.com/newz/new-fidelityfx-sdk-reportedly-enables-manual-dll-swap-of-fsr-4-in-fsr-3-1-games
For now, enabling FSR 4 this way remains a manual process, but the discovery suggests DLSS Swapper could soon add direct FSR 4 support, making the swap easier and more reliable. And yes, this works only for Radeon 9000 cards (theoretically).
Kann das mal jemand mit RDNA2 oder RDNA3 mal aus Jux testen (also den dll-Tausch)?
Wird wahrscheinlich nicht funktionieren, aber Versuch macht kluch
basix
2025-08-29, 20:11:44
Ui, Step Change bei Transformer Ausführungsgeschwindigkeit: Jet-Nemotron
https://github.com/NVlabs/Jet-Nemotron
https://medium.com/data-science-in-your-pocket/nvidia-jet-nemotron-end-of-transformers-50x-faster-llms-b35b1366f923
Ich frage mich, ob sich das auch auf DLSS4 sowie FSR4 übertragen lässt. Das würde den Rechenbedarf für den Transformer massiv reduzieren.
Jet-Nemotron is enabled by two key innovations: (1) Post Neural Architecture Search, a highly efficient post-training architecture adaptation pipeline applicable to any pre-trained Transformer model; and (2) the JetBlock, a novel linear attention block that significantly outperforms prior designs suchas Mamba2, GLA, and Gated DeltaNet.
Relex
2025-08-29, 20:21:17
Wie ist das mit NVLabs zu verstehen? Sind das externe Forscher die mit Nvidia zusammenarbeiten?
Denn meine Frage wäre dann, ob das nicht womöglich schon bei DLSS um Einsatz kommt und das Paper erst jetzt veröffentlicht wurde?
basix
2025-08-29, 20:32:30
Ich nehme an, DLSS wird schon sehr stark auf die Nvidia HW zugeschnitten sein. Die Vorteile von der Optimierung und dem neuen Attention Mechanismus dürften deswegen weniger gross sein. Aber anscheinend spart man sich dort Rechenleistung, wo ein Transformer viel Rechenleistung braucht. Das wäre unabhängig von HW Optimierungen ein Bonus. DLSS4 wird dort sicher auch schon optimiert sein aber da wir den Algo nicht kennen (Open Source FSR4 wäre da ja was....) lässt sich das nur schwer einordnen oder gar quantifizieren.
Ein zusätzlicher Vorteil von Jet-Nemotron ist, dass man das "Post-Training" und somit Modell-Optimierungen deutlich Beschleunigen kann. Das heisst, die Innovationsrate dürfte auch steigen.
Die "Beschleunigung" ist so wie es aussieht aber nur bei grossen Kontext-Längen gegeben. Keine Ahnung wie sich das bei DLSS4 / FSR4 verählt und ob es da überhaupt einen Kontext in dem Sinne gibt. Ist das z.B. die Anzahl N Frames für die temporale Akkumulation oder was auch immer.
https://old.reddit.com/r/LocalLLaMA/comments/1n0iho2/llm_speedup_breakthrough_53x_faster_generation/nawjt8f/
THE SPEEDUP IS AT 64K CONTEXT. IT IS IN FACT NOT SPEEDUP, IT IS LACK OF SLOWDOWN. AT SHORT CONTEXT THERE IS NO PERFORMANCE GAIN.
======================================
https://medium.com/data-science-in-your-pocket/nvidia-jet-nemotron-end-of-transformers-50x-faster-llms-b35b1366f923
Why It Matters
The contributions of Jet-Nemotron can be summed up as
- PostNAS: a practical way to explore efficient architectures without retraining from scratch.
- JetBlock: a dynamic linear attention design that beats previous attempts.
- Hybrid strategy: combining linear and full attention for the right balance.
- Hardware-first perspective: shifting efficiency focus from parameter count to cache optimization.
Oder auf Deutsch:
- Bessere Performance (schnellere Ausführungszeit)
- Bessere Qualität
- Beschleunigte Entwicklungs- und Optimierungszeiten
- Auf die Ziel-HW optimierte Umsetzung
dargo
2025-09-04, 07:25:30
Wenn ich das richtig hier verstehe braucht man keinen Optiscaler mehr um die neueste FSR-Version in Spiele zu integrieren?
giXsg8pZ0aM
Muss ich mal ausprobieren.
DrFreaK666
2025-09-04, 08:50:09
Wenn das Spiel FSR3.1 hat.
dargo
2025-09-04, 08:56:59
Ah ok. Wobei ich da jetzt nicht den Mehrwert vs. Optiscaler sehe. Letzteres ist ja super simpel. Oder ist diese Methode jetzt absolut safe bei MP-Titeln? Dann gäbe es hiermit einen Mehrwert.
Exxtreme
2025-09-04, 09:02:14
Es kann sein, dass die FSR 3.1-DLLs das Gleiche machen was DLSS 3.1+ auch macht. Wenn diese merken, dass es eine neuere globale FSR-Version gibt dann leiten sie die FSR-API-Aufrufe transparent an die neuere Version weiter. Dann muss man auch keine DLLs mehr ersetzen und man wäre auch bei Online-Spielen sicher.
Gorkon
2025-09-04, 09:03:44
Nope, bleibt alles beim alten mit MP-Titeln. Du änderst ja trotz allem .dlls und damit potenzielle CRC/SHA256-Abfragen oder ähnliches.
Du sparst dir jetzt wirklich nur den OptiScaler Schritt wenn die Spiele FSR 3.1 haben. Für alles ältere oder DLSS-only braucht man immer noch Opti
dargo
2025-09-04, 10:50:27
Ok... dann eher wayne. :)
Achill
2025-09-04, 12:51:54
Nope, bleibt alles beim alten mit MP-Titeln. Du änderst ja trotz allem .dlls und damit potenzielle CRC/SHA256-Abfragen oder ähnliches.
Du sparst dir jetzt wirklich nur den OptiScaler Schritt wenn die Spiele FSR 3.1 haben. Für alles ältere oder DLSS-only braucht man immer noch Opti
Wenn die Umsetzung von FSR3 jedoch vermasselt ist (Input Daten), dann kann DLSS -> FSR4 via OptiScaler immer noch besser aussehen. Außerdem hat Opti ja noch ein paar Features die ggf. fehlen oder nur schlecht Umgesetzt werden, wie Schärfe-Filter inkl. Motion-Erkennung, MipMap Anpassung usw ... FSR4 kann auch einen niedrigeres Mip-Level (und damit tendenziell mehr Textur Details) ab als FSR3 da es weniger zum Flimmern neigt.
Btw. die Mipmap Bias kann mit DLSS kleiner (also ein größerer neg. Wert) sein als wenn FSR als Input verwendet wird, dass kann in einigen Bild-/Video-Vergleichen auch Unterschiede bei den Details erklären.
dildo4u
2025-09-08, 20:37:30
Neuer Treiber ist raus.
https://i.ibb.co/YCZ5Cjk/Screenshot-20250908-203801-2.png (https://ibb.co/8CcyC85)
https://videocardz.com/driver/amd-radeon-software-adrenalin-25-9-1
DrFreaK666
2025-09-11, 15:18:53
klUQeKvzRfY
basix
2025-09-15, 18:30:29
Jemand scheint den INT8 Pfad vom leaked FSR4 Code zum laufen gebracht zu haben:
https://www.reddit.com/r/radeon/comments/1nhkkr8/fsr_sdk_leak_contained_fsr_4_files_that_work_on/
~2ms auf einer 7800XT in 1440p Balanced: https://ibb.co/hTLpN7L
Hat jemand Optiscaler Werte von FSR4 auf einer RDNA4 Karte oder FSR3 auf einer 7800XT?
Auch gut:
Funktioniert auch auf RDNA2 und Nvidia ;)
robbitop
2025-09-15, 18:41:15
2 ms ist doch schon echt in Ordnung. Da hat man beim INT8 Pfad offenbar mehr gemacht als das bisherige nur zu konvertieren. :)
Exxtreme
2025-09-15, 18:57:01
Und schon wieder sind "Hobby-Bastler" viel schneller denn AMD, OMG. Irgendwie habe ich den Eindruck, die wollen kein FSR4 für RDNA2 und RDNA3 obwohl es offenbar sehr gut läuft.
basix
2025-09-15, 19:07:49
2 ms ist doch schon echt in Ordnung. Da hat man beim INT8 Pfad offenbar mehr gemacht als das bisherige nur zu konvertieren. :)
Jepp. Und das ist noch ohne WMMA auf RDNA3 sondern normales INT8 DP4a.
Eine 9070XT benötigt ~1.3ms in 4K. Normiert auf Auflösung und GPU-Performance macht das den INT8 Pfad nur etwa 2.3x langsamer (eine 9070XT ist in Games ~1.5x schneller als eine 7800XT). Das ist schon fast "zu gut" (INT8 TOPS einer 7800XT vs. FP8 FLOPS einer 9070XT) aber bei FSR4 wird der DNN Anteil wie bei DLSS auch nur einen Teil ausmachen.
Und schon wieder sind "Hobby-Bastler" viel schneller denn AMD, OMG. Irgendwie habe ich den Eindruck, die wollen kein FSR4 für RDNA2 und RDNA3 obwohl es offenbar sehr gut läuft.
Wenn ich raten müsste: Qualitätssicherung und RDNA4 Fokus. Und sicher auch etwas Portfolio-Strategie.
Da die INT8 Katze aus dem Sack ist, kann AMD ohne einen Release nur verlieren. Deswegen erwarte ich bei FSR4 Redstone auch einen Release mit der INT8 Version. RDNA4 kann sich dann anderweitig hervorheben (Ray Regeneration usw.).
Ideal wäre ja, wenn FSR4 mit INT8 noch schneller werden würde und damit auch auf einer PS5 laufen könnte. Das wäre ein riesen Gewinn für sehr viele Gamer und +6 Monate Verzögerung für den INT8 Pfad aus meiner Sicht OK.
aufkrawall
2025-09-15, 19:26:23
Und schon wieder sind "Hobby-Bastler" viel schneller denn AMD, OMG. Irgendwie habe ich den Eindruck, die wollen kein FSR4 für RDNA2 und RDNA3 obwohl es offenbar sehr gut läuft.
Die kriegen es ja mittlerweile nicht mal mehr hin, alle vier Wochen einen Treiber zu veröffentlichen. Und den amdvlk-Treiber unter Linux haben sie jetzt auch beerdigt:
https://github.com/GPUOpen-Drivers/AMDVLK/discussions/416
Da das der exakt gleiche Treiber wie unter Windows war, dürfte der nun auch drunter leiden, bis sie vielleicht mal irgendwann dort RADV shippen.
Ist halt das Ergebnis, wenn man sowohl Leute rausschmeißt, als auch den Fokus stärker auf ML setzt. Wenn es nicht diese Überschneidungen zwischen Gaming und ML gäbe, wäre die Situation für PC wahrscheinlich noch schlechter...
basix
2025-09-15, 20:01:16
Hier ein weiteres Indiz, dass FSR Redstone auf allen GPUs laufen wird:
- ML to Compute Shader Translation via ROCm ML2CODE
https://forums.anandtech.com/threads/amd-fsr-4-firestone-path-tracing-software-uses-ml2code-framework-to-run-on-any-gpu.2632018/
https://www.reddit.com/r/radeon/comments/1nfs74o/rumor_fsr_redstone_can_run_on_gpus_without_ai/
dargo
2025-09-16, 09:16:10
FSR 4 auf N31, "abgespeckte" Version.
iOndUPO9_NE
robbitop
2025-09-16, 09:40:45
Und schon wieder sind "Hobby-Bastler" viel schneller denn AMD, OMG. Irgendwie habe ich den Eindruck, die wollen kein FSR4 für RDNA2 und RDNA3 obwohl es offenbar sehr gut läuft.
Wobei man konstatieren muss, dass der geleakte und durch AMD erstellte neue FSR4 Code mehr ist als nur ein umgebauter FSR4 originaler code sondern offenbar extra für INT8/dp4a optimiert (was ja eine Weile dauert).
(die Hobby Programmierer haben den geleakten code lediglich in bestehende Tools eingebaut)
Den Aufwand dieses rewrites macht sich AMD nicht um den nicht zu veröffentlichen. Ggf ist der entweder noch nicht fertig oder AMD will den zu einem bestimmten Anlass releasen.
The_Invisible
2025-09-16, 09:51:16
Der geleakte Source Code war aber auch nur für RDNA4 erstellt wie in den Source Comments vermerkt war, von RDNA3 & Co keine Rede.
Das Video zeigt aber auch gut das Problem wenn AMD sowas released. Jeder Reviewer würde dann Benchmarks mit FSR4 auch auf RDNA3 testen und die würden dann noch weiter zurückfallen.
Für RDNA3 Besitzer wärs aber natürlich sehr sehr nett, der Qualitätsgewinn selbst mit der int8 Version ist schon drastisch gegenüber fsr3
dildo4u
2025-09-16, 09:56:32
Das ganze macht für mich kein Sinn es ist zu Heavy für Ryzen Mobile IGP und das ist das einzige was AMD neu mit RDNA3.5 verkauft.
horn 12
2025-09-16, 09:57:33
Und zu Guter Letzt läufts auf RDNA 3 nochmals besser als vermutet
und kaum langsamer als auf RDNA4 :-)
Exxtreme
2025-09-16, 10:03:31
Wobei man konstatieren muss, dass der geleakte und durch AMD erstellte neue FSR4 Code mehr ist als nur ein umgebauter FSR4 originaler code sondern offenbar extra für INT8/dp4a optimiert (was ja eine Weile dauert).
(die Hobby Programmierer haben den geleakten code lediglich in bestehende Tools eingebaut)
Den Aufwand dieses rewrites macht sich AMD nicht um den nicht zu veröffentlichen. Ggf ist der entweder noch nicht fertig oder AMD will den zu einem bestimmten Anlass releasen.
In den Sourcecode-Kommentaren der geleakten Version stand drin, dass das für RDNA4 gedacht war. Für RDNA2 und 3 war das offenbar nie gedacht und ist wahrscheinlich auch nicht auf RDNA2 und 3 angepasst.
Für RDNA3 Besitzer wärs aber natürlich sehr sehr nett, der Qualitätsgewinn selbst mit der int8 Version ist schon drastisch gegenüber fsr3
Ich glaube nichteinmal, dass die INT8-Version schlechter aussieht als die FP8-Version. So wie es aussieht, sind sie auf FP8 umgeschwenkt weil sie dadurch RDNA4 besser auslasten konnten und das Ganze viel schneller ist.
Wird natürlich interessant sein, was aus Xess so wird wenn FSR4 viel besser aussieht und genauso kompatibel ist.
robbitop
2025-09-16, 10:24:57
Ah ok. Dann steht der richtige rewrite, der schneller ist also noch aus bzw ist nicht geleakt.
Ich denke nach wie vor, dass AMD da was ordentliches veröffentlichen will (was auch schnell ist) und nicht etwas was es vor einem INT8->FP8 rewrite mal gemacht hat. Um sicher zu stellen, dass die reviews auch gut aussehen.
Die Frage ist ob man das auch irgendwie mit disclaimern und vergraben in expert settings veröffentlichen hätte können ohne den backlash zu ernten. Reputation ist unglaublich wichtig.
Dino-Fossil
2025-09-16, 11:27:56
Hat das schon jemand auf RDNA2 getestet? :ugly:
Edit: ein paar Leute haben's im reddit Thread anscheinend getan. Läuft prinzipiell, aber scheinbar mit Artefakten?
robbitop
2025-09-16, 11:52:30
. Und den amdvlk-Treiber unter Linux haben sie jetzt auch beerdigt:
https://github.com/GPUOpen-Drivers/AMDVLK/discussions/416
Da das der exakt gleiche Treiber wie unter Windows war, dürfte der nun auch drunter leiden, bis sie vielleicht mal irgendwann dort RADV shippen.
.
Ist aber auch eine Chance oder? Wenn man die Resources die man für den AMDVLK investiert hat mit in RADV schieben kann (ist ja open source) unterstützt man das bessere Projekt und ist ressourcennormiert besser oder?
Dino-Fossil
2025-09-16, 12:00:56
Ich sehe darin auch erstmal ein Chance - wenn AMD sie denn nutzt.
Hakim
2025-09-16, 12:02:39
Sollten die einfach offiziell machen, wenn interessiert noch der etwas höher Performance Verlust mit RDNA3. Da können die Besitzer selber Abwegen ob sie für die bessere Qualität den Kompromiss eingehen wollen. Bei meiner kleinen Ampere geht die fps auch mehr runter beim Switch von DLSS3 zu 4. Lohnt sich dennoch oft.
Shink
2025-09-16, 12:11:01
Ich frag mich, wieso man das nicht schon lange gemacht hat. (Einstellung von AMDVLK.)
robbitop
2025-09-16, 12:16:35
Sollten die einfach offiziell machen, wenn interessiert noch der etwas höher Performance Verlust mit RDNA3. Da können die Besitzer selber Abwegen ob sie für die bessere Qualität den Kompromiss eingehen wollen. Bei meiner kleinen Ampere geht die fps auch mehr runter beim Switch von DLSS3 zu 4. Lohnt sich dennoch oft.
Bei Ampere verliert man mit Transformer DLSS relativ wenig Performance (bei gleichem Preset).
FSR4 kostet auf RDNA3 offenbar noch immer 2,5x wie FSR3.1.
Wenn man das in die richtige Perspektive rückt ist das dennoch eine gute Option - absolut.
Aber man muss bei sowas immer mal aus seiner Filterblase herausschauen. Hier sind die 0,0001% der informierten Leute die auch noch enthusiastisch sind.
Die breite Masse könnte auf reviews (die ggf sensationsgeile Titel bringen) anders reagieren. Hinzu kommt, dass man ja potenziell auch support für Probleme liefern muss. Wenn man jetzt offiziell noch einen alten INT8 Zweig zusätzlich mit pflegen oder zumindest supportanfragen beackern muss - ist es das wert?
AMD hat seit RDNA4 angefangen eine Reputation und seine Marke aufzubauen (weil das viel Marge wert ist - so wie jede gute Marke). Sowas dauert sehr lang. Aber negative Eindrücke wiegen da immer viel schwerer als positive. In der Vergangenheit haben sie unfertiges Zeug releast und sind dafür massiv in die Kritik geraten. Jetzt machen sie anscheinend das Gegenteil. Software die Zeit lassen, in einen guten Zustand zu kommen damit das feedback möglichst positiv ist. Ich denke, dass das insgesamt die bessere Strategie für den Erfolg ist.
Ich denke AMD hat es sich selbst erschwert, dass sie 6 Jahre später Tensor HW als Nvidia verbaut haben. So konnte Nvidia ihr DLSS bis zuletzt allen Generationen zugänglich machen ohne da irgendwas umschreiben oder optimieren zu müssen oder befürchten zu müssen dass es besonders lahm auf alter HW läuft.
AMD darf jetzt für die PS5PRO und RDNA3 einen rewrite machen der möglichst schnell ist, damit es einen guten Eindruck macht. Und ich kann mir gut vorstellen, dass das nicht die allerhöchste Priorität hat denn man wird sicherlich die Weiterentwicklung von FSR (mit Redstone) priorisieren, da man ja Anschluss an Nvidia sucht. Entsprechend ist so ein rewrite wahrscheinlich auch nicht sonderlich fix.
Sollten die einfach offiziell machen, wenn interessiert noch der etwas höher Performance Verlust mit RDNA3.
AMD. Sieht halt blöd aus, wenn AMD plötzlich in Reviews 20% hinten liegt.
Ihnen fällt jetzt eben auf den Kopf was ihnen in den letzten Jahren geholfen hat, quasi jeder Tester glaubt immer noch es auf die berechneten Pixel ankommt und nicht auf die Qualität die am Bildschirm ankommt. Getestet wird immer mit selber Renderauflösung gegeneinander.
Exxtreme
2025-09-16, 16:10:46
Das könnte sogar viel mehr werden als 20%. Je schneller ein Spiel läuft desto höher der prozentuale Verlust. Andererseits, je schneller ein Spiel läuft desto weniger FSR braucht man.
Edit: Ich meine mit dieser Aussage die geleakte Version von FSR4, welche für RDNA4 erstellt wurde. Man weiss wiederum nicht wie schnell eine optimiertere RDNA2- und 3-Version so laufen wird.
dargo
2025-09-16, 16:46:20
Tiw2Kcvmfp0
Ich "warte" nur noch auf den Tag bis einer mit 1000% reinzoomt um noch Unterschiede bei den einzelnen Pixeln auszumachen. :D
robbitop
2025-09-16, 17:40:04
Wenn Redstone jetzt es noch schafft an RR heranzukommen und der FG Algo auch noch konsistenter wird (also möglichst immer gute Frametimes), dann hat man wirklich auf allen wesentlichen Fronten aufgeschlossen. Das wäre schon nach der langen Durststrecke ein richtig gutes Achievement (nachdem RDNA4 und FSR4 bereits eines war).
Wenn Redstone jetzt es noch schafft an RR heranzukommen und der FG Algo auch noch konsistenter wird (also möglichst immer gute Frametimes), dann hat man wirklich auf allen wesentlichen Fronten aufgeschlossen. Das wäre schon nach der langen Durststrecke ein richtig gutes Achievement (nachdem RDNA4 und FSR4 bereits eines war).
Ohne Game Unterstützung alles nichts wert, selbst wenn FSR 4 gut wäre. Man sieht es ja aktuell, nimmt keiner wirklich wahr und die winzig kleine Minderheit an RDNA4 Usern nimmt doch keiner wahr. :-)
dargo
2025-09-16, 18:27:05
...und der FG Algo auch noch konsistenter wird (also möglichst immer gute Frametimes), dann hat man wirklich auf allen wesentlichen Fronten aufgeschlossen.
Ich weiß echt nicht woher du deine Schlüsse dafür ziehst. Ich hoffe nicht von einer Geforce, weil dann können nur falsche Schlüsse gezogen werden. In CP77 ist der FG-Algo so gut, dass der schon beinah Pflicht ist um die kaputten Frametimes von non FG wieder zu glätten, die CDPR mit einem Patch am Tag X wieder kaputt gemacht hat. :ulol: Und ansonsten wüsste ich jetzt auf Anhieb auch nicht wo die Frametimes mit einer Radeon und FG problematisch sein sollten. Möglicherweise gibt es da paar Einzelfälle, ich kann nicht alle Spiele konsumieren. Das was ich bisher ausprobiert hatte passte soweit.
aufkrawall
2025-09-16, 18:35:50
War nicht mein Eindruck mit RDNA4, on-screen Frame Pacing wirkte arg regressed gegenüber 3. Kann aber auch ein generelles VRR-Problem gewesen sein, was mit FG noch stärker auffällt. Hatte es auch reportet -> wie immer kein Feedback oder sonst irgendwas. Also weg damit und mit GeForce Spaß haben.
Und bei der Qualität gibt es auch Nachholbedarf für bestimmte Aspekte, sie setzen ja nicht ohne Grund mit Redstone dann auch fürs FG auf ML.
Halte es aber für nicht unwahrscheinlich, dass Redstone sowohl das normale DLSS SR übertreffen wird (Upsampling soll ja auch verbessert werden), als auch ggf. die Qualität des FGs. Letzteres scheint Intel ja auch schon auf Anhieb geschafft zu haben, wobei da XeSS FG in OptiScaler noch weiter aufschlussreich sein wird.
Würde allerdings keine Grafikkarte ohne MFG mehr kaufen. Hoffentlich dann mit RDNA5 und mit entsprechenden Frame Pacing-Verbesserungen...
dargo
2025-09-16, 19:09:30
Du hattest auch mal was von Stuttering mit VRR bei RDNA4 hier berichtet. Ich kann davon nichts bestätigen. Bin aber auch wesentlich später bei RDNA4 eingestiegen. Eventuell die "Early-Adapter" Phase übersprungen. Ich kann jedenfalls nichts Negatives über RDNA4 berichten, fühlt sich genauso geil an wie ein RDNA2 damals. Ok... eine Sache würde ich schon kritisieren. Die Entscheidung bei N48 XT für 304W war etwas dumm, ich hätte das Ding bei 265W abgeriegelt. Und natürlich der max. Boost von 3450Mhz ist völlig bescheuert. Wer die Betriebspunkte mancher SKUs da bestimmt ist etwas gaga.
PS: nüchtern betrachtet hätte ich RDNA3 so erwartet wie RDNA4 erschienen ist. RDNA3 war leider ein ziemlicher Unfall. Aber darüber hatte ich mich hier schon genug ausgekotzt.
aufkrawall
2025-09-16, 19:14:19
Ich hatte es bis ca. Juni, würd ich nicht mehr Early Adopter nennen. Ist auch immer noch der gleiche 25.10 Treiber-Branch. Würd 100€ drauf wetten, dass das Frame Pacing immer noch wesentlich schlechter als mit DLSS 4 ist, mit dem ausnahmslos gar kein Spiel auf meinem IPS flackert. Nicht mal das stotternde Oblivion...
dargo
2025-09-16, 19:18:52
Bei mir flackert nicht mal der QD-OLED mit der RX 9070XT. Hat er aber auch nicht mit der RX 6800XT gemacht.
aufkrawall
2025-09-16, 19:25:38
Schön für dich, war nur mit dem System von Bro genau das Gleiche. Und kann mich auch nicht erinnern, dass du jemals Talos oder Oblivion ausprobiert hattest.
Ich mein, ich will jetzt auch nicht zu 100% ausschließen, dass es nicht auch an Windows Updates o.ä. gelegen hätte. Trotzdem unwahrscheinlich...
The_Invisible
2025-09-16, 19:26:31
Ohne Game Unterstützung alles nichts wert, selbst wenn FSR 4 gut wäre. Man sieht es ja aktuell, nimmt keiner wirklich wahr und die winzig kleine Minderheit an RDNA4 Usern nimmt doch keiner wahr. :-)
Bin gespannt was sie da machen um die Redstone Features auch in Games reinzubringen, eigentlich müsste es mit Redstone Release ja gleich eine PT techdemo geben bzw ein Game wo sie als Techpartner fungieren.
dargo
2025-09-16, 19:28:03
Und kann mich auch nicht erinnern, dass du jemals Talos oder Oblivion ausprobiert hattest.
Talos 2 zwar ausprobiert, aber relativ schnell gelangweilt liegen lassen. Oblivion spricht mich überhaupt nicht an.
aufkrawall
2025-09-16, 19:34:23
Bin gespannt was sie da machen um die Redstone Features auch in Games reinzubringen, eigentlich müsste es mit Redstone Release ja gleich eine PT techdemo geben bzw ein Game wo sie als Techpartner fungieren.
Mit etwas Glück kann man den Redstone-Denoiser ggf. in UE mit aktualisiertem Plug-In überschreiben, wie schon RR.
Wobei ich den, falls auf allen GPUs lauffähig, lieber als festen Ersatz des UE-Denoisers allgemein hätte. Einfach nur furchtbar, wie der die Grafik runterzieht.
Bin gespannt was sie da machen um die Redstone Features auch in Games reinzubringen, eigentlich müsste es mit Redstone Release ja gleich eine PT techdemo geben bzw ein Game wo sie als Techpartner fungieren.
Ja kaum Marktanteil, das wird schwer... aber vielleicht irgendein Sony Game.
TheGood
2025-09-16, 20:31:57
edit
raffa
2025-09-16, 20:34:09
Das FSR3 FG on screen framepacing ist nach wie vor nicht toll. (zumindest auf meiner RDNA 2 Karte.)
Da gibts auf jedenfall noch Raum für Verbesserung.
Hab mir derweil ein wenig FSR4 ML-TAA(U) angschaut, das ist schon ein ordentlicher Step in der Quali, nicht schlecht, nicht schlecht. Freilich kaum sinnvoll nutzbar auf der ollen 6600. Rechenzeit: ca Faktor 4 zu FSR3.1.5
Im kommenden Dying Light kann man übrigens zwischen FSR 2.3.4, FSR 3.1.5 und FSR 4.0.2 direkt im Spiel wählen – falls jemandem am nächsten Wochenende langweilig ist ... :biggrin: #teaser
MfG
Raff
Relex
2025-09-16, 21:02:57
Wie geil ist das denn, jetzt kann man mit der neuen dll mal eben FSR4 auf ner GeForce testen.
Habs mal eben in Borderlands getestet und es funktioniert einwandfrei. Sehr großer Unterschied zwischen FSR3.1 und FSR4. Sieht auch auf jeden Fall besser als XeSS aus.
Ich muss aber trotzdem sagen, dass gegenüber DLSS4 schon noch viel Bildschärfe fehlt.
DLSS4 sieht halt häufig selbst im performance Modus aus wie supersampled, so irre viel feine Details da sichtbar sind und so scharf wie die Kanten sind.
FSR4 sieht da eher wie DLSS3 mit nem guten RCAS Filter aus.
Das ist schon recht ordentlich, aber von gleichwertig kann man da noch nicht sprechen.
Da kann AMD mit Redstone ruhig nochmal nachlegen. :tongue:
The_Invisible
2025-09-16, 21:11:30
Im kommenden Dying Light kann man übrigens zwischen FSR 2.3.4, FSR 3.1.5 und FSR 4.0.2 direkt im Spiel wählen – falls jemandem am nächsten Wochenende langweilig ist ... :biggrin: #teaser
MfG
Raff
Für was sollte man da FSR2 wählen? :freak:
@Relex
Die Frage ist ob die int8 Version gleich aussieht wie die fp8 Version, hab dazu noch nirgends was gesehen.
Relex
2025-09-16, 21:22:35
Das könnte doch jeder mit AMD GPU ganz einfach verifizieren mit nem Screenshot von exakt der gleichen Position in einem Spiel (einfach ein savegame laden) einmal mit offiziellem FSR4 und einmal mit der INT8 dll via Optiscaler, oder nicht?
Hier mal ein kleiner Vergleich mit ganz leichter Kamera bewegung durch das schaukeln der Waffe in 4K performance mode.
https://imgsli.com/NDE1NjM3
Original PNG files
https://ibb.co/rKPJRsvV
https://ibb.co/fGpTpQ6c
Für was sollte man da FSR2 wählen? :freak:
Ich halte das auch für ziemlichen Quatsch, aber FSR 2 ist eben minimal "leichter" als FSR 3. Eigentlich ist aber nur FSR 1 eine echte Entlastung für GPU-Gammler (das sieht nicht nur wesentlich gruseliger aus, sondern läuft auch deutlich flotter).
MfG
Raff
Hakim
2025-09-16, 21:33:50
@Relex wie ist den der Performance Unterschied auf deiner 4080 im Vergleich DLSS4 zu FSR4?
Relex
2025-09-16, 21:38:02
In der Szene waren es 70 FPS mit FSR4 und 95 FPS mit DLSS4
Also praktisch nutzbar ist das so natürlich noch nicht.
Mir ist aber gerade aufgefallen, dass das Model nicht richtig übernommen wird. Das bleibt bei Model 0, welches laut Beschreibung für FSR nativ gedacht ist.
Für den Performance Mode wäre Model 3 das richtige, hab ich auch eingestellt, aber es wird nicht übernommen.
Hmm, schade. Dann darf ich wohl vorerst nur DLAA mit FSR nativ vergleichen.
EDIT: Gesagt, getan. Das ändert recht wenig. Sieht natürlich in nativer Auflösung deutlich besser aus, aber der Unterschied zu DLAA4 bleibt in etwa gleich. FSR4 fehlt es hier in Bewegung an Bildschärfe und Stabilität.
Dimon
2025-09-16, 21:42:54
Hat jemand den kram auch mal auf einer älteren gpu ála GTX 1000 oder RX5000 probiert? Oder wird das teil gleich baden gehen?
Hakim
2025-09-16, 21:45:05
Wird wohl zuviel verlieren wenn schon die großen Ada soviel verlieren, ich hätte das gerne mal in CoD Warzone mit meiner Ampere probiert, aber verliert sicherlich viel zu viel Leistung und daher Sinnfrei zum spielen.
][immy
2025-09-16, 22:08:53
Sie sollten es einfach offiziell freigeben, wenn es so weit gut funktioniert (was es bislang ja zu tun scheint). Ich würde es zwar nach wie vor nicht nutzen (da ich nach wie vor der Meinung bin, das mich die Artefakte dieser Mechnismen mehr stören, als eine Auflösungsreduzierung), aber nur so kommt AMD tatsächlich Präsenz. Da es sogar auf RTX Karten läuft wäre es dann die Schnittstelle für Entwickler, weil sie dann mit einer alle bedienen können, ohne das die Qualität zu sehr einstecken muss (gegenüber DLSS).
Auch wenn sich die 9070 für AMD-Verhältnisse gut verkauft, deren Marktanteile sind verschwindent gering.
Lustigerweise sollte es auch auf der xbox funktionieren und der PS5 pro aber nicht eben nicht auf der PS5. Der Performance-Loss sollte von der etwas höheren Shader-Leistung (die ja nur selten durch zu schlagen scheint) der xbox gut abgefangen werden können. Man darf nicht vergessen, das man die Technik über die xbox MS näher bringen könnte und darüber ggfs. zum Quasi-Standard machen könnte.
Exxtreme
2025-09-16, 22:12:24
Ja kaum Marktanteil, das wird schwer... aber vielleicht irgendein Sony Game.
Die Technik hinter FSR ist die gleiche wie hinter DLSS. Ein Spielentwickler meinte mal, sobald man einen Upscaler drin hat, sind die restlichen nur noch noch ein Klacks. Und das ist auch der Grund warum Optiscaler so problemlos funktioniert.
Der_Korken
2025-09-16, 23:22:04
Das könnte doch jeder mit AMD GPU ganz einfach verifizieren mit nem Screenshot von exakt der gleichen Position in einem Spiel (einfach ein savegame laden) einmal mit offiziellem FSR4 und einmal mit der INT8 dll via Optiscaler, oder nicht?
Hier mal ein kleiner Vergleich mit ganz leichter Kamera bewegung durch das schaukeln der Waffe in 4K performance mode.
https://imgsli.com/NDE1NjM3
Original PNG files
https://ibb.co/rKPJRsvV
https://ibb.co/fGpTpQ6c
Ich tu mich bei den Standbildern echt schwer überhaupt Unterschiede zu sehen. Mit dem Slider würde ich sagen, dass FSR4 die Graskonturen etwas überschärft aussehen, aber sonst würde ich das im Blindtest niemals auseinander halten können. Bewegung kann man auf Screenshots natürlich nicht einfangen.
Die Technik hinter FSR ist die gleiche wie hinter DLSS. Ein Spielentwickler meinte mal, sobald man einen Upscaler drin hat, sind die restlichen nur noch noch ein Klacks. Und das ist auch der Grund warum Optiscaler so problemlos funktioniert.
Nein dem ist nicht so, Games sind wenn auf DLSS optimiert. Hacks wie Optiscaler nutzen lediglich deren Inputs. Bedeutet also nicht automatisch dass es auch problemlos oder gewünscht funktioniert.
Exxtreme
2025-09-16, 23:51:32
Nein dem ist nicht so, Games sind wenn auf DLSS optimiert. Hacks wie Optiscaler nutzen lediglich deren Inputs. Bedeutet also nicht automatisch dass es auch problemlos oder gewünscht funktioniert.
Du kannst nicht pauschal "auf DLSS" optimieren ohne gleichzeitig auf FSR zu optimieren. Die Daten, die beide Verfahren brauchen, sind exakt die gleichen. Denn beide Verfahren sind ein TAA+ bzw. TAA- wenn man Upscaling aktiviert.
Du kannst nicht pauschal "auf DLSS" optimieren ohne gleichzeitig auf FSR zu optimieren. Die Daten, die beide Verfahren brauchen, sind exakt die gleichen. Denn beide Verfahren sind ein TAA+ bzw. TAA- wenn man Upscaling aktiviert.
Oh doch,nicht wenige Titel benötigen ein angepasstes Trainingsset um Texturen oder Partikel in Szenen korrekt als solche zu erkennen
aufkrawall
2025-09-17, 00:39:41
DLSS Transformer ist so ca. 15-20% schneller auf Blackwell. Allerdings sieht man auch sofort, wie Transformer-SR DLSS im Grunde völlig dysfunktional in Talos mit Nanite & VSM ist. Einfach nur aliaster Pixelbrei überall. Da würd ich das etwas zu softe Bild mit FSR jederzeit vorziehen:
https://s1.directupload.eu/images/250917/temp/kddqb9z5.jpg (https://www.directupload.eu/file/d/9045/kddqb9z5_jpg.htm) https://s1.directupload.eu/images/250917/temp/n68qbl2o.jpg (https://www.directupload.eu/file/d/9045/n68qbl2o_jpg.htm)
Was mit den transparenten Puzzle-Portalen los ist, kann man sich denken. :freak:
Aber RR E reigns supreme, nochmal gut doppelt so stabil wie FSR 4.
dargo
2025-09-17, 07:44:42
Nein dem ist nicht so, Games sind wenn auf DLSS optimiert.
Ja... sieht man vor allem aktuell beim Ghosting mit DLSS in BL4. :ulol: Und das trotz Kooperation mit Nvidia. :uup:
https://youtu.be/oo_cD2Qcq8k?si=vYmDO03ToA3xnnUD&t=411
Also mal wieder nichts weiter als Lügen.
Das könnte doch jeder mit AMD GPU ganz einfach verifizieren mit nem Screenshot von exakt der gleichen Position in einem Spiel (einfach ein savegame laden) einmal mit offiziellem FSR4 und einmal mit der INT8 dll via Optiscaler, oder nicht?
Hier mal ein kleiner Vergleich mit ganz leichter Kamera bewegung durch das schaukeln der Waffe in 4K performance mode.
https://imgsli.com/NDE1NjM3
Worauf muss ich denn hier speziell achten? :freak: Auf dem 27" 4k Screen sieht das hier absolut gleich aus. Das einzige was mir auf Anhieb auffällt ist nur der leicht andere Sonnenstand.
Relex
2025-09-17, 07:55:46
Uff, der Schärfeunterschied ist doch sehr deutlich. Seht ihr das wirklich nicht? Brille? Vielleicht einfach mal etwas rein zoomen, dann wirds noch viel deutlicher.
Ich frag mich wie man einen Unterschied zwischen FSR3 und FSR4 sehen kann, wenn man aber gleichzeitig den hier zwischen FSR4 und DLSS4 nicht sieht, ich würde FSR4 da ziemlich in der Mitte sehen.
dargo
2025-09-17, 07:59:32
Wenn du einen Zoom brauchst um irgendwas bewerten zu wollen dann kann ich dich nicht mehr ernst nehmen. Ich bewerte sowas anhand von Vollbild, also so wie ich es in der Praxis auch nutze. Alles andere ist hirnverbrannt. Was glaubst du denn warum ich den 166ppi Bildschirm so "feiere"?
Edit:
Ich mache mal den Quatsch mit dem Zoom einmal mit. Das DLSS4 Bild sieht im Zoom schärfer aus, praktisch schon überschärft. Ich sehe bei einzelnen Grashalmen minimal mehr Aliasing und in der Ferne im Gras teilweise Rauschen. Keine Ahnung was daran jetzt besser sein soll. Die Diskussion darüber ist schon komplett lächerlich da ich wie gesagt keine Zooms bewerte sondern nur Vollbild wie das bei meinem 27" 4k ankommt.
Ich muss aber trotzdem sagen, dass gegenüber DLSS4 schon noch viel Bildschärfe fehlt.
DLSS4 sieht halt häufig selbst im performance Modus aus wie supersampled, so irre viel feine Details da sichtbar sind und so scharf wie die Kanten sind.
So ist es, FSR4 ist sowas in die Richtung DLSS3+. DLSS4 ist da noch mal eine ganz andere Liga. Vergleichbar mit DLSS1-->DLSS2
dildo4u
2025-09-17, 08:41:08
Ist logisch das mam kaum Unterschiede sieht ist wie mit Fortnite dort wurde DLSS nie aktualsiert weil der Comic Stil DLSS2 vollkommen ok ist,
Ich merke das erzwingen von DLSS4 eher daran das die Performance geringer ist nicht unbedingt wegen der Optik.
aufkrawall
2025-09-17, 08:46:50
Ja... sieht man vor allem aktuell beim Ghosting mit DLSS in BL4. :ulol: Und das trotz Kooperation mit Nvidia. :uup:
https://youtu.be/oo_cD2Qcq8k?si=vYmDO03ToA3xnnUD&t=411
DLSS SR K hat auch mehr Ghosting und Smearing als FSR 4. "Kooperation mit Nvidia" wird auch nur Marketing sein, das ist nur Vanilla UE5 mit fragwürdiger Projekt-Optimierung.
Ist logisch das mam kaum Unterschiede sieht ist wie mit Fortnite dort wurde DLSS nie aktualsiert weil der Comic Stil DLSS2 vollkommen ok ist,
Ich merke das erzwingen von DLSS4 eher daran das die Performance geringer ist nicht unbedingt wegen der Optik.
Wow, dann siehst du krass schlecht. Check mal lieber nochmal die angeblich niedrigeren fps, der App Override funktioniert in Fortnite gar nicht mehr...
dildo4u
2025-09-17, 08:54:50
Dann ist TSR schlechter als DLSS2 ich sehe Unterschiede.
Ich dachte der Entwickler kann das überschreiben nicht verhindern das es über den Treiber geht, in der App kann man im Fortnite Profil DLSS neuste Version erzwingen.
aufkrawall
2025-09-17, 09:00:57
Ich dachte der Entwickler kann das überschreiben nicht verhindern
Augenscheinlich doch. Ob durch EAC oder was auch immer, es geht nicht mehr. Manuelles DLL-Austauschen mit Duplizieren ins Hauptverzeichnis geht weiterhin.
DrFreaK666
2025-09-17, 09:13:22
Bin gespannt was sie da machen um die Redstone Features auch in Games reinzubringen, eigentlich müsste es mit Redstone Release ja gleich eine PT techdemo geben bzw ein Game wo sie als Techpartner fungieren.
Wahrscheinlich Starfield XD
dargo
2025-09-17, 09:13:55
DLSS SR K hat auch mehr Ghosting und Smearing als FSR 4. "Kooperation mit Nvidia" wird auch nur Marketing sein, das ist nur Vanilla UE5 mit fragwürdiger Projekt-Optimierung.
Ganz ehrlich... mir geht dieses Chaos beim PC nur noch auf den Senkel. Waren das schöne Zeiten wo jeder PC-Spieler einfach nur Ingame sein Antialiasing aktiviert hatte und fertig, gemeinsamer Nenner für alle. Heute kochen alle drei IHVs ihr eigenes Süppchen und was dabei rauskommt sieht man ja. Nur noch Chaos und "Frickelei". Das mag sicherlich paar Nerds gefallen (ich schraube je nach Lust und Laune auch gerne mal rum), aber wie will man sowas dem Durchschnittsspieler vermitteln? Der zeigt dir doch nen Vogel. Wäre das schön wenn sich mal alle drei IHVs (von mir aus auch Sony und MS mitnehmen) zusammen setzen würden und ein gemeinsames Upscaling + eine gemeinsame Frame Generation entwickeln würden. :rolleyes: Aber nein... lieber weiter alles mit noch mehr Alleingängen und Gefrickel spalten was noch mehr potenzielle Baustellen verursacht. :uclap:
Relex
2025-09-17, 09:19:40
Wenn du einen Zoom brauchst um irgendwas bewerten zu wollen dann kann ich dich nicht mehr ernst nehmen. Ich bewerte sowas anhand von Vollbild, also so wie ich es in der Praxis auch nutze. Alles andere ist hirnverbrannt. Was glaubst du denn warum ich den 166ppi Bildschirm so "feiere"?
Ja dann tuts mir leid, wenn's die Sehkraft nicht hergibt, für mich ist der Unterschid auch ohne Zoom sehr sehr deutlich.
Das DLSS Bild wirkt fast schon wie klassisches SSAA während das FSR Bild eher nach typischem TAA aussieht, so wie halt DLSS3 auch schon.
Bei FSR "wabern" die kanten auch leicht, während sie bei DLSS stabil bleiben.
Und ja, das DLSS Bild sieht etwas "rauschiger" aus, aber es ist halt trotzdem extrem stabil.
Was bringt die Softness von FSR4, wenn das Bild dann trotzdem instabiler ist? Da haste halt dann nur weniger Details sonst nichts.
Aber gut, lassen wir das. Solange es keine offizielle implementierung ist oder jemand einen Vergleich auf AMD Karte liefert...
:rolleyes:
PS: bzgl. Chaos: Schon damals haben sich die Leute über die verschiedenen AA Modi beschwert. Gab ja nicht nur MSAA.
DrFreaK666
2025-09-17, 09:23:46
Es wurde in vielen Videos bestätigt, dass FSR4 besser ist als DLSS3 aber schlechter als DLSS4.
Keine Ahnung wieso man darüber schon wieder diskutieren muss.
@Relex: Ich hab kein BL4. Welches Spiel kannst noch anbieten?
aufkrawall
2025-09-17, 09:35:00
Aber gut, lassen wir das. Solange es keine offizielle implementierung ist oder jemand einen Vergleich auf AMD Karte liefert...
:rolleyes:
Sieht auf den ersten Blick nicht anders aus als die FP8-Variante.
dargo
2025-09-17, 09:39:44
Bei FSR "wabern" die kanten auch leicht, während sie bei DLSS stabil bleiben.
Und ja, das DLSS Bild sieht etwas "rauschiger" aus, aber es ist halt trotzdem extrem stabil.
Was bringt die Softness von FSR4, wenn das Bild dann trotzdem instabiler ist? Da haste halt dann nur weniger Details sonst nichts.
Keine Ahnung was du damit wieder willst. Ich hatte mich nur zu deinen beiden Standbildern geäußert. Eine Beurteilung in Bewegung ist da logischerweise nicht möglich.
PS: bzgl. Chaos: Schon damals haben sich die Leute über die verschiedenen AA Modi beschwert. Gab ja nicht nur MSAA.
Es gab mal als gemeinsamen Nenner MSAA und später TAA.
Relex
2025-09-17, 09:40:52
Es wurde in vielen Videos bestätigt, dass FSR4 besser ist als DLSS3 aber schlechter als DLSS4.
Keine Ahnung wieso man darüber schon wieder diskutieren muss.
@Relex: Ich hab kein BL4. Welches Spiel kannst noch anbieten?
Doom, KCD2, Indy, Stellar Blade, Cyberpunk, Clair Obscur, Starfield, Last of Us 2, Horizon Fobidden West. Kommt halt drauf an, wo Optiscaler funktioniert.
Aber warum fragst du?
Sieht auf den ersten Blick nicht anders aus als die FP8-Variante.
Danke.
Und ich will die Probleme von DLSS auch nicht relativieren. Disocclusion Artefakte und stellenweise Ghosting sind bei DLSS stärker ausgeprägt. Da muss Nvidia endlich nachbessern..
Für mich überwiegt trotzdem Bildschärfe/Detailgrad und gleichzeitig Bildstabilität bei weitem, da es nunmal genau das ist, was man bisher nur über extrem hohe Auflösungen erreicht hat. Für mich ist es einfach DER Maßstab für die allgemeine Bildqualität.
DrFreaK666
2025-09-17, 09:46:42
Doom, KCD2, Indy, Stellar Blade, Cyberpunk, Clair Obscur, Starfield, Last of Us 2, Horizon Fobidden West. Kommt halt drauf an, wo Optiscaler funktioniert.
Aber warum fragst du?
Weil du vergleichen wolltest
Lurtz
2025-09-17, 09:50:35
Es gab mal als gemeinsamen Nenner MSAA und später TAA.
Bei MSAA konntest du irgendwann mit Bits, (SG)SSAA, LoD Bias und Co auch genug rumfrickeln. Dann gabs eine ewig lange Überganszeit, als MSAA immer teurer wurde und immer weniger für die Bildstabilität brachte.
Natürlich gabs auch damals schon Diskussionen, dass MSAA das Bild ja unschärfer macht.
Dann kam eine lange Übergangszeit, in der man kein AA, FXAA, SMAA, und zig andere Post-AA-Lösungen mit anderen Abkürzungen hatte, die man noch nachschärfen und mit Downsampling kombinieren konnte.
TAA(U) hast du ja weiterhin, ansonsten stellt man die herstellerspezifische Lösung ein. Normalos reicht das doch völlig, ich kenne außerhalb von Techforen schon niemanden, der sich sowas wie Optiscaler antun würde...
DrFreaK666
2025-09-17, 09:53:04
ich kenne außerhalb von Techforen schon niemanden, der sich sowas wie Optiscaler antun würde...
iiiiiihhhh, normale Menschen :D
Hab damals auch viel Zeit verbracht HBAO-Bits für Spiele zu finden.
Warum wiederspricht sich das? Disocclusion Artefakte und Ghosting sind nur stellenweise sichtbar während die höhere Bildschärfe und Stabilität sich auf das allgemeine Bild auswirken. Und letztere beiden aspekte sind für mich der Maßstab. Möglichst hohe Stabilität ist das was man von AntiAliasing Methoden erwartet und Bildschärfe eben das wofür man üblicherweise höhere Auflösungem braucht. Das sind ganz klassische Maßstäbe.
Habs gelöscht, da ich erkannt habe dass ich falsch lag
Relex
2025-09-17, 09:53:58
@DrFreaK666
Warum wiederspricht sich das? Disocclusion Artefakte und Ghosting sind nur stellenweise sichtbar während die höhere Bildschärfe und Stabilität sich auf das allgemeine Bild auswirken. Und letztere beiden aspekte sind für mich der Maßstab. Möglichst hohe Stabilität ist das was man von AntiAliasing Methoden erwartet und Bildschärfe eben das wofür man üblicherweise höhere Auflösungem braucht. Das sind ganz klassische Maßstäbe.
Tesseract
2025-09-17, 10:10:21
Bei MSAA konntest du irgendwann mit Bits, (SG)SSAA, LoD Bias und Co auch genug rumfrickeln.
und das war damals oft noch extremer als heute. spiele mit viel vegetation sahen mit MSAA oft kaum besser aus als ohne AA bis man transparency MSAA forciert hat. es gibt 100+ DX9 spiele die bis heute nur mit injections/overrides die optimale bildqualität haben.
dargo
2025-09-17, 11:43:43
Warum wiederspricht sich das? Disocclusion Artefakte und Ghosting sind nur stellenweise sichtbar während die höhere Bildschärfe und Stabilität sich auf das allgemeine Bild auswirken. Und letztere beiden aspekte sind für mich der Maßstab. Möglichst hohe Stabilität ist das was man von AntiAliasing Methoden erwartet und Bildschärfe eben das wofür man üblicherweise höhere Auflösungem braucht. Das sind ganz klassische Maßstäbe.
Das sind deine persönlichen Maßstäbe, andere Spieler können das durchaus anders sehen und finden Artefakte/Ghosting oder sonstige Fuckups störender.
Es wurde in vielen Videos bestätigt, dass FSR4 besser ist als DLSS3 aber schlechter als DLSS4.
Keine Ahnung wieso man darüber schon wieder diskutieren muss.
Solche Dinge - IT generell - sind bewegliche Ziele, man muss dranbleiben und sich stets der hereinströmenden Datenlage anpassen. :)
(Ansonsten passieren Dinge wie gebetsmühlenartiges "8 GiByte reichen für alles" und so. ;))
MfG
Raff
DrFreaK666
2025-09-17, 12:08:21
Solche Dinge - IT generell - sind bewegliche Ziele, man muss dranbleiben und sich stets der hereinströmenden Datenlage anpassen. :)
(Ansonsten passieren Dinge wie gebetsmühlenartiges "8 GiByte reichen für alles" und so. ;))
MfG
Raff
Heißt das, dass du an einem aktuellen Review arbeitest? :D
Echte Verbesserungen wird es wahrscheinlich erst mit Redstone geben.
Glaube nicht dass 4.0.2 sichtbar besser ist als 4.0.0
Exxtreme
2025-09-17, 12:29:05
Sieht auf den ersten Blick nicht anders aus als die FP8-Variante.
Da wird es wahrscheinlich auch keine visuellen Unterschiede geben. Sowohl INT8 wie auch FP8 können maximal 256 Werte darstellen. Nur die Interpretation dieser Werte ist eine andere. FP8 ist hier nicht wertiger auch wenn hier und da ein anderer Eindruck entsteht.
Da wird es wahrscheinlich auch keine visuellen Unterschiede geben. Sowohl INT8 wie auch FP8 können maximal 256 Werte darstellen. Nur die Interpretation dieser Werte ist eine andere. FP8 ist hier nicht wertiger auch wenn hier und da ein anderer Eindruck entsteht.
Hängt immer davon ab was man mit den Werten macht.
Mit FP bleibt die Genauigkeit im gesamten Wertebereich weitestgehend identisch, mit INT unterscheidet sie sich stark, wo man sich im Wertebereich befindet.
Es hat schon seinen Grund warum es INT und FP Formate gibt, wären die gleichwertig, bräuchte man ja nur eines davon.
The_Invisible
2025-09-17, 13:12:52
Da wird es wahrscheinlich auch keine visuellen Unterschiede geben. Sowohl INT8 wie auch FP8 können maximal 256 Werte darstellen. Nur die Interpretation dieser Werte ist eine andere. FP8 ist hier nicht wertiger auch wenn hier und da ein anderer Eindruck entsteht.
Der Dynamikbereich ist bei fp8 aber größer da mit exponenten gearbeitet wird, ist ja nicht umsonst bei ML ein großes Thema. So ein Vergleich wäre ja schnell gemacht.
Exxtreme
2025-09-17, 13:21:47
Der Dynamikbereich ist bei fp8 aber größer da mit exponenten gearbeitet wird, ist ja nicht umsonst bei ML ein großes Thema. So ein Vergleich wäre ja schnell gemacht.
Ja, nur kannst du auch nicht mehr alle Zahlen im Dynamikbereich darstellen sondern hast Lücken drin. Und bei ML geht es schon mit FP4 weiter. Und das scheint ausreichend zu sein.
basix
2025-09-17, 13:32:01
Wird wohl zuviel verlieren wenn schon die großen Ada soviel verlieren, ich hätte das gerne mal in CoD Warzone mit meiner Ampere probiert, aber verliert sicherlich viel zu viel Leistung und daher Sinnfrei zum spielen.
Auf der 7900XTX (RDNA3 generell) schien es nur ~10...15% zu sein (ggü. FSR3.1) und aufkrawall hat 15-20% auf einer Blackwell GPU gemessen (ggü. DLSS4). Scheint auf RDNA3 also besser zu laufen als auf Nvidia GPUs und der Qualitätsgewinn ist mMn den Performanceverlust wert.
Aber ich glaube Nvidia GPUs sind mit DLSS4 eh schon gut bedient. Die Hauptzielgruppe ist eher RDNA1...3, Intel Xe1 & 2 sowie allenfalls auch noch Pascal und Turing-Non-RTX.
Ja, nur kannst du auch nicht mehr alle Zahlen im Dynamikbereich darstellen sondern hast Lücken drin. Und bei ML geht es schon mit FP4 weiter. Und das scheint ausreichend zu sein.
Du hast bei jeder quantisierten Darstellung Lücken.
Mit Float sind diese im gesamten Bereich annähernd gleich groß, mit Int werden die Lücken umso größer je kleiner der Wert ist.
Exxtreme
2025-09-17, 15:13:27
Aber ich glaube Nvidia GPUs sind mit DLSS4 eh schon gut bedient. Die Hauptzielgruppe ist eher RDNA1...3, Intel Xe1 & 2 sowie allenfalls auch noch Pascal und Turing-Non-RTX.
Ist fraglich ob Grafikkarten ala RDNA1 damit umgehen können. Die können nativ kein INT8. Da wird FSR 3.1 wohl das höchste der Gefühle bleiben.
DrFreaK666
2025-09-17, 15:19:46
könnte mir vorstellen, dass sich AMD auf RDNA3 beschränkt
basix
2025-09-17, 15:20:27
Ist fraglich ob Grafikkarten ala RDNA1 oder Pascal damit umgehen können. Die können nativ kein INT8. Da wird FSR 3.1 wohl das höchste der Gefühle bleiben.
What? RDNA1 und Pascal können beide INT8 mit DP4a / DOT4 Product. Beide mit 4x Rate von FP32. Gleich wie RDNA2 und RDNA3.
https://www.techpowerup.com/gpu-specs/docs/amd-rdna-whitepaper.pdf
https://docs.nvidia.com/cuda/pascal-tuning-guide/index.html#int8-dot-product
Navi 10 ist soweit ich weiss ein Spezialfall (da der allererste RDNA1 Chip), der kann INT8 weniger stark beschleunigt. Andere RDNA1 Chips können es aber.
Dimon
2025-09-17, 15:24:29
What? RDNA1 und Pascal können beide INT8 mit DP4a / DOT4 Product. Beide mit 4x Rate von FP32. Gleich wie RDNA2 und RDNA3.
https://www.techpowerup.com/gpu-specs/docs/amd-rdna-whitepaper.pdf
https://docs.nvidia.com/cuda/pascal-tuning-guide/index.html#int8-dot-product
Navi 10 ist soweit ich weiss ein Spezialfall (da der allererste RDNA1 Chip), der kann INT8 weniger stark beschleunigt. Andere RDNA1 Chips können es aber.
Die frage ist ob es laufen wird, ich werde mal bei gelegenheit meine gtx 1070m auf dem lappi testen ob es mit cyberpunk läuft, mal sehen...
basix
2025-09-17, 15:26:00
Bin gespannt auf die Ergebnisse :)
Auf RDNA2 scheint es Grafikfehler zu geben. Ist also noch nicht robust. Aber die Performance oder zumindest Performance-Indiz sollte man eruieren können.
Schlussendlich hängt es von den Instruktionen ab und was der GPU-Compiler daraus macht. Auf RDNA3 scheint das besser zu funktionieren als bei Ampere oder Ada.
Exxtreme
2025-09-17, 15:48:40
What? RDNA1 und Pascal können beide INT8 mit DP4a / DOT4 Product. Beide mit 4x Rate von FP32. Gleich wie RDNA2 und RDNA3.
https://www.techpowerup.com/gpu-specs/docs/amd-rdna-whitepaper.pdf
https://docs.nvidia.com/cuda/pascal-tuning-guide/index.html#int8-dot-product
Navi 10 ist soweit ich weiss ein Spezialfall (da der allererste RDNA1 Chip), der kann INT8 weniger stark beschleunigt. Andere RDNA1 Chips können es aber.
Ja, bei Pascal habe ich mich geirrt. Aber RDNA1 kann kein INT8 nativ. INT8 wird dort nach INT16 oder INT32 konvertiert. Interessanterweise kann die Radeon VII INT8 nativ.
horn 12
2025-09-17, 16:07:20
Zu Guter Letzte entpuppt sich RDNA 3 doch noch alles Wunderwaffe
mit ausreichend Speicher, zwar etwas hohem Verbrauch aber dann doch kaum langsamer als RDNA 4,- auch beim Raytracing.
basix
2025-09-17, 16:30:30
Ja, bei Pascal habe ich mich geirrt. Aber RDNA1 kann kein INT8 nativ. INT8 wird dort nach INT16 oder INT32 konvertiert. Interessanterweise kann die Radeon VII INT8 nativ.
Woher kommst du auf int16 und int32? Anhand des Schaubilds im Whitepaper sind die Inputs INT8 (und das Accumulate INT32). Und auch den Beitext darunter lese ich so:
- FP16 = 2x Throughput von FP32
- INT8 = >2x throughput (ausser eben vermutlich Navi 10)
Du musst die INT8 Werte in einem INT32 Wert zusammenfassen (2x Input Operanden mit 32bit mit jeweils 4x INT8 Werten, deswegen heisst es ja DOT4 / DP4a) aber die Einzelwerte sind INT8 und der Throughput sollte 4x der Base FP/INT Rate sein.
Exxtreme
2025-09-17, 16:46:26
Woher kommst du auf int16 und int32? Anhand des Schaubilds im Whitepaper sind die Inputs INT8 (und das Accumulate INT32). Und auch den Beitext darunter lese ich so:
- FP16 = 2x Throughput von FP32
- INT8 = >2x throughput (ausser eben vermutlich Navi 10)
Schau dir mal das Instruction Set von RDNA1 an:
https://www.amd.com/content/dam/amd/en/documents/radeon-tech-docs/instruction-set-architectures/rdna-shader-instruction-set-architecture.pdf
INT8 aka I8 kann der Chip nur lesen und schreiben. Er kann mit INT8 ansonsten nichts anfangen. Die INT8-Werte werden nach INT16 oder INT32 konvertiert damit RDNA1 mit denen überhaupt irgendwas machen kann.
basix
2025-09-17, 18:22:41
Dann macht der Text im Whitepaper keinen Sinn. Dort steht "even greater throughput" als 2x FP16. Ist RDNA 1.0 nicht auf Navi 10 bezogen und Navi 12/14 sind RDNA 1.x? Oder sind 2x 8bit Werte in einen 16bit Wert codiert?
Dimon
2025-09-17, 21:14:18
Also die GTX reihe der Turing kann schonmal FSR 4...
https://www.youtube.com/watch?v=M02Ev0DdqdQ
Ich teste mal die Tage Pascal, mal sehen was dort geht... :biggrin:
aufkrawall
2025-09-18, 00:11:37
Kommt halt drauf an, wo Optiscaler funktioniert.
OptiScaler braucht's übrigens gar nicht, funktioniert mit jedem DX12 Spiel mit 3.1 durch das Ersetzen der DLL. Nur das erstmalige Shader Compile vom NN braucht offenbar ewig.
In Ratchet & Clank ohne RT zerstört es aber die fps, 90 vs. 135fps DLSS 4. Hat also extrem hohe eigene Frame Time, mit entsprechend hartem Hit bei hohen fps.
dargo
2025-09-18, 07:39:40
DdxVVNMRIrM
Ich finde das sehr amüsant, dass alle offenbar denken AMD würde versehentlich da was geleaked haben. Könnte genauso sein, dass dies mit Absicht passiert ist um im Gespräch zu bleiben. ;)
btw.
-6% auf RDNA3 mit FSR 4 vs. FSR 3.1.5 finde ich jetzt nicht super teuer. Selbst N48 ist mit FSR 4 langsamer als FSR 2.x/3.x.
Edit:
Hier ein Vergleichsversuch mit N31 in BL4... ich sehe da teilweise auch -10 bis -11%.
c9CxSKJDdZY
horn 12
2025-09-18, 08:43:00
AMD ist etwas chaosorientiert, aber sicher nicht blöd
Denke wie Dargo, man will einen "Hypetrain" aufbauen um all dies mit dem Eigenen Event zu pushen!
So bleibt man im Gespräch bis zum Release von Redstone und dem geupdateten FSR 4
The_Invisible
2025-09-18, 08:43:11
In CB hat wer int8 vs fp8 getestet auf RDNA4 inkl. Bildvergleich wobei die jetzt nicht exakt gleich sind, da sind schon fast minux 20% was nicht mehr wenig ist
https://www.computerbase.de/forum/threads/windows-und-linux-fsr-4-laeuft-dank-leak-auf-rx-7000-6000-und-geforce-rtx.2252070/page-17#post-30922224
AMD ist etwas chaosorientiert, aber sicher nicht blöd
Denke wie Dargo, man will einen "Hypetrain" aufbauen um all dies mit dem Eigenen Event zu pushen!
So bleibt man im Gespräch bis zum Release von Redstone und dem geupdateten FSR 4
Also ich traue dem AMD GPU Marketing einige Absurditäten zu aber das man nur für kurze Zeit den Source released um ihn dann mit allen möglichen Rettungsversuchen (siehe Gitlab History) wieder zu entfernen würde alles bis jetzt dagewesene schlagen
dargo
2025-09-18, 09:17:05
Ach... die Bildqualität ist identisch zu RDNA4? Dann natürlich kein Wunder, dass die Kosten bei <RDNA4 zu hoch sind. Ich dachte das wäre was Abgespecktes wie bei Intel für non Intel-GPUs.
Crazy_Chris
2025-09-18, 09:49:07
nennt sich Guerilla Marketing. ;D
robbitop
2025-09-18, 09:49:55
Dann macht der Text im Whitepaper keinen Sinn. Dort steht "even greater throughput" als 2x FP16. Ist RDNA 1.0 nicht auf Navi 10 bezogen und Navi 12/14 sind RDNA 1.x? Oder sind 2x 8bit Werte in einen 16bit Wert codiert?
RDNA1 kann leider kein dp4a. Da müsste man wahrscheinlich nach FP16 konvertieren mit entsprechendem Performanceverlust.
Also die GTX reihe der Turing kann schonmal FSR 4...
https://www.youtube.com/watch?v=M02Ev0DdqdQ
Ich teste mal die Tage Pascal, mal sehen was dort geht... :biggrin:
Sollte gehen. Pascal kann dp4a mit 4x speedup ggü fp32.
horn 12
2025-09-18, 10:02:11
und weiter geht der Hype-Zug ...
https://videocardz.com/newz/amd-fsr-redstone-may-run-on-non-amd-gpus
dargo
2025-09-18, 10:18:02
Ich lese da eine indirekte Bestätigung, dass Vulkan-Support auch mit Redstone kommt.
Exxtreme
2025-09-18, 10:23:03
RDNA1 kann leider kein dp4a.
Das ist bei RDNA1 nicht so konsistent. Navi10 (R5700XT) kann es nicht, Navi12 und Navi14 (R5500XT) wiederum schon. :freak: Navi10 fehlen einige "mixed dot-product"-Instruktionen für volle Dp4a-Kompatibilität. Interessanterweise läuft Xess trotzdem auf Navi10.
The_Invisible
2025-09-18, 10:25:25
Ach... die Bildqualität ist identisch zu RDNA4? Dann natürlich kein Wunder, dass die Kosten bei <RDNA4 zu hoch sind. Ich dachte das wäre was Abgespecktes wie bei Intel für non Intel-GPUs.
Bildqualität soll mit int8 nicht gleich sein:
https://www.reddit.com/r/radeon/comments/1njcn2r/frs4_on_rdna3_and_previous_architectures_int8_vs/
INT8 version:
- Works well on RDNA3 and RDNA2.
- Also runs on GTX 10-series (Pascal) and later NVIDIA GPUs via INT8/DP4A, though performance is questionable.
- It has the broadest compatibility.
- There’s a small image-quality trade-off compared to FP8 (native FSR4) but it should still be better than FSR3.1.
- From the leaked DLL it looks fine in static scenes, but in motion (see Ancient Gameplay’s video) you can still see artifacts like the antenna shimmering when moving.
WMMA version:
- Relevant mainly for RDNA3 high-end cards like the RX 7900 XT/X.
- Much less useful on RDNA3 midrange cards like the RX 7600/XT.
- Not supported at all on RDNA2.
- Visuals are basically the same as FP8, but it’s less efficient than running on native FP8 hardware.
robbitop
2025-09-18, 10:25:50
Das ist bei RDNA1 nicht so konsistent. Navi10 (R5700XT) kann es nicht, Navi12 und Navi14 (R5500XT) wiederum schon. :freak: Navi10 fehlen einige "mixed dot-product"-Instruktionen für volle Dp4a-Kompatibilität. Interessanterweise läuft Xess trotzdem auf Navi10.
Wird wahrscheinlich dann einfach konvertiert auf N10. Hast Recht N12 und N14 können das. Haben wahrscheinlich eine leicht neuere GFX IP.
robbitop
2025-09-18, 10:29:40
Bildqualität soll mit int8 nicht gleich sein:
https://www.reddit.com/r/radeon/comments/1njcn2r/frs4_on_rdna3_and_previous_architectures_int8_vs/
Gibt es denn schon eine WMMA Version als leak? Oder meinen sie die RDNA4 Version?
Dass INT8 weniger gut aussieht als die FP8 Version könnte ggf auch damit zu erklären sein, dass die älter ist laut den comments die im geleakten source code sind.
Aber ist das NN wirklich mit weniger Parametern so wie die dp4a Version von XeSS vs der XMX Version? Zumindest habe ich davon noch nichts gelesen bis dato :)
raffa
2025-09-18, 11:57:24
WMMA meint den linux/mesa wmma_rdna3_workaround für RDNA3
Die INT8 version scheint ein älteres Modell zu benutzen, aber ansonsten gleich zu sein. Eine "INT8 lite" hat AMD vergessen zu leaken ;)
robbitop
2025-09-18, 12:18:21
Ah also FP16/FP8 conversion. Würde ich dann aber nicht unbedingt als WMMA Version bezeichnen. Für mich wäre eine WMMA Version die auf allen GPUs läuft, die das WMMA Instruction Set nutzen (egal ob über Tensor Cores oder über die ALUs). Also ab RDNA3.
dargo
2025-09-18, 19:42:34
FSR4 Leak geht auch auf RDNA2, fehlerfrei aber nur mit einem zwei Jahre alten Treiber. :tongue:
Trn4p04w5nI
Dimon
2025-09-18, 20:22:35
Hmm konnte irgendwie keine Leistungseinbußen mit einer RTX 4090 und Cyberpunk feststellen, also verglichen mit FSR4 und DLSS Transformer...
Kann das einer bestätigen? Oder habe ich was falsch gemacht? (Overdrive preset und alles ultra)
Hakim
2025-09-18, 20:47:38
bei RDNA4 sind es nur 6% unterschied bei INT8
Relex
2025-09-18, 20:52:23
Pack doch künftig bitte einfach die Quelle dazu, wenn du's eh schon hier rein kopierst, dann muss man nicht erst danach suchen. ;)
https://www.computerbase.de/artikel/grafikkarten/anleitung-fsr-4-auf-radeon-rx-7000-rdna-3.94373/
robbitop
2025-09-18, 21:18:07
Ich denke man muss sicherstellen, dass man im GPU Limit bencht. Ansonsten kann der performance hit auch durch bspw ein CPU Limit verdeckt sein. Bei einer 7900xtx oder 4090 kann das mit einem performance preset bei 4k schon schnell mal passieren.
Sinnvoller wäre es ggf den Hit mit kleineren GPU SKUs zu messen.
Eadzon64
2025-09-18, 22:22:15
auf meinem kleinen strix point, AI 370 HX @ 24Watt Spielzeug
muss ich mit RDNA3 FSR4 auf ca. 600p runter gehen. um die Leistung von 800p und FSR31 zu erreichen
sieht trotzdem, fast besser aus
muss aber auch sagen, das AMD. mit der FSR3.1.5 Version inzwischen einen ganz ordentlichen upscaler am Start hat, wenn es ordentlich implementiert ist, oder mit optiscaler aufgesetz wird:eek:
Eadzon64
2025-09-18, 23:42:32
muss mich berichtigen
drecks Windows Defender, hatte sich mal wieder eingemischt und mein System beinflußt
sind im Cyberpunk Benchmark,
1440p fsr3, gegen fsr4, beides im 720p performance Mode, 26 gegen 37 FPS, was einem heftigen Hit von um die 30% entspricht:rolleyes:
echtes/natives 720p läuft dagegen mit 49,37 also fast 50FPS, da sieht man mal was upscaler Leistung kosten
Eadzon64
2025-09-19, 00:56:21
in Cyberpunk, kann ich auch jedem mit RDNA3.5 und kleiner empfehlen
im Spiel den upscaler auf FSR4 zu stellen unf dann über Optiscaler händisch auf FSR3.1 zu switchen
damit ist FSR endlich richtig implementiert und gibt einen ordentlichen Zuwachs bei der Bildqualität, bei nur 2-3% FPS Verlust:smile:
und man sieht was möglich ist, wenn es keine Nvidia Grafikkarten Verkaufsdemo wäre
Der_Korken
2025-09-19, 18:43:50
muss mich berichtigen
drecks Windows Defender, hatte sich mal wieder eingemischt und mein System beinflußt
sind im Cyberpunk Benchmark,
1440p fsr3, gegen fsr4, beides im 720p performance Mode, 26 gegen 37 FPS, was einem heftigen Hit von um die 30% entspricht:rolleyes:
echtes/natives 720p läuft dagegen mit 49,37 also fast 50FPS, da sieht man mal was upscaler Leistung kosten
Dass der Performance-Hit auf einer kleinen GPU so groß ist, verwundert mich nicht. Bei der Diskussion wird oft gesagt, dass FSR4 gegenüber FSR3 x% an Leistung kostet. Diese Betrachtung ergibt aber keinen Sinn, denn die Rechenzeit von FSR3 und FSR4 hängen nicht von der Rechenzeit des Ursprungsframes ab, sondern nur von der Auflösung und von der Rechenleistung der GPU. In deinem Beispiel sind es 1440p, wo eine 7900XTX vielleicht schon 1ms länger an FSR4 rechnet als an FSR3. Die Strix Point GPU hat nur 1/6 der CUs bei wahrscheinlich auch noch weniger Takt, d.h. dort ist die zusätzliche Rechenzeit pro Frame dann vielleicht schon 6ms. 37fps sind 27ms Frametime. Wenn die GPU jetzt noch 6ms länger rechnen muss, sinds 33ms Frametime und somit 30fps. Passt jetzt nicht genau zu deinen Daten, aber ich habe auch nur grob geschätzt. Die Hausnummer passt aber durchaus.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.