Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)
Eadzon64
2025-12-20, 14:38:27
Nicht nur das, das ganze Ökosystem drum herum passt einfach nicht für meinen user case.
Linux:
* kein korrekt funktionierender Framelimiter
* keine Raumkorrektur der LS (gibt zwar eine Alternative zu Equalizer APO, noch nicht probiert)
* keine Möglichkeit den max. Boost meines 5800X3D zu senken (PBO2-Tuner für Linux fehlt)
* kein Fancontrol (wird sicherlich eine Alternative geben, muss man wieder suchen)
* Idle Verbrauch der Graka deutlich höher weil der Vram in Idle nicht unter 9xxMhz geht
* Textscaling bei Bildschirmen mit hohen ppi manchmal problematisch
Und da reden wir noch nicht mal von dem Rest um jedes Spiel zum Laufen zu bringen. Wobei mir der Faugus Launcher schon ganz gut gefällt. Musste Lutris wieder aufgeben weil ich darunter Visual C++ nicht installiert bekam, was unter Faugus direkt funzte. Bei einer Sache gefällt mir Linux aber gut. Alan Wake 2 läuft unter Linux deutlich sauberer als unter Windows 11. Unter Win ist das Game seit mehreren Grafiktreibern völlig kaputt im Bereich Frametimes. Allerdings hatte ich unter Linux wieder starke Grafikfehler sobald ich nach oben in den Himmel schaute. Auch nicht wirklich geil. Aber vielleicht kann ich das noch fixen wenn ich mich damit mehr beschäftige. Unter Windows ist das Game auf Radeon völlig unspielbar. Stutter, Stutter...
hatte wer was gesagt:freak:
ist doch kein Ding, Du bist ja dein eigener Maßstab
gibt aber für die von Dir genannten Sachen durchaus Lösungen unter Linux
z.B Framelimiter kannst einfach mit dem entsprechenden VKD3D_FRAME_RATE
setzen.
Mir gings vor 10 Jahren ja ähnlich, war halt für jemand der früher 1x die Woche winXP wegen irgend einem Scheiß neu aufgesetzt hat nicht einfach.
dargo
2025-12-20, 14:41:29
Um wieder zum Thema zurück zu kommen... gibt es eine Möglichkeit MSBetweenDisplayChange in RTSS zu implementieren? Falls ja... bitte um eine einfache Erklärung wie man das machen kann. :)
gibt aber für die von Dir genannten Sachen durchaus Lösungen unter Linux
z.B Framelimiter kannst einfach mit dem entsprechenden VKD3D_FRAME_RATE
setzen.
Ich weiß wie man einen Framelimiter unter Linux setzt. Das geht auch mit GOverlay @MangoHud. So ein Framelimiter bringt aber absolut gar nichts wenn das Bild mit diesem bei FG stottert. Insofern bitte nicht irgendwelche wilden Vorschläge hier bringen die nicht richtig funktionieren. Wenn du was selbst getestet hast und es funktioniert perfekt, dann gerne.
aufkrawall
2025-12-20, 14:42:14
https://forums.guru3d.com/threads/rtss-overlay-editor-megathread.436443/page-41#post-6356131
Eadzon64
2025-12-20, 14:47:18
Um wieder zum Thema zurück zu kommen... gibt es eine Möglichkeit MSBetweenDisplayChange in RTSS zu implementieren? Falls ja... bitte um eine einfache Erklärung wie man das machen kann. :)
Ich weiß wie man einen Framelimiter unter Linux setzt. Das geht auch mit GOverlay @MangoHud. So ein Framelimiter bringt aber absolut gar nichts wenn das Bild mit diesem bei FG stottert. Insofern bitte nicht irgendwelche wilden Vorschläge hier bringen die nicht richtig funktionieren. Wenn du was selbst getestet hast und es funktioniert perfekt, dann gerne. wegen RTSS muss mich da kurz schlau machen...
bist jetz "bappig, ich kann ja wohl nix für deine Kompetenzen!
bei mir lüppt es ja und hab auch beschrieben, wenn aber über Umwege wie Mangohud gehst anstatt die nativen Implementierungen zu nehmen bestehst:rolleyes:
meiner Meinung nach verlässt du dich da zu sehr auf Steam, wo zwar vieles out of the box läuft aber in deinem Szenario mit optiscaler und Co wo halt wirklich auf die neuesten Software Biblitheken angewiesen bis, ist es eher hinderlich
setz dich doch mal etwas mit Lutris und Co auseinander, damit hast ein Frontend in dem vieles ohne Kommandozeile oder per copy und paste einstellen kannst und das will man ja als Win User erst mal. Ich weiß das.
@aufkrawal
Danke!l
dargo
2025-12-20, 14:50:02
bei mir lüppt es ja.
Das glaube ich dir ohne Beweise erstmal nicht da schon unter Windows nur der Treiber-Framelimiter bei FG ordnungsgemäß funktioniert.
https://forums.guru3d.com/threads/rtss-overlay-editor-megathread.436443/page-41#post-6356131
Danke schon mal dafür. Aber wie bekomme ich das in RTSS sauber rein? Wenn ich das lade sehe ich dein Overlay welches über meins liegt. Was dann natürlich kacke aussieht. :freak:
aufkrawall
2025-12-20, 14:56:46
Danke schon mal dafür. Aber wie bekomme ich das in RTSS sauber rein? Wenn ich das lade sehe ich dein Overlay welches über meins liegt. Was dann natürlich kacke aussieht. :freak:
Die sauberste Lösung ist, alle anderen Overlay- und Sensor-Quellen in Afterburner abzuschalten und alles im RTSS Overlay Editor Plug-In einzurichten.
dargo
2025-12-20, 15:05:49
Die sauberste Lösung ist, alle anderen Overlay- und Sensor-Quellen in Afterburner abzuschalten und alles im RTSS Overlay Editor Plug-In einzurichten.
:up:
https://i.postimg.cc/rzgvrXhX/APlague-Tale-Requiem-x64-exe-Verknupfung-2025-12-20-15-03.jpg (https://postimg.cc/rzgvrXhX)
Kann ich auch die Farbe rot und orange noch ändern? Weil das wird mir spätestens mit HDR die Augen ausbrennen. :D
PS: Mist... leider fehlen auch die beiden Hotspots @GPU und GDDR6. Kannst du da noch was basteln? Oder zu viel Aufwand? Wobei du da scheinbar zwei verschiedene Overlays im Paket hast. Das zweite habe ich noch nicht ausprobiert.
aufkrawall
2025-12-20, 15:09:26
Da musst du dich schon selbst reinfriemeln. Ich hab das auch nur so weit verfolgt, um meine Ansprüche erfüllen zu können, was nicht irgendwelche Design-Preise gewinnt oder Feature-Monster darstellt. Ist schon etwas nervig, aber gibt keine Alternative...
dargo
2025-12-20, 15:21:40
Ok... dann muss ich erstmal damit leben. Die +16-17°C für den GPU-Hotspot muss ich mir dann gedanklich dazu dichten. :D Und der Vram ist in der Regel dann auch grob das was der GPU-Hotspot ist. Gibt es einen guten Guide wie man das Overlay weiter verfeinern kann?
btw.
Lade gerade ein Video von GoT hoch wo für mich persönlich das implementierte FG sehr überzeugend rüber kommt. Später nehme ich noch ein Video auf wo es für mich mikroruckelt. Mal sehen wie stark die Spikes auseinander driften. :tongue:
aufkrawall
2025-12-20, 15:23:03
Gibt es einen guten Guide wie man das Overlay weiter verfeinern kann?
Imho einfach Gemini 3.0 Pro oder Kimi K2 Thinking fragen. Kostet sonst viele Stunden mehr.
Edit: Quick & Dirty-Lösung wäre noch den alten Graphen mit AB-Quellen beizubehalten und den MSBetweenDisplayChange im Overlay Editor einfach darunter oder daneben zu platzieren.
raffa
2025-12-20, 15:24:26
Das glaube ich dir ohne Beweise erstmal nicht da schon unter Windows nur der Treiber-Framelimiter bei FG ordnungsgemäß funktioniert.
Ich hab viele Framelimiter durchprobiert, und bisher keinen gefunden, der mit fsr fg vernünftig funktioniert. LSFG-vk dagegen kann man einfach mit Mangohud limiten.
Falls sich das mal ändert, sag ich bescheid!
dargo
2025-12-20, 15:31:04
Ich hab viele Framelimiter durchprobiert, und bisher keinen gefunden, der mit fsr fg vernünftig funktioniert. LSFG-vk dagegen kann man einfach mit Mangohud limiten.
Falls sich das mal ändert, sag ich bescheid!
Danke, hatte ich mir schon gedacht. :)
btw.
Hier Framegen mit MSBetweenDisplayChange im Overlay. Kann das aber noch nicht richtig einschätzen was die Spikeintensität angeht. :tongue:
ggHW3hD4qmo
Edit: Quick & Dirty-Lösung wäre noch den alten Graphen mit AB-Quellen beizubehalten und den MSBetweenDisplayChange im Overlay Editor einfach darunter oder daneben zu platzieren.
Sehr gut Idee. (y)
aufkrawall
2025-12-20, 15:37:07
Hier Framegen mit MSBetweenDisplayChange im Overlay. Kann das aber noch nicht richtig einschätzen was die Spikeintensität angeht. :tongue:
Mit <G=msBetweenDisplayChange,0,0,1,0,50,0> kann man das imho anhand der Spike-Höhe ganz gut abschätzen. Ich merke mit DLSS 4 FG aber auch nicht jeden Mini-Spike, der damit angezeigt wird. Mit FSR FG wird der Graph allerdings deutlich schlechter und ist entsprechend auch subjektiv merkbar.
dargo
2025-12-20, 16:11:52
So finde ich dein Overlay schon angenehmer. :)
https://i.postimg.cc/yWK67HGF/Ghost-of-Tsushima-2025-12-20-16-05.jpg (https://postimg.cc/yWK67HGF)
Im Prinzip kann rot bleiben, nur die Deckkraft musste runter. Und orange habe ich gegen weiß ausgetauscht mit Deckkraft dann 70%. Orange ist für HDR dann übel. Daraus wird dann sehr grelles rot. Zumindest weiß ich schon mal wie ich die einzelnen Farben ändern kann. :) Wie ich in das Overlay aber zusätzlich noch die HotSpots reinbekomme habe ich noch nicht rausgefunden. :redface: Nur wie ich an die Daten dran komme. :tongue: Da muss ich mich noch reinfuchsen.
btw.
Kannst du mir verraten warum die CPU 2x Auslastungsanzeige hat?
Eadzon64
2025-12-20, 16:40:43
Ich hab viele Framelimiter durchprobiert, und bisher keinen gefunden, der mit fsr fg vernünftig funktioniert. LSFG-vk dagegen kann man einfach mit Mangohud limiten.
Falls sich das mal ändert, sag ich bescheid!
habt ihr schon recht, habe Framegen immer deaktiviert, weil es mir noch schnurz ist
bin kein CS Spieler, sondern halt der gemütliche
kann der aufkrawall andere knechten:biggrin: beim CS
dargo
2025-12-20, 16:51:08
Ich verstehe nur Bahnhof. :freak:
L0JZalH9hSw
Ich dachte mit MSBetweenDisplayChange sehe ich ordentliche Spikes in den Frametimes wie bei DF wenn das Game mit FG stuttert? In AC: Shadows sehe ich davon nichts während das Bild fröhlich vor sich hin mit freien Frames in dieser Bewegung stuttert in echt auf dem Bildschirm. :uconf2:
Eadzon64
2025-12-20, 16:56:24
glaube es auch langsam:freak:!
ich konzentrier mich jetzt auf mein eigenes Setup bei dem alles soweit läuft
viel Erfolg noch!
dargo
2025-12-20, 17:47:52
Schön ist es nicht, aber immerhin habe ich die Hotspots jetzt auch drin. :D
https://i.postimg.cc/V0vqHH3k/Ghost-of-Tsushima-2025-12-20-17-44.jpg (https://postimg.cc/V0vqHH3k)
Aber was bringt das alles wenn der Frametimegraphen trotz MSBetweenDisplayChange keine Ausschläge anzeigt? Irgendwie nischts. :freak:
aufkrawall
2025-12-20, 19:45:43
Bin ich überfragt. Sieht hier schlecht aus, wenn es auf dem Schirm mit FG auch schlecht aussieht. Hab kein Ubimüll zum Testen.
dargo
2025-12-20, 21:16:26
Keine Ahnung was ich noch nehmen kann. Cronos hätte ich noch im Angebot.
0XqRohg-YeA
In echt würde ich sagen die Ausgabe sieht recht sauber aus.
Und hier Banishers. Hier sehe ich sehr gut die Mikroruckler bzw. das Zittern in der Umgebung wenn die Spikes kommen.
dK6ZyOnPZWA
PS: nicht über die komischen Farben wundern. Keine Ahnung warum das so seltsam (viel zu dunkel) in SDR mit ReLive aussieht, hatte ich so auch noch nicht. Womöglich Treiber in dem Bereich im Anus bei AV1. Wobei ergibt auch keinen Sinn, schließlich wurden die ersten beiden Videos auch in SDR mit ReLive aufgenommen. Keine Ahnung, egal.
Tobalt
2025-12-21, 10:08:09
@dargo weil du Linux und PBO2 erwähnt hattest, habe ich mal gesucht. Ich möchte absehbar auch wechseln, wenn Win 10 irgendwann gar nicht mehr läuft.
Es gibt diese Umsetzung für Linux, habe es aber nicht getestet:
https://github.com/svenlange2/Ryzen-5800x3d-linux-undervolting
dargo
2025-12-21, 11:00:39
Das sieht mir nur nach dem negativen CO für Linux aus falls das Bios sowas nicht anbietet. Ich brauche das nicht weil mein Bios das schon von sich aus bietet. Was ich brauche ist die Limitierung vom max. Boosttakt innerhalb der neuen V/F-Kurve und das sehe ich hier nicht.
btw.
Ich konnte nun endlich die Grafikfehler von Alan Wake 2 unter Linux (Bazzite) loswerden nachdem ich das Game komplett neu unter Linux installiert habe. Immerhin ist das schon mal weg. Aber richtig sauber läuft das unter Linux auch nicht. Manchmal gibt es Spikes in den Frametimes sobald ich mich drehe, gut sichtbar in MangoHud. Dennoch würde ich sagen es läuft auf RDNA4 unter Linux insgesamt sauberer als unter Windows 11.
Edit:
Hier hätte ich noch CP77 im Angebot.
PGrG8wxQ4jU
Fürs Auge würde ich sagen sieht das real am Bildschirm schon sehr sauber aus. Manchmal meine ich aber, dass ich ganz minimales Mikrostutter bzw. Tearing in kleinen Bildbereichen bei der Umgebung noch erkenne. Ist aber schon extrem schwer zu sehen.
Und hier noch mit SMT Off.
Z4-MR9aIiZE
Mir kommt das so vor, als wenn die Frametimes mit SMT Off sauberer sind. Eine nie endende Story von CDPR. ;D Müsste ich aber noch in der Stadt testen.
dargo
2025-12-21, 17:21:00
Hier hätte ich noch Hellblade 2 im Sortiment.
8h_aJts2MgQ
Für meine Augen sieht das real absolut sauber bei der Frameausgabe aus am Bildschirm. Input ist allerdings hier über den OptiScaler OptiFG, Output = FSR 4.0.0.
Edit:
Ich glaube ich habe die perfekte Kombination für ein absolut flüssiges FG-Erlebnis mit freien Frames dank Hellblade 2 für AC: Shadows gefunden.
Input = OptiFG
Output = FSRFG
https://i.postimg.cc/PC8xq0Lp/Assassin-s-Creed-Shadows-2025-12-21-17-42.jpg (https://postimg.cc/PC8xq0Lp)
In AC: Shadows habe ich auch den worst case für sowas genommen und zwar einen Aussichtspunkt freischalten. Danach gibt es immer einen schön gleichmäßigen Kameraschwenk. Der sah absolut sauber aus. Etwas Feedback dazu wäre von anderen RDNA4 Usern nicht verkehrt. Testet das bitte und gibt Rückmeldung. :)
robbitop
2025-12-21, 18:11:00
Ist das neu dass man OptiFG als Input nehmen kann? OptiFG war ja iirc so ein Hack um an die Motionvectors zu kommen. Allerdings gab es dann immer Probleme mit dem HUD. Hast du damit auch Artefakte?
dargo
2025-12-21, 18:46:04
Mit HUDFix + Extended ist auch der Kompass sauber.
robbitop
2025-12-21, 19:21:41
Keine Crashes? Zumindest war der hudfix mal etwas Crash sensitiv. Und manchmal trotz hudfix blieben trotzdem ein paar Probleme mit dem HUD. Aber schön, dass das bei dir so gut funktioniert :)
dargo
2025-12-21, 20:04:07
Keine Crashes?
Nein.
DrFreaK666
2025-12-22, 06:09:35
Etwas Feedback dazu wäre von anderen RDNA4 Usern nicht verkehrt. Testet das bitte und gibt Rückmeldung.
Bin grad im Urlaub und hab hier nur einen Mini-PC mit 680m. ^^
Und wäre nice wenn ihr Optiscaler auf den Thread beschränken würdet
dargo
2025-12-22, 09:51:19
Mir gibt das Thema mit "MsBetweenDisplayChange" keine Ruhe. :redface:
Kann mir mal bitte einer erklären warum die Spikes bei DF dermaßen stark zu sehen sind und bei mir nicht wenn ich Probleme bei der Bildausgabe mit FG am Bildschirm erkenne?
https://i.postimg.cc/7JGQVK4w/Screenshot-2025-12-22-094609.jpg (https://postimg.cc/7JGQVK4w)
@aufkrawall
Woran kann ich bei deinem Overlay erkennen, dass auch tatsächlich "MsBetweenDisplayChange" verwendet wird?
robbitop
2025-12-22, 10:45:01
Ob er ggf die generierten frames nicht misst? Gerade wenn man mit hooks in der Chain arbeitet (Optiscaler, irgendwelche anderen Inputs) wäre das vorstellbar oder? Sieht es ohne Optiscaler denn genauso unproblematisch aus? Passen die MS Werte denn zu den FPS inkl generierter Frames (Kehrwert der FPS bilden).
dargo
2025-12-22, 12:19:38
Ob er ggf die generierten frames nicht misst? Gerade wenn man mit hooks in der Chain arbeitet (Optiscaler, irgendwelche anderen Inputs) wäre das vorstellbar oder? Sieht es ohne Optiscaler denn genauso unproblematisch aus?
Die ganze Sache ist etwas kompliziert, man verliert schon langsam den Überblick. :freak:
Ich habe jetzt AC: Shadows mir genauer mit freien Frames @Vanilla angesehen. Sprich... ohne den OptiScaler. Alles was der OptiScaler mitbringt also gelöscht und das Spiel von UBI überprüfen lassen damit ggf. fehlende Dateien durch Originale ersetzt werden. Jetzt sieht AC: Shadows bei mir mit freien Frames + FG sauber aus. X-D Dabei lief das früher nie ganz sauber mit freien Frames + FG. :crazy: Ob das jetzt wirklich nur daran liegt, dass ich jetzt Vsync On aufzwinge? Ich weiß es ehrlich gesagt nicht. Kleine Randnotiz... in AC: Shadows wird FSR 4.0.3 über den Treiber aufgewertet und FG nicht. Zumindest zeigt mir das so der Treiber an.
PS: das Hauptproblem bei der ganzen Geschichte ist... wenn irgendwo ein kleiner Spike in den Frametimes zu sehen sein sollte dann weiß ich nicht ob der von FG oder dem Spiel generell kommt welches nicht 100% sauber läuft. Ich wüsste nicht wie man das auseinander halten soll.
Hier @Vanilla.
0pTX0I6JOL0
Beim Kameraschwenk hatte ich an einer Stelle einen einzigen Mikrozuckler bemerkt, vielleicht schon Makro. :tongue: Sonst war das alles sauber am Bildschirm fürs Auge. Aber wie gesagt... wenn so ein einzelner Mikrozuckler auftaucht kann ich nicht genau sagen ob der vom FG kommt oder generell von Spielengine. Den Minizuckler sieht man übrigens im Graphen bei ca. 0:45, den ich am Bildschirm bemerkt hatte.
Eadzon64
2025-12-22, 12:58:55
Hier hätte ich noch Hellblade 2 im Sortiment.
https://youtu.be/8h_aJts2MgQ
Für meine Augen sieht das real absolut sauber bei der Frameausgabe aus am Bildschirm. Input ist allerdings hier über den OptiScaler OptiFG, Output = FSR 4.0.0.
Edit:
Ich glaube ich habe die perfekte Kombination für ein absolut flüssiges FG-Erlebnis mit freien Frames dank Hellblade 2 für AC: Shadows gefunden.
Input = OptiFG
Output = FSRFG
https://i.postimg.cc/PC8xq0Lp/Assassin-s-Creed-Shadows-2025-12-21-17-42.jpg (https://postimg.cc/PC8xq0Lp)
In AC: Shadows habe ich auch den worst case für sowas genommen und zwar einen Aussichtspunkt freischalten. Danach gibt es immer einen schön gleichmäßigen Kameraschwenk. Der sah absolut sauber aus. Etwas Feedback dazu wäre von anderen RDNA4 Usern nicht verkehrt. Testet das bitte und gibt Rückmeldung. :)
auf jeden Fall exzellente Spiele Wahl!
Hellblade steht jetzt auch schon ewig auf meiner Liste, konnte es als komplett Edition gestern endlich im Sale bekommen.
Unterstützt das von Haus aus gar kein FSR? Habe gelesen das DLSS4, rmit letztem Patch unterstützt wird. Also perfektes Testfeld für____ oder?
Darf den Namen nicht sagen, sonst wird DrFreaK666 böse:wink:
dargo
2025-12-22, 14:03:41
Hellblade steht jetzt auch schon ewig auf meiner Liste, konnte es als komplett Edition gestern endlich im Sale bekommen.
Unterstützt das von Haus aus gar kein FSR?
FSR3 ist drin, ansonsten siehst du hier alles was du brauchst.
7VwjEtQNa5c
Eadzon64
2025-12-22, 17:34:57
FSR3 ist drin, ansonsten siehst du hier alles was du brauchst.
https://youtu.be/7VwjEtQNa5c
Danke,
dann sind ja schon mal gute Voraussetzungen gegeben
nur Zeit muss Mann finden
es Weihnachtet halt doch schon sehr:smile:
dargo
2025-12-22, 17:59:17
Ich nehme meine Aussage zu FSR-FG @Vanilla in AC: Shadows zurück. Das ist alles zu random. Die eine Szene sieht super sauber aus, eine andere wieder nicht. Will man es überall sauber haben kommt man um den Treiberlimiter nicht herum bei FG.
The_Invisible
2025-12-22, 18:10:08
Will man es überall sauber haben kommt man um den Treiberlimiter nicht herum bei FG.
Bei FSR-FG ;)
dargo
2025-12-22, 18:23:58
Check mal den Threadtitel... nicht, dass du dich verlaufen hast.
TheAntitheist
2025-12-22, 18:41:41
Check mal den Threadtitel... nicht, dass du dich verlaufen hast.
du hast hier selbst oft von optiscaler FG gesprochen also bitte... dann auf den Threadtitel zu verweisen ist auch nicht clever
Eadzon64
2025-12-22, 19:20:39
Check mal den Threadtitel... nicht, dass du dich verlaufen hast.
:biggrin: finde es immer wieder zum schießen
unsere S.T.A:L.K.E.R Grünen Jungs
kann auch gut ohne Framegen von daher ist mir das sowas von
aber FSR und seine Entwicklung, zusammen mit DLSS, will ich auch nicht mehr missen!
edit: nimmt mir jetzt endlich jemand die 5090 Ventus ab?
DrFreaK666
2025-12-23, 01:50:06
...Darf den Namen nicht sagen, sonst wird DrFreaK666 böse:wink:
Hä?
Eadzon64
2025-12-23, 08:15:11
Hä?
moin:smile:
blickst ned?
natürlich wegen on topic bleiben
Mist schon wieder
erstmal den FSR Zottel kürzen gehen:eek: (heißt, hab einen Friseurtermin)
OgrEGT
2025-12-23, 08:20:22
(...)
edit: nimmt mir jetzt endlich jemand die 5090 Ventus ab?
Warum?
Eadzon64
2025-12-23, 08:27:07
Warum?
weil, wer FSR nutzt und nicht fragt bleibt Dumm?
viele bunte Sachen, die gibt es überall zu sehn...
DrFreaK666
2026-01-09, 11:24:20
Zdravkovic also said a formal beta track for RDNA 3 is not planned today. However, Zdravkovic reacted positively to the idea and asked for suggestions on how to frame it as an opt-in experiment, with clear expectations.
https://videocardz.com/newz/amd-leaves-the-door-open-to-fsr-4-like-support-on-rdna-3
Ach ne. Echt jetzt? Das ist schon seit dem FSR4-Release eine gute Idee und spätestens seit dem Leak
][immy
2026-01-09, 12:05:50
https://videocardz.com/newz/amd-leaves-the-door-open-to-fsr-4-like-support-on-rdna-3
Ach ne. Echt jetzt? Das ist schon seit dem FSR4-Release eine gute Idee und spätestens seit dem Leak
Rdna 3 raus zu nehmen ist auch bescheiden, weil alle mobilen CPUs rdna3(+) Technik drin haben aber kein rdna4.
Wird man Asus/Microsoft, Lenovo & co schlecht erklären können.
robbitop
2026-01-09, 13:13:49
Ich sag's immer wieder: RTG hat ein Führungsproblem. Ist aber wahrscheinlich egal weil man mit AI ohnehin mehr verdient.
Wenn man kein RDNA2 und 3 mehr neu verkaufen würde, wäre das ja irgendwie fast noch navollziehbar. Aber so?
Wenn man kein RDNA2 und 3 mehr neu verkaufen würde, wäre das ja irgendwie fast noch navollziehbar. Aber so?
Genau umgekehrt. Da RDNA3 noch verkauft wird, sind Benchmarkzahlen weiterhin relevant.
Leider sind fast alle Reviewer immer noch zu blöd um Upscaling mit gleicher Bildqualität anstatt gleicher Renderauflösung zu vergleichen, sieht man ja aktuell perfekt mit DLSS4.5.
Würde AMD ausschließlich RDNA4 verkaufen wäre es ein leichtes FSR4 für alte Generationen optional anzubieten, schließlich hätte man dan den längeren Balken und die bessere BQ für die aktuell verkaufte Hardware zum herzeigen.
aufkrawall
2026-01-09, 15:29:56
Sie hatten schon vor einem Jahr gesagt, man "prüfe" RDNA3. Dann hatte sich jeder Hoffnung mit Redstone gemacht, inkls. Vulkan-Support. Jetzt kommt wieder das gleiche vage Geschwafel wie vor einem Jahr, wo man einfach gar nichts konkret verspricht. Sollte man sich als Kunde wirklich nicht bieten lassen.
M4xw0lf
2026-01-09, 16:14:56
Dank den wunderbaren Nerds von Optiscaler sehe ich diese Thematik ganz entspannt.
DrFreaK666
2026-01-09, 17:08:03
Dank den wunderbaren Nerds von Optiscaler sehe ich diese Thematik ganz entspannt.
Da ist das Problem mit Anti-Cheat.
Aber da ich nicht online spiele, ist mir das ziemlich bums
dargo
2026-01-09, 17:20:59
Sollte man sich als Kunde wirklich nicht bieten lassen.
Habe ich auch nicht, habe RDNA3 aus anderen Gründen übersprungen. Bekomme ich jetzt ein Keks?
Dank den wunderbaren Nerds von Optiscaler sehe ich diese Thematik ganz entspannt.
Beim letzten build hatte im neben FSR 4.0.3 DLSS zur Auswahl. War mir dann doch etwas zu nerdig. :D
M4xw0lf
2026-01-09, 17:21:26
Da ist das Problem mit Anti-Cheat.
Aber da ich nicht online spiele, ist mir das ziemlich bums
Ebenso. Online-MP-Spieler verdienen eh keine schönen Dinge :ufinger:
Ebenso. Online-MP-Spieler verdienen eh keine schönen Dinge :ufinger:
Warum all der Hass.
Ex3cut3r
2026-01-11, 11:10:56
Wie aktiviert man den aktuell auf RDNA 3 und 2 FSR 4.0 als INT8 Version? Braucht man da nicht irgendeinen mittlerweilen Uralt Treiber? Ich finde es eine große Frechheit, dass FSR 4 selbst als Spar Version nicht auf RDNA 2 und 3 offiziell kommt.
dildo4u
2026-01-11, 11:37:54
Was ist die Frechheit das wurde nie versprochen ich bezweifle das jemand absichtlich eine alte Karte gekauft hat mit der Hoffnung auf FSR4.
Nur ein winziger Teil der Kunden hat den Leak überhaupt mitbekommen.
robbitop
2026-01-11, 11:51:46
Naja „alte Karte“. RDNA3 wird nach wie vor neu verkauft. RDNA2 zT auch. Jeweils insbesondere auch in APU Form. Aber auch nich als dGPU.
Du brauchst Optiscaler. Genaueres kann man dann auch ergooglen oder erstmal mit LLMs rausfinden. IIRC hat eadzone64 oder so hier auch Optiscalerbuilds verteilt die die INT8 Version enthalten. Forensuche benutzen :)
Relex
2026-01-11, 11:58:54
Was ist die Frechheit das wurde nie versprochen ich bezweifle das jemand absichtlich eine alte Karte gekauft hat mit der Hoffnung auf FSR4.
Nur ein winziger Teil der Kunden hat den Leak überhaupt mitbekommen.
Viele Kunden die darüber nicht bescheid wissen, hören vielleicht von FSR4, wissen aber nicht, dass es auf ihrer RDNA3 karte gar nicht unterstützt wird.
Aber ganz ehrlich, wer 500+€ für ne GPU ausgibt sollte das wissen oder kauft sowieso Nvidia (siehe Marktanteil) generell kaufen Leute Nvidia, wenn ihnen der Upscaler wichtig ist oder wichtig war. Gerade FSR2/3 war ja kaum konkurrenzfähig. Es wird also wenige RDNA2 und RDAN3 käufer geben, denen das so wichtig ist.
Die Zielgruppe die sich also überhaupt dafür interessiert dürfte bei AMD naturgemäß kleiner sein.
Ex3cut3r
2026-01-11, 12:23:03
@Relex: Nee, ich bin ja oft deiner Meinung, aber diesmal sehe ich das anders. Die 7900 XTX wurde hier in DE von einigen damals z. B. gerade wegen der 24 GB gegenüber 4080 vorgezogen (Radeon hat hierzulande ja komischerweise immer noch einen ziemlich starken Absatz).
Dafür haben viele auch über 1.000 € hingelegt, und das ist noch gar nicht so lange her. Stand 2026 ist Ada unter anderem genau deshalb deutlich besser gealtert, als RDNA 3 IHMO. VRAM hin oder her.
Die "Spar" Version von FSR 4.0 wäre halt das mindeste für RDNA 2 und 3. Meiner Meinung notfalls auch nur RDNA 3.
Aber die AMDler wehren sich gefühlt ja auch gar nicht, die haben alle schon wieder ne 9070 XT gekauft, obwohl die Raster Leistung vs 7900 XTX sogar ein Downgrade ist. :freak:
Aber gutes Upscaling war damals auch nur was Pixel Peeper, das waren damals die Aussagen unter anderem der Radeon User. Komischerweise haben dann aber alle gleich den Wechsel auf RDNA 4 für FSR 4 vollzogen. :biggrin:
DrFreaK666
2026-01-11, 12:44:04
Wie aktiviert man den aktuell auf RDNA 3 und 2 FSR 4.0 als INT8 Version? Braucht man da nicht irgendeinen mittlerweilen Uralt Treiber? Ich finde es eine große Frechheit, dass FSR 4 selbst als Spar Version nicht auf RDNA 2 und 3 offiziell kommt.
Für mein RDNA2 benötige ich den Uralt-Treiber. Alternativ kann man alte Dateien mit neuen Treibern kombinieren, aber das gab bei mir nur lustige bunte Artefakte
robbitop
2026-01-11, 12:44:13
Wobei man konstatieren muss dass die 9070XT kein Nachfolger der 7900XTX ist sondern eher der 7800XT. AMD hat bei RDNA4 keine high end sku. Bei rdna3 schon.
Von last gen high end zu next gen midrange ist eigentlich auch kein üblicher/sinnvoller upgrade Pfad oder?
Relex
2026-01-11, 12:46:35
@Ex3cut3r
Ich gebe dir absolut recht, dass das ne beschissene Situation ist.
Aber jemand der 1000€ für eine GPU hinlegt UND dem Upscaling besonders wichtig ist und sich dann bewusst für eine GPU entschieden hat, die bis dato nur FSR2 konnte, ist dann irgendwie auch selber schuld, wenn er sich auf irgendwelche Versprechen oder Mutmaßungen zu künftigen Entwicklungen stützt.
Zum Kaufzeitpunkt war ganz klar ersichtlich, dass AMD beim Upscaling deutlich zurück liegt und es war allseits bekannt, dass Nvidia Tensor Cores für KI nutzt (KI wird durch training besser) und die AMD Karte weder die gleichen Datenformate ausreichend beschleunigen kann, noch allgemein gut bei beschleunigen von derartigem Workload ist (während ein Spiel läuft), weil es keine dedizierten Kerne dafür gibt.
Die 24 GB VRAM waren natürlich ein Argument. Ganz klar. Genauso wie die 16 GB bei RDNA2. Aber selbst bei RDNA2 war damals schon klar, dass man bei RDNA2 den VRAM bekommt und bei Nvidia eben das viel bessere DLSS Upscaling. Das war der Selling point für AMD bzw. nvidia.
Das war also nicht erst seit RDNA3 ein Thema sondern schon mit RDNA2.
Wer dann wirklich auf Upscaling wert legt und dann 1000€ für ne AMD Karte mit FSR2 und ohne KI einheiten rausballert, ist in meinen Augen selbst schuld. Wer 1000€ ausgibt weiß idr. genau bescheid. Es trotzdem zu tun und sich dann beschweren ist einfach nur naiv oder dumm, sorry. Genauso wie es dumm war, ne 8 GB karte zu kaufen. (ne Karte die nichtmal so viel VRAM wie eine Konsole hat ist eben zum scheitern verurteilt) Aber das ist meine Meinung.
Ich finds witzig jetzt so zu tun, als hätte man das alles nicht erahnen können. Natürlich nicht genau so wie es jetzt gekommen ist, aber wie viele Warnhinweise braucht man denn bitte? AMD war ewig lange beim Upscaling zurück und hat sich kaum für AI Beschleunigung in consumer Hardware interessiert. Und trotzdem steckt man ihnen 1000€ in den Hals in der Hoffnung, dass sie Upscaling mit weniger KI Beschleunigung mindestens genauso gut hinbekommen wie Nvidia? Dass sie in RT genauso schnell sind wie Nvidia, wenn man es "nur richtig optimiert"?
Der größere VRAM bei AMD war kein "hey, wir machen es fair". Es war gerade zu Ampere zeiten eher ein eingeständnis dass man nicht mithalten kann und eine Verzweiflungstat mit der man die Karten trotzdem verkaufen konnte (eine relativ erfolgreiche zugegeben, weil Nvidia besonders geizig war). Trotzdem war es ein eingeständnis, dass man bei den Features weiter hinterher hinkt. Wäre AMD nicht damals schon zu dieser logischen Erkenntnis gekommen gäbe es heute auch kein RDNA4. Die Entwicklung dauert schließlich ein paar Jahre...
Aber seis drum. Ich will nicht schon wieder nur im AMD Thread bashen. Ich lass gut sein, ihr seid mich schon wieder los...
robbitop
2026-01-11, 13:00:18
Wenn man ein bisschen Nerd ist (und keine Anticheat Spiele spielt), ist die 7900XTX schon trotzdem noch ziemlich servicable IMO. Optiscaler sei dank. Dann kann man sie mit FSR4 INT8 Model laufen lassen. Framegeneration kann man auch dazu mischen (FSR FG oder XeSS FG oder OptiFG) und AL2 dazuholen.
Dazu RT runterdrehen. Optional Wakü und fettes TDP Bios drauf und mit 3,2 GHz takten. Dann geht da schon was. Aber ist halt out of the box nicht ideal.
DrFreaK666
2026-01-11, 14:46:09
...Ich will nicht schon wieder nur im AMD Thread bashen. Ich lass gut sein, ihr seid mich schon wieder los...
Danke :D
Ex3cut3r
2026-01-11, 15:27:50
Wenn man ein bisschen Nerd ist (und keine Anticheat Spiele spielt), ist die 7900XTX schon trotzdem noch ziemlich servicable IMO. Optiscaler sei dank. Dann kann man sie mit FSR4 INT8 Model laufen lassen. Framegeneration kann man auch dazu mischen (FSR FG oder XeSS FG oder OptiFG) und AL2 dazuholen.
Dazu RT runterdrehen. Optional Wakü und fettes TDP Bios drauf und mit 3,2 GHz takten. Dann geht da schon was. Aber ist halt out of the box nicht ideal.
Ja ok. Aber du musst halt trotzdem siehe Kommentar von Dr.Freak. einen richtig alten Treiber installiert haben, irgendwann geht das auch nicht mehr, vorallem wenn man neue Spiele spielen will.
Ich bleibe dabei, ich finds eine Frechheit von AMD, aber gut. Bin auch lieber raus.
@Relex. Ja gute Punkte von dir. Stimme ich auch zu. Aber hat die Community hat ja gezeigt, dass es möglich ist, mit der INT8 Spar Version, und daher kritisiere ich eher AMD selbst, als die RDNA 3 Käufer.
Lurtz
2026-01-11, 15:32:26
Dann ist es doch praktisch, dass RDNA2 eh im Maintenance Mode ist und auch bei RDNA3 kaum noch was passieren dürfte.
robbitop
2026-01-11, 15:32:37
Ja ok. Aber du musst halt trotzdem siehe Kommentar von Dr.Freak. einen richtig alten Treiber installiert haben, irgendwann geht das auch nicht mehr, vorallem wenn man neue Spiele spielen will.
Ich bleibe dabei, ich finds eine Frechheit von AMD, aber gut. Bin auch lieber raus.
Wieso muss man einen alten Treiber nutzen? FSR4 INT8 wird doch von Optiscaler injeziert. Unabhängig vom Treiber.
Das war DrFeak beschreibt betrifft anscheinend nur RDNA2. Ging ja un die 7900XTX also rdna3
Ex3cut3r
2026-01-11, 15:37:05
Ach ok. Für RDNA 3 braucht man keinen alten Treiber? Das war mir nicht bewusst, dann geht es wirklich mit dem Optiscaler ganz easy. Obwohl ich kein Freund von dem Tool bin.
DrFreaK666
2026-01-12, 08:35:29
Ach ok. Für RDNA 3 braucht man keinen alten Treiber? Das war mir nicht bewusst, dann geht es wirklich mit dem Optiscaler ganz easy. Obwohl ich kein Freund von dem Tool bin.
Optiscaler ist auch für Nvidia-User interessant. Dann kann man on the fly DLSS Presets ändern.
Das gehört aber eher in den Optiscaler-Thread
robbitop
2026-01-12, 10:38:50
Und auch für User von Geforce 20/30 Series um FG zu bekommen. ;) (XeSS FG und DLSS und XeLL oder Reflex kombinieren)
Ex3cut3r
2026-01-13, 13:59:42
Optiscaler ist auch für Nvidia-User interessant. Dann kann man on the fly DLSS Presets ändern.
Das gehört aber eher in den Optiscaler-Thread
Ne danke, ich mag das Tool nicht, stürzt mir auch immer noch regelmäßig ab, bzw. bringt mir Spiel XYZ zum abstürzen.
robbitop
2026-01-13, 14:31:21
In der Hinsicht ist 2025 wohl ordentlich was passiert. Ich habs zuletzt 2025 im April getestet mit der 3080 und da ist es mir zu oft gecrasht und ging bei einigen Spielen nicht. Was man so im Forum sah ist dass seit dem wohl einiges passiert ist was Kompatibilität und Stabilität passiert ist. Man muss allerdings darauf achten eine aktuelle nightly build zu nehmen weil die stables ganz schön hinterher hängen.
Ex3cut3r
2026-01-13, 16:15:25
Ich habe das letzte mal im November mit Callisto Proctocol probiert, hat nicht geklappt und brachte das Game zum abschmieren. Hab dann eine DLSS Mod von Nexus geladen und die DLL ausgetauscht, und per Inspector damals noch Preset K eingestellt, ging ohne Probleme.
robbitop
2026-01-13, 16:20:40
War es eine frische nightly build im November? (nur aus Interesse gefragt)
Ex3cut3r
2026-01-13, 17:52:19
Ja genau von Github. Die neuste damals.
aufkrawall
2026-01-13, 18:04:23
Die von GitHub ist aber meist uralt, im Discord gibt es meist viel neuere Builds (warum auch immer).
@Relex: Nee, ich bin ja oft deiner Meinung, aber diesmal sehe ich das anders. Die 7900 XTX wurde hier in DE von einigen damals z. B. gerade wegen der 24 GB gegenüber 4080 vorgezogen (Radeon hat hierzulande ja komischerweise immer noch einen ziemlich starken Absatz).
Da kann man nur sagen selbst schuld. Wer spätestens nach DLSS2 noch einer Karte ohne AI-Acceleration gekauft hat ist einfach nur dumm.
Ex3cut3r
2026-01-13, 19:19:44
Die von GitHub ist aber meist uralt, im Discord gibt es meist viel neuere Builds (warum auch immer).
Ok. Ich brauche das Tool nicht und verzichte auch sehr gerne drauf. Das lasse ich lieber für AMD User übrig. :biggrin:
Sollen die damit Ihren Spaß haben, meins ist das nicht. Obwohl ich damals noch DLSS Tweaks mit Ini fuchteln mitgemacht habe. Das lief wengistens immer.
robbitop
2026-01-13, 20:01:32
Die von GitHub ist aber meist uralt, im Discord gibt es meist viel neuere Builds (warum auch immer).
Aber auch komisch oder? Auf github gibt es bei den nightly fast jeden Tag eine neue Version. Wie kann die denn widerum hinter denen im Discord sein?
Vielleicht hatte ich das ja auch falsch verstanden aber so kam es bei mir an: im Discord wird mit der neusten Codebasis rumexperimentiert und rumgeforkt. (und dort werden soweit ich verstanden habs keine kompilierten Versionen verteilt sondern nur der Sourcecode? Eadzone64 hat sich den ja da immer geholt, kompoliert hnd dann hier gepostet) Aber kA vielleicht ist das auch quatsch und ich hab es falsch interpretiert. Aber ist schon merkwürdig dass es dann so viele tägliche nightlys auf github gibt.
aufkrawall
2026-01-13, 20:09:00
Wo gibt es Nightlies auf Github? Bei den Actions ist das letzte Build von Anfang Dezember. Wenn es Commits auf Github gibt, heißt das nicht, dass es dazu auf Github automatisch Builds gibt.
Warum das so bescheuert mit den Builds nur über Discord gemanagt ist? Kann ich dir auch nicht sagen.
Ansonsten kann sich jeder die kostenlose Version von Visual Studio installieren und sich ein simples Script für eigene Nightlies basteln, hatte ich auch schon gepostet.
robbitop
2026-01-13, 20:54:44
Hm zumindest im April gab es da täglich neue Nightly Builds unter „releases“. Hat sich das inzwischen ggf geändert?
Habe jetzt nur kurz mit Handy geschaut aber seit Sommer 2025 scheint da nichts neues mehr zu sein: https://github.com/optiscaler/OptiScaler/releases/tag/nightly
Selbst kompilieren ist nicht jedermanns Sache. Solche Tools überhaupt zu nutzen schränkt den Kreis schon ziemlich ein. Dann noch zu kompilieren wahrscheinlich um weitere Größenordnungen.
Fand ich als ich es getestet hatte vor fast einem Jahr super dass es da wirklich häufig geupdatete nightlys fertig zum download gab auf github. Anscheinend nun nicht mehr.
DrFreaK666
2026-01-13, 20:57:24
falscher Thread !?
TheGood
2026-01-17, 09:21:12
@Relex: Nee, ich bin ja oft deiner Meinung, aber diesmal sehe ich das anders. Die 7900 XTX wurde hier in DE von einigen damals z. B. gerade wegen der 24 GB gegenüber 4080 vorgezogen (Radeon hat hierzulande ja komischerweise immer noch einen ziemlich starken Absatz).
Dafür haben viele auch über 1.000 € hingelegt, und das ist noch gar nicht so lange her. Stand 2026 ist Ada unter anderem genau deshalb deutlich besser gealtert, als RDNA 3 IHMO. VRAM hin oder her.
Die "Spar" Version von FSR 4.0 wäre halt das mindeste für RDNA 2 und 3. Meiner Meinung notfalls auch nur RDNA 3.
Aber die AMDler wehren sich gefühlt ja auch gar nicht, die haben alle schon wieder ne 9070 XT gekauft, obwohl die Raster Leistung vs 7900 XTX sogar ein Downgrade ist. :freak:
Aber gutes Upscaling war damals auch nur was Pixel Peeper, das waren damals die Aussagen unter anderem der Radeon User. Komischerweise haben dann aber alle gleich den Wechsel auf RDNA 4 für FSR 4 vollzogen. :biggrin:
Die Diskussion ist doch irrsinnig. AMD hat immer beim Erschienen von FSR4 gesagt dass es nur auf der 9x serie gibt. Sie haben gesagt ggf. wird es downgeportet.
Auf der These geht ihr jetzt in die Vergangenheit zurück und konstruiert einen Case dass AMD schuld ist und die User hängen lässt die vor 2025 eine AMD Karte gekauft haben? Ja gehts noch? Aus solchen abstrusen Schlussfolgerung haben wir tausende Klagen weil die Leute für ihre eigenes Versagen immer die Fehlerquelle bei andern Suchen.
Für Leute die dann ab 2025 das noch gekauft haben, kann man das ja noch abstrahieren, aber auch da war nie gegeben dass es das gibt. Ich gehe aber davon aus dass mit PSSR2 ggf. auch die Lösung für RDNA3 präsentiert wird. Denn ich denke AMD wird hier sehr stark involviert sein bei Sony, da es ja auf Ihrem Ansatz basiert und es dann halt erstmal "exklusiv" für sony macht. Dass es jetzt ja schon funktioniert spricht auch genau dafür.
Ich würde es auch für AMD hoffen dass sie das machen, den wie gesagt, dass es noch so viele Altbeschleuniger gibt die auch in 2025 noch bewusst (vor allem in neuen produkten) verkauft wurden, sollte auch der Support noch passen. Auch wenn sie das schon eingeschränkt haben. Da haben sie sich schon ein ziemliches eigentor geschossen. Wobei auch klar ist dass nvidia zwar offiziell support bietet, aber für die Altbeschleuniger schon lange nichts mehr tut, das ist taktisch einfach besser. AMD ist hier einfach hier zu transparent.
Die Menschen wollen einfach verarscht werden, weil sie das selber Denken verlernt haben...
robbitop
2026-01-17, 09:43:18
Naja es ist trotzdem legitim weil AMD nach wie vor RDNA3 SKUs verkauft. Sowohl als dGPUs als auch als APUs. Und selbst RDNA2 verkauft man noch neu. Es ist nicht so dass nur alte legacy HW ausgesperrt wird. Es wird Neu HW ausgesperrt. Und das ist schon ziemlich madig.
Und der release (also Marktstart - bedeutet der Anfang des Verkaufszyklusses der ja jahrelang läuft) der neusten RDNA3 Produkte ist gerade mal einige Monate vor FSR4 launch passiert. Strixpoint und Strix Halo Mitte 2024 - wirklich kaufbar erst etwas später. Die 7900GRE kam Ende Februar 2024 raus. Und all das wird nach wie vor neu von AMD verkauft und wird es noch lange.
Naja es ist trotzdem legitim weil AMD nach wie vor RDNA3 SKUs verkauft.
Was soll legitim sein?
Verlangen dass AMD FSR4 für RDNA3 implementiert?
Nein wieso, es wurde und wird niemals dafür beworben. Etwas zu erwarten was niemals beworben wurde ist niemals legitim.
Nur weil RDNA3 heute noch verkauft wird? Na und zwingt dich ja niemand RDNA3 zu kaufen.
TheGood
2026-01-17, 22:51:47
Naja es ist trotzdem legitim weil AMD nach wie vor RDNA3 SKUs verkauft. Sowohl als dGPUs als auch als APUs. Und selbst RDNA2 verkauft man noch neu. Es ist nicht so dass nur alte legacy HW ausgesperrt wird. Es wird Neu HW ausgesperrt. Und das ist schon ziemlich madig.
Und der release (also Marktstart - bedeutet der Anfang des Verkaufszyklusses der ja jahrelang läuft) der neusten RDNA3 Produkte ist gerade mal einige Monate vor FSR4 launch passiert. Strixpoint und Strix Halo Mitte 2024 - wirklich kaufbar erst etwas später. Die 7900GRE kam Ende Februar 2024 raus. Und all das wird nach wie vor neu von AMD verkauft und wird es noch lange.
Wie gesagt alles was ab 2025 verkauft wird, kann ich ja irgendwie noch ein wenig einsehen, aber auch da wird klar NICHT mit FSR 4 geworben. Warum auch. Der der es will muss sich halt informieren. Hier wird ja nichts geheimgehalten oder versteckt (siehe 3,5 gb bei Nvidia, aber das war ja nur ein kleiner Stunt)...
Es ist nunmal ein anderes Produkt. Auch die Geforce 3x wird noch verkauft, meckerst du da auch rum dass mfg nicht geht?
Dass das gerade bei AMD mit den APUs mehr als nur eine ungeschickte Politik ist, da sind wir uns ja einig. Daher glaube ich, dass mit PSSR2 oder kurz danach das auch auf dem PC released wird. Würde zeitlich sinn ergeben.
robbitop
2026-01-18, 08:27:55
Es ist ja kein Bruch an rechtlichen Pflichten. Formal hat AMD nichts falsch gemacht. Aber im Sinne von wie man mit Kunden umgeht. Und wenn brand neue Produkte (und wie gesagt bei APUs gibt es nach wie vor nichts neueres als RSNA3) ein aktuelles feature mit der Tragweite nicht bekommen (insbesondere weil das alte so kacke ist) ist das einfach kein gutes Verhalten ggü den Kunden. Insbesondere wenn wir sehen dass hobbyprogrammierer es zu kaufen bekommen und es sogar ein int8 Model gab. Ist einfach kein gutes Verhalten. ZT hat man das davon dass man 7 Jahre lang ohne moderne uArch mit Matrix Units unterwegs war. Aber man würde es hinbekommen.
Selbst das monopolartige Nvidia bietet das allerneuste DLSS4.5 bis runter zu Turing (2018). Und Rayreconstruction. (ich vermute AMD hatte das auch gemacht wenn man eher richtige matrix cores verbaut hätte - aber da man sicb in die Lage gebracht hat könnte man jetzt wenigstens die Arbeit machen die INT8 Version einzubauen).
Aber ja einen formalen Anspruch auf FSR4 haben die Kunden nicht. Aber das ist nicht der Maßstab. Gutes, angemessenes Verhalten ggü seinen Kunden - zumindest im gewissen Maße ist es. IMO.
Ja ich meckere in der Tat darüber dass FG nicht bei Geforce 30 geht. Aber: (1) ist NN upsampling wesentlich essentieller (und da gibt es immerhin dlss4.5 und RR) (2) ging es nicht um Nvidia.(3) Gab es bei Geforce 30 ewig keine neuen SKU launches. Bei AMD gab es 2025 ganz neue SKUs mit RDNA3 (7900GRE, Ryzen AI Strix Point, Ryzen AI Strix Halo, Ryzen Z2E) und sogar mit RDNA2 (Z2A). Und RDNA2 wurde sogar in den maintenance mode geschoben trotz brand neuer sku (und ja sie haben dann das wording vom maintenance mode geändert - aber im Endeffekt wurde es aufs Abstellgleis geschoben).
Das kann man alles machen aber dann muss man aufhören neue SKUs zu launchen die auf alter IP basieren.
Holundermann
2026-01-18, 08:37:38
Auch die Geforce 3x wird noch verkauft, meckerst du da auch rum dass mfg nicht geht?
Der Vergleich ist denkbar schlecht: wenn man sich den upscaler Support ansieht dann liefert Nvidia - jede dlss Version funktioniert ab Turing und bei 4.5 trotz fehlender HW Unterstützung. Und das es MFG nur ab Blackwell gibt wurde sehr wohl kritisiert.
dargo
2026-01-18, 09:07:32
Der Vergleich ist denkbar schlecht: wenn man sich den upscaler Support ansieht dann liefert Nvidia - jede dlss Version funktioniert ab Turing und bei 4.5 trotz fehlender HW Unterstützung.
Falsch... DLSS gibt es erst seit Ampere im gesamten Portfolio.
aufkrawall
2026-01-18, 09:15:25
Tja, und Lovelace hat besseres FG-Framepacing und RR als RDNA4...
Holundermann
2026-01-18, 09:43:03
Falsch... DLSS gibt es erst seit Ampere im gesamten Portfolio.
Was meinst du damit, welche Turing Karte supported nicht dlss SR?
dargo
2026-01-18, 09:47:14
TU116 und TU117.
Tja, und Lovelace hat besseres FG-Framepacing und RR als RDNA4...
Und nachts ist es kälter als draußen.
robbitop
2026-01-18, 09:49:52
Ja TU116/117 waren echt madig.
dargo
2026-01-18, 09:53:02
Ja TU116/117 waren echt madig.
Es war ein typischer Übergang zwischen zwei Gens ohne gleich all in mit größeren Änderungen zu gehen.
robbitop
2026-01-18, 10:15:51
Typisch impliziert, dass sowas regelmäßig passiert. Tatsächlich fällt mir fast keine Generation ein wo in einem lineup die uArch so segmentiert ist (ohne jetzt rebadges von alten SKUs zu berücksichtigen). Die einzige wäre jetzt einfällt ist bald 25 Jahre her die Geforce 4MX ^^
Aber ja in der Gen machte es Sinn. Das war für die kleinen SKUs insbesondere mit dem alten 12nm Node zu viel. Allerdings hätten sich Tensorcores langfristig gelohnt. Aber das hatte man damals nich nicht wissen können. Stimmt. Um soviel besser hat man es dann zu Ampere gemacht wo die 3050 ja gar nicht so schlecht war.
Relex
2026-01-18, 10:26:22
Was soll legitim sein?
Verlangen dass AMD FSR4 für RDNA3 implementiert?
Nein wieso, es wurde und wird niemals dafür beworben. Etwas zu erwarten was niemals beworben wurde ist niemals legitim.
Nur weil RDNA3 heute noch verkauft wird? Na und zwingt dich ja niemand RDNA3 zu kaufen.
AMD muss gar nichts. AMD kann morgen den Treiber Support für RDNA3 komplett einstellen. AMD Kann FSR5 nur für RDNA5 bringen.
Es steht ihnen komplett frei das zu tun. Rechtlich gesehen ist das alles absolut sauber und der Kunde muss sich damit abfinden.
Der Unterschied ist nur, dass ihnen die Konkurrenz dann um Lichtjahre voraus ist und die Kunden sich zurecht beschweren. Konsequenz sind verlorene Marktanteile an Nvidia.
Aber gut, ich versteh schon, bei einem AMD Kunden ziehen diese Argumente nicht, weil er weder Kritik an AMD übt, noch bei einem anderen Hersteller kaufen würde. Da gibts halt nur AMD und jeglicher Vergleich mit einer Konkurrenz sowieso irrelevant da ein Kauf kategorisch ausgeschlossen ist.
Tatsächlich interessiert der Vergleich zwischen AMD und Nvidia wohl wirklich nur die 90% (Marktanteil) der Spieler die ne Nvidia Karte gekauft haben, weil wahrscheinlich 80% der nvidia Kunden tatsächlich offen sind ob sie sich beim nächsten mal eine AMD oder Nvidia Karte kaufen, während wahrscheinlich 99% der AMD Käufer Nvidia kategorisch komplett ausschließen.
Na ja, ist nicht ganz ernst gemeint, aber langsam kommt es mir vor, als wäre das die Realität. Nur so wirklich glauben will ich es noch nicht...
Wie kann man denn mit verpflichtungen argumentieren? Der einzige Streitpunkt ist, dass es die Konkurrenz in dieser Hinsicht deutlich besser macht. Also darf der Kunde das auch von AMD ebenso verlangen und erwarten, dass er es Nvidia gleich tut. Für mich ist es tatsächlich verrückt, dass du nicht wahrnimmst, dass Nvidia dadurch extremen Druck auf AMD ausübt und du keinen Gedanken daran verschwendest, das was Nvidia hier bietet auch von AMD zu erwarten.
Und dann sagt man immer die Nvidia Käufer haben nur grüne brillen. Die AMD brillen sind wohl komplett undurchsichtig, anders kann man das Brett vorm Kopf nicht erklären.
Mir gehts hier auch gar nicht darüber in welchen Details AMD oder Nvidia besser oder schlechter dastehen, sondern dass du tatsächlich damit versuchst zu argumentieren, dass AMD dem Kunden nichts schuldig ist. Rechtlich gesehen korrekt. In der Praxis ist alleine dieses Argument zu äußern das destruktivste was du AMD nur wünschen kannst. Du befürwortest aktiv, dass AMD nicht konkurrenzfähig sein muss. Das ist wirklich hart...
robbitop
2026-01-18, 11:15:15
Also ich finde es durch die 2024 und 2025 brand neuen SKU launches besonders schlimm. Wenn man nicht ewig alte IP verwursten würde, wäre es was anderes. Also wenn da seit 2022/23 keine neuen SKUs gekommen wären wäre es zwar ärgerlich (und auch deutlich) aber wesentlich weniger verwerflich.
Ex3cut3r
2026-01-18, 12:35:18
Aus der Perspektive eines 7900-XTX-Käufers, der zum Release über 1.100 € bezahlt hat, ist die Situation ziemlich ernüchternd. Bis heute gibt es kein offiziell veröffentlichtes FSR 4. In so einer Lage wäre ich ehrlich gesagt extrem frustriert. Aus reiner Enttäuschung würde ich beim nächsten GPU-Kauf direkt zu Nvidia greifen.
Da gibt es eigentlich nichts schönzureden, es sei denn, man ist absoluter AMD-Hardcore-Fan. Und mag es verarscht zu werden. ;)
DrFreaK666
2026-01-18, 12:45:38
Aus der Perspektive eines 7900-XTX-Käufers, der zum Release über 1.100 € bezahlt hat, ist die Situation ziemlich ernüchternd. Bis heute gibt es kein offiziell veröffentlichtes FSR 4. In so einer Lage wäre ich ehrlich gesagt extrem frustriert. Aus reiner Enttäuschung würde ich beim nächsten GPU-Kauf direkt zu Nvidia greifen.
Aus der Perspektive eines RTX3090-Käufers, der zum Release 1.500 € bezahlt hat, ist die Situation ziemlich ernüchternd. Bis heute gibt es kein offiziell veröffentlichtes FG. In so einer Lage wäre ich ehrlich gesagt extrem frustriert. Aus reiner Enttäuschung würde ich beim nächsten GPU-Kauf direkt zu AMD oder Intel greifen.
Ex3cut3r
2026-01-18, 12:48:14
Echt jetzt? Hier geht doch gerade nicht um Nvidia?
Naja, immerhin hat die 3090 noch DLSS 4.5 erhalten. Und ist um einiges älter als eine 7900 XTX. RDNA 3 wartet weiterhin auf Upsampling, was wirklich gut ist. ^^
dargo
2026-01-18, 12:49:58
Nur noch Gaslighting hier aus dem grünen Lager, herzlichen Glückwunsch!
Ex3cut3r
2026-01-18, 12:58:01
Nur noch Gaslighting hier aus dem grünen Lager, herzlichen Glückwunsch!
Wieso Gas Lighting? Es ist berechtige Krtik an AMD. Sry, dass es euch nicht passt. Aber du hast ja auch leicht reden. Hast ja schon eine 9070 XT und bist fein raus aus dem Schneider.
The_Invisible
2026-01-18, 13:12:15
Aus der Perspektive eines RTX3090-Käufers, der zum Release 1.500 € bezahlt hat, ist die Situation ziemlich ernüchternd. Bis heute gibt es kein offiziell veröffentlichtes FG. In so einer Lage wäre ich ehrlich gesagt extrem frustriert. Aus reiner Enttäuschung würde ich beim nächsten GPU-Kauf direkt zu AMD oder Intel greifen.
Du siehst echt keinen Unterschied ob ein Subfeature nicht geliefert wird oder das ganze Feature? Vor allem da Upscaling noch immer das wichtigste Feature ist.
Relex
2026-01-18, 13:14:57
Aus der Perspektive eines RTX3090-Käufers, der zum Release 1.500 € bezahlt hat, ist die Situation ziemlich ernüchternd. Bis heute gibt es kein offiziell veröffentlichtes FG. In so einer Lage wäre ich ehrlich gesagt extrem frustriert. Aus reiner Enttäuschung würde ich beim nächsten GPU-Kauf direkt zu AMD oder Intel greifen.
Du hast es erkannt. Nvidia sollte dafür kritisierst werden, dass sie FG auf älteren Karten nicht ermöglichen und AMD sollte kritisiert werden, dass sie FSR4 nicht für ältere Karten veröffentlichen.
Wir nähern uns langsam an. :up:
Toll wenn man Kritik äußert und möchte, dass beide Hersteller es dem jeweils anderen gleich tun.
Das Problem in diesem Fall ist nur, dass Upscaling für die meisten Kunden wichtiger ist als Frame Gen und AMD gerade beim Upscaling mit FSR3 mehr aufholbedarf hatte. Deshalb sind die Stimmen bei diesem Thema lauter.
Der Unterschied ist nur, dass ihnen die Konkurrenz dann um Lichtjahre voraus ist und die Kunden sich zurecht beschweren. Konsequenz sind verlorene Marktanteile an Nvidia.
Der Kunde ist selbst schuld wenn er sich Hardware ohne moderne Features kauft. Wenn er sich dann darüber beschwert dass Software die moderne Hardware-Features erfordert nicht läuft ist dass nicht zurecht sondern entweder Dummheit oder Uninformiertheit, wobei das eigentlich bei Produkten dieser Preisklasse gleichzusetzen ist, des Kunden. Der einzige über wen sich der Kunde zurecht beschweren kann ist er selbst und seine Kaufentscheidung.
dargo
2026-01-18, 15:22:43
Du hast es erkannt. Nvidia sollte dafür kritisierst werden, dass sie FG auf älteren Karten nicht ermöglichen und AMD sollte kritisiert werden, dass sie FSR4 nicht für ältere Karten veröffentlichen.
Als ob einzelne Meinungen aus einem popeligen 3DC milliardenschwere Unternehmen jucken würden. :ulol: Wenn du was erreichen willst brauchst du entsprechende Reichweite. Dafür ist ein 3DC nur ein Fliegenschiss.
Der Kunde ist selbst schuld wenn er sich Hardware ohne moderne Features kauft. Wenn er sich dann darüber beschwert dass Software die moderne Hardware-Features erfordert nicht läuft ist dass nicht zurecht sondern entweder Dummheit oder Uninformiertheit, wobei das eigentlich bei Produkten dieser Preisklasse gleichzusetzen ist, des Kunden. Der einzige über wen sich der Kunde zurecht beschweren kann ist er selbst und seine Kaufentscheidung.
Du hast offenbar immer noch nicht gerafft, dass sich hier nur grüne Lemminge darüber echauffieren. ;D
Aber du hast ja auch leicht reden. Hast ja schon eine 9070 XT und bist fein raus aus dem Schneider.
Natülich... mein Upgrade hatte mich nur 300€ gekostet und ich bin super zufrieden mit dem Gesamtpaket aus Kühlung und Leistung sowie Preis. Kopf einschalten und zum richtigen Zeitpunkt kaufen, es gab genug Zeit 2025 zu Toppreisen N48 zu bekommen. Grob geschätzt ca. ein halbes Jahr bestimmt.
DrFreaK666
2026-01-18, 16:21:16
...Naja, immerhin hat die 3090 noch DLSS 4.5 erhalten...
DLSS4.5... Hat nicht sogar Nvidia gesagt, dass sie es für RTX2000/3000 nicht empfehlen?
Aber gut: Auch ich finde, dass AMD es veröffentlichen sollte. Einfach zu schweigen find ich nicht so nice.
Von mir aus nur in Preview-Treibern oder so. Dann muss man nicht zwangsläufig Support geben.
Oder die holen die Optiscaler-Gruppe mit ins Boot um die Prozedur zu vereinfachen (obwohl es schon sehr einfach ist)
The_Invisible
2026-01-18, 16:51:05
DLSS4.5... Hat nicht sogar Nvidia gesagt, dass sie es für RTX2000/3000 nicht empfehlen?
Gerade das verbesserte UP Preset ist dafür interessant wenn man zb eine 3090 an einem 4k Monitor betreibt
DLSS4.5... Hat nicht sogar Nvidia gesagt, dass sie es für RTX2000/3000 nicht empfehlen?
Auch dafür ist DLSS4.5 besser in Qualität/Performance. Man kann gut 2 DLSS Stufen niedriger stellen für gleiche Qualität, verliert aber nur 1 an Performance.
TheGood
2026-01-18, 22:27:25
Du hast es erkannt. Nvidia sollte dafür kritisierst werden, dass sie FG auf älteren Karten nicht ermöglichen und AMD sollte kritisiert werden, dass sie FSR4 nicht für ältere Karten veröffentlichen.
Wir nähern uns langsam an. :up:
Toll wenn man Kritik äußert und möchte, dass beide Hersteller es dem jeweils anderen gleich tun.
Das Problem in diesem Fall ist nur, dass Upscaling für die meisten Kunden wichtiger ist als Frame Gen und AMD gerade beim Upscaling mit FSR3 mehr aufholbedarf hatte. Deshalb sind die Stimmen bei diesem Thema lauter.
uups, warum hör ich niemand jammern ausser bei den leute hier, die sagen dls22 is der letzte hit um dann zu sagen dlls4.5 ist der letzte hit und dlss 2 der letzte dreck ;)
Dass die Leute Nvidia kaufen liegt weniger an den FEatures sondern daran dass Graifkkarten auf dem PC mit NVidia gleichgesetzt werden.
Der Vergleich mit den APUs hingt sowieso massiv denn niemand kauft sich bewusst eine APU, die ist in einem Handheld einfach drin. Und bei Grafikkarten weiss man was man bestellt, wenn man sich informiert und der Rest guckt halt dumm aus der wäsche. Hat er so verdient.
Wie bei den 3,5 gb grakas, aber da wars ja tatsächlich betrug oder den 12 pin stecker, da guckt man auch dumm aus der wäsche. Den Dreck hat uns auch nvidia eingebrockt und lässt die kunden im regen stehen. Ein Fuzz wird auch nicht drum gemacht.
OK bei dem Thema FSR4 auch nicht ausser hier ;)
Ich bleibe dabei, dass spätestens nach pssr2 die rdna3 variante kommt. Weiter runter wirds nicht gehen und von dem mal abegesehen mit optiscaler kann jeder mehr aus der Graka heruasholen als versprochen ;)
Was will ich damit sagen, das ist eine völlig sinnlose Diskussion die zu REIn gar nichts führt, ausser dass sie vielen leuten zeit kostet die man sinnvoller nutzen kann.
DrFreaK666
2026-01-18, 23:41:58
...das ist eine völlig sinnlose Diskussion die zu REIn gar nichts führt, ausser dass sie vielen leuten zeit kostet die man sinnvoller nutzen kann.
Tja, manche scheints aber aufzugeilen, wenn man das immer und immer wieder wiederholt
Der_Korken
2026-01-19, 00:34:12
Der Kunde ist selbst schuld wenn er sich Hardware ohne moderne Features kauft. Wenn er sich dann darüber beschwert dass Software die moderne Hardware-Features erfordert nicht läuft ist dass nicht zurecht sondern entweder Dummheit oder Uninformiertheit, wobei das eigentlich bei Produkten dieser Preisklasse gleichzusetzen ist, des Kunden. Der einzige über wen sich der Kunde zurecht beschweren kann ist er selbst und seine Kaufentscheidung.
Würde ich teilweise zustimmen. Zusätzlich zu den Basics (Effizienz unter Last ...), an denen es gehapert hat, hatte RDNA3 erneut kein Äquivalent zu Nvidias Tensor Cores und auch keine so weit ausgebauten RT-Einheiten. Man kann natürlich nicht in die Zukunft sehen, welche Hardware-Features in naher Zukunft denn gebraucht würden, aber die ML-Ansätze in DLSS haben bereits da zu gut funktioniert als dass man davon hätte ausgehen können, dass AMD das komplett weglässt.
Das einzige, was man AMD bei FSR4 imho vorwerfen kann, ist dass sie die INT8-Implementierung für RDNA3 nicht weiter vorangetrieben haben und dass sie beim Design von RDNA3 offenbar planlos waren, was sie in Zukunft für Features brauchen. Vor allem weil sie ihre alte RDNA3-IP im iGPU-Bereich noch ewig mit durchgeschleift haben. Dass man FSR4 aus Rücksicht auf alte Generationen nicht beschnitten hat, war richtig, denn sonst würden sie für RDNA4 ein wichtiges Verkaufsargument verlieren, wenn die Quali von FSR zu weit der Konkurrenz hinterherhinkt.
Natürlich kann man sich jetzt ewig dran hochziehen, dass die Rückportierung bei Nvidia so viel besser ist als bei AMD, allerdings muss man hier aber auch bedenken, dass Nvidia den gleichen Stunt mit Turing ja quasi auch abgezogen hat. Pascal hatte halt keine Tensor-Cores und alle 1080Ti-Käufer waren 1,5 Jahre nach ihrem Kauf softwaremäßig bereits abgehängt, so wie RDNA3-Käufer jetzt. Es fiel vielleicht nicht so auf, weil DLSS am Anfang noch viele Kinderkrankheiten hatte und nicht so als game changer wahrgenommen wurde.
Slipknot79
2026-01-19, 02:00:51
Wir nähern uns langsam an.
Naja, da fehlt noch einiges. Scheinbar zahlen AMD User (wie auch Nvidia User in den grünen Threads) nur noch "Upgradekosten" von 300EUR, die alte Graka hat sich ja einfach so hergezaubert. Und an anderer Stelle kostet die 3090 zu Release plötzlich 1500EUR und die 7900 XT 1100EUR. (y)
Das 3dc ist mal wieder überfordert mit so einfachen Bilanzierungen. Vielleicht sollte man sich hier erst mal auf eine Tatsache "einigen" (in Wahrheit gibt es bei Tatsachen nichts zu einigen, sondern nur noch zu akzeptieren), was ein Upgrade tatsächlich kostet: Einkaufspreis (und später) minus Verkaufspreis. Es ist also ganz einfach, wirklich einfach. (y) Vorallem wenn die aktuelle Graka noch benutzt wird.
DrFreaK666
2026-01-19, 03:20:05
...und an anderer Stelle kostet die 3090 zu Release plötzlich 1500EUR ...
Die Frage, ob sich eine 1.500-Euro-Grafikkarte lohnt...
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/Review-Gaming-Benchmarks-Studio-1358437/5/
Nvidia nennt für die GeForce RTX 3090 eine unverbindliche Preisempfehlung von 1.499 Euro, was auch für die eigene Founders Edition gilt.
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-3090-gigabyte-msi-test.73672/seite-8#abschnitt_preise_im_vergleich
Ok, ich habs übertrieben. Waren 1.499€ und nicht 1.500€ :freak:
Lurtz
2026-01-19, 08:38:20
uups, warum hör ich niemand jammern ausser bei den leute hier, die sagen dls22 is der letzte hit um dann zu sagen dlls4.5 ist der letzte hit und dlss 2 der letzte dreck ;)
Muss man halt im Kontext sehen, schwer wenn man die Diskussion eh völlig sinnlos findet, ich weiß.
DLSS2 war halt damals schon meist die bessere Alternative zu TAA.
Natürlich kann man sich jetzt ewig dran hochziehen, dass die Rückportierung bei Nvidia so viel besser ist als bei AMD, allerdings muss man hier aber auch bedenken, dass Nvidia den gleichen Stunt mit Turing ja quasi auch abgezogen hat. Pascal hatte halt keine Tensor-Cores und alle 1080Ti-Käufer waren 1,5 Jahre nach ihrem Kauf softwaremäßig bereits abgehängt, so wie RDNA3-Käufer jetzt. Es fiel vielleicht nicht so auf, weil DLSS am Anfang noch viele Kinderkrankheiten hatte und nicht so als game changer wahrgenommen wurde.
Und weil sie die Technologie eben eingeführt haben. Da ist eher Verständnis da, als wenn man es Jahre später dann so "unglücklich" einführt wie AMD.
Man kann natürlich nicht in die Zukunft sehen, welche Hardware-Features in naher Zukunft denn gebraucht würden, aber die ML-Ansätze in DLSS haben bereits da zu gut funktioniert als dass man davon hätte ausgehen können, dass AMD das komplett weglässt.
So ist es. Spätestens seit DLSS2 war klar, dass man mit Upscaling mindestens eine Grafikkartengeneration, bzw. innerhalb einer Generation mindestens ein Tier an Mehrperformance bekommt. Und DLSS 2.0 gibt es seit März 2020 für die Allgemeinheit.
RDNA3 wurde Ende 2022/Anfang2023 veröffentlicht, wer in diesen fast 3 Jahren nicht mitbekommen hat wie viel ML-Upscaling hilft braucht sich hinterher nicht zu beschweren dass seine veraltete Hardware nicht mehr die neuesten Spielzeuge bekommt.
DrFreaK666
2026-01-19, 09:00:48
Wie wär's wenn wir mal wieder zurück zum Thema kommen?
Der Vergleich mit den APUs hingt sowieso massiv denn niemand kauft sich bewusst eine APU, die ist in einem Handheld einfach drin.
Selbstverständlich sucht man sich einen Handheld (auch) nach dem verbauten SoC aus.
Ich habe mich bei meinem aktuellen Handheld bewusst für Lunar Lake entschieden und ein Hauptgrund war neben der ein für Handhelds relevanten Leistungsbereichen höheren Energieeffizienz XeSS. Den Unterschied zu FSR3 sieht man sogar am Handheld-Display, insbesondere bei höheren Upscaling-Faktoren.
robbitop
2026-01-19, 11:02:29
Würde ich teilweise zustimmen. Zusätzlich zu den Basics (Effizienz unter Last ...), an denen es gehapert hat, hatte RDNA3 erneut kein Äquivalent zu Nvidias Tensor Cores und auch keine so weit ausgebauten RT-Einheiten. Man kann natürlich nicht in die Zukunft sehen, welche Hardware-Features in naher Zukunft denn gebraucht würden, aber die ML-Ansätze in DLSS haben bereits da zu gut funktioniert als dass man davon hätte ausgehen können, dass AMD das komplett weglässt.
Das einzige, was man AMD bei FSR4 imho vorwerfen kann, ist dass sie die INT8-Implementierung für RDNA3 nicht weiter vorangetrieben haben und dass sie beim Design von RDNA3 offenbar planlos waren, was sie in Zukunft für Features brauchen. Vor allem weil sie ihre alte RDNA3-IP im iGPU-Bereich noch ewig mit durchgeschleift haben. Dass man FSR4 aus Rücksicht auf alte Generationen nicht beschnitten hat, war richtig, denn sonst würden sie für RDNA4 ein wichtiges Verkaufsargument verlieren, wenn die Quali von FSR zu weit der Konkurrenz hinterherhinkt.
Natürlich kann man sich jetzt ewig dran hochziehen, dass die Rückportierung bei Nvidia so viel besser ist als bei AMD, allerdings muss man hier aber auch bedenken, dass Nvidia den gleichen Stunt mit Turing ja quasi auch abgezogen hat. Pascal hatte halt keine Tensor-Cores und alle 1080Ti-Käufer waren 1,5 Jahre nach ihrem Kauf softwaremäßig bereits abgehängt, so wie RDNA3-Käufer jetzt. Es fiel vielleicht nicht so auf, weil DLSS am Anfang noch viele Kinderkrankheiten hatte und nicht so als game changer wahrgenommen wurde.
Naja sie hätten aber dennoch 2x Optionen, von der sie bislang keine gezogen haben für RDNA3.
(1) das FP8 Modell von FSR4 auf RDNA3 nutzen und per FP8 Emulation laufen lassen. (das haben sogar Hobbyleute innerhalb kurzer Zeit hinbekommen und sollte für AMD kein großes Problem sein - man kann sich sogar von dem Quellcode der Hobbyleute inspirieren lassen da es open source ist)
(2) das INT8 Model, welches ja existiert (mag zwar nicht ganz die Qualität vom FP8 Modell erreichen ist aber ein ordentlicher Sprung vs FSR3.x) einfach für RDNA3 nutzen. Auch das haben die Hobbyleute innerhalb weniger Tage in Optiscaler eingebaut. Das im Treiber umzuleiten wie es sie es für FSR3.1 -> 4 machen sollte auch möglich sein.
Einfach gar nichts machen ist madig. Vor allem wenn es noch brandneue SKUs gibt die davon ausgeschlossen sind. Insbesondere vor dem Hintergrund, dass beides wahrscheinlich sehr überschaubar vom Aufwand ist.
mironicus
2026-01-19, 12:06:08
FSR 4 für RDNA 3.5 muss einfach kommen, vielleicht mit neuen Strix Halo Gaminghandhelds, die dann weniger CPU-Kerne haben und dann besonders effizient sind bei niedriger TDP.
robbitop
2026-01-19, 14:01:14
Kann aber muss nicht. Aber AMDs Reaktion auf der CES war allerdings sehr vielsagend was bisherigen Tätigkeit (oder das Fehlen dieser) angeht und inspiriert nicht gerade zu Optimismus was die nahe Zukunft angeht.
basix
2026-01-19, 14:30:59
AMD hilft sich bei dieser Sache momentan nicht gerade. Sie haben intern ja eine funktionierende Lösung (INT8). Klar, mit einigen Abstrichen, aber es wäre gut genug. Positives Feedback aufgrund Optiscaler Integration des geleakten Codes gibt es ja auch zu Genüge. Deswegen tippe ich auf eine Management-Entscheidung. Und diese Manager scheinen den Markt und die Gamer nicht zu verstehen. Klar sind neues FG, RR, NRC usw. auch schön und gut aber Stand heute würde FSR4 auf RDNA2/3 deutlich mehr helfen. Nicht nur auf dGPUs sondern auch iGPUs.
Ich hoffe AMD überrascht uns doch noch und released FSR4 SR für ältere Karten. Momentan hat wieder eher Nvidia die positive Presse aufgrund DLSS 4.5.
robbitop
2026-01-19, 14:37:21
Ja sieht mir auch immer wieder wie ein Management Problem bei RTG aus. Wenn man sowas beruflich kennt, erkennt man irgendwann die Muster. ^^
mironicus
2026-01-19, 15:07:38
Die sind halt alle momentan auf KI fixiert. Sie wollen ja auch jetzt den AMD Treiber mit KI-Dingen kombinieren. Könnte aber trotzdem interessant sein mit besserem Support für Comfy UI und Co.
robbitop
2026-01-19, 15:11:37
Bis die Blase mal platzt. ^^
Kann aber muss nicht. Aber AMDs Reaktion auf der CES war allerdings sehr vielsagend was bisherigen Tätigkeit (oder das Fehlen dieser) angeht und inspiriert nicht gerade zu Optimismus was die nahe Zukunft angeht.
Das Problem ist eben wenn man was macht, dann beschmutzt man sich selbst.
INT8 sieht halt doch deutlich schlechter aus und beschmutzt damit den bisher guten Ruf, und und beides INT8 und FP8, insbesondere natürlich letzteres kostet jede Menge Performance.
Wobei man da von NV wohl (wieder mal) am falschen Fuß erwischt wurde, dass NV aus Qualitätsgründen eine doch signifikant (auch auf der neuesten Architektur) langsamere DLSS Variante bringt hätte man wohl nicht erwartet.
Aber langsam scheint sich immerhin bei den Reviewern der Gedanke zu kommen, dass Stur nach Renderauflösung zu vergleichen im Zeitalter von Upscalern sinnlos ist, und man besser nach identischer Bildqualität vergleicht unabhängig wie diese zustande kommt.
Bis die Blase mal platzt. ^^
Da kannst du ein Jahrzehnt warten.
Slipknot79
2026-01-19, 23:09:11
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/Review-Gaming-Benchmarks-Studio-1358437/5/
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-3090-gigabyte-msi-test.73672/seite-8#abschnitt_preise_im_vergleich
Ok, ich habs übertrieben. Waren 1.499€ und nicht 1.500€ :freak:
Darum ging es nicht. (y)
Da kannst du ein Jahrzehnt warten.
So lange wird Xi nicht warten. (y)
dargo
2026-01-20, 07:56:39
Aber langsam scheint sich immerhin bei den Reviewern der Gedanke zu kommen, dass Stur nach Renderauflösung zu vergleichen im Zeitalter von Upscalern sinnlos ist, und man besser nach identischer Bildqualität vergleicht unabhängig wie diese zustande kommt.
Blöd nur, dass es identische Bildqualität nur bei nativer Auflösung gibt. :ulol:
DrFreaK666
2026-01-20, 17:19:04
Blöd nur, dass es identische Bildqualität nur bei nativer Auflösung gibt. :ulol:
Nicht, wenn man das hier berücksichtigt
https://i.postimg.cc/NfcyqGvH/image.png (https://postimg.cc/Dmxf1TZv)
https://pema.dev/2025/05/09/mipmaps-too-much-detail/#c
robbitop
2026-01-20, 17:27:57
Ist das eine AF Blume? Also gibt es wieder winkelabhängiges AF?
Wahrscheinlich in der Praxis kaum noch relevant weil es nicht annähernd solche Einschnitte zu geben scheint wie damals wo das super winkelabhängig ist und weil die Levelgeometrie das auch nicht mehr so richtig hergibt dass man das großartig sieht.
DrFreaK666
2026-01-20, 17:29:17
Ist das eine AF Blume? Also gibt es wieder winkelabhängiges AF?
Wahrscheinlich in der Praxis kaum noch relevant weil es nicht annähernd solche Einschnitte zu geben scheint wie damals wo das super winkelabhängig ist und weil die Levelgeometrie das auch nicht mehr so richtig hergibt dass man das großartig sieht.
Damit lässt sich allerdings sicherlich Performance einsparen. Wie viel weiß aber wahrscheinlich nur Nvidia
TheGood
2026-01-20, 17:31:06
Muss man halt im Kontext sehen, schwer wenn man die Diskussion eh völlig sinnlos findet, ich weiß.
DLSS2 war halt damals schon meist die bessere Alternative zu TAA.
Und weil sie die Technologie eben eingeführt haben. Da ist eher Verständnis da, als wenn man es Jahre später dann so "unglücklich" einführt wie AMD.
Natürlich, war sie das, aber man hat gesagt wie gut die Bildqwualität wäre, was sie optisch nicht gewesen ist. Man hat es schlicht ignoriert.
Ist ja OK wenn man das tut, wenn man dann aber spätestens damit ankommt wenn jetzt andere technolgoien zu dlss2 aufholen diese als den letzten Dreck bezeichnet, wirds halt doch spanisch. Es spiegelt die Realität halt nicht wieder, denn es war und ist imemr gleich gut oder schlecht, da man Bildquailtät halt auch "messen" kann.
DAzu kommt viele sehen die probleme ja nicht und finden dlss2 schon super. Ist ja auch ok, geht mir im alter ja auch so, vor allem mit der falschen brille.... :D
TheGood
2026-01-20, 17:33:26
Kann aber muss nicht. Aber AMDs Reaktion auf der CES war allerdings sehr vielsagend was bisherigen Tätigkeit (oder das Fehlen dieser) angeht und inspiriert nicht gerade zu Optimismus was die nahe Zukunft angeht.
Sorry das ist doch Quark, da sie es ja implementiert haben. Die Frage ist doch warum sie es 1. nicht finalisieren oder 2. wenns fknal ist, es nicht releasen.
DrFreaK666
2026-01-20, 17:37:16
...Die Frage ist doch warum sie es 1. nicht finalisieren oder 2. wenns fknal ist, es nicht releasen.
Und da die Frage hier niemand beantworten kann, kann man das auch sein lassen, denn Spekulationen gehören hierher:
https://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=55
Das gilt auch für empörte Geforce-Nutzer
dargo
2026-01-20, 17:38:22
Nicht, wenn man das hier berücksichtigt
Überflüssige Ablenkung.
robbitop
2026-01-20, 17:45:06
Sorry das ist doch Quark, da sie es ja implementiert haben. Die Frage ist doch warum sie es 1. nicht finalisieren oder 2. wenns fknal ist, es nicht releasen.
Wo haben sie FSR4 für RDNA3 implementiert?
TheGood
2026-01-20, 22:09:58
Wo haben sie FSR4 für RDNA3 implementiert?
Eine Int8 version läuft doch überall, weil sie auf Github von Amd "versehentlich" deployed wurde. Also hat AMD doch daran gearbeitet oder etwa nicht?
Führt mich wieder zur eigentlichen Frage warum es bisher noch nicht final implementiert wurde und offiziell supported wird....
Alles andere ist keine sinnvolle Diskussion...
The_Invisible
2026-01-20, 22:42:01
Eine Int8 version läuft doch überall, weil sie auf Github von Amd "versehentlich" deployed wurde. Also hat AMD doch daran gearbeitet oder etwa nicht?
Gute Frage, im Quellcode sind jedenfalls immer nur Hinweise zu RDNA4 zu finden, könnte auch nur irgendein Test für RDNA4 gewesen sein
https://github.com/GPUOpen-LibrariesAndSDKs/FidelityFX-SDK/blob/01446e6a74888bf349652fcf2cbf5f642d30c2bf/Kits/FidelityFX/upscalers/fsr4/internal/shaders/fsr4_model_v07_i8_balanced/passes_1080.hlsl
Eine Int8 version läuft doch überall, weil sie auf Github von Amd "versehentlich" deployed wurde. Also hat AMD doch daran gearbeitet oder etwa nicht?
Vermutlich weil die Qualität der „geleakten“ Version doch ziemlich bescheiden war.
Eventuell hat man daran weiter gearbeitet aber beim Erreichen der Qualitätsziele die Performanceziele auf RDNA <4 nicht erreicht.
Dass man es in der geleakten Form nicht final Releast ist jedenfalls ziemlich verständlich.
Natürlich, war sie das, aber man hat gesagt wie gut die Bildqwualität wäre, was sie optisch nicht gewesen ist.
Goldstandard war damals TAA. DLSS2 hat diesen verbessert und war damit eine objektiv gute Biildqualität.
Als die Voodoo Graphics erstmals gefilterte Texturen auf den Bildschirm gezaubert hat, hat man es auch als gute Bildqualität bezeichnet. Heute würde niemand mehr die Grafik von damals als gut bezeichnen.
Standards ändern sich, und was heute gut ist muss morgen nicht mehr gut sein wenn es von etwas besserem abgelöst wird.
Exxtreme
2026-01-20, 22:51:23
Goldstandard war damals TAA. DLSS2 hat diesen verbessert und war damit eine objektiv gute Biildqualität.
TAA war noch nie Goldstandard. Das ist schon immer eins der schlechtesten Verfahren wenn es um AA geht. Da dürfte nur noch FXAA oder SMAA schlechter sein.
][immy
2026-01-20, 23:42:37
TAA war noch nie Goldstandard. Das ist schon immer eins der schlechtesten Verfahren wenn es um AA geht. Da dürfte nur noch FXAA oder SMAA schlechter sein.
Goldstandard vermutlich eher mit "Standard" verwechselt. Es war schnell und die Pixel wurden erfolgreich geglättet. Ganz nebenbei hat es noch heftiges Shader-Flimmern aus der Zeit "behoben".
Es hat quasi Dinge der Zeit gefixed und dafür ein erträglicheres Bild (zwar unscharf, aber ohne Flimmern etc) geliefert.
Eine Int8 version läuft doch überall, weil sie auf Github von Amd "versehentlich" deployed wurde. Also hat AMD doch daran gearbeitet oder etwa nicht?
Führt mich wieder zur eigentlichen Frage warum es bisher noch nicht final implementiert wurde und offiziell supported wird....
Alles andere ist keine sinnvolle Diskussion...
Als RDNA2 nutzer kann ich dir sagen das es in 9 von 10 Spielen beschissen ist und man lieber FSR abschaltet.
FSR 3 ist auch nicht ertragbar in Bewegung
robbitop
2026-01-21, 08:15:56
Eine Int8 version läuft doch überall, weil sie auf Github von Amd "versehentlich" deployed wurde. Also hat AMD doch daran gearbeitet oder etwa nicht?
Führt mich wieder zur eigentlichen Frage warum es bisher noch nicht final implementiert wurde und offiziell supported wird....
Alles andere ist keine sinnvolle Diskussion...
Das war eine frühere Version. Die ist älter als die FP8 Version die Anfang 2025 gelauncht wurde.
Weiterhin haben wir offenbar nicht das selbe Verständnis von "implementiert". Sie haben an einer INT8 Version entwickelt (bevor es die finale FP8 Version gab) aber sie haben sie nie implementiert. Die Implementierung kam dann über Optiscaler was ein OpenSource Projekt von Hobbyleuten ist.
TAA war noch nie Goldstandard. Das ist schon immer eins der schlechtesten Verfahren wenn es um AA geht. Da dürfte nur noch FXAA oder SMAA schlechter sein.
Kommt aufs TAA an. 8x TSSAA von id war beispielsweise erstaunlich gut. (insbesondere wenn man es in Relation zu den Kosten und dem was es damals als Alternativen gab sieht)
Und das muss man immer im Kontext sehen. Die Messlatte verschiebt sich natürlich dynamisch nach oben wenn es besseres gibt. Und die Kosten sind auch relevant.
basix
2026-01-21, 08:21:49
[immy;13871695']Goldstandard vermutlich eher mit "Standard" verwechselt. Es war schnell und die Pixel wurden erfolgreich geglättet. Ganz nebenbei hat es noch heftiges Shader-Flimmern aus der Zeit "behoben".
Es hat quasi Dinge der Zeit gefixed und dafür ein erträglicheres Bild (zwar unscharf, aber ohne Flimmern etc) geliefert.
Unschärfe und Schlieren sind TAA Probleme. Schader-Flimmerm Unterdrückung wurde mit der Unschärfe erkauft. Die Unschärfe konnte man immerhin mit höherer Auflösung bekämpfen. TAA bei 1080p sieht grottig aus. Bei 4K ist es meistens ganz OK (aber niemals so gut wie DLSS4 / FSR4).
robbitop
2026-01-21, 08:51:58
Unschärfe und Schlieren sind TAA Probleme. Schader-Flimmerm Unterdrückung wurde mit der Unschärfe erkauft. Die Unschärfe konnte man immerhin mit höherer Auflösung bekämpfen. TAA bei 1080p sieht grottig aus. Bei 4K ist es meistens ganz OK (aber niemals so gut wie DLSS4 / FSR4).
Das muss man schon im fairen Kontext sehen. In der TAA Ära gab es noch kein DLSS/FSR/XeSS. Entsprechend war das nicht der Maßstab. Und MSAA/SSAA gab es auch kaum noch* dank dem Umstieg zum Defered Renderer.
*MSAA war oft super teuer und griff dann trotzdem nicht überall im Spiel wo es greifen sollte - wirkte auf mich wenn es da war oft semi kaputt. Und klar man konnte downsampling betreiben aber das war irre teuer und ineffizient.
TAA begann etwas schwach mit SMAA-T2x und TXAA ~2013. Aber bereits 2016 gab es mit 8xTSSAA schon ein recht kompetentes Verfahren (relativ zu dem was es damals gab). Mit etwas lumasharpen über reshade und 1440p (was ja damals auch nicht unüblich war), sah das in Wolfenstein 2 und Doom 2016 jetzt IMO nicht verkehrt aus. Aber zugegeben gab es nicht so extrem viele TAAs die wirklich gut waren - die Streuung war ziemlich groß.
Man darf nie den Kontext verlieren - dann wird IMO alles irgendwie verzerrt.
Lurtz
2026-01-21, 09:56:05
TAA war noch nie Goldstandard. Das ist schon immer eins der schlechtesten Verfahren wenn es um AA geht. Da dürfte nur noch FXAA oder SMAA schlechter sein.
Kann gar nicht das schlechteste sein wenn es seit über zehn Jahren keine Alternative dazu gibt. Wir sind nicht bei Wünsch dir Was.
*MSAA war oft super teuer und griff dann trotzdem nicht überall im Spiel wo es greifen sollte - wirkte auf mich wenn es da war oft semi kaputt. Und klar man konnte downsampling betreiben aber das war irre teuer und ineffizient.
MSAA konnte auch nur Kanten glätten aber ohne temporale Komponente nicht wesentlich zur Stabilität beitragen.
Ja es war schärfer, aber Schärfe ist eben nicht alles, temporale Stabilität ist insgesamt für die Bildqualität wesentlich wichtiger.
Deshalb sehen Videos selbst in SD-Qualität besser aus als Echtzeitrenderings aus der damaligen Zeit.
So gesehen war TAA schon ein Vorgriff auf moderne Upscaler, es war deutlich schneller als das MSAA was es abgelöst hat und im Gesamtbild auch von der Qualität besser auch wenn es einzelne Aspekte verschlechtert hat.
Exxtreme
2026-01-21, 20:52:14
Kann gar nicht das schlechteste sein wenn es seit über zehn Jahren keine Alternative dazu gibt. Wir sind nicht bei Wünsch dir Was.
Der Riesenvorteil von TAA ist, dass es Fails von Entwicklern nachträglich reparieren kann. Also so Sachen wie falsches Mipmapping oder Texture-Undersampling etc. Und deswegen wird es wahrscheinlich auch benutzt weil man nicht mehr genau arbeiten muss.
Lurtz
2026-01-21, 23:11:38
Ja, sehr wahrscheinlich. Gibt ja sonst so viele Alternativen.
Also so Sachen wie falsches Mipmapping oder Texture-Undersampling etc.
Das passiert nicht "versehentlich". Das Mipmapping wird von der Hardware vorgegeben und kann nur bewusst parametrisiert werden. Es ist mehr Arbeit von den Defaulteinstellungen abzuweichen.
basix
2026-01-23, 08:40:12
Das muss man schon im fairen Kontext sehen. In der TAA Ära gab es noch kein DLSS/FSR/XeSS. Entsprechend war das nicht der Maßstab. Und MSAA/SSAA gab es auch kaum noch* dank dem Umstieg zum Defered Renderer.
[...]
Man darf nie den Kontext verlieren - dann wird IMO alles irgendwie verzerrt.
Ist klar. TAA war für seine Zeit OK. Aber wir leben im hier und heute, und da sind moderne Upscaler der Benchmark. Und dann werden TAA Nachteile deutlich sichtbar ;)
Und ich bin jemand, der ein knackig scharfes Bild sehr gerne hat. Persönliche Präferenz. Und da war TAA auf 1440p nicht so geil. War auch bei DLSS 2 noch ziemlich suboptimal (=unscharf), ich habe überall mit CAS via Reshade nachgeschärft. Wenn ich das heute nun mit DLSS 4 und 4K Output vergleiche, liegen Welten dazwischen. Rendering-Auflösung ist dabei sehr ähnlich (DLSS 2 Q auf 1440p vs. DLSS 4 P auf 4K). Schon eine sehr schöne Entwicklung ;)
robbitop
2026-01-23, 08:57:56
Ist klar. TAA war für seine Zeit OK. Aber wir leben im hier und heute, und da sind moderne Upscaler der Benchmark. Und dann werden TAA Nachteile deutlich sichtbar ;)
(1) Es ging aber darum, dass damals TAA der Goldstandard war. Und dann wurde über die Aussage diskutiert. Jetzt zu sagen, dass es aus heutiger Sicht schlecht ist, verschiebt aber den Referenzpunkt (und gibt das absolut Offensichtliche wieder). Der Referenzpunkt aus der Diskussion liegt in der Vergangenheit.
(2) Wenn du jetzt sagst, der Referenzpunkt liegt für dich im hier und heute, wird die Diskussion komplett sinnlos / offensichtlich. Klar ist eine Technologie, die 10 Jahre alt ist gemessen am Stand der Technik veraltet/rückständig. Duh.
aufkrawall
2026-01-23, 09:00:20
Stimme dir zu. TAA war trotz all der Probleme eine Erlösung gegen das ganze Geflimmer. Vorher war real FXAA-Hölle, und es gab auch nur Schrott-Sharpen.
Ex3cut3r
2026-01-23, 19:19:08
Wer erinnert sich noch an GTA 4 ohne MSAA? Hatte nicht mal FXAA, das kam erst später. War in 1680x1050 die pure Aliasing Hölle. Um dem irgendwas entgegenzuwirken, musste man Downsampling mit Nvidia nutzen. Aber von 1680x1050 bräuchte man mindestens 3360x2100. Und das war mit einer GTX 260 damals unspielbar. 2520x1575 (x 1,5) ging. Aber war noch lange nicht perfekt.
TheGood
2026-01-24, 09:18:53
Goldstandard war damals TAA. DLSS2 hat diesen verbessert und war damit eine objektiv gute Biildqualität.
Als die Voodoo Graphics erstmals gefilterte Texturen auf den Bildschirm gezaubert hat, hat man es auch als gute Bildqualität bezeichnet. Heute würde niemand mehr die Grafik von damals als gut bezeichnen.
Standards ändern sich, und was heute gut ist muss morgen nicht mehr gut sein wenn es von etwas besserem abgelöst wird.
Das ist nichts anders als sich Dinge schönreden.... Im Nachgang ist das Schönreden weg und der Realität gewichen. Vor allem dann wenn man die Anderen dafür prügelt, wenn man es selbst zuvor noch gefeiert hat. Sorry das ist einfach nur dumm und hat wenig mit REalität zu tun....
Man hätte es mit dem nötigen Augenmaß bewerten müssen. ABer so ein Augenmaß´gibgt es aktuell in der GEsellschaft ja nicht mehr.
Siehe den aktuellen Rückblick von computerbase (vergleich dlss 4, 4,5 und amd fsr4 oder irgendwas mit AI wie das jetzt heisst. Das ist im Nachgang natürlich leichter. Interessanter HInweis ist ja dass in dem TEst von 7 spielen FSR4 immer besser als DLSS4 bewertet wurde von den Usern.....
TheGood
2026-01-24, 09:24:05
Das war eine frühere Version. Die ist älter als die FP8 Version die Anfang 2025 gelauncht wurde.
Weiterhin haben wir offenbar nicht das selbe Verständnis von "implementiert". Sie haben an einer INT8 Version entwickelt (bevor es die finale FP8 Version gab) aber sie haben sie nie implementiert. Die Implementierung kam dann über Optiscaler was ein OpenSource Projekt von Hobbyleuten ist.
Kommt aufs TAA an. 8x TSSAA von id war beispielsweise erstaunlich gut. (insbesondere wenn man es in Relation zu den Kosten und dem was es damals als Alternativen gab sieht)
Und das muss man immer im Kontext sehen. Die Messlatte verschiebt sich natürlich dynamisch nach oben wenn es besseres gibt. Und die Kosten sind auch relevant.
Wir haben wohl ein unterschiedliches verständnis was unster "Implemeniterung" zu verstehen ist. Natürlich ist die INT8 entwicklung eine Implementierung, ansosnten hätte Optiscaler ja die Basis gefehlt es "freizuschalten". Und es ist soweit implementiert dass es nutzbar im Alpha oder Betastatus ist. Es hat dann etnweder die QA nicht geschafft oder wurde bewusst abgeschaltet oder zugunsten von PSSR2 gecancelt oder zurückgestellt.
Ich erwarte auch kein "FSR4" für RDNA2, das macht aus AMD Sicht ja gar keinen Sinn, auch wenn sie immer noch in wenigen aktuellen APUs verbaut wird, aber für RDNA3 und RDNA 3,5 wird das Ding aus meiner Sicht erscheinen denn es kommt ja auch für die PS5 pro...
basix
2026-01-24, 09:48:00
Interessanter HInweis ist ja dass in dem TEst von 7 spielen FSR4 immer besser als DLSS4 bewertet wurde von den Usern.....
Das ist mMn Anwender-Bias. Objektiv gesehen ist DLSS4 etwas besser als FSR4. FSR4 ist gut, aber verglichen mit DLSS4 es ist etwas unschärfer und es fehlen ein paar Details. Disocclusion ist bei FSR4 besser. Bei DLSS 4.5 wurde dort aber nachgebessert.
Bei CoD7 ist zudem bei FSR4 das MIP Bias nicht richtig eingestellt, wodurch es vermatschte Texturen gibt. Und dennoch wird dort FSR4 besser bewertet. Objektiv kann man das nicht begründen ;)
Ich erwarte auch kein "FSR4" für RDNA2, das macht aus AMD Sicht ja gar keinen Sinn, auch wenn sie immer noch in wenigen aktuellen APUs verbaut wird, aber für RDNA3 und RDNA 3,5 wird das Ding aus meiner Sicht erscheinen denn es kommt ja auch für die PS5 pro...
Hier stellt sich halt die Frage: DP4a oder WMMA Pfad?
DP4a würde auf allen GPUs seit Pascal und RDNA1 laufen. Ein spezifischer WMMA Pfad nur auf RDNA 3 / 3.5, wäre dafür aber schneller. Im Idealfall gäbe es natürlich beide Pfade.
Für iGPUs würde ich zwar noch einen dritten (optionalen) Pfad vorschlagen: NPU Offloading für die DNN Ausführung ;)
XDNA2 kann 50 TFLOPS FP8 / INT8. MX6 (FP6) sogar 100 TFLOPS. Das ist deutlich mehr als das, was die iGPUs stemmen können. Für XDNA1 APUs wäre ein INT8 Pfad besser, da 10/16 TOPS und kein FP8 Support.
Also folgendes wäre der absolute Idealfall aus meiner Sicht:
- INT8 Modell
- WMMA Pfad für RDNA3 und PS5 Pro
- WMMA via NPU Pfad für APUs (allenfalls sogar mit FP8 Modell für XDNA2)
- DP4a Pfad für RDNA1 und RDNA2 (sowie Intel und Nvidia GPUs als auch PS5 / XBSX)
Sony will PSSR2 ja bis März 2026 veröffentlichen. Das wird ein INT8 basiertes FSR4 Modell sein. Vielleicht sehen wir dann auch den Release des selben Modells für PC. Zu hoffen wäre es. Und es würde auch schön die Synergie von Projekt Amethyst aufzeigen.
robbitop
2026-01-24, 10:04:04
Wir haben wohl ein unterschiedliches verständnis was unster "Implemeniterung" zu verstehen ist. Natürlich ist die INT8 entwicklung eine Implementierung, ansosnten hätte Optiscaler ja die Basis gefehlt es "freizuschalten". Und es ist soweit implementiert dass es nutzbar im Alpha oder Betastatus ist. Es hat dann etnweder die QA nicht geschafft oder wurde bewusst abgeschaltet oder zugunsten von PSSR2 gecancelt oder zurückgestellt.
Ich erwarte auch kein "FSR4" für RDNA2, das macht aus AMD Sicht ja gar keinen Sinn, auch wenn sie immer noch in wenigen aktuellen APUs verbaut wird, aber für RDNA3 und RDNA 3,5 wird das Ding aus meiner Sicht erscheinen denn es kommt ja auch für die PS5 pro...
Für die PS5pro kommt PSSR2. Ob das (ob jetzt unter anderem Namen oder nicht) für RDNA3 kommt ist bestenfalls Spekulation.
Die Antworten im Interview auf der CES mit dem AMD VP wirkten jedenfalls nicht so als wäre da was Firmes auf der Agenda. Und der Mann wirkte auf mich nicht als wäre er ein guter Schauspieler. Aber wäre schön wenn es so kommt.
So oder so hätte AMD längst was machen können. Das INT8 Modell (was wie gesagt der Vorläufer vom FP8 Modell war) ist nicht der einzige Weg. Man hätte per fp8 Emulation auf RDNA3 längst versorgen können. Klar langsamer aber besser als nichts. Und diese Emulation haben die Hobbyleute in null komma nichts gemacht damals. Und da das alles open source ist hätte man sich das sogar anschauen können usw. Ich denke das ist vermutlich alles im Moment keine Priorität beim Management.
Da sind die Dollarzeichen bei AI, AI, AI. ^^
Für die Devs wäre das sicherlich ein Klacks gewesen.
robbitop
2026-01-24, 10:13:44
Sony will PSSR2 ja bis März 2026 veröffentlichen. Das wird ein INT8 basiertes FSR4 Modell sein. Vielleicht sehen wir dann auch den Release des selben Modells für PC. Zu hoffen wäre es. Und es würde auch schön die Synergie von Projekt Amethyst aufzeigen.
„Das wird..“? IMO eher „Das könnte“ Das ist Spekulation. Es kann ein INT8 Model von FSR4 sein. Oder was eigenes wie es PSSR1 war (obwohl fsr4 INT8 vom Alter da schon existierte).
Diese ganzen Pfade die du RDNA3 und älter vorschlägst sind technisch plausibel aber gehen wahrscheinlich an der Realität der Prioritäten bei RTG vorbei. Und dazu kommt jeden dieser Pfade muss man auch wieder für eine Zeit X supporten. IMO ist es wahrscheinlicher dass es gar nichts oder einen Pfad gibt. Ich hätte hier aber liebend gern Unrecht.
Aber die Situation ist: es kam 1 Jahr lang gar nichts - obwohl es ein INT8 Modell gibt und obwohl man noch sehr aktiv rdna3 verkauft und obwohl FP8 Emulation möglich und bereits fertig anschaubar auf github rumliegt. Der VP von AMD wirkte im Interview auf mich so als wäre noch gar nichts passiert und hätte keine Priorität.
basix
2026-01-24, 10:17:01
„Das wird..“? IMO eher „Das könnte“ Das ist Spekulation. Es kann ein INT8 Model von FSR4 sein. Oder was eigenes wie es PSSR1 war (obwohl fsr4 INT8 vom Alter da schon existierte).
Es muss ein INT8 Modell sein. Die PS5 Pro HW Acceleration kann nur INT8. Und auf INT6/INT4 zu reduzieren ist nicht sinnvoll. RDNA3 auf der PS5 Pro kann zudem kein WMMA wie die PC Varianten.
Dass PSSR2 auf FSR4 basiert wurde afaik von Mark Cerny bereits gesagt. Es wird innerhalb von 1 Jahr Entwicklungszeit natürlich Anpassungen gegeben haben, vielleicht ist es sogar besser als FSR4 auf PC, wer weiss.
Diese ganzen Pfade die du RDNA3 und älter vorschlägst sind technisch plausibel aber gehen wahrscheinlich an der Realität der Prioritäten bei RTG vorbei. Und dazu kommt jeden dieser Pfade muss man auch wieder für eine Zeit X supporten. IMO ist es wahrscheinlicher dass es gar nichts oder einen Pfad gibt. Ich hätte hier aber liebend gern Unrecht.
Aber die Situation ist: es kam 1 Jahr lang gar nichts - obwohl es ein INT8 Modell gibt und obwohl man noch sehr aktiv rdna3 verkauft und obwohl FP8 Emulation möglich und bereits fertig anschaubar auf github rumliegt. Der VP von AMD wirkte im Interview auf mich so als wäre noch gar nichts passiert und hätte keine Priorität.
AMD wäre aber dumm, das PSSR2 Modell nicht für PC zu veröffentlichen. AMD hat FSR4 geliefert. Sony hat das heavy lifting für die Adaption auf ihre 3x3 INT8 convolution Acceleration gemacht. Jetzt kann man das ja wieder zurückspielen für PC GPUs. 3x3 convolutions dürften nativ auf RDNA3 oder XDNA1/2 laufen.
Support sehe ich nicht so als Problem an. AMD dumpt das eh nur 1x auf GPUOpen und dann geschieht da typischerweise nichts mehr, siehe FSR2/3/4 ;)
Dass jetzt 1 Jahr lang nichts geschehen ist kann insbesondere an PSSR2 gelegen haben. Sony baut es sowieso auf INT8 um. Wieso also nicht darauf warten und es dann mit geringem Aufwand für PC portieren? Spart Entwicklungsarbeit von Seiten AMD. Wie gesagt: Synergieeffekte aus Projekt Amethyst nutzen. Sony profitiert von FSR4, AMD vom Portierungsaufwand welcher Sony für PSSR2 investiert. Beide sind zufrieden.
Das schöne an 3x3 convolutions ist zudem, dass man sie leicht "chainen / stacken" kann. Zwei 3x3 Kernel ergeben einen 5x5 Kernel usw. und das benötigt insgesamt sogar weniger Parameter als ein grösserer 5x5 Kernel. Man kann also faktisch beliebig komplexe Filterkernel in die 3x3 conv Acceleration der PS5 Pro giessen.
robbitop
2026-01-24, 10:22:01
Dass PSSR2 auf FSR4 basiert wurde afaik von Mark Cerny bereits gesagt. Es wird innerhalb von 1 Jahr Entwicklungszeit natürlich Anpassungen gegeben haben, vielleicht ist es sogar besser als FSR4 auf PC, wer weiss.
AMD wäre aber dumm, das PSSR2 Modell nicht für PC zu veröffentlichen. AMD hat FSR4 geliefert. Sony hat das heavy lifting für die Adaption auf ihre 3x3 INT8 convolution Acceleration gemacht. Jetzt kann man das ja wieder zurückspielen für PC GPUs. 3x3 convolutions dürften nativ auf RDNA3 oder XDNA1/2 laufen.
Support sehe ich nicht so als Problem an. AMD dumpt das eh nur 1x auf GPUOpen und dann geschieht da typischerweise nichts mehr, siehe FSR2/3/4 ;)
Das schöne an 3x3 convolutions ist zudem, dass man sie leicht "chainen / stacken" kann. Zwei 3x3 Kernel ergeben einen 5x5 Kernel usw. und das benötigt insgesamt sogar weniger Parameter als ein grösserer 5x5 Kernel.
Das mag technisch alles so sein. Ist aber oft dann trotzdem nicht so. Aus nicht technischen Gründen. Wenn Entscheidungen immer rational und aus technischen Gründen getroffen würden, wäre manches wesentlich besser. X-D
Zu PSSR2. Warum hat Sony PSSR1 entwickelt wenn es ein deutlich überlegenes INT8 Model von FSR4 schon in 2024 gab (das geleakte ist älter als das fp8 Modell)? Und warum hat man es nicht kurzfristig geupgraded? Das oxidiert jetzt schon über ein Jahr rum.
Wäre es sinnvoll? Ja. Da sind wir uns einig. Und doch ist das leider viel zu oft ein Garant für gar nichts. X-D
Will sagen solange es keine starken Indizien oder glaubwürdigen leaks gibt ist das Spekulation und sollte als solche gekennzeichnet sein. :)
edit: ich hasse edits jetzt passt meine ganze Antwort kaum noch.
Das mit PSSR2 und FSR4 ist mir neu. Das ändert alles. Hat er das wirklich so gesagt? Aber selbst wenn ist das noch kein Garant für rdna3. Würde es aber noch plausibler machen
basix
2026-01-24, 10:24:53
PSSR1 wurde afaik bereits zum Start der PS5 Pro Entwicklung in Angriff genommen. Lange bevor FSR4 überhaupt ein Thema war.
Und sorry, wenn man beim durchlesen meiner Posts nicht checkt, dass dies nicht sicher ist sondern auf ein "es könnte im guten Fall so kommen" hinausläuft, der liest und versteht mein Posts nicht richtig.
robbitop
2026-01-24, 10:27:59
PSSR1 wurde afaik bereits zum Start der PS5 Pro Entwicklung in Angriff genommen. Lange bevor FSR4 überhaupt ein Thema war.
Das wird immer so behauptet. Und doch waren beide Verfahren circa gleichzeitig fertig (int8 fsr4 und pssr1). War jetzt einer von beiden super schnell und der andere super langsam? Oder hat man einfach nicht miteinander geredet? Wir wissen es nicht. Wäre aber technisch plausibel gewesen die INT8 Version zu nehmen. Und selbst wenn nicht zum launch - dann halt kurze Zeit später als upgrade. Will sagen: technisch sinnvoll heisst leider oft nicht dass es auch passiert :)
robbitop
2026-01-24, 10:32:38
Und sorry, wenn man beim durchlesen meiner Posts nicht checkt, dass dies nicht sicher ist sondern auf ein "es könnte im guten Fall so kommen" hinausläuft, der liest und versteht mein Posts nicht richtig.
Zu koheränter Kommunikation gehört eindeutige Formulierung. Ansonsten führt es potenziell zum Missverständnis. Und das kann jetzt keine Verpflichtung für den Leser sein, zu interpretieren was du meinen könntest (ohne in deinen Kopf gucken zu können und dazu ohne Mimik und Gestik und ohne dich persönlich zu kennen - alles Dinge die zusätzlichen Kontext schaffen könnten besser zu interpretieren), sondern an den der formuliert.
Siehst du das ernsthaft anders? :)
basix
2026-01-24, 10:45:58
Klar, ich stimme dir zu. Ich würde aber sagen, es ist genug klar formuliert ;) Und ein bisschen Leseverständnis darf man zudem verlangen. Ich schreibe ja immer "es wäre schön", "ich hätte gerne" oder "wäre der Optimalfall" usw. was ja explizit andeutet, dass es so kommen kann - aber nicht wird oder muss. Dort sollte ja jedem klar werden, dass dies keine sichere Sache ist. Wenn ich zu jedem Satz schreiben muss "Disclaimer: Könnte so kommen, muss aber nicht" wird es auch nicht leserlicher.
Das wird immer so behauptet. Und doch waren beide Verfahren circa gleichzeitig fertig (int8 fsr4 und pssr1). War jetzt einer von beiden super schnell und der andere super langsam? Oder hat man einfach nicht miteinander geredet? Wir wissen es nicht. Wäre aber technisch plausibel gewesen die INT8 Version zu nehmen. Und selbst wenn nicht zum launch - dann halt kurze Zeit später als upgrade. Will sagen: technisch sinnvoll heisst leider oft nicht dass es auch passiert :)
Sony musste AMD spezifische Designvorgaben für die PS5 Pro liefern. Wenn man dort nicht bereits eine Idee vom Algorithmus-Aufbau hat, kann man das ja gar nicht machen, oder ;)
Das INT8 Model von FSR4 kann man zudem nicht ohne weiteres (ohne Portierungsaufwand) für die PS5 Pro verwenden. Das ist nicht gratis. Aus meiner Sicht waren FSR4 und PSSR1 parallele Entwicklungsstränge. PSSR1 Release vor PS5 Pro Release machte keinen Sinn, deswegen kam das gefühlt spät. AMD war in der selben Zeit mit FSR2/3 beschäftig und FSR4 kam dann relativ schnell. Man hatte mit RDNA4 Release ein konkretes Zieldatum. Mark Cerny hat ja erwähnt dass er sehr überrascht war, wie schnell FSR4 zum fliegen gekommen ist. Aus seiner eigenen Erfahrung dauerte PSSR1 ja deutlich länger ;) Deswegen glaube ich, dass der zeitnahe Release PSSR1 und FSR4 eher Zufall war. PS5 Pro und RDNA4 Releases waren zeitlich schlicht nahe beisammen.
Der existierende INT8 Pfad von FSR4 scheint qualitativ ja schlechter als der FP8 Pfad zu sein. Hätte Sony den INT8 Pfad nehmen und portieren können? Vermutlich. Ist es sinnvoller, den FP8 Pfad als Basis zu nehmen und weitere Optimierungen einzupflegen? Und damit auch das PS5 Ökosystem nicht zu "überfordern" und Unruhe reinzubringen (PSSR1 nicht gleich nach 6 Monaten mit PSSR2 ablösen)? Sony ist bei solchen Sachen ja generell eher behäbig unterwegs.
robbitop
2026-01-24, 10:51:05
https://www.digitalfoundry.net/articles/digitalfoundry-2024-mark-cerny-fsr-4-to-play-a-key-part-in-the-next-evolution-of-pssr-upscaling
Für die Allgemeinheit hier nochmal das Interview und ja es liest sich als wenn man das NN von fsr4 auf der PS5Pro reimplementiert. Aber leider ist das nich kein Garant für RDNA3. Aber ich glaube da sind wir uns alle einig - es wäre super. Aber selbst wenn es irgendwann kommen sollte wird man IMO viel zu viel Zeit bis dahin vergehen lassen. Ein stop gap mit fp8 emulation oder sonstiges hätte die sehr große Lücke gefüllt (sofern denn offiziell rdna4 dieses jahr für rdna3 überhaupt kommt).
basix
2026-01-24, 11:02:06
Für PC war alles in AMDs Hand, ja. Dort wäre ein temporärer Stop-Gap sicher begrüssenswert gewesen.
Und wenn AMD PSSR2 nicht für PC zurückspiegelt (oder einen eigenen INT8 / FP8-Emulation Pfad bringt): Shame on you, AMD! Da ist selbst das ach so böse Nvidia deutlich besser mit ihrem DLSS Service für Gamer und ältere GPUs (mit Ausnahme FG).
robbitop
2026-01-24, 11:07:16
Klar, ich stimme dir zu. Ich würde aber sagen, es ist genug klar formuliert ;) Und ein bisschen Leseverständnis darf man zudem verlangen. Ich schreibe ja immer "es wäre schön", "ich hätte gerne" oder "wäre der Optimalfall" usw. was ja explizit andeutet, dass es so kommen kann - aber nicht wird oder muss. Dort sollte ja jedem klar werden, dass dies keine sichere Sache ist. Wenn ich zu jedem Satz schreiben muss "Disclaimer: Könnte so kommen, muss aber nicht" wird es auch nicht leserlicher.
Statt einem „es wird so sein“ ein „es kann so sein“ liest sich IMO nicht schlechter und ist eindeutiger. Und durch die ganze Poständerei ist es gar nicht mehr so ersichtlich dass der Ursprungspost da unklarer war. Aber ok. :)
Sony musste AMD spezifische Designvorgaben für die PS5 Pro liefern. Wenn man dort nicht bereits eine Idee vom Algorithmus-Aufbau hat, kann man das ja gar nicht machen, oder ;)
Kannst du das etwas weiter ausführen? :)
Das INT8 Model von FSR4 kann man zudem nicht ohne weiteres (ohne Portierungsaufwand) für die PS5 Pro verwenden. Das ist nicht gratis. Aus meiner Sicht waren FSR4 und PSSR1 parallele Entwicklungsstränge.
Ja waren sie eindeutig. Die Frage ist nur hätten sie es sein müssen? Aus technischer Plausibilität.
PSSR1 Release vor PS5 Pro Release machte keinen Sinn, deswegen kam das gefühlt spät. AMD war in der selben Zeit mit FSR2/3 beschäftig und FSR4 kam dann relativ schnell. Man hatte mit RDNA4 Release ein konkretes Zieldatum. Mark Cerny hat ja erwähnt dass er sehr überrascht war, wie schnell FSR4 zum fliegen gekommen ist. Aus seiner eigenen Erfahrung dauerte PSSR1 ja deutlich länger ;) Deswegen glaube ich, dass der zeitnahe Release PSSR1 und FSR4 eher Zufall war. PS5 Pro und RDNA4 Releases waren zeitlich schlicht nahe beisammen.
Ja so war es. Aber hätte es aus rein technischer Sicht so sein müssen? Wenn jemand überrascht ist was wie schnell wo rauskam spricht das potenziell dafür, dass zu der Zeit die Zusammenarbeit noch nicht so intensiv war und jeder noch seinen eigenen Weg ging.
Der existierende INT8 Pfad von FSR4 scheint qualitativ ja schlechter als der FP8 Pfad zu sein. Hätte Sony den INT8 Pfad nehmen und portieren können? Vermutlich.
Das INT8 Modell ist etwas schlechter als das FP8 Modell. Allerdings auch älter. Wie viel da jetzt am Datenformat und wie viel an der Weiterentwicklung/dem learning welches nach INT8 passierte ist offen. Aber in jedem Fall ist auch das INT8 Modell PSSR1 deutlich überlegen.
Ist es sinnvoller, den FP8 Pfad als Basis zu nehmen und weitere Optimierungen einzupflegen? Und damit auch das PS5 Ökosystem nicht zu "überfordern" und Unruhe reinzubringen (PSSR1 nicht gleich nach 6 Monaten mit PSSR2 ablösen)? Sony ist bei solchen Sachen ja generell eher behäbig unterwegs.
Schwer zu sagen. IMO ist Iteration immer gut und „don‘t let perfect be the enemy of good“. Lieber mal kleine Zwischenschritte anstatt alles perfekt machen zu wollen um dann wieder ewig zu brauchen. Aber ok. Mir ging es ja nicht darum, wie es gekommen ist sondern nur um aufzuzeigen dass leider viel zu selten das passiert was aus rein technisch plausibler Sicht auch ideal wäre. :)
basix
2026-01-24, 11:35:58
Statt einem „es wird so sein“ ein „es kann so sein“ liest sich IMO nicht schlechter und ist eindeutiger. Und durch die ganze Poständerei ist es gar nicht mehr so ersichtlich dass der Ursprungspost da unklarer war. Aber ok. :)
Es gab ein einziges "es wird" und das war beim Thema INT8 für PSSR2. Ist das 100% sicher? Nein. Macht es 100% Sinn aufgrund HW Specs der PS5 Pro und DNN Output-Qualität? Definitiv Ja.
Kannst du das etwas weiter ausführen? :)
3x3 convolution Acceleration ist ziemlich spezifisch. Es ist zwar eine sehr weit verbreitete Operation bei ML aber wenn man sich Tensor Cores von Nvidia anschaut (was seit Turing öffentlich ist), welche deutlich generellere Operationen zulassen, ist die Wahrscheinlichkeit sehr hoch, dass Sony bereits ein Konzept hatte. Also ein Co-Design von Algorithmus und dazu nötiger HW Acceleration. Das spart am Schluss Chipfläche und somit Kosten (massgeschneiderte Lösung). Eine NPU oder WMMA von RDNA3 wären deutlich flexibler gewesen, Sony hat sich aber dagegen entschieden. Jetzt sehen sie mittlerweile, dass man mit reiner 3x3 Convolution Acceleration etwas eingeschränkt unterwegs ist. FSR4 kann man mit einigem Aufwand noch auf die verfügbare HW umbiegen. Andere Dinge allenfalls nicht (FG, RR, generell neural rendering).
Ja waren sie eindeutig. Die Frage ist nur hätten sie es sein müssen? Aus technischer Plausibilität.
[...]
Ja so war es. Aber hätte es aus rein technischer Sicht so sein müssen? Wenn jemand überrascht ist was wie schnell wo rauskam spricht das potenziell dafür, dass zu der Zeit die Zusammenarbeit noch nicht so intensiv war und jeder noch seinen eigenen Weg ging.
Wie gesagt, Sony hat deutlich früher mit PSSR1 angefangen. AMD hatte mit FSR4 andere Vorraussetzung und HW-Grundlagen (RDNA4) sowie neuen und jüngeren Algorithmen Ansätzen (Visual Transformer und Co.). Hätte nicht zwingend parallel sein müssen, ist aber aufgrund der Rahmenbedingungen und Umstände so passiert. Vielleicht war AMD mit der absehbaren Qualität von PSSR1 nicht zufrieden. Ist auch eine Möglichkeit. PSSR1 ist evtl. bereits lange vor PS5 Pro Relase fertig gewesen. Das wissen wir halt nicht.
Mir ging es ja nicht darum, wie es gekommen ist sondern nur um aufzuzeigen dass leider viel zu selten das passiert was aus rein technisch plausibler Sicht auch ideal wäre. :)
Ja, ist leider so. Das liegt meistens nicht an den Ingenieuren ;)
TheGood
2026-01-25, 08:52:00
https://www.digitalfoundry.net/articles/digitalfoundry-2024-mark-cerny-fsr-4-to-play-a-key-part-in-the-next-evolution-of-pssr-upscaling
Für die Allgemeinheit hier nochmal das Interview und ja es liest sich als wenn man das NN von fsr4 auf der PS5Pro reimplementiert. Aber leider ist das nich kein Garant für RDNA3. Aber ich glaube da sind wir uns alle einig - es wäre super. Aber selbst wenn es irgendwann kommen sollte wird man IMO viel zu viel Zeit bis dahin vergehen lassen. Ein stop gap mit fp8 emulation oder sonstiges hätte die sehr große Lücke gefüllt (sofern denn offiziell rdna4 dieses jahr für rdna3 überhaupt kommt).
Gut dass du das interview gefunden bist und dahingehnd endlich auf STand. PSSR war in den endzügen als FSR4 begonnen wurde. Steht sogar wortwörtlich so im Interview.
Ich gehe davon aus dass AMD und Sony PSSR2 zusammen entwickeln und nicht jeder für sich. Daher ist ausgemacht, dass es halt zuerst auf PSSR2 kommt als "neue TEchnologie" und dann hoffentlich später auf RDNA 3 nachgeliefert wird. bzw. rdna3.5 so wie basix geschrieben.
ES wäre von AMD taktisch sowas von dämlich es nicht zu tun, gerade wegen der ganzen Basis die sie da haben im RAhmen der APUs und mobilen devices. Die müssen sie ja eh liefern auf kurz oder lang. WArten wir mal ab was im 2. Quartal hier noch passiert.
Wir wissen ja alle, dass es praktisch geht. Und ich halte den Leak von damals für bewusst von AMD gemacht und nicht als Fehler.
robbitop
2026-01-25, 09:07:26
Dass PSSR fast fertig gewesen sein soll als FSR4 begonnen wurde da bin ich skeptisch. FSR4 mit fp8 lief bereits auf der CES2026 und war in CoD implementiert. Man hat in der letzten Minute rdna4 verschoben und damit dann auch fsr4 aber es war ready to go. PSSR wurde 2 Monate vorher gelauncht. Die INT8 Version von fsr4 ist aber älter als die FP8 Version laut sourcecode Versionierung. Entsprechend war beides ungefähr gleichzeitig fertig. Klingt in dem Kontext sehr sehr merkwürdig dass pssr im Endspurt gewesen sein soll als FSR4 begonnen wurde.
Vermutung: Entweder ging pssr sehr langsam und gleichzeitig fsr4 super schnell oder man hat sich gegenseitig nicht so eng geupdatet. Oder eine Mischung aus allem. :)
Dass es sinnvoll wäre pssr2 zu nutzen um fsr4 auf rdna3 zu bringen sind wir uns alle einig. (allerdings ist die rdna3 hardware in dem bezug anders - also ist schon die Frage wie viel extra Aufwand das dann wird. die ps5pro hat ja int8 matrix hw wo die Instruktionen aber gewossen Randbedingungen unterliegen damit das ausgenutzt werden kann und rdna3 hat nur normale Vektor ALUs die aber einen speedup bis int8 bekommen)
Dass es dämlich wäre es nicht zu tun -> das hat AMD leider schon mehr als einmal nicht davon abgehalten. Die RTG hat innerhalb von AMD IMO nicht die allerbeste Führung. Insofern: ich wäre nicht überrascht wenn es nicht kommt (oder erst so spät dass die Relevanz dann schon deutlich gesunken ist weil viele schon upgegradet haben).
basix
2026-01-25, 09:23:05
Dass PSSR fast fertig gewesen sein soll als FSR4 begonnen wurde da bin ich skeptisch.
Hier ein Quote aus dem von dir verlinkten Interview mit Mark Cerny zum Thema Projekt Amethyst:
We're stronger together than apart, so it makes a lot of sense to combine some of our resources when tackling these problems. And because we began this collaboration in earnest in late 2023 (when PSSR development was wrapping up), I'm happy to say that there have already been results.
Als man Projekt Amethyst Ende 2023 begonnen hat, war die PSSR1 Entwicklung in der Abschlussphase.
Das passt dann auch gut zum Interview mit Jack Huynh zu FSR4 im September 2024 (https://www.tomshardware.com/pc-components/gpus/amd-plans-for-fsr4-to-be-fully-ai-based-designed-to-improve-quality-and-maximize-power-efficiency):
Guys, that's not where the future is going. So we completely pivoted the team about 9-12 months ago to go AI based.
Was ich daraus ableite:
AMD und Sony haben Ende 2023 mit Projekt Amethyst und FSR4 begonnen. PSSR1 war zu diesem Zeitpunkt bereits praktisch fertiggestellt.
TheGood
2026-01-25, 09:46:43
Hier ein Quote aus dem von dir verlinkten Interview mit Mark Cerny zum Thema Projekt Amethyst:
Als man Projekt Amethyst Ende 2023 begonnen hat, war die PSSR1 Entwicklung in der Abschlussphase.
Das passt dann auch gut zum Interview mit Jack Huynh zu FSR4 im September 2024:
Was ich daraus ableite:
AMD und Sony haben Ende 2023 mit Projekt Amethyst und FSR4 begonnen. PSSR1 war zu diesem Zeitpunkt bereits praktisch fertiggestellt.
SO sieht es aus. DAs kann man jetzt in Zweifel ziehen, aber irgendwann ist auch mal gut. Leider wissen wir halt nicht wie lange die finale entwicklung dauert. FSR 4 scheint hier extrem schnell gewesen zu sein, das hat ja auch MArk Cerny so gesagt, dass er damit nicht gerechnet hat. Vor allem auch nciht dass es so viel besser ist. da wurden die eigenen Annahmen völlig überholt. Anders kann es ja auch nicht sein, wenn man dann seinen eigenen Ansatz komplett in die Tonne wirft und den neuen nimmt.
Entwicklungtechnsich kenn ich mich hier nicht aus, aber gehts zum einen darum, ein Modell zu entwickeln und zum anderen es dann auf der HArdware lauffähig zu machen? Oder läuft das hand in hand?
robbitop
2026-01-25, 09:49:57
Hier ein Quote aus dem von dir verlinkten Interview mit Mark Cerny zum Thema Projekt Amethyst:
Als man Projekt Amethyst Ende 2023 begonnen hat, war die PSSR1 Entwicklung in der Abschlussphase.
Das passt dann auch gut zum Interview mit Jack Huynh zu FSR4 im September 2024:
Was ich daraus ableite:
AMD und Sony haben Ende 2023 mit Projekt Amethyst und FSR4 begonnen. PSSR1 war zu diesem Zeitpunkt bereits praktisch fertiggestellt.
Was dann bedeuten würde dass Sony super langsam war relativ zu AMD. Bzw dass nach der timeline PSSR1 dann fast 1 Jahr lang vor release fertig rumlag. Das wäre sehr sehr träge. Kann natürlich aber auch durch die Hardwaretimelime verzögert worden sein.
So oder so zumindest sehr unglücklich, da es dadurch zum launch ein massiv besseres INT8 Modell zumindest schon gegeben hat.
basix
2026-01-25, 11:14:23
So oder so zumindest sehr unglücklich, da es dadurch zum launch ein massiv besseres INT8 Modell zumindest schon gegeben hat.
Grundsätzlich ja. Andererseits erwähnt Mark Cerny auch, dass der Umbau von FSR4 auf die PS5 Pro HW relativ aufwändig ist und deswegen noch kein Update von PSSR verfügbar ist. Schenkt man dem glauben, hätte damit die Zeit einfach nicht gereicht um das FSR4 INT8 Modell für PSSR1 zu verwenden.
Sony sehe ich da nicht so in der Schuld. Mehr AMD, dass es FSR4 nicht für non-RDNA4 Karten auf PC gibt (wenn auch langsamer und schlechtere Qualität als natives FSR4). Aber eben, vielleicht sehen wir den Output von PSSR2 auch auf PC. Aber wenn die HW-Architekturen von RDNA3 und PS5 Pro so unterschiedlich sind und eben aufwändige Portierungen notwendig sind, könnte das ins Wasser fallen.
TheGood
2026-01-25, 15:08:55
Das ist mMn Anwender-Bias. Objektiv gesehen ist DLSS4 etwas besser als FSR4. FSR4 ist gut, aber verglichen mit DLSS4 es ist etwas unschärfer und es fehlen ein paar Details. Disocclusion ist bei FSR4 besser. Bei DLSS 4.5 wurde dort aber nachgebessert.
Bei CoD7 ist zudem bei FSR4 das MIP Bias nicht richtig eingestellt, wodurch es vermatschte Texturen gibt. Und dennoch wird dort FSR4 besser bewertet. Objektiv kann man das nicht begründen ;)
Aber das ist die REalität und sogar mit insgesamt doppelt so vielen stimmen wie vorgestern hat es sich nicht wesentlich verändert. Offensichtlich sehen die leute den unterschied nicht nur dass DlSS4 aus irgendwelchen gründen soviel schlechter abschneidet. Komisch... aber realität ;)
Ich hab mir eines angeguckt und wäre da auch auf ein andere Bewertung bekommen, wenn ich es auf 100 % zoome. Aber so spielt halt mal kein mensch.... Sondern ohne zooom am monitor oder fernseher. Der Gesamteindruck ist das was am Ende beim user ankommt und das muss passen.
Relex
2026-01-25, 16:11:46
Hä? Das ist doch ne komplett unsinnige Schlussfolgerung.
Erstens ist die Umfrage zu 100% dadurch bestimmt, welche GPU im Rechner des jeweiligen Nutzers steckt und zweitens kannst du kein Ranking abgeben.
Wenn mir beide DLSS Bilder besser gefallen, aber ich DLSS4.5 immer den Vorrang gebe, dann bekommt DLSS4.0 keine einzige Stimme von mir, selbst wenn ich es 10x besser finden würde als FSR.
Nur das "beste" bekommt überhaupt einen Punkt.
Aber wie gesagt, im Endeffekt ist es eh egal, da die AMD User FSR wählen und die Nvidia User DLSS4.5.
Warum sollte da irgend jemand für DLSS4.0 stimmen, außer die 0,001% der Nutzer die vielleicht wirklich ehrlich abstimmen und dann vielleicht bei irgend einem Vergleich tatsächlich zu dem Schluss kommen, dass DLSS4.5 schlechter aussieht als DLSS4.0.
Du könntest in dem Vergleich auchg enauso gut FSR2 als einzigen AMD Upscaler nehmen und dann DLSS4.0 und DLSS4.5 zum Vergleich ziehen. Auch da würde DLSS4.0 haushoch gegen FSR2 verlieren. Einfach weil bei AMD als auch Nvidia Usern ein extremer Bias herrscht. Nvidia User würden wieder 4.5 nehmen und AMD User FSR2.
Und selbst wenn einige AMD User ehrlich abstimmen würden, würde DLSS4.5 die stimme bekommen und ganz sicher nicht 4.0. 4.5 ist schließelich besser. 4.0 wäre zwangsweise das Schlusslicht im Ranking, selbst wenn es objektiv auf dem zweiten Platz sein müsste.
Solche Abstimmungen sind nicht umsonst eine Wissenschaft für sich. Und CB hat ein sehr anschauliches Beispiel gezeigt, wie man es nicht machen sollte.
Lurtz
2026-01-25, 16:29:47
Aber wie gesagt, im Endeffekt ist es eh egal, da die AMD User FSR wählen und die Nvidia User DLSS4.5.
Warum sollte da irgend jemand für DLSS4.0 stimmen, außer die 0,001% der Nutzer die vielleicht wirklich ehrlich abstimmen und dann vielleicht bei irgend einem Vergleich tatsächlich zu dem Schluss kommen, dass DLSS4.5 schlechter aussieht als DLSS4.0.
Solche Abstimmungen machen höchstens als Blindtests Sinn. Dafür sind die Computerbase-Beispiele IMO aber auch nicht repräsentativ genug. Sonst erschlagen menschliche Biases jede Erkenntnis.
TheGood
2026-01-26, 17:24:25
Hä? Das ist doch ne komplett unsinnige Schlussfolgerung.
Erstens ist die Umfrage zu 100% dadurch bestimmt, welche GPU im Rechner des jeweiligen Nutzers steckt und zweitens kannst du kein Ranking abgeben.
Wenn mir beide DLSS Bilder besser gefallen, aber ich DLSS4.5 immer den Vorrang gebe, dann bekommt DLSS4.0 keine einzige Stimme von mir, selbst wenn ich es 10x besser finden würde als FSR.
Nur das "beste" bekommt überhaupt einen Punkt.
Aber wie gesagt, im Endeffekt ist es eh egal, da die AMD User FSR wählen und die Nvidia User DLSS4.5.
Warum sollte da irgend jemand für DLSS4.0 stimmen, außer die 0,001% der Nutzer die vielleicht wirklich ehrlich abstimmen und dann vielleicht bei irgend einem Vergleich tatsächlich zu dem Schluss kommen, dass DLSS4.5 schlechter aussieht als DLSS4.0.
Du könntest in dem Vergleich auchg enauso gut FSR2 als einzigen AMD Upscaler nehmen und dann DLSS4.0 und DLSS4.5 zum Vergleich ziehen. Auch da würde DLSS4.0 haushoch gegen FSR2 verlieren. Einfach weil bei AMD als auch Nvidia Usern ein extremer Bias herrscht. Nvidia User würden wieder 4.5 nehmen und AMD User FSR2.
Und selbst wenn einige AMD User ehrlich abstimmen würden, würde DLSS4.5 die stimme bekommen und ganz sicher nicht 4.0. 4.5 ist schließelich besser. 4.0 wäre zwangsweise das Schlusslicht im Ranking, selbst wenn es objektiv auf dem zweiten Platz sein müsste.
Solche Abstimmungen sind nicht umsonst eine Wissenschaft für sich. Und CB hat ein sehr anschauliches Beispiel gezeigt, wie man es nicht machen sollte.
Dir ist schon klar dass deine Argumentation auf sehr löchrigen Füssen steht bei einer generellen Verteilung im Grakamarkt von 90% zu 10 % (oder wie ggf. in deutschland vielleicht 70 30 oder wie auch immer. ISt ja reine spekulation). Dazu kommt dass die Verteilung in jedem Beispiel eine andere ist. Dass das nicht repräsentativ ist, ist auch klar, aber nach Eurer Logik müsste 100 % für dlss 4.5 rauskommen. Aber das ist halt nicht die Realität, weil jeder ein Bild anders anguckt. Bias hin oder her...
Unabhängig davon sagt es trotzdem aus dass manchen Leuten offensichtlich fsr4 besser gefällt vor allem als dlss 4. Auch sehr gut zu sehen in der aktuellen News von 3dcenter (die kommt ja wie gerufen :D https://www.3dcenter.org/news/news-des-2425-januar-2026 )
Du solltest auch nicht von dir auf andere schliessen. Aber schön dass du deinen bias hier dokumentierst...
Laut geschrien ist halt oft nicht Zielführend für eine richtige Analyse für Dinge... (die man hier auch zum Teil schwerlich machen kann)
Aber man sieht an der Diskussion in den Kommentaren des Computerbase Artikels (hab nur mal kurz reingeguckt) auf welcher Ebene man sich da befindet. Daher hab ich ja schon hier bewusst gesagt, dass der großen Mehrheit diese Detaildiskussion die hier geführt und auf der Ebene auch bewertet wird, am Ende am Arsch vorbeigeht, weil man hier bei 100% zoom nach Fehlern sucht. Ich denke dir ist auch klar dass das realitätsfremd ist für den normalen Use Case des Endusers.
Wenn es darum geht das beste verfahren zu ermitteln, ist das der richtige Ansatz. ABer am Ende ist für die meisten wichtig dass es in ihrem Usecase auf dem Monitor gut aussieht. Und das ist mal nun ein maximal subjektives empfinden und hat viele Einflussfaktoren (sehstärke, Monitor, Lichtverhältnisse, alter, Geschmack was Weichzeichnung oder Überschärfung angeht usw.).
Um das zu erkennen muss man von seinem Superexpertentiefenanalyse einfach auch mal zurücktreten um in den Strom der Masse zurück zu kommen.
Daher finde ich solche Bewertungen spannend. Jeder kann dann daraus ableiten was er will, aber ein bisschen über den Tellerrand zu schauen und sich überlegen, warum das so ist, macht schon auch Sinn. Und wie man sieh sind selbst die Experten sich nicht einig. Es spielt hatl zuviel persönlicher Geschmack mir rein.
PS: ich habe ja im vorherigen posting schon geschrieben, dass ich manche Bewertung auch anders machen würde. ABer das leben ist kein gerade linie auf der jeder entlangläuft.
robbitop
2026-01-26, 17:30:55
Naja aber der Punkt, dass man einen Blindtest bräuchte ist schon sinnvoll - das gilt ja für alle Vergleiche. Nur so kann seriös verglichen werden. Und ein weiterer Punkt ist, dass Screenshots oft nur ein Teil des Ganzen sind. Viele Artefakte sind vor allem in Bewegung sichtbar: moire, specular flimmern, allgemeine temporale Instabilität, disocclusion Artefakte (zumindest schwieriger einzufangen in screenshots).
Am besten macht man das IMO in dem man Kategorien bildet wo es in der Regel Stärken und Schwächen gibt (ähnlich zum FSR2 deathloop Video von DF) und dann Bewegtbeispiele (ggf gezoomt und als gif) und statische Beispiele bringt. Und das blind. Ansonsten fehlt da auch ein wenig Substanz.
TheGood
2026-01-26, 22:56:39
Naja aber der Punkt, dass man einen Blindtest bräuchte ist schon sinnvoll - das gilt ja für alle Vergleiche. Nur so kann seriös verglichen werden. Und ein weiterer Punkt ist, dass Screenshots oft nur ein Teil des Ganzen sind. Viele Artefakte sind vor allem in Bewegung sichtbar: moire, specular flimmern, allgemeine temporale Instabilität, disocclusion Artefakte (zumindest schwieriger einzufangen in screenshots).
Am besten macht man das IMO in dem man Kategorien bildet wo es in der Regel Stärken und Schwächen gibt (ähnlich zum FSR2 deathloop Video von DF) und dann Bewegtbeispiele (ggf gezoomt und als gif) und statische Beispiele bringt. Und das blind. Ansonsten fehlt da auch ein wenig Substanz.
Ja ich finde Blindtests auch immer ganz gut. Bei der Computerbase haben sie ja extra lossless videos gemacht. Das ist schon auch gut.
Relex
2026-01-27, 09:26:00
G4BI1-bgg0E
Sogar Ancient ist mittlerweile ziemlich angepisst von AMD. :frown:
dildo4u
2026-01-27, 10:15:08
Die haben natürlich Leute abgezogen damit die KI Software besser läuft die Karten haben gerade erst support bekommen.
https://www.amd.com/en/blogs/2026/amd-software-adrenalin-edition-ai-bundle-ai-made-si.html
maestro768
2026-01-27, 10:21:05
In meinem Laptop arbeitet eine 5070 TI, in meinem Desktop-Rechner inzwischen eine 9070 XT und davor eine 6800 XT.
Glücklicherweise sind die Unterschiede zwischen FSR 4 und DLSS 4 inzwischen so klein, dass man imo das ganze gar nicht mehr so stark sezieren muss. Teilweise hängt es auch stark vom Spiel ab: manchmal sehe ich zwischen DLSS 4 und FSR 4 nur einen Unterschied wenn ich einen Suche, und manchmal springt es mir direkt ins Auge. Bei DLSS 4.5 ist mir nur direkt die höhere Schärfe aufgefallen, das ist teilweise ein deutlicher Unterschied zu DLSS und FSR 4. Aber solange man nicht mit FSR spielen muss, kann man inzwischen doch sehr froh über die Qualität sein.
Aber ich stimme zu: gerade weil die Unterschiede inzwischen klein sind, muss man Spielern Vergleiche eigentlich immer als unkomprimiertes Video präsentieren. Screenshots lohnen sich nur, wenn irgendwo etwas offensichtich falsch gerendert wird. Aber selbst das fällt in der Praxis oft ja gar nicht auf, denn dafür müsste man ja wissen wie es richtig aussehen soll. Und solange man das Spiel nicht erstmal ohne Upscaling oder mit der Konkurrenz gespielt hat...
Ex3cut3r
2026-01-27, 10:32:24
https://youtu.be/G4BI1-bgg0E
Sogar Ancient ist mittlerweile ziemlich angepisst von AMD. :frown:
Auch AMD hat den Fokus auf KI gelegt. Das wird halt momentan das große Geld gescheffelt. Gamer sind nur noch 2 oder 3. Klasse. Ist leider so.
dildo4u
2026-01-27, 10:54:08
Die werden eh alle Karte abverkaufen da 5070 TI bald bei 1k anfangen, sind 600€ 9070 noch ok auch wenn sie nicht alle Features haben.
T3MjSxysft0
basix
2026-01-27, 22:40:10
Interessant, dass FSR4 anscheinend auch im linearen Farbraum arbeitet wie DLSS 4.5. Da war AMD dem Upscaler von Nvidia für einmal voraus :)
dargo
2026-01-28, 06:35:28
https://youtu.be/T3MjSxysft0
Jetzt fängt die Pixelzählerei an. :ulol:
basix
2026-01-28, 08:31:31
Ich finde FSR4 kommt im Vergleich zu DLSS 4 und 4.5 im Video ja nicht so schlecht weg. Der grösste Unterschied ist das unschärfere Bild. Aber dafür weniger "sizzling und noise". Ich denke als Basis für eine nächste Iteration sieht das ja nicht schlecht aus.
dargo
2026-01-28, 09:54:23
Ich muss jedes Mal schmunzeln wenn ich was von Unschärfe bei FSR4 lesen muss und dann auf meinen 166ppi OLED schaue. :tongue: Ich verwende aber auch in der Regel eher Balanced als Performance. Und selbst wenn das Bild ganz minimal einem zu unscharf vorkommen sollte schmeiße ich minimal RCAS drüber (bsw. 0.1) und gut ist. First World Problems. In der Regel brauche ich das aber bei meinem Bildschirm nicht.
Relex
2026-01-28, 10:25:50
Der grösste Unterschied ist das unschärfere Bild
Ja und jetzt rate mal was ein temporaler algorithmus macht, wenn er nicht genug samples bzw. eine schlechte hitrate hat. Er wird unscharf. Unschärfe ist immer der Fallback für "ich bin mir unsicher, was ich tun soll". Denn die Alternative wären hässliche Artefakte.
Auch wird der Algorithmus stark auflösungabhängig, was man bei DLSS3 und FSR3 und auch FSR4 vor allem im Performancemdus noch gut sieht. Sie werden (in Bewegung) und abhängig von der Qualitätsstufe unscharf.
Bei nvidia ist das nahezu gar nicht mehr der Fall. Es gibt praktisch keinen blur mehr, auch nicht im Performance modus, selbst im Ultra Performance Modus nur geringfügig, was eben 1:1 die Leistungsfähigkeit des Algorithmus zeigt. (Natürlich nur mit abgeschaltetem Scharfzeichner)
FSR hat schon riesige Fortschritte gemacht, keine Frage. Immerhin ist es ein gutes Stück besser als DLSS3, was vor etwas mehr als einem Jahr noch der Status quo war. Aber die Kerneigenschaften von DLSS4 und 4.5 sind da noch nicht vorhanden. Wird es dann hoffentlich mit FSR5 geben... Das könnte dann wirklich interessant werden.
Der grösste Unterschied ist das unschärfere Bild.
Genau das war vor einem Jahr der große Vorteil von DLSS4.
Lurtz
2026-01-28, 14:04:47
Ich muss jedes Mal schmunzeln wenn ich was von Unschärfe bei FSR4 lesen muss und dann auf meinen 166ppi OLED schaue. :tongue: Ich verwende aber auch in der Regel eher Balanced als Performance. Und selbst wenn das Bild ganz minimal einem zu unscharf vorkommen sollte schmeiße ich minimal RCAS drüber (bsw. 0.1) und gut ist. First World Problems. In der Regel brauche ich das aber bei meinem Bildschirm nicht.
Die DPI ändern auch nicht viel am Blur in Bewegung. Da ist das Upscaling-Modell viel entscheidender als die DPI.
aufkrawall
2026-01-28, 14:09:50
Jop. FSR 4 hat etwa bei Gräsern mit AO mitunter ein ziemliches Unschärfe-Bias in Bewegung. Ist Daniel Owen etwa auch an anderer Stelle aufgefallen.
dargo
2026-01-28, 20:44:11
Die DPI ändern auch nicht viel am Blur in Bewegung. Da ist das Upscaling-Modell viel entscheidender als die DPI.
Pfff... da kann ich mich ja glücklich schätzen, dass ich keinen störenden Blur in Bewegung sehe. :tongue: Immer wieder erstaunlich was ihr euch Neues einfallen lasst. ;D
Relex
2026-01-28, 21:59:53
Ich glaub nicht, dass ein paar DPI mehr das ausgleichen können.
https://i.ibb.co/yrn9CDt/Screenshot-2026-01-28-215042.png (https://ibb.co/zzhMg1p)
https://i.ibb.co/5gy0PpfG/Screenshot-2026-01-28-220130.png (https://ibb.co/9kLD7KCc)
Das ist halt ganz einfach ne schwäche von FSR, genauso wie es bei FSR3 und DLSS3 auch eine Schwäche war. DLSS4.5 hat auch schwächen in anderen Bereichen, oh wunder. Muss man doch nicht leugnen...
dargo
2026-01-29, 06:45:06
Ich glaub nicht, dass ein paar DPI mehr das ausgleichen können.
Du hattest auch nicht geglaubt, dass mich 166ppi vs. 140ppi @OLED bei der Textklarheit überzeugen, so viel dazu. Und so extrem verschwommenes Gemüse wie in deinen Bildern (betrachte das gerade allerdings auf einem 27" 1080p Screen) habe ich noch in keinem einzigen Game bei mir mit FSR4 angetroffen. Oder hast du da einen Extremfall mit 720p auf 4k für FSR4 gerade? So tief gehe ich nirgendwo mit dem Input runter. Wie gesagt... in der Regel verwende ich 1253p auf 4k, ganz selten 1080p (eigentlich nur bei AC: Shadows bisher) beim Input. 1440p als Input würde ich schon beinah als überflüssig @166ppi betrachten. Oder anders gesagt der Unterschied zu 1253p ist verschwindend gering vs. Kosten. Ist aber auch ein wenig vom Content abhängig.
Achja... und aus welchen Spiel sind die Bilder überhaupt?
basix
2026-01-29, 07:33:43
Ja und jetzt rate mal was ein temporaler algorithmus macht, wenn er nicht genug samples bzw. eine schlechte hitrate hat. Er wird unscharf. Unschärfe ist immer der Fallback für "ich bin mir unsicher, was ich tun soll". Denn die Alternative wären hässliche Artefakte.
Ist mir schon klar. Aber versuchen wir es mal objektiv zu bewerten (mit meiner subjektiven Meinung :D):
Disocclusion: FSR4 ~ DLSS 4.5 > DLSS 4
Highlights / Dynamic Range: FSR4 ~ DLSS 4.5 > DLSS 4
Kantenglättung: DLSS 4.5 > FSR4 ~ DLSS 4
Ghosting: DLSS 4.5 > FSR4 ~ DLSS 4
Detailrekonstruktion: DLSS 4.5 > DLSS 4 > FSR4
Bildschärfe: DLSS 4.5 > DLSS 4 > FSR4
Bildstabilität: Kommt drauf an, was man bewertet (noise, sizzling, feine Linien, Aliasing, ...). DLSS 4 hat hier ein paar Macken. An anderen Orten ist FSR4 etwas schlechter.
In vielen Aspekten sieht FSR4 mMn nicht so schlecht aus. Bildschärfe fällt hier aufgrund weniger guter Detailrekonstruktion am stärksten ab. Mir persönlich gefällt Bildschärfe enorm, ich bin da im Team DLSS 4.5. Aber als erster DNN-Upscaler Wurf von AMD ist FSR4 ganz gut brauchbar. Bei Disocclusion und Highlights / Dynamic Range (linear color space) war man sogar DLSS 4.0 voraus und Nvidia hat jetzt erst 1 Jahr später mit DLSS 4.5 aufgeholt ;)
dildo4u
2026-01-29, 07:39:09
Achja... und aus welchen Spiel sind die Bilder überhaupt?
Das neue Mafia mit Unreal Engine 5.
dargo
2026-01-29, 09:21:41
Das neue Mafia mit Unreal Engine 5.
Ah ok, das habe ich nicht. Steht zwar noch auf dem Plan, da warte ich aber noch gute Deals ab und etwas mehr Zeit wäre auch nicht schlecht. Aber diesen Winter wird es denke ich noch was. Bei UE5 bin ich eh immer etwas skeptisch da dort immer mit Post Processing Gedöns völlig übertrieben wird im Bereich Blur. Sowas schalte ich direkt ab. Aber wie gesagt... bewerten kann ich das erst wenn ich es selbst sehe.
Ist mir schon klar. Aber versuchen wir es mal objektiv zu bewerten (mit meiner subjektiven Meinung :D):
Disocclusion: FSR4 ~ DLSS 4.5 > DLSS 4
Highlights / Dynamic Range: FSR4 ~ DLSS 4.5 > DLSS 4
Kantenglättung: DLSS 4.5 > FSR4 ~ DLSS 4
Ghosting: DLSS 4.5 > FSR4 ~ DLSS 4
Detailrekonstruktion: DLSS 4.5 > DLSS 4 > FSR4
Bildschärfe: DLSS 4.5 > DLSS 4 > FSR4
Bildstabilität: Kommt drauf an, was man bewertet (noise, sizzling, feine Linien, Aliasing, ...). DLSS 4 hat hier ein paar Macken. An anderen Orten ist FSR4 etwas schlechter.
In vielen Aspekten sieht FSR4 mMn nicht so schlecht aus. Bildschärfe fällt hier aufgrund weniger guter Detailrekonstruktion am stärksten ab. Mir persönlich gefällt Bildschärfe enorm, ich bin da im Team DLSS 4.5. Aber als erster DNN-Upscaler Wurf von AMD ist FSR4 ganz gut brauchbar. Bei Disocclusion und Highlights / Dynamic Range (linear color space) war man sogar DLSS 4.0 voraus und Nvidia hat jetzt erst 1 Jahr später mit DLSS 4.5 aufgeholt ;)
Mittlerweile ist das doch wirklich völlig übertrieben dieses Rumgeeier, finde diese ganzen IHV-Kriegsdebatten nur noch *gähn*. Korinthenkackerei bzw. Meckern auf hohem Niveau, zumindest bei einem high ppi Bildschirm und brauchbaren Pixelinput. Bei worst cases wie zb. 720p als Input mag das aktuell noch anders aussehen.
Relex
2026-01-29, 10:02:07
Das war 4K im Performance Modus. Nix mit 720p. Aber joa, DLSS würde in 720p da wahrscheinlich auch weniger blur erzeugen, weil solche Ausfälle meistens eben nicht wirklich mit der Auflösung skalieren.
Selbst mit FSR Quality würde das nur minimal weniger werden.
War ja bei DLSS3 und DLSS4 oder FSR3 auch so. Wenn das irgendwo ghosting oder schlieren hatte war die Auflösung völlig egal. FSR4 ist da keine Ausnahme.
Aber ich frag mich, warum du von 720p sprichst. Also siehst du doch nen Unterschied? Dir fällt also auf, dass die FSR Seite unschärfer ist? Und ich dachte bei deinem High PPI bildschirm sieht man keinen Unterschied mehr? Jetzt bin ich doch sehr verwirrt. :confused:
dargo
2026-01-29, 10:05:13
Aber ich frag mich, warum du von 720p sprichst. Also siehst du doch nen Unterschied? Dir fällt also auf, dass die FSR Seite unschärfer ist? Und ich dachte bei deinem High PPI bildschirm sieht man keinen Unterschied mehr? Jetzt bin ich doch sehr verwirrt. :confused:
Das glaube ich dir gerne.
Du hattest auch nicht geglaubt, dass mich 166ppi vs. 140ppi @OLED bei der Textklarheit überzeugen, so viel dazu. Und so extrem verschwommenes Gemüse wie in deinen Bildern (betrachte das gerade allerdings auf einem 27" 1080p Screen) habe ich noch in keinem einzigen Game bei mir mit FSR4 angetroffen.
Relex
2026-01-29, 10:27:03
Ah ja, aber auf deinem 166 PPI Display siehst du dann keinen Unterschied mehr?
Die PPI sind dafür ziemlich irrelevant, entscheidend ist die Renderauflösung. Und der Sinn von Upscaling ist ja dass man die Renderauflösung quasi gleich lassen kann unabhängig von der Ausgabeauflösung.
Also klar, auf einem Screen mit mehr PPI und damit höherer Auflösung sieht man das weniger wenn man auch die Renderauflösung erhöht.
Läuft dann eben entsprechend langsamer. Wenn man die Renderauflösung gleich hält und damit nur den höheren Performanceverlust vom Upscaling hat wird man auch keinen großen Unterschied in der Schärfe sehen.
Die Aussage mehr PPI = weniger Unschärfe hat ungefähr den Wert von 4k hat weniger Unschärfe als 1080p.
No-Na, ist dafür eben auch 4x langsamer.
Lurtz
2026-01-29, 13:35:15
Pfff... da kann ich mich ja glücklich schätzen, dass ich keinen störenden Blur in Bewegung sehe. :tongue: Immer wieder erstaunlich was ihr euch Neues einfallen lasst. ;D
Bei GPUs willst du ganz viel nicht sehen, so ist das halt wenn man in einem Lager sitzt und alles andere ausblendet ;)
Das ist nichts Neues, Blur ist die zentrale Herausforderung seit es TAA gibt.
reunion
2026-01-29, 13:38:41
Bei GPUs willst du ganz viel nicht sehen, so ist das halt wenn man in einem Lager sitzt und alles andere ausblendet ;)
Das ist nichts Neues, Blur ist die zentrale Herausforderung seit es TAA gibt.
Naja gut, die ganzen Leute hier, die sich über das schreckliche Blur bei FSR4 aufregen, haben vor nicht allzulanger Zeit noch sehr leidenschaftlich das viel stärker blurrende DLSS2/3 gegen jegliche Kritik verteidigt. ;)
Deine Aussage kann man also durchaus auf beide Seiten beziehen. Im Endeffekt ist es mittlerweile zum Glück Kritik auf hohem Niveau. Trotzdem ist es wichtig, Kritik zu äußern, nur so entsteht Wettbewerb und damit Fortschritt.
aufkrawall
2026-01-29, 13:41:16
Ah ok, das habe ich nicht. Steht zwar noch auf dem Plan, da warte ich aber noch gute Deals ab und etwas mehr Zeit wäre auch nicht schlecht. Aber diesen Winter wird es denke ich noch was. Bei UE5 bin ich eh immer etwas skeptisch da dort immer mit Post Processing Gedöns völlig übertrieben wird im Bereich Blur. Sowas schalte ich direkt ab. Aber wie gesagt... bewerten kann ich das erst wenn ich es selbst sehe.
In den Gräsern in GTA V kann genau das Gleiche passieren, wenn viele davon hintereinander sind. Spätestens bei bestimmten Lichtverhältnissen.
Nanite ist halt der Catalysator für Upsampler-Schwächen, nichts neues. Wobei ich da die Softness von FSR 4 oft weniger schlimm finde als das Gebrösel von DLSS Preset K.
Aber RR Preset E killt da alles andere.
dargo
2026-01-29, 13:42:02
Bei GPUs willst du ganz viel nicht sehen, so ist das halt wenn man in einem Lager sitzt und alles andere ausblendet ;)
Das sagt der richtige der bei jedem neuen DLSS immer alles ausgeblendet hatte. :ulol: Hauptsache DLSS X hypen und wenn eine neue Version kommt werden plötzlich die Schwächen vom alten erwähnt, kannst du dir nicht ausdenken.
Lurtz
2026-01-29, 13:54:43
Ist halt Blödsinn, die Schärfe von FSR 2 wurde so ziemlich als einziger Vorteil gegenüber DLSS 2/3 herausgestellt. Und nachgeschärft haben wir das auch alle nicht, weil es so scharf war und das niemand zugeben wollte :rolleyes:
Die anderen Vorteile haben den Nachteil nur überwogen.
Davon abgesehen hatet ich immerhin eine 9070 XT hier, im Gegensatz zu anderen Leuten, die alles außer Radeons nicht mehr kaufen :ulol:
Ich habe die auch nicht zurückgegeben, weil FSR4 schlecht war, sondern weil es lachhaft ist, dass AMD sich auf Optiscaler ausruht, statt für Verbreitung ihrer Technologien zu sorgen. Absolut lachhaft dass ausgerechnet die Firma als kundenfreundliche Alternative zu nVidia gelten soll ;D AMD gibt einen Scheiß auf eure Markentreue.
dargo
2026-01-29, 14:35:51
AMD gibt einen Scheiß auf eure Markentreue.
Falls du es immer noch nicht kapiert hast... ich bleibe erstmal bei AMD zwecks Mangel an Alternativen. Und eine Arschlochfirma wie Nvidia ist keine Alternative für mich. Und ich fühle mich jeden Tag wunderbar diesem Saftladen keinen einzigen Cent schon seit vielen Jahren in den Rachen zu schieben. Intel käme womöglich in Frage gäbe es Alternativen im entsprechenden Segment. Wobei sich Intel früher als sie den CPU-Markt dominiert haben auch wie Arschlöcher benommen haben.
robbitop
2026-01-29, 15:01:58
Companies are not your friends. Ist halt so - die sind nur ihren Investoren verpflichtet und die wollen Gewinnmaximierung. Da wird jeder Marktführer zum Arschloch und jeder Underdog zum Freund des Konsumenten. :)
aufkrawall
2026-01-29, 15:04:21
Ist natürlich so wichtig, welchem Hardware-Hersteller man Geld reinwirft, wenn Teile des eigenen westlichen Arbeitgebers in ukrainische Wohngebäude einschlagen. Massives butthurtiges Copium at its best. :ucrazy4:
dargo
2026-01-29, 17:05:37
Companies are not your friends. Ist halt so - die sind nur ihren Investoren verpflichtet und die wollen Gewinnmaximierung. Da wird jeder Marktführer zum Arschloch und jeder Underdog zum Freund des Konsumenten. :)
Ihr könnt mit eurem Geld machen was ihr wollt, es ist mir latte. :) Aktuell dominiert AMD im CPU-Bereich und dennoch ist die schnellste Gaming-CPU (Octa-Core... breiter aktuell irrelevant) die man erwerben kann human preislich positioniert. Nicht super geil (das wären eher um die 300€ bei mir, gleiches hatte mich der 5800X3D damals gekostet) aber eben noch ok-isch. Außerdem muss man das schnellste ja nicht kaufen. Lohnt in der Regel eh nicht. Ich erinnere nur mal an die RX 6800XT vs. RX 6900XT, letzteres war preislich im Verhältnis lächerlich positioniert.
robbitop
2026-01-29, 17:14:53
Sind halt nur 8 Kerne. Und Intel hat erstaunlicherweise immernoch größere Marktanteile. Das ist also schon noch deutlich von der Situation im GPU Markt entfernt.
Aber mein Statement war eigentlich eher allgemein gemeint. Egal welcher Markt und egal welche Firma.
x-force
2026-01-29, 17:19:02
das größte problem ist die reale gefahr, dass nv im grafikbereich ein monopol aufbaut, ohne dafür zerschlagen zu werden.
viel fehlt dazu aufgrund von amds schwäche und inkompetenz leider nicht mehr.
dargo
2026-01-29, 17:20:31
Aber mein Statement war eigentlich eher allgemein gemeint. Egal welcher Markt und egal welche Firma.
Ich kann mich auch gerne wiederholen falls es bei dir auch noch nicht angekommen ist. Von Arschlöchern kaufe ich nichts!
TheAntitheist
2026-01-29, 17:30:57
Pfff... da kann ich mich ja glücklich schätzen, dass ich keinen störenden Blur in Bewegung sehe. :tongue: Immer wieder erstaunlich was ihr euch Neues einfallen lasst. ;D
alle tests, egal ob DF, CB, HWunboxed etc sagen das FSR4 im Gegensatz du DLSS4 und 4.5 deutlich unschärfer ist in Bewegung... also das ist nichts neues.
das ist doch auch okay, wird AMD auch in 2 Jahren gefixed haben. Aber zu behaupten die hätten damit kein Problem, damit macht man es nur schlimmer.
Wenn AMD sieht das die Kunden damit zufrieden sind, warum sollte man dann noch mehr investieren?
robbitop
2026-01-29, 17:36:40
IMO: Das Hauptproblem ist IMO nicht FSR4 als SR. Das ist schon ziemlich gut. Man fällt in vielen anderen Bereichen zurück wo man erstmal aufholen muss.
- Verbreitung von FSR4
- RT HW die nich schlagkräftiger wird (wahrscheinlich rdna5)
- ein echtes RR Äquivalent was auch richtiges AA und upsampling mit rays kann und nicht nur ein denoiser (und dessen Verbreitung)
- FG was immer konstitent sehr gutes framepacing liefert (was dann auch die Basis für MFG ist) - und die Verbreitung dessen
dargo
2026-01-29, 17:47:52
alle tests, egal ob DF, CB, HWunboxed etc sagen das FSR4 im Gegensatz du DLSS4 und 4.5 deutlich unschärfer ist in Bewegung... also das ist nichts neues.
Und trotzdem ist es mir latte solange es mich in meinen Games bei meinem Bildschirm mit meinen high fps nicht stört. Wann rafft ihr das endlich? Schon alleine diese Screenshots aus einer Bewegung sind lachhaft genug. Genau der selbe bullshit wie die Ufobilder. Wenn Games bei 120Hz/60Hz so in Bewegung aussehen würden würde kein Mensch mehr Games spielen.
https://miro.medium.com/v2/resize:fit:4800/format:webp/1*QCh-D1kKLyjQBRRwXXsHpw.png
Das Auge bzw. das Gehirn nimmt eine Bewegung ganz anders wahr als das was diese Bilder vermitteln möchten.
btw.
Und mich würde auch nicht überraschen wenn es Unterschiede bei der Wahrnehmung gibt. Gleiches Verhalten gibt es nämlich bei Menschen bezüglich flüssiges Bild. Auch dort gibt es Unterschiede in der Wahrnehmung. Dazu gibt es sogar Studien mit verschiedenen Probanden. Also hört mir endlich auf mit euren Pauschalisierungen! Erst recht wenn es so viele verschiedene Variablen gibt. Nicht nur bei unterschiedlichen Wahrnehmungen sondern auch Paneltechnik, anliegenden fps etc.
Relex
2026-01-29, 18:23:40
Wenn Games bei 120Hz/60Hz so in Bewegung aussehen würden würde kein Mensch mehr Games spielen.
Ähm.. das tun sie aber. Und zwar exakt so wie im Test.
dargo
2026-01-29, 18:26:52
Ähm.. das tun sie aber. Und zwar exakt so wie im Test.
Dann mein Beileid für deine Wahrnehmung. Dann muss ich wohl zu den Glücklichen gehören bei denen es nicht so schlimm ankommt.
basix
2026-01-29, 21:05:06
das größte problem ist die reale gefahr, dass nv im grafikbereich ein monopol aufbaut, ohne dafür zerschlagen zu werden.
viel fehlt dazu aufgrund von amds schwäche und inkompetenz leider nicht mehr.
Solange Intel insgesamt immer noch die meisten GPUs verkauft (inkl. iGPU) und AMD in den Konsolen drin ist, wird es wohl schwer dem Rechtsstaat gegenüber ein Monopol zu argumentieren ;)
Dann mein Beileid für deine Wahrnehmung. Dann muss ich wohl zu den Glücklichen gehören bei denen es nicht so schlimm ankommt.
Dann gehörst du anscheinend zu den armen deren Wahrnehmung nicht schnell genug ist.
Naja gut, die ganzen Leute hier, die sich über das schreckliche Blur bei FSR4 aufregen, haben vor nicht allzulanger Zeit noch sehr leidenschaftlich das viel stärker blurrende DLSS2/3 gegen jegliche Kritik verteidigt. ;)
Der Unterschied ist eben das man heute anderes gewöhnt ist.
Blur in Bewegung gehört dazu seit es TAA gibt und man hat sich daran gewöhnt weil es nichts besseres gab. DLSS bis 3 konnte den zwar im Standbild deutlich verringern, aber wenig gegen den Blur in Bewegung ausrichten.
Seit DLSS4 weiß man dass es auch anders geht, und an besseres gewöhnt man sich sehr schnell, ganz im Gegenteil dazu sich an schlechteres zu gewöhnen.
Wenn man einmal DLSS4 gesehen hat sah im nächsten Moment auch DLSS3 viel schlechter aus, bevor man DLSS4 gesehen hat war eben der Look von DLSS3 normal.
Und FSR4 ist jetzt ungefähr im Bereich von DLSS3, was richtig gut wäre, wenn nicht gleichzeitig DLSS4 erschienen wäre.
Ich kann mich auch gerne wiederholen falls es bei dir auch noch nicht angekommen ist. Von Arschlöchern kaufe ich nichts!
Dann darfst du gar nichts von großen Konzernen kaufen, die sind alle die gleichen Arschlöcher und interessieren sich nur für den Inhalt deines Kontos.
x-force
2026-01-30, 02:25:29
Solange Intel insgesamt immer noch die meisten GPUs verkauft (inkl. iGPU) und AMD in den Konsolen drin ist, wird es wohl schwer dem Rechtsstaat gegenüber ein Monopol zu argumentieren ;)
du vergleichst äpfel und birnen.
die wesentliche erkenntnis besteht darin, dass gpu nicht gleich gpu ist.
der markt für "gaming gpus in pcs" ist nicht der markt von spielekonsolen.
intels ist meinen seinen igpus kein marktteilnehmer auf dem markt der "gaming gpus für pcs".
vielleicht gefällt dir auch der begriff dedizierte gpus besser. dort sieht es nicht anders aus.
hier hat nv schon jetzt eindeutig eine marktbeherrschende stellung!
laut dieser quelle sind es schon über 92%:
https://www.techspot.com/news/110464-nvidia-dominates-discrete-gpu-market-92-share-despite.html
Nvidia: Hält einen Marktanteil von typischerweise über 90 %, in manchen Quartalen sogar bis zu 94 %.
AMD: Hat einen Marktanteil, der auf bis zu 6 % bis 8 % gesunken ist.
Intel, der dritte Akteur, hat in diesem Segment nur einen minimalen Anteil von unter 1 %
DrFreaK666
2026-01-30, 06:22:28
Wieso wird dieser Thread regelmäßig der "AMD vs Nvidia"-Thread und nicht der DLSS-Thread?
dargo
2026-01-30, 06:28:52
Dann gehörst du anscheinend zu den armen deren Wahrnehmung nicht schnell genug ist.
Na immerhin gehöre ich nicht zu den armen die die erhöhte Latenz bei (M)FG nicht merken und sich einen abrubbeln nur weil der Framecounter weiter in die Höhe schießt.
Der Unterschied ist eben das man heute anderes gewöhnt ist.
Blur in Bewegung gehört dazu seit es TAA gibt und man hat sich daran gewöhnt weil es nichts besseres gab.
Wieder nichts weiter als pauschalisierter Dünnschiss, Gratulation! Wahrgenommener bzw. störender Blur hängt von vielen Faktoren ab, aber ich wiederhole mich nur.
du vergleichst äpfel und birnen.
die wesentliche erkenntnis besteht darin, dass gpu nicht gleich gpu ist.
der markt für "gaming gpus in pcs" ist nicht der markt von spielekonsolen.
intels ist meinen seinen igpus kein marktteilnehmer auf dem markt der "gaming gpus für pcs".
vielleicht gefällt dir auch der begriff dedizierte gpus besser. dort sieht es nicht anders aus.
Hast du wieder dein Brett vorm Kopf? Einfach nur unfassbar wie man immer noch nicht raffen kann wie ein Gaming-Markt (speziell AAA) funktioniert. :facepalm: Ohne die Konsolen wäre AAA längst tot! Sieht man wunderbar an den in der Regel kleinen Verkaufszahlen der PC-Versionen. Wenn Nvidia bei dGPUs so extrem dominiert warum verkaufen sich die Titel nicht mehrere Millionen Mal am PC, am besten noch im zweitstelligen Bereich? Was machen die ganzen Nvidia-"Gamer" damit? Raubkopien verwenden oder diese dGPUs anderweitig verwenden? Irgendwie vermisse ich die ganzen News bezüglich neuen Verkaufsrekorden von PC-Spielen wenn der PC hier (speziell @Nvidia) so dominiert. :rolleyes:
Dann darfst du gar nichts von großen Konzernen kaufen, die sind alle die gleichen Arschlöcher und interessieren sich nur für den Inhalt deines Kontos.
Ich bin alt genug um meine Kaufentscheidungen selbst zu treffen, musst dir nicht den Kopf deswegen zerbrechen.
The_Invisible
2026-01-30, 07:40:05
Na immerhin gehöre ich nicht zu den armen die die erhöhte Latenz bei (M)FG nicht merken und sich einen abrubbeln nur weil der Framecounter weiter in die Höhe schießt.
Frag mich eher wie du das wissen und beurteilen willst wo du doch gar kein Reflex + MFG nutzen kannst
https://youtube.com/shorts/ohF088oBJe4?si=JzF4NsUWbI3wUIIp
Ancient scheint langsam auch ungeduldig zu werden :D
8EIxObIBQ3U
DrFreaK666
2026-01-30, 07:46:51
Wie wäre es wenn es wieder zurück zum Thema gehen würde?
Jetzt wird hier sogar Intel reingemischt :rolleyes:
Ex3cut3r
2026-01-30, 07:50:01
Dargo mit seinem AMD Bias. Und DrFreak666 als Forums Polizei. Hier ändert sich auch nie was. Peinlich hoch zehn.
dargo
2026-01-30, 08:19:53
Frag mich eher wie du das wissen und beurteilen willst wo du doch gar kein Reflex + MFG nutzen kannst
Bist du wieder heil? :facepalm:
Dargo mit seinem AMD Bias. Und DrFreak666 als Forums Polizei. Hier ändert sich auch nie was. Peinlich hoch zehn.
Peinlich sind höchstens nur die grünen Lemminge, die hier jedes Mal mit bullshit Floskeln reingrätschen.
Argo Zero
2026-01-30, 08:32:07
Benehmt euch. Keiner hat Lust auf Karten. Edit: Der erste war schon so schlau direkt unter dem Mod-Posting (Beitrag gelöscht) einen fünfer zu kassieren...
basix
2026-01-30, 10:58:34
Neuer Vergleich von CB: https://www.computerbase.de/artikel/grafikkarten/nativ-dlss-4-5-fsr-4-upscaling-ai-benchmarks.95958/
Fazit:
4K nativ spielen lohnt sich mit DLSS4+ und FSR4 nicht mehr. Selbst die Performance Modi schlagen nativ in den meisten (DLSS 4.5) oder vielen (FSR4) Fällen.
Relex
2026-01-30, 13:23:32
Neuer Vergleich von CB: https://www.computerbase.de/artikel/grafikkarten/nativ-dlss-4-5-fsr-4-upscaling-ai-benchmarks.95958/
Fazit:
4K nativ spielen lohnt sich mit DLSS4+ und FSR4 nicht mehr. Selbst die Performance Modi schlagen nativ in den meisten (DLSS 4.5) oder vielen (FSR4) Fällen.
Tolle Sache :up:
Ein weiterer Schritt weg von brute force rendering hin zu neural rendering.
DrFreaK666
2026-01-30, 14:20:45
Ich bin mit FSR4 sehr zufrieden
Spring
2026-01-30, 14:23:42
Ich bin mit FSR4 sehr zufrieden
*unterschreib* (y)
Exxtreme
2026-01-30, 14:31:26
Der Unterschied ist eben das man heute anderes gewöhnt ist.
Blur in Bewegung gehört dazu seit es TAA gibt und man hat sich daran gewöhnt weil es nichts besseres gab.
Natürlich gibt's besseres als TAA. Stinknormales Supersampling ist zum Beispiel ein Verfahren, welches nicht schmiert in Bewegung. Das ist halt teurer als TAA.
dargo
2026-01-30, 14:40:39
Ich bin mit FSR4 sehr zufrieden
Ich auch.
Klar... bissel Feinschliff in Zukunft kann ja nicht schaden, aber im großen und ganzen überzeugt mich das schon sehr bei 27" und 4k Output. Ich glaube bisher fand ich nur CP77 dank dem undankbaren Content noch etwas verbesserungswürdig bzw. Bildstabilität. Hauptsächlich fand ich die Lampen in Bewegung noch nicht super überzeugend.
Relex
2026-01-30, 15:26:06
Natürlich gibt's besseres als TAA. Stinknormales Supersampling ist zum Beispiel ein Verfahren, welches nicht schmiert in Bewegung. Das ist halt teurer als TAA.
Super Sampling ist selbst mit 8x SSAA nicht genug um flimmern zu beseitigen. Allerdings steigt der Detailgrad natürlich enorm. Aber gut, das tut er mit modernen Upscaling im Vergleich zu TAA auch schon. Aber SSAA ist da natürlich nochmal deutlich besser.
Es bräuchte wahrscheinlich ein SSAA das die Samples in jedem Frame anders verteilt. Am besten wäre ein SSAA, welches sich auch TAA zu nutze macht. Oder man kombiniert einfach DLSS oder DLAA mit SSAA bzw. DSR.
Problem sind nur die Kosten, was es für aktuelle Spiele immer völlig unbenutzbar macht. Das Problem hatte SSAA früher ja auch, selbst MSAA.
Zum Release selbst mit High End GPUs kaum sinnvoll nutzbar. Immer erst jahre später. Das bringt uns also so oder oder so nicht weiter.
Was wir mittlerweile aber haben ist sowas wie ein "Coprozessor" der das AntiAliasing übernimmt. Nämlich die AI bzw. Tensor Cores. Diesen alten Traum haben wir also bereits erfüllen können, wenn auch in anderer Form. Dass man dann auch noch die Renderauflösung reduzieren kann ist sowieso komplett wild und hätte uns vor 10 Jahren niemand geglaubt.
aufkrawall
2026-01-30, 15:46:33
Und gleichzeitig RT denoisen bei noch besserer AA-Stabilität. ;)
Von daher ist für modernes Rendering eh alles andere als RR komplett alternativlos. Müßige Diskussion tbqf.
Natürlich gibt's besseres als TAA. Stinknormales Supersampling ist zum Beispiel ein Verfahren, welches nicht schmiert in Bewegung.
Nicht nutzbare Verfahren helfen uns nicht weiter, und Supersampling tut nichts gegen temporales Aliasing, zumindest so lange man nicht absurd hohe Samplezahlen verwendet.
robbitop
2026-01-30, 17:08:58
Es bräuchte wahrscheinlich ein SSAA das die Samples in jedem Frame anders verteilt.
Ohne temporale Verrechnung bringt das gehen temporale Instabilität wenig. Aber bei Standbildern erhöht sich damit die EER.
btw: ATI hatte sowas in den 2000ern und nannte das auch schon temporal AA auch wenn es mit heutigem TAA nur die Änderung der Samplemaske pro Frame gemeinsam hatte. In Standbildern brachte das bessere Glättung der Kanten und in Bewegung hat es nichts gebracht.
Nvidias TXAA kombinierte dann die Rotaton der samplemaske (für den msaa teil) mit temporaler Verrechnung (und dem Wiederfinden des Pixels im nächsten Frame)
:)
aufkrawall
2026-01-30, 17:11:07
Ist halt nur komplett sinnfrei, irgendwelche anderen Aspekte des Renderings teuer höher zu samplen, wenn eh jeder Pixel wieder von massiver RT-Unterabtastung betroffen ist. Buchstäblich eine Diskussion von gestern.
robbitop
2026-01-30, 17:19:27
Jepp. :)
dargo
2026-01-30, 19:43:45
Kann mal bitte ein Mod hier mal ordentlich wieder durchwischen? Der ganze OT-Kramm mit SSAA, RR, RT und Konsorten hat mal wieder rein gar nichts mit FSR zu tun.
Gibt es überhaupt eine Grafikkarte, welche 4K mit SSAA in aktuellen Titeln stemmen würde? Ich finde das Thema ist eher hypothetischer Natur.
DrFreaK666
2026-02-01, 09:57:37
MFG für AMD
TMD-NKmFL0s
robbitop
2026-02-01, 10:09:46
Leider noch ziemlich in den Kinderschuhen anscheinend. Er sagt viel motion artifacts und instabil. Ist ein Mod basierend auf FSR3.1 FG mit Nukem. Der Mod (dlss enabler) benutzt Optiscaler.
vBulletin®, Copyright ©2000-2026, Jelsoft Enterprises Ltd.