Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)
Eadzon64
2025-09-19, 20:08:11
Dass der Performance-Hit auf einer kleinen GPU so groß ist, verwundert mich nicht. Bei der Diskussion wird oft gesagt, dass FSR4 gegenüber FSR3 x% an Leistung kostet. Diese Betrachtung ergibt aber keinen Sinn, denn die Rechenzeit von FSR3 und FSR4 hängen nicht von der Rechenzeit des Ursprungsframes ab, sondern nur von der Auflösung und von der Rechenleistung der GPU. In deinem Beispiel sind es 1440p, wo eine 7900XTX vielleicht schon 1ms länger an FSR4 rechnet als an FSR3. Die Strix Point GPU hat nur 1/6 der CUs bei wahrscheinlich auch noch weniger Takt, d.h. dort ist die zusätzliche Rechenzeit pro Frame dann vielleicht schon 6ms. 37fps sind 27ms Frametime. Wenn die GPU jetzt noch 6ms länger rechnen muss, sinds 33ms Frametime und somit 30fps. Passt jetzt nicht genau zu deinen Daten, aber ich habe auch nur grob geschätzt. Die Hausnummer passt aber durchaus.
ist wohl so
hier stand Bullshit:)
ist mit optimierten hohen Einstellungen in Cyberpunk
deine 7900XTX, solle ja eigentlich recht gut mit FSR4 klar kommen!
Dimon
2025-09-19, 20:33:31
Also mit der GTX 1070m kriege ich kein FSR 4 hin, gibt immer einen absturz, hat jemand noch die olle Pascal probiert?
Eadzon64
2025-09-19, 20:58:56
Dass der Performance-Hit auf einer kleinen GPU so groß ist, verwundert mich nicht
ist wohl so
im letzten post stand Bullshit Sorry
was ich meinte, ist der performance Hit mit RDNA3 und FSR4,
von performance zu balanced in 1440p, 24 zu 22FPS, sind ein viel zu geringer Zuwachs für den Gap
und man sieht schön das GPU im Limit ist;)
robbitop
2025-09-19, 22:55:26
Naja aber andererseits werden die Kosten von FSR4 auf rdna3 kleingeredet wo das mit Abstand stärkste Modell (7900xtx) getestet wird. Bei 4k Performancepreset. Wahrscheinlich kaum im GPU Limit und dann hat die GPU auch noch massiv Rechenleistung. X-D
Ggf kann man sich da auch den goldenen Mittelweg anschauen. :)
][immy
2025-09-20, 01:08:00
FSR4 Leak geht auch auf RDNA2, fehlerfrei aber nur mit einem zwei Jahre alten Treiber. :tongue:
https://youtu.be/Trn4p04w5nI
Das es funktioniert ist jetzt nicht wirklich verwunderlich. Berechnen kann die Hardware ja quasi alles. Ist nur die Frage wie gut die Beschleunigung ist. Sieht aber von der Performance her nicht wirklich schlecht aus. Schlechter als FSR3.1 ja, aber die Qualität ist eben trotzdem besser.
Naja aber andererseits werden die Kosten von FSR4 auf rdna3 kleingeredet wo das mit Abstand stärkste Modell (7900xtx) getestet wird. Bei 4k Performancepreset. Wahrscheinlich kaum im GPU Limit und dann hat die GPU auch noch massiv Rechenleistung. X-D
Ggf kann man sich da auch den goldenen Mittelweg anschauen. :)
Der Hardware kommt wohl zu gute, das sie vermutlich immer noch viel Shaderleistung hat die meist "ungenutzt" ist. Die zusätzlichen Berechnungen sollten daher besser abgepuffert werden können.
basix
2025-09-20, 09:42:46
Dass der Performance-Hit auf einer kleinen GPU so groß ist, verwundert mich nicht. Bei der Diskussion wird oft gesagt, dass FSR4 gegenüber FSR3 x% an Leistung kostet. Diese Betrachtung ergibt aber keinen Sinn, denn die Rechenzeit von FSR3 und FSR4 hängen nicht von der Rechenzeit des Ursprungsframes ab, sondern nur von der Auflösung und von der Rechenleistung der GPU. In deinem Beispiel sind es 1440p, wo eine 7900XTX vielleicht schon 1ms länger an FSR4 rechnet als an FSR3. Die Strix Point GPU hat nur 1/6 der CUs bei wahrscheinlich auch noch weniger Takt, d.h. dort ist die zusätzliche Rechenzeit pro Frame dann vielleicht schon 6ms. 37fps sind 27ms Frametime. Wenn die GPU jetzt noch 6ms länger rechnen muss, sinds 33ms Frametime und somit 30fps. Passt jetzt nicht genau zu deinen Daten, aber ich habe auch nur grob geschätzt. Die Hausnummer passt aber durchaus.
Das ist nicht korrekt, Prozente sind schon das richtige Mass ;)
Prozentangaben sind immer relativ. Eine schnellere GPU hat auch mehr FPS. Deswegen haben DLSS/FSR usw. typischerweise ziemlich gleichmässige relative Kosten von Mainstream bis High-End GPU. Da kannst du Reviews der letzten Jahre abklappern, das ist immer so. Eine doppelt so schnelle GPU mag FSR4 doppelt so schnell ausführen, hat aber auch die doppelten FPS. Die relativen Frametime-Kosten bleiben gleich. Oftmals ist es zudem sogar so, dass kleinere GPUs verglichen zu nativ mehr dauzgewinnen, weil den grossen GPUs die kleinere interne Renderauflösung nicht so gut schmeckt.
Dort wo das nicht ganz so ist, ist FG. Dort sind schnellere GPUs typischerweise etwas schneller, da sie noch etwas mehr Luft / nicht ausgelastete Einheiten haben und keine reduzierte Renderauflösung reingrätscht. Aber auch dort gilt: Bei doppelten FPS benötige ich auch doppelte Rechenleistung für FG, damit das prozentuall wieder passt. Die Unterschiede von grossen und kleine GPUs ist relativ gering.
Bei iGPUs gibt es zwei "Spezialursachen", weswegen das dort so teuer ist:
GPU ist bereits stark im Bandbreitenlimit. Keine Reserven übrig
Wenn Bandbreite nicht das Thema ist (z.B. Ryzen Desktop iGPU): GPU ist sehr klein und deswegen faktisch bereits 100% ausgelastet, ebenfalls keine Reserven übrig
dGPUs haben normalerweise noch ein paar kleinere Reserven übrig (nicht optimal ausgelastete Einheiten oder Bandbreite). Das gibt es bei iGPUs faktisch nicht, die laufen immer an irgendeinem Limit.
Naja aber andererseits werden die Kosten von FSR4 auf rdna3 kleingeredet wo das mit Abstand stärkste Modell (7900xtx) getestet wird. Bei 4k Performancepreset. Wahrscheinlich kaum im GPU Limit und dann hat die GPU auch noch massiv Rechenleistung. X-D
Bei einer 7800XT sieht es fast identisch aus, 10...20% Performanceverlust ;)
FSR4 in der INT8 Version scheint auf grösseren GPUs tendenziell schon leicht weniger Performance zu kosten. Aber das ist nicht das generelle Verhalten von optimierten Upscalern (FSR3, DLSS, FSR4 in FP8).
Eadzon64
2025-09-20, 11:00:55
habe trotzdem einen Weg gefunden auf meinem RDNA3.5 mini Strix FSR4 nutzbar zu machen. ich skaliere im Optiscaler mit dem FSR1 up/downscaler von 1152p auf 1440p und nutze dann FSR4 für den Rest. Damit habe ich dann eine deutlich bessere Qualität und erreiche die selbe performance wie mit FSR3.1 balanced.
Ich liebe dieses Tool!
basix
2025-09-20, 11:16:06
Also FSR4 Balanced von ~678p auf 1152p + nachfolgendes spatial upscaling via FSR1 auf 1440p?
Eadzon64
2025-09-20, 11:24:00
Also FSR4 Balanced von ~678p auf 1152p + nachfolgendes spatial upscaling via FSR1 auf 1440p?
ja von DLSS nach FSR4 via optiscaler, sogar performance, also 720p zu 1152p und den Rest... FSR1 ergibt einen enormen boost bei der Quali!
dann noch 15% spielinternes Sharpening und per Treiber, das Radeon image sharpening mit 50% oben drauf
robbitop
2025-09-20, 11:59:53
Bei einer 7800XT sieht es fast identisch aus, 10...20% Performanceverlust ;)
FSR4 in der INT8 Version scheint auf grösseren GPUs tendenziell schon leicht weniger Performance zu kosten. Aber das ist nicht das generelle Verhalten von optimierten Upscalern (FSR3, DLSS, FSR4 in FP8).
Interessant :) Hast du zu den 20% eine Quelle und ist da in beiden Szenarien 100% GPU Limit sichergestellt? :)
Unabhängig davon sind 20% schon ein ordentlicher Hit.
DrFreaK666
2025-09-20, 12:23:24
ja von DLSS nach FSR4 via optiscaler, sogar performance, also 720p zu 1152p und den Rest... FSR1 ergibt einen enormen boost bei der Quali!
dann noch 15% spielinternes Sharpening und per Treiber, das Radeon image sharpening mit 50% oben drauf
Wäre es nicht besser von einer niedrigeren Auflösung mit FSR4 auf 1440p hochzuskalieren? Hast mal Ultra-Performance probiert?
Eadzon64
2025-09-20, 12:36:21
Wäre es nicht besser von einer niedrigeren Auflösung mit FSR4 auf 1440p hochzuskalieren? Hast mal Ultra-Performance probiert?
ja, habe da schon jede kombo durch, glaub mir:)
aber die Rechenlast wird da für meine kleine Strix APU mit 1024SPs zu groß, weil es zählt ja immer der Bereich der mit FSR4 berechnet wird und der ist ja dann viel größer und überfordert die Golde.
aber im Prinzip hast recht und wo es geht mach ich das auch so und bei größeren RDNA3 Kalibern wie 7800 aufwärts sollte es kein Problem mehr sein!
Eadzon64
2025-09-20, 12:41:14
finde es auch total witzig, das bei Cyberpunk, wo Nvidia ja auf biegen und brechen verhindern will das mit AMD und FSR was gutes rum kommt, mit optiscaler via DLSS zu FSR4, auf AMD Hardware inzwischen die beste Quali möglich ist!
Danke Nvidia:tongue:
robbitop
2025-09-20, 12:48:49
Wäre es nicht besser von einer niedrigeren Auflösung mit FSR4 auf 1440p hochzuskalieren? Hast mal Ultra-Performance probiert?
Kostet mehr Leistung und wenn die Spreizung zu groß wird gibt es irgendwann interessanterweise auch nervigere Artefakte als wenn man bei einer sehr großen Spreitzung beides kombiniert und es ist billiger. Ist bei Handhelds eine Praxis die schon eine Weile aus dem Grund so gelebt wird.
Passiert übrigens IIRC bei cp77 auf der Switch 2 im Docked mode auch.
The_Invisible
2025-09-20, 13:25:11
finde es auch total witzig, das bei Cyberpunk, wo Nvidia ja auf biegen und brechen verhindern will das mit AMD und FSR was gutes rum kommt, mit optiscaler via DLSS zu FSR4, auf AMD Hardware inzwischen die beste Quali möglich ist!
Danke Nvidia:tongue:
Wo hast den Unsinn wieder her, cp2077 hat offiziell FSR4 bekommen, natürlich nicht die bastelversion int8...
Eadzon64
2025-09-20, 13:28:23
Wo hast den Unsinn wieder her, cp2077 hat offiziell FSR4 bekommen, natürlich nicht die bastelversion int8...
Jensen meldet sich zu Wort:biggrin:
Eadzon64
2025-09-20, 13:37:00
hab hier übrigens noch eine 5090 Ventus liegen, die auf dem Schrank verstaubt
will jemand haben?
und ja, FSR4 ist inzwischen drin, aber was ist mit der absolut schrecklichen FSR3 Implementierung, wo ja RDNA vor 4 die Masse beim Benutzer ausmacht?
basix
2025-09-21, 09:07:06
Wäre es nicht besser von einer niedrigeren Auflösung mit FSR4 auf 1440p hochzuskalieren? Hast mal Ultra-Performance probiert?
FSR1 hat den Vorteil, dass normalerweise VALU-bound ist. Auf einer Plattform mit Bandbreitenlimitationen kann eine FSR4 + FSR1 Kombo schon schneller sein.
CPDR hat in ihrer TW4 Demo ebenfalls 900p auf 1440p mit TSR upscaled und dann ein spatial Upscaling auf 4K gemacht. Unter dem Strich war das schneller und sah besser aus.
Evtl. applizieren sie Full-Screen Effekte auf der niedrigeren 1440p Auflösung. Das würde zusätzliche Performance sparen. Spatial Upscaling nach anderen post-processing Filtern wird allerdings nicht optimale Qualität liefern, aber AMDs CAS lieferte ja auch schon ganz akzeptable Ergebnisse.
FSR4 könnte bei >4x Upscaling besser abschneiden als TSR, da Upscaling Qualität besser als bei TSR ist
basix
2025-09-21, 09:08:36
hab hier übrigens noch eine 5090 Ventus liegen, die auf dem Schrank verstaubt
will jemand haben?
Was verlangst du dafür? :tongue:
robbitop
2025-09-21, 09:35:19
FSR1 hat den Vorteil, dass normalerweise VALU-bound ist.
Und viel viel billiger. :) (im Sinne von computation pro Pixel)
dargo
2025-09-22, 07:23:55
Hier noch der FSR4 Leak auf einer RX 7800XT.
VPMOjdvmHMk
dildo4u
2025-09-22, 08:34:48
Warum ist das so billig da er nur von 720p upsampelt?
raffa
2025-09-22, 08:40:39
Wie teuer es ist, hängt so gut wie nur von der Output Res und der verwendeten GPU ab.
7800xt 1440p
FSR3.1: 0,47ms
FSR4.0.2: 1,67ms
Faktor ~3,5. Passt schon
DrFreaK666
2025-09-22, 08:51:50
Benchmarks mit 6700 wären interessant, da es in etwa der GPU der PS5 und Series X entspricht
dargo
2025-09-22, 08:53:17
Warum ist das so billig da er nur von 720p upsampelt?
Das ist eine RX 7800XT, sowas kauft man nicht für 4k. Entsprechend wird auf eine 1440p Auflösung als Output upscaled. Je höher der Output umso teurer das Upscaling.
Benchmarks mit 6700 wären interessant, da es in etwa der GPU der PS5 und Series X entspricht
Nüchtern betrachtet sind alle Benchmarks mit RDNA3 und RDNA2 aktuell sinnlos da es nicht offiziell ist. Keiner weiß ob das schon die finalen Upscaling-Kosten sind. AMD könnte das bsw. noch asynchron etwas beschleunigen falls es noch nicht geschieht.
dildo4u
2025-09-22, 08:59:45
Schade das AMD es noch nicht offizell bringt ich schätze mal sie wollen das Redstone komplett mit ML Framegen und Ray Rekonstruktion kommt.
basix
2025-09-22, 09:11:27
Meine Erwartung ist, dass FSR Redstone auf die Holiday Season (Ende Oktober) kommen wird. Das ist gut für GPU Sales, das macht noch etwas Marketing Wirbel rund im FSR4 und AMDs GPUs ;)
FSR Redstone dürfte zudem sofort Support für non-RDNA4 Karten mitbringen. Das Framework scheint auf dem ROCm Modul ML2CODE aufgebaut zu sein (das sagt der Head von AMDs ROCm Software - Chris Hall), wodurch "automatisch" ein Code-Pfad für GPUs ohne WMMA-Acceleration rauspurzeln müsste.
Und wer weiss, vielleicht bringt FSR Redstone noch einen signifikanten Qualitätsgewinn mit sich und überholt DLSS4, das wäre mal ein riesen Marketing Hammer für AMD :)
Nüchtern betrachtet sind alle Benchmarks mit RDNA3 und RDNA2 aktuell sinnlos da es nicht offiziell ist. Keiner weiß ob das schon die finalen Upscaling-Kosten sind. AMD könnte das bsw. noch asynchron etwas beschleunigen falls es noch nicht geschieht.
Es ist aber ein gutes Indiz, dass es auch ohne WMMA brauchbar sein wird. Eine optimierte Lösung müsste ja nochmals etwas besser und schneller laufen als das, was wir mit der unoptimierten Version sehen. Und bereits die unoptimierte Version ist brauchbar.
aufkrawall
2025-09-22, 09:23:03
Und wer weiss, vielleicht bringt FSR Redstone noch einen signifikanten Qualitätsgewinn mit sich und überholt DLSS4, das wäre mal ein riesen Marketing Hammer für AMD :)
SR durchaus möglich, RR imho unwahrscheinlich. Das Modell von Letzterem ist ziemlich fett, in nativen 4k ist das massiv teurer als TSR.
basix
2025-09-22, 09:34:13
Bei RR denke ich auch nicht, dass man DLSS aus dem Stand raus überholt. Ich wäre bereits zufrieden, wenn man mittig zwischen DLSS3 und DLSS4 RR landen würde.
Aber wie gesagt, träumen darf man ja noch ;)
RR wird mMn zwar auch auf RDNA3 usw. laufen können, aber der Performance-Hit dürfte zu gross sein. DLSS4 RR zeigt ~2ms lang eine hohe Tensor Core Utilization auf einer RTX 4090 (siehe https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13717101#post13717101)
aufkrawall
2025-09-22, 09:40:31
Ist dann die Frage, ob es SR & Denoise in einem Schritt wie bei RR ist, oder ob in zwei getrennten Schritten erfolgt. Letzteres könnte ein deutlich anderes Bild bei Schwächen und Stärken als RR zeigen.
basix
2025-09-22, 09:45:29
Es in einem Schritt zu kombinieren wird schlicht performanter sein. Und anhand AMDs Blogpost von Oktober 2024 wird es sehr wahrscheinlich ein kombiniertes / fused Network sein:
https://gpuopen.com/learn/neural_supersampling_and_denoising_for_real-time_path_tracing/
This is where neural supersampling and denoising come into play. In this blog post, we describe how our neural supersampling and denoising work together to push the boundaries for real-time path tracing.
A unified denoising and supersampling [7] takes noisy images rendered at low resolution with low samples per pixel and generates a denoised as well as upscaled image to target display resolution.
Support both denoising-only and denoising/upscaling modes from a single neural network for wider use cases.
Und hier noch der Hinweis, dass es auf RDNA2 laufen sollte ;)
We are actively researching neural techniques for Monte Carlo denoising with the goal of moving towards real-time path tracing on AMD RDNA™ 2 architecture or higher GPUs.
basix
2025-09-22, 09:55:11
Hier noch der FSR4 Leak auf einer RX 7800XT.
https://youtu.be/VPMOjdvmHMk
Was noch interessant ist:
Der Verbrauch in 1440p mit FSR4-P ist ca. +10% höher (aber immer noch tiefer als nativ). Das deutet darauf hin, dass man brachliegende Leistung ausnutzen kann, welches FSR3 anscheinend nicht in dem Mass macht. Sobald man in Richtung FSR-Q oder 4K geht, schliesst sich die Lücke allerdings. Bei 4K ist der Verbrauch mit FSR4 dann sogar höher als bei nativ.
https://youtu.be/VPMOjdvmHMk?t=933
basix
2025-09-22, 13:25:21
Es in einem Schritt zu kombinieren wird schlicht performanter sein. Und anhand AMDs Blogpost von Oktober 2024 wird es sehr wahrscheinlich ein kombiniertes / fused Network sein:
https://gpuopen.com/learn/neural_supersampling_and_denoising_for_real-time_path_tracing/
Beim RR Artikel gab es ein Update im Mai / Juni 2025: Siehe Abschnitt "Multi-branch and Multi-scale Feature Network"
Dazu gibt es auch ein Paper (leider nicht öffentlich) https://dl.acm.org/doi/abs/10.1145/3728297
Deep learning-based denoising and upscaling techniques have emerged to enhance framerates for real-time rendering. A single neural network for joint denoising and upscaling offers the advantage of sharing parameters in the feature space, enabling efficient prediction of filter weights for both. However, it is still ongoing research to devise an efficient feature extraction neural network that uses different characteristics in inputs for the two combined problems.
We propose a multi-branch, multi-scale feature extraction network for joint neural denoising and upscaling. The proposed multi-branch U-Net architecture is lightweight and effectively accounts for different characteristics in noisy color and noise-free aliased auxiliary buffers. Our technique produces superior quality denoising in a target resolution (4K), given noisy 1spp Monte Carlo renderings and auxiliary buffers in a low resolution (1080p), compared to the state-of-the-art methods.
https://gpuopen.com/_astro/neural_supersampling_and_denoising_for_real-time_path_tracing-html-_images-Picture5.C_Xeodhc_Z1QFIUt.jpg
https://gpuopen.com/_astro/neural_supersampling_and_denoising_for_real-time_path_tracing-html-_images-Picture6.CyiqveLE_Z1UiME6.jpg
Showcase Video:
https://gpuopen.com/download/Neural_supersampling_and_denoising_I3D25_Video.mp4
DrFreaK666
2025-09-22, 16:56:14
Muss FSR4 mal auf meinem Mini PC mit 680M testen ^^
1080p Ultra Performance sieht bestimmt super aus 😁
dargo
2025-09-23, 12:17:49
FSR4-Leak-Test mit RX 6800XT.
gTrfnLvZbu4
DrFreaK666
2025-09-23, 12:41:07
FSR4-Leak-Test mit RX 6800XT.
https://youtu.be/gTrfnLvZbu4
Bereust nun den Kauf? ^^
dargo
2025-09-23, 12:50:07
Nö... ich brauchte auch wesentlich mehr Leistung für 4k als Output. ;) Und für 300€ Aufpreis war die RX 9070XT Hellhound mit dem perfekten Kühler ein schönes Upgrade. :) Ich fürchte nur für ein ähnlich schönes Upgrade damit das alles wieder in max. 260W passt muss ich bis RDNA6 "warten", also irgendwann 2029 bis sich die Straßenpreise dann erholt haben. X-D
DrFreaK666
2025-09-23, 13:18:25
Ich will nächstes Jahr, aber spätestens 2027 den kompletten PC ersetzen. Den aktuellen bekommt dann mein Sohn.
Das Gehäuse ist mittlerweile 15 Jahre alt und hat schon ein paar Updates mitgemacht; wird Zeit für ein neues, dann mit Zen 6 und RDNA5
dargo
2025-09-26, 06:47:21
Weiß eigentlich jemand warum FSR 4 in AC: Shadows in einigen Cutszenen im DoF so versagt? Die Instabilität im DoF ist hier wirklich teilweise sehr hoch, seltsamerweise nicht in jedem DoF. Ist mir so stark noch nirgendwo aufgefallen. Ich hoffe das kann AMD in zukünftigen FSR 4 Versionen noch deutlich verbessern.
Weiß eigentlich jemand warum FSR 4 in AC: Shadows in einigen Cutszenen im DoF so versagt? Die Instabilität im DoF ist hier wirklich teilweise sehr hoch, seltsamerweise nicht in jedem DoF. Ist mir so stark noch nirgendwo aufgefallen. Ich hoffe das kann AMD in zukünftigen FSR 4 Versionen noch deutlich verbessern.
Das ist üblicherweise ein Problem der Implementierung wenn DoF vor dem Upsampling angewendet wird.
Mordekai2009
2025-09-26, 12:56:55
Neue FSR Version für The Talos Principle: Reawakened als offizieller Patch. Ich fragte mich ob das FSR 4 gemeint ist...
Datei im Spielverzeichnis gefunden... amd_fidelityfx_dx12.dll -> Version 1.0.1.41314... Ich denke das ist FSR 3.1.4?
EDIT: FSR 4 über AMD Adrenalie Software forciert und nun läuft es.
dargo
2025-09-26, 13:15:09
Das ist üblicherweise ein Problem der Implementierung wenn DoF vor dem Upsampling angewendet wird.
Hmm... kriegt man das irgendwie selbst behoben oder ist man da aufgeschmissen weil DEVs Mist gemacht haben? Einfach dll mit Optiscaler austauschen hilft da wohl nicht oder doch? Nach meinem laienhaften Verständnis kann das ja kein genereller Fehler von AMD in der dll sein wenn andere Spiele dieses Problem im DoF so nicht haben.
Relex
2025-09-26, 13:19:20
Das Problem gibts häufiger. Ghost of Tsushima hatte das Problem auch.
Je mehr der Upscaler blurrt, desto weniger fällt es aber auf :D
Wenn es sich sehr stört hast du womöglich mit FSR2/3 oder XeSS mehr glück.
dargo
2025-09-26, 13:26:12
So extrem störend ist es für mich jetzt nicht da es wie gesagt nur in manchen Cutszenen vorkommt. Es fiel mir halt hier sehr negativ auf weil ich das so noch in keinem Spiel mit FSR4 gesehen habe.
Achill
2025-09-26, 14:03:40
Einfach dll mit Optiscaler austauschen hilft da wohl nicht oder doch? Nach meinem laienhaften Verständnis kann das ja kein genereller Fehler von AMD in der dll sein wenn andere Spiele dieses Problem im DoF so nicht haben.
Ein Versuch via Optiscaler ist es ggf. sogar Wert, da andere Upscaler-Implementierungen von den DEVs des Spiels ggf. auch ein andere Rendering-Pipeline haben, und hier dann Post-Effekte auch wirklich auch erst nach dem Upcaler angewendet werden. Um dies zu Testen muss aber auf jeden Fall der Input für OptiScaler nicht FSR im Spiel sein, sondern z.B. DLSS oder XeSS.
dargo
2025-09-26, 14:29:11
Danke Achill... probiere ich mal aus. Dummerweise habe ich jetzt kein passendes Savegame um das schnell zu vergleichen.
Edit:
Habe jetzt eine gute Stelle angetroffen. Also DLSS als Input (gleiches gilt für XeSS) bringt da gar nichts gegen das Problem. Die Instabilität sieht man leicht schon an der Waffe im DoF bei 1:14 und richtig übel bei 1:49 rechts im Bild bei dem Zaun oder was das immer sein soll.
3qlApWaMKqk
Achill
2025-09-27, 14:52:22
Danke Achill... probiere ich mal aus. Dummerweise habe ich jetzt kein passendes Savegame um das schnell zu vergleichen.
Edit:
Habe jetzt eine gute Stelle angetroffen. Also DLSS als Input (gleiches gilt für XeSS) bringt da gar nichts gegen das Problem. Die Instabilität sieht man leicht schon an der Waffe im DoF bei 1:14 und richtig übel bei 1:49 rechts im Bild bei dem Zaun oder was das immer sein soll.
https://youtu.be/3qlApWaMKqk
Schade und ja, sieht wirklich nervig :/
Hmm... kriegt man das irgendwie selbst behoben oder ist man da aufgeschmissen weil DEVs Mist gemacht haben?
Ohne Reverse Engineering kaum.
Nach meinem laienhaften Verständnis kann das ja kein genereller Fehler von AMD in der dll sein wenn andere Spiele dieses Problem im DoF so nicht haben.
Nein, das gab es immer wieder mit Upscaling, wenn der DoF-Blur schon vor dem Upscaling gemacht wird und dass dann als Input in den Upscaler gegeben wird und der damit nichts vernünftiges anfangen kann.
Das ist glücklicherweise immer seltener der Fall, seit Spiele mit Upscaling in Mind entwickelt werden.
DrFreaK666
2025-09-29, 16:09:43
AFMF 3 wird wohl bald kommen
https://videocardz.com/newz/amd-fluid-motion-frames-3-afmf3-has-been-spotted-in-drivers-files
TheGood
2025-09-29, 19:30:20
Schön wie AMD seine Softwaretechnologie immer weiter vorantreibt. Früher haben sie ja eher zeugs in den Markt geworfen und dann da so liegen gelassen. Die Konsistenz der WEiterentwicklung ist auf jedenfall die richtige Richtung.
robbitop
2025-09-29, 20:56:35
Ggf hat das schon den ML Teil von FSR FG von redstone.
horn 12
2025-10-01, 17:21:19
https://videocardz.com/newz/amd-fsr-4-on-radeon-rx-6000-rdna2-works-with-latest-drivers-using-simple-file-swap-workaround
Langsam aber sicher MUSS AMD die Katze aus dem Sack lassen
und Redstone inkl. FSR 4.x für Alle Karten freigeben und auch präsentieren.
Da sollte wie schon @basix richtig anmerkte wohl ein Event geplant sein
um dem Hype gerecht zu werden!
Dieses Event am 20-ten Oktober eignet sich wohl unpassend
also muss es wohl später sein ...
https://www.amd.com/en/corporate/events/amd-ai-dev-day.html
aufkrawall
2025-10-01, 17:35:17
Das ist einfach nur ein Hack, um den DX12 Usermode-Treiber per Anwendung anstatt global downzugraden. Performance-Verbesserungen und Fixes neuerer Usermode-Treiberversionen entgehen einem dann in dem Spiel mit FSR 4 trotzdem.
Wieder etwas, was man durch eine einfache Chatbot-Abfrage hätte wissen können, anstatt es fälschlich als vermeintliche Wunderlösung zu präsentieren...
Aber gut, besser als nichts ist es trotzdem...
DrFreaK666
2025-10-02, 13:51:54
yB0qmTCzrmI
aufkrawall
2025-10-02, 18:06:27
Ohne den Clickbait zu klicken: Die werden wohl eher einfach noch nicht fertig gewesen sein oder haben sich entschieden, dass die Performance mit dem vollen Modell zu schlecht war.
DrFreaK666
2025-10-02, 19:03:08
Laut ihm ist Int8 schlechter als FP8, aber trotzdem besser als FSR3.1 und XeSS bei gleichen Kosten
dildo4u
2025-10-03, 04:48:15
Low End scheint schon kaum noch was zu gewinnen wäre mal interessant ob z.b eine 3060 besser mit DLSS4 umgeht als low End RDNA2 mit FSR4.
robbitop
2025-10-03, 06:19:57
Low End scheint schon kaum noch was zu gewinnen wäre mal interessant ob z.b eine 3060 besser mit DLSS4 umgeht als low End RDNA2 mit FSR4.
Mit Sicherheit. Ampere hat Tensor Cores. RDNA2 nicht. Das rächt sich jetzt halt dass man da erst 6 Jahre (wenn man Volta mitrechnet sogar mehr) später HW verbaut hat.
][immy
2025-10-03, 12:47:10
Mit Sicherheit. Ampere hat Tensor Cores. RDNA2 nicht. Das rächt sich jetzt halt dass man da erst 6 Jahre (wenn man Volta mitrechnet sogar mehr) später HW verbaut hat.
Allerdings haben die kleinen Karten so wenig tensor cores, das ihnen schnell die Puste ausgeht. Und nach wie vor, bei niedriger Auflösung sehen die upscaling Techniken alle ziemlich übel aus. Mag technolosch beeindruckend sein, aber die Artefakte nehmen extrem zu.
Relex
2025-10-03, 15:57:39
Nein, ich hab lange in 1440p mit DLSS3 quality gespielt. Geht absolut in Ordnung, aber hat halt die TAA typische Unschärfe die in 1440p deutlich ausgeprägter ist als in 4K.
Und gerade da hilft das Transformer Model das keine Unschärfe mehr hat enorm, da es viel mehr schärfe aus den 1440p heraus holt. Das was man von 1440p halt eigentlich erwarten würde, wenn man keinen TAA blur hat...
Ich würde behaupten, dass man gerade bei niedrigeren Auflösungen ganz besonders von FSR4 und DLSS4 profitiert, weil da eben Unterschiede bei der Schärfe und Bildqualität aufgrund der geringeren Pixeldichte ausgeprägter wahrgenommen werden.
Und in nativen 1440p willst du sicher nicht auf ner Mittelklasse Karte spielen. Upscaling ist auch in 1440p essenziell. Das bringt ja in aktuellen Spielen selbst ne 5090 zum schwitzen (aka 4K mit DLSS Quality = 1440p nativ). Jeder der in 1440p spielt und nicht mindestens ne 4070tiSuper hat, wird üblicherweise voll auf Upscaling angewiesen sein. Also praktisch alle Turing und Ampere GPUs.
Und ja, Transformer DLSS ist etwas fordernder, aber auf Ampere und Turing auch nicht überproportional. Die Karten sind ja auch mit dem alten CNN Model langsamer als die aktuellsten Nvidia GPUs. Relativ gesehen ist der performanceverlust sehr gering. Was bei Turing und Ampere extrem reinhaut ist das Transformer RayReconstruction. Dafür sind die Karten zu langsam, aber nicht für das normale Super Resolution. Vor allem nicht mit 1440p Zielauflösung, wo es natürlich auch schon viel weniger Rechenpower braucht, als in 4K.
robbitop
2025-10-03, 16:01:33
[immy;13821585']Allerdings haben die kleinen Karten so wenig tensor cores, das ihnen schnell die Puste ausgeht. Und nach wie vor, bei niedriger Auflösung sehen die upscaling Techniken alle ziemlich übel aus. Mag technolosch beeindruckend sein, aber die Artefakte nehmen extrem zu.
Naja und kleine rdna2 GPUs haben das Problem des kleinen Computes für das NN Upsampling auch - nur eben noch schlimmer.
DLSS4 super resolution ist jetzt auch nicht so viel teurer als DLSS3 Super Resolution. Ray reconstruction hingegen ist mit Version 4 deutlich teurer geworden
aufkrawall
2025-10-03, 18:41:33
DLSS4 super resolution ist jetzt auch nicht so viel teurer als DLSS3 Super Resolution.
Um so höher die fps, desto unangenehm teurer wird es auf Ampere. Quasi nicht nutzbar auf der 3060 in Fortnite mit low details und Performance 4k Target, im Gegensatz zu CNN.
robbitop
2025-10-03, 18:47:46
Ja schon aber das gilt auch für RR und noch deutlich mehr. Und mein Kommentar war eher relativ zu RR gedacht. :)
][immy
2025-10-03, 20:48:50
Nein, ich hab lange in 1440p mit DLSS3 quality gespielt. Geht absolut in Ordnung, aber hat halt die TAA typische Unschärfe die in 1440p deutlich ausgeprägter ist als in 4K.
Und gerade da hilft das Transformer Model das keine Unschärfe mehr hat enorm, da es viel mehr schärfe aus den 1440p heraus holt. Das was man von 1440p halt eigentlich erwarten würde, wenn man keinen TAA blur hat...
Ich würde behaupten, dass man gerade bei niedrigeren Auflösungen ganz besonders von FSR4 und DLSS4 profitiert, weil da eben Unterschiede bei der Schärfe und Bildqualität aufgrund der geringeren Pixeldichte ausgeprägter wahrgenommen werden.
Und in nativen 1440p willst du sicher nicht auf ner Mittelklasse Karte spielen. Upscaling ist auch in 1440p essenziell. Das bringt ja in aktuellen Spielen selbst ne 5090 zum schwitzen (aka 4K mit DLSS Quality = 1440p nativ). Jeder der in 1440p spielt und nicht mindestens ne 4070tiSuper hat, wird üblicherweise voll auf Upscaling angewiesen sein. Also praktisch alle Turing und Ampere GPUs.
Und ja, Transformer DLSS ist etwas fordernder, aber auf Ampere und Turing auch nicht überproportional. Die Karten sind ja auch mit dem alten CNN Model langsamer als die aktuellsten Nvidia GPUs. Relativ gesehen ist der performanceverlust sehr gering. Was bei Turing und Ampere extrem reinhaut ist das Transformer RayReconstruction. Dafür sind die Karten zu langsam, aber nicht für das normale Super Resolution. Vor allem nicht mit 1440p Zielauflösung, wo es natürlich auch schon viel weniger Rechenpower braucht, als in 4K.
Mhh hab mit meiner damaligen 3070 1440p Qualität versucht man sah immer das es eine Auflösung unter fullhd war. Das wurde über die Zeit auch nicht besser. Ich reagiere auf die Artefakte ziemlich allergisch.
Habe nie einen Titel gesehen der nicht zusätzliche Artefakte in Bewegung mit dlss/fsr hinzu gewonnen hat. Da ist mir ein seichter blur filter tatsächlich lieber als ständig an unterschiedlichen Stellen diverse Artefakte.
raffa
2025-10-07, 14:37:01
Naja und kleine rdna2 GPUs haben das Problem des kleinen Computes für das NN Upsampling auch - nur eben noch schlimmer.
DLSS4 super resolution ist jetzt auch nicht so viel teurer als DLSS3 Super Resolution. Ray reconstruction hingegen ist mit Version 4 deutlich teurer geworden
FSR4 int8 1440p kostet auf einer rx 6600 derzeit (mesa git 25.3.0devel) ~5.1ms
2560x1440, jeweils Q:
FSR4 ~5.1ms
XeSS ~2.8ms
FSR3.1 ~1.7ms
FSR2.3 ~1.5ms
Exxtreme
2025-10-07, 15:13:14
5.1 ms ist schon ziemlich viel. Macht aus einem 100 fps-Spiel ein 66 fps-Spiel. :freak: Das holt man mit Upscaling wohl nie rein.
DrFreaK666
2025-10-07, 15:25:05
5.1 ms ist schon ziemlich viel. Macht aus einem 100 fps-Spiel ein 66 fps-Spiel. :freak: Das holt man mit Upscaling wohl nie rein.
Es geht um eine 6600. 100FPS ohne Upscaling sind da wohl eher unrealistisch.
Und was ist dein Vergleich? Native vs FSR4 Native?
Von 40FPS ausgehend erhält man mit FSR4 Balanced ca. 72FPS. Das ist eine deutlich realistischere Rechnung (ChatGPT und Gemini kommen auf das gleiche Ergebnis. Ich gehe also davon mal aus dass es stimmt).
Und online gibt es einige Videos, die FSR4 auf einem Steam Deck zeigen, also nochmals deutlich langsamer
vinacis_vivids
2025-10-07, 15:55:44
Die RX 6600 8GB ist eine Karte für 1080p und mittlerweile vier Jahre alt.
Um fair zu sein, müsste man sie gesondert mit den ganzen FSR Sachen, inkl. Frame Generation mit diesen Karten Vergleichen, in 1080p. Inkl. Verbrauchswerte und realistischerweise mit einer schwächeren CPU (AM4 - Ryzen 5 5600). Über mehrere APIs (DX11, DX12, Vulkan) hinweg.
AMD Radeon RX 7600 8GB - 165W
AMD Radeon RX 6600 8GB - 132W
AMD Radeon RX 6650XT 8GB - 180W
Intel Arc A580 8GB - 175W
Intel Arc A750 8GB - 225W !
Nvidia RTX 3050 8GB - 115W
Nvidia RTX 3060 8GB - 170W
Alle Karten (Chips) sind für 170-250€ zu haben.
raffa
2025-10-07, 17:38:34
Es geht um eine 6600. 100FPS ohne Upscaling sind da wohl eher unrealistisch.
Und was ist dein Vergleich? Native vs FSR4 Native?
Von 40FPS ausgehend erhält man mit FSR4 Balanced ca. 72FPS. Das ist eine deutlich realistischere Rechnung (ChatGPT und Gemini kommen auf das gleiche Ergebnis. Ich gehe also davon mal aus dass es stimmt).
Und online gibt es einige Videos, die FSR4 auf einem Steam Deck zeigen, also nochmals deutlich langsamer
40fps = 25ms
72fps = 14ms
Um 72fps zu erreichen bleiben mit FSR4 auf der rx6600 ca 9ms Renderzeit. Also: never, ever. Ka was die KI da fantasiert hat.
Frischer Test mit KCD2, preset high, 1440p, random Stelle im Wald
Nativ, mit SMAA 2TX: 40fps, 25,1ms
FSR4 Nativ: 32fps, 31,3ms
FSR4 Q: 46fps, 21,8ms
FSR4 B: 49fps, 20,4ms
FSR4 P: 53fps, 18,9ms
Trotzdem brauchbar, denn FSR4 Upscaling sieht besser aus als Nativ mit SMAA 2TX und ist schneller
raffa
2025-10-07, 17:44:54
Da ich schon ausversehen einen Doppelpost angelegt hab, kann ichs noch mit Inhalt füllen:
Control, extralow settings, im Keller am Anfang:
Nativ, TAA: 100fps, 10.1ms
Nativ, FSR4: 74fps, 13,7ms
FSR4-Q: 97fps, 10,4ms
FSR4-B: 103fps, 9,7ms
FSR4-P: 110fps, 9,1ms
Je höher der Hit in den Frametimes ist, umso eingeschränkter wird der Nutzen. Klar ist das ein edgecase, aber man sieht halt gut, dass das die Zeit für Upscaling niedrig bleiben sollte, damit es sinnvoll nutzbar ist.
basix
2025-10-10, 10:44:20
Mark Cerny und Jack Huynh haben ein wenig geplaudert:
https://www.computerbase.de/news/grafikkarten/neural-arrays-plus-radiance-cores-so-sollen-playstation-6-und-radeon-ein-neues-level-erreichen.94614/
Interessant für FSR ist das Thema Neural Arrays. Damit kann man alle CUs einer Shader Engine zusammenfassen und Daten teilen. Mark Cerny tönt dann an, dass man damit grössere Segmente des Bildes bearbeiten kann. PSSR, DLSS4 und FSR4 arbeiten ja alle auf einer Tile-Basis. Wenn man diese Tiles vergrössern kann, sollte das effizienter werden. Und vielleicht steigt dadurch auch die Qualität des Upscalings, da man das Bild damit gesamtheitlicher prozessieren kann (grössere Tiles).
horn 12
2025-10-10, 10:54:06
Nun, danke
aber dies kommt erst mit RDNA 5 und wohl in 1,25 bis 1,5 Jahren erst
Wann kommt nun Redstone und das FRS 4 Update ?
dargo
2025-10-10, 11:06:51
Wann kommt nun Redstone und das FRS 4 Update ?
2025... ergo chill mal. ;)
Eadzon64
2025-10-10, 22:11:20
hey Leutz:smile:
hab paar richtig gute settings, wer mal das Potential von FSR3.1.5
in Cyberpunk erleben will und nich die verkackte stock Variante
in RDR2 siets auch richtig gut aus
mit optiscaler natürlich. man nehme zb. meine Variante aus dem Forum
und wandelt damit XESS2 input, in FSR3.1.5 Output um, gerne auch direkt balanced und werdet ihr hoffentlich Augen machen
ja gut meine sind wirklich nicht mehr ganz so gut und die Lästerer geben halt ihren Senf dazu:tongue:
sharpening am besten aus, chromatic sowiso und lieber anisotroph ausfahren, über Opti den mipmap bias berechnen und angleichen
robbitop
2025-10-11, 08:24:21
Das geht auch mit DLSS Input von Optiscaler. FSR sieht öfter mal damit besser aus weil die inputs damit ab und zu besser passen (unschöne Implementierung von nativem FSR manchmal).
Die typischen Schwächen von FSR3 die sich insbesondere in Bewegung zeigen (disocclusion Gebrösel, Schwächen bei Transparenzeffekte, alpha tests, Partikeln etc) kann es aber leider nicht lösen.
Eadzon64
2025-10-11, 08:53:33
Das geht auch mit DLSS Input von Optiscaler. FSR sieht öfter mal damit besser aus weil die inputs damit ab und zu besser passen (unschöne Implementierung von nativem FSR manchmal).
Die typischen Schwächen von FSR3 die sich insbesondere in Bewegung zeigen (disocclusion Gebrösel, Schwächen bei Transparenzeffekte, alpha tests, Partikeln etc) kann es aber leider nicht lösen.
Moin
echt jetzt:eek: schon klar mein gutster
werde keinen optiscaler kompilieren und das nicht wissen
aaber, xess setzt bei dem Titel ganz klar einen drauf und zwar was disocclusion bei Foliage, also Büsche etc.
und zb. die Schnellreisetationen angeht, die flimmern sonst immer extrem, aber mit xess input dann nicht mehr, oder bei weitem nicht mehr so stark;)
robbitop
2025-10-11, 09:18:32
Denke daran, das ist ein Forum. Kein reiner Dialog. Wenn ich etwas erwähne heisst das nicht, dass ich implizieren will, dass du etwas nicht weisst, sondern dass ergänzende Information allen anderen auch zur Verfügung stehen kann.
Was das Kompilieren angeht: wenn man fertigen Quellcode zusammenschiebt und kompiliert heisst das nicht zwingenderweise, dass man auch praktische Erfahrung mit dem Endprodukt hat. Aber gut zu wissen dass das der Fall ist. :)
Hast du den XeSS Input auch mit DLSS Input verglichen? Das wäre meine Standardwahl (dlss hat die höchste Verbreitung in Spielen und die inputs sind auf konsistent hohem Level) weswegen es mich interessiert warum du explizit den XeSS Input hervorhebst.
Eadzon64
2025-10-11, 10:56:35
Denke daran, das ist ein Forum. Kein reiner Dialog. Wenn ich etwas erwähne heisst das nicht, dass ich implizieren will, dass du etwas nicht weisst, sondern dass ergänzende Information allen anderen auch zur Verfügung stehen kann.
Was das Kompilieren angeht: wenn man fertigen Quellcode zusammenschiebt und kompiliert heisst das nicht zwingenderweise, dass man auch praktische Erfahrung mit dem Endprodukt hat. Aber gut zu wissen dass das der Fall ist. :)
Hast du den XeSS Input auch mit DLSS Input verglichen? Das wäre meine Standardwahl (dlss hat die höchste Verbreitung in Spielen und die inputs sind auf konsistent hohem Level) weswegen es mich interessiert warum du explizit den XeSS Input hervorhebst.
nicht richtig ausgeschlafen?
bin eigentlich freundlich und wohlwollend zu Dir
das gutster hast überlesen?
aber Du bist der Boss:smile:ja kla bin da ständig am durch testen und deswegen habe ich es ja geschrieben
probiers bitte mal aus, würde mich über dein Feedback freuen!
Eadzon64
2025-10-11, 12:11:01
https://drive.google.com/file/d/1hQ949oIJzx29WXKUE1xojkO4zhYG6bDm/view?usp=sharing
DLSS zu FSR3
https://drive.google.com/file/d/1reDwysqcoEf9OLF7PG7ZzvJY2pDorqog/view?usp=sharing
XESS zu FSR3
bis ich wieder zurecht komme bitte auf die Schnellreise Station ran zoomen
ist in bewegung natürlich optimaler, aber man sollte schon was erkennen
warum zeigt er den content nicht an wenn ich über Bild einfügen den Google drive Link eingefügt hab?
mit IrfanView muss ich auch erst wieder zurecht kommen:)
robbitop
2025-10-11, 12:21:00
Ich hab mir die links angeschaut. Allerdings nur am Smartphone (mit Zoom die gleichen Bildbereiche). Sehe erstmal keine gravierenden Unterschiede. Wahrscheinlich muss man sich das in Bewegung anschauen.
Würde mich aber schon wundern dass die Ergebnisse mit XeSS input mit FSR3.1.5 besser sein sollten als mit DLSS Input. Gerade in CP77 wo Nvidia tief die Finger drin hatte. Aber möglich ist alles.
Kannst du ggf beschreiben was du in Bewegung anders siehst? :)
Eadzon64
2025-10-11, 12:25:24
Ich hab mir die links angeschaut. Allerdings nur am Smartphone (mit Zoom die gleichen Bildbereiche). Sehe erstmal keine gravierenden Unterschiede. Wahrscheinlich muss man sich das in Bewegung anschauen.
Würde mich aber schon wundern dass die Ergebnisse mit XeSS input mit FSR3.1.5 besser sein sollten als mit DLSS Input. Gerade in CP77 wo Nvidia tief die Finger drin hatte. Aber möglich ist alles.
Kannst du ggf beschreiben was du in Bewegung anders siehst? :)
war auch lange deiner Meinung, aber macht wirklich bei fein gliedrigen transparenz Sachen einen Unterschied!
muss mal eben Mahlzeit!
man erliegt da auch einem Trugschluss, wenn man davon ausgeht, da sich die schnittstellen also der programm Code der jeweiligen Anbieter, in vielem ähnelt, aber auch expliziet auf eine Architektur abzielt
und da, möchte ich mich mal vereinfacht ausdrücken, schmeckt AMD's FSR Schnittstelle, der XESS input in Cyberpunk mMn am besten
mironicus
2025-10-12, 21:56:17
FSR4 INT8 ist der beste Upscaler für RDNA2/3-Karten. Selbst im Performance-Modus besser als FSR 3.1 und XeSS im Quality-Modus.
yB0qmTCzrmI
Eadzon64
2025-10-12, 22:17:27
hier noch das Video von mir:smile:
Optiscaler, Cyberpunk, FSR 3.1.5
DLSS vs XESS2 input
https://drive.google.com/file/d/1mzwXlkGct5QzMkhkjLmSFXXJlz93Qllf/view?usp=drive_link
um zu belegen, das XESS2 input in dem Titel Vorteile bei tranparenten Objekten hat
Lurtz
2025-10-12, 23:53:19
FSR4 INT8 ist der beste Upscaler für RDNA2/3-Karten. Selbst im Performance-Modus besser als FSR 3.1 und XeSS im Quality-Modus.
Wenn man vor FSR4 behauptet hätte, man solle FSR 2 oder 3 Quality gegen DLSS Performance benchen, da wären aber die Fetzen geflogen....
DrFreaK666
2025-10-13, 04:13:05
Wenn man vor FSR4 behauptet hätte, man solle FSR 2 oder 3 Quality gegen DLSS Performance benchen, da wären aber die Fetzen geflogen....
Das war überall im Gespräch, aber nur Computerbase hat es umgesetzt
Dimon
2025-10-13, 09:51:00
FSR4 INT8 ist der beste Upscaler für RDNA2/3-Karten. Selbst im Performance-Modus besser als FSR 3.1 und XeSS im Quality-Modus.
https://youtu.be/yB0qmTCzrmI
Jetzt fehlt nur noch RDNA 1 und Pascal (klein Turing geht), mal sehen was noch passiert :)
mironicus
2025-10-13, 10:24:02
Für Handhelds sicherlich interessant, besonders das alte Legion Go mit seinem 2560x1600 Bildschirm.
basix
2025-10-13, 10:27:14
Jetzt fehlt nur noch RDNA 1 und Pascal (klein Turing geht), mal sehen was noch passiert :)
Sollte funktionieren, mit zwei Caveats welche Performance kosten dürften:
- Pascal hat schlechtes Async Compute
- Navi 10 hat keine 4x INT8-Rate
The_Invisible
2025-10-13, 10:32:12
Das war überall im Gespräch, aber nur Computerbase hat es umgesetzt
Erst seit es FSR4 gibt macht es CB auch so, vorher nicht. Da geb ich Lurtz schon recht, da hätte <=RDNA3 vorher schon richtig schlecht ausgesehen
Exxtreme
2025-10-13, 10:58:26
Wenn man vor FSR4 behauptet hätte, man solle FSR 2 oder 3 Quality gegen DLSS Performance benchen, da wären aber die Fetzen geflogen....
Dann hätte man aber gegen DLSS3 gebencht. Und das ist IMHO ebenfalls grässlich hoch drei.
Der_Korken
2025-10-13, 11:18:19
CB hast FSR4 auf einer 6800XT und 7800XT nachgebencht und mit einer 9060XT verglichen. Die meisten Spiele klappen, aber es gibt doch auch einige, wo es nicht mal startet. Wenn es läuft, ist der Leistungsverlust gegenüber FSR3 moderat, FSR4 Performance ist schneller als FSR3 Quality und sieht dabei deutlich besser aus. Interessant fand ich, dass FSR in einigen Spielen generell wie ein Sack Nüsse läuft, wie z.B. Kingdom Come oder Monster Hunters. Oder sind die Spiele bei 60fps schon so krass CPU-limitiert auf Midrange-Karten?
https://www.computerbase.de/artikel/grafikkarten/fsr-4-rdna-2-rdna-3.94512/
dargo
2025-10-13, 11:32:03
Erst seit es FSR4 gibt macht es CB auch so, vorher nicht. Da geb ich Lurtz schon recht, da hätte <=RDNA3 vorher schon richtig schlecht ausgesehen
Ich gebe da Lurtz und auch CB kein recht. Wenn mit unterschiedlichen Upscaling-Inputs gebencht wird verliert man völlig den Überblick über die tatsächliche Performance von Karte X. Ich bin weiterhin dafür, dass mit gleichen Inputs gebenchmarkt wird und dann ein dicker Hinweis von mir aus dabei kommt, dass Upscaling XYZ spürbar schlechter aussieht. Und das sage ich obwohl ich weiß, dass FSR4.x etwas teurer ist als FSR3.x/FSR2.x bei RDNA4.
Der_Korken
2025-10-13, 11:51:19
Bei den gemischten Vergleichen bin ich etwas zwiegespalten. Aus "akademischer" Sicht finde ich schlecht, dass eine Vergleichbarkeit zwischen den Karten und auch den Architekturen so kaum noch möglich ist. Die 9070XT hat so bspw. immer einen komfortablen Vorsprung vor der 7900XTX, obwohl letztere im 1:1-Vergleich etwas vorne liegen würde (abgesehen von sehr RT-lastigen Szenen).
Auf der anderen Seite ist der optische Unterschied so eklatant, dass ein Benchmark mit gleicher Renderauflösung eben nur noch akademischer Natur ist. Als User möchte ich gerne ein gewisses optisches Niveau haben und entsprechend wissen, wie schnell mir welche Karte das liefert. Mich erinnert das an Diskussionen aus alten Tagen, wo manche Hersteller treiberseitig mit den MSAA-Samplen getrickst haben oder "brilineares" AF gerendert haben, das aus einigen Winkeln gar nicht angewendet wurde, um in Benchmarks einen Vorsprung rauszuholen. Das wurde damals zurecht zerrissen. Mittlerweile ist es für die Kaufberartung nur noch semi-interessant, da ich grundsätzlich niemandem empfehlen würde noch RDNA3-Karte zu kaufen.
Hakim
2025-10-13, 11:54:20
Irgendwie wird es immer schwieriger upscale benchmarks zu vergleichen. FSR3 sieht deutlich schlechter aus, FSR4 sieht immer noch nicht ganz so gut aus wie auf RDNA4. Und das alleine nur bei AMD Karten
Der_Korken
2025-10-13, 12:18:56
Irgendwie wird es immer schwieriger upscale benchmarks zu vergleichen. FSR3 sieht deutlich schlechter aus, FSR4 sieht immer noch nicht ganz so gut aus wie auf RDNA4. Und das alleine nur bei AMD Karten
Bei RDNA4 gibt es aber zumindest die berechtigte Hoffnung, dass aktuelle Karten von zukünftigen Software-Verbesserungen profitieren, da mit den Matrix-Cores dafür eine solide Basis geschaffen wurde. Bei Nvidia wurden neue Upscaler bisher auchh immer bis anno tobak zurückportiert. RDNA3 und älter sind dagegen ziemlich abgesägt worden. Wenn dort flächemäßig FSR4-INT8 läuft, fände ich das als direkten Vergleich zu FSR4-FP8 wegen der geringen Unterschiede akzeptabel (auf Benchmarks bezogen).
robbitop
2025-10-13, 12:30:48
Ist es denn für reviews noch relevant wie gut legacy HW mit neuem FSR läuft? Jetzt könnte man IGPs nennen. Scheint aber im Detail die Masse nicht zu jucken was da geht und was nicht. Die erfolgreichste IGP ist Intels GT2 und das ist bestenfalls zu seiner Zeit eine Gamingkrücke gewesen.
IMO: erstmal redstone abwarten - da gibt es sicherlich news zu FSR auf legacy HW. Ggf gibt es dann auch eine etwas angepasstere Version von AMD die kein leak einer ehemaligen Version ist ^^
DrFreaK666
2025-10-13, 13:45:01
Erst seit es FSR4 gibt macht es CB auch so, vorher nicht. Da geb ich Lurtz schon recht, da hätte <=RDNA3 vorher schon richtig schlecht ausgesehen
Hab ja nichts anderes behauptet.
Aber FSR4 P ist halt weiterhin anders als FSR3 Q.
Erst seit es FSR4 gibt macht es CB auch so, vorher nicht. Da geb ich Lurtz schon recht, da hätte <=RDNA3 vorher schon richtig schlecht ausgesehen
Vorher wäre es noch viel mehr notwendig gewesen.
mironicus
2025-10-13, 20:22:43
Das Video ist interessant, weil es zeigt wie FSR4 auf einen Legion Go unter Steam OS installiert wird und wie es läuft. Mit einem Vergleich zwischen FSR4 und FSR2. FSR4 sieht dramatisch besser aus, knackscharf bei Bewegung während bei FSR2 alles ziemlich unscharf wirkt durch primitivere temporale Filterung.
B_IGF1ec_fg
Eadzon64
2025-10-13, 20:35:38
noch ein Video, wo man sehr gut den Unterschied, bei Transparenz
DLSS gegen XESS input bei FSR3 sieht
sorry, aber musste erst ins capturing rein kommen, via OBS-Studio
https://drive.google.com/file/d/1g-sHZoQKhhNySj7aOqj4XWSGYMbdvA0x/view?usp=sharing
DrFreaK666
2025-10-14, 16:45:10
Ich poste es mal hier und im OptiScaler Thread.
FSR4 auf GCN 5.1
8tDolshvl7c
mironicus
2025-10-14, 16:47:23
Noch mehr FSR4 Int 8. Die Xbox Series X unterstützt auch Int8 (volles RDNA2-Featureset), die PS5 dagegen nicht.
fqDWJCW06Ks
mironicus
2025-10-15, 14:13:57
Dieses Video ist empfehlenswert weil es Großaufnahmen zeigt FSR 3.1 vs FSR 4.0 auf einem Handheld und wie FSR 4.0 die Bildqualität bemerkenswert verbessert. Selbst bei Ultra Performance, wo die Grafik nur endlos flackert bei FSR 3.1 bügelt FSR 4.0 total glatt.
Jxts3NyMY5s
Exxtreme
2025-10-15, 14:22:18
Also laut Grok unterstützt die PS5-GPU DP4a-Instruktionen. Und da ist INT8 dabei. Eventuell blockt Sony das irgendwie.
Yes, the AMD Oberon GPU supports the DP4a instructions (specifically, the V_DOT4_I32_I8 and V_DOT4_U32_U8 variants for 8-bit integer dot-product accumulation). This is due to its RDNA 2.0 architecture, which includes these instructions for accelerating INT8 matrix operations in compute workloads, as confirmed by AMD for RDNA 2 GPUs like those in the Radeon RX 6000 series. Oberon shares this architecture, though it's optimized for console use (e.g., in the PlayStation 5) and limited to OpenCL 1.2 for compute, without DirectX support.
aufkrawall
2025-10-15, 14:45:45
Das geht aber besser:
https://chatgpt.com/share/68ef9708-04e8-8002-8866-8100f88b2867
MSABK
2025-10-15, 14:58:47
Cool, das war ja lange ein Kritikpunkt. Jetzt gibt es auch im Handheld eine ML-Skalierung.
basix
2025-10-15, 15:01:55
Also laut Grok unterstützt die PS5-GPU DP4a-Instruktionen. Und da ist INT8 dabei. Eventuell blockt Sony das irgendwie.
Und woher weiss Grok das? Man findet online nirgends Dokumentationen zu dem Thema.
Exxtreme
2025-10-15, 15:03:04
Grok leitet das wohl daher ab weil AMD Oberon auf RDNA2 basiert. Und RDNA2 unterstützt DP4a.
Edit: Interessant ist das da:
https://www.techpowerup.com/gpu-specs/amd-oberon.g936
Die schreiben zwar, das sei eine RDNA2-Architektur, der Codename ist aber "Navi12 lite". "Navi12" ohne "lite" ist aber wiederum RDNA1, welches aber offenbar DP4a nativ unterstützt.
basix
2025-10-15, 17:10:25
Genau, Oberon ist eben noch nicht ganz RDNA2 "Full" ;)
Bei RDNA1 gibt es das kleine Problem, dass Navi 10 DP4a nicht unterstützt. Und was will uns das "Lite" sagen? Abgespeckte Funktionen? In welcher Form?
Ich würde da Grok also nicht trauen ;)
robbitop
2025-10-15, 18:28:52
Ich meine das auch schon sehr oft gelesen zu haben dass Oeron kein dp4a kann. Zumindest nicht mit 4x speedup vs fp32.
Eadzon64
2025-10-15, 18:34:59
Ich meine das auch schon sehr oft gelesen zu haben dass Oeron kein dp4a kann. Zumindest nicht mit 4x speedup vs fp32.
vermischt er da die ps5pro variante, die hat doch das zusätliche silizium verpasst bekommen?
mironicus
2025-10-15, 22:43:31
Ich poste das mal hier. DLSS vs FSR 3 bzw. Nintendo Switch 2 vs Asus Rog Ally X. Bin fassungslos, das die Switch 2 dank DLSS eine flimmerfreie Grafik hinbekommt, z.B. in Cyberpunk 2077 und in anderen Spielen, während das Ally flimmert und schimmert wegen FSR 3.
VZKxgDupN38
Exxtreme
2025-10-15, 23:09:54
vermischt er da die ps5pro variante, die hat doch das zusätliche silizium verpasst bekommen?
Die PS5 Pro-Variante hat den Namen "Viola".
https://www.techpowerup.com/gpu-specs/amd-viola.g1083
Da gibt es dann doch größere Unterschiede.
Relex
2025-10-16, 05:17:21
Ich poste das mal hier. DLSS vs FSR 3 bzw. Nintendo Switch 2 vs Asus Rog Ally X. Bin fassungslos, das die Switch 2 dank DLSS eine flimmerfreie Grafik hinbekommt, z.B. in Cyberpunk 2077 und in anderen Spielen, während das Ally flimmert und schimmert wegen FSR 3.
https://youtu.be/VZKxgDupN38
Jap logisch. War bisher auch der einzige Grund, warum ich mir noch kein Steam Deck gekauft habe. Ich will mir kein FSR antun, wenn ich bei einem Handheld so stark auf Upscaling angewiesen bin. Und die Switch… na ja, die hat viele andere Macken die mir überhaupt nicht zusagen, aber DLSS ist dort eben der Gamechanger.
Ein Steam Deck 2 mit FSR4/5 könnte richtig nice werden.
robbitop
2025-10-16, 09:07:01
vermischt er da die ps5pro variante, die hat doch das zusätliche silizium verpasst bekommen?
Das kann sein. Die hat deutlich neuere GFX IP. :)
robbitop
2025-10-16, 09:08:35
Ich poste das mal hier. DLSS vs FSR 3 bzw. Nintendo Switch 2 vs Asus Rog Ally X. Bin fassungslos, das die Switch 2 dank DLSS eine flimmerfreie Grafik hinbekommt, z.B. in Cyberpunk 2077 und in anderen Spielen, während das Ally flimmert und schimmert wegen FSR 3.
https://youtu.be/VZKxgDupN38
Das hat ja mit der Hardware nichts zu tun sondern mit dem Upsampling. Und wie viel besser DLSS als FSR2/3 ist ist nichts neues. :)
Man kann auf AMD Handhelds allerdings mit Optiscaler auch FSR4 (INT8) injecten. Dann ist das Manko gefixt. Oder warten bis AMD es offiziell rausbringt ^^
Jap logisch. War bisher auch der einzige Grund, warum ich mir noch kein Steam Deck gekauft habe. Ich will mir kein FSR antun, wenn ich bei einem Handheld so stark auf Upscaling angewiesen bin. Und die Switch… na ja, die hat viele andere Macken die mir überhaupt nicht zusagen, aber DLSS ist dort eben der Gamechanger.
Ein Steam Deck 2 mit FSR4/5 könnte richtig nice werden.
Ja so ist es. Und das Steam Deck ist mit 1280x800p Display auch nicht soo toll geeignet für upsampling weil die output resolution bereits so niedrig ist. Wahrscheinlich wäre ein Quality preset mit sehr gutem upsampling (DLSS4/FSR4) noch okay. Mit FSR3 und XeSS und co ist es optisch nicht so toll.
Das Steam Deck ist weiterhin leider auch etwas schwachbrüstig für die aller neusten Titel. Wenn es ein VRR Display hätte und man mit low settings leben könnte wäre es ggf noch akzeptabler. Aber die 30 fps kann man oft dann doch nicht halten und mangels VRR merkt man dann eben schon stuttering. VSync off gibt es leider auch nicht auch wenn das Menü es so ausweist. Der Gamescope Compositor kann das irgendwie nicht (?). Entsprechend ist bei VSync aus so eine Art "Fast Sync" an. Das ist mit den 90 Hz der OLED Version weniger schlimm aber trotzdem eindeutig merkbar.
Das Steam Deck ist IMO eher sowas wie ein "pile of shame" Vernichter. Damit kann man super gut etwas ältere Spiele spielen. Dann auch mit phantastischer Akkulaufzeit. Sowas wie Crysis 2 oder Max Payne 3 rennt mit 90 fps flatline und 6-7h Akkulaufzeit. Low TDP ist es wo es wirklich geil wird IMO.
Die großen neuen Handhelds werden leider erst deutlich stärker als das Deck (bis zu Faktor 2) mit hohen TDPs wo dann die Akkulaufzeit wieder deutlich sinkt. Wäre mir zu kurz ehrlich gesagt. Und dank der großen Akkus werden die Dinger auch immer größer und schwerer.
Die Switch 2 zeigt dass es auch smarter geht. Das Ding ist für die Winzig TDP des SoCs und dafür dass Node und IP >5 Jahre alt sind irre effizient und lässt alle APUs im Staub zurück in Bezug auf Perf/W bei lowTDPs. Mit einem moderneren SoC wäre es vermutlich noch krasser.
Jedenfalls denke ich (Valve hat das in Interviews ja durchblicken lassen dass sie eher noch mehr Akkulaufzeit wollen, hohes Gewicht und hohe TDPs nicht so toll finden) wird das Steam Deck 2 auch eher in die Richtung Effizienzmaximierung gehen. Max 15W TDP wie gehabt aber viel mehr Leistung rauspressen. Auch durch Reduktion des Teillastverbrauchs.
Und das wird dann sicherlich mehr grunt haben für neuere Spiele, dazu sicherlich auch 1080p (und damit besser geeignet für modernes Upsampling).
Ansonsten ist das Deck 1 aber auch heute schon ein tolles Gerät. Mal so als Inspiration was ich zuletzt nochmal gezockt hab (entweder pile of shame oder halt ein re-run):
- Mass Effect Remastered Trilogie
- Dark Mesa (Half Life remake)
- Halo Masterchief Collection (Remakes von Halo1-3 + 4 + ODST)
- LA Noir
- Dead Space Triologie
- Half Life 2
- Crysis 2
- Max Payne 3
- Vanquish
- Alan Wake
- GTA 4 + 5
- Shakedown Hawaii (ist ein sehr kurzweiliger Indi Titel - sieht aus wie GTA2 - Nachfolger von Retrocity Rampage)
- Armored Core 6 (ein 2023 Titel der aber ziemlich gut läuft)
- Elden Ring (läuft auch echt brauchbar)
- Bioshock Teile
- Batman Arkham Teile
- Dark Souls Trilogie
- Wolfenstein New Order, Old Blood und New Colloseus (rennt PHANTASTISCH!)
- Fallout 3, 4, Vegas
- Mirror's Edge
- Star Wars the force unleashed 1+2
- Monkey Island 1+2+return to Monkey Island
- XCom Enemy Unknown
- Tomb Raider 2013
- Warhammer 40K Space Marine
- Watch Dogs 2
- Prey
Alles richtig spaßige Spiele die super gut auf dem Deck laufen und gute Akkulaufzeit bringen. Nutze ich in Situationen in denen "normales Zocken" nicht drin ist. Kinder auf dem Spielplatz oder abends manchmal auf der Couch oder auf Dienstreise im Flugzeug/Hotel/Flughafen. Immer wenn kleine Wartezeiten anfallen. Dank des instant standby kann es jederzeit sofort losgehen und auch sofort pausiert werden. Ist ein echter enabler für mehr Zockzeit gerade wenn man sonst im Leben ein wenig eingebunden ist. Und die etwas älteren Spiele sehen IMO noch toll aus und machen Spaß. Viele hat man schon vergessen oder nie gespielt - was man jetzt nachholen kann. Ich will es nicht mehr missen und werde instant das Deck 2 kaufen sobald es raus ist. ^^
DrFreaK666
2025-10-16, 09:11:12
Ich poste das mal hier. DLSS vs FSR 3 bzw. Nintendo Switch 2 vs Asus Rog Ally X. Bin fassungslos, das die Switch 2 dank DLSS eine flimmerfreie Grafik hinbekommt, z.B. in Cyberpunk 2077 und in anderen Spielen, während das Ally flimmert und schimmert wegen FSR 3.
https://youtu.be/VZKxgDupN38
Man hätte wenigstens XeSS nutzen können.
Habs gestern getestet in 360p@1080p und 540p@1080p. XeSS lieferte das ruhigere und schärfere Bild (in den von mir getesteten Games).
FSR für Handhelds und Mini-PCs zu verwenden... den Fehler machen viele Youtuber (wieso auch immer)
robbitop
2025-10-16, 09:37:44
Man hätte wenigstens XeSS nutzen können.
Habs gestern getestet in 360p@1080p und 540p@1080p. XeSS lieferte das ruhigere und schärfere Bild (in den von mir getesteten Games).
FSR für Handhelds und Mini-PCs zu verwenden... den Fehler machen viele Youtuber (wieso auch immer)
XeSS kostet leider auch mehr (was man auf dem Deck merkt). Entsprechend muss man performancenormiert ein kleineres Preset nehmen (weniger input resolution) und dann ist es gegen FSR2.1 (bessere Implementierung als FSR3 in CP77) nicht mehr wirklich im Vorteil (zumindest habe ich den subjektiven Eindruck auf dem Steamdeck in CP77).
Ggf. hilft aber das injecten von FSR3.1.5 mit Optiscaler mit Nutzung des XeSS Inputs - das meinte Eadzon64 jedenfalls was ich mir auch gut vorstellen kann, weil man dadurch die grottige FSR Implementierung mit saubereren Inputs umgehen kann).
Jap logisch. War bisher auch der einzige Grund, warum ich mir noch kein Steam Deck gekauft habe. Ich will mir kein FSR antun, wenn ich bei einem Handheld so stark auf Upscaling angewiesen bin.
Deshalb MSI Claw
DrFreaK666
2025-10-16, 12:53:51
XeSS kostet leider auch mehr (was man auf dem Deck merkt). Entsprechend muss man performancenormiert ein kleineres Preset nehmen (weniger input resolution) und dann ist es gegen FSR2.1 (bessere Implementierung als FSR3 in CP77) nicht mehr wirklich im Vorteil (zumindest habe ich den subjektiven Eindruck auf dem Steamdeck in CP77).
Ggf. hilft aber das injecten von FSR3.1.5 mit Optiscaler mit Nutzung des XeSS Inputs - das meinte Eadzon64 jedenfalls was ich mir auch gut vorstellen kann, weil man dadurch die grottige FSR Implementierung mit saubereren Inputs umgehen kann).
Denke schon dass 360p XeSS besser aussieht als 540p FSR. Ist vielmehr a bissl blurry im Vergleich, sollte aber trotzdem deutlich weniger flimmern.
robbitop
2025-10-16, 13:01:53
Ich fande das jedenfalls nicht.
MSABK
2025-10-16, 13:16:25
Da ich nicht in dem Theme drinnen bin. Ist es ein großer Aufwand FSR4 in Handelds mit RDNA3 iGPUs zu nutzen?
Aktuell hat ja nur LunarLake Matrixeinheiten.
dildo4u
2025-10-16, 13:21:57
Da ich nicht in dem Theme drinnen bin. Ist es ein großer Aufwand FSR4 in Handelds mit RDNA3 iGPUs zu nutzen?
Aktuell hat ja nur LunarLake Matrixeinheiten.
FSR4 Int 8 ist doch geplant aber nicht final.
https://youtu.be/fqDWJCW06Ks?si=6QkL5i4AboeJTTch&t=943
FSR4 Int 8 ist doch geplant aber nicht final.
Selbst FSR3 ist auf den kleinen IGPUs Performancemäßig grenzwertig, bzw. der Performancegewinn eher unterdurchschnittlich, da habe ich keine Hoffnung für die sinnvolle Anwendung von FSR4.
dargo
2025-10-16, 14:36:16
Da ich nicht in dem Theme drinnen bin. Ist es ein großer Aufwand FSR4 in Handelds mit RDNA3 iGPUs zu nutzen?
Wenn du das Einfügen vom Optiscaler als großen Aufwand betrachtest dann ja. :wink: Wobei ich mit Handhelds nichts am Hut habe. Keine Ahnung wie das Betriebssystem dort drauf ist.
robbitop
2025-10-16, 15:05:40
In Windows genauso und in SteamOS einfach Decky runterladen und dann im Decky Appstore "Decky Framegen" runterladen, das Spiel was gepatcht werden soll aus der Liste von Spielen aussuchen, Rest geht automatisch.
DrFreaK666
2025-10-16, 17:16:03
Ich fande das jedenfalls nicht.
in welchen Games? The Witcher 3 sah mir bei der Vegetation und dem Wasser besser aus mit XeSS.
Auch bei Guardians of the Galaxy: Gitter in weiter Ferne waren mir FSR nur Geflimmer. Mit XeSS war es deutlich ruhiger
DrFreaK666
2025-10-16, 18:52:11
Ich habs noch nicht angeschaut.
Sieht aus als würde er der europäische MLID werden wollen ^^
dzcV-i2fMc0
Leider so gut wie keine Infos
Eadzon64
2025-10-16, 19:20:13
Die PS5 Pro-Variante hat den Namen "Viola".
https://www.techpowerup.com/gpu-specs/amd-viola.g1083
Da gibt es dann doch größere Unterschiede.
weiß ich, habe die ganze Entwickung un Veröffentlichungen mit gelesen
Sony mit AMD, PSSR zu FSR4, alles Hüte für mich
mein Fehler ist, das ich mal wieder nicht den ganzen Thread durchgelesen hab
und bei dem Schlagwort DP4a getriggert wurde, nach dem Motto, sag mal blicken Die's ned,
jeder weiß doch, das erst PS5pro, eine RDNA2 Matrix Erweiterung bekommen hat, un was wollen se jetzt, mit der dollen normalo PS5
:smile:
The_Invisible
2025-10-18, 11:56:00
Ich habs noch nicht angeschaut.
Sieht aus als würde er der europäische MLID werden wollen ^^
https://youtu.be/dzcV-i2fMc0
Leider so gut wie keine Infos
Reines Marketinggeblubber, bei der einen Userfrage nicht mal den Negativpunkt voll vorgelesen, wird bei den Youtube Kommentaren trotzdem gefeiert :freak:
dargo
2025-10-18, 12:12:16
Reines Marketinggeblubber...
Also wie bei Nvidia und Intel auch. Breaking News Bro.
Eadzon64
2025-10-18, 12:25:56
it's Revolutionary:biggrin:
dildo4u
2025-10-18, 19:13:47
_0ZcEExi9Ck
robbitop
2025-10-18, 23:47:37
Also wie bei Nvidia und Intel auch. Breaking News Bro.
Das Interview war wirklich Mist. Der interviewte Typ hat anscheinend null Ahnung und hat auf alle Fragen vage, total oberflächliche, generische Antworten gebracht die null Erkenntnisse gebracht haben. Komplette Zeitverschwendung IMO.
Warum das von den Kommentaren gefeiert wurde habe ich nicht verstanden. Und komischerweise sieht man Fabio auch keine Enttäuschung bei den Antworten (auf seine sehr interessanten Fragen an). Komplettes blabla mit einer Nichtantwort. Unabhängig vom IHV.
dargo
2025-10-19, 08:07:56
Was hast du denn erwartet? Das der Typ alle Internas offen legt? Dann bist du ganz schön naiv.
Relex
2025-10-19, 09:11:54
Die Antwort auf die Frage zum FSR4 support für ältere FSR2 games war ja mal Ultra peinlich.
Vor allem dann am Ende noch das „I have no idea“.
Uff. Das erinnert an das Gamestar Video wo sie nen Typ von Nvidia Deutschland interviewt haben.
The_Invisible
2025-10-19, 10:34:18
Also wie bei Nvidia und Intel auch. Breaking News Bro.
Bei Nvidia wird da zumindest nichts gefeiert weil das rote Lager da sofort auf shitstorm Modus geht
dargo
2025-10-19, 11:30:42
Natürlich nicht. Sieht man jedes Mal in diesem Forum, dass nichts von Nvidia overhyped wird. :lol: Aktuell MFG, dvor 2x FG usw. usf. . :uup:
robbitop
2025-10-19, 12:20:53
Was hast du denn erwartet? Das der Typ alle Internas offen legt? Dann bist du ganz schön naiv.
Es gibt immer ein Spektrum. Und da gibt es Zwischenbereiche. Ich habe natürlich nicht erwartet dass er Internas ausplaudert. Aber das Interview ist richtig richtig schlecht. Da gab es unter ähnlichen Umständen massiv besseres. Interviews die Ian Cutress führt zB sind alle massiv besser (nicht unbedingt wegen Ian sondern wegen der Interviewpartner - oder jedes Interview wo Tom Petersen dabei ist vermittelt wenigstens Wissen auch wenn er nicht viel sagen darf. Das war einfach jemand jemand der nicht nur nicht viel sagen durfte sondern auch keine Ahnung hat). Hast du es denn überhaupt gesehen?
IMO hat das nichts mit AMD/NV zu tun. Er hat sich hier IMO einfach jemanden rausgesucht der nicht ideal für ein Interview war.
edit:
hier mal als Beispiel wie ein gutes Interview laufen kann (auch ohne, dass Unveröffentlichtes veröffentlicht wird):
https://www.youtube.com/watch?v=P2AsCkKi-vs&t=1s
Tom Petersen von Intel spricht über Xe3 und das ist auf einem anständigen Niveau wo man auch noch was dazu lernt. Muss also nicht unbedingt nichtssagendes Geseier ohne Erkenntnisse sein. ^^
mironicus
2025-10-27, 11:06:45
Auf dem Legion Go 2 verglichen FSR 3.1 und FSR 4.02 in Bazzite. Es bringt einen Performance-Verlust mit sich, aber das Bild ist natürlich deutlich besser.
2aeS7jdEGLg
dargo
2025-10-27, 11:17:05
Ich staune immer wieder wofür Leute so viel Geld ausgeben. Sind solche teuren Handhelds wirklich so stark gefragt?
Hakim
2025-11-11, 16:48:52
Könnte AMD heute mehr Infos zum Redstone mitteilen und konkretes Datum nennen?
Exxtreme
2025-11-11, 16:58:58
Also wenn AMD was veröffentlicht dann immer um 15:00 Uhr. Denn bei den Amis ist es dann 9:00 am EST.
Hakim
2025-11-11, 17:29:19
Dachte wäre gleich soweit, hab 19 Uhr im Kopf, ich check mal.
Edit: ist um 19 Uhr hier https://x.com/AMD/status/1987928775766483437
dildo4u
2025-11-13, 17:44:21
Black Ops 7 hat Raytracing Reflektionen mit AMD Ray Regeneration
https://i.ibb.co/wNpgs4Dg/black-ops-7-has-fsr-ray-regeneration-redstone-v0-d5k853wjm01g1.png (https://ibb.co/QFYQdMsQ)
https://www.reddit.com/media?url=https%3A%2F%2Fpreview.redd.it%2Fblack-ops-7-has-fsr-ray-regeneration-redstone-v0-d5k853wjm01g1.png%3Fwidth%3D2560%26format%3Dpng%26auto%3Dwebp%26s%3D52f80e8e8609 0217a0413c9d73438d2b6d6157e7
Relex
2025-11-13, 18:15:53
Verlink halt den ganzen reddit post und nicht nur das Bild?! danke
Wie ist die Bildqualität?
Steigen oder sinken die FPS damit?
RDAN2/3 support?
dildo4u
2025-11-13, 18:22:13
Ich vermute mal das kommt erst wenn RDNA3 FSR4 bekommt das scheint aber noch nicht der Fall.
https://i.ibb.co/1YS0SPy2/Screenshot-20251113-182847-Samsung-Internet.jpg (https://ibb.co/hxqgq4Q8)
https://www.reddit.com/r/radeon/comments/1ovzew1/black_ops_7_has_fsr_ray_regeneration_redstone/
aufkrawall
2025-11-13, 19:03:30
Hoffentlich heißt das nicht, dass das SDK auf GitHub wieder viel später kommt. Technisch gesehen haben sie ja so ihr Versprechen von H2 ja bereits gehalten...
OgrEGT
2025-11-13, 19:04:06
Hier steht dass es vorerst nur auf RX9000 Karten laufen wird... mit dem Ziel später wenn alle RS Komponenten zur Verfügung stehen eine voll transparente Neural Rendering Pipeline zu haben... was wahrscheinlich bedeutet dass alle Komponenten ML beschleunigt sein werden...
Unterstützung von älteren Generationen wird nicht erwähnt...
https://videocardz.com/newz/amd-launches-first-feature-from-fsr-redstone-with-call-of-duty-black-ops-7-only-for-rx-9000-gpus
dildo4u
2025-11-14, 09:19:39
Standard Denoiser vs Ray Regeneration
Das RT ist Heavy daher vermutlich PC Exklusiv. Keine 60fps mit Performance FSR4 in 4k(9070XT)
Wx2q4xmEY64
DrFreaK666
2025-11-14, 10:05:08
Schönere Spiegelungen. Sonst sehe ich keine großen Unterschiede
dildo4u
2025-11-14, 10:17:24
Dafür ist es gedacht das Spiel nutzt RT nur in den Spiegelungen.
DrFreaK666
2025-11-14, 11:02:55
Achso. Also minimalst-RT
dargo
2025-11-14, 12:01:46
Standard Denoiser vs Ray Regeneration
Das RT ist Heavy daher vermutlich PC Exklusiv. Keine 60fps mit Performance FSR4 in 4k(9070XT)
https://youtu.be/Wx2q4xmEY64
Im Indoor ganz nett, und zumindest da sehr günstig. Im Outdour muss ich wahrscheinlich schon eine Lupe rausholen. :tongue: Möglicherweise verschluckt aber die schlechte Kompression vieles. Muss man eh selbst am eigenen Bildschirm beurteilen.
MadManniMan
2025-11-14, 12:29:25
Ist Ray Regeneration wie Ray Reconstruction ebenfalls schneller und weniger laggy?
FSR4 für ZUMINDEST RDNA3 offiziell wäre wegen der neuen Steam Machine sooooooooo wichtig.
Achill
2025-11-14, 12:36:14
Standard Denoiser vs Ray Regeneration
Das RT ist Heavy daher vermutlich PC Exklusiv. Keine 60fps mit Performance FSR4 in 4k(9070XT)
https://youtu.be/Wx2q4xmEY64
Leider kann man die Perf. Werte nur beschränkt verwenden, man sieht am Anfang wo er die Option in den Settings zeigt, dass darunter ein VRAM Slider ist. Dieser steht auf 70% und wenn man das Video passend pausiert, dann gibt es auch genau die Info, dass dies den nutzbare VRAM für das Spiel bestimmt. Das sollte ggf. auf 90-95% geschoben werden bevor man Leistung messen will. Ansonsten natürlich techn. Interessant zu sehen, aber da dies nicht mein Typ von Spiel ist => erstmal weniger Bedeutung zumindest für mich.
DrFreaK666
2025-11-14, 13:12:15
FSR4 für ZUMINDEST RDNA3 offiziell wäre wegen der neuen Steam Machine sooooooooo wichtig.
Anscheinend ist Valve in Gesprächen mit AMD deswegen
Shink
2025-11-14, 15:33:28
Vermutlich wird das schon kommen. Dazu muss es ja in den Windows-Treibern gar nicht aktiviert werden also was hätte AMD zu verlieren dadurch?
Exxtreme
2025-11-14, 15:40:58
Vermutlich wird das schon kommen. Dazu muss es ja in den Windows-Treibern gar nicht aktiviert werden also was hätte AMD zu verlieren dadurch?
RDNA3 würde hart gegen Ampere verlieren bei vergleichbarer Bildqualität.
Shink
2025-11-14, 16:04:53
RDNA3 würde hart gegen Ampere verlieren bei vergleichbarer Bildqualität.
SteamOS. Da sind die NVidia Treiber nicht so schnell wie unter Windows. Bei AMD umgekehrt. Also ganz so hart wie du denkst wird's wohl nicht.
raffa
2025-11-14, 17:17:23
Unter Linux (via proton-ge) kann man eh schon jetzt FSR4 mit RDNA3 nutzen. Sogar per Autoupgrade. Insofern verliert AMD da gar nix, da gibts nur Ansehen (und vielleicht aweng Performance) zu gewinnen. : )
Relex
2025-11-14, 17:22:44
CB hat sich RR mal genauer angesehen:
https://www.computerbase.de/artikel/grafikkarten/amd-fsr-ray-regeneration-cod-black-ops-7-test.95050/
Der_Korken
2025-11-14, 17:29:52
CB hat sich RR mal genauer angesehen:
https://www.computerbase.de/artikel/grafikkarten/amd-fsr-ray-regeneration-cod-black-ops-7-test.95050/
Das ganze hat, wie CB schon schreibt, so FSR3-FG vibes. Es ist auf einmal da, keiner weiß wirklich was darüber und es läuft nicht richtig stabil. Im ersten Vergleichsvideo sieht man, wie auf dem Boden ständig Lichtpunkte aufploppen. Das würde mich hart stören im Spiel, mehr als die matschigen Reflexionen des Standard-Denoisers. DLSS RR sieht hier ehrlicherweise auch nicht gut aus, weil die Fugen auf dem Boden für mich hier flimmern wie Sau. Ich glaube Redstone ist einfach noch nicht fertig und AMD haut jetzt irgendwas raus, damit sie ihr Versprechen mit 2H25 nicht gebrochen haben.
x-force
2025-11-14, 18:59:17
CB hat sich RR mal genauer angesehen:
https://www.computerbase.de/artikel/grafikkarten/amd-fsr-ray-regeneration-cod-black-ops-7-test.95050/
schade, es bleibt mindestens generationssprung zu nv.
schärfe/auflösung sind deutlich geringer, wenn in spiegelungen besser, dann massive temporale instabilität.
ne danke
Relex
2025-11-14, 19:02:39
Final scheint das noch nicht zu sein mit der 0.9er Version und die Bilder zeigen wohl auch warum. Vielleicht schiebt AMD ja kurzfristig noch die 1.0 hinterher, wer weiß.
Das Problem ist bei CoD leider, dass es zwar zeigt, dass RR theoretisch mehr Details rausholen kann, es macht das Ergebnis aber unterm strich irgendwie schlechter als ohne RR, weil so vieles kaputt ist und anfängt zu flimmern.
Ein Spiel mit Pathtracing wäre hier sinnvoller gewesen, weil in nem Pathtraced Spiel die standard Denoiser gnadenlos überfordert werden und weit über ihrer Grenze arbeiten. Hier hätte FSR RR trotz einige Probleme zumindest verdeutlichen können, wie schlecht die standard Denoiser mit so viel Rauschen klar kommen und wie viel besser eine ML Lösung sein kann.
Aber wenn man nur Reflexionen als Showcase hat, dann ist der Nutzen etwas eingeschränkter Selbst Nvidias RR ist da jetzt kein absoluter Gamechanger. Bei Pathtracing aber schon...
Oder anders ausgedrückt: Bei Content wo selbst der standard Denoiser keine allzu große Probleme hat, ist es halt umso schwerer für FSR RR, dagegen deutlich besser auszusehen. Der Showcase zeigt somit mehr Probleme als Vorteile.
In nem pathtraced Titel hätte man zwar die gleichen Probleme gehabt, aber die Vorteile hätten das überschatten können.
aufkrawall
2025-11-14, 19:16:59
Selbst Nvidias RR ist da jetzt kein absoluter Gamechanger.
Würd ich schon sagen. Bei semi-glossy Oberflächen wie manchen Metallen oder mattem Glas (etwa in den Räumen zu den Aufzügen in Talos 1) ist das mit dem UE-Denoiser ein ekliges Rumgewaber vs. RR. Ziemlich heftiger Unterschied.
Relex
2025-11-14, 19:41:50
Ja absolut. Ich hab mich ungenau ausgedrückt.
Ich meinte nur, dass RR in CoD mit den Reflexionen kein Gamechanger ist. Zumindest nach dem was man im CB Vergleich sieht.
Ganz allgemein in anderen spielen und vor allem auch UE5 ist es natürlich viel effektiver. Bin da ganz deiner Meinung.
dargo
2025-11-14, 21:52:51
CB hat sich RR mal genauer angesehen:
https://www.computerbase.de/artikel/grafikkarten/amd-fsr-ray-regeneration-cod-black-ops-7-test.95050/
Stehe ich gerade auf dem Schlauch oder ist das DLSS-RR in Szene 5 bei CB völlig kaputt? Ich sehe da nur Ghosting. :freak:
Edit:
Szene 3 ist auch lustig. DLSS-RR sieht bei den Reflektionen schärfer aus (teilweise massiv), dafür ist es beim Aufzug links eine komplette Vollkatastrophe was die Bildstabilität angeht. Geile Nummer... noch mehr Baustellen bei beiden IHVs. :ulol:
x-force
2025-11-15, 01:16:27
Ich meinte nur, dass RR in CoD mit den Reflexionen kein Gamechanger ist. Zumindest nach dem was man im CB Vergleich sieht.
ich sehe etliche oberflächen, die aussehen als hätten sie auf amd 0x af umd auf nv 16x af.
die allgemeine schärfe ist für mich der größte gewinn.
dargo
2025-11-15, 07:44:16
die allgemeine schärfe ist für mich der größte gewinn.
Der Witz ist ja gerade, dass dies eben nicht in Bewegung immer bei DLSS-RR zutrifft. Sieht man auch wunderbar bei Szene 1 @CB. Da gibt es viele Reflektionen die in Bewegung mit FSR-RR schärfer aussehen als DLSS-RR. Nur schwabelt ersteres dann wieder an den Kanten. :freak: Reinste Baustellen noch. Da kann man nur hoffen, dass es in Zukunft besser wird, in beiden Lagern. Auch keine Ahnung ob das so von AMD geplant war mit CoD 7 wenn ich da schon wieder was von v0.9 bei der amd_fidelityfx_denoiser_dx12.dll lese. Nicht, dass die DEVs da zu früh eine Testversion reingeschmissen haben und das Ding sollte womöglich erst etwas später mit v1.0 per Patch nachgeliefert werden. Würde mich alles nicht wirklich überraschen. :ulol:
Edit:
Szene 2 genauso lustig. :ulol:
Bei FSR-RR sehe ich schön am Anfang rechts an der Säule korrekterweise Bewegung der einzelnen Pixel während dies bei DLSS-RR nicht vorhanden ist. Dafür rauscht das eine Glas im zweiten Raum links mit FSR-RR furchtbar (typischer Ameisenhaufen bei miserablen Denoiser) während es bei DLSS-RR nicht rauscht. Ich sehe hier aktuell nur die Wahl zwischen Pest und Cholera und keinen wirklichen "Gewinner oder Verlierer". ;D
btw.
Hier auch... völlig kaputt das DLSS-RR.
https://youtu.be/6FOL92M2s6Q?si=dPIs4KEA9d2ipFaB&t=252
Dieses Feature braucht wieder Jahre bis das überall überzeugt. Falls überhaupt. Wobei ich mir nicht sicher bin ob hier der Standarddenoiser nicht verwendet wurde. Wäre auch möglich da es im Video um den Vergleich RT Off/On geht.
DrFreaK666
2025-11-15, 23:23:06
ISrPis9TdHE
Bei Nvidia links ist der Schatten irgendwie kaputt
https://i.postimg.cc/85qPd7B3/Schatten.png (https://postimg.cc/ygyHsYGX)
Ohne DLSS und RR aber auch.
https://i.postimg.cc/DwZm1J9x/image.png (https://postimg.cc/SJByhsN9)
Das sieht bei beiden nicht ganz richtig aus, aber bei Nvidia am wenigsten (Der Himmel wird reflektiert, obwohl da noch Feuer ist)
https://i.postimg.cc/kXHwQ90r/image.png (https://postimg.cc/9rGGV3X1)
Nvidia hat aber das schärfere Bild. Hier ist bei AMD Matsch
https://i.postimg.cc/cH5tp17j/image.png (https://postimages.org/)
Relex
2025-11-16, 09:35:29
Schatten und Lighting sind doch gar nicht via RT berechnet, sondern nur Reflexionen.
In dem Video sieht man an mehreren Stellen, dass das Lighting auf ner Nvidia Karte kaputt ist.
Das Feuer leuchtet auch kaum gegen die linke Wand. RT oder RR hat darauf ja keinen Einfluss. Zumindest in dem Kontext wärs dann logisch, dass das Feuer auch in der BVH für die Reflexion fehlt. Scheinbar lädt mindestens eine der Fake Lichtquellen im Feuer nicht. (das feuer selbst wird ja auf beiden nicht gespiegelt, sondern nur die Fake Lichtquelle)
Offensichtlich ist das game noch sehr verbuggt...
robbitop
2025-11-16, 09:55:36
Leider fällt AMD wieder in alte Muster zurück. Wie bei FSR 3.0 wird einfach aus dem Nichts ein Spiel mit dem Feature releast. Kein launch, keine Informationen für die Presse und dann auch ein nicht gerade kuratiertes Ergebnis. Sowas schadet dem Ruf. Ich frage mich warum sowas nicht streng ge-vett-ed wird.
Aus technischer Sicht ist ganz klar Potential zu sehen. Hoffentlich ist Version 1.0 dann deutlich besser in Bezug auf Artefakte. :)
DrFreaK666
2025-11-16, 10:24:28
Da es mit Nvidia auch Probleme zu geben scheint, wäre es möglich, dass noch Potential brach liegt.
Ein Spiel alleine sagt ja auch noch nichts über die Qualität aus
Achill
2025-11-16, 11:11:24
https://youtu.be/ISrPis9TdHE
[..]
Auch in diesem Video, überall wo er sich unsicher ist, hätte er mit 4K ohne Upscaler und Ingame-Denoiser gegentesten können. Die Stellen, wo er m.E. sehr seine eigene Meinung einbringt: Bambus Spiegelung, Beleuchtung im Wohnbereich wo die 5070TI dunkler ist (die Reflection aber so hell wie bei AMD), Pfützen am Ende wie auch die Explosion ... er bricht aber jedes mal genau vor der ersten Stelle ab.
robbitop
2025-11-16, 11:28:21
Da es mit Nvidia auch Probleme zu geben scheint, wäre es möglich, dass noch Potential brach liegt.
Ein Spiel alleine sagt ja auch noch nichts über die Qualität aus
Ja ändert aber nichts daran dass man sowas vernünftig launcht und kuratiert. Den ersten Eindruck gibts halt nur 1x ;)
Null nachvollziehbar wie man das so unkontrolliert laufen lassen kann.
dargo
2025-11-16, 11:59:52
Das nächste Drama von robbitop wird kreiert. :D Seit wann released AMD Spiele? :freak: AMD hat noch nicht mal Redstone offiziell vorgestellt.
robbitop
2025-11-16, 12:14:49
Das nächste Drama von robbitop wird kreiert. :D Seit wann released AMD Spiele? :freak: AMD hat noch nicht mal Redstone offiziell vorgestellt.
Geht es auch sachlich anstatt persönlich zu werden und herumzupöbeln? Wenn du mit gebildeten Erwachsenen mit diskutieren möchtest, verhalte dich bitte angemessen. Ansonsten kann man dich nicht ernst nehmen.
Was ist an meiner Kritik objektiv falsch? Das Echo und der Eindruck waren bei fsr 3.0 katastrophal und das muss nicht sein. Wenn AMD eine Marke aufbauen will, die ihnen eine bessere Marktposition erreicht (was gut für alle wäre - siehe gesunder Wettbewerb) ist ein guter Eindruck immer wichtig.
Und nein AMD macht keine Spiele aber sie haben Kontrolle über den Sourcecode von FSR und unter welchen Bedingungen das an das Studio geshippt wird. Zu FSR4 hat man es auch hinbekommen es sinnvoll zu launchen. Intel und Nvidia bekommen es auch hin.
Und man sollte schon wissen wann angefangen wird Redstone in Games zu shippen so dass man es entsprechend kommunizieren kann. Das ist das absolute 1x1.
AMD hat noch nicht mal Redstone offiziell vorgestellt.
Irgendwie hat der genau das kritisiert.
dargo
2025-11-16, 13:28:53
Geht es auch sachlich anstatt persönlich zu werden und herumzupöbeln? Wenn du mit gebildeten Erwachsenen mit diskutieren möchtest, verhalte dich bitte angemessen. Ansonsten kann man dich nicht ernst nehmen.
Das Kompliment gebe ich gerne zurück. Jedes Mal wenn bei AMD am Anfang was nicht richtig funzt machst du ein Drama draus. Nvidia hat selbst nach vielen Monaten mit DLSS-RR genug Probleme wie man eindrucksvoll bei CoD 7 sehen kann. Wo sind dort deine Dramezüge?
Was ist an meiner Kritik objektiv falsch? Das Echo und der Eindruck waren bei fsr 3.0 katastrophal und das muss nicht sein. Wenn AMD eine Marke aufbauen will, die ihnen eine bessere Marktposition erreicht (was gut für alle wäre - siehe gesunder Wettbewerb) ist ein guter Eindruck immer wichtig.
Und nein AMD macht keine Spiele aber sie haben Kontrolle über den Sourcecode von FSR und unter welchen Bedingungen das an das Studio geshippt wird. Zu FSR4 hat man es auch hinbekommen es sinnvoll zu launchen. Intel und Nvidia bekommen es auch hin.
Und man sollte schon wissen wann angefangen wird Redstone in Games zu shippen so dass man es entsprechend kommunizieren kann. Das ist das absolute 1x1.
Mimimi... wie üblich. :tongue: Und nein... bei FSR4 ist nicht alles perfekt gelaufen. Scheinbar hast du schon FSR4 "lite" für non RDNA4 vergessen.
The_Invisible
2025-11-16, 14:35:20
Wer weiß was AMD und das CoD team da "optimiert" haben, dlss-rr sieht in anderen Games viel besser aus, vor allem mit PT. Mal abgesehen vom lächerlichen rt Leistungsverlust rein für reflektionen. Scheint eher nur ein checkbox feature für AMD zu sein
Ex3cut3r
2025-11-16, 15:06:42
Welches Preset wird bei Nvidia RR da eigentlich von COD verwendet? E über den Inspector ist Top.
Relex
2025-11-16, 15:27:20
Mal abgesehen vom lächerlichen rt Leistungsverlust rein für reflektionen. Scheint eher nur ein checkbox feature für AMD zu sein
Nur nochmal fürs Protokoll. RT Reflexionen vernichten ca 2/3 der FPS. Wenns vorher 150 FPS waren sinds mit RT Reflexionen nur noch 50.
Das ist komplett krank und entspricht Pathtracing Niveau. Und das nur für ein paar kack reflexionen :freak:
Keine Ahnung ob man hier irgendwie ne gewisse Narrative etablieren will von wegen RT ist sinnfrei, frist zu viel performance usw oder ob die Entwickler wirklich so unfassbar unfähig sind?
Zumindest bekommt man den eindruck, wenn man sich die absurden Performancewerte ansieht. Manchmal frag ich mich, wie man es selbst mit absicht schafft, die performance so stark zu drücken. Das muss auch eine Kunst für sich sein. Keine Ahnung, vielleicht mit vibe coding geschrieben?
TheAntitheist
2025-11-16, 17:55:44
also Nvidias RR lief von Anfang an besser als das was AMD versucht nachzumachen... DAS ist doch das traurige. wieder Null Innovation UND schlecht kopiert
aufkrawall
2025-11-16, 18:09:36
Ich würde für durch KI und andere "Optimierungen" runtergerockte Microsoft-Studios jetzt nicht unbedingt AMD (oder Nvidia) verantwortlich machen.
Die positive Nachricht ist, dass RReg prinzipiell funktioniert und nicht teuer ist. Das wird noch weiter iteriert werden. Also an sich erstmal eine gute Sache, wenn auch unmittelbar etwas meh. Wobei man das bei der realen Verfügbarkeit und einigen Macken auch über RR sagen kann.
dargo
2025-11-16, 19:06:26
also Nvidias RR lief von Anfang an besser als das was AMD versucht nachzumachen... DAS ist doch das traurige. wieder Null Innovation UND schlecht kopiert
AMD sollte wirklich besser von Nvidia kopieren wie hier am Swimmingpool. :uup:
https://youtu.be/ISrPis9TdHE?si=3FmcID7SSJs-uTSg&t=888
Immer wieder erstaunlich was die grünen Lemminge alles abfeiern.
Ex3cut3r
2025-11-16, 21:06:11
Ich weiß immer noch nicht, welches Preset Cod für RR verwendet, bei den ganzen YouTubern finde ich dazu nichts. Wurde mich nicht wundern wenn es D ist. Bei DLAA SR benutzt COD übrigens Preset E anstatt, K. :freak:
Relex
2025-11-16, 22:04:09
Hmm, wäre das nicht im CoD Thread besser aufgehoben?
Aber wirklich Preset D?
Das grenzt ja schon an Sabotage. Wenn schon das alte CNN Model dann wenigstens E oder bei DLAA F. Aber D ist Unsinn.
Ob da nicht AMD ein Wörtchen mitzureden hatte?
Langsam summiert es sich.
Standardmäßig nur das CNN Model für SR und dann auch noch das veraltete Preset D.
Verbuggte Schatten und Beleuchtung auf Nvidia GPUs.
Deutlich schlechtere Performance auf Nvidia GPUs selbst mit RT (welches auch noch allgemein extrem schlecht läuft)
Würde mich nicht wundern wenn bei der Ray Reconstruction dann auch noch das alte CNN Model genutzt wird statt dem neueren Transformer Model. Wenn das der Fall wäre, wärs wirklich ein Skandal. Jetzt interessiert mich das RR Preset auch…
aufkrawall
2025-11-16, 22:06:22
Ich weiß immer noch nicht, welches Preset Cod für RR verwendet, bei den ganzen YouTubern finde ich dazu nichts. Wurde mich nicht wundern wenn es D ist.
Mit hoher Wahrscheinlichkeit. E ist aber auch nicht fehlerfrei, hat teilweise sogar zusätzliche Bugs.
@Relex: D ist bei RR schon Transformer und der Standard.
Relex
2025-11-16, 22:10:07
Weiß ich. Bei RR sind Preset D und E transformer.
bei SR sind es J und K.
Aber wenn sie bei SR Preset D nutzen (CNN), dann wärs ja nicht unwahrscheinlich dass bei der RR ebenfalls nur ein CNN Preset genutzt wird.
TheAntitheist
2025-11-16, 23:30:56
AMD sollte wirklich besser von Nvidia kopieren wie hier am Swimmingpool. :uup:
https://youtu.be/ISrPis9TdHE?si=3FmcID7SSJs-uTSg&t=888
Immer wieder erstaunlich was die grünen Lemminge alles abfeiern.
Alle tests von Menschen sagen, das Nvidias RR deutlich besser ist und du nennst jene "Grüne Lemminge"? okay... dann bist du ein braunes Schwein, wenn wir uns hier schon wie Tiere benennen ;D
dargo
2025-11-17, 07:51:34
Alle tests von Menschen sagen, das Nvidias RR deutlich besser ist...
Und dennoch hat Nvidia mit RR genug Probleme, nur andere. :rolleyes: Zumal hier erstmal nur mit einer v0.9 bei AMD verglichen wird. Die ganzen Vergleiche sind nüchtern betrachtet eh theoretischer Natur in diesem Spiel da kaum jemand in diesem MP RT nutzen wird wenn ich das hier schon wieder sehe. :ulol: Die Kosten von RT sind selbst auf dem teuersten Heizofen brutal hoch.
GxvkLGASlVQ
Das muss man sich mal auf der Zunge zergehen lassen. Selbst auf der RTX 5090 läuft das Game ca. Faktor 4-5 schneller ohne RT.
Achill
2025-11-17, 09:19:42
Könnte hier ggf. etwas aufgeräumt werden (inkl. meinen Kommentar). Die letzten Kommentar haben wenig bis gar nichts mit AMDs FidelityFX Super Resolution oder jetzt auch RR zu tun ...
Achill
2025-11-17, 09:29:38
Ja ändert aber nichts daran dass man sowas vernünftig launcht und kuratiert. Den ersten Eindruck gibts halt nur 1x ;)
Null nachvollziehbar wie man das so unkontrolliert laufen lassen kann.
Dem stimme ich zum Teil zu, würde mich nicht wundern wenn dies ggf. von CoD getrieben wurde weil die Zeitpunkt der Veröffentlichung bevorstand. Es wäre einfach besser gewesen, hätte man es als Preview-Version in einen gemeinsamen Statement raus gebracht. Das es die Version 0.9 trägt und zumindest nach SWE Standard damit noch nicht final ist, geht in den Material was ich im Netz gesehen habe, komplett unter.
---
Ich würde für durch KI und andere "Optimierungen" runtergerockte Microsoft-Studios jetzt nicht unbedingt AMD (oder Nvidia) verantwortlich machen.
Die positive Nachricht ist, dass RReg prinzipiell funktioniert und nicht teuer ist. Das wird noch weiter iteriert werden. Also an sich erstmal eine gute Sache, wenn auch unmittelbar etwas meh. Wobei man das bei der realen Verfügbarkeit und einigen Macken auch über RR sagen kann.
Sehe ich auch so, es fehlt imho jetzt noch eine DX12 API damit dies dann auch generell in allen Spielen mit RayTracing Einzug erhält und nicht nur ein Teil der IHVs in den verschiedenen Spielen seine Implementierung bekommt.
DrFreaK666
2025-11-17, 09:33:56
Sehe ich auch so, es fehlt imho jetzt noch eine DX12 API damit dies dann auch generell in allen Spielen mit RayTracing Einzug erhält und nicht nur ein Teil der IHVs in den verschiedenen Spielen seine Implementierung bekommt.
Verdammte proprietäre Scheiße.
also Nvidias RR lief von Anfang an besser als das was AMD versucht nachzumachen... DAS ist doch das traurige. wieder Null Innovation UND schlecht kopiert
Logisch, als Vorreiter kann man mit der Veröffentlichung warten bis die Ergebnisse ausreichend gut sind.
Als Nachzügler muss man immer schon den unfertigen Zustand raushauen damit die Allgemeinheit sieht dass zumindest etwas passiert.
MadManniMan
2025-11-17, 13:53:20
Das muss man sich mal auf der Zunge zergehen lassen. Selbst auf der RTX 5090 läuft das Game ca. Faktor 4-5 schneller ohne RT.
Stimmt, aber du kannst dir halt aussuchen, ob du lieber RT mithilfe von DLSS hast oder drauf verzichtest.
Ich spiele aktuell keine kompetitiven MP-Shooter, von daher weiß ich nicht, wie ich es praktisch anstellen würde - aber in SP drehe ich lieber Auflösung runter und FG hoch, als noch Screenspace-Reflexionen ertragen zu müssen.
Klar sind native 4K-RT-Reflexionen heftig, aber MUSS man das nutzen, wenn der visuelle Unterschied vernachlässigbar ist?
dargo
2025-11-17, 15:47:16
Klar sind native 4K-RT-Reflexionen heftig, aber MUSS man das nutzen, wenn der visuelle Unterschied vernachlässigbar ist?
Ich sprach nirgendwo von nativer 4k Rechenlast, dass man die unbedingt nutzen muss. Die RTX 5090 ist selbst mit 1440p als Input völlig überfordert. Wenn ich das auf deine RTX 4070 übertrage, sofern die Angaben noch aktuell sind, wirds noch wesentlich übler im Bereich fps.
Edit:
Bei AG mit einer RX 9070 non XT brechen die fps auch auf ca. 1/4 mit RT-Reflektionen ein. Darauf haben die CoD-Gamer bestimmt gewartet. :ulol:
Td6wFgz9KyE
Wobei... wenn ich mir 1440p + FSR4_Q + RT High vs. 1440p + FSR4_Q + RT Off ansehe heißt es 60+ fps vs. 160+ fps. Also nicht mehr so extrem übel. Aber immer noch sehr teuer mit Faktor ~2,5.
MadManniMan
2025-11-18, 09:51:54
Ich sprach nirgendwo von nativer 4k Rechenlast, dass man die unbedingt nutzen muss. Die RTX 5090 ist selbst mit 1440p als Input völlig überfordert. Wenn ich das auf deine RTX 4070 übertrage, sofern die Angaben noch aktuell sind, wirds noch wesentlich übler im Bereich fps.
Hm, dann hab ich's übersehen: Wo (außerhalb von 4k nativ) sinkt denn die Framerate auf 20 - 25 %?
dargo
2025-11-18, 10:06:00
Müsste man sich unter realen Spielsettings mit noch schwächeren Karten anschauen. Bei der RTX 5080 sind es ca. 35-37% (im Schnitt ca. 55fps vs. 155fps) in 1440p mit Quality Upscaling bei RT vs. non RT.
6dKhf7n0VHI
dildo4u
2025-11-18, 16:13:39
Am 10.12 soll der komplette Redstone Launch sein
https://videocardz.com/newz/amd-to-present-fsr-redstone-on-december-10th-only-radeon-rx-9000
dargo
2025-11-18, 16:34:37
Verdammt... doch noch in H2 2025. ;)
btw.
Bin etwas gespannt ob Avatar mit dem Dezember Update, womit 3rd Person kommen soll, auch direkt Redstone abbekommt. Afaik gibt es da mit AMD eine Kooperation. Habe das Game für 8€ geschossen, würde sich für den Winter gut anbieten. :tongue:
Lurtz
2025-11-18, 17:49:52
Avatar bekommt ja noch einen DLC, ich befürchte aber, dass die das technisch nicht mehr groß angefasst haben werden. Wäre aber gut, die FSR3 FG-Version in dem Spiel ist furchtbar.
Ex3cut3r
2025-11-18, 18:09:50
Das Spiel hat ja kein DLSS FG, was ein Fail. Kauf ich gar nicht.
TheAntitheist
2025-11-18, 22:35:14
Logisch, als Vorreiter kann man mit der Veröffentlichung warten bis die Ergebnisse ausreichend gut sind.
Als Nachzügler muss man immer schon den unfertigen Zustand raushauen damit die Allgemeinheit sieht dass zumindest etwas passiert.
das ist nicht logisch, man kann doch schon aus den Fehlern lernen und fängt nicht bei Null an. Und von AMD erwartet doch schon niemand mehr an Nvidia heran zu kommen. Wann hat denn AMD die letzte Innovation herausgebracht die ausgereift war? Metal? nein, äh ich wüsste es nicht mehr.
OgrEGT
2025-11-19, 05:52:23
das ist nicht logisch, man kann doch schon aus den Fehlern lernen und fängt nicht bei Null an. Und von AMD erwartet doch schon niemand mehr an Nvidia heran zu kommen. Wann hat denn AMD die letzte Innovation herausgebracht die ausgereift war? Metal? nein, äh ich wüsste es nicht mehr.
Wie wärs denn bspw mit Infinity Cache oder die Nutzung von rBAR oder der seit Jahren um Längen modernere Treiber der unter DX12 weitaus weniger Drawcalls verursacht? Was ist mit Mantle der Grundlage für das heutige Vulkan? Was ist mit der Unterstützung von OpenSource und Gaming unter Linux / SteamOS?
Aktuell siehe hier bspw FSR4 für VKD3D-Proton...
https://videocardz.com/newz/vkd3d-proton-3-0-brings-amd-fsr4-to-proton-with-an-experimental-support-for-older-gpus
dargo
2025-11-19, 08:36:05
Asrock hat FSR 4.1 durchsickern lassen, vermutlich erhältlich dann am 10.12 mit Redstone.
alSlF8jz1hA
raffa
2025-11-19, 18:01:07
Da tut sich wohl was : )
Spannender fand ich allerdings den Beitrag zu vkd3d-proton 3.0
vgl auch:
https://www.phoronix.com/news/VKD3D-Proton-3.0
KCD2, rx 6600, proton-experimental, fsr4-int8. Ganz ohne Optiscaler, einfach die dll ausgetauscht. Performance ist vergleichbar mit FSR3-Q
Relex
2025-11-19, 19:59:29
RuASMLRGFus
dildo4u
2025-11-19, 20:42:43
Macht alles Sinn wenn es auf RDNA3 laufen soll, Nvidias Lösung Performt erst ab Lovelace Optimal.
Relex
2025-11-19, 21:07:27
Das CNN Model performt auch auf Turing und macht im Gegensatz zu AMDs RR auch eine Rekonstruktion der Strahlen in höherer Auflösung.
FSR RR scheint zumindest in der aktuellen Form ja nur ein reiner Denoiser zu sein, eben ohne den Upscaling/Rekonstruktions Aspekt.
Da muss man sich dann aber die Frage stellen, was AMD damit bezwecken will.
Für Pathtracing wird das nicht ausreichen, denn bei PT ist das gesamte Bild mit RT Effekten Überzogen. Lighting, Schatten, Reflexionen, jede Oberfläche braucht dann ein Denoisong und vor allem eine strahlen Rekonstruktion wie bei Nvidias RR, sonst bleibt jede Oberfläche unscharf und das RT Detailarm.
Ich bin etwas enttäuscht, dass AMDs RR aktuell überhaupt nicht mit Nvidias RR vergleichbar ist und der entscheidende Aspekt komplett fehlt. Ich hoffe wirklich, dass das der 0.9 Version geschuldet ist und mit 1.0 bzw zusammen mit Redstone dann nachgeliefert wird.
Und ja, natürlich wäre es so wahrscheinlich einfacher das auch für RDNA3 zu ermöglichen. Aber um mit Nvidias RR gleich zu ziehen wird man mehr Leistung brauchen. Es muss also zwangsläufig eine RDNA4 exklusive Version geben.
aufkrawall
2025-11-20, 04:35:42
lol, die Schatten in CoD funktionieren offenbar auf Radeon gar nicht richtig, indem sie eher ausgeblendet werden und offenbar die Tönung von Glas ignorieren. Und RT reflektiert auch weniger auf AMD, wie schon vor zig Jahren in WD Legion. :freak: Da ist die Zusammenarbeit mit AMD bei dem Vorzeige-Titel ja total.. vorzeigbar. Was wär jetzt wieder für ein Theater los, wär es umgekehrt...
Schon wieder typischer AMD-Psychoterror gegen die eigenen Kunden...
DrFreaK666
2025-11-20, 07:08:04
RT ist sowieso überall viel zu langsam.
Daher: Wayne?
OgrEGT
2025-11-20, 07:46:13
Ja Wahnsinn! Wieder ein "Mimimi... ich habe einen Fall gefunden bei dem FSR nicht optimal läuft"
Ist ja nicht so dass selbst DLSS in dem Spiel optimal läuft...
Das bringt doch nix...
dargo
2025-11-20, 08:00:27
FSR RR scheint zumindest in der aktuellen Form ja nur ein reiner Denoiser zu sein, eben ohne den Upscaling/Rekonstruktions Aspekt.
Da muss man sich dann aber die Frage stellen, was AMD damit bezwecken will.
Cool Story Bro. AMD stellt Redstone komplett am 10.12.25 vor. Bisher ist nur eine amd_fidelityfx_denoiser_dx12.dll mit der Versionsnummer 0.9 in CoD7 durchgesickert. Immer noch fraglich ob das so geplant war. Hat DF überhaupt erkannt, dass es v0.9 ist? Denen würde ich sogar zutrauen, dass die das "übersehen".
Da ist die Zusammenarbeit mit AMD bei dem Vorzeige-Titel ja total.. vorzeigbar.
Immerhin heißt es da RX 9070XT = ca. RTX 5080 Niveau. Also war offenbar die Zusammenarbeit nicht umsonst.
btw.
Sehe gerade die 9070XT ist sogar 10% vor der 5080 bei den avgs. in 4k + Quality Upscaling, es heißt eher 9070 non XT = ca. RTX 5080.
94655 94656
In 1440p + Quality Upscaling wird es sogar für die RTX 5090 ganz schön peinlich.
OgrEGT
2025-11-20, 08:15:57
Cool Story Bro. AMD stellt Redstone komplett am 10.12.25 vor. Bisher ist nur eine amd_fidelityfx_denoiser_dx12.dll mit der Versionsnummer 0.9 in CoD7 durchgesickert. Immer noch fraglich ob das so geplant war. Hat DF überhaupt erkannt, dass es v0.9 ist? Denen würde ich sogar zutrauen, dass die das "übersehen".
Immerhin heißt es da RX 9070XT = ca. RTX 5080 Niveau. Also war offenbar die Zusammenarbeit nicht umsonst.
btw.
Sehe gerade die 9070XT ist sogar 10% vor der 5080 bei den avgs. in 4k + Quality Upscaling, es heißt eher 9070 non XT = ca. RTX 5080.
94655 94656
:eek:
Selbst in 4K ist es so...
Mit HW RT ist in WQHD in den 1% low die 9070XT auch schneller als die 5080... in 4K sind beide dann auf Augenhöhe...
Krass da sowohl NV als auch AMD Treiber CoD7 ready sind...
DrFreaK666
2025-11-20, 08:26:17
...Hat DF überhaupt erkannt, dass es v0.9 ist? Denen würde ich sogar zutrauen, dass die das "übersehen"...
Kann mich nicht dran erinnern, dass es erwähnt wurde.
Das musste dann jemand in den Kommentaren erledigen
dargo
2025-11-20, 08:26:56
:eek:
Witzig ist auch wie N31 in CoD7 abgeht. Mich würde es nicht überraschen wenn es heißt RX 7900XTX = RTX 5090. Bei den neuen CB-Benchmarks muss man jetzt etwas aufpassen. Während die Radeon (auch RDNA2 und Intel Arc) volle Auflösung rendern müssen rendert die Geforce "nur" 1440p bei 4k + Upscaling Overhead.
Kann mich nicht dran erinnern, dass es erwähnt wurde.
Das musste dann jemand in den Kommentaren erledigen
Wie überraschend. :tongue:
dildo4u
2025-11-20, 08:35:01
Ist dann nicht die 9700XT viel zu langsam wenn die 7900XTX nativ vs Upsampling schlägt?
ChaosTM
2025-11-20, 08:35:27
Das ist schlicht unfertig. Mal schauen was am 10.12 wirklich kommt.
Warum man das so "präsentiert" - niemand weiß es..
aufkrawall
2025-11-20, 08:35:57
Nur weist AMD das auch nirgendwo selbst als eine 0.9-Version aus und der Öffentlichkeit wird es als ganz normales stabiles Feature angeboten.
Die DF-Analyse ist schon ziemlich gut, auch wenn es dem Fanboy-Herz schmerzt...
dargo
2025-11-20, 08:36:13
Mit HW RT ist in WQHD in den 1% low die 9070XT auch schneller als die 5080... in 4K sind beide dann auf Augenhöhe...
Krass da sowohl NV als auch AMD Treiber CoD7 ready sind...
Richtig... nur schenke ich den RT-Benchmarks keine große Betrachtung da die Frameraten viel zu niedrig für dieses Spiel, insbesondere dann im MP sind. :) Das es so aussieht wie es aussieht wird vermutlich auch daran liegen, dass in CoD7 nur RT-Reflektionen zum Einsatz kommen ohne RT-GI und RT-Schatten und somit RDNA4 nicht vollkommen bei RT "erdrückt" wird. Eventuell wird hier auch durch die Zusammenarbeit ein für Radeon effizienterer RT-Weg gegangen, da bin ich überfragt. Die RT-Kosten sind aber leider imo dennoch viel zu teuer.
Die DF-Analyse ist schon ziemlich gut, auch wenn es dem Fanboy-Herz schmerzt...
Bisher lese ich hier nur Schmerzen aus dem grünen Lager. :ulol: Die anderen "warten" gechillt was Dezember mit Redstone präsentiert und was dann das Jahr 2026+ an entsprechenden Spielen damit bringen wird.
OgrEGT
2025-11-20, 08:50:42
Mal schauen... wenn Redstone in Fortnite das bessere Bild macht bin ich auf aufkrawall gespannt da das sein Gradmesser zu sein scheint und Radeon dann wieder das Nonplusultra ist :D
aufkrawall
2025-11-20, 09:00:15
Bislang gibt es nur den FSR 2-Fork von Qualcomm in den Mobile-Versionen. Und mit mehr würd ich auch nicht rechnen.
Ist aber auch nicht so wichtig, für das reale Spielen gibt es eh den Performance-Mode ohne jedes AA. Immerhin nun auch mit DX12 und damit nicht mehr suckig auf AMD und Intel...
dildo4u
2025-11-20, 09:02:26
Die haben schon lange keine neue Upscaling Tech mehr Integiert ich glaube das ist DLSS2.2.
Mann kanns nicht mal überschreiben.
robbitop
2025-11-20, 09:10:34
Erstmal den Redstone Launch abwarten. :)
Wenn man sich rational den Stand heute anschaut, kann man aber zumindest Schlussfolgerungen ziehen (wie wahrscheinlich diese sind ist unbekannt).
Hier die Eckpfeiler für die Deduktion:
(1) CoD 7 mit RR 0.9 kam KW46 raus
(2) FSR Redstone Launch ist KW50
(3) AMD hat Redstone in KW19 erwähnt
(4) Auf der CES in KW1 gab es schon die erste Techdemo (noch frühes Stadium) von RR
(5) RR in CoD7 arbeitet nicht mit FSR zusammen. Arbeitet hier zumindest als Denoiser
Schlussfolgerungen und offene Frage:
RR ist mindestens seit 46 Wochen in Arbeit. Wahrscheinlicher ist länger weil es ja schon eine Techdemo auf der CES gab, die nicht an einem Tag gebaut wurde. Ich würde also darauf tippen, es ist 1+ Jahr in Arbeit.
Jetzt hat man 4 Wochen Differenz zwischen RR in CoD7 und dem Release. Das ist verglichen mit dem Entwicklungszeitraum sehr wenig. Sind wirklich fundamentale Unterschiede im Wirkmechanismus (Denoiser vs Upscaler) in dem kurzen Zeitraum zu erwarten?
Szenarios
Jetzt könnte man natürlich in beide Richtungen argumentieren:
(a) Die Codebasis von RR in CoD7 könnte deutlich älter sein was das Zeitdelta vergrößert und damit die Wahrscheinlichkeit zu größeren Unterschieden steigert.
(b) RR hat mehrere Pfade und in CoD7 wird nur einer der Pfade (fallbackmode / nur denoiser) genutzt. Aus Gründen.
(c) RR 1.0 wird nicht viel anders als RR 0.9 in CoD7
Potentielle Gründe:
(I)
Der upscaler Pfad war noch nicht fertig zu 0.9
(II)
Der upscaler Pfad wurde vom CoD Team nicht vernünftig implementiert (dass da was mit CoD7 im Argen ist, sieht man daran, dass unterschiedliche Detailstufen bei gleichen Settings gezeigt werden - da ist also was kaputt. Das sollte nicht sein, denn es gibt eine IHV unabhängige API (Direct3D in dem Falle) welche die Drawcalls zum Treiber übergibt. Wenn die gemäß API Spec sind, werden die auch ausgeführt. Und die Hardware sind nur Rechenwerke. Denen ist es egal ob Nvidia, AMD, Intel, Qualcomm. Die Berechnen am Ende das gleiche Ergebnis (Pixelfarbe ganz am Schluss))
(III)
Man will mit Nebelkerzen arbeiten. Underpromise and overdeliver (am 10.12.) oder eben den Wettbewerber verwirren (wobei hier 4 Wochen nicht viel bringen).
Ob jetzt Szenario (a), (b) oder (c) wahrscheinlicher ist? Kommt wahrscheinlich darauf an, ob man sich bei der Einschätzung davon beeinflussen lässt, wie ähnliche Dinge bei AMD in der Vergangenheit liefen oder nicht.
Ob das immer schlau ist? Nennt sich recency bias und grundsätzlich gilt, dass die Vergangenheit kein sicherer Indikator für die Zukunft ist.
aufkrawall
2025-11-20, 09:10:47
Die haben schon lange keine neue Upscaling Tech mehr Integiert ich glaube das ist DLSS2.2.
Mann kanns nicht mal überschreiben.
Doch, geht wieder.
dargo
2025-11-20, 09:12:22
Mal schauen... wenn Redstone in Fortnite das bessere Bild macht bin ich auf aufkrawall gespannt da das sein Gradmesser zu sein scheint und Radeon dann wieder das Nonplusultra ist :D
Hehe... ich hatte schon fest damit gerechnet, dass aufkrawall die 5070 rausschmeißt und sich demnächst ne 5070S mit 18GB holt. Blöde Sache das nur mit der Speicherkrise. ;)
aufkrawall
2025-11-20, 09:17:39
In UE5 (und zumindest diversen anderen) läuft bislang absolut ausnahmslos alles, inkls. 4k Target, RR, HWRT und MFG. Selbst für 600 würd ich mir keine 18GB-Karte holen, reine Geldverschwendung.
Aber Gaming ist auch sowieso tot, selbst Sony ist nun auch ein Mobile first-Publisher. ;D
dargo
2025-11-20, 09:23:00
Aber Gaming ist auch sowieso tot...
Das Gefühl habe ich langsam wirklich auch. Irgendwie kommen keine neuen Spiele raus die mich ansprechen. Habe aktuell wieder eine kleine Flaute. :freak: Ok... ARC Raiders dürfte mich bald genug beschäftigen im Winter. Und Avatar steht auch noch an. Dann wirds aber wieder verdammt dünn. X-D Bin aber eh nur noch ein Gelegenheitsspieler wenn ich immer so ein ganzes Jahr überblicke. :)
Erstmal den Redstone Launch abwarten. :)
Wenn man sich rational den Stand heute anschaut, kann man aber zumindest Schlussfolgerungen ziehen (wie wahrscheinlich diese sind ist unbekannt).
Hier die Eckpfeiler für die Deduktion:
(1) CoD 7 mit RR 0.9 kam KW46 raus
(2) FSR Redstone Launch ist KW50
(3) AMD hat Redstone in KW19 erwähnt
(4) Auf der CES in KW1 gab es schon die erste Techdemo (noch frühes Stadium) von RR
(5) RR in CoD7 arbeitet nicht mit FSR zusammen. Arbeitet hier zumindest als Denoiser
Schlussfolgerungen und offene Frage:
RR ist mindestens seit 46 Wochen in Arbeit. Wahrscheinlicher ist länger weil es ja schon eine Techdemo auf der CES gab, die nicht an einem Tag gebaut wurde. Ich würde also darauf tippen, es ist 1+ Jahr in Arbeit.
Jetzt hat man 4 Wochen Differenz zwischen RR in CoD7 und dem Release. Das ist verglichen mit dem Entwicklungszeitraum sehr wenig. Sind wirklich fundamentale Unterschiede im Wirkmechanismus (Denoiser vs Upscaler) in dem kurzen Zeitraum zu erwarten?
Du tust hier gerade so als wenn Features wie Upscaler, FG und RR was Endgültiges beim Release wäre. Dabei reifen bzw. entwickeln sich diese Features laufend beim Kunden weiter. Zu dieser Redstone-Techdemo Anfang 2025... was macht dich so sicher, dass das schon damals überhaupt lauffähig war? Das kann alles prerendered gewesen sein nur um ein Ziel der Öffentlichkeit zeigen zu können.
Wann hat denn AMD die letzte Innovation herausgebracht die ausgereift war?
Gar nie, damals hießen sie noch ATI.
The_Invisible
2025-11-20, 10:10:59
Cool Story Bro. AMD stellt Redstone komplett am 10.12.25 vor. Bisher ist nur eine amd_fidelityfx_denoiser_dx12.dll mit der Versionsnummer 0.9 in CoD7 durchgesickert. Immer noch fraglich ob das so geplant war. Hat DF überhaupt erkannt, dass es v0.9 ist? Denen würde ich sogar zutrauen, dass die das "übersehen".
Klar AMD fixed jetzt mal alles schnell in 3-4 Wochen, die 0.9 Version bei CoD war nur da damit das rote Lager wieder was zum hypen hat bis dahin ;D
Eventuell wird hier auch durch die Zusammenarbeit ein für Radeon effizienterer RT-Weg gegangen, da bin ich überfragt. Die RT-Kosten sind aber leider imo dennoch viel zu teuer.
Ja ist schon sehr effizient wenn die fps mit rein RT Reflektionen so absacken wo eine Geforce andere Games mit PT mit gleicher Perf rendern kann
dargo
2025-11-20, 10:12:18
Klar AMD fixed jetzt mal alles schnell in 3-4 Wochen, die 0.9 Version bei CoD war nur da damit das rote Lager wieder was zum hypen hat bis dahin ;D
Hast du schön getrollt. Mein Standpunkt war... es wird langfristig auch nicht bei v1.0 bleiben.
Ja ist schon sehr effizient wenn die fps mit rein RT Reflektionen so absacken wo eine Geforce andere Games mit PT mit gleicher Perf rendern kann
Ich sprach von womöglich effizienteren RT-Weg für Radeon. Im Kontext lesen muss für dich echt schwer sein. Vermutlich wird da aber der RT-Pfad für Radeon nicht effizienter sein. Der Rasterizer ist auf Radeon spürbar schneller in CoD7 als der Schnitt der Spiele und bei einer hybriden Lösung macht sich das dann auch bemerkbar.
Shink
2025-11-20, 11:01:21
Das Gefühl habe ich langsam wirklich auch. Irgendwie kommen keine neuen Spiele raus die mich ansprechen.
Dann spiele alte Spiele. Irgendwann sind wir in dem Alter, wo man immer den selben Rotz sehen will.
Gar nie, damals hießen sie noch ATI.
Meinst du so etwas wie AFR oder Truform?;D
dargo
2025-11-20, 11:15:33
Dann spiele alte Spiele.
Die beiden, einmaligen Meisterwerke @TLOU habe ich schon 3x durch. :freak: Der Rest ist nicht gut genug für einen weiteren Run um mich zu unterhalten. :)
robbitop
2025-11-20, 12:14:48
Du tust hier gerade so als wenn Features wie Upscaler, FG und RR was Endgültiges beim Release wäre. Dabei reifen bzw. entwickeln sich diese Features laufend beim Kunden weiter.
Das habe ich nie angezweifelt und ich bin mir auch nicht bewusst, wo ich das in meinem Posting impliziere. Kannst du diesen Eindruck den du aus meinem Posting hast gezielt begründen?
Natürlich reifen solche Features. Das ist mehrfach bewiesen. FSR1,2,3,4 bspw. DLSS1,2,3,4 usw. Es wird kontinuierlich daran geforscht und entwickelt.
Der Kontext des Postings bezog sich auf den potentiellen Zustand von Redstone zum Release und die Implikationen dieses durch das Gesehene in CoD7. Dass sich das (wie alles andere auch) über die nächsten Jahre verbessern wird sollte für jeden offensichtlich sein.
Zu dieser Redstone-Techdemo Anfang 2025... was macht dich so sicher, dass das schon damals überhaupt lauffähig war? Das kann alles prerendered gewesen sein nur um ein Ziel der Öffentlichkeit zeigen zu können.
Soweit ich mich erinnern konnte hat DF die Demo bedient auf dem CES Stand. Machte auf mich nicht den Eindruck, dass das prerendered war. Und da das Ergebnis auch nicht als besonders überzeugend gesehen wurde (Artefakte) spricht das auch gegen etwas prerendered.
robbitop
2025-11-20, 12:31:42
Meinst du so etwas wie AFR oder Truform?;D
Eyefinity würde mir noch einfallen.
Das MSAA war lange Zeit auch massiv besser (6x SGMSAA seit R300 da waren sie Nvidia jahrelang voraus) und es gab noch transparenz MSAA (EATM) und TSAA. IIRC zuerst bei Radeon und es wurde sogar bis zurück zu R300 portiert.
Ohne Mantle hätten wir jetzt auch kein Vulkan.
Early Z, Hirarchial Z waren auch IIRC Radeon firsts (zT sogar mit R100). Und R300 war schon echt brachial dass man den ganzen Chip als Innovation nennen darf IMO.
R580 ging in eine ähnliche Richtung (3x ALUs von R520 und das als refresh - hätte aber besser gewirkt wenn R520 gleich so gewesen wäre - beides 90 nm).
Aber IMO sollte man anerkennen, dass Nvidia insbesondere in den letzten 10 Jahren 1-2 Größenordnungen mehr Resources hatte und auch von den Marktanteilen dominierte. Ersteres macht es sehr schwer zu innovieren und zweiteres ebenso, weil man (trotz Konsolen) keinen vergleichbaren Einfluss auf die Spielestudios hat.
Aus meiner Sicht ist es ein kleines Wunder, dass AMD mehr oder minder mit Nvidia mithalten kann (nicht überall und immer). Und wenn man es mal mit dem Budget von Apple, Qualcomm oder Samsung usw vergleicht steht AMD in der GPU IP richtig gut da.
Mit den begrenzten Möglichkeiten ist es wenig verwunderlich, dass man eben zum "follower" wird und eben dann als zweiter die Technologien die bei Nvidia neuer sind irgendwann auch bringt.
Und für den Endkonsumenten wäre es eher besser, wenn sie möglichst gleich viel Erfolg bekämen wie Nvidia. Weil das für Wettbewerb, Innovation und Preise das Beste ist. :)
DrFreaK666
2025-11-20, 12:48:01
Sollte 1.0 deutlich besser aussehen, dann hätte AMD mit dem Release warten sollen.
robbitop
2025-11-20, 12:50:32
Naja das release kam ja vom CoD7 Studio. Die Frage ist, wie das abgesprochen war und welchen Einfluss AMD dort geltend gemacht haben kann.
Vom Endergebnis her sehe ich das aber genau so und wäre wenn ich AMD wäre Grundbedingung. Du bekommst Code (auch Vorseriencode) aber die Implementierung releast du nicht bevor wir launchen. Kann mir gut vorstellen, dass das keine schwere Pille ist die zu schlucken ist.
Ich vermute eher, dass diese Aspekt relativ lax gehandhabt wird.
dargo
2025-11-20, 12:51:12
Sollte 1.0 deutlich besser aussehen, dann hätte AMD mit dem Release warten sollen.
Ach was... dann wäre AMD nicht im Gespräch bei den ganzen "Influencern". ;) Wenn du schon keine neuen Grafikkarten bringen willst oder kannst dann musst du die Meute anders ködern. ;) Aber wie schon gesagt... keine Ahnung ob das von AMD selbst so überhaupt geplant war was da mit CoD7 kam.
DrFreaK666
2025-11-20, 12:53:55
Ach was... dann wäre AMD nicht im Gespräch bei den ganzen "Influencern". ;) Wenn du schon keine neuen Grafikkarten bringen willst oder kannst dann musst du die Meute anders ködern. ;) Aber wie schon gesagt... keine Ahnung ob das von AMD selbst so überhaupt geplant war was da mit CoD7 kam.
Die paar Wochen bis 10.12 hätten niemanden geschadet. Außer am 10.12 gibt es nur einen Paperlaunch
robbitop
2025-11-20, 12:54:40
Im Sinne von auch "schlechte Publicity ist gute Publicity"? X-D
Kann funktionieren ^^ Ich denke da aber eher (so ist es ja fast immer und überall in Firmen) an Hanlon's Razor. ^^
Meinst du so etwas wie AFR oder Truform?;D
Zum Bleistift.
Um es noch mal klarzustellen, es gab auch noch Innovationen unter AMD, aber noch unter dem Namen ATI.
Seit der Name AMD verwendet wird (und auch 1-2 Jahre davor), ist es immer nur ein ständiges Hinterherrennen.
Naja das release kam ja vom CoD7 Studio.
Nachdem FSR4 keine OSS ist, kann eine Veröffentlichung in jedem Fall nur mit der Zustimmung von AMD erfolgen.
Wobei ehrlicherweise keine großen Unterschiede zu erwarten sind, die müssten die COD-Entwickler auch erstmal einbauen und validieren.
dargo
2025-11-20, 13:27:17
Seit der Name AMD verwendet wird (und auch 1-2 Jahre davor), ist es immer nur ein ständiges Hinterherrennen.
Falsch!
Lurtz
2025-11-22, 12:07:17
AMD benennt FSR-Technologien um:
Denn so tragen die Features FSR Super Resolution sowie FSR Fluid Motion Frames ab sofort einen anderen Namen: Super Resolution heißt ab sofort FSR Upscaling und Fluid Motion Frames FSR Frame Generation. Beides hat seine Vor- und Nachteile.
https://www.computerbase.de/news/grafikkarten/amd-fsr-amd-benennt-super-resolution-und-fluid-motion-frames-um.95154/
Relex
2025-11-22, 12:23:39
Die News ist praktisch Unsinn. AMD nennt es schon immer FSR Frame Generation. Steht auch so in jedem mir bekannten Spiel. AMD nutzt sogar selbst auf deren Websites schon immer das Wort "Frame Generation". Siehe z.B. hier: https://gpuopen.com/learn/amd_fsr_3_1_release/
Ist halt nur so, dass AMD die zugrunde liegende Technologie AFMF nannte.
Das ist aber praktisch dasselbe wie Nvidias Optical Flow, welches die Grundlage für DLSS Frame Generation war.
Naja aber FSR Frame Generation ist ja was anderes als FSR Fluid Motion Frames
Das ingame implementierte hieß schon immer Frame Generation und das im Treiber Fluid Motion Frames. Sollte man letzteres umbenennen führt das doch nur zu Verwirrungen, da dann beides gleich heißt...
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94679&stc=1&d=1763863900
OgrEGT
2025-11-23, 09:34:27
Richtig... nur schenke ich den RT-Benchmarks keine große Betrachtung da die Frameraten viel zu niedrig für dieses Spiel, insbesondere dann im MP sind. :) Das es so aussieht wie es aussieht wird vermutlich auch daran liegen, dass in CoD7 nur RT-Reflektionen zum Einsatz kommen ohne RT-GI und RT-Schatten und somit RDNA4 nicht vollkommen bei RT "erdrückt" wird. Eventuell wird hier auch durch die Zusammenarbeit ein für Radeon effizienterer RT-Weg gegangen, da bin ich überfragt. Die RT-Kosten sind aber leider imo dennoch viel zu teuer.
Bisher lese ich hier nur Schmerzen aus dem grünen Lager. :ulol: Die anderen "warten" gechillt was Dezember mit Redstone präsentiert und was dann das Jahr 2026+ an entsprechenden Spielen damit bringen wird.
Hier sind die CB Community Benchmarks zu CoD BO7...
https://www.computerbase.de/artikel/gaming/call-of-duty-black-ops-7-community-benchmark.95087/
Die bestätigen die Werte aus dem CB Review Artikel...
Das Spiel liegt RDNA3/4 sehr gut :up:
...
Ohne Mantle hätten wir jetzt auch kein Vulkan....
+D3D12
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.