PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33]

dargo
2025-10-22, 22:32:39
Das ist doch whataboutism. Du nutzt den fehlenden Frame Gen Support für Ampere als gegenargument dass Nvidia bei solchen Features sehr häufig der Vorreiter am Markt ist… Ergibt wenig Sinn.
Nvidia prescht nicht überall vor. Wer zuerst auf lol level APIs ging habt ihr schon schnell vergessen. Nvidia hat alles gegeben damit die Leute nicht sehen wie grottig damalige Geforces unter D3D12 performen. rBAR kam auch nicht zuerst von Nvidia.

basix
2025-10-22, 23:13:43
Tom Petersen war im Interview neulich auch sehr skeptisch was diese Technik angeht und sagt er denkt es gibt bessere Wege und sie arbeiten daran. Ich vermute er meint nach wie vor Frame Extrapolation.

Intels Frame Extrapolation ist ja nur mal die Bildgenerierung. Das senkt die Latenz um im Schnitt 0.5x Frametimes, mehr nicht.

Reflex 2 hat ein anderes Ziel:
Die Input Latenz aufs Minimum zu senken.

So wie ich das verstehe wäre die optimale Lösung Frame Extrapolation + Reflex 2 (aka Nutzereingaben mit höherer Abtastrate + Motion Warp). Dann fühlt sich das an der Maus an wie "echte Framerate". Motion Warp macht dann nur noch eine kleine Bildkorrektur / Inpainting am Output von Frame Extrapolation. Diese Korrektur macht man am besten auch auf der DLSS / FG / MFG History (sozusagen ein lokales "nach-upsampling / disocclusion filling" auf einem lokal begrenzten Bildbereich)

Relex
2025-10-23, 04:09:43
Nvidia prescht nicht überall vor. Wer zuerst auf lol level APIs ging habt ihr schon schnell vergessen. Nvidia hat alles gegeben damit die Leute nicht sehen wie grottig damalige Geforces unter D3D12 performen. rBAR kam auch nicht zuerst von Nvidia.

*gähn* Mantle kam vor 12 Jahren…
rBAR bringt auf Nvidia Karten auch kaum was.

Es ist doch unbestreitbar, dass es da bei AMD mittlerweile sehr dünn geworden ist…

Ex3cut3r
2025-10-23, 07:02:15
Das ist doch whataboutism. Du nutzt den fehlenden Frame Gen Support für Ampere als gegenargument dass Nvidia bei solchen Features sehr häufig der Vorreiter am Markt ist… Ergibt wenig Sinn.

*gähn* Mantle kam vor 12 Jahren…
rBAR bringt auf Nvidia Karten auch kaum was.

Es ist doch unbestreitbar, dass es da bei AMD mittlerweile sehr dünn geworden ist…

Nicht draufeingehen, das will er doch nur, außerdem derailed er gerne mal Threads und schiebt es dann auf andere. ;)

Für mich der größe Troll des Forums.

robbitop
2025-10-23, 07:24:27
Wobei man konstatieren muss, dass AMD für die Radeon Group ein Bruchteil des Budgets und der Ressourcen hat von Nvidia. Das macht schon viel aus. Und dazu kommt, dass man für fast alles Entwicklerimolementierung braucht. Das ist bei 90% Marktantekl natürlich wesentlich leichter da ein Feature durchzusetzen als mit 10%. Aber ja: beide waren mitte der 2000er deutlich näher aneinander in beiden Aspekten und Nvidia hat mehr Initiative gezeigt und langfristige Forschung in die richtigen Themen gesteckt.
IMO berappelt sich Radeon gerade sehr und verkürzt den zwischenzeitlich schon großen Anstand. Was immernoch beeindruckend ist wenn man bedenkt dass sie viel weniger budget und ressourcen haben.

Relex
2025-10-23, 08:27:13
Ähm.. AMD ist seit der PS4 und Xbox One zu praktisch 100% im Konsolen Markt vertreten.
Das würde es für AMD sogar noch einfacher machen, als für Nvidia, Features in der Breite durchzusetzen, da Konsolen als kleinster gemeinsamer Nenner gesehen werden.

Aber lassen wir das. Das hat jetzt wirklich nichts mehr mit dem Thema zu tun.

ChaosTM
2025-10-23, 09:18:25
"Universal Compression, Radiance Cores, and Neural Arrays " Cerny und AMD gehen es gemeinsam an.
Mal schaun was dabei wirklich rauskommt.

Ru7dK_X5tnc

bissl OT, aber weil es gerade um AMD ging..

robbitop
2025-10-23, 09:22:46
Ähm.. AMD ist seit der PS4 und Xbox One zu praktisch 100% im Konsolen Markt vertreten.
Das würde es für AMD sogar noch einfacher machen, als für Nvidia, Features in der Breite durchzusetzen, da Konsolen als kleinster gemeinsamer Nenner gesehen werden.

Aber lassen wir das. Das hat jetzt wirklich nichts mehr mit dem Thema zu tun.

Das stimmt zwar aber dieser Effekt den man da vermutete hat sich nie in PC Spiele übertragen. Ob es bessere shadercompilate sind, FSR oder andere Technologien usw. Spiele liefen auf AMD GPUs auf dem PC nicht mal besser. GCN konnte man bspw deutlich besser ausfahren, wenn man dafür optimiert hat (zB in Doom 2016 und Wolfenstein the new collossos relativ einmalig zu sehen) - das hat ~1 Performance tier gebracht. Hat sich aber bis auf die 2 Titel mit Idtech6 nirgends ausgewirkt.
IMO: Das eine scheint mit dem anderen weniger zu tun zu haben als man vermutet hat.
Und wie gesagt macht ein um Größenordnungen kleineres Forschungsbudget sicherlich unabhängig davon einen gewaltigen Unterschied. ;)

Was anscheinend viel bringt ist HW Agnostik in den Verfahren und open source. Das hilft dann auch gegen den Rückstand im PC Markt. Aber gleichzeitig dazu muss das Verfahren auch gut funktionieren (auf jeder HW!).

Jedenfalls ist Vendor Lock etwas woran natürlich die Vendors interessiert aber nichts gutes für die consumer. Insofern verstehe ich die Freude über Innovation (und nutze die selbst auch) aber finde es gleichzeitg schlecht, dass sie dann oftmals mit Vendorlock sind. Das führte im GPU Markt zu einem Quasi Monopol und total unschönen Preisen. (als ich meine 5070ti auseinander gebaut hab für den Umbau auf Wakü bin ich aus allen Wolken gefallen was das für ein mikriges Board und mikriger Chip ist - das hat förmlich gesagt "Geforce MX" aber leider für 940 EUR! ^^)
Ja ist OT - aber so oder so der Idealzustand ist so ein Quasi Monopol mit Vendorlock nicht. Und das stört mich ein wenig am zu starken Feiern von Vendorlock features - auch wenn die sehr sehr gut sind (nicht dass wir darauf einen Einfluss hätten ^^)

dargo
2025-10-23, 09:44:52
Jedenfalls ist Vendor Lock etwas woran natürlich die Vendors interessiert aber nichts gutes für die consumer. Insofern verstehe ich die Freude über Innovation (und nutze die selbst auch) aber finde es gleichzeitg schlecht, dass sie dann oftmals mit Vendorlock sind. Das führte im GPU Markt zu einem Quasi Monopol und total unschönen Preisen. (als ich meine 5070ti auseinander gebaut hab für den Umbau auf Wakü bin ich aus allen Wolken gefallen was das für ein mikriges Board und mikriger Chip ist - das hat förmlich gesagt "Geforce MX" aber leider für 940 EUR! ^^)
Ja ist OT - aber so oder so der Idealzustand ist so ein Quasi Monopol mit Vendorlock nicht. Und das stört mich ein wenig am zu starken Feiern von Vendorlock features - auch wenn die sehr sehr gut sind (nicht dass wir darauf einen Einfluss hätten ^^)
Ich sag immer wie bestellt so geliefert. ;) Die Meute will es anscheinend so, also weiter machen wie gehabt. 940€ für eine Performance-Karte mit einem kastrierten 378mm² Die... Respekt. :tongue:

Gast
2025-10-23, 14:49:13
Wobei man konstatieren muss, dass AMD für die Radeon Group ein Bruchteil des Budgets und der Ressourcen hat von Nvidia. Das macht schon viel aus. Und dazu kommt, dass man für fast alles Entwicklerimolementierung braucht. Das ist bei 90% Marktantekl natürlich wesentlich leichter da ein Feature durchzusetzen als mit 10%. Aber ja: beide waren mitte der 2000er deutlich näher aneinander in beiden Aspekten und Nvidia hat mehr Initiative gezeigt und langfristige Forschung in die richtigen Themen gesteckt.
IMO berappelt sich Radeon gerade sehr und verkürzt den zwischenzeitlich schon großen Anstand. Was immernoch beeindruckend ist wenn man bedenkt dass sie viel weniger budget und ressourcen haben.

Da ist garnichts verkürzt, es sind soviele Dinge wo AMD fehlen. Fehlende Überzeugung und Game Unterstützung vor allem quasi das A und O und das holt man nicht so schnell auf, und FSR 4/Redstone mit Vendorlock machts auch nicht besser.

Exxtreme
2025-10-23, 14:55:21
Da ist garnichts verkürzt, es sind soviele Dinge wo AMD fehlen. Fehlende Überzeugung und Game Unterstützung vor allem quasi das A und O und das holt man nicht so schnell auf, und FSR 4/Redstone mit Vendorlock machts auch nicht besser.

Ob FSR 4 Redstone einen Vendor-Lockin haben wird, da ist AFAIK nichts bekannt.

Gast
2025-10-23, 14:59:14
Ob FSR 4 Redstone einen Vendor-Lockin haben wird, da ist AFAIK nichts bekannt.

Fehlende Marktmacht. Warum also sollte das in Zukunft anders sein als jetzt mit FSR 4? Es ist doch prozentual nur eine kleine Minderheit welche noch auf AMD Grafikkarten setzen und das wissen die Game Studios ja auch.

Exxtreme
2025-10-23, 15:07:05
Fehlende Marktmacht. Warum also sollte das in Zukunft anders sein als jetzt mit FSR 4? Es ist doch prozentual nur eine kleine Minderheit welche noch auf AMD Grafikkarten setzen und das wissen die Game Studios ja auch.

Es steht trotzdem nicht fest ob FSR4 Redstone AMD-exklusiv sein wird oder nicht.

Und fehlende Marktmacht ist in dem Falle sehr irrelevant. Denn DLSS/FSR und Xess sind auch nur TAA. Sprich, kann man eins davon dann kann man theoretisch alle. Und deshalb funktioniert Optiscaler auch so gut da alle drei Verfahren exakt die gleichen Daten brauchen.

Gast
2025-10-23, 15:24:13
Es steht trotzdem nicht fest ob FSR4 Redstone AMD-exklusiv sein wird oder nicht.


Ist mit FSR 4 doch jetzt auch, oder kannst du als GeForce oder Intel Nutzer irgendwo FSR 4 in Games auswählen? :) Nochmal, warum sollte sich das mit Redstone ändern??? Wird es nicht.

Gast
2025-10-23, 15:25:34
Und fehlende Marktmacht ist in dem Falle sehr irrelevant. Denn DLSS/FSR und Xess sind auch nur TAA. Sprich, kann man eins davon dann kann man theoretisch alle. Und deshalb funktioniert Optiscaler auch so gut da alle drei Verfahren exakt die gleichen Daten brauchen.

Optiscaler ist irrelevant.

Exxtreme
2025-10-23, 15:38:43
Ist mit FSR 4 doch jetzt auch, oder kannst du als GeForce oder Intel Nutzer irgendwo FSR 4 in Games auswählen? :) Nochmal, warum sollte sich das mit Redstone ändern??? Wird es nicht.

Ich beziehe mich auf dieses Posting:

Da ist garnichts verkürzt, es sind soviele Dinge wo AMD fehlen. Fehlende Überzeugung und Game Unterstützung vor allem quasi das A und O und das holt man nicht so schnell auf, und FSR 4/Redstone mit Vendorlock machts auch nicht besser.

Bei Redstone weiss man das aber nicht ob das AMD-exklusiv wird.

Optiscaler ist irrelevant.

Zeigt aber, dass FSR/DLSS und Xess mehr oder weniger austauschbar sind. Und deshalb greift das Argument von "Marktmacht" nicht so wirklich da die meisten Spiele sowieso mehrere Verfahren unterstützen, nicht mehr gepflegte Uraltspiele mal ausgenommen.

The_Invisible
2025-10-23, 15:47:00
Ich sag immer wie bestellt so geliefert. ;) Die Meute will es anscheinend so, also weiter machen wie gehabt. 940€ für eine Performance-Karte mit einem kastrierten 378mm² Die... Respekt. :tongue:

Wenn der kastrierte Chip schneller und besser ist als die Konkurrenz ist es halt so, jede andere Firma würde da genauso Profit daraus schlagen. Macht AMD bei Ryzen ja auch so.

Gast
2025-10-23, 15:59:55
Zeigt aber, dass FSR/DLSS und Xess mehr oder weniger austauschbar sind. Und deshalb greift das Argument von "Marktmacht" nicht so wirklich da die meisten Spiele sowieso mehrere Verfahren unterstützen, nicht mehr gepflegte Uraltspiele mal ausgenommen.

Interessiert die Allgemeinheit da draußen nicht und lässt sich auch nicht mit werben. Marktmacht erlangt man damit nicht... Und nur weil es funktionieren kann, bedeutet nicht dass es generell so sein muss.


Bei Redstone weiss man das aber nicht ob das AMD-exklusiv wird.

Warum sollte das anders sein, als mit FSR 4 aktuell? Macht keinen Sinn. Und ändert auch 0,nichts an meiner Aussage das man deutlich, wenn nicht Jahre zurückhunkt.. Von allgemeiner Funktionalität und Kompatibilität ganz zu schweigen, der NVIDIA Kram funktioniert da einfach besser und ist ein klares Qualitätsmerkmal.

x-force
2025-10-23, 16:11:55
Und wie gesagt macht ein um Größenordnungen kleineres Forschungsbudget sicherlich unabhängig davon einen gewaltigen Unterschied. ;)

nachziehen ist immer wesentlich billiger, sieht man an deepseek doch perfekt.

dargo
2025-10-23, 16:12:12
Fehlende Marktmacht. Warum also sollte das in Zukunft anders sein als jetzt mit FSR 4? Es ist doch prozentual nur eine kleine Minderheit welche noch auf AMD Grafikkarten setzen und das wissen die Game Studios ja auch.
Blöd nur, dass neue Games mit FSR4-Support bereits kommen, andere nachgepatscht werden, Konsolen demnächst FSR4 unterstützen werden (was das für den PC bedeutet muss ich dir hoffentlich nicht erklären) und wenn der PC-Spieler kein Vollnoob ist FSR4 @D3D12 sowie D3D11 aktuell überall mit dem Optiscaler ebenfalls bekommt wo DLSS/XeSS drin steckt.

Gast
2025-10-23, 16:16:09
Zeigt aber, dass FSR/DLSS und Xess mehr oder weniger austauschbar sind. Und deshalb greift das Argument von "Marktmacht" nicht so wirklich da die meisten Spiele sowieso mehrere Verfahren unterstützen, nicht mehr gepflegte Uraltspiele mal ausgenommen.

Eher das Gegenteil ist doch der Fall und die Realität! DLSS , Low Latency Reflex, Multi(-FG) mit voller G-Sync Funktionalität sind Qualitätsmerkmale mit denen sich werben lässt. Das AMD ähnliche Ansätze verfolgt, hab ich auch nicht bestritten. Irgendwelche Hacks als Argument zu bringen, sind da nicht zielführend.

dargo
2025-10-23, 16:22:04
Eher das Gegenteil ist doch der Fall und die Realität! DLSS , Low Latency Reflex, Multi(-FG) mit voller G-Sync Funktionalität sind Qualitätsmerkmale mit denen sich werben lässt.
Hat alles AMD auch, bis auf MFG aktuell noch. G-Sync ist kein Qualitätsmerkmal, wir sind über 10 Jahre mit VRR weiter.

Exxtreme
2025-10-23, 16:24:46
Warum sollte das anders sein, als mit FSR 4 aktuell? Macht keinen Sinn. Und ändert auch 0,nichts an meiner Aussage das man deutlich, wenn nicht Jahre zurückhunkt.. Von allgemeiner Funktionalität und Kompatibilität ganz zu schweigen, der NVIDIA Kram funktioniert da einfach besser und ist ein klares Qualitätsmerkmal.

Es ist schon deshalb anders weil es auch eine, wenn auch sehr inoffizielle INT8-Variante von FSR4 gibt. Der Wille auch andere GPUs zu unterstützen ist also da.

Eher das Gegenteil ist doch der Fall und die Realität! DLSS , Low Latency Reflex, Multi(-FG) mit voller G-Sync Funktionalität sind Qualitätsmerkmale mit denen sich werben lässt. Das AMD ähnliche Ansätze verfolgt, hab ich auch nicht bestritten. Irgendwelche Hacks als Argument zu bringen, sind da nicht zielführend.

AMDs Ansätze sind nicht nur ähnlich sondern nahezu exakt gleich. Und deshalb braucht man auch keine Hacks für FSR wenn das Spiel es unterstützt. Und das tun fast alle aktuellen Spiele da der Mehraufwand FSR einzubauen ein Klacks ist wenn man sowas wie DLSS schon eingebaut hat. Hacks braucht man nur für sehr alte Spiele, die nur DLSS unterstützen und auch nicht mehr gepflegt werden.

Gast
2025-10-23, 16:28:13
Hat alles AMD auch, bis auf MFG aktuell noch. G-Sync ist kein Qualitätsmerkmal.

Doch ist es, aber dazu müsstest du den Vergleich haben, welch dein naives Weltbild zerschmettert. ;)
FSR Frame Generation funktioniert in vielen Titeln wie z.b. Cyberpunk nur im Borderless Modus mit vergleichsweise hohen Latenzen... nicht nur da ist NVIDIA klar im Vorteil.

Gast
2025-10-23, 16:35:56
Es ist schon deshalb anders weil es auch eine, wenn auch sehr inoffizielle INT8-Variante von FSR4 gibt. Der Wille auch andere GPUs zu unterstützen ist also da.

Hat Intel mit XeSS ja auch versucht, Ergebnis bekannt. NVIDIA liefert einfach ab und werden das auch weiter tun.

AMDs Ansätze sind nicht nur ähnlich sondern nahezu exakt gleich. Und deshalb braucht man auch keine Hacks für FSR wenn das Spiel es unterstützt. Und das tun fast alle aktuellen Spiele da der Mehraufwand FSR einzubauen ein Klacks ist wenn man sowas wie DLSS schon eingebaut hat. Hacks braucht man nur für sehr alte Spiele, die nur DLSS unterstützen und auch nicht mehr gepflegt werden.

Das gilt nur für deren eigene Grafikkarten, diesen Punkt können wir bitte hinter uns lassen.

dargo
2025-10-23, 16:51:19
AMDs Ansätze sind nicht nur ähnlich sondern nahezu exakt gleich. Und deshalb braucht man auch keine Hacks für FSR wenn das Spiel es unterstützt. Und das tun fast alle aktuellen Spiele da der Mehraufwand FSR einzubauen ein Klacks ist wenn man sowas wie DLSS schon eingebaut hat.
Nach der Logik von unserem lieben Gast dürfte es praktisch keine Games mit XeSS-Support geben da Intel bei dGPUs kaum existent ist. Manche haben halt nen Brett vorm Kopf in ihrer Nvidia-Blase.

Doch ist es, aber dazu müsstest du den Vergleich haben, welch dein naives Weltbild zerschmettert. ;)
FSR Frame Generation funktioniert in vielen Titeln wie z.b. Cyberpunk nur im Borderless Modus mit vergleichsweise hohen Latenzen... nicht nur da ist NVIDIA klar im Vorteil.
Hast du noch mehr Stuss auf Lager? :lol:

Gast
2025-10-23, 17:17:31
Hast du noch mehr Stuss auf Lager? :lol:

FSR Frame Generation in Cyberpunk 2077 requires you to be in Borderless Windowed mode, not Fullscreen, because the feature is implemented as part of the FSR 3 upscaling technology, which needs to run in this mode. While FSR 3.1 allows frame generation to be used independently, the current implementation in the game requires FSR upscaling to be enabled to use frame generation.

Soviel dazu. :-)

Gast
2025-10-23, 17:22:10
Nach der Logik von unserem lieben Gast dürfte es praktisch keine Games mit XeSS-Support geben da Intel bei dGPUs kaum existent ist. Manche haben halt nen Brett vorm Kopf in ihrer Nvidia-Blase.


Nur ist das alte DLSS 3 qualitativ besser und leistungsfähiger als alle XeSS DP4A Iterationen zusammen, da kannst du jammern bist du schwarz wirst.

dargo
2025-10-23, 18:10:12
FSR Frame Generation in Cyberpunk 2077 requires you to be in Borderless Windowed mode, not Fullscreen, because the feature is implemented as part of the FSR 3 upscaling technology, which needs to run in this mode. While FSR 3.1 allows frame generation to be used independently, the current implementation in the game requires FSR upscaling to be enabled to use frame generation.

Soviel dazu. :-)
Junge... ich meine deinen Stuss mit den Latenzen. :freak: Wen interessiert es ob ein Game im exklusiven Vollbild oder randlos läuft?

Nur ist das alte DLSS 3 qualitativ besser und leistungsfähiger als alle XeSS DP4A Iterationen zusammen, da kannst du jammern bist du schwarz wirst.
Wer sprach überhaupt von Intels XeSS Sparversion für non Intel GPUs? Wo ist das der Zusammenhang überhaupt?

Gast
2025-10-23, 18:16:18
Junge... ich meine deinen Stuss mit den Latenzen. :freak: Wen interessiert es ob ein Game im exklusiven Vollbild oder randlos läuft?

Also halten wir fest, G-Sync funktioniert besser und ist kompatibler! Denn NVIDIA (Multi-) Frame Gen funktioniert im Borderless + Vollbild.
Und Latenzen kannst du halt nicht beurteilen, da dir der Vergleich fehlt.

dargo
2025-10-23, 18:24:09
War mir sowas von klar, dass der Gast hier nur am trollen ist. :uclap:

Exxtreme
2025-10-23, 18:25:18
Hat Intel mit XeSS ja auch versucht, Ergebnis bekannt. NVIDIA liefert einfach ab und werden das auch weiter tun.



Xess und FSR4 sind intern schon arg anders und nicht vergleichbar.

Gast
2025-10-23, 18:25:53
War mir sowas von klar, dass der Gast hier nur am trollen ist. :uclap:

Ich habe Argumente geliefert, was hast du? Nur dummes Gesabbel.

Gast
2025-10-23, 18:31:04
Xess und FSR4 sind intern schon arg anders und nicht vergleichbar.

Unfertige Technologien werden es immer schwer haben sich durchzusetzen, während NVIDIA mit DLSS 4 Transformer bereits den nächsten Turbo gezündet hatte.

robbitop
2025-10-23, 18:52:47
Unfertige Technologien werden es immer schwer haben sich durchzusetzen, während NVIDIA mit DLSS 4 Transformer bereits den nächsten Turbo gezündet hatte.

Warum sind XeSS und FSR4 „unfertig“ und was macht DLSS4 „fertig“? Welche Kriterien bestimmen das und wer legt diese fest?

dargo
2025-10-23, 18:53:43
Ich habe Argumente geliefert, was hast du? Nur dummes Gesabbel.
Du laberst nur dummes Zeug, das sind keine Argumente. Jedes Kind weiß, dass Antilag 2 gleichwertig zu Reflex ist.
https://www.computerbase.de/artikel/grafikkarten/counter-strike-2-amd-anti-lag-2-vs-nvidia-reflex-latenz-benchmark-test.88268/

Solange beide GPUs vergleichbare Frames liefern sind die Latenzen absolut vergleichbar.

robbitop
2025-10-23, 18:56:01
Allerdings ist AL2 oft leider nicht mit dabei. Hätte man von Anfang an als Teil von FG machen sollen IMO.
Zum Glück gibts Optiscaler aber out of the box kann es dann schon öfters mal mau aussehen.

Gast
2025-10-23, 18:56:08
Warum sind XeSS und FSR4 „unfertig“ und was macht DLSS4 „fertig“? Welche Kriterien bestimmen das und wer legt diese fest?

Der Markt regelt das bisher. XeSS als auch FSR 4 ist eher so zweite/dritte Wahl und nur für ne Handvoll User wirklich interessant.

dargo
2025-10-23, 18:57:11
Allerdings ist AL2 oft leider nicht mit dabei.
Bei mir ist es immer dabei, ich kann aber auch den Optiscaler bedienen.

btw.
Das in einer Woche kommende ARC Raiders mit UE5 wird Antlag 2 mitbringen. Hier ist es besonders wichtig, dass sowas direkt von den DEVs kommt da MP.
https://overgear.com/guides/arc-raiders/best-settings-for-any-setup/?srsltid=AfmBOorS5b4mW-uZOAI2nVfdMAZ4DIjCsMiwLo29pxOk4MYNEt1VclMN

Da fehlt übrigens eine "2" im Text.
https://youtu.be/n_ZWfyQHQn8?si=XQqaB2F96OxWX-j2&t=19

Ex3cut3r
2025-10-23, 19:03:38
Bei mir ist es immer dabei, ich kann aber auch den Optiscaler bedienen.

Du meinst wohl wenn Reflex dabei ist, kannst du dich daran bedienen. Aber ob so eine schnelle und einfache Umwandlung in AntiLag wirklich so zuverlässig und sauber funktioniert wie eine native, speziell dafür eingebette AntiLag Implementierung vom Spiel Entwickler selber? Das bezweifle ich ehrlich gesagt. Simuliert ist simuliert, dass kommt niemals in die nähe vom "richitgen" Reflex ran. Aber glaube es nur weiter. ;D

Gast
2025-10-23, 19:04:28
Allerdings ist AL2 oft leider nicht mit dabei. Hätte man von Anfang an als Teil von FG machen sollen IMO.
Zum Glück gibts Optiscaler aber out of the box kann es dann schon öfters mal mau aussehen.

Allgemein ist die Funktionalität mit FSR + FG ziemlich stark eingeschränkt, überhaupt nicht vergleichbar zu dem was NVIDIA da aktuell abliefert. Bisher hatte AMD damit Glück und sind damit durchgekommen, da kaum auf Bildqualität und Latenzen geachtet wurde und lediglich auf Balkenlänge.
Man kann AMD allerdings zu Gute halten, dass sie es zumindest versuchen Anschluss zu halten, auch wenn es nicht wirklich gelingt.

dargo
2025-10-23, 19:08:35
Damit beweist du nur, wie ahnungslos du bei diesem Thema bist. Geh mal lieber mit deinem MFG spielen.

Ex3cut3r
2025-10-23, 19:17:44
Damit beweist du nur, wie ahnungslos du bei diesem Thema bist. Geh mal lieber mit deinem MFG spielen.

Das ist alles? Wie ein böckiges Kind. Schade.
Ja, mache ich auch. Wer kann, der kann. Ups fehlt bei AMD. Naja, vlt. schaffen Sie es ja bei RDNA 6.

dargo
2025-10-23, 19:51:00
Das ist alles? Wie ein böckiges Kind. Schade.

Ich kann auch mehr, aber du bist eh in deiner Nvidia-Blase festgefahren. Insofern oft verschwendete Lebenszeit.

Links 4k + FSR4-P mit Antilag 2 Ingame so wie es von den DEVs bzw. AMD vorgesehen ist, rechts 4k + FSR4-P mit DLSS Inputs + Antilag 2 über Reflex @OptiScaler.
https://i.postimg.cc/1VpDxQh7/Ghost-of-Tsushima-DIRECTOR-S-CUT-2025-10-23-19-27.jpg (https://postimg.cc/1VpDxQh7) https://i.postimg.cc/mPZCnJdS/Ghost-of-Tsushima-DIRECTOR-S-CUT-2025-10-23-19-39.jpg (https://postimg.cc/mPZCnJdS)

Die 19ms jetzt nicht überbewerten, das schwankt zwischen 19ms und 20ms in beiden Fällen bei diesen Frames. Ist natürlich ohne FG.

Allgemein ist die Funktionalität mit FSR + FG ziemlich stark eingeschränkt, überhaupt nicht vergleichbar zu dem was NVIDIA da aktuell abliefert. Bisher hatte AMD damit Glück und sind damit durchgekommen, da kaum auf Bildqualität und Latenzen geachtet wurde und lediglich auf Balkenlänge.

Und weiter geht der bullshit. :facepalm:

Bei Nvidia zählt natürlich nicht die virtuelle Pennisverlängerung. :rolleyes:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/dying-light-the-beast-dlss-4-multi-frame-gen-ray-tracing-nvidia-reflex/dying-light-the-beast-geforce-rtx-1920x1080-nvidia-dlss-4-multi-frame-generation-desktop-gpu-performance.png

Das geile dabei... es sind sogar lächerliche 720p als Input in diesem Beispiel und bei der RTX 5060 so richtig geschmeidige 47,5 Baseframes an der Maus. :uup: Oder Marketing-Bullshit-Vergleiche von Nvidia mit nativen Auflösung ohne Reflex vs. 4x MFG + DLSS-Performance mit Reflex... Volksverdummung sondergleichen.

robbitop
2025-10-26, 09:22:40
https://youtu.be/9cE-dGOv_Ws?si=t6pwK2hG7HrUQ9V0
Daniel Owen zieht ähnliche Schlüsse wie ich zu Reflex2.

The_Invisible
2025-10-26, 09:37:04
Oder Marketing-Bullshit-Vergleiche von Nvidia mit nativen Auflösung ohne Reflex vs. 4x MFG + DLSS-Performance mit Reflex... Volksverdummung sondergleichen.

Wieso Bullshit? Nur weil Antilag 2 quasi keine Verbreitung hat kann man nicht von AMD zu Nvidia schließen. Outer Worlds 2 hat zb kein Antilag 2 oder FG auf Radeons, hier ist MFG klar besser spielbar sogar mit gleichen DLSS-P Preset. Sagt auch CB so.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94515&stc=1&d=1761467781

dargo
2025-10-26, 09:45:57
Junge... wen willst du wieder verarschen hier? Sowohl Antilag 2 als auch FG bekommt jeder mit dem OptiScaler. Was bist du nur für ein Vollnoob? Deine verzweifelten Versuche hier irgendwas zu erreichen laufen völlig ins Leere.

btw.
Bei CB sieht man auch ganz klar die Verschlechterung mit 4x MFG um ganze 15ms bei der Latenz. Zudem sind ~40 Baseframes lachhaft wie schon richtig von robbitop angesprochen. Du bist nichts weiter als ein Marketingopfer von Nvidia.

robbitop
2025-10-26, 09:46:48
Wer 4x MFG bei 40@160 FPS bei 4x MFG als gut spielbar bezeichnet hat eine fragwürdige Wahrnehmung. Solche Szenarien habe ich mit framelimiter auf meiner 5070ti getestet und es ist nicht gerade toll. FG (insbesondere MFG) FPS sind deutlich anders als reguläre FPS.

Die Verbreitung von FG und AL2 ist definitiv eine Schwäche. Wer aber schon Einstiegsskills am PC hat (eine ZIP runterladen, entpacken, kopieren und eine Datei ausführen... das sind Dinge die sogar meine beiden Opas locker hinbekamen sogar obwohl die erst im späten Rentenalter mit PCs in Berührung kamen) kann das Problem mit Optiscaler glücklicherweise meist selbst fixen :)
MFG hat AMD noch nicht. Das stimmt. Vermute aber dass das nur eine Frage der Zeit ist und dass dann auch per Optiscaler injezierbar sein wird.
Ansonsten: MFG macht erst so richtig Sinn mit Displays mit hoher refreshrate wenn man dessen Vorteil kompromißfrei ausspielen will. 240Hz +

Relex
2025-10-26, 10:10:56
"Kompromissfrei" gibt es nicht. Genau das ist doch der Punkt. Schon immer. Auch nicht mit einer 5090. Auch nicht mit einer 7090...

Ich würde 40 FPS mit MFG jederzeit 60 FPS mit Reflex vorziehen. Wobei du in der praxis eher 50 FPS hättest, wenn du mit MFG auf 40 fällst.


Ansonsten verstehe ich dieses denken in "spielbar" "unspielbar" nicht.

Unspielbar sind für mich <30 FPS. Alles darüber ist spielbar. Optimal sind aber selbst 240 native FPS nicht. Wenn ich 200 statt 150 FPS haben kann dann nehme ich 200 FPS, wenn der Trade off minimal ist (z.B. DLSS Balanced vs Performance), weil ich die bessere Latenz und Bewegtbildschärfe auch bei 200 FPS spüre. Deswegen sind 40 FPS aber nicht unspielbar. Je nach Titel seh ich da überhaupt kein Problem.

Du machst wieder den Fehler, 160 FPS mit MFG mit nativen 160 FPS gleichsetzen zu wollen. Das ist nicht Sinn der Sache und auch kein Szenario das du in der Praxis jemals haben wirst. Die Entscheidung ist nicht, 160 FPS nativ vs 160 FPS mit MFG, die Entscheidung ist ~50 FPS ohne MFG vs 160 FPS mit MFG.


Ich seh das auch grundsätzlich anders herum. Ich nutze eigentlich immer FG, wenn es geht, weil ich für ein relativ geringes performance budget doppelte Framerate bekomme.
Die Latenz kann man wenn nötig völlig unabhängig davon via Upscaling oder Grafiksettings beeinflussen. Praktisch haben Grafiksettings und Upscaling einen vielfach höheren Einfluss auf die latenz als Frame Generation. Daher ist die Denke, auf FG zu verzichten, weil sich die latenz ein wenig erhöht völlig falsch, wenn der VIEL größere Latenz-Hebel bei Upscaling und Grafiksettings sitzt. die Latenzkosten von FG sind im vergleich zu allem anderen verschwindend gering - dafür bekommt man aber immer eine FPS verdoppelung nach Abzug der Kosten. Völliger no brainer. Wer's nicht nutzt hat mMn. den Sinn nicht richtig verstanden. Einziges Gegenargument wäre, wenn man extrem empfindlich auf Artefakte reagiert. Aber dann könnten wir uns wieder streiten, ob Fullscreen unschärfe nicht mehr "artefakt" ist als hier und da mal ein FG artefakt in einem ansonsten deutlich schärferen Bewegtbild.

The_Invisible
2025-10-26, 10:17:49
Junge... wen willst du wieder verarschen hier? Sowohl Antilag 2 als auch FG bekommt jeder mit dem OptiScaler. Was bist du nur für ein Vollnoob? Deine verzweifelten Versuche hier irgendwas zu erreichen laufen völlig ins Leere.

btw.
Bei CB sieht man auch ganz klar die Verschlechterung mit 4x MFG um ganze 15ms bei der Latenz. Zudem sind ~40 Baseframes lachhaft wie schon richtig von robbitop angesprochen. Du bist nichts weiter als ein Marketingopfer von Nvidia.

Bist das nicht immer du der immer darauf herumreitet wann etwas nicht für die Masse ist und daher automatisch schei*e ist? Aber Optiscaler findest du auf einmal toll ;D

Und wow, mit FG verliert man Latenz, ist ja ganz was Neues... Auf Radeons ohne FG und ohne Antilag 2 ist es für dich also unspielbar, danke für die Aussage

Wer aber schon Einstiegsskills am PC hat (eine ZIP runterladen, entpacken, kopieren und eine Datei ausführen... das sind Dinge die sogar meine beiden Opas locker hinbekamen sogar obwohl die erst im späten Rentenalter mit PCs in Berührung kamen) kann das Problem mit Optiscaler glücklicherweise meist selbst fixen :)

Ja sieht man ja hier im Optiscaler Thread wie einfach das alles ist... welche Alpha Version nimmt man schnell? Welche Einstellungen, noch bisschen ini konfigurieren mit hundert Einstellungen, MP Banns usw... ja ist voll für die Masse

dargo
2025-10-26, 10:25:38
Du bist und bleibst einfach nur ein Troll.

1. OptiScaler zu bedienen ist mittlerweile kinderleicht, sagt schon viel über dich aus.
2. Nur weil wir die neusten "Alpha"versionen testen die es nur im Discord aktuell gibt heißt nicht, dass es jeder verwenden muss. :rolleyes: Es gibt einen guten Grund warum die v0.9.0 hier noch nicht released wurde.
https://github.com/optiscaler/OptiScaler


Ja sieht man ja hier im Optiscaler Thread wie einfach das alles ist... welche Alpha Version nimmt man schnell? Welche Einstellungen, noch bisschen ini konfigurieren mit hundert Einstellungen, MP Banns usw... ja ist voll für die Masse
:facepalm:

Null Ahnung vom OptiScaler-Projekt, aber seinen Dünnschiss abgeben.

robbitop
2025-10-26, 10:49:19
Du machst wieder den Fehler, 160 FPS mit MFG mit nativen 160 FPS gleichsetzen zu wollen. Das ist nicht Sinn der Sache und auch kein Szenario das du in der Praxis jemals haben wirst. Die Entscheidung ist nicht, 160 FPS nativ vs 160 FPS mit MFG, die Entscheidung ist ~50 FPS ohne MFG vs 160 FPS mit MFG.

Wenn es im gleichen Diagramm steht, dann wird es aber damit verglichen. Und darauf habe ich reagiert.
In dem Kontext in dem du die Anwendung beschreibst ist es etwas anderes und da kann ich schon mitgehen.
Aber es kommt wahrscheinlich sehr auf den Anspruch an. Ich denke die Leute die sich gute GPUs kaufen haben durchaus Anspruch. Und da ist die Referenz eben keine 40 oder 50 fps. Da ist der Anspruch an hohe Fluppdizität, wenig Artefakte und hohe Flüssigkeit. Eher sowas wie 80-100 fps ohne FG (je nach Spiel) wären dann (zumindest sind sie es bei mir) die Referenz. Schlechter sollte es dann nicht werden.

30….60 fps ist wahrscheinlich eher so das was die Konsolenleute als Referenzpunkt haben. IMO.

Ich nutze auch immer FG/MFG wenn möglich. Und wie du habe ich einen Monitor und eine GPU mit dem man nicht bei 4xMFG bei 160 fps rumgurkt. Probiere das mal mit framelimiter aus. ;) Ich empfand es fürchterlich - empfinde aber auch 40 oder 50 fps und auch 60 fps als nicht gut genug. Wenn es soweit käme würde ich sofort upgraden und/oder details senken

robbitop
2025-10-26, 10:51:35
Ja sieht man ja hier im Optiscaler Thread wie einfach das alles ist... welche Alpha Version nimmt man schnell? Welche Einstellungen, noch bisschen ini konfigurieren mit hundert Einstellungen, MP Banns usw... ja ist voll für die Masse

Du hast offenbar den Kontext nicht verfolgt. Das sind pre stable Versionen die ein user aus dem discord channel lädt und selbst kompiliert. Alpha Versionen. Es gibt aber für Normalos auf github Stable Versionen. Das sind zwei sehr sehr verschiedene paar Schuhe

Gast
2025-10-26, 11:07:52
Wer 4x MFG bei 40@160 FPS bei 4x MFG als gut spielbar bezeichnet hat eine fragwürdige Wahrnehmung. Solche Szenarien habe ich mit framelimiter auf meiner 5070ti getestet und es ist nicht gerade toll. FG (insbesondere MFG) FPS sind deutlich anders als reguläre FPS.

Die Verbreitung von FG und AL2 ist definitiv eine Schwäche. Wer aber schon Einstiegsskills am PC hat (eine ZIP runterladen, entpacken, kopieren und eine Datei ausführen... das sind Dinge die sogar meine beiden Opas locker hinbekamen sogar obwohl die erst im späten Rentenalter mit PCs in Berührung kamen) kann das Problem mit Optiscaler glücklicherweise meist selbst fixen :)
MFG hat AMD noch nicht. Das stimmt. Vermute aber dass das nur eine Frage der Zeit ist und dass dann auch per Optiscaler injezierbar sein wird.
Ansonsten: MFG macht erst so richtig Sinn mit Displays mit hoher refreshrate wenn man dessen Vorteil kompromißfrei ausspielen will. 240Hz +

Bei NVIDIA hast du ausreichend Flexibilität um MFG an die Gegebenheiten anpassen zu können. Auch gibt es Low Latency VSYNC via Treiber was deutlich smootheres Gameplay mit M-(FG) ermöglicht.

Gast
2025-10-26, 11:17:00
Du hast offenbar den Kontext nicht verfolgt. Das sind pre stable Versionen die ein user aus dem discord channel lädt und selbst kompiliert. Alpha Versionen. Es gibt aber für Normalos auf github Stable Versionen. Das sind zwei sehr sehr verschiedene paar Schuhe

Für die Handvoll AMD Nutzer ein Strohhalm... doch leider nicht funktionell und technisch rückständig.

basix
2025-10-26, 13:36:50
Ich nutze auch immer FG/MFG wenn möglich.

Mache ich auch (nur FG da RTX40). Ich bin relativ anspruchsvoll was flüssige Bildraten angeht, weswegen FG bei mir enorm viel ausmacht. Andere können das anders empfinden, aber 30fps wäre für mich unspielbar (man gewöhnt sich nach einer weile sicher ein wenig dran) und selbst 60fps empfinde ich als nicht ideal. 90fps+ sind bei mir der Punkt, wo es sich angenehm anfühlt.

Relex
2025-10-26, 14:12:54
Bei NVIDIA hast du ausreichend Flexibilität um MFG an die Gegebenheiten anpassen zu können. Auch gibt es Low Latency VSYNC via Treiber was deutlich smootheres Gameplay mit M-(FG) ermöglicht.


Das ist unnötig und ggf. kontraproduktiv.

Wenn Vsync aktiv ist, limitiert Reflex ganz automatisch die FPS unterhalb der max. Refreshrate so dass du nicht ins Vsync buffering kommst.

Mit Fast Sync würde die Framerate über die Maximale Refreshrate hinausgehen dürfen. Man hat dann zwar weiterhin kein Tearing, hätte dann aber wieder Microruckeln, weil VRR nicht mehr greift.
Oberhalb der VRR range verhält sich ein VRR Monitor wie ein nicht-VRR monitor. Heißt man würde dann z.B. auf einem 120 Hz Display eine Framerate von 180, 200 oder was auch immer darstellen, das Display würde starr mit 120 Hz arbeiten, die Framerate wäre aber kein ganzzahliges vielfaches. Da sich die Frames nicht sauber zeitlich auf die Refreshes aufteilen können, gibt es durchgehend Microruckeln.

Auch mit MFG sollte man deshalb ausnahmslos immer in der VRR Range seines Displays bleiben.

aufkrawall
2025-10-26, 14:16:26
Er meinte wohl nur Vsync + Reflex, und nicht NULL.
Ansonsten wieder die typisch langweilige xte Iteration der immergleichen Zirkel-Debatten.

Lurtz
2025-10-26, 15:25:28
"Kompromissfrei" gibt es nicht. Genau das ist doch der Punkt. Schon immer. Auch nicht mit einer 5090. Auch nicht mit einer 7090...

Ich würde 40 FPS mit MFG jederzeit 60 FPS mit Reflex vorziehen. Wobei du in der praxis eher 50 FPS hättest, wenn du mit MFG auf 40 fällst.


Ansonsten verstehe ich dieses denken in "spielbar" "unspielbar" nicht.

Unspielbar sind für mich <30 FPS. Alles darüber ist spielbar. Optimal sind aber selbst 240 native FPS nicht. Wenn ich 200 statt 150 FPS haben kann dann nehme ich 200 FPS, wenn der Trade off minimal ist (z.B. DLSS Balanced vs Performance), weil ich die bessere Latenz und Bewegtbildschärfe auch bei 200 FPS spüre. Deswegen sind 40 FPS aber nicht unspielbar. Je nach Titel seh ich da überhaupt kein Problem.

Du machst wieder den Fehler, 160 FPS mit MFG mit nativen 160 FPS gleichsetzen zu wollen. Das ist nicht Sinn der Sache und auch kein Szenario das du in der Praxis jemals haben wirst. Die Entscheidung ist nicht, 160 FPS nativ vs 160 FPS mit MFG, die Entscheidung ist ~50 FPS ohne MFG vs 160 FPS mit MFG.


Ich seh das auch grundsätzlich anders herum. Ich nutze eigentlich immer FG, wenn es geht, weil ich für ein relativ geringes performance budget doppelte Framerate bekomme.
Die Latenz kann man wenn nötig völlig unabhängig davon via Upscaling oder Grafiksettings beeinflussen. Praktisch haben Grafiksettings und Upscaling einen vielfach höheren Einfluss auf die latenz als Frame Generation. Daher ist die Denke, auf FG zu verzichten, weil sich die latenz ein wenig erhöht völlig falsch, wenn der VIEL größere Latenz-Hebel bei Upscaling und Grafiksettings sitzt. die Latenzkosten von FG sind im vergleich zu allem anderen verschwindend gering - dafür bekommt man aber immer eine FPS verdoppelung nach Abzug der Kosten. Völliger no brainer. Wer's nicht nutzt hat mMn. den Sinn nicht richtig verstanden. Einziges Gegenargument wäre, wenn man extrem empfindlich auf Artefakte reagiert. Aber dann könnten wir uns wieder streiten, ob Fullscreen unschärfe nicht mehr "artefakt" ist als hier und da mal ein FG artefakt in einem ansonsten deutlich schärferen Bewegtbild.
+++ Danke.

Ich möchte nicht jedes Spiel so spielen, aber ein langsames Alan Wake 2 kann ich auch mal mit 4x MFG mit höherer Latenz spielen, wenn die Optik durch Pathtracing damit massiv aufgewertet wird.

Verstehe nicht wieso diese Debatten immer in kategorisches richtig/falsch ausarten müssen.

Gast
2025-10-26, 15:54:02
Das ist unnötig und ggf. kontraproduktiv.

Wenn Vsync aktiv ist, limitiert Reflex ganz automatisch die FPS unterhalb der max. Refreshrate so dass du nicht ins Vsync buffering kommst.

Besseres Frame Pacing bei gleichzeitig niedriger Latenz und zero Tearing, was du sonst immer hättest @ Default . Win-Win in jeder Situation(!)

Ex3cut3r
2025-10-26, 16:18:36
Weil es von Nvidia kommt! Sobald AMD dann auch MFG hat, ist es da größte Überhaupt. Dargo zockt auch gerade Ass Creed Shadows mit FG, vor MFG war "normales" FG auch der größte Rotz etc....man kennt es ja.

x-force
2025-10-26, 16:20:03
+++ Danke.

Ich möchte nicht jedes Spiel so spielen, aber ein langsames Alan Wake 2 kann ich auch mal mit 4x MFG mit höherer Latenz spielen, wenn die Optik durch Pathtracing damit massiv aufgewertet wird.

da bist du von der latenz halt schnell an einem punkt an dem du auch cloud gaming machen könntest.

Gast
2025-10-26, 16:39:03
Er meinte wohl nur Vsync + Reflex, und nicht NULL.
Ansonsten wieder die typisch langweilige xte Iteration der immergleichen Zirkel-Debatten.

VSYNC ist essenziell um Tearing mit G-SYNC/VRR zu vermeiden, Frame Generation und Multi Frame Generation bekamen noch VSYNC + Low Latency Funktionalität hinzu, welches standardmäßig so nicht vorgesehen war, die neue GPU-Display Engine sorgt außerdem für besseres Frame Pacing mit Frame Generation welches mit RTX 40 Series so noch nicht möglich war.

Relex
2025-10-26, 17:18:01
da bist du von der latenz halt schnell an einem punkt an dem du auch cloud gaming machen könntest.


Wie gesagt. FG ist nicht die Ursache schlechter Latenzen. Da haben höhere Grafiksettings und Auflösungen deutlich mehr Einfluss.

Stell mal von DLSS Performance auf DLSS Quality. Oder von High Settings auf Ultra Settings. Die Latenzen steigen dadurch SEHR viel stärker an als mit FG.

Schon komisch, dass immer FG die "böse" Technik ist, welche die Latenzen erhöht, aber nicht die ganzen anderen Settings, die viel größeren Einfluss haben. Es ist so dämlich... :rolleyes:

aufkrawall
2025-10-26, 17:26:00
VSYNC ist essenziell um Tearing mit G-SYNC/VRR zu vermeiden, Frame Generation und Multi Frame Generation bekamen noch VSYNC + Low Latency Funktionalität hinzu, welches standardmäßig so nicht vorgesehen war

Ist halt vom Ergebnis die gleiche Funktionalität wie ohne FG.
Natürlich classic Nvidia, das ganzheitlich zu denken. Bei AMD mit Anti-Lag 2 hat immer noch niemand gecheckt, dass man ohne so etwas ins Vsync-Cap mit mehr Lag kommt.
Ist halt nicht mehr zu erwarten, wenn die auch so schon mit dem Frame Pacing auf RDNA4 komplett überfordert sind oder es nicht checken.

die neue GPU-Display Engine sorgt außerdem für besseres Frame Pacing mit Frame Generation welches mit RTX 40 Series so noch nicht möglich war.
Möglich, aber Lovelace hatte mit DLSS 4 FG auch noch besseres CPU-Pacing bekommen, was wohl ausschlaggebender war.

The_Invisible
2025-10-26, 17:32:48
+++ Danke.

Ich möchte nicht jedes Spiel so spielen, aber ein langsames Alan Wake 2 kann ich auch mal mit 4x MFG mit höherer Latenz spielen, wenn die Optik durch Pathtracing damit massiv aufgewertet wird.

Verstehe nicht wieso diese Debatten immer in kategorisches richtig/falsch ausarten müssen.

Weil ein gewisser User hier immer Schnappatmung bekommt wenn er Pathtracing hört ;)

Gast
2025-10-26, 17:33:43
Ist halt vom Ergebnis die gleiche Funktionalität wie ohne FG.
Natürlich classic Nvidia, das ganzheitlich zu denken. Bei AMD mit Anti-Lag 2 hat immer noch niemand gecheckt, dass man ohne so etwas ins Vsync-Cap mit mehr Lag kommt.
Ist halt nicht mehr zu erwarten, wenn die auch so schon mit dem Frame Pacing auf RDNA4 komplett überfordert sind oder es nicht checken.

Volle G-Sync Funktionalität eben, was extrem cool ist! Für das "alte" FG 2x funktionierte das auch schon für RTX 40 Series, allerdings war dann die Frame Ausgabe nicht immer optimal und teils lückenhaft sozusagen eine Diskrepanz zwischen Frame Ausgabe und gefühlter Latenz, was nun mit RTX 50 nicht mehr passiert.

dargo
2025-10-26, 17:34:38
Wie gesagt. FG ist nicht die Ursache schlechter Latenzen. Da haben höhere Grafiksettings und Auflösungen deutlich mehr Einfluss.

Stell mal von DLSS Performance auf DLSS Quality. Oder von High Settings auf Ultra Settings. Die Latenzen steigen dadurch SEHR viel stärker an als mit FG.

Schon komisch, dass immer FG die "böse" Technik ist, welche die Latenzen erhöht, aber nicht die ganzen anderen Settings, die viel größeren Einfluss haben. Es ist so dämlich... :rolleyes:
Cool Story Bro. Wir lassen am besten alles von 360p upscalen dann braucht niemand mehr über 350€ für eine Grafikkarte ausgeben. :ulol:

Lurtz
2025-10-26, 19:48:46
da bist du von der latenz halt schnell an einem punkt an dem du auch cloud gaming machen könntest.
Ich halte die Latenz (bei technisch guten Anbietern) tatsächlich für so ziemlich das geringste Hindernis was Cloud-Gaming angeht (in den meisten Genres). Erst recht wenn jede Generation über 200 Millionen Konsolenspieler bestenfalls mit 60 fps spielen.
Ist halt vom Ergebnis die gleiche Funktionalität wie ohne FG.
Natürlich classic Nvidia, das ganzheitlich zu denken. Bei AMD mit Anti-Lag 2 hat immer noch niemand gecheckt, dass man ohne so etwas ins Vsync-Cap mit mehr Lag kommt.
Ist halt nicht mehr zu erwarten, wenn die auch so schon mit dem Frame Pacing auf RDNA4 komplett überfordert sind oder es nicht checken.

Anti-Lag 2 funktioniert nicht mit VSync? :uponder:

robbitop
2025-10-26, 20:04:24
Für die Handvoll AMD Nutzer ein Strohhalm... doch leider nicht funktionell und technisch rückständig.

Was genau ist da nicht funktionell und technisch rückständig? Bitte mit genauer Argumentation und Belegen hinterlegen.

robbitop
2025-10-26, 20:05:13
Bei NVIDIA hast du ausreichend Flexibilität um MFG an die Gegebenheiten anpassen zu können. Auch gibt es Low Latency VSYNC via Treiber was deutlich smootheres Gameplay mit M-(FG) ermöglicht.

Hab ich probiert (dank Blackwell im PC). 40 fps mit MFG spielen sich wie Kaugummi. Ich empfand es furchtbar. Bei deutlich mehr input fps wird es dann aber richtig gut und ein echter Mehrwert auf meinem 360 Hz Monitor.

robbitop
2025-10-26, 20:06:56
Mache ich auch (nur FG da RTX40). Ich bin relativ anspruchsvoll was flüssige Bildraten angeht, weswegen FG bei mir enorm viel ausmacht. Andere können das anders empfinden, aber 30fps wäre für mich unspielbar (man gewöhnt sich nach einer weile sicher ein wenig dran) und selbst 60fps empfinde ich als nicht ideal. 90fps+ sind bei mir der Punkt, wo es sich angenehm anfühlt.
Dito.

robbitop
2025-10-26, 20:13:53
Wie gesagt. FG ist nicht die Ursache schlechter Latenzen. Da haben höhere Grafiksettings und Auflösungen deutlich mehr Einfluss.

Stell mal von DLSS Performance auf DLSS Quality. Oder von High Settings auf Ultra Settings. Die Latenzen steigen dadurch SEHR viel stärker an als mit FG.

Schon komisch, dass immer FG die "böse" Technik ist, welche die Latenzen erhöht, aber nicht die ganzen anderen Settings, die viel größeren Einfluss haben. Es ist so dämlich... :rolleyes:

Ich bin mir nicht sicher ob so gedacht wird. Niedrige fps (welche durch zu wenig Leistung in Relation zu dem stehen was berechnet werden muss) machen schlechte Latenzen. Ich denke da sind wir uns einig. FG kostet gerade mal 0,5 der Inputfps frametime extra (wobei die input fps durch den compute overhead sinken was die latenz weiter verschlechtert - der Einfluss dürfte fast größer sein als 1/2 frametime malus). Aber wenn man die schlechte Latenz von niedrige frameraten sowieso schon kaum ertragen kann erhöht FG durch obiges sie noch weiter. Wesentlich netter ist eine höhere inputfps rate. Dann ist der ganze Effekt viel netter. Und bei unserer Nerd Bubble gehe ich davon aus dass unsere HW nicht bei 30-40 fps input fps rumkrebsen.

Ich denke man darf FG fps halt nicht mit richtigen fps vergleichen weil bei letzterem halt eine Erwartung und Latenz dahintersteht. Steht beides in einem Diagramm muss es sich den Vergleich gefallen lassen.

Bewertet man FG aber nüchtern als eines von vielen hilfreichen Werkzeugen ist das Ganze etwas besser im Kontext und ja FG ist ein absolut gutes Werkzeug.

aufkrawall
2025-10-26, 20:50:55
Anti-Lag 2 funktioniert nicht mit VSync? :uponder:
Funktioniert schon, hat aber keinen Auto-Limiter. Bietet das Spiel kein fps-Limit an, bleibt nur wieder OptiScaler und hoffen, dass es auch mit FG ohne mysteriöse Ruckel-Probleme, Crashes o.ä funktioniert. Schauderhafte Vorstellung, von DLSS 4 wieder dahin zurück zu gehen.

Gast
2025-10-26, 20:55:02
Was genau ist da nicht funktionell und technisch rückständig? Bitte mit genauer Argumentation und Belegen hinterlegen.

Hatte ich doch bereits angedeutet. Vendor-Lock, Input Latenz und mangelnde Kompatibilität der Features untereinander, als RTX 3080Ti NVIDIA Nutzer z.b. heimst du dir da mehr Probleme als Vorteile ein.

Hab ich probiert (dank Blackwell im PC). 40 fps mit MFG spielen sich wie Kaugummi. Ich empfand es furchtbar. Bei deutlich mehr input fps wird es dann aber richtig gut und ein echter Mehrwert auf meinem 360 Hz Monitor.

Ich hab nirgends behauptet das 40fps Base immer ausreichen würden...
40fps ist Minimum, kommt halt immer auf das jeweilige Game bzw. Engine/ Reflex-Renderchain an, wieviel Base Frame Rate ausreichend ist, ab welcher Bildrate 2x , 3x oder 4x in Frage kommen.

robbitop
2025-10-26, 21:22:41
Hatte ich doch bereits angedeutet. Vendor-Lock, Input Latenz und mangelnde Kompatibilität der Features untereinander, als RTX 3080Ti NVIDIA Nutzer z.b. heimst du dir da mehr Probleme als Vorteile ein.

Welchen Vendor Lock soll Optiscaler haben? Latenz ist soweit ich das gesehen habe auch kein Problem. Geforcenutzer nutzen ganz normal Reflex und AMD Nutzer AL2 (wird umgeleitet) oder latencyflex. Latenzreduktionen die ich da gesehen habe sahen nicht großartig anders aus als mit Reflex. Und welche features kommen sich denn genau ins Gehege. Also bitte genauer und konkreter und bitte mit Beleg.


Ich hab nirgends behauptet das 40fps Base immer ausreichen würden...
40fps ist Minimum, kommt halt immer auf das jeweilige Game bzw. Engine/ Reflex-Renderchain an, wieviel Base Frame Rate ausreichend ist, ab welcher Bildrate 2x , 3x oder 4x in Frage kommen.
Nvidia empfiehlt ab 60 fps inputframerate. Klar ist das abhängig voj mehreren Variablen wie: Eingabemethode, fps normierte Latenz des Spiels und Wahrnehmung des Spielers. Daraus ergibt sich dann schon ein Spektrum.
Meine eigenen Ansprüche und Erfahrungrn zeigen aber eher deutlich oberhalb von 60 fps input fps als Minimum damit es nett ist. Aber das gilt auch ohne FG. Wenns dafür nicht reicht: details/Auflösung runter und/oder upgrade.

Gast
2025-10-26, 22:18:11
Welchen Vendor Lock soll Optiscaler haben? Latenz ist soweit ich das gesehen habe auch kein Problem. Geforcenutzer nutzen ganz normal Reflex und AMD Nutzer AL2 (wird umgeleitet) oder latencyflex. Latenzreduktionen die ich da gesehen habe sahen nicht großartig anders aus als mit Reflex. Und welche features kommen sich denn genau ins Gehege. Also bitte genauer und konkreter und bitte mit Beleg.

Vendor Lock war bezogen auf FSR/XeSS im Allgemeinen in Games. Cyberpunk 2077 seit neuesten Update müsstest auf DLSS 4 und Ray Reconstruction sowie niedrige Latenzen verzichten, was schon ein No-Go darstellt. AMD FSR Frame Generation ist rückständig in Bildqualität bei spürbar höhere Latenzen, es bietet keine Vollbildunterstützung was wesentlich für einige Features ist, häufig auch Verstümmelungen (Billboards z.b.) oder keine Bewegung in generierten Bildern da diese einfach nur doppelt angezeigt, das Gegenteil von Smoothness, das alles kann man mit Capture-Karte leicht entlarven.

Nvidia empfiehlt ab 60 fps inputframerate. Klar ist das abhängig voj mehreren Variablen wie: Eingabemethode, fps normierte Latenz des Spiels und Wahrnehmung des Spielers. Daraus ergibt sich dann schon ein Spektrum.
Meine eigenen Ansprüche und Erfahrungrn zeigen aber eher deutlich oberhalb von 60 fps input fps als Minimum damit es nett ist. Aber das gilt auch ohne FG. Wenns dafür nicht reicht: details/Auflösung runter und/oder upgrade.

Es gibt genügsamere Games wie ein Flight Simulator oder eine sehr gute NV Reflex Unterstützung in Cyberpunk wo auch eine niedrigere Base-Framerate von 40-50fps durchaus ausreichend ist.

Relex
2025-10-27, 08:28:34
Aktualisierte Reflex 2 Demo:
https://www.patreon.com/posts/reflex-2-demo-2-142134510?post_id=142134510


Die Artefakte an den Kanten sind jetzt kaum noch sichtbar.


I made a second demo with a trick implemented to make the border artifacts unnoticeable.
I simply render extra pixels outside of the screen, 25% to each direction.

And to make sure there not too much overhead from rendering extra pixels, I used variable rate shading to render the pixels beyond screen at a 4x4 shading rate which is like only 1/16 pixel count.


Damit bestätigt sich wieder... ohne offiziell freigegebene Version + Implementierungs Guidelines fällt das nur unter jugend forscht. Wenn man sich die artefakte ansieht, wenn man die Kamera mit den Pfeiltasten nicht links und rechts verschiebt, fehlen sicher auch Motion Vecotrs.
Die extra 25% Pixel die er beim Rendering auffüllt könnte man auch sicher auch noch irgendwo via DLSS + FG Technik herbeizaubern. Da werden mittlerweile ja eh nur noch ~6% der Pixel tatsächlich vom Spiel berechnet.

dargo
2025-10-27, 09:48:20
Vendor Lock war bezogen auf FSR/XeSS im Allgemeinen in Games. Cyberpunk 2077 seit neuesten Update müsstest auf DLSS 4 und Ray Reconstruction sowie niedrige Latenzen verzichten, was schon ein No-Go darstellt. AMD FSR Frame Generation ist rückständig in Bildqualität bei spürbar höhere Latenzen, es bietet keine Vollbildunterstützung was wesentlich für einige Features ist, häufig auch Verstümmelungen (Billboards z.b.) oder keine Bewegung in generierten Bildern da diese einfach nur doppelt angezeigt, das Gegenteil von Smoothness, das alles kann man mit Capture-Karte leicht entlarven.



Es gibt genügsamere Games wie ein Flight Simulator oder eine sehr gute NV Reflex Unterstützung in Cyberpunk wo auch eine niedrigere Base-Framerate von 40-50fps durchaus ausreichend ist.
Du bekommst den Bullshit-Award 2025. Unfassbar.... :facepalm:

btw.
Hier kann sich jeder ein Bild von machen was 40 Baseframes in CP77 mit 4x MFG bedeuten. Jedenfalls nichts gutes... >65ms Latenz.
https://youtu.be/B_fGlVqKs1k?si=tsvafTZy3miUVvqE&t=1209

x-force
2025-10-27, 12:10:06
Hier kann sich jeder ein Bild von machen was 40 Baseframes in CP77 mit 4x MFG bedeuten. Jedenfalls nichts gutes... >65ms Latenz.
https://youtu.be/B_fGlVqKs1k?si=tsvafTZy3miUVvqE&t=1209

:hammer:

jeder, der lesen und bis 100 rechnen kann, erkennt, dass im beispiel 4x mfg vs no mfg einen aufpreis von exakt 9,7ms kostet.

Troyan
2025-10-27, 12:15:19
Jap, AMDunboxed hat nämlich bestimmt mit V-Sync On und VRR off getestet. Damit wird der V-Sync buffer mit drei zusätzlichen Bildern gefüllt, wodurch die Latenz massiv ansteigt.

Mit VRR On und eine Limitierung bei 120 FPS bei z.B. 240Hz liegt der Verlust bei maximal einem Frame (+ irgendwas für MFG) gegenüber nativ 30 FPS.

robbitop
2025-10-27, 12:17:19
Vendor Lock war bezogen auf FSR/XeSS im Allgemeinen in Games. Cyberpunk 2077 seit neuesten Update müsstest auf DLSS 4 und Ray Reconstruction sowie niedrige Latenzen verzichten, was schon ein No-Go darstellt. AMD FSR Frame Generation ist rückständig in Bildqualität bei spürbar höhere Latenzen, es bietet keine Vollbildunterstützung was wesentlich für einige Features ist, häufig auch Verstümmelungen (Billboards z.b.) oder keine Bewegung in generierten Bildern da diese einfach nur doppelt angezeigt, das Gegenteil von Smoothness, das alles kann man mit Capture-Karte leicht entlarven.
Es ging doch aber um Optiscaler. Und damit kannst du mixen und matchen was Super Resolution und Frame Generation angeht.
Und man kann Reflex in Antilag2 und Latency Flex umlenken. Dann ist die Latenz auf Reflex Niveau. Und wenn die FG von FSR nicht zusagt, kann man die von Intel nehmen die vom BQ Level (laut aufkrawall der ein sehr feines Auge hat) sogar über DLSS FG sein soll.

Ja ohne Optiscaler ist alles relativ suboptimal meistens wenn man keine aktuelle Geforce hat. Würde ich auch so sehen. Aber mit Optiscaler ist es dann wieder okay.



Es gibt genügsamere Games wie ein Flight Simulator oder eine sehr gute NV Reflex Unterstützung in Cyberpunk wo auch eine niedrigere Base-Framerate von 40-50fps durchaus ausreichend ist.
Ich habe CP77 mit Reflex und MFG getestet mit 40 fps baseframerate. Kaugummi. Entweder hast du es nicht getestet oder man kann sämtliche Aussagen zu dir mit Latenz in diesem Thread nicht ernst nehmen.

robbitop
2025-10-27, 12:19:55
Aktualisierte Reflex 2 Demo:
https://www.patreon.com/posts/reflex-2-demo-2-142134510?post_id=142134510


Die Artefakte an den Kanten sind jetzt kaum noch sichtbar.




Damit bestätigt sich wieder... ohne offiziell freigegebene Version + Implementierungs Guidelines fällt das nur unter jugend forscht. Wenn man sich die artefakte ansieht, wenn man die Kamera mit den Pfeiltasten nicht links und rechts verschiebt, fehlen sicher auch Motion Vecotrs.
Die extra 25% Pixel die er beim Rendering auffüllt könnte man auch sicher auch noch irgendwo via DLSS + FG Technik herbeizaubern. Da werden mittlerweile ja eh nur noch ~6% der Pixel tatsächlich vom Spiel berechnet.
Ja die Maßnahme macht Sinn. So muss man zwar mehr rendern und nichts erfinden aber es kommt kein quatsch dabei raus. Und mit variable rate shading macht das auch perfekten Sinn weil es im periphären Sichtbereich des Auges sein sollte. Allerdings könnte es sein, dass man ggf doch Artefakte sieht, weil ja Superresolution auch nochmal samples spart. Bisher war eigentlich best practice beides entweder nicht zu kombinieren oder dann sehr seicht nur.

robbitop
2025-10-27, 12:22:15
:hammer:

jeder, der lesen und bis 100 rechnen kann, erkennt, dass im beispiel 4x mfg vs no mfg einen aufpreis von exakt 9,7ms kostet.
Und der Inputlag mit 40 fps ist bereits furchtbar. Darum geht es ja niedrige base fps sind furchtbar. Nicht Frame Generation selbst. Aber FG packt leider noch ein bisschen mehr Latenz drauf (1/2 frame + die zusätzliche Latenz durch Senkung der Framerate durch zusätzlichen overhead). Entsprechend kann man performancenormiert eigentlich nicht 40 fps noFG vs 40fps + FG vergleichen. Weil die GPU ohne FG mehr (echte) fps schafft und damit bessere Latenz.
Aber IMO ist alles unter 60 fps meist meh.

Troyan
2025-10-27, 12:22:49
Aktualisierte Reflex 2 Demo:
https://www.patreon.com/posts/reflex-2-demo-2-142134510?post_id=142134510


Die Artefakte an den Kanten sind jetzt kaum noch sichtbar.




Damit bestätigt sich wieder... ohne offiziell freigegebene Version + Implementierungs Guidelines fällt das nur unter jugend forscht. Wenn man sich die artefakte ansieht, wenn man die Kamera mit den Pfeiltasten nicht links und rechts verschiebt, fehlen sicher auch Motion Vecotrs.
Die extra 25% Pixel die er beim Rendering auffüllt könnte man auch sicher auch noch irgendwo via DLSS + FG Technik herbeizaubern. Da werden mittlerweile ja eh nur noch ~6% der Pixel tatsächlich vom Spiel berechnet.

Es geht vorallem nicht um Bildqualität hier. Im Sichtfeld muss alles klar sein, drumherum ist es sowieso egal. Die Ränder würden normalerweise einfach zusammengemalt. Oder wie hier rendert man einfach mehr als sichtbar, wodurch man ja mehr Leistung investiert.

Und der Inputlag mit 40 fps ist bereits furchtbar. Darum geht es ja niedrige base fps sind furchtbar. Nicht Frame Generation selbst. Aber FG packt leider noch ein bisschen mehr Latenz drauf (1/2 frame + die zusätzliche Latenz durch Senkung der Framerate durch zusätzlichen overhead). Entsprechend kann man performancenormiert eigentlich nicht 40 fps noFG vs 40fps + FG vergleichen. Weil die GPU ohne FG mehr (echte) fps schafft und damit bessere Latenz.
Aber IMO ist alles unter 60 fps meist meh.

Ohne Reflex wäre für dich jedes Spiel unspielbar. Wäre Reflex keine frei nutzbare Option, würde (M)FG sich immer besser anfühlen.

robbitop
2025-10-27, 12:29:15
Ohne Reflex wäre für dich jedes Spiel unspielbar. Wäre Reflex keine frei nutzbare Option, würde (M)FG sich immer besser anfühlen.
Reflex (und die Äquivalente Antilag2, LatencyFlex und XeSS-LL) hilft definitiv. Davon war aber auch nie die Rede.
Aber Reflex (und Äquivalente) können auch nicht zaubern. Mit niedrigen fps wird alles zu Kaugummi.

FG/MFG sind super Techniken genau wie Reflex. Aber man kann nicht kontextfrei MFG fps mit regulären fps vergleichen. Wenn man das nicht tut und es als Werkzeug sieht und die richtigen Voraussetzungen dafür schafft -> sau geile Tools.
Und mit modernen GPUs sind IMO die Voraussetzungen praktisch immer geschaffen. Und dann fetzt das auch. Egal von welchem IHV. Das FG von Intel soll sogar noch bessere BQ haben als das von Nvidia.

Relex
2025-10-27, 12:31:28
Ja die Maßnahme macht Sinn. So muss man zwar mehr rendern und nichts erfinden aber es kommt kein quatsch dabei raus. Und mit variable rate shading macht das auch perfekten Sinn weil es im periphären Sichtbereich des Auges sein sollte. Allerdings könnte es sein, dass man ggf doch Artefakte sieht, weil ja Superresolution auch nochmal samples spart. Bisher war eigentlich best practice beides entweder nicht zu kombinieren oder dann sehr seicht nur.


Ich schätze mal, dass das mit einer offiziellen implementierung deutlich besser aussieht. Denn alleine mit Super Resolution hast du schon das grundlegende Problem, dass alles was am Bildschirmrand aufgedeckt wird nur ein einziges Sample pro Pixel (oder bei upscaling viel weniger samples) hat. Bei Super Resolution müsste man also am Rand ähnliche Artefakte sehen. Und ja, in extremsituation kann das auch bei SR ein Problem werden, aber generell ist das kein Problem über das man hier diskutieren muss, weil es so stark minimiert wurde. Wenn dann stört Disocclusion innerhalb des Bildes, aber nicht am Rand.

Es scheint also schon Techniken zu geben, um fehlende Bildinformationen am Bildrand zu kompensieren. Vielleicht wird bei DLSS, FSR und co ja auch schon ausserhalb des Bildbereichs gesampled. Ich weiß es nicht.


Das geile an der Reflex Demo ist auch: Wenn man sich mal vor ne Fläche stellt und die Kamera mit den pfeiltasten bewegt, hat man z.B. in meinem Fall perfekt smoothe und scharfe 240 FPS mit Vsync. Und das völlig ohne Frame Generation.

Ich meine klar, das liegt in der Natur der Sache. Trotzdem ist es erstaunlich, was da nicht nur an Latenz möglich ist, sondern unter gewissen Umständen auch für ne Smoothness. Man kann das game selbst mit 5 FPS laufen lassen und bekommt durch Framewarp ne perfekt smoothe und scharfe 240 FPS bewegung hin.

Wenn Nvidia das ordentlich hinbekommt und die ganzen Nachteile ausmerzen kann, wäre das ein Gamechanger.

Ich bin so gespannt auf Januar... Dann gibts hoffentlich mal neue Infos. Und dann vielleicht endlich mal ein neues SR Preset L...

Troyan
2025-10-27, 12:32:48
Reflex ist erst mit FG in wirklich jedem AAA Game vorhanden. Was bedeutet, woher waren alle Spiele für dich unspielbar - selbst wenn du z.B. 120FPS im massiven GPU-Limit gehabt haben solltest.

Und natürlich kann man MFG mit "normalen" Frames vergleichen. Wenn MFG eine geringere Eingabeverzögerung hat als normale Frames, dann ist dies ja besser. Ohne Reflex musst du ja perse dafür sorgen, dass du im CPU-Limit bist.

Finde die Diskussions seit Lovelace daher so absurd. Woher hat sich niemand für die Eingabeverzögerung interessiert. Heute ist hier jeder ein Experte im Erfühlen von 10ms oder so.

dargo
2025-10-27, 12:35:50
jeder, der lesen und bis 100 rechnen kann, erkennt, dass im beispiel 4x mfg vs no mfg einen aufpreis von exakt 9,7ms kostet.
Hast du gekifft oder findest wirklich nicht den Kontext? Ich helfe dir aber gerne. Der trollende Gast kam mit 40-50 Baseframes in CP77 um die Ecke.


Ohne Reflex wäre für dich jedes Spiel unspielbar.
Falsch... man müsste halt höhere Frameraten anvisieren als mit Reflex/AL2/XeLL.

robbitop
2025-10-27, 12:39:35
Ich schätze mal, dass das mit einer offiziellen implementierung deutlich besser aussieht. Denn alleine mit Super Resolution hast du schon das grundlegende Problem, dass alles was am Bildschirmrand aufgedeckt wird nur ein einziges Sample pro Pixel (oder bei upscaling viel weniger samples) hat. Bei Super Resolution müsste man also am Rand ähnliche Artefakte sehen. Und ja, in extremsituation kann das auch bei SR ein Problem werden, aber generell ist das kein Problem über das man hier diskutieren muss, weil es so stark minimiert wurde. Wenn dann stört Disocclusion innerhalb des Bildes, aber nicht am Rand.
Ja aber mit VRS eskaliertbzw strapaziert man es dann noch stärker.
Und Disocculusion ist schon noch ein Problem. DLSS4 hatte diesbezüglich ggü Model E Regressions. Und jetzt noch VRS on top - zumindest muss man das dann gewissenhaft tunen, dass es nicht auffällt.

Aber: grundsätzlich sehe ich das Potential auch. Wenn man das in guter BQ hinbekommt, bringt man MFG einen RIESEN Satz nach vorn.
Wobei es wahrscheinlich nur eine Frage der Zeit ist bis Intel/AMD das auch machen. Ist ja alles keine neue Erfindung und wird z.T. ja in VR schon angewendet. Wundert mich tatsächlich, dass das so lange rumschlummerte. LTT hatte vor ~2(?) Jahren ja mal ein Video dazu gemacht.

robbitop
2025-10-27, 12:45:35
Reflex ist erst mit FG in wirklich jedem AAA Game vorhanden. Was bedeutet, woher waren alle Spiele für dich unspielbar - selbst wenn du z.B. 120FPS im massiven GPU-Limit gehabt haben solltest.

Und natürlich kann man MFG mit "normalen" Frames vergleichen. Wenn MFG eine geringere Eingabeverzögerung hat als normale Frames, dann ist dies ja besser. Ohne Reflex musst du ja perse dafür sorgen, dass du im CPU-Limit bist.

Finde die Diskussions seit Lovelace daher so absurd. Woher hat sich niemand für die Eingabeverzögerung interessiert. Heute ist hier jeder ein Experte im Erfühlen von 10ms oder so.
Reflex gab es schon vor DLSS FG. Aber ja war noch nicht ganz so verbreitet. Aber den gleichen Effekt konnte man auch haben wenn man nicht im absoluten GPU Limit gespielt hat ("zu starke GPU" für das was ansteht oder aber einen Framelimiter genutzt hat).

Ich sehe außerhalb von Marketingfolien nicht warum man Reflex (bzw dynamische Framelimiter) mit FG Techniken in einen Topf werfen muss. Sind zwei verschiedene Dinge. Aber ja es macht Sinn beides zu kombinieren.

Es geht auch nicht um 10 ms. Spiel selbst mal CP77 mit 40 fps mit MFG und Reflex - probiere es mal aus. Es ist nicht subtil. Es ist wirklich sofort erkennbar und sofort nervig. Zumindest mit M/T.

Was ich total abwegig finde ist, diese Techniken in einen Topf zu werfen und niedrige Frameraten schön zu reden und diese Techniken nicht als Techniken zu sehen. Marketinggeplapper IMO.

Relex
2025-10-27, 12:50:54
Ja aber mit VRS eskaliertbzw strapaziert man es dann noch stärker.
Und Disocculusion ist schon noch ein Problem. DLSS4 hatte diesbezüglich ggü Model E Regressions. Und jetzt noch VRS on top - zumindest muss man das dann gewissenhaft tunen, dass es nicht auffällt.



Disocclusion in der Mitte des Bildes ja, aber doch nicht generell und durchgehend am Rand des Bildes immer sobald man die Kamera bewegt? Das ist weder bei TAA, noch FSR oder DLSS ein relevantes Problem. Man kann es provozieren, wenn mans drauf anlegt, aber generell kein relevantes Problem. Wenn über disocclusion artefakte gesprochen wird, dann eher in der Bildmitte wenn z.B. ein Charakter sich bewegt und irgendwas aufdeckt.

Und wer sagt denn dass VRS genutzt werden muss?
VRS ist nur ein Workaround für die Demo, um die Last niedrig zu halten.

Mein Gedanke war eben, dass man das bisschen an zusätzlichen Daten sicher auch noch via SR und/oder FG oder irgend einem ähnlichen Algorithmus herbeizaubern kann. Ich würde sogar vermuten, dass die Synergie mit bisherigen Features Essenziell für eine hohe Bildqualität sein wird. Nicht umsonst steht im DLSS entwickler overlay bei der Frame Generation seit dem Release von DLSS4 die Option "Warp on/off".
Mittlerweile sind wie gesagt bis zu 94% der Pixel generiert, da sollte es an ein paar mehr Pixeln nicht scheitern und wenn DLSS am rand eh schon mehr rendern sollte, als man braucht, um eben Artefakte bei Kameraschwenks zu minimieren, dann hätte man die Bildinformationen die man fürs inpainting bei Reflex 2 braucht eh schon längst. Aber wie gesagt, das ist spekulation. Ich weiß nicht, wie DLSS und co. im Detail implementiert werden.

Gast
2025-10-27, 13:26:02
Ja ohne Optiscaler ist alles relativ suboptimal meistens wenn man keine aktuelle Geforce hat. Würde ich auch so sehen. Aber mit Optiscaler ist es dann wieder okay.

Lustig wie du versuchst mit Optiscaler zu argumentieren, dabei aber grundlegende Dinge zu FSR Frame Generation (absichtlich?!) ignorierst. Und nein mit Optiscaler ist es nicht "okay". Die Funktionalität bleibt eingeschränkt, die Latenzen viel zu hoch und Treiber-VSync funktioniert auch nicht damit. Versuch es nächstes Mal bitte mit echten Argumenten. So wirkt es deinerseits eher wie ein Schlucksprech...

Ich habe CP77 mit Reflex und MFG getestet mit 40 fps baseframerate. Kaugummi. Entweder hast du es nicht getestet oder man kann sämtliche Aussagen zu dir mit Latenz in diesem Thread nicht ernst nehmen.

Das waren Beispiele.... es gibt genügsamere Titel. Und wenn dir 40fps nicht genug sind, was ist mit 50fps? Das ist halt alles subjektives Empfinden. Aber wenn du jetzt mit MFG rumjammerst, dann dürftest du weder FSR Frame Generation noch Lossless Scaling verwenden, welche eine deutlich höhere Bildrate bei vergleichbarer Latenz benötigen.

Gast
2025-10-27, 13:33:45
Reflex gab es schon vor DLSS FG. Aber ja war noch nicht ganz so verbreitet. Aber den gleichen Effekt konnte man auch haben wenn man nicht im absoluten GPU Limit gespielt hat ("zu starke GPU" für das was ansteht oder aber einen Framelimiter genutzt hat).

Das stimmt so nicht, CDPR bot es anfangs in Cyberpunk 2077 erst mit dem erscheinen von DLSS 3 an.

robbitop
2025-10-27, 13:42:26
Disocclusion in der Mitte des Bildes ja, aber doch nicht generell und durchgehend am Rand des Bildes immer sobald man die Kamera bewegt?

Ggf. fiel es nicht auf weil es im periphären Sichtbereich ist. Aber der Mechanismus ist doch der gleiche. Es wird in einem Frame etwas gezeigt was in Vorgängerframes nicht zu sehen war.



Und wer sagt denn dass VRS genutzt werden muss?
VRS ist nur ein Workaround für die Demo, um die Last niedrig zu halten.

Ja das verstehe ich bzw ist mir klar. Ich sage ja auch nur wenn man es nutzen will muss man halt aufpassen, dass es optisch geschmeidig bleibt. :)
Ggf kann man das auch dynamisch tunen in dem man feststellt wie viel in etwa aufgedeckt wird und dann on demand mehr oder weniger extra rechnen. Anhand des Mouse/Controller inputs müsste man das ja antizipieren können.



Mein Gedanke war eben, dass man das bisschen an zusätzlichen Daten sicher auch noch via SR und/oder FG oder irgend einem ähnlichen Algorithmus herbeizaubern kann. Ich würde sogar vermuten, dass die Synergie mit bisherigen Features Essenziell für eine hohe Bildqualität sein wird. Nicht umsonst steht im DLSS entwickler overlay bei der Frame Generation seit dem Release von DLSS4 die Option "Warp on/off".
Mittlerweile sind wie gesagt bis zu 94% der Pixel generiert, da sollte es an ein paar mehr Pixeln nicht scheitern und wenn DLSS am rand eh schon mehr rendern sollte, als man braucht, um eben Artefakte bei Kameraschwenks zu minimieren, dann hätte man die Bildinformationen die man fürs inpainting bei Reflex 2 braucht eh schon längst. Aber wie gesagt, das ist spekulation. Ich weiß nicht, wie DLSS und co. im Detail implementiert werden.
Ja sehe ich auch so. Ist einfach nur eine Frage des entsprechenden tunings.

robbitop
2025-10-27, 13:50:47
Lustig wie du versuchst mit Optiscaler zu argumentieren, dabei aber grundlegende Dinge zu FSR Frame Generation (absichtlich?!) ignorierst. Und nein mit Optiscaler ist es nicht "okay". Die Funktionalität bleibt eingeschränkt, die Latenzen viel zu hoch und Treiber-VSync funktioniert auch nicht damit. Versuch es nächstes Mal bitte mit echten Argumenten. So wirkt es deinerseits eher wie ein Schlucksprech...
Bleib mal in einem objektiven Ton ansonsten kann man dich nicht ernstnehmen.
Du bleibst noch Belege schuldig, dass die Latenz "viel zu hoch ist". (per Optiscaler wird ja AL2, XeSS-LL oder latencyflex genutzt). Also belege doch bitte das fps normiert die Latenz wesentlich (du schreibst "viel zu hoch") schlechter sein soll. Das wäre nach meinem Dafürhalten eine normierte fps rate und dann DLSS FG + Reflex vs FSR4/XeSS + AL2/XeSS-LL und dann die gemessene Latenz.

Weiterhin gibt es einen Beleg, dafür dass AL2 nicht mit VSync funktioniert? Und: gilt das auch für XeSS-LL (was mit Optiscaler ja auch nutzbar ist) und für LatencyFlex (was mit Optiscaler auch nutzbar ist)?

Bis dato lese ich nur Behauptungen.





Das waren Beispiele.... es gibt genügsamere Titel. Und wenn dir 40fps nicht genug sind, was ist mit 50fps? Das ist halt alles subjektives Empfinden. Aber wenn du jetzt mit MFG rumjammerst, dann dürftest du weder FSR Frame Generation noch Lossless Scaling verwenden, welche eine deutlich höhere Bildrate bei vergleichbarer Latenz benötigen.
Es waren von dir gewählte Beispiele. Und dann treffen die nicht mal zu. Dann braucht man sich auch nicht mehr herauszureden.

Und ja ich kritisiere nicht ein konkretes MFG Verfahren sondern sehe den Einsatz von FG/MFG einfach nicht bei niedrigen Framerates weil dort prinzipbedingt bereits out of the box der Inputlag zu niedrig ist. Und selbst Nvidia selbst empfiehlt ab 60 fps.

Und natürlich gilt dass für alle FG/MFG Verfahren unabhängig vom Vendor.

Jedenfalls wenn im gleichen Diagramm 160 fps mit MFG sind und dann Werte ohne MFG muss man sie vergleichen. Und 40@160fps sehen schlechter aus (das ganze gegarble Artefakt in CP77 wenn man auf den Wüstenstraßen bspw mit dem Auto fährt und auch sonst sieht man die motion interpolation Artefakte öfter) und fühlen sich deutlich deutlich schwammiger an als echte 160 fps.
Wo er hingegen richtig geil ist, wenn man ~2x so viele input fps hat. Also 70-80 fps. Dann gibt es weniger Artefakte und das Mausgefühl ist viel direkter. Und dann kann man mit 4x einen 360 Hz OLED deutlich mehr Bewegtschärfe (und damit mehr BQ (weil mehr sichtbare Details) im bewegten Bild) abringen.

Gast
2025-10-27, 14:01:41
Es waren von dir gewählte Beispiele. Und dann treffen die nicht mal zu. Dann braucht man sich auch nicht mehr herauszureden.

Und ja ich kritisiere nicht ein konkretes MFG Verfahren sondern sehe den Einsatz von FG/MFG einfach nicht bei niedrigen Framerates weil dort prinzipbedingt bereits out of the box der Inputlag zu niedrig ist. Und selbst Nvidia selbst empfiehlt ab 60 fps.

Und natürlich gilt dass für alle FG/MFG Verfahren unabhängig vom Vendor.

Es waren alles valide Punkte, ich saug mir das ja nicht aus den Fingern. Technologienachteile fängst du damit nicht auf, so zu tun und Optiscaler installieren und alles sei perfekt, so einfach ist es eben nicht es, für AMD User welche bislang nur mit FSR1/2/3 - Upscalern auskommen mussten, da kann ich den Griff nach diesen Strohhalm schon nachvollziehen.
Und wo ist bitte die Quelle, dass NVIDIA 60fps für Frame Generation empfiehlt?

Gast
2025-10-27, 14:09:43
Jedenfalls wenn im gleichen Diagramm 160 fps mit MFG sind und dann Werte ohne MFG muss man sie vergleichen. Und 40@160fps sehen schlechter aus (das ganze gegarble Artefakt in CP77 wenn man auf den Wüstenstraßen bspw mit dem Auto fährt und auch sonst sieht man die motion interpolation Artefakte öfter) und fühlen sich deutlich deutlich schwammiger an als echte 160 fps.
Wo er hingegen richtig geil ist, wenn man ~2x so viele input fps hat. Also 70-80 fps. Dann gibt es weniger Artefakte und das Mausgefühl ist viel direkter. Und dann kann man mit 4x einen 360 Hz OLED deutlich mehr Bewegtschärfe (und damit mehr BQ (weil mehr sichtbare Details) im bewegten Bild) abringen.

Alles Dinge die du da selber hineininterpretierst und ich nicht behauptet habe, ich hab auch nicht von 4x MFG gesprochen, noch den Vergleich zu echten Frames gezogen.

robbitop
2025-10-27, 14:14:55
Das stimmt so nicht, CDPR bot es anfangs in Cyberpunk 2077 erst mit dem erscheinen von DLSS 3 an.
Gab ja auch noch andere Spiele die Reflex unabhängig von DLSS 3 FG hatten.

zB:
Apex Legends - Hat bis heute nur Reflex, kein DLSS Frame Generation​
Fortnite - Hat bis heute nur Reflex, kein DLSS Frame Generation​​
Valorant - Hat bis heute nur Reflex, kein DLSS Frame Generation
Call of Duty: Modern Warfare (bereits 2020 verfügbar)
Call of Duty: Warzone (frühe Reflex-Unterstützung)
Destiny 2
Overwatch 2
Counter-Strike 2 (als CS:GO bereits früh unterstützt)
Rainbow Six Siege
Rocket League
Red Dead Redemption 2


Und wo ist bitte die Quelle, dass NVIDIA 60fps für Frame Generation empfiehlt?
Das wurde in jedem zweiten Techreview von DLSS gesagt, dass die Empfehlung von Nvidia kam. Wahrscheinlich dann im Briefing dazu.

Alles Dinge die du da selber hineininterpretierst und ich nicht behauptet habe, ich hab auch nicht von 4x MFG gesprochen, noch den Vergleich zu echten Frames gezogen.
Das war nicht notwendigerweise speziell auf dich bezogen sondern allgemein zur Kontroverse in diesem Thread.

Es waren alles valide Punkte, ich saug mir das ja nicht aus den Fingern. Technologienachteile fängst du damit nicht auf, so zu tun und Optiscaler installieren und alles sei perfekt, so einfach ist es eben nicht es, für AMD User welche bislang nur mit FSR1/2/3 - Upscalern auskommen mussten, da kann ich den Griff nach diesen Strohhalm schon nachvollziehen.

Es ist sinnvoll für AMD User aber auch Intel User und Geforce 3000/2000 User. Beispielsweise können Geforce RTX 3080/3090 Usern ihren GPUs damit einen zweiten Frühling mit FG bescheren, der ihnen verwehrt blieb. (Obwohl mittlerweile alles auf den Tensor Cores läuft und der ach so wichtige Flow Accelerator brach liegt.) Und weiterhin: wo soll die Latenz ganz konkret fps normiert "viel schlechter" mit XeSS-LL/AL2/Latencyflex als mit Reflex sein. Hast du da konkrete Zahlen und Screenshots? Ansonsten ist nicht viel mit "validen Punkten" die "nicht aus den Fingern gesogen" worden sind.

dargo
2025-10-27, 14:23:53
Bleib mal in einem objektiven Ton ansonsten kann man dich nicht ernstnehmen.
Du bleibst noch Belege schuldig, dass die Latenz "viel zu hoch ist". (per Optiscaler wird ja AL2, XeSS-LL oder latencyflex genutzt). Also belege doch bitte das fps normiert die Latenz wesentlich (du schreibst "viel zu hoch") schlechter sein soll. Das wäre nach meinem Dafürhalten eine normierte fps rate und dann DLSS FG + Reflex vs FSR4/XeSS + AL2/XeSS-LL und dann die gemessene Latenz.

Weiterhin gibt es einen Beleg, dafür dass AL2 nicht mit VSync funktioniert? Und: gilt das auch für XeSS-LL (was mit Optiscaler ja auch nutzbar ist) und für LatencyFlex (was mit Optiscaler auch nutzbar ist)?

Bis dato lese ich nur Behauptungen.

Respekt für deinen Geduldsfaden für diesen Trollgast. :eek: Diese neumodischen Krebsgeschwüre in Foren wird man leider nicht los.
https://i.postimg.cc/2qcNdWbS/Ghost-Of-Tsushima-2025-10-27-14-18-01-687.jpg (https://postimg.cc/2qcNdWbS) https://i.postimg.cc/k2s09Scd/Ghost-Of-Tsushima-2025-10-27-14-15-58-268.jpg (https://postimg.cc/k2s09Scd)

btw.
Falls es nicht direkt klar wird... mit 240Hz bin ich noch zu weit mit meinem System von diesen entfernt, deshalb das Beispiel mit 120Hz zusätzlich.

Gast
2025-10-27, 14:26:14
Gab ja auch noch andere Spiele die Reflex unabhängig von DLSS 3 FG hatten.

zB:
Apex Legends - Hat bis heute nur Reflex, kein DLSS Frame Generation​
Fortnite - Hat bis heute nur Reflex, kein DLSS Frame Generation​​
Valorant - Hat bis heute nur Reflex, kein DLSS Frame Generation
Call of Duty: Modern Warfare (bereits 2020 verfügbar)
Call of Duty: Warzone (frühe Reflex-Unterstützung)
Destiny 2
Overwatch 2
Counter-Strike 2 (als CS:GO bereits früh unterstützt)
Rainbow Six Siege
Rocket League
Red Dead Redemption 2

Aber nicht vorher wie von Dir behauptet, also bitte... :) CS:GO unterstützt PRF seit mehr als einer Dekade über die NV Treiber, hat aber mit NV Reflex direkt in der Renderpipeline festgelegt, nur oberflächlich zu tun.
Es ging doch viel mehr darum, wie die Leute früher ohne NV Reflex(+Boost) ihre Games genießen konnten! Man erinnere sich an Games wie F.E.A.R oder Crysis anno 2007 wo zum Launch kaum mehr als 30fps heraussprangen... wo kommt der plötzliche Anspruch her???

Gast
2025-10-27, 14:41:04
Das wurde in jedem zweiten Techreview von DLSS gesagt, dass die Empfehlung von Nvidia kam. Wahrscheinlich dann im Briefing dazu.

Wirst du nicht finden, da es diese Empfehlung seitens NV offiziell nicht gibt.

Das war nicht notwendigerweise speziell auf dich bezogen sondern allgemein zur Kontroverse in diesem Thread.

Ok

Es ist sinnvoll für AMD User aber auch Intel User und Geforce 3000/2000 User. Beispielsweise können Geforce RTX 3080/3090 Usern ihren GPUs damit einen zweiten Frühling mit FG bescheren, der ihnen verwehrt blieb. (Obwohl mittlerweile alles auf den Tensor Cores läuft und der ach so wichtige Flow Accelerator brach liegt.) Und weiterhin: wo soll die Latenz ganz konkret fps normiert "viel schlechter" mit XeSS-LL/AL2/Latencyflex als mit Reflex sein. Hast du da konkrete Zahlen und Screenshots? Ansonsten ist nicht viel mit "validen Punkten" die "nicht aus den Fingern gesogen" worden sind.

Zweiter Frühling, solch ein Schwachsinn. Sorry da kann ich nur darüber lachen und ist in gewisser Weise auch bezeichnend, da du das selber nie wirklich ausprobiert hast! Ich hab mit einer 3080Ti mehr Nachteile mit AMD's Frame Generation in jedem Spiel ( Beispiele habe ich genannt ) hohen Latenzen, Tearing und Feature Einschränkungen. Deine Argumentationskette stützt sich also rein auf Optiscaler und deiner Theorie gut, dann haben wir das ja geklärt. :)

dargo
2025-10-27, 15:02:11
Es ging doch viel mehr darum, wie die Leute früher ohne NV Reflex(+Boost) ihre Games genießen konnten! Man erinnere sich an Games wie F.E.A.R oder Crysis anno 2007 wo zum Launch kaum mehr als 30fps heraussprangen... wo kommt der plötzliche Anspruch her???
Früher waren Menschen mit der Kutsche mobil, möchtest du das heute wieder zurück?

Gast
2025-10-27, 15:04:25
Ohne Reflex wäre für dich jedes Spiel unspielbar. Wäre Reflex keine frei nutzbare Option, würde (M)FG sich immer besser anfühlen.

Robbitop stützt sich rein auf seinen Optiscaler, alle anderen Nachteile bzw. die Allgemeinheit (das Gro der Kunden!) sowie Nachteile + technische Limits wischt er komplett bei Seite... Mit einer 3080Ti, DLSS 4 Performance will er uns weiß machen, dass ne matschige FSR FG-Implementierung und >90ms PC Latenz einen zweiten Frühling auslösen würde... LOL :) Aber er will es auch nicht verstehen.

Troyan
2025-10-27, 15:13:38
Reflex gab es schon vor DLSS FG. Aber ja war noch nicht ganz so verbreitet. Aber den gleichen Effekt konnte man auch haben wenn man nicht im absoluten GPU Limit gespielt hat ("zu starke GPU" für das was ansteht oder aber einen Framelimiter genutzt hat).

Ich sehe außerhalb von Marketingfolien nicht warum man Reflex (bzw dynamische Framelimiter) mit FG Techniken in einen Topf werfen muss. Sind zwei verschiedene Dinge. Aber ja es macht Sinn beides zu kombinieren.

nVidia benötigt Reflex, um FG überhaupt sinnvoll verwendbar zu machen. Daher war es integraler Bestandteil. Das ist der Grund, wieso diese ganzen Diskussionen sinnlos sind, weil vor Lovelace mit FG Reflex zum Großteil nur in Multiplayerspielen verwendet wurde. Jetzt ist es in fast jedem Spiel enthalten.


Es geht auch nicht um 10 ms. Spiel selbst mal CP77 mit 40 fps mit MFG und Reflex - probiere es mal aus. Es ist nicht subtil. Es ist wirklich sofort erkennbar und sofort nervig. Zumindest mit M/T.

Was ich total abwegig finde ist, diese Techniken in einen Topf zu werfen und niedrige Frameraten schön zu reden und diese Techniken nicht als Techniken zu sehen. Marketinggeplapper IMO.

Habe CP77 mit Pathtracing auf meiner 4090 gezockt. Das lief nativ mit 45x Frames oder so in 1440p. Das war mit Reflex und FG vollkommen okay spielbar.

Was ich total abwege finde ist, dass immer noch nicht verstanden wird, wie die Techniken zusammenhängen und was für Auswirkungen die haben. Ich spiele aktuell Star Wars Outlaws und das ist ohne MFG auf dem OLED kaum genießbar. Ohne Blur "ruckelt" es wegen dem Strobing-Effekt bei VRR wie nichts. Erst MFG erzeugt soviele Bilder, dass es angenehm ist. Die Latenz ist dabei vollkommen egal, merkt niemand bei 45 FPS+.

Gast
2025-10-27, 15:14:49
Habe CP77 mit Pathtracing auf meiner 4090 gezockt. Das lief nativ mit 45x Frames oder so in 1440p. Das war mit Reflex und FG vollkommen okay spielbar.


So ist es auch jetzt noch.

dargo
2025-10-27, 15:23:18
Habe CP77 mit Pathtracing auf meiner 4090 gezockt. Das lief nativ mit 45x Frames oder so in 1440p. Das war mit Reflex und FG vollkommen okay spielbar.

Was ich total abwege finde ist, dass immer noch nicht verstanden wird, wie die Techniken zusammenhängen und was für Auswirkungen die haben. Ich spiele aktuell Star Wars Outlaws und das ist ohne MFG auf dem OLED kaum genießbar. Ohne Blur "ruckelt" es wegen dem Strobing-Effekt bei VRR wie nichts. Erst MFG erzeugt soviele Bilder, dass es angenehm ist. Die Latenz ist dabei vollkommen egal, merkt niemand bei 45 FPS+.
Comedy pur wieder, du klingst wie ein Konsolenspieler ohne Anspruch an eine direkte Maussteuerung. Und dafür holst du dir jede Gen den Topdog? Einfach nur verrückt.

The_Invisible
2025-10-27, 15:28:47
Früher waren Menschen mit der Kutsche mobil, möchtest du das heute wieder zurück?

Kommt von jemanden der RT/PT verteufelt :freak: Außerdem haben nur eine handvoll Spiele Antilag 2 implementiert und du hast du MFG noch nie in Natura gesehen, sehr objektiv mal wieder

Maorga
2025-10-27, 16:07:28
Könnten wir mal bitte zurück zu DLSS kommen. Ich bin auf Neuigkeiten über DLSS gespannt, alles andere gehört doch hier nicht rein.

dargo
2025-10-27, 16:11:10
Außerdem haben nur eine handvoll Spiele Antilag 2 implementiert und du hast du MFG noch nie in Natura gesehen, sehr objektiv mal wieder
Und der nächste Troll kommt angekrochen. :facepalm: Man muss kein MFG kennen wenn man schon 2x FG kennt. Einfachste Basics.
btw.
Bei mir haben alle Games die ich spiele AL2, also troll dich weiter.

Kommt von jemanden der RT/PT verteufelt :freak:
Du hast da irgendeinen Knoten da oben. Ich habe gestern AC: Shadows vollendet welches RT nutzt.

Robbitop stützt sich rein auf seinen Optiscaler, alle anderen Nachteile bzw. die Allgemeinheit (das Gro der Kunden!) sowie Nachteile + technische Limits wischt er komplett bei Seite... Mit einer 3080Ti, DLSS 4 Performance will er uns weiß machen, dass ne matschige FSR FG-Implementierung und >90ms PC Latenz einen zweiten Frühling auslösen würde... LOL :) Aber er will es auch nicht verstehen.
Blöd nur, dass robbitop eine RTX 5070TI hat, aber mach dich ruhig weiter zum Affen hier. :uup:

Gast
2025-10-27, 16:44:08
Das wurde in jedem zweiten Techreview von DLSS gesagt, dass die Empfehlung von Nvidia kam. Wahrscheinlich dann im Briefing dazu.


Da wirst du nichts offizielles finden, da es keine solche Empfehlung seitens NVIDIA gibt.

Flusher
2025-10-27, 17:22:03
Ich bin mittlerweile lost - Reflex, VRR, V-Sync, Framelimiter...

Welche Kombination an Settings gibt mir den geringsten Inputlag?!

Gast
2025-10-27, 18:07:54
Ich bin mittlerweile lost - Reflex, VRR, V-Sync, Framelimiter...

Welche Kombination an Settings gibt mir den geringsten Inputlag?!

Single oder Multiplayer? G-Sync Monitor? Im Singleplayer wäre mir die bessere Gaming-Erfahrung wichtiger, d.h. bestmögliche Frametimes ohne Screen Tearing.

Singleplayer -> Treiber oder Ingame VSYNC aktivieren - > Low Latency (Ein oder Ultra <- gibt einige Edge-Cases wo Ultra mehr Stutter erzeugt) oder NV Reflex + Boost (die Referenz-Methode für niedrigste Latenz)

Multiplayer -> VSYNC deaktivieren -> Low Latency (Ultra) oder NV Reflex/ Boost (die Referenz-Methode für niedrigste Latenz)

Framelimiter sind weitgehend unnötig, VSYNC - CPU Frame Render Queue wird mit Low Latency Ultra oder Reflex minimiert.

Relex
2025-10-27, 18:28:55
Könnten wir mal bitte zurück zu DLSS kommen. Ich bin auf Neuigkeiten über DLSS gespannt, alles andere gehört doch hier nicht rein.


Ich denke nicht, dass es zielführend ist, einen separaten Thread für DLSS SR, DLSS RR, DLSS FG, DLSS MFG, Reflex und was weiß ich alles aufzumachen, wenn am ende sowieso alles zusammenspielt und aus einer Hand kommt.


Übrigens hat CB heute Latenzmessungen mit der Demo gemacht. https://www.computerbase.de/news/grafikkarten/nvidia-reflex-2-mod-ermoeglicht-test-in-frueher-version-plus-ldat-messung.94802/

Bei 144 FPS reduziert sich die Latenz von 24 ms auf 5 ms.
Das kann sich sehen lassen.

dargo
2025-10-27, 19:19:11
Bei 144 FPS reduziert sich die Latenz von 24 ms auf 5 ms.
Das kann sich sehen lassen.
Ruhig Brauner.

Allzu hoch ist die Aussagekraft aus verschiedenen Gründen jedoch nicht. So ist es unklar, ob die finale Version von Reflex 2 dieselben Ergebnisse zeigt wie die „gehackte“, nicht offizielle Variante. Und dann stellt sich die Frage, ob in Spielen dieselben Ergebnisse erzielt werden können wie in der Techdemo. Und darüber hinaus ist es unklar, wie denn der Wert ohne Reflex 2 in der Demo überhaupt entsteht. Zum Beispiel ist es unklar, ob dort das normale Reflex genutzt wird. Das und das große Fragezeichen bei der Bildqualität wird erst zum offiziellen Start von Reflex 2 geklärt werden können.

Wenn schon Nvidia 9 Monate daran sitzt und immer noch nicht liefert scheint die Sache komplizierter zu sein als zuerst gedacht.

Flusher
2025-10-27, 20:52:21
Single oder Multiplayer? G-Sync Monitor? Im Singleplayer wäre mir die bessere Gaming-Erfahrung wichtiger, d.h. bestmögliche Frametimes ohne Screen Tearing.

Singleplayer -> Treiber oder Ingame VSYNC aktivieren - > Low Latency (Ein oder Ultra <- gibt einige Edge-Cases wo Ultra mehr Stutter erzeugt) oder NV Reflex + Boost (die Referenz-Methode für niedrigste Latenz)

Multiplayer -> VSYNC deaktivieren -> Low Latency (Ultra) oder NV Reflex/ Boost (die Referenz-Methode für niedrigste Latenz)

Framelimiter sind weitgehend unnötig, VSYNC - CPU Frame Render Queue wird mit Low Latency Ultra oder Reflex minimiert.

Monitor is Gsync kompatibel.


Apex Legends spiele ich am meisten

Neuerdings auch Grenzländer 4.

ChatGPT spuckt folgendes aus:

Ultimate Low-Latency Setup für Apex (VRR + RTX 5080 + 175 Hz OLED)
1️⃣ VRR (G-Sync oder FreeSync)

Aktiviert lassen.
→ Das ist dein Tearing-Killer und sorgt dafür, dass jedes Frame punktgenau kommt, ohne Buffer-Lag.

2️⃣ V-Sync

Im Spiel: AUS

Im NVIDIA Control Panel: EIN (nur im Treiber!)
→ Das klingt widersprüchlich, ist aber der bekannte „G-Sync + V-Sync im Treiber“-Trick:
G-Sync übernimmt das Timing, V-Sync springt nur ein, wenn du über die 175 Hz schießt – ohne zusätzliche Latenz im Normalbetrieb.

3️⃣ Framelimiter

Limit auf 172–173 FPS (also 2–3 FPS unter 175 Hz)
→ Am besten via RTSS (RivaTuner), nicht im Spiel.
→ Verhindert, dass du das G-Sync-Fenster verlässt und die Render-Queue wächst.

4️⃣ NVIDIA Reflex

Im Spiel aktivieren → „Ein + Boost“
→ „Boost“ hält den GPU-Takt konstant, wenn CPU-lastige Szenen droppen – stabilisiert die Latenz.

5️⃣ Weitere Feinheiten

Low Latency Mode (NVIDIA Control Panel): AUS (Reflex ersetzt das)

Vollbildmodus, nicht Borderless Window

Framegen (DLSS 3 / Frame Generation): AUS, wenn du wirklich den kleinsten Lag willst
(Framegen verdoppelt FPS, aber auch die Eingabeverzögerung leicht).

HDR optional, Inputlag bleibt praktisch unverändert auf OLEDs.

Gast
2025-10-27, 21:23:24
Monitor is Gsync kompatibel.


Apex Legends spiele ich am meisten

Neuerdings auch Grenzländer 4.

ChatGPT spuckt folgendes aus:

Das was ChatGPT da auswirft, ist eher allgemein gehalten und schließt Freesync von AMD mit ein. Manuelle Frame Limits benötigst du seit NVIDIA Low Latency/Reflex nicht mehr wirklich, das funktioniert in aller Regel automatisch und wird vom Game oder Grafiktreiber selbst erledigt.

x-force
2025-10-28, 00:46:51
Und der Inputlag mit 40 fps ist bereits furchtbar. Darum geht es ja niedrige base fps sind furchtbar.

definitiv, mir gings nur um die falschdarstellung von dargo.

Es geht auch nicht um 10 ms. Spiel selbst mal CP77 mit 40 fps mit MFG und Reflex - probiere es mal aus. Es ist nicht subtil. Es ist wirklich sofort erkennbar und sofort nervig. Zumindest mit M/T.

teste mal unbedingt die neue jahrmarkt techdemo.
uwqhd mit dlaa und reflex boost ergeben mit der 5070ti 25fps und imo fühlt sich das ziemlich direkt an.
4xmfg gibt ~85fps und fühlt sich imo vielleicht sogar besser als 2x mfg @ 85fps in cp2077 an, was vielleicht 50fps basis entspricht.

dargo
2025-10-28, 07:53:17
definitiv, mir gings nur um die falschdarstellung von dargo.

Ich habe nirgendwo was falsch dargestellt. Du findest mal wieder nicht den Kontext. Das zeigt schon mehr als deutlich dein Post hier.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13832611&postcount=8080

Ich hatte am Beispiel von HWU gezeigt was 40 Baseframes mit 4x MFG bedeuten. Hier muss nur jeder zu den 65,1ms wenige ms drauflegen weil HWU 3x MFG im Beispiel mit 40 Baseframes hat. Jedes Kind weiß, dass wenn seine Karte schon 78 Frames ohne (M)FG schafft es kompletter Bullshit wäre mit 160fps @4x MFG zu spielen und somit 40 Baseframes. Was du hier machst ist non FG Latenzen mit 4x MFG Latenzen @schnellste, verfügbare Grafikkarte zu vergleichen, das war aber nicht das Thema!

robbitop
2025-10-28, 08:48:17
Zweiter Frühling, solch ein Schwachsinn. Sorry da kann ich nur darüber lachen und ist in gewisser Weise auch bezeichnend, da du das selber nie wirklich ausprobiert hast! Ich hab mit einer 3080Ti mehr Nachteile mit AMD's Frame Generation in jedem Spiel ( Beispiele habe ich genannt ) hohen Latenzen, Tearing und Feature Einschränkungen. Deine Argumentationskette stützt sich also rein auf Optiscaler und deiner Theorie gut, dann haben wir das ja geklärt. :)
Ich habe es sehr intensiv auf meiner RTX3080 genutzt bevor ich meine 5070ti gekauft habe. Ich hatte überhaupt kein Tearing.

Du hast nach wie vor von all dem keine Belege gepostet - solange du das nicht tust, fehlt die Substanz. Und es tut deiner Kredibilität nicht gerade gut, dass du den objektiven Diskussionsstil, den gebildete erwachsene Menschen in einer zivilisierten Diskussion miteinander pflegen, verlässt.
Sachlich bleiben und: These, Argument, Beleg. Alles Andere verwässert ehrlich gesagt nur deine Position.

Robbitop stützt sich rein auf seinen Optiscaler, alle anderen Nachteile bzw. die Allgemeinheit (das Gro der Kunden!) sowie Nachteile + technische Limits wischt er komplett bei Seite... Mit einer 3080Ti, DLSS 4 Performance will er uns weiß machen, dass ne matschige FSR FG-Implementierung und >90ms PC Latenz einen zweiten Frühling auslösen würde... LOL :) Aber er will es auch nicht verstehen.
Ich habe eine RTX5070ti. Eine "RTX 3080TI" hatte ich nie. Ich hatte allerdings mal eine RTX3080.

Ich habe mehrfach in dieser Diskussion geschrieben, dass es bei meinen Posts um Optiscaler geht und ohne diesen out of the box durchaus oft die Situation entsteht, wo man als Nicht RTX4000+ User Nachteile hat. Diese lassen sich durch Optiscaler größtenteils ausräumen:
- DLSS lässt sich in FSR4 umleiten was ein kompetenter Upscaler ist mittlerweile (FSR1-3.1 waren es nicht IMO)
- DLSS FG lässt sich in FSR FG (BQ ist schlechter als DLSS FG - aber bei 2x fällt es kaum aus), XeSS FG (BQ ist besser als DLSS FG) umleiten. Es sollte nicht mehr lange dauern bis man XeSS-MFG auch nutzen können wird
- Reflex lässt sich in AL2, Latencyflex und XeSS-LL umleiten

Fehlt eigentlich nur Rayreconstruction (AMD + Intel -> Geforce 2000/3000 haben es) und MFG was man aktuell nicht zur Verfügung hat. Ab Redstone wird sich ersteres ändern und mit dem ersten release der Intel XeSS-MFG dll wird sich letzteres lösen.

Aber wie gesagt wer den nicht nutzt hat Nachteile. Out of the box hat man defintiv die Nachteile die du nennst. Das ist offensichtlich und stand nie zur Debatte.

Da wirst du nichts offizielles finden, da es keine solche Empfehlung seitens NVIDIA gibt.
Das halte ich für unwahrscheinlich. Die Journalisten wurden von Nvidia gebrieft vor dem Release und es ist extrem unwahrscheinlich, dass die Mehrheit unabhängig voneinander exakt das gleiche schreibt/erzählt, ohne dass sie damit gebrieft worden sind.

The_Invisible
2025-10-28, 09:02:01
Bei mir haben alle Games die ich spiele AL2, also troll dich weiter.


Also viel kannst dann nicht übers ganze Jahr zocken, oder zockst jahrelang nur die gleichen Games?


Du hast da irgendeinen Knoten da oben. Ich habe gestern AC: Shadows vollendet welches RT nutzt.

Also findest RT und PT jetzt doch geil? Kenn mich nicht mehr aus, windest dich immer wie die Fahne im Sturm...

robbitop
2025-10-28, 09:06:01
teste mal unbedingt die neue jahrmarkt techdemo.
uwqhd mit dlaa und reflex boost ergeben mit der 5070ti 25fps und imo fühlt sich das ziemlich direkt an.
4xmfg gibt ~85fps und fühlt sich imo vielleicht sogar besser als 2x mfg @ 85fps in cp2077 an, was vielleicht 50fps basis entspricht.
Jede Renderpipeline hat fps normiert andere Latenz. Ich glaube gern, dass es in einer Techdemo auch mal ein positives Beispiel gibt. Wenn man sich zB mal Counterstrike 2 anschaut hat das irre niedrige Latenz bei gleicher FPS im Vergleich zu den meisten modernen AAA Singleplayer Spielen.
Wenn die Renderpipeline dieser Spiele auch so schön optimiert wären - ja dann wäre die Notwendigkeit von guten Base FPS etwas weniger.
40 fps in CP77 mit MFG sahen optisch schon recht gut aus. Es war die Latenz die mich gestört hat. (wobei es je nach Situation auch mit hohen fps ordentlich Motion Artefacts gibt - aber da ist noch Raum nach oben siehe XeSS-FG).

Jedenfalls könnte Reflex2 (und entsprechende Äquivalente) da schon ein Gamechanger werden. :)


Was nur so deprimierend ist, dass die Speedups die es durch all diese Dinge gibt, wieder aufgefressen werden von vielen Studios weil sie es einpreisen (anstatt mehr Optimierung zu betreiben).
Prominentestes Beispiel ist ja der Post vom CEO vom Borderlands 4 Studio. ^^

Es gibt einen Youtube Kanal "Thread Interactive" der sich Frametimes aktueller Spiele anschaut und zeigt wie verschwenderisch mit Frametimes (insbesondere in UE Titeln) umgegangen wird und zeigt günstige Alternativen und wie viel Frametime das sparen kann. Leider ist der youtuber sehr aggressiv und vergreift sich im Ton was IMO etwas Glaubwürdigkeit kostet - aber der Inhalt sieht erstmal konkludent aus und unterstreicht eher die Beobachtungen die man seit Jahren machen kann.

robbitop
2025-10-28, 09:10:46
Also viel kannst dann nicht übers ganze Jahr zocken, oder zockst jahrelang nur die gleichen Games?


Ggf verweist dargo auch zusätzlich auf die Umleitung von Reflex auf AL2 mittels Optiscaler (bzw kann der Optiscaler zusätzlich wenn das Spiel es nicht unterstützt meine ich auch AL2/Reflex/LatencyFlex/XeSS-LL injecten sofern sie DLSS/FSR/XeSS unterstützen).


Also findest RT und PT jetzt doch geil? Kenn mich nicht mehr aus, windest dich immer wie die Fahne im Sturm...
Mein Eindruck ist, dass alles was kein gutes fps/BQ Verhältnis hat nicht präferiert ist. Unabhängig von RT/PT. RDNA4 reduziert die Kosten von RT/PT zwar - aber je nach Setting kann es trotzdem (selbst auf Blackwell) schnell zum fps Killer werden - und leider bringt es oft (aber nicht immer - CP77 und AW2 sehen schon geil aus) keine signifikanten optischen Vorteile.
Wenn das fps/BQ Verhältnis gut ist, ist es egal wie die Technik heißt. Und ich denke das ist ein objektiv sinnvoller Maßstab (aber nicht notwendigerweise der einzig valide - das muss ja jeder für sich selbst bewerten).

dargo
2025-10-28, 09:16:19
Also viel kannst dann nicht übers ganze Jahr zocken, oder zockst jahrelang nur die gleichen Games?

Hast du wieder nen Brett vorm Kopf oder was ist mit dir los? Junge... nur weil du den OptiScaler nicht kennst oder nicht bedienen kannst gilt das noch lange nicht für andere Spieler.


Also findest RT und PT jetzt doch geil?
Es ist ein Puzzleteil von vielen im Bereich Optik und solange es auf preiswerten Performancekarten gut läuft profitieren alle Spieler davon. Natürlich dauert es wieder einige Jahre bis die Masse ihre Grafikkarten aktualisiert. Ändert nichts am Fakt, dass die RT/PT Reise noch viele Jahre dauern wird bis der Impact nicht mehr so extrem reinhaut wenn man es nicht @höchste Sparbrötchen implementieren möchte bzw. muss.

robbitop
2025-10-28, 09:19:20
Aber nicht vorher wie von Dir behauptet, also bitte... :) CS:GO unterstützt PRF seit mehr als einer Dekade über die NV Treiber, hat aber mit NV Reflex direkt in der Renderpipeline festgelegt, nur oberflächlich zu tun.
Es ging doch viel mehr darum, wie die Leute früher ohne NV Reflex(+Boost) ihre Games genießen konnten! Man erinnere sich an Games wie F.E.A.R oder Crysis anno 2007 wo zum Launch kaum mehr als 30fps heraussprangen... wo kommt der plötzliche Anspruch her???
Ansprüche verändern sich. Das liegt in der Natur des Menschen. Weiterhin habe ich vor Reflex mit höheren fps gespielt (immer Enthusiast HW gekauft und wenn nötig fps reduziert oder fps limiter genutzt). Auch waren Renderpipelines früher mal fps normiert deutlich weniger cloggy als heutige.

Dazu habe ich schon seit den 2000ern niedrige fps (es geht ja hier um sowas wie 40 oder 50 fps was auch mit Reflex und MFG nicht geil ist) nie gemocht. Immer 60-80 fps angepeilt damit es flüssig war. Und wo es sich nicht vermeiden ließ weil die Spiele so fordernd waren (2007 mit Crysis) habe ich es dann auch sehr unschön empfunden und mich innerlich auf das nächste Upgrade gefreut für mehr fps und mehr fluppdizität.

Zu Reflex vor DLSS FG Launch (~November 2022) sagt Perplexity:


Spiele mit Nvidia Reflex vor November 2022
September 2020
17. September 2020 (Launch-Titel mit Game Ready Driver):

Fortnite – Release mit Reflex​

Valorant – Release mit Reflex​

Coming Soon angekündigt (September 2020):

Apex Legends – später 12. Oktober 2020​

Call of Duty: Black Ops Cold War – später November 2020​

Call of Duty: Warzone – später 28. September 2020​

Cuisine Royale / CRSED – später 11. Dezember 2020​

Destiny 2 – später 10. November 2020 (Beyond Light Update)​

Enlisted – später 14. Dezember 2020​

Kovaak 2.0 – später verfügbar​

Mordhau – später 7. Dezember 2020​

September - Oktober 2020
28. September 2020:

Call of Duty: Modern Warfare – Patch mit Reflex​

Call of Duty: Warzone – Patch mit Reflex​

12. Oktober 2020:

Apex Legends – Patch mit Reflex​

10. November 2020:

Destiny 2 – Beyond Light Update mit Reflex​

13. November 2020:

Call of Duty: Black Ops Cold War – Release mit Reflex​

Dezember 2020
7. Dezember 2020:

Mordhau – Patch mit Reflex​

11. Dezember 2020:

CRSED: F.O.A.D (früher Cuisine Royale) – Patch mit Reflex​

14. Dezember 2020:

Enlisted – Update mit Reflex​

18. November 2020:

Warface – Patch mit Reflex​

2021
Januar 2021 (CES Ankündigung):

Rainbow Six Siege – angekündigt für März 2021​

Overwatch – angekündigt für März 2021​

März 2021:

Overwatch – zunächst Public Test Realm, dann 13. März 2021 Live Release​

29. März 2021 / 1. April 2021:

Rainbow Six Siege – Technical Test Server, dann Live​

April 2021:

Rust – angekündigt April 2021, Release 6. Mai 2021​

Ghostrunner – angekündigt April 2021​

Mai 2021:

Escape from Tarkov – angekündigt bei Computex Mai 2021, später verfügbar​​

September 2021:

Deathloop – 14. September 2021 Release mit Reflex​

Splitgate – 27. September 2021 Update mit Reflex​

November 2021:

Battlefield 2042 – 12. November 2021 (Early Access) / 19. November 2021 (offizieller Release) mit Reflex​

Dezember 2021:

ICARUS – 4. Dezember 2021 Release mit DLSS und RTXGI (Reflex später hinzugefügt, Juli 2022)​

2022 (vor November)
14. Januar 2022:

God of War – PC Release mit DLSS und Reflex
Da sind auch Quellenangaben drin. Hier zum Nachschauen: https://www.perplexity.ai/search/kann-optiscaler-reflex-in-spie-8VCOsYlKRzSL3m5kBfec2A#1

Troyan
2025-10-28, 09:22:47
Ansprüche verändern sich. Das liegt in der Natur des Menschen. Weiterhin habe ich vor Reflex mit höheren fps gespielt (immer Enthusiast HW gekauft und wenn nötig fps reduziert oder fps limiter genutzt). Auch waren Renderpipelines früher mal fps normiert deutlich weniger cloggy als heutige.

Hohe Frames sagen überhaupt nichts aus. Außer du hast in <=1080p gespielt, um die GPU Last massiv zu reduzieren. Selbst bei 120 FPS bringt Reflex deutlich mehr als (M)FG kostet.

/edit:
Die Cronos Demo hat keinen dedizierten Schalter für Reflex. Sieht dann folgendermaßen aus - laut nVidia Overlay:
1440p mit erzwungeren DLAA bei 120 FPS: 34ms
1440p mit erzwungeren MFG bei 290 FPS: ~24ms

Seit drei Jahren führt man diese sinnlose Diskussion über Eingabeverzögerung mit Leuten, die jahrelang ohne Reflex nie ein Problem gesehen haben. Und jetzt kommen hier welche an, die meinen das die Erhöhung der Eingabeverzögerung durch (M)FG zu hoch wäre, wenn die selbst noch deutlich unter dem liegt, was man "nativ" ohne Reflex bei 120 FPS erreicht.

Einfach mal akzeptieren, dass man falsch liegt.


Zu Reflex vor DLSS FG Launch (~November 2022) sagt Perplexity:


Da sind auch Quellenangaben drin. Hier zum Nachschauen: https://www.perplexity.ai/search/kann-optiscaler-reflex-in-spie-8VCOsYlKRzSL3m5kBfec2A#1

Und waren fast ausnahmelos Multiplayer-Spiele. Wenn du also nicht nur die gezockt hast, war die gesamte AAA-Welt für dich eigentlich unspielbar.

dargo
2025-10-28, 10:13:14
Die Cronos Demo hat keinen dedizierten Schalter für Reflex. Sieht dann folgendermaßen aus - laut nVidia Overlay:
1440p mit erzwungeren DLAA bei 120 FPS: 34ms
1440p mit erzwungeren MFG bei 290 FPS: ~24ms

Und das holst du jetzt als Beispiel wenn das Game kein Reflex ohne (M)FG hat? :crazy: Du könntest glatt im Nvidia-Marketing arbeiten, denn genau diesen bullshit verkauft Nvidia immer wieder in deren Folien. Nur, dass Nvidia noch etwas mehr bullshit dabei zaubert indem die 4k nativ ohne Reflex mit 4k + Performance Upscaling + 4x MFG mit Reflex vergleichen.

robbitop
2025-10-28, 12:36:53
Hohe Frames sagen überhaupt nichts aus. Außer du hast in <=1080p gespielt, um die GPU Last massiv zu reduzieren. Selbst bei 120 FPS bringt Reflex deutlich mehr als (M)FG kostet.

/edit:
Die Cronos Demo hat keinen dedizierten Schalter für Reflex. Sieht dann folgendermaßen aus - laut nVidia Overlay:
1440p mit erzwungeren DLAA bei 120 FPS: 34ms
1440p mit erzwungeren MFG bei 290 FPS: ~24ms

Seit drei Jahren führt man diese sinnlose Diskussion über Eingabeverzögerung mit Leuten, die jahrelang ohne Reflex nie ein Problem gesehen haben. Und jetzt kommen hier welche an, die meinen das die Erhöhung der Eingabeverzögerung durch (M)FG zu hoch wäre, wenn die selbst noch deutlich unter dem liegt, was man "nativ" ohne Reflex bei 120 FPS erreicht.

Einfach mal akzeptieren, dass man falsch liegt.



Und waren fast ausnahmelos Multiplayer-Spiele. Wenn du also nicht nur die gezockt hast, war die gesamte AAA-Welt für dich eigentlich unspielbar.

1. Ansprüche ändern sich. Es ist völlig abstrus einen schlechteren Zustand aus der Vergangenheit als Referenzpunkt für etwas zu nehmen was "OK" ist.
Beispiele:
a.) Wer will heute noch mit Tearing spielen? Ging ja auch ohne VRR.
b.) Wer will heute noch an einem 60 Hz LCD Monitor spielen? Ging ja auch jahrelang ohne 120+ Hz
c.) Wer will ein (selbst wenn es unbenutzt wäre) altes Auto fahren, altes Handy nutzen usw.

Das Argument ist ein Nicht-Argument weil Referenzpunkte sich verändern.

2. Ich (und sicherlich viele andere) fanden damals hohe Latenz oder auch Tearing auch nicht toll. Um so mehr waren die entsprechenden Lösungen eine Erlösung (Wortspiel ^^). Zurück will man nicht mehr. Das Bessere ist des Guten Feind und zurück will keiner mehr. Entsprechend ist Vergangenes kein akzeptabler Referenzpunkt. (Siehe 1.)

3. Reflex (und Äquivalente) hilft nur gegen die Latenz aus der Renderequeue. Die ergibt sich nur bei 100% GPU Last. Man konnte die Renderqueue schon immer positiv beeinflussen (was ich bspw auch gemacht habe):
a. nie in 100% GPU Last fahren (also etwas zu starke GPU für das jeweilige Spiel und settings - bzw Settings runter wenn nötig)
b. prerendered frames auf das Minimum setzen
c. Framelimiter nutzen

Das ist nicht so komfortabel wie Reflex (und Äquivalente) als dynamischer Framelimiter brachte aber ähnliche Ergebnisse. Insofern ist dein 120 Hz mit Reflex on vs off vergleich nicht allgemeingültig.


Weiterhin ging es bei der Liste der Spiele ohne Reflex darum, dass behauptet wurde, dass Reflex erst mit DLSS-FG in Spielen kam. Und das habe ich wiederlegt. Nicht darum was ich persönlich oder wer anders spielt. Alles andere ist "moving the goalposts". ;)

Die Liste ist AI generiert (was ich transparent gemacht habe) entsprechend kann sie natürlich auch Fehler enthalten. Habe nie den Anspruch darauf gelegt, dass die perfekt ist. Aber ein gut genuger Indikator, dass Reflex sehr wohl vor DLSS-FG in Spielen vorhanden war.

Weiterhin solltest du an deinem Leseverständnis arbeiten: ich habe mehrfach geschrieben, dass die Eingabelatenz durch MFG nicht problematisch ist sondern niedrige base FPS (weil damit eine hohe Grundlatenz vorhanden ist). (M)FG verbessert die Latenz dann nicht gerade weil 1/2 Frame Latenz oben drauf kommt plus die schlechtere Latenz aus dem Overhead der die base fps senkt. Bspw 80 fps ohne FG -> ~60 fps@120 Hz mit 2xFG (je nach GPU). Entsprechend kommt auf die vorhandene Grundlatenz vom Spiel in dem Szenario 16,6 - 12,5 ms + 8 ms = 12,1 ms on top. (Performance normiert)
Wahrscheinlich wird sich das meistens trotzdem besser spielen - aber je nach Spiel (fps normierte Latenz der Renderpipeline) kommt irgendwann (ab einer gewissen base fps) der Punkt wo man anfängt es zu merken.

Was mich eher stört ist der vergleich von hohen MFG Framerates mit echten FPS weil mit echten FPS auch eine Assoziatiation zur Latenz verbunden ist. Wer echte 160 fps kennt, weiß wie schön das fluppt. 40@160 fps tun das nicht. Entsprechend sollte man das nicht 1:1 vergleichen.

FG/MFG ist ein super Werkzeug um Mehr Flüssigkeit und Bewegtschärfe rauszuholen. Sofern dann die Grundlatenz noch gut genug ist, hat es keine wesentlichen Nachteile.

Ich würde sagen, deine Argumente sind bis dato IMO nicht so überzeugend, dass du dir leisten könntest, zu behaupten, dass andere "falsch" liegen. ;)

Exxtreme
2025-10-28, 13:06:27
Jedenfalls könnte Reflex2 (und entsprechende Äquivalente) da schon ein Gamechanger werden. :)


Nein, wird es nicht. Denn am Ende gewinnt immer die Spieleengine und nicht herbeihalluzinierte Mausbewegungen. Ich kann mir auch gut vorstellen, dass es heftige Disocclusionartefakte an den Monitorrändern geben wird.

robbitop
2025-10-28, 13:18:12
Nein, wird es nicht. Denn am Ende gewinnt immer die Spieleengine und nicht herbeihalluzinierte Mausbewegungen. Ich kann mir auch gut vorstellen, dass es heftige Disocclusionartefakte an den Monitorrändern geben wird.
Ja das ist die Herausforderung. Aber eine mögliche Lösung wurde ja schon benannt: man kann über den Bildschirm hinaus zusätzlich mit berechnen. Das kostet Leistung aber dann muss man nichts halluzinieren. Die Kosten könnte man senken/optimieren in dem man über die Maus/Controllerbewegung antizipiert wie viel extra je nach Frame zu rechnen ist (also diesen Overhead nur so groß machen wie nötig) und weiterhin diesen Randbereich mit weniger Samples zu versehen weil es im periphären Blickwinkel ist (VRS/foveated rendering - ggf kombiniert mit modernem NN super resolution).

Es ist nicht trivial zu lösen - was der Grund ist warum es noch nicht veröffentlicht ist. Aber vom Funktionsprinzip kann man bereits intuitiv erahnen, dass es funktionieren könnte wenn genug Arbeit reingesteckt wird und dass es was bringen kann.

Ich vermute allerdings, dass auch das eine gewisse Mindest fps braucht um nicht aufzufallen. Und je höher die fps desto kleiner der Benefit. Aber grundsätzlich schon spannend. :)

Sicherlich kann man das ggf. auch noch mit weiteren Ansätzen wie Frame Extrapolation kombinieren. (woran Intel arbeitet)

Gast
2025-10-28, 13:42:41
Ich habe eine RTX5070ti. Eine "RTX 3080TI" hatte ich nie. Ich hatte allerdings mal eine RTX3080.


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13832677&postcount=8101
Ich nutze eine 3080Ti und hab das in Cyberpunk 2077 getestet, darauf bezog ich mich, als Gast kann ich numal keine Beiträge editieren.



Aber wie gesagt wer den nicht nutzt hat Nachteile. Out of the box hat man defintiv die Nachteile die du nennst. Das ist offensichtlich und stand nie zur Debatte.

Ich hatte bisher keine Praxisbeispiele genannt, da es nicht Gegenstand der Diskussion war, da es um allgemeine Funktionalität der Features untereinander ging . technisch rückständig hatte auch begründet warum. Warum du ständig Dinge hinein fantasierst und mir Dinge unterstellst, ist nicht sonderlich erwachsen! So funktioniert Belehrbär nicht, in dem man Dinge behaupet und man selber nicht getestet hat. Schreib dir das mal hinter die Ohren! :)
Um einen Bogen zu spannen, auf den AI Ansatz vom neuen Redstone FG, welches hoffentlich einen qualitativen Sprung macht , kompatibel und sauber funktioniert, steh ich offen gegenüber, aber das kommt halt alles viele Jahre zu spät. Die meisten Games hat man bereits gespielt.
Intels neue FG Variante ist schon eher vergleichbar, auch wenn die Latenzen deutlich hinter NV Reflex zurück, man kann allerdings NVIDIA Low Latency über die Treiber verwenden und im Gegensatz zur AMD Lösung funktioniert das auch mit weiteren NVIDIA Features zusammen, aber auch da gilt das Gleiche.

Das halte ich für unwahrscheinlich. Die Journalisten wurden von Nvidia gebrieft vor dem Release und es ist extrem unwahrscheinlich, dass die Mehrheit unabhängig voneinander exakt das gleiche schreibt/erzählt, ohne dass sie damit gebrieft worden sind.

Du hast also keine Quelle, OK.

Gast
2025-10-28, 14:01:28
Ansprüche verändern sich. Das liegt in der Natur des Menschen. Weiterhin habe ich vor Reflex mit höheren fps gespielt (immer Enthusiast HW gekauft und wenn nötig fps reduziert oder fps limiter genutzt). Auch waren Renderpipelines früher mal fps normiert deutlich weniger cloggy als heutige.

Mit G-Sync war es auch lange Zeit egal ob man mit 45, 50, 55 oder 60fps spielt, es war gefühlt stes ein Meilenstein verglichen zu fixen Bildwiederholfrequenzen mit ihren natürlichen Schwankungen welches nicht selten zu unschönen Begleicherscheinungen führte und selbst da haben die Leute mit 30 oder 40 fps zocken können, man mag es kaum glauben.
Heute so zu tun als bräuchte man zwingend 240Hz Monitore für MFG ist albern und falsch, dazu bietet NVIDIA einfach zuviel Flexibilität um den Sweetspot für ideale Wiedergabetreue und Gaming-Erfahrung zu finden. :)

Exxtreme
2025-10-28, 14:25:53
Ja das ist die Herausforderung. Aber eine mögliche Lösung wurde ja schon benannt: man kann über den Bildschirm hinaus zusätzlich mit berechnen.

Wenn du über den Bildschirmrand hinaus berechnest dann kannst du gleich FG nutzen, die auf Extrapolation beruht. Dann hätte man das Problem mit der Zusatzlatenz für FG gar nicht.

Und hier die Demo, die Reflex 2 benutzt:
tENebDPWgO4

Die Artefakte an den Rändern sind sehr heftig.

Gast
2025-10-28, 14:45:15
Zu Reflex vor DLSS FG Launch (~November 2022) sagt Perplexity:


Da sind auch Quellenangaben drin. Hier zum Nachschauen: https://www.perplexity.ai/search/kann-optiscaler-reflex-in-spie-8VCOsYlKRzSL3m5kBfec2A#1

Ich dachte es ging um Cyberpunk 2077 und das erschien bereits einige Jahre vorher (Ende 2020) und bot kein NV Reflex, erst mit Erscheinen von DLSS 3 wurde Reflex erstmals im Overdrive Tech Preview für die Presse bzw. dann später dann offiziell nachgepatcht. CP2077 war halt stets in Weiterentwicklung.
Ändert jedoch nichts daran, dass man so kleinlich sein und eingestehen dass NV Reflex bzw. Latenzreduzierende Maßnahmen vergleichsweise spät in Games integriert wurden.

Troyan
2025-10-28, 15:06:17
1. Ansprüche ändern sich. Es ist völlig abstrus einen schlechteren Zustand aus der Vergangenheit als Referenzpunkt für etwas zu nehmen was "OK" ist.

[...]

Ich würde sagen, deine Argumente sind bis dato IMO nicht so überzeugend, dass du dir leisten könntest, zu behaupten, dass andere "falsch" liegen. ;)

Ich habe Control mit meiner 3090 in 1440p mit 60 FPS und Raytracing gespielt. Heute zocke ich Star Wars Outlaws mit RTXDI in 1440p mit 240 FPS bei niedriger Eingabeverzögerung auf meiner 5090 mit MFG.
Du wiederum ignorierst vollständig, dass Reflex überhaupt nicht existent damals war. Daher ist MFG auch kein Nachteil, da die Eingabeverzögerung heute erheblich geringer ist.
Es fehlt bei deiner Argumentation der Punkt, dass der übergang zu FG eben nicht "flüssig" war: Kein Reflex -> Reflex -> FG. Sondern es war mit Lovelace: Kein Reflex -> FG mit Reflex.

Es macht daher kein Sinn FG und Reflex aufzutrennen und dann irgendwas von "Eingabeverzögerung" zu reden.

Exxtreme
2025-10-28, 15:08:55
Es macht daher kein Sinn FG und Reflex aufzutrennen und dann irgendwas von "Eingabeverzögerung" zu reden.

Doch, es macht Sinn. Denn mit Reflex ohne FG hat man bessere Latenzen als mit Reflex + FG.

Troyan
2025-10-28, 15:14:14
Und ohne Reflex hat man schlechtere als mit Reflex + FG.

Der Logik folgend wären ältere Spiele ja nicht mehr spielbar, weil die Eingabeverzögerung dort deutlich höher ist.

Wir müssen einfach aufhören alles so akademisch zu betrachten, dass man überhaupt nicht mehr versteht, dass FG mit Reflex immer spielbar ist. Und wo es das nicht ist, spielt man sowieso nicht "nativ".

Exxtreme
2025-10-28, 15:22:54
Und ohne Reflex hat man schlechtere als mit Reflex + FG.


Richtig. Es ergibt aber keinen Sinn Reflex auszuschalten wenn man keine FG will. Sprich, dein Szenario ist in der Praxis sehr irrelevant da praktisch niemand soetwas tut.

dargo
2025-10-28, 15:38:00
Der Logik folgend wären ältere Spiele ja nicht mehr spielbar, weil die Eingabeverzögerung dort deutlich höher ist.

Falsch... ohne Reflex/AL2 liegt ein CS selbst im GPU-Limit bei schon recht niedrigen ~20ms mit den beiden getesteten Grafikkarten. Und im CPU-Limit bringen sowohl Reflex als auch AL2 gar nichts.
https://www.computerbase.de/artikel/grafikkarten/counter-strike-2-amd-anti-lag-2-vs-nvidia-reflex-latenz-benchmark-test.88268/

Troyan
2025-10-28, 16:22:33
Richtig. Es ergibt aber keinen Sinn Reflex auszuschalten wenn man keine FG will. Sprich, dein Szenario ist in der Praxis sehr irrelevant da praktisch niemand soetwas tut.

FG kommt immer mit Reflex. Und als dedizierte Option können eben auch Leute mit älteren nVidia GPUs davon profitieren. Aber es ist am Ende für 90% der Spiele eine reine Unterstützung für FG. Daher ist es sinnlos FG an Reflex zu messen und nicht an dem normalen Zustand, der ohne Reflex existiert.

dargo
2025-10-28, 16:40:58
FG kommt immer mit Reflex. Und als dedizierte Option können eben auch Leute mit älteren nVidia GPUs davon profitieren. Aber es ist am Ende für 90% der Spiele eine reine Unterstützung für FG. Daher ist es sinnlos FG an Reflex zu messen und nicht an dem normalen Zustand, der ohne Reflex existiert.
Ich mal mir die Welt wie sie mir gefällt.

Gast
2025-10-28, 16:51:46
Richtig. Es ergibt aber keinen Sinn Reflex auszuschalten wenn man keine FG will. Sprich, dein Szenario ist in der Praxis sehr irrelevant da praktisch niemand soetwas tut.

Die Wahl hast du doch selbst, standardmäßig ist Reflex in Games ohne DLSS Frame Generation meistens deaktiviert und natürlich sollte man dann auch so testen.

Relex
2025-10-28, 17:53:25
Richtig. Es ergibt aber keinen Sinn Reflex auszuschalten wenn man keine FG will. Sprich, dein Szenario ist in der Praxis sehr irrelevant da praktisch niemand soetwas tut.

Nein, AMD user haben in fast jedem Spiel das Reflex bietet kein AMD äquivalent (AL2) zur Verfügung. Ist also exakt das Szenario was du für irrelevant hältst, welches für AMD User Alltag ist.

Schon witzig, diese ganze Diskussion ist indirekt übelstes AMD bashing :freak:


Man könnte auch sagen, egal ob mit Reflex oder Reflex + FG, die Latenzen sind meistens besser als mit AMD GPU.
Zumindest solange kein Optiscaler zur Rettung kommt und eine Reflex -> AL2 Umleitung ins Spiel hackt.

Aber komisch, dass sich bei den AMD karten generell noch kaum einer über die Latenzen beschwert hat, bei nvidia mit FG aber schon, obwohl da die Latenzen meist besser sind. Schon mysteriös...


Na ja, so verlaufen halt Diskussionen, wenn man nicht fähig ist, den Kontext zu sehen.

FG könnte mit Reflex 2ms latenz liefern und dann würde es trotzdem genug leute geben, die es scheiße finden, weil sie ohne FG dann vielleicht 1ms hätten, selbst wenn sie ganz ohne Reflex und FG 50 ms hätten. Völlig sinnfreie Diskussion mittlerweile...

The_Invisible
2025-10-28, 18:03:44
Nein, AMD user haben in fast jedem Spiel das Reflex bietet kein AMD äquivalent (AL2) zur Verfügung. Ist also exakt das Szenario was du für irrelevant hältst, welches für AMD User Alltag ist.

Schon witzig, diese ganze Diksussion ist indirekt übelstes AMD bashing :freak:


Man könnte auch sagen, egal ob mit Reflex oder Reflex + FG, die Latenzen sind meistens besser als mit AMD GPU.
Zumindest solange kein Optiscaler zur Rettung kommt und eine Reflex -> AL2 Umleitung ins Spiel hackt.

Aber komisch, dass sich bei den AMD karten generell noch kaum keiner über die Latenzen beschwert hat, bei nvidia mit FG aber schon, obwohl da die Latenzen meist besser sind. Schon mysteriös...


Na ja, so verlaufen halt Diskussionen, wenn man nicht fähig ist, den Kontext zu sehen.

FG könnte mit Reflex 2ms latenz liefern und dann würde es trotzdem genug leute geben, die es scheiße finden, weil sie ohne FG dann vielleicht 1ms hätten, selbst wenn sie ganz ohne Reflex und FG 50 ms hätten. Völlig sinnfreie Diskussion mittlerweile...

Jap, Optiscaler ist nur für ein paar Geeks, das heißt für den Großteil der AMD Nutzer sind die meisten Games die Reflex bieten unspielbar, wie zu MFG ja immer gesagt wird.

Noch lustiger wirds ja zudem dann, wenn diese User die Nvidia abgrundtief hassen, sich trotzdem dessen APIs (Reflex) bedienen und es als Vorteil AMD sehen. :freak:

aufkrawall
2025-10-28, 18:07:05
Das Frame Pacing mit FSR FG wird halt mit Anti-Lag 2 auch nochmal schlechter. Was man da auf dem Schirm sieht, ist absolut null vergleichbar zu DLSS 4. Alles nur Copium, muss man gar nicht weiter diskutieren.

dargo
2025-10-28, 19:14:30
Man merkt direkt, dass hier für paar Nvidia-Lemminge mit dem OptiScaler die Welt zusammen bricht. Es kann nicht sein was nicht sein darf. :lol:


Noch lustiger wirds ja zudem dann, wenn diese User die Nvidia abgrundtief hassen, sich trotzdem dessen APIs (Reflex) bedienen und es als Vorteil AMD sehen. :freak:
Ja... es ist schon lustig, dass die RTX 2000/3000 Reihe sich AMDs FG bedienen muss weil Nvidia diese Gen einfach schon bei FG abgehackt hat. (y)

Die Wahl hast du doch selbst, standardmäßig ist Reflex in Games ohne DLSS Frame Generation meistens deaktiviert und natürlich sollte man dann auch so testen.
Troyan... du kannst dich wieder anmelden für deinen Stuss. :D

Gast
2025-10-28, 19:33:11
Noch lustiger wirds ja zudem dann, wenn diese User die Nvidia abgrundtief hassen, sich trotzdem dessen APIs (Reflex) bedienen und es als Vorteil AMD sehen. :freak:

Stümperhaft von AMD ihr Frame Generation nicht mit Antilag zu koppeln, einer der vielen Designfails in einer Historie unfertiger Features.

aufkrawall
2025-10-28, 19:53:09
Man merkt direkt, dass hier für paar Nvidia-Lemminge mit dem OptiScaler die Welt zusammen bricht. Es kann nicht sein was nicht sein darf. :lol:

Ich kenn das Ergebnis aus erster Hand und es ist der Grund, weshalb die Radeon wieder rausgeflogen war. Neuer Radeon-Anlauf nicht, bevor die das reale on-screen Frame Pacing (ob mit oder ohne FG auf RDNA4) grundlegend gefixt haben. Momentan ist das einfach eine minderwertige Erfahrung.
Tippe auf Hardware-Fix in RDNA5/UDNA.

dargo
2025-10-28, 20:29:30
Ich kenne das Ergebnis auch aus erster Hand. Mit einem Framelimit über den Treiber ist alles perfekt mit FG bei der Bildausgabe. Freie Frames wird sich dann in naher Zukunft zeigen müssen, da muss AMD definitiv nachbessern. Mal sehen ob Redstone da schon was fixt. In einem Punkt bin ich aber voll bei dir. Dass Reviewer sowas nicht sehen/bemerken ist schon ein Armutszeugnis sondergleichen.

aufkrawall
2025-10-28, 20:33:54
Toll, mit einem fps-Limit über den Treiber hast du auch wieder mehr Lag als mit Reflex/in-game. Und immer unter voller GPU-Auslastung bleiben zu müssen, ist auch absolut furchtbar, wenn man fordernde Spiele spielt. Wenn das nicht minderwertig ist... :freak:

dargo
2025-10-28, 20:58:28
Und immer unter voller GPU-Auslastung bleiben zu müssen, ist auch absolut furchtbar, wenn man fordernde Spiele spielt.
Komisch, dass dich das bei Reflex nicht stört. Denn genau das verhindert Reflex... eine volle Auslastung der GPU.

aufkrawall
2025-10-28, 21:20:22
Was sollte mich stören, wenn Reflex dynamisch ist und kein lächerliches Rumgehampel mit dem Ausloten von Limits wie ein statischer Limiter erfordert? Soo lächerliche Scheinargumente...

dargo
2025-10-28, 21:38:08
Dann schmeiß beim nächsten Mal nicht so lächerliche Scheinargumente in den Raum von wegen "unter voller GPU-Auslastung" bleiben müssen wäre ein Drama. Zumal Spielszenen auch völlig dynamisch sein können bezüglich GPU-/ und CPU-Limit.

aufkrawall
2025-10-28, 21:45:13
Dann schmeiß beim nächsten Mal nicht so lächerliche Scheinargumente in den Raum von wegen "unter voller GPU-Auslastung" bleiben müssen wäre ein Drama.

Es ging natürlich um die Implikation, Leistung zu vergeuden und mit Limitern hantieren zu müssen.


Zumal Spielszenen auch völlig dynamisch sein können bezüglich GPU-/ und CPU-Limit.
Und Wasser ist nass.

Nightspider
2025-10-28, 21:51:25
Hab gerade das erste mal 2x Frame Generation bei ernsthaftem Competitive Shootern genutzt.
Bei BF6 scheint das ziemlich gut zu funktionieren.

Habs gerade mal paar Runden gespielt, zusammen mit DLAA und 3440*1440 und 120% resolution scale.
Hab fast komplett stabile 175fps auf diesem Weg. Bzw. habs auf 172 Bilder begrenzt und der Counter ist zu 90% der Zeit auf die 172fps festgenagelt und es fühlte sich sehr gut an.

Muss aber noch weiter testen.

Raff
2025-10-29, 00:57:06
Langsam kommt es ja doch an, dass FG nicht zwangsläufig zähe Grütze ist. Laut Nvidia ist es immer obergeil. Die Wahrheit liegt stets in der Mitte und ist auch immer eine Frage des Bezugspunkts (das kann man nicht oft genug sagen). :) Als FG noch alle drei Minuten abstürzte (circa 2023), konnte man den Schmarrn aber noch niemandem empfehlen.

MfG
Raff

Relex
2025-10-29, 07:42:17
Wann stürzte FG denn ab? Davon hab ich noch nie was gehört. Ich nutze meine 4080 seit anfang 23 und hab anfangs fast jedes Spiel mit FG ausprobiert, alleine schon aus interesse.

dargo
2025-10-29, 07:54:00
Hab gerade das erste mal 2x Frame Generation bei ernsthaftem Competitive Shootern genutzt.
Bei BF6 scheint das ziemlich gut zu funktionieren.

Habs gerade mal paar Runden gespielt, zusammen mit DLAA und 3440*1440 und 120% resolution scale.
Hab fast komplett stabile 175fps auf diesem Weg. Bzw. habs auf 172 Bilder begrenzt und der Counter ist zu 90% der Zeit auf die 172fps festgenagelt und es fühlte sich sehr gut an.

Muss aber noch weiter testen.
Bei 86 Baseframes wird das Mausgefühl mit Reflex/AL2 auch keine Vollkatastrophe sein. Immer den Kontext im Auge behalten. :)

Langsam kommt es ja doch an, dass FG nicht zwangsläufig zähe Grütze ist.
Hat auch niemand behauptet. Robbitop hatte schon genug dazu geschrieben.

Laut Nvidia ist es immer obergeil.
Wie überraschend. :tongue: Nachdem Nvidia mit RAW-Power nicht mehr ausreichend weiter kommt muss halt jetzt das gehyped werden. ;)

raffa
2025-10-29, 09:24:57
Ich spiel auch grad mein erstes "Shooter"game, Enderal SE als Bogenschütze ;), mit 77/144 fps via lsfg-vk, https://github.com/PancakeTAS/lsfg-vk,
Bin durchaus zufrieden mit dem Mausgefühl, kein AL2/Reflex, aber mailbox und fps limiter.

FSR3 fg läuft bei mir irgendwie auch nie rund (rdna2, linux), war immer unzufrieden mit dem pacing. Für den Flight Simulator 24 benutz ich deswegen nun optiscaler mit dllsg->fsr3 + reflex->al2, das funktioniert interessanterweise prima. Die Maus ist bei 40/80 fps zwar nicht toll, aber gemütlich fliegen mit dem pad geht gut.

Relex
2025-10-29, 09:27:56
Und das obwohl LSFG SEHR viel höhere Latenzen als DLSSFG mit Reflex hat.

robbitop
2025-10-29, 09:40:56
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13832677&postcount=8101
Ich nutze eine 3080Ti und hab das in Cyberpunk 2077 getestet, darauf bezog ich mich, als Gast kann ich numal keine Beiträge editieren.

Las sich hier aber anders:
Robbitop stützt sich rein auf seinen Optiscaler, alle anderen Nachteile bzw. die Allgemeinheit (das Gro der Kunden!) sowie Nachteile + technische Limits wischt er komplett bei Seite... Mit einer 3080Ti, DLSS 4 Performance will er uns weiß machen

Du kannst dich hier auch anmelden. Braucht soweit ich weiß nichtmal eine E-Mail Bestätigung.



Ich hatte bisher keine Praxisbeispiele genannt, da es nicht Gegenstand der Diskussion war, da es um allgemeine Funktionalität der Features untereinander ging . technisch rückständig hatte auch begründet warum. Warum du ständig Dinge hinein fantasierst und mir Dinge unterstellst, ist nicht sonderlich erwachsen! So funktioniert Belehrbär nicht, in dem man Dinge behaupet und man selber nicht getestet hat. Schreib dir das mal hinter die Ohren! :)
Die Diskussion ging um Optiscaler. Ursprünglich zwischen dir und dargo. Später dann auch mit mir. Und in dem Kontext hast du behauptet, dass das alles nicht funktioniert und es furchtbare Latenz gäbe. Und ich habe Belege und Argumente angefragt (die bis zuletzt noch fehlen).
In der Hinsicht kann ich nicht nachvollziehen was genau ich "fantasiert" und "unterstellt" haben soll. Falls du da gegenteiliger Meinung bist, bitte ich um Quotes die das aufzeigen.
Weiterhin ist das hier eine sachliche Diskussion in kein "Belehrbär". Wie schon mal geschrieben - Unsachlichkeit schwächt deine Position.


Um einen Bogen zu spannen, auf den AI Ansatz vom neuen Redstone FG, welches hoffentlich einen qualitativen Sprung macht , kompatibel und sauber funktioniert, steh ich offen gegenüber, aber das kommt halt alles viele Jahre zu spät. Die meisten Games hat man bereits gespielt.
Ich sehe das auch so, dass AMD sich hier viel zu lange Zeit gelassen hat. Und ich sehe deshalb Intel als sehr positiv an, weil sie gleich mit ihrer ersten Mainstream dGPU (der Neuzeit ^^) gleich mit einem NN Upsampling kamen.
Aber wie man so schön sagt: es ist nie zu spät etwas zu verbessern. Vergangene Spiele sind gespielt aber neue werden noch gespielt und dort wird dann hoffentlich auch gute, nicht proprietäre Technologie für SR, RR, FG usw Einzug halten. IMO muss AMD es IHV agnostisch halten (und gleichzeitig gute Ergebnisse bringen) damit es sich verbreitet. FSR4 SR ist es bis dato noch nicht was schade ist. IMO hätte man wenigstens die INT8 Variante (die ja vor dem FP8 Modell fertig war) veröffentlichen können. Aber ggf beseitigt man das im Zuge mit Redstone. IIRC besagten Gerüchte, dass Redstone IHV agnostisch funktionieren soll (aber leider noch ohne cooperative vectors). Ich bin gespannt - weil wenn man keine Matrix HW Beschleunigung (außerhalb von RDNA4) nutzen kann und gleichzeitig die Anforderung von Matrix Compute mit dem was dort angekündigt wurde wahrscheinlich steigen wird, wird das dann ja ziemlich teuer (in ms compute Frametime).


Du hast also keine Quelle, OK.
Wer sagt, dass das der Maßstab ist? Ich habe immerhin ein schwer zu widerlegendes Indiz benannt. Das ist nicht nichts. Warum das nichts wert sein soll in einer sachlichen Diskussion musst du mir noch erklären.

Mit G-Sync war es auch lange Zeit egal ob man mit 45, 50, 55 oder 60fps spielt, es war gefühlt stes ein Meilenstein verglichen zu fixen Bildwiederholfrequenzen mit ihren natürlichen Schwankungen welches nicht selten zu unschönen Begleicherscheinungen führte und selbst da haben die Leute mit 30 oder 40 fps zocken können, man mag es kaum glauben.
Heute so zu tun als bräuchte man zwingend 240Hz Monitore für MFG ist albern und falsch, dazu bietet NVIDIA einfach zuviel Flexibilität um den Sweetspot für ideale Wiedergabetreue und Gaming-Erfahrung zu finden. :)
1. G-Sync (und VRR im Allgemeinen) ist ein Segen.
2. Der Anspruch an fps ist ein großes Spektrum und abhängig von mehreren Faktoren:
a. Eingabemedium (Controller vs Maus)
b. Wahrnehmung und Anspruch des Spielers
c. fps normierte Latenz des jeweiligen Spiels
d. Art des Spiels (ist Latenz etwas kritischeres oder ist es ein ruhiges Spiel?)
3. Nur weil manche Leute das "ertragen" haben, heisst es nicht, dass es
a. für alle gilt (und alle Komponenten von 2. a-d gilt)
b. dass man das heute noch ertragen will. Wie gesagt das Bessere ist des guten Feind
3. Was hat G-Sync mit FG zu tun?
4. Es ist eher albern unsachlich zu werden. Ich habe IMO sachlich dargelegt, warum ich es so sehe. Sicherlich gibt es auch heute noch ein Spektrum was man gut ertragen hat (siehe 2a-d).

Ich dachte es ging um Cyberpunk 2077 und das erschien bereits einige Jahre vorher (Ende 2020) und bot kein NV Reflex, erst mit Erscheinen von DLSS 3 wurde Reflex erstmals im Overdrive Tech Preview für die Presse bzw. dann später dann offiziell nachgepatcht. CP2077 war halt stets in Weiterentwicklung.
Ändert jedoch nichts daran, dass man so kleinlich sein und eingestehen dass NV Reflex bzw. Latenzreduzierende Maßnahmen vergleichsweise spät in Games integriert wurden.

Kleinlich =! sachlich und faktisch. Ich habe geschrieben, dass es Reflex schon vor FG in Spielen gab. Unabhängig von CP77.
https://www.forum-3dcenter.org/vbulletin/newreply.php?do=newreply&p=13832633
Und darauf wurde dann sogar in mehreren Posts drauf eingangen, so dass der Kontext dann auch klar gewesen sein sollte.

robbitop
2025-10-29, 09:49:17
Wenn du über den Bildschirmrand hinaus berechnest dann kannst du gleich FG nutzen, die auf Extrapolation beruht. Dann hätte man das Problem mit der Zusatzlatenz für FG gar nicht.

Und hier die Demo, die Reflex 2 benutzt:
https://youtu.be/tENebDPWgO4

Die Artefakte an den Rändern sind sehr heftig.
Es gab da ein Update (wurde doch hier gepostet). Der Autor der Demo hat das gemacht was ich im Vorpost beschrieben habe und die Artefakte sind damit wohl gelöst. :)

robbitop
2025-10-29, 09:57:29
Ich habe Control mit meiner 3090 in 1440p mit 60 FPS und Raytracing gespielt. Heute zocke ich Star Wars Outlaws mit RTXDI in 1440p mit 240 FPS bei niedriger Eingabeverzögerung auf meiner 5090 mit MFG.
Du ignorierst, dass ich mehrfach MFG als sehr sinnvolles Tool beschrieben habe. Ich spiele immer wenn es geht mit MFG. Ich achte aber darauf, dass die base fps gut genug ist, damit es gut aussieht und sich gut anfühlt. Verstehe das Problem nicht.


Du wiederum ignorierst vollständig, dass Reflex überhaupt nicht existent damals war. Daher ist MFG auch kein Nachteil, da die Eingabeverzögerung heute erheblich geringer ist.
Es fehlt bei deiner Argumentation der Punkt, dass der übergang zu FG eben nicht "flüssig" war: Kein Reflex -> Reflex -> FG. Sondern es war mit Lovelace: Kein Reflex -> FG mit Reflex.

Es macht daher kein Sinn FG und Reflex aufzutrennen und dann irgendwas von "Eingabeverzögerung" zu reden.
Du ignorierst vollständig meine komplette Argumentation aus dem Vorpost
https://www.forum-3dcenter.org/vbulletin/newreply.php?do=newreply&p=13832991
insofern verweise ich auf die. Sofern du da keine spezifische und konkludente Gegenargumente aufführst, ist dieses Posting nur ein Kreisposting deinerseits ohne neue Argumente. Wie eine kaputte Schallplatte.

robbitop
2025-10-29, 10:01:02
Nein, AMD user haben in fast jedem Spiel das Reflex bietet kein AMD äquivalent (AL2) zur Verfügung. Ist also exakt das Szenario was du für irrelevant hältst, welches für AMD User Alltag ist.

Schon witzig, diese ganze Diskussion ist indirekt übelstes AMD bashing :freak:


Man könnte auch sagen, egal ob mit Reflex oder Reflex + FG, die Latenzen sind meistens besser als mit AMD GPU.
Zumindest solange kein Optiscaler zur Rettung kommt und eine Reflex -> AL2 Umleitung ins Spiel hackt.
Ich denke, das ist ohne Frage so. Bezweifelt das hier überhaupt jemand? Genau deshalb ist Optiscaler doch ein sehr populäres Thema weil es viele der Probleme auf nicht RTX4000/5000 GPUs angeht und diesen GPUs in genau diesen Themen einen Mehrwert bietet.
IMO kann man das ganze doch rein technologisch betrachten und muss auf kein banales AMD vs Nvidia (vs Intel?) Thema gehen. :) (das ist eher an die Allgemeinheit in diesem Thread gerichtet)

Jap, Optiscaler ist nur für ein paar Geeks, das heißt für den Großteil der AMD Nutzer sind die meisten Games die Reflex bieten unspielbar, wie zu MFG ja immer gesagt wird.

Noch lustiger wirds ja zudem dann, wenn diese User die Nvidia abgrundtief hassen, sich trotzdem dessen APIs (Reflex) bedienen und es als Vorteil AMD sehen. :freak:

Ja dem ist so (auch wenn man das weniger provokativ formulieren könnte). AMD hat (sicherlich auch wegen massiv weniger Resources als Nvidia) hier lange Jahre viel verschlafen und müssen jetzt aufholen. Dass sie das tun sollte uns alle freuen. Denn Konkurrenz ist gut für alle Endkunden weil sie Preis/Leistung und Innovation fördern. Was unschön ist, sind proprietäre APIs muss man auch sagen. Weil das zu Vendorlocks führt und das hingegen ist gegen Wettbewerb und damit gegen uns Endkunden. ;) Insofern verstehe ich von keiner Seite da irgendwie den Sinn "Partei" zu ergreifen. Im Gegenteil: je mehr IHVs und je bunter, desto besser.

Dass MFG ein sinnvolles Werkzeug ist, sofern jeder für sich die richtigen Randbedingungen auslotet, sollte auch ohne Frage sein. Aber es ist nicht völlig kontextfrei mit einer fps zu vergleichen ohne FG/MFG weil eben mit einer Framerate auch Assoziationen an Latenz geknüpft sind. Das ist bis zu dem Punkt relevant an dem die Latenz "gut genug" ist. Und das ist bei jedem Menschen und bei jedem Spiel anders.
Ich nutze es super gern - schaue aber, dass ich eine gewisse baseFPS behalte und weise darauf hin, dass das individuell gegeben sein sollte.

robbitop
2025-10-29, 11:13:06
Stümperhaft von AMD ihr Frame Generation nicht mit Antilag zu koppeln, einer der vielen Designfails in einer Historie unfertiger Features.
Ich sehe das ähnlich. Es war definitiv eine verpasste Chance. Und es ist nicht ideal, dass es auf Nicht-AMD Hardware zu inkonsistenten Ergebnissen was frame pacing angeht führen kann.
Für die Verbreitung von Features von AMD ist wahrscheinlich wichtig, dass sie IHV agnostisch sind und gut funktionieren. Überall, smooth, gepolisht out of the box.


Das Frame Pacing mit FSR FG wird halt mit Anti-Lag 2 auch nochmal schlechter. Was man da auf dem Schirm sieht, ist absolut null vergleichbar zu DLSS 4. Alles nur Copium, muss man gar nicht weiter diskutieren.
Hast du schon Erfahrungen zu XeLL und LatencyFlex machen können? :) Sind ja immerhin 2x weitere Optionen. Mit XeSS-FG gibt es ja auch eine weitere kompetente FG Option, die HW agnostisch funktioniert.

Komisch, dass dich das bei Reflex nicht stört. Denn genau das verhindert Reflex... eine volle Auslastung der GPU.

Naja ein dynamischer Framelimiter ist schon besser als ein statischer, weil man fast ganz ans GPU Limit ran gehen kann. Da die GPU Last in Spielen dynamisch ist, muss man mit einem statischen Framelimiter potentiell schon mehr overhead offen lassen (und damit auch potentiell GPU ressources brach liegen lassen).
Hast du schon über optiscaler mit N48 probiert wie sich statt AL2 (ohne zusätzlichen Limiter) LatencyFlex oder XeLL verhalten? Das sind ja zwei weitere Optionen. Ggf. auch in Kombination mit XeFG?

robbitop
2025-10-29, 11:23:03
Und das obwohl LSFG SEHR viel höhere Latenzen als DLSSFG mit Reflex hat.
Wobei Enderal Skyrim nutzt. Würde mich nicht wundern, wenn das fps normiert sehr gute Latenzen von Haus aus hat (weniger cluttered Renderpipeline als moderne AAA Spiele).
Übrigens kann LSFG auch sehr gute Latenzen haben wenn man eine 2. GPU für das FG nutzt. Dann hat man im Gegensatz zu den integrierten FGs keinen drop in der Baseframerate und bezahlt nur 1/2 Frame Latenz. Und Reflex/AL2 und co lassen sich ja unabhängig von LSFG injecten. Und 77 fps ist schon eine ganz gute baseframerate :)

Und die 77@144 sehen fast so aus als hätte Raffa einen 144 Hz Monitor. Wenn das so ist, läuft die GPU sehr wahrscheinlich sehr weit weg von hoher GPU Auslastung (insbesondere wenn man bedenkt wie wenig Resources ein so altes Spiel braucht). Das wiederum bedeutet:
- keine zusätzliche Latenz durch Renderqueue (dann würde Reflex, AL2, XeLL, LatencyFlex ohnehin nichts mehr bringen)
- keine zusätzliche Latenz durch den Drop der base fps der durch den extra compute von LSFG kommt weil die GPU mehr als genug Overhead hat und entsprechend die baseframerate nicht dropt

Wären dann also 77 fps (hohe baseframerate) ohne renderqueue latenz (also Latenzeffekt wie Reflex und co) in einem Spiel mit wahrscheinlich von Haus aus noch latenzarmer Renderpipeline. Wäre dann kein Wunder wenn das ziemlich gut spielbare Latenzen bringt.

raffa
2025-10-29, 12:12:54
Ich hab einen 180hz Schirm, ansonsten passen die Annahmen.

Die 77/144 schafft mein Sys ohne echtes GPU (und auch CPU) limit -
läuft so mit sauberen Frametimes und optisch deutlich smoother als alternative 90 FPS nativ. (leichtes ghosting von lsfg gibts freilich)

2. GPU nutzten geht unter linux bisher nicht, und ist laut dem Entwickler auch nicht so gut umzusetzten wie unter win, vgl hier:
https://github.com/PancakeTAS/lsfg-vk/issues/159

edit: Ich limitiere die fps eigentlich immer auf einen Wert, den die GPU ohne hartes Limit schafft. Auch ohne FG. Reflex/AL2 hat freilich den Vorteil, dass auch Szenen, in denen man doch ins GPU limit rennt die Renderqueue nicht verstopfen bzw. man auch ohne FPS-Limit latenzarm zocken kann, falls man das bevorzugt.

robbitop
2025-10-29, 12:35:25
Ah ok also Framelimiter und GPU Overhead. Ja damit greifen die Prämissen die ich genannt habe natürlich weiterhin und entsprechend ist eine gute Spielerfahrung nicht verwunderlich. :)

Relex
2025-10-29, 19:20:08
Wenn es so einfach wäre...

Ich hab mich ziemlich lange mit LSFG beschäftigt. Mir sind die Latenzen zu hoch. Was aber zum Teil auch an den hohen Performancekosten in 4K liegt.

Eine zweite GPU könnte das sicherlich deutlich bessern, aber für maximale performance wären halt unlocked Frameraten sinnvoll und damit zeigt LSFG dann gelegentlich vereinzelte microruckler, wenn die Warteschlange auf 0 Bilder steht. Kann man zwar erhöhen, um die Ruckler zu vermindern, aber dann steigen halt wieder die Latenzen.

So komme ich halt in keinem Szenario auf nen grünen zweig, wo ich sagen würde, dass es mir mit LSFG besser gefällt als ohne.

Smooth Motion und DLSS FG sind da schon nochmal in ner völlig anderen Liga. Natürlich auch FSR FG, wenn es sauber funktioniert.

robbitop
2025-10-29, 19:28:31
Ja die Latenz kommt sehr darauf an, wie sehr die GPU ausgelastet ist und wie hoch die Framerate ist.
Es gibt Messungen die eine richtig gute Latenz zeigen mit der Nutzung einer 2. GPU. (weil die baseframerate gleich bleibt).
Habe ich probiert (5070ti zum rendern und 3080 als LSFG GPU) - leider bin ich auch nicht überzeugt bis dato (trotz genug PCIe lanes und befolgen aller best practices in dem Setup). Die BQ ist nicht so toll (variabel). Tatsächlich ist mir Smooth Motion auch lieber. Allerdings muss man da öfter mal im nvprofileinspector mit den Presets experimentieren, weil es out of the box nicht immer läuft. Wenn man mit den presets rumspielt bekommt man es aber in der Regel zum Laufen.

dargo
2025-10-29, 19:45:21
Hast du schon über optiscaler mit N48 probiert wie sich statt AL2 (ohne zusätzlichen Limiter) LatencyFlex oder XeLL verhalten? Das sind ja zwei weitere Optionen. Ggf. auch in Kombination mit XeFG?
Habe damit etwas rumgespielt, aber keine überzeugenden Ergebnisse erhalten. XeFG überzeugt mich aber auch nicht so ganz weil es spürbar langsamer ist als AMD-FG. Da fehlen ca. 10-15 Baseframes.

robbitop
2025-10-29, 20:03:29
Ja wahrscheinlich weil es (XeSS-FG) ordentlich Matrixleistung frisst (ist ja ein NN dahinter) und bei N48 aber über die Vector ALUs laufen muss. Wird Zeit für Cooperative Vectors überall. Dann gibt es endlich eine Schnittstelle für Matrix Instructions so dass dieser Code überall (wo vorhanden) entsprechende Matrix Units nutzt.

dargo
2025-10-30, 08:05:43
Naja ein dynamischer Framelimiter ist schon besser als ein statischer, weil man fast ganz ans GPU Limit ran gehen kann. Da die GPU Last in Spielen dynamisch ist, muss man mit einem statischen Framelimiter potentiell schon mehr overhead offen lassen (und damit auch potentiell GPU ressources brach liegen lassen).

Es ist aktuell die einzige Möglichkeit VRR-Flicker auf dem QD-OLED mit FG zu eliminieren (in AC: Shadows fällt mir das besonders auf da es dort viele dunkle Spielszenen gibt, hauptsächlich dann in Cutszenen) da die Frequenzen am QD-OLED nicht wild hin und her springen.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=622619

Bisher konnte mir leider niemand beantworten warum die Frequenzen so stark mit FG springen oder auch nicht zur Bildrate passen. Ohne FG passt alles ohne den Framelimiter, ergo auch kein VRR-Flicker. Mittlerweile, je mehr ich mir FG ohne den Treiber Framelimiter anschaue bin ich mir nicht mal sicher ob das Mikrostuttering teilweise ist oder doch nicht eher in Bildteilbereichen Tearing. Für mich sieht Tearing bei High-Refresh Bildschirmen ähnlich Mikrostutter aus.

robbitop
2025-10-30, 08:55:26
Also das starke Springen sollte nach meinem Verständnis in der Natur der Sache liegen. Es wird ja alles verdoppelt (bei MFG sogar 3x und 4x). Entsprechend verstärken sich die Amplituden der Framerates (bzw die Minima der Frametimes) was die Spreizung zwischen Minimum und Amplitude erhöht. Das kann gut sein, dass das das mit VRR das Flackerverhalten von OLEDs schon mehr triggern kann.

Andererseits ist mir das sogar mit 4xMFG noch nicht aufgefallen. Entsprechend kann es schon sein, dass bei FSR FG da was anders läuft. Kannst du (auch wenn XeSS-FG langsamer ist) mal mit XeSS-FG und OptiFG (und wenn du ganz viel Zeit hast noch mit AFMF2.1 und LSFG) gegentesten ob das ohne Framelimiter auch das VRR flackern triggert? :)

The_Invisible
2025-10-30, 09:34:21
Es ist aktuell die einzige Möglichkeit VRR-Flicker auf dem QD-OLED mit FG zu eliminieren (in AC: Shadows fällt mir das besonders auf da es dort viele dunkle Spielszenen gibt, hauptsächlich dann in Cutszenen) da die Frequenzen am QD-OLED nicht wild hin und her springen.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=622619

Bisher konnte mir leider niemand beantworten warum die Frequenzen so stark mit FG springen oder auch nicht zur Bildrate passen. Ohne FG passt alles ohne den Framelimiter, ergo auch kein VRR-Flicker. Mittlerweile, je mehr ich mir FG ohne den Treiber Framelimiter anschaue bin ich mir nicht mal sicher ob das Mikrostuttering teilweise ist oder doch nicht eher in Bildteilbereichen Tearing. Für mich sieht Tearing bei High-Refresh Bildschirmen ähnlich Mikrostutter aus.

Das ist dann aber ein Radeon Problem und ka was das hier im Thread zu suchen hat. aufkrawall schreibt ja auch immer das FSR-FG von den Frametimes kaputt ist

Troyan
2025-10-30, 09:48:18
Ne, ist auch miserabel mit FG. OLEDs sind nicht dafür gemacht mit fluktuierenden Frametimes zu arbeiten.

robbitop
2025-10-30, 09:51:51
Ne, ist auch miserabel mit FG. OLEDs sind nicht dafür gemacht mit fluktuierenden Frametimes zu arbeiten.
Kann ich hier mit meinen OLEDs (sowohl der LG 55BX OLED TV als auch mein Samsung G7 OLED 1440p 360 Hz) und (M)FG nicht bestätigen.

dargo
2025-10-30, 09:56:42
Also das starke Springen sollte nach meinem Verständnis in der Natur der Sache liegen.
Nach meinem Verständnis macht das keinen Sinn. Warum sollte die Frequenz vom Bildschirm hin und her springen (ich bewege mich noch nicht mal) wenn die Framerate absolut stabil ist? Wäre das normal kannst du alle OLEDs in die Tonne kloppen. Minimale Frequenzsprünge von ca. +/-1Hz bis 3Hz (sowas triggert auch kein VRR-Flicker), davon spreche ich nicht. Schließlich sind Frametimes nie absolut 100% glatt mit freien Frames.

Troyan
2025-10-30, 10:05:46
Kann ich hier mit meinen OLEDs (sowohl der LG 55BX OLED TV als auch mein Samsung G7 OLED 1440p 360 Hz) und (M)FG nicht bestätigen.

Einfach ein Spiel nehmen, was dunkle Inhalte hat. Beim 360Hz sieht man es aufjedenfall, da die Varianz viel zu groß wird. Der 500Hz Monitor von Asus flimmert jedenfall deutlich mehr mit MFG als "nativ".

robbitop
2025-10-30, 10:08:09
Nach meinem Verständnis macht das keinen Sinn. Warum sollte die Frequenz vom Bildschirm hin und her springen (ich bewege mich noch nicht mal) wenn die Framerate absolut stabil ist? Wäre das normal kannst du alle OLEDs in die Tonne kloppen. Minimale Frequenzsprünge von ca. +/-1Hz bis 3Hz (sowas triggert auch kein VRR-Flicker), davon spreche ich nicht. Schließlich sind Frametimes nie absolut 100% glatt mit freien Frames.

Achso. Ich hatte angenommen, dass die fps auch schwanken (weil ja Spiele dynamische Last erzeugen wenn man sie spielt). Aber wenn die fps konstant sind (eine Stelle im Spiel und dann weder Kamera noch Spieler bewegt) dann sollte das nicht so sein. Das sehe ich auch so.
Ggf mal die anderen FG Verfahren und schauen ob das so bleibt? Und ggf nochmal AL2 aus machen? Würde mich super interessieren was dann jeweils passiert :)

Einfach ein Spiel nehmen, was dunkle Inhalte hat. Beim 360Hz sieht man es aufjedenfall, da die Varianz viel zu groß wird. Der 500Hz Monitor von Asus flimmert jedenfall deutlich mehr mit MFG als "nativ".
Zumindest in CP77 sehe ich nichts davon. Da gibts ja auch genug dunkle Stellen.

Relex
2025-10-30, 10:09:26
Kann ich hier mit meinen OLEDs (sowohl der LG 55BX OLED TV als auch mein Samsung G7 OLED 1440p 360 Hz) und (M)FG nicht bestätigen.

Kann ich auch nicht bestätigen. Zumindest nicht mit 240 Hz und 2x FG.

Schlechte Frametimes führen normal auch nicht zu flickering, solange kein LFC getriggert wird oder die Frametimes sehr extrem wechseln. Also sich die Frametime mal eben verdoppelt.
Hab ich zumindest noch nie erlebt. Nichtmal UE5 spiele erzeugen Flickering, solange nicht ein traversal oder shader stutter das Bild zum stehen bringt. Schlechte Frametimes reichen halt einfach nicht um das auszulösen.

Und diese Amplitudenverstärkung gabs zumindest bei Nvidia auch nur mit DLSS3.
Hatte das Spiel schlechtes Framepacing oder hat nicht gut auf Reflex reagiert reagiert, dann hatte auch die Ausgabe mit FG manchmal Microruckeln. Vielleicht weniger stark, aber es hat sich mit FG selten wirklich was gebessert. Flickering gabs trotzdem nicht.

Seit Streamline 2.7 und DLSS4 hat sich das aber auch sehr deutlich gebessert. Hatte mittlerweile schon viele fälle wo das Frampacing mit FG beim langsamen Bewegen der Kamera sichtbar besser wurde, als ohne.

Diesen Amplitudenverstärkungseffekt scheint es nicht mehr wirklich zu geben und das ist mMn. auch einer der Hauptgründe, warum sich DLSS4 FG so viel besser anfühlt.


Denn das Problem ist ja, dass die Frametime Varianzen, selbst in einem Spiel mit guten Frametimes bei geringen Frameraten größer sind als bei hohen (echten) frameraten.
Das heißt, auch ein Spiel mit gutem Framepacing würde sich mit FG bei verdoppelter Framerate niemals "echt" anfühlen, weil sich die Varianzen die bei der niedrigen Framerate vorhanden sind immer auf die Ausgabe mit FG übertragen. Und genau daran hat Nvidia mMn. auch mit Streamline 2.7 und DLSS4 gearbeitet, um eben dieses Problem zu beheben.

dargo
2025-10-30, 10:10:55
Kannst du (auch wenn XeSS-FG langsamer ist) mal mit XeSS-FG und OptiFG (und wenn du ganz viel Zeit hast noch mit AFMF2.1 und LSFG) gegentesten ob das ohne Framelimiter auch das VRR flackern triggert? :)
Also bei der offiziellen XeFG-Implementierung von CP77 ist es genauso. Ich stehe still rum, Framerate liegt bei 177-179fps mit 2x FG und bei der Frequenz am Bildschirm sehe ich alles mögliche zwischen 126Hz und 240Hz schnell wechselnd. Mit LSFG spiele ich nicht rum. AFMF 2.1 und OptiFG kann ich mir noch genauer ansehen.

Achso. Ich hatte angenommen, dass die fps auch schwanken (weil ja Spiele dynamische Last erzeugen wenn man sie spielt). Aber wenn die fps konstant sind (eine Stelle im Spiel und dann weder Kamera noch Spieler bewegt) dann sollte das nicht so sein. Das sehe ich auch so.
Ggf mal die anderen FG Verfahren und schauen ob das so bleibt? Und ggf nochmal AL2 aus machen? Würde mich super interessieren was dann jeweils passiert :)

Ich teste nicht nur mit dem OptiScaler sondern auch die offziellen Implementierungen. Das was ich da vorher verlinkt habe wo du meine Videos mit dem Handy siehst ist alles Vanilla. Wenn ich schon einen Fehlerbericht an AMD absende nehme ich logischerweise nur Beispiele mit offiziellen Implementierungen.


Zumindest in CP77 sehe ich nichts davon. Da gibts ja auch genug dunkle Stellen.
In CP77 ist mir auch kein VRR-Flicker aufgefallen, ich spiele das Game aber auch nicht wirklich. Für Tests rase ich einfach nur durch die Stadt. AC: Shadows triggert sehr gut VRR-Flicker bei mir mit freien Frames bei FG, also ohne Treiber Framelimit. Mit Treiber Framelimit sehe ich kein VRR-Flicker dort mehr, die Frequenz am Bildschirm passt dann aber auch zur Bildrate. Sprich... diese ständigen, starken Frequenzwechsel trotz stabilen Framerate passieren nicht mehr und somit wird auch kein VRR-Flicker mehr getriggert.

Exxtreme
2025-10-30, 10:23:48
Kann ich auch nicht bestätigen. Zumindest nicht mit 240 Hz und 2x FG.


Eventuell haben einige Monitore oder gar die Grafikkartentreiber eine Art Kompensation drin für das Flackern. Wenn man die Frametimes kennt dann kann man die Helligkeit des Bildschirms dynamisch anpassen um die Helligkeitsschwankungen auszugleichen, zumindest theoretisch.

Troyan
2025-10-30, 10:28:37
Nein, nicht wirklich. Samsung versucht sowas mit deren Anti-VRR-Flicker Option, aber das ist unbrauchbar.

Je geringer die Hz bei einem OLED, umso geringer ist die mögliche Varianz der Frametimes. 240Hz aka 4,16ms ist eben was anderes als 4,16ms Frametime bei 500HZ aka 2ms. Ich dachte, dass mit dem Asus OLED und dem LFC <=240Hz das Flimmern deutlich reduziert wird, aber das funktioniert nicht. Mit MFG springt der Monitor (was man sehen kann) auch mal zwischen 260Hz und 500Hz hin und her. Das triggert flimmern ohne Ende selbst, wenn die FPS nur bei 200 liegen.

Grundsätzlich sind OLEDs eben keine VRR-Geräte. Und wahrscheinlich erst mit VRR wirklich nutzbar, wenn LFC durchgehend bei 3x oder so liegt - also statt 240Hz müsste ein OLED 720Hz haben, jedoch 240Hz als V-Sync Limit anliegen lässt.

Relex
2025-10-30, 11:06:26
Warum LFC <= 240 Hz?

Der Monitor sollte LFC erst bei 48 Hz nutzen und nicht bei 240 Hz. Wenn du das hoch setzt ist es doch kein Wunder, dass du ständig flackern hast, weil jeder Frame über 4,16 ms Frametime direkt LFC auslöst.

Mit welchem Rechner willst du es denn schaffen, dass die minimale Frametime stets über 240 FPS bleibt. Das ist doch utopisch.

LFC muss auf 48 Hz stehen, also so niedrig wie möglich. Alles andere ist höchstens als experimentell zu betrachten für irgendwelche Spezialfälle.

Bei mir bleibt der Monitor auch mit FG relativ konstat bei der Framerate die anliegt. Ja, es schwankt extrem schnell, weil der Frametime verlauf natürlich immer zackig ist, aber eben im bereich von +/- 10 Hz oder so... Wenn das bei dir von 260 auf 500 Hz springt, dann sorgt irgend ein kaputtes LFC für diese Sprünge.

Deisi
2025-10-30, 11:08:19
Mit der neuen Luma Mod Version kann man jetzt das UE4 TAA durch DLAA ersetzen. Aktuell erstmal nur DX11. https://github.com/Filoppi/Luma-Framework/wiki/Mods-List#unreal-engine

Troyan
2025-10-30, 11:11:28
Der Anti-Flicker-Modus bei dem Asus Monitor reduziert den VRR-Bereich auf 240-500Hz. Alles unter 240Hz läuft also mit LFC. Das hätte theoretisch das Flimmern reduzieren müssen, weil der Abstand der Frames sich auf maximal 2,16ms im Worstcase reduziert.

Praktisch funktioniert es nicht wirklich gut. Spiele ich Alan Wake 2 mit MFG, dann ist die Frame-Ausgabe so schlecht, dass LFC mal anschlägt oder eben nicht, weil einige Frames schon nach ca. 2,5ms wiedergeben werden andere aber erst nach 4ms.

Wenn ich ohne MFG aber mit LFC Spiele, läuft der Monitor immer schön mit LFC und hoher Hz-Zahl. Und man will mit einem OLED ja immer in der Nähe des V-Sync-Limit laufen, um die bestmögliche Helligkeitsgenauigkeit zu bekommen - bei WOLDs noch mehr als bei QD-OLEDs.

Relex
2025-10-30, 11:16:19
Öhm, ja natürlich funktioniert es nicht. Es ist ne scheiß Idee, den LFC grenzbereich in einen FPS Bereich zu bringen, den man ständig erreicht. Weil jeder unter oder überschreitung dieser Grenze ein Flackern erzeugt. Es gibt zwar treiberseitige Hysteresen, die das abmildern, aber das kann auch nur in sehr begrenztem maße funktionieren.

Die LFC Grenze muss entweder weit über oder weit unter der Framerate liegen die man erreicht.

Troyan
2025-10-30, 11:20:35
Öhm, ja natürlich funkttioniert es nicht. Es ist ne scheiß Idee, den LFC grenzbereich in einen FPS Bereich zu bringen, den man ständig erreicht. Weil jeder unter oder überschreitung dieser Grenze ein Flackern erzeugt.

Die LFC Grenze muss entweder weit über oder weit unter der Framerate liegen die man erreicht.

Nur funktioniert die Frame-Ausgabe einer GPU mit VRR eben nicht so. Mit VRR bestimmt die Grafikkarte im VRR-Bereich, wann ein Frame ausgeben wird. Die Frametimes können hier springen, wie die lustig sind. Und das killt eben VRR bei OLEDs.

LFC verhindert das Gegenregeln, weil die Abstände deutlich reduziert wird. Daher sind hohe (interne) Hz notwendig, wenn man kein Flimmern will. Oder eben man benutzt einen OLED mit geringen Hz, weil dann die Varianz sowieso deutlich reduziert wird.

robbitop
2025-10-30, 12:48:06
Nein, nicht wirklich. Samsung versucht sowas mit deren Anti-VRR-Flicker Option, aber das ist unbrauchbar.

Je geringer die Hz bei einem OLED, umso geringer ist die mögliche Varianz der Frametimes. 240Hz aka 4,16ms ist eben was anderes als 4,16ms Frametime bei 500HZ aka 2ms. Ich dachte, dass mit dem Asus OLED und dem LFC <=240Hz das Flimmern deutlich reduziert wird, aber das funktioniert nicht. Mit MFG springt der Monitor (was man sehen kann) auch mal zwischen 260Hz und 500Hz hin und her. Das triggert flimmern ohne Ende selbst, wenn die FPS nur bei 200 liegen.

Grundsätzlich sind OLEDs eben keine VRR-Geräte. Und wahrscheinlich erst mit VRR wirklich nutzbar, wenn LFC durchgehend bei 3x oder so liegt - also statt 240Hz müsste ein OLED 720Hz haben, jedoch 240Hz als V-Sync Limit anliegen lässt.
Kann ich wie gesagt überhaupt nicht bestätigen.

dargo
2025-10-30, 13:26:35
Mit MFG springt der Monitor (was man sehen kann) auch mal zwischen 260Hz und 500Hz hin und her. Das triggert flimmern ohne Ende selbst, wenn die FPS nur bei 200 liegen.

Warum eigentlich? Oder wofür? Das kann doch nur ein Treiberbug sein, ich finde dafür keine andere Erklärung. Selbst mit dem tiefsten Wert von 260Hz ist man noch weit von LFC entfernt mit 4x FG. Ich meine jetzt natürlich ohne das Gedöns @OLED Antiflicker. Das taugt imo eh nix.

@robbitop
Jetzt wirds interessant... auf die Idee mit OptiFG zu testen kam ich bisher gar nicht. :freak: Habe AC: Shadows wieder getestet. Ich bewege mich mit Absicht in meinen Versuchen nicht wenn ich die Frequenzen vom Bildschirm mit der Bildrate vergleiche damit die Framerate möglichst absolut stabil ist. Mit OptiFG erreiche ich in einer Szene 172-173fps mit freien Frames. Das OSD im OLED springt nicht mehr so wild bei den Frequenzen wie mit AMD-FG, Nukems-FG und XeFG und freien Frames. Die Frequenz am Bildschirm bewegt sich nur minimal zwischen 149Hz und 154Hz. Nur warum zum Tefeul sieht das absolut flüssig aus wenn ich den Char im Kreis drehe? Ich sehe weder irgendein Mikrostutter noch tearing. :uconf2: Ich möchte das einfach technisch verstehen, weil logisch ist es auf den ersten Blick nicht. :ulol:

Edit:
Lol... andere Szene in AC: Shadows mit OptiFG.

Bildrate bei stabilen 150-151fps, der Bildschirm springt in kleinen Schritten zwischen 202Hz und 210Hz. Ganz selten sehe ich aber auch 137Hz und 240Hz kurz aufploppen. Da wird man doch völlig gaga. :D

PS: bei OptiFG muss in AC: Shadows HUDFix + Extended stehen, sonst macht das HUD Probleme.

teezaken
2025-10-30, 14:27:03
Mit der neuen Luma Mod Version kann man jetzt das UE4 TAA durch DLAA ersetzen. Aktuell erstmal nur DX11. https://github.com/Filoppi/Luma-Framework/wiki/Mods-List#unreal-engine
Ich verfolge das auch schon die ganze Zeit, das was ich so spiele funktioniert super.

https://i.ibb.co/Q74GhH69/DRAGON-QUEST-XI-2025-10-30-10-52-05-009.png (https://ibb.co/20TBRMjq)

Troyan
2025-10-30, 19:36:24
Warum eigentlich? Oder wofür? Das kann doch nur ein Treiberbug sein, ich finde dafür keine andere Erklärung. Selbst mit dem tiefsten Wert von 260Hz ist man noch weit von LFC entfernt mit 4x FG. Ich meine jetzt natürlich ohne das Gedöns @OLED Antiflicker. Das taugt imo eh nix.


Frameraten sind bei VRR irrelevant. Es kommt einzig darauf an, ob die GPU ein Frame innerhalb des VRR-Bereiches an den Monitor senden kann.

Mit MFG ist das Framepacing dann so variabel, dass eine gleichmäßige Ausgabe nicht vorhanden ist. Und selbst 1ms machen bei 200 FPS (5ms im Schnitt pro Frame) schon 20%/25% Unterschied aus. Und dann hängt man eben nicht mehr bei 400 HZ (200Hz x2) sondern bei 250Hz, weil man noch im VRR-Bereich ist. Beim nächsten Frame ist man jedoch wieder bei 5ms und schickt per LFC das Frame doppelt an den Monitor für die internen 400Hz.

Und da habe ich in Alan Wake 2 festgestellt, dass es nativ mit ca. 75 FPS (ergibt mit LFC intern irgendwas um 350Hz) deutlich weniger VRR-Flimmern gab als mit MFG und 220 FPS oder so.

MFG ist top bei IPS, aber bei OLED merkt man, dass das Framepacing nicht sauber genug ist.

SamLombardo
2025-10-30, 20:13:29
Ich spiele derzeit SW Outlaws auf meinem 165hz QD-OLED mit 4X MFG und habe keinerlei VRR Flickern außerhalb von Ladebildschirmen. Selbst in dunklen Szenen makellos, und ich bin bei VRR Flickern empfindlich. Ja, ich weiß, 165 Hz sind nicht 500 Hz, wollte es aber mal gesagt haben ;).

Btw, die 4X MFG nehme ich übrigens weil das Spiel heizt wie kaum ein zweites. Selbst mit 4X bin ich noch bei ~380w trotz 60 Prozent GPU Auslastung. Wenn ich auf 2X gehe zieht er meist über 530w, wohlgemerkt auf einer @925mv undervolteten 5090:eek:.

Relex
2025-10-30, 20:46:39
Frameraten sind bei VRR irrelevant. Es kommt einzig darauf an, ob die GPU ein Frame innerhalb des VRR-Bereiches an den Monitor senden kann.

Mit MFG ist das Framepacing dann so variabel, dass eine gleichmäßige Ausgabe nicht vorhanden ist. Und selbst 1ms machen bei 200 FPS (5ms im Schnitt pro Frame) schon 20%/25% Unterschied aus. Und dann hängt man eben nicht mehr bei 400 HZ (200Hz x2) sondern bei 250Hz, weil man noch im VRR-Bereich ist. Beim nächsten Frame ist man jedoch wieder bei 5ms und schickt per LFC das Frame doppelt an den Monitor für die internen 400Hz.

Und da habe ich in Alan Wake 2 festgestellt, dass es nativ mit ca. 75 FPS (ergibt mit LFC intern irgendwas um 350Hz) deutlich weniger VRR-Flimmern gab als mit MFG und 220 FPS oder so.

MFG ist top bei IPS, aber bei OLED merkt man, dass das Framepacing nicht sauber genug ist.


Irgendwas machst du gewaltig falsch... :freak:

dargo
2025-10-31, 06:50:51
Und da habe ich in Alan Wake 2 festgestellt, dass es nativ mit ca. 75 FPS (ergibt mit LFC intern irgendwas um 350Hz) deutlich weniger VRR-Flimmern gab als mit MFG und 220 FPS oder so.

Hier habe ich spätestens den Anschluss verloren oder es ist noch zu früh. :D
Wenn du als Test bei nativer Auflösung 75fps hast (ich nehme an dann ohne jegliches FG) was hat dann LFC hier verloren wo du jenes mit 350Hz in deinem Beispiel ansprichst? Da komme ich nicht mehr mit. Selbst die 500Hz OLEDs haben eine VRR-Range von 48-500Hz und da sollte bei 75fps überhaupt noch kein LFC greifen.

Frameraten sind bei VRR irrelevant. Es kommt einzig darauf an, ob die GPU ein Frame innerhalb des VRR-Bereiches an den Monitor senden kann.

Kannst du das bitte genauer erläutern? Auch hier kann ich dir nicht folgen was du damit ausdrücken möchtest.


Bei mir bleibt der Monitor auch mit FG relativ konstat bei der Framerate die anliegt. Ja, es schwankt extrem schnell, weil der Frametime verlauf natürlich immer zackig ist, aber eben im bereich von +/- 10 Hz oder so.
Genau so sollte auch FG sich nach meinem Verständnis verhalten vs. non FG. Die Frequenz am Bildschirm sollte auch mit FG zur Bildrate immer passen. Der einzige Nachteil bei FG ist dann nur, dass die minimalen Schwankungen bei der Frequenz mit FG sich dann halt mit 2x FG verdoppeln, 3x FG verdreifachen usw. Aber diese Schwankungen sind so minimal, dass sowas noch kein VRR-Flicker am OLED triggern sollte.

Beispiel:
Habe ich in Szene X 80-81fps ohne FG, liegt die Frequenz am OLED bei 79-82Hz (habe etwas mehr Varianz genommen da Frametimes nie 100% glatt sind). Verwende ich 2x FG was in 160-162fps resultiert (ich habs vereinfacht dargestellt, natürlich wird man mit 2x FG diese Frames nicht bekommen da FG Rechenzeit kostet und somit die Baseframes etwas fallen) springt der OLED zwischen 158-164Hz. Bei 3x FG entsprechend 240-243fps = 237-246Hz und bei 4x FG 320-324fps = 316-328Hz. Hat man ein Spiel mit einer höheren Fluktuation der Frametimes wird das hinten raus bei der Frequenz am OLED immer schlimmer im Bereich Varianz je höher der FG-Faktor. Ich hoffe ich habe das einigermaßen verständlich dargestellt. Bitte auch korrigieren falls ich mit meiner Annahme komplett falsch liege.

Ich spiele derzeit SW Outlaws auf meinem 165hz QD-OLED mit 4X MFG und habe keinerlei VRR Flickern außerhalb von Ladebildschirmen. Selbst in dunklen Szenen makellos, und ich bin bei VRR Flickern empfindlich.
Wie soll auch VRR-Flicker bei festen 165Hz vorkommen wenn die Frequenz doch gar nicht schwankt? :freak: 165Hz am Bildschirm mit 4x FG bedeuten ~41 Baseframes. Das ist so tief, dass du diese mit hoher Wahrscheinlichkeit auch in keinem Szenario unterschreiten wirst.

SamLombardo
2025-10-31, 09:39:34
Wie soll auch VRR-Flicker bei festen 165Hz vorkommen wenn die Frequenz doch gar nicht schwankt? :freak: 165Hz am Bildschirm mit 4x FG bedeuten ~41 Baseframes. Das ist so tief, dass du diese mit hoher Wahrscheinlichkeit auch in keinem Szenario unterschreiten wirst.
Sicher. Trotzdem siehst du mfgX4 ja an den Frametimes, die eben nicht mehr diese schöne gerade Linie sind.

Relex
2025-10-31, 10:16:33
Zeig doch mal. Vor allem 2x FG vs 4x MfG würde mich sehr interessieren.

Dir ist bewusst, dass seit Streamline 2.7 die meisten Tools einen extrem zackigen Verlauf auslesen, wo die Frametime ständig auf 0 ms runter geht? Das hat nichts mir der tatsächlichen Ausgabe zu tun. Wenn dann musst du dich eher an der MsBetweenDisplayChange orientieren. Aber das sollte ja längst bekannt sein.

dargo
2025-10-31, 16:09:07
Sicher. Trotzdem siehst du mfgX4 ja an den Frametimes, die eben nicht mehr diese schöne gerade Linie sind.
Ähm... mir werden hier zu vielen Sachen durcheinander gewürfelt. :freak: Siehe Hinweis von Relex. :)

SamLombardo
2025-10-31, 16:59:04
Ah jetzt ja. :redface:

Ex3cut3r
2025-10-31, 17:07:53
Was für Flickerning mit MFG? Habe ich nicht im Gameplay außer bei Ladescreens.
RTX 5080 mit FG x3 oder FG X4 @ 240HZ QD-OLED
Scheint ein AMD Only FG Problem zu sein, und ich weiß echt nicht, warum Dargo hier über AMD FG schwatzt.

Troyan
2025-11-01, 13:58:09
Hier habe ich spätestens den Anschluss verloren oder es ist noch zu früh. :D
Wenn du als Test bei nativer Auflösung 75fps hast (ich nehme an dann ohne jegliches FG) was hat dann LFC hier verloren wo du jenes mit 350Hz in deinem Beispiel ansprichst? Da komme ich nicht mehr mit. Selbst die 500Hz OLEDs haben eine VRR-Range von 48-500Hz und da sollte bei 75fps überhaupt noch kein LFC greifen.

Größes Problem bei OLEDs ist, dass die Helligkeit mit VRR je nach Ansteuerung des Monitors sich ändert. Bei WOLDs ist es deutlich extremer als bei QD-OLEDs. Bei dem Asus-Monitor mit LFC <=240Hz sollte also theoretisch die Ansteuerung immer irgendwo zwischen 240Hz und 500Hz liegen, womit im allgemeinen erstmal die großen Sprünge und somit Helligkeitsschwankungen vermieden werden sollten.


Kannst du das bitte genauer erläutern? Auch hier kann ich dir nicht folgen was du damit ausdrücken möchtest.

Für den Monitor ist es wichtig, dass er innerhalb seines VRR-Bereiches ein neues Bild erhält und somit gerefresht wird. Daher sind FPS-Angaben auch nicht sinnvoll, da diese keine Aussage über das Framepacing ermöglichen.

Beim Asus-Monitor dachte ich wirklich, dass mit LFC und MFG eigentlich immer genug Bilder erzeugt werden, dass diese 2,6ms Unterschied zwischen 240Hz und 500Hz keine Rolle mehr spielen bzw. das Flimmern deutlich minimieren. Hat sich als Trugschluss ergeben. MFG ist einfach nicht sauber genug bei der Frame-Ausgabe.