Archiv verlassen und diese Seite im Standarddesign anzeigen : Frame Generation für jede GPU (Lossless Scaling)
DrFreaK666
2024-01-10, 19:20:38
Bin bei PCGH über diesen Artikel gestolpert. Klingt nach AFMF nicht nur für Radeons.
Hat jemand Lossless Scaling und kann es testen?
https://www.pcgameshardware.de/Spiele-Thema-239104/News/Frame-Generation-fuer-alle-LSFG-10-soll-DLSS-und-FSR-Beine-machen-1437817/
Leonidas
2024-01-14, 16:55:29
Uff. Keiner?
DrFreaK666
2024-01-14, 17:02:34
Anscheinend. AMD hat was eigenes und Nvidia-User mögen nur Nvidia-Zeugs, alles andere ist "Müll".
Bleibt noch Intel Arc, aber die Karten sind hier kaum verbreitet
Langlay
2024-01-14, 17:27:25
Anscheinend. AMD hat was eigenes und Nvidia-User mögen nur Nvidia-Zeugs, alles andere ist "Müll".
Ja das wird es sein. Nicht der Fakt das Nvidia FG Müll ist und AFMF von AMD noch größerer Müll.
Schubladendenken at its best.
DrFreaK666
2024-01-14, 17:45:37
Als NV FG eingeführt wurde, haben es Nvidia-User gefeiert. Jetzt gibt es FG für jeden und niemanden juckts.
Welchen Grund soll es dann deiner Meinung nach geben?
Wie dem auch sei: ich denke das Thema kann geschlossen werden
The_Invisible
2024-01-14, 18:02:35
Wie schon im AMD Thread geschrieben: Spielintegriertes FSR3/DLSS3-FG + AntiLag/Reflex ist eine ganze andere Liga als generisches FG irgendwie injiziert.
boxleitnerb
2024-01-14, 18:06:40
Teste es doch selbst statt gleich wieder einen Rückzieher zu machen und den Thread schließen zu wollen. Die Seitenhiebe auf vermeintliche Fanboys kannst du dir sparen - bleibe doch mal sachlich!
Uff. Keiner?
Du glaubst echt, dass das mit derartigen Einschränkungen irgendwen interessiert?
Funktioniert nicht mit VRR, funktioniert nicht im GPU Limit, funktioniert nicht mit Overlays.
Und zu allem Überfluss muss man noch Geld ausgeben um das überhaupt verwenden zu können.
Die Nutzbarkeit von FG ist generell stark eingeschränkt mit jeder aktuell verfügbaren Lösung, mit diesen zusätzlichen Einschränkungen geht die Nutzbarkeit gegen 0.
Die einzige Situation in der das überhaupt irgendwie Sinnvoll sein kann, ist ein Spiel vollständig im CPU-Limit bei dem man gerade mal auf die halbe Refreshrate seines Monitors kommt.
Langlay
2024-01-14, 18:48:22
Als NV FG eingeführt wurde, haben es Nvidia-User gefeiert. Jetzt gibt es FG für jeden und niemanden juckts.
Welchen Grund soll es dann deiner Meinung nach geben?
Ich kann nur für mich sprechen, aber meine Meinung zu FG allgemein hat sich in letzter Zeit nicht geändert.
FSR/DLSS sind imo nice2have. Aber FG ist ein Gimmick wo ich den Sinn dahinter noch nicht ganz sehe. Ich kann halt aus 80 FPS 140FPS machen die sich von der Inputseite (Mausfeeling usw.) anfühlen wie 80 FPS. Ja wow meine Begeisterung kennt keine Grenzen.
Der Post ist von April 2023.
Bevor ich die 4090 hatte, fand ich FG allgemein auch ganz interessant, nach dem ich es erlebt habe, hat sich meine Meinung halt geändert. Und AFMF hat da nichts geändert, schön das es quasi überall läuft, aber dafür ist es halt noch sinnloser als das FG von Nvidia das nur zusammen mit Reflex läuft.
Relex
2024-01-15, 21:25:04
Tja, so unterschiedlich sind die Meinungen.
Ich finde Frame Generation ist das mit großen Abstand beste, was Gaming je passieren konnte und falls AMD und Nvidia es hinbekommen wird das die wahrscheinlich einzige Lösung sein, um 240, 480 oder irgendwann 980 Hz Displays voll auszureizen, wenn man mehr als nur ein Zwischenbild erzeugen kann.
Bisher hatte ich auch kein einziges Spiel wo ich es nicht genutzt habe. Selbst bei 80 oder 90 FPS fühlt sich die doppelte Framerate so viel smoother an. Selbst bei 30 FPS ist es noch brauchbar und ein deutlicher Zugewinn, wenn auch kompromissbehaftet.
Der Gewinn an Schärfe in Bewegung ist in jedem Fall einfach immens.
Und endlich kann man in sehr vielen Spielen auch 150-200 FPS genießen ohne dass die Frametimes aufgrund teilweise einsetzender CPU limits langsam unrund werden. Zumal so hohe Frameraten mit Raytracing eh zunehmen schwieriger geworden sind, nachdem RT auch gehörig auf die CPU performance schlägt.
Der Impact auf die Bildqualität ist generell auch sehr viel geringer, als mit den Upscalern und die Latenz ist dank Reflex kein Problem.
Dealbreaker bei Lossless Scaling ist leider genauso wie bei FSR3 für mich der fehlende/schlechte VRR support. Für mich ist das essenziell, wesshalb ich nichtmal geneigt bin, es auszuprobieren.
Erstrecht nachdem praktisch alle aktuellen Spiele, bei denen mir die Leistung zu knapp sein könnte sowohl Upsacling als auch Frame Generation (notfalls per Mod) unterstützen.
Hätte Starfield noch immer keinen Frame Generation support und gäbe es auch keine Mods dafür, hätte ich das Tool wahrscheinlich ausprobiert.
Im aktuellen Spieleumfeld ist der Nutzen daher wohl stark begrenzt. Für ältere Spiele mit FPS lock oder Emulation oder einfach Spiele mit extremen CPU limits könnte das aber auf jeden Fall interessant sein.
Bisher hatte ich auch kein einziges Spiel wo ich es nicht genutzt habe. Selbst bei 80 oder 90 FPS fühlt sich die doppelte Framerate so viel smoother an. Selbst bei 30 FPS ist es noch brauchbar und ein deutlicher Zugewinn, wenn auch kompromissbehaftet.
Kann ich nicht bestätigen, die doppelte Framerate fühlt sich überhaupt nicht Smoother an, sie sieht definitiv deutlich besser aus.
Bei PortalRTX musste ich FG ausmachen, weil die Basisframerate teilweise auf 50 fällt, und dann fühlt es sich ziemlich beschissen an, und in den Levels in denen man die Portale verschießen muss während man irgendwo runterspringt ist es definitiv wesentlich schwieriger das Timing hinzubekommen.
In Cyberpunk-PT und Immortals fühlt es sich sehr gut an, weil die Basisframerate praktisch immer über 70 liegt und damit die zusätzliche Latenz vernachlässigbar wird, wobei bei Immortals das Problem andersrum ist, das läuft teilweise zu schnell so dass die Framerate über der vom Monitor landet.
Der Gewinn an Schärfe in Bewegung ist in jedem Fall einfach immens.
Ja, der Verlust an Latenz bei niedriger Basisframerate aber auch.
Der Impact auf die Bildqualität ist generell auch sehr viel geringer, als mit den Upscalern und die Latenz ist dank Reflex kein Problem.
Ist sie eben (teilweise) schon, wenn die Latenz ohne FG schon in einem nicht angenehmen Bereich liegt, wird es nur schlimmer. Auch mit Reflex wird diese schlechter.
BlacKi
2024-01-16, 11:12:26
Als NV FG eingeführt wurde, haben es Nvidia-User gefeiert.
FG ist nicht FG. und ich kann mir einfach nicht vorstellen, das die lösung besser ist, als die afmf von amd. und die ist IMHO schon nicht nutzbar.
ich will mir garnicht ausmalen wie schlecht jene ist.
aber hey, wenn du willst kannst du ja tester spielen.
wenn man das auf steam kauft, kann man das doch 2h lang zurück geben.
mir wäre da schon die zeit zu schade für.
Argo Zero
2024-01-16, 11:39:22
Als NV FG eingeführt wurde, haben es Nvidia-User gefeiert. Jetzt gibt es FG für jeden und niemanden juckts.
Welchen Grund soll es dann deiner Meinung nach geben?
So richtig relevant wurde Frame Generation bei mir mit Cyberpunk 2077.
Das neue Ray Tracing fordert halt viel von der Karte und mit Frame Generation kommt man auf sehr angenehme Frameraten.
Das LSFG 1.0 auf wenig Resonanz bisher gestoßen ist liegt vielleicht daran, dass es "Gebastel" ist und nicht direkt im Spiel aktiviert werden kann.
Ich nutze meinen PC mittlerweile wie eine Konsole. Das heißt, einschalten, Spiel paar Settings einstellen und los gehts. Auf Treiber Tweaks, Reshading etc. pp. hbe ich wenig Lust. Am Ende gibts dann noch Fehler, weil das Spiel nicht darauf ausgelegt wurde.
Eigentlich ein Fall für die PCGH das mit gängigen aktuellen Spielen zu testen.
ChaosTM
2024-01-16, 11:50:04
Ohne FG ist 77 in der höchsten Einstellung schlicht und einfach nicht vernünftig spielbar.
Und ja, man kann natürlich die Grafik runter drehen, aber das will ich nicht.
Wozu hab ich eine 1700€ Graka im Rechner stecken.
FG kann grandios sein, natürlich immer abhängig vom Spiel. 77, Avatar im Unobtanium Mode, Witcher 3 und natürlich der Flight Simulator gehören da dazu.
Das Agument bezüglich angeblich stark flackernder HUD bei Avatar ist kompletter Blödsinn, weil sich diese total leicht ausschalten lässt. Braucht kein Mensch.
Und selbst eingeschaltet flackert da fast nichts - in 4k.
Relex
2024-01-16, 13:09:01
Ja, der Verlust an Latenz bei niedriger Basisframerate aber auch.
Die Latenz wird mit FG nur schlechter, wenn du vorher Reflex aktiv hattest - logischerweise.
Im Vergleich zu deaktiviertem Reflex hast du mit FG + Reflex normalerweise keine höhere Latenz. Oft sogar eine etwas bessere.
Finde es immer extrem seltsam, wenn man die Latenz die man mit Reflex ohne FG erreicht immer als mindeststandard für Spielbarkeit definiert. Das ergibt überhaupt keinen Sinn, da vor FG kaum ein Spiel außer ein paar e-sports spiele reflex unterstützt haben.
Außerdem muss man mit AMD und Intel hardware so oder so immer ohne Reflex auskommen.
Zu argumentieren, dass FG (was ja immer reflex aktiv schaltet) also gegenüber Reflex (ohne FG) Latenz kostet ist für mich kein Argument. Zumindest nicht, wenn man damit argumentieren will, dass ein Spiel sich wegen der Latenz mit FG schlecht anfühlt oder es nicht spielbar wäre. Dann wären AMD und Intel GPUs ja generell gar nicht kaufbar und alles darauf unspielbar. Und generell alle Spiele ohne Reflex wären auch unspielbar.
Aber gut, die Diskussion hatten wir mittlerweile eigentlich zu genüge. Muss man jetzt nicht neu durchkauen.
Ich bin jetzt eigentlich auch nicht unempfindlich, was Latenzen betrifft. Ich spüre den Vorteil durch Reflex ohne FG deutlich. Als bei FSR3 in Forspoken die Latenzen bei meiner Nvidia karte schlechter wurden ist mir das auch sehr negativ aufgefallen.
Aber wenn ich mit FG die Latenzen im Bereich dessen bewegen, was ich ohne Reflex und ohne FG bekommen würde, dann ist das einfach ein non-issue.
Cubitus
2024-01-16, 20:24:33
Bei Avatar mit Frame-Genration via Nvidia Mod läufts geschmeidiger als ohne.
Die App-Latancy (das was die APP wirklich als Eingabeverzögerung hat) als auch die Frametime sind besser, des merkst du beim Spielen.
Hab mir eine tolle Szene rausgesucht, Unabtanium 4K--> DLSS Balanced ohne FG absolut im GPU Limit, mit FG wechselst sich diese Szene sogar mit dem CPU Limit ab. :eek:
Unabtanium 4K--> DLSS Balanced ohne FG
https://i.postimg.cc/ZRWK3r6H/20240116-200159.jpg (https://postimg.cc/MM8SJfPf)
Pure-Darks FG Mod
https://i.postimg.cc/26gjxVwD/20240116-200257.jpg (https://postimg.cc/jwQrxqmg)
Mit FG+Reflex
https://i.postimg.cc/6qRWbtjG/20240116-200318.jpg (https://postimg.cc/T5dvpMXR)
Beweis-Bild das auch die CPU bei dieser Szene mit FG limitiert.
https://i.postimg.cc/SRww592y/20240116-200334.jpg (https://postimg.cc/GTx7THxN)
zu Erklärung
GPU-Busy bedeutet die Latenz, mit der die GPU die Frames bereitstellt
je niedriger desto besser. Auswirkungen sind z.b ein CPU-Limit oder eben FG welches intern der Karte Bilder bereitstellt.
Frametime, denke ich sollte klar sein
App-Latancy ist das interessanteste, hier greift Nvidias Reflex, das ist quasi die Latenz mit welcher die App die Eingabe wiedergibt.
Hier misst sich dann auch der Input-Lag.. und die Daten beweisen es laggt gar nix..
Ah ja übrigends der 13600K läuft smooth mit ~40 Watt, das ist ja laut den renommierten Tests gar nicht möglich, Intels saufen einem perse die Steckdose leer ;D
Einen großen Dank geht an Angiesan raus, welcher dieses Overlay mit viel Enthusiasmus und Hirnschmalz zusammengebaut hat :umassa:
Die Latenz wird mit FG nur schlechter, wenn du vorher Reflex aktiv hattest - logischerweise.
Logischerweise habe ich Reflex immer aktiv falls verfügbar, und das ist es mit und ohne FG. Der Vergleich mit Reflex Off ist praxisfern und komplett irrelevant.
Und die Latenz mit FG ist auch nicht notwendigerweise besser als ohne Reflex, manche Spiele zeigen bereits ohne Reflex eine sehr gute Latenz da bringt Reflex kaum was, FG dagegen kostet immer Latenz. Je nach Spiel kann FG besser sein als komplett ohne Reflex aber auch schlechter.
Im Vergleich zu deaktiviertem Reflex hast du mit FG + Reflex normalerweise keine höhere Latenz. Oft sogar eine etwas bessere.
Nachdem Reflex nicht FG voraussetzt wie erwähnt komplett irrelevant.
Finde es immer extrem seltsam, wenn man die Latenz die man mit Reflex ohne FG erreicht immer als mindeststandard für Spielbarkeit definiert.
Es geht um keinen Mindeststandard, es geht darum was das beste Spielerlebnis in einem bestimmten Spiel bringt.
Die Frage ist bringt FG+Reflex insgesamt ein besseres Spielerlebnis als Reflex ohne FG. Und da lautet die Antwort bei niedrigen Base-FPS ganz klar nein, bei mittleren Base-FPS ja und bei hohen Base-FPS (abhängig vom Monitor) wieder nein.
Dass Reflex+FG potentiell ein besseres Spielerlebnis als kein Reflex und kein FG bringen kann ist irrelevant, weil jedes Spiel was FG unterstützt auch Reflex unterstützt und ich damit immer die Wahl habe Reflex mit oder ohne FG.
Wieso sollte ich ein Feature aktivieren, wenn es mein Spielerlebnis verschlechtert?
Hab mir eine tolle Szene rausgesucht, Unabtanium 4K--> DLSS Balanced ohne FG absolut im GPU Limit, mit FG wechselst sich diese Szene sogar mit dem CPU Limit ab. :
Wie soll das gehen? FG reduziert die CPU Abhängigkeit im Spiel. Es halbiert die CPU last vs ohne. FG erhöht die GPU last.
BlacKi
2024-01-17, 00:53:48
@cubi.
FG kann keine echtzeit frames ausgeben. FG laggt !!!immer!!! 1/2 base frame hinterher.
selbst bei 120fps fg on vs 60fps fg off hast du trotzdem höheren inputlag mit fg on. und nichtmal gleichen inputlag, sondern höheren inputlag, weil die gpu 2 bilder braucht um daraus einzwischenbild zu machen.
reflex kann da helfen die baseframes in der latenz zu optimieren, dass der zusätzliche FG lag wegfällt. es kann die echten frames mit fg on nicht sofort ausgeben wie FG off.
FG selbst hat immer zusätzlichen lag.
du kannst lediglich behaupten, der inputlag ist noch akzeptabel für dich. aber schlechter ist es auf jeden fall.
und wenn dann noch reflex im spiel fehlt, wird das ganze recht schnell unspielbar, höchstens bei pervers hohen fps, aber das kostet dann trotzdem rechenleistung, denn FG kostet bei nv rechenleistung.
ps hier wurde das jedermann FG getestet. massive artefakte und trotzdem ruckler. funzt wohl auch nur in FHD?
fz5EPUsQF0Q
Fusion_Power
2024-01-17, 01:13:22
Für ALLE GPU? Das will ich sehen wie man das auf meiner GTX 1050Ti zum laufen bringt. :D Cool wäre es natürlich.
gnomi
2024-01-17, 07:41:15
Habe noch einfache Standards.
120 Herz mit GSync Modul reichen mir.
Annährend 120 fps angetackert. Geil, aber muss bei aktuellen Games nicht sein.
80-120 fps avg. Geht bei vielen aktuellen Games. Man braucht nichts reduzieren. Sehr angenehm.
60 fps. Für herausfordernde Games das Ziel bei den Einstellungen.
40-60 fps. Als Minimum auch noch okay bei außergewöhnlicher Grafik.
Falls ich die 3080TI dann doch mit der 4080 noch tausche, würde ich es aktivieren und auf 60 einstellen.
Ich verspreche mir davon aber keine Revolution. Das ist ein nettes Gimmick.
Erst mit dem nächsten System mit mehr CPU Power und einem besserem Bildschirm und mehr Auflösung und hz wird es interessant.
Zumindest meinen Erfahrungen nach aus Immortals of Aveum.
Es funktioniert mit FSR und FG, aber ich bleibe eben lieber bei DLSS und warte dann, bis ich die nächste nvidia GPU habe.
Auf die 60fps muss ich ohnehin einstellen.
Hier bringt es keinen Vorteil!
Die Technik ist denke ich nicht gehypt, aber nicht jeder hat jetzt sofort 240/480hz Displays und diesen Mega Anspruch.
Das ist so ein bisschen wie beim Smartphone und anderen Geräten mit 90/120hz Support. Schon besser, aber mir wird ja jetzt nicht schwindlig am 60fps Gerät. Wird halt nach und nach neuer Standard.
Und Frame Generation wird auch einfach bei jeder neuen Karte in Verbindung mit Minimum einem Upscaling Verfahren dann genutzt werden können.
Steht und fällt aber mit standardisiertem Support und gutem Upscaling.
Shink
2024-01-17, 09:37:43
ps hier wurde das jedermann FG getestet. massive artefakte und trotzdem ruckler. funzt wohl auch nur in FHD?
Das wär natürlich großartig, wenn man aus "upscaled FHD mit 30fps" 60fps machen könnte auf seiner Laptop-GPU. Aber klarer Weise funktioniert genau so etwas am aller wenigsten.
Cubitus
2024-01-17, 10:14:21
@cubi.
FG kann keine echtzeit frames ausgeben. FG laggt !!!immer!!! 1/2 base frame hinterher.
selbst bei 120fps fg on vs 60fps fg off hast du trotzdem höheren inputlag mit fg on. und nichtmal gleichen inputlag, sondern höheren inputlag, weil die gpu 2 bilder braucht um daraus einzwischenbild zu machen.
reflex kann da helfen die baseframes in der latenz zu optimieren, dass der zusätzliche FG lag wegfällt. es kann die echten frames mit fg on nicht sofort ausgeben wie FG off.
FG selbst hat immer zusätzlichen lag.
du kannst lediglich behaupten, der inputlag ist noch akzeptabel für dich. aber schlechter ist es auf jeden fall.
und wenn dann noch reflex im spiel fehlt, wird das ganze recht schnell unspielbar, höchstens bei pervers hohen fps, aber das kostet dann trotzdem rechenleistung, denn FG kostet bei nv rechenleistung.
ps hier wurde das jedermann FG getestet. massive artefakte und trotzdem ruckler. funzt wohl auch nur in FHD?
https://youtu.be/fz5EPUsQF0Q
FG ist nicht gleich FG:
Bei MP-Shootern kann es schon zu Nachteilen kommen, wenn man einen extra Frame berechnet bekommt, den die anderen Spieler nicht haben.
Bei Avatar ist das aber nicht der Fall, da ist es tatsächlich so, dass sich das ganze Spiel in unabtanium@4k und DLSS balanced relativ langsam anfühlt, was auch die APP-Latency bestätigt.
Dann kommt eben Frame-Generation + Reflex zum Einsatz, in den Tensor Cores wird dann eben das nächste künstliche Bild für die Szene berechnet, der Snowdrop Engine gefällt das anscheinend so gut das sich die App-Latency halbiert, bedeutet also das deine Eingaben auch schneller von der APP verarbeitet werden. und die FPS gehen nach oben, sogar das GPU Limit fällt nun teilweise, und die Karte benötigt mehr Daten von der CPU.
Man kann auch davon ausgehen, dass Nvidia seine Treiber für Avatar trainiert hat, also auch für FG optimiert hat.
Es fühlt sich zumindest besser als AMDs "Lösung" an, und sieht dank DLSS auch besser aus. Es gibt z.b hier kein Flackern in Verbindung mit VRR..
Das Overlay zapft die Daten von Perfmon an, die Datenquelle ist also recht zuverlässig. Wer das Riva-Statistic-Overlay haben möchte,
kann sich gerne per PN an Angiesan wenden. --> das läuft sowohl mit Intel als auch AMD, kommt eben drauf an was ihr so im System habt ;)
Argo Zero
2024-01-17, 10:28:47
Bei MP Shooter macht es auch keinen Sinn mit Ultra Detail zu spielen. Da nimmt man meistens eine Mischung an Einstellungen damit man theoretische Vorteile hat.
Da heißt es Latenz- und FPS targets erreichen und parallel Einstellungen finden für bessere Sichtbarkeit usw.
Ich denke FG wird da nie wirklich zum Einsatz kommen, wenn man einigermaßen ernsthaft MP Shooter spielt.
Cubitus
2024-01-17, 10:38:33
Genau, FG hat in MP Shootern erstmal nichts zu suchen, Reflex aber schon, da es nachweislich die Latenz drückt.
Bzw. ich habe mir das Video lossless Scaling angeschaut.
Es müsste eigentlich useless Scaling heißen ;D
Warum, einfach warum :confused:
Lurtz
2024-01-17, 10:38:42
Für viele meiner Spiele ist nativ integrierte Frame Generation ein Segen. Ich empfinde die steigende Latenz in den meisten Singleplayerspielen als wesentlich weniger schwerwiegend, gegenüber der viel flüssigeren und bewegungsschärferen Darstellung der Frames auf dem Display.
Dabei spiele ich mittlerweile fast alles mit Maus und Tastatur, mit Gamepad würde die Bilanz wahrscheinlich noch positiver für FG ausfallen.
BlacKi
2024-01-17, 10:38:59
Beweis-Bild das auch die CPU bei dieser Szene mit FG limitiert.
https://i.postimg.cc/SRww592y/20240116-200334.jpg
wie kann es sein, das eine cpu ohne FG 57fps bringt und dann mit fg on bei 45 fps(dank fg on 90) im cpu limit sein soll.
das geht nicht.
genauso scheint die app die du da installiert hast bei FG off zuviel app latency zu zeigen. und bei fg on zu wenig.
selbst nvidias folien zeigen mit fg on + reflex schlechteren input lag als fg off ohne reflex. was schon recht unfair ist.
deine folien sollen belegen, das FG den inputlag mehr als halbiert?
Cubitus
2024-01-17, 10:53:40
wie kann es sein, das eine cpu ohne FG 57fps bringt und dann mit fg on bei 45 fps(dank fg on 90) im cpu limit sein soll.
das geht nicht.
genauso scheint die app die du da installiert hast bei FG off zuviel app latency zu zeigen. und bei fg on zu wenig.
selbst nvidias folien zeigen mit fg on + reflex schlechteren input lag als fg off ohne reflex. was schon recht unfair ist.
deine folien sollen belegen, das FG den inputlag mehr als halbiert?
Das mit dem CPU Limit geht schon, natürlich nicht permanent, das wechselt je nach Szene im Sekundenbereich,
aber ohne FG oder DLSS ist die GPU letztendlich dauerhaft mit der Engine beschäftigt.
Plakativ ist es natürlich, wenn man auf 1080p low geht, dann ist man quasi immer im CPU Limit.
Das Overlay beweist, dass sich die Latenz der App mit FG+Reflex halbiert, das betrifft letztendlich auch die Eingaben, das ist auch klar, wenn die App eine geringere Latenz hat,
kann sie auch schneller auf deine Eingaben reagieren.
Vor allem bei Avatar + FG ist das so, bisher konnte ich bei meinen aktuellen Spielen noch keinen so krassen Unterschied in der Applatenz in Verbindung mit FG feststellen.
Wie gesagt, die Datenquelle vom Overlay ist Perfmon, und von Perfmon ist es das System selbst.
Das Overlay macht nichts anderes als die Daten, die ja da sind, anzuzapfen und dann entsprechend darzustellen.
Relex
2024-01-17, 11:17:49
Und da lautet die Antwort bei niedrigen Base-FPS ganz klar nein, bei mittleren Base-FPS ja und bei hohen Base-FPS (abhängig vom Monitor) wieder nein.
Dass Reflex+FG potentiell ein besseres Spielerlebnis als kein Reflex und kein FG bringen kann ist irrelevant, weil jedes Spiel was FG unterstützt auch Reflex unterstützt und ich damit immer die Wahl habe Reflex mit oder ohne FG.
Wieso sollte ich ein Feature aktivieren, wenn es mein Spielerlebnis verschlechtert?
Ja, du versuchst die Diskussion eben wieder richtung "ohne Reflex = unspielbar" zu ziehen und definierst damit Latenz als das Kriterium #1 für Spielbarkeit. Steht halt bei mir, insbesondere bei Singleplayer Games nur an zweiter Stelle.
Klar, wenn für dich Latenzen oberste Prio haben, meinetwegen. Dann ist das so.
Ich sag ja nur, dass man dem ganzen rein logisch nicht den Nutzen absprechen kann, solange die Latenzen im üblichen Rahmen sind oder sogar besser. Das ist der Punkt.
Leute behaupten, die Latezen mit FG lassen das Spiel träge wirken und es wäre dadurch schlecht spielbar, was eben faktisch falsch ist.
Ich sehe im bereich 30-120 FPS daher einen großen Nutzen durch FG.
Natürlich sind 30 FPS auf 60 FPS mit FG nicht optimal. Aber 30 FPS sind es genauso wenig.
Das Spielerlebnis wird aber massiv aufgebessert. 60 FPS mit FG mit der Latenz von 30 FPS ist immernoch spielbar, aber 30 FPS ohne FG sind eine Ruckelorgie, die ich mir nicht geben könnte.
Und letztendlich gibt mir der Hype um FG sowohl bei Nvidia als auch bei AMD mit FSR3 und FMF auch Recht. Die allermeisten Leute brauchen die alleinige Latenzreduktion nicht und sind auch mit den latenzen zufrieden, die bisher gang und gäbe waren. Wenn man jetzt mit Latenzreduktion + FG doppelte FPS bei gleichen oder geringeren latenzen bekommt, dann ist das für die meisten ein großer Zugewinn.
Dass das nicht jeder so sieht ist ja okay. Gibt auch Leute, die mit Low settings in 720p spielen, damit die Latenzen passen. Gibt halt unterschiedliche Prioritäten und auch mal extreme Auswüchse davon.
Hier mal ein paar Daten, die ich selbst rausgemessen habe aus einem älteren Kommentar von mir (die entsprechenden frameraten habe ich durch anpassen des Powerlimits der GPU erzeugt)
Cyberpunk 2077
1440p
60 FPS nativ = 75 ms
60 FPS reflex = 40 ms
100 FPS FG = 50 ms
30 FPS nativ = 150 ms
30 FPS reflex = 60 ms
55 FPS FG = 80 ms
2160p
60 FPS nativ = 75 ms
60 FPS reflex = 40 ms
88 FPS FG = 55 ms
30 FPS nativ = 150 ms
30 FPS reflex = 60 ms
50 FPS FG = 85 ms
Returnal
2160p
30 FPS nativ = 140 ms
30 FPS reflex = 60 ms
45 FPS FG = 85 ms
60 FPS nativ = 70 ms
60 FPS reflex = 30 ms
90 FPS FG = 50 ms
1440p
60 FPS nativ = 70 ms
60 FPS reflex = 35 ms
100 FPS FG = 45 ms
Und hier noch ein Beispiel aus einem Computerbase Test:
https://abload.de/img/screenshot2023-08-0927we1s.png
Also wo ist dieses angebliche Latenzproblem mit FG denn?
Es ist langsamer als Reflex, was ich niemals bestreiten würde, da es auch nicht anders sein kann. Aber dass sich das träge oder schlecht anfühlt, braucht mir wirklich keiner erzählen.
Erstrecht nicht, wenn die Latenz mit FG auch noch besser ist, als nativ.
ChaosTM
2024-01-17, 11:25:34
Beim Flight Simulator geht die Bildrate auf manchen Flughäfen auf an die 30 runter, da das Spiel immer noch hauptsächlich auf einem Kern läuft.
Da ist FG sehr praktisch.
Es kommt zwar bei sehr schnellen Schwenks der Außenkamera zu Artefakten, aber das ist angenehmer als mit 30, oder tw. sogar minimal darunter, herumzugurken.
Optimal ist es natürlich auch nicht..
Exxtreme
2024-01-17, 11:33:54
Also wo ist dieses angebliche Latenzproblem mit FG denn?
Vergleich Nativ + Reflex mit Nativ + FG und schon siehst du das Latenzproblem.
Cubitus
2024-01-17, 11:35:39
Leute behaupten, die Latezen mit FG lassen das Spiel träge wirken und es wäre dadurch schlecht spielbar, was eben faktisch falsch ist.
Genau, und es ist auch mittlerweile nachvollziehbar bzw. adhoc auslesebar :)
Avatar ist so ein Spiel welches mit (NV)FG das eindeutig bessere Spielgefühl abliefert.
Ich sehe im Bereich 30-120 FPS daher einen großen Nutzen durch FG.
Ich sehe im Monitor-Thread, dass Leute von 480Hz - 900Hz "träumen".
Mit welcher HW soll das gehen :freak: Das geht nur mit FG.
Und da würde ich gerne die "bessere" Lösung haben, die auf KI setzt und nicht perse im Spiel implementiert werden muss und dedizierte Einheiten in der GPU verwendet,
um die Leistung und Qualität hoch zu halten und das kann eben aktuell in der Form nur Team Green.
Lurtz
2024-01-17, 11:35:49
Vergleich Nativ + Reflex mit Nativ + FG und schon siehst du das Latenzproblem.
Also haben alle Spiele, die nicht mit nVidia GPU + Reflex gespielt werden können, ein Latenzproblem?
Exxtreme
2024-01-17, 11:39:11
Also haben alle Spiele, die nicht mit nVidia GPU + Reflex gespielt werden können, ein Latenzproblem?
Ähhh, wie kommst du da drauf?
Lurtz
2024-01-17, 11:40:10
Ähhh, wie kommst du da drauf?
Weil dein Argument unter der Annahme keinen Sinn ergibt, merkst du ja jetzt selbst...
BlacKi
2024-01-17, 11:46:02
Das mit dem CPU Limit geht schon, natürlich nicht permanent, das wechselt je nach Szene im Sekundenbereich,
aber ohne FG oder DLSS ist die GPU letztendlich dauerhaft mit der Engine beschäftigt.
tut mir leid. das stimmt nicht. deine eigenen werte widerlegen deine aussagen. deine cpu schafft mindestens 57fps ohn FG und mit FG schafft sie nur noch 45? bei fg on halbiert sich die cpu last und erhöht sich die gpu last.
wieso soll eine cpu unter niedrigerer last (FG on) stärker limitieren als unter mehr last (FG off)?
Exxtreme
2024-01-17, 11:48:01
Weil dein Argument unter der Annahme keinen Sinn ergibt, merkst du ja jetzt selbst...
Wie bitte? Es macht schlicht keinen Sinn "Nativ + FG" mit "Nativ ohne Reflex" zu vergleichen.
Relex
2024-01-17, 11:51:26
Ich vermute das Overlay zeigt "CPU limit" an, weil Reflex die Framerate dynamisch limitiert, so dass die GPU Last immer knapp unter 100% liegt.
Die Tatsache, dass die Latenzen bei 100% GPU Last steigen und unter 100% sinken ist einer der wesentlichen Aspekte, die Reflex zur Latenzreduktion nutzt.
Technisch gesehen hat man mit einem FPS limit eben immer ein "CPU limit". Die Anzeige ist daher genau genommen schon richtig, aber in dem Fall eben anders zu interpretieren, da man unter CPU limit üblicherweise was anderes versteht.
Wie bitte? Es macht schlicht keinen Sinn "Nativ + FG" mit "Nativ ohne Reflex" zu vergleichen.
Warum?
Es geht nicht um das absolute optimum, sondern um die Frage, ob man mit FG ein "Latenzproblem" hat und es dadurch nicht gut spielbar ist. Und da ist es nur richtig, sich einfach mal die Ausgangslage ohne besondere vendorspezifische optimierungen anzusehen. Und da schneidet FG ziemlich gut ab, wenn du mich fragst ;)
Lurtz
2024-01-17, 11:52:54
Wie bitte? Es macht schlicht keinen Sinn "Nativ + FG" mit "Nativ ohne Reflex" zu vergleichen.
Natürlich macht das Sinn, das ist ja genau das Baseline-Setting, in dem ein Großteil der Spiele gespielt wird.
Das ist ja auch genau Relex Argument, dass FG dem gegenüber immer noch eine enorme Verbesserung darstellt.
Wenn du mit FG+Reflex bessere Latenzen als mit Native ohne Reflex, und ein deutlich flüssigeres Bild bekommst, ergibt es keinerlei Sinn, FG+Reflex ein Latenzroblem zu unterstellen.
Langlay
2024-01-17, 11:55:22
Natürlich macht das Sinn, das ist ja genau das Baseline-Setting, in dem ein Großteil der Spiele gespielt wird.
Das ist ja auch genau Relex Argument, dass FG dem gegenüber immer noch eine enorme Verbesserung darstellt.
Da es Nvidia Framegeneration aber nicht ohne Reflex gibt, ist die Baseline da nicht nativ sondern Reflex ohne FG.
In Spielen ohne Reflex gibt es halt auch kein Nvidia Framegeneration. Da ist dann halt friss oder stirb.
Exxtreme
2024-01-17, 11:57:03
Natürlich macht das Sinn, das ist ja genau das Baseline-Setting, in dem ein Großteil der Spiele gespielt wird.
Das ist ja auch genau Relex Argument, dass FG dem gegenüber immer noch eine enorme Verbesserung darstellt.
Ich glaube, du verstehst es immer noch nicht. Jedes Spiel, welches FG unterstützt, hat automatisch Reflex-Unterstützung. Also warum sollte man Reflex deaktiviert lassen wenn man FG deaktiviert? Das macht schlicht keinen Sinn. Man aktiviert Reflex und hat bessere Latenzen als mit FG + Reflex. Und Spiele ohne Reflex haben auch keine FG. Und da stellt sich die Frage überhaupt nicht.
Cubitus
2024-01-17, 11:58:17
tut mir leid. das stimmt nicht. deine eigenen werte widerlegen deine aussagen. deine cpu schafft mindestens 57fps ohn FG und mit FG schafft sie nur noch 45? bei fg on halbiert sich die cpu last und erhöht sich die gpu last. wieso soll eine cpu unter niedrigerer last (FG on) stärker limitieren als unter mehr last (FG off)?
DLSS belastet indirekt auch die CPU, da die GPU schneller rendern kann und Daten will, wenn die interne Auflösung niedriger ist.
Nimm kein so anspruchsvolles Spiel und eine 4090 und stelle DLSS auf Balanced oder Performance, dann kann es schon unter 4K zu nem dauerhaften CPU Limit kommen.
Lurtz
2024-01-17, 12:01:32
Da es Nvidia Framegeneration aber nicht ohne Reflex gibt, ist die Baseline da nicht nativ sondern Reflex ohne FG.
Heißt im Umkehrschluss aber eben auch, dass jedes Spiel ohen Reflex laut euch ein Latenzproblem hat.
Ist das nicht der Fall, ist es kein Problem, sondern einfach nur eine Wahl zwischen zwei Optionen, die beide sinnvoll sein können.
Ich glaube, du verstehst es immer noch nicht. Jedes Spiel, welches FG unterstützt, hat automatisch Reflex-Unterstützung. Also warum sollte man Reflex deaktiviert lassen wenn man FG deaktiviert? Das macht schlicht keinen Sinn. Man aktiviert Reflex und hat bessere Latenzen als mit FG + Reflex. Und Spiele ohne Reflex haben auch keine FG. Und da stellt sich die Frage überhaupt nicht.
Das kann ich direkt zurückgeben.
Nach der verqueren Logik hätten Spiele mit FG plötzlich kein Latenzproblem mehr, würde nVidia Reflex an FG bundeln und ohne nicht aktivierbar machen ;D
Langlay
2024-01-17, 12:07:59
Heißt im Umkehrschluss aber eben auch, dass jedes Spiel ohen Reflex laut euch ein Latenzproblem hat.
Nein, heißt es im Umkehrschluss nicht. Es heisst nur das es ohne Reflex wahrscheinlicher ist das es Latenzprobleme gibt als mit Reflex. Aber es ist keine Garantie es Latenzprobleme gibt.
Wenn das Spiel nativ mit 600FPS läuft wirste trotzdem super Latenz haben, auch ganz ohne Reflex.
DrFreaK666
2024-01-17, 12:09:19
Nein, heißt es im Umkehrschluss nicht...
Für manche heißt es das: "AMD ist Müll weil es kein Reflex gibt"
Langlay
2024-01-17, 12:12:25
Für manche heißt es das: "AMD ist Müll weil es kein Reflex gibt"
Das ist dann das Problem vom manchen. Aber bei AMD gibts es ja Anti-Lag+ was ja quasi das gleiche in rot ist.
BlacKi
2024-01-17, 12:15:30
Natürlich macht das Sinn, das ist ja genau das Baseline-Setting, in dem ein Großteil der Spiele gespielt wird.
Das ist ja auch genau Relex Argument, dass FG dem gegenüber immer noch eine enorme Verbesserung darstellt.
Wenn du mit FG+Reflex bessere Latenzen als mit Native ohne Reflex, und ein deutlich flüssigeres Bild bekommst, ergibt es keinerlei Sinn, FG+Reflex ein Latenzroblem zu unterstellen.
es sind halt 2 diskussionen. ist es spielbar mit FG vs bietet FG die gleiche oder sogar bessere latenz.
und bei hohen fps halte ich es mit reflex für nutzbar, dennoch steigt der inputlag spürbar an. ich habs ja selbst in cyberpunk getestet. man kann schlicht nicht behaupten, es setzt garkeinen lag obendrauf. das ist schlicht die unwahrheit.
Exxtreme
2024-01-17, 12:20:59
Das kann ich direkt zurückgeben.
Nach der verqueren Logik hätten Spiele mit FG plötzlich kein Latenzproblem mehr, würde nVidia Reflex an FG bundeln und ohne nicht aktivierbar machen ;D
Nein, das bedeutet, dass es wahrscheinlicher ist, dass man spürbare Latenzen bekommt bei Spielen ohne/mit deaktivierten Reflex. Mehr nicht.
Aber darum ging es mir nicht. Relex hat Dinge verglichen, die in der Praxis schlicht keinen Sinn machen. Denn jedes Spiel, welches FG unterstützt, hat damit automatisch Reflex-Untersützung. Bzw. sein Vergleich macht nur dann Sinn wenn man zwei verschiedene Spiele vergleicht. Nämlich eins mit FG-Unterstützung und eins ohne FG/Reflex-Untersützung. Aber das hat Computerbase in dem Artikel nicht gemacht. Und Latenzvergleiche von verschiedenen Spielen sind sowieso meist für die Katz da die Engine und der Content grundverschieden sind.
Lurtz
2024-01-17, 12:30:17
Nein, das bedeutet, dass es wahrscheinlicher ist, dass man spürbare Latenzen bekommt bei Spielen ohne/mit deaktivierten Reflex. Mehr nicht.
Aber darum ging es mir nicht. Relex hat Dinge verglichen, die in der Praxis schlicht keinen Sinn machen. Denn jedes Spiel, welches FG unterstützt, hat damit automatisch Reflex-Untersützung. Bzw. sein Vergleich macht nur dann Sinn wenn man zwei verschiedene Spiele vergleicht. Nämlich eins mit FG-Unterstützung und eins ohne FG/Reflex-Untersützung. Aber das hat Computerbase in dem Artikel nicht gemacht. Und Latenzvergleiche von verschiedenen Spielen sind sowieso meist für die Katz da die Engine und der Content grundverschieden sind.
Hat er nicht, er hat genau geschrieben, worum es ihm geht:
und definierst damit Latenz als das Kriterium #1 für Spielbarkeit. Steht halt bei mir, insbesondere bei Singleplayer Games nur an zweiter Stelle.
Ich sag ja nur, dass man dem ganzen rein logisch nicht den Nutzen absprechen kann, solange die Latenzen im üblichen Rahmen sind oder sogar besser. Das ist der Punkt.
Da Reflex keine zusätzlichen Bilder generiert, ist der Vergleich darüber hinaus natürlich zulässig.
Aber das wars jetzt davon auch von mir, keine Lust meine Zeit zu verschwenden, wie jedes Mal wenn du in einer TAA und Upsampling-Diskussion mit deinem TESO-Bild und MSAA ist eh das schärfste kommst.
BlacKi
2024-01-17, 12:32:37
Das ist dann das Problem vom manchen. Aber bei AMD gibts es ja Anti-Lag+ was ja quasi das gleiche in rot ist.also tests belegen, das reflex besser ist. test belegen aber auch, das fps limiter die besseren reflexes/antilags sind. je nach game.
mal davon abgesehen, das antilag+ bei mir nicht vorhanden ist, auch bei games die das angeblich supporten.
Relex
2024-01-17, 12:48:07
hatte auch schon oft die Situation wie in Avatar, dass FG erst nachträglich per Patch oder Mod ins Spiel kommt.
Da ist es einfach in jeder Hinsicht ein großes Upgrade, mit etwas besseren latenzen und gleichzeitig doppelter Framerate zu spielen. Ich könnte bei diesen mods genauso FG aus machen und nur den Reflex Vorteil mitnehmen. Aber ich hab mich ausnahmslos immer für FG + Reflex entschieden.
@Exxtreme
Ich finde es interessant, wie du dem Kern der Diskussion ausweichst und immer davon sprichst, dass es doch mit Reflex alleine noch bessere Latenzen gibt.
Ich weiß nicht, wie oft ich mittlerweile schon geschrieben habe, dass ich dem zustimme. Damit rennst du bei mir eine offene Tür ein und dennoch versuchst du es als Argumentationsgrundlage zu nehmen. Das ist wirklich kurios.
Aber ich wiederhole es gerne nochmal. Ich sehe bei FG+Reflex einfach kein Latenzproblem, wenn ich damit gleiche oder bessere Latenzen habe, als in den meisten anderen Spielen ohne Reflex.
Letztendlich hast du eben die Wahl zwischen sehr guten latenzen mit Reflex und guten bzw. normalerweise üblichen Latenzen jedoch bei doppelter Bildrate.
Dass du Reflex als Option mit der geringsten Latenz als Argument nutzt, um FG Latenzprobleme zu unterstellen ergibt aus meiner Sicht deswegen keinen Sinn, weil ein Problem das ich als solches bemängle nicht von dem im Spiel verfügbaren Optionen abhängt (sprich, wenn Reflex exisitiert, ist die Latenz mit FG ein Problem, wenn es nicht exisitiert, sind die Latenzen ohne Reflex die dann gleich oder schlechter zu FG wären, plötzlich wieder ok - so argumentierst du gerade), sondern von meinem persönlichen Empfinden und das ändert sich nicht plötzlich nur, weil im Spiel andere Optionen verfügbar sind.
Auf Basis dessen argumentieren zu wollen ist echt wild, aber gut... :smile:
Aber wir drehen uns hier wieder im Kreis. Wenn ihr kein FG nutzen wollt, meinetwegen. Die meisten leute wollen es nutzen und es ist eines der Features, das bei neuen Spielen besonders oft nachgefragt wird. Schau dir irgend einen Thread auf beliebigen Seiten zu den Systemanforderungen eines Spiels an. Es dauert nur wenige Kommentare, bis die Frage kommt, ob FG unterstützt wird.
Aber kaum jemand fragt nach Reflex oder nach den Latenzen.
Das ist einfach kein Priothema für die meisten Leute, weil es kaum Latanzeprobleme gibt weder mit FG noch ganz ohne Reflex.
Für die allermeisten Leute fangen Latenzprobleme beim spielen im Vsync limit an. Und da reden wir von Latenzen die vielfach höher sind, als bei Reflex off.
Cubitus
2024-01-17, 13:24:23
Ich vermute das Overlay zeigt "CPU limit" an, weil Reflex die Framerate dynamisch limitiert, so dass die GPU Last immer knapp unter 100% liegt.
Die Tatsache, dass die Latenzen bei 100% GPU Last steigen und unter 100% sinken ist einer der wesentlichen Aspekte, die Reflex zur Latenzreduktion nutzt.
Technisch gesehen hat man mit einem FPS limit eben immer ein "CPU limit". Die Anzeige ist daher genau genommen schon richtig, aber in dem Fall eben anders zu interpretieren, da man unter CPU limit üblicherweise was anderes versteht.
Ich bin mir nicht sicher, ob Reflex sich dynamisch auf der Einstellung "FPS 0" anpasst, vermutlich schon und dann ist es genauso so zu interpretieren, danke :)
Ja, du versuchst die Diskussion eben wieder richtung "ohne Reflex = unspielbar" zu ziehen und definierst damit Latenz als das Kriterium #1 für Spielbarkeit. Steht halt bei mir, insbesondere bei Singleplayer Games nur an zweiter Stelle.
Bist du des lesens mächtig? Ich habe ganz klar geschrieben dass es überhaupt nicht um die absolute Spielbarkeit geht sondern rein um den Vergleich Reflex ohne FG und Reflex mit FG. Da Reflex bei Spielen mit FG immer dabei ist, ist das auch der einzig zulässige Vergleich.
Die einzig relevante Frage ist, fühlt sich das Spiel mit FG oder ohne FG (jeweils natürlich mit Reflex) besser an. Und die Antwort auf diese Frage hängt zwar nicht nur aber sehr stark davon ab wieviele FPS man ohne FG erreichen kann.
Ich sag ja nur, dass man dem ganzen rein logisch nicht den Nutzen absprechen kann, solange die Latenzen im üblichen Rahmen sind oder sogar besser. Das ist der Punkt.
Der einzige Nutzen ist, dass Entwickler durch den Einbau von DLSS3-FG dazu gezwungen werden auch Reflex mit einzubauen, was jeden Vergleich ohne Reflex obsolet macht, wie bereits mehrfach geschrieben.
Leute behaupten, die Latezen mit FG lassen das Spiel träge wirken und es wäre dadurch schlecht spielbar, was eben faktisch falsch ist.
Genauso wie es pauschal falsch ist, dass es nicht so ist.
Ob dem so ist hängt von sehr vielen Faktoren ab unter anderem der "Basislatenz" welche die Gameengine erzeugt, und eben sehr stark von der Framerate welche beeinflusst wieviel zusätzliche Latenz durch FG entsteht.
Ich sehe im bereich 30-120 FPS daher einen großen Nutzen durch FG.
Hängt stark vom Spiel und auch der eigenen Hardware ab. Wenn dein Monitor nur 144Hz hat, ist FG mit 120 FPS sinnlos. Unter 60FPS wird es auch in den meisten interaktiven Spielen sinnlos, vielleicht in sowas wie Flight Simulator, oder auch in Quantum Dream Spielen die mehr interactive movies sind, aber eine generelle Nutzbarkeit ist hier definitiv nicht gegeben.
Natürlich sind 30 FPS auf 60 FPS mit FG nicht optimal. Aber 30 FPS sind es genauso wenig.
30FPS fühlt sich in jedem Fall schlecht an, 30FPS mit FG aber noch viel schlechter. So lange es keine FG gibt die nur mit vergangenen Frames funktioniert wird jede Art der FG mindestens 1x Frametime der berechneten Frames an extra Latenz erzeugen, bei 30FPS Base also mindestens +33ms an Latenz, was einfach inakzeptabel ist.
Das Spielerlebnis wird aber massiv aufgebessert. 60 FPS mit FG mit der Latenz von 30 FPS ist immernoch spielbar, aber 30 FPS ohne FG sind eine Ruckelorgie, die ich mir nicht geben könnte.
Es ist abe rnicht 60FPS mit der Latenz von 30, es ist 60FPS mit deutlich schlechterer Latenz als echte 30.
Wenn man jetzt mit Latenzreduktion + FG doppelte FPS bei gleichen oder geringeren latenzen bekommt, dann ist das für die meisten ein großer Zugewinn.
Dem ist aber nicht so, es sind doppelte (real eher +50-70%) FPS bei deutlich schlechterer Latenz, und je niedriger die FPS umso deutlicher wird der Unterschied.
Hier mal ein paar Daten, die ich selbst rausgemessen habe aus einem älteren Kommentar von mir (die entsprechenden frameraten habe ich durch anpassen des Powerlimits der GPU erzeugt)
Cyberpunk 2077
Wie herausgemessen? Wenn mit Overlay tools kannst du die Werte mal in die Tonne treten.
Und selbst LDAT-Ergebnisse sind irreführend, da diese nicht die echten von den generierten Frames unterscheiden können, und nur auf irgendeine Veränderung reagieren, die auch in den generierten Frames sichtbar sind.
Zu diesem Zeitpunkt ist aber das nächste Frame schon fertig, das übernächste gerade im Rendern und zwischen nächsten und übernächsten wird noch ein generiertes zwischengeschoben. Jegliche Reaktion von dir auf eine Bildänderung in einem generierten Frame, hat also mindestens 4 weitere Frames Verzögerung bis sie sich tatsächlich auf den Gamestate auswirkt.
Heißt im Umkehrschluss aber eben auch, dass jedes Spiel ohen Reflex laut euch ein Latenzproblem hat.
Nicht jedes, aber es gibt sie durchaus. Cyberpunk ist beispielsweise ein Kandidat, der ohne Reflex eigentlich unbrauchbar ist, außer man hat die Hardware die 200FPS+ hergibt.
Cubitus
2024-01-18, 08:54:22
Nicht jedes, aber es gibt sie durchaus. Cyberpunk ist beispielsweise ein Kandidat, der ohne Reflex eigentlich unbrauchbar ist, außer man hat die Hardware die 200FPS+ hergibt.
Quatsch, die Latenz der Anwendung liegt bei Cyberpunk ohne Reflex bei ca. 30-32ms.
Das ist nicht unspielbar wenn ich bedenke das ein Battefield mit 20-25ms rumkrebst, das ist auch nicht unbedingt von den FPS abhängig.
Mit Reflex sind es bei Cyberpunk ca. 25-30ms.
Und mit FG sind es ca ~10-14ms, es läuft auch gefühlt sehr sehr gut mit FG.
Die anderen Grafikeinstellungen spielen dabei keine Rolle.
Quatsch, die Latenz der Anwendung liegt bei Cyberpunk ohne Reflex bei ca. 30-32ms.
Das ist nicht unspielbar wenn ich bedenke das ein Battefield mit 20-25ms rumkrebst, das ist auch nicht unbedingt von den FPS abhängig.
Mit Reflex sind es bei Cyberpunk ca. 25-30ms.
Und mit FG sind es ca ~10-14ms, es läuft auch gefühlt sehr sehr gut mit FG.
Die anderen Grafikeinstellungen spielen dabei keine Rolle.
Keine Ahnung was du da "misst", alleine die Tatsache dass du mit FG deutlich niedrigere Werte hast zeigt dass es nicht die Latenz sein kann.
BlacKi
2024-01-18, 10:43:01
10-14ms oben drauf, ja.
DLSS belastet indirekt auch die CPU, da die GPU schneller rendern kann und Daten will, wenn die interne Auflösung niedriger ist.
Nimm kein so anspruchsvolles Spiel und eine 4090 und stelle DLSS auf Balanced oder Performance, dann kann es schon unter 4K zu nem dauerhaften CPU Limit kommen.
dlss belastet die cpu nur mehr, wenn hinten auch mehr fps rauskommen. FG halbiert die cpu anforderungen. was meinst du warum deine cpu mit fg on so wenig verbraucht?
90fps mit FG sind geringere cpu last als 60fps mit fg off. ziemlich genau 33% weniger cpu last.
Cubitus
2024-01-18, 11:23:05
dlss belastet die cpu nur mehr, wenn hinten auch mehr fps rauskommen. FG halbiert die cpu anforderungen. was meinst du warum deine cpu mit fg on so wenig verbraucht?
Ich weiß genau warum mein 13600K so wenig verbraucht :freak:
Das hat nichts mit der FG zu tun, besonders am Beispiel mit Avatar
sondern damit, dass die 13600K bzw. 14600K eigentlich die beste Spiele CPU aus der Raptorlake Gen ist.
Sparsam und schnell, wenn man ein paar Kleinigkeiten beachtet.
Low-Level Loadine Calibration auf Level 1 und den Takt anpassen, in meinem Fall laufen die 6 P-Kerne mit 5 Ghz und die 8 E-Kerne mit 4.0 Ghz. Damit liegt der Verbrauch bei den meisten Spielen zwischen ~25 und 60 Watt.
Bei Cyberpunk oder Last of US sind es ca. ~80 Watt im Peak, dabei ist meine 13600K auch vom Binning her nicht wirklich gut. Ich kenne auch CPUs die bei gleichen Einstellungen noch 10-15 Watt weniger verbrauchen.
Durch meinen guten Ram bin ich mit diesem Setup so schnell wie ein 13700k.
Das erste Bild ist zudem ohne FG ;)
Unabtanium 4K--> DLSS Balanced ohne FG
https://i.postimg.cc/ZRWK3r6H/20240116-200159.jpg (https://postimg.cc/MM8SJfPf)
Unglaublich, wie sparsam und ausreichend schnell ein Intel sein kann und so gar nicht der Stromfresser ist, wie das Narrativ allgemein heraufbeschworen wird.
Das Narrativ hat diese Generation dem 13-14900K zu verdanken, der wirklich alles in Grund und Boden säuft, aber dieser ist keine Gaming-CPU, sondern eher für Workloads gedacht --> Intel hat das leider nicht verstanden.
Bzgl: DLSS
In meinem Fall bei nativer 4K Auflösung mit Balanced bei Avatar, also eigl mit 2227*1253.
Trotzdem kostet das interne Hochskalieren auf nativ die GPU keine Leistung, verlangt aber von der CPU Nachschub.
Wobei unabtanium wirklich leistungsfressend ist, und es kommt eben die Limitierung von Reflex hinzu was das CPU Limit sozusagen triggert.
10-14ms oben drauf, ja
Nein, es ist wahr, dass die APP Latenz sinkt.
10-14ms als Grundwert. Cyberpunk spielt sich wirklich sehr gut mit FG + Reflex, das ist nicht nur ein Gefühl, das ist faktisch so.
Langlay
2024-01-18, 12:06:42
Nein, es ist wahr, dass die APP Latenz sinkt.
10-14ms als Grundwert. Cyberpunk spielt sich wirklich sehr gut mit FG + Reflex, das ist nicht nur ein Gefühl, das ist faktisch so.
Dann misst dein Tool da einfach Mist.
Cyberpunk RT Ultra 3440x1440 Reflex off
https://i.postimg.cc/B6GQbfwK/2024-01-18-11-59-59-Cyberpunk-2077-C-2020-by-CD-Projekt-RED.png
33-35ms PC Latenz
Cyberpunkt RT Ultra 3440x1440 Reflex on + Boost
https://i.postimg.cc/xCTjM3nf/2024-01-18-12-01-08-Cyberpunk-2077-C-2020-by-CD-Projekt-RED.png
25-28ms PC Latenz
Cyberpunkt RT Ultra + Reflex on + Boost und Framegeneration
https://i.postimg.cc/wjng7Ybk/2024-01-18-12-01-34-Cyberpunk-2077-C-2020-by-CD-Projekt-RED.png
38-44ms PC Latenz
Imo isset technisch auch garnicht möglich das bei FG die Latenz unter der Latenz von Reflex ohne FG liegt.
Die Implementierung von Reflex ist für DLSS 3.0 wichtig, da es gegenüber nativem Rendering (oder auch gegenüber DLSS 2.x, FSR 2.x und XeSS) einen zusätzlichen Frame zurückbehält, um von diesem die KI-generierten Frames abzuleiten
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Specials/Nvidia-DLSS-3-RTX-4000-First-Test-1404973/2/
BlacKi
2024-01-18, 12:16:39
@langlay
glaubt er halt nicht.
Nein, es ist wahr, dass die APP Latenz sinkt.
10-14ms als Grundwert.
Was soll diese ominöse "App Latenz" sein? Motion2Photon Delay ist entscheidend.
Cyberpunk spielt sich wirklich sehr gut mit FG + Reflex, das ist nicht nur ein Gefühl, das ist faktisch so.
Glaub ich dir sofort... wenn die Framerate vor der FG schon über 60 war.
Argo Zero
2024-01-18, 14:33:14
Als nVidias FG raus kam hatte ich das auch so aufgeschnappt, dass man für FG schon genug Frames haben sollte. Bei unter 60 ist nicht genug Material vorhanden damit das gescheit generiert werden kann.
Relex
2024-01-18, 14:57:14
Dann misst dein Tool da einfach Mist.
Ich glaube auch, dass der Wert nicht stimmt.
Ich denke, das Nvidia Overlay ist halbwegs brauchbar, weil es sehr gut auf Vsync, FPS limiter CPU und GPU limits reagiert und dann auch Werte anzeigt, die ich dementsprechend erwarten würde.
Dass du ohne Reflex geringe Latenzen hast liegt vermutlich daran, dass du teilweise im CPU Limit bist. Im CPU limit sinken die Latenzen eh schon stark, der Einfluss von Reflex ist dort dann auch gering und die zusätzliche Latenz mit FG ist dann eben im Vergleich am schlechtesten.
Hier, so sieht es bei mir im GPU Limit aus.
1440p DLAA Pathtracing bei 35 FPS
Reflex aus 101,4 ms
https://i.postimg.cc/RVcK9H4S/Reflex-off.png
Reflex an 61 ms
https://i.postimg.cc/kXF6LPvD/Reflex-on.png
FG 67,7 ms
https://i.postimg.cc/pTpKtcX4/FG.png
Dann das ganze nochmal mit DLSS Quality bei 60 FPS
Reflex aus 52,6 ms
https://i.postimg.cc/N0QyQJbb/02-Reflex-off.png
Reflex an 39,2 ms
https://i.postimg.cc/vZs76v3x/02-Reflex-on.png
FG 45,8 ms
https://i.postimg.cc/W1grNJVp/02-FG.png
00-Schneider
2024-01-18, 15:16:03
Als nVidias FG raus kam hatte ich das auch so aufgeschnappt, dass man für FG schon genug Frames haben sollte. Bei unter 60 ist nicht genug Material vorhanden damit das gescheit generiert werden kann.
Für Controller sollte man 40fps als Ausgangsbasis, für Maus eher 60fps haben, ansonsten ist es nach Frame Gen zu schwammig.
imho...
Cubitus
2024-01-18, 15:28:19
@Gast oder Krawall :uponder:
Grundlage ist der Befehl msInputLatency von PresentMon.
Frameview, bzw. das Nvidia Performance Overlay verwendet ebenfalls PresentMon als Grundlage, allerdings hält sich Nvidia bedeckt, wie genau die durchschnittliche PC-Latenz berechnet wird.
Allerdings ist es schon so, dass Framegeneration die Formel von PresentMon durcheinander bringt.
Ohne FG sind die Ergebnisse zu Frameview ähnlich. Wobei Frameview doch eine höhere Grundlatenz auswirft.
https://github.com/GameTechDev/PresentMon/issues/129
Es ist dann alles nicht so wirklich einfach. :frown:
Was in dem Overlay aber richtig und korrekt ausgelesen wird, ist GPU-Busy und das CPU-Limit, sofern man das Limit in diversen Szenerien auch korrekt deuten kann.
@Gast oder Krawall :uponder:
Grundlage ist der Befehl msInputLatency von PresentMon.
Also wie erwartet nichts brauchbares. Entscheidend ist wann welches Frame angezeigt wird, nicht wann es fertig ist, und das kannst du nicht per Tool auslesen, sondern nur am Monitor, bzw. noch besser am Videoausgang.
Lurtz
2024-01-19, 09:47:04
https://youtu.be/cOSG6JN9PGU?t=772
Alan Wake 2 hat mit FG und optimierten PT-Settings im Worst Case 100 ms Latenz - laut Richard kein Problem, das ist so viel Latenz wie CP 2077 im Performance Mode auf Konsole - und da hat sich (mit Gampead) ja auch keiner beschwert.
"Latency is kind of relative".
Und ihr streitet hier über 12 ms ;)
MiamiNice
2024-01-19, 10:20:33
So wenig ich auch von FG halte, "Latency is kind of relative" ist einfach falsch. Wem 100ms Latenz nicht stören, der sollte nicht spielen. Er ist auch kein Spieler, sondern einfach nur jemand der seine "Lebenslangeweile" sinnlos füllt.
Was so jemanden stört oder auch nicht, hat keinerlei Relevanz für jemanden der sich mit dem Thema beschäftigt.
Exxtreme
2024-01-19, 10:26:00
Und ihr streitet hier über 12 ms ;)
Wenn ihn 100 ms nicht stören dann will er nicht spielen sondern daddeln. Kann man gerne wollen. Aber so man wird nicht wirklich Maßstab für Spieler. :)
Und 100 ms würden mich arg stören.
ChaosTM
2024-01-19, 10:29:22
Bei schnellen/kompetitiven Ego Shootern stört das sicher. Da schaltet man das auch nicht ein.
Bei 3rd Person Zockerei kaum. Siehe RDR2 etc..
Argo Zero
2024-01-19, 10:37:32
Was hatte RDR2 dann für ne input Latenz? Gefühlt 2 Sekunden. Das kann man echt nur auf der Konsole spielen :D
Exxtreme
2024-01-19, 10:40:50
Bei 3rd Person Zockerei kaum. Siehe RDR2 etc..
Also bei MMORPGs merke ich den Unterschied zwischen 60 und 120 fps relativ deutlich. Die sind auch 3rd person und 60 vs. 120 fps sind 8,33 ms Unterschied.
BlacKi
2024-01-19, 11:09:23
es gibt halt auch echt leute, die merken keinen unterschied zwischen 60 und 120 fps. etc.
ChaosTM
2024-01-19, 11:29:05
Was hatte RDR2 dann für ne input Latenz? Gefühlt 2 Sekunden. Das kann man echt nur auf der Konsole spielen :D
Knapp unter 2 Sekunden. ;)
Ist aber auch am PC gut spielbar finde ich. Ich hab um 1998 herum Online Spiele mit bis zu 500ms Netzlatenz gespielt. Da lernt man das "vorausahnen". ^^
@ 60 vs 120.: Natürlich bevorzuge ich hier auch 120 und dazu braucht man halt oft FG..
Lurtz
2024-01-19, 12:46:48
So wenig ich auch von FG halte, "Latency is kind of relative" ist einfach falsch. Wem 100ms Latenz nicht stören, der sollte nicht spielen. Er ist auch kein Spieler, sondern einfach nur jemand der seine "Lebenslangeweile" sinnlos füllt.
Was so jemanden stört oder auch nicht, hat keinerlei Relevanz für jemanden der sich mit dem Thema beschäftigt.
In jeder Konsolengeneration spielen über 200 Millionen Spieler mit meist noch höheren Latenzen. Deshalb "latency is kind of relative"...
Und ihr streitet hier über 12 ms ;)
Damit es nur +12ms sind, muss die Baseframerate aber schon um die 80 liegen.
In dem Bereich ist FG ja durchaus sinnvoll.
Und es ist eben auch eine Kette von Latenzen, es ist ja nicht jede einzelne Latenz die möglicherweise im vernachlässigbaren Bereich liegt, sondern die Summe an Latenzen die es eben dann nicht mehr ist.
Lehdro
2024-01-19, 13:36:37
In jeder Konsolengeneration spielen über 200 Millionen Spieler mit meist noch höheren Latenzen. Deshalb "latency is kind of relative"...
Weil sie es nicht anders kennen. Ich würde heute Crysis auch nicht mehr mit sub 30 fps spielen wollen, damals war das aber kein Problem.
Am Steamdeck hat mich aber zum Beispiel Witcher 3 mit gelocked 30 fps nicht wirklich gestört. Den Unterschied zum PC habe ich zwar deutlich festgestellt, aber das Gameplay ist eher langsam, weshalb es im Rahmen der Möglichkeiten dann doch ok war. Mit Maus wäre mir das aber nix gewesen, Controller ist dann Pflicht. Need for Speed war/ist auch mit Controller unspielbar träge mit allem unter 60 fps, Gott sei dank hat dass das Steamdeck noch geschafft.
basix
2024-01-19, 13:55:58
AW2 ist ein eher langsames Spiel. Da stört mich die Latenz bei 80-90fps inkl. FG nur wenig bis gar nicht. "Latenz ist relativ" ist also nicht ganz falsch ;)
Relex
2024-01-19, 14:36:38
Ja, wie man die Latenz bewertet hängt eben auch vom Gameplay bzw. vom jeweiligen Spiel ab.
Zumal die Toleranz je nach Spiel auch unterschiedlich ist.
Spürbarkeit und Toleranz sind eben zwei unterschiedliche Dinge.
Selbst wenn ich zwei first Person Spiele habe. Wenn das eine fordert, dass ich Headshots verteile, dann muss die Latenz natürlich möglichst gering sein, sonst klappt das weniger gut. Allerdings ein Spiel das das nicht erfordert, kann ich auch mit höherer Latenz spielen.
Ich würde also den Unterschied merken, es würde aber nicht immer stören.
Es gibt halt genauso viele Spiele bei denen die Latenz egal ist wie Spiele, wo sie nicht egal ist.
RDR2, Death Stranding, Anno, Snow Runner, Talos Principle, Baldurs Gate 3. Was juckt mich da die Latenz?
CS, Doom, Quake, Hollow Knight, LoL, da wirds eben wichtiger.
Sollte doch selbsterklärend sein.
Also bei MMORPGs merke ich den Unterschied zwischen 60 und 120 fps relativ deutlich. Die sind auch 3rd person und 60 vs. 120 fps sind 8,33 ms Unterschied.
Also ich merke es selbst in Windows überdeutlich wenn ich in Onlinegames in der Queue bin und das Spiel auf Fenster umgeschaltet habe, und nebenher durch den Browser scrolle, wenn das Spiel im Menü einen 60fps Limiter hat und damit VRR das Display auf 60Hz stellt.
DrFreaK666
2024-06-02, 00:22:11
t8-9Gv0ZvbE
Lurtz
2024-06-02, 12:34:54
Kein VRR-Support und am besten gelockte Framerate? Klingt wie ein Anwendungsfall für Leute die ihren PC an einem TV hängen und Leistung über haben.
DrFreaK666
2024-06-02, 15:14:48
Auf jeden Fall kann man das Tool ja mal im Auge behalten. Kann nur besser werden
Ne Alternative zum proprietären AMD-FMF im Treiber. Ob man das unbedingt möchte? Eher nicht.
Ein Blindtest sagt alles: :D
XvAowY0I2b0
MfG
Raff
Ich glaube nicht, dass das Tool für mich sehr interessant werden wird. Ich spiele eh nur AAA-Titel und zwar die neuesten, und da ist ja dank Nvidia meistens ohnehin DLSS 3 FG bereits dabei.
Aber wenn man kein DLSS in einem Spiel hat und einem die FSR-Mod zu kompliziert ist mit einer älteren Nvidia-Karte, dann ist das Tool sicher sehr geil!
aufkrawall
2024-06-17, 03:43:21
Kein VRR-Support
Soll wohl ein Nvidia-exklusives Problem sein:
https://forums.developer.nvidia.com/t/fix-vrr-for-overlays-always-on-top-windows/296168
downforze
2024-06-17, 08:14:23
Hat jemand mal kurz ein paar Erklärungen, was:
Super Resolution
Fluid Motion Frames
Radeon Boost
konkret sind. Ich blicke langsam nicht mehr durch, wann was sinnvoll ist und was die Voraussetzungen sind.
][immy
2024-06-17, 08:24:06
Hat jemand mal kurz ein paar Erklärungen, was:
Super Resolution
Fluid Motion Frames
Radeon Boost
konkret sind. Ich blicke langsam nicht mehr durch, wann was sinnvoll ist und was die Voraussetzungen sind.
Super resolution: klassisches downsampling / supersampling. Der Treiber sagt das dein Monitor eine höhere als die native Auflösung fährt. Also kannst du im Spiel höhere Auflösungen wählen, die dann von deiner GPU in der für den Monitor nativen Auflösung weiter gegeben werden.
Fluid motion frames: Zwischenbildberechnung. Zwischen 2 frames wird ein weiterer aus den Ergebnissen der letzten beiden frames berechnet. Schon etwas ausgefeilter als das was einige Monitore als Option bieten, aber im Grunde noch das gleiche. Erhöht den lag etwas, weil das Zwischenbild erst komplett berechnet werden kann, wenn das nächste fertig ist. Dafür sind Bewegungsabläufe etwas flüssiger.
Radeon boost: (korrigiert mich wenn ich falsch liege) war meine ich dynamische Reduzierung der Auflösung, damit das Performance Ziel gehalten wird. Das gilt wohl nur für unterstützte dx11 Titel und in unterstützten dx12 Titeln kann die shading Auflösung angepasst werden um die framerate zu erhöhen.
BlacKi
2024-06-17, 09:56:38
radeon boost reduziert die ausflösung, damit die bewegungen mit der maus flüssiger werden. es soll den fokus darauf haben, bei standbildern und minimalen bewegungen volle auflösungen bei niedrigen fps zu bieten, aber den guten inputlag in bewegungen durch hohe fps zu ermöglichen.
der nutzen ist eher begrenzt, eher für langsame singleplayer spiele geeignet, in kombination mit motionblur, damit man die nachteile nicht bemerkt.
AMD FidelityFX Super Resolution (FSR)
FSR ist eine Upscaling-Technologie, die Spieleleistung verbessert, indem sie niedrigere Auflösungen auf höhere hochskaliert, ohne die Bildqualität wesentlich zu beeinträchtigen.
FSR 1.0: Nutzt räumliches Upscaling, um die Bildrate zu erhöhen.
FSR 2.0: Verwendet temporales Upscaling, das frühere Frames einbezieht, um eine höhere Bildqualität zu erzielen.
AMD Fluid Motion Frames (AFMF)
AFMF glättet das Gameplay, indem es Zwischenframes generiert, was die Bildrate effektiv erhöht. Dies ist besonders nützlich in schnellen Spielszenen, um eine flüssigere Bewegung zu erreichen.
AMD Radeon Boost
Radeon Boost ist eine intelligente Skalierungstechnologie, die die Auflösung während schneller Bewegungen dynamisch reduziert, um höhere Bildraten zu ermöglichen. Die Technologie passt sich in Echtzeit an, sodass der Spieler die Auflösungsreduzierung kaum bemerkt, aber einen signifikanten Leistungsgewinn erfährt.
BlacKi
2024-06-17, 13:10:19
AMD Fluid Motion Frames (AFMF)
AFMF glättet das Gameplay, indem es Zwischenframes generiert, was die Bildrate effektiv erhöht. Dies ist besonders nützlich in schnellen Spielszenen, um eine flüssigere Bewegung zu erreichen.
inwiefern ist das hinzufügen von inputlag besonders nützlich für schnelle spielszenen?
letztendlich erhöht es nur die immersion, falls der rechner zu langsam für echte bilder ist, da eine zu niedrige fps anzahl unangenehm ist, genau wie motion blur, bloß besser. durch inkaufnahme eines zusätzlichen lags.
inwiefern ist das hinzufügen von inputlag besonders nützlich für schnelle spielszenen?
Vor allem wird es bei schnellen Spielszenen automatisch deaktiviert.
BlacKi
2024-06-17, 14:05:15
Vor allem wird es bei schnellen Spielszenen automatisch deaktiviert.ich glaub nur mit radeon boost. denn sonst hätte man nur noch grob die hälfte an fps. das hab ich so nicht erlebt.
downforze
2024-06-18, 11:32:32
Fluid Motion Frames erzeugt immer mehr Latenz. Ich habe es in WRC 2023 getestet. Man kann sich dann über das AMD GUI die Latenz zuschalten. Sobald FMF aktiviert ist, taucht im GUI eine zusätzliche Latenz auf. Die ist nicht ohne. Das Spiel fühlt sich damit nicht besser an, sondern schlechter, auch wenn es flüssiger aussieht.
Danke für die Erklärungen.
ich glaub nur mit radeon boost. denn sonst hätte man nur noch grob die hälfte an fps. das hab ich so nicht erlebt.
Genau umgekehrt, Radeon boost aktiviert sich in Bewegung, AMFM deaktiviert sich wenn 2 Frames zu weit auseinander liegen.
aufkrawall
2024-06-23, 09:01:55
82% Skalierung im GPU-fordernden Wald :cool: :
https://i.ibb.co/mGrNWjg/Screenshot-8.png
https://i.ibb.co/xJg5d8H/Screenshot-9.png
Einfach nur krass, wie unfassbar schlimm ungeglättete 80fps aussehen, wenn man vorher auf geglättete >140 via Uniscaler geguckt hat. Und limitiert die fps unterm Vsync-Limit (vorm FG), fühlt sich dann auch ziemlich direkt an.
Relex
2024-07-04, 16:22:52
69k7ZXLK1to
Übringes auch mit nem kleinen Bildqualitätsvergleich zwischen LS FG, DLSS FG und FSR FG.
BlackBirdSR
2024-07-05, 08:14:01
Was mir bei dieser Betrachtung noch fehlt:
ich spiele meistens im Performance Modus, entweder zweifach oder dreifach, weil ich sonst mit der 5700 XT zu viel Leistung verliere. Ohne Performance Modus merke ich den zusätzlichen input lag stark, im Performance Modus kann ich spiele wie helldivers, 2 oder Deep Rock Galactic problemlos spielen, ohne es zu merken.
https://youtu.be/69k7ZXLK1to
Übringes auch mit nem kleinen Bildqualitätsvergleich zwischen LS FG, DLSS FG und FSR FG.
Platos
2024-07-06, 04:09:53
Schade, Digital Foundry hat das AMD Treiber Framegen nicht mitgetestet. Das wäre doch genau der richtige Vergleich gewesen (neben den anderen beiden).
Gibt es ein Test, wo alle 4 Techniken verglichen werden?
Frame Generation mit X4-Modus für alle Grafikkarten (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Lossless-Scaling-4x-Frame-Generation-1453147/)
DLSS 4 ist da. Irgendwie. Das sieht sicher ganz fantastisch aus. Sieht man ja schon, wenn man etwa FSR FG mit AFMF "stapelt" ... :ulol:
MfG
Raff
Relex
2024-08-12, 12:47:47
Gestern gabs das Update offiziell.
Toll ist, dass Lossless Scaling jetzt generell edit: nur mit LSFG - mit G-Sync funktioniert. Das war für mich bisher das Ausschlusskriterium.
Ich hab es eben mal in Cyberpunk getestet und na ja, gerade der 4x Modus ist in 4K extrem teuer. Die Basis Framerate geht von z.B. 75 FPS auf 40 FPS runter und wird dann vervierfacht.
Die latenzen steigen entsprechend sehr stark an. Viel stärker als mit DLSS FG.
Damit das also überhaupt latenztechnisch gut spielbar wird, bräuchte man mindestens 100 FPS als basis, da der Algo einfach zu teuer ist. Dann wäre man aber wiederum mit einfachem 2x FG besser bedient, weil man weniger FPS verliert und trotzdem in einen hohen FPS bereich kommt.
Ich finde FG an sich genial, aber für das hier sehe ich momentan kein Nutzungszenario. In 1440p kann das vielleicht etwas anders aussehen.
Und na ja, die Bildqualität.. Ich muss sagen, brauchbar ist es mittlerweile. Aber es geht trotzdem deutlich an Bildschärfe verloren. Der Performancemodus mit schnellerem Algo hingegen ist mMn. komplett unbrauchbar. Viel zu viele Artefakte.
Interessant fand ich, dass DLSS FG in kombination mit LSFG 4x funktioniert. Also es funktioniert komplett ruckelfrei und sieht soweit sauber aus. Das hätte ich nicht erwartet. Nur praktisch bringt es halt nichts. Die FPS steigen im Vergleich zu DLSS FG dann nur noch geringfügig an, die basisframerate bricht ins bodenlose und die Latenzen sind kaum noch spielbar. Aber trotzdem erstaunlich, dass das ohne ruckeln geht.
Letztendlich kommen wir mit aktuellen GPUs, gerade in 4K eben schnell ans Limit. Aktuelle Karten sind zu langsam um in 4K bei hohen Frameraten eine 3x oder 4x FG zu ermöglichen. Kosten/Nutzen gerät dort völlig aus den Fugen.
Das geht alles auf Kosten der Latenz (weil Basisframerate dann sehr gering) und Bildqualität.
2x FG ist imho aktuell das einzig sinnvolle. Für 3x oder 4x braucht es deutlich stärkere Karten oder eben ne High End karte die man bei geringer Auflösung betreibt.
Für mich ist LSFG damit ein guter Showcase der aufzeigt, warum AMD und Nvidia sowas (noch) nicht machen.
Platos
2024-08-13, 11:12:24
Warum verliert man bei offenen FPS überhaupt Frames?
Bei nvidia Framegen z.B verliert man echte Frames, wenn man ein Framelimit hat (z.b 60FPS) und ohne Framegen z.B 45FPS hätte. Dann hat man nur 30FPS, weil man wahrscheinlich dann 60FPS output hat.
Aber warum hat man irgendwelche Verluste, wenn die Framerate offen ist? Dann sollte man doch eig. nie Verluste haben.
BlacKi
2024-08-13, 11:15:34
man verliert echte frames, weil die 2-3 zwischenframes gpu last erzeugen. das geht zulasten der echten frames. dadurch steigt eben die latenz, auch wenn die gesammtanzahl der ausgegebenen bildern steigt. cpu limit mal ausgenommen.
Platos
2024-08-13, 11:21:00
Ok, und wie viel verliert man dadurch üblicherweise so? 10%?
Bei Framegen soll es so sein, dass man unter 4k so ab ~200 echten Frames eher noch Perfomance verliert, als gewinnt. Bei 8k ist es etwa bei 40-50FPS anscheinend.
Also: Ist denn der Perfomanceverlust hier bei LSFG höher bzw. tritt schneller ein? Schliesslich hat man hier eine viel höhere Framegenerierung.
BlacKi
2024-08-13, 12:47:11
über 23% der gpu leistung geht schon bei x2 verloren. allerdings mit seinen settings hier. man kann da ja einiges einstellen und das wird auch einfluss auf die performance haben.
https://youtu.be/XAl2OAklhF4?t=230
x3
kostet 26% gpu leistung.
https://youtu.be/XAl2OAklhF4?t=355
du bekommst also nicht nur zusätzlichen inputlag durch frame gen, weil dort frames zurückgehalten werden, sondern obendrauf inputlag durch die reduzierung der baseframes.
aufkrawall
2024-08-13, 17:04:49
du bekommst also nicht nur zusätzlichen inputlag durch frame gen, weil dort frames zurückgehalten werden, sondern obendrauf inputlag durch die reduzierung der baseframes.
Das ist immer der Fall mit FG, wenn es nicht wirklich ein ganzes Xfaches an mehr fps ist.
Heißt also, DLSS FG führt mit der oft schlechteren Skalierung mehr Input Lag ein als FSR FG. Genauso, wie dann die Fake-Frames mit Artefakten entsprechend länger zu sehen sind.
Relex
2024-08-13, 17:35:09
Theoretisch ja, praktisch ist DLSS FG mit Reflex zumindest auf Nvidia deutlich responsiver als FSR FG trotz schlechterer Performance. Bei FSR FG spüre ich sofort die Latenz. Bei DLSS FG kaum.
Sobald FSR FG zusammen mit AL2 funktioniert bzw. es dann erste richtige Messungen gibt könnte AMD aber im Vorteil sein. Den ein oder anderen patch gabs ja schon. Dann bleibt nur noch die meist bessere Bildqualität die für DLSS FG spricht.
Ansonsten ist es ja offensichtlich, dass die Latenzen besser werden, wenn die Framerate höher ist. Ist auch völlig egal, ob man die "basis" Framerate betrachtet oder die Framerate die man am Ende nach der Frame Generation erreicht.
Es wird ja bei FSR FG und DLSS FG so oder so IMMER und ausnahmslos exakt verdoppelt. Der Algo kann nichts anderes als die Framerate zu verdoppeln. Er kann dir nicht 50 oder 60% mehr FPS generieren, sondern immer exakt das doppelte.
Der unterschied zwischen FSR FG und DLSS FG liegt nicht darin wie viele Frames sie generieren können. Denn das ist gleich (bei beiden 2x). Der Unterschied liegt nur in den Kosten. FSR FG ist meist günstiger zu berechnen und reduziert die Framerate beim aktivieren weniger stark. Deswegen stehen nach Verdoppelung mehr FPS auf dem Schirm.
Ok, und wie viel verliert man dadurch üblicherweise so? 10%?
Bei Framegen soll es so sein, dass man unter 4k so ab ~200 echten Frames eher noch Perfomance verliert, als gewinnt. Bei 8k ist es etwa bei 40-50FPS anscheinend.
Also: Ist denn der Perfomanceverlust hier bei LSFG höher bzw. tritt schneller ein? Schliesslich hat man hier eine viel höhere Framegenerierung.
Ja, LSFG ist zumindest bei mir in 4K auch mit 2x schon teurer als DLSS FG und bei 4X eben noch viel teurer.
Sobald man es aktiviert, fallen die kosten für den Algorithmus an. Die Framerate geht runter. Die dann erreichte Framerate wird dann entsprechend vervielfacht.
Der 4x Modus drückt die Framerate natürlich initial am stärksten, da der algorithmus drei Bilder generieren muss, statt einem beim 2x modus.
Bei steigender (Basis) Framerate wird der Algorithmus natürlich auch immer teurer relativ zum Rest des Spiels. Reduzierst du z.B. die Settings oder nutzt stärkeres Upscaling, kann die Grafikkarte bei gleicher Last mehr Bilder pro Sekunde berechnen. Das sorgt aber dafür, dass die Frame Generation ebenfalls mehr Bilder pro Sekunde generieren muss. Der Algorithmus muss also viel öfter pro Sekunde ausgeführt werden und wird dadurch immer teurer. So teuer, dass er irgendwann mehr Leistung kostet als durch die verdopplung der Frames dazu gewonnen werden. Und schon hast du negative Performance-Skalierung.
aufkrawall
2024-08-13, 17:38:20
Theoretisch ja, praktisch ist DLSS FG mit Reflex zumindest auf Nvidia deutlich responsiver als FSR FG trotz schlechterer Performance. Bei FSR FG spüre ich sofort die Latenz. Bei DLSS FG kaum.
Mit GeForce ist laut CB-Test der Lag mit FSR FG auch höher als mit Radeon, und das schon ohne Anti-Lag.
Relex
2024-08-13, 17:50:32
Ja, deswegen sag ich ja. Auf nvidia. Da ist FSR FG einfach nicht das Wahre, obwohl es dort schneller läuft als DLSS FG.
Auf AMD schaut das natürlich besser aus. Da läuft FSR FG nochmal schneller als auf GeForce und mit AL2 wird man gegenüber Reflex wahrscheinlich keinen Nachteil mehr haben.
Die höhere Performance kann sich dann erstmals auch in entsprechend niedrigeren Latenzen zeigen (gegenüber Nvidia).
In den Tests wird also FSR FG mit AL2 am Ende höhere Frameraten und sehr wahrscheinlich bessere Latenzen zeigen als auf GeForce. Nur verursacht dadurch, dass der DLSS FG algo teurer ist und mehr performance kostet.
Nvidia darf da ruhig nachbessern. Gerne auch den Algo optimieren. Wahrscheinlich wird man das aber mit RTX5000 einfach mit entsprechend schnellerer Hardware und OFA erschlagen und dann nen 3x Modus oder so bringen.
Lurtz
2025-01-10, 15:30:09
Frame Generation soll erneut deutlich besser geworden sein:
https://steamcommunity.com/app/993090
aufkrawall
2025-01-10, 15:42:22
Muss ich das jetzt kaufen? Ich hab bald wieder Polaris. Mit 4k Monitor. :ulol:
DrFreaK666
2025-01-11, 10:03:12
20x FG geht theoretisch auch, praktisch eher nicht ^^
Df-xV56TaZQ
ChaosTM
2025-01-11, 10:14:14
FG, egal ob von AMD oder NV, merkt man anfangs immer.
An die NV Version passt sich das Gehirn nur (etwas) schneller an. ;)
Relex
2025-01-11, 12:12:43
Genial. Die Qualität ist DEUTLICH besser geworden. Performance und Latenz ebenso.
In Anno 1800 hab ich z.B. mit 40 FPS Limit via RTSS und 5x FG bei 70% res scale (was sich qualitativ nur auf den input zur Bewegungsanalyse auswirkt und nicht auf die fertigen Bilder) perfekt smoothe 200 FPS in 4K. Das Spiel muss im Randlosen Fenstermodus laufen und als Erfassungs API muss DXGI eingestellt sein, andernfalls funktioniert VRR nicht.
Das Bild ist in Bewegung absolut scharf und stabil. Einzig am HUD sieht man Artefakte oder wenn man die Kamera sehr schnell bewegt. Da das Spiel Hardware Cursor nutzt fühlt sich die Latenz auch sehr direkt an.
Das ist jetzt wirklich absolut brauchbar und definitiv ein große Aufwertung, gerade für CPU limitierte Spiele ohne FG. Anno werde ich jetzt definitiv nur noch so spielen.
In Spielen mit nativem FG support ziehe ich normales DLSS FG mit 2x aber auf jeden Fall vor. Alleine schon wegen der viel geringeren Artefakte und der natürlich weiterhin besseren Latenzen.
Interessanterweise komme ich mit 4xFG bei 70% LSFG input res auf meiner 4080 in 4K im GPU Limit auf die selbe Performanceskalierung wie die 5080 mit MFG auf basis der Werte hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=620427
Lurtz
2025-01-11, 13:11:16
Habs mal in Anno 1800 und Warhammer 3 getestet (DXGI Capture API). Also gerade für so CPU-limitierte Strategiespiele, die idR auch keine native FG bieten, ist das echt genial. FPS auf 40 limitiert, kann man mit X3 Framegen ein 144 Hz-Display voll ausfahren (inkl. Abzug für VRR-Range). Wirkt soo viel flüssiger und die Latenz merkt man beim Rumklicken im UI kaum.
Bei 30 fps hat man eine merkliche Verzögerung beim Scrollen, aber selbst das würde ich einem Rumgestotter zwischen 40 und 60 fps im CPU-Limit jederzeit deutlich vorziehen. Bei Anno sind die meisten UI-Elemente ja fest, da merkt man auch kaum Artefakte. Aber selbst bei Warhammer 3 mit der interaktiven 3D-Karte und den ganzen schwebenden UI-Elementen funktioniert es mit Basis 30 fps erstaunlich gut :eek:
Sekiro einfach mal auf 120 statt 60 fps aufzublasen ist auch nett. Könnte das von Anticheat erkannt werden? Oder greift das komplett außerhalb des Spiels ins Rendering ein? :uponder:
Aller Ehren wert das so gut in Software hinzubekommen, da sind die paar Euro echt gut angelegt.
Edit:
Bei Age of Wonders 4 funktioniert es nicht so gut, da ruckelt es ziemlich. Und X2 reicht nicht annähernd, um die Framerate zuverlässig zu verdoppeln.
Lurtz
2025-01-11, 13:13:25
In Anno 1800 hab ich z.B. mit 40 FPS Limit via RTSS und 5x FG bei 70% res scale (was sich qualitativ nur auf den input zur Bewegungsanalyse auswirkt und nicht auf die fertigen Bilder) perfekt smoothe 200 FPS in 4K. Das Spiel muss im Randlosen Fenstermodus laufen und als Erfassungs API muss DXGI eingestellt sein, andernfalls funktioniert VRR nicht.
Das verstehe ich nicht, wie meinst du das?
Edit: Achso, du meinst den Resolution Scale-Slider bei der FG, nicht den Upscaling-Modus.
Relex
2025-01-11, 13:57:00
Ja richtig, der Slider bei LSFG. Vor allem in 4K bringt das gut performance.
Komischerweise kann ich selbst bei 25% nicht wirklich feststellen, dass das Bild schlechter wird, vielleicht nen kleinen tick unschärfer in Bewegung. Die performance steigt trotzdem.
Genial. Die Qualität ist DEUTLICH besser geworden. Performance und Latenz ebenso.
Kann ich nicht bestätigen, diw Qualität der interpolierten Frames ist unterirdisch schlecht, auch kostet das nun Performance für nichts und der Inputlag ist selbst bei 2xFG viel zu stark... ist mir ein Rätsel wie solch ein Crap immer wieder für Schlagzeilen sorgt...
Relex
2025-01-11, 19:13:13
Also nach etwas mehr testen muss ich sagen, dass DLSS FG + 2x LSFG erstaunlich gut funktioniert und den Vorteil hat, dass LSFG deutlich weniger Artefakte erzeugt, wenn es eine höhere Framerate als input bekommt.
Solange die Baseframerate mit LSFG zwischen 70-80 FPS liegt (DLSS FG rechnet dann mit 35-40 FPS und verdoppelt diese auf 70-80 FPS während LSFG daraus dann 140-160 FPS macht) ist das noch sehr gut spielbar.
Vor allem bei Stalker 2 hilft das enorm. Durch das doppelte FG geht zwar recht viel GPU performance verloren, durch die niedrigen CPU FPS und das doppelte Framepacing läuft das aber wie Butter und deutlich angenehmer als nur mit DLSS FG.
Auch in Nobody wants to die ist LSFG ein gamechanger. Das Spiel nutzt UE5 und bietet nur Upscaling. In 4K mit DLSS performance komme ich "nur" auf ca 70-80 FPS.
Mit LSFG sind dann locker 150-200 FPS möglich. Der Sweetspot scheint mir 3x LSFG zu sein.
Mit 4x nehmen die Artefakte zu.
Das Update hat für mich das Tool tatsächlich von "nett, aber in der Praxis unbrauchbar" zu "werde ich definitiv häufiger einsetzen" gebracht.
ChaosTM
2025-01-11, 19:17:03
Interessant.
Ah, sehe gerade, dass du einen 4k240er Monitor hast. Da macht das natürlich Sinn
aufkrawall
2025-01-11, 19:47:14
Habs auch mal in Strange Brigade DX12 probiert. Die Qualität bei 70fps Basis ist wirklich erstaunlich gut. Das Problem ist aber das Frame Pacing, da sind immer irgendwann Ruckler zwischendurch drin. Und mit Vsync wirds noch schlechter, wo wieder das Limit-Problem wäre, wenn die Frame Time doch mal über 144Hz geht. Meh?
Relex
2025-01-11, 20:33:22
Habs auch mal in Strange Brigade DX12 probiert. Die Qualität bei 70fps Basis ist wirklich erstaunlich gut. Das Problem ist aber das Frame Pacing, da sind immer irgendwann Ruckler zwischendurch drin. Und mit Vsync wirds noch schlechter, wo wieder das Limit-Problem wäre, wenn die Frame Time doch mal über 144Hz geht. Meh?
Das Problem hatte ich auch. Sporadisch ruckelte es ganz kurz was man auch am FPS Zähler sehen konnte. Ich konnte es aber in den Griff bekommen, indem ich im Treiber das Vsync deaktiviert habe und Sync Mode auf "Off (Allow tearing) gestellt habe. Und ich bilde mir ein, dass das Steam overlay deaktiviert sein muss.
Die FPS am besten mit RTSS und dem Reflex Limiter limitieren.
Damit hab ich z.B. in Stalker, Starfield, Anno und Nobody Wants to die keinerlei Ruckler mehr.
Cyberpunk mag aber bei mir nicht. Da gibt's weiterhin komische Ruckler mit LSFG.
aufkrawall
2025-01-11, 20:46:14
Der Reflex-Limiter macht ohne Reflex-Implementierung nichts Besonderes. Es gibt mit allen externen Limitern offenbar eine Art Mismatch zwischen internen fps und Target, mit Dauer-Judder zur Folge. Strange Brigade hat keinen eigenen Limiter.
Und bei <70fps im GPU-Limit läufts auch nicht flüssig, konkurriert wahrscheinlich mit dem Spiel beim GPU-Scheduler um die GPU-Ressourcen. Dabei müsste das FG natürlich unabdingbar Vorrang haben.
Ne, find ich nicht überzeugend. Sehr nischenhafter Nutzen. Mal gucken, ob ich das refunden kann.
Relex
2025-01-11, 21:18:06
Der Reflex Limiter hat bei mir einfach am besten funktioniert. Vor allem in Spielen die schon Reflex integriert haben, scheint RTSS dann das Spielinterne Reflex anzuweisen die FPS zu limitieren. Denn mit dem async mode hab ich dann deutlich spürbar mehr latenz.
Bei Spielen ohne Reflex macht es aber keinen wirklichen Unterschied.
aufkrawall
2025-01-11, 21:25:15
Tippe, ohne Reflex-Implementierung wird einfach auf den regulären Treiber-Limiter gewechselt.
(Juchu, ich bin wieder reich.)
crux2005
2025-01-12, 20:54:43
Welche Spiele unterstützen DLSS SR und FSR FG? Nur die Nixxes Ports?
aufkrawall
2025-01-12, 21:32:20
Geht bei einigen UE-Titeln auch. Theoretisch zumindest, die FSR 3 FG-Option hat hier auf GeForce selbst mit FSR Upsampling in Stalker auch nach Spiel-Neustart exakt null Effekt.
Relex
2025-01-15, 14:47:00
Also ich kann mittlerweile bestätigen, dass ich bei manchen Spielen auch Ruckler habe, wie aufkrawall geschrieben hat, trotz meiner Settings.
Das läuft durchgehend flüssig und dann sind immer wieder einzelne Ruckler sichtbar. Das Stört schon sehr.
Mittlerweile hab ich dafür aber auch einen Workaround gefunden.
1. In den Lossless Scaling Einstellungen die Option "Als Administrator ausführen" aktivieren.
Laut beschreibung erhöht das die Prio im GPU Scheduler.
2. Die Prozesspriorität im Taskmanager auf Hoch oder Echtzeit setzen.
Falls letzteres weiterhin zu Rucklern oder gar vermehrten Rucklern führt, dann reicht es die Prio auf "Höher als normal" zu setzen.
Muss man je nach Spiel ausprobieren.
Aber das hat bei mir bei den betroffenen Spielen zu 100% reproduzierbar die Ruckler beseitigt.
Sync Setting kann dann auch auf "Default" bleiben und Vsync im Treiber kann damit komischerweise auch aktiviert bleiben. Admin + Prozessprio macht hier wirklich den entscheidenen Unterschied.
Wichtig ist nur, dass man parallel ein FPS Limit setzt, am besten mit RTSS Reflex und die limitierte Framerate auch stets erreicht. Ingame Reflex aus.
Die Framerate nach der Vervielfachung nach LSFG muss auch stets unterhalb der maximalen Bildwiederholrate des Displays liegen, sonst gibt's wieder ruckler.
Zugegeben bisschen frickelig, aber ich Spiel damit gerade Kingdom Come Delvierance.
Das Spiel läuft dank CPU Limits wie ein Sack Nüsse.
Mit 45 FPS limit und LSFG on Top aber bis auf wenige Nachladeruckler komplett smooth.
Ich will nicht mehr ohne Spielen.
Ich hab auch die DLSS-FG Mod von Pure Dark ausprobiert, aber mit der bekomme ich trotz FPS Limit bei weitem nicht die smoothness hin.
Lasst das Tool im Zweifel noch ein paar Monate reifen. Ich kann auch nciht versprechen, dass der genannte Workaround auf jedem System oder mit jedem Spiel funktioniert.
Vielleicht werden ja einige dieser Zickereien für die es Workarounds braucht noch gefixed. Aber wenn es mal funktioniert und man nicht unbedingt DLSS oder FSR FG Qualität erwartet, dann ist es mMn einfach nur genial.
Wobei ich auch schon viele Beispiele habe, wo LSFG weniger Artefakte erzeugt, als DLSS-FG.
Unterm strich ist DLSS FG besser. Die BQ ist besser und die latenz ist deutlich besser. Da kann LSFG nicht mithalten. Aber für eine reine externe Lösung ist LSFG schon verdammt gut und nützlich und nach vielen Aussagen auch deutlich besser, als AMDs Treiber AFMF.
Lurtz
2025-01-15, 16:59:02
Ihr mit euren Details wieder. Laut YT-Kommentaren macht LS für 5$ das, für was nVidia mit MFG hunderte Dollar haben will :ugly:
Relex
2025-01-15, 17:04:51
Wie mans nimmt.
Prinzipiell ja. Sogar der Performancehit mit 2x, 3x und 4x verhält sich identisch zueinander wie 2x, 3x und 4x bei MFG. Man kann damit also die selbe FPS Skalierung erreichen.
Aber LSFG hat abseits der moderaten Qualitätseinbußen den Nachteil, dass die latenzen spürbar höher sind (gerade wenn man von LSFG auf DLSS wechselt ist das deutlich spürbar) und LSFG funktioniert aktuell mit unlocked framerate nicht gut. Das führt zu gelegentlichem microruckeln.
Klar, für 5$ und der Tatsache, dass es seinen nutzen hat ist das schon genial. Aber zu MFG von nvidia würde ich wirklich nicht nein sagen ;)
Cubitus
2025-01-15, 17:08:02
Ihr mit euren Details wieder. Laut YT-Kommentaren macht LS für 5$ das, für was nVidia mit MFG hunderte Dollar haben will :ugly:
Über die Qualitätsmängel bei LS wird großzügig hinweggesehen, aber wehe die Latenz bei MFG steigt um 1 ms.. Weltuntergang ;D
Menschen sind manchmal einfach komisch..
Relex
2025-01-15, 17:13:46
Ich glaube, das sind nicht die gleichen Personen :D
Obwohl LSFG spürbar schlechtere Latenzen als DLSS FG hat und die Qualität nicht rankommt hat es für mich mit Version 3.0 einfach den Punkt überschritten ab den ich es praktisch nutzen werde und für mich eine Verbesserung der Spielerfahrung sehe. Zumindest in manchen Spielen.
Man muss halt immer die Alternativen sehen. Wenn ich LSFG in Kingdom Come deliverance nicht nutze, dann muss ich entweder mit 45 FPS lock spielen, damit es jederzeit smooth ist oder unlocked mit ständigen geruckel und gezuckel.
Darauf scheiß ich doch, wenn ich ein bisschen Artefakte und latenz für nahezu perfekte Smoothnes und Bewegtbildschärfe bekommen kann. Das tolle ist doch, dass solche Tools OPTIONEN schaffen, die man vorher nicht hatte.
Cubitus
2025-01-15, 17:39:41
Ich glaube, das sind nicht die gleichen Personen :D
Obwohl LSFG spürbar schlechtere Latenzen als DLSS FG hat und die Qualität nicht rankommt hat es für mich mit Version 3.0 einfach den Punkt überschritten ab den ich es praktisch nutzen werde und für mich eine Verbesserung der Spielerfahrung sehe. Zumindest in manchen Spielen.
Man muss halt immer die Alternativen sehen. Wenn ich LSFG in Kingdom Come deliverance nicht nutze, dann muss ich entweder mit 45 FPS lock spielen, damit es jederzeit smooth ist oder unlocked mit ständigen geruckel und gezuckel.
Darauf scheiß ich doch, wenn ich ein bisschen Artefakte und latenz für nahezu perfekte Smoothnes und Bewegtbildschärfe bekommen kann. Das tolle ist doch, dass solche Tools OPTIONEN schaffen, die man vorher nicht hatte.
Ich verstehe deinen Punkt und KDC ist vor allem in Rattay auf dem Marktplatz ziemlich CPU abhängig..
Das hat sich sogar mit meinem 13900er nicht gut angefühlt, erst mit dem 9800X3D ist Ruhe..
DrFreaK666
2025-01-15, 18:00:41
...Das tolle ist doch, dass solche Tools OPTIONEN schaffen, die man vorher nicht hatte.
Ich hätte eigentlich gedacht, dass mit DLSS4 auch eine Art AFMF2 für Nvidia-Karten erscheinen würde. Das Erlebnis müsste dann eigentlich besser sein, als mit Lossless Scaling
Lurtz
2025-01-15, 21:37:39
Über die Qualitätsmängel bei LS wird großzügig hinweggesehen, aber wehe die Latenz bei MFG steigt um 1 ms.. Weltuntergang ;D
Menschen sind manchmal einfach komisch..
Ich glaube das sind nicht nur komische Menschen, ich denke einige haben da einen leichten Weg gefunden, Profit draus zu schlagen. Anders ist es nicht zu erklären, dass YT-Feeds plötzlich voller immer mehr Videos sind, die erklären wie schlimm gerade alles ist. Please like, subscribe and donate here!
Ich hätte eigentlich gedacht, dass mit DLSS4 auch eine Art AFMF2 für Nvidia-Karten erscheinen würde. Das Erlebnis müsste dann eigentlich besser sein, als mit Lossless Scaling
Wird schon werden, aber bei AMD braucht alles Zeit. In 2 Jahren ist es bestimmt soweit.
Ich hätte eigentlich gedacht, dass mit DLSS4 auch eine Art AFMF2 für Nvidia-Karten erscheinen würde. Das Erlebnis müsste dann eigentlich besser sein, als mit Lossless Scaling
Es ist der gleiche Müll wie LS, beides würde niemand verwenden da es keinen Mehrwert hat.
DrFreaK666
2025-01-15, 22:39:11
Wird schon werden, aber bei AMD braucht alles Zeit. In 2 Jahren ist es bestimmt soweit.
Hä? Was laberst du da?
Scheinst verwirrt zu sein
Wird schon werden, aber bei AMD braucht alles Zeit. In 2 Jahren ist es bestimmt soweit.
Ja der Kleine versuchts immer wieder...
Über die Qualitätsmängel bei LS wird großzügig hinweggesehen, aber wehe die Latenz bei MFG steigt um 1 ms.. Weltuntergang ;D
Menschen sind manchmal einfach komisch..
Ja viele "drei Käse Hochs" schreiben in den Foren, aber das Hauptproblem sind die Techseiten, da sie alles in einen Topf schmeißen und nur auf Leistung reduzieren, ohne jedoch die wichtigen Merkmale zu unterscheiden. Jetzt können sie das den Pöbel nicht mehr so verkaufen bzw. ignorieren
Hä? Was laberst du da?
Scheinst verwirrt zu sein
Stimmt angesichts dessen wie lange AMD üblicherweise braucht um zu reagieren, ist das wohl zu optimistisch geschätzt.
00-Schneider
2025-01-19, 19:37:28
Es ist der gleiche Müll wie LS, beides würde niemand verwenden da es keinen Mehrwert hat.
Hmm?
Habs mit Prey(2006) getestet, funktioniert einwandfrei. Game geht originär nicht über 62fps, mit LS konnte ich es mit der doppelten Framerate spielen. Sichtbar höhere Bewegtschärfe und Artefakte habe ich keine gesehen. Zusätzlichen Lag habe ich jetzt auch nicht wirklich wahrgenommen.
Hmm?
Habs mit Prey(2006) getestet, funktioniert einwandfrei. Game geht originär nicht über 62fps, mit LS konnte ich es mit der doppelten Framerate spielen. Sichtbar höhere Bewegtschärfe und Artefakte habe ich keine gesehen. Zusätzlichen Lag habe ich jetzt auch nicht wirklich wahrgenommen.
Wenn dir die Artefakte nicht auffallen, dann sei glücklich. Wenn man jedoch hohe Ansprüche hat, ist sowas halt nichts.
dargo
2025-01-22, 13:15:12
Die schöne neue Welt der "Fake" Frames.
BUIpVNkadD0
Relex
2025-01-22, 13:20:09
Das war 4x FG mit 120 FPS cap.
Logisch, dass mit 30 "base" FPS vermehrt Artefakte auftreten. Das sah man ja bereits im Digital Foundry Video überdeutlich, wenn man es sich einfach nur normal angesehen hat. Da brauchste weder slow mo noch Standbilder...
[dzp]Viper
2025-01-22, 13:46:02
Das war 4x FG mit 120 FPS cap.
Logisch, dass mit 30 "base" FPS vermehrt Artefakte auftreten. Das sah man ja bereits im Digital Foundry Video überdeutlich, wenn man es sich einfach nur normal angesehen hat. Da brauchste weder slow mo noch Standbilder...
Das hast du bei 2x FG aber auch wenn du nur 25-30fps hast.
Wenn nicht genug Grundinformationen vorliegen hast du eben mehr Artefakte.. das kann man nicht verhindern.
2x FG ist super ab 50fps. Da treten kaum noch Artefakte auf. Wird wohl bei 4x FG am Ende ähnlich sein.
Relex
2025-01-22, 13:50:50
Ja richtig. 4x FG ist (wahrscheinlich) nicht das Problem.
Es war eher darauf bezogen, dass bei nem 120 FPS cap mit 4x FG die basis framerate nur noch 30 FPS beträgt. Die 30 FPS sind das problem.
DF musste die Framerate für die Aufnahme eben leider begrenzen, weil sie nur mit 4K 120 Hz aufnehmen können.
DrFreaK666
2025-01-22, 14:11:32
Die schöne neue Welt der "Fake" Frames.
https://youtu.be/BUIpVNkadD0
Bitte nicht den Thread für alles, was nichts mit Lossless Scaling zu tun hat, nutzen.
Dafür habe ich den Thread nicht erstellt
The_Invisible
2025-01-22, 14:12:00
4x FG ist halt für die neuen >=240Hz Monitore gemacht, mit der Frametimeglättung in Hardware wird hoffentlich auch VRR-Flicker minimiert. Hoffentlich testet das wer.
wolik
2025-01-22, 18:24:36
Man muss nicht bis Februar warten, um MFG selbst zu testen, jeder 4090-Besitzer kann FG jetzt testen.
Kurzfassung: Es ist scheiße.
LV: Normale Frames, die sofort ausgegeben werden, sehen besser aus als solche, die in eine Verarbeitungsschleife gehen (werden verdoppelt) und erst dann an den Monitor gesendet werden.
Es kann auch sein, dass jemand auf so etwas steht. Schon frühzeitig bekommen sie die 5090 und weiteres.
Cubitus
2025-01-22, 18:56:50
Ich glaube LS ist nicht gerade repräsentativ für MFG/FG
Das ist doch einfach nur Murks..
Hab das jetzt in einigen Spielen getestet und mir ist übel dabei geworden. ;(
The_Invisible
2025-01-22, 19:04:20
Man muss nicht bis Februar warten, um MFG selbst zu testen, jeder 4090-Besitzer kann FG jetzt testen.
Kurzfassung: Es ist scheiße.
LV: Normale Frames, die sofort ausgegeben werden, sehen besser aus als solche, die in eine Verarbeitungsschleife gehen (werden verdoppelt) und erst dann an den Monitor gesendet werden.
Es kann auch sein, dass jemand auf so etwas steht. Schon frühzeitig bekommen sie die 5090 und weiteres.
Wie willst das Testen ohne Hardware Flip metering?
aufkrawall
2025-01-22, 19:46:27
Bin erstaunt, wie brauchbar 1440p -> 4k mit dem Scaling des Dell G3223Q aussieht. Nutze ich dauerhaft für 144Hz an der Polaris-GPU, unendlich viel besser als 120Hz 4k. Jedes bisschen zusätzliche Last bricht der GPU auch mal eben das Genick.
Gibt ja auch nicht mal RIS im Treiber für Polaris. Komisch, wo AMD doch solche Wohltäter sein sollen...
wolik
2025-01-22, 20:02:25
Wie willst das Testen ohne Hardware Flip metering?
Und was bringt das? Es werden wie sonst 1 bis 3 Bilder ZWISCHEN zwei üblichen Frames generiert. Lasst euch doch nicht von Fachbegriffen blenden.https://www.computerbase.de/forum/threads/nvidia-dlss-4-im-detail-multi-frame-generation-und-ein-neues-neuronales-netzwerk.2225033/page-7
Ich teste es, wenn ich beide Modi visuell vergleiche. Man sieht sofort die „Vaseline“-Frames.
aufkrawall
2025-01-22, 20:24:30
Bestimmt wieder so einer, der lieber komplett ohne AA als mit TAA spielt...
robbitop
2025-01-23, 12:06:38
@aufkrawall
Ich teste gerade ein bisschen mit Optiscaler und MW5 Clans und The Witcher 3 (DX12) herum.
Was mir auffällt (zumindest out of the box) kann man in Spielen die kein FSR 3.1 Frame Generation haben mit Optiscaler nicht vorgaukeln, dass DLSS 3 FG funktioniert (und dies dann in FSR 3.1 FG umleiten).
Muss man da noch was mit FakeNVapi machen? Bei der Installationsabfrage von Optiscaler hab ich Nvidia GPU ausgewählt.
Den DLSS Enabler Mod nutzen?
edit: hab den mal installiert. Aber in Witcher 3 (DX12) bietet er mir trotzdem kein DLSS 3 FG an. Ichg kann das Optiscaler Interface benutze um Frame Generation zu erzwingen - vermute aber mal, dass er sich die Inputs dann selbst holt und das nicht zu den besten Resultaten führt?
Passt hier wohl am besten hin:
Nvidias Smooth Motion mit RTX 5080 und KCD 2: Treiber-Frame-Generation im ersten Test (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/Nvidia-Smooth-Motion-Frame-Generation-Test-1464936/)
MfG
Raff
robbitop
2025-02-01, 22:51:48
Passt hier wohl am besten hin:
Nvidias Smooth Motion mit RTX 5080 und KCD 2: Treiber-Frame-Generation im ersten Test (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/Nvidia-Smooth-Motion-Frame-Generation-Test-1464936/)
MfG
Raff
Cool wäre ein Folgetest gegen AFMF2, Lossless Scaling mit LFG3 und gegen FSR3.1 FG und DLSS FG.
In Bezug auf BQ und gemessene Latenz.
Interessant wäre auch zusätzlich ohne Reflex zu messen weil das ja nicht in jedem Titel zur Verfügung steht.
Ich empfand zuletzt LFG3 von der neusten Lossless Scaling Version auch schon ganz gut. Als abgehängter Ampere User (dem man künstlich features versagt obwohl die Tensor Cores ja da sind) ggf ein guter Referenzpunkt ^^
Blase
2025-02-01, 22:52:10
Ließt sich gut und als 4090 Besitzer (wohl noch länger :tongue:) freut es umso mehr, dass dieses Feature auch auf der vorherigen Gen zur Verfügung gestellt wird :up:
So bleibt einzig MFG als exklusives Feature, was mir, als max. 117 HZ / FPS Spieler, ohnehin nahezu keinen realen Nutzen bringt....
EDIT
Interessant wäre auch zusätzlich ohne Reflex zu messen weil das ja nicht in jedem Titel zur Verfügung steht.
Habe es so verstanden, dass auf Reflex dann (per Treiber) im Standard dazu geschaltet wird - ob vom Spiel offiziell unterstützt oder nicht.
MfG Blase
00-Schneider
2025-02-01, 23:09:54
Passt hier wohl am besten hin:
Nvidias Smooth Motion mit RTX 5080 und KCD 2: Treiber-Frame-Generation im ersten Test (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/Nvidia-Smooth-Motion-Frame-Generation-Test-1464936/)
MfG
Raff
Schade, dass nur DX11 und 12 Games unterstützt werden. Daher keine echte Alternative zu LS.
robbitop
2025-02-01, 23:26:23
Habe es so verstanden, dass auf Reflex dann (per Treiber) im Standard dazu geschaltet wird - ob vom Spiel offiziell unterstützt oder nicht.
MfG Blase
Ggf kann Raff das noch klarstellen - aber das kann ich mir nicht vorstellen. Reflex braucht Implementierung im Spiel und ist nicht überstülpbar. Ggf wird wenn nicht unterstützt der Treibermode für geringe Latenz aktiviert. Den gibt es ja schon eine Weile und den schalte ich auch immer an. Der bringt aber viel weniger. Bei AMD ist das Pendant Antilag(1).
Blase
2025-02-02, 00:16:56
Nach der Aktivierung schaltet sich obendrein Reflex respektive "Modus für geringe Latenz" forciert zu. Um eine zusätzliche Latenz-Verringerung müssen Sie sich demnach nicht bemühen, alles geschieht mit einem einfachen Aktivieren der Funktion.
Hat sich zumindest für mich so gelesen...
MfG Blase
Relex
2025-02-02, 04:33:22
Ggf kann Raff das noch klarstellen - aber das kann ich mir nicht vorstellen. Reflex braucht Implementierung im Spiel und ist nicht überstülpbar. Ggf wird wenn nicht unterstützt der Treibermode für geringe Latenz aktiviert. Den gibt es ja schon eine Weile und den schalte ich auch immer an. Der bringt aber viel weniger. Bei AMD ist das Pendant Antilag(1).
Es gibt schon einige Indizien.
Irgendwann letztes oder vorletztes Jahr hat Nvidia den Ultra Low Latency Modus im Treiber überarbeitet, so dass er auch mit DX12 arbeitet. Kurz darauf hat auch RTSS den Reflex limiter hinzugefügt (ist wahrscheinlich nur ein Treiber call?).
In manchen Games konnte ich mit dem neuen ULL deutlich geringere Latenzen feststellen, aber messen kann ichs natürlich nicht.
Dazu kommt, dass die DLSS FG Mods von Pure Dark ebenfalls alle Reflex ins jeweilige Spiel bringen. Wenn man mal über SpecialK bei einem beliebigen Spiel Reflex bei aktivierter DLSS FG deaktiviert, merkt man sofort, dass ohne Reflex die Latenzen deutlich spürbar sehr hoch sind, wie erwartet, was also heißt, dass das per mod injected Reflex seine wirkung zeigt.
Also ja, Reflex braucht wohl nicht zwingend eine native engine integration, auch wenn das sicher vorteilhaft ist.
Das Treiber ULL ist mMn, so eine Art Reflex Light geworden und deutlich besser als früher.
DrFreaK666
2025-02-02, 15:23:15
Passt hier wohl am besten hin:
Nvidias Smooth Motion mit RTX 5080 und KCD 2: Treiber-Frame-Generation im ersten Test (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/Nvidia-Smooth-Motion-Frame-Generation-Test-1464936/)
MfG
Raff
Eigentlich überhaupt nicht. Hab das "Lossless Scaling" wohl doch umsonst nachträglich in den Themen-Name eintragen lassen... :rolleyes:
basix
2025-02-02, 15:46:01
Wenn man die GPU Load künstlich auf 97% oder so hält, sollte automatisch die Latenz sinken. Sieht man ja daran, wenn man einen Framelimiter einsetzt. Reflex ins Spiel integriert kann hier nochmals feiner arbeiten, da mit der Engine abgestimmt.
Gibt es nicht eine Art dynamischer Framelimiter der genau das machen könnte und die GPU knapp unter Vollast hält? Dürfte prinzipiell nicht allzu schwierig in der Umsetzung sein, oder nicht? Reflex macht da auch was ganz ähnliches.
The_Invisible
2025-02-02, 16:10:25
Cool wäre ein Folgetest gegen AFMF2, Lossless Scaling mit LFG3 und gegen FSR3.1 FG und DLSS FG.
In Bezug auf BQ und gemessene Latenz.
Interessant wäre auch zusätzlich ohne Reflex zu messen weil das ja nicht in jedem Titel zur Verfügung steht.
Ich empfand zuletzt LFG3 von der neusten Lossless Scaling Version auch schon ganz gut. Als abgehängter Ampere User (dem man künstlich features versagt obwohl die Tensor Cores ja da sind) ggf ein guter Referenzpunkt ^^
Afmf ist ja eigentlich schon draußen weil es sich bei schneller Bewegung abschaltet
DrFreaK666
2025-02-02, 16:14:31
Wenn dann sollte man abwarten, ob AMD nicht auch AFMF3 präsentiert. Auf die paar Monate kommts auch nicht an.
Afmf ist ja eigentlich schon draußen weil es sich bei schneller Bewegung abschaltet
So isses. Nichtmal VSync funktioniert damit.
robbitop
2025-02-02, 18:16:25
Afmf ist ja eigentlich schon draußen weil es sich bei schneller Bewegung abschaltet
Aber doch 2 nicht mehr? Bzw so wenig dass es unproblematisch ist. Das war ein Manko von afmf1 afair
The_Invisible
2025-02-02, 20:24:00
Aber doch 2 nicht mehr? Bzw so wenig dass es unproblematisch ist. Das war ein Manko von afmf1 afair
Passiert noch immer bzw gibt's einen ersten Test, generiert auch weniger Artefakte als afmf: https://www.dsogaming.com/articles/weve-tried-nvidia-smooth-motion-here-are-our-thoughts/
Relex
2025-02-03, 19:13:11
TwFpwsXQ9tY
So, jetzt möcht ich aber keine Beschwerden hören. Es hat Lossless Scaling Bezug! :tongue:
robbitop
2025-02-03, 21:42:05
Er hätte auch noch AFMF2 mit testen können. Radeons hat er ja auch ^^ Und Latenz hat er auch nicht mit getestet.
aufkrawall
2025-02-03, 22:39:37
Hast halt weiterhin in Spielen mit Reflex dessen fps Auto-Limiter mit Vsync + VRR und muss nicht mit diversen Limitern ohne Vsync rumkaspern, in der Hoffnung, irgendeine sinnvolle Option zu finden. Treiber Limiter-NULL funktioniert offenbar auch weiterhin.
AFMF2 ist da gar keine Konkurrenz bei den ganzen hässlichen Linien, die ständig im Bild sind, und bei denen man nicht weiß, obs Artefakte vom Algorithmus sind oder nur dem fehlenden Vsync geschuldet...
robbitop
2025-02-04, 05:43:55
Aber Reflex hast du ja nur wenn es das Spiel unterstützt. Meist hast du in den Spielen wo es kein Framegeneration im Spiel gibt auch kein Reflex oder? :) zB Elden Ring.
Geht AFMF2 nicht mit vrr und vsync?
aufkrawall
2025-02-04, 15:15:30
Aber Reflex hast du ja nur wenn es das Spiel unterstützt.
Haben diverse Spiele Reflex, die kein FG haben. Sehr alter SP-Kram natürlich vorwiegend nicht. Und bei AMD kannst du halt auch weiterhin nicht Treiber Anti-Lag mit dem Chill-Limiter kombinieren.
Lauter doofe Einschränkungen und Pferdefüße...
Geht AFMF2 nicht mit vrr und vsync?
Es geht mit VRR, aber weiterhin nicht mit Vsync. Mit der Folge, dass du auch mit VRR mit dem realen Frame Pacing von FG nach Scan-Out ständig Tearing hast.
robbitop
2025-02-04, 15:32:43
Haben diverse Spiele Reflex, die kein FG haben. Sehr alter SP-Kram natürlich vorwiegend nicht. Und bei AMD kannst du halt auch weiterhin nicht Treiber Anti-Lag mit dem Chill-Limiter kombinieren.
Lauter doofe Einschränkungen und Pferdefüße...
Hier meine Denke dazu:
noch kein FG heißt alt -> heisst man hat mit moderner HW genug Leistung für viele FPS -> also würde ich hier eher Spiele sehen, die ein 60 Hz lock drin haben -> und davon kenne ich kein einziges was Reflex unterstützt - aber das kann natürlich jeder anders sehen. :) Aber trotzdem hast du da schon Recht.
Kann man Treiber Antilag denn mit demFramelimiter von RTSS kombinieren? Finde den eigentlich nicht schlecht.
Aber der Punkt macht schon Sinn -> das Feature bei NV ist da etwas kompromissärmer.
Allerdings: nur Blackwell (zumindest aktuell) und auch nur bei Spielen, die die NV App "findet" (siehe Video von Daniel Owen -> die manuell hinzugefügten Spiele scheint das Feature dann nicht zu funktionieren). Auch noch unschöne Pferdefüße IMO.
Es geht mit VRR, aber weiterhin nicht mit Vsync. Mit der Folge, dass du auch mit VRR mit dem realen Frame Pacing von FG nach Scan-Out ständig Tearing hast.
Hm - verstehe ich da was falsch? Sollte doch im VRR Bereich kein Problem sein und nach oben raus kann man ja einfach einen Framelimiter setzen, damit es nicht aus der VRR range läuft. Vorteil: senkt auch ohne AL2/Reflex potentiell die GPU Last und reduziert damit über die kleinere Renderqueue die Latenz.
aufkrawall
2025-02-04, 15:40:17
Hier meine Denke dazu:
noch kein FG heißt alt -> heisst man hat mit moderner HW genug Leistung für viele FPS -> also würde ich hier eher Spiele sehen, die ein 60 Hz lock drin haben -> und davon kenne ich kein einziges was Reflex unterstützt - aber das kann natürlich jeder anders sehen. :) Aber trotzdem hast du da schon Recht.
Wenn die Spiele ein 60fps Limit haben, haben die eh die gleiche Latenz wie mit Reflex. Auf AMD und Nvidia natürlich.
Kann man Treiber Antilag denn mit demFramelimiter von RTSS kombinieren? Finde den eigentlich nicht schlecht.
Kann man machen und hoffen, dass es keine komischen Probleme mit dem Pacing gibt.
Allerdings: nur Blackwell (zumindest aktuell) und auch nur bei Spielen, die die NV App "findet" (siehe Video von Daniel Owen -> die manuell hinzugefügten Spiele scheint das Feature dann nicht zu funktionieren). Auch noch unschöne Pferdefüße IMO.
Es lässt sich per Inspector komplett ohne die App nutzen, also wahrscheinlich in jedem Spiel (bzw. in unterstützten APIs, die mir gerade nicht geläufig sind).
Natürlich wäre es gut, wenn es auch mit manuell hinzugefügten Spielen in der App ginge. Aber das Ding ist halt noch nicht so geil, und wird es wohl alsbald auch nicht sein...
Hm - verstehe ich da was falsch? Sollte doch im VRR Bereich kein Problem sein
Das ist ein weit verbreiteter Irrglaube. Ohne Vsync kann es auch mit VRR innerhalb dessen Range 100% der Zeit sichtbares Tearing geben, je nach Frame Pacing. Mit Reflex/in-game Limiter ist das auch ohne FG schon oft der Fall.
robbitop
2025-02-04, 15:42:34
Das ist ein weit verbreiteter Irrglaube. Ohne Vsync kann es auch mit VRR innerhalb dessen Range 100% der Zeit sichtbares Tearing geben, je nach Frame Pacing. Mit Reflex/in-game Limiter ist das auch ohne FG schon oft der Fall.
Oh ok? Interessant ^^ Ich dachte, das passiert nur beim Verlassen der VRR range?* So wurde das damals bei G-Sync IIRC erklärt. Kannst du bitte erklären, warum es zum Tearing kommen kann, wenn man innerhalb der VRR range ist? :)
edit
*ich meine bei blurbusters gab es mal einen Artikel zum Konfigurieren für G-Sync für best mögliche Latenz. Empfehlung war damals IIRC V-Sync off + Framelimiter (aber ein paar fps unterhalb der Obergrenze weil die Dynamik manchmal dazu führen kann, dass kurzzeitig trotzdem der Framelimiter überfahren wird und es teart - also framelimiter ~3-4 fps unter max Refreshrate des Monitors)
aufkrawall
2025-02-04, 15:57:43
Es gibt nur mit Vsync on eine Garantie, dass ganze Frames zum Scan-Out kommen. Auch mit VRR. Je schlechter die Varianz, desto übler wird es ohne Vsync.
Da braucht man auch nicht zehn Seiten lange Guides für lesen, wenn es sich darauf herunterbrechen lässt.
Alle Input -> Pixel-Tests sind eindeutig, dass Vsync mit VRR innerhalb der Range nicht den Lag erhöht.
Und FG erhöht die reale Varianz der Bildausgabe bei Scan-Out. Ähnlich Reflex, aber später in der Pipeline. FG ohne Vsync ist also erst recht blödsinnig. Kein Wunder, dass das mit AFMF real auf dem Monitor so schlecht aussieht.
robbitop
2025-02-04, 16:02:01
Ja ok also scheint es so zu sein wie ich vermute: die Variabilität die dann mit peaks über die VRR range schlägt bringt einen dann in's Tearing. Und ja das macht Sinn, dass FG die Variabilität erhöht.
Und ja VSync erhöht nicht die Latenz, wenn es nicht greift - das macht auch Sinn. :)
Theoretisch sollte man das aber auch unterbinden können, in dem man den Framelimiter einfach konservativer setzt. Nachteil: man verliert eben noch mehr max refreshrate (was ja gerade bei 144 Hz Displays mit FG Nutzung ohnehin an der Kotzgrenze ist).
Nutzt du denn noch einen Framelimiter wenn VSync = on ist?
aufkrawall
2025-02-04, 16:13:53
Und ja VSync erhöht nicht die Latenz, wenn es nicht greift - das macht auch Sinn. :)
Vsync "greift" die ganze Zeit, auch wenn es nicht die fps limitiert.
Es gibt mit der Varianz von Reflex in z.B. zig UE-Spielen in jedem fps-Bereich innerhalb der VRR-Range, also etwa auch ~70fps bei 144Hz Monitor, die ganze Zeit Tearing mit VRR. Mit Vsync ist das komplett weg, ohne dass sich die Latenz erhöht.
Nutzt du denn noch einen Framelimiter wenn VSync = on ist?
Sollte doch jetzt klar sein? ;)
Die Empfehlung ist VRR + Vsync + fps-Limiter. Und genau das macht Nvidia mit Reflex und NULL auch automatisch, wenn man Vsync mit VRR nutzt.
Alles andere ergibt keinen Sinn bzw. ist falsch.
robbitop
2025-02-04, 16:35:25
Danke :up:
VSync also global im Treiber auf "ein" schalten im G-Sync Menü?
aufkrawall
2025-02-04, 17:00:35
Empfiehlt sich. Treiber-Vsync "fixt" auch noch Probleme mit VRR und MPO vs. in-game Vsync, zumindest auf GeForce.
DrFreaK666
2025-02-04, 17:15:53
Kann ein Mod wieder den Thread-Titel ändern in "Frame Generation für jede GPU (Lossless Scaling) und OT-Gelaber"? :rolleyes:
Danke
robbitop
2025-02-04, 17:18:57
Das ist themenbezogen. Es ging um VSync im Zusammenspiel mit Frame Generation.
DrFreaK666
2025-02-04, 17:48:46
Das ist themenbezogen. Es ging um VSync im Zusammenspiel mit Frame Generation.
Klammer blendest wohl aus.
Frame Generation für jede GPU (Lossless Scaling)
Und den ersten Post beachten!
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13469198&postcount=1
Da geht es um Lossless Scaling und auch nur darum.
Außerdem steht da: für jede GPU!
Wie kann man Nvidias Feature auf Nicht-Nvidia-Hardware nutzen?
Lossless Scaling ist hier schon lange kein Thema mehr, wenn solche Fragen und Aussagen gepostet werden:
Kein Wunder, dass das mit AFMF real auf dem Monitor so schlecht aussieht.
Geht AFMF2 nicht mit vrr und vsync?
Afmf ist ja eigentlich schon draußen weil es sich bei schneller Bewegung abschaltet
Ich teste gerade ein bisschen mit Optiscaler und MW5 Clans und The Witcher 3 (DX12) herum.
Was mir auffällt (zumindest out of the box) kann man in Spielen die kein FSR 3.1 Frame Generation haben mit Optiscaler nicht vorgaukeln, dass DLSS 3 FG funktioniert (und dies dann in FSR 3.1 FG umleiten).
Welche Spiele unterstützen DLSS SR und FSR FG?
Alles natürlich "themenbezogen"
Ich hab den Thread erstellt, damit man über LS diskutiert und nicht über andere Features.
Dann kann man in Zukunft auch spezielle Threads für Grafikkarten lassen und man macht nur einen und nennt ihn "Grafikkarte XYZ". Dort kann dann alles über verschiedene Grafikkarten gepostet werden. Gute Idee, oder?
Achill
2025-02-04, 18:40:10
Ich habe nicht die Erfahrung gemacht, das es "ständig" Probleme mit VRR + AFMF + RTSS gibt, man muss nur verstehen was man macht und die eigene HW hergibt.
Bei einen 120Hz Monitor mit VRR und V-Sync Off gilt run:
- RTSS Limiter mit "async" und "passive waiting on"
- Ohne AFMF: 116/117 FPS Limit im RTSS
- Mit AFMF: 57 FPS Limit im RTSS
Hat man ein Monitor mit einer möglichen höheren Frequenz wie 240Hz (funktioniert bei mir wunderbar):
- Ohne AFMF: 235 FPS Limit im RTSS
- Mit AFMF: 115 FPS Limit im RTSS
Badesalz
2025-02-17, 10:28:08
Ich habe nicht die Erfahrung gemacht, das es "ständig" Probleme mit VRR + AFMF + RTSS gibt, man muss nur verstehen was man macht und die eigene HW hergibt.
Wow. Ok. Welche Abkürzung wird von euch für "Losless Scaling" genutzt? Bin grad durcheinander :freak:
robbitop
2025-02-17, 10:29:43
LSFG3.0 (zumindest ist das der aktuelle Frame Generator von LLS) ^^
DrFreaK666
2025-02-18, 13:30:42
Wow. Ok. Welche Abkürzung wird von euch für "Losless Scaling" genutzt? Bin grad durcheinander :freak:
Vergiss es. Offtopic ist einfach stärker
boringLimbo
2025-02-20, 08:09:48
Funktioniert Lossless Scaling auch mit DLSS oder FSR kombiniert? Oder gibt es da Probleme mit Artefakten?
DrFreaK666
2025-02-20, 08:37:56
Habs selbst noch nicht getestet, glaub aber mal irgendwo gelesen oder gehört zu haben, dass es wegen den generierten Frames von FSR/DLSS FG zu Artifakten kommt, da LLS damit nicht zurecht kommt.
Aber kann auch sein, dass es nur eine Meinung von einer sehr empfindlichen Person war
Relex
2025-02-20, 09:12:51
Zumindest zusammen mit DLSS FG funktioniert es problemlos.
Artefakte werden sogar reduziert, weil LSFG qualitativ sehr stark von der Framerate abhängig ist.
Wenn man also eine durch DLSS FG höhere Framerate hat, erzeugt LSFG selbst weniger Artefakte.
Die Latenzen leiden natürlich doppelt, so dass das nur bedingt sinnvoll ist.
robbitop
2025-02-20, 09:24:13
Naja und man braucht dann definitiv einen Monitor mit sehr sehr hoher Refreshrate.
Selbst 240 Hz @240 fps dürften dank der dann erhöhten Latenz nicht mehr so toll sein. Also ggf eher was für die 360/480Hz Monitore.
Relex
2025-02-20, 09:45:17
Na gut das Szenario dass du LSFG on top von DLSS FG nutzen willst kommt ja wahrscheinlich daher, dass die FPS noch nicht hoch genug sind.
Also z.B. 90-100 FPS nach DLSS FG.
Hier hättest du ohne DLSS FG nur so ca 50-60 FPS die in LSFG gefüttert werden und Artefakte erzeugen.
Mit DLSS FG kann man dann incl performanceverlust von LSFG eher so 70-80 FPS in LSFG füttern und bei 140-160 FPS mit 2x LSFG rauskommen.
Man hätte damit eher weniger Artefakte, als wenn man direkt 4x LSFG auf die ausgangsframerate ohne DLSS FG anwendet.
Aber wie gesagt, doppelter inputlag und doppelter Performanceverlust.
Es funktioniert zwar deutlich besser als es sich anhört, aber wenn man einfach komplett auf LSFG verzichtet und bei DLSS FG oder FSR FG bleibt bekommt man das bessere Spielerlebnis. Hier überwiegen einfach die Nachteile.
robbitop
2025-02-20, 09:49:46
Urks 90-100 fps nach FG - da muss man schon niedrige Ansprüche haben um das gut zu finden. Das bedeutet nur 45-50 input fps. Und die dann noch zu verdoppeln wird es vom Inputlag noch zäher was sich dann komisch anfühlt weil flüssig aber hoher Inputlag. Und ob bei so niedrigen input fps das Framepacing dann noch sauber ist weil sich die GPU ziemlich überheben muss mit dem Spiel bei den Settings anscheinend?
Relex
2025-02-20, 10:06:57
Ach, das kommt drauf an. Ich würde 80-90 FPS mit FG jederzeit 60 FPS ohne FG vorziehen und hab damit keine Probleme ein Spiel durchzuspielen.
60 FPS sind mir mittlerweile zu wenig.
robbitop
2025-02-20, 10:23:33
Oha. Ich merke ab unter 130 fps (nach FG trotz reflex - bei nicht first person shootern sogar) dass es mir zu schwammig wird. Sicherlich kommt es auf das Spiel und auch das Input Device an. Kann mir gut vorstellen, dass es mit Controller deutlich gutmütiger ist. Mit Maus merkt man höheren Inputlag doch relativ schnell. Aber klar der User ist natürlich eine weitere Variable - bzw dessen Wahrnehmung was Inputlag angeht.
Relex
2025-02-20, 12:35:19
Merken ja. Die Frage ist, ab wann es stört.
Ich sehe ja auch den Unterschied bis 240 Hz, aber deswegen ist alles darunter ja nicht gleich schlecht... Mit der Latenz verhält es sich ähnlich.
Zumal wir dank Latenzreduzierungsfeatures sowieso mit ziemlich guter Latenz spielen, im Vergleich zu früher (vor 2-3 Jahren).
Aber die Diskussion ist müßig. Was akzeptabel ist muss jeder selbst entscheiden. Ist ja bei den FPS nicht anders.
robbitop
2025-02-20, 12:47:20
Ich meine mit merken dass ich es auch nicht mehr mag. Aber wie du sagst, da hat jeder andere Ansprüche.
Lurtz
2025-03-04, 21:35:04
3.1 Beta (https://steamcommunity.com/app/993090/discussions/0/598520270912773034/)
Introducing Adaptive Frame Generation (AFG) mode, which dynamically adjusts fractional multipliers to maintain a specified framerate, independent of the base game framerate. This results in smoother frame pacing than fixed multiplier mode, ensuring a consistently fluid gaming experience.
AFG is particularly beneficial for games that are hard or soft capped at framerates that don’t align as integer multiples of the screen's refresh rate (e.g., 60 → 144, 165 Hz) or for uncapped games — the recommended approach when using LS on a secondary GPU.
Since AFG generates most of the displayed frames, the number of real frames will range from minimal to none, depending on the multipliers used. As a result, GPU load may increase, and image quality may be slightly lower compared to fixed multiplier mode.
- To support the new mode, significant changes have been made to the capture engine. New Queue Target option is designed to accommodate different user preferences, whether prioritizing the lowest latency or achieving the smoothest experience:
• 0
Unbuffered capture, always using the last captured frame for the lowest latency. However, performance may suffer under high GPU load or with an uncapped base game framerate.
• 1 (Default)
Buffered capture with a target frame queue of 1. Maintains low latency while better handling variations in capture performance.
• 2
Buffered capture with a target frame queue of 2. Best suited for scenarios with an uncapped or unstable base framerate and high GPU load, though it may introduce higher latency. Also the recommended setting for FG multipliers below 2.
Additionally, WGC capture is no longer available before Windows 11 24H2 and will default to DXGI on earlier versions if selected. GDI is no longer supported.
][immy
2025-03-05, 12:45:44
Also ich weiß bislang nicht was ich von lossless scaling halten soll. Grundsätzlich mag ich die Artefakte nicht, aber Gefühlt ruckelt das 30fps fixierte c&c red alert 3 dadurch weniger. Verstehe bis heute nicht, warum das Spiel noch so gebaut wurde das die FPS die Spielgeschwindigkeit wiederspiegeln. Eigentlich macht man das ja schon ewig nicht mehr, aber trotzdem findet dich da immer der ein oder andere Titel.
crux2005
2025-03-12, 21:25:28
NR1hnYbrMwE
"it came with some bonus value added software" :D
robbitop
2025-03-26, 12:04:08
Test des AFG Modes:
Ancient Gameplays:
https://www.youtube.com/watch?v=v5cIyecWya4&t=1532s&pp=ygURYW5jaWVudCBnYW1lcGxheXM%3D
Daniel Owen:
https://www.youtube.com/watch?v=nOVdT_z7u-c&pp=ygULZGFuaWVsIG93ZW4%3D
Daniel Owen testet sogar noch eine iGPU und Zweit dGPU für die Frame Generation abzustellen, was das tool ja erlaubt. Die iGPU ist viel zu schwach (9800X3D) und die dGPU (1060) ist an der Kotzgrenze und brachte auch nicht sooo viel.
Ich vermute bei letzterem müsste man mal mit moderneren Komponenten (so dass alles wenigstens PCIe 4.0 oder besser 5.0 läuft weil bei main stream mainboards sich lanes geteilt werden müssen bei mehreren GPUs) und etwas kräftigerer 2.t dGPU mal probieren. ZB eine 4060/ti oder RX6700/XT / 7600/XT.
Weiterhin testet er mit DXGI anstatt WGC (welches laut Tooltip bessere Leistung bei 2. GPU erlaubt).
dargo
2025-06-01, 09:54:48
Geht es in diesem Thread nur um Lossless Scaling oder auch Optiscaler? Habe den Überblick verloren. :freak:
Mich würde mal interessieren ob jemand erfolgreich Forza Horizon 5 mit Optiscaler zum laufen bekommen hat? Also ich bekomme FH5 zwar mit einigen, bestimmten dlls (nicht alle gehen) zum starten, aber mit "Einfügen" lässt sich dennoch kein Optiscaler aufrufen, ergo wird wohl nicht aktiv sein würde ich annehmen.
redpanther
2025-06-01, 10:43:36
Im Titel steht Lossless Scaling, also dürfte es hier nicht um Optiscaler gehen, das sind ja zwei verschiedene Programme.
Fände aber einen separaten Thread für Optiscaler gut.
Ich habe den ein oder zwei mal ausproprobiert, aber irgendwie war es problematisch.
dargo
2025-06-01, 10:46:34
Hmm... dann ist das hier wohl besser für Optiscaler geeignet. :uponder:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13765125#post13765125
Lurtz
2025-06-11, 19:32:45
1.3:
Quality Improvements
Enhanced overall image quality within a specific timestamp range, with the most noticeable impact in Adaptive Mode and high-multiplier Fixed Mode
Improved quality at lower flow scales
Reduced ghosting of moving objects
Reduced object flickering
Improved border handling
Refined UI detection
Introducing Performance Mode
The new mode provides up to 2× GPU load reduction, depending on hardware and settings, with a slight reduction in image quality. In some cases, this mode can improve image quality by allowing the game to achieve a higher base frame rate.
https://store.steampowered.com/news/app/993090/view/496072320947848078
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.