PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Welches Nutzungs-Interesse besteht an Frame Generation?


Leonidas
2025-04-06, 05:26:19
Link zur Umfrage:
https://www.3dcenter.org/umfrage/umfrage-welches-nutzungs-interesse-besteht-frame-generation

Link zur Umfrage-Auswertung:
folgt

Razor
2025-04-06, 08:32:12
Wenn FG mal im Zusammenhang mit vSync funktionieren würde, fiele mein Votum vielleicht anders, aber so: unnütz wir ein Kropf!
Oder wo ist der Sinn, die Grafikkarte am Maximum laufen zu lassen und mit VRR am Moni den daraus resultierenden Unsinn zu kompensieren?

Razor

Blase
2025-04-06, 09:01:59
Grundsätzlich interessantes Feature.

Ob es letztlich zum Einsatz kommt, hängt natürlich von sehr vielen Faktoren ab und wird damit von Titel zu Titel einzeln bewertet und entschieden. Wie hoch ist die Ausgangsframerate im Titel bei den gewünschten Settings, wie ist die technische Umsetzung innerhalb des Titels, wie ist das Ergebnis bezüglich Bildqualität und Eingabelatenz.

Ich gehöre aber auch zu denen, die FG auch dann in Erwägung ziehen und ggfs. einschalten, wenn die Base-FPS "niedriger" sind. So geschehen erstmalig in A Plague Tale: Requiem, wenn ich nicht irre, noch mit der ungleichen Kombo i7-8700K + 4090, was das Spieleerlebnis deutlich aufgewertet hat und zuletzt imho in CP, was ebenfalls für ein deutlich flüssigere Erlebnis gesorgt hat.

MfG Blase

Schrotti
2025-04-06, 09:42:24
[x] Nutzungs-Interesse nur bei Lösung sowohl von Latenz- als auch Bildqualitäts-Frage

Auf dem Laptop nutze ich es aktiv und bewusst (wobei es auch so für D4 und Anno 1800 reichen sollte).
Auf dem Desktopsys ist es abgeschaltet da hier meine fps hoch genug sind.

Gast
2025-04-06, 09:50:07
Hab bisher keine Erfahrung mit FG. Habe für mich keine passende Antwortoption. Es kommt m.E. aufs Spiel an bzw. wie sehr es da auf den Inputlag ankommt. Da kann man m.E. auch keine pauschale Aussage machen, wie viel fps man sinnvollerweise braucht, es hängt vieles vom Spiel ab.

MadManniMan
2025-04-06, 11:15:02
Komische Umfrage. Ich bin daran interessiert und nutze es in manchen Titeln, würde mich aber über Fortschritte sowohl bei der Bildqualität als auch der Latenz (finde ich wichtiger) freuen.

Platos
2025-04-06, 11:35:09
Mir fehlt da irgendwie "Framegeneration ja, aber nur bei stabilen Frametimes und verbesserter Bildqualitat".

Vor allem ersteres ist mir in manchen Spielen negativ aufgefallen.

MD_Enigma
2025-04-06, 12:26:07
"Totale Ablehnung" von Frames, welche nicht durch die Engine berechnet wurden und zusätzlich fertige Frames künstlich verzögern. Ich bin keiner, der sich am FPS-Counter aufgeilt: 60 flüssige Frames reichen mir.

Fliwatut
2025-04-06, 12:29:01
Ich schließe mich MD_Enigma an, wobei es bei mir gerne 120fps sein dürfen, weniger ist aber auch kein Drama, Hauptsache es ruckelt nicht.

ZeddZwerg
2025-04-06, 13:16:30
Ich finde es toll, wenn ich ausgehend von bereits akzeptablen Bildraten für FG (60+) die Bildrate teilweise verdoppeln kann oder alternativ den Energieverbrauch von CPU und GPU spürbar senken kann. Insofern mache ich es fast immer an, sofern nicht schon ohne FG problemlos Bildraten am Refresh-Limit meines Monitors (175 Hz) möglich sind. Bildfehler sehe ich meist nur bei Schrift (HUD overlay), was mich aber nicht wirklich stört.
Für mich persönlich ist 170 fps mit FG deutlich angenehmer zu spielen als ~100 fps ohne FG.

The_Invisible
2025-04-06, 13:30:08
Ich schließe mich MD_Enigma an, wobei es bei mir gerne 120fps sein dürfen, weniger ist aber auch kein Drama, Hauptsache es ruckelt nicht.

Ihr versteht dann nicht für was FG gedacht ist. Gerade in CPU Limited Szenen hat man weniger ruckeln was ihr ja so schätzt ;-)

Lightning
2025-04-06, 14:18:42
"Dank" meines 60 Hz-Monitors kein Nutzungsinteresse.
Skeptisch bin ich aber auch so. Im Zweifel habe ich, glaube ich zumindest, lieber weniger Frames ohne zusätzliche Artefakte.

Dino-Fossil
2025-04-06, 14:54:57
Mir fehlt da irgendwie "Framegeneration ja, aber nur bei stabilen Frametimes und verbesserter Bildqualitat".

Vor allem ersteres ist mir in manchen Spielen negativ aufgefallen.

Sehe ich ähnlich - Ich nutze es, wenn es saubere Frametimes bietet (und ausreichend native Frames vorausgesetzt). Das störte mich bisher am häufigsten.

Mit der Bildqualität hatte ich dagegen weniger Probleme bisher, aber ich nutze es auch erst sporadisch seit ein paar Monaten und habe daher nur Erfahrung mit einer Handvoll Titel.

Taz
2025-04-06, 19:12:47
Als Vsync/Frame Limiter Nutzer nutze ich das normale FG auf meiner 4090er gar nicht. Tearing geht halt einfach nicht, und heizen will ich mit der GPU auch nicht.

Ich nutze allerdings in CPU Limitierten Games, wie "Captain of Industry" usw, das Tool "Lossless Scaling". Geht sehr gut, wenn man in solchen Factory Games oder City Buildern mit großen Spielständen Schwierigkeiten hat, die 60 fps zu halten.
Den Limiter auf 30 fps gesetzt, so dass das Spiel wieder CPU-Luft zum atmen hat, dann die 30 fps hoch skalieren auf die gewünschten framerate. Mir reichen aktuell aber noch immer 60. :cool:

ZeddZwerg
2025-04-06, 20:25:48
Ich habe schon ewig kein Tearing mehr gehabt. Reicht es nicht, das globale fps limit knapp unterhalb der maximalen Refresh-Rate zu setzen, im Treiber vsync an und im spiel aus?

Dorn
2025-04-06, 21:27:53
Frame Generation mit 60 fps mit nur minimaler geringer Latenz, ist das Ziel. Ob das technisch überhaupt möglich ist?

Raff
2025-04-06, 23:54:54
Frame Generation mit 60 fps mit nur minimaler geringer Latenz, ist das Ziel. Ob das technisch überhaupt möglich ist?

Definiere "minimal" und "gering". :) Verglichen mit so manchem Spiel der PS360-Ära (lahme Spiele + lahme Bildschirme) ist heutzutage alles schnell und direkt.

MfG
Raff

Relex
2025-04-07, 00:16:45
Eines der geilsten Features der letzten 20 Jahre. Wird immer genutzt wenn möglich. Einzige Ausnahme sind competitive games.

Die Steigerung der Bewegtbildschärfe auf dem OLED sowie die Verbesserung der Frametimes bzw. Percentile sind einfach nur Wahnsinn.

Früher bedeutete, mit besonders hohen FPS zu spielen, dass aufgrund allmählich einsetzender CPU limits die Frametimes leiden. Heute ist dank FG das Gegenteil der Fall. Noch nie konnte man aufwändige Spiele mit so hohen Frames und zugleich glatten Frametimes spielen. Wenn ich da 10 oder 15 Jahre zurück blicke, war das damals völlig undenkbar.

Latenzen sind auch kein Problem für mich solange sie mit Reflex + FG besser sind, als ohne. Daher WinWin.



Ich habe schon ewig kein Tearing mehr gehabt. Reicht es nicht, das globale fps limit knapp unterhalb der maximalen Refresh-Rate zu setzen, im Treiber vsync an und im spiel aus?

Natürlich reicht das. Keine Ahnung, was manche damit immer für Probleme haben. Einfach Vsync im Treiber an und das wars. Reflex cappt automatisch unterhalb der maximalen frequenz, so dass man immer in der VRR Range bleibt und Vsync keine Frames buffern kann (was latenz kosten würde). Vsync ist dann effektiv nur noch dazu da, den Sync auch dann zu gewährleisten, wenn die Frametime eines frames mal übers fps cap „schwappt“.

aths
2025-04-07, 01:52:06
FG finde ich Schwachsinn. Es erhöht die Bildrate aber nicht die Performance, weil die Eingabe-Verzögerung sogar zunimmt. FG macht bei einem bereits spielbarem Spiel die Framerate höher, aber kann keine Ruckelorgie zu einem flüssigen Spiel machen. FG/MFG ist ein Benchmark-Cheat. Für nicht-interaktive 3D-gerenderte Cutscenes okay, zum Zocken einfach Blödsinn.

Es wäre so geil: Aufwändige 3D-Cutscenes gerne mit FG, das eigentliche Spiel ohne. Die Realität ist leider, um beim Zocken die Latenz nicht ganz zu killen erlaubt das Spiel bei FG kein VSync-On. Dümmer gehts wohl nicht.

MadManniMan
2025-04-07, 07:50:26
FG finde ich Schwachsinn.

Fair Point ...


Dümmer gehts wohl nicht.

... warum aber so aggro?

Aktuell spiele ich W3 Enhanced (okay, einmal pro Woche ne Stunde ... aber theoretisch) und checke dann doch ab und an, ob mir ohne FG nicht besser gefällt, weil der Input direkter ist. Letztlich bleibt doch immer FG an, weil die Flüssigkeit bei diesem Spiel für mich einfach mehr zu einem guten Spielgefühl beiträgt als ich durch den Latenzschub verliere.

Bei Forza Horizon 5 hingegen? Trotz 90+ Basis-FPS ist's mir den Verlust an Direktheit nicht Wert gewesen.


Warum also so pauschale Urteile? PC war doch schon immer dafür da, selbstbestimmte (und teils schlecht, unbenommen) Entscheidungen zu treffen.

Crazy_Borg
2025-04-07, 08:54:29
[x] Kein wirkliches Interesse

Sollen sie mal machen, solange ich es abschalten kann: alles gut.
Genutzt habe ich sowas noch nie.

Spring
2025-04-07, 09:22:20
Ich war anfangs sehr sehr skeptisch bzgl. FG und habe es wie Aths schon als "Performancecheat" gesehen. Selbst in Action richtig erst seit der 6950XT und nun mit 9070XT erlebt und ich muss sagen:
Ich mag es für aufwändige Games nicht mehr missen, die sonst nur mit 50-70fps rumgurken auf hohen Settings.

Ich nutze es testweise sogar seit einiger Zeit z.B. in PUBG für über 250fps mit max settings (via AFMF 2, nun 2.1), Stalker 2, HZD remastered, CP 2077 und es funzt erstaunlich gut.
MFG mit deutlich mehr generierten Frames dürfte nicht so mein Ding sein, aber die 5-9ms durch normales Framegen bemerke ich nicht (ausser base fps deutlich unter 50-60 fps).

Für AFMF 2.1 einstellen ist dies zu Empfehlen:

https://s1.directupload.eu/images/250407/orrktk3n.png

aths
2025-04-07, 09:57:09
Warum also so pauschale Urteile? PC war doch schon immer dafür da, selbstbestimmte (und teils schlecht, unbenommen) Entscheidungen zu treffen.
Bei mir spielt der Frust mit rein, dass man Nvidia weitgehend durchgehen lässt, mit Fake-Frames zu werben. Würden die Benchmarks nativ durchgeführt und wäre FG ein Feature obendrauf, womit man rumspielen kann, gerne. Und dann sitzt ein ich sag mal nicht komplett aufs Thema vorbereiteter Lars Weinand bei Gamestar und eiert rum. https://www.youtube.com/watch?v=sjpSYmj1Rho

Exxtreme
2025-04-07, 10:13:22
FG finde ich Schwachsinn. Es erhöht die Bildrate aber nicht die Performance, weil die Eingabe-Verzögerung sogar zunimmt. FG macht bei einem bereits spielbarem Spiel die Framerate höher, aber kann keine Ruckelorgie zu einem flüssigen Spiel machen. FG/MFG ist ein Benchmark-Cheat. Für nicht-interaktive 3D-gerenderte Cutscenes okay, zum Zocken einfach Blödsinn.


Es gibt Spiele, die hängen im CPU-Limit. Da kann FG sehr wohl sehr gut helfen. Ist sogar so ziemlich die einzige Möglichkeit die Bildrate nennenswert zu steigern.

basix
2025-04-07, 10:32:15
[x] vorbehaltloses Nutzungs-Interesse

Ist zwar nicht ganz korrekt, aber ich nutze FG regelmässig. FG hat für mich mehr Vorteile als Nachteile. Latenz sollte schon noch verbessert werden (das wird zu 100% passieren in den nächsten Jahren -> Extrapolation & Framewarp anstatt Interpolation) und die Bildqualität wird sich auch verbessern (weniger Artefakte). Ist nur eine Frage der Zeit.

Ich kann allerdings nicht verstehen, wieso so viele Leute hier im Forum es generell & pauschal ablehnen. Ich war auch skeptisch und es gibt echte Nachteile, aber ich habe es selber ausprobiert und erlebt und unter dem Strich kann es einige Vorzüge bieten. Ist wohl das selbe wie bei der nativ vs. DLSS/FSR Diskussion. Manche wollen nicht mit der Zeit gehen, sondern die gehen mit der Zeit ;)

Dass man FG als "Performance" vermarktet finde ich sicher falsch. Aber das ist ein Fehler von Seiten Nvidias Marketing und nicht der Technik an sich. FG ist hier um zu bleiben und wird definitiv mit der Zeit immer besser werden. Und es wird zu 100% bei der nächsten Konsolengeneration zum Einsatz kommen.

Relex
2025-04-07, 10:36:30
Die latenz kann man problemlos über "reale Performance" also durch Grafiksettings, Upscaling und Reflex nahezu nach bleiben einstellen. Wie bisher auch. FG verhindert das ja nicht.

Dass mit FG bei jeder beliebigen Latenz deutlich mehr FPS möglich sind, als bisher, sehe ich als reinen Nettogewinn.

aths
2025-04-07, 13:02:18
Es gibt Spiele, die hängen im CPU-Limit. Da kann FG sehr wohl sehr gut helfen. Ist sogar so ziemlich die einzige Möglichkeit die Bildrate nennenswert zu steigern.
Die Bildrate steigt, die Eingabelatenz leider auch.

MiamiNice
2025-04-07, 13:04:03
[x] Ablehnung, absolut, no way here für Fake Frames und dessen Fans.

Gast
2025-04-07, 13:14:47
Da passt keine der Antwortmöglichkeiten.

Situatives Interesse wenn es sinnvoll ist durchaus vorhanden, wenn es sinnvoll einsetzbar ist.

Sollten sich die sinnvollen Einsatzgebiete erweitern, beispielsweise durch einen Monitor mit höherer Refreshrate, oder Minimierung des Latenz-Impacts durch Reflex 2, könnte sich auch das Interesse erweitern.

Ein No-Brainer wie Upsampling wird es aber wohl nie werden.

Relex
2025-04-07, 13:16:19
Die Bildrate steigt, die Eingabelatenz leider auch.


Wenn du vom GPU- ins CPU-limit kommst sinkt die Latenz aber bereits sehr deutlich. Wo ist also das Problem, einen Teil der gewonnenen latenz wieder für FG einzusetzen?


Ich hoffe auch, dass du sonst niemals im GPU Limit spielst, denn da ist in vielen Spielen, die kein Reflex haben, die Latenz höher als sie mit Frame Gen + Reflex wäre.

Auch darüber hat man bisher nie wirklich Beschwerden gehört. Auch AMD User, die kein Reflex nutzen können (und auch in extrem wenigen Spielen AntiLag2) spielen die allermeiste Zeit mit höheren latenzen im GPU Limit, als jemand mit Nvidia Karte der FG+Reflex aktiv hat.

Aber ich höre keine Beanstandungen von AMD Usern.


Es ist wirklich köstlich, wie diese Narrative von wegen FG = schlechte Latenzen sich festsetzt und jeglicher Kontext ignoriert wird.

Und ja, hier müsste man "schlecht" gegen "höher" tauschen. Du sagtest zwar auch höher, aber bewertest das in deinem vorherigen Post direkt als "schlecht".
Denn "schlecht" ist eine Pauschalaussage, die nur in wenigen Fällen zutreffen kann.
"höher" hat einen relativen Bezug und ist variabel. Auch mit "höheren" Latenzen durch FG kann man weiterhin "sehr gute" Latenzen haben. U.U. sogar bessere als ganz ohne Nvidia Technik. Das scheinen leider nur sehr wenige Spieler zu verstehen.

Lehdro
2025-04-07, 16:12:57
Hm, so richtig gefällt mir keine Antwort, aber am ehesten doch wohl die 1.

Allerdings nutze ich FG nur in einem Spiel derzeit: Darktide.
Heftig CPU limitiert, auch in 1440p mit einer 4090. Normal wären so 80-120 fps, die ich mit FG auf über 200 "aufblasen" kann. Gut, die 200 FPS brauche ich nicht, aber mit dem 240 Hz Monitor nehme ich die gerne mit. Wo ich die FG fake Frames aber brauche, ist in den Situationen bei denen die FPS gnadenlos einbrechen auf teilweise unter 60 FPS - die Latenz ist dann eh beschissen und genauso sieht es auch aus. FG glättet das visuell(!) schön weg und dank Reflex ist die Latenz zwar schlecht, aber das wäre sie auch ohne FG da die CPU absolut limitiert. Mit der 6900XT waren diese Szenen eine absolute Katastrophe, da die Latenz gefühlt noch schlechter war (man halt kein Reflex). PCGH hatte das damals mal schön im Heft aufgezeigt wie "human" FG mit Reflex in Darktide ist, gibt es auch online (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/RTX-4070-DLSS-30-Frame-Generation-Raytracing-High-Fps-1417254/4/).

In Cyberpunk habe ich das in meiner kurzen bisherigen Spielzeit auch mal probiert, allerdings war ich damit nicht wirklich zufrieden. Keine Ahnung wo ich da mit meiner Basisframerate hin müsste um zufrieden zu sein. Das steht dann aber dem Eyecandy Gedanken des Spiels gegenüber...arrrgh.

Gast
2025-04-07, 16:41:54
FG ist Resteverwertung der AI-Entwicklung. Statt die Balkenlänge durch AI/Fakeframes auf Kosten von Bildqualität und Latenz aufzublasen, sollte die RT-Performance endlich durch vollständige Hardwarebeschleunigung gesteigert werden, damit es erst gar nicht zum Ruckeln kommt. Davon hätten Spieler mehr. Krücken wie Hybrid-Rendering wären dann auch überflüssig.

Schade, dass die Fachpresse (wg. Desinteresse, NDA oder weil vom Thema überfordert?) nicht bei NV nachbohrt und im Interesse der Kundschaft der Frage nachgeht, warum das Problem der unzureichenden RT-Performance nicht durch bessere Hardwarebeschleunigung (z.B. coherency gathering) gelöst wird. Dort gibt es keinerlei Fortschritt. Stattdessen versucht NV, die fehlende Performance durch eine unausgereifte Softwarelösung zu kaschieren.
Mehr Rays statt Fakeframes müssen das Ziel sein!

Platos
2025-04-07, 18:26:57
Framegen hat ja selten eine Verdopplung der Franerate zu bedeuten. D.h angenommen nativ hätte man z.B 60FPS, mit Framegen gewinnt man aber jetzt z.B nur z.B +30% dazu, heisst das doch, dass man 78FPS hat und somit intern aber nur noch 39FPS native Frames rendert (weil ja Framegen immer die frames verdoppelt am Ende)?

Oder ist das inzwischen nicht mehr so?

MadManniMan
2025-04-07, 18:41:48
Bei mir spielt der Frust mit rein, dass man Nvidia weitgehend durchgehen lässt, mit Fake-Frames zu werben. Würden die Benchmarks nativ durchgeführt und wäre FG ein Feature obendrauf, womit man rumspielen kann, gerne. Und dann sitzt ein ich sag mal nicht komplett aufs Thema vorbereiteter Lars Weinand bei Gamestar und eiert rum. https://www.youtube.com/watch?v=sjpSYmj1Rho

Tut man das? Was ist das Kriterium dafür, wann das geschieht?

Ein schlecht vorbereiteter Journo ... ist jetzt nicht unbedingt stellvertretend, oder?


[x] Ablehnung, absolut, no way here für Fake Frames und dessen Fans.

Wer ist für dich "Fan"? Und beziehst du dich spezifisch auf NV- und/oder AMD- und/oder Lossless Scaling?

aths
2025-04-07, 20:18:35
Tut man das? Was ist das Kriterium dafür, wann das geschieht?

Ein schlecht vorbereiteter Journo ... ist jetzt nicht unbedingt stellvertretend, oder?Weinand ist hier nicht Journo, er ist Nvidia-PR-Dulli. Klingt abwertend aber ganz ehrlich wie desinteressiert er da ist und ständig Zeug redet das nicht nur ein bisschen nicht stimmt sondern vollkommener Quatsch ist ... dagegen ist die historische Beurteilung, Doom 3 sei technisch eine Mischung aus DirectX 8 und 9, ein Quell der Weisheit.

Bei der ersten Zeile ist mir nicht klar worauf sie sich bezieht.

Vielleicht sollte ich das Argument etwas strukturierter fassen, allerdings hat Hardware Unboxed das schon so gut gemacht das krieg ich nicht besser hin https://www.youtube.com/watch?v=B_fGlVqKs1k (und bleibt auch sachlich im Gegensatz zu Teilen meiner Comments hier). Der gleiche Kanal nennt DLSS-4-Upscaling amazing, ist also nicht gegen Nvidia eingestellt.

edit: Hoppala, zumindest auf dem Gaming-Laptop hatte ich bei Diablo 4 FG aktiviert (das alte, für die 4000-er Serie).

Gast
2025-04-07, 20:47:53
Die Bildrate steigt, die Eingabelatenz leider auch.

Haha ja genau ich frage mich auch immer wie Ihr Kritiker denn früher Games spielen konntet , als es noch kein NV Reflex gab... Ist wohl die neue Modeerscheinung von künstlicher Unzufriedenheit. ;-)

aths
2025-04-07, 21:20:26
Haha ja genau ich frage mich auch immer wie Ihr Kritiker denn früher Games spielen konntet , als es noch kein NV Reflex gab... Ist wohl die neue Modeerscheinung von künstlicher Unzufriedenheit. ;-)
Ich hatte im Treiber das Prerenderlimit gerne runter gesetzt. Ging auf die Framerate, aber machte die Eingabe direkter.

Gast
2025-04-07, 23:07:01
Ich hatte im Treiber das Prerenderlimit gerne runter gesetzt. Ging auf die Framerate, aber machte die Eingabe direkter.

Funktionierte aber auch nicht immer und überall, da gab es teils 4, 5 oder mehr Frames welcher von der CPU vorgehalten wurden. Es geht einfach um Verhältnismäßigkeiten die aktuell nicht mehr stimmen.
Früher war man auch genügsamer mit 30 oder 40fps... heute müssen es trotz G-Sync ja immer mindestens 60fps, besser noch 240fps sein (Völlig absurd!)... und die Konsoleros erst. Garnicht dran zu denken!

Frame Generation ist schon heute in vielen Games ein Game-Changer! Definitiv.

aufkrawall
2025-04-07, 23:25:23
"Game Changer" impliziert, dass nun irgendetwas möglich wäre, was vorher nicht ging. Etwas hochgegriffen für die Kombi aus flüssigerer Darstellung und schwammigerer Eingabe. Es kann für SP-Games ein sehr netter Bonus sein, ja. Aber ein Bonus ist prinzipiell kein Game Changer.

aths
2025-04-07, 23:59:04
"Game Changer" impliziert, dass nun irgendetwas möglich wäre, was vorher nicht ging. Etwas hochgegriffen für die Kombi aus flüssigerer Darstellung und schwammigerer Eingabe. Es kann für SP-Games ein sehr netter Bonus sein, ja. Aber ein Bonus ist prinzipiell kein Game Changer.
Danke dir :)

Funktionierte aber auch nicht immer und überall, da gab es teils 4, 5 oder mehr Frames welcher von der CPU vorgehalten wurden. Es geht einfach um Verhältnismäßigkeiten die aktuell nicht mehr stimmen.
Früher war man auch genügsamer mit 30 oder 40fps... heute müssen es trotz G-Sync ja immer mindestens 60fps, besser noch 240fps sein (Völlig absurd!)... und die Konsoleros erst. Garnicht dran zu denken!
In der Zeit der Röhrenmonitore brauchte ich 85, besser 100 Hz damit es nicht so flimmert, optimalerweise 120 Hz. Hatte dafür gerne die Auflösung gesenkt, Hauptsache kein Flimmern.

Beim Zocken will ich schon 60 Hz und finde es absurd, dass Titel die sich Need for Speed nennen, auf 30 feststellen da Konsolen-Port. Brauche 60 Hz!!! JOIN THE GLORIOUS 60 FPS REVOLUTION – TotalBiscut.

Mehr als 60 hielt ich im TFT-Zeitalter für Unsinn bis ich mir 120 Hz gab und ja, für meine Begriffe ist das dann doch ein bisschen besser. Zumindest bei großen Monitoren. Beim 15,6-Zoll des Lappis rechen mir die 60 Frames, auf dem 27-er Desktop-Bildschirm (obwohl beide mit 1440p) sind 120 dann doch sichtlich besser. Hatte vorübergehend 24" mit 100 Hz genutzt (Acer Entry-Level "Gaming"-Monitor. Wenigstens VA-Panel.) (Der 24"-1080p-100-Hz-Monitor ist ein Thema für sich.)

FG/MFG macht aus bereits guten Frameraten nochmals höhere, so dass auch die zusätzliche Latenz nicht mehr so negativ auffällt. Okay. Man kann damit aber nicht aus einer Ruckel-Orgie (<25 fps) ein angenehm flüssiges Spiel-Erlebnis machen, auch nicht mit drei Fake-Frames. Für langsam spielbare Single-Player-Kampagnen vielleicht okay aber solche Spiele brauchen ohnehin keine extreme Graffikarte um die Story zu genießen.

Hatte Prerenderlimit im Detonator oft auf 1 gestellt und trotz der Mikro-Ruckler mich über eine, sofern das Settingangewendet wurde, bessere Reaktionsgeschwindigkeit gefreut. Für mich ist das entscheidend, wenn ich die Maus bewege oder eine Taste drücke, brauche ich die Auswirkung sofort.

Gast
2025-04-08, 00:20:55
Danke dir :)

Alles Ansichtssache und wie man Dinge bewertet. Da gibt es kein richtig oder falsch. Siehe NVIDIA Reflex welches in Cyberpunk erst mit DLSS 3 Einzug hielt und wie man visuelle Wiedergabetreue in Games in voller Gänze wahrnimmt! :)

Gast
2025-04-08, 01:09:29
FG/MFG macht aus bereits guten Frameraten nochmals höhere, so dass auch die zusätzliche Latenz nicht mehr so negativ auffällt. Okay. Man kann damit aber nicht aus einer Ruckel-Orgie (<25 fps) ein angenehm flüssiges Spiel-Erlebnis machen, auch nicht mit drei Fake-Frames. Für langsam spielbare Single-Player-Kampagnen vielleicht okay aber solche Spiele brauchen ohnehin keine extreme Graffikarte um die Story zu genießen.


25fps sind auch zu wenig, also minimum 40fps braucht es meiner meinung nach schon mit der NV Frame Gen-Lösung, aber das ist natürlich immer sehr subjektiv und wie man das selber optisch visuell wahrnimmt, auch spielen andere Faktoren mit rein wie Polling Tick-Rate der Ziel-FPS welche vom Entwickler berücksichtigt werden sollten, mit Reflex 2 etc. wird das dann Pflicht
Auch darf man nicht unterschätzen, dass Frame Generation sehr power-effizient ist. Eine RTX 5070Ti ermöglicht dir Bildraten von um 120fps in Cyberpunk 2077 mit MFG 3x in max. Details mit Path Tracing und bleibt dabei sehr sparsam.

MadManniMan
2025-04-08, 08:34:03
Weinand ist hier nicht Journo, er ist Nvidia-PR-Dulli. Klingt abwertend aber ganz ehrlich wie desinteressiert er da ist und ständig Zeug redet das nicht nur ein bisschen nicht stimmt sondern vollkommener Quatsch ist ... dagegen ist die historische Beurteilung, Doom 3 sei technisch eine Mischung aus DirectX 8 und 9, ein Quell der Weisheit.

Naja, dann ist's doch aber tatsächlich ein grundsätzliches Problem von ausgeprägtem Halbwissen. Über fehlendes Technikverständnis verwandter Disziplinen haben wir uns ja seit jeher aufgeregt ...


Bei der ersten Zeile ist mir nicht klar worauf sie sich bezieht.

Ich bezog mich auf "Bei mir spielt der Frust mit rein, dass man Nvidia weitgehend durchgehen lässt, mit Fake-Frames zu werben." - und das sehe ich eben nicht. Die Kanäle, die ich rezipiere (CB und PCGH in Deutschland, ansonsten Digital Foundry und Hardware Unboxed), sind differenziert und mehr oder weniger freundlich.

Aber vielleicht blicke ich da zu wenig über den Tellerrand ...

Gast
2025-04-08, 12:45:09
FG/MFG macht aus bereits guten Frameraten nochmals höhere, so dass auch die zusätzliche Latenz nicht mehr so negativ auffällt. Okay. Man kann damit aber nicht aus einer Ruckel-Orgie (<25 fps) ein angenehm flüssiges Spiel-Erlebnis machen, auch nicht mit drei Fake-Frames.


Ja eh, FG ist für die 360 und 480Hz Monitore, da braucht es eben auch mit schnellen Grafikkarten FG.

FG ist nicht um 30FPS irgendwie in spielbare zu verwandeln.

00-Schneider
2025-04-08, 16:29:53
FG wird nur genutzt, wenn ohne FG keine 117fps erreicht werden können.

Die deutlich höhere Bewegtschärfe auf dem OLED ist mir 10x wichtiger als eine etwas niedrigere Latenz. Zocke auch sehr viel mit Controller, d.h. dort merkt man die Latenz eh nicht so stark als wie mit Maus.

MiamiNice
2025-04-08, 16:45:07
Wer ist für dich "Fan"? Und beziehst du dich spezifisch auf NV- und/oder AMD- und/oder Lossless Scaling?

Ich beziehe mich auf jedwede, nicht von der GPU nativ errechneten, Frames, die auf einem Monitor angezeigt werden. Fans sind für mich die User die gerne 16x Fake Frames hätten oder User die argumentieren, dass mit Reflex der Input Lag, bei Nutzung von FG, geringer ist, als nativ. Da wird völlig ausgeblendet,, dass nativ ohne FG noch einen geringeren Input Lag hätte.

Generell gehöre ich zu den Leuten für die Input Lag und min FPS das Maß der Dinge sind. Da ist kein Platz für Fake Frames. Schon gar nicht wenn man eher ein competitiver Spieler ist.

€:

Generell bin ich auch kein Freund von dieser Resteverwertung seitens NV. Denn, der Gast hat vollkommen recht:

FG ist Resteverwertung der AI-Entwicklung. Statt die Balkenlänge durch AI/Fakeframes auf Kosten von Bildqualität und Latenz aufzublasen, sollte die RT-Performance endlich durch vollständige Hardwarebeschleunigung gesteigert werden, damit es erst gar nicht zum Ruckeln kommt. Davon hätten Spieler mehr. Krücken wie Hybrid-Rendering wären dann auch überflüssig.

Schade, dass die Fachpresse (wg. Desinteresse, NDA oder weil vom Thema überfordert?) nicht bei NV nachbohrt und im Interesse der Kundschaft der Frage nachgeht, warum das Problem der unzureichenden RT-Performance nicht durch bessere Hardwarebeschleunigung (z.B. coherency gathering) gelöst wird. Dort gibt es keinerlei Fortschritt. Stattdessen versucht NV, die fehlende Performance durch eine unausgereifte Softwarelösung zu kaschieren.
Mehr Rays statt Fakeframes müssen das Ziel sein!

Vor allem das mit der Fachpresse. Die lässt NV schalten und walten, Hauptsache man bekommt noch eine Karte beim nächsten Release. FG, MFG, DLSS - alles Dinge die die Welt nicht braucht. Trotzdem wird nur gejubelt aber nichts hinterfragt.

Vergessen sollte man auch nicht, dass NV FG, MFG, DLSS nutzt, um die Chips immer weiter zu kastrieren und teurer zu machen. Auf den Karten landen immer kleinere und kastrietere Chips, man bekommt weniger HW für das Geld, weniger native Leistung, zahlt mehr, und NV argumentiert mit längeren KI Balken. Und die Leuten kaufen dann diese kleinen Pi**karten, schalten DLSS und Co. an (€: Muss man ja nimmer, ist jetzt standard on -.- ) und kaufen nach 2 Jahren eine neue Karte. So viel Höhrigkeit ist kaum zu ertragen -.-
Und dann hast Leute die genau das feiern. Dann kann man nur eine totale Ablehnung ggü. dieser Personengruppe generieren :freak:

Relex
2025-04-08, 16:55:54
FG ist nicht um 30FPS irgendwie in spielbare zu verwandeln.


Kommt drauf an.


Denn der Punkt ist folgender:

Wenn du (egal bei welcher Framerate oder mit welcher Grafikkarte) dich dazu entschließt performance zu opfern, um die Grafik hochzudrehen, sei es effekte oder Auflösung, dann geht das immer mit dem Problem einher, dass du auf der einen Seite die Bildqualität verbesserst, aber auf der anderen Seite durch die geringere Performance ebenso wieder Bildqualität einbüßt, weil geringere Frameraten für mehr Unschärfe und Ruckeln in bewegung sorgen. Man erkauft sich also ein schärferes Bild durch ein zugleich unschärferes Bild. Völlig bekloppter Trade-off der sich komplett selbst im Weg steht.

Und das Problem hat man bei 30 FPS genauso wie bei 240 FPS. Das Performanceniveau spielt also keine Rolle. Das Problem hat man immer.


Und genau da kommt eben FG bzw. MFG ins Spiel. Es ist das einzige Tool, welches es ermöglicht, GPU performance in bessere Grafik zu investieren, dabei aber nichts an bewegungsschärfe einzubüßen oder sie im Gegenteil sogar noch stark zu verbessern.

Ich würde FG (bzw. MFG) daher praktisch schon als Grundvoraussetzung sehen und es ausnahmslos immer für jedes Spiel aktivieren, bei dem Optik einen Stellenwert hat.

Denn bevor ich anfange auch nur ein bisschen meiner Performance in Grafikeffekte oder Auflösung zu stecken (wodurch ich aufgrund sinkender Framerate direkt Bildschärfe einbüße), investiere ich einen kleinen Grundbetrag meiner GPU Leistung in FG, um sicherzustellen, dass die Bewegtbildschärfe maximiert wird und ruckeln beseitigt wird. Somit hab ich das Problem, dass ich Schärfe einbüße und ruckeln erhöhe, je weiter ich die Grafik maximiere, völlig aus der Welt geschafft.

Performance und damit Latenzen kann man wie gehabt über die Grafiksettings regeln, aber wenn ich mich dazu entschließe, performance für bessere Grafik zu opfern, dann muss ich nicht mehr damit leben, dass ich schärfe und smoothness im gleichen zug wieder kompromittiere, was dem Ziel der besseren Optik ja komplett im Wege steht.


Ja, ich bin vielleicht ein "fanboy" dieser Technik, aber mich wundert es trotzdem sehr, dass scheinbar nur so wenige Leute den immensen Nutzen erkennen oder ähnliche Überlegungen dazu anstellen.

Ja, FG ist noch nicht perfekt und hat noch Fehler, aber der Nutzen ist immens und es beseitigt (oder reduziert zumindest) eines der grundlegendsten Probleme des Grafikrenderings.



Wie auch immer. Mehr werde ich dazu hier auch nicht schreiben.
Letztendlich wird es sich genauso durchsetzen wie TAA, Upscaling und Raytracing, welche ebenso verteufelt wurden.


PS: Und nein, für competitive games wird es sich nicht durchsetzen. Denn dort versucht man ja auch nicht die bestmögliche Grafik zu erreichen. Der Trade off, performance für bessere Grafik zu opfern exisitiert dort ja schlichtweg nicht.

Gast
2025-04-08, 17:10:16
Und das Problem hat man bei 30 FPS genauso wie bei 240 FPS. Das Performanceniveau spielt also keine Rolle. Das Problem hat man immer.



Nicht wirklich, bei 30FPS ist die Schärfe in Bewegung sogar höher als mit 60FPS, es ruckelt einfach. Wenn es flüssiger wird nimmt erst mal die Unschärfe in Bewegung zu, auch ein Grund warum zusätzliches Motion Blur erstmal flüssiger wirkt und warum Videoaufnahmen auch mit niedrigen FPS in der Regel flüssiger wirken, da die Verschlusszeit automatisch Motion Blur erzeugt.

Erst mit deutlich höheren FPS, und das hängt wiederum vom Monitor und dessen Schaltzeiten ab, da diese wiederum Motion Blur erzeugen und damit das Bild flüssiger darstellen auf kosten der Schärfe, nimmt dann die Bildschärfe wieder zu je höher man wird. Auf einem OLED würde ich sogar sagen der Punkt ist erst mit 90FPS erreicht, an dem jedes Mehr an FPS nur mehr die Bildschärfe verbessert.

MadManniMan
2025-04-08, 17:16:58
Ich beziehe mich auf jedwede, nicht von der GPU nativ errechneten, Frames, die auf einem Monitor angezeigt werden.

Was ist "nativ"? Und warum ist es besser als das andere?

(Laufzeit-Computergrafik ist fake seit Anbeginn. Es ging und geht immer darum, mit begrenzten Mitteln optimale Ergebnisse zu erhalten. Und es werden auch immer mal Dinge übertrieben - aber eben auch wieder zurückgefahren.)

downforze
2025-04-09, 07:41:59
Es gibt Spiele, die hängen im CPU-Limit. Da kann FG sehr wohl sehr gut helfen. Ist sogar so ziemlich die einzige Möglichkeit die Bildrate nennenswert zu steigern.
Bei Nvidias MFG hat man auch 500 fps und es fühlt sich an wie Wackelpudding. Während generierter Bilder gibt es keine Input-Abfrage der Controller und genau das macht es so sinnlos. Habe ich bereits 60 fps, brauche ich kein FG. Habe ich nur 40 fps, ist FG absolut sinnlos wegen der Latenz. Genau deshalb finde ich das Feature so unsinnig.

Gast
2025-04-09, 07:56:28
Habe ich bereits 60 fps, brauche ich kein FG.

Ja, da wäre eher ein höheres Upscaling angebracht um auf 90FPS zu kommen.

Wenn du einen 240Hz Monitor hast brauchst du aber dann Upscaling.

Iscaran
2025-04-09, 08:22:00
Habe ich bereits 60 fps, brauche ich kein FG. Habe ich nur 40 fps, ist FG absolut sinnlos wegen der Latenz. Genau deshalb finde ich das Feature so unsinnig.

Naja für Displays die kein VRR haben aber halt 480 Hz oder so macht es schon "bedingt" Sinn...so habe ich wenigstens kein Tearing mehr und kann normales V-Sync nutzen.

Wobei ich mich frage wieviele Monitore in der Kategorie haben KEIN VRR (alias G-Sync, FreeSync, Adaptive Sync) haben.

Relex
2025-04-09, 09:36:41
Nicht wirklich, bei 30FPS ist die Schärfe in Bewegung sogar höher als mit 60FPS, es ruckelt einfach. Wenn es flüssiger wird nimmt erst mal die Unschärfe in Bewegung zu, auch ein Grund warum zusätzliches Motion Blur erstmal flüssiger wirkt und warum Videoaufnahmen auch mit niedrigen FPS in der Regel flüssiger wirken, da die Verschlusszeit automatisch Motion Blur erzeugt.

Erst mit deutlich höheren FPS, und das hängt wiederum vom Monitor und dessen Schaltzeiten ab, da diese wiederum Motion Blur erzeugen und damit das Bild flüssiger darstellen auf kosten der Schärfe, nimmt dann die Bildschärfe wieder zu je höher man wird. Auf einem OLED würde ich sogar sagen der Punkt ist erst mit 90FPS erreicht, an dem jedes Mehr an FPS nur mehr die Bildschärfe verbessert.


Das ist auf so vielen Ebenen falsch… z.B. warum sollte ab 90 fps nur mehr die schärfe und nicht das ruckeln minimiert werden?? (Zumal das auch von der geschwindigkeit abhängig ist, mit der sich der content bewegt)

Auf den Rest gehe ich jetzt nicht ein, das würde sonst komplett den Rahmen sprengen.

igi666
2025-04-09, 09:51:41
Eines der geilsten Features der letzten 20 Jahre. Wird immer genutzt wenn möglich. Einzige Ausnahme sind competitive games.

Vieleicht ne doofe Frage, aber in welchen Spielen funktioniert das ganze denn gut?

Ich komme von ner 6900XT und bin seit einigen Wochen wieder im gruenen Lager, aber bisher komme ich nicht klar...

Indiana Jones and the great Circle - schreckliche Latenz mit FG, unspielbar...lieber ohne
Cyberpunk 2077 - FG unter Windows 10 trotz zig "tricks" nicht anschaltbar im Spiel.

Dann habe ich Spiele aus dem MS Gamepass, wo ich es gerne per Treiber probieren wuerde, aber die werden von der Nvidia App garnicht gesehen und koennen wegen fehlender Berechtigungen auf die Spieleordner auch nicht manuell hinzugefuegt werden.

Also bislang bin ich mehr als unterwaeltigt und sehr enttaeuscht von der grossen Nvidia Ueberlegenheit im Software Bereich.

downforze
2025-04-09, 10:18:31
Ja, da wäre eher ein höheres Upscaling angebracht um auf 90FPS zu kommen.

Wenn du einen 240Hz Monitor hast brauchst du aber dann Upscaling.
Ich habe einen AOC c24g1 mit 144 Hz und Freesync. Tearing gibt es hier also nicht. 144 fps bei 144 Hz mit der 7800 XT aber auch nicht.
Naja für Displays die kein VRR haben aber halt 480 Hz oder so macht es schon "bedingt" Sinn...so habe ich wenigstens kein Tearing mehr und kann normales V-Sync nutzen.

Wobei ich mich frage wieviele Monitore in der Kategorie haben KEIN VRR (alias G-Sync, FreeSync, Adaptive Sync) haben.
Kein VRR und 480 Hz, ich glaube nicht, dass viele so etwas zu Hause zu stehen haben, weil die Kombination abseits von irgendwelchen competitive Shootern total sinnlos ist.
Vieleicht ne doofe Frage, aber in welchen Spielen funktioniert das ganze denn gut?

Ich komme von ner 6900XT und bin seit einigen Wochen wieder im gruenen Lager, aber bisher komme ich nicht klar...

Indiana Jones and the great Circle - schreckliche Latenz mit FG, unspielbar...lieber ohne

Ich habe es in EA WRC 2024 getestet. Eine absolute Vollkastastrophe. Habe ich wenig fps (teilweise unter 30 -> 60 FG fps), hat das Auto eine unglaublich hohe Latenz gehabt, ehe es auf meine Lenkradbewegungen reagiert hat. Das ist auch keine Überraschung, denn die bereits miese Latenz bei 30 fps wird durch FG weiter erhöht.

Relex
2025-04-09, 10:30:04
@ igi666

Indy ist ein schlechtes Beispiel. Meines Wissens das einzige game bei dem offensichtlich Reflex nicht funktioniert. (Sieht man z.B. daran, dass bei 120 Hz die FPS nicht auf 116 limitiert werden)

Ansonsten hatte ich bisher keine Probleme. Auch nicht die, die du beschreibst. Seltsam..



Ich habe es in EA WRC 2024 getestet. Eine absolute Vollkastastrophe. Habe ich wenig fps (teilweise unter 30 -> 60 FG fps), hat das Auto eine unglaublich hohe Latenz gehabt, ehe es auf meine Lenkradbewegungen reagiert hat. Das ist auch keine Überraschung, denn die bereits miese Latenz bei 30 fps wird durch FG weiter erhöht.

FG verbessert nicht die performance. Falsche Erwartungshaltung. Für ausreichend Performance musst du unabhängig von FG sorgen. Der Vorteil ist, dass sich ausreichend performance mit FG nur durch die Latenz definiert und weniger oder nicht mehr durch das ruckeln des Bildes.

PHuV
2025-04-09, 10:57:54
Was ist "nativ"? Und warum ist es besser als das andere?

(Laufzeit-Computergrafik ist fake seit Anbeginn. Es ging und geht immer darum, mit begrenzten Mitteln optimale Ergebnisse zu erhalten. Und es werden auch immer mal Dinge übertrieben - aber eben auch wieder zurückgefahren.)
Eben. Und wie der Fake dann letztlich zusammenkommt, ist doch letztlich egal, wenn der Spieleindruck am Ende stimmt.

Anscheinend ist es noch nicht zu jedem durchgedrungen, wir sind schon seit einiger Zeit am Ende der Fahnenstange, so daß die GPU leistungsmäßig mit den bisherigen Verfahren nicht mehr weiter skalieren können, zudem die physikalischen Grenzen in der Chipfertigung. Man könnte nur noch gewaltig über direkte Skalierung mit riesigen Platinen + parallele Chips mit viel mehr Leistungsaufnahme mit dazugehörigen Verbrauch + Wärmeentwicklung und Co. eine signifikante Leistungssteigerung bewirken. Will das jemand hier, so einen röhrenden heißlaufenden Riesenrechner mit 3000W und mehr?

Die einzige sinnvolle Lösung, die das wirklich schaffen kann, weiter zu skalieren, sind eben Lösungen über AI, wie DLSS, FSR, MFG usw. Und dafür, daß es neue Techniken sind, laufen sie doch erstaunlich gut, ich verstehe das Gejammere nicht. Ja, es ist alles beileibe noch lange nicht perfekt, und es wird noch einige Stolpersteine geben, zudem erleben wir hier den ersten Einstieg und Anfang. Aber das hatten wir doch bereits schon vielfach, und wenn ich mir beispielsweise damals das Gejammere bei der Einführung von T&L rannehme, wo einige über dieses angeblich nutzlose Feature schimpften, ist das doch heute lange kein Thema mehr.

Es wird so weitergehen, ob das uns so paßt oder nicht, weil es doch in sich schlüssig ist. Und da wird noch mehr kommen und es wird weiter gehen, daß ganze Spieleinhalte künstlich erzeugt werden
PCGH - KI-Modell von Quake 2: Von "beleidigend" bis "beeindruckend" ist alles dabei (https://www.pcgameshardware.de/Quake-2-Spiel-74350/News/Reaktionen-auf-KI-Modell-1470045/)

MFG und anderes wird die Zukunft werden.

Raff
2025-04-09, 11:16:45
HTnL war nie nutzlos – es war zum Zeitpunkt des Erscheinens nur massiv überhyped (wie fast alles, das Nvidia damals alle paar Monate als First-Gen-Version rausgefeuert hat). Das kann man von Frame Gen schon mal nicht behaupten. :)

MfG
Raff

Exxtreme
2025-04-09, 11:59:33
Die einzige sinnvolle Lösung, die das wirklich schaffen kann, weiter zu skalieren, sind eben Lösungen über AI, wie DLSS, FSR, MFG usw.


Die Problematik dabei ist, Etliches davon verbessert die Grafik nicht sondern hilft den Spieleentwicklern ihre Entwicklungskosten zu externalisieren. Und deshalb hat man die sehr lahme UE5-Engine in gefühlt 90% der neuen Spiele.

MiamiNice
2025-04-09, 12:00:32
Bei Nvidias MFG hat man auch 500 fps und es fühlt sich an wie Wackelpudding. Während generierter Bilder gibt es keine Input-Abfrage der Controller und genau das macht es so sinnlos. Habe ich bereits 60 fps, brauche ich kein FG. Habe ich nur 40 fps, ist FG absolut sinnlos wegen der Latenz. Genau deshalb finde ich das Feature so unsinnig.

Das ist auch so ein Punkt, mit der schwammingen Maus a.k.a. Wackelpudding. Egal welchen von den NV Bildverbesseren man anschaltet, man merkt es direkt negativ an der Maus. Das gilt neben FG und MFG auch für RT bzw. PT. Einzig DLSS merkt man nicht negativ an der Maus.

Relex
2025-04-09, 12:36:33
Dann musst du immer Low @ 720p nutzen. Denn höhere Auflösung und Grafiksettings kosten performance. Und das merkt man zwangsläufig alles an der Maus. So ein pech...

PHuV
2025-04-09, 12:53:05
Die Problematik dabei ist, Etliches davon verbessert die Grafik nicht sondern hilft den Spieleentwicklern ihre Entwicklungskosten zu externalisieren. Und deshalb hat man die sehr lahme UE5-Engine in gefühlt 90% der neuen Spiele.
Ich behaupte mal, daß es künftig gar keine Spiele-Engines mehr geben wird bzw. gar nicht mehr erforderlich sein werden. Wenn jetzt schon Bilder und Videos komplett künstlich erzeugt werden können, wirds vielleicht nicht mehr weit sein, daß Spiele fotorealistisch erzeugt werden, mit allem Pipapo. Da sind alle Diskussionen mit Shadern, Texturen, TSSA, AA, AF, RT, MFA, DLSS, FSR und Co., wo man sich bis heute noch die Köpfe heißredet, mit einem Schlag obsolet.

MadManniMan
2025-04-09, 13:03:08
NV Bildverbesseren ... RT bzw. PT

Raytracing-Varianten sind also NV-Bildverbesserer. Aha.

Exxtreme
2025-04-09, 13:17:18
Ich behaupte mal, daß es künftig gar keine Spiele-Engines mehr geben wird bzw. gar nicht mehr erforderlich sein werden. Wenn jetzt schon Bilder und Videos komplett künstlich erzeugt werden können, wirds vielleicht nicht mehr weit sein, daß Spiele fotorealistisch erzeugt werden, mit allem Pipapo. Da sind alle Diskussionen mit Shadern, Texturen, TSSA, AA, AF, RT, MFA, DLSS, FSR und Co., wo man sich bis heute noch die Köpfe heißredet, mit einem Schlag obsolet.

Wenn man Spiele mittels AI erzeugen will dann hat man den Nachteil, dass man gar keine Kontrolle darüber hat wie diese Spiele aussehen werden. Denn da bestimmt das Trainingsmaterial wie das Spiel aussieht und nicht der Spieleentwickler. Und ja, das AI-Quake2 ist interessant, wäre aber ohne das echte Quake2 gar nicht möglich weil das AI-Quake2 das Original braucht für das Training.

Von daher nein, ich glaube nicht, dass Engines verschwinden werden.

Gast
2025-04-09, 14:36:42
Ich habe einen AOC c24g1 mit 144 Hz und Freesync. Tearing gibt es hier also nicht. 144 fps bei 144 Hz mit der 7800 XT aber auch nicht.



Mit nur 144Hz gibt es tatsächlich wenig sinnvolle Anwendungsmöglichkeiten für FG.



Ich habe es in EA WRC 2024 getestet. Eine absolute Vollkastastrophe. Habe ich wenig fps (teilweise unter 30 -> 60 FG fps), hat das Auto eine unglaublich hohe Latenz gehabt, ehe es auf meine Lenkradbewegungen reagiert hat. Das ist auch keine Überraschung, denn die bereits miese Latenz bei 30 fps wird durch FG weiter erhöht.

Oh wunder, mit 30FPS fühlt sich alles schwammig an, das liegt sogar weit unter der Herstellerempfehlung von 60FPS, welche ich für viele Spiele immer noch als zu niedrig sehen würde.

FG wird erst ab so ca. 80 FPS so richtig sinnvoll.

Gast
2025-04-09, 14:41:27
Das ist auf so vielen Ebenen falsch… z.B. warum sollte ab 90 fps nur mehr die schärfe und nicht das ruckeln minimiert werden??



Weil irgendwann die FPS genug sind, dass der Bildeindruck nicht mehr flüssiger geht. Ob die Grenze jetzt 80, 100 oder 120FPS ist mag individuell sein, aber irgendwann ist die maximale Flüssigkeit erreicht, und ab dann bringen mehr FPS nur mehr Bildschärfe.

Dino-Fossil
2025-04-09, 15:41:27
Von daher nein, ich glaube nicht, dass Engines verschwinden werden.

Es kann natürlich ganz anders kommen - v.a. bin ich noch nicht so recht überzeugt, dass das effizient machbar ist, aber vielleicht werden "Engines" einfach entsprechend trainierte KIs sein.
Ein Studio trainiert/lizensiert sich die KI dann halt entsprechend des gewünschten Stils, oder der Art von Spiel, die erzeugt werden soll. Also z.B. eine Shooter KI im Comic-Stil, oder eine RPG KI für westliche/japanische RPGs...

Gast
2025-04-10, 00:40:08
Anscheinend ist es noch nicht zu jedem durchgedrungen, wir sind schon seit einiger Zeit am Ende der Fahnenstange, so daß die GPU leistungsmäßig mit den bisherigen Verfahren nicht mehr weiter skalieren können, zudem die physikalischen Grenzen in der Chipfertigung. Man könnte nur noch gewaltig über direkte Skalierung mit riesigen Platinen + parallele Chips mit viel mehr Leistungsaufnahme mit dazugehörigen Verbrauch + Wärmeentwicklung und Co. eine signifikante Leistungssteigerung bewirken. Will das jemand hier, so einen röhrenden heißlaufenden Riesenrechner mit 3000W und mehr?

Die einzige sinnvolle Lösung, die das wirklich schaffen kann, weiter zu skalieren, sind eben Lösungen über AI, wie DLSS, FSR, MFG usw.

Einzig sinnvoll sind nicht unausgereiften Softwarelösungen von der AI-Resterampe zur Kaschierung unzureichender Performance sondern Verbesserungen an der Hardwarebeschleunigung. Dort gibt es noch viel Verbesserungspotential, um Raytracing effizienter zu berechnen. NV hat aber offensichtlich andere Prioritäten, wie die zahlreichen Probleme bei der aktuellen Generation zeigen.

Gast
2025-04-10, 10:53:31
NV hat aber offensichtlich andere Prioritäten, wie die zahlreichen Probleme bei der aktuellen Generation zeigen.

Anscheinend schafft es aber trotz Nvidias "Desinteresse" offenbar niemand auch nur gleichzuziehen mit dem was Nvidia bereits gezeigt hat.

G4st
2025-04-11, 17:06:41
Anscheinend schafft es aber trotz Nvidias "Desinteresse" offenbar niemand auch nur gleichzuziehen mit dem was Nvidia bereits gezeigt hat.

Gegenüber der GR6500-Architektur ist NV bei der RT-Hardwarebeschleunigung mindestens 10 Jahre im Rückstand:
https://www.computerbase.de/news/grafikkarten/powervr-gr6500-imgtec-demonstriert-ray-tracing-auf-mobile-gpu.53100/

Ein auf RT statt AI optimiertes Design mit aktueller Fertigung, ~700mm² und 250W würde Krücken wie Hybridrendering, Upscaling, FG und 575W-Heizungen überflüssig machen.

Gast
2025-04-11, 19:08:46
Gegenüber der GR6500-Architektur ist NV bei der RT-Hardwarebeschleunigung mindestens 10 Jahre im Rückstand:
https://www.computerbase.de/news/grafikkarten/powervr-gr6500-imgtec-demonstriert-ray-tracing-auf-mobile-gpu.53100/

Ein auf RT statt AI optimiertes Design mit aktueller Fertigung, ~700mm² und 250W würde Krücken wie Hybridrendering, Upscaling, FG und 575W-Heizungen überflüssig machen.
Komisch, daß dann dieser Chip wie die Firma vollkommen in der Versenkung verschwunden ist, oder?

Gast
2025-04-12, 02:09:54
Komisch, daß dann dieser Chip wie die Firma vollkommen in der Versenkung verschwunden ist, oder?

Ja, schon komisch, dass ein Unternehmen in Schwierigkeiten gerät, wenn es wegen Apple den Großteil seiner Einnahmen und die Hälfte seiner Mitarbeiter verliert.

Gast
2025-04-16, 07:56:54
Gegenüber der GR6500-Architektur ist NV bei der RT-Hardwarebeschleunigung mindestens 10 Jahre im Rückstand:
https://www.computerbase.de/news/grafikkarten/powervr-gr6500-imgtec-demonstriert-ray-tracing-auf-mobile-gpu.53100/


Wenn das so effektiv wäre wie auf dem Papier ist es schon seltsam, dass da noch niemand auf die Idee gekommen ist was ähnliches zu machen, oder einfach nur mal das Design zu lizenzieren und damit tatsächlich Hardware zu bauen.

Lehdro
2025-04-17, 16:23:53
Wenn das so effektiv wäre wie auf dem Papier ist es schon seltsam, dass da noch niemand auf die Idee gekommen ist was ähnliches zu machen, oder einfach nur mal das Design zu lizenzieren und damit tatsächlich Hardware zu bauen.
Solange du nicht Raster-, Hybridrendering und RT only Rendering (Pathtracing) vergleichbar schnell - und vor allem gleichzeitig - implementieren kannst, hilft dir dicke RT Leistung (in dem Fall: Bedeutend mehr als bei Blackwell) halt nur in den seltensten Fällen etwas. Das Produkt wäre technisch interessant, aber praktisch unverkäuflich. Gibt halt keine Zielgruppe für, weil es keine Software gibt die das anfordert.