Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)
horn 12
2023-10-14, 00:07:41
Nun rennt AMD Nvidia wirklich davon !
Das fand ich jetzt witzig: https://twitter.com/CounterStrike/status/1712875606776729832?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1712875 606776729832%7Ctwgr%5E5a04cd46161471273d09bba5d8a4ff50594915c6%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fvideocardz.com%2Fnewz%2Fuse-of-amd-anti-lag-technology-in-counter-strike-2-will-result-in-a-vac-ban-valve-confirms
Aber schön zu sehen, wie Anti-Lag+ funktioniert.
also das zeigt schon wie extrem inkompetent AMD ist... in einem MP Spiel einfach mal Dateien austauschen, ganz schön Clever... die haben gar kein Plan von Games und gamern.
TheAntitheist
2023-10-14, 05:53:02
Das wäre die beste Lösung, aber dafür muss da auch Bewegung reinkommen. Man stelle sich vor Sachen wir Compute Shader, Tesselation oder Raytracing wären vorher nicht standardisiert worden, sondern AMD und Nvidia hätten alle eigene APIs dafür rausgebracht. Dann hätten wir damals schon die Zustände von heute gehabt :D
Stimmt, so wie es AMD mit ihrer x64 Erweiterung bei den CPUs gemacht hat, zum Glück haben die sich dort abgesprochen mit Intel ;D
AMD scheisst da genauso drauf wie andere Unternehmen, wenn sie davon profitieren.
DrFreaK666
2023-10-14, 06:44:00
Stimmt, so wie es AMD mit ihrer x64 Erweiterung bei den CPUs gemacht hat, zum Glück haben die sich dort abgesprochen mit Intel ;D
AMD scheisst da genauso drauf wie andere Unternehmen, wenn sie davon profitieren.
Da hast dir auch das aktuellste Beispiel ausgesucht.
Früher gab es Glide, das proprietär war. D3D und OpenGL haben es zum Glück abgelöst.
Heutzutage feiern viele wieder proprietäre Features :ugly:
Holundermann
2023-10-14, 08:43:19
Neuer Treiber mit verbessertem AFMF (laut AMD)
https://www.computerbase.de/2023-09/fluid-motion-frames-fmf-amds-dlss-3-konkurrent-fsr-3-feiert-heute-premiere/#update-2023-10-13T22:17
Sehr cool, werd ich gleich mal testen. Gefühlt kommt die Software Abteilung langsam in die Gänge. Kann empfehlen afmf in Verbindung mit boost zu probieren. Hab das gestern in cyberpunk gemacht und gefühlt greifen die Technologien ineinander. Boost setzt im gleichen masse ein mit der Verringerung der Auflösung wie afmf drosselt und im Idealfall bekommt man eine konstante framerate. Durch den Einsatz von XeSS fällt die Auflösungsskalierung von boost gar nicht so auf und das Latenzproblem fällt weg in Bewegung. Gefällt mir ganz gut von der idee her und auch wie sich das gestern beim spielen angefühlt hat.
Relex
2023-10-14, 09:12:19
Nur weil du xess aktivierst, heißt das nicht, dass Boost den xess algorithmus nutzt.
Praktisch rendert das Spiel dann in verringerter Auflösung, skaliert diese via xess auf deine Zielauflösun. Deine Zielauflösung ist aber wenn Boost eingreift nicht die Monitorauflösung sondern viel geringer.
Das ist so, als würde man auf einem 4K Display z.B. 1440p als Auflösung einstellen und dann im Spiel nochmal xess aktivieren, was dann 900p auf 1440p hochskaliert.
Bzgl. Bildqualität ist das das mit Abstand schlimmste, was man überhaupt anrichten kann.
Holundermann
2023-10-14, 09:32:03
Nur weil du xess aktivierst, heißt das nicht, dass Boost den xess algorithmus nutzt.
Praktisch rendert das Spiel dann in verringerter Auflösung, skaliert diese via xess auf deine Zielauflösun. Deine Zielauflösung ist aber wenn Boost eingreift nicht die Monitorauflösung sondern viel geringer.
Das ist so, als würde man auf einem 4K Display z.B. 1440p als Auflösung einstellen und dann im Spiel nochmal xess aktivieren, was dann 900p auf 1440p hochskaliert.
Bzgl. Bildqualität ist das das mit Abstand schlimmste, was man überhaupt anrichten kann.
ja - sehe da jetzt nicht so das problem weil sobald man sich weniger bewegt wird wird das bild augenblicklich auch wieder schärfer. AFMF und boost sind alles nur kompromisse zwischen performance + optik. Ich finde es halt interessant den besten kompromiss zu finden und spiel mich halt mit den optionen. Gestern war halt boost an der reihe und ich fand es ganz ok - ich lass halt nicht irgendwelche graphen mitlaufen sondern spiel halt. Gefühlt greift das halt ganz nett ineinander für mich: AFMF für die ruhigeren Momente, Boost wärend der schnellen aktion das die FPS nicht komplett zusammenbrechen und XeSS der den Effekt von boost etwas abschwächt.
Also wenn es so ist wie du sagst ist das ergebnis mit Boost in kombination mit xess trotzdem noch besser - XeSS skalierts ja dann denke ich auf meine Zielauflösung und hat evtl. von vorherigen bildern noch hochfrequentere informationen die es zum ergebnis hinzufügen kann. Boost + AFMF sind ja sehr dynamisch.
Hab den neuen Treiber kurz probiert. Laut der Metrik bzgl. Mikro Stutter sind die jetzt eleminiert und HDR funktioniert. Die Richtung stimmt.
Freestaler
2023-10-14, 09:40:20
Antilag+ ist ja mal grobfahrlässig auf die User losgelassen. Wirklich lange und seriös wurde nicht getestet. Zu allem ich pers. eigentlich erwarte, das die Jungs verstehen was sie mit DLL hooking anrichten.
Echt schwach.
Exxtreme
2023-10-14, 10:43:42
Ja, DLL hooking ist ein großes Risiko in Multiplayerspielen/MMORPGs. Was AMD da geritten hat ist echt fraglich. Eventuell sind sie davon ausgegangen oder haben gar eine explizite Zusage von Valve bekommen, dass der Anticheat-Mechanismus nicht anschlägt wenn es sich um Original-AMD-DLLs handelt. :freak:
Linmoum
2023-10-14, 11:25:30
Ja, DLL hooking ist ein großes Risiko in Multiplayerspielen/MMORPGs. Was AMD da geritten hat ist echt fraglich. Eventuell sind sie davon ausgegangen oder haben gar eine explizite Zusage von Valve bekommen, dass der Anticheat-Mechanismus nicht anschlägt wenn es sich um Original-AMD-DLLs handelt. :freak:Es betrifft nicht nur CS2, bei Apex Legends und COD (bei letzterem crasht das Spiel beim Matchmaking deswegen scheinbar) reagieren genauso. Das werden auch nicht die letzten MP-Spiele mit Anti-Cheat-Software sein, die unterscheidet halt nicht, ob solche Änderungen harmlos sind oder nicht.
Das Problem ist: Working as intended. Das ist genau, wie AL+ funktioniert. Damit ist dann auch das Rätsel gelöst, warum das nur ein Treiber-Toggle ist und man das nicht nicht ingame wie Reflex aktivieren muss.
Holundermann
2023-10-14, 12:38:47
Ja, DLL hooking ist ein großes Risiko in Multiplayerspielen/MMORPGs. Was AMD da geritten hat ist echt fraglich. Eventuell sind sie davon ausgegangen oder haben gar eine explizite Zusage von Valve bekommen, dass der Anticheat-Mechanismus nicht anschlägt wenn es sich um Original-AMD-DLLs handelt. :freak:
Evtl. ist das jetzt auch nicht so tragisch. Der treiber ist ja signiert und wenn sich die funktionsweise von antilag+ rumgesprochen hat dann ist das in Zukunft evtl. kein Problem mehr das die Hersteller das ausnehmen aus der cheat detection. Unschön ist das ganze natürlich schon - vorallem weils einfach so auf die user losgelassen wird! Da gehts ja teilweise um große Geldbeträge welche mit dem Account verknüpft sind - wenn die jetzt gebannt werden ist der Ärger vorprogrammiert.
Der_Korken
2023-10-14, 15:01:13
Das Problem ist: Working as intended. Das ist genau, wie AL+ funktioniert. Damit ist dann auch das Rätsel gelöst, warum das nur ein Treiber-Toggle ist und man das nicht nicht ingame wie Reflex aktivieren muss.
Ich kann mir nicht vorstellen, dass das so stehen bleibt. Die Spieleentwickler werden doch keinen Bock drauf haben, externe Files durch ihr Anticheat durchzuschleusen und es jedes Mal anzupassen, wenn diese externen Files geupdatet werden. Da ist die nächste Ban-Welle schon vorprogrammiert, wenn bei AMD wieder eine unangekündigte Änderung durchschlüpft.
Unschön ist das ganze natürlich schon - vorallem weils einfach so auf die user losgelassen wird! Da gehts ja teilweise um große Geldbeträge welche mit dem Account verknüpft sind - wenn die jetzt gebannt werden ist der Ärger vorprogrammiert.
Das könnte tatsächlich hässlich werden. Ich hoffe, dass man das im Nachhinein noch feststellen kann, welche Accounts wegen der AL+ DLLs gebannt wurden. Ansonsten könnte AMD bald einige Klagen am Hals haben. Im Software-Team scheint seit längerem die rechte Hand nicht mehr zu wissen, was die linke macht.
Linmoum
2023-10-14, 15:15:58
Die Frage ist, ob andere Devs (u.a. EA mit Apex, lol) das ähnlich handhaben wie Valve. Und dann natürlich eben das Problem, das es IMO definitiv geben wird, zweifelsfrei jeden einzelnen User bzw. Account ausfindig zu machen, der wegen der Nutzung von AL+ gebannt wurde.
Ich bin eher gespannt, was das für die Zukunft von AL+ - zumindest in dieser Form - bedeutet. Für Online-Spiele logischerweise sowieso, aber es gibt ja auch Spiele, die primär eigentlich SP-Titel sind, die davon betroffen sein können, beispielsweise ein Elden Ring mit EAC.
Das einfachste wäre es natürlich, es ähnlich wie Reflex zu handhaben. Was ich sowieso nicht verstehe, warum AMD das nicht gleich so macht. Ich meine, die können mir doch nicht erzählen, dass in der gesamten Treiber/Software-Abteilung nicht ein Mensch bei AMD sitzt, dem es nicht mal in den Sinn kommt, dass das modifizieren von Game Code dazu führt, dass VAC und Co. davon getriggert werden. So stümperhaft kann man doch echt nicht sein.
DrFreaK666
2023-10-14, 16:17:43
verstehe auch nicht, wieso das nicht ein Menü-Punkt im Spiel ist. Einfach in die Fidelity FX SDK einfügen, dann findet es auch den Weg in die Games
also das zeigt schon wie extrem inkompetent AMD ist... in einem MP Spiel einfach mal Dateien austauschen, ganz schön Clever... die haben gar kein Plan von Games und gamern.
Sie tauschen keine Dateien aus, sie fangen DLL-Calls ab und leiten sie um
Troyan
2023-10-14, 16:46:09
Das einfachste wäre es natürlich, es ähnlich wie Reflex zu handhaben. Was ich sowieso nicht verstehe, warum AMD das nicht gleich so macht. Ich meine, die können mir doch nicht erzählen, dass in der gesamten Treiber/Software-Abteilung nicht ein Mensch bei AMD sitzt, dem es nicht mal in den Sinn kommt, dass das modifizieren von Game Code dazu führt, dass VAC und Co. davon getriggert werden. So stümperhaft kann man doch echt nicht sein.
Wenn du vier Jahre hinten dran bist, sucht man natürlich nach der schnellsten und einfachsten Methode den Zeitvorsprung einzuholen.
AMD macht hier das, was die ganzen Modder mit Reflex auch tun. Hat alles seine Vor- und Nachteile.
Früher gab es Glide, das proprietär war. D3D und OpenGL haben es zum Glück abgelöst.
Heutzutage feiern viele wieder proprietäre Features :ugly:
Glide wurde auch zur damaligen Zeit gefeiert, und war bzw. nur ein Subset von OpenGL
Exxtreme
2023-10-14, 16:56:47
Ich kann mir nicht vorstellen, dass das so stehen bleibt. Die Spieleentwickler werden doch keinen Bock drauf haben, externe Files durch ihr Anticheat durchzuschleusen und es jedes Mal anzupassen, wenn diese externen Files geupdatet werden. Da ist die nächste Ban-Welle schon vorprogrammiert, wenn bei AMD wieder eine unangekündigte Änderung durchschlüpft.
Das bleibt wohl auch nicht so. Ich denke, Antilag+ wird wie FSR3 auch aufgeteilt werden: eine Version ins Spiel integriert und eine per Treiber aktiviert. Und die Spiele, bei denen man gebannt werden könnte wenn man die Treiberversion nutzt, die werden von AMD geblacklisted. Und hier wird man das Treiber-Antilag+ nicht nutzen können.
Das bleibt wohl auch nicht so. Ich denke, Antilag+ wird wie FSR3 auch aufgeteilt werden: eine Version ins Spiel integriert und eine per Treiber aktiviert. Und die Spiele, bei denen man gebannt werden könnte wenn man die Treiberversion nutzt, die werden von AMD geblacklisted. Und hier wird man das Treiber-Antilag+ nicht nutzen können.
Beachte allerdings bitte, dass der letzte Preview-Treiber, dies Verhalten nicht aufzeigt. Mit dem kann man AL+ aktivieren und kommt auf keine schwarze Liste.
Linmoum
2023-10-14, 17:53:00
Dann unterstützt der Preview-Treiber in dem Fall kein AL+ für CS2, dann ist es logisch, dass da nix passieren kann.
Schnitzl
2023-10-14, 21:14:28
Falls sich jemand wundert, es gibt nen neuen Thread für die verschiedenen Treiber Versionen etc.
Treiber,AFMF, FSR3, Preview-Treiber, Treiberversionen - Ordnung ins Chaos? (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=616534)
crux2005
2023-10-21, 20:47:18
mOqxCN5BKB0
Er sagt Optical Flow Accelerators sind RTX 40 exklusiv. Das stimmt nicht.
Lurtz
2023-10-21, 21:15:01
Und du verlinkst Videos von einem Youtuber mit unter 100k Abos, der falsche Dinge sagt, weil...?
ChaosTM
2023-10-21, 21:20:38
Die 3080er Serie hat auch "optical flow" Prozessoren, aber leider nur ein viertel von ADA.
Daher geht das nicht so wie wir uns das wünschen.
AMD probiert hier was neues..
Oliver_M.D
2023-10-21, 21:36:28
Er sagt Optical Flow Accelerators sind RTX 40 exklusiv. Das stimmt nicht.Okay... und weiter? Verstehe nicht so ganz, was du uns hier mit den random video sagen willst:freak:
basix
2023-10-22, 10:12:04
Im Endeffekt versucht Nvidia, HW-Blöcke die sie für anderes Zeugs eingebaut haben (Tensor Cores, Optical Flow, ...), irgendwie fürs Gaming einzusetzen, damit sie sich gewinnbringend abheben können. Weniger "totes Silizium" und allenfalls sogar ein Konkurrenzvorteil.
Das heisst aber nicht, dass das die jeweils beste und effizienteste Lösung ist ;)
Ich warte immer noch auf den Github Release von FSR3....
https://github.com/GPUOpen-Effects
robbitop
2023-10-22, 15:37:35
Naja bisher hat es sich aber immer bewahrheitet. Bis dato ging es immer auf wenn sie das gemacht haben. Es hat mehr Performance und performancenormierte Qualität gebracht als es Transistoren gekostet hat die man opportun in mehr GP Units hätte packen können.
ChaosTM
2023-10-22, 15:47:38
AMD macht das ohne dedizierte Hardware und Fluid Motion scheint zu funktionieren.
Die Technik ist natürlich nicht neu und wird in TV`s schon seit Ewigkeiten eingesetzt.
Was wirklich interessant ist bezieht sich auf die Latenz.
Geht das ohne nennenswerten Verlust der Reaktionszeit?
robbitop
2023-10-22, 15:57:56
AMD macht das ohne dedizierte Hardware und Fluid Motion scheint zu funktionieren.
Die Technik ist natürlich nicht neu und wird in TV`s schon seit Ewigkeiten eingesetzt.
Was wirklich interessant ist bezieht sich auf die Latenz.
Geht das ohne nennenswerten Verlust der Reaktionszeit?
Funktioniert aber (noch?) nicht gut. Und die BQ ist schlechter. Bei FSR Upsampling und RT sieht es noch schlimmer aus
ChaosTM
2023-10-22, 16:10:01
Funktioniert aber (noch?) nicht gut. Und die BQ ist schlechter. Bei FSR Upsampling und RT sieht es noch schlimmer aus
ja, aber sie probieren zumindest einen neuen Weg.
Dass NV mit ihrem proprietären Ansatz und der überlegenen R&D power vorne liegt ist klar
robbitop
2023-10-22, 16:36:36
IMO zählen am Ende nur Resultate. Von Bemühungen hat noch niemand was gehabt.
Linmoum
2023-10-22, 16:37:11
Sie tun das einzig mögliche, was sie tun können. Mit probieren ist das nicht viel, weil sie schlicht keine andere Möglichkeit aktuell haben.
Das hat auch irgendwann nichts mehr mit irgendwelchem überlegenen R&D zu tun. Turing ist von 2018 und AMD hat noch immer kein Äquivalent zu Tensor Cores. Einen OFA gibt's auch nicht. Das wird also frühestens nächstes Jahr passieren, was dann ganze 6 Jahre später der Fall ist (bzw. hoffen wir es mal, dass RDNA4 entsprechend dedizierte Einheiten hat).
Was dann im Übrigen heißt, dass es auch bei AMD "proprietär" wird, weil die eigenen, alten GPU-Gens dann nicht auf dedizierte Einheiten zurückgreifen können und man das auch bei der Qualität deutlich sehen wird.
aufkrawall
2023-10-22, 16:42:43
Die haben wohl eher bei Consumer die TCs weggespart, weil sie genau wissen, dass sie selber nicht die Software hervorbringen können, um diese irgendwie sinnvoll nutzen zu können. Und sonst machts halt niemand herstellerübergreifend.
FSR 3 ist ja im Grunde auch ein Indiz dafür: Das problematische Frame Pacing ist vermutlich auch wieder eine reine Software-Geschichte...
ja, aber sie probieren zumindest einen neuen Weg.
Ähm genau umgekehrt, NV probiert neue Wege, AMD versucht dann hinterher was vergleichbares auf „konventionellem“ Weg zu erreichen.
robbitop
2023-10-22, 17:31:12
Sie tun das einzig mögliche, was sie tun können. Mit probieren ist das nicht viel, weil sie schlicht keine andere Möglichkeit aktuell haben.
Das hat auch irgendwann nichts mehr mit irgendwelchem überlegenen R&D zu tun. Turing ist von 2018 und AMD hat noch immer kein Äquivalent zu Tensor Cores. Einen OFA gibt's auch nicht. Das wird also frühestens nächstes Jahr passieren, was dann ganze 6 Jahre später der Fall ist (bzw. hoffen wir es mal, dass RDNA4 entsprechend dedizierte Einheiten hat).
Was dann im Übrigen heißt, dass es auch bei AMD "proprietär" wird, weil die eigenen, alten GPU-Gens dann nicht auf dedizierte Einheiten zurückgreifen können und man das auch bei der Qualität deutlich sehen wird.
Wenn AMD wollte könnten sie auch HW verbauen. In CDNA gibt es zB schon länger Matrixcores. Das ist kein Hexenwerk. Die SW Abteilung ist wahrscheinlich das Nadelöhr- insbesondere was NNs angeht.
/Locutus oB
2023-10-22, 17:33:14
apple lässt z.b. RT doch auch über die shader laufen. vielleicht sind die und amd der meinung alles in einer "Pipeline" zu lassen ist besser...
aufkrawall
2023-10-22, 17:39:25
Ist es aber nicht, wenn die INT8/FP16-Leistung der GPUs ohne TCs einfach viel geringer ist. Dann verzichtet man lieber gänzlich auf NNs.
Man muss auch einfach mal sehen, dass viel weniger über NN geredet würde, würde FSR 2 wenigstens an TSR heranreichen. Wenn das in Unreal 5.4 wirklich nochmal besser mit Disocclusion und animierten Texturen funktioniert, wie offenbar in der Roadmap angeteasert, sähe das mit der "Notwendigkeit" für NN jedenfalls nochmal deutlich anders aus.
Exxtreme
2023-10-22, 17:51:24
apple lässt z.b. RT doch auch über die shader laufen. vielleicht sind die und amd der meinung alles in einer "Pipeline" zu lassen ist besser...
Du bekommst aber Ressourcenprobleme. AMD macht ziemlich exakt das gleiche, was sie schon mir 3DNow gemacht haben: sie erweitern bestehende Hardware, damit diese neue Fähigkeiten bekommt. Der Vorteil ist, man ist flexibler. Der Nachteil ist, man kann nicht beides gleichzeitig haben sondern entweder das eine oder das andere zur gleichen Zeit. So war das auch bei 3DNow. Man musste einen sog. Context-Switch durchführen damit die FPUs die neuen CPU-Befehle ausführen konnten. Wollte man aber wieder klassisch FPU machen dann musste man wieder einen Context-Switch machen. Dann gingen wieder die alten Befehle, die neuen aber nicht. So ähnlich verhält es sich jetzt mit RT & Co. Sie machen RT über Shader und aufgemotzte TMUs. Nur wenn sie gerade RT machen dann muss etwas anderes zur gleichen Zeit warten und vice versa. Der Ansatz ist flexibel, dafür steigt die Wahrscheinlichkeit, dass das zu einem Nadelöhr wird.
Savay
2023-10-22, 18:01:02
Ist es aber nicht, wenn die INT8/FP16-Leistung der GPUs ohne TCs einfach viel geringer ist.
Ist sie denn wirklich "viel" geringer?
Sorry es gibt einfach zu viele Beispiele bei denen nV TC einfach ihre Rohleistung gar nicht richtig auf die Straße bringen können.
Diese rei theoretischen Rohleistungsvergleiche bringen doch echt überhaupt nichts.
Ich dachte eigentlich das wäre spätestens seit TeraScale irgendwie bereits Konsens.
Der Ansatz ist flexibel, dafür steigt die Wahrscheinlichkeit, dass das zu einem Nadelöhr wird.
Nadelöhre durch das Frontend etc. gibt es doch auch bei speziellen Ausführungseinheiten im Backend.
War es nicht sogar so, dass die ersten TC Gen garnicht parallel zu den normalen ALUs liefen konnten?!
The_Invisible
2023-10-22, 18:03:27
Die haben wohl eher bei Consumer die TCs weggespart, weil sie genau wissen, dass sie selber nicht die Software hervorbringen können, um diese irgendwie sinnvoll nutzen zu können. Und sonst machts halt niemand herstellerübergreifend.
FSR 3 ist ja im Grunde auch ein Indiz dafür: Das problematische Frame Pacing ist vermutlich auch wieder eine reine Software-Geschichte...
Ja aber es heißt ja eigentlich immer "besser haben als brauchen"...
Sieht man ja auch an NV und DLSS3.5 welches man bis zurück zu RTX20 nachliefert. Glaub aber auch das AMD mit RDNA4 endlich den Schritt macht.
aufkrawall
2023-10-22, 18:08:09
Ist sie denn wirklich "viel" geringer?
Sorry es gibt einfach zu viele Beispiele bei denen nV TC einfach ihre Rohleistung gar nicht richtig auf die Straße bringen können.
Diese rei theoretischen Rohleistungsvergleiche bringen doch echt überhaupt nichts.
Ich dachte eigentlich das wäre spätestens seit TeraScale irgendwie bereits Konsens.
Dass das überhaupt nicht vergleichbar ist, hätte dir auch der Blick auf XeSS sagen können.
Savay
2023-10-22, 18:08:58
Was ist nicht vergleichbar?
aufkrawall
2023-10-22, 18:12:33
Was ist nicht vergleichbar?
Es ist nun mal völlig unbestritten, dass komplexe NNs massig INT8/FP16-Leistung verschlingen. Du kannst aber gerne den Nachweis erbringen, dass ein vergleichbares NN zu denen von DLSS/XeSS mit ähnlich vielen Nodes mit geringer Renderzeit auf GPUs ohne TCs läuft...
Savay
2023-10-22, 18:14:08
Läuft eine 6900XT mit der DP4a Version etwa viel langsamer als eine 3090?!
Spoiler Alarm:
Tut sie, nicht obwohl die 3090 viel mehr Rohleistung dafür haben sollte durch die TC.
Ansonsten kannst du auch gerne mal Photolab 6/7 mit DeepPrime XD auf AMD und nV Karten benchen... (Ist ein DNN das via FP16 ausgeführt wird)
Von dem angeblichen Rohleistungsunterschied sieht man da rein gar nichts.
Der Rohleistungsunterschied auf dem Papier übersetzt sich nicht zwingend in einem vergleichbaren realen Performanceunterschied.
aufkrawall
2023-10-22, 18:15:10
Das DP4a läuft auch über die Shader, omg...
Savay
2023-10-22, 18:28:54
...bis Pascal oder nicht?!
Vor nicht allzu langer zeit hieß es hier im Forum noch, alles was FP16 und Int8/Int4 ist, wird ab Turing grundsätzlich über die TC ausgeführt.
Wenn du keine Matrix Instruktion hast, hast du keinen (zusätzlichen) Speedup dadurch...aber trotzdem läuft es auf den TC.
Nichtsdestotrotz...selbst das (Marix) FP16 basierte DNN von DeepPrime XD läuft über die TC auch nicht wirklich schneller als auf AMD Karten.
(Das FP32 basierte DNN von PL4 läuft auf AMD sogar nicht allzu wenig schneller...aber da muss ne Ampere ja auch auf den Cuda Cores ausführen)
Verglichen mit der Rohleistung der ANE ist das Ergebnis da dann sogar grade zu schlecht...
Klar hätten dedizierte Einheiten Vorteile, wenn man sie parallel auslasten kann.
Das muss man aber auch erstmal können...deshalb halte ich es für zu vereinfachend zu behaupten, das Problem ist per se das fehlen von Matrixeinheiten.
aufkrawall
2023-10-22, 18:42:08
Klar hätten dedizierte Einheiten Vorteile, wenn man sie parallel auslasten kann.
Das muss man aber auch erstmal können...deshalb halte ich es für zu vereinfachend zu behaupten, das Problem ist per se das fehlen von Matrixeinheiten.
Der Beweis für ein auf Radeons schnell ausführbares, komplexes NN steht jedenfalls aus. Nicht sinnvoll, auf Basis von Luftschlössern zu diskutieren.
Vielleicht haben Radeon-User Glück, und irgendwann schwappt von Epic wieder etwas von den Konsolen auf den PC rüber. :freak:
Savay
2023-10-22, 18:43:29
Der Beweis für ein auf Radeons schnell ausführbares, komplexes NN steht jedenfalls aus.
Lad PL7 doch einfach selbst runter und probier es doch aus!
Ne 6900XT ist mit dem DNN locker so schnell wie ne 3090...mit 3x mehr (Matrix)FP16 Rohleistung. :freak:
Ehrlich gesagt steht dein Beweis aus...du bist derjenige der hier behauptet, das Problem ist grundsätzlich das fehlen von Matrixeinheiten und das es nur eine Lösung dafür gibt. (nämlich die von nV)
aufkrawall
2023-10-22, 18:50:02
Dass auf Radeons keine Echtzeit-Grafik + kein komplexes NN gleichzeitig bei hoher Performance läuft, ist keine Behauptung, sondern Empirie. Ansonsten sei die mal der Begriff Positivismus ans Herz gelegt. Bis dahin bist du auf Ignore.
Btw. lächerliches Löschen von Posts hier wieder. Waren garantiert Schnitzl oder Exxtreme.
Savay
2023-10-22, 18:55:46
Empirie basierend auf was?
Das fehlen von Gegenbeweisen ist kein Beweis.
Wo läuft denn bitte mal ein "komplexes" NN parallel zu Echtzeitgrafik auf einer Radeon?!
Mir fällt max. der Fall mit DP4a XeSS ein und da gibt es keine signifikanten Unterschiede zwischen den Herstellern.
#Aber das zählt für dich ja nicht...weil angeblich "Shader"... :freak:
Solange das nicht der Fall ist kann man am besten mit anderen DNN abschätzen wie effektiv die TC wirklich sind...und da sieht das ehrlich gesagt in nicht allzu wenigen Fällen einfach vglw. durchwachsen aus.
Lächerlich ist hier ehrlich gesagt nur deine Reaktion auf eine ganz normale Diskussion...
aufkrawall
2023-10-22, 18:58:31
Das NN von XeSS DP4a ist massiv kleiner als bei dem MC-Pfad und läuft trotzdem auf jeder GPU deutlich langsamer als FSR 2. Wenn du nicht mal merkst, dass du dir komplett selbst widersprichst...
Savay
2023-10-22, 19:04:00
Das NN von XeSS DP4a ist massiv kleiner als bei dem MC-Pfad und läuft trotzdem auf jeder GPU deutlich langsamer als FSR 2. Wenn du nicht mal merkst, dass du dir komplett selbst widersprichst...
Es geht doch eigenlich gar nicht um den Vergleich zwischen FSR2 und DP4a XeSS sondern um NN auf TC vs. NN ohne TC. :confused:
(Klar ist ein NN langsamer...das war, ist und wird immer einfach Brute Force bleiben! Da ist es auch egal wie groß das ist...und ob Intel das auf was anderes als ihre eigenen HW besonders gut optimiert hat steht eh auf einem anderen Blatt...FSR2+ läuft auf AMD ja auch schneller als bei den ganzen anderen IHV)
Du bist doch derjenige der sagt ein NN laufen auf nV schneller als auf AMD weil "TC"...
Läuft PD4a XeSS jetzt auf ner nV Karte schneller?
Nein, nicht wirklich!
Und nun?
aufkrawall
2023-10-22, 19:09:21
Dann zeig mal den Beweis für Tensor Core-Nutzung mit Tensor Core-Auslastung in Nsight, wenn XeSS DP4a läuft. :cool:
The_Invisible
2023-10-22, 19:09:23
Ohne Softwareanpassungen läuft es auch auf Geforce nur auf den Shaders, da muss man dann schon CUDA anzapfen oder via DX dann via WaveMatrix: https://devblogs.microsoft.com/directx/agility-sdk-1-711/
Savay
2023-10-22, 19:17:29
Dann zeig mal den Beweis für Tensor Core-Nutzung mit Tensor Core-Auslastung in Nsight, wenn XeSS DP4a läuft. :cool:
Was sagt Nsight eigentlich so ganz grundsätzlich bei FP16 Code? Das läuft laut glaubwürdiger Aussagen von Forenmitgliedern grundsätzlich über die TC...
Davon abgesehen bist derjenige der mit XeSS angefangen hat...das war ehrlich gesagt dein Beispiel, nicht meines! :conf:
Wenn du damit garnicht die Vorteile der TC belegen kannst, was sollte das dann?
Oder war das ein halbgarer Versuch über eine Koinzidenz eine Kausalität ableiten zu wollen?!
Ich hab ein anderes genannt, mit dem man die tatsächlich ankommende relative FP16 Rohleistung sehr gut abmessen kann und das definitiv auf Matrixeinheiten läuft wenn sie verfügbar sind. :wink:
Am Ende geht es doch um die Menge der freien Ausführungsressourcen im Backend...Ob Matrixeinheiten oder nicht ist da eher eine (Flächen)Effizienzabwägung.
DrFreaK666
2023-10-22, 19:31:06
Was für ein Gelaber hier. Nutzt die pm-Funktion. Für irgendwas muss sie ja gut sein
basix
2023-10-22, 21:14:02
Zumindest bei DLSS weiss ich, dass das DNN nicht sehr viel Ausführungszeit auf den Tensor Cores kostet. Habe es in CP2077 mit Nsight ausgemessen: 0.15ms bei 4K mit einer 4090 https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13285616#post13285616 -> und das mit vielleicht 30-40% des maximalen TC Throughputs.
DLSS besteht nicht nur aus dem DNN sondern auch aus ganz normalem Compute-Workload.
Meine Behauptung: Das DLSS DNN könnte man wohl via Async Compute auch auf RDNA2/3 laufen lassen und würde ganz gut funktionieren. Es wäre sicher langsamer, aber nicht unbrauchbar langsam.
- 4090 = 640 TOPS INT8
- 6900XT = 80 TOPS INT8
- 0.15ms * 640 / 80 = 1.2ms --> voll OK
DrFreaK666
2023-10-22, 21:16:29
Nvidia will halt nicht, dass das mit anderen Karten funktioniert
Es geht doch eigenlich gar nicht um den Vergleich zwischen FSR2 und DP4a XeSS sondern um NN auf TC vs. NN ohne TC. :confused:
XeSS DP4a läuft trotz simplerem NN auf jeder Hardware deutlich langsamer als XeSS in der XMX Version auf Intel und DLSS auf Nvidia.
Alleine dass Intel für DP4a das NN deutlich vereinfachen musste, was man auch qualitativ sieht, zeigt schon klar, dass Matrixbeschleuniger für eine ausreichend schnelle Ausführung eines guten NN notwendig sind.
(Klar ist ein NN langsamer...das war, ist und wird immer einfach Brute Force bleiben!
Bruteforce ist es "echte" Pixel zu berechnen. NN-Upscaling ist da ein deutlich intelligenterer Ansatz.
Du bist doch derjenige der sagt ein NN laufen auf nV schneller als auf AMD weil "TC"...
Läuft PD4a XeSS jetzt auf ner nV Karte schneller?
Nein, nicht wirklich!
Wieso sollte es schneller laufen? DP4a benutzt keine Tensor-Instruktionen, woher soll da der große Speedup von Tensorcores kommen?
Nvidia will halt nicht, dass das mit anderen Karten funktioniert
Ich glaube, das hat NV gar nicht in der Hand. Die können zwar die BlackBox DLSS liefern, aber wenn jemand anders wollte, könnte er durchaus mit eigener Software an die Schnittstelle andocken und DLSS ersetzen mit ner eigenen Lösung. Das Kernproblem ist eher, dass AMD hier einfach kein NN für FSR machen will. RDNA3 ist bei weitem schnell genug für DLSS, wie oben schon ausgeführt, geht das wahrscheinlich schon mit RDNA2. Aber AMD will hier keine KI-Technik, das ist das Problem.
Exxtreme
2023-10-23, 09:40:55
Alleine dass Intel für DP4a das NN deutlich vereinfachen musste, was man auch qualitativ sieht, zeigt schon klar, dass Matrixbeschleuniger für eine ausreichend schnelle Ausführung eines guten NN notwendig sind.
Trotzdem ist die Bildqualität des einfacheren Xess nicht so viel schlechter als die von DLSS. Xess neigt zum Geschmiere und Ghosting von Transparenzeffekten. Aber das war's auch schon. Eventuell fixt Intel das noch.
Bruteforce ist es "echte" Pixel zu berechnen. NN-Upscaling ist da ein deutlich intelligenterer Ansatz.
Bringt trotzdem nichts wenn das Ergebnis qualitativ so ähnlich verwaschen aussieht wie Quincunx-AA.
DrFreaK666
2023-10-23, 09:57:11
Ich glaube, das hat NV gar nicht in der Hand. Die können zwar die BlackBox DLSS liefern, aber wenn jemand anders wollte, könnte er durchaus mit eigener Software an die Schnittstelle andocken und DLSS ersetzen mit ner eigenen Lösung. Das Kernproblem ist eher, dass AMD hier einfach kein NN für FSR machen will. RDNA3 ist bei weitem schnell genug für DLSS, wie oben schon ausgeführt, geht das wahrscheinlich schon mit RDNA2. Aber AMD will hier keine KI-Technik, das ist das Problem.
Der Post vor mir wäre zum Verständnis wichtig gewesen:
...Meine Behauptung: Das DLSS DNN könnte man wohl via Async Compute auch auf RDNA2/3 laufen lassen und würde ganz gut funktionieren. Es wäre sicher langsamer, aber nicht unbrauchbar langsam.
- 4090 = 640 TOPS INT8
- 6900XT = 80 TOPS INT8
- 0.15ms * 640 / 80 = 1.2ms --> voll OK
Trotzdem ist die Bildqualität des einfacheren Xess nicht so viel schlechter als die von DLSS.
Schon das "richtige" XeSS ist geringfügig schlechter als DLSS, die Sparversion ist deutlich schlechter als die XMX-Version und damit auch als DLSS.
Xess neigt zum Geschmiere und Ghosting von Transparenzeffekten. Aber das war's auch schon. Eventuell fixt Intel das noch.
Die Sparversion neigt auch deutlich stärker zum Flimmern.
Bringt trotzdem nichts wenn das Ergebnis qualitativ so ähnlich verwaschen aussieht wie Quincunx-AA.
Erstens ist das ein kompletter Blödsinn und zweitens bringt es eine Menge, wenn man bei gleicher Performance auf eine deutlich höhere Zielauflösung und damit auch Qualität kommt.
blaidd
2023-10-23, 11:11:15
Die ganzen Mess-Tools funktionieren btw. nur extrem eingeschränkt mit FSR3 und den FMF.
CapFrame & Co. zweichnen die Frames mit inkorrektem Pacing auf (bzw. zeichnen sie so auf, wie sie berechnet wurden, nicht wie sie darauf sortiert und ausgegeben werden). Und bei FMF zerbröselt das RTSS-Overlay die Frame Generation sogar komplett (danach ist meist ein Neustart des Rechners nötig, damit das Feature überhaupt wieder funktioniert)
Video-Aufnahmen zerbröseln ebenfalls das Pacing, auch wenn man versucht, 120 Fps aufzuzeichnen, mit und ohne Limit. Außerdem gibt's einen massiven Input-Lag obendrauf, den kann man easy man der Maus bemerken, wenn man aufzeichnet. Wenn man Videos analysiert, bekommt also einen tendenziell ziemlich anderen Eindruck.
Wenn man die korrekten Einstellungen nutzt, funktioniert das tatsächlich ziemlich gut. Nur das Aufzeichnen und Messen ist aktuell etwas problematisch. Hab hier ein paar Frametimes aus Starfield (https://extreme.pcgameshardware.de/threads/fsr3-nun-in-forspoken.640190/page-2#post-11437459), im verlinkten Post sind auch noch ein paar andere Infos bezüglich Messungen und Schwierigkeiten
https://extreme.pcgameshardware.de/attachments/1697660279635-png.1440676/
(oben ohne FMF, unten mit - die "Treppen" sind die Stellen, wo die FMF aufgrund von schneller Mausbewegung ausgehen. Das merkt man btw. nicht an der Maus, die Latenzen bleiben an diesen Stellen glatt... was man allerdings merkt, sind die kräftigen Spikes - mit und ohne Frame Generation)
(Hab gerade erst einen Artikel darüber geschrieben - und versuche aktuell herauszufinden, wie ich das Ganze für ein Video aufnehmen kann, OHNE(!) dass es mir die Bildausgabe verwurschtelt)
Mit dem AMD-internen Tool kann man immerhin die korrekt gepaceten Frametimes auslesen. Die werden in eine separate Datei geschrieben, in der "Zusammenfassung" sind nur die pro Sekunde gemittelten Daten (auch Frametimes).
robbitop
2023-10-23, 12:01:23
Es geht doch eigenlich gar nicht um den Vergleich zwischen FSR2 und DP4a XeSS sondern um NN auf TC vs. NN ohne TC. :confused:
(Klar ist ein NN langsamer...das war, ist und wird immer einfach Brute Force bleiben! Da ist es auch egal wie groß das ist...und ob Intel das auf was anderes als ihre eigenen HW besonders gut optimiert hat steht eh auf einem anderen Blatt...FSR2+ läuft auf AMD ja auch schneller als bei den ganzen anderen IHV)
Du bist doch derjenige der sagt ein NN laufen auf nV schneller als auf AMD weil "TC"...
Läuft PD4a XeSS jetzt auf ner nV Karte schneller?
Nein, nicht wirklich!
Und nun?
DP4a ist ein Vektorformat. Die Tensorcores rechnen Matrizen. Um die Tensorcores nutzen zu können, müssen Matrizen gerechnet werden. So wie XeSS mit XMX (Matrixinstruction von Intel) viel viel schneller läuft als mit Dp4a (Vector) trotz vielfach komplexerem Modell.
Intels Verfahren ist das einzige, wo man es vergleichen kann, weil es zwei Pfade gibt. Matrix und Vektor.
Exxtreme
2023-10-23, 12:34:01
Schon das "richtige" XeSS ist geringfügig schlechter als DLSS, die Sparversion ist deutlich schlechter als die XMX-Version und damit auch als DLSS.
Die Sparversion neigt auch deutlich stärker zum Flimmern.
Also in der Robocop-Demo kann man alle drei Verfahren sehr gut vergleichen. Und da sehe ich keine großartigen Unterschiede zwischen dem Spar-Xess und DLSS, bis auf das Ghosting von irgendwelchen wild fliegenden Papierblättern.
Erstens ist das ein kompletter Blödsinn und zweitens bringt es eine Menge, wenn man bei gleicher Performance auf eine deutlich höhere Zielauflösung und damit auch Qualität kommt.
Also langsam frage ich mich ernsthaft ob ihr diese starke Unschärfe, die DLSS verursacht, wirklich nicht wahrnehmt. Also ich nehme das sehr stark wahr.
basix
2023-10-23, 12:52:47
Also langsam frage ich mich ernsthaft ob ihr diese starke Unschärfe, die DLSS verursacht, wirklich nicht wahrnehmt. Also ich nehme das sehr stark wahr.
Finde die HWUB Vergleiche hier jeweils ein wenig "haarsträubend", wenn DLSS im 1-1 Vergleich eine deutlich bessere Bidlqualität attestiert wird aber gleichzeitig viel, viel unschärfer ist. Bildruhe ja, ist besser. Aber Unschärfe = Informationsverlust. Uncharted ist so ein Beispiel, gibt aber auch andere.
Gibt aber auch Beispiele, wo DLSS schärfer ist. Sich bewegende Vegetation, zum Beispiel.
Also langsam frage ich mich ernsthaft ob ihr diese starke Unschärfe, die DLSS verursacht, wirklich nicht wahrnehmt. Also ich nehme das sehr stark wahr.
Sowohl DLSS als auch XeSS legen größeren Wert auf Bildruhe im Vergleich mit FSR 2. Wenn du also FSR 2 schön scharf findest, ist das Geschmackssache - so war das schon immer. Um die Jahrtausendwende war Texturfilterung noch so teuer, dass es Spiele gab, die ganz auf MIP-Mapping verzichteten -> tolle Details im Standbild, aber höllisches Flimmern in Bewegung. Später gab's dann zwar AF, aber mit flimmriger "Bri"-Basisfilterung. Nun haben wir unter anderem mit Disocclusion zu kämpfen, was sich offenbar nicht über Nacht lösen lässt. Die KI-Algos von Intel und Nvidia zeichnen (nicht nur) diese Brösel deutlich weicher als FSR 2. Das hat Vor- und Nachteile. Gerade in niedrigen Auflösungen wirken DLSS und XeSS milchig, während FSR bröselt. In hohen Auflösungen bzw. guter Pixeldichte erzeugen alle ein gefälliges Bild, aber ich würde mich immer gegen Bewegtbildbrösel entscheiden - sofern das Weichschmieren der Alternativen nicht Überhand nimmt.
MfG
Raff
Also langsam frage ich mich ernsthaft ob ihr diese starke Unschärfe, die DLSS verursacht, wirklich nicht wahrnehmt. Also ich nehme das sehr stark wahr.
Also langsam frage ich mich ernsthaft ob du die mehr vorhandenen Details in mit DLSS im Vergleich zu üblichen TAA-Implementierungen nicht wahrnimmst.
Schärfe ist ein Punkt der in erster Linie vom Schärfefilter bestimmt wird, und ist je nach Implementierung mal mit DLSS stärker oder schwächer als Default-TAA.
Schärfefilter können aber keine nicht vorhandenen Details scharf zeichnen und in aller Regel sind mit DLSS mehr Details vorhanden als mit TAA.
Um die Jahrtausendwende war Texturfilterung noch so teuer, dass es Spiele gab, die ganz auf MIP-Mapping verzichteten -> tolle Details im Standbild, aber höllisches Flimmern in Bewegung.
Auf Mip-Mapping zu verzichten trasht den Texturcache und ist damit in jedem Fall langsamer als es einzusetzen.
Platos
2023-10-23, 14:05:47
Also langsam frage ich mich ernsthaft ob ihr diese starke Unschärfe, die DLSS verursacht, wirklich nicht wahrnehmt. Also ich nehme das sehr stark wahr.
Kannst du da mal ein paar Spiele nennen? Vlt. habe ich ja das eine oder andere. Nicht Witcher 3 bitte.
Bei witcher 3 sehe ich die Unschärfe auch sofort.
Bei Witcher 3 konnte ich vor allem eine Unschärfe erkennen, sobald man sich bewegt. Im Standbild gehts eig. noch. Bei Nativ ohne AA ist das nicht der Fall in Bewegung. Mit DLSS tritt es mit allen Presets auf.
Konntest du das mit der Unschärfe auch schon in anderen Spielen beobachten? Würde mich interessieren. Also mit Bewegung meine ich keine schnellen Drehbewegungen. Es reicht, wenn man sich langsam geradeaus bewegt und ein Objekt in der Mitte des Bildschirms anschaut.
Edit: Alles auf DLSS quality bezogen. Das Verhalten mit der Unschärfe in Bewegung verschwindet übrigens mit DLAA bzw. 100% Faktor (kann man mit DLSS Tweaks ja einstellen).
Auf Mip-Mapping zu verzichten trasht den Texturcache und ist damit in jedem Fall langsamer als es einzusetzen.
Jo, das war einst vor allem eine Maßnahme, um mehr "Schärfe" über die ganze Fläche zu kriegen. Bilineare Filterung, aber nur MIP 0 und somit auf das Abtasttheorem pfeifen, um Texturbrei (weil kein AF) zu vermeiden.
MfG
Raff
aufkrawall
2023-10-23, 15:41:35
Also in der Robocop-Demo kann man alle drei Verfahren sehr gut vergleichen.
Nicht wirklich, viele Szenen sind oft dunkel und haben keine Vegetation. Talos 2 Demo ab "neuer Welt-Rätsel" ist deutlich besser geeignet. FSR 2 ist da pure Comedy gegen TSR.
FSR 2 bearbeitet diverse Effekte einfach gar nicht. Etwa die Lichtstrahlen sind komplett aliased vs. TSR:
https://abload.de/thumb/talos2-win64-shippinge4dcr.png (https://abload.de/image.php?img=talos2-win64-shippinge4dcr.png) https://abload.de/thumb/talos2-win64-shippingkjc6n.png (https://abload.de/image.php?img=talos2-win64-shippingkjc6n.png)
Und in der Szene sieht man auch die Vegetation durch die schlechte Disocclusion zu detailarmen Klumpen "verkleben" vs. TSR. Und mehr Sharpen als TSR braucht es generell auch. Es ist einfach nur massiv schlechter.
Das trifft auch auf die Bildruhe mit XeSS zu: In Bewegung flimmert das Gras massiv mehr als mit TSR, von dem ganzen Ghosting und Smearing gar nicht erst zu sprechen.
Exxtreme
2023-10-23, 22:23:41
Also langsam frage ich mich ernsthaft ob du die mehr vorhandenen Details in mit DLSS im Vergleich zu üblichen TAA-Implementierungen nicht wahrnimmst.
Ich vergleiche es nicht mit TAA da TAA keine Messlatte ist. TAA liegt locker am Boden und jeder kann drüber steigen.
Kannst du da mal ein paar Spiele nennen?
https://imgsli.com/MjA3NDkz
Und auch hier Bildvergleiche:
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1397521&page=2&draft=-1&rank=1
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1424271&page=1&draft=-1&rank=2
Ich vergleiche es nicht mit TAA da TAA keine Messlatte ist. TAA liegt locker am Boden und jeder kann drüber steigen.
Mit was dann? Die meisten Spiele erlauben es nicht mal TAA zu deaktivieren und wenn dann höchstens deutlich schlechteres FXAA oder SMAA als Alternative, abgesehen davon ist TAA das aktuell beste konventionelle AA.
https://imgsli.com/MjA3NDkz
Da sieht man (ohne DLSS) ja schon am Standbild das flimmern, und DLSS zeigt wie zu erwarten nicht weniger Details. Der lokale Kantenkontrast ist geringer klar, dass ist die Aufgabe eines jeden AA, aber die Details sind alle da.
Exxtreme
2023-10-24, 08:34:13
Mit was dann?
Mit SSAA oder MSAA? In einem dieser Links gibt es Vergleiche mit diesen Verfahren. Da bekommst du geglättete Kanten und auch Vegetation ohne nachträglichen Matsch.
Da sieht man (ohne DLSS) ja schon am Standbild das flimmern, und DLSS zeigt wie zu erwarten nicht weniger Details. Der lokale Kantenkontrast ist geringer klar, dass ist die Aufgabe eines jeden AA, aber die Details sind alle da.
Korrekt. Man muss sich halt entscheiden: Flimmern + Schärfe oder kaum Flimmern + Matsch. Mit klassischem SSAA oder MSAA+Alphatest-AA hättest du weder Flimmern noch Matsch. Deshalb ist dieses Upscaling-AA IMHO im Grunde zum Teil ein Rückschritt und ich vergleiche es mit Quincunx-AA weil das ziemlich exakt so wirkt.
Hat aths damals auch schön geschrieben:
"Quincunx-Anti-Aliasing macht dies nachträglich wieder unscharf. Das kann im eigentlichen nicht Sinn einer bildqualitätverbessernden Maßnahme sein."
https://alt.3dcenter.org/artikel/anti-aliasing/index11.php
Platos
2023-10-24, 10:12:54
In welchen Spielen kann man Kantenglättung/TAA denn nicht ausschalten?
https://imgsli.com/MjA3NDkz
Und auch hier Bildvergleiche:
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1397521&page=2&draft=-1&rank=1
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1424271&page=1&draft=-1&rank=2
Ja, sieht tatsächlich deutlich unschärfer aus. Aber hast du bezüglich DLSS mal das mit der Bewegung getestet? Zumindest bei mir in Witcher 3 matscht es direkt, wenn man sich bewegt.
Aber @ Extreme: Probier doch mal DLAA aus bzw forciere es mit DLSS Tweaks. Vlt. gefällt dir das ja. Oder eben DLDSR.
Aber wenn du so auf nativ ohne AA stehst, dann wäre vlt. ne höhere native Auflösung was für dich (4k Monitor). Es wurde grade erst ein 240Hz 4k Monitor verlinkt.
https://www.hardwareluxx.de/index.php/news/hardware/monitore/62150-alienware-aw3225qf-und-aw2725df-neue-oled-displays-f%C3%BCr-2024.html
Für mich reicht das leider nicht. Bin alergisch gegen sowohl flimmern, als auch matsch. 8k ohne AA wäre vlt. was für mich :D
Mit SSAA oder MSAA?
Da gibt es aber so gut wie keine Spiele mehr die das unterstützten.
Korrekt. Man muss sich halt entscheiden: Flimmern + Schärfe oder kaum Flimmern + Matsch.
Nicht Flimmern + Schärfe oder kein Flimmern + Matsch, sondern flimmern mit zu harten Kontrasten oder kein flimmern mit weniger Kontrast.
Was willst du als nächstes noch, vielleicht dass wir Texturfilter deaktivieren? Texturfilter machen genau das selbe was du als "Matsch" bezeichnest nur innerhalb der Texturen.
Mit klassischem SSAA oder MSAA+Alphatest-AA hättest du weder Flimmern noch Matsch.
Mit MSAA hast du überhaupt keine geglätteten AT, A2C kann zwar das AT-Aliasing verringern, aber das macht es genau mit deinem angeprangertem Matsch.
SSAA glättet zwar auch AT, aber beides SSAA und MSAA hilft kaum gegen temporales Aliasing. Um Temporales Aliasing mit SSAA oder MSAA zu unterdrücken bräuchtest du schon vollkommen unrealistisches 64xAA
Deshalb ist dieses Upscaling-AA IMHO im Grunde zum Teil ein Rückschritt und ich vergleiche es mit Quincunx-AA weil das ziemlich exakt so wirkt.
Hat aths damals auch schön geschrieben:
"Quincunx-Anti-Aliasing macht dies nachträglich wieder unscharf. Das kann im eigentlichen nicht Sinn einer bildqualitätverbessernden Maßnahme sein."
Genau dieser Vergleich passt überhaupt nicht, Quincux verringert zwar Kontraste und damit auch die Sichtbarkeit von Treppchen, es hilft aber überhaupt nicht gegen Flimmern, das ist genau gleich stark wie ohne Quincux.
Das Flimmern entsteht durch temporales Aliasing und SSAA sowie MSAA auf welchem Quincux basiert fehlt vollständig die temporale Komponente.
Nur TAA und Nachfolger können effektiv temporales Aliasing unterdrücken, Single Frame basierte AA-Verfahren können gegen temporales Aliasing kaum was ausrichten.
/Locutus oB
2023-10-24, 13:08:01
extrem hohe Auflösung würde doch auch aliasing "unsichtbar" machen, oder?
TAA ist meiner Meinung nach total ungeeignet für VR, leider...
extrem hohe Auflösung würde doch auch aliasing "unsichtbar" machen, oder?
Ja, aber nicht nur räumliche auch zeitlich bräuchte man dafür eine extrem hohe Auflösung (sprich extrem viel FPS).
Hat aths damals auch schön geschrieben:
"Quincunx-Anti-Aliasing macht dies nachträglich wieder unscharf. Das kann im eigentlichen nicht Sinn einer bildqualitätverbessernden Maßnahme sein."
Die Quincux Idee war eigentlich gar nicht blöd, das Problem mit Quincux war nur dass die Basis Multisampling ist.
Mit Supersampling als Basis wäre Quincux damals richtig gut im Verhältnis von Performancebedarf und Qualität gewesen.
Bzw. alternativ hätte man den Quincux Resolve nur an den Polygonkanten anwenden dürfen, und innerhalb des Polygons den Standard MSAA-Resolve.
DrFreaK666
2023-10-25, 13:35:27
AFMF kommt bei PCGH ziemlich gut weg
Ojan2m9KT5Y
ja, aber sie probieren zumindest einen neuen Weg.
Dass NV mit ihrem proprietären Ansatz und der überlegenen R&D power vorne liegt ist klar
sie probieren nichts neues, sie kopieren doch wieder nur und mal wieder mit minderer Qualität. Dann noch so viele Probleme on Top und das sie ihre alten GPUs ohne Grund von Antilag+ aus, Reflex funktioniert sogar auf GTX Karten...
Exxtreme
2023-10-25, 14:15:49
Reflex funktioniert sogar auf GTX Karten...
Naja, Reflex und Antilag+ funktionieren schon grundsätzlich anders. Reflex braucht explizite Spieleunterstützung, Antilag+ nicht grundsätzlich. Auch wenn AMD Spiele im Treiber freischaltet.
robbitop
2023-10-25, 14:32:37
Ist das wirklich so? Hast du dazu eine Quelle?
aufkrawall
2023-10-25, 14:38:24
Natürlich ist es ein Treiber-Hack, sehen sogar Anti-Cheat-Systeme so. :freak:
So wird es das auch niemals unter Linux geben, während Nvidia dort seit Neustem Reflex inkls. eigens dafür entwickelter Vulkan-Extensions unterstützt (wenn auch noch nicht in DXVK/VKD3D-Proton gemergt).
Während AMD Anti-Lag+ auf unbestimmte Zeit wieder aus dem Treiber rausgerissen hat, inkls. für alle SP-Spiele. Und die Funktionalität für FG und Auto-Limiter kann halt trotzdem nicht mit Reflex mithalten. Der Gast hat also völlig recht. Mir schleierhaft, weshalb man das durch unangebrachte Relativierungen wieder beschönigen muss. Es ist ein mieser Abklatsch in allerschlimmster AMD-Goofy-Manier.
Naja, Reflex und Antilag+ funktionieren schon grundsätzlich anders. Reflex braucht explizite Spieleunterstützung, Antilag+ nicht grundsätzlich. Auch wenn AMD Spiele im Treiber freischaltet.
dennochh sperrt AMD mit voller Absicht Kunden mit älteren GPUs aus, obwohl es nur eine reine Softwarelösung ist. Reflex brauch auch keine spezielle Hardware und wird deswegen auch auf älteren GPUs unterstützt.
Exxtreme
2023-10-25, 14:50:02
Ist das wirklich so? Hast du dazu eine Quelle?
Die News der letzten Tage nicht gelesen? Wie Valve Spieler gebannt hat weil deren Anticheat-Mechanismus Antilag+ als Cheat erkannt hat? ;) Das Ding funktioniert wie ein Hack und klinkt sich irgendwie in den Prozess hinein was Anticheats triggert. :freak: Jetzt haben sie einen neuen Treiber ohne Antilag+ veröffentlicht deswegen.
dennochh sperrt AMD mit voller Absicht Kunden mit älteren GPUs aus, obwohl es nur eine reine Softwarelösung ist. Reflex brauch auch keine spezielle Hardware und wird deswegen auch auf älteren GPUs unterstützt.
Das ganze ist offenbar noch im frühen Beta-Stadium. Kann sein, dass sie das auch noch für RDNA1/2 freischalten.
robbitop
2023-10-25, 15:04:12
Natürlich ist es ein Treiber-Hack, sehen sogar Anti-Cheat-Systeme so. :freak:
So wird es das auch niemals unter Linux geben, während Nvidia dort seit Neustem Reflex inkls. eigens dafür entwickelter Vulkan-Extensions unterstützt (wenn auch noch nicht in DXVK/VKD3D-Proton gemergt).
Während AMD Anti-Lag+ auf unbestimmte Zeit wieder aus dem Treiber rausgerissen hat, inkls. für alle SP-Spiele. Und die Funktionalität für FG und Auto-Limiter kann halt trotzdem nicht mit Reflex mithalten. Der Gast hat also völlig recht. Mir schleierhaft, weshalb man das durch unangebrachte Relativierungen wieder beschönigen muss. Es ist ein mieser Abklatsch in allerschlimmster AMD-Goofy-Manier.
Oh ok dann ist es also per whitelist. Zumindest wäre es schön, wenn sie die Whitelist über eine API exponieren könnten, so dass man selbst Spiele hinzufügen kann und testen kann ob es klappt. :)
Dennoch von der Umsetzung her ungeil / Bastellösung die es in ähnlicher Form auf github schon länger gibt. Danke für den Kontext! :up:
Falls du mich mit der Relativierung/Beschönigung meinst, würde ich sagen, dass die Bemerkung falsch ist. Ich habe es weder relativiert noch beschönigt (und das war auch nicht die Intention). Ich habe nur gefragt, ob das wirklich so ist und ob es dazu einen Beleg gibt. Absolut legitim in einer Diskussion diese Fragen zu stellen. Diskussion bedeutet: These - Argument - Beleg. Wenn etwas davon fehlt, darf man ja wohl danach fragen, ohne dass es als "Relativierung" und "Beschönigung" ausgelegt wird.
Die News der letzten Tage nicht gelesen? Wie Valve Spieler gebannt hat weil deren Anticheat-Mechanismus Antilag+ als Cheat erkannt hat? ;) Das Ding funktioniert wie ein Hack und klinkt sich irgendwie in den Prozess hinein was Anticheats triggert. :freak: Jetzt haben sie einen neuen Treiber ohne Antilag+ veröffentlicht deswegen.
Doch habe ich mitbekommen aber habe da tatsächlich nicht drüber nachgedacht. Das macht absolut Sinn, was ihr schreibt. :)
aufkrawall
2023-10-25, 15:39:16
Falls du mich mit der Relativierung/Beschönigung meinst, würde ich sagen, dass die Bemerkung falsch ist.
Ich meine auch Exxtreme, der bei DLSS jeden schlechteren Pixel unters Elektronenmikroskop legt, und bei jedem Murks, den AMD verzapft, immer ein "Ja, aber..." bringt. ;)
Es gibt kein "Ja, aber" für Anti-Lag+. Dass es nicht für die Implementierung im Spiel vorgesehen ist, ist kein alternativer Vorteil, sondern einfach nur ein Gendefekt und damit eine vertane Chance.
Wenn es ein zusätzliches Anti-Lag+ im Treiber für SP-Spiele gäbe, die nicht ein hypothetisches Anti-Lag+ selbst integriert mitbringen, sähe es natürlich ganz anders aus. Womit wir aber wieder in der AMD-Luftschlosswelt sind...
robbitop
2023-10-25, 16:10:50
Jap damit würde ich auch konform gehen.
Naja, Reflex und Antilag+ funktionieren schon grundsätzlich anders. Reflex braucht explizite Spieleunterstützung, Antilag+ nicht grundsätzlich. Auch wenn AMD Spiele im Treiber freischaltet.
Ähm doch, wie wir mittlerweile wissen, benötigt Antilag+ auch Spieleunterstützung, nur wird diese nicht vom Spieleentwickler sondern von AMD implementiert.
DrFreaK666
2023-10-26, 03:08:07
Back 2 Topic?
AFMF kommt bei PCGH ziemlich gut weg
https://youtu.be/Ojan2m9KT5Y
robbitop
2023-10-26, 06:52:34
AFMF ist kein FSR. Wo ist das on topic? ;)
DrFreaK666
2023-10-26, 07:38:06
Die Bildgenerierung ist ähnlich und der Thread heißt nicht AMD-Rant. Die letzten Seiten reichen
Achill
2023-10-26, 09:30:22
AFMF ist kein FSR. Wo ist das on topic? ;)
AFMF ist ein interessantes Thema aber evtl. besser in ein eigenen Thread aufgehoben. Das gleiche gilt aber auf jeden Fall für die immer wieder neu gestartete Reflex und AntiLag(+) Diskussionen genauso. Damit schweifen wir immer wieder vom Topic ab und wertvolle Informationen und Vergleiche gehen unter ... imho Masche von einigen wenigen hier.
gnomi
2023-10-26, 11:03:51
Bei Immortals of Aveum kann man FSR FG scheinbar auch auf nvidia nutzen.
Habe das mal kurz ausprobiert und laut Anzeige gehen die fps hoch.
Mir gefällt DLSS2 plus Reflex/Boost hier jedoch besser.
FSR scheint zu viel Schärfe drauf zu geben. :confused:
Die Bild Ruhe ist mit DLSS angenehmer, auch wenn es dann wieder etwas zu milchig wirkt.
Und für FG müsste ich meinen Beobachtungen nach GPU Details leicht reduzieren (RTX 3080Ti) und leider eine bessere CPU haben als den 9900KF, der gerade mal den Minimum 9700er schlägt. :(
So ist das Spielgefühl letztendlich nicht besser, denn lieber paar mehr Grafik Goodies bei einem SP Titel, so lange die 40-60fps da sind.
Das kann aber je nach Spiel und Konfiguration und Einstellung schon wieder alles ganz anders sein!
Bin schon sehr begeistert, so viele Möglichkeiten zu haben.
Mit Ampere ist man ja bei DLSS 3 komplett raus.
Ist nicht so schön, denn Turing bekam noch DLSS 2 und war auch günstiger.
Es ist aber langsam alles bisschen auch zu viel mit dem ganzen Techniken und Einstellungen.
Der Entwickler sollte OOTB vielleicht nicht nur alles anbieten und GPU und CPU Auswirkungen hinschreiben, sondern auch besser vor einstellen.
Ich muss dann ja auch mal losspielen bei Gefallen und nicht ne Viertelstunde im Tutorial Level testen. Wer macht das überhaupt noch und kauft nicht einfach was Schnelleres?
Letztendlich kann man die Lebenszeit der Karte eventuell etwas verlängern und ausreizen- es wird aber bei den jetzt höheren technischen Anforderungen trotzdem auf weit mehr benötigte RT Power hinauslaufen denke ich.
FG wird aber zum guten Ton gehören in Zeiten, wo 60fps für viele Minimum darstellen.
Da ich das Spiel bereits durch habe, aber diese Goldenen Truhen und Nebeltore in Verbindung mit den guten Spielumgebungen vielleicht noch ein paar Stunden motivieren, teste ich die Tage noch ein wenig rum.
Könnte ja für das nächste UE5 Spiel auch ganz hilfreich sein. :wink:
DrFreaK666
2023-10-26, 11:28:40
Detail-Stufen musste man schon immer testen. Im Notfall bei PCGH schauen, was das System in etwa ausspuckt
gnomi
2023-10-26, 11:40:18
Habe mir deren Check auch angesehen und vergleichbare Komponenten hoch gerechnet.
Damit kommt man schon klar und das ist tolle Arbeit.
Dennoch bietet das Spiel bereits fünf Patches und neue Features in acht Wochen.
Bei einem Starfield ist der Community Patch vor dem echten fertig.
Und man denke auch an so Dinge wie die DLSS Mods.
Finde, das geht schon sehr in die Fummelei.
Oben im Video ist das auch voll zu sehen.
Scheinbar war bei Immortals auch wegen Kopierschutz nicht mehr Technik Berichterstattung möglich. Mega Aufwand.
Für Hobby ganz klar zu viel alles mittlerweile.
Man könnte bisschen gewissenhafter PC Versionen rausbringen.
Das sagt mittlerweile jeder. ;)
Platos
2023-10-26, 11:56:07
Wenn man "gewissenhaftere" PC Versionen will, ist das ganz einfach: Man kauft erst ein halbes bis ein Jahr später.
1. ist es dann billiger
2. ist es dann (potentiell) bugfrei(er) und perfomant(er)
3. Würden das mehr Leute machen, würde es auch die Publisher mal merken, wie man Spiele zu releasen hat.
Aber am Ende bleibts beim Rummaulen und dann doch wieder vorbestellen... Also vlt. mal an den eigenen Eiern zupacken und schauen, ob man sie noch findet ;)
DrFreaK666
2023-10-26, 12:01:42
Habe nur Grim Dawn und Wolcen vorbestellt, wenn man Early Access dazu zählt. Sonst wars 1999 Baldur's Gate und Duke Forever
Platos
2023-10-26, 12:08:45
War klar, dass jetzt einer das wörtlich nimmt :D
Es geht nicht nur um vorbestellen, es geht allg. darum, Spiele im verbuggten Zustand zu kaufen. Deswegen sage ich ja... 1/2 bis 1 Jahr nach Release kaufen.
Am besten erst kaufen, wenn die DLCs schon alle mit inbegriffen sind. Bei den meisten Spielen geht das gut. Das ist nämlich die nächste Ausgeburt der Spieleindustrie... Spiele unfertig verkaufen und dann danach noch den Rest ausliefern.
robbitop
2023-10-26, 12:55:02
Wobei dieser Mechanismus keine Belohnungen für die Studios hätte, die zum Launch eine sehr gute Version hinlegen.
IMO:
a) Vorberstellungen sind im Jahr 2023 Blödsinn, da es ja digital ist und man eh erst ab release spielen kann. Damit sollte jeder aufhören.
b) Wenn die reviews zum Launch gut sind (und das Spiel in guter Verfassung ist - solls ja geben ^^) und der Preis individuell okay erscheint -> kaufen
Ein positives Beispiel ist IMO Armored Core 6. Das war zum Launch super polished. Ich habs schon 5x durch und es kamen zwar Updates aber die waren anscheinend alle eher um das Spiel besser zu balancen für Multiplayer.
Ab Tag 1 keinen Absturz, keine Artefakte, keine Storybugs, kein Ruckler. Sehr hübsch und trotz nur mittelmäßiger GPU (3080) locker 120 fps bei 1440p in höchten Details und selbst auf 4K falle ich kaum unter 90 fps (wenn ich mal am OLED TV spiele).
So muss das sein! :up:
Leider heute eine Seltenheit, wo Spiele beim Kunden reifen. Dass aber aus Shitstorms wie bei CP77 offenbar nicht gelernt wird, ist mir schleierhaft. Spiele wie Skylines 2 kommen mit absurden Systemrequirements trotz 90er Jahre Grafik... total irre.
dargo
2023-10-26, 14:50:11
Ich habe mir jetzt mal die Upscaling-Verfahren in der Demo von The Talos Principle 2 angesehen, und zwar in 1440p auf 27".
Als Maßstab habe ich diese Szene genommen.
https://abload.de/thumb/thetalosprinciple2demb4cmj.jpg (https://abload.de/image.php?img=thetalosprinciple2demb4cmj.jpg)
Im Stillstand sehen sowohl FSR als auch XeSS (Sparversion) @Quality sehr gut aus für nur einen Input von 960p. Sobald man sich aber bewegt bricht die Stabilität bei den Palmen komplett ein. Empfinde ich schon als eher störend. TSR @Quality ist witzigerweise bei den Palmen im Stillstand etwas schlechter (minimales Flimmern vernehme ich), dafür ist die Stabilität in Bewegung deutlich besser. Nach dem kurzen subjektiven Eindruck würde ich höchstwahrscheinlich hier TSR_Q verwenden.
gnomi
2023-10-26, 15:08:01
Wenn man "gewissenhaftere" PC Versionen will, ist das ganz einfach: Man kauft erst ein halbes bis ein Jahr später.
1. ist es dann billiger
2. ist es dann (potentiell) bugfrei(er) und perfomant(er)
3. Würden das mehr Leute machen, würde es auch die Publisher mal merken, wie man Spiele zu releasen hat.
Aber am Ende bleibts beim Rummaulen und dann doch wieder vorbestellen... Also vlt. mal an den eigenen Eiern zupacken und schauen, ob man sie noch findet ;)
Ist finde ich ein schwieriges Thema.
Ich persönlich ziehe schon erste Konsequenzen und kaufe seit etwa 4,5 Jahren nicht mehr 1,2 Dutzend Vollpreisspiele im Jahr, obwohl mir das nie weh tat. (vorbestellt waren die eher in Ausnahmefällen bei ganz große Namen oder Genre Highlights)
Spielt allerdings imho nicht so die Rolle, denn:
Ich kann die schleichende Entwicklung zu Service Games und schnellen Veröffentlichungen in einem wachsenden Markt über die letzten 10 Jahre als SP Erlebnisspieler gar nicht verhindern, sondern nur dazu übergehen, Gaming Dienste 1,2 Monate wenn viel erscheint auch mal zu nutzen (so wie hier EA Pro) und dann später vergünstigt kaufen oder passen.
Diese Gaming Dienste wie Gamepass ändern meines Erachtens das Geschäftsmodell der Firmen.
Es ist doch eher normal, dass mich ein Neues Spiel auch interessieren darf.
Sonst hätte ich wohl kein Bock mehr auf Spielen.
6-12 Monate Wartezeit ist daher viel verlangt bei großen Entwicklungen.
Gegen die Psychologie kommt man bei so einem Spaß Thema/Hobby auch schlecht an.
Den GPU Kauf kann man sicher einfacher verschieben, aber ein Spiel, worauf man unbedingt Bock hat. Das funktioniert denke ich ganz schwer.
Außerdem läuft es mit verbreiteter Hardware über Durchschnitt ja auch.
Diese Probleme sind bisschen Luxus auch. Ich habe jetzt keine Abstürze oder schlimme Bugs inhaltlich.
Bei Immortals tut mir der scheinbare Misserfolg leid. Mir gefällt der Titel und ich würde sagen, er ist auch 40-50€ wert.
Insofern trifft es jetzt auch wieder den falschen, weil ich nicht gekauft habe.
Platos
2023-10-26, 20:39:56
Natürlich kann man die Entwicklung des Service-Game verhindern, indem man wie gesaagt einfach später kauft bzw. diesen Service nicht nutzt. Dann kriegt man das ganze auf einmal.
Und ich sehe das etwas anders mit dem "nicht können". Ich freue mich auch auf gewisse Spiele, aber deswegen kann ich trotzdem 1 Jahr warten. Das nenne ich Beherrschung.
Aber ich schreibe es ja nicht anderen vor, ich sage nur, wie es ginge.
b) Wenn die reviews zum Launch gut sind (und das Spiel in guter Verfassung ist - solls ja geben ^^) und der Preis individuell okay erscheint -> kaufen
Klar, aber das ist wie du ja schon sagst die absolulte Ausnahme. Wobei ich bei Spielen, die DLCs raus bringen, dann eben trotzdem nicht am Anfang spiele. Was bringt mir das, wenn der DLC 1/2 - 1 Jahr später raus kommt. Dann bin ich schon nicht mehr im Spiel drinn und nochmals will ich nicht das ganze Spiel spielen, um nochmals rein zukommen. Deswegen kaufe ich erst gar nicht, wenn die DLCs nicht dabei sind. Also deswegen und natürlich auch wegen dem Preis, wobei mich ersteres mehr aufregt.
AFMF kommt bei PCGH ziemlich gut weg
https://youtu.be/Ojan2m9KT5Y
Traurig zu sehen, dass selbst ein Magazin mit einer nicht unerheblichen Reputation auf den Marketingschmäh rein fällt, dass FrameGeneration, ganz egal jetzt von welchem Hersteller oder in welcher Form, ein Performancetool ist.
DrFreaK666
2023-10-27, 06:20:48
Er sagt doch, dass sich der Input-Lag nicht bessert. Manchmal sollte man Links auch anklicken!
Er sagt doch, dass sich der Input-Lag nicht bessert. Manchmal sollte man Links auch anklicken!
Er verbessert sich aber nicht nur nicht, sondern er verschlechtert sich, und zwar umso stärker je geringer die Basisframerate ist.
Und dann sagt er noch dass das feature einer 6600 oder war es 6700, hab das genaue Modell nicht mehr in Erinnerung "neues Leben einhaucht" in dem er demonstriert dass man den FPS Counter von 30 auf 60 anheben kann.
Was völliger Schwachsinn ist, 30FPS sind viel zu wenig als Basis für FG zu dienen, egal ob DLSS3, FSR3 oder FMF verwendet wird. Die Latenz wird damit abartig, die Differenzen zwischen echten Frames so groß, dass Artefakte wahrscheinlich sind, und die Frametimes inklusiver generierter Frames zu lang, so dass Artefakte auch tatsächlich wahrnehmbar werden.
Nebenbei verschweigt er, dass das Framepacing auch in der AMD Anzeige komplett aus dem Ruder läuft, was auch im Video eindeutig sichtbar ist (wobei das zumindest teilweise daran liegen kann, dass wir ein 60FPS Video sehen, dessen FPS nicht mit den aufgenommenen synchronisiert sind), und dass FMF bei schnellen Bewegungen einfach deaktiviert wird, wird zwar erwähnt, aber überhaupt nicht dass das Feature sich damit selbst ad absurdum führt, schnelle Bewegungen sind das einzige was viel FPS braucht.
FG ist ein Feature, welches die Qualität in Bewegung erhöht, kein Feature was die Performance erhöht.
Komischerweise wird das von den Quasi-Vorgängern der FG, nämlich den TV-Herstellern auch so vermarktet, nämlich als Qualitätsverbesserung, und nicht als Verbesserung der Performance.
Und auch wenn es verständlich ist, dass das NV und AMD Marketing das Ganze als Performanceverbesserung vermarkten will, sollten Hardwaretester es besser wissen und ihrem Publikum auch die Wahrheit kommunizieren.
TheGood
2023-10-27, 20:07:33
AFMF ist ein interessantes Thema aber evtl. besser in ein eigenen Thread aufgehoben. Das gleiche gilt aber auf jeden Fall für die immer wieder neu gestartete Reflex und AntiLag(+) Diskussionen genauso. Damit schweifen wir immer wieder vom Topic ab und wertvolle Informationen und Vergleiche gehen unter ... imho Masche von einigen wenigen hier.
DAnke dass das noch einer sagt. Auf einen Sinnvollen post kommen 30 shit posts...
Früher wars umgekehrt, aber die Moderation wills nicht glauben oder es hat andere gründe..
rm-zocker
2023-10-30, 17:30:53
Mein Sohn hat noch einen Monitor mit einer Auflösung von 1680 x 1050. Funktioniert FSR auch mit dieser Auflösung? Er hat noch eine GTX1070 aus meinem alten Rechner und bei dieser Karte wird die Luft in Sachen Performance langsam dünn.
Mein Sohn hat noch einen Monitor mit einer Auflösung von 1680 x 1050. Funktioniert FSR auch mit dieser Auflösung? Er hat noch eine GTX1070 aus meinem alten Rechner und bei dieser Karte wird die Luft in Sachen Performance langsam dünn.
FSR funktioniert mit jeder Auflösung, je geringer die Pixelzahl umso stärker fallen logischerweise die optischen Einbußen aus.
Bei richtig alten Karten wie der 1070 wird allerdings auch der Performancebedarf von FSR selbst relevanter, und damit die Performancegewinne geringer.
Hatstick
2023-10-30, 19:03:13
Wollte mir heute eigentlich das "neue" alte ARK kaufen, sieht grafisch schon fantastisch aus und ich habe ARK immer gerne gespielt aber kein FSR Support, WTF? :eek:
Da bin ich schon schwer enttäuscht muss ich sagen, bin ich 100% von ausgegangen, das es supportet wird.
So kann man es ja knicken, wirst nativ nie auf gute FPS Werte und Qualität kommen.
Sehr, sehr schade...
aufkrawall
2023-10-30, 19:10:58
Spätestens, wenn die Config nicht gelockt ist, kannst du darüber TSR nutzen.
Hatstick
2023-10-30, 20:10:06
TemporalSuperResolution = RSR - RadeonSuperResolution?
Ok, das wäre eventl. eine Option.
Kann ich ja in den ersten zwei Stunden nach dem Kauf ausprobieren.
Gar nicht dran gedacht. Mal schauen, ob das akzeptabel ist.
Danke
basix
2023-10-30, 20:34:30
Nicht ganz ;)
TSR enstpricht eher FSR2.
RSR ~ FSR1
Ex3cut3r
2023-10-30, 23:49:53
TSR ist das Upsampling von der UE5 Engine. Ist besser als FSR 2.0 Gibt es aber dementsprechend nur in UE5 Titeln. Ist wenn nicht ingame verfügbar, per Konsolen Command/Ini Gefuchtel Unlockbar/einstellbar
P.S. Das neue Ark = UE5, also theoretisch TSR einschaltbar.
DrFreaK666
2023-10-31, 06:33:06
Avatar wird das nächste Spiel mit FSR3 FG, aber FG auch nur mit FSR. DLSS-Liebhaber müssen auf eine Mod warten
https://abload.de/img/avatar-frontiers-pc-s5sdia.jpg (https://abload.de/image.php?img=avatar-frontiers-pc-s5sdia.jpg)
Avatar wird das nächste Spiel mit FSR3 FG, aber FG auch nur mit FSR. DLSS-Liebhaber müssen auf eine Mod warten
Wofür, DLSS-Support wird wohl DLSS3 mit einschließen, warum sollte man dann mit einer DLSS-Kompatiblen Karte auf FSR3 setzen?
Hatstick
2023-10-31, 12:20:57
Danke für die Infos zu TSR, das schaue ich mir mal an! :smile:
Achill
2023-10-31, 13:26:23
Danke für die Infos zu TSR, das schaue ich mir mal an! :smile:
Wir sollten das Thema UE5 TSR in ein neuen Thread verschieben, ist an sich ja eine interessante Entwicklung. Auch diese Infos geben weitere Einblicke, Epic kann durch Einsatz ihrer eigenen Engine imho einfach bessere optimieren: UE5 Docs / Temporal Super Resolution (https://docs.unrealengine.com/5.3/en-US/temporal-super-resolution-in-unreal-engine/)
@Hatstick, da werden auch Config Settings erklärt falls du mit diesen in ARK spielen willst.
Hatstick
2023-10-31, 15:06:17
Ja, das muss ich zugeben, TSR hatte ich noch gar nicht auf dem Schirm.
Werde mal in Ruhe suchen bzgl. dem neuen ARK und Settings, wäre ja wirklich super.
Nativ @ 1440p @ max. Settings und 40-50fps mit einer 7900XTX ist nicht witzig, dann gammel ich wahrscheinlich mit 30fps rum.
Das würde ich mir nicht antun wollen. :biggrin:
blaidd
2023-11-02, 12:23:27
Ja, das muss ich zugeben, TSR hatte ich noch gar nicht auf dem Schirm.
Werde mal in Ruhe suchen bzgl. dem neuen ARK und Settings, wäre ja wirklich super.
Nativ @ 1440p @ max. Settings und 40-50fps mit einer 7900XTX ist nicht witzig, dann gammel ich wahrscheinlich mit 30fps rum.
Das würde ich mir nicht antun wollen. :biggrin:
EDIT: Kommando zurück, der Auflösungsregler (und damit TSR) scheint nicht richtig zu funktionieren. Der springt immer wieder auf "70" zurück und das Upsampling scheint generell nicht korrekt zu greifen.
Zumindest nicht mit einer RTX 4090, ich check gleich noch mal eine Radeon. Der DLSS-Schalter ist nämlich auch ein bisschen broken (wenn man da nicht DLSS explizit auf "aus" stellt, geht DLSS Auto an, auch wenn das Upsampling auf "Aus" gesetzt wurde). Ich hatte da aber definitiv auch schon mal Upsampling ohne DLSS.
Zur Not kannst du aber auch immer noch die interne Auflösung runtersetzten und RSR nutzen. Das ist zumindest etwas besser als bloßes Hochrechnen von z.B. 1080p auf einen 4K Desktop.
aufkrawall
2023-11-02, 16:10:47
Sollte über die Config trotzdem gehen, wenn sie nicht irgendetwas komisch kaputt gemacht haben oder noch seltsamer überschreiben als andere Titel:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13400578&postcount=2476
blaidd
2023-11-02, 16:36:05
Mit AMD funktioniert's.
Kann auch sein, dass ein Neustart des Spiels das behoben hätte.
Aber mit der RTX 4090 konnte ich nicht mal den Regler ändern, der ist immer wieder auf "70" gesprungen (was aber native Darstellung war).
Läuft sogar ganz anständig mit der RX 7900 XTX.
Ist offenbar ein wenig flotter als DLSS. Die Performance sinkt btw. bei Fortbewegung recht stark, das sollte man eventuell mit berücksichtigen. Sind easy 10-20 % Performance-Unterschied im Vergleich, wenn man stehen bleibt.
Heftigste Umgebung ist der Sumpf zwischen Redwoods und Dschungel im mittleren Süden der Insel. Am krassesten bricht die Performance ein, wenn man da mit einem Argi langfliegt oder so. Lässt sich allerdings schwer benchen und ist vielleicht nicht unbedingt der "spielnäheste" oder performance-kritischste Umstand. Hab eine Szene am Ufer in der Nähe vom roten Obilisken genommen. Relativ interessant: Der Urwald oder die Redwoods sind eher weniger anspruchsvoll.
Right around here (aber in Richtung Swamp/Redwood, also in Richtung der Kamera)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85854&stc=1&d=1698939957
UHD, Epic-Preset:
RX 7900 XTX: 31,2/26,7 Fps (TSR Q bzw. ~67 % Auflösungsskalierung)
vs
RTX 4090: 36,7/30,3 Fps (DLSS Q ohne FG)
Die Wasserdarstellung sieht definitiv etwas schlechter aus bzw. wird aus irgendeinem Grund bislang nicht sauber geglättet bzw. denoised, aber ansonsten sieht es ganz gut aus.
aufkrawall
2023-11-02, 16:45:24
Talos 2 scheint mit Upsampling bei hoher Ziel-Auflösung in Bewegung auch stärker ins CPU-Limit einzubrechen als in gleicher niedriger Renderauflösung ohne Upsampling. Ggf., weil die Nanite-Geometrie deutlich hochaufgelöster gestreamt wird o.ä. Klassische 720p CPU-Benchmarks wären damit natürlich sinnfrei.
Tobalt
2023-11-02, 17:53:54
ist doch sinnvoll, dass geo in Zielauflösung geLODet wird..
für CPU benches ist aber, wie du sagst, wohl sowas wie 2160p mit "ultra Performance" temp. Upsampling der bessere Weg, als 720p nativ.
Hatstick
2023-11-03, 10:56:56
Also die 7900XTX ist mit Hilfsmittel bei 30fps und dem TSR?
Was macht denn die 4090 mit FG? Ist ja nun mal vorhanden im neuen ARK, sollte ja ordentlich voran gehen, oder?
Das bestätigt mich doch aber, das man vielleicht die 7900XTX ausgeklammert, mit keiner AMD Karte aktuell spielbare FPS hinbekommt mit guter BQ, geschweige denn deutlich mehr wie 60fps?
Dino-Fossil
2023-11-03, 11:28:36
Gerücht: Angeblich wollen sich AMD, Samsung und Qualcomm bei FSR zusammentun.
https://twitter.com/Tech_Reve/status/1720279974748516729
basix
2023-11-03, 12:03:48
Samsung und Qualcomm bedeutet Mobile SoCs. Und damit Verbreitung^3
Damit das klappt, müsste man aber noch an der Performance schrauben. Wenn das nur FSR1 ist, bringt das mMn nicht viel.
Dino-Fossil
2023-11-03, 12:21:40
Ich denke falls es stimmt, dann wird man dabei früher oder später auch auf KI setzen. Mobile Chips haben inzwischen doch eigentlich alle entsprechende Einheiten und seit RDNA3 tut sich auch bei AMD was.
basix
2023-11-03, 12:26:12
Kann gut sein. Schlussendlich ist es mir aber egal, ob mit KI oder nicht. Qualität und Performance sind entscheidend.
Dino-Fossil
2023-11-03, 12:41:40
Der Konsens hier scheint ja zu sein, dass man die Qualität/Performance von DLSS ohne KI-basierte Ansätze nicht wird erreichen können.
Mag stimmen, oder auch nicht. Die Tiraden die hier teils abgeschossen werden sind oft ein bisschen albern, mMn.
Jedenfalls, wenn das Gerücht stimmt und es um mehr geht, als nur die Lizenzierung von FSR(1 :ugly:), also eine echte gemeinsame Weiterentwicklung der Technologie, könnte es schon Fortschritte bringen.
Exxtreme
2023-11-03, 12:54:24
Der Konsens hier scheint ja zu sein, dass man die Qualität/Performance von DLSS ohne KI-basierte Ansätze nicht wird erreichen können.
Ist unwahrscheinlich, dass es funktionieren wird. Ohne KI-Halluzinationen wird man immer mit relativ starken Disocclusion-Problemen zu kämpfen haben. Diese sind ja der Hauptgrund warum FSR2/3 so flimmrig und ausgefranst wirkt. FSR2/3 und auch TAA brauchen Informationen aus vergangenen Bildern um sie für das aktuelle Bild wiederverwenden zu können. Sind diese Informationen aber schlicht nicht da bzw. FSR erkennt sie nicht als wiederverwertbare Informationen dann hat man ein unbehandeltes Bild, welches auch noch in einer niedrigeren Auflösung vorliegt. Und das flimmert halt. Xess und DLSS erfinden die fehlenden Informationen einfach. Diese erfundenen Informationen sind zwar objektiv gesehen falsch, sie können aber subjektiv das Bild trotzdem verbessern.
basix
2023-11-03, 13:39:47
Ich verstehe nicht, wieso man bei Disocclusion nicht das macht, was man zum Teil auch bei Lumen und RTXDI usw. macht: Partiell die Sample-Rate erhöhen. Also dort, wo die Informationen fehlen, mehr Daten generieren. Ist wie eine Art Variable Rate Shading in den Bildbereichen mit Disocclusion
aufkrawall
2023-11-03, 13:43:08
Diese erfundenen Informationen sind zwar objektiv gesehen falsch
Wenn es näher an Ground Truth ist (was man ggf. auch ähnlich der Güte von Videokompression objektiv beziffern kann), ist es auch objektiv "richtiger". ;)
Natürlich stellt sich dann auch die Frage, wie man andere Fehler wie das Smearing bewertet.
Achill
2023-11-03, 14:25:50
Ich verstehe nicht, wieso man bei Disocclusion nicht das macht, was man zum Teil auch bei Lumen und RTXDI usw. macht: Partiell die Sample-Rate erhöhen. Also dort, wo die Informationen fehlen, mehr Daten generieren. Ist wie eine Art Variable Rate Shading in den Bildbereichen mit Disocclusion
Bitte Quelle, das dies NV? RTXDI macht ...
Weil es eine zweiteilige Lösung ist:
- Auf der einen Seite müsste es eine Unterstützung in FSR und deren Algorithmen geben, dass der Input für bestimmte Bereiche eines Frames im Gegensatz zum restlichen Teil des Frames in einer höheren Auflösung gerendert wird.
- Dann muss die Engine auch die Fälle kennen, wo Daten aus dem vorherigen Bild nicht zu gebrauchen sind und für diese Bereiche mehr Daten liefert.
Imho muss man daran denken, dass es nicht ein einfaches Bild / Ausschnitt ist, was die Engine liefern muss, sondern zumindest bei FSR2 (laut älterer Folie) "Scene Color", "Scene Depth", "Scene Motion" und ggf. noch diese verschiedenen Masks dies es seit den 2.x Versionen gibt.
Was gibt es ansonsten noch zu sagen? Mir ist bei den letzten Tests aufgefallen, dass bei Aussagen zur Qualität idR nicht mit angegeben wird, was die Schärfen im Spiel war. Insb. bei FSR2 scheinen die Entwickler das gern mal auf 50% oder gar 80% zu setzen ...
Ich verstehe nicht, wieso man bei Disocclusion nicht das macht, was man zum Teil auch bei Lumen und RTXDI usw. macht: Partiell die Sample-Rate erhöhen.
Mit Rasterizing wird das schwierig, das müsste man mit Raytracing machen.
Vor allem kann man das nicht als als allgemein gültige Library für (fast) alle Spiele machen, das müsste explizit im jeweiligen Spiel implementiert werden.
Diese sind ja der Hauptgrund warum FSR2/3 so flimmrig und ausgefranst wirkt.
Der Hauptgrund ist weil AMD alles macht um auf Screenshots gut dazustehen.
Man kann auch mit TAA-Basierten Verfahren ohne NN wesentlich bessere Ergebnisse erreichen, das geht dann eben auf Kosten der Bildschärfe.
Exxtreme
2023-11-03, 14:39:21
Ich verstehe nicht, wieso man bei Disocclusion nicht das macht, was man zum Teil auch bei Lumen und RTXDI usw. macht: Partiell die Sample-Rate erhöhen. Also dort, wo die Informationen fehlen, mehr Daten generieren. Ist wie eine Art Variable Rate Shading in den Bildbereichen mit Disocclusion
Die Frage ist, ob die Hardware das überhaupt hergibt, dass man partiell in einer höheren Auflösung sampeln kann. Und wenn sie es kann dann ist die Frage wieviel Performance das insgesamt kostet. Denn man muss ja auch noch vorher ermitteln wo man in einer höheren Auflösung sampeln muss. Und das kann ebenfalls Performance kosten. Denn das ist ja nicht überall nötig.
Man kann auch mit TAA-Basierten Verfahren ohne NN wesentlich bessere Ergebnisse erreichen, das geht dann eben auf Kosten der Bildschärfe.
Dann hast du aber das Problem, dass das unter dem Strich keine Verbesserung ist sondern teils eine Verbesserung und teils eine Verschlechterung.
Dann hast du aber das Problem, dass das unter dem Strich keine Verbesserung ist sondern teils eine Verbesserung und teils eine Verschlechterung.
Ein wenig blur wäre das viel kleinere Übel als die Flackerei die FSR präsentiert.
The_Invisible
2023-11-03, 18:52:27
In WRC ist FSR anscheinend "unbenutzbar" laut computerbase, das ist jetzt langsam schon eine Serie... https://www.computerbase.de/2023-11/wrc-benchmark-test/
ComputerBase wird dieses Mal das Upsampling nicht explizit analysieren, hat sich dies aber durchaus genauer angesehen. DLSS und TSR sind dabei die klaren Gewinner, FSR ist dagegen unbenutzbar. Denn AMDs Technologie kommt mit der Vegetation im Spiel und der dazugehörigen Kameradrehung überhaupt nicht zurecht – die Disocclusion-Problematik sorgt für eine Flimmerorgie.
Wird Zeit das AMD mit ihrem AI FSR rausrückt...
DrFreaK666
2023-11-03, 19:09:28
Sieht irgendwie nach einem UE-Problem aus. Bei Forza wars anscheinend in Ordnung.
In Ultra HD erzeugen dabei sowohl DLSS „Quality“ als auch FSR „Quality“ eine gute Bildqualität, die als gleichwertig mit der nativen Bildqualität bezeichnet werden kann. Die fehlenden Renderpixel werden sowohl bezüglich der Details als auch der Stabilität vom Upsampling gut ausgeglichen, beim Fahren wird kaum ein Unterschied auffallen. FSR hat die klassischen Disocclusion-Probleme, was vor allem bei den Streckenzäunen leicht auffällt. Davon abgesehen gibt es aber wenig zu kritisieren.
basix
2023-11-03, 19:51:40
Bitte Quelle, das dies NV? RTXDI macht ...
RTXDI basiert auf ReSTIR
https://cwyman.org/papers/hpg21_rearchitectingReSTIR.pdf
Seeing disocclusion noise similar to Figure 11 across various scenes, we found that with modern denoisers [NVI20] a single spatial tap is frequently sufficient for most disocclusions. Developers targeting higher quality or 30 Hz framerates may want 2 or 3 spatiotemporal samples. When using more than one, spatiotemporal samples should be adaptively used in just disoccluded regions; this targets the additional cost exactly where these computations actually impact quality.
Keine 100% Verifizierung meines Claims, die Umsetzung wäre aber naheliegend wenn das Nvidias Ingenieure selbst beschreiben ;)
Wenn die Qualität ausreichend ist (z.B. langsame Bewegungen usw.) muss man es laut Wyman (Autor des obigen Papers) natürlich nicht machen.
Exakt das selbe liesse sich doch auch mit DLSS / FSR2 etc. umsetzen? Via den eh schon vorhandenen Disocclusion Masks (welche die Engine liefert?) und Variable Rate Shading oder so.
Edit: Die Disocclusion Mask wird anscheinend von FSR2 berechnet, anhand der Engine Inputs. Man müsste hier also einen Feedback-Loop einbauen -> Frame N+1 bekommt die Disocclusion Mask von Frame N als Input für VRS in der Engine
https://gpuopen.com/manuals/fidelityfx_sdk/fidelityfx_sdk-page_techniques_super-resolution-temporal/
Relex
2023-11-04, 10:10:33
Dass AMD FSR nun allen Spielern, von Konsole über PC über Mobile aufs Auge drücken muss ist eine Katastrophe.
Die machen keine Anstalten den Algorithmus zu verbessern, bei jedem neuen Spiel fällt FSR gegenüber der Konkurrenz immer mehr zurück und trotzdem ist man so selbstbewusst, es überall mit rein zu mogeln.
Ich finde, gerade wenn die Qualität so weit zurückfällt sollte das rein optional sein.
Sieht irgendwie nach einem UE-Problem aus. Bei Forza wars anscheinend in Ordnung.
CB fand auch die Bildqualität von FSR in AW2 gut. Dabei war das flimmern fast gruseliger als das Spiel...
Exxtreme
2023-11-04, 10:14:09
AMD selber drückt wohl gar nichts rein. Das machen die Spielefirmen schon ganz alleine. Und der Witz ist, diese Büchse der Pandora hat Nvidia aufgemacht. :freak:
horn 12
2023-11-04, 10:14:27
Dann sieh dir mal die Neuen FSR 3.0 Videos an
Die Beiden Parade Beispiele /Ende September waren halt noch nicht komplett Überzeugend,-
und AMD versprach Besserung bei der Bildqualität.
Die sind einfach wieder wahnsinnig spät dran. Ich würde sogar sagen, die haben erst mit der Ankündigung von FSR3 ernsthaft angefangen das Problem überhaupt zu überdenken. Die haben bis FSR3 mMn ernsthaft geglaubt, dass mit FSR2.2 der Peak erreicht wurde.
Da haben sie ja Glück, dass die Arbeitsleistung, die für RDNA4 geplant war ins Upsampling umgeleitet werden kann. Letztendlich wird AMD nicht um eine KI-Technik herumkommen, das muss dann natürlich auf RDNA3 beschränkt werden, weil nur der genug KI-Leistung hat mMn. Sie haben ja auch begonnen ihre eigene KI-Software für RDNA3 endlich mal ernst zu nehmen.
DrFreaK666
2023-11-04, 10:24:01
...CB fand auch die Bildqualität von FSR in AW2 gut. Dabei war das flimmern fast gruseliger als das Spiel...
Da ist CB plötzlich nicht mehr in Ordnung, nur wenns um Kontra FSR geht :ugly:
Cherrypicking?
AMD Partners with 11 bit – Future Games Will Feature FSR 3, Be Optimized for Ryzen and Radeon Hardware
https://wccftech.com/amd-partners-with-11-bit-future-games-will-feature-fsr-3-be-optimized-for-ryzen-and-radeon-hardware/
Linmoum
2023-11-04, 11:16:03
Die machen keine Anstalten den Algorithmus zu verbessern, bei jedem neuen Spiel fällt FSR gegenüber der Konkurrenz immer mehr zurück und trotzdem ist man so selbstbewusst, es überall mit rein zu mogeln.
Ich finde, gerade wenn die Qualität so weit zurückfällt sollte das rein optional sein.
Das Problem ist ja, dass es die Grundlage für FMF bildet und letzteres dadurch in diesem Zustand eigentlich völlig unbrauchbar ist. Kein NV-Nutzer tut sich FSR an, wenn er DLSS als Option hat. Kein Intel-Nutzer tut sich FSR an, wenn er XeSS oder TSR nutzen kann. Kein AMD-Nutzer wird sich FSR antun, wenn er stattdessen TSR nutzen kann...
Statt ständig neue Features halbherzig und halbfertig auf den Markt zu schmeißen, sollten sie erst einmal bestehende Schwachstellen - die in dem Fall ja sogar Grundlage für FMF ist - ausmerzen.
robbitop
2023-11-04, 11:36:43
Du hast vergessen dass alle XeSS dp4a nutzen können was auch deutlich besser geworden ist - und man kann die dlls upgraden. Das finde ich bei FSR wirklich schade dass das nicht geht.
Exxtreme
2023-11-04, 11:40:10
Das finde ich bei FSR wirklich schade dass das nicht geht.
Gehen würde das schon. Nur müssten die Entwickler der Spiele das auch so vorsehen. Bei DLSS und Xess werden sie von der Lizenz und der Distribution dieser Technologie dazu gezwungen. AMD zwingt die Entwickler dazu nicht da alles Opensource ist.
robbitop
2023-11-04, 11:56:18
Ja aber man kann den Quellcode ja so ausliefern, dass out of the box dlls erzeugt werden. Entsprechend müsste der dev sich aktiv dagegen entscheiden und das umprogrammieren.
Die Mühe würde sich wohl kaum einer machen.
DrFreaK666
2023-11-04, 12:13:25
...Statt ständig neue Features halbherzig und halbfertig auf den Markt zu schmeißen, sollten sie erst einmal bestehende Schwachstellen - die in dem Fall ja sogar Grundlage für FMF ist - ausmerzen.
FMF funktioniert ohne und mit jedem Upscaler. Nur FSR3 mit FG ist auf FSR beschränkt
Exxtreme
2023-11-04, 12:16:02
So ein Aufwand scheint es nicht zu sein FSR-DLLs zu erzeugen. Selbst CapFrameX macht das:
https://twitter.com/CapFrameX/status/1567968973509242881
Womöglich ist das FSR-Projekt schon so strukturiert, dass es ohne Probleme funktioniert. Nur die Entwickler enscheiden sich aktiv dagegen. Bei FSR können sie das.
robbitop
2023-11-04, 12:26:59
Das bringt dir nur nichts, wenn die Spiele es nicht annehmen. Das Spiel muss selbst DLLs haben, welche man ersetzen kann.
Der Code müsste so sein, dass wenn er in's Spiel integriert wird, automatisch DLLs erzeugt, die möglichst hoch kompatibel sind.
Exxtreme
2023-11-04, 12:35:49
Und das geht nicht. Da das nicht der Teil des FSR-Codes ist sondern wie ein Projekt gebaut wird. Und wie ein Entwickler sein Projekt baut, darauf hat AMD absolut Null Einfluss. Und mit einer Opensource-Lizenz kann man auch keine Vorschriften machen. Sie können es auch nicht so machen, dass das Erstellen und Ausliefern von DLLs irgendwie einfacher ist als es nicht zu tun. Es ist sogar so, dass DLLs einbinden praktisch immer ein Mehraufwand ist als eine Bibliothek direkt einzubinden. DLLs zu laden verlängert auch Startzeiten von Programmen ein wenig. Und deshalb ist die Situation so wie sie ist.
DrFreaK666
2023-11-04, 12:39:17
AMD arbeitet künftig ja anscheinend mit Samsung und Qualcomm zusammen. Vielleicht kommen von deren Seiten Verbesserungen, oder AMD äußert sich endlich mal und kündigt was an
edit
Baldur’s Gate 3 updated with FidelityFX Super Resolution 2.2 support
https://videocardz.com/newz/baldurs-gate-3-updated-with-fidelityfx-super-resolution-2-2-support
Linmoum
2023-11-04, 12:48:44
FMF funktioniert ohne und mit jedem Upscaler. Nur FSR3 mit FG ist auf FSR beschränktFMF ist Frame Generation und genau das funktioniert eben nicht mit oder ohne andere(n) Upscaler(n), sondern setzt zwingend FSR3 voraus.
DrFreaK666
2023-11-04, 12:54:58
Sollte eigentlich klar sein, dass ich damit das treiberbasierte FG gemeint habe
The_Invisible
2023-11-04, 13:41:33
Die sind einfach wieder wahnsinnig spät dran. Ich würde sogar sagen, die haben erst mit der Ankündigung von FSR3 ernsthaft angefangen das Problem überhaupt zu überdenken. Die haben bis FSR3 mMn ernsthaft geglaubt, dass mit FSR2.2 der Peak erreicht wurde.
Da haben sie ja Glück, dass die Arbeitsleistung, die für RDNA4 geplant war ins Upsampling umgeleitet werden kann. Letztendlich wird AMD nicht um eine KI-Technik herumkommen, das muss dann natürlich auf RDNA3 beschränkt werden, weil nur der genug KI-Leistung hat mMn. Sie haben ja auch begonnen ihre eigene KI-Software für RDNA3 endlich mal ernst zu nehmen.
Die haben mit FSR3 begonnen als Nvidia DLSS3 angekündigt hat, anders lässt sich das "soon" von einem Jahr nicht erklären. Da man jetzt ja trotzdem schon Rdna3 only features eingebaut hat, hätte man gleich ein ki-basiertes Rdna3 only fsr rausbringen können.
Zudem fsr3 FG auch noch von fsr2 abhängt und da irgendwie immer mehr schlechte Reviews kommen ist die Frage ob das nicht vergeudete Entwicklung war. Ich hoffe Mal sie arbeiten im Hintergrund schon an einem AI-FSR...
Achill
2023-11-04, 15:08:53
Ja aber man kann den Quellcode ja so ausliefern, dass out of the box dlls erzeugt werden. Entsprechend müsste der dev sich aktiv dagegen entscheiden und das umprogrammieren.
Die Mühe würde sich wohl kaum einer machen.
Wie Exxtreme schon vermutet ...
So ein Aufwand scheint es nicht zu sein FSR-DLLs zu erzeugen. Selbst CapFrameX macht das:
https://twitter.com/CapFrameX/status/1567968973509242881
Womöglich ist das FSR-Projekt schon so strukturiert, dass es ohne Probleme funktioniert. Nur die Entwickler enscheiden sich aktiv dagegen. Bei FSR können sie das.
.. ist es im GitHub Projekt von AMD es seit Version 2.0.1 (22.06.2022) möglich für Entwickler, FSR2 als DLL zu bauen. Es ist also eine reine Entscheidung der Studios/Teams/Entwickler dies zu tun oder eben nicht. Siehe: https://github.com/GPUOpen-Effects/FidelityFX-FSR2/blob/c8fc17d281665927e414b6b8117873cccbac0990/build/GenerateSolutionsDLL.bat
Relex
2023-11-04, 15:30:33
Da ist CB plötzlich nicht mehr in Ordnung, nur wenns um Kontra FSR geht :ugly:
Cherrypicking?
https://wccftech.com/amd-partners-with-11-bit-future-games-will-feature-fsr-3-be-optimized-for-ryzen-and-radeon-hardware/
Hast recht, könnte man als Cherrypicking bezeichnen. Aber letztendlich sag ich nur was ich denke. Ich fand das Fazit in dem Fall eben völlig daneben.
DrFreaK666
2023-11-04, 15:37:01
...
Zudem fsr3 FG auch noch von fsr2 abhängt und da irgendwie immer mehr schlechte Reviews kommen...
Zeig mir mal diese Fülle an negativen Reviews. AFMF kam vor Kurzem (vor 10 Tagen) bei PCGH relativ gut weg
Ojan2m9KT5Y
Zeig mir mal diese Fülle an negativen Reviews. AFMF kam vor Kurzem (vor 10 Tagen) bei PCGH relativ gut weg
https://youtu.be/Ojan2m9KT5Y
Der ist nicht kompetent genug.
Achill
2023-11-04, 16:44:24
RTXDI basiert auf ReSTIR
https://cwyman.org/papers/hpg21_rearchitectingReSTIR.pdf
Keine 100% Verifizierung meines Claims, die Umsetzung wäre aber naheliegend wenn das Nvidias Ingenieure selbst beschreiben ;)
Wenn die Qualität ausreichend ist (z.B. langsame Bewegungen usw.) muss man es laut Wyman (Autor des obigen Papers) natürlich nicht machen.
Exakt das selbe liesse sich doch auch mit DLSS / FSR2 etc. umsetzen? Via den eh schon vorhandenen Disocclusion Masks (welche die Engine liefert?) und Variable Rate Shading oder so.
Edit: Die Disocclusion Mask wird anscheinend von FSR2 berechnet, anhand der Engine Inputs. Man müsste hier also einen Feedback-Loop einbauen -> Frame N+1 bekommt die Disocclusion Mask von Frame N als Input für VRS in der Engine
https://gpuopen.com/manuals/fidelityfx_sdk/fidelityfx_sdk-page_techniques_super-resolution-temporal/
In meinen Verständnis (hab das Paper nur schnell gelesen, wenn müsste man da deutlich mehr Zeit investieren) zielt ReSTIR darauf ab, die Anzahl der benötigten Strahlen zu reduzieren (oder besser mit den verfügbaren Budget auszukommen, siehe 6.1) bzw. die verfügbaren (im Sinne eines Budgets) möglichst effizient zu nutzen indem man räumliche und zeitliche Informationen(wieder) benutzt.
Es wird aber nicht die Ziel-Auflösung geändert sondern entschieden, für welche Stellen man mehr/weniger Ray/Probes braucht/nutzt. Das Paper geht auf Disocclusion ein und das dies ein solcher Fall ist. Damit ReSTIR erfüllt im Context RTXDI dies, ist aber auch gleichzeitig der entsprechende Unterschied, es ist nicht nachgelagert sondern integriert. ReSTIR wird im aktuellen Frame genutzt und nicht im N+1ten ...
Für Upsampling muss die Erkennung von Disocclusion (um bei diesen Beispiel zu bleiben) in die Engine, dann können die Bildbereiche die verdeckt waren, dann in einer höheren Auflösung - ich weiß nur nicht wie komplex / effizient dies ist.
aufkrawall
2023-11-04, 16:48:16
Bevor ihr alle wieder die Auflösung für mitunter >50% der Bildbereiche erhöhen wollt :freak: , vielleicht erstmal komplexeren Content in Fortnite mit dem nächsten Chapter und den TSR-Verbesserungen von 5.4 abwarten.
Bei dem aktuellen Retro-Content ist bei 50% jedenfalls eher das Pixel-Jittering das Problem anstatt Disocclusion.
Mal abgesehen davon, dass auch bei FSR nativ die Disocclusion völliger Müll ist. Das wird ständig nicht verstanden...
robbitop
2023-11-04, 18:47:30
Und das geht nicht. Da das nicht der Teil des FSR-Codes ist sondern wie ein Projekt gebaut wird. Und wie ein Entwickler sein Projekt baut, darauf hat AMD absolut Null Einfluss. Und mit einer Opensource-Lizenz kann man auch keine Vorschriften machen. Sie können es auch nicht so machen, dass das Erstellen und Ausliefern von DLLs irgendwie einfacher ist als es nicht zu tun. Es ist sogar so, dass DLLs einbinden praktisch immer ein Mehraufwand ist als eine Bibliothek direkt einzubinden. DLLs zu laden verlängert auch Startzeiten von Programmen ein wenig. Und deshalb ist die Situation so wie sie ist.
Dann kann man aber Einfluss ausüben. Über die Optimization guidelines und über dev-rel.
Die Vorteile kann man mit XeSS und DLSS sehen wie man mit neuen DLLs die die BQ auch von älteren Titeln ordentlich boosten kann.
robbitop
2023-11-04, 18:52:13
Zeig mir mal diese Fülle an negativen Reviews. AFMF kam vor Kurzem (vor 10 Tagen) bei PCGH relativ gut weg
https://youtu.be/Ojan2m9KT5Y
Phil hat AFMF eigentlich gar nicht bewertet in dem Video (im Sinne von wie gut oder schlecht es sich anfühlt). Nur was Probleme bereitet und was man wie konfigurieren muss.
Exxtreme
2023-11-04, 18:57:12
Die Vorteile kann man mit XeSS und DLSS sehen wie man mit neuen DLLs die die BQ auch von älteren Titeln ordentlich boosten kann.
Die Frage ist dann wie groß die Zielgruppe der DLL-Tauscher ist. Und es könnte auch die Supportkosten nach oben treiben wenn die Leute inkompatible DLLs benutzen. Denn in solchen Fällen ist immer das Spiel schuld und nicht ein verbasteltes System.
aufkrawall
2023-11-04, 19:06:21
Deshalb haben es Intel und Nvidia ja auch problemlos geschafft, das kompatibel zu halten. :rolleyes:
Quatsch-Argument.
Exxtreme
2023-11-04, 19:16:53
Deshalb haben es Intel und Nvidia ja auch problemlos geschafft, das kompatibel zu halten. :rolleyes:
Quatsch-Argument.
Nvidia hat das nicht geschafft.
aufkrawall
2023-11-04, 19:29:08
Natürlich haben sie das. Neuere DLL-Versionen sind gezielt abwärtskompatibel gehalten worden.
Exxtreme
2023-11-04, 19:50:09
Nicht 100%ig:
https://www.reddit.com/r/nvidia/comments/zy68uh/psa_dlss_dll_version_251_completely_disables_dlss/
Ein anderer Punkt ist, wenn man Bibliotheken nur in binärer Form ausliefert dann achtet man sehr drauf, dass man abwärtskompatibel bleibt. Ansonsten zwingt man die Benutzer dazu den Änderungen hinterher zu programmieren. Und das kann die Adaption einer Bibliothek stark einschränken.
aufkrawall
2023-11-04, 20:05:57
Nicht 100%ig:
Das ist jetzt aber ein arg billiger Strohhalm...
The_Invisible
2023-11-04, 20:09:58
Nicht 100%ig:
https://www.reddit.com/r/nvidia/comments/zy68uh/psa_dlss_dll_version_251_completely_disables_dlss/
Ein anderer Punkt ist, wenn man Bibliotheken nur in binärer Form ausliefert dann achtet man sehr drauf, dass man abwärtskompatibel bleibt. Ansonsten zwingt man die Benutzer dazu den Änderungen hinterher zu programmieren. Und das kann die Adaption einer Bibliothek stark einschränken.
Das ist ja eigentlich der Hauptzweck von dll/so Dateien das man nur die Lib austauscht und nicht gleich alles neu compilen muss, unter windows vielleicht nicht so (dll hell ahoi) aber unter Linux gang und gäbe.
Tesseract
2023-11-04, 20:31:09
Nicht 100%ig:
https://www.reddit.com/r/nvidia/comments/zy68uh/psa_dlss_dll_version_251_completely_disables_dlss/
das hat nichts mit "schaffen" zu tun. der filter war schlecht, wurde von allen seiten kritisiert und seine entfernung hat subjektiv die bildqualität deutlich verbessert ohne was kaputt zu machen. war eine überfällige, gute entscheidung und kein kompatibilitätsbruch.
Exxtreme
2023-11-04, 20:39:06
das hat nichts mit "schaffen" zu tun. der filter war schlecht, wurde von allen seiten kritisiert und seine entfernung hat subjektiv die bildqualität deutlich verbessert ohne was kaputt zu machen. war eine überfällige, gute entscheidung und kein kompatibilitätsbruch.
Trotzdem ist das ein Bruch der Abwärtskompatibilität.
aufkrawall
2023-11-04, 20:52:15
Trotzdem ist das ein Bruch der Abwärtskompatibilität.
Es ist trotzdem nur ein (unnützes und kontraproduktives) Zusatzfeature gestrichen worden, die Kernfunktionalität ist völlig unbeeinträchtigt. Aber das unterschlägst du natürlich.
Achill
2023-11-04, 20:59:42
Entschuldigt, aber was hier schon wieder passiert, ist doch Quatsch.
Wir haben zu FSR 2.x festgestellt:
- Kann direkt als Code integriert werden, wegen Open Source Lizenz
- Kann als DLL gebaut und damit gelinkt genutzt werden
- Studios/Teams entscheiden wie sie es einsetzen
=> Die Adressaten für den ggf. persönlichen Wunsch, dass FSR2 in jeweiligen Spiel als dll genutzt wird, sind damit die Produzenten und nicht AMD.
Was wir nicht wissen aber Einfluss haben kann:
- Studios/Teams könnten Quellcode vs einer DLL vorziehen
- AMD würde evtl. mit einer closed Version (Code, Lizenz) schlechter dastehen
=> Das bedarf einer Markanalyse und das sind nicht nicht wir hier im Forum. Da AMD nicht den Markt dominiert, wäre es nicht von Vorteil den Studios/Teams potenziell Steine in den Weg zu legen (AMD möchte das FSR integriert wird). Damit scheint mir die offene Lösung der freien Wahl ein guter Weg zu sein.
Was nichts mit FSR zu tun hat, aber hier wie auch bei anderen Themen passiert:
- Diskussion mittels negativen belegten Randthemen ablenkt oder neu gestartet
- Ursache, Fakten und Wirkung werden gern liegen gelassen und es erfolgt schnell die Verallgemeinerung "AMD müsste ..."
=> Eine Diskussion ob oder wie eine DLL Kompatibel gehalten wird, bringt uns jetzt inhaltlich wie weiter? Ist es nicht so, dass für 99% der Spieler es ein Update vom Spiel bedarf, damit diese die Verbesserung bekommen, da diese nicht eine DLL tauschen würden? Wenn dem so ist und es ein Update bedarf, dann ist es doch wieder egal ob statisch integriert oder als DLL vorliegend ...
=> Eine (imho) realistische Betrachtung ob AMD es könnte oder es vorteilhaft wäre, erfolgt nicht. Es erfolgt die Annahme, dass etwas was bei X funktioniert auch bei Y möglich sein müsste.
Sollten wir als Kinder nicht alle die Erfahrung gemacht haben, dass nicht Alles was die gleiche Form oder Größe wie ein Stück Holz hat auf dem Wasser schwimmt? Nur weil etwas (in Teilen) den Anschein einer Gleichheit hat, muss es das noch lange nicht sein ...
aufkrawall
2023-11-04, 21:08:04
Wir hatten die Diskussion auch schon mal, und leider geht es hier trotzdem wieder komplett am Wesentlichen vorbei: FSR 2 kann nicht nur durch den User nicht geupdatet werden, wenn es nicht als DLL vorliegt, sondern auch als DLL, weil offenbar keine ausreichende Abstraktion vorhandene ist und bei DLL-Austausch i.d.R. jedes Spiel einfach crasht. Die ganze Diskussion ist also völlig unnötig. Zudem 2.2 sowieso nichts nennenswert gegenüber 2.1 gebracht hat. Das kann man ja jetzt mal konstatieren.
Tesseract
2023-11-04, 21:09:18
Trotzdem ist das ein Bruch der Abwärtskompatibilität.
nicht aus schnittstellensicht und aus renderoutputsicht nur zum vorteil der user, ergo irrelevant.
Trotzdem ist das ein Bruch der Abwärtskompatibilität.
Ist es nicht, es funktioniert immer noch einwandfrei.
basix
2023-11-05, 12:44:43
Wir hatten die Diskussion auch schon mal, und leider geht es hier trotzdem wieder komplett am Wesentlichen vorbei: FSR 2 kann nicht nur durch den User nicht geupdatet werden, wenn es nicht als DLL vorliegt, sondern auch als DLL, weil offenbar keine ausreichende Abstraktion vorhandene ist und bei DLL-Austausch i.d.R. jedes Spiel einfach crasht. Die ganze Diskussion ist also völlig unnötig. Zudem 2.2 sowieso nichts nennenswert gegenüber 2.1 gebracht hat. Das kann man ja jetzt mal konstatieren.
In welchen Spielen ist FSR2 als DLL vorhanden?
robbitop
2023-11-05, 13:51:01
zB RDR2. Ersetzt man die DLL crasht es.
Exxtreme
2023-11-05, 14:30:43
Ist es nicht, es funktioniert immer noch einwandfrei.
Nein, tut es nicht. Sobald du z.B. in Elder Scrolls Online die DLL ersetzt wird das Bild noch viel verwaschener als es bereits jetzt schon ist. Das ist auch der Grund warum mir diese Problematik bekannt ist weil ich das gemacht habe.
aufkrawall
2023-11-05, 14:35:31
Jedes Spiel wird mit TAA/U ohne Sharpen unschärfer, ganz was Neues. :eek:
Natürlich sieht das in einem Spiel ohne angepasstes Mip-Bias dann furchtbar aus. Trotzdem war das Ergebnis mit dem alten Sharpen nicht besser, weil es in Bewegung Kernschrott war. Wie in jedem anderen Spiel mit DLSS Sharpen auch.
horn 12
2023-11-05, 15:02:15
Man kann Gespannt auf MORGEN sein, beim Game: The Invincible mit FRS 3.0
Alle UE5 Games unterstützet von Haus aus bereits FSR 3.0 und dies sind in Zukunft wohl Einige!
Nein, tut es nicht. Sobald du z.B. in Elder Scrolls Online die DLL ersetzt wird das Bild noch viel verwaschener als es bereits jetzt schon ist. Das ist auch der Grund warum mir diese Problematik bekannt ist weil ich das gemacht habe.
Ein verwascheneres Bild ist kein Bruch der Kompatbilität.
Genau genommen ist es sogar Sinn des ganzen, ein mit dem DLL-Tausch ein anderes Ergebnis zu bekommen, ob dies nun besser oder schlechter ist darüber kann man ja diskutieren.
Relex
2023-11-06, 19:04:02
Man kann Gespannt auf MORGEN sein, beim Game: The Invincible mit FRS 3.0
Alle UE5 Games unterstützet von Haus aus bereits FSR 3.0 und dies sind in Zukunft wohl Einige!
Das game scheint wohl trotz AMD als Technikpartner nur FSR2 und DLSS zu unterstützen.
Angekündigt wurde es zuerst nur mit FSR2.
Nach dem Starfield debakel ist der DLSS Support nun aber auch logisch. Aber gut, das ist ein anderes Thema...
horn 12
2023-11-06, 19:07:41
War nicht bei Videocardz FSR 3.0 angekündigt zum Release
Da hat sich AMD weder verrannt!
aufkrawall
2023-11-06, 19:09:05
Tja, wo bleibt der verdammte Source Code auf GitHub?
Aber gut. Wenn es kein hohles Versprechen war, dass diese Version dann besseres Frame Pacing haben soll, darf das gerne auch noch etwas dauern. Ich würde es schon gerne mal nutzen. Aber wenn es zusätzliche Ruckler verursacht, ist der Sinn der Sache etwas verfehlt...
Edit: Das erzwungene AA schon wieder verdrängt...
DrFreaK666
2023-11-06, 19:11:41
...Angekündigt wurde es zuerst nur mit FSR2...
Wo war es nur mit FSR angekündigt? Hast bestimmt ein Screenshot-Beweis
Savay
2023-11-06, 19:12:38
Die akutelle AFMF Version hat doch mittlerweile brauchbares Pacing...warum sollte eine aktuelle FSR3 Version das dann nicht haben?!
Ist doch der gleiche Wein in anderen Schläuchen.
aufkrawall
2023-11-06, 19:16:30
Warum sollte AFMF nicht mit Vsync funktionieren, während AMD es für nativ implementiertes FSR 3 dringend empfiehlt? Weil es halt so ist. Warum, musst du AMD fragen.
Ist doch der gleiche Wein in anderen Schläuchen.
Nein, AFMF wird ohne Game-Input qualitativ immer deutlich zurückliegen.
horn 12
2023-11-07, 21:20:37
https://www.youtube.com/watch?v=6sysgR-_X8A
The Invisible mit FSR 2.0 eben nur :-(
AMD, bitte Wo bleibt das viel umworbene FSR 3.0
AMD, bitte Wo bleibt das viel umworbene FSR 3.0
Nachdem es aktuell nur Dienstags Nacht bei Vollmond ordentlich funktioniert, ist es durchaus gut das erstmal zu fixen, bevor man es in dem broken state in weitere Spiele implementiert.
Weiß jemand, wie's um das Plugin für die Unreal Engine 5 steht? Ich dachte bis eben, dass das mittlerweile verfügbar sei, aber ist es anscheinend nicht. In einem Artikel von Ende September steht, dass sie daran arbeiten: https://community.amd.com/t5/gaming/amd-fsr-3-now-available/ba-p/634265
"Additionally, as we mentioned at our Gamescom reveal, we are working with Epic Games to release an AMD FSR 3 plug-in for Unreal® Engine 5 to help make integration of FSR 3 into UE5 games as easy as possible."
Aber im Unreal-Marketplace steht weiterhin explizit nur FSR 2.2.1: https://www.unrealengine.com/marketplace/en-US/product/fidelityfx-super-resolution-2
Zwei Minuten später ... gefunden. :D Das dürfte euch auch interessieren:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85908&stc=1&d=1699391039
MfG
Raff
dildo4u
2023-11-08, 07:08:36
Hoffentlich demonstriert AMD mal wo es besser als TSR sein soll.
Ideal wäre wenn man TSR plus Framegen nutzen könnte wird aber vermutlich nie gehen.
Achill
2023-11-08, 11:00:04
Hoffentlich demonstriert AMD mal wo es besser als TSR sein soll.
Ideal wäre wenn man TSR plus Framegen nutzen könnte wird aber vermutlich nie gehen.
Warum? Hat das AMD behauptet oder als Ziel gesetzt? TSR ist doch auf allen GPUs und Konsolen lauffähig.
Wie schon im XeSS Thread ausgeführt, ist TSR direkt in die UE5 integriert. Epic kann TSR auf Nanite und Lumen abstimmen und auch leichter auf andere/mehr Daten zurückgreifen als die Upscaler, die nur als Plugins vorliegen.
Wenn also TSR also keine Nachteile zu FSR2/3 hat, dann brauche ich imho kein FSR in UE5 Games ...
DrFreaK666
2023-11-08, 11:42:55
wie sieht es mit der Performance aus im Vergleich?
blaidd
2023-11-08, 12:02:02
Warum sollte AFMF nicht mit Vsync funktionieren, während AMD es für nativ implementiertes FSR 3 dringend empfiehlt? Weil es halt so ist. Warum, musst du AMD fragen.
Zumindest mit dem Vsync oder dem Frame Limit im AMD-Treiber sollte das doch eigentlich nicht so schwer sein. Weshalb das (bisher) nicht funktioniert, will mir nicht so recht in den Kopf. Damit könnte man zumindest die FMF doch gut "bändigen" und das ist doch im Prinzip alles in einem System, über das AMD die Kontrolle haben sollte.
Ich würde aber mal davon ausgehen, dass das noch kommt...
EDIT: Die UE 5.3.1 ist btw. schon öffentlich. EDIT2: Sogar schon UE 5.3.2 - da kam offenbar vor Kurzem ein Update.
Warum? Hat das AMD behauptet oder als Ziel gesetzt?
Weil die Unreal Engine nicht das einzige auf weiter Flur ist, und AMD in jeder anderen Engine immer noch meilenweit zurückhängt.
basix
2023-11-08, 21:08:04
EDIT2: Sogar schon UE 5.3.2 - da kam offenbar vor Kurzem ein Update.
gestern ;)
Lustigerweise kam das FSR2 Plugin für UE 5.3.1 vorgestern. Ist das jetzt kompatibel mit 5.3.2?
blaidd
2023-11-09, 16:05:05
gestern ;)
Lustigerweise kam das FSR2 Plugin für UE 5.3.1 vorgestern. Ist das jetzt kompatibel mit 5.3.2?
Interesting. Ich hab gestern nachgeschaut, aber nur FSR 1 für Mobile in der Plug-in-Liste gefunden (auch kein DLSS). Vielleicht kommt das noch nach^^
basix
2023-11-09, 16:11:32
Soweit ich weiss ist das FSR1 Plugin nativ in die Engine integriert. FSR2 und DLSS muss man bei AMD / Nvidia runterladen und manuell installieren. Installationsanleitung bei FSR2: https://gpuopen.com/learn/ue-fsr2/
dargo
2023-11-11, 07:38:27
Spielt hier jemand Starfield mit FSR 2.x und kann das hier bestätigen?
https://youtu.be/5wcdptz2Gy4?si=ksgGgxjBCPOXSAGz&t=587
Mal wieder ein prima Beispiel, dass diverse Fuckups bei FSR 2.x nicht an der Technik sondern an einer verkackten Implementierung der DEVs liegen. Das Flimmern vorher war ja eine Vollkatastrophe.
dildo4u
2023-11-11, 07:47:56
Es sagt im Video das es zwischendurch kaputt gepatcht wurde nicht von Anfang an.
Das ist der aktuelle Stand.
8VH69KuamR4
Achill
2023-11-13, 10:03:04
Spielt hier jemand Starfield mit FSR 2.x und kann das hier bestätigen?
https://youtu.be/5wcdptz2Gy4?si=ksgGgxjBCPOXSAGz&t=587
Mal wieder ein prima Beispiel, dass diverse Fuckups bei FSR 2.x nicht an der Technik sondern an einer verkackten Implementierung der DEVs liegen. Das Flimmern vorher war ja eine Vollkatastrophe.
Ja, kann die Verbesserung mit der Beta bestätigen. Und auch ja zu deinen Punkt bzgl. Umsetzung von den Studios, denke da liegen oft viele der Probleme.
robbitop
2023-11-13, 11:02:42
Welche Implementierung verdient aktuell den Status "Referenz" / "best case" wenn man auf FSR 2.x / 3.x (auf den Upsampling Teil bezogen) schaut?
Das könnte einen guten Referenzpunkt für die Erwartung geben, was zu erwarten ist, wenn die Implementierung gut war.
Exxtreme
2023-11-13, 12:03:24
Wie gut FSR ist, das hängt offenbar maßgeblich vom Content ab. FSR mag keine Vegetation und Transparenzeffekte und viel Bewegung ala viele NPCs/Autos etc.
dargo
2023-11-13, 12:09:41
Welche Implementierung verdient aktuell den Status "Referenz" / "best case" wenn man auf FSR 2.x / 3.x (auf den Upsampling Teil bezogen) schaut?
Das könnte einen guten Referenzpunkt für die Erwartung geben, was zu erwarten ist, wenn die Implementierung gut war.
Puh... imo ist das objektiv schwer zu bewerten da jeder das Ergebnis anders bewertet. Ich fand FSR 2.x in Uncharted sehr gut. Allerdings nicht unbedingt in 1440p + FSR 2.x_Q auf 27" sondern erst in 4k + FSR2.x_Q @1440p auf 27". Ergo inkl. VSR. Imho spielt aber auch nicht nur der Grad der Implementierung seitens DEVs eine große Rolle sondern auch der Content. Bei sehr feinem Content (zb. Stromkabel, feindetalierte Vegetation) hat FSR 2.x Stabilitätsprobleme in Bewegung.
PS: möglicherweise würde mich FSR2.x Native AA in Uncharted @1440p auch schon sehr überzeugen, also ohne VSR. Das gabs damals aber noch nicht, kommt jetzt erst langsam in die Spiele.
Edit:
Mir fällt gerade ein, dass der Punkt mit dem Content eher Spekulation meinerseits ist. Ich kann mich noch an den FSR2.x Mod in RDR2 erinnern. Da gibt es auch viel vom feinen Content und dennoch war FSR2.x dort imo sehr gut was die Bildstabilität angeht. Nur Ghosting bei den Stromkabeln habe ich da in Erinnerung.
Welche Implementierung verdient aktuell den Status "Referenz" / "best case" wenn man auf FSR 2.x / 3.x (auf den Upsampling Teil bezogen) schaut?
Best Case definitiv Diablo 4, ob man das jetzt als Referenz bezeichnen soll, wenn der Best Case hauptsächlich aus der Genrebedingten Limitierung der möglichen Kamerabewegung liegt weiß ich jetzt nicht.
rumpeLson
2023-11-13, 12:27:23
Welche Implementierung verdient aktuell den Status "Referenz" / "best case" wenn man auf FSR 2.x / 3.x (auf den Upsampling Teil bezogen) schaut?
Das könnte einen guten Referenzpunkt für die Erwartung geben, was zu erwarten ist, wenn die Implementierung gut war.
Ich finde FSR 2 in Overwatch 2 sowie Diablo 4 ziemlich gut. In Overwatch 2 fallen mir am ehesten Probleme mit Partikel-/ Transparenzeffekten auf. In Diablo 4 ist mir ehrlich gesagt kein großer Unterschied zu DLSS aufgefallen, außer dass DLSS wie üblich mit sinkender Basis-Auflösung weniger Einbußen in Sachen Bildqualität zur Folge hat.
Beide Spiele machen es Upscalern bzgl. Content aber auch leicht.
War FSR 2 in TLOU oder Ratchet & Clank nicht ganz gut?
dargo
2023-11-13, 12:33:57
War FSR 2 in TLOU oder Ratchet & Clank nicht ganz gut?
Gut ja, perfekt nein.
In TLOU gabs an manchen Stellen Grafikfehler (starkes Ghosting).
YGzN041m1HU
Bei Ratchet & Clank sah das Fell ziemlich mies aus. Gerade in den vielen Cutszenen hatte mich das sehr gestört, deshalb spielte ich es in der nativen Auflösung mit TAA.
Edit:
Gerade nochmal Ratchet & Clank mit 960p Input, ergo 1440p + FSR 2.x_Q nachgeschaut. Es ist nicht nur das Fell. Es gibt auch hier und da wieder Probleme mit der Bildstabilität bei feinen Linien. Zudem gibt es Ghosting bei dem Schriftzug über dem Kopf der Händlerin. Gut würde ich die Implementierung in Ratchet & Clank wirklich nicht bezeichnen. Eher ausreichend bis höchstens befriedigend.
Beide Spiele machen es Upscalern bzgl. Content aber auch leicht.
Nicht nur Content, Overwatch 2 hat nicht mal TAA als Basis, und gegenüber MLAA/SMAA ist es leicht gut auszusehen.
robbitop
2023-11-13, 12:56:55
Edit:
Mir fällt gerade ein, dass der Punkt mit dem Content eher Spekulation meinerseits ist. Ich kann mich noch an den FSR2.x Mod in RDR2 erinnern. Da gibt es auch viel vom feinen Content und dennoch war FSR2.x dort imo sehr gut was die Bildstabilität angeht. Nur Ghosting bei den Stromkabeln habe ich da in Erinnerung.
Bei RDR2 war der FSR 2 Mod besser als die native Implementierung. Ich habe beides Anfang diesen Jahres getestet. In der nativen Implementierung scheint es einige Objekte zu geben die dann Artefakte erzeugen. Bewegtartefakte und Aliasing. Stromkabel und spezifische Objekte die reproduierbar ghosten wie die Bürste mit der man das Pferd bürstet.
War bei DLSS auch so. Habe ich dann bei DLSS nur durch library Wechsel und Erzwingen von anderem Preset und autoexpzsere fixen können.
The_Invisible
2023-11-15, 16:09:55
Zeig mir mal diese Fülle an negativen Reviews. AFMF kam vor Kurzem (vor 10 Tagen) bei PCGH relativ gut weg
Und schon wieder passiert, sogar im Vorzeigetitel Starfield wo AMD Entwickler selber im Code optimieren durften: https://youtu.be/lTd4yl2M6p8?si=pe7s9iPH3wcFqoaX&t=200
:D
DrFreaK666
2023-11-15, 16:13:41
Und schon wieder passiert, sogar im Vorzeigetitel Starfield wo AMD Entwickler selber im Code optimieren durften: https://youtu.be/lTd4yl2M6p8?si=pe7s9iPH3wcFqoaX&t=200
:D
Wie passt das zu meinem Post?
Achso: Gar nicht :P
The_Invisible
2023-11-15, 16:20:01
Klar, du hast ja auf meinen FSR2 Beitrag gequotet...
DrFreaK666
2023-11-15, 16:45:28
Klar, du hast ja auf meinen FSR2 Beitrag gequotet...
Du meinst diesen?
...
Zudem fsr3 FG auch noch von fsr2 abhängt und da irgendwie immer mehr schlechte Reviews kommen...
Wo ist da der Zusammenhang zu Starfield?
Alex spricht von Verbesserungen, nicht, dass es schlechter geworden ist.
Und FSR3 wird in dem Video überhaupt nicht angesprochen
Hater gonna hate?
aufkrawall
2023-11-15, 16:48:34
Und schon wieder passiert, sogar im Vorzeigetitel Starfield wo AMD Entwickler selber im Code optimieren durften: https://youtu.be/lTd4yl2M6p8?si=pe7s9iPH3wcFqoaX&t=200
:D
Nützt halt nichts, wenn Render-Effekte wie diese Hologramme bei FSR 2 offenbar prinzipbedingt ~komplett vom AA-Teil ausgeschlossen sind. TSR in kacke.
Ex3cut3r
2023-11-15, 17:55:51
Du meinst diesen?
Wo ist da der Zusammenhang zu Starfield?
Alex spricht von Verbesserungen, nicht, dass es schlechter geworden ist.
Und FSR3 wird in dem Video überhaupt nicht angesprochen
Hater gonna hate?
Verbesserungen schön und gut, aber eine vollkommene Eliminierung der Probleme wäre halt noch besser. FSR 2.0 ist jetzt wie alt? 2 Jahre? Ich sehe immer noch dieselben Probleme wie beim Launch, vlt. etwas abgeschwächt, in der Regel aber nicht mal das. Das ist einfach mangelhaft. Punkt.
DrFreaK666
2023-11-15, 18:14:39
Verbesserungen schön und gut, aber eine vollkommene Eliminierung der Probleme wäre halt noch besser. FSR 2.0 ist jetzt wie alt? 2 Jahre? Ich sehe immer noch dieselben Probleme wie beim Launch, vlt. etwas abgeschwächt, in der Regel aber nicht mal das. Das ist einfach mangelhaft. Punkt.
Probleme sind natürlich da und sollten endlich mal behoben werden.
Invisible behauptete aber ursprünglich, dass FSR3 von der Presse zerstört wird. Das ist bei Starfield aber nicht der Fall, da es nicht mal FSR3 hat.
Wie ich schrieb: Hater gonna hate
Ex3cut3r
2023-11-15, 18:17:42
Kritik = Hate? Ist mir zu oberflächlich, sry.
DrFreaK666
2023-11-15, 18:46:01
Kritik = Hate? Ist mir zu oberflächlich, sry.
'Schau mal wie scheiße FSR3 in Starfield ist' ist keine Kritik sondern Schwachsinn
Zeig mir mal diese Fülle an negativen Reviews. AFMF kam vor Kurzem (vor 10 Tagen) bei PCGH relativ gut weg
https://youtu.be/Ojan2m9KT5Y
Ein absolut nichtssagendes Video, dass im Grunde die Probleme thematisiert und im nächsten Schritt einfach ignoriert.
Relex
2023-11-16, 10:14:17
Nützt halt nichts, wenn Render-Effekte wie diese Hologramme bei FSR 2 offenbar prinzipbedingt ~komplett vom AA-Teil ausgeschlossen sind. TSR in kacke.
Komplett ausgeschlossen würde ich nicht sagen. Das Sind eben Transparenzeffekte ohne Geometrie und daher wohl ohne Bewegungsvektoren.
Es gibt bei Cyberpunk ja bei den Schnellreisestationen ähnliche Hologramme die auch mit DLSS in bewegung nicht perfekt sind aber eben massiv besser sind, als FSR, welches komplett versagt.
In Ratchet and Clank hat Digital Foundry auch gezeigt, dass bewegungen in RT Reflexionen von DLSS erkannt werden, jedoch von allen anderen Verfahren nicht und es zu Ghosting kommt.
Gleiches beim Wasser in God of War. Mit FSR schliert es, mit DLSS sieht es korrekt aus.
Kurz gesagt: DLSS kann mit allem was keine Bewegungsvektoren hat sehr viel besser umgehen. FSR bricht zusammen.
Das gilt wohl sogar für Vegetation, welche mit FSR gerne mal schlieren zeigt. Aber auch in Talos 2 und Alan Wake sieht man, dass die Baumkronen komplett zerbröseln, wenn man die Maus ein wenig schneller bewegt, während sie mit DLSS stabil bleiben.
Letzteres konnte ich zwar mit TSR nicht mehr beobachten, aber das zeigt eben, dass das eine besonders gravierende Schwachstelle von FSR ist. In manchen Spielen finde ich FSR daher komplett unbrauchbar. In Talos2 und Alan Wake 2, also den letzten beiden Spielen, die ich gespielt habe ist es einfach völlig kaputt.
Vor allem bei UE5 Spielen wundert mich das sehr, weil AMD ja einfluss auf die Implementierung hätte. Die Entwickler integrieren ja nur das fertige Plugin und entwickeln keine eigene Implementierung.
Vor allem ist kurios, dass dann vor allem Konsolenentwickler auf das kaputte FSR zurückgreifen, anstatt auf TSR. Komplett gaga in meinen Augen. :freak:
So, mal wieder genug gegen FSR gebashed.
Sorry. ich würde mir wünschen, mehr Anerkennung dafür zeigen zu können, aber bei dem was ich da immer wieder sehe, weiß ich nicht, ob ich lachen oder weinen soll. Irgendwie wird das momentan von Spiel zu Spiel schlechter statt besser.
The_Invisible
2023-11-16, 10:23:37
'Schau mal wie scheiße FSR3 in Starfield ist' ist keine Kritik sondern Schwachsinn
Hat keiner gesagt, es ist nur besonders pikant weil Beteshda/AMD ja so geprahlt haben wie gut und optimiert FSR in Starfield ist. Jetzt wo die Zügel gelockert wurden läuft es nicht nur mit DLSS+FG schöner und schneller sondern die Geforces erhalten plötzlich auch mehr Grundperformance.
DrFreaK666
2023-11-16, 11:02:31
Hat keiner gesagt, es ist nur besonders pikant weil Beteshda/AMD ja so geprahlt haben wie gut und optimiert FSR in Starfield ist...
Wann soll das geschehen sein?
Hier?
https://abload.de/img/clipboard016adnp.jpg (https://abload.de/image.php?img=clipboard016adnp.jpg)
Du interpretierst da aber ziemlich viel rein...
Und natürlich prahlt Bethesda damit auf AMDs Youtube-Channel :rolleyes:
Auf Nvidias Kanals wirst auch keinen Entwickler hören, der sagt, dass deren DLSS-Implementierung zu Ghosting neigt
Komplett ausgeschlossen würde ich nicht sagen. Das Sind eben Transparenzeffekte ohne Geometrie und daher wohl ohne Bewegungsvektoren.
Es kann für Transparenzeffekte prinzipbedingt keine korrekten Bewegungsvektoren geben. Die reale Bewegung des transparenten Objektes, und dem was dahinter liegt ist unterschiedlich, es kann aber nur einen Bewegungsvektor geben, der unmöglich für beides stimmen kann.
Relex
2023-11-16, 19:15:38
Es kann für Transparenzeffekte prinzipbedingt keine korrekten Bewegungsvektoren geben. Die reale Bewegung des transparenten Objektes, und dem was dahinter liegt ist unterschiedlich, es kann aber nur einen Bewegungsvektor geben, der unmöglich für beides stimmen kann.
Klar, aber das Problem hat man eben bei den meisten Spielen in irgend einer Form. DLSS kann damit eben sehr gut umgehen, FSR bricht hingegen komplett zusammen. Viel schlimmer als TSR.
Deswegen erwarte ich, dass AMD da besser wird. Seit Release von FSR2 aber keine Verbesserung.
Ich wäre ja nachsichtiger, wenn AMD zumindest an FSR arbeiten würde und man Verbesserungen sieht. Aber ich hab den Eindruck, dass sie sich kein Bisschen mehr Mühe geben.
Wenn die Ressourcen nicht da sind, um Frame Gen und Upscaling parallel zu verbessern okay. Dann sollen sie sich aber gefälligst zurück halten, das in so viele Spiele zu pressen und stattdessen als Beta markieren, damit Entwickler nicht ständig auf die Idee kommen, auf Konsole ein sub 720p Bild von FSR auf 4K skalieren zu lassen und denken das wäre gut so...
Wahrscheinlich wird als nächste Frame Generation genutzt, um das von 720p auf 4K skalierte Bild von 30 auf 60 FPS zu bringen.
Wenn das so weiter geht, brauchste am PC bald ne 5090, damit man in 4K zumindest im Quality Modus zocken kann... Wie gesagt, komplett gaga das ganze. :crazy:
DrFreaK666
2023-11-16, 20:11:03
... Aber ich hab den Eindruck, dass sie sich kein Bisschen mehr Mühe geben...
Klar. FSR3 war gleichzeitig mit FSR2 fertig und lag solange nur in der Schublade... :rolleyes:
The_Invisible
2023-11-16, 20:21:43
Wann soll das geschehen sein?
Hier?
https://abload.de/img/clipboard016adnp.jpg (https://abload.de/image.php?img=clipboard016adnp.jpg)
Du interpretierst da aber ziemlich viel rein...
Und natürlich prahlt Bethesda damit auf AMDs Youtube-Channel :rolleyes:
Auf Nvidias Kanals wirst auch keinen Entwickler hören, der sagt, dass deren DLSS-Implementierung zu Ghosting neigt
Kenn jedenfalls keinen Nvidia Kanal wo Nvidia prahlt wie toll DLSS ist und dann aber FSR besser...
Ich bin mir nicht mal sicher ob man FSR2 überhaupt großartig verbessern kann ohne KI wenns nicht gerade TSR ist wie bei UE5 und man so auf die Enginedaten Zugriff hat. FSR3 macht dann halt wenig Sinn wenn die Grundqualität schon mies ist, zumindest bei Forspoken scheints ja ok zu sein.
Exxtreme
2023-11-16, 21:12:01
Klar. FSR3 war gleichzeitig mit FSR2 fertig und lag solange nur in der Schublade... :rolleyes:
Der Unterschied zwischen FSR 2 und 3 ist der FG-Teil. Der Upscaler-Teil wurde nicht verändert.
Klar. FSR3 war gleichzeitig mit FSR2 fertig und lag solange nur in der Schublade... :rolleyes:
FSR3 ist auch bestenfalls in einem frühen Alpha-Stadium und nebenbei eine Nischenanwendung und durch den zwang von FSR2 eigentlich unbrauchbar.
Klar, aber das Problem hat man eben bei den meisten Spielen in irgend einer Form. DLSS kann damit eben sehr gut umgehen, FSR bricht hingegen komplett zusammen. Viel schlimmer als TSR.
FSR ist eben nichts anderes als extrem aggressives TAA.
Das kann man schön in Starfield sehen, auf 100% ist TAA um längen besser.
Ich wette das hätte ID-Software besser hinbekommen, die wollten ja auf DLSS verzichten und über ihr (extrem gutes) TAA das selbe erreichen, aber nachdem ihr TAA qualitativ nicht mithalten konnte hat man sich doch für DLSS entschieden.
DrFreaK666
2023-11-16, 22:18:01
...Das kann man schön in Starfield sehen, auf 100% ist TAA um längen besser...
TAA in Starfield? Welche Option soll das sein? CAS ja wohl kaum
Deisi
2023-11-16, 23:14:27
TAA in Starfield? Welche Option soll das sein? CAS ja wohl kaum
Upscaling off
DrFreaK666
2023-11-16, 23:33:46
...Das kann man schön in Starfield sehen, auf 100% ist TAA um längen besser...
Du hast leider Unrecht. Wo sieht TAA besser aus? Die Bäume sehen mit FSR2 besser aus. Die Schrift und das Logo beim Gebäude rechts sehen mit FSR2 besser aus. AA ist auch besser. Bin gespannt wo du Verbesserungen sehen willst...
FSR2 ( ist natürlich auf 100%, also Native AA)
https://abload.de/img/fsr2_zyewx.png (https://abload.de/image.php?img=fsr2_zyewx.png)
no upscaling (TAA)
https://abload.de/img/noupscaling_j4crq.png (https://abload.de/image.php?img=noupscaling_j4crq.png)
Noch ein paar Nahaufnahmen, die die Überlegenheit von FSR2 zeigen. Keine Ahnung wie man da TAA besser finden kann. Aber ohne Beweis-Screenshots kann man ja viel behaupten... :rolleyes:
Jeweils: erstes Bild FSR2, zweites Bild no Upscaling
https://abload.de/img/fsr2_3e7fbj.png (https://abload.de/image.php?img=fsr2_3e7fbj.png)https://abload.de/img/noupscaling_3u1ebz.png (https://abload.de/image.php?img=noupscaling_3u1ebz.png)
https://abload.de/img/fsr2_25si2v.png (https://abload.de/image.php?img=fsr2_25si2v.png)https://abload.de/img/noupscaling_2upfk1.png (https://abload.de/image.php?img=noupscaling_2upfk1.png)
Du hast leider Unrecht. Wo sieht TAA besser aus?
Überall dort wo es hochfrequente Inhalte gibt, die auf deinen Outdoor-Screenshots natürlich nicht vorhanden sind.
Schon im ersten Tutorial-Level in der Mine gibt es es jede Menge "technisches Gerät" mit sich wiederholenden Strukturen, die sich mit FSR einen abflimmern, auch mit 100% Scaling, und die mit TAA vollkommen ruhig sind.
Wenn man CAS dazu einstellt ist auch der minimale Schärfevorteil von FSR egalisiert, ohne dass das Bild dadurch zusätzlich unruhig würde.
Deisi
2023-11-17, 09:08:58
Überall dort wo es hochfrequente Inhalte gibt, die auf deinen Outdoor-Screenshots natürlich nicht vorhanden sind.
Im Außenbereich eigentlich auch gut sichtbar, man muss sich nur bewegen und es jittert.
DrFreaK666
2023-11-17, 14:45:55
Überall dort wo es hochfrequente Inhalte gibt, die auf deinen Outdoor-Screenshots natürlich nicht vorhanden sind...
Hast Tomaten auf den Augen oder wie? Und natürlich kein Beispiel... :rolleyes:
Dann muss ich wohl wieder...
FSR2 (Render Scale 50% (man sieht die Moiré-Effekte deutlich))
https://abload.de/img/fsr50_p8chl.png (https://abload.de/image.php?img=fsr50_p8chl.png)
TAA (no upscaling. Sieht besser aus)
https://abload.de/img/taa_iacsx.png (https://abload.de/image.php?img=taa_iacsx.png)
FSR2 (Render Scale 100%. Sieht nochmals besser aus)
https://abload.de/img/fsr100_x7ig7.png (https://abload.de/image.php?img=fsr100_x7ig7.png)
Wahrscheinlich ist das nicht hoch-frequent genug :ugly:
rumpeLson
2023-11-17, 15:15:59
Ich bin da kein Experte, aber ich glaube für Bewegtbildvergleiche sind Screenshots nicht ideal :)
Deisi
2023-11-17, 15:17:44
Stell dich in die Stadt lauf vor und rückwärts und achte z.B. auf Geländer, Straßenlaternen etc und du müsstest es sehen.
The_Invisible
2023-11-17, 15:32:26
Hatte schon fast vergessen wie hässlich Starfield für die geforderte Performance aussieht :freak:
DrFreaK666
2023-11-17, 17:31:20
Hab zwei Clips gemacht. Wie gewünscht in der Mine. Für mich sieht beides scheiße aus ^^
Youtube benotigt aber noch ne Weile bis es 4k up ist.
Erwartet später was von mir
Deisi
2023-11-17, 19:12:35
Erwartet später was von mir
Aber warum? FSR2 zeigt in Starfield die gleiche Charakteristika wie bisher auch. Da es keine neue Version verwendet auch nicht verwunderlich.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.