PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [22] 23 24 25 26

ChaosTM
2024-08-31, 20:47:22
Bin recht zufrieden - 4k alles Max mit ~87fps und 70fps min. Fühlt sich gut an.

Relex
2024-08-31, 21:03:10
CP77 sieht hier mit 60-70fps DLSS FG auch aus wie ruckeliger Murks. FG auf GeForce ist einfach nur Schrott.

Das hör ich zum ersten mal.

Das Framepacing ist perfekt, egal ob FSR oder DLSS und entspricht exakt dem, was man von der nativen Darstellung ohne FG erwarten würde.

Einzig bei dem gezeigten Worst Case zeigt FSR Probleme bei der Interpolation und berechnet "falsche" Zwischenbilder, die das ganze ruckelig wirken lassen.

redpanther
2024-08-31, 21:03:23
CP77 sieht hier mit 60-70fps DLSS FG auch aus wie ruckeliger Murks. FG auf GeForce ist einfach nur Schrott.

Bin ich komplett anderer Meinung. Habs mit FG mit meistens 60-80 Fps durchgespielt und es hat sich gut angefühlt, meistens sehr gut.
Erst wenn es unter ca 50 FPS ging, war es schlecht, war aber sehr selten der Fall. Eigentlich nur wenn ich mal das Powerlimit wegen der Hitze zu weit runter geregelt habe :freak:

Ist einfach fantastisch, wenn man bedenkt wie toll das ganze insgesamt ausschaut mit PT und man es vollkommen flüssig spielen kann.

dargo
2024-09-01, 07:35:04
@aufkrawall

Verständnisfrage... verwendet OptiScaler bei FSR3.1 einen anderen Algorithmus als die spieleigene Implementierung? Anders kann ich mir folgendes nicht erklären. Ich wollte ja 75% Upscaling haben was nur mit OptiScaler geht wenn man nicht VSR bei 1440p verwenden will. Jetzt habe ich festgestellt, dass in mittlerer Entfernung trotz 1080p Input GoT mit OptiScaler und FSR3.1 bei den Bäumen leicht flimmert während 960p mit der spieleigenen Implementierung von FSR3.1 dort überhaupt nicht flimmert.
https://www2.pic-upload.de/thumb/37410061/GhostofTsushima_2024.09.01-07.27_2.png (https://www.pic-upload.de/view-37410061/GhostofTsushima_2024.09.01-07.27_2.png.html)

Ich meine die Bäume hinten bei Kamerabewegung. Da macht es ja keinen Sinn OptiScaler mit höherem Input zu nutzen wenn das Upscaling trotz mehr Input instabiler ist. :freak:

Exxtreme
2024-09-01, 09:18:13
OptiScaler ist ein Hack für Spiele, die zwar DLSS können, aber keinen brauchbaren FSR-Modus haben. Deshalb können die Ergebnisse überraschend sein. Kann nämlich sein, dass der DLSS-Modus mit etwas anderen Daten gefüttert wird etc.

dargo
2024-09-01, 11:41:25
Vermutlich hat der Modder da was kleines vergessen. Denn es hängt entweder mit dem DoF oder leichten Nebel in der Entfernung zusammen. Immerhin haben schon mal die DEVs daran gedacht, ist ja auch nicht selbstverständlich. :tongue:

robbitop
2024-09-01, 11:52:41
Ist der Optiscaler Mid genauso gut wie der kostenpflichtige (LukeFZ)?

Exxtreme
2024-09-01, 12:00:01
Naja, der Modder hat wohl nichts vergessen. OptiScaler ist nichts anderes als ein API Wrapper. Der reicht die Aufrufe, die das Spiel normalerweise an die DLSS-DLLs schickt einfach an andere Upscaler weiter. Wenn das Spiel also für FSR unpassende Daten generiert dann ist das so.

aufkrawall
2024-09-01, 18:14:54
Ist der Optiscaler Mid genauso gut wie der kostenpflichtige (LukeFZ)?
Kann kein FG und nur DLSS Input, hat aber ein paar andere Vorteile wie das OSD, weniger Ghosting mit FSR 3.1 oder auch mal bessere Kompatibilität.

aufkrawall
2024-09-07, 17:10:14
3.1 matscht schon im Standbild mit Nanite alles kaputt, das sieht auch mit Quality (und selbst FSR nativ...) noch aus wie völliger Schrott gegen Ray Reconstruction Performance:
https://s20.directupload.net/images/240907/qsf54wwl.jpg
https://s20.directupload.net/images/240907/pq2by9qp.jpg


Und da sind die Vorteile bei RT noch nichtmal wirklich mit eingerechnet (bzw. ein Stück weit, man sieht es ja in den schattierten Bereichen [SWRT Virtual Shadow Maps + Lumen AO] ohne RR nochmal stärker vermatschen). Oder, wie es sich im Bewegtbild hinsichtlich Ghosting verhält. Übel. :freak:

robbitop
2024-09-07, 17:23:34
Mal schauen wann AMD ein RE Äquivalent bringt. Ggf kann man ja von der Partnerschaft mit Sony profitieren.

dildo4u
2024-09-12, 14:54:33
Cyberpunk endlich mit FSR3 + Framegen


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13613985&postcount=8104

robbitop
2024-09-12, 14:57:59
Nur FSR 3 oder 3.1?

dargo
2024-09-12, 15:31:59
Cyberpunk endlich mit FSR3 + Framegen


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13613985&postcount=8104
Mal sehen ob CDPR FSR wieder verkackt hat, wäre nicht das erste Mal. :ulol:

Lurtz
2024-09-12, 16:35:01
Nur FSR 3 oder 3.1?
Wird 3 sein. Man kann FSR FG nicht mit DLSS SR kombinieren, auch wenn das Menü erst was anderes suggeriert. Kurioserweise kann man auch 2.1 nach wie vor nutzen.

DrFreaK666
2024-09-12, 16:40:03
nur FSR3? LOL

horn 12
2024-09-12, 17:54:49
und @Dargo

wie findest es nun FSR 3.0 und FG
Habe das Game gar nicht,- und sonst würde ich heute mal den 24.8.1 testen.

dargo
2024-09-12, 18:02:39
Muss arbeiten. ;)

aufkrawall
2024-09-12, 18:03:59
Lohnt sich eh nicht. Besser DLSS -> FSR 3.1/XeSS Mods nutzen.

Relex
2024-09-12, 18:43:17
Für das Upscaling gibt es FSR 2.1 und FSR 3 zur Auswahl.

Vermute mal, dass damit 3.1 gemeint ist, weil FSR3.0 ja normalerweise den 2.1 Upscaler weiter nutzt. Das Upscaler Update kam ja erst mit 3.1 und wäre dann auch der einzige Grund, warum man zwei Varianten zur Auswahl hat.

So oder so ist die Implementierung kompletter Müll. Anders kann man es nicht ausdrücken.
Flimmerhölle selbst mit FSR Quality und FSR nativ @4K.

Selbst DLSS Performance ist FSR Quality meilenweit überlegen.
FSR nativ ist zwar schärfer, flimmert aber immernoch mehr.

Und ja, die Disocclusion artefakte schießen den vogel ab.
Alles was sich hinter Vegetation oder Zäunen bewegt ist nur noch ein Meer aus Bildrauschen und zufälligen Pixeln.

Ich würde sogar sagen, dass der FSR 2.1 Upscaler FSR 3 überlegen ist, da das Bild ein gutes Stück stabiler ist.

aufkrawall
2024-09-12, 18:46:31
Für das Upscaling gibt es FSR 2.1 und FSR 3 zur Auswahl.

Vermute mal, dass damit 3.1 gemeint ist

Nein. FSR 3.1 ist immer eine einzelne signierte DLL, im Spielverzeichnis liegen aber die je nach Komponente aufgeteilten DLLs von 3.0.
Und es sieht auch entsprechend immer noch abartig schlecht vs. selbst FSR 3.1 via OptiScaler aus.

Das alte FSR ist eine Custom-Implementierung, deshalb kann Uniscaler das FSR 2 von Witcher 3 und CP77 auch nicht erkennen und wrappen. Warum die das drin gelassen haben..? Faulheit? :freak: Mit etwas Glück könnte Uniscaler nun das 3.0 erkennen und das ohne Nachteile nach 3.1 wrappen. Aber interessiert mich ehrlich gesagt nicht genug, das zu testen.

Relex
2024-09-12, 19:33:34
Hab mir mal FSR FG angesehen.

Hier mal eine Bildfolge eines Kameraschwenks von links nach rechts mit FSR FG (abwechselnd echtes Frame und generiertes Frame):
https://i.ibb.co/wrbK8D3/01.png (https://ibb.co/wrbK8D3) https://i.ibb.co/h1Y2YK6/02.png (https://ibb.co/h1Y2YK6) https://i.ibb.co/t8P8XqD/03.png (https://ibb.co/t8P8XqD) https://i.ibb.co/gzHTynj/04.png (https://ibb.co/gzHTynj) https://i.ibb.co/0r6NmrF/05.png (https://ibb.co/0r6NmrF) https://i.ibb.co/k4FJQ8W/06.png (https://ibb.co/k4FJQ8W) https://i.ibb.co/L8qhsD9/07.png (https://ibb.co/L8qhsD9)


Und hier mit DLSS FG:
https://i.ibb.co/Gdw2fqz/01.png (https://ibb.co/Gdw2fqz) https://i.ibb.co/RpDYFgQ/02.png (https://ibb.co/RpDYFgQ) https://i.ibb.co/JksKQBH/03.png (https://ibb.co/JksKQBH) https://i.ibb.co/6vqQqCc/04.png (https://ibb.co/6vqQqCc) https://i.ibb.co/FKNbgLy/05.png (https://ibb.co/FKNbgLy) https://i.ibb.co/cy7ytMW/06.png (https://ibb.co/cy7ytMW) https://i.ibb.co/GVmq7yd/07.png (https://ibb.co/GVmq7yd)

Am besten runterladen oder in verschiedenen Tabs öffnen und dann durchschalten, um den Bewegungsablauf zu sehen.



FSR FG ist hier komplett kaputt.
Der Bildausschnitt ändert sich nur jeden zweiten Frame.
Die effektive Framerate dadurch nur bei der Hälfte des angezeigten Wertes.
Die Objekte die FG anscheinend versucht zu interpolieren werden in den generierten Frames überlagert angezeigt.

Bei DLSS FG gibts keine solchen Überlagerungen und der Bildausschnitt ändert sich auch mit jedem Frame.


FSR FG berechnet also völlig falsche Inhalte für die generierten Frames.

Keine Ahnung wem hier jetzt wieder die Schuld zugeschoben werden muss, aber bei DLSS FG ist sowas noch nie passiert.
Das kann langsam echt nicht mehr wahr sein, dass AMD den Mist nicht endlich in den Griff bekommt... Das ist völlig unbenutzbar und brennt in den Augen... Und das ist WIRKLICH nicht übertrieben.

Praktisch kann das noch nichtmal an einem angeblich schlechteren Framepacing von FSR FG auf GeForce liegen, weil die gerenderten Inhalte einfach falsch sind.
Und ich kann mir beim besten Willen nicht vorstellen, dass FSR FG auf ner GeForce andere Inhalte berechnet...

aufkrawall
2024-09-12, 19:42:57
Was hast du erwartet, wenn schon das Upsampling in dem Titel noch schlimmer aussieht als mit FSR eh schon oft der Fall ist?
Und nein, das Frame Pacing ist mit FSR 3.0 und Nvidia nicht nur "angeblich" kaputt. Das ist ziemlich offensichlich im Frame Time Graph in quasi jedem Titel. Erst mit 3.1 ist der auf GeForce so flach wie schon mit 3.0 auf Radeon.

Edit: In Ratchet & Clank 120fps FSR 3.1 gibts hier im 120fps-Video kein seltsames "FG-Tearing". Nur die ganz normalen FG-Artefakte jedes 2. Frame und entsprechend lineare und vollständige Kamerabewegung ohne Aussetzer. Manchmal einige Frames identisch doppelt aufgenommen, aber das kann auch andere Ursachen haben.
In Uncharted via Mod siehts auch perfekt flüssig aus, sogar mit 138fps Auto-NULL-Limiter via Treiber...

Relex
2024-09-13, 01:41:21
Manchmal einige Frames identisch doppelt aufgenommen, aber das kann auch andere Ursachen haben.

Ja, aufgenommen, du lieferst die Erklärung ja schon selber.

Wenn du mit 120 FPS aufnimmst aber weniger FPS hast, dann entstehen einige doppelte Frames in der Aufnahme, bis die 120 FPS voll sind.

Die hab ich bei FSR und DLSS weggelassen, da sie mit VRR natürlich auch nicht zu sehen sind.

aufkrawall
2024-09-13, 01:52:41
Ich habe natürlich mit 120fps und 120fps via fps-Limit aufgenommen.

https://s20.directupload.net/images/240913/q5s4akyy.jpg
https://s20.directupload.net/images/240913/i2h3vgrt.jpg
https://s20.directupload.net/images/240913/mir6nfux.jpg
https://s20.directupload.net/images/240913/ld3ehxw6.jpg
https://s20.directupload.net/images/240913/7qc5yy8h.jpg
https://s20.directupload.net/images/240913/is6q24kn.jpg
https://s20.directupload.net/images/240913/8zelb93h.jpg
https://s20.directupload.net/images/240913/dn6uzg4b.jpg
https://s20.directupload.net/images/240913/tjteo8qh.jpg
https://s20.directupload.net/images/240913/mmdumw6x.jpg

Sieht einwandfrei aus. Da braucht Platos auch nicht weiter Blödsinn zu erzählen, dass es die Bewegtschärfe ruinieren würde, denn die Auswirkungen auf die Vegetation sind im Vergleich zum DLSS-Smearing komplett zu vernachlässigen.

DrFreaK666
2024-09-13, 07:35:11
Platos und AMD ist keine Hass-Liebe, sondern einfach nur Hass-Hass

Gast
2024-09-13, 07:39:25
Ich habe natürlich mit 120fps und 120fps via fps-Limit aufgenommen.



Nur weil du ein 120FPS limit hast, heißt dass nicht, dass die berechneten Frames synchron zu den aufgenommenen sind.

dargo
2024-09-13, 08:40:51
und @Dargo

wie findest es nun FSR 3.0 und FG
Habe das Game gar nicht,- und sonst würde ich heute mal den 24.8.1 testen.
Quality Preset @1440p absoluter Schrott. Native AA wesentlich besser, Bildstabilität aber immer noch in einigen Bereichen unzureichend. Da kann man auch gleich TAA nehmen.

DrFreaK666
2024-09-13, 08:52:51
Fábios Meinung zu FSR3 ^^
J2FMQfEiBOA

Flusher
2024-09-13, 09:36:33
Kann mir jemand sagen ob FSR3.0 auch auf Nvidia 3xxx Karten Frame Generation erlaubt?

dildo4u
2024-09-13, 09:37:34
Kann mir jemand sagen ob FSR3.0 auch auf Nvidia 3xxx Karten Frame Generation erlaubt?

Ja das Problem ist mit 3.0 kann man DLSS nicht mit AMD FG nutzen.

Flusher
2024-09-13, 09:57:07
Ja das Problem ist mit 3.0 kann man DLSS nicht mit AMD FG nutzen.

Ok Danke - ja das habe ich bereits gelesen, frage mich aber auch ob der Bildqualitätsunterschied zwischen DLSS3 und FSR3 merkbar ist.

dildo4u
2024-09-13, 09:58:14
Ja es ist schlechter als FSR 2.1.

Video dazu https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13614419&postcount=5279

fondness
2024-09-13, 10:44:45
Was hast du erwartet, wenn schon das Upsampling in dem Titel noch schlimmer aussieht als mit FSR eh schon oft der Fall ist?
Und nein, das Frame Pacing ist mit FSR 3.0 und Nvidia nicht nur "angeblich" kaputt. Das ist ziemlich offensichlich im Frame Time Graph in quasi jedem Titel. Erst mit 3.1 ist der auf GeForce so flach wie schon mit 3.0 auf Radeon.


Da muss man schon fast Absicht unterstellen. Unfassbar was für einen Schrott die implementieren. Sowohl FSR als auch FG völlig kaputt. Die Mods laufen um Welten besser.

Relex
2024-09-13, 10:46:55
Ok Danke - ja das habe ich bereits gelesen, frage mich aber auch ob der Bildqualitätsunterschied zwischen DLSS3 und FSR3 merkbar ist.

Ich finde das kurios.

Du fragst ob FSR3 FG auf RTX3000 geht und fragst dann ob es überhaupt Qualitätsunterschiede zwischen DLSS und FSR FG gibt obwohl ich ein paar Beiträge vorher sogar mit Screenshots gezeigt habe wie kaputt es ist.

:confused:

dargo
2024-09-13, 10:52:07
Da muss man schon fast Absicht unterstellen. Unfassbar was für einen Schrott die implementieren. Sowohl FSR als auch FG völlig kaputt. Die Mods laufen um Welten besser.
In dem Bereich sitzen bei CDPR vollkommende Amateure. Das FSR in CP77 war ganz am Anfang auch schon mal besser bis es später kaputt gepatcht wurde. Und so ist dann die schlechtere Implementierung ewig drin geblieben.

dildo4u
2024-09-13, 10:54:36
Hoffentlich heißt der Patch das sie weiter am Game arbeiten PSSR ist deutlich interessanter als FSR Updates also Daumen drücken.

robbitop
2024-09-13, 11:00:11
In dem Bereich sitzen bei CDPR vollkommende Amateure. Das FSR in CP77 war ganz am Anfang auch schon mal besser bis es später kaputt gepatcht wurde. Und so ist dann die schlechtere Implementierung ewig drin geblieben.

Oder es gibt eventuell Einfluss von Nvidia. ^^ Deren Kram läuft komischerweise in CP77 wohl sehr sehr gut.

Exxtreme
2024-09-13, 11:01:47
Eigentlich sind die generierten Bilder beider Verfahren kaputt, nur auf eine andere Art und Weise. Bei FSR sieht man in Teilen zwei Halbbilder, bei DLSS ist es schlicht Matsch.

Relex
2024-09-13, 11:02:39
Wenn die Implementierungen selbst in manchen AMD sponsored titeln schlecht sind, dann wundert mich das nicht mehr.

AMD hat einfach kein Interesse daran, sicherzustellen, dass die Implementierungen ordentlich sind.


Eigentlich sind die generierten Bilder beider Verfahren kaputt, nur auf eine andere Art und Weise. Bei FSR sieht man in Teilen zwei Halbbilder, bei DLSS ist es schlicht Matsch.

Wie kommst du denn darauf? Zeig mal was du meinst.

Hier matscht mit DLSS FG überhaupt nichts.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13614175&postcount=5272

Gast
2024-09-13, 11:03:00
Oder es gibt eventuell Einfluss von Nvidia. ^^ Deren Kram läuft komischerweise in CP77 wohl sehr sehr gut.

Also bitte.. als ob FSR 3.1 irgendwas ändern würde...

Exxtreme
2024-09-13, 11:15:52
Wie kommst du denn darauf? Zeig mal was du meinst.

Hier matscht mit DLSS FG überhaupt nichts.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13614175&postcount=5272

Ich sehe das am hinteren Gebäude, rechts. Das sieht in Teilen unschärfer aus. Aber es gibt andere Bereiche, wo FSR mit der Schärfe schlecht aussieht. Von daher ja, DLSS FG ist in diesem Spiel besser wenn man sich die Bilder anschaut.

dargo
2024-09-13, 11:23:27
Oder es gibt eventuell Einfluss von Nvidia. ^^ Deren Kram läuft komischerweise in CP77 wohl sehr sehr gut.
Gut, dass ich das nicht gesagt habe. ;D

Relex
2024-09-13, 11:26:49
@Exxtreme
Es gibt Unterschiede in der Darstellung zwischen DLSS und FSR, das ist ja bekannt.
Wobei ich finde dass das rechte Gebäude im Hintergrund mit DLSS sauberer dargestellt wird. Mit FSR gibts wieder Rauschen an einigen Elementen.
Aber ist ja auch egal, Unterschiede zwischen DLSS und FSR sind auf jeden Fall da.


Aber bist du wirklich der Meinung, dass du bei der DLSS Bildreihe zwischen den echten Frames und den generierten Frames einen unterschied siehst?

Ich kann da keinen Unterschied erkennen. Einzig ein paar Artefakte hinter dem HUD verraten, welche Bilder echt und welche generiert sind.


Außerdem ist zu bedenken, dass die Bilder alle im Performance Mode bei einer mittelschnellen Kamerabwegung entstanden sind. Dass das insgesamt alles etwas unscharf ist, ist dem temporalen Upscalern zuzuschreiben. Für die Bewertung von FG muss man sich halt ansehen, welche Unterschiede es zwischen den echten und den generierten Bildern gibt.
Wie gesagt, jedes zweite Bild ist echt bzw. generiert.

robbitop
2024-09-13, 11:34:12
Also bitte.. als ob FSR 3.1 irgendwas ändern würde...

Ggf ist aber auch die Implementierung kacke. Die BQ wurde mit der gleichen FSR Version bereits von patch zu patch schlechter. Und so schlecht wie es bei CP aktuell auszusehen scheint ist offenbar das schlechtere Ende des Spektrums. Auffällig ist dass NVs ganzer proprietärer Kram da sorgsam implementiert wurde. Und da gab es dann auch Exklsuivinterviews wo NV mit dabei war usw. Ich finde das zumindest bemerkenswert

fondness
2024-09-13, 11:43:06
Wenn die Implementierungen selbst in manchen AMD sponsored titeln schlecht sind, dann wundert mich das nicht mehr.

AMD hat einfach kein Interesse daran, sicherzustellen, dass die Implementierungen ordentlich sind.


Sorry, aber wenn die Mods völlig ohne Entwicklerinput(!) sauber laufen ist das kein Argument. Zumal welche AMD-Titel sollen das genau sein?

robbitop
2024-09-13, 11:48:01
Sorry, aber wenn die Mods völlig ohne Entwicklerinput(!) sauber laufen ist das kein Argument.
This! Und ich verstehe nicht wie Entwickler bei sowas nicht vor Scham im Boden versinken. Wenn ein generischer Mod von einem Hobbyisten ohne Zugriff auf den Sourcecode bessere Ergebnisse erzielt als das Studio.

Relex
2024-09-13, 11:54:38
@fondness FG in Avatar z.B.?

Aber ist in der Praxis auch egal, wer es versaut. Am Ende zählt das was der Kunde bekommt.
Wie oft man mittlerweile lesen muss "ja aber die Implementierung ist schlecht"...

Ja aber: Das ist das was der Kunde mit FSR eben bekommt.


Im Endeffekt ist es für mich AMDs Schuld, dass sowas regelmäßig passieren kann und bei DLSS nicht oder nur sehr selten.


Solange es bei der Konkurrenz besser läuft ist es nicht zielführend, immer auf den Entwickler zu deuten, selbst wenn sie die schuldigen sind. AMD hat dafür zu sorgen, dass die Implementierung "idiotensicher" ist. Nvidia hat das scheinbar hinbekommen und das scheint am Ende große Auswirkungen auf das Ergebnis zu haben, das der Kunde zu Gesicht bekommt.

Eine gute FSR(FG) implementierung zu bekommen ist fast schon so, als würde man verlangen, dass die Entwickler die Spiele bugfrei veröffentlichen.
Wird nicht passieren. Auf die Entwickler zu schimpfen wird also nichts ändern. Und wenn dann änderst sich was bei einem Entwickler und die restlichen 10.000 machen so weiter. Das ist sinnfrei. Das Problem muss AMD selbst in die Hand nehmen.

DrFreaK666
2024-09-13, 11:56:47
CDPR im Novenber 2023:
This is a new and very interesting technology and I can definitely confirm that we are working on a full FSR3 implementation — but it is still an ongoing process and we feel we need still more time to release it with the desired outcome.

Das war also das gewünschte Ergebnis :freak:

Gast
2024-09-13, 12:12:39
This! Und ich verstehe nicht wie Entwickler bei sowas nicht vor Scham im Boden versinken. Wenn ein generischer Mod von einem Hobbyisten ohne Zugriff auf den Sourcecode bessere Ergebnisse erzielt als das Studio.

Tun Sie ja nicht. Gibt genug Videos dazu.

OpenVMSwartoll
2024-09-13, 12:30:24
@fondness FG in Avatar z.B.?

Aber ist in der Praxis auch egal, wer es versaut. Am Ende zählt das was der Kunde bekommt.
Wie oft man mittlerweile lesen muss "ja aber die Implementierung ist schlecht"...

Ja aber: Das ist das was der Kunde mit FSR eben bekommt.


Im Endeffekt ist es für mich AMDs Schuld, dass sowas regelmäßig passieren kann und bei DLSS nicht oder nur sehr selten.


Solange es bei der Konkurrenz besser läuft ist es nicht zielführend, immer auf den Entwickler zu deuten, selbst wenn sie die schuldigen sind. AMD hat dafür zu sorgen, dass die Implementierung "idiotensicher" ist. Nvidia hat das scheinbar hinbekommen und das scheint am Ende große Auswirkungen auf das Ergebnis zu haben, das der Kunde zu Gesicht bekommt.

Eine gute FSR(FG) implementierung zu bekommen ist fast schon so, als würde man verlangen, dass die Entwickler die Spiele bugfrei veröffentlichen.
[...]


Meine Wahrnehmung, und in diesem Thread bin ich eher Mitleser, ist dass NV die Blackbox DLSS liefert und ordentlich Manpower.

AMD fehlen dafür die Ressourcen.

Somit ist die DLSS-Integration dann auch optimierter.

fondness
2024-09-13, 13:13:55
@fondness FG in Avatar z.B.?

Aber ist in der Praxis auch egal, wer es versaut. Am Ende zählt das was der Kunde bekommt.
Wie oft man mittlerweile lesen muss "ja aber die Implementierung ist schlecht"...

Ja aber: Das ist das was der Kunde mit FSR eben bekommt.


Im Endeffekt ist es für mich AMDs Schuld, dass sowas regelmäßig passieren kann und bei DLSS nicht oder nur sehr selten.


Solange es bei der Konkurrenz besser läuft ist es nicht zielführend, immer auf den Entwickler zu deuten, selbst wenn sie die schuldigen sind. AMD hat dafür zu sorgen, dass die Implementierung "idiotensicher" ist. Nvidia hat das scheinbar hinbekommen und das scheint am Ende große Auswirkungen auf das Ergebnis zu haben, das der Kunde zu Gesicht bekommt.

Eine gute FSR(FG) implementierung zu bekommen ist fast schon so, als würde man verlangen, dass die Entwickler die Spiele bugfrei veröffentlichen.
Wird nicht passieren. Auf die Entwickler zu schimpfen wird also nichts ändern. Und wenn dann änderst sich was bei einem Entwickler und die restlichen 10.000 machen so weiter. Das ist sinnfrei. Das Problem muss AMD selbst in die Hand nehmen.

Naja gut, erstens reden wir hier von einem Spiel wo Nvidia massiv am Spielecode mitgearbeitet hat und zweitens wie gesagt sieht es völlig ohne Entwicklerinput besser aus. Noch idiotensicherer geht also eigentlich gar nicht. Es ist ja noch nicht mal klar was man machen muss um das so zu versauen. Aber klar vermutlich sollte AMD zu jedem Studio jemanden hinschicken der die Implementierung freigibt, wenn es anders nicht geht (was traurig genug ist). Wobei das eigentlich in der Praxis nicht zu bewerkstelligen ist, da AMD den Source-Code zur Verfügung stellt und damit überhaupt keine Gewalt darüber hat wer FSR wie einsetzt oder nicht.

Lurtz
2024-09-13, 13:38:44
Naja gut, erstens reden wir hier von einem Spiel wo Nvidia massiv am Spielecode mitgearbeitet hat
Und das im Rasterization-Modus dennoch einwandfrei auf Radeons läuft. Da ist es schon komisch, dass man ausgerechnet das Thema FSR nicht in den Griff bekommt/bekommen will :confused: Und jetzt kräht doch auch kein Hahn mehr danach, ob das vier Jahre nach Launch ähnlich gut mit FSR wie mit DLSS läuft.

dildo4u
2024-09-13, 14:20:38
FSR3.0 hätte schon längst Konkurrenz Fähig sein müssen bei DLSS macht es wenig Unterschied wenn es eine 1Jahr alte Version ist.

3.1 ist schon verschwendete Entwicklungzeit wenn deswegen das AI Upsampling später kommt.

IceKillFX57
2024-09-13, 14:28:35
Finde sogar intels Lösung deutlich besser. aber ist wohl Geschmackssache. Aber gut, geht nichs über dlss

robbitop
2024-09-13, 15:56:18
Tun Sie ja nicht. Gibt genug Videos dazu.

Ist oft genug eben doch der Fall. Ggf mal selbst testen mit aktuellstem FSR3.1 mod?

aufkrawall
2024-09-13, 16:14:48
Kann mir jemand sagen ob FSR3.0 auch auf Nvidia 3xxx Karten Frame Generation erlaubt?
Einfach die DLLs der Nukem-Mod ins Verzeichnis werfen und du hast auf allen GeForces DLSS Upsampling + FSR 3 FG + Reflex.
https://www.nexusmods.com/site/mods/738?tab=description

Für CP77 gibts noch die Mod, die dafür ein paar nicht richtig angepasste Effekte abschaltet:
https://www.nexusmods.com/cyberpunk2077/mods/13029

Exxtreme
2024-09-13, 16:21:23
3.1 ist schon verschwendete Entwicklungzeit wenn deswegen das AI Upsampling später kommt.

Möglicherweise kommt gar kein AI Upsampling weil man das möglicherweise gar nicht braucht. Ich glaube, jemand hier aus dem Forum hat es mal mit Nvidia Nsight analysiert, dass DLSS nur extrem wenig Zeit mit AI verbringt. Mich würde das nicht wundern, wenn diese AI Aufrufe ein reiner "Ist-Nvidia-AI-Hardware-vorhanden"-Check wären. Und zweitens, FSR hat auch den Anspruch auf absoluter Gurkenhardware zu laufen. FSR ist stinknormaler HLSL Code. Das wird wohl auch einiges limitieren.

Ich habe mich auch mal in das Thema TAA bissl eingelesen. Das ist gar nicht mal so einfach das richtig zu machen. Die Leichtigkeit eines klassischen SSAA ist nicht da. Eventuell muss da von der Entwicklerseite mehr kommen damit die Upscaler gut funktionieren.

aufkrawall
2024-09-13, 16:25:18
Ich glaube, jemand hier aus dem Forum hat es mal mit Nvidia Nsight analysiert, dass DLSS nur extrem wenig Zeit mit AI verbringt..
Das tut nichts zur Sache, wenn das seriell passiert und zur sonstigen Frame Time addiert wird. Bzw. dann dürfte es auch auf den TCs gar nicht länger brauchen, um nicht die Performance trotzdem zu reduzieren. Außerdem kann das mit RR auch anders aussehen, ist teilweise jedenfalls teurer als reguläres/legacy DLSS.

robbitop
2024-09-13, 16:31:19
Einfach die DLLs der Nukem-Mod ins Verzeichnis werfen und du hast auf allen GeForces DLSS Upsampling + FSR 3 FG + Reflex.
https://www.nexusmods.com/site/mods/738?tab=description

Für CP77 gibts noch die Mod, die dafür ein paar nicht richtig angepasste Effekte abschaltet:
https://www.nexusmods.com/cyberpunk2077/mods/13029
Geht reflex mittlerweile im Verbindung mit FSR FG (im Sinne von erfolgreicher Latenzreduktion)?

aufkrawall
2024-09-13, 16:34:03
Mit der Nukem-Mod schon.

Gast
2024-09-13, 16:35:17
Ist oft genug eben doch der Fall. Ggf mal selbst testen mit aktuellstem FSR3.1 mod?

Hab ich bereits, damit tauscht man nur andere Artefakte (Ghosting u.a.) ein. Wirklich besser, klares Nein

aufkrawall
2024-09-13, 16:56:00
Gibt es auch in diversen Fällen, wo es nicht richtig funktioniert. Man sollte nur nicht aufgrund eigener Unwissenheit das als allgemeingültig erklären. Mods sind nicht unbedingt etwas für Noobs, da gibts diverse Fallstricke. Etwa sollte man mit der aktuellen LukeFZ-Mod das FSR 3.1-Upsampling gar nicht nutzen, das 3.1 FG lässt sich aber ohne noch nicht korrekt aktivieren.
Wenn man sich nicht zu dumm anstellen würde, würde man festellen, dass es in diversen Spielen mit FG-Mods gar kein Ghosting gibt (außer bei HUD und Schatten, aber darum gehts ja eher nicht). Die Workaround-Mod für CP hab ich auch schon verlinkt.

Ja, DLSS FG frisst hier vergleichbar DLSS Upsampling das einfach alles, ohne kaputt zu gehen. Wenn der Entwickler sich für FSR FG nicht die Mehrarbeit macht, falls es ootb nicht richtig geht, hat man halt die Arschkarte. Funktioniert aber trotzdem häufig besser als das Schrott-Upsampling.

Gast
2024-09-13, 17:03:37
Möglicherweise kommt gar kein AI Upsampling weil man das möglicherweise gar nicht braucht. Ich glaube, jemand hier aus dem Forum hat es mal mit Nvidia Nsight analysiert, dass DLSS nur extrem wenig Zeit mit AI verbringt.


Nsight kann dir nicht sagen wieviel Zeit mit "AI" gebraucht wird.

robbitop
2024-09-13, 17:08:07
Nsight kann dir nicht sagen wieviel Zeit mit "AI" gebraucht wird.


Aber wie viel Frametime die tensor cores ausgelastet werden und das meinte er.

Gast
2024-09-13, 20:06:09
Aber wie viel Frametime die tensor cores ausgelastet werden und das meinte er.

Was aber nicht sagt wieviel wirklich der Anteil an „AI“ am ganzen ist.

Und vor allem existieren die Tensor Cores genau deswegen, damit der „AI“-Anteil nur einen sehr geringen Teil der Frametime braucht.

Ravenhearth
2024-09-13, 20:49:17
AMD plans for FSR4 to be fully AI-based — designed to improve quality and maximize power efficiency (https://www.tomshardware.com/pc-components/gpus/amd-plans-for-fsr4-to-be-fully-ai-based-designed-to-improve-quality-and-maximize-power-efficiency)

Jack Huynh: On the handheld side, my number one priority is battery life. If you look at the ASUS ROG Ally or the Lenovo Legion Go, it’s just that the battery life is not there. I need multiple hours. I need to play a Wukong for three hours, not 60 minutes. This is where frame generation and interpolation [come in], so this is the FSR4 that we're adding.

Because FSR2 and FSR3 were analytical based generation. It was filter based. Now, we did that because we wanted something with a very fast time to market. What I told the team was, "Guys, that's not where the future is going." So we completely pivoted the team about 9-12 months ago to go AI based.

So now we're going AI-based frame generation, frame interpolation, and the idea is increased efficiency to maximize battery life. And then we could lock the frames per second, maybe it's 30 frames per second, or 35. My number one goal right now is to maximize battery life. I think that's the biggest complaint. I read the returns too from the retailer, where people want to be able to play these games.

robbitop
2024-09-13, 21:15:42
Was aber nicht sagt wieviel wirklich der Anteil an „AI“ am ganzen ist.

Und vor allem existieren die Tensor Cores genau deswegen, damit der „AI“-Anteil nur einen sehr geringen Teil der Frametime braucht.

Das hat ja (iirc) aufkrawall bereits geschrieben.

Linmoum
2024-09-13, 21:23:20
Natürlich geht AMD den AI-Weg. War schon immer absurd zu denken, dass das nicht passieren wird. Was auch heißt, dass man mit älteren Radeons dann aufgrund fehlender dezidierter Einheiten Abstriche wird machen müssen. Was bisher bei manchen ja verpönt war. ;)

Die Aussage zu FSR2/3 und die Begründung mit "very fast time to market" ist aber auch schon wieder absurd. Wenn man bedenkt, wie ewig lange man vor allem mit FSR3 gebraucht hat nach der Ankündigung...

Die Aussage bzgl. wann man den Fokus komplett auf AI gelegt hat klingt aber zeitlich nicht unbedingt so, dass das jetzt schon mit RDNA4 was wird.

horn 12
2024-09-13, 21:31:34
Wohl erst zu RDNA 5 da man von 9 - 12 Monaten spricht,- und RDNA 5 könnte wenn alles läuft Spätsommer 2025 vielleicht gar spruchreif sein!

dargo
2024-09-13, 22:07:57
Wohl erst zu RDNA 5 da man von 9 - 12 Monaten spricht,- und RDNA 5 könnte wenn alles läuft Spätsommer 2025 vielleicht gar spruchreif sein!
Da hast du was falsch verstanden. AMD arbeitet bereits seit 9-12 Monaten an FSR4.

@Linmoum
Spielst du jetzt den Schwarz-Maler-Peter bei AMD? :ulol:

dildo4u
2024-09-14, 07:01:26
Da muss man nicht schwarz malen warum sollte Sony eine eigene Lösung bauen wenn AMD schon zur 8800XT FSR 4 hat?

AMD scheint eher drauf zu setzen das die Karte eine Klasse über einer 4070 spielt man also weniger Upsampling braucht.(In 1440p)

dargo
2024-09-14, 07:16:49
Da muss man nicht schwarz malen warum sollte Sony eine eigene Lösung bauen wenn AMD schon zur 8800XT FSR 4 hat?

Warum nicht? Playstation ist ein eigenes Ökosystem, dort macht es sogar Sinn. Und dann kann Sony schön Marketinggeblubber vs. Microsoft betreiben.

robbitop
2024-09-14, 08:56:17
Naja oder es gibt irgendeine Form der Kollaboration.

basix
2024-09-14, 10:07:44
Zum AI-basierten FSR-Ansatz bei FSR4 hier ein interessante Präsentation von ARM von der diesjährigen Siggraph:
https://community.arm.com/cfs-file/__key/communityserver-blogs-components-weblogfiles/00-00-00-20-66/siggraph_5F00_mmg_5F00_2024_5F00_mobile_5F00_nss_2D00_LiamONeil_2D00_v7_2D00_spe akers_5F00_notes.pdf

Dort haben sie drei Sachen verglichen:
- Image Prediction (~DLSS 1.0?) -> Komplettes Bild wird generiert
- Filter Kernel Prediction -> Image-Filter werden vom DNN generiert
- Parameter Prediction -> Filterparametrierung wird generiert

Hier hat das letzte am besten abgeschnitten und liesse sich mit FSR2/3 kombinieren. Hier werden die Filter-Parameter nicht über Heuristiken sondern über ein kleines DNN ermittelt. Ich nehme an, DLSS2/3 wird exakt gleich funktionieren.

Für FSR4 erwarte ich eigentlich genau das: Man nimmt FSR3 und erweitert die Parameter-Prediction mit einem neuronalen Netzwerk. Die im Paper gezeigten Vergleiche zu FSR2 stimmen mich hier sehr optimistisch, weil es genau die Schwachpunkte von FSR2/3 am stärksten verbessert:
- Disocclusion
- Shading Changes
- Fehlende Motion Vectors (z.B. Transparenz-Effekte)

Damit verschwindet der "Blocky Pixelige" Look, den FSR2 zum Teil hat. Siehe die Bilder im Anhang.

Das UNET, dass sie im Paper verwenden, benötigt pro Frame 10 GOPS INT8. Das macht 10 TOPS, wenn man das Netzwerk in 1ms ausführen will. Sagen wir 20-30 TOPS ist nötig, wenn die HW-Utilization zwischen 33...50% liegt (100% ist nicht erreichbar).
- PS5 = 20 TOPS (oder 40 TOPS, nicht ganz klar)
- XBox SX = 48 TOPS
- PS5 Pro = 300 TOPS
- Radeon 6600 = 36 TOPS
- Radeon 7600 = 44 TOPS

Das wäre also für die aktuelle Konsolengeneration wie auch aktuelle AMD Mittelklasse-HW geeignet. Für stärkere HW dann sowieso. Intel und Nvidia HW hat Matrix-Accelerators und wird dementsprechend noch schneller laufen (via DX12 und WMMA kann man die ja mittlerweile mit einer einheitlichen API ansprechen, genau so wie das RDNA3 WMMA und vielleicht die Matrix Cores in RDNA4, wenn solche drin sind). Unbekannt ist hier evtl. noch, ob die 10 GOPS / Frame nur bei 1080p Output gelten und ob das nach Auflösung skaliert. Aber selbst in diesem Fall sollte das auch mit mittelprächtiger HW funktionieren. Man könnte auch verschiedene Qualitätsstufen einführen, welche in Abhängigkeit der UNET GOPS skalieren, z.B. 5 GOPS = Basis, 10 GOPS = Medium, 20 GOPS = High Quality. Entweder einstellbar im Grafikmenü oder je nach Plattform (Konsolen, Mobile, Desktop) oder je nach HW-Capability: Kein WMMA (DP4a, Konsolen), mit WMMA (RDNA3), mit WMMA + Matrix Acceleration (RDNA4(?), Intel Xe & Nvidia RTX GPUs, mobile iGPUs mit genug starker NPU, PS5 Pro)

robbitop
2024-09-14, 10:22:30
Sehr gute Information :up:
Die relativ moderaten TOPS Angaben passen grundsätzlich auch dazu, dass pro Fame mit DLSS Upsampling die Tensor Cores von Nvidia nur relativ kurzzeitig aufleuchten.
Bei XeSS hingegen scheint das Ganze hingegen ziemlich teuer zu sein (Frametimecost normiert auf die inputresolution und der Fakt, dass man für dp4a vs XMX ein deutlich vereinfachtes Modell nutzt).

Was ich mir vorstellen kann, ist, dass der Bedarf an Compute bei (bzw ausgehend von) ARMs Studie noch größer ausfallen kann, je komplexer das Modell wird. Und ich vermute je mehr „refined“ das ganze werden soll, desto komplexer wird das Modell und sowas ist leider meistens nicht linear. Wenn man an zB DLSS von 2024 herankommen will, muss es ggf noch mehr „refined“ sein. Insofern würde ich ARMs Angaben erstmal nur als Baseline sehen.
Wenn die 300TOPS für PS5PRO stimmen, wäre das ja ziemlich überdimensioniert. Da Silizium in modernen Fertigungsprozessen potentiell viel Geld kostet, würde ich sagen, dass da noch 1-2 Puzzleteile fehlen. :)

PS:
Ich hoffe (fürchte jedoch dass das nicht der Fall ist weil man Nvidia viel zu langsam hinterherzulaufen scheint), dass sie auch gleich an einem Rayreconstructiin Äquivalent arbeitet.

basix
2024-09-14, 10:33:28
Wenn ich die 10 GOPS Resultate von ARM ansehe, brauche ich kein deutlich komplexeres Netzwerk. Die Verbesserung ist bereits sehr gut. Auch bei einem potentiellen DLSS 2024 gilt abnehmender Grenzertrag. Auch wenn DLSS nochmals besser werden sollte, würde ein solcherart überarbeitets FSR4 die Lücke zu DLSS massiv verkleinern.

Die 300 TOPS der PS5 Pro sind mMn nicht mit FSR4 zu verbinden. Sony hat für PSSR augenscheinlich einen Microsoft AutoSR Ansatz gewählt. Bei AutoSR wird das über eine NPU berechnet, jedoch mit +1 Frame Latenz. Bei der PS5 Pro sollte die Rechneleistung ausreichen, damit man diese zusätzliche Latenz nicht verwenden muss, um PSSR auszuführen.

Und ja, gleichzeitig zu FSR4 noch ein RR-Äquivalent wäre toll :)

horn 12
2024-09-14, 10:36:19
Release dann zur RDNA4 Vorstellung wahrscheinlich in gut einem Monat, oder gar nicht mal dies!
und RDNA3 wird dann ebenso profitieren oder da die Einheiten Fehlen außen vorbelassen ?

fondness
2024-09-14, 10:40:49
Hm, wird da jetzt nicht ein bisschen viel hineininterpretiert? Er bezieht sich ausschließlich auf FrameGeneration um den Stromverbrauch bei Handhelds zu senken. Er sagt überhaupt nichts zu FSR selbst. Klar könnte man schlussfolgern, dass man dann auch bei FSR auf ein AI-Verfahren umsteigt, aber dazu wird kein Wort erwähnt.

basix
2024-09-14, 10:42:12
Release dann zur RDNA4 Vorstellung wahrscheinlich in gut einem Monat, oder gar nicht mal dies!
und RDNA3 wird dann ebenso profitieren oder da die Einheiten Fehlen außen vorbelassen ?

Es wird vermutlich mit allen GPUs laufen, welche zumindest DP4a unterstützen. Also RDNA1+ sowie Pascal/non-RTX Turing. Ab RDNA3 kommt WMMA dazu, was die Ausführungseffizienz erhöht (=mehr Qualität oder bessere Performance möglich) und mit voller Matrix-Acceleration wird es dann "relativ easy" (=noch bessere Qualität oder noch bessere Performance möglich)

Ob es mit RDNA4 erscheint? Ich hoffe es. Zumindest spätestens zum RDNA4 Release wäre es zu hoffen und dazu bereits möglichst viele Spiele-(Updates) mit FSR4.

Hm, wird da jetzt nicht ein bisschen viel hineininterpretiert? Er bezieht sich ausschließlich auf FrameGeneration um den Stromverbrauch bei Handhelds zu senken....
Frame Generation ist dort kein Thema sondern Temporales Supersampling ;) Sogar der Titel heisst "Neural Super Sampling"

Eine NPU ist effizienter als eine GPU und wenn man die Render-Auflösung senkt und dafür Temporal Super Sampling nutzt, kann man unter dem Strich Strom sparen. Das sieht man ja bereits bei DLSS2 auf RTX-GPUs.

fondness
2024-09-14, 10:44:43
Frame Generation ist dort kein Thema sondern Temporales Supersampling ;) Sogar der Titel heisst "Neural Super Sampling"

Bitte? Das ist die Aussage von dem AMD-Typen:

So now we're going AI-based frame generation, frame interpolation, and the idea is increased efficiency to maximize battery life. And then we could lock the frames per second, maybe it's 30 frames per second, or 35. My number one goal right now is to maximize battery life. I think that's the biggest complaint. I read the returns too from the retailer, where people want to be able to play these games.

basix
2024-09-14, 10:46:18
Frame Generation ist eine weitere Möglichkeit, wie man Strom sparen könnte. Die Präsentation kannst du ja auch mal richtig durchlesen, dann sollte klar sein dass es inhaltlich eigentlich nur um Temporal Super Sampling geht...

Edit:
Was der AMD Typ dort sagt ist was anderes. Zuerst muss man die Upsampling Qualität verbessern, bevor man den Rest angehen sollte. Auch bei FG usw. wird eine Parameter-Prediction via DNN von Vorteil sein. Wenn man mit einem besseren temporal supersampling die Render-Auflösung noch weiter reduzieren kann, ist das schlussendlich eine weitere Reduktion des Energieverbrauchs.

fondness
2024-09-14, 10:47:47
Frame Generation ist eine weitere Möglichkeit, wie man Strom sparen könnte. Die Präsentation kannst du ja auch mal richtig durchlesen, dann sollte klar sein dass es inhaltlich eigentlich nur um Temporal Super Sampling geht...

Du redest von einer ARM-Präsentation, was genau hat das jetzt mit AMD zu tun?

basix
2024-09-14, 10:50:28
Madonna...

FSR4 könnte mit solch einer Verbesserung daherkommen...wir sind hier im Speku-Forum

Und mit deinem "Er" im ersten deiner Posts wäre niemandem klar, dass du dich auf den AMD Executive beziehst und nicht den Typen von der ARM Präsentation

fondness
2024-09-14, 10:51:35
FSR4 könnte mit solch einer Verbesserung daherkommen...wir sind hier im Speku-Forum

Sind wir nicht. ;) Aber egal ich wollte nur klarstellen, dass die Überschrift von THG nicht mit der Aussage von AMD zusammen passt. :)

Und die ARM-Präsi ist allemal interessant, keine Frage.

Und mit deinem "Er" im ersten deiner Posts wäre niemandem klar, dass du dich auf den AMD Executive beziehst und nicht den Typen von der ARM Präsentation

Okay, mea culpa.

robbitop
2024-09-14, 10:58:34
Wenn ich die 10 GOPS Resultate von ARM ansehe, brauche ich kein deutlich komplexeres Netzwerk. Die Verbesserung ist bereits sehr gut. Auch bei einem potentiellen DLSS 2024 gilt abnehmender Grenzertrag. Auch wenn DLSS nochmals besser werden sollte, würde ein solcherart überarbeitets FSR4 die Lücke zu DLSS massiv verkleinern.

Die 300 TOPS der PS5 Pro sind mMn nicht mit FSR4 zu verbinden. Sony hat für PSSR augenscheinlich einen Microsoft AutoSR Ansatz gewählt. Bei AutoSR wird das über eine NPU berechnet, jedoch mit +1 Frame Latenz. Bei der PS5 Pro sollte die Rechneleistung ausreichen, damit man diese zusätzliche Latenz nicht verwenden muss, um PSSR auszuführen.

Und ja, gleichzeitig zu FSR4 noch ein RR-Äquivalent wäre toll :)

Naja so sicher kann man sich anhand von den paar Screenshots von ARM IMO nicht sein. Ggf waren das auch Kirschen. Siehe die animierten Screenshots von FSR3.1 von AMD die auch deutlich bessere Ergebnisse vs FSR 2 suggerierten und das Ergebnis war ernüchternd.

Das mit dem AutoSR glaube ich ehrlich gesagt nicht. Zumindest nicht als einzigen Mode (aber ggf als Fallback). Wenn man bereits temporales Upsampling hat bringt AutoSR ja nicht wirklich Vorteile - es kommt da nicht ran.
Außerdem meine ich mich daran erinnern zu können dass DF die technische Doku für die PS5Pro (oder Teile davon) in der Hand hatten die iirc PSSR als temporales Upsampling Verfahren beschrieben hatten.
Und wenn man ehrlich ist: alles andere bringt irgendwie zu wenig. Temporales Upsampling (ohne AI) hat man schon und wenn man HW und SW in der Hand hat - wozu dann nur ein Post Processing Upsampling nutzen? Dafür bräuchte es auch kaum bis gar keine Umsetzung durch den Entwickler. PSSR benötigt diese jedoch explizit.
IMO würde man sich damit lächerlich machen und es wäre die HW dafür nicht wert. Als fallback um ältere/ungepatchte Games zu verbessern (also zusätzlich) - ja das wäre sinnvoll.

edit: für AutoSR brauchte Ms auch nicht einmal annähernd 300 TOPS. Auch da passt was nicht, oder?

IMO ist es sehr unwahrscheinlich dass es nur AutoSR (Äquivalent) ist aber weniger unwahrscheinlich dass es das auch als Option bietet.

horn 12
2024-09-14, 10:58:55
RDNA 4 Vorstellung, zumindest der Architektur wohl am 10-ten Oktober
mit darauffolgenden 24-ten der Grafikkarten Presentation und Preise Ähnlich RDNA 3
und Hardlaunch gute 3 Wochen später im November!

https://videocardz.com/newz/amd-confirms-fsr4-will-be-fully-ai-based-focusing-on-improving-power-efficiency-and-battery-life-for-handhelds

dargo
2024-09-14, 11:06:39
Ohne Quellenangaben gähn.

Edit:
Schon besser. ;) Da steht doch nichts zum Release von RDNA4!

btw.
Die Idee bei FSR4 mit Abwärtskompatibilität für "alle" GPUs fände ich wirklich toll. Ein ähnlicher Ansatz wie bei Intel. :up:

The_Invisible
2024-09-14, 12:30:19
PS:
Ich hoffe (fürchte jedoch dass das nicht der Fall ist weil man Nvidia viel zu langsam hinterherzulaufen scheint), dass sie auch gleich an einem Rayreconstructiin Äquivalent arbeitet.

Dazu müsste man auch Mal ordentliche RT Leistung haben damit das irgendwie Sinn ergibt. Und dlss-rr muss auch noch eigens implementiert werden und trotz >80% Marktanteil von NV gibt's glaub ich gerade Mal 3-4 spiele damit.

Lurtz
2024-09-14, 12:32:01
Ich würde eine nicht kompatible, aber technisch bessere Lösung vorziehen. Lieber ein Ende mit Schrecken als...

Für ältere GPUs würde ja immer noch das offene FSR 2/3 zur Verfügung stehen.

robbitop
2024-09-14, 12:37:11
Dazu müsste man auch Mal ordentliche RT Leistung haben damit das irgendwie Sinn ergibt. Und dlss-rr muss auch noch eigens implementiert werden und trotz >80% Marktanteil von NV gibt's glaub ich gerade Mal 3-4 spiele damit.

Mehr RT Leistung soll ja mit RDNA4 und Nachfolgern auch kommen. Aber RR macht gerade Sinn wenn man nicht so viel RT Leistung hat. Denn dann kann man aggressiver im Upsampling sein ohne dass die BQ mit RT so darunter leidet. Und da RR nichts mit der RT HW zu tun hat sondern mit compute würde das auch aktuellen Radeons helfen.

Aber: das Blöde ist es muss implementiert werden. So wie alles heutzutage. Idealerweise braucht es analog zu FSR/DLSS die gleichen Inputs wie NVs RR und ist dann einfacher umzusetzen. Und idealerweise ist es open source und läuft IHV agnostisch. Dann hätte man ggf eine Chance.

dargo
2024-09-14, 12:38:14
Für ältere GPUs würde ja immer noch das offene FSR 2/3 zur Verfügung stehen.
So wie ich das aktuell verstehe wird FSR4 auch auf älteren GPUs laufen. Nur dann halt eben über DP4a und WMMA mit eventuell etwas schlechteren Qualität und/oder Speed.

basix
2024-09-14, 13:44:11
Die relativ moderaten TOPS Angaben passen grundsätzlich auch dazu, dass pro Fame mit DLSS Upsampling die Tensor Cores von Nvidia nur relativ kurzzeitig aufleuchten.

Ich habe es überschlagsmässig gerechnet (ich habe ~0.25ms Tensor mit etwas mehr als 50% Auslastung bei 4K im Kopf, bei einer 4090 mit 640 TOPS ohne Sparsity):
Wenn das Netzwerk mit der Auflösung skaliert, wäre es im Verhältnis zum ARM Paper (10 GOPS bei 1080p) ein 10-20 GOPS Netzwerk, mit Tendenz zum letzteren. Wenn es nicht mit der Auflösung skalieren muss, könnte es entsprechend grösser sein (4K vs. 1080p).

Gast
2024-09-14, 14:49:37
Naja oder es gibt irgendeine Form der Kollaboration.

Sehr unwahrscheinlich, für Sony macht es nur Sinn wenn man auf der eigenen Konsole qualitatives upscaling zur Verfügung hat, und die XBox nicht.

FSR4 wird die XBox genauso zur Verfügung haben, für Sony ist es also am besten wenn AMD möglichst lange braucht.

DrFreaK666
2024-09-14, 14:50:59
...Die Idee bei FSR4 mit Abwärtskompatibilität für "alle" GPUs fände ich wirklich toll. Ein ähnlicher Ansatz wie bei Intel. :up:
Hauptsache es kommt auch auf meine Series S XD (wohl eher nicht)

Gast
2024-09-14, 14:57:26
Das UNET, dass sie im Paper verwenden, benötigt pro Frame 10 GOPS INT8. Das macht 10 TOPS, wenn man das Netzwerk in 1ms ausführen will. Sagen wir 20-30 TOPS ist nötig, wenn die HW-Utilization zwischen 33...50% liegt (100% ist nicht erreichbar).
- PS5 = 20 TOPS (oder 40 TOPS, nicht ganz klar)
- XBox SX = 48 TOPS
- PS5 Pro = 300 TOPS
- Radeon 6600 = 36 TOPS
- Radeon 7600 = 44 TOPS

Das wäre also für die aktuelle Konsolengeneration wie auch aktuelle AMD Mittelklasse-HW geeignet. Für stärkere HW dann sowieso.

Das ist sehr optimistisch gedacht.
Bei jeder Hardware ohne dediziertern DL-Beschleunigern wird diese Rechenleistung von der restlichen Grafikberechnung abgezwackt.

Wenn man realistischerweise davon ausgehen will, dass man mindestens 90% der Zeit mit Grafikberechnung und max. 10% der Zeit mit Upscaling verbringen will, dürfte man nur 10% des maximalen Durchsatzes für die Berechnung verwenden, und dann sieht es schon ganz anders aus.

Ravenhearth
2024-09-14, 15:00:13
Hm, wird da jetzt nicht ein bisschen viel hineininterpretiert? Er bezieht sich ausschließlich auf FrameGeneration um den Stromverbrauch bei Handhelds zu senken. Er sagt überhaupt nichts zu FSR selbst. Klar könnte man schlussfolgern, dass man dann auch bei FSR auf ein AI-Verfahren umsteigt, aber dazu wird kein Wort erwähnt.
Er erwähnt doch expliziert FSR4? Danach spricht er darüber, was sie vorher gemacht haben (FSR2/3) und wohin sie mit FSR4 jetzt gehen (AI).

Jack Huynh: On the handheld side, my number one priority is battery life. If you look at the ASUS ROG Ally or the Lenovo Legion Go, it’s just that the battery life is not there. I need multiple hours. I need to play a Wukong for three hours, not 60 minutes. This is where frame generation and interpolation [come in], so this is the FSR4 that we're adding.

Because FSR2 and FSR3 were analytical based generation. It was filter based. Now, we did that because we wanted something with a very fast time to market. What I told the team was, "Guys, that's not where the future is going." So we completely pivoted the team about 9-12 months ago to go AI based.

So now we're going AI-based frame generation, frame interpolation, and the idea is increased efficiency to maximize battery life. And then we could lock the frames per second, maybe it's 30 frames per second, or 35. My number one goal right now is to maximize battery life. I think that's the biggest complaint. I read the returns too from the retailer, where people want to be able to play these games.

-------

Das ist sehr optimistisch gedacht.
Bei jeder Hardware ohne dediziertern DL-Beschleunigern wird diese Rechenleistung von der restlichen Grafikberechnung abgezwackt.

Wenn man realistischerweise davon ausgehen will, dass man mindestens 90% der Zeit mit Grafikberechnung und max. 10% der Zeit mit Upscaling verbringen will, dürfte man nur 10% des maximalen Durchsatzes für die Berechnung verwenden, und dann sieht es schon ganz anders aus.

Das habe ich mir auch gedacht. Das ist wohl auch der Grund, warum man FSR4 bisher nur im Kontext von Handhelds erwähnt hat. Die APUs haben bereits eine NPU, AMDs Grafikkarten noch nicht.

Exxtreme
2024-09-14, 15:22:21
Wobei das Interview darauf hindeutet, dass die Verbesserungen in FSR 4 eher in Richtung FG fliessen werden und nicht Upscaling. Und NPUs braucht man für AI nicht. Das geht auch so.

robbitop
2024-09-14, 16:13:13
Wobei das für FG kaum nachvollziehbar ist. FSR FG funktioniert (seit die Frametime issues gefixt sind) doch ziemlich gut. Und es gab auf breiter Front der Reviews wenig Kritik zu der BQ der interpolierten Frames. Am meisten fällt eher auf, dass das upsampling zu optischen Nachteilen führt.
Aber das war auch ein SVP. Auf der Ebene hat man leider oft (aber nicht immer) Schnacker, die sich gut produzieren können aber selbst wenig Fachwissen haben. Ggf hat der das auch nicht 100%ig wiedergegeben was seine Leute da gerade machen und auch warum. X-D

aufkrawall
2024-09-14, 16:15:10
Das ist der Typ aus dem Starfield FSR Promo-Video, just saying. ;D

robbitop
2024-09-14, 16:22:17
Hast du einen Link? Das hab ich nicht gefunden das Video. :)

Jedenfalls scheint er nicht einmal Ahnung von Gaming zu haben wenn er 30 fps durch FG verbessern will um Energie zu sparen. Das sieht nicht nur ggf suboptimal aus - es killt die Latenz und damit den Spielspaß. Eventuell Schnacker. ^^

IMO sollten solche Leute als Jobanforderung das eigene Produkt für diesen Zweck nutzen. In dem Falle mit Radeons zocken und alle möglichen Features enthusiastisch nutzen. Das geht nur wenn man auch Gamer ist und etwas Nerd ist. Aber ggf sollte man das (zusätzlich dazu dass sie gute Fach- und Führungskräftekräfte sein sollten) das sein. Dann merken sie wie gut die Erfahrung mit den Produkten ist und falls etwas nicht stimmt, was es ist. Ansonsten brennt man nicht für die Sache und ist nur der typische Bullshitmanager.

aufkrawall
2024-09-14, 16:27:09
9ABnU6Zo0uA

Würde alles von dem Typen erstmal als irrelevantes PR-Geblubber abtun.

DrFreaK666
2024-09-14, 16:34:32
Ich hoffe dass AMD das SR in FSR weiterhin ernst nimmt und der Typ einfach nur ein Marketing-Fuzzie ist

BlacKi
2024-09-14, 17:04:56
Wobei das Interview darauf hindeutet, dass die Verbesserungen in FSR 4 eher in Richtung FG fliessen werden und nicht Upscaling. Und NPUs braucht man für AI nicht. Das geht auch so.


Wobei das für FG kaum nachvollziehbar ist. FSR FG funktioniert (seit die Frametime issues gefixt sind) doch ziemlich gut.
das größte problem sind immernoch die latenzen die ansteigen. AI kann hier eine lösungs möglichkeit bieten, in dem man input generiert. d.h. man kann zukünftige bilder berechnen und so hat das frame gen keinen inputlag mehr. im prinzip wäre es möglich geringeren inputlag zu haben als nativ. geringer als mit 500fps.


wenn das kommt, wäre es zumindest für spiele ohne anticheat der bringer. für spiele mit anticheat müsste anticheat, ähnlich wie mit antilag 2 ersteinmal angepasst werden, was technisch kein problem sein wird.

DrFreaK666
2024-09-14, 17:07:32
Ich will kein besseres FG, noch nicht jedenfalls.
AMD sollte wissen, was in Foren tatsählich diskutiert wird

aufkrawall
2024-09-14, 17:13:16
das größte problem sind immernoch die latenzen die ansteigen. AI kann hier eine lösungs möglichkeit bieten, in dem man input generiert. d.h. man kann zukünftige bilder berechnen und so hat das frame gen keinen inputlag mehr.
Nur ist selbst DLSS FG bei 30fps trotz Inter- statt Extrapolation bei der Qualität schon am Limit. Irgendwann in der Zukunft ist ganz viel mit ML denkbar. Was davon in näherer Zeit realistisch ist, ist (für uns) völlig unklar.

robbitop
2024-09-14, 17:18:33
das größte problem sind immernoch die latenzen die ansteigen. AI kann hier eine lösungs möglichkeit bieten, in dem man input generiert. d.h. man kann zukünftige bilder berechnen und so hat das frame gen keinen inputlag mehr. im prinzip wäre es möglich geringeren inputlag zu haben als nativ. geringer als mit 500fps.


wenn das kommt, wäre es zumindest für spiele ohne anticheat der bringer. für spiele mit anticheat müsste anticheat, ähnlich wie mit antilag 2 ersteinmal angepasst werden, was technisch kein problem sein wird.

Das wäre Frameextrapolation. Daran hat sich Intel ja länger versucht und jetzt hört man schon länger gar nichts mehr davon. Ggf sehr sehr schwierig das stabil / artefaktarm zu bekommen.
Aber ja das wäre eine Möglichkeit die zu dem Amwendungsfall passen könnte. Ich sehe nur nicht gerade AMD dort an vorderster Front. Sie sind ja eher der follower. (was auch an Resources für SW Engineering liegt)

Der_Korken
2024-09-14, 17:55:31
Zwischenbilder in die Zukunft zu predicten ist imho nahezu unmöglich. Man müsste dazu zukünftigte Spieler-Inputs vorhersagen, was ohne ein Eingreifen in bzw. Interpretation der Spiellogik nicht funktionieren kann. Solange sich die Kamera gleichmäßig in eine bestimmte Richtung bewegt ist ihre Position für den nächsten Frame (bzw. nächsten halben Frame) leicht vorherzusagen. Wenn der Spieler sich aber plötzlich dreht, dann kann die GPU das erst für den nächsten gerenderten Frame berücksichtigen, d.h. die Latenz sinkt in hektischen Szenen nicht. Schlimmer noch: Ein generierter Frame könnte eine "Phantom-Bewegung" abbilden, d.h. der Spieler ist dort z.B. einen halben Frame weiter geradeaus gelaufen als real, sodass bei der anschließend korrekt gerenderten Drehung die Kamera-Position dieses halbe Frame wieder "zurückspringen" muss. Das muss sich in Bewegung ganz fürchterlich anfühlen.

The_Invisible
2024-09-14, 18:06:48
Mehr RT Leistung soll ja mit RDNA4 und Nachfolgern auch kommen. Aber RR macht gerade Sinn wenn man nicht so viel RT Leistung hat. Denn dann kann man aggressiver im Upsampling sein ohne dass die BQ mit RT so darunter leidet. Und da RR nichts mit der RT HW zu tun hat sondern mit compute würde das auch aktuellen Radeons helfen.

Aber: das Blöde ist es muss implementiert werden. So wie alles heutzutage. Idealerweise braucht es analog zu FSR/DLSS die gleichen Inputs wie NVs RR und ist dann einfacher umzusetzen. Und idealerweise ist es open source und läuft IHV agnostisch. Dann hätte man ggf eine Chance.

Sagt NV aber was anderes: https://www.nvidia.com/en-us/geforce/forums/games/35/549353/star-wars-outlaws-ray-reconstruction/

Und zum anderen: Ja bist ja ein voller Optimist, wer soll diesen Standard definieren, MS kommt schon mit Upscaling/FG nicht nach...

robbitop
2024-09-14, 18:19:49
Ich habe geschrieben Open Source, nicht Standard. Das wäre noch besser aber wie du schon sagst dauert das zu lange. Aber ggf kommt dieser dann irgendwann einer IHV agnostischen Lösung nach. Analog dazu wie es bei FSR passierte.

Ich habe es so verstanden dass mit RR das Denoising in outputresolution passiert. Aber nicht dass RT als solches mit Inputresolution passiert.
Und das Denoising selbst ist compute und das NN für das Tuning des Denoisers dann compute via Tensor Cores. BQ normiert müsste RR schneller sein weil man aggressiver die input resolution reduzieren kann.

Relex
2024-09-14, 18:58:06
RR scheint wohl mehr zu machen, als reines Denoising. Es scheint auch ein "upscaling" bzw. eine Rekonstruktion der Strahlenauflösung zu erfolgen und das ähnlich effektiv wie reines Pixelupscaling mit DLSS ( = "besser als nativ").

Denn RR zeigt selbst im Performance mode viel mehr Raytracing Details als man selbst in nativer Auflösung mit dem Standard Denoiser bekommt.

Es ist also nicht nur Denoising, sondern effektiv auch Strahlen Supersampling.
Oder anders gesagt: Ein Denoiser entfernt nur Rauschen, erhöht aber nicht den Detailgrad. RR macht beides.


So stark wie die Verbesserungen durch RR z.B. in Outlaws sind, scheint RR wohl zu nem großen Teil das grundlegende Problem von RT bzw. PT zu lösen. Nämlich dass man zu wenig Strahlen hat.

Gast
2024-09-14, 19:04:31
Zwischenbilder in die Zukunft zu predicten ist imho nahezu unmöglich. Man müsste dazu zukünftigte Spieler-Inputs vorhersagen, was ohne ein Eingreifen in bzw. Interpretation der Spiellogik nicht funktionieren kann.


Muss man nicht, man kann ganz einfach die realen Inputs verwenden, die Inputs abzufragen braucht quasi gar keine Zeit

robbitop
2024-09-14, 19:08:05
RR scheint wohl mehr zu machen, als reines Denoising. Es scheint auch ein "upscaling" bzw. eine Rekonstruktion der Strahlenauflösung zu erfolgen und das ähnlich effektiv wie reines Pixelupscaling mit DLSS ( = "besser als nativ").

Denn RR zeigt selbst im Performance mode viel mehr Raytracing Details als man selbst in nativer Auflösung mit dem Standard Denoiser bekommt.

Es ist also nicht nur Denoising, sondern effektiv auch Strahlen Supersampling.
Oder anders gesagt: Ein Denoiser entfernt nur Rauschen, erhöht aber nicht den Detailgrad. RR macht beides.


So stark wie die Verbesserungen durch RR z.B. in Outlaws sind, scheint RR wohl zu nem großen Teil das grundlegende Problem von RT bzw. PT zu lösen. Nämlich dass man zu wenig Strahlen hat.

Ein „regulärer“ RT Denoiser nutzt iirc auch temporale Daten zur Rekonstruktion. Deshalb dauert es manchmal einige Frames bis RT Spiegelungen im vollen Detail erstrahlen.

Gast
2024-09-14, 19:08:08
Das wäre Frameextrapolation. Daran hat sich Intel ja länger versucht und jetzt hört man schon länger gar nichts mehr davon. Ggf sehr sehr schwierig das stabil / artefaktarm zu bekommen.


Intels Ansatz war aber keine komplette Extrapolation ins Blaue, für die extrapolierten Frames wurde lediglich das Shading ausgelassen.
Artefakte sollten da eigentlich nicht das Problem sein.

Eher umgekehrt, dass die Frameratesteigerung zu gering ist, Intels Ansatz ist wahrscheinlich erst dann interessant wenn man mehrere Frames extrapoliert.

Gast
2024-09-14, 19:11:45
RR scheint wohl mehr zu machen, als reines Denoising. Es scheint auch ein "upscaling" bzw. eine Rekonstruktion der Strahlenauflösung zu erfolgen und das ähnlich effektiv wie reines Pixelupscaling mit DLSS ( = "besser als nativ").



Genau deshalb braucht man ja den „Full resolution“ Buffer, irgendwo müssen die Ergebnisse vom RR ja landen.

Relex
2024-09-14, 20:18:26
Ein „regulärer“ RT Denoiser nutzt iirc auch temporale Daten zur Rekonstruktion. Deshalb dauert es manchmal einige Frames bis RT Spiegelungen im vollen Detail erstrahlen.

Aber dann müsste der Detailgrad ja ziemlich "optimal" sein, wenn man das Bild einige Sekunden stehen lässt.

Ist aber nicht so.

Der Detailgrad sinkt wenn die Renderauflösung und damit die Strahlenauflösung reduziert wird.


Hier nochmal ein paar Beispiele aus Star Wars Outlaws

DLAA | DLSS P | RR P | RR DLAA

https://imgsli.com/Mjk3MDk4/0/2
https://i.ibb.co/M85mb3H/01-DLAA.png (https://ibb.co/M85mb3H) https://i.ibb.co/5MFJfdC/02-DLSS-P.png (https://ibb.co/5MFJfdC) https://i.ibb.co/FqVb9M6/03-RR-P.png (https://ibb.co/FqVb9M6) https://i.ibb.co/rmFJNVZ/04-RR-DLAA.png (https://ibb.co/rmFJNVZ)

https://imgsli.com/Mjk3MTAx/0/2
https://i.ibb.co/wJP28GJ/01-DLAA.png (https://ibb.co/wJP28GJ) https://i.ibb.co/6rsdjN3/02-DLSS-P.png (https://ibb.co/6rsdjN3) https://i.ibb.co/7yg4Vc8/03-RR-P.png (https://ibb.co/7yg4Vc8) https://i.ibb.co/RP923Yr/04-RR-DLAA.png (https://ibb.co/RP923Yr)

https://imgsli.com/Mjk3MTAy/0/2
https://i.ibb.co/T8V8jw9/01-DLAA.png (https://ibb.co/T8V8jw9) https://i.ibb.co/YP0rsk6/02-DLSS-P.png (https://ibb.co/YP0rsk6) https://i.ibb.co/R0MJrpX/03-RR-P.png (https://ibb.co/R0MJrpX) https://i.ibb.co/W34fcrk/04-RR-DLAA.png (https://ibb.co/W34fcrk)


Also wie gesagt, das ist wohl nicht nur Glättung/Denoising durch temporale akkumulation, sondern Rekonstruktion der Strahlen auf eine viel höhere effektive Auflösung.


Ich stelle mir das vereinfacht in etwa so vor:
Mit dem Standard Denoiser wird mit DLSS P mit einer Strahlenauflösung von 1080p gerechnet.
Die Strahlen werden zwar denoised, durch temporale akkumulation, aber im endeffekt wird nur bei geringer Auflösung geglättet. Man bekommt also ein Raytracing das in 1080p denoised wurde.

Das Rasterized Bild wird dann via DLSS auf 4K hochskaliert. DLSS kann zwar Geometrie rekonstruieren, aber der gesamte RT pass bleibt effektiv in geringer 1080p Auflösung.


Ray Reconstruction hingegen denoised und rekonstruiert auch die Strahlen auf die Zielauflösung. Offensichtlich ist die Rekonstruktion aber so gut, dass sie sogar deutlich besser aussieht, als selbst ein natives Bild mit standard denoiser.


Man sagt ja gerne mal, dass DLSS besser aussieht, als Nativ TAA.
Dieser Effekt scheint analog dazu bei RR für das Raytracing noch sehr viel stärker zuzutreffen.

1ch0
2024-09-14, 20:57:44
Ich muss sagen, dass ich Ray Reconstruction inzwischen ziemlich feiere. Die Spiegelungen sehen damit fantastisch aus und nicht mehr wie undeutlicher Matsch. Gerade in Cyberpunk wird das richtig schön demonstriert, und auch bei den imperialen Locations in Star Wars: Outlaws sieht es mit RR deutlich besser aus als ohne, weil die Oberflächen wirklich super spiegeln.

Gast
2024-09-14, 20:58:17
Ich stelle mir das vereinfacht in etwa so vor:
Mit dem Standard Denoiser wird mit DLSS P mit einer Strahlenauflösung von 1080p gerechnet.


Von dieser Vorstellung muss man sich mal verabschieden. All die Raytracing-Effekte haben mit Ausnahme der Primary Rays überhaupt nichts mit der Bildschirmauflösung zu tun und können vollkommen unabhängig voneinander skaliert werden.

BlacKi
2024-09-14, 21:05:15
Muss man nicht, man kann ganz einfach die realen Inputs verwenden, die Inputs abzufragen braucht quasi gar keine Zeitrichtig, das ist natürlich auch möglich, und noch ein einfacher zwischenschritt vor dem predicten des inputs. damit lässt sich ebenfalls der zusätzliche input negieren.

Gast
2024-09-14, 22:48:53
richtig, das ist natürlich auch möglich, und noch ein einfacher zwischenschritt vor dem predicten des inputs. damit lässt sich ebenfalls der zusätzliche input negieren.

Das ist kein Zwischenschritt, es macht überhaupt keinen Sinn lokal die Inputs zu predicten.

Das würde höchstens beim Gamestreaming Sinn machen und war bei Google Stadia soweit ich mich erinnern kann auch angedacht.

aufkrawall
2024-09-14, 23:37:22
Aber dann müsste der Detailgrad ja ziemlich "optimal" sein, wenn man das Bild einige Sekunden stehen lässt.

Nö, weil die temporale Historie begrenzt ist. Genau wie bei TAA.

BlacKi
2024-09-14, 23:42:26
Das würde höchstens beim Gamestreaming Sinn machen und war bei Google Stadia soweit ich mich erinnern kann auch angedacht.


da sind die latenzen auch anders. generell würde ich aber nicht sagen das dass komplett abwegig ist.

Gast
2024-09-15, 00:30:56
da sind die latenzen auch anders. generell würde ich aber nicht sagen das dass komplett abwegig ist.

Eben deshalb wäre es dort auch sinnvoll. Lokal hast du die realen Inputs ständig verfügbar, es wäre Schwachsinn Rechenzeit für etwas zu verschwenden für etwas was man auch direkt abfragen kann.

robbitop
2024-09-15, 05:44:17
Ich stelle mir das vereinfacht in etwa so vor:
Mit dem Standard Denoiser wird mit DLSS P mit einer Strahlenauflösung von 1080p gerechnet.
Die Strahlen werden zwar denoised, durch temporale akkumulation, aber im endeffekt wird nur bei geringer Auflösung geglättet. Man bekommt also ein Raytracing das in 1080p denoised wurde.

Das Rasterized Bild wird dann via DLSS auf 4K hochskaliert. DLSS kann zwar Geometrie rekonstruieren, aber der gesamte RT pass bleibt effektiv in geringer 1080p Auflösung.


Dann wäre RR viel teurer weil die RT Last auf Faktor 4 hochschnellen würde. In CP77 ist es sogar günstiger (auch mit Path Tracing) als der reguläre denoiser. RR kann offenbar deutlich besser rekonstruieren als ein regulärer denoiser. Wie und warum? Keine Ahnung. Ggf arbeitet es ja zusätzlich dazu dass der demokrat für jeden frame getunt werden kann anstatt ein festes Setting für ein Spiel haben zu müssen. Und/oder noch so wie DLSS1 so dass ganze Bildteile über das NN „halluziniert“ werden.

aufkrawall
2024-09-15, 06:10:42
RR ist auch in CP77 teurer als normales DLSS, wenn du PT nicht nutzt. Mit Reflexionen + Schatten sind es ~10% Verlust. Aber mit 4k-Monitor gut investiert.

Relex
2024-09-15, 10:29:07
Dann wäre RR viel teurer weil die RT Last auf Faktor 4 hochschnellen würde. In CP77 ist es sogar günstiger (auch mit Path Tracing) als der reguläre denoiser. RR kann offenbar deutlich besser rekonstruieren als ein regulärer denoiser. Wie und warum? Keine Ahnung. Ggf arbeitet es ja zusätzlich dazu dass der demokrat für jeden frame getunt werden kann anstatt ein festes Setting für ein Spiel haben zu müssen. Und/oder noch so wie DLSS1 so dass ganze Bildteile über das NN „halluziniert“ werden.


Hmm ja, das ist ein Punkt. Technisch fehlt mir leider das wissen, um überhaupt nachvollziehen zu können, was bei einer Strahlenrekonstruktion überhaupt passieren müsste bzw. wie man es sich vorzustellen hätte.

Na ja, war wie gesagt nur ein laienhafter Erklärungsversuch. Mir bleibt es ein Rätsel, wie Nvidia mit RR trotz sehr geringer Auflösung RT Details rausholt, die sich selbst mit der 4-fachen Renderauflösung höchstens andeuten.

Vor allem dass das so weit vor den state of the art denoising techniken liegt, die ja auch temporale Daten nutzen ist fast schon beängstigend. An RT forscht man ja auch nicht erst seit gestern und RR gibts ja auch erst seit letztem Jahr. Bis dahin lieferten auch Nvidias RT implementierungen deutlich schlechtere Ergebnisse.


Vor allem muss man sich fragen, wie AMD das wieder aufholen kann.
Fast jede aktuelle Engine hat eine Form von RTGI und Nvidias RR erhöht eben massiv die Bildqualität des RT. Das ist mittel bis langfristig eine prekäre Lage für AMD. Noch mehr als es bisher mit dem FSR Upscaler der Fall war.

AMD hat schon mit klassischem Upscaling zu kämpfen. RR scheint nochmal ne andere Liga zu sein.

Womöglich kann Nvidia Erfahrungen aus RR auch in Form von DLSS 4 für das klassische Upscaling umsetzen, wer weiß.



Historisch gesehen war es zwar immer so, dass sich neue exklusive Features z.B. von nvidia langfristig als offener Standard etablieren, weil z.B. Spielentwickler die Features in besserer und effizienterer Form nachbauen. So geschehen z.B. mit HBAO+. Lange zeit ein nvidia Feature, das relativ viel Leistung gekostet hat. Nach einigen Jahren hatte jede engine das ganze in besser und nahezu gratis da temporale Daten mit einbezogen wurden.

Nvidias Techniken überleben also auch nicht immer den allgemeinen Fortschritt.

Nur bei DLSS und jetzt RR scheint Nvidia was gelungen zu sein, das man wohl doch nicht so einfach nachbauen kann. Epic Games sind die einzigen Engine Entwickler die was vergleichbares zu DLSS und FSR entwickelt haben, aber haben dafür auch viele Jahre an iteration hinter sich. Es scheint wohl aktuell vollständig an AMD zu hängen, für Konkurrenz zu sorgen. Solange man aber so weit hinterherhinkt wird man das Ziel nicht erreichen.

Einerseits spannend zu sehen, was Nvidia in Zukunft noch in dem Feld erreichen wird. Andererseits beängstigend, dass die Konkurrenz nicht nachkommt und die Technologie nicht alle nutzen können. Aber das ist offensichtlich der Preis dafür.

basix
2024-09-15, 10:55:52
Das ist sehr optimistisch gedacht.
Bei jeder Hardware ohne dediziertern DL-Beschleunigern wird diese Rechenleistung von der restlichen Grafikberechnung abgezwackt.

Wenn man realistischerweise davon ausgehen will, dass man mindestens 90% der Zeit mit Grafikberechnung und max. 10% der Zeit mit Upscaling verbringen will, dürfte man nur 10% des maximalen Durchsatzes für die Berechnung verwenden, und dann sieht es schon ganz anders aus.

Ich habe es selbst bei Nvidia DLSS 3.5 und mit/ohne Frame Generation via Nvidia Nsight "ausgemessen". Wenn die Tensor Cores losgehen, ist die Auslasung kurzzeitig sehr hoch und die restliche Pipeline für die FP32-Units fast leer. Der maximale Durchsatz wird hier eh nicht benötigt. Es geht darum, dass man z.B. bei einem 60fps Target z.B. 1ms für die Ausführung des Netzwerks benötigt (das ist das, was ich als Beispiel genannt habe). Das wären dann nur 1ms/16.7ms = 6% des maximalen Durchsatzes. Und hier oben drauf noch 33...50% der maximal möglich Auslastung, weil man die Einheiten niemals zu 100% auslasten kann (zu wenig Cache, Register, Bandbreite, etc.). Macht dann 2...3% des maximalen Throughputs und es passt immer noch mit ~20...30 TOPS ;) Je nachdem kann man es noch zusätzlich via Async Compute "verstecken" und man hätte noch etwas mehr Zeit als nur 1ms.
- 3% * 20 TOPS = 600 GOPS (effektive Rechenlast)
- 600 GOPS / 10 GOPS = 60fps
- 3% / 50% Auslastung = 6% der Zeit sind Matrix Berechnungen aktiv
- 6% * 1sec / 60fps = 1ms/Frame

Hier der damalige Post zu CP2077: Tensor Units peaken ~0.15ms für DLSS und ~0.25ms für FG. Maximale Load ca. 60%. Den Rest der Zeit machen die Tensor Units gar nichts. Hier im Anhang habe ich DLSS und FG noch separat markiert. Mittelklasse GPUs ohne dedizierte Matrix-Acceleration wären eher so mit 1ms anstatt 0.15ms unterwegs. Das wäre kein Problem, die Framerate wird dadurch nicht extrem belastet (z.B. 100fps anstatt 110fps). Schnellere GPUs inkl. Matrix Acceleration wären dann eher so wie DLSS mit einem Bruchteil einer Millisekunde unterwegs. DLSS besteht nur zu einem kleinen Teil aus Tensor & Matrix Berechnungen. Der grösste Teil ist herkömmliches FP16 & FP32 (Filtering, Reprojection, Accumulation ist alles normale Compute-Last). Und genau das hat ARM ihn ihrer Siggraph Präsentation mit ihrem eigenen Ansatz ebenfalls so aufgezeigt.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13285616#post13285616

horn 12
2024-09-15, 11:22:24
Ja, da das Spielbundle am 05 Oktober ausläuft
dürfte Vorstellung von RDNA 4 wohl nicht mehr lange auf sich warten lassen,-
zusammen mit FSR 4.0 die Karten attraktiv machen,- wenn AMD nicht wieder den Lauch (wie so oft in den Letzten Jahren) oder die BQ vergeigt!
und sich mit 349 bis 449 Euro begnügen würde der womögliche Renner werden!

DrFreaK666
2024-09-15, 13:06:54
FSR4 und RDNA4 - das passt so gut zusammen.
Hoffentlich wird FSR4 nicht nur mit einem "coming soon (ein Jahr später)" angeteased XD

robbitop
2024-09-15, 13:24:11
Ich tippe auf: das dass sogar schon das best Szenario ist und auch kein RR in der Pipeline ist (oder zumindest angekündigt wird).
Ich würde mich aber sehr sehr gerne irren. :)

dildo4u
2024-09-20, 07:06:04
Das neue God of War mit FSR 3.1 Native+ FG.

WsklgM0rGs8

robbitop
2024-09-26, 10:12:17
https://www.youtube.com/watch?v=jfSS1wAdHx4&pp=ygURYW5jaWVudCBnYW1lcGxheXM%3D

Ancient Gameplays sagt das ist die beste Implementierung von FSR3.1 bis dato (GoW Ragnarok).

Gast
2024-09-26, 22:01:55
https://www.youtube.com/watch?v=jfSS1wAdHx4&pp=ygURYW5jaWVudCBnYW1lcGxheXM%3D

Ancient Gameplays sagt das ist die beste Implementierung von FSR3.1 bis dato (GoW Ragnarok).

Hast du tatsächlich etwas anderes erwartet? :D

DrFreaK666
2024-09-27, 00:23:15
Hast du tatsächlich etwas anderes erwartet? :D

Hast du Videos, die das Gegenteil behaupten? :rolleyes:

Gast
2024-09-27, 00:38:44
Hast du Videos, die das Gegenteil behaupten? :rolleyes:

Der Laberkopp findet alles von AMD cool, gibt genug Deppen wo drauf reinfallen.

aufkrawall
2024-09-27, 01:43:04
Na ja, er sagt selbst, dass Wasseroberfläche verpixelt und Partikel ghosten. Und bei Performance-Upsampling in 4k wirds trotzdem arg matschen vs. DLSS Preset E. Fällt bei der weichgespülten Optik und dem LastGen-Content natürlich nicht so arg auf wie z.B. mit Nanite. Kannst auch mit Optiscaler Spiele erwischen, wo es zufällig recht nutzbar ist. Macht den Algorithmus aber auch nicht besser bzw. ändert an den Problemfällen nichts. Neue Version muss her.

DrFreaK666
2024-09-27, 01:51:27
Es geht um die Aussage, dass es die beste Implementierung von FSR3.1 bisher ist. Mehr nicht. Von einem DLSS-Killer ist nicht die Rede

aufkrawall
2024-09-27, 01:55:08
Du verwechselst "beste Implementierung" mit (vielleicht) "brauchbarstem Resultat". Falls das mit DLSS -> Optiscaler FSR 3.1 genauso gut aussieht, hätte das rein gar nichts mit der Implementierung zu tun, sondern nur mit dem Input/Content.

Relex
2024-09-27, 08:23:39
Es liegt 100 pro am Content.

Wenn ich mir das Ergebnis in Forbidden West mit FSR 3.1 ansehe, dann sehe ich da bei allen inhalten mit statischer Geometrie auch ein ziemlich sauberes Ergebnis. Und genau das bietet GoW hauptsächlich.

FSR verschmiert bei Horizon wenn die Vegetation von selbst in Bewegung ist. Das gibt es bei GoW auch nicht. Die Vegetation verschmiert aber trotzdem wenn man die Kamera bewegt. Bei Horizon ist es eben Kamera + eigenbewegung der Vegetation im Bild, was on kombination sehr viel Unschärfe erzeugt, vor allem da Horizon ja häufig das ganze Bild damit zukleistert und die Vegetation, insbesondere das ganze Gras sehr fein sind. Das ist dann worst case für FSR.

GoW verzichtet auch größtenteils auf spiegelnde Oberflächen und Transparenzeffekte, wie es z.B. bei Ratchet and Clank der Fall ist. Allerdings sind die typischen Probleme beim Wasser sowie bei Partikeln genauso auffällig.

Kurz gesagt: in GOW dominieren die Problembereiche selten das Bild.

FSR ist hier also am ehesten brauchbar, aber dass die implementierung besser ist, bezweifle ich.

Zumal DLSS hier auch herausragend gut aussieht. Der Content ist eben ideal für Upscaler, da die Grafik technisch ziemlich „sauber“ ist. War bei Starfield genauso. Auch sehr cleane Rastergrafik, die die Upscaler kaum vor Herausforderungen stellt und auch da bietet FSR ein gutes Ergebnis. Dafür sieht aber auch DLSS umso besser aus.

Man kann auch sagen, wenn FSR und DLSS in gleichem Maße besser aussehen, als sonst, dann liegt es sehr wahrscheinlich am Content.

robbitop
2024-09-27, 08:27:25
Der Laberkopp findet alles von AMD cool, gibt genug Deppen wo drauf reinfallen.
Das würde ich nicht so sehen. Er hat auch das Ghosting bei bisherigen FSR 3.1 Implementierungen kritisiert, hat XeSS und DLSS gelobt wenn sie besser waren. Und auch schlechte FSR2 und 3.0 Implementierungen kritisiert. Auch FSR FG wenn es nicht vernünftig vom Frame Pacing her war kritisiert.
Du schaust seine Videos offenbar nicht vollumfänglich und entsprechend hast du da ein Vorurteil.

Hat er ein AMD Bias? Ja hat er - aber es wirkt auf mich so dass er da seine Nische bei youtube gefunden hat und das eher darin mündet, dass er viel auf AMD HW testet und AMD Verfahren testet. Aber IMO verzerrt er die Bewertungen nicht. Wenn was gut funktioniert kann man das auch mal loben und wenn es das nicht tut kann man das auch mal kritisieren. Beides tut er.

Na ja, er sagt selbst, dass Wasseroberfläche verpixelt und Partikel ghosten. Und bei Performance-Upsampling in 4k wirds trotzdem arg matschen vs. DLSS Preset E. Fällt bei der weichgespülten Optik und dem LastGen-Content natürlich nicht so arg auf wie z.B. mit Nanite. Kannst auch mit Optiscaler Spiele erwischen, wo es zufällig recht nutzbar ist. Macht den Algorithmus aber auch nicht besser bzw. ändert an den Problemfällen nichts. Neue Version muss her.
Ja :)
AMD hat das anscheinend auch eingesehen. Wobei ich immer noch beeindruckt bin, dass bei den typischen nicht NN Upsampling Problemstellen die modernsten Versionen von TSR so gut ist. Ganz ohne NN. Aber ggf. ist ein Teilstück die tiefe Implementierung in die Unreal Engine und ggf. kann es mehr Daten abgreifen und/oder es ermöglicht immer eine besonders gute Implementierung.
Aber es scheint ja so zu sein, dass man mit NN basierten Verfahren robustere Ergebnisse herauszuholen scheint. (wobei XeSS auch Schwächen hat - zumindest in der dp4a Version - und auch PSSR ist nicht überall "perfekt" wenn man sich den DF Content zum Gezeigten auf der PS5PRO anschaut)

DrFreaK666
2024-09-27, 09:33:13
Es liegt 100 pro am Content.

Wenn ich mir das Ergebnis in Forbidden West mit FSR 3.1 ansehe, dann sehe ich da bei allen inhalten mit statischer Geometrie auch ein ziemlich sauberes Ergebnis. Und genau das bietet GoW hauptsächlich.

Bei FW gibt es Ghosting bei Bewegung oder Angriff der Figur, hier nicht

aufkrawall
2024-09-27, 10:21:30
Wobei ich immer noch beeindruckt bin, dass bei den typischen nicht NN Upsampling Problemstellen die modernsten Versionen von TSR so gut ist.

Ist halt umgekehrt absolut traurig, dass FSR 3.1 immer noch schlecht vs. TSR von vor 1,5 Jahren in Fortnite ist.

dildo4u
2024-09-27, 11:13:07
Der God of War Test ist auch recht Positiv alle Upsampler produzieren ein gutes Bild.

https://www.techpowerup.com/review/god-of-war-ragnarok-dlss-vs-fsr-vs-xess-comparison/

Exxtreme
2024-09-28, 15:23:29
OptiScaler hat jetzt ein natives FSR 3.1 Backend, welches auch in DirectX 11 Spielen funktioniert, ohne den DirectX 11 -> 12 Umweg. Interessant ist, dass Modder mal wieder Sachen hinbekommen, die der Hersteller nicht hinbekommt.

dargo
2024-09-28, 15:26:24
OptiScaler hat jetzt ein natives FSR 3.1 Backend, welches auch in DirectX 11 Spielen funktioniert, ohne den DirectX 11 -> 12 Umweg. Interessant ist, dass Modder mal wieder Sachen hinbekommen, die der Hersteller nicht hinbekommt.
Mir kommt das langsam vor wie die lange Lernphase beim Übergang von D3D11 auf D3D12 bei den DEVs. :freak:

aufkrawall
2024-09-28, 17:06:58
Hat nichts mit Lernphase zu tun, sondern mit freiwilliger Arbeit, um die Support-Lücke von AMD zu stopfen.

basix
2024-09-29, 14:33:34
Noch ein paar Gedanken zu FSR4:

MS AutoSR Gegenstück (oder einfach direkt MS AutoSR?), direkt im Treiber integriert. Primär auf NPU und optional auf GPU lauffähig (via WMMA). Da kommt ein Teil der "Battery Life" Verbesserungen her
ML/AI Update von FSR4 Temporal Upsampling, ähnlich zu DLSS2/3 -> Verbesserte Qualität. Evtl. kann der ML/AI Teil optional an eine NPU ausgelagert werden (bei Rendering auf einer iGPU), um die iGPU zu entlasten
Dito ML/AI Update von FSR4 Frame Generation. Auch hier, der ML/AI Teil wäre auch auf der NPU lauffähig
DirectSR Integration -> Einheitliche API, einfachere Integration, DLL zwingend (?)
Auf GPUs Verwendung von WMMA Instruktionen bei allen Varianten und Subsets von FSR4, FG, AFMF, [...] -> Höhere Performance und/oder Qualität, da mehr Rohleistung auf den Boden gebracht werden kann. Das wird primär RDNA3 und vor allem RDNA4 zu Gute kommen (und Intel / Nvidia GPUs mit Matrix Acceleration)
AFMF Update ähnlich AutoSR, auf NPU lauffähig? Oder entsprechende ML/AI Ergänzung? Ebenfalls "Battery Life" Verbesserungen und Entlastung der GPU
Xbox und PS5 SDK Integration von AMD AutoSR und AFMF. Sony und MS zahlen AMD dafür Lizenzkosten. Daneben kommt auch FSR4 in die SDKs, womit AMD bei Cross Plattform Titeln fast garantiert eine FSR4 Integration bekommt.

Ich denke, dass dies die wahrscheinlichsten Updates sein werden. Das ist bereits sehr viel und hätte eine hohe Schlagkraft. Damit wird primär iGPU und NPU gepusht, wo AMD besser als bei dGPU dasteht. Die Treiber-Features würden allerdings auch bei dGPUs ein gutes Feature sein (wenn man sie neben der NPU auch auf der GPU ausführen kann), da Intel und Nvidia momentan nichts vergleichbares bieten. Daneben holt man gegenüber DLSS3 auf, was die Qualität anbelangt und somit wird eine der grösseren Feature-Schwachstellen eliminiert.

Weitere Punkte für FSR4 wären folgende, sind aber wohl eher sowas wie Stretch Goals. Die brauchen einfach nochmals sehr viel zusätzliches Engineering:

Ray Reconstruction
Frame Generation mit Extrapolation -> Kein Latenzzuwachs

Exxtreme
2024-09-29, 15:05:23
Ich glaube nicht, dass man die NPU für FSR 4 nutzen wird. Die Latenzen wären VIEL zu hoch.

horn 12
2024-09-29, 15:08:45
und FSR 4.0 nur auf RDNA 4 oder würde dies der 7900XTX zu Neuen Leistungssprüngen und Absatz verhelfen ?

basix
2024-09-29, 15:09:46
Ich glaube nicht, dass man die NPU für FSR 4 nutzen wird. Die Latenzen wären VIEL zu hoch.
Wieso kommst du darauf? Die NPU hängt auch am Infinity Fabric und das Inferencing auf der NPU hat definitiv die geringere Latenz als auf einer iGPU. Es geht ja nur um den Teil, welcher effektiv ein DNN ist und nicht den ganzen Rest von FSR4.

Langfristig gesehen werden sich NPU und iGPU in Zukunft wohl auch einen MALL / Infinity Cache teilen.

Und um zu verdeutlichen: Das gilt nur für iGPUs. Auf einer dGPU bleibt es auf der Grafikkarte.

Edit:
Hier eine Idee, wie das ARM mit einem 10 GOPS DNN für die Parameter Prediction umgesetzt hat: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13614986#post13614986
Und hey, die verwenden die NPU für das ;)

Das Inferencing geht auf einer NPU viel schneller als auf der iGPU (50 TOPS vs. 22 TOPS bei Strix Point und dazu nicht mit anderen Aufgaben beschäftigt). Einzig die Input/Output Daten fürs DNN muss man transferieren, das dürfte aber nicht extrem viel Datenmenge sein.

Exxtreme
2024-09-29, 15:16:44
Natürlich sind die Latenzen viel zu hoch. Das Bild muss von der GPU über den PCIe-Bus wieder zurück zur CPU, dort wird es durch die NPU nachbearbeitet und dann wieder zurück zur GPU damit man das auch ausgeben kann. :freak:

Die NPU wäre eventuell dann brauchbar wenn man den IGP nutzt. Bei einer dedizierten Grafikkarte sehe ich keine Chance, dass man das so nutzen wird.

basix
2024-09-29, 15:22:47
So habe ich es auch gemeint, habe es im Text noch ergänzt:
- NPU ist nur bei einer iGPU ein Thema (Entlastung iGPU, mehr TOPS, geringere Latenz)
- Auf einer dGPU wird alles auf der Grafikkarte berechnet

robbitop
2024-09-29, 16:28:18
Übrigens soll Apple mit MetalFX Upsampling in einer der Varianten die NPU vom M-SoC für das Neuronale Netzwerk nutzen. Solange die NPU on Chip ist, scheint das zu gehen.

aufkrawall
2024-09-29, 16:35:13
Temporal und ohne zusätzliche Latenz? Sonst meh.

Achill
2024-09-29, 18:06:04
Noch ein paar Gedanken zu FSR4:
[..]

Weitere Punkte für FSR4 wären folgende, sind aber wohl eher sowas wie Stretch Goals. Die brauchen einfach nochmals sehr viel zusätzliches Engineering:

Ray Reconstruction
Frame Generation mit Extrapolation -> Kein Latenzzuwachs


Zu Ray Reconstruction, das geht m.E. nur wenn man die komplette Pipeline im Spiel unter Kontrolle hat (wie eben NV mit ihren RTX* Stacks), Entwickler müssten dann also neben NVs Lösung auch die von AMD umsetzen, das sehe ich als mehr Aufwand an im Vergleich FSR neben DLSS mit anzubieten und selbst hier gibt es in der Umsetzung schon unterschiede. Sehe RR nicht so bald, vielleicht wenn es API von MS gibt ...

Zu Frame Generation mit Extrapolation, das wäre sehr schön, mir sind aber nicht einmal wirkliche Demos außer dem Video von Intel bekannt, denke hier muss auch tief in die Engine integriert werden.

Ich könnte mir vorstellen, dass beides eher in der Unreal Engine kommt, TSR kann m.W. auch auf mehr Daten zurück greifen als die anderen Upscaler. Siehe hier: https://dev.epicgames.com/documentation/en-us/unreal-engine/temporal-super-resolution-in-unreal-engine

aufkrawall
2024-09-29, 18:21:40
Ray Reconstruction läuft in UE5 komplett ohne Nvidia-Effekte. Es läuft sogar komplett ohne HWRT.


Ich könnte mir vorstellen, dass beides eher in der Unreal Engine kommt, TSR kann m.W. auch auf mehr Daten zurück greifen als die anderen Upscaler. Siehe hier: https://dev.epicgames.com/documentation/en-us/unreal-engine/temporal-super-resolution-in-unreal-engine
Und auf was beziehst du dich da genau? Welche Daten stehen anderen Upscalern nicht zur Verfügung? Ich will jetzt nicht die ganze Seite lesen, um dann erraten zu müssen, was du meinen könntest...

robbitop
2024-09-29, 19:00:48
Temporal und ohne zusätzliche Latenz? Sonst meh.

Läuft wohl so wie DLSS (das Prinzip). Ich denke auch nicht dass in Chip latency (das sind typischerweise zweistellige ns) in Relation zur Frametime (das sind 3x Größenordnungen mehr) großartig ins Gewicht fallen sollte.

robbitop
2024-09-29, 19:02:15
Zu Ray Reconstruction, das geht m.E. nur wenn man die komplette Pipeline im Spiel unter Kontrolle hat (wie eben NV mit ihren RTX* Stacks), Entwickler müssten dann also neben NVs Lösung auch die von AMD umsetzen, das sehe ich als mehr Aufwand an im Vergleich FSR neben DLSS mit anzubieten und selbst hier gibt es in der Umsetzung schon unterschiede. Sehe RR nicht so bald, vielleicht wenn es API von MS gibt ...

Zu Frame Generation mit Extrapolation, das wäre sehr schön, mir sind aber nicht einmal wirkliche Demos außer dem Video von Intel bekannt, denke hier muss auch tief in die Engine integriert werden.

Ich könnte mir vorstellen, dass beides eher in der Unreal Engine kommt, TSR kann m.W. auch auf mehr Daten zurück greifen als die anderen Upscaler. Siehe hier: https://dev.epicgames.com/documentation/en-us/unreal-engine/temporal-super-resolution-in-unreal-engine

Wenn AMD ihr RR open source und GPU agnostisch bauen und es gut umgesetzt wird gibt es da ggf schon eine Chance.

aufkrawall
2024-09-29, 19:06:10
Läuft wohl so wie DLSS (das Prinzip). Ich denke auch nicht dass in Chip latency (das sind typischerweise zweistellige ns) in Relation zur Frametime (das sind 3x Größenordnungen mehr) großartig ins Gewicht fallen sollte.
Ist es bei Qualcomm nicht on-chip? Da kostet das Windows Scaler-Feature über die NPU ein zusätzliches Frame Latenz.

robbitop
2024-09-29, 20:15:50
Wahrscheinlich weil es post processing ist und null ins Spiel oder den GPU Treiber integriert ist. Zumindest das trifft alles nicht auf MetalFX zu.

Badesalz
2024-09-30, 08:16:20
Temporal und ohne zusätzliche Latenz? Sonst meh.Eine asugezeichnete Frage. Paar Berechnungen mehr, die keine Zeit kosten. Geniale Idee :up:

aufkrawall
2024-09-30, 08:29:28
Du hast es nicht gecheckt. Es geht nicht um die Latenz der Berechnung selbst, sondern dass bei der Qualcomm NPU ähnlich wie bei FG ein Frame gewartet werden muss.

Badesalz
2024-09-30, 08:30:08
Hat natürlich eine völlig andere Ursache...

aufkrawall
2024-09-30, 08:42:00
Ist das hier ein Thread zur Ursachenforschung? Es geht um Ergebnisse. Jegliche zusätzliche wahrnehmbare Eingabeverzögerung durch Upscaling ist ein massiver Fail auf der PC-Plattform.

Und wegen Ergebnissen: FSR 3.1 fällt in Frostpunk 2 schon wieder übel auf mit abartigem Ghosting der Schneepartikel vor diversen Strukturen. Es ist in der Hinsicht schlechter als UE4 TAAU von vor zig Jahren. Aber ja, ML wird AMD bestimmt vor ihrer eigenen Unfähigkeit bewahren. Ist schließlich ein Zauber-Feature, besonders in den Händen von AMD... ;D

Exxtreme
2024-10-03, 17:14:59
Nice! OptiScaler hat eine neue Version rausgebracht, wo man FSR FG in jedem Spiel nutzen kann, welches DLSS unterstützt:
https://github.com/cdozdil/OptiScaler/releases

Ist noch experimentell. Interessant ist die Option, dass man sich nur generierte Frames anzeigen lassen kann.

robbitop
2024-10-17, 11:47:10
Kann man mit Optiscaler eigentlich auf Reflex auf einer 3080 nutzen, wenn man FSR 3/3.1 Frame Generation nutzt?
IIRC ging das ja in der Vergangenheit in's Leere. Optiscaler 11 hat ja immerhin Reflex in Antilag 2 umgewandelt - die Frage ist aber ist Reflex mit FSR FG auf einer Geforce auch nutzbar?

Dank Optiscaler ist ein Großteil des Nachteils von Nicht Ada GPUs mittlerweile echt weg. Man kann FG auf Turing und Ampere nutzen. Man kann XeSS und FSR3.1 in jedem neuen Spiel nutzen und hat auch als Radeon Nutzer gute Upsamplings zur Verfügung.
In CP77 ist die native Implementierung von FSR3 und 2.1 ja nicht so toll - mit Optiscaler und FSR3.1 oder XeSS sieht auch das wieder gut aus.

Eine 7900XTX für einen günstigen Preis (sub 700 EUR) mit Wakü und 500-600W BIOS @>3 GHz würe da meistens schon echt gut abgehen und dank Optiscaler ist einiges an Möglichkeiten vorhanden. Muss man dann eigentlich nur noch primär das langsamere RT akzeptieren (oder es ausschalten).

aufkrawall
2024-10-17, 12:35:29
IIRC ging das ja in der Vergangenheit in's Leere.

Ich hatte dir schon mal gesagt, dass das mit der Nukem-Mod geht.

robbitop
2024-10-17, 12:37:20
Stimmt - danke. Aber: Ich wollte gern wissen wie es mit Optiscaler ist. Eine Mod reicht mir ^^.

DrFreaK666
2024-10-17, 12:59:21
Uniscaler scheint ähnlich zu sein

pKBcKZ99Rhw

aufkrawall
2024-10-17, 13:18:36
Nein, Uniscaler macht Reflex futsch auf GeForce.

DrFreaK666
2024-10-18, 11:31:13
Geforce interessiert mich im AMD-Thread nicht

robbitop
2024-10-18, 12:23:57
Es ist kein AMD Thread sondern es geht um Fidelity FX Super Resoultion als Verfahren (im Technologieunterforum) welches auf allen GPUs läuft (also IHV agnostisch). Und es ist sehr wohl relevant wie es auf nicht AMD GPUs funktioniert.

Wenn dich etwas nicht interessiert, kannst du es ja auch ignorieren. Auch ist kein Post auch immer eine Option. ;)

DrFreaK666
2024-10-18, 18:23:10
Hast Recht, aber als Geforce-User braucht man den Mod auch nicht. Oder wieso sollte man nicht DLSS, sondern XeSS oder FSR nutzen wollen?

aufkrawall
2024-10-18, 18:38:57
Für FG auf Ampere? Erst denken, dann posten? Bzw. ist Letzteres optional.

robbitop
2024-10-18, 18:40:45
Hast Recht, aber als Geforce-User braucht man den Mod auch nicht. Oder wieso sollte man nicht DLSS, sondern XeSS oder FSR nutzen wollen?

(1) FSR gibt es ja auch im Zusammenhang von Framegeneration und das betrifft alle nicht Ada Geforces. Also Pascal, Turing, Ampere usw
(2) DLSS läuft erst ab Turing. Also ist es potenziell interessant für Maxwell und Pascal
(3) Ist es auch interessant den Fortschritt von FSR als Geforce Nutzer zu verfolgen (sofern man kein Fanboy ist und einigermaßen neugierig und interessiert an Technologie ist ;))

DrFreaK666
2024-10-18, 22:02:03
Hab die Nvidia-Limitierungen vergessen

Ex3cut3r
2024-10-19, 17:52:31
Gutes Vergleichsvideo. Selbst Sonys Eigenentwicklung ist auf AMD HW besser als FSR.

OQKbuUXg9_4

Relex
2024-10-19, 18:05:39
Jap, aus dem Start heraus scheint es echt ordentlich geworden sein.

Das zeigt dann auch leider sehr deutlich, dass praktisch jeder es besser kann, als AMD.
Nicht nur Nvidia, sondern eben auch Intel, Epic und Sony. Das ist leider das traurige Fazit dabei.

Na ja, vielleicht wirds ja mit FSR4 besser... Irgendwann mal

aufkrawall
2024-10-19, 20:22:01
Ganz schön arm, dass die Bewegungsvektoren fürs Gras mit der PS5 Pro-Version immer noch kaputt sind, auch wenn das mit PSSR nicht mehr zur völligen Verdammnis führt. Sollte auch ein Beleg dafür sein, dass PSSR ein ML-TAAU ist, das das TAA ersetzt, und nicht zusätzlicher spatial Murks.

Wäre "witzig", wenn das auf der PS5 Pro über die WMMA-Beschleunigung läuft und Radeon-Besitzer zum Release der Konsole weiterhin in die Fizzel-Röhre gucken müssen. :freak:

Exxtreme
2024-10-19, 20:31:22
Gutes Vergleichsvideo. Selbst Sonys Eigenentwicklung ist auf AMD HW besser als FSR.

https://youtu.be/OQKbuUXg9_4

PSSR scheint besser mit Inkompetenz der Entwickler zurechtzukommen, ja.

aufkrawall
2024-10-19, 20:49:11
Sieht mit dem ganzen Gerausche sehr verdächtig nach XeSS DP4a aus. Nicht, dass es derselbe Algorithmus ist, aber ggf. auch ein kondensiertes Neural Network, das noch schnell genug über WMMA auf RDNA3 läuft. Von der GeForce-Warte aus natürlich absolut langweilig, gegen Ray Reconstruction nur ein laues Lüftchen.

Ex3cut3r
2024-10-19, 21:20:04
PSSR scheint besser mit Inkompetenz der Entwickler zurechtzukommen, ja.

So kann man es natürlich auch drehen. Ich sage AMD hat keine kompetenten SW Leute. Die wievielte Iteration von FSR ist das nun? Die Vierte? Und man kommt gegen First Gen Sony Tech nicht ran. ;D

Ein Armutszeugnis.

Exxtreme
2024-10-19, 21:23:27
So kann man es natürlich auch drehen. Ich sage AMD hat keine kompetenten SW Leute. Die wievielte Iteration von FSR ist das nun? Die Vierte? Und man kommt gegen First Gen Sony Tech nicht ran. ;D

Ein Armutszeugnis.

Die wollen halt unbedingt auf AI-Halluzinationen verzichten damit das auch auf Gurkenhardware läuft. Das Ziel hat PSSR nicht.

Relex
2024-10-19, 21:56:12
Solange die AI das Aliasing und das Gebrösel weghaluziniert, ist doch alles gut. :D

Wobei ich mal vermuten würde, dass da keine generative KI zum Einsatz kommt und folglich keine Halluzinationen stattfinden?

Bei DLSS2+ findet ja recht offensichtlich keine direkte Bildbearbeitung durch die AI statt, wie es bei DLSS1 noch war. Das würde man ja am Look erkennen. Wahrscheinlich geht es beim Einsatz der KI wirklich nur um einen Teilaspekt des Upsamplings wie z.B. der korrekten Verwertung der samples aus alten Frames, Denoising usw.

Ein Algorithmus der besser Muster in Daten erkennen kann reicht vermutlich schon, um am Ende bessere Bildqualität rauszubekommen. Und in Mustererkennung ist AI natürlich prinzipiell gut.

Aber keine Ahnung, ich reime mir das auch nur zusammen...

aufkrawall
2024-10-19, 22:05:27
Das ML nimmt hier ja keine inhaltliche Interpretation bzw. Kategorisierung vor, sondern versucht "nur" Aliasing zu vermeiden. Bestimmt schon fast unsachlich vereinfacht, aber die öffentlichen Informationen sind ja auch rar. Folglich kann das mit den "Halluzinationen" nicht so in die Hose gehen wie bei generativen Verfahren.

Es gibt halt kein AA, was für Echtzeit-Anforderungen RR auch nur ansatzweise das Wasser reichen würde. Wahrscheinlich würde selbst perfektes 4xSGSSAA mit Nanite-Vegetation auch ziemlich bescheiden aussehen, weil absoluter Hardcore-Content. Man hat das ja nur aus Spielen mit alter Gammelgrafik in Erinnerung.

ChaosTM
2024-10-19, 22:12:31
So kann man es natürlich auch drehen. Ich sage AMD hat keine kompetenten SW Leute. Die wievielte Iteration von FSR ist das nun? Die Vierte? Und man kommt gegen First Gen Sony Tech nicht ran. ;D

Ein Armutszeugnis.


AMD hat zu viele Bereiche, über die sie ihr R&D Budget verteilen müssen.
Momentan gibt es viele andere Bereiche, in denen sie bevorzugt Fortschritte machen sollten.
CPUs inklusive ARM APUs*, "Cuda replacement*" um ihre AI Chips überhaupt verkaufen zu können etc.
Das "Gipfeltreffen" mit dem Gelsenmann ging wohl hauptsächlich um letzteres..




*NV steht angeblich in den Startlöchern eine ARM Based APU zu veröffentlichen

TheGood
2024-10-20, 08:55:55
Woher kann man sich denn sicher sein, dass die PSSR Lösung nicht von AMD entwickelt wurde?
;)

robbitop
2024-10-20, 09:06:52
Digital Foundrys Quellen sagen es ist eine Sony Entwicklung. MLID sagt es auch. Es ist so sicher wie man bei sowas halt sein kann. Es ist ja nicht so als würde es für sowas immer offizielle statements geben.

Relex
2024-10-20, 10:31:35
Woher kann man sich denn sicher sein, dass die PSSR Lösung nicht von AMD entwickelt wurde?
;)

Völlig andere Vor und Nachteile bei verschiedenen Aspekten des Bildes.

Ich bezweifle, dass AMD komplett bei null anfangen würde und völlig andere Ergebnisse bekommt, wenn sie ein FSR4 mit AI entwickeln würden bzw. eben für Sony ein PSSR.

Dino-Fossil
2024-10-29, 10:50:09
https://gpuopen.com/learn/neural_supersampling_and_denoising_for_real-time_path_tracing/

FSR4 incoming? Laut Mike Burrows evtl ab RDNA2, aber performanter ab RDNA3.

horn 12
2024-10-31, 03:11:25
https://videocardz.com/pixel/amd-fidelityfx-sdk-update-brings-fsr-3-1-2-and-native-microsoft-gdk-compilation-for-xbox-series-x-s

Es geht voran
Nun fehlt nur noch FSR 4.0 im Treiber anwählbar!

DrFreaK666
2024-10-31, 15:24:35
AMD’s Next-Gen FSR with machine learning is coming to Call of Duty Black Ops 6
https://videocardz.com/newz/amds-next-gen-fsr-with-machine-learning-is-coming-to-call-of-duty-black-ops-6

Ist jetzt nicht unbedingt ein Spiel, das meiner Meinung nach FSR4 benötigt, aber es sieht jedenfalls aus, als würde es (FSR4) kein Jahr benötigen

dildo4u
2024-10-31, 15:40:30
AMD hat dort sein Performance Vorteil Verloren für 4k120fps braucht man Upsampling.


https://i.ibb.co/0Z1ScgW/Screenshot-2024-10-31-154004.png (https://ibb.co/VDbZt7h)

https://www.computerbase.de/artikel/gaming/cod-black-ops-6-benchmark-test.90101/seite-2

Raff
2024-10-31, 15:46:19
Dass man Upsampling für derart hohe Fps braucht, stimmt – der Radeon-Performance-Vorteil ist aber noch da:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=89971&stc=1&d=1730385968

(Teaser für morgen früh. Das ist UHD mit TAA, maximal GPU-lastige Szene)

MfG
Raff

Relex
2024-10-31, 16:12:55
Einen Shooter wie CoD würde ich niemals so spielen.

Da wird alles so eingestellt, dass 120 FPS erreicht werden und dann gewinnt die bessere Bildqualität.

Christopher_Blair
2024-10-31, 17:02:13
Ist xess immer so Performance hungrig? Läuft das in cod 6 wie gedacht? Bei mir auf der 7900xtx ist es ~25% langsamer als FSR3. Der Ultra Performance Mode sieht aber auch extrem besser aus als FSR3.

aufkrawall
2024-10-31, 17:51:23
Ohne RT und mit hoher Auflösung können die Render-Kosten von XeSS ziemlich reinhauen, ja.

Relex
2024-10-31, 18:09:42
Hab schon öfter gesehen, dass XeSS auf AMD Karten sogar deutlich teurer ist als auf Nvidia Karten. (was schon bitter ist, wenn man ne alternative zu FSR sucht)

DLSS auf Nvidia vs XeSS auf AMD zu testen ist daher maximale Benachteiligung für die AMD performance. Das würde auch die Ergebnisse von CB erklären.

Stellt sich aber die Frage, inwiefern es überhaupt sinnvoll ist, mit FSR zu testen, wenn FSR laut CB qualitativ "eine absolute Bruchlandung" hinlegt...


Die Testmethodik von PCGH finde ich da sinnvoller.

Am besten wärs natürlich, wenn man einfach mal alles vergleicht.
Einfach ne 4080 oder 4070 und ne 7900XTX oder 7800XT nehmen und mal in 1440p und 4K jeweils TAA, FSR, XeSS und DLSS im Quality mode vergleichen.
Ist relativ schnell getestet und wäre sehr aufschlussreich (dafür gerne 1-2 Karten weniger testen)

robbitop
2024-10-31, 18:16:18
Gibt es Benchmarks die das belegen, dass XeSS auf AMD GPUs mehr Performance kostet (relativ)? Höre ich zum ersten Mal. Und wenn ja: ist das signifikant oder sprechen wir hier von kleinen einstelligen Werten?

raffa
2024-10-31, 18:17:11
https://github.com/cdozdil/OptiScaler/pull/100

Bin gespannt, FSR 3.1.1 macht jedenfalls einen ganz guten Job im MSFS2020. Was andres hab ich noch nicht getestet. Vielleicht mal den Witcher ausgraben.

Relex
2024-10-31, 18:20:44
@robbitop
Tja, wenn ich das wüsste. Ich habe mindestens zwei benchmarks gesehen die das eindeutig gezeigt haben, aber ich kann mich beim besten Willen nicht erinnern, wo ich das gesehen habe und welche Spiele. Ist auch schon ein paar Wochen oder Monate her.

Würde das natürlich gerne belegen. Aber macht jetzt keinen Sinn, wahllos dutzende Benchmarks und Seiten zu durchforsten. Wobei ich nichtmal weiß, ob es ein Video war. :confused:

Relex
2024-10-31, 19:07:24
@robbitop
Mein Hirn hat mich doch nicht im Stich gelassen.
Es war dieses Video:

YZr6rt9yjio


Hier die Vergleiche (sorry für die leicht überbelichteten Screenshots. Ich hatte gerade HDR aktiv)

Ratchet and Clank Rift Apart
https://i.ibb.co/Sr8z51k/001-R-C-NV.png (https://ibb.co/Sr8z51k)https://i.ibb.co/jy1NFLK/001-R-C-AMD.png (https://ibb.co/jy1NFLK)

Nvidia: TAA 67 FPS | XeSS Q 96 FPS = +43 %
AMD: TAA 65 FPS | XeSS Q 81 FPS = +25 %



Horizon Forbidden West
https://i.ibb.co/TrhvzG1/002-HFW-NV.png (https://ibb.co/TrhvzG1)https://i.ibb.co/7j5hKFw/002-HFW-AMD.png (https://ibb.co/7j5hKFw)

Nvidia: TAA 46 FPS | XeSS Q 64 FPS = +39 %
AMD: TAA 50 FPS | XeSS Q 62 FPS = +24 %



Ghost of Tsushima
https://i.ibb.co/fDgg53Y/003-Go-T-NV.png (https://ibb.co/fDgg53Y)https://i.ibb.co/XZ4SyhF/003-Go-T-AMD.png (https://ibb.co/XZ4SyhF)

Nvidia: TAA 32 FPS | XeSS Q 45 FPS = +41 %
AMD: TAA 37 FPS | XeSS Q 49 FPS = +32 %



Spider-Man Remastered
https://i.ibb.co/y0yZLYh/004-SM-NV.png (https://ibb.co/y0yZLYh)https://i.ibb.co/jGN2LVC/004-SM-AMD.png (https://ibb.co/jGN2LVC)

Nvidia: TAA 52 FPS | XeSS Q 74 FPS = +42 %
AMD: TAA 48 FPS | XeSS Q 65 FPS = +35 %



Spider-Man Miles Morales
https://i.ibb.co/L0CB2LN/005-MM-NV.png (https://ibb.co/L0CB2LN)https://i.ibb.co/LtyHSb0/005-MM-AMD.png (https://ibb.co/LtyHSb0)

Nvidia: TAA 81 FPS | XeSS Q 113 FPS = +40 %
AMD: TAA 80 FPS | XeSS Q 98 FPS = +23 %



Und hier die normalisierten Settings, die man auf AMD Karten nutzen muss, um den gleichen relativen Performancegewinn zu erreichen, wie auf einer Nvidia Karte mit DLSS Quality
https://i.ibb.co/brKFzwR/Chart.png (https://ibb.co/brKFzwR)

Wobei das separat zu den oben genannten Zahlen zu sehen ist, da ich TAA als Referenz genommen habe und nicht DLSS. Das ist imho auch fairer für AMD.


Hier übrigens ein recht ähnlicher Test auf den ich gerade zufällig gestoßen bin
https://www.techspot.com/review/2860-amd-fsr-31-versus-dlss/

EDIT: Okay ich sehe gerade, Techspot = Hardware Unboxed :D

robbitop
2024-10-31, 21:26:24
Danke :up:
Schon merkwürdig dass das auf RDNA3 mehr kostet als auf Ada.

raffa
2024-10-31, 21:43:46
Ersteindruck ist ganz nice!

aufkrawall
2024-10-31, 22:11:29
Sehe keine Verbesserung in HFW bez. Partikel-Ghosting oder aliasetem Bloom in Miles Morales.

raffa
2024-10-31, 22:31:15
Da ich erst in diesen Tagen überhaupt FSR3.1 zu sehen bekam, und es sich hier noch dazu um eine Mod handelt, die nur auf den Input via bestehender Implementierung in einer oft nicht gerade vorbildlichen Engine (MSFS2020), wage ich da erstmal kein stärkeres Urteil abzugeben als "gefällt mir erstmal ganz gut, macht nen besseren Job als FSR2.2.1 (und vielleicht auch als 3.1.1)"

Ich begrüße die Entwicklung und "FSR4" scheint ja bald zu kommen

Gast
2024-11-01, 01:29:21
Danke :up:
Schon merkwürdig dass das auf RDNA3 mehr kostet als auf Ada.

Das ist nicht merkwürdig, DP4A kann von den Tensorcores ausgeführt werden, und Tensorcores laufen Nebenläufig und beeinträchtigen die restliche Performance (sofern nicht irgendwelche Shared-Ressourcen zum Bottleneck werden) nicht.

horn 12
2024-11-01, 08:47:11
Ja, würde dem Abverkauf / Weiterem Verkauf der RDNA3 sicherlich zugute kommen falls man wirklich Fehlerfrei und Performance Mässig richtig geil abliefern würde!

dargo
2024-11-01, 21:28:42
Schon jemand der Radeon-User Horizon: Zero Dawn Remastered angespielt? Bin bisher (noch nicht so viel gespielt) positiv von der FSR3-Implementierung überrascht. Bildstabilität sieht bisher sehr gut aus mit 1440p und FSR3_Q und Ghosting ist mir noch nicht aufgefallen (zb. Schneeflocken relativ am Anfang). Leider haben die DEVs die Maussteuerung mal wieder verkackt was den Spielspaß zumindest bei mir erheblich stört. :( Die Bildausgabe ist nur bei fester Framerate absolut flüssig wenn sie durch 30 teilbar ist. Gleiches Problem wie bei Horizon Forbidden West welches nie behoben wurde. :down:

Edit:
Weiße, transparente Partikel ghosten doch.

horn 12
2024-11-02, 08:21:51
Ok, aber wie zufrieden bist mit der Implementierung ansonsten
Weitaus Besser als du dies am Anfang beurteilt hast ?

DrFreaK666
2024-11-02, 12:49:25
Hat das Spiel eine DLL? Hab gelesen das COD keine haben soll. Wäre wichtig wenn FSR4 dann erscheint

robbitop
2024-11-02, 12:57:04
Soweit ich weiß ist bei 3.1 eine dll vorgesehen. 3.1.2 soll auch Verbesserungen in Bezug auf ghosting haben laut Changelog.

DrFreaK666
2024-11-02, 13:26:06
Ich weiß, dass es vorgesehen ist. Ich habe aber gelesen (ja, nur gelesen), dass bei COD eine solche Datei fehlt. Daher frage ich

dargo
2024-11-02, 13:44:29
Hat das Spiel eine DLL?
Ja.

Ok, aber wie zufrieden bist mit der Implementierung ansonsten

Jetzt nach wenigen Spielstunden kann ich sagen, das dürfte die beste FSR3 Implementierung überhaupt sein. Bildstabilität ist erste Sahne, verwende aktuell 1800p mit balanced Preset, was einem Input von 1044p entsprechen sollte. XeSS ist mit vergleichbaren Preset beim Input was die Bildstabilität angeht eine Katastrophe, damit flimmert das Gemüse schon deutlich. FSR3 hat nur das Ghosting Problem wenn die kleinen, transparenten Partikel in der Luft schweben, XeSS wiederum nicht. Schneeflocken sind davon nicht betroffen, wie schon gesagt. Ohne das genannte Ghosting Problem wäre die Implementierung nahezu perfekt.
https://www2.pic-upload.de/thumb/37436094/HorizonZeroDawnRemastered_2024_11_03_11_38_15_331.png (https://www.pic-upload.de/view-37436094/HorizonZeroDawnRemastered_2024_11_03_11_38_15_331.png.html)

Ein kleines "Fuckup" ist mir nämlich auch noch aufgefallen. Wenn man das Auswahlrad für Waffen wählt und wieder verlässt gibt es mit FSR3 eine minimale Verzögerung bis alles wieder scharf dargestellt wird. Sind nur wenige ms, aber diese Verzögerung ist sichtbar. Könnte natürlich auch ein Bug sein, mal sehen was die nächsten Patches noch bringen.

basix
2024-11-03, 12:48:29
Evtl. was für FSR4 & Ray Reconstruction: Sieht auf den ersten Blick vielversprechend aus.
https://gpuopen.com/learn/neural_supersampling_and_denoising_for_real-time_path_tracing/

Ist von hier aus dem Raytracing Thread:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13640001#post13640001
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13642003#post13642003

Hier nochmals der Verweis auf das von ARM präsentierte Verfahren (Temporal Upsampling only): Filter Weight Prediction ist hinsichtlich Performance & Qualität der Favorit
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13614986#post13614986

AMD beschreibt in ihrem Artikel ebenfalls ein "Filter Weight Prediction" Verfahren, welches dem Ansatz von ARM ähnelt und in der Beschreibung auch viele Ähnlichkeiten mit Nvidias Ray Reconstruction aufweist (z.B. "Predict different lighting signals" vs. RR mit "Lighting Pattern Recognition"):


Reconstruct spatially and temporally outstanding quality pixels with fine details given extremely noisy images rendered with 1 sample per pixel.
Use minimal input by taking a noisy color image as input instead of separated noisy diffuse and specular signals.
Handle various noise from all lighting effects with a single denoiser instead of multiple denoisers for different effects.
Support both denoising-only and denoising/upscaling modes from a single neural network for wider use cases.
Highly optimized performance for real-time path tracing at 4K resolution.


https://gpuopen.com/docs_images/neural_supersampling_and_denoising_for_real-time_path_tracing/neural_supersampling_and_denoising_for_real-time_path_tracing-html-_images-Picture3.png

Im Artikel verweist AMD auch auf eines der Paper von Intel, wo sie Spatio-Temporal Upsampling inkl. Denoising kombinieren (wie es wohl auch Nvidias Ray Reconstruction macht):
https://dl.acm.org/doi/pdf/10.1145/3543870

Und ein weiteres Referenz-Paper aus dem Artikel, welches den Optix Denoiser (Version 2022b) qualitativ um Längen schlägt und gleichzeitig deutlich performanter ist:
https://dl.acm.org/doi/pdf/10.1145/3588432.3591562

Exxtreme
2024-11-03, 13:02:28
Viel witziger finde ich, dass dieses Rumhantieren mit Upsampling und AI-Halluzinationen wohl den Grund zeigt warum Larrabee gescheitert ist. Offenbar bekommt man RT nicht schnell genug und muss massivst rumtricken und viele Kompromisse bei der Bildqualität inkauf nehmen damit das trotzdem schneller als 60 fps läuft. :freak: Ansonsten sieht FSR4 durchaus interessant aus. Ich hoffe, es verbessert auch die Bildqualität mit 100% Skallierung.

horn 12
2024-11-03, 13:20:03
Nun ,dies müsste man Alles Jetzt schon bringen
um die Karten an den Mann im Weihnachtsgeschäft zu erreichen.
Was nützt uns dies im Jänner wenn eine 8800XT vielleicht dann an 7900XT und bei RT an 7900XTX plus 10% rankommt,-
aber man auf RDNA 5 noch 10 Monate warten muss.

Zudem FSR 4.0 wohl bei Allen Karten laufen wird,- und bei RDNA3 wohl auch nicht zu knapp.

Relex
2024-11-03, 13:37:10
Viel witziger finde ich, dass dieses Rumhantieren mit Upsampling und AI-Halluzinationen wohl den Grund zeigt warum Larrabee gescheitert ist. Offenbar bekommt man RT nicht schnell genug und muss massivst rumtricken und viele Kompromisse bei der Bildqualität inkauf nehmen damit das trotzdem schneller als 60 fps läuft. :freak: Ansonsten sieht FSR4 durchaus interessant aus. Ich hoffe, es verbessert auch die Bildqualität mit 100% Skallierung.


Raytracing wie es beim offline Rendering schon ewig gemacht wird ist ja auch grundsätzlich nicht in Echtzeit möglich. Davon sind wir sicherlich immernoch viele Jahrzehnte entfernt da es eben ein Bruteforce Ansatz ist.

Der Knackpunkt ist eben genau jene Tricksereien, optimierungen und Abkürzungen zu finden und zu entwickeln, um aus möglichst wenig RT Leistung trotzdem möglichst viel Informationen über die Strahlen zusammenzubekommen um dann ne halbwegs realistische Lichtsimulation daraus zu basteln.


Ich denke RT in echtzeitrendering ist vor allem in der aktuellen Phase mehr ein Software als ein Hardwareproblem.

Die Qualitätssteigerungen durch Ray Reconstruction und ähnliche neue Verfahren zu denen es in den letzten Jahren immer wieder neue Paper gab, zeigen das ja ganz gut.


Dass AMD nun endlich auch richtig in das Thema einsteigt ist super. Sicherlich tun sie das schon länger, aber langsam scheint man Ergebnisse liefern zu können.
Nach FSR3 bleibe ich zwar skeptisch, aber hey, vielleicht wird mit KI jetzt alles besser. Für Nvidia ist es wohl das Erfolgsrezept gewesen, also warum auch nicht für AMD.

dargo
2024-11-03, 15:47:57
Uff... mit dem Regen kommt FSR3 überhaupt nicht klar, das schmiert wie Hulle. X-D
https://www2.pic-upload.de/thumb/37436112/HorizonZeroDawnRemastered_2024_11_03_15_45_45_131.png (https://www.pic-upload.de/view-37436112/HorizonZeroDawnRemastered_2024_11_03_15_45_45_131.png.html)

00-Schneider
2024-11-10, 11:59:52
Are you using PSSR? What do you think about it compared to other upscalers like NVIDIA DLSS, AMD FSR, and Intel XeSS?

We’re currently using it in Enlisted. During development and playtesting, we’ve found PSSR to be on par with NVIDIA DLSS and Intel XeSS, the other two ML based super resolution methods. While in my opinion PSSR produces less blur, ghosting, and unwanted flicker compared to AMD FSR. These technologies are constantly improving, so I find it impressive that the first version of PSSR is already head-to-head with other more mature solutions.

https://www.neogaf.com/threads/pssr-is-better-than-amd-fsr-on-par-with-dlss-xess-says-dev.1677209/

-------------------------

Wie kann es eigentlich sein, dass Sony "mal so eben" einen besseren Upscaler auf den Markt haut, als AMD, die da schon deutlich länger an FSR entwickeln?

Und wie muss sich AMD damit fühlen, dass Sony ihren eigenen Upscaler in der PS5 Pro GPU einbauen hat lassen?

Kann AMD sich ggf. ein paar Dinge von PSSR abschauen? Eigentlich müssten sie ja Zugriff auf die Doku haben.

DrFreaK666
2024-11-10, 12:27:19
Sony hat PSSR in extra Hardware eingebaut. Etwas, das weder RDNA2 noch RDNA3 haben

dildo4u
2024-11-10, 12:27:29
Hängt vermutlich davon ab wie hoch die Basis Auflösung ist aber PSSR kann sich hier nicht absetzen und kostet ordentlich Leistung.
FSR wird häufig inkorrekt eingesetzt vor allem in Unreal Games die TSR nutzen könnten.

SBG9CCWHlCg

Ex3cut3r
2024-11-10, 13:27:07
Sony hat PSSR in extra Hardware eingebaut. Etwas, das weder RDNA2 noch RDNA3 haben

Quelle?

dildo4u
2024-11-10, 13:33:45
Quelle?

https://mein-mmo.de/was-ist-pssr-ps5-pro


-oDDfHrSl7g

Ex3cut3r
2024-11-10, 13:58:31
Und? Bestätigt doch nur, dass Sony mehr aus AMDs Hardware herausholt als AMD mit FSR. Matrix Einheiten haben auch RNDA 3 Karten, obwohl die bisher lediglich als Briefbeschwerer dienen.

The_Invisible
2024-11-10, 14:04:35
Seien wir froh das Sony AMD Beine gemacht hat in Sachen upscaler und RT, kann dem PC nur zugute kommen.
Und AMD kann nur froh sein das NV hier nicht mitmischen kann sonst hätten sie das konsolengeschäft auch noch verloren.

Relex
2024-11-10, 14:31:09
Das Problem bei der KI Beschleunigung von RDNA3 ist ja, dass diese zwar schnell sein kann, allerdings die bestehenden Recheneinheiten nur dafür umgebaut bzw. erweitert wurden.

Das heißt, jegliche KI Berechnung kostet Grafikperformance, während das bei Nvidia einfach nebenbei auf dedizierten Einheiten laufen kann. Dahingehend scheint auf der PS5 Pro alles beim alten zu sein, sonst würde man den performanceverlust nicht so deutlich sehen..


PSSR ist für Konsolen dann fast schon mit XeSS auf AMD Hardware gleichzusetzen.

Relativ hohe Rechenkosten.
Geringe Auflösung notwendig, um die performancekosten zu kaschieren.
Hoffnung, dass der algo gut genug ist, dass unterm Strich trotzdem bessere Bildqualität herauskommt, als mit TAA(U).

Aktuell sind die Ergebnisse für meinen Geschmack extrem durchwachsen.
Bei Ragnarök läuft TAA rund 25% schneller während PSSR flimmern und Aliasing besonders bei der Geometrie und den Texturen (Felsen) erzeugt, welches bei TAA überhaupt nicht vorhanden ist.

Die Vegetation ist so gemischt... Es werden zwar etwas mehr Details aufgelöst und das Bild ist schärfer, dafür flimmert es noch mehr als TAA. Und das alles trotz performanceverlust.

Wollte man performancegleichstand erreichen müsste mit PSSR die Auflösung weiter runter, was die Qualität weiter verschlechtern würde.

Auch bei Last of Us finde ich das Ergebnis ehrlich gesagt furchtbar. Viel mehr Rauschen und Flimmern als auf der PS5 und das gesamte Bild ist lächerlich stark überschärft und überzeichnet.



Ich bin gespannt, was AMD bei RDNA4 aus dem Hut zaubert.
Wird es denn mit RDNA4 dedizierte Matrixeinheiten a la Nvidia geben die FSR4 nutzen könnte?
Falls nicht wirds halt schwierig und man muss immer Auflösung gegen Rechenkosten abwägen, was ein großes Handicap ist.

dildo4u
2024-11-10, 14:45:07
Hast du mit DLSS nicht das selbe oft ist man an das gebunden was der Entwickler als Schärfe eingestellt hat.

Mann kann nachschärfen aber wie bekommt man weniger schärfe?

robbitop
2024-11-10, 14:54:56
Und? Bestätigt doch nur, dass Sony mehr aus AMDs Hardware herausholt als AMD mit FSR. Matrix Einheiten haben auch RNDA 3 Karten, obwohl die bisher lediglich als Briefbeschwerer dienen.
RDNA3 hat keine Matrix Cores. Das sind Vektor FPUs. Das einzige was dazu kam bei RDNA3 war das WMMA Instruction set was gängige AI Datenformate unterstützt.

DrFreaK666
2024-11-10, 14:58:15
Anscheinend hat die PS5 Pro wohl doch keine 300 Tops NPU zu haben. Anders kann ich mir den starken Performance-Verlust nicht erklären.
Hoffe dass bald jemand die APU abschleift und durchleuchtet

robbitop
2024-11-10, 15:01:57
Eine separate NPU könnte man als separaten IP Block ggf erkennen (aber unklar ob man das als NPU erkennen könnte). Aber wenn die CUs bspw echte Matrix Units bekommen haben sollten, würde man das nicht erkennen.

Was meinst du mit Performanceverlust? Gibt es irgendwo Messungen was PSSR kostet?

Was ich interessant finde, ist dass die GPU der PS5 PRO kein VOPD zu haben scheint - denn es werden offiziell nur 16 FTLOPS/s angegeben. Ggf. hat man die Transistoren in mehr INT8 Rechenleistung pro CU investiert für PSSR. Ob jetzt über extra Matrixcores oder über das Aufbohren der FPUs in den CUs sei mal dahingestellt.

basix
2024-11-10, 15:07:09
Ich würde da noch einen weiteren Aspekt erwähnen: API

WMMA ist erst seit kurzem in DX12 drin und sonst hat man nur DP4a un Co. Da AMD darauf abziehlt, eine breite GPU-Basis zu unterstützen ist man dort limitiert und hat das genutzt, was breit verfügbar ist. Auf der anderen Seite arbeiten Nvidia und auch Intel mit proprietären APIs, welche die Matrix/Tensor-Cores ansprechen können. Das ist schon ein Unterschied.

Ich nehme an, FSR4 wird auf RDNA2+ und Turing+ abzielen. RDNA2 wird vermutlich nicht ganz optimal laufen aber RDNA3 schon.

Ob RDNA4 dedizierte Matrix-Cores mitbringen wird? Wäre schön. FP8 Support ist anhand Linux-Patches schon "gesichert". AMD kann ihren WMMA-Ansatz um FP8 erweitern und allenfalls auch noch Block-FP16 (relativ unwahrscheinlich). Dazu noch den INT8/INT4 Durchsatz verdoppeln (ist geringer Aufwand, INT8 ist momentan auf FP16 Niveau). Damit würde man INT4/8 Inferencing bereits um 2x Beschleunigen und wenn FP8-Präzision reicht ebenfalls den Throughput gegenüber von FP16 verdoppeln. Nicht super-Wow aber immerhin eine deutliche Verbesserung pro CU. Cool wären noch weitere Block-FP / Microscaling Formate, das ist aber vermutlich zeitlich nicht realistisch:
https://en.wikipedia.org/wiki/Block_floating_point#Microscaling_(MX)_Formats
https://www.opencompute.org/blog/amd-arm-intel-meta-microsoft-nvidia-and-qualcomm-standardize-next-generation-narrow-precision-data-formats-for-ai

mMn würde es viel Sinn machen, die Matrix-Cores von CDNA3 zu nehmen, die bieten bereits alles ausser INT4 (und keine Block-FP-Formate). Aber dort wäre schon die Frage, wie gut sich das mit der RDNA-Architektur verheiraten liesse.

Relex
2024-11-10, 15:14:46
Hast du mit DLSS nicht das selbe oft ist man an das gebunden was der Entwickler als Schärfe eingestellt hat.

Mann kann nachschärfen aber wie bekommt man weniger schärfe?


Es gab mal eine Phase, da hatte Nvidia einen sehr starken dynamischen Scharfzeichner in DLSS integriert. Der war zwar regelbar aber nicht abschaltbar und selbst auf geringster Stufe viel zu stark.

Zu der Zeit hab ich häufig FSR genutzt, weil das Bild mit DLSS einfach nur hässlich aussah. Die Zeit ist zum Glück längst vorbei.

Heutzutage kommen DLSS, FSR und XeSS idr. ohne Scharfzeichner aus und meistens nutzen die Entwickler auch keinen mehr.

Es kommt natürlich trotzdem vor, dass Entwickler moderat nachschärfen, aber oft ist auch das optional. Nur selten ist es nicht abschaltbar und nur ganz selten ist es an einen Upscaler gebunden, sondern betrifft dann einfach alle Upscaling und Kantenglättungsverfahren.


Zur Not helfen dann auch ini tweaks. Aber wie gesagt. Die Regel ist heutzutage, dass nicht nachgeschärft wird oder es optional im Grafikmenü regelbar ist.

Dass Sony so stark nachschärft und das nicht regelbar macht ist für mich wirklich unverständlich.


Und wie du schon sagst, einmal nachgeschärft bekommt man das nicht mehr weg.
Sämtliche Kanten werden quasi doppelt so "dick" dargestellt, weil jeder Scharfzeichner versucht den Kontrast an den Kanten zu erhöhen, was eben bedeutet, dass man die dunkle Seite einer Kante schwarz nachzeichnet und die helle Seite einer Kante weiß nachzeichnet. Dadurch verliert man effektiv Bildauflösung, auch wenn es subjektiv "schärfer" wirkt, wirkt das Bild zugleich "gröber" anstatt feiner.


Es gibt zwar Filter u.A. mit Reshade wo man das zumindest ein wenig eindämmen kann. Aber wenn der Filter Inhalte anders erkennt und verarbeitet als der Scharfzeichner, läuft man wieder gefahr, Details zu verlieren die erhalten bleiben sollen.

Also ja, einmal scharf gezeichnet ist das Bild quasi unwiederbringlich ruiniert. AMD, Intel und Nvidia haben diesbezüglich ihre Hausaufgaben gemacht. Sony noch nicht...

robbitop
2024-11-10, 15:31:47
Ich würde da noch einen weiteren Aspekt erwähnen: API

WMMA ist erst seit kurzem in DX12 drin und sonst hat man nur DP4a un Co. Da AMD darauf abziehlt, eine breite GPU-Basis zu unterstützen ist man dort limitiert und hat das genutzt, was breit verfügbar ist. Auf der anderen Seite arbeiten Nvidia und auch Intel mit proprietären APIs, welche die Matrix/Tensor-Cores ansprechen können. Das ist schon ein Unterschied.

Ich nehme an, FSR4 wird auf RDNA2+ und Turing+ abzielen. RDNA2 wird vermutlich nicht ganz optimal laufen aber RDNA3 schon.

Ob RDNA4 dedizierte Matrix-Cores mitbringen wird? Wäre schön. FP8 Support ist anhand Linux-Patches schon "gesichert". AMD kann ihren WMMA-Ansatz um FP8 erweitern und allenfalls auch noch Block-FP16 (relativ unwahrscheinlich). Dazu noch den INT8/INT4 Durchsatz verdoppeln (ist geringer Aufwand, INT8 ist momentan auf FP16 Niveau). Damit würde man INT4/8 Inferencing bereits um 2x Beschleunigen und wenn FP8-Präzision reicht ebenfalls den Throughput gegenüber von FP16 verdoppeln. Nicht super-Wow aber immerhin eine deutliche Verbesserung pro CU. Cool wären noch weitere Block-FP / Microscaling Formate, das ist aber vermutlich zeitlich nicht realistisch:
https://en.wikipedia.org/wiki/Block_floating_point#Microscaling_(MX)_Formats
https://www.opencompute.org/blog/amd-arm-intel-meta-microsoft-nvidia-and-qualcomm-standardize-next-generation-narrow-precision-data-formats-for-ai

mMn würde es viel Sinn machen, die Matrix-Cores von CDNA3 zu nehmen, die bieten bereits alles ausser INT4 (und keine Block-FP-Formate). Aber dort wäre schon die Frage, wie gut sich das mit der RDNA-Architektur verheiraten liesse.
Laut Fondness hat CDNA3 keine extra Matrix FPUs und der Begriff ist nur Marketing. Alles Vektor FPUs. Ich konnte weder dafür noch dagegen bisher sinnvolle Quellen finden.

basix
2024-11-10, 15:36:44
Hmm, wäre irgendwie ungewöhnlich aber solange Input/Output/Effizienz stimmt ist es ja egal. Eine Matrix Unit ist nichts anderes als eine parallele Vektor-Unit, wo man Kontrollogik zusammenfassen kann (da identische Kommandos über alle Vektoren).

Noch ein interessanter fund zu XDNA2: Unterstützt MX4/MX6/MX9 (letzteres = Block-FP16). Wäre auch was für RDNA4, ist aber auch eher unwahrscheinlich ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13648044#post13648044

Edit:
Ach ja, RDNA4 soll auch noch Sparsity unterstützen, was RDNA3 nicht macht
https://chipsandcheese.com/p/examining-amds-rdna-4-changes-in-llvm

dargo
2024-11-10, 16:38:41
Das Problem bei der KI Beschleunigung von RDNA3 ist ja, dass diese zwar schnell sein kann, allerdings die bestehenden Recheneinheiten nur dafür umgebaut bzw. erweitert wurden.

Das heißt, jegliche KI Berechnung kostet Grafikperformance, während das bei Nvidia einfach nebenbei auf dedizierten Einheiten laufen kann.
Wo hast du den Quatsch her? Seit wann erzeugt DLSS keinen Overhead?

00-Schneider
2024-11-10, 17:21:51
Was ich interessant finde, ist dass die GPU der PS5 PRO kein VOPD zu haben scheint - denn es werden offiziell nur 16 FTLOPS/s angegeben.


Wie schon im anderen Thread geschrieben:

Für ~6% Mehrperformance teures Silizium verschwenden?

aufkrawall
2024-11-10, 17:49:43
Das heißt, jegliche KI Berechnung kostet Grafikperformance, während das bei Nvidia einfach nebenbei auf dedizierten Einheiten laufen kann.
Tut es aber wohl nicht, also offenbar weiterhin seriell statt async.
Aber da kommt natürlich trotzdem viel weniger Overhead oben drauf. Von Toms Hardware gabs einen Inference-Benchmark mit LLMs, und da zieht RDNA3 zwar 2 ab, sieht gegen Nvidia mit TCs aber trotzdem kein Licht.

robbitop
2024-11-10, 18:59:03
Wie schon im anderen Thread geschrieben:

Für ~6% Mehrperformance teures Silizium verschwenden?

Wenn ich mich recht erinnere ermittelte CB 9% mehr IPC zum Launch von RDNA3. Es ist in neuen Spielen IIRC wesentlich mehr geworden wenn man sich RDNA2 und RDNA3 SKUs mit gleicher CU Anzahl anschaut.

Weiterhin nimmt man N33 als Basis sind die CUs ggü RDNA2 gar nicht so viel größer geworden.

Exxtreme
2024-11-10, 19:15:59
Das Problem bei der KI Beschleunigung von RDNA3 ist ja, dass diese zwar schnell sein kann, allerdings die bestehenden Recheneinheiten nur dafür umgebaut bzw. erweitert wurden.

Das heißt, jegliche KI Berechnung kostet Grafikperformance, während das bei Nvidia einfach nebenbei auf dedizierten Einheiten laufen kann. Dahingehend scheint auf der PS5 Pro alles beim alten zu sein, sonst würde man den performanceverlust nicht so deutlich sehen..


Nein, auch bei NV läuft fast gar nichts parallel. NV hat viel mehr spezialisierte Hardware verbaut, AMD geht eher den generellen Weg. Beides hat so seine Vor- und Nachteile. RDNA3 ist bei Inferencing maximal Mittelmaß.
https://www.tomshardware.com/pc-components/gpus/stable-diffusion-benchmarks

Und das kostet wenn man das nutzen will. RDNA2 wird da echt übel aussehen. Kann sein, dass da noch per Treiber was geht. Denn bisher gab es für AMD kaum Gründe RDNA2/3 für Inferencing zu optimieren.

robbitop
2024-11-10, 19:44:31
Naja die Tensorcores laufen unabhängig von den FPUs im Nvidia SM. Aber natürlich teilt man sich Dinge wie Register oder Scheduling Resources.
Die TCs leuchten aber überraschend kurz in der jeweiligen Frametime auf. Ggf sind bei DLSS auch noch Prozesse nötig die auf den FPUs laufen und ansonsten kostet es natürlich auch mehr Rechenleistung PostProcessing in voller Outputresolution zu machen

aufkrawall
2024-11-10, 20:15:05
Kann sein, dass da noch per Treiber was geht. Denn bisher gab es für AMD kaum Gründe RDNA2/3 für Inferencing zu optimieren.
Gab schon diverse Performance-Uplifts für Stable Diffusion. Aber da läuft halt auch nicht noch 3D gleichzeitig, und trotzdem mies vs. selbst Turing/Ampere. Kann eigentlich nur bedeuten, dass die Komplexität für FSR 4/FSR Ray Reconstruction sehr begrenzt sein müsste, sofern RDNA4 da nicht größere Verbesserungen bringt.

basix
2024-11-10, 20:39:05
Wenn die SW optimiert ist (was man bei FSR4 hoffen darf) und die Speicherbandbreite sowie DP4a vs. WMMA nicht limitiert (worauf AMD optimieren kann), kann man die ~TFLOPS/TOPS als Richtwert nehmen. Zumindest bei RDNA3 vs. Nvidia passt das oftmals ziemich gut. Gibt aber auch Anwendungen, wo eine 4090 nur 1.5x schneller als eine 7900XTX ist (vermutlich Speicherbandbreite welche dort limitiert).

Mittels Async-Compute kann man zudem viel verstecken. Klappt bei FSR (und FG) ja auch ziemlich gut.

Ausserdem wird RDNA2 bei INT8 nicht so viel limitieren gegenüber RDNA3. INT8-Durchsatz pro CU ist nämlich identisch. 512 Ops/cycle: https://gpuopen.com/learn/wmma_on_rdna3/

Relex
2024-11-10, 21:46:23
Wo hast du den Quatsch her? Seit wann erzeugt DLSS keinen Overhead?


Das hab ich nicht behauptet. DLSS läuft sicher nicht vollständig isoliert auf den Tensor cores. Da gibt's sicherlich noch andere berechnungen die auf den CUDA Cores laufen und somit Overhead erzeugen.

Aber die Berechnungen die auf den Tensor Cores laufen, können eben ohne Einfluss auf die CUDA cores laufen.
Natürlich wird wie schon gesagt wurde auch außerhalb der Rechenwerke Overhead anfallen. Speicherinterface, irgendwelche Register, whatever.

Videoencoding während des Spielens ist ja auch nicht komplett gratis. Das hat auch Einfluss auf die peformance, obwohl es dedizierte hardwareencoder gibt, die das übernehmen.

Also nein, ohne overhead geht es sicher nicht.

Aber es dürfte schon nen unterschied machen, ob die Matrix berechnungen auf den Tensor cores laufen oder ob man dafür eben jene Einheiten zweckentfremden bzw. "opfern" muss, die eigentlich das Spiel rendern sollen, wie es bei AMD aktuell der Fall ist.

aufkrawall
2024-11-10, 21:52:46
Videoencoding während des Spielens ist ja auch nicht komplett gratis.

Mit ReLive ist das nah an gratis, sofern man nicht ins PT-Limit läuft. Kostet auf Nvidia mit 4k 120fps AV1 Nvidia App bestimmt das Doppelte vs. Radeon ReLive.
#nvidiaqualitysoftware

Gast
2024-11-11, 00:23:03
Wie kann es eigentlich sein, dass Sony "mal so eben" einen besseren Upscaler auf den Markt haut, als AMD, die da schon deutlich länger an FSR entwickeln?


Weil AMD in deren verfügbarer Hardware keine dedizierte ML-Hardware hat.

Also ist hat man die Wahl zwischen deutlich langsamer als die Konkurrenz aber qualitativ vergleichbar, oder performancemäßig vergleichbar dafür deutlich schlechter.

Da immer noch mehr Balken als Screenshots vergleichen ist die Wahl logisch.

Gast
2024-11-11, 00:42:46
Mittels Async-Compute kann man zudem viel verstecken. Klappt bei FSR (und FG) ja auch ziemlich gut.

Async-Compute kann nur dann viel verstecken wenn die Auslastung schlecht ist.

TheAntitheist
2024-11-11, 01:06:55
Mit ReLive ist das nah an gratis, sofern man nicht ins PT-Limit läuft. Kostet auf Nvidia mit 4k 120fps AV1 Nvidia App bestimmt das Doppelte vs. Radeon ReLive.
#nvidiaqualitysoftware
ist ne ziemlich unkluge aussage, sagen wir es mal so. sinds auch die gleichen settings bei beiden encodern? kommt die gleiche quali bei gleicher dateigröße raus? nein...

https://www.tomshardware.com/news/amd-intel-nvidia-video-encoding-performance-quality-tested

ist zwar etwas älter aber die hardware hat sich nicht geändert.


AMD's GPUs meanwhile continue to lag behind their competition. The RDNA 3-based RX 7900 cards deliver the highest-quality encodes we've seen from an AMD GPU to date, but that's not saying a lot. In fact, at least with the current version of ffmpeg, quality and performance are about on par with what you could get from a GTX 10-series GPU back in 2016 — except without AV1 support, naturally, since that wasn't a thing back then.


Mal gucken wann Aufkrawall wieder zurück rudert wie bei FSR2 :D

aufkrawall
2024-11-11, 01:17:27
Es ging um den Leistungsverlust auf der GPU, nicht die Enkoder-Qualität. Mal wieder nichts gecheckt, aber dicke...

Sieht btw. auch mit Nvidia-AV1 bei 50Mbit aus wie Grütze.

Gast
2024-11-11, 02:02:23
ist ne ziemlich unkluge aussage, sagen wir es mal so. sinds auch die gleichen settings bei beiden encodern? kommt die gleiche quali bei gleicher dateigröße raus? nein...



Genau, deshalb sind AMD-Karten auch ziemlich unbrauchbar für VR-Streaming.