Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD stellt Radeon RX 7900 XT & XTX auf Basis der RDNA3-Architektur ...


Leonidas
2022-11-04, 00:07:41
Link zur News:
https://www.3dcenter.org/news/amd-stellt-radeon-rx-7900-xt-xtx-auf-basis-der-rdna3-architektur-fuer-einen-launch-am-13-dezemb

madshi
2022-11-04, 00:51:52
Für mich ein klarer "win" für AMD gegenüber Lovelace - allerdings mit Ausnahme der 4090. Aber über die 4090 hat sich ja (nach den ersten Tests) auch kaum jemand beschwert. Die anderen Lovelace Karten sind das Problem. Ich hoffe, die beiden AMD Karten kommen möglichst nahe an die 4090 ran und schlagen die 4080 deutlich. Dann bleibt Nvidia kaum etwas anderes übrig als die 4080 deutlich im Preis zu senken.

P.S: Wissen wir, wann es erste Reviews zu den AMD-Karten geben wird? Erst am 13. Dezember? Oder schon früher?

Leonidas
2022-11-04, 01:35:26
Wissen wir leider nicht. NV macht zuletzt keinen Unterschied zwischen Test-Tag und Marktstart, AMD hatte zuletzt bei Ryzen 7000 jedoch einen Unterschied gemacht. Also ungewiß - für den Augenblick.

Linmoum
2022-11-04, 02:06:09
Also die Reviews der 4090 gab's auch einen Tag vor Marktstart. ;)

GastFast
2022-11-04, 03:01:34
Ja gut ich hab jetzt bisschen geschaut wie die ersten Gaming Bench von AMD einzuordnen sind aber ich will hier niemanden den Spaß nehmen und behalte das Ergebnis für mich ;)

Das AMD nur mit FSR Spiele zeigt hat schon ein guten Grund,
jedenfalls ist es nicht so schwierig schon jetzt zu gucken was geht.
Sucht meinetwegen neuste AMD CPU 4k Bench mit 4090 und vergleicht die FPS mit und ohne Upscaling.

Was aber eh klar sein sollte ist das der Preis immer der Leistung entspricht weil AMD ist aktuell wirklich nicht dafür bekannt seine Produkte zu verschenken.

Die 58 vs 76 Mrd. Transistoren ist weiterer Hinweis.
Und die 522mm vs 608.5mm ebenso.

drkohler
2022-11-04, 05:39:11
Als normalsterblicher Mensch hoffe ich einfach auf so etwas wie eine RX7800. Halb so schnell wie eine RX7900XT, mit (weniger als?) halbem Verbrauch zum halbem Preis. Genügt mir vollkommen.
Träumen darf man ja wohl...

Leonidas
2022-11-04, 05:50:17
Also die Reviews der 4090 gab's auch einen Tag vor Marktstart. ;)

Du hast natürlich Recht, schon wieder in Vergessenheit geraten ;)

Torg
2022-11-04, 07:09:44
Irgendwie habe ich die Kernaussage vermisst.

7900XTX
- 50% mehr Performance
- 50% mehr Speicher
bei
- gleicher TBP
- gleichem Listenpreis

790XT
- 25% mehr Performance
- 25% mehr Speicher
bei
- 15% weniger TBP
- 10% günstiger

Das nenne ich schon einen Fortschritt, bei insgesammt gestiegenen Fertigungskosten.
Wobei die 7900XT dadurch etwas zu teuer erscheint. Hauptsache man kann die Werte runterbrechen auf die N32, N33.

Gruß
Torg

Gast
2022-11-04, 07:48:26
Hmm,
Interessante Karten.
Die Frage stellt sich,wie der Preis in EU sein wird? 1200 oder 1400 für die xtx ?
Zudem scheint die rt Performance eher auf 3090ti Niveau zu sein.
Sehr viel würde über fsr in den ganzen Kram geredet (Nvidia ja auch).
Das dp 2.1 finde ich zwar gut,aber die Karte hat nicht die rohe Leistung um dies ausnutzen zu können. Von daher eher ein hype Feature.
Das en/decoding scheint sehr stark zu sein,zusammen mit der kombinierten Nutzung der ryzen integrierten gpu dafür,werden gewisse Leute sehr begeistert davon sein. Für den Normalo Verbraucher aber (wenn schon eine igpu mit av1 etc vorhanden) wenig notwendig.
Die gesamte die Fläche ist aber schon recht groß ,wie wollten die die dual Chip Lösung machen, dann höchstens mit den navi32 chiplets?
Die abspeckung von XT zu xtx ist aber recht ordentlich,der Preis,nur 100e weniger. Macht ja mehr Sinn die xtx zu nehmen. Die yields müssen scheinbar sehr gut sein. Anders kann ich es mir nicht erklären.
Price/perf für die EU wird wohl die gleiche sein,wie bei den Abferkaufspreisen der 6900xt aktuell.

madshi
2022-11-04, 09:28:44
Das nenne ich schon einen Fortschritt, bei insgesammt gestiegenen Fertigungskosten.
Wobei die 7900XT dadurch etwas zu teuer erscheint.
Ja, dem stimme ich voll zu, die gleichen Gedanken hatte ich auch.

Wenn AMD allerdings den preislichen Abstand hätte vergrößern wollen, vermute ich eher, daß sie das Topmodell teurer gemacht hätten als das zweite Modell günstiger. Ich denke aber, sie wollten unbedingt unter der "magischen" Grenze von $1000 bleiben, und außerdem behaupten können, daß das neue Topmodell genauso viel kostet wie das alte. Das sind beides tolle Argumente, die User glücklich machen sollten. Dadurch hatte das Topmodell quasi einen Deckel nach oben.

Das ist wahrscheinlich der Hauptgrund dafür warum der preisliche Abstand relativ gering ist. Und deshalb will ich mich auch nicht beklagen. Letztendlich werden sich die Straßenpreise mittelfristig schon auf sinnvollen Niveaus für jedes Modell einpendeln.

Gast Ritis
2022-11-04, 09:46:10
Angenommen der Preis der 7900XTX wäre genau richtig getroffen, müsste dann die 7900XT mit 25% weniger theoretischer Leistung eher bei 799$ liegen?

Beim Raytracing legt AMD mehr zu als das was in den Benchmarks gezeigt wird.
Um die 50% zu heben müssen aber alle Games neuen Shadercode fürs RT bekommen. Die Programmierer dürfen sich dann wieder drum kümmern unterschiedliche über die Generationen den Code zu optimieren. Ist bei Nvidias LoveLace aber genauso, nur ist da abseits DXR Kompatibilität noch mehr drin.

Iscaran
2022-11-04, 11:04:47
OK, bin mal auf das Whitepaper gespannt.

Aber so wie ich das verstehe sind die 12.288 Shader ebenso nur "partiell" nutzbar wie bei Ampere mit den Mixed INT/FP Shadern. Da verpufft auch ein großer Teil der nominell doppelten Rechenpower und ist nur in speziellen Fällen nutzbar.

Ein weiteres Problem ist das man dadurch die Zahl der ROPs nur um 50% erhöht hat. Das limitiert scheinbar die Performance, weswegen man die Idee zweier Clocks aufgebracht hat. Einen Clock fürs "Front End" (ROPs?) und einen für die Shader selbst.

Für die Flops Rechnung nutzt man komischerweise aber den Front End Takt. Was IMHO eigentlich kein Sinn ergibt, denn die Shader operieren ja nur mit 2.300 MHz und würden dann entsprechend halt nur 56 TFlops hergeben (bzw. 28 bis 56 denn es sind ja 6.144 Shader die "Dual Issue" genutzt werden können, vermutlich sofern es die Software zulässt.

Womöglich ist eine Vorraussetzung um das Dual-Issue gut zu nutzen das die Software mit dem angekündigten FSR 3.0 umgehen kann.

Wirklich ein seltsamer Launch gestern. Einzig der Preis ist relativ gut.

Gast
2022-11-04, 11:17:45
Einzig der Preis ist relativ gut.
Wenn du RT ignorierst ja.
Unter RT wird sogar die katastrophale 4080 16GB mehr Frames pro Euro bieten. Und die 4080 16GB ist eine miserable Karte.

Aber wenn du RT ignorierst, tut es auch eine 6800XT.
Die kostet die Hälfte und ist das weit bessere Angebot.

Der relativ niedrige Preis spiegelt einfach die teilweise ungeüngende Performance wieder.
Nur sind es halt immer noch 1000 Dollar - man muss erstmal bereit sein 1000 Dollar auszugeben und dennoch im RT Bereich Schrott (im Vergleich) in der Hand zu haben.

Gibt man da nicht lieber nur 500 Dollar aus und hat für WQHD, teils auch 4K, mit einer 6800XT auch genüg Leistung?
Oder nimmt noch mal mehr Geld in die Hand und kauft sich ne 4090 und hat damit tatsächlich High-End?

Die neuen Karten sind irgendwo dazwischen.
Viel zu teuer für Midrange Systeme.
Viel zu schlecht für HighEnd.

Platos
2022-11-04, 13:48:42
Was genau ist denn FSR 3.0? Gibts dazu Infos?

Und zum Preis: 899$ ist natürlich massiv besser, wie das, was nvidia bietet. Nvidia muss natürlich nachziehen. Aber: Nicht vergessen, die Europreise werden schlechter sein. Für den Kunden wird sich also ein schlechteres P/L ergeben, wie wenn man gebraucht kauft! Grundsätzlich ist es natürlich immer noch ein überteuerter Top-Dog Preis. Verglichen mit der 6900XT ergibt sich aber immerhin ein +50% besserer P/L (Listenpreis vs Listenpreis). Verglichen mit normalpreisigen Modellen ist die 7900XT natürlich nicht berauschend. Aber irgendwie Hoffnungserweckend. Wenn nämlich eine 7900XT 899$ kostet, wird eine 7800XT maximal 799$ oder vlt. (hoffentlich) 699$ kosten und nicht extrem weit von der 7900XT entfernt sein. Wenn das der Fall ist, könnte die 7800XT die Karte sein, auf die man warten sollte.

Mal als Vergleich 7900XT zu Gebrauchtmodellen:

- Bei 470% 4k Index wäre sie 25% schneller, wie eine RTX 3090. Die kriegt man durchaus für 700, wenn man geduldig ist (gebraucht). Das P/L wäre also etwa gleich.

-Bei einer 6900XT wären es ca. 35% schneller. Da wäre dann das P/L im Vergleich zur gebrauchten leicht (minimal) besser.

-Zur 6800XT wären es +46% und die gibts für so 550-600 gebraucht: Da wäre dann das P/L von der 6800XT leicht besser.

Das P/L steigt also kaum an. Es ist eher gleich +/-. Mal leicht darüber, mal leicht darunter. Im Euroraum wird es aber durchgehend (sehr viel) schlechter sein, wie gebrauchte Modelle der Last-Gen.

Als Vergleich 7900XT vs 6900XT & 6800XT zum Listenpreis:

6800XT (649$): Hier wäre die 7900XT 5% besser im P/L
6900XT (999$): Hier wäre das P/L +50% (was bei Top-Dogs aber nicht verwunderlich ist, zumal nicht mit der 6900XTX verglichen)

Mit einem normalpreisigen Modell wie der 6800XT verglichen (oder gebrauchtmodellen), ist das P/L also praktisch gleich. Für ein Top-Dog ist der Preis aber eig. Hoffnungserweckend (für eine 7800XT)

Wenn eine 7800XT dann 699-799$ kostet, könnte das also eig. eine ganz interessante Karte werde. Ich warte mal auf diese Karte.

Daredevil
2022-11-04, 13:55:42
Irgendwie habe ich die Kernaussage vermisst.

7900XTX
- 50% mehr Performance
- 50% mehr Speicher
bei
- gleicher TBP
- gleichem Listenpreis

790XT
- 25% mehr Performance
- 25% mehr Speicher
bei
- 15% weniger TBP
- 10% günstiger

Das nenne ich schon einen Fortschritt, bei insgesammt gestiegenen Fertigungskosten.
Wobei die 7900XT dadurch etwas zu teuer erscheint. Hauptsache man kann die Werte runterbrechen auf die N32, N33.

Gruß
Torg

Stimme an der Stelle auch komplett zu!
Wenn man Nvidia außen vor lässt, ist das eine sehr sehr gute Evolution, die AMD seit jetzt 3 Generationen fährt.

Gast
2022-11-04, 15:18:20
Was genau ist denn FSR 3.0? Gibts dazu Infos?


Zu 99,9% Frame Generation alá DLSS3.

Gast
2022-11-04, 15:19:19
Sieht ein bischen so aus wie die Situation 5700er vs 20xx Serie, dann bleiben NVs Topmodelle wie 80ti , 90er / Titan so wie damals stabil teuerer in den Klassen wo man aber mitspielen kann gehts dann über den Preis , gibt schlimmers für die Kunden abgesehen vom allgemein durch die Bank viel zu hohem Preislevel .

Gast
2022-11-04, 15:47:41
Sieht ein bischen so aus wie die Situation 5700er vs 20xx Serie, dann bleiben NVs Topmodelle wie 80ti , 90er / Titan so wie damals stabil teuerer in den Klassen wo man aber mitspielen kann gehts dann über den Preis , gibt schlimmers für die Kunden abgesehen vom allgemein durch die Bank viel zu hohem Preislevel .

So ist es.

Leider ist die Raytracing Performance ein absolutes Trauerspiel, dass man nicht mit der 4090 mithalten kann wäre ja kein großes Problem. Dass man sich aber beim RT vermutlich sogar von Ampere überholen lassen muss aber schon.

Gast
2022-11-04, 16:33:05
AMD hätte GraKas im LowEnd / Midrange Bereich bringen sollen.
Also 200-500 Dollar, das ist der Bereich den Nvidia überhaupt nicht abdeckt.

Wieso bringen die eine HighEnd Karte, die aber vorn und hinten nicht an die 4090 heranreicht? bei RT nicht mal an die 4080 16GB.

Damit gibt es dann weitere Karten bei 1000 Dollar.

AMD hätte fett punkten können, wenn die ihre kleineren Karten jetzt bringen würden.
Bei Karten im Bereich 200-500 Euro interessiert RT auch wenig.
Hier was attraktives, das vielleicht +40% auf RDNA2 zulegt und alle wären glücklich gewesen.
Damit hätte AMD Marktanteile holen können.

Aber nein, man bringt eine möchtegern High-End Karte für tausend Dollar.
Damit holt man sich keine Marktanteile.
Im HighEnd ist RDNA3 ein Fail - aber HighEnd ist ja nicht mal so wichtig.
Die Marktanteile holt man im LowEnd, maximal Midrange.

Wenn man HighEnd nicht mithalten kann - wen interessiert es?
Die 5700XT war auch nicht HighEnd, aber ne gute GraKa. Die sich gut verkauft hat. -> Sowas hätte AMD bringen sollen, das hätte sich super verkauft.

Aber statt LowEnd/Midrange bringt man halt ne gammlige HighEnd Karte.

Hat AMD geglaubt, Nvidia bleibt stehen?
oder ist RDNA3 einfach viel schlechter als geplant?

Ansonsten kapiere ich nicht, warum man erfolglos versucht im HighEnd mitzumischen, anstatt eine attraktive Karte für die große Mehrzahl der Konsumenten zu bringen.
Denn noch mal: Die RT Schwäche disqualifiziert einen zwar für High-End - aber für 200-500 Dollar wäre das (fast) egal.
Da hätte AMD seine Stärken ausspielen können.

Verpasste Chance von AMD, IMO völlig falsche Priorisierung.

Mortalvision
2022-11-04, 17:03:22
Du, der ganze Markt kippt - bis aufs Luxussegment - und du redest von der Priorisierung der Mainstreamprodukte. Kannst gestern für die Verteidigungstrullas bei McKinsey anfangen. Business Kompetenz = null. :freak:

Leonidas
2022-11-04, 17:14:26
Was genau ist denn FSR 3.0? Gibts dazu Infos?

Augenscheinlich DLSS3 in geklont. Und weil AMD mit DLSS3 überrascht wurde und nun plötzlich FSR3 aus der Taufe heben musste, kommt das erst tief in 2023.

Platos
2022-11-04, 18:09:10
Die 6800XT dürfte wohl spannend werden. Das Zeug darunter kommt ja vermutlich erst in tausend Jahren. Gerade die, die wenig ausgeben wollen, sind eig. viel besser dran, wenn sie gebraucht kaufen. Bis das untere Segment abgedeckt ist, gibts schon wieder gebrauchte Karten eine Stufe höher.

Augenscheinlich DLSS3 in geklont. Und weil AMD mit DLSS3 überrascht wurde und nun plötzlich FSR3 aus der Taufe heben musste, kommt das erst tief in 2023.

Das wird wohl leider so sein (also 2. Hälfte 2023, denke ich). Erinnert ganz an den RDNA 2 launch und FSR.

Iscaran
2022-11-04, 18:16:21
Wieso bringen die eine HighEnd Karte, die aber vorn und hinten nicht an die 4090 heranreicht? bei RT nicht mal an die 4080 16GB.


Häh? Ich dachte nVidia hat die 4080 komplett gecancelt oder kann man die irgendwo kaufen? Wurde die released?
Also AMD bringt eine GPU, gegen die nVidia ERSTMAL eine GPU positionieren muss.
Sofern nVidia nicht darauf beharrt, die ca. doppelt so teure 4090 wäre der Gegner der 7900 XTX.


Ansonsten kapiere ich nicht, warum man erfolglos versucht im HighEnd mitzumischen, anstatt eine attraktive Karte für die große Mehrzahl der Konsumenten zu bringen.

Ich kapiere einfach nicht warum man so einen Schwachsinn posten muss.

RT ist die 7900 XTX wohl Stand heute mindestens auf Augenhöhe mit einer 3090 Ti, welche immerhin bis "gestern" TOP DOG war.

Und so wie ich die Präsentation verstanden habe, sind wesentliche Teil der RT-Funktionalitäten noch gar nicht in den präsentierten Benchmarks mit drin...+50% RT also wohl mit FSR 3.0 (?) noch möglich. (EDIT: Es wurde meine ich gesagt, dass die AI-Cores usw. welche wesentlich mit RT-interagieren noch gar nicht genutzt wurden in den Benchmarks, da diese FSR 3 vorraussetzen, also vermutlich Anpassung in den GameEngines direkt)

Aber selbst wenn nicht, für ca. das halbe Geld 2/3 der RT-Leistung einer 4090 und nur marginal weniger Rasterleistung...IMHO ein starker move von AMD.

Und man hat noch Luft nach oben, wie die schon angekündigten Customs mit 3x 8 Pin und dann wohl ebenfalls wie nVidia 450 Watt Power zeigen.

Da gehen vielleicht nochmal +20% Leistung (oder mehr?).

Sardaukar.nsn
2022-11-04, 18:39:47
Häh? Ich dachte nVidia hat die 4080 komplett gecancelt oder kann man die irgendwo kaufen? Wurde die released?
Also AMD bringt eine GPU, gegen die nVidia ERSTMAL eine GPU positionieren muss.
Sofern nVidia nicht darauf beharrt, die ca. doppelt so teure 4090 wäre der Gegner der 7900 XTX.

Das sieht doch gar nicht verkehrt aus. Wenn die Werte stimmen...

https://i.imgur.com/MgDKYLP.jpg

https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/

Gast
2022-11-04, 19:18:08
Aber selbst wenn nicht, für ca. das halbe Geld 2/3 der RT-Leistung einer 4090 und nur marginal weniger Rasterleistung...IMHO ein starker move von AMD.

Laut PCGH Hochrechnung weniger als 1/2 der RT Leistung.
Das wäre übrigens weiter weg als mit Ampere - überall hieß es man würde aufholen, jetzt wäre man - falls die Zahlen stimmen - sogar weiter weg.
Jepp, ganz starker move.

Aber kann natürlich sein, dass AMD einfach falsche Zahlen präsentiert hat und es in Wahrheit besser aussieht.

Wird man irgendwann im Dezember erfahren.

The_Invisible
2022-11-04, 20:03:03
Das sieht doch gar nicht verkehrt aus. Wenn die Werte stimmen...

https://i.imgur.com/MgDKYLP.jpg

https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/

RT Werte überlesen? :D

Platos
2022-11-04, 22:22:00
Worauf basieren die geschätzten RT Werte? Also um welche Folie gehts da, die gezeigt wurde?

Troyan
2022-11-04, 23:19:08
Stammen direkt von AMD:https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/

TheGood
2022-11-04, 23:32:39
Laut PCGH Hochrechnung weniger als 1/2 der RT Leistung.
Das wäre übrigens weiter weg als mit Ampere - überall hieß es man würde aufholen, jetzt wäre man - falls die Zahlen stimmen - sogar weiter weg.
Jepp, ganz starker move.

Aber kann natürlich sein, dass AMD einfach falsche Zahlen präsentiert hat und es in Wahrheit besser aussieht.

Wird man irgendwann im Dezember erfahren.

Auch für dich nochmals hier. RT ist bei weitem nicht der Nabel der Welt. Das ist sogar ganz weit weg.

RT im Bereich GI macht richtig Sinn und bringt Entwicklern wie Nutzern einen echten MEhrwert und gerade da ist RDNA gut dabei und das ist was sich im Rahme von RT schnell durchsetzen wird. Danach kommen Schatten und irgendwand die Spiegelungen. Aber wir wissen ja schon lange, dass beim kompletten RT es schlichtweg keinen WOW Effekt gab. Bei der großen Mehrheit der Spieler ist es nicht relevant, bzw. noch weit unten auf der Prioritätsliste, auch wenn der Technik die Zukunft gehört. In dem Punkt sind wir beisammen.

Von dem mal abgesehen, wenn du die News von Leonidas gelesen hättest sieht die RT Performance in Bezug auf die tatsächlichen KOnkurrenten von RDNA3 recht gut aus. Ein Konkurrent musste ja schon abgesägt werden, weil er schilchtweg untergangen wäre und wohl als Mega Flop des Jahrzehnts in die GEschichte eingagangen waere.

Platos
2022-11-05, 11:50:59
Ok, also ich habe ja nie geglaubt, dass AMD auch nur an nvidias RT-Perf. kratzt, aber so schlecht habe ich es dann auch nicht erwartet. Die Leistung ist ja dann im Schnitt vermutlich nicht mal ganz auf 3090(Ti) Niveau.


Stammen direkt von AMD:https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/

Ahh, danke.

Gast
2022-11-05, 12:14:36
Augenscheinlich DLSS3 in geklont. Und weil AMD mit DLSS3 überrascht wurde und nun plötzlich FSR3 aus der Taufe heben musste, kommt das erst tief in 2023.
Das ist kein DLSS Klon. Und wieder haust du hier so ein Ding raus, ohne darüber überhaupt Infos zu besitzen. Beide haben eine komplett unterschiedliche Basis. Das gilt für DLSS und FSR gleichermaßen.

Sie werkeln mit Epic seit der RX5000 daran.

AMD hat auch mittlerweile FPS Werte veröffentlich an der man die Leistung in 4K und RT extrapolieren kann. Auch da stimmen deine Aussagen, das AMD das nicht hätte absolut nicht!

https://external-preview.redd.it/UZLvZfWDXRk7dc2FJAL4e8HLaNT54c_Ied7IkotuAys.png?auto=webp&

Gast
2022-11-05, 12:18:07
Die Leistung ist ja dann im Schnitt vermutlich nicht mal ganz auf 3090(Ti) Niveau.
Unsinn. Die 4090 wird sogar in wenigen Titeln geschlagen. Weil Hybrid RT auch Rasterization braucht.

Platos
2022-11-05, 13:37:25
Unsinn. Die 4090 wird sogar in wenigen Titeln geschlagen. Weil Hybrid RT auch Rasterization braucht.

In welchen Titeln denn, in denen RT On war ? Die genannten von AMD auf jeden Fall schonmal nicht, denn da war die Karte im Bereich 3090 oder gar darunter.

Weitere Titel (Leaks) sind mir nicht bekannt. Du kannst sie ja gerne verlinken.

Leonidas
2022-11-06, 05:04:59
Das ist kein DLSS Klon. Und wieder haust du hier so ein Ding raus, ohne darüber überhaupt Infos zu besitzen. Beide haben eine komplett unterschiedliche Basis. Das gilt für DLSS und FSR gleichermaßen.

Die Aussage war sicherlich vorschnell. Und das mit der unterschiedlichen Basis von FSR und DLSS stimmt (war allerdings nie angezweifelt worden). Irgendeine Form von Zwischenbild-Berechung wird es jedoch mit FSR3 geben. Die Magie dahinter mag man anders nennen und eventuell anders berechnen, das Ergebnis ist das gleiche - Zwischenbildberechnung.

Darauf, dass man schon seit Jahren dran arbeitet, gebe ich nichts. nVidia hat die Grundlage der Zwischenbildberechnung von DLSS3 vermutlich seit Jahren in der Schublade gehabt - und jetzt rausgeholt, wo man sie brauchte. Könnte bei AMD ähnlich sein. Nun braucht es allerdings Zeit, um das Konzept in die Treiber zu bringen und die Kinderkrankheiten zu überbrücken.


https://external-preview.redd.it/UZLvZfWDXRk7dc2FJAL4e8HLaNT54c_Ied7IkotuAys.png?auto=webp&[/url]

403

Gast
2022-11-06, 11:26:50
Darauf, dass man schon seit Jahren dran arbeitet, gebe ich nichts. nVidia hat die Grundlage der Zwischenbildberechnung von DLSS3 vermutlich seit Jahren in der Schublade gehabt - und jetzt rausgeholt, wo man sie brauchte.
AMD auch und auch Framegeneration funktioniert nicht fehlerfrei. Denkst du, weil Nvidia nun mit DLSS3 kommt (Framgeneration und Reflex, DLSS ist sonst der selbe Part - DLSS3 baut ja auch DLSS auf), das AMD sowas in ein paar Wochen aus dem Boden stampft, nur weil Nvidia jetzt damit kommt. Eher nicht.

FSR3 wird Teil der Unrealengine! Die Entwicklung beginnt mit der Gen die diese unterstützt, vor 4 Jahren also! Tue nicht so als wüsstest du das nicht. Das hat auch seinen Grund wenn man an Konsolen denkt und Epic auch da gerne mitspielen will.

madshi
2022-11-06, 12:41:52
Die große Frage ist, ob AMD überhaupt eine "Optical Flow Engine" in Hardware hat. Die haben bestimmt etwas ähnliches, weil Motion Estimation für Video-Encoding benötigt wird. Aber für Video-Encoding kann das relativ simpel sein. Optical Flow in guter Qualität zu berechnen, ist da schon schwieriger. Nvidia hat schon seit einigen Generationen extra Hardware, die nur den Zweck hat, Optical Flow zu berechnen. Vielleicht hat AMD auch sowas, vielleicht aber auch nicht. Weiß das jemand hier?

Dazu kommt, daß Nvidia sagt, daß ihr "Optical Flow Accelerator" erst auf Lovelace gut und schnell genug ist, um es effektiv für DLSS3 verwenden zu können. Selbst wenn AMD was ähnliches hat, ist es schnell und gut genug für FSR3?

Das ganze wird nun aber gleich relativ kompliziert, weil die Optical Flow Estimation nur für manche Bildelemente benötigt wird, aber nicht für alles. Die Motion-Vektoren von vielen Bildelementen kann man direkt aus der Game-Engine bekommen. Das wird ja schon für DLSS2 und FSR2 verwendet. Also für einen großen Teil der Pixel brauchen wir gar keine Optical Flow Estimation. Es gibt aber halt Bildelemente, wo das so nicht zutrifft, z.B. Schatten. Es scheint so, als würden von der Game-Engine für Schatten und ein paar andere Bildelemente keine Motion-Vektoren kommen. Dafür verwendet dann Nvidia die Optical-Flow-Engine, um den fertig gerenderten Bildinhalt Pixel-by-Pixel zu untersuchen und daraus Motion-Vektoren zu berechnen.

Wenn nun AMD keine entsprechende Hardware für Optical-Flow hat, oder wenn die Hardware nicht so gut oder schnell ist, dann könnte es letztendlich so sein, daß FSR3 zwar problemlos für die Mehrzahl der Bildelemente funktioniert, aber Probleme (Bildartefakte) bei manchen Bildelementen (wie z.B. Schatten) haben könnte. Die große Frage ist, ob AMD dann überhaupt Optical-Flow-Estimation machen wird, weil das recht aufwendig ist, oder ob sie das einfach weg lassen, um GPU Power zu sparen. Weil bei Nvidia läuft das einfach parallel in extra Hardware. Ich könnte mir vorstellen, daß es bei der AMD-Lösung entweder mehr Artefakte geben wird, oder die Performance schlechter sein könnte.

Anyway, dies sind alles nur Gedankenspiele, auf der Technik basierend. AMD möchte FSR3 ja auf jeder Hardware zum laufen kriegen, das heißt, nicht alle Hardware wird einen (guten) Optical-Flow-Accelerator haben (z.B. definitiv 2-3 Generationen ältere Nvidia Hardware nicht!!). Aber ich bin gespannt. Grundsätzlich bin ich eh nicht so ein Fan von DLSS3.

Gast
2022-11-07, 10:34:58
Die große Frage ist, ob AMD überhaupt eine "Optical Flow Engine" in Hardware hat.


In der Präsentation haben sie erwähnt, dass es einen derartigen Block gibt, mir ist nur die Bezeichnung entfallen.

Gast
2022-11-07, 11:27:14
Die haben bestimmt etwas ähnliches, weil Motion Estimation für Video-Encoding benötigt wird.

FSR Media Engine die auf Basis/in Zusammenarbeit von/mit Xilinx entwickelt wurde. Diese enthält vermutlich auch ML Anteile in Hardware.

Mit FSR2.2 werden 216 Spiele unterstützt, den Rest findet man auf gpuopen, wie immer bei AMD. Seinerzeit wurde auf Basis von OpenVX mit MIVisionX experimentiert. Das muss also in Hardware sein.

Gast
2022-11-07, 12:04:53
Was haltet ihr eigentlich von AMDs "8k" Geschwurbel (um nicht zu sagen Lüge) - auf YT und Co wurde das vor 2 Jahren bei Nvidia sehr kritisiert.
Hier stört es jetzt bei AMD keinen?
Hat man sich dran gewöhnt oder stört es nicht da von AMD?

Gast
2022-11-07, 12:48:21
Was haltet ihr eigentlich von AMDs "8k" Geschwurbel (um nicht zu sagen Lüge) - auf YT und Co wurde das vor 2 Jahren bei Nvidia sehr kritisiert.

Naja, AMD hat nirgends erwähnt, dass sie dafür schnell genug sind, nur dass es die Bildausgabe kann.

Was das Ganze natürlich ad absurdum führt, wenn man zwar toll wahnsinnig hohe Bildraten in wahnsinnig hohen Auflösungen ausgeben kann, die aber nicht schnell genug berechnen kann.

Gast
2022-11-07, 13:00:10
Naja, AMD hat nirgends erwähnt, dass sie dafür schnell genug sind, nur dass es die Bildausgabe kann.

AMD hat Zahlen zu "8K" genannt (Frames), wobei deren 8K aber kein echtes 8K sondern nur "halbes" 8K gewesen ist.

8K hat die vierfache Pixelmenge wie 4k.
AMDs pseudo 8K hat nur die doppelte Pixelmenge wie 4k.

Bild setzt sich ja aus Höhe * Breite zusammen.
Und AMD hat nur die Höhe auf 8k Maße gesetzt, die Breite aber auf 4K Maße belassen.

Echtes 8K ist also doppelt so anspruchsvoll wie das was auf AMDs Folien als 8k bezeichnet wurde.

Das gleiche hatte Nvidia vor 2 Jahren bei Ampere gemacht.
Damals großer Aufschrei.

Gast
2022-11-07, 14:56:47
7900XTX vs 4080 16GB

Natürlich vieles Schätzung:

7900XTX ist
positiv:
17% günstiger (Dollar)
Raster vielleicht +20% schneller
Ram 24 vs 16

negativ:
10% höherer Stromverbrauch
RT vielleicht 20% langsamer
Kein DLSS

Ja, die meisten Spiele haben kein RT - aber gerade die Spiele die RT haben brauchen viele Frames besonders dringend.
Bei den meisten anderen hat man eh schon dreistellige Frameraten.

Ram dürfte relativ egal sein, 16GB reicht.
DLSS ist Ansichtssache, aber +10% Aufpreis wird es vielen bestimmt wert sein.

Kommt drauf an wie wichtig einem die einzelnen Punkte sind.

Insgesamt scheinen beide Karten ziemlich gleichwertig, die AMD etwas attraktiver. Wäre die Nvidia Karte 10% günstiger wäre es Gleichstand.
Alles zusammen ist AMD also vielleicht 10% attraktiver.

Dafür, dass die 4080 16GB einen miserablen Preis hat, erscheint das verdammt wenig.

Wieso viele die AMD Karte feiern und die nvidia Karte verdammen, wenn da so wenig dazwischenliegt ist merkwürdig.

Sollte AMD die Karte natürlich für 1000 Euro vs 1450 Euro rausbringen sieht es ganz anders aus.

Leonidas
2022-11-08, 03:38:45
Die NV-Karte hat den optischen Nachteil, als zweitbeste des Portfolios trotzdem über 1000$ zu kosten - und das noch vor der Aufblähung des Portfolios durch Refreshs und Zwischenlösungen. Das ist dann schon harsch. Immerhin ist das hier der Nachfolger von 980, 1080, 2080, 3080 ...

PS: Natürlich muß man den optischen Nachteil auch nicht betrachten und kann sich nur auf die eigentlichen harten Fakten konzentrieren.

Gast
2022-11-08, 10:26:47
Die NV-Karte hat den optischen Nachteil, als zweitbeste des Portfolios trotzdem über 1000$ zu kosten - und das noch vor der Aufblähung des Portfolios durch Refreshs und Zwischenlösungen. Das ist dann schon harsch. Immerhin ist das hier der Nachfolger von 980, 1080, 2080, 3080 ...


Der Preis der 4080 ist viel zu hoch, daher sagte ich ja auch:
"Dafür, dass die 4080 16GB einen miserablen Preis hat, erscheint das verdammt wenig."

Das AMD jetzt ein kleines bisschen attraktiver ist beim Preis klingt ja zunächst mal gut.
Wenn der Preis mit dem man sich vergleicht aber absurd hoch ist, ist "ein bisschen attraktiver" zu wenig um es zu feiern.
Oder würde man eine 4080 für 1300 Euro feiern? Die wäre dann quasi identisch wie AMDs Angebot. Aber immer noch mindestens 20% zu teuer.

Der optische Nachteil gilt vermutlich auch nur für den US Markt.
Wahrscheinlich sind im Euro-Markt auch beide AMD Karten über 1000 Euro.


Bei AMD gilt außerdem das gleiche wie bei Nvidia.
Das Topmodell bietet das beste Preis-Leistungs-Verhältnis.
Nach deinen Werten ist die 7900XTX ca. 20% schneller als die 7900XT.
Kostet aber nur 10% mehr.

Ich finde es nicht schön, das man inzwischen die teuerste Karte kaufen muss um das beste Preis-Leistungsverhältnis zu bekommen.
Will man etwas günstiger kaufen wird man bestraft.

Das ist absurd, wo gibt es das denn sonst noch?

Exxtreme
2022-11-08, 10:37:36
Ich finde es nicht schön, das man inzwischen die teuerste Karte kaufen muss um das beste Preis-Leistungsverhältnis zu bekommen.
Will man etwas günstiger kaufen wird man bestraft.

Das ist absurd, wo gibt es das denn sonst noch?

Wobei das UVPs sind. Es ist sehr wahrscheinlich, dass dieses Verhältnis real nicht zu halten sein wird, dass eine 20% schnellere Karte nur 10% teurer ist. :)

Semmel
2022-11-08, 10:58:48
Stimme an der Stelle auch komplett zu!
Wenn man Nvidia außen vor lässt, ist das eine sehr sehr gute Evolution, die AMD seit jetzt 3 Generationen fährt.

Es ist dennoch Schönrederei.
Die Erwartungen anhand der früheren Spekulationen waren deutlich höher.

Es ist "nur" ca. 50 % mehr Performance und ein Teil davon wurde mit höherem Stromverbrauch erkauft.
Vor allem bei der relativ schwachen RT-Performance hätte ich einen deutlicheren Fortschritt erwartet.

Insgesamt finde ich RDNA3 daher enttäuschend und werde die Generation wohl überspringen.

Knuddelbearli
2022-11-09, 00:14:26
Noch sehr wenig bekannt ist sowohl terminlich als auch von den konkreten Spezifikationen her zu AMDs RDNA3-Generation. Hierzu liefert Twitterer HXL nunmehr den aufsehenerregenden Hinweis "Almost 4Ghz GPU", garniert mit dem Bild einer AMD-Veranstaltung. Ob das Bild-Material tatsächlich RDNA3-bezogen ist, muß offenbleiben, die 4-GHz-GPU soll es natürlich sicherlich sein. Allerdings könnte hierbei auch eine überaus großzügige Rundung nach oben hin im Spiel sein, denn laut Bondrew im Beyond3D-Forum liegt die herauskommende Rechenkraft bei etwas unterhalb 90 TeraFlops.


Laut Twitterer Kepler_L2 liegt der BIOS-Grenzwert für den Navi-31-Chiptakt bei 3.72 GHz. Die kürzliche Meldung mit "nahezu 4 GHz" war also (wie erwartet) großzügig nach oben gerundet – wobei die ebenfalls genannten "unter 90 TeraFlops" damit trotzdem erreichbar sind (für glatt 90 TFlops reichen 3662 MHz im Navi-31-Vollausbau).

Hinzu kommt seitens Greymon55 dann noch eine Performance-Prognose zu Navi 31 vom 2fachen gegenüber der Vorgänger-Generation. Jene Aussage betrifft die Raster-Performance, unter RayTracing soll es sogar mehr sein. Allerdings ist ungewiß, ob sich jene Aussage auf eine Radeon RX 6900 XT oder 6950 XT als Ausgangslage bezieht. Vor allem aber wäre einzurechnen, dass sich jene Grundsatz-Aussage durchaus rein auf die Performance unter theoretischen Testern (wie dem 3DMark) beziehen kann. Wie aber auch die GeForce RTX 4090 dürfte Navi 31 in dieser Performance-Höhe seine Schwierigkeiten haben, die vorhandene Power auch unter realen Spielen zu entfalten. Ergo kann man – gesetzt die Performance-Aussage von "2X" basiert wirklich auf theoretischen Testern – Navi 31 unter realen Spielen mit einem beachtbar niedrigeren Performance-Gewinn einordnen.




Tja soviel dazu, und da kann sich Leonids jetzt auch nicht damit herausreden, dass AMD das einfach geändert hat... Da hat einfach jemand in der Flüsterliste gelogen... Das sollte man in Zukunft bei Aussagen dieser Leaker auch berücksichtigen, statt immer so zu tun, dass da nur was geändert wurde.

user77
2022-11-09, 00:52:38
AMD hat Zahlen zu "8K" genannt (Frames), wobei deren 8K aber kein echtes 8K sondern nur "halbes" 8K gewesen ist.

8K hat die vierfache Pixelmenge wie 4k.
AMDs pseudo 8K hat nur die doppelte Pixelmenge wie 4k.

Bild setzt sich ja aus Höhe * Breite zusammen.
Und AMD hat nur die Höhe auf 8k Maße gesetzt, die Breite aber auf 4K Maße belassen.

Echtes 8K ist also doppelt so anspruchsvoll wie das was auf AMDs Folien als 8k bezeichnet wurde.


Also UHD-I?

Aus der Angabe „8K“ geht nicht hervor, welche Bildseitenverhältnisse, Bittiefen, Bildwiederholfrequenzen oder Helligkeits- und Farbwerte in den Bildern kodiert sind. Die ITU-R-Empfehlung BT.2020 der Internationalen Fernmeldeunion definiert diese Parameter beispielsweise für die beiden Bildauflösungen 3840 × 2160 („UHD-I“) und 7680 × 4320 („UHD-II“) mit einem Bildseitenverhältnis von 16:9 und quadratischen Bildpunkten.