PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse AMD Radeon RX 7700 XT & 7800 XT


Leonidas
2023-09-12, 15:40:56
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-7700-xt-7800-xt
Ich bitte um Entschuldigung. Krankheitsbedingt konnte der Artikel nicht wie geplant am Wochenende fertiggestellt werden.

Link zur Ersteindrucks-Umfrage zur 7800XT:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-amds-radeon-rx-7800-xt

Link zur Umfrage-Auswertung zur 7800XT:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-amds-radeon-rx-7800-xt

Link zur Ersteindrucks-Umfrage zur 7700XT:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-amds-radeon-rx-7700-xt

Link zur Umfrage-Auswertung zur 7700XT:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-amds-radeon-rx-7700-xt

maximus_hertus
2023-09-12, 17:40:09
Top, Danke wie immer für die Analyse :)

Es bleibt dabei, ich kann echt nicht verstehen, warum man Navi 32 das 7800 XT Branding gegeben hat.

Das 800er Branding wird dadurch runter gezogen, nur noch 499 USD MSRP statt vorher 649 USD.

Als 7700XT hätte man einen echten (großen) Gensprung bei der Performance und die MSRP wäre sogar fast gleich geblieben (6700XT 479 USD, Navi 32 Topdog 499 USD).

Die 12GB Karte wäre dann die Vanilla 7700.


Ehrliche Frage: Welche Vorteile gibt es (aus AMD seine Sicht) das 800er Branding zu nutzen?

Iscaran
2023-09-12, 18:45:32
Die 7800 XT mit 499$ MSRP ist ja auch ganz klar ein Preis-Angriff auf die 4070 für schlappe 100$ mehr.

Raster ist die 7800 schneller, RT etwas langsamer, dazu noch 16 GB statt 12.

Man ersetzt die eigene 6800 XT mit MSRP 649 $. Das nenn ich mal einen Generationswechsel der es Wert ist, allerdings natürlich nur für Upgrader für welche die bisherige 6800 XT zu teuer war.

Finde dafür die 7700 XT preislich ein wenig zu unattraktiv - obgleich auch diese Karte natürlich einen starken Gegenspieler für die 4060 Ti darstellt.

In RT gleichauf in Raster massiv schneller UND dazu noch 50$ niedriger eingepreist.

Finde die Karten eigentlich ganz attraktiv im Markt. Klar noch billiger wäre mir auch lieber - aber so oder so orientiert sich AMD am Platzhirsch, solange nVidia keinen Preiskampf anfängt macht es für AMD wenig Sinn auf Profit zu verzichten.

Beide sind preislich bereits viel attraktiver als ihre Gegenspieler - bin mal gespannt OB nVidia mit Preissenkungen reagiert.

Platos
2023-09-12, 19:03:47
Also bezogen auf den Dollarpreis: Ich finde die 7800XT eig. ganz ok. Man kriegt kein DLSS, kein Framegen, achlechtes RT, aber 500 Dollar sind ein ok-er Preis.

Zum Euro-Strassenpreis: Da würde ich mir dann schon überlegen, vlt. nicht die 4070 zu nehmen. Kostet fast gleich viel (Stand jetzt Launchanalyse) und bietet DLSS, was deutlich besser ist, Framegen und besseres RT.

Verstehe allerdings nicht, warum man sich über das Naming so aufregt (für 500Dollar).

crnkoj
2023-09-12, 20:33:53
Danke für die Analyse!
Eine günstige 6800 oder auch 6800xt mit UV sind aber besser als die 7700/7800

Gast Ritis
2023-09-12, 20:38:10
Denke auch, das Naming soll im Positionieren gegen die Nvidias helfen, weil zum gleichen Preis eine Ziffer hochgezählt werden darf.

Ansonsten finde ich die Preise echt mal immer noch zu teuer, von beiden Lagern. Es gibt zumindest keinen akuten Grund warum man upgraden soll, es sei denn man hat das schon 2 Gens nicht getan und muss jetzt dringend für die aktuellen Games aufrüsten.


Was am N32 hängen bleibt ist die nicht verbesserte Effizienz gegenüber dem N31. Bedeutet für mich im Umkehrschluss: was auch immer beim N31 schief lief, es wurde mit N32 trotz des viel späteren Releases nicht gefixt. AMD hat scheinbar lieber früh auf Halde produziert und gewartet bis N21 abverkauft war. Und weil AMD damals zur Ankündigung von N31 mehr Perf/Watt versprochen hatte wird es ein oder mehrere Dinge geben, nur werden wir es nicht erfahren. Es sei denn AMD bringt doch noch ne RDNA 3.5 als dGPU.

Ich tippe ja wegen dem noch miserableren Takt von N32 vor allem auf verpasste Taktzugewinne beim Shrink von N7 auf N5 Prozess, und deshalb auch ein Zurückstecken bei stackable IF-Cache. Der taktet wahrscheinlich wie geplant in der GDDR Domäne, musste aber wegen dem "underwhelming" GCD nicht doppelt so gross werden, dachte man. Hat dann aber die Treiberoptimierungen für mehr IF-Cache je RDNA2 CU vergessen komplett neu auszurichten und 4k RT sieht immer noch zu wenig IF-Cache. 1MB IF-Cache/CU bei N31, 1.07MB IF-Cache/CU bei N32 vs. 1.6MB IF-Cache/CU bei N21 und 2.4MB IF-Cach/CU bei N22. Und die 6700XT puncht im Verhältnis zur Anzahl der CUs deutlich über den anderen RDNAs. /speku ende

Blase
2023-09-12, 21:02:19
Die Farbgebung der AMD Karten auf Seite 4 in der letzten Tabelle sind wahrscheinlich nicht so gewollt, nehme ich an?! In der "Stromverbrauchsübersicht" auf der selben Seite weiter oben sind alle AMD Karten Bezeichnungen noch in rot - und die neueren Karten darüber hinaus fett markiert. In der letzten Tabelle sind die "alten" AMD Karten Bezeichnungen in grün - und lediglich deren Performance Werte dann wieder "wie gewohnt" in rot...

@Topic selbst - nichts, was mich aus dem Hocker haut...

MfG Blase

Leonidas
2023-09-13, 03:02:43
Die Farbgebung der AMD Karten auf Seite 4 in der letzten Tabelle sind wahrscheinlich nicht so gewollt, nehme ich an?!

Gefixt.

Orko
2023-09-13, 04:14:29
Gedanken zum Graphikkarten Preis-Leistungs-Verhältnis:

Historisch gesehen sind es Graphikkarten Käufer gewohnt, und erwarten dies dann wohl auch, dass eine neue Graphikkartengeneration einen ordentlichen Sprung bezüglich Preis-Leistungs-Verhältnis gegenüber der Altgeneration bringt, bezogen auf deren aktuelle Strassenpreise.

Nun kann aber bei vergangenen NV Launches, und nun auch immer mehr bei AMD Launches beobachtet werden, dass die neue Generation im wesentlichen das Preis-Leistungs-Verhältnis der Strassenpreise der Altgeneration übernimmt.

Das Preis-Leistungs-Verhältnis verbessert sich also primär nicht mehr sprunghaft beim Generationswechsel, sondern "nur noch" durch sinkende Strassenpreise während der jeweiligen Generationslebenszeiten.

Ein Generationswechsel erfolgt dadurch nicht mehr durch den Preis-Leistungs-Sprung (welcher die Altgenration damit meist sofort obsolet machte), sondern eher Intel-CPU-like durch plazieren der neuen Modelle und auslaufen lassen (Chiplieferungen einstellen) der alten Modelle.

Vorteile für die Graphikchiphersteller:

- Der Transitionszeitpunkt kann frei gewählt werden. Chipaltbestände können besser / leichter abgebaut werden. Das Risiko von obsoleten Chip-Altbeständen entfällt nahezu (Altmodelle werden parallel weiterverkauft, Neumodelle bekommen - wenn es die wettbewerbssituation erlaubt - einen temporeren Launch-Preisaufschlag solange bis die Altchip-Bestände abgebaut sind.)

- Wenn sich das Preis-Leistungs-Verhältnis nur noch durch sinkende Strassenpreise während der Generationslebenszeiten ändert, und nicht mehr beim Generationswechsel, bedeutet dies insgesamt einen flacheren Verlauf. (Mehr-) Leistung wird langsamer billiger als historisch gewohnt.

Fazit:
Ich schätze, als Graphikkarten Käufer können wir uns darauf einstellen, dass die Zeiten von signifikanten Preis-Leistungs-Sprüngen bei Graphikkarten-Generationswechseln vorbei sind. Neumodelle werden einfach Altmodelle zum nahezu selben Strassenpreis-Leistungs-Verhältnis ersetzen.

---

Im Endeffekt Sind GPUs damit dann auf dem Stand von CPUs angekommen: Der technologische Fortschritt pro Generationszeit (1 Jahr für CPUs, 2 Jahre für GPUs) reicht nicht mehr aus, um damit einen Generationswechsel zu befeuern. Grosse Performancesprünge (jedes Jahr / jede Generation eine neue CPU / GPU) werden zu zunehmend kleineren Performancesprüngen (die CPU / GPU reicht mehere Jahre / Generationen). Generationswechsel erfolgen nicht mehr performancetechnisch, sondern produktpolitisch. Mehrperformance kostet dann zu einem gewissen Anteil auch immer mehr, Portfolio & Generationsübergreifend.

etp_inxession
2023-09-13, 07:22:30
AMD hat nichts, über der 7800 XT und unter der 7900 GRE.

Mitunter deshalb wollte man nicht einfach aus der 7800 XT eine 7800 machen.

Dann hätte jeder noch eine XT erwartet, die RDNA3 aber nicht unbedingt hergibt.

Ein Mini Upgrade zur 6800 er ...
Für RDNA2 Käufer eigentlich uninteressant.

Aber immerhin nicht teurer bepreist, somit eine Alternative, wenn RDNA2 vom Markt verschwunden ist.

Dazu kommt die Chiplet Technik, ... also Fortschritt ist schon da.
Auch wenn dies leider nicht unbedingt bei der Leistung sichtbar ist.

Finde die Karten in Ordnung.

In diesem Preisbereich gibt es von nVidia halt auch nichts attraktiveres.

#44
2023-09-13, 07:35:48
Aus P/L Sicht ist die 6700XT weiter die beste Option. Perf/W ist zwar nicht so geil, aber sie ist absolut gesehen dennoch die sparsamste AMD Karte.

Unter diesen Gesichtspunkten wäre die 4060TI der beste Allrounder - aber 8GB :-/
Bei guten Angeboten würde ich zur 4070 schielen. :uponder:

Gast
2023-09-13, 14:15:21
Ehrliche Frage: Welche Vorteile gibt es (aus AMD seine Sicht) das 800er Branding zu nutzen?
Vielleicht, weil die Lücke zur 7600 zu groß ist. Wenn da noch 2 Karten rein sollen (was Sinn machen würde), würden AMD die Namen ausgehen. Natürlich auch deshalb, weil die 7600 eher eine 7500XT ist.
Wobei das Namensschema bei Navi21 auch komisch war mit 6900XT, 6800XT und 6800.
Korrekterweise wären folgende Namen bei RDNA3 wohl passender gewesen:
7500 und 7500XT (Navi33 cut mit 6GB/low TBP und uncut 8GB/high TBP)
7600 und 7600XT (Navi32 cut mit 10GB/low TBP und 12GB/high TBP)
7700 und 7700XT (Navi32 uncut mit 14GB/low TBP und 16GB/high TBP)
7800 und 7800XT (Navi31 cut mit 20GB/low TBP und uncut 24GB/high TBP)

Ja, die 7600 und 7700 wären in dem Fall eng zusammen, aber das Marktsegment ist ja auch relativ groß, mit hohen Absatzzahlen und da wäre eine engere Staffelung durchaus nicht verkehrt.

Grafikspachtel
2023-09-13, 20:39:05
https://abload.de/img/screenshot2d4ibl.png (https://abload.de/image.php?img=screenshot2d4ibl.png)
Dieses Bild enthält die gesamte Misere.
Die Taktraten von RDNA2->3 sind praktisch gleichgeblieben, während Team Grün fast ein Gigahertz draufknallen konnte.

Oder andersrum betrachtet: RDNA2 war deswegen so gut, weil AMD bereits in der letzten Generation auf die 2.5GHz gesprungen ist.

Gast
2023-09-13, 22:07:43
Oder andersrum betrachtet: RDNA2 war deswegen so gut, weil AMD bereits in der letzten Generation auf die 2.5GHz gesprungen ist.

Alles eine Sache der Fertigung, AMD hatte gegenüber Ampere eben einen enormen Vorsprung, der ist weg.

Platos
2023-09-13, 22:09:43
Dieses Bild enthält die gesamte Misere.
Die Taktraten von RDNA2->3 sind praktisch gleichgeblieben, während Team Grün fast ein Gigahertz draufknallen konnte.

Oder andersrum betrachtet: RDNA2 war deswegen so gut, weil AMD bereits in der letzten Generation auf die 2.5GHz gesprungen ist.

Oder anders gesagt: RDNA2 war trotz besserer Fertigung nur deshalb im vergleich zu Ampere so gut, weil sie die Taktrate erhöht haben. Jetzt wo nvidia das auch tut und die gleiche Fertigung hat (also sowohl Taktrate als auch Fertigung ~ähnlich sind), sieht man, wie sehr AMD wieder abgehängt ist.

Man könnte jetzt also in den Raum stellen, dass das "tolle" RDNA2 also vielleicht gar nie so toll gewesen ist, sondern nvidia hatte da einfach gerade "untolle" Grundvoraussetzungen und RDNA2 erschien im Licht dessen einfach so gut. Ist halt immer alles relativ :)

Und daraus abgeleitet sollte man sich jetz eig. fragen, was denn bei der nächsten Generation (von nvidia und amd) raus kommt. Beide haben nun ihr "Pulver verschossen". Taktrate nochmals enorm steigern? Wäre schon eine krasse Leistung. 3nm ist gegenüber 5nm jetzt auch nicht eine sooo grosse Veränderung.

Ergo: In der nächsten Generation gibt es möglicherweise keinen signifikanten Taktsprung und ebenfalls kann 3nm die Fläche nicht signifikant reduzieren. Somit könnte es sein, das die nächste Generation bei beiden nicht extreme Sprünge macht (hoffen wir mal, dass wenigsten die Speicherausstattung Sprünge nach oben macht).

Leonidas
2023-09-14, 03:09:54
Bezüglich des aufgezeigten Unterschieds bei den Fertigungsverfahren muß man fast darauf hoffen, dass NV Blackwell nur in 4nm bringt, weil alles 3nm zu AI geht. Und AMD noch ein paar 3nm-Reserven selbst für Gaming-GPUs übrig hat.

Grafikspachtel
2023-09-14, 07:39:12
Noch ein letzter Punkt warum RDNA2 so gut war: Infinity Cache.
Team Grün hat ebenfalls massiv den Cache erhöht.

Beispiel:
3090 6MB L2 Cache
4090 72MB L2 Cache (sic!)

...kleiner Unterschied.

Leonidas
2023-09-14, 07:47:22
NV hat alles das aufgeholt, was AMD bei RDNA2 an gravierenden Vorteilen hatte. AMDs neue Idee der Chiplets hat hingegen nicht gezündet.

Gast Ritis
2023-09-14, 08:27:49
NV hat aufgeholt, weil AMD beim Shrink den Taktsprung nicht geschafft hat. Sonst hätten die doch im Vorfeld nicht so über kommende Mehrleistung und Effizienz gepoltert.

Auch bei Polaris und Vega hat AMD das Ziel für den Takt verfehlt. Mit RDNA3 scheinbar "nur" beim Gaming zu wenig Takt, also dann wenn es für Gaming-GPUs darauf ankommt.

Platos
2023-09-14, 09:45:08
Noch ein letzter Punkt warum RDNA2 so gut war: Infinity Cache.
Team Grün hat ebenfalls massiv den Cache erhöht.

Beispiel:
3090 6MB L2 Cache
4090 72MB L2 Cache (sic!)

...kleiner Unterschied.

Stimmt, technologisch habe ich dieses Detail noch vergessen.

Inwiefern ist das aber ein Vorteil? Das wird ja gemacht, weil man dann weniger Bandbreite braucht. Die Karten haben dafür ja alle deutlich weniger Bandbreite. Der Cache ist ja nicht so wie bei den AMD CPUs einfach oben drauf. Bei den GPUs wird dafür an Bandbreite gespaart.

Und es wurde ja auch schon oft gezeigt, dass wegen dieses Caches Karten mit wenig Cache nicht für hohe Auflösungen geeignet sind. Also selbst wenn man sich beispielsweise mit niedrigen Frameraten zufrieden geben würde, hätte man wegen des Caches einen erheblichen Nachteil.

Anders gesagt: Wer in 4k spielt, ist eig. ab jetzt immer gezwungen, die grossen Karten mit viel Cache zu kaufen. Vorher war das nicht so. Also bisher sehe ich das mit dem Cache eher als Nachteil, denn es wird hald auf Kante genäht (vor allem bei nvidia). Würde man grosszügigere Caches verbauen, wäre das sicher kein Problem. Aber vlt. löst sich das ja, wenn man in zukünftigen Grafikkarten mehr Cache verbaut. Mal sehen.

Und das Chiplet-Design (bei Grafikkarten) an sich hat sich (bisher) bei AMD ja auch nicht grad als die Wunderlösung rausgestellt.

Gast
2023-09-14, 14:20:32
Inwiefern ist das aber ein Vorteil? Das wird ja gemacht, weil man dann weniger Bandbreite braucht.


Der überwiegende Teil der Energie wird durch das hin- und herschieben von Daten verbraten, und je weiter die Daten transportiert werden müssen desto mehr kostet es. Weniger externe Bandbreite zu verwenden spart enorme Energiemengen, bzw. kann dann umgekehrt in powerlimitierten Szenarien in mehr Leistung umgesetzt werden.

Gast
2023-09-14, 14:23:09
AMDs neue Idee der Chiplets hat hingegen nicht gezündet.

An Chiplets kann auch nichts "zünden".

Chiplets sind eine Sparmaßnahme keine um die Leistung zu erhöhen.

Chiplets werden in jedem Fall langsamer und weniger energieeffizient als eine gleichwertige monolithische Umsetzung sein.

Exxtreme
2023-09-14, 14:33:17
Stimmt, technologisch habe ich dieses Detail noch vergessen.

Inwiefern ist das aber ein Vorteil? Das wird ja gemacht, weil man dann weniger Bandbreite braucht. Die Karten haben dafür ja alle deutlich weniger Bandbreite. Der Cache ist ja nicht so wie bei den AMD CPUs einfach oben drauf. Bei den GPUs wird dafür an Bandbreite gespaart.


Caches sind nicht dazu da um Bandbreite zu sparen sondern um sehr lange Zugriffszeiten auf den RAM zu minimieren. Deshalb haben CPUs heutzutage auch drei Caches unterschiedlicher Größe und nicht einen sehr großen. Die Bandbreitenersparnis ist etwas, was man nebenher gerne mitnimmt.

Grafikspachtel
2023-09-14, 16:27:55
5700XT 4MB L2 Cache 0MB Infinitycache, fettes 256bit Speicherinterface
6700XT nur 3MB L2 Cache, 96MB Infinitycache, nur 192bit Speicherinterface, insgesamt 35% schneller.

Platos
2023-09-14, 16:31:25
Der überwiegende Teil der Energie wird durch das hin- und herschieben von Daten verbraten, und je weiter die Daten transportiert werden müssen desto mehr kostet es. Weniger externe Bandbreite zu verwenden spart enorme Energiemengen, bzw. kann dann umgekehrt in powerlimitierten Szenarien in mehr Leistung umgesetzt werden.

Ja, Energieeffizienz ist ein Vorteil, das stimmt.


Caches sind nicht dazu da um Bandbreite zu sparen sondern um sehr lange Zugriffszeiten auf den RAM zu minimieren. Deshalb haben CPUs heutzutage auch drei Caches unterschiedlicher Größe und nicht einen sehr großen. Die Bandbreitenersparnis ist etwas, was man nebenher gerne mitnimmt.

Der Hauptgrund bei den Grafikkarten war/ist, um die absurden SI Grössen zu stoppen und auch deren Stromverbrauch.

Es geht nicht um CPUs, es geht um Grafikkarten.

Dino-Fossil
2023-09-14, 16:53:44
An Chiplets kann auch nichts "zünden".

Chiplets sind eine Sparmaßnahme keine um die Leistung zu erhöhen.

Chiplets werden in jedem Fall langsamer und weniger energieeffizient als eine gleichwertige monolithische Umsetzung sein.

Chiplets "zünden" dann, wenn sie Produkte ermöglichen, die ohne nicht (weil die Chiplfläche zu groß wird), oder jedenfalls nur deutlich teurer möglich wären.

Selbst wenn die absolute Performance oder Effizienz eines monolithischen Chips besser wäre - kann man das Chiplet-Konstrukt zum deutlich besserem Preis anbieten, da man in der Fertigung und Entwicklung spart, kann ein Chiplet-Ansatz richtig sein. Siehe Zen.

Wobei im Falle von RDNA3 eventuell ein wichtiger Faktor auch einfach war, erste Erfahrungen mit dem Einsatz bei GPUs zu machen. Lediglich Cache und Speichercontroller auszulagern, ohne zusätzliche GCDs, bietet natürlich kein Potential für Performancegewinne.

Gast
2023-09-14, 22:47:25
Chiplets "zünden" dann, wenn sie Produkte ermöglichen, die ohne nicht (weil die Chiplfläche zu groß wird), oder jedenfalls nur deutlich teurer möglich wären.


Das was AMD liefert sind aber nicht Produkte die ohne Chiplet über dem Reticle-Limit liegen würden.


Selbst wenn die absolute Performance oder Effizienz eines monolithischen Chips besser wäre - kann man das Chiplet-Konstrukt zum deutlich besserem Preis anbieten,


Tut man aber nicht. Und so groß sind die Vorteile auch nicht, vor allem nicht wenn man wie AMD bei RDNA3 erst recht 3 verschiedene GCDs entwickeln muss.


da man in der Fertigung und Entwicklung spart, kann ein Chiplet-Ansatz richtig sein. Siehe Zen.


Also jetzt doch die Bestätigung? Wie du sagst, Chiplets sind eine Sparmaßnahme, keine Effizienz/Performancemaßnahme.


Lediglich Cache und Speichercontroller auszulagern, ohne zusätzliche GCDs, bietet natürlich kein Potential für Performancegewinne.

Zusätzliche GCDs bieten auch kein Potential für Performance/Effizienz-Gewinne, umgekehrt sie bieten Potential für weitere Performance/Effizienz-Verluste.

Chiplet wird immer schlechter als ein Monolith sein, die Frage ist nur ob die Nachteile irgendwann mal vernachlässigbar gering werden.

Leonidas
2023-09-15, 05:19:22
Chiplet wird immer schlechter als ein Monolith sein, die Frage ist nur ob die Nachteile irgendwann mal vernachlässigbar gering werden.

Genau das wurde hierbei gelernt. Möglicherweise in dieser Folge hat AMD dann N41/N42 gestrichen.

GerryB
2023-09-17, 09:39:53
NV hat aufgeholt, weil AMD beim Shrink den Taktsprung nicht geschafft hat. Sonst hätten die doch im Vorfeld nicht so über kommende Mehrleistung und Effizienz gepoltert.

=vollkommen falscher Ansatz/Gedankengang

RDNA3 braucht vor Allem passende Software/Games, um die Auslastung von FP32 (DualIssue) zu gewährleisten.
(ähnlich wie Turing-->Ampere, was erst in größeren Resis zieht)

Daher nach m.E. eher auf Packdichte als auf Takt ausgelegtes Design.

Zusätzlich gibts die Stellschraube mit separatem Frontend-Takt.
Dieser ist@Raster schon hoch!
(und bringt Auslastung)

Inwiefern nun das neue Design noch Reserven hat zeigt ja die Analyse zu SF, da scheinen genug Register da zu sein,
damit OREO funzt.

AMD Center
2023-09-17, 11:19:32
Positiver Ersteindruck: AMD Fine Wine.

Gast
2023-09-17, 12:42:10
Das was AMD liefert sind aber nicht Produkte die ohne Chiplet über dem Reticle-Limit liegen würden.



Tut man aber nicht. Und so groß sind die Vorteile auch nicht, vor allem nicht wenn man wie AMD bei RDNA3 erst recht 3 verschiedene GCDs entwickeln muss.



Also jetzt doch die Bestätigung? Wie du sagst, Chiplets sind eine Sparmaßnahme, keine Effizienz/Performancemaßnahme.




Zusätzliche GCDs bieten auch kein Potential für Performance/Effizienz-Gewinne, umgekehrt sie bieten Potential für weitere Performance/Effizienz-Verluste.

Chiplet wird immer schlechter als ein Monolith sein, die Frage ist nur ob die Nachteile irgendwann mal vernachlässigbar gering werden.


Du hast mal so richtig keine Ahnung von der Materie. Zen1 war auch ziemlich schwach, hat aber den Grundstein dafür gelegt, das wir heute wieder einen belebten und unkämpften CPU Markt haben, in der kein Hersteller das Monopol hat und jedes Jahr die selbe Arch mit 5% mehr Leistung für 10% mehr Geld rausbringt.

Bei RDNA3 ist bekanntlich einiges schief gelaufen und das Ergebnis ist im Zusammenspiel mit dem Versuch, die Kunden auch noch zu verarschen (Falsche Bezeichnungen und zu hohe Preise), eine kleine Katastrophe. Von AMD aber scheinbar so gewollt, sie hatten nach NVs ADA Vorstellung mit der legendären 4080 Clown-Edition (4070ti, die eigentlich im Bezug auf Chip und CUDA Cores bestefalls eine 70 Karte, wenn nicht sogar eine 60ti Karte darstellt) alle Bälle in ihrem Feld und haben nix besseres damit anzufangen gewusst, als diese alle im eigenen Tor zu versenken und genau das selbe Kasperletheater abzuziehen.

Das ändert nichts daran das Chiplet Designs die Zukunft darstellen, da wir spätestens mit der nächsten Node die physikalischen Grenzen ausgereizt haben um noch einen einigermaßen Vertretbaren Monolithischen Chip zu fertigen. Es seit denn du findest es Cool ein ganzes Full Tower Gehäuse samt 1500W Netzteil nun für deine GPU zu brauchen. Auch NVs übernächste Arch wird eine Art von Chiplet sein, daran gearbeitet wird schon viele Jahre. Aber NV wird diese erst auf den Markt werfen, wenn sie müssen (Konkurrenz Druck oder extrem hohe Nachfrage nach einer 2-3 fachen Leistungssteigerung).

Platos
2023-09-17, 15:06:06
Durchschnittlicher Eindruck:

Eig. wäre die Karte ganz ok, aber für mich ist die fehlende Konkurrenzfähigkeit von FSR einfach ein No-Go, Framegen gibts auch nicht und Raytracing dann auch noch schlecht. Und zu allem ist auch noch der Stromverbrauch hoch, was dann auch nur einer der vielen Sargnägel ist. Da die Karte vom P/L und Speicher bei Raster sonst aber eig. gut ist, bekommt die Karte (als einzige AMD Karte dieser Generation) ein durchschnittlich und kein negativ (nach Dollar-Listenpreis bewertet).

Ich hätte mir aber anstatt "Raytracing" die Option "Featureset sind nicht gut genug" oder sowas gewünscht. Die nicht konkurrenzfähigkeit von FSR ist m.M.n ein deutlich gravierender Nachteil, wie Raytracing. Ebenfalls fehlt (noch) eine Framegenalternative (und ist in der Qualität absolut ungewiss). Aber insgesammt ist AMD bei allen "Features" (oder wie man es nennen mag) einfach hinterher, nicht nur bei Raytracing.

Von daher hätte man m.M.n alle "Features" in eine Antwort packen können.

Deswegen: Durchschnittlich aus anderem Grund.
Positiver Ersteindruck: AMD Fine Wine.

Das muss Satire sein oder sowas? Würde auf jeden Fall zu deinem Namen passen :D

iamthebear
2023-09-17, 16:33:19
Top, Danke wie immer für die Analyse :)

Es bleibt dabei, ich kann echt nicht verstehen, warum man Navi 32 das 7800 XT Branding gegeben hat.

Das 800er Branding wird dadurch runter gezogen, nur noch 499 USD MSRP statt vorher 649 USD.

Als 7700XT hätte man einen echten (großen) Gensprung bei der Performance und die MSRP wäre sogar fast gleich geblieben (6700XT 479 USD, Navi 32 Topdog 499 USD).

Die 12GB Karte wäre dann die Vanilla 7700.


Ehrliche Frage: Welche Vorteile gibt es (aus AMD seine Sicht) das 800er Branding zu nutzen?

Ich denke das hat heuptsächlich 2 Gründe:
a) Man will unwissende Käufer fangen, die gerne eine 80er Karte von Nvidia wollen aber nicht bereit sind 1200 Euro auszugeben. Die greifen dann schnell mal zu AMD da ähnlicher Name + selber Speicher, wissen aber nicht, dass es eigentlich nur eine 70er Karte ist.
b) Da man Navi41 und 42 gestrichen hat kann man den 80er und 90er Namen bedenkenlos opfern, da man in der Kategorie sowieso nichts mehr anzubieten hat.
Eine ähnliche Strategie hat man ja schon damals mit der RX 580 gefahren

Die 7800 XT mit 499$ MSRP ist ja auch ganz klar ein Preis-Angriff auf die 4070 für schlappe 100$ mehr.

Raster ist die 7800 schneller, RT etwas langsamer, dazu noch 16 GB statt 12.

Auf den UVP bezogen sieht es so aus. Real im Handel gibt es die 7800 XT um 560 Euro, die 4070 um 600 Euro.
Hier würde ich eher zur 4070 greifen auf Grund des niedrigeren Energiebedarfs und DLSS. Was Software angeht hinkt AMD leider etwas hinterher. Auch das "Fine wine" Argument zählt spätestens seit AntiLag+ nicht mehr.

Man ersetzt die eigene 6800 XT mit MSRP 649 $. Das nenn ich mal einen Generationswechsel der es Wert ist, allerdings natürlich nur für Upgrader für welche die bisherige 6800 XT zu teuer war.

Die 6800 XT kostet schon lange keine 650$ mehr. Wir reden hier über eine Karte, die vor 3 Jahren auf den Markt kam.
500$ statt 650$ war früher 1 Jahr nach Release für den Refresh üblich.

Finde dafür die 7700 XT preislich ein wenig zu unattraktiv - obgleich auch diese Karte natürlich einen starken Gegenspieler für die 4060 Ti darstellt.

Dass die 4060 Ti noch grottiger ist macht die 7700 XT nicht unbedingt besser. Die 7700 XT eigentlich nur einen Zweck nämlich dass die 7800 XT weniger schlecht aussieht ähnlich wie schon bei der 7900 XT vs. XTX.

Finde die Karten eigentlich ganz attraktiv im Markt. Klar noch billiger wäre mir auch lieber - aber so oder so orientiert sich AMD am Platzhirsch, solange nVidia keinen Preiskampf anfängt macht es für AMD wenig Sinn auf Profit zu verzichten.

Egal ob AMD gerne wollte oder nicht: Sie sind derzeit technologisch einfach nicht in der Lage mit Nvidia mitzuhalten.

Die 7800 XT kostet AMD in der Produktion fast so viel wie Nvidia die 4080: selbe VRAM Menge, ähnliche TDP Klasse (Kühler, PCB etc.), ähnliche Die size (350mm² vs. 378mm², die N6 Einsparungen werden durch Packagingkosten großteils wieder aufgefressen).
Und trotzdem kann man sich (wenn man Features wie DLSS miteinberechnet) kaum von 200mm² AD106 absetzen.

Bei der letzten Generation war es auch schon ähnlich (6800 XT vs. 3080):
Ca. 50% höhere Kosten für den Die (Samsungs 8nm waren deutlich billiger)
60% mehr VRAM
Und trotzdem konnte Nvidia auf der Straße mehr für die 3080 verlangen als AMD für die 6800 XT.

Caches sind nicht dazu da um Bandbreite zu sparen sondern um sehr lange Zugriffszeiten auf den RAM zu minimieren. Deshalb haben CPUs heutzutage auch drei Caches unterschiedlicher Größe und nicht einen sehr großen. Die Bandbreitenersparnis ist etwas, was man nebenher gerne mitnimmt.

Hier muss man denke ich unterscheiden:
CPUs haben in der Regeln sequentielle Aufgaben und nur 1-2 Threads pro Kern. Wartet die CPU auf Daten vom RAM macht der Kern nichts.
GPUs haben parallele Aufgaben. Während Daten vom RAM geliefert werden wird eben wo anders weiter gearbeitet wo die Daten da sind.

Genau das wurde hierbei gelernt. Möglicherweise in dieser Folge hat AMD dann N41/N42 gestrichen.

Für mich sieht Navi31/32 eher nach einer Verzweiflungsaktion aus, da man nicht genug 5nm Kapazität sichern konnte. Bei den Shader Engines selbst ist das ja sehr gut gelungen. Hier ist die Performance/mm² ja OK aber die ganze Anbindung der MCDs ist komplett aus dem Ruder gelaufen genauso wie die Energieeffizienz.
Meiner Meinung nach wäre es besser gewesen man wäre gleich bei monolithischen 6nm geblieben. Navi33 funktioniert ja erstaunlich gut. Außerdem wären 192Bit mit 128MB IF$ wohl sinnvoller gewesen.

GerryB
2023-09-17, 18:30:51
Die 7800 XT kostet AMD in der Produktion fast so viel wie Nvidia die 4080: ... ähnliche Die size (350mm² vs. 378mm²...
???

die 7800xt hat ne GCD-Size von 200mm²
(die Kosten für die kleinen L3-Chips+Package sind net bekannt, vermutlich net sooo groß)

btw.
Die 4070 hat auch ne DIE - Size von 294mm² wie die Ti.
(also vermutlich ein teurer Spass)

bzgl. Vram-Kosten
wird wohl der NV-GDDR6X etwas teurer sein als der normale GDDR6 bei AMD, so das Lisa großzügig
die treuen Käufer austatten kann

CD-LABS
2023-09-19, 18:02:32
Bzgl. der eigentlichen Frage: Der Eindruck zur Vorstellung 7800 XT ist positiv, aber aus einem besonderen Grund: Die Vorberichterstattung deutete auf eine runderherum schlechtere Karte hin. Sie ging so davon aus, dass sich die Situation von HD 5870 → HD 6870, also dass der nominelle Nachfolger schwächer werden könnte, wiederholen würde. Dem gegenüber hat sich die 7800 XT dann doch gemausert. Schnellerer Speicher als zwischendurch gedacht hat ihr dabei besonders geholfen. Die Vorberichterstattung war also klar negativ; daraus mache ich insgesamt "Durchschnittlicher Ersteindruck, primär aus anderem Grund."
Bzgl. RDNA 3 insgesamt: Es ist klar, dass das 50%-Effizienzziel verfehlt wurde. Besonders absurd ist indes, dass AMD selbst ja noch bei Vorstellung von 7900 XT(X) davon sprach, die eigenen Ziele sogar übertroffen hätte und +54% erreicht habe. (wovon mWn bis heute nichts zu sehen ist)
Das wirkt entsprechend immer noch enorm skurril. Keine Theorie konnte das bislang erklären.
Bzgl. der Preisgestaltung: Was gerne vergessen wird ist, dass AMD die GPUs nicht mehr wie zu Polaris-Vega-Zeiten verramschen kann, weil sie nicht mehr bei GloFo, sondern bei TSMC fertigen. Bei GloFo war alles an genutzten DIE-Space gut, denn er sorgte dafür, dass weniger Strafzahlungen fällig wurden.
Die heutigen TSMC-N5-Wafer sind hingegen teuer und der DIE-Space konkurriert mit dem für CPUs mit ihrer massiv höheren Gewinnspanne. Dazu kommt auch noch das Packaging.

Grafikspachtel
2023-11-09, 12:49:24
Wo sind die 54%?
https://cdn.mos.cms.futurecdn.net/ywVkwnmGNwaHRSoPo5Rrnb-1200-80.jpg.webp

Wenn man eine 6800XT nimmt, dezent untervoltet, mit 19.5 Gbps VRAM ausstattet und einen AV1-Encoder drauflegt, hat man exakt dieselbe Performance der 7800XT bei exakt demselben Stromverbrauch.

Wo sind die Vorteile der 5nm-Fertigung?
Wo sind die 54%?

Exxtreme
2023-11-09, 12:55:17
Da steht dran "up to". Und hier hat eine Spannbreite von 0 - 54%.

Der_Korken
2023-11-09, 13:11:51
Wo sind die 54%?
https://cdn.mos.cms.futurecdn.net/ywVkwnmGNwaHRSoPo5Rrnb-1200-80.jpg.webp

Wenn man eine 6800XT nimmt, dezent untervoltet, mit 19.5 Gbps VRAM ausstattet und einen AV1-Encoder drauflegt, hat man exakt dieselbe Performance der 7800XT bei exakt demselben Stromverbrauch.

Nimm die 6900XT, dann kommst du nochmal 8% näher dran mit Perf/W. N31 hat die Effizienzziele bereits klar verfehlt. Bei N32 hofften einige, dass AMD den länger im Labor behält, um das Verbrauchsproblem von RDNA3 zu fixen. Stattdessen scheint man die Optimierung da eher vorzeitig abgebrochen und N32 künstlich zurückgehalten zu haben, bis die 6800er Karten abverkauft sind. Anders ist nicht zu erklären, dass N32 sogar noch ineffizienter ist als N31.

Grafikspachtel
2023-11-09, 13:20:15
Du weißt Du hast in's Klo gegriffen, wenn Du so tun musst, als ob RDNA2 nicht existierte, damit RDNA3 noch irgendwie gut ausschaut:
https://images.anandtech.com/doci/20031/AMD%20Radeon%20RX%207800%20XT%20and%20RX%207700%20XT%20Press%20Deck_07.jpg

Der_Korken
2023-11-09, 13:41:37
Du weißt Du hast in's Klo gegriffen, wenn Du so tun musst, als ob RDNA2 nicht existierte, damit RDNA3 noch irgendwie gut ausschaut:

Ich glaube die Folie zielte eher auf mögliche Aufrüster ab, da 5700XT/2070S zum Launch ihn ähnlichen Preisregionen lagen wie die 7700XT jetzt. Sowas ähnliches hat Nvidia bei der 4060 afaik auch gemacht, denn die ist im Vergleich zur 3060 quasi auch null Fortschritt - genau wie die 4060Ti.

Gast
2023-11-09, 14:28:44
Wo sind die Vorteile der 5nm-Fertigung?


5nm bringt nur 20-30% und die sieht man auch.


Wo sind die 54%?

Da steht up to, und es lässt sich bestimmt ein Raytracing-Szenario finden bei dem das auch stimmt.

dildo4u
2023-11-09, 14:37:49
Nicht nur Raster Performance ist wichtig sondern auch das Feature Set.
Gerade von der 5700X gehts ab und man kann Mesh Shader nicht mit Low Details umgehen.

https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/6.html