PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 [39] 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

Kimi2003
2020-08-20, 20:42:38
Dieses Jahr ist es mal wieder richtig spannend, meine Einschätzung lautet:

Navi 21: 80 CU, 512Bit 16 GB GDDR6, 300W TBP, Launch Q4/20, 999 €
Navi 22: 60 CU, 386Bit 12 GB GDDR6, 225 TBP, Launch Q4/20, 699€
Navi 23: 40 CU, 256Bit 8 GB GDDR6, 150W TBP, Launch H1/21, 399 €
Navi 24: 20 CU, 128Bit 4/8 GB GDDR6, 75W TBP, Launch H2/21, 199€

Beim Navi 21 ist auch HBM2e statt GDDR6 möglich. Dann noch zu jeder Variante eine Full- sowie Salvage-Version und das RDNA2 Portfolio sieht rund aus. Die Preise sind abhängig davon, was NVIDIA preis- und performancetechnisch vorlegt.

Ich bete für die 699€ :)

psss....384 Bit ;)

Langlay
2020-08-20, 20:44:25
Abgesehen vom größten Chip (Sienna Cichlid) dürfte HBM2 ziemlich ausgeschlossen sein.

Würde mir ja völlig reichen. :biggrin:

Brillus
2020-08-20, 20:46:55
Dieses Jahr ist es mal wieder richtig spannend, meine Einschätzung lautet:

Navi 21: 80 CU, 512Bit 16 GB GDDR6, 300W TBP, Launch Q4/20, 999 €
Navi 22: 60 CU, 386Bit 12 GB GDDR6, 225 TBP, Launch Q4/20, 699€
Navi 23: 40 CU, 256Bit 8 GB GDDR6, 150W TBP, Launch H1/21, 399 €
Navi 24: 20 CU, 128Bit 4/8 GB GDDR6, 75W TBP, Launch H2/21, 199€

Beim Navi 21 ist auch HBM2e statt GDDR6 möglich. Dann noch zu jeder Variante eine Full- sowie Salvage-Version und das RDNA2 Portfolio sieht rund aus. Die Preise sind abhängig davon, was NVIDIA preis- und performancetechnisch vorlegt.

Der Preis der kleinern 2 find ich etwas hoch angesetzt ausgehen von N10 und N14 Preise.

mboeller
2020-08-20, 20:52:46
Abgesehen vom größten Chip (Sienna Cichlid) dürfte HBM2 ziemlich ausgeschlossen sein.

ich gehe zwar davon aus, dass HBM nicht kommt, aber warum nicht auch bei den kleineren GPUs?

Laut diesem unscharfen Die-Shot vom R7 (https://www.extremetech.com/wp-content/uploads/2019/02/Vega-vs-RadeonVII.jpg) benötigt 1 HBM Interface auf der GPU ca. 15mm², 2 davon also nur 30mm²

1 32bit GDDR6 Interface benötigt bei der XBsX ca. 5,6mm²

15/5,6 => 1 HBM Interface entspricht also gerade mal einem 86bit GDDR6 Interface.

HBM würde sich also sogar bei einer kleinen GPU mit nur 128bit GDDR6 rechnen, zumindest bzgl. der Die-Area

Bei den großen GPUs vergrößert sich natürlich der Vorteil enorm.

][immy
2020-08-20, 20:56:39
ich gehe zwar davon aus, dass HBM nicht kommt, aber warum nicht auch bei den kleineren GPUs?

Laut diesem unscharfen Die-Shot vom R7 (https://www.extremetech.com/wp-content/uploads/2019/02/Vega-vs-RadeonVII.jpg) benötigt 1 HBM Interface auf der GPU ca. 15mm², 2 davon also nur 30mm²

1 32bit GDDR6 Interface benötigt bei der XBsX ca. 5,6mm²

15/5,6 => 1 HBM Interface entspricht also gerade mal einem 86bit GDDR6 Interface.

HBM würde sich also sogar bei einer kleinen GPU mit nur 128bit GDDR6 rechnen, zumindest bzgl. der Die-Area

Bei den großen GPUs vergrößert sich natürlich der Vorteil enorm.
vermutlich weil es die Ausbeute gefährden würde. Bei kleineren Chips ist es wichtig das sie in Massen produziert werden können und die Ausbeute hoch ist. Speicher der direkt auf dem Chip/SOC liegt ist ein zusätzliches Risiko das sich hier ein defekt einschleicht.

Außerdem waren Fiji und Vega nicht grad überzeugende Produkte. Lag zwar nicht nur am HBM Speicher, aber trotz der sehr viel höheren theoretischen Bandbreite bringt mehr Takt beim HBM Speicher erstaunlicherweise noch was. Eventuell ist auch der relativ niedrige Basistakt von HBM-Speicher hier auch ein Faktor das Performance auf der Straße bleibt. GCN war jetzt im späteren Ausbau natürlich auch nicht ganz unschuldig.
Zudem ist GDDR5/6 einfach günstiger.

Berniyh
2020-08-20, 21:10:01
ich gehe zwar davon aus, dass HBM nicht kommt, aber warum nicht auch bei den kleineren GPUs?
AMD ist mit der Strategie schon mal auf die Schnauze gefallen, da HBM für Mid-Range einfach zu teuer ist.
(zumindest ist es sehr wahrscheinlich, dass kleineren Vegas aus diesem Grund gecancelt wurden)
Wir diskutieren ja selbst für den teuersten Chip darüber ob HBM2 zu teuer ist oder nicht.

Oder sagen wir es mal so: wenn die Preisdifferenz nicht soooo groß wäre und man es auch bei Mid-Range gewinnbringend einsetzen könnte, dann würde Nvidia das ebenfalls machen und nicht selbst beim teuersten (Gaming-) Chip auf hochgetaktete Spezial GDDR6 Module setzen.

Ne, HBM2 im Mid-Range Segment ist in etwa so wahrscheinlich wie ein 256 Bit GDDR5 Speicherinterface bei Big Navi.

Berniyh
2020-08-20, 21:11:27
[immy;12397270']Außerdem waren Fiji und Vega nicht grad überzeugende Produkte. Lag zwar nicht nur am HBM Speicher, aber trotz der sehr viel höheren theoretischen Bandbreite bringt mehr Takt beim HBM Speicher erstaunlicherweise noch was. Eventuell ist auch der relativ niedrige Basistakt von HBM-Speicher hier auch ein Faktor das Performance auf der Straße bleibt. GCN war jetzt im späteren Ausbau natürlich auch nicht ganz unschuldig.
Zudem ist GDDR5/6 einfach günstiger.
Liegt das nicht eher an der Latenz, welche mit höherem Takt auch sinkt?

Cyberfries
2020-08-20, 21:24:34
(zumindest ist es sehr wahrscheinlich, dass kleineren Vegas aus diesem Grund gecancelt wurden)

Oder es lag daran, dass Vega nie die gewünschte Leistung liefern konnte und so kleinere Vega-Varianten
mit Polaris hätten konkurrieren müssen, einen Kampf den sie unterm Strich nie gewinnen hätten können?

Wir diskutieren ja selbst für den teuersten Chip darüber ob HBM2 zu teuer ist oder nicht.

Und gleichzeitig werden hier Interfaces von 512bit für N21 und 384bit für die Mittelklasse diskutiert.... in 7nm...
Von 512bit zu HBM sind Einsparungen der Chipfläche in Höhe eines Polaris12.
Wenn das tatsächlich kommt, dann ist das eine politische Entscheidung.

dann würde Nvidia das ebenfalls machen und nicht selbst beim teuersten (Gaming-) Chip auf hochgetaktete Spezial GDDR6 Module setzen.

Völlig andere Situation, nVidia bekommt die Chipfläche im Vergleich wesentlich günstiger. Und auch nVidia schreckt vor übergroßen Interfaces zurück.
Anders formuliert, wären 512bit niedrig getakteter GDDR6 billiger als 384bit GDDR6x, würde nVidia darauf setzen.

Berniyh
2020-08-20, 21:45:10
Oder es lag daran, dass Vega nie die gewünschte Leistung liefern konnte und so kleinere Vega-Varianten
mit Polaris hätten konkurrieren müssen, einen Kampf den sie unterm Strich nie gewinnen hätten können?
Polaris kam doch erst als man Vega praktisch schon aufgegeben hatte.
Und, dass Vega im kleinen Maßstab gar nicht so schlecht performt sieht man ja z.B. an Renoir.
Ich schätze als es klar wurde, dass die kleinen Vegas nix werden hatte man die Option eine Vega mit GDDR5/6 Interface auszustatten oder die vorherige GCN Generation etwas zu pimpen (neuere UVD und so Zeug) um damit im Low- und Midrange zu punkten.
Man hat sich dann für letztere Variante entschieden, da es vermutlich schneller ging und eine Art Safe Bet war.
Und gleichzeitig werden hier Interfaces von 512bit für N21 und 384bit für die Mittelklasse diskutiert.... in 7nm...
Von 512bit zu HBM sind Einsparungen der Chipfläche in Höhe eines Polaris12.
Wenn das tatsächlich kommt, dann ist das eine politische Entscheidung.
Das stimmt schon, aber solche Diskussionen sind halt müßig ohne zu wissen wie viel teurer das Zeug durch den Interposer wird.
Völlig andere Situation, nVidia bekommt die Chipfläche im Vergleich wesentlich günstiger. Und auch nVidia schreckt vor übergroßen Interfaces zurück.
Anders formuliert, wären 512bit niedrig getakteter GDDR6 billiger als 384bit GDDR6x, würde nVidia darauf setzen.
Klar, aber wenn es unterm Strich günstiger wäre, dann würde trotzdem auch Nvidia darauf setzen.

Versteh mich nicht falsch, ich finde HBM ist eine geniale Erfindung und hätte das liebend gerne in meiner nächsten Grafikkarte (wieder, meine aktuelle Vega hat es ja auch).
Aber im Mid-Range ist es halt einfach absehbar, dass es bei GDDR6 bleibt, schlicht weil man da GDDR6 einsetzen kann ohne sich arg strecken zu müssen (also auf "Standard" Konfigurationen wie 256 Bit oder 384 Bit GDDR6 mit "normaler" Taktrate setzen kann).

unl34shed
2020-08-20, 23:16:34
Liegt das nicht eher an der Latenz, welche mit höherem Takt auch sinkt?

Dafür ist bei HBM das Interface breiter und es werden mehr Bytes pro Takt übertragen. Aber am Ende sind es eh alles DRAM Zellen und die sind bei beiden mehr oder weniger gleich. Und der DRAM dürfte den Großteil der Latenz ausmachen.

Polaris kam doch erst als man Vega praktisch schon aufgegeben hatte.

Nein, 1 Jahr vor Vega64.

Das stimmt schon, aber solche Diskussionen sind halt müßig ohne zu wissen wie viel teurer das Zeug durch den Interposer wird.

Der Interposer wird irgendwo um die 10$ geschätzt. Dafür ist das PCB einfacher zu gestalten, nur noch power und Display interfaces.

Klar, aber wenn es unterm Strich günstiger wäre, dann würde trotzdem auch Nvidia darauf setzen.

Versteh mich nicht falsch, ich finde HBM ist eine geniale Erfindung und hätte das liebend gerne in meiner nächsten Grafikkarte (wieder, meine aktuelle Vega hat es ja auch).
Aber im Mid-Range ist es halt einfach absehbar, dass es bei GDDR6 bleibt, schlicht weil man da GDDR6 einsetzen kann ohne sich arg strecken zu müssen (also auf "Standard" Konfigurationen wie 256 Bit oder 384 Bit GDDR6 mit "normaler" Taktrate setzen kann).

Dass HBM teurer ist widerspricht glaub ich keiner, aber das man damit im Consumer Markt keine Rentablen Karten bauen kann, nur weil es Nvidia nicht macht ist mMn. Schwachsinn.

Berniyh
2020-08-20, 23:49:14
Dafür ist bei HBM das Interface breiter und es werden mehr Bytes pro Takt übertragen. Aber am Ende sind es eh alles DRAM Zellen und die sind bei beiden mehr oder weniger gleich. Und der DRAM dürfte den Großteil der Latenz ausmachen.
Es ging darum, weshalb die Erhöhung des HBM Taktes bei der Vega doch noch was bringt, obwohl die Bandbreite ja eigentlich schon ziemlich ordentlich ist und Latenz ist halt eine mögliche Erklärung. ;)
Nein, 1 Jahr vor Vega64.
Ok danke, hab ich falsch im Kopf gehabt.
Dass HBM teurer ist widerspricht glaub ich keiner, aber das man damit im Consumer Markt keine Rentablen Karten bauen kann, nur weil es Nvidia nicht macht ist mMn. Schwachsinn.
Hab ich auch nicht behauptet. Umgekehrt wird ein Schuh draus: wenn es rentabel wäre würde sich Nvidia nicht so verbiegen mit GDDR6. Und würde auch kein GDDR6X bei den High-End Karten auspacken, welche in Richtung 1500€/Stück gehen.

Also irgendwo muss es bei HBM2 halt leider doch noch kranken und der Preis für das Gesamtsystem ist halt die naheliegende Erklärung.
Abgesehen davon mag es ja auch sein, dass inzwischen ein Crossover-Point erreicht wurde, aber die entsprechenden Entscheidungen wurden halt schon vor 1.5-2 Jahren getroffen wo das ggf. noch nicht so war.

Spasstiger
2020-08-21, 00:05:26
@mboeller: Mit einem 1024-Bit-HBM2-Interface mit 4 GBit/s kann man selbst ein 192-Bit-GDDR6X-Interface mit 21 GBit/s ersetzen. Bei weniger als der Hälfte der Die-Fläche.
Für Mainstream-Karten macht HBM2 aber ökonomisch wenig Sinn, da ist der Bandbreitenbedarf deutlich kleiner als selbst die HBM2-Minimalkonfiguration bietet. Mainstream ist 128 Bit GDDR6.

Oben raus, wenn es an die Grenze der herstellbaren Die-Größen geht, kommt der Vorteil von HBM2 zum Tragen.

Shaft
2020-08-21, 14:52:08
Gibt es von AMD ein Event zwecks Navi Vorstellung, wurde da was angekündigt?

Zergra
2020-08-21, 15:05:49
Gibt es von AMD ein Event zwecks Navi Vorstellung, wurde da was angekündigt?
Wäre etwas früh für November/Dezember.

Tarkin
2020-08-21, 15:09:10
Gibt es von AMD ein Event zwecks Navi Vorstellung, wurde da was angekündigt?

ich glaube spätestens zum Retail Launch der 3000er Serie von nVidia wird AMD das eigene Event ankündigen... und richtige Leaks düften dann vermutlich auch endlich auftauchen

mironicus
2020-08-21, 15:10:29
Die Vorstellung sollte imho eigentlich noch vor dem Konsolenlaunch erfolgen, also eher Anfang November.

Linmoum
2020-08-21, 15:11:19
Gibt es von AMD ein Event zwecks Navi Vorstellung, wurde da was angekündigt?Nein. Das einzige, was wir wissen, ist, dass AMD die Karten vor den Konsolen auf den Markt bringt, die ja gerüchteweise Anfang/Mitte November in den Handen kommen sollen. Also wahrscheinlich irgendwann im Oktober.

Du kannst aber davon ausgehen, dass es im Zuge des Ampere-Launches auch genug von AMD geben wird, sobald NV mehr und mehr Karten auf den Tisch gelegt hat. Dann kann AMD reagieren und entsprechendes anteasern oder auch schon vorstellen. Ist ja kein Problem, der tatsächliche Launch lag bei Zen2/Navi letztes Jahr ja auch erst 5 Wochen nach der (erstmalig) offiziellen Ankündigung.

Complicated
2020-08-21, 16:44:13
Ich wette es gibt einen N10-Refresh (Sollte ein solcher geplant sein) zum Ampere Launch als Lückenfüller bis RDNA2-GPUs im November kommen. Für OEMs vielleicht sogar nur - was sinnvoll wäre. Ähnlich wie es auch den Matisse-Refresh gab vor Renoir.

OC_Burner
2020-08-21, 18:01:55
1 32bit GDDR6 Interface benötigt bei der XBsX ca. 5,6mm²

Kommt wohl drauf an wie man die Auswahl um das Interface zieht. Ich selber komme da auf 4,85mm² und habe mir mal das XBsX Bild der heutigen 3DC Newsseite geschnappt und ein bißchen nachgemessen. Das Bild scheint in Originalgröße vorzuliegen. Nimmt man ein Bild vom Zen2 Core ohne L3 Cache oder das Navi10/14 GDDR6 Interface als Referenz, lassen sich exakte 1000dpi für das XBsX Bild ableiten. Die Aspect Ratio des Bildes ist auch korrekt.

unl34shed
2020-08-21, 18:05:05
Die scheinen bei der Xbox noch mal ordentlich bei der Packdichte drauf gelegt zu haben. Ein WGP ist nur noch ca. 4mm² groß, bei N10 waren es noch ca. 4.5mm².

Multimedia Engine: 20mm²
GDDR6 Memory Controller (5Ch): 12,9mm² x 2 = 25,8mm²
GDDR6 IO (64bit): 13,6mm² x5 = 68mm²
L2 Cache: 9,3mm² x2 = 19,6mm²
Frontend (ACEs, ROPs, Command processor etc.): 36mm²
WGP: 4mm²


Bei 80CUs mit dem I/O bereich von N10 (40mm²), einer weiteren Multimedia Engine, kommt ich auf:
40*4+40+20+19,6+36=275,6mm²

Laut Treiber soll Sienna Cichlid ja jetzt wohl 2048bit HBM2 sein und ein XGMI geben. Das wären dann noch mal vielleicht 40mm² oben drauf? Damit landet man aber irgendwie nur bei dem 340mm² Chip?

Rampage 2
2020-08-21, 18:07:59
Ne, HBM2 im Mid-Range Segment ist in etwa so wahrscheinlich wie ein 256 Bit GDDR5 Speicherinterface bei Big Navi.


Die eigentliche Frage ist doch viel eher, ob es möglich und/oder rentabel ist, zwei verschiedene Speichertechnologien (HBM und GDDR) innerhalb der gleichen GPU-Architektur zu verwenden. Etwa so:

N21, 80CUs: 2 oder 4 Stacks HBM2 (je 1024Bit pro Stack)
N22, 60CUs: 3 Stacks HBM2 (1024Bit pro Stack) oder 384Bit GDDR6
N23, ??CUs: 256Bit GDDR6

Leo hatte das kategorisch ausgeschlossen...

Ich freu' mich schon jedenfalls, sollten wir nach vielen Jahren endlich wieder einen 512Bit breiten Bus @ GDDR6 sehen:smile:

R2

unl34shed
2020-08-21, 18:14:07
Nein Leo und ich haben es im gleichen Chip kategorisch ausgeschlossen. In einer Familie kann das sehr viel Sinn ergeben, im lowend GDDR, highend dann HBM.
E: Da wird einfach beim Erstellen des Chips auf ein anderen IP Block zugegriffen. Auf 7nm hat AMD ja bereits beides portiert.


BTW: Damit gibt es ja bei AMD auch noch keine Produkte. Eigenes Embedded Interposer Design für HBM.
http://www.freepatentsonline.com/20180102338.pdf

Complicated
2020-08-21, 18:14:29
Leo hat zu Recht beide Interfaces auf dem selben Chip ausgeschlossen.
Einfach weil dann der Dieflächen-Vorteil für HBM wegfällt und man sich das ganz sparen kann.

Die selbe RDNA2 Architektur kann durchaus mit Chips unterschiedlicher Speicherbestückung und Interfaces kommen. Eine HPC-GPU wird wohl sehr wahrscheinlich HBM nutzen, nur halt ohne GDDR6 Interface, so wie ja auch GA100 von Nvidia: https://www.computerbase.de/2020-05/nvidia-ga100-ampere/

gedi
2020-08-21, 18:14:39
Die scheinen bei der Xbox noch mal ordentlich bei der Packdichte drauf gelegt zu haben. Ein WGP ist nur noch ca. 4mm² groß, bei N10 waren es noch ca. 4.5mm².

Multimedia Engine: 20mm²
GDDR6 Memory Controller (5Ch): 12,9mm² x 2 = 25,8mm²
GDDR6 IO (64bit): 13,6mm² x5 = 68mm²
L2 Cache: 9,3mm² x2 = 19,6mm²
Frontend (ACEs, ROPs, Command processor etc.): 36mm²
WGP: 4mm²


Bei 80CUs mit dem I/O bereich von N10 (40mm²), einer weiteren Multimedia Engine, kommt ich auf:
40*4+40+20+19,6+36=275,6mm²

Laut Treiber soll Sienna Cichlid ja jetzt wohl 2048bit HBM2 sein und ein XGMI geben. Das wären dann noch mal vielleicht 40mm² oben drauf? Damit landet man aber irgendwie nur bei dem 340mm² Chip?

96CUs + HBM2? 6900XT 16GB, die XTX gleich mit 32GB bei 1500$ und maybe höherem Takt?

Linmoum
2020-08-21, 18:16:19
Laut Treiber soll Sienna Cichlid ja jetzt wohl 2048bit HBM2 seinGibt es dazu neuere Einträge?

Cyberfries
2020-08-21, 18:18:22
Laut Treiber soll Sienna Cichlid ja jetzt wohl 2048bit HBM2 sein und ein XGMI geben. Das wären dann noch mal vielleicht 40mm² oben drauf? Damit landet man aber irgendwie nur bei dem 340mm² Chip?

Das nur 340 ODER 427mm² zutrifft sollte doch keine große Überraschung sein?
Die beiden liegen viel zu nah beieinander
240mm² für den kleineren Chip sind auch möglich, ich hatte mal 48CUs und 256bit GDDR6 spekuliert. Sollte knapp passen.

Eine weitere Möglichkeit ist, dass keine der bisher diskutierten Chipgrößen richtig ist...

Die eigentliche Frage ist doch viel eher, ob es möglich und/oder rentabel ist, zwei verschiedene Speichertechnologien (HBM und GDDR) innerhalb der gleichen GPU-Architektur zu verwenden.
Leo hatte das kategorisch ausgeschlossen...

Innerhalb des gleichen Chips wurde ausgeschlossen.
Innerhalb der gleichen Architektur problemlos, siehe Navi 10/12.
edit: zu langsam

unl34shed
2020-08-21, 18:20:38
Gibt es dazu neuere Einträge?

Nein, beziehe mich da auf die Einträge von vor ca. einem Monat. Da scheinen Ähnlichkeiten mit den anderen HBM Karten aufgetaucht zu sein und man kam auf 2048bit HBM.

Berniyh
2020-08-21, 18:21:52
Gibt es dazu neuere Einträge?
Die Aussage hat mich auch gewundert, mir ist dazu nichts bekannt, obwohl ich glaube die meisten Patches durchgesehen hab.

Berniyh
2020-08-21, 18:22:50
Nein, beziehe mich da auf die Einträge von vor ca. einem Monat. Da scheinen Ähnlichkeiten mit den anderen HBM Karten aufgetaucht zu sein und man kam auf 2048bit HBM.
Ja, da gab es Auffälligkeiten, aber da sind wir weit von einer Bestätigung weg.

unl34shed
2020-08-21, 18:26:48
Das nur 340 ODER 427mm² zutrifft sollte doch keine große Überraschung sein?
Die beiden liegen viel zu nah beieinander

Naja so nah ist das auch nicht beieinander, in die 90mm² passen bei der WGP Größe halt noch locker weitere 20CUs und 2 HBM Channel rein. :confused:

E:
Ja, da gab es Auffälligkeiten, aber da sind wir weit von einer Bestätigung weg.

Es ist mMn. aber deutlich besser als die Annahme es ist GDDR6 wegen dem Emulation Mode. Aber ja, fix ist es noch nicht.

Cyberfries
2020-08-21, 18:33:10
Naja so nah ist das auch nicht beieinander, in die 90mm² passen bei der WGP Größe halt noch locker weitere 20CUs und 2 HBM Channel rein.

4x40 + 2x15 = 110 edit: Blödsinn meinerseits.
Hast natürlich recht. 100CUs liegen aber auch viel zu nah an 80CUs, da wird das Portfolio zu kleinteilig, das ergibt wenig Sinn.
Interessant wird das ganze mit ca.120CUs und 4xHBM womit wir dann näher an die 500mm² rücken.
Die 505mm² wurden ja schonmal Arcturus zugeordnet, der mit ähnlichen Einheitenzahlen kommen soll.

Zwischen 340 und 427 liegen nur rund 25%, üblich sind eher so 40-60% Differenz.
Ausnahme davon wäre nur sowas wie TU104 und TU106.

gedi
2020-08-21, 18:37:47
Aber wenn 6900 gleichbedeutend mit HBM und 6800 gleichbedeutend mit 384-Bit SI sein sollte?
Das evtl. Temperaturproblem seitens Pascal wäre doch sofort gefixt und Bandbreite hätte man da eh zur Genüge. Für mich macht GDDR6 beim Topdog seitens AMD keinen Sinn. Zudem: Es soll ja DAS Halo-Produkt werden

mboeller
2020-08-21, 18:38:48
Laut Treiber soll Sienna Cichlid ja jetzt wohl 2048bit HBM2 sein und ein XGMI geben. Das wären dann noch mal vielleicht 40mm² oben drauf? Damit landet man aber irgendwie nur bei dem 340mm² Chip?

laut ein paar Postings in diesem Thread sollen AFAIR einige Sachen im Sienna Cichlid gegenüber Navi (und IMHO damit auch gegenüber den Konsolen GPUs) verdoppelt worden sein. Die 340mm² dürften damit zu knapp sein, eher sind es 427mm² ... dann würden trotzdem aber auch mehr CUs auf das Die passen.

edit:
das war es:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12379612&postcount=8917

https://twitter.com/_rogame/status/1289239501647171584

Complicated
2020-08-21, 18:41:04
BTW: Damit gibt es ja bei AMD auch noch keine Produkte. Eigenes Embedded Interposer Design für HBM.
http://www.freepatentsonline.com/20180102338.pdf
Das ist ein Patent das EMIB+TSV+aktiven organischen Interposer (circuit board) darstellt. Was da beschrieben ist, könnte für die Ausgliederung der Speicherinterfaces dienen. Die Vertiefungen im organischen Substrat sind elektrisch angebunden und werden mit einem flachen EMIB-ähnlichen Chip bestückt, der jedoch zu den Interconnects seitlich zusätzlich TSV, um nach unten und nach oben zu verbinden, hat. Die Oberseite der eingelassenen Chiplets sollen 2 oder mehr Logic Chiplets anbinden können.

71194

Das ist sehr spannend :)

basix
2020-08-21, 18:50:39
Laut Treiber soll Sienna Cichlid ja jetzt wohl 2048bit HBM2 sein und ein XGMI geben. Das wären dann noch mal vielleicht 40mm² oben drauf? Damit landet man aber irgendwie nur bei dem 340mm² Chip?

Das wärs :crazy:

unl34shed
2020-08-21, 18:50:57
laut ein paar Postings in diesem Thread sollen AFAIR einige Sachen im Sienna Cichlid gegenüber Navi (und IMHO damit auch gegenüber den Konsolen GPUs) verdoppelt worden sein. Die 340mm² dürften damit zu knapp sein, eher sind es 427mm² ... dann würden trotzdem aber auch mehr CUs auf das Die passen.

edit:
das war es:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12379612&postcount=8917

https://twitter.com/_rogame/status/1289239501647171584

Das einzig mir bekannte ist der doppelte Media Encoder (mit ggf. reduziertem feature set) und den hab ich mit 20mm eingerechnet.

Beim Rest ist glaube ich noch nicht bekannt, ob es zwischen Konsolen einen Unterschied gibt.

Das wärs :crazy:

Ich glaube da auch noch nicht wirklich dran... :freak:

Rampage 2
2020-08-21, 18:54:05
Leo hat zu Recht beide Interfaces auf dem selben Chip ausgeschlossen.
Einfach weil dann der Dieflächen-Vorteil für HBM wegfällt und man sich das ganz sparen kann.

Die selbe RDNA2 Architektur kann durchaus mit Chips unterschiedlicher Speicherbestückung und Interfaces kommen. Eine HPC-GPU wird wohl sehr wahrscheinlich HBM nutzen, nur halt ohne GDDR6 Interface, so wie ja auch GA100 von Nvidia:


HPC- und Consumer/Gamer-GPUs der selben Architektur werden ja auch (mittlerweile auch bei AMD) getrennt entwickelt - aber für Chips, die alle demselben Segment (hier: Consumer) angehören, würde es dann bedeuten, dass man die Architektur zweimal für zwei unterschiedliche Speichertechnologien designen müsste, oder etwa nicht?

Außerdem müsste man gleich 4 Stacks HBM2 verwenden, wenn es auch einen abgespeckten 12GB-Chip mit 60CUs geben soll - bei einem 2 Stack-Design kann man für den abgespeckten Chip ja nicht 1.5 Stacks verwenden;D


Innerhalb des gleichen Chips wurde ausgeschlossen.
Innerhalb der gleichen Architektur problemlos, siehe Navi 10/12.
edit: zu langsam

Ist N12 ein Consumer-/Gamer-Chip oder für den professionellen/HPC-Bereich bestimmt?

R2

unl34shed
2020-08-21, 18:58:35
Nein, Man entwickelt zu begin für 7nm zwei Memory Controller, einmal GDDR6 und einen HBM, jenachdem, welche GPU man baut, fügt man den einen oder anderen ins Desing ein.
Die Chips werden wie Lego aus einzelnen Modulen zusammengesetzt.

Langlay
2020-08-21, 19:09:08
Außerdem müsste man gleich 4 Stacks HBM2 verwenden, wenn es auch einen abgespeckten 12GB-Chip mit 60CUs geben soll - bei einem 2 Stack-Design kann man für den abgespeckten Chip ja nicht 1.5 Stacks verwenden;D


AMD speckt das Speicherinterface beim Salvage normalerweise nicht ab. Kann mich auch nicht errinnern, dass das in den letzten Jahren mal vorgekommen ist. Salvage wird dann auch einfach 16GB bekommen und gut ist.

BlacKi
2020-08-21, 19:15:28
AMD speckt das Speicherinterface beim Salvage normalerweise nicht ab. Kann mich auch nicht errinnern, dass das in den letzten Jahren mal vorgekommen ist. Salvage wird dann auch einfach 16GB bekommen und gut ist.
5600xt

Langlay
2020-08-21, 19:18:50
5600xt

Stimmt, die hatte ich jetzt gar nimmer aufm Schirm. Ist aber imo auch nur die Ausnahme der Regel.

gedi
2020-08-21, 19:24:19
AMD speckt das Speicherinterface beim Salvage normalerweise nicht ab. Kann mich auch nicht errinnern, dass das in den letzten Jahren mal vorgekommen ist. Salvage wird dann auch einfach 16GB bekommen und gut ist.

Die Frage ist doch, was ist salvage?

Rampage 2
2020-08-21, 19:31:15
Salvage wird dann auch einfach 16GB bekommen und gut ist.


Ich spreche nicht von einem Salvage, sondern von einem ganz anderen Chip (z.B. N22 oder N23) ;)

R2

Langlay
2020-08-21, 19:36:03
Ich spreche nicht von einem Salvage, sondern von einem ganz anderen Chip (z.B. N22 oder N23) ;)

R2

Die werden kein HBM bekommen. 64 CUs und kleiner kann man sicherlich gut mit GDDR6 bedienen. 384Bit würden dort ja reichen. Beim dem grossen Brummer macht HBM halt schon mehr Sinn imo als dort ein 512bit GDDR6 Interface hinzufummeln.

mironicus
2020-08-21, 19:47:05
Am Ende wissen wir wohl immer noch nichts, nicht mal ob es 80 CU sind oder über 100. Da es offensichtlich beliebig skalierbar ist wie man schön bei PS5 und Xbox sehen kann, kann AMD wohl soviel nehmen wie sie wollen bis ein Powertarget erreicht ist.

Cyberfries
2020-08-21, 19:52:00
Ist N12 ein Consumer-/Gamer-Chip oder für den professionellen/HPC-Bereich bestimmt?

N12 ist eine Spezialvariante für Macbooks, quasi Navi10 mit HBM statt GDDR6.
Spart ein wenig Chipfläche und eine Menge Strom (nur noch 50watt), hat weiterhin die bekannten 40CUs, mit deutlich niedrigeren Taktraten.

Ich spreche nicht von einem Salvage, sondern von einem ganz anderen Chip (z.B. N22 oder N23)

Wollte man wirklich das gesamte Portfolio mit HBM ausstatten, würde der kleinste Chip nur einen HBM-Stapel erhalten.
Das ergibt aber wenig Sinn, weil die Einsparungen an Chipfläche und Energie bei kleinen Chips den Zusatzaufwand bei Fertigung und Kosten nicht rechtfertigen.

Wenn HBM bei Navi2x kommt, dann nur beim größten Chip.

gedi
2020-08-21, 20:15:20
N12 ist eine Spezialvariante für Macbooks, quasi Navi10 mit HBM statt GDDR6.
Spart ein wenig Chipfläche und eine Menge Strom (nur noch 50watt), hat weiterhin die bekannten 40CUs, mit deutlich niedrigeren Taktraten.



Wollte man wirklich das gesamte Portfolio mit HBM ausstatten, würde der kleinste Chip nur einen HBM-Stapel erhalten.
Das ergibt aber wenig Sinn, weil die Einsparungen an Chipfläche und Energie bei kleinen Chips den Zusatzaufwand bei Fertigung und Kosten nicht rechtfertigen.

Wenn HBM bei Navi2x kommt, dann nur beim größten Chip.

Exakt. Nur für 69xx! Zudem ist ja so, dass nur ich N10 im 3Dc am Limit betreibe und es ist ganz einfach so, dass N10 über echten 2.15G an der Bandbreite verhungert. Mein Setting hier 2.2G@1.9GVram bei entspannten 1.137V. Mehr Takt für die GPU bringt eigentlich wenig, bis nix. Banbreitenlimit ahoi! Die Nitro @ 1G VRAM war nicht weit weg von ner wassergekühlten Strixx@richtigen 2.23G mit 1900MHZ VRAM-Takt.

Berniyh
2020-08-21, 20:58:22
Die 505mm² wurden ja schonmal Arcturus zugeordnet, der mit ähnlichen Einheitenzahlen kommen soll.
Ist das denn wirklich fix?

evtl. würde es sich ja lohnen das mal nachzurechnen. Die Größen der Einzelteile sollten ja von Vega 20 halbwegs bekannt sein und zudem sollten ein paar Unsicherheiten wegfallen, da ja ein Haufen "unnützes" Zeug über Bord geworfen wurde.

gedi
2020-08-21, 21:38:52
Ist das denn wirklich fix?

evtl. würde es sich ja lohnen das mal nachzurechnen. Die Größen der Einzelteile sollten ja von Vega 20 halbwegs bekannt sein und zudem sollten ein paar Unsicherheiten wegfallen, da ja ein Haufen "unnützes" Zeug über Bord geworfen wurde.

Warum schließt du auf V20, wo nicht mal die exakte Fertigungsbreite bekannt ist. V20 im Consumermarket war nur ein Möglichkeitsmodell, welches sich AMD besser erspart hätte. Das Ding war und ist ein Fail!

reaperrr
2020-08-21, 21:41:14
Also die XSX-GPU ohne die beiden CCX wäre höchstens 320mm², und die SI sind jeweils nur knapp 5mm² und ein WGP/dual-CU nur 8,2mm².

Gegenüber der XSX-GPU käme N21 aber schon allein durch 12 mehr WGP (~98mm² mehr) und ein 512bit SI (~30mm² mehr) auf rund 450mm², berücksichtigt man zusätzlich noch Speichercontroller, Frontend und ROPs, sind die 505mm² für N21 definitiv realistischer als die zwischenzeitlich mal genannten 427mm². Es sei denn, N21 hat doch HMB oder "nur" 384bit/96 ROPs.

N22 entspricht wahrscheinlich weitgehend der XSX-GPU, was zu den ~340mm² passen würde, und N23 wäre dann quasi die RDNA2-Version von N10 mit ~240mm².

unl34shed
2020-08-21, 21:43:53
Also die XSX-GPU ohne die beiden CCX wäre höchstens 320mm², und die SI sind jeweils nur knapp 5mm² und ein WGP/dual-CU nur 8,2mm².

Nein, ein WGP sind 4-4,1mm²

Die GPU ist gerade mal ca 160mm² groß, davon sind noch ~20mm² L2 und ~36mm² das Frontend. Der Rest sind CUs.
Siehe: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12398177&postcount=9520

E:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71198&stc=1&d=1598040430

gedi
2020-08-21, 21:45:14
Also die XSX-GPU ohne die beiden CCX wäre höchstens 320mm², und die SI sind jeweils nur knapp 5mm² und ein WGP/dual-CU nur 8,2mm².

Gegenüber der XSX-GPU käme N21 aber schon allein durch 12 mehr WGP (~98mm² mehr) und ein 512bit SI (~30mm² mehr) auf rund 450mm², berücksichtigt man zusätzlich noch Speichercontroller, Frontend und ROPs, sind die 505mm² für N21 definitiv realistischer als die zwischenzeitlich mal genannten 427mm². Es sei denn, N21 hat doch HMB oder "nur" 384bit/96 ROPs.

N22 entspricht wahrscheinlich weitgehend der XSX-GPU, was zu den ~340mm² passen würde, und N23 wäre dann quasi die RDNA2-Version von N10 mit ~240mm².

Ich dachte das Thema ist erst Ende 2022 relevant?

Berniyh
2020-08-21, 21:55:05
Warum schließt du auf V20, wo nicht mal die exakte Fertigungsbreite bekannt ist. V20 im Consumermarket war nur ein Möglichkeitsmodell, welches sich AMD besser erspart hätte. Das Ding war und ist ein Fail!
:confused:
Was willst du von mir?
Es ging darum, dass hier viele Rechnungen angestellt werden und die 505 mm2 für Arcturus als fix angenommen werden (also für Navi 21 weitgehend ausgeschlossen werden).
Also macht es doch nur Sinn das mal nachzurechnen mit den Infos die zu Arcturus bekannt sind.
Und eine dieser Infos ist eben, dass Arcturus eine Weiterentwicklung von Vega (20) ist … :rolleyes:
Und Die Shots von Vega 20 gab es meines Wissens schon, genauso wie Vergleiche zwischen Navi 1x und Vega 20.

gedi
2020-08-21, 22:26:45
:confused:
Was willst du von mir?
Es ging darum, dass hier viele Rechnungen angestellt werden und die 505 mm2 für Arcturus als fix angenommen werden (also für Navi 21 weitgehend ausgeschlossen werden).
Also macht es doch nur Sinn das mal nachzurechnen mit den Infos die zu Arcturus bekannt sind.
Und eine dieser Infos ist eben, dass Arcturus eine Weiterentwicklung von Vega (20) ist … :rolleyes:
Und Die Shots von Vega 20 gab es meines Wissens schon, genauso wie Vergleiche zwischen Navi 1x und Vega 20.

Woher beziehst du dein Wissen? Die 505 Quadratkilometer ;) sind für mich gesetzt. Der andere Krempel ist Salvage an einem ganz normalen SI angebunden:)

gedi
2020-08-21, 22:30:10
:confused:
Was willst du von mir?
Es ging darum, dass hier viele Rechnungen angestellt werden und die 505 mm2 für Arcturus als fix angenommen werden (also für Navi 21 weitgehend ausgeschlossen werden).
Also macht es doch nur Sinn das mal nachzurechnen mit den Infos die zu Arcturus bekannt sind.
Und eine dieser Infos ist eben, dass Arcturus eine Weiterentwicklung von Vega (20) ist … :rolleyes:
Und Die Shots von Vega 20 gab es meines Wissens schon, genauso wie Vergleiche zwischen Navi 1x und Vega 20.

Zeig mir nur eine offizielle Folie, welches die 505 mm^2 automatisch auschließt

Cyberfries
2020-08-21, 22:47:34
Ist das denn wirklich fix?

evtl. würde es sich ja lohnen das mal nachzurechnen. Die Größen der Einzelteile sollten ja von Vega 20 halbwegs bekannt sein und zudem sollten ein paar Unsicherheiten wegfallen, da ja ein Haufen "unnützes" Zeug über Bord geworfen wurde.

Fix ist es erst, wenn es offiziell bekanntgegeben wurde.

Die Recheneinheiten von Vega20 sollten ungefähr zwei Drittel des Die belegen.
Das verdoppelt ergibt rund 550mm², dann die erwähnten Einsparungen, das kommt ungefähr hin mit den 505mm².
Genau nachgemessen habe ich jetzt aber noch nicht.
Mir ist jetzt spontan auch nicht bekannt, welche Fertigungsverfahren für Vega20 und Arcturus angesetzt werden müssten.

edit: Fritzchens Fritz hat tatsächlich schon seit Juli 2019 ein Bild des Die:
https://www.flickr.com/photos/130561288@N04/48243282516/in/album-72157650403404920/

Berniyh
2020-08-21, 23:26:29
Woher beziehst du dein Wissen? Die 505 Quadratkilometer ;) sind für mich gesetzt. Der andere Krempel ist Salvage an einem ganz normalen SI angebunden:)
Und woher beziehst du dein Wissen?
Zeig mir nur eine offizielle Folie, welches die 505 mm^2 automatisch auschließt

Ich habe nirgends behauptet zu wissen, dass die 505 mm2 zu irgendeinem Chip gehören.
Soweit mir das bekannt ist wissen wir noch nicht mal ob überhaupt ein Chip mit der Fläche existiert.
Wobei das recht wahrscheinlich ist auf Grund der ursprünglichen Quelle die die Angabe gemacht hat, aber auch die könnte prinzipiell falsch liegen.

Alles was ich vorgeschlagen habe ist – auf Grund der Tatsache, dass viele 505 mm2 = Arcturus als gesetzt sehen – man doch einfach mal die ganzen Rechnungen die gerade für Navi 21 angestellt werden eben für Arcturus ansetzt.
Wenn das hinhaut, dann wäre die Aussage, dass diese Fläche zu Arcturus gehört doch recht wahrscheinlich?
In meinen Augen daher eine gute Idee, dachte ich jedenfalls.

Stattdessen wird mir dann komisches Zeug entgegnet … :confused:

Edit: AMD gibt meines Wissens eigentlich nie irgendwelche Flächen auf den Folien selbst an, zumindest nicht für komplette Chips. Und sicher nicht für Chips die noch nicht mal weitläufige Verbreitung haben.

Berniyh
2020-08-21, 23:29:25
Mir ist jetzt spontan auch nicht bekannt, welche Fertigungsverfahren für Vega20 und Arcturus angesetzt werden müssten.
Vega 20 ist ziemlich sicher N7. Ist ja auch der älteste 7nm Chip von AMD.
Arcturus wissen wir nicht genau. Könnte N7P sein oder N7+ oder evtl. ja auch dieser neue N7e Prozess den die Konsole(n) verwenden.
Die gleiche Unsicherheit besteht aber auch bei Navi 21, insofern würde ich mal bei beiden den gleichen systematischen Fehler machen (also den gleichen Prozess annehmen), dann kann man zumindest die Größenverhältnisse abschätzen.
Wobei die natürlich auch unterschiedliche Prozesse verwenden könnten.

reaperrr
2020-08-22, 01:03:52
Stimmt, die hatte ich jetzt gar nimmer aufm Schirm. Ist aber imo auch nur die Ausnahme der Regel.
7800 XT (Tahiti @256bit), Tonga...

Und bei einem großeren Chip lohnt es sich bezogen auf die Ausbeute mehr als bei Navi10.

Nein, ein WGP sind 4-4,1mm²
Ach Mist, hatte die Zahl von hier und übersehen, dass das für 4 CUs war.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71192&d=1598025635

Gut, dann sind die 427mm² grundsätzlich möglich.


Die GPU ist gerade mal ca 160mm² groß, davon sind noch ~20mm² L2 und ~36mm² das Frontend. Der Rest sind CUs.

Ähm, man kann doch nicht einfach das G6 SI, Fabric/MC, Multimedia-Blöcke und I/O unterschlagen :confused:, die gehören zu einer GPU dazu und wären bei einer reinen GPU auch nicht nennenswert kleiner (wenn überhaupt).
Also irgendwas ab 310mm² aufwärts wäre eine GPU mit den XSX Specs in 7nm auf jeden Fall, du bist bei einem SI über 256bit hinaus wahrscheinlich allein schon ein Stück weit Pad-limitiert.

Ich dachte das Thema ist erst Ende 2022 relevant?
:confused: Welches Thema genau meinst du?

Leonidas
2020-08-22, 04:31:31
Zwischen 340 und 427 liegen nur rund 25%, üblich sind eher so 40-60% Differenz.


Das ist in der Tat wenig. Aber ein ~60CU-Chip wäre doch neben einem 80CU-Chip nicht zu verachten. Im HighEnd-Bereich werden die Abstände kleiner, gibt es keine Verdoppelungen mehr - weil man eben auch für +50% Performance doppelt so viel zahlt.

unl34shed
2020-08-22, 09:14:58
Ähm, man kann doch nicht einfach das G6 SI, Fabric/MC, Multimedia-Blöcke und I/O unterschlagen :confused:, die gehören zu einer GPU dazu und wären bei einer reinen GPU auch nicht nennenswert kleiner (wenn überhaupt).


Das sollte nur dazu dienen, um zu zeigen, dass da niemals genug 8mm² WGPs rein passen können.

BlacKi
2020-08-22, 09:29:12
Stimmt, die hatte ich jetzt gar nimmer aufm Schirm. Ist aber imo auch nur die Ausnahme der Regel.
hd 3830 r9 285 :biggrin:

HOT
2020-08-22, 10:04:49
sind doch auch 25% mehr Shader und ein Speichercontroller mehr, das passt doch hervorragend...

Cyberfries
2020-08-22, 10:34:46
Das ist in der Tat wenig. Aber ein ~60CU-Chip wäre doch neben einem 80CU-Chip nicht zu verachten.

Es sollte auch Platz für eine abgespeckte Version übrig bleiben, einen 80CU-Chip wird man nicht nur im Vollausbau anbieten wollen.
Wird da eine 72CU-Version eingeschoben, die auch noch einen Taktratennachteil hat,
dann schrumpft der Vorsprung an Rohleistung schnell auf einen einstelligen Prozentwert zusammen.

Stimmt, die hatte ich jetzt gar nimmer aufm Schirm. Ist aber imo auch nur die Ausnahme der Regel.
hd 3830 r9 285 :biggrin:

Abspeckungen waren in jüngerer Vergangenheit tatsächlich eher unüblich: Nur Tonga und Oland um jeweils 64bit.
Lag glaube ich an Beschränkungen der GCN-Architektur,.
Navi kommt damit wesentlich besser zurecht, siehe 5600XT(von 256 auf 192bit) und 5300M (von 128 auf 96bit).

basix
2020-08-22, 10:45:34
:confused:
Was willst du von mir?
Es ging darum, dass hier viele Rechnungen angestellt werden und die 505 mm2 für Arcturus als fix angenommen werden (also für Navi 21 weitgehend ausgeschlossen werden).
Also macht es doch nur Sinn das mal nachzurechnen mit den Infos die zu Arcturus bekannt sind.
Und eine dieser Infos ist eben, dass Arcturus eine Weiterentwicklung von Vega (20) ist … :rolleyes:
Und Die Shots von Vega 20 gab es meines Wissens schon, genauso wie Vergleiche zwischen Navi 1x und Vega 20.

Es ist immer wieder lustig, wie man sich zu Tode rechnen kann :D

Prinzipiell sind ausgehend von XBSX 60 CU bei 384bit für den 340mm2 Chip am wahrscheinlichsten (CPU Cluster weg, +64bit SI und +2 WGP). Die anderen Chips liegen irgendwo drum herum. 80 CU für den 427mm2 Chip scheinen realistisch. Die zusätzlichen 10 WGP und 128bit SI machen inkl. grösserem L2 irgendwo 75-80mm2 aus. Bei einem 505mm2 Chip hättest du zu 100% viel mehr CUs. Entweder ist das Arcturus oder ein unbekannter, extrem grosser Navi.

Bei Vega 20 sind 64 CU gerade mal 120mm2 gross. Render Backends machen nicht ganz 30mm2 aus. Ich behaupte mal, Vega 20 ohne Grafik Features wäre etwa 290-300mm2 gross. Der L2$ ist 17mm2 davon. Also: doppelter L2$, doppelte CUs inkl. Tensor Operations (ca. 1.2x CU Grösse) ergeben +185mm2. 300mm2 + 185mm2 ergeben 485mm2. Dazu noch die zusätzlichen 4x IF-Links mit ca. 27mm2 und wir landen bei ~505mm2 ;)

Der_Korken
2020-08-22, 11:03:03
Wie passen die ganzen CU-Zahlen, die hier so im Raum rumfliegen, eigentlich mit der Anzahl der Shader-Engines/Arrays zusammen? Bisher haben wir:

N14: 1x2x6 (1 SE, 2 SAs pro SE, 6 WGPs pro SA)
N10: 2x2x5
PS5: 2x2x5 (?)
XBSX: 2x2x7

Je mehr WGPs pro SA, desto schlechter potenziell die Auslastung und desto schlechter die Leistung bei hoher Geometrielast. Bei 60 CUs würden sich 3x2x5 anbieten und bei 80CUs 4x2x5 anbieten, damit das Verhältnis im Vergleich zu N10 nicht zu schlecht wird. Allerdings kostet eine weitere Shader Engine sicherlich auch deutlich mehr Transistoren, also wären die 60 CUs für einen 340mm²-Chip nicht nur minimal größer als die 56 CUs der XBSX. Fragt sich, ob die letztere überhaupt gut über die Anzahl der CUs skaliert, wenn das Frontend nicht breiter ist als bei der PS5 und bei N10. Bei GCN war das zumindest ein Problem.

Edit: Generell zweifle ich an, dass es einen 60-CU-Chip UND einen 80-CU-Chip geben wird, weil die so dicht zusammenliegen. Der große Chip muss wahrscheinlich eh schon ein wenig Takt opfern wegen des Verbrauchs, d.h. der 80er Chip käme vielleicht 25% über dem 60er Chip raus und müsste noch einen Salvage dazwischenpacken. Nach unten würde man mit diesen Abständen (rechnerisch) auf 45 CUs, 34 CUs, 26 CUs, 20 CUs, usw. kommen (nur um zeigen wie absurd dicht die Chips zusammenliegen würden).

stinki
2020-08-22, 12:11:36
Der Trend der Spekulationen geht momentan wohl so in Richtung:
80CU: 4x2x5 WGPs (512Bit GDDR6) (oder 2048Bit HBM2e)
56CU: 2x2x7 WGPs (384Bit GDDR6)
40CU: 2x2x5 WGPs (256Bit GDDR6) (oder 32CU: 2x2x4)

So riesig sind ja angeblich auch die Chip-Flächen nicht auseinander.
Ein ca. 100mm² kleinerer Chip scheint sich in N7 scheinbar zu lohnen. Hat Nvidia bei Turing in N12 ja auch schon so gemacht.

Berniyh
2020-08-22, 14:19:40
Bei Vega 20 sind 64 CU gerade mal 120mm2 gross. Render Backends machen nicht ganz 30mm2 aus. Ich behaupte mal, Vega 20 ohne Grafik Features wäre etwa 290-300mm2 gross. Der L2$ ist 17mm2 davon. Also: doppelter L2$, doppelte CUs inkl. Tensor Operations (ca. 1.2x CU Grösse) ergeben +185mm2. 300mm2 + 185mm2 ergeben 485mm2. Dazu noch die zusätzlichen 4x IF-Links mit ca. 27mm2 und wir landen bei ~505mm2 ;)
Ok danke, das schaut doch schon mal ganz gut aus. ;)

Arcturus hat übrigens auch 2 VCN Einheiten, also nimmt das auch noch mal etwas mehr Platz weg.
Aber ich denke unterm Strich passt das schon halbwegs.

Berniyh
2020-08-22, 14:26:57
Edit: Generell zweifle ich an, dass es einen 60-CU-Chip UND einen 80-CU-Chip geben wird, weil die so dicht zusammenliegen. Der große Chip muss wahrscheinlich eh schon ein wenig Takt opfern wegen der Verbrauchs, d.h. der 80er Chip käme vielleicht 25% über dem 60er Chip raus und müsste noch einen Salvage dazwischenpacken. Nach unten würde man diesen Abständen (rechnerisch) auf 45 CUs, 34 CUs, 26 CUs, 20 CUs, usw. kommen (nur um zeigen wie absurd dicht die Chips zusammenliegen würden).
Prinzipiell hätte ich dir zugestimmt, aber tatsächlich halte ich es inzwischen nicht für unwahrscheinlich, dass es so kommen wird.
Hauptsächlich aus 2 Gründen:
1. AMD scheint inzwischen keine Scheu mehr davor zu haben lieber mehr Chips aufzulegen. Wenn man überlegt was so alles an APUs noch kommen soll. Da macht ein GPU Chip den Braten auch nicht mehr fett. Zumal man so ja effektiv auch Wafer spart und gerade die scheinen derzeit bei TSMC eher zu limitieren als die Designs.
2. Ich denke der wesentliche Grund für einen extra Chip trotz relativ geringen Abstands zwischen Navi 21 / Sienna Cichlid und Navi 22 / Navy Flounders wird das ganze drumherum sein. Navi 21 kann man relativ hochpreisig ansetzen, Navy Flounders hingegen wird in ein Preissegment eingreifen wo schon Preisdruck spürbar sein wird. Daher macht es z.B. keinen Sinn noch im High-End das gleiche Speicherinterface auf dem Chip zu haben wie bei Navi 21, sei es nun 512 Bit GDDR6 oder HBM2(e).
Alleine das wäre wohl schon Grund genug für den extra Chip.

Navi 21 wird wohl ein Show-Case werden (hoffentlich erfolgreich, sonst geht das übel aus), Navi 22 aber hingegen das womit Umsatz gemacht wird.
Da lohnt es sich eben das auch dahin zu optimieren, damit man nicht nur Umsatz generiert, sondern auch Gewinn (ein Punkt an dem AMD ja nach wie vor krankt).

Complicated
2020-08-22, 14:33:51
Ich glaube es könnte auch mit Restriktionen aus der Semi-Custom-Sparte zu tun haben. Erfahrungen die dort gemacht wurden konnten noch nicht in Renoir einfließen, doch Cezanne könnte näher an den Konsolen Designs sein mit zusätzlichen Optimierungen. Man stelle sich vor AMD bringt einen Konsolen SoC für den PC, mit ähnlicher Ausstattung. Und da sowohl MS als auch Sony immer mehr auch PC-Spieler in die Abos der Spiele-Netzwerke anbinden wollen, könnte das durchaus auch für diese von Interesse sein. Möglicherweise könnten SSD-Features (HBCC?) der Konsolen dazu kommen in einem angepaßten Memory-Controller.

Cyberfries
2020-08-22, 14:57:08
1. AMD scheint inzwischen keine Scheu mehr davor zu haben lieber mehr Chips aufzulegen. Wenn man überlegt was so alles an APUs noch kommen soll.

Cezanne als Renoir-Nachfolger und Van Gogh als Dali-Nachfolger, nichts zusätzliches.
Oder hab ich was verpasst?

Navi 21 kann man relativ hochpreisig ansetzen, Navy Flounders hingegen wird in ein Preissegment eingreifen wo schon Preisdruck spürbar sein wird
....Navi 22 aber hingegen das womit Umsatz gemacht wird.

Preisdruck und Umsatzbringer in einem Segment, wo die Vorgängerkarten (2070 & Super) bei 500-600€ lagen?
Das ist ja mal so überhaupt gar nicht weltfremd.

Nochmal: Der erwartete Konkurrent von nVidia hat voraussichtlich 46-48SM und 8GB Speicher,
wozu dann mit 60CU und 12GB dagegengrätschen und der eigenen Speerspitze das Wasser abgraben?

Wie passen die ganzen CU-Zahlen, die hier so im Raum rumfliegen, eigentlich mit der Anzahl der Shader-Engines/Arrays zusammen?

Sehr guter Punkt, das hab ich völlig vernachlässigt. Damit ist mein Favorit mit 52CUs eher raus.
Wo werden eigentlich Einheiten bei der 5700 und 5600 deaktiviert? Gibts dann auch halbe WGPs?

Der_Korken
2020-08-22, 15:37:31
1. AMD scheint inzwischen keine Scheu mehr davor zu haben lieber mehr Chips aufzulegen. Wenn man überlegt was so alles an APUs noch kommen soll. Da macht ein GPU Chip den Braten auch nicht mehr fett. Zumal man so ja effektiv auch Wafer spart und gerade die scheinen derzeit bei TSMC eher zu limitieren als die Designs.

Dein Wort in AMDs Ohr, denn dann würden sie hoffentlich auch monolithische Ryzen-CPUs auf Zen3 bringen ;)


Wo werden eigentlich Einheiten bei der 5700 und 5600 deaktiviert? Gibts dann auch halbe WGPs?

Afaik werden dort tatsächlich in jedem Shader-Array je eine halber WGP deaktiviert, sodass man 4x9 CUs hat (finde das Bild leider nicht mehr). Auf der Folie zur XBSX-GPU sah es aber so aus, als würden dort 2 ganze WGPs deaktiviert, sodass die Shader-Arrays assymetrisch sind: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-19-august-2020

Bei GCN gab es ausschließlich symmetrische Configs. Eventuell gilt diese Beschränkung bei RDNA2 nicht mehr, dafür müssen aber WGPs komplett deaktiviert sein.

Leonidas
2020-08-22, 15:42:17
Es sollte auch Platz für eine abgespeckte Version übrig bleiben, einen 80CU-Chip wird man nicht nur im Vollausbau anbieten wollen.
Wird da eine 72CU-Version eingeschoben, die auch noch einen Taktratennachteil hat, dann schrumpft der Vorsprung an Rohleistung schnell auf einen einstelligen Prozentwert zusammen.


Stimmt. Deswegen wäre so etwas wie 52-56 CU sinnvoller.

JVC
2020-08-22, 15:47:22
Ich denke das NV in der Gen ziemlich gestolpert ist.
Samsungs 8LPP ist scheinbar wirklich so mies, 350Watt ?
(was für ein Prügel der da anscheinend kommen soll :eek:)


AMD hat ja scheinbar den Prozess doch noch optimiert, "7LPPe" oder wie war das?
Ich denke, + RDNA auf RDNA2 und der "Verdoppelung" der 5700XT = ...
(ich hoffe AMD scheisst nicht auf die Spitze und geht das überraschende Watt-Rennen mit :biggrin:)

Meine Glaskugel sagt :eek:
Platz 1. geht an den, der mehr Watt reinbräääät :devil:

M.f.G. JVC

[MK2]Mythos
2020-08-22, 15:59:20
Ach was. NV kann und wird sicherlich die Leistungsspitze behalten. Wichtig ist nur dass AMD alles darunter mit "Massen"kompatiblen Produkten belegt. Also konkurrenzfähige Performance/Watt bei etwas besseren Preisen als die von NV. Dann wird das was.

Wenn man sowas wie die 3090 aka Frankensteins Monster auf den Markt loslässt, dann muss es die Konkurrenz auch schlagen, ansonsten wird es ein Rohrkrepierer. Und in der Position, NV zu schlagen, sehe ich AMD in der absoluten Leistungskrone nicht.

JVC
2020-08-22, 16:42:00
Mythos;12399185']Dann wird das was.

Bei mir wird das sowieso was :biggrin:
Ein 1400.- Klopper... meine 1080Ti hab ich für meine Zwecke (4K) für ~820.- gekauft...
Und Die erfüllt sie immer noch :tongue:
(online MMOS laufen immer Jahre wenn nicht Jahrzente :wink: ja ich weiß, ich werde alt)

Für mindestens 16Gb + entsprechender Leistung und natürlich + HDMI 2.1
Bin ich bereit ~800.- bei gutem gefallen oder bei akzeptablen Argumenten
bis zu 999.- zu bezahlen :smile:

An sonnst dreht die 1080Ti noch ne runde :freak:

M.f.G. JVC

(irgendwie treiben mich die geistigen Ergüsse mancher im NV Thread immer wieder hier her... + der UnderDog^^)

nordic_pegasus
2020-08-22, 17:12:34
meint Ihr denn, AMD wird bei BiggestNavi alle 80 CUs aktivieren oder wird die Ausbeute optimiert und wir erhalten nur Salvage als TopDog? Ich habe die 60 aktiven CUs bei RadeonVII noch nicht verziehen... hätte ansonsten gerne der Karte eine Chance gegeben.

JVC
2020-08-22, 17:22:36
meint Ihr denn, AMD wird bei BiggestNavi alle 80 CUs aktivieren oder wird die Ausbeute optimiert und wir erhalten nur Salvage als TopDog? Ich habe die 60 aktiven CUs bei RadeonVII noch nicht verziehen... hätte ansonsten gerne der Karte eine Chance gegeben.
Der Prozess läuft offensichtlich gut und AMD aktiviert auch gerne mal Voll.

Mir gefiel das Gerücht mit XL(~Speicher und Cu gekürzt) XT(~Cu geküzt) und vor allem XTX(das Volle Paket) :)

Für mich wäre Weinachten, wenn AMD ne 16Gb 80Cu HDMI 2.1 300Watt 2,2Ghz XTX für 999.- rausballert
die den 350Watt Boliden nur im einstellige Prozentbereich verfehlt... :freak:

M.f.G. JVC

Berniyh
2020-08-22, 17:50:44
meint Ihr denn, AMD wird bei BiggestNavi alle 80 CUs aktivieren oder wird die Ausbeute optimiert und wir erhalten nur Salvage als TopDog? Ich habe die 60 aktiven CUs bei RadeonVII noch nicht verziehen... hätte ansonsten gerne der Karte eine Chance gegeben.
Vermutlich schon. Bei der Radeon VII war es halt eine Zweitverwertung für die Marke. Den Vollausbau konnte man halt für deutlich mehr Geld anderweitig verkaufen.
Bei Big Navi gibt es eine derartige Aufteilung wohl nicht, insofern gibt es auch keinen wirklichen Grund die zurückzuhalten.

Dazu war Vega 20 ja das erste 7 nm Produkt, evtl. war die Ausbeute auch nicht sonderlich toll.

nordic_pegasus
2020-08-22, 17:53:24
Für mich wäre Weinachten, wenn AMD ne 16Gb 80Cu HDMI 2.1 300Watt 2,2Ghz XTX für 999.- rausballert
die den 350Watt Boliden nur im einstellige Prozentbereich verfehlt... :freak:


würde ich einem Ampere Heißluftfön auch vorziehen... die Zeit bis November wird noch spannend. Ich hoffe Nvidia bringt die Ampere Titan erst später, dann habe ich im September auch keinen Anreiz zum vorzeitigen Kauf. Salvage Chip kommt mir nicht ins Haus bzw. Gehäuse.

gedi
2020-08-22, 18:07:59
Das ist in der Tat wenig. Aber ein ~60CU-Chip wäre doch neben einem 80CU-Chip nicht zu verachten. Im HighEnd-Bereich werden die Abstände kleiner, gibt es keine Verdoppelungen mehr - weil man eben auch für +50% Performance doppelt so viel zahlt.

Aber es gibt ja nicht nur die 6900XT(X). Es gibt ja auch noch die 6800 und 6700, sowie so halb umgelabelte 6600 und 6500. Ich denke so im Preisbereich 1200-200$ ist da alles dabei. Und ich tippe für die 56CU Variante auf ein 256-Bit SI als Ersatz der 5700XT

Berniyh
2020-08-22, 18:27:32
Warum sollte man einen 40 CU Chip mit einem 56 CU Chip ersetzen?

gedi
2020-08-22, 18:45:26
Weil ein 3060/3070 sicher nicht langsamer ist als Turing und die Diesize in etwa die gleiche bleibt!

unl34shed
2020-08-22, 22:56:58
Mal ne blöde Frage, aber die Xbox One X hatte doch noch keine Vega NCUs genutzt sondern nur die PS4 Pro hatte ein paar Features wie RPM genutzt. Also sollte man sich doch eher auf dem Level von Polaris bewegen.

Bin gerade bei Anandtech über folgenden Satz zur XSX gestolpert.
09:21PM EDT - CUs have 25% better perf/clock compared to last gen
https://www.anandtech.com/show/15994/hot-chips-2020-live-blog-microsoft-xbox-series-x-system-architecture-600pm-pt#post0817212110

Angeblich sollte das bereits RDNA1 gegenüber Vega geschafft haben und bei den Consolen sollte es mit RDNA2 doch noch höher ausfallen... :confused:
https://hardzone.es/app/uploads/2019/05/Navi-6.jpg

Der_Korken
2020-08-23, 00:19:53
Angeblich sollte das bereits RDNA1 gegenüber Vega geschafft haben und bei den Consolen sollte es mit RDNA2 doch noch höher ausfallen... :confused:
https://hardzone.es/app/uploads/2019/05/Navi-6.jpg

Vega war ja gefühlt eher ein Rückschritt in Sachen IPC (objektiv vermutlich nicht, aber es skalierte halt schlecht mit den vielen CUs), also würde dieser Sprung nicht wirklich mitzählen. Dennoch würde nach dieser Aussage die IPC von RDNA1 auf RDNA2 nicht steigen. Wäre natürlich schade, aber da die CUs laut Xbox-SOC-Screenshot nicht größer sondern eher leicht kleiner ausfallen, kann man da auch keine Wunder erwarten.

Daredevil
2020-08-23, 00:25:25
Kleinere CUs und dafür mehr würde halt das beste aus beiden Welten, Vega und Navi, zusammenbringen.
Mehr CUs sind stark bei LL APIs, performen gut bei niedrigem Takt, bei hohem Vulkanausbruch. ( Siehe Radeon VII )
Größere CUs sind stark bei non-LL APIs, performen auch bei hohem Takt gut ohne Vulkanausbruch. ( Siehe 5700XT )

Dit ist halt..... Vega ( 1950x ) vs. Navi ( 3600X ).
Machma nen 3700x raus, dann passt das schon für die nächste Zeit. (:

Linmoum
2020-08-23, 00:30:32
Dass die IPC mit RDNA2 weiter steigt hat AMD bereits auf dem FAD verlauten lassen.

https://www.overclock3d.net/gfx/articles/2020/06/08121224574l.jpg

unl34shed
2020-08-23, 08:50:59
Dass die IPC mit RDNA2 weiter steigt hat AMD bereits auf dem FAD verlauten lassen.

Ja, genau das ist irgendwie mein Problem mit der Aussage. Vielleicht ein Teaser für RDNA2 :confused::D

robbitop
2020-08-23, 09:26:10
CB hat für RDNA1 39% ggü Polaris und 28% ggü Polaris gemessen.
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/

DF hatte da auch mal was gemacht. Es war auch da zu sehen, dass Polaris > GCN1 und Vega > Polaris.

https://youtu.be/fzPo7gu-fTw

Die 25% sind schon sehr konservativ angesetzt. Ich vermute, dass man hier AMD nicht zu viel vorweg nehmen will und Tiefstapeln hat noch niemandem geschadet.

Kann aber auch ein anderer Effekt sein: Dank deutlich besserer Shadercompiler und Optimierung auf eine fixe HW Plattform war die Auslastung von GCN auf den Konsolen im Schnitt wahrscheinlich höher als auf dem PC.

RDNA geht mittels mehr Kontrolllogik und besserer Granularität eher den Weg, den NV eingeschlagen hat: Entsprechend wird schneller/einfacher bessere Auslastung erzielt und die Schere geht weniger auseinander.

Dazu kommt bei solchen Vergleichen auch noch dass zum Nextgen Launch die lastgen HW extrem gut bekannt und ausgequetscht war. Die neue uArch hingegen nicht.

Viele Gründe warum die 25% sehr konservativ sind. Auf dem PC wird die Differenz deutlich größer sein - denn wie man bei cb sieht: sie ist es bereits.

unl34shed
2020-08-23, 09:46:16
CB hat für RDNA1 39% ggü Polaris und 28% ggü Polaris gemessen.
:freak:


Generell sind die IPC Angaben auf den Folien doch eher theoretischer Natur von daher sollte der Compiler/die eigentliche Auslastung aus der Rechnung raus sein.

robbitop
2020-08-23, 09:55:08
Ja zumal Spiele mehr als nur Compute sind. Bei dem DF Video sind es oft noch deutlich höhere Differenzen.

BoMbY
2020-08-24, 11:14:59
Leider sagt AMD nicht mit welchen Karten (Einfach nur Polaris10 oder Vega10 vs. Navi10?) und welcher Testmethodik genau (Systemverbrauch? Verbrauch der Karte? Verbrauch des Chip?) sie die +50% Performance/Watt erreicht haben, nur: "RX-325: Testing done by AMD performance labs 6/1/19, using the Division 2 @ 25x14 Ultra settings. Performance may vary based on use of latest drivers."

Der_Korken
2020-08-24, 11:21:54
Zu RDNA hatte AMD afaik damals in den Fußnoten geschrieben, dass sie N10 mit einem 40CU-Vega-Chip verglichen haben. Da dieser wahrscheinlich wesentlich effizienter mit seiner Rohleistung (und wahrscheinlich auch dem Verbrauch) umgeht als eine 64-CU-Vega, war der IPC-Sprung von V10/V20 auf N10 entsprechend deutlich größer als 25%.

Jetzt kann man natürlich böse sein und sagen, dass RDNA2 nur dann 50% effizienter sein wird, wenn der RDNA1- und -2-Chip mit jeweils 1,8Ghz betrieben werden, was durch die höhere Taktbarkeit von RDNA2 dann stark im Sweetspot liegen und bei RDNA1 nicht. Hoffen wir es lieber nicht.

dildo4u
2020-08-24, 11:25:42
Könnte wirklich sein das sie die XBox als Grundlage genommen haben die läuft extrem langsam und war vermutlich schon lange fertig.
Bei den Desktop GPUs kann man noch bis kurz vorher den Takt anpassen um Nvidia anzugreifen.

BoMbY
2020-08-24, 11:28:45
Also mit einer Milchmädchen-Rechnung komme ich auf ziemlich genau +50% bei Vega64 XT gegen 5700 XT:

Leider gibt es nur einen Benchmark mit Division 2 von beiden und einen Durchschnittlichen Stromverbrauch in Anno 2070 von beiden [1][2][3], aber damit kommt man auf:

Vega64: 64,7 FPS / 289W = 0,223875433 FPS/W
5700XT: 74,7 FPS / 222W = 0,336486486 FPS/W

0,336486486 / 0,223875433 = 1,503007644

[1]: https://www.pcgameshardware.de/Radeon-RX-5700-XT-Grafikkarte-274775/Tests/Release-Benchmark-Preis-Kaufen-Vega-64-1293229/4/
[2]: https://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/2/
[3]: https://www.pcgameshardware.de/Radeon-RX-5700-XT-Grafikkarte-274775/Tests/Release-Benchmark-Preis-Kaufen-Vega-64-1293229/3/

dargo
2020-08-24, 11:48:34
Könnte wirklich sein das sie die XBox als Grundlage genommen haben die läuft extrem langsam und war vermutlich schon lange fertig.
Bei den Desktop GPUs kann man noch bis kurz vorher den Takt anpassen um Nvidia anzugreifen.
Was ist an 1825Mhz extrem langsam? Haben hier manche schon den Bezug zur Realität komplett verloren? :freak:

dildo4u
2020-08-24, 11:52:16
Naja Sony lässt die kleineren Chip mit 400 MHz mehr laufen, ich erwarte da deutlich Mehr als 1.8 von den Desktop Karten.

HOT
2020-08-24, 11:53:41
Was ist an 1825Mhz extrem langsam? Haben hier manche schon den Bezug zur Realität komplett verloren? :freak:

Zumal er das nicht verstanden hat. Die 1825 sind sogar extrem viel, weil das purer Basistakt ist. Die XBox hat nur einen Basistakt, der dafür 100% stabil ist. eine Grafikkarte hätte >2GHz Gametakt mit der TDP. Auch bei der PS5 ist das nur Gametakt, nicht max-Turbo. In Wirklichkeit hätte eine RDNA2-Karte mit der Technik 1,8GHz Basistakt, 2,2GHz Gametakt und 2,3-2,4GHz Max-Turbo.

dildo4u
2020-08-24, 11:57:32
Das ist nicht viel da nur Game Code ausgeführt wird, keine Power Viren.
Games sind extrem schlecht um alle verfügbaren Einheiten komplett auszulasten, was ist z.b wenn das Game viel RayTracing nutzt AMD Lösung aber wieder nichts drauf hat? Dann dreht der Rest des Chips Däumchen.

HOT
2020-08-24, 12:00:39
Die XBox ist so designt, dass dieser Takt unter keinen Umständen gerissen wird, das schließt Powerviren mit ein, denn Games können in bestimmten Scenen durchaus das erriechen. Was die XBox macht, machte zuletzt die 7970/50 (nicht Pro). Moderne Grafikkarten holen 200-300MHz durch ms-genaues Schalten heraus.

dargo
2020-08-24, 12:01:41
Also mit einer Milchmädchen-Rechnung komme ich auf ziemlich genau +50% bei Vega64 XT gegen 5700 XT:

Leider gibt es nur einen Benchmark mit Division 2 von beiden und einen Durchschnittlichen Stromverbrauch in Anno 2070 von beiden [1][2][3], aber damit kommt man auf:

Vega64: 64,7 FPS / 289W = 0,223875433 FPS/W
5700XT: 74,7 FPS / 222W = 0,336486486 FPS/W

0,336486486 / 0,223875433 = 1,503007644

[1]: https://www.pcgameshardware.de/Radeon-RX-5700-XT-Grafikkarte-274775/Tests/Release-Benchmark-Preis-Kaufen-Vega-64-1293229/4/
[2]: https://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/2/
[3]: https://www.pcgameshardware.de/Radeon-RX-5700-XT-Grafikkarte-274775/Tests/Release-Benchmark-Preis-Kaufen-Vega-64-1293229/3/
Das ist alles reinste Spekulation womit genau AMD die +50% ermittelt. Ich kann dir auch mehr als deine 50% zeigen. Ist immer davon abhängig welche Spiele getestet werden.
https://www.computerbase.de/2019-12/grafikkarten-testparcours-2020/2/#abschnitt_benchmarks_in_2560__1440

Vega64: 55,9% / 299W = 0,19 FPS/W
5700XT: 68,5% / 210W = 0,33 FPS/W

74% effizienter.

Wobei der Vergleich nicht ganz fair ist da CB den Verbrauch in 4k misst. Habe aber leider keine Performancewerte von 4k für Vega64.

Naja Sony lässt die kleineren Chip mit 400 MHz mehr laufen, ich erwarte da deutlich Mehr als 1.8 von den Desktop Karten.
Das ist Unsinn.
https://www.pcgameshardware.de/Xbox-Series-X-Konsolen-268616/News/Entscheidung-gegen-variable-Taktraten-Teraflop-Angabe-unwichtig-1353120/

Die max. 2,23Ghz sind reines Marketing. Bei hoher GPU-Last wirst du davon nichts sehen. Das ist genauso als wenn ich sagen würde meine RX 5700XT läuft mit 2090Mhz. Im Desktop könnten natürlich höhere Taktraten kommen. Wird hauptsächlich davon abhängen wo sich RDNA 2 gegenüber Ampere positioniert.

PS: der SoC von Sony hat weniger CUs, ergo heizen die bei ebenfalls 1825Mhz weniger. Da Sony offenbar die ~150W TDP bei der GPU ausschöpfen möchte geht man den variablen Weg bei den Frequenzen und taktet die GPU entsprechend höher.

Edit:
Im Prinzip ist das nichts anderes als eine RX 5700XT (180W PT) vs. RX 5700 und letzteren erlaubst du ebenfalls 180W. Musst dir nur eine RX 5700XT mit 52 CUs vorstellen die dann irgendwo bei 1,5-1,6Ghz laufen würde, die non XT dann bei 1,9-2Ghz (grobe Schätzung der Frequenzen). Und MS hat sich halt für einen festen Takt und keinen variablen entschieden.

HOT
2020-08-24, 12:10:36
[...]

Die max. 2,23Ghz sind reines Marketing. Bei hoher GPU-Last wirst du davon nichts sehen. Das ist genauso als wenn ich sagen würde meine RX 5700XT läuft mit 2090Mhz. Im Desktop könnten natürlich höhere Taktraten kommen. Wird hauptsächlich davon abhängen wo sich RDNA 2 gegenüber Ampere positioniert.
Das stimmt AFAIK so nicht. Es gibt mehrere Modi, in der die PS5 arbeitet, also wenig CPU-Takt und dann dafür eben 2,23GHz GPU-Takt (welcher aber nicht fix ist, sondern am besten mit einem durchschnittlichen Gametakt zu vergleichen ist) und viel CPU Takt und weniger GPU-Takt.

Das Problem an den Konsolen ist, dass die Rechenleistung für die Entwickler 100% berechenbar sein muss, deswegen ist es eine irreführende Aussage, wenn man behauptet, dass man die 2,23GHz niemals sehen wird.

Gipsel
2020-08-24, 19:27:50
Konsolendiskussion in den NextGen-Konsolenthread ausgelagert.

NC
2020-08-25, 05:40:27
..sondern am besten mit einem durchschnittlichen Gametakt zu vergleichen ist... Ist das nicht eher der Maximaltakt? Der Durschnitt sollte doch drunter liegen, sonst hätte die PS5 einen gleich stabilen Takt wie die XBSX.

Bezogen auf RDNA2 hat sich AMD bei mir von der Marketingseite bisher Vorschusslorbeeren verdient, denn was die bei Zen beworben haben, als Leistungssteigerung gegenüber der vorherigen Generation, stimmte auch. Klar kann es starkte Abweichungen geben was Vergleiche gegenüber Konkurenz angeht, aber wenn da stand Zen2 wird N% effizienter als Zen1 sein, hat AMD das auch in mehreren Benchmarks gezeigt und die Reviews hatten das am Ende auch bestätigt.
Rein von der RDNA2-Architektur glaube ich somit dass
-IPC wird steigen
-Schrauben an der Energieversorgung rum (vielleicht etwas aus der PS5?)
-mehr Takt.

Natürlich werden die 50%+ ein Effizienz nicht 50% mehr Leistung bedeuten, wie robbitop auch schon bei RDNA1 verlinkte, weil das Produkt mit RDNA2-Tech halt nicht die pure Tech ist, sprich: AMD wird Effizienz wieder opfern um mehr Endleistung zu erreichen.
Aber dann wäre GCN->RDNA1 doch das realistischste was wir erwarten können.
Die Leistung die wir dann in der BigNavi Karte erwarten können hängt ziemlich davon ab wieviel Verbrauch die Karte gegenüber 5700XT zur Verfügung bekommt, es ist ja dann egal, ob das durch Takt oder mehr CUs erreicht wird. Meine pragmatische Milchmänchenrechnung:
300W/225W -> 1.33x
Architektur -> 1.3x
dann ist das leicht über 2080 Ti.

Sagt mir gerne was ich in meiner Hypothese übersehe.

Langlay
2020-08-25, 05:55:01
Meine pragmatische Milchmänchenrechnung:
300W/225W -> 1.33x
Architektur -> 1.3x
dann ist das leicht über 2080 Ti.

Sagt mir gerne was ich in meiner Hypothese übersehe.

Das wären Pi mal Daumen Navi10 +70% das ist schon recht deutlich über 2080ti (~130% Navi10) und knapp unter dem Bereich in dem die 3090 (~190% Navi10, wenn man annimmt das 3090 40% schneller ist als die 2080ti) landen sollte.

NC
2020-08-25, 06:13:46
Das wären Pi mal Daumen Navi10 +70% das ist schon recht deutlich über 2080ti (~130% Navi10) und knapp unter dem Bereich in dem die 3090 (~190% Navi10, wenn man annimmt das 3090 40% schneller ist als die 2080ti) landen sollte.
130% ist ja eher bei 1080p. Die highend Karten sind ja schon eher für sehr GPU limitierte Bereiche, also eher 4k gedacht in aktuellen Spielen. Wenn ich da mal dargos Link folge:
https://www.computerbase.de/2019-12/grafikkarten-testparcours-2020/2/
ist die 2080Ti bei 160%
Eine 300W-BigNavi wäre wieder ca. *080 Leistung von NVidias zu erwartender GPU.

OgrEGT
2020-08-26, 21:25:50
Hab gerade nochmal den Anandtech Artikel gelesen:

https://www.anandtech.com/show/15591/amds-rdna-2-gets-a-codename-navi-2x-comes-this-year-with-50-improved-perfperwatt

Gibt es eigentlich schon mehr Infos dazu was an RDNA2 CUs/Front-/Backend ggü RDNA1 CUs/Front-/Backend geändert wurde um die IPC zu erhöhen?

------------------
https://images.anandtech.com/doci/15591/Navi2x_PPW_575px.png

Berniyh
2020-08-26, 21:33:36
Nein

gedi
2020-08-27, 18:18:44
Ich gehe jede Wette ein, da kommt noch was. So ein Profi-Ableger mit 96CUs und 32GBHBM. Wattage vielleicht 350W, AMD-Exclusiv mit AiO, entweder als XTX oder 6950 getarnt. Sprich der absolute Alptraum für NV und DAS Halo-Produkt.

Kimi2003
2020-08-27, 18:20:48
Ich gehe jede Wette ein, da kommt noch was. So ein Profi-Ableger mit 96CUs und 32GBHBM. Wattage vielleicht 350W, AMD-Exclusiv mit AiO, entweder als XTX oder 6950 getarnt. Sprich der absolute Alptraum für NV und DAS Halo-Produkt.
Soll ich dich kneifen? 🤣🙈

Achill
2020-08-27, 18:32:32
Soll ich dich kneifen? 🤣🙈

Ich nehme lieber diese XTX oder 6950 als gekniffen zu werden. ;) ;D

gedi
2020-08-27, 18:32:43
Bitte nicht, dann wach ich noch auf

Daredevil
2020-08-27, 18:33:07
Ich gehe jede Wette ein, da kommt noch was. So ein Profi-Ableger mit 96CUs und 32GBHBM. Wattage vielleicht 350W, AMD-Exclusiv mit AiO, entweder als XTX oder 6950 getarnt. Sprich der absolute Alptraum für NV und DAS Halo-Produkt.
Und wo soll das verkauft werden?
Wenn Apple in Zukunft auf ihre eigene Hardware setzt, dann ist auch Schluss mit AMD Extrawürsten. :(

Der_Korken
2020-08-27, 18:43:08
Ich gehe jede Wette ein, da kommt noch was. So ein Profi-Ableger mit 96CUs und 32GBHBM. Wattage vielleicht 350W, AMD-Exclusiv mit AiO, entweder als XTX oder 6950 getarnt. Sprich der absolute Alptraum für NV und DAS Halo-Produkt.

Was soll dieser Chip groß bringen? 128 CUs deuten eher auf eine GCNoide Architektur hin, sonst würde man nicht so viele davon auf kleiner Fläche (505mm²?) unterkriegen. Mehr als doppelte R7-Leistung ist also nicht drin und selbst das wäre eher zu wenig für die 3090.

unl34shed
2020-08-27, 18:47:55
In der Xbox ist ein WGP (=2CUs) ~4.1mm² Groß, also 128Navi CUs ca. 260mm² groß.

gedi
2020-08-27, 18:49:00
Ich sehe selbst die 80CU mit breitem SI nah an der 3090! 96CUs mit soviel Bandbreite outperformed ne Titan ohne Probleme

mironicus
2020-08-27, 19:04:59
Warum eigentlich nur 80 CU? Die Anzahl spielt bei RDNA2 wohl keine Rolle mehr, die Xbox hat 56 CU mit 52 aktivierten. Warum nicht gleich einen doppelten Chip mit 112 CU? Sie werden wohl eine konkrete Vorstellung gehabt haben müssen, daß ihr Chip zum gleichen Zeitpunkt mit dem Turing-Nachfolger auf dem Markt kommt, also sind 80 CU theoretisch noch zu wenig um ein "NVidia-Killer" sein zu können.

gedi
2020-08-27, 19:19:26
Die 96CUs auf 505mm^2 war das Erste was im Raum stand für den NV-Killer. Und mehr Fläche umso mehr Takt. Lass das Ding doch mal mit nem Gametakt von 2.1G rennen...

dargo
2020-08-27, 19:34:38
Warum eigentlich nur 80 CU? Die Anzahl spielt bei RDNA2 wohl keine Rolle mehr...
Die Anzahl der CUs spielt immer eine Rolle. Oder willst du eine Grillplatte in deinem Rechner?

Berniyh
2020-08-27, 19:45:02
Was soll dieser Chip groß bringen? 128 CUs deuten eher auf eine GCNoide Architektur hin, sonst würde man nicht so viele davon auf kleiner Fläche (505mm²?) unterkriegen. Mehr als doppelte R7-Leistung ist also nicht drin und selbst das wäre eher zu wenig für die 3090.
Arcturus kannst du aber als GPU nicht nutzen, da fehlen Teile der Bildausgabe.

Wenn, dann müsste sowas in der Tat Navi1x-basiert sein oder Vega20 (was es aber ja schon gibt).
Oder natürlich es gibt neben Arcturus noch eine weitere CDNA1-Variante, aber davon haben wir bislang nichts gehört. Wäre also wohl mindestens genauso weit weg wie CDNA2.

gedi
2020-08-27, 19:45:05
Die Anzahl der CUs spielt immer eine Rolle. Oder willst du eine Grillplatte in deinem Rechner?

Japp ebenso die Größe des Dies. Von daher finde ich Hochrechnungen müßig. N21 soll doch bitte mit anständigem Takt performen und nicht mit 1G untergehen

Berniyh
2020-08-27, 19:46:52
Warum eigentlich nur 80 CU? Die Anzahl spielt bei RDNA2 wohl keine Rolle mehr, die Xbox hat 56 CU mit 52 aktivierten. Warum nicht gleich einen doppelten Chip mit 112 CU? Sie werden wohl eine konkrete Vorstellung gehabt haben müssen, daß ihr Chip zum gleichen Zeitpunkt mit dem Turing-Nachfolger auf dem Markt kommt, also sind 80 CU theoretisch noch zu wenig um ein "NVidia-Killer" sein zu können.
Theoretisch ist das möglich, aber die aktuelle Gerüchtelage hat meines Wissens für Navi2x noch nie (ernsthaft) was über 100 CU verlauten lassen.
Klar, die muss nicht stimmen, aber es wäre zumindest eine große Überraschung.

Cyberfries
2020-08-27, 19:51:10
Da war doch mal die Behauptung, dass GCN nicht mehr als 64CUs kann.
Die Beschränkung gibts mit RDNA nicht mehr.

Wieso sollte man ausgehend von der xBox verdoppeln? Warum nicht von N10 oder der PS5 ausgehend? Warum überhaupt verdoppeln?
Wenn sich die Gerüchte bestätigen, dass BigNavi nur 64ROPs hat ist das schon eine ordentliche Leistung, 80CUs zu füttern.
Und wozu einen völlig übertriebenen Chip mit dem man die Fertigung völlig ausreizt?
Wenn die yields miserabel, der Preis unfassbar und der Energieverbrauch exorbitant ist, schneidet man sich nur ins eigene Fleisch.

gedi
2020-08-27, 19:54:45
Theoretisch ist das möglich, aber die aktuelle Gerüchtelage hat meines Wissens für Navi2x noch nie (ernsthaft) was über 100 CU verlauten lassen.
Klar, die muss nicht stimmen, aber es wäre zumindest eine große Überraschung.

Die Profi-Karte hat 128CUs ;)

Berniyh
2020-08-27, 19:56:51
Die Profi-Karte hat 128CUs ;)
Welche Profi-Karte?

Cyberfries
2020-08-27, 19:57:48
Navi2x hat nichts mit Arcturus zu tun.
Wo wurde eigentlich je von 96CUs geredet? Das älteste Gerücht das mir bekannt ist, noch aus dem Jahr 2019, sprach bereits von 80CUs.

gedi
2020-08-27, 20:04:37
Arcturus hat 128CUs und die gleiche Architektur wie RDNA2.

@cyberfries

Bin nur zu faul zum Suchen. Bemühe ne Suchmaschine

Ravenhearth
2020-08-27, 20:06:32
Arcturus hat 128CUs und die gleiche Architektur wie RDNA2.

@cyberfries

Bin nur zu faul zum Suchen. Bemühe ne Suchmaschine
Arcturus ist CDNA, nicht RDNA2. Total andere Baustelle. CDNA ist eine Weiterentwicklung von Vega (gfx9), die ohne TMUs usw. auskommen muss, also eine reine Compute-Architektur.

Linmoum
2020-08-27, 20:06:54
Arcturus hat 128CUs und die gleiche Architektur wie RDNA2.Nein, Arcturus basiert auf CDNA. Völlig anders.

unl34shed
2020-08-27, 20:07:10
Arcturus hat 128CUs und die gleiche Architektur wie RDNA2.

Ne CDNA wird wohl mehr Cache, ML Instructions, kein Graphic Gedöns haben und wohl noch ein paar Unterschiede. Sonst hätte man sich den Schritt ja sparen können.

Der_Korken
2020-08-27, 20:08:11
In der Xbox ist ein WGP (=2CUs) ~4.1mm² Groß, also 128Navi CUs ca. 260mm² groß.

Und was ist mit dem ganzen drumherum? Die CUs machen bspw. bei N10 weniger als die Hälfte der Die-Fläche aus. Wenn du einfach nur CUs dranflanschst, kriegst du einen zweiten Fiji.

Die 96CUs auf 505mm^2 war das Erste was im Raum stand für den NV-Killer. Und mehr Fläche umso mehr Takt. Lass das Ding doch mal mit nem Gametakt von 2.1G rennen...

Achso, wir reden nicht mehr über Arcturus, sondern irgendeinen fiktiven Über-RDNA2-Chip. Ich mag mich irren, aber alles oberhalb von 80 CUs halte ich für völligen Quark.

Arcturus kannst du aber als GPU nicht nutzen, da fehlen Teile der Bildausgabe.

Siehe oben ;). Dachte es ginge darum, dass AMD aus Arcturus noch in V20-Manier eine Consumer-Karte schnitzt, weil das Ding so schön viele CUs hat. Auf GCN-Niveau würde nur halt selbst das nicht helfen.

Berniyh
2020-08-27, 20:13:42
Arcturus hat 128CUs und die gleiche Architektur wie RDNA2.
Arcturus kann (soweit wir wissen) keine Bildausgabe, daraus kannst du keine Grafikkarte basteln.
Zumindest nicht ohne irgendwelche Extrachips.

gedi
2020-08-27, 20:14:25
Ne CDNA wird wohl mehr Cache, ML Instructions, kein Graphic Gedöns haben und wohl noch ein paar Unterschiede. Sonst hätte man sich den Schritt ja sparen können.

Sorry, da war ich falsch informiert-sorry. Architektonisch aber doch RDNA2?

Trotzdem abwarten, es bleibt spannend.

Zudem soll es laut Palit ne 3090Ti, 3090s und ne 3090 geben. Ich denke Lederjacke ist in Not

Cyberfries
2020-08-27, 20:15:36
Bin nur zu faul zum Suchen. Bemühe ne Suchmaschine

Wenn du schon wirre Behauptungen aufstellst, solltest du die auch selber untermauern und nicht weiter Fantasiegespinsten nachhängen.

Zur 80CU-Theorie findet sich z.B. folgende News. Damals wurden auch noch 64CU diskutiert, aber nie 96:
https://www.3dcenter.org/news/geruechtekueche-amds-navi-21-mit-chipflaeche-von-505mm%C2%B2-und-tape-out-im-herbst-2019

Berniyh
2020-08-27, 20:17:26
Sorry, da war ich falsch informiert-sorry. Architektonisch aber doch RDNA2?
Nope. CDNA ist einfach nur die Fortführung von Vega.

Im Grunde scheint Arcturus in etwa ein doppelter Vega 20 zu sein bei dem man alles "unnütze" rausgeworfen hat, was man nicht braucht, wenn das Ding nicht als Grafikkarte, sondern nur für Berechnungen genutzt wird.

gedi
2020-08-27, 20:20:38
Und was ist Chiclid?

Cyberfries
2020-08-27, 20:22:33
Das englische Wort für Buntbarsch falsch geschrieben.

Sienna Cichlid ist vrmtl. eine andere Bezeichnung für Navi21.

unl34shed
2020-08-27, 20:24:04
Und was ist mit dem ganzen drumherum? Die CUs machen bspw. bei N10 weniger als die Hälfte der Die-Fläche aus. Wenn du einfach nur CUs dranflanschst, kriegst du einen zweiten Fiji.


Bei N10 sind 15% des Chips IO, das wird beim Großen Chip (505mm²) nur noch 7.5% sein (lass es 10% sein mit dem zweiten Media Encoder). Der Memorycontroller und I/F machen 26% der Fläche aus, das kann man aber noch deutlich verringern, wenn man auf 4 HBM2 Stacks setzt. Mit 512bit GDDR6 wird das nichts, das wäre mMn. aber eh dämlich und es würden nur noch ca 100CUs rein passen. Ansonsten sollten auch 128CUs in 505mm² möglich sein.

Wenn du schon wirre Behauptungen aufstellst, solltest du die auch selber untermauern und nicht weiter Fantasiegespinsten nachhängen.

Zur 80CU-Theorie findet sich z.B. folgende News. Damals wurden auch noch 64CU diskutiert, aber nie 96:
https://www.3dcenter.org/news/geruechtekueche-amds-navi-21-mit-chipflaeche-von-505mm%C2%B2-und-tape-out-im-herbst-2019

Das Ding ist halt, wenn man mit den bekannten Größen der WGPs aus der XSX, HBM bwz. GDDR6 Memory Controller, L2 Cache etc. mal den groben Flächenbedarf abschätzt, ist ein 505mm² Chip eigentlich viel zu groß für nur 80CUs. Der Treiber spricht aktuell von 2 HBM Kanälen und damit kommt man rechnerisch in dem mittleren Chip mit 340mm² raus. :confused:

Linmoum
2020-08-27, 20:24:08
Und was ist Chiclid?Der 80CU Chip, über den wir immer wieder reden. ;)

[MK2]Mythos
2020-08-27, 20:31:05
Meint ihr nicht dass das ein wenig zu viel Geträume ist? ;) Ich denke dass AMD "vernünftig" bleiben wird und das bei einem 80CU Chip die Grenze erreicht sein wird. NV wird die Führung mit der 3090 behalten.

Cyberfries
2020-08-27, 20:33:48
Das Ding ist halt, wenn man mit den bekannten Größen ...... mal den groben Flächenbedarf abschätzt, ist ein 505mm² Chip eigentlich viel zu groß für nur 80CUs. ....... rechnerisch in dem mittleren Chip mit 340mm² raus.

Jopp, wurde ja bereits ein paar Mal durchgekaut. Die 505mm² passen nicht zu N21, eher zu Arcturus.
Ich wollte auch nie behaupten, dass das Gerücht von Dezember der heilige Gral ist, sondern nur zeigen dass 96CU damals nicht diskutiert wurden.
Auch die dort genannte EUV-Fertigung ist immer noch nicht sicher.

gedi
2020-08-27, 20:35:27
Das englische Wort für Buntbarsch falsch geschrieben.

Sienna Cichlid ist vrmtl. eine andere Bezeichnung für Navi21.

Okay, an den Buntbarsch habe ich nicht gedacht. Ich dachte AMD hält sich an Renoir oder sonstigen Künstlern und mir kann man eine Mona Lisa als Einsteins Erleuchtung der Realitätstheorie verkaufen.

Trotzdem konnte ich auf Twitter auf r/AMD exakt diese Daten ermitteln. Und die sind aus 2020

Rampage 2
2020-08-27, 21:56:23
Der Memorycontroller und I/F machen 26% der Fläche aus, das kann man aber noch deutlich verringern, wenn man auf 4 HBM2 Stacks setzt. Mit 512bit GDDR6 wird das nichts, das wäre mMn. aber eh dämlich und es würden nur noch ca 100CUs rein passen.

Meinst du jetzt Arcturus oder RDNA2/Navi21? :confused:

Und wieviel Die-Fläche würde ein 512Bit Speichercontroller bei N21 beanspruchen und wie groß wäre ein Chip mit 512Bit SI mit 80 CUs?

R2

unl34shed
2020-08-27, 22:56:52
Meinst du jetzt Arcturus oder RDNA2/Navi21? :confused:

Und wieviel Die-Fläche würde ein 512Bit Speichercontroller bei N21 beanspruchen und wie groß wäre ein Chip mit 512Bit SI mit 80 CUs?

Wenn man den Die Shot von der XSX als Grundlage nimmt (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12398434#post12398434), kommt man mit 80CU/40WGPs, 512bit GDDR6, gleichem Frontend, 2. Multimedia Engine und 40mm² wie bei N10 fürs I/O auf etwa 405mm².

reaperrr
2020-08-27, 23:52:20
Wenn man den Die Shot von der XSX als Grundlage nimmt (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12398434#post12398434), kommt man mit 80CU/40WGPs, 512bit GDDR6, gleichem Frontend, 2. Multimedia Engine und 40mm² wie bei N10 fürs I/O auf etwa 405mm².
Meintest due 505mm² :confused:

XSX ohne Zen2-CCX: 320 mm².

+ 12 WGP = + ~49mm²
+ 6 32bit SIs = + ~41mm²
+ 60% MemController = + ~16mm²
+ 3 MB L2$ = + 12mm²
+ 64 ROPs = + ~16mm² ? (unsicher, ob das wirklich die ROPs sind)
+ ~66% Frontend (doppelte SE/Prim/Raster, aber ACEs gleichbleibend?) = + ~24mm²

= ~478 mm²

Frontend-Zuwachs könnte außerdem noch etwas größer ausfallen, da nur grobe Schätzung.

Außerdem waren die 505 mm² vermutlich von jemandem grob gemessen und nicht millimetergenau.

Ich tippe, dass bei den 505 und 340 für N21+22 jeweils ein wenig zu viel Rand mitgemessen wurde.

Ich lege mich fest, dass die 505mm² deutlich dichter an den echten Abmessungen sind als die 427mm² die auch schon fielen, geschweige denn irgendwelche noch niedrigeren Milchmädchenrechnungen hier im Thread.

Dural
2020-08-27, 23:57:16
Man kann hier echt nur den kopf schütteln.

Kleiner tipp, neben navi 10 gibt es den noch navi 14...

Die 500mm2 passen ziemlich gut für 80cu 512bit.

Der_Korken
2020-08-28, 00:21:58
Wenn man an die Xbox denkt, kann ich schon verstehen, warum man gerne mindestens 80 CUs im Desktop sehen will, wenn die popelige Xbox schon 56 CUs hat. Allerdings finde ich es gerade krass wie groß der Xbox-Chip ist: 360mm² sind größer als V20, der als Salvage mit 16GB HBM für knapp 700€ vertickt wurde und wo einige meinten, dass AMD da gar keinen Gewinn mit machen würde. Ein 3950X für 700€ kommt selbst dann nur auf 260mm² wenn man den IO-Chip als 7nm-Fläche mitzählt.

unl34shed
2020-08-28, 00:43:26
Meintest due 505mm² :confused:.

Ich hab den memory controller UND L2 nur zur Hälfte reingerechnet :facepalm: wären dann 450..

@Der_Korken: ein Wafer kostet vermutlich 6-7k. Vor ein paar Jahren hieß es Mal 10k, Prozesse werden günstiger, AMD nimmt ordentlich Wafer ab, etc.
Bei 360mm² (23*16) bekommst man ca 100 good Dies pro Wafer. Selbst mit Verlusten beim Binning sollte der Chip keine 100$ kosten.

Gipsel
2020-08-28, 01:23:36
Meintest due 505mm² :confused:

XSX ohne Zen2-CCX: 320 mm².

+ 12 WGP = + ~49mm²
+ 6 32bit SIs = + ~41mm²
+ 60% MemController = + ~16mm²
+ 3 MB L2$ = + 12mm²
+ 64 ROPs = + ~16mm² ? (unsicher, ob das wirklich die ROPs sind)
+ ~66% Frontend (doppelte SE/Prim/Raster, aber ACEs gleichbleibend?) = + ~24mm²

= ~478 mm²

Frontend-Zuwachs könnte außerdem noch etwas größer ausfallen, da nur grobe Schätzung.

Außerdem waren die 505 mm² vermutlich von jemandem grob gemessen und nicht millimetergenau.

Ich tippe, dass bei den 505 und 340 für N21+22 jeweils ein wenig zu viel Rand mitgemessen wurde.

Ich lege mich fest, dass die 505mm² deutlich dichter an den echten Abmessungen sind als die 427mm² die auch schon fielen, geschweige denn irgendwelche noch niedrigeren Milchmädchenrechnungen hier im Thread.Eventuell unterschätzen Einige, wieviel "glue" für einen SoC nötig ist, damit er funktioniert (auf den Die-Shots sind sicher ein paar Details mislabeled).
Mal zum Vergleich die PS4:
Der SoC maß 348mm². Als CPU-Teil dienten 2 Jaguar-Module zu je 28mm² oder so. Differenz wäre 348- 56 = 292mm² gewesen.
Eine von der Konfiguration sehr ähnliche GPU war Pitcairn (ebenfalls 20CUs an 256bit Interface), die aber nur magere 212mm² auf die Wage brachte. Da fehlten also irgendwo 80mm² oder so (und nur das wenigste davon kann man den zusätzlichen Features der PS4 zurechnen).
Will sagen, eine reine GPU mit 56CUs (und 320bit Interface) wäre wohl kleiner als die 360mm² - 2x 20,8mm² für die beiden CCX.

Und noch so nebenbei: 3MB Cache in 7nm nehmen sicher keine 12mm² ein. Man vergleiche mit den Zen2-CCDs, die jeweils 36MB L2+L3 auf 74mm² enthalten (und das ist ja nicht nur Cache). Da liegt man eher so bei ~1MB/mm². ;)

Digidi
2020-08-28, 01:31:04
@Gipsel

Wie würdest du denn die Hypotetischen 630mm² von Nvidia in angenommen 8nm zu den 430mm²von AMD in 7nm einschätzen. Wäre das Nomiert in etwa die gleiche Transisotrenzahl?

Rampage 2
2020-08-28, 01:38:48
XSX ohne Zen2-CCX: 320 mm².


Das ist nicht korrekt - der CPU-Teil (Zen2-Chiplets) misst 75-80mm²; folglich kann die GPU nur höchstens 280mm² einnehmen. (siehe den Forum-Link in unl34shed's Posting)

Allerdings finde ich es gerade krass wie groß der Xbox-Chip ist: 360mm² sind größer als V20, der als Salvage mit 16GB HBM für knapp 700€ vertickt wurde und wo einige meinten, dass AMD da gar keinen Gewinn mit machen würde.


Wie schon oben angemerkt, gelten die 360mm² für die gesamte APU; die GPU umfasst nur (höchstens!) 280mm² - das ist für 7nm nicht wenig, aber auch nicht besonders viel;)

Könnten 80 CU's + 512Bit GDDR6 in 427mm² hineinpassen? Es kann ja auch sein, dass eine RDNA2-CU deutlich größer ist als eine RDNA1-CU, da nun auch RT und anderer Kram hinzukommt sowie eine gesteigerte IPC - dann wieder würden 505mm² mehr Sinn machen...

R2

Gipsel
2020-08-28, 01:44:40
Das ist nicht korrekt - der CPU-Teil (Zen2-Chiplets) misst 75-80mm²; folglich kann die GPU nur höchstens 280mm² einnehmen. (siehe den Forum-Link in unl34shed's Posting)Das ist kleiner, weil in der XBSX der L3 beträchtlich kleiner ausfällt (4MB pro CCX statt 16MB, insgesamt 24MB L3 weniger). Das spart vestimmt 20mm² oder so, dazu kommt das IF-Interface. Dafür benötigt man aber "glue" im SoC, der sonst im IO-Die zu verorten ist.
Könnten 80 CU's + 512Bit GDDR6 in 427mm² hineinpassen? Es kann ja auch sein, dass eine RDNA2-CU deutlich größer ist als eine RDNA1-CU, da nun auch RT und anderer Kram hinzukommt sowie eine gesteigerte IPC - dann wieder würden 505mm² mehr Sinn machen.Im XBSX-SoC sind schon RDNA2-CUs verbaut.

Rampage 2
2020-08-28, 01:49:38
Das ist kleiner, weil in der XBSX der L3 beträchtlich kleiner ausfällt (4MB pro CCX statt 16MB, insgesamt 24MB L3 weniger). Das spart vestimmt 20mm² oder so, dazu kommt das IF-Interface.


Xbox Series X Hot Chips Analysis Part 1 – GPU, CPU & Overview (http://www.redgamingtech.com/xbox-series-x-hot-chips-analysis-part-1-gpu-cpu-overview/) (Achtung! Link ist nicht verschlüsselt/sicher!)

The Zen 2 processor die for 8 CPUs cores and its accompanying Level 3 cache is 74mm2, with a very large portion of that space being the L3 cache of the chips. Quite simply, Microsoft had to consider whether or not the die space trade-off for L3 cache was worth it and clearly opted to save the die space for ‘other things’ such as more CU.


R2

Gipsel
2020-08-28, 01:55:56
Xbox Series X Hot Chips Analysis Part 1 – GPU, CPU & Overview (http://www.redgamingtech.com/xbox-series-x-hot-chips-analysis-part-1-gpu-cpu-overview/)Das bestätigt, was ich schrieb.

unl34shed
2020-08-28, 01:58:04
Das macht auch mein Link in #9644. Pro CCX sind es etwas über 20mm²

Rampage 2
2020-08-28, 02:15:46
Das bestätigt, was ich schrieb.


Ich dachte, mit deinem letzten Posting wolltest du suggerieren, dass die XSX-CPU weniger als 74mm2 (Angabe von RGT) ausfällt, weil ja der L3 so klein ausfällt;)

R2

Gipsel
2020-08-28, 04:06:32
Ich dachte, mit deinem letzten Posting wolltest du suggerieren, dass die XSX-CPU weniger als 74mm2 (Angabe von RGT) ausfällt, weil ja der L3 so klein ausfällt;)Ich suggeriere das nicht nur, ich sage das ganz klar genau so wie Dein Link und vorher der von unl34shed.

Redneck
2020-08-28, 08:20:46
Mythos;12404922']Meint ihr nicht dass das ein wenig zu viel Geträume ist? ;) Ich denke dass AMD "vernünftig" bleiben wird und das bei einem 80CU Chip die Grenze erreicht sein wird. NV wird die Führung mit der 3090 behalten.

Tja, das ist die große Frage.. AMD hatte selber formuliert, wieder im Enthusiasten Segment angreifen zu wollen.
Einerseits heißt Vernunft ja auch Wirtschaftlichkeit.. kleinere Chips mit weniger Verbrauch und höherer Marge. Das hat AMD (teilweise) die letzten Jahre versucht.
Andererseits, wenn man klar sagt, das man wieder im High End Segment unterwegs sein will, darf man auch nicht so vorhersagbar planen (doppelter 5700er Chip mit entsprechender Leistung). Das ist von der Konkurrenz einfach zu leicht zu durchschauen und zu durchkreuzen.

Imho wird es nicht mehr als die spekulierte 80Cu Variante geben (was nicht schlecht sein muß.. enttäuscht nur leider wieder die AMD Anhänger, die sich seit Jahren wünschen, wieder einmal vor NV zu liegen).
Eigentlich hat die 80 CU Variante etwas sympatisches.. doppelte Leistung mit neuen features bei ähnlichem Energieverbrauch der 5700xt und das aufgrund der Chipgröße zu einem "vernünftigeren" Endkundenpreis als NV.
NV treibt den Transistorcount hoch durch die Tensor Cores. AMDs Ansatz mag nicht so leistungsfähig sein, dafür effizienter (ich muß da an Gsync vs Freesync denken... ähnliches Ziel, andere Mittel,unterschiedliche Kosten).

HOT
2020-08-28, 08:43:26
Eine 80CU-Variante mit 2,2GHz hat durchaus das Zeug dazu den dicken Ampere zu schlagen, zumal 512Bit 15,5GT/s GDDR6 nicht unerheblich mehr Bandbreite zur Verfügung stellt als 384Bit GDDR6X.

BoMbY
2020-08-28, 08:56:51
Vorausgesetzt irgendeine der Spekulationen bezüglich der CUs und/oder Die-Größe ist überhaupt korrekt. Bisher hat es glaube ich keinerlei sichtbares Indiz (z.B. einen geleakten Benchmark) dafür gegeben.

mironicus
2020-08-28, 09:09:17
Kann auch eine beständige Irreführung sein um den Konkurrenten in Sicherheit zu wiegen. Und AMD war in den letzten Jahren ziemlich leakdicht.

Denniss
2020-08-28, 10:56:25
Sozusagen waterproof :biggrin:

Zergra
2020-08-28, 11:05:11
Eine 80CU-Variante mit 2,2GHz hat durchaus das Zeug dazu den dicken Ampere zu schlagen, zumal 512Bit 15,5GT/s GDDR6 nicht unerheblich mehr Bandbreite zur Vergügung stellt als 384Bit GDDR6X.


Für 1200€ dann?

Daredevil
2020-08-28, 11:13:58
Und natürlich nur bei 250w, ist ja klar. :D

Was meint ihr eigentlich, wär aus der VII geworden, wenn sie nur 8GB HBM Speicher gehabt hätte?
"Zu viel" Speicher drückt einerseits den Preis nach oben, begrenzt das Power Limit und natürlich auch das Thermal Limit.
Vielleicht wäre die Karte gar keine so große Nische geworden, aber der Speicher hat ihr irgendwie doch das Genick gebrochen, mh?

Zergra
2020-08-28, 11:29:49
Und natürlich nur bei 250w, ist ja klar. :D

Was meint ihr eigentlich, wär aus der VII geworden, wenn sie nur 8GB HBM Speicher gehabt hätte?
"Zu viel" Speicher drückt einerseits den Preis nach oben, begrenzt das Power Limit und natürlich auch das Thermal Limit.
Vielleicht wäre die Karte gar keine so große Nische geworden, aber der Speicher hat ihr irgendwie doch das Genick gebrochen, mh?
Ein Vega Refresh ? :freak:, das Problem ist halt der HBM Speicher. Der macht die Karte halt unnötig teuer.

Redneck
2020-08-28, 11:35:49
Kann auch eine beständige Irreführung sein um den Konkurrenten in Sicherheit zu wiegen. Und AMD war in den letzten Jahren ziemlich leakdicht.
ja, das haben sie wirklich gut hinbekommen.. aber NV ist nunmal nicht Intel und was mit Ryzen geglückt ist, muß nicht zwangsweise mir Radeon klappen.
Wenn sie zu konservativ geplant haben, wird es keinen Überraschungseffekt geben, da NV einen grösseren Schritt nach Vorne machen als gedacht.

Cyberfries
2020-08-28, 11:37:37
Was meint ihr eigentlich, wär aus der VII geworden, wenn sie nur 8GB HBM Speicher gehabt hätte?

Nichts sinnvolles, der Speicher war das einzige Verkaufsargument.
Die Karte war schon viel zu hoch getaktet, noch mehr Strom reinzubuttern hilft da nichts mehr.
Mit nur zwei Stapeln wäre die Speicherbandbreite zu knapp.
Die Aufgabe die die VII hatte, hat sie erfüllt: Zu zeigen dass AMD noch da ist.
Mehr hätte sie auch mit anderer Konfiguration nicht erreichen können.

Daredevil
2020-08-28, 11:42:26
Die Bandbreite mit zwei Stapeln wäre doch höher gewesen als bei einer 5700xt?
Je günstiger die VII gewesen wäre, desto näher ist sie an die 5700xt ran gekommen.
In 4K schlägt die VII selten mal die 5700XT, das tut sie ja nicht nur immer, weil die Bandbreite fehlt, oder weil der Speicher voll ist.
Vega setzt halt auf viele CUs und "niedrigen" Takt, das ist ein anderes Konzept und das fruchtet bei LL APis gut.
Aber ja, es war definitiv ein "Halo" Produkt und die 5700xt ist effektiver zu verkaufen für AMD.

Bin mal gespannt, ob BigNavi nicht wieder in Richtung "Vega" Architektur geht. Also niedrigerer Takt und halt viele Recheneinheiten, auch wenn die Konsolen ja was völlig anderes sagen mit ihren 2Ghz Takt.

why_me
2020-08-28, 11:46:32
... das Problem ist halt der HBM Speicher. Der macht die Karte halt unnötig teuer.

Gibt es dazu eigentlich aktuelle Zahlen? Vor Jahren machte das mal die Runde, als HBM neu war, mittlerweile ist die Technik eingefahren.

Berniyh
2020-08-28, 11:49:22
Was meint ihr eigentlich, wär aus der VII geworden, wenn sie nur 8GB HBM Speicher gehabt hätte?
"Zu viel" Speicher drückt einerseits den Preis nach oben, begrenzt das Power Limit und natürlich auch das Thermal Limit.
Vielleicht wäre die Karte gar keine so große Nische geworden, aber der Speicher hat ihr irgendwie doch das Genick gebrochen, mh?
Dafür hätte man aber erst mal einen Vega 20 Chip für Consumer planen müssen. Hat man aber nicht und musste dann halt auf das zurück greifen was da war.

Daredevil
2020-08-28, 11:50:41
HBM wird vermutlich noch mehr genutzt werden als früher.
Xilinx verbaut das, Nvidia verbaut das massenweise, selbst Mining Unternehmen geben ein Schweinegeld aus, um HBM zu verbauen für ihre ASIC Miner.

HBM ist halt ein Speicher, der eingesetzt wird, um damit dann Geld zu verdienen ( Also mit den Produkten, nicht mit dem Verkauf ), deswegen kann dort selbst ein hoher Preis sinnvoll sein und das drückt natürlich die Verfügbarkeit für uns kleine Gamer. ^^

Wenn HBM "günstig" wäre, würde Nvidia nicht den Umweg über die Micron Extrawurst gehen, wie schon bei der 1080ti.
Allerdings hat Nvidia auch ne vorgegebene Marge, die AMD anscheinend manchmal egal ist ( Vega56 für 200€ ... ).

HBM ist für Big Navi vermutlich eher ein Wunschdenken, aber ein 512bit Interface mit "langsamen" GDDR6 könnte.... zu fett sein?
Ich meine, das Ding säuft doch wie verrückt.

Berniyh
2020-08-28, 11:51:39
Gibt es dazu eigentlich aktuelle Zahlen?
Ja: 5700, 3070, 3080, 3090 …
Such dir welche aus. ;)

why_me
2020-08-28, 12:17:51
Also keine Zahlen....

Zergra
2020-08-28, 12:23:27
Nein, gibt es nicht. Sowas fängt ja schon beim Design der Karte an, ist also schwer zu beziffern.
NV Aussage das Sie HBM nicht in Gaming GPUs sehen und das AMD mit der 5700er Serie auch wieder auf GDDR gewechselt ist, sagt genug aus.

Ob sich das irgendwann ändert ? Könnte sein, aber nicht in naher Zukunft.

Berniyh
2020-08-28, 12:29:31
Ob sich das irgendwann ändert ? Könnte sein, aber nicht in naher Zukunft.
Naja, für Big Navi ist HBM2e nach wie vor nicht ausgeschlossen.
Im Mainstream (wie es AMD ja bei Vega 1x geplant hatte) dürfte es aber auf absehbare Zeit unwahrscheinlich bleiben.

Daredevil
2020-08-28, 12:31:37
Nein, gibt es nicht. Sowas fängt ja schon beim Design der Karte an, ist also schwer zu beziffern.

Aber AMD fährt doch hier auch schon zweigleisig bei Navi, weil GDDR6 und halt auch HBM2.
Und RDNA1 ist ja eigentlich kein HBM Design, mh?
https://www.extremetech.com/computing/311730-amd-announces-radeon-pro-5600m-navi-hbm2-apple-16-inch-macbook-pro
With 40 CUs, the 5600M matches the full-fat Radeon 5700XT in core count, but it runs at a fraction of the clock speed — 1035MHz boost clock, compared with 1905MHz for the 5700XT. Memory bandwidth, however, is nearly the same: 394GB/s for the 5600M, compared with 448GB/s for the 5700 XT. The chip uses a two-stack HBM2 solution for memory bandwidth, with two 1024-bit links in total.
Das alles bei 50w. :D

why_me
2020-08-28, 12:38:03
Das Beispiel mit der 5700 ist aber schlecht.
- 256 Bit waren noch nie ein Problem.
- Mit GDDR6 ist die Bandbreite ausreichend, dafür wäre 1 HBM2e chip notwendig und der notwendige Interposer dürfte hier der Kostentreiber sein. Wieviel, keine Ahnung.
- Die TDP der 5700 bewegt sich auch mit GDDR6 in Handhabbaren Regionen

Und was Nvidia Geritten hat, den riesigen Aufwand mit GDDR6X zu gehen, verstehe wer will. Möglicherweise sparen sie dabei etwas (wie viel? 1$ 100$), eventuell ist es auch einfach nur ihr Ego, man will einfach keine HBM Gaming karte bringen, who knows?

Es wird halt seit Jahren überall nur geschrieben, HBM2 sei teuer. Es gibt Zahlen von 2017, als HBM2 neu war. Seit dem wird sich auf diese Zahlen Berufen. Aktuellere Zahlen als die von 2017 gibt es meines Wissens nicht. Auch die Hochrechnungen die ich gefunden habe zur Radeon 7 von 2019 beruhen auf den Preisen von 2017...

Cyberfries
2020-08-28, 12:39:56
Die Bandbreite mit zwei Stapeln wäre doch höher gewesen als bei einer 5700xt?

Vega 64 hat auch mehr als die 5700XT und leidet enorm unter der zu geringen Bandbreite.
Ist ne andere Architektur, RDNA braucht nicht so viel.

Daredevil
2020-08-28, 12:44:14
Ist ja umso besser, dann schnallt man zwei HBM Stacks drauf und senkt den Takt, da freut sich das Power Limit. :)
Wenn BigNavi aber nun nicht nur süße 40CUs bekommt, sondern 80CU+? Dann braucht es vielleicht ein wenig mehr Dampf vom Speicher.

Ex3cut3r
2020-08-28, 12:47:37
Selbst Raja verzichtet bei der neuen Intel GPU auf HBM. Ist einfach eine Totgeburt für Consumer Karten.

Zergra
2020-08-28, 12:52:54
Es macht aber keinen Sinn das Portfolio zu splitten. Navi wird nicht mit HBM kommen...

Überall GDDR6 ist halt einfach günstiger, weil man größere Stückzahlen erreicht. Dazu ein gleiches Interface und und und.

Daredevil
2020-08-28, 12:52:59
Es gibt schon große Vorteile bei HBM, unter anderem der, das man während der Belastung der GPU das System noch gescheit nutzen kann, wenn der VRAM belastet wird.
Dieses Verhalten habe ich bislang immer nur bei HBM GPUs gesehen, bei GDDR5/5X/6 Karten noch nie.

Wenn ich vollumfänglich schürfe mit ner 1080/1080ti/RX580/RX5700XT/2080ti, ist 4k Youtube kaum machbar und das System ist eingeschränkt benutzbar. Mit ner Vega 64 bzw. VII fluppt das locker vor sich hin. Aber vielleicht hat es auch nur was mit Vega als Architektur zutun und ich sehe hier den falschen Zusammenhang.

Es macht aber keinen Sinn das Portfolio zu splitten. Navi wird nicht mit HBM kommen...

Ist schon da, siehe oben.
Warum hat ein MacBook Pro denn HBM bekommen? Weil es geil ist! :D

dargo
2020-08-28, 12:53:17
Vega 64 hat auch mehr als die 5700XT und leidet enorm unter der zu geringen Bandbreite.

Völliger Unsinn.

Zergra
2020-08-28, 12:55:43
Ist schon da, siehe oben.
Warum hat ein MacBook Pro denn HBM bekommen? Weil es geil ist! :D

Weil bei einem 3000€ Produkt... 150€ mehr auch nicht auffallen ?

Berniyh
2020-08-28, 13:04:39
Das Beispiel mit der 5700 ist aber schlecht.
- 256 Bit waren noch nie ein Problem.
Das stimmt, trotzdem hat AMD versucht mit Vega 1x HBM auch im Mainstream zu etablieren und hat wieder Abstand davon genommen.
Die Kosten dürften der wesentliche Grund dafür gewesen sein.

Berniyh
2020-08-28, 13:07:56
Es macht aber keinen Sinn das Portfolio zu splitten. Navi wird nicht mit HBM kommen...

Überall GDDR6 ist halt einfach günstiger, weil man größere Stückzahlen erreicht. Dazu ein gleiches Interface und und und.
Das ist kein Argument, wenn man für die unterschiedlichen Chips dann unterschiedliche GDDR6 Module braucht auf Grund der Anforderungen an die Bandbreite.
Die Lösung wäre hier höchstens ein 512 Bit GDDR6 Interface, aber das hat immense Nachteile bei Verbrauch, Design und Kosten.
Da dürften die Nachteile den Vorteil geringfügig niedrigerer GDDR6 Preise deutlich aufwiegen, entsprechend macht auch Nvidia einen Bogen drumherum und nutzt lieber spezielle GDDR6X Module.

Und abgesehen von den Abnahmemengen und den HBM2 Kosten sehe ich nicht was es sonst für Vorteile bringen sollte alle RDNA2 Chips mit GDDR6 auszustatten.

Edit: oh und btw: die Stückzahlen von Big Navi werden gegenüber dem Rest des Portfolios (welches zu 99% mit GDDR6 kommen wird) relativ gering sein. Daher dürfte der Einfluss auf die Einkaufspreise der GDDR6 Module eher marginal sein.

mironicus
2020-08-28, 13:08:46
Wenn AMD ein Produkt für Enthusiasten bringen will und dafür an die 999 Dollar-Marke geht, dann erwarte ich auch nichts anderes als HBM. Da will ich das edelste vom edelsten! Den guten TSMC 7 nm Enhanced + HBM2 = Kauf. :D

][immy
2020-08-28, 13:14:13
Das stimmt, trotzdem hat AMD versucht mit Vega 1x HBM auch im Mainstream zu etablieren und hat wieder Abstand davon genommen.
Die Kosten dürften der wesentliche Grund dafür gewesen sein.
Das kommt wohl eher daher, das Vega nie als Mainstream (<300€) gedacht war sondern immer für den oberen Bereich, bis nvidia den Ultra-Highend Bereich geschaffen hat.

Es ist schon echt erstaunlich wie Stark Vega trotz der bereits enormen Bandbreite von Bandbreitenerhöhungen profitiert. Hier dürfte eigentlich nicht mehr so viel Performance bei rum kommen. Letztlich scheint aber HBM nicht so richtig das geliefert zu haben, was man sich davon versprochen hat.
Und dann kommt natürlich noch der Preis dazu.

Daredevil
2020-08-28, 13:16:36
Da will ich das edelste vom edelsten! Den guten TSMC 7 nm Enhanced + HBM2 = Kauf. :D
Das ist natürlich auch mein Wunsch. :)
Zudem.... AMD will doch Nvidia die Ohren lang ziehen, oder nicht?
Da wäre es doch mal eine Ansage ( Ähnlich zur VII ), auf ein wenig Marge zu verzichten und einfach mal Eier zu zeigen!
Ein Ryzen 3600 könnte auch deutlich teurer angeboten werden, trotzdem lassen sie den Preis unten und machen Intel damit nicht nur uninteressant, sondern quasi komplett raus aus der Sicht eines Käufers.

Eine 999€ BigNavi mit Custom 2080ti +30% Leistung und 16GB feinstem HBM2 und HDMI 2.1. <3
Das ist doch der Wunsch eines jeden 4K Spielers, der nicht Nvidias Preis geil findet. :)

why_me
2020-08-28, 13:19:56
Das stimmt, trotzdem hat AMD versucht mit Vega 1x HBM auch im Mainstream zu etablieren und hat wieder Abstand davon genommen.
Die Kosten dürften der wesentliche Grund dafür gewesen sein.

Zu Vega64 Zeiten gab es nur GDDR5. Um die Bandbreite der Vega64 zu erreichen hätte man 512 bit GDDR5 mit etwas unter 8 GT/s benötigt. 8GT/s sind die schnellsten GDDR5 chips. Normalerweise nimmt man bei breiten Interfaces langsamere Chips...

Nvidia hat das Bandbreiten Problem mit GDDR5X (eventuell exklusiv?) gelöst, AMD mit HBM2. Das könnte sich dieses Jahr Wiederholen.
Kosten halte ich bei Vega 56/64 für den falschen Grund. Immerhin wurden die Karten eine ganze Zeit lang für teilweise weit unter 300€ verkauft.

Palpatin
2020-08-28, 13:25:06
Zu Vega64 Zeiten gab es nur GDDR5.
Nö gab ein Jahr vor VEGA Release schon GDDR5X. 384 bit GDDR5x hätte für Vega gereicht.

Daredevil
2020-08-28, 13:26:52
GDDR5X und GDDR6 haben im Vergleich zu HBM aber schlechte Timings und die Cache Performance ist schlechter. Bei Speicher intensiven Workloads kann man das sehen.
Es ist nicht nur die Bandbreite, die entscheidet.

BlacKi
2020-08-28, 13:35:39
Selbst Raja verzichtet bei der neuen Intel GPU auf HBM. Ist einfach eine Totgeburt für Consumer Karten.
ich finde das aber auch falsch. letztendlich ist es eine preisfrage. ich verstehe nicht, das man die preisfrage nicht den kunden beantworten lässt ob man den hbm aufpreis zahlen will oder nicht. wenn man ga102 mit hbm bringen würde, könnte man den aufpreis definitiv dem kunden einfach weiterreichen. es gibt keinen grund warum eine 1400€ karte kein hbm bekommen sollte. 100-150$ im schlimmsten fall einzusparen ist IMHO der falsche weg.

just saying
ich kann leider nichts dran ändern.

][immy
2020-08-28, 13:46:53
GDDR5X und GDDR6 haben im Vergleich zu HBM aber schlechte Timings und die Cache Performance ist schlechter. Bei Speicher intensiven Workloads kann man das sehen.
Es ist nicht nur die Bandbreite, die entscheidet.
Sind die Timings wirklich schlechter? Denn zumindest der Bus arbeitet mit deutlich höheren Frequenzen. Ich weiß am ende ist alles wieder Dram, aber die niedrigeren Frequenzen bei der Übertragung der Daten machen die Latenzen nicht grad besser.

why_me
2020-08-28, 13:52:06
Nö gab ein Jahr vor VEGA Release schon GDDR5X. 384 bit GDDR5x hätte für Vega gereicht.

Stimmt. Nur hat man bis zum Release der 1080 davon nichts gehört und danach auch keine anderen Produkte mit GDDR5X von anderen Herstellern als Nvidia gesehen. Möglicherweise eine Exklusiv deal?

Berniyh
2020-08-28, 14:00:34
Zu Vega64 Zeiten gab es nur GDDR5. Um die Bandbreite der Vega64 zu erreichen hätte man 512 bit GDDR5 mit etwas unter 8 GT/s benötigt. 8GT/s sind die schnellsten GDDR5 chips. Normalerweise nimmt man bei breiten Interfaces langsamere Chips...

Nvidia hat das Bandbreiten Problem mit GDDR5X (eventuell exklusiv?) gelöst, AMD mit HBM2. Das könnte sich dieses Jahr Wiederholen.
Kosten halte ich bei Vega 56/64 für den falschen Grund. Immerhin wurden die Karten eine ganze Zeit lang für teilweise weit unter 300€ verkauft.
Ich rede von den (ursprünglich geplanten) Karten unterhalb von Vega 56.

Vega 56/64 waren ja als High-End geplant und nicht als Mainstream.

Hauwech
2020-08-28, 14:02:17
Aber AMD fährt doch hier auch schon zweigleisig bei Navi, weil GDDR6 und halt auch HBM2.
Und RDNA1 ist ja eigentlich kein HBM Design, mh?
https://www.extremetech.com/computing/311730-amd-announces-radeon-pro-5600m-navi-hbm2-apple-16-inch-macbook-pro

Das alles bei 50w. :D

Sie fahren zweigleisig weil Apple es bezahlt. Wahrscheinlich würde sogar nVidia extra für Apple eine Turingkarte mit HBM2(e) herstellen wenn der Preis stimmt. :freak:

Fragman
2020-08-28, 14:02:29
Wenn AMD ein Produkt für Enthusiasten bringen will und dafür an die 999 Dollar-Marke geht, dann erwarte ich auch nichts anderes als HBM. Da will ich das edelste vom edelsten! Den guten TSMC 7 nm Enhanced + HBM2 = Kauf. :D

Meine Hoffnung wäre eher eine 16GB Karte die 15% über der 3080 liegt, 100 Dollar weniger kostet und dabei noch einen guten Gewinn für AMD liegen läßt.
Für 1000 Dollar muß das Teil wirklich schon einiges bieten und eigentlich perfekt sein (inkl RT und einer DLSS Alternative). Ich bin nicht sicher, ob ich von AMD sowas erwarten kann. Dazu brauchen wir keine weitere highprice Karte sondern etwas, das ein wenig bodenständiger ist, damit der midrange Bereich auch midrange bleibt und nicht noch weiter nach oben rutscht.

unl34shed
2020-08-28, 14:11:11
Vega 56/64 waren ja als High-End geplant und nicht als Mainstream.

Die 5700 und alles darunter ist auch nie als high end geplant gewesen, mit big Navi wird es wieder high end bei AMD geben.

Daredevil
2020-08-28, 14:19:33
[immy;12405610']Sind die Timings wirklich schlechter? Denn zumindest der Bus arbeitet mit deutlich höheren Frequenzen. Ich weiß am ende ist alles wieder Dram, aber die niedrigeren Frequenzen bei der Übertragung der Daten machen die Latenzen nicht grad besser.
Die Timing Performance und Cache Performance ist ausschließlich bei den HBM Karten gut.

Beispiel GPGPU Cryptonight Algorithmus ( Hauptsächlich Nutzung des Speichers )
2380KH/s | RadeonVII@1400/800 | 105w | Daredevil
2122KH/s | RadeonVII@1200/800 | 85w | Daredevil
2100KH/s | Vega64@1400/1075 | 140w | Schlammsau
1248 KH/s/s | RTX2080ti@1935-2100/8200 | 360w Max | hq-hq
1086 KH/s | RTX2080ti@1470/8300 | 120w | Daredevil

Warum ist hier ne Vega64 vor einer 2080ti? HBM.

Besseres Beispiel GPGPU Daggerhashimoto Algorithmus ( Bandbreiten intensiv )
100 MH/s | RadeonVII@1820/1200 | 319w | Daredevil
73 MH/s | RadeonVII@1425/800 | 156w | Daredevil
63 MH/s | RadeonVII@1200/800 | 133w | Daredevil
63 MH/s | RTX2080ti@1470/8300 | 170w | Daredevil
62 MH/s | GTX2080ti@1935-2100/8200 | 360w Max | hq-hq
51 MH/s | GTX1080ti@1595/4704 | 162w | Daredevil *
44 MH/s | Vega64 Liquid @849/1095 | 140w | Schlammsau
37 MH/s | Vega56@Stock/925 | 200w | BeetleatWar1977
36 MH/s | GTX1080ti@2076/5765 | 325w | hq-hq
36 MH/s | TitanXP@2000+/5700 | 300w | Lehdro
37 MH/s | GTX1070@Stock | 150w | Nuon
34 MH/s | Vega64@1212/850 | 120w | Daredevil
32 MH/s | GTX1080ti@1595/4704 | 180w | Daredevil
31 MH/s | RX480 @1250/2200 | 125w | Schlammsau
27 MH/s | TitanX@1301/3801 | 250w | -=Popeye=-
22 MH/s | GTX1080@2113/5500 | 240w | Daredevil
15 MH/s | GTX1050ti@~1850/4500 | 70w | Lehdro
10 MH/s | GTX1050ti@1873/3713 | 70w | hq-hq


* Diese Werten wurden nur erreicht, weil manuell die Timings des Speichers gesenkt wurden. Sonst wäre die 1080ti auf gleicher Höhe wie eine GTX1070.

HBM dominiert in den beiden Cases z.B. stark und wie schon erwähnt, die Bedienung des Systems bei der Berechnung dessen ist deutlich flüssiger.
Oder ich deute das Falsch, bitte aber dann um Erläuterung. ^^

why_me
2020-08-28, 14:25:32
Ich rede von den (ursprünglich geplanten) Karten unterhalb von Vega 56.

Was war denn da geplant? Hast du da links?

Berniyh
2020-08-28, 14:54:15
Die 5700 und alles darunter ist auch nie als high end geplant gewesen, mit big Navi wird es wieder high end bei AMD geben.
Das war auch gar nicht der Punkt.
Das wesentliche Statement war: AMD hat bei Vega mit HBM im Mainstream geplant (die Karten aber dann gestrichen, wahrscheinlich nicht nur, aber auch wegen den HBM Kosten).
Bei der Nachfolgegeneration hat man im Mainstream (5500-5700) wieder auf GDDR6 gesetzt.

Gipsel
2020-08-28, 14:55:14
Die Timing Performance und Cache Performance ist ausschließlich bei den HBM Karten gut.

Beispiel GPGPU Cryptonight Algorithmus ( Hauptsächlich Nutzung des Speichers )
2380KH/s | RadeonVII@1400/800 | 105w | Daredevil
2122KH/s | RadeonVII@1200/800 | 85w | Daredevil
2100KH/s | Vega64@1400/1075 | 140w | Schlammsau
1248 KH/s/s | RTX2080ti@1935-2100/8200 | 360w Max | hq-hq
1086 KH/s | RTX2080ti@1470/8300 | 120w | Daredevil

Warum ist hier ne Vega64 vor einer 2080ti? HBM.

Besseres Beispiel GPGPU Daggerhashimoto Algorithmus ( Bandbreiten intensiv )
100 MH/s | RadeonVII@1820/1200 | 319w | Daredevil
73 MH/s | RadeonVII@1425/800 | 156w | Daredevil
63 MH/s | RadeonVII@1200/800 | 133w | Daredevil
63 MH/s | RTX2080ti@1470/8300 | 170w | Daredevil
62 MH/s | GTX2080ti@1935-2100/8200 | 360w Max | hq-hq
51 MH/s | GTX1080ti@1595/4704 | 162w | Daredevil *
44 MH/s | Vega64 Liquid @849/1095 | 140w | Schlammsau
37 MH/s | Vega56@Stock/925 | 200w | BeetleatWar1977
36 MH/s | GTX1080ti@2076/5765 | 325w | hq-hq
36 MH/s | TitanXP@2000+/5700 | 300w | Lehdro
37 MH/s | GTX1070@Stock | 150w | Nuon
34 MH/s | Vega64@1212/850 | 120w | Daredevil
32 MH/s | GTX1080ti@1595/4704 | 180w | Daredevil
31 MH/s | RX480 @1250/2200 | 125w | Schlammsau
27 MH/s | TitanX@1301/3801 | 250w | -=Popeye=-
22 MH/s | GTX1080@2113/5500 | 240w | Daredevil
15 MH/s | GTX1050ti@~1850/4500 | 70w | Lehdro
10 MH/s | GTX1050ti@1873/3713 | 70w | hq-hq


* Diese Werten wurden nur erreicht, weil manuell die Timings des Speichers gesenkt wurden. Sonst wäre die 1080ti auf gleicher Höhe wie eine GTX1070.

HBM dominiert in den beiden Cases z.B. stark und wie schon erwähnt, die Bedienung des Systems bei der Berechnung dessen ist deutlich flüssiger.
Oder ich deute das Falsch, bitte aber dann um Erläuterung. ^^Der Grund dafür ist aber nicht unbedingt die Latenz. Radeons haben zum einen traditionell ein paar Instruktionen, die recht hilfreich für einige Kryptoalgorithmen sind (bitalign/alignbit [VLIW/GCN] fällt mir da spontan ein) und beim Speicher ist das Problem von GDDR5X vermutlich die verdoppelte Zugriffsgranularität (oder anders gesagt: die Datenbandbreite wurde zwar verdoppelt, die Adressierungsbandbreite aber nicht). Jeder Speicherzugriff ist also doppelt so groß und verbrät gewissermaßen die doppelte Bandbreite, wenn man nur eine Handvoll Bytes lesen oder schreiben will. Bei GDDR6 hat man das durch die Unterteilung der 32Bit-Chips in zwei 16bit breite Channels wohl wieder etwas entschärft (Zugriffsgranularität damit wieder auf dem Niveau von GDDR5 [oder HBM ohne Pseudo-Channels]).

Berniyh
2020-08-28, 14:56:37
Was war denn da geplant? Hast du da links?
Ganz genau wissen wir es nicht, aber es waren diverse weitere Vega 1x Chips geplant, iirc Vega 11 und Vega 12.
Vega 11 wurde dann aber komplett gestrichen, Vega 12 existiert meines Wissens in Kleinserie.
Es sollten da auch mal Produkte im Consumermarkt geben, soweit ich mich recht entsinne, aber dazu kam es halt nicht.

Zergra
2020-08-28, 14:58:27
Ja da gab es damals was in den Roadmaps, wurde dann aber gestrichen. Dürfte wohl hauptsächlich an dem schlechten Erfolg von Vega gelegen haben.

why_me
2020-08-28, 15:14:17
Vega12 dürfte ein custom Chip für Apple gewesen sein.
Welchen Codenamen hat die GPU für die Intel Prozessoren? Könnte das Vega11 sein? Auch ein Custom Chip.

Sehe darin aber nicht wirklich, warum HBM gescheitert sein soll. Es wird der Speicher genommen, der die Bandbreite bei vertretbarem Aufwand/Kosten liefert. Je größer die Karte, desto schwieriger wird es mit GDDR und HBM wird Wahrscheinlicher.

HOT
2020-08-28, 15:17:26
Vega 11 hätte wohl Polaris 10 ersetzen sollen. Sinn ergeben würde das eigentlich nur, wenn man den auch mobil eingetzt hätte, das aber utopisch war zu dem Zeitpunkt. Stattdessen designte man mMn das ganze Produkte mit Package und allem neu und nannte das V12, welcher nicht exklusiv für Apple war meines Wissens, aber nur Apple setzte das Produkt auch ein. Der Chip war 12nm, auf Stromsparen ausgelegt und hatte ein extra kleines low-profile Package IIRC. Die wenigen Notebook-Hersteller, die AMD-GPUs eingesetzt haben, haben sich auf P11 und P12 (und deren Iterationen) beschränkt, die Notwendigkeit für einen größeren Chip war im AMD-Markt nicht zu sehen. Das dürfte sich erst mit RDNA ändern, da ja der Ampere-Verbrauch mobil sowas wie ein Elfmeter werden dürfte für AMD.

Berniyh
2020-08-28, 15:31:52
Ne, Vega 12 existiert (auch?) in Form von PCIe Karten.

HOT
2020-08-28, 15:40:08
Das widerspricht dem doch nicht.

Daredevil
2020-08-28, 15:47:11
Der Grund dafür ist aber nicht unbedingt die Latenz. Radeons haben zum einen traditionell ein paar Instruktionen, die recht hilfreich für einige Kryptoalgorithmen sind (bitalign/alignbit [VLIW/GCN] fällt mir da spontan ein) und beim Speicher ist das Problem von GDDR5X vermutlich die verdoppelte Zugriffsgranularität (oder anders gesagt: die Datenbandbreite wurde zwar verdoppelt, die Adressierungsbandbreite aber nicht). Jeder Speicherzugriff ist also doppelt so groß und verbrät gewissermaßen die doppelte Bandbreite, wenn man nur eine Handvoll Bytes lesen oder schreiben will. Bei GDDR6 hat man das durch die Unterteilung der 32Bit-Chips in zwei 16bit breite Channels wohl wieder etwas entschärft (Zugriffsgranularität damit wieder auf dem Niveau von GDDR5 [oder HBM ohne Pseudo-Channels]).
Bin ich wieder ein wenig schlauer. Danke für deine Zeit! :)

BoMbY
2020-08-28, 16:03:01
Die Kosten dürften der wesentliche Grund dafür gewesen sein.

Nein, die Kosten waren nicht der Grund. Zeitweise waren die Kosten von GDDR6 und HBM2 mehr oder weniger identisch laut dem einem Interview. Die Entscheidung wird außerdem X Jahre im Vorfeld getroffen, und nicht Last-Minute.

Ich glaube nicht dass NVidia mit ihrem Custom-GDDR6X besonders viel sparen wird gegenüber HBM2e, ja außer über die Masse am Ende irgendwann vielleicht mal.

Berniyh
2020-08-28, 16:39:06
Nein, die Kosten waren nicht der Grund. Zeitweise waren die Kosten von GDDR6 und HBM2 mehr oder weniger identisch laut dem einem Interview. Die Entscheidung wird außerdem X Jahre im Vorfeld getroffen, und nicht Last-Minute.

Ich glaube nicht dass NVidia mit ihrem Custom-GDDR6X besonders viel sparen wird gegenüber HBM2e, ja außer über die Masse am Ende irgendwann vielleicht mal.
Wenn dem so wäre, dann würden wir viel mehr HBM2 in Consumer Produkten sehen, denn das spart ja Fläche und Leistung.

TheGood
2020-08-28, 17:44:56
Ich kann mir beim besten Willen nicht vorstellen, dass das GEschiss, was NVidia mit den Ampere KArten bzgl. des Speichers macht günstiger sein soll als direkt HBM2 zu nutzen....

gedi
2020-08-28, 18:15:30
Ich kann mir beim besten Willen nicht vorstellen, dass das GEschiss, was NVidia mit den Ampere KArten bzgl. des Speichers macht günstiger sein soll als direkt HBM2 zu nutzen....

Sehe ich auch so! Ein PCB, welches man in Gold aufwiegen kann, einen Kühler für den Preis eines sehr guten Wakü-Blocks, dazu ne extrem fette GPU und 24GB GDDR6x. Wenn die 3090 wirklich bei lediglich 1500€ rumkommt, dann hat NV wohl noch nie so wenig an einer Karte verdient.

BN kommt mit HBM2, da bin ich mir sicher. Der GDDR6 auf N10 ist unter Luft nur schwer zu kühlen. Zudem zeigen hier alle Tools lediglich 0.95V an, obwohl doch 1.35V anliegen sollten ...

Daredevil
2020-08-28, 18:18:18
Ja gut, aber 16GB HBM sind ja vermutlich einfacher zu realisieren als 24GB HBM, mh?
Das wären ja dann 6 Stacks, das muss ja auch irgendwo hin.

gedi
2020-08-28, 18:24:53
Reichen 16GB nicht, zumal die relativ easy zu kühlen sind?

unl34shed
2020-08-28, 18:26:18
HBM2E geht bis zu 12Hi, damit bekommst du die 24GB theoretisch in einen Stack rein, sehr schwer :wink:

Daredevil
2020-08-28, 18:27:22
Für mich sicher. :D
Hier wird ja gerade darüber geredet, wieso Nvidia sich den Stress macht mit GDDR6X und 12 Layer Platinen.
Vielleicht ist das bei der Speichermenge durchaus Sinnvoll und HBM2 ist für so eine Menge "zu fett".

Cyberfries
2020-08-28, 18:34:01
2017 war es noch möglich, 16GB aus 2 HBM-Stapeln an einer Karte zu verbauen.
Drei Jahre später soll HBM mit vielen Layern nicht mehr möglich sein?

nVidia hat einen technologischen Vorsprung, AMD versucht das ganze durch externen Zukauf auszugleichen.
Sowohl bei Fertigung (7nm vs 8nm) als auch Speichertyp (GDDR6X vs HBM2) hat man auf die zweitbeste Wahl gesetzt.
Das reicht für nVidia, kein Bedarf an Klimmzügen.

gedi
2020-08-28, 18:34:28
Um die GPU rum ist vermutlich sehr viel Platz, wobei wir dann gleich bei 32GB sind

Daredevil
2020-08-28, 18:35:33
2017 war es noch möglich, 16GB aus 2 HBM-Stapeln an einer Karte zu verbauen.
Drei Jahre später soll HBM mit vielen Layern nicht mehr möglich sein?

Wo denn?
Die Vega hat zwei Stacks ( 8GB ), die Titan V hat drei Stacks ( 12GB ), die Radeon VII hat vier Stacks ( 16GB ).

So super viel Platz ist da nicht für zwei Stacks mehr, muss es denn nicht auch den gleichen Abstand haben?
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fwww.pcgamesn.com%2Fwp-content%2Fuploads%2F2019%2F02%2FAMD-Vega-20-die-900x506.jpg&f=1&nofb=1

Edit:
Der Kollege hier hat 6 Stacks ( 40GB ) bei 815 mm²
https://mixed.de/wp-content/uploads/2020/05/Nvidia-Ampere-A100-GPU-f%C3%BCr-Rechenzentren.jpg

unl34shed
2020-08-28, 18:39:28
Radeon™ Pro Vega 64 hat 2 Stacks und 16GB
https://www.amd.com/de/graphics/workstations-radeon-pro-vega

dargo
2020-08-28, 18:42:08
Wo denn?
Die Vega hat zwei Stacks ( 8GB ), die Titan V hat drei Stacks ( 12GB ), die Radeon VII hat vier Stacks ( 16GB ).

So super viel Platz ist da nicht für zwei Stacks mehr, muss es denn nicht auch den gleichen Abstand haben?

Von welchen Abstand spricht du? Oben und unten? Das ist egal...
https://www.computerbase.de/2020-06/radeon-pro-5600m-hbm2/

Und zwei Stacks würden vollkommen für einen 16GB RDNA 2 reichen.

Langlay
2020-08-28, 18:42:13
https://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/

Die Vega Frontier Edition. Die ersten Vegakarten die es zu kaufen gab, hatten auch 16GB HBM

Cyberfries
2020-08-28, 18:42:43
Wo denn?
Die Vega hat zwei Stacks ( 8GB )

Vega Frontier und Vega Pro


Der Kollege hier hat 6 Stacks ( 40GB )

Das sind 5 Stacks a 8GB, der sechste ist ein Dummy

Daredevil
2020-08-28, 18:43:15
Aber auch da, wie soll Nvidia denn 24GB in HBM verbauen mit genug Bandbreite?

4x4GB @ 1 Tbyte/s > 16GB
2x8GB @ 0.4Tbyte/s > 16GB
3x8GB @ 0.7-8?Tbyte/s > 24GB
4x8GB @ 1 Tbyte/s > 32GB

24GB ist zu Krumm für HBM, oder nicht?
Aber gut, der A100 hat ja auch nur 6,67GB pro Stack. Müssten das dann nicht 8GB sein pro Stack?

Vega Frontier und Vega Pro



Das sind 5 Stacks a 8GB, der sechste ist ein Dummy
Ahhh okay, Danke :)

Wenn AMD den 16GB Weg gehen will, sollte das doch möglich sein hier. :D

Von welchen Abstand spricht du? Oben und unten? Das ist egal...
https://www.computerbase.de/2020-06/radeon-pro-5600m-hbm2/

Und zwei Stacks würden vollkommen für einen 16GB RDNA 2 reichen.
Ja genau. Der Abstand Allgemein. Danke

gedi
2020-08-28, 18:45:32
Über Ampere weiß man im Endeffekt alles, bis auf die IPC im Vergleich zu Turing. Über RDNA2 weiß man nix, außer dass das Ding vor der XBO released werden soll und dass es datt Ding gibt - siehe die Konsolen. Das wars. Alles andere ist reine Spekulation

unl34shed
2020-08-28, 18:45:34
Nochmal... HBM2E verdoppelt die GB pro Speicher Lage (16Gbit = 2GB) und ist bis 12High Spezifiziert, theoretisch sind mit 2 Stacks somit sogar 48GB möglich.
https://d36ae2cxtn9mcr.cloudfront.net/wp-content/uploads/2019/10/25055123/SK_hynix_2_HBM2E_v3_01.png

Cyberfries
2020-08-28, 18:46:16
32 GB und 920 GByte/s sind auch mit nur zwei Stapeln HBM2E erreichbar.
https://www.heise.de/newsticker/meldung/HBM2E-Stapelspeicher-Hohe-Transferraten-und-Kapazitaet-fuer-GPUs-und-FPGAs-4495368.html

gedi
2020-08-28, 18:49:41
32 GB und 920 GByte/s sind auch mit nur zwei Stapeln HBM2E erreichbar.
https://www.heise.de/newsticker/meldung/HBM2E-Stapelspeicher-Hohe-Transferraten-und-Kapazitaet-fuer-GPUs-und-FPGAs-4495368.html

Exakt

Complicated
2020-08-28, 18:53:38
Instinct™ MI50 (32GB) - 4 Stacks mit 32 GB
https://www.amd.com/de/products/professional-graphics/instinct-mi50-32gb
2 Stacks weniger zu verbauen sollte keine Raketenwissenschaft sein, falls nötig.

Berniyh
2020-08-28, 18:56:27
Eben, 24 GB könnte man mit 1, 2, 3, 4 oder 6 Stacks erzielen.
Realistisch wären aber wohl nur 2 und 4, 3 evtl. mit Außenseiterchancen.
Aber 6 Stacks braucht man definitiv nicht für 24 GB.

Ich bin aber eh nicht davon überzeugt, dass Big Navi mit so viel Speicher kommen wird.
16 GB und gut ist. Mehr braucht man auch nicht wirklich.
Klar, Nvidia hat mehr, aber wird man zwischen 16 GB und 20 oder 24 GB wirklich einen signifikanten Unterschied merken?

dargo
2020-08-28, 18:58:40
Instinct™ MI50 (32GB) - 4 Stacks mit 32 GB
https://www.amd.com/de/products/professional-graphics/instinct-mi50-32gb
2 Stacks weniger zu verbauen sollte keine Raketenwissenschaft sein, falls nötig.
Doch... denn dann hättest du nur 512GB/s Bandbreite. ;) Bei 2 Stacks muss es schon HBM2e sein um genügend Bandbreite zu realisieren.

gedi
2020-08-28, 19:03:03
Wie kommt ihr immer auf die 24GB? Die sind weitaus schwieriger zu realisieren als 32GB ohne in der Bandbreite Einbußen in kauf nehmen zu müssen.

Daredevil
2020-08-28, 19:04:30
Klar, Nvidia hat mehr, aber wird man zwischen 16 GB und 20 oder 24 GB wirklich einen signifikanten Unterschied merken?
Sicherlich kann man mit 16GB und 8K an Grenzen stoßen, die sind ja heute vereinzelt schon möglich Spielbar, nur eben hart VRAM limitiert.
Aber ob man für so eine Nische in 2020 extra mehr Speicher verbauen muss, nä.
Und HDMI 2.1 ist halt prädestiniert für 8K@60hz :)

Nur glaube ich persönlich nicht, das AMD so sehr auf die kacke haut wie Nvidia, das müssen sie aber auch gar nicht.
Man sollte sich auf wichtige Märkte konzentrieren und nicht auf mehreren Baustellen auf einmal arbeiten. ( Massive Performance Gains, brauchbares RTX, riesen GPU, unter 400w? ^^ )

Ich bin mehr gespannt auf BigNavi, als auf Nvidias Ampere.
Dort könnte die Karte sensationell gut ausfallen, aber auch sensationell übernommen. :D

@gedi
Es ging darum, warum Nvidia nicht auf HBM setzen wird, bei AMD die Chance aber ( vermutlich ) höher sind.

Berniyh
2020-08-28, 19:12:36
Sicherlich kann man mit 16GB und 8K an Grenzen stoßen, die sind ja heute vereinzelt schon möglich Spielbar, nur eben hart VRAM limitiert.
Aber ob man für so eine Nische in 2020 extra mehr Speicher verbauen muss, nä.
Und HDMI 2.1 ist halt prädestiniert für 8K@60hz :)
Wir schaffen es evtl. mit der nächsten Generation (Ampere, RDNA2) endlich mal 4k bei vernünftigen Frameraten spielbar zu machen und ihr wollt ernsthaft 8k @ 60 Hz (und bitte auch 60 fps …). Das ist immerhin noch mal die 4-fache Pixeldichte von 4k.
Vergiss es, das ist ein Thema für die übernächste oder überübernächste Generation von Grafikkarten. Da kann noch viel Strom den Halbleiter hinunter fließen bis das relevant wird.

(Ja, ich weiß, dass es einiges an Techniken DLSS gibt und geben wird, aber dennoch …)

gedi
2020-08-28, 19:23:36
Wir schaffen es evtl. mit der nächsten Generation (Ampere, RDNA2) endlich mal 4k bei vernünftigen Frameraten spielbar zu machen und ihr wollt ernsthaft 8k @ 60 Hz (und bitte auch 60 fps …). Das ist immerhin noch mal die 4-fache Pixeldichte von 4k.
Vergiss es, das ist ein Thema für die übernächste oder überübernächste Generation von Grafikkarten. Da kann noch viel Strom den Halbleiter hinunter fließen bis das relevant wird.

(Ja, ich weiß, dass es einiges an Techniken DLSS gibt und geben wird, aber dennoch …)

Voll zustimm. Mit low-details ohne RT, Kantenglättung whatever, könnte so etwas vielleicht schon realisiert werden. Aber auch hier reichen 16GB spielend

Linmoum
2020-08-28, 20:02:17
I smell something red, like Hawaii or Tahiti?
I think it's a good thing. We can get it earlier.
https://mobile.twitter.com/kopite7kimi/status/1299237294742724608

:D

Rampage 2
2020-08-28, 20:44:05
HBM ist für Big Navi vermutlich eher ein Wunschdenken, aber ein 512bit Interface mit "langsamen" GDDR6 könnte.... zu fett sein?

Ich meine, das Ding säuft doch wie verrückt.

Ein 512Bit SI mit "langsamen" 14Gbps GDDR6 säuft mit Sicherheit nicht mehr, sondern mit Sicherheit weniger als ein 384Bit SI mit superhoch (21Gbps) getaktetem GDDR6X;)

Wir sprechen hier von glatt 50% höherem Takt bei nur 25% kleinerem Interface, also 1.5 x 1.5 / 1.333 = 1.6875. Rein theoretisch sollte also Nvidia's GDDR6X @ 21Gbps 68.75% mehr Strom verbrauchen als ein hypothetischer 512Bit SI @ 14 Gbps:)

Von dieser Perspektive betrachtet, ist es überhaupt keine Überraschung, warum die 3090 satte 350W ziehen soll;D (vermutlich hatte Nvidia gar nicht vor, ihn so hoch zu takten, hat aber wegen N21 kalte Füße bekommen;D)

Und was soll daran zu "fett" sein? Als ob 384Bit "schlank" wären:rolleyes: (der Unterschied ist nur 1.333x)

R2

unl34shed
2020-08-28, 21:27:57
Wir sprechen hier von glatt 50% höherem Takt bei nur 25% kleinerem Interface, also 1.5 x 1.5 / 1.333 = 1.6875. Rein theoretisch sollte also Nvidia's GDDR6X @ 21Gbps 68.75% mehr Strom verbrauchen als ein hypothetischer 512Bit SI @ 14 Gbps:)

Durch TAM4 hast du nur den halben Takt am IO bei GDDR6X und das macht einen Großteil des Verbrauchs aus. Es könnte also eher auf den gleichen Verbrauch rauslaufen, mit dem Vorteil, das man deutlich weniger Fläche auf dem Chip und PCB braucht, auch wenn es vermutlich ein deutlich komplizierteres Design ist.

Blediator16
2020-08-28, 21:45:13
nVidia hat einen technologischen Vorsprung, AMD versucht das ganze durch externen Zukauf auszugleichen.
Sowohl bei Fertigung (7nm vs 8nm) als auch Speichertyp (GDDR6X vs HBM2) hat man auf die zweitbeste Wahl gesetzt.
Das reicht für nVidia, kein Bedarf an Klimmzügen.

Ich meine der Tenor war, dass Nvidia nicht Intel ist und immer voll durchballert. So kann man sich täuschen? :freak:

OgrEGT
2020-08-28, 21:52:59
https://mobile.twitter.com/kopite7kimi/status/1299237294742724608

:D

"(...) Grillforce RMA 3090 (...)"

MMD ;D ;D

TheGood
2020-08-28, 21:59:37
2017 war es noch möglich, 16GB aus 2 HBM-Stapeln an einer Karte zu verbauen.
Drei Jahre später soll HBM mit vielen Layern nicht mehr möglich sein?

nVidia hat einen technologischen Vorsprung, AMD versucht das ganze durch externen Zukauf auszugleichen.
Sowohl bei Fertigung (7nm vs 8nm) als auch Speichertyp (GDDR6X vs HBM2) hat man auf die zweitbeste Wahl gesetzt.
Das reicht für nVidia, kein Bedarf an Klimmzügen.
Das soll jetzt kein Bashing werden, aber die neuen Ampere Karten zeigen doch gerade nur Klimmzüge vom feinsten vermutlich wirds dann verkauft als Hochtechnologie (was es zu einem gewissen Grad ja sogar ist)...
Daher ja auch die Frage! Allerdings kann man damit besseres Marketing machen und die völlig überzogenene Preise rechtfertigen. Dumm sind sie ja schliesslich nicht.

TheGood
2020-08-28, 22:04:14
Sicherlich kann man mit 16GB und 8K an Grenzen stoßen, die sind ja heute vereinzelt schon möglich Spielbar, nur eben hart VRAM limitiert.
Aber ob man für so eine Nische in 2020 extra mehr Speicher verbauen muss, nä.
Und HDMI 2.1 ist halt prädestiniert für 8K@60hz :)

Nur glaube ich persönlich nicht, das AMD so sehr auf die kacke haut wie Nvidia, das müssen sie aber auch gar nicht.
Man sollte sich auf wichtige Märkte konzentrieren und nicht auf mehreren Baustellen auf einmal arbeiten. ( Massive Performance Gains, brauchbares RTX, riesen GPU, unter 400w? ^^ )

Ich bin mehr gespannt auf BigNavi, als auf Nvidias Ampere.
Dort könnte die Karte sensationell gut ausfallen, aber auch sensationell übernommen. :D

@gedi
Es ging darum, warum Nvidia nicht auf HBM setzen wird, bei AMD die Chance aber ( vermutlich ) höher sind.

Dem stimme ich zu, aber auch nur deshalb, weil ich hoffe AMD liefert endlich mal. Mit Nave1x haben sie es ja schon bewiesen, mit dem VEGA Aufguss in der APU auch. Das lässt die Hoffnung höher schlagen, dass es auch mit NAvi 2 klappt.
Ich persönlich brauche da keinen Nvidia Killer, sondern es reicht wenn sie bis auf das 3080 niveau herankommen und das zu einem vernünftigen Preis, wobei es in dem Bereich jetzt schon keine vernünftigen Preise gibt und diese auch nicht mehr zurückkommen.

Hauwech
2020-08-28, 22:31:02
Durch TAM4 hast du nur den halben Takt am IO bei GDDR6X und das macht einen Großteil des Verbrauchs aus. Es könnte also eher auf den gleichen Verbrauch rauslaufen, mit dem Vorteil, das man deutlich weniger Fläche auf dem Chip und PCB braucht, auch wenn es vermutlich ein deutlich komplizierteres Design ist.

Die kürzeren Leiterbahnen sind dabei ein Muss oder weil es im Zweifelsfall Leistung am SI spart?

unl34shed
2020-08-28, 22:43:14
Die Paar cm sollten Vernachlässigbar sein, was den Verbrauch angeht. Die kurzen Leiterbahnen sind eher notwendig um die Signalqualität zu verbessern und den Einfluss von benachbarten Leitungen zu verringern. Bei PAM4 werden ja 4 Werte übertragen -> weniger Störabstand zwischen den einzelnen Pegeln.

Hauwech
2020-08-28, 22:58:52
Die Paar cm sollten Vernachlässigbar sein, was den Verbrauch angeht. Die kurzen Leiterbahnen sind eher notwendig um die Signalqualität zu verbessern und den Einfluss von benachbarten Leitungen zu verringern. Bei PAM4 werden ja 4 Werte übertragen -> weniger Störabstand zwischen den einzelnen Pegeln.

Hmm, ok. Insgesamt dürfte es wahrscheinlich schon was ausmachen aber wieviel, da können wir wohl nur raten. :smile: Vielleicht könnte SkySnake dazu mal ein bisschen erhellendes beitragen, der hat sich doch mit Treibern und so was beschäftigt?

Daredevil
2020-08-29, 00:20:16
Wir schaffen es evtl. mit der nächsten Generation (Ampere, RDNA2) endlich mal 4k bei vernünftigen Frameraten spielbar zu machen und ihr wollt ernsthaft 8k @ 60 Hz (und bitte auch 60 fps …). Das ist immerhin noch mal die 4-fache Pixeldichte von 4k.
Vergiss es, das ist ein Thema für die übernächste oder überübernächste Generation von Grafikkarten. Da kann noch viel Strom den Halbleiter hinunter fließen bis das relevant wird.

(Ja, ich weiß, dass es einiges an Techniken DLSS gibt und geben wird, aber dennoch …)
Das hier ist 8K
8mpzlrwrYo0

Ich weiß nicht, welche Erfahrung du gemacht hast, aber wenn das Ziel 60FPS ist, bekommt man heute schon das ein oder andere Spiel auf 6k und 8k lauffähig. Das ist keine Fiktion, das ist Realität.
Klar wird es nicht unbedingt Metro, Horizon oder RDR2 sein, aber ein Forza, WoW, Ori, Diablo, Overwatch oder Frostpunk kann es sein. völlig ohne DLSS.

Was allerdings oft zum Problem wird > RAM.
Frostpunk z.B. geht auf 6K bei 80FPS, aber der RAM ist halt total voll.
Jedes Prozent mehr Leistung und jeder Gigabyte mehr machen diese "Fiktion" mehr zur Realität. :)

PS: Hier ist noch mehr 8K
3wwb9GL2w2g

Cyberfries
2020-08-29, 01:27:31
Ich meine der Tenor war, dass Nvidia nicht Intel ist und immer voll durchballert. So kann man sich täuschen? :freak:

Tun sie das denn nicht? Bei dem, was nVidias selbst entwickelt geben sie voll Gas.
Nur bei dem was sie von externen Quellen beziehen nicht.
Intel dagegen hat sowohl bei Architektur als auch Fertigung geschlafen.

Das soll jetzt kein Bashing werden, aber die neuen Ampere Karten zeigen doch gerade nur Klimmzüge vom feinsten

Darüber kann man sich streiten. Genauso wie man sich über die RTX-Einführung hingebungsvoll an die Gurgel geht.
Aber eigentlich ist es für ein abschließendes Urteil noch zu früh.
Wir unterhalten uns immer noch nur über Gerüchte.

dargo
2020-08-30, 10:46:49
Neue Einsteigerkarte auf RDNA 1 Basis... RX 5300 3GB mit 100W TDP.
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Navi-RX-5300-1357146/

96Bit SI.
https://www.amd.com/de/products/graphics/amd-radeon-rx-5300