Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
BoMbY
2020-09-09, 18:44:29
Naja, AMD schreibt:
A new era of leadership performance across computing and graphics is coming. The journey begins on October 8.
https://pbs.twimg.com/media/EhfE2vWXkAIpf3s?format=jpg&name=medium
https://twitter.com/AMD/status/1303727083747766274
Also "leadership" heißt in der Regel jedenfalls nicht dass man den zweiten Platz erwartet.
Complicated
2020-09-09, 18:44:37
Die kam von AMD direkt
Aha und vom wem bekommt der Mediamarkt die Verkaufsinfos?
Ich habe den Newsletter auch abonniert:
https://www.amd.com/de/partner
https://explore.amd.com/webmail/659533/546080184/12fe76dcdd9a1e680c3ff824a28450d485ae473156ebceedc79c1d95ba528847
Vielleicht müssen Sie ja noch ihr VBios in Anbetracht unabhängiger Tests der 3000er Serie bauen. Aber einen Monat für diese Kikilala-Arbeit?
Linmoum
2020-09-09, 18:46:05
Keine Infos, keine Vorschau, noch sonst was vor dem Release der Nv 30xx Serie.
Schade, dann wird defintiv eine 3080 geholt.
Eine kurzes Preview mit ein paar 3D Mark Werten usw. wäre das was ich erhofft habe.
Weiss nicht was die sich dabei denken. Die Performance von Big Navi wird ja auch im Oktober gleich sein. In dem Fall aber nichts da, was man gerne jetzt schon den Kunden zeigen möchte.Wer wegen 6 Wochen rumheult, ist selbst Schuld.
Flinx
2020-09-09, 18:48:21
Vielleicht müssen sie auf TSMC warten. N22 und N21 Vorstellung wäre schön.
Oder sie rechnen damit das Nvidia den Gerüchten nach nicht genug Stückzahlen liefern kann.
Leadership nunja, warum soll ich das glauben wenn ich Nvidias Marketing auch nicht glaube. Harte Fakten bitte. Bis zum 28. dann.
Es gab doch schon längerer Zeit das Gerücht, dass dieses Jahr lediglich N21 zu kaufen sein wird.
r3ptil3
2020-09-09, 18:51:08
Wer wegen 6 Wochen rumheult, ist selbst Schuld.
Dann nochmals 6-10 Wochen für die richtigen Customs.
Achwas gleich weitere 4-6 Wochen für die 20Gb 3080.
Nein, Moment, Spätsommmer Ampere Refresh, lieber nochmals warten.
Achwas, wenn dann richtig: Weihnachten 2021 Navi 31.
Ex3cut3r
2020-09-09, 18:53:23
Dann nochmals 6-10 Wochen für die richtigen Customs.
Achwas gleich weitere 4-6 Wochen für die 20Gb 3080.
Nein, Moment, Spätsommmer Ampere Refresh, lieber nochmals warten.
Achwas, wenn dann richtig: Weihnachten 2021 Navi 31.
Naja, das ist aber etwas übertrieben, es ist eine neue Gen am Start. Nvidia Launcht, ok. Dann sollte man wenigstens noch auf den Kontrahenten warten, der schon im Oktober?! nachschiebt, also bitte. Wer da nicht wartet, denn kann ich auch nicht helfen. Von mir aus kauft Nvidia, sag ich gar nix. Aber das wird wenn AMD nur ansatzweise konkurrenzfähig ist, womit man Navi 2 schon rechnen kann, für billigere Preise bei Nvidia sorgen. Natürlich nur, wenn nicht grade ein Mining Hype startet. In der Verganheit war es ja doch anders, Pascal kam 6-12 Monate früher als Vega (Customs erst im Winter 2017), da könnte ich das eher nachvollziehen. Für Turing gabs ab einer 2070 aufwärts gar keinen Konkurrenten erstmal, erst mit der 5700 XT am ende des Turing Zyklus kam dann mal was. Radeon 7 war schon nach 3 Monaten EOL gefühlt.
mironicus
2020-09-09, 18:53:47
Achwas, wenn dann richtig: Weihnachten 2021 Navi 31.
Ja, genau. Die nächste große Innovation werden GPUs im Chiplet-Design werden, und da wird AMD sicherlich der Erste am Markt sein. Vielleicht sollte man einfach noch warten, dann könnte sich die GPU-Geschwindigkeit wohl wirklich mehr als verdoppeln. Zusammen mit Zen 4 der perfekte Zeitraum um aufzurüsten.
Complicated
2020-09-09, 18:55:48
Oder sie rechnen damit das Nvidia den Gerüchten nach nicht genug Stückzahlen liefern kann.
Und genau das wäre für AMD der Optimalfall: Presse berichtet über Lieferschwierigkeiten während zeitgleich all die neuen RDNA2-Features der Konsolen überall mit den neuesten Spielen gezeigt werden.
Ich habe das Gefühl hier gibt AMD selber den Startschuß für einen Hype-Train.
Adam D.
2020-09-09, 18:57:28
Wer wegen 6 Wochen rumheult, ist selbst Schuld.
Du hast natürlich recht, aber das ändert nichts an der Tatsache, dass AMD wieder zu spät dran ist. Das wird so langsam echt zu einem problematischen Muster. Und wir wissen ja, was das Datum bedeutet: vor Ende November gibt es nix zu kaufen.
Ich hoffe morgen wenigstens auf so etwas:
Ein, zwei, drei, oder vielleicht 4 Renderbildchen und evtl. Specs wie N21 xCUs, xVram, absolute Performance zu N10 bei gleichem Takt und TDP. Und halt das Marketing-Geblubber
r3ptil3
2020-09-09, 18:59:27
Ich habe das Gefühl hier gibt AMD selber den Startschuß für einen Hype-Train.
Du hast nicht nur das Gefühl, es ist so.
Für Kunden ist das warten übelst nervig, aber AMD hat aktuell die Überhand:
- Neue Konsolen (ganz grosses Kino weltweit, speziell auch für AMD)
- ZEN3 absolutes Top-Produkt und der Konkurrenz Jahre voraus
- und dann ist da noch Big Navi, selbst wenn nicht annähernd 3080 Niveau erreicht wird, AMD gewinnt jetzt trotzdem
Redneck
2020-09-09, 18:59:32
Naja, AMD schreibt:
https://twitter.com/AMD/status/1303727083747766274.
Also "leadership" heißt in der Regel jedenfalls nicht dass man den zweiten Platz erwartet.
Finde ich gut.. Ist mal ne klare Ansage, nachdem Nvidia ihre Karten auf den Tisch gelegt haben.
Complicated
2020-09-09, 19:01:42
Du hast natürlich recht, aber das ändert nichts an der Tatsache, dass AMD wieder zu spät dran ist. Das wird so langsam echt zu einem problematischen Muster. Und wir wissen ja, was das Datum bedeutet: vor Ende November gibt es nix zu kaufen.
AMD ist seit über 8 Quartalen nicht mehr spät dran mit irgend etwas - Sie richten sich einfach nicht nach Nvidia mit Ihren Produktlaunches.Das nennt sich Unternehmensstrategie und ihr redet von einzelner Produktstrategie. Die muss manchmal eben an das große ganze angepasst werden. Sowohl bei Launchtermien von großen Partnern, wie auch bei Wafer-Knappheit bei bestehenden Lieferverträgen.
Edit: Das weiss auch Nvidia und sucht sich entsprechend den für Sie besten Launchtermin aus. Da sie nur GPUs vermarkten müssen bei Consumern haben sie da einen Vorteil und Flexibilität.
prinz_valium_2
2020-09-09, 19:05:32
Also wenn es erst Ende Oktober vorgestellt wird, dann ist der Launch natürlich noch mal ein paar Wochen später. Also Mitte bis Ende November.
Naja erst mal eine Konsole kaufen und dann im Januar gucken, was es für Angebote gibt.
Linmoum
2020-09-09, 19:06:01
Du hast natürlich recht, aber das ändert nichts an der Tatsache, dass AMD wieder zu spät dran ist. Das wird so langsam echt zu einem problematischen Muster. Und wir wissen ja, was das Datum bedeutet: vor Ende November gibt es nix zu kaufen.Roadmaps werden aber nicht darauf ausgelegt, wann der Konkurrent launcht.
Adam D.
2020-09-09, 19:08:18
Roadmaps werden aber nicht darauf ausgelegt, wann der Konkurrent launcht.
Das ist mir klar, aber das macht es trotzdem nicht besser, dass Nvidia (die ja auch nicht gerade ein besonders bemerkenswertes Tempo vorlegen) wahrscheinlich bis runter zur 3060 alles veröffentlicht hat, bis wir überhaupt was von AMD hören.
Linmoum
2020-09-09, 19:11:52
Also wenn es erst Ende Oktober vorgestellt wird, dann ist der Launch natürlich noch mal ein paar Wochen später. Also Mitte bis Ende November.*seufz*
dGPUs werden die ersten erhältlichen Produkte auf Basis von RDNA2 sein. Der Launch ist also spätestens am 09.11. und nicht später.
Davon ab verstehe ich die Aufregung wegen Verfügbarkeit nicht. Abseits von Customs war die bei Navi letztes Jahr ziemlich gut, kein Vergleich zu GloFo davor.
Roadmaps werden aber nicht darauf ausgelegt, wann der Konkurrent launcht.
Sicher richtig, aber im GPU-Segment wurde man die letzten Jahre abgesehen von N10, ordentlich in den Arsch gefickt, sorry für die Ausdrucksweise. Und dann so etwas ...
Man möchte gerne glauben, nur fällt es schwer. Bis AMD etwas konkretes sagt, sind bereits die Ampere-Lager leergefegt
Complicated
2020-09-09, 19:17:24
Sicher richtig, aber im GPU-Segment wurde man die letzten Jahre abgesehen von N10, ordentlich in den Arsch gefickt, sorry für die Ausdrucksweise. Und haben damit Ihren Aktienkurs um 3900% gesteigert in den letzten 5 Jahren - was für Vollpfosten eins11!!. Du solltest dich dort unbedingt als CEO bewerben um das mal richtig zu machen.
CPUs? Lass mich doch bitte in Ruhe mit Sachen von denen du nichts verstehst!
Complicated
2020-09-09, 19:22:16
Tu ich gerne ;) Willkommen auf meiner Ignoreliste. Kann sich ja jemand anderes mit deiner Trollerei beschäftigen.
Leonidas
2020-09-09, 19:28:46
Also "leadership" heißt in der Regel jedenfalls nicht dass man den zweiten Platz erwartet.
Darauf würde ich nichts geben. Im englischsprachigen Marketing geht es faktisch nicht ohne dieses Wort.
basix
2020-09-09, 19:30:27
Man wird zumindest nicht weit abgeschlagen sein. Ob es für einen Gleichstand oder gar mehr reicht, werden wir sehen. Das Potential wäre grundsätzlich vorhanden (entsprechende TBP vorausgesetzt).
Linmoum
2020-09-09, 19:31:46
Auf jeden Fall beeindruckend, dass es kaum Lecks gibt. Bei Nvidia fing es ja schon im Juni damit an stark zu laufen.
Darauf würde ich nichts geben. Im englischsprachigen Marketing geht es faktisch nicht ohne dieses Wort.
Exakt: Es dreht sich in der Industrie hierbei immer um den Vergleich zu eigenen Produkten.
r3ptil3
2020-09-09, 19:38:09
Auf jeden Fall beeindruckend, dass es kaum Lecks gibt. Bei Nvidia fing es ja schon im Juni damit an stark zu laufen.
Nein, das zeigt nur auf wie sehr unter Druck der Bereich steht im Verhältnis zum jetzt bekannten Releasedatum.
Die Boardpartner haben weiterhin noch nichts, Custom-Designs vielleicht erst 2021.
Mit genügend Budget und Ressourcen, hätte man das was Nvidia macht.
unl34shed
2020-09-09, 19:40:06
Mit genügend Budget und Ressourcen, hätte man das was Nvidia macht.
Und das wäre?
dargo
2020-09-09, 19:40:40
350+W. :ulol:
r3ptil3
2020-09-09, 19:41:20
Und das wäre?
Keine übereilten Produktevorstellungen ohne Ivolvierung der Boardpartner, sondern zum offiziellen Release auch Custom-Designs und fähige Treiber.
Linmoum
2020-09-09, 19:42:19
Nein, das zeigt nur auf wie sehr unter Druck der Bereich steht im Verhältnis zum jetzt bekannten Releasedatum.
Die Boardpartner haben weiterhin noch nichts, Custom-Designs vielleicht erst 2021.
Mit genügend Budget und Ressourcen, hätte man das was Nvidia macht.Das hat rein gar nichts mit Druck zu tun. Außerdem hat AMD bereits im Juni klar gesagt, dass GPUs vor Konsolen kommen. Das ist jetzt keine kurzfristige Entscheidung.
r3ptil3
2020-09-09, 19:43:02
Das hat rein gar nichts mit Druck zu tun. Außerdem hat AMD bereits im Juni klar gesagt, dass GPUs vor Konsolen kommen. Das ist jetzt keine kurzfristige Entscheidung.
Wenn man die Grafikkarte wenige Tage vor den Konsolen vorstellt, dann deutet dies stark darauf hin, dass man noch jede einzelne Sekunde braucht.
Diesbezüglich muss ich AMD in Schutz nehmen. Ich denke, dass N22 direkt gegen 3070/80 gestellt wird. Sprich die Klasse wo Geld verdient wird. Da warte ich doch lieber nen Moment und lass die Dinger los, um wirklich zu wissen was der Konkurrent kann. Nur das Ding mit nem Moment gleitet bei AMD gleich in nem Monat aus-Meh
r3ptil3
2020-09-09, 19:47:48
Diesbezüglich muss ich AMD in Schutz nehmen. Ich denke, dass N22 direkt gegen 3070/80 gestellt wird. Sprich die Klasse wo Geld verdient wird. Da warte ich doch lieber nen Moment und lass die Dinger los, um wirklich zu wissen was der Konkurrent kann. Nur das Ding mit nem Moment gleitet bei AMD gleich in nem Monat aus-Meh
Falsch, diese Klasse ist ein Prestigeprodukt.
Da gings in der Vergangenheit immer darum, dass schnellste Produkt zu haben, um die Presse, die Investoren etc. zu überzeugen.
Wenn AMD kann, dann bringen sie auch eine Grafikkarte raus, welche auch im Ernstfall nur 1-2% schneller wäre als eine 3090, hauptsache schneller. (Beispiel 7970 Ghz Edition.)
Geld macht man mit ganz anderen Bereichen, welche hier nicht dazuzählen.
bloodflash
2020-09-09, 19:49:02
Lustig wird's, wenn die ganzen Launchtests zu nV draussen sind mit hochperformanten 15.000 Punkten in irgendwelchen Benchmarks und gleichzeitig prominent ein Leak mit 17.000 Punkten für AMD durchgesteckt wird. 2 Tage später ein YT-Video mit RT-on und AMD/nV nebeneinander und bei AMD sind die FPS höher...
Nochmal 'ne Woche und hochwichtige "Leaks" zeigen 96CUs und GDDRx mit 18GT und xxxGBit oder sonstigen techn. Details...
Dann geht den Vorbestellern die Düse ;)
Wenn man nur abgehangene Hardware für den richtigen Einsatzzweck kauft
(Xmas2018: 1080p, R2600, 450er Board, RX570/8GB, 16GB, Samsung 970 für 700,-€ )
schaut man dem Treiben hier mit sehr viel Belustigung zu ;)
350+W. :ulol:
Sicher nicht für die Karte welche dich interessiert. Hier sehe ich vielleicht 200-225W und 250-275W.
Complicated
2020-09-09, 19:52:47
Das hat rein gar nichts mit Druck zu tun. Außerdem hat AMD bereits im Juni klar gesagt, dass GPUs vor Konsolen kommen. Das ist jetzt keine kurzfristige Entscheidung.
Vor allem wenn man sich mal überlegt welcher Käufer einer RTX 3090 mit PCIe 4.0 kauft und diese dann auf einem Intel-System betreibt. Wer 500,- bis 1.400,- € für die GPU ausgibt der kauft sich da direkt ein neues Ryzen System dazu. Die wenigsten Turing-Käufer schlagen jetzt zu. Bis auf ein paar wenige Enthusiasten sind alles Käufer einer komplett neuen Plattform, die noch nicht bei der RTX 2xxx-Serie aufgesprungen waren. Da sind noch einige Pascal-Systeme da draussen.
Falsch, diese Klasse ist ein Prestigeprodukt.
Da gings in der Vergangenheit immer darum, dass schnellste Produkt zu haben, um die Presse, die Investoren etc. zu überzeugen.
Wenn AMD kann, dann bringen sie auch eine Grafikkarte raus, welche auch im Ernstfall nur 1-2% schneller wäre als eine 3090, hauptsache schneller. (Beispiel 7970 Ghz Edition.)
Geld macht man mit ganz anderen Bereichen, welche hier nicht dazuzählen.
Da zum richtigen Launch keine AMD-Karte bereitsteht, erübrigt sich eine Antwort
Sehr gut, endlich ein Lebenszeichen. Urlaub fällt dieses Jahr also definitiv ins Wasser. :ugly: Ich wäre ernsthaft positiv überrascht, wenn AMD die RTX 3080 verkloppt, allerdings gibt's da durchaus Chancen (gerade beim Speicher).
MfG
Raff
Linmoum
2020-09-09, 20:09:48
Ich sehe da nicht nur beim Speicher größere Chancen. Wenn allerdings bereits Renoir schon ein Anzeichen für Taktbarkeit ist, dann könnte es für eine 3080 schon übel werden, wenn man RDNA2 freie Fahrt gewährt. Ich mein, die popelige Vega schafft schon 2.4GHz, nachdem anfangs quasi bei 1.7GHz Schluss war. Selbst >=2GHz waren bei einer VII alles andere als garantiert. Es hieß ja, dass sie von Renoir auch gelernt haben. Wer weiß.
Renoir hat aber nur fünf Transistoren im Vergleich zu Ampere, das lässt sich leichter hochtakten. Dennoch sieht's für AMD ziemlich gut aus, vielleicht kommt hier sogar mal alles zusammen (Die Schwäche des einen ...). Ich drücke alle Daumen und versuche, meinen Bestell-Trigger bei der 3090 im Zaum zu halten. Leicht wird's nicht. :D
MfG
Raff
horn 12
2020-09-09, 20:16:30
Geringe Verfügbarkeit Ende Oktober, und die 300Watt +- sind nun fix.
Man taktet(e) Navi hoch um mithalten und auch teilweise um zu übertreffen... Aber auch mal leicht dahinter...
Sehr gut, endlich ein Lebenszeichen. Urlaub fällt dieses Jahr also definitiv ins Wasser. :ugly: Ich wäre ernsthaft positiv überrascht, wenn AMD die RTX 3080 verkloppt, allerdings gibt's da durchaus Chancen (gerade beim Speicher).
MfG
Raff
Ach Raff, du kannst doch rechnen.
Und ja, ich habe mal ne 3090FE vorbestellt. Leider sind die Wakü-Optionen alle ausverkauft. Von daher wäre so nen Kühler ein nettes Weihnachtsgeschenk.
Dieses hin und her bei AMD im GPU-Segment geht mir auf den Keks
Ich baue die 3090 inclusive Wakü ein und verkaufe den Kram. Wenn jemand Interesse hat: 2 getrennte Wakü-Kreisläufe. Der Eine kümmert sich um ein Asus Mobo und einen 3950. RAM 64 GB Gskill 3600 cl 16-16-16 GTZN, 9GB an Festplatten Speicher, 2x512 GB 970NVE, 2xHDD im RAID und 2x860er Samsungs im RAID
Um die CPU + Mobo kümmert sich ein 480x45Radi um die GPU ein 420x45Radi. Ähm ja ich kauf mir ne XBOX
Gipsel
2020-09-09, 21:13:14
Renoir hat aber nur fünf Transistoren im Vergleich zu Ampere, das lässt sich leichter hochtakten.Die XBSX ist schon etwas größer und läuft mit über 1,8 GHz Basetakt, die PS5 zeigt Boostpotential bis über 2,2 GHz. Beides wohl in durchaus noch akzeptablen Verbrauchsregionen.
unl34shed
2020-09-09, 21:16:27
Ist PS5 nicht eher Gameclock?
Gipsel
2020-09-09, 21:21:10
Ist PS5 nicht eher Gameclock?Deswegen über 2,2GHz Boost. Nach AMD-Sprech wäre die Gameclock der PS5 vermutlich ~2,1 GHz (in Spielen wird die höchst selten unterschritten, normalerweise liegt man drüber), wenn man das mit Sonys Beschreibung abzugleichen versucht. Außerdem ist die PS5 recht klein mit den nur 36CU. Da könnte man vermuten, daß es bei 2,2+GHz langsam enger wird, wenn man in 300W bei 80CUs bleiben will. Der XBSX-Takt paßt da aber wohl rein (angeblich ja ~140W bei 1,825GHz mit 52 aktiven CUs).
Ach Raff, du kannst doch rechnen.
Und ja, ich habe mal ne 3090FE vorbestellt. Leider sind die Wakü-Optionen alle ausverkauft. Von daher wäre so nen Kühler ein nettes Weihnachtsgeschenk.
Dieses hin und her bei AMD im GPU-Segment geht mir auf den Keks
Ich baue die 3090 inclusive Wakü ein und verkaufe den Kram. Wenn jemand Interesse hat: 2 getrennte Wakü-Kreisläufe. Der Eine kümmert sich um ein Asus Mobo und einen 3950. RAM 64 GB Gskill 3600 cl 16-16-16 GTZN, 9GB an Festplatten Speicher, 2x512 GB 970NVE, 2xHDD im RAID und 2x860er Samsungs im RAID
Um die CPU + Mobo kümmert sich ein 480x45Radi um die GPU ein 420x45Radi. Ähm ja ich kauf mir ne XBOX und das NT ist ein Asus Thor @ Seasonic mit 1.2k Thats it
Berniyh
2020-09-09, 21:22:52
Alter Schwede … die letzten 5 Seiten hier sind ja echt zum fremdschämen. :facepalm:
Darauf würde ich nichts geben. Im englischsprachigen Marketing geht es faktisch nicht ohne dieses Wort.
Davon würde ich auch ausgehen. Schreibt sich doch jede Firma auf die Werbebilder Leader bei irgendwas zu sein.
Irgendein Benchmark bei dem Big Navi dann besser performt als die 3090 wird sich auf jeden Fall finden (und umgekehrt auch).
Ist ja nicht so, als wenn Werbung und Marketing auf Fakten basieren würden. Da haben manche einfach eine arg naive Vorstellung.
AMD ist seit über 8 Quartalen nicht mehr spät dran mit irgend etwas - Sie richten sich einfach nicht nach Nvidia mit Ihren Produktlaunches.
Äh ja … das Drama um Navi 14 schon vergessen? Den haben sie um 2 Monate verschoben um unbedingt nach Nvidia releasen zu können.
Das Versteckspiel vor nicht mal einem Jahr war schon mehr als albern.
masked__rider
2020-09-09, 21:24:55
Ähm ja ich kauf mir ne XBOX
;D;D;D;D
Linmoum
2020-09-09, 21:27:06
Dieses hin und her bei AMD im GPU-Segment geht mir auf den KeksWelches hin und her denn?
Dampf
2020-09-09, 21:54:27
Auch für RDNA2 interessant: Microsoft hat in einer Demo für Xbox Series S Sampler Feedback Streaming demonstriert. Das ist eine Funktion von DX12 Ultimates Sampler Feedback, was deutlich VRAM im Vergleich zu Non-DX12 Ultimate Karten einspart.
https://i.imgur.com/psqqibS.png
https://youtu.be/fYtJWIxt3-M?t=169
dargo
2020-09-09, 22:04:26
Dieses hin und her bei AMD im GPU-Segment geht mir auf den Keks
Könntest du bitte endlich ins grüne Lager wechseln und dort auch bleiben damit hier endlich mal Ruhe einkehrt? Wichtige Informationen gehen hier komplett unter durch deinen OT-Kram. Kauf dir einfach die 3090 und sei glücklich. :)
Alter Schwede … die letzten 5 Seiten hier sind ja echt zum fremdschämen. :facepalm:
*unterschreib*
Brillus
2020-09-09, 22:11:57
Sehr gut, endlich ein Lebenszeichen. Urlaub fällt dieses Jahr also definitiv ins Wasser. :ugly: Ich wäre ernsthaft positiv überrascht, wenn AMD die RTX 3080 verkloppt, allerdings gibt's da durchaus Chancen (gerade beim Speicher).
MfG
Raff
Ist das eine Anspielung auf die Kühlung?
unl34shed
2020-09-09, 22:27:01
Weis einer ob die hier genannten Unterschiede zwischen RDNA1 und RDNA2 wirklich stimmen?
- Command Processor wird breiter (Multicore(?))
- 4 -> 7 Inst. Decode pro CU
Klingt danach, als könnten die CUs dadurch besser ausgelastet werden, kann aber auch nur clickbait sein.
https://youtu.be/vt2ZfmD5fBc?t=457
Dant3
2020-09-09, 22:31:07
Ich denke da braucht man nicht großartig hoffen und bangen. Wenn sie wirklich was ueberraschend gutes in der Schublade haetten, wuerden sie Nvidia nicht bis Ende Oktober (und wahrscheinlich laenger) das Feld ueberlassen.
Bestimmt macht es noch Sinn bis zur Praesentation mit einem Kauf zu warten, aber etwas besseres als die RTX3080 wird da sicher nicht zum Vorschein kommen. Bestenfalls wird Nvidia forciert Karten mit mehr Speicher zu releasen.
Linmoum
2020-09-09, 22:36:04
Ich denke da braucht man nicht großartig hoffen und bangen. Wenn sie wirklich was ueberraschend gutes in der Schublade haetten, wuerden sie Nvidia nicht bis Ende Oktober (und wahrscheinlich laenger) das Feld ueberlassen.Das Launchfenster wird nicht erst Wochen vorher festgelegt. Alle Hersteller haben einen groben Zeitraum, in dem sie einen Launch anvisieren. Nur weil der Konkurrent ein paar Wochen vorher launcht wirft man deswegen nicht seinen eigenen Zeitplan bzw. die eigene Roadmap dahingehend über Board.
Plot twist: Es werden GPUs offiziell vorgestellt, die nicht nur auf einem Chip basieren. :whistle:
davidzo
2020-09-09, 22:46:31
Darauf würde ich nichts geben. Im englischsprachigen Marketing geht es faktisch nicht ohne dieses Wort.
Total richtig, Leadership kann nämlich neben Leistungsvorsprung auch bedeuten dass man mit irgendwas eben als erstes dran ist. Also N7e z.B. während nv nur 8nm hat oder 7nm bei CPU und GPU gleichzeitig. Oder die Energieeffizienz, oder Leadership bei der Preis-Leistung. Letztendlich würde es sogar reichen nur der Leader bei der CPU-Leistung zu sein, Damit wäre CPU+Graphics auch abgedeckt, weil Nvidia diese Kombi nicht gibt und Intel weit abgeschlagen ist.
Renoir hat aber nur fünf Transistoren im Vergleich zu Ampere, das lässt sich leichter hochtakten. Dennoch sieht's für AMD ziemlich gut aus, vielleicht kommt hier sogar mal alles zusammen (Die Schwäche des einen ...). Ich drücke alle Daumen und versuche, meinen Bestell-Trigger bei der 3090 im Zaum zu halten. Leicht wird's nicht. :D
MfG
Raff
Naja, gibt es irgendein Gesetz dass größere Dies schlechter Takten? Klar, ein größeres DIE hat mehr defekte, bzw. deaktivierte Teile. Und Kühlung wird bei großen Chips eher ein Thema, aber da sieht man ja an Ampere wieviel Luft AMD und die Partner da noch nach oben haben. Aber solange die einzelnen Einheiten gleich sind, werden die auch ähnlich performen wie auf einem kleineren chip, vorrausgesetzt die yields sind gut bzw. redundanz vorhanden.
Die PS5 zeigt ja klar wohin es geht, 2,1Ghz gameclock und mehr. Wenn die 3090 nur 1,6Ghz schafft und BN top dog analog zur PS5 ganze 2,2Ghz, dann sind das schon 37,5% Unterschied alleine über den Takt. Das ist fast vergleichbar mit dem kolportierten Speedup der bei Nvidia Ampere aus dem verdoppeln der FP32 ALUs resultieren soll (ca. 40%), dafür braucht man nicht mal große IPC Verbesserungen in den CUs.
Dural
2020-09-09, 22:47:17
Da wird ja immer noch geträumt...
Letzte woche hat ein amd mitarbeiter gesagt das man ampere mit zen cpus verwenden soll...
Lächerlich finde ich das vor allem test und news seiten die spannung und hoffnung künstlich versuchen hoch zu halten, gibt halt klicks und die tests später will man ja auch "verkaufen" wenn gleich jeder ampere kauft brauchts auch keine tests...
dargo
2020-09-09, 22:55:12
Die PS5 zeigt ja klar wohin es geht, 2,1Ghz gameclock und mehr. Wenn die 3090 nur 1,6Ghz schafft und BN top dog analog zur PS5 ganze 2,2Ghz, dann sind das schon 37,5% Unterschied alleine über den Takt.
Bisher war der Boosttakt bei Geforces immer in Games höher als offiziell angegeben. Kann natürlich sein, dass sich dies bei Ampere ändert. Da würde ich aber erst Tests abwarten wie hoch der reale Takt am Ende tatsächlich ist.
Edit:
Mich verwirren dennoch die hohen Taktraten der neuen Konsolen. Ich meine man muss sich nur mal anschauen wie hoch bsw. eine PS4 bei der GPU taktete. Das waren magere 800Mhz. Am PC hatten wir mit Polaris 10 welchen Takt? 1266Mhz? Dann kam die PS4 Pro mit afaik 911Mhz. Am Desktop hatten wir P20 mit 1340Mhz? Das sind ja gigantische Unterschiede. Wenn man das jetzt auf RDNA 2 überträgt müsste RDNA 2 ja mit um die 3GHz am Desktop laufen. :freak: Vielleicht nicht unbedingt der fette 80 CU RDNA 2. Aber die kleineren Modelle. Alles etwas komisch.
[MK2]Mythos
2020-09-09, 22:57:21
Da wird ja immer noch geträumt...
Letzte woche hat ein amd mitarbeiter gesagt das man ampere mit zen cpus verwenden soll...
Lächerlich finde ich das vor allem test und news seiten die spannung und hoffnung künstlich versuchen hoch zu halten, gibt halt klicks und die tests später will man ja auch "verkaufen" wenn gleich jeder ampere kauft brauchts auch keine tests...
Deine Posts werden immer peinlicher. Im ernst, es ist ja klar dass du nur trollst, aber ist dir das im Nachhinein nicht selber etwas unangenehm?
Dant3
2020-09-09, 22:59:45
Das Launchfenster wird nicht erst Wochen vorher festgelegt. Alle Hersteller haben einen groben Zeitraum, in dem sie einen Launch anvisieren. Nur weil der Konkurrent ein paar Wochen vorher launcht wirft man deswegen nicht seinen eigenen Zeitplan bzw. die eigene Roadmap dahingehend über Board.
Plot twist: Es werden GPUs offiziell vorgestellt, die nicht nur auf einem Chip basieren. :whistle:
Ein verfrühter Launch waere ja auch gar nicht noetig. Den Leuten zu präsentieren, was sie denn bekommen koennten, wenn sie noch etwas laenger warten reicht doch schon aus. Dabei muss man noch nicht mal mit 30 Benchmarks und dem Preis ums Eck kommen. Ein kleiner Einblick wuerde schon genuegen.
Bei AMD`s aktueller Reputation im GPU Sektor erwartet die große Masse nach der RTX 3000er Präsentation gar nix. Deswegen werden viele Potentielle Kaeufer auch zum Launch der Nvidia Karten zuschlagen. An AMD´s Stelle wuerde ich das vermeiden wollen, erst recht wenn ich doch weiß, dass ich den Leuten dieses mal wirklich etwas gutes bieten kann.
Linmoum
2020-09-09, 23:03:28
Lächerlich finde ich das vor allem test und news seiten die spannung und hoffnung künstlich versuchen hoch zu halten, gibt halt klicks und die tests später will man ja auch "verkaufen" wenn gleich jeder ampere kauft brauchts auch keine tests...Man braucht nichts künstlich hochhalten. Es werden sich Dinge in Luft auflösen, dazu gehören deine Prognosen. Aber ein paar Wochen darfst du deinen scheinbaren Spaß ja noch haben. Danach wird es ein Vergnügen für alle anderen.
horn 12
2020-09-09, 23:04:23
Nun bis NV flächendeckend liefern kann ist sicherlich Anfang bis Mitte Oktober!
Dann sind es auch nur mehr 2 Wochen bis zum Release aber auch AMD wird nur tröpfchenweise liefern.
dargo
2020-09-09, 23:13:09
Nun bis NV flächendeckend liefern kann ist sicherlich Anfang bis Mitte Oktober!
Bei der 3070 garantiert denn die startet erst in Oktober. ;)
horn 12
2020-09-09, 23:18:50
Das wird sicher knapp Ende Oktober werde, zumindest die 3070 -er Serie!
3080 und 3090 wohl um Mitte Oktober rum... bis die Verfügbarkeit besser wird, ausser die Miner kaufen alles auf.
Gipsel
2020-09-09, 23:44:09
Weis einer ob die hier genannten Unterschiede zwischen RDNA1 und RDNA2 wirklich stimmen?
- Command Processor wird breiter (Multicore(?))Je nachdem, was das genau bedeuten soll, war das bisher auch schon der Fall.
Eventuell meinen die auf der Folie damit auch nur den Fakt, daß es bei der XBSX jetzt ebenfalls 2 Queues beim Grafik-CP gibt (hatte die PS4 als Custom Feature übrigens schon) und nicht nur für Compute. Keine Ahnung, die beiden da reingehenden "Leitungen" sprechen aber für diese Interpretation.
- 4 -> 7 Inst. Decode pro CUDer Großteil davon wird durch die kleineren Wavefronts von RDNA bedingt (das ist eine XBSX-Folie, der Vergleich geht also gegen GCN und bei halb so großen Wavefronts mit RDNA benötigt es doppelt so viele Instruktionen für den gleichen arithmetischen Durchsatz).
Und stimmen tut die Aufstellung auch noch nicht mal, fehlen doch z.B. LDS-Instruktionen und Exports. :wink:
Die 4 Instruktionen pro Takt stehen ja gar nicht auf der Folie. Die kommen wohl aus dem RDNA-Whitepaper, wo die aber pro SIMD angegeben sind, also sozusagen pro halber CU. Ergebnis bleibt das gleiche, da ist der Unterschied zu RDNA1 nicht unbedingt festzumachen.
Klingt danach, als könnten die CUs dadurch besser ausgelastet werden, kann aber auch nur clickbait sein.
https://youtu.be/vt2ZfmD5fBc?t=457Die bessere Auslastung würde ich nicht daran festmachen wollen. Vor Allem, da das gar kein Vergleich zwischen RDNA1 und RDNA2 auf den Folien ist. ;)
Edit: gerade noch ein paar Sekunden weiter gehört und das ist ja grausam. Ich habe keine Ahnung warum der da im Video Sampler Feedback-Streaming in den ROPs verortet (so ab 8:10) :freak:. Viel Ahnung scheint der nicht zu haben.
Linmoum
2020-09-10, 01:18:51
Some labels have been attached to the board, such as ‘Typical Samsung 16Gb‘ indicating the memory type used for this board. This means that each module is 2GB. The leaker claims that the card has 3+3+2 modules (8 in total). This would imply this model has a 256-bit memory interface.
Another label says ‘Full ???? Typical XT A0 ASIC’. The XT variants are usually reserved for the Radeon RX series, meaning that this should be a sample of a gaming card, not a Radeon Pro.
https://videocardz.com/newz/alleged-amd-radeon-rx-6000-engineering-sample-spotted
Plot twist: Es werden GPUs offiziell vorgestellt, die nicht nur auf einem Chip basieren. :whistle:
:D
SKYNET
2020-09-10, 01:21:12
mhhh, gigabyte weiss wohl mehr als wir:
Taipei, Taiwan, September 9th 2020 – GIGABYTE Technology, (TWSE: 2376), an industry leader in high-performance servers and workstations, today is announcing a partnership with Northern Data AG to create a HPC mega-project with computing power of around 3.1 exaflops.
GIGABYTE will supply GPU-based server systems equipped with proven AMD EPYC™ processors and AMD Radeon Instinct™ accelerators from technology partner AMD, a leading provider of high performance computing and graphics technologies, to Northern Data.
https://www.gigabyte.com/Press/News/1831
die neuen instinct karten auf RDNA2 basis scheinen wohl mehr überzeug zu haben als die ampere basis... evtl. ist "leadership" doch so gemeint wie es die meisten verstehen würden :D
Ravenhearth
2020-09-10, 01:25:33
Die Instinct basiert doch sicher auf CDNA.
genervt
2020-09-10, 06:36:47
Nun bis NV flächendeckend liefern kann ist sicherlich Anfang bis Mitte Oktober!
Dann sind es auch nur mehr 2 Wochen bis zum Release aber auch AMD wird nur tröpfchenweise liefern.
Bis dann AMD Custom in Masse kommt wird's Neujahr und zwar chinesisches Neujahr.
28. Oktober ist leider spät und zu spät für das Weihnachtsgeschäft.
Ich hoffe Big Navi wird gut, persönlich kaufe ich nur bis 250€ und auch gebraucht, wenn es sein muss.
Ich denke da braucht man nicht großartig hoffen und bangen. Wenn sie wirklich was ueberraschend gutes in der Schublade haetten, wuerden sie Nvidia nicht bis Ende Oktober (und wahrscheinlich laenger) das Feld ueberlassen. dafür können wir uns freuen, dass sie sich an Ampere messen, und nicht nur Vergleiche gegen 2080Ti kommen.
Edgecrusher86
2020-09-10, 08:21:40
https://videocardz.com/newz/alleged-amd-radeon-rx-6000-engineering-sample-spotted
https://abload.de/img/amd-big-navi-engineerefk18.jpg
16GB Samsung G6 @ 256-bit dann wohl beim ES. Ich tippe auf 16-18 Gbps (512 - 576 GB/s).
https://abload.de/img/amd-big-navi-engineer06j4b.png
Preislich dann wohl im Bereich 550-700€ für eine entsprechende Karte zwischen RTX 3070 und RTX 3080 platziert. Mal schauen.
Ja, leider extrem spät dran wieder. Bis Ende Oktober/Anfang November werden viele Leute schon Ampere im Rechner haben.
dargo
2020-09-10, 08:28:58
BigNavi nur mit 256Bit SI? Das ergibt doch keinen Sinn. Wenn das ein ES-Sample ist dann wohl eher vom N22. Oder soll jetzt BigNavi weniger Bandbreite abbekommen als die XBSX? :ulol:
btw.
Ist es überhaupt üblich, dass man beim ES so merkwürdige Kühlerkonstruktionen sich zurecht bastelt? Oder trollt uns da nur einer?
Das ist nur nicht big-Navi, denn der hätte keine 256Bit. Das ist N22.
Dargo war schneller :D.
mironicus
2020-09-10, 08:30:55
Weniger Bandbreite als eine Xbox Series X...? :D
Bis Ende Oktober/Anfang November werden viele Leute schon Ampere im Rechner haben.
Vielleicht auch eine XBox mit Ultimate-Abo. :)
Edgecrusher86
2020-09-10, 08:32:28
Also 20, 24 oder 32GB für Big Navi? :D
20GB wäre für eine PRO jedenfalls mehr als ausreichend. 28GB könnte man auch bringen bei z.B. 448-bit als Cut. :D
Jo für N22 ist das aber ok.
Mich freut die standardmäßige 16Gb-Bestückung. Damit käme man ja auf folgende Speichermengen vermutlich:
N21 -> 24GB
N22 -> 16GB
N23 -> 12GB
N24 -> 8GB
Damit sind die Speichermengen bei AMD relativ klar und die 3080/70 werden noch unkaufbarer. NV bleibt ja gar nichts andere übrig als beim Super-Refresh die kleinen Speicherbestückungen auszusortieren jetzt.
dargo
2020-09-10, 08:35:46
Also 20, 24 oder 32GB für Big Navi? :D
Wenn der 384Bit SI abbekommt gehe mal von 12 und 24GB Versionen aus. Die 12GB Versionen könnte man dann etwas agressiver im Markt platzieren. Bei N22 würde ich auch eher auf zwei Varianten tippen 8/16GB. Manchmal muss mal halt zwei Varianten beim Übergang anbieten. Für den einen sind die kleineren Speichergrößen ausreichend, für den anderen zu wenig. So hat man die Wahl. Gabs ja in der Vergangenheit auch schon paar Mal.
Edgecrusher86
2020-09-10, 08:37:32
Ja, das wäre sicher mehr als ausreichend. Mehr als 24GB ist mit der Rohleistung bezüglich Highres-Gaming bei 4K+ auch unbegründet bei AMD als auch NV.
Bei +50% Performance auf eine RTX 3090 kann man dann mal über 32GB- oder 48GB- Halo-Produkte sinnieren. :biggrin::freak:
Ich gehe zwar davon aus, dass Jensen eine 48GB TITAN bzw. Quadro bringt im Vollausbau für 4000+ € - aber abseits Content-Creation sind das Perlen vor die Säue geschmissen.
Wobei die VRAM-Anzeige eines Max Payne 3 hätte sicherlich ihren Spaß damit-
Hier einmal, was vorgeschlagen wird für 13760 x 5760 DSR (16x DSR @ 21:9 + Orb's Custom Resolution Tool) plus 8xMSAA+FXAA:
https://abload.de/thumb/maxpayne3-137608xms-5o1kwa.png (https://abload.de/image.php?img=maxpayne3-137608xms-5o1kwa.png)
Raff hätte jedenfalls auch seine Freude daran - wobei bei 16K + 8xMS sicher locker 64GB notwendig sein dürften. ;D;D;D;D
P.S.: In 13760 x 5760 + 4xMS sind es nur noch läppische 27GB Bedarf - das geht vll. auch mit 24GB, sofern die Anzeige des Spiels etwas übertreiben sollte. :)
Wenn der 384Bit SI abbekommt gehe mal von 12 und 24GB Versionen aus. Die 12GB Versionen könnte man dann etwas agressiver im Markt platzieren. Bei N22 würde ich auch eher auf zwei Varianten tippen 8/16GB. Manchmal muss mal halt zwei Varianten beim Übergang anbieten. Für den einen sind die kleineren Speichergrößen ausreichend, für den anderen zu wenig. So hat man die Wahl. Gabs ja in der Vergangenheit auch schon paar Mal.
12GB für den Top-Dog? Bestimmt nicht. Im Retail wird es gar keine halben Speichermengen geben, im OEM vielleicht.
basix
2020-09-10, 08:44:11
Die Instinct basiert doch sicher auf CDNA.
Kann sein, aber in der Gigabyte-Meldung steht 3.1 EFLOPs FP32 vs. 274 PFLOPs FP64. CDNA sollte eigentlich mehr FP64 Leistung haben.
Meine Hoffnung beruht auch auf N22 XT. Wäre aber ungewöhnlich den Kleinen zuerst zu testen
Das wird genau so kommen wie gedacht, N21 dann als Referenz ab 28.10. und die Customs dann inklusive N22 Ende November. Am 28.10. wirst du also nur N21 sehen.
Zergra
2020-09-10, 09:01:44
Jo für N22 ist das aber ok.
Mich freut die standardmäßige 16Gb-Bestückung. Damit käme man ja auf folgende Speichermengen vermutlich:
N21 -> 24GB
N22 -> 16GB
N23 -> 12GB
N24 -> 8GB
Damit sind die Speichermengen bei AMD relativ klar und die 3080/70 werden noch unkaufbarer. NV bleibt ja gar nichts andere übrig als beim Super-Refresh die kleinen Speicherbestückungen auszusortieren jetzt.
Wann hatte AMD zuletzt 4 Chips aus einer Architektur?
Mehr als 3 würde ich da nicht erwarten und das ES zeigt ja wer wohl zum Opfer gefallen ist.
unl34shed
2020-09-10, 09:02:01
https://pbs.twimg.com/media/EhhI2XzXkAEh2ca?format=jpg&name=large
https://mobile.twitter.com/IGPUOdyssey/status/1303872978636156933?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1303872 978636156933%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html1303872978636 156933
Glaub nicht dran.
mironicus
2020-09-10, 09:02:09
Dieser Chip (N22) wäre auch eine gute Grundlage für einen Highend-Mobile Grafikchip. :)
Damit könnte AMD vielleicht sogar NVidia mit ihren 8 nm-Mobile Chips übertreffen.
Cyberfries
2020-09-10, 09:08:34
Mit einer Nacht Abstand ist der größte Ärger erstmal weg.
Aber meine Güte - geht doch einfach wieder zurück in eure Höhle und treibt weiter Winterschlaf.
Was für ein dilettantisches Marketing.
Ankündigung einer Ankündigung - Karten kommen dann nächstes Jahr? Vielleicht? Mit ganz viel Hoffnung?
16GB Samsung G6 @ 256-bit dann wohl beim ES.
Am rechten Rand ist der Stromstecker sichtbar.
Gemessen am Kabelsalat würde ich auf nur einen Stecker tippen, aber was für einer? Ist doch kein 8pin, oder?
Graphics Odyssey Hardware (https://twitter.com/IGPUOdyssey/status/1303872978636156933) glaubt Informationen zu haben.
Ich würde behaupten das ist Stuss, trotzdem zu Diskussionszwecken:
- Worlds first MCM GPU
- Up to 80 Active Compute Units
- Next Generation Infinity Fabric for Ultra Low Latency
- Nearly 100% Scaling with Compute Units
- Up to 50% greater Performance per Watt when tested in fixed power usage
- 3x L1 Cache of Navi 10
- 2x ROPs of Navi10
- 1.13x Instructions per Clock of Navi 10
- Redesigned TMUs optimized for Hardware accelerated Ray Tracing
- 7x Performance of Navi 10 in Machine Learning Uses
- 1.9-2.3x Performance of 5700XT in modern AAA titles
- Able to sustain "Game Clock" of over 2GHz
- Dual Geometry Engine for Next Generation Level Design
edit: zu langsam, unl34shed war schneller.
Liest sich mehr nach Wunschliste, auch alles andere als professionell gemacht.
mironicus
2020-09-10, 09:13:13
Zumindest wäre das ein "Halo"-Produkt und die "Leadership"-Bezeichnung von AMD gerechtfertigt.
- 1.9-2.3x Performance of 5700XT in modern AAA titles
- Able to sustain "Game Clock" of over 2GHz
Das würde reichen um die 3090 zu schlagen.
sChRaNzA
2020-09-10, 09:13:59
Kann ärgerlich sein, aber Geduld ist eine Tugend. Passen die Roadmaps noch? Wenn ja, dann liegen sie eh noch im Zeitplan. Und solange es keinen unabhängigen Tests von Ampere gibt, wird da eh nichts Neues gekauft, geschweige denn blind vorbestellt.
Redneck
2020-09-10, 09:14:28
Welches hin und her denn?
so geil...
da werden Sachen in den Raum geworfen und als AMD Facts/Info verkauft und sich dann darüber beschwert, wenn die eigene Stimmungslage umschwenkt, das AMD am hin und her lavieren ist. Manche merken echt nichts mehr.. aber lustig ist's schon irgendwie
Linmoum
2020-09-10, 09:19:39
Laut kimi:
That's Navi21.
https://mobile.twitter.com/kopite7kimi/status/1303890583123968000
I smell a battle like HD4870 vs GTX260.
https://mobile.twitter.com/kopite7kimi/status/1303891765368242176
mironicus
2020-09-10, 09:22:59
So in etwa werden wohl die zukünftigen RDNA3-GPUs aussehen, die in den Nachfolgern von PS5 und Xbox stecken werden. Wenn AMD insgeheim einen Prototypen mit 7 nm-Chips gebaut hat und den sogar marktreif produzieren kann um ihre technologische Überlegenheit präsentieren zu können... warum nicht?
Kimi2003
2020-09-10, 09:23:34
https://pbs.twimg.com/media/EhhI2XzXkAEh2ca?format=jpg&name=large
https://mobile.twitter.com/IGPUOdyssey/status/1303872978636156933?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1303872 978636156933%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html1303872978636 156933
Glaub nicht dran.
Selbst die 1,9x wären schon Hammer!
In F1 2020 1440p
5700xt etwa 110fps
2080ti etwa 150fps
3080 geschätzt 195fps(+30% zur 2080ti)
RDNA2 wäre bei Faktor 1,9x bei 209fps 😳😳😳😳
Der_Korken
2020-09-10, 09:23:42
Naja ... eventuell ist an manchen Sachen was dran, aber das wirkt so als htte jemand aus dem Gedächtnis ein paar Stichpunkte von ein paar Folien abgeschrieben.
- Worlds first MCM GPU
Sehr gewagte These. Wie löst man das Problem, die Lasten/Berechnungen auf zwei Dies zu verteilen ohne dass einem der schiere Datenverkehr die Effizienz versaut? Unmöglich nicht, aber das hätte von langer Hand geplant sein müssen.
- Next Generation Infinity Fabric for Ultra Low Latency
Das wäre etwas, was Zen 3 bräuchte. Bei den GPUs ist eher die Bandbreite zwischen den Chips das Problem, denn die muss ja mindestens so groß wie die Speicherbandbreite sein.
- Up to 50% greater Performance per Watt when tested in fixed power usage
Das ist relativ nichtssagend, solange man nicht sagt, wo diese fixed power usage liegt. Wenn Big Navi in 225W nur 50% mehr Leistung schafft, wäre das eine Katastrophe, denn durch die vielen CUs müsste BN stark untertaktet laufen. Wenn man von da ausgehend dann 1,9-2,3x 5700XT Leistung schaffen will, muss der Chip geschätzt dann >400W liegen, denn Leistung skaliert nicht linear mit Verbrauch.
- 3x L1 Cache of Navi 10
Das klingt sogar relativ sinnvoll, denn ein Shader-Array hat tatschlich mehr L0 (5x32kB) als L1 Cache (128kb). Da hatte ich mich schon bei N10 gefragt, warum der L1 so klein ist.
- Dual Geometry Engine for Next Generation Level Design
Was soll das sein? Eine Geometry Engine pro Chip gibt, damit die möglichst autark arbeiten und nur gelegentlich mal Daten synchronisieren müssen?
Berniyh
2020-09-10, 09:30:35
Je näher der Vorstellungstermin rückt desto absurder werden offensichtlich die Gerüchte und Diskussionen.
Sollte das nicht eher umgekehrt sein? xD
dargo
2020-09-10, 09:36:57
Laut kimi:
That's Navi21.
https://mobile.twitter.com/kopite7kimi/status/1303890583123968000
Das ergibt keinen Sinn. Es sei denn N21 ist nicht die 80 CU RDNA2 GPU. Bisher gingen alle davon aus, dass N21 BigNavi ist. Wenn das Bild tatsächlich N21 mit 256Bit SI und 16GB zeigt muss es noch was über N21 geben.
Palpatin
2020-09-10, 09:39:15
Je näher der Vorstellungstermin rückt desto absurder werden offensichtlich die Gerüchte und Diskussionen.
Sollte das nicht eher umgekehrt sein? xD
Nö, ganz normal das der Hypetrain immer schneller wird bevor er entgleist.
Cyberfries
2020-09-10, 09:40:38
Das ergibt keinen Sinn.
Wer weiß was da alles getestet wird.
Ein Board ausgestattet mit weniger Speichersteinen? Für mögliche abgespeckte Varianten?
Das Package sieht mir auch recht groß aus, sind das drei Speichersteine oben und drei unten?
mironicus
2020-09-10, 09:40:50
PS5*2. :)
Ein GPU-Chiplet dieses Entwurfs hat dann maximal 40 CU. Also besteht es eventuell aus 2xN23?
Adam D.
2020-09-10, 09:42:35
Laut kimi:
That's Navi21.
https://mobile.twitter.com/kopite7kimi/status/1303890583123968000
I smell a battle like HD4870 vs GTX260.
https://mobile.twitter.com/kopite7kimi/status/1303891765368242176
Wait, what? Das kann doch nicht sein, der Top Dog mit nem 256er Bus?
dargo
2020-09-10, 09:44:41
Das Package sieht mir auch recht groß aus, sind das drei Speichersteine oben und drei unten?
Ich kann dir nicht folgen. Die im Bild gezeigte Karte ist einseitig mit Speicher bestückt, die man im Bild nicht sieht.
mironicus
2020-09-10, 09:44:59
Dann ist das wohl nicht der Top Dog. Waren ja alles bis jetzt nur Gerüchte.
dildo4u
2020-09-10, 09:45:31
Die Kompression müsste dafür massiv besser werden was möglich ist die 3070 hat z.b 30% weniger Bandbreite als die 2080 Ti soll aber genau so schnell sein.
Was spricht eigentlich gegen ein 512-Bit SI?
Die Kompression müsste dafür massiv besser werden was möglich ist die 3070 hat z.b 30% weniger Bandbreite als die 2080 Ti soll aber genau so schnell sein.
Da kann nichts mehr massiv besser werden, ohne verlustbehaftet zu werden. Wenn die RTX 3070 austeilt, dann nur, weil ihre Rechenleistung voll durchschlägt (alle FP32-ALUs, RT-C und T-C parallel).
MfG
Raff
Cyberfries
2020-09-10, 09:49:40
Ich kann dir nicht folgen. Die im Bild gezeigte Karte ist einseitig mit Speicher bestückt, die man im Bild nicht sieht.
Man erkennt auch von der Rückseite, wo Speicher verbaut ist.
Hier z.B. bei der 5700: Schön zu sehen dreimal links, dreimal rechts, zwei oben:
https://www.pcgamesn.com/wp-content/uploads/2019/07/amd-radeon-rx-5700-sepcs-900x506.jpg
edit: Ah, Fehlerquelle gefunden. Beidseitige Bestückung wäre vorne und hinten. Wir waren bei untersch. Koordinatensystemen.
Was spricht eigentlich gegen ein 512-Bit SI?
Mit nur acht Speichersteinen?
w0mbat
2020-09-10, 09:52:01
150W, 256-bit Navi21 30-40% schneller als eine RTX 3090? Schnell, wir brauchen mehr Hype!
dildo4u
2020-09-10, 09:53:27
Da kann nichts mehr massiv besser werden, ohne verlustbehaftet zu werden. Wenn die RTX 3070 austeilt, dann nur, weil ihre Rechenleistung voll durchschlägt (alle FP32-ALUs, RT-C und T-C parallel).
MfG
Raff
Kommt das nicht drauf an wie viel Cache sie verbauen?
AMD erhöt bei Ryzen doch ständig den Cache um weniger abhängig vom Ram Speed zu sein.
dargo
2020-09-10, 09:55:03
Man erkennt auch von der Rückseite, wo Speicher verbaut ist.
Hier z.B. bei der 5700: Schön zu sehen dreimal links, dreimal rechts, zwei oben:
https://www.pcgamesn.com/wp-content/uploads/2019/07/amd-radeon-rx-5700-sepcs-900x506.jpg
Klar erkennt man das. Aber wie kommst du jetzt darauf die Karte wäre beidseitig bestückt? Oder was wolltest du damit genau sagen?
Das Package sieht mir auch recht groß aus, sind das drei Speichersteine oben und drei unten?
150W, 256-bit Navi21 30-40% schneller als eine RTX 3090? Schnell, wir brauchen mehr Hype!
Das ist kein Hype, das ist Trollen auf höchstem Niveau.
Berniyh
2020-09-10, 09:57:53
Was spricht eigentlich gegen ein 512-Bit SI?
Zum Beispiel, dass Nvidia lieber teure und stromfressende GDDR6X Chips nimmt anstatt ein 512 Bit Speicherinterface zu implementieren.
Die Nachteile scheinen da schon immens zu sein, wenn man dafür derartige andere Nachteile in Kauf nimmt.
Man erkennt auch von der Rückseite, wo Speicher verbaut ist.
Hier z.B. bei der 5700: Schön zu sehen dreimal links, dreimal rechts, zwei oben:
https://www.pcgamesn.com/wp-content/uploads/2019/07/amd-radeon-rx-5700-sepcs-900x506.jpg
edit: Ah, Fehlerquelle gefunden. Beidseitige Bestückung wäre vorne und hinten. Wir waren bei untersch. Koordinatensystemen.
Mit nur acht Speichersteinen?
Wenn es ein MCM wäre, oder macht dies keinen Unterschied?
So in etwa werden wohl die zukünftigen RDNA3-GPUs aussehen, die in den Nachfolgern von PS5 und Xbox stecken werden. Wenn AMD insgeheim einen Prototypen mit 7 nm-Chips gebaut hat und den sogar marktreif produzieren kann um ihre technologische Überlegenheit präsentieren zu können... warum nicht?
Glaub ich nicht. RDNA3 wird weiterhin monolithisch sein, nur mit separatem IOD.
Dural
2020-09-10, 10:15:50
Ich weiss ja nicht was ihr auf dem Foto seht, aber das sieht für mich nach min. 384Bit aus, mit dem Kleber 16GB sind es wohl eher sogar 512Bit...
Edit:
Der Kühler sitzt nicht zentriert auf der GPU.
basix
2020-09-10, 10:18:12
....mit dem Kleber 16GB sind es wohl eher sogar 512Bit...
Es heist "Samsung 16 Gb" --> Gbit --> 2 GByte pro Modul --> 256b/32b * 16 Gb = 16 GByte
dargo
2020-09-10, 10:18:45
Wir sind eigentlich genauso schlau wie vorher, nämlich gar nicht. ;D
Nehmen wir mal an N21 ist das was die meisten für N22 hielten. Also eine 56CUs GPU. Wenn ich jetzt die 140W bei den 52CUs der XBSX als Basis nehme landet so ein 56CU N21 bei etwa 150W GPU-Power. Das sind grob 180W für die ganze Karte. Das soll schon alles von AMD für RDNA2 am Desktop sein? Zumal das Ding dann irgendwo bei nur 300-320mm² liegen würde. Schwer vorstellbar. Und wenn AMD jetzt auf die Idee kommt diese 56CUs GPU im Desktop zu keulen... sagen wir mal 2,4Ghz (keine Ahnung wo die Taktmauer ist). Was soll das bei "mickrigen" 512GB/s bringen? Da passt einfach einiges nicht zusammen.
basix
2020-09-10, 10:22:17
Kein Problem, X3D Stacked HBM auf dem Chip mit nochmals 512 GB/s :D
Wenn es eine 256b Karte ist, ist sie definitiv nicht der Top Dog. kipite7kimi ist sich ja selbst nicht sicher, ob es Navi 21 ist (was ich für unwahrscheinlich halte, wenn Navi 21 = BigNavi).
dargo
2020-09-10, 10:24:15
kipite7kimi ist sich ja selbst nicht sicher, ob es Navi 21 ist (was ich für unwahrscheinlich halte, wenn Navi 21 = BigNavi).
Lol... ok. ;D
dildo4u
2020-09-10, 10:24:28
Warum 512GB/Sec hat Samsung kein GDDR6x?
AlterSack
2020-09-10, 10:31:33
https://mobile.twitter.com/kopite7kimi/status/1303890583123968000
Wait, what? Das kann doch nicht sein, der Top Dog mit nem 256er Bus?
Das Foto würde für mich eher auf HBM deuten.
..der Kühler bedeckt nur die GPU und nicht wie bei GDDR üblich
auch den Speicher.
dargo
2020-09-10, 10:50:37
Warum 512GB/Sec hat Samsung kein GDDR6x?
Nein... Samsung hatte auch kein GDDR5X. GDDR5X und GDDR6X sind Alleingänge von Micron.
Das Foto würde für mich eher auf HBM deuten.
..der Kühler bedeckt nur die GPU und nicht wie bei GDDR üblich
auch den Speicher.
:freak:
Das soll ein ES sein. Erkennst du nicht, dass man da einfach einen CPU-Kühler drauf geschnallt hat? Auf dem PCB erkennt man deutlich wo drei GDDR Speicherbausteine ihren Platz finden. Da würde ich aber sowieso nicht viel drauf geben. Wer weiß ob das PCB so auch final kommt.
Cyberfries
2020-09-10, 11:13:08
Oder was wolltest du damit genau sagen?
Ich hatte meinen Beitrag zur Klarstellung (beidseitig wäre vorne & hinten) editiert, bin mir nicht sicher ob du das noch gesehen hast.
Wenn es ein MCM wäre, oder macht dies keinen Unterschied?
Dann sind auch nur zwei Die auf einem Interposer, hat ja auf die Platine keinen Einfluss. Anders bei Multi-GPU, z.b. 7990 oder GTX690.
Und wenn AMD jetzt auf die Idee kommt diese 56CUs GPU im Desktop zu keulen... sagen wir mal 2,4Ghz ..... Was soll das bei "mickrigen" 512GB/s bringen?
Wie zuvor schon gesagt: Engineering Sample, vermutlich zu Testzwecken mit weniger Speicher.
Die Platine sieht aus, als wäre sie für mehr als nur acht Speichermodule ausgelegt.
Das Foto würde für mich eher auf HBM deuten.
Und die sichtbaren Speichersteine ignorieren wir? Und den Aufkleber? Und die Aussage, dass 8 Speichersteine verbaut sind?
Gibts zur Stromzuführung noch irgendwelche Meinungen?
edit: An Unterhalb:
Und weiter? 3 Bausteine vorn und 3 hinten macht 6 statt 8.
Oh Mann, zwei rechts. 3+3+2 = 8
AlterSack
2020-09-10, 11:21:32
:freak:
Das soll ein ES sein. Erkennst du nicht, dass man da einfach einen CPU-Kühler drauf geschnallt hat? Auf dem PCB erkennt man deutlich wo drei GDDR Speicherbausteine ihren Platz finden. Da würde ich aber sowieso nicht viel drauf geben. Wer weiß ob das PCB so auch final kommt.
Und weiter? 3 Bausteine vorn und 3 hinten macht 6 statt 8.
12Gb für N21? Die Tatsache mit dem CPU-Kühler deutet für mich nicht auf
DDR-Speicher. Es sei denn, man hat den für das ES so runtergetaktet,
das er nicht gekühlt werden muss.
Vllt. ist es N22. Dem würden 12GB gut stehen.
Samsung hat AFAIK keine 12Gb, weil die 16Gb-Chips quasi verdoppelt designt sind.
Vielleicht ist N21 und N22 auch vertauscht und N21 ist der kleinere Chip. Jedenfalls ist es ausgeschlossen, dass der größere Chip weniger Bandbreite hat als die XBox.
dargo
2020-09-10, 11:29:12
Wie zuvor schon gesagt: Engineering Sample, vermutlich zu Testzwecken mit weniger Speicher.
Die Platine sieht aus, als wäre sie für mehr als nur acht Speichermodule ausgelegt.
Woran erkennst du das? Ich habe mir das Bild jetzt mal vergrößert angesehen und sehe auch unten (also in der Nähe vom PCIe Steckplatz) ebenfalls 3x Speicherchips bzw. die Rückseite davon. Jetzt ist die Frage nur noch wo die anderen zwei verbleiben? Vielleicht einer links und einer rechts. Kann man aber schlecht auf dem Foto erkennen.
Berniyh
2020-09-10, 11:45:30
Vielleicht ist N21 und N22 auch vertauscht und N21 ist der kleinere Chip. Jedenfalls ist es ausgeschlossen, dass der größere Chip weniger Bandbreite hat als die XBox.
Nein, wir wissen sicher, dass Sienna Cichlid > Navy Flounder und wir wissen auch sicher, dass Sienna Cichlid = Navi 21 und Navy Flounder = Navi 22.
Daher wissen wir auch sicher, dass Navi 21 > Navi 22.
(Quelle: Linux Treiber sowie frühere Einträge in pal)
Edit: außer natürlich AMD hätte die Chips umbenannt, aber das bezweifle ich stark, denn damit bringt man ja auch Verwirrung in die eigene Entwicklung.
Cyberfries
2020-09-10, 11:45:34
Jetzt ist die Frage nur noch wo die anderen zwei verbleiben?
Dort:
Armaq
2020-09-10, 11:47:34
Wenn RDNA2 so ein Hit wäre, würden sie es mit Zen3 zusammen vorstellen. Die 2 Termine lassen klar den Schluss zu, dass man den Analysten und Aktionären kein gemischtes Bild vermitteln will.
Zen3 ist eine klare Bank und wird exklusiv für sich gelauncht. RDNA2 ist 3 Wochen später seperat und hat so spät auch kaum Quartalseinfluss.
mironicus
2020-09-10, 11:48:37
Kann man aufgrund der Rückseite und der Pins eigentlich die ungefähre Größe der GPU einschätzen?
Zen3 ist eine klare Bank und wird exklusiv für sich gelauncht. RDNA2 ist 3 Wochen später seperat und hat so spät auch kaum Quartalseinfluss.
Das Beste kommt immer zum Schluß. :)
Dino-Fossil
2020-09-10, 11:49:58
Wenn RDNA2 so ein Hit wäre, würden sie es mit Zen3 zusammen vorstellen. Die 2 Termine lassen klar den Schluss zu, dass man den Analysten und Aktionären kein gemischtes Bild vermitteln will.
Zen3 ist eine klare Bank und wird exklusiv für sich gelauncht. RDNA2 ist 3 Wochen später seperat und hat so spät auch kaum Quartalseinfluss.
Schwer zu sagen, mMn, ein zeitlich klar getrennter Launch bietet auch die Möglichkeit, beiden Produkten ordentlich Publicity zukommen zu lassen, zudem ist man dann über mehrere Wochen in der Presse vertreten.
Adam D.
2020-09-10, 11:52:03
Schwer zu sagen, mMn, ein zeitlich klar getrennter Launch bietet auch die Möglichkeit, beiden Produkten ordentlich Publicity zukommen zu lassen, zudem ist man dann über mehrere Wochen in der Presse vertreten.
Genau so ist es.
Linmoum
2020-09-10, 11:52:17
Wenn RDNA2 so ein Hit wäre, würden sie es mit Zen3 zusammen vorstellen. Die 2 Termine lassen klar den Schluss zu, dass man den Analysten und Aktionären kein gemischtes Bild vermitteln will.
Zen3 ist eine klare Bank und wird exklusiv für sich gelauncht. RDNA2 ist 3 Wochen später seperat und hat so spät auch kaum Quartalseinfluss.Es wird beides exklusiv vorgestellt bzw. gelauncht. Das zeigt ganz klar, dass AMD nicht den Hype von Zen3 für RDNA2 mitnimmt, wie hier und da gemunkelt wurde. Sehr gutes Zeichen.
dargo
2020-09-10, 11:53:15
Dort:
Hmm... könnte hinkommen. Ich hatte dort diese eine Schraube gesehen die durch das PCB geht, deshalb war ich unsicher ob dort zwei Speicherchips Platz finden.
Wenn RDNA2 so ein Hit wäre, würden sie es mit Zen3 zusammen vorstellen.
Finde ich Quatsch. Warum das ganze Pulver auf einmal verschießen? Wenn man zwei neue Sachen im Petto hat wird man natürlich auch beides separat vorstellen. So bleibt man auch länger im Gespräch bzw. den Medien. Selbst Nvidia hat bei Ampere nur GA102 und nen halben GA104 vorgestellt. Der Salvage von GA104 war da noch gar nicht im Gespräch.
why_me
2020-09-10, 11:53:16
Oder man will mit den getrennten Terminen einfach länger im Gespräch bleiben. Ab Oktober ist dann nur noch AMD im Gespräch, Zen, Big Navi, XBOX mit RDNA2, PS5... dann die Custom Karten. Q4 werden wir vermutlich nur AMD hören und die Meldungen zu Nvidia und Intel werden untergehen.
Wenn RDNA2 so ein Hit wäre, würden sie es mit Zen3 zusammen vorstellen. Die 2 Termine lassen klar den Schluss zu, dass man den Analysten und Aktionären kein gemischtes Bild vermitteln will.
:confused:
Gerade ein seperates Event für RDNA2 spricht doch eher für dessen Stärke. Wenn man kaschieren wollte, hätte man es in der Zen3-Show am Rande unterbringen können.
Complicated
2020-09-10, 12:08:55
Wenn RDNA2 so ein Hit wäre, würden sie es mit Zen3 zusammen vorstellen. Die 2 Termine lassen klar den Schluss zu, dass man den Analysten und Aktionären kein gemischtes Bild vermitteln will.
Unsinn - die Gründe wurden hier ja schon aufgezählt.
[MK2]Mythos
2020-09-10, 12:13:54
Wenn RDNA2 so ein Hit wäre, würden sie es mit Zen3 zusammen vorstellen. Die 2 Termine lassen klar den Schluss zu, dass man den Analysten und Aktionären kein gemischtes Bild vermitteln will.
Zen3 ist eine klare Bank und wird exklusiv für sich gelauncht. RDNA2 ist 3 Wochen später seperat und hat so spät auch kaum Quartalseinfluss.
😃
Logik und so...
Berniyh
2020-09-10, 12:17:25
Das ist hier ja schlimmer als ein Astrologen-Podcast …
Redneck
2020-09-10, 12:22:51
Wenn RDNA2 so ein Hit wäre, würden sie es mit Zen3 zusammen vorstellen. Die 2 Termine lassen klar den Schluss zu, dass man den Analysten und Aktionären kein gemischtes Bild vermitteln will.
Zen3 ist eine klare Bank und wird exklusiv für sich gelauncht. RDNA2 ist 3 Wochen später seperat und hat so spät auch kaum Quartalseinfluss.
Das kann man so sehen, wenn man vom Typ "das Glas ist nur Halb voll" ist.
Geht aber auch anders.
Zen 3 hat ein grösseres Publikum.. RDNA2 würde sich die Aufmerksamkeit teilen müssen , verdient aber einen eigenen Auftritt.
Denke auch , das 2 Meteoriteneinschläge besser sind als 1.. mediale Aufmerksamkeit ist höher und man hält die Spannung länger.
Evtl sind sie Treiber Seitig noch nicht so weit sein... ausserdem liegen sie mit dem Termin ja auch noch im Plan (vor den Konsolen). Gibt also nix , worüber man sich beklagen könnte, ausser über die eigene Ungeduld.
ChaosTM
2020-09-10, 12:29:40
The best is yet to come.🤪
Die Krone im Grafik Bereich muss man schon separat feiern.
X-Bow
2020-09-10, 12:39:03
Und weiter? 3 Bausteine vorn und 3 hinten macht 6 statt 8.
12Gb für N21? Die Tatsache mit dem CPU-Kühler deutet für mich nicht auf
DDR-Speicher. Es sei denn, man hat den für das ES so runtergetaktet,
das er nicht gekühlt werden muss.
Vllt. ist es N22. Dem würden 12GB gut stehen.
Es steht sogar extra 16Gb auf nem Aufkleber des ES, also geh mal von 16Gb aus ^^
Iscaran
2020-09-10, 14:20:08
Hmmm...Graphics Odysseys Gerüchte lesen sich schon ein bisschen wie Hypetrain.
Aber gemäß der bisherigen Verlautbarungen von AMD sollen ja +50% Perf/Watt kommen sowie eine weitere Erhöhung der IPC.
Im Gerücht heisst es auch dass RDNA 2 die 1.13fache IPC von Navi 10 haben soll.
Dazu werden ja Taktraten von 2.x GHz kolportiert bzw. durch die Konsolenchip gestützt.
Navi 10 hatte nur 1.605 GHz Baseclock.
Nehmen wir mal 2 GHz /1.605 GHz = +25% Takt
Dazu +13% IPC = +38 % Performance bei gleicher CU Zahl.
Navi 21 soll ja mind. 80 CUs haben, wären also nochmal +50% Leistung + 38% = 88% für das ganze Konstrukt (sofern die Auslastung immer noch so gut ist wie vorher)...
5700 XT *1.6488 wären also im 3DC-Index 156*1.6488 = 293% bei 275 W (+50% Perf/W)
EDIT: Danke an Basix (siehe nächster Post) 1.64 sind natürlich murks, sollten 1.88 sein.
Und das wäre eine nicht unbedingt optimistische Leistungsschätzung aufgrund der aktuellen Gerüchtelage.
Das dürfte so RTX 3080 Niveau sein und ist eigentlich eher eine pessimistische Schätzung.
Geht der Takt nur etwas höher als 2GHz ist man gleich ein Stück höher wieder - sofern die 1.13x IPC stimmen.
mit 2.2GHz und 1.13 IPC hat man 2.2/1.605 = 37% +13 % = 50% und mit 2x CUs ist man bei +100% = 312 % 3DC-Index
Also mit 290- 310% Index kann man N21 glaub ich schon verorten.
basix
2020-09-10, 14:39:42
Erstens stimmt deine Rechnung nicht und wie du auf 1.64 kommst weiss ich auch nicht (80 CUs sind +100% und das dann noch richtig mit deinen +38% gerechnet ergäbe +176% und unten im Post +50%*2x ergibt +200% oder ein 3DC 4K Index von 480%) und zweitens: Graphic Odyssesys Angabe von 1.9...2.3x entspricht fast genau Leos Angabe von 300...350%. Merkst du was? ;) Ich glaube eher, der liest hier mit als umgekehrt.
nairune
2020-09-10, 14:42:49
Die Rede ist vom "Game clock" und der ist bei der 5700 XT mit 1755 MHz angegeben, nicht 1605. Real laufen ja meist noch mehr.
Leo hat da schon vor diesem Bild 300-350% stehen gehabt.
basix
2020-09-10, 14:45:54
Leo hat da schon vor diesem Bild 300-350% stehen gehabt.
Darauf will ich hinaus. Und das dieser Typ evtl. von hier abgeschrieben hat.
Iscaran
2020-09-10, 15:07:06
@basix:
Stimmt 80Cu sind +100%. Weiss auch nicht wie ich da erst auf +50% gekommen bin !
Also +176% sofern 1.13 IPC und 2 GHz base clock.
EDIT: Das wären in der Tat schon erstaunliche 430% 3DC-Index - was ich nicht ganz glaube.
Aber wir wissen ja auch dass Shader verdoppeln nicht in +100% resultieren muss. Wenn es 80% wären, wäre es wohl schon als "gut" zu bezeichnen.
insofern ergäbe das +80% durch Shaderanzahl + 0.8*76% = 60% durch die IPC/Clock Steigerung bei verdoppelte Shaderzahl mit 80% Auslastung.
In summe wären das dann + 140% = 374% 3DC.
/EDIT
@ Gameclock: Ich hatte mich an Wikipedia orientiert für die Base Clocks:
https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units
Dort steht für die 5700 XT (Navi 10 XT) mit 40 CUs ein Baseclock von 1605 GHz
Für die PS5 werden 2.23 GHz kolportiert. Die XBOX X ist mit 1.825 Baseclock spezifiziert.
https://twitter.com/_rogame/status/1304034241525747713
Update
Navi21 GL-XL => D417__
Navi21 XT => D41205
Navi21 XL => D41401
for context
Falcon/Navi14 GL-XTA => Radeon Pro W5500X
Navi10 GL-XTA => Radeon Pro W5700X
Vega20 GL-XE => Radeon Pro VII
Vega10 GL-XT => Radeon Pro WX 9100
Vega10 GL-XL => Radeon Pro WX 8200
Cyberfries
2020-09-10, 16:19:05
Dort steht für die 5700 XT (Navi 10 XT) mit 40 CUs ein Baseclock von 1605 GHz
Für die PS5 werden 2.23 GHz kolportiert. Die XBOX X ist mit 1.825 Baseclock spezifiziert.
Bei der PS5 ist doch bisher weder Base- noch Gameclock bekannt, nur Boost.
Von Interesse sind dabei nur die real anliegenden Taktraten, am ehesten wäre also eine Rechnung mit Gameclock fair.
KittyCorgi / Yuko Yoshida / @KittyYYuko (der/die mit dem 128x FP32-Gerücht)
A: I don't know who said the 505 mm2 as the chip size.
Q: So what is the chip size?
A: Kopite knows.
Q: Bigger size than Ampere ?!! WHAAAAAAAT ?!!
A: Obviously much smaller
Nochmal ES: Normalerweise bleibt bei 256bit der direkte Weg zum PCIe-Slot frei, hier sind nun jedoch plötzlich drei Speichersteine im Weg.
Wenn da nicht Platz für mehr Speicher freigehalten wird, wozu dann diese merkwürdige Speicheranordnung?
Die Schraube zwischen dem Speicher rechts - wegen der Kühlkonstruktion? Fällt die raus werden 3xGDDR je Seite möglich.
nVidia hatte bei 2080 & TI 4xGDDR, allerdings auch sehr große Chips, das Package hier wirkt deutlich kompakter, nur wenig größer als N10.
An einen N21 SE/XE mit 64CU/256bit glaube ich zwar nicht,
sollte so etwas dennoch kommen wäre wohl N22 kleiner als erwartet, nur 48CUs?
Bei der PS5 ist doch bisher weder Base- noch Gameclock bekannt, nur Boost.
Von Interesse sind dabei nur die real anliegenden Taktraten, am ehesten wäre also eine Rechnung mit Gameclock fair.
KittyCorgi / Yuko Yoshida / @KittyYYuko (der/die mit dem 128x FP32-Gerücht)
Nochmal ES: Normalerweise bleibt bei 256bit der direkte Weg zum PCIe-Slot frei, hier sind nun jedoch plötzlich drei Speichersteine im Weg.
Wenn da nicht Platz für mehr Speicher freigehalten wird, wozu dann diese merkwürdige Speicheranordnung?
Die Schraube zwischen dem Speicher rechts - wegen der Kühlkonstruktion? Fällt die raus werden 3xGDDR je Seite möglich.
nVidia hatte bei 2080 & TI 4xGDDR, allerdings auch sehr große Chips, das Package hier wirkt deutlich kompakter, nur wenig größer als N10.
An einen N21 SE/XE mit 64CU/256bit glaube ich zwar nicht,
sollte so etwas dennoch kommen wäre wohl N22 kleiner als erwartet, nur 48CUs?
Vielleicht ist es eben doch ein MCM-Chip, womit die Karten eh neu gemischt werden müssten, da keine Erfahrungswerte vorhanden.
basix
2020-09-10, 17:44:30
Normalerweise hat es nur auf einer Seite der GPU VRMs (Ausnahme GA102 FE und HBM-Karten). Bei dem Leak scheint es auf beiden Seite VRMs zu haben (erhöhte Effizienz und gleichmässigere Spannungsverteilung über den Chip), deswegen hat man die RAM-Packages wohl umplatziert.
Wie verhält es sich vermutlich bei einem MCM mit dem SI? Hat da jedes Modul sein eigenes SI, oder liegt das quasi separat?
Cyberfries
2020-09-10, 18:07:46
Vielleicht ist es eben doch ein MCM-Chip
Was hat der zitierte Text mit MCM zu tun?
Normalerweise hat es nur auf einer Seite der GPU VRMs
Jein. Einzelne Phasen wandern immer mal wieder zur Slotblende.
Die 5700 als Beispiel hat zur Rechten 6+1 Phasen und zur Linken eine weitere.
Was ein gutes Stichwort ist: Ich zähle hier 14 Phasen, fast das Doppelte. Weiter hinten könnten nochmal zwei sein.
Dazu 2x8pin Strom (oder 8pin+6pin), das deutet durchaus auf N21 hin.
Iscaran
2020-09-10, 18:10:55
Wenns ein MCM ist könnten das schlicht 2x56 CUs (XBox Chip) (oder 2x40 CUs von Navi10) sein, diese könnten ja dann theoretisch sowas wie 2x256 bit SI haben ? (die 2. 256 bit sind auf dem Bild nicht sichtbar weil auf der Unterseite ?)
256 Bit für den BigNavi ist definitv viel zu wenig...es sei denn BigNavi kann mit 80 CUs gerade mal mit einer 3070 mithalten, was ich einfach nicht glaube, dagegen sprechen zuviele der anderen Gerüchte.
Brillus
2020-09-10, 18:16:58
Wie verhält es sich vermutlich bei einem MCM mit dem SI? Hat da jedes Modul sein eigenes SI, oder liegt das quasi separat?
Bei Chiplets glaub ich nicht an MCM sondern auf ein 2.5D Stacking also ein aktiver Interposer mit PCIe, Display, Speicher Interface etc. drauf und auf dem gestackt dann die Compute-Chiplets und evtl. HBM.
Bei der Bandbreite die man da braucht würde Package ala Zen zuviel Energie saugen.
BlacKi
2020-09-10, 18:20:02
Erstens stimmt deine Rechnung nicht und wie du auf 1.64 kommst weiss ich auch nicht (80 CUs sind +100% und das dann noch richtig mit deinen +38% gerechnet ergäbe +176% und unten im Post +50%*2x ergibt +200% oder ein 3DC 4K Index von 480%) und zweitens: Graphic Odyssesys Angabe von 1.9...2.3x entspricht fast genau Leos Angabe von 300...350%. Merkst du was? ;) Ich glaube eher, der liest hier mit als umgekehrt.
ich kratze mich gerade am kopf und frage mich wie man mit 256bit was reißen will und ihr redet von 3080/3090 performance:freak:
ich sehe auf den bildern eine mid/highend card mit einem stromverbrauch(siehe vrm) ausserhalb der komfortzone. aber hey, das ist ja jetzt standard^^
Was hat der zitierte Text mit MCM zu tun?
Jein. Einzelne Phasen wandern immer mal wieder zur Slotblende.
Die 5700 als Beispiel hat zur Rechten 6+1 Phasen und zur Linken eine weitere.
Was ein gutes Stichwort ist: Ich zähle hier 14 Phasen, fast das Doppelte. Weiter hinten könnten nochmal zwei sein.
Dazu 2x8pin Strom (oder 8pin+6pin), das deutet durchaus auf N21 hin.
Vielleicht benötigt es einer bestimmten Anordnung zwecks Signalqualität. Ich weiß ich habe keine Ahnung bezüglich der Hardware. Zudem glaube ich dass es sich wohl um den BN handelt. Es muss m E. einen Kniff geben, vorausgesetzt es handelt sich wirklich um MCM, dass man auf 512-Bit kommt. Dazu die 2GB Samsung-Vrams. Kann mir kaum vorstellen, dass die billiger sind als 16x1GB. Es muss eine Korrelation geben
Der_Korken
2020-09-10, 18:38:46
Wie verhält es sich vermutlich bei einem MCM mit dem SI? Hat da jedes Modul sein eigenes SI, oder liegt das quasi separat?
MCM wäre sowas wie die ersten Threadripper. Die hatten zwei 8C-Dies mit jeweils Dual-Channel, was insgesamt 16C und Quadchannel ergab. Der Haken ist natürlich, dass jeder Chip nur auf die Hälfte des Speichers direkt zugreifen kann, die andere Hälfte muss er über den anderen Chip anfragen, was Unmengen an Traffic erzeugt.
Rechenbeispiel: Zwei GPUs mit 256Bit SI und 16Gbps GDDR6, also 512GB/s Speicherbandbreite. Addiert wären das 1TB/s. Beide GPUs greifen willkürlich auf den Speicher zu wie oben beschrieben. Dann liefert "VRAM1" 256GB/s an GPU1 und 256GB/s an GPU2 (hat ja insgesamt 512GB/s). VRAM2 macht das gleiche. Das ergibt folgende Datentransfers:
VRAM1 -> GPU1: 512GB/s (einmal 256GB/s für sich selbst, einmal 256GB/s für GPU2)
VRAM2 -> GPU2: 512GB/s (s.o.)
GPU1 -> GPU 2: 256GB/s (die Daten aus VRAM1 können nicht direkt zu GPU2)
GPU2 -> GPU 1: 256GB/s
D.h. zusätzlich zu 2x256bit SI müsste man noch eine weitere 256bit-Leitung zwischen GPU1 und GPU2 legen, damit die 512GB/s zwischen den GPUs irgendwie transportiert werden können. Damit hätte jede GPU aber 512 Datenleitungen! Und das muss auch noch übers PCB geroutet werden. Zum Vergleich: Ein Zen 2 Chiplet hat gerade mal 51,2GB/s* an Bandbreite zum IOD, also 1/10 von dem was wir für unsere GPU bräuchten.
Fazit: Wenn MCM, dann müssen die GPUs zusammen auf einem Interposer sitzen und darüber kommunizieren. Anders bekommt man die Bandbreite nicht hin. Wenn man aber eh schon einen Interposer braucht, wäre es aber auch naheliegend gleich HBM zu benutzen.
* bei 3200Mhz RAM-Takt
MCM wäre sowas wie die ersten Threadripper. Die hatten zwei 8C-Dies mit jeweils Dual-Channel, was insgesamt 16C und Quadchannel ergab. Der Haken ist natürlich, dass jeder Chip nur auf die Hälfte des Speichers direkt zugreifen kann, die andere Hälfte muss er über den anderen Chip anfragen, was Unmengen an Traffic erzeugt.
Rechenbeispiel: Zwei GPUs mit 256Bit SI und 16Gbps GDDR6, also 512GB/s Speicherbandbreite. Addiert wären das 1TB/s. Beide GPUs greifen willkürlich auf den Speicher zu wie oben beschrieben. Dann liefert "VRAM1" 256GB/s an GPU1 und 256GB/s an GPU2 (hat ja insgesamt 512GB/s). VRAM2 macht das gleiche. Das ergibt folgende Datentransfers:
VRAM1 -> GPU1: 512GB/s (einmal 256GB/s für sich selbst, einmal 256GB/s für GPU2)
VRAM2 -> GPU2: 512GB/s (s.o.)
GPU1 -> GPU 2: 256GB/s (die Daten aus VRAM1 können nicht direkt zu GPU2)
GPU2 -> GPU 1: 256GB/s
D.h. zusätzlich zu 2x256bit SI müsste man noch eine weitere 256bit-Leitung zwischen GPU1 und GPU2 legen, damit die 512GB/s zwischen den GPUs irgendwie transportiert werden können. Damit hätte jede GPU aber 512 Datenleitungen! Und das muss auch noch übers PCB geroutet werden. Zum Vergleich: Ein Zen 2 Chiplet hat gerade mal 51,2GB/s an Bandbreite zum IOD, also 1/10 von dem was wir für unsere GPU bräuchten.
Fazit: Wenn MCM, dann müssen die GPUs zusammen auf einem Interposer sitzen und darüber kommunizieren. Anders bekommt man die Bandbreite nicht hin. Wenn man aber eh schon einen Interposer braucht, wäre es aber auch naheliegend gleich HBM zu benutzen.
Danke für die sehr ausführliche Aufklärung :smile:
https://mobile.twitter.com/_rogame
Project Toledo
This was Xbox Series X APU
why_me
2020-09-10, 18:52:48
Fazit: Wenn MCM, dann müssen die GPUs zusammen auf einem Interposer sitzen und darüber kommunizieren. Anders bekommt man die Bandbreite nicht hin. Wenn man aber eh schon einen Interposer braucht, wäre es aber auch naheliegend gleich HBM zu benutzen.
Oder EMIB + GDDR :wink:
Wobei ich eher denke, dass wenn es eine MCM GPU gibt, dann mit zusätzlichem IO-Die, an dem der Speicher angebunden ist.
2 Dies mit jeweils eigenen Speicher Chips gibt doch Probleme mit der unterschiedlichen Latenz und Lokalität der Daten, oder?
Der_Korken
2020-09-10, 19:22:11
Oder EMIB + GDDR :wink:
Wobei ich eher denke, dass wenn es eine MCM GPU gibt, dann mit zusätzlichem IO-Die, an dem der Speicher angebunden ist.
2 Dies mit jeweils eigenen Speicher Chips gibt doch Probleme mit der unterschiedlichen Latenz und Lokalität der Daten, oder?
Hat AMD Zugriff auf EMIB? Das war ja so ein Intel-Ding.
Und ja, die Latenzen werden unterschiedlich und generell im Schnitt höher. Ob das für GPUs so schlimm wie für CPUs ist, weiß ich nicht. Eher nein, weil die Dinge Bandbreite brauchen und teilweise Speicheranfragen zurückhalten und bündeln, um die Bandbreite besser auszunutzen (auf Kosten der Latenz).
Edit: Was eventuell helfen würde, wäre, wenn man die Daten so auf die VRAM-Hälften verteilt, dass in VRAM1 eher Daten für GPU1 liegen und in VRAM2 eher Daten für GPU2. Wenn GPU1 z.B. im Schnitt 80% der Daten im eigenen Speicher findet und nur 20% im anderen, könnte man Verbindung zwischen den GPUs auf 1/4 der Speicherbandbreite reduzieren. Ich weiß nur nicht, ob sowas a) überhaupt theoretisch funktionieren kann (oder viele Daten nicht eh von beiden GPUs gebraucht werden) und b) wie man das implementiert, denn der Anwendung muss man in unserem Beispiel hier einen 16GB großen uniformen VRAM präsentieren, während die tatsächlichen physischen Adressen von Objekten im Speicher dann intern anders gemappt werden. Aber ich glaube ich schweife ab ...
why_me
2020-09-10, 19:34:25
EMIB nicht direkt, aber etwas vergleichbares Patentiert. Muss mal schauen, ob ich den link dazu noch finde.
@Gedi: EMIB = Embedded interposer von Intel, das sind kleine Interposer, die im Substrat eingebettet. Dadurch kann man zwischen zwei Chiplets eine schnelle, energiesparende Verbindung herstellen und benötigt keinen Interposer, der so groß wie beide Chiplets ist. Einfach mal etwas googlen.
Um was handelt es sich hier generell?
Elite_Warrior
2020-09-10, 19:40:18
https://mobile.twitter.com/_rogame/status/1304095941352398848
Hmm...
Keine Ahnung wie da die Konsolen Treiber wohl sind.
Gemessen an Time Spy Extreme Werten von OC3D https://www.overclock3d.net/reviews/gpu_displays/amd_radeon_rx_5700_and_rx_5700_xt_review/22
XBSX vs 5700XT:
4373 <-> 3753
52 CU <-> 40CU
12,15 Tflops <-> 9,75 Tflops (Damit wäre die 5700XT komplett im Boost)
macht
359,9 <-> 381,7
Time Spy Score per Teraflops
€:
Merkwürdig, habe die Extreme Scores genommen weil die so ziemlich passen. Auch von der CPU her aber auf dem Screenshot sehe ich kein Extreme oO
Weißt du wie hoch die XBX-GPU hier boostet? Von daher meh
Es ist ja keine typische XBO-Anwendung. Es würde mich aufgrund der Last wundern wenn wesentlich mehr als 1G anliegen würden
Elite_Warrior
2020-09-10, 19:51:39
Im Gegensatz zur PS5 ist der GPU Takt fest. Der liegt bei 1,825GHz
Im Gegensatz zur PS5 ist der GPU Takt fest. Der liegt bei 1,825GHz
Nach unten gibbet sicher Pstates. Bei Movies mit HDR ... Hier liegt sicher nicht die volle Last an
why_me
2020-09-10, 20:42:15
Hat AMD Zugriff auf EMIB? Das war ja so ein Intel-Ding.
Gefunden, wie gesagt, Patent vergleichbar zu EMIB:
https://patentimages.storage.googleapis.com/54/35/51/2f824f41e66f3f/US20180102338A1.pdf
Complicated
2020-09-10, 21:06:36
Dazu 2x8pin Strom (oder 8pin+6pin), das deutet durchaus auf N21 hin.Das Polaris ES-Board hatte auch 2x8-Pin IIRC.
Hat AMD Zugriff auf EMIB? Das war ja so ein Intel-Ding.
EMIB nicht direkt, aber etwas vergleichbares Patentiert. Muss mal schauen, ob ich den link dazu noch finde.
TSMC bietet da auch interessantes im Packaging, Apple wird es schon nutzen in 5nm:
https://forum.planet3dnow.de/index.php?threads/amd-interposer-strategie-zen-fiji-hbm-und-logic-ics.422600/post-5298874
https://forum.planet3dnow.de/proxy.php?image=https%3A%2F%2Fimages.anandtech.com%2Fdoci%2F16051%2FCoWoS.jpg&hash=dcf08595e6d6dd6af76da64da596b5f1
As part of TSMC’s 2020 Technology Symposium, the company has now teased further evolution of the technology, projecting 4x reticle size interposers in 2023, housing a total of up to 12 HBM stacks.
Although by 2023 we’re sure to have much faster HBM memory, a 12-stack implementation with the currently fastest HBM2E such Samsung's Flashbolt 3200MT/s or even SKHynix's newest 3600MT/s modules would represent at least 4.92TB/s to 5.5TB/s of memory bandwidth, which is multitudes faster than even the most complex designs today.
Complicated
2020-09-10, 21:13:13
Gefunden, wie gesagt, Patent vergleichbar zu EMIB:
https://patentimages.storage.googleapis.com/54/35/51/2f824f41e66f3f/US20180102338A1.pdf
Mit dem großen Unterschied, das diese Interconnect TSVs habe und eigentlich selber aktive Chips sein können. z:b. könnte anstatt des EMIB ein vollständiges IO-Die genutzt werden der über TSV gestacked wird. So wie es bei HBM der Logic-Die unten im Stapel macht und die DDR-Slices mit dem Interposer verbindet.
So könnte ein GPU-Chip völlig ohne SI designed werden und das komplette SI, das sich schlecht skalieren lässt in einer günstigen Fertigung einfach unter den GPU-Chip geschnallt werden.
amdfanuwe
2020-09-10, 21:27:36
Anandtech hat da auch eine nette Zusammenfassung zu TSMCs "3D-Fabrik"
https://www.anandtech.com/show/16051/3dfabric-the-home-for-tsmc-2-5d-and-3d-stacking-roadmap
BoMbY
2020-09-10, 21:33:30
Hat AMD Zugriff auf EMIB? Das war ja so ein Intel-Ding.
Ja, immer noch (https://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm).
Aber wie andere schon sagten haben die auch selbst was dafür. Bridge Chiplets:
https://www.freepatentsonline.com/20180102338.pdf
basix
2020-09-11, 00:16:06
ich kratze mich gerade am kopf und frage mich wie man mit 256bit was reißen will und ihr redet von 3080/3090 performance:freak:
ich sehe auf den bildern eine mid/highend card mit einem stromverbrauch(siehe vrm) ausserhalb der komfortzone. aber hey, das ist ja jetzt standard^^
Völlig anderer Kontext ;)
~3080 Performance erhält man mit 300W @ 1.5x Energieffizienz. 256b zeigt der Leak mit der Karte, welcher angeblich BigNavi sein soll. Bei 256b aber sehr unwahrscheinlich. Und bei R&D Boards sind VRM immer überdimensioniert.
prinz_valium_2
2020-09-11, 00:34:24
Hmm...
Keine Ahnung wie da die Konsolen Treiber wohl sind.
Gemessen an Time Spy Extreme Werten von OC3D https://www.overclock3d.net/reviews/gpu_displays/amd_radeon_rx_5700_and_rx_5700_xt_review/22
XBSX vs 5700XT:
4373 <-> 3753
52 CU <-> 40CU
12,15 Tflops <-> 9,75 Tflops (Damit wäre die 5700XT komplett im Boost)
macht
359,9 <-> 381,7
Time Spy Score per Teraflops
€:
Merkwürdig, habe die Extreme Scores genommen weil die so ziemlich passen. Auch von der CPU her aber auf dem Screenshot sehe ich kein Extreme oO
Eher 56 CUs
BlacKi
2020-09-11, 05:37:19
Völlig anderer Kontext ;)
~3080 Performance erhält man mit 300W @ 1.5x Energieffizienz. 256b zeigt der Leak mit der Karte, welcher angeblich BigNavi sein soll. Bei 256b aber sehr unwahrscheinlich. Und bei R&D Boards sind VRM immer überdimensioniert.
also doch +- performance card, kein highend.
Hübie
2020-09-11, 07:52:49
AMD ist seit über 8 Quartalen nicht mehr spät dran mit irgend etwas - Sie richten sich einfach nicht nach Nvidia mit Ihren Produktlaunches.Das nennt sich Unternehmensstrategie und ihr redet von einzelner Produktstrategie. Die muss manchmal eben an das große ganze angepasst werden. Sowohl bei Launchtermien von großen Partnern, wie auch bei Wafer-Knappheit bei bestehenden Lieferverträgen.
Edit: Das weiss auch Nvidia und sucht sich entsprechend den für Sie besten Launchtermin aus. Da sie nur GPUs vermarkten müssen bei Consumern haben sie da einen Vorteil und Flexibilität.
Wenigstens einer der nicht herum fantasiert und mal aufzeigt wie es wirklich ist. :up:
Ich lach mich teilweise scheckig, über die Äußerungen wie man doch bitte schön das Marketing hochzuziehen hat. Warum haben die Personen dann nicht den Job bei AMD? :uponder:
Elite_Warrior
2020-09-11, 09:57:22
Eher 56 CUs
Physikalisch ja, aber sind teildeaktiviert.
mksn7
2020-09-11, 10:43:47
MCM wäre sowas wie die ersten Threadripper. Die hatten zwei 8C-Dies mit jeweils Dual-Channel, was insgesamt 16C und Quadchannel ergab. Der Haken ist natürlich, dass jeder Chip nur auf die Hälfte des Speichers direkt zugreifen kann, die andere Hälfte muss er über den anderen Chip anfragen, was Unmengen an Traffic erzeugt.
Rechenbeispiel: Zwei GPUs mit 256Bit SI und 16Gbps GDDR6, also 512GB/s Speicherbandbreite. Addiert wären das 1TB/s. Beide GPUs greifen willkürlich auf den Speicher zu wie oben beschrieben. Dann liefert "VRAM1" 256GB/s an GPU1 und 256GB/s an GPU2 (hat ja insgesamt 512GB/s). VRAM2 macht das gleiche. Das ergibt folgende Datentransfers:
VRAM1 -> GPU1: 512GB/s (einmal 256GB/s für sich selbst, einmal 256GB/s für GPU2)
VRAM2 -> GPU2: 512GB/s (s.o.)
GPU1 -> GPU 2: 256GB/s (die Daten aus VRAM1 können nicht direkt zu GPU2)
GPU2 -> GPU 1: 256GB/s
D.h. zusätzlich zu 2x256bit SI müsste man noch eine weitere 256bit-Leitung zwischen GPU1 und GPU2 legen, damit die 512GB/s zwischen den GPUs irgendwie transportiert werden können. Damit hätte jede GPU aber 512 Datenleitungen! Und das muss auch noch übers PCB geroutet werden. Zum Vergleich: Ein Zen 2 Chiplet hat gerade mal 51,2GB/s* an Bandbreite zum IOD, also 1/10 von dem was wir für unsere GPU bräuchten.
Fazit: Wenn MCM, dann müssen die GPUs zusammen auf einem Interposer sitzen und darüber kommunizieren. Anders bekommt man die Bandbreite nicht hin. Wenn man aber eh schon einen Interposer braucht, wäre es aber auch naheliegend gleich HBM zu benutzen.
* bei 3200Mhz RAM-Takt
Dieses Modell (wie der erste Epyc) ist auch mein Favorit, und die gleiche Rechnung hab ich auch schonmal aufgestellt.
Was ich noch interessant finde, was es für Möglichkeiten noch etwas Lokalität heraus zu kitzeln. Wenn der Speicher nicht voll belegt ist, könnte man Texturen (read-only) in beiden Speicherhälften duplizieren. Beim Framebuffer geht da bestimmt auch was, ein gewisses Binning wird ja sowieso gemacht.
Vielleicht handelt es sich aber eben doch nur um N22 oder N23 XT. Ich meine, was will ich denn mit dem CPU-Lüfter gut testen? Bei ner GPU könnte ich mir vorstellen, dass der Kühler max. 150W halbwegs abführen kann.
Das ist das Testboard von N22. Es ist ja davon auszugehen, dass auch N22 mit den Customs startet, das passt doch sehr gut.
Der Große hat mit an Sicherheit grenzender Wahrscheinlichkeit 384Bit, das sollte mittlerweile absolut klar sein.
Cyberfries
2020-09-11, 11:23:59
Das Polaris ES-Board hatte auch 2x8-Pin IIRC.
Jo, aber wesentlich weniger VRMs.
Ich meine, was will ich denn mit dem CPU-Lüfter gut testen?
So schwach sind CPU-Lüfter nicht. Bei einem Intel i9 oder einem AMD FX sind das deutlich über 200w, HEDT dann im Bereich 300w.
Ram und VRMs gehen da auch nochmal extra über diesen silbernen Aufbau, bei N10 war GPU allein 180w, bei 225w gesamt.
.....grob eine Fläche von 320-360mm² einnimmt. Dies würde augenfällig gut zu "Navi 22" passen,.....
Heutige 3DC-News. 360mm² für N22? Also gleich groß wie die xBox
mit 2 Zen2-CCX, zusätzlichen Speicherinterfaces und allem was sonst noch extra dazu kommt? Soso...
AlterSack
2020-09-11, 11:24:24
Das ist das Testboard von N22. Es ist ja davon auszugehen, dass auch N22 mit den Customs startet, das passt doch sehr gut.
Der Große hat mit an Sicherheit grenzender Wahrscheinlichkeit 384Bit, das sollte mittlerweile absolut klar sein.
Hm, an16GB für den Mittleren glaub ich nicht so recht.
256 bit für den Grossen wäre auch mau. Klar ist hier garnichts.
https://twitter.com/_rogame/status/1304034241525747713
Da habt ihr euchen Navi21 mit HBM (XTA) für Apple :biggrin:
Gerücht!!!!!
Complicated
2020-09-11, 11:33:01
Das hat er doch im Juli speukuliert und jetzt revidiert als Update wenn ich das richtig interpretiere.
Aus dem XTA D-4171_ ist GL-XL geworden für D-417_
Ich interpretiere den Unterstrich als Platzhalter
XTX ist ganz verschwunden
Hm, an16GB für den Mittleren glaub ich nicht so recht.
256 bit für den Grossen wäre auch mau. Klar ist hier garnichts.
Wenn AMD jetzt 16Gb-Chips verwendet sind das halt 16GB. Sei doch froh. Wieso glaubt man das nicht? Macht NV mit der 3070Ti doch auch... Damit tritt man NV auf jeden Fall ordentlich in den Allerwertesten, wenn 16GB jetzt standard sind.
Complicated
GL ist doch Radeon Pro.
prinz_valium_2
2020-09-11, 12:01:53
Physikalisch ja, aber sind teildeaktiviert.
Aber bei den ES wird man wohl die vollen chips testen, so wie sie auch in den dev kits sind.
Aber das ist das Problem bei den ganzen leaks. Man weiß es nie genau.
Leonidas
2020-09-11, 12:24:06
https://pbs.twimg.com/media/Ehkpoj9WoAIea9t?format=jpg
w0mbat
2020-09-11, 12:36:41
Und plötzlich ist ein launch ein paar Wochen nach Nvida "viel zu spät".
Wie wenn AMD und Nvidia immer zur gleichen Zeit launchen würden :ugly:
Achill
2020-09-11, 12:44:54
https://mobile.twitter.com/_rogame
Project Toledo
This was Xbox Series X APU
Eher 56 CUs
also doch +- performance card, kein highend.
Der originale Reddit-Post spekuliert über die XBoxS ... im Twitter-Post wird es dann zur XBoxX
New Unknown APU | Xbox Series S APU ? | AMD FireFlight APU/ Subor Z+ successor ?
[..]
Neben der Performance spricht m.E. die ausgelesene 512 GB SSD (laut Leos Post zu den Spezifikationen der neuen XBox Modelle) eher für S und nicht zur X. Es könnte aber auch eine andere APU sein wie z.B. für die neuen Google-Chrome-Books, wie Igor spekuliert hat.
Dino-Fossil
2020-09-11, 12:49:53
Ich hab's ja schon mal so ähnlich gesagt - AMD wird inzwischen jegliche eigene Agenda abgesprochen. Es wird ALLES im Hinblick auf nVidia betrachtet. :freak:
Entwicklung der GPUs - AMD reagiert in den Köpfen der Leute nur auf nVidia, alle ihre Chips werden/wurden offensichtlich an nVidia ausgerichte, eigene Ziele hat man nichtt.
Roadmaps - entweder AMD kommt kurz vor oder besser zeitgleich zu nVidia, oder sie sind offenbar schon wieder zu spät dran, denn es weiß doch jeder, dass GPUs nur zu den Zeitpunkten gelauncht werden, an denen nVidia das macht.
Wenn nVidia eines besonders gut fertig gebracht hat in den letzten 10 Jahren, dann ist es die Entwicklung eines extremen mindshare.
Dabei ist die Ampere-Generation nicht mal wirklich gut... Mit den Stromverbräuchen und den geringen Speichermengen wird sich der ein oder andere noch umgucken. >300W ist eben problematisch für die meisten PC-Konfigurationen. Ne 3080 ist noch mal ne andere Liga als die meisten Vegas, das macht sich heute keiner mehr Klar in dem ganzen Hype-Schwachsinn.
BoMbY
2020-09-11, 13:15:09
Last RDNA 2 tidbit I'll reveal today on twitter. I was told that AMD definitely will be putting Nvidia on notice on Performance Per Dollar.
I also now understand AMD's claims on "Breakthrough Gaming Architecture"
https://twitter.com/RedGamingTech/status/1304374784080441344
Will wohl später ein Video mit den Informationen veröffentlichen (was sonst).
M4xw0lf
2020-09-11, 13:21:52
https://twitter.com/RedGamingTech/status/1304374784080441344
Will wohl später ein Video mit den Informationen veröffentlichen (was sonst).
Das ist doch auch so ein Gewäsch-Account, wie AdoredTV in grün einem anderen Rotton.
BoMbY
2020-09-11, 13:25:24
Ja natürlich besteht immer eine Chance dass es zu 100% BS ist. Aber da es bisher nichts konkretes gibt, könnte ein wenig positiver BS zur Abwechslung nicht schaden ...:wink:
Redneck
2020-09-11, 14:05:28
https://twitter.com/RedGamingTech/status/1304374784080441344
Will wohl später ein Video mit den Informationen veröffentlichen (was sonst).
oh Gott... hatte ich mir einmal ansatzweise angefangen die letzten beiden Videos von denen anzuschauen ... so viel Geschwafel um heisse Luft.. nichts, aber wirklich gar nichts konkretes. Spart euch die Zeit. Frage mich wozu man angeblich Quellen hat, wenn es doch wieder nur Gesülze ist was breitgetreten wird.. Aktuell nur Click Bait
basix
2020-09-11, 14:17:18
Japp. Habe auch das letzte Video von gestern geschaut. Null neue Info in 13min, einfach die letzten Gerüchte nachgeplappert. Aber vorher gross ankündigen, man hätte was neues.
Jo, hatte auch gestern mit Spannung das RGT Video angeschaut, nur Gelaber ..
Speichersituation bestätigt, Leistungsinformation solider, was auch immer das heißt...
rogame
@_rogame
·
Navi21 GL-XL => D417__
Navi21 XTX => D4120_
Navi21 XT => D41205
Navi21 XL => D41401
Navi22 __ => D51201
Navi22 __ => D51101
Sunrise
2020-09-11, 15:02:05
Navi21 GL-XL => D417__
Navi21 XTX => D4120_
Navi21 XT => D41205
Navi21 XL => D41401
Also eine Pro-N21 SKU, dann die übliche, nochmal leicht geprügelte (bzw. bessere Bins) Special Edition, die “Standard”-SKU und die deaktivierte...
Irgendwie sind alle Informationen/Leaks voller Wiederholungen aber wirklich spezialisierte Informationen absolute Fehlanzeige.
Dadurch, dass AMD hier wohl erstmal nur Referenz bringt, sickert wohl erst wieder etwas durch, wenn AMD das bewusst möchte.
Ich habe ja immernoch so ein Gefühl, dass es eine Überraschung gibt...
Jo, es muss eine Überraschung geben, sonst wäre alles arg langweilig.....
Flinx
2020-09-11, 16:03:32
So "stark" ist der grüne Konkurent...
https://videocardz.com/newz/nvidia-geforce-rtx-3080-synthetic-and-gaming-performance-leaked
In etwa so schnell wie ne Ti mit 360W. Sollte doch locker zu schaffen sein.
BoMbY
2020-09-11, 16:57:21
Naja, alles ab der 3080 lohnt sich wirklich nur für 4K-Gaming. Das gleiche wird sicher auch für Navi wahr sein, abgesehen davon dass jetzt noch RT unterstützt wird.
Jetzt müsste es nur noch ein ordentliches 4K-Display für mich geben ...
Wenn an Benches etwas wahres dran sein sollte und ich mir so ne 6800XT mit 56 CUs und entsprechendem Takt mit 275W so vorstelle. Sieht in etwa nach pari aus.
Jo, hatte auch gestern mit Spannung das RGT Video angeschaut, nur Gelaber ..
Speichersituation bestätigt, Leistungsinformation solider, was auch immer das heißt...
rogame
@_rogame
·
Navi21 GL-XL => D417__
Navi21 XTX => D4120_
Navi21 XT => D41205
Navi21 XL => D41401
Navi22 __ => D51201
Navi22 __ => D51101
Der erste Chip = Apple mit HBM
Die XTX mit HBM
Die XT mit Gddr6
Die XL natürlich auch
Somit zumindest ist N21 MCM für mich confirmed. Die XTX wird wohl die 3090 ordentlich aufmischen.
Langlay
2020-09-11, 18:28:01
Der erste Chip = Apple mit HBM
Die XTX mit HBM
Die XT mit Gddr6
Die XL natürlich auch
Somit zumindest ist N21 MCM für mich confirmed. Die XTX wird wohl die 3090 ordentlich aufmischen.
Es wird nicht keinen Navi21 mit GDDR6 und einen anderen Navi21 mit HBM geben. Endweder HBM oder GDDR6. Alles andere macht imo keinen Sinn.
Mit MCM wohl weniger ein Problem da immer ein Interposer im Einsatz ist. Zudem: Die XBOX Variante mit 52 CUs misst gerade mal 190mm^2, obwohl 56CUs. N10 251mm^2 mit 40 CUs?! Der Fertigungsprozess je 7nm
Berniyh
2020-09-11, 18:40:48
Es wird nicht keinen Navi21 mit GDDR6 und einen anderen Navi21 mit HBM geben. Endweder HBM oder GDDR6. Alles andere macht imo keinen Sinn.
Stimmt, wobei es prinzipiell möglich wäre, dass Navi 24 eine HBM2-Variante von Navi 21 ist.
Das könnte auch erklären, warum der Chip relativ spät aufgetaucht ist.
Ich persönlich bin aber von den aktuellen Gerüchten bzgl. 256 Bit GDDR6 bei Navi 22 und (daraus folgend) 384 Bit GDDR6 bei Navi 21 noch nicht so wirklich überzeugt und denke (bzw. eher "hoffe"), dass Navi 21 mit HBM2 kommt.
Letztendlich, wenn Navi 21 "nur" GDDR6 hat, dann sehe ich eigentlich keinen wirklichen Grund zum wahrscheinlich deutlich teureren Top-Modell zu greifen. Da würde ich dann wohl eher was auf Basis von Navi 22 nehmen und lieber in 1-2 Jahren wieder upgraden.
AlterSack
2020-09-11, 18:48:56
richte ich mich nach diesem artikel https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-10-september-2020 , wonach N22 256bit gddr6 verwenden wird und für N21 somit gddr-mässig nur 512bit in frage kämen
...und somit gleich 24 gb vram bzw. hbm2, fände ich die vernünftigste lösung 16gb hbm2. ist technisch die sauberste und wahrscheinlich auch nicht teurer als 512bit gddr6 (8gb mehr+aufwendigeres board+grössere chipfläche vs. evtl. interposer+höherer gb-preis bei hbm2).
Langlay
2020-09-11, 18:51:25
Mit MCM wohl weniger ein Problem da immer ein Interposer im Einsatz ist. Zudem: Die XBOX Variante mit 52 CUs misst gerade mal 190mm^2, obwohl 56CUs. N10 251mm^2 mit 40 CUs?! Der Fertigungsprozess je 7nm
Wenn ich eh einen Interposer benutze, würde ich bei einem hochpreisigen Produkt gleich auf HBM gesetzen. Dort dann noch irgendwelchen Hirnschmalz und Geld in das gleiche Produkt zu investieren nur damit ich dieses Produkt verschlimmbessere nur damit es in der Fertigung ein paar $ billiger ist. Das seh ich nicht.
Ich persönlich bin aber von den aktuellen Gerüchten bzgl. 256 Bit GDDR6 bei Navi 22 und (daraus folgend) 384 Bit GDDR6 bei Navi 21 noch nicht so wirklich überzeugt und denke (bzw. eher "hoffe"), dass Navi 21 mit HBM2 kommt.
Letztendlich, wenn Navi 21 "nur" GDDR6 hat, dann sehe ich eigentlich keinen wirklichen Grund zum wahrscheinlich deutlich teureren Top-Modell zu greifen. Da würde ich dann wohl eher was auf Basis von Navi 22 nehmen und lieber in 1-2 Jahren wieder upgraden.
Das seh ich ähnlich, ich hätte schon gerne wieder eine Karte mit HBM.
Wenn der Aufpreis Netto mehr als 300€ wären? Ich weiß nicht. Es geht hier ja nicht nur um NV, sondern um die eindeutige Abgrenzung innerhalb des eigenen Portfolios.
Langlay
2020-09-11, 18:57:51
richte ich mich nach diesem artikel https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-10-september-2020 , wonach N22 256bit gddr6 verwenden wird und für N21 somit gddr-mässig nur 512bit in frage kämen
...und somit gleich 24 gb vram bzw. hbm2, fände ich die vernünftigste lösung 16gb hbm2. ist technisch die sauberste und wahrscheinlich auch nicht teurer als 512bit gddr6 (8gb mehr+aufwendigeres board+grössere chipfläche vs. evtl. interposer+höherer gb-preis bei hbm2).
Mit einem 512Bit Interface bekommt man 24GB VRAM nicht vernünftig hin. 16 oder 32GB wären dort die sinnvollen Grössen. Bei 384Bit wären 24GB vernünftig möglich.
Aber wie hier schon mehrmals erzählt glaube ich nicht unbedingt an 512Bit speicherinterface weil sich 16 Memorychip + VRM + PCI-E Anbindung auf einem PCB nunmal schwierig gestaltet und ich nicht glaube das man mit 512Bit Interface wenn man es hingefummelt bekommt viel gewinnt gegenüber eines schnellen 384Bit Interface.
Wenn der Aufpreis Netto mehr als 300€ wären? Ich weiß nicht. Es geht hier ja nicht nur um NV, sondern um die eindeutige Abgrenzung innerhalb des eigenen Portfolios.
Vor 3 Jahren konnte AMD einen Chip + 2 Stacks HBM2 für 400€ angebieten. Ich verstehe daher nicht wieso die Leute glauben es sei für AMD in 2020 nicht wirtschaftlich einen Chip + 2 Stacks HBM2E für 700$+ anzubieten.
Und wenn der Chip eh MCM mit Interposer ist(die du scheinbar glaubst), macht das setzen auf GDDR6 noch weniger Sinn. Wozu dann GDDR6 nehmen, damit die Karte in der Fertigung ein paar Dollar billiger ist, dafür aber schlechtere Performance/Watt liefert. Hört sich für mich nicht nach einer guten Idee an Geld in die Hand zu nehmen um ein Produkt schlechter zumachen nur damit ich in der Fertigung 3$ spare.
Weil es zwischen 700€ und 1500€ einfach nichts gibt?
Zudem: Wann gab es bei AMD zuletzt ne XTX? Man muss sich sehr sicher sein
Langlay
2020-09-11, 19:13:02
Weil es zwischen 700€ und 1500€ einfach nichts gibt?
Je teurer das Produkt je weniger Sinn macht es 2 gleisig beim gleichen Chip zu fahren, weil die Stückzahlen sinken. Ich muss ja die Kosten für die Entwicklung & Herstellung dann auch irgendwann wieder Reinfahren. Und wenn die Stückzahlen gering sind wird das halt schwierig.
Je teurer das Produkt je weniger Sinn macht es 2 gleisig beim gleichen Chip zu fahren, weil die Stückzahlen sinken. Ich muss ja die Kosten für die Entwicklung dann auch irgendwann wieder Reinfahren. Und wenn die Stückzahlen gering sind wird das halt schwierig.
Alles richtig, nur so ganz dumm sind se bei AMD halt auch nimmer (hoffe ich). Ob meine Meinung Bestätigung findet - we will see.
Ich finde es dieses Mal auf jeden Fall kuschelig spannend was da kommt.
Iscaran
2020-09-11, 20:19:10
Mit MCM wohl weniger ein Problem da immer ein Interposer im Einsatz ist. Zudem: Die XBOX Variante mit 52 CUs misst gerade mal 190mm^2, obwohl 56CUs. N10 251mm^2 mit 40 CUs?! Der Fertigungsprozess je 7nm
Woher stammt die Info das die XBX nur 190 mm^2 (GPU only) ist.
Das wäre ja gerade mal die Hälfte des gesamten ca 350 mm^2 Chips...und bisher gingen die Gerüchte davon aus daß der CPU Teil gerade mal 100 mm^2 ausmacht und nicht 160 mm^2.
Das Bildchen gibbet auf Twitter
Cyberfries
2020-09-11, 20:24:03
Die 190mm² werden der xBox Series S zugeordnet - die mit 20 CUs für 299,99€.
Da hat gedi sich verlesen.
Die Series X liegt bei 360,4mm², wovon der GPU-Teil wohl so 280-320mm² beträgt.
edit: Die 190mm² sind beeindruckend klein, N14 liegt bei 158mm² mit 24CUs.
Aber eigentlich ist das hier der falsche Thread, wurde das im Konsolenfaden schon diskutiert?
edit2: https://twitter.com/_rogame/status/1303745295382126594?s=21
Ist die XBX GPU mit 56 CUs (52 aktiv)
Deshalb steht ja auch oben Series S. Lesekompetenz und so.
Linmoum
2020-09-11, 20:28:27
Woher stammt die Info das die XBX nur 190 mm^2 (GPU only) ist.Nicht ganz 190mm², aber:
Starting off with a bang, while we've known Xbox Series X would have an 8-core/16-thread Zen 2 CPU and a 52 CU GPU, this is the first time we've seen the full die shot. That GPU section is, not surprisingly, massive. The full chip is 360.4mm square, with 15.3 billion transistors. Doing some quick image analysis, the GPU takes up roughly half of the die (47.5% if you want a more precise estimate).https://www.tomshardware.com/news/microsoft-xbox-series-x-architecture-deep-dive
https://twitter.com/_rogame/status/1303745295382126594?s=21
Ist die XBX GPU mit 56 CUs (52 aktiv)
Sorry, ist die XBO S Variante. Tut mir leid
Somit sollte, wenn meine Annahme stimmt, die große XBOX 266mm^2 erhalten.
Vielleicht etwas weniger, wenn se das SI ausgelagert haben.
[MK2]Mythos
2020-09-11, 21:02:59
Aus dem neusten RedGamingTech Video:
- RDNA2 Performance per Watt Improvement around 60%
- no hbm2
- no 512bit SI
- 16Gb VRam GDDR6
- 128MB Infinity Cache auf der GPU
- hohe Taktrate ~2200Mhz
- 80CU Big Navi
- 3 GPUS insgesamt
- 6700 auf RTX3070 Niveau
- 6800 auf RTX3080 Niveau
- 6800XT auf Niveau einer potenziellen RTX3080Ti (lol?)
- 6900 auf RTX3090 Niveau
- Raytracing wie bei Konsolen und auf Turing Niveau
- Der Typ ist komisch und für mich sind das einfach ein paar bisher aufgepickte Gerüchte mit ein bisschen Quatsch. Nothing to see here.
https://www.youtube.com/watch?v=RYV4muLkbss
Piefkee
2020-09-11, 21:04:57
RedgamingTech behauptet exklusive (ich weis es ist Unsinn aber dennoch zum diskutieren)
Navi21 hat einen „Infinity Cache“ mit 128MB 😂 damit man mit weniger Bandbreite zurecht kommt.
Performance soll gleich sein wie NV (RTX aber nicht )
BoMbY
2020-09-11, 21:18:31
Naja, schon sehr unwahrscheinlich, aber nicht unmöglich. Wenn die Chip-Größe von 505 mm² stimmt wohl eher nicht.
mboeller
2020-09-11, 21:27:45
Mythos;12422305']Aus dem neusten RedGamingTech Video:
- no hbm2
- no 512bit SI
- 16Gb VRam GDDR6
passt nicht, außer wenn BigNavi wirklich nur ein 256bit Speicherinterface hat. Und das glaube ich nicht. Wenn doch müsste AMD einen extrem effizienten Komprimierungsalgo gefunden haben. So was wie bei der PS5, nur so schnell dass es auch noch bei DRAM-Geschwindigkeit funktioniert. Das ist IMHO unrealistisch.
BoMbY
2020-09-11, 21:32:48
Außer natürlich das ist was mit dem X3D-Packing gemeint war beim FAD? Vielleicht trägt Navi21 ja seinen Cache Huckepack? ;D
Linmoum
2020-09-11, 21:36:31
Redgamingtech gehörte damals auch zu der 5GHz-Zen2-Fraktion. Wahrscheinlich mit immer noch denselben Quellen. ;D
Berniyh
2020-09-11, 21:37:32
Wenn der Aufpreis Netto mehr als 300€ wären? Ich weiß nicht. Es geht hier ja nicht nur um NV, sondern um die eindeutige Abgrenzung innerhalb des eigenen Portfolios.
Also meinst du die Vega 64 hätte mit GDDR6 200€ gekostet? Also ich weiß nicht …
Piefkee
2020-09-11, 21:39:22
passt nicht, außer wenn BigNavi wirklich nur ein 256bit Speicherinterface hat. Und das glaube ich nicht. Wenn doch müsste AMD einen extrem effizienten Komprimierungsalgo gefunden haben. So was wie bei der PS5, nur so schnell dass es auch noch bei DRAM-Geschwindigkeit funktioniert. Das ist IMHO unrealistisch.
256Bit on way
54CU in der XBX hängen an 320bit
80 CUs an 256?? 😂😂😅
Selektierte GPU, AIO, HBM2 ....
passt nicht, außer wenn BigNavi wirklich nur ein 256bit Speicherinterface hat. Und das glaube ich nicht. Wenn doch müsste AMD einen extrem effizienten Komprimierungsalgo gefunden haben. So was wie bei der PS5, nur so schnell dass es auch noch bei DRAM-Geschwindigkeit funktioniert. Das ist IMHO unrealistisch.
Schon, gab es aber nicht bereits so ne Konstellation? Brings jetzt nimmer zusammen, aber war es bei RIMM nicht ähnlich?
mboeller
2020-09-11, 21:46:54
256Bit on way
54CU in der XBX hängen an 320bit
80 CUs an 256?? 😂😂😅
sag ich ja...
nur 384bit + 16GB passen halt nicht zusammen.
Piefkee
2020-09-11, 21:53:32
sag ich ja...
nur 384bit + 16GB passen halt nicht zusammen.
Jap..
Aber ich wollte damit nur aussagen das BIg Navi nicht 256Bit Interface hat...
sag ich ja...
nur 384bit + 16GB passen halt nicht zusammen.
DAU Frage: Könnte es sein, dass über nen Interposer aus den 256-Bit nicht 1G werden?
BoMbY
2020-09-11, 21:57:17
Hmm ... Metadata Cache (https://www.freepatentsonline.com/20200104262.pdf)?
robbitop
2020-09-11, 22:03:13
Also mit 128 MiB Cache würde man schon eine ganze Menge abfedern. Siehe Crystallwell. SRAM ließe sich so ziemlich ideal packen. Laut chipwiki ist ein bit sram gerade mal 0,027um2 groß. 128 MiB wären folglich gerade mal >30 mm2. Ein Cache besteht mehr als nur aus Zellen - insofern sind es brutto sicher mehr als 30 mm2. Aber die Größenordnung erscheint machbar.
Ist ja ggf billiger als 8 gb gddr6 plus die extra IMCs und das teurere PCB?
Cyberfries
2020-09-11, 22:05:02
Mythos;12422305']- 128MB Infinity Cache auf der GPU
Vor 17h von kopite7kimi:
If the die size(505mm2) and bandwidth(256bits) of Navi21 is true, someone said Navi21 will have a huge cache to explain the number. How do you explain it? There is a lot of discussion
Ein Twitterer namens 3DCenter.org (kennt den jemand?) antwortete darauf:
@CapFrameX noted that *maybe* big caches can be helpful. @Locuza answered that this will not close the gap.
Eine Berechnung eines weiteren Twitterers ergab für 64mb l2$ rund 180mm² Fläche.
So könnte man auf die 505mm² kommen.
Mythos;12422305']- no hbm2
- no 512bit SI
- 16Gb VRam GDDR6
Von Twitter, Locuza (gekürzt):
Realized a stupid miss out from my side, rogame's configuration table from AMD's driver mentions 16 L2$ Tiles.... With 16 it couldn't be a 384-Bit Interface.
----
16 L2$ tiles fit to a 256-Bit GDDR6 Interface......Another possibility is a 2048-Bit HBM2(e) Interface.
----
IIRC @coreteks mentioned... that Add-in-Board (AIB) Partners are awaiting GPU+Memory from AMD,
only with HBM AIBs are getting a bundle, GDDR6 is not distributed by AMD
----
I thought about the possibility of a 512-Bit Interface .....but AMD would need to change their current make up.
.....512-Bit would need 32 Tiles if AMD does it like now.
Mittlerweile haben wir also alles ausgeschlossen, damit bleibt als Speicherinterface nur noch die gute alte schwarze Magie.
edit: Ich habe darauf gehofft, der schreibt das hier noch selbst rein, ist doch hier auch angemeldet?
Mittlerweile sind aber auch schon 6h rum.
Mythos;12422305']- Der Typ ist komisch
Einer aus den Youtube-Kommentaren bringts auf den Punkt:
I've been trying to figure this out for a while but i think Paul is actually dead, potentially a zombie.
[MK2]Mythos
2020-09-11, 22:07:08
Also mit 128 MiB Cache würde man schon eine ganze Menge abfedern. Siehe Crystallwell. SRAM ließe sich so ziemlich ideal packen. Da käme man für den SRAM selbst sicherlich lokal auf 80-100 Mio Transistoren pro mm2.
Bei 6T Zellen pro bit wären das im besten Fall ~60 mm2 extra.
Ist ja ggf billiger als 8 gb gddr6 plus die extra IMCs und das teurere PCB?
Würde sich das nicht genau auch sehr positiv auf den Stromverbrauch auswirken? Erstens durch das kleinere SI und zweitens durch die "reduzierten" externen Speicherzugriffe?
Ich denke den Gedanken mit dem Mega-Cache sollte man sofort über Bord werfen. Es wird HBM, alles andere ist Nonsens
@MK2
30% an Diesize nur für den Cache? Das Ding wäre bereits 5‘ nach Erscheinen ad absurdum
robbitop
2020-09-11, 22:13:04
Mythos;12422378']Würde sich das nicht genau auch sehr positiv auf den Stromverbrauch auswirken? Erstens durch das kleinere SI und zweitens durch die "reduzierten" externen Speicherzugriffe?
Ja das wäre ein Nebeneffekt. Datentransfers machen den Großteil des Energiebedarfs moderner GPUs aus. Je weiter weg das Signal muss, desto mehr Energie kostet jedes bit.
AlterSack
2020-09-11, 22:14:48
Mit einem 512Bit Interface bekommt man 24GB VRAM nicht vernünftig hin. 16 oder 32GB wären dort die sinnvollen Grössen. Bei 384Bit wären 24GB vernünftig möglich.
Aber wie hier schon mehrmals erzählt glaube ich nicht unbedingt an 512Bit speicherinterface weil sich 16 Memorychip + VRM + PCI-E Anbindung auf einem PCB nunmal schwierig gestaltet und ich nicht glaube das man mit 512Bit Interface wenn man es hingefummelt bekommt viel gewinnt gegenüber eines schnellen 384Bit Interface.
Vor 3 Jahren konnte AMD einen Chip + 2 Stacks HBM2 für 400€ angebieten. Ich verstehe daher nicht wieso die Leute glauben es sei für AMD in 2020 nicht wirtschaftlich einen Chip + 2 Stacks HBM2E für 700$+ anzubieten.
Und wenn der Chip eh MCM mit Interposer ist(die du scheinbar glaubst), macht das setzen auf GDDR6 noch weniger Sinn. Wozu dann GDDR6 nehmen, damit die Karte in der Fertigung ein paar Dollar billiger ist, dafür aber schlechtere Performance/Watt liefert. Hört sich für mich nicht nach einer guten Idee an Geld in die Hand zu nehmen um ein Produkt schlechter zumachen nur damit ich in der Fertigung 3$ spare.
ja sorry, mit den 24gb hab ich mich irgendwie verrannt. was bleibt, ist meine
meinung, dass hbm2 auf jeden fall die sauberere lösung ist. 16 speicherchips
über die platine zu verteilen (512bit) ist steinzeit für eine highendkarte.
ja sorry, mit den 24gb hab ich mich irgendwie verrannt. was bleibt, ist meine
meinung, dass hbm2 auf jeden fall die sauberere lösung ist. 16 speicherchips
über die platine zu verteilen (512bit) ist steinzeit für eine highendkarte.
Voll zustimm! Halo-Produkt mit weiß der Geier was für nem SI und Cache? Es kann nur HBM2 sein!
Das Ding mit dem CPU-Lüfter ist ne 6800XT, sprich das Ding, welches mit 599€ auf ne 3080 losgeht nur mit halt gleich 16GB
Berniyh
2020-09-11, 22:40:35
edit: Ich habe darauf gehofft, der schreibt das hier noch selbst rein, ist doch hier auch angemeldet?
Mittlerweile sind aber auch schon 6h rum.
evtl. einfach keinen Bock mehr sich die teilweise echt absurden Diskussionen hier im Thread derzeit anzutun. :P
evtl. einfach keinen Bock mehr sich die teilweise echt absurden Diskussionen hier im Thread derzeit anzutun. :P
Diskussions-Forum ahoi? Wenn es für dich absurd erscheint, melde doch mal bitte was BN sein könnte?
Berniyh
2020-09-11, 22:52:02
Diskussions-Forum ahoi? Wenn es für dich absurd erscheint, melde doch mal bitte was BN sein könnte?
Ich hab keine Informationen dazu, also wozu?
Ihr dürft ja auch gerne diskutieren, ist halt echt teilweise bissle müßig zu lesen und ich kann gut verstehen, wenn der eine oder andere keinen Bock mehr drauf hätte. Ich überfliege die meisten Seiten auch nur noch (immer auf die Gefahr hin dann wirklich interessante Hinweise zu überlesen).
w0mbat
2020-09-11, 23:55:28
Ist ein Speku thread, der ist doch genau dazu da sich verrückte Dinge zu überlegen.
amdfanuwe
2020-09-12, 01:13:09
Na dann:
Erst kommt der mittlere Chip mit 16GB, 256 SI.
Big Navi kommt erst Frühjahr nächsten Jahres in 5nm.
N5P soll ja vorgezogen worden sein.
basix
2020-09-12, 01:22:14
sag ich ja...
nur 384bit + 16GB passen halt nicht zusammen.
Verwechselt bitte doch nicht immer 16Gb(it) mit 16GByte.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.