Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 13./14. August 2022
Leonidas
2022-08-15, 11:25:50
Link zur News:
https://www.3dcenter.org/news/news-des-1314-august-2022
Platos
2022-08-15, 11:52:30
Bei Raptorlake bleibt der 1700 Sockel oder ?
Berniyh
2022-08-15, 13:07:41
Ich halte die Dual Chips für ein reines Hirngespinst.
Natürlich ist das prinzipiell möglich und die Vergangenheit hat auch gezeigt, dass es durchaus mal Momente des Wahnsinns gab in denen man ähnliches versucht hat (z.B. der doppelte Fiji).
Der Vorteil dabei war aber immer eher gering.
Natürlich könnte das in dem Konzept etwas besser aussehen, aber massive Verluste wären dennoch zu erwarten, denn sonst würde man die ganze Linie mit mehreren GCDs konzipieren (wäre ja bzgl. Flexibilität und Waferfläche sehr vorteilhaft).
Tatsächlich gab es doch schon vor einigen Jahren, als sich zum ersten Mal abzeichnete, dass AMD bei RDNA3 Chiplets einsetzen wird, schon Berichte, dass man im ersten Schritt nur I/O Teile ausgliedern wird, die Recheneinheiten aber monolithisch bleiben.
Dass die Leaker (und meiner Meinung nach hat die Hälfte davon eh keine wirklich guten Quellen) dann wieder alles mögliche daraus machen was denkbar ist verwundert nicht.
Die müssen sich ja schließlich keine Gedanken darüber machen ob das realistisch, effizient, performant etc. ist, sondern können sich aufs Puzzlen beschränken.
Also: so ein Monsterchip ist sicher möglich und auch bzgl. der praktischen Umsetzung nicht undenkbar. Würde aber vermutlich nur dazu taugen die Balken länger zu machen und würde vermutlich als (Beinahe-)Paperlaunch enden.
Warum sollte AMD viele dieser Produkte herstellen? Die meisten kaufen doch eh eher Mittelklasse und gerade mit den 1xNavi32 Karten dürfte man mehr verdienen als mit einer Hand voll hochgezüchteter 2xNavi32.
Außer natürlich man setzt den Preis irrsinnig weit oben an, aber wer soll so einen Mist denn kaufen?
Mrs. Schekel-Su
2022-08-15, 14:14:59
Genauso wenig kann man auf Basis dieser Vorablistungen den AM5-Gerätschaften nun den Makel überzogener Preise andichten ...
Doch tue ich, denn genau so ist es, und ist bereits mit Ryzen 5000 geschehen.
100 % verklärend diese überteuerten Produkte so darzustellen.
Alderlake war von Anfang an, bezüglich Preis-Leistung besser für 95 % der normalen Desktopanwender.
Mit Absicht, 2 Jahre lang, nur eine 6-Kern CPU herausgebracht und für 350 € UVP verkauft. 200 € UVP Ryzen 3600 bye bye. Reale Vertuerung 150 €, 50 %.
Ryzen 3700X von 330 € UVP auf 450 € des Ryzen 5800X.
Und es gibt einige Menschen die diese mehr als offensichtliche Verteuerunglist nicht verstehen und rechtfertigen, mit Scheinargumenten wie "anderes Produkt, höherwertigeres Modell in der Reihe".
Es ist scheiß egal ob das Produkt Kartoffelbrei 5700X, oder Kartoffelbrei 5800X heißt.
Ob Püree 3600, 3600X, 3600XT oder Aubergine 5600 oder Banane 5600X.
Das ist alles nur Wortklauberei. Das einzige was zählt ist "Was kostet der günstigste 6-/8-/12-/16-Kern Prozessor?". 100 - 200 MHz weniger juckt kaum jemanden.
Der überwiegende Großteil hat Ryzen 3600 gekauft, nicht Ryzen 3600X oder 3600XT.
Die Führungsetage hätte problemlos einen zweites Modell wie Ryzen 5600 herausbringen können und erneut für 200 € verkaufen.
Gleich mit Ryzen 5700X für 330 € gleich zu Beginn.
Nö, wollten diese nicht. Warum auch? Schekel Schekel.
AMD Führungsetage macht dies geschickt mit ihrem Chiplet-Ansatz. Die qualitativ schlechteren Chips kommen einfach in ein anderes Produkt was in der Modellreihe anders genannt wird.
Überteuerte Produkte, winzig kleine Chips, viel verlangen.
Ich halte die Dual Chips für ein reines Hirngespinst.Komplett falsch. Es geht weder um - Zitat - Monsterchips, sondern Chiplets, noch um Wiederbelebung von XF mit seinen bekannten Nachteilen. Und auch nicht um Chiplets für alles. Das macht im CPU-Bereich nicht mal AMD. U.a. die Chipgrößen sind ja ein Punkt pro Chiplets.
Da dem Vernehmen nach die Fortschritte bei Fertigungstechnologie kleiner werden, die Chips nicht mehr größer werden sollen/können, Stacking nur begrenzt optimale Lösung ist (siehe 5800X3D), usw., muss man anders ran. Und da bleibt fast nur Chiplet-Konstrukt, welches sich nach aussen hin wie Monolith verhält.
Leonidas
2022-08-15, 15:09:31
Bei Raptorlake bleibt der 1700 Sockel oder ?
Jawohl!
Und da bleibt fast nur Chiplet-Konstrukt, welches sich nach aussen hin wie Monolith verhält.
Sehe ich genauso. AMD macht hier bewußt Vorarbeit für später, wo es dann notwendig ist. Vielleicht kommt ja Dual-N32 - nicht wegen der Balkenlänge, sondern weil AMD Praxis-Erfahrung braucht.
Das ganze mit dem Dual macht doch blos dann Sinn, wenn man 2 GCDs an shared MCDs haengen kann. Jedenfalls kann man dann das ganze Konstrukt evt. fuer das OS als eine GPU abbilden. Etwa das vielleicht so angedacht ist, aber (doch) noch nicht mit Navi 3x kommt. Ich hab ein MCD jedenfalls als Speichercontroller inkl. L3 Cache + optionalen L3 Cache vor Augen. Das kann natuerlich auch falsch sein. Eine reine klassische Dual GPU macht ja hoechstens noch im professionellen Umfeld Sinn und da ist die letzte Dual GPU soweit ich weiss die Pro Duo und die hat bisher keinen Nachfolger gesehen.
Berniyh
2022-08-15, 16:30:17
Komplett falsch. Es geht weder um - Zitat - Monsterchips, sondern Chiplets, noch um Wiederbelebung von XF mit seinen bekannten Nachteilen. Und auch nicht um Chiplets für alles. Das macht im CPU-Bereich nicht mal AMD. U.a. die Chipgrößen sind ja ein Punkt pro Chiplets.
Da dem Vernehmen nach die Fortschritte bei Fertigungstechnologie kleiner werden, die Chips nicht mehr größer werden sollen/können, Stacking nur begrenzt optimale Lösung ist (siehe 5800X3D), usw., muss man anders ran. Und da bleibt fast nur Chiplet-Konstrukt, welches sich nach aussen hin wie Monolith verhält.
In Zukunft sicher, aber wir reden hier von RDNA3 und da gab es wie gesagt schon sehr früh die Aussage/das Gerücht, dass man nur einige wenige Teile ausgliedern wird, da die Kommunikation zwischen den Chiplets ein großer Task ist.
In späteren Generation wird es sicher mehrere Compute Chiplets geben, das ist ziemlich klar. So große Schritte sind mit RDNA3 aber nicht zu erwarten.
Ehrlich gesagt war ich bei den ganzen Leaks zu 2 GCD immer sehr skeptisch, denn das lag eigentlich nicht im Erwartungsbereich (für RDNA3).
Berniyh
2022-08-15, 16:31:02
wenn man 2 GCDs an shared MCDs haengen kann.
u.a. deshalb sind die MCDs ja auch der erste Teil den man ausgliedert. ;)
Berniyh
2022-08-15, 16:32:13
Vielleicht kommt ja Dual-N32 - nicht wegen der Balkenlänge, sondern weil AMD Praxis-Erfahrung braucht.
Ne, wenn dann kommt es nur wegen der Balkenlänge.
Praxis-Erfahrung kann man ja auch mit internen Tests sammeln und da wird so ein Teil sehr wahrscheinlich schon existieren.
Heißt aber ja nicht, dass auch ein Produkt daraus wird.
Neurosphere
2022-08-15, 16:42:13
Ne, wenn dann kommt es nur wegen der Balkenlänge.
Praxis-Erfahrung kann man ja auch mit internen Tests sammeln und da wird so ein Teil sehr wahrscheinlich schon existieren.
Heißt aber ja nicht, dass auch ein Produkt daraus wird.
Wird wohl wenn dann wegen beidem kommen. Das schnellste Pferd im Stall zu haben und sei es auch ein Einhorn, hat schon einen gewissen Effekt.
Die Frage wäre ob immer 6 MCD an einem GCD hängen müssen oder ob AMD da recht flexibel wäre.
In Zukunft sicher, aber wir reden hier von RDNA3Die Einschränkung ging (für mich) nicht deutlich genug hervor.
Was letztendlich hinter den 2-GCD-"Leaks" steckte, kann ich nicht einordnen.
Tatsächlich rechnete ich wie einige andere auch zuerst mit HPC-Bereich mit sowas. Aber ich habe mich schon bei anderen Sachen geirrt.
Apropos irren: Bei der damaligen Umfrage hatte ich Intel ARC als spannendstes Produkt für 2022 ausgewählt (Kaufkandidat war es aber nie). Nachdem sich das Ding als kolossale Enttäuschung erwiesen hat und auch 2x GCD nicht kommt, wüsste ich aktuell nicht, was auszuwählen. ATX3/PCIe5 vielleicht. Aber das ist kein konkretes Produkt. 5800X3D hat mit Takt auch Reiz verloren. Den Core-War fand ich (bezogen auf Desktop/Mobil) schon immer dämlich.
Berniyh
2022-08-15, 17:57:56
Die Frage wäre ob immer 6 MCD an einem GCD hängen müssen oder ob AMD da recht flexibel wäre.
Es würde mich schon sehr wundern, wenn das nicht so wäre, dass alle GCDs auf alle MCDs zugreifen können.
Dahin geht ja eigentlich die Gesamtentwicklung bei AMD, sowohl bei den CPUs als auch bei den GPUs, d.h. shared L3- oder Inifinity-Cache.
AlterSack
2022-08-15, 20:42:39
irgendwie klafft zwischen n32 und n33 eine unlogische lücke,
da n33 angeblich technisch stark abgespeckt sei und leistungsmässig
irgendwo im bereich (laut spekus im forum) von rx6700xt und rx6800 liegen soll.
Gast Ritis
2022-08-15, 21:19:05
Alderlake war von Anfang an, bezüglich Preis-Leistung besser für 95 % der normalen Desktopanwender.
Mit Absicht, 2 Jahre lang, nur eine 6-Kern CPU herausgebracht und für 350 € UVP verkauft.
Überteuerte Produkte, winzig kleine Chips, viel verlangen.
Ja, nur P/L der Mainboards und Upgrades bei altem NT und Board haben Zen3 im Zweifelsfall vor Alderlake positioniert.
AMD hat mit mangelnder Produktion bei Stückzahlen so teuer wie möglich verkauft, verständlicher weise bei der Historie.
Ich halte die Dual Chips für ein reines Hirngespinst.
Natürlich ist das prinzipiell möglich und die Vergangenheit hat auch gezeigt, dass es durchaus mal Momente des Wahnsinns gab in denen man ähnliches versucht hat (z.B. der doppelte Fiji).
…
Dass die Leaker (und meiner Meinung nach hat die Hälfte davon eh keine wirklich guten Quellen) dann wieder alles mögliche daraus machen was denkbar ist verwundert nicht.
Die müssen sich ja schließlich keine Gedanken darüber machen ob das realistisch, effizient, performant etc. ist, sondern können sich aufs Puzzlen beschränken.
…
Außer natürlich man setzt den Preis irrsinnig weit oben an, aber wer soll so einen Mist denn kaufen?
Wird wohl wenn dann wegen beidem kommen. Das schnellste Pferd im Stall zu haben und sei es auch ein Einhorn, hat schon einen gewissen Effekt.
Die Frage wäre ob immer 6 MCD an einem GCD hängen müssen oder ob AMD da recht flexibel wäre.
Als AMD und Nvidia nicht zu weit auseinander lagen waren besondere und teure Halo Produkte doch eher die Regel. Eigentlich müssen wir da fest damit rechnen gerade weil doch CDNA in dual GPU schon kam. Der IF Link macht den gemeinsamen Speicher kohärent, nur der zusätzliche Penalty im Zugriff muss im L2 und per Scheduling maskiert werden. Sollte doch in 4k+ unter 60 Hz für Raytracing möglich sein.
Für mich war RDNA3 dual GPU schon immer die ideale Salvage Verwertung, sollte doch gerade nicht die Spannung zu hoch sein, relativ mehr Speicher und IF Cache wäre auch eher vorteilhaft um bloss nicht auch noch auf SysRAM gehen zu müssen.
Von daher verwundert mich die Verwunderung.
Die aktuellen Leaks bzw. Spekulationen kann ich gut für bare Münze nehmen weil man auch davon ausgehen darf, dass der Leaker nur einen Teil der SKUs kennt.
Die 30 WGPs können auch ne Salvage Variante sein, das bisher bekannte SKU mit 32 und dann 128MB IFC der Vollausbau.
Falls da am Ende bis zu 22Gbps Speicher verbaut wird ist da eh einiges mehr Bandbreite für Cache-Misses. Die doppelten Shader werden doch hauptsächlich über den L0/L1 auf bereits geladene Daten zugreifen wenn das geschickt gecodet wird. Nvidia musste bzw wollte auch nicht das SI für Ampere verdoppeln. Der Code muss bei beiden gleichermassen ILP geeignet sein.
Am Ende verwundert mich nur das hochspekulieren der VRAM Grössen. Mit UE5 brauchts das jedenfalls nicht wirklich für 4k und 8k ist doch nur ein Marketingwitz.
basix
2022-08-15, 23:02:02
irgendwie klafft zwischen n32 und n33 eine unlogische lücke,
da n33 angeblich technisch stark abgespeckt sei und leistungsmässig
irgendwo im bereich (laut spekus im forum) von rx6700xt und rx6800 liegen soll.
Das hat man bei N22 vs. N21 auch gesagt. Ich würde sagen: Abwarten ;)
Ich halte die Dual Chips für ein reines Hirngespinst.
Natürlich ist das prinzipiell möglich und die Vergangenheit hat auch gezeigt, dass es durchaus mal Momente des Wahnsinns gab in denen man ähnliches versucht hat (z.B. der doppelte Fiji). [...]
Ich halte es auch eher für unwahrscheinlich. Aber für mich die einzig vernünftige Erklärung für V-Cache auf den MCDs. Das macht für mich nämlich keinen Sinn (zu teuer). Sobald man aber Dual N31 konzeptioniert:
- 768bit SI wäre wahnsinn und praktisch einfach nicht umsetzbar
- 512bit SI wäre viel, liegt aber eher im Bereich des machbaren. Bandbreite wäre hier eher knapp
- 384bit SI wäre definitiv umsetzbar, hätte aber auch definitiv zu wenig Bandbreite
Lösung:
- 512bit & mehr Infinity Cache -> 1-hi
Das gleiche könnte man auch mit einem Dual-GCD N32 machen. Nur 1.25x mehr SPs als N31 lassen mich Dual-N32 aber als unwahrscheinlich erscheinen. Und 1.25x SPs bei 512bit würden mehr IF$ auch nicht nötig machen.
Edit:
So würde ich mir das ungefähr vorstellen. Die IF$-Grössen sind allenfalls falsch, geht mehr um den Aufbau und die Anordnung der Chips. Bei 2x N31 könnte man die brachliegenden MCD-Interfaces als GCD-to-GCD Interconnect verwerten.
iamthebear
2022-08-16, 01:27:30
Also ich halte Dual GCD als Gaming Variante für ziemlich unwahrscheinlich:
Dual Navi31 scheidet sowohl wegen Stromverbrauch als auch auf Grund des Speicherinterfaces aus. 768 Bit GDDR6 wird auf keine Platine passen.
Dual Navi32 halte ich auch für sehr unwahrscheinlich:
.) Verluste durch Dual GCD sofern das überhaupt möglich ist. Auf jeden Fall müsste N32 schon speziell dafür ausgelegt sein
.) Wie bereits erwähnt nur 25% mehr WGPs. Die werden wohl für gleiche Verlustleistung 10% runter getaktet werden müssen also 15% realer Zuwachs
.) 512 Bit GDDR6 würde ich ziemlich stark an der Grenze des technisch machbaren sehen.
.) Der ganze Aufwand nur für ein Nischenprodukt das so gut wie niemand kauft
.) Der IO Teil von N32 liegt auf dem 2. GCD brach
.) 90%+ aller N32 Dies wird einzeln verbaut werden muss aber trotzdem die Inter Chip Kommunikation unterstützen. Das ist nicht mäßig sinnvoll sondern widerspricht auch dem "Density first"
Was ich mir vorstellen kann ist:
.) Eine Dual GCD Workstationkarte die sich als 2 komplett getrennte GPUs ausgibt.
.) Falls technisch realisierbar mit RDNA4
Wenn Dual GCD als Gamingvariante kommt, dann word die gesamte Arch8tektur darauf ausgelegt sein d.h.:
.) Zentraler IO Die geshared von 2 GCDs
.) Zentrale shared MCDs (z.B. links und rechts vom IO Die)
.) Darüber die 2 GCDs gestacked
Oder sehr langfristig betrachtet:
.) Unten IO Die + GCDs
.) Oben drauf den VRAM gestacked ähnlich wie bei HBM nur dass die Chip zu Chip Kommunikation entfällt.
Leonidas
2022-08-16, 06:24:12
Praxis-Erfahrung kann man ja auch mit internen Tests sammeln und da wird so ein Teil sehr wahrscheinlich schon existieren.
Heißt aber ja nicht, dass auch ein Produkt daraus wird.
Bin mir nicht sicher. Spiele-Performance auf aller möglichen Software, Austesten aller möglichen Lebenssituationen geht nur beim Enduser.
@iamthebear: Gute Gegen-Argumente. Das mit der Density sticht durchaus.
basix
2022-08-16, 07:40:53
Wie gesagt, für mich würde nur Dual-N31 in Frage kommen. Das wäre ein Halo-Produkt mit geringen Stückzahlen und ohne Nachteile für die normalen Single-GCD SKUs. Density ist hier dann kein Argument mehr. Ausnahme: MCDs müssten irgendwie stackbar sein, was das MCD evtl. leicht grösser macht. Nicht zwingend aber, 3D-SoIC muss es hier mMn nämlich nicht werden.
Berniyh
2022-08-16, 07:42:11
Also ich halte Dual GCD als Gaming Variante für ziemlich unwahrscheinlich:
Dual Navi31 scheidet sowohl wegen Stromverbrauch als auch auf Grund des Speicherinterfaces aus. 768 Bit GDDR6 wird auf keine Platine passen.
Einen doppelten Navi31 würde man eher mit HBM2 paaren. Das Dingen wäre ja eh abartig teuer.
Ist halt die Frage, ob es passende MCDs dafür gäbe, aber gut möglich, dass man die für die CDNA Linie auch schon entwickelt.
Prinzipiell sollten die dann mit RDNA auch kompatibel sein, da AMD solche Interfaces typischerweise kompatibel gestaltet, aber sicher sein kann man natürlich nicht.
Aber prinzipiell geb ich dir natürlich völlig recht, sehr unwahrscheinlich das ganze.
Bin mir nicht sicher. Spiele-Performance auf aller möglichen Software, Austesten aller möglichen Lebenssituationen geht nur beim Enduser.
Also da würde ich mir keine Sorgen machen, das bekommen die schon hin. Machen ja auch nicht erst seit 2 Jahren GPU Entwicklung.
Klar wird es immer irgendeinen Corner Case geben der dann massive Probleme verursacht, aber die findest du mit einem GPU Modell, das du nur eine handvoll mal verkaufst, auch nicht. Da braucht es wirklich Produkte für die Masse.
Neurosphere
2022-08-16, 08:16:53
Wegen dem Interface fragte ich ja gerade on immer 6 MCD an ein GCD müssen.
AMD kann ja auch den dual N32 mit 6 MCDs und stacked IF an 384 Bit koppeln.
Was soll denn die ganze Schwarzmalerei hier? Es gibt doch schon eine Dual-GPU, den M1 Ultra von Apple. Und laut Benchmarks sieht die Performance, trotz Overhead, doch sehr gut aus: https://www.golem.de/news/m1-ultra-im-test-die-kroenung-des-apple-silicon-2203-163884-2.html.
Berniyh
2022-08-16, 09:03:44
Wegen dem Interface fragte ich ja gerade on immer 6 MCD an ein GCD müssen.
AMD kann ja auch den dual N32 mit 6 MCDs und stacked IF an 384 Bit koppeln.
Ganz genau kann das vermutlich nur AMD beantworten, aber so wie ich die Designs, den Code und die Anmerkungen dazu immer verstanden habe müsste es theoretisch auch anders gehen.
Bei RDNA2 z.B. ist ja der IF ein Interface nach außen, welches allen CUs gleich zugänglich ist und welcher auch auf alle Speicherkanäle Zugriff hat.
Ich würde also davon ausgehen, dass man z.B. auch eine etwas langsamere Version von Navi31 raus bringen könnte, welche zwar volle CUs/WGP hat, aber ein MCD weniger, d.h. nur 320 Bit GDDR6 statt 384 Bit.
Dagegen spricht allerdings, dass man bislang auch immer bei einem Salvage sowohl CUs als auch Teile des Speicherinterface deaktiviert hat.
Ob das nun bedeutet, dass man das so machen muss, oder ob man das gemacht hat, weil es halt mehr Sinn macht beides zu beschneiden, kann ich nicht sagen.
Geldmann3
2022-08-16, 10:42:48
Moment, betrachte gerade die Tabelle.
Navi 31 96MB Infinity Cache?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.