Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 1. April 2022
Leonidas
2022-04-02, 10:13:47
Link zur News:
https://www.3dcenter.org/news/news-des-1-april-2022
Converible
2022-04-02, 11:09:10
Aktuell muss man sich mit der RTX 3080 12G für 12 GB mit 350 Watt anfreunden. Bei der 4000-er Serie muss man für eine 12 GB-Karte schon mit 400 Watt klar kommen? Da geht doch echt was schief bei Nvidia, wenn die Gerüchte stimmen.
Kann man nur hoffen, dass es so was wie die aktuelle RTX 3060 ebenfalls mit 12GB bei der RTX400-er Serie gibt...
Gast-On
2022-04-02, 11:54:06
Intel Arc 370M vs AMD Radeon 6500M -
Mit diesen Produkten also besetzt Intel TSMC 6N Wafer.
Was die Aussage dieses Vergleichs angeht: Solider als die meisten Leaks im Spekulationsforum, und gegenüber Intel, die es mit der Wahrheit auch nicht so genau nehmen, absolut passend.
GerryB
2022-04-02, 12:21:06
4070@400W, ... why not, falls NV@5nm auch mal ein Hochtaktdesign hinbekommt.
(was Vorteile bei der Auslastung hätte)
sinngemäß
Da kann man sich z.Bsp. an AMD 6700XT vs. 6800nonXT orientieren, wo die Kleine dann mittels Takt in den gewünschten
Performance-Lvl gebracht wurde.(und bei Weitem net mehr so effizient wie die Größere ist)
Platos
2022-04-02, 12:34:04
Wie gesagt: Die Effizienz der Architektur ist ja nicht schlecht, so wie es aussieht (siehe Hopper). Ich denke aber, dass im Gamingbereich die Grafikkarten (zumindest an der Spitze) eher sehr ineffizient betrieben werden. Aber man wird die sehr effizient takten können (wie auch schon Ampere). Aber dieses mal wird man eine noch deutlich höhere Effizienz sehen bei nvidia und bei AMD wirds möglicherweise wieder auf Teufel komm raus enden (natürlich steigt die Effizienz auch da...). Immerhin hat nvidia den viel grösseren Fertigungsvorteil.
GerryB
2022-04-02, 12:37:34
Hää?
Mir kommt Ampere bzgl. W eher auf Teufel komm raus vor!
(= die sinnloseste GrakaGen seit Langem und wg. der zusätzlich erforderlichen größeren NT´s + Gehäuse auch mit Abstand am Kostspieligsten)
Linmoum
2022-04-02, 13:25:24
Aber dieses mal wird man eine noch deutlich höhere Effizienz sehen bei nvidia und bei AMD wirds möglicherweise wieder auf Teufel komm raus enden (natürlich steigt die Effizienz auch da...).Höh? Gerade die Effizienz bei AMD wird enorm steigen. Das ist ja gerade ein entscheidender und großer Vorteil von Chiplets. Du gehst massiv in die Breite und bekommst dadurch enorm viel Rechenleistung, die du mit einem monolithischen Die schlicht nicht wirst erreichen können. Und die Performance ist nun einmal einer von zwei Faktoren für die Effizienz. Slbst, wenn AMD auf 500W geht, bei dreifacher Rohleistung wird ganz sicher nicht nur <2x Performance ankommen.
WedgeAntilles
2022-04-02, 14:45:17
Das sind doch die gleichen Helden, die für Hopper 1000W sahen, oder?
Also wird die 4070 dementsprechend 0,7*400W = 280W verbrauchen.
Passt und ist mit Sicherheit plausibler und näher an der Realität als die 400W.
Rabiata
2022-04-02, 15:26:02
Höh? Gerade die Effizienz bei AMD wird enorm steigen. Das ist ja gerade ein entscheidender und großer Vorteil von Chiplets. Du gehst massiv in die Breite und bekommst dadurch enorm viel Rechenleistung, die du mit einem monolithischen Die schlicht nicht wirst erreichen können. Und die Performance ist nun einmal einer von zwei Faktoren für die Effizienz. Slbst, wenn AMD auf 500W geht, bei dreifacher Rohleistung wird ganz sicher nicht nur <2x Performance ankommen.
Der Vorteil ist nicht nur in Sachen maximaler Rechenleistung, sondern auch im Preis. AMD hat mal gesagt, daß ihre 12- und 16-Kerner als Monilithen viel teurer wären. Ich vermute wegen der Ausbeute, die bei kleinen Chiplets besser ist.
Und dann läßt sich ja auch noch eine kleine Untertaktung überproportional in Stromersparnis ummünzen.
Die Chiplet-Gechichte bei GPUs wird noch hoch interessant.
AMD-PR muss nicht richtig liegen, es reicht dass die 2 sich öffentlich "streiten" damit das überall in die News kommt, sonst wüste vielleicht niemand dass es Alternativen zu den RTX gibt.
iamthebear
2022-04-02, 16:13:25
AMD hat 2 Vorteile:
.) Sie können damit Modelle über 800mm² Gesamtfläche anbieten. Ob das jedoch noch jemand bezahlen will ist eine andere Sache.
.) Sie können Dual Sourcing betreiben wenn sie von der moderneren Fertigung nicht genug Wafer bekommen bzw. können sie den Cache in einem eigenen für SRAM optimierten Prozess fertigen wodurch sich die Packdichte erhöht. Für Nvidia macht das wenig Sinn. Die haben genug 5nm Kapazität, da sie die Fabs mitfinanziert haben und weniger Cache (96MB beim Topmodell vs. 256MB oder 512MB).
Für die Energieeffizienz bringt das jedoch gar nichts. Ja es kann sein, dass AMD seine Karten nicht so hoch treibt aber das hat mit Chiplets wenig zu tun.
Rein von den Zahlen her wäre Nvidia deutlich im Vorteil weil sie um 2 Nodes runter gehen, AMD nur um 1. Allerdings habe ich den Verdacht, dass AMD was die Architektur angeht noch ein Ass im Ärmel haben. Sonst würde Navi33 nicht schneller sein können als eine 6900 XT.
Höh? Gerade die Effizienz bei AMD wird enorm steigen. Das ist ja gerade ein entscheidender und großer Vorteil von Chiplets.
Der entscheidende Vorteil von Chiplets ist potentiell besserer Yield/geringere Fertigungskosten, und lower time to market für eine breite Palette an Produkten.
Die Herausforderung daran ist das mit möglichst geringen Effizienzverlusten zu erreichen.
Monolithisch ist immer effizienter als ein Chiplet-Design, was glaubst du warum immer mehr integriert wurde, so dass heutige "CPUs" im Prinzip schon weitestgehend vollständige SOCs sind.
Die Frage ist, ob bei AMDs Chipletdesign der Effizienzverlust gering genug ist dass er praktisch keine Relevanz hat.
Es könnte ja sein, dass der AD102 in der 4090 Chip anfangs nicht so hoch und in der 4080 hoch/mittel Hoch getaktet/gerpügelt wird im Vergleich zum AD104 der dann schon von anfang an am Anschlag sein wird. Zusammen mit der Auslegung 58, 90, 140SM würde das auch reichlich Platz für Super und/oder Ti Karten lassen falls AMD einen guten Konter bringt.
Dann kann man AD103 für 4070Ti/Super, eventuell wieder sehr hoch getaktet,
AD 102 ~120SM 4080Ti/Super und 144SM für 4090Ti/super/titan nutzen. Die 4090Ti/super/titan halt auf 750w pushen...
Nicht zu vergessen alles eine Stufe tiefer für Mobile und recht niedrig getaktet.
Wie man aber das alles kühlen und auch benutzen soll, ist eine andere Frage...
Wird man aber zumindest 4080 wegen des Vram kaufen müssen...
Hm diese Folie wirkt wie ein Aprilscherz.
Platos
2022-04-02, 16:52:53
Höh? Gerade die Effizienz bei AMD wird enorm steigen. Das ist ja gerade ein entscheidender und großer Vorteil von Chiplets.
Warum sollte bitte die Effizienz mit Chiplets steigen? Eher sinkt sie. Der einzige Weg wäre, die Chips grösser zu machen und dann die Taktraten zu senken. Das wäre dann aber deutlich teurer und somit nicht konkurrenzfähig, wenn der Konkurrent einfach die Taktraten hochzieht (gratis für den Hersteller).
Rabiata
2022-04-02, 17:29:17
Warum sollte bitte die Effizienz mit Chiplets steigen? Eher sinkt sie. Der einzige Weg wäre, die Chips grösser zu machen und dann die Taktraten zu senken. Das wäre dann aber deutlich teurer und somit nicht konkurrenzfähig, wenn der Konkurrent einfach die Taktraten hochzieht (gratis für den Hersteller).
An der Stelle kommt der Preisvorteil eines Chiplet-Designs durch. Billiger oder zum gleichen Preis größere Gesamtfläche => kann in Performance oder Effizienz umgesetzt werden. Ich bin wirklich gespannt...
OpenVMSwartoll
2022-04-02, 17:40:25
Die Produktion wird effizienter. Aber ich denke hier verwenden beide Forumsteilnehmer Effizienz unterschiedlich.
GerryB
2022-04-02, 18:00:27
... ist dann hoffentlich beim Preis spürbar
Linmoum
2022-04-02, 18:28:26
Die Produktion wird effizienter. Aber ich denke hier verwenden beide Forumsteilnehmer Effizienz unterschiedlich.Das Produkt wird effizienter. Effizienz ist das Resultat aus Performance X bei Verbrauch Y.
Je mehr du in die Breite gehst, desto niedriger kannst du einen Chip takten bei trotzdem noch immer sehr hoher Performance. Diese schiere Breite hast du bei monolithischen Dies schlicht nicht. Reticle Limit und Ende der Fahnenstange. Ganz davon ab, dass niemand solche riesigen Chip für irgendwelche 1xxx€ Consumer-GPUs fertigen wird.
Bei Ada wissen wir durch den NV-Leak von 144SM für AD102, bei RDNA3 halten sich seit jeher hartnäckig nach alter Rechnungsweise 240CUs im Vollausbau für N31 (Double FP32 und das fancy Marketing-Speech damit kann sich NV sonst wo hinstecken, hilft Ampere in Spielen gg. der Konkurrenz auch Null). Wegen mir soll sich jeder erst selbst überzeugen. Ich habe aber keine Zweifel, dass wir hier einen Hersteller bei der Effizienz deutlich in Front sehen werden. Und zwar derselbe, der schon mit der aktuellen Gen die Effizienzkrone übernommen hat.
GerryB
2022-04-02, 19:06:21
Kleinere Chips lassen sich sicher mit weniger Ausschuss herstellen = effizienter bei P/L.
Die Mehrheit der Käufer braucht sich eher nen guten Preis als einen Monsterchip@schlechtem Yield.
Das Produkt wird effizienter. Effizienz ist das Resultat aus Performance X bei Verbrauch Y.
Je mehr du in die Breite gehst, desto niedriger kannst du einen Chip takten bei trotzdem noch immer sehr hoher Performance. Diese schiere Breite hast du bei monolithischen Dies schlicht nicht. Reticle Limit und Ende der Fahnenstange. Ganz davon ab, dass niemand solche riesigen Chip für irgendwelche 1xxx€ Consumer-GPUs fertigen wird.
Bei Ada wissen wir durch den NV-Leak von 144SM für AD102, bei RDNA3 halten sich seit jeher hartnäckig nach alter Rechnungsweise 240CUs im Vollausbau für N31 (Double FP32 und das fancy Marketing-Speech damit kann sich NV sonst wo hinstecken, hilft Ampere in Spielen gg. der Konkurrenz auch Null). Wegen mir soll sich jeder erst selbst überzeugen. Ich habe aber keine Zweifel, dass wir hier einen Hersteller bei der Effizienz deutlich in Front sehen werden. Und zwar derselbe, der schon mit der aktuellen Gen die Effizienzkrone übernommen hat.
sorry aber dann ist auch die kumulierte Fläche größer und kostet daher mehr, natürlich wenn weniger dieser Dies kaputt sind ist es im Endeffekt wieder relativ günstiger. Bei den monolitischen kann man es halt als Salvage Lösung verkaufen. Hier ja natürlich auch, aber scheinbar sind wir hier noch an einem Punkt wo beides besser oder schlechter sein kann.
OpenVMSwartoll
2022-04-02, 19:58:45
Das Produkt wird effizienter. Effizienz ist das Resultat aus Performance X bei Verbrauch Y.
Je mehr du in die Breite gehst, desto niedriger kannst du einen Chip takten bei trotzdem noch immer sehr hoher Performance. Diese schiere Breite hast du bei monolithischen Dies schlicht nicht. Reticle Limit und Ende der Fahnenstange. Ganz davon ab, dass niemand solche riesigen Chip für irgendwelche 1xxx€ Consumer-GPUs fertigen wird.
[...]
Vielleicht hast Du recht. Nur wissen wir bisher nicht, wie gut ein Multichip-Ansatz bei Consumer GPUs skaliert. Und welche "Reibungsverluste" auftreten. Man kann aber in Bereiche skalieren, die monolithisch nicht möglich sind.
WedgeAntilles
2022-04-02, 20:35:08
Ich habe aber keine Zweifel, dass wir hier einen Hersteller bei der Effizienz deutlich in Front sehen werden. Und zwar derselbe, der schon mit der aktuellen Gen die Effizienzkrone übernommen hat.
Ja, wenn du ganz bestimmte Einstellungen testest.
Wenn du RT aktivierst ist Nvidia deutlich vorne.
Wenn du DLSS aktivierst ist Nvidia meilenweit vorne.
Wirst du auch bei der nächsten Gen RT deaktivieren, damit AMD nur ja irgendwie vorne ist?
Nvidia User geben viel Geld für ne GraKa aus und genießen jedes Spiel in voller Pracht.
AMD User geben viel Geld für ne GraKa aus, sind bei ein paar Spielen etwas effizienter unterwegs und müssen bei anderen Spielen dafür eben mit schlechterer Qualität vorlieb nehmen weil ihre AMD Karte nicht genug Leistung hat.
In wie fern jetzt ein Hersteller "effizienter" sein soll, wenn es nicht mal reicht alle Spiele in bester Qualität darzustellen begreife ich nicht.
Aber jeder wie er mag.
OpenVMSwartoll
2022-04-02, 21:07:50
Deine Glaskugel hat nen Sprung...
MiamiNice
2022-04-02, 21:16:31
Ich wiederum habe absolut keine Zweifel das wir in der nächsten Gen massive Kinderkrankheiten bei MCM sehen werden garniert mit den üblichen AMD Problemchen.
Da können die gerne dopple so effizient sein, trotzdem wird NV gekauft. Da heißt es nämlich kaufen und bis zum nächsten Kauf vergessen und immer schön alle Regler, ohne Ausnahme, nach rechts ziehen und einfach nur spielen.
OpenVMSwartoll
2022-04-02, 21:19:39
Also taugt NV für die, die das Denken verweigern? Fühlt sich bei dem religiösen Eifer wirklich so an.
MiamiNice
2022-04-02, 21:37:54
So kann man es natürlich drehen, wenn man jemanden seine Ansicht in den Mund legen möchte ;)
Alle anderen freuen sich keine Kompromisse machen zu müssen und benutzen die Hardware für den vorgesehenen Zweck.
Linmoum
2022-04-02, 21:43:25
Ja, wenn du ganz bestimmte Einstellungen testest.
Wenn du RT aktivierst ist Nvidia deutlich vorne.
Wenn du DLSS aktivierst ist Nvidia meilenweit vorne.
Wirst du auch bei der nächsten Gen RT deaktivieren, damit AMD nur ja irgendwie vorne ist?Dein religiöser Nvidia-Fanatismus ist ja schon nicht mehr gesund. Und überlegst du eigentlich auch, was du da schreibst? Oder was sollen mir deine Ausführungen jetzt für UHD genau sagen?
Siehe PCGH-Benchmarks der 3090 Ti wohlgemerkt die mit RT. Und dann noch mal in Ruhe überlegen, ob dein Beitrag Sinn ergibt: Spoiler: Tut er nicht. Selbst mit FPS-Boost via FSR (geht explizit um Spielbarkeit, nicht Bildqualität) schafft eine 3090 Ti in 6/10 Spielen P1 nicht einmal 60fps. Bei zwei weiteren kratzt sie gerade so an der Marke. Nur bei zweien ist sie komfortabel drüber. Was juckt mich FHD oder irgendeine Kinder-Auflösung, dafür hol ich mir keine fette GPU. Das krieg ich auch mit irgendwas in Form einer 3070. ;D
Nvidia User geben viel Geld für ne GraKa aus und genießen jedes Spiel in voller Pracht.
Volle Pracht und bessere Performance heit nicht zwangsläufig, dass die Performance gut (genug) ist. Ansonsten s.o. oder Benchmarks. Sollte möglich sein, solche zu lesen und verstehen.
AMD User geben viel Geld für ne GraKa aus, sind bei ein paar Spielen etwas effizienter unterwegs und müssen bei anderen Spielen dafür eben mit schlechterer Qualität vorlieb nehmen weil ihre AMD Karte nicht genug Leistung hat.s.o.
Mal wieder viel geschrieben aber nachweislich an Realitäten vorbei. Schade.
Ich wiederum habe absolut keine Zweifel das wir in der nächsten Gen massive Kinderkrankheiten bei MCM sehen werden garniert mit den üblichen AMD Problemchen.Stimmt, die massiven Kinderkrankheiten gab es ja auch schon mit Zen2. Ups, doch nicht. ;D Und was machst du eigentlich, wenn Nvidia nach Ada dann auch MCM-GPUs bringt, die deutlich in der Leistung zulegen? Auch nicht kaufen, weil ist ja deren ersten Gen damit?
MiamiNice
2022-04-02, 23:00:37
Wie schon oft in diesem Forum erwähnt, ja ich skippe die erste MCM Generation von NV. Wie auch die von Intel oder wem auch sonst.
Es liegt in der Natur der Sache das es Kinderkrankheiten bei einer derart gewaltigen Umstellung gibt. Auf derart Komplikationen kann ich verzichten. Ich liebe es meine Hardware dem angedachten Zweck zuzuführen und der ist „High End Gaming“. Für alles andere interessiere ich mich nicht.
PS: Dein Sarkasmus gefällt mir. Von wegen Zen 2 und keine Kinderkrankheiten. Zen ist das Paradebeispiel für Probleme die erst mit Zen3 gelöst wurden. Man hat die hohen Latenzen die durch MCM entstehen mit Caches erschlagen. Vor Zen3 waren AMD Prozessoren nicht das Silizium wert welches sie verschwendet haben.
Bin sehr gespannt wie sich das bei GPUs verhält. Die technischen Anforderungen dürften deutlich höher sein als bei einer CPU.
GerryB
2022-04-03, 07:42:33
Ob man sich nun jetzt über die Flagschiffe streiten muss, wo Die vermutlich erst 2023 kommen!?
2022:
Wg. des Yields ist evtl. ne 4060Ti für die Meisten gut erschwinglich.(als Salvage vom 4070)
Die könnte mit 300...350W(?) auch noch mit vorh. NT´s gut laufen gerade durch die exaktere Spikeregelung.
Ansonsten erwarte ich durch TSMC 5nm(4nm ?) und die Vergrößerung vom Cache eine deutlich bessere Perf./W als mit Ampere@8nm.
Schön wäre auch eine verbesserte INT+FP16 - Nutzung, weiss net, ob die Aussagen nur für Workstation@Tensor gelten oder auch beim
Gaming nutzbar sind. Takt>2,5GHz ?
Ob es beim kleineren Navi33 dann auch nochmal soviel effizienter wird, das kann man momentan noch gar net abschätzen, weil man net genug
über Architektur-Änderungen weiss.(vermutlich etwas größerer Cache und nur 6nm, was trotzdem für 3Ghz reicht beim 6500xt)
Könnte evtl. nur über den Preis konkurrieren.
Insofern sollte man jetzt net sagen ich bleibe bei Hersteller XYZ sondern den "freien" Blick bewahren.
und
Dann wählen obs mit ner Mittelklasse 100fps@4k-Raster oder RT@Upsampling sein soll.
iamthebear
2022-04-03, 11:47:31
Der entscheidende Vorteil von Chiplets ist potentiell besserer Yield/geringere Fertigungskosten, und lower time to market für eine breite Palette an Produkten.
Das kommt immer darauf an. Falls man es mit einer Generation mit schlechten Yieldraten zu tun hat sind Chiplets sinnvoller bzw. erlauben es eine neue Fertigungstechnologie früher einzusetzen. Falls die Yields wie bei TSMC 5nm sehr gut sind, dann wird es jedoch teurer, da das Packaging teurer wird und der Stackingprozess bei den MCDs seine eigenen Yieldraten hat, die aktuell noch nicht besonders gut sein sollen. Auch der Testaufwand ist höher, da zuerst die individuellen Chips getestet werden müssen und dann noch mal das Endprodukt.
Lower time to market: Für Refreshes mag das eventuell stimmen wenn man bestehende Dies neu kombiniert (z.B. mit nur 1 statt 2 GCDs oder mit mehr/weniger Infinity Cache).
Bei einer neuen Generation sind die Entwicklungskosten aber derzeit deutlich höher.
Ich denke es geht hier bei Navi31 in erster Linie darum etwas zu üben und Erfahrungen zu sammeln.
Die Frage ist, ob bei AMDs Chipletdesign der Effizienzverlust gering genug ist dass er praktisch keine Relevanz hat.[/QUOTE]
Hm diese Folie wirkt wie ein Aprilscherz.
Wieso denkst du das? Für mich wirkt das ziemlich plausibel.
Die Transistoranzahl dürfte stimmen denn DG2-128 hat um die 140mm² und Navi24 nur 104mm².
Die Performance ist auch das, was zu erwarten war. Aus Leaks wissen wir, dass DG2-512 mit 4096 FP32 im Idealfall ca. so schnell sein wird wie Navi22 mit 2560 FP also 1.6x.
Dann ist es logisch, dass Navi24 mit 1024 FP32 vs. Navi24 mit 1024 FP32 ca. 1.6x schneller sein wird.
Navi 24 ist eben extrem kompakt. Da wurde abgesehen von Shadern und Infinity Cache viel Ballast abgeworfen wie z.B. der Media Encoder während DG2-128 einfach nur ein DG2-512 mit weniger Recheneinheiten ist.
Es könnte ja sein, dass der AD102 in der 4090 Chip anfangs nicht so hoch und in der 4080 hoch/mittel Hoch getaktet/gerpügelt wird im Vergleich zum AD104 der dann schon von anfang an am Anschlag sein wird. Zusammen mit der Auslegung 58, 90, 140SM würde das auch reichlich Platz für Super und/oder Ti Karten lassen falls AMD einen guten Konter bringt.
Also die relative Verlustleistung pro SM könnte bei AD104 tatsächlich etwas höher sein.
In absoluter Verlustleistung denke ich jedoch, dass Nvidia nur die Topmodelle so extrem hochtreiben wird. Das ist rein Imagesache wer den längsten Balken hat beim Topmodell.
Die realen Modelle, die auch die Leute kaufen werden dann denke ich nicht viel höher sein als bisher. Wozu auch? Von der Fertigung her gibt es im Gegensatz zu 8nm keine Notwendigkeit gegenüber AMD die Keule auszupacken. Abgesehen davon ist viel TDP ja auch ein extremer Preistreiber was die Kühlung und das Platinendesign angeht.
An der Stelle kommt der Preisvorteil eines Chiplet-Designs durch. Billiger oder zum gleichen Preis größere Gesamtfläche => kann in Performance oder Effizienz umgesetzt werden. Ich bin wirklich gespannt...
Solange die Yieldraten gut sind ist ein monolithisches Design immer billiger besonders bei GPUs mit vielen redundanten Bereichen, wo defekte Teile einfach deaktiviert werden.
Bei Chiplets hat man zusätzliche Packagingkosten und niedrigere Yields da beim Packaging öfter ein Defekt auftritt als bei der Fertigung der Chips selbst.
Das Ganze macht nur dann Sinn wenn:
.) Man sonst das Reticle Limit überschreitet (aber so große Chips will sowieso niemand mehr bezahlen)
.) Die Yieldraten schlecht sind (ist bei TSMC 5nm nicht der Fall, das sind die besten Yieldraten seit langem)
.) Man Dual Sourcing betreiben will d.h. man lagert schlechter skalierende Teile wie IO Die oder Cache auf einen anderen Node aus wenn man vom primären Node nicht genügend Fertigungskapazität hat.
Im Fall von AMD trifft der letzte Punkt zu. Man hat viel Caches, die schlecht skalieren und man hat zu wenig 5nm Kapazität, da man nicht die finanziellen Mittel von Nvidia hat den Bau neuer Fabs vorzufinanzieren bzw. nicht in diesem Umfang.
Gast Ritis
2022-04-03, 12:32:30
Zu Chiplets:
1. Der Yield ist wichtig für die Kosten pro Chip bzw. SKU. Diese sind im überhitzten Markt allerdings nicht so entscheidend. Man spricht hier aber nicht von Effizienz, sonder von Yield.
2. Kleinere Chipflächen führen immer zu höherem Takt bei weniger Spannung bzw. weniger Abwärme. Zwei 400qmm Chips takten höher als ein 800qmm Chip. Das ermöglicht in Punkto Energie effizienter zu werden.
3. Das Verbinden von Chiplets auf einem Interposer kostet mehr Energie und extra I/O Brücken auf den Chiplets selbst. Das Gesamtkonstrukt verliert energetisch an Effizienz.
4. Die Fertigungstechniken werden zu grossen Teilen beim Fertiger entwickelt und angeboten, da gibt es wenig, was AMD, Apple, Nvidia exclusiv machen können. Nur Intel hat da sein eigenes EMIB. Aber AMD hat zumindest Erfahrung mit zusätzlichen Partnern beim Chip-Packaging unterschiedlicher Fabs$/Chips. Apple hat beim Ultimate wohl alles von TSMC als Komplettlösung aus einer Hand bekommen.
Die Kunst des Chiplet-Designes ist es ein ausgewogenes Design im Sweetspot zu finden, die richtige Kombination der um ein vielfach angestiegenen Möglichkeiten. Erst da spielt dann die Arch mit hinein, die "relativ" unabhängig von TSMC ist.
Linmoum
2022-04-03, 13:22:16
a):
Man ist irgendwann an einem Punkt, an dem die Performance nicht mehr signifikant steigen wird. Selbst dann, wenn man immer die größt möglichen Chips fertigen lässt. Um das "Problem" zu umgehen ist die einzige Lösung, in die Breite zu gehen aka mehrere einzelne, kleinere Dies zu nutzen.
b):
Du hast bei (hypothetischen) 3xxmm² trotzdem noch immer bessere Yieldraten als bei (hypothetischen) 6xxmm². Völlig egal, wie gut der Prozess an sich ausgereift sein mag.
c):
Streiche Fertigungskapazitäten und ersetze es durch Kosten/Nutzen. Es bringt schlicht nichts, wenn man auch für I/O den aktuellsten Node nutzt. Selbst dann nicht, wenn man genügend Kapazitäten hätte. Verschwendung von jeglichen Ressourcen und ergibt wirtschaftlich einfach keinen Sinn. Selbst, wenn AMD (rein hypothetisch) sämtliche Fertigungskapazitäten von TSMC N5 für sich hätte: Auch dann würde man I/O auslagern und einen älteren Prozess dafür nutzen.
Es gibt davn ab aber kein "das macht nur Sinn, wenn..." bei der Frage danach, ob man Chiplets nutzen wird oder nicht. ALLE Hersteller forschen in diese Richtung und ALLE Hersteller werden zukünftig darauf setzen. AMD ist nur der erste Hersteller, der schon frühzeitig auch praktische Erfahrungen damit hat und Teile des Produktstacks bereits darauf umstellt bzw. in diesem Jahr weiter umstellen wird. Das ist mittel- bis langfristig auch ein nicht zu unterschätzender Faktor.
Lower time to market: Für Refreshes mag das eventuell stimmen wenn man bestehende Dies neu kombiniert (z.B. mit nur 1 statt 2 GCDs oder mit mehr/weniger Infinity Cache).
Auch bei neuen Generationen kann das der Fall sein, ganz einfach weil man weniger DIEs entwickeln muss um den gesamten Markt abzudecken anstatt für jeden Preisbereich einen eigenen DIE zu entwickeln.
Wieso denkst du das? Für mich wirkt das ziemlich plausibel.
Weil ich denke dass AMD keine Intel Grafikkarte zur Verfügung hat um diese Benchmarks durchzuführen, und ein einfaches zusammenfügen irgendwelcher Benchmarks die unter unterschiedlichen Bedingungen erstellt wurden nur ein Joke sein kann.
Ich glaube das war sogar AMDs Intention, das Datum wurde nicht zufällig gewählt, und das herumreiten auf der Transistorzahl ist ziemlich offensichtlich ein Joke, ich mein who cares wie viele Transistoren das Teil hat?
Wenn wir Designs nach der Transistorenzahl beurteilen würden, (und kleiner gleich besser ist) wäre Apples M1 Familie ein ziemlicher Reinfall.
a):
Man ist irgendwann an einem Punkt, an dem die Performance nicht mehr signifikant steigen wird. Selbst dann, wenn man immer die größt möglichen Chips fertigen lässt. Um das "Problem" zu umgehen ist die einzige Lösung, in die Breite zu gehen aka mehrere einzelne, kleinere Dies zu nutzen.
Wenn es um die maximal erreichbare Leistung geht, werden aber nicht mehrere kleine DIEs verwendet sondern eine kleine Anzahl sehr großer DIEs.
Siehe M1Ultra, auch die kolportierten Multi-DIE Gerüchte von NV für HPC sollen aus 2 großen DIEs bestehen. Vermutlich werden wir bei AMD das selbe sehen mit einer geringen Anzahl an DIEs die immer noch ziemlich groß sind.
Das bedeutet dass wir bei Grafikkarten nicht so wie bei AMD CPUs 10 sehr kleine DIEs auf einem Package sehen werden, sondern nur eine geringe wenige immer noch große DIEs. Und das wird auch bedeuten, dass wir Multi-DIE zumindest in absehbarer Zukunft nur am oberen Ende des Leistungsspektrums sehen werden, und im unteren bis mittleren Bereich weiter monolithische GPUs zum Einsatz kommen werden.
b):
Du hast bei (hypothetischen) 3xxmm² trotzdem noch immer bessere Yieldraten als bei (hypothetischen) 6xxmm². Völlig egal, wie gut der Prozess an sich ausgereift sein mag.
Nur wenn du lediglich 100% defektfreie DIEs betrachtest. Es ist ziemlich egal ob du 2 300mm2 DIEs fertigst und davon einen aufgrund eines Defekts wegwerfen musst, oder einen 600mm2 Die von dem du 300mm2 aufgrund eines Defekts deaktivieren musst. Der einzige Unterschied ist, dass der defekte DIE 1x in den Müll wandert, beim anderen deaktiviert mit ausgeliefert wird.
Der einzig wirkliche Unterschied und Vorteil für kleinere DIEs ist der geringere verschnitt am Waferrand
c):
Streiche Fertigungskapazitäten und ersetze es durch Kosten/Nutzen. Es bringt schlicht nichts, wenn man auch für I/O den aktuellsten Node nutzt. Selbst dann nicht, wenn man genügend Kapazitäten hätte. Verschwendung von jeglichen Ressourcen und ergibt wirtschaftlich einfach keinen Sinn. Selbst, wenn AMD (rein hypothetisch) sämtliche Fertigungskapazitäten von TSMC N5 für sich hätte: Auch dann würde man I/O auslagern und einen älteren Prozess dafür nutzen.
Es bringt aber was IO am selben DIE zu haben und nicht über einen extra DIE umleiten zu müssen.
basix
2022-04-03, 15:44:19
Etwas zur Kausalität der Nvidia Gerüchte:
AD104 mit 400W. Das sind 60 SMs. Wenn es gut kommt, ist diese Karte also so schnell wie eine 3090/3090 Ti (82/84 SMs). Welche ihrerseits 350...450W schlucken. Also Null Steigerung der Energieeffizienz? Obwohl TSMC N4/5 vs. Samsung 8nm und neuer Architektur? Soll das also das Ampere 2.0 sein und das Ampere vs. Turing Spielchen wiederholen? Irgendwie unglaubwürdig.
bbott
2022-04-03, 17:04:11
Etwas zur Kausalität der Nvidia Gerüchte:
AD104 mit 400W. Das sind 60 SMs. Wenn es gut kommt, ist diese Karte also so schnell wie eine 3090/3090 Ti (82/84 SMs). Welche ihrerseits 350...450W schlucken. Also Null Steigerung der Energieeffizienz? Obwohl TSMC N4/5 vs. Samsung 8nm und neuer Architektur? Soll das also das Ampere 2.0 sein und das Ampere vs. Turing Spielchen wiederholen? Irgendwie unglaubwürdig.
Wenn man wegen N3x noch näher an die kotz Grenze muss, nicht ausgeschlossen.
etp_inxession
2022-04-03, 17:12:57
Bin ja bekanntlich komplett auf AMD Seite.
Aber ich bin hier zum ersten Mal (in Teilen) bei MiamiNice.
Der MCM Ansatz wird sicher mit Kinderkrankheiten zu tun haben.
Die anderen angesprochenen AMD Probleme sehe ich allerdings nicht.
Navi 2x sind absolut konkurrenzfähig und bei normalen Preislagen, die günstigere Alternative.
Trotzdem werde ich den MCM Ansatz erstmal von der Ferne beobachten.
AMD hat bei Ryzen schon gezeigt das Sie es können. Vielleicht klappt es auch im GPU Segment besser als erwartet. Aber da es hier sehr viel mehr um Latenzen geht, kann ich mir einen reibungslosen MCM Ansatz beim besten Willen nicht vorstellen.
Bleibt nur zu hoffen das der Pipecleaner dennoch einigermaßen mithalten kann.
Wenn nicht im Top End, dann eben bei P/L/E ...
Eine 300(+) Watt Karte tuh ich mir eh nicht an.
Vielleicht kann der Infinity Cache die Latenzen in Zaum halten.
Wenn AMD es schafft ganze Chiplets gekonnt an und zuzuschalten, dann könnte der Energiehunger bescheiden bleiben.
Ich bin sehr gespannt.
Rein vom technischen Ansatz her ist Navi 3x auf jeden Fall interessanter als Ada.
Gast-On
2022-04-03, 18:52:30
Man hat die hohen Latenzen die durch MCM entstehen mit Caches erschlagen. Vor Zen3 waren AMD Prozessoren nicht das Silizium wert welches sie verschwendet haben.
Bin sehr gespannt wie sich das bei GPUs verhält. Die technischen Anforderungen dürften deutlich höher sein als bei einer CPU.
Das ist nicht korrekt.
Von Zen 2 zu Zen 3 sind die Latenzen zwischen den CCX durch Zusammenlegen von zwei CCX zu einem 8-Kern CCD reduziert worden.
-> Die Latenzen zwischen den Chiplets sind lediglich um 3-8ns gefallen.
Die größte Optimierung haben die Latenzen innerhalb eines CCX erhalten, was absolut nichts mit dem MCM-Ansatz zu tun hat.
https://www.anandtech.com/show/16214/amd-zen-3-ryzen-deep-dive-review-5950x-5900x-5800x-and-5700x-tested/5
Davon ab war selbst Zen 1 mit der IPC von Haswell und der gegenüber der Konkurrenz doppelten Kern-Anzahl im Mainstream ein richtig gutes Stück Silizium! Eine vergleichbare 8C/16T Intel HPC-CPU war mit 1200 Euro zum gleichen Zeitpunkt mehr als doppelt so teuer und durch die niedrigen Takte keinen Deut besser.
Als Spielzeug lagen die im Mainstream angebotenen Intel 4C/8T (i7 7700) zum damaligen Zeitpunkt in den meisten Spiele-Anwendungen vorn, was man als geneigter Käufer durch das bessere P/L-Verhältnis aber verkraften konnte. Spielzeug vs Arbeitstier.
Im Server-Segment haben die Ryzen-Prozessoren durchgeschlagen wie eine Bombe. Der Erfolg der das nötige Cash-Polster für die Entwicklung der folgenden Generationen gesichert hat.
Silizium-Verschwendung gibt es dagegen in den Intel Arc GPUs. Das Ziel dahinter scheint wohl darauf hinauszulaufen, der Konkurrenz die Wafer zu blockieren.
PS: Dein Sarkasmus gefällt mir. Von wegen Zen 2 und keine Kinderkrankheiten. Zen ist das Paradebeispiel für Probleme die erst mit Zen3 gelöst wurden. Man hat die hohen Latenzen die durch MCM entstehen mit Caches erschlagen. Vor Zen3 waren AMD Prozessoren nicht das Silizium wert welches sie verschwendet haben.
Das Problem an deiner absolut faktenlosen Aussage ist, dass Zen2 mit allen Intel Konkurrenz-Chips den Boden gewischt hat... Die waren also noch weniger die Chipfläche wert...
Das kommt immer darauf an. Falls man es mit einer Generation mit schlechten Yieldraten zu tun hat sind Chiplets sinnvoller bzw. erlauben es eine neue Fertigungstechnologie früher einzusetzen. Falls die Yields wie bei TSMC 5nm sehr gut sind, dann wird es jedoch teurer, da das Packaging teurer wird und der Stackingprozess bei den MCDs seine eigenen Yieldraten hat, die aktuell noch nicht besonders gut sein sollen. Auch der Testaufwand ist höher, da zuerst die individuellen Chips getestet werden müssen und dann noch mal das Endprodukt.
Woher kennst du die Yields in TSMC 5nm für High End GPUs? Da fertigt TSMC bisher eher weniger, oder anders gesagt: Gar nichts.
Rein vom technischen Ansatz her ist Navi 3x auf jeden Fall interessanter als Ada.
Rein technisch haben wir aktuell weder von Navi 3x noch von Ada wirklich eine Ahnung was kommt.
Der Ryzen 5900X und 5950X sind bei geringer Auslastung nicht mal ansatzweise so effizient wie in den "100 % Auslastung Benchmarks" präsentiert.
Wurde hier und anderswo erwähnt; die genehmigen sich beide im "Windows Ausbalanciert Modus" selbst bei wenigen laufenden Programmen, zwischen 10 - 20 % Auslastung, gerne mal 60 - 80 W im Durchschnitt.
Schaltet man um in den Energiesparmodus, wird ein Chiplet (6/8 Kerne) auf inaktiv gesetzt und der Verbrauch sinkt auf 40 - 50 W.
Als Problem wurde der 1) Interconect "Infinity Fabric" benannt, welcher ständig aktiv ist und 2) halt das zweite Chiplet, was nicht ausgelastet wird aber dennoch aktiv ist und Strom nuckelt.
Hätte der GPU Ansatz mit zwei Chips nicht dasselbe Verbrauchsproblem?
Linmoum
2022-04-04, 01:53:42
Der Idle-/Teillastverbrauch von CPUs wird entscheidend mit vom Mainboard beeinflusst. Das Thema haben wir hier regelmäßig, zuletzt erst wieder bei ADL.
Woher kennst du die Yields in TSMC 5nm für High End GPUs? Da fertigt TSMC bisher eher weniger, oder anders gesagt: Gar nichts.
Der Prozess weiß nicht "Uiiiiii das wird eine GPU, da mach ich mal mehr Fehler" oder "Uiiiiii das ist ein Smartphone SOC da bemüh ich mich besonders".
anddill
2022-04-04, 09:40:28
Der Prozess weiß nicht "Uiiiiii das wird eine GPU, da mach ich mal mehr Fehler" oder "Uiiiiii das ist ein Smartphone SOC da bemüh ich mich besonders".
Die Größe des Chips hat einen gewaltigen Einfluss auf die Anzahl der Fehler pro Chip.
Die Größe des Chips hat einen gewaltigen Einfluss auf die Anzahl der Fehler pro Chip.
Die Anzahl der Fehler pro Chip aber nur eine sehr kleine auf die Anzahl nutzbarer Chips.
Bei Smartphone SOCs gibt es in der Regel nur wenige oder gar nur ein einziges Produkt, es können also abseits eventueller Redundanzen in größeren Blöcken wie Caches fast nur vollständig funktionsfähige DIEs verwendet werden.
GPUs decken dagegen ein sehr breites Preis- und Leistungsspektrum ab, wodurch sehr viele DIEs mit Fehlern immer noch verwendbar bleiben.
Es gibt natürlich physische Strukturen die zu Fehlerhäufungen neigen, das hat aber rein mit dem physischen Design eines DIEs zu tun und nichts damit wofür dieser eingesetzt wird.
Lehdro
2022-04-04, 14:14:29
Das sind doch die gleichen Helden, die für Hopper 1000W sahen, oder?
Also wird die 4070 dementsprechend 0,7*400W = 280W verbrauchen.
Passt und ist mit Sicherheit plausibler und näher an der Realität als die 400W.
This.
Das was da als Wattangabe angegeben wird, wird sicherlich der Peakwert sein. Da ist halt bei 600W Schluss, wenn man sich so die Analyse von Igor zur 3090 Ti anschaut. Darauf scheint NV technisch großen Wert gelegt zu haben, die Spitzen eben nicht mehr so überproportional zur normalen TDP eskalieren zu lassen.
Damit würde die 4090 offizielle ~450W, die 3080 ~350W und die 4070 ~290W TDP haben. Das klingt deutlich vernünftiger als eine 4070 mit 400W :redface:
Platos
2022-04-04, 15:41:07
Naja, war doch klar irgendwie. Es gab natürlich die einen oder anderen, die da gerne den einen oder anderen Kontrahenten verlieren sehen und dann glauben sie alles :D
Ist hald immer wieder amüsant, wie sehr Leute Gerüchte einfach so glauben :D
Das Problem an deiner absolut faktenlosen Aussage ist, dass Zen2 mit allen Intel Konkurrenz-Chips den Boden gewischt hat... Die waren also noch weniger die Chipfläche wert...Bullshit. Man hat die Probleme nur einfach in Kauf genommen, weil es für die meisten Fälle trotzdem das bessere Produkt war.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.