Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 21. Juli 2022
Leonidas
2022-07-22, 09:31:55
Link zur News:
https://www.3dcenter.org/news/news-des-21-juli-2022
gastello
2022-07-22, 12:06:46
Das 2D Bild wurde aus AMDs Patentantrag für ein MCM Design herauskopiert (dürfte nicht mal zulässig sein) und nur gerendert, ob das überhaupt N31 ist ist daher fraglich.
Eure Berichterstattung vom 14.07.2022 basiert dabei auf die gleichen Informationen. Patentanträge müssen nicht immer zu einem physischen Ergebnis führen.
madshi
2022-07-22, 13:22:29
@Leonidas,
wie ist denn Deine Einschätzung zur Nachfolger-Generation von RDNA3 vs Ada Lovelace, also RDNA4 vs Blackwell (?).
Ich frage, weil Nvidia ja normalerweise 2 Jahre Abstand zwischen 2 Generationen hat, während AMD scheinbar RDNA4 schon 1 Jahr nach RDNA3 plant. Noch dazu soll angeblich Nvidias nächste Generation (nach Ada Lovelace) immer noch monolithisch sein (?).
Wird Nvidia da nicht in große Schwierigkeiten kommen?? :eek:
Ich frage, weil Nvidia ja normalerweise 2 Jahre Abstand zwischen 2 Generationen hat, während AMD scheinbar RDNA4 schon 1 Jahr nach RDNA3 plant. Noch dazu soll angeblich Nvidias nächste Generation (nach Ada Lovelace) immer noch monolithisch sein (?).
Wird Nvidia da nicht in große Schwierigkeiten kommen?? :eek:
Gut gedacht!
Tatsächlich konnte amd mit dem Chiplet Design, die MCDs in einem Jahr oder vielleicht auch in 2 oder 3 Jahren wiederverewerten und nur das gcd neu auflegen. Dies dürfte weniger aufwendig sein. Oder es wird einfach ein dual gcd rdna3 gebracht (wobei gegen dieses der ad102 im vollausbau noch konkurrenzfähig sein sollte).
Muss man aber zuerst sehen, wie sich dieses Chiplet Design im Alltag schlägt.
Da stellt sich die Frage wozu Navi33 überhaupt existiert.
Wenn doch Chiplet angeblich so viel effektiver zu fertigen ist, müsste ja im Endeffekt sogar Navi32 günstiger, und dabei viel stärker sein.
Leonidas
2022-07-22, 14:52:23
wie ist denn Deine Einschätzung zur Nachfolger-Generation von RDNA3 vs Ada Lovelace, also RDNA4 vs Blackwell (?).
Zu weit in der Zukunft liegend. Wir wissen faktisch gar nichts darüber, können nur über die Fertigung (3nm) und den Termin (2024) spekulieren.
Da stellt sich die Frage wozu Navi33 überhaupt existiert. Wenn doch Chiplet angeblich so viel effektiver zu fertigen ist, müsste ja im Endeffekt sogar Navi32 günstiger, und dabei viel stärker sein.
N32 mit etwas mehr Chipfläche und teuren 5nm ist garantiert nicht günstiger als N33.
Wozu aber N33: Es bringt Performance nahe N21 und ist kleiner/günstiger. Das reicht faktisch aus.
Chiplets sind im übrigen nicht wirklich günstiger. Mono ist in aller Regel günstiger, es sei den man will Riesen-Chips machen. Aber Chiplets sind flexibler bezüglich der damit zu kreierenden Produkte. Bei großen Serien müsste man ansonsten viele Mono-Chips auflegen, was auch ins Geld geht. Also macht AMD lieber in Chiplets - und Intel in Zukunft auch.
Gast Ritis
2022-07-22, 15:10:26
Wozu aber N33: Es bringt Performance nahe N21 und ist kleiner/günstiger. Das reicht faktisch aus.
... und wenn die MCDs ausgelagert sind kann der dadurch kleinere GCD im Verhälntis wesentlich höher takten und bei weniger Spannung operieren als ein Monolith.
Der Yield wird obendrein besser, gehen wir mal davon aus, dass man Interposer-MCMs mittlerweile routiniert beherrscht.
Leonidas
2022-07-22, 15:15:01
Klar wäre N33 als Chiplet/5nm besser dran. Sofern man den Leakern glaubt, ist es aber weiterhin mono/6nm. Mögliche Erklärung (meinerseits): AMD will die Chipfläche zwischen 7/6nm und 5nm verteilen, damit Zen4 möglichst viel 5nm abbekommt.
GerryB
2022-07-22, 16:07:02
Die ausgelagerten Caches könnten evtl. auch andere Volt verwenden.
also bei N33 mehr Volt@6nm
während
N32 weniger Volt@5nm braucht
Damit sollte N32 am Effektivsten sein.
Rabiata
2022-07-22, 16:19:28
Chiplets sind im übrigen nicht wirklich günstiger. Mono ist in aller Regel günstiger, es sei den man will Riesen-Chips machen. Aber Chiplets sind flexibler bezüglich der damit zu kreierenden Produkte. Bei großen Serien müsste man ansonsten viele Mono-Chips auflegen, was auch ins Geld geht. Also macht AMD lieber in Chiplets - und Intel in Zukunft auch.
Das hat AMD auch schon anders gesehen:
Es gibt eine Präsentation von 2020, nach der ein hypothetischer 16-core Ryzen als Monolith das doppelte der Chiplet-Version kosten würde. Artikel bei Guru3D (https://www.guru3d.com/news-story/amds-chiplet-design-allows-them-to-reduce-cost-of-the-ryzen-9-3950x-by-half.html). Ansonsten wird die Ausbeute in der Fertigung immer schlechter, je größer die Chips werden. Möglicherweise kommt Navi32 da über eine Grenze, oberhalb der sich das Chiplet-Design einfach besser rechnet.
Ich bin mal gespannt wie sich die Energieeffizienz zwischen N33 (monolitisch) und N32 mit Chiplets verhält. Die Chiplets haben ja nicht nur Vorteile, sondern durch die Schnittstellen steigt ja der Energieverbrauch wieder an.
Möglicherweise ist N33 gar nicht weniger energieeffizient als N32..
GerryB
2022-07-22, 17:32:53
Oder AMD hat einfach noch genug 6nm-Kontingent übrig, was N33 preiswert macht.
Dank des voreiligen Bashings gegen die RX 6500/6400 sind da wohl derzeit net soo große Stck.zahlen.
Normalerweise müßte AMD locker das 10-fache absetzen können, weil NV in dem Segment außer der 1630 gar nix hat.
... vllt. kommen ja jetzt noch die Käufer dazu, die A380 abgewartet hatten
Rabiata
2022-07-22, 18:16:21
Dank des voreiligen Bashings gegen die RX 6500/6400 sind da wohl derzeit net soo große Stck.zahlen.
Normalerweise müßte AMD locker das 10-fache absetzen können, weil NV in dem Segment außer der 1630 gar nix hat.
... vllt. kommen ja jetzt noch die Käufer dazu, die A380 abgewartet hatten
Voreilig war das Bashing gegen die RX 6500/6400 wohl kaum. Geschwindigkeit/Effizienz ist zwar etwas verbessert gegenüber der GTX 1650, aber besonders überzeugend ist der Fortschritt nicht. Der kastrierte Videodecoder und die Anbindung mit nur 4x PCIe 4.0 überzeugen auch nicht. Das ist eine Karte, die der OEM dem Fertigkäufer aufs Auge drückt, aber nichts was der informierte Selbstbauer kauft.
Und die A380 ist im Westen eh nicht zu haben. Da konnte sich so oder so niemand verkaufen :tongue:.
Dank des voreiligen Bashings gegen die RX 6500/6400 sind da wohl derzeit net soo große Stck.zahlen.
Wieso voreilig? Das Bashing gegen RX 6500 ist gerechtfertigt! Langsamer als die RX 580 8GB, aber nicht günstiger, als die RX 580 damals... Die RX5500 XT gab es mit 8GB, die 6500 XT nicht. Wieso nicht? Damit die 6500XT langsamer als der Vorgänger RX5500 XT ist? Wo ist da die Logik im Portfolio? Damals wurde noch gesagt. Man bringe angeblich extra nur 4GB, damit die Miner damit nichts anfangen können. Inzwischen sind die Miner weg und es passiert nichts.
Wenn AMD mehr von diesen Chips verkaufen will, muss AMD einfach mal eine 8GB-Variante der 6500XT bringen, dann tut das X4-Interface auch nicht mehr so weh.
Solange AMD das nicht bringt, machen die Verbraucher genau das richtige, einfach schnellere, gebrauchte Grafikkarten mit 8 GB Speicher zum ähnlichen Preis kaufen... Zum Beispiel die GTX 1070 8 GB
iamthebear
2022-07-22, 20:31:06
AMD nutzt Chiplets in erster Linie nicht wegen der Yields sondern damit man schlechter skalierende Teile auf ältere Fertigungen auslagern kann. Das ist jedoch zum Teil eher der individuellen Situation von AMD geschuldet und lässt sich nicht unbedingt auch auf andere Hersteller übertragen:
.) Bei Zen2/3 hatte man noch bestehende Verträge mit GF und musste die Wafer abnehmen und für IO Dies waren deren 12nm noch gut genug, für den Rest nicht sinnvoll.
.) Bei Zen4 ist das Problem, dass man die Kapazität von TSMC nur bekommt wenn man die Kapazitätserweiterung vorfinanziert. AMD hat hier nur begrenzte Mittel. Vor ein paar Jahren waren die fast pleite. Nun ist zwar genug Geld da um personalmäßig etwas aufzustocken aber im Vorfeld 10 Mrd. für Wafer auszugeben das tut halt noch sehr weh.
Was Navi31/32 angeht so sind die MCDs denke ich nur ein temporärer Zwischenschritt.
Meine Vermutung ist, dass über kurz oder lange auch der VRAM auf die MCDs gestacked werden wird.
Der kastrierte Videodecoder und die Anbindung mit nur 4x PCIe 4.0 überzeugen auch nicht.
Welche Karte in der Preisklasse hat denn einen besseren Decoder? Oder was genau fehlt dir da?
Und gebrauchte Karten will halt nicht jeder kaufen, weil da eben die Möglichkeit gegeben ist, nicht funktionsfähigen Schrott angedreht zu bekommen, wodurch die Kohle weg ist.
GerryB
2022-07-22, 22:03:06
Das jetzt nochmal das Bashing gegen die 6500xt verteidigt wird, ohne Alternativen zu benennen,
sagt eigentlich schon Alles.
Die 6500xt gabs oft genug für 169€ zu kaufen, ... Was gibts da Woanders als Neuprodukt?
Glaube net, das in dem Segment der Videoencoder ne Rolle spielt.(für Kids)
Wie sich 4GB Vram mit direct storage machen, wird man im Herbst sehen.
Das Gemehr geht aber eher auf die Kappe von MS, könnte schon seit mindestens 1 Jahr aktiviert sein, weils eigentlich nur
ne NVMe braucht.
Z.Bsp. hat NV vor 4 Jahren die 3070-8GB mit RTX-I/O konzipiert für 4k und wartet immer noch auf MS, ... erst mit W12!?
Bis MS aus den Pötten kommt ist dann schon Ada am Start und wird wieder mit RTX-I/O beworben.
anddill
2022-07-22, 22:11:33
Also ich hab gerade ne RX 6400 gekauft. Zähneknirschend zwar, aber trotzdem. Ist als LP-Karte in der Leistungsklasse leider fast alternativlos. Mache damit meinen HTPC fit für "Stray".
Hätte auch ne GTX 1650 LP nehmen können, aber die ist auch nicht schneller, hat kein HDMI 2.1, braucht nominal mehr Power und ist teurer.
Rabiata
2022-07-22, 23:16:24
Welche Karte in der Preisklasse hat denn einen besseren Decoder? Oder was genau fehlt dir da?
Und gebrauchte Karten will halt nicht jeder kaufen, weil da eben die Möglichkeit gegeben ist, nicht funktionsfähigen Schrott angedreht zu bekommen, wodurch die Kohle weg ist.
Die A380 hat AV 1 Decoding/Encoding in Hardware. Die ist zwar auf dem westlichen Markt nicht relevant weil nicht erhältlich und auf andere Art Schrott, zeigt aber daß es in der Preisklasse geht. Und gerade beim Nachrüsten von älteren Rechnern ist das relevant, da ist schon mal die CPU mit Decodieren überfordert.
GerryB
2022-07-22, 23:21:50
Ne 6400/6500 kann 4kH264 dekodieren.
(ob jetzt Jeder AV1+HDR braucht, wäre die Frage ... sind dann vllt. 0,1%, die permanent rummotzen)
Rabiata
2022-07-22, 23:38:19
Ne 6400/6500 kann 4kH264 dekodieren.
(ob jetzt Jeder AV1+HDR braucht, wäre die Frage ... sind dann vllt. 0,1%, die permanent rummotzen)
Auf YouTube gibt es mittlerweile einiges in AV1. Das auf der CPU zu decodieren macht manchem älteren Rechner Probleme. Mein Phenom II braucht 50% CPU um AV1 in 720p zu decodieren. Bei 1080p ist er überfordert.
GerryB
2022-07-22, 23:44:19
Und?
Braucht Jeder AV1-videos am PC, ... ich net.
HDR schaue ich im Wozi am TV.
Platos
2022-07-22, 23:54:08
Ich schon und wenn man ne zukunftsfähige GPU haben will, auf jeden Fall keine Kaufempfehlung, die man irgend jemandem machen sollte.
GerryB
2022-07-23, 00:01:05
Willkommen bei den 0,1%.
Darfst dann gerne mit ner 3050 für >300€ anfangen und erklärst Deinen Kindern, warum 10x Eis essen ausfällt.
Und gebrauchte Karten will halt nicht jeder kaufen, weil da eben die Möglichkeit gegeben ist, nicht funktionsfähigen Schrott angedreht zu bekommen, wodurch die Kohle weg ist.
Dafür gibt es bei e-bay Bewertungen...
Die 6500XT ist bereits als Neuware "kaum funktionsfähiger Schrott" sobald ein Spiel mit 4 GB nicht klar kommt und das PCIe X4 auch den Zugriff auf den Auslagerungsrahm verlangsamt, insbesondere wenn man noch ein PCIe 3.0-System hat.
N32 mit etwas mehr Chipfläche und teuren 5nm ist garantiert nicht günstiger als N33.
Laut den Renders ist N33 deutlich größer als N32.
Das hat AMD auch schon anders gesehen:
Es gibt eine Präsentation von 2020, nach der ein hypothetischer 16-core Ryzen als Monolith das doppelte der Chiplet-Version kosten würde. Artikel bei Guru3D (https://www.guru3d.com/news-story/amds-chiplet-design-allows-them-to-reduce-cost-of-the-ryzen-9-3950x-by-half.html). Ansonsten wird die Ausbeute in der Fertigung immer schlechter, je größer die Chips werden. Möglicherweise kommt Navi32 da über eine Grenze, oberhalb der sich das Chiplet-Design einfach besser rechnet.
Ryzen 16 Core wäre ziemlich sicher nicht größer als Navi32, also entweder erzählt AMD nicht alles, oder sie rechnen das einfach für die Investoren schön.
Leonidas
2022-07-23, 03:07:12
Das hat AMD auch schon anders gesehen:
Es gibt eine Präsentation von 2020, nach der ein hypothetischer 16-core Ryzen als Monolith das doppelte der Chiplet-Version kosten würde.
Richtig, bei den ganz großen Chips wird dann die Yield-Rate bestimmend. Aber bei den kleineren Chips spielt das nicht so die Rolle, da kommt eher das aufwendigere Packaging als Kostenfaktor hinzu. Rechnet man ein, dass man Mono immer eleganter designen kann, dann ist Mono abseits der großen Chips immer besser.
Nur kann "besser" eben vieles von +5% zu +100% bedeuten. Bei einem Kostenvorteil von nur +5% kann man sich eben dennoch dafür entscheiden, einen anderen Weg zu gehen, weil dort vielleicht größere Vorteile auf anderen Gebieten exisieren.
Möglicherweise kommt Navi32 da über eine Grenze, oberhalb der sich das Chiplet-Design einfach besser rechnet.
So dürfte es in etwa sein.
Laut den Renders ist N33 deutlich größer als N32.
Wie das? N33 ist doch deutlich als etwas kleiner als N32 eingezeichnet (voller Chip incl. MCDs).
Convertible
2022-07-23, 09:15:57
Ryzen 16 Core wäre ziemlich sicher nicht größer als Navi32, also entweder erzählt AMD nicht alles, oder sie rechnen das einfach für die Investoren schön.
AMD hat damals die 14nm/12nm IO-Dies von Globalfoundries deutlich günstiger als die 7nm-Chips von TSMC bekommen.
Ich denke, die Preissituation 6nm I/O vs. 5nm Chips bei TSMC sieht da schon etwas anders aus. Die Differenz sollte da kleiner ausfallen.
Bei Globalfoundries steigt ja die Marge, wenn sie weniger IO-Dies für AMD liefern, siehe letzten Quartalsberichte. Das zeigt deutlich, dass AMD da sehr gute Preise für den IO-Die rausgehandelt hat. Auch die Wiederverwertung als X570-Chipsatz geht eber nur, weil der Preis so niedrieg ist...
Wie das? N33 ist doch deutlich als etwas kleiner als N32 eingezeichnet (voller Chip incl. MCDs).
Weil die Bilder völliger Schrott sind und sich N31 bis N33 einfach ausgedacht wurde. Das sind HPC Entwürfe als reine Beschleuniger, die haben nicht mal eine visuelle Ausgabeeinheit. Das an der Seite ist HBM.
Da sieht man mal was da alles für ein Müll im Internet umhergeistert, wo sich aus abrufbaren Infos irgendwas zusammengesponnen wird, was dann Nextgen sein soll und als Insidernews verkauft. Fakenews vom feinsten und am laufenden Band. 3dc entwickelt sich dabei zur Oberfakenewsseite seit Wochen.
Clikkbyte vom Feinsten.
Leonidas
2022-07-23, 11:54:07
Weil die Bilder ... N31 bis N33 einfach ausgedacht wurde.
Korrekt. Ich bezog mich allein auf meinen Vorredner, der *in diesen Bildern* einen größeren N33 sehen wollte.
Fakenews vom feinsten und am laufenden Band. 3dc entwickelt sich dabei zur Oberfakenewsseite seit Wochen.
Wo wurde in irgendeiner Form die Behauptung aufgestellt, dass die Bilder Tatsachen entsprechen? Ich denke, ich würde es sehr deutlich kennzeichnen, sofern solcherart Bilder offiziell sind oder wenigstens auf offiziellen Daten basieren.
Insofern ist Deine Aussage nur ein was - Fake (Desinformation).
Wie das? N33 ist doch deutlich als etwas kleiner als N32 eingezeichnet (voller Chip incl. MCDs).
Aber N33 selbst ist deutlich kleiner, und selbst mit CCDs gerade mal geringfügig größer.
Und laut AMDs Ausführungen zu den CPUs soll das ja deutlich billiger sein.
Rabiata
2022-07-23, 13:01:13
Weil die Bilder völliger Schrott sind und sich N31 bis N33 einfach ausgedacht wurde. Das sind HPC Entwürfe als reine Beschleuniger, die haben nicht mal eine visuelle Ausgabeeinheit. Das an der Seite ist HBM.
Spekulation? Ja.
HPC Entwürfe als reine Beschleuniger: Nope.
AMD geht bei HPC mittlerweile andere Wege (siehe unten). Was Du hier an Speku siehst sind die Consumer Chips fürs Gaming.
Und was da an kleinen Chips neben dem großen sitzt, ist nach meinem Verständnis Cache. Auf dem wiederum der Speichercontroller für den Haupt-VRAM sitzt, vermutlich 4 GB pro Cache-Chip. Eine ziemlich clevere Konstruktion denke ich. Das läßt sich gut rauf- und runterskalieren, indem mehr oder weniger von diesen Cache- und VRAM Einheiten verbaut werden.
In der HPC-Schiene hat AMD heute die Radeon Instinct Serie. Die hat tatsächlich HBM, aber hatte zuletzt mit der Vega VII eine gemeinsame Hardwarebasis mit den Consumer-Karten.
Seither gibt es die CDNA Architektur, die mit Navi nicht mehr viel gemeinsam hat.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.