Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 27. Juni 2022


Leonidas
2022-06-28, 10:27:55
Link zur News:
https://www.3dcenter.org/news/news-des-27-juni-2022

basix
2022-06-28, 10:35:27
Du schreibst es schon im Artikel: CUs sind ab RDNA3 eine suboptimale Angabe, wenn man es mit Vorgänger-Architekturen vergleichen will. FP32 Cores wären zukünftig wohl eindeutiger, um die Rohleistung bestimmen zu können. Dito bei Ampere und Lovelace.

Rsioux
2022-06-28, 10:58:50
In der Tabelle ist ein Tippfehler. 8- und 12 Kerner sind gleich. Der Desktop 8-Kerner soll der 7800HX sein.

Platos
2022-06-28, 11:16:23
Egal ob nun fake oder nicht: Mit d Chiplet-Design ist AMD gerade im Niedriglastbereoch ier noch extrem schlecht. Von daher hoffe ich eher darauf, dass die Apus beim Desktop (6700G usw.) weiterhin monolithisch bleiben. Die sind nämlich ware Geheimtipps bei Niedriglast, Maximallast und Idle. Qlso ware Stromsparkünstler.

Hoffe das bleibt so. Denn bisher haben die leider aufgrund von veralteter iGPU komplett abgestunken. Strix-Point mit DDR5 wäre/könnte ein kleiner Geheimtipp werden. Hoffentlich versaut es AMD nicht mit irgendwelchen Cut-Downs.

Gast
2022-06-28, 11:48:13
Dies würde zum einen zu AMDs generellem Ansatz passen, mehr und mehr auf Chiplets zu setzen. Andererseits widerspricht es dem Wirtschaftlichkeits-Anspruch an eine solche Mobile-APU, welche den großen OEMs durchaus zu Kampfpreisen angeboten werden muß und wo daher die ganz großen technischen Verrenkungen eher nicht in die Kosten/Nutzen-Rechnung passen.

Vor allem spricht auch dagegen, dass bei mobilen CPUs es in der Regel das Ziel ist den Footprint des Packages zu minimieren.
Die bisherigen Lösungen brauchen deutlich mehr Platz, außer natürlich man verwendet eine teure Interposer oder EIMB-Ähnliche Variante, oder 3d-Stacking.

Leonidas
2022-06-28, 13:27:02
In der Tabelle ist ein Tippfehler. 8- und 12 Kerner sind gleich. Der Desktop 8-Kerner soll der 7800HX sein.

Gefixt.

Gast Ritis
2022-06-28, 13:30:47
Egal ob nun fake oder nicht: Mit d Chiplet-Design ist AMD gerade im Niedriglastbereoch ier noch extrem schlecht. Von daher hoffe ich eher darauf, dass die Apus beim Desktop (6700G usw.) weiterhin monolithisch bleiben. Die sind nämlich ware Geheimtipps bei Niedriglast, Maximallast und Idle. Qlso ware Stromsparkünstler.


Das hat nicht nur mit Monolith vs. Chiplet zu tun sondern auch mit der Grösse bzw. notwendigen Chipfläche für die Leistung.

Ab einem bestimmten Punkt ist die zusätzliche Energie für die Infinity-Links weniger als die zusätzliche Enerie und Spannung für zu grosse Monolithen.
Das war das Erfolgsrezept des Zen1 vs. Intels CPUs mit vielen Kernen in 2017.

Also: kleine APUs = zwingend Monolith, grosse APUs = zwingend Chiplets.
Ich bin sicher die Consolen-APUs liegen da in der Grösse recht nah am Optimum eines Monolithen in der jew. Fertigung. Dort hat man sicherlich nicht leichtfertig auf mehr CUs verzichtet.

Rabiata
2022-06-28, 14:25:18
Zwar wird Zen 4 dann mit schnellem DDR5 antreten – aber ob dies gut genug ist angesichts einer (mehr als) Rohleistungs-Verdopplung, wäre sicherlich erst einmal zu belegen. Bei früheren iGPUs war doch immer ein gewisser Performanceverlust durch deren Speicheranbindung zu bemerken, gerade wenn jene mit einem großem Schwung an mehr Rechenleistung antraten.
Infinity Cache sollte helfen. Sogar die 6500XT mit nur 16MB davon schneidet besser ab, als man bei der kastrierten Speicherbandbreite erwarten würde.

Mehr als 16MB Infinity Cache erwarte ich aber aus Kostengründen von den kommenden APUs nicht. Sollte es anders sein, wäre das natürlich willkommen.

Gast
2022-06-28, 20:04:24
Infinity Cache sollte helfen. Sogar die 6500XT mit nur 16MB davon schneidet besser ab, als man bei der kastrierten Speicherbandbreite erwarten würde.

Mehr als 16MB Infinity Cache erwarte ich aber aus Kostengründen von den kommenden APUs nicht. Sollte es anders sein, wäre das natürlich willkommen.

Na ja nicht nur die GPU, auch die CPU (wie bei 5800x3d) profitiert von dem Cache. Wenn die es dynamisch mal zur gpu und mal zur CPU zuordnen können, sollte das eine geile apu werden, sogar fürs Gaming wie die 5800x3d, oder besser.

Nur zu Gast
2022-06-28, 21:15:37
So schön Cache für Grafikperformance ist, viel wichtiger dürfte für mobile-Befürfnisse sein, dass bisher (RDNA2, 5800X3D) der Cache auch immer positive Auswirkungen auf die Effizienz hatte - grob gesagt, mehr Cache => weniger Hitze, weniger Stromverbrauch, höhere Laufzeiten. Falls das tatsächlich anständig bis runter in den mobile-Bereich skaliert, wäre das natürlich super für mobile-Designs.

Wenn man im mobile Bereich (also Phoenix Point) nur bis acht Kerne geht, noch dazu laut AMD-Folien in 4nm, dann halte ich Chiplets auch erstmal für übertrieben. Je kleiner der Node und je geringer die Fläche der eigentlichen Funktionsblöcke (also CPU-Kerne, GPU-Kerne oder Cache), umso größer ist relativ immer der Overhead (sowohl bei Chipfläche, Power und ggf. Performance) für die Off-Die Interfaces.
Ich fände mehr Chiplets (für echtes 'Mix and Match' zwischen CPU/GPU/Cache), auch für Laptops, sehr spannend. Und abschließend beurteilen kann ich es eh nicht. Aber ich bleibe da sehr skeptisch.

Gast
2022-06-30, 19:28:28
Ich sehe auch keinen Platz für Chiplets im Low-Cost-Bereich.
Mal sehen, was AMD macht, wenn wieder genug Kapazität da und die aktuelle Resterampe weg ist. Da der Gewinn pro Stück so klein ist, hat man den Markt jenseits vom Minimum für Lieferverträge komplett vernachlässigt.

Platos
2022-06-30, 21:20:09
Das hat nicht nur mit Monolith vs. Chiplet zu tun sondern auch mit der Grösse bzw. notwendigen Chipfläche für die Leistung.

Ab einem bestimmten Punkt ist die zusätzliche Energie für die Infinity-Links weniger als die zusätzliche Enerie und Spannung für zu grosse Monolithen.
Das war das Erfolgsrezept des Zen1 vs. Intels CPUs mit vielen Kernen in 2017.

Also: kleine APUs = zwingend Monolith, grosse APUs = zwingend Chiplets.
Ich bin sicher die Consolen-APUs liegen da in der Grösse recht nah am Optimum eines Monolithen in der jew. Fertigung. Dort hat man sicherlich nicht leichtfertig auf mehr CUs verzichtet.

Das Erfolgrezept von 2017 war der Preis und die Kernanzahl. Aber mal davon ab: Niemand hat da den Stromverbrauch im Niedriglastbereich angeschaut (Das ist nicht Idle).

Also zumindest bis zu 8 Kernen ist und war AMD seit ZEN immer schlechter im Niedriglastbereich (bei den Chiplets). Bei allen Nicht-Chiplet-Produkten ist das nicht der Fall. Das betrifft auch den 5700G usw. Die sind überhaupt nicht klein bei der DIE-Fläche. Also deine These ist da eher nicht zutreffend für Kernanzahl bis zu 8 (darüber gibts ja auch keine Vergleiche bei selebr Architektur).

Aber klar, ab einem bestimmten Punkt wird das sicherlicher negiert, aber das ist nicht bei 8 Kernen oder weniger der Fall.

Gast
2022-07-01, 08:15:52
Also: kleine APUs = zwingend Monolith, grosse APUs = zwingend Chiplets.


Ja genau, M1Max beweist perfekt dass große Monolithen einfach ineffizient sein müssen.

Lehdro
2022-07-01, 14:09:16
Ja genau, M1Max beweist perfekt dass große Monolithen einfach ineffizient sein müssen.
Vom Materialeinsatz und Preis her auf jeden Fall. (Nicht vergessen, lt. Intel hat Effizienz nichts mehr mit dem Verbrauch zu tun.)

Aber hey, Apple kann und will sich das Leisten, Intel und AMD nicht.

Platos
2022-07-03, 10:35:35
Vom Materialeinsatz und Preis her auf jeden Fall. (Nicht vergessen, lt. Intel hat Effizienz nichts mehr mit dem Verbrauch zu tun.)

Aber hey, Apple kann und will sich das Leisten, Intel und AMD nicht.

Du meinst die Apple-Jünger wollen sich das leisten. Denn die bezahlen es ja;D

Lehdro
2022-07-03, 11:29:38
Du meinst die Apple-Jünger wollen sich das leisten. Denn die bezahlen es ja;D
Ja, das stimmt im Endeffekt natürlich.
Wobei ich finde dass das durchaus gerechtfertigt ist, wenn es das ist was die wollen. Man kriegt technisch zumindest was man bezahlt (auf M1 bezogen), anders als bei Intel oder AMDs Topmodellen, wo der Preisaufschlag teilweise lächerlich ist für ein wenig mehr Effizienz. Da geht es dann bei Apple wieder über die Masse, da kein Binning notwendig ist, da das Produkt von vorneherein auf diesen Betriebspunkt ausgerichtet ist. Dafür braucht man natürlich die Fertigung und den Markt damit das ganze betriebswirtschaftlich trotz höhere Fertigungskosten ein Win wird. Will sagen: Für andere Firmen ist das nicht zwangsläufig der "way-to-go" nur weil es bei den Apfeljüngern funktioniert.

Platos
2022-07-03, 12:13:05
Es stimmt schon, dass es endlich mal eine Steigerung gibt im Laptopbereich (vor allem bezüglich Akkulaufzeit), aber nur weil andere auch Deppenpreise verlangen, heisst das ja nicht, dass jetzt wegen dem diese überzogenen Preise gerechtfertigt sind.

Erinnerst du dich? Bei Hardware gibt es normalerweise für gleiches Geld mehr und nicht für mehr Geld gibts mehr... Also nein, ist nicht gerechtfertigt. Natürlich sind das auch die anderen nicht, aber darum gings ja nicht.

Es spielt keine Rolle, obs andere auch tun, bleibt trotzdem schlecht. Selbst wenn dir die ganze Welt Hundescheisse verkauft, ist es immer noch Hundescheisse.

Gast
2022-07-05, 10:50:00
Man kriegt technisch zumindest was man bezahlt (auf M1 bezogen), anders als bei Intel oder AMDs Topmodellen,


Es ist doch eher umgekehrt. Die Einstiegspreise der M1 Modelle sind eigentlich sehr kompetitiv, das Air ist ja sogar im Verhältnis zur Konkurrenz richtig günstig.

Mit den Aufpreisen wird es aber bei Apple ziemlich extrem

Wobei man aber nicht nur die reine Leistung betrachten darf, alleine das geniale Display der 14/16" Pros ist den Preis wert, zumindest wieder so lange man davon weg bleibt RAM und SSD zu Maxen.