Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple
VooDoo7mx
2021-10-18, 22:17:37
Hätte jetzt auch fast direkt bestellt.
Das Gerät ist fast so als ob jemand meine Wunschliste erhalten hat, ist alles drin.
Aber erst mal passe ich noch. Mein M1 MacBook Pro ist mir an sich überhaupt nicht zu langsam, ganz im Gegenteil.
Tatsächlich würde ich sogar bei Akkulaufzeit und Gewicht wieder Abstriche machen.
Trotz deutlich größeren Akku ist die Laufzeit schlechter, vermutlich zieht das Display ordentlich. Trotzdem ist die Akkulaufzeit immer noch sehr gut bei den neuen Pros.
Ich würde hauptsächlich wegen den Hammer Screen upgraden wollen. Und als Hobby Fotograf bräuchte ich auch den USB C Kartenleser nicht mitnehmen. Einfach weniger Gefummel unterwegs.
Aber noch sind mir zu viele Details im dunkeln.
HDMI Standard?
Welche Geschwindigkeit hat der SD Kartenleser?
Lautstärke der Kühlleistung?
Durch verschiedene Gewichtsangaben scheinen auch verschiedene Kühllösungen genutzt zu werden. Irgendwie habe ich jetzt schlechte Verknüpfungen mit den Basis M1 iMac und dessen Kühlung geknüpft...
Ich warte bis nächste Woche Reviewer die Geräte genauer betrachten und/oder auseinander nehmen.
Wenn man noch etwas wartet tauchen die Geräte dann auch bei anderen Händlern auf und man kann auch noch etwas sparen.
Noch was interessantes: Laut Apple hat der SoC 70% mehr CPU Leistung.
Das würde bei Cinebench in etwa so 13000 machen.
Mein Ryzen 7 5800H macht bei 30W so um die 9700. Also ist in dem Bereich der M1 Pro/Max um die 30% schneller. Also zumindest was die CPU Performance angeht ist Apple gar nicht sooooo weit vor AMD/Intel. Und wie schon vermutet werden hochgezüchtete Ryzen 9/Core i9 Notebooks immer noch mehr Max Performance abliefern können.
robbitop
2021-10-18, 22:23:55
10.4 tflops wären vega vii leistung!
Rohleistung. Es ist nicht unwahrscheinlich, dass Apples GPU deutlich mehr pro Flop herausholt.
Sunrise
2021-10-18, 22:40:37
…Und es ist verdammt schade, dass Apple scheinbar kein Interesse an einer eigenen Konsole hat.
Apple hat wohl eher kein Interesse daran, ihre ohnehin limitierten SoC-Kapazitäten noch für Massenware-Artikel billig unters Volk zu bringen.
Cook ist ein Rechner und er weiß genau wo er ansetzen muss, damit Apple vor allem als AG immer exzellent dasteht.
Der Apple TV könnte rein theoretisch noch weiter aufgerüstet werden, und auch könnte man hier bessere Spiele mit performanterer Basis liefern. M1/Pro/Max sind nicht wirklich passend, außer man hätte hier Unmengen an Ausschuss.
All das ist aber erstmal unwichtig, wenn man woanders viel mehr Geld abschöpfen kann.
In Zukunft vielleicht, aber IMHO nicht in dieser Form.
Die neuen Macbook sind ganz nett, es wurde aber ja fast alles bereits vorab geleaked. Durch diese enorme Macht, TSMC auszuquetschen, ist sowas aber auch keine Überraschung mehr.
Wäre schön, wenn Apple mal tatsächlich etwas wirklich Neues bringen würde, anstatt nur zu schauen, wo man noch mehr rausquetschen kann. Die haben Berge an Kapital und im Endeffekt fragt man sich, ob das jetzt so weitergeht, wenn Cook die Führung weiter inne hat.
Da will es Apple aber wirklich wissen ;). Die Dinger sind, legt man M1 zugrunde, nämlich 253 und 428 (!!)mm² groß ;). M1 Max hat mehr als doppelt soviele Transistoren als N21 und GA102.
Allein CPU-Kerne müssen an sich schon Transistoren verschlingen ohne Ende, mit den gigantischen Caches.
Das Konzept ist halt cool, hohe Packdichten, moderate Takte, gigantisches Caches. Das sind REALLY BIG Cores. Aber Fertigung ist halt trumpf. Irgendwie bekommen NV und AMD das nicht so richtig ausgereizt.
Die 70% mehr CPU-Leistung kommen selbstredend von der deutlich höheren TDP und den verdoppelten big-Cores zustande logischerweise, das werden ganz normale M1-Kerne sein.
Speicherinterfaces werden einfach immer verdoppelt, daher die immer verdoppelte Speichermenge und die großen Bandbreiten. Braucht man ja für die GPU.
KarlKastor
2021-10-18, 23:01:27
Mit N5P ist man der Konkurrenz natürlich auch meilenweit voraus. Nvidias GPUs sind 2 Full Nodes zurück. Bei den CPUs immerhin noch einen. Dazu massive Caches und Speicherbandbreite bis zum abwinken.
Ist schon ein geniales Stück Hardware. Apples SoC sind immer interessant, da Denen Die Fläche einfach nicht interessiert.
Mich würde mal die Yield interessieren.
Das ist ja echt kein Wunder, dass die CPU auch bei niedrigen Takten so abgeht:
192kB L1i, AMD und Intel haben mit 32kB nur einen Bruchteil davon.
128kB L1d, Intel hats jetzt grad mal auf 48kB geschafft.
Aber der Kracher sind die 12MB L2, RTL wirds wohl auf 2MB+ schaffen :freak:.
Nutze den Fertigungsvorteil gnadenlos aus und du stichst selbst die "trägen" Etablierten aus.
btw.
6 Int-ALUs (2 davon IMACs) + separate div-Einheit, 4 FMACs, eine davon mit hardware-div. Mir war nicht bewusst, wie fett das Teil wirklich ist.
smalM
2021-10-18, 23:37:33
Aber der Kracher sind die 12MB L2, RTL wirds wohl auf 2MB+ schaffen
Der eine L2 ist shared und es gibt keinen L3, der andere ist privat und dann kommt noch der shared L3.
Einfach ein anderes Konzept.
davidzo
2021-10-19, 00:26:03
RTX 3070 Leistung + 120Hz 3,5K Screen, VRAM zum abwinken und kein Powerlimit on battery - klingt nach dem perfekten gamingnotebook!
Hochgezüchtete AMD/Intel Kisten wo die CPU 80-100W ziehen kann + RTX 3080 werden sicher im absoluten noch deutlich schneller sein, besonders was auch 3D Performance angeht.
Da redest du aber vom Desktop bzw. Stationär-Einsatz. Mobile Kisten mit der Leistung gibt es nicht im PC-Umfeld.
10.4 tflops wären vega vii leistung!
;D Rofl, wo hast du die denn ausgegraben.
Warte ich habe noch einen - Ne fünf Jahre ale R9 Pro Duo Hat mehr Tflops!
- Nee, man muss schon schauen was da hinten heraus kommt. Und RTX3080 mobile Leistung ist schon ziemlich gut, wobeisie sich anscheinend auf eine 145Watt limitierte Karte beziehen. Das sollte ziemlich genau RX 6800m Leistung sein. Ziemlich beeindruckend in 60Watt :eek:
Ja, sau teuer. Apple halt. Was anderes habe ich nicht erwartet.
Ja, traurig wie es eskaliert ist ;(
2014 habe ich noch die damalige Maximalausstattung für rund 4K bekommen, heutzutage ist das beinahe der Einstiegspreis. Schon absurd diese Welt...
Und wieso hast du dann bestellt?
Weil es verfügbar ist?
Heutzutage muss man doch bestellen was man kann, zumal zu MSRP.
Das traurige ist ja dass die vorgestellten Macbooks sogar sehr günstig sind im Vergleich zu vergleichbaren PCs. Eine Desktop-Workstation mit nahezu ähnlicher Leistung kostet wesentlich mehr (3975wx, quadro A5000...).
Wobei ich mir da nicht sicher bin ob ein Threadripper die Leistung der hardware pro-res encoder überhaupt erreichen könnte und die quadro hat zwar mehr Rohleistung, aber selbst die 5000€ A6000 hat mit 48gb deutlich weniger Speicher.
Das ist ja echt kein Wunder, dass die CPU auch bei niedrigen Takten so abgeht:
192kB L1i, AMD und Intel haben mit 32kB nur einen Bruchteil davon.
128kB L1d, Intel hats jetzt grad mal auf 48kB geschafft.
Aber der Kracher sind die 12MB L2, RTL wirds wohl auf 2MB+ schaffen :freak:.
Nutze den Fertigungsvorteil gnadenlos aus und du stichst selbst die "trägen" Etablierten aus.
btw.
6 Int-ALUs (2 davon IMACs) + separate div-Einheit, 4 FMACs, eine davon mit hardware-div. Mir war nicht bewusst, wie fett das Teil wirklich ist.
Und da haben wir schon den "Royal Core"
Hübie
2021-10-19, 00:27:33
Mit Cache allein erschlägt man keine Probleme. Eher mit TLB, BP und dann passenden COMPILER (was in Apples alleiniger Hand ist). Und wie manche hier gleich mit x86 PC Vergleiche kommen... X-D Ich kann doch kein heterogenes, komplexes System mit Apple vergleichen. Auf einem Mac wird nicht gezockt. Wer Zocken will - > Windows x86-64. Das wird sich nicht signifikant ändern (lassen). Wer multimedial arbeitet - > Apple. Wer sowas macht wie ich = scheiß egal solang Internet da ist. :D
Daredevil
2021-10-19, 00:34:02
Ich wäre mir da nicht so sicher.... wenn selbst bei dem M1 und Rosetta so manche x86 Anwendungen schneller sind als vergleichbare Intel Prozessoren vorher, die viel mehr saugen, könnte man hier mit Parallels eine bessere performance in Windows bekommen... selbst wenn es drölf mal emuliert wird.
Es ist hier auch wieder interessant, wie sehr sich Apple mit "nur" 30w zurück hält.
Der M1 pro oder Max oder was auch immer zieht den kompletten Notebook Markt mit sich, egal in welchem Aspekt.
Das Trilemma ( Performance - Verbrauch - Preis ) löst Apple nicht, aber Holy Cow. 32 GPU Kerne.
Selbst mit dem M1 war WoW in WQHD schon bei 60+fps spielbar.
Hübie
2021-10-19, 00:40:00
Ich spreche vom Status quo - nicht konjugiert. Es geht im Gaming Kontext nicht um die Leistung. Die ist ohne Zweifel gut. Vor allem im power envelope... ;)
smalM
2021-10-19, 01:03:59
Anandtech hat die Die-Shots von Apple annotiert.
M1 Pro (https://images.anandtech.com/doci/17019/M1PRO.jpg)
M1 Max (https://images.anandtech.com/doci/17019/M1MAX.jpg)
Beim E-Cluster ist ihm die zugehörige AMX-Unit durch die Lappen gegangen, beim M1Max hat er denen der P-Cluster was abgeschnippelt... :wink:
Andrei glaubt, ein SLC-Block habe 16MB, aber ich habe Zweifel, ob das nicht zu hoch gegriffen ist. Ich glaube eher an 8MB und der ganze Rest ist Tags und Verwaltung.
Jedem 8-Core-GPU-Segment stände so ein 8MB-SLC gegenüber, ebenso wie beim M1.
Nightspider
2021-10-19, 01:21:40
Wenn Intel oder AMD eine 5nm APU mit 430mm² bauen würden, wären das auch ziemliche Monster.
Aber den Apple Vorteil haben die Konsumenten ja auch mit ihren deutlich höheren Preisen bezahlt.
bloodflash
2021-10-19, 01:35:27
Aus den Applefolien wird mir nicht ganz klar, ob die CPU unter Last maximal 30W zieht und die GPU 60W und man das dann kombinieren muss, oder ob da andere Limits gelten.
Ist dann zwar schön, dass man die Leistung dauerhaft auf Akku ziehen darf, aber dann ist es auch nur eine Stunde. Hoffentlich kann man das manuell einschränken.
Ich fand hautptsächlich die Speicheranbindung mit 512bit interessant und natürlich die Energieffizienz. Wobei ich ZEN4 mit RDNA3 in 5nm nah dran sehe, auch wenn Dell/Lenovo/HP wohl keine SoCs in der Art bei AMD bestellt haben. Könnten sie aber...
CrazyIvan
2021-10-19, 05:51:55
Das 14" bestellt. Das Gewicht und die geringere Akkulaufzeit stören mich, hoffe das relativiert sich bei derselben Helligkeit. Muss mir abends keinen Sonnenbrand vor dem Macbook holen :)
Aber so 100% überzeugt bin ich von meiner Bestellung irgendwie nicht...
Ich bin mir ziemlich sicher, dass sich Deine Entscheidung im Nachgang als richtig erweisen wird. Nicht nur werden Reviews den SoC und das Gesamtpaket feiern - auch wird die Verfügbarkeit aufgrund großer Nachfrage sehr schnell sehr schlecht werden. Du wirst alles richtig gemacht haben (ich liebe Futur II).
Ailuros
2021-10-19, 07:22:43
Mit N5P ist man der Konkurrenz natürlich auch meilenweit voraus. Nvidias GPUs sind 2 Full Nodes zurück. Bei den CPUs immerhin noch einen. Dazu massive Caches und Speicherbandbreite bis zum abwinken.
Ist schon ein geniales Stück Hardware. Apples SoC sind immer interessant, da Denen Die Fläche einfach nicht interessiert.
Mich würde mal die Yield interessieren.
Hab ich mich jetzt nicht verrechnet hat der M1 Max eine Packdichte von ~132Mio Transistoren/mm2 (Frequenz der GPU duerfte uebrigens bei einem Schnitt unter 1.3GHz liegen).
davidzo
2021-10-19, 11:31:18
Ja, an den Taktraten hat Apple überhaupt nichts gemacht.
Der M1 hatte 2,6Tflops bei 1,28Ghz, jetzt sehen wir 5,2 und 10,4Tflops.
Die Fertigungsoptimierungen sind wohl eher in yield bei so einem großen DIE geflossen als in gesteigerte Taktraten wie das bei Intel/AMD der Fall wäre.
Ich rechne daher auch nicht damit dass sich bei den CPUs taktratenmäßig etwas geändert hat. 3,2Ghz werden es wieder sein, mehr nicht. Das scheint einfach das Optimum bei V/F in diesem Prozess zu sein. Also wieso sollte man davon abrücken, wenn es nichts gibt was man einholen oder stärker überholen muss? Wozu nochmal 10% oder 20% mehr performance durch Takt wenn man in der Anwendungsleistung schon Steigerungen wie 2.4x und 4x hat?
Ich denke dass die meisten Chips theoretisch noch große Reserven haben. 3,2Ghz ist nicht nur der gemeinsame Nenner aller DIEs, selbst der schlechtesten, das ist sogar unterhalb dessen gewählt, genau an der optimalen Voltage/Frequency des Prozesses.
Aus den Applefolien wird mir nicht ganz klar, ob die CPU unter Last maximal 30W zieht und die GPU 60W und man das dann kombinieren muss, oder ob da andere Limits gelten.
Das eine bezieht sich auf den M1pro (30Watt), das andere den M1max(60Watt). Und das sind SOCwerte unter 3D last, GPU und CPU sind nicht getrennt. Wie sollte man das auch vernünftig trennen, benutzen doch beide denselben Speicher?
Btw, ist schon jemandem aufgefallen dass die Power/Perf Graphen je nach Chip woanders beginnen?
M1 CPU beginnt bei 2,5Watt minimalpower
M1pro/max CPU beginnt bei 5Watt minimalpower
M1pro GPU beginnt bei 8Watt minimalpower und 60% perf vs M1GPU
M1max GPU beginnt bei 12Watt minimalpower und 110% perf vs M1GPU
Ich würde mich nicht wundern wenn das größere SI den Idleverbrauch stark beeinflusst, also der M1max durchgängig schlechtere Akkulaufzeiten im idle hat weil er den RAM für ein 512bit SI am leben haltn muss (page refreshes etc.)
bloodflash
2021-10-19, 12:12:46
Das eine bezieht sich auf den M1pro (30Watt), das andere den M1max(60Watt). Und das sind SOCwerte unter 3D last, GPU und CPU sind nicht getrennt. Wie sollte man das auch vernünftig trennen, benutzen doch beide denselben Speicher?
Wenn ich mir die 3 Grafiken ansehe,
1. CPU-Performance für Pro und Max:
https://www.apple.com/de/macbook-pro-14-and-16/images/overview/modal/m1_graph_cpu__dv5r4e6q9egm_small_2x.jpg
2. GPU-Performance für Pro:
https://www.apple.com/de/macbook-pro-14-and-16/images/overview/modal/m1_pro_graph_gpu__wv3ud260jz6i_small_2x.jpg
3. GPU-Performance für Max:
https://www.apple.com/de/macbook-pro-14-and-16/images/overview/modal/m1_max_graph_gpu__3fxymb4a842m_small_2x.jpg
dann ist das nicht so klar. Was benötigen die beiden maximal bei kombinierter Last?
robbitop
2021-10-19, 12:18:21
V/F Optimum ist vor allem auch für den Einsatz dieser Chips ideal. Bis dato ist das alles mobile.
Vom „Kosten/Nutzen Verhältnis“ (in Bezug auf Perf/W) sind super hohe Taktraten ja wirklich Irrsinn. Ich kann gut verstehen, dass man lieber super breite Kerne mit super biel Cache baut und den IPC Vorteil in niedrigere Frequenzen investiert. Das lohnt sich schnell da f~P^3
smalM
2021-10-19, 13:50:08
Ich rechne daher auch nicht damit dass sich bei den CPUs taktratenmäßig etwas geändert hat. 3,2Ghz werden es wieder sein, mehr nicht.
Sind die von Apple angegebenen 30W tatsächlich der Maximalverbrauch, dann erreichen die Firestorm-Cores all-core ganz sicher nicht die Taktraten des M1, bei dem die CPU dann ja schon 20W zieht. Ich habe nicht mehr wiedergefunden, wie hoch der Takt bei 4 aktiven Firestorm-Cores ist, ich meine mich dunkel an 3 GHz zu erinnern.
Im A14 taktet 1 Firestorm-Core mit 2998MHz, 2 aktive Firestorm-Cores mit 2890MHz.
Was benötigen die beiden maximal bei kombinierter Last?
Ich würde mal von 80W–90W ausgehen.
CrazyIvan
2021-10-19, 19:17:48
Ein Firestorm verbraucht in CB23 ST 3,8w bei 3,2Ghz. Bei 4t auf 4 Firestorm bei 3,0Ghz liegt der Verbrauch bei 13,2w IIRC.
Macht also 26,8w + Icestorm.
Felixxz2
2021-10-19, 19:50:49
Sind eig 64GB RAM @ 4 Chips irgend n special Ding? Oder ist das gestapelt? Und kann man für den Mac Pro mit 128GB pro Chip rechnen?
smalM
2021-10-19, 19:54:53
@CrazyIvan
Andrei hatte mal 15W Package-Power bei R23 genannt, während 511.povray_r von specFP2017 21W verbraten hatte.
@Felixx2
Das sind die ersten diskreten LPDDR5-Chips, die ich gesehen habe; bisher kannte ich LPDDR5 nur integriert in einem PoP. Ich war überrascht, daß es 128bit-Chips sind.
Auf Smartphone-SoCs sind 16GB-Stapel mit einer 64b-Anbindung im Einsatz; am 256bit-SI des M1Pro sollten also theoretisch 64GB RAM möglich sein, am 512b-SI des M1Max 128GB. Die Frage ist aber, ob Apple das SI dahingehen ausgelegt hat oder ob die 128bit-Chips in der entsprechenden Größe überhaupt produziert werden.
@andreif7 (https://twitter.com/andreif7/status/1450368866287341568) "As many mentioned, the M1 Max shot is probably fake, and hiding the chip-to-chip I/O at the bottom there."
Das würde die seltsamen kopierten Funktionsblöcke am unteren Rand des M1Max erklären.
Es würde auch ermöglichen, daß ein Big iMac mit 2x M1Max demnächst erwartet werden kann.
urpils
2021-10-19, 21:42:48
Sind eig 64GB RAM @ 4 Chips irgend n special Ding? Oder ist das gestapelt? Und kann man für den Mac Pro mit 128GB pro Chip rechnen?
Seit etwa einem Jahr ist relativ klar, wie es da aussehen wird:
der M1Max heißt "JadeC" - der M1Pro heißt "JadeC Chop"
dann werden noch 2 weitere Chips erscheinen: Jade2C und Jade4C
folgt man der Logik wird es also für die Desktop-Pros also einen Chip mit 2x M1Max und 4x M1Max geben - wahrscheinlich auch mit entsprechendem Ram.
Felixxz2
2021-10-19, 21:50:39
Ja dass der Mac Pro mit 2x/4x M1 Max kommt war mir schon bekannt. Die Frage ist aber eben wies da mit dem RAM aussieht.
Selbst 4x 128GB wären nur 512GB RAM, was zwar unfassbar groß für die GPU wäre, im Vergleich zu Server CPUs wie dem schon etwas betagten Xeon aus dem aktuellen Mac Pro (1,5TB) wär das aber doch recht wenig.
EDIT: Also Samsung hat zB wie @smalM sagt max 16GB Packages, mit 8 Stapeln, allerdings nur 64Bit. Die Generation davor hatte allerdings schon 12 Stapel, also könnte es gut sein, dass man auch Packages mit 16 Stapeln produzieren kann, dann bei 128 Bit und max 32GB pro Package. Obiges Problem bliebe allerdings bestehen. Außer Apple legt nochmal ein neues Package für den M1 Max auf, mit 8 Stapeln zu je 64 Bit und dann 256GB.
basix
2021-10-19, 21:59:03
@andreif7 (https://twitter.com/andreif7/status/1450368866287341568) "As many mentioned, the M1 Max shot is probably fake, and hiding the chip-to-chip I/O at the bottom there."
Das würde die seltsamen kopierten Funktionsblöcke am unteren Rand des M1Max erklären.
Es würde auch ermöglichen, daß ein Big iMac mit 2x M1Max demnächst erwartet werden kann.
Wenn man die Specs des M1 Max anschat, dazu die 16+4+64 sowie 32+8+128 Core Gerüchte (https://www.computerbase.de/2021-05/apple-silicon-m2-die-naechsten-m-soc-sollen-bis-zu-32-plus-8-plus-128-kerne-besitzen/) für den Mac Pro sowie deren Code Namen "Jade 2C" und "Jade 4C" und obendrauf noch diese Quote:
Auch die maximale Menge an Arbeitsspeicher dürfte für den Einsatz in der professionellen Workstation noch einmal auf mindestens 256 bis 512 GB angehoben werden.
--> 1x M1 Max = Jade 1C
--> 2x M1 Max = Jade 2C
--> 4x M1 Max = Jade 4C
Gab doch auch Aussagen zu TSMC und Packaging, dass Apple da ebenfalls was sehr fortschrittliches machen wird.
Ein M1 macht ca. 6800 Punkte im CB23. Ein M1 Max nun +70%. Das noch 4x und wir landen bei sagenhaften 46'000 Punkten im CB23. Ein 5950X macht ~29'000 @ Stock. Laut Apple das ganze bei 4*30=120W.
Dazu eine GPU mit 40 TFlops, was 2x eine 6800 XT wäre.
Dazu 1.6 TB/s Speicherbandbreite und 256...512 GByte Speicher. Ziemlich leckere Workstation. Und das bei gerade mal 300...400W. (4*80...90W) und sehr kompakten Abmassen im Vergleich zu den heutigen Designs.
Kaufpreis:
The more you buy, the more you save.
smalM
2021-10-19, 22:58:27
Seit etwa einem Jahr ist relativ klar, wie es da aussehen wird:
der M1Max heißt "JadeC" - der M1Pro heißt "JadeC Chop"
dann werden noch 2 weitere Chips erscheinen: Jade2C und Jade4C
folgt man der Logik wird es also für die Desktop-Pros also einen Chip mit 2x M1Max und 4x M1Max geben - wahrscheinlich auch mit entsprechendem Ram.
Am unteren Rand hat der M1Max also eine I/O-Leiste. Wie bekommt Apple damit eine enge Kopplung von 4 Dies hin? Links ist RAM, rechts ist RAM, oben ist das ganze andere I/O-Geraffel.
Hmm, zwei eng gekoppelte Dies (LIPINCON oder Apple-eigen?) in einer klassischen 2-Socket-Konfiguration?
Felixxz2
2021-10-20, 01:58:22
@basix
Wie gesagt, dass Problem ist halt, dass 512GB RAM viel zu wenig ist für so ne Workstation. Wäre nur 1/3 des Intel Mac Pro.
Ich denke 1TB, in welcher Config auch immer, müssen sie schon bringen. Wäre dann aber eben auch killer, gerade für GPU Rendering wäre das die Endlösung.
@smalM
Ist es denn sicher, dass es genau DER Die wird und nicht nochmal neu aufgelegt wird? Ich mein bei den Stückzahlen wäre das doch easy drin, dann noch mit den neuesten CPU Kernen? Und vielleicht nochn zusätzliches DDR5 Interface?
Ailuros
2021-10-20, 07:14:54
@CrazyIvan
Andrei hatte mal 15W Package-Power bei R23 genannt, während 511.povray_r von specFP2017 21W verbraten hatte.
@Felixx2
Das sind die ersten diskreten LPDDR5-Chips, die ich gesehen habe; bisher kannte ich LPDDR5 nur integriert in einem PoP. Ich war überrascht, daß es 128bit-Chips sind.
Auf Smartphone-SoCs sind 16GB-Stapel mit einer 64b-Anbindung im Einsatz; am 256bit-SI des M1Pro sollten also theoretisch 64GB RAM möglich sein, am 512b-SI des M1Max 128GB. Die Frage ist aber, ob Apple das SI dahingehen ausgelegt hat oder ob die 128bit-Chips in der entsprechenden Größe überhaupt produziert werden.
@andreif7 (https://twitter.com/andreif7/status/1450368866287341568) "As many mentioned, the M1 Max shot is probably fake, and hiding the chip-to-chip I/O at the bottom there."
Das würde die seltsamen kopierten Funktionsblöcke am unteren Rand des M1Max erklären.
Es würde auch ermöglichen, daß ein Big iMac mit 2x M1Max demnächst erwartet werden kann.
Ich bezweifle dass Apple wirklich einen echten die shot veroeffentlichen wuerde. Hat der Max SoC dann auch tatsaechlich 32 GPU "cores" wuerde ich bei einem so enormen SoC zumindest 2 salvage "cores" erwarten.
basix
2021-10-20, 07:58:22
@basix
Wie gesagt, dass Problem ist halt, dass 512GB RAM viel zu wenig ist für so ne Workstation. Wäre nur 1/3 des Intel Mac Pro.
Ich denke 1TB, in welcher Config auch immer, müssen sie schon bringen. Wäre dann aber eben auch killer, gerade für GPU Rendering wäre das die Endlösung
War es bei den M1 Reviews nicht so, dass die Macbooks auch mit 8 GByte vergleichbare PC-Notebooks mit deutlich mehr RAM abgezogen haben? Beim Mac lief es flüssig, bei den Notebooks fing es an zu ruckeln.
Für mich machte es den Eindruck, dass der M1 deutlich effizienter mit der Speichermenge umging.
Zossel
2021-10-20, 08:29:16
Für mich machte es den Eindruck, dass der M1 deutlich effizienter mit der Speichermenge umging.
malloc(16384) verbraucht weniger Speicher auf einer Apple CPU?
lumines
2021-10-20, 08:56:35
War es bei den M1 Reviews nicht so, dass die Macbooks auch mit 8 GByte vergleichbare PC-Notebooks mit deutlich mehr RAM abgezogen haben? Beim Mac lief es flüssig, bei den Notebooks fing es an zu ruckeln.
Für mich machte es den Eindruck, dass der M1 deutlich effizienter mit der Speichermenge umging.
Der M1 kann an der vorhandenen Speichermenge nicht viel ändern. Apple lagert allerdings sehr aggressiv Daten auf die sehr schnelle SSD aus. Das kaschiert die kleine RAM-Menge natürlich. Das machen sie unter iOS übrigens genau so. Wenn die SSD für so viele Schreibzyklen ausgelegt ist, dann ist das wahrscheinlich auch gar keine so schlechte Idee.
pixelguy
2021-10-20, 09:28:18
Meint ihr, dass die (Pro) Desktop-Rechner wirklich den M1 erhalten?
Wäre ein eigener Chip nicht sinnvoller?
ChaosTM
2021-10-20, 09:30:13
Für den Desktop erwarte ich etwas "anders". M2 Pro/Max ?
Werden aber sehr ähnlich aufgebaut sein.
Add.. Ich hoffe AMD, Intel oder Nvidia kommen mit was ähnlichen für Windows. Performance/Watt ist mit solchen Systemen unschlagbar.
https://www.techpowerup.com/288048/intels-ceo-blames-predecessors-for-current-state-of-the-company-wants-apple-business-back-with-better-processors
Intel hofft offenbar bei Apple weiterhin im Boot zu bleiben.
Prozessorentwicklung ist aufwendig. Das sind 5 Jahre und mehr Vorlaufzeit für so ein Produkt. Die schütteln nicht einfach mal eben so 2 Architekturen allein für Mac aus dem Ärmel. Man sieht es ja am M1 Pro. Was haben die Apple FBs nicht von einem M1X mit besseren Kernen schwadroniert, aber im Endeffekt sind die neuen Chips "nur" mehr vom alten. Auch Apple wird hier einen 2-Jahre-Zyklus anstreben mMn. Man wird eine neue Architektur bei einem Node-Sprung machen wollen, Apple braucht die 2 Jahre Ammortisierung auch bei der teuren Prozessorentwicklung und Fertigung bei dem verhältnismäßig geringen Output im Mac-Markt. Man wird ja mehr Gewinn machen wollen und nicht weniger.
Bezüglich Speicher: Apple betreibt ein geschlossenes System, klar kann man da effizienter mit Speicher umgehen. Wenn man selbst die SSD liefert, nimmt man halt langlebiges und nutzt diese dann einfach mehr z.B.
ChaosTM
2021-10-20, 09:45:45
Langfristig rechnet sich das bestimmt. Viel Unterschied zum M1 ist auch nicht zu erwarten.
smalM
2021-10-20, 09:45:56
Ich bezweifle dass Apple wirklich einen echten die shot veroeffentlichen wuerde.
Der von Apple veröffentlichte Die-Shot des M1 war korrekt, nur der Rand einen Hauch beschnitten. DerM1Pro Die-Shot dürfte ähnlich einen Tuck beschnitten sein.
robbitop
2021-10-20, 09:46:46
Skalierung von all dem via Chiplets und infolsi package würde sicherlich Sinn machen. Man muss weniger Chips designen und kann Economy of Scale besser nutzen.
Dass der RAM 128b breit ist, ist ungewöhnlich. Ggf gestapelt. Und ggf kann man ja mehr stapeln un noch mehr RAM zu nutzen.
Mehrere M1 Max zu koppeln ohne modernes Packaging würde deutlich geringere Bandbreite, deutlich höhere Latenz und mehr Energiebedarf für die Kommunikation zu bedürfen. Auch Grafik lässt sich dann nicht unbeschränkt skalieren. Wäre ohne modernes Packaging und moderner fabric keine gute Wahl.
Felixxz2
2021-10-20, 09:50:49
Also wäre es denkbar den Stapel von 8 Chips auf 16 oder 32 auszuweiten?
Dass Gelsinger Apple zurückgewinnen will ist natürlich der Witz des Jahrhunderts 😂
Finde ich gar nicht. Der denkt halt 5 Jahre in der Zukunft. Außerdem muss das ja kein x86er sein.
ChaosTM
2021-10-20, 10:24:29
Intel ist draussen for good. Könnten mit ihrem Prozess auch niemals mithalten mit TSMCs 5nm.
Der M1 Max ist wohl auch für die Desktop Systeme schnell genug, wenn man etwas an der Takt/Strom Schraube dreht.
davidzo
2021-10-20, 11:04:23
Skalierung von all dem via Chiplets und infolsi package würde sicherlich Sinn machen. Man muss weniger Chips designen und kann Economy of Scale besser nutzen.
Dass der RAM 128b breit ist, ist ungewöhnlich. Ggf gestapelt. Und ggf kann man ja mehr stapeln un noch mehr RAM zu nutzen.
Mehrere M1 Mac zu koppeln ohne modernes Packaging würde deutlich geringere Bandbreite, deutlich höhere Latenz und mehr Energiebedarf für die Kommunikation zu bedürfen. Auch Grafik lässt sich dann nicht unbeschränkt skalieren. Wäre ohne midernes Packaging und moderner fabric keine gute Wahl.
Was ist denn wenn Apple den AMD-Weg gegangen ist und bereits TSVs im M1pro und M1max DIE angelegt hat?
Ich meine die haben ja nicht geschlafen. Sind einer der frühsten Kunden für TSMCs advanced packaging, wenn AMD die Möglichkeiten von TSMC-SoIC mitgekriegt hat, dann wird das sicher auch nicht an Apple vorbei gegangen sein.
Jade 2C würde bereits am reticle limit kratzen, jade4C wäre klar drüber. Insofern werden die sich auch frühzeitig Gedanken gemacht haben wie man das aushebeln kann. Und da ist Cowos, Soic etc. einfach ein no-brainer.
Findet ihr es nicht auch verdächtig wie groß die beiden Chips sind im Vergleich zum M1? Ich habe echt nicht mit über 240mm2 gerechnet, das ist mehr als das doppelte. Ich hatte eher mit ca. 200mm gerechnet, für die verdoppelten P-kerne und GPU. Es hat sich eben nicht alles verdoppelt:
- NPU hat sich nicht verdoppelt, sind auch 16C beim M1
- SOC, flash controller, etc. wird sich nicht verdoppelt haben
- Die E-kerne haben sich sogar halbiert
- Gefühlt hat sich der Pitch des L2 Cache und des SLC entspannt.
- Der Uncore ist massiv gewachsen
- Thunderbolt ports sind nur von 2Stück auf 3Stück gewachsen
Auch verdächtig finde ich dass die beiden Chips vom Featurelevel noch total 2020 geblieben sind. Da ist abgesehen von LPDDR5 und den Prores Hardwarecodecs keine Veränderung der CPU-IP oder so gegenüber dem M1, welche einen ein Jahr späteren Launch erklären würde. Das kann natürlich auch nur durch das aufwändigere Bring-Up eins größeren Chips verursacht sein, bei Intel passiert sowas ja alle Nase lang. Aber das ist nicht Apples Excution Stil. Wenn das Bring-Up aufwändiger war als beim M1, wieso bringt man dann M1pro und M1max ausgerechnet gleichzeitig? Der Workload beim Bring-Up kann es allein also nicht gewesen sein, sonst hätte man das entzerrt und nicht unnötigerweise aufeinander gelegt.
Was wäre, wenn Apple da bereits an mehreren Stellen TSVs für Die Stacking vorgesehen hat?
Dann könnten die Chips einen ersten Tapeout nahe am M1 Tapeout gehabt haben und man arbeitet seitdem an der perfektionierung der stacking colums, bevor man in großserie geht.
Das hieße für Jade2C und Jade4C muss nun lediglich das Packaging, Kühlung und Produkt drum herum fertig stellen. Launch H1 2022?
Intel ist draussen for good. Könnten mit ihrem Prozess auch niemals mithalten mit TSMCs 5nm.
Der M1 Max ist wohl auch für die Desktop Systeme schnell genug, wenn man etwas an der Takt/Strom Schraube dreht.
Auch das ist viel zu kurz gesprungen. Klar ist das bei N5 so. Es ist aber nicht gesagt, ob das nach N3 auch so bleibt.
davidzo
Ursache -> Wirkung. Wenn du bei einer entsprechenden Packdichte CPU-Kerne+Cache, GPU-Kerne und Speicherinterfaces verdoppelst, brauchst halt doppelt soviele Transistoren und auch doppelt soviel Fläche. Apple war auch bei der gesamten M1-Architektur eher verschwenderisch mit Transistoren, man holt da mMn nicht unerheblich Powereffizienz raus. Fläche für Effizienz quasi. Wenn es TSVs gegeben hätte, wären die jetzt schon gestackt. Die haben ja den gleichen Zugriff auf die TSMC-Technologien. Davon ist weit und breit nichts zu sehen, also einfach nein. Vielleicht beim M2 in N3.
=Floi=
2021-10-20, 11:15:34
Es macht mehr sinn die cpu und damit die m1pro dice zu skalieren wie den großen chip mit der großen gpu imho. Was will man mit der 4x 3080 leistung? Imho könnte man eher mehr cpu-power umsetzen.
w0mbat
2021-10-20, 11:32:37
@davidzo: wenn ich mir die Größe der SLC-slices ansehe, könnte ein silce auf 16MB angewachsen sein, d.h. der M1 Pro hätte 4x soviel SLC-Cache und der M1 Max hätte 8x soviel SLC-Cache. Kann aber auch Quatsch sein.
Und wenn du dir die die-shots von Apple anschaust, kann man auf dem M1 Max eine zweite NPU erkennen. Sehr seltsam.
Dazu ein deutlich breiteres Speicherinterface (512-bit LPDDR5 sind massiv) und viele Verbesserungen bei den image scalern und solche Dinge wie ProRes accelerators. Da gehen sehr viele Transistoren für drauf.
Was mich aber etwas stutzig macht ist, dass es von M1 Max nur eine cut down Version gibt, mit 24 GPU Kernen, aber keine mit weniger CPU Kernen. Wirft Apple wirklich alle M1 Max chips weg, bei denen einer der peformance oder efficiency cores defekt ist?
Daredevil
2021-10-20, 11:42:39
Man kann wohl stark davon ausgehen, dass diese Chips in dem kommenden MacBook Air/ iMac 27", vielleicht auch iMac Pro und/oder MacMini bzw. MacMini "Pro" zu finden sind.
Insofern kann Apple erstmal den teuren Shit raushauen und hat lange, richtig lange Zeit die Chips an die Seite zu legen. Ein Apple "Gaming" TV wäre ebenso möglich mit 8C und 24/32c GPU "Abfall". Erst kam ja auch das "teure" M1 MacBook Pro und ein halbes Jahr später das "billige" M1 iPad, wo vermutlich deutlich mehr verkauf werden.
Die löten die Dinger einfach überall rein und ordern massiv bei TSMC. Der M1 hats vorgemacht. :D
robbitop
2021-10-20, 11:46:55
Was ist denn wenn Apple den AMD-Weg gegangen ist und bereits TSVs im M1pro und M1max DIE angelegt hat?
Ich meine die haben ja nicht geschlafen. Sind einer der frühsten Kunden für TSMCs advanced packaging, wenn AMD die Möglichkeiten von TSMC-SoIC mitgekriegt hat, dann wird das sicher auch nicht an Apple vorbei gegangen sein.
Jade 2C würde bereits am reticle limit kratzen, jade4C wäre klar drüber. Insofern werden die sich auch frühzeitig Gedanken gemacht haben wie man das aushebeln kann. Und da ist Cowos, Soic etc. einfach ein no-brainer.
Findet ihr es nicht auch verdächtig wie groß die beiden Chips sind im Vergleich zum M1? Ich habe echt nicht mit über 240mm2 gerechnet, das ist mehr als das doppelte. Ich hatte eher mit ca. 200mm gerechnet, für die verdoppelten P-kerne und GPU. Es hat sich eben nicht alles verdoppelt:
- NPU hat sich nicht verdoppelt, sind auch 16C beim M1
- SOC, flash controller, etc. wird sich nicht verdoppelt haben
- Die E-kerne haben sich sogar halbiert
- Gefühlt hat sich der Pitch des L2 Cache und des SLC entspannt.
- Der Uncore ist massiv gewachsen
- Thunderbolt ports sind nur von 2Stück auf 3Stück gewachsen
Auch verdächtig finde ich dass die beiden Chips vom Featurelevel noch total 2020 geblieben sind. Da ist abgesehen von LPDDR5 und den Prores Hardwarecodecs keine Veränderung der CPU-IP oder so gegenüber dem M1, welche einen ein Jahr späteren Launch erklären würde. Das kann natürlich auch nur durch das aufwändigere Bring-Up eins größeren Chips verursacht sein, bei Intel passiert sowas ja alle Nase lang. Aber das ist nicht Apples Excution Stil. Wenn das Bring-Up aufwändiger war als beim M1, wieso bringt man dann M1pro und M1max ausgerechnet gleichzeitig? Der Workload beim Bring-Up kann es allein also nicht gewesen sein, sonst hätte man das entzerrt und nicht unnötigerweise aufeinander gelegt.
Was wäre, wenn Apple da bereits an mehreren Stellen TSVs für Die Stacking vorgesehen hat?
Dann könnten die Chips einen ersten Tapeout nahe am M1 Tapeout gehabt haben und man arbeitet seitdem an der perfektionierung der stacking colums, bevor man in großserie geht.
Das hieße für Jade2C und Jade4C muss nun lediglich das Packaging, Kühlung und Produkt drum herum fertig stellen. Launch H1 2022?
Ich sehe das auch so. TSMC wird TSV, InfoLSI usw nicht im Stillen entwickelt haben sondern sicherlich mindestens im Mitwissen (oder Kooperation) ihrer Top Kunden.
Apples SoCs sind einfach 1x Generation weiter als alles andere. Da wäre meine Erwartung ganz klar, dass für die Skalierung genau das für M1 Max vorgesehen ist bereits.
————————
Zu den fetten SLC caches: IMO machen die eine Menge Sinn. Jedes bit was im Chip bleibt spart joules ggü externem Speicherzugriff. Moderne ASICs haben nunmal einen Löwenanteil der TDP für Kommunikation verbraten. Caches bringen die hitrate hoch und sparen somit Energie für Kommunikation. Das gilt für CPU und GPU (RDNA2 zeigt es ja sehr schön).
Felixxz2
2021-10-20, 11:52:14
Finde ich gar nicht. Der denkt halt 5 Jahre in der Zukunft. Außerdem muss das ja kein x86er sein.
Eher friert die Hölle zu bzw. Klingt halt wie typischer QuartalszahlenBS „jaja irgendwann kann man die schon zurückholen, vielleicht mit unserem eigenen ARM Chip!?“
Als ob apple sich diese niederlage dann eingestehen würde
https://www.guru3d.com/news-story/microsoft-surface-division-looking-to-develop-its-own-processors-and-socs.html
Apple färbt auf Winzigweich ab :D. Wobei das auch heißen kann, dass man einfach echte Custom-SoCs entwickeln lässt :).
Felixxz2
Wir werden sehen, wie es in 5 Jahren aussieht ;). Ich denke, in 5 Jahren wird Intel wieder uneinholbar vorne sein.
amdfanuwe
2021-10-20, 12:01:15
Wenn es TSVs gegeben hätte, wären die jetzt schon gestackt. Die haben ja den gleichen Zugriff auf die TSMC-Technologien. Davon ist weit und breit nichts zu sehen, also einfach nein. Vielleicht beim M2 in N3.
AMD hat für das Stacking auch viel eigene Forschung und Patente reingesteckt. Heißt also nicht, dass auch andere das jetzt bei TSMC so ohne weiteres verfügbar haben.
mboeller
2021-10-20, 12:12:34
https://semiaccurate.com/2020/12/07/apple-gets-creative-with-their-upcoming-cpus/
All of this is pretty well known, some blindingly obvious, some only rumored, but all of it confirmed by our sources. Where things get interesting is how Apple is using these technologies to step out of the proverbial box and do something SemiAccurate didn’t expect to see for another few years.
=Floi=
2021-10-20, 12:17:36
Ich denke, in 5 Jahren wird Intel wieder uneinholbar vorne sein.
Da gehe ich nicht mit. Deren fertigungsnachteil wird dann noch immer vorhanden sein. IPC geht fast nur noch über chache und der braucht platz.
Bei 5ghz ist auch schluss.
Selbst wenn intel da aufholen sollte, verdient apple mit den eigenen chips mehr und kann sie auch viel besser anpassen. Denke, es liegt der faktor 5-10 bei den einkaufskosten für die haupt chips.
Das sieht man sehr schön am M1, wie aplle hier das neue raw format beschleunigt. USB 4 gibt es und der chip ist super sparsam.
Ich denke, man hat hier sehrwohl bei intel angefragt, aber die konnten das so nicht liefern oder haben das zigfache verlangt.
Durch die breite an geräten lohnt sich das ganze für apple umso mehr. Geht das design in die iphones reden wir von 90 mio stück.
Das ist ne Frage der Vertrages. Ihr macht euch das zu leicht. Aus heutiger Sicht ja klar, aber wer weiss, was da noch passieren wird.
Felixxz2
2021-10-20, 12:50:35
@HOT Haha ja dann good luck mit der Einschätzung. Imo ist der Markt mittlerweile viel zu divers, als dass sich das wiederholen kann. Es gibt so viele Nischen wo du als Chipentwickler erfolgreich sein kannst (man denke nur an mobile, auto, server, ai etc.), das ist für eine Firma nicht mehr zu kontrollieren. Sowieso ist AMD jetzt zu stark und zu gesund als dass hier der Konkurrent nochmal wegbricht. Aber wie gesagt, good luck 👍
basix
2021-10-20, 13:36:33
malloc(16384) verbraucht weniger Speicher auf einer Apple CPU?
Sicher nicht ;) Malloc ist aber nicht das gleiche wie Speichermanagement.
Der M1 kann an der vorhandenen Speichermenge nicht viel ändern. Apple lagert allerdings sehr aggressiv Daten auf die sehr schnelle SSD aus. Das kaschiert die kleine RAM-Menge natürlich. Das machen sie unter iOS übrigens genau so. Wenn die SSD für so viele Schreibzyklen ausgelegt ist, dann ist das wahrscheinlich auch gar keine so schlechte Idee.
Wie Apple es genau macht, weiss ich nicht. Spielt es für den Anwender aber eine Rolle, wenn es auf einer 8GB M1 Maschine flüssig läuft und bei einer vergleichbaren Windows Maschine mit zum Teil 16GB der Speicher langsam überläuft und die Anwendung zu stocken beginnt?
Aussage ist nur die: Auch wenn der M1 wenig Speicher hat, läuft es noch anständig. Ich denke, dass man dies im Grundsatz dann auch auf die Jade 2/4C Chips übertragen kann. Somit sollte man auch mit 256...512 GByte RAM leben können, wohingegen man bei einem vergleichbaren Windows-System mehr RAM benötigen würde. Zumindest deuten das die M1-Reviews und Vergleiche mit Windows-Systemen an.
Daredevil
2021-10-20, 13:41:31
Bei einem M1Pro/Max ist der Effekt ja an sich noch verstärkt, da die SSD drei mal so schnell ist.
1GB in der Windows Welt sind halt nicht gleich 1GB in der M1 Unified Memory Welt.
Ähnliches sehen wir ja schon seit Jahren bei den iPhones und iOS im Vergleich zu Android.
Das ist natürlich kein Ersatz für richtigen RAM, macht die Schmerzen aber kleiner.
=Floi=
2021-10-20, 13:54:03
schön gesagt DD
Felixxz2
2021-10-20, 15:03:35
Kann da jemand mal was zu verlinken? Schwanke nämlich grade zwischen 32 und 64 GB RAM.
Platos
2021-10-20, 15:37:48
Bei einem M1Pro/Max ist der Effekt ja an sich noch verstärkt, da die SSD drei mal so schnell ist.
1GB in der Windows Welt sind halt nicht gleich 1GB in der M1 Unified Memory Welt.
Ähnliches sehen wir ja schon seit Jahren bei den iPhones und iOS im Vergleich zu Android.
Das ist natürlich kein Ersatz für richtigen RAM, macht die Schmerzen aber kleiner.
Ne SSD kann noch so schnell sein, die Zugriffszeiten sind trotzdem weit schlechter wie beim RAM.
Daredevil
2021-10-20, 16:03:27
Kann da jemand mal was zu verlinken? Schwanke nämlich grade zwischen 32 und 64 GB RAM.
Zu 32Gb habe ich nichts, aber zu 8gb vs. 16gb oder halt 8gb vs. Windows.
Sind nur Beispiele, sicher nicht auf alle Anwendungen übertragbar:
https://www.youtube.com/watch?v=aInkpbIOMYc
https://www.youtube.com/watch?v=h487I_5xOZU
https://www.youtube.com/watch?v=PP1_4wek4nI
Ne SSD kann noch so schnell sein, die Zugriffszeiten sind trotzdem weit schlechter wie beim RAM.
Moderne Konsolen zeigen, was man mit einer schnellen SSD alles anstellen kann. (:
Felixxz2
2021-10-20, 16:03:47
Was nicht verhindert, dass sie als RAM schonendes Mittel eingesetzt werden kann, siehe PS5. Oder bei Orchesterlibraries in Kontakt, die brauchen von SSD viel weniger RAM.
Platos
2021-10-20, 16:07:37
Theoretisch kann es natürlich Sinn ergeben, mit der Transition von 0.15GB/s Datenträgern zu 7GB/s Datenträgern, beim Programmieren die Daten völlig anders zu priorisieren (also nicht nur auf OS Ebene). Wenns "richtig" gemacht wird, kann man so natürlich ordentlich RAM sparen (siehe PS5). Wenn einfach nur schneller ausgelagert wird, wäre hingegen alles andere als smart.
Felixxz2
2021-10-20, 16:24:02
Klar, aber das ist ja das was passiert, grade bei einem geschlossenen (und toll RAM optimierten System wie MacOS). Oder, wie im Fall von Kontakt oder wschl. auch anderen Medienprogrammen, kann man sich im Zweifel auch sparen, Daten überhaupt in dem RAM zu laden, weil das Streamen von SSD schnell genug ist.
smalM
2021-10-20, 16:30:38
Wenn Apple bei Jade-2C und Jade-4C sein RAM-Schema beibehält, dann wird der mindestens verbaute RAM auf 64GB bzw. 128GB ansteigen.
Z.Z. will Apple für den Mac Pro 6499 € haben und dann noch extra 345 €, nur damit man mit 48GB das SI überhaupt voll ausnutzen kann. Als Zugabe darf man sich mit einem ollen Xeon W-3223 begnügen.
Als Minimum könnten wir dort zukünftig 12P+4E CPU + 48C GPU + 64GB RAM sehen, darüber dann bis zu 16P+4E CPU + 64C GPU + 128GB RAM.
Ich habe aber so meine Schwierigkeiten bei Jade-4C eine Kopplung von 4 Dies zu sehen. Für die Kopplung von 2 Dies kann ich mir das von @robbitop genannte InFO-LSi vorstellen. Aber bei 4 Dies sehe ich nicht, wie die sich so eng koppeln lassen sollen, mit nur einer I/O-Leiste an einer Die-Seite.
Durch die breite an geräten lohnt sich das ganze für apple umso mehr. Geht das design in die iphones reden wir von 90 mio stück.
90 Mio.?
Ein A-SoC wird in seiner Lebensspanne eher mehr als 250 Mio. Mal verbaut.
Kann Apple das momentane Verkaufsniveau halten, wandert ein Core-Design zukünftig in über 320 Mio. SoCs. Und da ist der Kleckerkram wie aTV etc. noch nicht mit dabei.
Das ist ne Frage der Vertrages. Ihr macht euch das zu leicht. Aus heutiger Sicht ja klar, aber wer weiss, was da noch passieren wird.
when has Apple ever returned to a supplier after years of bringing a major technology in house?
never.
Das ist natürlich kein Ersatz für richtigen RAM, macht die Schmerzen aber kleiner.
:biggrin:
Der RAM bereitete bei Apple schon immer Schmerzen – schon seit Apple II Zeiten, mit dem Versuch den Schmerz erst einmal mit einer doppelten Language-Card mit 32kB RAM zu lindern.
MSABK
2021-10-20, 17:38:06
Wie ist das eigentlich mit TB4, kommt Apple da ohne Intel Silicon aus?
Zossel
2021-10-20, 17:58:10
Somit sollte man auch mit 256...512 GByte RAM leben können, wohingegen man bei einem vergleichbaren Windows-System mehr RAM benötigen würde. Zumindest deuten das die M1-Reviews und Vergleiche mit Windows-Systemen an.
Windows verliert immer mehr den Anschluss, was der Kram von Apple taugt kann ich nicht sagen. Wenn man allerdings von von Maschine mit 1/4 bis 1/2 TB RAM redet wird das RAM sein der von Applikationen auch genutzt wird, da hat das OS typischerweise wenig bis nichts zu melden.
Zossel
2021-10-20, 17:59:51
Orchesterlibraries
Was ist das?
Zossel
2021-10-20, 18:01:07
Daten überhaupt in dem RAM zu laden, weil das Streamen von SSD schnell genug ist.
Erzähl bitte mehr darüber.
smalM
2021-10-20, 18:27:59
Wie ist das eigentlich mit TB4, kommt Apple da ohne Intel Silicon aus?
Die TB4-Controller sind auf dem Die integriert.
Die Frage ist, sind die Apple's eigenes Design oder ist das Intel IP?
Platos
2021-10-20, 19:01:16
Klar, aber das ist ja das was passiert, grade bei einem geschlossenen (und toll RAM optimierten System wie MacOS). Oder, wie im Fall von Kontakt oder wschl. auch anderen Medienprogrammen, kann man sich im Zweifel auch sparen, Daten überhaupt in dem RAM zu laden, weil das Streamen von SSD schnell genug ist.
Ah ja, dann hast du sicherlich eine Quelle, in der schön erklärt ist, inwiefern Apple das macht?
Oder basiert das etwa nur auf deiner persönlichen Annahme ?
mboeller
2021-10-20, 20:19:12
Aber bei 4 Dies sehe ich nicht, wie die sich so eng koppeln lassen sollen, mit nur einer I/O-Leiste an einer Die-Seite.
ins Blaue hinein gesponnen:
3D + innovative Kühlung von beiden Seiten (+ähnlich aufwendig wie bei den Konsolen)
Durch die nur 90W bei einem große Die könnte das funktionieren.
LadyWhirlwind
2021-10-20, 20:41:17
Man muss auch bedenken, dass diese Socs nur in hochpreisigen Geräten zur Verwendung kommen, welche auf Grund anderer Faktoren sich sowieso von der Konkurrenz absetzen. Ebenso gibt es nur eine sehr begrenzte Anzahl von Modellen. Da kann man natürlich ohne Rücksicht auf ein paar Euro mehr oder weniger Designen.
Apple kann es sich die letzten 20 % zu gehen.
basix
2021-10-20, 20:55:17
Die Frage ist, sind die Apple's eigenes Design oder ist das Intel IP?
Schwer zu sagen. Etwas an Lizenzkosten gehen sicher an Intel, egal von wem die IP ist.
davidzo
2021-10-20, 23:30:01
Der bisherige M1 hatte doch nur TB3 und brauchte dann noch retimer von Intel dazu sowie USB4 controller + charging controller IC. Das sind ne Menge components außerhalb des SOCs wo nicht apple draufsteht.
Wer weiß ob sie jetzt nicht den Retimer brauchen oder das integriert haben. Braucht Intel bei den eigenen TB Lösungen auch externe Retimer chips oder geht das direkt aus dem SOC raus?
Felixxz2
2021-10-21, 00:35:38
Was ist das?
Erzähl bitte mehr darüber.
Orchesterlibraries sind Samplebibliotheken, mit denen man zB in Logic ein komplettes Orchester programmieren kann. Diese Libraries sind teils sehr groß (die neueren schonmal gern 50-100GB). Mit HDDs musste man immer einen recht großen Teil der Samples im RAM halten, um die Zugriffszeiten zu verstecken, mit SSDs deutlich weniger.
Ah ja, dann hast du sicherlich eine Quelle, in der schön erklärt ist, inwiefern Apple das macht?
Oder basiert das etwa nur auf deiner persönlichen Annahme ?
Jo hat Daredevil oben gepostet. Du darfst beim nächsten Mal aber deutlich netter nachfragen!
Zossel
2021-10-21, 07:17:45
Orchesterlibraries sind Samplebibliotheken, mit denen man zB in Logic ein komplettes Orchester programmieren kann. Diese Libraries sind teils sehr groß (die neueren schonmal gern 50-100GB). Mit HDDs musste man immer einen recht großen Teil der Samples im RAM halten, um die Zugriffszeiten zu verstecken, mit SSDs deutlich weniger.
Klingt eher nach einer Eigenschaft der Anwendung als nach einer Eigenschaft des Betriebssystems.
Algorithmen die Daten verarbeiten die größer als der Hauptspeicher sind sind auch nicht bahnbrechend neu.
basix
2021-10-21, 09:25:32
Nichtsdestotrotz können HW-Module das Streaming / Speichermanagement unterstützen. Siehe auch PS5/XBSX Datendekompression von der SSD.
Apple wird sich dabei sicher was gedacht haben. 512 GByte scheinen bei LPDDR5 und Jade 4C das Maximum zu sein.
Noch zu den Kosten: Es gibt immer noch ein paar Leute die denken, dass eigene Chips für Apple nicht weniger kosten. Bei den Stückzahlen, die Apple mit A14 und den M1 Derivaten hat, lohnt sich eine eigene Architektur und eigen Chips mMn aber sehr. Ein M1 Max wird ca. 100$ in der Herstellung kosten (Annahme: N5 Wafer = 10k$). Dazu noch das Packaging und mehrere Chips, evtl. landet man bei Jade 4C bei 500$ Herstellungskosten (ohne Speicher). Nimmt man hier als Vergleich, was man damit erstzt: 28C Xeon-W, Listenpreis = 4450$. Selbst die günstigsten 8C Xeons haben einen Listenpreis bei 450$. Und das sind die neuesten Xeons von 2021. Die 2019er Modelle sind eher bei 700+$. Listenpreise sind sicher nicht die Grosshandelspreise, gleich 80% Rabatt wird es aber bei Intel nicht geben. Den 8C Xeon kann man aber mit einem einzelnen M1 Max ersetzen, welcher wie gesagt gerade mal ~100$ in der Herstellung kostet. Und dazu ist oben drauf die GPU schon dabei und ein gemeinsamer Speicherpool reduziert die Gesamtspeichermenge (dazu noch LPDDR5 anstatt GGDR6 oder gar HBM). Ich sehe also keinen Grund, wieso eigene Chips für Apple weniger profitabel sein sollten. Ja, Architektur und Chipentwicklung kosten etwas. Beim M1 konnte man aber viel vom A14 übernehmen, einfach nach oben skaliert.
Felixxz2
2021-10-21, 09:31:33
Klingt eher nach einer Eigenschaft der Anwendung als nach einer Eigenschaft des Betriebssystems.
Algorithmen die Daten verarbeiten die größer als der Hauptspeicher sind sind auch nicht bahnbrechend neu.
In diesem Beispiel sprach ich auch nicht vom OS, natürlich ist das auf Anwendungsebene. Ich bezog mich auf die Aussage, dass man mit SSDs RAM „sparen“ kann, was für viele Anwendungen natürlich zutrifft.
Ailuros
2021-10-21, 09:52:17
Noch zu den Kosten: Es gibt immer noch ein paar Leute die denken, dass eigene Chips für Apple nicht weniger kosten. Bei den Stückzahlen, die Apple mit A14 und den M1 Derivaten hat, lohnt sich eine eigene Architektur und eigen Chips mMn aber sehr. Ein M1 Max wird ca. 100$ in der Herstellung kosten (Annahme: N5 Wafer = 10k$). Dazu noch das Packaging und mehrere Chips, evtl. landet man bei Jade 4C bei 500$ Herstellungskosten (ohne Speicher). Nimmt man hier als Vergleich, was man damit erstzt: 28C Xeon-W, Listenpreis = 4450$. Selbst die günstigsten 8C Xeons haben einen Listenpreis bei 450$. Und das sind die neuesten Xeons von 2021. Die 2019er Modelle sind eher bei 700+$. Listenpreise sind sicher nicht die Grosshandelspreise, gleich 80% Rabatt wird es aber bei Intel nicht geben. Den 8C Xeon kann man aber mit einem einzelnen M1 Max ersetzen, welcher wie gesagt gerade mal ~100$ in der Herstellung kostet. Und dazu ist oben drauf die GPU schon dabei und ein gemeinsamer Speicherpool reduziert die Gesamtspeichermenge (dazu noch LPDDR5 anstatt GGDR6 oder gar HBM). Ich sehe also keinen Grund, wieso eigene Chips für Apple weniger profitabel sein sollten. Ja, Architektur und Chipentwicklung kosten etwas. Beim M1 konnte man aber viel vom A14 übernehmen, einfach nach oben skaliert.
Es ist schon eine Ewigkeit her dass ich mich mit Herstellungskosten beschaeftigt habe, aber diese sind insgesamt in den letzten Jahren so brutal gestiegen, dass mir das obrige schwer realistisch klingt. Sind es jetzt tatsaechlich $100/M1 Max nur steril fuer finale Herstellung ist es bei weitem noch nicht die Endsumme die alle relativen Unkosten dafuer deckt.
Im Gegenfall wuerden GPUs heutzutage auch nicht so suendhaft teuer sein.
robbitop
2021-10-21, 10:37:29
Nichtsdestotrotz können HW-Module das Streaming / Speichermanagement unterstützen. Siehe auch PS5/XBSX Datendekompression von der SSD.
Apple wird sich dabei sicher was gedacht haben. 512 GByte scheinen bei LPDDR5 und Jade 4C das Maximum zu sein.
Noch zu den Kosten: Es gibt immer noch ein paar Leute die denken, dass eigene Chips für Apple nicht weniger kosten. Bei den Stückzahlen, die Apple mit A14 und den M1 Derivaten hat, lohnt sich eine eigene Architektur und eigen Chips mMn aber sehr. Ein M1 Max wird ca. 100$ in der Herstellung kosten (Annahme: N5 Wafer = 10k$). Dazu noch das Packaging und mehrere Chips, evtl. landet man bei Jade 4C bei 500$ Herstellungskosten (ohne Speicher). Nimmt man hier als Vergleich, was man damit erstzt: 28C Xeon-W, Listenpreis = 4450$. Selbst die günstigsten 8C Xeons haben einen Listenpreis bei 450$. Und das sind die neuesten Xeons von 2021. Die 2019er Modelle sind eher bei 700+$. Listenpreise sind sicher nicht die Grosshandelspreise, gleich 80% Rabatt wird es aber bei Intel nicht geben. Den 8C Xeon kann man aber mit einem einzelnen M1 Max ersetzen, welcher wie gesagt gerade mal ~100$ in der Herstellung kostet. Und dazu ist oben drauf die GPU schon dabei und ein gemeinsamer Speicherpool reduziert die Gesamtspeichermenge (dazu noch LPDDR5 anstatt GGDR6 oder gar HBM). Ich sehe also keinen Grund, wieso eigene Chips für Apple weniger profitabel sein sollten. Ja, Architektur und Chipentwicklung kosten etwas. Beim M1 konnte man aber viel vom A14 übernehmen, einfach nach oben skaliert.
Herstellkosten sind aber nicht Vollkosten. Wenn man alles selbst machen will, muss man die komplette Organisation, die notwendig ist, bezahlen und pro Chip abschreiben. Es wird sich sicherlich lohnen - aber imo sollte das erwähnt werden.
smalM
2021-10-21, 11:16:33
Bei GeekBench (https://browser.geekbench.com/v5/compute/search?utf8=✓&q=macbookpro18&sort=score) tauchen so langsam Compute-Ergebnisse für die neuen SoCs auf.
Bisher nur ein Eintrag für Metal auf einem M1Max: 68870 Punkte.
Die anderen sind OpenCL, was den Vorteil hat, daß sie ein bißchen mehr Auskunft über die GPU geben:
Eine M1Max-GPU ist angegeben mit 32 Compute Units, 1000 MHz max. Takt und 42,7GB RAM: 60412 Punkte.
Eine M1Pro-GPU ist angegeben mit 16 Compute Units, 1000 MHz max. Takt und 21,3GB RAM: 38359 Punkte.
Man wird sehen müssen, wie sich das mit mehr Einträgen entwickelt und wie "echt" die OpenCL-Angaben sind (zu den von Apple angegebenen 10,4TFLOPS für den M1Max-Vollausbau passen sie jedenfalls nicht).
amdfanuwe
2021-10-21, 11:22:51
Im Gegenfall wuerden GPUs heutzutage auch nicht so suendhaft teuer sein.
Die sind so teuer wegen mangelndem Angebot und riesiger Nachfrage.
Die reinen Produktionskosten für die Chips sind nicht so hoch. Bei den GPUs kommen ja auch noch Entwicklungskosten, Gewinnspanne für Hersteller, Board, Speicher, Kühlung, etwas Kleinkram, OEM Gewinnspanne, Versand und Händlergewinnspanne mit drauf.
Da wird aus einem 30$(TSMC Preis) GPU Chip eben ein 100$(AMD Preis) Chip der in einer 300$ Grafikkarte (Händlerpreis) landet.
Und aus einem 100$ Chip(TSMC) eben eine 600$ Karte.
Nur mal beispielhaft aus den Fingern gesaugt.
Was wirklich teuer geworden ist, sind die Entwicklungs- und Testtools.
Bei der zunehmenden Transistoranzahl steigt die Komplexität dieser Tools und damit der Preis exponentiell. Die Tools werden halt nicht in Massen verkauft.
Ist ja nicht wie früher, als noch ein paar Ingenieure die Pläne für den Chip auf dem Papier zeichnen konnten und erst der fertige Testchip getestet wurde.
basix
2021-10-21, 11:23:53
Natürlich sind am Schluss die Vollkosten relevant. Design, Entwicklung, Vertrieb, Lagerung usw. kommen dort rein. Aber auch restlichen Systemkosten der Apple-Geräte.
4x M1 Max + 256 GByte LPDDR5 vs. 28C Xeon + 256 GByte DDR4 und W6800X Duo mit 64 GByte GDDR6. In der Herstellung könnte beides ähnlich viel kosten. Was fehlt ist die Intel/AMD Marge. Diese liegt bei ~50% oder gar derüber. Ich kann mir kaum vorstellen, dass die Differenz zwischen Vollkosten und Herstellungskosten so viel ausmacht.
Dazu sind allfällige Performance-Vorteile des M1-Systems noch nichtmal berücksichtigt.
Apple M1 Max Catches up to RX 6800M, RTX 3080 Mobile in GFXBench 5 - Tomshardware (https://www.tomshardware.com/news/apple-m1-max-catches-up-to-rx-6800m-geforce-rtx-3080-mobile-gfxbench-5)
Matrix316
2021-10-21, 13:49:33
Wäre es nicht cool, wenn Apple Grafikkarten auf M1 Basis bringen würden? Warum hat man das komplette System auf ARM umgestellt? Es hätten am Ende vielleicht sogar Co Prozessoren gereicht. Oder Hybrid Systeme mit X86 und M1 Chip. Gerade im Desktop Bereich muss das ganze ja nicht so stromsparend wie im Notebook sein.
smalM
2021-10-21, 13:49:39
Aktuellere Einträge bei GFXBench für M1Max und M1Pro (https://gfxbench.com/compare.jsp?benchmark=gfx50&did1=101857300&os1=OS+X&api1=metal&hwtype1=GPU&hwname1=Apple+M1+Max&D2=Apple+M1+Pro)
Anzahl Einträge: 6 und 1 ;)
Zossel
2021-10-21, 18:13:48
Nichtsdestotrotz können HW-Module das Streaming / Speichermanagement unterstützen. Siehe auch PS5/XBSX Datendekompression von der SSD.
mmap(2) ist uralt und das gibt auch schon ewig unter Windows, und DMA ist auch nicht wirklich neu, Sony hat halt einen HW-Dekompressor in den Datenpfad gebaut.
Klassische Krytobeschleuniger sind da auch ähnlich unterwegs, die will man heute aber nicht mehr unbedingt haben weil das zu weit weg von der CPU stattfindet.
VooDoo7mx
2021-10-21, 23:51:21
Aktuellere Einträge bei GFXBench für M1Max und M1Pro (https://gfxbench.com/compare.jsp?benchmark=gfx50&did1=101857300&os1=OS+X&api1=metal&hwtype1=GPU&hwname1=Apple+M1+Max&D2=Apple+M1+Pro)
Anzahl Einträge: 6 und 1 ;)
Die Arch scheint echt sehr gut nach oben zu skalieren.
Aztec 1440p Offscreen
M1: 81,6fps (selbst gemessen, eigenes MacBook Pro)
M1 Pro: 165,5fps
M1 Max: 308,9 fps
Wenn ich die Skalierung auf den 3D märk Wildlife Extreme übertrage, müsste M1 Pro so ungefähr die Leistung einer Notebook 3050 (nonTi) und der M1 Max so ungefähr auf den Niveau einer Notebook 3060 haben.
urpils
2021-10-22, 06:10:54
toms Hardware ordnet es bei der 3080 (mobile) ein:
https://www.tomshardware.com/news/apple-m1-max-catches-up-to-rx-6800m-geforce-rtx-3080-mobile-gfxbench-5
Ailuros
2021-10-22, 08:38:50
Die sind so teuer wegen mangelndem Angebot und riesiger Nachfrage.
Die reinen Produktionskosten für die Chips sind nicht so hoch. Bei den GPUs kommen ja auch noch Entwicklungskosten, Gewinnspanne für Hersteller, Board, Speicher, Kühlung, etwas Kleinkram, OEM Gewinnspanne, Versand und Händlergewinnspanne mit drauf.
Da wird aus einem 30$(TSMC Preis) GPU Chip eben ein 100$(AMD Preis) Chip der in einer 300$ Grafikkarte (Händlerpreis) landet.
Und aus einem 100$ Chip(TSMC) eben eine 600$ Karte.
Nur mal beispielhaft aus den Fingern gesaugt.
Was wirklich teuer geworden ist, sind die Entwicklungs- und Testtools.
Bei der zunehmenden Transistoranzahl steigt die Komplexität dieser Tools und damit der Preis exponentiell. Die Tools werden halt nicht in Massen verkauft.
Ist ja nicht wie früher, als noch ein paar Ingenieure die Pläne für den Chip auf dem Papier zeichnen konnten und erst der fertige Testchip getestet wurde.
Es ist doch praktisch wurscht wo und fuer was ein vendor fuer Herstellung insgesamt bezahlt. Es wird nach wie vor die Herstellung des chips um ein sehr grosses Prozentual teurer und den Unterschied schluckt der vendor natuerlich nicht sondern der Endpreis bzw. der Endverbraucher.
Die Endleistung einer neuen chip-Generation steigt nach wie vor bis zu 2x Mal waehrend die Verbraucherpreise in letzten Jahren steil nach oben gestiegen sind.
Der springende Punkt hier ist dass die Behauptung dass Apple ploetzlich einen uebertriebenen Gewinn von den neuen M1 Pro/MAX chips machen, einfach nicht stimmt.
basix
2021-10-22, 10:49:05
Der springende Punkt hier ist dass die Behauptung dass Apple ploetzlich einen uebertriebenen Gewinn von den neuen M1 Pro/MAX chips machen, einfach nicht stimmt.
Niemand hat das behauptet ;) Nur, dass man mit Geräten mit M1 mehr Gewinn macht als mit bisherigen Intel/AMD Geräten.
Andererseits: Viele der Apple High End Geräte generieren schon heute fast schon übertriebenen Gewinn ;D
ChaosTM
2021-10-22, 11:10:01
Der Gigantische Börsenwert kommt nicht ganz von ungefähr. Wenn du höhere Margen als der internationale Drogenhandel hast, wird das vom Markt honoriert.. :D
NV`s Kurs lebt auch von den riesigen Margen.
robbitop
2021-10-22, 12:15:16
Naja. Runde 40% Bruttomarge ist satt - aber übertrieben ist was anderes. Das ist einfach ein sehr gutes Geschäft. Nicht mehr und nicht weniger.
Felixxz2
2021-10-22, 14:40:33
Das ganze ist doch Kapitalismus aus dem Lehrbuch und zwar positiv gemeint: eine Firma entwickelt eine starke neue Technologie und ermöglicht dem Kunden bessere Leistung und sich selber bessere Marge.
Ailuros
2021-10-22, 14:42:42
Niemand hat das behauptet ;) Nur, dass man mit Geräten mit M1 mehr Gewinn macht als mit bisherigen Intel/AMD Geräten.
Andererseits: Viele der Apple High End Geräte generieren schon heute fast schon übertriebenen Gewinn ;D
Mehr != uebertrieben. Wuerde sich die Affaere von mehrere Perspektiven nicht lohnen haette Apple auch weiterhin von Intel/AMD eingekauft.
Naja. Runde 40% Bruttomarge ist satt - aber übertrieben ist was anderes. Das ist einfach ein sehr gutes Geschäft. Nicht mehr und nicht weniger.
Stimmt.
Das ganze ist doch Kapitalismus aus dem Lehrbuch und zwar positiv gemeint: eine Firma entwickelt eine starke neue Technologie und ermöglicht dem Kunden bessere Leistung und sich selber bessere Marge.
Intel/AMD koennen froh sein dass Apple ihre IP nicht weiterverkauft.
w0mbat
2021-10-22, 16:03:10
Intel/AMD koennen froh sein dass Apple ihre IP nicht weiterverkauft.
Mit 430mm² in N5P würde AMD sicher auch was feines zaubern können, vielleicht sogar besser als das, was Apple zu bieten hat.
VooDoo7mx
2021-10-22, 16:14:23
toms Hardware ordnet es bei der 3080 (mobile) ein:
https://www.tomshardware.com/news/apple-m1-max-catches-up-to-rx-6800m-geforce-rtx-3080-mobile-gfxbench-5
GFX Bench ist Müll und um Apple mit AMD/nVidia zu vergleichen.
Im 3D Mark Wildlife Extreme macht ein M1 4900. Wenn man von da auf M1 Max hochskaliert ist bei ungefähr 18000 was knapp hinter einer 115W Notebook 3060 ist.
Das ist schon mal ein gutes Ergebnis da man bei der Hälfte des Stromverbrauchs dort ist. Jedoch hab ich z.B. für mein 3060 Notebook 1/3 dafür bezahlt was ein Macbook Pro mit M1 Max kostet.
Eine 150W Notebook 3080 macht da 27000+ ist also nochmal locker über 50% schneller als M1 Max.
auch sollte man nicht vergessen, dass M1 Max keine Ray Tracing Beschleuniger hat, keine AI Upsamplingverfahren wie DLSS kann. Und Mac OS praktisch alle Features fehlen um 3D Einstellungen vorzunehmen die bei nVidia und AMD seit über 20 Jahren Standard sind. Bis heute können die Teile ja nicht mal Tesselation.
Dann darf man auch nicht vergessen, das praktisch nichts auf Mac OS portiert wird. Das einzige AAA Spiel was 2021 portiert wurde, war Metro Exodus. Das wars dann auch. Es gibt nicht mal sowas wie Proton für Linux. man kann höchstens sachen über Virtualisierung laufen lassen was aber in vielen Fällen sehr langsam ist.
Wer wegen eines schlechten Benchmarks ernsthaft glaubt, dass M1 Max die 3D Performance einer Notebook 3080 erreicht, hat nicht mehr alle Latten am Zaun und sollte auch nicht jeden Müll von Apple mit deren wirren Marketinggraphen glauben.
Savay
2021-10-22, 17:47:38
keine AI Upsamplingverfahren wie DLSS kann.
Wieso sollte das, zumindest theoretisch, nicht gehen?! Die ANE ist doch trotzdem auf dem Chip!
urpils
2021-10-22, 17:52:30
GFX Bench ist Müll und um Apple mit AMD/nVidia zu vergleichen.
Im 3D Mark Wildlife Extreme macht ein M1 4900. Wenn man von da auf M1 Max hochskaliert ist bei ungefähr 18000 was knapp hinter einer 115W Notebook 3060 ist.
Das ist schon mal ein gutes Ergebnis da man bei der Hälfte des Stromverbrauchs dort ist. Jedoch hab ich z.B. für mein 3060 Notebook 1/3 dafür bezahlt was ein Macbook Pro mit M1 Max kostet.
Eine 150W Notebook 3080 macht da 27000+ ist also nochmal locker über 50% schneller als M1 Max.
auch sollte man nicht vergessen, dass M1 Max keine Ray Tracing Beschleuniger hat, keine AI Upsamplingverfahren wie DLSS kann. Und Mac OS praktisch alle Features fehlen um 3D Einstellungen vorzunehmen die bei nVidia und AMD seit über 20 Jahren Standard sind. Bis heute können die Teile ja nicht mal Tesselation.
Dann darf man auch nicht vergessen, das praktisch nichts auf Mac OS portiert wird. Das einzige AAA Spiel was 2021 portiert wurde, war Metro Exodus. Das wars dann auch. Es gibt nicht mal sowas wie Proton für Linux. man kann höchstens sachen über Virtualisierung laufen lassen was aber in vielen Fällen sehr langsam ist.
Wer wegen eines schlechten Benchmarks ernsthaft glaubt, dass M1 Max die 3D Performance einer Notebook 3080 erreicht, hat nicht mehr alle Latten am Zaun und sollte auch nicht jeden Müll von Apple mit deren wirren Marketinggraphen glauben.
du argumentierst, als ob ich gesagt hätte "man kann mit dem M1 Max einen Zockrechner haben, der einer mobilen 3080 gleichwertig ist" :wink:
ich hab den Link nur gepostet, um eine weitere "Quelle" zu haben, wo sich die GPU rein leistungstechnisch in etwa einordnet. Es gibt dort einige Bereiche, in denen sie langsamer und einige in denen sie schneller ist als eine 3080.
Aber darum gehts auch nicht - selbst wenn der M1 Max doppelt so schnell wäre, wie eine 3080 würde es ja aus den von dir genannten Gründen fürs Gaming nichts bringen, aber GPU ist ja nunmal nicht nur für Gaming interessant.
Könnte ich mit nem M1Max aber Windows-Games spielen, würd ich dafür auch 1000€ Aufpreis gegenüber einem Windows-Laptop zahlen, weil mir ein MacBook mehr liegt, als ein (in meinen Augen) hässliches Notebook mit Windows (womit ICH nichts anfangen kann)...
naja. Bin gespannt wie die Real-Life-Erfahrungen bei den neuen SoCs aussehen werden - finds gut, dass Bewegung ins Spiel kommt :)
basix
2021-10-22, 18:09:34
Mehr != uebertrieben.
Was willst du mir nun damit sagen? Ich habe nirgends was von übertrieben gesagt. Das warst einzig und alleine du, oder besser gesagt du hast das so in gewisse Aussagen reininterpretiert ;)
smalM
2021-10-22, 19:10:25
Naja. Runde 40% Bruttomarge ist satt
Keine Ahnung, woher Du das hast. :confused:
Die Rohertragsmarge bei Nicht-Services war im letzten Geschäftsjahr 31,5%.
Die Gesamt-BruttoVorsteuermarge war 24,4%.
Du meinst vielleicht die Gesamt-Rohertragsmarge, die durch die sehr ertragsstarken Services auf 38,2% gehoben wurde.
PS:
@robbitop
:massa: Schlamperei korrigiert
robbitop
2021-10-22, 19:56:23
https://www.macrotrends.net/stocks/charts/AAPL/apple/gross-margin
Gross margin 41% zuletzt. Gross margin ist die Brutto marge des Gesamtunternehmens.
TheAntitheist
2021-10-22, 20:04:27
https://www.macrotrends.net/stocks/charts/AAPL/apple/gross-margin
Gross margin 41% zuletzt. Gross margin ist die Brutto marge des Gesamtunternehmens.
ja es ist nicht der Reingewinn. also Zieh da nochmal saftige Gehälter ab...
Hier wird ja so getan als ob alle da kostenlos arbeiten.
smalM
2021-10-22, 20:16:13
https://www.macrotrends.net/stocks/charts/AAPL/apple/gross-margin
Gross margin 41% zuletzt. Gross margin ist die Brutto marge des Gesamtunternehmens.
Ok, haben sie dieses Jahr noch einmal deutlich zugelegt.
Darf ich aber 'trotzdem' in den Raum werfen.
Die Rohertragsmarge für Nicht-Services im letzten Quartal lag bei 36%...
robbitop
2021-10-22, 20:18:38
ja es ist nicht der Reingewinn. also Zieh da nochmal saftige Gehälter ab...
Hier wird ja so getan als ob alle da kostenlos arbeiten.
Ich hab auch nichts vom Reingewinn gesagt sondern von der Bruttomarge.
Nein, gross margin ist Rohertragsmarge.
Die deutsche Bruttomarge ist die pre-tax profit margin.
Also ebitda. Das waren 2020 sogar nur 24%. Was ja umsomehr meinen Punkt unterstreicht. Übertriebene Gewinnspannen sehen anders aus. Es ist gut aber nicht übertrieben.
smalM
2021-10-22, 20:43:20
Es ist gut aber nicht übertrieben.
Dafür gibt es die Rohertragsmarge bei Services: 69,8%.
Dickster Ertragsbrocken bei Services: Die Zahlungen von Google, um die Standard-Suchmaschine in Safari zu stellen. Sollen dieses Jahr 15 Mrd.$ ausmachen. Die Marge dürfte bei 99,99% liegen.
Der Teufel scheißt immer auf den größten Haufen :wink:
Bin gespannt wie die Real-Life-Erfahrungen bei den neuen SoCs aussehen werden - finds gut, dass Bewegung ins Spiel kommt :)
Das für eine zukünftige Entwicklung eigentlich Wichtige ist die neue Leistungsuntergrenze, die die M1-GPU markiert.
Es wird nur ARM-Macs geben mit mindestens einer 2,3 TFLOPS GPU.
Da entsteht ein deutlich größerer addressierbarer Markt, der vorher so gar nicht gegeben war. Noch vor einem Jahr bestand ein großer Teil des Angebots aus Macs mit <1TFLOPS.
Monkey
2021-10-23, 09:57:01
Gibt einen ersten m1max Benchmark von Pudget Systems in Adobe Premiere.
Die Ergebnisse liegen teilweise deutlich über denen von high-end Amd/Nvidia Laptops. Der live playback Score liegt wohl Dank der Media Engine so weit vorne. CPU scheint etwas über einem 5900hx zu liegen, GPU minimal hinter einer 3080 Mobile. Gefühlt sind 5900hx und 3080 ja bald ein Jahr alt, aber da die nächste Generation wahrscheinlich erst wieder im Sommer erhältlich ist, ist der m1max aktuell echt ein amtliches Gerät. Zumal die Media Engine gerade im Bereich Videoschnitt wahrscheinlich auch langfristig alles dominieren wird sofern AMD und Nvidia nicht endlich Mal vernünftige Hardwarebeschleunigung für andere Formate als 420 h264/265 einbauen.
M1Max
https://www.pugetsystems.com/benchmarks/view.php?id=60176
5900hx 3080 Laptop
https://www.pugetsystems.com/benchmarks/view.php?id=51362
Troyan
2021-10-23, 10:59:07
Das sind keine GPU-Benchmarks, um die reale Geschwindigkeit zu messen. Die 3090 ist auch nur 4x schneller als die 5500m - siehe hier: https://forums.anandtech.com/threads/apple-silicon-m1-series-thread-including-m1-pro-m1-max-geekbench-5-single-core-1700.2587205/post-40615173
Monkey
2021-10-23, 11:15:26
Premiere ist sicherlich kein besonders guter GPU benchmark, andere Schnittprogramme schon! Denn da sehe ich wirklich was am Ende rauskommt.
Savay
2021-10-23, 12:33:06
Welches Video-Schnittprogramm ist denn bitte ein guter GPU Benchmark?
Die einzige Produktivsoftware die Ansatzweise zum GPU benchen taugt ist DXO PL4 mit DeepPrime...oder neuerdings PL5 um die ANE/TensorCores/Rapid Packed Math (durch die Nutzung von fp16 statt fp32) etc. zu bewerten.
Beim Rest hängen höchstens irgendwelche EdgeCases an der GPU.
Mehr als ein paar Filter sind da selten GPU lastig...egal ob PremierePro oder Resolve 17.x oder sonst was.
Und die Media Engines spielen da auch viel zu sehr rein, vor allem wenn man mit irgendwelchen exotischen Codecs anfängt rumzumessen.
dildo4u
2021-10-23, 12:36:36
Davinci geht gut nach oben von 3060 zu 3080.
https://www.pugetsystems.com/labs/articles/NVIDIA-GeForce-RTX-3070-Ti-3080-Ti-Review-Roundup-2190/#DaVinciResolveStudio
davidzo
2021-10-23, 12:37:34
@voodoo7mx: Auch wenn ich deinem Fazit das MacOS nicht für gaming ist zustimme, sind die von dir genannten Beispiele nicht ganz korrekt.
Es gibt außerdem keinen Grund ausfallend zu werden,
DU MÜLLBESITZENDER, nicht mehr Alle Latten am Zaun habender Nv-Marketinganhänger! ;D
auch sollte man nicht vergessen, dass M1 Max keine Ray Tracing Beschleuniger hat, keine AI Upsamplingverfahren wie DLSS kann.
Du meinst Raytracing im Sinne von DXR. Das wäre auch merkwürdig, ist DXR doch Bestandteil von DirectX. Metal unterstützt sehr wohl hardwareunterstüztes Raytracing auf der GPU, nur eben nicht mittels DXR. Der Ansatz ist eher mit dem von AMD vergleichbar, verwendet also normale Shaderprogramme: https://developer.apple.com/documentation/metalperformanceshaders/metal_for_accelerating_ray_tracing?language=objc
Aber ja, die performance ist nicht unbedingt konkurrenzfähig. Ein M1 erreicht in Metal ca. 1/30 der Leistung einer Desktop 2070 mit DXR.
Und Mac OS praktisch alle Features fehlen um 3D Einstellungen vorzunehmen die bei nVidia und AMD seit über 20 Jahren Standard sind.
Ein Relikt der Inkonsistenz das man unbedingt haben sollte?
Auch unter Windows werden die meisten Settings mittlerweile nur noch von der Applikation selbst bestimmt. Das macht auch viel mehr Sinn, denn wozu sollte ich globale Settings für AF, AA und texturfilterung haben wenn die Spiele/Anwendungen doch vom Leistungsprofil und texturqualität völlig unterschiedlich sind?
Btw, was ich viel wichtiger finde ist ordentliches Color Management für 10bit und 12bit output. Da hängt windows heute noch hinterher, so dass es praktisch ein Fehler ist unter WIN heute einen Monitor mit mehr als 8bit zu kaufen.
Bis heute können die Teile ja nicht mal Tesselation.
Metal kann schon sehr lange Tesselation (seit 2016?), etliche Spiele benutzen das auch. Es ist halt anders implementiert als in DirectX und Vulkan. Aber dafür gibts es mittlerweile sogar Wrapper wie in Molten-VK.
Es gibt nicht mal sowas wie Proton für Linux. man kann höchstens sachen über Virtualisierung laufen lassen was aber in vielen Fällen sehr langsam ist.
Es gibt schon einige Lösungen. Ich benutze Winebottler seit jahren, mit Wineskin winery steht eine Lösung für M1 breit und es gibt viele Games die problemlos laufen wie Skyrim, Torchlight II, etc.
Aber ja, Linux hat mittlerweile eine bessere Game-Unterstützung dank Steam und Proton.
Savay
2021-10-23, 12:38:14
Davinci geht gut nach oben von 3060 zu 3080.
DaVinci hängt größtenteils trotzdem an der CPU...das sind wie gesagt immer nur ein paar Filter...und die muss man erstmal nutzen (können!). :freak:
Videoschnitt zur universellen GPU Beurteilung ran zu ziehen ist das absolut unzuverlässigste was man sich antun kann.
Das ist bestenfalls ein Systemtest...und ganz absurd wird's wenn man irgendwelche exotischen Codecs nimmt für die es evtl. sogar noch Beschleunigerkarten etc. gibt.
y33H@
2021-10-23, 12:40:06
Premiere Pro ist aber zumindest ein realer Workload.
Ich habe eine Verständnisfrage: beim M1 Max sind GPU und IMC verglichen zum M1 Pro wie ein Schmetterlingsflügel gespiegelt am unteren Ende des Chips. Ist es technisch denkbar, dass der M1 Pro eigentlich gar kein dediziert eigenes Die ist? Sprich wird nur der M1 Max produziert und für den M1 Pro der eine GPU/IMC-Flügel elektrisch und gar auch mechanisch abgetrennt? Ich kenne kein Design, bei dem das der Fall wäre.
Savay
2021-10-23, 12:45:15
Premiere Pro ist aber zumindest ein realer Workload.
Sag ich ja auch nix gegen...aber ist halt insgesamt betrachtet eher ein nutzungsspezifischer Systembenchmark und kein GPU Benchmark.
Wer mit nem realen Workload die (ML) GPGPU Tauglichkeit messen will, sollte sich wirklich eher DXO PhotoLabs4 (für fp32) und PhotoLabs5 (für fp16) mit DeepPrime (https://feedback.dxo.com/t/16-months-later-still-no-universal-app-for-apple-silicon/21711/11?u=savay) ansehen.
Das ist dann nämlich auch kein einzelner übergestülpter Filter o.ä. sondern es ersetzt ja tatsächlich den kompletten Standard Demosaicer und nahezu das komplette Processing. :smile:
Mit DeepPrime könnte man sogar die real-world AVX2/NEON/FPU Performance benchen sobald man die Ausführung auf der CPU forciert.
y33H@
2021-10-23, 13:02:01
Ja, mit Premiere Pro misst du CPU und GPU und ggf andere IP-Blöcke sowie Speichersubsystem ... auf Systemebene, etwa um das MacBook Pro mit M1 Max gegen ein Razer Blade mit 5900HX+RTX3080 zu stellen.
Monkey
2021-10-23, 14:03:42
Welches Video-Schnittprogramm ist denn bitte ein guter GPU Benchmark?
Die einzige Produktivsoftware die Ansatzweise zum GPU benchen taugt ist DXO PL4 mit DeepPrime...oder neuerdings PL5 um die ANE/TensorCores/Rapid Packed Math (durch die Nutzung von fp16 statt fp32) etc. zu bewerten.
Beim Rest hängen höchstens irgendwelche EdgeCases an der GPU.
Mehr als ein paar Filter sind da selten GPU lastig...egal ob PremierePro oder Resolve 17.x oder sonst was.
Und die Media Engines spielen da auch viel zu sehr rein, vor allem wenn man mit irgendwelchen exotischen Codecs anfängt rumzumessen.
Du hast wahrscheinlich noch nie mit Davinci Resolve gearbeitet denn sonst wüßtest du den Unterschied zwischen 4k Raw in der Timeline mit einer 1550ti oder zB einer 3060 wenn du ein paar Nodes bearbeitet hast. Vom Export mal ganz zu schweigen! Die Unterschiede zwischen verschiedenen GPUs bei Export in H264 oder 265 sind mehr als offensichtlich und für mich immer noch einer besten Indikatoren was die Leistung angeht (wenn man mal Spiele aussen vor läßt).
Die MediaEngine spielt beim Playback eine Rolle, ja, aber afair nicht beim Export.
Davinci ist da schon ein sehr sehr guter Maßstab was die GPU Performance angeht!
Btw kann die aktuelle Free Version von Davinci Resolve nun auch h265 export mit Hardwarebeschleunigung. Kann man ja mal testen was das für Unterschieden macht wenn man möchte - achso und dabei halt auch mal im Taskmanager gucken wie die Auslastung ist.
Edit: Gut lassen wir das mit dem GPU Benchmark, aber wie gesagt als Maßstab ist das Top.
CrazyIvan
2021-10-23, 14:16:14
Premiere Pro ist aber zumindest ein realer Workload.
Ich habe eine Verständnisfrage: beim M1 Max sind GPU und IMC verglichen zum M1 Pro wie ein Schmetterlingsflügel gespiegelt am unteren Ende des Chips. Ist es technisch denkbar, dass der M1 Pro eigentlich gar kein dediziert eigenes Die ist? Sprich wird nur der M1 Max produziert und für den M1 Pro der eine GPU/IMC-Flügel elektrisch und gar auch mechanisch abgetrennt? Ich kenne kein Design, bei dem das der Fall wäre.
Eigentlich nicht wie ein Schmetterling. Beim Max wurden einfach die GPU-Blöcke nach unten fortgesetzt. Aber ja, es ist nicht undenkbar, dass es dasselbe Die, jedoch beschnitten (daher der Beiname "Chop") ist.
Ein weiteres Gerücht geht in die Richtung, dass der Die shot vom Max nicht vollständig ist. Vielmehr hat man ihn abgeschnitten, damit die Interfaces für den Interconnect zwecks Jade 2/4C nicht zu sehen sind. Das halte ich sogar für sehr wahrscheinlich.
/edit:
Gerade nochmal die Die shots angeschaut: Du hast schon recht mit dem Schmetterling, wenn man nur SLC, GPU und IMC betrachtet.
Gratzner
2021-10-23, 14:20:26
Du hast wahrscheinlich noch nie mit Davinci Resolve gearbeitet denn sonst wüßtest du den Unterschied zwischen 4k Raw in der Timeline mit einer 1550ti oder zB einer 3060 wenn du ein paar Nodes bearbeitet hast.
Nach der Logik wären die Radeon Pro SSG die Leistungsfähigsten Grafikkarten die es auf dem Markt gibt, mit Vega-Architektur. 90FPS in 8K, wenn man sich frei in der Timeline rumbewegt. Und die Vega-Architektur wäre sogar besser als RDNA, Turing oder Ampere.
So ein Zeug wie Davinci-Resolve sind unfassbar schlechte Indikatoren für die Leistungsfähigkeit einer Grafikkarte. Da werden irgendwelche Bottlenecks gebenchmarkt, aber nicht die Leistungsfähigkeit einer Grafikkarte. Bei den normalen AMD/NVidia-Grafikkarten werden auch gerne durch Treiber Bottelnecks künstlich erzeugt (welche Spiele nicht verlangsamen aber Profisoftware). Wenn dann müsste man sowas wie Davinci-Resolve nicht auf einer RTX 3060 sondern auf die äquivalente Profi-Varianten testen
Savay
2021-10-23, 14:37:41
Davinci ist da schon ein sehr sehr guter Maßstab was die GPU Performance angeht!
Sorry für die Commercial fehlt mir echt der Bedarf, ansonsten benutze ich es oft genug für kleinere 4K H264/H265 Projekte...jedenfalls genug um beurteilen zu können woran es in den Fällen meistens klemmt.
Und an der GPU hängt es so oder so nicht so wirklich, weil es in der Timeline in 4K (8GB+) und 8K (20-24GB+) oft genug primär VRAM limitiert ist! (was den neuen Apples natürlich enorm(!) liegen wird)
Es gibt ja im Grunde eigentlich nur ein paar Denoise und Effekt Filter die wirklich GPU limitiert sind, die kann man in der Free aber nichtmal wirklich nutzen.
Dazu hängt es halt auch sehr stark am Codec Support, der in der da auch leider stark eingeschränkt ist.
Aber ich weiß eh nicht so recht ob VCE/NvEnc/QuickSync etc. echt als "GPU" Benchmark durchgeht.:wink:
Wie dem auch sei...
Resolve ist ein ordentlicher Systemtest, vor allem wenn die Projektsettings tatsächlich zum eigenen Bedarf passen...aber leider weniger brauchbar zur reinen GPU Beurteilung.
achso und dabei halt auch mal im Taskmanager gucken wie die Auslastung ist.
Der W10 Taskmanager ist für die GPGPU Auslastung komplett unzuverlässig.
Spätestens mit den div. Warteschlangen der AMD GPUs kommt der nicht klar und zeigt oft unglaublichen Bullshit an.
Musst schon HWInfo nehmen und die korrekten Metriken rauspicken.
smalM
2021-10-23, 15:04:54
Ich habe eine Verständnisfrage: beim M1 Max sind GPU und IMC verglichen zum M1 Pro wie ein Schmetterlingsflügel gespiegelt am unteren Ende des Chips. Ist es technisch denkbar, dass der M1 Pro eigentlich gar kein dediziert eigenes Die ist? Sprich wird nur der M1 Max produziert und für den M1 Pro der eine GPU/IMC-Flügel elektrisch und gar auch mechanisch abgetrennt? Ich kenne kein Design, bei dem das der Fall wäre.
Nein, eigentlich ausgeschlossen. Man kann sowas nicht einfach an einer Stelle trennen, das würde bspw. zu unkontrollierten Reflexen auf den Bussen führen, wenn nicht gar zu Übersprechen oder Kurzschlüssen.
Zwar werden Dies aus Wafern geschnitten, aber dafür sind immer extra Leerstellen vorhanden.
Der "Chop" fand wahrscheinlich beim Design statt. Der M1 Max dürfte von vorn herein mit dem Ziel entwickelt worden sein, ohne viel zusätzlichen Aufwand einen Teil des Designs abtrennen zu können.
y33H@
2021-10-23, 15:20:42
Ok, das wäre nämlich auch mein Verständnis - wenngleich ich es tatsächlich nicht weiß und daher nicht kategorisch ausschließen wollte.
deLuxX`
2021-10-23, 20:51:13
A16 bzw. M2 mit ARMv9. Realistisch?
smalM
2021-10-23, 23:00:13
@deLuxX`
Das ist eine gute Frage!
ARMv9-A ist im Prinzip ARMv8.5-A mit SVE2 und einer Handvoll zusätzlicher Pflicht-Erweiterungen.
Apple hatte es in der A14-Generation nicht für notwendig erachtet, ARMv8.5-A vollständig zu implementieren und wir wissen schlicht nicht, welchen Stand der A15 erreicht hat.
Für die Implementierung von SVE2 ist Apple jedenfalls nicht auf ARMV9-A angewiesen, vielleicht sehen wir also das in der A16-Generation und dazu, was immer von ARM8.5-A bis ARM8.8-A Apple gefällt.
][immy
2021-10-24, 10:27:01
Nur Mal so als Frage, kann es sein das ein Großteil der Performance durch den RAM kommt?
Der ist nicht grade niedrig getaktet und recht nah bei der CPU (und mit einem breiten Interface versehen). Dadurch sollten auch ziemlich niedrige Timings möglich sein wodurch der RAM schon mehr in die Richtung des l3 Caches geht.
Monkey
2021-10-24, 10:57:00
Nach der Logik wären die Radeon Pro SSG die Leistungsfähigsten Grafikkarten die es auf dem Markt gibt, mit Vega-Architektur. 90FPS in 8K, wenn man sich frei in der Timeline rumbewegt. Und die Vega-Architektur wäre sogar besser als RDNA, Turing oder Ampere.
Sorry aber ich weiß wirklich nicht was man zu dem Nonsens sagen soll. Am besten lernst du einfach weiter Promomaterial auswendig und ignorierst mich hier.
VG
KarlKastor
2021-10-24, 11:46:05
[immy;12828037']Nur Mal so als Frage, kann es sein das ein Großteil der Performance durch den RAM kommt?
Der ist nicht grade niedrig getaktet und recht nah bei der CPU (und mit einem breiten Interface versehen). Dadurch sollten auch ziemlich niedrige Timings möglich sein wodurch der RAM schon mehr in die Richtung des l3 Caches geht.
Der DRAM ist off-die also immer noch ziemlich weit weg. Zudem ist LPDDR nicht gerade für seine niedrigen Latenzen bekannt.
Die kleinen SoC haben den DRAM noch näher und auch keine überragenden Latenzen. Apple erschlägt das einfach mit Unmengen an Cache.
Der Vorteil durch große Caches und Sparsamen RAM ist ganz einfach die Effizienz.
Wenn man sich dagegen die Spielekonsolen anschaut mit ihren GDDR, sind die ganz woanders.
steve.it
2021-10-24, 11:56:16
Die MediaEngine spielt beim Playback eine Rolle, ja, aber afair nicht beim Export.
Die Geschwindigkeit des Exports in ein bestimmtes Format sagt doch über die GPU oder CPU nicht wirklich etwas aus, sondern nur über den Hardware-Encoder.
Bei solchen Tests wird zudem i.d.R. leider weder die Qualität des Ergebnisses noch die Dateigröße des Ergebnisses beachtet, sondern alleine die Geschwindigkeit.
D.h. wenn ein bestimmter Hardware-Encoder bessere Qualität pro Dateigröße liefert, bleibt das typischerweise unberücksichtigt.
Laut diversen Tests und Vergleichen bietet der Hardware-Encoder des M1 eine schlechte Qualität. Dateigrößen scheinen extrem groß zu werden, um in der Qualität an ein x265 ranzukommen.
"Seeing exact same thing. I haven't compared the VT vs x265 quality yet extensively but eye test, the VT version had to be encoded at 8K+ BR to yield comparable quality to x265 which was closer to 2K BR. And of course the resulting 9GB file vs 2.3GB file."
https://forums.macrumors.com/threads/mac-mini-m1-h-265-encoding.2269815/
In A15 und ggf. M1pro/max gibt es evtl. einen neuen Hardware-Encoder.
Ich nutze für meine privaten Videos nach wie vor Software-Encoding.
Noch einen Thread gefunden (aber selber noch nicht gelesen): https://forums.macrumors.com/threads/someone-please-try-this-h-265-encoding-benchmark-in-handbrake-on-their-m1-mac.2277014/
smalM
2021-10-24, 13:07:46
[immy;12828037']Nur Mal so als Frage, kann es sein das ein Großteil der Performance durch den RAM kommt?
Der ist nicht grade niedrig getaktet und recht nah bei der CPU (und mit einem breiten Interface versehen). Dadurch sollten auch ziemlich niedrige Timings möglich sein wodurch der RAM schon mehr in die Richtung des l3 Caches geht.
Die Nähe zur CPU hat hauptsächlich Auswirkungen auf den Stromverbrauch, eher weniger auf die Timings.
Ob und wie sehr sich die Timings durch den Wechsel von LPDDR4X auf LPDDR5 verbessert haben, wissen wir (noch) nicht. Daß die RAM-Bänke nun 50% schneller takten, bedeutet ja nicht automatisch, daß sich die Latenz um 50% verbessert.
Vielleicht kennt hier im Forum jemand Angaben zu den Sub-Timings von LPDDR5-Implementationen, mir sind noch keine untergekommen.
Davon ganz abgesehen: Die Performance kommt daher, daß Apple vom leistungsfähigsten CPU-Core, der momentan in einer Laptop-CPU zu haben ist, 8 Stück vebaut. ;)
Zudem ist LPDDR nicht gerade für seine niedrigen Latenzen bekannt.
Das kann man wohl laut sagen:
Aus der Spezifikation des i7-1185G7 Referenzsystems: LPDDR4X-4266 CL36.
Resultierend in einer Latenz von 98 ns – der M1 kommt auf fast identische 97 ns.
dildo4u
2021-10-25, 16:44:48
Anandtech M1 Max/Pro Review https://www.anandtech.com/show/17024/apple-m1-max-performance-review
https://abload.de/img/1174966fkp0.png
IhqCC70ZfDM
https://abload.de/img/m1max21ck89.png
https://abload.de/img/m1maxflkfe.png
Gratzner
2021-10-25, 17:20:08
Sorry aber ich weiß wirklich nicht was man zu dem Nonsens sagen soll. Am besten lernst du einfach weiter Promomaterial auswendig und ignorierst mich hier.
VG
Danke für die Antwort. Ich liebe die Argumente und technische Tiefe die du gibst.
Nur mal so nebenbei, ich kenne das AMD-Promomaterial nicht auswendig. Sondern ich habe von den Newegg-Studios (1500 Mann Firma) das erste Mal von den Radeon Pro SSGs gehört. Und die sagen, erst mit den Radeon Pro SSGs können sie 8k in Echtzeit und volle Auflösung bearbeiten.[1] (https://www.youtube.com/watch?v=PkiX5ZBqpks). (Hängt laut AMD-Promo mit den 2TB NAND der SSGs zusammen)
Ich habe übrigens nichtmal geschrieben, dass die Apple-Produkte weniger Leistungsfähig als die Radeon Pro SSGs sind. Trotzdem wirst Du schon grundlos ausfällig. Lebe bitte einfach deine Defizite in deinem Verhalten hier nicht aus.
Troyan
2021-10-25, 17:33:47
https://youtu.be/IhqCC70ZfDM
https://abload.de/img/m1max21ck89.png
Sieht schon deutlich anders aus, was die GPU betrifft. Überlegt man sich, dass die GPU alleine über 40 Mrd. Transistoren hat, sind das viele Transistoren für die bisschen bessere Effizienz gegenüber 8nm Samsung...
davidzo
2021-10-25, 17:45:03
M1 pro Results (noch nicht der M1max!)
Quelle: https://www.youtube.com/watch?v=Rlr8Y_UT4iU
Cinebench MT: Absolut gesehen nichts besonderes. Das wird erst in der Energiebilanz richtig gut:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77137&stc=1&d=1635175432
Pudgetbench zeigt dann wofür das Gerät gebaut ist: Videoschnitt, period.
Astreine Desktop workstation performance auf dem Level eines 5950x oder Threadripper, bzw. deutlich vor dem 11900K. Und zwar schon mit dem M1pro, dafür braucht es nichtmal die Max Variante:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77135&stc=1&d=1635175432
Handbrake ist auch Brutal für die versammelten PCs: 3,6x schneller als Tigerlake mit 28W und fast doppelt so schnell wie ein 5900HX mit 70Watt: https://www.youtube.com/watch?v=23ys9v1CGLk
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77134&stc=1&d=1635175432
Die zweite Zielgruppe sind wohl Entwickler:
Der Firefox Compile Test zeigt einen großen IPC und ST+MT Vorsprung in solchen workloads:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77139&stc=1&d=1635175977
Wieviel angenehmer der Formfaktor und Energieverbrauch im Vergleich zu Hochleistungs PCs ist kann man gut am netzteilvergleich ablesen:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77138&stc=1&d=1635175432
davidzo
2021-10-25, 17:52:43
Gaming ist wie erwartet nicht die Stärke:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77140&stc=1&d=1635176848
Dort schlägt die Floatingpoint-Schwäche von Rosettas x86 Emulation voll durch und nebenbei muss ja sogar der Open-GL Content noch durch den Molten-VK Metal Wrapper geschleift werden.
Was möglich wäre wenn alles nativ liefe zeigt aber auch GFXbench, wo man selbst die 3080 schlägt:
https://www.youtube.com/watch?v=IhqCC70ZfDM
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77141&stc=1&d=1635176974
Andererseit sieht man im Computebench dass Apple hier gegenüber nvidia bei der ROhleistung zurückstecken muss. Der TBDR ist zwar unter den richtigen sehr effizient, allerdings sind 10,4Tflops halt auch nur 10,4Tflops max. Deshalb ist die RTX3060 bei der Computer Rohleistung noch besser. Das ist aber auch eine der Stärken von Ampere (irgendwie umgekehrte Welt im Gegensatz zu Pascal/Turing vs GCN).
VooDoo7mx
2021-10-25, 18:22:13
Das schlechte abschneiden in Spielen liegt nicht an der GPU sondern an der schlechten Anpassung der Titel.
Beispiel:
Subnautica vs Subnautica Below Zero
Beide Spiele basieren auf der Unity Engine. Below Zero kam dieses Jahr raus und ist der neuere Titel und hat auch eine bessere Grafik.
Trotzdem läuft Below Zero mehr als doppelt so schnell auf dem M1, einfach weil er Entwickler das besser an die GPU angepasst hat.
Wie gut ein Spiel wirklich angepasst ist, lässt sich an der GPU TDP ablesen. Shadow of the Tomb Raider liegt da bei 6W was im Vergleich so 180W bei einer Desktop 3080 von 320W wären. Somit liegt fast die Hälfte der ganzen GPU brach und tut nichts.
Die älteren Tomb Raider Titel kommen im übrigen deutlich besser mit der M1 GPU zurecht. Die besten Auslastung hat da sogar der 1. Teil. (2013)
Die Entwickler müssen die Titel nochmal anpassen was wohl einfach nicht passieren wird.
ChaosTM
2021-10-25, 18:23:56
Performance pro Watt ist beeindruckend.
Früher oder später wird sich ARM auch im PC Bereich (zuerst Mobile) durchsetzten. Nur eine Frage der Zeit und nicht wirklich aufzuhalten.
NV, AMD und auch Intel bastelt sicher schon an ähnlichen Systemen.
urpils
2021-10-25, 18:37:39
Performance pro Watt ist beeindruckend.
Früher oder später wird sich ARM auch im PC Bereich (zuerst Mobile) durchsetzten. Nur eine Frage der Zeit und nicht wirklich aufzuhalten.
NV, AMD und auch Intel bastelt sicher schon an ähnlichen Systemen.
das hat nichts mit "ARM" zu tun - bzw. eher wenig.
Dass der M1 (pro/max) der Konkurrenz davonläuft ist zu Teilen auf die großzügige Cache/Memory-Anbindung sowie den Fokus auf Effizienz statt DIE-Größe (Kosten) zurückzuführen. ARM ist nicht zwingend inhärent besser/schneller/effizienter.
Würde man einfach nur ARM-Cores einsetzten und alles Andere im PC-Space unangetastet lassen, würde man auch nicht in M1-Effizienzbereiche vordringen.
MSABK
2021-10-25, 18:58:47
Das schlechte abschneiden in Spielen liegt nicht an der GPU sondern an der schlechten Anpassung der Titel.
Beispiel:
Subnautica vs Subnautica Below Zero
Beide Spiele basieren auf der Unity Engine. Below Zero kam dieses Jahr raus und ist der neuere Titel und hat auch eine bessere Grafik.
Trotzdem läuft Below Zero mehr als doppelt so schnell auf dem M1, einfach weil er Entwickler das besser an die GPU angepasst hat.
Wie gut ein Spiel wirklich angepasst ist, lässt sich an der GPU TDP ablesen. Shadow of the Tomb Raider liegt da bei 6W was im Vergleich so 180W bei einer Desktop 3080 von 320W wären. Somit liegt fast die Hälfte der ganzen GPU brach und tut nichts.
Die älteren Tomb Raider Titel kommen im übrigen deutlich besser mit der M1 GPU zurecht. Die besten Auslastung hat da sogar der 1. Teil. (2013)
Die Entwickler müssen die Titel nochmal anpassen was wohl einfach nicht passieren wird.
Meinst du mit anpassen portieren auf ARM?
davidzo
2021-10-25, 19:49:03
Meinst du mit anpassen portieren auf ARM?
Ne, auch portieren auf Metal.
Molten-VK für Vulkan/OpenGL ist ja quasi nur eine Metal-Übersetzungsschicht, selbst der shadercode läuft also alles andere als nativ da drauf und muss erst einmal übersetzt werden. Und selbst wenn man nativen Code hätte orientiert sich der ja noch an den Limits und stärken von AMD und nvidia Architekturen. Das ist schon ein deutlicher Nachteil, sieht man ja bei AOE4 heute gerade, wo Relic einfach keine Navi2x Karten bei der Entwicklung hatte und demnach sehr schlecht damit läuft.
An den Treibern knabbert Intel gerade auch noch und das dauert anscheinend erheblich länger als geplant. Die Odyssey sollte mal in 2020 zum Ziel kommen und wenn man den gerüchten glaubt hat die 2-jährige Verschiebung wohl in erster Linie Software-Gründe.
Die Imgtec-Abstammung der Apple Architektur ist ja schon sehr eigen und bisher wurde da tatsächlich nur bei mobile Games derauf optimiert. Je mehr Cross plattform games wir sehen, desto mehr wird man afaik von der wahren leistungsfähigkeit der M1 GPU zu sehen bekommen. GFXbench Aztec ruins ist da ja ein kleiner Vorgeschmack. Wenn sich M1 Geräte weiter verbreiten werden wir wohl auch populäre iOS Spiele wie genshin impact auf dem Mac sehen, nicht nur PC.
VooDoo7mx
2021-10-25, 20:18:16
das hat nichts mit "ARM" zu tun - bzw. eher wenig.
Dass der M1 (pro/max) der Konkurrenz davonläuft ist zu Teilen auf die großzügige Cache/Memory-Anbindung sowie den Fokus auf Effizienz statt DIE-Größe (Kosten) zurückzuführen. ARM ist nicht zwingend inhärent besser/schneller/effizienter.
Würde man einfach nur ARM-Cores einsetzten und alles Andere im PC-Space unangetastet lassen, würde man auch nicht in M1-Effizienzbereiche vordringen.
Ich stimme zu, dass es nicht mit "ARM" zu tun hat.
Wie du schreibst, hat es auch mit der guten Arch, besonders aber auch mit den Fertigungsvorteil zu tun was Apple hat.
Ein Zen 4 CPU wird trotz des bösen und schlechten x86 mit der Leistung je Watt locker mit Apple gleichziehen, wenn diese nicht soigar übertrumpfen. AMD ist schon jetzt gar nicht mal so weit entfernt. Nur deren iGPU ist sehr ineffizient.
Meinst du mit anpassen portieren auf ARM?
Ich meine mit anpassen auf Metal und die neue GPU Arch.
Das von mir genannte Beispiel Subnautica läuft z.B. auch nur mit x86 binaries.
Die Rosetta x86 Emulation ist auf den M1 CPUs im übrigen sehr schnell. Wahrscheinlich schneller als sich viele hier vorstellen.
Apple hat auch extra dazu Hardware im Chip verbaut um dies zu beschleunigen.
ARM Binaries könnten im CPU Limit helfen und auch bei passiven Geräten wie dem Macbook Air wo dann dank weniger CPU Verbrauch mehr für die GPU übrig bleibt.
Wenn sich M1 Geräte weiter verbreiten werden wir wohl auch populäre iOS Spiele wie genshin impact auf dem Mac sehen, nicht nur PC.
Genshin Impact läuft doch jetzt schon perfekt auf ARM und Metal, siehe iOS.
Über den App Store laufen nativ alle iOS und iPadOS Programme auch auf Mac OS, ohne das der Ersteller irgendwas machen muss.
Im Falle von genshin Impact jedoch blockiert der Ersteller aktiv die Installation der iPad Version auf MacOS? Warum? Wegen Gründen... bestimmt.
Dieses Spiel ist schon fertig für Alle Apple APIs programmiert und könnte mit geringen Aufwand auch für Mac os kommen. Warum kommt es nicht? Wegen Gründen... bestimmt.
Ist auch ähnlich wie mit dem Spiel The Last Campfire. Wenn man es bei Steam gekauft hat, bekommt man nicht mal ne Mac Version. Im Arcade Abo gibt es dann eine Version die nativ auf ARM/Metal läuft.
Gerade aus den iOS Bereich gibt es viele Titel die schon lange gut mit Metal und ARM laufen.
Problem ist anscheinend die komplette Ignoranz der Hersteller. Für diese existiert MacOS praktisch nicht.
Noch eine andere lustige Geschichte dazu: Der Hauptprogrammierer vom Retro Shooter Prodeus (early Access) wusste in seinen Discord nicht einmal was M1 ist, obwohl es das Spiel auch für MacOS gibt und auch gut auf dem M1 läuft. :ugly:
VooDoo7mx
2021-10-25, 20:23:25
Doppelpost bitte löschen.
mocad_tom
2021-10-25, 21:25:15
.....
Ganz ehrlich, M1 Pro steht in einer Zahnarztwohnung.
Wenn er dann mal Produktiv genutzt wird, beim Fotografen, oder Videoschnitt, wobei es da gerade auch schon wieder kleverere Workstations gibt. Bei videoschnitt brauche ich halt brachial nvme gbyte.
Für Raw-Material HDR Video schneiden nimmt man keinen MacPro.
Und als Zocker-Kiste - nein - das sind disjunkte Mengen - wo fantasiert ihr rum(bei den Preisen).
Und als Compile-Kiste - sorry, da ist Visual Studio 2017/2019 zu dominant.
Android Studio auf M1 geht.
Also Crossplatform Iphone+Android macht Sinn.
Aber das wird so oft einfach nur ein "Ich-mach-den-Browser-auf-geh-zu-Amazon"-Laptop für die Zahnarztfrau werden.
Felixxz2
2021-10-25, 21:57:30
Das ist sicherlich richtig, aber trotzdem auch nicht. Es gibt so viele Firmen, gerade Agenturen und der ganze Kreativbereich, die nur Macbooks als Arbeitsgeräte verteilen. Da gehört das zum guten Ton, dort wird je nach Fall auch Leistung abgerufen.
Finch
2021-10-25, 22:51:29
Mal ehrlich, die Tatsache dass ich Desktop Leistung, lautlos, ohne throttling mit guter Akku-Laufzeit anrufen kann, wäre mir auch einiges wert.
Mein M1 Air ist diesbezüglich schon ein Segen gewesen. Der „kleine“ M1Pro mit 32 GB wäre für mich quasi ein Desktop replacement.
smalM
2021-10-28, 12:07:46
Nun bin ich den Rest des Jahres darauf gespannt, ob die Ablösung der noch verbliebenen Intel-Mac-minis auch den M1 Max verpaßt bekommt, oder ob es die nur mit M1 Pro geben wird.
Und ob wir tatsächlich einen Big iMac mit einem "M1 Max Duo" zu sehen bekommen werden und wenn ja, wie Apple dann die beiden Dies gekoppelt hat.
Savay
2021-10-28, 16:41:40
Handbrake ist auch Brutal für die versammelten PCs:
Speziell das ist ne komplett wertlose Darstellung wenn die Settings unklar sind. :freak:
davidzo
2021-10-28, 17:28:12
Die Rosetta x86 Emulation ist auf den M1 CPUs im übrigen sehr schnell. Wahrscheinlich schneller als sich viele hier vorstellen.
Apple hat auch extra dazu Hardware im Chip verbaut um dies zu beschleunigen.
Das mag für eine Anwendungen stimmen, aber in anderen hat Rosetta2 mit OpenGL einen riesigen Overhead. Gerade bei Floating-point Emulation hat sich Apple anscheinend für größtmögliche Präzision vs. Geschwindigkeit entschieden, was gerade viele emulierte 3D Software langsamer macht.
Ist mir egal ob das Rendern schnell ist, wenn die Viewport performance so schlecht ist im vergleich zu einem Intel macbook, dann gibts für mich noch keinen grund zu upgraden. Klar ist das Anwendungsabhängig, aber das ist hier eines der negativen Beispiele:
-mhN32tSQMU
Genshin Impact läuft doch jetzt schon perfekt auf ARM und Metal, siehe iOS.
Über den App Store laufen nativ alle iOS und iPadOS Programme auch auf Mac OS, ohne das der Ersteller irgendwas machen muss.
Im Falle von genshin Impact jedoch blockiert der Ersteller aktiv die Installation der iPad Version auf MacOS? Warum? Wegen Gründen... bestimmt.
Dieses Spiel ist schon fertig für Alle Apple APIs programmiert und könnte mit geringen Aufwand auch für Mac os kommen. Warum kommt es nicht? Wegen Gründen... bestimmt.
Ist auch ähnlich wie mit dem Spiel The Last Campfire. Wenn man es bei Steam gekauft hat, bekommt man nicht mal ne Mac Version. Im Arcade Abo gibt es dann eine Version die nativ auf ARM/Metal läuft.
Gerade aus den iOS Bereich gibt es viele Titel die schon lange gut mit Metal und ARM laufen.
Problem ist anscheinend die komplette Ignoranz der Hersteller. Für diese existiert MacOS praktisch nicht.
Noch eine andere lustige Geschichte dazu: Der Hauptprogrammierer vom Retro Shooter Prodeus (early Access) wusste in seinen Discord nicht einmal was M1 ist, obwohl es das Spiel auch für MacOS gibt und auch gut auf dem M1 läuft. :ugly:
Ein Grund dafür dass manche Programme von iOS nicht auf MacOS verfügbar sind, dürften die universal binaries sein. Es reicht also nicht einfach eine auf M1 lauffähige Version zu bauen, man muss dann auch eine x86 Version für die installierte Basis an Macs da draußen bauen.
Und genau diese installierte Basis ist beim M1 trotz der Verkaufsrekorde noch nicht groß. Daher lohnt sich das für die Entwickler einfach noch nicht nur M1 bzw. MacOS on Arm zu unterstützen.
Das wäre vergleichbar mit einem Spiel welches zwingend Ampere oder Navi2x vorraussetzen würde und auf anderen PCs nicht lauffähig wäre. So etwas gibt es auch noch lange nicht, da karten wie die 1060 und unterhalb immer noch einen riesigen Marktanteil haben. Und ich wette die installierte basis von Ampere+Navi2x ist sogar größer als die von M1 macs.
Kann schon sein dass die Entwickler einfach kein Bock haben auf eine so fragmentierte Plattform wie macOS und daher nur bei iOS bleiben. Es kann aber auch sein dass Apple den Launch von M1 only binaries unterdrückt weil keine universal binary für legacy mac user vorhanden ist.
Wenn er dann mal Produktiv genutzt wird, beim Fotografen, oder Videoschnitt, wobei es da gerade auch schon wieder kleverere Workstations gibt. Bei videoschnitt brauche ich halt brachial nvme gbyte.
Für Raw-Material HDR Video schneiden nimmt man keinen MacPro.
Unsinn, Profis arbeiten fast nie mit internen Storage Lösungen. Das machen vielleicht gamer und Streamer, aber selbst die meisten Youtuber nicht mehr. Man braucht eh immer Redundanz und Fotografen sind sowieso an einen workflow mit tiered storage gewöhnt, wo Kundenprojekte abgelegt und archiviert werden. 10Gbit NVME NAS ist da das Stichwort, + HDDNAS fürs Archiv und für on the Go dann thunderbolt external storage Lösungen. Am Set sind sowieso mehrere Personen involviert und um die Sicherung der SSDs oder Speicherkarten und die Rendundanz kümmert sich der Digitalassistent, der jeden morgen auch mit frischen, leeren Speichermedien aufwarten muss. Der Fotograf will sowas gar nicht alles auf seinem eigenen Notebook haben.
TheAntitheist
2021-10-28, 18:34:21
Speziell das ist ne komplett wertlose Darstellung wenn die Settings unklar sind. :freak:
Ja Handbrake ist Witzlos, nicht mal wegen den Settings sondern da wird da ein Hardware encoder genutzt, der IMMER qualitativ schlechter ist und niemals die besten settings kann. Für mich sind solche Vergleiche schon nah am Betrug.
Dennoch ist es geile Hardware, überteuert aber geil.
steve.it
2021-10-28, 20:26:55
Ja Handbrake ist Witzlos, nicht mal wegen den Settings sondern da wird da ein Hardware encoder genutzt, der IMMER qualitativ schlechter ist und niemals die besten settings kann. Für mich sind solche Vergleiche schon nah am Betrug.
Sorry, das stimmt so nicht.
Handbrake läuft auf der CPU mit x264 oder x265. Der HardwareEncoder (VideoToolbox) ist _optional_ . Handbrake kann man komplett ohne VideoToolbox nutzen.
"Der Hardwarekodierer kümmert sich nur um die Kodierung des Videos. Alles vor und nach dem Videokodieren inklusive Decoding, Filter, Audio/Video Sync, Audio Encoding, Muxing, usw. wird von der CPU ausgeführt. Dadurch ist eine hohe CPU Auslastung (bis zu 100%) während dem Kodieren normal."
https://handbrake.fr/docs/de/1.3.0/technical/video-videotoolbox.html
Man muss natürlich im jeweiligen Test darauf achten, welche Einstellungen verwendet werden.
smalM
2021-10-28, 22:43:27
Apple Q3.2021 (Mrd.$)
83,36 Umsatz
davon
9,18 Macs
38,87 iPhones
8,25 iPads
8,79 Wearables etc.
18,28 Services
35,17 Rohertrag
23,79 operativer Ertrag
20,55 Nettoergebnis
Geschäftsjahr
365,82 Umsatz
davon
35,19 Macs
191,97 iPhones
31,86 iPads
38,37 Wearables etc.
68,43 Services
152,84 Rohertrag
108,95 operativer Ertrag
94,68 Nettoergebnis
2021.Q3 SEC 10-K ist raus (https://d18rn0p25nwr6d.cloudfront.net/CIK-0000320193/42ede86f-6518-450f-bc88-60211bf39c6d.pdf)
davidzo
2021-10-28, 23:21:00
:frown:
Schon traurig dass man mit billigen bluetooth Gadgets und einer Armbanduhr mit nur wenigen Tagen Akkulaufzeit mehr Umsatz machen kann als mit allen Desktop Macs und Macbooks zusammen :hammer:
Savay
2021-10-29, 23:41:11
Hier gibts nen paar frische Zahlen vom M1(Pro) für CPU, GPU und ANE für DXO PL5 mit DeepPrime.
https://docs.google.com/spreadsheets/d/1Yx-3n_8D3OreyVwQLA-RVqiQCAgNdXDkxScpXTur1Gs/edit#gid=0
Es fehlen noch einige Systemkonfigurationen, vor allem aktuelle nV Karten, um echte Vergleiche ziehen zu können.
Da die meisten FP16 fähigen GPUs unter Windows aber max. 25-50% zulegen sollten mit 5.x vs. 4.x kann man es am Ende schon recht grob abschätzen.
M1 PRO:
GPGPU ~ bestenfalls GTX1660 SUPER Level
CPU MT ~ :comfort2: (Könnte an ner Eigenheit von CoreML liegen, wobei das nur SMT betreffen soll, das der M1 ja nicht hat. Oder es ist die Emulation...der Code ist unter Windows/DirectML aber extrem AVX lastig; sieht man am Sprung von Zen+ vs Zen2)
ANE NPU ~ Dann knapp auf Höhe mit N22, V10 und GA102-200
Die ANE skaliert aber ziemlich gut und ist insbesondere verglichen mit der Rohleistung sehr effektiv...liegt m.E. sicher am Unified Memory und dem SLC.
DeepPrime skaliert generell erstaunlich stark mit dem RAM und dürfte mit konventionellen Desktoparchitekturen ab ner gewissen Rohleistung wohl tw. durch Kopiervorgänge limitiert sein.
davidzo
2021-10-30, 00:38:56
Wie wird die GPU denn angesteuert, OpenCL, Metal? Was ist mit der NPU, die wäre für Denoising doch ideal?
1660 Super Leistung klingt für die 16C GPU aber realistisch. Diese 1660S Desktopkarte liegt immerhin zwischen 3050ti mobile und 3060 mobile. Hat die gleiche Speicherbandbreite, Speicherbestückung, mehr Pixelfüllrate, etwas weniger texelfüllrate und landet trotz nur fast halber Rohleistung zur 3060 bei über 80% des Outputs.
Und ungefähr bei der 3060 Mobile muss man den M1Pro wohl eh einschätzen. Der Pro hat ja nur ne halbierte GPU, bzw. verdoppelte M1 nonpro GPU (und der war knapp unter ner 1650mobile).
Savay
2021-10-30, 00:44:12
Wie wird die GPU denn angesteuert, OpenCL, Metal? Was ist mit der NPU, die wäre für Denoising doch ideal?
Das ist ja nicht nur nen Denoiser, das ist nen kompletter Demosaicer. (Warum auch immer das von DXO nicht stärker betont wird, aber es hat auch starke Implikationen auf die Moiréneigung von Bayer Sensoren, vor allem für "natürliche" Motive)
Naja wie dem auch sei, für DeepPrime wird unter MacOS CoreML genutzt (und der Treiber mappt es dann m.W. auf Metal) und unter Windows 10 DirectML (entsprechend mit Mapping auf DX12).
Gilt auch für die Ausführung über die CPU.
Das "normale" HQ Denoising läuft optional über OpenCL, was auch durchaus was bringt.
ANE, also die NPU, wird seit 5.0 genutzt, da ab da auf fp16 umgestellt wurde...vorher lief das DNN wohl via fp32.
Hilft auch GPUs die RPM o.ä. beherrschen (also auch der GTX1660 etc.) und bei nV werden dadurch wohl auch mittlerweile die TensorCores genutzt.
dildo4u
2021-11-16, 13:56:38
Paar M1 Pro Benches gegen verschiedene X86 Systeme.
https://youtu.be/SUyD2QXfGUg?t=388
y33H@
2021-11-17, 11:47:32
Meine Tests laufen noch ... PugetBench wurde gefixt, gerade rödelt Premiere Pro auf dem M1 Max - hoffe, es crasht nicht ^^
dildo4u
2021-11-17, 11:51:31
Wundert mich das es Probelme gibt sie hatte doch M1 als Basis seit 2020.
Monkey
2021-11-17, 11:55:10
Premiere bekam aber erst frisch ein Update für den m1, und da Adobe Software grundsätzlich Scheisse ist kann die natürlich abstürzen :)
y33H@
2021-11-17, 12:19:59
Ja, mit der 15er war's buggy und die 22er lief nun durch - mit beeindruckenden Resultaten!
davidzo
2021-11-17, 15:04:21
Meine Tests laufen noch ... PugetBench wurde gefixt, gerade rödelt Premiere Pro auf dem M1 Max - hoffe, es crasht nicht ^^
Premiere pro ist toll weil es Plattformvergleichbarkeit schafft. Aber wer im Apple Ökosystem verwendet denn Premiere Pro? Premiere ist nur eine Windows Software die es auch für den Mac gibt. Dann nimmt man gleich Bootcamp bzw. einen Windowslabtop wie den Dell XPZ, Razer Blade etc. Bzw. besser noch einen Desktop mit vielen Kernen und SSDs.
Der Vergleich zwischen Premiere Pro und Final Cut wäre daher auch sehr interessant (in gleichen Tasks). Denn ersteres läuft eher auf der CPU+GPU und ignieriert den rest vom Soc, während letzteres auch großen Nutzen aus den Hardwarecodecs und der NPU zieht.
Die aktuelle Softwarelandschaft für den M1 ist halt noch ein Flickenteppich, daher ist das schwer alles in einen Topf zu werfen und besser man differenziert zumindest in 3 Klassen:
1. MacOS x86 Apps in Rosetta2
2. Native ARM64 MacOS Apps
3. Optimale M1-Apps die vollen Gebrauch von HW-accelerators, GPU und NPU machen (bisher eigentlich nur Apple).
Dann kann sich jeder User anhand seiner Nutzungsgewohnheiten bzw. Nutzungspläne ein eigenes Bild machen ob M1 gerät für ihn überhaupt etwas bringen.
Meine leistungskritischen Apps zum Beispiel fallen derzeit in die Kategorie 1. Und damit bin ich mit einem alten Intel macbook noch gut bedient. Es gibt erste Betas für Kategorie 2, aber für den produktiveinsatz muss ich noch warten.
btw, Affinity Designer ist sicher eine Software die sehr viele in der Zielgruppe nutzen wollen würden. Kann man das vllt. auch testen?
Adobe Suite ist da als konservative Lösung und alter Branchenstandard eher auf dem dicksten, aber bereits absteigenden Ast. Ich schätze das Leute die einen so teuren neuen Labtop für Profi-Arbeit anschaffen auch gerne bei der Software auf die neuesten Platzhirsch und bessere Useability setzen. Und das ist halt schon lange nicht mehr Illustrator.
y33H@
2021-11-17, 17:50:09
Ich fahre derzeit die Schiene, einzig das zu nutzen, was Cross-Platform und nativ als ARM64 verfügbar ist ... Rosetta2 und rein Apple-Ökoversum sind ebenfalls geplant, aber nicht für den initialen Test. Wie üblich leider eine Zeitfrage, gerade passende Projekte für Affinity Designer oder Final Cut habe ich adhoc nicht parat ;(
smalM
2021-11-22, 18:01:07
Via AnandTech-Forum: Benchmarking the Apple M1 Max (https://tlkh.dev/benchmarking-the-apple-m1-max)
CPU Memory Bandwidth
We can use the STREAM benchmark ( website is currently down, link to alternate source ) to measure peak memory bandwidth usable by the CPU.
We can get about 200GB/s from the entire CPU complex. You can see the jump from single core/thread (about 90GB/s) to multiple threads saturating memory bandwidth from the entire P-CPU clusters, then to 10 threads saturating memory bandwidth from the entire CPU complex (with both the P-clusters and the E-cluster).
The observation here tracks with the memory-bound Pandas benchmark, where 10-thread works best on M1 Max and 2-thread works best on 5600X. In practice, not a lot of CPU tasks use such a high level of memory bandwidth, but when it does, the benefits are huge.
GPU Memory Bandwidth
Again using TensorFlow, we can write a memory intensive benchmark similar to STREAM, and measure what we can achieve. By performing an element-wise multiply-addition operation on a large 8192x8192 matrix, we create an entirely memory-bound task (very low FLOPS), and we can look at the bandwidth counters from the powermetrics tool on macOS. We can observe about 330 GB/s of sustained bandwidth. In practice, training deep learning models seem to use between 200-300GB/s of memory bandwidth on average.
Combined Memory Bandwidth
So we can get about 200GB/s from the CPU, and about 330GB/s from the GPU. When we put them together, we can observe a combined bandwidth of 360GB/s, clearly some competition between the CPU and GPU. Below is the visualisation from asitop also showing the breakdown in bandwidth between the CPU clusters and the GPU, and other SOC components.
y33H@
2021-11-23, 13:17:11
Ich bin auch fertig, schon ein krasses Teil, der M1 Max - aber halt 5 nm EUV ^^
https://www.golem.de/news/apples-m1-max-im-test-schlicht-eine-ganz-irdische-glanzleistung-2111-160512.html
https://scr3.golem.de/screenshots/2111/Apple-M1-Benches-Effizienz/thumb620/2021-11-22_163233.png
Platos
2021-11-23, 13:20:57
Naja, krass ist ja eig. "nur" die Energieeffizienz (5nm und so), also abgesehen vom überkrassen Preis. Weil die Leistung ist an sich nichts besonderes.
Daredevil
2021-11-23, 13:25:06
Danke für deine Mühe! :)
y33H@
2021-11-23, 13:34:17
Naja, krass ist ja eig "nur" die Energieeffizienz (5nm und so), also abgesehen vom überkrassen Preis. Weil die Leistung ist an sich nichts besonderes.Das stimmt und steht auch so im Test - mein "krass!" bezieht sich eher darauf, dass Apple echt ein SoC mit fetten 430 mm² via N5 EUV anbietet, wenngleich die MBPs damit halt 4K kosten.
][immy
2021-11-23, 14:32:54
Ich bin auch fertig, schon ein krasses Teil, der M1 Max - aber halt 5 nm EUV ^^
https://www.golem.de/news/apples-m1-max-im-test-schlicht-eine-ganz-irdische-glanzleistung-2111-160512.html
https://scr3.golem.de/screenshots/2111/Apple-M1-Benches-Effizienz/thumb620/2021-11-22_163233.png
Naja, 7zip ist jetzt nur bedingt aussagekräftig. Da wird schon die enorm hohe Bandbreite für die CPU eine große Rolle spielen.
Nicht ganz verstehen kann ich die Prozessor-Auswahl. Nutze z.B. in meinem Arbeitslaptop einen i7 11850H der kommt schon mit 8 Cores + HT. Sieht fast so aus wie cherry-picking um die Ergebnisse nah beieinander zu halten. Zudem (das hat sich AMD aber mehr selbst zu verantworten) wirkt der Name 5900HX eher wie eine 12-Kern CPU, was es letztlich aber nicht ist. Wie geschrieben liegt dann eher an AMD die "dumme" Bezeichnung, aber es gibt durchaus auch 16-Core CPUs in Laptops. Wenn man schon so eine Workstation-CPU damit vergleicht, sollte man sich diese für den Vergleich auch raus suchen, auch wenn der Verbrauch natürlich auch wieder in ganz andere Regionen vor dringt.
Aber nach wie vor, ist an den Tests verwirrend das hier ein Top-Model gegen ein paar abgespeckte-Modelle antreten.
y33H@
2021-11-23, 14:50:45
Es gibt Desktop Replacements mit 16C, das ist aber eben dann auch eine Desktop CPU und keine Laptop CPU - oberhalb des 5900HX gibt's nur noch den 5980HX, der bis auf 200 MHz mehr Singlecore Boost nix anderes macht.
Und klar hängt 7Zip an der Bandbreite, deswegen ist's ja als einer von vielen Benchmarks mit dabei.
davidzo
2021-11-23, 16:53:23
Vielen Dank für den Test @Marc
So richtig viel verständnis habe ich nicht für die ständigen Relativierungen. Dass es sich ja um den 5nm Fertigungsbonus handelt, bzw. das es halt auch "soviele" Transistoren mehr sind ist doch völlig wumpe. Es Interessiert einen Käufer überhaupt nicht wie die Leistung bzw. Effizienz erreicht wird.
Turing ist ja auch kein schlechte µArch weil sie so eine große DIEsize hat. Man konnte 2018 mit einem leicht angepassten 16nm Node praktisch schon eine ähnlich Effizienz erreichen wie aktuell Ampere auch gerade so schafft. Das ist eine sehr beachtliche Leistung weshalb turingkarten sich aktuell auch noch wie geschnitten brot verkaufen.
Und bei AMD und Intel wird eine N5 CPU im mobile absehbar in den nächsten anderthalb Jahren nicht erhältlich sein. Auch werden sie es sich vorraussichtlich nicht leisten können/wollen so große Chips im Sweetspot zu betreiben.
Wie man in den Benchmarks und Verbrauch sieht wird 40% mehr Effizienz durch N5 eben nicht reichen, das müsste schon über 50% werden um Apple zu schlagen. Die werden in den nächsten Jahren aber auch nicht schlafen, dann steht der M2 schon vor der Tür.
Es ist durchaus eine Architekturentscheidung niedrigere Taktraten und mehr Transistoren zu verwenden, was soll also diese Relativierung? Das soch das nicht so einfach replizieren lässt zeigt nicht nur Samsung die mit ihren fetten ARM Cores krachend gescheiterten sind, sondern auch Intel selbst, die mit Verbreiterungen wie AVX512 erstmal zurückrudern mussten und trotz exponentiellem Transistorzuwachs der big Cores nichtmal lineare verbrauchs-/Fertigungsbereinigte IPC Zuwächse aufweisen können. Es hat ja einen guten Grund dass man seit einem halben jahrzehnt mit Nachfolgern für die Skylake µArch gezögrt hat und die super breiten Royal Core Designs die man angeblich seit Jahren in der Schublade hat nicht verwendet: Die wären zwar bei der ST Leistung sehr gut, sind aber in aktuellen Prozessen von der Effizienz einfach nicht tragbar.
Eine solche Skalierung ist also durchaus eine architektonische Leistung, die es absehbar eine weile weder von intel noch von AMD geben wird.
@][immy: Es gibt keine 16Core CPUs im Mobile, ich glaube du verwechselst da 16Threads mit 16 Kernen. Der 11850H und der 5900HX sind beides 8C/16T CPUs und das ist das größte was man aktuell bekommen kann. Es ist schon sehr wohlwollend dass Marc da eine ADL Desktop CPU mit 14C/20T noch mitgetestet hat, dabei ist die noch lange nicht in Geräten kaufbar.
5900HX und 5980HX geben sich nichts, die Leistung hängt spätestens im MT nur noch von der Implementierung des Partners, TDP Limits bzw. Kühlsystem ab.
Daredevil
2021-11-23, 17:10:01
Den Käufer will ich mal sehen, der sagt "AMD erkauft sich das Leistungsplus nur durch die bessere Fertigung, Intels Technik ist mit 14nm viel fortschrittlicher, deswegen kaufe ich Intel, weil AMD nichts besonderes fertigt". :D
Was Apple jetzt mit AMD und Intel macht, hat AMD die letzten Jahre mit Intel gemacht.
Fortschrittliche Fertigung gepaart mit Innovation ( Chiplets, Mobile APUs ect. ), nur das AMD gleichzeitig den Brot und Butter Markt bedient und Apple einfach nur das "beste" bauen möchte.
Ist für jeden was dabei.
In knapp einem Jahr reden wir vermutlich über einen MacPro, der jedem Konkurrenzen die Hosen auszieht, auch von der Preis/Leistung.
Dann ist es immer noch nichts besonderes, weil Threadripper ja nur in 7nm gefertigt ist, aber es zieht halt Hosen aus. ^^
Könnt ihr euch Apple im Server Markt vorstellen?
Wenn AMD da so stark Fuß gefasst hat und Apple die Möglichkeiten bietet, was spricht dagegen?
Ein Rack MacPro gibts ja schon.
y33H@
2021-11-23, 17:44:32
Sorry, wenn ich das jez etwas kürze ^^
So richtig viel Verständnis habe ich nicht für die ständigen Relativierungen. Dass es sich ja um den 5nm Fertigungsbonus handelt, bzw. das es halt auch "soviele" Transistoren mehr sind ist doch völlig wumpe. Es interessiert einen Käufer überhaupt nicht wie die Leistung bzw. Effizienz erreicht wird. Den Endkunden mag das nicht interessieren, aber in einen Chip-Test muss das rein, um zu erläutern wie Performance und Effizienz zustande kommt.
Es ist durchaus eine Architekturentscheidung niedrigere Taktraten und mehr Transistoren zu verwenden, was soll also diese Relativierung? Das sich das nicht so einfach replizieren lässt zeigt nicht nur Samsung die mit ihren fetten ARM Cores krachend gescheiterten sind, sondern auch Intel selbst, die mit Verbreiterungen wie AVX512 erstmal zurückrudern mussten und trotz exponentiellem Transistorzuwachs der Big Cores nichtmal lineare Verbrauchs-/Fertigungs-bereinigte IPC-Zuwächse aufweisen können.Ich sage mal dreist, das ist vor allem eine Frage des Geschäftsmodells. AMD und Intel und Nvidia verkaufen ihre Chips an Partner - die dann damit Geräte bauen, die relativ betrachtet zu Apples Macs günstig sind. Die bisherige Fertigung von Intel und die von Samsung mit TSMCs N5 EUV zu vergleichen, finde ich auch schwierig ... wenngleich du mit den M-Cores des SARC durchaus einen argumentativen Punkt hast, zumal Samsung nahezu exklusiv nur selbst Geräte mit Exynos anbietet.
Es ist schon sehr wohlwollend, dass Marc da eine ADL Desktop CPU mit 14C/20T noch mitgetestet hat, dabei ist die noch lange nicht in Geräten kaufbar.hihi :ulove:
maximus_hertus
2021-11-23, 18:33:36
In knapp einem Jahr reden wir vermutlich über einen MacPro, der jedem Konkurrenzen die Hosen auszieht, auch von der Preis/Leistung.
Dann ist es immer noch nichts besonderes, weil Threadripper ja nur in 7nm gefertigt ist, aber es zieht halt Hosen aus. ^^
Könnt ihr euch Apple im Server Markt vorstellen?
Wenn AMD da so stark Fuß gefasst hat und Apple die Möglichkeiten bietet, was spricht dagegen?
Ein Rack MacPro gibts ja schon.
Sehe ich alles nicht.
Zen 4 und dann bis zu 128 Cores. Da muss Apple erstmal zeigen, wie sie den m1 max weiter skalieren wollen.
Platos
2021-11-23, 18:37:44
Also im P/L wird Apple niemals die bessere Perfomance bieten. Das kann man gleich vergessen, am Desktop sowieso mit ihren 10K Maschinen.
robbitop
2021-11-23, 19:32:45
@y33h@
Zum Geschäftsmodell. Apple zahlt für ihre eigenen SoCs mit hoher Wahrscheinlichkeit deutlich weniger als das was Intel verlangt. Bedeutet im Umkehrschluss, dass es für den Preis der Intel CPUs kein Hinderungsgrund gibt, kein N5 zu nutzen.
smalM
2021-11-23, 20:17:37
In knapp einem Jahr reden wir vermutlich über einen MacPro, der jedem Konkurrenzen die Hosen auszieht, auch von der Preis/Leistung.
Wenn der mit 32+8 & 128 kommt, wird es eine sehr, sehr leistungfähige Lösung sein und in ihrer Leistungsklasse bestimmt die effektivste. Aber zum einen wird man beim Wettbewerb in derselben Leistungsklasse kaufen können und zum anderen wird sich Apple die Leistung fürstlich entlohnen lassen.
Könnt ihr euch Apple im Server Markt vorstellen?
Ich mir schon, aber Apple sich selbst nicht.
pixelguy
2021-11-23, 20:20:37
Zen 4 und dann bis zu 128 Cores. Da muss Apple erstmal zeigen, wie sie den m1 max weiter skalieren wollen.
Wer sagt, dass für die Pro Desktops nicht eine ganz eigene CPU kommt?
In wie weit wäre das überhaupt denkbar? Ich meine damit nicht einfach einen anderen Namen sondern ggf. wirklich einen eigenen Chip, welcher nicht einfach M1 Max * 4 ist.
y33H@
2021-11-23, 20:34:30
Zum Geschäftsmodell. Apple zahlt für ihre eigenen SoCs mit hoher Wahrscheinlichkeit deutlich weniger als das was Intel verlangt. Bedeutet im Umkehrschluss, dass es für den Preis der Intel CPUs kein Hinderungsgrund gibt, kein N5 zu nutzen.Oha, gibt's dafür Belege? denn bei Intel sind die Rabatte vs Listenpreis extrem ...
Felixxz2
2021-11-23, 21:40:26
Wer sagt, dass für die Pro Desktops nicht eine ganz eigene CPU kommt?
In wie weit wäre das überhaupt denkbar? Ich meine damit nicht einfach einen anderen Namen sondern ggf. wirklich einen eigenen Chip, welcher nicht einfach M1 Max * 4 ist.
Sehr unwahrscheinlich, zu viel Aufwand für kleine Stückzahl und AMD hat ja gezeigt, dass monolithisch im Server nicht mehr zeitgemäß ist. Es könnte allerdings sein, dass der Pro schon mit 4x Max 2 kommt, wer weiß.
Oha, gibt's dafür Belege? denn bei Intel sind die Rabatte vs Listenpreis extrem ...
Das kann man IMO so annehmen, alles andere wäre aus marktwirtschaftlicher Sicht ziemlich absurd. Dass eine Firma wie Intel ihre CPUs unter dem Herstellungspreis von Apple bei TSMC verkauft. Never.
R&D ist ein anderes Thema, das kann Apple aber eben auch schön auf mehrere hundert Millionen Geräte im Jahr umlegen, pro verkauftem Mac dürfte sich das auch in Grenzen halten.
mocad_tom
2021-11-23, 21:48:56
Oha, gibt's dafür Belege? denn bei Intel sind die Rabatte vs Listenpreis extrem ...
und Apple muss sein designteam auch bezahlen. die macs haben nicht wirklich hohe stückzahlen und mit dem preisschild werden es auch nicht die oberverkaufsschlager.
bezüglich "apple wird im nächsten jahr die konkurrenz überrollen":
im m1 pro stecken die Kerne aus dem A14 soc.
im m2 werden die kerne des a15 soc stecken.
a15 hat virtualisierungsfeatures reingeimpft bekommen.
bei sehr viel höherem transistorbudget ist die leistung kaum gestiegen.
nur für das nachliefern der virtualisierung wird im m2 sehr viel transistorbudget reinspendiert werden müssen, ohne dass die leistung zunimmt.
man bencht hier einen m1 pro gegen einen alderlake mit ziemlich schwerem rucksack(die virtualisierung hat der voll ausimplementiert)
y33H@
2021-11-23, 22:37:20
Das kann man IMO so annehmen, alles andere wäre aus marktwirtschaftlicher Sicht ziemlich absurd. Dass eine Firma wie Intel ihre CPUs unter dem Herstellungspreis von Apple bei TSMC verkauft. Never.Ups, ich habe das falsch gelesen - my bad.
smalM
2021-11-23, 23:00:19
a15 hat virtualisierungsfeatures reingeimpft bekommen.
bei sehr viel höherem transistorbudget ist die leistung kaum gestiegen.
nur für das nachliefern der virtualisierung wird im m2 sehr viel transistorbudget reinspendiert werden müssen, ohne dass die leistung zunimmt.
Das zusätzliche Transistorbudget ging vornehmlich für den verdopppelten SLC, den um je 50% vergrößerten L2 und AMX sowie den 5. GPU-Core drauf.
Dagegen blieb Avalanche gegenüber Firestorm ziemlich unverändert und das Aufbohren von Blizzard fällt gegenüber Icestorm nicht ins Gewicht.
Da der M2 ziemlich sicher zu LPDDR5 übergehen wird, wird Apple den SLC im Vergleich zum A15 deutlich kleiner halten, höchst wahrscheinlich wird's ein SLC- und SI-Segment geben (statt deren zwei/vier in M1 Pro/Max), also 12MB & 128b-SI.
davidzo
2021-11-24, 00:24:19
Also im P/L wird Apple niemals die bessere Perfomance bieten. Das kann man gleich vergessen, am Desktop sowieso mit ihren 10K Maschinen.
Ich weiß gar nicht was du meinst. Wenn ich mir die Studio-notebooks mit nvidia A-series und Tigerlake-H so anschaue und da nach halbwegs anständigen 500nit+ Displays und mehreren TB4 Anschlüssen schaue, dann lande ich schnell bei sogar höheren Einstiegspreisen nicht unter 3K.
Ein HP ZBook Fury G8 oder Studio G8 kostet z.B. mindestens 3200€.
Alleine einen Monitor mit 10bit Farbe und über 1000nits kriegt man nicht unter 2200€ in der Windowswelt, Falschdarstellung durch fehlende farbprofilunterstützung inklusive.
Ein zusätzliches externe audiointerface für high impedance mikrofone, sowie eine FPGAkarte für Prores RAW Beschleunigung habe ich da noch gar nicht mitgezählt.
Die neuen M1pro und M1max Geräte sind echt verdammt Preiswert wenn man das Gesamtpaket sieht.
Virtual
2021-11-24, 00:40:56
und Apple muss sein designteam auch bezahlen. die macs haben nicht wirklich hohe stückzahlen und mit dem preisschild werden es auch nicht die oberverkaufsschlager.
...
im m1 pro stecken die Kerne aus dem A14 soc.
...
Hiermit erklärst du doch einfach und verständlich, welches Apple-Produkt das Design-Team bezahlt. Bestenfalls müssen sich die Macs ihre Derivate "verdienen".
Virtual
2021-11-24, 00:49:44
...
im m1 pro stecken die Kerne aus dem A14 soc.
im m2 werden die kerne des a15 soc stecken.
...
Diese Schlussfolgerung ist kurzsichtig.
Es gibt jedes Jahr ein neues iPhone.
Es gibt nicht jedes Jahr einen neuen MacBook Air.
Eher könnte man vermuten, der A16-SOC wird die Grundlage für den M2 werden.
basix
2021-11-24, 08:14:30
Hiermit erklärst du doch einfach und verständlich, welches Apple-Produkt das Design-Team bezahlt. Bestenfalls müssen sich die Macs ihre Derivate "verdienen".
Bei M1 und seinen Geschwistern wird die Entwicklung auch mit reduzierten Herstellungs-Kosten bezahlt. Ob da nun eine Intel CPU + AMD dGPU inkl. deren Marge im Macbook sitzen oder ein einzelner M1x Chip aus "Eigenfertigung" macht schon was aus.
Virtual
2021-11-24, 17:40:21
Bei M1 und seinen Geschwistern wird die Entwicklung auch mit reduzierten Herstellungs-Kosten bezahlt. Ob da nun eine Intel CPU + AMD dGPU inkl. deren Marge im Macbook sitzen oder ein einzelner M1x Chip aus "Eigenfertigung" macht schon was aus.
Das kommt natürlich noch hinzu, um die Macbooks mit einer für ihre Geräteklasse guten und für Apples Ansprüche akzeptablen Marge auszustatten. Apples SOCs wurden bisher konsequent für den mobilen Einsatz entwickelt, die Marge des iPhone mit rund 15 Jahren Erfolgsgeschichte gibt ihnen recht. An dieser Ausrichtung orientieren sich auch die M-SOCs, eine möglichst hohe Effizienz ist entscheidender als maximale Leistung.
Intel und AMD sind bei ihren Designs auch um Effizienz bemüht, letztlich will man auch den mobilen Markt bedienen können. Aber ein Teil ihre Kunden erwartet auch kompromisslos maximale Leistung, was viele mit höchsten Taktfrequenzen gleichsetzen. Das zwingt zu Kompromissen beim Design.
Ich habe keine Glaskugel vor mir, die mir freundlicherweise die Zukunft verät. Dennoch, Pat Gelsingers Losung, in seiner Regentschaft entscheidend bessere CPUs bauen zu wollen, die Apple förmlich zu deren Einsatz in Macbooks zwingen werden ... neeee, das wird eher nicht passieren. Apples M-SOCs werden mehr oder weniger stark aufgebohrte Abkömmlinge der A-SOCs bleiben, nur wird nicht jeder A-SOC ein Vorlage für einen M-SOC sein. Für letztere müssen mehr technologische Fortschritte zusammenkommen, um daraus eine nächste Generation (M2, M3, ...) zu backen. Außerdem ist Apple zumeist um Runderneuerung ihrer Macbooks bemüht, es geht dabei nicht nur um den SOC.
w0mbat
2021-11-24, 17:42:54
Diese Schlussfolgerung ist kurzsichtig.
Es gibt jedes Jahr ein neues iPhone.
Es gibt nicht jedes Jahr einen neuen MacBook Air.
Eher könnte man vermuten, der A16-SOC wird die Grundlage für den M2 werden.
Die Schlussfolgerung ist das Gegenteil von Kurzsichtig.
Wenn ein neues MacBook Air mit "M2" im 1H22 kommt, hat der Chip sein tape-out schon eine Weile hinter sich.
Ein "A16" fürs nächste iPhone aber wohl noch nicht.
basix
2021-11-24, 17:47:44
Apples Trümpfe sind die SW/HW Abstimmung (aus einer Hand) und die Accelerators, siehe ProRes, Hier kann Apple selbst entscheiden, was wie wo reinkommt.
Das sieht man ja nicht nur bei Apple. Siehe Amazon oder Alibaba mit ihren eigenen Server-CPUs. Maximale Effizienz und Performance, da auf die Anwendung zugeschnitten und nicht General Purpose.
AMD und Intel werden nicht darum herumkommen, ebenfalls solche Accelerators einzubauen. Was ihr Problem dabei ist: Die Zielanwendungen sind extrem breit gestreut. Was baue ich nun ein? Medienbearbeitung ist sicher sinnvoll (Encoder, Decoder) aber was sonst? Java Script Accelerators? :D
Virtual
2021-11-24, 18:33:10
Die Schlussfolgerung ist das Gegenteil von Kurzsichtig.
Wenn ein neues MacBook Air mit "M2" im 1H22 kommt, hat der Chip sein tape-out schon eine Weile hinter sich.
Ein "A16" fürs nächste iPhone aber wohl noch nicht.
OK, ich nehme alles zurück, als Apple-Insider kennst du den Vorstellungstermin des Macbook Air sicherlich schon. Wie konnte ich das nur übersehen, das 2. Halbjahr 2022 kommt selbstverständlich nicht in Frage. Außerdem ist es undenkbar, dass M2 und A16 zur gleichen Zeit auf die Zielgerade gehen, das würde Apple völlig überfordern. Und zu guter Letzt benötigt der A16 viel weniger Zeit zur Validierung als ein M2 ... usw. Naja!
Virtual
2021-11-24, 18:41:19
Apples Trümpfe sind die SW/HW Abstimmung (aus einer Hand) und die Accelerators, siehe ProRes, Hier kann Apple selbst entscheiden, was wie wo reinkommt.
Das sieht man ja nicht nur bei Apple. Siehe Amazon oder Alibaba mit ihren eigenen Server-CPUs. Maximale Effizienz und Performance, da auf die Anwendung zugeschnitten und nicht General Purpose.
AMD und Intel werden nicht darum herumkommen, ebenfalls solche Accelerators einzubauen. Was ihr Problem dabei ist: Die Zielanwendungen sind extrem breit gestreut. Was baue ich nun ein? Medienbearbeitung ist sicher sinnvoll (Encoder, Decoder) aber was sonst? Java Script Accelerators? :D
Sehe ich auch so. Apple hat sein Publikum und die Show wird danach ausgerichtet. Maximale Effizienz bei gleichzeitig mehr als konkurrenzfähiger Leistung. Und niemand wird ernsthaft anzweifeln, dass Apple ausgezeichnete SOCs synthetisieren kann, auch nicht die Ingenieure bei Intel oder AMD.
CrazyIvan
2021-11-27, 07:28:07
@Marc
Schöner Artikel. Besonders die Perf-W-Charts haben mich sehr gefreut.
Allerdings hätte ich - wie Du ja weißt - eher die Wattsekunden auf der x-Skala abgetragen. Reine Wattzahlen sind nur bei ISO-Performance vergleichbar. Sobald die jedoch unterschiedlich ausfällt und damit die Laufzeit des Benches, hinkt der Watt-Vergleich in Bezug auf Energieeffizienz. Denn die ist auch per Race-to-idle erreichbar.
Ansonsten gebe ich davidzo in weiten Teilen recht. Apple entscheidet sich bewusst für höhere Produktionskosten, um damit die Qualität des Produktes zu verbessern.
Und für mich ist es absolut nicht unvorstellbar, dass M1 Pro/Max inkl. umgelegter R&D Kosten für Apple pro SKU teurer ist als Intel. Aber das scheint es ihnen wert zu sein. Und das Gesamtprodukt hat verglichen mit hochwertiger Konkurrenz ein vernünftiges P/L Verhältnis.
CrazyIvan
2021-11-27, 08:28:31
@Marc
Nachtrag: Ebenfalls klasse, dass Du ADL-P simuliert hast. Der ist schon fast der heimliche Star im Artikel. Auf jeden Fall hat Intel endlich eine Antwort auf Renoir und Cézanne. Da muss sich AMD langsam Mal strecken. Die Gerüchte über Raphael für den >=45w Mobile Markt kommen sicher nicht von ungefähr.
Daredevil
2021-12-16, 17:50:25
https://asahilinux.org/2021/12/progress-report-oct-nov-2021/
The interrupt controller is now Apple Interrupt Controller 2, breaking with many years of backwards compatibility with iPhone SoCs that used AIC1. AIC1 was a fairly simple controller with support for up to 32 CPU cores (including coprocessors, so in practice fewer “normal” cores), and a legacy IPI feature that was no longer used on the M1. AIC2 got rid of some of this legacy stuff and removed CPU affinity support entirely. Instead, there is now an automagic heuristic that picks which CPU to deliver an interrupt to, which can be influenced by configuration decisions from that CPU itself as well as its state (idle, active, interrupts enabled, etc). This should effectively let AIC2 scale infinitely to as many cores as necessary, as there is no longer any part of the interrupt controller itself that has to select individual CPU cores.
While working on AIC2 we discovered an interesting feature… while macOS only uses one set of IRQ control registers, there was indeed a full second set, unused and apparently unconnected to any hardware. Poking around, we found that it was indeed a fully working second half of the interrupt controller, and that interrupts delivered from it popped up with a magic “1” in a field of the event number, which had always been “0” previously. Yes, this is the much-rumored multi-die support. The M1 Max SoC has, by all appearances, been designed to support products with two of them in a multi-die module. While no such products exist yet, we’re introducing multi-die support to our AIC2 driver ahead of time. If we get lucky and there are no critical bugs, that should mean that Linux just works on those new 2-die machines, once they are released!
The physical address space size of the CPU cores increased from 36 bits (64 GiB) to 42 bits (4 TiB). The RAM region moved from the top 32 GiB of address space to the top 3 TiB. This means that while the old M1 chips were architecturally limited to a maximum of 32 GiB of RAM, the M1 Pro/Max revision can support up to at least 1 TiB or 3 TiB (depending on whether they want to keep it power-of-two aligned or not). Note that this is not how much memory the chips support in actuality, just how high the underlying architecture can scale without incompatible changes.
Supporting this increased physical address space required changes to the IOMMUs in the system, including the DARTs (for most peripherals) and the SART (for the NVMe controller). Amusingly, while implementing support for this in Linux, we ran into a bug in Linux’s ARM SMMU support that had been there ever since 52-bit address support was introduced. This was breaking systems with more than 256 TiB of RAM - I wonder why nobody noticed? Either way, Linux now correctly supports standard ARM systems with up to 4 PiB of RAM ;-).
:)
Ob da wohl bald SoCs zusammen geklebt werden?
Zossel
2021-12-16, 21:34:07
AMD und Intel werden nicht darum herumkommen, ebenfalls solche Accelerators einzubauen. Was ihr Problem dabei ist: Die Zielanwendungen sind extrem breit gestreut. Was baue ich nun ein? Medienbearbeitung ist sicher sinnvoll (Encoder, Decoder) aber was sonst? Java Script Accelerators? :D
Was is eigentlich aus Jazelle geworden?
Gibt es das noch?
Zossel
2021-12-16, 21:40:59
https://asahilinux.org/2021/12/progress-report-oct-nov-2021/
The interrupt controller is now Apple Interrupt Controller 2, breaking with many years of backwards compatibility with iPhone SoCs that used AIC1. AIC1 was a fairly simple controller with support for up to 32 CPU cores (including coprocessors, so in practice fewer “normal” cores), and a legacy IPI feature that was no longer used on the M1. AIC2 got rid of some of this legacy stuff and removed CPU affinity support entirely. Instead, there is now an automagic heuristic that picks which CPU to deliver an interrupt to, which can be influenced by configuration decisions from that CPU itself as well as its state (idle, active, interrupts enabled, etc). This should effectively let AIC2 scale infinitely to as many cores as necessary, as there is no longer any part of the interrupt controller itself that has to select individual CPU cores.
Hmm, eigentlich ist die Optimierung für Multi-Queueing "ähnliche Sachen" auf den selben Core zu bekommen (möglichst bis in den Userspace) um das umladen von Caches auf andere Cores zu vermeiden bzw. möglichst billig zu halten. So geht jedenfalls der Linuxkernel vor.
Zossel
2021-12-17, 20:50:49
Nix
smalM
2022-01-18, 11:46:17
Taiwan Commercial Times (https://ctee.com.tw/news/tech/582306.html):
According to supply chain industry sources, the new generation of A16 application processors developed by Apple has completed the design and finalization, and will be produced using TSMC's 4nm N4P process. Apple's A16 application processor will be installed in the new generation of iPhone 14 and iPad products. Due to the shortage of foundry capacity, Apple has accepted price increases to ensure production capacity, and has contracted TSMC's 120,000 to 150,000 4nm production capacity.
Das scheint die Grundlage der gerade umlaufenden Meldungen zu Apples A16 und die Nutzung von N4 zu sein.
Zwei Anmerkungen:
N4P ist meines Wissens nach der Nachfolgeprozeß von N4, angekündigt für 2023.
120.000-150.000 Wafer ist deutlich zu wenig, auch wenn ausschließlich der Zeitraum bis Ende 2022 gemeint sein sollte.
Wer weiß, vielleicht ist die Meldung auch korrekt und Apple hat sich 120.000-150.000 Wafer N4P für 2023 gesichert – und mehr brauchen sie nicht, weil sie dann N3 zur Verfügung haben. ;)
robbitop
2022-01-18, 12:04:40
Ich finde diese News lesen sich immer etwas weltfremd/naiv. Im Sinne von: "TSMC + Apple merken: huch kein Fertigungsprozess X verfügbar weil etwas schlechter läuft als gedacht -> dann muss eben auf Fertigungsprozess Y umgesattelt werden. Und zwar nur wenige Monate bevor Serienproduktion gestartet wird (was für A16 definitiv (von heute aus gesehen meine ich) der Fall ist - da müsste es im Frühling aller spätestens losgehen mit Serienfertigung der SoCs)".
Das muss Jahre vorher klar sein. Mal eben umsatteln ist nicht. Diese Entscheidung wurde wahrscheinlich schon Anfang 2020 getroffen. Bedeutet, dass es damals entweder schon Indikatoren gegeben hat, die darauf schließen ließen, dass N3 im gewünschten Zeitrahmen nicht verfügbar ist.
smalM
2022-01-18, 13:24:12
Ja, ca. 2 Jahre vor Tape-out wird das Feature-Set eines Designs festgezurrt und ziemlich sicher auch der zu verwendende Node, insbesondere, wenn ein Wechsel der Node-Familie ansteht, wie bei N5 nach N3.
Es würde mich aber auch nicht wundern, wenn Apple parallel eine A16-Variante für N4 und eine für N3 entwickelt hätte. Teile der N3-Design-Variante würden dann ja sowieso im A17 weiterverwendet werden. N4 wurde ja erst vergleichsweise spät von TSMC in die Roadmap aufgenommen.
Ailuros
2022-01-21, 07:50:43
Ja, ca. 2 Jahre vor Tape-out wird das Feature-Set eines Designs festgezurrt und ziemlich sicher auch der zu verwendende Node, insbesondere, wenn ein Wechsel der Node-Familie ansteht, wie bei N5 nach N3.
Es würde mich aber auch nicht wundern, wenn Apple parallel eine A16-Variante für N4 und eine für N3 entwickelt hätte. Teile der N3-Design-Variante würden dann ja sowieso im A17 weiterverwendet werden. N4 wurde ja erst vergleichsweise spät von TSMC in die Roadmap aufgenommen.
Es wuerde mich sehr ueberraschen wenn sie nicht gleich 3 Generationen parallel entwickeln, denn sobald man einen Schritt nach dem chalkboard-design macht, ist man schon beim entwickeln.
smalM
2022-01-21, 21:28:11
Eine Generation in der Findungsphase, zwei in der Realisierungsphase, das dürfte der normale Ablauf in der Entwicklungspipeline sein, jedenfalls beim A-SoC mit dem jährlichen Output. Die zwei Jahre Realisierungsphase stammt von Phil Schiller, ich glaube das war eine Aussage so von 2017 zum A11.
Andere Chips haben offensichtlich andere Entwicklungs-Pipelines. Schauen wir mal, ob Apple beim S-SoC eine zwei-Jahres-Kadenz einhält (mit dem S8 müßte dieses Jahr der Wechsel auf den Blizzard-Core erfolgen) und wie das bei den M-SoCs weiter geht.
robbitop
2022-01-22, 09:02:34
Damit es dann jedes Jahr einen Chip gibt, bräuchte man bei in Summe 3 Jahren pro Chip dann wenigstens 3 Teams.
smalM
2022-01-23, 13:13:40
Es gibt ziemlich sicher einen ganzen Haufen Teams, die sich um einzelne Komponenten kümmern, wie bspw. P-Cores, E-Cores, GPU, NPU, Fabric, SI, Tunderbolt usw.
Keine Ahnung, wie Apple die Generallinie aufgestellt hat, ob da tatsächlich ein Team für den SoC als Ganzes der einen Generation zuständig ist und ein anderes für die nächste etc. Vielleicht läuft das auch phasenweise durch?
Bei Arm gab es auch nicht zu häufig einen Wechsel bei der Zuständigkeit ihrer Teams. A57 und A72 kamen aus Austin, A73 und A75 aus Sofia/Antipolis, A76 bis A710 wieder aus Austin, der "A720" soll dann wiederum aus Sofia/Antipolis kommen.
robbitop
2022-01-23, 15:09:47
Ja denke es gibt Teams für die jeweiligen IP Blöcke und dann sicherlich separate Implemzierubgsteams die aus den IP Blöcken SoCs bauen.
smalM
2022-01-27, 22:39:33
Apples Q4:
123,95 Mrd.$ Umsatz, 34,63 Mrd.$ Gewinn.
71,63 Mrd.$ iPhone
10,85 Mrd.$ Mac
7,25 Mrd.$ iPad
19,52 Mrd.$ Services
14,70 Mrd.$ Sonstiges
Ein Proformaabschluß des Kalenderjahres:
378,3 Mrd.$ Umsatz und 100,5 Mrd.$ Gewinn.
Meine Vermutung:
28 Mio. Macs, 245 Mio. iPhones und 58 Mio. iPads.
Dazu ein paar Milliönchen iPods und ATVs, macht irgend was über 350 Mio. A- und M-SoCs und wer weiß wieviele S-SoCs und der ganze andere Krempelskram.
Wie groß wäre wohl Apple Silicon, wenn es so wie Samsung S.LSI separat ausgewiesen würde?
Sunrise
2022-01-28, 00:14:42
Unglaublich diese Zahlen…da fallen einem die Augen raus.
Kein Wunder warum auch Buffett vor Jahren schon voll investiert war. Das Ding ist jetzt ein Selbstläufer.
Schade, dass sie irgendwie nichts spannend Neues bringen, auch wenn die SoCs natürlich immer schon beeindruckend waren, schaue ich kaum noch deren Präsentationen am Stück an. Das war definitiv mal anders.
Zossel
2022-01-28, 06:07:21
Apples Q4:
123,95 Mrd.$ Umsatz, 34,63 Mrd.$ Gewinn.
71,63 Mrd.$ iPhone
10,85 Mrd.$ Mac
7,25 Mrd.$ iPad
19,52 Mrd.$ Services
14,70 Mrd.$ Sonstiges
Hinter welchem Posten verbergen sich die Zwangsabgaben des App-Stores?
MSABK
2022-01-28, 07:57:37
Apple wächste so schnell wie ein Startup Unternehmen. Echt der Wahnsinn.
Ailuros
2022-01-28, 07:59:36
Apple wächste so schnell wie ein Startup Unternehmen. Echt der Wahnsinn.
Ich bin mir nicht sicher ob es zum insgesamten Vorteil sein wird, aber Apple wird wohl in Zukunft in generellem Einfluss wachsen.
Tobalt
2022-01-28, 08:08:42
@Marc
Schöner Artikel. Besonders die Perf-W-Charts haben mich sehr gefreut.
Allerdings hätte ich - wie Du ja weißt - eher die Wattsekunden auf der x-Skala abgetragen. Reine Wattzahlen sind nur bei ISO-Performance vergleichbar. Sobald die jedoch unterschiedlich ausfällt und damit die Laufzeit des Benches, hinkt der Watt-Vergleich in Bezug auf Energieeffizienz. Denn die ist auch per Race-to-idle erreichbar.
Das sollten sich die Bencher nochmals gut zu Herzen nehmen. Taskzeit über Watt auftragen ist völlig irrelevant!
In der englischsprachigen Presse gibt es doch auch schon seit bestimmt 10 Jahren dafür die Task Energy Benches, die eben wie von CrazyIvan beschrieben, die Joules pro Task vergleichen.
Tarkin
2022-01-28, 08:45:05
Apple wächste so schnell wie ein Startup Unternehmen. Echt der Wahnsinn.
LOL... wegen 11% YoY???
sorry, aber da lachen ja die Hühner. :rolleyes:
MSABK
2022-01-28, 08:46:49
LOL... wegen 11% YoY???
sorry, aber da lachen ja die Hühner. :rolleyes:
In Anbetracht der schieren Größe des Unternehmens ist das schon beeindruckend. Die schneinen so agil wie ein Startup zu sein. Darauf wollte ich hinaus.
Tarkin
2022-01-28, 09:02:00
In Anbetracht der schieren Größe des Unternehmens ist das schon beeindruckend. Die schneinen so agil wie ein Startup zu sein. Darauf wollte ich hinaus.
Finde nicht, dass das besonders beeindruckend ist.
Sie melken halt die customers wos nur geht mit höheren Preisen. Und in Anbetracht der hohen Inflation (7%) sind 11% Wachstum noch weniger beeindruckend.
Tobalt
2022-01-28, 09:13:12
Also vorweg, ich finde schon dass Apples Hardware gut Entwicklungen sind. Aber bei den Geschäftszahlen von IT Hardware Unternehmen der letzten 2 Jahre muss man halt bedenken: Die, die Knappheit und hohe Kaufbereitschaft am schamlosesten durch angezogenen Preise ausnutzen, werden auch kurzfristig das größte "Wachstum (TM)!!1" erzielen.
Was der Kunde wirklich davon erhält, erfahren wir in den Jahren nach der Chipkrise.
Felixxz2
2022-02-13, 08:01:02
<iframe width="560" height="315" src="https://www.youtube.com/embed/RclliIOAz9k" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
Wenn man sich das so ansieht, bin ich sehr gespannt, wie die Gaming Zukunft sich entwickeln wird aufm Mac.
Die Hardwarebasis ist da, die Leistung ist da. Ich denke wir werden auf jeden Fall ein paar große F2P Titel sehen oder vielleicht auch 1-2 große Studios die sich an nativen Ports versuchen für künftige Games. Das Geld wird denke ich niemand lange liegen lassen.
smalM
2022-03-08, 20:25:55
M1 Ultra:
"UltraFusion" mit "Interposer".
Hmm, wirklich CoWoS oder doch eher InFO-LSI?
Übrigens, der iMac 27" ist Geschichte...
y33H@
2022-03-08, 20:47:17
Der 12900K glüht schon ...
pixelguy
2022-03-08, 22:04:22
Die Leistungsdaten sind schon beeindruckend. Aber die Preise werden auch immer krasser.
Damit sage ich nicht, das Leistung pro € nicht gerechtfertigt sind. Außerdem sind Chips knapp.
Aber die Marge beim Mac Studio dürften schon happig sein.
y33H@
2022-03-08, 22:05:54
Der M1 Max weist somit btw ~475 mm² statt ~430 mm² auf, da Apple bisher den Die-to-Die-Interconnect abgeschnitten hatte.
davidzo
2022-03-08, 22:22:51
Also vorweg, ich finde schon dass Apples Hardware gut Entwicklungen sind. Aber bei den Geschäftszahlen von IT Hardware Unternehmen der letzten 2 Jahre muss man halt bedenken: Die, die Knappheit und hohe Kaufbereitschaft am schamlosesten durch angezogenen Preise ausnutzen, werden auch kurzfristig das größte "Wachstum (TM)!!1" erzielen.
Was der Kunde wirklich davon erhält, erfahren wir in den Jahren nach der Chipkrise.
Nicht zu vergessen haben wir gerade eine Teuerungsrate von 7% year on year.
Das heißt Inflationsbereinigt bleibt von den 11% Wachstum nicht mehr viel übrig. Das ist doch in Dollar berechnet das Wachstum, oder?
Der M1 Max weist somit btw ~475 mm² statt ~430 mm² auf, da Apple bisher den Die-to-Die-Interconnect abgeschnitten hatte.
Glaube ich nicht. Abgeschnitten wurde nur die Grafik aus der Präsentationsfolie. Im Silicon ist er immer vorhanden gewesen. Es war ja schon einigen aufgefallen dass die offiziellen Dieshots von Apple verzerrt waren bzw. nicht zu den Seitenverhältnissen des DIEs passen. Es gibt ja originale Dieshots vom chip auf twitter - und siehe da - ein Interconnect. Das war alles schon bekannt: https://twitter.com/VadimYuryev/status/1466526403331952644/photo/1
bloodflash
2022-03-08, 22:23:52
Außerdem sind Chips knapp.
Nicht für Apple! Die schaffen es sogar einen A13 (7nm) völlig nutzlos im Display zu verramschen.
Das ist ja uch der Grund warum Apple vorn liegt. Die können sich einfach den besten und neuesten Fertigungsprozess exklusiv leisten und auch mit schlechten Yields umgehen, denn der Kunde bezahlt es.
Im Prinzip könnten Dell, HP oder Lenovo sich einen SoC bei AMD bestellen, der 8 bis 16 ZEN3-Cores beinhaltet, 16-32 RDNA2-CUs und 256bit Speicheranbindung bietet ggbfls. auch mit HBM2. Die ganzen Techniken hat AMD auch im Programm und alleine einer der 3 Hersteller könnte davon Mengen ordern, die in der Grössenordnung von Apple liegen. Selbst bei NVMe bietet Apple nicht mehr als PCIe4x4
Bisher war das sehr risikobehaftet, aber das könnte sich auch ändern. Das in Windows oder Linux einpflegen dürfte auch ken Problem sein (Unified-Memory). Aber das wären ja schon 3-4 Unternehmen und dazu die Zulieferer für Mainboards usw.
Troyan
2022-03-08, 22:30:31
Performance was measured using select industry‑standard benchmarks
Bestimmt irgendwas, wo 5% die GPU ausmacht.
Apple kommt mir echt vor, dass die nicht wissen, wohin mit dem Geld.
y33H@
2022-03-08, 22:31:01
Glaube ich nicht. Abgeschnitten wurde nur die Grafik aus der Präsentationsfolie. Im Silicon ist er immer vorhanden gewesen. Es war ja schon einigen aufgefallen dass die offiziellen Dieshots von Apple verzerrt waren bzw. nicht zu den Seitenverhältnissen des DIEs passen. Afaik hatte fritzchens fritz oder wer anders das dann sogar getestet mit einem abgeschliffenen DIE und siehe da - ein Interconnect. Das war alles schon bekannt.Genau, auf den alten Slides fehlte der Interconnect und die bisherigen Berechnungen des M1 Max basierten ja darauf - sofern die neuen Bilder von heute korrekt sind, kommt der Max nun auf ~475 mm².
EDIT
https://twitter.com/Frederic_Orange/status/1477914380197154816/photo/1
davidzo
2022-03-08, 22:46:58
Genau, auf den alten Slides fehlte der Interconnect und die bisherigen Berechnungen des M1 Max basierten ja darauf - sofern die neuen Bilder von heute korrekt sind, kommt der Max nun auf ~475 mm².
EDIT
https://twitter.com/Frederic_Orange/status/1477914380197154816/photo/1
Die angeblichen "Berechnungen" anhand von geshoppten Präsentationsfolien sind sowieso Bogus.
Sowohl M1pro als auch Max wurden nicht maßstäblich dargestellt im Vergleich zu M1, wovon Andrei aber ausgegangen ist bei seiner Schätzung. Wieso auch immer sind identische Logikabschnitte im Vergleich zum M1 plötzlich durchgehend größer. Möglicherweise war das die künstlerische Freiheit des Grafikers der die Bilder so besser anordnen konnte oder eine bewusste Marketingentscheidung um den Abstand zum normalen M1 größer wirken zu lassen.
Die realen Diesizes könnten auch 240mm2 und 380-400mm2 sein: https://twitter.com/dylan522p/status/1450286632729518089
Das einzige was bisher einigermaßen bestätigt ist dass der M1 wohl 120mm2 hat.
Wir werden es nicht herausfinden bevor jemand seinen M1max delidded.
y33H@
2022-03-08, 23:05:23
Klar, wenn die Fake sind, dann ist's eh Unfug :ulol: muss morgen mal Pixel skalieren und erneut zählen ...
EDIT
Soooo krass verzerrt erscheinen mir die gar nicht, zumal MTr/mm² ziemlich ähnlich ist.
davidzo
2022-03-09, 00:19:27
Die Längen sind auch sehr ähnlich, es sind halt nur ein paar Prozente. Im quadrat /in der Fläche macht das dann aber doch wieder viel aus.
but it should be
M1 Pro 241.7mm^2
M1 Max 383.5mm^2
The Firestorm CPU core, GPU cores, and 11 TOPs NPU are all scaled larger.
If they were scaled the same as real die shots of M1, then those would be the die sizes.
Es scheint alles ein bisschen in die Breite gezogen zu sein beim M1pro vs M1 Dieshot. Der M1max ist zusätzlich in der Höhe etwas größer, wenn man sich etwa die CPUkerne oder die GPUkerne anguckt.
M1 Ultra:
"UltraFusion" mit "Interposer".
Hmm, wirklich CoWoS oder doch eher InFO-LSI?
Übrigens, der iMac 27" ist Geschichte...
Das wird ziemlich sicher CoWos-L mit LSI sein, Ein einfaches MCM erreicht wohl kaum die 2,5Tbit/s und dem winzigen Flächenbedarf auf dem DIE für den Interconnect.
Das ist eine extra silicon bridge unter den beiden DIEs, analog zu Intels EMIB und AMDs EFB, allerdings wohl mit deutlich höherer Density als beide.
Felixxz2
2022-03-09, 04:56:29
Jetzt ist nur noch die Frage wie dann die 4x M1 Max für den Mac Pro connected werden. Oder neuer Chip.
basix
2022-03-09, 07:22:27
Gab ne User Zeichnung mit einem Bridge / IO Die in der Mitte. Je zwei M1 Max liegen dann nebeneinander. Ist dann aber die Frage, wo man den LPDDR5 hinplatziert.
Was ich am M1 Ultra eigentlich am spannendsten finde: Dual-Die mit "Single-GPU". Da hat man beim Release einer solchen GPU alle anderen überholt. AMD N31/32 würde ich mir von der Verbindung her genauso vorstellen. Einfach zusätzlich mit Cache in den EFBs.
mboeller
2022-03-09, 07:36:21
Was ich am M1 Ultra eigentlich am spannendsten finde: Dual-Die mit "Single-GPU".
Nur für Profi-Anwendungen, oder auch für Spiele?
Loeschzwerg
2022-03-09, 07:58:43
Edit: Wenn sich das Konstrukt als eine GPU meldet (so wie ich es verstanden habe), dann natürlich auch für Spiele, sofern Apple da in Software nicht doch eine Unterscheidung macht.
Was ich am M1 Ultra eigentlich am spannendsten finde: Dual-Die mit "Single-GPU"
Allerdings. Da bin ich gespannt wie gut das skaliert und ob Apple die Leistung auch wirklich auf die Straße bekommt.
BlacKi
2022-03-09, 09:37:02
m1 max hat ja schon einen 512bit speichercontroller, dann hat der ultra 1024bit? breiter als das universum, und trotzdem sparsam. wtf.
smalM
2022-03-09, 10:35:24
Das wird ziemlich sicher CoWos-L mit LSI sein, Ein einfaches MCM erreicht wohl kaum die 2,5Tbit/s und dem winzigen Flächenbedarf auf dem DIE für den Interconnect.
Ich schrieb InFO-LSI
InFO-L/LSI for Ultra-high Bandwidth Chiplet Integration
Integrating SoC chips with high-density Local Si Interconnect (LSI) and InFO technology
Nur für Profi-Anwendungen, oder auch für Spiele?
Die Anwendung ist egal, Metal sieht selbst auf unterster Ebene (MTLDevice) nur eine GPU.
Das ist auch eigentlich nicht neu, die M1 Max GPU besteht ja aus 2 gekoppelten M1 Pro GPUs.
Beim M1 Ultra wird "nur" zusätzlich eine Kopplung über den Die-zu-Die-Interconnect gemacht.
Als Schuß ins Blaue: Apple koppelt separat sowohl die GPUs als auch den internen Bus.
dildo4u
2022-03-09, 14:20:17
Geekbench Leak M1 Ultra.
https://www.tomshardware.com/news/apple-m1-ultra-nearly-matches-amd-threadripper-3990x
Daredevil
2022-03-09, 14:25:43
Und wenn man sich dann mal den Preis eines Threadrippers anschaut, ist das doch ganz günstig auf einmal. ^^
Bin auf weitere Benchmarks und Real World Tests gespannt!
ChaosTM
2022-03-09, 14:36:02
Ned schlecht.. wow
Die Windows 11 Preview für ARM ist eh schon sehr weit Fortgeschritten.
Ich will so was bald für den PC:
https://www.microsoft.com/en-us/software-download/windowsinsiderpreviewARM64
Lauft auch schon auf Telefonen.:
3MzMiiu3sYM
Daredevil
2022-03-09, 14:39:26
Völlig absurd bei der Effizienz, große und Lautstärke, die so ein Studio haben soll.
Es klingt am Ende alles wieder sehr teuer, aber der Vergleich zu gleich schneller Hardware ( sofern überhaupt existent ) zeigt am Ende dann doch ein anderes Bild.
Ein Threadripper kostet weit über 4000€ alleine... da ist nicht mal eine GPU mit 64/128GB VRAM ( !!! ) dabei. :c
https://abload.de/img/bildschirmfoto2022-034hkme.png
fondness
2022-03-09, 15:05:18
Ein 4000 EUR Threadripper hat 64C/128T und ist meilenweit vor dem Dualen 8 Core (plus jeweils 2 E-Cores) von Apple.
y33H@
2022-03-09, 15:06:41
Zumindest im Geekbench (jaja) ist der M1 Ultra ~ 3990X
Daredevil
2022-03-09, 15:17:58
Ich würde tatsächlich sogar sagen, dass der MC Score ( Geekbench! ) beim M1 Ultra noch zu niedrig ist. Apple Prozessoren drosseln in der Regel nicht stärker als z.B. der Threadripper. Oder es liegt halt daran, dass die Prozessoren zusammen geklebt wurden.
Oder halt, das Geekbench nicht ordentlich skaliert und deswegen der TR limitiert. Letzteres ist wohl am wahrscheinlichsten. :D
Voodoo6000
2022-03-09, 15:17:58
Also ein Threadripper kann schon deutlich schneller sein. Die Energieeffizienz ist aber beeindruckend.
Cinebench r23
3990x 74000 Punkte
M1 Max 12300 Punkte
M1 Ultra 24600 Punkte?
smalM
2022-03-09, 17:26:57
Oder halt, das Geekbench nicht ordentlich skaliert und deswegen der TR limitiert. Letzteres ist wohl am wahrscheinlichsten.
Die Anzahl paralleler Threads ist begrenzt, wenn ich mich recht entsinne.
Epyc 7763 (64C/128T) SpecInt2017 = 275
Epyc 7443 (24C/48T) =147
M1 Ultra kann man mit 95~100 annehmen
Ailuros
2022-03-10, 08:26:33
Apple kommt mir echt vor, dass die nicht wissen, wohin mit dem Geld.
Wenn dem so waere, haetten sie sich nie mit ihren eigenen SoCs ueberhalb dem mobilen ULP SoC Markt gewagt.
Ich hab zwar persoenlich kein Interesse bzw. Gebrauch fuer ein =/>$4k Geraet, aber auf rein technologischer Entwicklungs-Interesse ist der M1 Ultra SoC schon ein imposantes Teil und liegt jeglichem Konkurrenten um Lichtjahre voraus. Es dauert noch ein Jahr bis QCOM etwas fuer den low end laptop Markt in der Form eines SoCs praesentiert und weiss der Geier wo Apple's grosse SoC Leistung bis dahin liegen wird.
In Echtzeit kreischte vor einiger Jahren so mancher dass Apple nie die Leistung von Intel/AMD und co. erreichen wird. Das einzige dass momentan gegen Apple spricht fuer diese Produkte sind sw relative Kompatibilitaetsprobleme. Skaliert weiterhin die hw Leistung bei Apple SoCs so wie man erwarten wuerde und je mehr Kompatibilitaetsprobleme entbehrt werden in der Zukunft, desto breiter Apple's indirekte Konkurrenz und auch ihr Einfluss auf den Markt.
Ist zwar OT, aber ich bin auch der Meinung dass sie sich eher auf Vulkan konzentrieren sollten, anstatt auf Metal zu bestehen. Die Chancen dass ein Studio exclusiv einen AAA Titel fuer Metal entwickelt sind gering, ausser Apple schmeisst tatsaechlich sinnlos Milliarden zum Fenster raus und finanziert solche Entwicklungen.
dildo4u
2022-03-10, 08:28:56
Blender kann jetzt zumindest Metal und damit die dicke GPU nutzen bin auf Benches gespannt.
https://www.blender.org/download/releases/3-1/
Ailuros
2022-03-10, 08:41:00
Blender kann jetzt zumindest Metal und damit die dicke GPU nutzen bin auf Benches gespannt.
https://www.blender.org/download/releases/3-1/
https://gfxbench.com/result.jsp?benchmark=gfx50&test=757&order=median&base=device
Etwas ueber einer 3080 laptop GPU und unter einer 3700/desktop GPU. Natuerlich bearbeitet das Ding alles onscreen bei stabilen 120 fps, aber die angegebene Marketing-Leistung erreichen sie wohl nur auf Papier.
An Bandbreite verhungert das Tier mit den 800GB/s sicher nicht, ausser man quaelt es mit extrem hohen Geometrie-Raten.
dildo4u
2022-03-10, 08:47:11
Meinst du MAX?Ich sehe dort keine Ultra Werte.
Dampf
2022-03-10, 09:18:46
Blender kann jetzt zumindest Metal und damit die dicke GPU nutzen bin auf Benches gespannt.
https://www.blender.org/download/releases/3-1/
Ohne HW-Beschleunigung für Raytracing wird der Mac in Blender von jeder popeligen RTX GPU geschlagen.
Keine Ahnung was man sich dabei gedacht hat, den Chip ohne RT auszustatten.
Ailuros
2022-03-10, 09:29:17
Meinst du MAX?Ich sehe dort keine Ultra Werte.
Ja Du hast recht ich hab mich verzettelt. OT aber Kishonti sollte ihre benchmark-Suite aufs Laufende bringen. Fuer desktops und co. sind etliche hundert wenn nicht tausend fps total nutzlos in offscreen tests.
Ohne HW-Beschleunigung für Raytracing wird der Mac in Blender von jeder popeligen RTX GPU geschlagen.
Keine Ahnung was man sich dabei gedacht hat, den Chip ohne RT auszustatten.
Ich will ernsthaft bezweifeln dass Apple nicht weiterhin Architekturen von IMG lizenzieren wird. Demzufolge war es technisch sowieso nicht schon moeglich RT in hw zu haben da IMG ihre Photon Architektur mit hw RT erst vor kurzem angekuendigt hat.
robbitop
2022-03-10, 10:01:56
Man muss bedenken, dass Apples Geräte keine Orientierung in den Gaming Markt haben. Deren PCs sind eher Creator/Productivity Geräte.
Eine gaming orientierte HW Architektur hätte wenig Sinn, da es auf den Macs kein DirectX und kein Windows (außerhalb von VMs und Emulation) gibt und das auch ein Nischenbereich der Kunden von Apple ist. Augenscheinlich investiert man die Transistoren in die Workloads die von ihren Zielkunden gefordert sind.
@Ailuros
Bist du sicher, dass sie noch sehr abhängig von IMG sind? Mein Eindruck ist, dass sie schon eine ganze Weile selbst für ihre GPUs zuständig sind. Das begann vor ein paar Jahren in der Änderung bestehender IMG Architekturen. Die ISA haben sie wohl eine Weile nicht angetastet. Aber ISA =! Implementierung der uArch. Bist du sicher, dass sie nicht inzwischen schon komplett eigene uArchs entwickeln? In Anbretracht dessen, was sie seit Jahren in der SoC Sparte geleistet wird, würde es mich wundern, wenn sie kein kompetentes, leistungsstarkes GPU Team haben, was nicht im Stande ist das selbst zu machen.
Nach meinem Verständnis nutzen sie Mechanismen, die von IMG patentiert sind (eine ganze Menge um den TBDR herum) und entsprechend fließen dort Gelder, damit IMG das akzeptiert.
Aber bitte korrigiere mich, wenn das falsch sein sollte - ich würde in dem Falle gern verstehen warum es anders sein sollte. Auf welcher Basis.
Troyan
2022-03-10, 10:08:50
Wer benötigt denn soviel Pixel-Leistung bei MacOS? 21 TFLOPs ohne TensorCores für DL und RT-Beschleunigung für Effekte und Rendering sind in einer Welt mit Ampere ziemlich wenig für 110 Milliarden Transistoren. Sieht für mich aus, wie ein komplett an dem Kundenbedürfnissen vorbeientwickeltes Produkt.
y33H@
2022-03-10, 10:08:51
Ohne HW-Beschleunigung für Raytracing wird der Mac in Blender von jeder popeligen RTX GPU geschlagen. Keine Ahnung was man sich dabei gedacht hat, den Chip ohne RT auszustatten.Für Mac-Systeme ist Metal statt CPU dennoch ein immenser Pluspunkt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.