Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple
Argo Zero
2020-12-26, 16:06:42
Wird es einen A15 geben, oder setzt aplle bei den tablets auch auf einen M1?
Meine Glaskugel sagt: iPad Pro vllt mit M1. Die normalen iPads A15.
smalM
2020-12-27, 15:00:47
Wird es einen A15 geben, oder setzt aplle bei den tablets auch auf einen M1?
Die A15-Generation wird es erst ab Herbst geben und höchst wahrscheinlich gibt es dann auch ein neues iPad Air damit.
Deutlich vorher wird aber im 1. Hj. die neue Generation iPad Pro kommen und ich tippe auf einen 'A14X'. Das ist dann ein etwas kastrierter M1 mit abgeschaltetem Thunderbolt, mit der CPU auf demselben Takt wie der A14 - also 2,99/1,82 GHz, und einer 7-Core-GPU, die eventuell wieder mit 2:1 bei FP16/FP32 kommt.
Ich kann mir vorstellen, daß wir so ein M#/A#X-Pärchen nun wieder jedes Jahr sehen werden, der größeren Verbreitung im iPad Pro & Einsteiger-Mac wegen.
dildo4u
2020-12-30, 09:58:08
Vergleiche gegen Tiger Lake,Ryzen 4500U, 4800H etc.
Selbst ohne Hardware Encoder ist das einfach Absurd Handbrake in Software ist dichter am 4800H als 4500U.
KE-hrWTgDjk
ChaosTM
2020-12-30, 11:08:09
Kurze Zusammenfassung wär cool. TIA
urpils
2020-12-30, 13:10:51
typisch Linus.. vor ein paar Wochen noch hergezogen „appel scheiße… kann alles gar nicht stimmen was die behaupten.. ist alles lächerlich… apple lügner…“ und jetzt ganz plötzlich und selbstverständnlich: „apple super schnell, extrem kühl“ aber um bloß Clickbait zu haben überschrieben mit „apple made a BIG mistake“. → und zwar der Fehler ist „es wird schwer das noch zu toppen für Apple“ oO
der typ ist einfach lächerlich. aber sonst würde man ihn wohl auch nicht klicken, wenn er nicht solche völlig reißerischen Teile fahren würde…
edit: achso.. Zitate z.B. "das MacBook Pro ist ein Gamechanger" "der Core i7 kann in keiner weise mit dem M1 konkurrieren", "es ist ist schwer weder das MacBook Air noch das MacBook Pro zu empfehlen. sie sind wirklich SO gut"
und bezüglich Benchmarks: der M1 macht einfach alles weg was vergleichbar ist - und selbst den dicken fetten Gaming-Laptop nimmt er bei fast allem was sie getestet haben mit... + massiv längere Akkulaufzeit.
smalM
2020-12-30, 14:31:40
typisch Linus...
Hätte gereicht :biggrin:
deLuxX`
2020-12-30, 18:03:34
und bezüglich Benchmarks: der M1 macht einfach alles weg was vergleichbar ist - und selbst den dicken fetten Gaming-Laptop nimmt er bei fast allem was sie getestet haben mit... + massiv längere Akkulaufzeit.
Und trotzdem gab/gibt es noch diejenigen die das alles relativieren wollen ala „Nicht vergleichbare Fertigungstechnologie“, „Unfair da Apple viel besser OS auf Hardware abstimmen kann“ oder auch „Wartet mal bis Cezanne in 4 - 6 Monaten mit kaufbaren Laptops kommt“. In welcher Realität leben diese Menschen?:freak:
edit: Thema "schwer zu toppen": Wer erwartet, dass es nächstes Jahr im gleichen Package den gleichen Zuwachs geben wird? Ich hoffe keiner.
Das es in anderen Formfaktoren sehr wohl deutliche Sprünge auch zum M1 geben wird, ist jedoch absehbar.
smalM
2020-12-30, 18:58:01
edit: Thema "schwer zu toppen": Wer erwartet, dass es nächstes Jahr im gleichen Package den gleichen Zuwachs geben wird? Ich hoffe keiner.
Ääähhm, ich?
Ich erwarte, daß Apple die noch vorhandenen x86-Modelle von MacBook Pro 13 und Mac mini mit 6+4(+12)-Versionen des 'M1X' ersetzt; eventuell mag es sogar eine 8+4(+16)-Version im Mac mini geben.
Ersetzen würde das zum einen einen i7-1068NG7, zum anderen einen i7-8700B (mit UHD 630).
Die Transition des MacBook Air hingegen halte ich für bereits abgeschlossen.
Ein Mac mini 8+4+16 würde meinen Mac Pro so alt aussehen lassen – wie er tatsächlich ist – da mag der Wusch der Vater des Gedankens sein... :biggrin:
deLuxX`
2020-12-30, 19:30:08
Ääähhm, ich?
Ich erwarte, daß Apple die noch vorhandenen x86-Modelle von MacBook Pro 13 und Mac mini mit 6+4(+12)-Versionen des 'M1X' ersetzt; eventuell mag es sogar eine 8+4(+16)-Version im Mac mini geben.
Ersetzen würde das zum einen einen i7-1068NG7, zum anderen einen i7-8700B (mit UHD 630).
Die Transition des MacBook Air hingegen halte ich für bereits abgeschlossen.
Ein Mac mini 8+4+16 würde meinen Mac Pro so alt aussehen lassen – wie er tatsächlich ist – da mag der Wusch der Vater des Gedankens sein... :biggrin:
Ein M1X wird eben nicht den gleichen Zuwachs (Intel -> Apple M1) zeigen. Die Akkulaufzeit wird voraussichtlich sogar sinken. Außer Apple kommt plötzlich mit 3 Nm um die Ecke, was ich stark bezweifle.
Wie geschrieben „gleiches“ Package. Das ein M1X in einem iMac oder Mac Pro andere Dimensionen aufstößt mag sicherlich hinkommen.
Badesalz
2020-12-30, 20:02:30
Ich sehe den unterschied im willen und im budget. Bei intel darf alles nichts kosten und das hemmt die ganze firma. Es kann mir auch keiner erzählen, dass man so viele externe leute zukaufen müsste und im eigenen haus keiner sitzt.
Intel schafft nichtmal die zeitnahe integration von pcie 4.0. Die reihe an fails am/im design bleibt lange und wird nicht kürzer. Die jährliche produkterneuerung ist mittlerweile auch überholt und kostet sicherlich nur noch geld.Wann sind dir die Augen so aufgegangen? Jetzt erst?
Ich hab jetzt bis auf die Graka und die 970 die Kiste aus der Sig quasi geschenkt bekommen. Und hab mich dann auch erstmal so richtig dafür interessiert was sich da nach Sandy alles so bei Intel und x86 getan hat (um jenen Xeon einzuschätzen).
Bis AMD sich erstmal ganz aufgerichtet hat, also Zen2, war das einfach erbärmlich. Und ist es eigentlich weiterhin, da 2020 nun auch zu Ende ist.
M1 macht wohl beim single Geekbench5 17xx. Einfach mal so.
@smalM
Ich erwarte nichts, außer daß Apple feststellt, daß es außer beim MacPro und dem dicksten iMac, mehr als 8 dicke Threads nicht geben muss ;)
Heimatsuchender
2020-12-30, 23:55:45
Die Lieferzeiten sind meh. Ende November das kleinste MBA für einen guten Preis bei einem Premium Reseller bestellt. Der Liefertermin ist nach wie vor unklar. Selbst bei Apple sind es ~4 Wochen.
Benutzername
2020-12-31, 01:23:36
Die Lieferzeiten sind meh. Ende November das kleinste MBA für einen guten Preis bei einem Premium Reseller bestellt. Der Liefertermin ist nach wie vor unklar. Selbst bei Apple sind es ~4 Wochen.
Auch Apple unterliegt denselben Problemen wie alle anderen Hersteller im Moment.
Ailuros
2020-12-31, 06:37:01
Ein M1X wird eben nicht den gleichen Zuwachs (Intel -> Apple M1) zeigen. Die Akkulaufzeit wird voraussichtlich sogar sinken. Außer Apple kommt plötzlich mit 3 Nm um die Ecke, was ich stark bezweifle.
Wie geschrieben „gleiches“ Package. Das ein M1X in einem iMac oder Mac Pro andere Dimensionen aufstößt mag sicherlich hinkommen.
Obwohl "gleiches" package durchaus moeglich ist, steht nirgends dass Apple sich aus irgend einem Grund auf bestimmte Flaechengrenzen begrenzen wird. Wie gross ist M1, ~ 120mm2 (16 Mrd. Transistoren)? Fuer einen laptop SoC sind die Werte verdammt gering denn die Macs sind nicht billig und 5nm wird zu dem Zeitpunkt auch um ein gutes Prozentual billiger sein in der Herstellung im Vergleich zu M1.
***edit:
A14 = 88mm2, 11.8 Mrd
M1 = 119mm2, 16.0 Mrd
Ich bin jetzt zu faul es aufzusuchen aber Apple war in der Vergangenheit stets um einiges grosszuegiger in die area als jeglicher SoC der Konkurrenz. Gibt es jetzt noch Luftraum fuer hoehere Transistoredichten bzw. und/oder hoehere Frequenzen, desto besser.
robbitop
2020-12-31, 12:17:48
typisch Linus.. vor ein paar Wochen noch hergezogen „appel scheiße… kann alles gar nicht stimmen was die behaupten.. ist alles lächerlich… apple lügner…“.
Entweder hast du die WAN show nicht gesehen oder nicht differenziert zugehört. Er hat die Vorstellung von M1 kritisiert und zwar aus sehr spezifischen Gründen (umnummerierte Graphen, zu unspezifische Angaben etc). Entsprechend implizierte das Zweifel an der Performance. Und differenziert gesehen hatte er mit der Kritik Recht. Diese unkonkrete Vorstellung war unnötig wenn man Vertrauen in sein Produkt hat. Denn M1 ist extremst überzeugend. Das hat Apple offenbar auch so gesehen, denn innerhalb kürzester Zeot hat man auf der Webseite viel mehr Details nachgeliefert. Er hat IMO etwas überzogen. Aber er hat nie was von „Scheiße“ und „Lügen“ erzählt oder gesagt, dass die Produkte schlecht sind.
Die Kritik der Vorstellung war inhaltlich nicht falsch.
Ich finde, man muss schon differenzieren und nicht generalisieren. Ansonsten verbreitet man schnell auch Dinge, die nicht 100% korrekt sind.
urpils
2020-12-31, 12:48:22
Entweder hast du die WAN show nicht gesehen oder nicht differenziert zugehört. Er hat die Vorstellung von M1 kritisiert und zwar aus sehr spezifischen Gründen (umnummerierte Graphen, zu unspezifische Angaben etc). Entsprechend implizierte das Zweifel an der Performance. Und differenziert gesehen hatte er mit der Kritik Recht. Diese unkonkrete Vorstellung war unnötig wenn man Vertrauen in sein Produkt hat. Denn M1 ist extremst überzeugend. Das hat Apple offenbar auch so gesehen, denn innerhalb kürzester Zeot hat man auf der Webseite viel mehr Details nachgeliefert. Er hat IMO etwas überzogen. Aber er hat nie was von „Scheiße“ und „Lügen“ erzählt oder gesagt, dass die Produkte schlecht sind.
Die Kritik der Vorstellung war inhaltlich nicht falsch.
Ich finde, man muss schon differenzieren und nicht generalisieren. Ansonsten verbreitet man schnell auch Dinge, die nicht 100% korrekt sind.
damit gebe ich dir grundsätzlich erst einmal Recht. und ich finde es auch gut, dass du das ansprichst. Ich rudere ein Stückchen zurück möchte dennoch bei meiner grundlegenden These bleiben und etwas differenzierter erklären:
Ich halte Linus einfach für unerträglich in seiner Art. Der ist unglaublich überheblich und berichtet mit einer extrem herablassenden Art über Techthemen und richtet sich an nur mäßig informierte Zuschauer (sonst würde er nicht absolut grundlegende Basics und Selbstverständlichkeiten ausschweifend erklären).
Das führt dazu, dass ihm offenbar recht viele glauben/vertrauen weil es wirkt, als ob er "Ahnung" hätte (was er im Großen und Ganzen ja auch irgendwie hat). Allerdings hat er sich schon oft verrannt, Quatsch behauptet oder musste zurückrudern.
Ich gebe dir recht - er hat nicht explizit und wörtlich behauptet, dass Apple lügt - allerdings vermittelt er ganz eindeutig den Eindruck und tut alles, dass es so wahrgenommen wird - insbesondere wenn der Kontext nicht klar ist.
Wenn man Behauptungen belächelt und sie mit ironischen Vergleichen lächerlich macht, dann ist egal ob theoretisch im Wortlaut etwas gesagt oder nicht gesagt wurde - es zählt letztlich das, was beim durchschnittlich (un)informierten Zuschauer ankommt... und wenn ich mir da dieses Video ansehe und mit der herablassenden Art diese Zitate ansehe:
„Apple stellt sich hin und sagt „ihr könnt jetzt 1300$ für ein Gerät ausgeben, das im Prinzip die gleiche Technik („guts“) wie das iPad hat" oder danach sagt er, dass der Kunde nun die Wahl hat aus „iPad ohne Touchscreen (Macbook Air) oder iPad ohne Bildschirm (MacMini)“
oder als es darum geht, ob Apple den M1 gegen eine schnelle CPU vergleicht „I kinda doubt it“
oder: „Honestly. I think this could be the end of the macbook pro as we know it“. Dann „der mac mini ist im prinzip der gleiche Computer wie das Apple Developer Transition Kit“.
dann sind diese Aussagen je nachdem wie man sie interpretieren möchte nicht völlig falsch - allerdings mit seiner Präsentation und seinen Vergleichen kommt beim Zuschauer an "das ist alles Quatsch".
vielleicht bin ich da auch überempfindlich, weil ich diese Schrei-YouTuber nicht mag und eine ruhige und differenzierte Diskussion bevorzuge - aber ich bleibe dabei: wenn man davon ausgeht nicht wirklich tief im Thema zu sein und man sieht so ein Video von ihm - dann bleibt hängen "Apple behauptet Quatsch... die wollen euch ein Gerät wie ein iPad (impliziert → langsam für einen Computer) für teures Geld andrehen"
edit: ich meinte dieses Video: https://youtu.be/ljApzn9YWmk
deLuxX`
2020-12-31, 13:18:44
damit gebe ich dir grundsätzlich erst einmal Recht. und ich finde es auch gut, dass du das ansprichst. Ich rudere ein Stückchen zurück möchte dennoch bei meiner grundlegenden These bleiben und etwas differenzierter erklären:
Ich halte Linus einfach für unerträglich in seiner Art. Der ist unglaublich überheblich und berichtet mit einer extrem herablassenden Art über Techthemen und richtet sich an nur mäßig informierte Zuschauer (sonst würde er nicht absolut grundlegende Basics und Selbstverständlichkeiten ausschweifend erklären).
Das führt dazu, dass ihm offenbar recht viele glauben/vertrauen weil es wirkt, als ob er "Ahnung" hätte (was er im Großen und Ganzen ja auch irgendwie hat). Allerdings hat er sich schon oft verrannt, Quatsch behauptet oder musste zurückrudern.
Ich gebe dir recht - er hat nicht explizit und wörtlich behauptet, dass Apple lügt - allerdings vermittelt er ganz eindeutig den Eindruck und tut alles, dass es so wahrgenommen wird - insbesondere wenn der Kontext nicht klar ist.
Wenn man Behauptungen belächelt und sie mit ironischen Vergleichen lächerlich macht, dann ist egal ob theoretisch im Wortlaut etwas gesagt oder nicht gesagt wurde - es zählt letztlich das, was beim durchschnittlich (un)informierten Zuschauer ankommt... und wenn ich mir da dieses Video ansehe und mit der herablassenden Art diese Zitate ansehe:
„Apple stellt sich hin und sagt „ihr könnt jetzt 1300$ für ein Gerät ausgeben, das im Prinzip die gleiche Technik („guts“) wie das iPad hat" oder danach sagt er, dass der Kunde nun die Wahl hat aus „iPad ohne Touchscreen (Macbook Air) oder iPad ohne Bildschirm (MacMini)“
oder als es darum geht, ob Apple den M1 gegen eine schnelle CPU vergleicht „I kinda doubt it“
oder: „Honestly. I think this could be the end of the macbook pro as we know it“. Dann „der mac mini ist im prinzip der gleiche Computer wie das Apple Developer Transition Kit“.
dann sind diese Aussagen je nachdem wie man sie interpretieren möchte nicht völlig falsch - allerdings mit seiner Präsentation und seinen Vergleichen kommt beim Zuschauer an "das ist alles Quatsch".
vielleicht bin ich da auch überempfindlich, weil ich diese Schrei-YouTuber nicht mag und eine ruhige und differenzierte Diskussion bevorzuge - aber ich bleibe dabei: wenn man davon ausgeht nicht wirklich tief im Thema zu sein und man sieht so ein Video von ihm - dann bleibt hängen "Apple behauptet Quatsch... die wollen euch ein Gerät wie ein iPad (impliziert → langsam für einen Computer) für teures Geld andrehen"
edit: ich meinte dieses Video: https://youtu.be/ljApzn9YWmk
Darf ich?
Ihm geht es nicht darum möglichst alles korrekt zu erklären und ganz tief in irgendwelche Dinge einzusteigen. Vielmehr geht es ihm darum, mit seinem Online Business (denn nichts anderes ist YT) möglichst viel Geld zu verdienen. Wer könnte es ihm auch verübeln?
Und wenn ich mir seine Abo Zahlen anschaue, scheint das auch ziemlich gut zu funktionieren wie er das macht.
Badesalz
2020-12-31, 13:22:40
Ich halte Linus einfach für unerträglich in seiner Art. Der ist unglaublich überheblich und berichtet mit einer extrem herablassenden Art über Techthemen und richtet sich an nur mäßig informierte Zuschauer Warum muss man sich damit als Erklärbär dermassen auseinandersetzen? Linus ist für die Themen die er abhandelt das was amerikansiche Fernsehprädiger für den Christentum sind. Es ist eine Technikshow in der die Inhalte der Show untergeordnet sind.
Reine Vorstellungen der Technik wie damals des eigenen Threadreappers oder deren Dateiserver, oder der neuen "DSL"-Leitung :freak: sind rein der Technik wegen halbwegs interessant.
So wirklich genau zuhören sollte man da aber imho nicht. Insofern braucht man sich auch nicht dermassen mit dieser YT-Show auseinandersetzen.
Das ist am Ziel der Show vorbei sie so eingehend zu beurteilen :wink:
Daredevil
2020-12-31, 19:02:45
"Apple behauptet Quatsch... die wollen euch ein Gerät wie ein iPad (impliziert → langsam für einen Computer) für teures Geld andrehen"
Was ist daran falsch?
Also gut, du implizierst, dass iPad = langsam ist, das ist dein Problem.
Ich impliziere iPad = Schnell und deswegen habe ich nen M1 im MacBook.
Aber letzten Endes ist der M1 halt ein "kleiner günstiger" SoC, der kleinste in der Familie der MaC Socs. Der kleinste Apple SoC ist aber nun mal schneller als der größte Intel SoC, der noch vor nem halben Jahr im Mac hing, selbst im Air.
Mag auch ne Standpunkt Sache sein, ich empfinde "iPad Hardware" mit MacOS als Kompliment, weil auf nem iPad alles flutscht und auf nem MacBook nun jetzt halt auch.
smalM
2021-01-02, 15:23:13
Also gut, du implizierst, dass iPad = langsam ist, das ist dein Problem.
Ich impliziere iPad = Schnell und deswegen habe ich nen M1 im MacBook.
@urpils muß das gar nicht persönlich so sehen, es ist schlicht die allgemeine Wahrnehmung, die halt von der Deinen sehr verschieden ist.
Deswegen sind ja auch so viele Leute von der Leistungsfähigkeit des M1 so überrascht, während andere krampfhaft Gründe suchen, wieso ihr eigenes Vorurteil doch richtig ist und Apple irgendwie "betrügt"... :freak:
Daredevil
2021-01-02, 15:34:10
Apple sagt halt schon seit vielen iPad Generationen, dass diese Geräte schneller als "98%" der Notebooks ( glaube die Zahl war richtig ) und ja, ich habe das auch immer nur als blabla gesehen.
Seit dem ich aber nen iPad Pro habe weiß ich, was es bedeutet, nen Apple Chip in der Kiste zu haben. Mal vom theoretischen Speed abgesehen ( Die Single Core Leistung des iPad Pro ist im Vergleich zum A14/M1 arschlahm ) ist der gefühlte einfach enorm.
Alles öffnet sich, nichts hakt, alles ist Butterweich in 120hz, Akkuleistung den ganzen Tag.
Genau das gleiche macht nun auch das M1 Air, was ich hier stehen habe. ( Und Sidecar hindert mich aktuell daran, mich vom Ipad zu trennen, das war eigentlich der Plan -_- )
I know, es klingt immer nach blabla, auf dem PC öffnet sich ja auch alles instant, aber ne Lüfterlose Kiste in der Hand zu halten und das ganze dort auch zu haben ist halt eine andere Zukunft. ^^
Heimatsuchender
2021-01-02, 18:08:51
Auch Apple unterliegt denselben Problemen wie alle anderen Hersteller im Moment.
Das bin ich bereit zu akzeptieren, aber:
Der Premium-Reseller, bei dem ich bestellt habe, hat noch keine Geräte von Ende November ausgeliefert. Man hat dafür im Gegenzug vor Weihnachten zwei weitere Rabatt-Aktionen gestartet. Mittlerweile steht das MBA mit M1 gar nicht mehr im Produktkatalog.
Wenn ich die Versandkosten von 13 Euro (ist schon ziemlich hoch) berücksichtige, beträgt der Rabatt 137 Euro. Das ist schon nett. Trotzdem überlege ich, zu stornieren und direkt bei Apple zu bestellen.
=Floi=
2021-01-02, 18:16:18
( Die Single Core Leistung des iPad Pro ist im Vergleich zum A14/M1 arschlahm ) ist der gefühlte einfach enorm.
Alles öffnet sich, nichts hakt, alles ist Butterweich in 120hz, Akkuleistung den ganzen Tag.
Das gleiche gilt auch bei den handys. Ich denke es liegt auch sehr viel an der anbindung des speichers. Da schlafen andere komplett.
Es wurde so oft zu wenig power verbaut und das eigene OS erledigt den rest.
Bei den laptops gab es bei den brot und butter modellen auch oft nur ~3,5ghz single core boost. Geringe ram takte und teilweise nur singlechannel anbindung. Da braucht sich keiner wundern.
Windows hat dann noch 1000 dienste im hintergrund und das trug den rest des lahmen systems bei.
Ailuros
2021-01-05, 22:21:03
Komisch dass es noch keiner gesehen hat:
https://semiaccurate.com/2020/12/07/apple-gets-creative-with-their-upcoming-cpus/
....
All of this is pretty well known, some blindingly obvious, some only rumored, but all of it confirmed by our sources. Where things get interesting is how Apple is using these technologies to step out of the proverbial box and do something SemiAccurate didn’t expect to see for another few years.
:devil:
davidzo
2021-01-06, 00:08:30
Dass Apple Kunde für TSMCs InfoLSI ist doch nichts neues oder?
Sonst sehe ich nichts in Charlies Artikel was über die bekannten Spekulationen hinaus geht.
DrumDub
2021-01-06, 16:41:22
Dass Apple Kunde für TSMCs InfoLSI ist doch nichts neues oder?
Sonst sehe ich nichts in Charlies Artikel was über die bekannten Spekulationen hinaus geht. dito.
smalM
2021-01-06, 21:57:01
Dass Apple Kunde für TSMCs InfoLSI ist doch nichts neues oder?
InFO wurde mit dem A10 eingeführt.
Irgendwo gab es einmal einen Artikel, in dem beschrieben wurde, wie TSMC Apple CoWoS vorgestellt hatte und Jobs ihnen einen Preis pro SoC nannte, den Apple bereit wäre zu zahlen. Daraufhin wurde von TSMC aus CoWoS InFO als maßgeschneiderte Lösung für SoCs entwickelt.
robbitop
2021-01-07, 14:05:58
InFO wurde mit dem A10 eingeführt.
Irgendwo gab es einmal einen Artikel, in dem beschrieben wurde, wie TSMC Apple CoWoS vorgestellt hatte und Jobs ihnen einen Preis pro SoC nannte, den Apple bereit wäre zu zahlen. Daraufhin wurde von TSMC aus CoWoS InFO als maßgeschneiderte Lösung für SoCs entwickelt.
Jobs ist seit 10 Jahren tot. Krass, dass er noch Preise für SoCs nennen kann. :D
Gemeint ist sicher Tim Cook?
Zossel
2021-01-07, 19:50:44
GPU Reverse Engineering: https://rosenzweig.io/blog/asahi-gpu-part-1.html
smalM
2021-01-07, 20:12:54
@robbitop
Die Erinnerung mag mich trügen, aber ich meine, es war tatsächlich noch Jobs.
CoWoS wurde offiziell 2012 eingeführt.
smalM
2021-01-07, 20:16:47
@Monderator
Post kann weg, danke!
Platos
2021-01-07, 21:01:34
Es soll ja dieses Jahr ein "M2" kommen mit vielen Kernen.
Denkt ihr, diess Jahr gibt es überhaupt noch ein neues Macbook Pro mit einem M1-Nachfolger ? Denn der M2 hört sich für mich mehr nach einer "High-Core" Version für eben andere Produkte wie iMacs an und nicht nach einem Nachfolger.
Am wahrscheinlichsten scheint es mir, dass die 16" Version des Macbook Pro den M2 erhält und vlt. kleinere iMacs.
Aber kann man noch mit einem M1 Nachfolger für 2021 rechnen? Rein von der Fertigung sollte das ja kein Problem sein (also TSMC). Denn auf 3nm wird sowieso nicht dieses Jahr umgestiegen.
Edit: https://www.macwelt.de/produkte/Mac-Trends-2021-Die-Super-Macs-kommen-10943431.html
Was haltet ihr von dieser "Glaskugelprognose" ^^ ? Bin grad nicht auf dem neuesten Gerüchtestand. Ist für Anfangs 2021 ein neues Macbook Pro 14" geplant?
Es soll ja dieses Jahr ein "M2" kommen mit vielen Kernen.
Denkt ihr, diess Jahr gibt es überhaupt noch ein neues Macbook Pro mit einem M1-Nachfolger ? Denn der M2 hört sich für mich mehr nach einer "High-Core" Version für eben andere Produkte wie iMacs an und nicht nach einem Nachfolger.
Am wahrscheinlichsten scheint es mir, dass die 16" Version des Macbook Pro den M2 erhält und vlt. kleinere iMacs.
Aber kann man noch mit einem M1 Nachfolger für 2021 rechnen? Rein von der Fertigung sollte das ja kein Problem sein (also TSMC). Denn auf 3nm wird sowieso nicht dieses Jahr umgestiegen.
Edit: https://www.macwelt.de/produkte/Mac-Trends-2021-Die-Super-Macs-kommen-10943431.html
Was haltet ihr von dieser "Glaskugelprognose" ^^ ? Bin grad nicht auf dem neuesten Gerüchtestand. Ist für Anfangs 2021 ein neues Macbook Pro 14" geplant?
Was geplant ist weiß nur Apple selbst ;). Spekuliert wird über ein 14" MBP schon eine Weile, ich könnte mir vorstellen, dass es das 13er ersetzt und deswegen eher in der zweiten Jahreshälfte kommt, zusammen mit einem Gehäuse-Refresh (smaller Bezels, neue Webcam, etc.). Aktuell sehen die Kisten ja noch genauso aus wie die von Intel, aber ich nehme an das wird sich ändern.
Obs dann M1 mit mehr Kernen und/oder höherer Taktung (M1X?) wird oder gleich M2... man wird sehen, welchen Namen Apple dem Kind gibt.
Spannender finde ich fast, wie es bei der GPU weitergeht. Bleiben sie bei den größeren Maschinen bei ihrem Design oder bleibt AMD Zulieferer?
Platos
2021-01-07, 21:58:08
Naja, ich meinte primär mit der Frage, ob es noch in dieser "Serie" ein weiteres ("kleines") Notebook (mit besserem Chip) geben wird, oder ob man da ein Jahr (bis Ende 2021) warten muss. Und ich meinte natürlich den aktuellen Gerüchtestand.
Von einem 14" habe ich auch letztes Jahr mal irgendwann gelesen, aber ich wusste nicht, dass darin evtl. ein anderer Chip zum Einsatz kommt. Ich dachte, dass sei auch mit dem M1.
Ob Das Ding nun M1X oder M2 heisst, ist mir ja wurscht. Ein M1X deutet aber eher auf höhere Taktraten hin, während dem ein M2 eher nach was grösserem (mehr Cores) aussieht bzw. sich eher nach einem Nachfolger anhört (also Ende 2021)
Mhh ja, ich frage mich auch, wie das mit den GPUs gehen soll. Also eig. nicht nur das. Der Mac Pro (nicht iMac Pro) hat in der höchsten Ausbaustufe 28 Xeon Kerne, 768GB RAM! und zwei Vega II Duo
Wie wird sowas also aussehen? Der M1 ist ein SoC. Also alles in einem. Ich kann mir kaum vorstellen, dass Apple bis Ende 2022 768GB RAM in einen SoC quetscht und eine Leistung von zwei Vega II Duo erreicht. Die 28 Xeon Kerne sind jetzt nicht so das Problem. Aber die zwei anderen Dinge schon.
Aber Apple hat ja behauptet, bis 2022 alles umzustellen auf Apple.
maddawn
2021-01-08, 07:40:31
Ich kann mir gut vorstellen das Apple bei den großen Macs verschiedene SoC Konfigurationen anbietet. Die im Laufe der Zeit immer vielfältiger werden.
Dieses "System on a Chip" austauschbar macht und auf einen Sockel plaziert.
Es wird dann im Falle eines gewünschten Upgrade einfach alles: CPU, GPU und RAM mit einem Mal austauscht.
Den alten SoC könnte man per Trade In sogar wiederverwenden wenn andere Kunden diesen SoC möchten oder Apple kann diese "alten" SoC" wieder in neue Rechner stecken.
So bräuchte man auch nicht auf eine externe Grafik oder Speicher ausweichen und behält die Vorteile des integrierten Designs.
Julius
2021-01-08, 07:43:41
Apple macht alles aber sicher das nicht. Die sagen Umweltschutz ist wichtig aber bauen nur Geräte die schlecht Reparierbar sind. Daher wird das mit dem Sockel nicht werden.
bluey
2021-01-08, 10:35:00
Umweltschutz bedeutet, dass du es bei denen Recyceln lassen kannst.
Zossel
2021-01-08, 12:41:14
Umweltschutz bedeutet, dass du es bei denen Recyceln lassen kannst.
Ersetze "Recyceln" durch "Downcyclen".
smalM
2021-01-08, 13:52:19
Wenn man Apples bisherigem Namensschema folgt, wird der M2 der direkte Nachfolger des M1.
Ein M1 mit mehr CPU- und GPU-Cores könnte 'M1X' heißen.
Aber Apple macht keinen Namensunterschied beim M1 mit 7 oder 8 aktiven GPU-Cores, sodaß sie auch einen mit 8+4 CPU- und 16 GPU-Cores aufgebohrten M1 ebenfalls 'M1' nennen könnten, unabhängig davon, wieviele der jeweiligen Cores aktiv sind. 'M1' wäre dann einfach nur ein Synonym für die SoC-Generation.
So oder so, dieses Jahr dürften die Baureihen Mac mini, MacBook Pro 13 und iMac 21.5 vollständig auf ARM umgestellt werden. Dazu werden wir ARM-Modelle von MacBook Pro 16 und iMac 27 sehen, hier aber parallel zu x86-Modellen (eventuell nur noch i9-CPUs).
Ich tippe auf mehrere virtuelle Veranstaltungen noch im ersten Hj. 2021.
Platos
2021-01-08, 14:53:53
Apple macht alles aber sicher das nicht. Die sagen Umweltschutz ist wichtig aber bauen nur Geräte die schlecht Reparierbar sind. Daher wird das mit dem Sockel nicht werden.
Du meinst, sie machen das nicht, so wie bei ihren iPhones und iPads :D ?
Umweltschutz bedeutet, dass du es bei denen Recyceln lassen kannst.
Aber nur bei denen ;) Ersatzteile kriegst du nicht als Drittreperaturstelle, sonst könnte es doch noch bezahlbar und nicht zu Wucherpreisen reparierbar sein :freak:
Ich kann mir gut vorstellen das Apple bei den großen Macs verschiedene SoC Konfigurationen anbietet. Die im Laufe der Zeit immer vielfältiger werden.
Dieses "System on a Chip" austauschbar macht und auf einen Sockel plaziert.
Es wird dann im Falle eines gewünschten Upgrade einfach alles: CPU, GPU und RAM mit einem Mal austauscht.
Den alten SoC könnte man per Trade In sogar wiederverwenden wenn andere Kunden diesen SoC möchten oder Apple kann diese "alten" SoC" wieder in neue Rechner stecken.
So bräuchte man auch nicht auf eine externe Grafik oder Speicher ausweichen und behält die Vorteile des integrierten Designs.
Apple hat ja gesagt, dass sie bis (Ende) 2022 komplett auf eigene Hardware umrüsten wollen. Vlt. gilt das dann auch nicht so ganz, ganz komplett. Also quasi die Basicausführung des Mac Pro kommt noch mit SoC und die anderen dann vlt. erst später.
Aber das grösste Problem ist doch, dass solche PCs heute Upgradebar sind (Laptops sind es doch schon lange nicht mehr bei ihnen). Mit einem SoC würden sie das Feature beenden und ich denke, das wird einigen nicht schmecken. Also kann ich mir auch vorstellen, dass das irgendwie anders gelöst wird. Aber so wie ich Apple kenne, reiben sie sich schon die Hände, dass man ALLES (Also auch Speicher) nur noch bei ihnen bekommt und nicht mehr upgraden kann. Ist der Speicher nach 5 Jahren doch zu wenig? Kauf eine neue, überteuerte Maschine für 10k bei Apple :freak:
Matrix316
2021-01-08, 14:55:55
Apple macht alles aber sicher das nicht. Die sagen Umweltschutz ist wichtig aber bauen nur Geräte die schlecht Reparierbar sind. Daher wird das mit dem Sockel nicht werden.
Ja das sind schon Schweinepriester! :mad:
... wir lassen das Netzteil aus Umweltschutzgründen weg...
... dafür integrieren wir im Mac Mini auch den RAM ...
Super.
Aber was ich mir vorstellen könnte, dass der neue Mac Pro oder iMac einen speziellen Steckplatz bekommt so dass man den SoC Teil einfach auswechseln könnte.
Wobei ich mir auch nicht vorstellen kann, dass die Apple Silicon irgendwie ohne Gehäuse anbieten. Die neuen iMacs werden wahrscheinlich genauso alles in einem sein wie der Mac Mini. Bei den Pro Modellen können sie es eigentlich nicht genauso machen. Die können einfach nicht von einem Mülleimer (den man sogar aufrüsten konnte) auf ein großes PC Tower Gehäuse gehen, nur um dann auf unaufrüstbar zu gehen. Echte Pros brauchen ja auch viele Schnittstellen. Und die wollen bestimmt auch den RAM aufrüsten oder auch die CPU und die GPU. Ob da ein SoC so richtig ist?
Pro und Apple Silicon widerspricht sich irgendwie komplett.
Ailuros
2021-01-12, 05:35:26
Dass Apple Kunde für TSMCs InfoLSI ist doch nichts neues oder?
Sonst sehe ich nichts in Charlies Artikel was über die bekannten Spekulationen hinaus geht.
Der gesamte Artikel ist nur fuer subscribers.
smalM
2021-01-20, 21:49:55
via Mynard Handley
Memory system having combined high density, low bandwidth and low density, high bandwidth memories (https://patents.google.com/patent/US10573368B2/)
Heimatsuchender
2021-01-21, 23:48:08
Das MBA kam heute an. Knapp 7 Wochen gewartet. Ist aber OK. Incl. Versand und Rabatt habe ich 963,xx Euro bezahlt.
Das MBA ist ja doch ziemlich flott unterwegs. Gefällt mir.
Daredevil
2021-01-22, 00:45:54
Jow, das von meiner Mitbewohnerin kam auch heute an. :)
Ich glaube meins hat ne Macke, aber gerade kein Bock das zu lösen.
OS Updates ( Also das erste ) sind bei mir generell nicht möglich, nach Neustart flackert der Bildschirm Lila, es startet neu und dann geht der Spaß wieder von vorne los.
Entweder muss ich mal MacOS neu aufsetzen oder laut Interwebs ist irgendwas am Security Chip defekt, ist mir aber gerade Rille, weil alles läuft.
Mal schauen, ob das zweite Update funktioniert, bin immer noch super zufrieden mit den MacBook und nutze in der Tat kaum noch mein iPad, mein Plan könnte also funktionieren.
Ab und an lass ich auch den Windows Rechner aus und nutze das MBA am OLED in WQHD@120hz oder halt 4K@60hz, ist echt brauchbar. HDMI 2.1 hätte ich gerne, eigentlich sollte sowas doch mit TB4 gehen, oder?
Die neuen Desktop Macs werden alles wegfegen, das ist Wahnsinn. :)
Wenn die GPUs alle nicht so lahm wären, könnte Windows echt mal weichen... ( mind. 3090 oder 6900xt.. )
Monsta
2021-01-22, 14:10:12
Ich habe das MBP M1 512 SSD und 16Gb Ram seit Anfang Dezember.
Ich bin mit dem Gerät sehr zufrieden.
Die OS Performance ist gigantisch, alles startet schneller als auf meinem 5820K@4.5GHZ mit Nvme SSD und 32Gb Ram/8700K ebenfalls Nvme und 32GB Ram.
Alles fühlt sich schneller an, zb. Webbrowsing Scrolling. Ich nutze den Pc nur noch zum Spielen. Was mich ärgert das man nur einen externen Monitor anschließen kann. Da werde ich mir wohl einen 5k Widescreen kaufen.
Kleine Compilierprojekte gehen trotz Rosetta relativ schnell. Mein 5820K braucht 38sec, mein Stock 8700K 41sec und das Macbook 48sec.
Alles unter OSX gebencht. Wenn der Compiler mal nativ vorhanden ist, könnte das auf dem Macbook schneller sein.
Sogar EvE Online mit Crossover läuft relativ gut. Da war ich echt überrascht.
Das Gerät hat ja kein Magsafe, ist aber nicht so schlimm. Da es in meinem Fall eh reicht wenn ich nachts auflade.
deLuxX`
2021-01-22, 14:19:09
alles startet schneller als auf meinem 5820K@4.5GHZ mit Nvme SSD und 32Gb Ram/8700K ebenfalls Nvme und 32GB Ram.
Lt. Leuten im Computerbase Forum (und ich glaube auch hier) darfst du den Vergleich eigentlich nicht bringen, da ARM und X86 generell nicht vergleichbar sind und sich ein Vergleich so von vorneherein verbietet. Und halt, ist ja unfair weil ja schon als einziger in 5 Nm gefertigt. Und erst MT, HT....🤣
Nein, im Ernst, die Berichte hier machen echt Lust mir so ein Teil zu kaufen. Ob man Apple mag oder nicht, das Ding rockt wohl in mehrerlei Hinsicht.
deLuxX`
2021-01-22, 17:28:09
https://www.bloomberg.com/news/articles/2021-01-22/apple-aapl-plans-new-macbook-air-with-magsafe-macbook-pro-with-sd-card-slot
Es kommt anscheinend ein dünneres Air das über dem aktuellen platziert wird. Irgendwie logisch, da jetzt ja entsprechender Spielraum für so ein Gerät vorhanden ist.
smalM
2021-02-03, 21:29:59
Longhorn @never_released
Upcoming Apple SoCs:
T600x: t6000, t6001
T811x: t8110, t8112
Hmm, T811x = M1X, M1Z, M1-irgendwas?
Aber was ist T600x? Der Systemteil zum kolportierten diskreten GPU-Die?
smalM
2021-02-08, 11:45:07
AnandTech: The Snapdragon 888 vs The Exynos 2100: Cortex-X1 & 5nm - Who Does It Better? (https://www.anandtech.com/show/16463/snapdragon-888-vs-exynos-2100-galaxy-s21-ultra)
Leider hat Andrei dieses Mal den A14 (https://www.anandtech.com/show/16192/the-iphone-12-review) kaum zum Vergleich herangezogen.
Julius
2021-02-08, 12:09:24
Wie viel besser ist das Display vom Air zum Pro bei den M1 Versionen?
Ich nutze meinen Laptop im Sommer sehr oft auf dem Balkon und wahr hier sehr zufrieden mit meinem 2017 Macbook Pro. Aber weniger will ich nicht mehr haben.
Ich finde nix bei den massig Tests wie das Display sich draußen verhält.
Daredevil
2021-02-08, 12:30:55
Das Air hat 400nits, das Pro 500nits, sonst gibt es keinerlei Unterschiede.
Schau dir an, was dein jetziges kann, dann wirst du abschätzen können, welches das richtige ist.
Vielleicht ist, wenn du viel draußen arbeitest, so ne matte Folie noch eine Idee.
mboeller
2021-02-08, 12:38:05
notebookcheck:
https://www.notebookcheck.com/MacBook-Pro-13-2020-im-Test-Apples-Subnotebook-bekommt-nur-das-Pflicht-Update.466253.0.html
https://www.notebookcheck.com/Test-Apple-MacBook-Air-2020-M1-Entry-Apple-M1-CPU-demuetigt-Intel-und-AMD.506560.0.html
incl. Bildern vom Display im Freien und Helligkeitsmessungen
Das Air ist um einiges dunkler und bei den Bildern im Freien sieht man IMHO den Unterschied (ist aber nicht die gleiche Szene)
Daredevil
2021-02-16, 22:50:14
Falls jemand sein M1 Air ein bisschen verschnellern möchte unter Last: ( ~20% im Cinebench )
O2MOjrLFpwQ
Aber Achtung, Rückseite wird dann deutlich wärmer.
Theoretisch müsste der Akku dann auch länger halten, weil kühle Komponenten weniger Strom verbrauchen. Aber ob man das merkt?
davidzo
2021-02-17, 10:41:51
Hm, eigentlich müsste man mal einen Aftermarket Lüfter mit kleiner heatpipe für das air herausbringen. Der Platz ist ja noch da und die Drehzahlregelung kann man auch per integrierten temperaturregler auf einer kleinen Platine machen. Muss man nur irgendwo 5V oder 3,3V abzapfen...
Weiß jemand ob die Lüftungslöcher zum screen offen sind, oder werden die komplett von der wifikarte geblockt?
Daredevil
2021-02-23, 02:06:13
Hab gerade mal so 1-2 Std Arcade Spiele gespielt, da wird die Kiste ganz schön Toasty. ( Allerdings auch zugeklappt per HDMI auf 4K60 )
https://abload.de/img/bildschirmfoto2021-026wje2.png
Ich erwäge in der Tat, mir mal so ein paar WLPs zu besorgen. Wenn die Kiste unter Last ist, habe ich sie eh nicht auf dem Schoß. Why not. :<
mboeller
2021-02-25, 09:26:59
hat jemand das gleiche Problem:
https://www.notebookcheck.com/Apple-Nutzer-berichten-ueber-extremen-SSD-Verschleiss-bei-Macs-mit-M1-SoC.524073.0.html
Daredevil
2021-02-25, 14:54:02
Golem hatte das „Problem“ glaube ich schon als Mythos rausstellen lassen.
vinacis_vivids
2021-02-25, 16:04:20
Hab gerade mal so 1-2 Std Arcade Spiele gespielt, da wird die Kiste ganz schön Toasty. ( Allerdings auch zugeklappt per HDMI auf 4K60 )
https://abload.de/img/bildschirmfoto2021-026wje2.png
Ich erwäge in der Tat, mir mal so ein paar WLPs zu besorgen. Wenn die Kiste unter Last ist, habe ich sie eh nicht auf dem Schoß. Why not. :<
Naja, Marketing kann eben keine Physik aushebeln. Sieht so aus als wäre extrem viel alte Brute-Force Technik im Chip enthalten.
davidzo
2021-03-01, 16:01:39
Hab gerade mal so 1-2 Std Arcade Spiele gespielt, da wird die Kiste ganz schön Toasty. ( Allerdings auch zugeklappt per HDMI auf 4K60 )
https://abload.de/img/bildschirmfoto2021-026wje2.png
Ich erwäge in der Tat, mir mal so ein paar WLPs zu besorgen. Wenn die Kiste unter Last ist, habe ich sie eh nicht auf dem Schoß. Why not. :<
Ich weiß nicht ob du vorher noch nie ein Notebook hattest, aber das ist bei weitem nicht Toasty. Mitt-70er ist sehr niedrig für ein Notebook unter Last. In der Regel pendelt sich das mit den meisten lüftersteuerungen eher auf 60 idle und 90° Last ein. Ich habe hier z.B. ein Broadwell macbook pro 13, welches eigentlich sehr sparsam ist und ein langläufer, aber die LS lässt das bis 96-99°C heiß werden bevor die Fans richtig hörbar werden. Das ist bei Notebooks mit dem Anspruch auf professionelle Arbeitsgeräte wie Thinkpads, macbooks, Latitudes etc. ganz normal.
BTW, Laut Digitimes soll Apple TSMCs gesamte 3nm Produktion für H2 2021 gebucht haben und zwar für Macs, nicht für iphones. 30K waferstarts monthly, während 5nm aktuell 105K.
https://www.digitimes.com/news/a20210226PD207.html
Transript ohne Paywall: https://www.notebookcheck.com/Effizientere-Chips-im-Anmarsch-TSMCs-3-nm-Fertigung-soll-noch-in-diesem-Jahr-starten.525750.0.html
Bisher dachte ich ja man bohrt den M1 bloß aufs doppelte auf für mbp16" und imac, aber bei 3nm wäre noch ganz anderes möglich...
Möglicherweise sind das aber schon die mobilchips für die M1 2022 Edition und nicht mehr für 2021 + Desktop. Dann würde der 16"/Desktopchip noch in H2 2021 in 5nm kommen und dann das 13" Redesign erst mit den 3nm Chips.
smalM
2021-03-01, 20:00:23
Welche N3-Produktion soll das bitte sein?
HVM geht erst im 2. Hj. 2022 los.
Daraus (https://www.dacin.com.tw/en/upload/catalog_b/ce486bd452dd09662ef2e60da7b4a245.jpg) zaubern auch Dacin und TSMC in einem halben Jahr keine laufende Produktion...
PS:
"Risk production is scheduled in 2021, and volume production is targeted in the second half of 2022." -- C.C. Wei, 14.01.21
AffenJack
2021-03-01, 20:20:20
Jepp, hört sich nach Müll an. Selbst digitimes hat vor nem Monat gemeldet, dass 3nm in 2021 nur in Risk production geht und Ende 2022 in Volume. 30k Wafer/Monat als Risk Production, das Risiko für Apple dass man seine komplette Macreihe nicht liefern kann, weil man keine funktionsfähigen Chips hat? Macht einfach keinen Sinn.
Daredevil
2021-03-01, 22:11:26
Macht schon Sinn für Produkte, die eben nicht in Massen verkauft werden.
Der MacPro ist z.B. so eine Maschine und wenn da ein 3nm SoC bzw. 3nm GPUs reinkommen, dann wird es umso hitziger für den Rest der Industrie. Apple hat doch schon immer das beste genommen, warum hier also nicht auch?
PS: 3nm ist auch so ne Sache, die für kommende spekulierte Devices Sinn machen könnte, also AR/VR Brille
Wahnsinn, das TSMC sowas anbietet kann dieses Jahr. :)
KarlKastor
2021-03-02, 06:46:56
Naja, ich sehe nicht wo für Apple das Problem wäre mit 5nm zu arbeiten. Vom M1 aus ist noch so viel TDP Budget über für die größeren Mac. Da kann man in 5nm noch viel zaubern.
Und warum sollte der neue Prozess ausgerechnet zuerst den größten Chip mit den höchsten Taktraten produzieren? Klingt wenig schlüssig.
Daredevil
2021-03-02, 08:04:30
Jo auf jeden Fall hat Apple noch genug Platz in 5nm, ob das echt nötig ist, mehr zu machen, denke ich auch nicht. Aber ist ein 5nm SoC in einem 699€ Smartphone nötig? Auch nicht, trotzdem machen sie es. :D
Zu zweiterem, weil die MacPro User fürstlich zahlen und man somit ( Mit Abstand! ) den schnellsten "Consumer" Computer der Welt bauen könnte. Das ist ja nun etwas, was Apple gerne für sich beansprucht, die besten Produkte der Welt zu haben.
Genauso betiteln sie den "CPU Core" des M1 ja auch als schnellsten der Welt.
Insofern ist es in beiderlei Interesse, die kleinsten und schnellsten Chips der Welt rauszuschubsen aus der Fabrik, aber wenn es nicht so kommt, werden sie es vermutlich auch. Mei.
Schon alleine die Tatsache, das man nen ~125w M1 bekommen kann in deinem Desktop Rechner mit so vielen Kernen, das man "genug" davon hat, ist einfach der Wahnsinn. :o)
Savay
2021-03-02, 19:45:24
Von was für einem ~125W M1 sprichst du?
Leonidas
2021-03-08, 03:25:58
Apple M1 Microarchitecture Research
https://dougallj.github.io/applecpu/firestorm.html
davidzo
2021-03-08, 16:33:59
Gerüchte sprechen von 8+4 für den 1X und 12+4 für den M2.
64 Cores bzw. 48 big Cores für den Mac Pro machen absolut Sinn wenn Apple das Verhältnis beibehält die Core-Anzahl des Intel Vorgängers im jeweiligen Produktsegment eindeutig zu übertreffen (13" quad intel auf 8C M1).
https://www.notebookcheck.com/Apple-Geruechte-MacBooks-erhalten-bald-einen-M1X-mit-12-und-einen-M2-mit-16-Kernen-der-Mac-Pro-bekommt-64-Kerne.526869.0.html
Wobei ich das M2 Gerücht aufgrund des Zeitpunkts für unglaubwürdig halte. Infos für einen bis 2022 unreleasten M2 kommen nicht zusammen mit M1X durchgesickert.
Sehr interessant dass Apple keinen Sinn darin sieht die Icestorm Cores aufzustocken. Anscheinend skalieren die dann im MT wohl doch nicht so gut, bzw. die Firestorm kerne sind so effizient dass selbst für die 14 und 16" Mobilgeräte lieber mehr große Kerne als viele kleine verbauen.
Ich hätte eher darauf getippt dass die 'kleinen' kerne Effizienter in MT loads sind. Andererseits wagt sich selbst Intel mit Alderlake nicht über 8 kleine Kerne hinaus, die sehen also auch nur begrenzte Skalierung mit vielen kleinen Cores.
BTW, 'klein' ist relativ. Der L1-I Cache der Icestorms ist immerhin viermal so groß wie bei AMD/Intel und der L1-D immerhin doppelt so groß wie Zen3.
Savay
2021-03-08, 17:35:24
Interessant finde ich die Staffelung bei den Mac Pro Gerüchten.
32/48/64 mit 24/3236/48
Ob das dann MCM CPUs werden? Also 2-4x 12C+4C?
Gibts von Apple nen passenden Interconnect?
Wörns
2021-03-08, 18:45:42
Interessant finde ich, dass die kleinen Kerne immer im festen Verhältnis von einem Viertel aller Kerne verbaut sind.
Ich hätte erwartet, dass die kleinen Kerne eine feste Anzahl für den "Notbetrieb" darstellen und nur die Anzahl der großen Kerne variabel ist.
Vielleicht geht dieses Verhältnis aber auch aus den verbauten Hardwareeinheiten hervor, so dass es nicht variabel sein kann. So als hätte man immer 16 Kerne mit anteilig 4 kleinen und hat davon dann zwei, drei oder vier Einheiten verbaut.
MfG
amdfanuwe
2021-03-08, 21:02:46
So wie AMDs ZEN1 Generation? Nur eben mit 8+8 pro Chip.
VooDoo7mx
2021-03-08, 23:58:42
Apple M1X (Name spekulativ)
12 Core CPU
- min 3,2GHz
- 8 High Performance Cores
- 4 Efficiency Cores
16 "Core" GPU
Quad Channel(?) Speicherrinterface
- LPDDR4X 4266Mbps
- max 32GiB RAM
- 136 GiB/s Bandbreite
5nm TSMC
- geschätzt 200 - 230 mm2
Wird eingesetzt im 2021 MacBook Pro 14 und 16 und 2021er iMac
Ich weiß es gibt schon einen Thread zur Apple CPUs allgemein, da wird aber um alles mögliche (auch OT Kram) geschrieben und nicht wirklich fokussiert auf ein Thema.
Performance soll sich in etwa auf Niveau der schnellsten Zen3 Mobile Cpus bewegen bzw sogar leicht drüber.
iGPU Performance wird wohl ungefähr 5500M (Navi 14 Mobile) erreichen. Einige spekulieren schon in Richtung 5600M Performance doch das finde ich etwas zu hoch gegriffen
RAM Ausbau wird auch interessant. SK Hynix, wo Apple gerade einkauft, bietet nur Module mit 4 oder 8 GiB RAM also wären bei einen hypothetischen Quad Channel nur 32GiB RAM max möglich. Samsung bietet auch LPDDR4X Module mit 10GiB oder 12GiB an. Damit wären maximal 48GiB RAM möglich.
Während ich mir 32GiB RAM beim neuen MacBook Pro 14 Als Max Ausbaustufe schon gut vorstellen kann, wären das für das 16er zu wenig. Das kann man heuet schon mit 64 GiB ordern. Vielleicht gibt es ja noch eine CPU Variante mit noch mehr Kernen, GPU und/oder mehr Speicherkanälen.
Vielleicht kann der Chip ja auch schon LPDDR5, SK Hynix hat gerade heute bekannt gegeben, dass 18GB LPDDR5 6400 Module in Massenproduktion gehen. Das wären dann 204,8 GiB/s Bandbreite bei 72GiB Gesamtkapazität.
Savay
2021-03-09, 13:27:47
12+4 mal x
Deswegen ja meine Frage nach dem Interconnect.
Sieht halt von der Aufteilung schon sehr nach ner MCM Variante des hypothetischen M2 aus.
smalM
2021-03-09, 16:55:51
Gibts von Apple nen passenden Interconnect?
Das ist nicht bekannt. Wir wissen auch nicht, wo die Grenzen der im M1 verwendeten Fabric sind.
Einen passenden Interconnect könnte TSMCs LIPINCON (https://www.anandtech.com/show/14914/arm-tsmc-demo-7nm-chiplet-system-w-8-cortexa724ghz-on-cowos-interposer) abliefern.
Interessant finde ich, dass die kleinen Kerne immer im festen Verhältnis von einem Viertel aller Kerne verbaut sind.
Ich hätte erwartet, dass die kleinen Kerne eine feste Anzahl für den "Notbetrieb" darstellen und nur die Anzahl der großen Kerne variabel ist.
Die Cores sind z.Z. als 4er-Gruppe um einen gemeinsamen L2 konzipiert. Wieviele dieser Gruppen jeweils verbaut werden werden, ist reine Spekulation. Es ist auch nicht klar, ob es zukünftig bei 4 Cores je Gruppe bleiben wird.
Zu M1, M2 etc.:
Apple benutzt bei seinen sonstigen Chips immer die Zahl zu Kenntlichmachung der Generation. Es gibt bisher keinen Grund anzunehmen, daß sich das bei den M-Chips ändern wird. D.h. ein M2 dürfte schlicht die Nachfolgegeneration des M1 sein, also der SoC für die Einsteigerversionen diverser Mac-Modelle dieses oder nächstes Jahr, je nachdem, welche Kadenz Apple bei den Macs anstrebt.
vinacis_vivids
2021-03-12, 15:21:48
Texture Compression on Apple M1
https://aras-p.info/blog/2021/01/18/Texture-Compression-on-Apple-M1/
smalM
2021-03-14, 13:18:08
@vinacis_vivids
Irgendwie habe ich nicht verstanden, was der gute Mann da verglichen hat.
Den handoptimierten Intel-Code mit einem irgendwie erzeugten ARM-Code?
vinacis_vivids
2021-03-14, 15:34:47
Intel CPU ist nur schneller wenn der auf Intel optimierte Code SIMD und AVX2 nutzt.
Bei Code Ausführung ohne Intel-Optimierung ist der M1 durchgehend besser.
Das ist eine sehr interessante Erkenntnis und eines der wichtigsten Gründe wieso Apple sich von Intel abgewandt hat.
Das macht die eigens entwickelte Software billiger und löst die proprietäre Intel-Bremse.
vinacis_vivids
2021-03-16, 00:49:13
Apple M1 ist 50% schneller als Intel bei Adobe Photoshop.
https://www.heise.de/news/Apple-statt-Intel-Chips-Adobe-sieht-reibungslose-Umstellung-beim-Mac-5988363.html
Ailuros
2021-03-17, 19:07:50
Am Rand egal ob der M1@steroids/successor jetzt 16 oder mehr GPU cores haben wird, wundere ich mich ernsthaft wo die maximale Latenz des GPU designs liegt nachdem Apple den IMG GPU code praktisch fast ganz umgeschrieben hat. Entweder entwickeln sie tatsaechlich eine GPU von Grund auf oder sie greifen irgendwann zu einer Alborix =/>C Architektur-Lizenz und skalieren damit weiter.
Stimmen die Geruechte duerften wir tatsaechlich irgendwo ueber die 5 TFLOPs FP32 fuer die naechste M-SoC Generation erwarten welches eine ziemlich grosse Zahl ist fuer einen relativiert so "kleinen" SoC.
Apropos Photoshop: das Ding koennte um zich Male schneller bzw. effizienter auf endlosen Geraeten sein wenn Adobe die daemliche Applikation endlich mal besser optimieren wuerde.
Rooter
2021-03-17, 23:59:12
Apple M1 ist 50% schneller als Intel bei Adobe Photoshop.Photoshop ist auf M1-Macs um 50 Prozent schneller als auf Intel-Macs, so Adobe.Fify :wink:
Ich bezweifle gar nicht, dass es schneller ist, aber wie viel es wirklich ist, wird sich zeigen.
MfG
Rooter
urpils
2021-03-18, 06:25:37
Fify :wink:
Ich bezweifle gar nicht, dass es schneller ist, aber wie viel es wirklich ist, wird sich zeigen.
MfG
Rooter
hat sich doch schon gezeigt :confused:
https://petapixel.com/2021/03/10/real-world-test-photoshop-for-apple-silicon-is-a-game-changer/
Monkey
2021-03-18, 07:19:58
Klingt für mich weniger nach einer Leistung von Apple als eher nach einer notwendigen Überholung von Photoshop, da CS6 wahrscheinlich schon um die 600% schneller läuft als die aktuellste CC...die komplette CC ist seit 2018 wirklich ein kompletter Haufen Müll und ich hoffe das sich an der Software allgemein Mal was verbessert
dildo4u
2021-03-18, 07:46:49
Sie man doch bei den einzelnen Wertem, die M1 Performance kommt von einem der AI Beschleuniger der bei Fotomerge genutzt werden kann.
Intel hat solche in Tiger Lake, das XPS 17 nutzt aber noch 10 Gen Intel.
Monkey
2021-03-18, 08:46:42
Öh ok, also hat Adobe mal wieder nix hinbekommen sondern einfach die Software auf ARM angepasst oder wie? Die Zahlen sehen ja identisch aus zu den Intel Systemen, tendenziell langsamer und bei GPU quasi unterirdisch im Vergleich. Photomerge lass ich mal aussen vor da es wahrscheinlich eine der unsinnigsten Funktionen von PS ist die wahrscheinlich 98% aller Fotografen nicht brauchen, oder wenn dann sehr selten und dann isses auch wieder egal ob es nun 2 oder 3 min dauert. Die Petapixel/Hobby landscape stitcher lassen wir mal untern Tisch fallen :)
dildo4u
2021-03-18, 09:26:09
Ich meine die Performance ist der Hammer abseits der AI Beschleunigung, das Intel System zieht vermutlich 150Watt, also Faktor 10 zum M1.
Das XPS17 dort nutzt eine RTX2060 mit einem 8 Core 14nm Intel, wobei ein 8 Core Tigerlake kommen soll muss man warten bis es dazu Werte gibt.
Monkey
2021-03-18, 11:21:50
Hä? Der MacMini zieht sich doch ~25Watt und nicht 15, aber davon ab ist mir der Verbrauch ehrlich gesagt vollkommen egal! Wenn der MacMini jetzt min 150 Watt die 10fache Leistung des XPS hätte, das wäre mega! Aber so? Juckt mich nicht wirklich - im Moment!
smalM
2021-03-20, 17:45:17
Apple M1 Microarchitecture Research
https://dougallj.github.io/applecpu/firestorm.html
Der gute Dougall Johnson hat noch mehr:
Firestrom (https://twitter.com/dougallj/status/1372528713041022976/photo/1)
Icestorm (https://twitter.com/dougallj/status/1372877528977735684/photo/1)
Sein Firestrom-Backend unterscheidet sich deutlich von dem von AnandTech (https://images.anandtech.com/doci/16192/Firestorm.png) und ist auch detailierter.
Das Icestorm-Backend ist, glaube ich, das erste, das es von einem Effiziens-Core gibt.
Update (https://twitter.com/dougallj/status/1373973478731255812/photo/1)
Badesalz
2021-03-26, 16:06:45
Hat wer schon eigentlich gemerkt, daß die den Firestorms 12 MB :freak: L2 Cache zu Seite stellen? (?) Der ist zwar "shared", aber halt 12MB (+ 4 MB für die Icestorms).
Über L3 sprechen sie nicht (?) Oder haben sie schon was dazu gesagt, ob sie das überhaupt nutzen?
Und dann auch mal eben 192KB L1I und 128KB L1D, pro Core. Und quasi direkt an der CPU angelöteten Hauptspeicher.
Schon alleine die Caches, selbst wenn sie kein L3 haben sollten, sind schon massiv größer als bei bisherigen x86 oder?
(oder guck ich mir wieder die falschen Angaben an?)
y33H@
2021-03-26, 21:25:20
Ja, die Menge an SRAM, die Apple in ihre SoCs packt, ist heftig ... den LPDDR4X mit 128 Bit finde ich da jez nicht sonderlich krass, das haben AMD und Intel und Qualcomm auch.
Der_Korken
2021-03-26, 21:46:29
Hat wer schon eigentlich gemerkt, daß die den Firestorms 12 MB :freak: L2 Cache zu Seite stellen? (?) Der ist zwar "shared", aber halt 12MB (+ 4 MB für die Icestorms).
Über L3 sprechen sie nicht (?) Oder haben sie schon was dazu gesagt, ob sie das überhaupt nutzen?
Und dann auch mal eben 192KB L1I und 128KB L1D, pro Core. Und quasi direkt an der CPU angelöteten Hauptspeicher.
Schon alleine die Caches, selbst wenn sie kein L3 haben sollten, sind schon massiv größer als bei bisherigen x86 oder?
(oder guck ich mir wieder die falschen Angaben an?)
Naja, die Zahl hinter dem "L" sagt ja erstmal nur die wievielte Stufe es in der Hierachie ist, nicht wie schnell sie ist - vor allem nicht im Vergleich zu anderen Architekturen. Jeder Kern im M1 hat 320kB privaten Cache und anteilig 3MB shared Cache. Bei Zen 3 sind es z.B. 512kB und 4MB. Der L1D und L1I sind im L2 inkludiert und beschleunigen das ganze nochmal zusätzlich.
Anandtech hat die Latenzen beim M1 versucht zu messen: https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested
Man sieht, dass der L1 tatsächlich ähnlich schnell wie die von AMD und Intel ist. Das ist insofern schon interessant als dass letztere seit Ewigkeiten auf 32kB setz(t)en und die Cove-Kerne mit 48kB direkt eine Verschlechterung der Latenz von 4 auf 5 Takten nach sich zogen (d.h. um auf 1ns zu kommen, muss das Ding mit 5Ghz laufen). Beim L2 liegt Apple zwischen dem L2 und L3 von AMD und Intel. Die Latenz steigt über 128kB Zugriffsmuster auf etwas über 5ns, während z.B. Zen 3 noch bis 512kB auf 2-3ns bleibt und danach erst auf 8-10ns hochgeht. Allerdings ist der L3 von AMD mit 32MB deutlich größer, d.h. der M1 muss früher in den RAM als AMD. Für mich ist hier kein Ansatz wirklich überlegen.
KarlKastor
2021-03-26, 23:57:27
Imposant finde ich den A14.
8MB für 2 Kerne. 4 MB für die kleinen. 16 MB LLC.
Dagegen der SD888, 0.5 - 1 MB pro Kern, 128 KB pro Kern für die Kleinen und 4 MB L3, 3 MB LLC.
Ich bin gespannt wie die größeren SoC aussehen werden. M1 ist ja im Prinzip nur ein A14X. Die größeren bekommen Probleme bei der Skalierung. 8 Kerne könnte man noch mit einem shared L2 von dann nur 16 MB realisieren.
Darüber klappt das nicht mehr. Entweder mehrere Cluster mit shared L2 oder das ganze wird umgestellt auf private L2 und einem großen L3 darüber.
Der_Korken
2021-03-27, 00:50:05
Ich habe gerade nochmal etwas bezüglich der L1D-Größe gebohrt. Tatsächlich sind die 32kB bei Intel/AMD deswegen so eine "Mauer", weil deren Caches virtually-indexed-physically-tagged sind. Dazu benötigt man für 32kB 8-fache Assoziativität, weil man dann Index und Offset mit exakt 12 Bits darstellen kann, was genau der Größe von x86-Pages (4kB) entspricht. Oder auf deutsch: Wenn man 128kB L1D haben wollte, müsste dieser 32-fach assoziativ sein, was wahrscheinlich eine extreme Stromverschwendung wäre. Hält man sich nicht an dieses Schema, dann erhöht sich die L1-Latenz, weil man TLB- und L1D-Lookup hintereinander gemacht werden müssen statt parallel. Wie hat Apple dieses Problem gelöst? Die L1-Latenzen sind auf dem Niveau der x86-Riege trotz vierfacher Größe und ohne VIPT. Benutzen die eine Custom-Größe bei der Pagesize?
smalM
2021-03-27, 10:37:41
Die Cache-/Speicher-Hierarchie bei Apples CPUs lautet L1-L2-RAM. Der 3. Cache ist ein Systemcache und dient zum Datenaustausch zwischen den Komponenten, während die CPUs bei einem L2-Miss direkt auf den RAM zugreifen.
Pagesize L1 ist 16KB (kann aber beim Firestorm auf 4KB umgeschaltet werden). Die Latenz ist 3 Takte.
Die Speicher-Transferrate beim M1 ist 60GB/s (128b SI), beim A14 29GB/s (64b SI). Damit dürfte der LPDDR4X völlig ausgereizt sein. Zeit für LPDDR5...
Der_Korken
2021-03-27, 10:58:59
Pagesize L1 ist 16KB (kann aber beim Firestorm auf 4KB umgeschaltet werden). Die Latenz ist 3 Takte.
OK, 16kB passt perfekt. Dann ist der L1 auch 8-fach assoziativ und trotzdem VIPT. 3 Takte macht natürlich Sinn, die Takte sind ja auch "länger" als bei Intel/AMD.
Badesalz
2021-03-27, 18:09:18
Wow. Alles sehr schöne Infos. Danke euch :up:
davidzo
2021-03-30, 11:40:04
Gerüchte um TSMC/Apple 4nm zuerst im Desktop:
https://www.notebookcheck.com/TSMCs-4-nm-Fertigung-liegt-vor-dem-Zeitplan-Apple-bucht-die-Kapazitaet-fuer-ARM-Macs.530209.0.html
Sollte das stimmen, dann wird das ein Großangriff im Desktop. Desktop meine ich im Sinne von PC/Mac, also auch die größeren Macbooks die meist als Workstation stationär am Schreibtisch eingesetzt werden.
Ich freue mich :biggrin:, der Desktop wurde Jahrzehntelang vernachlässigt, die echte Innovation fand viel zu lange nur bei Handys und z.T. noch bei den Konsolen statt.
Schön das Apple jetzt einsieht dass Mobil/Handy eine gewisse Fahnenstange erreicht wurde und im Desktop dafür gerade viel Potential brach liegt.
Das wird letzendlich auch die Preise für Windows PCs runter treiben, eventuell sogar die von GPUs.
Ich meine Apple erreicht schon mit 8 GPU Cores und 60gb/s die Leistung einer GTX1650mobile mit 16SM und 128gb/s.
Eine fiktive mac pro 64C GPU entspricht auch ohne Taktratenerhöhung im Desktop schon 128 Turing SMs, bzw. laut Milchmädchen locker den 82 Ampere-CUs der 3090, vorrausgesetzt die Bandbreite und Skalierung des frontends und backends klappen. Wobei ich mir bei der Bandbreite keine Sorgen mache, Apple ist großer HBM2 Fan und hat bisher am meisten Erfahrung mit TSMCs advanced packaging Technologien. Ich erwarte da ein Cachesystem auf dem Niveau von Intel Ponte vecchio nicht weniger.
Was eine 128C GPU zu Leisten im Stande ist wage ich nur zu träumen. Das entspräche immerhin fast 200 Ampere SMs :eek:
Die aktuelle 8C GPU nimmt ca. 25% des M1 Dies ein, also ca. 30mm2 in 5nm bzw. 3,75 Mrd Transistoren. Eine 128C GPU kommt alleine auf ca. 60Mrd Transistoren und wäre in 5nm 480mm2 groß, in 4nm vllt. ca. 300.
Dazu kommt noch die CPU, die ähnlich groß wird sollte es tatsächlich bis zu 48 kerne geben. SI, SLC cache, NPU, Thunderbolt etc, werden nicht ganz anteilig aber wohl auch vergrößert werden müssen.
Eigentlich geht das nicht mehr ohne Chiplets. 4nm ist zwar noch Low-NA EUV, aber das reticle limit von 858 mm2 will man sicher nicht ausnutzen. Ich kann mir gut vorstellen dass Apple auch hier dem Industrietrend folgend auf Chiplets, z.B. per CoWos geht. Da sind 1716mm2 möglich, ist man also noch weit ab vom Limit.
Ich freue mich auf die "huge motherfucking Chips":uup:
100Mrd Tranistoren im Desktop, heeere we comeee :popcorn:
smalM
2021-03-30, 14:29:15
@davidzo
Gehen Dir gerade die Gäule durch? :biggrin:
Ich glaube die Sache mit N4 HVM im Q4 erst, wenn C.C. Wei das in der nächsten Bilanz-Konferenz am 15. April bestätigt.
In der Konferenz am 14. Januar:
"My second question is, since your 3-nanometer, 4-nanometer nodes will be ramping up next year, what about second half this year, will we have
something like a 5-nanometer plus or revision, 5-nanometer process node for second half this year?"
C.C. Wei: "Last year, we introduced our 5-nanometer to the market. This year, we continue to improve it. And next year, we will improve further. So we never stop."
"So something like the 5-nanometer plus?"
C.C. Wei: "If that's your naming, yes."
Der_Korken
2021-03-30, 14:50:32
Eine fiktive mac pro 64C GPU entspricht auch ohne Taktratenerhöhung im Desktop schon 128 Turing SMs, bzw. laut Milchmädchen locker den 82 Ampere-CUs der 3090, vorrausgesetzt die Bandbreite und Skalierung des frontends und backends klappen.
[...]
Die aktuelle 8C GPU nimmt ca. 25% des M1 Dies ein, also ca. 30mm2 in 5nm bzw. 3,75 Mrd Transistoren. Eine 128C GPU kommt alleine auf ca. 60Mrd Transistoren und wäre in 5nm 480mm2 groß, in 4nm vllt. ca. 300.
Man sieht schon bei einer relativ schmalen Hochtakt-Architektur wie RDNA2, dass die Skalierung von 40 auf 80CUs alles andere als linear ist.
https://www.computerbase.de/2021-03/amd-radeon-rdna2-rdna-gcn-ipc-cu-vergleich/2/#diagramm-cu-skalierung-perzentil-fps-3840-2160
Bei CB sind es +69% in 4K, bei den 1%-Lows nur 67%. In kleineren Auflösungen logischerweise noch weniger. Wenn du jetzt von 8C kommst und auf 128C hoch willst, musst du deinen Optimismus wohl ein kleines bisschen bremsen :freak:
Hast du bei den 30mm² auch das SI und eventuell mitgenutzte Datenleitungen oder Caches mitgezählt? Die CUs waren bei N10 auch nur 150mm², das "Drumherum" dann nochmal weitere 100mm². Ja, da ist 2D-Kram bei, den man nicht duplizieren muss, aber das SI war trotzdem nicht ohne.
Platos
2021-03-30, 15:02:41
@davidzo
Gehen Dir gerade die Gäule durch? :biggrin:
Ich glaube die Sache mit N4 HVM im Q4 erst, wenn C.C. Wei das in der nächsten Bilanz-Konferenz am 15. April bestätigt.
In der Konferenz am 14. Januar:
"So something like the 5-nanometer plus?"
C.C. Wei: "If that's your naming, yes."
Das sagt doch schon alles. Die sind doch nur Namen (und die Leute geilen sich trotzdem weiterhin an Zahlen auf...Deswegen werden sie geliefert). TSMC könnte es auch 4nm nennen oder Hanswurst Nr.2. Ist doch völlig wurscht. Es zählt nur, was der Prozess dann besser macht zum vorherigen und wie das dann der Chipentwickler (AMD,Apple etc.) umsetzt. Aber der Prozess ist da natürlich nicht alleinentscheidend, das sieht man ja wunderbar bei AMD.
Aver zum Thema: Ich finde das auch gut, dass Apple bei den Laptops/PCs mal richtig Gas gibt. M.M.n ist gerade der Laptopmarkt die letzten 10 Jahre ordentlich lahm gewesen. Die CPUs kommen langsam, aber die (integrierten) GPUs sind ordentlich "Mehh". Da ist Apple nun deutlich "smarter" unterwegs und das belebt hoffentlich das Geschäft (auch Preislich indirekt). Und vor allem auch im Stromverbrauch/Akkulaufzeit. Es geht ja nicht immer nur um Leistung.
Ich bezweifle aber, dass das einen riesen Einfluss für Desktop-Grafikkarten haben wird. Dafür müsste Apple schon im Gaming präsenter sein und das sind sie nicht. Bei Laptops (und gegebenfalls den dortigen Mobile-Grafikkarten) könnte es vlt. aber durchaus einen Einfluss haben.
Relic
2021-03-30, 15:09:58
Man sieht schon bei einer relativ schmalen Hochtakt-Architektur wie RDNA2, dass die Skalierung von 40 auf 80CUs alles andere als linear ist.
https://www.computerbase.de/2021-03/amd-radeon-rdna2-rdna-gcn-ipc-cu-vergleich/2/#diagramm-cu-skalierung-perzentil-fps-3840-2160
Bei CB sind es +69% in 4K, bei den 1%-Lows nur 67%. In kleineren Auflösungen logischerweise noch weniger. Wenn du jetzt von 8C kommst und auf 128C hoch willst, musst du deinen Optimismus wohl ein kleines bisschen bremsen :freak:
Da darfst du aber auch die Speicherbandbreite nicht vergessen...
Die 40CUs haben 1,5TB/384GB/s --> 38,4GB/9,6GB/s pro CU
die 60CUs haben 2TB/512GB/s --> 34,1GB/8,5GB/s pro CU
die 80CUs haben 2TB/512GB/s --> 25,6GB/6,4GB/s pro CU
Dazu kommt noch wie das Frontend ausgeführt ist...
Man bekommt auch viele CUs ausgelastet (natürlich unter 4k einfacher als unter FHD) wenn das drum herum stimmt...
smalM
2021-03-30, 16:03:57
@Platos
Auch wenn Du recht hast, es ging um N5P in diesem Jahr.
Zur GPU:
Warten wir doch erst einmal ab, was Apple mit dem erwarteten 'M1X' abliefert. Der soll ja immerhin mit einer verdoppelten iGPU kommen. Da wird es interessant sein, wie Apple das umsetzt, ob nun mit mehr SLC oder einem breiteren SI und wenn letzteres, 192b oder 256b? Wir werden ja sehen, wie das dann skaliert. Vermutlich wird man im Notebook mit einer Radeon RX 5600M gleichziehen, derweil Apples iGPU nur 20W verbrät.
Und beim Ganzen sollte man nicht vergessen, daß Apple Wert auf gute Leistung in GPGPU-Anwendungen legt und ihnen Spiele eher schnuppe sind.
smalM
2021-03-30, 21:19:54
ARMv9-A: https://developer.arm.com/architectures/cpu-architecture/a-profile
Im Wesentlichen scheint ARMv9.0-A alles von ARMv8.0-A bis ARMv8.5-A zu umfassen, dazu TME (Transactional Memory Extensions) und SVE2 (unter Beibehaltung von NEON).
Neuere Erweiterungen von ARMv8-A wandern in ARMv9.1-A bzw. ARMv9.2-A. Kompatibiiität zu Aarch32 / ARMv7-A wird es nur noch auf Applikationsebene geben (Layer EL0).
Neoverse N2 dürfte der erste Core von Arm werden, der ARMv9.0-A unterstützt.
Apples A14-Generation fehlt neben TME und SVE2 auch BTI(Branch Target Identification) und MTE (Memory Tagging Extensions) von ARMv8.5-A.
Artikel bei AnandTech (https://www.anandtech.com/show/16584/arm-announces-armv9-architecture)
Badesalz
2021-03-30, 22:43:13
Interessant. Hätte gedacht ich lese diesmal was über FMA...
smalM
2021-04-07, 09:58:48
Lassen sich RAM und Speicher eines M1-Macs upgraden?
Na klar, ganz einfach! (https://www.tomshardware.com/news/mac-m1-mod) ;)
smalM
2021-04-08, 17:44:13
Apple M1: Load and Store Queue Measurements (https://dougallj.wordpress.com/2021/04/08/apple-m1-load-and-store-queue-measurements/)
dildo4u
2021-04-10, 06:39:56
Beide Geräte sind extrem beeindruckend.
Yv8liIkcbAs
davidzo
2021-04-10, 12:53:00
Aver zum Thema: Ich finde das auch gut, dass Apple bei den Laptops/PCs mal richtig Gas gibt. M.M.n ist gerade der Laptopmarkt die letzten 10 Jahre ordentlich lahm gewesen. Die CPUs kommen langsam, aber die (integrierten) GPUs sind ordentlich "Mehh". Da ist Apple nun deutlich "smarter" unterwegs und das belebt hoffentlich das Geschäft (auch Preislich indirekt). Und vor allem auch im Stromverbrauch/Akkulaufzeit. Es geht ja nicht immer nur um Leistung.
Fullack. Wir kriegen seit 10 Jahren dasselbe Rezept in immer wieder anderen Aufgüssen.
Wenn ich mir ein nun fast 10 Jahre alte Retina Macbook 2012 anschaue, dann sehe ich konzeptuell und auch bei den Specs nichts groß unterschiedliches, sondern nur inkrementelle updates.
4C/8T CPU, 16GB RAM, 512GB SSD, ca. 10h Akkulaufzeit - klingt das wie 10 Jahre alt oder wie aus einem Webshop?
Sicher, es gibt mit neueren Geräten nun mehr CPUtakt, mehr Ram, mehr SSD storage und ein klein wenig mehr Akkulaufzeit, aber nichts weltbewegendes was großartig neue Nutzungszenarien eröffnet.
Der größte Sprung war noch der Wechsel von 2c/4T auf 4c/8T in der 15Watt Klasse vor ca. fünf Jahren. Vom Sprung auf 8C in der 35W+ Klasse sehe ich immer noch keinen effektiven benefit, zumindest bei den Intelgeräten ist man mit 6C wohl noch besser bedient.
Akkulaufzeit ist ja immer in "biszu". Und von der Metrik müssen wir imo weg. Ich kaufe mir ein 3000€ Macbook nicht um damit im Netz zu surfen und Forenkommentare zu schreiben, sondern um CAD-bearbeitung, Lightroom, Video-editing etc. zu machen. Ich wünsche mir dass die Akkulaufzeit endlich in dieser Metrik gemessen wird: Teillast bis Vollast.
Denn da unterscheidet sich ein 10 Jahre altes System tatsächlich kaum von einem neuen, beide schaffen nur 3-4h unter Last (bei natürlich unterschiedlicher performance).
Da erhoffe ich mir vom M1X den größten Unterschied der tatsächlich einen Effekt auf die möglichen Nutzunsszenarien hat.
Ich bezweifle aber, dass das einen riesen Einfluss für Desktop-Grafikkarten haben wird. Dafür müsste Apple schon im Gaming präsenter sein und das sind sie nicht. Bei Laptops (und gegebenenfalls den dortigen Mobile-Grafikkarten) könnte es vlt. aber durchaus einen Einfluss haben.
Ich hoffe dass du nicht recht bekommst und wir eine GPU Revolution sehen werden. Apple ist sich im Gegensatz zu Microsoft und Intel schon lange sehr bewusst dass eine starke GPU erheblich mehr Effekt auf die Systemperformance haben kann als lediglich eine große CPU. Die einzigen GPUseitig underspecced Geräte waren in der vergangenheit eigentlich nur die 13" Macbooks die von intels verzögerter Iris pro roadmap getroffen wurden. In allem anderen hat Apple sogar eher eine etwas zu große GPU für die jeweilige TDPklasse verbaut.
Platos
2021-04-10, 14:45:50
Ich muss zugeben, dass ich bisher keine sehr genauen Tests bezüglich Akkulaufzeit gelesen habe (vom M1).
Aber grundsätzlich macht Notebookcheck bei z.B Handys genau das, was du verlangst. Die Akkulaufzeit Tests und Stromverbrauchtests sind ausgezeichnet dort, aber bei den Notebooks weiss ich gar nicht, wie es da so ist. ich müsste mir mal nen M1 Test auf notebookcheck ansehen.
Notebookcheck testet da immer verschiedene (eigen gesetzte) Standartszenarien. Das gibt eine gute Vergleichbarkeit zwischen Geräten und vor allem gibt es dort auch Tests unter Last. Aber wie gesagt, keine Ahnung wie gut die Notebooktests sind.
Und zur GPU: Ich hoffe auch, das ich nicht recht bekomme ;) Aber ich kanns mir im Laptopmarkt noch halbwegs vorstellen, im Desktopmarkt kann ich es mir aber einfach nicht vorstellen, dass Apple da gegen z.B eine RTX 3080 antritt etc.
smalM
2021-04-10, 21:12:37
im Desktopmarkt kann ich es mir aber einfach nicht vorstellen, dass Apple da gegen z.B eine RTX 3080 antritt etc.
Wen interessiert denn eine RTX 3080?
Wie zum Teufel ersetzen sie vier Radeon Pro Vega II?
Im Einsatz sind übrigens z.Z. noch diese AMD-GPUs:
Polaris 21
Polaris 20
Vega Mobile
Vega 20
Navi 14
Navi 10
davidzo
2021-04-11, 11:14:00
Navi14 sollten sie mit dem M1x erreichen. Das doppelte von der M1 GPU sollte knapp vor einer 1660ti mobile herauskommen. Das wäre jetzt kein extrem großer Sprung gegenüber Navi14 wie beim Prozessorteil, aber immerhin ein klarer ca. +30-40% Fortschritt.
Die 3050 und 3050ti sollten sie damit auch in die Tasche stecken. Und das sind genau die maximalen GPUs die in seriösen mobile Designs der mbp16" Klasse eingesezt werden. Die größeren Amperechips sind ja kaum abseits von 180Watt gaming Boliden die mehr aus Vents als aus Gehäuse bestehen einsetzbar, bzw. skalieren ohne hohe TDP im vergleich zu den kleinen chips kaum.
smalM
2021-04-20, 11:22:01
Dissecting the Apple M1 GPU, part III (https://rosenzweig.io/blog/asahi-gpu-part-3.html)
"From Apple’s public specifications, the M1 GPU supports 24576 = 1024 * 24 simultaneous threads. Since the table shows a maximum of 1024 threads per threadgroup, we infer 24 threadgroups may execute in parallel across the chip, each with its own register file. Putting it together, the GPU has 208 KiB * 24 = 4.875 MiB of register file! This size puts it in league with desktop GPUs."
Badesalz
2021-04-20, 12:42:18
OK, 16kB passt perfekt. Dann ist der L1 auch 8-fach assoziativ und trotzdem VIPT. 3 Takte macht natürlich Sinn, die Takte sind ja auch "länger" als bei Intel/AMD.Hä? Gibts noch andere Definitionen für Sekunde als das Zeug mit Caesium?
Der_Korken
2021-04-20, 12:48:44
Hä? Gibts noch andere Definitionen für Sekunde als das Zeug mit Caesium?
Ich sprach von Takten, nicht von Sekunden. Apples Chip taktet nur mit 3,2Ghz, also ist ein Takt 0,3125ns lang. Bei AMDs 4,9Ghz sind es ~0,2041ns.
smalM
2021-04-22, 22:38:16
From looking a bit around macOS: (https://twitter.com/never_released/status/1385293162642608129)
Apple t6000 - H13(S/C/D?) - Apple (M1X?)
Apple t6001 - (?) - Apple (M2X?)
Apple t8110 - H14P - Apple A15
Apple t8112 - H14G - Apple M2
“Avalanche” as the big core codename for H14.
smalM
2021-04-22, 23:01:58
t6000 und t6001 tauchten schon einmal letztes Jahr auf.
"Apple t6001 - (?) - Apple (M2X?)" -- unwahrscheinlich, die letzte Ziffer sollte für Varianten derselben Generation stehen, nicht für eine Generationsnachfolger.
Update: Es könnte sich um den selben Chip handeln, nur mit unterschiedlichem Packaging: Das eine Mal als SoC, das andere Mal als "APU" mit steckbarem RAM, also bspw. SO-DIMMs.
“Avalanche” -- was paßt denn da für die kleinen Kerne dazu?
robbitop
2021-04-23, 10:31:48
Die Frage ist, es ob es (von der Nomenklatur) sowas wie einen MnX geben wird. Mn ersetzt die AnX Nomenklatur.
smalM
2021-04-23, 11:28:33
Das könnte davon abhängen, wie schnell sich die Einsteiger-M-Chips von den AnX-Chips wegentwickeln und dann nicht mehr tablet-tauglich wären, bspw. wenn das Big-Core-Cluster á la Zen3 auf 8 Cores aufgebohrt würde und die Herstellung nur in N4 erfolgte.
davidzo
2021-04-23, 13:54:01
Ich muss zugeben, dass ich bisher keine sehr genauen Tests bezüglich Akkulaufzeit gelesen habe (vom M1).
Aber grundsätzlich macht Notebookcheck bei z.B Handys genau das, was du verlangst. Die Akkulaufzeit Tests und Stromverbrauchtests sind ausgezeichnet dort, aber bei den Notebooks weiss ich gar nicht, wie es da so ist. ich müsste mir mal nen M1 Test auf notebookcheck ansehen.
Notebookcheck testet da immer verschiedene (eigen gesetzte) Standartszenarien. Das gibt eine gute Vergleichbarkeit zwischen Geräten und vor allem gibt es dort auch Tests unter Last. Aber wie gesagt, keine Ahnung wie gut die Notebooktests sind.
Ne, leider macht Notebookcheck normalerweise nur die zwei oder drei Balken im Bereich "Energieverwaltung" und ein bis zwei Balken bei Akkulaufzeit. Das ist zwar auch mit median und Outliern, aber es ist nicht in Kontext zur Leistung gesetzt und geht in der Länge des Artikels völlig unter.
Beim M1 Test hat man zusätzlich noch screenshots vom verbrauch in gaming (borderlands, valley) und mixed (cb15+valley) nachgereicht, aber das sind wirklich vollast tests und da fehlt wieder bezug zur Laufzeit und in der Zeit erbrachten Leistung. Man kann nicht erwarten dass man sich das aus den anderen Testabschnitten selber zusammenrechnet.
Die 150cd/m Wifi browsing Tests können sie sich echt langsam mal sparen. Das ist ein völlig weltfremdes Szenario, ich kenne niemanden der bei Tageslicht ein 500cd/m2 Display bei 150cd/m betreibt um ein paar Minuten Laufzeit heraus zu holen. Abends zum napflixen vielleicht, aber da sollte man imo 2k+4K netflix oder YT laufen lassen statt den wifi browsing test.
Die "Websurfing Battery Test 1.3 max Brightness" kommen schon fast an normalen gebrauch heran, aber da fehlt mir eben die Komponenten CAD, Bildbearbeitung etc. die deutlich fordernder ist als Browsing.
Was ich mir einfach wünsche ist, dass zu jedem Benchmarkergebnis auch die "consumed energy in joules oder Wh" dazu steht. Bei Benchmarks die nicht timed sind wäre ein Verbrauchsdiagramm angemessen. Wenn ich dann weiß wieviele Wh/Joules in meinem Akku stecken kann ich genau sehen ob der für meine 2h CAD, 1h mails, 4h browsing und 1h Videowiedergabe ausreicht oder ich definitiv ein Netzteil brauche.
Es ist doch sinnlos ein Mobilgerät durch 20 verschiedene Leistungsmessungen zu schicken, bei der Akkulaufzeit aber nur den Websurfing Test einzubeziehen. Tests sind doch heute sowieso gescriptet, wo ist also das problem einfach immer parallel den Verbrauch zu loggen und das jeweils ins Verhältnis zum Leistungsergebnis zu setzen? Von mir auch gerne als Kurve im selben Diagramm mit doppelter Y-achse.
Savay
2021-04-23, 14:59:44
Die 150cd/m Wifi browsing Tests können sie sich echt langsam mal sparen. Das ist ein völlig weltfremdes Szenario,
Bitte?! Ich betreibe die Notebooks sowohl dienstlich als auch privat fast nie bei voller Helligkeit.
500cd sind doch völlig Weltfremd. Selbst 150 sind bei Browsing am Abend schon eher sehr viel...da ist es bei mir meist wohl eher 100 oder weniger.
Davon abgesehen misst du ja irgendwann nur noch das Panel und wenn die max. Helligkeit dann noch unterschiedlich ist, ist jede Vergleichbarkeit für die Tonne.
Aber je mehr Werte desto besser, da gebe ich dir Recht.
Felixxz2
2021-04-23, 15:44:50
Was haltet ihr eig. von der besseren Responsiveness der neuen Apple Silicon Macs? Ist das technisch schlüssig?
Ich frage vor allem deshalb, weil ich ein mehrmals komplett getauschtes und mehrmals neu aufgesetztes MacBook Pro 16 habe (anderes Thema haha) und sich das Gerät bis heute sehr ruckelig anfühlt, gefühlt deutlich schlechter als mein altes. Trotz eines Core i9.
Da fragt man sich halt schon , ob Apple das nicht ein wenig nachgeholfen hat....
Daredevil
2021-04-23, 16:19:05
Ich erfühle keinen Unterschied zwischen meinem Ryzen Rechner oder dem MacBook.
Finde aber, dass das iPad pro 2020 deutlich schneller reagiert beim surfen von "leichten" Seiten. ( Computerbase ist wahnsinnig schnell )
Gemessen ist das MacBook meine ich auch schneller, aber nun.
Felixxz2
2021-04-25, 21:51:25
Vielleicht ist das auch nur mein Gerät haha. Braucht teils mehrere Sekunden zum öffnen eines neuen Tabs....
HotSalsa
2021-04-26, 11:38:06
Gerade auf surfen + tabs etc. ist der M1 optimiert, siehe benchmarks zB von Macrumors:
Speedometer (Higher is better)
Safari (universal) 220
Firefox (universal) 98
Brave (Intel) 69
Jetstream2 (Higher is better)
Safari (universal) 195
Firefox (universal) 107
Brave (Intel) 97
Octane 2 (Higher is better)
Safari (universal) 63309
Firefox (universal) 29768
Brave (Intel) 38354
Ich denke das wirkt sich auch in RL + feeling aus. Siehe auch youtube, gibt viele Vergleiche, die Intel Macs verlieren immer!
dildo4u
2021-04-26, 11:42:14
Nicht vergessen die Intel Macs hatten nie Tiger Lake bekommen, die sind bei 160 im Speedometer.
https://youtu.be/5k5bSV10LCM?t=565
HotSalsa
2021-04-26, 16:06:37
Stimmt. Aber von 160 nach 220 ist es immer noch ein ganz schöner schritt, bei 15 Watt :freak:
Savay
2021-04-26, 16:37:39
Also ob die Software da irgendwie irrelevant wäre.
Wo bekommt man denn bitte Safari auf nem Tiger Lake zum laufen?! :freak:
dildo4u
2021-04-27, 09:21:52
Chrome und Safari sind fast gleich schnell, da sie die selbe Engine Basis nutzen.(Webkit)
M1 211 mit Chrome vs 165 mit Zen 3, Safari ist nicht fühlbar schneller.
https://youtu.be/Yv8liIkcbAs?t=219
Die Werte passen zu Geekbench Single Core Zen 3 Mobile ist bei 1500 Apple M1 bei 1700.
smalM
2021-04-27, 12:55:58
Nikkei Asia - also sehr mit Vorsicht zu genießen:
Apple's follow-up to M1 chip goes into mass production for Mac (x https://asia.nikkei.com/Business/Tech/Semiconductors/Apple-s-follow-up-to-M1-chip-goes-into-mass-production-for-Mac)
Lurtz
2021-04-27, 14:58:11
Chrome und Safari sind fast gleich schnell, da sie die selbe Engine Basis nutzen.(Webkit)
Unter OSX doch nicht.
Naitsabes
2021-04-27, 23:10:22
öhm, doch?
edit.
ich scheine mich echt geirrt zu haben o.O
Julius
2021-04-28, 07:43:16
@Savay nicht jeder nutzt sein Laptop drinnen etc.
Ich kaufe mir kein Laptop mehr unter 500. Ich nutze ihn sehr oft draußen und da kanns nicht hell genug sein. Wenn das nicht gut geht brauch ich für mich privat z.B. überhaupt kein Laptop weil ich mich ansonsten gleich an einem PC setzen kann.
smalM
2021-04-28, 23:01:31
Ach Du Schande 89,58 Mrd.$ Umsatz in einem ersten Quartal...
HotSalsa
2021-04-29, 09:20:53
So sehr auch Apple gescholten wird aber so eine Produktpalette hat kein anderes Unternehmen :freak:
Macs werden gerade alle umgekrempelt, wenn man ein Tablet will kommt man eigentlich nicht am iPad vorbei, iPhone ist ein Selbstläufer und wird jedes Jahr sinnvoll (mal mehr mal weniger) geupdatet, zur Apple Watch gibt es imo keine Alternative wenn man eine Smartwatch haben möchte (von Speziallösungen wie Garmin etc. mal abgesehen - Wear OS ist ein Witz dagegen, Apple hat praktisch im Alleingang den Markt für kabellose Kopfhörer erschaffen und auch dort mit sinnvollen Modellen nach und nach erweitert, hinzu kommt dann das ganze Zubehör und die Services welche man so schön mit den ganzen eigenen Produkten verbinden kann :biggrin:
Diese Kombi schlägt sich dann auch in den Zahlen nieder.
amdfanuwe
2021-04-29, 11:32:34
fehlt noch iPflege, iAltenheim, iFinanz.
HotSalsa
2021-04-29, 11:35:53
:biggrin::biggrin::biggrin:
iFinance gibt es fast, es gibt ne Apple Kreditkarte mit Zinsen, Bonusprogramm, Zahlungsplan, etc. :biggrin:
zumindest in den USA. Die hatte ich vergessen ^^
amdfanuwe
2021-04-29, 11:46:22
:tongue: Die nähern sich einem allumfassendem Programm.
HotSalsa
2021-04-29, 12:05:42
ja, man denke an das Apple car oder die AR Brille, die in der Entwicklung ist :freak:
Zu den Services:
https://www.macrumors.com/2021/04/28/apple-services-revenue-q2-2021/
Geht schnell unter, ist aber nicht unerheblich ^^
Felixxz2
2021-05-07, 15:15:33
Gibt es eig schon halbwegs belastbare Infos zum M1X/M2, vor allem zum Corecount? 8/4 und auch 16/4 Kerne geistern ja durchs Netzt, aber alles rein spekulativ….
smalM
2021-05-07, 17:27:20
Nein, es ist alles reine Spekulation.
8+4 CPU- und 16 GPU-Cores ist nur das Naheliegendste und wird wohl deswegen so oft genannt.
Und nach wie vor halte ich den M1X für den größeren Bruder des M1 und den M2 für dessen direkten Nachfolger. Aber auch das ist reine Spekulation...
-------------
Kuo: Apple-Designed 5G Modem May Debut in iPhones as Early as 2023 (https://www.macrumors.com/2021/05/10/kuo-apple-designed-5g-modem/)
"We predict that the *iPhone* will adopt Apple's own design 5G baseband chips in 2023 at the earliest."
Bräuchte Apple bei später als 2023 bei Qualcomm nicht eine Verlängerung, da die Vereinbarung 2025 ausläuft?
Und wird das Modem in den A17 integriert?
spotz
2021-05-10, 19:54:53
Rein interessehalber: Ist eigentlich bekannt ob jetzt mehr Spielehersteller ihre Spiele auch auf für Apples M1 herausbringen werden oder wird das genauso mau sein wie zuvor bei den Intel Macs?
Mortalvision
2021-05-10, 20:23:07
Klaro: je größer die Popularität der Plattform, desto mehr Spiele gibts. Dazu kommt, dass die Applejünger ein sehr zahlungskräftiges und-freudiges Klientel sind ;)
urpils
2021-05-10, 22:02:47
Rein interessehalber: Ist eigentlich bekannt ob jetzt mehr Spielehersteller ihre Spiele auch auf für Apples M1 herausbringen werden oder wird das genauso mau sein wie zuvor bei den Intel Macs?
das hat mit dem M1 doch nichts zu tun... es liegt zum Einen an der Plattformgröße (lohn kaum) und an den APIs... macOS setzt auf Metal - kein OpenGL und offiziell kein Vulkan und erst Recht kein DirectX bei verhältnismäßig schwachen GPUs... außer ein paar Indies und einigen vereinzelten Titel gibts da wohl scheinbar keinen Markt.
smalM
2021-05-11, 18:00:02
Schon bei Geekbench das neue Spielzeug (https://browser.geekbench.com/ml-benchmarks/) beguckt?
Hier die Einzel-Liste (https://browser.geekbench.com/ml/v0/inference/).
Man beachte dabei CPU/GPU/Core ML/NNAPI, die Ergebnisse sind alle zusammen in einer Liste.
Suchen in der Liste + sortieren: https://browser.geekbench.com/ml/v0/inference/search?q=ios&sort=score
iPhone 12 Vergleich
CPU : Core ML (https://browser.geekbench.com/ml/v0/inference/compare/763?baseline=761)
GPU : Core ML (https://browser.geekbench.com/ml/v0/inference/compare/527?baseline=761)
CPU : GPU (https://browser.geekbench.com/ml/v0/inference/compare/763?baseline=527)
Der angegebene Score ist übrigens das geometrische Mittel der Subtests.
davidzo
2021-05-11, 18:21:19
das hat mit dem M1 doch nichts zu tun... es liegt zum Einen an der Plattformgröße (lohn kaum) und an den APIs... macOS setzt auf Metal - kein OpenGL und offiziell kein Vulkan und erst Recht kein DirectX bei verhältnismäßig schwachen GPUs... außer ein paar Indies und einigen vereinzelten Titel gibts da wohl scheinbar keinen Markt.
Das hat insofern schon mit dem M1 zutun, als dass MacOS Big Sur auf Intel Macs bisher uneingeschränkt OpenGL und Vulkan unterstützt. Der M1 dagegen ist rein für Metal gebaut. Bestimmte Vulkan/OpenGL Hardwarefunktionen die man in metal nicht brauchte hat man einfach weggelassen.
For all the visible hardware features, it’s equally important to consider what hardware features are absent. Intriguingly, the GPU lacks some fixed-function graphics hardware ubiquitous among competitors. For example, I have not encountered hardware for reading vertex attributes or uniform buffer objects. The OpenGL and Vulkan specifications assume dedicated hardware for each, so what’s the catch?
Simply put – Apple doesn’t need to care about Vulkan or OpenGL performance. Their only properly supported API is their own Metal, which they may shape to fit the hardware rather than contorting the hardware to match the API.
Es gibt zwar Projekte wie MoltenVK (vulkan on metal translation layer, experimental) aber die performance wird nie so gut sein wie natives metal.
The more significant concern is the increased time on the CPU spent compiling shaders. If changing fixed-function attribute state can affect the shader, the compiler could be invoked at inopportune times during random OpenGL calls. Here, Apple has another trick: Metal requires the layout of vertex attributes to be specified when the pipeline is created, allowing the compiler to specialize formats at no additional cost. The OpenGL driver pays the price of the design decision; Metal is exempt from shader recompile tax.
https://rosenzweig.io/blog/asahi-gpu-part-3.html
https://rosenzweig.io/blog/asahi-gpu-part-4.html
Daher läuft auch lange noch nicht meine Cadsoftware Rhino auf dem M1. Mcneel hat ein halbes Jahrzehnt gebraucht die ganze Windows-Software auf Darwin+OpenGL zu portieren. Nun wird es mit Metal wohl nochmal so lange dauern. Die haben sich MoltenVK zwar angeschaut, meinen aber das wäre mehr aufwand als das direkt auf metal zu machen, zumal openGl unter macOS sowieso schon länger ein Schattendasein fristet.
Ich denke ähnlich wird es mit Spielen sein, auch wenn die sicherlich mehr manpower haben als Mcneel und das in weniger Zeit durch kriegen wenn sie es denn wollen.
steve.it
2021-05-11, 19:37:36
Das hat insofern schon mit dem M1 zutun, als dass MacOS Big Sur auf Intel Macs bisher uneingeschränkt OpenGL und Vulkan unterstützt. Der M1 dagegen ist rein für Metal gebaut. Bestimmte Vulkan/OpenGL Hardwarefunktionen die man in metal nicht brauchte hat man einfach weggelassen.
Kann ich mir nicht so richtig vorstellen, dass es am Featureset hapert. Welche OpenGL-Funktionen sollten im M1 nicht gehen? Vor dem Edit geschrieben oder nicht kompletten Post gelesen.
OpenGL ist doch nach wie vor _noch_ vorhanden - auch auf dem M1. MPV bzw. IIANA nutzt wie andere Anwendungen auch OpenGL. Bei MPV geht es in Zukunft dann wohl zu MoltenVK/Vulkan: https://github.com/mpv-player/mpv/pull/7482
AFAIK wurde sogar OpenGL ES extra wegen der iPhone Apps auf Big Sur M1 portiert, da iOS Apps wohl ebenfalls noch nicht alle auf Metal portiert wurden.
davidzo
2021-05-11, 19:52:34
Kann ich mir nicht so richtig vorstellen, dass es am Featureset hapert. Welche OpenGL-Funktionen sollten im M1 nicht gehen? Vor dem Edit geschrieben oder nicht kompletten Post gelesen.
OpenGL ist doch nach wie vor _noch_ vorhanden - auch auf dem M1. MPV bzw. IIANA nutzt wie andere Anwendungen auch OpenGL. Bei MPV geht es in Zukunft dann wohl zu MoltenVK/Vulkan: https://github.com/mpv-player/mpv/pull/7482
AFAIK wurde sogar OpenGL ES extra wegen der iPhone Apps auf Big Sur M1 portiert, da iOS Apps wohl ebenfalls noch nicht alle auf Metal portiert wurden.
Ja, die libraries sind vorhanden, auf macOS zumindest. Allerdings läuft das sehr im "legacy modus" wenn man die Entwicklermeinungen hört die OpenGL Apps für macOS entwickeln.
Und dass die Performance nicht so gut ist liegt eben daran dass der M1 voll auf Metal optimiert ist und bestimmte Hardwarefeatures die für OpenGl gebraucht werden eben in Software emuliert werden müssen. Software Emulation gabs bei OpenGL schon immer, ist also an sich kein Problem das so zu lösen. Aber das hat halt gewisse performance Implikationen wie der Extrakt aus der Linux-Treiberentwicklung von Alyssa Rosenzweig zeigt.
smalM
2021-05-11, 20:19:29
Ist es nicht so, daß OpenGL auf dem M1 nur als Layer über Metal läuft?
deLuxX`
2021-05-12, 06:38:32
Schon bei Geekbench das neue Spielzeug (https://browser.geekbench.com/ml-benchmarks/) beguckt?
Hier die Einzel-Liste (https://browser.geekbench.com/ml/v0/inference/).
Man beachte dabei CPU/GPU/Core ML/NNAPI, die Ergebnisse sind alle zusammen in einer Liste.
Suchen in der Liste + sortieren: https://browser.geekbench.com/ml/v0/inference/search?q=ios&sort=score
iPhone 12 Vergleich
CPU : Core ML (https://browser.geekbench.com/ml/v0/inference/compare/763?baseline=761)
GPU : Core ML (https://browser.geekbench.com/ml/v0/inference/compare/527?baseline=761)
CPU : GPU (https://browser.geekbench.com/ml/v0/inference/compare/763?baseline=527)
Der angegebene Score ist übrigens das geometrische Mittel der Subtests.
Tomaten auf den Augen, sorry. Was soll ich das sehen?
smalM
2021-05-12, 11:51:22
Tomaten auf den Augen, sorry. Was soll ich das sehen?
CPU GPU Core ML
Image Classification (F32) 620 1884 4803
Image Classification (F16) 630 1710 4892
Image Classification (I8) 451 645 646
Image Segmentation (F32) 989 4049 1875
Image Segmentation (F16) 979 5749 1867
Image Segmentation (I8) 1419 1123 1186
Pose Estimation (F32) 387 1418 17337
Pose Estimation (F16) 380 4691 18451
Pose Estimation (I8) 458 216 224
Object Detection (F32) 749 900 2183
Object Detection (F16) 748 1135 2204
Object Detection (I8) 579 722 726
Face Detection (F32) 1101 3946 6099
Face Detection (F16) 1086 5471 6107
Face Detection (I8) 822 842 897
Text Classification (F32) 2342 857 943
Text Classification (F16) 2340 1102 956
Machine Translation (F32) 1689 1674 1697
Machine Translation (F16) 1696 1686 1707
Score 876 1518 2104
Es hängt stark vom Subtest ab, ob bei der Performance ein Gewinn, kein Gewinn oder gar ein Verlust eintritt, wenn statt nur der CPU die GPU oder Core ML bemüht wird.
Die Erkenntnis ist natürlich nicht gerade neu, aber hier kann man schön die Größenordnungen vergleichen, die sich ergeben.
deLuxX`
2021-05-12, 22:11:48
CPU GPU Core ML
Image Classification (F32) 620 1884 4803
Image Classification (F16) 630 1710 4892
Image Classification (I8) 451 645 646
Image Segmentation (F32) 989 4049 1875
Image Segmentation (F16) 979 5749 1867
Image Segmentation (I8) 1419 1123 1186
Pose Estimation (F32) 387 1418 17337
Pose Estimation (F16) 380 4691 18451
Pose Estimation (I8) 458 216 224
Object Detection (F32) 749 900 2183
Object Detection (F16) 748 1135 2204
Object Detection (I8) 579 722 726
Face Detection (F32) 1101 3946 6099
Face Detection (F16) 1086 5471 6107
Face Detection (I8) 822 842 897
Text Classification (F32) 2342 857 943
Text Classification (F16) 2340 1102 956
Machine Translation (F32) 1689 1674 1697
Machine Translation (F16) 1696 1686 1707
Score 876 1518 2104
Es hängt stark vom Subtest ab, ob bei der Performance ein Gewinn, kein Gewinn oder gar ein Verlust eintritt, wenn statt nur der CPU die GPU oder Core ML bemüht wird.
Die Erkenntnis ist natürlich nicht gerade neu, aber hier kann man schön die Größenordnungen vergleichen, die sich ergeben.
Das sind doch die Werte vom A14, oder hab ich immer noch Tomaten auf den Augen?:D
smalM
2021-05-13, 09:13:24
Und?
y33H@
2021-05-13, 11:07:54
Es geht ja um CPU vs GPU vs Core ML (NPU) ...
Felixxz2
2021-05-18, 15:06:37
https://9to5mac.com/2021/05/18/bloomberg-redesigned-macbook-pro-coming-as-soon-as-this-summer-up-to-64gb-ram-and-10-core-chip/
Fände ich eher enttäuschend. Außer es gibt vielleicht neue Cores mit mehr Wumms
Codenamed Jade 2C-Die and Jade 4C-Die, a redesigned Mac Pro is planned to come in 20 or 40 computing core variations, made up of 16 high-performance or 32 high-performance cores and four or eight high-efficiency cores. The chips would also include either 64 core or 128 core options for graphics. The computing core counts top the 28 core maximum offered by today’s Intel Mac Pro chips, while the higher-end graphics chips would replace parts now made by Advanced Micro Devices Inc.
Das ist natürlich schon ne Wucht. Vor allem 128 Core GPU, das wäre ja 16x so viel Rohleistung wie im M1….
CrazyIvan
2021-05-19, 08:53:09
Naja, mit M1 ist Apple ja bereits ST-König.
Mit 8+2 ist man auch im MT absehbar schneller als alles, was AMD & Intel im Mobile Bereich zu bieten haben - inklusive ADL, spekuliere ich jetzt mal.
Und mit 16+4 sowie 32+8 ist man schneller als alles, was nicht auf den Namen EPYC hört. Da bedarf es gar keiner weiteren IPC-Steigerung.
Wenn ARM/nVidia/MS/Google sich ein Beispiel an M1 nehmen und MS bei Windows on ARM nochmal Anlauf nimmt, dann gute Nacht und kein Morgen für x86. Just my 2 cents.
y33H@
2021-05-19, 14:41:24
Wenn dem so einfach wäre, hätten ARM und Qualcomm und Samsung dahingehend sicherlich schon was gemacht - bin gespannt wo die Nuvia Cores landen.
robbitop
2021-05-19, 15:12:02
Es scheint ja auch nicht so einfach zu sein. Apple scheint seit sie ihre custom cores machen nicht wirklich repräsentativ für den Durchschnitt zu sein, was im ARM Universum möglich ist, sondern wirklich bemerkenswert darüber.
Entsprechend sollten Apples cores ggf nicht unbedingt als Referenz gelten. ARM, Samsung, Nvidia und Qualcomm sind alle Top player und alle haben ihre eigenen cores gebaut. Und allen rennt Apple um Jahre davon. Entsprechend ist Apple bis dato da doch eher die Ausnahme, die nicht als Referenz für das was im Schnitt möglich ist, genutzt werden sollte. Es scheint im Gegenteil besonders schwer zu sein, dort hinzukommen. Sonst hätten es ja bereits alle geschafft.
Nuvia sind ex-Apple CPU Entwickler - somit kann es schon gut sein, dass Qualcomm entsprechend nach vorne kommen wird.
Mortalvision
2021-05-19, 15:22:34
Test zum neuen M1 ist online bei computerbase.de
Diese GPU, fegt einfach alles andere, bis auf den letzten A14X komplett weg. Letzterer wird so um die 40% übertroffen.
smalM
2021-05-19, 17:53:40
Das ist natürlich schon ne Wucht. Vor allem 128 Core GPU, das wäre ja 16x so viel Rohleistung wie im M1….
Wer sagt denn, daß die in einem Mac Pro auch nur mit 1,28 GHz getaktet sind? :wink:
Ansonsten: Die erwartete modulfähige Lösung.
Ein SoC-Die, an das ein separates GPU-Die andocken kann und davon lassen sich dann 2 oder 4 zusammenschalten.
TSMCs CoWoS dürfte die Package-Lösung sein.
Spannend wird der Interconnect (ein Apple-Eigengewächs oder eine Lizenz: LIPINCON oder gar AMDs IF?) sowie die RAM-Anbindung.
Überrascht bin ich eigentlich nur, daß es so bald schon kommt und es damit offensichtlich keinen monolithischen M1X geben wird.
Es scheint ja auch nicht so einfach zu sein. Apple scheint seit sie ihre custom cores machen nicht wirklich repräsentativ für den Durchschnitt zu sein, was im ARM Universum möglich ist, sondern wirklich bemerkenswert darüber.
Es geht ja eigentlich nicht darum, was Arms Cores jetzt leisten, es geht eher darum, daß Arm in den letzten 4 Jahren die IPC im Schnitt jedes Jahr um 23% angehoben hat. In zwei Jahren werden Anbieter von ARM-SoCs auf N3 wechseln und zwei Core-Generationen weiter sein. Man darf dabei durchaus einen ST-Leistungszuwachs von 50% erwarten und damit auch in deren SoCs Konkurrenzfähigkeit zumindest im PC-Notebookbereich mit x86-CPUs.
Auch im Bereich der scale-out Server-CPUs wird ARM zu einer immer hartnäckigeren Konkurrenz heranwachsen.
Und wo wir gerade beim Thema sind... (https://www.anandtech.com/show/16684/ampere-roadmap-full-custom-cores)
Platos
2021-05-19, 18:25:50
Und trotzdem nennt Apple das Ding M1? Wird dann ja jedes mal ne Recherche erfordern, wenn man wissen will, "welcher" M1 verbaut ist.
ChaosTM
2021-05-19, 18:43:56
Grad ein kurzes Ipad Pro M1 Video gsehn. Fast 1,1Millionen @ AnTuTU is schon recht nett.
spotz
2021-05-19, 18:45:54
Und trotzdem nennt Apple das Ding M1? Wird dann ja jedes mal ne Recherche erfordern, wenn man wissen will, "welcher" M1 verbaut ist.
So wie es aussieht nennt Apple zu seinen M1 immer die Anzahl der CPU und GPU Kerne. Daran kann man es wohl erkennen.
Platos
2021-05-19, 19:42:22
So wie es aussieht nennt Apple zu seinen M1 immer die Anzahl der CPU und GPU Kerne. Daran kann man es wohl erkennen.
Hmm ok, aber die Taktrate vermutlich nicht? Also dann rennt man eben den Benchmarks hinterher :D
2phil4u
2021-05-19, 20:37:30
Sehr spannend
Und das alles auf einem soc.
Was denkt ihr, wie wird die Speicherlioesung aussehen?
256 bit, DDR 5 like oder HMC?
32 Gpu sind schon fett, 32 Gpu auf einem soc.
Koennen sie bis zum high end keine externe Gpu zu verwenden?
Mir kam der Gedanke einer Spielekonsole vom Apple.
Im Jahr 2027 sollte das Ding eine heftige Performance haben.
Für eine Spielekonsole reicht (gute) Hardware bei weitem nicht aus. Da muss sehr viel investiert werden und bis 2027 hat sich sicherlich Streaming von Games auch etabliert. Wenn dann sollte Apple jetzt beim Streaming einsteigen.
pixelguy
2021-05-20, 08:29:33
Apple sieht ja gerade mit Apple TV+ und Music, wie schwer es ist, in ein bereits etabliertes Feld einzusteigen. Selbst als wertvollstes Unternehmen der Welt.
Wenn sie es überhaupt machen, müssten sie wahrscheinlich über Zukäufe in den Markt eintreten. Oder es bleibt bei Apple Acarde...
Ich habe mal hier über die Möglichkeiten von einer Apple Konsole nachgedacht (schon länger her): https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11598390
Aber ob Apple da wirklich nur wegen dem M1 was macht...
Das Business (Subvention von Hardware) passt einfach nicht.
Macht überhaupt keinen Sinn ne Konsole. Auf das Schlachtfeld wird sich Apple kaum begeben.
Die sollen mal lieber über das iPadOS nachdenken. Porsche mit Hartgummireifen.
pixelguy
2021-05-20, 09:18:33
Ich glaube die denken da sehr stark drüber nach.
Durch ein iPadOS mit zu vielen Funktionen verkaufen die weniger MacBooks.
Deswegen gibt es ja auch keine Multi-User Funktion. So hat dann jeder in der Family eins.
Funktioniert auch super. Ich nehme mich da mal als bestes Beispiel.
Aber irgendwann wird es der Markt für sie regeln. Nur leider sind die Player da bisher nicht überzeugend genug.
Felixxz2
2021-05-20, 11:25:05
Wer sagt denn, daß die in einem Mac Pro auch nur mit 1,28 GHz getaktet sind? :wink:
Ansonsten: Die erwartete modulfähige Lösung.
Ein SoC-Die, an das ein separates GPU-Die andocken kann und davon lassen sich dann 2 oder 4 zusammenschalten.
TSMCs CoWoS dürfte die Package-Lösung sein.
Spannend wird der Interconnect (ein Apple-Eigengewächs oder eine Lizenz: LIPINCON oder gar AMDs IF?) sowie die RAM-Anbindung.
Überrascht bin ich eigentlich nur, daß es so bald schon kommt und es damit offensichtlich keinen monolithischen M1X geben wird.
[/URL]
Also ein 10 Core/ 32 GPU Chip, der dann im 2er oder 4er Verbund gelinkt werden kann für Mac pro? Das wäre sehr spannend.
robbitop
2021-05-20, 11:27:22
Apple ist hohe Margen gewohnt. Der Markt der Spielekonsolen ist genau das Gegenteil. Hauchdünne Margen, harter Konkurrenzkampf. MS hat in Summe seit der Einführung der XBox noch keine schwarzen Zahlen mit der Sparte geschrieben. Sony und Nintendo schon - aber die Umsatzrendite ist gemessen an Apples Märkten undankbar.
Die SoCs von Apple hätten unglaubliches Potenzial dafür - aber das Geschäftsmodell passt einfach nicht.
Felixxz2
2021-05-20, 12:14:30
Vielleicht aber über eine Partnerschaft oder Firmenzukäufe? Denn die Hardware wäre wirklich super und ein riesiges Ökosystem mit Accounts, Zahlungsdaten, Onlinediensten etc hat man ja auch schon
davidzo
2021-05-20, 12:15:09
Apple ist hohe Margen gewohnt. Der Markt der Spielekonsolen ist genau das Gegenteil. Hauchdünne Margen, harter Konkurrenzkampf. MS hat in Summe seit der Einführung der XBox noch keine schwarzen Zahlen mit der Sparte geschrieben. Sony und Nintendo schon - aber die Umsatzrendite ist gemessen an Apples Märkten undankbar.
Die SoCs von Apple hätten unglaubliches Potenzial dafür - aber das Geschäftsmodell passt einfach nicht.
Gegenbeispiel: Nintendo.
Die haben hohe Margen auch bei der Hardware.
Die Hardwaresubventionierung geht auf die originale xbox zurück, weil Microsoft dort mit überlegener Technik für wenig Geld Marktanteile gegenüber der dominierenden PS2 kaufen musste. Seitdem liefern sich Sony und M$ dieses Omnipräsente race to the bottom, Sony meist aus der Position des Marktführers. Das gilt aber lange nicht für den Gesamt-markt für Konsolen und Konsolenspiele.
Zudem zeigen die jüngsten Enthüllungen von Phil Schiller, dass Apple sehr wohl den Gesamtmarkt, also inklusive Appstore sieht, bzw. Gewinne nicht getrennt von der Hardware ausweist. Die Milliarden-Investitionen in eigene Chipdesigns, Metal, die Millionen für die WWDC. Dafür sieht Apple keinen direkten Gegenwert und das ist auch nicht nötig. Die haben kein problem damit sowas wie Customer lifetime value auszurechnen, aber sehr wohl damit die Gewinne des appstore losgelöst von der plattform auszurechnen. Das hängt natürlich auch damit zusammen dass es epyc die munition liefern würde die sie brauchen, aber ich glaube denen dass die nicht groß ausrechnen wieviel Gewinnanteil jetzt die CPU soc sparte und wieviel die Metal SWdev Sparte hat.
Wäre Nintendo keine japanische Firmware und damit quasi unverkäuflich, dann hätte Apple die wahrscheinlich längst gekauft (market Cap 68B$). Andererseits hätten sie auch längst disney kaufen müssen um gegen netflix, hbo und amazon konkurrieren zu können und haben es noch nicht getan :rolleyes:
Apple does what Apple does...
robbitop
2021-05-20, 12:36:20
Ich bin total erstaunt: du hast Recht. Nintendo kann >20% des Umsatzes in Netincome umwandeln. Hätte ich denen nicht zugetraut.
Nichtsdestotrotz ist der Spielekonsolenmarkt bereits hart umkämpft. So richtig attraktiv ist das nicht.
Meine Vermutung ist, dass man an Spielen bereits einiges aus dem Casualmarkt mitnimmt und das mit relativ wenig Aufwand. Über AppleTV, über iPhone und iPad.
Ob es sich jetzt lohnt, eine dedizierte Spielkonsole zu machen, um in den hardcore gaming markt (der nicht zwangsweise mit Apples kaufkräftiger Zielgruppe mit einem besonders hohen Prozentsatz korreliert; dass es eine gewisse Korrelation oder Überschneidung gibt bezweifle ich nicht) einzudringen, wo man doch schon mit dem casualmarkt einen großen Happen des Marktes hat - meine Einschätzung sagt nein.
Daredevil
2021-05-20, 12:51:02
Macht überhaupt keinen Sinn ne Konsole. Auf das Schlachtfeld wird sich Apple kaum begeben.
Jedes iOS und MacOS Gerät ist bereits eine Spielekonsole, nur das man damit noch andere Dinge tun kann...
pixelguy
2021-05-20, 12:52:12
Nintendo hat aber auch keine "State of the Art" Hardware.
Die müsste Apple schon aus Image-Gründen liefern. Ob dann die Margen noch so gut aussehen..?!
Auf der anderen Seite haben sie ja alles selbst in der Hand und können ihre eigene Hardware sicher vergleichsweise günstig herstellen.
Daredevil
2021-05-20, 12:59:26
Apple bietet bald High Quality Music Streaming fürn 10er an, hat also die beste Preis/Leistung im Markt.
Ein schneller AppleTV kostet ja keine 500€, da kann man locker den M1 reinsetzen und FullHD Gaming ist gesetzt. Ist am Ende auch eh egal, weil gute Spiele eh dann im Arcade Abo fürn 5er kommen.
Also das Apple keine Lust hat auf dem Gaming Markt, glaube ich überhaupt nicht. Die meisten Einnahmen im Appstore kommen von Spielen und die fließen in Milliardenhöhe jedes Jahr in Apples Taschen. Natürlich wollen sie noch mehr Geld verdienen, warum auch nicht ?
Hauptsache mehr Kunden > Mehr Leute im Ökosystem > Mehr Kohle durch Services
Wer n "Gaming iPad" hat, hat dann auch Apple Music, Apple Arcade, den App Store, AirPods, iCloud Storage, Beteiligung an Apps ( Netflix ect. ) und da macht es $$$ in der Kasse.
So schaut das dann aus:
g0phbZdROKE
Local Coop
PC Quality
60fps
davidzo
2021-05-20, 14:42:47
Jedes iOS und MacOS Gerät ist bereits eine Spielekonsole, nur das man damit noch andere Dinge tun kann...
Genau, daher glaube ich auch dass man höchstens still und heimlich die Gaming Fähigkeiten ausbaut. Wenn jemand eine neue Konsolenplattform ausruft, dann wird das nicht Apple sein, sondern Ein Drittentwickler im Appstore. Eine volle Bekenntnis zum gaming ist bei Apple aber genau so unwahrscheinlich wie eine Bekenntnis der Grünen zu "co2 schonender" Atomkraft. Apple sieht sich als Elite-Organisation von Akademikern an, da ist Medienkonsum, Filme und Serien noch voll okay, aber Porno nicht. 3D Art, Streaming und Videoschnitt ist gut, aber Gaming nicht.
Das dazu auch in gutes stück prüder Selbstverleugnung gehört - geschenkt. Aber insgeheim traue ich das Apple schon zu die Plattform dahin weiter zu entwickeln, aber offen zur Schau tragen wird man das nicht.
Am ehesten wird Apple noch eine VR Plattform anbieten, dafür ist Apple aufgrund der überlegenen Energieeffizienz und der eigenen Forschung auf dem Gebiet eigentlich prädestiniert. Zudem kann man das vllt. mit AppleTV 3D Content verbinden. Das wird dann aber in der Werbung wieder überwiegend als für Profis und Genießer dargestellt. Man zockt nicht einfach schnöde VR-Games auf einer VR-Konsole, nein man genießt hochqualitativen VR-Kontent (mit Bildungsanspruch) auf einer futuristischen Hardware. Und natürlich zeigt man wieder Architekten wie sie was für Kunden visualisieren, Piloten die Trainieren oder andere Profianwendungen mit sehr überschaubarem Marktanteil.
CrazyIvan
2021-05-20, 17:01:33
Es scheint ja auch nicht so einfach zu sein. Apple scheint seit sie ihre custom cores machen nicht wirklich repräsentativ für den Durchschnitt zu sein, was im ARM Universum möglich ist, sondern wirklich bemerkenswert darüber.
Entsprechend sollten Apples cores ggf nicht unbedingt als Referenz gelten. ARM, Samsung, Nvidia und Qualcomm sind alle Top player und alle haben ihre eigenen cores gebaut. Und allen rennt Apple um Jahre davon. Entsprechend ist Apple bis dato da doch eher die Ausnahme, die nicht als Referenz für das was im Schnitt möglich ist, genutzt werden sollte. Es scheint im Gegenteil besonders schwer zu sein, dort hinzukommen. Sonst hätten es ja bereits alle geschafft.
Nuvia sind ex-Apple CPU Entwickler - somit kann es schon gut sein, dass Qualcomm entsprechend nach vorne kommen wird.
Ja ja, ich beobachte das ganze ja nun auch schon ein paar Jahre. Ich muss bei Nuvia auch ein wenig schmunzeln - da tut QC gerade so, als hätte es die vor einigen Jahren beerdigten Custom Cores nie gegeben. Mit einer Mischung aus Reverse Engineering und Innovation muss doch was möglich sein - die Leute bei denen sind doch nun auch nicht alle auf den Kopf gefallen.
Ich könnte mir vorstellen, dass lange Zeit andere Entwicklungsziele verfolgt wurden - beispielsweise deutlich striktere Vorgaben zur Transistoranzahl o.ä. Und X1 ist ja auch nur half-assed.
2phil4u
2021-05-20, 17:15:05
Natürlich versucht Apple auch neue Marktanteile zu bekommen. Da sind sie auch bereit mal eine zeitlang keinen Gewinn zu machen. Und wenn man Bsp eine Hardware hat, die leistungstechnisch führend ist, so wird der gaming Markt natürlich interessant.
Vor allem weil die Zielgruppe jung ist und man sie an die Marke binden will.
spotz
2021-05-20, 21:37:02
Ich habe nicht den Eindruck das Apple viel tut um Spielehersteller dazu zu bringen ihre großen Produktionen auch für Apple Metal/Silicon anzupassen. Das wäre ja mit einer der ersten Schritte in Richtung einer wie auch immer gearteten Konsole oder anderem Spielegerät aus Apples Produktpalette.
Daredevil
2021-05-20, 22:32:16
Warum macht Blizzard das dann?
Diablo und WoW ist M1 ready und läuft richtig gut.
spotz
2021-05-20, 22:37:07
Gerade Blizzard ist ein Gegenbeispiel. Alle neuen Titel gibt es nicht für Apple. Weder Diablo 2 Resurrected, Diablo 4 oder Overwatch 1+2. Das sind Titel die Apple hätte haben wollen, wenn sie mehr im Spielebereich machen wollten.
bluey
2021-05-20, 23:17:29
32Bit Apps gekillt. OpenGL deprecated und ein drakonischer AppStore. Warum sollte man sich freiwillig als AAA Anbieter weiter in diese Hand begeben? Und das sage ich als Indie im AppStore.
=Floi=
2021-05-21, 01:42:54
Auch ein autueller snapdragon unterstützt kein OGL mehr.
bluey
2021-05-21, 05:37:55
Es geht eher um die Developer Relationship. Apple bricht zu oft seine APIs und schneidet alte Zöpfe ab. Welcher AAA Hersteller hat Lust seinen ganzen Kataloge zu warten, weil Apple mal wieder bock hat. Das ist auf dauer zuteuer.
Auch wenn die Hardware toll ist, aber man sieht sehr gut im Epic Case wo die Prioritäten für Apple sind. Erst Apple, dann User und als letztes die Developers.
Zossel
2021-05-21, 06:56:33
Damit dürfte klar werden was Apple mit eigenen CPUs für die Macs eigentlich bezweckt:
https://www.derstandard.at/story/2000126805189/der-mac-hat-ein-inakzeptables-problem-mit-schadsoftware-sagt-apple
"Wir haben heute am Mac ein Malware-Problem in einem inakzeptablen Ausmaß", gab Federighi laut einem Bericht von The Verge zu Protokoll.
Immerhin ist es eher ungewöhnlich, dass der Verantwortliche die eigene Software öffentlich schlechtmacht. Zumal solche Aussagen üblicherweise sehr genau strategisch vorbereitet werden. Dass sich der Manager einfach verplaudert hat, erscheint also nur wenig wahrscheinlich.
smalM
2021-05-23, 13:53:42
Also ein 10 Core/ 32 GPU Chip, der dann im 2er oder 4er Verbund gelinkt werden kann für Mac pro? Das wäre sehr spannend.
Nicht ganz; ein 10 CPU / 16 GPU Chip, an den noch ein 16 GPU Chip gekoppelt werden kann und das wird dann in einem 2er oder 4er Verbund gelinkt.
Spannend wird, wie schon gesagt, die Art der Kopplung und dann in den großen Macs die RAM-Anbindung.
Was denkt ihr, wie wird die Speicherlioesung aussehen?
256 bit, DDR 5 like oder HMC?
Ein 'Jade C'-SoC dürfte LPDDR-RAM mit auf dem Package haben, wie der M1. Aber das bedarf dann schon einer 256b-Anbindung, um auf 48 GB (LPDDR4X) oder 64 GB (LPDDR5) zu kommen. Ich wüßte jedenfalls nicht von größeren LPDDR4/5-RAM-Modulen. Mehr gibt es im MacBook Pro aber z.Z. auch nicht.
Der aktuelle 27" iMac kann hingegen 128 GB aufnehmen, der iMac Pro 512 GB und der Mac Pro bis zu 1,5 TB (je nach eingesetzter CPU). Mit LPDDR5 käme ein 'Jade 2C' auf 128 GB, ein 'Jade 4C' auf 256 GB. Das wäre zwar völlig ausreichend, um Intel im großen iMac loszuwerden, aber zu wenig, um auch einen iMac Pro oder gar einen Mac Pro abzulösen.
Damit dürfte klar werden was Apple mit eigenen CPUs für die Macs eigentlich bezweckt:
"Wir haben heute am Mac ein Malware-Problem in einem inakzeptablen Ausmaß", gab Federighi laut einem Bericht von The Verge zu Protokoll.
Ein im Vergleich zu iOS inakzeptables Ausmaß.
Iamnobot
2021-05-23, 14:04:59
Damit dürfte klar werden was Apple mit eigenen CPUs für die Macs eigentlich bezweckt
Das verwundert nicht. Apple nagelt nun schon seit Jahren sowohl Hard- als auch Software von Macs immer mehr zu...
smalM
2021-05-23, 16:48:41
Ganz vergessen:
https://9to5mac.com/2021/05/18/bloomberg-redesigned-macbook-pro-coming-as-soon-as-this-summer-up-to-64gb-ram-and-10-core-chip/
"Finally, Bloomberg says that Apple is planning an update to the low-end 13-inch MacBook Pro to use the successor to the M1 chip. This processor will reportedly include the same number of computing cores as the M1 but run faster. The number of graphics cores will also increase from seven or eight to nine or 10."
Das mag ein dezenter Hinweis darauf sein, daß der A15 mit 5 GPU-Cores kommen wird. Ein Viertel mehr Shader, dazu generationelle Verbesserungen plus N5P dürften für einen ordentlichen Zuwachs an GPU-Leistung sorgen. Im iPhone dürfte die GPU wie schon beim A14 mit gebremsten Schaum laufen, und im iPad Air 5 dann wieder volle Pulle.
Sagen wir 3,4 TFLOPS für den M2 und 1,7 TFLOPS für den A15? Einer der GPU-Experten anwesend?
Zossel
2021-05-24, 09:05:11
Das verwundert nicht. Apple nagelt nun schon seit Jahren sowohl Hard- als auch Software von Macs immer mehr zu...
Und war das Geschrei groß als MS in den Nullern was ähnliches vorhatte.
2phil4u
2021-05-27, 19:07:37
Laut neuster Gerüchte soll der M1x insgesamt 12 CPU Cores, davon 10 Firestorm cores haben. 😍
Nach 8+4, 8+2, haben wir nun 10+2.
Ein Mac Mini scheint wahrscheinlich.
CPU monkey hat nun neue Benchmarks.
https://www.cpu-monkey.com/de/cpu-apple_m1x-1898
Ich habe gerade einen Multi core benchmark nachgerechnet.
Wenn man die kleinen Kerne halb rechnet hat der M1x 11 Kerne und der M1 hat 6.
Dazu ist der M1x mit 3.33 ght etwas höher getaktet.
Insofern mach 17975 vs 7760 in Cinebench R23 wirklich Sinn.
smalM
2021-05-28, 09:07:54
CPU monkey hat nun neue Benchmarks.
Die Einträge bei cpu-monkey haben mit der Wirklichkeit so viel und so wenig zu tun wie unsere Spekulationen hier!
Davon abgesehen mag Maxons Engine gerne haufenweise Threads und kann im Gegenzug Apples großen Kerne nicht voll auslasten, weshalb Deine Annahmen für R23 zwar hinreichen sein dürften, aber wie Du damit von 7760 auf 17975 kommst, erschließt sich mir nicht. Ich komme mit der Rechnung bei 10+2 eher so auf 14300.
PS:
cpu-monkey hatte übrigens schon einmal einen totsichern Tip (https://www.cpu-monkey.com/en/compare_cpu-apple_m1x-1898-vs-apple_m1-1804), wie ein M1X in Tests abschneidet. Damals waren es noch 8+4 Cores bei umverändertem M1-Takt.
2phil4u
2021-05-28, 22:41:09
Die Einträge bei cpu-monkey haben mit der Wirklichkeit so viel und so wenig zu tun wie unsere Spekulationen hier!
Davon abgesehen mag Maxons Engine gerne haufenweise Threads und kann im Gegenzug Apples großen Kerne nicht voll auslasten, weshalb Deine Annahmen für R23 zwar hinreichen sein dürften, aber wie Du damit von 7760 auf 17975 kommst, erschließt sich mir nicht. Ich komme mit der Rechnung bei 10+2 eher so auf 14300.
PS:
cpu-monkey hatte übrigens schon einmal einen totsichern Tip (https://www.cpu-monkey.com/en/compare_cpu-apple_m1x-1898-vs-apple_m1-1804), wie ein M1X in Tests abschneidet. Damals waren es noch 8+4 Cores bei umverändertem M1-Takt.
Stimmt ich habe mich vertippt.
Wir reden von 14975
Hattest Dir ja mal die Mühe machen koennen die Quelle anzuschauen anstatt naja.
VooDoo7mx
2021-06-07, 18:12:07
19 Uhr gehts los.
Bin echt gespannt wie nun der M1X wirklich aussehen wird.
Bei AMD, Intel und nvidia weiß man ja oft schon Monate vorher wie alles sein wird. Bei Apple gibt es wenigstens noch Spannung.
*Hype*
James Ryan
2021-06-07, 18:17:47
Ich würde nicht darauf wetten, dass wir heute den M1X sehen.
Die WWDC ist eine Developer-Konferenz, es geht primär um Software.
Wenn überhaupt gibts nur einen Teaser.
MfG
w0mbat
2021-06-07, 18:24:45
Die WWDC ist eine Developer-Konferenz, es geht primär um Software.
Dann hast du die letzten paar WWDC verpasst :biggrin:
Sunrise
2021-06-07, 18:26:59
Ich würde nicht darauf wetten, dass wir heute den M1X sehen.
Die WWDC ist eine Developer-Konferenz, es geht primär um Software.
Wenn überhaupt gibts nur einen Teaser.
MfG
Das ist nur das Haupt-Thema, aber passende HW wird auf den WWDCs ebenso vorgestellt. Auch wird ja der Start von Apple Music Lossless und Spatial Audio erwartet.
VooDoo7mx
2021-06-07, 18:27:36
Gut informierte Leaker meinen, dass die neuen Macbook Pro mit den M1X vorgestellt werden und eventuell ein neuer M1X Mac Mini kommt.
Auch wurde schon öfter beim WWDC neue Hardware vorgestellt.
Ich denke da kommt was. Und selbst wenn nicht bin ich trotzdem gespannt was sich in Richtung Mac OS ENtwicklung mit Apple M1 zeigt.
smalM
2021-06-07, 18:45:42
Es gab in der Vergangenheit WWDCs sowohl mit als auch ohne Hardware-Vorstellungen.
Aber es wäre sehr überraschend, wenn dieses Mal keine neue Mac-Hardware vorgestellt würde.
@James Ryan
Ich würde auch nicht darauf wetten, daß ein "M1X" kommt: Apple könnte auch schlicht bei M1 bleiben und dazu jeweils die Anzahl der CPU und GPU-Cores nennen :wink:
Kallenpeter
2021-06-07, 18:49:25
Es gab in der Vergangenheit WWDCs sowohl mit als auch ohne Hardware-Vorstellungen.
Aber es wäre sehr überraschend, wenn dieses Mal keine neue Mac-Hardware vorgestellt würde.
@James Ryan
Ich würde auch nicht darauf wetten, daß ein "M1X" kommt: Apple könnte auch schlicht bei M1 bleiben und dazu jeweils die Anzahl der CPU und GPU-Cores nennen :wink:
Oder man gibt dem Kind einen komplett neuen Namen, z.B. P1 oder keine Ahnung.
Dann hätte man drei Klassen: A für Ultra Mobile, M fürs Einsteigersegment/Desktoprechner und P für pro/performance Modelle.
basix
2021-06-07, 18:50:52
Core etc. Angaben werden bei Apple nicht kommen: M1X ist eher apple-like. Cores usw. sind viel zu kompliziert ;)
smalM
2021-06-07, 19:00:25
"Mein Kaffe braucht ein Update, bis gleich" :biggrin:
1. Ich bin überrascht!
2. WWDC, war da nicht was?
3. Gott ist die Keynote woke geworden!
4. Ich glaube, das war die letzte, die ich mir je angetan habe...
Voodoo6000
2021-06-07, 20:50:00
Was für eine Enttäuschung und keine neuen Macs
maximus_hertus
2021-06-07, 20:51:02
Nun ja.... Satz mit x....
Also gibt es die neuen Macbooks wohl frühestens in 4 Monaten. Schade.
James Ryan
2021-06-07, 21:24:14
Dann hast du die letzten paar WWDC verpasst :biggrin:
Und ich hatte Recht. 😉
Hardware auf der WWDC ist nicht die Regel, eher die Ausnahme.
MfG
w0mbat
2021-06-07, 22:49:22
Und ich hatte Recht. 😉
Hardware auf der WWDC ist nicht die Regel, eher die Ausnahme.
MfG
Hardware auf der WWDC war in den letzten Jahren eher die Regel.
Daredevil
2021-06-08, 00:09:54
Hardware auf der WWDC war in den letzten Jahren eher die Regel.
Letztes Jahr gab es keine Hardware zu sehen auf der WWDC? ^^
Platos
2021-06-08, 01:07:40
Die WWDC dauert doch von Montag bis Freitag oder nicht ? Also wie kann man jetzt schon sagen, dass nichts vorgestellt wurde?
CrazyIvan
2021-06-08, 06:30:23
Weil (signifikante) Hardware in der Keynote vorgestellt wird.
Platos
2021-06-08, 13:31:25
Ach so ok.
Gab doch bisher ziemlich oft Gerüchte über ein Macbook Pro 14". Wann ist denn das nun zu erwarten? Kommt das überhaupt noch dieses Jahr?
Immerhin hat das Macbook Pro mit dem M1 gerade mal 16GB Support und von daher sollte Apple doch mal was mit 32GB raus bringen (wollen)? Denn so kann man das ja nicht als brauchbar bezeichnen. Ist ja immerhin das Pro-Book und nicht das Air. Was will man da mit 16 GB...
Immerhin hat Apple selbst gesagt, sie wollen bis (Ende) 2022 komplett umgestiegen sein (weg von Intel). Da werden sie ja wohl kaum mit dem Macbook Pro bis ins letzte Jahr brauchen. Das wird doch eher für die i Mac Pros der Fall sein?
Oder wie sehr ihr das? Kommt das noch dieses Jahr (egal ob 14 oder 16")? Ich habe eig. nie erwartet, dass ein Macbook Pro im Sommer launcht, schliesslich kam das alte ja auch Ende letztes Jahres. Aber ich kann mir persönlich nicht vorstellen, dass das neue erst 2022 kommt.
urpils
2021-06-08, 14:04:05
@Platos. Das weiß niemand außer Apple. Es ist alles reine Spekulation.
Status quo: Low-End-System (Laptops, Desktops) sind komplett mit dem M1 durch. Der nächste Schritt werden die High-End-Systeme sein (Laptops, Desktops). Dazu schwirren neu designte MacBooks (14 & 16 zoll), Mac Minis, iMacs und MacPros herum. Das wird ein M1xxx-System werden mit den selben Kernen, nur eben deutlich breiter aufgestellt. (hier mit 10 CPU-Cores und zwischen Jade-C-Chop (16) und Jade-C (32) GPU-Cores). Für den MacPro gibt es dann doppeltes Jade-C Chips (bis 40 CPU-Cores und 128 GPU-Cores).
wann die kommen: gibt es keine verlässlichen Prognosen
Platos
2021-06-08, 16:20:18
Jaa, die Gerüchtelage kenne ich. Aber das Macbook Pro ist ja mit seinen 16GB noch lange nicht abgeschlossen. Da erscheint es mir einfach als unwahrscheinlich, dass Apple bis Ende 2022 alles von Intel auf Apple umstellen will und dann aber Simple Macbooks erst im letzten Jahr bringt.
Entweder sie halten ihre eigene Prognose nicht ein, oder es wäre schon sehr komisch, wenn es nicht noch dieses Jahr kommt aus meiner Sicht.
Matrix316
2021-06-08, 18:48:30
Es gab zwei wichtige Sachen: Die neue Wetter App für iOS sieht ziemlich gut aus! :D Und dieses Universalcontrol Tool hab ich zwar schon mal so wo gesehen (ähem) aber wenn das einfach funktioniert, dass man mitm Macbook oder so sein iPad steuern kann... die wollen halt ums verrecken nicht, dass ein Gerät reicht, sondern du mindestens zwei haben willst. ;)
smalM
2021-06-08, 22:18:13
Wir haben erst Juno und Apple kann jederzeit einen virtuellen Special Event anberaumen, wann immer sie denken, daß sie die Lieferfähigkeit erreicht haben.
VooDoo7mx
2021-06-09, 12:15:25
Also diese Gerüchte von CPUs mit 40 CPU und 128 GPU Cores sind ja mal sowas von Bullshit hoch 10 und eher Wunschdenken von Leuten die nicht mal die Grundlagen von Chipfertigung und -Größen verstehen.
Eine 128 Core Apple hätte 16384 Shader Cores. Mal zum Vergleich: nVidia GA102 hat 5376 und AMD Navi 21 5120. Wenn man dazu noch die 40 CPU Cores packt kommt man selbst in TSMC 5nm auf einen Chip der weit über 1000mm² groß wäre. Also ist so etwas einfach kompletter Bullshit.
Selbst 32 GPU Cores also 4096 Shader halte ich schon für problematisch bei einen mobile SoC.
Das wären bei gleicher Taktfrequenz schon 10,8 TF Rechenleistung, also mehr als ne PS5. Wie will man das denn richtig mit Bandbreite füttern? Selbst mit 4 16 GiB LPDDR5 Chips hätte man nur 204GiB/s Speicherbandbreite. Viel zu wenig für eine solche GPU, bei LPDDR4X wäre es nochmal deutlich weniger.
Und Apple wird sicher nicht beim SoC auf GDDR6 oder HBM setzen, da die einfach viel zu viel Strom ziehen.
Also 16 Core GPU mit 4x LPDDR4X oder LPDDR5 halte ich beim M1X für realistisch.
Wenn es eine 32GPU Core Unit gibt, könnte ich mir das so vorstellen, dass dies eine DGPU mit GDDR6 ist. Also 14 Inch Macbook mit M1X und 16 Inch mit M1X+DGPU
Und man darf auch nicht vergessen, dass Apple ENde des Jahres auch noch einen neuen Intel Mac Pro mit Ice Lake SP und Nav21 rausbringt. Es gab ja auch schon Einträge bei Geekbench von eienr Radeon Pro W6900XT mit ;Ac OS. Im MAc OS Code ist auch schon Navi 21 und sogar 31 aufgetaucht.
Das heißt, ein neuer Apple Silicon Mac Pro Ende 2022 könnte auch mit Navi 31 kommen. Macht meiner Meinung nach sogar she viel Sinn. Also ein vielleicht sogar gesockelter 40 Core Apple CPU (ohne GPU) + Navi 31.
Felixxz2
2021-06-09, 12:37:04
Chiplets/Multi-Die ist komplett an dir vorbeigegangen? Natürlich kommt so etwas nicht monolithisch.
Die Gerüchte sprachen zuletzt von einem 10+2 CPU und 32 Core GPU Chip. Wenn du das x4 nimmst: et voila.
Vor allem mischst du ja aber die Devices komplett durcheinander: ein Mac Pro ist kein Mobile, muss keinen SoC nutzen und darf natürlich auch HBM oder GDDR6 nutzen. Muss er als 20k€ Workstation vielleicht sogar.
urpils
2021-06-09, 12:43:58
Also diese Gerüchte von CPUs mit 40 CPU und 128 GPU Cores sind ja mal sowas von Bullshit hoch 10 und eher Wunschdenken von Leuten die nicht mal die Grundlagen von Chipfertigung und -Größen verstehen.
Eine 128 Core Apple hätte 16384 Shader Cores. Mal zum Vergleich: nVidia GA102 hat 5376 und AMD Navi 21 5120. Wenn man dazu noch die 40 CPU Cores packt kommt man selbst in TSMC 5nm auf einen Chip der weit über 1000mm² groß wäre. Also ist so etwas einfach kompletter Bullshit.
Selbst 32 GPU Cores also 4096 Shader halte ich schon für problematisch bei einen mobile SoC.
Das wären bei gleicher Taktfrequenz schon 10,8 TF Rechenleistung, also mehr als ne PS5. Wie will man das denn richtig mit Bandbreite füttern? Selbst mit 4 16 GiB LPDDR5 Chips hätte man nur 204GiB/s Speicherbandbreite. Viel zu wenig für eine solche GPU, bei LPDDR4X wäre es nochmal deutlich weniger.
Und Apple wird sicher nicht beim SoC auf GDDR6 oder HBM setzen, da die einfach viel zu viel Strom ziehen.
Also 16 Core GPU mit 4x LPDDR4X oder LPDDR5 halte ich beim M1X für realistisch.
Wenn es eine 32GPU Core Unit gibt, könnte ich mir das so vorstellen, dass dies eine DGPU mit GDDR6 ist. Also 14 Inch Macbook mit M1X und 16 Inch mit M1X+DGPU
Und man darf auch nicht vergessen, dass Apple ENde des Jahres auch noch einen neuen Intel Mac Pro mit Ice Lake SP und Nav21 rausbringt. Es gab ja auch schon Einträge bei Geekbench von eienr Radeon Pro W6900XT mit ;Ac OS. Im MAc OS Code ist auch schon Navi 21 und sogar 31 aufgetaucht.
Das heißt, ein neuer Apple Silicon Mac Pro Ende 2022 könnte auch mit Navi 31 kommen. Macht meiner Meinung nach sogar she viel Sinn. Also ein vielleicht sogar gesockelter 40 Core Apple CPU (ohne GPU) + Navi 31.
Apple wird beim MacPro nicht als einzige Plattform Intel weiterführen (langfristig). Früher oder später wird auch der MacPro mit Apple-IP befeuert werden. Ob es dedizierte GPUs dazu geben wird ist noch offen - aber hochwahrscheinlich. Bedenkt man die Chipgrößen, würde der große Chip etwa in der Region von den aktuellen Nvidia und AMD GPUs spielen - sowohl was Chipgröße als auch was Leistung angeht. (ungefähr).
Was unklar ist: wird es ein einzelner Die? oder packt man mehrere Dies in ein Package? Der Jade 4C- könnte z.B. 4 Jade-C Dies in einem Package fassen (Jade C: 10 CPU Cores (8x Performance, 2x Effizienz) + 32 GPU Cores).
Um es in Relation zu setzen:
M1: ca 120mm2, X-Box Series X 350mm2. ne RTX 3090 etwa 600mm2. der große Jade4C wäre dann (ausgehend vom M1) etwa 800-1000mm2? Wenn man nun überlegt, dass es "nur" 4 kleine Dies in einem Package wären → 250mm2 pro Chip? DAs klingt für mich jetzt nicht völlig absurd.
smalM
2021-06-09, 16:06:02
Alles in Big Sur, was mit Navi zu tun hat, ist x86-Code; tatsächlich gibt es Treiber in ARM64-Code ausschließlich für Apples GPU. Und ich habe bisher noch nichts davon gesehen, daß sich das mit Monterey ändern würde.
Apple setzt z.Z. ausschließlich auf on-die Apple-GPUs und absehbar wird das auch so bleiben. Praktischer Nebeneffekt, man spart sich auf jedem Jade-C-Die einen PCIe x16 Rootkomplex, also genau den Kram, der sich eh so schlecht shrinken läßt...
@urpils
Ich würde 250mm² eher als Obergrenze für einen Jade-C annehmen. Das wären immerhin schon ca. 33 Mrd. Transistoren. Was willst Du denn da bloß alles unterbringen?
2phil4u
2021-06-09, 16:07:47
Also diese Gerüchte von CPUs mit 40 CPU und 128 GPU Cores sind ja mal sowas von Bullshit hoch 10 und eher Wunschdenken von Leuten die nicht mal die Grundlagen von Chipfertigung und -Größen verstehen.
Eine 128 Core Apple hätte 16384 Shader Cores. Mal zum Vergleich: nVidia GA102 hat 5376 und AMD Navi 21 5120. Wenn man dazu noch die 40 CPU Cores packt kommt man selbst in TSMC 5nm auf einen Chip der weit über 1000mm² groß wäre. Also ist so etwas einfach kompletter Bullshit.
Selbst 32 GPU Cores also 4096 Shader halte ich schon für problematisch bei einen mobile SoC.
Das wären bei gleicher Taktfrequenz schon 10,8 TF Rechenleistung, also mehr als ne PS5. Wie will man das denn richtig mit Bandbreite füttern? Selbst mit 4 16 GiB LPDDR5 Chips hätte man nur 204GiB/s Speicherbandbreite. Viel zu wenig für eine solche GPU, bei LPDDR4X wäre es nochmal deutlich weniger.
Und Apple wird sicher nicht beim SoC auf GDDR6 oder HBM setzen, da die einfach viel zu viel Strom ziehen.
Also 16 Core GPU mit 4x LPDDR4X oder LPDDR5 halte ich beim M1X für realistisch.
Wenn es eine 32GPU Core Unit gibt, könnte ich mir das so vorstellen, dass dies eine DGPU mit GDDR6 ist. Also 14 Inch Macbook mit M1X und 16 Inch mit M1X+DGPU
Und man darf auch nicht vergessen, dass Apple ENde des Jahres auch noch einen neuen Intel Mac Pro mit Ice Lake SP und Nav21 rausbringt. Es gab ja auch schon Einträge bei Geekbench von eienr Radeon Pro W6900XT mit ;Ac OS. Im MAc OS Code ist auch schon Navi 21 und sogar 31 aufgetaucht.
Das heißt, ein neuer Apple Silicon Mac Pro Ende 2022 könnte auch mit Navi 31 kommen. Macht meiner Meinung nach sogar she viel Sinn. Also ein vielleicht sogar gesockelter 40 Core Apple CPU (ohne GPU) + Navi 31.
Ich habe irgendwo gehört, dass es ein Dualsocket werden soll beim pro.
urpils
2021-06-09, 16:52:55
Alles in Big Sur, was mit Navi zu tun hat, ist x86-Code; tatsächlich gibt es Treiber in ARM64-Code ausschließlich für Apples GPU. Und ich habe bisher noch nichts davon gesehen, daß sich das mit Monterey ändern würde.
Apple setzt z.Z. ausschließlich auf on-die Apple-GPUs und absehbar wird das auch so bleiben. Praktischer Nebeneffekt, man spart sich auf jedem Jade-C-Die einen PCIe x16 Rootkomplex, also genau den Kram, der sich eh so schlecht shrinken läßt...
@urpils
Ich würde 250mm² eher als Obergrenze für einen Jade-C annehmen. Das wären immerhin schon ca. 33 Mrd. Transistoren. Was willst Du denn da bloß alles unterbringen?
ich habe es ja auch so überschlagen, dass 250mm2 eher die Obergrenze sind. und wie gesagt - die Hinweise deuten auf 10 CPU-Cores (8 Performance 2 Efficiency) sowie 32 GPU-Cores.
Es wird sich letztlich erst zeigen wenn es soweit ist, aber es ist durchaus realistisch, dass sie diesen Kurs fahren.
davidzo
2021-06-09, 17:55:52
Macht es bei einer 32Core GPU nicht Sinn schon HBM zu verwenden?
Apple ist doch bisher ein großer Verfechter von HBM und on Package Memory. LPDDR4 klingt für mich eher wie ein notwendiger Abstrich für den niedrigen Preispunkt und das Format vom M1 in Imac, ipad und macbook Air. Bei Highend spielt das doch keine Rolle mehr. HBM2e sollte zudem bei gleicher Bandbreite wesentlich sparsamer sein als ein superbreites DDR5/LPDDR5 SI. Das lässt also mehr Power übrig für den SOC, außerdem sollten HMB2E stacks weniger Platz benötigen als ein bandbreitengleiches LPDDR5 SI.
Kann mir gut vorstellen dass das für den Desktop dann ähnlich aussehen wird wie SR oder gar PV. Vier mittelgroße DIEs auf einem interposer und HBM außen herum.
=Floi=
2021-06-09, 18:04:47
Ich bin gespannt, ob es mal eine getrennte GPU geben wird.
Daredevil
2021-06-09, 18:07:12
Ich denke seitdem wir eine 500w Dual VII im Pro Modell gesehen haben, welches keinen PCIe Stromanschluss hat, ist tendenziell alles möglich, was Custom gebastelt werden kann.
Das war quasi eine GPU nur für eine Art Nischen Rechner, also... maximal ineffizient, oder?
Matrix316
2021-06-09, 20:02:34
Das ist lustig: https://9to5mac.com/2021/06/09/m1x-macbook-pro-referenced-in-metadata-for-apples-wwdc-youtube-video/
In the keyword tags for Apple’s official WWDC YouTube video, the terms ‘m1x’ and ‘ M1X MacBook Pro’ can be found. This was first spotted by Max Balzer on Twitter.
The upcoming 14-inch and 16-inch MacBook Pro are believed to feature next-generation Apple Silicon with eight high-performance cores and two power-efficiency cores, as well as the return of ports including HDMI and an SD card reader, a high-contrast mini-LED display similar to the one seen in the latest generation of iPad Pro, all enclosed in a new modern industrial design.
These tags are defined by the uploader of the YouTube video, so someone at Apple thought the M1X MacBook Pro would be announced on Monday.
smalM
2021-06-09, 20:53:07
Ich bin gespannt, ob es mal eine getrennte GPU geben wird.
Als diskrete Lösung? Nicht in absehbarer Zeit.
Als Teil einer Chiplet-Lösung? Sehr wahrscheinlich bald.
Apple hat ziemlich deutlich klar gemacht, daß sie die Zukunft bei einer voll integrierten GPU sehen.
@urpils
Das war eigentlich eine echte Frage, was Du wohl meinst, weshalb es 250mm² werden, eben weil das ja recht großzügig gerechnet ist.
Das ist lustig: https://9to5mac.com/2021/06/09/m1x-macbook-pro-referenced-in-metadata-for-apples-wwdc-youtube-video/
Eine Anwort unter der Meldung: "They are trying to optimize search hits. So they put in tags for things they know people are searching. The existence of this tag might not be based on any inside information."
CrazyIvan
2021-06-09, 21:15:51
Na der M1 liegt bei 120mm2 und hat 4+4+8. Da sind 250mm2 für 8+2+32 schon fast optimistisch geschätzt. Wirf mal nen Blick auf das Die: https://images.anandtech.com/doci/16252/M1.png
Sunrise
2021-06-09, 21:22:31
Na der M1 liegt bei 120mm2 und hat 4+4+8. Da sind 250mm2 für 8+2+32 schon fast optimistisch geschätzt. Wirf mal nen Blick auf das Die: https://images.anandtech.com/doci/16252/M1.png
Warum denn das?
Wenn du für die GPU (8 Cores) 1/4 des M1 Die rechnest (und das ist großzügig), davon wieder das Vierfache (8x4=32 Cores), das sind dann 120mm2. Du hast also 130mm2 Luft für gerademal 8+2 CPU-Kerne und den anderen Kram.
In 250mm2 auf 5nm ist massig Platz. Und das wäre ja auch ein verbessertes Design, evtl. mit weiteren Optimierungsmöglichkeiten (Prozess usw.)
CrazyIvan
2021-06-09, 21:46:52
@sunrise
Schau Dir doch einfach das Die an. Zur vervierfachten GPU kommen doppelt so viele Firestorm. Die 2 Icestorm weniger hingegen sind fast nix wert. Der SLC wird mit Sicherheit auch deutlich größer, ebenso bestimmt die NPU. Und auch der Uncore wird aufgrund IO deutlich wachsen, nehme ich mal an. Soll ja schließlich in nen MacPro. Der hat doch bestimmt ein paar Anschlüsse mehr und vielleicht ja noch ein paar Steckplätze für konfigurierbare Komponenten, oder ist das auszuschließen?
Prozess ist der gleiche - ein paar Optimierungen hin oder her.
Sunrise
2021-06-09, 21:55:05
@sunrise
Schau Dir doch einfach das Die an. Zur vervierfachten GPU kommen doppelt so viele Firestorm. Die 2 Icestorm weniger hingegen sind fast nix wert.
Wie gesagt, nimm 1/4 für die GPU von den 120mm2 wieder mal 4 und du hast konservativ 120mm2 für die Größe eines M1 für 32 Cores. Dann hast du nochmal die Größe eines M1 übrig. Da passen locker die doppelte Menge an Firestorm rein, die Icestorm nehmen auch noch ab, da bleibt auch massig Platz für den Rest.
Was deutlich komplexer wird, ist das Routing und die Caches, das eine hat mit der Die size nichts zu tun (andere Layer) und das andere lässt sich dicht packen.
Ich finde die 250mm2 sehr gut geschätzt.
CrazyIvan
2021-06-09, 22:10:28
@sunrise
Ja,das meine ich doch auch. 250mm2 sind eine sehr gute Schätzung. Hatte angenommen, Du gehst von deutlich weniger aus.
Aber der Cache wird nicht skalieren. Ist doch beides 5nm. Was soll da groß skalieren? Und dicht packen ist ganz schön relativ, wenn man sich mal den Cache zu Logik Anteil eines Firestorm Cores anschaut.
smalM
2021-06-09, 23:39:27
Eine 32-Core GPU mit 120mm² anzusetzen ist schon recht großzügig, da die zentrale Logik sich ziemlich sicher nicht vervierfachen dürfte.
Ein zweites Firestorm-Cluster braucht ca. 14mm².
Der SLC ist im M1 gegenüber dem A14 von 16 MB auf 8 MB geschrumpft. Das ist nicht der erste "X-SoC", bei dem Apple das breitere SI für wichtiger hält als einen größeren SLC. Zur Erinnerung, der SLC ist nur ein SLC und kein verkappter L3 der CPUs.
Eine Verdopplung des SI auf 16 Kanäle kostet ca. 7mm².
Sonstiger I/O ist die große Unbekannte. Da kann sich jeder ein Wünsch-Dir-was veranstalten und damit beliebig viel Die-Fläche verbraten.
MMn. legt Apple das Die primär darauf aus als Stand-alone-SoC in den beiden MacBook Pro Versionen zu dienen, sowie als Einsteigervariante im großen iMac. Eventuell wandert in den noch eine 2C-Lösung rein (quasi als iMac Pro), aber die Umstellung des Mac Pro sehe ich erst mit der nächsten Generation kommen. Ich glaube deshalb nur an eine recht frugale Erweiterung des I/O-Bereichs.
Felixxz2
2021-06-13, 07:52:17
Das spannende an den großen GPUs ist doch auch die Gamesfrage: Könnte sich macOS zu einer Gamingplattform entwickeln? Eventuell in leicht anderer Ausprägung als von Windows bekannt aber die Zutaten sind doch schon nicht schlecht:
-gemeinsame Softwarebasis mit iOS/iPadOS und auch Apple TV
-durch die M SoCs extrem standardisierte Hardware mit nur leichtem Performanceunterschieden
-sehr leistungsfähige GPUs
-mittlerweile echt relativ hohe Stückzahlen
Könnte mir da schon ne schöne Gamesplattform vorstellen. Controller dazu und dann das selbe Game auf mac, iPad oder Apple TV spielen. Daten liegen eh in der Cloud, also kann man auch immer nahtlos weiterspielen.
Kleiner Traum von mir, aber an sich könnte das doch für Devs interessant sein.
urpils
2021-06-13, 08:19:54
das Ganze nennt sich "Apple Arcade" https://www.apple.com/de/apple-arcade/
und wie so oft: der fehlende Game-Support für die Apple Plattformen liegt nicht primär an der Hardware. Klar - dass am Mac seit Jahren traditionell keine Gaming-GPUs verbaut werden hilft nicht unbedingt - aber das wäre nicht der ausschlaggebende Punkt.
Das gesamte Umfeld ist für Spieleentwickler ungünstig: proprietäre APIs, OpenGL wurde abgesägt, kein Vulkan - stattdessen Metal, kein ordentlicher Treiber-Support für Spielbedürfnisse, kein Marketing von Apple (abseits von Casual-Games und dem einen oder andern Ausreißer).
Um eine erfolgreiche Spieleplattform darzustellen kommt es nicht (bzw. kaum) auf die Hardware an... das steht zwar für die sog. "Core-Gamer" im Vordergrund - nicht jedoch für Publisher, Entwickler und die Möglichkeiten erfolgreich am Markt zu sein ;)
Zossel
2021-06-13, 08:24:12
Das spannende an den großen GPUs ist doch auch die Gamesfrage: Könnte sich macOS zu einer Gamingplattform entwickeln? Eventuell in leicht anderer Ausprägung als von Windows bekannt aber die Zutaten sind doch schon nicht schlecht:
Ich denke nicht das die Spielehersteller auf die Kapriolen von Apple bzgl. veränderlichen API Lust haben bei den niedrigen ASPs von Spielen.
Felixxz2
2021-06-13, 09:02:37
Naja "für Spieleentwickler ungünstig" ist doch sehr pauschal. Auf iOS werden Milliarden mit Games umgesetzt - es ist halt ein anderer Spielemarkt, aber er ist sicher sehr groß, wenn nicht sogar größer als der klassische. Dass da jetzt ein bisschen was rüberschwappt, evtl. auch Studios mit dem ein oder anderen ambitionierteren Titel an den Start gehen - wieso nicht?
Was ich mir auch gut vorstellen kann sind Umsetzungen der Online Größen, wie Fortnite, CoD etc.
Die Hardware macht halt schon nen extremen Unterschied, bisher kam ein Großteil der Macs, vor allem Macbooks, mit extrem schwachen iGPUs, auf denen vielleicht n CS:GO läuft. Jetzt hat selbst das Air richtig Dampf.
urpils
2021-06-13, 09:12:08
Naja "für Spieleentwickler ungünstig" ist doch sehr pauschal. Auf iOS werden Milliarden mit Games umgesetzt - es ist halt ein anderer Spielemarkt, aber er ist sicher sehr groß, wenn nicht sogar größer als der klassische. Dass da jetzt ein bisschen was rüberschwappt, evtl. auch Studios mit dem ein oder anderen ambitionierteren Titel an den Start gehen - wieso nicht?
Was ich mir auch gut vorstellen kann sind Umsetzungen der Online Größen, wie Fortnite, CoD etc.
Die Hardware macht halt schon nen extremen Unterschied, bisher kam ein Großteil der Macs, vor allem Macbooks, mit extrem schwachen iGPUs, auf denen vielleicht n CS:GO läuft. Jetzt hat selbst das Air richtig Dampf.
es ist nunmal so pauschal. Apple schneidet in großer Regelmäßigkeit alte Zöpfe ab - das ist für Spiele blöd.
OpenGL → abgesägt
32bit → abgesägt
Intel → abgesägt
Was auf der einen Seite ja auch viele Vorteile hat bedeutet aber einen sehr hohen technischen Support für ein Publikum, das zwar hier und da mal ein paar Cent für Casual-Games ausgibt - aber eben keine "games" im große Stil kauft.
Wieso als den Port und ständiges Support leisten (wie gesagt - einmal im Jahr kann man fast damit rechnen, dass die alten Spiele nicht mehr laufen), wenn das Zielpublikum da relativ klein ist?
Fortnite gab es mal. Ist jedoch ein größerer Streitpunkt geworden und Epic weigert sich das Spiel für Apple Plattformen nach den aktuell geltenden Store-Regeln zu veröffentlichen.
CoD: ich wüsste wirklich gern, wie groß die Überschneidung von CoD-Spieler und MacBook Air Besitzern ist xD
Klar könnte man das technisch machen - aber nochmal: es liegt nicht an der GPU, dass Spiele nicht portiert werden. Es mag EIN Faktor sein - aber sicherlich nicht der Ausschlaggebende.
Ich kenne niemanden in meinem Bekanntenkreis, der ein MacBook hat und dem da "Coregames" fehlen. Ich würde ich drüber freuen - und für MICH ist es ein Grund, weshalb ich schon länger keine neuen Mac gekauft hab (wenn ich 2000-3000€ ausgebe, will ich auch gern darauf zocken können; ) ) aber das ist nunmal einfach die Minderheit.
Voodoo6000
2021-06-13, 09:13:56
Die Hardware von Apple ist für Gaming einfach viel zu teuer. Selbst M1 mit 32 GPU Cores hätte nur ~10,4 TFLOPs und die Hardware kostet dann bestimmt schon über 3000€. Besonders interessant wäre ja ein MacPro mit 64 oder 128 Cores aber der wird Gamer unbezahlbar.(Aktuell startet der MacPro bei 6500€)
Natürlich Low-End-Gaming aber möglich. Die fehlende Software ist noch ein andres Thema und ob Entwickler Apples Friss oder stirb Ansatz so toll finden darf bezweifelt werden.
Felixxz2
2021-06-13, 09:57:57
es ist nunmal so pauschal. Apple schneidet in großer Regelmäßigkeit alte Zöpfe ab - das ist für Spiele blöd.
OpenGL → abgesägt
32bit → abgesägt
Intel → abgesägt
Apple HAT alte Zöpfe abgeschnitten - man kann nicht mehrmals Intel oder 32 Bit absägen. Mit dem Argument dürfte sonst ja auch niemand iOS Apps und Spiele anbieten, auch dort unterwirft man sich ja Apples Regeln und Launenhaftigkeit.
Ich behaupte nicht, dass Apple hier der neue Hardcore Konsolero wird. Aber die Synergieeffekte sind nicht zu ignorieren. Gerade Live Service Battle Royale Sachen schreien ja gerade nach nem Port (ok Fortnite war blödes Beispiel :freak:).
Ich gehe schon ziemlich fest davon aus, dass sich das einige sehr genau anschauen. Die Stückzahlen der Macs sind in den letzten Jahren enorm gestiegen, durch die M SoCs werden die Geräte günstiger und vor allem die Entrys deutlich schneller.
Wieso sollte man nicht z.B. ein PUBG Mobile anbieten ergänzt um Maus/Gamepad Steuerung? Es geht wie gesagt NICHT um den klassischen Gamesmarkt, ich sehe da eher Mobile games+
urpils
2021-06-13, 10:05:49
Apple schneidet permanent Zöpfe ab. Das ist einfach deren Ding. Denk nur nicht, dass das mit den M-Prozessoren aufhört. Früher oder später wird auch dort Kompatibilität gegenüber "Fortschritt" geopfert. Das ist ja auch nicht per se verkehrt - nur eben für Spiele suboptimal.
Wenn Apple sich nunmal entscheidet, dass die Metal-Version, die von deinem Spiel vorausgesetzt wird mit der nächsten macOS-Version nicht mehr Supporten wird (kann ja durchaus sein) - dann hast du eben Pech gehabt.
Microsoft reißt sich ja teilweise ein Bein aus, um Kompatibilität möglichst lange zu gewährleisten. Das führt aber eben auch zu so einem Windows-Wust, bei dem 5 Legacy-Schienen ewig lang mitgeschleift werden. Für Software/Spiele Entwickler ist das verlockend.
Und weil wir jetzt beginnen uns im Kreis zu drehen: die Argumente wurden ausgetauscht. Es liegt nicht an der Hardware, dass es wenig Spiele-Support für Apple-Geräte gibt. Es ist vielleicht ein Faktor der rein spielt, aber es ist nicht der Wichtigste und schon gar nicht der ausschlaggebende Faktor.
Klar - von Hardwareseite und Plattformverbreitung sieht das erstmal sinnvoll aus - aber das reicht nicht. Es kann durchaus sein, dass sich da irgendwann auch mal ein Wandel vollzieht - der M1 wird aber hier nicht der ausschlaggebende Faktor sein oder werden.
Felixxz2
2021-06-13, 10:19:17
Ich glaube, dass wir hier vor allem ein wenig aneinander vorbeireden: Du beziehst das alles sehr auf den klassischen hardcore Games Markt, der wird natürlich nicht Einzug halten. Aber es ist(und das ist ja seit dem M1 Mac und Big Sur bereits Realität) ein gemeinsames App Ökosystem geschaffen worden und IMO wird das für Spiele genutzt werden, die irgendwo zwischen iOS gedaddel und "echten" Games liegen.
Dass dir Hardware nicht der eigentliche Grund ist, auch da hast du Recht: Die Hardware hat ja bisher den einheitlichen Softwaremarkt verhindert. Hätten die Macs seit 2010 ebenfalls ARM Cores, würde natürlich die Softwarewelt am Mac ganz anders aussehen.
Ein Argument verstehe ich aber leider überhaupt nicht: die alten Zöpfe. Nach der Logik dürfte doch auch niemand Apps und Games auf iOS anbieten. Dort ist es das selbe Spiel. Bis auf den Unterschied eben, dass es weniger Zöpfe gibt und diesen zustand haben wir auf dem Mac ja jetzt auch. Und vor allem gibt es ja noch sowas wie Patches, Pech hast du nur gehabt wenn du keine Ressourcen dafür abstellen kannst/willst.
urpils
2021-06-13, 10:35:49
Für ein App-Ökosystem bei Apple ist es gar nicht so bedeutend gewesen, ob man jetzt einen ARM oder Intel-Rechner hat. Apple unterstützt seit jeher "Fat-Binaries" und die APIs abstrahieren die zugrundeliegende Plattform ohnehin.
Die wenigstens Entwickler (auch Spieleentwickler) programmieren wirklich hart am Silizium.. das ist für Systementwickler und Engine-Anbieter von Bedeutung, aber für Spielentwickler ist es letztlich völlig egal, ob deren Spiele letztlich von der IDE oder dem Tool für ARM, X86, MIPS oder sonstwas übersetzt wird. Die kümmern sich um Layout, Controller,... aber der Befehlssatz spielt da keine Rolle.
ich sehe nicht, dass Apple die Spiele-Kurve bekommt und dementsprechend wird sich auch die Zielgruppe der Appleplattformen anderweitig umsehen. Auf absehbare Zeit wird sich am Status Quo nichts ändern - weil das einzige, das sich geändert hat die Hardwareplattform ist... alles andere ist gleich.
Und da die Hardware nicht das ist, was den Spielesupport zurückhält sehe ich. nicht, welche Auswirkung die M-Prozessoren auf kurze oder mittelfristige Sicht haben sollen... Gesetzt dem Fall, dass sich da nicht wirklich neue Initiativen auftun bleibe ich bei meinem Punkt. Einzig die vielen Mobile-Games werden mit umziehen.. aber sowas wie Divinity 2 wird wohl weiter eher die Ausnahme bleiben...
zu den alten Zöpfen: so ist es aber nunmal. Apple hat da einfach 2 Punkte die für sie sprechen:
1. auf iPhone SO viele Nutzer, dass es sich deshalb schon für Entwickler lohnt ständig auf dem aktuellen Pfad zu bleiben und die Software aktuell zu halten
2. auf dem Mac zwar deutlich weniger Nutzer, dafür aber im Durchschnitt viel zählwilligere Nutzer. Es gibt auf dem Mac unheimlich gute und qualitativ hochwertige Software für den Endnutzer. Da wird einfach traditionell viel Geld für ausgegeben und deshalb wird Software für den Mac häufig sehr aktuell gehalten.
Da ist es die absolute Ausnahme, dass es ein Tool gibt, das über Jahre nicht angefasst wird und nach 2-3 Jahren überhaupt noch sinnvoll läuft.
Patches machen ja nur Sinn, wenn es sich finanziell rentiert. Ich habe unglaublich viele Spiele in meiner Bibliothek, die ich gekauft habe, aber nicht mehr spielen kann, weil vor 1-2 OS-Updates einfach die Kompatibilität weggefallen ist.. und jetzt kann ich diese Spiele einfach nicht mehr spielen.
Das ist eben auch ein Teufelskreis: ich habe wenig Anreize Games für macOS zu kaufen, weil diese häufig irgendwann nicht mehr funktionieren.. und der Entwickler hat wenig Anreiz Spiele für macOS zu verkaufen, weil er ständig hinterherpatchen muss und die Zielgruppe klein ist.
Wie gesagt - ich denke, dass die Argumente getauscht sind. Ich würde mich freuen, wenn es bezahlbare Gaming-Hardware für macOS gäbe. Ich würde mich freuen, wenn es für den Mac viele Spiele gäbe - aber seit Jahren tut sich aus den bereits ausgeführten Gründen sehr sehr wenig und es gibt nichts, was sich ankündigt, was daran etwas ändert.
Der M1 ist einfach nur eine Fortsetzung von all den Punkten, weshalb Spieleentwicklung für den Mac schwierig ist. Für Einzelprojekte geht das. Teilweise wird sich das auch rentieren - aber wenn man es genau betrachtet verspricht auch der M1 keine Vereinfachung.. bis der M1 der absolute Minimalstandard ist für die Plattform ist er wieder veraltet - und dann geht das Spiel mit abgeschnittenen Zöpfen wieder weiter.. so ist das bei der macOS Strategie nunmal...
Daredevil
2021-06-13, 10:39:46
Konsolen schneiden auch mit jeder Generation alte Zöpfe ab…?
Wieso sollte nur Apple dieses Problem treffen?
Einzig und alleine die letzten beiden Generationen sind interoperabel, weil es „pcs“ sind.
urpils
2021-06-13, 10:48:20
Konsolen schneiden auch mit jeder Generation alte Zöpfe ab…?
Wieso sollte nur Apple dieses Problem treffen?
Einzig und alleine die letzten beiden Generationen sind interoperabel, weil es „pcs“ sind.
weil Konsolen 5-8 Jahre (minimum) halten. Wen man Pech hat, aber man jedes Jahr bei Apple damit rechnen muss, dass die eigenen Technikgrundlage wegfällt.
Zudem: Konsolen sind ausschließlich für Spiele da. Da kann man abschätzen wer die eigene Zielgruppe ist. Bei Apple-Plattformen sieht das anders aus. Da gibt es einfach extrem viel Unsicherheit.
pixelguy
2021-06-13, 12:01:25
weil Konsolen 5-8 Jahre (minimum) halten.
iOS 15 unterstützt noch immer das iPhone 6s von 2015 :wink: (wobei da nicht jedes neue Game drauf laufen dürfte)
Aber im Grunde stimme ich euch beiden zu :biggrin:
Konsolen schneiden auch mit jeder Generation alte Zöpfe ab…?
Wieso sollte nur Apple dieses Problem treffen?
Einzig und alleine die letzten beiden Generationen sind interoperabel, weil es „pcs“ sind.
Dann hebt man die alte Konsole auf und zockt darauf einfach weiter. Zudem ist der Lebenzyklus bekannt. Und wie Du ja selbst sagst, ist es inzwischen sogar besser geworden mit der Interoperabilität (übrigens auch die PS2 & PS3 konnten anfangs noch Spiele der Vorgängerversion abspielen).
Apple räumt halt immer sehr konsequent auf, informiert aber die Nutzer nicht besonders gut, dass dabei auch Software auf der Strecke bleibt. Dass muss ich dann selber wissen, oder ich bekomme nach dem OS-Update den Hinweis "Software ist inkompatibel" - Danke! Zwar werden Entwickler gewöhnlich rechtzeitig auf API-Änderungen und ähnliches hingewiesen, aber ob und wann sie nachziehen steht halt in den Sternen. Da hilft dann nur abwarten und beobachten bevor man auf die nächste OS-Version springt.
Ich bin nach wie vor auf Mojave, weil mit Catalina die Kompatibilität einiger Spiele laut Steam nicht mehr gewährleistet ist.
smalM
2021-06-13, 12:35:36
weil Konsolen 5-8 Jahre (minimum) halten. Wen man Pech hat, aber man jedes Jahr bei Apple damit rechnen muss, dass die eigenen Technikgrundlage wegfällt.
Das ist Quark, sowas wird vorangekündigt. Unter anderem dafür gibt's die WWDC.
Daredevil
2021-06-13, 13:02:11
weil Konsolen 5-8 Jahre (minimum) halten. Wen man Pech hat, aber man jedes Jahr bei Apple damit rechnen muss, dass die eigenen Technikgrundlage wegfällt.
Wie kommst du denn dadrauf?
Ich kann mit einem iPad Air 2 von 2014 heute immer noch App Store Games von 2021 spielen und bekomme das neueste iPadOS.
Klar fehlen Features und die Grafik ist ebenso eingeschränkt ( Manche Apps funktionieren vielleicht wirklich nicht mehr ) , aber es sind nun einmal 7-8 Jahre Support, die aktuell gegeben sind.
Felixxz2
2021-06-13, 13:52:04
..............
Der M1 ist einfach nur eine Fortsetzung von all den Punkten, weshalb Spieleentwicklung für den Mac schwierig ist. Für Einzelprojekte geht das. Teilweise wird sich das auch rentieren - aber wenn man es genau betrachtet verspricht auch der M1 keine Vereinfachung.. bis der M1 der absolute Minimalstandard ist für die Plattform ist er wieder veraltet - und dann geht das Spiel mit abgeschnittenen Zöpfen wieder weiter.. so ist das bei der macOS Strategie nunmal...
Leider gehst du nicht wirklich ein auf das was ich gesagt habe. Ich spreche weiterhin NICHT von Divinity 2 oder dergleichen, sondern, nochmal, von einem Gamesmarkt der sich zwischen den aktuellen Welten befindet.
Das ist doch auch (nicht speziell auf Games bezogen) überhaupt der Grund wieso Apple den ganzen Spaß auch macht: ein einheitliches App Ökosystem. Da ist natürlich auch die ISA nicht egal, natürlich programmiert niemand Assembler am Mac. Jedoch macht es natürlich einen Riesenunterschied ob z.B. standardisierte GPU oder auch ML Fähigkeiten vorhanden sind. Und natürlich macht es auch beim Coden einen Unterschied ob ich einfach nur eine neue GUI bauen muss auf eine bestehende iOS App.
Darüber hinaus übertreibst du natürlich maßlos, wenn du so tust als ob Apple einfach mir nichts dir nichts den Schalter drückt und du bist raus. Da gibt es monatelange, teils (32 Bit) jahrelange Vorankündigungen und nochmal: man kann sie nur einmal abschneiden. Oder geht Apple demnächst auf 128 Bit, weils grade regnet? :freak:
Um die Diskussion hier aber mal abzukürzen: ich glaub wir sind uns doch eig. alle eh einig, dass Apple keine Hardcore Gaming Plattform starten wird, aber man eben in Zukunft auch auf den Entry Macs vernünftig harmlosere Titel oder Mobile+ Games zocken können wird. Oder auch Handy Games, es gibt sicher einige die jetzt ihre Clash of Blabla Dinger auch aufm Mac zocken.
urpils
2021-06-13, 15:31:15
iOS 15 unterstützt noch immer das iPhone 6s von 2015 :wink: (wobei da nicht jedes neue Game drauf laufen dürfte)
Aber im Grunde stimme ich euch beiden zu :biggrin:
da vermischen sich gerade 2 Aussagen glaube ich. Mit "abschneiden" meinte ich weniger alte Geräte, als alte Software/APIs.
Es ist natürlich vorbildlich, dass so alte Telefone noch mit Updates versorgt werden, aber es ist ja nicht ohne Grund so, dass bei jedem Major Update häufig Apps und Spiele nicht mehr laufen und erst aktualisiert werden müssen.
Das funktioniert deswegen gut, weil (wie ich sagte) die Plattform einfach so riesig ist, dass die Entwickler einen Anreiz haben ihre Software aktuell zu halten.
Klar gibt es immer mal wieder Spiele, die auch ohne Aktualisierung laufen - aber häufig genug geht das eben leider nicht. Das ist ein gewisses Risiko für die Entwickler.
Das ist Quark, sowas wird vorangekündigt. Unter anderem dafür gibt's die WWDC.
es wär natürlich schön, wenn man mit etwas gemäßigteren Aussagen gemeinsam diskutieren könnte ;)
Und Ganz so ist es nunmal nicht. Natürlich werden grundlegend große Wechsel angekündigt und sind planbar. Aber es kann nunmal einfach sein, dass Apple aus welchen Gründen auch immer bestimmte APIs nicht mehr anfasst, Bugs nicht behebt oder wie bei OpenGL ohne großes Tamtam einfach brach liegen lässt, bis es nicht mehr. Apple ist dabei einfach schmerzbefreit und schreitet sehr viel schneller voran, als z.B. Microsoft oder noch viel deutlicher die Konsolenplattformen, die grundsätzlich über ihre Laufzeit relativ stabil bleiben.
Wie kommst du denn dadrauf?
Ich kann mit einem iPad Air 2 von 2014 heute immer noch App Store Games von 2021 spielen und bekomme das neueste iPadOS.
Klar fehlen Features und die Grafik ist ebenso eingeschränkt ( Manche Apps funktionieren vielleicht wirklich nicht mehr ) , aber es sind nun einmal 7-8 Jahre Support, die aktuell gegeben sind.
wie oben schon geschrieben: es gibt Apps und Spiele die bei größeren iOS Updates nicht mehr funktionieren. Sei es, weil sie auf Custom-Code basieren, der bei API-Änderungen bricht, oder weil gewisse Vorraussetzungen nicht mehr erfüllt werden. Es gibt ja zig Spiele, die man heutzutage nicht mehr spielen kann, weil sie nie aktualisiert wurden.
Die Regel bei einigermaßen aktuellen Spielen ist ja, dass sie aktualisiert werden, was aber genau mein Argument ist: Apple ist vorbildlich, was das Fortentwickeln der Plattform betrifft. Das wird aber dadurch erkauft, dass ohne Anpassungen häufig Software nicht mehr (richtig) funktioniert. Mein Argument war ja nicht, dass Apple ständig Geräte zurücklässt, sondern dass die Plattform so schnell voran getrieben wird, dass man verhältnismäßig schnell alte Zöpfe abschneidet und die Software, die dabei nicht mitgeht teilweise nicht mehr funktioniert.
Leider gehst du nicht wirklich ein auf das was ich gesagt habe. Ich spreche weiterhin NICHT von Divinity 2 oder dergleichen, sondern, nochmal, von einem Gamesmarkt der sich zwischen den aktuellen Welten befindet.
(...)
Darüber hinaus übertreibst du natürlich maßlos, wenn du so tust als ob Apple einfach mir nichts dir nichts den Schalter drückt und du bist raus. Da gibt es monatelange, teils (32 Bit) jahrelange Vorankündigungen und nochmal: man kann sie nur einmal abschneiden. Oder geht Apple demnächst auf 128 Bit, weils grade regnet? :freak:
Um die Diskussion hier aber mal abzukürzen: ich glaub wir sind uns doch eig. alle eh einig, dass Apple keine Hardcore Gaming Plattform starten wird, aber man eben in Zukunft auch auf den Entry Macs vernünftig harmlosere Titel oder Mobile+ Games zocken können wird. Oder auch Handy Games, es gibt sicher einige die jetzt ihre Clash of Blabla Dinger auch aufm Mac zocken.
ich dachte eigentlich, dass ich drauf eingegangen bin. Apple macht recht wenig, um als "Spieleplattform" wie du sie beschreibst attraktiv zu sein. Das Einzige, was sie in diese Richtung machen ist das von mir genannte Apple Arcade, das genau diesen Gedanken (kauf ein Spiel - läuft auf allen Plattformen) umsetzt. Aber mehr als "Nische" scheint das nicht zu sein.
Apple schneidet ständig Funktionalität ab bei Major Releases. So bei neuen macOS z.B. wo on Device-Siri, verbesserte Kartenfuktionen,... nur auf den M1-Macs laufen, weil diese einen ML-Hardwarebeschleuniger haben im Gegensatz zu den Intel-Pendants.
Es kann durchaus sein, dass M2 und M3 und was auch immer da in Zukunft kommt neue Hardwarefunktionen bekommt, die in 2-3-4 Jahren bedeuten, dass gewisse Features (die auch Spielerelevant sein können) nur für die aktuellen Geräte verfügbar sind.
Das ist ja in sich betrachtet auch nicht schlimm, aber es ist eben das genaue Gegenteil von dem, was man sich unter einer verlässlichen und planbaren Spieleplattform wie z.B. einer Xbox oder Playstation vorstellt.
Natürlich spricht nix dagegen, dass aufgrund der trivialen Portierungsmöglichkeiten vermehrt Mobile-Games auf den Macs landen.. aber das ist jetzt nicht gerade das, was ich mir als "Spieleplatform" vorstelle, von der wir hier ggf. reden. Diese zusätzliche Monetarisierungsoption wird vielleicht mitgenommen - wird aber nicht bedeuten, dass sich da eine relevante Spieleplattform entwickelt...
Aber wie dem auch sei. Die Zukunft wird es zeigen. Ich sehe nur nicht, wo da mehr als ein "ist eine billige Möglichkeit Massensoftware noch weiter auszurollen" herunterfällt am Ende...
Blediator16
2021-06-13, 17:34:09
iOS 15 unterstützt noch immer das iPhone 6s von 2015 :wink: (wobei da nicht jedes neue Game drauf laufen dürfte)
Aber im Grunde stimme ich euch beiden zu :biggrin:
Hat sich das mal geändert oder ist bei Apple IOS Support dann mit Abstrichen? IOS 15, aber X Features nicht verfügbar, weil zu alt. Bei Android bekommt man entweder alles oder nichts.
davidzo
2021-06-13, 17:41:39
Von allen Anwendungen sind doch gerade Spiele die bei denen am wenigsten auf legacy Hardware und Software support wert gelegt wird. In der Spielentwicklung gehört der Wechsel von Frameworks, SDKs, Tools, Engines zum täglich brot. Da nimmt man immer gerne mit wenn es eine neuere, coolere Software gibt. Metal, Swift und Co sind ziemlich advanced, für mobile Entwickler ist das der shit. Weiß nicht wieso es da ein problem sein sollte Spiele mit zu entwickeln?
Und tatsächlich ist im mobile Kontext Apple eher die "stable platform" im Vergleich zu Android und Co, mit wesentlich konservativeren Releases und Fokus auf Kompatibilität und Performance statt features, da muss ich meinen Vorrednern zustimmen.
Neben den wohl derzeit potentesten Ultramobile GPUs und CPUs gibt es aber noch einen anderen hardware-Aspekt der dafür spricht. Durch die Tiefenkamera und Apples sehr fortgeschrittenen Libraries dazu sind ipad und iphones die wohl leistungsfähigste Plattform für augmented Reality. Dazu die vielen Sensoren die man auslesen kann ggf. sogar die apple watch etc.
Ich würde also nicht nur klassisches gaming erwarten, sondern schon eher was in richtung Nintendo wii mit physischem engagement etc. Dazu auch viel edutainment Spiele, das passt einfach zu Apples Denke und Woke Mums und Dads geben für sowas eher Geld aus selbst wenn sie ihr Kid eigentlich nicht vor dem Bildschirm sehen wollen (aber solange das Bildung ist ist alles gut).
Daredevil
2021-06-13, 17:53:16
„ Es gibt ja zig Spiele, die man heutzutage nicht mehr spielen kann, weil sie nie aktualisiert wurden.“
Kannst du mir 10 Stück nennen? :<
Ich kenne sie nicht.
Gibts da ne Liste, oder woher hast du das?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.