Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple
urpils
2021-06-13, 18:27:32
„ Es gibt ja zig Spiele, die man heutzutage nicht mehr spielen kann, weil sie nie aktualisiert wurden.“
Kannst du mir 10 Stück nennen? :<
Ich kenne sie nicht.
Gibts da ne Liste, oder woher hast du das?
das sind jetzt nur Spiele, die ich auf meinen Account habe, die nicht mehr funktionieren:
Let's Golf
Asphalt 5
Dragon's Lair (hab ich gekauft - müsst eich neu kaufen, weil es jetzt nur noch die "30th Anniversary" Version gibt
Epic Citadel
Mr. Runner
Scott Pilgrim
Pilgrim's Punch-Out
Rage HD
Lego Harry Potter Years 1-4
Cut the Rope: Holiday Gift
RjDj
N.O.V.A. - Near Orbit Vanguard Alliance
Burn the Rope
usw usw... da kommen allein bei mir bestimm (überschlagen) 30-40-50 Spiele zusammen.
ob das Jetzt gute Spiele sind oder nicht sei mal dahin gestellt - aber ich hab sie gekauft und sie gehen nicht mehr.
Ob es dazu eine Onlineliste gibt weiß ich aber nicht.
smalM
2021-06-13, 18:31:23
es wär natürlich schön, wenn man mit etwas gemäßigteren Aussagen gemeinsam diskutieren könnte ;)
Und Ganz so ist es nunmal nicht. Natürlich werden grundlegend große Wechsel angekündigt und sind planbar. Aber es kann nunmal einfach sein, dass Apple aus welchen Gründen auch immer bestimmte APIs nicht mehr anfasst, Bugs nicht behebt oder wie bei OpenGL ohne großes Tamtam einfach brach liegen lässt, bis es nicht mehr. Apple ist dabei einfach schmerzbefreit und schreitet sehr viel schneller voran, als z.B. Microsoft oder noch viel deutlicher die Konsolenplattformen, die grundsätzlich über ihre Laufzeit relativ stabil bleiben.
Auf der Grundlage Deiner Aussage hier läßt sich prima diskutieren. Wenn Du sie gleich so getroffen hättest, wäre meine Reaktion nicht so rüde ausgefallen, also sorry dafür.
Man muß die Vorgehensweise Apples nicht gutheißen, aber man darf sie ruhig so darstellen, wie denn wirklich ist.
urpils
2021-06-13, 18:54:21
Auf der Grundlage Deiner Aussage hier läßt sich prima diskutieren. Wenn Du sie gleich so getroffen hättest, wäre meine Reaktion nicht so rüde ausgefallen, also sorry dafür.
Man muß die Vorgehensweise Apples nicht gutheißen, aber man darf sie ruhig so darstellen, wie denn wirklich ist.
da stimme ich dir ja absolut zu. Ich bevorzuge das Vorgehen von Apple für mich, dennoch (wie ich oben geschrieben habe) heißt das auch, dass ich unheimlich viele Spiele am Mac sowie für iOS gekauft habe, die ich einfach nicht mehr spielen kann. Das ist dann schon ein bissen ärgerlich, auch wenn mir die Abwägung unterm Strich dennoch lieber ist.
Zossel
2021-06-13, 20:01:34
da stimme ich dir ja absolut zu. Ich bevorzuge das Vorgehen von Apple für mich, dennoch (wie ich oben geschrieben habe) heißt das auch, dass ich unheimlich viele Spiele am Mac sowie für iOS gekauft habe, die ich einfach nicht mehr spielen kann. Das ist dann schon ein bissen ärgerlich, auch wenn mir die Abwägung unterm Strich dennoch lieber ist.
Stockholm-Syndrom? (https://de.wikipedia.org/wiki/Stockholm-Syndrom)
Nachträgliche Begründungstendenz? (https://de.wikipedia.org/wiki/Nachtr%C3%A4gliche_Begr%C3%BCndungstendenz)
urpils
2021-06-13, 20:38:54
Stockholm-Syndrom? (https://de.wikipedia.org/wiki/Stockholm-Syndrom)
Nachträgliche Begründungstendenz? (https://de.wikipedia.org/wiki/Nachtr%C3%A4gliche_Begr%C3%BCndungstendenz)
Weißt du Zosselchen. Nur weil jemand andere Prioritäten setzt, muss man dem noch keine kognitiven Fehlschlüsse andichten.
Mir bieten das Apple Gesamtsystem einfach das beste Paket für mich. Dass da nicht alles 100% ist, ist ja wohl klar. Aber da ich die Alternative für mich unbefriedigend und schlechter finde, heißt das ja wohl, dass manche Entscheidungen von Apple nicht so furchtbar sein können ;)
Und die Entscheidung alte Zöpfe abzuschneiden, um etwas Besseres anbieten zu können, als Konsequenz hat, dass ich alte Spiele nicht mehr spielen kann, dann akzeptiere ich das eben.
Wäre die Alternative ein schlechteres System, dann verzichte ich halt auf Legacy. Kannst du nicht verstehen, hm? :)
Zossel
2021-06-13, 21:45:46
Und die Entscheidung alte Zöpfe abzuschneiden, um etwas Besseres anbieten zu können, als Konsequenz hat, dass ich alte Spiele nicht mehr spielen kann, dann akzeptiere ich das eben.
Genau diese Kausalität stelle ich in Frage. Andere Hersteller schaffen das ohne Nachteile, welche zwingenden technischen Gründen gab es bei welcher Umstellung alte Schnittstellen nicht mehr zu implementieren?
amdfanuwe
2021-06-14, 00:55:44
Fehlende Sicherheit in altem Kram.
TheAntitheist
2021-06-14, 01:47:37
Fehlende Sicherheit in altem Kram.
hätten sie doch in eine VM packen können
Zossel
2021-06-14, 06:53:59
Fehlende Sicherheit in altem Kram.
D.h. Bei Apple gibt oder gab es mehrfach Schnittstellen die hinsichtlich Sicherheit broken by design sind?
CrazyIvan
2021-06-14, 09:23:29
@Zossel
Ganz generell reduziert das "Abschneiden alter Zöpfe" die Komplexität von Software. Das wiederum reduziert die notwendigen Codepfade, Tests und Checks. Das wiederum erhöht die Performance.
Darüber hinaus reduziert es Fehlerpotenzial. Das wiederum reduziert den Aufwand für Unit-Tests und andere QS-Maßnahmen. Das und die Komplexitätsreduzierung an sich erhöht das Entwicklungstempo. Das wiederum erhöht den technischen Fortschritt in Bezug auf Funktionalität, Performance und alles weitere. Ich hoffe, Du kannst die Argumentationskette nachvollziehen. Komplexitätsreduzierung ist eines der wichtigsten Ziele in der Softwareentwicklung und durch nichts zu ersetzen.
davidzo
2021-06-14, 10:27:08
Genau diese Kausalität stelle ich in Frage. Andere Hersteller schaffen das ohne Nachteile, welche zwingenden technischen Gründen gab es bei welcher Umstellung alte Schnittstellen nicht mehr zu implementieren?
Andere OS Hersteller schaffen das nicht. Windows 10 ist ein inkohärente schleimige Masse mit legacyBrocken von win2K, xp, 7 und 8 in einer stinkenden Kachelsauce.
Android schafft ja nichtmal 2 Jahre alte Devices noch mit updates zu versorgen, geschweige denn pünktliche fixes zu bieten.
Ja, Apple ist da sicher auch nicht Fehlerfrei, aber viele von uns hier haben den Vergleich weil sie windows, android, chromeOS auf der arbeit nutzen müssen oder zum zocken einen Zweitrechner haben. Das mal im Gegensatz zu den Theoretikern hier die einfach gegen Apple wettern weil sie die Produkte nie ausprobiert haben und daher den Anspruch nicht verstehen. Das Paket ist trotzdem noch so gut dass man über die Fehler die Apple macht hinwegsieht, Bzw, am besten eben nicht gleich die neuesten releases benutzt (ich bin noch auf mojave, solange es patches gibt wieso sollte ich upgraden?).
Btw, bei der Software bin ich 99% zufrieden, Hardware war viel schlimmer. Die Hardware von Apple war für mich von 2016 bis 2020 gestorben, bis nun die M1 Macs herauskamen. Ein M2 Pro Gerät mit Magsafe, Cardreader, USB und TB könnte ich mir tatsächlich wieder vorstellen.
CrazyIvan
2021-06-14, 10:35:23
Andere OS Hersteller schaffen das nicht. Windows 10 ist ein inkohärente schleimige Masse mit legacyBrocken von win2K, xp, 7 und 8 in einer stinkenden Kachelsauce.
Android schafft ja nichtmal 2 Jahre alte Devices noch mit updates zu versorgen, geschweige denn pünktliche fixes zu bieten.
Ja, Apple ist da sicher auch nicht Fehlerfrei, aber viele von uns hier haben den Vergleich weil sie windows, android, chromeOS auf der arbeit nutzen müssen oder zum zocken einen Zweitrechner haben. Das mal im Gegensatz zu den Theoretikern hier die einfach gegen Apple wettern weil sie die Produkte nie ausprobiert haben und daher den Anspruch nicht verstehen. Das Paket ist trotzdem noch so gut dass man über die Fehler die Apple macht hinwegsieht, Bzw, am besten eben nicht gleich die neuesten releases benutzt (ich bin noch auf mojave, solange es patches gibt wieso sollte ich upgraden?).
Btw, bei der Software bin ich 99% zufrieden, Hardware war viel schlimmer. Die Hardware von Apple war für mich von 2016 bis 2020 gestorben, bis nun die M1 Macs herauskamen. Ein M2 Pro Gerät mit Magsafe, Cardreader, USB und TB könnte ich mir tatsächlich wieder vorstellen.
QFT
Zossel
2021-06-14, 17:17:09
Andere OS Hersteller schaffen das nicht. Windows 10 ist ein inkohärente schleimige Masse mit legacyBrocken von win2K, xp, 7 und 8 in einer stinkenden Kachelsauce.
Android schafft ja nichtmal 2 Jahre alte Devices noch mit updates zu versorgen, geschweige denn pünktliche fixes zu bieten.
Ja, Apple ist da sicher auch nicht Fehlerfrei, aber viele von uns hier haben den Vergleich weil sie windows, android, chromeOS auf der arbeit nutzen müssen oder zum zocken einen Zweitrechner haben. Das mal im Gegensatz zu den Theoretikern hier die einfach gegen Apple wettern weil sie die Produkte nie ausprobiert haben und daher den Anspruch nicht verstehen. Das Paket ist trotzdem noch so gut dass man über die Fehler die Apple macht hinwegsieht, Bzw, am besten eben nicht gleich die neuesten releases benutzt (ich bin noch auf mojave, solange es patches gibt wieso sollte ich upgraden?).
Ich muß ein Iphone auf der Arbeit nutzen und das Ding ist einfach nur komplett umständlich. Letztendlich sind diese ganzen Smartphones ab Werk Sondermüll, aber dank Neuromarketing und Skinner-Box Design fällt das nicht sonderlich auf.
Ansonsten wirkt der Text wie ein Beispiel meiner beiden Wikipedialinks.
BTW: Hat Apple eigentlich den BSD-Kernel mittlerweile komplett entrümpelt?
pixelguy
2021-06-14, 17:51:18
Ich muß ein Iphone auf der Arbeit nutzen und das Ding ist einfach nur komplett umständlich.
Wieso?
Zossel
2021-06-14, 19:21:59
Wieso?
- Der Legacy Knopf unten in der Mitte unterbricht jedes Mal den Flow der Bedienung.
- Das Ding kann man nicht laden wenn ein Headset drinsteckt.
- Bedienelemente sind nicht klar von Anzeigen zu unterscheiden.
- Ohne Itunes kriegt man keine Files von der Karre runter.
- Die USB-Schnitte kommt nicht als Standard CDC-Ethernet hoch.
w0mbat
2021-06-14, 20:10:42
- Der Knopf ist genial, du nutzt ihn nur falsch
- Hä? Wer nutzt 2021 noch kabeögebundene Headsets?
- Sind sie
- Sowas macht man mit airdrop
- wut?
robbitop
2021-06-14, 20:18:33
Seit 2017 haben die Flaggschiff iPhones gar keinen Knopf mehr.
Kabel und Dateien kopieren und Kabel für Kopfhörer und Aufladen in Zeiten von Cloud, Airdrop, induktives Laden, Gigabit Wifi, AptX Bluetooth etc. Schon irgendwie ein wenig aus den 2000ern entrückt.
Zossel
2021-06-14, 23:05:46
Seit 2017 haben die Flaggschiff iPhones gar keinen Knopf mehr.
Kabel und Dateien kopieren und Kabel für Kopfhörer und Aufladen in Zeiten von Cloud, Airdrop, induktives Laden, Gigabit Wifi, AptX Bluetooth etc. Schon irgendwie ein wenig aus den 2000ern entrückt.
Das gibt es alles nicht auf Arbeit und welchen ROI hätte das wenn es das geben würde?
Halten die Funkstöpsel überhaupt Arbeitstage durchtelefonieren durch, und nach wie viel Monaten kann man die Dinger wegwerfen weil die Akkus in den Dingern durch sind?
Und mit Schrecken denke ich noch an einen Case mit Apple zurück als es um einen nachgewiesenen Bug ging der die Integration von diesen Dingern in eine Enterprise Umgebung verhindert hat. Das Zeug ist eben kein Werkzeug sondern Hipster-Lifestyle-Spielzeug was nach kurzer Zeit wieder entsorgt werden muß weil wieder irgentwas nicht funktioniert weil man wieder das neue Lifestyle-Hipster-Verfahren nutzen soll.
BTW: Andere fiese Schweinebugs habe ich schon bei allen möglichen Marktführern gefunden, aber so arrogant und unwillig wie Apple war bisher keine andere Firma. Besonders geil war das der Apple-Typ am Anfang als ich die Logs, Tracefiles, etc. gezeigt habe, er ziemlich einsichtig war das es Apple Problem ist, diese Einsicht aber plötzlich verschwand, wahrscheinlich weil der Apple Typ neue Order von oben bekommen hat. Und feste Eskalationsverfahren gibt es wohl bei Apple nicht. Das ist einfach nur total schlecht und unbrauchbar.
Felixxz2
2021-06-14, 23:21:26
Klar und der Markt besteht nur aus komplett verblödeten Marketingopfern, die anscheinend auch in allen Fortune 500 Unternehmen dafür gesorgt haben, dass diese „Lifestyle-Hipster“ iPhones zum Standardhandy in allen großen Firmen wurden :freak:
Zossel
2021-06-14, 23:46:15
Klar und der Markt besteht nur aus komplett verblödeten Marketingopfern, die anscheinend auch in allen Fortune 500 Unternehmen dafür gesorgt haben, dass diese „Lifestyle-Hipster“ iPhones zum Standardhandy in allen großen Firmen wurden :freak:
Je mehr in irgendwelchen obskuren Rankings die Firmen weiter oben stehen, je mehr irgentwelche Produkte im "richtigen" Gartner Quadranten stehen und je mehr Marktführer der Laden ist desto schlechter die Produkte und der Support.
Felixxz2
2021-06-15, 00:17:48
Ach ja, wenn die andern alle Deppen sind ist die Welt so einfach….btw Fortune 500 - ganz obskures Ranking: nach UMSATZ. :freak:
Zossel
2021-06-15, 07:00:22
Ach ja, wenn die andern alle Deppen sind ist die Welt so einfach….btw Fortune 500 - ganz obskures Ranking: nach UMSATZ. :freak:
Nur hilft der Verweis auf vermeintlich erfolgreiche oder tolle Firmen leider nicht wenn man Probleme mit Apple Produkten hat.
Irgendwie ist das auch so ein typischer Reflex wenn man Probleme mit Apple-Produkten hat dann von Aktienkursen, Umsatz, Gewinn, etc. zugefaselt zu werden. Als wenn man reicher und schöner würde wenn man Apple kauft.
=Floi=
2021-06-16, 15:13:45
- Ohne Itunes kriegt man keine Files von der Karre runter.
- Die USB-Schnitte kommt nicht als Standard CDC-Ethernet hoch.
Das mit dem usb ist sicherlich auch wieder der sicherheit geschuldet.
Das mit den files und dem generellen dateihandling ist noch immer der größte schwachpunkt.
https://www.acronis.com/de-de/products/files/
Leider nur für unternehmen.
Ich denke du hast einen speziellen businesscase und hier könnte man auch darüber nachdenken, die daten auf nem NAS zu hosten.
Ich finde, dann sollte man auch android betrachten, weil ein stock android viel zu viele daten sammelt und trackt.
Julius
2021-06-16, 15:32:51
Eigener Nextcloud Server und man ist einiger Maße Glücklich mit IOS und Datenübertragen.
SMB geht auch fast ok. Ab und zu geht es bei mir nicht. Unbekannter Fehler....
Könnte alles noch besser sein. Aber richtig schlimm ist es nicht mehr.
Zossel
2021-06-16, 17:28:42
Das mit dem usb ist sicherlich auch wieder der sicherheit geschuldet.
Irgendwas mit Sicherheit ist ist die billigste aller Ausreden wenn man irgentwas nicht geschissen bekommt. Insbesondere da WLAN wesentlich mehr potenzielle Angriffsvektoren hat.
Ich finde, dann sollte man auch android betrachten, weil ein stock android viel zu viele daten sammelt und trackt.
Wie ich bereits geschrieben habe: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12706939&postcount=5013
Letztendlich sind diese ganzen Smartphones ab Werk Sondermüll, aber dank Neuromarketing und Skinner-Box Design fällt das nicht sonderlich auf.
=Floi=
2021-06-16, 20:19:40
Du willst dir eh nicht helfen lassen.
Felixxz2
2021-06-17, 10:53:42
USB ist natürlich der gefährlichste Angriffsvektor, wenn man das Gerät besitzt. Deshalb bei Apple auch standardmäßig mit Code geschützt.
Platos
2021-06-21, 11:36:33
https://www.maclife.de/news/leak-erscheinungsdatum-macbook-pro-mac-mini-m1x-verraten-100119370.html
Also soll nun ein Macbook Pro mit M1X im Oktober/November launchen (laut diesem "Leak"/Gerücht)
(Aus meiner Sicht war das von Anfang an klar, Sommer hätte mich sehr erstaunt).
Weiss nicht, ob das hier schon gepostet wurde.
Zossel
2021-06-21, 20:00:01
USB ist natürlich der gefährlichste Angriffsvektor, wenn man das Gerät besitzt. Deshalb bei Apple auch standardmäßig mit Code geschützt.
Insbesondere die ganzen Gadget-Treiber sind bei Linux schon mal ziemlich unangenehm aufgefallen. CDC-Ethernet sollte allerdings fast nur aus Glue-Code bestehen.
CDC braucht es auch an anderen Stellen und "Frameworks" für Eth-Schnitten sollten auch schon da sein.
smalM
2021-06-22, 23:35:23
Also soll nun ein Macbook Pro mit M1X im Oktober/November launchen (laut diesem "Leak"/Gerücht)
(Aus meiner Sicht war das von Anfang an klar, Sommer hätte mich sehr erstaunt).
Apple wird die beiden neuen MacBook Pro bringen, wann immer sie denken, daß die Liefersituation es zuläßt. Virtueller Event und fertig.
Ich glaube eher nicht, daß sie nur eines der Modelle vorstellen würden, wenn das andere wegen Lieferengpässen nicht auf den Markt kommen könnte.
Felixxz2
2021-07-12, 23:32:49
Gibts aktuelle Infos? Bin so dermaßen heiß auf die Dinger 🔥
Könnte eig bei Apple auch 3D Cache kommen?
Zossel
2021-07-13, 07:34:08
Bock und Gärtner:
https://www.derstandard.at/story/2000128141926/apple-droht-britischen-markt-wegen-milliardenschweren-patentstreits-zu-verlassen
ChaosTM
2021-07-13, 07:54:29
Der erst Kommentar passt perfekt. "Der größte Patent Troll hat seinen Meister gefunden.
Apple wollte sich mal die Barren Form mit runden Ecken patentieren lassen. ;)
Heimatsuchender
2021-07-13, 10:06:43
Bock und Gärtner:
https://www.derstandard.at/story/2000128141926/apple-droht-britischen-markt-wegen-milliardenschweren-patentstreits-zu-verlassen
Oh. Apple ist involviert. Generieren wir doch schnell ein paar Klicks. Hätte man auch einen Artikel veröffentlicht, wenn es nicht Apple wäre? Oder anders gesagt: Nokia zieht in mindestens 4 Ländern gegen Oppo vor Gericht. Wegen Patentverletzung. Da liest man so gut wie nirgendwo was darüber.
Felixxz2
2021-07-13, 10:23:17
Gibts aktuelle Infos?
Ich sehe: nein :freak:
smalM
2021-07-13, 14:17:48
@Felixxz2
Gerüchte:
Das MacBook Pro mit dem M1X soll nun doch nur 32GB RAM ermöglichen statt 64GB. Mehr Neues gibt die Gerüchteküche nicht wirklich her.
3D-Cache:
Im Prinzip ja. Die Technik SoIC ist von TSMC und allen Kunden zugänglich. Aber die Frage ist, wozu?
mboeller
2021-07-14, 13:25:35
ich denke der Link passt hier rein, weil es in diesem Thread viele Diskussionen X86<->ARM gab:
https://chipsandcheese.com/2021/07/13/arm-or-x86-isa-doesnt-matter/
summary: X86 oder ARM ... schxxx-Egal. :)
smalM
2021-07-14, 14:49:05
"Conclusion: Implementation Matters, not ISA"
Ich halte den Schluß für falsch.
X86 und ARM sind eben nicht nur ISAs, man muß ISA und die dazugehörige Microarchitektur ganzheitlich betrachten.
Die ISA spielt sehr wohl eine Rolle, sie dirigiert, wie die Microarchitektur zu implementieren ist, daß die ISA auch abgearbeitet werden kann.
Wenn Keller sagt, "RISC-V [...] has got all the right features, it has got the right top eight instructions that you actually need to optimize for, and it doesn’t have too much junk", dann ist es genau das. Der Core-Entwickler wird durch RISC-V nicht bereits im vornhinein in eine bestimmte Richtung dirigiert.
Keller liebt Neues und ist durch Altes schnell gelangweilt, das sollte man bei seinen Aussagen nicht vergessen... :wink:
mboeller
2021-07-14, 14:52:27
du solltest den Artikel erst mal lesen und nicht gleich nach 5 Zeilen aufhören
davidzo
2021-07-14, 15:04:53
Und man muss bei Jim auch ein wenig zwischen den Zeilen lesen.
In dem Interview aus dem das Zitat stammt lässt er sich darüber aus dass ein breiter RISC Decoder mit fixed instruction length für denselben Durchsatz zwar viel weniger Transistoren kostet, als bei variable instruction length / x86, aber vom Durchsatz nicht besser sein muss solange man bei x86/variable instruction einen micro-op cache hat und gute branch prediction.
Er sagt das fällt bei großen CPUs im Transistorbudget nicht mehr groß auf und die Schwachstellen lägen bei diesen CPUs ohnehin eher bei den caches (data locality).
Damit hat er noch nichts über Power gesagt, was im Datacenterbereich mit großen Acceleratoren, Rambudget, storage, interconnect sowieso schnell untergeht.
Gleichzeitig ist dieses "Unterscheidet sich nicht groß" und "kostet zwar mehr Transistoren aber ist vernachlässigbar" aber auch ein indirectes Eingeständnis gewisser kleiner Vorteile von RISC.
Da sein Interview um Accelerator im Datacentersegment ging, deswegen auch seine Risc-V Empfehlung (weil man da keine legacy software braucht), würde ich die Aussagen nicht gleich generalisieren. Ginge es um mobile CPUs für den Client Markt hätten wir vielleicht etwas ganz anderes gehört was die ISA-Auswahl angeht.
In short, there’s no meaningful difference between RISC/ARM and CISC/x86 as far as performance is concerned.
Selten so überspezifische Dementi gehört. "As far as performance" ;D
Kostet halt nur Power und Area :D
Es ist ja auch kein Zufall dass bei einer area und power-zentrischen x86 Implementierung wie Tremont in lakefield dann plötzlich der Decoder (power) als erstes vereinfacht wird und der Mopcache wegfällt (area).
3-10% der Power bei einer Haswell CPU. Das ist Imo schon viel, wenn man in Betracht zieht dass ein M1 8-core im Ipad pro insgesamt als SOC mit GPU und RAM nur ca. 10% einer Haswell Desktop CPU verbraucht.
BTW, der Artikel vergleicht auch weitgehend alte ARM Architekturen ohne Mopcache und und mit kleinem ROB und schwacher Branch prediction. Das ist nicht mehr der Fall, da sich im gegesatz zu intel nach Haswell bei ARM Coes viel mehr getan hat. Heutzutage kann man nämlich zusätzlich zu den breiteren und effizienteren Decodern ebenfalls einen MOP$, ROB, BTB etc. mit fetter branch prediction einsetzen, so wie es Apple ja auch macht und die dickeren ARM Neoverse V1 Cores.
Dann ist der bisherige x86 performance tweak durch mop-recycling auch wieder dahin...
Aber ja, NEON bzw. Floating Point on ARM is a Mess. Vor allem von der Softwareverbreitung ist NEON nicht annähernd mit SSE2, AVX compilern etc. vergleichbar. In Integerloads hat man gezeigt dass Neoverse Cores in ähnliche IPC regionen vorstoßen und dabei bessere PPA und PPW bieten. Aber bei FP Loads wie Video encoding ist es momentan nur Apple die richtig fette FP units mit optimierten compilern dafür einsetzen.
Es ist nur folgerichtig dass ARM kurzfristig noch den Neoverse V1 Core mit verdoppelter Floating Point Leistung bringt. Das bringt dann Parität auch mit highend FP workloads.
mboeller
2021-07-14, 15:29:19
Quotes
– Performance differences are generated by ISA-independent microarchitectural differences.
– The energy consumption is again ISA-independent.
A study done at the Federal University of Rio Grande do Sul [6] concluded that “for all test cases, the Atom-based cluster proved to be the best option for use of multi-level parallelism at low power processors.”
The two core designs that were being tested were ARM’s Cortex-A9 and Intel’s Bonnell core. Interestingly enough, Bonnell is an in-order design versus the Cortex-A9 which is an out of order design which should give both the performance and energy efficiency win to the Cortex-A9, yet in the tests that were used in the study Bonnell came out ahead in both categories.
In 2016, a study supported by the Helsinki Institute of Physics[2] looked at Intel’s Haswell microarchitecture. There, Hiriki et al. estimated that Haswell’s decoder consumed 3-10% of package power
Examining performance counters showed that Ampere executed 13.6x as many instructions as Zen 2 with Ubuntu 20.10’s stock ffmpeg, or 7.58x as many with bleeding-edge ffmpeg/libx265. Clearly Ampere executed simpler instructions and was able to do them faster, achieving 3.3 or 3.03 IPC respectively compared to Zen 2’s 2.35. Unfortunately, that does not compensate for having to crunch through an order of magnitude more instructions
davidzo
2021-07-14, 15:43:19
Quotes
Quotes
Zitat:
– Performance differences are generated by ISA-independent microarchitectural differences.
– The energy consumption is again ISA-independent.
die 3-10% alleine beim decoder sprechen ja eher dagegen das es "gar keine" Unterschiede gibt.
Die Auswirkungen der page size und damit die Aussoziativität und der Verbrauch des L1 und L2 caches haben sie gar nicht berücksichtigt.
Decode+L1+L2 verbraucht in dem beispiel (ivybridge, veraltet aber okay) zum Beispiel zusammen bereits mehr als 25% der Package Power.
Zitat:
A study done at the Federal University of Rio Grande do Sul [6] concluded that “for all test cases, the Atom-based cluster proved to be the best option for use of multi-level parallelism at low power processors.”
The two core designs that were being tested were ARM’s Cortex-A9 and Intel’s Bonnell core. Interestingly enough, Bonnell is an in-order design versus the Cortex-A9 which is an out of order design which should give both the performance and energy efficiency win to the Cortex-A9, yet in the tests that were used in the study Bonnell came out ahead in both categories.
Wow, sie vergleichen eine 10 Jahe alte in-order cpu mit einer 10 jahre alten first gen out of order implementation. ;D
Btw, 45nm Intel High-K vs 45nm Bulk ist auch nicht so fair imo...
Zitat:
In 2016, a study supported by the Helsinki Institute of Physics[2] looked at Intel’s Haswell microarchitecture. There, Hiriki et al. estimated that Haswell’s decoder consumed 3-10% of package power
Imo sind 3-10% bei haswell schon viele Watts:freak:. Haswell hatte auch nur 3x simple decoder +1 complex, nicht 4x+1 wie die aktuellen designs seit skylake.
Zitat:
Examining performance counters showed that Ampere executed 13.6x as many instructions as Zen 2 with Ubuntu 20.10’s stock ffmpeg, or 7.58x as many with bleeding-edge ffmpeg/libx265. Clearly Ampere executed simpler instructions and was able to do them faster, achieving 3.3 or 3.03 IPC respectively compared to Zen 2’s 2.35. Unfortunately, that does not compensate for having to crunch through an order of magnitude more instructions
Compiler, Libraries, FP width.
mocad_tom
2021-07-14, 17:37:08
Hier lest ihr es zuerst:
Der Apple M1 hat durch die eigenwillige Tags im L1-Cache zwar den Vorteil, dass die Cache Latency enorm klein ist.
Gleichzeitig haben sie aber die nested Virtualization verkackt.
Ein Snapdragon 8cx kann nested Virtualization und deshalb ist es möglich ein Windows 11 on Arm laufen zu lassen, in dem ein Hyper-V gestartet wird und in diesem Hyper-V läuft wieder ein Windows 11 on Arm und darin läuft ein virtualisiertes Android ohne Probleme.
In Parallels haben sie aber in Parallels 16.5 für Apple M1 das Feature "nested Virtualization" gerade weggekillt.
Ganz einfach, weil der Chip es Hardware-mäßig nicht hergibt.
Windows 10 on Arm kann man jetzt noch laufen lassen.
Aber später Windows 11 on Arm wird per default "Kern-Isolierung" aktiviert haben und dieses feature auch für das Android-Subsystem benötigen.
Auch das WSL2-Subsystem benötigt nested virtualization und das kann dann Parallels auf einem M1 nicht liefern.
Um die ganze Sache noch schlimmer zu machen:
Mit dem Sprung von macos Big Sur auf macos Monterey verlieren die Intel Macbooks einen Teil ihrer Virtualisierungsfähigkeiten.
Die werden einfach Ersatzlos weggeknipst.
Weil es der M1-Chip nicht kann, werden Features auf Intel-Geräten, die vorher funktioniert haben stillgelegt. (meine Empfehlung möglichst lange auf Big Sur bleiben)
Das wird ein großer Spaß.
Die Schnullis, die ein Macbook nur zum Surfen nutzen juckt das eh nicht.
smalM
2021-07-14, 18:23:38
du solltest den Artikel erst mal lesen und nicht gleich nach 5 Zeilen aufhören
Ich habe den Artikel gelesen, und weil ich ihn gelesen habe, halte ich den Schluß auch für falsch. Aber danke für den Hinweis....
Zitat:
A study done at the Federal University of Rio Grande do Sul [6] concluded that “for all test cases, the Atom-based cluster proved to be the best option for use of multi-level parallelism at low power processors.”
The two core designs that were being tested were ARM’s Cortex-A9 and Intel’s Bonnell core. Interestingly enough, Bonnell is an in-order design versus the Cortex-A9 which is an out of order design which should give both the performance and energy efficiency win to the Cortex-A9, yet in the tests that were used in the study Bonnell came out ahead in both categories.
Hier ein modernerer Vergleich zwischen X86-64 und ARM64.
SPEC2006 – A12 Vortex – i9-9900K Coffee Lake (https://twitter.com/andreif7/status/1307645405883183104/photo/1)
9900K = 0:49:42h & 93.479J (25,97Wh)
A12 = 1:04:50h & 15.950J (4,42Wh)
Ach die gute alte Zeit, als ein Core einer Intel-Desktop-CPU noch schneller war als ein Core in Apples Telefon-SoC :biggrin:
2phil4u
2021-07-14, 19:10:31
Ein bekannter Apple YouTube spricht die zunehmende Grafikpower von Apple Silicon an und geht davon aus, dass Apple versucht im gaming Markt eine grosse Rolle zu spielen.
Ich editiere es rein,
https://youtu.be/hYFOCOD3y8s
Sunrise
2021-07-14, 20:49:17
…Gleichzeitig haben sie aber die nested Virtualization verkackt.
Bewusste, politische Entscheidung mit dem Umstieg auf ARM.
Demogod
2021-07-14, 22:12:38
Aber das sind doch im Prinzip fast Server-Features oder sehe ich das falsch? Wie aufwändig wäre es denn das einzubauen?
Und es ist ja auch erst die erste Implementation auf Consumer-NICHT-HANDY-Ebene..
mocad_tom
2021-07-15, 15:43:27
> Bewusste Entscheidung beim Umstieg auf ARM
Parallels war schon häufig dieser Brückenschlag, um Sachen erledigen zu können, die es nur in der Windows-Welt gibt.
Win10 läuft zwar aktuell auf ARM, aber bei Win11 wird es dann aufhören, wenn man die Requirements forciert. Dann geht kein Parallels mehr.
> Ist doch eigentlich nur Server-Feature
Gibt viele Entwickler im Bekanntenkreis, die gerne ein Intel-Macbook haben, um darauf zu entwickeln.
Manche Entwicklungsumgebungen lassen sich auf Arm nicht mehr so aufsetzen, wie man es haben will.
Diese werden jetzt dazu gezwungen auf einem Linux-x86-Laptop zu entwickeln.
Oder:
In Win10 wurde WSL2 aufgesetzt (Windows Subsystem for Linux)
Microsoft empfängt diese heimatlosen Nomaden mit offenen Armen.
Felixxz2
2021-07-16, 15:29:34
Who cares?
Ob da jetzt paar Windows virtualisierende Ultranischler zu anderen Notebooks wechseln juckt doch weder Apple noch die Zielgruppe für die Silicon Geräte...
smalM
2021-07-16, 15:55:39
@mocad_tom
"Es gibt viel Entwickler im Bekanntenkreis" ist für Apples Entscheidungen völlig irrelevant.
Apple hat sich beim Wechsel auf ARM ziemlich deutlich dazu entschieden, alleine ihre eigenen Bedürfnisse als Grundlage der Entwicklung zu berücksichtigen:
Mac-X86-Software läuft unter Rosetta2 besser, wenn die CPU TMO beherrscht? Klar, wir bauen wir ein.
Windows braucht irgendwas, um nested Virtualization zu machen, MacOS braucht das aber nicht? Ach rutscht uns doch den Buckel runter.
CrazyIvan
2021-07-25, 06:51:28
@mocad_tom
"Es gibt viel Entwickler im Bekanntenkreis" ist für Apples Entscheidungen völlig irrelevant.
Apple hat sich beim Wechsel auf ARM ziemlich deutlich dazu entschieden, alleine ihre eigenen Bedürfnisse als Grundlage der Entwicklung zu berücksichtigen:
Mac-X86-Software läuft unter Rosetta2 besser, wenn die CPU TMO beherrscht? Klar, wir bauen wir ein.
Windows braucht irgendwas, um nested Virtualization zu machen, MacOS braucht das aber nicht? Ach rutscht uns doch den Buckel runter.
Exakt!
Muss man individuell nicht gutheißen, ist jedoch eine konsequente und richtige Entscheidung.
Zumal ich nicht glaube, dass Win11 dadurch unter Parallels gar nicht läuft. Man kann doch auch bei Wintel-Rechnern diverse Virtualisierungsfeatures im BIOS ausknipsen. Das wird sicher abgefangen und WSL quittiert womöglich mit einer Meldung den Dienst. Aber laufen wird Win11 bestimmt trotzdem.
smalM
2021-07-27, 22:57:27
81,43 Mrd.$ Umsatz
21,74 Mrd.$ Gewinn
8,24 Mrd.$ Macs
39,57 Mrd.$ iPhones
7,37 Mrd.$ iPads
17,49 Mrd.$ Services
8,78 Mrd.$ Sonstiges
Hmm, grob geschätzt, 6 Mio. Macs, 49 Mio. iPhones, 14 Mio. iPads.
Und alles in allem vielleicht 70 Mio. A- & M-SoCs?
basix
2021-07-27, 23:35:59
Pro Quartal
smalM
2021-07-28, 09:15:42
@basix
Du meinst die SoCs?
Im letzten Quartal. Üblicherweise ist das 2. Quartal Apples schwächstes.
basix
2021-07-28, 09:30:37
Ich wollte nur verdeutlich, dass das nicht pro Jahr ist ;) Die Stückzahlen pro Jahr sind einfach enorm (Auslastung TSMC, Vergleich zu AMD und Nvidia usw.).
Sunrise
2021-07-28, 09:53:04
Das sind sie in der Tat…
Angeblich hat man ja jetzt (CNBeta ( https://www.cnbeta.com/articles/tech/1157733.htm)) mehr als 100 Millionen A15 auf N5P bei TSMC bestellt.
smalM
2021-07-28, 17:09:43
Für dieses Jahr, also bis Ende 2021.
Ich würde den Bedarf für das erste Jahr (12 Monate) bei grob 150 Mio. Stück sehen und für die Lebensdauer des SoCs bei 250 Mio. bis 300 Mio., je nachdem, wie langfristig Apple den A15 nutzen möchte.
Hmm, wird es nicht eigentlich so langsam Zeit, im Spekulationsthread über den A15 selbst zu spekulieren? :wave2:
Platos
2021-08-09, 16:18:35
https://www.notebookcheck.com/Die-Massenproduktion-des-Apple-MacBook-Pro-mit-M1X-und-Mini-LED-Display-hat-begonnen.554235.0.html
Fertigung der neuen Macbook Pro soll begonnen haben und bis ende dieses Quartals (das sollte Ende Sep. sein?) sollen 5 Millionen Stück produziert worden sein.
Ein Launch Ende Sep. könnte also möglich sein bzw. sollte das Macbook Pro somit eig. allerspätestens im Verlauf vom Oktober launchen. Apple wird wohl kaum 5 Millionen von Ende Sep. bis Anfangs Nov. bunkern. Also spätestens Oktober.
spotz
2021-08-10, 01:44:54
5 Millionen? Das ist aber viel für eine Modellreihe. Wenn ich mich recht erinnere, verkaufte Apple in einem Quartal mal 6 Millionen Macs in einem Quartal - aber alle Mac Modellreihen insgesamt und nicht nur eine.
davidzo
2021-08-10, 07:45:39
5 Millionen? Das ist aber viel für eine Modellreihe. Wenn ich mich recht erinnere, verkaufte Apple in einem Quartal mal 6 Millionen Macs in einem Quartal - aber alle Mac Modellreihen insgesamt und nicht nur eine.
Das ist sehr zyklisch. Im Launchquartal kann das auch mal um 200% höher sein als im Schnitt, analog zum iphone Schweinezyklus.
Wenn die Geräte aber echt wieder alle gängigen Ports bekommen sollen, Magsafe, HDMI Thunderbolt, Typ A, Klinke, etc. - dann wird das ein No-brainer für alle Leute die bisher aus Abstinenz zu den Butterfly Modellen noch auf einem 2015er Haswell/Broadwell I7 ausgehalten haben. Und das sind sehr viele. Dazu musst du die Leute addieren die mit den Butterfly Modellen unzufrieden sind und das sind nochmal ein großer Teil der User. Viele werden das also direkt nach dem Launch bestellen wenn die Specs bestätigt sind.
Leistung sollte ja stimmen, wenn man den Rohdaten des M1x glaubt und da auch nur annähernd die 3fache GPU Leistung bei herum kommt. Immerhin sind es biszu 4x soviele Hardwareeinheiten (32C/ 4096 Alu vs 8c/ 1024 Alu).
2x GTX1650m ist 3060m Level. 3x 1650m ist 3070m/3080m Niveau. Wie zum Teufel will Apple sowas mit Bandbreite füttern?
Ich schätze wir dürfen uns freuen wenn am Ende bei 3x GPU Hardware so etwas wie 2x Leistung (=3060m) herauskommt.
Platos
2021-08-10, 09:54:58
@Davidzo: Ich kaufe mir zwar selbst keins, aber wenn, dann würde ich mir wohl genauso wie du, diese Anschlüsse wünschen. Ich glaube allerdings nicht, dass Apple mit der Klinke daherkommt. Schau dir do nur mal die iPhones an usw. Ich schliesse bei mir mittlerweile alle Handys ohne Klinke aus. Das hat gut funktioniert. Bei meinem nächsten Handy in vlt. 4-6 Jahren wird das vlt. nicht mehr gehen.
5 Millionen? Das ist aber viel für eine Modellreihe. Wenn ich mich recht erinnere, verkaufte Apple in einem Quartal mal 6 Millionen Macs in einem Quartal - aber alle Mac Modellreihen insgesamt und nicht nur eine.
Ich glaube das war auf das 14" & 16" zusammen bezogen. Aber ja, ist schon viel. Vor allem sollen dann im letzten Quartal angeblich nochmals 5 Millionen folgen. Vlt. habe ich das ja auch falsch verstanden (siehe Artikel, ihr könnt mich ja gerne korrigieren).
davidzo
2021-08-10, 10:14:30
@Davidzo: Ich kaufe mir zwar selbst keins, aber wenn, dann würde ich mir wohl genauso wie du, diese Anschlüsse wünschen. Ich glaube allerdings nicht, dass Apple mit der Klinke daherkommt.
Wie kommst du darauf dass Apple den Kopfhöreranschluss an Macbooks ausgerechnet in dieser Generation killt? Das ist etwas anderes als bei den iphones, bisher hatten alle Macbook eine Klinke, selbst das hauchdünne Macbook 12.
Die Gerüchte sprechen sogar von einem SD Card slot.
Ich glaube das war auf das 14" & 16" zusammen bezogen. Aber ja, ist schon viel. Vor allem sollen dann im letzten Quartal angeblich nochmals 5 Millionen folgen. Vlt. habe ich das ja auch falsch verstanden (siehe Artikel, ihr könnt mich ja gerne korrigieren).
Jo, 14+16 zusammen und vermutlich auch Q3+4 zusammen. Denn wenn man Apples übliche Backorders und Inventory-Aufbau anschaut sind die 5 Mio aus Q4 auch schon für Q1 mitgeplant, schließlich will man die Lager für H1 2022 noch vor dem chinesisch Neujahr voll haben.
5+5mio kommen schon hin, selbst wenn das nur 20-30% von den Macsales ausmachen soll. Q1 Hatte Apple 6,7Mio, Q2 6,1Mio und die stärksten Quartale sind in der Regel Q3 (back to school) und Q4 (Weihnachten, Jahresbudgetabschluss).
Dazu kommt der Launcheffekt, beim iphone z.B. verdoppelt das mal eben die Verkaufszahlen. Apple wird sich zudem ausrechnen ob man nicht von der Chipknappheit in der PC Branche profitieren kann. Bisher sind die M1 Geräte gut lieferbar - im Gegensatz zu vielen PC Modellen.
Angesichts von den 13Mio Einheiten im ersten Halbjahr würde ich schon mit 20-25Mio für das zweite rechnen, wegen der Launches und Weihnachten. 5Mio sind dann auch nur 20-25%...
Platos
2021-08-10, 11:12:35
Jo, 14+16 zusammen und vermutlich auch Q3+4 zusammen. Denn wenn man Apples übliche Backorders und Inventory-Aufbau anschaut sind die 5 Mio aus Q4 auch schon für Q1 mitgeplant, schließlich will man die Lager für H1 2022 noch vor dem chinesisch Neujahr voll haben.
5+5mio kommen schon hin, selbst wenn das nur 20-30% von den Macsales ausmachen soll. Q1 Hatte Apple 6,7Mio, Q2 6,1Mio und die stärksten Quartale sind in der Regel Q3 (back to school) und Q4 (Weihnachten, Jahresbudgetabschluss).
Dazu kommt der Launcheffekt, beim iphone z.B. verdoppelt das mal eben die Verkaufszahlen. Apple wird sich zudem ausrechnen ob man nicht von der Chipknappheit in der PC Branche profitieren kann. Bisher sind die M1 Geräte gut lieferbar - im Gegensatz zu vielen PC Modellen.
Angesichts von den 13Mio Einheiten im ersten Halbjahr würde ich schon mit 20-25Mio für das zweite rechnen, wegen der Launches und Weihnachten. 5Mio sind dann auch nur 20-25%...
Also im Artikel steht schon explizit für das 3. Quartal und nicht für beide:
Anfangs sollen 600.000 bis 800.000 Einheiten pro Monat gefertigt werden, über das gesamte dritte Quartal rechnet DigiTimes mit 5,18 Millionen produzierten MacBook Pro der nächsten Generation, im vierten Quartal schließlich mit 5,35 Millionen. Diese beiden neuen Modelle sollen im zweiten Halbjahr 2021 zwischen 20 und 30 Prozent von Apples gesamten Notebook-Verkäufen ausmachen.
Anfangs sind es mit 600k-800k noch weniger. aber das ist schon auf ein Quartal bezogen.
Daredevil
2021-08-10, 11:16:49
Natürlich wird Apple ihre Macs wie geschnitten Brot verkaufen.
In Kombination mit Parallels ( Wenn einem das reicht ) gibt es doch quasi keinen Grund, wieso man etwas anderes kaufen sollte, insofern die CPU/GPU noch schneller wird. Außer halt der Preis. :D Windows 11 steht ja auch irgendwie vor der Tür und ist ARM ready.
Der M1 ist ja "nur" ein iPad Chip im MacBook, wenn die wirklich mal die "richtige" Leistungsklasse ins MacBook bauen, schaut auch ein Zen3 mit APU relativ alt aus.
Das erwarte ich zumindest von der NextGen Apple Silicon bzw. vielleicht auch in einem MacMini.
Und wenn dir ihr Ding durchziehen mit Bunten Produkten ( iPhone/iPads/iMacs ), dann wird auch jeder Casual so ne Maschine haben wollen, völlig egal was sie leistet. Der Mac ist aktuell im Expansionskurs, das zeigten ja auch die letzten Zahlen.
konkretor
2021-08-10, 12:28:54
Mal sehen wie Apple das schmeckt
https://www.computerbase.de/2021-07/3-nm-chips-von-tsmc-intel-bekommt-zum-start-angeblich-mehr-als-apple/#update-2021-08-10T12:10
Platos
2021-08-10, 12:53:12
@ Daredevil: Wir wissen, dass du ein Fan von Apple bist ;)
Daredevil
2021-08-10, 12:57:07
Vor allem bin ich ein Fan von schneller/moderner Hardware. ;)
Wer die am Ende herstellt, ist mir primär mal egal.
spotz
2021-08-10, 13:06:08
Das ist sehr zyklisch. Im Launchquartal kann das auch mal um 200% höher sein als im Schnitt, analog zum iphone Schweinezyklus.
Wenn die Geräte aber echt wieder alle gängigen Ports bekommen sollen, Magsafe, HDMI Thunderbolt, Typ A, Klinke, etc. - dann wird das ein No-brainer für alle Leute die bisher aus Abstinenz zu den Butterfly Modellen noch auf einem 2015er Haswell/Broadwell I7 ausgehalten haben. Und das sind sehr viele. Dazu musst du die Leute addieren die mit den Butterfly Modellen unzufrieden sind und das sind nochmal ein großer Teil der User. Viele werden das also direkt nach dem Launch bestellen wenn die Specs bestätigt sind.
Leistung sollte ja stimmen, wenn man den Rohdaten des M1x glaubt und da auch nur annähernd die 3fache GPU Leistung bei herum kommt. Immerhin sind es biszu 4x soviele Hardwareeinheiten (32C/ 4096 Alu vs 8c/ 1024 Alu).
2x GTX1650m ist 3060m Level. 3x 1650m ist 3070m/3080m Niveau. Wie zum Teufel will Apple sowas mit Bandbreite füttern?
Ich schätze wir dürfen uns freuen wenn am Ende bei 3x GPU Hardware so etwas wie 2x Leistung (=3060m) herauskommt.
Kann man das so in 1650m rechnen? Meines Wissens nach kommt der M1 laut Wikipedia auf ungefähr 2,6 TFlop. Verdoppelt auf 5 TFlop wäre ungefähr Mobile 3050 Ti Niveau und bei 10 TFlop dann grob Mobile 3060 Niveau. Dualchannel LPDDR5 kommt so auf 80 bis 90 GB/s was mir als zu wenig erscheint. Mit Quadchannel käme man schon in die Nähe der Speicherbandbreite einer Mobile 3050 Ti mit 192 GB/s. Keine Ahnung ob ein Deferred Renderer ohne Raytracing mit der Speicherbandbreite effektiv arbeiten kann?
Daredevil
2021-08-10, 13:13:56
Ich glaube das kann man am Ende nicht so gut vergleichen mit anderen Architekturen, wenn der Speicher bei Apple wieder auf dem Package sitzt wie beim M1.
https://www.howtogeek.com/701804/how-unified-memory-speeds-up-apples-m1-arm-macs/
And it’s not just that every component can access the same memory at the same place. As Chris Mellor points out over at The Register, Apple is using high-bandwidth memory here. The memory is closer to the CPU (and other components), and it’s just faster to access than it would be to access a traditional RAM chip connected to a motherboard via a socket interface.
spotz
2021-08-10, 13:35:44
Ich glaube das kann man am Ende nicht so gut vergleichen mit anderen Architekturen, wenn der Speicher bei Apple wieder auf dem Package sitzt wie beim M1.
https://www.howtogeek.com/701804/how-unified-memory-speeds-up-apples-m1-arm-macs/
Guter Einwand. Mal so rein interessehalber: mir schwirrt gerade so im Kopf herum das ein Speicherhersteller (SK Hynix?) mal gesagt haben soll das DDR5 gegenüber DDR4 bei gleichem Takt so um 20 bis 25% effektiver sei. Kriege ich das durcheinander? Wenn es doch stimmt, hätte das Einfluss auf die Grafikleistung eines M1 mit DDR5 Speicher?
davidzo
2021-08-10, 18:15:09
Guter Einwand. Mal so rein interessehalber: mir schwirrt gerade so im Kopf herum das ein Speicherhersteller (SK Hynix?) mal gesagt haben soll das DDR5 gegenüber DDR4 bei gleichem Takt so um 20 bis 25% effektiver sei. Kriege ich das durcheinander? Wenn es doch stimmt, hätte das Einfluss auf die Grafikleistung eines M1 mit DDR5 Speicher?
Eigentlich nutzt niemand mehr die Taktratenangaben. DDR5-4800 hat 4.8Gbps, bzw. 48Gb/s per channel, also 50% mehr als DDR4-3200 mit 25,6gb/s. Erst DDR5 6400 ist eine volle verdopplung.
Btw, ein guter Vergleichspunkt x86 vs M1 ist imo der neue SoC im Valve Steam Deck. Da ist die Balance aus CPU, NPU und IGP vergleichbar und Van Gogh ist auch vom Speicherinterface, TDP, Powerbudget etc. keinesfalls unterlegen.
Dabei ist der AMD Chip zwar gut ein Jahr jünger, allerdings immer noch in N7, entsprechend weniger Transistoren bringt er auf den DIE. Die 15Mrd. Xtors des M1 sind schon fast 50% mehr als der Cezanne SoC (10,78Mrd). Van Gogh wird irgendwo in der Nähe von 6-7Mrd liegen, nur unwesentlich mehr als Lakefield (4.0 + base DIE).
Die CPUseite ist wohl ziemlich Einseitig pro M1, aber auch bei der GPU wird der M1 wohl noch 20-30% vorne liegen.
Performance per transistor ist dagegen besser als beim M1 und vermutlich auch jedem anderen Apple A-series SoC.
Wer hätte gedacht das AMD eine hohe Marge wichtiger ist als Apple? ;D
CrazyIvan
2021-08-10, 18:19:53
Natürlich wird Apple ihre Macs wie geschnitten Brot verkaufen.
In Kombination mit Parallels ( Wenn einem das reicht ) gibt es doch quasi keinen Grund, wieso man etwas anderes kaufen sollte, insofern die CPU/GPU noch schneller wird. Außer halt der Preis. :D Windows 11 steht ja auch irgendwie vor der Tür und ist ARM ready.
Der M1 ist ja "nur" ein iPad Chip im MacBook, wenn die wirklich mal die "richtige" Leistungsklasse ins MacBook bauen, schaut auch ein Zen3 mit APU relativ alt aus.
Das erwarte ich zumindest von der NextGen Apple Silicon bzw. vielleicht auch in einem MacMini.
Und wenn dir ihr Ding durchziehen mit Bunten Produkten ( iPhone/iPads/iMacs ), dann wird auch jeder Casual so ne Maschine haben wollen, völlig egal was sie leistet. Der Mac ist aktuell im Expansionskurs, das zeigten ja auch die letzten Zahlen.
Absolute Zustimmung. Das Apple Package ist hardwareseitig konkurrenzlos. Noch dazu sind die Preise "reasonable". Ich prophezeie ebenfalls einen starken Anstieg, auch unter ehemaligen Windows Nutzern - Windows365 und Parallels machts möglich.
KarlKastor
2021-08-10, 20:08:39
Wer hätte gedacht das AMD eine hohe Marge wichtiger ist als Apple? ;D
Apple verkauft eben keine CPUs sondern Endgeräte. Und bei dessen Preisen, ruinieren etwas höhere CPU kosten nicht die Marge.
Das ist ja auch der Grund, warum andere SoC Hersteller nicht all-in gehen, wie es Apple tut. Die brauchen günstig herzustellende SoC.
VooDoo7mx
2021-08-10, 20:56:01
Kann man das so in 1650m rechnen? Meines Wissens nach kommt der M1 laut Wikipedia auf ungefähr 2,6 TFlop. Verdoppelt auf 5 TFlop wäre ungefähr Mobile 3050 Ti Niveau und bei 10 TFlop dann grob Mobile 3060 Niveau. Dualchannel LPDDR5 kommt so auf 80 bis 90 GB/s was mir als zu wenig erscheint. Mit Quadchannel käme man schon in die Nähe der Speicherbandbreite einer Mobile 3050 Ti mit 192 GB/s. Keine Ahnung ob ein Deferred Renderer ohne Raytracing mit der Speicherbandbreite effektiv arbeiten kann?
Mit 2 64Bit LPDDR5 6400 ist man schon bei 102,4 GB/s
Mit 2 64Bit LPDDR5X 8533 ist man schon bei 137 GB/s
Die Frage ist nur ob der Apple M1 auch LPDDR5 "kann". Mit 4 LPDDR4X hätte man auch genug Bandbreite für 16 Core GPU
Und selbst beim Apple M1 ist man mit 68GB/s schon locker vor einer 1050 und erreicht fast die 1050Ti. Beide haben viel mehr Speicherbandbreite.
Was Bandbreite angeht ist die Apple GPU IP extrem effizient.
=Floi=
2021-08-12, 05:53:52
Es zwang die anderen hersteller ja niemand zB 48bit ram slots oder quad channel bei 1-4 modulen zu bringen.
Hier hat man auch gepennt und im grunde wieder viel performance liegen gelassen, weil lieber billiger langsamer ram verbaut werden soll.
robbitop
2021-08-12, 09:35:48
Was Bandbreite angeht ist die Apple GPU IP extrem effizient.
Das liegt in der Natur eines TBDR. Der Großteil des bandbreitenintensiven und hoch fragmentierten Traffics für den Framebuffer läuft bei TBDRs chipintern im Tilebuffer. Das spart eine Menge Bandbreite.
Die Tiles sind recht klein, so dass man nur sehr wenig stam braucht. Aber das geht prinzipbedingt nur, wenn die Geometrie der Gesamten Szene bereits sortiert vorliegt. Und genau das geht nur mit defered rendering.
Das können in der Form die IMRs von NV, Intel und AMD halt nicht.
mocad_tom
2021-08-12, 10:24:26
@CrazyIvan
Parallels kann man wahrscheinlich knicken, zumindest die jetzigen M1 (wie es eine Gen später aussieht weiß ich nicht).
Ich spiele aktuell selbst mit Win 11 in einer Hyper-V rum.
Win 10 komplett auf Fordermann gebügelt. Das Motherboard mit C246 Chipsatz, Xeon drin VT-D, VT-X, TPM2.0 alles angeschalten, bis auf die Zähne bewaffnet.
In Hyper-V mit -ExposeVirtualizationExtensions / nested Virtualization angeschaltet.
https://petri.com/how-to-enable-nested-virtualization-in-hyper-v
Und dennoch mag es mir nicht gelingen in der "heimischen Plattform (Win 10)" Win 11 so laufen zu lassen, dass es passt.
Ich kann zwar mittlerweile !im! Win 11 ein Hyper-V-Image starten und Kern-Isolierung anschalten, aber ich bekomme nicht den richtigen Mindest-Grafikstandard reingeimpft.
Ich müsste bis Win 10 21H2 (Win 10 Cobalt) warten (mit dem Unterbau wird meine Hardware das wuppen können).
Ich habe früher schon mit vgpu für Hyper-V rumgebastelt, weil ich eine Grafikkarte in einer virtualisierten Instanz haben wollte. Dies hat auch mittelprächtig funktioniert, dann wurde eine Sicherheitslücke entdeckt und es wurde ersatzlos gestrichen.
Die Komplexität liegt im Secure Boot und dann im virtualisieren der I/O-Geräte (IOMMU).
Apple steht da blank da.
https://kb.parallels.com/116239
"this feature is currently not supported in Parallels Desktop on Mac computers with Apple M1 chip" (zuletzt aktualisiert am 10 August 2021)
Die haben es im Silizium vermurkst.
Es schaut derzeit sogar danach aus, dass sie künstlich die Intel-Macs beschneiden, damit die M1-Macs nicht so schlecht dastehen.
In Parallels 17 ist der "Nested virtualization" Haken auch für Intel Modelle aktuell grau (haben sich schon einige drüber aufgeregt - evtl. hat sich da eine Änderung im OS Monterey negativ ausgewirkt und Parallels kann nichts dafür).
Microsoft ruft diese Anfangsbedigungen für Win 11 so auf.
Sie schrauben diese Hürde aktuell nur runter, damit man es überhaupt in Hyper-V laufen lassen kann.
Win 11 wird ein Virtualisierungsparadies. Stellt euch vor die GPU wird in das virtualisierte Android hineingereicht und die A.I. funktionen in Android können hardware beschleunigt werden (ein Traum bei QR-Code scanning oder OCR-Erkennung).
smalM
2021-08-12, 17:29:12
Apple hat das nicht in Silizium vermurkst, es interessiert sie einfach nur einen feuchten Kehricht, was Windows für irgend etwas braucht, was Apple nicht auch braucht.
mocad_tom
2021-08-12, 18:07:28
Schon
Nur gab es mal Entwickler, die haben gerne ein MacBook genommen und damit ihre Linux Sachen gemacht, weil vieles hier wie dort gut klappte.
Jetzt ist M1 ein besseres Spielzeug.
Bei vielem startest du heute (auf einem x86-Mac) einfach eine virtuelle Kiste und schubst dort deine requirements rein.
Microservices, java, Node.js, php, oauth, mongodb, mariadb, postgresql etc.
Du gehst zu Conferences und hast dort automatisch Apples gesehen.
Jetzt kaufst du einen M1 und darfst erstmal zusehen, ob deine Umgebung so noch läuft(nicht wegen x86 zu ARM (das auch), sondern weil Virtualisierung nicht läuft).
Nur mal zu dem angeblichen "Verkaufserfolg" von M1 - Lenovo hat auch Geräte verkauft wie blöd. Das war wegen Pandemie/Homeschooling einfach auf dem Tagesplan. Apple hat die x86 Geräte immer noch im Sortiment und sie werden nachgefragt.
Der Mac Pro wird jetzt nochmal mit einem IceLake-SP erneuert.
https://www.heise.de/news/Offenbar-Mac-Pro-mit-Ice-Lake-Xeon-W-3300-im-Anmarsch-6148253.html
Es wird gebaut, was die Leute nachfragen.
Mit Sicherheit wird Win11 auf dem Mac Pro mit Ice Lake laufen.
robbitop
2021-08-12, 18:50:30
Die Frage ist wie groß der relative Anteil der Käufer ist, für die das relevant ist.
CrazyIvan
2021-08-13, 05:40:25
IMHO verschwindend gering - wir reden da vielleicht von einigen Tausend weltweit.
prinz_valium_2
2021-08-13, 12:56:02
Das ganze Virtualisierung und VMs verlagert sich bald eh in die Cloud, deswegen wird es wirklich nur für die wenigsten Relevant sein.
Wird natürlich für Endnutzer dann schön teuer immer sowas zu Buchen anstatt einfach ein x86 Mac zu nutzen.
davidzo
2021-08-13, 14:26:24
Das ganze Virtualisierung und VMs verlagert sich bald eh in die Cloud, deswegen wird es wirklich nur für die wenigsten Relevant sein.
Wird natürlich für Endnutzer dann schön teuer immer sowas zu Buchen anstatt einfach ein x86 Mac zu nutzen.
Es gibt aber tatsächlich nur wenige Anwendungen die auf Windows angewiesen sind. Zumal man bei MacOS mit homebrew viel leichter die ganze Bandbreite an Open Source Software nativ zur Verfügung hat, was bei Windows noch Kopfschmerzen bedeutet.
Das Virtualisierungsproblem gibt es nur im Kopf von den Windowsnutzern die mit Umsteigen liebäugeln. Bei MacOS Nutzrn gibt es das nicht mehr. Ich war ja selber ein Windowsumsteiger vor ein paar Jahren und ich dachte ich könnte gar nicht ohne meine Windows Software. Mittlerweile starte ich parallels oder Bootcamp aber höchstens zweimal pro Halbjahr.
Bei mir ist das eher nur legacy kram den ich mittlerweile sehr selten brauche. Wenn es für die Arbeit wirklich wichtig wäre, dann könnte ich mir auch neue Lizenzen kaufen die MacOS kompatibel sind.
Meine Software ließe sich eh auch nicht gut über die Cloud virtualisieren und auch parallels ist eher schlecht als Recht. Ich nutze CAD Modelling tools und einige plugins und importformate werden nur von der Windowsversion unterstützt. Zudem habe ich teure renderer bei denen ich zu geizig bin die MacOS Version zu kaufen, also nutze ich noch uralte windowsversionen. Das ist alles so performancekritisch dass ich das nur unter bootcamp benutze. In Zukunft würde ich die einfach auf meine Gamingmaschine mit win10 umziehen und einen M1X Mac nur mit MacOS für alles andere benutzen. Meine CAD Modellingsoftware gibt es schließlich für MacOS, ebenso wie Affinity Designr, Lightroom und Final cut.
Da hätte ich eher ein problem wenn ich auf windows umsteigen müsste. Da gibt es einfach die ganze Profisoftware nicht. Was machst du ohne final Cut, was machst du ohne funktionierendes 10bit Farbmanagement, wie schlecht ist die affinity designer implementierung, etc.?
- Das Argument geht jedenfalls in beide Richtungen: Was machst du wenn eine wichtige Software nicht auf der Plattform verfügbar ist?
Badesalz
2021-08-13, 15:33:03
Wenn ich irgendwann einen Ersatz für FastStone Viewer finde, lass ich den Gedanken wenigstens wage zu.
Gegen die ganze Semipro und Pro Soft grad im kreativen/technischen Bereich ist nicht zu sagen. Alles top.
Wobei die Platform grad noch mehr als Windows an Vertrauen verliert. Auch wenn erst mit iOS. Das wird aber nicht so bleiben...
Sonst wie immer. Preise. 16GB statt 8GB beim M1 Imac, +230€. 512GB SSD statt 256GB, +230€. So ein 24" Teil also für uvp 1910€, und eine Netzwerkbuchse kostet noch +26€. Ich hab da irgendwie kein Spaß an solchen... Zusammenstellungen.
Felixxz2
2021-08-26, 14:08:11
https://www.cpu-monkey.com/en/compare_cpu-apple_m1x-vs-apple_m1
Realistisch?
Platos
2021-08-26, 14:28:01
Rein von den Specs hört sich das realistisch an, immerhin wird das Ding auch im 16" Macbook Pro verbaut und da muss das Ding mit Grafikkarten konkurrieren können. Aber woher kommen die Daten? Originalquelle ?
davidzo
2021-08-26, 17:31:16
https://www.cpu-monkey.com/en/compare_cpu-apple_m1x-vs-apple_m1
Realistisch?
Da sind schon einige Fehler. CPUleistung sieht realistisch aus, aber GPU nicht.
Die GPU soll mit 32Cores kommen (einzelne SKUs mit 16). Deshalb glaube ich auch nicht an LPDDR4X-4266. Das würde schon die 16C GPU arg in der Bandbreite limitieren. 2020 mag lpddr4x noch aktuell gewesen sein, in 2021 wäre aber lpddr5 die bessere wahl. Und dazu entweder ein breiteres SI, oder gar HBM direkt on package und dafür gar kein lpddr.
Auch möglich dass man den system level cache massiv erhöht und hiervon die GPU-Bandbreite profitiert so wie AMDs IF-cache.
Selbstverständlich würde das auch die CPU- und IO-Leistung positiv beeinflussen wenn die Speicherbandbreite oder der System level cache steigen.
Aber ohne Tricks oder massive Bandbreitenerhöhungen wird der M1X nicht kommen. Auf keinen Fall so wie beschrieben mit derselben Speicherkonfiguration wie der M1, also 2x 64bit Channels.
Alleine wegen der maximalen Speichermenge von 64gb müsste man schon auf 4x64bit gehen, selbst wenn man doppelt so große Stacks verwendet.
Man kann wieder von On Package Memory ausgehen wie beim M1, weil das Latenzen und die Effizienz verbessert und den bei Apple so wichtigen Formfaktor ermöglicht.
smalM
2021-08-26, 17:42:26
cpu-monkey hat keinerlei Quellen, das ist genauso geraten wie hier im Thread, nur mit weniger Ahnung von der Materie…
@davidzo
Die GPU scheint den SLC gar nicht zu brauchen, in Apples Darstellung der GPU-Speicherhierarchie kommt er nicht vor und im M1 ist er nur halb so groß wie im A14.
Wenn ich mich recht entsinne ist das dickste RAM-Paket in LPDDR4X 12GB groß bei einem 64b SI. Wenn Apple sich nicht speziell was anfertigen läßt, wird ein 256b SI maximal 48GB ansprechen können.
Mit LPDDR5 vergrößerte sich das auf 16GB bzw. 64GB, aber das dürfte es wohl erst mit der A15/M2 Generation geben.
Die CPUs benutzen den SLC nur zur Kommunikation mit den anderen Funktionsblöcken, der Speicherzugriff bei einem L2-Miss geht immer direkt ins RAM.
Fusion_Power
2021-08-26, 18:15:30
Wann gibts denn richtige Benchmarks, also wann bekommen die üblichen Verdächtigen die neue Apple CPU in die Hände? Ich hoffe doch nicht erst wenn die Geräte schon in den Regalen stehen, oder? :ugly:
davidzo
2021-08-26, 18:22:32
Wenn ich mich recht entsinne ist das dickste RAM-Paket in LPDDR4X 12GB groß bei einem 64b SI. Wenn Apple sich nicht speziell was anfertigen läßt, wird ein 256b SI maximal 48GB ansprechen können.
Thx fürs nachgucken. Da 64gb ja eines der sichersten gerüchte ist, weil man ja zumindest den Vorgänger mit Intel CPU erreichen muss wird es also ziemlich sicher kein LPDDR4x sein.
Mit LPDDR5 vergrößerte sich das auf 16GB bzw. 64GB, aber das dürfte es wohl erst mit der A15/M2 Generation geben.
Aber LPDDR5 ist doch seit über nem Jahr gut verfügbar, wo ist das Problem?
Alternativ gibt es auch GDDR6 oder normalen DDR5 (256bit) und letztendlich HBM2e. Wobei man für letzteren schon 4 Stacks bräuchte um über 64gb zu kommen (24GB pro Stack max). Das wäre exzessiv viel bandbreite selbst für eine 32C GPU. Wenn HBM, dann 2 Stack, aber das wären wieder 48gb max. Ich fürchte auch dass HBM von den Latenzen her schlechter zur CPU passt. Also doch eher DDR5?
Die CPUs benutzen den SLC nur zur Kommunikation mit den anderen Funktionsblöcken, der Speicherzugriff bei einem L2-Miss geht immer direkt ins RAM.
Interessant! Dann müsste Apple wohl eher den GPU L2 vergrößern um ein zu schwaches SI abzufedern.
Wann gibts denn richtige Benchmarks, also wann bekommen die üblichen Verdächtigen die neue Apple CPU in die Hände? Ich hoffe doch nicht erst wenn die Geräte schon in den Regalen stehen, oder?
Doch genau das. Benchmarks gibt es nur von Apple, zur Ankündigungsveranstaltung. "Echte" Benchmarks gibts erst nach Launch, wenn die Dinger im Handel sind. Apple kann sich das anscheinend leisten die Fachpresse an so kurzer Leine zu halten.
Fusion_Power
2021-08-26, 18:46:05
Doch genau das. Benchmarks gibt es nur von Apple, zur Ankündigungsveranstaltung. "Echte" Benchmarks gibts erst nach Launch, wenn die Dinger im Handel sind. Apple kann sich das anscheinend leisten die Fachpresse an so kurzer Leine zu halten.
Hat Apple echt alle "China Leaker" unter Kontrolle, die im Zweifel Chips und Geräte einfach schon in den Fabriken abgreifen? :freak:
Platos
2021-08-26, 18:54:26
Da sind schon einige Fehler. CPUleistung sieht realistisch aus, aber GPU nicht.
Die GPU soll mit 32Cores kommen (einzelne SKUs mit 16). Deshalb glaube ich auch nicht an LPDDR4X-4266. Das würde schon die 16C GPU arg in der Bandbreite limitieren. 2020 mag lpddr4x noch aktuell gewesen sein, in 2021 wäre aber lpddr5 die bessere wahl. Und dazu entweder ein breiteres SI, oder gar HBM direkt on package und dafür gar kein lpddr.
Auch möglich dass man den system level cache massiv erhöht und hiervon die GPU-Bandbreite profitiert so wie AMDs IF-cache.
Selbstverständlich würde das auch die CPU- und IO-Leistung positiv beeinflussen wenn die Speicherbandbreite oder der System level cache steigen.
Aber ohne Tricks oder massive Bandbreitenerhöhungen wird der M1X nicht kommen. Auf keinen Fall so wie beschrieben mit derselben Speicherkonfiguration wie der M1, also 2x 64bit Channels.
Alleine wegen der maximalen Speichermenge von 64gb müsste man schon auf 4x64bit gehen, selbst wenn man doppelt so große Stacks verwendet.
Man kann wieder von On Package Memory ausgehen wie beim M1, weil das Latenzen und die Effizienz verbessert und den bei Apple so wichtigen Formfaktor ermöglicht.
Stimmt, ich habe mir eig. nur die CPU und GPU Perfomance angeschaut... :D
Aber wenn CPU Monkey die Daten einfach "erfunden" hat, dann weiss ich auch nicht. Solche Plattformen wie diese, sind doch sowieso völlig nutzlose Webseiten. Ich werde ja nie verstehen, wie man die als Referenz für irgendwas nehmen kann.
Aber die neuen Macbooks kommen ja vermutlich schon Ende Sep. raus. Bis dahin sollen ja 5 Mio. Stück produziert worden sein und mehr will man vermutlich nicht bunkern, ohne zu verkaufen. Also tippe ich mal auf Ende Sep. bis Anfangs Okt. Es ist also nicht mehr gerade weit weg.
smalM
2021-08-26, 22:06:10
@Platos
Ich würde eher auf Mitte bis Ende Oktober tippen. Apple will bestimmt einen mehrwöchigen Abstand zur Einführung des neuen iPhones einhalten.
Aber LPDDR5 ist doch seit über nem Jahr gut verfügbar, wo ist das Problem?
Ich nehme schlicht an, daß das SI in der kompletten M1/A14-Generation allein auf LPDDR4 ausgelegt ist. Es entspräche nicht Apples Modus operandi, da zu wechseln - mehr ist von meiner Seite nicht dahinter.
Dafür hat Apple wenigstens eine der, wenn nicht die beste LPDDR4 Implementierung - ist doch auch was, oder….
Interessant! Dann müsste Apple wohl eher den GPU L2 vergrößern um ein zu schwaches SI abzufedern
Das Groß der Speichernutzung dürfte wegen TBDR lokal in den Cores in den zwei L1 (Shader Core/Texture Unit), dem Registersatz und dem Tile-Memory passieren (Größe unbekannt). Die skalieren ja direkt mit der Anzahl der Cores.
Problematischer ist der zentrale GPU-Cache, zu dem Apple außer seiner Existenz nichts bekannt gegeben hat.
Der zentrale Teil der GPU ist eh das spannendste an der ganzen Geschichte - wieviele Cores kann Apple da dran hängen, wie sehr müssen sie ihn aufpumpen für die kolportierten 32 Cores?
Ailuros
2021-08-30, 07:33:18
Das Groß der Speichernutzung dürfte wegen TBDR lokal in den Cores in den zwei L1 (Shader Core/Texture Unit), dem Registersatz und dem Tile-Memory passieren (Größe unbekannt). Die skalieren ja direkt mit der Anzahl der Cores.
Genau. Je hoeher die Anzahl der cores der GPU desto kleiner der Anteil eines frames der jeder core bearbeitet.
Da wo es momentan stockt mit Apple's GPUs sind extreme Grenzfaelle wie der synthetische Tessellations-test fuer den es afaik ueberhaupt keine Resultate gibt in der Kishonti-Datenbank. In "Car chase" wo es ein paar Tropfen an Tessellation in Szenen gibt, leisten die Apple GPU nach wie vor wie erwartet. IMHO wohl eher dank zu bescheidener Entwicklung der eigentlichen Basis-Architektur; Rogue war von Anfang an mit Geometrie problematisch.
https://gfxbench.com/result.jsp?benchmark=gfx50&test=683&order=median&base=gpu&ff-check-desktop=0
Problematischer ist der zentrale GPU-Cache, zu dem Apple außer seiner Existenz nichts bekannt gegeben hat.
Der zentrale Teil der GPU ist eh das spannendste an der ganzen Geschichte - wieviele Cores kann Apple da dran hängen, wie sehr müssen sie ihn aufpumpen für die kolportierten 32 Cores?
Ich glaube die 32 cores erst wenn ich sie sehe. Nicht dass es nicht theoretisch erreichbar ist, aber mir klingt das Ganze immer noch zu bombastisch.
KarlKastor
2021-08-30, 11:09:41
Wie wird Apple das Cache System lösen?
Den L2 Cache riesig aufblähen wird nicht ohne Latenz Penalty gehen.
Eigentlich kommt man an drei Cache Stufen nicht vorbei oder? Ein privater schneller Cache wird nötig, den L1 wird man wohl nicht noch größer machen.
smalM
2021-08-30, 11:19:51
@Ailuros
Über kurz oder lang werden wir von Apple eine GPU-Lösung sehen, die die Leistungsfähigkeit einer Radeon 5600M übersteigt. Es muß ja nicht monolithisch sein; wozu sonst hat TSMC denn die ganzen schönen INFO und CoWoS Techniken entwickelt? ;)
Ailuros
2021-08-30, 13:45:04
@Ailuros
Über kurz oder lang werden wir von Apple eine GPU-Lösung sehen, die die Leistungsfähigkeit einer Radeon 5600M übersteigt. Es muß ja nicht monolithisch sein; wozu sonst hat TSMC denn die ganzen schönen INFO und CoWoS Techniken entwickelt? ;)
Ausser Apple wendet das sustained performance Blatt mal wieder und sie takten diesmal um einiges bescheidener als im A14, kann ich schwer verstehen wieso man fuer die obrige Leistung (+/-) gerade 32 clusters/cores brauchen wuerde. Ausser Du meinst mit "uebersteigen" absolut blamieren wofuer dann wohl die 5600M wohl doch nicht dass eigentliche Ziel ist?
smalM
2021-08-30, 16:26:36
@Ailuros
Ich sehe die 5600M nur als Nahziel für das ASi MacBook Pro 16, da das in der Intel-Version die größte GPU ist und ich nicht annehme, daß Apple anstrebt, damit nur gleich zu ziehen. Ich vermute im Gegenteil, daß sie die Leistung einer 5600M deutlich übertreffen wollen.
@KarlKastor
Du weißt, daß wir gerade die GPU diskutieren?
KarlKastor
2021-08-30, 16:51:16
Das ist nicht zu übersehen, ich würde gerne den Cache der CPUs diskutieren. ;)
Der Ausgangspost enthält Informationen (oder eben falsche Informationen)zu allem.
smalM
2021-08-30, 18:09:00
@KarlKastor
Fein, ich wollte nur nicht ins Blaue hinein was schreiben, was Dich gar nicht interessiert ;)
Ich nehme an, Deine Frage bezieht sich auf eine CPU mit mehr als 4 Big-Cores?
Es gibt 2 Lösungsansätze:
- Ein zweites Big-Core-Cluster
- Das Big-Core-Cluster wird vergrößert
Im ersten Fall ergeben sich keine großartigen Änderungen und alle Last wird auf die Fabric gelegt.
Im zweiten Fall gibt es das Problem, daß wir keine Ahnung haben, wie das Cluster bisher organisiert ist. Wir wissen aber, daß der L2 segmentiert ist und ein Core nicht auf alle Segmente gleich schnell zugreifen kann. Es gibt also aus der Sicht eines Cores bereits so eine Art Hierarchie im L2 und ich denke, das dürften wir mit mehr Cores im Cluster in einer eventuell ausgeprägteren Form wieder so sehen. Ich glaube nicht, daß zwischen L1 und L2 noch eine Ebene eingezogen wird.
Apple könnte übrigens durchaus in einem ersten Schritt Lösung 1 und dann ab der nächsten Generation Lösung 2 bringen. Das erste Big.Little im A10 unterschied sich ja auch sehr stark von den nachfolgenden Generationen.
KarlKastor
2021-08-30, 22:48:19
Stimmt, die erste Möglichkeit hatte ich gar nicht in Betracht gezogen. Warum auch immer. Wäre dann ähnlich wie bei AMD. Kann man auch weit skalieren für 60 Kerne+.
Bei der zweiten Möglichkeit kann man den Cache doch aber auch nicht beliebig vergrößern ohne bei der Latenz Abstriche zu machen. Gerade wenn man von mehr als 8 Kerne für den Mac Pro denkt. Der Cache dürfte ja riesig werden.
Interessant ist ja, das eigentlich alle modernen Architekturen auf einen schnellen privaten L2 setzen und dann auf einen großen L3.
Fusion_Power
2021-08-30, 23:58:40
@Ailuros
Über kurz oder lang werden wir von Apple eine GPU-Lösung sehen, die die Leistungsfähigkeit einer Radeon 5600M übersteigt. Es muß ja nicht monolithisch sein; wozu sonst hat TSMC denn die ganzen schönen INFO und CoWoS Techniken entwickelt? ;)
Wie siehts denn spieletechnisch mit der aktuellen M1 GPU aus seit Erscheinen? Wurde die Unterstützung von Spielen besser oder gibts mehr ARM ports? Man hört halt generell wenig in Bezug auf Apple und Gaming.
Nützt ja die beste GPU nichts wenn die nur auf dem Papier Leistung bringt.
smalM
2021-08-31, 03:58:57
@Fusion_Power
Die drei Beweggründe Apples für eine leistungsfähige GPU sind GPGPU, GPGPU und GPGPU...
urpils
2021-08-31, 06:05:11
Wie siehts denn spieletechnisch mit der aktuellen M1 GPU aus seit Erscheinen? Wurde die Unterstützung von Spielen besser oder gibts mehr ARM ports? Man hört halt generell wenig in Bezug auf Apple und Gaming.
Nützt ja die beste GPU nichts wenn die nur auf dem Papier Leistung bringt.
passiert sehr wenig. In den letzten Jahren gibt es zumindest in meiner Rubble immer und immer weniger Macports - egal ob M1 oder X86... leider :/
Vor 3-5 Jahren hatte man zumindest bei fast jedem Indiegame die Chance, dass auch ein Mac Port rausfällt... mittlerweile ist selbst das kaum noch drin...
Felixxz2
2021-08-31, 08:46:48
@Fusion_Power
Die drei Beweggründe Apples für eine leistungsfähige GPU sind GPGPU, GPGPU und GPGPU...
Und das wird jetzt noch mehr werden. Die Möglichkeiten mit Apple Silicon sind da jetzt natürlich groß. Könnte mir zb Audio DSP auf der GPU Vorstellen.
Fusion_Power
2021-08-31, 16:13:25
@Fusion_Power
Die drei Beweggründe Apples für eine leistungsfähige GPU sind GPGPU, GPGPU und GPGPU...
Das ist sogar nachvollziehbar was die professionelle Zielgruppe von Apple angeht. Aber ich sehe da als alter Gamer halt noch so viel verschenktes Potential. Nicht dass Apple es nötig hätte aber sie könnten mit der entsprechenden Zielgruppe nochmals mehr Geräte verkaufen. Da müsste dann natürlich noch etwas mehr kommen als nur "Apple Arcade".
Platos
2021-08-31, 16:16:11
Apple und Gaming? Dafür müsste es mal support geben. Apple war noch nie für Gaming gedacht und wer würde schon wechseln? Selbst wenn alle Spiele ab morgen von Apple supported werden, das reicht nicht. Es müssten auch ältere Spiele supported werden.
Daredevil
2021-08-31, 19:10:30
Apple und Gaming passt fantastisch zusammen, sonst hätten sie ja kein Spieleabo fürn 5er im Monat. Allerdings ist die große Offensive in der Tat noch aus geblieben.
Wenn Apple will, kaufen sie sich in dem Markt auch noch ein. Entweder massiv und Marktbewegend ( Apple Music ), hochqualitativ auf die eigene Art ( AppleTV+ ) oder eben stiefmütterlich, wie eben halt Arcade.
Fusion_Power
2021-08-31, 19:25:31
Apple und Gaming? Dafür müsste es mal support geben. Apple war noch nie für Gaming gedacht und wer würde schon wechseln? Selbst wenn alle Spiele ab morgen von Apple supported werden, das reicht nicht. Es müssten auch ältere Spiele supported werden.
Naja, bisher war Gaming auf Apple (Desktop) Geräten auch ehr uninteressant, aber seit sie mit dem M1 auch eine theoretisch potente Grafikeinheit am Start hat, könnte sich diesbezüglich langsam etwas ändern. Aber dafür ist die Playerbase wohl nach wie vor zu klein, als das auch die Spielefirmen mit ziehen und plötzlich ARM für sich entdecken. Also abgesehen vom Mobile Segment natürlich.
Daredevil
2021-09-01, 00:25:51
Und PC Gamer sind auch sicherlich nicht der Fokus.
Mobile und "Gamepad" Gaming sind für ein viel breiteres Publikum zu haben, deswegen ja auch die Gerüchte des "Gaming" Apple TVs.
Man kann PS und XBOX Controller mittlerweile an jedem Gerät anschließen, seit ca. einem Jahr mit iOS 13 meine ich mal. Sowas wird ja nicht eingebaut, wenn es überhaupt nichts gäbe.
Pathless z.B. ist ja ein eher "aufwendiges" Spiel, Divinity ebenso.
Ich hoffe, dass Apple/Microsoft mit ihren ARM gedöns irgendwie eine Lösung finden.
Emuliert kann ein M1 ja schon schneller sein als ein Surface, wenn er Windows via Parallels emuliert und dort die ARM Version nutzt.
Geht ja alles, es braucht halt nur mehr Dampf oder eine bessere Umsetzung.
mwx7Vpa41UU
PS: Hier mal ne Liste an Spielen, sind schon ein paar.
https://applesilicongames.com/games
TheAntitheist
2021-09-01, 04:03:34
Apple und Gaming passt fantastisch zusammen, sonst hätten sie ja kein Spieleabo
Das heißt, wenn Miele Autos bauen würde, würde es phantastisch zusammen passen, weil sie es ja sonst nicht anbieten würde.
Daredevil
2021-09-01, 10:07:25
Apple ist der Hersteller mit dem meisten "Spielfähigen Geräten" und macht auch am meisten Umsatz mit ihren Store, wo Spiele verkauft werden.
Deswegen haben sie Apple Arcade und deswegen passt es auch zusammen, das weiter zu führen oder auszubauen.
Kein anderer Hersteller dieser Welt hat diese Macht.
smalM
2021-09-01, 11:14:37
@Daredevil
Es steht halt nur zu befürchten, daß in der Vorstellung von Apple „der Mac als Spieleplattform“ bedeutet „portiere iPad-Spiele nach MacOS“.
Sunrise
2021-09-03, 12:58:52
Interessantes Timing:
https://jobs.apple.com/en-us/details/200282667/risc-v-high-performance-programmer
Daredevil
2021-09-03, 14:38:09
@Daredevil
Es steht halt nur zu befürchten, daß in der Vorstellung von Apple „der Mac als Spieleplattform“ bedeutet „portiere iPad-Spiele nach MacOS“.
Was ist ein Computer? :D
Ist doch Latte, wo ich die Spiele spiele oder welche Plattform sie haben.
Die Switch hat auch einen Krüppel ARM SoC und ist in Verkaufszahlen die erfolgreichste. Jedes Kack AAA Spiel wurde für die Switch portiert ( Skyrim, Witcher, Diablo ect. ). Und dabei geht es nur um EINE Konsole.
Bei Apple würde man für jedes System Käufer finden, AppleTV, iPad, iPhone, iMac, MacMini, MacBook. Die Käuferschaft wäre ( theoretisch ) riesig.
Apple könnte genau diesen Weg gehen und hätten Technisch und finanziell mehr Möglichkeiten. Tun sie aber nicht, keine Ahnung wieso, weil Gaming = $$$.
smalM
2021-09-03, 19:45:07
Wenn es Latte wäre, gäbe es alle Spiele für die MacOS-Plattform mit 200 Mio. Macs. Stattdessen gibt es sie für die Switch mit einer 90 Mio. Basis.
bluey
2021-09-03, 22:01:47
Apple prellt halt die Entwickler. Das müssen AAA Entwickler sich nicht antun.
iamthebear
2021-09-03, 23:09:14
Interessant ist ja, das eigentlich alle modernen Architekturen auf einen schnellen privaten L2 setzen und dann auf einen großen L3.
Ich denke das liegt daran, dass Threads öfters einmal von Scheduler von einem Kern zum nächsten geschoben werden sobald sie einmal kurz für einen I/O Zugriff oder einen Lock pausieren.
Wird der Thread dann auf einem anderen Kern fortgesetzt, so fängt er beim L2 Cache sowieso wieder bei 0 an und muss sich seine Inhalte wieder aus dem L3 Cache holen.
Der L3 Cache hingegen ist von allen Kernen erreichbar.
Bei Alder Lake wurde der L2 Cache von 512KB auf 1.25MB (Desktop) bzw. 2MB (Server) erhöht.
Könnte es sein, dass Intel dies deswegen macht, da sie ja jetzt den Thread Director haben, der dem OS Scheduler vorschlagen kann die Threads doch bitte auf die Kerne zu plazieren, wo noch ihre Daten im L2 liegen?
Da Apple CPU und OS aus einer Hand anbieten können würde sich doch so etwas auch von Apple umsetzen lassen falls es sich bewährt.
Generell sehe ich im CPU Bereich das größte Hindernis darin, dass sämtliche Threadwechsel Operationen einfach viel zu viel Performance fressen als dass man wirklich im großen Stil über 100 Kerne hinaus parallelisieren könnte selbst wenn es die Anwendungen an sich unterstützen würden.
iamthebear
2021-09-03, 23:34:34
@Daredevil
Es steht halt nur zu befürchten, daß in der Vorstellung von Apple „der Mac als Spieleplattform“ bedeutet „portiere iPad-Spiele nach MacOS“.
Ich denke, dass generell der Markt der PC/Konsolenspiele ein anderer ist als der der Smartphone/Tabletspiele.
Wenn ich mir die größeren Mobilespiele ansehe, so ist es meistens ein relativ einfaches Spiel, das im F2P Modell oder um einen relativ geringen Preis vertrieben vertrieben wird und der Gewinn entsteht dann über die Masse der Spieler.
Währenddessen werden AAA Konsolen/PC Spiele relativ aufwändig erstellt, wo eine Menge Zeit/Geld in die Grafik bzw. die dadurch entstehenden Performanceprobleme fließt und die Verkaufspreise sind dann dementsprechend hoch, um das Geld wieder rein zu bringen.
Beide Konzepte passen gut für die jeweilige Plattform, scheitern aber regelmäßig auf der anderen.
Was das "ARM Gedöns" angeht, so scheitert dies bei Windows in erster Linie daran, dass Software in erster Linie nur in Binärform vertrieben wird. Wenn man nur eigenen Coded verwendet, so ist das kein großes Thema. Dann kompiliert man die Anwendung einfach für ARM und fertig.
Falls man allerdings fremden Code in Form von dlls nutzen muss, dann ist es mit der Kompatibilität schnell vorbei, da ein ARM Prozess keinen x86 Code aus einer dll laden kann. Klar man kann den ganzen x86 Prozess auf einer ARM CPU emulieren nur da wird man performancetechnisch immer hinten nach sein.
Bei Apple ist das anders. Hier sind Softwarehersteller ziemlich eng an Apple und deren Vorgaben gebunden. Auch gibt es mit Ausnahme vom Künstler/Grafikerbereich auch wenig größere Softwareprodukte, die für Apple Geräte entwickelt wurden.
Badesalz
2021-09-04, 00:06:52
Generell sehe ich im CPU Bereich das größte Hindernis darin, dass sämtliche Threadwechsel Operationen einfach viel zu viel Performance fressen als dass man wirklich im großen Stil über 100 Kerne hinaus parallelisieren könnte selbst wenn es die Anwendungen an sich unterstützen würden.Keineswegs. Wie kommst du drauf? Die Syncronisierung kostet das meiste der Zeit, die dann nicht auf die reine Berechnung draufgeht. (*)
Windows hat das mit dem unnützen thread-leap schon ausreichend brauchbar drauf. Der thread-director hilft nun mit die richtige Entscheidung zu treffen, wenns um big.little geht. Keine Raketenwissenschaft.
(*)
Was fehlt sind halt auch die Ideen wie man EINE Aufgabe auf all die Threads verteilen könnte. Seit zig über zig Jahren schon. Da ändert sich bisher nicht viel...
smalM
2021-09-04, 02:50:37
Da Apple CPU und OS aus einer Hand anbieten können würde sich doch so etwas auch von Apple umsetzen lassen falls es sich bewährt.
Apple hat seit dem A10 einen Hardware-Scheduler.
Badesalz
2021-09-04, 08:54:16
Da hat wohl wer geglaubt Intel hat mal eine eigene gute Idee... :usweet:
smalM
2021-09-08, 19:40:37
Bekommt die A15-/M2-Generation ARMv9?
Eigentlich spielt es erst einmal keine Rolle, ARMv8 ist definiert bis ARMv8.7-A und Apple kann davon implementieren, wozu immer sie lustig sind, inklusive SVE2.
Die Frage ist also eher, hat Apple mit Arm überhaupt eine ARMv9-Architekturlizenz abgeschlossen?
konkretor
2021-09-08, 20:21:32
RISC V is coming
https://www.golem.de/news/offene-befehlssatzarchitektur-ja-apple-wird-ein-risc-v-macbook-bringen-2109-159385.html
https://www.heise.de/news/ARM-Alternative-Apple-entwickelt-RISC-V-Hardware-6183047.html
basix
2021-09-08, 22:17:45
Hat mich gewundert, wieso die nicht früher damit angefangen haben. RISC-V ist lizenzfrei und kann bei entsprechend gutem Design sicher oben mitspielen. Mittelfristig bleiben sie sicher bei ARM, langfristig ist RISC-V sicher denkbar.
Ansonsten kann RISC-V auch in anderen Geräten wie Apple-TV zum Einsatz kommen.
smalM
2021-09-09, 12:09:11
RISC-V könnte überall zum Einsatz kommen, nämlich überall da, wo bisher winzige ARM-Cores sitzen, wie in NPU, GPU, SSD-Controller, Security-Enklave etc., also bspw. als Ersatz für den Chinook.
Badesalz
2021-09-09, 12:25:07
Warum nochmal behauptet Golem einfach mal "außerdem lässt sich die gleiche Performance tendenziell mit weniger Chipfläche und mehr Leistung pro Watt als bei ARM umsetzen"?
Auf was realem basiert diese These?
smalM
2021-09-09, 13:40:03
Von einer SiFive-Marketingfolie abgeschrieben? ;)
davidzo
2021-09-09, 13:47:23
Warum nochmal behauptet Golem einfach mal "außerdem lässt sich die gleiche Performance tendenziell mit weniger Chipfläche und mehr Leistung pro Watt als bei ARM umsetzen"?
Auf was realem basiert diese These?
Ich denke mal das basiert auf der Marketingaussage von Sifive zur U8 Serie. Das ist ja derzeit das einzige verfügbare High performance RISC-V Design (die chinesischen high performance Chips sind nicht frei verfügar).
Und Anandtech hat das mit einer pi mal Daumen Analyse quasi unabhängig bestätigt. Der U84 ist pro Core ähnlich groß wie ein Cortex A55, soll aber die Leistung eines fast dreimal so großen A72 erreichen.
Das deckt sich auch mit Jim Kellers Aussage dass Risc-V aktuell die Go-to µArch für ein high performance CPU-Design from scratch ist, weil es noch "early in the lifecycle of complexity" ist und damit nicht den ganzen Ballast an eher selten genutzten Instructions herumschleppt, sondern nur die Wesentlichen.
Badesalz
2021-09-09, 15:36:48
Hmm. Wozu fügt man denn solche Instruktionen hinzu, wenn nicht um die CPU schneller zu machen? =) Und warum ist Arm bereits so vorbelastet, daß es mit Risc-V schneller gehen sollte?
Muss man jetzt alle 10 Jahre KOMPLETT neue Architekturen entwickeln? :| Übrigens stecken in Mips, x86, Arm oder Power und Sparc, Patente deren Anzahl zusammen wohl vierstellig ist. Und trotzdem kann man effizientere und schnellere Risc-V entwickeln als Arm? Ich zweifle das nichtmal an, aber das sprengt grad irgendwie meine Vorstellungskraft :)
p.s.:
Rein technische Fragen. Unabhängig von den Vorteilen einer offenen Architektur wie Risc-V.
smalM
2021-09-09, 16:48:49
Aus Apples Sicht dürfte der Vorteil von RISC-V darin liegen, einen genau für eine Aufgabe zurechtgeschnitzten Core basteln zu können, inklusive angepaßter ISA. Sozusagen ein Core, der zu dumm ist überhaupt was anderes als die gestellte Aufgabe zu erledigen.
davidzo
2021-09-09, 19:24:37
Hmm. Wozu fügt man denn solche Instruktionen hinzu, wenn nicht um die CPU schneller zu machen? =) Und warum ist Arm bereits so vorbelastet, daß es mit Risc-V schneller gehen sollte?
Muss man jetzt alle 10 Jahre KOMPLETT neue Architekturen entwickeln? :| Übrigens stecken in Mips, x86, Arm oder Power und Sparc, Patente deren Anzahl zusammen wohl vierstellig ist. Und trotzdem kann man effizientere und schnellere Risc-V entwickeln als Arm? Ich zweifle das nichtmal an, aber das sprengt grad irgendwie meine Vorstellungskraft :)
p.s.:
Rein technische Fragen. Unabhängig von den Vorteilen einer offenen Architektur wie Risc-V.
Ich glaube du hast noch nie mit Ingenieuren an einem Projekt gearbeitet das Feature Creep hatte. Das Problem ist nicht dass die Features an sich schlecht sind, die sind meist echt gut und begründet. Das Problem ist dass man damit die Komplexität in einer Weise erhöhen kann, dass es niemanden mehr gibt der das Ganze überblickt (ist bei Chipdesign ohnehin der Fall) und damit auch die Fehleranzahl drastisch erhöht.
Im Worstcase fährt die ganze Entwicklung dadurch sogar gegen die Wand. Siehe Cannon Lake.
Das sind einige Gründe die dazu beigetragen haben dass Intel in den letzten Generationen soviele Fuckups hatte (Atom satabug, Skylake HT-bug, Cannonlake complete fuckup, Icelake Taktmauer, diverse Verschiebungen etc.) Die exponentiell steigende Komplexität und das historisch gewachsene, Generationenwechsel bei den Chip Architects, etc.
Die Wahrscheinlichkeit in gegebener Zeit und Manpower einen sehr guten Chip mit einer einfachen ISA zu bauen, als mit einer komplexeren ist einfach ungleich höher. Du hast die Zeit und den Fokus auf die Instruktionen zu optimieren die tatsächlich benutzt werden. Das ist am Ende häufig schneller und universeller Einsetzbar als wenn man jede Nischen instruction-set Erweiterung der letzten 30 Jahre mitnehmen und supporten muss.
In jedem Engineeringprojekt sind eine Reihe von Fuckups unterschiedlicher Schwere drin. Da stimmten dann die Annahmen nicht mit der Realität überein, oder man hat die Konsequenzen der Designentscheidung nicht überblickt. Weniger schlimm ist wenn Teile zu robust und unnötig teuer ausgelegt sind, schlimmer schon wenn erhöhter Verschleiß oder Performance bei draufgeht, katastrophal wenn Dinge teildeaktiviert werden müssen wie bei AMDs TLB-Bug, Intels Spectre-anfälligkeit oder gar zerstörerische wie der SATA Bug in Intels Atom-Linie.
Ein guter Chip hängt nicht nur mit guten Konzepten und Design zusammen, sondern auch mit guter Execution. Ingenieure brauchen einfach die Zeit und den Fokus um Bugs und Probleme auszubügeln und zu tweaken, da kann das Konzept noch so gut sein. Sieht man bei Fermi, die ersten Tapouts haben gar nicht funktioniert und erst mit einem halben Jahr Verspätung hatte man teildeaktivierte Chips bei extremem Energieverbrauch. Der Refresh GF110 dagegen war ein nahezu perfekter Chip mit viel niedrigerem Verbrauch, höherer Rohleistung, gutem yield, trotz extrem großem featureset im vergleich zu allm vorher dagewesenen.
Wenn du eine Komplexe ISA hast, dann fehlt dir möglicherweise die Zeit und der Überblick um im finalen "Polishing" die richtigen Schwerpunkte zu setzen. Das Polieren macht am Ende die Produkte so gut wie sie sind, Zen3, Maxwell+Pascal, R300, G80...
So when Arm first came out, it was a clean 32-bit computer. Compared to x86, it just looked way simpler and easier to build. Then they added a 16-bit mode and the IT (if then) instruction, which is awful. Then [they added] a weird floating-point vector extension set with overlays in a register file, and then 64-bit, which partly cleaned it up. There was some special stuff for security and booting, and so it has only got more complicated.
Now RISC-V shows up and it's the shiny new cousin, right? Because there's no legacy. It's actually an open instruction set architecture, and people build it in universities where they don’t have time or interest to add too much junk, like some architectures have. So relatively speaking, just because of its pedigree, and age, it's early in the life cycle of complexity. It's a pretty good instruction set, they did a fine job. So if I was just going to say if I want to build a computer really fast today, and I want it to go fast, RISC-V is the easiest one to choose. It’s the simplest one, it has got all the right features, it has got the right top eight instructions that you actually need to optimize for, and it doesn't have too much junk.
x86-64 was a fairly clean slate, but obviously it had to carry all the old baggage for this and that. They deprecated a lot of the old 16-bit modes. There's a whole bunch of gunk that disappeared, and sometimes if you're careful, you can say ‘I need to support this legacy, but it doesn't have to be performant, and I can isolate it from the rest’. You either emulate it or support it.
We used to build computers such that you had a front end, a fetch, a dispatch, an execute, a load store, an L2 cache. If you looked at the boundaries between them, you'd see 100 wires doing random things that were dependent on exactly what cycle or what phase of the clock it was. Now these interfaces tend to look less like instruction boundaries – if I send an instruction from here to there, now I have a protocol. So the computer inside doesn't look like a big mess of stuff connected together, it looks like eight computers hooked together that do different things. There’s a fetch computer and a dispatch computer, an execution computer, and a floating-point computer. If you do that properly, you can change the floating-point without touching anything else.
That's less of an instruction set thing – it’s more ‘what was your design principle when you build it’, and then how did you do it. The thing is, if you get to a problem, you could say ‘if I could just have these five wires between these two boxes, I could get rid of this problem’. But every time you do that, every time you violate the abstraction layer, you've created a problem for future Jim. I've done that so many times, and like if you solve it properly, it would still be clean, but at some point if you hack it a little bit, then that kills you over time.
https://www.anandtech.com/show/16762/an-anandtech-interview-with-jim-keller-laziest-person-at-tesla
CrazyIvan
2021-09-10, 10:07:42
@davidzo
+1
nichts weiter hinzuzufügen.
Badesalz
2021-09-10, 12:45:54
Ich glaube du hast noch nie mit Ingenieuren an einem Projekt gearbeitet das Feature Creep hatte. Das Problem ist nicht dass die Features an sich schlecht sind, die sind meist echt gut und begründet. Das Problem ist dass man damit die Komplexität in einer Weise erhöhen kann, dass es niemanden mehr gibt der das Ganze überblickt (ist bei Chipdesign ohnehin der Fall)Das scheint mir jetzt aber nicht wirklich anders zu sei als bei jedem C++ Projekt welches kompiliert >5MB hat...
Ich glaub mir fehlt da das Wissen und Überblick um einzuschätzen wie eine komplizierte x86 ISA dem Satabug beim Atom verursachen konnte usw. usw. Haben die neuzeitigen CPUs keine klare Funktionsblöcke mehr? Mir fällt es grad halt bisschen schwer eine Verbindung zwischen Atoms Dispatcher und seinem USB-Bug :|
Das ist für mich eher die Frage WIE man was bis zur Nullserie entwickelt und nicht WAS genau es ist. Wie so oft also real eher eine BWL Story und keine aus dem technischen Bereich.
Unendlich oft damit vorbelastet drängt sich bei mir wieder eine Autoanalogie auf :redface: wo der Risc-V der Caterham wäre und x86 die Golf GTI Klasse. Solange wie für Risc-V aktuell, das Wetter schön ist und man max. zu zweit los will, reizt das eine schon ziemlich. In den 1001 restlichen täglichen Fällen dreht sich die höhere Komplexität der Golf-Klasse immer mehr zu ihrem Vortiel um.
Caterham kann dann mit anderen Modellen kommen und sagen: Ist doch kein Thema. Das können wir auch und das geht auch und das könnten wir ebenfalls... Wieviel bleibt dann aber noch vom "Seven" über? Ja, wenn ich zum Vergleich immer nur 1km Straße mit einem Doppel-S bei 25° C Sonnenschein nehme, dann ist der Golf ein sinnloses vom Schwachsinn überflutetes Fahrzeug.
Wenn man Risc-V denkt und da hinwill wo Mips ist oder wo sich die mehr oder weniger embedded Arms taumeln, kann man das machen.
p.s.:
Die Frage nach den Patenten blieb irgendwie unbeachtet (?)
CrazyIvan
2021-09-10, 17:37:51
Zu Patenten: Ein nicht zu verachtender Teil ist lange ausgelaufen. x86 und ARM sind nun auch nicht mehr so taufrisch. Darüber hinaus sind Patente in dem Bereich so speziell, dass man mit leichten Variationen drum herum kommt. Und ein weiterer Aspekt ist, dass vieles einfach "Stand der Technik" ist. Und möglicherweise haben sich Intel, AMD und ARM auch in Teilen dazu bekannt, dass Risc-V diverse Dinge auf Fair Use Basis verwenden darf.
Das heißt nicht, dass auf dem Gebiet alles ganz einfach ist. Aber es scheint keine fundamentalen Hürden zu geben.
davidzo
2021-09-10, 22:28:37
Patente haben ja auch eher mit der Implementierung zutun. Und darum geht es bei der ISA ja noch gar nicht. Es lassen sich keine "Ideen" patentieren, sondern es geht immer um die praktische Anwendung. Wenn man sich mal nicht die Beschreibung und wenn vorhanden die Titelgrafik des patents anguckt, sondern direkt zu den Ansprüchen herunterscrollt, dann wundert man sich meist wie Anwendungspezifisch die Patente tatsächlich sind. Da steht dann eben nicht "Die Erfindung ist eine Instruktion die KI Berechnungen vereinfachen oder beschleunigen kann", sondern da steht dann immer "Ein Prozessor mit mindestens einer Floatingpointeinheit welche mindestens eine Matrix-Einheit umfasst, welche mindestens eine spezielle Instruktion beherrscht die Ki Berechnungen vereinfachen kann." Insofern ist immer nur die konkrete technische Anwendung in einem produkt schützbar und eher kein theoretisches Konstrukt wie eine ISA.
In der Beschreibung eines Patents wird immer der Stand der Technik aufgezählt, daher bekommt man schnell den falschen Eindruck der würde da mit geschützt werden. Das ist mitnichten der Fall, die Beschreibung hat rein gar keine Schutzwirkung und dient nur der Offenlegung und Dokumentation (ein verpflichtender Teil ohne den ein Patent nicht erteilt wird).
Das betrifft also weniger eine ISA, sondern viel mehr die Implementierung einer ISA-Funktion. Die großen Prozessorhersteller (Intel, AMD, Qualcomm, IBM, Apple, Mediatek, Imgtec, Nvidia etc.) haben alle einen großen Patentpool an Patenten zu konkreten Implementierungen und können damit theoretisch gegeneinander ins Feld ziehen. Meistens läuft da aber längst ein Cross Licensing Deal und die Anwälte verhandeln alle paar Jahre neu um den Wert.
CrazyIvan
2021-09-11, 00:34:11
@davidzo
+1
Mutual annihilation halt - kalter Krieg, nur eben auf Technik-Ebene.
Badesalz
2021-09-11, 01:02:29
Ok. Schön. Patente sind dann halbwegs durch. In dem letzten Beitrag war das aber nur ein kurzer "ps" ;)
smalM
2021-09-14, 19:51:44
A15 Bionic
Gleiche Konfiguration für CPU, GPU und NPU im iPhone + iPhone mini, 5-Core GPU für die Pros.
Nur 3 Fakten wurden genannt: 15 Mrd. Transistoren, 15,8 TOPS für die NPU und verdoppelter SLC (= 32MB).
Die CPU soll 50% schneller als der Wettbewerb sein, die GPU 30% bzw. 50%.
Platos
2021-09-14, 20:06:41
Welcher Prozess genau nutzt der A15? Irgend ein 5nm, aber welcher bzw. wie viel verbesserung durch den Prozess gibt es ? Und wie gross ist wohl der Chip? Denn der A14 hatte nur 11.8Milliarden Transistoren bei 5nm. Und so gut kann ein anderer 5nm Prozess nicht sein, so dass eig. nur noch ein grösserer Chip in Frage kommt.
smalM
2021-09-14, 20:11:40
N5P und das Die dürfte um die 110 qmm groß sein.
N5P soll ca. 4% effizienter als N5 ausfallen; kein Shrink — ich nehme aber an, daß das Design trotzdem einen Tuck dichter geworden ist, war bei N7/N7P auch so.
Ich hatte nur mit 14 Mrd. Transistoren gerechnet, der verdoppelte SLC kam überraschend, ebenso der deutliche Leistungszuwachs der NPU.
Platos
2021-09-14, 21:00:55
So wie ich Apple kenne, werden sie die erhöhten Kosten direkt weiter geben :freak: Haben ja nicht genug Marge ;D
CrazyIvan
2021-09-14, 21:46:40
Das Preisgefüge ist stabil geblieben. Dafür gibt es nun jedoch 128 statt 64GiByte zum Einstieg. Top End ist nun 1GiByte.
y33H@
2021-09-14, 22:13:44
N5P und das Die dürfte um die 110 qmm groß seinKein N4 um den fünften GPU-Core unterzubringen? Der SLC schrumpft durch N4 meinem Verständnis nach ja nicht (nur Shrink für Logik, nicht für SRAM).
smalM
2021-09-14, 23:19:13
Kein N4 um den fünften GPU-Core unterzubringen?
Ist N4 auch nur bereits in der Risk-Production? Ich habe dazu noch keine Meldung gesehen. HVM ist erst für 2022 vorgesehen.
=Floi=
2021-09-14, 23:36:22
Kein N4 um den fünften GPU-Core unterzubringen?
Der M1 hat dann 7 und 8 cores? Irgendwie wäre mal eine tabelle nicht schlecht. Sind die cpu cores nun die vom M1?
CrazyIvan
2021-09-15, 01:38:59
Das weiß man noch nicht. Die Präsentation war selbst für Apple Verhältnisse dürftig.
Nein, N4 ist es definitiv nicht. Apple hat explizit N5 genannt.
smalM
2021-09-15, 05:31:19
Maynard Handley: M1 Explainer
https://drive.google.com/file/d/1WrMYCZMnhsGP4o3H33ioAUKL_bjuJSPt/view
Leonidas
2021-09-15, 05:48:32
Apple CPU Gains grind to a Halt
https://semianalysis.substack.com/p/apple-cpu-gains-grind-to-a-halt-and
... ich würde es nicht ganz so dramatisch sehen, Zwischen-Generationen gibt es immer mal wieder. Außerdem verliert sich in dem Segment der Performance-Bedarf.
robbitop
2021-09-15, 07:53:22
Apple CPU Gains grind to a Halt
https://semianalysis.substack.com/p/apple-cpu-gains-grind-to-a-halt-and
... ich würde es nicht ganz so dramatisch sehen, Zwischen-Generationen gibt es immer mal wieder. Außerdem verliert sich in dem Segment der Performance-Bedarf.
Interessantes write-up. Wenn das wirklich wahr ist, dass über 100 senior CPU engineers Apple verlassen haben (um Nuvia und Rivos zu joinen), ist das schon wirklich hart.
CPU Teams sind nicht so riesig und man versucht eher die Besten und Talentiertesten zu vereinigen. Das kann schon ein herber Rückschlag sein.
Dass so viele Leute auf einen Schlag gehen ist unter guten Arbeitsbedingungen IMO eigentlich ungewöhnlich. Entsprechend muss man jetzt richtig Geld ausgeben, um neue Top Leute zu holen und Junge zu entwickeln und diese dann auch zu halten.
Sofern es wahr ist, dass es dieses Jahr keinen wirklich neuen Core gibt, ist das in Apples ARM Historie sehr ungewöhnlich und schon bemerkenswert.
y33H@
2021-09-15, 09:09:45
Nein, N4 ist es definitiv nicht. Apple hat explizit N5 genannt. Hab's nicht live gesehen, eigentlich Urlaub ^^
CrazyIvan
2021-09-15, 09:38:02
Me2 ;)
Aber in meinem Urlaub beschäftige ich mich halt gern mit Dingen Deiner Arbeit.
prinz_valium_2
2021-09-15, 17:11:14
So wie ich Apple kenne, werden sie die erhöhten Kosten direkt weiter geben :freak: Haben ja nicht genug Marge ;D
Die benutzten doch jetzt schon salvage chips im A15, wie beim M1 zum ersten mal.
Denke das reicht für die Marge (noch)
VooDoo7mx
2021-09-16, 00:24:57
Mal was interessantes zum A5 aus dem iPhone 13/Pro
Bei der iGPU scheint Apple einen weiteren SM hinzugefügt zu haben.
Somit hat der jetzt 640 statt 512 Shaker Cores. Im Geekbench Metal Benchmark ist der A15 sogar 55% schneller. Das kann aber nicht nur an den zusätzlichen Einheiten liegen. Ich glaub auch nicht das Apple all zu viel Takt dazugeben hat.
Es scheint das Apple wohl ordentlich die Arch aufgemöbelt zu haben.
Auch interessant: das normale iPhone bekommt einen Savage mit 4 SM und nur die 13 Pros die vollen SM.
Ich gehe da einfach mal davon aus das der M2 dann dann 10SM also 1280 Shader Cores bekommt zusammen mit den anderen Verbesserungen und LPDDR5 wird es im nächsten Macbook Air wieder deutlich mehr 3D Performance.
Daredevil
2021-09-16, 00:37:14
Das wäre wohl nen Sprung, wenn das 13pro 14000 Punkte macht. ^^
Aus meiner Datenbank:
Graphics:
iPhone XR: 4392pts
iPhone 11: 6303pts
iPhone 12: 9233pts
iPad 2018: 9310pts
iPad 2021: 20736pts ( M1 )
robbitop
2021-09-16, 08:38:47
Mir ist noch nicht so ganz klar, wozu man im Smartphone große Leistungssteigerungen in der 3D Grafik braucht.
Mir ist noch nicht so ganz klar, wozu man im Smartphone große Leistungssteigerungen in der 3D Grafik braucht.
Als Basisstation für eine AR-Brille?
Daredevil
2021-09-16, 08:44:07
Vielleicht ist der A15 ja ein Kandidat für einen Gaming Apple TV, der schon lange spekuliert wird. Spätestens aber beim Video aufnehmen, bearbeiten und verfeinern braucht es das halt, wie auch schon im M1, wo die gpu gerne mehr Dampf haben kann.
smalM
2021-09-16, 09:31:03
In GB5 sind die ersten Einträge fürs iPhone 13 aufgetaucht, man suche nach "iPhone14".
Hier ein Beispiel (https://browser.geekbench.com/v5/cpu/9850540) für die CPU-Tests.
INT ST ~1580, MT ~4500
FP ST ~1900, MT ~5300
Die Scores sind so ziemlich mit dem fast gleich schnell getakteteten M1 identisch.
Hier ein Beispiel (https://browser.geekbench.com/v5/compute/3368244) für GPU Compute.
5 Core GPU 14493
Das ist 50% mehr als ein A14 in einem iPhone erreichen konnte (~9500). Man wird sehen, ob wie beim A14 im nächsten iPad Air noch höhere Werte rauskommen.
Eine 4 Core GPU erreichte übrigens 10600 11194.
Hier ein Beispiel (https://browser.geekbench.com/ml/v0/inference/compare/71377?baseline=71373) für ML.
GPU ~2300, Core ML ~2700
Auch hier ist der GPU-Score 50% schneller als ein A14 im iPhone.
iPhone14,2 = 5 GPU-Cores, 6 GB RAM
iPhone14,3 = 5 GPU-Cores, 6 GB RAM
iPhone14,4 = 4 GPU-Cores, 4 GB RAM
iPhone14,5 = 4 GPU-Cores, 4 GB RAM
Avalanche taktet in allen Versionen mit ~3,23 GHz und die Cachekonfiguration von Blizzard ist dieselbe wie von Icestorm. Leider kann man ohne Anmeldung die .gb5-Daten nicht mehr direkt einsehen.
pixelguy
2021-09-16, 09:41:16
Vielleicht ist der A15 ja ein Kandidat für einen Gaming Apple TV, der schon lange spekuliert wird. Spätestens aber beim Video aufnehmen, bearbeiten und verfeinern braucht es das halt, wie auch schon im M1, wo die gpu gerne mehr Dampf haben kann.
Wäre der A15 dafür nicht trotzdem zu langsam?
Der Anspruch von Apple werden sicher 4K Inhalte sein.
Zudem vergleicht der normale User so ein Gerät auch eher mit einer PS5. Was preislich wahrscheinlich eine Liga wäre.
Ailuros
2021-09-16, 09:45:49
Interessantes write-up. Wenn das wirklich wahr ist, dass über 100 senior CPU engineers Apple verlassen haben (um Nuvia und Rivos zu joinen), ist das schon wirklich hart.
CPU Teams sind nicht so riesig und man versucht eher die Besten und Talentiertesten zu vereinigen. Das kann schon ein herber Rückschlag sein.
Dass so viele Leute auf einen Schlag gehen ist unter guten Arbeitsbedingungen IMO eigentlich ungewöhnlich. Entsprechend muss man jetzt richtig Geld ausgeben, um neue Top Leute zu holen und Junge zu entwickeln und diese dann auch zu halten.
Sofern es wahr ist, dass es dieses Jahr keinen wirklich neuen Core gibt, ist das in Apples ARM Historie sehr ungewöhnlich und schon bemerkenswert.
Um ganz ehrlich zu sein bezweifle ich ernsthaft dass Apple, Qualcomm oder dergleichen ueberhaupt 100 "senior CPU engineers" hat. Hunderte von engineers sicher aber mir muss dann auch wirklich jemand erklaeren was man mit "senior engineer" genau meint. 100 kurz vor der Rente waren es sicher nicht.
Sonst muss Apple ihre engineers zweimal am Tag peitschen lassen dass sie in solchen Summen auswandern wuerden (wobei entschuldigt aber bei QCOM wird genauso hart geschuftet....) oder QCOM und co. haben verrueckt hoehere Loehne angeboten was ich ebenso bezweifle.
Wenn es irgendwo in Apple's R&D ein Wendeblatt geben sollte in weniger absehbarer Zukunft dann wohl eher weil sie ARM IP ganz zum Fenster rausschmeissen wollen und das hat dann schon ganz andere ("gruene") Gruende. Apple untersucht schon seit einer Ewigkeit alternative Optionen wenn es irgendwo die Moeglichkeit von Problemen geben sollte; und hier kann mir keiner einreden dass Apple im Hintergrund NIE eine RISC-V high end Alternative auf den Tisch gelegt hat. Ob etwas daraus wird? *Schulterzuck*
Am Rand und OT: vor einiger Zeit hiess es auch dass Apple eine "Unsumme" von GPU engineers von IMG aufgeschluckt hat, wobei Apple zwar ex-IMG engineers eingestellt hatte aber Kerle wie Metcalfe hatten damals schon lange nichts mehr mit aktivem R&D zu tun. IMG's roadmap wurde nicht im geringsten beinflusst und dabei sogar egal dass zwei der wirklichen kern-GPU-engineers damals zu HUAWEI und nicht Apple ausgewandert sind. Doofe Maerchen gibt es ueberall....
***edit: ich hab schon seit langem keine besondere Leistungssteigerung vom A15 egal von welcher Seite erwartet. Ich lass mich zwar angenehm ueberraschen, aber auch die GPU klingt nach nichts besonderem im Vergleich zum A14.
smalM
2021-09-16, 09:55:46
Zudem vergleicht der normale User so ein Gerät auch eher mit einer PS5. Was preislich wahrscheinlich eine Liga wäre.
Nötig wäre ein 'M1X' mit 32 GPU-Cores.
Apple ist da völlig chancenlos, da sie die Hardwarepreise ganz bestimmt nicht subventionieren werden. Sowas verkaufen sie dann lieber als Mac mini Pro...
@Ailuros
Ach Titel sind doch so beliebt.
Wahrscheinlich hat den jeder Gruppenleiter für irgendeinen IP-Block.
Ich sach nur Waste Disposal & Recycling Manager ;)
Badesalz
2021-09-16, 10:49:44
Als Basisstation für eine AR-Brille?Das klingt mal garnicht so unplausibel =)
Die Benchmarks sind bisschen... seltsam. Wenn man demnach dem A15 auf einem Entwicklungsboard soviel TDP (und damit auch bisschen mehr Takt über dem sweet point) zugestehen würde wie dem M1 in dem größeren iMac jetzt, wieviel langsamer wäre er dann noch bei RL-Aufgaben? :|
w0mbat
2021-09-16, 11:05:25
Apple hat ein Problem, ohne einen stark verbesserten Herstellungsprozess treten sie auf der Stellen.
Von der CPU-Leistung sind A14 und A15 in etwa gleich, trotz verdoppeltem on-die cache. Der wechsel von N5 auf N5P bringt einfach nicht so viel. Klar, die GPU ist schneller geworden, aber auch hier kommt das meiste von dem extra GPU-Kern. Und auch das reicht bei weitem nicht aus, um die selbe Leistung bei 120FPS zu liefern.
Wenn der A16 auf N4 kommt, sehe ich auch nächstes Jahr schwarz für eine wirklich spürbare Leistungssteigerung. Der A15 ist schon jetzt >110mm2 groß, und auch wenn N4 eine leicht verbesserte Packdichte und mehr EUV layers bietet sehe ich hier keinen großen Sprung.
Apple bräucht min. 8 schnelle GPU-Kerne um die 120Hz Bildschirme passend zu befeuern, das würde den Chip weiter aufblasen. Erst mit N3 könnte man sich das wieder leisten, also auf die Fläche gesehen.
Da Apple ja auch bei TSMC produziert würde es mMn sehr viel Sinn machen die neuen Packungstechnologien zu nutzen und die Chips modular aufzubauen.
Also ein CPU/compute die, ein GPU/ISP die und ein (stacked) cache die. Wobei das bei L2 wohl deutlich problematischer wird als bei L3. Dann hat man kleine Chips mit gutem yield und ein "Pro" Modell mit 120Hz bekommt halt zwei GPU dies.
Ein >150mm2 die in N4 kann ich mir bei Apple schlecht vorstellen. Oder ist ARM einfach am Ende?
Badesalz
2021-09-16, 11:08:19
Apple hat ein Problem, ohne einen stark verbesserten Herstellungsprozess treten sie auf der Stellen.Davon sind Intel, AMD oder Qualcomm oder Nvidia oder (WHAT EVER außer Grundig und Blaupunkt) nicht betroffen oder wie? :usweet:
Die "A" haben das gleiche Problem wie alle anderen richtig mobilen SoCs. Die Spielräume für die Wärmeabgabe wie auch Verbrauch sind SEHR endlich. Wenn man sonst alles richtig macht, regelt sich hier die mögliche Leistung zu 80% über die Herstellungsprozesse. Das ist normal. Das ist kein Problem was Apple hat.
Jetzt mal davon ab, daß solange die Geräte nicht irgendwelche Defekte haben, man mittlerweile den Havel bemühen muss um Leute zu finden denen ipads oder Iphones der HW wegen zu langsam sind.
w0mbat
2021-09-16, 11:17:27
Nö, Zen3 ist deutlich schneller als Zen2 und kommt im gleichen Prozess.
Und nur weil andere auch Probleme haben, soll es kein Poblem für Apple sein? Das ist doch gerade mein Punkt! Bisher war Apple im mobile Meilen voraus, aber das scheint nicht mehr so zu klappen.
Platos
2021-09-16, 11:48:20
Es braucht bei Handys auch nicht mehr Leistung. Man würde lieber mal den Stromverbrauch senken un ddie Akkulaufzeit damit verdoppeln.
robbitop
2021-09-16, 12:00:31
Vielleicht ist der A15 ja ein Kandidat für einen Gaming Apple TV, der schon lange spekuliert wird.
Apple und richtiger Gamingfokus? Bisher hat sich in die Richtung noch nie etwas gezeigt. Sowas wird ja immer mal wieder spekuliert - aber hat sich bisher nie bewahrheitet. Der Bereich der Konsolen ist jetzt eigentlich nicht mit hohen Gewinnspannen und großen Nischen ausgestattet. Apple neigt eigentlich immer dazu, sich Bereiche zu suchen, wo man hohe Margen fahren kann. IMO unwahrscheinlich, dass richtiges ernsthaftes Gaming von Apple mittelfristig kommt.
Badesalz
2021-09-16, 12:20:30
Nö, Zen3 ist deutlich schneller als Zen2 und kommt im gleichen Prozess.Ist das überhaupt vergleichbar, was Änderungen an der Architektur angeht? Von welchem zu welchen A hat Apple soviel geändert und optimiert, wie von Zen2 zu Zen3?
Sie machen ab und zu einen richtigen Sprung und tröpfeln dann erstmal kleinwenig. Das ist diese Phase nun. Und jetzt? Sie haben auch überhaupt keinen Leistungsdruck. Das ist alles mehr als schnell genug.
Und nur weil andere auch Probleme haben, soll es kein Poblem für Apple sein? Das ist doch gerade mein Punkt! Bisher war Apple im mobile Meilen voraus, aber das scheint nicht mehr so zu klappen.Sie reiten alle das gleiche Rennpferd und die "Rennbahn" ist gar die selbe. Es ist klar, daß wenn man nicht wieder springt, die anderen nach und nach die Abstände in Brutto verkürzen.
In Netto (OS + reale Soft) muss man das aber auch noch umsetzen.
Ohne ein Fan zu sein sehe ich Apple bisher weder in Brutto noch in Netto in schwerer Bedrägnis.
Wenn ich den 11er sehe, war/ist der bisschen zu groß und um einiges zu schwer. Als Beispiel. Geekbenches interessieren dagegen nur Leute die keine messbare Relevanz für den Markt spielen...
smalM
2021-09-16, 13:29:26
Von der CPU-Leistung sind A14 und A15 in etwa gleich, trotz verdoppeltem on-die cache.
Der SLC spielt für die CPU-Leistung keine Rolle, der Speicherzugriff ist L1-L2-RAM.
Wenn der A16 auf N4 kommt, sehe ich auch nächstes Jahr schwarz für eine wirklich spürbare Leistungssteigerung.
Das wird tatsächlich spannend. Ich tippe z.Z. auf einen A16 in N3, Vorstellung erst im Oktober, Verfügbarkeit im November.
Würde Apple N4 nutzen, wäre es übrigens auch eine schwere Belastung für alle anderen TSMC-Kunden, da Apple Fab18 P1-3 zu ⅔ auslasten würde. Das gäbe ein Hauen und Stechen um die Restkapazität, bis P7 fertig ist.
Da Apple ja auch bei TSMC produziert würde es mMn sehr viel Sinn machen die neuen Packungstechnologien zu nutzen und die Chips modular aufzubauen.
Ich denke, das werden wir zuerst für die größeren M-Chips sehen. Vorerst aber dürften die A-SoCs monolithisch bleiben, was soll man denn bei einem 100mm² Chip sinnvoll auseinander klamüsern?
pixelguy
2021-09-16, 13:37:27
Apple und richtiger Gamingfokus? Bisher hat sich in die Richtung noch nie etwas gezeigt. Sowas wird ja immer mal wieder spekuliert - aber hat sich bisher nie bewahrheitet. Der Bereich der Konsolen ist jetzt eigentlich nicht mit hohen Gewinnspannen und großen Nischen ausgestattet. Apple neigt eigentlich immer dazu, sich Bereiche zu suchen, wo man hohe Margen fahren kann. IMO unwahrscheinlich, dass richtiges ernsthaftes Gaming von Apple mittelfristig kommt.
Wenn da etwas kommen sollte, wäre es wahrscheinlich auch direkt was mit Streaming und nicht unbedingt eine Box mit teurer Hardware.
Apple muss auch nicht darauf achten, dass das auf der ganzen Welt klappt. Deren Kunden befindet sich ohnehin stark in Industrienationen mit sehr gutem Internet (und Deutschland :freak:).
w0mbat
2021-09-16, 15:00:38
Der SLC spielt für die CPU-Leistung keine Rolle, der Speicherzugriff ist L1-L2-RAM.
Bisher hatte der CPU-Block aber immer auch Zugriff auf den SLC (ist beim M1 zB ebenso) und der sollte schneller sein als ein RAM-Zugriff. 32MB SLC sollte sich also auch auf die CPU-Leistung auswirken. Oder übersehe ich da was?
CrazyIvan
2021-09-16, 15:13:36
Nope, Du hast vollkommen recht. Mir erschließt sich auch nicht, wie man annehmen kann, dass der SLC nicht auch on der CPU verwendet wird.
smalM
2021-09-16, 15:37:54
Das ist keine Annahme, das ergibt sich aus den Latenzkurven (https://images.anandtech.com/doci/16252/latency-m1.png), die bei AnandTech veröffentlicht wurden.
Und selbstverständlich hat die CPU auf den SLC Zugriff, er dient nur nicht als LLC für die CPU.
CrazyIvan
2021-09-16, 16:36:23
Ich weiß ja nicht, wie Du das interpretierst, aber ich sehe auf der (logarithmischen) x-Achse bei ziemlich genau 16MiByte eine Stufe. Und die würde ich dem LLC zuordnen. Und wenn ein Typ, der 350 Seiten nur über den M1 fabriziert, das ebenfalls behauptet, dann bin ich geneigt, dem zu glauben.
w0mbat
2021-09-16, 16:42:55
Wieso hat er Zugriff, wenn er den SLC nicht als LLC nutzt? Für was greift er dann darauf zu?
Was ich beim A15 nicht so ganz verstehe: es hat sich gegenüber dem A14 offensichtlich nicht extrem viel geändert. Die CPU ist fast gleich, die neural engine ebenso, die GPU hat einen Kern mehr (aber nur bei den Pro iPhones und dem iPad mini) und eben doppelt so viel SLC.
Jetzt bringt es der A15 auf ca. 15 Mrd. Transistoren in N5 oder N5P und damit um die 110mm2 die size. Da ist ne 6C CPU, 5C GPU und 16C neural engine drin.
Der M1 hat 16 Mrd.Transistoren auf 119mm2 in N5 und 8C CPU, 8C GPU und 16C neural engine. Wo geht der ganze andere Platz drauf? Das iPad Pro hat auch 5G.
Den A14 konnte ich ja noch verstehen, da er mit 88mm2 deutlich kleiner als der M1 war, aber der A15 ist seltsam. Wieso nicht gleich M1 für alle Geräte? :ugly:
smalM
2021-09-16, 18:04:05
@CrazyIvan
Du denkst daran, daß im M1 der 12MB L2 aus Sicht eines CPU-Cores in drei Zonen mit jeweils unterschiedlich großer Latenz aufgeteilt ist?
Da müßte eine 4. Stufe sein zwischen 12MB und 20MB, wenn der SLC als LLC dienen würde.
@w0mbat
Wir werden auf einen Die-Shot warten müssen, um zu sehen, was Apple wirklich gemacht hat.
Wer weiß, wie sehr sie den ganzen Bereich mit den Unmengen Funktionsblöcken aufgepumpt haben.
In vielen Bereichen bedeutet x% mehr Leistung schlicht auch x% mehr Die-Fläche.
CrazyIvan
2021-09-16, 18:31:12
Ja, daran denke ich. Deshalb hatte ich die logarithmische Skalierung erwähnt. Auch Andrei hatte das im Artikel zum Diagramm als selbstverständlich angesehen. Daher die Gegenfrage: Was veranlasst Dich abseits des schwierig zu lesenden Diagrammes dazu, zu glauben, der SLC sei für die CPU kein LLC? Für mich macht das Null Sinn. Und falls doch, zu welchen "anderen" Zwecken soll die CPU darauf zugreifen können?
smalM
2021-09-16, 19:19:12
Danke, ich habe noch rechnen mit dem Rechenschieber gelernt, ich weiß wie Logarithmen funktionieren. ;)
Ich sehe schlicht nicht, daß sich in den Daten ein LLC wiederspiegeln würde.
Und welchen Sinn sollte auch ein 8MB LLC haben für ein CPU-Cluster mit 12MB L2, das sich ihn auch noch konkurrierend mit den anderen Funktionsblöcken auf den SoC teilen muß, außer zur Kommunikation mit genau diesen Funktionsblöcken, ohne über's RAM gehen zu müssen?
CrazyIvan
2021-09-16, 21:16:24
Ich bin verwirrt. Der SLC hat doch bei A14 16MiByte und nun bei A15 32? Das war doch Gegenstand der Diskussion?
Auch sind bei der Latenz keine Wunder zu erwarten - wenn es 90 Takte sind. Aber vermutlich wird die Bandbreite um ein Vielfaches höher sein. Ich bin noch nicht an der Stelle im verlinkten Paper, aber ich könnte schwören, dass die Verwendung des SLC durch M1 da noch im Detail analysiert wird.
robbitop
2021-09-16, 21:28:27
90 Takte wäre immer noch deutlich schneller als RAM Zugriff. :)
Daredevil
2021-09-16, 22:03:56
Apple und richtiger Gamingfokus? Bisher hat sich in die Richtung noch nie etwas gezeigt. Sowas wird ja immer mal wieder spekuliert - aber hat sich bisher nie bewahrheitet. Der Bereich der Konsolen ist jetzt eigentlich nicht mit hohen Gewinnspannen und großen Nischen ausgestattet. Apple neigt eigentlich immer dazu, sich Bereiche zu suchen, wo man hohe Margen fahren kann. IMO unwahrscheinlich, dass richtiges ernsthaftes Gaming von Apple mittelfristig kommt.
Na was ist denn "Apple Arcade"? Ein Spieledienst.
90% aller Einnahmen aus dem Appstore kommen aus... Spiele.
GPU Leistung kann man am Ende nie genug haben, dann gibt es halt 120fps in Mobile Games, was solls. ^^
Rooter
2021-09-16, 22:30:19
Es braucht bei Handys auch nicht mehr Leistung. Man würde lieber mal den Stromverbrauch senken un ddie Akkulaufzeit damit verdoppeln.Ja, da wäre ich auch dafür. Der Browser auf meinem ollen Galaxy S7 rendert Seiten gefühlt fast genau so schnell, wie der Browser auf meinen Desktop-PC.
MfG
Rooter
CrazyIvan
2021-09-16, 22:58:13
90 Takte wäre immer noch deutlich schneller als RAM Zugriff. :)
Ja, auf jeden Fall. Bei ca. 30 ns, wenn ich nicht um ne Potenz daneben liege. Ich will damit nur sagen, dass es andere, deutlich größere, Vorteile hat, den SLC zu verwenden. Energieverbrauch aufgrund geringerem pJ/bit zum Beispiel.
Benutzername
2021-09-17, 00:00:49
Ja, auf jeden Fall. Bei ca. 30 ns, wenn ich nicht um ne Potenz daneben liege. Ich will damit nur sagen, dass es andere, deutlich größere, Vorteile hat, den SLC zu verwenden. Energieverbrauch aufgrund geringerem pJ/bit zum Beispiel.
Sehr guter Punkt mit dem Energieverbrauch. Besonders bei mobilen Geräten.
Ailuros
2021-09-17, 15:09:24
@Ailuros
Ach Titel sind doch so beliebt.
Wahrscheinlich hat den jeder Gruppenleiter für irgendeinen IP-Block.
Ich sach nur Waste Disposal & Recycling Manager ;)
Es koennten auch hochrangige Herren bzw. Damen sein die aber schon seit einer Ewigkeit nichts mehr entwickelt haben. Nun gut ein Verlust waere es in dem Fall schon, aber eben nicht etwas dass eine roadmap sehenswert beinflussen koennte.
Schwamm drueber; ist die A15 GPU ca. 30% schneller als die A14 GPU dann liegt es irgendwo im Bereich wo ich es erwartet habe. Erstens weil sie zu lange die gleiche Basisarchitektur fuer die GPU herumschleppen und zweitens weil die Konkurrenz (QCOM) es wohl nicht schaffen wird schneller oder sogar effizienter zu sein als die A15 GPU. Da wo es womoeglich kritisch werden koennte ist Samsung's naechster Exynos mit AMD GPU IP, aber erstmal absehen was dieser auch wirklich leistet.
Daredevil
2021-09-17, 15:11:14
Was haltet ihr denn hier von?
iPhone 12 Pro Max Video-Wiedergabe: 20 Stunden
iPhone 12 Pro Max Video-Wiedergabe (als Stream): 12 Stunden
iPhone 13 Pro Max Video-Wiedergabe: 28 Stunden
iPhone 13 Pro Max Video-Wiedergabe (als Stream): 25 Stunden
Ne Kombination aus LTPO Display, größerer Akku und neuen effizienten Video Decodern?
Für die Video*wiedergabe (gestreamt) wurde ein im iTunes Store gekaufter HDR Film mit einer Länge von 3 Stunden 1 Minute verwendet, der in einer Endlos*schleife mit Wiedergabe von Stereo-Audio wiederholt wurde. Alle Einstellungen waren Standardeinstellungen, mit folgenden Ausnahmen: Bluetooth war mit Kopfhörern verbunden, WLAN war mit einem Netzwerk verbunden und die WLAN Funktion „Auf Netze hinweisen“ sowie die Funktionen „Auto‑Helligkeit“ und „True Tone“ waren deaktiviert.
smalM
2021-09-17, 15:13:32
iPad mini
ID = iPad14,2
Avalanche mit knapp 3 GHz
4 GB RAM
GB5 Compute (https://browser.geekbench.com/v5/compute/search?utf8=✓&q=iPad14&sort=score)
Sehen wir hier eine 4-Core-GPU, die im Gegensatz zum iPhone 13 im iPad mini voll ausgefahren wird?
Oder kombiniert Apple eine 5-Core-GPU mit 4GB RAM?
Daredevil
2021-09-17, 15:18:30
Hier der Link mit dem Vergleich zum M1 iPad:
https://browser.geekbench.com/v5/compute/compare/3373713?baseline=3377120
smalM
2021-09-22, 11:58:49
Neuerungen der A15-CPU:
größerer Physical Adress Space, nested Virtualisation, AMXv3
Quelle (https://twitter.com/never_released/status/1440286198178615305)
Ailuros
2021-09-28, 10:30:34
Insgesamt sieht es von den Kishonti Resultaten mehr oder weniger so aus wie A14 und co (vergleichbare Schwaechen und Staerken und natuerlich IMG relative extensions). Im Durchschnitt ist dort die A15 GPU um ca. 30% schneller als die A14 GPU. Der Abstand zum Adreno650 ist nach wie vor bequem gross (+80% in Car chase offscreen).
w0mbat
2021-09-28, 13:37:02
Im Durchschnitt ist dort die A15 GPU um ca. 30% schneller als die A14 GPU.
Und das bei 25% mehr Kernen. Die restlichen 5% werden vom größeren SLC kommen. Rein von der Architektur her hat sich wohl nichts verändert.
Ailuros
2021-09-29, 09:47:55
Wenn sie keine in house GPU unter Entwicklung haben, wuerde ich entweder fuer A16 oder A17 fuer eine GPU mit ray tracing IP tippen. IMG wird wohl bis Ende des Jahres ihre C Serie ankuedigen.
robbitop
2021-09-29, 09:57:18
Hatte nicht Pixeljetstream etwas von RT in Verbindung mit Apple erzählt und er wirkte ziemlich beeindruckt. Ich meine mich zu erinnern, dass dazu einiges in der Metal API einsehbar war.
dildo4u
2021-09-29, 12:52:26
Kein Wunder das Samsung RDNA2 will Holy Shit was macht eigentlich Qualcom nästens Jahr mit der GPU?
https://youtu.be/Db6XT4dmr4w?t=456
smalM
2021-09-29, 15:11:45
A15 deep dive incomming... (https://twitter.com/andreif7/status/1443193418776199175) :wink:
pixelguy
2021-10-04, 16:49:40
Zum Thema Apple und Games:
Apple Made More Profit From Games In 2019 Than Nintendo, Sony And Microsoft Combined
https://www.nintendolife.com/news/2021/10/apple-made-more-profit-from-games-in-2019-than-nintendo-sony-and-microsoft-combined
davidzo
2021-10-04, 17:37:11
A15 deep dive incomming... (https://twitter.com/andreif7/status/1443193418776199175) :wink:
And here it is: https://www.anandtech.com/show/16983/the-apple-a15-soc-performance-review-faster-more-efficient
Key Takeaways:
- ca. 10% mehr Takt in SC, MT und E-Core workloads als A14
- verdoppelter SLC Cache auf 32MB
- Weiterhin nur LPDDR4X
- 4 statt 3 Integer Alus bei den E-cores (nun auf Cortex A7x Niveau)
- erheblich bessere Ram Latenzen für die E-cores
- ca. 15% höhere P-Core Performance bei 24% weniger Energiebedarf
- 20-30% höhere E-core performance bei 60% besserer Energieefizienz als ein Cortex A55
- 20-30% höhere GPU performance als A14
Zum Thema Apple und Games:
Apple Made More Profit From Games In 2019 Than Nintendo, Sony And Microsoft Combined
https://www.nintendolife.com/news/2021/10/apple-made-more-profit-from-games-in-2019-than-nintendo-sony-and-microsoft-combined
Hm, ohne Umsatzzahlen ist das wenig Aussagekräftig.
Apple hat ja vor Gericht gesagt dass die Zahlen nicht stimmen. Ich denke die Milchmädchenrechnung ist dass das Wallstreet Journal für diese Behauptung einfach annimmt dass Umsatz bei Apple auch = profit ist, da keine eigenen Games entwickelt werden. Wieviel da in Infrastruktur, Werbung, Moderation der Plattform etc. geht weiß nur Apple.
Aber die anderen Unternehmen fahren ja auch eher eine Strategie die darum geht Marktanteile zu gewinnen, nicht darum die profitabelste Gamingsparte zu haben. Da werden Milliardenbeträge wieder reinvestiert oder für Studiozukäufe verwendet, reicht ja wenn nach Abzug aller Kosten plus minus NUll herauskommt und man dabei noch wachsen kann. Ich könnte mir durchaus vorstellen dass der Vergleich bei Umsatz und Marktanteilen anders für Apple ausgeht.
Nach profit ist Apple z.B. auch Quasi-Monopolist bei Smartphones. Das sagt aber noch nichts über die Marktanteile aus.
smalM
2021-10-04, 21:44:20
Und wenn nun noch einer Zugriff auf den Die-Shot von Tech Insights hat....
@never_released
"AppleInterruptControllerV2 on A15 (aic,2 in the Device Tree, compared to aic,1 on earlier parts).
The driver for that explicitly supports multi-die parts, with a debug message “Unsupported max die count _aicMaxDies” present in the iPhone 13 kernel."
davidzo
2021-10-04, 22:08:25
Der wurde auf weibo gepostet:
Sieht nach ca 9x12mm aus, also genau zwischen A14 und M1.
smalM
2021-10-04, 22:55:32
Laut Tech Insights 8,58mm x 12,55mm = 107,68mm².
basix
2021-10-04, 23:51:08
Die Density des SLC muss echt enorm gross sein. 32MByte auf so wenig Fläche.
smalM
2021-10-05, 07:27:40
32MB auf knapp 10mm². Mit 6-Transistor SRAM-Zellen sind das 1,6 Mrd. Transistoren.
Die Menge an SRAM auf dem Die hat auch außerhalb von Avalanche-L2 und SLC deutlich zugelegt.
Apple A15 Die Shot and Annotation – IP Block Area Analysis (https://semianalysis.com/apple-a15-die-shot-and-annotation-ip-block-area-analysis/)
Ailuros
2021-10-06, 11:36:54
Hm, ohne Umsatzzahlen ist das wenig Aussagekräftig.
Apple hat ja vor Gericht gesagt dass die Zahlen nicht stimmen. Ich denke die Milchmädchenrechnung ist dass das Wallstreet Journal für diese Behauptung einfach annimmt dass Umsatz bei Apple auch = profit ist, da keine eigenen Games entwickelt werden. Wieviel da in Infrastruktur, Werbung, Moderation der Plattform etc. geht weiß nur Apple.
Aber die anderen Unternehmen fahren ja auch eher eine Strategie die darum geht Marktanteile zu gewinnen, nicht darum die profitabelste Gamingsparte zu haben. Da werden Milliardenbeträge wieder reinvestiert oder für Studiozukäufe verwendet, reicht ja wenn nach Abzug aller Kosten plus minus NUll herauskommt und man dabei noch wachsen kann. Ich könnte mir durchaus vorstellen dass der Vergleich bei Umsatz und Marktanteilen anders für Apple ausgeht.
Nach profit ist Apple z.B. auch Quasi-Monopolist bei Smartphones. Das sagt aber noch nichts über die Marktanteile aus.
Ist zwar OT aber der springende Punkt im writeup liegt eigentlich hier:
In the trial, Apple pointed to the fact that other platform holders – such as Google and Microsoft – employ the exact same system. U.S. District Judge Yvonne Gonzalez Rogers agreed for the most part, but also ordered that Apple allow developers to offer payment methods inside their own apps – payment methods which would circumvent Apple's App Store and avoid the 30% cut.
This means that games like Fortnite could potentially generate millions for their publisher on iOS without giving Apple a single penny – and that could have long-term ramifications for other platform holders, including Nintendo.
Welches auch das "ja, aber" der Affaere ist.
Dass die Zahlen nicht stimmen steht so oder so im obrigen write up. Es aendert aber nicht besonders viel an der Tatsache dass Apple generell fett von Entwicklern in ihrer application store mit einem 30% cut verdient.
robbitop
2021-10-06, 12:25:03
Ich finde diese App Store Affäre lächerlich. Niemand zwingt Epic sein Spiel dort zu vertreiben. Sie können es auch lassen. Dass in app Käufe über das Store System bezahlt werden müssen und nicht umgangen werden können war vorher auch klar. Und dann fangen sie auf einmal an, rumzuheulen. Dann sollen sie es halt rausnehmen.
=Floi=
2021-10-06, 12:29:23
Es aendert aber nicht besonders viel an der Tatsache dass Apple generell fett von Entwicklern in ihrer application store mit einem 30% cut verdient.
Es ist ein für und wieder für beide seiten! Dafür gibt es weniger modelle und weniger wildwuchs bei den chips. Der markt für eine IOS app ist gigantisch.
KarlKastor
2021-10-06, 13:20:31
Ich finde diese App Store Affäre lächerlich. Niemand zwingt Epic sein Spiel dort zu vertreiben.
Wenn doch alle Lösungen auf der Welt so einfach wären....
Mal ernsthaft. Das ganze ist ja wohl deutlich komplexer als es in einem Halbsatz abzufertigen.
Es muss ja auch niemand Windows nutzen. Trotzdem wurden sie mit einigen Maßnahmen belegt.
Ja Apple hat kein Monopol im Smartphonesegment bla bla. Trotzdem ist die Abschottung problematisch für Wettbewerb. Das sieht man ja an diesen wahnwitzigen 30%.
Platos
2021-10-06, 14:30:02
Ich finde ja auch, dass 30% abdrücken nur um eine Plattform anzubieten (Appstore) absurd hoch ist. Gilt auch für den Playstore.
robbitop
2021-10-07, 12:37:15
Lächerlich - niemand zwingt sie dort Produkte zu verkaufen. Es erst nutzen und dann rumheulen obwohl vorher alle Bedingungen klar waren.
Es ist Apples und Googles Ökosystem was sie selbst aufgebaut haben. Und jetzt stellen Dritte noch Forderungen? Ich würde die rausschmeißen und nie wieder aufnehmen.
bluey
2021-10-07, 13:01:00
Quatsch. Die beiden AppStores sind mittlerweile Infrastruktur und Duopole. Natürlich gehört sich das reguliert.
KarlKastor
2021-10-07, 13:03:55
Lächerlich - niemand zwingt sie dort Produkte zu verkaufen.
Kommen auch noch Argumente? Soweit waren wir schon.
robbitop
2021-10-07, 13:34:53
Bisher kamen IMO keine sinnvollen Gegenargumente außer dass es reguliert werden muss. Ein guter Markt ist effizient und reguliert sich selbst. Ein Monopol ergibt wenn es zu sehr ausgenutzt wird oft genug Platz für eine neue Nische.
Zumal es hier kein Monopol gibt. Es gibt Android und es gibt Windows.
30% ist nicht wenig aber das ist der Preis der auf itunes und Steam seit Jahrzehnten verlangt wurde und offenbar war es profitabel genug für die große Menge an Studios die dort verkauft haben. Bei Konsolentiteln verdienen Nintendo, Sony und MS auch 30% seit Jahrzehnten. Und es funktioniert ganz hervorragend.
Epic verdient trotz der 30% immernoch Miliarden mit diesem Trivialspiel.
Denen geht es nicht un die Konsumenten - die sind vorgeschoben als Ersatzargument. Denen geht es, wie jeder effizienten Gesellschaft, um ihr Betriebsergebnis.
Natürlich nehmen sie bei Epic weniger als 30%. Aber nicht weil sie Robin Hood sind, sondern weil sie sich damit Marktanteile erkaufen. Wenn sie in der Position von Valve wären würden sie auch 30% nehmen. Tun sie aktuell nicht - insofern kann man sie (noch) nicht als Hypokraten bezeichnen. Und wenn sie es irgendwann mal tun, ist es kalter Kaffee.
IMO (ich sehe das als Unternehmer): wenn man sich was mühsam aufgebaut hat einem keiner zu sagen, was man damit zu machen hat. Man kann es ja auch lassen.
Wenn man es sich mal betriebswirtschaftlich anschaut: 30% BRUTTO Marge sind nicht einmal besonders viel für ein Geschäftsmodell.
Für viele Branchen sind 30% Bruttomarge eher wenig. Ich sehe nichts Außergewöhnliches was unbedingt reguliert werden müsste.
Zumal ja auch ein Gegenwert da ist: Zugriff auf einen potenziellen Markt mit mehrern hunderten Millionen zahlungskräftiger Kunden.
maximus_hertus
2021-10-07, 15:04:24
Bisher kamen IMO keine sinnvollen Gegenargumente außer dass es reguliert werden muss. Ein guter Markt ist effizient und reguliert sich selbst. Ein Monopol ergibt wenn es zu sehr ausgenutzt wird oft genug Platz für eine neue Nische.
Zumal es hier kein Monopol gibt. Es gibt Android und es gibt Windows.
30% ist nicht wenig aber das ist der Preis der auf itunes und Steam seit Jahrzehnten verlangt wurde und offenbar war es profitabel genug für die große Menge an Studios die dort verkauft haben. Bei Konsolentiteln verdienen Nintendo, Sony und MS auch 30% seit Jahrzehnten. Und es funktioniert ganz hervorragend.
Epic verdient trotz der 30% immernoch Miliarden mit diesem Trivialspiel.
Denen geht es nicht un die Konsumenten - die sind vorgeschoben als Ersatzargument. Denen geht es, wie jeder effizienten Gesellschaft, um ihr Betriebsergebnis.
Natürlich nehmen sie bei Epic weniger als 30%. Aber nicht weil sie Robin Hood sind, sondern weil sie sich damit Marktanteile erkaufen. Wenn sie in der Position von Valve wären würden sie auch 30% nehmen. Tun sie aktuell nicht - insofern kann man sie (noch) nicht als Hypokraten bezeichnen. Und wenn sie es irgendwann mal tun, ist es kalter Kaffee.
IMO (ich sehe das als Unternehmer): wenn man sich was mühsam aufgebaut hat einem keiner zu sagen, was man damit zu machen hat. Man kann es ja auch lassen.
Wenn man es sich mal betriebswirtschaftlich anschaut: 30% BRUTTO Marge sind nicht einmal besonders viel für ein Geschäftsmodell.
Für viele Branchen sind 30% Bruttomarge eher wenig. Ich sehe nichts Außergewöhnliches was unbedingt reguliert werden müsste.
Zumal ja auch ein Gegenwert da ist: Zugriff auf einen potenziellen Markt mit mehrern hunderten Millionen zahlungskräftiger Kunden.
Korrekt, theoretisch ;) Praktisch passt das nicht, da es eben keinen einzelnen Appstore (bei Apple z.B.) gibt. Dieser ist quasi Teil von iOS und andere Appstores kann man in iOS nciht erstellen / aufbauen. Wenn man dann aber in einem 100% Monopol lebt, muss halt ggf. reguliert werden.
Im Gegensatz zu macOS ist iOS in viel größer / Marktanteile. In den USA hat man, wenn ich das richtig im Kopf habe, teils mehr Marktanteile als alle anderen zusammen.
Es kann ja nicht sein, dass man, um ein Programm zu veröffentlichen, sein eigenes Betriebssystem und ggf. Hardware hinzufügen muss. Das macht imo wenig Sinn.
Bei google ist es ähnlich. Durch die google Dienste hat man ein defakto Monopol. Allerdings gibt es bei Android Möglichkeiten für andere Appstores, ergo ist die Situation hier nicht ganz so "schlimm". Allerdings stellt sich die Frage, ob die Play Dienste nicht auf als defakto Monopol zu zählen sind?
Aber ich halte mich da nciht für den größten Experten und halte mich auch wieder eher zurück, da man sich doch gefühlt im Kreis dreht. Evtl. sind meine Ansichten auch kompletter Quatsch, von daher werde ich mich da auch nciht zu wichtig nehmen und weiter gespannt den Thread verfolgen.
bluey
2021-10-07, 15:09:42
Es ist ja nichtmal so, als ob es ein neuer Player auf den Markt kommen kann, da die Switching Costs für die Users gigantisch sind. Nach 10 Jahren Investitionen in iMessage, AppStore, Games, AirTags etc ist es kaum jemanden möglich zu wechseln.
Praktisch gesehen gibt es kein Wettbewerb auf diesen Markt mehr und damit erstickt auch jegliche Innovation.
bloodflash
2021-10-07, 15:25:38
Wenn man es sich mal betriebswirtschaftlich anschaut: 30% BRUTTO Marge sind nicht einmal besonders viel für ein Geschäftsmodell.
Natürlich sind 30% viel!?
Abgesehen davon ist die Berechnung für Apple etwas anders, als den vollen Kaufpreis als Grundlage zu nehmen, denn für den Grossteil ist Apple nur ein Zahlungsdienstleister für den eigentlichen Anbieter bzw. der Shop- und Serverhoster für den Download (*nicht* für Gamingserver oder Inhalte!).
Bei Zahlungsdienstleistern sind das eher Bruchteile von Prozenten oder seltener sehr geringe einstellige Prozentzahlen. Für Traffic- und Shophosting reden wir von ähnlichen Grössenordnungen.
Diese Kosten liegen wahrscheinlich (je nach App) zwischen 0,xx bis 5% des Kaufpreises für die Kunden. Dazu kommen noch etwaige Steuern.
Jetzt kann man sich gerne darüber streiten, wie man die Plattformkosten da rein rechnet, aber das ist eine gegenseitige WinWin-Situation.
Insgesamt gehe ich von einer Bruttomarge für Apples Appstore von 70-90% aus. Und das nenne ich Wucher, der nur aufgrund des Duopols und der Plattformabhängigkeiten möglich ist. Ein Fall für die Marktaufsicht und Kartellbehörden. Da gehören auch Randthemen zu, wie beispielsweise die Zahlungen von Google an Apple für die voreingestellte Standardsuchmaschine.
Bei 5-7% als Standardgebühr und nochmal 2-5% für die Zahlungsdienstleistungen wäre auch alles OK und Apple kann ja weitere Dienste wie Apptests, Werbung, Bundles usw. anbieten.
Google hat sich zumindest mit Sideloading ein kleines Schlupfloch gelassen und man kann ja auch direkt APKs vom Hersteller downloaden und kaufen.
Steam, GoG, Epic, Microsoft und auch einige grosse Publisher bearbeiten teilweise ja den gleichen Markt. Dort ist zumindest viel Konkurrenz im PC-Bereich sichtbar.
smalM
2021-10-07, 16:27:49
CPU/SoC-Eigenentwicklungen von Apple
Kleine Erinnerung...
smalM
2021-10-08, 11:33:45
AnandTech: "On the performance cores I’m also seeing some changes in the L1 speeds as it seems to be able to make 1-cycle accesses to cache lines, as long as they’re in the same page, the same type of access on the A14 takes 3 cycles."
Kleine Diskussion dazu (https://www.realworldtech.com/forum/?threadid=203533&curpostid=)
Ailuros
2021-10-12, 09:20:26
AnandTech: "On the performance cores I’m also seeing some changes in the L1 speeds as it seems to be able to make 1-cycle accesses to cache lines, as long as they’re in the same page, the same type of access on the A14 takes 3 cycles."
Kleine Diskussion dazu (https://www.realworldtech.com/forum/?threadid=203533&curpostid=)
Insgesamt fuer den writeup und A15: eine um N% hoehere Batterie-laufzeit ist um einiges mehr wert als ein steriler Leistungszusatz dem der Verbrauch quasi egal ist. Wobei ich immer noch nicht verstehen kann warum Apple noch so geizig ist mit den Batterie-Groessen. Wen zum Henker wuerde es stoeren wenn ein jegliches iPhone 13 noch einen Tag mehr aushalten koennte unter normalem Gebrauch?
Argo Zero
2021-10-12, 09:24:13
Gibt schon genug Leute, die sich über das schwere iPhone 13 Pro beschweren.
Mehr Akku bedeutet auch mehr Gewicht.
Daredevil
2021-10-12, 09:52:31
Wie Argo schon sagte, würde es keine Nachteile geben ( Kosten, Marge, Gewicht, weniger Platz für andere Dinge ect. ) wär der Akku bestimmt aufs maximalste getrimmt.
Wobei man an der Stelle auch sagen muss, dass die Akkulaufzeit stetig besser wird, der Mensch aber nicht mehr Stunden vor dem Smartphone hockt. Der Tag hat halt nur 24 Stunden, mehr können es nicht werden. :D
Das iPhone XR war schon ein "Langläufer" und in der Apple Welt ein Riesen Sprung in Sachen Laufzeit. Beim Video anschauen, also bei "Display on" setzt schon das iPhone13 Mini 3 Stunden bzw. ca. 25% oben drauf.
https://www.computerbase.de/2021-10/apple-iphone-13-test/2/#abschnitt_apple_verbessert_die_akkulaufzeiten
Wenn die Batterietechnik bzw. die Effizienz immer weiter steigt, braucht es halt nicht mehr Batterien.
Mein Sennheiser Funk Headset hat z.B. eine Akkulaufzeit von ca. 100h laut Hersteller. Warum zum Himmel hat es das?
Also versteht mich nicht falsch, ich habe das Ding seit einem Jahr und habe es vielleicht 3-4 mal geladen, aber tut das Not?
Ich glaube allgemein nicht, dass das Ding viel Strom verbraucht, aber wäre auch zufrieden gewesen mit "nur" 50Std. 24 Stunden hat der Tag, wie gesagt. ^^
Viel schlimmer ist da der MikroUSB Anschluss.... aber den sehe ich ja nicht so oft.
davidzo
2021-10-12, 10:55:28
ich habe mich immer gefragt ob Apples niedrige Akkuangaben nicht auch mit konservativem rating zutun haben könnten. Immerhin hat man eins der kompaktesten board designs am Markt und die Akkus sind dadurch auf den ersten Blick vergleichbar groß wie bei anderen Herstellern mit höherem rating. Dafür sieht die Kapazität dann eher mau aus bei Apple.
Was wäre wenn Apple zugunsten der Haltbarkeit nicht die volle Kapazität rated, also nicht 2,5V-4,3V lädt, sondern nur 3-4,2V oder so?
Das könnte man leicht überprüfen wenn man einen Apple Akku bekannter Kapazität wiegt gegenüber einem samsung, Huawei oder so und die energiedichte berechnet.
Ein anderer Effekt, den ich von Lipos und Powertool Batterien kenne ist dass der Aufbau durchaus abweicht je nach Power-Rating des Akkus. Apples nutzt sowohl in den iphones als auch Macbooks den Akku als Kondensator zur Pufferung von Peak loads. Da die Apple P-cores durchaus höhere Peakströme haben können als ein generischer snapdragon, brauchen sie auch stromfestere Akkus. Das bedeutet dickere Elektrodenschichten, die höhere Ströme ab können und im Umkehrschluss eben etwas weniger Kapazität.
smalM
2021-10-17, 19:18:15
Noch 24 Stunden, wir warten auf den Weihnachtsmann... ;)
Dabei habe ich mir gaaanz fest vorgenommen, keinen Mac zu kaufen, bevor die CPUs nicht zu ARMv9 wechseln!
Mortalvision
2021-10-17, 20:00:48
Dann bleibe bitte standhaft. Das neue MacBook wird keine Meilensteine setzen...
Felixxz2
2021-10-17, 22:36:17
Es wird sehr sicher mit Abstand der schnellste Laptop am Markt.
davidzo
2021-10-17, 22:53:41
Dann bleibe bitte standhaft. Das neue MacBook wird keine Meilensteine setzen...
Muss es auch nicht, es reicht völlig wenn es die alten Meilensteine die mit der A1398 Modellfamilie geschaffen wurden erreicht: Best in class Bildschirm, gute Tastatur, leise Kühlung, gute port selection für profis, magsafe, stabilstes Gehäuse der Klasse, exzellente Akkus und Langlebigkeit, etc.
Das ist immer noch die Blaupause für die besten Workstation/Studio Notebooks am Markt, siehe Dell XPS, Razer Blade, Surface labtop studio etc.
Es reicht wenn man diesen Stand wieder erreicht und dabei mit dem M2 natürlich zeitgemäße, womöglich sogar die Klassenbeste Leistung abliefert die für den profesionellen Nutzer wieder eine Nutzungsdauer von 6-8 Jahren ermöglicht.
Mein 2014er A1398 ist immer noch top in schuss und mit der damaligen Vollausstattung auch noch nicht langsam, aber so langsam sollten sie schonmal mit einer Alternative rumkommen, denn was es zwischenzeitlich so alles gab kam imo für Profis einfach nicht in Frage.
VooDoo7mx
2021-10-18, 17:46:41
Es wird sehr sicher mit Abstand der schnellste Laptop am Markt.
Mit Sicherheit nicht.
Hochgezüchtete AMD/Intel Kisten wo die CPU 80-100W ziehen kann + RTX 3080 werden sicher im absoluten noch deutlich schneller sein, besonders was auch 3D Performance angeht.
Jedoch wird bei den geschätzten Verbrauch von 30-40W unter Volllast die Energieeffizienz und damit alles was damit zusammenhängt meilwenweit vor AMD/Intel liegen.
smalM
2021-10-18, 18:57:58
Ich glaube nicht, daß irgend jemand wirklich erwartet, daß Apple mit Spiele-Notebooks im Bereich >5 Sone konkurriert...
Apple-Event:
Wer sucht denn bei Apple die Warte-Musik aus? Was ein Sch...rott!
VooDoo7mx
2021-10-18, 19:08:45
Ich glaube nicht, daß irgend jemand wirklich erwartet, daß Apple mit Spiele-Notebooks im Bereich >5 Sone konkurriert...
Nein das werden sie sicher niocht, es sind aber nicht nur Spiele Notebooks, es gibt auch Workstation Geräte mit ähnlicher Hardware.
Und Wirklich leise ist Apple auch nicht. Wenn z.B. in meinen M1 Macbook bei 20W der Lüfter aufdreht ist der nicht wirklich leise und hat auch ein fieses Geräusch.
Mein großes Lenovo Legion 5 Pro kann 20W praktisch lautlos wegkühlen.
Ich hoffe auch, dass Apple nicht so hässliche kleine Kreisch-Lüfter in den neuen Pros verbaut.
dildo4u
2021-10-18, 19:21:43
10.4 Tflops für die größte GPU und 400GB/sec Bandbreite für den MAX SOC.
MSABK
2021-10-18, 19:22:20
Geile Chips.
pixelguy
2021-10-18, 19:32:00
Ich finde sehr cool, dass sie scheinbar die Vorteile von Hardware und Software aus einer Hand nutzen.
Mortalvision
2021-10-18, 19:46:40
10.4 tflops wären vega vii leistung!
Ridcully
2021-10-18, 20:19:49
Wenn sich die Dinger auch in Spielen gut schlagen müssen Intel amd und Nvidia sich warm anziehen. Wenn ich derzeit einen ordentlichen Spiele PC kaufen will liege ich ohne Bildschirm bei 1600. das Ding verbraucht aber gut 10 mal mehr Strom als ein MacBook Pro ( 2400 €) und hat keinen Bildschirm.
MSABK
2021-10-18, 20:20:42
Die Preise sind aber wie gewohnt Wahnsinn. M1 Max nicht unter 3400€ wenn ich es richtig sehe.
Edit: M1 Max ab 3209€ im MBP 14.
Der Apple M1 Pro und der M1 Max. Beide Chips bieten eine 70 Prozent schnellere Prozessorleistung als der Apple M1. Dazu setzt Apple auf eine Kombination aus acht Performance-Kernen und zwei Effizienz-Kernen, welche für eine bessere Akkulaufzeit sorgen sollen. Der Apple M1 Pro kommt mit bis zu 32 GB LPDDR5-Arbeitsspeicher bei einer Bandbreite von 200 GB/s, der M1 Max kann sogar mit bis zu 64 GB RAM mit einer beeindruckenden Bandbreite von 400 GB/s kombiniert werden.
https://www.notebookcheck.com/Das-neue-MacBook-Pro-kommt-mit-Apple-M1-Pro-M1-Max-21h-Laufzeit-und-120-Hz-Mini-LED-Display.573810.0.html
Mortalvision
2021-10-18, 20:48:35
Für den Preis darfs gerne so schnell sein. Ich war gedanklich bei den einfachen Macbooks, sorry.
smalM
2021-10-18, 20:56:15
Schön, daß Apple wieder Die-Shots mitgeliefert hat:
3 CPU-Cluster (schlicht P-Cluster 1:1 gedoppelt und E-Cluster um 2 Cores verkleinert).
2x bzw. 4x die 8-Core-GPU aneinander gesetzt.
Kein zentraler SLC mehr.
Hat der M1 Max eine zweite NPU bekommen, einfach weil noch Platz auf dem Die über war? :biggrin:
Die-Größe ∏xDaumen grob geschätzt: M1 Pro 250 mm² und M1 Max 425 mm²?
Ich muß zugeben, ich hätte nicht gedacht, daß das MacBook Pro 14 in voller Konfiguration zu haben ist.
Nächster Halt:
Big iMac und fat Mac mini.
fizzo
2021-10-18, 20:58:28
https://winfuture.de/news,125861.html
30/60 Watt. M1Pro/Max sind schlichtweg konkurrenzlos.
Platos
2021-10-18, 20:58:51
Gibts zufälligerweise Informationen zum Gewicht des 14- und 16-Zöller?
Für den Preis darfs gerne so schnell sein. Ich war gedanklich bei den einfachen Macbooks, sorry.
Ja, sau teuer. Apple halt. Was anderes habe ich nicht erwartet.
fizzo
2021-10-18, 21:02:54
Gibts zufälligerweise Informationen zum Gewicht des 14- und 16-Zöller?
1,6 bzw. 2,1kg.
https://www.apple.com/at/macbook-pro/
MSABK
2021-10-18, 21:04:00
1,6 bzw. 2,1kg.
https://www.apple.com/at/macbook-pro/
Mit M1 Max 2,2kg.
Platos
2021-10-18, 21:04:26
1,6 bzw. 2,1kg.
https://www.apple.com/at/macbook-pro/
Ach so, da habe ich gar nicht geschaut, danke :D
pixelguy
2021-10-18, 21:18:46
Ich kann mir garnicht vorstellen, was ein Mac Pro mit einer Desktop CPU leisten könnte...
Das neue MacBook Pro ist mit dem M1 Max ja jetzt schon so schnell bei der 8K Wiedergabe wie ein Mac Pro plus Afterburner-Karte...
Und es ist verdammt schade, dass Apple scheinbar kein Interesse an einer eigenen Konsole hat.
mocad_tom
2021-10-18, 21:25:05
Hat jemand gesehen, ob das die CPUs aus dem A14 Chip sind, oder die CPUs aus dem A15 Chip?
Die schicksten Laptops für Zoom-Konferenzen und zum Couchsurfen.
urpils
2021-10-18, 21:28:53
Hat jemand gesehen, ob das die CPUs aus dem A14 Chip sind, oder die CPUs aus dem A15 Chip?
Die schicksten Laptops für Zoom-Konferenzen und zum Couchsurfen.
A14
boxleitnerb
2021-10-18, 21:38:06
Das 14" bestellt. Das Gewicht und die geringere Akkulaufzeit stören mich, hoffe das relativiert sich bei derselben Helligkeit. Muss mir abends keinen Sonnenbrand vor dem Macbook holen :)
Aber so 100% überzeugt bin ich von meiner Bestellung irgendwie nicht...
Daredevil
2021-10-18, 21:45:24
HDMI 2.1? :(
Platos
2021-10-18, 22:05:16
Das 14" bestellt. Das Gewicht und die geringere Akkulaufzeit stören mich, hoffe das relativiert sich bei derselben Helligkeit. Muss mir abends keinen Sonnenbrand vor dem Macbook holen :)
Aber so 100% überzeugt bin ich von meiner Bestellung irgendwie nicht...
Und wieso hast du dann bestellt?
smalM
2021-10-18, 22:07:58
Ich kann mir garnicht vorstellen, was ein Mac Pro mit einer Desktop CPU leisten könnte...
Ich nehme an, ein Mac Pro wird einfach mehr von allem haben, aber es wird keine Unterschiede in der Ausprägung der Einzelteile geben.
Hat jemand gesehen, ob das die CPUs aus dem A14 Chip sind, oder die CPUs aus dem A15 Chip?
Das eine P-Cluster ist eine 1:1 Kopie aus dem M1, das zweite P-Cluster ein Spiegelbild davon. Dem E-Cluster wurden einfach nur 2 Cores abgeschnippelt.
Die beiden neuen Chips gehören durch und durch zur A14-/M1-Generation.
Hmm, sind alle Funktionsblöcke am unteren Rand des M1-Max-Dies überhaupt aktiv oder teils nur zur Vermeidung von Spannungen auf dem Die dort existent?
Mindestens drei davon sind schlicht von oben runterkopiert, bspw. eine komplette NPU, die nicht benutzt wird.
boxleitnerb
2021-10-18, 22:09:56
Und wieso hast du dann bestellt?
Im Endeffekt weil ich die Leistung brauche und nicht länger warten wollte. Alternative wäre gegen Mai 2022 das Air gewesen, aber das ist mir zu lange hin.
Ich rede mir ein, dass beide Punkte nicht so wild sind. Auf den Bildschirm bin ich wegen Bildbearbeitung schon sehr gespannt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.