PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25

deekey777
2019-04-25, 09:46:08
Unabhängig vom Image und vermutlich den Rabatten bietet AMD aktuell nicht so ein feines Portfolio an Möglichkeiten wie Intel (z.B. die Klasse AmberLake für das neueste MB Air).

.
So feines wie ein Canon Lake?

Banded Kestrel (von dem man schon seit mindestens 2017 Bescheid wusste) ist gerade veröffentlicht worden. Und auf der damaligen Folie war was von TDP von 4,5W zu lesen. TB3 ist heute kein Problem, wenn man will.

Ja natürlich, AMD hat derzeit den Nachteil, keine Sechs- und Achtkerner mit intergrierter GPU anzubieten.

MSABK
2019-04-25, 10:25:03
Unabhängig vom Image und vermutlich den Rabatten bietet AMD aktuell nicht so ein feines Portfolio an Möglichkeiten wie Intel (z.B. die Klasse AmberLake für das neueste MB Air).

Zusätzlich die Umstellung in der Produktion, HW/SW Entwicklung + KnowHow Aufbau... Neee, dann lieber Schrittweise auf ARM umstellen und alles komplett in der eigenen Hand haben. Für "Legacy" kann man immer noch eine Intel-basierten Mac Pro / MB Pro mitlaufen lassen.

Vlt machen sie es wie bei den iPad. Einmal normale Macbooks mit ARM und dann die Pro Modelle mit Intel.

Bei den Tablets fahren sie ja auch mit USB-C zweigleisig, klar kann man nicht vergleichen.

Warum ist TB3 kein Problem? Es gibt kein einziges Notebook mit Amd apu und TB3 soweit ich weiss.

Loeschzwerg
2019-04-25, 10:43:33
Ja, man könnte mit den MacBook 12 und Air anfangen. Für das Anwenderfeld dürfte das hinsichtlich Software recht wenige Probleme bereiten.

So feines wie ein Canon Lake?

Banded Kestrel (von dem man schon seit mindestens 2017 Bescheid wusste) ist gerade veröffentlicht worden. Und auf der damaligen Folie war was von TDP von 4,5W zu lesen. TB3 ist heute kein Problem, wenn man will.


Was ist CNL :freak: Fein im Sinne von Auswahlmöglichkeiten.

Bevor Apple jetzt auf BK (aktuell eh Embedded only) setzt könnte man auch gleich auf ICL-Y/TGL-Y gehen. Das FP5 Package ist zudem recht... fett, verglichen zum Y.

Ne, das passt einfach alles nicht.

deekey777
2019-04-25, 10:44:14
Es ist kein Problem, weil es jedem freisteht, TB3 auf AMD-Mainboards zu verbauen. Nur macht es keiner. Ok, Einer macht es.

Iamnobot
2019-04-25, 10:48:46
Mittelfristig wird das sowieso kein Problem mehr darstellen (USB 4.0).

robbitop
2019-04-25, 10:49:01
Spätestens mit USB 4.0 ist das Thema dann doch eh gegessen. :) edit: zu spät

IMO hat AMD erst mit Renoir das potenziell bessere Produkt für mobile. Und um Apple zu bewegen zu wechseln macht aus einer Schwalbe noch keinen Sommer. Da müsste man sicherlich einige Jahre lang hintereinander das bessere Produkt liefern, um solche Schwergewichte umzustimmen.

MSABK
2019-04-25, 11:01:48
Es ist kein Problem, weil es jedem freisteht, TB3 auf AMD-Mainboards zu verbauen. Nur macht es keiner. Ok, Einer macht es.

Welches Gerät hat eine AMD apu und TB3?

deekey777
2019-04-25, 11:05:01
Welches Gerät hat eine AMD apu und TB3?
Gar keins. Wo ist jetzt dein Problem?

MSABK
2019-04-25, 11:41:19
Gar keins. Wo ist jetzt dein Problem?

Ah du hast Mainboard geschrieben, dachte Notebook. Hatte mich interessiert welches AMD notebook tb3 hat.;)

deekey777
2019-04-25, 12:04:45
Ah du hast Mainboard geschrieben, dachte Notebook. Hatte mich interessiert welches AMD notebook tb3 hat.;)
Ändert leider nichts daran:
Keiner bis auf das eine Mainboard TB3 ist gewillt, auf AMD-Mainboards und insbesondere in Laptops mit APUs zu verbauen. Das sind eher Kostengründe.

Wenn Apple wollte, hätten sie schon das eine oder andere Modell mit APUs im Angebot. Es muss nicht ja ein Laptop sein. Oder eben mit fetten Ryzens.

Auf der anderen Seite kann ich schon verstehen, warum Apple noch auf Intel setzt: unter anderem wegen QSV.

Naja, Apple wird eben auf seine ARM-SoCs setzen.

MSABK
2019-04-25, 12:07:16
Denke auch das lohnt sich nicht für Apple auf AMD umzusteigen, eher geht man voll auf eigene Lösungen.

Da steigt denke ich eher Microsoft auf AMD um in ihren Surface Produkten.

smalM
2019-06-05, 11:16:45
WWDC rum, kein Plan für eine Umstellung der Macs auf ARM vorgestellt – die Spekulationen können also für das nächste Dreiviertel Jahr eingestellt werden...

Loeschzwerg
2019-06-05, 11:23:42
Jup, kurzfristig tut sich da nichts, das war aber auch schon vorher klar.

Mit macOS 10.15 hält Catalina Einzug (Nutzung von iOS Apps möglich) und iTunes wird verbannt. Wenn die Softwareumgebung mal zu einem gewissen Grad angepasst wurde kann es schnell gehen.

MSABK
2019-06-05, 11:29:13
Apple Musik, Apple TV und allgemein iOS Apps für den Mac. Apple legt schon den Grundstein für die Entwicklung. Ich denke nächstes Jahr wird dann Apple Xcode auf das iPad bringen und das legt den letzten Grundstein für ein ARM MacBook.

Iamnobot
2019-06-05, 11:50:52
die Spekulationen können also für das nächste Dreiviertel Jahr eingestellt werden...
Das Abkoppeln von I OS fürs I Pad von dem fürs I Phone deutet doch schon an, wo die Reise mittelfristig hingeht: Walled Garden OS für Consumer-Produke mit ARM-basierten SoCs.

MSABK
2019-06-05, 12:27:55
Das Abkoppeln von I OS fürs I Pad von dem fürs I Phone deutet doch schon an, wo die Reise mittelfristig hingeht: Walled Garden OS für Consumer-Produke mit ARM-basierten SoCs.

Das geschloßene System wird aber immer flexibler und erlaubt jetzt den Zugriff auf einen USB-Stick. Das ist für Apple Verhältnisse relativ viel aktuell.:)

Iamnobot
2019-06-05, 13:28:04
Das stimmt schon aber der Grundansatz bleibt letztlich gleich. Und auch wenn jetzt USB-Sticks gnädigerweise erlaubt sind: Ohne ein eventuelles Einschreiten von Kartellbehörden wird sich an der Kopplung an den App Store samt Apple-Steuer nichts ändern.

MSABK
2019-07-10, 09:37:13
So, Apple hat das MacBook mit 12 Zoll Display aus dem Sortiment raus. Mal sehen, vlt wird dieses Modell ja auf ARM umgestellt.:)

deekey777
2019-07-10, 09:54:10
So, Apple hat das MacBook mit 12 Zoll Display aus dem Sortiment raus. Mal sehen, vlt wird dieses Modell ja auf ARM umgestellt.:)
Das ist aber sehr spekulativ.

Es war schon etwas überraschend, dass Apple das MacBook einstellt, damit gibt es kein kleineres (lüfterloses) Notebook von Apple. Aber man weiß ja nicht, was Apple mit dem iPadOS genau vorhat. Sie könnten ja auf die Idee kommen, potentielle MB-Käufer anzusprechen, die mit dem iPadOS gut leben können.

pixelguy
2019-07-10, 10:09:57
da sie das Ding explizit iPadOS genannt haben, glaube ich nicht, dass da jemals etwas in Kombination mit einem MacBook kommt.

deekey777
2019-07-10, 10:50:33
da sie das Ding explizit iPadOS genannt haben, glaube ich nicht, dass da jemals etwas in Kombination mit einem MacBook kommt.

Das meinte ich auch nicht. Es geht darum, dass Apple versuchen wird, die eigentlichen MB-Käufer zum Kauf des (künftigen) iPad (Pro) zu bewegen.

Dass es kein vollwertiger Ersatz ist, dürfte klar sein.

smalM
2019-08-22, 18:49:19
Mark Gurman - Bloomberg (https://www.bloomberg.com/news/articles/2019-08-22/iphone-11-new-ipad-pro-16-inch-macbook-pro-airpods-3-features): "There’s a new component in the chip, known internally as the “AMX” or “matrix” co-processor, to handle some math-heavy tasks, so the main chip doesn’t have to. That may help with computer vision and augmented reality, which Apple is pushing a core feature of its mobile devices."

Was der gute Mann da wohl aufgeschnappt hat?
Interna aus der SoC-Entwicklung gab es bisher noch nie...

robbitop
2019-08-22, 20:12:07
Wo wäre da eigentlich der Unterschied zu Tensorcores? Die machen doch auch Matrixoperationen. (ginge natürlich aber auch über die ALUs der GPU über mehrere Takte)
Ähnliches ist ja mittlerweile auch bei QComs SoCs und Samsungs SoCs für AI verbaut. Oder verstehe ich hier etwas falsch?

Kallenpeter
2019-08-22, 20:57:02
@robbitop: Meinst du es geht dabei um Matrizenrechnung? Apple hat doch schon extra cores für KI-Aufgaben, die werden doch genau dafür sein. Wenn es also noch einen neuen extra core gibt, wird der doch für andere Dinge da sein:confused:

robbitop
2019-08-22, 22:35:11
Das Wort „matrix“ fiel.
Matrizen kommen in generellem Code viel zu selten vor, damit es hilfreich ist. Bei Inferencing ist das zB der Fall. Warum nicht die Einheit nutzen, sofern das auch für andere Dinge sinnvoll ist?

Sunrise
2019-08-23, 13:13:48
Habe ich auch schon gelesen, allerdings ist das nicht wirklich überraschend.

Apple hat inzwischen mehr als genug konventionelle, performante Cores, die sie ja stetig weiter aufbohren und sie sind total auf dem AR-Trip, da werden sicher bestimmte Berechnungen, die sehr häufig verwendet werden müssen, im Endeffekt ausgelagert, kostet auch zuviel Energie das die Main-Cores machen zu lassen, weil die dann ständig auf höchster Performance laufen müssten.

Die wollen ja was mit den Kameras machen (spätestens ab 2020), auch das bedingt u.U. zusätzliche Logik, damit es umsetzbar und nutzbar ist. Zudem erwarte ich von 7nm+ jetzt nicht diese starken Verbesserungen, sie brauchen also mal was Neues, das sie wieder hypen können. Wir sind nichtmehr an dem Punkt, wo die Frage ist, was ich mit dem Handy alles machen kann, sondern was ich nur dem Handy machen kann, was so nicht ohne Weiteres (Aufwand) anders mobil möglich ist. Das ist für Apple auch wichtig, denn man hat ja den Anspruch bzw. will die hohen Preise durch irgendwas rechtfertigen, die iPhones verkaufen sich nichtmehr so gut, wie es mal war.

Wobei ich denke, dass viele einfach auf 5G warten und dann wird zugeschlagen. 2020 soll ja einiges passieren, evtl. wird auch der Notch komplett wegfallen. Dieses Jahr erwarte ich insgesamt nichts Weltbewegendes.

deekey777
2019-09-11, 10:24:45
Hier das Techtalk zum A13 Bionic und Metal: https://developer.apple.com/videos/play/tech-talks/608/

2+4-CPU-Kerne und 4 GPU-Kerne. Und schneller als alles in der Welt natürlich.

Apple ist ja redselig: doppelte FP16 Texturenfoilterung, FP16 Denormals, besseres "Render/Compute-Sharing" (Async gibt es schon seit Apple A9).

Sunrise
2019-09-11, 13:20:10
Egal was Apple sonst so macht, das SoC-Team hat dieses Mal wieder ganze Arbeit geleistet.

Wenn man mal davon ausgeht, dass der Schritt von 7nm FF auf FF+ EUV kein sonderlich großer ist - auch wenn nicht klar ist, ob Apple hier noch Secret Sauce als Beilage hat, denn die Steigerungen empfinde ich schon als überraschend - dann kann man nur gratulieren.

Performance Cores +20% bei 30% geringerem Energiebedarf
Low-Power Cores ebenso +20% mit identisch geringerem Energiebedarf

Und dann die GPU mit +20% Mehrleistung und fetten 40% geringerem Energiebedarf.

Das wären dann fast 6000 Punkte beim Geekbench 4 Single-Core...

...wahnwitzig.

MSABK
2019-09-11, 13:26:06
Geht ihr also weiterhin von 7nm aus?

Könnte man daraus etwas auf die Zukunft vom AMD Ryzen projizieren bzgl. der Fertigung?

dildo4u
2019-09-11, 13:36:09
Apple scheint diesmal bewusst auf Leistung verzichtet zu haben um bessere Laufzeiten zu garantieren.Ist also schwer dort mit AMD Vergleiche zu ziehen.
AMD kann gegen Intel nicht auf die Bremse treten da sie nicht so ein massiv IPC Vorsprung haben wie es bei Apple vs Snapdragon der Fall ist.

deekey777
2019-09-11, 14:28:02
Apple scheint diesmal bewusst auf Leistung verzichtet zu haben um bessere Laufzeiten zu garantieren.Ist also schwer dort mit AMD Vergleiche zu ziehen.
AMD kann gegen Intel nicht auf die Bremse treten da sie nicht so ein massiv IPC Vorsprung haben wie es bei Apple vs Snapdragon der Fall ist.
Was schreibst du da für wirres Zeug?

Wo hat Apple auf Leistung verzichtet? Hast du überhaupt die Präsentation gesehen, wo man gerade auf die Verbesserungen bei Stromspartechniken eingeht?

smalM
2019-09-12, 11:58:56
iPhone12,3 in GeekBench 4 (https://browser.geekbench.com/v4/cpu/compare/14406742?baseline=14601046).

Und (via Entropy/Beyond3D) in GeekBench 5 (https://browser.geekbench.com/v5/cpu/compare/122445?baseline=124312).

deLuxX`
2019-09-18, 06:59:08
Weiß man schon wie groß A13 ist?

smalM
2019-09-18, 11:51:45
Nein.
iPhones gibt's erst ab Freitag und dann brauchen die üblichen Verdächtigen noch ein paar Tage für einen Die-Shot. Ich rechne mit Mitte nächster Woche.

Beim A12 kam Apple mit dem N7 nur auf 83 MT/mm², deutlich weniger als Qualcomm und HiSilicon. Obwohl für den N7P kein Shrink vorgesehen ist, könnte der A13 trotzdem dichter werden, zumal der Zuwachs an 1,6 Mrd. Transistoren ja ganz überwiegend Logic und RAM betreffen wird, nicht aber Analog. Die Fläche mag also unter 100mm² betragen.

y33H@
2019-09-18, 14:21:00
Ist es N7P oder N7+?

deLuxX`
2019-09-19, 20:43:18
An Exclusive Look Inside Apple’s A13 Bionic Chip:
https://www.wired.com/story/apple-a13-bionic-chip-iphone/

reaperrr
2019-09-19, 22:19:16
Ist es N7P oder N7+?
Das habe ich mich auch gefragt, denn wenn ich es richtig im Kopf habe, soll N7+ immerhin (bis zu) 17% weniger Fläche für die gleiche Menge Transistoren ermöglichen, während N7P im Grunde (auch wenn der Name was anderes suggerieren mag) eher die Performance-Variante von N6 ist (EUV, aber Design-technisch "rückwärtskompatibel" zu N7, so dass ein N7-Design - anders als für N7+ - quasi nur neu kompiliert werden muss).

Daher halte ich N7+ für wahrscheinlicher, da der auch in Sachen Perf/Effizienz mehr bringt als N7P.

y33H@
2019-09-20, 11:43:42
An Exclusive Look Inside Apple’s A13 Bionic Chip:
https://www.wired.com/story/apple-a13-bionic-chip-iphone/
Leider nur Bla und nichts Neues, der arme Anand wurde für ne Null-Aussage aus dem Keller geholt :freak:

smalM
2019-09-21, 12:41:27
Daher halte ich N7+ für wahrscheinlicher, da der auch in Sachen Perf/Effizienz mehr bringt als N7P.

Da nur von '7nm second generation' die Rede war, glaube ich eher an N7P. Ich kann mir nicht vorstellen, daß die kommerzielle Verfügbarkeit des ersten mit EUV hergestellten Chips nicht extra erwähnt worden wäre. Außerdem glaube ich, daß Apple die Unwägbarkeiten einer EUV-Produktion zu groß gewesen wären. Man braucht immerhin eine halbe Million Dies am Tag.

AffenJack
2019-09-21, 13:17:01
Da nur von '7nm second generation' die Rede war, glaube ich eher an N7P. Ich kann mir nicht vorstellen, daß die kommerzielle Verfügbarkeit des ersten mit EUV hergestellten Chips nicht extra erwähnt worden wäre. Außerdem glaube ich, daß Apple die Unwägbarkeiten einer EUV-Produktion zu groß gewesen wären. Man braucht immerhin eine halbe Million Dies am Tag.

Jupp. N7P als Prozess existiert auch nur wegen Apple. N7+ war zu riskant/ zu spät bereit, aber Apple will jedes Jahr nen neuen Prozess. Deswegen gibts nun N7P. Das gleiche dann 2021 mit N5P.

deLuxX`
2019-09-21, 14:54:14
Was ich nicht verstehe ist folgendes: Es gibt ja einige Vergleiche OP7 Pro vs. iPhone XS. Das OP7 ist bei den allermeisten App Starts schneller. Warum? Schon der A12 ist in verschiedenen künstlichen Benchmarks außer Reichweite für den SD855. Am Flash Speicher kann es IMO nicht liegen, da sind beide sehr schnell unterwegs. Ich schätze dass da auch der A13 nicht herankommt.
Und ja, es gibt andere Workloads bei denen der A13 sicher den 855 aus dem Wasser bläst. Aber für mein „Smoothness“ Empfinden macht der App Start einfach viel aus.
iOS wurde ja in der vergangenen Major Releases auch immer weiter auf Speed getrimmt und ich halte Apple da für sehr fähig. Auch weil sie den kompletten Stack (HW + SW) sehr genau aufeinander abstimmen.

Hat da jemand eine Erklärung für?

edit: In Summe: wenn man sich die Benchmarks anschaut und dann noch in Betracht zieht, dass Apple Software und Hardware füreinander entwickelt, hätten alle anderen keine Chance was Real World Geschwindigkeit angeht. Das ist aber nicht durchgängig der Fall.

Iamnobot
2019-09-21, 15:06:22
wenn man sich die Benchmarks anschaut und dann noch in Betracht zieht, dass Apple Software und Hardware füreinander entwickelt, hätten alle anderen keine Chance was Real World Geschwindigkeit angeht. Das ist aber nicht durchgängig der Fall.
Wenn man sich Benchmarks anschaut, ziehen die Apples A-SoCs auch gestandene Desktop CPUs ab.
Was sagt das über die Benchmarks? ;)

deLuxX`
2019-09-21, 15:10:12
Wenn man sich Benchmarks anschaut, ziehen die Apples A-SoCs auch gestandene Desktop CPUs ab.
Was sagt das über die Benchmarks? ;)
Mit anderen Worten: Apple SoCs sind Blender was Real World angeht?

robbitop
2019-09-21, 15:11:33
Zumindest gb ist mit Vorsicht zu genießen, da auch einige HW beschleunigte Sachen mitgemessen werden.
ZB SPEC hingegen ist OK. Würde mich nicht wundern, wenn A13 pro Takt mehr leistet als Skylake und Zen 2.

Sollten die SoCs mal in die Macbooks kommen, kann man auch Realworldvergleiche anstellen.

deLuxX`
2019-09-21, 15:17:34
Zumindest gb ist mit Vorsicht zu genießen, da auch einige HW beschleunigte Sachen mitgemessen werden.
ZB SPEC hingegen ist OK. Würde mich nicht wundern, wenn A13 pro Takt mehr leistet als Skylake und Zen 2.

Sollten die SoCs mal in die Macbooks kommen, kann man auch Realworldvergleiche anstellen.
Auch bei SPEC finde ich, dass der Unterschied in der täglichen Benutzung nicht widergespiegelt wird.
Wie kann sich ein OP7 Pro in etwa gleich schnell anfühlen (bei App Starts fast durch die Bank schneller)?

Wo kommt meine Frage eigentlich her? Ich bin gerade auf der Suche nach einem Nachfolger für mein OP3T und bin ziemlich enttäuscht, dass ein sündhaft teures (den Preis wäre ich bereit zu zahlen) 11 Pro Max nicht das einlöst, was die Spezifikationen versprechen. Ich kann meine Gelüste nach Geschwindigkeit wohl auch mit einem halb so teurem OP7 Pro stillen. Alle anderen Aspekte (Kamera, OS) mal außer Acht gelassen.
Der Geschwindigkeitseindruck verschiebt sich ja noch weiter Richtung OP7 wenn man einige Apps offen hat und fröhlich zwischen diesen hin und her springt. In die 12 GB des OnePlus passt einfach 3x so viel rein wie in die 4 GB des 11 Pro Max. Software Optimierung hin oder her. Google ist da sicher auch nicht untätig. Schon garnicht weil Android 10 für die OnePlus Geräte gerade released wurde.

robbitop
2019-09-21, 15:38:53
Naja in Realworld ist ja nicht immer die CPU der Flaschenhals. Das merkt man wenn man Vorjahres SoCs in Bezug auf Appstart mit den neuen vergleicht. Trotz mehr Leistung quasi glwiche Startdauer.Die Apple SoCs sind den übrigen massiv überlegen und verbrauchen dabei weniger.
Wobei ich mich frage wo da genau der Schuh drückt. Bei meinem YR und vorger bei meinem iPhone 7 läuft alles flüssig und Apps starten super schnell.

smalM
2019-09-21, 15:46:17
ZB SPEC hingegen ist OK. Würde mich nicht wundern, wenn A13 pro Takt mehr leistet als Skylake und Zen 2.
Das tut schon der A11.
Bei AnandTech wird's wohl demnächst die neuesten Zahlen geben, hoffentlich für beides, Spec2006 und Spec2017.

deLuxX`
2019-09-21, 16:07:26
Naja in Realworld ist ja nicht immer die CPU der Flaschenhals. Das merkt man wenn man Vorjahres SoCs in Bezug auf Appstart mit den neuen vergleicht. Trotz mehr Leistung quasi glwiche Startdauer.Die Apple SoCs sind den übrigen massiv überlegen und verbrauchen dabei weniger.
Wobei ich mich frage wo da genau der Schuh drückt. Bei meinem YR und vorger bei meinem iPhone 7 läuft alles flüssig und Apps starten super schnell.
Provokant gesagt ist es mir als Käufer erstmal egal wo da der Flaschenhals ist und ich möchte nicht dass mein 1.400 € Gerät von einem 700 € Gerät geschlagen wird oder es bei normaler Nutzung gleichzieht im Mittel. Für so einen großen Unterschied erwarte ich einfach absolute Dominanz - nicht nur in Benchmarks. Und nicht falsch verstehen, ich war drauf und dran mir ein 11 Pro Max zu kaufen. Bin da absolut emotionslos. Besitze ein iPad 2017 und eben das OP3T, hat also mit Fanboy oder so etwas kindischem nichts zu tun.
Erwarte ich zu viel oder hab einfach Tomaten auf den Augen?

robbitop
2019-09-21, 16:39:13
Kann jeder kaufen und machen was er will. Ist ein freies Land. Bei Apple zahlt man einen Premiumaufschlag.
Vorteile sind mMn das sehr gute Ökosystem (Tablet, Watch, TV und Smartphone sind sehr gut verzahnt) und die lange Unterstützung des OS. Immer das neuste OS für >4 Jahre. Wenn die RAM Menge (hier geizt Apple leider idr) nicht wäre, wären die Dinger auch konkurrenzlos langlebig. Bzw langlebiger als sie sind. Den Vorteil der hohen Performance merkt man idR erst nach ein paar Jahren, wenn trotzdem noch alles super läuft.
Bspw läuft mein iPad Pro mit A10X (mit Cores aus dem Jahr 2016!!) noch genauso flink wie ein neues Gerät. Auch A9 Geräte mit 4 Jahre alten Cores tun das noch. Selbst das Air 2 von meinem Kumple mit A8x (5 Jahre alte Cores) rennt noch ziemlich super mit iOS12.

Beim PC ist es ja ähnlich. Ob jetzt Core i3 oder Core i9 - merkt man beim Booten und beim Start von Programmen kaum solange eine schnelle ssd und genug RAM verbaut ist. Oder auch ein 2-3 Kahre alter Core.
Und auf dem Smartphone gibt es nunmal kaum Apps die durch CPU/GPU Leistung limitiert aind.

Wird der Kram massiv älter (im PC) merkt man obigen Unterschied dann auch.

urpils
2019-09-21, 19:23:59
Provokant gesagt ist es mir als Käufer erstmal egal wo da der Flaschenhals ist und ich möchte nicht dass mein 1.400 € Gerät von einem 700 € Gerät geschlagen wird oder es bei normaler Nutzung gleichzieht im Mittel. Für so einen großen Unterschied erwarte ich einfach absolute Dominanz - nicht nur in Benchmarks. Und nicht falsch verstehen, ich war drauf und dran mir ein 11 Pro Max zu kaufen. Bin da absolut emotionslos. Besitze ein iPad 2017 und eben das OP3T, hat also mit Fanboy oder so etwas kindischem nichts zu tun.
Erwarte ich zu viel oder hab einfach Tomaten auf den Augen?

worauf genau beziehst du dich denn?

also welcher Test oder welche Situation? iOS13? 13.1 beta? gegen was genau und in welchem setting?

bluey
2019-09-22, 09:20:30
Auch bei SPEC finde ich, dass der Unterschied in der täglichen Benutzung nicht widergespiegelt wird.
Wie kann sich ein OP7 Pro in etwa gleich schnell anfühlen (bei App Starts fast durch die Bank schneller)?

Was für ein Quatsch so zu vergleich. Apps laufen auf unterschiedlichen Plattformen (OS, Frameworks, Software Architektur, Caching .... könnte stunden lang weiter gehen), geschrieben von unterschiedlichen Teams. Da ist der "App Start" der schlechteste Weg zu vergleichen.

urpils
2019-09-29, 10:44:22
hat irgendwer mittlerweile irgendwo tiefergehende Analyse gefunden? die üblichen Verdächtigen (Anandtech, Arstechnica,...) sind merkwürdig still

Platos
2019-09-29, 11:19:48
Warum sollten sie ein 12" Macbook mit ARM Hardware rausbringen, wenn sie ihr 12,9" Tablet haben? Dass sie das Macbook raus genommen haben, zeigt doch eher vielmehr, dass sie voll aufs Tablet setzen und Laptops denen überlassen, die wirklich "arbeiten" müssen.

Ich glaube kaum, dass ein Macbook Pro in den nächsten 5 Jahren mit einem ARM SoC ausgestattet wird. Die ganze Software müsste man schliesslich auf IOS portieren bzw. IOS Laptop-kompatibel machen.

Und sobald man über modelle mit Grafikkarten redet, sind SoCs in der Leistung sowieso hochaus überlegen. Und wie gesagt, all die "Premium" Software für OS X müsste portiert werden.

robbitop
2019-09-29, 12:08:59
Sie müsste nicht iOS kompatibel werden. Es bleibt wahrscheinlich weiterhin bei MacOS nur dass die CPU nun ein ARM Instructionset ist. Da Apple die Compiler und die SDKs in der Hand hat, ist das vermutlich kein großer Schritt. Neu kompilieren.
In der Zwischenzeit kann man für legacy Software Emulation nutzen. Siehe Qualcomm und Windows. Auch hat Apple ja schon 2x das Instructionset gewechselt. In Zwischenzeit sind die SSKs inmer moderner und variabler geworden. Ich nehme an, dass in der Konstellation bei Apple (HW, OS und SDKs in einer Hand) dieser Schritt relativ machbar sein wird.

Anzunehmen ist, dass der Vorteil der deutlich höheren Perf/W ggü bisherigen ULV c86 CPUs sich lohnen könnte. Längere Akkulaufzeit, kleinerer Bauraum, leichter. Was auch immer. Damit könnte man seine Laptops potenziell schon vom Wettbewerb abheben. Sofern das zutrifft und Appe das wirklich will (beides nicht 100% klar), dann wird das passieren.

Platos
2019-09-29, 12:40:39
Emulation? Dann ist die Leistung aber bestimmt ziemlich kacke. Man sieht doch gerade bei Qualcomm und Windows wie wenig vorteilhaft das eigentlich ist. Ich finde das zumindest kein gelungenes Projekt (so wie es jetzt ist).

Aber selbst wenn, angenommen sie würden das so machen (ohne Emulation), wie wollen sie die GPU Leistung von den Macbook Pros erreichen, die eine Grafikkarte haben? Nie und nimmer möglich in den nächsten 5 Jahren, denke ich.

Und die eig. viel grössere Frage: Warum sollten sie das tun? Dann haben sie 3 Baustellen, denn aus meiner Sicht kann man (in naher Zukunft) a) die Leistungsstärkeren Laptops nicht mit ihren eigene SoCs ablösen und b) haben sie ja sowieso noch ihre Desktop-Macs. Jetzt haben sie ihre SoCs für IOS und Intel und AMD für OS X. Mit diesem Schritt hätten sie zusätzlich dazu noch die Arbeit, mit SoC und OS X und all der dazugehörigen Software, die dann auf 2 völlig verschiedenen Geräten/Hardware laufen müssten.

Ich weiss nicht, ob sich das lohnt?
Bin aber da zu wenig erfahren, um den genauen Aufwand einschätzen zu können. Aber ich weiss ja nicht, ob das dann besser ist.

robbitop
2019-09-29, 12:55:57
Emulation ist ja nur eine Zwischenlösung für Software die kein Update (rekompiliert) bekommen hat. Die Bedeutung sollte nicht allzu hoch sein.

Apple hat einen Batzen an RnD mehr als soziemlich jeder am Markt. Die mobilen SoCs sind bis zu einer bestimmten TDP wahrscheinlich deutlich energieeffienter als die x86 Produkte.
Zumindest für <28W könnte das gut passen.
Software kann sicherlich wenn entsprechend kompiliert auch mit beiden uSrchs gut laufen.
Ob man für den höheren TDP Bereich auch nochmal aktuelle SoCs und entsprechende uArchs entwickelt halte ich auch für fragwürdig. Die Umsätze sind da ja nicht mehr so furchtbar hoch. Eine uArch läuft auch nur in eingeschränktem TDP Bereich beste Effizienz. Darüber und darunter word es dann ineffizient. Die Ax SoCs sind sicherlich aktuell über 10-15W an dem Punkt. Die aktuellen Intel x86 eher unter 15W.
Ist halt immer eine Frage der Auslegung.

Rooter
2019-09-29, 13:33:36
Und die eig. viel grössere Frage: Warum sollten sie das tun?Nicht jeder braucht viel GPU-Power. Der Hipster, der mit seinem MacBook bei Starbucks sitzt, freut sich sicher über eine längere Laufzeit.
Natürlich hat er für das Gerät den alten Preis bezahlt, obwohl die Hardware sicher wesentlich günstiger herzustellen war... :wink:

MfG
Rooter

Platos
2019-09-29, 13:34:29
Ja gut, da bin ich jetzt überfragt.

Aber ich denke jetzt mal nicht, dass Apple ihre Macbook Pros mit etwas höherer TDP aus dem Markt nimmt (nur weil man da weniger Einnahmen macht, wie mit Tablets und Handys) bzw. generell die PC-Sparte fallen lässt. Zumindest nicht in den nächsten 10 Jahren.

Sunrise
2019-09-29, 13:43:31
hat irgendwer mittlerweile irgendwo tiefergehende Analyse gefunden? die üblichen Verdächtigen (Anandtech, Arstechnica,...) sind merkwürdig still
Bis aufs Displaymate-Review fehlen die leider aktuell noch, warte auch schon sehnsüchtig.

Vor allem interessieren mich Details über die GPU, ist schon brachial da eine Steigerung von 20% hinzulegen und 40% effizienter zu sein. Sowas sieht man eigentlich nur bei stärkeren Änderungen im Design. Die CPU finde ich relativ dazu jetzt nicht so spannend, auch wenn das Geleistete nicht minder beeindruckt. Da wurde wohl auch aus dem 7nm-Prozess (Pro) wohl wirklich was rausgeholt.

Rooter
2019-09-29, 13:55:54
Aber ich denke jetzt mal nicht, dass Apple ihre Macbook Pros mit etwas höherer TDP aus dem Markt nimmtDas denke ich auch nicht. Ich meinte ja die MacBooks ohne Pro.

MfG
Rooter

Iamnobot
2019-09-29, 14:07:58
Wenn die Apple A-SoCs wirklich die Wunder-SoCs wären, die Geekbench bzw. die Apple Marketingabteilung aus ihnen machen, wären sie schon lange komplett umgestiegen. Sind sie aber nicht. Sowohl als auch.

Einen ARM-Umstieg wie seinerzeit von PowerPC auf x86 halte ich nach Präsentation des neuen Mac Pro bzw. der Feature-Abkopplung der Ipads von den Iphones (Ipad OS/I OS) in absehbarer Zeit für sehr unwahrscheinlich.
Die Ipads decken den klassischen Consumer-Mobilbereich ab und wer mehr will, muss tiefer in die Tasche greifen und sich einen Mac kaufen. Consumer bekommen ARM-Konsolen, Creator verdongelte x64 PCs.

Sunrise
2019-09-29, 14:34:21
Wenn die Apple A-SoCs wirklich die Wunder-SoCs wären, die Geekbench bzw. die Apple Marketingabteilung aus ihnen machen, wären sie schon lange komplett umgestiegen. Sind sie aber nicht. Sowohl als auch.

Einen ARM-Umstieg wie seinerzeit von PowerPC auf x86 halte ich nach Präsentation des neuen Mac Pro bzw. der Feature-Abkopplung der Ipads von den Iphones (Ipad OS/I OS) in absehbarer Zeit für sehr unwahrscheinlich.
Die Ipads decken den klassischen Consumer-Mobilbereich ab und wer mehr will, muss tiefer in die Tasche greifen und sich einen Mac kaufen. Consumer bekommen ARM-Konsolen, Creator verdongelte x64 PCs.
Sehe ich ähnlich, du drückst das sehr ungeschönt aus. Man kommt aber nicht umhin, zu bemerken, wie stark die Konkurrenz bei AMD (und Intel wird wieder anziehen, keine Sorge) wieder angezogen hat und Apple weiß das ebenso.

Was Apple hier vielmehr probiert ist sich langsam in alle Märkte mehr und mehr "reinzufressen" (wenn es so weitergeht verkauft z.B. bald niemand mehr Kameras, nur noch für professionelle Fotografen) und anderen die langjährig gehaltenen Marktanteile abzunehmen, genau das was ein gutes, gewinnorientiertes Unternehmen eben machen sollte, um Marktanteile nicht nur organisch stabil bzw. auch wachsen zu lassen.

Es wäre schon denkbar, dass Apple die SoCs bzw. ihr Know-how in dem Bereich nach oben skaliert, und ich traue das auch keinem Konkurrenten zu. Das sind aber erstmal nur Theorien, die vor allem wegen der Vergangenheit, den starken SoCs und den iOS-/iPadOS -Anpassungen aufkommen.

Mehr gibt es aber dazu nicht zu sagen, denn nur weil Apple iOS/iPadOS mehr und mehr zu Desktop-ähnlichen Betriebssystemen ausbaut - damit ein iPad zusätzlich zu den Macbooks und iPhones den Marktanteil vergrößern - stehen AMD und Intel zusammen mit MS auch nicht still.

Ein Apple-SoC für Macbooks sollte kein Problem darstellen und um die Performance mach ich mir auch keine Sorgen, aber alles was dann über die 8 Cores geht (Ryzen 3000) sollte Apple erstmal egal sein.

Erinnert sich noch jemand an MS kläglichen Versuch, ein ARM-Windows zu etablieren? Apple hat die deutlich besseren "Karten", und wenn Apple das langsam angeht, halte ich das für die Masse an Anwendern für denkbar. Je nachdem ob Apple weiterhin das volle Potential "verdongeln" möchte oder nicht.

urpils
2019-09-29, 17:10:27
Wenn die Apple A-SoCs wirklich die Wunder-SoCs wären, die Geekbench bzw. die Apple Marketingabteilung aus ihnen machen, wären sie schon lange komplett umgestiegen. Sind sie aber nicht. Sowohl als auch.

Einen ARM-Umstieg wie seinerzeit von PowerPC auf x86 halte ich nach Präsentation des neuen Mac Pro bzw. der Feature-Abkopplung der Ipads von den Iphones (Ipad OS/I OS) in absehbarer Zeit für sehr unwahrscheinlich.
Die Ipads decken den klassischen Consumer-Mobilbereich ab und wer mehr will, muss tiefer in die Tasche greifen und sich einen Mac kaufen. Consumer bekommen ARM-Konsolen, Creator verdongelte x64 PCs.

ich sehe das anders:

Apple ist völlig von Intel abhängig, was ihre MacBooks und Macs angeht. Ein großer Teil der Kritik an Apples Mac(book)-Lineup der letzten Jahre lässt sich (direkt und indirekt) unter anderem auf Intel und ihre unberechenbare Produktverfügbarkeit zurückführen.

Zu einem "PC" gehört deutlich mehr, als einfach nur eine CPU und eine GPU: sämtliche peripheren Schnittstellen (insbesondere Thunderbolt, usw...) sind nicht einfach "für lau" zu haben. Apple ist gerade erst in den letzten 2-3 Jahren mit seinen inhouse-Designs in Bereiche vorgedrungen, wo sie für Laptop-Berieche ernsthaft interessant werden.

R&D für Laptops/stationäre Rechner steht in keinem Verhältnis zum zu erwartenden Gewinn, wenn man es den iPhones gegenüberstellt, weswegen es völlig nachvollziehbar ist (für mich), dass sie warten, bis sie mit ihren Designs ohnehin in Bereichen sind, wo sie langsam mit Laptop/Desktop Gefilden mithalten können.

Auch ist erst kürzlich Thunderbolt "offen" gelegt worden, sodass Apple bis vor kurzem zumindest dort schonmal Schwierigkeiten gehabt hätte.

Sehe ich ähnlich, du drückst das sehr ungeschönt aus. Man kommt aber nicht umhin, zu bemerken, wie stark die Konkurrenz bei AMD (und Intel wird wieder anziehen, keine Sorge) wieder angezogen hat und Apple weiß das ebenso.

Was Apple hier vielmehr probiert ist sich langsam in alle Märkte mehr und mehr "reinzufressen" (wenn es so weitergeht verkauft z.B. bald niemand mehr Kameras, nur noch für professionelle Fotografen) und anderen die langjährig gehaltenen Marktanteile abzunehmen, genau das was ein gutes, gewinnorientiertes Unternehmen eben machen sollte, um Marktanteile nicht nur organisch stabil bzw. auch wachsen zu lassen.

Es wäre schon denkbar, dass Apple die SoCs bzw. ihr Know-how in dem Bereich nach oben skaliert, und ich traue das auch keinem Konkurrenten zu. Das sind aber erstmal nur Theorien, die vor allem wegen der Vergangenheit, den starken SoCs und den iOS-/iPadOS -Anpassungen aufkommen.

Mehr gibt es aber dazu nicht zu sagen, denn nur weil Apple iOS/iPadOS mehr und mehr zu Desktop-ähnlichen Betriebssystemen ausbaut - damit ein iPad zusätzlich zu den Macbooks und iPhones den Marktanteil vergrößern - stehen AMD und Intel zusammen mit MS auch nicht still.

Ein Apple-SoC für Macbooks sollte kein Problem darstellen und um die Performance mach ich mir auch keine Sorgen, aber alles was dann über die 8 Cores geht (Ryzen 3000) sollte Apple erstmal egal sein.

Erinnert sich noch jemand an MS kläglichen Versuch, ein ARM-Windows zu etablieren? Apple hat die deutlich besseren "Karten", und wenn Apple das langsam angeht, halte ich das für die Masse an Anwendern für denkbar. Je nachdem ob Apple weiterhin das volle Potential "verdongeln" möchte oder nicht.

siehe oben: Apple hat so oder so Interesse daran auch die Macs auf eigener Hardware laufen zu lassen. Das ist nunmal Firmenstrategie: alle Schlüsseltechnologien, von denen die eigenen Produkte abhängen ins eigene Haus zu holen soweit es Sinn macht.

Das Einzige was dagegen spricht ist, dass wenn man sämtliche Kosten betrachtet (zusätzliche Ressourcen die benötigt werden für ALLES (CPU, GPU, Chipset (Schnittstellen wie USB, Thunderbolt,...)) die Mac(books) möglicherweise die Kosten nicht wert sind.

Kallenpeter
2019-10-07, 20:12:59
Hier wird spekuliert das Apple die ersten ARM Macbooks auf der WWDC 2020 vorstellt.

hzKb_fV7UB8

MSABK
2019-10-07, 20:46:48
Warum nicht. Im Gegensatz zu Microsoft hat Apple sicherlich eine breite Unterstützung der Entwickler.

smalM
2019-10-08, 08:41:38
Eher unglaubwürdig.
Wenn, dann stellt Apple 2020 auf der WWDC den Plan zur Transition vor, mit Erscheinen des ARM-Mac zur WWDC 2021.

Und auch eine noch so breite Unterstützung der Entwickler fällt nicht wie Manna vom Himmel. Oder glaubt jemand an die wundersame ARM-App-Vermehrung?

MSABK
2019-10-08, 09:27:05
Eher unglaubwürdig.
Wenn, dann stellt Apple 2020 auf der WWDC den Plan zur Transition vor, mit Erscheinen des ARM-Mac zur WWDC 2021.

Und auch eine noch so breite Unterstützung der Entwickler fällt nicht wie Manna vom Himmel. Oder glaubt jemand an die wundersame ARM-App-Vermehrung?

Vermehren müssen sich die Apps nicht, sondern die vorhandenen Programme schnell anpassen. Photoshop und co.

Microsoft hat den ersten Schritt gewagt und da wird es sicherlich eher schleppend voran gehen mit der Anpassung der Programme.

Die Unterstützung bei Apple sieht man ja auch an Adobe, da läuft aktuell eine Beta mit einem vollwertigen Photoshop für das iPad.

Ganon
2019-10-08, 10:33:59
Einen Wechsel werden sie nicht einfach so veröffentlichen. Das haben sie auch schon beim neusten Wegfall der kompletten 32bit Kompatibilität nicht gemacht. Ein neues Gerät, aka ARM MacBook mit iOS, könnten sie aber jederzeit raushauen.

robbitop
2019-10-16, 15:03:43
In the face of the relatively conservative changes of the Lightning cores (other than AMX), the new Thunder cores seem like an outright massive change for the A13 and a major divergence from Apple’s past efficiency core microarchitectures. In the face-off against a Cortex-A55 implementation such as on the Snapdragon 855, the new Thunder cores represent a 2.5-3x performance lead while at the same time using less than half the energy.
https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/2

Das ist wirklich brachial was Apple da im Bereich CPU kann.
Für einen Little Core ein recht fetter out-of-order core, mit wesentlich mehr Fläche, legt logischerweise massiv mehr Leistung hin, bei aber interessanterweise massiv weniger Energiebedarf. Erstaunlich was man dort an Talent angehäuft haben muss in deren RnD.

Die großen Kerne sind mMn nach ja nicht weniger erstaunlich. Die Standard ARM Kerne sehen kein Land und man verbraucht auch noch wesentlich weniger.
7x Decoder! (Skylake hat 5 und Zen hat 4), 128 kib L1D und L1I mit 3x cycles Latenz, 8 MiB L2 für nur 2x Kerne. 2 Loads + 2 Stores für INT und separat 2 Loads + 2 Stores für FP. (das meiste schon seit A12)
6x ALUs und 3x FPUs. Man käme niemals auf die Idee, dass sowas in einem Smartphone laufen würde. Und das auch nicht gerade eben so. Kein Plan wie Apple das macht.


Last year I’ve noted that the A12 was margins off the best desktop CPU cores. This year, the A13 has essentially matched best that AMD and Intel have to offer – in SPECint2006 at least. In SPECfp2006 the A13 is still roughly 15% behind.
https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/4

Zumindest in SPEC liegt man jetzt auf dem Niveau der besten Desktopcores. (trotz Taktdifferenz - was aber aufgrund der Breite des Cores nicht ganz abwegig sein könnte)

pixelguy
2019-10-16, 15:50:32
Das schreit ja förmlich nach einer Desktop CPU für min. das MacBook Air.

Wobei ich eigentlich einen Ersatz für mein MacBook Pro bräuchte...

Unicous
2019-10-16, 16:07:58
Das schreit vor Allem nach Äpfeln und Birnen. Wie immer wenn es um diese Vergleiche geht. Die Apple Dies sind im Vergleich riesig, es ist ein 2+4 Setup und kein 8(+16) Setup. Auch wenn dieser Vergleich (GPU... etc.) genauso hinkt, der A11 hatte 4,3 Milliarden Transistoren, ein Ryzen 1000 hatte 4,8 Milliarden Transistoren.
Beim A12 waren es 6,9 Milliarden, beim A13 sind es 8,5 Milliarden, bei Ryzen 3000 sind wir inklusive I/O Die bei 6 Milliarden. Der A13 ist knapp 100mm² groß.

Es sollte klar sein, dass Apple die Kerne auch auf den Desktop-Bereich skalieren kann. Aber können sie das auch mit 8+Kernen und 4GHz und dabei die gleiche Effizienz und Performance halten? Vielleicht. Vielleicht aber auch nicht.

Bei den Sensationsberichten die jedes Jahr von Neuem erscheinen wäre ich wie jedes Jahr von Neuem äußerst vorsichtig. Denn was zwei mobile Hochleistungskerne bzw. einer leistet überträgt sich nicht automatisch auf auf 8 und mehr.

robbitop
2019-10-16, 16:21:35
Da hast du sicher Recht. Mehr Kerne heißt mehr I/O -> mehr Verbrauch. Höherer Takt heißt längere Pipelines -> mehr Transistoren -> mehr Leistungsaufnahme. Auch höhere Spannung insofern höhere Leistungsaufnahme mit Potenzfunktion.

Die Dinger sind richtig effizient bis 1800...2000 MHz wenn man die Spannungs/Frequenzkurve anschaut. Für mobile Applikation mit Burst Loads eigentlich ideal. Man arbeitet idR im Betriebsbereich mit sehr hoher Effizienz und bei Bursts ist man kurz außerhalb aber dafür schnell.
In Ultra Portable Laptops wäre so ein A13X (der vermutlich 2020 für die iPad Pros kommt) sicher nicht verkehrt. Ich tippe auf ähnliche Leistung wie 15W Intel Cores bei weniger Leistungsaufnahme.

Was in manchen Workloads ggf. hilft ist FF HW. Dank vollständiger Integration von HW und SW kann man möglichst viel auf energieeffizientere Spezial HW schieben. Sehr gute Videotranscoder, dedizierte Tensoreinheiten etc.

Daredevil
2019-10-16, 16:35:43
Es sollte klar sein, dass Apple die Kerne auch auf den Desktop-Bereich skalieren kann. Aber können sie das auch mit 8+Kernen und 4GHz und dabei die gleiche Effizienz und Performance halten? Vielleicht. Vielleicht aber auch nicht.

Müssen sie das?
Ein Dual Core MacBook Air setzt sich bei z.B. Videobearbeitung und allgemeiner Fluffigkeit auch vor einem vergleichbaren Prozessor mit Windows durch Software und eigenen Chips.
Es müssen keine 4/6/8/12 Kerne mit 4-5-6Ghz sein, solange es läuft.

Unicous
2019-10-16, 17:11:17
Ein 1,6GHz Dual Core, der immerhin auf 3,6GHz boosten kann und das bei einer TDP von 7W. ;)

Apple hat auch noch zig Co-Prozessoren die einen Teil der Arbeit übernehmen, das sollte man nicht unterschätzen.

In einem Macbook Air kann man sicherlich einen Ax einsetzen, das Pro skaliert aber momentan bis zu einem 8-Kern hoch. Und es war auch die Rede von Desktop CPUs, nicht alleine Mobile-Chips. ;)

gravitationsfeld
2019-10-16, 17:20:19
Apple hat auch noch zig Co-Prozessoren die einen Teil der Arbeit übernehmen, das sollte man nicht unterschätzen.
Doch, das sollte man unterschaetzen, ausser vielleicht das Neural-Net-Zeug, falls es denn wirklich benutzt wird aufm Desktop.

Irgendwie ist es ironisch, dass Apple weg von PowerPC ging, weil damals IBM Probleme mit den Chips hatte. Und jetzt ist ausgerechnet Intel auch am Versagen.

Ganon
2019-10-16, 18:40:53
Irgendwie ist es ironisch, dass Apple weg von PowerPC ging, weil damals IBM Probleme mit den Chips hatte. Und jetzt ist ausgerechnet Intel auch am Versagen.

Wobei Motorola/Freescale/IBM in keiner Kategorie etwas konkurrenzfähiges liefern konnte, weder für Notebooks noch für Workstations. Ansonsten war Intel noch nie eine gute Option für die Kategorie "Tablet-Format und kleiner".

smalM
2019-10-16, 19:46:29
Es sollte klar sein, dass Apple die Kerne auch auf den Desktop-Bereich skalieren kann. Aber können sie das auch mit 8+Kernen und 4GHz und dabei die gleiche Effizienz und Performance halten? Vielleicht. Vielleicht aber auch nicht.

Zum einen braucht Apple keine 4 GHz, eigentlich noch nicht einmal 3 GHZ.
Zum anderen scheint Apple mit diesem ominösen Tinos (https://twitter.com/never_released/status/1170028870466187265) doch genau das herausfinden zu wollen.

Felixxz2
2019-10-17, 06:04:59
Das Macbook Pro wäre doch auch garnicht die Zielgruppe für ARM. Sondern natürlich klar das Air, wo die meisten eh nur Apple eigene Software + 5 Standardsachen verwenden. Einem Pro User zu verkaufen dass er jetzt statt Intel neue Chips kriegt und dabei bitte schön noch warten soll, bis sein jeweiliger Hersteller die SW gebacken bekommt ist doch für die nächsten Jahre völlig utopisch. Vor allem wenn man Apples eh schon stark angeschlagenes Image im Pro Sektor berücksichtigt. Das würde IMO keiner mitmachen.

Wenn überhaupt, dann nur mit starkem LineUp an Software zum Start + viel besserer Leistung/Effizienz.

Zossel
2019-10-17, 07:13:48
Kein Plan wie Apple das macht.

Weils keinen Takt braucht.

mboeller
2019-10-17, 07:41:26
Wenn überhaupt, dann nur mit starkem LineUp an Software zum Start + viel besserer Leistung/Effizienz.

Das versucht ja gerade Microsoft mit Windows on ARM. Mal sehen wie gut das klappt. Und wenn Microsoft Apple (eventuell) die Kohlen aus dem Feuer geholt hat dann stellt auch Apple um... und da funktioniert das dann gleich "out of the box" ;)

fizzo
2019-10-17, 08:06:41
https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/2

Das ist wirklich brachial was Apple da im Bereich CPU kann...


...und mitlerweile auch bei der GPU - link (https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/6)

First of all, the peak performance of the of the A13 is indeed improved by roughly ~20%. However this is not the metric that people should be paying most attention to. Apple’s sustained performance score improvements are a lot more significant and reach 50 to 60% when compared to last year’s iPhones.

das ist schone eine Hausnummer!

pixelguy
2019-10-17, 08:40:53
Das Macbook Pro wäre doch auch garnicht die Zielgruppe für ARM. Sondern natürlich klar das Air, wo die meisten eh nur Apple eigene Software + 5 Standardsachen verwenden. Einem Pro User zu verkaufen dass er jetzt statt Intel neue Chips kriegt und dabei bitte schön noch warten soll, bis sein jeweiliger Hersteller die SW gebacken bekommt ist doch für die nächsten Jahre völlig utopisch. Vor allem wenn man Apples eh schon stark angeschlagenes Image im Pro Sektor berücksichtigt. Das würde IMO keiner mitmachen.

Wenn überhaupt, dann nur mit starkem LineUp an Software zum Start + viel besserer Leistung/Effizienz.

Haben sie doch beim Switch von PowerPC zu Intel auch gemacht.
Sie starten ggf. mit dem Air und geben den Devs dann entsprechend Zeit.

Kann mir aber schwer vorstellen, dass es dann so fragmentiert ist. Entweder alle Macs (zumindest Notebooks) oder keine.

smalM
2019-10-17, 09:56:58
Das Macbook Pro wäre doch auch garnicht die Zielgruppe für ARM. Sondern natürlich klar das Air
Kann mir aber schwer vorstellen, dass es dann so fragmentiert ist. Entweder alle Macs (zumindest Notebooks) oder keine.

Sehe ich wie pixelguy, wenn Apple ARM im Mac bringt, dann wird das Ziel sein alle Macs umzustellen, innerhalb von 2 bis 3 Jahren.
Da das MacBook Pro Apples wichtigster Mac ist, kann man tatsächlich annehmen, daß das nicht zuerst drankommt. Apple könnte aber mit jedem anderen nicht-Pro-Mac erst einmal üben, sei es nun MacBook, MacBook Air, Mac mini oder iMac.

Sollte dieser Tinos tatsächlich eine A12X-Variante mit 8 Vortex-Kernen sein, dann sehe ich den als Hardwaretest und man wechselt in der Entwicklung bereits von der Simulation in die Realität.
Ich wüßte jetzt übrigens nicht, wieso so ein Teil nicht mit jedem beliebigen Achtkerner von Intel mithalten können sollte (und jeden locker bügelt, der unter 100W verbrät).

Felixxz2
2019-10-17, 11:27:31
Haben sie doch beim Switch von PowerPC zu Intel auch gemacht.
Sie starten ggf. mit dem Air und geben den Devs dann entsprechend Zeit.

Kann mir aber schwer vorstellen, dass es dann so fragmentiert ist. Entweder alle Macs (zumindest Notebooks) oder keine.

Die Zeiten haben sich aber sehr geändert. Windows ist deutlich stärker im Creative Pro Bereich, dem klassischen Kernmarkt von Apple Pro Geräten, und Apple hat sich mit Hits wie der Butterfly Tastatur oder dem Tonnen Mac Pro echt keine Freunde gemacht. Ich kann mit nicht vorstellen, dass sie jetzt, nach dem sie den neuen Mac Pro und jetzt wohl auch das neue 16 Zoll Macbook Pro mit Intel bringen, wieder so ein Experiment starten. Das macht IMO einfach keiner mit. Zumindest die klassische Pro Kundschaft wird dann zu Windows gehen, einfach um Stabilität zu bekommen.

Bin selber im Pro Audio tätig und kann mir beim besten Willen nicht vorstellen, wie dieser Wechsel klappen soll. Es gibt sooo viele kleine Softwarefirmen, Plugins die teilweise 10 Jahre alt sind, laufende Setups in Studios und und und. Den kompletten Software Stack zu tauschen ist Wahnsinn. Ich mein es gibt viele Pros die gehen nicht mal von Pro Tools 10 auf 12 wegen irgendwelchem Legacy Zeug. Wie soll man denen denn verkaufen, dass die komplette Microarch getauscht wird.

Ergo: Apples CPUs müssten MASSIVE Vorteile haben, mindestens 30-50% mehr Leistung/Effizienz dass sich das überhaupt nur jemand anschaut. Alles natürlich bezogen auf Pro.

urpils
2019-10-17, 11:37:50
Die Zeiten haben sich aber sehr geändert. Windows ist deutlich stärker im Creative Pro Bereich, dem klassischen Kernmarkt von Apple Pro Geräten, und Apple hat sich mit Hits wie der Butterfly Tastatur oder dem Tonnen Mac Pro echt keine Freunde gemacht. Ich kann mit nicht vorstellen, dass sie jetzt, nach dem sie den neuen Mac Pro und jetzt wohl auch das neue 16 Zoll Macbook Pro mit Intel bringen, wieder so ein Experiment starten. Das macht IMO einfach keiner mit. Zumindest die klassische Pro Kundschaft wird dann zu Windows gehen, einfach um Stabilität zu bekommen.

Das wäre vielleicht so, wenn es deutliche Kompromisse/Nachteile bedeuten würde. Aber schau dir mal die Fakten und den aktuellen Stand an:

- Apple hat JETZT schon konkurrenzfähige Chips für den Low- und Midrange Mobilmarkt - bei deren Ressourcen ist es nur eine Frage des „wollen sie“ das hochzuskieren bis zum MacPro. Vielleicht nicht mit der Aktuellen Axx Auslegung - aber die haben alle Ressourcen dass sie es können
- spätestens mit Catalina hat Apple aktuell so viele alte Zöpfe angeschnitten, dass jede Software die aktuell auf macOS läuft auf halbwegs aktuellen Tools basiert → in der aktuellen Developer-Architektur ist es realistisch, dass es nicht viel mehr als ein Neukompilieren bedarf um das was JETZT läuft nativ auf Apples ARM-Architektur zu starten
- bei den letzten Transitionen gab es immer einen Kompatibilitäts-Layer. Wird jetzt auch nicht anders werden. Nativ ARM hat wahrscheinlich zusätzliche Features und Vorteile - aber die Performance für allen Intel-Kram sollte handhabbar sein (gibt ja diverse Projekte die diese Möglcihkeit aufzeigen)
- es ist stark davon auszugehen, dass Aplle schneller und besser voranschreitet im Kernsegment (MacBook (pro)) als sie es in Abhängigkeit von Intel können.

Ich gehe mittlerweile jede Wette ein dass es kommt. Und das innerhalb der nächsten 1 bis spätestens 3 Jahre

pixelguy
2019-10-17, 12:25:45
Ich nutze aktuell ein MacBook Pro und würde gerne umsteigen. Aktuell hält mich die Tastatur ab.

Aber ein neues MacBook Pro mit ARM wäre für mich absolut interessant und es gibt keine software, die mich davon abhalten würde. Ich denke, dies ist auch bei den meisten Nutzern der Pros so. Ausgenommen natürlich der Desktop Pro.

Ganon
2019-10-17, 13:35:15
- bei den letzten Transitionen gab es immer einen Kompatibilitäts-Layer. Wird jetzt auch nicht anders werden.

Siehe dir Intels Reaktionen auf den Emulator von Microsoft an. Das werden sie vermutlich auch bei Apple nicht einfach so hinnehmen und 32bit only geht bei Apple nicht mehr. Ich wäre mir über eine solche Emulation nicht so sicher.

MSABK
2019-10-17, 13:50:08
Siehe dir Intels Reaktionen auf den Emulator von Microsoft an. Das werden sie vermutlich auch bei Apple nicht einfach so hinnehmen und 32bit only geht bei Apple nicht mehr. Ich wäre mir über eine solche Emulation nicht so sicher.

Ist das bei Microsoft ein emulator oder „Translation layer“? Gibt es da überhaupt einen Unterschied?

Felixxz2
2019-10-17, 14:26:55
Das wäre vielleicht so, wenn es deutliche Kompromisse/Nachteile bedeuten würde. Aber schau dir mal die Fakten und den aktuellen Stand an:

- Apple hat JETZT schon konkurrenzfähige Chips für den Low- und Midrange Mobilmarkt - bei deren Ressourcen ist es nur eine Frage des „wollen sie“ das hochzuskieren bis zum MacPro. Vielleicht nicht mit der Aktuellen Axx Auslegung - aber die haben alle Ressourcen dass sie es können
- spätestens mit Catalina hat Apple aktuell so viele alte Zöpfe angeschnitten, dass jede Software die aktuell auf macOS läuft auf halbwegs aktuellen Tools basiert → in der aktuellen Developer-Architektur ist es realistisch, dass es nicht viel mehr als ein Neukompilieren bedarf um das was JETZT läuft nativ auf Apples ARM-Architektur zu starten
- bei den letzten Transitionen gab es immer einen Kompatibilitäts-Layer. Wird jetzt auch nicht anders werden. Nativ ARM hat wahrscheinlich zusätzliche Features und Vorteile - aber die Performance für allen Intel-Kram sollte handhabbar sein (gibt ja diverse Projekte die diese Möglcihkeit aufzeigen)
- es ist stark davon auszugehen, dass Aplle schneller und besser voranschreitet im Kernsegment (MacBook (pro)) als sie es in Abhängigkeit von Intel können.

Ich gehe mittlerweile jede Wette ein dass es kommt. Und das innerhalb der nächsten 1 bis spätestens 3 Jahre

Das es geht ist klar, auch wenn du das IMO deutlich zu einfach hinstellst. Und dass sies machen kann ich mir wschl auch vorstellen, der Drang unabhängig von Intel zu sein ist bestimmt enorm. Aber: sie werden dabei extrem viele echte Pros an Windows verlieren. In der Theorie klingt das alles ganz toll. In der Praxis warten die Leute ATM 6 Monate mit nem neuen macOS, weils dir zum Start immer 20% deiner Software zerschießt. Die Welt besteht eben nicht nur aus Adobe (wobei die wschl sogar den größten Unsinn machen würden).

Und wie gesagt sind die meisten Leute Apples Einstellung zum Pro Markt einfach nur Leid. Das ständihe Hin und Her und keiner weiß, ob sies wirklich ernst meinen. Bei meinem Lieblingspodcast wurde schon die Möglichkeit einer Sperrung für unsignierte Software in den Raum gestellt....klingt krass, ist bei einem ver-IOSten Mac auf ARM aber durchaus vorstellbar.


Ich nutze aktuell ein MacBook Pro und würde gerne umsteigen. Aktuell hält mich die Tastatur ab.

Aber ein neues MacBook Pro mit ARM wäre für mich absolut interessant und es gibt keine software, die mich davon abhalten würde. Ich denke, dies ist auch bei den meisten Nutzern der Pros so. Ausgenommen natürlich der Desktop Pro.

Mich würde mal sehr interessieren was du machst. Ich kann jetzt nur für Audio und auch bisschen Video sprechen, aber da wäre das Katastrophe. Wie gesagt alleine die Plugins die alle Updates bräuchten....

Und was ich weiterhin eben nicht verstehe, wo da der Nutzen für den Kunden ist. Das ist ATM vor allem für Apple toll. Ich als Nutzer hab erstmal ne riesen Herausforderung und vielleicht 2 Stunden mehr Akku....


Und was noch garnicht angesprochen wurde: Man lebt natürlich dann in der Software Nische. Welche Firma kann es sich schon leisten, den macOS exoten ARM Weg mit gleicher oder Qualität zu beliefern wie den riesigen Windows Markt?

drdope
2019-10-17, 15:11:07
Ist nicht mit dem Apple T2 (https://en.wikipedia.org/wiki/Apple-designed_processors#Apple_T2) eh schon in nahezu jedem aktuellen Mac eine ARM-CPU?
--> https://de.ifixit.com/Teardown/Mac+mini+Ende+2018+Teardown/115210#s221761

Der sorgt ja jetzt schon dafür, daß z.B. Videoschnitt bzw. Encoding/Transcoding deutlich flotter läuft, als mit der verbauten Intel-CPU.
--> https://appleinsider.com/articles/19/04/09/apples-t2-chip-makes-a-giant-difference-in-video-encoding-for-most-users

Es spricht ja wenig dagegen, die Verbesserungen aus der A-Serie nicht auch sukzessive in den T2 einfließen zu lassen, bis irgendwann dessen Performance ausreicht, um auf die Intel-CPu zu verzichten.
So könnte Apple sich, für einen kommenden "Switch" eine Hardwarebasis aufbauen, die ohne (perfomance-fressende) Emulation 100% Kompatibel ist.

Oder ist das zu schräg gedacht?

pixelguy
2019-10-17, 15:20:25
Mich würde mal sehr interessieren was du machst. Ich kann jetzt nur für Audio und auch bisschen Video sprechen, aber da wäre das Katastrophe. Wie gesagt alleine die Plugins die alle Updates bräuchten....
Hauptsächlich Office-Kram, Programmieren und etwas Grafik (Photoshop, Sketch).

Ich sehe als möglichen Vorteil natürlich die Akku-Leistung, mögliche Optimierungen in Hardware, sowie die Unabhängigkeit von Intels Roadmaps (und Verschiebungen).

y33H@
2019-10-17, 15:31:30
Was genau macht der T2 beim Encoding? Dachte bisher der macht Verschlüsselung für die SSDs usw.

pixelguy
2019-10-17, 15:35:01
Wäre es bei einem Switch nicht möglich, dass Apple bei einem T3 noch wesentlich mehr aus der CPU in einen eigenen Chip rüberzieht und diesen dann in allen Macs mit ARM gleich nutzt?

drdope
2019-10-17, 15:59:10
Was genau macht der T2 beim Encoding? Dachte bisher der macht Verschlüsselung für die SSDs usw.

The Apple T2 chip is a SoC from Apple first released in the iMac Pro 2017. It is a 64-bit ARMv8 chip (a variant of the A10, or T8010), and runs a separate operating system called bridgeOS 2.0, which is a watchOS derivative. It provides a secure enclave for encrypted keys, gives users the ability to lock down the computer's boot process, handles system functions like the camera and audio control, and handles on-the-fly encryption and decryption for the solid-state drive. T2 also delivers "enhanced imaging processing" for the iMac Pro's FaceTime HD camera.

--> https://en.wikipedia.org/wiki/Apple-designed_processors#Apple_T2

Lt. dem Appleinsider-Artikel (https://appleinsider.com/articles/19/04/09/apples-t2-chip-makes-a-giant-difference-in-video-encoding-for-most-users) bildet er u.A. auch diverse Funktionen aus Apples VideoToolbox-Framework (https://developer.apple.com/documentation/videotoolbox) in Hardware ab.

pixelguy
2019-10-17, 17:03:53
Sowas ist doch ein klarer Vorteil wenn man Hard- und Software aus einer Hand bieten kann.
Genau diese Art von "Innovation" kann ich mir für künftige Macs gut vorstellen.

Felixxz2
2019-10-17, 21:47:09
VIdeocodecs in HW kann doch jeder PC seit 2005 oder so....

urpils
2019-10-17, 22:13:01
Das es geht ist klar, auch wenn du das IMO deutlich zu einfach hinstellst. Und dass sies machen kann ich mir wschl auch vorstellen, der Drang unabhängig von Intel zu sein ist bestimmt enorm. Aber: sie werden dabei extrem viele echte Pros an Windows verlieren. In der Theorie klingt das alles ganz toll. In der Praxis warten die Leute ATM 6 Monate mit nem neuen macOS, weils dir zum Start immer 20% deiner Software zerschießt. Die Welt besteht eben nicht nur aus Adobe (wobei die wschl sogar den größten Unsinn machen würden).

Und wie gesagt sind die meisten Leute Apples Einstellung zum Pro Markt einfach nur Leid. Das ständihe Hin und Her und keiner weiß, ob sies wirklich ernst meinen. Bei meinem Lieblingspodcast wurde schon die Möglichkeit einer Sperrung für unsignierte Software in den Raum gestellt....klingt krass, ist bei einem ver-IOSten Mac auf ARM aber durchaus vorstellbar.


also zu deinen Punkten:
1. wieso gehst du davon aus, dass sie "Pros an Windows verlieren"? Weil du davon ausgehst, dass bei einem Architektur-Switch ihre Software nicht mehr läuft? oder aus anderen Gründen?

2. Apples Politik in letzter Zeit zeigt ja deutlich, dass ihnen ein gewisser Anteil an Kunden völlig egal ist. Das kann man nun verstehen oder nicht - oder gut finden oder nicht... aber offensichtlich würde sie das nicht aufhalten.

3. Das Sperren unsignierter Software ginge doch jetzt schon - wozu braucht es da ARM?


Und was ich weiterhin eben nicht verstehe, wo da der Nutzen für den Kunden ist. Das ist ATM vor allem für Apple toll. Ich als Nutzer hab erstmal ne riesen Herausforderung und vielleicht 2 Stunden mehr Akku....

Und was noch garnicht angesprochen wurde: Man lebt natürlich dann in der Software Nische. Welche Firma kann es sich schon leisten, den macOS exoten ARM Weg mit gleicher oder Qualität zu beliefern wie den riesigen Windows Markt?

der Nutzen für den Kunden ist dann der gleiche, wie aktuell beim iPhone. Apple kann ihre Bedürfnisse selbst bedienen. Aktuell ist man auf Gedeih und Verderb dem ausgeliefert, was Intel gnädigerweise mit regelhaften Verspätungen raus haut. Apple kann sowohl auf Energieeffizienz, Performance als auch sonstige Features hin entwickeln und so in kleineren Bauformen mehr Performance und mehr Akkulaufzeit rausholen, als mit Intel als Partner. Das kommt durchaus dem Kunden zu Gute.

Weiterhin könnte sogar der "Pro-Markt" profitieren. Wenn sie sich auf eine Plattform einlassen, dann können sie dort regelmäßig Updates bringen - und nicht erst alle 3-4-5 Jahre, wenn Intel was passendes Neues bietet.

Apples Entwicklungstools können für Softwarebuden im Zweifel völlig transparent halten, ob sie jetzt auf eine ARM oder x86-Basis deployen - das ist mittelfristig sicherlich kein Weltuntergang.

Kann schon sein, dass dann Einige aussteigen oder sich Einiges konsolidiert - aber für den Mac als Plattform ist es langfristig der richtige Weg.

Ganon
2019-10-18, 08:37:05
Sowas ist doch ein klarer Vorteil wenn man Hard- und Software aus einer Hand bieten kann.
Genau diese Art von "Innovation" kann ich mir für künftige Macs gut vorstellen.

Die Schattenseite an der Geschichte ist, dass der T2 Chip kein VP9 kann und Apple auch die VP9 Dekodier-fähigkeit der Intel CPUs blockiert. Somit kriegst du auf Apple Geräten kein HW Beschleunigtes 4k auf YouTube und du selbst kannst relativ wenig dagegen machen. Mach davon ein Benchmark und Apples Balken werden plötzlich sehr sehr kurz.

sulak
2019-10-18, 08:58:04
Soll nicht nächstes Jahr AV1 durchstarten mit passender Hardware von allen, die im AV1 Gremium sitzen?

HEVC oder VP9 in Hardware, hat sich dann erledigt, Codec War ade.

Ganon
2019-10-18, 09:01:10
Codec War ade.

Bis zum nächsten Codec den Apple seinen Kunden vorenthält ¯\_(ツ)_/¯ edit: Und neue Hardware ist dann natürlich auch nötig für AV1. Ganz im Sinne von Apple.

Felixxz2
2019-10-18, 09:08:04
also zu deinen Punkten:
1. wieso gehst du davon aus, dass sie "Pros an Windows verlieren"? Weil du davon ausgehst, dass bei einem Architektur-Switch ihre Software nicht mehr läuft? oder aus anderen Gründen?

2. Apples Politik in letzter Zeit zeigt ja deutlich, dass ihnen ein gewisser Anteil an Kunden völlig egal ist. Das kann man nun verstehen oder nicht - oder gut finden oder nicht... aber offensichtlich würde sie das nicht aufhalten.

3. Das Sperren unsignierter Software ginge doch jetzt schon - wozu braucht es da ARM?

1. Weil Pros Konstanz wollen und eine nachvollziehbare Strategie. Das bietet Apple beim Mac überhaupt nicht. Stichwort alter Mac Pro und Touch Bar Macbook: Da wurden Pro Geräte ohne Not durch den Kakao gezogen, nur um hübscher im Media Markt auszusehen. Das hat immens viele User verärgert und deswegen sind auch schon viele Pros weg und bei Windows. Selbst beim neuen Mac Pro hört man unisono: mal abwarten ob der nicht wie der alte nach 1 Jahr ins stille EOL geht. Das Vertrauen ist verspielt und das wird sicher nicht besser bei einem Switch auf ARM.
Weitere Punkte sind natürlich Legacy Software und der zwangsweise schlechtere Support der Entwickler in Zukunft. Außer Apple kann da einen ARM Trend lostreten, aber das sehe ich nicht. Es wird eher so sein dass noch weniger Software überhaupt auf dem Mac erscheint, weil kleinere Entwickler den supportaufwand scheuen.

2. Den Punkt sehe ich voll und ich denke dass ARM auf den Consumer Macs auch Sinn macht. Sollten aber wie gesagt jetzt auch das Macbook Pro oder gar noch größere Macs umgestellt werden, dann wird Apple mMn zur reinen Consumer Firma. Dass ihnen das am Ende ehal ist oder sogar in die Karten spielt ist klar. Dafür ist Apple bekannt.

3. Ja rein technisch ginge es, es wäre aber nicht zu verargumentieren und würde von der Produktpolitik keinen Sinn machen. Auf ARM dagegen schon: neue Plattform, also eh keine Legacy Software, und alles außer Appstore ist ja ganz böse unsicher. So oder so würde ein Mac auf ARM deutlich Richtung iOS wandern was Nutzerrechte anbelangt. Nicht aus technischen Gründen, sondern weil das wunderbar in Apple Politik des Closed System passt.



Alles in allem sehe ich einfach nicht wo der User da große Vorteile hat. Und es gilt ja immernocj zu beweisen, dass Apples Chips auch gegen 8 Intel Kerne bei über 3 Ghz konkurrenzfähig sind.

Das einzige, was für mich Sinn ergibt sind Macbook Airs. Da könnte apple mit eigenen Chips sicher ein extrem tolles Gerät schnüren, was es so auch nirgends anders gäbe. Für die Zielgruppe wäre eine eingeschränkte Softwarewahl auch sicher egal.

urpils
2019-10-18, 11:00:19
@Felixxz2 Nichts von dem was du sagst hat jetzt aber was mit ARM oder nicht-ARM zu tun. Die fehlende Konstanz liegt vor - egal ob ARM oder nicht. Dass der kommende MacPro sich erstmal durch regelmäßige Produktpflege beweisen muss ist auch unabhängig davon, auf welcher ISA die CPU fußt.

Was hat denn ein ARM-Trend mit schlechtem Support zu tun? Für viele Entwickler ist es größtenteils egal, welche Architektur die CPU hat. Siehe doch mal Fatalist: für iPads programmierte Software wird mehr oder weniger per Knopfdruck einfach für x86_64 kompiliert und gut ist. Die Anpassungen die notwendig sind betreffen eher Mac-spezifische Änderungen wie Inputmethode, usw... aber letztlich ist es der Software durch die Frameworks völlig egal, ob sie auf Intel, Power oder ARM läuft.

und nochmal: wenn Apple die Prozessorentwicklung selbst in der Hand hat, können sie im Zweifel die Performance-Schraube mehr oder weniger beliebig anziehen, was auch den ominösen "Pros" (was auch immer unter diesem Begriff alles zusammengefasst wird ;) ) zugute kommt.

und ARM hat rein gar nichts mit Appstorezwang, Politik oder Sonstigem zu tun. Der Nutzer wird vom Wechsel nichts merken - genau wie damals von Power zu x86

Ganon
2019-10-18, 13:21:55
Der Nutzer wird vom Wechsel nichts merken - genau wie damals von Power zu x86

Da ich ihn damals selbst mitgemacht habe: "Nichts merken" halte ich für eine sehr gewagte Aussage. Es ist nicht so dass jeder Anbieter den Wechsel für dich kostenlos gemacht hat. Im Regelfall hieß das: "Die neue (kostenpflichtige) Version unterstützt dann auch x86 nativ". Und nachdem Apple dann Rosetta aus OSX entfernt hatte, war's das mit deinen PowerPC Anwendungen. Als 08/15 Anwender traf einen das z.B. bei Spielen sehr häufig, wenn die überhaupt ein Update bekommen hatten. Und das wird beim Wechsel von x86->ARM nicht großartig anders sein. Schon mit dem neusten Wegfall von 32bit Support ist bei den Leuten die Steam-Library schlagartig geschrumpft.

Und das ist halt nur ein Beispiel.

robbitop
2019-10-18, 13:30:04
Das ist immer der Zielkonflikt bei Veränderungen/Fortschritt: alte Zöpfe abschneiden oder nicht? Ist für den Moment in der Regel unschön - aber häufig überwiegen mittelfristig die Vorteile.

Ganon
2019-10-18, 13:47:29
Das ist immer der Zielkonflikt bei Veränderungen/Fortschritt: alte Zöpfe abschneiden oder nicht? Ist für den Moment in der Regel unschön - aber häufig überwiegen mittelfristig die Vorteile.

Kommt halt immer auf den "Zopf" an der da abgeschnitten wird. Wenn sie z.B. OpenGL entfernen, um es exklusiv gegen Metal zu tauschen, dann ist das mMn der komplett falsche Weg. Userland 32bit Support kann bei der heutigen Codebase an sich auch kein Problem sein, der "alte Zopf" macht's nur für Apple billiger auf Kosten der Kunden.

Ob ein möglicher Wechsel zu eigenen CPUs nun ein toller neuer Zopf ist steht halt auch noch in den Sternen. Nachher released AMD oder Intel nach einem kompletten Wechsel seitens Apple eine CPU mit denen sie selbst nicht mehr mithalten können und dann schauen sie auch wieder in die Röhre... Siehe damals, als plötzlich die Intel Core Serie auf der Matte stand und so ziemlich niemand was dem entgegenzusetzen hatte. Oder noch davor der AMD Athlon. Es gibt an sich keinen Grund warum sowas nicht wieder passieren kann. Aktuell ist's Apple die das machen. Sich "festnageln" ist halt immer doof.

Das ist auch der Grund warum ich eher mit speziellen iOS MacBooks rechne, anstatt einen kompletten Wechsel.

urpils
2019-10-18, 14:28:29
Kommt halt immer auf den "Zopf" an der da abgeschnitten wird. Wenn sie z.B. OpenGL entfernen, um es exklusiv gegen Metal zu tauschen, dann ist das mMn der komplett falsche Weg. Userland 32bit Support kann bei der heutigen Codebase an sich auch kein Problem sein, der "alte Zopf" macht's nur für Apple billiger auf Kosten der Kunden.

Ob ein möglicher Wechsel zu eigenen CPUs nun ein toller neuer Zopf ist steht halt auch noch in den Sternen. Nachher released AMD oder Intel nach einem kompletten Wechsel seitens Apple eine CPU mit denen sie selbst nicht mehr mithalten können und dann schauen sie auch wieder in die Röhre... Siehe damals, als plötzlich die Intel Core Serie auf der Matte stand und so ziemlich niemand was dem entgegenzusetzen hatte. Oder noch davor der AMD Athlon. Es gibt an sich keinen Grund warum sowas nicht wieder passieren kann. Aktuell ist's Apple die das machen. Sich "festnageln" ist halt immer doof.

Das ist auch der Grund warum ich eher mit speziellen iOS MacBooks rechne, anstatt einen kompletten Wechsel.

mal im Ernst. Eine Firme die Zig Milliarden im Jahr umsetzt soll ihre Zukunft und Produktperspektive auf "wer weiß ob nicht mal wieder unerwartet etwas tolles passiert" setzen?

Intel hat die letzten Jahre permanent ihre eigenen Roadmaps und Ziele gerissen (u.a. weil AMD lange schwach war). Sie haben ihre Führung in der Fertigung verspielt und sehen sich massiven Kosten (Fertigungs-Entwicklung) gegenüber sinkenden Einnahmen (mobile-Markt komplett verschlafen) gegenüber.

AMD hat Achtungserfolge, kratzt aber Gefühlt auch permanent am Limit und muss sich auf wenige wichtige Segmente beschränken.

Apple hat mittlerweile eins (wenn nicht sogar DAS) größte und beste Chip-Design-Team und mehr oder weniger unendliche Ressourcen. Sie liefern Jahr für Jahr für Jahr massive Sprünge in Performance und Effizienz, reißen keine Deadlines und haben (bis auf die Fertigung) alles selbst in der Hand.

Welcher klar denkende Mensch verlässt sich darauf, dass Intel und/oder AMD wie durch Zauberhand plötzlich wieder genau IHRE Bedürfnisse in IHREM Zeitrahmen erfüllen, was seit Jahren nicht mehr geschieht (und verständlicherweise für Intel auch kein Fokus ist)?

Nochmal: Einige Gründe der Debakel der letzten Jahre liegen unter anderem darin begründet, dass Intel/AMD nicht das liefern können, was Apple gerne hätte.. zumindest nicht zu den Zeiten die Apple lieb wären - oder es wird überhaupt nicht angeboten.

Und ich halte es für völlig illusorisch anzunehmen, dass Apple ihre eigene (kleine) Plattform auch noch splittet: ARM & Intel → no way. Sie werden all-in gehen - schon alleine, weil sie damit langfristig eigene Entwicklungsresourcen bündeln und schonen.

Ganon
2019-10-18, 14:57:04
Und ich halte es für völlig illusorisch anzunehmen, dass Apple ihre eigene (kleine) Plattform auch noch splittet: ARM & Intel → no way. Sie werden all-in gehen - schon alleine, weil sie damit langfristig eigene Entwicklungsresourcen bündeln und schonen.

Und blindlinks und eigene verderben rennen, wenn sie plötzlich diejenigen sind die nicht mehr liefern können. Das hat Apple schon mal durch und es ist ebenso illusorisch anzunehmen, dass Apple nie in solche Probleme laufen könnte.

Sie haben aktuell einen guten Run. Das muss aber nicht immer so sein. Das zeigt so ziemlich jeder Chip Hersteller sonst auf dem Markt.

urpils
2019-10-18, 15:18:44
Und blindlinks und eigene verderben rennen, wenn sie plötzlich diejenigen sind die nicht mehr liefern können. Das hat Apple schon mal durch und es ist ebenso illusorisch anzunehmen, dass Apple nie in solche Probleme laufen könnte.

Sie haben aktuell einen guten Run. Das muss aber nicht immer so sein. Das zeigt so ziemlich jeder Chip Hersteller sonst auf dem Markt.

Es gibt nie und nirgends Sicherheit oder 100% Garantien. Aber das steht doch auch gar nicht zur Diskussion. Klar kann alles irgendwie passieren oder möglich sein. Aber:

Aktuell ist Apple ohne relevante Einflussmöglichkeiten Intel ausgeliefert. Sie sind darauf angewiesen dass Intel etwas entwickelt das sie gebrauchen können und in ihre (geplanten) Produkte passt. Und ganz offensichtlich reißt Intel seit Jahren ihre eigenen Termine und Deadlines, aktualisiert jahrelang relevante Prozessoren nicht und das alles außerhalb Apples Kontrolle.

Wenn Apple das selbst macht, dann kann da natürlich schief gehen - klar. Kann immer passieren. Aber das haben sie selbst in der Hand: eigene Bedürfnisse planen und anpassen. Sinnvoll investieren. Und nochmal: sie haben das beste Chip-Design-Team. Und sie liefern beständig und regelmäßig.

Intel: außerhalb ihrer Kontrolle. Beliefert Konlurrenten. Kann eigene Roadmaps nicht einhalten. Unsicherer Partner

Apple: hat einen irre guten Trackrecord, hat massig Geld, kann exclusiv für sich entwickeln, hat es selbst in der Hand und kann gegensteuern wenn was in die falsche Richtung läuft.

Welches klar denkende Unternehmen in Apples Position würde sich da Intel ausliefern?

pixelguy
2019-10-18, 15:26:24
Sehe ich genauso. Vor allem, da man ja bei dem iPhone die Vorteile klar sehen kann.

Und auch da wäre es ja genauso schlimm, wenn es zu Problemen käme.

smalM
2019-10-18, 15:26:51
Nachher released AMD oder Intel nach einem kompletten Wechsel seitens Apple eine CPU mit denen sie selbst nicht mehr mithalten können
Das war jetzt ein echter Schenkelklopfer.
Aber bleiben wir doch bitte halbwegs realistisch.

Und blindlinks und eigene verderben rennen, wenn sie plötzlich diejenigen sind die nicht mehr liefern können. Das hat Apple schon mal durch
Das Problem hatte Apple erst mit Motorola, dann mit IBM und nun mit Intel. Und das soll jetzt den Grund liefern nicht auf die CPU-Eigenentwicklung zu setzen?

Ganon
2019-10-18, 15:43:29
Welches klar denkende Unternehmen in Apples Position würde sich da Intel ausliefern?

Das Problem hatte Apple erst mit Motorola, dann mit IBM und nun mit Intel. Und das soll jetzt den Grund liefern nicht auf die CPU-Eigenentwicklung zu setzen?


Ich hab doch auch überhaupt nicht gesagt, dass Apple ihr eigenes CPU-Design aufgeben soll... Ich hab aber halt auch noch keine >=32 Kern CPU von Apple gesehen, du etwa? Oder 16 Kerne? 8? ...

Weiß doch niemand von uns wie gut das Design überhaupt skalieren kann und du redest von einer kompletten Umstellung auf eigene CPUs. Was genau ist das Problem daran 2 (oder mehr) Architekturen zu haben?

Diese Diskussion um die Mac-ARM Umstellung geht jetzt schon mehrere Jahre und passiert ist bisher: Absolut gar nichts. Auch das Narrativ dazu hat sich nicht geändert.

urpils
2019-10-18, 16:27:48
Ich hab doch auch überhaupt nicht gesagt, dass Apple ihr eigenes CPU-Design aufgeben soll... Ich hab aber halt auch noch keine >=32 Kern CPU von Apple gesehen, du etwa? Oder 16 Kerne? 8? ...

Weiß doch niemand von uns wie gut das Design überhaupt skalieren kann und du redest von einer kompletten Umstellung auf eigene CPUs. Was genau ist das Problem daran 2 (oder mehr) Architekturen zu haben?

Diese Diskussion um die Mac-ARM Umstellung geht jetzt schon mehrere Jahre und passiert ist bisher: Absolut gar nichts. Auch das Narrativ dazu hat sich nicht geändert.

1. man hat keine entsprechenden CPUs gesehen, bis sie eben erscheinen. Was und wo sollte Apple denn aktuell 16-Kerner in seinem Produktoportfolio einsetzen? Dass es sie bisher nicht gibt ist aber doch kein Argument.

2. nochmal: Apple baut im Smartphone/Tablet Sektor die besten (je nach Metrik) CPUs, GPUs und SoCs. Sie haben eine exzellente Chip-Design-Sektion. Wenn für Laptops/Desktops designen, dann tun sie das halt. An den Ressourcen mangelt es nicht. Hat doch auch niemand gesagt, dass sie ihre Smartphone-SoCs einfach schneller Takten oder auf 8-16-Kerne ausweiten und dann alles gut ist oO

3. du fragst ernsthaft wieso Apple nicht verschiedene Architekturen supporten möchte, sondern seine Plattform vereinheitlichen will? echt jetzt?

4. Früher hießen die Gerüchte "möglicherweise wird überlegt",... mittlerweile hat sich geändert, dass Intel ihre Fan-Führung verloren hat, Apple mit den jetzigen Smartphone-SoCs massiv aufgeholt hat und sowohl die Softwareseite (Catalina ist eine Vorbereitung) als auch die Entwicklungszeit nun ausreichend fortgeschritten sind. Auch das (Gerüchte seit einigen Jahren) ist kein Argument für oder gegen eine Umstellung.

Ganon
2019-10-18, 17:07:27
1. man hat keine entsprechenden CPUs gesehen, bis sie eben erscheinen. Was und wo sollte Apple denn aktuell 16-Kerner in seinem Produktoportfolio einsetzen? Dass es sie bisher nicht gibt ist aber doch kein Argument.

iMac Pro, Mac Pro, MacBook Pro?

Hat doch auch niemand gesagt, dass sie ihre Smartphone-SoCs einfach schneller Takten oder auf 8-16-Kerne ausweiten und dann alles gut ist oO

Na was verstehst du sonst unter "kompletter Umstieg auf ARM"?

3. du fragst ernsthaft wieso Apple nicht verschiedene Architekturen supporten möchte, sondern seine Plattform vereinheitlichen will? echt jetzt?

Ja klar frage ich das.

robbitop
2019-10-18, 17:12:34
Manchmal zwingt das Abschneiden von alten Zöpfen aber auch zur Unterstützung von moderneren. OpenGL 32 bit kann man immer mitnehmen. Wenn man aber will, dass die neue Schnittstelle sich konsistent umsetzt, dann ist so ein Cut ggf nicht falsch. Zwingt den Entwickler zu einem Update. Apple will dass es möglichst konsistent ist - zumindest ist das mein Eindruck.

Und unternehmerisch gedacht: ohne Risiko kein Ertrag.

Wir werden sehen, was mit Apples CPU Designs passiert. Ggf passiert es auch nicht - das Potenzial wäre mMn eindeutig vorhanden.

urpils
2019-10-18, 17:29:10
iMac Pro, Mac Pro, MacBook Pro?


:crazy:

äh - dann wären sie bei den Rechner doch schon umgestiegen. da beißt sich die Schlange in deiner Argumentation doch in den Schwanz: du hast noch keine 16-Kerner gesehen, also glaubst du nicht, dass es sie geben kann.

Natürlich wären sie dafür interessant, aber zum aktuellen Zeitpunkt ist Apple eben noch nicht umgestiegen, darum geht es doch hier. WENN sie ihre Macs umstellen, DANN macht es Sinn - also was sollen sie JETZT mit 16-Kern-Arm-CPUs?


Na was verstehst du sonst unter "kompletter Umstieg auf ARM"?


A11,A12,A13 sind SoCs für Smartphones und Tablets. Das ist eine andere Anforderung als Laptops oder Desktop-Rechner. Insofern nutzt es nichts einfach ihre bisherigen AXX zu nehmen und 5 davon in einen Rechner einzubauen und zu sagen "so fertig".

Können sie zwar machen - aber das wäre sicherlich keine sinnige Strategie (zumindest nicht, sofern sie dann einen iMac Pro oder Mac Pro damit bestücken).

Insofern heißt kompletter Umstieg auf ARM, dass sie eine komplette Computing-Plattform haben: eigenständige ARM-CPU, eigene GPU, eigenes IO, eigene Controller, usw usw... es ist ja nicht damit getan einfach statt einen i5 oder i7 3-4 A13X einzulöten.


Ja klar frage ich das.
2 Plattformen betreuen heißt dass für alle entsprechenden Systeme (Framework, Compiler,...) permanent 2 Teams für beide Plattformen entwickeln müssen → Fragmentierung, mehr Bugs, weniger Features,...

als wenn sich alles auf eine Plattform konzentriert und dadurch auch deren Vorteile nutzt. Durch eigene Designs ist für Apple ja potentiell Möglich Dinge in Hard- & Software umzusetzen, die von der Stange so nicht gingen - wie eben bei den iPhones.

pixelguy
2019-10-18, 17:32:38
Insofern heißt kompletter Umstieg auf ARM, dass sie eine komplette Computing-Plattform haben: eigenständige ARM-CPU, eigene GPU, eigenes IO, eigene Controller, usw usw... es ist ja nicht damit getan einfach statt einen i5 oder i7 3-4 A13X einzulöten.
Wäre es nicht auch möglich, weiter auf GPUs von nVidia oder AMD zu setzen und nur in den unteren klassen einen eigene GPU zu verbauen? So wie aktuell die von Intel?

Ich denke nicht, dass Apple auch noch bei den GPUs ganz vorne mitspielen kann/will.

MSABK
2019-10-18, 17:42:57
Vlt beobachtet Apple auch erstmal wie weit Microsoft mit dem Surface Pro X im Markt kommt. Evtl kann man dann erwägen ob es sich lohnt oder nicht.

pixelguy
2019-10-18, 17:44:14
Ich glaube nicht, dass Apple irgendwie auf das Surface reagiert oder abwartet

Ganon
2019-10-18, 17:51:21
äh - dann wären sie bei den Rechner doch schon umgestiegen. da beißt sich die Schlange in deiner Argumentation doch in den Schwanz: du hast noch keine 16-Kerner gesehen, also glaubst du nicht, dass es sie geben kann.

Das habe ich nicht geschrieben. Nochmal: Ich glaube nicht, dass Apple macOS in den nächsten Jahren auf ARM umstellt. Ich rechne eher mit einem neuen MacBook (Air)-ähnlichen Gerät mit iOS. Und das sage ich anhand dem, was ich bereits sehe und was erhältlich ist (und was aktuell an Software so für iOS in der Pipeline ist).

Ich sage nicht, dass Apple keine High Performance 8,16,32... Kern (Multisocket-)CPUs bauen kann, aber es gibt sie bisher schlicht und ergreifend nicht, anders als bei AMD, Intel und anderen ARM Herstellern. Dass eine solche CPU von Apple ebenso besonders toll ist, ist halt eben Spekulation pur und auf dem gleichen Level wie "Intel released in 3 Jahren einen ARM Killer".


2 Plattformen betreuen heißt dass für alle entsprechenden Systeme (Framework, Compiler,...) permanent 2 Teams für beide Plattformen entwickeln müssen → Fragmentierung, mehr Bugs, weniger Features,..

Wir reden hier von einer schnöden CPU ISA. Sämtliche Features haben damit relativ wenig zu tun. Linux und das darumliegende Ökosystem liefert Kern, Treiber und Software für weit mehr CPU ISAs aus und es ist macOS was in sehr vielen Punkten Linux hinterherhinkt.

Alles drum herum läuft eh schon auf Apples eigenen CPUs und sämtliche erweiterten Features der Intel CPUs werden gar nicht erst seitens Apple unterstützt.

Die Unterstützung von 2 CPU ISAs seitens Apple sollte nun echt kein großes Problem sein.

urpils
2019-10-18, 17:56:10
@Ganon
es wiederholt sich langsam. Ich habe meine Argumente dargelegt. Wir werden sehen was kommt. Möglich ist Vieles. Und Argumente kann man für fast alles finden.

Ich halte es absolut für absolut realistisch und möglich, dass macOS mit allen entsprechenden Laptops und Desktops komplett auf ARM umzieht. schauen wir mal, was letztlich kommt.

pixelguy
2019-10-18, 18:00:56
Ein MacBook Air mit iOS macht doch für Apple überhaupt keinen Sinn.
Dafür gibt es das iPad Pro...

Das Air macht nur mit macOS Sinn. Und dafür machen ARM Kerne meiner Meinung nach auch sehr viel Sinn... Gründe wurden ja oft genug genannt.

Ob sie dann (langfristig) zwei Systeme supporten, kann ich mir zwar auch nicht so richtig vorstellen, wäre aber auch nicht total unvorstellbar. Machen sie mit den iPhones/iPads und dem Mac jetzt auch.

Felixxz2
2019-10-18, 19:32:38
@Felixxz2 Nichts von dem was du sagst hat jetzt aber was mit ARM oder nicht-ARM zu tun. Die fehlende Konstanz liegt vor - egal ob ARM oder nicht. Dass der kommende MacPro sich erstmal durch regelmäßige Produktpflege beweisen muss ist auch unabhängig davon, auf welcher ISA die CPU fußt.

Was hat denn ein ARM-Trend mit schlechtem Support zu tun? Für viele Entwickler ist es größtenteils egal, welche Architektur die CPU hat. Siehe doch mal Fatalist: für iPads programmierte Software wird mehr oder weniger per Knopfdruck einfach für x86_64 kompiliert und gut ist. Die Anpassungen die notwendig sind betreffen eher Mac-spezifische Änderungen wie Inputmethode, usw... aber letztlich ist es der Software durch die Frameworks völlig egal, ob sie auf Intel, Power oder ARM läuft.

und nochmal: wenn Apple die Prozessorentwicklung selbst in der Hand hat, können sie im Zweifel die Performance-Schraube mehr oder weniger beliebig anziehen, was auch den ominösen "Pros" (was auch immer unter diesem Begriff alles zusammengefasst wird ;) ) zugute kommt.

und ARM hat rein gar nichts mit Appstorezwang, Politik oder Sonstigem zu tun. Der Nutzer wird vom Wechsel nichts merken - genau wie damals von Power zu x86


Nur mal Vorweg: das ganze mit Knopfdruck solltest du schnell vergessen, denn das ist gerade Catalyst nicht wie die ersten Reviews zeigen ;)

Und es geht ja auch nicht um die technologische Machbarkeit oder das ARM einen zu irgendwas zwingt. Sondern dass Apple diesen Schritt nutzen wird und das unter Garantie, um das System deutlich geschlossener und mehr DAU zu machen. Und das kaum ein Pro (was auch immer das sein mag haha) bereit sein wird diesen Schritt mitzugehen, wenn er sich für weniger Geld auch einfach nen bekannten x86 Windows kaufen kann. Denn die Softwareauswahl und vielleicht auch Support werden sinken (außer man betrachtet unangepasste iPad Apps als Fortschritt).


Abgesehen davon: glaubt denn wirklich jemand, dass Apple Millionen in die Entwicklung von dicken 16 Kernern steckt, die sowieso zahlenmäßig keiner braucht und die Apple kaum Umsatz bringen? Ich könnte mir gut Vorstellen, dass es diese dicken Chips garnicht geben wird.


Wie auch immer, ich glaub wir sind uns ja relativ einig: es wird kommen und Apple wird bewusst und unbewusst viele Kunden verlieren und andere gewinnen. Vielleicht verliert der Creative Pro Markt, aber der Office-Heini Markt wird ARM Macbooks kaufen wie blöde.

drdope
2019-10-18, 19:45:55
Das Air macht nur mit macOS Sinn.

Rein technisch betrachtet ist iOS lediglich ein zugenageltes macOS mit angepassten UIKit, gleiches gilt auch für iPadOS, tvOS und watchOS.

Deshalb spricht auch sehr wenig dagegen, daß Apple für die Consumer-Geräte relativ flott eine weitere "OS-Linie wie z.B. macbookOS" aufmachen könnte, wenn sie denn wollten.
Bisher wollen sie halt nicht.

Für Apps die auf aktuellen Apple-APIs aufbauen, ist der Aufwand die µArch zu wechseln sicher sehr überschaubar, problematischer wird der Kram, der auf alten APIs basiert, die es nur auf x86(_64) gibt.

Wieviele solcher "Legacy"-Apps es noch gibt (vermutlich sehr viele) wird Apple relativ genau wissen.
Ebenso hat Apple imho sehr genaue Zahlen darüber, wie häufig auf aktuellen Macs Bootcamp und/oder Virtualisierung genutzt wird, um Windows auf einem Mac zu nutzen, was nach einem Wechsel zu ARM quasi wegfiele.
MS hat zwar ein Windows, daß auf ARM-CPUs läuft, aber die Softwareauswahl ist dort sehr gering verglichen mit x86(_64) Windows-Anwendungen.

Beides halte ich für die gewichtigsten Gründe, warum Apple den Schritt zu ARM noch nicht angegangen ist.
Auf der anderen Seite könnte man das abschneiden alter Zöpfe (aktuell 32bit, OpenGL, u.v.m.), aber so werten, daß Apple bewußt sanften Druck auf die Softwareanbieter ausübt, ihre Apps an die neuen APIs anzupassen.

smalM
2019-10-18, 19:57:18
Abgesehen davon: glaubt denn wirklich jemand, dass Apple Millionen in die Entwicklung von dicken 16 Kernern steckt, die sowieso zahlenmäßig keiner braucht und die Apple kaum Umsatz bringen?
Als monolithisches Design? Nein.
Als modulares Design? Na klar.

Felixxz2
2019-10-18, 21:43:15
Du meinst ähnlich AMDs Chiplets?

smalM
2019-10-20, 15:53:55
Ja, da hin geht die Reise für alle.
Und wie man hier (https://www.anandtech.com/show/14914/arm-tsmc-demo-7nm-chiplet-system-w-8-cortexa724ghz-on-cowos-interposer) sieht, üben TSMC und ARM ja auch schon fleißig. Man beachte die Auslegung auf 4 GHz, weit über dem Bereich, den Mobil-SoCs heutzutage erreichen.

Felixxz2
2019-10-20, 16:19:38
Gut das würde dann natürlich Sinn machen, wenn leicht angepasste Mobile SoCs als Chiplets zusammenschweißt.

smalM
2019-10-27, 09:15:05
Bei TechInsights (https://www.techinsights.com/blog/apple-iphone-11-pro-max-teardown) gibt es einen Dieshot des A13.

Hmm, 4MB L2 für die kleinen Cores und 16MB System-Cache? Und die Anordnung der CPU-Cluster und der GPU um den System-Cache scheint mir besser gelöst als beim A12.
Sonst sehe ich keine Änderungen.
Was immer das für ein Bus (PCIe?) am rechten Rand unterhalb der GPU ist, er hat nun 12 Lanes statt vorher 8.

iuno
2019-11-16, 23:11:01
3 Leute von Apple wollen jetzt Server-CPUs bauen:
https://www.reuters.com/article/us-nuvia-tech-idUSKBN1XP19V

Galaxie
2019-11-17, 01:04:41
Was einfach hinten und vorne bei Apple und den Benchmarks nicht passt ist wie angepasst oder manipulierbar hier gehandelt wird.


2 Vergleichsgeräte das von Apple soll laut Benches 25% durchweg besser sein und eben dieses 25% durchweg bessere Apple Gerät nimmt sich öfter eine Auszeit in der Realen Nutzung als ein "langsameres" Android Gerät.

Ich verwende beide Aktiv.


Ich denke hier wird seitens Tester und Apple der Kunde einfach nur verarscht, niemand kann was sagen da es Offiziell nur den App Store in der IOS Blase gibt.

Das gab es doch schon bei alten Iphone wo durch "Schlechte Akkus" die Leistung gedrosselt wurde, jeder der sagte das sein Iphone langsamer läuft war ein Verschwörungstheoretiker, bis es Apple offiziell beschönigt zugab das die alten Iphones gedrosselt wurden unter Vorwand der Akku Leistung.

Das wäre der Nächste Punkt, ITunes am PC, ohne App Store, das man ja keine "Neuen" Alten Apps auf sein altes Iphone installieren kann, und man extra die 12.6 od. 7 ? dafür braucht.

Apple ist aus meiner Sicht der velogenste Drecksladen noch vor Facebook.

urpils
2019-11-17, 08:06:40
Was einfach hinten und vorne bei Apple und den Benchmarks nicht passt ist wie angepasst oder manipulierbar hier gehandelt wird.


2 Vergleichsgeräte das von Apple soll laut Benches 25% durchweg besser sein und eben dieses 25% durchweg bessere Apple Gerät nimmt sich öfter eine Auszeit in der Realen Nutzung als ein "langsameres" Android Gerät.

Ich verwende beide Aktiv.


Ich denke hier wird seitens Tester und Apple der Kunde einfach nur verarscht, niemand kann was sagen da es Offiziell nur den App Store in der IOS Blase gibt.

Das gab es doch schon bei alten Iphone wo durch "Schlechte Akkus" die Leistung gedrosselt wurde, jeder der sagte das sein Iphone langsamer läuft war ein Verschwörungstheoretiker, bis es Apple offiziell beschönigt zugab das die alten Iphones gedrosselt wurden unter Vorwand der Akku Leistung.

Das wäre der Nächste Punkt, ITunes am PC, ohne App Store, das man ja keine "Neuen" Alten Apps auf sein altes Iphone installieren kann, und man extra die 12.6 od. 7 ? dafür braucht.

Apple ist aus meiner Sicht der velogenste Drecksladen noch vor Facebook.

um deiner Meinung etwas objektives entgegen zu setzen von Leuten, die sich damit auskennen:

https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/2

;)

woodsdog
2019-11-18, 07:52:34
Die Akkudrossel ist schlecht kommuniziert worden aber technisch absolut sinnvoll.

In der Praxis zich mal im Bekanntenkreis gehabt... älteres Telefon, Akku nicht mehr der Beste... Geräte schalten sich ständig - auch bei noch ausreichend Akku - einfach aus weil die Spitzenlast beim App-Aufruf/Update einfach nicht mehr geliefert werden konnte.

Das das Telefon damit langsamer ist, dafür nicht mehr ständig aus geht dürfte praktisch allen Usern wichtiger sein. Alternativ kann man es zumindest bei Apple deaktivieren.

Diese Funktion allein verlängert die nutzbare Lebenzeit eines Gerätes erheblich und ist somit sowohl ökologisch als auch ökonomisch sinnvoll.

deekey777
2020-01-02, 09:09:17
Apple und IMG haben sich wieder leep?

Imagination and Apple Sign New Agreement (https://www.imgtec.com/news/press-release/imagination-and-apple-sign-new-agreement/)

London, UK; 2nd January 2020 – Imagination Technologies (“Imagination”) announces that it has replaced the multi-year, multi-use license agreement with Apple, first announced on February 6, 2014, with a new multi-year license agreement under which Apple has access to a wider range of Imagination’s intellectual property in exchange for license fees.

robbitop
2020-01-02, 10:03:44
Kann mir gut vorstellen, dass das allein aus patentrechtlichen Gründen notwendig ist. GPUs sind Minenfelder an Patenten. So ziemlich alle guten Ideen (auf die man auch von allein kommen würde) sind bereits patentiert - entsprechend schwierig ist es, eine sehr gute wettbewerbsfähige GPU zu entwerfen, die das völlig umgeht. Die alt eingesessenen haben entsprechende Patente oder cross license agreements. Dazu gehört auch IMG.

Die Frage ist, ob man es aus allein diesem Grund tut oder ob man auf IMGs uArchs zurückgreifen will. Ich würde denken, dass Apple mittlerweile so viel Talent an Board hat, dass man eigentlich auf keine uArch Lizenz angewiesen sein sollte. (was Samsung ja offenbar nicht geschafft hat - aber Apple ist nicht Samsung)

deekey777
2020-01-02, 10:11:15
Man könnte ja fast meinen, dass das Anstellen (früherer) IMG-Mitarbeiter Apples Ziel war, wenn diese nach der Ankündigung und finanziellen Ausbluten einen neuen Job suchen mussten und bei Apple landeten.

smalM
2020-01-02, 10:36:40
"under which Apple has access to a wider range of Imagination’s intellectual property"

Die Frage ist, welche Technologie hat IMG nach 2014 entwickelt, deren Nutzung von der alten Vereinbarung nicht abgedeckt wurde, und auf die Apple scharf ist?

bloodflash
2020-01-02, 11:10:18
"under which Apple has access to a wider range of Imagination’s intellectual property"

Die Frage ist, welche Technologie hat IMG nach 2014 entwickelt, deren Nutzung von der alten Vereinbarung nicht abgedeckt wurde, und auf die Apple scharf ist?


Vor kurzem hatten sie ja ihre neue GPU-Technologie vorgestellt:


https://www.imgtec.com/graphics-processors/img-a-series-gpu/


Das ging mit Sicherheit nur mit Apples Zahlungen.
Oder setzt noch jemand etwas von denen in SOCs ein?

mboeller
2020-01-02, 15:56:37
Vor kurzem hatten sie ja ihre neue GPU-Technologie vorgestellt:


https://www.imgtec.com/graphics-processors/img-a-series-gpu/


Das ging mit Sicherheit nur mit Apples Zahlungen.
Oder setzt noch jemand etwas von denen in SOCs ein?

Mediatek

edit:
https://forum.beyond3d.com/threads/apples-ongoing-use-of-imgtec-powervr-gpu-ip.60005/page-7

nette Diskussion, vor allem das was Nebuchadnezzar schreibt und der sollte wissen was er schreibt.
Ailuros hat im anderen Thread übrigens schon das gleiche ausgesagt.

Die hochgelobte Apple GPU ist also nix weiter als eine angepasste Rogue GPU von IMG ...

Sunrise
2020-01-02, 16:38:42
...2 Vergleichsgeräte das von Apple soll laut Benches 25% durchweg besser sein und eben dieses 25% durchweg bessere Apple Gerät nimmt sich öfter eine Auszeit in der Realen Nutzung als ein "langsameres" Android Gerät.

Ich verwende beide Aktiv.
Kommt eben darauf an, was du machst, aber IMHO überwiegen hier die Nachweise, dass die SoCs nicht nur die Speerspitze an Ingenieurskunst sind (da wird auch ordentlich Kohle versenkt, Apple hat es ja...), sondern auch, dass die Leistung in vielen Bereichen wie von Apple angegeben tatsächlich auch ankommt. Die Anbindung oder relativ wenig RAM mal außen vor gelassen, die Apple-typisch "ausreichend" dimensioniert wird.

Wenn du da irgendwelche Dinge testest, das dann auch noch mit einem anderen SoC/System vergleichst, bin ich mir nicht sicher, ob man Apple deshalb gleich verdammen sollte.

Ich freue mich jedenfalls auf die kommende 5nm-Generation, denn was da theoretisch mit Apples Know-how möglich ist, wenn schon die kleine Anpassung von N7 auf N7P solche großen Steigerungen (inkl. stark verbesserter Effizienz) brachte, kann man nur erahnen.

Die Akkudrossel ist schlecht kommuniziert worden aber technisch absolut sinnvoll.

In der Praxis zich mal im Bekanntenkreis gehabt... älteres Telefon, Akku nicht mehr der Beste... Geräte schalten sich ständig - auch bei noch ausreichend Akku - einfach aus weil die Spitzenlast beim App-Aufruf/Update einfach nicht mehr geliefert werden konnte.
Ich habe ehrlich gesagt noch bei keinem meiner Handys mitbekommen (mein iPhone 7 hat z.B. bewusst noch iOS 10 - also ohne Drossel), dass es sich irgendwie komisch verhält. Sind jetzt über 3 Jahre starke tagtägliche Nutzung, absolut keine Probleme (außer, dass ich jetzt leider wechseln bzw. aktualisieren müsste, da Rückwärtskompatibilität bei iOS 10 bei vielen Apps nichtmehr geduldet wird). Läuft so schnell wie damals, als ich es gekauft habe.

Mein iPhone 5s hatte auch keine, waren auch mehr als zwei Jahre intensive Nutzung.

Ich glaube eher, dass Apple die Akkus einfach sehr stark belastet, irgendwas machen sie jedenfalls anders als früher, und diese Drossel eine "technische Notwendigkeit" geworden ist, weil es zwar nachweisbar ist, dass Akkus altern und keine Spitzenlasten mehr fahren können (logisch), aber nicht in dem Ausmaß (1 Jahr, jedes neue iOS-Release integriert automatisch die Drossel für die Vorgängergeneration), wie es kommuniziert wird. Oder anders ausgedrückt, Apple weiß das und es kann Apple niemand vorschreiben, wie stark sie den Akku belasten dürfen, daher macht man das natürlich.

Ansonsten kann mir gerne jemand erklären, warum das bei meinen alten iPhones ohne neues iOS nicht notwendig war.

Zum Thema:
Ist wirklich interessant, dass jetzt IMG doch tatsächlich wieder was Neues gebracht hat, hab ich komplett aus den Augen verloren, denn Ailuros ist leider auch nichtmehr anwesend. Die Daten lesen sich ganz gut, aber das ist schwer vergleichbar jetzt, da Apple ja eigene Designs hat seit ein paar Generationen.

=Floi=
2020-01-02, 16:53:54
ich habe ein IP6SPlus. Der akku hält durch die kälte bei normaler nutzung noch einen tag! (im grunde ist er durch)
Apple zeigt 82% restkapazität an und die höchstleistungsfähigkeit ist noch immer gegeben.

Da drosselt gar nix.

Edit
man kann die alten geräte nicht vergleichen. Das ist erheblich weniger technik und auch weniger leistung.

pixelguy
2020-01-02, 21:18:14
Gerüchteweise startet TSMC dieses Jahr mit der 5nm Produktion des A14 Chips.

Quelle: https://www.digitimes.com/news/a20200102VL200.html

robbitop
2020-01-02, 22:36:29
Das ist der logische nächste Schritt.

smalM
2020-01-03, 11:56:21
Die hochgelobte Apple GPU ist also nix weiter als eine angepasste Rogue GPU von IMG ...
Das halte ich nach wie vor für übertrieben. Daß Apple IMG-IP nutzt, ist klar, aber es ist ihre eigene Implementation. Ein Blick auf die Die-Shots von A10 und A11 genügt – gerade von Andrei hätte ich das erwartet (und hier klingt es auch anders (https://twitter.com/andreif7/status/1212680339765825536)).

robbitop
2020-01-03, 13:37:56
IIRC hat Apple auch schon zu IMG Zeiten relativ früh angefangen (gab es da auf RWT von David Kanter nicht einen Report dazu?) die IMG uArch relativ stark anzupassen?
Es scheint auf jeden Fall schon länger deutlich mehr zu sein als eine 1:1 uArch Übernahme über Lizenz.

smalM
2020-01-04, 16:09:54
@robbitop
Ich denke mit "GPUs sind Minenfelder an Patenten" hast Du den Hauptgrund für das bisherige Abkommen auf den Punkt getroffen.
Auch das neue Abkommen, das ja von "wider range" spricht, mag nicht dem Kauf von verwendbarer IP dienen, sondern der Absicherung gegen Patentklagen. Apple könnte durchaus Eigenes entwickeln, was aber schon von IMG-Patenten abgedeckt ist. Dafür könnte sprechen, daß von "Royalties" nicht die Rede ist.

robbitop
2020-01-04, 17:20:51
Insbesondere die guten Sachen eines TBDRs sollte IMG alle patentiert haben. :)

Ailuros
2020-01-08, 08:09:25
Das halte ich nach wie vor für übertrieben. Daß Apple IMG-IP nutzt, ist klar, aber es ist ihre eigene Implementation. Ein Blick auf die Die-Shots von A10 und A11 genügt – gerade von Andrei hätte ich das erwartet (und hier klingt es auch anders (https://twitter.com/andreif7/status/1212680339765825536)).

Wobei mboeller's Aussage wohl eher mit der Behauptung von Andre deckt. Mehr als eine quasi angepasste GPU war es in Apple SoCs eigentlich nie, was an fuer sich so oder so Bloedsinn ist da keine Implementierung von IMG's GPU IP je identisch ist zwischen zwei verschiedenen Semis. Nur weil z.B. Mediatek und Renesas beide die gleiche Rogue Variante fuer zwei verschiedene GPUs benutzen heisst es bei weitem nicht dass es identisch ist.

Wenn alles so leicht waere wuerde es den Brei nicht geben: https://www.imgtec.com/img-edge/

(frueher als IMG works bekannt)

Zeig mir mal die shots von einer aehnlichen GPU IP wie im A10 oder spaeter von einem anderen Semi damit wir es vergleichen koennen. Und da es offensichtlich nichts zum vergleichen gibt, traue ich wohl eher Andre's Aussagen als ex IMG-employee.

IIRC hat Apple auch schon zu IMG Zeiten relativ früh angefangen (gab es da auf RWT von David Kanter nicht einen Report dazu?) die IMG uArch relativ stark anzupassen?
Es scheint auf jeden Fall schon länger deutlich mehr zu sein als eine 1:1 uArch Übernahme über Lizenz.

Kanter's writeup war fuer die Muelltonne da er alles auf IMG's oeffentliche Beschreibungen basierte die zum diesem Zeitpunkt einfach veraltet waren.

IMG hat natuerlich seither ihr oeffentliches Material fuer Rogue und co auf den neuesten Stand gebracht, aber weder Kanter noch jemand anders hat sich je mit dem Zeug beschaeftigt.

Nochmal Apple nimmt IMG's Referenz-Treiber und schreibt auf deren Basis ihre eigenen Treiber. Sonst integrierten sie stets GPU IP was die hardware betrifft in enger Zusammenarbeit mit IMG. Nachdem Apple zum ersten mal Series7 Plus benutzte und da Apple relativ wenig an den GPUs seither aenderte, war die Integrierung aus reiner Apple Hand. Macht es Apple auch in der Zukunft dann so ab Alborix dann kann dafuer IMG nur gluecklich sein da sie eine Unmenge an engineering resources sparen werden die Integrierung mit Apple's engineers zu verfolgen. Wobei im gegeben Fall eine eigene Integrierung immer noch Meilen von jeglichem "custom GPU Konzept" entfernt ist.

Ich lese bei jedem neuem Axx release der letzten Jahre im Netz irgendwelche Maerchen von Apple's "eigenen" oder superduper angepassten GPU die aber dummerweise nie selbst mit einer einzigen extension mehr unterstuetzt als jegliche andere Rogue Variante von anderen Semis; clock for clock sind Apple's GPUs von der hw Seite auch keinewegs sehenswert effizienter. Unterschiede kommen hauptsaechlich von der sw Seite wenn ein 0815 Partner eine besonders beschissene sw Platform hat. Jemand wollte sogar beim A12 release "wissen" dass Tessellation ploetzlich um zich Male effizienter wurde auf der A12 GPU, wobei Series7 Plus Tesselation zwar in hw unterstuetzt aber die GPU ist nach wie vor immer noch DX10.x.

gravitationsfeld
2020-01-08, 08:16:04
IIRC hat Apple auch schon zu IMG Zeiten relativ früh angefangen (gab es da auf RWT von David Kanter nicht einen Report dazu?) die IMG uArch relativ stark anzupassen?
Es scheint auf jeden Fall schon länger deutlich mehr zu sein als eine 1:1 uArch Übernahme über Lizenz.
Mir hat mal jemand erzaehlt, dass die komplette ALU ersetzt war am Ende inklusive anderer ISA.

Ailuros
2020-01-08, 08:29:19
Mir hat mal jemand erzaehlt, dass die komplette ALU ersetzt war am Ende inklusive anderer ISA.

ROFL :freak:

***edit: https://gfxbench.com/device.jsp?benchmark=gfx50&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Imagination%20Technologies%20PowerVR%20Rogue%20Marlowe&did=52725500&D=Meizu%20Pro%207%20high%20edition

https://gfxbench.com/device.jsp?benchmark=gfx50&os=iOS&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A9%20GPU&did=31564732&D=Apple%20iPhone%20SE

FP32 GFLOPs sind vergleichbar zwischen den beiden Loesungen; 4 quad cluster@800MHz Marlowe, 6 quad cluster@600MHz A9. Da alles ab Manhattan3.0 ziemlich stark ALU bound ist, decken sich die gfxbench Resultate auch relativ genau mit den GFLOPs der beiden Loesungen. Marlowe wurde um einiges spaeter veroeffentlicht als A9, deshalb fehlen im letzten einige Resultate von higher level benchmarks als Manhattan3.0. Im guten Ganzen hat sich selbst im A13 nichts sehenswertes bewegt, wenn man sich GFLOPs mit den korrekten Frequenzen ausrechnet. Arun war beim Marlowe release noch bei IMG und war ziemlich stolz darauf damals dass seine compiler Optimierungen so gut angekommen sind; diese werden auch von Apple benutzt.

https://forum.beyond3d.com/posts/2051630/

It's 64 FP32 FMAs per core (or 64 Vec2 FP16 FMAs). I guess you could argue it's more "flops" than that with special function co-issue etc... but then the same would be true for many other architectures and we only count FMAs for those.

Ryan, I wrote a couple of Metal microbenchmarks a few weeks ago that had some interesting results - been meaning to clean up the code, open source it, then write a blog post about their ALU design - but I've been getting distracted by other things. I'll PM you later today or tomorrow when I have a chance.

https://forum.beyond3d.com/posts/2092294/ --> A12 liegt in einem smartphone bei 114+ fps im gleichen Test. Die GPU hat im Vergleich zu der A9 GPU auch fast doppelt so viel GFLOPs. Die peak Frequenz liegt aber auch >1.25GHz.

-----------------------------------------------
https://www.anandtech.com/show/15272/imagination-and-apple-sign-new-agreement

The GPU’s block structure is also very similar to that of Imaginations, further pointing out to a close relationship between the designs.

smalM
2020-01-10, 01:43:23
Longhorn (https://twitter.com/never_released/status/1214996755143680001):
"So it turns out that Apple A11 is ARMv8.2-A, Apple A12 is ARMv8.3-A and that Apple A13 is ARMv8.4-A..."

Zossel
2020-01-10, 07:28:26
Mir hat mal jemand erzaehlt, dass die komplette ALU ersetzt war am Ende inklusive anderer ISA.

Mir hat mal jemand erzählt das Devices von Apple von Außerirdischen entwickelt werden.

robbitop
2020-01-10, 07:37:53
Er wird als AAA 3D Engine Entwickler sicherlich keine Außerirdischen meinen. In der Branche sind die Kontakte sicherlich mindestens 1x Nummer besser als das. ;)

Ailuros
2020-01-11, 06:53:13
Er wird als AAA 3D Engine Entwickler sicherlich keine Außerirdischen meinen. In der Branche sind die Kontakte sicherlich mindestens 1x Nummer besser als das. ;)

Maerchen gibt es zahllose zum Thema, standhafte Indizien dazu aber wo genau? Aber wenn wir schon bei dem Bloedsinn bleiben muessen, wenn Apple's engineering team wirklich so weit gegangen ist und die ALUs total (inkl. ISA) ersetzt hat, dann:

1. Warum sind Apple's GPU Implementierungen nicht wesentlich effizienter auf GPU Basis als die von anderen Semis?

2. Warum hat Apple nicht doch am Ende ihre eigene GPU entwickelt und benutzt, denn ich hab wie Andre so manchen Zweifel dass es eine solche je gab?

Die A13 GPU taktet afaik irgendwo um die 1.28GHz (A12 und A11 takteten auch nicht besonders bescheidener) und dafuer wuerde es mich kein bisschen wundern wenn Apple Frequenz-relevante Optimierungen fuer die hw benutzt hat. Dass man aber dafuer die ALUs jetzt total insgesamt ISA aendern muss will ich nicht nur ernsthaft bezweifeln, aber es ist dann wohl auch Apple schoen bloed denn sie haetten mueheloser auch gleich Series8 und Series9 benutzen koennen, denn +30% pro jeglicher (mini-) Generation kommt schon raus.

Um es mal auf einen logischen Stand zu bringen: In My Humble Layman's Opinion (IMHLO) war Apple's einziges Ziel die Preise fuer IMG's royalties noch weiter nach unten zu druecken, was sie wohl egal wie erreicht haben. Es ist eben NICHT so dass Apple seit A9 keine royalties an IMG bezahlt hat; eher das genaue Gegenteil. Je aelter aber die IP desto geringer die royalties.

IMG veroeffentlicht leider nicht mehr ihr finanzielles Zeug aber bis zum CB Kauf war der Durchschnitt an royalties nie hoeher als 0.30 cents ($) pro verkauftem core. Hoechster Preis fuer high end und neueste IP irgendwo $1. Da Apple mit 7 Plus sowohl Series8 und 9 quasi uebersprungen hat mit einfachen Frequenz-Steigerungen haben sie auch automatisch etwas weniger an royalties bezahlt. Der Unterschied ist aber dann immer noch so laecherlich dass es die resources von einem kompletten redesign von GPU ALUs wohl immer noch nicht gerechtfertigt.

robbitop
2020-01-11, 08:03:46
Das klingt so gar nicht nach Apple. Royalties sind in Relation zu deren Einkommen, anderen Kosten und Kosten eines eigenen, fähigen Entwckkungsteams peanuts. Gerade bei RnD spart Apple nicht.
Aus nur diesem Grund alte uArchs zu nutzen (und damit Nachteile in Margenstarken Produkten hinzunehmen) klingt ein wenig... unlogisch. Was sind schon 0,7 USD bezogen auf ein 1000 eur Gerät auf dem gute 50% Marge liegen? Gerade die GPU ist ja ein wesentlicher Bestandteil.

PS: gerade kurz das Anandtech Review zum iP11 übersprungen. Die GPU des A13 zerstört offenbar alles, was der Wettbewerb zu bieten hat. Und das soll mit einer unveränderten 4-5 Jahre alten uArch gehen? Wenn ja, dann hat die Konkurrenz aber ziemlich geschlafen.

Ailuros
2020-01-11, 09:47:20
Das klingt so gar nicht nach Apple. Royalties sind in Relation zu deren Einkommen, anderen Kosten und Kosten eines eigenen, fähigen Entwckkungsteams peanuts. Gerade bei RnD spart Apple nicht.
Aus nur diesem Grund alte uArchs zu nutzen (und damit Nachteile in Margenstarken Produkten hinzunehmen) klingt ein wenig... unlogisch. Was sind schon 0,7 USD bezogen auf ein 1000 eur Gerät auf dem gute 50% Marge liegen? Gerade die GPU ist ja ein wesentlicher Bestandteil.

Serie8 und 9 auszulassen und stattdessen an der Frequenz zu schrauben ist aber auch nicht gerade ideal.

PS: gerade kurz das Anandtech Review zum iP11 übersprungen. Die GPU des A13 zerstört offenbar alles, was der Wettbewerb zu bieten hat. Und das soll mit einer unveränderten 4-5 Jahre alten uArch gehen? Wenn ja, dann hat die Konkurrenz aber ziemlich geschlafen.

Mit so verrueckt hohen Frequenzen schon; sustained Leistung ist aber bei QCOM in letzter Zeit wesentlich besser, wobei das dumme natuerlich ist dass die Leistungsspruenge dort einfach zu gering seit dem Adreno530. Du musst bedenken dass A13 ungefaehr zwei Mal so hoch taktet als ein Adreno640.

Das Alborix Marketing-Material war uebrigens mit 1GHz ausgerechnet.

robbitop
2020-01-11, 13:05:43
Auch Taktfrequenz ist ein wesentliches Kriterium einer Implementierung einer uArch. Da fließt viel Gehirnschmalz (und Transistoren) rein, damit das überhaupt möglich ist und der Verbrauch nicht explodiert.
Siehe Pascal und Navi. Das könnte dazu passen, dass man die ALUs verändert hat.
Einfach nur höher takten könnten andere doch auch. Ich kann mir gut vorstellen, dass es nicht so einfach getan ist.

Die Praxis und Marketingmaterial sind leider häufig zwei verschiedene Sachen. :)

gravitationsfeld
2020-01-14, 20:29:42
del

Ailuros
2020-01-16, 05:48:37
Auch Taktfrequenz ist ein wesentliches Kriterium einer Implementierung einer uArch. Da fließt viel Gehirnschmalz (und Transistoren) rein, damit das überhaupt möglich ist und der Verbrauch nicht explodiert.
Siehe Pascal und Navi. Das könnte dazu passen, dass man die ALUs verändert hat.
Einfach nur höher takten könnten andere doch auch. Ich kann mir gut vorstellen, dass es nicht so einfach getan ist.

Selbst wenn (weder Pascal noch Navi hatten ALUs komplett ersetzt), zu verdammt umstaendlich im Vergleich zu einem IP refresh (wirklich neue Generationen waren S8 und 9 ja nie).

Die Praxis und Marketingmaterial sind leider häufig zwei verschiedene Sachen. :)

Stimmt; auch erweitert wenn man bedenkt dass es Apple (wie Du selber gesehen hast) nicht wirklich noetig hatte so stark aufs Gaspedal zu treten und das schon seit A11.

pixelguy
2020-01-16, 16:44:36
A14 chip could make the iPhone 12 as powerful as the 15-inch MacBook Pro

The trend line gives us a score around 4,500, but I think a combination of architectural changes and clock speed will give us a lot more. I wouldn’t be surprised if the Geekbench 5 multi-core score creeps up to 5,000 or so.

For what it’s worth, the fastest Android phones score around 3,000 on this test, and a score of 5,000 would be similar to 6-core mainstream desktop CPUs or high-end laptop CPUs. It’s 15-inch MacBook Pro territory.

More transistors in the GPU and the rumored (faster) 6 GB RAM could see games performance boosted by about 50%.

I expect Apple to expend significant transistor budget making the GPU more powerful. Along with more memory bandwidth, we can probably expect GPU performance well beyond the trend line’s prediction of the low 7,000 range in this test. Barring some new performance bottleneck, I think a score over 9,500 is certainly possible. In other words, I think we can expect a 50% improvement in graphics performance for the kind of high-end graphics used in games.

Quelle: https://ww.9to5mac.com/2020/01/16/a14-chip/

smalM
2020-01-18, 20:04:24
Die Grundannahme im Artikel ist die Transistordichte von 147MT/mm², also einem Faktor von knapp 1,8 gegenüber N7.

Das ist natürlich eher murksich, denn diese Angabe von TSMC bezieht sich ja nur auf Logic. Für RAM gibt TSMC 1,35 und für Analog 1,3 an. Blick auf den A13-Die genügt: RAM ohne Ende, dazu noch diverse Bus-Systeme. Grob kann man wohl eher mit ~130MT/mm² rechnen - real über's ganze Die.
Ich halte seine Annahme von 85mm² Diefläche für nicht unrealistisch, aber bei 130MT/mm² käme da 'nur' ein Budget von 2,5 Mrd. Transistoren zusammen.

MMn. verdoppelt Apple die NPU und vergrößert die GPU um 50%, nimmt dafür aber den Takt für höhere Effizienz zurück; die CPU erfährt nur eine leichte Überholung. Die Diegröße sehe ich eher bei 81mm² bzw. 10,5 Mrd. Transistoren. Die A14X-Variante bekommt wie üblich eine 128bit SI, 4x Big-Core und eine gedoppelte GPU, macht ca. 100mm².
Das ließe Apple dann auch reichlich Spielraum für den A15, da der N5P ja nur einen kleinen Shrink bieten wird. Ich sehe hingegen keinen Grund bei der Entwicklung von A13→A14→A15 vom Schema A11→A12→A13 abzuweichen.

Sunrise
2020-01-20, 01:22:32
GPU und NPU werden ganz sicher Priorität haben. Ebenso werden sie den A14 so klein als möglich auslegen, da N5 nicht nur extrem teuer wird, sondern das auch die Ausbeute an A14-SoCs deutlich erhöht. Mehr als 85mm^2 bzw. 11 Mrd. Transistoren kann ich mir deshalb nicht vorstellen, die 10 Mrd. werden es aber locker werden.

Bzgl. der Frequenzen geht man sicher wieder bei der CPU nach oben. Ich hoffe hier bleibt es aber nicht dabei. Bei der GPU hängt es auch stark davon ab, ob man bei der aktuellen Architektur bleibt und diese nur verbreitert oder was man hier geplant hat. Scheinbar nutzt man ja weiterhin IMGTec-IP, weshalb da allein durch die Architektur theoretisch noch einiges rauszuholen ist.

Falls es Apple nicht eingeplant hat, gehe ich aufgrund von 5nm, Qualcomm-Modem (5G), neuem ToF-Kamera/Sensor und evtl. zweiter Generation FaceID von Engpässen beim Start aus. Das hat sich im Grunde sogar seit letztem Jahr verschärft, denn auch das „normale“ iPhone 12 dürfe bei identischer Strategie wieder den A14 bekommen.

Der A14X sollte aber in der Tat ein Monster werden, der abseits Apple auf 2 Jahre wieder keine Gegner hat. Ist nur fraglich, wann der kommt, aber sowas auch in einem Apple TV (der A12X ist ja schon recht potent gewesen), eröffnet da nochmal ganz andere Dimensionen an gewaltiger Rechenkraft. Apple wird 2020 bzw. 2021 richtig heftig einschlagen.

Zossel
2020-01-20, 07:51:51
Falls es Apple nicht eingeplant hat, gehe ich aufgrund von 5nm, Qualcomm-Modem (5G), neuem ToF-Kamera/Sensor und evtl. zweiter Generation FaceID von Engpässen beim Start aus.

Die Nachfrage lässt sich über den Preis steuern, das ist auch Shareholder-kompatibel.

smalM
2020-01-23, 14:31:24
Falls es Apple nicht eingeplant hat, gehe ich aufgrund von 5nm [...] von Engpässen beim Start aus
Ich könnte mir vorstellen, daß sich Apple für den Fall der Fälle die komplette Fab 18 Phase 1 hat zusichern lassen; alle anderen würden dann erst mit Phase 2 bedient werden.

So ein AppleTV A14X wäre übrigens das ideale Arm-Mac Entwicklermaschinchen :biggrin:

Sunrise
2020-01-25, 11:53:06
Ich könnte mir vorstellen, daß sich Apple für den Fall der Fälle die komplette Fab 18 Phase 1 hat zusichern lassen; alle anderen würden dann erst mit Phase 2 bedient werden.

So ein AppleTV A14X wäre übrigens das ideale Arm-Mac Entwicklermaschinchen :biggrin:
Wahrscheinlich wird es so sein, denn ich bin mir relativ sicher, dass sich TSMC 5nm nicht nur vergolden lässt (sie wissen, sie sind die Nummer 1), sondern auch Apple weiß, wie wichtig diese Führerschaft für sie ist, wenn es um Ihre Marktstellung und Außenwirkung geht. Die haben auch mehr als genug Geldreserven, um TSMC erstmal für min. 6 Monate volle Auslastung zu versprechen (bzw. TSMC sichert Ihnen anhand hochgerechneter Yields eine Menge X bis zum Zeitpunkt Y zu, lange bevor hier nennenswerte Mengen von anderen Teilnehmern nachkommen). TSMC lässt sich quasi von Apple die Entwicklungs- und Fertigungskosten bezahlen, bis das Spiel wieder von vorne losgeht. Solange da keine gravierenden Fehler passieren, wird TSMC sehr gefährlich, denn das ist ein wirklich heftiger Deal der ja beiden quasi die Spitze sichert. Da kann man auch bei R&D ordentlich aufdrehen, und dann kommt erstmal lange nichts (Intel hat scheinbar noch andere strukturelle Probleme).

Der A14X sollte unterwegs ein Segen sein, damit könnte man quasi alles abdecken, wenn Apple gewillt ist denn Apple TV noch weiter zu öffnen (ich hoffe AV1 kommt bald hinzu), dann hat man damit erstmal lange ausgesorgt.

CrazyIvan
2020-02-02, 21:42:04
Sorry, falscher Thread - bitte löschen.

Ailuros
2020-02-14, 06:14:46
Bei der GPU hängt es auch stark davon ab, ob man bei der aktuellen Architektur bleibt und diese nur verbreitert oder was man hier geplant hat. Scheinbar nutzt man ja weiterhin IMGTec-IP, weshalb da allein durch die Architektur theoretisch noch einiges rauszuholen ist.



Ja weiterhin auf der heutigen IP Basis.

pixelguy
2020-02-24, 19:12:10
Gibt mal wieder ein Gerücht, dass in den nächsten 18 Monaten ein ARM basiert Mac kommen soll:

https://9to5mac.com/2020/02/24/apple-to-release-first-arm-mac-without-intel-processor-in-next-18-months-predicts-kuo/

smalM
2020-02-26, 18:53:58
Wie jedes Jahr: Die WWDC wird es zeigen.

smalM
2020-03-16, 18:19:07
Zu den angeblichen Geekbench 5 Werten (https://linustechtips.com/main/topic/1165071-leaking-before-the-online-show-a14-powerbeats-4-found/) von einem A14 @ 3,09 GHz:

Selbst wenn man annimmt, die Werte seien echt, was wurde da gemessen?
Ein (aktiv) gekühlter Testaufbau?
Oder tatsächlich ein iPhone-Prototyp?

Sunrise
2020-03-17, 17:52:31
Zu den angeblichen Geekbench 5 Werten (https://linustechtips.com/main/topic/1165071-leaking-before-the-online-show-a14-powerbeats-4-found/) von einem A14 @ 3,09 GHz:

Selbst wenn man annimmt, die Werte seien echt, was wurde da gemessen?
Ein (aktiv) gekühlter Testaufbau?
Oder tatsächlich ein iPhone-Prototyp?
Wissen wir wie immer natürlich nicht, aber die Werte passen schon ziemlich genau ins erwartete Bild.

robbitop
2020-03-18, 10:07:01
Offenbar ~16% Frequenzsteigerung. Bei ~25% ST Performancesteigerung kommt man auf ~7-8% IPC Steigerung. Zumindest im GB. Klingt relativ realistisch. Auf einem bereits sehr hohen Niveau an IPC sind mMn ohne Brechstange eben nur moderate Sprünge möglich. Insgesamt +25% im ST ist schon sehr nett. Im MT sind es sogar knapp +33%. Kann mir gut vorstellen, dass die Performance der kleinen Cores in Summe stärker anstieg (oder aber man weniger vom Maximaltakt abweichen muss bei MT). Schon ein netter aber nicht unüblicher Sprung...
Als A14X Variante kann ich mir schon gut vorstellen, dass das eine gute Basis für ein leichtes Notebook wäre. Allerdings wird diese Sau ja Jahr für Jahr durchs Dorf getrieben und noch blieb es unrealisiert... :)

smalM
2020-03-18, 13:28:32
@Sunrise
Also ein 3 vor dem Komma hatte ich ganz gewiß nicht erwartet!

@robbitop
ST: Sollten die Zahlen stimmen, wäre es der mit Abstand höchste reale Leistungszuwachs den Apple bisher erreicht hat; der Zuwachs entspräche einem kompletter A7-Core...
MT: Wenn der Takt der großen Cores ein Hinweis darauf ist, wie weit sich die Verbrauchskurve mit N5 zu höherem Takt verschoben hat, dann könnte Apple den bei den kleinen Cores auf ein Stück über 2 GHz angehoben haben. Und/Oder sie haben das Transistorbudget des N5 benutzt, um die Cores deutlich aufzubohren.
A14X: Ich glaube nicht so wirklich an einen A-SoC im Mac, eher an eine eigene Entwicklungslinie. Aber in einem Developer Kit? Ja, durchaus.
So oder so, im Juno wird der Schweinehirt die neuen Ferkelchen vorführen.

robbitop
2020-03-18, 13:50:07
Der Zuwachs des ersten Wirbelsturmkerns im A7 ggü dem A6 war mMn deutlich größer als +25% ST und +33% MT

dildo4u
2020-03-18, 13:58:21
A12Z im neuen Ipad Pro.


https://www.macrumors.com/2020/03/18/new-ipad-pro-a12z-bionic-trackpad-keyboard/

smalM
2020-03-18, 18:35:49
@robbitop
Ich sprach aber nicht vom relativen sondern vom realen Zuwachs.

@dildo4u
A12Z – das ist nun echt eine Überraschung!

Anton Shilov von AnandTech stellt sich die Frage, ob das nur ein anderes Binning des A12X ist.
Könnte ja sein, es gab ja von dem nie einen Die-Shot und wir wissen so auch nicht, was da wirklich alles drauf ist.

KarlKastor
2020-03-18, 18:48:29
@smalM
Das hab ich mir auch gedacht. Warum sollten die einen neuen Die auf alter Technologie bringen? A13x wäre noch halbwegs logisch.
Zudem dann zumindest bei der GPU nur Mini Fortschritt und bei der CPU gar nichts. Dafür bringt man keinen neuen Die.

So vielleicht einfach ein voller A12x mit etwas mehr Takt.

Vielleicht sind die N5 Kapazitäten für A14 und A14x nicht groß genug. Und in N7P wäre die Die size zu groß. Wobei, mit N7P, 150mm2 und LPDDR5 hätte man sich schon deutlich vom A12X absetzen können.

smalM
2020-03-18, 19:32:09
Apple könnte sogar ein Re-Tape-out des A12X in N7P gemacht haben, wer weiß.

Den A14X hätte ich jetzt eh nicht erwartet, der wird erst nach dem A14 kommen. Und Ende des Jahres geht in der Fab 18 die Phase 2 in die Produktion, das dürfte für die paar A14X reichen...

robbitop
2020-03-18, 23:30:50
@smalim
Achso. Naja - das ist aber auch nix besonderes... Das haben Wachstumsfunktionen so an sich, dass das absolute Wachstum immer geößer wird bei gleichem relativem Wachstum. :)

smalM
2020-03-21, 00:41:13
Die ersten Ergebnisse in GB5 deuten darauf hin, daß zur GPU-Core-Vermehrung keine Takt-Erhöhung stattgefunden hat. Eher sind die (wenigen) Compute-Ergebnisse zu niedrig.

pixelguy
2020-03-23, 08:49:18
Es gibt ein paar Benchmarks zum neuen MacBook Air:

"MacBook Air 2020: Deutlich schneller als das Vorgängermodell – aber das iPad Pro spielt in einer anderen Liga"
https://www.mactechnews.de/news/article/MacBook-Air-2020-Deutlich-schneller-als-das-Vorgaengermodell-aber-das-iPad-Pro-spielt-in-einer-anderen-Liga-174654.html

https://i.imgur.com/bsk0UiD.png

In wie weit kann man denn diese Ergebnisse zwischen MacBook und iPad vergleichen?

Ganon
2020-03-23, 09:29:50
Der Basistakt des getesteten MacBook Airs liegt bei 1.1Ghz mit einem Boost "bis zu 3.5Ghz". Solange man nicht während des Tests schaut wie schnell die CPU wirklich lief ist der Test wenig aussagekräftig. Das iPad Pro läuft auf 2.5Ghz.

Je nachdem was für eine Kühlung (https://www.youtube.com/watch?v=iiCBYAP_Sgg) das MacBook Air hat, kann das mit dem Takt nämlich stark schwanken.

Man vergleicht hier nunmal Apples Vorzeigemodell iPad Pro mit einem ggf. stümperhaft zusammengeschusterten MacBook Air.

pixelguy
2020-03-23, 10:00:47
Ja, das MacBook Air ist mMn eine Lachnummer.
Habe hier das 2019er und ein altes 2012er MacBook Pro Retina. Das alte Pro ist gefühlt deutlich schneller. Das Air kämpft manchmal sogar mit YT Videos.
Das 2018er iPad Pro habe ich auch hier, finde da aber keinen guten Vergelichsfall.
Wobei es natürlich immer extrem schnell scheint.

Ich frage mich halt, warum Apple mit dem Air nicht langsam mal eine Umstellung anfängt.
Die Kunden interessiert es eh nicht was da drin ist. Und schnell genug sollte es auch sein.
Und falls Windows oder ein paar Pro-Tools zum Start nicht gehen, ist es für die Zielgruppe auch egal.

Naja, vielleicht wirds nach den aktuellen Gerüchten ja bald mal was...

Kallenpeter
2020-03-23, 10:13:26
Man vergleicht hier nunmal Apples Vorzeigemodell iPad Pro mit einem ggf. stümperhaft zusammengeschusterten MacBook Air.

Hast du recht, allerdings: Das MacBook Air ist brandneu. Das iPad pro schon 1,5 Jahre alt.

Ganon
2020-03-23, 10:25:37
Hast du recht, allerdings: Das MacBook Air ist brandneu. Das iPad pro schon 1,5 Jahre alt.

Ja und wenn du dir die restlichen Benchmarks anschaust: Die MacBook Airs davor waren noch langsamer. Das ändert aber nichts daran, dass die Airs ja nun anscheinend echte Müllgeräte sind (schau dir halt das von mir verlinkte Video an).

Dass Intel in dem Formfaktor nichts zu melden hat ist ja nun keine Neuigkeit, besonders nicht, wenn man dann auch noch zu blöd ist die Teile ordentlich zu kühlen.

robbitop
2020-03-23, 11:22:15
Das vorherige MBA hatte IIRC eine Y-CPU von Intel, oder? 2 Kerne und 5/6W TDP. Klar ist das für hohe Workloads nicht besonders sinnvoll. Das neue MBA hat immerhin 4x ICL Kerne. Der Basistakt spricht aber auch für eine Y-CPU. Das ergibt gute Performance bei Burst Loads und nicht so tolle bei konstanten Loads. Da muss man dann offenbar zum MBP greifen.

Vorteil ist allerdings dank wenig TDP spart man Bauraum und Gewicht für eine hohe tatsächliche Akkulaufzeit. 11h surfen und 12h Videos schauen ist schon mal eine Ansage bei 1,3 kg. IIRC gibt Apple auch ziemlich realistische Werte für Akkulaufzeit an.

Mein XPS13 mit 15W CPU kann theoretisch auch relativ lange durchhalten - in der Praxis schaffe ich es aber niemals über 7-8h. Bei ähnlichem Formfaktor.

Als Consumergerät und für Bust Workloads ist das eigentlich total OK. Was nervt, sind die hohen Upgradepreise für SSD und RAM.

y33H@
2020-03-23, 11:39:30
Sind drei Custom ICL-Y mit cTDP auf 10W für mehr Basistakt:

https://ark.intel.com/content/www/us/en/ark/compare.html?productIds=196596,196589,196586

Iamnobot
2020-03-23, 11:42:57
In wie weit kann man denn diese Ergebnisse zwischen MacBook und iPad vergleichen?
Gar nicht. Unterschiedliche Plattformen, unterschiedliche Befehlssatzarchitekturen.

robbitop
2020-03-23, 11:57:14
Sind drei Custom ICL-Y mit cTDP auf 10W für mehr Basistakt:

https://ark.intel.com/content/www/us/en/ark/compare.html?productIds=196596,196589,196586
Danke für die Info. :) Ich vermute sogar, dass der 10 nm Prozess bei diesem ICL-Y gar nicht so schlecht ist. Denn mit 10 W kann man hohe Taktraten eh vergessen und mWn ist die Spannungs/Taktcharakteristik gerade bei hohen Taktraten beim aktuellen 10 nm Prozess eher unschön.
Tigerlake wird hier sicherlich aber nochmal nachlegen können.

Sunrise
2020-03-23, 15:27:13
...Ich frage mich halt, warum Apple mit dem Air nicht langsam mal eine Umstellung anfängt.
Die Kunden interessiert es eh nicht was da drin ist. Und schnell genug sollte es auch sein.
Und falls Windows oder ein paar Pro-Tools zum Start nicht gehen, ist es für die Zielgruppe auch egal.

Naja, vielleicht wirds nach den aktuellen Gerüchten ja bald mal was...
Ein 5nm A14X sollte mit noch relativ moderater die size sämtliche Grenzen sprengen, vor allem da Intel vor 7nm nicht wirklich konkurrenzfähig sein wird. Wenn der A14 wirklich mit 3,09GHz kommt (und das ist bei 5nm zu erwarten), will ich nicht wissen, was theoretisch ein A14X zu leisten imstande ist. Es kann aber sein, dass Apple lieber das iPad stärker macht, IMHO ist das Air immer uninteressanter geworden, da kaufe ich doch entweder ein iPad mit Tastatur und Touchpad und bin noch flexibler, oder eben das kleine Macbook Pro, wenn ich auf x86 Wert lege.

pixelguy
2020-03-23, 15:40:59
Die Frage ist ja, ob Apple auch in den höheren Geräteklassen etwas anbieten kann.

Ich glaube kaum, dass sie die Macs in vers. Architekturen unterteilen. Wenn ein Switch kommt, dann wahrscheinlich komplett über alle Modelle (im Zeitraum von 1-2 Jahren).

Könnten die da nicht auch ganz anders konzipieren? Immerhin haben sie die Software auch im Griff und könnten für bestimmte Szenarien eigene Lösungen/Chips einbauen-
Sie T1, U1 Chips usw.

smalM
2020-03-24, 13:46:45
Gar nicht. Unterschiedliche Plattformen, unterschiedliche Befehlssatzarchitekturen.
Danke für die ollen Kamellen...

Wenn der A14 wirklich mit 3,09GHz kommt (und das ist bei 5nm zu erwarten), will ich nicht wissen, was theoretisch ein A14X zu leisten imstande ist.
Abgeschätzt BG5 Integer 1450~1550 single und 6500~6700 multi. Die dickeren CPUs im MBP erreicht man mit dem A14X also in multi ganz sicher noch nicht, single dürfte man aber zukünftig die Leistungsspitze stellen.
da kaufe ich doch entweder ein iPad mit Tastatur und Touchpad und bin noch flexibler, oder eben das kleine Macbook Pro, wenn ich auf x86 Wert lege
Wenn das iPad Pro die kleineren MacBook Pro ersetzen soll, muß iPadOS nochmals deutlich offener werden und es muß Versionen mit VIEL mehr RAM geben.

Sunrise
2020-03-24, 21:24:23
...Abgeschätzt BG5 Integer 1450~1550 single und 6500~6700 multi. Die dickeren CPUs im MBP erreicht man mit dem A14X also in multi ganz sicher noch nicht, single dürfte man aber zukünftig die Leistungsspitze stellen.

Wenn das iPad Pro die kleineren MacBook Pro ersetzen soll, muß iPadOS nochmals deutlich offener werden und es muß Versionen mit VIEL mehr RAM geben.
Wie gesagt, eher im Vergleich zum MBAir, dass für mich keinen wirklichen Zweck seit der Vorstellung damals mehr erfüllt, da das Ding ein altbackenes Alltags-Notebook ist, bei dem mir neue Konzepte fehlen.

Wenn ich x86 möchte, kaufe ich das kompakte MBP, auch die sind mittlerweile extrem dünn und portabel geworden. Das iPad (Pro) ist aber inzwischen flexibler und wäre mit dem A14X so extrem performant, dass es mir persönlich nichtmehr einfallen würde, das MBAir zu kaufen. Ich gehe auch davon aus, dass das iPad eher mit “Innovationen” wie z.B. neuer Display-Technologie (Mini- bzw. bald auch Micro-LED) versorgt wird, als das Air.

Muss aber natürlich jeder selbst wissen. x86 wird IMHO auf solch portablen Geräten auch kaum noch benötigt. Für alles andere eben noch die MBP.

smalM
2020-04-09, 15:24:24
Bei ReaMEIZU ist ein Die-Shot vom A12X (https://reameizu.com/apple-a12z-bionic-and-a12x-bionic-designed-exactly-the-same-demystified-by-die-shot-reveal/) aufgetaucht.
Die Auflösung leider ziemlich mau.
Die Bezeichnung "NPU 8CORE" ist in Wirklichkeit der SLC und "ISP 8CORE" ist die NPU.

Update:
Nun gibt's auch einen Artikel (https://www.anandtech.com/show/15716/apples-a12z-processor-confirmed-to-reuse-a12x-silicon) bei AnandTech mit Die-Shots von TechInsights

James Ryan
2020-04-10, 13:46:53
Ich denke Apple nutzt das iPad Pro aktuell als eine Art "Testballon" für ARM im Semi-Profibereich.
Erst erhielt iOS 13 einen sehr versteckten Cursor-Support, als Apple gemerkt hat, dass dieser sehr gut angenommen wurde, wurde der Support deutlich ausgebaut.
Ich denke das Trackpad-Tastatur-Cover geht in die ähnliche Richtung:
Wird es gut angenommen, erhält iPadOS sicherlich mit Version 14.x mehr "echte" Profi-Features, im Sommer wird IMO ebenfalls Final Cut für iPadOS kommen.
In 2-3 Jahren könnte dann iPadOS / iOS das einzig "mobile" OS von Apple sein, für den Nischen-Desktopmarkt bleibt dann macOS mit iMacs und Mac Pros im Legacy-Modus erhalten.

Aktuell fehlt dem iPad Pro Thunderbolt 3 und dem OS ein richtiger Monitor-Support.
Kommen diese Features, sind IMO alle Macbooks inkl. den Pro-Modellen überflüssig.

MfG :cool:

Sunrise
2020-04-12, 16:19:00
So blöd ist deine Idee garnicht. Vor allem wurde ja am nicht-ganz-so-neuen iPad Pro fast alles recycled, inkl. A12X (der plötzlich zum A12Z wurde) und der identischen Menge an Speicher, wie das alte 1TB iPad Pro.

Persönlich bin ich mir daher recht sicher, dass Apple bei der nächsten Version starke Änderungen plant, die aber nichtmehr Anfang des Jahres gepasst haben:

Insbesondere (seit langer Zeit) eine neue Panel- bzw. Backlight-Technologie namens MiniLED (MicroLED ist wohl noch nicht soweit), der A14X, 8GB RAM und ein Redesign des iPad Pro-Gehäuses (dünner bzw. leichter).

Dann wäre das Pro tatsächlich auch für mich interessant, evtl. sogar das große.

Felixxz2
2020-04-14, 10:35:54
Das iPad will ich sehen welches mein 8 Core 64GB RAM Macbook ersetzt...

Sunrise
2020-04-14, 10:39:25
Das iPad will ich sehen welches mein 8 Core 64GB RAM Macbook ersetzt...
Die 64GB RAM vielleicht nicht, aber dein winselnder Intel 8 Core? Ist jetzt auch eher ein schlechter Vergleich, ein voll-ausgestattetes Macbook Pro gegen ein iPad Pro. Für solche Extremfälle (Pro war ja tatsächlich mal Professional) sind die Macbooks ja auch mal gebaut worden.

Alle anderen 90% kommen mit einem weiter gedachten iPad Pro perfekt ans Ziel. Nur eine Frage der Zeit, bzw. wie weit Apple gewillt ist, den eigenen Markt zu kannibalisieren. Da MS es aber auch mitmacht, ist die Richtung denke ich klar.

dildo4u
2020-04-14, 11:57:52
A12Z vs Ice Lake.


https://youtu.be/LLqr7mQ9-d4?t=329

Das ipad zersägt das MacBook oder ist Safari für MacOS extrem weit zurück?

James Ryan
2020-04-14, 12:54:20
Das iPad will ich sehen welches mein 8 Core 64GB RAM Macbook ersetzt...

Kommt drauf an, was du damit machst.
4K Videobearbeitung auf einem iPad Pro 2018/2020 ist schonmal mindestens so fluffig, wie auf einem 8 Core MacBook Pro.
Dazu aber geräuschlos und das iPad mutiert auch nicht zur Herdplatte. ;)

MfG :cool:

smalM
2020-04-14, 17:31:49
@dildo4u
Das zugrundeliegende Webkit ist dasselbe.
Der Web-Kram ist meist single-threaded und so ein Vortex-Kern ist schon ziemlich leistungsfähig. Kommt nun noch dazu, daß wie im BMA nur eine Ice Lake Y CPU verbaut ist (TDP 9W), dann ist ein A12Z in jeder Lebenslage schneller. Dasselbe Die als ICE Lake U spezifiziert (TDP 15W), kann dann mit dem A12Z wieder locker mithalten.

Felixxz2
2020-04-14, 23:55:37
Leute mal die Apple CPUs in allen Ehren, aber wir reden hier von einer 45W CPU die bis über 80W boosten darf. Selbst die neue Kühlung ist da voll am Anschlag.
Das wirst du eben mit einem iPad nie ersetzen können, weil kein Lüfter. Vielleicht mit nem aktiv gekühlten ARM Macbook. Aber das geistert doch schon seit Jahren umher und ganz ehrlich kann man da auch einfach AMD nehmen wenn Intel zu schlecht ist.
Ich seh auf jeden Fall nicht, wo iPads demnächst Pro Laptops ersetzen sollen.

James Ryan
2020-04-15, 06:35:51
Ich seh auf jeden Fall nicht, wo iPads demnächst Pro Laptops ersetzen sollen.

Nicht zu sehr auf Specs versteifen... was machst du denn wirklich mit einem "Pro"-Laptop?

MfG :cool:

robbitop
2020-04-15, 08:21:12
Der Vorteil wenn man HW und SW in einer Hand hat, dass man auch Dinge auf fixed function Hardware laufen lassen kann. Fixed Function ist schnell mal um Größenordnungen schneller/effizienter als General Purpose Hardware (siehe video encoding, encryption).

Felixxz2
2020-04-15, 08:21:40
Wie gesagt die komplette Diskussion um Pro Geräte ist müßig, hier werden 5W mit 100W Geräten verglichen. Auch Fixed Function rettet dich nicht, die könnte man ja auch im 100W Gerät bringen.
Ich mache z.B. Musikproduktion damit und man kann zwar auf dem iPad schon heute sehr nett Beats produzieren, aber mehr auch nicht. Für richtiges Produzieren brauchst du ne große CPU.
Für Consumer ne andere Geschichte, da macht die kleinen Geräte sehr viel Sinn.

James Ryan
2020-04-15, 11:38:47
Ich mache z.B. Musikproduktion damit und man kann zwar auf dem iPad schon heute sehr nett Beats produzieren, aber mehr auch nicht. Für richtiges Produzieren brauchst du ne große CPU.
Für Consumer ne andere Geschichte, da macht die kleinen Geräte sehr viel Sinn.

Macht da eine Workstation nicht viel mehr Sinn? Da ist man ja nie im Temp- oder Akku-Limit.
Richtige "Pro"-Geräte wird man niemals ersetzen können, fette Workstations mit fetten CPUs und GPUs werden immer eine Daseinsberechtigung haben, keine Frage.
Die breite Masse (99% der Menschen) benötigen allerdings wenn überhaupt eine Maschine fürs Surfen, Steuer, wenn es hoch kommt bisschen Foto- und Videobearbeitung.
Und genau dafür ist ein iPad IMO genau richtig.
Mit richtigem Cursor-Support und dank Apple-Pencil auch mehr denn je für Foto- und Videobearbeitung.

Und genau hier sehe ich auch keinerlei Konkurrenz, die Kombination aus iPadOS und der iPad-Hardware inkl. Zubehör ist unerreicht.

MfG :cool:

robbitop
2020-04-15, 14:14:46
Wie gesagt die komplette Diskussion um Pro Geräte ist müßig, hier werden 5W mit 100W Geräten verglichen. Auch Fixed Function rettet dich nicht, die könnte man ja auch im 100W Gerät bringen.
Ist richtig. Aber die 100W CPUs entwickelt nunmal Intel und nicht Apple. Entsprechend kann man da nicht reintun, was man genau braucht.


Ich mache z.B. Musikproduktion damit und man kann zwar auf dem iPad schon heute sehr nett Beats produzieren, aber mehr auch nicht. Für richtiges Produzieren brauchst du ne große CPU.
Für Consumer ne andere Geschichte, da macht die kleinen Geräte sehr viel Sinn.
Liegt das nicht auch an der Beschränkung der iPad Apps? Musikproduktion wird doch seit Jahrzehnten schon am PC gemacht. Da wird selbst ein Faktor 2 an Leistung nicht zwischen möglich und unmöglich entscheiden.

In der Regel ist die Skalierung sogar noch weniger proportional. Ein 15W Ryzen 4800 ist vielleicht 10-20% von einem 100W Prozessor im PC entfernt.

Es ist nicht unwahrscheinlich, dass zwischen einem iPad SoC und einem Intel Mobile Prozessor wesentlich weniger Differenz als Faktor 2 besteht. In den MBPs sind ja auch nur <40W CPUs. Wenn CPU Power so wichtig ist, wäre ein richtig guter Desktop doch wesentlich besser. Da gibt es bis zu 64Cores und 4-5 GHz je nach CPU.

Wörns
2020-04-15, 20:02:18
Habe es eben schon im falschen Forum (Chipfertigung) gepostet.
Da haben sich nur alle auf den Prozess für AMD gestürzt,
und die Frage ist untergegangen.
Also nochmal hier:

AMD, Apple, and Nvidia lap up TSMC capacity vacated by Huawei (https://hexus.net/tech/news/industry/141568-amd-apple-nvidia-lap-tsmc-capacity-vacated-huawei/)

Daraus:
"...Interestingly, both Apple and AMD are looking to book 'N5 Enhanced' production capacity at TSMC for later in the year. This enhanced process was developed specifically for AMD, says the report..."

AMD benötigt doch einen High Performance Prozess. Warum anscheinend jetzt auch Apple?
Ist das der neue ARM-SoC von Apple, der Intel Chips ersetzen soll?
MfG

Ailuros
2020-04-16, 08:07:08
Apple setzt schon seit einer Ewigkeit fuer ihre Axx SoCs auf die kleinsten moeglichen Herstellungsprozesse.

Dampf
2020-04-16, 09:14:20
Ist richtig. Aber die 100W CPUs entwickelt nunmal Intel und nicht Apple. Entsprechend kann man da nicht reintun, was man genau braucht.


Liegt das nicht auch an der Beschränkung der iPad Apps? Musikproduktion wird doch seit Jahrzehnten schon am PC gemacht. Da wird selbst ein Faktor 2 an Leistung nicht zwischen möglich und unmöglich entscheiden.

In der Regel ist die Skalierung sogar noch weniger proportional. Ein 15W Ryzen 4800 ist vielleicht 10-20% von einem 100W Prozessor im PC entfernt.

Es ist nicht unwahrscheinlich, dass zwischen einem iPad SoC und einem Intel Mobile Prozessor wesentlich weniger Differenz als Faktor 2 besteht. In den MBPs sind ja auch nur <40W CPUs. Wenn CPU Power so wichtig ist, wäre ein richtig guter Desktop doch wesentlich besser. Da gibt es bis zu 64Cores und 4-5 GHz je nach CPU.

Ja an der CPU wirds definitiv nicht scheitern, die ist stark genug für super viele Spuren und Plugins. Es scheitert nur daran, dass es keine richtige DAW gibt, die auch noch herkömmliche VST plug-ins unterstützt. Fl Studio Mobile ist da leider das höchste der Gefühle, echt verschwendetes Potenzial wenn ihr mich fragt, das iPad wäre ideal zum Musik produzieren.

Felixxz2
2020-04-16, 10:37:08
Wollt ihr mir jetzt erklären, dass ich mir lieber nen Desktop kaufen soll? :freak:
Und dass ihr wisst, dass die CPUs für Pros alle schnell genug sind? Come on Leute.
Ihr wisst genauso wie ich, dass iPads große Rechner in der Kreativbranche nicht ersetzen werden, weil Faktor x2 tatsächlich wahnsinnig geil ist.
Sie haben ihren Platz, wie gesagt Beatskizzen werden gerne aufm iPad gemacht.

Aber ist auch n bisschen am Thema vorbei denke ich, weil Apple die Pro Devices, wenn überhaupt, als letztes auf ARM bringen wird. Sie haben letztes Jahr noch den neuen Intel Mac Pro gebracht, der wird sicher nicht nach 7 Jahren Wartezeit einfach morgen durch ARM ersetzt.

robbitop
2020-04-16, 10:50:00
Du selbst hast vom Vorteil von CPU Leistung gesprochen. Da ist es nicht abwegig zu konstatieren, dass es noch wesentlich mehr davon auf dem Desktop gibt. Aber das ist dann doch nicht wichtig genug? Je nach dem ob die Software gut parallelisierbar ist oder nicht sind das locker Faktor 1,5 - 8. Also ist absolute CPU Leistung dann doch nicht so wichtig? Was denn nun? ;)

IMO ist allein schon der Formfaktor von einem Tablet (aber auch von kleinen Notebooks) einfach unschön (selbst bei sehr sehr hoher Rechenleistung) zum produktiven Arbeiten. Große Monitore mit hoher Auflösung, anständige Perepherie etc ist idR ein wesentlicher Baustein zum produktiven Arbeiten.

Ich kann mir vorstellen, dass die Apple SoCs für fast alle produktiven Arbeiten schnell genug sind. (mehr ist immer besser - klar - aber man scheint zumindest im Bereich der Intel CPUs bei ~15-30W gelandet zu sein - nächstes Jahr sollten es dank 5 nm nochmal deutlich mehr sein)
Das Problem ist idR vermutlich eher die Beschränktheit des Betriebssystems und der Apps. Dazu kommt dann sicherlich noch der Formfaktor + Perepherie +ergonomisch eingerichteten Arbeitsplatz.

IMO ist der Formfaktor gut für Dinge, die das iPad schon kann. Surfen, Video schauen und Office. Wenn man ein bisschen Videoschnitt und Bildbearbeitung machen will ist das sicher auch ok. Aber richtig produktiv und stundenlang - dazu braucht es einen ordentlichen Arbeitsplatz IMO.


-----

Gerade Audio kann man sicherlich vieles über einen DSP machen. Wenn Apple sowas bereits verbaut hat oder verbauen wird und das entsprechend im SDK für die App Entwickler freigibt, kann sowas schnell mal 1-2 Größenordnungen energieeffizienter (schneller bei weniger Leistungsaufnahme).

Ailuros
2020-04-16, 12:29:32
Nur mal kurz zum Stromverbrauch eines ULP SoCs von Apple im Verbindung zum Thema: obwohl ein tablet SoC von Apple mehr als 2x Mal so viel Strom verdonnern kann als ein smartphone SoC, sollte man im Hinterkopf behalten dass ein jeglicher AxxX bzw. AxxZ tablet SoC generell fuer ein tablet ohne aktive Kuehlung (kurz Frequenzen sowohl auch Laufzeiten sprich DVFS) angepasst sind. In einem groesseren Geraet mit der theoretischen Moeglichkeit von aktiver Kuehlung kann man locker noch ein sehenswertes Prozentual an Zusatz-Leistung herauskitzeln.

Ausserhalb von Kombatibilitaet ist wohl hw-Leistung eines jeglichen kommenden Apple tablet SoCs wohl der geringste Kopfschmerz wenn ueberhaupt. Man muss lediglich das ULP des SoC streichen und ja wenn nicht gedrosselt kann solch ein SoC locker ueber 30W verbrauchen.

Wörns
2020-04-16, 12:35:17
Apple setzt schon seit einer Ewigkeit fuer ihre Axx SoCs auf die kleinsten moeglichen Herstellungsprozesse.

Ja, natürlich.
Das ist aber nicht der Punkt, denn Prozesse unterscheiden sich nicht nur durch ihre Strukturbreiten.

Es gibt von jedem Node verschiedene Prozesse innerhalb derselben Strukturbreite. Diese Prozesse sind optimiert u.a. auf High Performance (z.B. für AMD, Nvidia), Low Power (z.B. SoCs für Mobilgeräte) oder einfach nur Transistordichte.

Meines Wissens hat Apple noch nie einen High Performance Prozess verwendet. Oder gibt es Gründe, warum AMD jetzt eine Low Power Prozess verwenden sollte?
Jedenfalls gibt es erstmals einen Prozess, den beide, AMD und Apple, verwenden wollen.
Das ist das neue.
MfG

Ailuros
2020-04-16, 12:51:57
Ja, natürlich.
Das ist aber nicht der Punkt, denn Prozesse unterscheiden sich nicht nur durch ihre Strukturbreiten.

Es gibt von jedem Node verschiedene Prozesse innerhalb derselben Strukturbreite. Diese Prozesse sind optimiert u.a. auf High Performance (z.B. für AMD, Nvidia), Low Power (z.B. SoCs für Mobilgeräte) oder einfach nur Transistordichte.

Meines Wissens hat Apple noch nie einen High Performance Prozess verwendet. Oder gibt es Gründe, warum AMD jetzt eine Low Power Prozess verwenden sollte?
Jedenfalls gibt es erstmals einen Prozess, den beide, AMD und Apple, verwenden wollen.
Das ist das neue.
MfG


Stimmt. Ich hab den Satz fuer N5P dummerweise ueberlesen und bin wohl bei den N5 Kapazitaeten die von Huawei freigesetzt wurden stecken geblieben.

Da hast Du schon recht dass es eine interessante Indizie ist wofuer Apple den N5P fuer einen schnelleren Design benutzen kann der original auf N5 hergestellt wurde oder etwas mit geringerem Verbrauch. Mir klingt aber dann schon die erste Moeglichkeit wahrscheinlicher.

Felixxz2
2020-04-16, 13:10:12
DSPs wären extrem spannend im Audiobereich. Gibt es aktuell nur als externe Boxen/Karten, aber im Chip integriert wär das mega. Könnte man aber wohl auch easy in nem T3 unterbringen.
Oder eben zu AMD gehen, die machen dir doch liebend gerne deinen custom x86 Chip mit secret sauce.
Denn wenn ich mir die Softwarequalität bei Apple atm ansehe (Catalina....), weiß ich ehrlich gesagt nicht, wie ein ARM Switch nicht in einem Fiasko enden sollte.

robbitop
2020-04-16, 14:32:29
Man hat eines der größten, talentiertesten SoC Designteams (und auch eine Menge Geld dafür ausgegeben). Da wird man sicherlich nicht extern irgendwas entwickeln lassen.

Die ISA zu wechseln ist eigentlich in der Hauptsache für existierende Anwendungen unschön, da sie emuliert werden müssen. Man muss halt umkompilieren. Wäre ja nicht der erste ISA Wechsel.

Aber ob Apple das wirklich vorhat? Ggf. stärkt man auch einfach nur das iPad etwas und schafft sich eine schöne, attraktive Marktnische.

pixelguy
2020-04-16, 14:43:39
Aber vielleicht tuen die sich mit AMD zusammen um irgendwie an x86 zu kommen. Zumindest die die Übergangszeit?!

Wörns
2020-04-16, 15:48:17
Wenn Apple einen HP Prozess verwendet, dann m.E. für ein Gerät, das nicht mobil ist im Sinne von Smartphone oder Tablet. Da geht es um irgendein Gerät, das einen Netzstecker haben wird.
Und ich gehe davon aus, dass Apple bei ARM bleiben wird.
Für mich kommt da nicht viel in Frage, außer Apple hat wieder eine neue Geräteklasse erfunden, an die noch keiner gedacht hat. Glaube ich aber nicht.
MfG

robbitop
2020-04-16, 16:58:11
Aber vielleicht tuen die sich mit AMD zusammen um irgendwie an x86 zu kommen. Zumindest die die Übergangszeit?!
Apple ist nicht an eine ISA gebunden, da HW und Software und sogar die SDKs aus einer Hand kommen. Solange sie x86 brauchen, kaufen sie die CPUs. Wenn/falls sie es nicht mehr brauchen, nutzen sie natürlich ihre eigenen SoCs.
Apple ist da recht konsequent.

pixelguy
2020-04-16, 19:43:48
Apple ist nicht an eine ISA gebunden, da HW und Software und sogar die SDKs aus einer Hand kommen. Solange sie x86 brauchen, kaufen sie die CPUs. Wenn/falls sie es nicht mehr brauchen, nutzen sie natürlich ihre eigenen SoCs.
Apple ist da recht konsequent.
Ja das stimmt schon. Mir fällt halt sonst kein anderer Grund ein.

Denke aber auch nicht wirklich, dass Apple sich da einen Partner ins Boot holt.
Würde nicht passen.

Wörns
2020-04-16, 19:53:31
Wie kommt ihr überhaupt darauf, dass Apple freiwillig in Richtung X86 geht?
Seit Jahren steht die Spekulation im Raum, dass Apple sich seines X86 Zulieferers entledigen und X86 durch ARM ersetzen will.
M.E. kann man den Artikel oben nur so herum interpretieren.
Schließlich geht es um einen Herstellungsprozess und nicht um eine ISA.
Wenn AMD und Apple plötzlich denselben Herstellungsprozess verwenden, macht entweder AMD in SoCs wie Apple (glaub ich nicht) oder Apple in High Performance wie AMD.
MfG

robbitop
2020-04-16, 20:57:03
Wer redet denn von in die x86 Richtung gehen?
Die Macs sind alle seit 1,5 Jahrzehnten x86. Entsprechend kauft man x86 CPUs. Die Frage ist ob man irgendwann mal eigene SoCs einsetzt und somit zur ARM ISA wechselt.

Entweder passiert das oder man will nur mit den iPad Pros einfach mittelfristig mehr und mehr Möglichkeiten eröffnen um sich hier eine schöne Marktnische zu schaffen.

Wörns
2020-04-17, 11:29:40
Ja, da fehlte der Bezug zu pixelguys Posting:
"Aber vielleicht tuen die sich mit AMD zusammen um irgendwie an x86 zu kommen. Zumindest die die Übergangszeit?!"

Meinst ihr denn, ein High Performance Prozess wäre was für das iPad Pro? Das glaube ich nicht.
In Mobilgeräten geht es doch vor allem darum, die Leistung in 90% der Zeit auf ein Minimum runterzuregeln. Und zwar weit unter das, was mit Chips aus HP Prozessen möglich ist.
Daher meine ich: HP => Netzstecker.
MfG

robbitop
2020-04-17, 11:45:32
Ist die Frage was den Prozess charakterisiert. Namen sind ja auch erstmal Schall und Rauch.

Ghost1nTh3GPU
2020-04-17, 12:04:46
Was spricht denn gegen Apple-ARM und ZenX auf einem SoC? Aber auch Navi könnte auch für Apple eine Alternative werden wenn die Mobile SoCs mehre TFLOPs haben sollen. IMGTec ist ja eher auf dem absteigend Ast und der zwischenzeitlich blühende GPU-ISA-Markt schrumpft wieder in Richtung der etablierten Anbieter.

Wenn man die x86 Apps per Virtualisierung auf dem iPad OS ausführen könnte, wäre das schon ein guter Ansatz. Für leichte iOS Aufgaben schläft der x86 Anteil. Wenn man dann noch Bootcamp aktiviert, könnten die iPads ein echtes Revival erleben. :D

robbitop
2020-04-17, 12:11:47
Verschiedene ISAs auf einem SoC mit dem ein OS und ein Scheduler und auch die Amwendungen umgehen sollen? Eher nicht.

Was meinst du mit „GPU-ISA Markt“?

Virtualisierung ist nicht optimal für Energieeffizienz und Zeig zu verbauen was nicht immer genutzt word, verbraucht Fläche. Und die ist kostbar da Apple immer bleeding Edge Prozesse nutzt. Auch müsste dafür AMD dann Apple eine Lizenz geben. Wird wegen der rechtlichen Lage um x86 nicht passieren.

Wörns
2020-04-17, 12:48:47
Ist die Frage was den Prozess charakterisiert. Namen sind ja auch erstmal Schall und Rauch.

In erster Linie charakterisiert der Prozess den Transistor.
Ihr kennt doch sicher die Werbebotschaften, wenn ein neuer, kleinerer Node vorgestellt wird.
Da heißt es dann z.B. 20% höherer Takt, 40% geringere Leistungsaufnahme, 60% höhere Transistordichte, etc. als im letztgrößeren Node.
TSMCs 7nm gegenüber 10nm Prozess (https://www.tsmc.com/english/dedicatedFoundry/technology/logic.htm#l_7nm_technology)

Wer sich auskennt, weiß, dass diese Angaben nie gleichzeitig gelten sondern meist mit einem ODER verbunden sind. Wenn man z.B. die gestiegene Transistordichte nutzen will, um mehr Transistoren auf derselben Fläche unterzubringen, hat man die mögliche, geringere Leistungsaufnahme schon mehr als überstrapaziert, weil die ja pro Transistor gilt.

Welche Prozessverbesserungen man nun mitnimmt, hängt von der Ausgestaltung der jeweiligen "Flavour" des Prozesses ab. TSMC beschreibt z.B., dass es zwei Prozesse anzubieten hat, einen für mobile Anwendungen und den anderen für High Performance: "...TSMC set another industry record by launching two separate 7nm FinFET tracks: one optimized for mobile applications, the other for high performance computing applications...."

Afaik hat Apple bisher ausschließlich Prozesse für mobile Anwendungen verwendet, egal auf welchem Node.
MfG

robbitop
2020-04-17, 12:53:57
Ziemlich viel Allgemeines was mir nicht neu ist. Die interessante Frage ist IMO ja was spezifisch diesen Prozess und auch in quantiativer Ausprägung ausmacht.

Wenn man durch ein bestimmtes Kriterium besonders gute Boostfrequenzen hinbekommt ohne viel zu opfern (zB in der Hauptsache ein wenig Fläche) wäre das auch im mobile unterm Strich von Vorteil.

Wörns
2020-04-17, 13:38:55
Ich glaube, da musst du schon einen TSMC Mitarbeiter fragen, der aber wahrscheinlich nicht viel verraten darf.
Für die Interpretation reicht mir weniger, nämlich zu wissen, dass die Prozesse unterschiedlich optimiert sind für die unterschiedlichen Bedürfnisse. Und dass es im wesentlichen zwei Flavours gibt: Mobil und HP. Später schieben Foundries für ältere Nodes auch mal weitere Prozesse nach, die der ein oder anderen Spezialisierung Rechnung tragen.

Klar kann es auch eine Sache der Benennung sein, und TSMC kommt von seinem Schema ab und benutzt plötzlich für zwei Flavours denselben Namen. Dann wäre es kein Wunder, wenn alle denselben Prozess verwenden würden. Aber wie wahrscheinlich ist das?

Übrigens, zu deinem Beispiel mit den Boostfrequenzen: ich würde davon ausgehen, dass solche Technologien in allen modernen Designs Standard sind. Genauso wie Spannungsinseln, die vor 15 Jahren nur für Mobilprozessoren verwendet wurden. Ohne ständig ganze Bereiche weg- und wieder hinzuzuschalten, funktioniert heute auch kein Desktopprozessor mehr.
Ist aber doch eine Frage des Designs und nicht des Herstellungsprozesses.
MfG

Ghost1nTh3GPU
2020-04-17, 18:20:19
Verschiedene ISAs auf einem SoC mit dem ein OS und ein Scheduler und auch die Amwendungen umgehen sollen? Eher nicht.

Apps in Containern und ein schnelles Intrachip-Netzwerk erlauben hier mehrere OS/Sheduler.

Was meinst du mit „GPU-ISA Markt“?

Die Vielfalt an iGPU Lösungen für ARM/MIPS/x86 SoC, wo aber so einige jetzt aufgegeben haben bzw. es gefühlt keinen so großen Sprünge mehr gab. Da sind wohl Hersteller wie Nvidia und AMD die besser nach oben skalieren bzw. mehr in die Entwicklung investieren doch langfristig besser aufgestellt.
Intel könnte wiedermal scheitern.

Virtualisierung nicht optimal für Energieeffizienz und Zeig zu verbauen was nicht immer genutzt word, verbraucht Fläche. Und die ist kostbar da Apple immer bleeding Edge Prozesse nutzt.
Auch müsste dafür AMD dann Apple eine Lizenz geben. Wird wegen der rechtlichen Lage um x86 nicht passieren.
Vollwertige Apps nutzt man wohl eh via USB-C an einem Display, sodass das Powerbudget deutlich höher ist.
Vielleicht wäre auch die Anbindung eine Chiplets für Apple sinnvoll, man hat die volle Kontrolle über das IO und kann mittels der ARM Cores ein Basis OS für den mobilen Betrieb ausführen.

Im Endeffekt stelle ich mir hier ein faltbares 10 Zoll OLED Gerät vor, was sowohl ein iPhone Pro ersetzt, aber mit Tastatur ein Notebook wird und am USB-C Display zur Workstation.
Also was das iPhone 2007 war mit ein paar Stufen extra.

Bleibt halt die Frage ob Apple hier nicht vielleicht auch ohne x86 auskommt. Aber Zen ist und bleibt wohl der Star für anspruchsvolle Aufgaben in diesem Jahrzehnt.

robbitop
2020-04-17, 19:04:34
Dann meinst du GPU IP Markt. ISAs wurden da nicht lizensiert. ;)

Der Rest klingt IMO bastelig für Apple. Apple hat die CPU, das OS und die Compiler in der Hand. Die brauchen keine ISA mischen. Wenn sie ARM für die Macs eollten, würden sie es bringen. Gab es 2006 schon. Altes Zeig wird emuliert und die Entwickler brauchen nur rekompilieren für native Unterstützung. Innerhalb von 12-18M war dann 99% nativ.

Ailuros
2020-04-20, 12:23:43
Die Vielfalt an iGPU Lösungen für ARM/MIPS/x86 SoC, wo aber so einige jetzt aufgegeben haben bzw. es gefühlt keinen so großen Sprünge mehr gab. Da sind wohl Hersteller wie Nvidia und AMD die besser nach oben skalieren bzw. mehr in die Entwicklung investieren doch langfristig besser aufgestellt.
Intel könnte wiedermal scheitern.

Apple will einzigartige hw sowohl fuer ihre GPUs als auch ihre CPUs in ihren SoCs. Heute haben sie immer noch GPUs die nach aussen als IMG GPU IP aussehen und bezahlen deshalb Lizenz-Gebuehren an IMG aber wohl doch keine royalties mehr da sie den gesamten GPU code selber neu aufgelegt haben.

Sonst hat Samsung von AMD schon lizenziert fuer high performance SoCs. NVIDIA waere eine Option aber billig wird es nicht und das was Apple heute selber liefert ist wohl nicht so leicht zu schlagen.

Eine 7 cluster GPU im A12X liefert fast 50 fps in Aztec Ruins High Tier (mit 448 SPs) waehrend ein Titan RTX bei ungefaehr 366 fps ergo etwas mehr als 7 Mal ankommt. Der Test ist ziemlich ALU bound und man haette theoretisch 7.3*448 SPs = 3207 SPs, wohei A13 noch ein klein bisschen weiter vorne liegt (ja es fehlen Frequenzen in der vorigen Milchmaedchen-Rechnung aber in ULP SoCs koennte sowieso keiner hoeher takten als Apple momentan).

Damit es Apple erstmal interessiert muesste NV etwas um ein gutes Prozentual effizienteres anbieten und das fuer Lizenzgebuehren fuer einen Bruchteil von einer Hand voll Millionen fuer etliche Jahre.

smalM
2020-04-20, 12:58:26
@Ailuros
Läuft Aztec Ruins High Tier in beiden Fällen zu gleichen Konditionen, also demselben Workload?
AnandTech hatte für den A13 34FPS (peak, man bräuchte also ausreichende Kühlung), macht zur Titan RTX 1:10,75 FPS bei deutlich weniger Takt und 1:18 ALUs. Eine Apple-ALU wäre dann ja mehr als doppelt so leistungsfähig wie eine Nvidia-ALU.
Wo hat sich der Milchbubi verrechnet? Oder drehen die Hälfte der ALUs auf der Titan in dem Test nur Däumchen?

Ailuros
2020-04-20, 13:04:02
@Ailuros
Läuft Aztec Ruins High Tier in beiden Fällen zu gleichen Konditionen, also demselben Workload?

Ja. Die Resultate sind aus der Kishonti Datenbank und beide laufen offscreen @1440p. Wenn ich mich jetzt richtig erinnere koennte die A12X bei >1.25GHz takten.

AnandTech hatte für den A13 34FPS (peak, man bräuchte also ausreichende Kühlung), macht zur Titan RTX 1:10,75 FPS bei deutlich weniger Takt und 1:18 ALUs. Eine Apple-ALU wäre dann ja mehr als doppelt so leistungsfähig wie eine Nvidia-ALU.
Oder wo hat sich der Milchbubi verrechnet?

Schlechter Vergleich. Ich habe nicht die peak Resultate aus der Datenbank sondern "medium" Resultate genommen. Mal ganz grob ein quasi Durchschnitt aller Resultate pro Geraet.

Ist zwar nicht direkt vergleichbar aber Anandtech gibt fuer A13 und "sustained" nur noch 22.56 fps an welches wohl vergleichbarer zum obrigen ist. A12 liegt bei medium bei 26.9 fps im gleichen Test in der Datenbank.

*** edit: peak waere fuer A12X dann 51.2 fps vs. 2080Ti = 419 fps, wobei der Unterschied bei 8.2x liegt. 3072 SPs vs. 448, wobei aber auch kein Schwein wissen kann wie hoch jemand die 2080Ti in Frequenzen getrieben hat. Unter "medium" und DirectX schafft die 2080Ti 348 fps. Nicht zu vergessen dass Apple Resultate auf Metal sind.

robbitop
2020-04-21, 10:29:15
Apple will einzigartige hw sowohl fuer ihre GPUs als auch ihre CPUs in ihren SoCs. Heute haben sie immer noch GPUs die nach aussen als IMG GPU IP aussehen und bezahlen deshalb Lizenz-Gebuehren an IMG aber wohl doch keine royalties mehr da sie den gesamten GPU code selber neu aufgelegt haben.
Wobei das sicherlich auch daran liegt, dass Apple einen TBDR nutzt. Und das geht praktisch nicht ohne eines von IMGs Patenten zu verletzen. Alles was dort nötig ist, um elegant zu modernen Renderpipelines zu passen, hat IMG vermutlich patentiert.
Das weißt du sicher besser als ich - ich schreibe es nur, damit es in dem Thread explizit auch so steht. :)

NVIDIA waere eine Option aber billig wird es nicht und das was Apple heute selber liefert ist wohl nicht so leicht zu schlagen.
Wobei es sehr überraschend war, dass Nintendo NV IP für die Switch gewählt hat. Dort kann es dort dann nicht so teuer gewesen sein. Denn bei Konsolen ist einfach kein Geld für Hardware über, sonst rutscht man in die Subventionierung. Ggf. aber eine Sondersituation, da existierender SoC?
Ich tippe darauf, dass NVs IP bei gleichem Node schon zu den besten gehört. Es ist einfach erstaunlich, was aus dem uralten und untertakteten X1 in der Switch rausgeprügelt werden kann. Aber man kann es natürlich aktuell nicht mittels Benchmarks vergleichen, da es keine aktuelle NV ULP gibt.

Eine 7 cluster GPU im A12X liefert fast 50 fps in Aztec Ruins High Tier (mit 448 SPs) waehrend ein Titan RTX bei ungefaehr 366 fps ergo etwas mehr als 7 Mal ankommt. Der Test ist ziemlich ALU bound und man haette theoretisch 7.3*448 SPs = 3207 SPs, wohei A13 noch ein klein bisschen weiter vorne liegt (ja es fehlen Frequenzen in der vorigen Milchmaedchen-Rechnung aber in ULP SoCs koennte sowieso keiner hoeher takten als Apple momentan).

Damit es Apple erstmal interessiert muesste NV etwas um ein gutes Prozentual effizienteres anbieten und das fuer Lizenzgebuehren fuer einen Bruchteil von einer Hand voll Millionen fuer etliche Jahre.

Ich tippe mal darauf, dass sie nicht weit voneinander entfernt sein werden. Allerdings wird man trotzdem nichts mehr lizensieren. Dafür hat man schon zu viel Geld für sein eigenes Team ausgegeben. :)

Ailuros
2020-04-22, 08:24:48
Wobei das sicherlich auch daran liegt, dass Apple einen TBDR nutzt. Und das geht praktisch nicht ohne eines von IMGs Patenten zu verletzen. Alles was dort nötig ist, um elegant zu modernen Renderpipelines zu passen, hat IMG vermutlich patentiert.
Das weißt du sicher besser als ich - ich schreibe es nur, damit es in dem Thread explizit auch so steht. :)

Ja. Apple's vorige Lizenz ist im Januar ausgelaufen und um irgendwelche Patent-kriege zu vermeiden hat Apple selber die Lizenz erneuert. Da nirgends im PR etwas von royalties steht, bezweifle ich ernsthaft dass sie mehr als Lizenzgebueren bezahlen.

https://www.imgtec.com/news/press-release/imagination-and-apple-sign-new-agreement/

London, UK; 2nd January 2020 – Imagination Technologies (“Imagination”) announces that it has replaced the multi-year, multi-use license agreement with Apple, first announced on February 6, 2014, with a new multi-year license agreement under which Apple has access to a wider range of Imagination’s intellectual property in exchange for license fees.

Sonst ist es wie immer unglaublich wieviel Mist mal wieder im Netz geschrieben wird:

https://www.fudzilla.com/news/ai/50644-huawei-working-on-an-ai-gpu

It took Apple years to make its own GPU. It resulted in a lot of ideas borrowed from Imagination technologies that resulted in a massive lawsuit. The lawsuit was finally settled in the first days of 2020. Bear in mind that Apple has incredible resources, and it still took more than half of a decade of intensive work to get its GPU up and running.

Ich hab Fudo in den Kommentaren auf dem link gefragt welchen "lawsuit" genau aber die Frage wurde prompt geloescht :freak:

Wobei es sehr überraschend war, dass Nintendo NV IP für die Switch gewählt hat. Dort kann es dort dann nicht so teuer gewesen sein. Denn bei Konsolen ist einfach kein Geld für Hardware über, sonst rutscht man in die Subventionierung. Ggf. aber eine Sondersituation, da existierender SoC?
Ich tippe darauf, dass NVs IP bei gleichem Node schon zu den besten gehört. Es ist einfach erstaunlich, was aus dem uralten und untertakteten X1 in der Switch rausgeprügelt werden kann. Aber man kann es natürlich aktuell nicht mittels Benchmarks vergleichen, da es keine aktuelle NV ULP gibt.

Nintendo hat verdammt frueh mit den Verhandlungen fuer das Switch Project angefangen. Entweder 2011 oder 2012 und es war auch nicht das erste Mal dass Nintendo mit NV fuer ein handheld verhandelt haben. Fuer's 3DS hat NV nichts landen koennen da das um weit billigeres Angebot gewonnen hat.

Fuer X1 ist er erstens DX11.x und untertaktet verbraucht es mehr oder weniger was man aus einer heutigen ULP GPU pruegeln kann. Ja natuerlich haette theoretisch ein Nachfolger von NV mehr Leistung bei geringerem Stromverbrauch gebracht aber dieses hauptsaechlich durch N% hoehere Frequenzen.

NV hat eingesehen dass sie Nintendo nur mit einem sehr attraktiven Preis lozen koennen nach dem 3DS Verlust und wenn man noch mitberechnet dass NV auch wirklich gut unterstuetzen kann, waere Nintendo schoen bloed gewesen bei jemand anders als bei NV fuer den Switch zu lizenzieren.

Nintendo wollte wohl einen fertigen SoC + Unterstuetzung. Qualcomm waere ein anderer Kandidat gewesen aber deren DX11 Architektur war damals vor den 6xx Adrenos in ziemlich zwielichtigem Zustand.

Ich tippe mal darauf, dass sie nicht weit voneinander entfernt sein werden. Allerdings wird man trotzdem nichts mehr lizensieren. Dafür hat man schon zu viel Geld für sein eigenes Team ausgegeben. :)

Ich tendiere auf die gleiche These. Taktet Apple tatsaechlich heute beim A12X auf brutalen 1.275 GHz haben sie nicht nur die Series7Plus pipeline um zich Male umgekrempelt, sondern haben wohl auch so manchen Transistor "zwischengepflastert" damit der Stromverbrauch bei passiver Kuehlung in einem mobilen Geraet nicht durch die Decke schiesst.

IMHO werden sie womoeglich noch ein paar Generationen auf der gleichen Grund-Architektur bleiben und danach die Sintflut. Wenn sie je mal wieder von IMG neu lizenzieren sollten dann nur ab Alborix "B" wenn rt dann auch Anteil der eigentlichen pipeline sein wird und nicht wie bisher dedizierte rt hw. Wenn Apple auch hier keine royalties bezahlen muss sind die paar Millionen fuer die Lizenz nur Erbsen. Royalties waren pro verkauften 100Mio Einheiten pro Jahr bei schaetzungsweise $10Mio. Fuer eine Generation war die Lizenz fuer die neuste IP bei irgendwo $1.5Mio und fuer "re-use" um einiges weniger. Apple hat im Januar praktisch Rogue wieder lizenziert, mit einem um einiges niederigeren Preis fuer so "alte" IP als die vorigen 1.5Mio als Anhaltspunkt.

So oder so:

Qualcomm hat ihre eigene GPU IP, Samsung kommt auch bald mit eigener GPU IP fuer smartphones und alles andere darueber AMD GPU IP, Huawei bastelt auch an eigener GPU IP und Apple hat quasi auch ihre eigene IP. Alles in allem ist GPU IP im smartphone/tablet Markt generell tot. ARM kann ihr Mali team locker am Leben behalten da es nur ein Nebengeschaeft ist fuer sie und sie koennen locker Mediatek und co. teilweise bedienen. Imagination haette sich schon gestern nach nennenswerten Alternativen umsehen sollen, seit sie sahen dass Apple mit den Jahren zunehmend unabhaengiger wird. Investiert man zu stark auf ein Pferd (Apple) muss man dann auch einsehen koennen dass wenn das Pferd unabhaengiger wird man auch sehr frueh weiterdenken muss. Den Zug hat IMG leider schon seit 4-5 Jahren verpasst.

=Floi=
2020-04-22, 09:39:53
Das mit der unabhängigkeit ist oft aber auch leichter gesagt als getan. Auch nimmt man gerne mit was geht und will kunden auch nicht verschrecken.

Ich finde die aufsplittung in eigene gpu ip's nicht gut, weil es da nicht wirklich besser wird. (Man kann auch numm vergleichen)
Möchte man mehr aus den geräten rausholen, muss perfekt optimiert werden. Auch eine zweitunterstützung über lineage sehe ich bei samsung zB nicht. Da bleibt quallcomm erste wahl.

Ailuros
2020-04-22, 10:06:13
Das mit der unabhängigkeit ist oft aber auch leichter gesagt als getan. Auch nimmt man gerne mit was geht und will kunden auch nicht verschrecken.

Ich finde die aufsplittung in eigene gpu ip's nicht gut, weil es da nicht wirklich besser wird. (Man kann auch numm vergleichen)
Möchte man mehr aus den geräten rausholen, muss perfekt optimiert werden. Auch eine zweitunterstützung über lineage sehe ich bei samsung zB nicht. Da bleibt quallcomm erste wahl.

Wer benutzt denn heutzutage IMG GPU IP weitgehend ausser Apple fuer smartphones? Mediatek ist fuer smartphones ihr groesster Kunde, obwohl Mediatek selber in der Mehrzahl ARM GPU IP benutzt.

Frag Dich eher warum Qualcomm gegen Samsung die erste Wahl bleibt denn es ist dann eben schon so dass es sich hier um eigene (Qualcomm) gegen lizenzierte (Samsung) GPU IP handelt. Wenn die grossen semis sehen bzw. einsehen dass es mit eigener IP am Ende doch besser geht, wieso sollen sie am Ende auf irgendwelche lizenzierte IP setzen?

IMG geht den Bach runter weil sie sich in der Vergangenheit zu stark auf ihren Lorbeeren (sprich Apple) ausgeruht haben und ARM Mali hat keine wirkliche Loesung fuer high end GPU IP. Ja natuerlich kann man theoretisch eine Schaar von Mali cores in einen SoC installieren, aber Samsung ist dann wiederum auch nicht soooo bloed dass sie AMD GPU IP fuer higher end SoCs lizenziert haben. GPU IP ist eher gescheitert weil die eigentlichen IP Lieferer nicht ihre Wuerfel richtig gemuenzt haben.

Sonst ist es auch stets eine Frage der Implementierung. Apple's CPU IP basiert zwar auch auf ARM CPU IP aber man kann das gelieferte Resultat ziemlich schwer zu jeglichen anderen 0815 ULP SoCs vergleichen. Apple bezahlt fett fuer ihre "Einzigartigkeit" sowohl fuer CPUs als auch GPUs in ihren SoCs mit einer Schaar von sw und hw engineers.

robbitop
2020-04-22, 13:47:26
Ich persönlich kann mir schwer vorstellen, dass Apple Stillstand in ihrer GPU uArch halten wird. Es gibt bis dato kaum erkennbare Gründe, das so etwas in deren DNA ist. Deren IP für ihre SoCs war immer bleeding edge. Würde mich gar nicht wundern, wenn sie wie NV und AMD diese ständig erneuern. Wirklich echte Revolutionen gibt es bei GPUs ja sowieso schon lange nicht mehr - es ist (je nach Blickwinkel) eher eine Evolution. Mit mal stärkeren und mal schwächeren Schritten.

smalM
2020-04-23, 15:17:08
Bloomberg (https://www.bloomberg.com/news/articles/2020-04-23/apple-aims-to-sell-macs-with-its-own-chips-starting-in-2021) streut ein weiteres Arm-Mac-Gerücht.
Dieses Mal ist es ein SoC mit 8 großen und 4 kleinen Cores, anscheinend ein monolithisches Design.

mboeller
2020-04-23, 15:54:27
Samsung kommt auch bald mit eigener GPU IP fuer smartphones und alles andere darueber AMD GPU IP,

Warum?

Wenn dieser Die-Shot vom AMD Renoir einigermaßen stimmt:
https://www.techpowerup.com/264801/amd-renoir-die-shot-pictured

ist die GPU mit 8 x 64CU in 7nm nur ca. 27mm² groß.

Bei 1,75GHz reicht das für 1.8TFlops. Und das innerhalb eines 15w (25w?) TDP für den gesamten SoC.
Bei 1GHz dann vielleicht ca. 1TFlops und weniger als 5w für die GPU

Sunrise
2020-04-23, 18:41:03
Wie schon vor ein paar Seiten hier besprochen:
Apple aims to sell Macs with it’s own chips starting in 2021 ( https://www.bloomberg.com/news/articles/2020-04-23/apple-aims-to-sell-macs-with-its-own-chips-starting-in-2021)

Basis ist also tatsächlich der A14 auf 5nm. Das Projekt soll Kalamata heißen, die HP-Kerne Firestorm und die LP-Kerne Icestorm heißen.

Na dann, tschüss Intel. :D

pixelguy
2020-04-23, 18:48:08
Bin ja sehr gespannt. Aktuell habe ich noch ein MacBook Pro, welches ich aber eigentlich recht bald ersetzen möchte. Warte daher noch auf die ersten ARM Dinger oder zumindest bis Anfang 2021.

Vielleicht sagen sie ja auch schon zur WWDC etwas dazu. Immerhin müssten sie den Entwickler ja etwas Zeit geben um die Apps anzupassen, oder?

Ich vermute aber leider, dass die ersten ARM Macs nicht wirklich auf Pro Level liegen werden.
Wobei... ich arbeite eh fast nur noch in Mail und im Browser... ;)

Sunrise
2020-04-23, 19:07:30
Das wird wohl erstmal ein “Anfüttern” werden, das wird ganz sicher alles (Apps, XCode...) eine Weile dauern, bis das einigermaßen auf Parität liegen wird, aber da so ein Macbook Pro schon einen ordentlichen Batzen Geld kostet und hier auch viele ein schnelles aber kein fettes, bis an den Anschlag ausgestattetes Gerät benötigen, kann sowas im Bildungsbereich oder erstmal für die Masse sehr interessant sein.

Die Leistung wird ohne Frage sicher hoch sein, aber hier werden dann wohl auch die Preise entscheiden. Ich bin da etwas zwiegespalten, wie sie das dann mit dem iPad Pro handhaben werden. Eventuell ist das ja sogar so eine Art Kombination aus beidem, man wird es sehen.

Apple wird das wohl erstmal alles unter dem MBP positionieren, da anfangs nicht vollumfänglich konkurrenzfähig, aber diese Abhängigkeit von Intel haben sie einfach nichtmehr nötig. Apple will hier klar in die Masse gehen. Eigentlich sind das sogar schlechte Nachrichten für den x86-Massenmarkt generell (sagen wir 3-5 Jahre), sie werden sich langsam und sicher immer mehr vom Kuchen abschneiden wollen.

pixelguy
2020-04-23, 19:32:30
Ich kann mir vorstellen, dass es für Apple preislich sehr viel besser ist, die kleineren Geräteklassen mit einem ARM Prozessor auszustatten. Speziell wenn man sich da die Basis mit den iOS Geräten teilt.

Und die genaue Leistung interessiert da kaum jemanden in der Klasse. Habe hier noch ein iPad Pro und ein 2019er MacBook Air. Das Air ist ein Witz von der Leistung. Aber es juckt keinen.

Wie weit wäre denn ein MacBook Pro von den iOS CPUs weg? Also wie viel müsste man da an der Architektur ändern um eine ähnliche Leistung zu erreichen?

Und was machen sie mit dem Mac Pro? Ich denke der wird noch eine ganze Zeit auf Intel setzen.

smalM
2020-04-23, 20:27:17
Vielleicht sagen sie ja auch schon zur WWDC etwas dazu. Immerhin müssten sie den Entwickler ja etwas Zeit geben um die Apps anzupassen, oder?
Wenn auf der WWDC nichts zu einem Wechsel zu Arm kommt, dann findet er auch nicht statt und es heißt Warten auf die WWDC '21...

Wie weit wäre denn ein MacBook Pro von den iOS CPUs weg? Also wie viel müsste man da an der Architektur ändern um eine ähnliche Leistung zu erreichen?

Das kommt darauf an, ob man dem Gerücht glauben will, daß das tatsächlich ein SoC mit 8 großen Cores wird. Wenn ja, wird die Leistung an den i9-9980HK (8x Coffee Lake H) mindestens heranreichen.

Der Mac Pro und der iMac Pro sind aber auch mit so einem SoC noch deutlich außer Reichweite. Dafür wird Apple vielleicht eine modulare Lösung wie bei Zen2 bringen. Das hätte dann auch noch Zeit bis 2022.
Ich nehme auch an, daß es noch zwei, drei Jahre x86-MBPs zu kaufen gibt und es auch noch lange Support dafür geben wird, aber wenn Apple die Transition startet, wird es keine x86-Modell-Updates mehr geben. Jedes Modell, was ab da rauskommt, wird mit Arm bestückt sein.

Interessant wird es sein, ob dieser Mac-SoC schon SVE2 mitbringen wird.

Felixxz2
2020-04-23, 21:00:20
Oh man, nächstes Jahr aber WIRKLICH!!! :freak:
Mal im ernst, seit wie vielen Jahren kommen diese Insider Berichte, dass es nächstes Jahr soweit ist?

Wenn es denn wirklich kommt, wird es erstmal ein Macbook Air ähnliches Gerät. Die Pro Modelle kommen dann vielleicht 2022 oder 2023. Die großen Devs von Produktivsoftware brauchen ja auch ihre Zeit, wenn sie es denn überhaupt mitmachen.

Daredevil
2020-04-23, 21:34:28
Also je beschissener Intel abliefert, desto eher wird das ganze wohl kommen, solange Apple halt nicht mit AMD ins Bett springt. Von daher nähern wir uns auf jeden Fall mit großen Schritten. :D

Edit: Deswegen vielleicht ein iPad Pro mit A12Z, weil die guten A14 Chips für den Mac gedacht sind? :>

smalM
2020-04-23, 23:53:33
@Daredevil
Das Update des iPad Pro erfolgte wahrscheinlich, weil der LIDAR-Krempel fertig und verfügbar war und Apple die Technik pushen will. Der SoC bekam hingegen wahrscheinlich deshalb das Update, weil inzwischen so viele Dies 8 bestens funktionierende GPU-Cores haben, daß sich das Abschalten von einem davon nicht mehr lohnt.
Ein A14X ist es nicht geworden, weil der vor dem A14 für's iPhone nicht zur Verfügung stehen wird; zudem ist die N5-Fertigung schließlich gerade erst angelaufen.
Dem Gerücht nach wird der Mac eine eigenständige Lösung bekommen, weder einen A14, noch einen A14X. Nur die CPU-Cores sollen dasselbe Design haben (und die GPU-Cores ziemlich sicher auch).

Falls dieser Mac-SoC käme, gäbe es da ein paar interessanteste Aspekte:
Der Hardware-Sheduler und das interne Bus-System mit der Cache- und Speicherhierarchie. Ich vermute, es wird ein Design mit 3 Clustern (4+4+4). Wird es einen L3 exklusiv für die CPUs geben und/oder wieder einen SLC wie bei den A-SoCs?
Wird DDR4 unterstützt oder 'nur' LPDDR5?
Welches Leistungsniveau strebt Apple bei der GPU an, A14 oder A14X?
Was wird überhaupt auf dem SoC integriert und was muß durch Peripherie-Chips bereitgestellt werden und wie werden die angebunden?

Ailuros
2020-04-24, 09:28:55
Ich persönlich kann mir schwer vorstellen, dass Apple Stillstand in ihrer GPU uArch halten wird. Es gibt bis dato kaum erkennbare Gründe, das so etwas in deren DNA ist. Deren IP für ihre SoCs war immer bleeding edge. Würde mich gar nicht wundern, wenn sie wie NV und AMD diese ständig erneuern. Wirklich echte Revolutionen gibt es bei GPUs ja sowieso schon lange nicht mehr - es ist (je nach Blickwinkel) eher eine Evolution. Mit mal stärkeren und mal schwächeren Schritten.

Apple A12X vs. Apple 9X
Aztec Ruins High Tier offscreen = Faktor 3.9x (durchschnittlich; peak Leistung liegt bei einem Faktor 4.3x)

Wohl alles andere als ein Stillstand.