PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27

Ailuros
2018-09-19, 22:41:52
Da sagen die Die-Shots aber was anderes. Die GPU hat nur noch oberflächliche Gemeinsamkeiten mit dem 7XT-Design. Wenn, dann hat Apple da ziemlich am ursprünglichen Design gedreht.

Apple hat fuer die IP bis zum A11 voll bezahlt. Ich erwarte vom A12 dann die wirklich fundamentaleren Aenderungen. Die Frequenzen ab A10 sind auch uebermaessig hoeher als ich seitdem je erwartet haette.

Apropos, der A12 ist nun in GB4 in der iOS-Übersicht bei Metal mit 21775 Punkte aufgeführt.
Zum Vergleich: Der A10 ist vermerkt mit 13047 Punkten, der A11 mit 15292 und der A10X mit 29373.

GFXBench 5: A10, A11, A12 und A10X (alles offscreen):

Aztec 1440p . . . . . 10,6 . 12,2 . 26,9 . 21,5
Aztec 1080p . . . . . 26,0 . 39,8 . 58,1 . 61,5
Car Chase. . . . . . . 18,1 . 28,9 . 46,7 . 48,5
Manhattan 3.1.1 . . 24,5 . 30,0 . 42,1 . 46,6

Die Zahlen stammen aus der GFXBench-Datenbank, außer für den A10X, die sind von meinem iPad.

Die meisten Resultate sind in der Zwischenzeit verschwunden aus der gfxbench Datenbank:

https://gfxbench.com/device.jsp?benchmark=gfx50&os=iOS&api=metal&cpu-arch=unknown&hwtype=GPU&hwname=Apple%20Inc.%20Apple%20A12%20GPU&did=67527419&D=Apple%20iPhone%20XS%20Max

Beim Vergleich sieht es eher merkwuerdig aus: https://gfxbench.com/compare.jsp?benchmark=gfx50&&did1=67527419&os1=iOS&api1=metal&hwtype1=GPU&hwname1=Apple+Inc.+Apple+A12+GPU&did2=54321051&os2=iOS&api2=metal&hwtype2=GPU&hwname2=Apple+Inc.+Apple+A11+GPU

...ebenso alles ueber Manhattan3.1.1 fuer A11 kein Schimmer mehr. Ich glaube dass Apple 40% Mehrleistung fuer den A12 behauptet hat oder? Wenn ja haut der Unterschied mit den meisten bisherigen Resultaten schon hin. Sonst im Vergleich zur gigantischen GPU im A10X sehe ich lediglich eine merkenswerten Unterschied im driver overhead low level test und im texturing test. Man kann aber vom letzten gar nichts ablesen bzw. erahnen (moegliche Anzahl der TMUs bzw. Frequenz) da zu viel alpha blending in dem Test steckt. IMHO duerfte die A12 GPU schon etwas moderater als die A10X GPU takten.

smalM
2018-09-20, 03:12:04
Die meisten Resultate sind in der Zwischenzeit verschwunden aus der gfxbench Datenbank

Wie seltsam, insbesondere da die einzelnen Werte noch zu finden sind:
Hier (https://gfxbench.com/result.jsp?benchmark=gfx50&test=759&text-filter=&order=median&ff-desktop=true&ff-lmobile=true&ff-smobile=true&os-iOS_metal=true&pu-dGPU=true&pu-iGPU=true&pu-GPU=true&arch-ARM=true&arch-unknown=true&arch-x86=true&base=device).

Zu Imaginations IP (https://www.reuters.com/article/us-apple-imagntn-tchnlgs/apple-challenges-imagination-technologies-disclosure-timing-idUSKBN19S2TW):
Apple [...] said it warned Imagination that it would “stop accepting new IP from them” as early as 2015

Das war nach der Einführung des A9; seither hat Apple systematisch Fremd-IP von den SoCs geräumt.

Ailuros
2018-09-21, 10:48:21
Wie seltsam, insbesondere da die einzelnen Werte noch zu finden sind:
Hier (https://gfxbench.com/result.jsp?benchmark=gfx50&test=759&text-filter=&order=median&ff-desktop=true&ff-lmobile=true&ff-smobile=true&os-iOS_metal=true&pu-dGPU=true&pu-iGPU=true&pu-GPU=true&arch-ARM=true&arch-unknown=true&arch-x86=true&base=device).

Kann sein dass die irgend etwas mit den A11 Resultaten (ueberhaupt fuer alles das einen Schuss Tesselation hat) nichts stimmt. Muss nichts heissen aber wenn Kishonti zu zickig ist mit irgendwelcher Metal relevanten Implementierung kann es durchaus sein dass sie zuerst klaeren wollen. Nur reiner Verdacht da Apple's Treiber immer noch "nur" OGL_3.0 angeben....

Zu Imaginations IP (https://www.reuters.com/article/us-apple-imagntn-tchnlgs/apple-challenges-imagination-technologies-disclosure-timing-idUSKBN19S2TW):
Apple [...] said it warned Imagination that it would “stop accepting new IP from them” as early as 2015

Das war nach der Einführung des A9; seither hat Apple systematisch Fremd-IP von den SoCs geräumt.

Ich hatte es direkt vom Maul des Loewen; alas wenn IMG's engineering nicht weiss was zum Henker in was steckt. Ueberhaupt wenn sie bis zum A10 aktiv Apple fuer die Implementierung unterstuetzt haben und fuer A11 dann nicht mehr. Die Fragen und Antworten damals fuer A11 liessen keinen Zweifel dass es sich immer noch um IMG IP handelte.

Und Du wirst mir wohl auch nicht ernsthaft einreden, dass Apple den A11 ueber Nacht entwickelt hat oder? Fuer einen 2017 release eines jeglichen A11 Geraets steckt wohl schwer viel weniger als 2 Jahre Vorarbeit bzw. Entwicklung im Hintergrund.

***edit: OT zum obrigen aber da es wohl eher witzig ist wie sich das Blatt fuer "sustained performance" geaendert hat:

1080p Manhattan offscreen (top score vs. median score):

Apple A12 GPU = 131,90 fps vs. 102,10 fps
Apple A11 GPU = 93,80 fps vs. 67,60 fps
Adreno630 = 83,10 fps vs. 82,30 fps

smalM
2018-09-21, 12:02:24
Die Aussage von Apple war nicht, daß keine IP von IMG genutzt werden wird, sondern keine neue IP.
Der Startschuß für die Entwicklung der GPU im A11 war sicherlich eher 2013 als 2014. Du nimmst also an, daß Apple damals noch keine Expertise im GPU-Design hatte? Wenn die A12-GPU auf Apples Mist gewachsen ist, hatten sie 2014 ein volles Entwicklerteam zur Verfügung. Und ab 2015 waren sie sich dann sicher, daß sie 2018 keinen Plan B mehr brauchen werden.
Schluß mit IMG war aber erst bei Tapeout des A11.

Ich kenne eigentlich keinen, der Adreno-630 nicht für einen außerordentlich gelungenen Entwurf hält. Das einzige, was mich daran wundert, ist daß er nicht noch leistungstärker implementiert wurde; das Ding ist winzig! Mal sehen, was im 855 kommt...

Ailuros
2018-09-21, 12:49:03
Die Aussage von Apple war nicht, daß keine IP von IMG genutzt werden wird, sondern keine neue IP.

Wobei ich auch nichts anderes sagte. Unter anderen Umstaenden haette Apple im A11 dann eher Furian/8XT GPU IP benutzt.

Der Startschuß für die Entwicklung der GPU im A11 war sicherlich eher 2013 als 2014. Du nimmst also an, daß Apple damals noch keine Expertise im GPU-Design hatte?

Apple hat nicht erst in 2013 angefangen mit der Orlando Abteilung. Eine zu 100% hauseigene GPU haben sie aber afaik vor A12 nicht entwickelt.

Wenn die A12-GPU auf Apples Mist gewachsen ist, hatten sie 2014 ein volles Entwicklerteam zur Verfügung. Und ab 2015 waren sie sich dann sicher, daß sie 2018 keinen Plan B mehr brauchen werden.
Schluß mit IMG war aber erst bei Tapeout des A11.

https://appleinsider.com/articles/13/05/31/apples-graphics-chip-development-center-in-orlando-houses-former-amd-intrinsity-engineers

Ich kenne eigentlich keinen, der Adreno-630 nicht für einen außerordentlich gelungenen Entwurf hält. Das einzige, was mich daran wundert, ist daß er nicht noch leistungstärker implementiert wurde; das Ding ist winzig! Mal sehen, was im 855 kommt...

Ich hab mit einem geliehenen smartphone etwas herumgefummelt und die GPU throttelte nie selbst beim strengsten test mehr als irgendwo 25%; weder hohe Geraet-Temperaturen noch irgendwelches ausserordentliches throtteln bei Langdauer-3D-Quaelerei. Ich erwaehnte es lediglich weil es einer der Kritikpunkte der Vergangenheit fuer Adrenos war und sustained performance eines der Vorteile die wir zuerst bei Apple sahen. Wenn schon Apple selber jetzt GPUs entwickelt, ist mir persoenlich sustained performance jeder Zeit lieber als jegliche Benchmark/Marketing Kurzzeit-Feuerwerke jeglicher Art.

deekey777
2018-09-26, 09:42:46
Feines kleines Ding: https://www.anandtech.com/show/13393/techinsights-publishes-apple-a12-die-shot-our-take

=Floi=
2018-09-26, 15:41:51
warum sind eigentlich die big cores und generell cores bei der größe noch ein problem?!

pixelguy
2018-09-26, 19:41:21
Interessante Übersicht vers. Benchmarks: https://www.mactechnews.de/news/article/Performance-Tests-sehen-iPhone-Xs-weit-vor-iPhone-X-170583.html

smalM
2018-09-30, 22:54:03
In der GeekBench-Datenbank sind jetzt neben dem riesen Haufen Einträge mit 0 GHz auch ein paar drin mit 2,49 GHz; auffälligerweise sind die ~5% schneller als der Rest.
Der Grund liegt in einem 40% höheren Memory Score, der wiederum von einem exorbitanten Score für die Latenz getrieben wird.
Die Realwerte sind dabei in Moperations/sec angegeben statt in ns wie bei den anderen Einträgen.

Irgendwas stimmt mit der Datenbank nicht...

PS:
18700 Einträge für iPhone11 (davon 6000 für iPhone11,2 und 12700 für iPhone11,6).

YfOrU
2018-10-05, 19:10:16
Und Anandtech mal wieder mit einem schönen Stück Arbeit: The iPhone XS & XS Max Review - Unveiling the Silicon Secrets
https://www.anandtech.com/show/13392/the-iphone-xs-xs-max-review-unveiling-the-silicon-secrets/2

SPEC2006:
https://images.anandtech.com/doci/13392/SPEC-overview.png

In Relation zu Skylake-SP und Cavium ThunderX(2):
https://www.anandtech.com/show/12694/assessing-cavium-thunderx2-arm-server-reality/7

Compiler etc. ist natürlich immer so eine Sache aber das hat trotzdem deutlich mehr Aussagekraft als die üblichen "kleinst" CPU Benchmarks wie Geekbench. Inzwischen ist man es ja schon fast gewohnt aber Apple schafft es dann doch wieder zu überraschen. Deutlich mehr als nach der offiziellen Präsentation zu erwarten war. Da kann sich langsam die ganze Branche (inkl. AMD und Intel) glücklich schätzen das Apple im selbst gestrickten goldenen Käfig operiert. Das ist wieder weit mehr als ein Refresh des bisherigen CPU Designs kombiniert mit der neuesten verfügbaren Fertigung.

Mir stellt sich da auch langsam die Frage ob es für Apple aufgrund des hohen und steigenden Bedarfs (Services, iCloud etc.) nicht Sinn machen würde eigene Enterprise SoCs zu entwickeln. Man hat sehr potente und effiziente CPU Kerne, I/O siehts auch ganz gut aus (Flash Controller etc.) und Interconnect IP lässt sich bei Bedarf lizenzieren. Auf mittel bis langfristige Sicht halte ich das für die ganz großen Betreiber von Datenzentren für einen durchaus realistischen Ansatz um die Kosten zu reduzieren.

Ailuros
2018-10-05, 19:44:45
Also wohl doch immer noch IMG IP basiert:

https://www.anandtech.com/show/13392/the-iphone-xs-xs-max-review-unveiling-the-silicon-secrets/2

So while Apple did declare the A11 GPU as an in-house design, it still very much looked like an Imagination derived design, as its block design was very similar to prior Rogue generations – with the big difference being that what was now called a core is the larger structure of what was previously two cores. The fact that it’s still a TBDR (Tile-Based Deferred Renderer), which IMG holds many patents on, but not least the fact that Apple still very much exposes and supports PVRTC (PowerVR Texture Compression), a proprietary format, means that the GPU still likely linked to IMG’s IP. Here it’s likely that we’re still looking at an architectural license design rather than what we would usually call a “clean sheet” design.

A11 GPU@10FF = 15.28mm2
A12 GPU@N7 = 14.88mm2

Andrei schaetzt uebrigens die Frequenz der letzten bei ueber 1.1GHz ein. Kein Wunder dass die Dinger ueber laengere Zeit bei Stresstests ziemlich warm werden.

So why does Apple post such big discrepancies between peak performance and sustained performance, when the latter was a keynote focus point for Apple as recent as the iPhone 6 and the A8? The change is due to how everyday GPU use-cases have changed, and how Apple uses the GPU for non 3D related workloads.

Apple makes heavy use of GPU compute for various uses, such as general hardware acceleration in apps to using the GPU compute for camera image processing. These are use-cases where sustained performance doesn’t really matter because they’re transactional workloads, meaning fixed workloads that need to be processed as fast as possible.

Android GPU compute has been a literal disaster over the last few years, and I primarily blame Google for not supporting OpenCL in AOSP – leaving support to be extremely patchy among vendors. RenderScript has never picked up much as it just doesn’t guarantee performance. The fragmentation of Android devices and SoCs has meant that in third-party apps GPU compute is essentially non-existent (Please correct me if I’m wrong!).

Apple’s vertical integration and tight control of the API stack means that GPU compute is a reality, and peak transactional GPU performance is a metric that is worth consideration.

Now while this does explain the throttling, I still do think Apple can do some kind of optimisation in regards to the thermals. I played some Fortnite on the iPhone XS’, and the way that the phones heated up isn’t something that I was very much fan of. Here the must be some kind of way to let actual games and applications which have a characteristic of sustained performance, actually start off with the GPU limited to this sustained performance state.

Und ja natuerlich stimme ich ihm zu. Man kann DVFS einfach so ansetzen dass es fuer extremes Kurzzeit-compute angewendet werden kann; es bringt dem Benutzer nichts wenn eine solche GPU in einem Spielbenchmark z.B. 60 fps im Durchschnitt erreicht, in Echtzeit nach Dauer-Stress dann sagen wir mal auf 40fps throtteln muss.

Sunrise
2018-10-06, 00:43:56
Das Anandtech-Review ist mal wieder ein Sahnestück sondergleichen...da muss man echt den Hut ziehen. Da hat man mal wieder klargemacht, wie richtige Reviews aussehen müssen, und nicht dieser dahingeklatschte, oberflächliche Mist den man heutzutage natürlich in Massen vorfindet. Insofern, wieder mal ein Danke an Anandtech!

...Und ja natuerlich stimme ich ihm zu. Man kann DVFS einfach so ansetzen dass es fuer extremes Kurzzeit-compute angewendet werden kann; es bringt dem Benutzer nichts wenn eine solche GPU in einem Spielbenchmark z.B. 60 fps im Durchschnitt erreicht, in Echtzeit nach Dauer-Stress dann sagen wir mal auf 40fps throtteln muss.
Mir fallen da eigentlich nur App-basierte Profile ein. Dann hat man aber ein anderes Problem, die Vergleichbarkeit ist nichtmehr gegeben und Apple würde im Vergleich zur Konkurrenz erstmal schlechter dastehen, weil da niemand wirklich einen dauerhaften FPS-Counter im Spiel auf dem Handy hat, der einem unmissverständlich die Wahrheit ins Gesicht drücken würde.

Interessant für die dauerhafte Leistungsmessung wäre noch gewesen, was passiert, wenn man den Low-Power Mode aktiviert, denn laut einigen Reviews scheint der A12 wohl immernoch schneller als die Konkurrenz mit Low-Power Mode aktiv zu sein. Wenn ich das richtig verstehe, passiert dann nämlich genau das, der Workload wird fest auf die Tempest Little-Cores gesetzt, allerdings keine Ahnung, wie weit die GPU hier dann runtergeht. Schade, da sollte man Anand mal schreiben, denn die Möglichkeit besteht, fragt sich nur, ob man damit schon zu stark eingreift. Ich nutze den Low-Power Mode schon auf dem iPhone 7 exzessiv, da mir Batterielaufzeit und Leistung zu 95% voll ausreichen, da wird das XS sicher garkeine Probleme mehr haben, permanent im Low-Power Mode zu laufen und ich habe dann auch dort einen gefühlten 2x Speedup.

Wenn wir jetzt an A13 denken (N7+) bzw. A14 (N5), es wird nicht besser werden. Da wird sich Apple evtl. was einfallen lassen. Möglicherweise baut Apple ja auch in einem kommenden iOS 12-Update vor.

Generell ist es natürlich wichtig, dass die Peak-Leistung nicht unberücksichtigt bleibt, nur gerade bei Spielen die modernere Workloads haben, sollte Apple eigentlich wissen, dass es besser wäre, die Leistung dauerhaft beizubehalten, da Spiele und Spieler sehr empfindlich darauf reagieren.

Achja, weils noch nicht spät genug ist und Star Wars gerade noch läuft...

Ich will echt nicht wissen, was so ein A12X in neuen iPads entflammen kann, denn dort hätte man dann auch mal mehr Spielraum für dauerhaft hohe FPS.

Ailuros
2018-10-06, 10:55:18
Das Anandtech-Review ist mal wieder ein Sahnestück sondergleichen...da muss man echt den Hut ziehen. Da hat man mal wieder klargemacht, wie richtige Reviews aussehen müssen, und nicht dieser dahingeklatschte, oberflächliche Mist den man heutzutage natürlich in Massen vorfindet. Insofern, wieder mal ein Danke an Anandtech!

Am Rand: Andrei ist nicht nur ein erfahrener Entwickler sondern arbeitete auch eine Zeit lang fuer IMG vor dem Verkauf.


Mir fallen da eigentlich nur App-basierte Profile ein. Dann hat man aber ein anderes Problem, die Vergleichbarkeit ist nichtmehr gegeben und Apple würde im Vergleich zur Konkurrenz erstmal schlechter dastehen, weil da niemand wirklich einen dauerhaften FPS-Counter im Spiel auf dem Handy hat, der einem unmissverständlich die Wahrheit ins Gesicht drücken würde.

Interessant für die dauerhafte Leistungsmessung wäre noch gewesen, was passiert, wenn man den Low-Power Mode aktiviert, denn laut einigen Reviews scheint der A12 wohl immernoch schneller als die Konkurrenz mit Low-Power Mode aktiv zu sein. Wenn ich das richtig verstehe, passiert dann nämlich genau das, der Workload wird fest auf die Tempest Little-Cores gesetzt, allerdings keine Ahnung, wie weit die GPU hier dann runtergeht. Schade, da sollte man Anand mal schreiben, denn die Möglichkeit besteht, fragt sich nur, ob man damit schon zu stark eingreift. Ich nutze den Low-Power Mode schon auf dem iPhone 7 exzessiv, da mir Batterielaufzeit und Leistung zu 95% voll ausreichen, da wird das XS sicher garkeine Probleme mehr haben, permanent im Low-Power Mode zu laufen und ich habe dann auch dort einen gefühlten 2x Speedup.

Ich wuerde schaetzen dass die (A12) GPU dank N7 TSMC bis zu irgendwo =/>800MHz nur noch moderat throttelt. 1150MHz ist verdammt viel fuer einen smartphone SoC.

Wenn wir jetzt an A13 denken (N7+) bzw. A14 (N5), es wird nicht besser werden. Da wird sich Apple evtl. was einfallen lassen. Möglicherweise baut Apple ja auch in einem kommenden iOS 12-Update vor.

Tja ich bin rein technisch orientiert verdammt neugierig was Apple's Ex Orlando Team so auf die Beine stellen kann fuer einen zukuenftigen clean sheet GPU design. Mein Bauchgefuehl traut ihnen so manches positives zu und ja leider bei A12 war es noch nicht so weit.



Ich will echt nicht wissen, was so ein A12X in neuen iPads entflammen kann, denn dort hätte man dann auch mal mehr Spielraum für dauerhaft hohe FPS.

Nahezu zwecklos da es sowieso nichts sehenswertes in dem Bereich von der Konkurrenz gibt. Ja QCOM arbeitet an einem kommenden low end laptop SoC, aber im Vergleich zum 630 ist die A10X noch ein gutes Stueck schneller. Ob man sagen wir mal A10X +50% GPU Leistung (reine Schaetzung) wirklich braucht ausser irgendwelchen daemlichen marketing relevanten Schachzuegen bleibt abzusehen. Andrei hat IMHO recht: Apple kann locker fuer 3D und den Normalverbrauch durch software auf die hoechstmoegliche "sustained performance" optimieren.

deekey777
2018-10-06, 12:11:10
Für ein Review eines iPhone XS/Max halte ich den Artikel für schwach: Dass man es nicht geschafft hat, einen HDR-Film aus dem iTunes-Katalog abzuspielen (oder zumindest Netflix), ist... tstststs. ;(

urpils
2018-10-06, 12:24:57
Was den SoC angeht, kommt nichts an den anandtech Artikel ran. Extrem interessanter Artikel und beeindruckende Erbegnisse für Apple. Die sind Welten vor Exynos und Snapdragon in so ziemlich jedem Gesichtspunkt.

Ailuros
2018-10-07, 09:59:10
Was den SoC angeht, kommt nichts an den anandtech Artikel ran. Extrem interessanter Artikel und beeindruckende Erbegnisse für Apple. Die sind Welten vor Exynos und Snapdragon in so ziemlich jedem Gesichtspunkt.

Exynos vielleicht schon, aber im Vergleich zu QCOM's =/>SD845 ist es so eine Debatte fuer sich. Welten sind es aber in keinen Fall und das weder/noch.

Apple sah sich indirekt dazu gezwungen selber GPUs zu entwickeln eben weil die neuesten Adreno GPUs in fast allen metrics einige Meilen voraus liegen. Wenn es zu Konstanten wie perf/mW (sustained) oder perf/mm2 u.a. kommt, hat der 630 selbst heute einen zu deutlichen Vorsprung und das sogar bei vollem DX11.

https://forum.beyond3d.com/posts/2026064/

The why is extremely clear in my view and the writing was on the wall. Qualcomm. The way I see it is that Qualcomm now has such a significant lead and IMG/ARM were too complacent and unable to offer competitive IP that Apple/Samsung put in their custom GPU projects into action. As an IP company you should never take it for granted that the customer is going to rely on you or that you're only competing against the other IP vendor. HiSilicon is going to be the last high-end GPU IP customer but we don't know how long that'll last and after that there will be no market anymore. For ARM that's not too dramatic as they have the CPU IP business to support the GPU business, but for IMG that's an existential threat as that's just revenue that's gone forever.

urpils
2018-10-07, 12:01:34
Exynos vielleicht schon, aber im Vergleich zu QCOM's =/>SD845 ist es so eine Debatte fuer sich. Welten sind es aber in keinen Fall und das weder/noch.

Apple sah sich indirekt dazu gezwungen selber GPUs zu entwickeln eben weil die neuesten Adreno GPUs in fast allen metrics einige Meilen voraus liegen. Wenn es zu Konstanten wie perf/mW (sustained) oder perf/mm2 u.a. kommt, hat der 630 selbst heute einen zu deutlichen Vorsprung und das sogar bei vollem DX11.

https://forum.beyond3d.com/posts/2026064/

ok - du hast Recht - das sollte man etwas differenzierter betrachten:

zumindest nach den Anandtech-Ergebnissen ist die CPU eine Welt für sich was Performance/Effizienz angeht - im Vergleich dazu ist die GPU konkurrenzfähig - in manchen Bereichen besser in manchen Bereichen schlechter. So wie es aussieht in einigen Bereichen absolut (im Sinne von erreichten Frames) schneller - wobei dies durch eine schlechtere Effizienz erkauft wurde.
Die sustained-Performance der GPU beim A12 ist mittlerweile zumindest konkurrenzfähig (teilweise besser, teilweise schlechter als die Konkurrenz), wobei sie zuvor eher außergewöhnlich niedrig war, da der SoC weniger auf Spiele als auf GPU-Compute-Charakterisika von iOS optimiert wurde.

maguumo
2018-10-07, 12:34:33
In wie weit macht der Effizienzvergleich überhaupt Sinn wenn die SoCs mit denen verglichen wird noch mit 10nm produziert wurden/werden?

Iamnobot
2018-10-07, 12:51:20
Dieser lässt den SoC der Lieblingsmarke besser dastehen. Das reicht doch :biggrin:

Kallenpeter
2018-10-07, 12:53:11
In wie weit macht der Effizienzvergleich überhaupt Sinn wenn die SoCs mit denen verglichen wird noch mit 10nm produziert wurden/werden?

Macht schon Sinn, nur nicht in jeder Hinsicht.

Iamnobot
2018-10-07, 13:08:34
Klar, ein Vergleich ist ja prinzipiell erstmal völlig in Ordnung - die hier verbreiteten Schlüsse sind aber teilweise doch sehr abenteuerlich.

urpils
2018-10-07, 14:31:30
wieso? man vergleich die aktuell verfügbare Topmodelle. WIE (Architektur, Herstellungsprozess, Software,...) das Ergebnis am Ende rauskommt ist dem "Benutzer" wohl eher egal, oder?

Wenn es dir um den reinen Architekturvergleich gehen würde, würde ich dir Recht geben.

Ailuros
2018-10-11, 02:02:41
ok - du hast Recht - das sollte man etwas differenzierter betrachten:

zumindest nach den Anandtech-Ergebnissen ist die CPU eine Welt für sich was Performance/Effizienz angeht - im Vergleich dazu ist die GPU konkurrenzfähig - in manchen Bereichen besser in manchen Bereichen schlechter. So wie es aussieht in einigen Bereichen absolut (im Sinne von erreichten Frames) schneller - wobei dies durch eine schlechtere Effizienz erkauft wurde.
Die sustained-Performance der GPU beim A12 ist mittlerweile zumindest konkurrenzfähig (teilweise besser, teilweise schlechter als die Konkurrenz), wobei sie zuvor eher außergewöhnlich niedrig war, da der SoC weniger auf Spiele als auf GPU-Compute-Charakterisika von iOS optimiert wurde.


Da Apple erstmal eine um wirkliche Welten bessere compute relative Unterstuetzung in iOS im Vergleich zu Android hat, sind Kurzzeit Peak-Leistungen der GPU dort durchaus wuenschenswert; man braucht die fast 1.2GHz eben NICHT in allen anderen Bereichen ueberhaupt wenn die Frequenz dank zu hohen Temperaturen sowieso nicht erhalten bleibt. Es bringt dem User ueberhaupt nichts eine nicht erhaltbare Leistung in benchmarks vorzugeigen.

Von Andrei selber:

Now while this does explain the throttling, I still do think Apple can do some kind of optimisation in regards to the thermals. I played some Fortnite on the iPhone XS’, and the way that the phones heated up isn’t something that I was very much fan of. Here the must be some kind of way to let actual games and applications which have a characteristic of sustained performance, actually start off with the GPU limited to this sustained performance state.

Leider gibt es noch keine long term performance Resultate vom A12 in gfxbench, aber nochmal Kishonti sollte zusehen dass ein zusaetzlicher low level test in die benchmark-suite kommt die auch Temperaturen vor und nach 30 Durchlaeufen misst.

In wie weit macht der Effizienzvergleich überhaupt Sinn wenn die SoCs mit denen verglichen wird noch mit 10nm produziert wurden/werden?

Da es momentan noch keine 7nm SoCs von der Konkurrenz gibt, hat jeglicher reviewer keine andere Wahl als mit den nur vorhandenen SoCs der Konkurrenz zu vergleichen. Vergleicht man dann spaeter 7nm SoCs die spaeter erscheinen mit dem A12 wird dann wieder gemeckert dass der letzte um N Monate aelter ist.

Wuerde beispielsweise QCOM einen SD845 auf 7nm schrumpfen (ohne jegliche Aenderungen an der hw) will ich ernsthaft beschweifeln dass es einen wirklich sehenswerten Unterschied machen wuerde. Es ist dann eher so dass jeglicher zukuenftige 7nm SoC (egal von welchem Hersteller) auch einige Architektur-bedingte Erweiterungen mit sich bringen und diese machen den wirklichen Unterschied.

Im gegebenen Fall fuer die GPU hat eine 10nm Adreno630 GPU meistens nur geringe Unterschiede zwischen peak und durchschnittlichen Resultaten in fast allen Test in der Kishonti Datenbank, waehrend eine 7nm A12 GPU eher im </=30% Bereich fuer die Unterschiede liegt. Heutzutage werden meistens diese GPUs immer noch im Manhattan3.0 Test verglichen. Offscreen Resultate bei 1080p:

Apple A12@~1.15GHz
peak: 148,4 fps
median: 102,6 fps

Adreno 630@0.71GΗz
peak: 83,1 fps
median: 82,3 fps

Jegliche Schlussvolgerung die Prozess-relativ ist wuerde keinen Sinn machen. Der erste Fall hat lediglich um wesentlich aggressivere GPU Frequenzen, wobei wenn man es uebertreibt um Bumsfallera-Marketing-Behauptungen von +40% Leistung einzuhalten (im Vergleich zum A11), man eben auch um einiges hoeher takten muss.

Wenn ein reviewer im Jahr 2018 alle vorhandenen high end smartphones vergleicht, dann ist der Vergleich auch legitim.

***edit: nach Indizien wird QCOM ihren 7nm 855 im Dezember 2018 vorstellen; wenn dann irgendwo H1 19' ein high end smartphone damit auftauchen sollte und reviewers dann mit A12 smartphones vergleichen werden, dreht sich die obrige Frage dann halt um 180 Grad.

smalM
2018-10-14, 00:40:07
Andrei Frumusanu hat noch einmal nachgelegt:
Untersuchungen zu den kleinen Cores und zur NPU!

Ailuros
2018-10-17, 23:22:45
Andrei Frumusanu hat noch einmal nachgelegt:
Untersuchungen zu den kleinen Cores und zur NPU!

https://www.anandtech.com/show/13453/apple-iphone-xs-review-addendum-small-core-and-nn-performance

pixelguy
2018-10-18, 18:05:55
Neue Gerüchte rund um eigene ARM Chips im Mac: https://9to5mac.com/2018/10/17/apple-custom-chips-macs-apple-car/

deekey777
2018-10-18, 18:59:44
Am 30. Oktober wird das iPad-Event stattfinden, also Apple A12X wird gezeigt?

Kallenpeter
2018-10-18, 19:18:35
Ich behaupte die werden einfach den regulären A12 für das iPad nehmen. Evtl etwas höher getaktet und mehr RAM. Leistung sollte mehr als ausreichen.

MSABK
2018-10-18, 20:39:18
Ich behaupte die werden einfach den regulären A12 für das iPad nehmen. Evtl etwas höher getaktet und mehr RAM. Leistung sollte mehr als ausreichen.

Kann ich mir bei Apple nicht vorstellen, die legen da ja gerne mal eine Schippe drauf. Gerade bei den Gerüchten, dass in Zukunft eigene Chips in den MacBooks verbaut werden sollen, wird man die immer weiter vorantreiben.

robbitop
2018-10-19, 13:02:01
Denke auch es wird A12X.
Das letzte Flagschiff iPad ohne X war das iPad Air 1 mit A7. Ansonsten bekommen ja nur die Billig iPads die Non-X SoCs.

Ailuros
2018-10-20, 14:48:04
Kann ich mir bei Apple nicht vorstellen, die legen da ja gerne mal eine Schippe drauf. Gerade bei den Gerüchten, dass in Zukunft eigene Chips in den MacBooks verbaut werden sollen, wird man die immer weiter vorantreiben.

GPU Leistung ist Apple alles andere als gleichgueltig; die A12 GPU liegt ungefaehr in der A10X Leistungs-Region und taktet ohnehin schon fast bei 1.2GHz welches keine sehenswerte weitere Taktsteigerungen erlaubt. Bleibt Apple bei der gleichen Masche wie bei A10X <-> A10, koennte man locker bis zu doppelt so viel clusters (16?) bei ca. 1.6GHz erwarten.

Sunrise
2018-10-30, 15:59:00
A12X
8-Core CPU
7-Core GPU (Apple designed, was auch immer Apple darunter versteht)

35% höhere Single-core Performance
90% höhere Multi-Core Performance

Also das Ding sollte so ziemlich alles sprengen, wie angekündigt.

MSABK
2018-10-30, 16:01:11
A12X
8-Core CPU
7-Core GPU (Apple designed, was auch immer Apple darunter versteht)

35% höhere Single-core Performance
90% höhere Multi-Core Performance

Also das Ding sollte so ziemlich alles sprengen, wie angekündigt.

Scheint mir diesmal wirklich so schnell wie ein Ultrabook zu sein. Echt cool. Kein Wunder, dass bald das echte Photoshop z.B auf das iPad kommt.

Kallenpeter
2018-10-30, 16:03:03
Beim neuen MacBook Air und Mac Mini hat man nur vom "Sixth Generation i7" oder so gesprochen, der Name Intel ist kein einziges mal gefallen und mehr hat man zu den neuen Mac Prozessoren nicht gesagt. Der Apple Zusatzchip ("T12" oder so?) hat 20x mehr Aufmerksamtkeit bekommen als die Intel CPU.

Dann der A12X im iPad: Fünf Minuten Silizium Porno und gnadenloses Intel bashing.

Nur noch eine Frage von wenigen Jahren bis die Macs Apple eigene Prozessoren bekommen.

smalM
2018-10-30, 16:28:42
35% höhere Single-core Performance
90% höhere Multi-Core Performance

Bezogen auf den Vorgänger, also den A10X.

Scheint mir diesmal wirklich so schnell wie ein Ultrabook zu sein.

Auf der CPU-Seite ungefähr so schnell wie ein i7-8559U, auf der GPU-Seite zieht man jetzt deutlich an einer Iris Pro 580 vorbei, der (ehemals) leistungsfähigsten iGPU von Intel.

10 Mrd. Transistoren.
Was haben die in den A12X eigentlich noch alles reingepropft?
Ein Plus von 2x Vortex + 3x GPU-Cluster + doppeltes SI, da komme ich ausgehend vom A12 'nur' auf um die 8,5 Mrd. Transistoren.

pixelguy
2018-10-30, 17:00:05
Die hatten während des Events von 1000x mehr GPU Performance gesprochen!? Wie soll man sich das vorstellen?

Daredevil
2018-10-30, 17:03:00
Im Vergleich zum ersten iPad, meine ich mal.

pixelguy
2018-10-30, 17:04:29
Im Vergleich zum ersten iPad, meine ich mal.
Ah ja, das habe ich wohl überhört...

iuno
2018-10-30, 17:35:04
Es heisst, dass der A12X jetzt kein typisches big.LITTLE hat, sondern ggf. auch alle 8 Kerne gleichzeitig nutzt. Ich finde das durchaus interessant, gerade weil ja jetzt eh mit Intel verglichen wird: 4 schnelle Kerne + 4 langsame vs. 4 Kerne mit HT.

Loeschzwerg
2018-10-30, 18:09:31
Dann kann Apple doch eigentlich in den Konsolenmarkt einsteigen.

Troyan
2018-10-30, 18:10:59
Sind sie doch schon mit dem AppleTV. Die Spiele verkaufen sich nur einfach nicht.

Loeschzwerg
2018-10-30, 18:12:56
Naaa, ist doch primär eine Set-Top-box und wird entsprechend vermarktet. Ich rede schon von einem richtigen Versuch.

deekey777
2018-10-30, 18:39:04
Es heisst, dass der A12X jetzt kein typisches big.LITTLE hat, sondern ggf. auch alle 8 Kerne gleichzeitig nutzt. Ich finde das durchaus interessant, gerade weil ja jetzt eh mit Intel verglichen wird: 4 schnelle Kerne + 4 langsame vs. 4 Kerne mit HT.
Ist das nicht seit dem A11 der Fall?

https://de.wikipedia.org/wiki/Apple_A11_Bionic

Der SoC kann, im Gegensatz zum Vorgänger A10, über einen neuen Performance-Controller alle sechs Kerne gleichzeitig ansprechen.


Ich weiß nicht, wo ich das her habe, aber der A12X bzw. die GPU soll die letzte IMG-GPU sein.

Sunrise
2018-10-30, 19:32:14
Es heisst, dass der A12X jetzt kein typisches big.LITTLE hat, sondern ggf. auch alle 8 Kerne gleichzeitig nutzt. Ich finde das durchaus interessant, gerade weil ja jetzt eh mit Intel verglichen wird: 4 schnelle Kerne + 4 langsame vs. 4 Kerne mit HT.
Jap, ist allerdings nicht erst seit dem A12/A12X so, wie schon von deekey777 erwähnt, sondern seit dem A10-Design. Da es jedoch keinen A11X gab, erklärt das mitunter den heftigen Sprung von ca. 9300 Punkten auf ca. 17600 Punkte im Multi-Core Geekbench.

deekey777
2018-10-30, 20:51:48
Der T2 im Mac mini übernimmt auch das HEVC-Encoding. Will Apple schrittweise Intel verdrängen? ;D

Sunrise
2018-10-30, 21:11:28
Der T2 im Mac mini übernimmt auch das HEVC-Encoding. Will Apple schrittweise Intel verdrängen? ;D
Evtl. damit sie unabhängiger sind, ja, ist mir auch aufgefallen. Rein als Encoding-Box evtl. auch schneller als Intels. Fand ich auch interessant, leider fehlen Details.

Nightspider
2018-10-30, 23:54:47
Was für eine Speicherbandbreite hat denn der A12X?

Die sollen mal Red Dead Redemption 2 darauf porten. :ulol:

Ganon
2018-10-31, 08:39:27
Dann kann Apple doch eigentlich in den Konsolenmarkt einsteigen.

Viel zu geringe Marge für Apple dabei und eine 1000€ Konsole kauft auch kein Schwein. Um in dem Markt wirklich Fuß zu fassen müsste Apple, genauso wie MS damals, mehrere Milliarden reinpumpen.

Ich denke Apple reicht das iDevice Geschäft dazu. Spiele sind eh nicht deren Fokus. Apple will halt hauptsächlich und regelmäßig Hardware verticken und der Konsolenmarkt funktioniert eher anders herum.

Ganon
2018-10-31, 09:00:07
Der T2 im Mac mini übernimmt auch das HEVC-Encoding. Will Apple schrittweise Intel verdrängen? ;D

Ich vermute eher, Apple will macOS und iOS weiter zusammenführen und grundlegende API Implementierungen somit gleich halten. Das führt natürlich letztendlich dazu, dass man eben solchen Kram auf der eigenen Hardware macht. Lässt ja im Endeffekt auch Hardware-Funktionen brach liegen, weil Apple ja afaik immer noch kein VP9 Hardware-Decoding anbietet, obwohl es die (Intel-)Hardware ja kann (korrigiert mich, wenn ich hier falsch liege).

robbitop
2018-10-31, 09:01:25
Dann kann Apple doch eigentlich in den Konsolenmarkt einsteigen.

Zu geringe Gewinnspanne für Apple in dem Markt. Wozu sich von seinem extrem gewinnbringenden Kerngeschäft ablenkenlassen? Noch dazu gibt es dort sehr viel sehr starke Konkurrenz.

Wird nicht passieren. Für eine mobile Konsole wäre ein A12 allerdings wirklich krass...

robbitop
2018-10-31, 09:02:24
Jap, ist allerdings nicht erst seit dem A12/A12X so, wie schon von deekey777 erwähnt, sondern seit dem A10-Design. Da es jedoch keinen A11X gab, erklärt das mitunter den heftigen Sprung von ca. 9300 Punkten auf ca. 17600 Punkte im Multi-Core Geekbench.
Seit A11 erst iirc. (gleichzeitige Nutzung aller Kerne)

dildo4u
2018-10-31, 09:10:46
17k wäre im Bereich eines 28 Watt i7-8559U,das wäre Absurd bin auf Encoding Tests gespannt.

https://browser.geekbench.com/processors/2149

Ganon
2018-10-31, 09:33:55
7nm vs. 14nm. Sooo absurd ist das gar nicht. Die Frage ist halt auch immer, wie lange man diese Performance in solchen Geräten abrufen kann (gilt ja auch für die Intels in Apples Geräten)

BlackBirdSR
2018-10-31, 10:03:06
Geekbench halt..
Sieht man ja schon bei Snapdragon 845 vs Exynos...


17k wäre im Bereich eines 28 Watt i7-8559U,das wäre Absurd bin auf Encoding Tests gespannt.

https://browser.geekbench.com/processors/2149

robbitop
2018-10-31, 12:11:57
Mich würde es nicht wundern, wenn die aktuellen Apple Kerne bzgl IPC längst in Intel Regionen sind. Wenn sie das nicht schon seit A10 bereits sind.

Wenn man sich anschaut, wie viele Transistoren dort eingesetzt werden und sich etwas über die mArch einliest, fällt es schwer zu glauben, dass es großartig anders sein soll.

Zumal Apple mittlerweile die besten Leute der Industrie haben und Intel seit 2015 auf der gleichen mArch festsitzt. Irgendwann ist jeder Vorsprung mal weggeschmolzen.

Zaubern kann Apple aber auch nicht. IPC ist ja nicht alles. Apples mArch ist eher für den einstelligen W Bereich ausgelegt und hat dort einen hervorragenden Betriebspunkt. Intel skaliert eher im zweistelligen W Bereich. Entsprechend sind Intels Cores wesentlich schneller dank höherer Taktraten. (4-5 GHz werden die aktuellen Ax Chips von Apple nicht schaffen. Eher < 3GHz. Danach Clockwall und vermutlich nicht linearer Verbrauchssteigerung pro Takterhöhung) Dafür sind die Cores aber zu hungrig für Smartphones und Tablets.

Eine Frage des Betriebspunktes und der Auslegung.

deekey777
2018-10-31, 12:13:04
Evtl. damit sie unabhängiger sind, ja, ist mir auch aufgefallen. Rein als Encoding-Box evtl. auch schneller als Intels. Fand ich auch interessant, leider fehlen Details.

Offizielles Paper zum T2: https://www.apple.com/mac/docs/Apple_T2_Security_Chip_Overview.pdf

Vielleicht will man so auch FaceTime abdichten bzw. die Kamera.

Was ist eigentlich der Stand zB im Bezug auf Handbrake unter macOS? Kann man damit auf QuickSync zugreifen?

iuno
2018-10-31, 14:49:39
Danke fuer die Richtigstellungen, dann hatte ich das nicht mitbekommen (oder wieder vergessen) und sie haben das wohl hervorgehoben, weil es beim A1xX neu war.

Wozu sich von seinem extrem gewinnbringenden Kerngeschäft ablenkenlassen?
Muessen sie ja nicht. Sie koennen ja ihre Hardware wie bisher verkaufen. Der ATV ist wie ich das gerade so sehe eh schon vergleichsweise billig, mag aber natuerlich daran liegen, dass der noch kein Update hat (mit A10X fuer 179$), aber auch daran, dass man da mit Content Geld verdienen kann. Wenn das Ding irgendwann ein Update mit A12X bekommt und eh schon in vielen Wohnzimmern steht (keine Ahnung ob das was wird, aber offenbar haben sie das u.a. mit Serien-Eigenproduktionen vor) wird das schon interessant fuer Publisher. Mit MoltenVK/Vulkan oder direkt Metal ist die Plattform zugaenglich fuer moderne Spiele. Es gibt auch so schon Spiele fuer Mac, iOS, was ich so nicht erwartet haette. Ausserdem sind die Kunden zahlungswillig, was auch die Publisher merken, selbst wenn man 30% auf die Preise drauf schlaegt (die Apple dann fuer sich nimmt).
Man schaue sich doch mal an was die Publisher machen. Sweeney von Epic spielt seit Jahren beleidigt, weil Microsoft den Store etablieren will, laesst aber nicht nur weiterhin primaer fuer Windows entwickeln, sondern bringt mit Fortnite auch noch das derzeit erfolgreichste Spiel auf iOS, was genau die Kritikpunkte verkoerpert, die Sweeney vermeintlich aufstossen. Da kosten die Items dann halt 30% mehr, ist den Kunden aber auch egal.

Das iPad war auch lange Zeit gesehen fuer Apple-Verhaeltnisse relativ billig. Jetzt gibt es halt das Pro. Sollte in die Richtung was gehen, sehe ich keinen Grund, der irgendwann mal gegen einen zu seiner Zeit current-gen konsolenartigen ATV Pro spricht.

pixelguy
2018-10-31, 14:59:37
Sollte Apple eine eigene Konsole bringen, müsste diese technisch min. ebenbürtig oder stärker sein als die kommenden Varianten von Sony/MS. Alles andere wäre schlecht fürs Image

deekey777
2018-10-31, 15:47:06
Was wollt ihr die ganze Zeit mit einer Apple Spielkonsole?

Apple tut nichts, absolut nichts, damit eigene Produkte für Spieler attraktiv werden. Jedesmal, wo man dachte, jetzt geht es endlich los, hat Apple entweder nichts gemacht oder den Rückwärtsgang eingelegt.

2011/2012 war die Zeit, als gute mobile Spiele kamen. Gameloft brachte einen Controller und verarschte die Käufer, denn es kamen nur wenige Spiele und die Unterstützung wurde eingestellt.

Apple sah, dass die Nutzer einen Controller wollen, und machte alles falsch, indem zwei Konzepte (mit und ohne Analogsticks) kamen. Ein Controller ohne Analogsticks ist schon eine Fehlentscheidung, aber Apple ist doch schlauer als andere: Auch der Version mit Analogsticks fehlten mindestens zwei Tasten. Spielt mal BioShock mit einm MFi-Controller, da merkt mal schnell, dass dem Controller Tasten fehlen.

BioShock funktioniert nicht seit iOS 8.4, die Käufer regten sich ohne Ende auf, aber Apple tat nichts. XCOM (wurde von Apple groß geworben) wurde still und heimlich gegen XCOM: EW ersetzt und wird seitdem nicht aktualisiert. Gekaufte Sonic-Spiele bekamen ein F2P-Update und ließen sich nicht freischalten.

Und dann kam das iOS 11, damit wurden zig Spiele gekillt. Auch gab es Prbleme mit den ersten MFi-Controllern.

Apple hat null Glaubwürdigkeit, was eine Apple-Konsole angeht.

iuno
2018-10-31, 15:51:09
@pixelguy: Ich sage ja nicht, dass sie "eine Konsole bringen". Man vermarktet es ja aktuell auch nicht als Konsole, trotzdem gibt's Spiele dafuer. Das iPad oder iPhone wird auch nicht als mobile Spielekonsole verkauft, konkurriert aber trotzdem irgendwie mit der Switch usw. Ein MacBook ist nicht das schnellste Notebook den es gibt, ein Mac Pro nicht die schnellste Workstation, ein iPad ist(war) nicht das schnellste Tablet. Uebrigens kaufen auch die wenigsten Apple-Kunden die ich kenne ihre iPhones, Macs, etc. wegen der Leistung.

Und was ist technisch ebenbuertig? Die GPU im iPad Pro soll bereits so stark sein wie eine Xbox One, die CPU ist stark. Ich weiss nicht, was die an Speicher( und -bandbreite) haben, aber der Rest ist doch schon nahe dran. In einem stationaeren Geraet haette man keine zwingenden thermischen und elektrischen Probleme. Wenn es dabei bleibt, dass Apple immer so frueh dran ist mit neuen Fertigungsprozessen waere ein weiteres Aufschliessen doch denkbar.

Apple tut nichts, absolut nichts, damit eigene Produkte für Spieler attraktiv werden. Jedesmal, wo man dachte, jetzt geht es endlich los, hat Apple entweder nichts gemacht oder den Rückwärtsgang eingelegt.
Trotzdem bringen Publisher halt Spiele heraus. Und das auch nur, weil sie gekauft werden. Dein Argument ist somit hinfaellig.

Apple hat null Glaubwürdigkeit, was eine Apple-Konsole angeht.
Die muessen auch keine Glaubwuerdigkeit beweisen, um Leute zum Wechsel von einer PS auf einen ATV zu ueberzeugen. Das ist doch sowieso absurd. Es geht wohl eher darum, dass diejenigen Leute, die keine vorrangigen Zocker sind, ueberhaupt einen ATV anschaffen und dann vielleicht kein weiteres Geraet kaufen, mit dem man Abos bei anderen Diensten hat und Inhalte konsumiert, an denen man nichts verdient.

pixelguy
2018-10-31, 16:09:12
@iuno: ich meinte auch eher, dass sie optisch auf einem Level sein müssten.

Wenn alles auf einem (als Spielekonsole) vermarkteten Gerät schlechter aussieht als bei der Konkurrenz, ist das schlecht fürs Image und strahlt negativ auf die Marke ab.

Deswegen denke ich auch, dass da nix kommen wird.

deekey777
2018-10-31, 16:10:15
Nur weil das NBA-Spiel gezeigt wurde, heißt es nicht, dass Apple was macht.

Auch XCOM wurde auf einem iPad-Event gezeigt, was passiert ist: 14 EUR für nichts ausgegeben.

Welche Spiele sollen es sein, wo man sagt: Also dafür stelle ich meine Xbox One in den Schrank? Die mobilen Rockstar-Spiele sind weiterhin nur für iOS verfügbar,

Ganon
2018-10-31, 16:22:15
Dass Apple auf die Kompatibilität alter Software scheißt ist eigentlich ziemlich normal. Generell verlangt Apple vom Entwickler relativ viel Support für die Anwendungen im Store selbst. Spieleentwicklern ist das aber herzlich egal ob ihr Spiel in einem iOS Upgrade 3 Jahre später noch läuft, Hauptsache du hast es damals gekauft. Ist ja unter Windows nicht anders, nur eben über einen längeren Zeitraum verteilt. Welcher Entwickler hat sein Spiel schon kostenlos für Windows 10 gepatcht, sofern es nötig war.

Aber ja, Apples vorgehen ist für ein "Konsolen-Konkurrent" "zu schnell". Wer will schon, dass seine halbe Bibliothek nach 3-4 Jahren nicht mehr läuft? Apple-User sind sowas ja allgemein gewöhnt (also der nötige Neu-Kauf von älterer Software), sofern der Entwickler nicht freiwillig nach-patched.

Ailuros
2018-10-31, 18:04:45
Die A10X GPU ist bei fast 720 GFLOPs FP32 (1.44 TFLOPs FP16), wobei die A12X GPU wohl schaetzungweise irgendwo bei >1.2 TFLOPs FP32 liegen duerfte (erste benchmarks zeigen dann schon wie es in etwa aussieht). Selbst wenn man dank begrenzter Bandbreite und DVFS u.a. nur die Haelfte davon auf die Strasse bringen kann, im Durchschnitt ist es verdammt viel fuer ein tablet.

Sonst fuer den Konsolen-Wirrwarr: man wird wohl nach all den Jahren verstehen koennen dass Apple mit ihren eigenen Konstanten sowohl auf hw als auch auf sw Basis entwickelt. Wieso sollte Apple eine direkte Konsolen-Konkurrenz genau interessieren?

Durch Apple TV bzw. der set top box waere es ein Weg sich ein bisschen mehr auf Spiele zu konzentrieren, aber gegen die Geruechte der letzten Jahre hat sich fuer diese nie etwas besonderes bewegt auch nicht mit den angeblichen smart TVs. IMHO realisiert Apple nur etwas bzw. investiert dick in dieses wenn es auch wirklich die Rede wert ist. Langfristig werden sie erstmal tablets und low end end Macs mit ihren eigenen high end ULP SoCs bedienen, ich zweifel an dem Gedanken schon seit Jahren nicht mehr.

prinz_valium
2018-10-31, 18:46:29
Viel zu geringe Marge für Apple dabei und eine 1000€ Konsole kauft auch kein Schwein. Um in dem Markt wirklich Fuß zu fassen müsste Apple, genauso wie MS damals, mehrere Milliarden reinpumpen.

Ich denke Apple reicht das iDevice Geschäft dazu. Spiele sind eh nicht deren Fokus. Apple will halt hauptsächlich und regelmäßig Hardware verticken und der Konsolenmarkt funktioniert eher anders herum.

Ka, warum Apple in ein altes sterben Geschäft investieren sollte.

Die haben ihre iPhone, iPads und Apple TVs.
Also warten Sie einfach bis sich Streaming durchgesetzt hat und kassieren dann ihre 30% auf der Platform.

Sunrise
2018-10-31, 20:38:48
Der Apple TV (vor allem der neue 4K) ist IMHO faszinierend (die älteren wurden zu stiefmütterlich behandelt, zuviele iOS- und Airplay-Bugs usw.) und auch wenn Apple das Teil teilweise minimal kastriert (nur Dienste bzw. Technik für den eigenen Bedarf werden unterstützt), ist es für mich mittlerweile beeindruckend, wie problemlos das Teil läuft, seitdem Cook bemerkt hat, dass abseits vom Hobby-Projekt man mit dem Apple TV als Einstiegsdroge unglaubliche Umsätze mit Content und Services machen kann, vor allem nun aufgrund der generellen Verbreitung von iOS-Geräten und Apples Bekanntheitsgrad. Das Ding ist ein Selbstläufer, der sich neuerdings ja dem SoC der iPads bedient (wird wohl auch so weitergehen) und den Apple vorzugsweise mit allem zugänglichen Contentquellen füttert, die Apple integrieren kann, wie bspw. auch die bald kommenden Apple-eigenen Streaming-Services bzw. Angebote.

Apple TV und Spiele ist da wohl absolut nicht erwähnenswert. Das finde ich beim iPad zwar ganz nett (Civilization funktioniert tadellos), das sind aber eher Beiwerke aufgrund der leistungsfähigen und sehr guten Plattform (das Alibi-Beispiel bei jedem Event dient wirklich nur dem Marketing und Werbung für die sehr gute Plattform), aber das Konzept passt da einfach nicht, ist einfach nicht der Fokus, man will damit vor allem Geld verdienen, ohne viel zusätzlichen Aufwand an der HW selbst.

dildo4u
2018-11-01, 10:02:29
A12X im Geekbench.


https://browser.geekbench.com/v4/cpu/10568063

Ganon
2018-11-01, 10:04:53
Ka, warum Apple in ein altes sterben Geschäft investieren sollte.

Sterbendes Geschäft? :ugly: Sony +32% und Microsoft +44% in den letzten Geschäftsberichten... Streaming ist auch nur ein Papiertiger zur Zeit.

robbitop
2018-11-01, 10:12:47
Was Sony und MS daran verdienen sind für Apple Peanuts. Viel zu wenig Gewinnspanne. Können andere machen.

Dazu kommt, dass der Markt hart umkämpft ist. Bis man da eine vergleichbare Position wie Sony erreicht (sofern man das überhaupt schafft), dauert es sicherlich 1 Jahrzehnt. In dem man sicherlich einige Mrd verbrennt.

Ganon
2018-11-01, 10:32:15
Was Sony und MS daran verdienen sind für Apple Peanuts. Viel zu wenig Gewinnspanne. Können andere machen.

Das Interesse liegt hier auch nicht nur in der reinen Gewinnspanne, sondern ist ein Mittel, um in die Wohnzimmer der Leute zu kommen. Auch wenn's jetzt doof klingt, aber Apple hat hier nicht sonderlich viel. Deren Vorteil ist nur, dass ihre Kundschaft ihnen aktuell alles zu jedem Preis abkauft.

Mit steigender Leistung der Hardware wird aber auch irgendwann der letzte Fragen: "Warum muss ich mir jetzt noch mal ein neues iPhone kaufen?". Sie werden hier in die gleichen Probleme rennen wie der PC zur Zeit. Und diese künstlichen Upgrade-Sperren und Slowdowns können sie auch nicht ewig fahren.

Apple "Strategie" zur Zeit ist, eine PC Alternative auf den Markt zu bringen, mit ihrem iPad. Das klingt aktuell blöder als eine Konsole zu veröffentlichen.
MS will sich hier in dem Kontext einfach breiter aufstellen. Um reines Geld geht's denen doch schon lange nicht mehr.

AffenJack
2018-11-01, 12:03:45
Fürs Wohnzimmer hat man doch schon Apple TV. Damit könnte man auch in den Gamestreamingmarkt einsteigen, wenn die Zeit reif ist. Die paar Coregamer, denen Streaming zu langsam ist, sind für Apple überhaupt nicht von Interesse. Ne Konsole macht da für Apple keinen Sinn.

Rooter
2018-11-01, 12:27:42
Und diese künstlichen Upgrade-Sperren und Slowdowns können sie auch nicht ewig fahren.Warum nicht? So lange sich die Kundschaft nicht ändert...

MfG
Rooter

=Floi=
2018-11-01, 13:35:29
Und diese künstlichen Upgrade-Sperren und Slowdowns können sie auch nicht ewig fahren.

welche sollten das sein?
die alten geräte hatten einfach auch noch größere hürden wie zB 32bit. Selbst bei tegra 1 musste man die unterstützung kappen, weil irgend eine 2d beschleunigung nicht unterstützt wurde. Mit den eigenen chips kann man auch besser und weiter vorplanen.

smalM
2018-11-04, 21:10:54
A12X im Geekbench.

https://browser.geekbench.com/v4/cpu/search?dir=asc&q=iPad8

Bisher aufgetaucht: iPad8,2 – iPad8,3 – iPad8,4 – iPad8,6 – iPad8,8

Sieht so aus, als habe nur das iPad8,3 4GB RAM, die anderen 6GB. Alle scheinen mit 2,5GHz zu laufen, denn bis auf Memory sind die Single-Core-Werte kein Deut schneller als bei A12.
Allerdings ist die Masse ein Einträgen in die Datenbank nicht gerade überwältigend...

deekey777
2018-11-04, 21:57:21
Was von denen ist jetzt das kommende iPad mini? :D

smalM
2018-11-05, 18:58:08
:rolleyes:
Ich war tatsächlich überrascht, daß das Mac mini nicht eingestellt wurde.
Und Glückwunsch an Apple, man hat immer noch ein Gerät mit einem SoC von 2014 im Angebot. Das muß man erst einmal hinkriegen... Wann sind die Dinger denn endlich aufgebraucht?

iPad Modellnr., Motherboard und RAM:

iPad8,2 - J317xAP - 6GB
iPad8,3 - J317AP -- 4GB
iPad8,4 - J318xAP - 6GB
iPad8,6 - J320xAP - 6GB
iPad8,8 - J321xAP - 6GB

Ich vermute, daß J31n = iPad 11" und J32n = 12.9".
Wild spekuliert sind 8,2 & 8,3 ohne und 8,4 ist mit Mobilfunk, sowie 8,6 ohne und 8,8 mit Mobilfunk.

pixelguy
2018-11-08, 11:35:18
Ich habe gerade diesen Artikel gelesen: https://www.mactechnews.de/news/article/A12x-Chip-Wie-man-Desktop-Leistung-ohne-Luefter-schafft-170906.html

Und jetzt stelle ich mir die Frage, wie weit es Apple treiben könnte, wenn die wirklich an einem Mac-Chip arbeiten. Also kein mobile Design sondern wirklich etwas mit aktiver Kühlung und mehr Watt.

Hat dazu jemand eine Vorstellung?

robbitop
2018-11-08, 11:41:53
Das wurde doch in diesem Thread (gerade erst vor wenigen Seiten) schon mehrfach diskutiert.

pixelguy
2018-11-08, 13:52:47
Ah, das hatte ich überlesen

Ganon
2018-11-08, 15:40:40
Ich habe gerade diesen Artikel gelesen: https://www.mactechnews.de/news/article/A12x-Chip-Wie-man-Desktop-Leistung-ohne-Luefter-schafft-170906.html

Wie ich sehe schwurbelt MTN immer noch über den zukünftigen, alles in den Schatten stellenden ARM Mac? Das machen die jetzt schon wie lange? 2 Jahre? OK... Mindestens seit Januar 2016 (https://www.mactechnews.de/news/article/Apples-A9X-Chip-bietet-Leistung-auf-Laptop-Niveau-163279.html) ;D

deekey777
2018-11-08, 16:05:21
Wie ich sehe schwurbelt MTN immer noch über den zukünftigen, alles in den Schatten stellenden ARM Mac? Das machen die jetzt schon wie lange? 2 Jahre? OK... Mindestens seit Januar 2016 (https://www.mactechnews.de/news/article/Apples-A9X-Chip-bietet-Leistung-auf-Laptop-Niveau-163279.html) ;D
Machen wir das nicht alle?

Ganon
2018-11-08, 16:26:51
Machen wir das nicht alle?

Nicht auf dem Level von MTN...


Jahr für Jahr erreicht Apple Sprünge, wie man sie bei herkömmlichen Desktop-Prozessoren nicht kennt
[...]
so schlägt das iPad Pro fast alle Macs im Sortiment
[...]
"Single Core"-Performance übertrifft dabei sogar den iMac Pro
[...]
Dies ist insofern außerordentlich beachtlich, ruft man sich die Wärmeentwicklung eines Desktop-Prozessors ins Gedächtnis.
[...]
Workstation-Performance ohne Lüfter
[...]
Es gibt derzeit keinen Chip-Hersteller, der sich mit Apple ansatzweise messen lassen kann.


Die Basis ist mal wieder nur Geekbench und IPC wird mit Performance verwürfelt, die Kern-Anzahl wird auch ignoriert... Hachja... Ich weiß schon warum ich MTN meide xD

pixelguy
2018-11-08, 16:43:55
Aber auch Anand Shimpi hat im original Interview von "MacBook Pro-class performance" gesprochen: https://9to5mac.com/2018/11/07/ipad-pro-a12x-details-anand-shimpi-phil-schiller-interview/

Und noch besser:

Shimpi echoed the keynote framing that the new iPad Pro has Xbox One S class graphics processing performance

Ganon
2018-11-08, 17:04:16
Aber auch Anand Shimpi hat im original Interview von "MacBook Pro-class performance" gesprochen

Es gibt bei Apple auch 13" MacBook Pros mit Dual Core CPU. Man darf bei diesen reinen Modellnamen-Vergleichen nicht vergessen, dass Apple da auch teilweise echte Gurken-Systeme im Angebot hat.

edit: Und nur um es klarzustellen, ich will den Prozessor von Apple gar nicht schlechtreden. Aber alle reden so, als würde Apple gerade eine CPU auf dem Markt haben, die jede andere CPU in die Tasche steckt. Dabei hängen da sehr viele wenns, abers und "unter Umständen" dran.

Felixxz2
2018-11-08, 17:44:31
Ich weiß ehrlich gesagt nicht was ich von den Gerüchten halten soll: Einerseits ist die Möglichkeit einer eigenen CPU und eines gemeinsamen Insructionset mit iPhones verlockend, andererseits verliert man dann vollends den Anschluss an den Rest der Industrie, die voll auf x86 setzt und dies wschl auch weiter tun wird.

Außerdem hat man mit AMD ja jetzt eine Alternative!

steve.it
2018-11-08, 17:51:50
https://homes.cs.washington.edu/~bornholt/post/z3-iphone.html

BlackBirdSR
2018-11-08, 20:33:10
https://homes.cs.washington.edu/~bornholt/post/z3-iphone.html

https://img.purch.com/o/aHR0cHM6Ly93d3cubGFwdG9wbWFnLmNvbS9pbWFnZXMvdXBsb2Fkcy9wcHJlc3MvNDU3NDEvbHRwX3Bo b3RvX2Fkb2JlX2xpZ2h0cm9vbV9pcGFkX3Byb18xMi05XzIwMTguanBn

robbitop
2018-11-09, 11:45:32
Ich weiß ehrlich gesagt nicht was ich von den Gerüchten halten soll: Einerseits ist die Möglichkeit einer eigenen CPU und eines gemeinsamen Insructionset mit iPhones verlockend, andererseits verliert man dann vollends den Anschluss an den Rest der Industrie, die voll auf x86 setzt und dies wschl auch weiter tun wird.

Außerdem hat man mit AMD ja jetzt eine Alternative!
Da man HW und SW in einer Hand hat, ist das Instructionset relativ egal. Hat man ja bereits schon einmal hinter sich (Wechsel zwischen Power mArch und x86). Apple liefert das OS und die SDKs für die Entwicklung der Apps.
Für legacy Kram wird man sicherlich eine Emulation liefern und für die Entwickler ein Update für's SDK, so dass sie nur rekompilieren müssen.

pixelguy
2018-11-09, 11:57:41
Interessant wäre es ja schon, wenn Apple den zukünftigen Mac Pro als erstes mit einem ARM Chip ausstattet.

Erstens müsste dieser nicht in einer so großen Stückzahl gefertigt werden, man hätte mehr Spielraum bei der Ausbeute/Marge, weniger Kühlungs- und verbrauchsprobleme und man könnten mit dem Apple Desktop Chip "oben einsteigen" und damit direkt das Image von high performance pflegen...

fondness
2018-11-09, 11:58:53
Da man HW und SW in einer Hand hat, ist das Instructionset relativ egal. Hat man ja bereits schon einmal hinter sich (Wechsel zwischen Power mArch und x86). Apple liefert das OS und die SDKs für die Entwicklung der Apps.
Für legacy Kram wird man sicherlich eine Emulation liefern und für die Entwickler ein Update für's SDK, so dass sie nur rekompilieren müssen.

Naja, es gibt nicht so wenige Apple-Kunden die ihr Macbook zumindest zusätzlich noch mit Windows betreiben. Es bleibt zumindest fraglich ob ein solcher Umstieg nicht ordentlich Kunden kosten würde.

robbitop
2018-11-09, 12:17:01
Unbekannt. IMO ist ein Macbook mit Windows nur noch halb so gut. Akkulaufzeit sinkt, das Touchpad funktioniert weniger gut etc.
Ich kann mir fast nicht vorstellen, dass das so ein großer Anteil ist.

Ggf. kann aber auch hier die ARM Emulation von Windows 10 helfen. Ist zwar im Moment nur für x86-32 aber funktioniert selbst mit den Qualcomm ARMs recht ok.

MSABK
2018-11-09, 12:17:47
Interessant wäre es ja schon, wenn Apple den zukünftigen Mac Pro als erstes mit einem ARM Chip ausstattet.

Erstens müsste dieser nicht in einer so großen Stückzahl gefertigt werden, man hätte mehr Spielraum bei der Ausbeute/Marge, weniger Kühlungs- und verbrauchsprobleme und man könnten mit dem Apple Desktop Chip "oben einsteigen" und damit direkt das Image von high performance pflegen...

Ich spekuliere auf ein MacBook Air mit Arm cpu. Der ist ja aktuell mit einer 7Watt cpu bestückt, da kriegt man mit einer A1xX bestimmt eine bessere Leistung.

Ravenhearth
2018-11-09, 12:39:23
Ich spekuliere auf ein MacBook Air mit Arm cpu. Der ist ja aktuell mit einer 7Watt cpu bestückt, da kriegt man mit einer A1xX bestimmt eine bessere Leistung.
Bei Intel 14nm vs. 7nm TSMC bestimmt :D

pixelguy
2018-11-09, 12:42:00
Ich spekuliere auf ein MacBook Air mit Arm cpu. Der ist ja aktuell mit einer 7Watt cpu bestückt, da kriegt man mit einer A1xX bestimmt eine bessere Leistung.
Die haben ja aber eben erst ein neues Air vorgestellt... Und der Mac Pro wäre ein komplett neues Konzept. Passt dann ja ganz gut.

steve.it
2018-11-09, 12:45:03
Da man HW und SW in einer Hand hat, ist das Instructionset relativ egal. Hat man ja bereits schon einmal hinter sich (Wechsel zwischen Power mArch und x86). Apple liefert das OS und die SDKs für die Entwicklung der Apps.
Für legacy Kram wird man sicherlich eine Emulation liefern und für die Entwickler ein Update für's SDK, so dass sie nur rekompilieren müssen.

Welcher legacy Kram?
Es gibt keinen legacy Kram mehr in macOS (mir fällt jedenfalls nichts relevantes ein). Dieser ist schon längst weggefallen. Selbst das 32 Bit Userland spielt keine Rolle mehr und fliegt bald raus (alle relevanten und gepflegten Mac-Anwendungen sind schon lange bei 64 Bit angekommen). Die ARM-SoCs von Apple sind AFAIK reine 64 Bit SoCs und können kein 32 Bit Apps mehr ausführen.

Echte Mac-Anwendungen basieren schon lange auf Cocoa. Vor dem Switch von Intel war das noch anders. Da gab es sogar noch Anwendungen, die auf Carbon-CFM basiert haben (das war eine Kompatibilitätsschicht, die noch aus dem vorherigem Switch bestand).
Hier ist Apple also sauber aufgestellt. Apple hat den ganzen Legacy-Kram rigoros rausgeschmissen. Zumindest in der Theorie klickt der Entwickler dann auf den Button "ARM" in xcode und die ARM-Mac-Applikation purzelt mit einem Mausklick aus xcode raus. In der Praxis ist es dann vermutlich abhängig von der Anwendung doch mehr Arbeit.

Der Switch zu ARM wäre ein "Kinderspiel".

PS:
OK, wenn man OpenGL als Legacy ansieht, dann gibt es womöglich doch noch "Legacy-Kram".

MSABK
2018-11-09, 13:52:18
Bei Intel 14nm vs. 7nm TSMC bestimmt :D

Eher hat Apple die eigene Cpu im Macbook als Intel mit 10nm kommt.:D Wo nichts gleichwertiges ist, kann man auch nur mit dem was da ist vergleichen.:D

robbitop
2018-11-10, 09:55:08
Welcher legacy Kram?
Es gibt keinen legacy Kram mehr in macOS (mir fällt jedenfalls nichts relevantes ein). Dieser ist schon längst weggefallen. Selbst das 32 Bit Userland spielt keine Rolle mehr und fliegt bald raus (alle relevanten und gepflegten Mac-Anwendungen sind schon lange bei 64 Bit angekommen). Die ARM-SoCs von Apple sind AFAIK reine 64 Bit SoCs und können kein 32 Bit Apps mehr ausführen.

Echte Mac-Anwendungen basieren schon lange auf Cocoa. Vor dem Switch von Intel war das noch anders. Da gab es sogar noch Anwendungen, die auf Carbon-CFM basiert haben (das war eine Kompatibilitätsschicht, die noch aus dem vorherigem Switch bestand).
Hier ist Apple also sauber aufgestellt. Apple hat den ganzen Legacy-Kram rigoros rausgeschmissen. Zumindest in der Theorie klickt der Entwickler dann auf den Button "ARM" in xcode und die ARM-Mac-Applikation purzelt mit einem Mausklick aus xcode raus. In der Praxis ist es dann vermutlich abhängig von der Anwendung doch mehr Arbeit.

Der Switch zu ARM wäre ein "Kinderspiel".

PS:
OK, wenn man OpenGL als Legacy ansieht, dann gibt es womöglich doch noch "Legacy-Kram".

Ich meine auch Applikationen, die keine neuen Versionen mehr bekommen (Entwicklung eingestellt).

steve.it
2018-11-10, 10:15:18
Ich meine auch Applikationen, die keine neuen Versionen mehr bekommen (Entwicklung eingestellt).
Auf solche Anwendungen nimmt Apple garantiert 0 Prozent Rücksicht. IMHO auch richtig so (ganz unabhängig ob es ARM-Macs geben wird oder nicht).

Da sollte man sich auch als Awender fragen, wieso man eine ungepflegte nicht mehr weiterentwickelte Anwendung nutzt...

amdfanuwe
2018-11-10, 10:19:09
Da sollte man sich auch als Awender fragen, wieso man eine ungepflegte nicht mehr weiterentwickelte Anwendung nutzt...
Vielleicht einfach weil sie funktionieren, ihren Zweck erfüllen und nicht dauernd einer was verschlimmbessert?

smalM
2018-11-10, 17:16:02
Vielleicht einfach weil sie funktionieren, ihren Zweck erfüllen und nicht dauernd einer was verschlimmbessert?
Erinnert mich an WriteNow (https://en.wikipedia.org/wiki/WriteNow), war sehr stabil und wahnsinnig schnell, auch mit großen Schriftstücken und einem riesen Haufen Anmerkungen; und war dann noch schneller auf dem PowerPC unter 68K-Emulation. Habe ich erst aufgegeben, als es gar nicht mehr anders ging.

smalM
2018-11-10, 21:05:42
Inzwischen sind die restlichen Modellnummern in GB4 aufgetaucht.

iPad Modellnr., Motherboard und RAM:

iPad8,1 - J317AP -- 4GB
iPad8,2 - J317xAP - 6GB
iPad8,3 - J318AP -- 4GB
iPad8,4 - J318xAP - 6GB

iPad8,5 - J320AP -- 4GB
iPad8,6 - J320xAP - 6GB
iPad8,7 - J321AP -- 4GB
iPad8,8 - J321xAP - 6GB

deekey777
2019-02-11, 13:31:22
Nächstes iPhone-SoC weiterhin nur von einem Hersteller

Der taiwanische Chipproduzent TSMC soll einziger Lieferant für den "A13" in Apples 2019er Smartphone-Generation sein. Auch weitere Details sickerten durch. (https://www.heise.de/mac-and-i/meldung/Naechstes-iPhone-SoC-weiterhin-nur-von-einem-Hersteller-4303441.html)

Ob sich TSMC nicht übernimmt? Oder Apple selbst? DEnn Apple bietet sehr viele Produkte in letzer Zeit an. Das iPhone 6 ist zwar aus dem Programm, aber man findet es hier und da neu, der A8 wird für Apple TV4 und iPod Touch genutzt (und HomePod); selbst iPad Mini findet man bei Apple. iPhone 6s wird neu fast überall angeboten, selbst iPhone SE ist kurzzeitig bei Apple aufgetaucht, iPhone 7 (plus iPad 9,7'') und 8 (A11) werden weiterhin angeboten (außer Deutschland). iPads gibt es vom Mini (A8) über "Billig"-iPad (9,7'' mit A10) und iPad Pro (10,5'' mit A10X, den auch Apple TV4K nutzt) bis zu den neuen iPad Pro mit FaceID.

Sollte das neue "Billig"-iPad mit dem Apple A11 kommen, werde ich nicht widerstehen, wenn der Preis bleibt.

Nightspider
2019-02-11, 14:47:28
Sollte das neue "Billig"-iPad mit dem Apple A11 kommen, werde ich nicht widerstehen, wenn der Preis bleibt.

Du meinst A13 ?

deekey777
2019-02-11, 15:03:51
Du meinst A13 ?
Nein, ich meine schon den A11. Es wird vermutet, dass im März wieder ein günstiges iPad 9,7'' (und vielleicht auch ein neues iPad mini) gezeigt wird, dem würde ein Apple A11 stehen, passt auch zur Strategie.

pixelguy
2019-02-22, 10:16:41
Jetzt glaubt sogar schon Intel, dass ein Wechsel zu ARM in Kürze bevorsteht: https://t3n.de/news/intel-apple-ab-2020-umstieg-auf-arm-1145714/

Würde mich nicht wundern, wenn der neue Mac Pro dafür als Aushängeschild dienen soll.

Kallenpeter
2019-02-22, 19:23:28
Mit dem Mac Pro anzufangen würde natürlich so manch einer Expertenmeinung widersprechen. Aber ich halte es auch nur noch für eine Frage der Zeit.

Die Gerüchte zu Universal Binaries passen ja auch ganz gut dazu und die "künstlichen" Grenzen zwischen iPhone, iPad und Mac sind natürlich auch etwas altbacken.

Freyberger
2019-02-22, 20:22:32
Würde mich nicht wundern, wenn der neue Mac Pro dafür als Aushängeschild dienen soll.

Gerade beim Mac Pro kann ich mir das nicht (zeitnah) vorstellen.
Da würde man wohl mehrere Grosskunden verlieren.

Beim iMac hingegen ...

pixelguy
2019-02-22, 20:31:42
Warum würde man die verlieren? Wenn die Software läuft und ggf. sogar optimiert wurde.
Gerade mit so Firmen wie Adobe hat man ja in der Vergangenheit häufiger zusammengearbeitet.

Freyberger
2019-02-22, 20:44:33
Der Mac Pro wird nicht dafür gekauft, damit es (irgendwie) läuft.

Ich sehen die nächsten 2 Jahre nicht die ARM CPU die die erwartete Leistung bring. (abgesehen von massiven Multicore, da gibts ja mittlerweile mehr als nur einen "netten" Chip; in meinen Augen aber rein servergeeignet)

Sven77
2019-02-22, 20:48:34
Welcher Großkunde kauft denn MacPros :confused: Der Markt existiert quasi nicht mehr

Freyberger
2019-02-22, 20:52:42
Ja, Apple hat mit der letzten (vor 2019) Generation ne Menge Porzelan zerschlagen.

robbitop
2019-02-22, 21:04:22
Der Mac Pro wird nicht dafür gekauft, damit es (irgendwie) läuft.

Ich sehen die nächsten 2 Jahre nicht die ARM CPU die die erwartete Leistung bring. (abgesehen von massiven Multicore, da gibts ja mittlerweile mehr als nur einen "netten" Chip; in meinen Augen aber rein servergeeignet)

Apples eigene ARM mArch liefert mittlerweile mehr ipc als Intels mArch. Wenn diese entsprechend auf einen anderen Betriebspunkt (Takt/TDP) umgestellt wird, sollte es im Berecih des erwartbaren liegen, etwas vergleichbares oder besseres zu liefern (Perf/W).

Freyberger
2019-02-22, 21:14:38
Apples eigene ARM mArch liefert mittlerweile mehr ipc als Intels mArch.

Geekbench? Haha sehr lustig.
Zeig mir eine Serveranwendung, die das bestätigt.


Und bevor man nicht 3/3,5 GHz erreicht braucht man für ne Workstation eh nicht drüber diskutieren.

pixelguy
2019-02-22, 21:31:40
sehe ich ähnlich... und wir wissen nicht, zu was Apple die ARM CPUs treiben kann.
Würde auch die lange Entwicklungszeit erklären.

robbitop
2019-02-23, 07:31:43
Es gibt auch SPEC, 3DMark Physics Score etc. Das sind alles nur Indizien. Jedoch wenn man sich anschaut, wie viele Transistoren pro Kern verwendet werden (mehr als in einem Skylake Core) und einen Blick auf die mArch wirft und wie viel mehr Apple mit ihren Cores an Leistung rausholt als Samsung und ARM (anand zeigt ja immer spec und den Energie Verbrauch in joules) sollte klar sein, dass IPC kein Problem ist.

Frequenz: das meinte ich mit anderer Betriebspunkt der Auslegungung der mArch. Das ist nicht mit einem Fingerschnipp getan (mehr Pipelinestufen, mehr Massetransistoren etc) - aber Apple hat mittlerweile ein riesen CPU Team und die taltentiertesten Leute dieser Branche akquiriert. Ich habe wirklich keinen Zweifel daran, wenn Apple das will, sie eine kompetative CPU für Notebooks und später auch stationäre Geräte bringen kann.

Wenn man sich die Fortschritte anschaut, die die A-SoCs jedes Jahr machen und was Apple für Ressourcen und Talent hat... Zudem gibt es bei Intel seit Skylake keine neuen Cores mehr. Das sind fast 3,5 Jahre.

Zossel
2019-02-23, 07:48:27
Ich habe wirklich keinen Zweifel daran, wenn Apple das will, sie eine kompetative CPU für Notebooks und später auch stationäre Geräte bringen kann.

Können ja, aber verkauft Apple überhaupt genügend richtige Computer damit sich das lohnt? Und wie viele richtige Computer von Apple werden gekauft weil da auch Windows oder Linux drauf läuft?

robbitop
2019-02-23, 07:59:50
Keine Ahnung. Ich würde aber darauf tippen, dass das die Minderheit ist. Zumal man ja analog Qualcomm ja auch x86 Emulation nutzen könnte für Windows.
Und Linux Distributionen für ARM gibt es ja auch.

Der Fokus könnte auch in notebooks liegen. Ein Design ist skaliert sinnvoll im Faktor von 10 in Bezug auf tdp. Intel von rund 10-100W aktuell. Also könnte Apple auch einen guten Notebookprozessor mit ähnlichem Scaling machen. Oder man legt das Design etwas tiefer und hätte somit mehr Möglichkeiten für extra kleine NB oder höhere Akkulaufzeiten - dafür aber kein top of the line Produkt für (zahlenmäßig vermutlich weniger relevant) stationäre Geräte.

pixelguy
2019-02-23, 08:48:38
Ich denke, dass Apple schon alle Geräte nach und nach mit ARM ausstattet und nicht zweigleisig fährt.

Zossel
2019-02-23, 09:24:26
Ich denke, dass Apple schon alle Geräte nach und nach mit ARM ausstattet und nicht zweigleisig fährt.

Jedes Jahr für massig Kohle eine neue CPU raushauen, anstatt die Kohle über den Shareholdern abzuwerfen?

Und das bei weiter steigenden Kosten für Design und Masken?

MSABK
2019-02-23, 09:36:31
Jedes Jahr für massig Kohle eine neue CPU raushauen, anstatt die Kohle über den Shareholdern abzuwerfen?

Und das bei weiter steigenden Kosten für Design und Masken?

Vlt kommt das am Ende günstiger als Intel Cous zu verwenden. Ich kann mir bei Apple auch vorstellen, dass die Entwicklung bei Intel denen viel zu schleppend voran geht und man intern längst Alternativen testet/hat.

robbitop
2019-02-23, 09:49:21
Intel schreibt ihr RnD und ihre Tools ja auch ab. Dazu noch den Overhead und die Marge. Das zahlt man als Abnehmer mit. Insofern kann es gut sein, dass trotz der Investition in die Masken das Endprodukt günstiger ist.
Ich gehe davon aus, dass Apple glaubt, eine für ihre Geräte besser geeignete CPU machen zu können. Ggf ähnliche Performance bei deutlich mehr Akkulaufzeit oder aber ähnliche Akkulaufzeit bei mehr Leistung oder was dazwischen.
Ich kann mir beides gut vorstellen, wenn ich mir A12X und die Fortschritte, die Jahr um Jahr aus dieser Richtung kommen, so sehe.

Zossel
2019-02-23, 10:42:45
Intel schreibt ihr RnD und ihre Tools ja auch ab. Dazu noch den Overhead und die Marge. Das zahlt man als Abnehmer mit. Insofern kann es gut sein, dass trotz der Investition in die Masken das Endprodukt günstiger ist.

Wie viel CPUs setzt Intel für ein Design ab? Wie viel CPUs wird Apple für eine CPU absetzen können die für für richtige Computer taugt?

Ich gehe davon aus, dass Apple glaubt, eine für ihre Geräte besser geeignete CPU machen zu können. Ggf ähnliche Performance bei deutlich mehr Akkulaufzeit oder aber ähnliche Akkulaufzeit bei mehr Leistung oder was dazwischen.
Ich kann mir beides gut vorstellen, wenn ich mir A12X und die Fortschritte, die Jahr um Jahr aus dieser Richtung kommen, so sehe.

Apple wird dort genauso in die Sättigung kommen wie alle anderen Hersteller von CPUs, nur zu höheren Stückkosten.

steve.it
2019-02-23, 10:59:10
Apple wird dort genauso in die Sättigung kommen wie alle anderen Hersteller von CPUs, nur zu höheren Stückkosten.
Apple muss allerdings nicht den Intel-Aufpreis für eigene CPUs/SoCs zahlen.
So Chips wie der T2 werden ggf. überflüssig.

Iamnobot
2019-02-23, 11:05:15
Apple muss allerdings nicht den Intel-Aufpreis für eigene CPUs/SoCs zahlen.
Rein finanziell halte ich es aufgrund der vergleichsweise geringen Mac-Stückzahlen für unwahrscheinlich, dass sich ein Wechsel für Apple deswegen rechnet. Hintergrund sind - wenn der Umstieg kommen sollte - imho eher firmenstrategische Überlegungen wie Unabhängigkeit von Zulieferer(n). Ggf. erfolgt in dem Zug aber auch die Umstellung auf ein walled garden OS (wie es IOS ist). Dann sieht die Gesamtrechnung wegen der "Apple-Steuer" für Apps schon wieder anders aus.

Zossel
2019-02-23, 11:14:46
Ggf. erfolgt in dem Zug aber auch die Umstellung auf ein walled garden OS (wie es IOS ist). Dann sieht die Gesamtrechnung wegen der "Apple-Steuer" für Apps schon wieder anders aus.

Knastcomputer kann man auch mit X86 implementieren, und aufgrund der geringeren Stückzahlen generiert das mehr Shareholdervalue.

Iamnobot
2019-02-23, 11:20:41
Definitiv, ich wollte da auch keinen technisch zwingenden Zusammenhang herstellen. Ich halte aber die Akzeptanz bei einem solchen Komplettumstieg für höher, als wenn im x64 MacOS 10.18 auf einmal die entsprechenden Fähigkeiten vollständig rausfliegen.

pixelguy
2019-02-23, 17:05:35
Muss man denn die Desktop-Entwicklung komplett losgelöst von der Mobile-Entwicklung sehen? Entstehen da keine Synergien?

Zumal ich mir vorstellen kann, dass Apple mit einer eigenen CPU wesentlich stärker auf das eigene OS zuschneidet. Dies kann sich dann in besserer Akku-Laufzeit o.ä. niederschlagen.

Ist ja beim iPhone ähnlich

robbitop
2019-02-23, 17:27:44
Oder man legt sie so aus, dass sie gut zwischen Tablet und Notebook Formfaktor (über die eingestellte tdp) skaliert. Dann wäre kein zusätzlicher SoC nötig.

pixeljetstream
2019-02-23, 17:30:03
Durch das Auslaufen von OpenGL zwingen sie Desktop auch zur Modernisierung. Denke Desktop kriegen die dann mit ihren Mitteln auch wunderbar hin und können besser spezialisieren wo es nötig ist.

Ihr Gebiet bei Desktopkunden ist ja eher Medienlastig, ergo moderne API + ordentliche GPU und gut.

smalM
2019-02-23, 18:31:22
Eigentlich dürfte nur ein Chiplet-Design wie bei AMD in Frage kommen - aus demselben Grund: Zuviele Leistungsvarianten, zu kleine Produktionsmengen.
Dabei könnte Apple auf kleinere 4-Core-Chiplets setzen, dazu verschiedene I/O-Dies, je nach Anwendungsfall. Beim I/O-Die wären Versionen mit einer integrierten GPU denkbar (schon die vom A12X übertrifft ja Intels Iris Pro 580 in allen Bereichen), aber sie könnte auch als Chiplet eingebunden werden.
Man könnte die Entwicklung von CPU- und GPU-Chiplet sowie der I/O-Dies separieren und die Weiterentwicklung einzelner Komponenten zeitlich genau den eigenen Bedürfnissen anpassen. Dazu könnte sich Apple aus dem TSMC-Baukasten für jeden Part den geeignetsten Prozeß aussuchen.
Die kleinen Chiplet-Dies wären kostengünstiger herzustellen und im Falle der CPU würde sich die Stückzahl deutlich erhöhen, was auch noch die Entwicklungskosten pro Einheit drücken würde.

robbitop
2019-02-23, 18:55:32
Im Mobilbereich ungünstig. Signale aus dem Die raus kosten mehr Energie.
Apple hat vermutlich kein Problem was Liquidität angeht. Die machen Nägel mit Köpfen und machen eine extra Maske, wenn es ein eigenen SoC geben soll...

Zossel
2019-02-23, 19:26:27
Apple hat vermutlich kein Problem was Liquidität angeht. Die machen Nägel mit Köpfen und machen eine extra Maske, wenn es ein eigenen SoC geben soll...

Hier einfach noch mal die Summen um die es geht:

https://www.extremetech.com/wp-content/uploads/2018/06/nano3.png

Quelle: https://www.extremetech.com/computing/272096-3nm-process-node

Als Shareholder würde ich für so einen groben Unfug den Kopf von Tim Cook auf einem Silbertablett fordern.

pixelguy
2019-02-23, 23:19:02
Inwieweit kann man diese Zahlen auf Apple anwenden?
Die fangen ja nicht bei 0 an. Zudem wissen wir nicht, ob nicht bei den letzten CPUs schon in die Richtung Notebook/Desktop (mit)gedacht wurde?

Außerdem dürfte es etwas mehr sein als ein Gerücht. Wenn selbst Intel davon ausgeht, Apple in den nächsten Jahren als Kunden zu verlieren.

robbitop
2019-02-24, 01:11:18
Wenn AMD mit 2-3 Größenordnungen weniger Gewinn pro Jahr 2-3 Tapeouts machen kann und damit Geld verdienen kann, ist das für Apple ein Klacks.
Begründen wird man das sicherlich gut genug.

BoMbY
2019-02-24, 01:18:10
Warum sollte Apple ARM nutzen, wenn sie auch einfach von AMD statt Intel kaufen können. Viel zu teuer alles von x86 auf ARM zu portieren, nicht nur für Apple, sondern auch für Adobe & Co.

gravitationsfeld
2019-02-24, 02:01:23
Weil es ihre eigenen Chips sind. Apple will ueber alles volle Kontrolle.

Naitsabes
2019-02-24, 02:02:21
Die Kosten für Adobe und co interessieren Apple aber nicht sonderlich.
Insbesondere, da CC eh komplett für ios erscheinen soll/erschienen ist (?).

Locuza
2019-02-24, 02:19:00
Warum sollte Apple ARM nutzen, wenn sie auch einfach von AMD statt Intel kaufen können. Viel zu teuer alles von x86 auf ARM zu portieren, nicht nur für Apple, sondern auch für Adobe & Co.
Apple hat offensichtlich keinen Bock auf Abhängigkeiten und ist nicht langsam, wenn es darum geht etwas abzusägen oder zu erreichen.

Sie haben eine eigene Entwicklungsabteilung für CPU-Cores aufgebaut und früh auf Custom-Designs gesetzt.
Relativ neulich Imagination auf der GPU-Seite fallen gelassen und entwickeln solche Prozessoren nun selber.
Laut Gerüchten wird man in Zukunft auch selber Modem-Designs bauen.

Früher oder später läuft es wohl darauf hinaus, alles selber anbieten zu können, ohne auf andere angewiesen zu sein.

Bei der Software kontrolliert Apple zwei große Betriebssysteme, mitsamt den Appstores und hat völlige Kontrolle.
Apple genießt einen großen Software-Support und ist auch nicht zimperlich, wenn es darum da etwas zu forcieren und zu ändern.
Den Umstieg zu High DPI hat man wesentlich besser umgesetzt, als Windows, 32-Bit Apps früh abgesägt und OGL (ES)/OCL ist effektiv auch weg vom Fenster und man beliefert und entwickelt eine eigene API, welche man als Entwickler auch schlucken muss.

Adobe will übrigens Photoshop für das iPad in diesem Jahr veröffentlichen, welche auf die gleiche Codebasis setzt, wie die Desktop-Ableger:
https://www.golem.de/news/bildbearbeitung-photoshop-vollversion-soll-2019-aufs-ipad-kommen-1810-137130.html

Zossel
2019-02-24, 06:35:23
Inwieweit kann man diese Zahlen auf Apple anwenden?

Stimmt, Apple Produkte werden ja in einem Paralleluniversum mit anderer Physik entwickelt und gefertigt und durch ein Wurmloch an den Kunden geliefert.

Die fangen ja nicht bei 0 an.

Stimmt ja auch wieder, alle anderen Firmen schmeißen ihr Know-How vor der Entwicklung neuer Produkte komplett weg und entwickeln alles immer from scratch. Nur Apple ist so schlau und nutzt das Know-How der Vorgängerprodukte.

Zossel
2019-02-24, 06:39:30
Früher oder später läuft es wohl darauf hinaus, alles selber anbieten zu können, ohne auf andere angewiesen zu sein.

Hochmut kommt vor dem Fall, solche Fixkostenblöcke haben schon ganz andere Butzen implodieren lassen.

Locuza
2019-02-24, 07:52:19
Schon ganz andere Butzen implodieren lassen?
Dann würde ich mal hoffen das so eine kleine Klitsche wie Apple weiß worauf sie sich einlässt ;)

Apple ist einer der Topkonzerne und hat ein führendes CPU-Team bei ARM-Designs und trägt die Fixkosten seit Jahren und erhöht das Investment seit Jahren.
Hat das denen bisher geschadet?

Und da sie die Kosten für die Entwicklung eines Designs schon tragen, ist es kein großer Sprung mehr das vorhandene Investment anderweitig auszunutzen und z.B. noch ein extra Design für Macs herzustellen.

Apple muss auch nicht jede Produktlinie völlig mit eigenen ARM-Geräten ersetzen.
Und selbst wenn es geringe Absatzzahlen gäben sollte oder etwas schief läuft, es gibt so viele Möglichkeiten im Bedarf zu reagieren.

robbitop
2019-02-24, 08:15:37
Zumal das Umschreiben für die Devs wahrscheinlich unproblematisch wird. Apple hat ja auch die SDKs entwickelt. Die werden wie damals von Power auf x86 das SDK updaten und entsprechend kann der Entwickler seine Software auf ARM automatisiert auf ARM neukompilieren. Und als Zwischenlösung gibt es eine x86 Emulation. Wäre ja nicht das erste Mal.

steve.it
2019-02-24, 09:25:50
Bei der Software kontrolliert Apple zwei große Betriebssysteme, mitsamt den Appstores und hat völlige Kontrolle.

+ Compiler + Programmiersprache(n) + Entwicklungsumgebung

....

+ die Option das Instruction Set von ARM für eigene Bedürfnisse und Vorstellungen anpassen zu können, da Apple Betriebsysteme nur auf Apple Hardware laufen müssen.

Zumal das Umschreiben für die Devs wahrscheinlich unproblematisch wird. Apple hat ja auch die SDKs entwickelt. Die werden wie damals von Power auf x86 das SDK updaten und entsprechend kann der Entwickler seine Software auf ARM automatisiert auf ARM neukompilieren. Und als Zwischenlösung gibt es eine x86 Emulation. Wäre ja nicht das erste Mal.

Bin kein Programmierer. Der Switch auf ARM wäre allerdings mit Sicherheit deutlich einfacher als damals, was das Portieren betrifft. Die ganzen Altlasten, die es beim PPC-Intel-Switch gab, gibt es mittlerweile nicht mehr. Alle aktuellen Anwendungen liegen auch in 64 Bit vor. 32 Bit spielt ebenfals keine Rolle mehr. OK, OpenGL und OpenCL wird mitlerweile als Altlast angesehen, da man auf Metal setzt. Das OpenGL/CL Problem hätte man allerdings auch auf Intel Macs. In vielen Fällen ist es dann vermutlich wirklich nicht viel mehr als ein Häkchen setzen bei ARM64 in xcode (CPU nahe Dinge ausgenommen).

ChaosTM
2019-02-24, 09:42:15
ARM wird früher oder später (eher ersteres) auch den PC Bereich übernehmen.

CISC ist tot bzw sollte schon seit Jahrzehnten tot sein.

steve.it
2019-02-24, 09:45:33
ARM wird früher oder später (eher ersteres) auch den PC Bereich übernehmen.

CISC ist tot bzw sollte schon seit Jahrzehnten tot sein.

Linus Torvalds pulls pin, tosses in grenade: x86 won, forget about Arm in server CPUs, says Linux kernel supremo
https://www.theregister.co.uk/2019/02/23/linus_torvalds_arm_x86_servers/

bbott
2019-02-24, 11:00:05
ARM wird früher oder später (eher ersteres) auch den PC Bereich übernehmen.

CISC ist tot bzw sollte schon seit Jahrzehnten tot sein.

LOL. x86 ist intern RISC (und CISC) und kann CISC und RISC Befehle verarbeiten, die CISC Diskussion ist seit Jahrzehnten vorbei. Reines RISC und CISC ist quasi tot.

ARM ist der wie vielte mARC die x86 herausfordert und bisher sind alle gescheitert?! Nur weit Intel im Tiefschlaf Modus seit der 3. I7 Serie ist Schein ARM relativ stark, Aufgrund schwacher Konkurrenz ändert sich das 2020.

Du hast scheinbar auch noch nicht Verstanden warum x86 so erfolgreich ist, aber Intel auch nicht Atom als ARM konkurent). Stichwort: Software Kompatibilität.

ChaosTM
2019-02-24, 11:07:16
Software Kompatibilität ist das einzige was x86 noch am Leben hält.
Die Architektur ist einfach nicht mehr zeitgemäß.

Solange wir für Energie bezahlen müssen, wir Performance/Watt letztendlich der entscheidende Faktor sein.

Relic
2019-02-24, 12:42:00
Software Kompatibilität ist das einzige was x86 noch am Leben hält.
Die Architektur ist einfach nicht mehr zeitgemäß.

Solange wir für Energie bezahlen müssen, wir Performance/Watt letztendlich der entscheidende Faktor sein.

Perfomance/watt kann aber auf einem x86 genauso gut sein wie auf einem ARM Prozessor.. das hat mit dem Instruction set nichts zu tun sondern mit der Architektur...

urpils
2019-02-24, 12:51:23
ARM ist der wie vielte mARC die x86 herausfordert und bisher sind alle gescheitert?! Nur weit Intel im Tiefschlaf Modus seit der 3. I7 Serie ist Schein ARM relativ stark, Aufgrund schwacher Konkurrenz ändert sich das 2020.

Du hast scheinbar auch noch nicht Verstanden warum x86 so erfolgreich ist, aber Intel auch nicht Atom als ARM konkurent). Stichwort: Software Kompatibilität.

1. x86 ist aber verhältnismäßig auf dem Rückzug - dank Smartphone-Boom werden die meisten Prozessoren mit ARM-Architektur produziert - und dementsprechend steigert sich dort das Knowhow

2. die Kompatibilität ist für Apple ziemlich Wurscht. Die sind einfach Experten im Plattfrom-Wechsel. Die haben schon zigmal bewiesen, dass sie das auf ner halben Arschbacke im Vorbeigehen machen: Motorola → PowerPC → Intel; 32 zu 64 bit... und das ist nur MacOS.

Apple kontrollier den kompletten Entwicklungs-Stack - wenn die jetzt noch den Hardwareunterbau kontrollieren, hat das nur Vorteile für sie.

Perfomance/watt kann aber auf einem x86 genauso gut sein wie auf einem ARM Prozessor.. das hat mit dem Instruction set nichts zu tun sondern mit der Architektur...

theoretisch vielleicht - aber praktisch zeigt sich davon nix. Intel hat zu viele Roadmaps gerissen und Apple musste darunter in ihrer Mac/Notebook-Front bluten. Diese Abhängigkeit von einem unzuverlässigen Partner möchte sich Apple nunmal nicht mehr geben, wenn sie es selbst besser können bzw. zumindest kontrollieren können.

Apple hat keinerlei Einfluss darauf, ob Intel mit seinen Architekturen und/oder Fertigungslienien voran kommt. Wenn sie das selbst machen können sie im Zweifel eben Geld drauf schmeißen oder sich zumindest langfristig drauf einstellen Probleme selbst in den Griff zu bekommen.

Aus Apples Sicht ist der Switch zu Arm eigentlich höchst logisch.

pixeljetstream
2019-02-24, 12:57:37
Ein weiterer Vorteil ist, dass sie bei voller Kontrolle dann auch echten Mehrwert und Differenzierung bieten können. Wenn man schon Premiummarke ist, erwarten die Leute auch etwas was es woanders nicht gibt.

Ganon
2019-02-24, 12:59:58
Schon ganz andere Butzen implodieren lassen?
Dann würde ich mal hoffen das so eine kleine Klitsche wie Apple weiß worauf sie sich einlässt ;)

Ganz so stabil würde ich Apple noch nicht sehen. Ihre Haupteinnahmequelle ist das iPhone und was halt dazu gehört (AppStore und Co.) mit abnormal hohen Margen. Die Mac-Sparte verschimmelt ja jetzt schon und läuft bei Apple schon seit Jahren auf Sparflamme. Eine Zusammenführung mit iOS ist sicherlich nur eine Frage der Zeit. iOS Apps sollen ja (langfristig) auch First-Class macOS Anwendungen werden können.

Wenn jetzt irgendwas im Markt passieren sollte, was den iPhone Markt zu Schaffen macht, dann würde auch so ein "Top-Konzern" wie Apple ins straucheln geraten. In den 90ern hat Apple auch sehr viele Komponenten in den Macs selbst gebaut und man hat ja gesehen wohin das geführt hat.

Ich glaube auch, dass Apple aktuell sehr sehr viel auf eine Karte setzt und hofft, dass die Kunden und Entwickler wiedereinmal mitgehen. Ob das der Fall sein wird, muss sich zeigen. Mir fallen spontan einige Firmen und Institute ein, die an einem ARM Mac kein Interesse hätten, weil die Macs mehr Außenwirkungs-Design-Objekte sind und dort ein normales x86-Windows drauf läuft. Ob man dort ggf. ein ARM-Windows will, sofern das Apple erlaubt, müsste sich auch erst zeigen. Auch die Mac-Nutzer in meinem Umfeld rümpfen bei der Idee auf ARM umzusteigen auch eher die Nase, weil so ziemlich alle auch Windows drauf haben zum Zocken und Co.

bbott
2019-02-24, 13:01:57
Solange wir für Energie bezahlen müssen, wir Performance/Watt letztendlich der entscheidende Faktor sein.

Bis ca 10 W ist ARM im Vorteil, aber ab spätestens 50 W dreht sich das W/Perf Verhältnis. ARM braucht deutlich mehr Cores, wir sehen im Desktp und Serverbereich das sich nicht alle Aufgaben beliebig auf Cores verteilen lassen und die SingleCore Leistung von ARM ist bescheiden. Zumal manche Arms schon mehr Pipliens haben als breiter sind als x86 er Cores.
Bis her habe ich nur ARM optimierte Benches gesehen welche auch auf x86 laufen.

Es gibt noch viele weitere Faktoren die x86 einen Vorteil bringen. Es kann ohne große Optimierungen sehr viel Performance erreicht werden, dass kann auch ARM nicht in diesem Umfang.
Außerdem wurde x86 im Jahre 2003 mit x86-64 deutlich modernisiert. Das heutige x86 hat mit dem ursprünglichem x86 nicht mehr viel gemeinsam. In diesem Fall gilt nicht neu ist immer besser.

Es wird grob bei der Einteilung ARM mobil und x86 für Notebooks, Desktop und Server bleiben. Ein wildern wird im anderen Segment vorkommen, aber solange sich nichts grundlegendes ändert wird es keinen durchbruch geben.

Selbst AMD z. B. hat Probleme im Server Segment Fuß zufassen obwohl die Software Kompatibilität gegeben ist. Dann sollen Rechenzentren auf ARM wechseln mit noch mehr Unsicherheiten und Risiken?! Außer den Großen z. B. Google macht keiner solche Experimente. Auch der Vorteil ist sehr gering und eher akademischer Natur.

Iamnobot
2019-02-24, 13:08:44
Intel hat zu viele Roadmaps gerissen und Apple musste darunter in ihrer Mac/Notebook-Front bluten. Diese Abhängigkeit von einem unzuverlässigen Partner möchte sich Apple nunmal nicht mehr geben, wenn sie es selbst besser können bzw. zumindest kontrollieren können.
Der jahrelange Stillstand bei Mac Mini und Pro sieht für mich ziemlich selbstgewählt aus.

Eine Zusammenführung mit iOS ist sicherlich nur eine Frage der Zeit.
So schätze ich das auch ein.

amdfanuwe
2019-02-24, 13:23:13
Letztendlich wird alles auf ALU, Float-Einheiten etc. ausgeführt. Den Einheiten ist es egal, von welchem Instruction Set der Befehl zur Mutiplikation, Vergleichen, Division etc. kommt.
Ist Sache der Architekur, wieviele dieser Einheiten wie zur Verfügung stehen, wie diese ausgelastet werden können, ob Energiesparende oder Performante Einheiten verwendet werden....

Hatte vor ein paar Jahren hardwarenah mit ARM zu tun. Für eine Read-Modify-Write Operation mußten erst mal die Interrupts gesperrt werden, damit die Operation wirklich Atomar ausgeführt wird. Anschließend Interrupts freischalten nicht vergessen. Riesen Overhead.
Bei X86 ist diese RMW Operation im Befehssatz enthalten. Nur mal so als Beispiel.
Gibt noch andere Beispiele, bei denen X86 komplexe Operationen mit wenigen Befehlen ausführt wo ARM mehrere Befehle braucht. Das führt bei ARM zu größeren Programmcode und größerer benötigter Speicherbandbreite.
Letztendlich programmiert keiner mehr in Assembler und in C, C++ etc. ist es egal, ob ARM oder X86. Ein ein guter Compiler optimiert besser, als man von Hand programmieren kann. Und wenn man doch mal Assembler Code benötigt, schreibt man die Funktion in C, läßt sich den erzeugten Assembler Code ausgeben und passt diesen dann an.

Habe früher auch geflucht, warum X86 und nicht die schöne Motorola Architektur, oder National Semiconductor oder Transputer oder, oder, oder. Warum Microsoft Office. Warum VHS und nicht Betamax oder Video 2000.
Warum x und nicht y.
Mittlerweile hab ich gelernt: Man verwendet das was man kennt, funktioniert, verfügbar ist, eine gute Unterstützung hat bei Problemen.

Windi
2019-02-24, 13:55:15
Der Grund, weshlab so viele Frimen auf ARM Technik setzen ist wohl eher, das man sie frei lizensieren und verbauen kann.

Bei gleicher Leistung werden wohl beide Architekturen ähnlich viel verbrauchen. Natürlich nur wenn beide Chips für den selben Arbeitspunkt optimiert wurden.

Nur, was konnte man denn früher bei AMD/Intel bestellen? Nur fertige Prozessoren, die man dann mit einem Chipsatz kombinieren musste. Auch hatten Beide keine Prozessoren im Angebot, die auf extrem sparsame und kleine Geräte angepasst waren.
Mit ARM konnte man sich hingegen seinen eigenen SoC zusammenstellen und genau an die eigenen Bedürfnisse anpassen.
Das war der Einstieg für viele Firmen in das Prozessorgeschäft. Dank der Einnahmen konnte man nun die ARM-Architekturen weiter entwickeln und immer besser machen

Ich sehe keine großen technischen Unterschiede zwischen x86 und ARM.
ARM bietet aber den gigantischen Vorteil, das man mittlererweile aus einem gigantischen Produktkatalog alles mögliche lizensieren und zusätzlich noch Eigenentwicklungen integrieren kann.

Das bietet x86 nicht.
Es könnte sich etwas bessern, wenn Intel anderen erlaubt mittels aktivem Interposer und EMIB Brücken ihre Systeme zu erweitern.
AMD hätte noch die Möglichkeit ihre Chiplets einzeln zu verkaufen, aber dann wäre es wahrscheinlich besser wenn die Kerne beide Befehlssätze beherschen würden.
Das sind aber nur Lösungen für größere, teurere und nicht ganz so stromsparende Systeme.

AMD und Intel haben da einen wichtigen neuen Trend verschlafen und schaffen es nun nicht mehr die neue Konkurrenz zurück zu drängen.
Man hätte viel mehr auf kleine und sparsame Prozessorkerne setzen müssen, die dann die Kunden in ihre eigenen Designs integieren können. Das wollte man nicht, die Lücke hat man gelassen und jetzt ist die Konkurrenz da.

ChaosTM
2019-02-24, 14:06:28
Bis ca 10 W ist ARM im Vorteil, aber ab spätestens 50 W dreht sich das W/Perf Verhältnis. ARM braucht deutlich mehr Cores, wir sehen im Desktp und Serverbereich das sich nicht alle Aufgaben beliebig auf Cores verteilen lassen und die SingleCore Leistung von ARM ist bescheiden. Zumal manche Arms schon mehr Pipliens haben als breiter sind als x86 er Cores.
Bis her habe ich nur ARM optimierte Benches gesehen welche auch auf x86 laufen.

Es gibt noch viele weitere Faktoren die x86 einen Vorteil bringen. Es kann ohne große Optimierungen sehr viel Performance erreicht werden, dass kann auch ARM nicht in diesem Umfang.
Außerdem wurde x86 im Jahre 2003 mit x86-64 deutlich modernisiert. Das heutige x86 hat mit dem ursprünglichem x86 nicht mehr viel gemeinsam. In diesem Fall gilt nicht neu ist immer besser.

Es wird grob bei der Einteilung ARM mobil und x86 für Notebooks, Desktop und Server bleiben. Ein wildern wird im anderen Segment vorkommen, aber solange sich nichts grundlegendes ändert wird es keinen durchbruch geben.

Selbst AMD z. B. hat Probleme im Server Segment Fuß zufassen obwohl die Software Kompatibilität gegeben ist. Dann sollen Rechenzentren auf ARM wechseln mit noch mehr Unsicherheiten und Risiken?! Außer den Großen z. B. Google macht keiner solche Experimente. Auch der Vorteil ist sehr gering und eher akademischer Natur.


Danke - sehr informativer post

Dank auch an Windi und amdfanuwe

Zossel
2019-02-24, 15:24:37
Es kann ohne große Optimierungen sehr viel Performance erreicht werden, dass kann auch ARM nicht in diesem Umfang.

Kannst du das bitte mal näher erläutern

Außerdem wurde x86 im Jahre 2003 mit x86-64 deutlich modernisiert. Das heutige x86 hat mit dem ursprünglichem x86 nicht mehr viel gemeinsam. In diesem Fall gilt nicht neu ist immer besser.

ARM64 ist auch noch nicht sooo alt.

danarcho
2019-02-24, 15:31:45
Bis ca 10 W ist ARM im Vorteil, aber ab spätestens 50 W dreht sich das W/Perf Verhältnis.
Das hat einfach rein gar nichts mit der ISA zu tun. Wenn Apple seine arch auf 50W auslegt, wird die von der IPC und Takt wahrscheinlich in ähnlichen Gefilden landen.
Letztendlich programmiert keiner mehr in Assembler und in C, C++ etc. ist es egal, ob ARM oder X86. Ein ein guter Compiler optimiert besser, als man von Hand programmieren kann.
Urban legend. Der einzige Grund ist portability und Zeitaufwand (inkl Debugging). Kein Compiler kommt auch nur in die Nähe von handoptimiertem asm.

amdfanuwe
2019-02-24, 17:16:18
Kein Compiler kommt auch nur in die Nähe von handoptimiertem asm.
Q.E.D.

Zossel
2019-02-24, 17:52:02
Q.E.D.

Hier sind Beispiele für handgemachten Assembler: https://git.zx2c4.com/WireGuard/tree/src/crypto/zinc

danarcho
2019-02-24, 19:29:43
Q.E.D.
Deine Ironie kannst du dir an der Stelle sparen. Ich schreibe beruflich Compiler und behaupte mal zu wissen, wovon ich rede.
Ich sehe praktisch täglich nicht optimale code pattern, die für Compiler nur sehr schwer aufzulösen sind. Die Heuristiken sind mittlerweile ziemlich gut, und vielleicht auch den assembler Künsten einiger Hobby-Programmierer überlegen, aber von Perfektion sind wir noch ein gutes Stück entfernt.

urpils
2019-02-24, 19:53:49
Bis ca 10 W ist ARM im Vorteil, aber ab spätestens 50 W dreht sich das W/Perf Verhältnis. ARM braucht deutlich mehr Cores, wir sehen im Desktp und Serverbereich das sich nicht alle Aufgaben beliebig auf Cores verteilen lassen und die SingleCore Leistung von ARM ist bescheiden. Zumal manche Arms schon mehr Pipliens haben als breiter sind als x86 er Cores.
Bis her habe ich nur ARM optimierte Benches gesehen welche auch auf x86 laufen.


wovon redest du denn?

"we see that the A12 outperforms a moderately-clocked Skylake CPU in single-threaded performance."

https://www.anandtech.com/show/13392/the-iphone-xs-xs-max-review-unveiling-the-silicon-secrets/4

und das it SPEC2006 Energy, Performance und Efficiency Maßstäben.

Das bezieht sich auf den aktuellen Smartphone(!) SoC → Es hat rein gar nicht mit "ARM als Architektur" zu tun, dass sie das nicht anderweitig (für Desktop/Notebook) auslegen können.

Edit: hier noch genauere Daten, die deiner IPC-Behauptung widersprechen..

https://www.reddit.com/r/apple/comments/9midcx/apple_really_undersold_the_a12_cpu_its_almost/

"Core-for-Core Apple’s A12 has a a higher IPC and at least 50% better Perf/Watt than competing chips" (Chips detests: Apple A12, Xeon 8176, I7 6700k, Epic 7601)

bbott
2019-02-24, 20:56:45
Ich habe nicht von ipc sondern IPS gesprochen und wie seiht es mit FP aus?! GEEK wurde immer als Vergleich herangezogen, was definitiv sehr ARM freundlich ist.

Zudem wie viel wurde wirklich von der CPU berechnet und nicht durch Beschleunigungseinheiten?

urpils
2019-02-24, 21:10:55
Ich habe nicht von ipc sondern IPS gesprochen und wie seiht es mit FP aus?! GEEK wurde immer als Vergleich herangezogen, was definitiv sehr ARM freundlich ist.

Zudem wie viel wurde wirklich von der CPU berechnet und nicht durch Beschleunigungseinheiten?

Dann schau dir doch einfach die Links an, die ich gepostet habe. Specint und specfp.

Hab die extra gewählt, weiblich von Geekbench nicht viel halte, was Vergleich von Architekturen angeht - eben das von dir erwähnte vergleichbarkeitsproblem. Bei Geekbench sind die „Vorteile“ für die Apple Chips noch größer...

Ganon
2019-02-24, 21:25:58
Interessanter ist eher, wie viel von der Performance in all den (Micro-)Benchmarks durch den recht großen L1 und L2 Cache kommen. Das ist natürlich kein cheaten oder sowas und durchaus valide Performance, die aber bei größeren heterogenen Multithread-Workloads durchaus dahinpurzeln kann. Ist nur leider schwer zu ermitteln, da man entsprechende Software nur schwer auf diese Systeme bringen kann, wo die CPU verbaut ist.

Dass eine top-aktuelle 7nm CPU eine uralte 14nm CPU sowohl in Performance als auch Stromverbrauch schlagen kann, ist jetzt nicht so verwunderlich an sich. Intel hat halt aktuell Probleme.

bbott
2019-02-24, 22:33:36
Ich sehe das auch Werte mit 44 vs. 108 und das bei einer 3 Jahre älteren CPU mit 14nm vs. 7nm. Ich würde vom letzten CPUs eher auf eine Intel als auf eine x86er Schwäche schließen. AMDs Ryzen hat Intel aus dem Dornröschenschlaf erwachen lassen.

Den Untergang des Abend Landes sehe ich derzeit nicht. Die Wintel Stärke ist ungebrochen und ob Apple auf ARM wechseln spielt für x86 kaum eine Rolle. Für PS5 und Xbox Two ist x86 wohl gesetzt. Auch wurden Gründe genannt das wenn Apple auf ARM wechseln Apple definitiv Kunden verlieren wird. U. a. weil Kunden nicht auf Windows verzichten können oder wollen und ein ARM Windows von vornherein zum Scheitern verurteilt ist, da Windows aus Kompatibilitätsgründen genutzt wird und dieser Grund bei einer ARM Version wegfällt.
Welche Kunden würde Apple ich eine ARM versionen gewinnen ? Außer einer Kundenbindung sehe ich direkt keinen Vorteil für Apple und der potentiellen Kostenreduktion.

Kallenpeter
2019-02-24, 22:34:07
Dass eine top-aktuelle 7nm CPU eine uralte 14nm CPU sowohl in Performance als auch Stromverbrauch schlagen kann, ist jetzt nicht so verwunderlich an sich. Intel hat halt aktuell Probleme.

Was jetzt aber nicht gerade gegen ARM Macs spricht.

bbott
2019-02-24, 22:37:07
Ich vergaß bei ARM sind häufig weniger Schnittstellen wie SATA oder PCI Express die von den Chipsätzen hergestellt werden was ebenfalls den Stromverbrauch deutlich besser aussehen lässt.

amdfanuwe
2019-02-24, 22:47:11
Ich schreibe beruflich Compiler und behaupte mal zu wissen, wovon ich rede.
Ich sehe praktisch täglich nicht optimale code pattern, die für Compiler nur sehr schwer aufzulösen sind.
OK, da bin ich bei dir. Ich komme von der hardwarenahen Programmierung. Da mußte ich des öfteren das Compilat anschauen und lernte unter Berücksichtigung der Compilereigenschaften und der Hardwarearchitektur optimierten C/C++ Code zu erstellen. Da hatte der Compiler nicht mehr viel zu tun.
Konnte dadurch einige Codestellen enorm beschleunigen und daher auch meine Ansicht, dass guter C/C++ Code genauso gut sein kann wie Assembler Code.
Wie du sagst, "nicht optimale code pattern" habe ich auch oft genug gesehen und fabriziert :redface: . Habe mich auch über Kollegen aufgeregt, die ihren Code reinhacken und Hauptsache es läuft. Wenn das Programm zu träge ist, braucht man halt nen schnelleren Rechner :freak:
Was solls, das Programm muß zum Kunden, optimieren können wir ja später ( wozu man natürlich nie Zeit bekommt ).
Also, nichts für ungut.

steve.it
2019-02-24, 23:22:23
U. a. weil Kunden nicht auf Windows verzichten können oder wollen und ein ARM Windows von vornherein zum Scheitern verurteilt ist, da Windows aus Kompatibilitätsgründen genutzt wird und dieser Grund bei einer ARM Version wegfällt.

Das wird Apple NULL interessieren. Da bin ich mir recht sicher.

Und die Anzahl der Macuser, die wirklich auf ein Windows angewiesen sind bzw. für die das entscheidend ist, dürfte auch recht klein sein.

Ganon
2019-02-24, 23:58:57
Was jetzt aber nicht gerade gegen ARM Macs spricht.

Spricht natürlich nichts dagegen. Anfang bis Mitte der 90er war PowerPC auch in so ziemlich allen Kategorien x86 überlegen. Wie das ausgegangen ist, haben wir ja gesehen. Zur Zeit des Pentium 4 und den 90nm-Problemen hatte man Intel auch schon abgeschrieben. Wie das ausgegangen ist, haben wir ja auch gesehen. Auch AMD legt gerade gut nach was nur nicht betrachtet wird weil Apple, aus welchen Gründen auch immer, AMD CPUs komplett ignoriert.

Ist natürlich keine Garantie, dass Intel hier irgendwas in naher Zukunft entgegenzusetzen hat, aber es besteht auch keine Garantie, dass Apple den Fortschritt in ihrer CPU Entwicklung bis in alle Ewigkeit so fortführen kann.

Es ist halt aktuell alles eine recht verzogene Bestandsaufnahme und spannend wird es imo erst, wenn entweder Intel ihre Fertigungsprobleme (inkl. Meltdown/Spectre Bugfixes) überwunden hat oder AMD ihre <=7nm CPU/APUs verfeinert hat / raus bringt.

Und die Anzahl der Macuser, die wirklich auf ein Windows angewiesen sind bzw. für die das entscheidend ist, dürfte auch recht klein sein.

Zumindest in meinem Bekanntenkreis / Filterblase freut sich keiner auf ARM Macs. Niemand von denen hat großartig Interesse an einem iPad mit angebauter Tastatur, um es mal so zu sagen. Ob und wie weit Apple dann WindowsOnARM unterstützt, könnte den ein oder anderen noch dazu bewegen doch noch zuzugreifen, aber einen quasi Komplettverlust sämtlicher Software würden die wenigsten hinnehmen.

Das entscheidet auch, wie viele der Leute, die sich Macs als Design-Objekt mit Windows ins Büro, Rezeption und Co. hinstellen, dann weiterhin zugreifen.

Alles imo auch noch sehr wackelig und es wird interessant, wie es nach einem Verkaufs-Peak der Hardcore-Fans langfristig aussehen würde.

Zossel
2019-02-25, 07:58:03
Konnte dadurch einige Codestellen enorm beschleunigen und daher auch meine Ansicht, dass guter C/C++ Code genauso gut sein kann wie Assembler Code.

Ich habe oben ja handgeschnitzten Code gepostet: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11935823&postcount=3410

Die Entwickler von Wireguard würden sich bestimmt über eine generische Version in C freuen die genauso schnell ist wie die verschiedenen Assembler Versionen.

Das wird Apple NULL interessieren. Da bin ich mir recht sicher.

Ein Unternehmen welches sich NULL dafür interessiert seine Produkte abzusetzen wird irgendwann Probleme bekommen.

Applekisten könnte man auch schon jetzt untauglich für Windows machen, wahrscheinlich per Update auch für bereits verkaufte Geräte.

urpils
2019-02-25, 08:44:23
Ich sehe das auch Werte mit 44 vs. 108 und das bei einer 3 Jahre älteren CPU mit 14nm vs. 7nm. Ich würde vom letzten CPUs eher auf eine Intel als auf eine x86er Schwäche schließen. AMDs Ryzen hat Intel aus dem Dornröschenschlaf erwachen lassen.

Den Untergang des Abend Landes sehe ich derzeit nicht. Die Wintel Stärke ist ungebrochen und ob Apple auf ARM wechseln spielt für x86 kaum eine Rolle. Für PS5 und Xbox Two ist x86 wohl gesetzt. Auch wurden Gründe genannt das wenn Apple auf ARM wechseln Apple definitiv Kunden verlieren wird. U. a. weil Kunden nicht auf Windows verzichten können oder wollen und ein ARM Windows von vornherein zum Scheitern verurteilt ist, da Windows aus Kompatibilitätsgründen genutzt wird und dieser Grund bei einer ARM Version wegfällt.
Welche Kunden würde Apple ich eine ARM versionen gewinnen ? Außer einer Kundenbindung sehe ich direkt keinen Vorteil für Apple und der potentiellen Kostenreduktion.

wir haben da sehr unterschiedliche Perspektiven:
- du bestätigst ja das was ich zuvor schon erwähnte: Intel ist ein schlechter und unzuverlässiger Partner für Apple. x86 oder ARM haben inhärent (mittlerweile) keine Unterschiede mehr, die die Endperformance betreffen. Aber Intel hat jetzt über Jahre Probleme gehabt, Mist gebaut und unzuverlässig Fortschritt geliefert.
Apple kann das offensichtlich (das haben sie über die letzten Jahre bewiesen) deutlich besser. Dementsprechend wollen sie sich von Intel lösen. Intel hat Trends verpasst, Fertigungsprobleme, wegen fehlender Konkurrenz keinen Innovationsdruck verspürt - und jetzt einfach darauf zu hoffen, dass es irgendwie besser wird ist für ein Unternehmen von Apples Größe einfach unlogisch.

- Wo eine "Wintel"-Stärke bestehen soll musst du auch noch erklären. klassische Desktops/Notebooks sowie klassische Desktopbetriebssysteme sind eher auf dem absteigenden Ast. Für "Endverbraucher" findet Computing mittlerweile hauptsächlich auf Smartphones/Tablets statt - und die sind zum größten Teil weder von Intel noch von Microsoft bedient.

- Für Konsolen spielt x86 keine Rolle. Nur weil AMD eben dort ein gutes Angebot machen kann wird es hat genutzt. Aber Sony nutzt weder Windows (eine BSD/Unix-Abart haben die selbst gebastelt) noch Intel. Also was hier eine "Wintel"-Stärke sein soll - unklar. Und Selbst Microsoft setzt auf AMD statt Intel bei der nächsten Xbox...

- und dass durch ARM irgendetwas wegfällt muss sich erst noch zeigen. In der Vergangenheit hat Apple hier immer irgendwelche tauglichen Lösungen geboten. Sei es über Emulation/Virtualisierung/.... oder was auch immer. In Meinem Bekanntenkreis nutzt niemand ein "echt installiertes" Windows. Vielleicht 25% nutzen für manche Software VMWare oder ähnliches - damit hat es sich...
klar könnte das für manche ein "NoGo" sein... wenn die Vorteile aber überwiegen (längere Akkulaufzeit, bessere Leistung, bessere Designs,...) dann überlegt es sich mancher dann doch.

- Natürlich gibt es da potentielle Konflikte - inwiefern alle Unix-Tools problemlos einfach auf ARM überführt werden muss sich zeigen - aber da ist die Community mit z.B. homebrew recht schnell dabei. (https://brew.sh)

Spricht natürlich nichts dagegen. Anfang bis Mitte der 90er war PowerPC auch in so ziemlich allen Kategorien x86 überlegen. Wie das ausgegangen ist, haben wir ja gesehen. Zur Zeit des Pentium 4 und den 90nm-Problemen hatte man Intel auch schon abgeschrieben. Wie das ausgegangen ist, haben wir ja auch gesehen. Auch AMD legt gerade gut nach was nur nicht betrachtet wird weil Apple, aus welchen Gründen auch immer, AMD CPUs komplett ignoriert.

Ist natürlich keine Garantie, dass Intel hier irgendwas in naher Zukunft entgegenzusetzen hat, aber es besteht auch keine Garantie, dass Apple den Fortschritt in ihrer CPU Entwicklung bis in alle Ewigkeit so fortführen kann.

Es ist halt aktuell alles eine recht verzogene Bestandsaufnahme und spannend wird es imo erst, wenn entweder Intel ihre Fertigungsprobleme (inkl. Meltdown/Spectre Bugfixes) überwunden hat oder AMD ihre <=7nm CPU/APUs verfeinert hat / raus bringt.

Zumindest in meinem Bekanntenkreis / Filterblase freut sich keiner auf ARM Macs. Niemand von denen hat großartig Interesse an einem iPad mit angebauter Tastatur, um es mal so zu sagen. Ob und wie weit Apple dann WindowsOnARM unterstützt, könnte den ein oder anderen noch dazu bewegen doch noch zuzugreifen, aber einen quasi Komplettverlust sämtlicher Software würden die wenigsten hinnehmen.

Das entscheidet auch, wie viele der Leute, die sich Macs als Design-Objekt mit Windows ins Büro, Rezeption und Co. hinstellen, dann weiterhin zugreifen.

Alles imo auch noch sehr wackelig und es wird interessant, wie es nach einem Verkaufs-Peak der Hardcore-Fans langfristig aussehen würde.

Was du sagst kann ich verstehen - aber ich glaube, dass Apple das anders sieht: Klar könnte es sein, dass Apple irgendwann scheiße baut. Und klar kann es sein, dass Intel wie Phoenix aus der Asche aufersteht - aber v.a. die strategischen Entscheidungen Intels und der Trackrecord der letzten Jahre sprechen eine andere Sprache.

Apple kann selbst beeinflussen wie sie ihre Prozessoren gestalten. Die können Geld ausgeben wenn sie mehr wollen - oder ihre Roadmaps anpassen. Bei Intel sind sie einfach ausgeliefert und müssen das schlucken was auch alle Anderen bekommen → für Apple besteht so eine Abhängigkeit an der sie nichts ändern können mit dem Nebeneffekt, dass sie sich kaum differenzieren oder absetzen können - selbst wenn sie es wollten.

Aus Apple Sicht ist es bei der bisherigen Konzerngröße mit ner extrem guten Chipdesign-Sparte logisch.

Ob jetzt ARM oder sonstwas im Rechner steckt ist ja primär egal. Wenn die Software schneller und effizienter läuft (und dafür hat Apple einfach zu sorgen), dann ist alles andere egal. Damit wird alles im Zweifel fallen. Warten wir erstmal ab, wie Apple das 2020 verkauft und welche Möglichkeiten sie bieten Legacy-Zeug zu betreiben. Ich finde es hoch spannend :)

steve.it
2019-02-25, 09:20:26
Ein Unternehmen welches sich NULL dafür interessiert seine Produkte abzusetzen wird irgendwann Probleme bekommen.
Windows ist kein Verkaufsargument für einen Mac. Einen Mac kauft man wegen macOS. Und die Leute, die wegen Design einen Mac kaufen um Windows zu installieren: Besser wenn es die nicht mehr gibt. (IMHO)
In meiner Filterblase nutzt auch NIEMAND Windows auf Mac.

Das Softwareangebot in vielen Bereichen ist auf dem Mac schon lange sehr gut, teilweise sogar besser als für Windows (natürlich immer auf den Einsatzbereich bezogen). Auf dem Mac gibt es nette Software, für die man unter Windows keinen gleichwertigen Ersatz findet. Software, wie Affinity oder Luminar oder Scrivener etc. wird zuerst auf dem Mac entwickelt und kommt (wenn überhaupt) später für Windows. Die Windowsversion hängt dann auch nicht selten in der Qualität etc. hinterher. Auch CaptureOne läuft auf dem Mac runder (Library). Und bei MS Office hat man über den Ribbons noch die globale Menüleiste (die Gnome leider nicht kopiert), weswegen man durchaus mit der Mac-Version besser zurecht kommen kann.

Selbst Spezialprogramme zum Rippen (dBpoweramp) gibt es mittlerweile auf dem Mac. Die gab es natürlich vorher schon (z.B. XLD). Das war jetzt als Beispiel für native Ports gemeint für Nischen.

Und mit IINA hat der Mac jetzt vermutlich den besten MPV-Player überhaupt, obwohl man das eigentlich eher für Linux erwartet hätte.

Natürlich gibt es auch Software, die es überhaupt nicht auf dem Mac gibt. Wer darauf angewiesen ist und das auch nativ via Bootcam angewiesen ist, ist dann beim Mac eben falsch (der kauft sich dann i.d.R. aber auch eine Windows-Workstatition => mehr Power fürs Geld). Das ist eine Minderheit.

Bootcamp habe ich selber noch nie auf dem Mac genutzt. Früher hatte ich mir mal Parallels und VMware gekauft. Da ich es aber eigentlich nie verwendet habe, laufen bei mir seit Jahren auch keine VMs mehr.

Für die VMs wäre es zwar schade. Aber für die Masse der Macuser ist das denke ich nichts kriegsentscheidendes, sofern es überhaupt eine Rolle spielt.

Bootcamp ist IMHO eher interessant, um einen Mac noch weiternutzen zu können, nachdem er aus dem macOS-Support rausgeflogen ist. Das sind so Geschichten, die zumindest ich kritischer betrachte (+ Modell- und Preispolitik *). Wie das mit Linux unter ARM aussehen würde, steht ja ebenfalls in den Sternen.

* das sind auch so Punkte, wo Apple in den letzten Jahren Porzellan zerschlagen hat. IMHO könnte der Mac heute noch viel besser da stehen, wenn man nicht mit Gewalt alles noch dünner, dünner etc. gemacht hätte, eine unnötige Mülltonne rausgebracht hätte (nach der nie gefragt wurde) und den Mac Mini regelmäßig geupdated hätte ... das hat Spuren bei einigen Leuten hinterlassen (inkl. mir)... und Ganon ist AFAIK sogar ganz weg, obwohl ursprünglich durchaus mal begeisterterter Macuser.

Ganon
2019-02-25, 09:23:00
Was du sagst kann ich verstehen - aber ich glaube, dass Apple das anders sieht: Klar könnte es sein, dass Apple irgendwann scheiße baut. Und klar kann es sein, dass Intel wie Phoenix aus der Asche aufersteht - aber v.a. die strategischen Entscheidungen Intels und der Trackrecord der letzten Jahre sprechen eine andere Sprache.

Na was ich aktuell sehe: Die Person die AMD die Zen Architektur gebracht hat, war die Person die Apple ihre modernen A CPUs brachte, die sitzt jetzt bei Intel. Genauso wie AMD wie ein Phoenix aus der Asche kam und Apple plötzlich da war, kann das genauso gut mit Intel nochmals passieren. Nebenbei hockt der ehemalige GPU Chefarchitekt von AMD jetzt auch bei Intel. Muss natürlich nicht, kann aber durchaus ebenso passieren. Das weiß auch Apple und darum geben sie vermutlich gerade etwas Gas, solange der Riese noch am Boden liegt und das Marketing noch funktioniert.

Ob jetzt ARM oder sonstwas im Rechner steckt ist ja primär egal.

Zumindest wenn dir (performante) Kompatibilität zu älterer Software (z.B. Spiele) wirklich vollkommen egal ist. Aber hier und ganz besonders bei Apple muss man aber auch aufpassen, dass man damit den PC nicht zu einer Konsole/Tablet degradiert, dessen Supportzeitraum und generelle Nutzbarkeit vom Hersteller bestimmt wird. Noch kann man z.B. die Boot-Sicherheitsfunktionen im T2 Chip deaktivieren. Wenn die an ist, dann bestimmt Apple was die Kiste bootet und was nicht.

steve.it
2019-02-25, 09:44:11
Na was ich aktuell sehe: Die Person die AMD die Zen Architektur gebracht hat, war die Person die Apple ihre modernen A CPUs brachte, die sitzt jetzt bei Intel. Genauso wie AMD wie ein Phoenix aus der Asche kam und Apple plötzlich da war, kann das genauso gut mit Intel nochmals passieren. Nebenbei hockt der ehemalige GPU Chefarchitekt von AMD jetzt auch bei Intel. Muss natürlich nicht, kann aber durchaus ebenso passieren. Das weiß auch Apple und darum geben sie vermutlich gerade etwas Gas, solange der Riese noch am Boden liegt und das Marketing noch funktioniert.
Ich glaube nicht, dass so etwas nur von einer Person abhängt.
Jim Keller? Sofern ich das jetzt nicht verwechsel: Im MacRumors-Forum gibt es mind. einen (ehemaligen?) Chipdesigner (evtl. auch zwei oder drei), der dort ab und an postet und mit Keller wohl auch zusammen gearbeitet hat. Der hatte mal etwas geschrieben, da hat sich die Position von Keller nicht annähernd so bedeutend angehört, wie in den Medien dargestellt.

Ganon
2019-02-25, 09:52:46
Ich glaube nicht, dass so etwas nur von einer Person abhängt.

Wie ich ja sagte, es kann sein, muss aber nicht. Kann natürlich auch sein, dass sein Beitritt zur Firma mit nachfolgendem "Boom" kompletter Zufall war. Dies "ich hab gelesen, dass jemand gesagt hat" bringt einen da praktisch auch nicht weiter.

Dass das alles noch ein paar Jahre dauern wird ist klar.

Ganon
2019-02-25, 10:36:19
Wer darauf angewiesen ist und das auch nativ via Bootcam angewiesen ist, ist dann beim Mac eben falsch (der kauft sich dann i.d.R. aber auch eine Windows-Workstatition => mehr Power fürs Geld).

Nimm es mir nicht übel, aber das ist diese klassische "You are holding it wrong"-Schiene die du da gerade fährst, vielleicht auch unbewusst. Allgemein gesagt sind MacUser gerne dabei die Ursache für das Problem auf den Nutzer umzulegen, statt das Problem bei Apple bzw. der Hard- und Software zu sehen. Soll jetzt nicht heißen, dass du das immer so machst, ist mir gerade nur aufgefallen.
An anderer Stelle wird mir auch immer erzählt, ich solle zum Zocken doch einfach Windows installieren, da man mit macOS einfach nicht zockt! Gerade im Kontext zur Entfernung von OpenGL bzw. miserabler Treiber wurde mir das auch mehr als einmal erzählt. Und jetzt geht's um die ARM Umstellung und dann ist es plötzlich "Na wenn du Windows brauchst, was willst du denn mit einem Mac?".

Wie du ja selbst sagt. Viele "akute" Probleme vom Apple sind aktuell selbst induziert.
Niemand würde sich beschweren, wenn Apple das MacBook Pro einfach mal wieder ein paar mm dicker macht und dafür solide Leistung und Akkulaufzeit liefert, ohne mal wieder das ganze Software-Ökosystem zu zerstören. Niemand würde sich beschweren, wenn Apple mal wieder einfach einen aktuellen PC in die Käsereibe stecken würde, statt zu versuchen das Rad immer wieder neu zu erfinden. Niemand hätte was dagegen, wenn im MacMini z.B. eine Ryzen APU stecken würde.

und Ganon ist AFAIK sogar ganz weg, obwohl ursprünglich durchaus mal begeisterterter Macuser.

"Apple vor dem iPhone" war ein wesentlich anderes Apple als das "Apple nach dem iPhone". Was Apple mit macOS angestellt hat und wie die Zukunft von macOS aussieht ist einfach nur traurig.

Kallenpeter
2019-02-25, 19:09:01
"Apple vor dem iPhone" war ein wesentlich anderes Apple als das "Apple nach dem iPhone". Was Apple mit macOS angestellt hat und wie die Zukunft von macOS aussieht ist einfach nur traurig.

Du weißt also mehr als der Rest der Welt. Lass uns teilhaben an deinem Insiderwissen.

Ganon
2019-02-25, 19:28:50
Du weißt also mehr als der Rest der Welt. Lass uns teilhaben an deinem Insiderwissen.

Das hat nichts mit Insider-Wissen zu tun. OS X war mal ein recht offenes Betriebssystem, welches ganz offenkundig mit allem auf der Welt kompatibel sein wollte (man erinnere sich z.B. an iSync). Apple bemühte sich Standards zu implementieren und hat z.B. auch mit OpenCL neue Industriestandards gesetzt.

Seit dem iPhone wurde all dies das Klo runtergespült. macOS ist nur noch zu sich selbst, dem iPhone und Apple kompatibel, offene Standards (wie OpenGL und OpenCL) stehen auf der Abschussliste und wurden seit Jahren nicht mehr gepflegt und Apples Zukunft kann proprietärer nicht sein (Metal, T2 Chip, Custom ARM CPUs).

Ich bin damals nicht von Windows zu macOS gewechselt, nur um den gleichen Mist ein paar Jahre später nur von einem anderen Hersteller zu haben. Und heute ist Microsoft offener denn je und Apple nagelt immer mehr Bretter vor die Fenster... ist schon urkomisch das Ganze :ugly:

Daredevil
2019-02-25, 19:38:32
Microsoft und Windows 10 ist aber auch gefühlt beschissener den jeh. :D
Ich sehe kein Problem mit Apples Weg, weil sie ja ziemlich easy wieder zurück fahren können mit ihrer Technik, falls die Zahlen fallen.
Analog dazu Nvidia, wie sie GSync nun für alle öffnen, wenn es nicht mehr so läuft.

Bis dahin soll Apple mal ruhig sein eigenes Süppchen kochen, solange manche dadurch einen Mehrwert haben.

Zossel
2019-02-25, 19:55:20
Ich glaube nicht, dass so etwas nur von einer Person abhängt.
Jim Keller? Sofern ich das jetzt nicht verwechsel: Im MacRumors-Forum gibt es mind. einen (ehemaligen?) Chipdesigner (evtl. auch zwei oder drei), der dort ab und an postet und mit Keller wohl auch zusammen gearbeitet hat. Der hatte mal etwas geschrieben, da hat sich die Position von Keller nicht annähernd so bedeutend angehört, wie in den Medien dargestellt.

Jedenfalls hat er einige dicke Haufen dort hinterlassen wo er gearbeitet hat: DEC Alpha, AMD64, Apple-ARM, Zen.

Das ist jedenfalls mehr als mal ein paar Postings von irgendeinem Typen in irgendeinem Forum.

Aber für die Masse der Macuser ist das denke ich nichts kriegsentscheidendes, sofern es überhaupt eine Rolle spielt.

Wie groß ist den nun die Masse, wie viele werden werden davon pro Jahr abgesetzt?

OS X war mal ein recht offenes Betriebssystem

Das war es wirklich, die Errata-Listen waren wirklich der blanke Horror. Und am geilsten war (oder ist) das wenn man eine bestimmte Tastenkombi beim booten drückt man direkt in einer root-shell landet.

Kallenpeter
2019-02-26, 18:52:25
Das hat nichts mit Insider-Wissen zu tun. OS X war mal ein recht offenes Betriebssystem, welches ganz offenkundig mit allem auf der Welt kompatibel sein wollte (man erinnere sich z.B. an iSync). Apple bemühte sich Standards zu implementieren und hat z.B. auch mit OpenCL neue Industriestandards gesetzt.

Seit dem iPhone wurde all dies das Klo runtergespült. macOS ist nur noch zu sich selbst, dem iPhone und Apple kompatibel, offene Standards (wie OpenGL und OpenCL) stehen auf der Abschussliste und wurden seit Jahren nicht mehr gepflegt und Apples Zukunft kann proprietärer nicht sein (Metal, T2 Chip, Custom ARM CPUs).

Ich bin damals nicht von Windows zu macOS gewechselt, nur um den gleichen Mist ein paar Jahre später nur von einem anderen Hersteller zu haben. Und heute ist Microsoft offener denn je und Apple nagelt immer mehr Bretter vor die Fenster... ist schon urkomisch das Ganze :ugly:

Ok, da hast du recht. In der Hinsicht kann man tatsächlich vorhersagen wohin die Reise geht. Und du hast auch recht damit, dass man das als eine schlechte Entwicklung betrachten kann. Zumindest von einer bestimmten Seite aus. Stichworte: Proprietäre Software, goldener Käfig und einiges mehr. Als besonders Schade empfinde ich z.B. die Einschränkungen die Apple den Usern zumutet um die 30% Umsatzanteil bei Apps zu halten (die Geschichten mit den Abos etc.).

Aber man kann auch positives an Apples weg sehen. Für nicht IT-Affine Nutzer sind Apple Geräte sehr, sehr gut. Datenschutz, IT-Sicherheit, Software-Support, Benutzerfreundlichkeit.... da ist Apple insgesamt deutlicher Spitzenreiter.

Genauso als positiv kann man ansehen das Apple mit den Hauseigenen SoC's seit einigen Jahren die gesamte Branche vor sich her treibt und für Innovationsdruck sorgt. Gleiches gilt natürlich auch für die oben genannten Aspekte. Apple zeigt einen Gegenweg zu den Datenkraken-Geschäftsmodellen von Google, MS und FB auf. Auch das ist gut. Es zeigt (hoffentlich irgendwann mal) Politikern, Regulierungsbehörden und Nutzern das es auch anders geht.

Ganon
2019-02-26, 19:13:54
Aber man kann auch positives an Apples weg sehen. Für nicht IT-Affine Nutzer sind Apple Geräte sehr, sehr gut. Datenschutz, IT-Sicherheit, Software-Support, Benutzerfreundlichkeit.... da ist Apple insgesamt deutlicher Spitzenreiter.

Naja... Datenschutz ist so eine Sache. Die ist auch alles andere (https://www.heise.de/mac-and-i/meldung/Apple-Datenschutzrichtlinie-ist-groesstenteils-rechtswidrig-4316486.html) als perfekt (https://www.wsj.com/articles/you-give-apps-sensitive-personal-information-then-they-tell-facebook-11550851636?mod=breakingnews) auch bei Apple. Der FaceTime Bug war auch so ne Sache, und dass Apple bei Bug Bounty Auszahlungen recht knauserig ist auch. Muss man sich mal geben, dass eine "Trillion Dollar Company" sich teilweise weigert einem Bug-Finder die paar tausend Dollar auszuzahlen :ugly:

Und dass ich mir Sicherheit auf Kosten von sehr viel Geld und SEHR viel Freiheit erkaufen muss, ist auch nicht ideal. Will damit nicht sagen, dass Apple damit irgendwo schlecht ist, aber die negativen Punkte sind dabei auch nicht zu verachten. Sie machen viel gut, aber auch sehr viel sehr schlecht.

Genauso als positiv kann man ansehen das Apple mit den Hauseigenen SoC's seit einigen Jahren die gesamte Branche vor sich her treibt und für Innovationsdruck sorgt.

Nun, sie haben bei SoCs den längeren Balken, aber du siehst jetzt schon, dass den Leuten schon heute die Performance von Telefon und Tablet im Großen und Ganzen bereits ausreicht und so langsam die Akkulaufzeit wieder in den Vordergrund rückt. Die Verkaufszahlen sind rückläufig und ob ein Hersteller nun 2-3 Jahre später die Leistung von Apple erreicht ist dabei eher vernachlässigbar. Ich glaube die wenigsten Nutzer kaufen sich ein iPhone einzig und allein aus dem Grund, dass der SoC schnell ist.

Und mir persönlich bringt z.B. der schnellste SoC im iPhone nichts, wenn meine Lieblingsanwendungen auf einem Smartphone (Emulatoren) im AppStore nicht erlaubt sind und sie wegen "erhöhter Sicherheit" auch gar nicht schnell sein können (Apps dürfen/können zur Laufzeit keinen Code erzeugen und Ausführen). Hier zerlegt schon aus "Sicherheitsgründen" fast jeder Android SoC jeden Apple-Prozessor.

tl;dr: Es ist nicht alles Gold was glänzt.

Kallenpeter
2019-02-26, 19:25:21
Naja... Datenschutz ist so eine Sache. Die ist auch alles andere (https://www.heise.de/mac-and-i/meldung/Apple-Datenschutzrichtlinie-ist-groesstenteils-rechtswidrig-4316486.html) als perfekt (https://www.wsj.com/articles/you-give-apps-sensitive-personal-information-then-they-tell-facebook-11550851636?mod=breakingnews) auch bei Apple. Der FaceTime Bug war auch so ne Sache,
Ja, unbeabsichtige Bugs.... alda. Dann musst du aber das ganze Internet abschaffen. Was für Maßstäbe.

und dass Apple bei Bug Bounty Auszahlungen recht knauserig ist auch. Muss man sich mal geben, dass eine "Trillion Dollar Company" sich teilweise weigert einem Bug-Finder die paar tausend Dollar auszuzahlen :ugly:
Das geht jetzt aber mal zu 1000% an der Diskussion vorbei. Das gehört in den Apple saugt Thread. Falls du dort noch platz zwischen den Posts des Bipolaren Apple Hassers findest, dessen Namen jeder kennt.

Und dass ich mir Sicherheit auf Kosten von sehr viel Geld
Naja. Nicht übertreiben. Wenn man keinen Wert auf das aller neuste Gerät legt, ist das halb so wild.

und SEHR viel Freiheit erkaufen muss, ist auch nicht ideal.
Ich bin mir sicher: 99% der otto-normal Nutzer hätten Null Ahnung was du damit meinst, wenn du sagt iOS ist ein geschlossenes System und Android nicht. Dem ist natürlich so, aber die meisten Nutzer tangiert das genau Null.


Nun, sie haben bei SoCs den längeren Balken, aber du siehst jetzt schon, dass den Leuten schon heute die Performance von Telefon und Tablet im Großen und Ganzen bereits ausreicht und so langsam die Akkulaufzeit wieder in den Vordergrund rückt. Die Verkaufszahlen sind rückläufig und ob ein Hersteller nun 2-3 Jahre später die Leistung von Apple erreicht ist dabei eher vernachlässigbar. Ich glaube die wenigsten Nutzer kaufen sich ein iPhone einzig und allein aus dem Grund, dass der SoC schnell ist.
Hast du recht.


Der einfache Nutzer kauft sich ein 2-3 Jahre altes iPhone (wahlweise neu oder gebraucht). Preislich nicht viel teurer als ein vergleichbares Android Gerät. Leistungstechnisch alle mal ausreichend (wie du selbst sagst) und vom Funktionsumfang für normale Nutzer nicht von Android unterscheidbar.

Dafür hat man dann Datenschutz, einfache Handhabbarkeit und Sicherheit von iOS und ein aktuelles Betriebssystem.

Ganon
2019-02-26, 20:01:39
Ja, unbeabsichtige Bugs.... alda. Dann musst du aber das ganze Internet abschaffen. Was für Maßstäbe.

Naja, wenn man Apple nicht immer wieder als so megatollen Vorreiter bezeichnen würde, wäre es weniger kritisch. Dabei passiert auch Apple sehr oft mal "ein unbeabsichtigter Bug" und bei "unbeabsichtigten Bugs" in Android wird in Mac-Kreisen auf Jahre hin darauf rumgeritten.

Das geht jetzt aber mal zu 1000% an der Diskussion vorbei.

Bug Bounty Programme haben was mit IT-Sicherheit zu tun und das Thema hast du ausgebuddelt. Und hier ist Apple ziemlich weit unten auf der Rangliste.


Ich bin mir sicher: 99% der otto-normal Nutzer hätten Null Ahnung was du damit meinst, wenn du sagt iOS ist ein geschlossenes System und Android nicht. Dem ist natürlich so, aber die meisten Nutzer tangiert das genau Null.

Meine Wahrnehmung ist eher, dass sich ziemlich viele Leute durchaus bewusst sind, dass sie sich bei Apple in den goldenen Käfig begeben. Es darf natürlich jeder für sich entscheiden was er akzeptiert oder was nicht und für mich ist das schlicht inakzeptabel. Und da kann man mir noch 3 mal erklären, dass ich einfach ein Altmodell kaufen soll, das "Freiheitsproblem" bleibt. Auch auf denen schreibt mir Apple vor, dass ich dort keine Emulatoren ausführen darf und selbst wenn ich es durch Sideloading oder wie auch immer hin bekomme, dann ist die Performance Grütze weil mir die "Sicherheit" in iOS mir einen Riegel vorschiebt.

Und um mal wieder den Bogen zum Thread zu bekommen:

Sollte das auch die Zukunft der ARM Macs sein, dann können sie die gleich behalten.

Windi
2019-02-26, 21:19:29
Ein paar unschöne Bugs finde ich auf jeden Fall besser, als Datenkraken die wirklich alles von dir speichern und auswerten wollen.
Da ist Apple schon ein deutlich seriöserer Anbieter als z.B. Google.


Die Entwicklung das sich bei Apple alles in Richtung goldener Käfig bewegt, ist sicherlich für die Mehrzahl der Nutzer eine gute Sache. Die meisten Nutzer sind mit Dingen wie Backups, Updates und Sicherheit häufig komplett überfordert.
Für Leute die sich damit auskennen oder etwas exotischere Sachen installieren wollen, ist das natürlich blöd.
Aber die Gruppe der "Normalos" ist sicherlich deutlich größer und wahrscheinlich auch leichter zufrieden zu stellen. Ich habe damit kein Problem, so ein Markt muss schließlich auch bedient werden. Ich fahre ja auch Auto, obwohl ich keines reparieren könnte.


Zum ARM Mac:
Der große Vorteil dabei ist halt, das man sich die Chips selbst zusammen stellen kann. Das heißt dann für Apple: überall die gleichen Stromspartechniken, die gleiche Sicherheitstechnik, der gleiche Kopierschutz, die gleichen Koprozessoren, die gleichen Schnittstellen, die gleichen Treiber, ........
Bei Intel muss man halt immer das ganze Paket kaufen. Die Kerne gibt es nicht einzeln. Es muss immer der ganze Prozessor und der passende Chipsatz dazu sein. Wenn man dann noch ein paar Eigenentwicklungen dazu packen will, muss man gleich noch einen weiteren Chip fertigen.

Und es kann sogar sein, das Apple eine ähnlich Leistung wie Intel erreicht.
Im Bereich der Ultramobilen Notebooks sollte Apple das ohne Probleme schaffen. Auch bei Workstations mit sehr vielen Kernen sollte es nicht so viele Probleme geben. Schließlich ist auch dort der Stromverbrauch mit am wichtigsten. (Ein EPYC mit 64 Kernen hat auch nur 3W pro Kern zur Verfügung)
Ja der Bereich der hoch takteten Prozessoren ist eine Herausforderung, aber Apple hat halt schon sehr gute Leute eingestellt und häufig gezeigt, das sie was können. Und selbst wenn man nicht ganz die Leistung eines Intel Achtkerners mit 5Ghz erreicht, ist das vielleicht gar nicht so schlimm, da man dafür spezielle Koprozessoren integrieren kann, die sehr viele extra Leistung bringen können. Das könnte sogar die Effizientere Lösung sein: Anstatt die Anzahl der Transistoren zu verdoppeln, damit pro Kern 5% mehr Leistung herauskommt, lieber die Transistoren für spezialisierte Aufgaben verwenden.

Zossel
2019-02-26, 22:16:23
Ich fahre ja auch Auto, obwohl ich keines reparieren könnte.


Das Apple Auto würde dich nicht mehr durch Straßen fahren wo Plakate mit Titten stehen.

gravitationsfeld
2019-02-26, 23:19:41
Ich glaube nicht, dass so etwas nur von einer Person abhängt.
Jim Keller? Sofern ich das jetzt nicht verwechsel: Im MacRumors-Forum gibt es mind. einen (ehemaligen?) Chipdesigner (evtl. auch zwei oder drei), der dort ab und an postet und mit Keller wohl auch zusammen gearbeitet hat. Der hatte mal etwas geschrieben, da hat sich die Position von Keller nicht annähernd so bedeutend angehört, wie in den Medien dargestellt.
Meiner Erfahrung nach ist die Vergoetterung von einzelnen Personen fast immer Bullshit. Siehe Carmack, Mark Cerny, Jim Keller, etc. Es ist immer ein Team von Leuten die sich Ideen zuwerfen.

Ganon
2019-02-26, 23:40:44
Meiner Erfahrung nach ist die Vergoetterung von einzelnen Personen fast immer Bullshit. Siehe Carmack, Mark Cerny, Jim Keller, etc. Es ist immer ein Team von Leuten die sich Ideen zuwerfen.

Vergötterung ist auch übertrieben, aber es kann auch durchaus passieren, dass er ein festgefahrenes Team (anders würde ich Intel gerade nicht sehen) wieder in die richtige Bahn lenken kann. Erfahrung ist ja nun durchaus vorhanden. Da kann einer schon großen Einfluss haben. Natürlich wie gesagt "kann" nicht "wird".

Das Ergebnis sieht man vermutlich eh erst in einigen Jahren, oder halt auch nicht.

danarcho
2019-02-27, 00:09:06
Meiner Erfahrung nach ist die Vergoetterung von einzelnen Personen fast immer Bullshit. Siehe Carmack, Mark Cerny, Jim Keller, etc. Es ist immer ein Team von Leuten die sich Ideen zuwerfen.
Blasphemie! :P

Zum Thema: was sollte Apple hindern nicjt einfach für eine (potentiell lange) Weile zweigleisig zu fahren? Die Grundsteine (apps in bytecode) dürften gelegt sein, um zB ein mac air mit ARM und langer akku laufzeit und dazu einen mac pro mit Intel und ordentlicher Leistung zu bringen. Damit würden sie wohl auch recht gut alle Zielgruppen bedienen können. Pure Spekulation meinerseits.

Ganon
2019-02-27, 00:44:57
Wie portabel ist denn der Bitcode von Apples LLVM so? Mein Stand ist, dass zumindest der Bitcode vom Standard LLVM nicht unbedingt gut dafür geeignet ist, dass man ihn zwischen verschiedenen ISAs benutzt.

deekey777
2019-02-27, 09:43:07
Apple wird nur dann ARM-Macs bringen, wenn sie ihre Käufer überzeugen, viel Geld dafür auszugeben.

Klar, das aktuelle iPad Pro 12,9'' mit 256 GB kostet "nur" paar hundert Euro weniger als ein MacBook/Air, bietet aber nicht die volle Mac-Freiheit.

Wo Apple kaum vertreten ist, ist der Schulbereich. Natürlich findet man dort die "günstigen" iPads, aber es gibt hier flexiblere Chromebooks und Windows-Laptops für den gleichen Preis. Vielleicht könnte Apple zuerst in diesen Bereich mit ARM-Laptops vorstoßen und dann nach und nach die "erwachsenen" Macs mit eigenen SoCs ausrüsten.

danarcho
2019-02-27, 09:53:19
Wie portabel ist denn der Bitcode von Apples LLVM so? Mein Stand ist, dass zumindest der Bitcode vom Standard LLVM nicht unbedingt gut dafür geeignet ist, dass man ihn zwischen verschiedenen ISAs benutzt.
Hm, da mach ich mal auch mein Fragezeichen dran.

gravitationsfeld
2019-02-27, 19:02:36
Wie portabel ist denn der Bitcode von Apples LLVM so? Mein Stand ist, dass zumindest der Bitcode vom Standard LLVM nicht unbedingt gut dafür geeignet ist, dass man ihn zwischen verschiedenen ISAs benutzt.
Nicht portabel. Das Problem ist allein schon, dass die ABIs anders sind bei verschiedenen Architekturen.

Zossel
2019-02-27, 20:36:01
Wo Apple kaum vertreten ist, ist der Schulbereich. Natürlich findet man dort die "günstigen" iPads, aber es gibt hier flexiblere Chromebooks und Windows-Laptops für den gleichen Preis. Vielleicht könnte Apple zuerst in diesen Bereich mit ARM-Laptops vorstoßen und dann nach und nach die "erwachsenen" Macs mit eigenen SoCs ausrüsten.

Das fehlte ja gerade noch, dem Gesindel ohne Kohle das Geld für Luxusgedöns aus der Tasche ziehen um es direkt in die Taschen der Apple-Shareholder umleiten.

Was soll das werden? Sozialismus für Reiche?

Und wenn Apple mal wieder irgentwelche Interfaces oder Sachen out of Support setzt ändert wird wieder Kohle gescheffelt.

iuno
2019-02-27, 21:05:57
Weil das bei MS ja anders ist.

Da kannst du fuer gar keinen anbieter argumentieren. Die Schueler sollten idealerweise naemlich mit freier Software aufwachsen und dabei Grundsaetze gelehrt bekommen, anstatt auf bestimmte kommerzielle Hard- und Software konditioniert zu werden, aber was weiss ich schon.

Jedenfalls hat das die letzten 20 Jahre auch keinen interessiert. Sehe also keinen Grund, warum die Ministerien sowas urploetzlich verhindern sollten.

Zossel
2019-02-27, 21:23:22
Weil das bei MS ja anders ist.
Der Kram ist aber nicht so überteuert, und für die HW gibt es mehrere Anbieter. Letztendlich sind das auch meine Steuern.
Da kannst du fuer gar keinen anbieter argumentieren. Die Schueler sollten idealerweise naemlich mit freier Software aufwachsen und dabei Grundsaetze gelehrt bekommen, anstatt auf bestimmte kommerzielle Hard- und Software konditioniert zu werden, aber was weiss ich schon.
Ack.

Ganon
2019-03-01, 08:16:31
Nicht portabel. Das Problem ist allein schon, dass die ABIs anders sind bei verschiedenen Architekturen.

Nach ein bisschen Recherche: Scheint zumindest bei Apple nicht unbedingt der Fall zu sein. Man liest an diversen Stellen, die Google so ausspuckt, sowas hier: https://news.ycombinator.com/item?id=13863235


From a few LLVM meetings and Apple's work on bitcode packaging, I think there is some work to make LLVM IR actually architecture independent.


Handfeste Belege sind das natürlich nicht, schon klar.

BlackBirdSR
2019-03-01, 09:47:38
Zum ARM Mac:
Der große Vorteil dabei ist halt, das man sich die Chips selbst zusammen stellen kann. Das heißt dann für Apple: überall die gleichen Stromspartechniken, die gleiche Sicherheitstechnik, der gleiche Kopierschutz, die gleichen Koprozessoren, die gleichen Schnittstellen, die gleichen Treiber,

Aus vielen Jahren Praxis kann ich nur sagen:
Man sollte niemals den "Nasen"Faktor in einer großen Firma unterschätzen.
Viele Entscheidungen werden nicht auf Basis von "besser" für die Firma getroffen, sondern aus persönlichen Präferenzen und Bias.

Klar redet man sich dann Entscheidungen schön mittels Argumenten, findet dann auch oft welche.
Der Grundstein für eine Entscheidung / Strategie sind aber zu oft Beweggründe einzelner, die sich durchsetzen.

robbitop
2019-03-01, 11:12:12
Kann ich nur bestätigen. Wobei ich aufgrund der AX SoCs denke, dass man auch eine bessere Perf/W erzielen können wird. Außerdem beingt es generelle Vorteile mit sich wenn SW und HW in der eigenen Hand liegen.

Demogod
2019-03-01, 19:06:28
slightly OT: fand ich trotzdem krass wieviel perf mit dem iOS 12 rel wohl herausgeholt werden konnte (hab atm kein ip daher nur hörensagen). ich mein die haben hochbezahlte progger und ich dachte saubere APIs/frameworks usw..

Zossel
2019-03-02, 10:15:56
slightly OT: fand ich trotzdem krass wieviel perf mit dem iOS 12 rel wohl herausgeholt werden konnte (hab atm kein ip daher nur hörensagen). ich mein die haben hochbezahlte progger und ich dachte saubere APIs/frameworks usw..

Also ich esse meinen Kartoffelsalat immer lauwarm, das schmeckt besser als Progger-ATM.

deekey777
2019-03-31, 13:19:09
Apple verliert einen wichtigen Kopf: https://www.cnet.com/news/apple-loses-engineer-overseeing-the-processors-powering-iphones-ipads/

Benutzername
2019-04-08, 21:03:53
Intel Confirms Apple Macs Will Switch to Arm CPUs by 2020, Says Report (https://www.tomshardware.com/news/apple-mac-arm-cpus-2020-intel,38668.html) (toms hardware)

ntel officials and developers have reportedly told Axios that Apple is preparing to launch Arm-based Macbooks next year. The report follows a story from Bloomberg Wednesday saying that Apple plans on combining iOS and macOS applications by 2021.

Rumors have existed for a few years that Apple would be switching its MacBook laptops to its own Arm processors. However, previously, Arm chips did not have quite the necessary performance to run more full fledged desktop applications.

This week's report from Bloomberg reiterated Macs running on Arm may arrive in 2020. Axios' report seemingly confirmed the claim, citing "developers and Intel officials."

With the release of the iPad Pro in 2015, Apple showed that its Arm chips could now handle “PC-class” applications. Since 2015, Apple’s chips have become ever more powerful, increasing their performance in much lager steps with each generation compared to Intel’s CPU generations.

Apple has traditionally preferred having more control over the core components of its devices, if it could afford it, so it makes sense that Apple would eventually want MacBooks to be powered by the same (or upgraded) chips powering iOS devices.

One of the missing ingredients in this strategy used to be that Apple was still dependent on others, such as Imagination, for its GPUs. However, two years ago, Apple also announced that it would stop licensing Imagination’s GPU technology and would soon use its own.

(...)

MSABK
2019-04-08, 21:32:38
Ich denke mal das ist doch absehbar, im mobilen Bereich tut sich nach gefühlt 14+++++nm nichts und da muss man als Hersteller Alternativen haben.

mczak
2019-04-08, 21:37:35
Intel Confirms Apple Macs Will Switch to Arm CPUs by 2020, Says Report (https://www.tomshardware.com/news/apple-mac-arm-cpus-2020-intel,38668.html) (toms hardware)
February 22, 2019
Die Story ist uralt :-)

robbitop
2019-04-09, 09:50:07
Dann kann man auch mal im gleichen OS sehen wie performant die ARM CPUs ggü x86 pro Takt sind. Apple wird ja sicherlich kein Downgrade verbauen.

Ganon
2019-04-09, 10:02:44
Dann kann man auch mal im gleichen OS sehen wie performant die ARM CPUs ggü x86 pro Takt sind. Apple wird ja sicherlich kein Downgrade verbauen.

Vorausgesetzt die Teile kommen halt auch mit einem regulären macOS nicht nicht einem "iOS mit Desktop". Aber wie schon gesagt wurde, die News ist relativ alt :D

danarcho
2019-04-09, 10:20:03
Apple wird ja sicherlich kein Downgrade verbauen.
Als low-power mac air mit 15h Laufzeit bei einer Akku-Ladung vielleicht schon °°

robbitop
2019-04-09, 11:00:17
Als low-power mac air mit 15h Laufzeit bei einer Akku-Ladung vielleicht schon °°

Absolute Performance ja. Zaubern kann niemand. Ich würde mich nicht wundern wenn Perf/W gerade bei niedrigen Betriebspunkten (TDP kleiner 10W) Apples SoC sehr gut wird. Taktnormiert sicherlich auch.

Zossel
2019-04-09, 18:44:03
Dann kann man auch mal im gleichen OS sehen wie performant die ARM CPUs ggü x86 pro Takt sind. Apple wird ja sicherlich kein Downgrade verbauen.

Es gibt mehr als eine ARM CPU.
Es gibt mehr als eine X86 CPU.
CPU-Benchmarks laufen typischerweise im Userspace, da spielt das OS eine untergeordnete Rolle.

Zossel
2019-04-09, 18:46:03
Absolute Performance ja. Zaubern kann niemand. Ich würde mich nicht wundern wenn Perf/W gerade bei niedrigen Betriebspunkten (TDP kleiner 10W) Apples SoC sehr gut wird. Taktnormiert sicherlich auch.

Was ist eigentlich an den bisherigen Benchmarks von Apple-SOCs schlecht? Und warum gibt es keine besseren?

Rooter
2019-04-09, 19:24:11
CPU-Benchmarks laufen typischerweise im Userspace, da spielt das OS eine untergeordnete Rolle.Das eine OS kann aber mehr (Windows) oder weniger (Android, iOS) Overhead erzeugen als ein anderes.

MfG
Rooter

Zossel
2019-04-09, 20:08:00
Das eine OS kann aber mehr (Windows) oder weniger (Android, iOS) Overhead erzeugen als ein anderes.

Wie bereits gesagt, bei Sachen die im Userspace laufen spielt das quasi keine Rolle.

BoMbY
2019-04-09, 20:53:14
Wie bereits gesagt, bei Sachen die im Userspace laufen spielt das quasi keine Rolle.

Außer sie nutzen z.B. Multithreading ...

Zossel
2019-04-09, 21:09:54
Außer sie nutzen z.B. Multithreading ...

Hängt vom Kommunikationsbedarf der Threads ab, allerdings taugt hoher Kommunikationsbedarf nicht zur Ermittlung der (wie auch immer definierten) "IPC".

robbitop
2019-04-09, 21:54:32
Es gibt mehr als eine ARM CPU.
Es gibt mehr als eine X86 CPU.
CPU-Benchmarks laufen typischerweise im Userspace, da spielt das OS eine untergeordnete Rolle.

Ich meinte selbstverständlich einen modernen Apple SoC und einen modernen Intel Kern. Ein bisschen Kontext lesen.

Es geht mir darum, in vergleichbaren Applikationen mit möglichst vergleichbarer Umgebung CPUs zu vergleichen. Da ist es schon gut, wenn das OS und möglichst viele Schnittstellen gleich sind.

danarcho
2019-04-10, 00:33:35
am besten noch vergleichbare DIE size. nicht so ein 4mm ARM gegen 200mm^2 Monster.
Die Apple Dinger sind ja schon recht groß geworden und haben wohl auch vergleichbar viele Transistoren. Aber etwas Unterschied besteht noch pro Kern.

Zossel
2019-04-10, 06:46:32
Ich meinte selbstverständlich einen modernen Apple SoC und einen modernen Intel Kern. Ein bisschen Kontext lesen.

Es geht mir darum, in vergleichbaren Applikationen mit möglichst vergleichbarer Umgebung CPUs zu vergleichen. Da ist es schon gut, wenn das OS und möglichst viele Schnittstellen gleich sind.

Wer hier kann den mal ein "openssl speed" auf seinem IOS-Device laufen lassen?

robbitop
2019-04-10, 09:36:18
am besten noch vergleichbare DIE size. nicht so ein 4mm ARM gegen 200mm^2 Monster.
Die Apple Dinger sind ja schon recht groß geworden und haben wohl auch vergleichbar viele Transistoren. Aber etwas Unterschied besteht noch pro Kern.

A12 / Vortex:
pro Big Core sind es 2,07 sqmm. Der geesamte SoC besteht aus 6,9 Mrd Transistoren. Die Fläche beträgt 83,27 mm².
Vortex besteht folglich aus ~ 170 Mio Transistoren. Ohne L2 und L3.

Wenn man den CPU Complex mit 11,9 mm² annimmt und halbiert (2x Vortex) sind es 493 Mio Transistoren. L3 hat A12 nicht - aber ein System Cache


Skylake Core:
217 Mio Transistoren allerdings inkl. L2 und L3. Ich habe keine Zahl ohne Caches finden können.

Quellen:
https://www.anandtech.com/show/13393/techinsights-publishes-apple-a12-die-shot-our-take
https://www.quora.com/How-many-transistors-are-in-i3-i5-and-i7-processors


Wir brauchen Werte von einem Skylake Core ohne Cache. Aber man kann schon mal sagen, dass die Größenordnung durchaus vergleichbar ist.

Ganon
2019-04-10, 09:45:20
Apples SoCs haben auch verhältnismäßig viel Cache (8MB shared L2 Cache für die Hochleistungs-Kerne + 2MB shared L2 Cache für die energieeffizienten Kerne), während man bei Skylake gerade mal 256KB L2 Cache pro Kern hat. Sollte man bei etwaigen Transistor-Counts mit einbeziehen bzw. darauf achten, ob es mit oder ohne ist.

robbitop
2019-04-10, 09:56:16
Wer hier kann den mal ein "openssl speed" auf seinem IOS-Device laufen lassen?
Wie macht man das?

Zossel
2019-04-10, 19:06:30
Wie macht man das?

Keine Ahnung, ich hab mit IOS nichts am Hut. Es muss doch irgendwelche sinnvollen und vergleichbaren Benchmarks geben wenn alle behaupten das die ARM-Cores von Apple so geil sein sollen.

Ich hatte extra "openssl speed" vorgeschlagen weil das nicht am low-power DRAM verhungert und für diverse Plattformen verfügbar ist.

Zossel
2019-04-10, 19:10:32
Apples SoCs haben auch verhältnismäßig viel Cache (8MB shared L2 Cache für die Hochleistungs-Kerne + 2MB shared L2 Cache für die energieeffizienten Kerne), während man bei Skylake gerade mal 256KB L2 Cache pro Kern hat. Sollte man bei etwaigen Transistor-Counts mit einbeziehen bzw. darauf achten, ob es mit oder ohne ist.

Für ein low-frequency und low-core-count Design wie die Apple-SOCs ist das sicherlich ein guter Tradeoff. Bei höheren Core-counts und höheren Frequenzen braucht es andere Designs wie z.b. einen L3.

robbitop
2019-04-10, 20:08:38
Keine Ahnung, ich hab mit IOS nichts am Hut. Es muss doch irgendwelche sinnvollen und vergleichbaren Benchmarks geben wenn alle behaupten das die ARM-Cores von Apple so geil sein sollen.

Ich hatte extra "openssl speed" vorgeschlagen weil das nicht am low-power DRAM verhungert und für diverse Plattformen verfügbar ist.
Bis dato gibt es einige wenige plattformübergreifende Benchmarks wie SPEC FP/INT. Dort sieht abhängig vom subbench die Stärken und Schwächen vieler mArchs. Anand misst damit oft und misst auch die verbrauchte Energie in joule. Im ARM SoC Bereich wischt Apple in Bezug auf Performance und auch Perf/W mit so ziemlich allen Kontrahenten den Boden auf.

Ansonsten kenne ich noch geekbench (dort gibt es ja auch subbenches) und 3DMark, die es plattformübergreifend gibt. Browsertests gibt es auch.

Schön wäre jedoch mal außerhalb von synthetischen Benchmarks richtige Anwendungen zu messen oder gar Spiele.

Zossel
2019-04-10, 20:16:37
Bis dato gibt es einige wenige plattformübergreifende Benchmarks wie SPEC FP/INT. Dort sieht abhängig vom subbench die Stärken und Schwächen vieler mArchs. Anand misst damit oft und misst auch die verbrauchte Energie in joule. Im ARM SoC Bereich wischt Apple in Bezug auf Performance und auch Perf/W mit so ziemlich allen Kontrahenten den Boden auf.

Und wo finde ich die Spec-Werte von den Apple-SOCs?
Und eigentlich geht es ja nicht um andere ARM-SOCs sondern um den Vergleich mit X86.

fizzo
2019-04-10, 20:24:26
https://images.anandtech.com/doci/14072/SPECint2006-detail-eff.png

https://images.anandtech.com/doci/14072/SPEC2006-ARM-overview-March2019.png

link (https://www.anandtech.com/show/14072/the-samsung-galaxy-s10plus-review/7)

robbitop
2019-04-10, 21:07:17
Und wo finde ich die Spec-Werte von den Apple-SOCs?
Und eigentlich geht es ja nicht um andere ARM-SOCs sondern um den Vergleich mit X86.

SPEC gibt es auch für x86. Sagte ich doch dass all dass plattformübergreifend verfügbar ist. Ein bisschen aus dem Kontext lesen und googlen wäre gut.

mczak
2019-04-10, 22:56:19
Ein Direktvergleich von spec-Werten von apples A12 zu einem low-power Kabylake z.B. wäre trotzdem ganz nett. Anandtech hat ja schon mal erwähnt dass der A12 da locker x86-Niveau erreicht, und das scheint mir durchaus korrekt. Die Spec 2006 Werte liegen jedenfalls schon mal über jeder Lake CPU mit ähnlichem Takt (die boosten aber natürlich im Normalfall viel höher, wenn man das nicht extra limitiert, allerdings dürften die dann auch mehr als die ~4W oder so verbrauchen die der A12 da bei den Spec Tests braucht).

robbitop
2019-04-11, 07:36:42
Aus meiner Sicht wäre das auch 0 überraschend, dass Apples ARM Kern taktnormiert ähnlich schnell ist.

Transtorzahl ist offenbar vergleichbar
mArch von dem was man weiß erscheint auch in die Richtung zu gehen
crossplattformbenches (auch wenn oft kritisiert) geben diese Indikation
Intels Core mArch hat sich seit 4 Jahren nicht verändert
Apple hat mittlerweile die besten Leute der Branche in der Entwicklung

In einem Mobilgerät könnte Perf/W besser sein, da der optimale Betriebspunkt von Apples aktuellen CPUs weit unter der von Core ist (tdp) und mArchs eben nicht beliebig skalieren.
Dafür dürfte Apples jetziger Ansatz bei höheren Frequenzen Probleme haben.
Alles eine Sache der Auslegung des Betriebspunktes. (Das beste Aus allen Welten, sofern es denn mit dem OS und der Anwendung funktioniert wäre mehrere Kerntypen für unterschiedliche Lastzustände mit jeweils anderer Auslegung in einem die zu haben und die entsprechend an und auszuknipsen. Im mobile Bereich gang und gäbe. Intel hat mit Foveros ja auch ähnliches vor. Ggf gibt es bei Apple ja später auch nochmal einen oben drauf (ein Core der für noch mehr Performance bei höherer TDP ausgelegt ist für Macs)).

dildo4u
2019-04-11, 08:24:57
Schätze mal Quicksync kann noch nix mit h265 anfangen,ich fand das hier interessant der T2 Chip bringt dort dem iMac Pro was.

https://youtu.be/X40N0HSm6Yw?t=381

robbitop
2019-04-11, 08:59:38
Intels iPGU ist ja auch schon etwas älter. Gen10 wurde ja praktisch ausgelassen. Kann mir gut vorstellen, dass G11 mit ICL das unterstützen wird.

NV hat ja bei hevc Encoding ja beachtliche Fortschritte gemacht und entsprechend einen neuen Maßstab für HW Encoding erstellt. Ich bin gespannt, ob Intel mit HEVC Quicksync das nochmal schlagen kann.

Wie gut das HEVC encoding von T2 ist, wäre auch interessant zu wissen. Vor allem im Vergleich zu NVs Lösung seit Turing mittels NVENC.

Rooter
2019-04-11, 10:04:28
NV hat ja bei hevc Encoding ja beachtliche Fortschritte gemacht und entsprechend einen neuen Maßstab für HW Encoding erstellt.Auch bei der Bildqualität?

MfG
Rooter

smalM
2019-04-11, 10:24:39
Ein Direktvergleich von spec-Werten von apples A12 zu einem low-power Kabylake z.B. wäre trotzdem ganz nett.

AnandTech - Kaby Lake und Cannon Lake (https://www.anandtech.com/show/13405/intel-10nm-cannon-lake-and-core-i3-8121u-deep-dive-review/8)

Aus meiner Sicht wäre das auch 0 überraschend, dass Apples ARM Kern taktnormiert ähnlich schnell ist.

Taktnormiert macht ein Vortex-Core jeden X86-Core platt.
Aber Apples Vortex-Cores sind auf Mobil ausgelegt und können höchstwahrscheinlich nicht sehr viel höher als die 2,5GHz takten.
Eine eigene Mac-Lösung sähe also sicher ganz anders aus - schließlich müßte über kurz oder lang nicht nur ein Core m3-7Y32, sondern auch ein XEON W-2190B ersetzt werden können.

robbitop
2019-04-11, 10:27:48
Auch bei der Bildqualität?

MfG
Rooter
NV wird damit, dass Turing ähnlich viel BQ pro Bitrate liefert wie x264 medium und damit deutlich besser als zuvor. Also ja. :)

mczak
2019-04-11, 14:51:45
AnandTech - Kaby Lake und Cannon Lake (https://www.anandtech.com/show/13405/intel-10nm-cannon-lake-and-core-i3-8121u-deep-dive-review/8)

Die Werte habe ich auch gesehen. Sind aber unter WSL, denen traue ich nur halb...

Zossel
2019-04-11, 19:32:50
link (https://www.anandtech.com/show/14072/the-samsung-galaxy-s10plus-review/7)

Spannend, ich hätte nicht gedacht das man SPEC auf diesen Gefängniscomputern zum laufen kriegt, hier ist eine Tabelle mit Vergleichswerten, alles nur auf einem Core:

https://www.reddit.com/r/apple/comments/9midcx/apple_really_undersold_the_a12_cpu_its_almost/

Mal schauen ob Kanter oder Fog was zu den Apple-SOCs haben.
Allerdings kann ich mir gut vorstellen das die Auslegung auf einen bestimmten (mobilen) Betriebspunkt da eine Rolle spielt. Rechenleistung entspricht im wesentlichen einer bestimmten Anzahl an Umschaltvorgängen von MOSFETs, und jeder Umschaltjungvorgang kostet eine bestimmte Menge Energie. Z.b. macht ein L3 erst ab einem gewünschten Bums-Faktor Sinn.

mczak
2019-04-11, 21:28:47
Spannend, ich hätte nicht gedacht das man SPEC auf diesen Gefängniscomputern zum laufen kriegt, hier ist eine Tabelle mit Vergleichswerten, alles nur auf einem Core:

https://www.reddit.com/r/apple/comments/9midcx/apple_really_undersold_the_a12_cpu_its_almost/

Die Werte von anandtech habe ich auch benutzt um da rasch in etwa zu vergleichen, hatte allerdings keine schöne Tabelle :-).
Die Analyse ist allerdings nicht ganz korrekt:

Core-for-Core Apple’s A12 has a a higher IPC and at least 50% better Perf/Watt than competing chips, even with the advantage of SMT on some of these! (Apple doesn’t use SMT in the A-series chips currently).

SMT bietet da natürlich gar keinen Vorteil (sind ja die ST tests), sondern ist nur "Ballast". Die CPUs mit SMT werden da folglich aufholen bei Verwendung mehrerer Threads.
Das mit 50% bessere Perf/W muss man ausserdem auch etwas relativieren, weil der Chip schon 7nm verwendet.
Trotzdem kann man aber sagen dass der A12 (und die CPU-Architektur) äusserst konkurrenzfähig aussieht.

edit: das waren tatsächlich die 2-Thread Werte da in der Tabelle. Stimmen allerdings gerade beim Xeon 8176 nicht mit den Werten bei anandtech überein.

robbitop
2019-04-12, 08:38:10
Rechenleistung entspricht im wesentlichen einer bestimmten Anzahl an Umschaltvorgängen von MOSFETs, und jeder Umschaltjungvorgang kostet eine bestimmte Menge Energie. Z.b. macht ein L3 erst ab einem gewünschten Bums-Faktor Sinn.

L3 macht abhängig von der Cachehitrate der Applikation Sinn auf der jeweiligen CPU. Kann er sie erhöhen, macht das immer Sinn. Spart Energie und eine ganze Menge Wartetakte.

Ganon
2019-04-12, 09:34:18
Eine eigene Mac-Lösung sähe also sicher ganz anders aus - schließlich müßte über kurz oder lang nicht nur ein Core m3-7Y32, sondern auch ein XEON W-2190B ersetzt werden können.

Wäre ich mir bei Apple nicht so sicher. Die Stückzahlen sinken und sinken, Apple hat schon aufgehört diese überhaupt zu nennen. MacPros und iMacs schimmeln gerne über Jahre vor sich hin, um dann irgendwann mal eine neue Fassung zu kriegen, die dann wieder ewig schimmelt.

Würde mich nicht wundern, wenn Apple einen kompletten Bruch macht und nur noch auf Mobile & TV-Kram geht.

pixelguy
2019-04-12, 09:40:18
Warum sollten sie das tun? Die Sparte macht doch gute Gewinne

smalM
2019-04-12, 13:42:07
26 Mrd.$ Umsatz im letzten Jahr und es würde mich wundern, wenn da nicht 4 Mrd.$ Netto bei rausgesprungen wären.
Der feuchte Traum jedes anderen PC-Herstellers.

Benutzername
2019-04-15, 16:13:48
Wäre ich mir bei Apple nicht so sicher. Die Stückzahlen sinken und sinken, Apple hat schon aufgehört diese überhaupt zu nennen. MacPros und iMacs schimmeln gerne über Jahre vor sich hin, um dann irgendwann mal eine neue Fassung zu kriegen, die dann wieder ewig schimmelt.

Würde mich nicht wundern, wenn Apple einen kompletten Bruch macht und nur noch auf Mobile & TV-Kram geht.

Mit ihrem Minimalaufwand an Entwicklung für MacPros und imacs und macminis quetschen sie ein Maximum an Geld aus den Kunden. Läuft doch gut für Apple.

Ganon
2019-04-15, 16:22:23
Mit ihrem Minimalaufwand an Entwicklung für MacPros und imacs und macminis quetschen sie ein Maximum an Geld aus den Kunden. Läuft doch gut für Apple.

Ja aber wie ich ja sagte, die Zahlen sinken schon seit Jahren und es sieht global (auch im PC-Bereich) nicht gerade so aus, als ob sich das noch mal irgendwann erholt. Dass Mac-User mangels Alternativen im eigenen Ökosystem trotzdem zugreifen ist ja klar, aber das ist halt auch keine Zukunft.

Die meiste Kohle kriegt Apple halt trotzdem weiterhin über mobile Geräte (da zähle ich übrigens auch die MacBooks zu).

MSABK
2019-04-24, 23:58:47
Mit den neusten Gerüchten bzgl. der Verschiebungen bei 10nm bei Intel, glaube ich langsam echt die ARM Macbooks werden kommen. Weil weitere Jahre mit den gleichen 14nm CPUs wird sich Apple mMn nicht zufrieden geben.

deekey777
2019-04-25, 08:57:11
Was hält Apple ab, auf AMD zu wecheln? Stolz?

MSABK
2019-04-25, 09:04:10
Was hält Apple ab, auf AMD zu wecheln? Stolz?

Vlt haben sie da eine Art Klausel im Vertrag mit Intel die das in einem bestimmten Zeitraum verhindert?

Iamnobot
2019-04-25, 09:10:59
Was hält Apple ab, auf AMD zu wecheln? Stolz?
Ein Exklusivvertrag mit Intel, der hohe Rabatte sichert?

Loeschzwerg
2019-04-25, 09:16:51
Unabhängig vom Image und vermutlich den Rabatten bietet AMD aktuell nicht so ein feines Portfolio an Möglichkeiten wie Intel (z.B. die Klasse AmberLake für das neueste MB Air).

Zusätzlich die Umstellung in der Produktion, HW/SW Entwicklung + KnowHow Aufbau... Neee, dann lieber Schrittweise auf ARM umstellen und alles komplett in der eigenen Hand haben. Für "Legacy" kann man immer noch eine Intel-basierten Mac Pro / MB Pro mitlaufen lassen.