Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26 27

Ailuros
2020-04-24, 09:31:22
Warum?

Wenn dieser Die-Shot vom AMD Renoir einigermaßen stimmt:
https://www.techpowerup.com/264801/amd-renoir-die-shot-pictured

ist die GPU mit 8 x 64CU in 7nm nur ca. 27mm² groß.

Bei 1,75GHz reicht das für 1.8TFlops. Und das innerhalb eines 15w (25w?) TDP für den gesamten SoC.
Bei 1GHz dann vielleicht ca. 1TFlops und weniger als 5w für die GPU

Was heisst warum? Samsung hat ihren eigenen Brei fuer smartphone ULP SoCs entwickelt der aber fuer alles darueber nicht so effizient ist wie AMD's Loesungen. Deshalb hat Samsung auch von AMD lizenziert.

Ailuros
2020-04-24, 09:34:39
Wie schon vor ein paar Seiten hier besprochen:
Apple aims to sell Macs with it’s own chips starting in 2021 ( https://www.bloomberg.com/news/articles/2020-04-23/apple-aims-to-sell-macs-with-its-own-chips-starting-in-2021)

Basis ist also tatsächlich der A14 auf 5nm. Das Projekt soll Kalamata heißen, die HP-Kerne Firestorm und die LP-Kerne Icestorm heißen.

Na dann, tschüss Intel. :D

Intel bleibt dort wo es keine andere Loesung gibt. Was jeglicher rumor-mongerer im Netz eben nicht erwaehnt ist was fuer ein Mac Geraet genau den Apple SoC haben wird. Man muss einfach mobil denken ;)

pixelguy
2020-04-24, 10:22:34
Ich finde es irgendwie schwer vorstellbar, dass Apple mehrere Jahre aktiv zwei vers. Prozessor-Typen verkauft.

Speziell wenn es sich um so hochpreisige Macs wie den Mac Pro oder den iMac Pro handelt.
Wer kauft so eine teure Maschine, wenn man absehen kann, dass die recht bald von einer neuen Architektur abgelöst wird.

Aber fast noch schwerer vorstellbar ist für mich, dass Apple es schafft, eine wirklich konkurrenzfähige Alternative in diesem Bereich anzubieten. Eventuell sogar mit vers. Ausbaustufen (Takt, Anzahl der Kerne usw.) und nicht als SoC.

Felixxz2
2020-04-24, 10:40:57
Die Pro Modelle werden auch noch sehr lange mit x86 kommen. Die ARM Chips kommen im neuen Macbook Air und dann werden wir sehen.

Bis Firmen wie Avid, Adobe etc. ihre Software portiert haben und Pros überzeugt sind, dem bestehenden den Rücken zu kehren wird noch einige Zeit versreichen.

Der Vergleich mit dem letzten Siwtch von PowerPC ist da leider komplette Äpfel und Birnen, weil man sich ja damals auf den Restlichen (Windows) Markt zu bewegt hat. Dieses Mal bewegt man sich radikal weg und das werden sicherlich nicht alle mitmachen. Sieht man ja schon daran, was für ein bahnbrechender Erfolg Catalyst war :freak:

smalM
2020-04-24, 14:48:06
Aber fast noch schwerer vorstellbar ist für mich, dass Apple es schafft, eine wirklich konkurrenzfähige Alternative in diesem Bereich anzubieten. Eventuell sogar mit vers. Ausbaustufen (Takt, Anzahl der Kerne usw.) und nicht als SoC.
Die Dinge, die Apple nicht tun kann sind Legion.
Sie können kein Smartphone machen, sie können keinen eigenen SoC machen, sie können keine eigene CPU machen, sie können keine eigene GPU machen und nun können sie keine CPU-Dickschiffe machen – eine einzige Geschichte der Unzulänglichkeiten und des Scheiterns...

pixelguy
2020-04-24, 14:57:08
Ich habe ja nicht gesagt, dass sie es nicht können. Ich hoffe sogar darauf, dass sie es schaffen.
Nur finde ich es sehr ambitioniert, dies alles in wenigen Jahren auf die Beine zu stellen. Darauf wollte ich eigentlich hinaus.

smalM
2020-04-24, 17:42:00
Ja, es mag ambitioniert sein, der eigene CPU-Core und die eigene GPU waren deutlich ambitionierter.
Nicht zu vergessen, die Entwicklung von Swift dürfte im Jahr 2009 gestartet worden sein, zu der Zeit hat man 20~25 Mio. iPhones im Jahr verkauft, das iPad und der A4-SoC kamen erst 2010...

pixelguy
2020-04-24, 18:47:37
Nehmen wir mal an, Apple plant einen 8-12 Kerner für die Pro-Geräte.
Wäre sowas theoretisch (von dem was wir heute kennen) in der Leistungsklasse machbar oder realistisch?

Oder müssten sie da eine neue bzw. stark angepasste CPU entwickeln?
Also mehr auf Performance statt auf Energieeffizienz.

Wörns
2020-04-24, 19:45:12
Ich glaube, sie müssten vor allem vom Low Power Prozess auf den High Performance Prozess wechseln, wie schon vor ein paar Posting geschrieben. Das ist m.E. auch der ganze Grund für die Spekulation.
Von der Architektur her werden sie schon was hinkriegen. Ob das jetzt 8 fette und 4 magere Kerne werden, sei mal dahingestellt. Das weiß nur Apple.
Jedenfalls können sie die Leistung ihrer ARM Designs erheblich steigern. M.E. brauchen sie auch nicht im X86-Highend anzukommen, wenn sie erst einmal ein schmuckes Notebook auflegen.
MfG

davidzo
2020-04-24, 22:21:44
Ich vermute aber leider, dass die ersten ARM Macs nicht wirklich auf Pro Level liegen werden.


Ja, das ist was alle externen Beobachter seit Jahren predigen: Ein Ersatz für das Macbook Air oder vielleicht sogar auf MBP13" Niveau, während die wirklichen profigeräte noch ne Weile weiter mit x86 laufen.

Das verkennt aber Apples übliche Innovationsstrategie. Wenn etwas neues kommt muss es das schnellste, größte, dünnste, beste in der Klasse sein.
Insbesondere wenn es darum geht Softwareentwickler mit ins boot zu holen war diese Strategie bisher auch recht erfolgreich.

Das iphone 2G hat sich extrem schlecht an consumer verkauft, aber viele Softwareentwickler haben es sich geholt um endlich mal User Interfaces auf einem sleeken touchscreengerät auszuprobieren, ein Traum jedes ux designers. Auch ohne schnelles Internet war es daher eine art Stück Zukunft die Apple da geliefert hat.

Ich tippe daher darauf dass Apple von oben anfängt und wenn dann gleichzeitig 13/14 und 15/16" Geräte vorstellt, die alles von Intel bisher dagewesene so dermaßen deklassieren dass es nicht mehr witzig ist. Alles andere würde den Markt fragmentieren und das ist seit Sculley in den 80ern nicht mehr Apples Strategie gewesen.

Ich selbst schrecke enorm davor zurück mein alterndes MBP15" mit irgendwas zu ersetzen was nicht x86 ist, selbst wenn ich mittlerweile nur noch äußerst selten Parallels oder Bootcamp starte und fast alles in MacOS mache.
Ich habe einige teure Profi-Softwarelizenzen, zum Teil auch ältere Versionen, die ich bei einem Architekturwechsel verlieren würde. Um mich zum Wechseln zu bewegen muss es daher eigentlich zehnmal so schnell sein wie mein bisheriger 4870HQ und einige Killer-Aplikationen mitbringen die es auf anderen Plattformen einfach nicht gibt.



Eine Desktop ARM CPU zu bauen ist leicht, das sieht man ja an Server-CPUs wie Amperes Altra, Amazons Gravitron etc.
Wenn man das frontend aufbohrt, eine krasse FPU dazupackt etc, hat man eine xeon-like server CPU - mit auch fast vergleichbarem Energieverbrauch.
Und viel aufbohren bräuchte Apple da eigentlich gar nicht, die CPUkerne sind in vielen Dingen schon wesentlich breiter als Intels Architekturen. Im Prinzip würde man nur den Prozess ändern, Kernanzahl, Cachestruktur, SI und Power management auf eine High performance CPU ändern und hat dann einen sehr potenten Gegenspieler.
Ich vermute aber dass Apple wenn dann den großen Aufschlag plant und beim Aufbohren in irgendeinem Bereich deutlich über das hinausgeht was wir uns hier an zwei Fingern ausrechnen. Zum Beispiel bei der GPU, wo man trotz Intels Speialprodukten mit embedded Dram weiterhin immer unzufrieden mit Intels Leistungen war.

Rooter
2020-04-24, 23:12:45
Das verkennt aber Apples übliche Innovationsstrategie. Wenn etwas neues kommt muss es das schnellste, größte, dünnste, beste in der Klasse sein.Sparsamste gilt nicht?

MfG
Rooter

Benutzername
2020-04-24, 23:20:09
Oh man, nächstes Jahr aber WIRKLICH!!! :freak:
Mal im ernst, seit wie vielen Jahren kommen diese Insider Berichte, dass es nächstes Jahr soweit ist?

Wenn es denn wirklich kommt, wird es erstmal ein Macbook Air ähnliches Gerät. Die Pro Modelle kommen dann vielleicht 2022 oder 2023. Die großen Devs von Produktivsoftware brauchen ja auch ihre Zeit, wenn sie es denn überhaupt mitmachen.

Ich könnte mir auch einen MacMini oder ein anderes noch unbekanntes kleines neues Gerät vorstellen mit dem A14. Oder eben auch die größeren Macbooks.


Und selbst wenn, allein diese Gerüchte werden intel ins schwitzen bringen, wenn so ein bekannter Kunde vielleicht plant abzuspringen. Schon allein für Preisverhandlungen mit intel ist das eine gutes druckmittel für Apple um intel runterzufeilschen. Allein dafür könnte sich die Investition schon lohnen. Und in er Übergangszeit kann man ja auch mit AMD flirten.

Ailuros
2020-04-25, 07:44:30
Wenn man ein groesseres Geraet haben will als ein iPad Pro kann man es entweder als ein grosses iPad bezeichnen oder als kleinen iMac.

smalM
2020-04-25, 17:16:35
Ich glaube, sie müssten vor allem vom Low Power Prozess auf den High Performance Prozess wechseln, wie schon vor ein paar Posting geschrieben. Das ist m.E. auch der ganze Grund für die Spekulation.
Von der Architektur her werden sie schon was hinkriegen. Ob das jetzt 8 fette und 4 magere Kerne werden, sei mal dahingestellt. Das weiß nur Apple.
Jedenfalls können sie die Leistung ihrer ARM Designs erheblich steigern. M.E. brauchen sie auch nicht im X86-Highend anzukommen, wenn sie erst einmal ein schmuckes Notebook auflegen.
MfG

Wozu?
Der N5 dürfte für 3 GHz auf dem Big-Core gut sein. Intel bräuchte in der Skylake-Architektur für dieselbe Leistung 5,5 GHz, bzw. 4,5 GHz bei Sunny Cove.
Ich sehe auch nicht, daß Apple mit dem Takt besonders weit runter müßte, wenn alle Cores aktiv sind. Im A12X geht der Takt nicht einmal um 10% in die Knie; die Kühlung des SoC besteht übrigens darin, daß er an der Rückwand des iPads sitzt. Kein x86-Mobil-Chip kann da mithalten und auch auf dem Desktop würde es eher mau werden, wenn Intel nicht einfach mehr Cores in die Waagschale werfen könnte.
Aber Apple plant ja angeblich noch zwei weitere Modelle...

pixelguy
2020-04-25, 19:22:01
Du meinst schon einfaches hochtakten des aktuellen SoC würde reichen um am Desktop an Intel vorbeizuziehen?

smalM
2020-04-25, 21:16:08
Du meinst Vortex?
Ja.
Aber ich glaube nicht, daß sich Vortex so weit hochtakten ließe, der befindet sich bei 2,66 GHz schon ganz weit oben in der W/GHz-Kurve, da ist der N7P ziemlich ausgereizt.

Sunrise
2020-04-25, 23:00:15
Wenn die 3,09 GHz tatsächlich stimmen, wovon ich ausgehe, dann hat Apple zumindest bei der CPU da jedenfalls mehr gemacht, als nur wie bisher, minimale Modifikationen auf 5nm. Allein vom Prozess ist dieser Taktsprung nicht zu erklären, das ist einfach zuviel. Hatten wir ja schon vor ein paar Seiten das Thema. Das sind mal eben so 400MHz mehr, bei Apples bereits sehr effizienten HP-Kernen.

Das könnte schonmal ein Anzeichen dafür sein, dass hier stärker ins "Grundgerüst" eingegriffen wurde, als bisher.

Daher schrieb ich auch schon vor einigen Seiten, dass der A14X (und da wusste ich noch nichts von einer Geräteklasse >iPad Pro) mit Sicherheit ein SoC wird, der brachial schnell sein wird. Eventuell hat Apple ja dieses Mal auch eine Überraschung auf Lager, und liefert sogar eine dritte A-SoC-Variante aus, sodass es dann drei verschiedene, für unterschiedliche Geräteklassen gibt, relativ auch zur Kühlkapazität und der Akkuleistung.

Die Daten machen jedenfalls Lust auf mehr.

smalM
2020-04-28, 09:37:09
@Sunrise
Das erinnert mich ein bißchen an die Situation beim A8 (20SOC). Der hatte gegenüber dem A7 (28HP) nur um 100 MHz zugelegt und das galt als "Beweis", daß Apple die Architektur nicht höher takten kann.Und dann kam der A9X (16FF+) und der war 760 MHz höher getaktet als der A8 im iPad mini 4 mit 1,5 GHz. Und als Sahnehäubchen gab's 15% mehr IPC.
Da hatte Apple wohl auch ins "Grundgerüst" eingegriffen...

Sunrise
2020-04-28, 10:05:55
A7 vs. A8
- 28nm vs. 20nm (Taktspielraum stark begrenzt)
- minimal verbesserter Cyclone-Core (Typhoon)

Im Vergleich zu:
https://www.anandtech.com/show/9686/the-apple-iphone-6s-and-iphone-6s-plus-review/4

A8 vs. A9(X)
- 20nm vs. FinFET 16nm+ (brutaler Taktspielraum)
- starke Überarbeitung der CPU-Cores (siehe Anandtech, wenn auch nicht so stark wie Swift->Twister)
- beim iPad (A9X) und einem sehr gut taktbaren Design tut natürlich die stark vergrößerte Kühlkapazität (Gehäuse) ihr Übriges...

Von außen sowieso schwer zu beurteilen, der A14 sieht jedenfalls mehr nach Takt als IPC-Steigerungen aus, wenn man mit dem A13 vergleicht. Grundgerüst war vielleicht etwas falsch ausgedrückt, denn dann würde wohl auch die IPC stark ansteigen und wir würden noch höhere Ergebnisse bekommen (Salami-Taktik). Jedenfalls scheint Apple beim A14 etwas mehr Spielraum eingearbeitet zu haben, denn TSMC schreibt ja max. 15% - und das gilt ja nicht unbedingt für komplexe SoCs. Da hätte man allein mit der CPU den Spielraum beim Prozess schon mehr als ausgereizt.

Wobei auch die Steigerungen von N7 auf N7P bei Apple sehr hoch waren...keine Ahnung, wo sie das immer rausquetschen.

davidzo
2020-04-28, 12:48:24
Wenn man ein groesseres Geraet haben will als ein iPad Pro kann man es entweder als ein grosses iPad bezeichnen oder als kleinen iMac.


Ja, es könnte tatsächlich sein dass man eine Geräteklasse des Desktop-Tablets einführt, analog zu Microsofts surface studio und surface hub Geräten.
Professionelle Apps sind ja schon da, vom ipad pro und die Welt wartet seit langem auf den Durchbruch von Touch-Eingabe auf dem Desktop. Kombiniert man das mit 3d sensing UI Elementen wie mit den Tiefenkameras aus dem ipad ermöglicht das echt neue Möglichkeiten auch für content creators die bisher macOS benutzen. Es würde nur Sinn machen, dass Apple wenn sie schon ihre ARM-Socs mit ipadOS einsetzen, dann auch etwas vom UI der Tabletgeräte übernehmen und nicht einfach nur macOS portieren.

Microsoft hat bisher zwar nur begrenzt erfolg mit tablets, convertibles und studio touch geräten, aber MS ist auch nicht gerade für die intuitivsten UIs bekannt und auch keine bei profis sonderlich beliebte content creation Plattform (im vergleich zu macOS). Insofern kann ich mir schon vorstellen dass Apple hier eher den Durchbruch schafft, was MS bisher verwehrt blieb.

smalM
2020-04-28, 14:09:19
Wobei auch die Steigerungen von N7 auf N7P bei Apple sehr hoch waren...keine Ahnung, wo sie das immer rausquetschen.
Sie haben wohl den Takt-Spielraum bei N7 nicht voll ausgeschöpft gehabt und sind dafür beim N7P näher an die Kante gegangen.
Du kennst die Tests von Andrei und dankenswerterweise gibt er ja die Joule bei den Spec2006-Läufen an: Gut 10% Mehrverbrauch und 28% höhere Leistungsaufnahme beim A13 gegenüber dem A12.

dildo4u
2020-05-15, 13:59:16
Selbst der A10 sieht heute noch ganz gut aus, kein Wunder das alle von Intel weg wollen.

https://youtu.be/i-nVqvbIVCg?t=737

Daredevil
2020-05-15, 15:42:53
Das schlimme an der ganzen Sache ist eigentlich nur, dass Microsoft, wie Apple auch, Hardware und Software in eine Hand nimmt und das ganze darauf zuschneidet und sich trotz einer 20 sekündigen Ladezeit von Lightroom sagt "Des passt so".
Intel kann da nun auch nichts für, wenn Microsoft die lahmste Kacke verbaut, die es gibt.

dildo4u
2020-05-15, 15:44:38
Intel kann nichts für absurde i3 Preise? Das ist ein Dual Core.


https://ark.intel.com/content/www/de/de/ark/products/185282/intel-core-m3-8100y-processor-4m-cache-up-to-3-40-ghz.html

Daredevil
2020-05-15, 16:45:40
Da gibts halt zwei Lösungen.
1. Microsoft bekommt sein Windows besser gehandlet für schwache Hardware.
2. Microsoft verbaut schnellere Prozessoren.
Beide Lösungen bietet Apple an, deswegen fliegt das ganze ja auch so.

Ich meine, meine Mutti hat auch noch nen Apollo Lake Quadcore Tablet mit 3k Screen von Chuwi für 300 Taler, das ganze ist 13" groß.
Das fliegt ebenfalls nicht davon, aber immerhin hat man es hier mit nem Quadcore versucht ( Der in etwa so schnell ist wie nen Q6600 Stock ) und damit fühlt sich Windows halt nicht so laggy an.
Dual Cores sind halt total Pfui, egal in welchem Gerät mit welcher Software auch immer, selbst mit HTT.

Wenn ein Windows Update deinen Prozessor zu 100% auslastet, läuft einfach was falsch. ^^

PS:
Wenn Apple dieses Jahr nen Prozessorschritt vorwärts mach bei der Apple Watch auf 5nm, ist die Kiste bestimmt sogar schneller als so ein Intel Ding. :D

bloodflash
2020-05-15, 19:34:38
Apple braucht doch nur das iPad-Pro in Notebookbereiche aufwerten, was sie gerade schon tun.


- Tastatur und Maus aufwerten (Das geht beim nächsten Release weiter)
- Dazu passende Hardware

- Softwaremässig reichen die nativen Apps aus (alle eigenen Releases)
- Bisherige Nutzer sind doch mit den verfügbaren Apps zufrieden (Mail, Videokonferenz, Office, Appstore an sich)
- Videobearbeitung können sie schon jetzt massiv beschleunigen
- Einfach als Leadplattform für die Appentwicklung mit Xcode propagieren
- Maus, Tastatur, 2 Bildschirme und Dockingstation dran


- Da muss nichts mit x64-Notebooks oder -Desktops verglichen werden
- Auch nicht mit Spiele-PCs oder Konsolen - läuft sowieso nur Appstore drauf


Der ganze x64-Kram läuft einfach langsam aus.

HotSalsa
2020-05-19, 10:34:53
Da bin ich ganz deiner Meinung. Ein iPad pro rennt vielen Laptops und teilweise sogar Desktops davon - es gibt Videos auf youtube da schneiden / bearbeiten einige ihre 4K Videos auf dem iPad :freak: und das auch noch mit guter performance. Hier ist halt wirklich die HW und das OS aufeinander zugeschnitten inkl. Zusatzchips / Einheiten für Videokodierung etc. .

Aber an dem ganzen sind MS und Intel selbst nicht ganz unschuldig. Man hätte aus meiner Sicht bereits längst "alte Zöpfe" abschneiden sollen - will heissen, mal eine neue, moderne und effiziente Architektur entwickeln sollen, welche dann halt inkompatibel zu vorherigen x64 Sachen ist. MS hätte dazu das entsprechende OS machen können, mit eigenem App Store etc.

Warum muss eine aktuelle CPU unbedingt MS DOS und Win 3.11 ausführen können??!! das ist doch Blödsinn. Parallel dazu könnte man in einer Übergangsphase einige Core i Varianten für ältere Anwendungen und User weiter produzieren. Bei einem korrektem P/L Verhältnis und genügend Vorteilen würden schon genug Leute mit der Zeit umsteigen.

Ich möchte auch nicht wissen, wieviel Overhead Windows so an alten Protokollen und Code mit sich rumschleppt.

BlackBirdSR
2020-05-26, 16:00:33
Boom!
https://www.anandtech.com/show/15813/arm-cortex-a78-cortex-x1-cpu-ip-diverging

Muselbert
2020-05-26, 16:56:28
Boom!
https://www.anandtech.com/show/15813/arm-cortex-a78-cortex-x1-cpu-ip-diverging

Die sollten lieber endlich mal den A55 low power cores ein ordentliches Update verpassen...

Zossel
2020-05-26, 17:07:36
mal eine neue, moderne und effiziente Architektur entwickeln sollen, welche dann halt inkompatibel zu vorherigen x64 Sachen ist.

Jetzt aber mal Butter bei die Fische: Welche Probleme soll den X64? haben?

Und außerhalb irgendwelcher Hipsterblasen spielt Kompatibilität durchaus eine Rolle.

amdfanuwe
2020-05-26, 19:06:16
Man hätte aus meiner Sicht bereits längst "alte Zöpfe" abschneiden sollen - will heissen, mal eine neue, moderne und effiziente Architektur entwickeln sollen, welche dann halt inkompatibel zu vorherigen x64 Sachen ist.
Da gabs einige Versuche:
Motorola 68000
National Semi 32000
Inmos Transputer
Mips
Sparc
PowerPC
Intel Itanium
ARM
etc..
Arbeite mal in der Industrie, da merkt man erst wie wichtig kompatibilität ist.
Würde mich nicht wundern, wenn irgendwo noch DOS Rechner mit kleinen Tools verwendet werden. Die kann man nicht portieren, weil allein der Azubi von vor 20 Jahren mit dem Programmcode klar kommt.
Oder Luftfahrt. Da kriegste die nächsten 5 Jahre keinen Flieger hoch wenn auf neue Hardware und Compiler umgestellt würde. Dazu die alten Systeme noch 30 Jahre weiter pflegen, welch ein Aufwand.
Neueste Technik verwendet man für Spezialanwendungen wo der Preis nicht die Rolle spielt oder in Consumer Massenware die keine jahrelange Pflege benötigt.

D4ve
2020-05-26, 19:47:10
Oder Luftfahrt. Da kriegste die nächsten 5 Jahre keinen Flieger hoch wenn auf neue Hardware und Compiler umgestellt würde. Dazu die alten Systeme noch 30 Jahre weiter pflegen, welch ein Aufwand.

Wobei die Luftfahrt auch einfach sehr speziell ist, da gehts oft auch darum, erprobte Technik zu verwenden, da sonst womöglich massenhaft Verifikationsaktivitäten drohen, die reichlich Zusatzkosten erzeugen. Zudem wird die Technik zu Projektbeginn fixiert und dann nicht mehr geändert, oft nicht weil man nicht könnte, sondern weil sonst ein Rattenschwanz an Dokumentation überarbeitet werden müsste.

Loeschzwerg
2020-05-26, 19:59:26
Würde mich nicht wundern, wenn irgendwo noch DOS Rechner mit kleinen Tools verwendet werden.

Es gibt x86 SoCs für Embedded Systeme die mehr oder weniger nur zu diesem Zweck geschaffen wurden, Kompatibilität zu alter Software.

amdfanuwe
2020-05-26, 21:47:09
Wobei die Luftfahrt auch einfach sehr speziell ist, ...
Kollege ist als Softwareentwickler in den Bereich gewechselt. Kein Codefixing ohne vorherige schriftliche Prüfung mit Rückmeldung. Immer nach dem Motto: Mit bekannten Fehlern läßt sich leben. Also lieber mit alter Software, Compilern etc. arbeiten deren Macken man kennt als sich unbekanntes ins Haus zu holen.

Habe selbst als Embedded System Programmierer gearbeitet. Einen Fehler gefixt, 5 neue eingebaut. Zum Glück war das Gerät nicht Sicherheitskritisch und nach einigen Iterationen mit der QS konnte es wieder an die Kunden. Da denkt man: "Sache von 10 Minuten"; und braucht dann eine Woche bis wieder ein gescheites Pakage ausgeliefert werden kann.

Ailuros
2020-05-27, 07:04:50
Relevanz zum thread hier?

Mortalvision
2020-05-27, 08:49:55
Kompatibilität in alle Richtungen. Und ja, Luftfahrt ist wirklich kein 10 Minuten Ding. Die Leute von AeroSpace, die ich in der Englisch Fortbildung hatte, haben alle einen gewaltigen Perfektionsfimmel gehabt. Das gibts in der Sprache durchaus, aber ein rein effektiver Sprachduktus ist nicht mehr effizient und erst recht nicht schön oder kunstvoll.

Nix anderes sind unsere CPUs und GPUs: in Hardware gegossene Logik, welche auf "Sprache" basiert. Und eine komplett neue, "innovative" Architektur kann dann trotzdem komplett am Markt vorbei entwickelt sein...


Und ganz ehrlich: die PC Hardware der 90er reicht heute noch aus, jedes Flugzeug sicher rauf und runter zu bringen...

oder auch nicht, Stichwort: Insekten in der PiezoRöhre...

Daredevil
2020-05-31, 20:31:18
Ist es eigentlich irgendwie möglich, dass Apple keine reinen ARM Macs "irgendwann" bereit stellt, sondern das einfach irgendwie mit AMD CPUs/APUs koppelt, zumindest kurzfristig oder als Übergang?
Will sagen, so ein Renoir gepaart mit einem A13(14.. ) z.B. ist das beste aus beiden Welten.

Intel CPUs werden von kommenden AMD CPUs komplett gekillt ( Ein 8c Renoir kann ja locker in ein Macbook 13".... ) und für Stromsparende Tasks und Apps kann einfach Apples Prozessor genutzt werden.
So könnte ich mir zumindest das Gerücht erklären, dass AMD mit Zen3 direkt auf 5nm umsteigt, weil Apple ihnen das sicherlich fürstlich bezahlen würde und die User es dringend benötigen, weil so sind die Intel Notebooks mit der Zeit halt einfach...... lahm.
Threadripper alleine ist ja für nen MacPro gemacht und eigentlich ist das ziemlich lame, dass man da "nur" nen dicken Intel bekommt.

Dass es quasi keinen direkten ARM Mac gibt, sondern meinetwegen der Nachfolger des T2 Chips verbaut wird, der aber im Endeffekt ein richtiger Prozessor ist, eben für solche kleinen Aufgaben, damit die Kiste am Ende 20Std Akkulaufzeit hat und Apps bedienen kann?

urpils
2020-05-31, 21:21:24
nö - das macht weder Sinn noch ist es technisch vernünftig.

robbitop
2020-05-31, 21:26:18
Würde ich auch so sehen.

Daredevil
2020-06-01, 00:17:22
Ok ^^
Den Sinn habe ich eher dahinter gesehen, dass Apple zwar Prozessoren mit Leistung für MacBook Air ect. jetzt schon im Petto haben könnte, aber ein 64c Threadripper und dessen Leistung sicherlich mal nicht eben aus dem Ärmel schütteln kann, mh?

|MatMan|
2020-06-01, 00:37:25
Und wie sollte x86 Code auf einer ARM CPU laufen bzw. umgedreht?

Daredevil
2020-06-01, 00:56:21
Ja gar nicht, deswegen ja die Frage an die Profis hier, ob ein Mischmasch auch möglich ist.
Also quasi big.LITTLE, nur das der kleine sparsame Prozessor ein ARM AXX von Apple ist und der große x86 Prozessor dann von AMD.

Ich meine... so rein von der Prozessorleistung bekommt man bei HP nen 500€ Renoir Kistchen mit 8 Kernen, der jedes MacBook Pro 13" outperformt. Da muss doch entweder Apple die Chance ergreifen, oder AMD zumindest nen sehr gutes Angebot bei Apple zugeschickt haben.
Bei den GPUs arbeiten die beiden ja auch zusammen. Nur mal aus der Sicht eines Laien. :)

|MatMan|
2020-06-01, 01:09:06
Damit hast du dir deine Frage doch selbst beantwortet. Warum 2 verschiedene CPU Architekturen zusammen integrieren, wenn nur eine von beiden nutzbar ist?!
Aber vielleicht würden Apple Nutzer ja ein Dual Boot System toll finden...

Apple könnte zumindest für das OS mit einigem Aufwand sicherlich etwas entwickeln damit x86 und ARM Cores zusammen laufen. Aber wozu? Intel hat ja selbst schon eine BIG.little Architektur angekündigt. So lange kann man sicher noch warten.
Außerdem müssten x86 und ARM Cores am selben Speichercontroller / Cache-System hängen, sonst kannst du es gleich vergessen. Da bräuchte Apple also eine x86 Lizenz oder AMD müsste Apple's ARM Cores einbauen...

Ghost1nTh3GPU
2020-06-01, 09:16:38
5nm Chiplet und die x86 Apps werden in Containern auf einem iPad OS basierten System ausgeführt. Der A1x SoC ist dann zugleich das IO-Die.

Aber da ist es wohl doch eher wahrscheinlich, dass Apple selbst einen Desktop-tauglichen A-Chip entwirft oder mit Zen3 Intel in die Wüste schickt und voll auf AMD setzt. Threadripper wäre schon jetzt die perfekte CPU für Mac Pro und Renoir passend für die Notebooks.

Ailuros
2020-06-01, 10:01:12
Ja gar nicht, deswegen ja die Frage an die Profis hier, ob ein Mischmasch auch möglich ist.
Also quasi big.LITTLE, nur das der kleine sparsame Prozessor ein ARM AXX von Apple ist und der große x86 Prozessor dann von AMD.



Verdammt umstaendlich und teuer IMHO.

Wenn man hypothetisch eine neue Geraete-kategorie vorstellt, wird man wohl selbst als Apple zur einfachsten Kombination an Loesungen greifen.

robbitop
2020-06-01, 11:05:45
Und wie sollte x86 Code auf einer ARM CPU laufen bzw. umgedreht?

Emulation wäre eine Möglichkeit. Gab es ja mit Rosetta beim Wechsel von POWER zu x86 auch. Bei MacOS ist ein Wechsel viel weniger problematisch da ja auch die SDKs von Apple kommen. Entsprechend schnell und einfach kann mit einem Update jede App auf ARM kompiliert werden. Und bis dahin läuft alles über Emulation. Das war damals kein Drama und dauerte überhaupt nicht lange bis der Großteil der Software rekompiliert war.

|MatMan|
2020-06-01, 11:27:15
Schon klar, die Möglichkeit gibt es, aber für die Energieeffizienz kann das nicht optimal sein. Da müssten die Vorteile so einer Mischlösubg schon gigantisch sein, dass da noch was übrig bleibt.
Von Microsoft gibt es bisher auch nur 32bit Emulation, mit 64bit lassen sie sich richtig lange Zeit, das wird wohl technische Gründe haben -> Vermutung: so einfach wäre es dann wohl auch für Apple nicht.

robbitop
2020-06-01, 11:33:13
Ist ja nur für eine kleine Übergangszeit. Kann man ja theoretisch auch schon vor der Einführung/Umstellung machen. Compilerupdate und schon fallen auch automatisch ARM Kompilate parallel ab.

Zossel
2020-06-01, 12:00:45
5nm Chiplet und die x86 Apps werden in Containern auf einem iPad OS basierten System ausgeführt. Der A1x SoC ist dann zugleich das IO-Die.

Unterschiedlicher Byte-Sex in einer OS-Instanz ist widerlich.

Badesalz
2020-06-01, 12:28:25
Wie schnell in etwa soll so ein A14 sein?

|MatMan|
2020-06-01, 12:28:59
Ist ja nur für eine kleine Übergangszeit. Kann man ja theoretisch auch schon vor der Einführung/Umstellung machen. Compilerupdate und schon fallen auch automatisch ARM Kompilate parallel ab.
Du willst dann deine laufende App neustarten, wenn du sie von x86 auf ARM schiebst? Oder wie soll das mit 2 Kompilaten zur Laufzeit gehen?

robbitop
2020-06-01, 12:36:06
Natürlich nicht. Die Applikation fragt die ISA ab (idealerweise gleich bei der Installation) und startet dann den jeweiligen Pfad.

mboeller
2020-06-01, 12:47:45
IMHO: die Übergangszeit sehen wir gerade: iPad Pro mit Cover + Maus und dazu das IOS 13.5

|MatMan|
2020-06-01, 12:50:48
Natürlich nicht. Die Applikation fragt die ISA ab (idealerweise gleich bei der Installation) und startet dann den jeweiligen Pfad.
Ja das geht zum Start der App, aber dann läuft die x86 oder die ARM Version und du kannst die zur Laufzeit nicht verschieben (bzw. nur innerhalb einer Architektur).

robbitop
2020-06-01, 13:15:54
Ja das geht zum Start der App, aber dann läuft die x86 oder die ARM Version und du kannst die zur Laufzeit nicht verschieben (bzw. nur innerhalb einer Architektur).

Muss doch auch gar nicht. Entweder hat dein Mac einen x86 oder einen ARM Prozessor. Damit wäre auch für die Übergangszeit für alles gesorgt. CPUs mit mehrern ISAs sind technisch nicht praktikabel.

urpils
2020-06-01, 13:51:07
Wie schnell in etwa soll so ein A14 sein?

in etwa etwas schneller als der A13... :rolleyes:

was soll denn so eine Frage? Apple wird nicht "den" A13 in seine Rechner stecken. und selbst wenn: "wie schnell" ist doch auch als Maßstab zur Beurteilung einer Sinnhaftigkeit eines PC-Einsatzes nicht ausreichend.

Apple ist notorisch geheimniskrämerisch... abwarten bis das Zeug da ist, dann kann man es untersuchen und messen - alles andere bis dahin ist nicht mehr als haltlose Spekulation - aber dann helfen auch allgemeine Fragen wie "wie schnell" nicht aus um sinnvoll zu spekulieren...

robbitop
2020-06-01, 14:57:35
Wobei es nicht wundern würde wenn die Apple Cores schon ein gutes Stück vor den Inte Cores liegen was IPC angeht. Und im idle deutlich sparsamer sind (die galaxy book s wo der Snapdragon 25h Laufzeit hat und Intels Hybrid aus Tremont und Sunny Cove nur 17h schaffen).
Man wird sicherlich auch nördlich von 3 GHz liegen.
Ggf nichts für Mac Pros aber für mobile kann es schon gut sein, dass man da in Bezug auf Perf/W liegt. Ggf verbaut man auch mehr Kerne und auch small und little cores.
Man darf nicht vergessen, dass Apple mittlerweile die besten Leute der Industrie hat und Milliarden in dieses Programm pumpen. Durch die spezifische Auslegung der CPUs auf mobile (vor dem Hintergrund der nur eingeschränkten Sklaierbarkeit der uArch) kann man in solchen Plattformen sicherlich punkten. Ggf nutzt man dann auch schon 5 nm und hat dadurch nochmal einen schönen Prozessvorteil.

Andererseits sind Macbooks ja nur noch ein kleiner Teil von Apples Umsatz. Dafür ein extra SoC? Ggf teilt man sich dem mit dem iPad oder aber die Strategie ist es einfach, das iPad immer weiter produkver zu gestalten...
Bleibt spannend.

Daredevil
2020-06-01, 16:51:02
Verdammt umstaendlich und teuer IMHO.

Wenn man hypothetisch eine neue Geraete-kategorie vorstellt, wird man wohl selbst als Apple zur einfachsten Kombination an Loesungen greifen.
Ok, Danke! :)

Zur Übergangszeit: Imho hat sich der ein oder andere früher nen PPC Mac geholt, weil ihm das Emulationsding zu ungeheuer war.
Am Ende war ein Intel mit Emulation aber trotzdem schneller als ein PPC, deswegen gab es da anscheinend wenig/keine Nachteile.

Dann warten wir mal ab auf den ARM Mac, oder eben doch AMD, weil die bieten sich ja tatsächlich sehr stark an. ^^

|MatMan|
2020-06-01, 17:57:59
Muss doch auch gar nicht. Entweder hat dein Mac einen x86 oder einen ARM Prozessor. Damit wäre auch für die Übergangszeit für alles gesorgt. CPUs mit mehrern ISAs sind technisch nicht praktikabel.
Bei der Idee von Daredevil ging es doch gerade um die Mischung von ARM und x86. Ansonsten zweifelt sicher kaum jemand daran, dass Apple ziemlich problemlos von x86 auf ARM umsteigen könnte.

robbitop
2020-06-01, 18:02:38
Ja aber die „Idee“ ist unpraktikabel und auch überhaupt nicht nötig. Wenn man anständig umstellt.

Badesalz
2020-06-01, 22:47:37
@urpils
"Was is Problem?" Könnte einfach nur sein, daß jemand nicht mit beiden Augen und Ohren dran ist und sich vielleicht denkt, daß da schon in der Zeit was durchsickerte. So schlimm?

Wie schnell ist denn das Teil im iphone11pro (z.B.) vergliechen mit x86 Desktops? :usweet: (egal aus welcher Zeit)

Daredevil
2020-06-01, 22:54:29
Ja aber die „Idee“ ist unpraktikabel und auch überhaupt nicht nötig. Wenn man anständig umstellt.
Das Apple kleine schnelle Prozessoren bauen kann, sieht man ja am iPad/iPhone, aber kann Apple denn die Leistung von solchen Schlachschiffen wie z.B. einem MacPro aus dem Ärmel zaubern?
Deswegen habe ich ja erstmal nur an sowas gedacht, weil es mich wundern würde, wenn Apple "mal eben" das herbeizaubert, wo AMD Jahrzehntelang für entwickelt hat und Intel quasi deklassiert. Gut... vielleicht macht Apple das ja ebenfalls. :D

Badesalz
2020-06-01, 23:24:38
Dabei geht es auch darum wie man das vorhandene nutzt.

Wenn sie den Devs sagen, das ist jetzt unser A14, das ist hat die und die instruction sets, da macht auch Metal einiges draus, das ist unsere GPU und der Treiber/Metal, das kann dies und jenes, das sind die SDKs dazu...

...dann wird das nicht so wie bei Wintel sein, wo du 2020 noch wartest, daß noch irgendwer außer einem einzigen Mediarecoder AVX brauchbar nutzt. Das AVX vom Sandy, von 1Q2011.

Das kann sofort ziemlich gut losrennen. Trotzdem ist es ein ACS, also ein absolute closed system, und daher wird es hier niemals zu mehr als einem iPad fürs Netz auf der Couch schaffen :rolleyes:

smalM
2020-06-03, 17:16:52
Man wird sicherlich auch nördlich von 3 GHz liegen.
Wozu?
Mit 3 GHz wird die CPU bei ST alles wegputzen, was sonst so in einem Apple-Laptop unterzubringen ist. Die Frage ist alleine, wieviele big-Cores sie in den SoC packen werden und ob es so auch bei MT gleich im ersten Anlauf für alles unterhalb von iMac Pro und Mac Pro reicht.
Ich glaube eher nicht, daß Apple eine Transition zu Arm starten wird, wenn sie dieses Ziel nicht auf Anhieb erreichen können.
Außerdem dürfte es bei 3 GHz machbar sein bei N5 HD zu bleiben, was ein wirklich dickes Transistorbudget auf der Diefläche eines A12X ermöglichen würde.

Das Apple kleine schnelle Prozessoren bauen kann, sieht man ja am iPad/iPhone, aber kann Apple denn die Leistung von solchen Schlachschiffen wie z.B. einem MacPro aus dem Ärmel zaubern?
Deswegen habe ich ja erstmal nur an sowas gedacht, weil es mich wundern würde, wenn Apple "mal eben" das herbeizaubert, wo AMD Jahrzehntelang für entwickelt hat und Intel quasi deklassiert. Gut... vielleicht macht Apple das ja ebenfalls.

Daß der erste Anlauf auf den Mac Pro zielt, glaubt doch auch keiner wirklich. Apples System-Backbone kann bekanntlich mit zwei CPU-Clustern á vier CPUs umgehen; wahrscheinlich (auch wenn es keine X-Version gab) kann er das schon seit dem A11.
Von "mal eben" kann da zum einen keine Rede sein und ich sehe keinen Grund, wieso sie bei mehr als 4+4 in Schwierigkeiten geraten sollten.
Zum anderen: Jede kleine Klitsche bastelt ihre Arm-Server-CPU mit dutzenden Cores zurecht und Apple soll über 8 nicht hinaus kommen können?

robbitop
2020-06-03, 17:19:39
Soweit ist man doch in den Smartphones nicht von 3 GHz entfernt. Man wird mit 5nm und etwas mehr TDP Spielraum schon auch agieren können. Und wenn es nur als Boost ist. Der Große Vorteil liegt ja im niedrigen Teillastverbrauch. Wenn die Kerne ausgelastet werden sind sie auch nicht so sparsam im Vergleich zu den Wettbewerbskernen. Aber mit sagen wir 10W TDP kann man auch mal kurz boosten. Gerade für die Fluppdizität in einem Notebook ist das ziemlich wichtig.

Rest sehe ich auch so. 4+4 ist das Minimum was kommen sollte. Wenn nicht sogar mehr. Apple hat eines der besten CPU Teams der Welt. Das bekommen die schon hin wenn sie wollen.

Ailuros
2020-06-04, 08:44:17
Wozu?
Mit 3 GHz wird die CPU bei ST alles wegputzen, was sonst so in einem Apple-Laptop unterzubringen ist. Die Frage ist alleine, wieviele big-Cores sie in den SoC packen werden und ob es so auch bei MT gleich im ersten Anlauf für alles unterhalb von iMac Pro und Mac Pro reicht.
Ich glaube eher nicht, daß Apple eine Transition zu Arm starten wird, wenn sie dieses Ziel nicht auf Anhieb erreichen können.
Außerdem dürfte es bei 3 GHz machbar sein bei N5 HD zu bleiben, was ein wirklich dickes Transistorbudget auf der Diefläche eines A12X ermöglichen würde.


Ich weiss zwar nicht was Apple vorhat aber mich wuerde langfristig selbst ein (1+3) + 4 "big.LITTLE" config nicht wundern. So viel zusaetzliche die area verbraucht ein einzelner "mega core" sowieso nicht. Anders Frequenz ist tatsaechlich nicht die einzige moegliche Loesung und definitiv nicht die sparsamste wenn es zum Stromverbrauch kommt.

smalM
2020-06-04, 09:58:06
@Ailuros
Im Vergleich zu allen anderen sind Apples große Cores doch schon "mega cores".
Arm hat für seinen neuen Cortex-X1 eine 1+3+4 Konfiguration in Kombination mit A78 und A55 vorgeschlagen; aber man darf dabei nicht vergessen, daß schon der normale Big-Core im A14 wahrscheinlich so um ein Viertel bis ein Drittel schneller sein dürfte als ein X1 und Apples kleine Cores um Welten performanter sind als ein A55.
Ich sehe einfach bei Apple den Bedarf an so einem "über"-Core nicht, weder im A14, noch in im A14X und auch nicht im postulierten Mac-SoC. In letzterem ist schlicht Bedarf nach mehr Cores, nicht nach noch schnelleren (und nach SVE2 statt NEON, aber das ist eine andere Geschichte...).

Ailuros
2020-06-04, 10:31:35
Der Bedarf koennte in absehbarer Zukunft wachsen wenn die CPU peak Leistung in Exynos bzw. QCOM SoCs steigt und Apple ihren Vorsprung in CPU Leistung bei gleichem Abstand haben moechte. Die Idee einen einzelnen noch schnelleren core im grossen cluster zu haben ist alles andere als absurd und ist zwar schon Ewigkeiten her aber es hiess auch mal dass Apple dank ihrem DVFS etwas wie "big.LITTLE" nicht wirklich braucht. (Every idea worth a damn has been patented twice, at least ;) )

Das Grund-konzept vom X1 ist dieses eines custom mega cores. Leistungs-Unterschiede zu Android SoCs haengen wohl eher davon ab wie aggresiv Samsung und QCOM (am Anfang) ihre custom cores entwickelt und integriert haben.

mboeller
2020-06-04, 10:50:57
@Ailuros
...aber man darf dabei nicht vergessen, daß schon der normale Big-Core im A14 wahrscheinlich so um ein Viertel bis ein Drittel schneller sein dürfte als ein X1 ....

https://www.anandtech.com/show/15813/arm-cortex-a78-cortex-x1-cpu-ip-diverging/4

wenn man nach diesem Chart geht, dann ist der Unterschied nicht mehr so groß.

SpecINT: A1413 = 52,82; X1 = 47,2
SpecFP: A1413 = 65,27; X1 = 66,1

Der A1413 ist bei FP also langsamer, und bei INT noch 12% schneller. Der X1 gewinnt aber immer mit massivem Vorsprung bei der Energieeffizienz (Joules).

Man sieht auch sehr schön, wie gering der Unterschied zw. X1, A1413 und X86 (Intel, AMD) inzwischen ist.

Ailuros
2020-06-04, 10:58:49
Die ARM X1 Daten sind fuer ARM's eigene Projektionen einer spezifischen Implementierung des cores. Ein jeglicher Partner kann einen X1 (momentan nur 1 core unter dynamIQ) auch aggressiver gestalten, welches natuerlich dann auch mehr Verbrauch bedeuten koennte.

smalM
2020-06-04, 14:03:47
@mboeller
Das ist der A13.

@Ailuros
Die Core-IP ist für jeden Teilnehmer an Arms Programm Cortex-X-Custom erhältlich. Die Beschränkung auf 1 Core in den bisherigen Veröffentlichungen verstehe ich als Vorschlag einer Implementierung und es ist auch nirgens ersichtlich, daß für den X1 eine andere Obergrenze gelten sollte als für alle anderen A7x Cores in einem DynamIQ-Cluster, also 4 Stück.

mboeller
2020-06-04, 15:09:08
@mboeller
Das ist der A13.


upps

pixelguy
2020-06-09, 18:01:12
Mac mit ARM-Prozessor: Apple soll Wechsel weg von Intel zur WWDC ankündigen
Bereits zur übernächste Woche startenden WWDC will Apple einem Bericht von Bloomberg zufolge die Strategie für den Wechsel von Intel zu eigenen System-on-a-Chips auf ARM-Basis vorstellen. App-Entwicklern soll damit genügend Vorlaufzeit gegeben werden, bevor erste entsprechend ausgestattete Produkte 2021 folgen.


https://www.computerbase.de/2020-06/mac-arm-prozessor-apple-wechsel-intel-wwdc-2020/

smalM
2020-06-09, 18:59:40
Wenn's nicht eine Meldung von Bloomberg wäre...

Platos
2020-06-10, 00:35:11
Naja, ein Macbook Air kann man sich ja vorstellen. Aber das Macbook Pro wird wohl kaum so schnell eine Änderung erfahren (Das Bild bei CB ist ein Macbook Pro). Die Modelle mit Grafikkarte dann natürlich gar nie.


Aber selbst das Macbook 13" ohne Grafikkarte kann ich mir in den nächsten paar Jahren nicht als Kandidat vorstellen. Auch wenn Intel momentan schwächelt, das Macbook Pro ist ja geradezu immer bis an die Takt-Kotzgrenze hochgezüchtet und das wird wohl kaum getoppt werden können. Das Powertarget ist viel zu hoch. 28W vs. 6W(?). Der A13 verbraucht glaube ich bis zu 6W. Selbst wenn so ne hochgezüchtete 12W Version von Apple käme, wird sie wohl kaum die auf die Kotzgrenze getakteten 28w Intel-CPUs erreichen.

Aber das Macbook Air, why not.

Daredevil
2020-06-10, 10:42:36
Wieso denn nicht?
Alle aktuelle Prozessoren in den MacBooks sind zwar schnell im SC, kränken dann aber im MC.
Soweit ich weiß, ist der Prozessor im iPad Pro ca. 15% langsamer als der SoC im iPhone 11, aber deutlich schneller in MultiCore Anwendungen.
Sprich da wo die Schwäche eines MacBooks ist in 13", da ist eben die Stärke eines Apple SoCs.

Das Air hat keine richtige Belüftung, das 8Gen Pro eine und das 10th Gen Pro zwei. Das tun sie nur wegen der MC Leistung.

Frucht-Tiger
2020-06-10, 11:08:57
Das ewige rumgeeiere auf der maximalen CPU Leistung ist doch eh müßig. Die werden schon was ausreichend schnelles hinbekommen für die jeweilige Zielgruppe. Alles richtig leistungsintensive betrifft doch eh nur ein Promille und verlagert sich immer mehr in Richtung GPU Beschleunigung.

Ich hoffe, dass Apple hier mal endlich wieder einen Innovationssprung macht und nicht einfach nur Geld spart durch die eigenen Prozessoren und kleineren Akkus etc. Bei den Displays und Gehäuse könnten sie gerne mal wieder eine Schippe drauflegen und vielleicht alle Geräte mit 5G ausstatten/anbieten.

smalM
2020-06-10, 12:26:03
Aber selbst das Macbook 13" ohne Grafikkarte kann ich mir in den nächsten paar Jahren nicht als Kandidat vorstellen. Auch wenn Intel momentan schwächelt, das Macbook Pro ist ja geradezu immer bis an die Takt-Kotzgrenze hochgezüchtet und das wird wohl kaum getoppt werden können. Das Powertarget ist viel zu hoch. 28W vs. 6W(?). Der A13 verbraucht glaube ich bis zu 6W. Selbst wenn so ne hochgezüchtete 12W Version von Apple käme, wird sie wohl kaum die auf die Kotzgrenze getakteten 28w Intel-CPUs erreichen.
Es ist mir völlig schleierhaft, wieso Du hier mit einem SoC ankommst, der für ein Smartphone entwickelt wurde, was soll das? Die iPhone-SoCs werden eh nie in einem Mac landen und ihr Verbrauchsverhalten ist deshalb völlig irrelevant.

Kotzgrenze in einem MacBook Pro sind übrigens die 70W, die sich der i9-9980HK mit seinen 45W TDP dort kurzfristig genehmigen darf.

Daredevil
2020-06-10, 13:55:49
Die iPhone-SoCs werden eh nie in einem Mac landen und ihr Verbrauchsverhalten ist deshalb völlig irrelevant.


Warum nicht?
Der Homepod hat einen iPhone SoC, der AppleTV hat iPhone SoCs. Das iPad Mini hat einen iPhone SoC.
Es braucht für Basic Zeug und Videobearbeitung mit Apps weder einen um Faktor X schnelleren SoC, noch braucht es 20 Kerne.

Ein iPad auf nem 4K Monitor macht heute genau das, was man mit einem Computer macht. Wo mangelt es denn da an Leistung?
Wieso sollte Apple denn künstlich deutlich mehr Leistung in einen Mac packen, wenn man damit die Marge und die Batterielaufzeit deutlich strecken kann?

Minimalprinzip und so. :D
Das erreicht man btw. aktuell mit dem MacBook Air/Pro8Gen nicht, der Prozessor ist vergleichsweise langsam und wird unnötig heiß, zudem verkauft Intel den sicherlich auch noch teuer dazu.
Also alles, was ein iPad Pro Prozessor z.B. besser machen kann, selbst aktuell schon.

Zossel
2020-06-10, 14:10:49
Das ewige rumgeeiere auf der maximalen CPU Leistung ist doch eh müßig. Die werden schon was ausreichend schnelles hinbekommen für die jeweilige Zielgruppe. Alles richtig leistungsintensive betrifft doch eh nur ein Promille und verlagert sich immer mehr in Richtung GPU Beschleunigung.

Dann braucht Apple ja keine eigenen Cores mehr zu entwickeln und hat dann mehr Kohle für die Shareholder übrig.

steve.it
2020-06-10, 18:51:33
Naja, ein Macbook Air kann man sich ja vorstellen. Aber das Macbook Pro wird wohl kaum so schnell eine Änderung erfahren (Das Bild bei CB ist ein Macbook Pro). Die Modelle mit Grafikkarte dann natürlich gar nie.

Ich tippe darauf, dass das MacBook Pro der erste ARM-Mac sein wird (sofern die Umstellung tatsächlich kommt). Wetten?

Platos
2020-06-10, 19:38:19
Wieso denn nicht?
Alle aktuelle Prozessoren in den MacBooks sind zwar schnell im SC, kränken dann aber im MC.
Soweit ich weiß, ist der Prozessor im iPad Pro ca. 15% langsamer als der SoC im iPhone 11, aber deutlich schneller in MultiCore Anwendungen.
Sprich da wo die Schwäche eines MacBooks ist in 13", da ist eben die Stärke eines Apple SoCs.

Das Air hat keine richtige Belüftung, das 8Gen Pro eine und das 10th Gen Pro zwei. Das tun sie nur wegen der MC Leistung.

Seit ein paar Generationen gibt es doppelt so viele Kerne. Wo ist da also der MC schlecht? Und wie gut z.B der A13 in wirklichen Anwendungen ist (nicht Geekbench), ist auch schwer einzuschätzen. Einen wirklichen Vergleich gibt es nicht von Mobile-SoCs und "normalen" Prozessoren. Geekbench ist einfach kein Vergleich zwischen Mobile und Destkop/Laptops.

Aber es ist natürlich klar, dass wenn Apple was entwickelt, das mehr als 6w ziehen kann und vermutlich auch nicht nur kurz boosten kann. Aber die Mobile-SoCs lassen sich nicht einfach beliebig in der Grösse nach oben skalieren. Siehe Qualcomm.

Also mehr als 12-15W halte ich für ausgeschlossen und von daher kommt das aus meiner Sicht nicht an die Leistungsklasse von einem 28w ran. (der im Boost vermutlich noch deutlich mehr zieht). Und wie von anderen angemerkt gibts dann noch die anderen 45W Modelle.

Wie stellst du dir also vor, dass eine 12-15W A14-Modifikation irgendwo besser sein kann, wie eine 28W oder gar 45W CPU ? Das ist völlig ausgeschlossen aus meiner Sicht. Oder gehst du davon aus, dass diese A14 Modifikation mehr als 15W zieht?



Es ist mir völlig schleierhaft, wieso Du hier mit einem SoC ankommst, der für ein Smartphone entwickelt wurde, was soll das? Die iPhone-SoCs werden eh nie in einem Mac landen und ihr Verbrauchsverhalten ist deshalb völlig irrelevant.

Kotzgrenze in einem MacBook Pro sind übrigens die 70W, die sich der i9-9980HK mit seinen 45W TDP dort kurzfristig genehmigen darf.

Weil es im Artikel erwähnt wird? Ein modifizierter A14 soll es sein. Aber es ist ja auch völlig wurscht, obs nun 6 oder 12W sind, es geht darum, dass man vermutlich nicht an die Leistung ran kommt. Und es gibt verschiedene Macbook Pros. Es gibt auch die 28W 4-Kerner wobei die vermutlich bei Apple mehr ziehen, deutlich mehr (kurzfristig). Dein 45W Beispiel bekräftigt ja meine Aussage nur noch. Der Wattage-Unterschied ist also nur noch viel grösser.

Abgesehen davon habe ich ja 12W geschrieben, die 6W Angabe war als Vergleich, da es sich wie gesagt angeblich um einen Modifizierten A14 handeln soll.

Ich tippe darauf, dass das MacBook Pro der erste ARM-Mac sein wird (sofern die Umstellung tatsächlich kommt). Wetten?

Wieso sollte das so sein? Ich sehe da irgendwie wenig Argumente ;) Gerade weil man vermutlich die Low-Power Architektur nicht einfahc so einfach beliebig nach oben Skalieren kann, wird es deutlich einfacher sein, ein Gerät damit auszurüsten, dass eben nicht soo viel Leistung brauch und vlt. sogar noch von niedrigerem Stromverbrauch profitieren kann (was das Gerät noch kompakter machen könnte, was nochmals für's Macbook Air spricht).

Also warum gerade das Macbook?

steve.it
2020-06-10, 19:59:08
Wieso sollte das so sein? Ich sehe da irgendwie wenig Argumente ;) Gerade weil man vermutlich die Low-Power Architektur nicht einfahc so einfach beliebig nach oben Skalieren kann, wird es deutlich einfacher sein, ein Gerät damit auszurüsten, dass eben nicht soo viel Leistung brauch und vlt. sogar noch von niedrigerem Stromverbrauch profitieren kann (was das Gerät noch kompakter machen könnte, was nochmals für's Macbook Air spricht).

Also warum gerade das Macbook?

- weil Apple mit dem aktuellen SoC vermutlich schon längst in Intels Leistungsregionen angekommen ist.
- weil Entwickler sich eher ein MacBook Pro als ein MacBook Air kaufen. Es soll für ARM entwickelt werden.
- weil Apple den Zweiflern möglicherweise zeigen will, wo der Hammer hängt (sofern Apple wirklich in entsprechenden Leistungsregionen angekommen ist).

Daredevil
2020-06-10, 20:15:19
Seit ein paar Generationen gibt es doppelt so viele Kerne. Wo ist da also der MC schlecht? Und wie gut z.B der A13 in wirklichen Anwendungen ist (nicht Geekbench), ist auch schwer einzuschätzen. Einen wirklichen Vergleich gibt es nicht von Mobile-SoCs und "normalen" Prozessoren. Geekbench ist einfach kein Vergleich zwischen Mobile und Destkop/Laptops.

Aber es ist natürlich klar, dass wenn Apple was entwickelt, das mehr als 6w ziehen kann und vermutlich auch nicht nur kurz boosten kann. Aber die Mobile-SoCs lassen sich nicht einfach beliebig in der Grösse nach oben skalieren. Siehe Qualcomm.

Also mehr als 12-15W halte ich für ausgeschlossen und von daher kommt das aus meiner Sicht nicht an die Leistungsklasse von einem 28w ran. (der im Boost vermutlich noch deutlich mehr zieht). Und wie von anderen angemerkt gibts dann noch die anderen 45W Modelle.

Wie stellst du dir also vor, dass eine 12-15W A14-Modifikation irgendwo besser sein kann, wie eine 28W oder gar 45W CPU ? Das ist völlig ausgeschlossen aus meiner Sicht. Oder gehst du davon aus, dass diese A14 Modifikation mehr als 15W zieht?


Ab 5:30
IULkXAHjL_s

Die Kiste läuft permanent bei 100°C und stuttert sogar in Youtube deswegen.
Ich gehe ehrlich gesagt nicht davon aus, dass ein MacBook Air äquivalent mit Apple CPU viel Strom verbraucht, denn sie wird sicherlich keinen Lüfter haben, analog zum iPad. Das tut einfach nicht not.
Selbst die kleinste Intel CPU ist zu heiß für den Formfaktor des Air.

Wir haben mit dem 10.2" das "Volks iPad", das gleiche gilt für das iPhone SE.
So eine 600€ ARM Notebook Kiste ohne Lüfter, dit ist the Next Big thing und MacOS für jedermann. Spekulatius. :)

Platos
2020-06-10, 21:11:18
Ja, aber wieso zeigst du mir jetzt ein Test zum Macbook Air? Ich sage ja selbst, dass ich es mir für's Macbook Air gut vorstellen kann. Es geht mir ja um die Macbook Pro Linie. Und ja, die SoCs von Apple sind ganz sicher Effizienter (genau so wie auch die von Qualcomm). Ich würde sagen, das waren sie auch schon, als Intel noch nicht solche Probleme in der Fertigung hahtten.

Aber a) bleibt die Effizienz nicht gleich, wenn man einfach aus dieser Mobile-Architektur 12W SoCs macht (man kann also nicht einfach nach oben rechnen) und b) ist ja dann wie gesagt eine 28w oder gar 45w CPU im Macbook Pro vs. ein 12-15W SoC von Apple. Aber ja, schlussendlich ist das meine Einschätzung, die kann natürlich auch falsch sein. Ich glaube aber nicht, dass solche hoch Taktenden CPUs von Mobile-SoCs abgehängt werden. Wobei angblich soll dieses A14-Derivat 12 Kerne haben und davon 8 schnelle bis zu 3GHz laut Gerüchten. Also wer weiss, vlt. ja doch lohnenswert für die kleinen Macbook Pro. Aber bis dahin ist ja auch Tigerlake am Start, Ice Lake ist also nicht der Vergleich. Die grossen Macbook Pros mit Grafikkarte sind aus meiner Sicht aber völlig utopisch.

Und mir ging es ja ums Macbook Pro, nicht ums Air. Das Macbook Pro drosselt nämlich nicht, auch wenn es sehr heiss wird. Linus ist ja nicht gerade meine liebste Quelle, aber trotzem gut zu sehen, wie das Air abstinkt und das Pro sich von der Leistung sehr gut hält. sJkIVg0upJ4

Daredevil
2020-06-10, 22:06:47
Es gibt ja zwei MacBook Pro varianten, einmal die 13" mit 8thGen Intel CPU und einer Kühleinheit ( Besser als Air, aber immer noch heiß ) und die 13" Variante mit 10thGen und zwei Kühleinheiten.
Letzteres ist mit 10nm und Kühlung natürlich gut, die Kiste fängt allerdings auch bei 2129€ an, also die Lücke zwischen Air und einem "richtigen" pro ist schon sehr groß.

Ich suche mal gerade das Video raus, was ich eigentlich posten wollte. :<
Da isses https://youtu.be/u_eDOvrbnOE?t=110

23% mehr Cinebench Performance ist schon n guter Unterschied.
Das HighEnd Model ist fast doppelt so schnell wie das "LowEnd" pro in HEVC, da ist z.B. ein iPad stark.

Aber ja, wir spekulieren da unterschiedlich. ^^

Aus aktuellem Anlass, Frisch aus der Presse. :D
lKqUggbSlHw

Platos
2020-06-10, 23:18:21
Ok, ich wusste nicht, dass es ein 2020 Macbook Pro mit 8th Gen CPU gibt. Dann muss ich wohl korrigieren: Das Macbook Pro 13" mit dem i7 1065g7 meinte ich bisher.

Das andere ist ja grauenhaft:frown:

Und ja, das iPad ist eig. ganz gut. Der Stift ist wirklich recht ordentlich. Aber dann doch lieber ein Surface Pro, wenn es mal endlich eine erweiterbare SSD bekommt, wie das Surface X.

Wenn wir schon dabei sind: Apple hat irgendwie keinen Ersatz für ein Surface Pro. Das iPad ist zwar ein besseres Tablet mit Stift, aber es hat natürlich immer noch IOS. Die Software ist also nicht gerade berauschend und ein wirklichen Desktop-Modus gibt es nicht und wie am Schluss gesagt wird, hat es einfach zu wenig RAM um schnell zwischen Programmen zu switchen. Aber die Prozessorleistung des A13 (ist der da drinn?) ist eig. gut.

Naja, ich habe es mal ausprobiert, mir gefällt's persönlich nicht als Laptopersatz. Ist klar, es ist kein Laptop, aber wie gesagt, ein Gerät, das Tablet, Schreibblock und Laptop in einem ist, haben sie nicht, finde ich. Das Surface ist aber dafür kleiner, der Stift nicht ganz so gut und der Tablet-Modus muss ich endlich mal genauer testen. Naja, alles etwas OT. :)

Ihm
2020-06-14, 09:28:20
@Platos:
Die CPU der A-SoC-Serie ist keine reine Mobile-Entwicklung.
Apple reaktivierte das Projekt „Aquarius“ schon 2011 und das Ziel war damals schon klar: Apple CPUs über alle möglichen Produktbereiche hinweg.
Man kann es zwar nicht direkt technisch, aber strategisch mit dem x86-Switch vergleichen: Bevor das erste x86-OSX samt Intel-Macs offiziell erhältlich war, wurde intern OSX schon mit jahrelangem Vorlauf parallel für x86 kompiliert.
Du kannst also sehr stark davon ausgehen, dass nicht nur macOS-ARM schon länger existiert, sondern auch Apple ARM-CPUs der Desktopklasse real sind.
Wann die einzelnen Bereiche tatsächlich offiziell bedient werden, steht natürlich auf einem ganz anderen Blatt und ist von vielen Faktoren abhängig.

Iamnobot
2020-06-14, 09:56:30
Selbst die kleinste Intel CPU ist zu heiß für den Formfaktor des Air.
Das liegt an der (absichtlich?) fehlkonstruierten Kühllösung, nicht an der Intel CPU oder am Formfaktor.

https://i.imgur.com/jtMyk3t.jpg
https://de.ifixit.com/News/36480/theres-something-new-in-the-macbook-air

boxleitnerb
2020-06-14, 10:54:06
Ab 5:30
https://youtu.be/IULkXAHjL_s

Die Kiste läuft permanent bei 100°C und stuttert sogar in Youtube deswegen.
Ich gehe ehrlich gesagt nicht davon aus, dass ein MacBook Air äquivalent mit Apple CPU viel Strom verbraucht, denn sie wird sicherlich keinen Lüfter haben, analog zum iPad. Das tut einfach nicht not.
Selbst die kleinste Intel CPU ist zu heiß für den Formfaktor des Air.

Wir haben mit dem 10.2" das "Volks iPad", das gleiche gilt für das iPhone SE.
So eine 600€ ARM Notebook Kiste ohne Lüfter, dit ist the Next Big thing und MacOS für jedermann. Spekulatius. :)

Die neueren Airs haben keine Heatpipe mehr. Das trägt sicher maßgeblich zur Temperatur und zum Throttling bei.

Daredevil
2020-06-15, 22:52:47
Das liegt an der (absichtlich?) fehlkonstruierten Kühllösung, nicht an der Intel CPU oder am Formfaktor.

https://i.imgur.com/jtMyk3t.jpg
https://de.ifixit.com/News/36480/theres-something-new-in-the-macbook-air
Ja, das ist klar.
Deswegen sage ich ja, dass eine Intel CPU für Apples Kühllösung ( meinetwegen auch künstliche Bremse ) nicht ideal ist. Ein Chip, ähnlich wie im iPad, wäre hier eben halt schon passend.

smalM
2020-06-16, 16:21:23
Weil es im Artikel erwähnt wird? Ein modifizierter A14 soll es sein.

"The company is working on at least three of its own Mac processors, known as systems-on-a-chip, with the first based on the A14 processor in the next iPhone."

based on heißt alles oder nichts, das ist völlig frei interpretierbar.
Offensichtlich Deine Interpretation: Nutzt einen modifizierten A14.
Meine Interpretation: Nutzt dieselben Funktionsblöcke wie der A14, ist aber ansonsten was eigenständiges.

Ich könnte mir aber sehr gut vorstellen, daß es wieder ein Apple Developer Transition Kit geben könnte, das einen mehr oder weniger aktuellen SoC nutzt:
"This is not a product...."

smalM
2020-06-17, 17:36:52
Zeus, der Nachfolger des Neoverse-N1, soll angeblich ARMv8.4-A werden mit SVE.
@never_released (https://twitter.com/never_released/status/1273000531963846658)

Wann wohl Apple zu SVE(2) wechselt? Hoffentlich am nächsten Montag...

mironicus
2020-06-22, 10:14:08
Apple wird wohl alles auf ARM umstellen.
https://www.computerbase.de/2020-06/imac-wwdc-letzter-apple-mit-intel/

Hamster
2020-06-22, 20:51:19
What? 193 Seiten vorab Diskussion... und kaum ist es wahr, ist Funkstille :ulol:

Gohan
2020-06-22, 20:55:06
Yes, seit Jahren drauf gewartet, das Apple das durchzieht!

Und sie machen es wohl richtig gut. Zumindest besser als Microsoft, aber die haben ja auch keine Ahnung mit Platformwechseln.

Aber ich sage mal Voraus, heute wurde der Anfang vom Ende der x86er Ära eingeleitet. Wenn sich die versprechen bewahrheiten und die Apple SOCs so energiesparend und gleichzeitig Performant im Desktopbereich sind wie versprochen und die Applegeräte dadurch einen Vorteil gegenüber "klassischen" Anbietern haben, werden die sich anfangen auch umzuschauen und noch mal bei Microsoft anklopfen, wie es denn dort mit ARM aussieht.

Bin auf die ersten Geräte gespannt und auch die ersten Benchmarks mit dem Developer Kit.

What? 193 Seiten vorab Diskussion... und kaum ist es wahr, ist Funkstille :ulol:

Die Leute müssen erst einmal die ausgefallenen Augen wieder finden ;)

Matrix316
2020-06-22, 20:55:40
So so... everything runs great...

Goodbye Windows, goodbye Hackintosh, goodbye CPU Upgrades, welcome back to the 80s/90s.

Aber Hauptsache es runt great.

Für die im Apple Kosmos ist es wohl super, dass sie ihre iPhone Apps jetzt auch auf dem Mac laufen... :rolleyes:

Aber als alter Amiga Fan, bin ich irgendwie traurig. ;( Heute ist der Mac gestorben. Genauso wie der Amiga 1996.

Ganon
2020-06-22, 20:58:13
Da haben 5 Jahre Gerüchteküche endlich ein Ende :D Die WWDC selbst war ziemlich mies, aber wird sich zeigen wie gut die Umstellung laufen wird. Bisher kann man ja nicht viel sagen. Frage mich aber, warum Apple 64bit Intel emulieren "darf", aber MS nicht. Haben sie sich eine x86 Lizenz geholt?

PatkIllA
2020-06-22, 20:59:08
Für die im Apple Kosmos ist es wohl super, dass sie ihre iPhone Apps jetzt auch auf dem Mac laufen... :rolleyes:

Aber als alter Amiga Fan, bin ich irgendwie traurig. ;( Heute ist der Mac gestorben. Genauso wie der Amiga 1996.Gibt es eigentlich zahlen wieviele ihre Macs mit Bootcamp oder mit virtualisiertem Windows benutzen?
Das fälllt dann ja auch weg. Oder wird es Windows on ARM zum Durchbruch verhelfen?

Gohan
2020-06-22, 21:02:01
Gibt es eigentlich zahlen wieviele ihre Macs mit Bootcamp oder mit virtualisiertem Windows benutzen?
Das fälllt dann ja auch weg. Oder wird es Windows on ARM zum Durchbruch verhelfen?

Ging aus der Präsi leider nicht hervor, ob das Linux in Parallels Desktop eine ARM oder x86/64 Variante war.

Bootcamp nutze ich schon ewig nicht mehr, da nur Nachteile. Windows in Parallels läuft länger als Windows nativ und man die Vorteile beider Welten nutzen (Unix / Windows). Gut letzteres könnte man auch in Windows direkt mittels LSS, aber dann steht dem immer noch die kurze Akkulaufzeit gegenüber.

Hamster
2020-06-22, 21:02:10
Gibt es eigentlich zahlen wieviele ihre Macs mit Bootcamp oder mit virtualisiertem Windows benutzen?
Das fälllt dann ja auch weg. Oder wird es Windows on ARM zum Durchbruch verhelfen?

Oder halt eben in einer VM.
Es wurde nur Linux gezeigt. Aber der Weg zu Windows ist ja nicht weit...

Daredevil
2020-06-22, 21:02:23
Die ganze Kiste lief auf nem A12Z. :)
Bin stark gespannt, sowas könnte mein erster Mac werden, sehr sexy!

Hamster
2020-06-22, 21:06:55
Spannend werden die Benchmarks sein.

a) wie schnell ist das Ding im Vergleich zu modernen intel CPUS
b) wie schlägt sich die GPU im Vergleich?

Und sollte das alles herausragend schnell sein die Folgefrage:

Wird Apple zukünftig Chips verkaufen?

Christopher_Blair
2020-06-22, 21:07:28
Soweit ich das verstanden habe, wollen sie auch den selbst entwickelten GPU Teil verwenden.
Ist Apple da Konkurrenzfähig zu NVIDIA / AMD?
Wie kriegen sie das hin :confused:

Auf jeden Fall spannend.

PatkIllA
2020-06-22, 21:08:33
Oder halt eben in einer VM.
Es wurde nur Linux gezeigt. Aber der Weg zu Windows ist ja nicht weit...
Mal abwarten. Meine fetteste Anwendung ist von MS und die ist immer noch (größtenteils) 32 Bit. Visual Studio.

Daredevil
2020-06-22, 21:09:11
Wenn Tomb Raider auf nem A12Z in FullHD @ 30?fps läuft, wieso darf ich das nicht auf meinem iPad? :(

Warum sollte Apple die Prozessoren verkaufen?
Das machen sie doch nur, um ihr Ökosystem zu stärken, das ist doch eigentlich Glasklar.

Ganon
2020-06-22, 21:12:03
Wird Apple zukünftig Chips verkaufen?

Wozu? Apple will dass du in deren Ökosystem einsteigst und fleißig deren Services nutzt und bezahlst. Nur Hardware verkaufen wäre für Apple total sinnlos.

Hamster
2020-06-22, 21:12:42
Mal abwarten. Meine fetteste Anwendung ist von MS und die ist immer noch (größtenteils) 32 Bit. Visual Studio.

Brrr.
Wäre jetzt nicht die richtige Gelegenheit auf Swift zu wechseln? ;)

_shorty_
2020-06-22, 21:13:41
Da haben 5 Jahre Gerüchteküche endlich ein Ende :D Die WWDC selbst war ziemlich mies, aber wird sich zeigen wie gut die Umstellung laufen wird. Bisher kann man ja nicht viel sagen. Frage mich aber, warum Apple 64bit Intel emulieren "darf", aber MS nicht. Haben sie sich eine x86 Lizenz geholt?

Imo müssten sie für 64bit erweiterung bei AMD anfragen ausser sie wollen einen Itanium emulieren ;-)

Soweit ich das verstanden habe, wollen sie auch den selbst entwickelten GPU Teil verwenden.
Ist Apple da Konkurrenzfähig zu NVIDIA / AMD?
Wie kriegen sie das hin :confused:

Auf jeden Fall spannend.

Apple nutzt hier ja noch lizenzen von Imagination. Mit metal als schnittstelle lassen sich ja ganz nette Resultate erziehlen und ich denke andere Bereiche die beim PC auf die gpu verteilt werden könnten eventuell auf „ co prozessoren“ im arm ausgelagert werden?!. Ich frag mich aber auch wie sie das bei der pro reihe realisieren wollen?!

pixelguy
2020-06-22, 21:17:01
Ist noch jemandem aufgefallen, dass das Design des neuen macOS sehr Touch freundlich aussieht?

Speziell so Dinge wie das Control Center.

Hamster
2020-06-22, 21:17:55
Wozu? Apple will dass du in deren Ökosystem einsteigst und fleißig deren Services nutzt und bezahlst. Nur Hardware verkaufen wäre für Apple total sinnlos.

Weil flotte Chips eine größere Rolle spielen als in Apples Consumerdienste.

In Autos, in Kameras, in Produktionsmachinen, in Renderfarmen, generell in Servern, in Konsolen, etc.

Sollten die Chips schnell sein (und davon ist auszugehen sonst würde Apple das nicht wagen) und gleichzeitig massiv Stromsparend sein dann würden solche Chips auch massiv zur Reduzierung des CO2 Fußabdruckes beitragen können. (Sustainability ahoi!)
Aber eben nur wenn Apple die Chips verkauft (bzw. Lizenzen vergibt)

PatkIllA
2020-06-22, 21:18:51
Brrr.
Wäre jetzt nicht die richtige Gelegenheit auf Swift zu wechseln? ;)
Auf der Windows Platform hat es teilweise schon 10 Jahre gedauert bis 64 Bit verfügbar war. Da bin ich schon ein wenig neidisch wie Apple das durchdrücken kann.

Iamnobot
2020-06-22, 21:19:10
Glückwunsch an alle Mac Pro Käufer. Aber hey, vielleicht passen ja wenigstens die Rollen auch an einen kommenden ARM Mac Pro :)

Felixxz2
2020-06-22, 21:19:12
Was nie passieren wird....

Matrix316
2020-06-22, 21:23:37
Ist noch jemandem aufgefallen, dass das Design des neuen macOS sehr Touch freundlich aussieht?

Speziell so Dinge wie das Control Center.
Ich habe gerade das Gefühl, Apple ist auf dem besten Weg macOS zu Windows RT zu machen.

Gibt es eigentlich zahlen wieviele ihre Macs mit Bootcamp oder mit virtualisiertem Windows benutzen?
Das fälllt dann ja auch weg. Oder wird es Windows on ARM zum Durchbruch verhelfen?

Wie viele Bootcamp nutzen wäre mir egal, aber ich würde mir heute keine Hardware mehr kaufen wo kein normales Windows drauf läuft, denn irgendwas braucht man immer - und sei es in meinem Falle Visual Studio für .NET Web Anwendungen. ;)

Was eine Lösung wäre, wenn man dieses Rosetta 2 nativ in die CPU mit einbauen würde, so dass man auf diesem "Apple Silicon" (ist ja garkein ARM :D) X86 Betriebsysteme installieren könnte. DAS wäre mal eine Idee.

Aber ehrlich gesagt mir grauts vor Computern wo die CPU wieder fest auf dem Mainboard verlötet ist und man maximal eine Turbokarte einbauen kann.

Der Grund, warum der PC und Windows weltweit so erfolgreich ist, war doch schon immer die Abwärtskompatibilität und die Modularität. Der Amiga oder auch der Acorn Archimedes waren zu ihrer Zeit spitzen Computer und den meisten PCs in allen Sachen überlegen - bis neue Prozessoren, Sound und Grafikkarten kamen und der PC plötzlich haushoch überlegen war und man immer noch die gleiche Software von früher laufen lassen konnte und auch neuere Software auf alten PCs liefen. Auf dem Amiga wurde mit Spezialchips der 4000er und 1200er gemacht und plötzlich liefen neue AGA Spiele nicht mehr auf dem 500er und manche ältere Software war nicht mehr mit neueren 68040ern kompatibel etc. pp..

Stellt euch vor der neue Mac mit T19 Special Neuro Chip kommt und die neue Final Cut Version läuft nicht mehr auf deinem eben noch nagelneuen Mac mit T18 Chip oder so. Kann jetzt alles passieren.

EDIT: Aber die neuen iOS Änderungen finde ich noch sehr interessant. Endlich mehr FREIHEIT auf dem Homescreen. ;)

Daredevil
2020-06-22, 21:25:14
Weil flotte Chips eine größere Rolle spielen als in Apples Consumerdienste.

In Autos, in Kameras, in Produktionsmachinen, in Renderfarmen, generell in Servern, in Konsolen, etc.

Sollten die Chips schnell sein (und davon ist auszugehen sonst würde Apple das nicht wagen) und gleichzeitig massiv Stromsparend sein dann würden solche Chips auch massiv zur Reduzierung des CO2 Fußsbdruckes beitragen können.
Aber eben nur wenn Apple die Chips verkauft (bzw. Lizenzen vergibt)
Apple baut jetzt schon die fortschrittlichsten Smartphone/Tablet SoCs der Welt und hat dadurch einen riesigen Vorteil, den Menschen auf ihre Plattform "zwingt".
Wenn Apple nun Intel fallen lässt und die Prozessoren so stark werden, dass Intel/AMD dort nicht mithalten können, wird das ein starker Angriff auf Microsoft und Windows und genau das ist, was Apple möchte.
Das Menschen in ihrem Ökosystem sind, ihre Geräte bedienen und sich darin "verlieben".

Da macht alles Sinn, aber nicht der externe Verkauf, weil sie so ihren Vorteil schlicht verspielen. Apple baut doch selber alles, wenn Konsolen gebraucht werden, baut Apple die halt. ( Haben sie jetzt schon mit dem AppleTV, so in der Light Version )

_shorty_
2020-06-22, 21:33:44
Apple baut jetzt schon die fortschrittlichsten Smartphone/Tablet SoCs der Welt und hat dadurch einen riesigen Vorteil, den Menschen auf ihre Plattform "zwingt".
Wenn Apple nun Intel fallen lässt und die Prozessoren so stark werden, dass Intel/AMD dort nicht mithalten können, wird das ein starker Angriff auf Microsoft und Windows und genau das ist, was Apple möchte.
Das Menschen in ihrem Ökosystem sind, ihre Geräte bedienen und sich darin "verlieben".

Da macht alles Sinn, aber nicht der externe Verkauf, weil sie so ihren Vorteil schlicht verspielen. Apple baut doch selber alles, wenn Konsolen gebraucht werden, baut Apple die halt. ( Haben sie jetzt schon mit dem AppleTV, so in der Light Version )


Das geht ja aber nur auch, weil os und chip aus einem Haus kommen und man alles mögliche in silikon gießen kann was den sw jungs einfällt - risc war schon immer extrem schnell wenns massgeschneidert zur sw war. Was soll das für intel/amd und ms bedeuten? Petitionen werden gestartet bitte MS bring windows rt zurück?!

Hamster
2020-06-22, 21:35:51
Apple baut jetzt schon die fortschrittlichsten Smartphone/Tablet SoCs der Welt und hat dadurch einen riesigen Vorteil, den Menschen auf ihre Plattform "zwingt".
Wenn Apple nun Intel fallen lässt und die Prozessoren so stark werden, dass Intel/AMD dort nicht mithalten können, wird das ein starker Angriff auf Microsoft und Windows und genau das ist, was Apple möchte.
Das Menschen in ihrem Ökosystem sind, ihre Geräte bedienen und sich darin "verlieben".

Da macht alles Sinn, aber nicht der externe Verkauf, weil sie so ihren Vorteil schlicht verspielen. Apple baut doch selber alles, wenn Konsolen gebraucht werden, baut Apple die halt. ( Haben sie jetzt schon mit dem AppleTV, so in der Light Version )

Ach quark.
Wenn Apple gewollt hätte, hätte Sie zwischen 2006 - 2015 über den Preis signifikante Marktanteile am Computermark holen können. Man erinnere sich: das war die grauenhafte Zeit mit XP, Vista & Win8.
Wollten Sie aber nicht. Im Gegenteil. Sie haben sich bewusst davon entfernt: Xserve eingestellt, die Mülltonne präsentiert und generell stetig die Preise angehoben. Gleiczeitig die „Pro User“ mit fragwürdigen Entscheidungen vergrault. Der Markt wollte flexibel konfigurierte Hardware, Apple lieferte verlöteten Ram und nicht ausstauschbare SSDs.


Die Chance war da, sie wollten offensichtlich nicht. Meinste das ist jetzt anders? Glaube nein. Nische zu sein hat eben Vorteile. (u.a. dass sie sich nun so einen move erlauben können)

Daredevil
2020-06-22, 21:37:23
Für Intel/AMD bedeutet das schlicht, dass ein neuer Mitspieler im Feld ist, der richtig Bock hat, deren Prozessoren in den Arsch zu treten. :D

Es gibt zwar keine Zahlen, aber das hier ist ja ne steile Ansage.
https://pics.computerbase.de/9/3/6/2/1/10-1080.ad32c2d9.jpg

Mehr Leistung als Desktops, weniger Verbrauch als Notebooks.

SKYNET
2020-06-22, 21:41:44
Die ganze Kiste lief auf nem A12Z. :)
Bin stark gespannt, sowas könnte mein erster Mac werden, sehr sexy!


warum? das ding wird grottig lahm sein, ARM kann nicht zaubern und bei gleicher leistung sind sie auch nicht mehr sparsamer als x86 :)

Daredevil
2020-06-22, 21:45:40
warum? das ding wird grottig lahm sein, ARM kann nicht zaubern und bei gleicher leistung sind sie auch nicht mehr sparsamer als x86 :)
https://youtu.be/GEZhD3J89ZE?t=6201 (:

SKYNET
2020-06-22, 21:50:45
https://youtu.be/GEZhD3J89ZE?t=6201 (:

muss ich mir nichtmal anschauen, weil ausser in spezialanwendungen plättet selbst nen 2600k aktuelle ARMs ganz geschmeidig.

lass mal cinebench auf ARM laufen, dann siehste wie es um die performance gestellt ist, wahrscheinlich läuft das die ganze nacht durch bevors fertig ist :ulol:

gleiches für die GPU, die hat aktuell die leistung ner 4200Ti von annodazumal... ne aktuelle 2080Ti ist im fall in der reinen rohleistung über 100x schneller... oder anders gesagt: game hat auf der 2080Ti 100fps, dann läufts auf apples derzeit stärksten grafiklösung mit <1fps :ulol:

Dampf
2020-06-22, 21:50:48
Es wird Zeit benötigen, doch das ist der Anfang vom Ende der x86-Ära. Dass Shadow of the Tomb Raider, ein Current-Gen Spiel in x86-Emulation(!!!) auf einer Tablet CPU läuft, ist der helle Wahnsinn. Und dann noch in 1080p, wo die Intel iGPUs bei niedrigsten Settings trotz nativer x86 Architektur das Spiel nicht mal in 720p30 packen. Das ist enorm beeindruckend, so wie auch die Präsentation der Creative-Work Programme.

Dass die Entscheidung Apples, so schnell auf ARM zu setzen auch auf Windows und generell Früchte tragen wird, sollte jedem klar sein.

Grendizer
2020-06-22, 21:51:18
Wurde in dem Video auch was zur Final Cut bzw. Premiere Pro Performance gesagt. Hier wird man dann schnell sehen, wie gut die CPUs sind.

Gohan
2020-06-22, 21:52:56
Wurde in dem Video auch was zur Final Cut bzw. Premiere Pro Performance gesagt. Hier wird man dann schnell sehen, wie gut die CPus sind.

Final Cut Pro hat man mir 3 gleichzeitig laufenden 4k Streams gezeigt.

Blediator16
2020-06-22, 21:54:03
Es wird Zeit benötigen, doch das ist der Anfang vom Ende der x86-Ära. Dass Shadow of the Tomb Raider, ein Current-Gen Spiel in x86-Emulation(!!!) auf einer Tablet CPU läuft, ist der helle Wahnsinn. Und dann noch in 1080p, wo die Intel iGPUs bei niedrigsten Settings trotz nativer x86 Architektur das Spiel nicht mal in 720p30 packen. Das ist enorm beeindruckend, so wie auch die Präsentation der Creative-Work Programme.

Dass die Entscheidung Apples, so schnell auf ARM zu setzen auch auf Windows und generell Früchte tragen wird, sollte jedem klar sein.

Sehr beeindruckend.

https://www.youtube.com/watch?v=LzHRWb6PPzs

Ich würde erstmal abwarten, was die Dinger im Desktop und Realworld wirkich packen ;D

Gohan
2020-06-22, 21:54:11
muss ich mir nichtmal anschauen, weil ausser in spezialanwendungen plättet selbst nen 2600k aktuelle ARMs ganz geschmeidig.

lass mal cinebench auf ARM laufen, dann siehste wie es um die performance gestellt ist, wahrscheinlich läuft das die ganze nacht durch bevors fertig ist :ulol:

gleiches für die GPU, die hat aktuell die leistung ner 4200Ti von annodazumal... ne aktuelle 2080Ti ist im fall in der reinen rohleistung über 100x schneller... oder anders gesagt: game hat auf der 2080Ti 100fps, dann läufts auf apples derzeit stärksten grafiklösung mit <1fps :ulol:

Und du traust einer Ti4200 zu, Shadow of the Tomb Raider in 1080p (wohl gemerkt emmuliert) laufen zu lassen? Zeigen bitte :)

Daredevil
2020-06-22, 21:54:37
Final Cut Pro hat man mir 3 gleichzeitig laufenden 4k Streams gezeigt.
Kann ne 4200ti auch schon laut Skynet. :<

Screemer
2020-06-22, 21:57:01
also für mich sieht tr nach komplettem matsch aus. das mag auf 14'' ok sein aber auch nem größeren monitor nicht wirklich. rosetta find ich allerdings schon ein beeindruckendes stück software. da ist viel arbeit hinein geflossen.

Voodoo6000
2020-06-22, 22:02:50
also für mich sieht tr nach komplettem matsch aus.
+1

Für A12Z sicherlich nicht schlecht aber auch nicht mehr. Insgesamt bin ich aber schon sehr von Apple beeindruckt. Die ersten richtigen Benchmarks kommen hoffentlich bald.

Ganon
2020-06-22, 22:03:04
Bei der Spieleemulation darf man jetzt nicht vergessen, dass hier vermutlich ein starkes GPU Limit vorliegt. Nicht umsonst hat man hauptsächlich GPU-Last gezeigt. So wie bei MS dürften fast alle Library/System-Calls nativ ablaufen und nicht emuliert.

Nur wird Rosetta 2, so wie Rosetta 1, nicht ewig da sein. Irgendwann wird's entfernt und dann war's das mit den alten Spielen.

Hamster
2020-06-22, 22:03:52
Kann ne 4200ti auch schon laut Skynet. :<

Fun fact: skynet wird auf einer neural net cpu laufen.
Vermutlich ist diese mit dem A12z Bionic chip verwandt. :ulol:

https://terminator.fandom.com/wiki/Neural_Net_CPU

Monsta
2020-06-22, 22:04:13
muss ich mir nichtmal anschauen, weil ausser in spezialanwendungen plättet selbst nen 2600k aktuelle ARMs ganz geschmeidig.

lass mal cinebench auf ARM laufen, dann siehste wie es um die performance gestellt ist, wahrscheinlich läuft das die ganze nacht durch bevors fertig ist :ulol:

gleiches für die GPU, die hat aktuell die leistung ner 4200Ti von annodazumal... ne aktuelle 2080Ti ist im fall in der reinen rohleistung über 100x schneller... oder anders gesagt: game hat auf der 2080Ti 100fps, dann läufts auf apples derzeit stärksten grafiklösung mit <1fps :ulol:

Bei gleicher TDP plättet der 2600K gar nix. Apple Produkte haben einen kleinen Formfaktor und wenig Energieverbauch.
Wass soll der Vergleich mit Hardware die ohne Steckdose keine 10sec läuft?

mironicus
2020-06-22, 22:08:44
muss ich mir nichtmal anschauen, weil ausser in spezialanwendungen plättet selbst nen 2600k aktuelle ARMs ganz geschmeidig

Laut Geekbench ist ein 2600K langsamer als ein A13 und A12Z.
Und mein 15 Watt-Renoir ist mehr als doppelt so schnell. :freak:
Vielleicht schafft es AMD mit x86-CPUs und 5 nm und noch kleineren Chips in der Effizienz irgendwann mit ARM gleichzuziehen.

Matrix316
2020-06-22, 22:12:06
Apple hat doch ganz genau und sehr präzise die Performance der "Apple Silicon" Hardware erklärt: It runs great!

Noch Fragen? :D

Dampf
2020-06-22, 22:14:59
+1

Für A12Z sicherlich nicht schlecht aber auch nicht mehr. Insgesamt bin ich aber schon sehr von Apple beeindruckt. Die ersten richtigen Benchmarks kommen hoffentlich bald.

Das verfehlt leider den kompletten Punkt. Der Grund warum das gezeigt wurde ist, dass man mit Rossetta sogar x86 Spiele und hochaufwendige Programme ohne Probleme emulieren kann und das sogar mit guter Leistung wie man mit Tomb Raider gesehen hat.

Das Spiel lief nicht auf ARM, sondern per x86 Emulation. Ich glaube die meisten wissen gar nicht, wie unfassbar schwer und vor allem hardwarefordernd es ist so was komplexes wie ein Spiel auf verschiedenen Architekturen zu emulieren. Deswegen gibt es auch erst jetzt richtige PS3 Emulatoren, obwohl die Hardware schon uralt ist.

Dass das Spiel überhaupt läuft ist schon klasse, aber dass es dann noch in 1080p mit mindestens 30 FPS läuft ist einfach unglaublich. Zum Vergleich, auf dem Surface Pro X mit Windows on ARM startet so ein Spiel nicht einmal. Auf einem Surface Pro mit Intel CPU/iGPU läuft das Spiel nicht mal in 720p und 30 FPS, trotz nativer x86 Architektur

Was dann natürlich möglich ist, wenn die Spiele und Programme nativ für ARM programmiert werden, das übertrifft so eine Emulation natürlich bei weitem. Und schlussendlich war das eine Tablet CPU mit grob 12 Watt TDP, ein aktiv gekühlter ARM SOC für Macs wird eine ungeheure Leistung bieten.

Ich lehne mich mal aus dem Fenster und behaupte, die ARM-Macs werden Intel und AMD Computer in Sachen Effizienz und Leistung weit hinter sich lassen. Jetzt werden auch immer mehr native ARM Programme kommen, wo man dann schön vergleichen kann.

Das wird natürlich eine Kettenreaktion auch im PC-Markt auslösen, denn jeder möchte wettbewerbsfähig bleiben.

Kallenpeter
2020-06-22, 22:17:24
Wenn überhaupt jemals ein ARM-Mac mit 12Z in den Handel kommen wird, dann wohl nur in Einsteigergeräten. Ich gehe davon aus das es von Anfang sowas wie einen A13X oder A14X für die Macs geben wird, also der erste Apple Chip der nicht nur für Smartphone/Tablet designed wurde. Da geht bestimmt noch einiges.

Ganon
2020-06-22, 22:32:33
Das Spiel lief nicht auf ARM, sondern per x86 Emulation. Ich glaube die meisten wissen gar nicht, wie unfassbar schwer und vor allem hardwarefordernd es ist so was komplexes wie ein Spiel auf verschiedenen Architekturen zu emulieren. Deswegen gibt es auch erst jetzt richtige PS3 Emulatoren, obwohl die Hardware schon uralt ist.

Kannst du so nicht vergleichen. Bei der PS3 musst du das komplette System inkl. des OS und inkl. der GPU erst mal reverse-engineeren und dann musst du ein mehr oder weniger unbekannte API der Spiele auf eine API auf dem PC mappen und dabei noch diverse Speichertechniken emulieren.

Hier in dem Fall ist so ziemlich alles gleich, bis auf die verwendete CPU-Architektur. Das ist wesentlich leichter und performanter umzusetzen als ein Konsolen-Emulator. Wie schon gesagt, fast der ganze GPU-Kram dürfte bereits nativ laufen.

Windi
2020-06-22, 22:37:30
Wenn Tomb Raider wirklich auf einem SoC gelaufen ist, der baugleich im iPad steckt, dann war das sehr beeindruckend. (Natürlich mit besseren Kühler, mehr Stromverbrauch und höheren Taktraten)

mironicus
2020-06-22, 22:50:15
Wenn die erste Hardware für Konsumer erst Ende des Jahres kommen soll, wird sicherlich ein A14-Ableger in 5nm zum Einsatz kommen. Damit dürfte Apple von Anfang an alle anderen Chips im Mobile-Bereich schlagen.

Nach dieser Ankündigung würde ich jetzt keinen Intel-Mac mehr kaufen.

robbitop
2020-06-22, 22:50:31
muss ich mir nichtmal anschauen, weil ausser in spezialanwendungen plättet selbst nen 2600k aktuelle ARMs ganz geschmeidig.

lass mal cinebench auf ARM laufen, dann siehste wie es um die performance gestellt ist, wahrscheinlich läuft das die ganze nacht durch bevors fertig ist :ulol:

gleiches für die GPU, die hat aktuell die leistung ner 4200Ti von annodazumal... ne aktuelle 2080Ti ist im fall in der reinen rohleistung über 100x schneller... oder anders gesagt: game hat auf der 2080Ti 100fps, dann läufts auf apples derzeit stärksten grafiklösung mit <1fps :ulol:

Was für ein unreflektierter und dazu noch uninformierter, unfundierter Schwachsinn.

|MatMan|
2020-06-22, 23:00:31
Absolut. Die x86 Untergangsfantasien der Apple-Anhänger sind allerdings auch nicht sinnvoller.

LadyWhirlwind
2020-06-22, 23:13:28
Wie sieht es denn mit den ganzen Profi-Programmen aus?
Das wird doch sicher nicht einfach sein, alle Entwickler zu Überzeugen ihren Code zu portieren. Und wie sieht es mit Befehlssätzen wie AVX aus?

biohaufen
2020-06-22, 23:13:45
muss ich mir nichtmal anschauen, weil ausser in spezialanwendungen plättet selbst nen 2600k aktuelle ARMs ganz geschmeidig.

lass mal cinebench auf ARM laufen, dann siehste wie es um die performance gestellt ist, wahrscheinlich läuft das die ganze nacht durch bevors fertig ist :ulol:

gleiches für die GPU, die hat aktuell die leistung ner 4200Ti von annodazumal... ne aktuelle 2080Ti ist im fall in der reinen rohleistung über 100x schneller... oder anders gesagt: game hat auf der 2080Ti 100fps, dann läufts auf apples derzeit stärksten grafiklösung mit <1fps :ulol:

Rumblödeln und unfundierte Dinge schreiben kann man immer.

Wie Ian Cutress aber schon untersucht hat, sind die ARM Chips gar nicht mehr weit weg und teilweise (selten) in IPC überlegen. Bestätigt durch unabhängige Industriebenchmarks wie SPEC2006, nicht Cinebench oder gar Geekbench.

--> https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/4

GPU Performance einer 4200Ti? Im Ernst, troll woanders

-->
https://www.anandtech.com/show/13661/the-2018-apple-ipad-pro-11-inch-review/6

Und das ist ein Chip von 2018 bei 8W Leistungsaufnahme für das gesamte Gerät.

Daredevil
2020-06-22, 23:16:31
Es geht da nicht um Untergangsfantasien, sondern schlicht um den Fakt, dass Apple ihre jetzt schon massiv starken Mobile Chips nehmen und die gleiche ( oder noch bessere? ) Architektur in Desktop Systeme schmieden, wo sonst Intel/AMD Zuhause ist.
Apple wird dadurch von einem "lustigen" Mobile Chip Hersteller zu einem Konkurrenten für den gesamten PC Markt. ( HighEnd Gaming vielleicht nicht, ist klar. )

Die Sprünge, die Apple konstant jedes Jahr in CPU/GPU Performance hinlegen, sind fantastisch gut.
Beispiel Geekbench CPU:

iPad Pro 2020:
Single: 1122pts
Multi: 4656pts

iPhone XR:
Single: 1115pts
Multi: 2597pts

iPhone 11:
Single: 1338pts +20%
Multi: 3417pts +31%

Die Single Core Leistung eines iPhone 11 ist jetzt schon 19% höher im Geekbench als die des A12Z, also die Kiste, wo heute MacOS drauf gezeigt wurde.
19% sind für ein Jahr ein riesiger Schritt, den es bei X86 aktuell kaum gibt, schon gar nicht jedes Jahr erneut.
Wenn man dann ein wenig den Zeithorizont bedenkt von 5-10 Jahren, kann man sich schon zusammen reimen, in welche Richtung das gehen könnte.

SKYNET
2020-06-22, 23:21:53
Laut Geekbench ist ein 2600K langsamer als ein A13 und A12Z.
Und mein 15 Watt-Renoir ist mehr als doppelt so schnell. :freak:
Vielleicht schafft es AMD mit x86-CPUs und 5 nm und noch kleineren Chips in der Effizienz irgendwann mit ARM gleichzuziehen.

laut geekbench ist mein penis härter als diamant... na, was will ich damit sagen? achja: kannst rauchen :)

Daredevil
2020-06-22, 23:31:06
Hier gibts noch Live Kram

Platforms State of the Union
https://developer.apple.com/wwdc20/videos/

Deinorius
2020-06-22, 23:50:28
Rumblödeln und unfundierte Dinge schreiben kann man immer.

Wie Ian Cutress aber schon untersucht hat, sind die ARM Chips gar nicht mehr weit weg und teilweise (selten) in IPC überlegen. Bestätigt durch unabhängige Industriebenchmarks wie SPEC2006, nicht Cinebench oder gar Geekbench.

--> https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/4



Ich verstehe diese Grafik nicht.
https://images.anandtech.com/doci/14892/spec2006-a13_575px.png


Ist das SingleCore oder Multi? Wie kann Apples kleiner Core auch nur in die Nähe von Intels/AMDs großen Kernen rankommen? Ich weiß, deren SoCs sind sehr gut, aber nicht nicht so gut.
Ich traue einem Vergleich von unterschiedlichen µArchs (x86 vs. ARM) erst, wenn z.B. ein Video Encoder für beide Systeme möglichst mit gleichem Aufwand optimiert wurde.

Monsta
2020-06-23, 00:05:14
Der A12z hat 10Mrd! Transistoren. Das ist nicht wirklich klein. Kein Wunder das der so gut geht.

|MatMan|
2020-06-23, 00:05:55
Apple wird dadurch von einem "lustigen" Mobile Chip Hersteller zu einem Konkurrenten für den gesamten PC Markt. ( HighEnd Gaming vielleicht nicht, ist klar. )
Naja, ich nehme nicht an, dass die Masse der x86 Käufer Lust darauf haben wird, plötzlich ein vielfaches für die Hardware zu bezahlen (bis auf einige Verwöhnte der westlichen Welt) oder ein Großteil der Seit-Jahrzehnten-Windows-Nutzer Lust haben wird sich umzugewöhnen. Auch wird das restriktive Ökosystem einige Kunden abschrecken. Im Business Bereich ist Microsoft ohnehin stark, da gibt es speziell entwickelte Software, die schon seit Ewigkeiten läuft - die wird nicht mal eben umgestellt.

Also ich sehe den Angriff auf x86 eher weniger. Bisher war die darunterliegende Hardware für den typischen Apple Nutzer doch eh schon ziemlich egal. Einen typischen Windows Nutzer überzeugt man wohl kaum damit, jetzt für Notfälle kein Windows mehr nativ auf der Hardware starten zu können. Für ein paar % mehr Laufzeit im Laptop wechselt doch keiner, da sind Ultrabooks schon lange gut genug. Am Desktop spielt das überhaupt keine Rolle und bei der absoluten Leistung eines Desktop 8+ Kerners ist Apple noch lange nicht.

Für Apple ist der Schritt für mich nachvollziehbar, logisch und auch richtig.

Zur Hardware: Apple's IPC ist beeindruckend, Taktraten um 5 GHz sind es aber auch. Kann Apple auch beides zusammen und bei welchem Stromverbrauch?

biohaufen
2020-06-23, 00:14:15
Ich verstehe diese Grafik nicht.
[...]

Ist das SingleCore oder Multi? Wie kann Apples kleiner Core auch nur in die Nähe von Intels/AMDs großen Kernen rankommen? Ich weiß, deren SoCs sind sehr gut, aber nicht nicht so gut.
Ich traue einem Vergleich von unterschiedlichen µArchs (x86 vs. ARM) erst, wenn z.B. ein Video Encoder für beide Systeme möglichst mit gleichem Aufwand optimiert wurde.


Für den Vergleich zwischen µArchs ist ja die SPEC Benchmark Suite genau gedacht ^^
SPECint sollte Single Threaded sein, und SPECint_rate Multi Threaded
--> https://en.wikipedia.org/wiki/SPECint

Es gibt dort auch ein H264 Szenario
(464.h264ref)
Findet man im iPhone 11 Link bzw. auch in dieser Tabelle
--> https://images.anandtech.com/doci/14892/spec2006-global-overview.png

Daredevil
2020-06-23, 00:22:41
Naja, ich nehme nicht an, dass die Masse der x86 Käufer Lust darauf haben wird, plötzlich ein vielfaches für die Hardware zu bezahlen (bis auf einige Verwöhnte der westlichen Welt) oder ein Großteil der Seit-Jahrzehnten-Windows-Nutzer Lust haben wird sich umzugewöhnen.

Ich sehe tatsächlich da die Gefahr, die du gar nicht siehst. Wir schauen anscheinend in verschiedene Richtungen. ^^
Ein "vielfaches für Hardware" zu zahlen will niemand, gerade da geht aber die Reise doch aktuell hin. Klar gibt es die Pro Modelle, aber es gibt eben auch ungeschlagen gute P/L Technik, die eben für jedermann zu haben ist.

iPhone11 pro ist dir zu teuer? > Schau dir das iPhone SE für 479€ an
iPad Pro ist die zu teuer? > Mit einem iPad 10.2" kannst die meisten Dinge auch erledigen für 379€
AppleWatch5 zu teuer? Nimm die 3er für 229€
MacBook Pro zu teuer? Nimm doch das günstige MacBook Air ( EEEEEEEEEEEK )
iMac Pro zu teuer? Nimm doch den günstigen iMac ( EEEEEEEEEEEEK )
MacPro zu teuer? Nimm doch den günstigen MacMini ( Semi-EEEEEEEEEEEEEEEEEK )

Will sagen, Apple bietet auch "für jedermann" an, wenn man denn will.
Beim Mac allerdings noch überhaupt nicht und diese Strategie kann sowas halt beschleunigen.
Lass das MacBook Air mit A12Z doch für 700€ mal auf den Markt kommen, so als "Bread and Butter" Gerät für alle. Was meinste was dann los ist im Notebook Markt. :D
Oder ein "MacMini" im Format eines ( bereits schon jetzt gekühlten ) AppleTV für... 400€?

So bekommt man halt auch Menschen in die Mac Welt, denen das sonst viel zu teuer ist, mir z.B. auch. (:

Deinorius
2020-06-23, 00:23:57
Der A12z hat 10Mrd! Transistoren. Das ist nicht wirklich klein. Kein Wunder das der so gut geht.


Und? Falls du dir einen Die Shot ansiehst, wirst du sehen, dass so ein SoC aus mehr als nur CPU und GPU besteht. Immer noch beeindruckend, aber die Anzal der Transistoren ist weniger interessant und nicht der beste Indikator als direkt der Stromverbrauch und die letztendliche Leistung.


Zur Hardware: Apple's IPC ist beeindruckend, Taktraten um 5 GHz sind es aber auch. Kann Apple auch beides zusammen und bei welchem Stromverbrauch?


Das kommt noch hinzu. Eine 100 W TDP CPU ist etwas völlig anderes als ein 5 W SoC. Zumindest anfangs wird es wohl eher 15-45 W TDP Varianten geben.

maximus_hertus
2020-06-23, 01:03:34
Lass das MacBook Air mit A12Z doch für 700€ mal auf den Markt kommen, so als "Bread and Butter" Gerät für alle. Was meinste was dann los ist im Notebook Markt. :D
Oder ein "MacMini" im Format eines ( bereits schon jetzt gekühlten ) AppleTV für... 400€?

So bekommt man halt auch Menschen in die Mac Welt, denen das sonst viel zu teuer ist, mir z.B. auch. (:

Ich glaube, du überschätzt Apples Anteil im Desktop ;)

Dazu kann sich Apple keine fallenden Margen leisten.

Das ganze ist kein Frontalangriff auf Intel, nVidia und AMD, sondern eine Optimierung der eigenen Marge und eine noch bessere Bindung der Kunden an das Apple Ökosystem.

Ich gehe einen Schritt weiter: ein Macbook Air wird mit Intel dann in einigen Jahren "abdanken". Der MArkt bis 2000 USD gehört dann dem iPad Pro mit dem Magic Keyboard und Pencil.

Über 2000 USD komen dann die ARM Macbook Pros.

Wenn jetzt die Creative Cloud und Co auch für das iPad (Pro) kommen, braucht man ja keine eigene Konkurrenz.

Es ist eine spannende Entwicklung und ich freue mich auf die Zukunft. Es wird interessant :)

Felixxz2
2020-06-23, 01:08:43
Ich könnte mir trotzdem vorstellen, dass sie sin bread & butter MacBook für 1k€ bringen, um den Launch zu begleiten. Schön mit richtig langer Akkulaufzeit und Unterstützung für iPhone/iPad Apps könnte das n Tophit werden.

SKYNET
2020-06-23, 01:23:03
Ich sehe tatsächlich da die Gefahr, die du gar nicht siehst. Wir schauen anscheinend in verschiedene Richtungen. ^^
Ein "vielfaches für Hardware" zu zahlen will niemand, gerade da geht aber die Reise doch aktuell hin. Klar gibt es die Pro Modelle, aber es gibt eben auch ungeschlagen gute P/L Technik, die eben für jedermann zu haben ist.

iPhone11 pro ist dir zu teuer? > Schau dir das iPhone SE für 479€ an
iPad Pro ist die zu teuer? > Mit einem iPad 10.2" kannst die meisten Dinge auch erledigen für 379€
AppleWatch5 zu teuer? Nimm die 3er für 229€
MacBook Pro zu teuer? Nimm doch das günstige MacBook Air ( EEEEEEEEEEEK )
iMac Pro zu teuer? Nimm doch den günstigen iMac ( EEEEEEEEEEEEK )
MacPro zu teuer? Nimm doch den günstigen MacMini ( Semi-EEEEEEEEEEEEEEEEEK )

Will sagen, Apple bietet auch "für jedermann" an, wenn man denn will.
Beim Mac allerdings noch überhaupt nicht und diese Strategie kann sowas halt beschleunigen.
Lass das MacBook Air mit A12Z doch für 700€ mal auf den Markt kommen, so als "Bread and Butter" Gerät für alle. Was meinste was dann los ist im Notebook Markt. :D
Oder ein "MacMini" im Format eines ( bereits schon jetzt gekühlten ) AppleTV für... 400€?

So bekommt man halt auch Menschen in die Mac Welt, denen das sonst viel zu teuer ist, mir z.B. auch. (:

nur das man für den preis von nem mac mini schon nen ausgewachsenen PC bekommt der durchweg mehr als die doppelte performance liefert...

mini: 929€... quadcore, 8GB, 256GB... PC: 8 core, 16gb, 5700, 1TB, gehäuse, NT, mobo --> 990€ + win10pro lizens 3€ = 993€

gleiches zieht sich im fall durch apples komplette hardware... der SoC mag zwar grundsätzlich der schnellste bei den smartphones & tablets sein, aber der rest hinkt den mitbewerbern immer MINDESTENS! 2 jahre hinterher, seis displayqualität, kamera, konnektivität, akkulaufzeit usw.

|MatMan|
2020-06-23, 01:44:08
Ich sehe tatsächlich da die Gefahr, die du gar nicht siehst. Wir schauen anscheinend in verschiedene Richtungen. ^^
Ein "vielfaches für Hardware" zu zahlen will niemand, gerade da geht aber die Reise doch aktuell hin. Klar gibt es die Pro Modelle, aber es gibt eben auch ungeschlagen gute P/L Technik, die eben für jedermann zu haben ist.

iPhone11 pro ist dir zu teuer? > Schau dir das iPhone SE für 479€ an
iPad Pro ist die zu teuer? > Mit einem iPad 10.2" kannst die meisten Dinge auch erledigen für 379€
AppleWatch5 zu teuer? Nimm die 3er für 229€
MacBook Pro zu teuer? Nimm doch das günstige MacBook Air ( EEEEEEEEEEEK )
iMac Pro zu teuer? Nimm doch den günstigen iMac ( EEEEEEEEEEEEK )
MacPro zu teuer? Nimm doch den günstigen MacMini ( Semi-EEEEEEEEEEEEEEEEEK )

[...]

So bekommt man halt auch Menschen in die Mac Welt, denen das sonst viel zu teuer ist, mir z.B. auch. (:
Das meinte ich mit "Verwöhnte westliche Welt". Dem großen Rest der Welt sind diese Preise immernoch sehr viel zu hoch. Tatsächlich finde ich die meisten der Produkte auch noch zu teuer.
>200 € für eine Uhr, mit der man eigentlich nicht so viel machen kann -> pfft... aber das ist ein anderes Thema.
MacBook Air: >1000 € für ein Laptop mit nur 256 GB SSD? Es gibt tatsächlich Leute, die "nur" 300-500 € ausgeben wollen (und damit auch auskommen).

Den Aufpreis für die Apple-Erfahrung kann oder will nicht jeder zahlen. Apple will auch gar nicht zu niedrigen Preisen anbieten, was ich ok finde.

macOS ist aktuell bei ca. 10% Marktanteil. Da gibt es schon noch Luft nach oben. Innovation ist natürlich immer willkommen! Die Chinesen kopieren das dann für den Rest der Welt :freak:

Leonidas
2020-06-23, 05:05:17
Mehr Leistung als Desktops, weniger Verbrauch als Notebooks.


Eine Ankündigung macht für mich noch gar nichts. Im genauen haben sie ja angekündigt, über die Optimierung eines Trabbis einen Ferrari einholen zu wollen (krass formuliert, will ausdrücken, das sie von unten kommen müssen). Ok, stellen wir uns an die Rennstrecke und folgen dem Verlauf der Dinge ...





Laut Geekbench ist ein 2600K langsamer als ein A13 und A12Z..


Geekbench ist in solchen, Geräteklassen-übergreifenden Fragen leider komplett unbenutzbar.





Apple hat doch ganz genau und sehr präzise die Performance der "Apple Silicon" Hardware erklärt: It runs great!


Make Apple great again?

Ich frage mich, wie der Spruch bei einem gewissen Wahlausgang dann Ende 2020 noch ankommt ...





Wie Ian Cutress aber schon untersucht hat, sind die ARM Chips gar nicht mehr weit weg und teilweise (selten) in IPC überlegen.


IPC ist witzlos, wenn die Taktraten wesentlich niedriger sind. (Stichwort Ice Lake)

robbitop
2020-06-23, 07:00:20
SPEC ist im Gegensatz zu Geekbench schon ein renommierter Benchmark. Auch würde Apple es nicht machen, wenn es nicht deutliche Vorteile hätte.
Die Kerne sind riesig in deren SoCs - und wenn man sich mal die uArch anschaut, ist es überhaupt nicht verwunderlich, dass die IPC mittlerweile relativ zu Intel so hoch ist. Auch ist bei Intel seit 5 Jahren in Punkto IPC nichts passiert. Wer weiß was geworden wäre, wenn man Tick Tock weiter gemacht hätte, statt einfach (aus uArch Sicht) nichts mehr zu tun.

Da man offenbar alle Macs umstellen will, muss man auch einen separaten SoC entwickeln, der auch entsprechende Taktraten und entsprechende Kernzahlen bringt. Man sollte nicht vergessen, dass Apple sich seit Mitte der 2000er (angefangen mit dem Kauf von PA Semi) bis heute industrieweit so ziemlich die besten der besten Leute angeworben haben. Und man hat da viel Geld investiert. Das Ergebnis sieht man ja in deren CPU uArch.

siehe Anandtech

The company will be making a series of SoCs specifically for the Mac, and while I wouldn’t be too surprised if we see some iPad/Mac overlap, at the end of the day Apple will want SoCs more powerful than their current wares to replace the chips in their most powerful Mac desktops.

Exxtreme
2020-06-23, 08:27:46
Naja, ich nehme nicht an, dass die Masse der x86 Käufer Lust darauf haben wird, plötzlich ein vielfaches für die Hardware zu bezahlen (bis auf einige Verwöhnte der westlichen Welt) oder ein Großteil der Seit-Jahrzehnten-Windows-Nutzer Lust haben wird sich umzugewöhnen. Auch wird das restriktive Ökosystem einige Kunden abschrecken. Im Business Bereich ist Microsoft ohnehin stark, da gibt es speziell entwickelte Software, die schon seit Ewigkeiten läuft - die wird nicht mal eben umgestellt.


Es ist eher so, dass bei Apple es eher um Lifestyle denn um Rechenleistung geht. Selbst wenn die CPUs langsamer werden, der typische Apple-Kunde schluckt es einfach.

Und zweitens, die eigene Hardware setzt sämtliche Nicht-Apple-Reparaturmöglichkeiten ausser Gefecht. Wenn dir was verreckt dann musst du das an Apple schicken um es reparieren zu lassen. Jemand anders machen lassen wird nicht gehen weil die keine Ersatzteile im Handel bekommen, andere Macs ausschlachten und die Ersatzteile als gebraucht verkaufen mal ausgenommen.

robbitop
2020-06-23, 08:34:51
Die bringen garantiert keine langsameren CPUs. Schaue dir mal die Performanceentwicklung im mobile Bereich an. Da sieht man wie wichtig ihnen das ist.
Auch gab es im Bereich Mac bis dato nie Performanceregression.

Exxtreme
2020-06-23, 08:43:01
Ähhh, du glaubst hoffentlich nicht ernsthaft, dass Apple Intel einfach mal so platt macht was Performance angeht. Ich will die CPUs mal in normalen Anwendungen sehen und nicht nur die totgecheateten Spec2006-Benchmarks. Und dass sie Ipad-CPUs recht potent sind das stimmt allerdings.

dildo4u
2020-06-23, 08:52:04
Ihr unterschätz wie sehr Apple in ihrem OS auf die GPU setzt, die Chips werden schon deshalb sehr gut gegen die aktuellen Macs mit IGP aussehen, da erst XE bei Intel wirklich Fortschritte zu machen scheint.

https://youtu.be/WGRBs0_xvjs?t=184

Dampf
2020-06-23, 08:54:22
Geekbench ist in solchen, Geräteklassen-übergreifenden Fragen leider komplett unbenutzbar.

Ist das so? Komischerweise ist das iPad Pro auch in Real World Szenarien wie Video-Export schneller als einige Intel Macs.

Daredevil
2020-06-23, 09:06:04
Ähhh, du glaubst hoffentlich nicht ernsthaft, dass Apple Intel einfach mal so platt macht was Performance angeht. Ich will die CPUs mal in normalen Anwendungen sehen und nicht nur die totgecheateten Spec2006-Benchmarks. Und dass sie Ipad-CPUs recht potent sind das stimmt allerdings.
Es geht nicht um "Performance", es geht darum, dass man seine Dinge schneller erledigt bekommt und das ist ja der Fokus von Apple.
Das wird vielleicht nicht rein durch die CPU Leistung erledigt, sondern durch Co Prozessoren ect. , am Ende ist aber relevant, was hinten rauskommt.

Nicht umsonst hat Apple ja aktuell ja selber schon den T2 Chip auf Intel Geräten verbaut, einfach weil diese Prozessoren die Vorgaben nicht leisten können.
Apple T2 Security Chips sind die zweite Generation speziell für den Mac hergestellter Chips von Apple. Durch Neugestaltung und Integration mehrerer Controller aus anderen Mac-Computern, z. B. des System Management Controllers, Bildsignalprozessors, Audio-Controllers und SSD-Controllers, ermöglicht der T2-Chip neue Funktionen auf dem Mac.

Beispielsweise ermöglicht der T2-Chip noch bessere Sicherheit durch einen integrierten Secure Enclave-Coprozessor, der Touch ID-Daten sichert und die Grundlage für die neuen Funktionen Verschlüsselter Speicher und Sicheres Starten bildet. Der Bildsignalprozessor des T2-Chips arbeitet mit der FaceTime HD-Kamera zusammen, wodurch Tone Mapping und Belichtungsregelung verbessert und automatische Belichtung auf Basis der Gesichtserkennung sowie automatischer Weißabgleich ermöglicht werden.
Zudem: https://appleinsider.com/articles/19/04/09/apples-t2-chip-makes-a-giant-difference-in-video-encoding-for-most-users
https://photos5.appleinsider.com/gallery/30518-50138-Transcode-test-graph-i3-8100-xl.jpg

mironicus
2020-06-23, 09:17:57
Mal schauen, ob der Ausschluß von Intel auch AMD miteinbezieht. Davon war bis jetzt aber auch keine Rede. Die CPU können sie ersetzen, aber auch die GPU? Und wie sieht es aus mit Schnittstellen wie Thunderbolt 3? Stattdessen USB 4.0?

robbitop
2020-06-23, 09:36:33
Ähhh, du glaubst hoffentlich nicht ernsthaft, dass Apple Intel einfach mal so platt macht was Performance angeht. Ich will die CPUs mal in normalen Anwendungen sehen und nicht nur die totgecheateten Spec2006-Benchmarks. Und dass sie Ipad-CPUs recht potent sind das stimmt allerdings.
Wo siehst du Indizien für Cheats? Was kann man in SPEC cheaten? Hat dieser Vorwurf echte Substanz?

Intel hat 5 Jahre gar nichts gemacht in Bezug auf uArchs. Das ist doch kein Wunder, dass sie überholt werden. Selbst AMD hat das geschafft und die haben ein deutlich kleineres Team als Apple.
Ich vermute du unterschätzt, was sich Apple aufgebaut hat an Leuten.

Exxtreme
2020-06-23, 09:53:22
Wo siehst du Indizien für Cheats? Was kann man in SPEC cheaten? Hat dieser Vorwurf echte Substanz?

Intel hat 5 Jahre gar nichts gemacht in Bezug auf uArchs. Das ist doch kein Wunder, dass sie überholt werden. Selbst AMD hat das geschafft und die haben ein deutlich kleineres Team als Apple.
Ich vermute du unterschätzt, was sich Apple aufgebaut hat an Leuten.
OK, Cheat ist vielleicht doch zu bösartig formuliert. Aber es ist so, dass wirklich sehr arg darauf geachtet wird, dass man in den Spec2006-Benchmarks möglichst glänzt. Normale Software bekommt diese Liebe nicht.

Ach ja, ARM ist immer noch eine Risc-Architektur. Und da kann es schnell passieren, dass man Probleme bekommt die theoretische Leistung auf die Straße zu bekommen. Intel hat sich hier auch schon mächtig die Finger verbrannt. Von daher bin ich auf Benchmarks gespannt, die auch reale Software messen inkl. Spiele.

mboeller
2020-06-23, 10:01:52
Ach ja, ARM ist immer noch eine Risc-Architektur. Und da kann es schnell passieren, dass man Probleme bekommt die theoretische Leistung auf die Straße zu bekommen. Intel hat sich hier auch schon mächtig die Finger verbrannt. Von daher bin ich auf Benchmarks gespannt, die auch reale Software messen inkl. Spiele.


X86 = RISC + X86-Decoder.
Die Zeiten in denen die X86 Befehle nativ verarbeitet wurden sind schon sehr lange vorbei

Exxtreme
2020-06-23, 10:13:48
X86 = RISC + X86-Decoder.
Die Zeiten in denen die X86 Befehle nativ verarbeitet wurden sind schon sehr lange vorbei
Das ist richtig. Aber der Decoder arbeitet dynamisch während der Compiler statisch ist. Sprich, der Decoder kann zur Laufzeit Dinge optimieren weil er zur Laufzeit Informationen bekommt wie sich die Anwendung tatsächlich verhält. Diese Informationen kann ein Compiler gar nicht haben. Intel hat es trotzdem versucht und deshalb sind die Itanic-Programme auch so riesig. Weil sie mögliche Ausführungspfade der Anwendung statisch miteinkompilierten. Also das was ein Decoder macht. Hat aber trotzdem nicht so funktioniert und die Itanium-Programme bekommen die Leistung nicht auf die Straße.

Zossel
2020-06-23, 10:25:25
X86 = RISC + X86-Decoder.
Die Zeiten in denen die X86 Befehle nativ verarbeitet wurden sind schon sehr lange vorbei

Und die Zeiten wo RISC noch RISC war sind auch schon lange vorbei.

Diese RISC vs. CISC Diskussion ist im Jahr 2020 an Lächerlichkeit durch nichts zu überbieten.

Gohan
2020-06-23, 10:27:38
Man darf nicht vergessen, das Apple ein riesiges R & D Budget hat, gerade im Hardware-Bereich. Dagegen sehen Intel und AMD echt arm aus. Und Apple entwickelt seit ca. 2004 am eigenen CPU Design, hat also auch schon knapp 16 Jahre Know-How und ist mitnichten ein Newcomer in dem Bereich.

Rein von der CPU her traue ich denen zu, AMD und Intel überbieten zu können. AMD hat es ja immerhin auch geschafft, nach Jahren Intel wieder zu überholen, trotz finanziell angespannter Situation. Wenn dazu noch eine enge Abstimmung der Software auf die Hardware erfolgt, umso besser. Siehe, was man aus Konsolen herausholen kann, wenn man in der Lage ist gezielt auf ein Hardwareset hin zu optimieren.

Bei der GPU bin ich eher vorsichtig. Ich möchte nicht ausschließen, das man in den Pro Geräten weiterhin auch externe GPUs verbauen wird.

Aber das die Apple GPU schneller ist als die von Intel, davon gehe ich aus. Ich denke jedes moderne iPhone hat aktuell mehr Grafikpower, als die beste Intel GPU aufbieten kann. Also ein Gewinn für alle kleineren Geräte wie den Mac Mini, das MacBook Air und 13/14", die ohne externe GPU herumgurken müssen.

Zossel
2020-06-23, 11:02:06
Man darf nicht vergessen, das Apple ein riesiges R & D Budget hat, gerade im Hardware-Bereich. Dagegen sehen Intel und AMD echt arm aus. Und Apple entwickelt seit ca. 2004 am eigenen CPU Design, hat also auch schon knapp 16 Jahre Know-How und ist mitnichten ein Newcomer in dem Bereich.

Da die Kunden von Apple sich mehr für Blinkkram und runde Ecken interessieren als für Rechenleistung könnte Apple auch die Vorprodukte günstiger am Markt einkaufen und die R&D Kohle an die Shareholder auszuschütten.

Selbst wenn Apple Mediathek verbauen würden die Applejünger das trotzdem kaufen, zur Not macht man die Ecken etwas runder.

pixelguy
2020-06-23, 11:12:20
Da die Kunden von Apple sich mehr für Blinkkram und runde Ecken interessieren als für Rechenleistung könnte Apple auch die Vorprodukte günstiger am Markt einkaufen und die R&D Kohle an die Shareholder auszuschütten.

Selbst wenn Apple Mediathek verbauen würden die Applejünger das trotzdem kaufen, zur Not macht man die Ecken etwas runder.
Was für ein Unsinn :freak:

Habe mir gerade erst ein neues MacBook Pro gekauft und da schon sehr genau drauf geachtet was verbaut ist.

robbitop
2020-06-23, 11:14:15
Da die Kunden von Apple sich mehr für Blinkkram und runde Ecken interessieren als für Rechenleistung könnte Apple auch die Vorprodukte günstiger am Markt einkaufen und die R&D Kohle an die Shareholder auszuschütten.

Selbst wenn Apple Mediathek verbauen würden die Applejünger das trotzdem kaufen, zur Not macht man die Ecken etwas runder.
Das ist schon ziemlich oberflächlich. Wenn das so wäre, würde man nicht Milliarden in die SoC Entwicklung stecken um die Ax SoCs sämtliche Pendants von ARM, Samsung, Qualcomm, NV und co zu schlagen. Und das dramatisch deutlich.

Die typische Kundschaft mag zwar nicht auf Benchmarks schauen, aber schon auf Usibility. Wie schnell fühlt sich ein Gerät an, wie leicht ist es, wie lange hält der Akku, wie schnell ist der Workflow.

Wenn man einfach mit runden Ecken und Bunti zu so einem profitablen Geschäft käme, hätten es bereits alle gemacht.

Zossel
2020-06-23, 11:27:07
Was für ein Unsinn :freak:

Habe mir gerade erst ein neues MacBook Pro gekauft und da schon sehr genau drauf geachtet was verbaut ist.

Ein Ethernetport?

Sry, dieses Applezeug wird eigentlich immer disfunktionaler.

Leonidas
2020-06-23, 11:30:57
Ich sehe durchaus, das Apple die Manpower, das Budget und den Willen hat, bei der reinen Performance oben mitspielen zu wollen. Nur bedeutet all dies nicht zwingend, das man das Ziel auch wirklich errreichen kann. Wir reden hier über Intel, die das ganze seit 50 Jahren machen. Das ist ungefähr so, als wollte man aus dem Stand zu ASML aufschließen.

IMO schafft es Apple nur dadurch, das sie Marketing-technisch am Ende andere Schwerpunkte als vergleichbare Performance-Werte setzen. Und im Marketing ist Apple gut (und treffen auf eine hörige Anhängerschaft), da sehe ich kein Darstellungsproblem.

Zossel
2020-06-23, 11:31:24
Die typische Kundschaft mag zwar nicht auf Benchmarks schauen, aber schon auf Usibility. Wie schnell fühlt sich ein Gerät an, wie leicht ist es, wie lange hält der Akku, wie schnell ist der Workflow.

Die Akkus sind bei den Iphones die ich bisher hatte immer scheiße gewesen, und jetzt noch dieser Mist das man die Iphones nicht laden kann wenn man per Headset telefoniert.

pixelguy
2020-06-23, 11:33:19
Ein Ethernetport?

Sry, dieses Applezeug wird eigentlich immer disfunktionaler.

Brauche ich nicht?!
Ebensowenig ein Disc-Laufwerk o.ä.

Man kann sowas immer per Adapter nutzen, wenn man denn unbedingt will.
Und das ewige Gejammer über die "Schlepperei" von Adaptern zählt da auch nicht. Denn unterwegs brauche ich noch weniger ein Ethernet Adapter.

robbitop
2020-06-23, 11:59:23
Die Akkus sind bei den Iphones die ich bisher hatte immer scheiße gewesen, und jetzt noch dieser Mist das man die Iphones nicht laden kann wenn man per Headset telefoniert.
Ist ein wenig ein Themenwechsel...

Aber es sieht so aus als hätte man so ziemlich die beste Akkulaufzeit im Markt:
https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/8

Die Klinkebuchsen lassen im Jahr 2020 auch fast alle Hersteller entfallen. Bluetooth und so.

Windi
2020-06-23, 12:04:49
Apple muss ja nur zu Intel aufschließen und nicht überholen. Und das hat selbst AMD mit Zen1 geschafft, obwohl sie fast Pleite waren und der Börsenkurs unter 2$ fiel.

Wenn Apple hier fast gleichzieht (außer bei den >5GHz Modellen), dann sollte das in Kombination mit den Optimierungen auf das eigene Ökosystem und den eigenen Beschleunigereinheiten sehr gut aussehen.

Grendizer
2020-06-23, 12:09:39
Ist ein wenig ein Themenwechsel...

Aber es sieht so aus als hätte man so ziemlich die beste Akkulaufzeit im Markt:
https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/8

Die Klinkebuchsen lassen im Jahr 2020 auch fast alle Hersteller entfallen. Bluetooth und so.


Ja wobei Klinke immer so geringer Latenzen hat, das man nie ein Problem beim Video schauen hatte. Bei Handys/Tablets und Bluetooth Kopfhörern (gerade bei günstigeren Geräten) ein nicht zu unterschätzendes Problem.

robbitop
2020-06-23, 12:09:54
Der Großteil von Apples Geschäft (das gilt auch für Macs) sind mobile Geräte. Entsprechend sind irre hohe sustained core clocks eh nicht an der Tagesordnung.
Entsprechend kann man seine uArch auf einen niedrigend Betriebspunkt optimieren. Ggf. nutzen sie auch dort ja das big little Konzept.
Und mit ihrer eigenen API und ihrer eigenen HW und eigenen SDKs und eigenem OS hat man sicherlich mehr Optionen für die Nutzung von Fixed Funktion Funktionseinheiten.

Zossel
2020-06-23, 12:12:19
Ist ein wenig ein Themenwechsel...

Ich hab mit den Akkus nicht angefangen ......

Die Klinkebuchsen lassen im Jahr 2020 auch fast alle Hersteller entfallen. Bluetooth und so.

Noch mehr Akkuhousekeeping um das man sich sich kümmern muß ......

Zossel
2020-06-23, 12:25:27
Entsprechend kann man seine uArch auf einen niedrigend Betriebspunkt optimieren. Ggf. nutzen sie auch dort ja das big little Konzept.

Das ist kein Alleinstellungsmerkmal von Apple, das machen andere auch.

pixelguy
2020-06-23, 12:40:19
Wie schon geschrieben, kann Apple mit den eigenen Zusatzchips oder Erweiterungen sehr viel mehr erreichen als andere Anbieter.

Dadurch, dass man Software und Hardware aus einer Hand liefert, kommt man also ggf. auch mit weniger Leistung (sollte es wirklich so sein) schneller zum Ziel. Und darum geht es.
Mir ist doch egal, ob eine Intel CPU 50% schneller ist, wenn meine Arbeit mit einem ARM-Mac in 20% der Zeit erledigt ist.

sth
2020-06-23, 12:41:39
Zum Thema Benchmarks: Die Developer Kits sollen ja schon zum Ende der Woche rausgeschickt werden. Da werden wir sicher in Kürze jede Menge Benchmarks zu sehen bekommen.

Bei der Spieleemulation darf man jetzt nicht vergessen, dass hier vermutlich ein starkes GPU Limit vorliegt. Nicht umsonst hat man hauptsächlich GPU-Last gezeigt. So wie bei MS dürften fast alle Library/System-Calls nativ ablaufen und nicht emuliert.

Ein Großteil davon kommt dadurch, dass sie Metal-Calls direkt abfangen und 1:1 als Native-Calls weitergeben.

Nur wird Rosetta 2, so wie Rosetta 1, nicht ewig da sein. Irgendwann wird's entfernt und dann war's das mit den alten Spielen.

Jep, bei der Intel-Umstellung waren's ca. 5 Jahre. Danach wurde Rosetta entfernt.
Allerdings war der Portierungsaufwand von PowerPC auf Intel deutlich aufwändiger als von Intel auf Apple-ARM, da letztere Architekturen zumindest beide little-endian sind. Nicht jedes Programm - gerade wenn es bisher nur auf einer Architektur entwickelt wurde - ist auf andere Endianess vorbereitet. Das war bei PPC/Intel damals stellenweise schmerzhaft.

Wenn überhaupt jemals ein ARM-Mac mit 12Z in den Handel kommen wird, dann wohl nur in Einsteigergeräten. Ich gehe davon aus das es von Anfang sowas wie einen A13X oder A14X für die Macs geben wird, also der erste Apple Chip der nicht nur für Smartphone/Tablet designed wurde. Da geht bestimmt noch einiges.

Ich bin zu 99% sicher, dass kein Mac mit A12Z offiziell in den Handel kommen wird. Wie schon bei den Intel Developer Kits mit damals Pentium 4 (der auch nie in einem Mac kam) müssen die ARM Developer Kits auch zurückgegeben werden, weil Apple diese Geräte nicht "in the wild" rumfliegen haben will.

Noch dazu ist der A12Z effektiv ein bald 2 Jahre alter SoC der auf ein Tablet abgestimmt wurde.

Gohan
2020-06-23, 12:41:53
Ich sehe durchaus, das Apple die Manpower, das Budget und den Willen hat, bei der reinen Performance oben mitspielen zu wollen. Nur bedeutet all dies nicht zwingend, das man das Ziel auch wirklich errreichen kann. Wir reden hier über Intel, die das ganze seit 50 Jahren machen. Das ist ungefähr so, als wollte man aus dem Stand zu ASML aufschließen.

IMO schafft es Apple nur dadurch, das sie Marketing-technisch am Ende andere Schwerpunkte als vergleichbare Performance-Werte setzen. Und im Marketing ist Apple gut (und treffen auf eine hörige Anhängerschaft), da sehe ich kein Darstellungsproblem.

Aber sorry, das ist doch das gleiche wie in der Automobilindustrie. Wer hätte gedacht, dass alt eingesessene Firmen wie Mercedes, Ford und Co. sich von einem Newcomer wie Tesla geschlagen geben müssen?

Lange Erfahrung kann manchmal auch echt hinderlich sein, einfach weil in der Firmenkultur dann gewisse Prozesse und Denken verankert sind, welche die Entwicklung echt aufhalten und ein Quereinsteiger ganz anders an die Sache herangeht.

Das Spiel wiederholt sich doch immer und immer wieder.

Zossel
2020-06-23, 12:49:57
Aber sorry, das ist doch das gleiche wie in der Automobilindustrie. Wer hätte gedacht, dass alt eingesessene Firmen wie Mercedes, Ford und Co. sich von einem Newcomer wie Tesla geschlagen geben müssen?

Lange Erfahrung kann manchmal auch echt hinderlich sein, einfach weil in der Firmenkultur dann gewisse Prozesse und Denken verankert sind, welche die Entwicklung echt aufhalten und ein Quereinsteiger ganz anders an die Sache herangeht.

Das Spiel wiederholt sich doch immer und immer wieder.

Haben den die bisherigen CPU Wechsel von Apple signifikant mehr Marktanteile gebracht? Nen vernünftiges OS Unterbau mußte sich Apple auch von woanders besorgen.

robbitop
2020-06-23, 12:50:19
Ich hab mit den Akkus nicht angefangen ......

Das nicht - aber es war auch nicht der Punkt. Du hast halt behauptet, dass man nur runde Ecken bauen muss und klicki bunti machen muss und es wird gekauft. Und das ist nicht wahr. Apple liefert nunmal im mobilen Formfaktor sehr viel Akkuleistung pro Bauraum und mit Abstand die höchste SoC Performance (bezogen auf den SoC: und das bei starken Gegenspielern wie Samsung, ARM, Nvidia, Qualcomm und Co). Ich bin auch kein großer Apple Fan - aber bei der Wahrheit sollte man schon bleiben. Wenn man da nicht informiert ist, sollte man sich bevor man was postet vielleicht doch mal kurz informieren.


Noch mehr Akkuhousekeeping um das man sich sich kümmern muß ......
Dank induktivem Laden doch heute kein Drama mehr. Dafür kein Kabel mehr.

Jetzt aber genug OT. Es geht um den SoC.

Das ist kein Alleinstellungsmerkmal von Apple, das machen andere auch.

Wo habe ich behauptet, dass das ein Alleinstellungsmerkmal ist?
Alleinstellungsmerkmal ist, wenn man alles von der Software bis zur Hardware in der eigenen Hand hat. Das gibt einem schon eine Menge Möglichkeiten.

Haben den die bisherigen CPU Wechsel von Apple signifikant mehr Marktanteile gebracht? Nen vernünftiges OS Unterbau mußte sich Apple auch von woanders besorgen.
Das tut man nicht ohne Schmerzen. Die POWER CPUs haben damals in Bezug auf Energieeffizienz nunmal konsistent nicht mit dem mithalten können, was Intel abgeliefert hat. Entsprechend hätten Apple Geräte eben weniger bieten können als Wettbewerber. Also war das sicherlich die richtige Entscheidung.
Ähnlich wird es von Motorolla zu IBM gewesen sein.

Spielst du damit auf OSX / Next an? Das ist 2 Jahrzehnte her. Und der Gründer von Next war auch der Gründer von Apple. Außerdem sind in der Technologiebranche Akquisationen nichts ungewöhnliches oder schlechtes.

Exxtreme
2020-06-23, 12:51:14
Aber sorry, das ist doch das gleiche wie in der Automobilindustrie. Wer hätte gedacht, dass alt eingesessene Firmen wie Mercedes, Ford und Co. sich von einem Newcomer wie Tesla geschlagen geben müssen?

Ähhh, das stimmt so auch nicht. Die alteingesessene Autoindustrie wurde doch gar nicht geschlagen. Bei Verbrennern hat Tesla keine Chance gegen Daimler weil sie schlicht keine Verbrenner anbieten. Und ohne die massiven Staatsinterventionen zuungunsten von Verbrennern gäbe es Tesla wohl gar nicht mehr.

Felixxz2
2020-06-23, 13:11:39
Jungs können wie hier mal b2t? Schön wenn manche Apple nicht mögen, aber das ist hier nicht das Thema.

Wenn man sich die Benches von Anandtech so ansieht hat Intel da bis auf den Takt aktuell einfach kein konkurrenzfähiges Produkt. Die Frage is halt ob die Dinger auch über 3Ghz gehen. Oder einfach da bleiben und noch breiter werden bzw. noch mehr Coprozessoren.

Ich wünsche mir ja was DSPmäßiges für Pro Audio. Das wäre n echter Gamechanger.

Mortalvision
2020-06-23, 13:38:10
Hi, ich wollte auch kurz meinen Eindruck schildern. Apple ist bekannterweise sehr gut im Marketing und hat einen guten Riecher, was Kunden brauchen und wie sie das von der Technik bis zum haptischen Erlebnis umsetzen können.

Apple hat mitnichten das Ziel der "Leistungskrone", das interessiert keinen, der Apple kauft. Hingegen haben sie mit ihrer nativen Prozessor und Grafikeinheitentwicklung damals den absolut richtigen Schritt gemacht. Heute hat Apple so ein umfangreiches Wissrn in diesen Bereichen (und anderen), dass sie sich getrost von Intel loslösen können. Intel ist -abgesehen von den letztrn Jahren- ja eine super Firma gewesen, um klassische und neue Berechnungen in Hardware unter einen Hut zu bekommen. Aber Intel hat im mobil Segment imho sich zu sehr von der klassischen CPU Konzeption leiten lassen. Applekäufer heute (und gestern) brauchen kein Schweitzer Taschenmesser mehr. Sie wollen "ease of use", also wird da alles reingepumpt: Kreative: Pen, Kamera, Video, also GPU Optimierung. "Bürohengste": Integration verschiedenster Subroutinen, damit Programm A ohne Umschweife mit Daten von Programm B arbeiten kann. Mediengenießer: da darf nix ruckeln und zuckeln, sofort-instant-flüssig-fertig. Mit nem Mac VMs aufziehen? Ich vermute schwer, dass Apple entweder noch was eigenes für die Gruppe nachschiebt oder dass sie sich von dieser Gruppe distanzieren wollen, da diese Technerds ja nicht mehr so recht zum Rest der Kundschaft passt (Prinzip der sozialen Exklusivität).

bluey
2020-06-23, 13:58:44
Ich hab mal das Developer SDK beantragt. Schauen wir mal, ob ich eins bekomme...

pixelguy
2020-06-23, 14:01:58
...Mit nem Mac VMs aufziehen?...

Dazu wurde gestern was gezeigt. Ging aber eher um Linux. Zu Windows wurde da nichts gesagt.

robbitop
2020-06-23, 14:02:16
Wenn sie das Ziel nicht gehabt hätten, hätten sie nicht das uArch Team auf die Beine gestellt, welches bei Ax SoCs so dramatisch schneller ist als alles was der Wettbewerb hat.
Ggf ist es nicht explizit das Ziel der Leistungskrone im klassischen Sinn - jedoch aber die höchst mögliche Lösung pro Watt zu erzielen, um entweder kompaktere Geräte anbieten zu können oder eine höhere Laufzeit bei gleichem Akku oder mehr normierte Leistung. Das ist schon ein Wettbewerbsvorteil den man nicht gerade günstig erzielt.

Je mehr Wettbewerbsvorteile desto potenziell besser die Margen.

bluey
2020-06-23, 14:40:11
Wurde gerade approved für das DTK, aber ich schlaf mal rüber. Ist ja nur eine Leihgabe. Wäre aber interessant hier im Context es mal durch zu benchen.

Mortalvision
2020-06-23, 14:43:04
@robbytop: selteneres Aufladen und eine geringere Temperatur des Geräts beim Arbeiten fallen ebenso unter ease of use ;)

pixelguy
2020-06-23, 14:43:44
Wurde gerade approved für das DTK, aber ich schlaf mal rüber. Ist ja nur eine Leihgabe. Wäre aber interessant hier im Context es mal durch zu benchen.
Und zahlen musst du trotzdem über 500$ oder bekommst du die nach der Leihphase zurück?

bluey
2020-06-23, 14:44:44
Und zahlen musst du trotzdem über 500$ oder bekommst du die nach der Leihphase zurück?

Gute Frage. Es wird von Membership gesprochen. Denke ich bekomme das Geld nicht wieder zurück.

LadyWhirlwind
2020-06-23, 14:51:40
Wenn sie das Ziel nicht gehabt hätten, hätten sie nicht das uArch Team auf die Beine gestellt, welches bei Ax SoCs so dramatisch schneller ist als alles was der Wettbewerb hat.
Ggf ist es nicht explizit das Ziel der Leistungskrone im klassischen Sinn - jedoch aber die höchst mögliche Lösung pro Watt zu erzielen, um entweder kompaktere Geräte anbieten zu können oder eine höhere Laufzeit bei gleichem Akku oder mehr normierte Leistung. Das ist schon ein Wettbewerbsvorteil den man nicht gerade günstig erzielt.

Je mehr Wettbewerbsvorteile desto potenziell besser die Margen.

Das Problem ist halt, dass diese Eigenschaften im Desktop gerade nicht gefragt sind. Daher wird es Interessant zu sehen, ob Apple es schafft, hier hoch zu skalieren. Bei leichter CPU-Last wie beim E-Mailen und Surfen, sowie Office dürfte das keine Rolle spielen. Aber was ist mit Rendering & Videobearbeitung.

Das auf den Macs auch noch Windows läuft, ist halt nicht falsch. Das hatte ich, solange ich Macs hatte, auch immer Installiert, obwohl ich es selten gebraucht habe. Aber wenn ich dann mal eine Windows-Software verwenden musste, war ich froh drum. Ob die Firmen dann immer noch den Wünschen ihrere Creativ-Abteilung nach Macs nachkommen, wird sich zeigen. Ebenso ob alle Entwickler mitziehen oder ob sie die Plattform verlassen.

Grendizer
2020-06-23, 14:54:20
Das Problem ist halt, dass diese Eigenschaften im Desktop gerade nicht gefragt sind. Daher wird es Interessant zu sehen, ob Apple es schafft, hier hoch zu skalieren. Bei leichter CPU-Last wie beim E-Mailen und Surfen, sowie Office dürfte das keine Rolle spielen. Aber was ist mit Rendering & Videobearbeitung.

Das auf den Macs auch noch Windows läuft, ist halt nicht falsch. Das hatte ich, solange ich Macs hatte, auch immer Installiert, obwohl ich es selten gebraucht habe. Aber wenn ich dann mal eine Windows-Software verwenden musste, war ich froh drum. Ob die Firmen dann immer noch den Wünschen ihrere Creativ-Abteilung nach Macs nachkommen, wird sich zeigen. Ebenso ob alle Entwickler mitziehen oder ob sie die Plattform verlassen.

Verlassen werden sie die Plattform nicht, aber ich denke das es dann weniger "nativer" Anwendungen kleinerer Tools geben wird, die auch als IOS Version vorliegen.

pixelguy
2020-06-23, 15:00:31
Das auf den Macs auch noch Windows läuft, ist halt nicht falsch. Das hatte ich, solange ich Macs hatte, auch immer Installiert, obwohl ich es selten gebraucht habe. Aber wenn ich dann mal eine Windows-Software verwenden musste, war ich froh drum. Ob die Firmen dann immer noch den Wünschen ihrere Creativ-Abteilung nach Macs nachkommen, wird sich zeigen. Ebenso ob alle Entwickler mitziehen oder ob sie die Plattform verlassen.

Per Bootcamp wird es wahrscheinlich in Zukunft eher nicht gehen.
Aber Parallels hat angekündigt, dass auch auf ARM-Macs Windows möglich sein wird.

Fragt sich mit welcher Performance.

sth
2020-06-23, 15:11:14
Und zahlen musst du trotzdem über 500$ oder bekommst du die nach der Leihphase zurück?
Die Intel-Kits haben $1.000 gekostet, mussten zurückgegeben werden (wurde nicht erstattet), dafür hat man einen Rabatt auf einen finalen Intel-Mac bekommen (weiß aber nicht mehr wie hoch).

robbitop
2020-06-23, 15:21:35
Das Problem ist halt, dass diese Eigenschaften im Desktop gerade nicht gefragt sind. Daher wird es Interessant zu sehen, ob Apple es schafft, hier hoch zu skalieren. Bei leichter CPU-Last wie beim E-Mailen und Surfen, sowie Office dürfte das keine Rolle spielen. Aber was ist mit Rendering & Videobearbeitung.

Das auf den Macs auch noch Windows läuft, ist halt nicht falsch. Das hatte ich, solange ich Macs hatte, auch immer Installiert, obwohl ich es selten gebraucht habe. Aber wenn ich dann mal eine Windows-Software verwenden musste, war ich froh drum. Ob die Firmen dann immer noch den Wünschen ihrere Creativ-Abteilung nach Macs nachkommen, wird sich zeigen. Ebenso ob alle Entwickler mitziehen oder ob sie die Plattform verlassen.
Desktop ist für Apple so ein kleiner Markt. Kann gut sein, dass sie da nichts Überragendes für bringen. Ggf den SoC für die Notebooks mit mehr TDP.
Ich tippe darauf, dass sie den SoC für die Macbooks optimieren werden.

Auch ist Windows via Bootcamp vermutlich ein recht nischiger Markt. Kann gut sein, dass der dann halt nicht mehr bedient wird. Per VM wird es sicherlich noch nutzbar sein (Parallels etc). Der Rest hat dann vermutlich Pech und muss dann wechseln.

Matrix316
2020-06-23, 16:27:24
Desktop ist für Apple so ein kleiner Markt. Kann gut sein, dass sie da nichts Überragendes für bringen. Ggf den SoC für die Notebooks mit mehr TDP.
Ich tippe darauf, dass sie den SoC für die Macbooks optimieren werden.

Auch ist Windows via Bootcamp vermutlich ein recht nischiger Markt. Kann gut sein, dass der dann halt nicht mehr bedient wird. Per VM wird es sicherlich noch nutzbar sein (Parallels etc). Der Rest hat dann vermutlich Pech und muss dann wechseln.
Vergiss Hackintosh nicht. Wenn X86 weg ist, ist auch das wahrscheinlich weg mit der neuesten Version.

Es wird sich hier auch zu sehr auf Apple vs Intel versteift. Mit AMD hätte man eine geniale Alternative gehabt. Stellt euch vor, 13" Macbooks mit 8 Kernen für unter 1000 Euros.

Locuza
2020-06-23, 16:28:59
[...]
Ist das SingleCore oder Multi? Wie kann Apples kleiner Core auch nur in die Nähe von Intels/AMDs großen Kernen rankommen? Ich weiß, deren SoCs sind sehr gut, aber nicht nicht so gut.
Ich traue einem Vergleich von unterschiedlichen µArchs (x86 vs. ARM) erst, wenn z.B. ein Video Encoder für beide Systeme möglichst mit gleichem Aufwand optimiert wurde.
Gegenfrage, wieso sollten Apples Cores nicht an Intel/AMD herankommen?
Bzw. inwiefern sind das "kleine" Kerne?

[...] Auch ist bei Intel seit 5 Jahren in Punkto IPC nichts passiert. Wer weiß was geworden wäre, wenn man Tick Tock weiter gemacht hätte, statt einfach (aus uArch Sicht) nichts mehr zu tun.
[...]
Sie haben ja intern nicht einfach aufgehört.
Cannon Lake wäre ursprünglich der 10nm Skylake Shrink gewesen mit paar Verbesserungen (2016/17) und Ice Lake wäre dann 2017/18 praktisch als Tock erschienen.
Gegenüber der ursprünglichen Planung hat sich die Sunny Cove Architektur vermutlich wenig bis gar nicht gewandelt und Intel saß primär auf fertigen Architekturplänen, bis 10nm und die physische Implementierung halbwegs funktioniert hat.
18% mehr IPC im Schnitt bietet Sunny Cove und das ist ein echt fetter Kern geworden.
Tiger Lake mit Willow Cove kommt dieses Jahr, Intel hat eine Pipeline für Core-Verbesserungen.
Bei Intel laufen jetzt wieder fast jährliche Verbesserungen.

OK, Cheat ist vielleicht doch zu bösartig formuliert. Aber es ist so, dass wirklich sehr arg darauf geachtet wird, dass man in den Spec2006-Benchmarks möglichst glänzt. Normale Software bekommt diese Liebe nicht.

Ach ja, ARM ist immer noch eine Risc-Architektur. Und da kann es schnell passieren, dass man Probleme bekommt die theoretische Leistung auf die Straße zu bekommen. Intel hat sich hier auch schon mächtig die Finger verbrannt. Von daher bin ich auf Benchmarks gespannt, die auch reale Software messen inkl. Spiele.
Das ist richtig. Aber der Decoder arbeitet dynamisch während der Compiler statisch ist. Sprich, der Decoder kann zur Laufzeit Dinge optimieren weil er zur Laufzeit Informationen bekommt wie sich die Anwendung tatsächlich verhält. Diese Informationen kann ein Compiler gar nicht haben. Intel hat es trotzdem versucht und deshalb sind die Itanic-Programme auch so riesig. Weil sie mögliche Ausführungspfade der Anwendung statisch miteinkompilierten. Also das was ein Decoder macht. Hat aber trotzdem nicht so funktioniert und die Itanium-Programme bekommen die Leistung nicht auf die Straße.
Es ist schwer in Spec2006 gut dazustehen, während man dann unter echten Applikationen versagt, den von der Ausführung gibt es intern wenig Unterschiede zwischen den meisten x86- und ARM-Cores.
Alle haben eine Out-of-Order Execution Engine, Hardware Decoder und analysieren intern die Abhängigkeiten zwischen Instruktionen bzw. micro-ops, verwalten History-Buffers und optimieren die Performance während der Laufzeit.
ARM ist keine VLIW-ISA, welche explizit Softwarecompiler voraussetzt, wie damals Intels EPIC bzw. IA64-ISA.
Einen Hybriden hat in dem Aspekt Nvidia mit Denver gebaut, dass waren In-Order ARM-Cores mit ARM-HW-Decoders, aber auch einem Software Optimizer und einem intern anderem Hardwareformat.

LadyWhirlwind
2020-06-23, 18:17:45
Verlassen werden sie die Plattform nicht, aber ich denke das es dann weniger "nativer" Anwendungen kleinerer Tools geben wird, die auch als IOS Version vorliegen.

Die Frage ist halt, ob dann all die kleinen Tools die es jetzt gibt und von vielen benötigt werden, auch zeitnah auf ARM laufen, bzw. es einen ädequaten Ersatz gibt. Fehlen die benötigten Anwendungen werden die Kunden zu Windows greifen.
Windows 10 ist deutlich pflegeleichter als noch Windows 7 oder XP.

Desktop ist für Apple so ein kleiner Markt. Kann gut sein, dass sie da nichts Überragendes für bringen. Ggf den SoC für die Notebooks mit mehr TDP.
Ich tippe darauf, dass sie den SoC für die Macbooks optimieren werden.

Auch ist Windows via Bootcamp vermutlich ein recht nischiger Markt. Kann gut sein, dass der dann halt nicht mehr bedient wird. Per VM wird es sicherlich noch nutzbar sein (Parallels etc). Der Rest hat dann vermutlich Pech und muss dann wechseln.

Mehrere unserer Kunden verwenden Macs nur mit Windows.

AusserdemD Dell hat mit dem XPS z.B. auch valable alternativen zum MacBook Pro im Angebot.

Dino-Fossil
2020-06-23, 18:21:22
Es wird sich hier auch zu sehr auf Apple vs Intel versteift. Mit AMD hätte man eine geniale Alternative gehabt. Stellt euch vor, 13" Macbooks mit 8 Kernen für unter 1000 Euros.

Ich denke, das Preissenkungen nicht unbedingt Apples größte Motivation sind bei ihren Produkten.
Das es keine Apple-Laptops mit AMD gibt ist vielleicht auch ein Zeichen dafür, dass der Schritt hin zu ARM schon lange vorbereitet wird - jedenfalls evtl. länger, als Renoir absehbar war.

Aber letztlich halte ich das für eine schon technisch sehr interessante Entwicklung.

Sunrise
2020-06-23, 19:35:28
Wie kommen hier einige eigentlich auf AMD?

Welchen Sinn ergibt es, wenn man Konkurrent A durch Konkurrent B ersetzt, wenn man selbst inhouse alles hat, was benötigt wird?

Bald kommen noch eigene Modems hinzu, wer weiß was noch.

Warum sollte man jahrelange Erfahrung und Manpower nur für iPhone und iPad nutzen, wenn die eigenen personellen Ressourcen und Partner (TSMC) alle gerne eines im Sinn haben: Noch mehr Geld verdienen. Wir reden hier über AGs und Cook wurde schon von Jobs bescheinigt, dass er der beste Mann im Boot ist, weil er versteht, wie er Wachstum und noch mehr Wachstum generiert (auch mal vollkommen ohne frische Ideen).

Man zieht ja an einem Strang. TSMC investiert Milliarden, Apple verdient Milliarden, beide garantieren sich gegenseitig die besten Preise, stetig die besten, garantierten Abnahmemengen und somit die besten Zukunftsaussichten. Das ist einfach nur Win-Win.

Wir hatten hier schon Ende März eine sehr fruchtbare Diskussion bzgl. zukünftiger Apple-SoCs, und die Zielsetzung ist nicht, alles sofort abzulösen, sondern stetig immer mehr vom Massenmarkt intelligenter Alltagshelfer für Premium-Preise (Exklusivität) einzunehmen, weil das auch immer vom Endkunden gut bezahlt wird, siehe Smartphones -> jetzt ein schweizer Taschenmesser oder siehe Watches -> jetzt ein schweizer Taschenmesser...usw.

Mobil muss es sein (kompaktes, möglichst flexibles Alltagsdesign), und vor allem Effizienz und Performance.

Der Markt ist so groß, dass man problemlos neue Käufer damit finden wird, denn der Mac war die letzten Jahre eine Sackgasse.

Intel verdient aktuell mit Data Center mehr als genug (sie wachsen stetig), AMD geht in eine ähnliche Richtung - aber Apple? Das sind vollkommen verschiedene Beweggründe und Zielsetzungen.

Ich persönlich bin absolut kein Mac-Freund (iPhone schon eher, man ist einfach zufrieden seit Jahren), aber so ein bis ins letzte Detail hochoptimiertes, mobiles Gerät, dass fast alles kann, möglichst keine lauten Lüfter (wenn überhaupt) hat, zusätzlich bald Mini/Micro-LED (extrem effizient) und man sitzt eigentlich immer davor, weil das Gerät beeindruckend schnell, stabil und robust ist. Egal ob zuhause, auf der Arbeit oder unterwegs.

Alles andere kann ja Nische bleiben, bzw. eben für einen bestimmten Zweck (mit all den Nachteilen) optimiert (Server, massive GPUs), aber das ist ja ein anderes Thema. Es legt ja auch niemand einen Schalter um, gibt zum Glück weiterhin Wahlmöglichkeiten.

robbitop
2020-06-23, 19:37:18
@LWW
tja solche Leute müssen dann halt zukünftig andere Lösungen nutzen. Sind halt die Minderheit. Man kann es nicht allen Recht machen- insbesondere wenn man immer mal wieder alte Zöpfe abschneidet.

Matrix316
2020-06-23, 20:49:36
Wie kommen hier einige eigentlich auf AMD?

Welchen Sinn ergibt es, wenn man Konkurrent A durch Konkurrent B ersetzt, wenn man selbst inhouse alles hat, was benötigt wird?
[...]

Weil man mit der inhouse Lösung sich quasi von der Außenwelt komplett abschneidet.

Erst durch Intel wurde Apple im Notebook und Computer Markt doch erst so richtig interessant. Davor wollte auch kaum einer einen Mac haben. Nur verrückte Freaks. :freak:

Ich glaube einfach, dass durch ARM die Macs wieder genauso nieschiger werden wie früher mal mit 68000er und Power PC.

Bei Tablets und Smartphones ist das egal, weil man sich normalerweise kein Windows drauf macht für Call of Duty. Aber an normalen Computern? Das muss IMMER eine Option sein. Oder wer gibt 60000 $ für einen ARM Mac Pro aus um sein 5 $ iPad Game zu spielen? ;D

bluey
2020-06-23, 21:17:19
Gamer != Professional User. Bitte nicht verwechseln :)

Sunrise
2020-06-23, 21:38:52
Übrigens ganz amüsant (Wikipedia (https://en.wikipedia.org/wiki/Apple%27s_transition_to_Intel_processors)):

"The Macintosh line underwent a similar transition between 1994 and about 1996, when Apple switched from Motorola's 68k series of chips to IBM/Motorola PowerPC processors, developed jointly by Motorola, Apple, and IBM. This took several years, during which Apple produced versions of the classic Mac OS that could run on either platform, introduced fairly low-level emulation of the 68k architecture by the PowerPC models, and encouraged third-party developers to release fat binaries that could run natively on either architecture."
...
"Steve Jobs stated that Apple's primary motivation for the transition was their disappointment with the progress of IBM's development of PowerPC technology, and their greater faith in Intel to meet Apple's needs. In particular, he cited the performance per watt projections in the roadmap provided by Intel.[10] This is an especially important consideration in laptop design, which affects the hours of use per battery charge."

Die Beweggründe und Vorgehensweise sind sich extrem ähnlich, fast schon eine 1:1 Kopie.

@Matrix316
Waren andere Zeiten, viel weniger Konkurrenz, auch AMD konnte leider damals nicht entsprechend liefern, und Intel war eben der Inbegriff (für manche Altgestrigen weiterhin) von den Computer-Nerd-Träumen. Intel war einfach geil, und alles andere taugte nichts (überspitzt). Dadurch, dass die Welt aber so schnelllebig geworden ist, und man keinen Mainframe mehr zuhause benötigt, nimmt man den heute einfach mit. Und mit Intel hat Apple eben die letzten Jahre einfach nur noch Aufgüsse präsentiert, da war für mich persönlich nichts mehr wirklich "geil". Das Air war ganz nett, aber zuviele Nachteile, die kann man nun mit sehr potenten SoCs sicher besser lösen, dazu wesentlich mehr Apps und wenn die Emulation (sieht ja so aus) gut funktioniert und zukünftig auch Apple-native Versionen veröffentlicht werden, sehe ich da wenig Nachteile mehr. GPUs kann man von AMD evtl. weiterhin beziehen, aber bzgl. der eigenen GPU scheint meint ja auch gut skalierbar zu sein, die IMGTec-Grundsteine sind schon ziemlich gut, wenn ich Ailuros richtig verstanden habe. Darauf hat sich Apple aber die letzte Zeit auch ausgeruht, evtl. sehen wir hier mehr, falls Apple die Notwendigkeit sieht.

Felixxz2
2020-06-23, 21:47:48
Weil man mit der inhouse Lösung sich quasi von der Außenwelt komplett abschneidet.

Erst durch Intel wurde Apple im Notebook und Computer Markt doch erst so richtig interessant. Davor wollte auch kaum einer einen Mac haben. Nur verrückte Freaks. :freak:

Ich glaube einfach, dass durch ARM die Macs wieder genauso nieschiger werden wie früher mal mit 68000er und Power PC.

Bei Tablets und Smartphones ist das egal, weil man sich normalerweise kein Windows drauf macht für Call of Duty. Aber an normalen Computern? Das muss IMMER eine Option sein. Oder wer gibt 60000 $ für einen ARM Mac Pro aus um sein 5 $ iPad Game zu spielen? ;D

Das ist sicher nicht wahr. Macs wurden wieder interessant als Jobs zu Apple zurück kam. Der erste iMac war zb. ein Riesenerfolg. Den Leuten war das genauso latte wie heute was da für ne CPU drin ist.

Ist aber eh nicht zu vergleichen, die Marktmacht ist ne ganz andere. Wenn man sich mal ansieht wie hoch Apples Marktanteil am Gewinn der Smartphone oder auch Consumer PC Märkte ist wird einem richtig schlecht. Nur die Stückzahlen anzuschauen greift zu kurz.

smalM
2020-06-23, 22:04:19
Da die Kunden von Apple sich mehr für Blinkkram und runde Ecken interessieren als für Rechenleistung
Dieser Schwachsinn ist im Jahr 2020 an Lächerlichkeit durch nichts zu überbieten.

Wenn man sich die Benches von Anandtech so ansieht hat Intel da bis auf den Takt aktuell einfach kein konkurrenzfähiges Produkt. Die Frage is halt ob die Dinger auch über 3Ghz gehen. Oder einfach da bleiben und noch breiter werden bzw. noch mehr Coprozessoren.
Im ersten Anlauf wird das ziemlich sicher bei 3 GHz bleiben, es gibt dann doch eh nichts schnelleres von anderen Anbietern, schon gar nicht von Intel in einem Notebook.
Der i9-9980HK im MacBook Pro zieht bis zu 70W. Das ist es, wovon Apple weg will.

Bei Tablets und Smartphones ist das egal, weil man sich normalerweise kein Windows drauf macht für Call of Duty. Aber an normalen Computern? Das muss IMMER eine Option sein.
Windows ist auf ca. 2% aller Macs im Einsatz. Umgedreht ist Windows für 98% aller Macbenutzer bedeutungslos. Dein 'IMMER' geht völlig an der Realität vorbei.

deLuxX`
2020-06-23, 22:22:17
Dieser Schwachsinn ist im Jahr 2020 an Lächerlichkeit durch nichts zu überbieten.
Korrekt. Habe mir letztes Jahr mein erstes iPhone gekauft und ich wollte einfach den schnellsten SoC auf dem Planeten in einem Smartphone. War ein sehr wichtiger Faktor für mich. Aussage widerlegt.

Matrix316
2020-06-23, 22:22:38
Das ist sicher nicht wahr. Macs wurden wieder interessant als Jobs zu Apple zurück kam. Der erste iMac war zb. ein Riesenerfolg. Den Leuten war das genauso latte wie heute was da für ne CPU drin ist.

Ist aber eh nicht zu vergleichen, die Marktmacht ist ne ganz andere. Wenn man sich mal ansieht wie hoch Apples Marktanteil am Gewinn der Smartphone oder auch Consumer PC Märkte ist wird einem richtig schlecht. Nur die Stückzahlen anzuschauen greift zu kurz.
Ja aber der Marktanteil wird bestimmt nicht höher, wenn man die potentielle Zielgruppe für Macs kleiner macht.

Für Mobile macht ja auch ARM mehr als Sinn: relativ viel Power bei wenig Stromverbrauch und lange Akkulaufzeit.

Aber doch nicht bei Desktop Computer oder größeren Notebooks die als Workstation dienen.

Zumindest solange X86 und Windows den weltweiten Computermarkt dominieren. Wer will denn freiwillig wieder einen Rückschritt in die Segmentierung die es früher gab wo es eben nicht nur Intel PCs sondern eben Mac mit Power PC oder davor Amiga, Atari, C64, Acorn mit ARM (darf man nicht vergessen - ARM ist jetzt nichts neues, sondern steinalt) etc. viel mehr Konkurrenz für Microsoft und Intel gab als heute?

Wo sind denn die ganzen Computer von damals? Alle weg.

Was Apple jetzt macht ist, dass Sony einen neuen Blu Ray Standard rauskramt, der inkompatibel zum bisherigen ist: Die ARM-Blu Ray. Die viel größer und schneller ist. Und nur Sony Filme kommen da drauf raus. Und wenn man Sony Filme sehen will, dann muss man den neuen Sony ARM Blu Ray Player kaufen. :rolleyes:

_shorty_
2020-06-23, 22:22:55
Weil man mit der inhouse Lösung sich quasi von der Außenwelt komplett abschneidet.

Erst durch Intel wurde Apple im Notebook und Computer Markt doch erst so richtig interessant. Davor wollte auch kaum einer eine

Seh ich ebenfalls absolut nicht so oder es ist ne Minderzahl die das wegen der Cpu kaufen - welche eher die bezeichneten Freaks sind. Seit Apple iphone und alu unibody gelauncht hat ging der hype los und ein Macbook ist wie ein Iphone bei vielen ein Status-, style-, whatever Symbol auch über dem großen Teich. Da interessiert sich keiner für die CPU. Was ich eher befürchte ist das Jahr für Jahrs die Arms immer mehr um nebenteile erweitert werden und man so die Kaufzyklen der Kundschaft extrem verkürzen kann, weil dieses neue Feat dann mit Chip Ayxz nich funktioniert oder nur neuen Geräten vorbehalten bleibt

steve.it
2020-06-23, 22:33:15
I always predicted on here that on the same process node, with the same quality designers, using the same techniques, the arm chip would have up to 20% advantage in performance per watt (you can choose whether to make it 20% faster for the same power, or 20% less power for the same speed, or mix and match).

At the moment TSMC also is a huge advantage over Intel. TSMC at 5nm is approximately what Intel would be at 7nm - the design rules are very similar. But TSMC is really making chips at 5nm and Intel is still pretty much at 10nm. So there’s maybe another 20% advantage there for Apple (and for AMD!) at the moment.

Then you take into account that Intel’s designers are not great - the designers at Apple came from AMD, Exponential, DEC, etc., and are among the best. I used to benchmark our designers against designers who worked at tool companies (synopsys, cadence, etc) and found a 20% advantage to our designers. Figure Intel isn’t as bad as them, so call it 10%.

So that gets you to around 50%, which is the bottom range of what Kuo is claiming.

So what are the disadvantages? Well, we don’t know what the GPU will be like. The ipad gpus are not bad, but clearly aren’t desktop class. That said, polygons per watt they seem about on par. So can Apple scale those designs to be competitive with desktop/laptop dedicated graphics?

And what about ports? Will they support thunderbolt? Are they waiting for USB 4? What about PCI?

For certain obscure types of apps, ARM would be worse (code that modifies itself, for example, though that is not commonly used anymore). If you rely heavily on Intel floating point, ARM floating point is different (though, to be fair, ARM uses the IEEE standard and Intel doesn’t. It’s not that Intel is better - it’s just different, but some people may need to keep the identical behavior to compare new calculations to historical ones).

There are certainly a few instructions here and there where x86 may have an advantage over Arm, depending on the particular app. But overall Arm is a solid step upward.
https://forums.macrumors.com/threads/apple-transitioning-macs-to-custom-chips-with-incredible-performance-within-the-next-two-years.2242180/page-60?post=28596350#post-28596350




Apple’s chip designers include, for example, the Intrinsity folks (who were formerly EVSX which emerged from the death of exponential). I worked with them at exponential. We designed the PowerPC x704. For macs.

They also include folks from DEC who worked on Alphas, from AMD who worked on opteron, etc. I know many of them, and they are far more talented than the folks at intel who haven’t managed to double chip performance in a decade.
https://forums.macrumors.com/threads/intel-chips-have-memory-access-design-flaw-and-fix-could-lead-to-performance-drop.2098815/page-8?post=25665678#post-25665678




I don‘t like to give out my name because it leads to harassment, but people on here know who I am.

I designed the floating point unit and interface circuitry/logic on the PowerPC x704 for Exponential Technology, then I, for a time, owned the out-of-order issuing hardware on the UltraSparc V for Sun. At AMD I designed a lot of stuff - I worked on K6-II, K6-II+, K6-III, K6-III+, a little bit on Athlon, a huge chunk of Athlon 64 and Opteron, etc. At various times I did logic design, circuit design, global design, I was in charge of design methodology, I did the first pass ISA for 64-bit integer instructions for x86-64 (we called it AMD64), etc.

As for your second paragraph - performance is not just a matter of RISC vs. CISC. You could have the best architecture in the world, but if your logic design sucks, or your circuit design sucks, or your fab sucks, what good is it?

PowerPC suffered from poor fabs and mediocre logic design (though we did pretty well at Exponential). x86 had a performance/watt advantage largely because Intel had the world’s best fabs, by a long shot. But if Intel fabbed IBM’s PowerPC designs, they’d have beaten x86 by a lot.

Hell, at the time the DEC Alpha was the best chip in the world - and it was RISC.
https://forums.macrumors.com/threads/arm-macs-expected-at-wwdc-2020-what-we-know.2209517/page-18?post=28554746#post-28554746




He’s right. (I worked on PowerPC x704, x705, AMD K6-ii, k6-ii+, K6-iii, K6-iii+, athlon 64, opteron, UltrsaSparc v, f-risc/G)
https://forums.macrumors.com/threads/intel-restates-support-for-apple-during-transition-to-apple-silicon.2242414/page-7?post=28594294#post-28594294

bluey
2020-06-23, 22:49:11
Ja aber der Marktanteil wird bestimmt nicht höher, wenn man die potentielle Zielgruppe für Macs kleiner macht.

Für Mobile macht ja auch ARM mehr als Sinn: relativ viel Power bei wenig Stromverbrauch und lange Akkulaufzeit.

Aber doch nicht bei Desktop Computer oder größeren Notebooks die als Workstation dienen.

Zumindest solange X86 und Windows den weltweiten Computermarkt dominieren. Wer will denn freiwillig wieder einen Rückschritt in die Segmentierung die es früher gab wo es eben nicht nur Intel PCs sondern eben Mac mit Power PC oder davor Amiga, Atari, C64, Acorn mit ARM (darf man nicht vergessen - ARM ist jetzt nichts neues, sondern steinalt) etc. viel mehr Konkurrenz für Microsoft und Intel gab als heute?

Wo sind denn die ganzen Computer von damals? Alle weg.

Was Apple jetzt macht ist, dass Sony einen neuen Blu Ray Standard rauskramt, der inkompatibel zum bisherigen ist: Die ARM-Blu Ray. Die viel größer und schneller ist. Und nur Sony Filme kommen da drauf raus. Und wenn man Sony Filme sehen will, dann muss man den neuen Sony ARM Blu Ray Player kaufen. :rolleyes:

Es ist 2020. Die Welt hat sich weiter gedreht und mittlerweile wird eh alles weg abstrahiert und weg virtualisiert. Deine Vergleiche hinken. Woher weist du überhaupt, dass die ARM Architecture unter anderen thermalen Bedingungen nicht skalieren? Bist du CPU Architekt oder woher kommen deine Behauptungen? Es werden sicher nicht die selben Prozessoren verwendet wie auf dem iPhone/iPad. Auf der Apple Watch läuft auch ein eigenes spezialisiertes Design.

Rabiata
2020-06-23, 23:10:45
Weil man mit der inhouse Lösung sich quasi von der Außenwelt komplett abschneidet.

Erst durch Intel wurde Apple im Notebook und Computer Markt doch erst so richtig interessant. Davor wollte auch kaum einer einen Mac haben. Nur verrückte Freaks. :freak:

Ich glaube einfach, dass durch ARM die Macs wieder genauso nieschiger werden wie früher mal mit 68000er und Power PC.

Apple war der Meinung, daß sie von Intel bessere Leistung und Effizienz bekommen, wie Sunrise ein paar Posts weiter oben zitiert hat. Apple heute schottet sich immer noch ab, da kommt es auf den Prozessortyp weniger an.

Ich bin vor allem gespannt wie gut sich die Hardware im Vergleich zu X86 schlägt. Da sind ja viele Spekulationen im Umlauf, aber wenn die neuen Mac Notebooks mal draußen sind, wird sich zeigen wie sie in Leistung und Effizienz dastehen.

Felixxz2
2020-06-23, 23:59:18
Ja aber der Marktanteil wird bestimmt nicht höher, wenn man die potentielle Zielgruppe für Macs kleiner macht.

Für Mobile macht ja auch ARM mehr als Sinn: relativ viel Power bei wenig Stromverbrauch und lange Akkulaufzeit.

Aber doch nicht bei Desktop Computer oder größeren Notebooks die als Workstation dienen.

Zumindest solange X86 und Windows den weltweiten Computermarkt dominieren. Wer will denn freiwillig wieder einen Rückschritt in die Segmentierung die es früher gab wo es eben nicht nur Intel PCs sondern eben Mac mit Power PC oder davor Amiga, Atari, C64, Acorn mit ARM (darf man nicht vergessen - ARM ist jetzt nichts neues, sondern steinalt) etc. viel mehr Konkurrenz für Microsoft und Intel gab als heute?

Wo sind denn die ganzen Computer von damals? Alle weg.

Was Apple jetzt macht ist, dass Sony einen neuen Blu Ray Standard rauskramt, der inkompatibel zum bisherigen ist: Die ARM-Blu Ray. Die viel größer und schneller ist. Und nur Sony Filme kommen da drauf raus. Und wenn man Sony Filme sehen will, dann muss man den neuen Sony ARM Blu Ray Player kaufen. :rolleyes:

Was für ein Vergleich :freak:

Abgesehen davon, dass er hinkt, ist auch die Ausgangsannahme einfach nicht richtig. Du wirst im neuen Apple Ökosystem eine riesige Auswahl haben, nämlich die von iOS. Apple ist insgesamt einfach ein riesiger Softwaremarkt. Wahrscheinlich wirst du sogar in manchen Bereichen viel mehr Apps haben als früher, einfach weil der Aufwand an ne iPad OS App noch ne UI für Maus+Tastatur dranzuhängen viel geringer ist als ne eigene App zu machen.

Matrix316
2020-06-24, 00:16:25
Seh ich ebenfalls absolut nicht so oder es ist ne Minderzahl die das wegen der Cpu kaufen - welche eher die bezeichneten Freaks sind. Seit Apple iphone und alu unibody gelauncht hat ging der hype los und ein Macbook ist wie ein Iphone bei vielen ein Status-, style-, whatever Symbol auch über dem großen Teich. Da interessiert sich keiner für die CPU. Was ich eher befürchte ist das Jahr für Jahrs die Arms immer mehr um nebenteile erweitert werden und man so die Kaufzyklen der Kundschaft extrem verkürzen kann, weil dieses neue Feat dann mit Chip Ayxz nich funktioniert oder nur neuen Geräten vorbehalten bleibt
Aber gerade das ist ja nur eine logische Folge. Wenn man auf Standards setzt ist es ziemlich unwahrscheinlich, dass was kommt, was die vorherige Generation inkompatibel macht. CPUs, Grafikkarten, Soundkarten, Speicher etc. ist vor und rückwärtskompatibel. Vielleicht gibt's hier und da Features wie RTX die Grafik schöner macht, aber du kannst auch Spiele mit einer RTX Karte spielen, die kein RTX unterstützen.

Wenn Apple jetzt alles selbst macht mit zig Co Prozessoren und Spezialchips, dann ist die Wahrscheinlichkeit größer, dass mit jeder neuen Generation die User gearscht sein werden, weil irgendwas nicht mehr läuft. Das war bislang schon immer so, wenn jemand ein nicht IBM kompatibles nicht X86 Computer System genutzt hat.

Klar kann man mit vielen Spezialchips auch vieles besser machen (siehe mein Amiga Beispiel) aber es kann auch viel schneller inkompatibel werden (AGA Games auf Nicht AGA Amigas zum Beispiel...:rolleyes: )

Irgendwann kommt das Neurokontrollierte Hyper Final Cut Pro was eben nicht mehr auf dem A13X läuft, sondern einen A14Y mit Special Afterburner Neuro Chip vorraussetzt. Oder es läuft zwar, aber 100 Mal langsamer.

Kann alles passieren.

Was für ein Vergleich :freak:

Abgesehen davon, dass er hinkt, ist auch die Ausgangsannahme einfach nicht richtig. Du wirst im neuen Apple Ökosystem eine riesige Auswahl haben, nämlich die von iOS. Apple ist insgesamt einfach ein riesiger Softwaremarkt. Wahrscheinlich wirst du sogar in manchen Bereichen viel mehr Apps haben als früher, einfach weil der Aufwand an ne iPad OS App noch ne UI für Maus+Tastatur dranzuhängen viel geringer ist als ne eigene App zu machen.

Das wird die Welt revolutionieren, Handy Apps auf dem Desktop PC. :rolleyes:

Es ist 2020. Die Welt hat sich weiter gedreht und mittlerweile wird eh alles weg abstrahiert und weg virtualisiert. Deine Vergleiche hinken. Woher weist du überhaupt, dass die ARM Architecture unter anderen thermalen Bedingungen nicht skalieren? Bist du CPU Architekt oder woher kommen deine Behauptungen? Es werden sicher nicht die selben Prozessoren verwendet wie auf dem iPhone/iPad. Auf der Apple Watch läuft auch ein eigenes spezialisiertes Design.

Das ist ja klar. Performance habe ich eigentlich noch nie so wirklich erwähnt, weil IMO der Architekturunterschied viel schwerwiegender sein wird. Risc CPUs waren schon immer super schnell. Aber auch super speziell. Einfach in X-Code neu kompillieren und es läuft 10 Mal schneller als vorher, das weiß ich nicht. (Btw., ohne anzugeben, aber ich bin sogar studierter (FH Dipl Ing) Technischer Informatiker und wenn mir die Technik mehr gelegen hätte, wäre ich sogar eventuell vielleicht heute im Chipdesign, aber mir hat irgendwie Software entwickeln mehr Spaß gemacht und gelegen als irgendwelche Dioden und Transistoren zu berechnen und Register mit Assembler zu füllen. ;))

Felixxz2
2020-06-24, 00:34:51
Du wirst es nicht glauben, aber das ist für den Otto Normal ein Riesenargument. Und damit auch für jeden Developer der Otto Normal als Zielgruppe hat. Du wirst einfach ein sehr "harmonisches" Ökosystem haben, mit allen Vor- und Nachteilen die das so mit sich bringt.

Und im Grunde verändert sich bei den Nachteilen eig nicht viel, denn die haste jetzt auch schon. Windows Software geht nicht, Freiheiten im System sind nicht usw. Hat bis jetzt auch nicht abgeschreckt und wen doch, der bleibt halt weiterhin fern.

Spannend wird daher eher der Pro Bereich. Da könnte man massiv Leute verlieren, wenns eben zu zugenagelt wird und auch die Hersteller nicht mitziehen. Könnte aber auch mega werden, wenn man zB. Audio/Video DSPs hat, dies sonst nicht gibt oder das System eben sehr effizient/robust ist. Wird man sehen müssen.

Fusion_Power
2020-06-24, 00:49:27
Die Nachricht, dass Apple offenbar umfassend von Intel auf ARM wechselt hat mich schon sehr überrascht. Als Laie frag ich mich da vor allem WIE das denn mit der ganzen vorhandenen Software auf den neuen Geräten gehen soll. Ob sich die User alles nochmal für ARM kaufen müssen? Geld spielt zwar bei Apple-Jüngern kaum ne Rolle aber praktisch wäre das nicht. Also x86 Emulation auf ARM? Das würde wohl auch nur akzeptiert werden wenn die Performance nicht spührbar leidet.
Wie genau wird Apple das machen? Hab bisher nur über die Umstellung der Hardware gelesen, wenig darüber wie die Pläne wegen der Software aussehen.

Daredevil
2020-06-24, 00:52:40
Apps werden Crossplattform sein. Wenn du eine App fürs iPhone/iPad hast, funktioniert die auch am Mac.
Und schreib nicht "Apple jünger", wenn du eine richtige Antwort willst, du bist nämlich keine 12 mehr.

Fusion_Power
2020-06-24, 01:06:31
Apps werden Crossplattform sein. Wenn du eine App fürs iPhone/iPad hast, funktioniert die auch am Mac.
Und schreib nicht "Apple jünger", wenn du eine richtige Antwort willst, du bist nämlich keine 12 mehr.
Was stimmt jetzt wieder mit "Apple Jünger" nicht? :confused: Und was soll das mit meinem Alter zu tun haben? Ich hab einfach nen gängigen Begriff genutzt mit dem jeder was anfangen kann, nur so nebenbei. Ist ja keine Beleidigung, für mich jedenfalls nicht.

Wie dem auch sei. Ich hab nur gefragt wegen vorhandener x86 Software fürn Mac, die man halt vor der Umstellung gekauft hatte. Ist die denn dann auch ARM kompatibel oder muß man sein bisheriges Photoshop oder Final Cut Pro nochmal für ARM berappen? Apple wird ja vermutlich nicht an alle User Gutscheine austeilen.

Leonidas
2020-06-24, 04:05:05
Aber sorry, das ist doch das gleiche wie in der Automobilindustrie. Wer hätte gedacht, dass alt eingesessene Firmen wie Mercedes, Ford und Co. sich von einem Newcomer wie Tesla geschlagen geben müssen?


Tja, ein schlechtes Beispiel: Tesla ist in Teilen besser (Antrieb), das Auto an sich ist nicht besser/schlechter als die anderen. Desweiteren ist diese/ähnliche Antriebstechnologie bei den deutschen Autoherstellern schon im letzten Jahrtausend spruchreif gewesen, das wurde nur firmenpolitisch nie durchgezogen. Habe hierzu Insiderwissen. Das macht den Vergleich obsolet - weil bei Intel & AMD hält niemand Technologie zurück.

Nochmal: AMD & Intel in ihrem eigenen Metier zu schlagen, wäre etwa so, wie eine Kopie von ASML aus dem Boden zu stampfen. Wer kann sich das vorstellen?




Apple hat mitnichten das Ziel der "Leistungskrone", das interessiert keinen, der Apple kauft. ...

:up:

Sehr gut gesagt (bezogen auf die komplette Rede). Apple muß keine absolute Performance-Krone bieten, da geht es um andere Dinge. Den Rest biegt das Marketing gerade. Genau deswegen ist Apple auch nicht im Zwang, die höchste Performance zu bauen - und wird sie demzufolge auch nicht bauen.




Je mehr Wettbewerbsvorteile desto potenziell besser die Margen.


"Wettbewerbsvorteile" ist in der heutigen Welt das falsche Wort, weil es einen objektiven Vergleich aller Produkte voraussetzt. Inklusive auch ständiger Erklärungen, wenn irgendein Punkt weniger bekannt ist oder im Allgemeinwissen üblicherweise falsch verstanden wird.

"Darstellungs-Vorteil" wäre das richtige Wort. Wichtig ist nicht, wirklich vorn zu liegen, sondern dort vorn zu liegen, wo üblicherweise etwas dargestellt (präsentiert) wird. Apple muß sich nicht darauf konzentrieren, die schnellste Can-Do-All-Hardware hinzulegen - es reicht, wenn sie in den üblichen Benchmarks gut aussieht und in der Praxis möglichst fluffig wirkt.




Desktop ist für Apple so ein kleiner Markt. Kann gut sein, dass sie da nichts Überragendes für bringen. Ggf den SoC für die Notebooks mit mehr TDP.
Ich tippe darauf, dass sie den SoC für die Macbooks optimieren werden.


Gar nicht so unwahrscheinlich, wenn man die Marktgröße beachtet. Eventuell auch ein Derivat mit mehr Kernen. Ist einfach zu designen, kostet halt eine Maske und extra Fertigung mehr.

Ailuros
2020-06-24, 08:03:37
I always predicted on here that on the same process node, with the same quality designers, using the same techniques, the arm chip would have up to 20% advantage in performance per watt (you can choose whether to make it 20% faster for the same power, or 20% less power for the same speed, or mix and match).

At the moment TSMC also is a huge advantage over Intel. TSMC at 5nm is approximately what Intel would be at 7nm - the design rules are very similar. But TSMC is really making chips at 5nm and Intel is still pretty much at 10nm. So there’s maybe another 20% advantage there for Apple (and for AMD!) at the moment.

Then you take into account that Intel’s designers are not great - the designers at Apple came from AMD, Exponential, DEC, etc., and are among the best. I used to benchmark our designers against designers who worked at tool companies (synopsys, cadence, etc) and found a 20% advantage to our designers. Figure Intel isn’t as bad as them, so call it 10%.

So that gets you to around 50%, which is the bottom range of what Kuo is claiming.

So what are the disadvantages? Well, we don’t know what the GPU will be like. The ipad gpus are not bad, but clearly aren’t desktop class. That said, polygons per watt they seem about on par. So can Apple scale those designs to be competitive with desktop/laptop dedicated graphics?

And what about ports? Will they support thunderbolt? Are they waiting for USB 4? What about PCI?

For certain obscure types of apps, ARM would be worse (code that modifies itself, for example, though that is not commonly used anymore). If you rely heavily on Intel floating point, ARM floating point is different (though, to be fair, ARM uses the IEEE standard and Intel doesn’t. It’s not that Intel is better - it’s just different, but some people may need to keep the identical behavior to compare new calculations to historical ones).

There are certainly a few instructions here and there where x86 may have an advantage over Arm, depending on the particular app. But overall Arm is a solid step upward.
https://forums.macrumors.com/threads/apple-transitioning-macs-to-custom-chips-with-incredible-performance-within-the-next-two-years.2242180/page-60?post=28596350#post-28596350




Apple’s chip designers include, for example, the Intrinsity folks (who were formerly EVSX which emerged from the death of exponential). I worked with them at exponential. We designed the PowerPC x704. For macs.

They also include folks from DEC who worked on Alphas, from AMD who worked on opteron, etc. I know many of them, and they are far more talented than the folks at intel who haven’t managed to double chip performance in a decade.
https://forums.macrumors.com/threads/intel-chips-have-memory-access-design-flaw-and-fix-could-lead-to-performance-drop.2098815/page-8?post=25665678#post-25665678




I don‘t like to give out my name because it leads to harassment, but people on here know who I am.

I designed the floating point unit and interface circuitry/logic on the PowerPC x704 for Exponential Technology, then I, for a time, owned the out-of-order issuing hardware on the UltraSparc V for Sun. At AMD I designed a lot of stuff - I worked on K6-II, K6-II+, K6-III, K6-III+, a little bit on Athlon, a huge chunk of Athlon 64 and Opteron, etc. At various times I did logic design, circuit design, global design, I was in charge of design methodology, I did the first pass ISA for 64-bit integer instructions for x86-64 (we called it AMD64), etc.

As for your second paragraph - performance is not just a matter of RISC vs. CISC. You could have the best architecture in the world, but if your logic design sucks, or your circuit design sucks, or your fab sucks, what good is it?

PowerPC suffered from poor fabs and mediocre logic design (though we did pretty well at Exponential). x86 had a performance/watt advantage largely because Intel had the world’s best fabs, by a long shot. But if Intel fabbed IBM’s PowerPC designs, they’d have beaten x86 by a lot.

Hell, at the time the DEC Alpha was the best chip in the world - and it was RISC.
https://forums.macrumors.com/threads/arm-macs-expected-at-wwdc-2020-what-we-know.2209517/page-18?post=28554746#post-28554746




He’s right. (I worked on PowerPC x704, x705, AMD K6-ii, k6-ii+, K6-iii, K6-iii+, athlon 64, opteron, UltrsaSparc v, f-risc/G)
https://forums.macrumors.com/threads/intel-restates-support-for-apple-during-transition-to-apple-silicon.2242414/page-7?post=28594294#post-28594294

Das dumme ist natuerlich dass hier keiner auf seine Aussagen achten wird. Der Vorteil ist schon heute nachweissbar sowohl auf der CPU als auch auf der GPU Seite. Bis zum Punkt wo NVIDIA SoCs noch vergleichbar sind mit Apple Axx SoCs ist der Vorsprung auch auf Seite GPUs mehr als nur sehenswert.

Als Apple sah dass ihnen QCOM Adreno im Bereich FLOPs/W regelrecht die Hosen heruntergezogen hat, nahmen sie die Geschichte GPU Entwicklung in die Hand und haben den IMG basierende GPU IP code fast komplett umgeschrieben.

Apple hat keine brutal hohe Zahlen an enginners fuer ihre SoCs wie manche erwarten wuerden, aber wohl die hoechste Anzahl an sehr vielen hochtalentierten engineers und hier hat der Herr oben den Nagel auf den Kopf getroffen den er weiss sicher worueber er redet.

Den Duennschiss dass sich Apple angeblich nicht um Leistung kuemmert koennt ihr leicht vergessen. Langfristig wird Apple Leistung durchaus skalieren koennen, ohne von jeglicher Marktbedingten Leistungs-stagnation abhaengig zu sein. Wenn man eigen angepasste hw mit eigen angepasster sw/Platform kombiniert ueberwiegen die Vorteile so stark jeglichen Nachteil, dass jegliche noetige Uebergangsperiode am Ende nebensaechlich sein wird.

pixeljetstream
2020-06-24, 08:47:38
Man muss sich imo auch nur Metal API angucken um zu sehen, dass sie sehr gute Grafik Leute haben. Die neueste Iteration sieht auch wieder sehr gut aus.

Auch ist Raytracing nun ähnlich zu dxr1.1 umgesetzt

Windi
2020-06-24, 08:52:19
Das Killerfeature der künftigen Macs dürfte aber sein, dass auf ihnen auch iOS- und iPadOS-Apps laufen werden. Schließlich basieren die neuen Mac-Chips auf derselben Technologie wie jene in iPhones und iPads. Diese Möglichkeit könnte Apple Heerscharen neuer Mac-Kunden bescheren. Etwa wenn iPhone-User einem Mac den Vorzug vor einem Windows-PC geben, weil auf dem auch die iPhone-Apps laufen, an die sie sich gewöhnt haben.
https://www.spiegel.de/netzwelt/gadgets/wwdc-apple-kuendigt-ios-14-macos-big-sur-und-macs-mit-apple-prozessoren-an-a-18891958-209a-4e9a-9157-4a7753a2a42d

Nur Mal um zu zeigen, wie viele normale (häufig gut betuchte) Kunden denken.
Die meisten wollen, das sich das Programm überall gleich bedienen lässt und überall verfügbar ist. Ein weiterer Vorteil ist für viele Anfänger, das die mobile Variante weniger Möglichkeiten bietet und damit normalerweise leichter in der Bedienung sein sollte.

Viele wollen einfach für eine Aufgabe nicht drei verschiedene APPs/Programme haben. Das sorgt nur für Probleme beim Datenaustausch, ist verwirrend in der Bedienung, man hat drei verschiedene Rechnungen und man muss drei Mal die Plugins verwalten.

Für die Hersteller dürfte es auch interessant sein. Mit der günstigen mobilen APP kann man die Kunden locken und sie dient quasi als Demoversion. Wer mehr möchte, kann dann das kostenpflichtige Upgrade installieren. Und es ist dann sehr wahrscheinlich, das der Kunde bei dem Produkt des Herstellers bleibt und nicht zu einem anderen überläuft.

y33H@
2020-06-24, 09:12:40
iOS-Apps auf dem Macbook klingt nach Windows 8, aber es ist vermutlich überzeugend für nicht wenige.

robbitop
2020-06-24, 09:54:56
Das Interface muss ja nicht plump das gleiche sein. Zwischen Tablet und Smartphone wird ja bereits differenziert - man kann zusätzlich auch noch zum Mac differenzieren.

Felixxz2
2020-06-24, 10:02:52
Eben, der Dev kann ja einfach noch ein Interface mehr anbieten, die App ist aber darunter die selbe. Für Entwickler wie Kunden wie auch Apple sehr effizient.

Hat sich jetzt eig schon jemand hier für das DTK angemeldet?

Deinorius
2020-06-24, 10:32:00
Das dumme ist natuerlich dass hier keiner auf seine Aussagen achten wird. Der Vorteil ist schon heute nachweissbar sowohl auf der CPU als auch auf der GPU Seite. Bis zum Punkt wo NVIDIA SoCs noch vergleichbar sind mit Apple Axx SoCs ist der Vorsprung auch auf Seite GPUs mehr als nur sehenswert.


Es klingt ja interessant, was er schreibt. Aber noch dürfen wir warten, wie sich Apple im Laptop oder gar Desktop Bereich anstellen wird.
Aber ich halte Intel Ingenieue nicht für so schlecht, wie er sie darstellt. Klar, 10 nm haben sie verhunzt, aber dafür 14 nm so stark ausgereizt, dass ich mich fragen müsste, ob TSMC das geschafft hätte. Natürlich muss man sich die Frage nicht stellen, wenn man bessere nodes generell hinbekommt. :ugly: Sofern Intel, also die Manager und sonstigen Sesselpupser, nicht zu blöd sind und ihr R&D schon letztes oder sogar vorletztes Jahr wieder auf Touren gebracht haben, müssen die sich vor keinem verstecken. Ich hoffe, dass AMD das Gleiche tut. Am besten jeder, damit die Design generell besser werden, egal bei wem.
Aber der Vorwurf, dass es Intel in einem Jahrzehnt nicht geschafft hat, die Chip Leistung zu verdoppeln? Ohne ausreichende Konkurrenz? Ist damit Leistung/Watt oder Leistung/mm² gemeint? Der Vorwurf ist nur relativ gerechtfertigt. Je nachdem, bei welcher TDP wir diskutieren. Da hat es Intel, dank AMD im Grunde, endlich geschafft, die Leistung unter 15 W TDP deutlich zu erhöhen. Was wird ab jetzt möglich sein, wenn sie sich nicht nur von AMD, sondern auch von Apple bedroht fühlen? Es ist trotz allem immer noch leichter von ganz unten nach oben zu steigen, als wenn man schon oben ist, sich immer weiter hinauf zu begeben. An den Punkt wird Apple auch kommen.

robbitop
2020-06-24, 10:45:39
Ich denke auch dass man Intel nicht unterschätzen darf. Die haben ein riesiges RnD Budget und eine Armee von talentierten Engineers. Sicherlich gehören viele der talentiertesten dazu.
Dass da nicht mehr geliefert wurde liegt mMn nicht an den Engineers sondern am Management, fehlenden Wettbewerb und auch falschen Entscheidungen (zu optimistische Parameter für 10nm, Kopplung von design an den Prozess etc).
Diese Fehler scheinen jetzt intern korrigiert zu sein - die geleakten Roadmaps zeigen riesige Speünge in den kommenden Jahren.

Dampf
2020-06-24, 10:55:06
Man muss sich imo auch nur Metal API angucken um zu sehen, dass sie sehr gute Grafik Leute haben. Die neueste Iteration sieht auch wieder sehr gut aus.

Auch ist Raytracing nun ähnlich zu dxr1.1 umgesetzt

Sehr schön. HW-Accceleration für Raytracing in Apple Silicon ist nur noch eine Frage der Zeit. :smile:

Ailuros
2020-06-24, 11:02:29
Es klingt ja interessant, was er schreibt. Aber noch dürfen wir warten, wie sich Apple im Laptop oder gar Desktop Bereich anstellen wird.
Aber ich halte Intel Ingenieue nicht für so schlecht, wie er sie darstellt. Klar, 10 nm haben sie verhunzt, aber dafür 14 nm so stark ausgereizt, dass ich mich fragen müsste, ob TSMC das geschafft hätte. Natürlich muss man sich die Frage nicht stellen, wenn man bessere nodes generell hinbekommt. :ugly: Sofern Intel, also die Manager und sonstigen Sesselpupser, nicht zu blöd sind und ihr R&D schon letztes oder sogar vorletztes Jahr wieder auf Touren gebracht haben, müssen die sich vor keinem verstecken. Ich hoffe, dass AMD das Gleiche tut. Am besten jeder, damit die Design generell besser werden, egal bei wem.
Aber der Vorwurf, dass es Intel in einem Jahrzehnt nicht geschafft hat, die Chip Leistung zu verdoppeln? Ohne ausreichende Konkurrenz? Ist damit Leistung/Watt oder Leistung/mm² gemeint? Der Vorwurf ist nur relativ gerechtfertigt. Je nachdem, bei welcher TDP wir diskutieren. Da hat es Intel, dank AMD im Grunde, endlich geschafft, die Leistung unter 15 W TDP deutlich zu erhöhen. Was wird ab jetzt möglich sein, wenn sie sich nicht nur von AMD, sondern auch von Apple bedroht fühlen? Es ist trotz allem immer noch leichter von ganz unten nach oben zu steigen, als wenn man schon oben ist, sich immer weiter hinauf zu begeben. An den Punkt wird Apple auch kommen.

Ich hab es mit Absicht vorsichtiger formuliert:

...ohne von jeglicher Marktbedingten Leistungs-stagnation abhaengig zu sein...

Ich denke auch dass man Intel nicht unterschätzen darf. Die haben ein riesiges RnD Budget und eine Armee von talentierten Engineers. Sicherlich gehören viele der talentiertesten dazu.
Dass da nicht mehr geliefert wurde liegt mMn nicht an den Engineers sondern am Management, fehlenden Wettbewerb und auch falschen Entscheidungen (zu optimistische Parameter für 10nm, Kopplung von design an den Prozess etc).
Diese Fehler scheinen jetzt intern korrigiert zu sein - die geleakten Roadmaps zeigen riesige Speünge in den kommenden Jahren.

Schoen und gut. Aber wenn sich Apple selber weiterhelfen kann warum eigentlich nicht? Denn irgendwelche Einzigartigkeit noch irgendwelche spezielle hw Anpassungen werden sie von Intel nie haben. Ergo?

Matrix316
2020-06-24, 11:27:16
Apps werden Crossplattform sein. Wenn du eine App fürs iPhone/iPad hast, funktioniert die auch am Mac.
Und schreib nicht "Apple jünger", wenn du eine richtige Antwort willst, du bist nämlich keine 12 mehr.
Es heißt ja heute "Apple Sheeps" oder? :tongue:

Was ist, wenn du Software nutzt, deren Hersteller es nicht mehr gibt oder so? Von alleine kommen die neuen ARM Versionen nicht ...

Matrix316
2020-06-24, 11:29:12
Apple war der Meinung, daß sie von Intel bessere Leistung und Effizienz bekommen, wie Sunrise ein paar Posts weiter oben zitiert hat. Apple heute schottet sich immer noch ab, da kommt es auf den Prozessortyp weniger an.

Ich bin vor allem gespannt wie gut sich die Hardware im Vergleich zu X86 schlägt. Da sind ja viele Spekulationen im Umlauf, aber wenn die neuen Mac Notebooks mal draußen sind, wird sich zeigen wie sie in Leistung und Effizienz dastehen.

Zur Zeit hat AMD auch mehr Leistung und bessere Effizienz als Intel.

Glaube nicht, dass ARM mit einem Ryzen 3950X oder so mithalten kann. Zumindest nicht in den iMacs oder Mac Minis - zumindest was Multicoreleistung betreffen wird.

ChaosTM
2020-06-24, 11:31:51
Ich denke auch dass man Intel nicht unterschätzen darf. Die haben ein riesiges RnD Budget und eine Armee von talentierten Engineers. Sicherlich gehören viele der talentiertesten dazu.
Dass da nicht mehr geliefert wurde liegt mMn nicht an den Engineers sondern am Management, fehlenden Wettbewerb und auch falschen Entscheidungen (zu optimistische Parameter für 10nm, Kopplung von design an den Prozess etc).
Diese Fehler scheinen jetzt intern korrigiert zu sein - die geleakten Roadmaps zeigen riesige Speünge in den kommenden Jahren.


Ohne Konkurrenz schläft die beste Firma ein. Hat halt 2 Jahre gedauert bis man vollends erwacht und den alte Filz los war und wieder vernünftig agieren konnte. Es wird spannend, auch oder gerade im Bezug auf die zu erwartende Auseinandersetzung mit ARM ..

Matrix316
2020-06-24, 11:50:27
Ohne Konkurrenz schläft die beste Firma ein. Hat halt 2 Jahre gedauert bis man vollends erwacht und den alte Filz los war und wieder vernünftig agieren konnte. Es wird spannend, auch oder gerade im Bezug auf die zu erwartende Auseinandersetzung mit ARM ..
Also ich sehe ARM nicht als Konkurrenz zu Intel. Du kannst auch ganz schlecht eine ARM CPU kaufen und in dein AMD oder Intel Mainboard betreiben - vom Installieren einer normalen Windows Version und Software/Games ganz abgesehen.

Selbst Windows on Arm ist auch lächerlich was das Softwareangebot betrifft.

Da ist Tesla eine größere Konkurrenz zu Mercedes und BMW als ARM zu Intel IMO.

Deinorius
2020-06-24, 11:56:45
Ich hab es mit Absicht vorsichtiger formuliert:


Schon klar. Aber ich bezog mich auch vorwiegend auf seine Aussagen, die deutlich Intel kritischer und der Rest optimistischer waren.
Auch lustig, wo er anfangs ARM generell 20 % bessere Perf/Watt zugesteht, später aber Logik, Fab usw. über allem stellt.

Schoen und gut. Aber wenn sich Apple selber weiterhelfen kann warum eigentlich nicht? Denn irgendwelche Einzigartigkeit noch irgendwelche spezielle hw Anpassungen werden sie von Intel nie haben. Ergo?


Macht aus Apples Sicht auf alle Fälle Sinn. Es gibt keinen (aber auch echt keinen) anderen Hersteller für Mainstream Produkte, für den es mehr Sinn machen würde. Ein riesiges abgekapseltes für sich angepasstes Ökosystem. Für mich absolut nix, da könnte ich noch klaustrophobisch werden (:ugly:), aber wenn man sich damit abfinden kann, perfekt.

Monsta
2020-06-24, 11:57:54
Zur Zeit hat AMD auch mehr Leistung und bessere Effizienz als Intel.

Glaube nicht, dass ARM mit einem Ryzen 3950X oder so mithalten kann. Zumindest nicht in den iMacs oder Mac Minis - zumindest was Multicoreleistung betreffen wird.


Wenn Apple Ihre iMacs und Mac Minis mit Arm ausstattet sind die garantiert schneller als die alten. Apple wird auch erst einen Mac pro auf Arm bringen wenn er schneller als der alte ist. Sonst kauft den doch keiner.

Ich denke die wissen ganz genau was mit Arm geht, sonst würden sie diesen Cut nicht machen.

Ailuros
2020-06-24, 12:00:43
Macht aus Apples Sicht auf alle Fälle Sinn. Es gibt keinen (aber auch echt keinen) anderen Hersteller für Mainstream Produkte, für den es mehr Sinn machen würde. Ein riesiges abgekapseltes für sich angepasstes Ökosystem. Für mich absolut nix, da könnte ich noch klaustrophobisch werden (:ugly:), aber wenn man sich damit abfinden kann, perfekt.

Ich bin selber auch ein Android-only-Tier, aber hat wohl nichts mit dem Thema zu tun ;)

Deinorius
2020-06-24, 12:04:28
Wenn Apple Ihre iMacs und Mac Minis mit Arm ausstattet sind die garantiert schneller als die alten.


Ich wäre dann auf einen Hackintosh Vergleich mit einem Ryzen 4000 Renoir bei gleicher TDP gespannt. ;D

Windi
2020-06-24, 12:15:43
Zur Zeit hat AMD auch mehr Leistung und bessere Effizienz als Intel.

Glaube nicht, dass ARM mit einem Ryzen 3950X oder so mithalten kann. Zumindest nicht in den iMacs oder Mac Minis - zumindest was Multicoreleistung betreffen wird.
Das größte Problem ist doch die Singelcoreleistung und da müssen wir abwarten was Apple da zaubert. Im Vergleich zu jetzigen mobilen Lösungen wird man das aber noch steigern können.

Aber viele Kerne?
Das ist noch nicht einmal eine Frage von können, sondern nur ob Apple so einen Workstation-Prozessor extra auflegen will. Aber wenn Apple auch den Mac Pro umstellen will, dann wird man wohl genau das liefern.
Das was AMD mit Ryzen/Epyc macht ist ja kein Hexenwerk. Selbst Intel hat mit dem Stratix 10 schon seit Ewigkeiten Chiplets.

Badesalz
2020-06-24, 12:21:09
Zur Zeit hat AMD auch mehr Leistung und bessere Effizienz als Intel.

Glaube nicht, dass ARM mit einem Ryzen 3950X oder so mithalten kann. Zumindest nicht in den iMacs oder Mac Minis - zumindest was Multicoreleistung betreffen wird.Leistung ist wirklich mal interessant. MacPro mal außen vor, aber sie haben Imacs mit Caby und Coffee über 8500/8600 bis 9600k und optional gar auch 9900k.

Erstmal müssen sie mit den ARMs x86 emulieren. Jene, obige, nicht nur die aus den Air... Das wird schonmal spannend wieviel langsamer das sein wird (?)
Dann nativ ARM, haben sie bestimmt nicht vor spürbar langsamer zu sein als ein i5 Coffee.

Kann mir vorerst garnicht vorstellen was sie dafür als ARM hervorzaubern möchten. Einfach mit zig Kernen ist es da jedenfalls nicht getan. Auch auf dem Mac ist SC-Leistung signifikant.

SKYNET
2020-06-24, 12:25:39
Ich wäre dann auf einen Hackintosh Vergleich mit einem Ryzen 4000 Renoir bei gleicher TDP gespannt. ;D


cinebench wird der ARM komplett zerfetzt werden, blender auch... ARM kann wenige sachen gut(die dafür massiv besser als x86), aber dann wars das auch schon... die grossen softwarehersteller werden sicherlich nen furz tun zum auf ARM optimieren, wozu auch, 90% der käuferschaft hat eh nen richtiges OS = win