PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25

w0mbat
2020-11-14, 13:20:36
Stimmt, TGL taktet sich ja kurzzeitig bis auf 4,8GHz hoch im SC. Aber das ist ja eher für Benchmarks gedacht ;)

dildo4u
2020-11-14, 13:44:18
Es macht kein Sinn den TDP nicht maximal für Single Core Boost auszunutzen, gerade das was man mit einem Macbook Air macht Apps starten, Surfen etc wird sich besser anfühlen.
Und Mac OS wird nicht so schlank sein wie iOS, da wird man die Power sicherlich brauchen.

Zossel
2020-11-14, 14:01:13
Es macht kein Sinn den TDP nicht maximal für Single Core Boost auszunutzen, gerade das was man mit einem Macbook Air macht Apps starten, Surfen etc wird sich besser anfühlen.

Und mit einem Macbook ohne Air macht man was anderes?

Und Mac OS wird nicht so schlank sein wie iOS, da wird man die Power sicherlich brauchen.

Die paar DLLs und Treiber mehr die ein Desktop-OS mehr als als ein Handy-OS hat machen den Kohl wirklich nicht fett.

Heimatsuchender
2020-11-14, 18:43:22
Das neue MBA und MacBook Pro sagen mir schon zu. Aber der Aufpreis auf 16 GB Ram ist schon gepfeffert.

smalM
2020-11-15, 16:58:08
Compute (https://browser.geekbench.com/v5/compute/search?utf8=✓&q=apple+silicon&sort=score): Wieviel Leistung bleibt wohl im OpenCL-Layer hängen gegenüber einer reinen Metal Lösung?

mboeller
2020-11-16, 11:55:01
ouch:

https://www.notebookcheck.com/Beeindruckende-Performance-Apples-M1-Chip-im-MacBook-Pro-MacBook-Air-und-Mac-Mini-brilliert-auch-im-emulierten-x86-Benchmark.504280.0.html

Geekbench:


Mit einem Ergebnis von 1.313 Punkten bei Nutzung von einem Kern bzw. 5.888 Punkten beim Einsatz von allen Kernen können die eigenen Vorgänger mühelos übertroffen werden


im X86-Modus; nur 18 - 21% langsamer als nativ

Hamster
2020-11-16, 14:02:44
ouch:

https://www.notebookcheck.com/Beeindruckende-Performance-Apples-M1-Chip-im-MacBook-Pro-MacBook-Air-und-Mac-Mini-brilliert-auch-im-emulierten-x86-Benchmark.504280.0.html

Geekbench:



im X86-Modus; nur 18 - 21% langsamer als nativ

Krass. Damit hätte ich nicht gerechnet.
Am Do soll mein MBA kommen - ich bin gespannt.

Benutzername
2020-11-16, 16:14:18
Krass. Damit hätte ich nicht gerechnet.
Am Do soll mein MBA kommen - ich bin gespannt.

Quäl das neue Teil schön bis es raucht. :biggrin:


Nur 20% weniger leistung ist wirklich beachtlich. Was viele Progrämmchen ja benutzbar macht zumindest für einen Datentransfer. Manche Benutzer werden es vermutlich noch nicht mal wirklich merken. Wie leidensfähig manche Computerbenutzer sind habe Ich gerade wieder gemerkt als Ich den Laptop der Mutter eines Freundes auf Win10 gebracht habe. Sie stört sich nicht an der Schnecken-Festplatte in dem Ding. Oder dem einzelnen RAM-Riegel, der merklich die Grafik beim zeichnen behindert. :freak: Der Otto Normal Apple Kunde wird vermutlich kaum einen Unterschied merken.




----------------------------------
die wirklich wichtigen Programme laufen auch schon:

https://player.vimeo.com/video/459894802?title=0&byline=0&portrait=0&app_id=122963

Das französische Magazin Canard PC Hardware (https://www.cpchardware.com) hat Choclate Doom zum laufen gebracht.

https://www.cpchardware.com/canard-pc-hardware-46-est-sorti-microsoft-et-apple-sortent-leurs-arm-nvidia-lance-les-geforce-rtx/

Kann wer französisch?

Hamster
2020-11-16, 22:00:54
GPU Performance scheint auch nicht schlecht zu sein:


https://www.tomshardware.com/news/apple-silicon-m1-graphics-performance

D4ve
2020-11-16, 22:45:44
http://pbs.twimg.com/media/Em-YxJAVgAAycI-.jpg
https://pbs.twimg.com/media/Em-dE2lUUAE641E.jpg
Ungefähr auf dem Level eines Ryzen 5 2600X oder eines Core i5-8600K wenn man mit den Benches von Computerbase (https://www.computerbase.de/2020-11/cinebench-r23-community-benchmarks/) vergleicht.

edit: Ist vom MBP 13"
edit2: SingleCore Ergebnisse angefügt... - grob wie ein Ryzen 7 5800X

Hamster
2020-11-16, 22:46:30
Die ersten Geräten sind bereits angekommen:

https://www.macrumors.com/2020/11/16/first-m1-silicon-macs-arriving-to-customers/

dildo4u
2020-11-16, 23:10:21
Ryzen 4750U Pro scheint in dem Bereich mit 15 Watt zu sein, mal sehen was M1 im MacBook Pro zieht.


https://www.computerbase.de/forum/threads/neuer-cpu-benchmark-die-community-testet-prozessoren-in-cinebench-r23.1980752/post-24884925

Dschounz
2020-11-17, 08:01:13
Mein MBP 13" M1/16GB wird grade für den Versand vorbereitet...wenn's schnell kommt, werd ich auch mal ein paar Benches machen und einstellen.

Bin schon gespannt....komme von einem MBA 2012 :freak:, das pfeift (wortwörtlich: Stichwort Lüfter) mit macOS 10.5.7 auf dem letzten Loch :rolleyes:

Gohan
2020-11-17, 08:10:36
http://pbs.twimg.com/media/Em-YxJAVgAAycI-.jpg
https://pbs.twimg.com/media/Em-dE2lUUAE641E.jpg
Ungefähr auf dem Level eines Ryzen 5 2600X oder eines Core i5-8600K wenn man mit den Benches von Computerbase (https://www.computerbase.de/2020-11/cinebench-r23-community-benchmarks/) vergleicht.

edit: Ist vom MBP 13"
edit2: SingleCore Ergebnisse angefügt... - grob wie ein Ryzen 7 5800X

Und das in einem Notebook! 5W vs. 105W. Jetzt bin ich umso mehr auf die Desktop Variante der CPU gespannt.

Sunrise
2020-11-17, 09:38:24
GPU Performance scheint auch nicht schlecht zu sein:


https://www.tomshardware.com/news/apple-silicon-m1-graphics-performance
Apple scheint mal wieder exzellente Treiberarbeit geleistet zu haben. Beeindruckend...

Es ist jetzt natürlich schon ein immenser Vorteil, dass das System schon fast wie eine Konsole aus einer Hand kommt, das wird wirklich hart für den Mitbewerb, aber gut für uns Kunden.

deLuxX`
2020-11-17, 10:47:26
Es ist jetzt natürlich schon ein immenser Vorteil, dass das System schon fast wie eine Konsole aus einer Hand kommt, das wird wirklich hart für den Mitbewerb, aber gut für uns Kunden.
Nenene....geschlossenes System, Apple ist böse [random Gemecker hier einsetzen] xD

Im Ernst: Hammer! Sowas hat die CPU Welt mal gebraucht

biohaufen
2020-11-17, 12:21:33
Wurde hier schon CB r20 laufen gelassen?
Mein MacBook Air ist gerade angekommen und ich hab mal r20 mit Rosetta laufen lassen.
SC: 410cb
MC: 1925cb

Allerdings zieht er im Hintergrund noch das Update auf 11.0.1
Das MacBook bleibt aber ziemlich kühl, also das Gehäuse. Ein Air von 2018 wurde da deutlich heißer

D4ve
2020-11-17, 13:28:59
Wurde hier schon CB r20 laufen gelassen?
Mein MacBook Air ist gerade angekommen und ich hab mal r20 mit Rosetta laufen lassen.
SC: 410cb
MC: 1925cb

Allerdings zieht er im Hintergrund noch das Update auf 11.0.1
Das MacBook bleibt aber ziemlich kühl, also das Gehäuse. Ein Air von 2018 wurde da deutlich heißer

Zur Einordnung die Benches von CB20 von CPU Monkey (https://www.cpu-monkey.com/)

Undertaker
2020-11-17, 14:19:03
Das ist etwas langsamer als die schnellsten x86 15W-Modelle, auch als ein "alter" Comet Lake 10710U. Trotzdem nicht schlecht, gerade wenn der Verbrauch niedriger ausfällt - das müsste nochmal genauer beziffert werden. Ist das Gerät passiv gekühlt?

steve.it
2020-11-17, 14:27:09
Das ist etwas langsamer als die schnellsten x86 15W-Modelle, auch als ein "alter" Comet Lake 10710U. Trotzdem nicht schlecht, gerade wenn der Verbrauch niedriger ausfällt - das müsste nochmal genauer beziffert werden. Ist das Gerät passiv gekühlt?

- Das Air ist passiv gekühlt.
- CB20 ist nicht nativ sondern läuft in Rosetta. Nativ ist CB23

Gerade gefunden:
https://twitter.com/mnloona48_/status/1328453127209504771
Apple M1 Single thread: 1498
Apple M1 Multi thread: 7508
(scheint ein MacBook Pro 13" zu sein, also mit aktiver Kühlung)

Daredevil
2020-11-17, 15:03:45
15 Uhr, its Review Time!
f4g2nPY-VZc

OEaKQ0pxQsg

XQ6vX6nmboU

Wake
2020-11-17, 15:25:10
Anandtech - The 2020 Mac Mini Unleashed: Putting Apple Silicon M1 To The Test (https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested)

Performance-Review des Mini.

Hamster
2020-11-17, 15:25:16
MBA wurde gerade versendet :ulove:

hiDDen
2020-11-17, 16:34:25
Ich habe mir auch das neue M1 MBA bestellt - neben Freizeitkram auch zum coden kleinerer Projekte. Und der M1 versägt beim kompilieren mit Xcode sogar einen 10 Core Intel. Geil ;D

dildo4u
2020-11-17, 16:36:19
ESO wird kein Client für M1 bekommen.


https://www.elderscrollsonline.com/en-us/news/post/59187

Undertaker
2020-11-17, 17:48:59
- Das Air ist passiv gekühlt.
- CB20 ist nicht nativ sondern läuft in Rosetta. Nativ ist CB23

Gerade gefunden:
https://twitter.com/mnloona48_/status/1328453127209504771
Apple M1 Single thread: 1498
Apple M1 Multi thread: 7508
(scheint ein MacBook Pro 13" zu sein, also mit aktiver Kühlung)

Rosetta ist schon klar, aber gerade die Performance in diesem Szenario dürfte zunächst einmal der spannendste Maßstab sein. Mich würde jetzt insbesondere noch die sustained-Performance interessieren, wo Apple auf ~10 Watt limitiert sein dürfte.

BlackBirdSR
2020-11-17, 18:03:39
Was soll man mehr sagen als Bravo Apple, Bravo

basix
2020-11-17, 18:45:32
Ich muss sagen, ich bin beeindruckt. Der M1 schlägt z.B. Renoir nicht in allen Lebenslagen und ist je nachdem auch langsamer. Aber wenn, ist man nie sehr weit weg und die Performance ist absolut brauchbar. Als normaler Privatanwender sollte das ohne Probleme passen. Wenn man Pro User ist und z.B. auf Bootcamp oder auf sonstige Applikationen angewiesen ist, sollte man wohl noch ein Weilchen abwarten. Aber bei der zweiten Generation (M2?) muss sich AMD und Intel warm anziehen. Eigentlich ein Glück für die beiden, dass Apple Silicon nur für die Apple Geräte gemacht sind.

Spannend wird das Thema weiter in der Zukunft rund um ARM @ Windows und Server bei Nvidia. Kommt Nvidia auch mit solch einem Design? Dann kann es bei entsprechender Skalierung nach oben auch im HPC Bereich sehr interessant werden. Und allenfalls sogar als zusätzlicher CPU Vendor, falls Windows @ ARM mal kommen sollte.

Matrix316
2020-11-17, 20:06:33
ESO wird kein Client für M1 bekommen.


https://www.elderscrollsonline.com/en-us/news/post/59187
Ach die sollen sich nicht so anstellen. Die Konvertierung ist doch nur ein Mausklick...:rolleyes::freak:

LadyWhirlwind
2020-11-17, 20:12:14
Ach die sollen sich nicht so anstellen. Die Konvertierung ist doch nur ein Mausklick...:rolleyes::freak:

Am Ende für mich ein Grund kein Mac zu kaufen.

Mir würd ja ne Windows VM schon reichen, aber gelegentlich will ich doch zocken oder auf einen ein Windows Programm zurück greifen.

urpils
2020-11-17, 22:30:02
beeindruckend:

Insbesondere Code-Compiler ist absolut krass → der M1 schlägt alles (außer natürlich den ganz ausgebauten Mac Pros) und verbraucht dabei nahezu keinen Strom.. irre!

https://techcrunch.com/2020/11/17/yeah-apples-m1-macbook-pro-is-powerful-but-its-the-battery-life-that-will-blow-you-away/

Felixxz2
2020-11-17, 23:42:32
beeindruckend:

Insbesondere Code-Compiler ist absolut krass → der M1 schlägt alles (außer natürlich den ganz ausgebauten Mac Pros) und verbraucht dabei nahezu keinen Strom.. irre!

https://techcrunch.com/2020/11/17/yeah-apples-m1-macbook-pro-is-powerful-but-its-the-battery-life-that-will-blow-you-away/

Fixed function units?

Rooter
2020-11-17, 23:51:58
Welche fixen Funktionen braucht man denn zum compilen?

MfG
Rooter

Felixxz2
2020-11-18, 00:10:40
Keinen Plan, war eher ne Frage. Apple arbeitet ja viel mit ff units und co-prozessoren.

Daredevil
2020-11-18, 00:58:16
Im Netz geistern schon mehr oder weniger Videos zur Gaming Performance umher, für WoW reichts wohl ganz gut. 1200p 10/10, AA aus
Ich weiß, leeres Startgebiet und nur WoW, aber Settings auf 5/10, Auflösung runter und man zockt damit 10 Std, passiv@60fps. :D

Und das ganze ist noch in x86. :<
mIbEIhizoXY

dildo4u
2020-11-18, 05:15:04
Ist Wow nicht nativ?


https://us.forums.blizzard.com/en/wow/t/mac-support-update-november-16/722775

Wake
2020-11-18, 08:17:00
Ist Wow nicht nativ?


https://us.forums.blizzard.com/en/wow/t/mac-support-update-november-16/722775

Patch kommt erst diese Woche wohl.

mboeller
2020-11-18, 09:53:41
wie erwartet, das Pro ist bis 44% schneller unter Dauerbelastung:

https://www.notebookcheck.com/MacBook-Pro-vs-MacBook-Air-Der-M1-Chip-ist-in-Kombination-mit-einem-Luefter-bis-zu-44-Prozent-schneller.504519.0.html

zumindest beim CB23

Argo Zero
2020-11-18, 09:57:26
wie erwartet, das Pro ist bis 44% schneller unter Dauerbelastung:

https://www.notebookcheck.com/MacBook-Pro-vs-MacBook-Air-Der-M1-Chip-ist-in-Kombination-mit-einem-Luefter-bis-zu-44-Prozent-schneller.504519.0.html

zumindest beim CB23

Ergo: Moddet man sein Air mit einem Lüfter, ist es genau so schnell? ^^

Savay
2020-11-18, 11:44:21
Thema Productivity und (RAW)-Bildbearbeitung.

Hier hat jemand ein Air mit DxO PL4 und DeepPrime getestet.
https://docs.google.com/spreadsheets/d/1Yx-3n_8D3OreyVwQLA-RVqiQCAgNdXDkxScpXTur1Gs/edit#gid=0

Natürlich erstmal über Rosetta.

CPU Leistung liegt damit noch irgendwo zwischen einem i7-8850H und i9-9880H.
GPU ungefähr auf 1650 Level.

DeepPrime läuft auf MacOS über CoreML und unter Windows über WinML/DirectML.
Der CPU Only Mode ist extrem AVX2/Vector lastig, die Ausführung über die GPU scheint bei den moderneren GPU µArchs (Vega, RDNA, Ampere, Turing und anscheinend auch M1) recht direkt mit der FP32 Leistung zu skalieren.

GPU Mode ist dementsprechend auch (wenig erstaunlich) hauptsächlich GPU limitiert mit einem etwas höheren Anteil der CPU gegen Ende der jeweiligen Berechnungen. (allerdings wohl weit weniger Vector lastig)

BTW:
CPU only lässt sich zwischen MacOS und Windows nicht gut vergleichen...anscheinend gibt es eine Limitierung unter CoreML was die Threads angeht. (Unter MacOS wird 1 Thread pro Core genutzt, unter Windows jeder verfügbare Thread, sollte beim M1 aber ja egal sein... ;) )
Neural Engine ist natürlich auch noch nicht supported und bislang ist noch unklar ob und was sie dort bringen könnte.

Ist Wow nicht nativ?


Jedenfalls ist es mit den LowLevel APIs mittlerweile GPU limitiert...würde da nur marginale Gewinne erwarten.

dildo4u
2020-11-18, 11:56:15
Ist wow im RAID nicht immer noch massiv CPU limitiert?

Savay
2020-11-18, 11:59:02
Hängt afair ein bisschen von der Gruppengröße und den genutzten Addons ab...mit den LowLevel APIs ist es wie gesagt deutlich GPU lastiger geworden...und das schon ne ganze Weile.

In den Startzonen ist es das eh und mit ner Mittelklasse GPU sowieso am Ende.

Würde BTW gern mal wissen wie die M1 GPU mit der Bandbreite skaliert!
Von den VEGA APUs wissen wir ja das es eigentlich kaum was bringt die Breiter zu machen ohne am IMC zu schrauben.

Hamster
2020-11-18, 12:28:12
Yeah, mein MBA ist einen Tag früher angekommen 😀

Heute abwnd mal ausführlich unter die Lupe nehmen.

Argo Zero
2020-11-18, 12:37:33
Aktuell könnte ich mit einem neuen MacBook noch nicht arbeiten.
Parallels geht nicht und in meiner Freizeit nutze ich Serato, geht auch nicht. Möp. :I
Mein Air werde ich aber auch demnächst in Rente schicken (ist von 2013).

Hamster
2020-11-18, 12:53:06
Lustig, parallel habe ich (unter anderem) auch noch ein 2013er Air.

Das bleibt aber. Ist unser Couch Rechner :ugly:

Mit 11“ genau das richtige Format.

hiDDen
2020-11-18, 14:00:32
Bei mir wird ein MacBook Air Early 2014 abgelöst. Ich habe dann eigentlich keine wirkliche Verwendung mehr dafür, überlege aber trotzdem, den Akku tauschen zu lassen. Es kommt mir einfach zu verlockend vor, die alte Hardware jetzt nochmal mit einem Akkutausch deutlich aufzuwerten :freak: Aber falls ich es dann einfach bei Ebay reinstelle befürchte ich, dass es niemand zu schätzen weiß? :confused: Neu hält so ein Akku bei dem Modell im Video-Playback immerhin seine 12 Stunden... :eek:

Akkarin
2020-11-18, 15:04:45
Wissen wir wie groß der SLC cache ist und wie er an die Blöcke angebunden ist ? Da könnten ja sowohl für die CPU als auch für die CPU ein kleiner Teil der guten Leistung herkommen.

Edit: wait, ich hab den SLC cache irgendwie als SoC-weiten Last Level Cache verstanden. Das ist er doch, und nicht irgendwas weirdes mit SLC nand ?

robbitop
2020-11-18, 17:21:58
Genau das ist er. Im Anandtech Artikel steht dass sie von 16 MiB ausgehen.

Ailuros
2020-11-19, 04:49:36
Mal absehen was Apple fuer ihre groessere Macs in Zukunft anstellen kann.

dildo4u
2020-11-19, 07:19:32
i3 Modell Air vs M1 Air

UxSI45eeAts

Daredevil
2020-11-19, 09:15:00
Max und Vadim machen schon echt gute Videos, heute kommt dann das Air vs. Pro Video, wobei man sich die Ergebnisse mittlerweile denken kann. Aber selbst wenn das Pro eine bessere Leistung hat über Zeit, so richtig langsam wird das Air im MC aber auch nicht wirklich, im SC sowieso nicht. Heute wird mein Pro zugestellt, mein erster Mac ever , ich bin gespannt wie ein Flitzebogen.
( Ich bin dann wohl die 50% der Neukunden :D )

mironicus
2020-11-19, 09:50:04
Ich find das Air interessanter. Ohne Lüfter aber dafür immer noch ausreichend schnell. Ich habe mir das 16 GB-Modell vorbestellt.

mboeller
2020-11-19, 11:07:01
https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/6

wtf ...

Was machen die anders als zB. Microsoft mit ihren schnarch-langsamen ARM-Notebooks. Die sind ja mit X86-Programmen nahezu unbenutzbar, laut Reviews.

Argo Zero
2020-11-19, 11:09:21
Mal ne doofe Frage: Kann Rosetta 2 auch anders rum? Also von ARM auf x86 übersetzen?

Daredevil
2020-11-19, 11:11:19
Nope, kann es nicht.
Muss es aber auch nicht, mit Universal2 kann man für jede App ja zwei Versionen hinterlegen und die Basis jeder APP ist ja aktuell eher x86.
Also im besten Fall merkt der User einfach nicht, was für eine Version das ist, weil es "einfach funktioniert".

Dampf
2020-11-19, 11:18:35
https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/6

wtf ...

Was machen die anders als zB. Microsoft mit ihren schnarch-langsamen ARM-Notebooks. Die sind ja mit X86-Programmen nahezu unbenutzbar, laut Reviews.

Keine Ahnung, Rosetta 2 ist wohl ein Meisterwerk einer Software. Programmieren und vor allem Software auf Hardware abstimmen können die bei Apple, das muss man ihnen lassen.

urpils
2020-11-19, 11:57:19
https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/6

wtf ...

Was machen die anders als zB. Microsoft mit ihren schnarch-langsamen ARM-Notebooks. Die sind ja mit X86-Programmen nahezu unbenutzbar, laut Reviews.


Apple hat einfach den Vorteil, dass sie den kompletten Stack kontrollieren und abstimmen können:

Silizium, Compiler, Programmiersprache, API, Treiber, Betriebssystem

und da sie wissen, wie und wo die Workloads und Bottlenecks sind, optimieren sie konsequent und seit Jahren darauf...

Eine Anekdote z.B. ist aktuell, dass das Objective-C-typische "retail&release eines NSOBject" (also Reference Counting, was bei macOS traditionell massiv viel eingesetzt wird) bei der aktuellsten Intel-Generation etwas 30ns benötigt, auf dem M1 auf 6,5ns reduziert werden konnte und dank Optimierung auf dem M1 unter x86-Emulation immer noch mit 14ns doppelt so schnell ist wie ein nativer X86-Code auf den aktuellen Intel-Cores.

und wenn man all diese Elemente zusammen nimmt, dass Intel einfach den kompletten Stack kontrolliert und alle Schwachstellen ausmerzen kann dann bekommt man eben solche Ergebnisse wie hier. Dass sie aber auch mit eins der besten Prozessor-Teams weltweit haben spielt sicherlich auch keine untergeordnete Rolle ;)

Die müssen eben nicht ALLES abdecken, sondern ganz konkret die Bedürfnisse ihrer Architektur...

mboeller
2020-11-19, 15:02:30
Apple hat einfach den Vorteil, dass sie den kompletten Stack kontrollieren und abstimmen können:

Silizium, Compiler, Programmiersprache, API, Treiber, Betriebssystem



Microsoft = 1 SOC von Qualcomm (ok 2: 835; 8cx). Alles andere kontrolliert Microsoft auch.

Finch
2020-11-19, 15:03:10
Mein M1 Air kommt heute an. Ich freue mich schon auf die Akkulaufzeit. Zu dem Preis und der Performance/Laufzeit gibt es derzeit einfach keine Konkurrenz. (Wenn man mit MacOS leben kann,)

mironicus
2020-11-19, 16:20:20
Wieviel Leistung wohl die größeren Modelle haben werden, also ein Macbook Pro 16 Zoll? Dafür müßte Apple aber wohl gleich einen M2 präsentieren mit 16 Kernen, oder?

urpils
2020-11-19, 17:24:11
Wieviel Leistung wohl die größeren Modelle haben werden, also ein Macbook Pro 16 Zoll? Dafür müßte Apple aber wohl gleich einen M2 präsentieren mit 16 Kernen, oder?

wir können gerne würfeln oder Kaffeesatz lesen oder Sternbilder befragen ;)

nach der bisherigen Nomenklatur und dem Vorgehen von Apple ist folgendes wahrscheinlich:

innerhalb des kommenden Jahres erscheint er (oder mehrere) M1X(Y, Z) - die das aktuelle Design breiter aufstellen. also mehr Kerne für CPU/GPU - ansonsten aber keine größeren Änderungen bedeuten. Dies können dann in die Pros.

WIE effizient das ist hängt letztlich von Apple ab und ist schwer zu erahnen.

kommendes Jahr (nach iPhone) kann dann die neue Generation M2 erscheinen, die dann die neue A15-Kerne besitzt und analog zu M1(X,Y, Z) breiter ausgebaut wird.

sth
2020-11-19, 17:26:48
Wieviel Leistung wohl die größeren Modelle haben werden, also ein Macbook Pro 16 Zoll? Dafür müßte Apple aber wohl gleich einen M2 präsentieren mit 16 Kernen, oder?
Es wurde im Vorfeld gemunkelt, dass ein 12-Kern-Chip kommen würde (bevor die Details zum M1 bekannt waren), mit 4 low-power und 8 high-performance Cores. Der M1 hat ja dagegen nun das vom A12X/Z bekannte Layout (4/4). Daher gehe ich stark davon aus, dass es sich bei dem genannten 12-Kerner um den Chip für die größeren Modelle (wie z.B. MacBook Pro 16" und iMac) handelt, sofern die Gerüchte stimmen.

Da schon der M1 bei Multi-Threaded-Anwendungen sehr nah an das schnellste Intel MBP 16" rankommt (und je nach Benchmark sogar übertrifft; Single-Threaded sowieso) wäre die Performance eines solchen "M1X" sicher mehr als ordentlich.

Bzgl. Name: Ich rechne nicht mit M2, da Apple die Nummern i.d.R. für die jährlichen Iterationen und nicht für Performance-Abstufungen innerhalb einer Generation nutzt. M2 wird daher eher der direkte Nachfolger des M1 und keine Ausbaustufe drüber.

smalM
2020-11-19, 17:29:23
@mironicus
Der erwartete größere SoC wird zur selben Generation wie M1 gehören, weswegen ihn viele M1X nennen.
Die Gerüchteküche nennt 8 + 4 Cores und sie schweigt sich zur GPU fast völlig aus.

Welche Leistung darf man im MacBook Pro 16" erwarten?
Bei der CPU:
Schneller als ein Ryzen 7 5800X mit einem dicken Towerkühler drauf...
Bei der GPU?
Man darf wohl mehr als 8 Cores erwarten, aber sind es 12 oder 16, oder kommt eine richtig dicke GPU auf einem separaten Die und wir werden eine Multi-Chip-Lösung sehen? Wir haben nicht die geringste Ahnung, weil ja bisher nichts durchgesickert ist, außer dem Gerücht um die Existenz einer dGPU.

maximus_hertus
2020-11-19, 17:44:50
Wieviel Leistung wohl die größeren Modelle haben werden, also ein Macbook Pro 16 Zoll? Dafür müßte Apple aber wohl gleich einen M2 präsentieren mit 16 Kernen, oder?

Ich denke nicht, dass die Leistung der einzige Aspekt ist.

Die M1 Macbooks haben ja einige Limitierungen, die im gehobenen Segment wohl nicht "verkaufbar" sind:

- max 16GB RAM, bei einem Air sicherlich in Ordnung, aber bei einem 16" Pro zu wenig. Da sind 32GB (als Option) Pflicht, wahrscheinlich sogar 64GB

- nur 1 externer Bildschirm. Das mag für die meisten sicherlich reichen, aber im High End Bereich gibt es nicht so selten 2+ externe Bildschirme.


Ich hoffe ja, dass ein 14" Model mit schmalem Rahmen kommt und dieses dann 32GB RAM bietet. Das wäre ein Gerät, mit dem ich dann wieder für sehr viele Jahre Ruhe hätte. 16GB sind sicherlich für aktuell 95% + x der Fälle in Ordnung, aber ich will so ein Notebook gerne 5+ Jahre nutzen. Da könntne 16GB irgendwann ein limitierender Faktor werden, welche man leider nicht aufrüsten kann.


Gibt es eigentlich jemanden, der ein aktuelles M1 Gerät besitzt und inDesign getestet / benutzt hat? Gibt es da Infos zur Performance? (nicht für mich persöhnlich relevant, sondern für einen Freund)

Daredevil
2020-11-19, 17:49:03
Warum muss es denn ein M1 sein mit mehr Kernen und vor allem, wieso sollte sowas bald kommen?
Für das große MBP 13", 16" und alle anderen Kisten kann man auch bis zum M2 warten.

Dafür kann man jetzt in Ruhe schon mal die Transition vollziehen mit dem Fußvolk und wenn die Kisten noch mehr rennen als jetzt, haut mal halt einen noch schnelleren Prozzi raus.
Ich würde mir eher wünschen, sie würden den SC Speed weiter ausbauen, als das einfach nur "billig" in die Breite zu ziehen.

urpils
2020-11-19, 18:07:53
Warum muss es denn ein M1 sein mit mehr Kernen und vor allem, wieso sollte sowas bald kommen?
Für das große MBP 13", 16" und alle anderen Kisten kann man auch bis zum M2 warten.

Dafür kann man jetzt in Ruhe schon mal die Transition vollziehen mit dem Fußvolk und wenn die Kisten noch mehr rennen als jetzt, haut mal halt einen noch schnelleren Prozzi raus.
Ich würde mir eher wünschen, sie würden den SC Speed weiter ausbauen, als das einfach nur "billig" in die Breite zu ziehen.

breiter → weil das der Teil ist, der den größeren Geräten noch fehlt. SC hat man ja mehr oder weniger überall schon die Krone auf - nur MC und GPU fehlt es noch zum High-End.

Jetzt 1 Jahr lang nur Low-End Geräte verkaufen und dann mit einem M2 von Low-End bis High-End alles ohne Abstufung abzudecken erscheint mir nicht schlüssig.

mehr SC-Speed gibts nächstes Jahr mit A15, M2,... - selbst Apple kann nicht halbjährliche neue Core-Architekturen raushauen.

Loeschzwerg
2020-11-19, 18:17:08
Und für mehr GPU Leistung wird ja an einer eigenen dGPU (Lifuka) geschraubt.

Edit: Mac mini teardown mit Bildern zum M1 -> https://egpu.io/forums/desktop-computing/teardown-late-2020-mac-mini-apple-silicon-m1-thunderbolt-4-usb4-pcie-4/

Platos
2020-11-19, 18:28:11
Ist doch eig. ausgeschlossen, dass man bei den 16 Zöller den selben SoC verwendet, wie beim Macbook Air. Man vergleicht einfach mal die Kernanzahl vorher. Bei den 16 Zöller gabs 6- und 8-Kerner, bei den kleineren Laptops "nur" 4.

Man wird im Multicore keinen 8-Kerner schlagen können. Ergo wird es mit Sicherheit mehrere SoCs geben (und mindestens noch einen Dritten dann für die iMac Pros im Jahr 2022).

Die Frage ist nur, ob es schon in dieser Generation 2 SoCs geben wird, oder ob es vorerst mal beim M1 bleibt für diese Generation.

Ich frage mich, ob in 2022 die SoCs für die iMac Pros auf der neuesten Fertigung gefertigt werden (also dann 3nm) oder ob man auf irgendwas dazwischen setzt. Denn im Gegensatz zu irgendwelchen kleineren SoCs wird ein grosser SoC (wie es ihn für einen iMac Pro bräuchte) sicherlich sehr teuer werden, weil die Ausbeute sehr schlecht sein würde, bei sehr neuen Prozessen, wie sie Apple ja immer nutzt.

Nimmt das also Apple in kauf und lässt sich dann die iMac Pros (noch mehr:D) vergolden, oder setzt Apple dann bei den grossen Modellen nicht auf die jeweils neueste Fertigung ?

Ich frage mich auch, was Apple macht, um mit AMDs Grafikkarten mitzuhalten, die ja bisher angeboten wurden.

sth
2020-11-19, 18:54:54
Warum muss es denn ein M1 sein mit mehr Kernen und vor allem, wieso sollte sowas bald kommen?
Für das große MBP 13", 16" und alle anderen Kisten kann man auch bis zum M2 warten.
Also "müssen" tun sie ja erstmal gar nichts, aber was Apple gerade gemacht hat, ist erstmal ausschließlich ihre absoluten Low-End-Modelle und -Konfigurationen zu ersetzen. Die teureren Konfigurationen sind dagegen noch als Intel-Varianten im Programm.

Nehmen wir das Macbook Pro 13": Die Intel-Variante hat zwar 4 Thunderbolt-Ports, kann mehr Monitore ansteuern, und ist mit mehr RAM erhältlich - nur sind diese teuren Modelle in praktisch jedem Benchmark (egal ob CPU oder GPU) dem billigeren Einstiegsmodell deutlich unterlegen. Dazu haben sie eine erheblich kürzere Akkulaufzeit und werden spürbar wärmer im Betrieb, bei gleichzeitig lauterer Kühlung.

Ich gehe nicht davon aus, dass Apple diesen Zustand länger belässt als nötig. Zumal der M1 in Sachen Grafik für z.B. einen 5K iMac oder ein High-End Macbook schon etwas schwachbrüstig ist. Das wird sich auch mit einem direkten Nachfolger nicht ändern. Da muss schon eine separate Ausbaustufe her, sonst ergibt das wenig Sinn.

Meine Vermutung wäre, dass eine größere Ausbaustufe des Chips entweder nächstes Frühjahr oder zur WWDC kommt. Mit einer Variante wie der gemunkelten 4+8-Konfiguration (+ hoffentlich mindestens verdoppelter GPU) könnte man ohne Probleme den Rest des Notebook-Portfolios, wie auch das Mid-Range-Segment bei den Desktops abdecken.

Denkbar wären zudem Salvage-Versionen (wie ja auch schon beim Air der Fall) für z.B. die Einstiegs-iMacs.

Sollte es wirklich noch ein ganzes Jahr dauern, dann könnte ich mir das allenfalls mit technischen Gründen erklären, wie z.B. zu schlechter Ausbeute bei den größeren Chips. Vom Produktportfolio her macht der aktuelle Stand auf so lange Zeit jedenfalls keinen Sinn, weder aus Kundensicht ("das teurere Modell ist bis auf ein paar Ausstattungspunkte deutlich schlechter") als auch wirtschaftlich (Apple drängt die Kunden quasi dazu, die günstigeren Varianten zu kaufen).

Mit dem absoluten High-End Desktop-Segment rechne ich dagegen erst gegen Ende der angekündigten 2-jährigen Übergangszeit, also 2022. Und auch sicherlich dann auf Basis der 2. oder gar 3. Chip-Generation. Da braucht's noch etwas mehr als "nur" einen aufgeblasenen M1 oder M2. Vielleicht nicht unbedingt in Sachen purer CPU-Rechenleistung, aber in allem anderen.

fondness
2020-11-19, 19:15:03
Apple M1 tritt im neuen Cinebench R23 gegen Intel und AMD an
https://www.pcgameshardware.de/Apple-Mac-Book-Hardware-255602/News/Apple-M1-im-Benchmark-vs-AMD-Ryzen-und-Intel-Core-1362013/

Wie erwartet, ganz nett aber mehr auch nicht. Wenn man noch berücksichtigt, dass Renoir eine wesentlich stärkere GPU hat und das trotz alter Vega Grafik ist auch die TDP kaum der Rede Wert, noch dazu bei 5nm Prozess. Aber davon - wie hier einige Apple Anhänger getan haben - dass x86 obsolet wird sind wir weit entfernt.

Blediator16
2020-11-19, 19:22:24
Und ich dachte alle PC Gamer werden nächstes Jahr zu den Macs wechseln :confused:

Daredevil
2020-11-19, 19:25:09
Wenn man noch berücksichtigt, dass Renoir eine wesentlich stärkere GPU hat
Woran misst du das?

Matrix316
2020-11-19, 19:36:41
VVtQfsXLnSA

smalM
2020-11-19, 19:37:11
Meine Vermutung wäre, dass eine größere Ausbaustufe des Chips entweder nächstes Frühjahr oder zur WWDC kommt. Mit einer Variante wie der gemunkelten 4+8-Konfiguration (+ hoffentlich mindestens verdoppelter GPU) könnte man ohne Probleme den Rest des Notebook-Portfolios, wie auch das Mid-Range-Segment bei den Desktops abdecken.
Ich denke auch, daß das von der Marktabdeckung her den meisten Sinn ergibt und tippe auf eine Verfügbarkeit bereits im Frühjahr, um das Portfolio so schnell wie möglich wieder gerade zu rücken.
Und ich tippe darauf, daß dann, abgesehen von Mac Pro und iMac Pro, nur noch die Intel-Modelle mit acht Cores oder mehr sowie Navi 10 existieren werden.

Fusion_Power
2020-11-19, 21:16:19
Und ich dachte alle PC Gamer werden nächstes Jahr zu den Macs wechseln :confused:
ANGEBLICH soll die GPU im M1 ja oberhalb einer Nvidia GTX 1050Ti angesiedelt sein. Nun, in meinem PC ist eine GTX 1050Ti verbaut und die genehmigt sich auch schon bis zu 75W. Wie man so eine Grafikleistung in einem kleinen 10W "Mobil"SoC freisetzen will, erschließt sich mir nicht ganz aber ich lass mich da gern überraschen. Ne Sensation wärs schon. ich kann Immerhin mit meiner GraKa Overwatch bei mittleren bis hohen Details in Full HD mit 120FPS zocken.
Das wären für den M1 sicher respektable Werte, sollte er sie erreichen (Abgesehen davon, dass Overwatch nicht auf Macs läuft).

Nen Handheld mit M1 könnte ich mir auch gut vorstellen, sofern man den SoC da noch gescheit gekühlt bekommt. Apple goes Nintendo Switch. :D

Daredevil
2020-11-19, 21:38:27
Hier ein wenig Indie Game zeug :)
Steam selbst ruckelt im Menu, das Spiel funktioniert aber ganz gut in 900p Max Settings.
Mit Sound habe ich es direkt verkackt, weiß noch nicht, wie man den bei der Bildschirmaufnahme aktiviert.
IKMx5PmblC4

Felixxz2
2020-11-19, 22:00:24
Der große Chip kommt mit Sicherheit im Frühjahr im neuen 16“. Apple wird auf keinen Fall lange warten, um das Momentum nicht zu verspielen. Da kommt jetzt alle paar Monate ein Device.

Ailuros
2020-11-19, 22:40:26
Woran misst du das?

512SPs@1.8GHz Renoir > 1024SPs@1.28GHz :freak:

Die Realitaet sieht eher so aus:

https://gfxbench.com/result.jsp?benchmark=gfx50&test=759&order=median&text-filter=Apple&base=device

Ich weiss zwar nicht was Apple genau in die M1 GPU gesteckt hat, aber um fair zu sein will ich ernsthaft bezweifeln dass sie ueber DX10 liegt.

Daredevil
2020-11-20, 00:48:19
Ich hab mal ein wenig Diablo3 gezockt UND gleichzeitig per Streamlabs aufgenommen. :)
10000kbit x264 und Diablo Mid-High in 900p.

H9o2ebOat3w

Externe Quellen bzw. das reine Aufnehmen des Bildes geht laut den ersten Tests bis x264 Medium gut, ohne das Frames verloren gehen.
Hier spielt ja noch mit rein, das CPU und GPU belastet werden ( und da hört man den Lüfter auch endlich mal )

PS: Ton aufnehmen ist in MacOS anscheinend nicht drin? Deswegen ist das Video einfach Ton, der aus den Lautsprechern kommt und direkt wieder vom Mikro aufgenommen wird. :D

PPS: Beides ist soweit ich weiß nicht nativ ARM, sondern da zaubert Rosetta2

Daredevil
2020-11-20, 01:21:08
Und hier nochmal WoW nachgeschoben in 900p @ Qualitätstufe 7
Aufgenommen dieses mal per macOS, hier ist die Qualität deutlich besser und es belastet quasi gar nicht den Rechner. ( Das ist dann wohl x265 HEVC? )

LBTudfDHxhM

Wenn jemand Lust hat können wir ja auch mal irgendwie Orte vergleichen in WoW/Diablo, gerne jemand mit einem Renoir oder APU.
Wäre ja echt mal interessant, wo die Gaming Leistung am Ende raus kommt.

Ich bin erstmal schwer begeistert von dem Ding, mehrere Stunden mobil WoW zocken ist ja ein Traum. :D
Allerdings ist dafür die Touch Bar natürlich... mehr, ich habe sonst immer viele tasten auf die F Tasten gelegt.

Morgen werfe ich mal das Elgato Capture Ding an und schau mal, wie die Quali ist, wenn sich das MacBook als mobiler Streaming Rechner macht. :)

Edit:
Den Corona Bench gibts auch unter MacOS, habe mir mal ein Ergebnis aus dem Bench Thread geholt:
25w sollten es hier sein
https://i.postimg.cc/k4PHLrmB/2.png

https://abload.de/img/bildschirmfoto2020-114dji8.png
Verglichen zu meinem alten XEON@4.6Ghz@220w
Corona 1.3 Benchmark Finished
BTR Scene 16 passes
Intel(R) Xeon(R) CPU X5670 @ 2.93GHz
Real CPU Frequency [GHz]: 4,6Ghz
Render Time: 0:03:17, Rays/sec: 2.459.680<

PS: Emuliert

Felixxz2
2020-11-20, 09:49:06
https://egpu.io/teardown-late-2020-mac-mini-apple-silicon-m1-thunderbolt-4-usb4-pcie-4/

Mac Mini Teardown

Monsta
2020-11-20, 10:01:59
Nachdem ich ein paar Reviews gesehen habe bin ich echt erstaunt wie Leistungsfähig der M1 ist.

Ich habe mir ein Mbp mit 16Gb unb 512 SSD bestellt.

Die 8Gb Varianten sind ja gut verfügbar, ich habe aber Sorge das das evtl. zu wenig ist.

So muss ich leider etwas warten bis ich es in den Händen halten kann :)

Argo Zero
2020-11-20, 10:26:04
2020 würde ich auch die 16GB Variante empfehlen. Das zahlt sich im long run aus.

Gauß
2020-11-20, 10:35:26
Die bisherigen Leistungsvergleiche sind schon sehr stuemperhaft.

Oft wird ueber Betriebssystem hinweg verglichen, obwohl diese oft erheblich unterschiedliche Ergebnisse liefern.
Miserable "Benchmarks" wie Geekbench spucken ~20% abweichende Ergebnisse zwischen Windows und MacOS aus.
Dinge wie GFXBench sind fuer Smartphones ausgelegt und werden fast ausschliesslich vom Rasterisierer limitiert.

Alte Apple-Schlepptops oder Dosen/Kaesereiber mit CPU's aus dem letzten Jahrhundert sind weniger als kaum das Mass aller Dinge.

----

Was in keinem mir bekannten Bericht bisher erwaehnt wurde ist dass Apple im nativen Code fuer den M1 im Gegensatz zu x64 ein schwaches Speichermodell (weak memory order) verwendet. Das wird mit Sicherheit zu erheblichen Problemen bei der Portierung und selbst bei der voelligen Neuentwicklung von Anwendungen fuehren, welche Multithreading effektiv ausnutzen.

Somit hat Apple sich einen signifikanten Teil der Leistung des M1 mit einer sehr fragwuerdigen Entscheidung ermoeglicht.

hiDDen
2020-11-20, 11:09:22
@Gauß: Für normale Anwender sind die Tests eben exakt das, was von Relevanz ist. Ganz davon abgesehen, dass die Ergebnisse wirklich abartig gut sind und man noch Jahre von diesem Sprung in Performance reden werden wird.

=Floi=
2020-11-20, 11:11:49
Nur der verbaute ram wird immer ein kritikpunkt bleiben.

Felixxz2
2020-11-20, 11:21:34
Selbst wenn der Performancesprung über Softwareoptimierung erreicht wurde (was so sicherlich nicht stimmt), ist das für den Enduser doch egal und ja grade einer der Vorteile die Apple mit der hohen Integration ausspielen kann.

Gauß
2020-11-20, 11:29:27
@Gauß: Für normale Anwender sind die Tests eben exakt das, was von Relevanz ist. Ganz davon abgesehen, dass die Ergebnisse wirklich abartig gut sind und man noch Jahre von diesem Sprung in Performance reden werden wird.Wieso liest du nicht den Inhalt von dem was ich sagte?
Neben den genannten Problemen hat der M1 zudem einen enormen Vorteil dank der 5 nm-Herstellung.

Selbst wenn der Performancesprung über Softwareoptimierung erreicht wurde (was so sicherlich nicht stimmt), ist das für den Enduser doch egal und ja grade einer der Vorteile die Apple mit der hohen Integration ausspielen kann.Das hat nichts mit "Softwareoptimierung" zu tun, sondern ist eine klar nachteilhafte Eigenschaft der Verarbeitung.
Dass leistungskritische Anwendungssoftware mit Multithreading entweder instabiler oder deutlich weniger leistungsfaehig ist, soll fuer den Anwender egal sein?

Rinas
2020-11-20, 11:44:33
iFixit Teardown:
https://www.ifixit.com/News/46884/m1-macbook-teardowns-something-old-something-new

Erste Puget Bench gegen Desktop: :( :)
https://www.pugetsystems.com/labs/articles/Apple-M1-MacBook-vs-PC-Desktop-Workstation-for-Adobe-Creative-Cloud-1975/

Monsta
2020-11-20, 11:53:11
Die bisherigen Leistungsvergleiche sind schon sehr stuemperhaft.

Oft wird ueber Betriebssystem hinweg verglichen, obwohl diese oft erheblich unterschiedliche Ergebnisse liefern.
Miserable "Benchmarks" wie Geekbench spucken ~20% abweichende Ergebnisse zwischen Windows und MacOS aus.
Dinge wie GFXBench sind fuer Smartphones ausgelegt und werden fast ausschliesslich vom Rasterisierer limitiert.

Alte Apple-Schlepptops oder Dosen/Kaesereiber mit CPU's aus dem letzten Jahrhundert sind weniger als kaum das Mass aller Dinge.

----

Was in keinem mir bekannten Bericht bisher erwaehnt wurde ist dass Apple im nativen Code fuer den M1 im Gegensatz zu x64 ein schwaches Speichermodell (weak memory order) verwendet. Das wird mit Sicherheit zu erheblichen Problemen bei der Portierung und selbst bei der voelligen Neuentwicklung von Anwendungen fuehren, welche Multithreading effektiv ausnutzen.

Somit hat Apple sich einen signifikanten Teil der Leistung des M1 mit einer sehr fragwuerdigen Entscheidung ermoeglicht.



Das Webkit in 20min übersetzen ist sack schnell.

https://www.macrumors.com/2020/11/17/apple-silicon-m1-compiles-code-as-fast-as-mac-pro/

Die Vergleichsgeräte sind nicht aus dem letzten Jahundert. Vor allen Dingen da Intel in den letzten Jahren nicht so viel verbessert hat. Ist es auch fast egal ob das Gerät 1 oder 3 Jahre alt ist.

hiDDen
2020-11-20, 11:53:31
Wieso liest du nicht den Inhalt von dem was ich sagte?

Habe ich durchaus gelesen. Ich wollte dir mit dem, was ich schrieb, einen Perspektivenwechsel vorschlagen. Ansonsten hätte ich dein Post nur zerreißen können, sorry.

Das hat nichts mit "Softwareoptimierung" zu tun, sondern ist eine klar nachteilhafte Eigenschaft der Verarbeitung.
Dass leistungskritische Anwendungssoftware mit Multithreading entweder instabiler oder deutlich weniger leistungsfaehig ist, soll fuer den Anwender egal sein?

Sorry aber du schreibst wirklich einen Quatsch. Die Behauptung, dass durch Apple's Emulation zwangsläufig die Software instabiler läuft ist ... wie soll ich mich ausdrücken ... eine "Erkenntnis", die wohl nur sehr wenige haben werden. Apple hätte dich echt vorher fragen sollen! Ach und die emulierte Software läuft oft schneller als auf den Vorgängergeräten mit Intel. Schau mal ein paar Reviews, bevor du schreibst.

Savay
2020-11-20, 12:03:59
@Gauß: Für normale Anwender sind die Tests eben exakt das, was von Relevanz ist.

Welche praktische Relveanz hat ein Geekbench denn bitte? Der ist ja noch absurder als 3DMark.

Für ein SFF Chip im Sub 15W Segment ist der M1 recht flott...vor allem die GPU weiß noch eher zu gefallen als die CPU...aber der alles verändernde Überchip zu dem er stellenweise hochstilisiert wird ist er am Ende auch nicht. Von wegen "Desktop" Performance und so.



Wenn jemand Lust hat können wir ja auch mal irgendwie Orte vergleichen in WoW/Diablo, gerne jemand mit einem Renoir oder APU.

Hab nen 13" HP x360 mit dem 15W 4500U und DDR4-3200...ist aber halt auch nur ne Vega6 aktiv die durchaus unter voller Auslastung (unter DxO) etwas an der TDP verhungert und die CPU ist sowieso nur 6/6 von den möglichen 8/16. :wink:
Wir können uns da gern mal abstimmen, wobei ein Gerät mit nem 4800U wohl zielführender wäre.

Ich tippe mal die GPU der M1 ist da am Ende ca. doppelt so schnell, zumal sie ja neben den deutlich breiteren Design auch mehr Bandbreite zur Verfügung hat.

Matrix316
2020-11-20, 12:10:30
bdQ7u0mR570

Gauß
2020-11-20, 12:10:55
Das Webkit in 20min übersetzen ist sack schnell.

https://www.macrumors.com/2020/11/17/apple-silicon-m1-compiles-code-as-fast-as-mac-pro/Das hat absolut nichts mit dem zu tun wovon ich spreche (weak memory ordering).

Die Vergleichsgeräte sind nicht aus dem letzten Jahundert. Vor allen Dingen da Intel in den letzten Jahren nicht so viel verbessert hat. Ist es auch fast egal ob das Gerät 1 oder 3 Jahre alt ist."fast egal" ist dann auch der M1.

Habe ich durchaus gelesen. Ich wollte dir mit dem, was ich schrieb, einen Perspektivenwechsel vorschlagen. Ansonsten hätte ich dein Post nur zerreißen können, sorry.Einfach das Gegenteil zu behaupten, ohne Argumente zu bringen, ist nicht sonderlich sportlich.

Sorry aber du schreibst wirklich einen Quatsch. Die Behauptung, dass durch Apple's Emulation zwangsläufig die Software instabiler läuft ist ... wie soll ich mich ausdrücken ... eine "Erkenntnis", die wohl nur sehr wenige haben werden. Apple hätte dich echt vorher fragen sollen! Ach und die emulierte Software läuft oft schneller als auf den Vorgängergeräten mit Intel. Schau mal ein paar Reviews, bevor du schreibst.Du hast absolut nichts verstanden von dem was ich sagte.

Rosetta 2 verwendet ein striktes Speichermodell.
Nativer Code auf dem M1 verwendet ein schwaches Speichermodell (weak memory ordering), welches nicht nur eine Entwicklung von stabilen Multithreading, sondern auch eine effektive Nebenlaeufigkeit - und somit Leistungsfaehigkeit erheblich erschwert.

Monsta
2020-11-20, 12:27:02
Du hast Doch geschrieben das Leistungsvergleiche stümperhaft da verschiede Plattformen/Programme und und Uralte Cpus als Vergleich genommen wurden.


Ein Compile Benchmark ist alles andere als stümperhaft. Ist super reproduzierbar auch auf anderen Platformen. Und eine Anwendung die ein Entwickler ständig machen muss.

Und so alt sind die getesteten Cpus nicht.

Mein 8600K unter Wasser mit Gentoo Linux braucht 17min für webkit-gtk-2.284.
Braucht dabei X-Fache an Strom.
Da finde ich die 20min extrem gut für ein mobiles Gerät das nur 9% Akku dabei verliert.

Kein Plan was "weak memory order" ist. Hast Du mal nen Link?

Gohan
2020-11-20, 12:32:26
Rosetta 2 verwendet ein striktes Speichermodell.
Nativer Code auf dem M1 verwendet ein schwaches Speichermodell (weak memory ordering), welches nicht nur eine Entwicklung von stabilen Multithreading, sondern auch eine effektive Nebenlaeufigkeit - und somit Leistungsfaehigkeit erheblich erschwert.

Dann erklär mal, warum Cinebench emuliert und nativ trotzdem so schnell läuft. Der ist doch maximal parallelisiert.

Gauß
2020-11-20, 12:41:26
Ein Compile Benchmark ist alles andere als stümperhaft. Ist super reproduzierbar auch auf anderen Platformen. Und eine Anwendung die ein Entwickler ständig machen muss.

Und so alt sind die getesteten Cpus nicht.

Mein 8600K unter Wasser mit Gentoo Linux braucht 17min für webkit-gtk-2.284.
Braucht dabei X-Fache an Strom.
Da finde ich die 20min extrem gut für ein mobiles Gerät das nur 9% Akku dabei verliert.Es ist schon sehr ulkig dass man darauf hinweisen muss dass da mit zwei voellig unterschiedlichen Compilern verglichen wird.

Kein Plan was "weak memory order" ist. Hast Du mal nen Link?Es ist eine Auslegung der Prozessor-Architektur, die besagt dass Ergebnisse von Operationen auf unterschiedlichen Threads ohne Barrieren nicht zwingend entsprechend der Code-Sequenz verarbeitet werden, selbst wenn Konflikte vorliegen.
Bei x64 passiert dies quasi immer geordnet (strong memory ordering) wenn Konflikte bei einer OOO-Verarbeitung moeglich sind.

Auf www.Google.com werden auf Basis der Eingabe von Suchwoertern automatisch Verweise aufgelistet.


Dann erklär mal, warum Cinebench emuliert und nativ trotzdem so schnell läuft. Der ist doch maximal parallelisiert.Zum einen verwendet Cinebench triviales Multithreading mittels grosser Buendel und zum anderen wird M1 auf mehreren Kernen eben sehr deutlich von x64 abgehaengt, besonders wenn man keine Renderfarm in einem Café betreiben will, aber selbst auch dann.

Windi
2020-11-20, 12:59:48
Zum einen verwendet Cinebench triviales Multithreading mittels grosser Buendel und zum anderen wird M1 auf mehreren Kernen eben sehr deutlich von x64 abgehaengt, besonders wenn man keine Renderfarm in einem Café betreiben will, aber selbst auch dann.

Dir ist schon klar, das der M1 nur der ultra Mobilprozessor ist?

Da werden noch andere Modelle mit mehr Kernen und höheren Taktraten kommen. Wie gut die sein werden, wissen wir halt noch nicht. Aber das ist kein Argument für x86 vs. ARM.

Gauß
2020-11-20, 13:08:47
Dir ist schon klar, das der M1 nur der ultra Mobilprozessor ist?

Da werden noch andere Modelle mit mehr Kernen und höheren Taktraten kommen. Wie gut die sein werden, wissen wir halt noch nicht. Aber das ist kein Argument für x86 vs. ARM.Ein 15 Watt-Zen2 aus der 7 nm-Herstellung ist 20% schneller im Cinebench23 MultiCore als ein M1 aus der 5 nm-Herstellung. Mit Zen3 sind es dann schon 40% und dann kommt auch noch bald die 5 nm-Herstellung.

Auch aufgrund der extrem breiten Auslegung der M1-Architektur werden die Taktrate kaum erhoeht werden koennen. Selbst ein einzelner x64-Kern einer Desktop-CPU ist kaum schneller als sein Pendant im Notebook.

smalM
2020-11-20, 13:37:32
Es ist schon sehr ulkig dass man darauf hinweisen muss dass da mit zwei voellig unterschiedlichen Compilern verglichen wird.
Es ist schon ulkig, daß Du einerseits dieses Argument bringst und dann andererseits bei R23 so tust, als wäre das auf beiden Plattformen identisch.

R23 lastet aber den M1 nicht gerade stark aus, die kleinen Cores erbringen sogar ⅓ der MT-Leistung statt des zu erwartenden ⅕.
Für ein Erstlingswerk hat Maxon unbestritten ganz ordentliche Arbeit abgeliefert, aber vom Optimierungsgrad des x86-Codes sind sie noch recht weit weg.

Gauß
2020-11-20, 13:47:12
Es ist schon ulkig, daß Du einerseits dieses Argument bringst und dann andererseits bei R23 so tust, als wäre das auf beiden Plattformen identisch.Bei dem Cinebench ist die Differenz zwischen Betriebssystemen marginal.
Zwei voellig andere Dinge miteinander zu vergleichen ist wohl kaum dem gleichzusetzen.

R23 lastet aber den M1 nicht gerade stark aus, die kleinen Cores erbringen sogar ⅓ der MT-Leistung statt des zu erwartenden ⅕.?? Selbstverstaendlich wird die CPU komplett ausgelastet. Wie kommst du auf so etwas?

Für ein Erstlingswerk hat Maxon unbestritten ganz ordentliche Arbeit abgeliefert, aber vom Optimierungsgrad des x86-Codes sind sie noch recht weit weg.Auf Basis welcher Informationen behauptest du dass sie diesen neuen Benchmark fuer x64 mehr optimiert haben als auf dem M1, dessen DTK bereits vor einem halben Jahr ausgeliefert wurde?

Daredevil
2020-11-20, 13:55:50
Zudem verbraucht ein Zen2 Allgemein deutlich mehr Energie und ist einfach nur ein "dummer" Prozessor, ohne ML Fähigkeiten, dedizierte Bildprozessoren, Security Chips, Fixed Function für Video, integriertem DRAM bei gleichzeitig hohem Idle Verbrauch und... ehm... Windows Zwang.

Wäre der M1 noch dicker und so schnell wie ein TR, heißt es dann "Naja unbeeindruckt, schafft nicht mal einen Threadripper"? :D
Ich verstehe nicht ganz, wie man Renoir feiern kann, den M1 aber nun als "Naja, geht so" abstempelt.
Das sind doch beides Chips, die man für die gleichen Eigenschaften zurecht feiern kann, riesige Leistung, wenig Verbrauch.

Dino-Fossil
2020-11-20, 14:14:35
Ich verstehe nicht ganz, wie man Renoir feiern kann, den M1 aber nun als "Naja, geht so" abstempelt.
Das sind doch beides Chips, die man für die gleichen Eigenschaften zurecht feiern kann, riesige Leistung, wenig Verbrauch.

Ne, der M1 ist schon eine beeindruckende technische Leistung, keine Frage.

Schade ist nur, dass er im geschlossenen Apple-Ökosystem ist. Mit x86 und einigen anderen ARM-Chips sind immerhin neben Windows auch Linux und ein paar andere möglich.
Aber eine mögliche Folge wäre, dass es in Zukunft verstärkt Bemühungen gibt, ARM (oder meinetwegen auch anderes wie RISCV) verstärkt in Richtung Desktop zu drücken. Das es prinzipiell geht, sieht man ja nun.
Könnten wir nur profitieren.

Monsta
2020-11-20, 14:15:20
Ein Renoir 4800u Notebook zieht unter Vollast über 50 Watt aus der Dose.
Ich glaube die 15Watt Cpu werden da gesprengt.
Und die Gpu ist vielleicht halb so schnell als im M1.

Zum M1 habe ich nix gefunden, werde das aber selber tesetn.

Gauß
2020-11-20, 14:17:37
Zudem verbraucht ein Zen2 Allgemein deutlich mehr EnergieEin Mac Mini (welcher 20% langsamer ist als ein alter 15-Watt Zen2) verbraucht im Cinebench 31 Watt.

und ist einfach nur ein "dummer" Prozessor, ohne ML Fähigkeiten, dedizierte Bildprozessoren, Security Chips, Fixed Function für Video, integriertem DRAM bei gleichzeitigViel Spass damit wenn dir diese Dinge wichtiger sind als die Zahlen von leistungskritischen Anwendungen und dem genannten erheblichen Problemen des weak memory models.

hohem Idle Verbrauch1 Watt Verbrauch sind wirklich schrecklich.

und... ehm... Windows Zwang.Was fuer eine Ironie diese Unwahrheit zu behaupten waehrend man den M1 nur mit MacOS betreiben darf.

Wäre der M1 noch dicker und so schnell wie ein TR, heißt es dann "Naja unbeeindruckt, schafft nicht mal einen Threadripper"? :DMeinst du nicht dass du den Strohmann all zu sehr knuddelst?

Ich verstehe nicht ganz, wie man Renoir feiern kann, den M1 aber nun als "Naja, geht so" abstempelt.
Das sind doch beides Chips, die man für die gleichen Eigenschaften zurecht feiern kann, riesige Leistung, wenig Verbrauch.Deine emotionale Beurteilung meiner Gegenueberstellung von Leistungsdaten ist sehr seltsam.

Was man einmal feststellen sollte ist dass Apple's Behauptung eines "Weltschnellsten CPU-Kern's" schlicht gelogen ist.

Dino-Fossil
2020-11-20, 14:20:08
Ein Renoir 4800u Notebook zieht unter Vollast über 50 Watt aus der Dose.
Ich glaube die 15Watt Cpu werden da gesprengt.

Der kann auch mit 25W konfiguriert werden, das hängt stark davon ab, was der jeweilige Hersteller da eingestellt hat (gerade unter Netzbetrieb wird oft mehr erlaubt). Und die gesamte Peripherie (SSD, Bildschirm, Board, etc.) ist auch nicht umsonst.
Auch ein Apple-Gerät wird sicher mehr als 15W aus der Dose ziehen.

smalM
2020-11-20, 14:22:14
Zum M1 habe ich nix gefunden, werde das aber selber tesetn.

https://twitter.com/andreif7/status/1328777333512278020

Daredevil
2020-11-20, 14:26:32
Ein Mac Mini (welcher 20% langsamer ist als ein alter 15-Watt Zen2) verbraucht im Cinebench 31 Watt.

Woher hast du das?

Gauß
2020-11-20, 14:28:37
Woher hast du das?Aus dem schlechten Artikel von Anandtech (https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested).

dildo4u
2020-11-20, 14:51:24
Laut dem sinds 13 Watt im Macbook Pro.

https://youtu.be/VXgLBa5jgr8?t=615

Daredevil
2020-11-20, 15:16:26
Aus dem schlechten Artikel von Anandtech (https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested).
Und den hast du dir auch durchgelesen?
In multi-threaded scenarios, power highly depends on the workload. In memory-heavy workloads where the CPU utilisation isn’t as high, we’re seeing 18W active power, going up to around 22W in average workloads, and peaking around 27W in compute heavy workloads. These figures are generally what you’d like to compare to “TDPs” of other platforms, although again to get an apples-to-apples comparison you’d need to further subtract some of the overhead as measured on the Mac mini here – my best guess would be a 20 to 24W range.

Aber auch hier, wieso vergleichst du nicht zwei Notebooks? Oder Sollnwa jetzt auch nen Asrock Barebone daneben stellen? Sind doch zwei völlig andere Konzepte.

Gauß
2020-11-20, 15:54:35
Und den hast du dir auch durchgelesen?Weshalb tust du so als ob ich etwas gegenteiliges behauptet haette?!
Dein Zitat hat nichts damit zu tun dass der Mac Mini 31 Watt verbraucht und 20% langsamer ist als eine alte 15 Watt Zen-2 CPU (30-40 W Gesamtverbrauch der Notebooks).

Aber auch hier, wieso vergleichst du nicht zwei Notebooks? Oder Sollnwa jetzt auch nen Asrock Barebone daneben stellen? Sind doch zwei völlig andere Konzepte.Dass der Mac Mini ein Barebone ist sollte doch wohl ein Vorteil im Leistungsvergleich gegen ein 4700U-Notebook sein!

Laut dem sinds 13 Watt im Macbook Pro.

https://youtu.be/VXgLBa5jgr8?t=615Die Angaben von Powermetrics zum Gesamtverbrauch erachte ich eher als unsicher.

fondness
2020-11-20, 16:21:30
Ein Renoir 4800u Notebook zieht unter Vollast über 50 Watt aus der Dose.
Ich glaube die 15Watt Cpu werden da gesprengt.
Und die Gpu ist vielleicht halb so schnell als im M1.

Zum M1 habe ich nix gefunden, werde das aber selber tesetn.

Yeah jetzt gehen wieder die alternativen Fakten der Apple-Jungs los. Hach war das schön, als Apple normale x86 Chips verwendet hat. Das erinnert mich an die IBM-Chips, denen wurden ja auch Wunderdinge nachgesagt, bis Apple auf x86 Umgestiegen ist mit dem Argument IBM sei nicht konkurrenzfähig.

Monsta
2020-11-20, 18:21:31
Yeah jetzt gehen wieder die alternativen Fakten der Apple-Jungs los. Hach war das schön, als Apple normale x86 Chips verwendet hat. Das erinnert mich an die IBM-Chips, denen wurden ja auch Wunderdinge nachgesagt, bis Apple auf x86 Umgestiegen ist mit dem Argument IBM sei nicht konkurrenzfähig.

Achso und was ist dann das?

https://www.notebookcheck.com/Der-Ryzen-7-4800U-ist-ein-absolutes-Monster-Das-Lenovo-Yoga-Slim-7-14-im-Laptop-Test.490100.0.html


Prime95 initiiert bei 10s. Der Verbrauch steigt für einige Sekunden auf 57,5 W, bevor er nur geringfügig auf 52 W und 50 W fällt.
Beim 3d Mark sind es auch ca. 50 Watt.


Der 60 Wattstunden Akku hält 1:20 bei Last und voller Helligkeit. Da ist ja wohl klar das das Gerät ein bisschen mehr als die 15 Watt in der Cpu verballert. Wo soll der Strom sonst verbraucht werden?

hiDDen
2020-11-20, 18:26:49
So, ich habe heute ebenfalls das neue MBA bekommen und damit rumgespielt. Altes “Horror-Szenario” mit meinem alten MBP Mid 2014 mit Core i7 4770HQ (Haswell) war schon MS Teams-Meeting + Kollaboration in Miro (plus diverser Kleinkram im Background). Mit dem MBA grundsätzlich kein Problem, wenngleich nur bedingt vergleichbar, da weniger Content in Miro (Fake-Board) und weniger los in der Besprechung ;). Just for fun deshalb einfach viele Video-Calls in diversen Programme gestartet (alles parallel: Skype (nur ich), Facetime (richtiger Call und mit Effekten), Zoom (nur ich) und eben MS Teams (nur ich) + Aufzeichnung eines Photo Booth Videos mit Effekten) und nebenher ein größeres Projekt in Xcode kompiliert und Spotify laufen lassen + YouTube Video in Safari. Das System hat nicht ein einziges mal aufgemuckt. Alles läuft butterweich und das Gerät wird lauwarm (>1h laufen lassen das meiste). Mal schauen aber aktuell sehe ich nicht, dass ich das Teil mit den für mich relevanten Use-Cases demnächst irgendwie auslasten könnte.

hiDDen
2020-11-20, 18:31:19
Welche praktische Relveanz hat ein Geekbench denn bitte? Der ist ja noch absurder als 3DMark.

Warum pickst du dir denn da gezielt Geekbench raus? :confused: Es gibt doch zig Videos, wo verschiedenste Bildbearbeitungsprogramme, Spiele, generelle UI-Reaktionsfreude, Logic-Pro und was weiß ich nicht noch alles benutzt wird.

Daredevil
2020-11-20, 19:47:17
Noch mal was von der Gaming Front, da mein USB-C Hub heute ankam.
Auf dem OLED@120hz kann ich WoW spielen in 1440p@120fps fix bei Quali Stufe drei.
Was allerdings richtig krass reinhaut sind die Schatten Details, das war bei Diablo auch schon der Fall, änder ich die von Niedrig auf Mittel, bricht die Framerate um die Hälfte ein.

Gauß
2020-11-20, 21:37:45
Warum pickst du dir denn da gezielt Geekbench raus? :confused: Es gibt doch zig Videos, wo verschiedenste Bildbearbeitungsprogramme, Spiele, generelle UI-Reaktionsfreude, Logic-Pro und was weiß ich nicht noch alles benutzt wird.Bei diesen Videos wird mit der 12 Watt thermischen Abfuehrung bei 100 Grad Kerntemperatur von veralteten Intel im Macbook Air und ~30 Watt beim Pro verglichen (mit welcher Apple sein Einkommen dank 3-5 Jahren Lebensdauer multipliziert).
Dass bei diesen absurden Rahmenbedingungen solche ulkigen Ergebnisse resultieren sollte niemanden verwundern.

Das Thema der Kritik ist Apples dreiste Luege vom angeblich leistungsfaehigsten CPU-Kern der Welt.

dildo4u
2020-11-20, 21:43:29
Das Air wird passiv gekühlt und verliert kaum Leistung unter Dauerlast gegenüber dem Pro, das Ding ist nicht mal in den nähe von 30 Watt, die 15 Watt x86 Modelle brauchen z.b alle ein Lüfter.

Gauß
2020-11-20, 22:18:20
Das Air wird passiv gekühlt und verliert kaum Leistung unter Dauerlast gegenüber dem Pro, das Ding ist nicht mal in den nähe von 30 Watt, die 15 Watt x86 Modelle brauchen z.b alle ein Lüfter.Ich sagte <15 Watt thermische Abfuhr beim Air und 30 beim Pro.
Klar drosselt dass Air und auch dass Pro uebelst, da die CPU-Kerne bei 100 Grad ihrem baldigen Tod zurennen.

Monsta
2020-11-20, 22:56:02
Ich sagte <15 Watt thermische Abfuhr beim Air und 30 beim Pro.
Klar drosselt dass Air und auch dass Pro uebelst, da die CPU-Kerne bei 100 Grad ihrem baldigen Tod zurennen.

Weil Apple Ihre X86 nur nach Temp regelt und nicht nach Powertarget wie die meisten Windows Geräte. Die Laufen zwangsläufig immer auf die 100grad zu.
Weil ab dann erst gedrosselt wird.
Wenn ich mich nicht irre machen das alle Macbooks. Das ist kein Fehler sondern eine Designentscheidung alles aus den Cpus auszuquetschen.

Bei den Thinkpads die ich hatte ist das anders. Die sind alle nach Powertarget geregelt. Die ich hatte boosten dafür nicht so lange, obwohl die Cpu erst bei 60grad war ging die schon der Takt runter.
Bei gleichzeitiger nutzung der Gpu war es total schlimm, da war nicht mehr als 800Mhz auf der Cpu.

Platos
2020-11-20, 23:03:15
Apple's SoCs waren schon immer sehr Energiesparend. Das muss man ihnen lassen. Dafür verbauen sie im Vergleich zur Konkurrenz bei den Smartphones winzig kleine Akkus. Gleichts also zumindest da wieder aus.

Vorteilhaft ist es natürlich trotzdem. Da können sich mal alle anderen CPU/SoC Hersteller eine Scheibe abschneiden. Dann ist auch mal die Akkulaufzeit bei Smartphones (aber auch Laptops) potentiell grösser (in der Realität spart man dann vermutlich am Akku und verkauft das Gerät trotzdem gleich teuer :freak:).

Finch
2020-11-20, 23:03:58
Das Air ist nun da und dort Akku und die Performance machen mich fertig. Einfach nur fertig.


Fall jemand ein Razer Blade 15" kaufen will.... das Teil ist gerade Abeitslos geworden. Sobald Parallels Windows ermöglicht, wird das Gerät zum Hauptarbeitstier befördert

Ailuros
2020-11-21, 07:04:06
Vor Tagen lass ich von einem erfahrenen Entwickler dass DVFS nur eine software Affaere ist und dass Apple mit Absicht in den letzen Jahren keine relevanten Anpassungen fuer ihre vorigen Intel Platformen angewendet hat.

Das es sich um puren Duennschiss handelt muss wohl keiner besonders analysieren. Apple M1 ist kein 8es Wunder aber trotz allem genug Material dass sich so mancher anderer IHV aufkrempeln muss und aehnliche wenn nicht bessere perf/W in absehbarer Zukunft zu liefern.

Apple konkurriert mit Apple selber schon seit iphones/iPads mit A1 und jetzt seit neuestem auch in Macs mit M1. Eigene Platform, eigene hardware und nein Apple wird nicht ueberproportional wachsen weil sie nach wie vor ueberall sehr hohe Margen anstreben.

Von dem abgesehen Kishonti's gfxbench wurde seit den letzen paar Generationen fuer mehrere sw und hw Platformen entwickelt und nicht ausschliesslich fuer nur smartphones und es limitieren in den wichtigsten sub-tests hauptsaechlich die GPU ALUs. Die Indizien dieses synthetischen benchmarks zeigen dass der M1 eigentlich ein ULP SoC ist der direkt von solchen smartphone/tablet SoCs abhaengt mit einer Mischung von mehreren Einheiten, leicht hoeheren Frequenzen und um einiges grosszuegigeres DVFS. Anders ein iphone SoC@steroids.

Am Rand war ich gestern gezwungen schnell ein billiges laptop fuer die Tochter zu bestellen. Es steckt ein Intel Smelleron drin und das Geraet ist federleicht mit knapp >1kg Gewicht. Jetzt muss mir aber einer der Intel Klugscheisser erstmal erklaeren warum das oede Ding nur knapp 5.5 Stunden browsing aushaelt und wieso Intel bzw. Microsoft so unfaehig sind das ganz via sw kurzfristig anzupassen.

Ich kaufe generell keine Apple hw, aber der eigentliche Punkt hier ist dass so oder so Apple indirekt fuer Aenderungen in der Landschaft sorgen wird. Und wenn dann Intel bei der naechsen bzw. uebernaechsten Generation endlich mit um einiges geringerem Stromverbrauch ankommen sollte, dann wird es sich natuerlich um das 8. Weltwunder handeln und nein um Gottes Willem wird und kann es sich nicht um jegliche "sw Anpassung" handeln.

Wir koennen alle stromsparendere hw gebrauchen ueberhaupt in einem jeglichen mobilen Geraet; ich koennte schon heute ein gleiches laptop wie oben in der Hand haben dass mit einfachem browsing doppelt so viel Stunden aushaelt, wenn jeglicher IHV sich eben nicht auf seinen eigenen Lorbeeren zu lange ausruht. Hilft hier nicht Apple wird frueher oder spaeter ein Qualcomm oder jeglicher vergleichbare Semi dafuer sorgen, egal was fuer Maerchen sich jeder selber einreden will.

***edit: bevor mich jemand falsch versteht: DVFS ist natuerlich keine reine sw Affaere. Wer etwas von hw und Latenzen versteht weiss schon worueber es sich handelt.

Mortalvision
2020-11-21, 07:12:51
Die C PP U, besonders ein Celeron, verbraucht am wenigsten Strom, wenn nur gesurft wird. Das ist Notebookhersteller Problem!

Ailuros
2020-11-21, 07:15:51
Apple's SoCs waren schon immer sehr Energiesparend. Das muss man ihnen lassen. Dafür verbauen sie im Vergleich zur Konkurrenz bei den Smartphones winzig kleine Akkus. Gleichts also zumindest da wieder aus.

Vorteilhaft ist es natürlich trotzdem. Da können sich mal alle anderen CPU/SoC Hersteller eine Scheibe abschneiden. Dann ist auch mal die Akkulaufzeit bei Smartphones (aber auch Laptops) potentiell grösser (in der Realität spart man dann vermutlich am Akku und verkauft das Gerät trotzdem gleich teuer :freak:).

+1

Ailuros
2020-11-21, 07:18:09
Die C PP U, besonders ein Celeron, verbraucht am wenigsten Strom, wenn nur gesurft wird. Das ist Notebookhersteller Problem!

Es ist eben nicht nur ein Problem des Notebookherstellers sondern alle die zum finalen Resultat beitragen Microsoft inklusive. Es ist dann eben schon ziemlich daemlich wenn mein smartphone mit einem mainstream QCOM SoC bei sogar hoeherer Aufloesung um Strecken schneller und gleichzeitig stromsparender ist.

Zossel
2020-11-21, 07:29:54
Das Air ist nun da und dort Akku und die Performance machen mich fertig. Einfach nur fertig.

Ich hatte hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12495532&postcount=4386) ein paar Tests bzw. Benchmarks vorgeschlagen die auf jedem Unix funzen sollten. Lass die mal laufen.

Zossel
2020-11-21, 07:42:14
Apple's SoCs waren schon immer sehr Energiesparend. Das muss man ihnen lassen. Dafür verbauen sie im Vergleich zur Konkurrenz bei den Smartphones winzig kleine Akkus. Gleichts also zumindest da wieder aus.

Nun ja, wenn ein Mac deine established Sockets in einem nicht allzu tiefen Schlafmodus killt ist das Energiesparen auf Kosten der Funktion.

deLuxX`
2020-11-21, 07:58:53
Wie groß ist eigentlich der Unterschied der Performance der SSD Varianten?

Finch
2020-11-21, 09:17:40
1) xz
2) make bzw. gcc
3) python3 --version ;time python3 -c "print (123456789**987654)" > /dev/null
4) python3 --version ;time python3 -c "print (123456789**98765)" > /dev/null
5) time echo `seq 0 127` | xargs -P 16 -n1 sh -c 'python3 -c "print (123456789**98765)" > /dev/null'
6) openssl speed

Sollte auf jedem Unix funzen. Ggf. bei 5) an die Anzahl Cores/Threads anpassen, bzw. so lange laufen lassen das CPU wg. Verbrauch drosselt.

Kannst du mir das auch übersetzen?

ok, was auch immer ich gerade mache... irgendwas passiert hier gerade :D

Zossel
2020-11-21, 09:56:05
Kannst du mir das auch übersetzen?

Das sind Sachen die man in die Shell oder das Terminal (oder wie auch immer das Apple benennt) rein wirft.

Wenn du keine Erfahrung damit hast wird das wahrscheinlich eher schwierig werden, schlüsselfertig zum klicken kann ich das nicht vorbereiten ohne Zugriff auf eine Kiste von Apple zu haben um die wahrscheinlich notwendigen speziellen Apple-Quirks da rein zu bauen.

Aber es wäre schon toll wenn jemand anderes mit Zugriff auf eine ARM-Kiste von Apple und etwas Unix Know-How das laufen lassen könnte. Bis auf SPEC sind diese ganzen Benchmarks die es für diese Kisten gibt für mich einfach nur Corner-Cases.

Daredevil
2020-11-21, 11:02:59
Noch mal was von der Gaming Front, da mein USB-C Hub heute ankam.
Auf dem OLED@120hz kann ich WoW spielen in 1440p@120fps fix bei Quali Stufe drei.
Was allerdings richtig krass reinhaut sind die Schatten Details, das war bei Diablo auch schon der Fall, änder ich die von Niedrig auf Mittel, bricht die Framerate um die Hälfte ein.
Butter Smooth, aber so richtig hat er kein Bock auf Schatten Details. ^^
Aber gut, ist auch "nur" WoW.
UQoGPLO8zBI

Daredevil
2020-11-21, 11:10:33
Wie groß ist eigentlich der Unterschied der Performance der SSD Varianten?
Pretty much, würde ich sagen.
Habs hier mal mit meiner Desktop SSD verglichen, es bricht zumindest nichts ein bei dem Test. ^^
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12505619&postcount=2

deLuxX`
2020-11-21, 12:28:28
Pretty much, würde ich sagen.
Habs hier mal mit meiner Desktop SSD verglichen, es bricht zumindest nichts ein bei dem Test. ^^
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12505619&postcount=2
Ich meinte eher den Unterschied, falls überhaupt vorhanden, zwischen den Varianten.

edit: Hintergrund der Frage: lohnt es sich evtl. die größere Kapazität zu nehmen obwohl man den Platz nicht unbedingt bräuchte. Oder auch: hat die größere SSD mehr zu bieten als „nur“ mehr Kapazität?

Hamster
2020-11-21, 13:02:36
Ich meinte eher den Unterschied, falls überhaupt vorhanden, zwischen den Varianten.

edit: Hintergrund der Frage: lohnt es sich evtl. die größere Kapazität zu nehmen obwohl man den Platz nicht unbedingt bräuchte. Oder auch: hat die größere SSD mehr zu bieten als „nur“ mehr Kapazität?


Keine Ahnung, lasst es uns herausfinden!

Hier mein Beitrag, jetzt sind die anderen gefragt.

Rechner: ein frisch gebootetes und am Netzteil hängendes MacBook Air (M1, 2020, MacOS 11.0.1) mit 16GB RAM & 1TB SSD:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72340&stc=1&d=1605960092

smalM
2020-11-21, 14:35:37
@Daredevil
@Hamster

Ob Ihr wohl ausprobieren könntet, ob AmorphousDiskMark (https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwjH0dCF4JPtAhV5AWMBHbG3BD0QFjABegQIBBAC&url=https%3A%2F%2Fapps.apple.com%2Fus%2Fapp%2Famorphousdiskmark%2Fid1168254295%3 Fmt%3D12&usg=AOvVaw2umGQ3PD4GnZV-UUTA-cRw) lauffähig ist?

Hamster
2020-11-21, 14:58:12
@Daredevil
@Hamster

Ob Ihr wohl ausprobieren könntet, ob AmorphousDiskMark (https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwjH0dCF4JPtAhV5AWMBHbG3BD0QFjABegQIBBAC&url=https%3A%2F%2Fapps.apple.com%2Fus%2Fapp%2Famorphousdiskmark%2Fid1168254295%3 Fmt%3D12&usg=AOvVaw2umGQ3PD4GnZV-UUTA-cRw) lauffähig ist?


Klar!

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72342&stc=1&d=1605967076

smalM
2020-11-21, 15:51:48
Danke!

Daredevil
2020-11-21, 17:53:15
Meins ist aufm Weg zurück, hab mir nen Air bestellt :D
Mehr als bei Hamster wird beim Pro nicht gehen, das sind ja schon fast die Pcie Limits.

Hamster
2020-11-21, 18:18:54
Meins ist aufm Weg zurück, hab mir nen Air bestellt :D
Mehr als bei Hamster wird beim Pro nicht gehen, das sind ja schon fast die Pcie Limits.

:D

Viel Spaß mit dem Air.
Berichte mal ob die gravierende Unterschiede auffallen.


Und die Frage war ja eher ob die SSD Werte bei deinem alten MBP schlechter sind, da kleinere SSD ;)

deLuxX`
2020-11-21, 18:49:58
Keine Ahnung, lasst es uns herausfinden!

Hier mein Beitrag, jetzt sind die anderen gefragt.

Rechner: ein frisch gebootetes und am Netzteil hängendes MacBook Air (M1, 2020, MacOS 11.0.1) mit 16GB RAM & 1TB SSD:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72340&stc=1&d=1605960092
Danke dir. Also lesen wie beim 256 GB Modell, schreiben deutlich schneller.

smalM
2020-11-21, 20:06:13
Mehr als bei Hamster wird beim Pro nicht gehen, das sind ja schon fast die Pcie Limits.
Der SSD-Controller ist auf dem Die integeriert und ich nehme an, er hängt direkt am Fabric. Auf dem Motherboard sind nur NAND-Bausteine.
Und ja, die 1TB-Version ist wahrscheinlich die schnellste.

Daredevil
2020-11-21, 22:10:39
Hier gibt nochmal n Haufen Infos :)
CmMOJTs7Pu8

Hamster
2020-11-22, 00:16:45
Und ja, die 1TB-Version ist wahrscheinlich die schnellste.

Gibt ja noch das 2TB Modell... ;)

Argo Zero
2020-11-22, 10:17:22
Falls ihr vorhabt eine weitere SSD extern zu betrieben (zB für Backups): Unbedingt ForceTrim aktivieren.
Oftmals ist das nämlich standardmäßig aus.

Heimatsuchender
2020-11-22, 18:27:32
Meins ist aufm Weg zurück, hab mir nen Air bestellt :D
Mehr als bei Hamster wird beim Pro nicht gehen, das sind ja schon fast die Pcie Limits.


Das Einstiegsmodell vom Air? Oder angepasst?
Ich bin immer noch unentschlossen.

Daredevil
2020-11-22, 19:21:42
Wie gesagt, bei mir gab es zwei Möglichkeiten.

Möglichkeit 1:
Ich nehme ein Highend Modell und lebe damit die nächsten Jahre
Also ein Pro 512GB/16GB, für das Geld und die Ausstattung ist der SoC dann aber "zu langsam" für mich.

Möglichkeit 2:
Ich nehme ein Lowend Modell und warte, bis ein Highend Modell kommt, womit ich ganz zufrieden bin. :D

Ein Air mit 16GB und dickem Hauptspeicher ist für mich unausgewogen und ein Pro mit 8GB und okayen Hauptspeicher ebenso nicht. Deswegen ein günstiges Air und warten bis ein noch schnelleres Pro kommt, wo ich keine Bauchschmerzen habe, so viel Geld für die Upgrades zu zahlen.

Ich kauf mir ja auch keine 3070 mit 16GB Speicher und auch keine 3080 mit 10GB Speicher, sondern eine 3090 mit 24GB Speicher. ^^ Damit habe ich ruhe die nächsten Jahre.

Daredevil
2020-11-23, 16:17:22
Das große RAM Battle! :)
8GB vs 16GB M1 MacBook Pro - How much RAM do you NEED?!

PP1_4wek4nI

Edit:
RAM =! RAM? ^^
https://abload.de/img/unbenannto5jt6.png

Edit2:
Beim 8K Export gibts große Unterschiede. :v

dildo4u
2020-11-24, 03:09:01
QgFd_w2n1es

Monkey
2020-11-24, 15:03:34
Also diese Tests finde ich zum Teil immer merkwürdig. Der Export mit Davinci Resolve ist da auch so ne Sache, wie wurde denn da exportiert und in was? Wurde die Studio Version für das XPS benutzt? Wenn nein rendert Davinci mit der freien Version alles über die CPU und nicht mit der GPU.

Finde die neuen M1 Geräte auch interessant aber wenn ich sehe wie bei den Video Tests immer nur irgendein File exportiert wird kann ich damit null anfangen. Dann wird gerne h265 footage genommen die ja wirklich super auf dem MB läuft, quasi genauso wie auf dem iPad..."Problem" ist nur -> was passiert wenn ich zB Canon Raw Lite benutze und ich statt nur einem Clip auch ein paar Tonspuren habe, ein paar Animationen und Text UND den Denoiser in DR verwende. Mein XPS 15 (9570) kackt da quasi komplett ab weil die 1050ti nur 4gb Ram hat, selbst ein 2min Clip ist da schon die Kotzgrenze wenn die Timeline in 4k25 erstellt ist. Aber die Frage ist wie sich die M1 Geräte verhalten wenn man damit minimal mehr macht als nur h265 footage zu exportieren oder durch die Timeline zu scrubben.

smalM
2020-11-24, 23:33:30
M1 ISA-Erweiterung > ARMv8.4-A

https://twitter.com/jonmasters/status/1331137023386800128/photo/1

features: [...] ssbs sb paca pacg dcpodp flagm2 frint

ssbs -- Speculative Store Bypass Safe bit
sb -- Speculation Barrier
paca -- {erweiterte Pointer Authentication ?}
pacg -- {erweiterte Pointer Authentication ?}
dcpodp -- Cache Clean to Point of Deep Persistence
flagm2 -- XAFLAG and AXFLAG CONDM Extensions
frint -- round FP to INT and forcing it into 32- or 64-bit INT

deLuxX`
2020-11-25, 07:01:41
Hier mal nicht so coole Dinge für manche evtl:
https://www.youtube.com/watch?v=ALqgW7Zam7g

edit: wieso funktioniert der YT Anker nicht richtig?

urpils
2020-11-25, 08:11:19
Hier mal nicht so coole Dinge für manche evtl:
https://www.youtube.com/watch?v=ALqgW7Zam7g

edit: wieso funktioniert der YT Anker nicht richtig?

hab ich das richtig verstanden: der hatte offenbar Bugs in Final-Cut - hat mitternachts dann eine Stunde gearbeitet, war frustriert, hat am iMac weiter gemacht und am nächsten Tag nach einem Reboot war wieder alles gut?
ich meine: klar - Bugs sind nervig und sollten nie auftreten - aber wieso sich stundenlang quälen statt einmal neu zu starten - das dauert doch bloß ein paar Sekunden...

fragt sich jetzt nur, woran es gelegen hat: hat er irgendwelche schrägen Treiber, ist das ein Big Sur Bug, ist das sonstwas?

am M1 wird es ja wohl kaum liegen, wenn es nach nem Reboot wieder in Ordnung war.. hm.

die USB-Probleme klingen auch nach häufigen Treiberspirenzechen - extrem nervend!

deLuxX`
2020-11-25, 09:36:20
hab ich das richtig verstanden: der hatte offenbar Bugs in Final-Cut - hat mitternachts dann eine Stunde gearbeitet, war frustriert, hat am iMac weiter gemacht und am nächsten Tag nach einem Reboot war wieder alles gut?
ich meine: klar - Bugs sind nervig und sollten nie auftreten - aber wieso sich stundenlang quälen statt einmal neu zu starten - das dauert doch bloß ein paar Sekunden...

fragt sich jetzt nur, woran es gelegen hat: hat er irgendwelche schrägen Treiber, ist das ein Big Sur Bug, ist das sonstwas?

am M1 wird es ja wohl kaum liegen, wenn es nach nem Reboot wieder in Ordnung war.. hm.

die USB-Probleme klingen auch nach häufigen Treiberspirenzechen - extrem nervend!
Einfach kein Early Adopter spielen und fertig.
Auch wenn da nichts unmittelbares bekannt ist, einfach auf den M2 warten.

Ailuros
2020-11-26, 05:35:16
Ich halte zwar nicht viel vom Antutu benchmark aber die Resultate dort sind auch beindruckend.

OT: Rampenlicht auf QCOM. Wie waere es mit einem aufgebohrten ULP SoC aus der Android-Welt fuer Chromebooks bzw. low end laptops?

Dschounz
2020-11-26, 08:15:52
Guten Morgen,

Mein MacBookPro M1/16GB/1TB ist vorgestern angekommen und gestern bin ich endlich dazu gekommen, ein paar Tests zu machen...Cinebench usw.

Die Werte sind absolut überzeugend, aber schon im Thread gepostet und mit meinen identisch.

Was mich aber vom Hocker gehauen hat, war Tomb Raider (2012; ja ich weiß, alt :freak:).

Bei gleichen Einstellungen (Nur die Auflösung war auf dem MacBook höher als auf meinem PC 5775C / 16GB / R9 290; 2560X1600 vs 2560x1440) ist das MacBook schneller als mein PC bei einem Bruchteil des Verbrauchs, trotz Emulation mit Rosetta2 :eek:.

Auch wenn's ein Uraltspiel ist, fand ich das sehr beeindruckend, vor allem, weil der Lüfter nie ansprang...

robbitop
2020-11-27, 11:57:46
Der M1 bietet in deinem Macbook mehr GPU Leistung als eine R9 290? Dazu muss man ja auch sagen, dass Spiele für den Mac null optimiert sind.
Bist du dir da wirklich sicher? Settings komplett gleich etc?

davidzo
2020-11-27, 12:47:40
Schwer vorstellbar.

Apple ist sich schon bewusst dass die eigenen GPUs bisher nur für Einsteigergeräte reichen. Für die Profiklasse kommen nächstes Jahr doch wieder Navi2x GPUs: https://www.notebookcheck.com/Die-AMD-Radeon-RX-6700-Serie-soll-in-Apples-16-Zoll-MacBook-Pro-ihr-Debuet-feiern.506058.0.html

y33H@
2020-11-27, 13:53:52
Spannend wird, ob Apple Silicon oder Intel x86 als Host-CPUs drin stecken =)

Dschounz
2020-11-27, 22:28:02
Der M1 bietet in deinem Macbook mehr GPU Leistung als eine R9 290? Dazu muss man ja auch sagen, dass Spiele für den Mac null optimiert sind.
Bist du dir da wirklich sicher? Settings komplett gleich etc?

Beide Rechner waren auf "Hoch" bei der Grafikqualität eingestellt und spuckten ungefähr diesselben Frames aus (ca. 60FPS); TressFX war aus auf dem PC.

Subjektiv war die Darstellung qualitativ gleich gut.

Ich kann`s ja auch nicht/kaum glauben. Hab halt zum Spass mal Steam installiert (das Gerät ist eigentlich zum Arbeiten :D) und das war halt das Spiel in meiner Bibliothek mit Mac-Version.

Eine allgemeine Aussage soll das aber nicht sein....

Ailuros
2020-11-28, 06:21:05
Schwer vorstellbar.

Das Spiel ist alt und so lange es gut auf einer Radeon laeuft hat sich wohl keiner darueber geschert dafuer weiter zu optimieren bei AMD. Dazu kann es auch sein dass das Spiel vielleicht etwas anwendet dass einem TBDR besonders gut schmeckt. Eine Indizie ist es fuer mich persoenlich nicht. Es waere schoen wenn ein reviewer M1 gegen konkurrierende low end laptops durch > eine handvoll Spiele jagen wuerde. M1 schneidet zwar in synthetischen benchmarks gut ab, aber da diese nicht besonders lang dauern wird dort auch kein bisschen "ge-throttelt".

Apple ist sich schon bewusst dass die eigenen GPUs bisher nur für Einsteigergeräte reichen. Für die Profiklasse kommen nächstes Jahr doch wieder Navi2x GPUs: https://www.notebookcheck.com/Die-AMD-Radeon-RX-6700-Serie-soll-in-Apples-16-Zoll-MacBook-Pro-ihr-Debuet-feiern.506058.0.html

Lifuka soll eine dGPU sein nach Geruechten (=/>M1X). Stimmt es dann ist es wohl erstmal eine gute stufe ueber dem Einsteiger-geraet. Kein Zweifel dass Apple wohl voruebergehend fuer ihre eigenen "high end" Macs immer noch AMD GPUs einkauft, aber hier ist die Frage lediglich fuer wie lange noch. Wenn sie frueher als spaeter das groesste Volumen mit eigener hw abdecken, ist es eher schwer vorzustellen dass sie eine Luecke fuer high end uebrig lassen wofuer sie dann keine Treiber, APIs optimieren koennen.

Dschounz
2020-11-28, 10:35:45
Das Spiel ist alt und so lange es gut auf einer Radeon laeuft hat sich wohl keiner darueber geschert dafuer weiter zu optimieren bei AMD. Dazu kann es auch sein dass das Spiel vielleicht etwas anwendet dass einem TBDR besonders gut schmeckt. Eine Indizie ist es fuer mich persoenlich nicht. Es waere schoen wenn ein reviewer M1 gegen konkurrierende low end laptops durch > eine handvoll Spiele jagen wuerde. M1 schneidet zwar in synthetischen benchmarks gut ab, aber da diese nicht besonders lang dauern wird dort auch kein bisschen "ge-throttelt".



Lifuka soll eine dGPU sein nach Geruechten (=/>M1X). Stimmt es dann ist es wohl erstmal eine gute stufe ueber dem Einsteiger-geraet. Kein Zweifel dass Apple wohl voruebergehend fuer ihre eigenen "high end" Macs immer noch AMD GPUs einkauft, aber hier ist die Frage lediglich fuer wie lange noch. Wenn sie frueher als spaeter das groesste Volumen mit eigener hw abdecken, ist es eher schwer vorzustellen dass sie eine Luecke fuer high end uebrig lassen wofuer sie dann keine Treiber, APIs optimieren koennen.


y33h/Marc von Golem hat einen recht ausführlichen Artikel über den M1 verfasst https://www.golem.de/news/apple-silicon-im-test-was-der-m1-chip-nicht-kann-2011-152384.html.

Er spricht von GTX 1060 Leistung beim GPU-Teil und das die Rosetta2 Emulation bei GPU-lastigem Content sehr performant ist.

Aber nochmals : Ich wollte damit keine Erwartungen wecken, dass Cyberpunk oder Control easy läuft in ner virtuellen Windows-Maschine auf dem Ding :freak:

Ging mir rein um´s Technologische dabei im Sinne von Fortschritt in Effizienz und Ingenieurskunst...

steve.it
2020-11-28, 11:34:08
https://github.com/ThomasKaiser/Knowledge/raw/master/media/M1-Air-vs-MBP-Clockspeeds.png

"It seems throttling strategy for the Air is to never exceed 80°C SoC temperature while on the MacBook Pro the fan is used to keep SoC temperature below 70°C having to exceed 4000 rpm after 7 minutes."

Exploring Apple Silicon on a MacBookAir10,1 (https://github.com/ThomasKaiser/Knowledge/blob/master/articles/Exploring_Apple_Silicon_on_MacBookAir10.md#throttling-comparison-between-macbook-air-and-13-mbp)

Hier gefunden: https://www.heise.de/forum/heise-online/Kommentare/MacBook-Pro-mit-Apples-M1-Prozessor-im-Test-Apple-Silicon-schlaegt-Intel/Re-Apple-macht-alles-falsch/posting-37885539/show/
"Apples Strategie scheint zu sein, die SoC-Temperatur unter 80°C zu halten. Und das tritt nach sehr kurzer Zeit schon ein, wenn die CPU-Kerne 15W Leistung verbraten. Welche Kerne die Leistung verbraten ist aber egal, denn es geht darum, dass heruntergetaktet werden muß, um den SoC unter 15W Heizleistung zu halten.

Eine Strategie dabei könnte sein, die GPU- und Neural Engine-Cores bevorzugt niedriger zu takten, damit die CPU-Cores länger auf höheren Frequenzen verbleiben können.

Mit anderen Worten: Dass das Throttling auf dem M1 Air im Netz als geringfügig dargestellt wird, ist wohl darauf zurückzuführen, dass überwiegend Blödelbenchmarks à la Cinebench abgefeuert werden (die nur CPU-Cores beanspruchen und GPU und NE brachliegen lassen) oder bei anderen Tasks nur auf die CPU-Taktfrequenzen geguckt wird und die anderen Engines einfach in der Betrachtung ausgeblendet werden."

y33H@
2020-11-28, 17:43:02
Man benötigt ergo Workloads welche CPU und GPU und NPU nutzen - etwa Final Cut Pro mit Smart Conform ... dennoch ist dann die Frage, ob der M1 nicht dennoch entsprechend abgeriegelt wird.

Ailuros
2020-11-29, 05:32:15
y33h/Marc von Golem hat einen recht ausführlichen Artikel über den M1 verfasst https://www.golem.de/news/apple-silicon-im-test-was-der-m1-chip-nicht-kann-2011-152384.html.

Er spricht von GTX 1060 Leistung beim GPU-Teil und das die Rosetta2 Emulation bei GPU-lastigem Content sehr performant ist.

Aber nochmals : Ich wollte damit keine Erwartungen wecken, dass Cyberpunk oder Control easy läuft in ner virtuellen Windows-Maschine auf dem Ding :freak:

Ging mir rein um´s Technologische dabei im Sinne von Fortschritt in Effizienz und Ingenieurskunst...

Ich hab den Sinn Deiner Aussage schon richtig verstanden. Sonst stimmt es insgesamt schon so, wobei GTX1060 Leistung in etwa stimmen sollte aber es handelt sich dann um die laptop Variante mit bis zu 1024 SPs und einer boost Frequenz irgendwo in der 1.2-1.3GHz Region.

y33H@
2020-11-29, 09:29:14
Im verlinkten Text steht, bezüglich der theoretischen Angaben bei FP32, GPix/s und GTex/s zwischen GTX 1050 Ti und GTX 1060 (jeweils Desktop) ... außen vor ist die Bandbreite und was davon generell in der Praxis ankommt.

davidzo
2020-11-29, 11:36:20
es wäre ziemlich beeindruckend wenn man mit 68gb/s auch nur irgendwie in die nähe von dem kommt wofür die 1060 192gb/s braucht.
Dass der TBDR da so massiv ausschlaggebens ist würde im Umkehrschluss bedeuten dass man diesen Bonus bei Compute dann nicht ausspielen kann. Gerade das Apple traditionell Compute fast wichtiger als gamingleistung ist, wäre das sehr untypisch. Ich kann mir eher vorstellen dass Apple ähnlich wie AMD auch mit mehr on chip cache für die GPU arbeitet um das SI zu entlasten.

y33H@
2020-11-29, 14:03:05
Der SLC ist sicherlich nicht zu verachten.

Dschounz
2020-12-01, 13:20:36
Ich hab auch noch einen anderen Methusalem aus meiner Bibliothek mit einer nativen Mac-Version ausprobiert: Alien: Isolation

Das ist das einzige, das nicht von FERAL portiert wurde....das läuft so grottig, dass man auch von "nicht lauffähig" sprechen kann; Diashow.

Die beiden letzten Spiele mit einer MacOS-Version in meiner Bibliothek, Bioshock Remastered 1+2, laufen so gut wie Tomb Raider. Diese sind ebenfalls von FERAL portiert.

Im verlinkten Text steht, bezüglich der theoretischen Angaben bei FP32, GPix/s und GTex/s zwischen GTX 1050 Ti und GTX 1060 (jeweils Desktop) ... außen vor ist die Bandbreite und was davon generell in der Praxis ankommt.

+1

Stimmt, "Leistung" war von mir zu vereinfachend ausgedrückt...aber wenn ich mir die von mir genutzte Auflösung so ansehe, scheint die verfügbare Bandbreite nicht allzu stark zu limitieren.

Ailuros
2020-12-02, 23:11:40
es wäre ziemlich beeindruckend wenn man mit 68gb/s auch nur irgendwie in die nähe von dem kommt wofür die 1060 192gb/s braucht.
Dass der TBDR da so massiv ausschlaggebens ist würde im Umkehrschluss bedeuten dass man diesen Bonus bei Compute dann nicht ausspielen kann.

TBDRs haben unter Vorraussetzungen Vorteile sowohl was die Bandbreite als auch den Speicherverbrauch betrifft. Pixel shading waere im Vorteil, sehr hohe Geometrie-Raten im Nachteil.

Gerade das Apple traditionell Compute fast wichtiger als gamingleistung ist, wäre das sehr untypisch. Ich kann mir eher vorstellen dass Apple ähnlich wie AMD auch mit mehr on chip cache für die GPU arbeitet um das SI zu entlasten.

Zwar ist eine on chip cache nicht nutzlos auf einem TBDR, ist aber unter normalen Umstaenden schon etwas uebertrieben. Man verzoegert uebervereinfacht stets um einen frame eben um eine grosse Anzahl der Daten on chip zu behalten. Afaik verwendet Apple keinen zusaetzlichen on chip cache. Ein kleiner Anteil der unified memory wird fuer die diverse buffers benutzt, damit die parameters bearbeitet, komprimiert und wieder verwendet werden koennen.

robbitop
2020-12-03, 13:02:05
Das ist ja das schöne an TBDRs. Sie lesen und schreiben ganze Tiles für den Framebuffer auf einem onchip Tile Cache bis diese fertig sind. Das spart offchip Bandbreite. Das geht mit kleinen on chip Tile Caches eben nur bei TBDRs. Es liegt nämlich der komplette Z Buffer und die fertige Rendereihenfolge dann nämlich schon vor.

Kann mir aber gut vorstellen, dass es da bei modernen Renderpipelines das nicht mehr so einfach ist in HW zu gießen ist und es einige Dinge zu umschiffen gilt. Sicherlich auch verbunden mit einigen Einschränkungen.

Dschounz
2020-12-03, 17:33:51
Hab heute mein TB3-Kabel zum Anschluss an meinen UWQHD-Monitor bekommen (3440x1440) und den Benchmark (Tomb Raider) nochmals durchlaufen lassen.

Hier bricht die Framerate massiv auf 27 FPS ein; während die 290 mit 50 FPS deutlich weniger verliert. Die Darstellung ist qualitativ gleichwertig, kein Unterschied feststellbar.
Hier scheint wohl die geringe Bandbreite massiv zuzuschlagen..

Zossel
2020-12-03, 18:25:20
Was ist das den für ein Kasperkram?

https://www.igorslab.de/warum-apples-m1-single-core-vergleiche-grundlegend-fehlerhaft-sind-mit-benchmarks-gastbeitrag/

Dschounz
2020-12-03, 18:36:19
Was ist das den für ein Kasperkram?

https://www.igorslab.de/warum-apples-m1-single-core-vergleiche-grundlegend-fehlerhaft-sind-mit-benchmarks-gastbeitrag/

Wenn man´s nett formuliert, liegt hier ein gut durchgerührter Definitionssalat vor; Single-Thread vs Single-Core.

Ich bin ja sonst Igor zugeneigt. In diesem Fall muss ich aber sagen:

Die Leistungsdaten des M1 in Anwendungen, insb. unter Berücksichtigung der aufgenommenen Leistung, sprechen eine deutliche Sprache und diese "Haar in der Suppe"-Journalistik ist da etwas zum fremdschämen...

robbitop
2020-12-03, 18:38:54
Was ist das den für ein Kasperkram?

https://www.igorslab.de/warum-apples-m1-single-core-vergleiche-grundlegend-fehlerhaft-sind-mit-benchmarks-gastbeitrag/
Sehe ich auch wie du.
Am Ende zählt doch nur das Resultat. Wenn man aufgrund der ISA nicht so viel aus dem x86 Decoder herausholen kann - dann ist das halt ein inhärenter Nachteil. Pech gehabt.
Die Anwendung interessieren die Gründe nicht. Interessant ist für viele Anwendungen nunmal ST Leistung wegen des krtisichen Threads.
Durch die heute relativ hohe Anzahl an Kernen bringt es dann wenig, wenn x86 mit SMT vs ARM non SMT gleichziehen kann. Denn oft hat man eh genug Kerne um alle Threads zu sättigen. Zumindest in den meisten Alltagsanwendungen ist das so.

deLuxX`
2020-12-03, 18:58:02
Das ist das gleiche wie die „Unfairer Vergleich weil AMD und Intel ja noch nicht in 5 Nm produzieren“-Sager.
Es interessiert nur, was der Anwender am Ende bekommt, wenn er vor dem Gerät sitzt. Und sonst mal absolut garnichts. Alles andere ist entweder, wie du schon sagst, Kasperkram oder ein nettes Was-wäre-wenn Spiel für technikaffine Leute.

robbitop
2020-12-03, 19:11:28
Es ist ein Vergleich akademischer Natur, der wenig Praxisrelevanz hat. :)

Es ist aber wahrscheinlich auch einer der Gründe, warum Apple die ARM ISA gewählt hat und es Vorteile in Bezug auf Perf/W zu haben scheint.

Platos
2020-12-03, 19:13:23
Wenn man´s nett formuliert, liegt hier ein gut durchgerührter Definitionssalat vor; Single-Thread vs Single-Core.

Ich bin ja sonst Igor zugeneigt. In diesem Fall muss ich aber sagen:

Die Leitungsdaten des M1 in Anwendungen, insb. unter Berücksichtigung der aufgenommenen Leistung, sprechen eine deutliche Sprache und diese "Haar in der Suppe"-Journalistik ist da etwas zum fremdschämen...

Hat doch gar nicht Igor geschrieben. Ist ein Gastbeitrag;)

Loeschzwerg
2020-12-03, 20:22:00
Am Ende zählt doch nur das Resultat. Wenn man aufgrund der ISA nicht so viel aus dem x86 Decoder herausholen kann - dann ist das halt ein inhärenter Nachteil. Pech gehabt.
Die Anwendung interessieren die Gründe nicht. Interessant ist für viele Anwendungen nunmal ST Leistung wegen des krtisichen Threads.
Durch die heute relativ hohe Anzahl an Kernen bringt es dann wenig, wenn x86 mit SMT vs ARM non SMT gleichziehen kann. Denn oft hat man eh genug Kerne um alle Threads zu sättigen. Zumindest in den meisten Alltagsanwendungen ist das so.

Dem kann ich nur zustimmen. Letztendlich wird hier ein Fass wegen dem Wording aufgemacht.

Dschounz
2020-12-03, 20:50:03
Hat doch gar nicht Igor geschrieben. Ist ein Gastbeitrag;)

Aber er hat`s auf seiner Website veröffentlicht und damit, zumindest indirekt, seine Zustimmung gegeben oder hat der Meinung etwas abgewinnen können.

smalM
2020-12-03, 21:34:14
Thunderbolt im M1 (https://eshop.macsales.com/blog/68484-thunderbolt-on-the-m1-mac-mini/)

Bestätigt die Vermutung, daß links unten auf dem Die-Shot (https://images.anandtech.com/doci/16252/M1.png) zwei Thunderbolt-Controller zu sehen sind.

Iamnobot
2020-12-04, 08:08:30
Was ist das den für ein Kasperkram?

https://www.igorslab.de/warum-apples-m1-single-core-vergleiche-grundlegend-fehlerhaft-sind-mit-benchmarks-gastbeitrag/
Eine sehr durchdachte und inhaltlich vollkommen korrekte Analyse, der man nur zustimmen kann.
Dass die Apple "Fans" lieber wieder in aus PowerPC Zeiten bekannte Argumentationsmuster verfallen wundert wohl niemanden mehr...

Monsta
2020-12-04, 08:21:10
Eine sehr durchdachte und inhaltlich vollkommen korrekte Analyse, der man nur zustimmen kann.
Dass die Apple "Fans" lieber wieder in aus PowerPC Zeiten bekannte Argumentationsmuster verfallen wundert wohl niemanden mehr...

Nein ist es nicht, da Du im normalen Betrieb keinen Einflluß darauf hast.

Wenn ein Programm nur einen Thread nutzt, bringt Dir Hyperthreading nix.

Und falls ein Programm 2 Threads nutzt ist der M1 auch schneller, da er 2 "Volle Kerne" nutzt. Und nicht nur den 2. Hyperthreading Kern.

deLuxX`
2020-12-04, 08:54:51
Eine sehr durchdachte und inhaltlich vollkommen korrekte Analyse, der man nur zustimmen kann.
Dass die Apple "Fans" lieber wieder in aus PowerPC Zeiten bekannte Argumentationsmuster verfallen wundert wohl niemanden mehr...
Bin kein Apple „Fan“. Im Grunde bin ich gar kein „Fan“ jeglicher Firma, aus dem Alter bin ich raus. Für mich zählt was am Ende rauskommt und keine theoretischen „ja wenn man es so dreht, daaannn...“ Vergleiche (weil die bringen mir beim Arbeiten genau was?) Und da ist der M1 einfach meilenweit vorne für ganz viele Anwendungsfälle vorne. Punkt. Und da gibts einfach mal garnix auf irgendein „Fan“ Level zu heben. Sowas zeigt eher welchen Geistes Kind man ist. *Kopfschüttel*

robbitop
2020-12-04, 11:34:39
Eine sehr durchdachte und inhaltlich vollkommen korrekte Analyse, der man nur zustimmen kann.
Dass die Apple "Fans" lieber wieder in aus PowerPC Zeiten bekannte Argumentationsmuster verfallen wundert wohl niemanden mehr...
Die Analyse selbst zweifelt niemand an. Jedoch aber die Auswirkung auf die Realworld Anwendungen. Nur bringt es die Balance ja nur in 100% MT limitierten Szenarien zurück. Und selbst bei diesen greift auch Amdahls Law relativ schnell. (overhead und synchronisation)
Die Wahrheit ist jedoch, dass der Großteil der Software nunmal nicht beliebig parallelisiert arbeitet. Entsprechend gibt es einen oder wenige kritische Threads. Und diese profitieren nun mal von maximaler Leistung pro Thread.
Den Anwendungen bringt es dann wesentlich weniger, wenn die kumulierte MT Leistung pro Kern höher ist.

Natürlich gibt es auch Anwendungen die 1:1 von purer MT Leistung profitieren und in denen würde x86 das mit SMT wohl wieder ausgleichen. Diese sind für die meisten Anwender aber wohl in der Unterzahl.

Auch scheint es für die Energieeffizienz auch zuträglich zu sein, lieber kleine Cores zu nutzen statt SMT. Diese arbeiten auf einem völlig anderen Designauslegungspunkt. Intel scheint das seit spätestens Alder Lake auch so zu sehen.

Ja das ist ein inhärenter Nachteil der x86 ISA bzw ein Vorteil von RISC ISAs wie ARM oder RISC-V. Das streitet niemand ab und genau das ist der Grund, warum diese immer mehr Verbreitung finden. RISC-V findet stetig mehr Firmen und Unterstützer. Im Cloud und Serverbereich gehen immer mehr große Firmen auf ARM - z.B. Amazon hat einen eigenen SoC entwickelt.
Google IIRC auch.
In sämtlichen mobile Devices sitzen RISC ISA SoCs. Mit x86 hat Intel und AMD es oft genug versucht und kam einfach nicht an die gleiche Perf/W bei sehr limitierten TDP Envelopes.

Und selbst Microsoft und Qualcomm sehen da ähnliche Vorteile.

Apple ist hier nicht der Erste - aber es scheint einfach sinnvoll zu sein. Würde mich nicht wundern, wenn x86 in den nächsten Jahrzehnten immer mehr Bedeutung verliert und auch AMD und Intel die ISA zu zu RISC wechseln (ARM, RISC-V o.ä).

Benutzername
2020-12-04, 11:51:11
Auf jeden Fall demonstreirt der M1 von Apple, welchen Wasserkopf x86 mit sich herumschleppt im Vergleich, weswegen dann es manchmal unerklärlich hakt trotz viel mehr roher Rechenleistung.

Matrix316
2020-12-04, 12:03:52
Auf jeden Fall demonstreirt der M1 von Apple, welchen Wasserkopf x86 mit sich herumschleppt im Vergleich, weswegen dann es manchmal unerklärlich hakt trotz viel mehr roher Rechenleistung.
Kein Problem: Intel baut ab jetzt nur noch reine ARM RISC CPUs die mit Apples M1 den Boden aufwischen und Microsoft baut schnell ein neues Windows ohne Legacy Sachen.

Kleiner Nachteil: Es laufen nur noch Programme aus dem Windows Store und keine alten Spiele/Software mehr. ;) Und du kannst nichts mehr aufrüsten. Kein RAM. Keine GPUs. Keine CPUs. Es gibt auch nur noch KomplettPCs bzw. Notebooks von Dell, HP, Lenovo oder Acer. Dafür ist alles super schnell. :D ;)

Es kommt nicht immer nur auf die Geschwindigkeit an... :uidea:

biohaufen
2020-12-04, 13:27:40
Welch ein intelligenter Beitrag...

Lehdro
2020-12-04, 15:02:15
In sämtlichen mobile Devices sitzen RISC ISA SoCs. Mit x86 hat Intel und AMD es oft genug versucht und kam einfach nicht an die gleiche Perf/W bei sehr limitierten TDP Envelopes.

Gegenargument: Es wurde niemals ernsthaft versucht. Intel hat immer nur alte abgedroschene Fertigungsmethoden benutzt und deren Architektur hing teilweise Jahre hinter der "aktuellen" im Desktop hinterher. Intel hat den Lowpower-Markt immer als das betrachtet: Lowpower. Und damit war nicht die Leistungsaufnahme gemeint, sondern generell die Leistung. Auch AMD hat mit bereits zurückhinkender Fertigungstechnologie versucht von oben nach unten die Architektur in die Bereiche reinzudrücken, anstatt mit einem weißen Blatt Papier anzufangen.

Apple hingegen kommt von "unten" nach "oben" - man hatte schon immer sehr effiziente Kerne, denen es aber teilweise noch ein wenig an Leistung mangelte - diese hat man dann aufgebohrt, anstatt wie Intel und AMD von den Highpower Cores nach unten zu entschlacken. Apples Vorteil dabei: Man schleppt zwangsweise keinen Ballast mit rum, weil man immer genau abwägen kann was man dazupackt, anstatt nachträglich Sachen zu entfernen oder potenzielle Unausgewogenheiten des gesamt SoCs in Kauf zu nehmen. Intel und AMD haben versucht das Pferd von hinten aufzuzäumen, anstatt andersherum zu arbeiten. Das es auch anders geht, beweist uns ja gerade Zen. Ich denke auch mit x86 wäre sinnvolles Lowpower möglich, wenn man sich wirklich darauf fokussiert - nur ist das halt ein Markt der schon bedient wird, weswegen das Ganze wohl mehr Risiko beeinhaltet als es am Ende Wert ist. Komplett neue SoCs mit diesem spezifischen Fokus sind halt einfach sehr teuer und eben nicht nur simple Derivate von bereits existierenden SoCs.

Wörns
2020-12-04, 15:52:07
Und du kannst nichts mehr aufrüsten. Kein RAM. Keine GPUs. Keine CPUs.

Richtig. Schon die Integration des Coprozessors und des Caches in die CPU waren Zumutungen! Uns ist dermaßen die Flexibilität abhanden gekommen.
MfG

fondness
2020-12-04, 18:29:59
Die Analyse selbst zweifelt niemand an. Jedoch aber die Auswirkung auf die Realworld Anwendungen. Nur bringt es die Balance ja nur in 100% MT limitierten Szenarien zurück. Und selbst bei diesen greift auch Amdahls Law relativ schnell. (overhead und synchronisation)
Die Wahrheit ist jedoch, dass der Großteil der Software nunmal nicht beliebig parallelisiert arbeitet. Entsprechend gibt es einen oder wenige kritische Threads. Und diese profitieren nun mal von maximaler Leistung pro Thread.
Den Anwendungen bringt es dann wesentlich weniger, wenn die kumulierte MT Leistung pro Kern höher ist.

Natürlich gibt es auch Anwendungen die 1:1 von purer MT Leistung profitieren und in denen würde x86 das mit SMT wohl wieder ausgleichen. Diese sind für die meisten Anwender aber wohl in der Unterzahl.

Auch scheint es für die Energieeffizienz auch zuträglich zu sein, lieber kleine Cores zu nutzen statt SMT. Diese arbeiten auf einem völlig anderen Designauslegungspunkt. Intel scheint das seit spätestens Alder Lake auch so zu sehen.

Ja das ist ein inhärenter Nachteil der x86 ISA bzw ein Vorteil von RISC ISAs wie ARM oder RISC-V. Das streitet niemand ab und genau das ist der Grund, warum diese immer mehr Verbreitung finden. RISC-V findet stetig mehr Firmen und Unterstützer. Im Cloud und Serverbereich gehen immer mehr große Firmen auf ARM - z.B. Amazon hat einen eigenen SoC entwickelt.
Google IIRC auch.
In sämtlichen mobile Devices sitzen RISC ISA SoCs. Mit x86 hat Intel und AMD es oft genug versucht und kam einfach nicht an die gleiche Perf/W bei sehr limitierten TDP Envelopes.

Und selbst Microsoft und Qualcomm sehen da ähnliche Vorteile.

Apple ist hier nicht der Erste - aber es scheint einfach sinnvoll zu sein. Würde mich nicht wundern, wenn x86 in den nächsten Jahrzehnten immer mehr Bedeutung verliert und auch AMD und Intel die ISA zu zu RISC wechseln (ARM, RISC-V o.ä).

Also deine Argumentation finde ich seltsam. Intel vergibt schon seit Jahrzehnten keine x86 Lizenzen mehr. Ergo haben die ganzen von dir erwähnten Hersteller gar keine andere Wahl als auf arm bzw risc auszuweichen. Im iPhone steckt im übrigen nur eine Arm Architektur, weil Intel damals abgelehnt hat einen Chip für Apple zu entwickeln.

Als nächstes ist Single core Leistung natürlich wichtig, aber spätestens ab Desktop bzw enterprise Level ist multicore natürlich wesentlich wichtiger. Und da liegt Apples m1 sehr weit weg von einem ryzen 2 4xxx.

Matrix316
2020-12-04, 18:54:51
Welch ein intelligenter Beitrag...
dito

Richtig. Schon die Integration des Coprozessors und des Caches in die CPU waren Zumutungen! Uns ist dermaßen die Flexibilität abhanden gekommen.
MfG

Ich will keine PCs haben, wo du keine CPU und RAM und GPU mehr wechseln kannst weil alles im SoC drinnen ist. Damit wird der Computer zur Spielkonsole oder zum Tablet degradiert.

Der Mac Mini ist faktisch ein iPad auf dem macOS läuft und ohne Display.

Loeschzwerg
2020-12-04, 20:11:39
Ich will keine PCs haben,

Ist ja auch ein Mac :freak:

Mal ernsthaft, was willst denn großartig wechseln? Wenn man etwas am Mini kritisch betrachten kann, dann ist es eher die verlötete SSD, aber das ist halt wieder typisch Apple und war schon bei der Intel Variante so. Jetzt ist halt der Hauptspeicher noch mit auf dem Träger des SoC, das macht das Kraut auch schon nicht mehr fett. Damit kann man sich arrangieren oder eben nicht.

Matrix316
2020-12-04, 20:40:55
Ist ja auch ein Mac :freak:

Mal ernsthaft, was willst denn großartig wechseln? Wenn man etwas am Mini kritisch betrachten kann, dann ist es eher die verlötete SSD, aber das ist halt wieder typisch Apple und war schon bei der Intel Variante so. Jetzt ist halt der Hauptspeicher noch mit auf dem Träger des SoC, das macht das Kraut auch schon nicht mehr fett. Damit kann man sich arrangieren oder eben nicht.
Mal abgesehen davon, dass es nicht gerade nachhaltig ist, wenn man alles auf den Chip lötet und man nix erweitern oder upgraden kann - und gleichzeitig macht man Werbung mit Umweltschutz weil man das Ladegrät beim iPhone weglässt - zwingt es auch einen Dazu statt 30 Euro für 8 GB ca. 220 Euro für 8 GB mehr zu bezahlen.:freak:

steve.it
2020-12-04, 20:51:32
Wenn man etwas am Mini kritisch betrachten kann, dann ist es eher die verlötete SSD, aber das ist halt wieder typisch Apple und war schon bei der Intel Variante so.
Nur zur Info.
Der Controller (macht Apple auch schon lange selber) + Krypto ist Bestandteil des M1 bzw. T2. Auf dem Board ist direkt FlashSpeicher verlötet. Es ist also keine SSD verlötet. Auch wenn das Endergebnis für den User hinsichtlich Austauschen/Aufrüsten keinen Unterschied macht.

Loeschzwerg
2020-12-04, 20:53:00
@Matrix: Mit Nachhaltigkeit brauchst eigentlich nicht argumentieren, in Zeiten von dünnen Notebooks (mit ebenfalls verlöteten Speicher!), Smartphones und Co.

Zum Aufpreis: Musst du ja nicht zahlen ^^

=Floi=
2020-12-04, 21:41:12
Zum Aufpreis: Musst du ja nicht zahlen ^^


Kommst du jetzt wirklich mit sowas?
Es gibt genug beispiele, wo durch smarte upgrades alte hardware gefragt ist und nicht gleich auf den müll wandert. Mit einer zu kleinen SSD oder zu wenig ram ist dies aber dann nicht mehr rettbar.

Loeschzwerg
2020-12-04, 21:59:46
Der Arbeitsspeicher ist in diesem Fall schlichtweg bedingt durch das Konzept. Speicherplatz sehe ich als Kritikpunkt, hatte ich ja aber schon angesprochen.

Und nicht bezahlen war durchaus ernst gemeint, welche andere Option hat man denn außer mit dem Geldbeutel zu stimmen? Das ganze Thema ist aber bei Apple nicht neu (siehe proprietäre Schnittstellen) und ist eine mühsame alte Diskussion.

davidzo
2020-12-04, 22:30:03
Gegenargument: Es wurde niemals ernsthaft versucht. Intel hat immer nur alte abgedroschene Fertigungsmethoden benutzt und deren Architektur hing teilweise Jahre hinter der "aktuellen" im Desktop hinterher. Intel hat den Lowpower-Markt immer als das betrachtet: Lowpower. Und damit war nicht die Leistungsaufnahme gemeint, sondern generell die Leistung. Auch AMD hat mit bereits zurückhinkender Fertigungstechnologie versucht von oben nach unten die Architektur in die Bereiche reinzudrücken, anstatt mit einem weißen Blatt Papier anzufangen.


Hast du unter einem Stein gelebt?
Bloß weil Sofia 3G mit Mali GPU nur in 28nm kam als es schon 22 oder gar 14nm gab heißt das nicht dass es immer so war. AMDs Apus waren zu der Zeit auch nur in 28nm und deutlich konkurrenzfähiger.

Intel hat diverse Generationen an Tablet CPUs mit cutting Edge IP und Fertigungsverfahren ausgestattet.

Schon bei der ersten Generation der Bonell Cores gab es eine Auskopplung für ultra mobiles, damals noch MID genannt (Mobile internet devices): Menlow
Gebaut im selben 45nm Verfahren wie die state of the art Nehalem CPUs zur gleichen Zeit. Niemand anders hatte ein so fortschrittliches Verfahren.
Das Ding war nur einfach nicht ausgereift, hatte eine zu hohe standby power und ein riesiges package.

Der Nachfolger Moorestown hat immerhin das Packageproblem behoben, aber erst Oaktrail / Lincroft hat endlich eine mobile IGP eingebunden.
Damals hat Intel beherzt zum absoluten Marktführer der mobile IGPs gegriffen, einem TBDR von PowerVR, nichts anderes hat Apple damals wie heute (gewissermaßen IP von IMGtec) auch getan. An der Hardware kann es nicht gelegen haben, die war performant und zeitgemäß ausgestattet, kam aber erst Jahre nach der Plattformvorstelung (siehe asus telefone von damals).
Gescheitert ist es dann an den Treibern und mangelhafter execution von Intels erfolgsverwöhntem Management.

Die Bay Trail tablet/handy CPUs kamen 2013 praktisch wenige Monate nach Ivybridge im modernsten 22nm Verfahren daher. Keine andere ultramobile CPU, erst recht nicht Apple oder sonst ein ARM mitbewerber hatte damals schon 3D Transistoren.

Cherrytrail war der letzte Versuch des Milliarden teuren Ausflugs in die ultra mobile Welt. Letztendlich hat man da ultra low power gebinnte CPUs für 20$ (Z8350=21$) verkauft die aufwändiger waren als die Desktop Atom N und J-CPUs waren die man für 50-70$ an den mann bringen konnte.
Zudem musste man sogar noch Microsoft bestechen Windows kostenlos zu verschenken beim Kauf einer Cherrytrail CPU (weshalb MS aus kannibalisierungsgründen das absurde ramlimit von 2gb eingeführt hat).
Das Schicksal besiegelt hat aber letztendlich dann das auftauchen der ersten thin clients und desktop Geräte mit cherry trail. Das hat gedroht die entry level Marge bei Intel so zu zerstören dass man endgültig die Reißleine gezogen hat.



Intel hat fast ein Jahrzehnt versucht mit einem weißen Blatt Papier anzufangen und 10 Milliarden darin versenkt. Nur verständlich dass sie das nach acht geschlagenen Jahren (2008-2016) und keinem Return of Invest in Sicht, abgeschrieben haben.

Hätten sie nur nicht ihre StrongArm Sparte damals verkauft sähe der Markt heute ganz anders aus...

Matrix316
2020-12-05, 00:05:58
Der Arbeitsspeicher ist in diesem Fall schlichtweg bedingt durch das Konzept. Speicherplatz sehe ich als Kritikpunkt, hatte ich ja aber schon angesprochen.

Und nicht bezahlen war durchaus ernst gemeint, welche andere Option hat man denn außer mit dem Geldbeutel zu stimmen? Das ganze Thema ist aber bei Apple nicht neu (siehe proprietäre Schnittstellen) und ist eine mühsame alte Diskussion.

Naja, Speicherplatz kann man ja mit externen Festplatten/SSDs erweitern. Das sehe ich jetzt nicht so kritisch. Aber schließ mal RAM an den USB-C an... Ups... wenn du 16 haben willst, statt 8 musst du 220 Euro Aufpreis zahlen. Da beißt die Maus keinen Faden ab. Und das ist einfach unverschämt. Vor allem, weil man die Intel Version des Mac Minis noch aufrüsten konnte.

Notebooks nehme ich mal aus, wobei man aktuelle Windows NBs durchaus noch mit RAM und auch SSDs erweitern kann. Nur die ultra dünnen sind wirklich komplett integriert. Aber bei Apple sind das ja nicht nur die Airs, sondern vielleicht kannst du nicht mal den nächsten iMac oder Mac Pro mit ARM aufrüsten. Ich bin gespannt.

Ailuros
2020-12-05, 07:00:09
Hast du unter einem Stein gelebt?
Bloß weil Sofia 3G mit Mali GPU nur in 28nm kam als es schon 22 oder gar 14nm gab heißt das nicht dass es immer so war. AMDs Apus waren zu der Zeit auch nur in 28nm und deutlich konkurrenzfähiger.

Intel hat diverse Generationen an Tablet CPUs mit cutting Edge IP und Fertigungsverfahren ausgestattet.

Schon bei der ersten Generation der Bonell Cores gab es eine Auskopplung für ultra mobiles, damals noch MID genannt (Mobile internet devices): Menlow
Gebaut im selben 45nm Verfahren wie die state of the art Nehalem CPUs zur gleichen Zeit. Niemand anders hatte ein so fortschrittliches Verfahren.
Das Ding war nur einfach nicht ausgereift, hatte eine zu hohe standby power und ein riesiges package.

Der Nachfolger Moorestown hat immerhin das Packageproblem behoben, aber erst Oaktrail / Lincroft hat endlich eine mobile IGP eingebunden.
Damals hat Intel beherzt zum absoluten Marktführer der mobile IGPs gegriffen, einem TBDR von PowerVR, nichts anderes hat Apple damals wie heute (gewissermaßen IP von IMGtec) auch getan. An der Hardware kann es nicht gelegen haben, die war performant und zeitgemäß ausgestattet, kam aber erst Jahre nach der Plattformvorstelung (siehe asus telefone von damals).
Gescheitert ist es dann an den Treibern und mangelhafter execution von Intels erfolgsverwöhntem Management.

Die Bay Trail tablet/handy CPUs kamen 2013 praktisch wenige Monate nach Ivybridge im modernsten 22nm Verfahren daher. Keine andere ultramobile CPU, erst recht nicht Apple oder sonst ein ARM mitbewerber hatte damals schon 3D Transistoren.

Cherrytrail war der letzte Versuch des Milliarden teuren Ausflugs in die ultra mobile Welt. Letztendlich hat man da ultra low power gebinnte CPUs für 20$ (Z8350=21$) verkauft die aufwändiger waren als die Desktop Atom N und J-CPUs waren die man für 50-70$ an den mann bringen konnte.
Zudem musste man sogar noch Microsoft bestechen Windows kostenlos zu verschenken beim Kauf einer Cherrytrail CPU (weshalb MS aus kannibalisierungsgründen das absurde ramlimit von 2gb eingeführt hat).
Das Schicksal besiegelt hat aber letztendlich dann das auftauchen der ersten thin clients und desktop Geräte mit cherry trail. Das hat gedroht die entry level Marge bei Intel so zu zerstören dass man endgültig die Reißleine gezogen hat.

Intel hat fast ein Jahrzehnt versucht mit einem weißen Blatt Papier anzufangen und 10 Milliarden darin versenkt. Nur verständlich dass sie das nach acht geschlagenen Jahren (2008-2016) und keinem Return of Invest in Sicht, abgeschrieben haben.

Hätten sie nur nicht ihre StrongArm Sparte damals verkauft sähe der Markt heute ganz anders aus...

Leider hat er schon einen Punkt. Man kann eben NICHT eine jegliche Architektur die ganze Strecke von oben nach unten oder auch umgekehrt jagen, sonst hat man mehr oder weniger einen jack of all trades, master of none.

Das obrige werde ich zwar nicht bezweifeln aber Intel hat leider NIE eine tabula rasa CPU fuer ULP mobile SoCs entwickelt noch haben sie je als sie IMG GPU IP benutzten je die Sache richtig angepackt.

1. Intel hat stets von IMG den billigsten Mist lizenziert, waehrend Apple immer die neueste IP anzielte.

2. Intel's Herstellungsprozesse waren zumindest bis zum obrigen Punkt nur fuer high end CPUs optimiert. Fuer GPUs war das Ganze suboptimal, ergo verwendete Intel erstmal ziemlich billige und ziemlich alte GPU IP und als sie einsahen dass die Leistung doch zu wuenschen uebrig laesst im Vergleich zu jeglicher Konkurrenz erhoehten sie die Frequenzen wobei dann auch gleich jegliches perf/mW ins Klo gespuelt wurde.

3. Apple entwickelt schon seit einer Ewigkeit ihre eigenen GPU Treiber selbst als sie noch reine IMG GPU IP integrierten. Erstens weil eine so kleine IP Schmiede wie IMG ihnen nicht zeitlich Treiber haette liefern koennen und das sogar noch mehr mit der Unzahl an Apple Applikationen die man durchrackern muss damit man mit neuen Optimierungen auch nicht gleich alles kapputt macht. Bei Intel war der netbook SoC mit IMG GPU IP ein totales Treiber-disaster wobei die Schuld zwischen IMG und Intel lag. IMG war zu spaet dran mit den windows Treibern und als sie diese fertig hatten hat sie Intel nie benutzt.

Intel hat viel mehr Milliarden in Projekte wie Larabee versenkt und hat es bis heute nicht geschafft eine wirklich anstaendige dGPU zu veroeffentlichen. Ja es ist mit ihren GPU und Treiber in den letzten Jahren sehenswert besser als frueher, aber dass sich AMD bzw. NVIDIA ploetzlich waermer anziehen muessen fuer ihre <mainstream dGPUs kann ich selbst heute noch nicht sehen. Es ist eben NICHT so dass Intel unfaehig ist; es ist einfach zu burokratisch verwustelt als gigantischer semi dass man schwer erwarten kann dass jemand die richtigen Entscheidungen fuer eine Erfolg in einem dieser Maerkten trifft. Dafuer braeuchte Intel ein dediziertes team dass von alpha bis omega hw und sw von Grund auf entwickelt und auch ungestoert arbeiten darf. Selbst Larabee wollten sie anfangs mit dem gleichen treiberteam das Treiber fuer iGPUs schreibt bedienen und ich will ernsthaft bezweifeln dass sie auch heute ein dediziertes team fuer dGPUs haben.

Ja Intel hat tatsaechlich lange versucht in den ULP SoC Markt einzudringen, aber es waren alle leider von Grund auf falsche Design-Entscheidungen und nirgends eine tabula rasa. Intel hat sehr wohl die resources einen vorbildlichen ULP SoC mit sogar eigener GPU IP u.a. zu entwickeln. Nur wollten sie nie ein grosses Risiko voll eingehen und man kam stets mit billigen und halbgahren Nebenloesungen an. Das was Intel jeweils pro Jahr in R&D in diese Projekte geschuettet hat war stets ein Witz im Vergleich zu dem was Apple bzw. QCOM, Samsung und HiSilicon in ihre jeweiligen SoC geschuettet haben.

Nebenbei kaufte QCOM vor Jahren die besten GPU engineers fuer ihre Adreno GPUs ein (u.v.a. Eric Demers ex AMD - einem der Vaeter des R300 bzw. ex ArtX als sie einsahen dass ihre DX11 GPUs doch wirklich zu schwer hw bugs haben https://www.anandtech.com/show/5538/amds-eric-demers-is-leaving-the-company und jemand von IMG der bei ihnen fuer 3 Jahrzehnte ihre GPU Entwicklung leitete hockt jetzt bei Huawei. Warum wird wohl keiner fragen wollen.....

***edit: zwar noch mehr OT: das Grundkonzept fuer Larabee war anfangs alles andere als absurd aber sie waren damit viel zu frueh dran und dazu war die Realisierung auch ziemlich bekloppt. Ich plauderte damals mit Intel engineers privat im B3D IRC chat und deren Frust war schwer zu illustrieren. Einer sagte sogar dass wenn LRB je etwas anstaendiges wird er aus der Kloschuessel trinken wuerde....tragische Ironie die eigentliche Zukunft der GPU heute sind compute orientierte pipelines und ray tracing.

Apropos ray tracing und zurueck zum Thema indirekt: Apple ist intensiv an ray tracing interessiert und eine fast volle Integrierung von RT in ihre GPUs ist lediglich eine Frage der Zeit.

=Floi=
2020-12-05, 08:27:21
Man könnte sicherlich einen neuen ram standard bringen, welcher auch für solche dünnen modelle geeignet wäre. Eigentlich dachte ich eher an den mac mini.

Hat der integrierte ram eine höhere durchsatzrate?

Ein höherer gebrauchtwert senkt auch die leasingkosten. Der großteil wird nicht das geld für die 16gb ram ausgeben und und so kann man gebrauchte geräte vergessen.

Loeschzwerg
2020-12-05, 10:32:57
Ist halt LPDDR4X-4266. Klar hätte da Apple etwas in Modulbauform entwickeln können, aber wozu wenn es auch so geht.

steve.it
2020-12-05, 11:14:11
Zu Intel:
Unabhängig der Technik denke ich, dass Intel auch zu spät dran war. Der mobile Markt hatte sich schon längst auf ARM eingeschossen. Da hat Intel so gesehen seine eigene Medizin zu schmecken bekommen, denn andere Architekturen hatten in der Desktop-Welt aufgrund von WinTEL unabhängig ihrer Qualitäten auch keine wirkliche Chance.
Hinzu kommt, dass die ARM-Welt flexibel ist gegenüber dem, was man von Intel so kennt. Wieso sollte man dann einen Intel SoC nutzen, selbst wenn der leichte Vorteile hätte.

Loeschzwerg
2020-12-05, 11:22:18
- Del, nachdem der Beitrag von Iamnobot verschwunden ist -

Lehdro
2020-12-05, 11:28:22
[...eine Menge valider Punkte...]
Schön und gut, aber wie du selber anschaulich darstellst, gab es jedes einzelne Mal einen Punkt, an dem das Produkt einfach nicht gut genug dafür war - es gab halt schon Konkurrenz in dem Markt, wenn man da rein will muss man massiv abliefern.
Diese Problem hat Apple einfach nicht, das Ding (M1) ist so rund, dass man schon richtig kleinteilig werden müsste um dort irgendetwas als "breaking point" kritisieren zu können. Anders bei den bisherigen x86 Lösungen: Dort gab und gibt es immer einen Hemmschuh der mehr als nur marginal ist. Es fehlt halt einfach der letzte Schritt, das absolute Commitment. Apple macht diesen, weil es eben deren Markt mit deren Produkten ist - anders als Intel und AMD, die nur das Innenleben verkaufen wollen aber am Gesamtkonzept nur eher am Rande interessiert sind. Apple verkauft hingegen das "ganze Erlebnis" - was auch deren Ruf ist und daher immens wichtig ist.

Loeschzwerg
2020-12-05, 11:37:29
anders als Intel und AMD, die nur das Innenleben verkaufen wollen aber am Gesamtkonzept nur eher am Rande interessiert sind.

So ist es. Wobei Intel sogar in bestimmten Bereichen versucht mit Programmen / Logos Designvorgaben zu machen und mittlerweile auch Referenz-Designs zur Verwendung anbietet. Das Gesamtkonzept rückt also auch hier etwas stärker in den Fokus.

Matrix316
2020-12-05, 14:43:44
Ist halt LPDDR4X-4266. Klar hätte da Apple etwas in Modulbauform entwickeln können, aber wozu wenn es auch so geht.
Natürlich ists schneller und besser wenn so viel wie möglich und so nah wie möglich platziert ist. Am besten wärs wenn RAM, SSD und GPU und CPU alles in einem Chip wäre. Aber soll man den Trend des Wegwerf PCs wirklich gutheißen? Klar hat Apple das im Notebook schon länger angefangen, aber ARM wird das ganze ja noch auf die Spitze getrieben.

Ich bin wirklich gespannt wie die das mit den größeren Desktop Geräten durchführen.

Und ich habe Angst, dass man irgendwann auch im PC Bereich nur noch Mainboards mit fest verlöteten CPUs, SSDs und RAM kaufen kann - wenn überhaupt.

Auch wenn das natürlich effizienter und schnellere Geräte ermöglicht - ist es das Wert? Wo bleibt dann der Spaß bei der Suche nach einer neuen Grafikkarte, CPU oder Mainboard? :ugly:

Loeschzwerg
2020-12-05, 15:14:28
Es ist halt ein Kampf der Konzepte mit Vor-/Nachteilen auf beiden Seiten. Apple hat für die Mobiles ein kompaktes, effizientes Paket benötigt und das hat man dann logischerweise auch für den Mini verwurstet.
"Verwurstet" deswegen weil man sich offensichtlich wenig Mühe gegeben hat, das Chassis hätte wesentlich kompakter ausfallen können.

Grundsätzlich bedeuten mehr ARM Prozessoren nicht den Abgesang der Modularität, es gibt hier inzwischen genügend Mainboards mit den geläufigen Schnittstellen (PCIe, DDR4, M.2, SATA...) im ATX Layout, lediglich die CPU ist verlötet. Da brauchst du dir in meinen Augen keine Gedanken machen, es wird auch in Zukunft noch genügend Bastelspaß geben.

Iamnobot
2020-12-05, 15:17:02
es wird auch in Zukunft noch genügend Bastelspaß geben.
Das ist gar nicht der Punkt.

Ailuros
2020-12-06, 05:51:19
Zu Intel:
Unabhängig der Technik denke ich, dass Intel auch zu spät dran war. Der mobile Markt hatte sich schon längst auf ARM eingeschossen. Da hat Intel so gesehen seine eigene Medizin zu schmecken bekommen, denn andere Architekturen hatten in der Desktop-Welt aufgrund von WinTEL unabhängig ihrer Qualitäten auch keine wirkliche Chance.
Hinzu kommt, dass die ARM-Welt flexibel ist gegenüber dem, was man von Intel so kennt. Wieso sollte man dann einen Intel SoC nutzen, selbst wenn der leichte Vorteile hätte.

Es gab und gibt keinen ULP SoC von Intel der genug Vorteile hat um sich in irgend einer Form zu beweisen. Ich hab hier ein 10" tablet herumhocken mit dem letzten Intel Atom SoC und wenn ich es mit meinem 7" smartphone (Qualcomm SD6xx mainstream SoC) bei gleich grosser Batterie und sogar hoeherer Aufloesung vergleiche sind die Unterschiede durchaus laecherlich. Noch schlimmer das tablet laeuft auf dual OS ergo sowohl Android als auch windows10, wobei man das letzte dank Stromverbrauch erstmal gleich vergessen kann. Im Intel SoC hockt eine hauseigene Intel iGPU die selbst bei einem laecherlichen Solitaire Spielchen die Batterie in Nullkommanichts lehren kann, stinknormales browsing insgesamt 4-5 Stunden u.a. (unter windows10 stets ca. eine Stunde weniger), wobei das smartphone locker die doppelte Laufzeit fuer alles in der Tasche hat (stets unter desktop browsing etc).

Vor Tagen musste ich fuer den Nachwuchs ein kleines laptop fuers videoconferencing (lockdown etc.) fuer die Schule kaufen und obwohl in dem Ding nur ein langweiliger Intel Celeron hockt (schon ein paar Generationen nach dem Atom oben) laesst die Batterielaufzeit auch hier zu wuenschen uebrig. Nun gut es gibt einen Regler wo man via sw die Leistung fuer etwas mehr Batterielaufzeit drosseln kann aber dann wird das Geraet noch sehenswert lahmarschiger als es ohnehin schon ist. Fuer das was ich es brauche ist das Ding durchaus ausreichend aber es haelt eben nicht 10 Stunden browsing am Stueck aus egal auf welchen Kopf ich es stelle....

Der Punkt ist dass wenn heute z.B. QCOM einen direkt konkurrierenden tablet/notebook SoC zum M1 verkaufen wuerde, ein jeglicher Intel bzw. vergleichbarer SoC es ziemlich schwer im Bereich perf/W haben wird. Dafuer reicht sogar ein aufgebohrter SD888.

LadyWhirlwind
2020-12-06, 10:39:22
Es gab und gibt keinen ULP SoC von Intel der genug Vorteile hat um sich in irgend einer Form zu beweisen. Ich hab hier ein 10" tablet herumhocken mit dem letzten Intel Atom SoC und wenn ich es mit meinem 7" smartphone (Qualcomm SD6xx mainstream SoC) bei gleich grosser Batterie und sogar hoeherer Aufloesung vergleiche sind die Unterschiede durchaus laecherlich. Noch schlimmer das tablet laeuft auf dual OS ergo sowohl Android als auch windows10, wobei man das letzte dank Stromverbrauch erstmal gleich vergessen kann. Im Intel SoC hockt eine hauseigene Intel iGPU die selbst bei einem laecherlichen Solitaire Spielchen die Batterie in Nullkommanichts lehren kann, stinknormales browsing insgesamt 4-5 Stunden u.a. (unter windows10 stets ca. eine Stunde weniger), wobei das smartphone locker die doppelte Laufzeit fuer alles in der Tasche hat (stets unter desktop browsing etc).

Vor Tagen musste ich fuer den Nachwuchs ein kleines laptop fuers videoconferencing (lockdown etc.) fuer die Schule kaufen und obwohl in dem Ding nur ein langweiliger Intel Celeron hockt (schon ein paar Generationen nach dem Atom oben) laesst die Batterielaufzeit auch hier zu wuenschen uebrig. Nun gut es gibt einen Regler wo man via sw die Leistung fuer etwas mehr Batterielaufzeit drosseln kann aber dann wird das Geraet noch sehenswert lahmarschiger als es ohnehin schon ist. Fuer das was ich es brauche ist das Ding durchaus ausreichend aber es haelt eben nicht 10 Stunden browsing am Stueck aus egal auf welchen Kopf ich es stelle....

Der Punkt ist dass wenn heute z.B. QCOM einen direkt konkurrierenden tablet/notebook SoC zum M1 verkaufen wuerde, ein jeglicher Intel bzw. vergleichbarer SoC es ziemlich schwer im Bereich perf/W haben wird. Dafuer reicht sogar ein aufgebohrter SD888.

Am Ende muss sich Intel (&AMD) fragen, ob es nicht an der Zeit ist, mit der einen oder anderen x86(_x64) Altlast aufzuräumen.

Und ja, Laptops mit anständiger Laufzeit auf x86 Basis sind rar. Wenn Apple dann bei der 2. Generation die 1. Generation verbilligt, dann knackt das Air die 1000 Euro Marke. Wenn Apple will, dann kann das Einstiegsmodel für 899. € gekauft werden.

Für mein 15“ XPS (UHD) mit anständiger Laufzeit habe ich am Black Friday 1999 CHF bezahlt. Da wirds in 2-3 Jahren sicher taugliche Alternativen von Apple geben.

smalM
2020-12-06, 12:56:50
Betrachtungen zur M1 GPU (https://www.realworldtech.com/forum/?threadid=197759)

deLuxX`
2020-12-06, 15:07:51
Seltsam, wie schnell hier Posts verschwinden, in denen nicht dem heiligen Apfel gehuldigt wird :)
Ja total seltsam...bestimmt eine große Verschwörung.

davidzo
2020-12-06, 15:49:10
Leider hat er schon einen Punkt. Man kann eben NICHT eine jegliche Architektur die ganze Strecke von oben nach unten oder auch umgekehrt jagen, sonst hat man mehr oder weniger einen jack of all trades, master of none.

Das obrige werde ich zwar nicht bezweifeln aber Intel hat leider NIE eine tabula rasa CPU fuer ULP mobile SoCs entwickelt noch haben sie je als sie IMG GPU IP benutzten je die Sache richtig angepackt.

Lehdro schrieb aber etwas von Fertigungsrückstand und das stimmt so einfach nicht. Sicher, manche Prozesse kamen bei der Core Architektur deutlich früher, aber ein Fertigungsrückstand ist im industrieweiten vergleich nicht zu erkennen gewesen, eher umgekehrt.
Um damit zu sagen, ja es liegt auch an der ISA. Maximal Effiziente Cores zu bauen ist mit x86 und seinen diversen Erweiterungen einfach schwieriger als mit RISC. Das war die Aussage worauf Lehdro sich bezog bzw. widersprache und ich finde im Gegenteil das an der Aussage etwas dran ist.

Dass ein Konzern wie Intel aufgrund seiner Behäbigkeit immer mehr Entwicklungsressourcen verbraucht (Nicht nur manpower, sondern auch auch Zeit) als ein AMD oder Apple Hardwareteam bestreite ich nicht.

Wo hast du die Daten her dass Larabee angeblich teurer war als die Tablet Ausflüge? In die Tabletstrategie zählte auch Intels Modemdivision mit enormen 5G investitionen. Ich glaube kaum dass ein viel kürzer laufendes GPUprojekt welches nie den Endkundenmarkt erreicht hat ebensoviel Entwicklungskosten verursacht hat.

robbitop
2020-12-07, 11:22:20
Am Ende muss sich Intel (&AMD) fragen, ob es nicht an der Zeit ist, mit der einen oder anderen x86(_x64) Altlast aufzuräumen.
Das Problem ist dann immer der Übergang für die Software. Den Übergang so zu machen wie Apple gerade, kann kaum jemand so nachmachen, denn nur Apple hat den kompletten HW und SW Stack in der Hand.

Kann aber ggf. mit ARM der Fall sein. MS und Qualcomm leisten schon heute die Vorarbeit. Ggf. kommt irgendwann dann der Punkt, an dem die Software gut verfügbar ist für Windows on ARM und ggf. andere OS, so dass beide auf ARM umsteigen können.

Auch RISC-V wäre interessant - aber dort sehe ich diesen Punkt für die gängigen OS noch weiter in der Zukunft - die Wachstumsraten sind aber vielversprechend.
Oder eine komplett neue ISA ohne Altlasten. Das wäre auch spannend - aber wohl mangels SW praktisch zum Misserfolg verdammt.

AMD und Intel täten IMO gut daran, bei ARM dran zu bleiben und ein Auge auf RISC-V zu haben. Und wenn/falls der Punkt des Umschlages greifbar ist, dann auch nicht den Anschluss verloren zu haben.
Ich habe das Gefühl, dass x86 potenziell nicht ewig die dominierende uArch bleiben könnte im PC/Notebook Bereich. Es wird allerdings sicherlich noch eine ganze Weile dauern, falls es kippen sollte.

smalM
2020-12-07, 13:36:48
Mark Gurman auf Bloomberg über zukünftige Mac-SoCs (https://www.bloomberg.com/news/articles/2020-12-07/apple-preps-next-mac-chips-with-aim-to-outclass-highest-end-pcs).

Matrix316
2020-12-07, 14:59:06
Das Problem ist dann immer der Übergang für die Software. Den Übergang so zu machen wie Apple gerade, kann kaum jemand so nachmachen, denn nur Apple hat den kompletten HW und SW Stack in der Hand.[...]
Vor allem gibt es für Windows viel viel mehr 3rd Party software. Ob sowas wie Rosetta auch für ein Cyberpunk funktionieren würde? :freak:

Die Frage ist auch, was ist mit externen Grafikkarten. Die sind ja bei den M1 Chips aktuell nicht vorgesehen. Die Treiber, die Schnittstellen, müsste ja alles neu kompilliert werden. Oder vielleicht sogar neu programmiert werden. Weiß nicht obs bei ARM die gleichen Befehle wie für X86 gibt. Vor allem müsste man in der Windows Welt für lange Zeit beide Systeme supporten und ich glaube nicht, dass in absehbarer Zeit alle X86 Systeme zu ARM ausgetauscht werden würden, selbst wenn es von Intel und AMD vergleichbare Chips geben würde.

Und was sagen Asus, Gigabyte, MSI etc. die ganzen Boardhersteller dazu? Kriegt jeder ein Kontigent von SOCs und verkauft dann die Boards mit verlöteter CPU? :ugly:

Ich glaube sowas wie Apple können Microsoft und Intel und AMD nicht machen. Eher wird man die CPUs intern mit RISC/ARM Technik erweitern, aber nicht komplett umstellen. Der Task ist glaube ich unmöglich durchzuführen.

robbitop
2020-12-07, 15:02:12
Ich kann mir aber vorstellen, dass über die Zeit und langsam wachsende HW Basis immer mehr Software auch für ARM kompiliert wird. ARM und x86. Irgendwann könnte dann die kritische Masse erreicht werden, so dass nur sehr wenig emuliert werden muss - ggf. dann rückwirkend alte Software (die heute neu ist), so dass dann Emulation ausreichend schnell wäre.

Diese Übergangszeit wird vermutlich, sofern es denn so kommt, aber um ein Vielfaches länger sein. Aber wer weiß: ggf haben wir in 1-2 Jahrzehnten alle ARM CPUs und es ist dann das normalste von der Welt. :)

amdfanuwe
2020-12-07, 15:42:02
Aber wer weiß: ggf haben wir in 1-2 Jahrzehnten alle ARM CPUs und es ist dann das normalste von der Welt. :)
Guck mal in dein Handy.

ARM und Intel haben unterschiedliche Befehle, unterschiedliche Fixed Function, unterschiedliche I/O etc.

So lange man nur High Level Code portieren muß, klappt das meistens durch recompilieren.
Probleme treten dann beim OS API auf.
Ein Kollege hat mal Tage damit verbracht, einen Fehler zu finden. Beim Original wurden die oberen 16 Bit ignoriert bei der Übergabe an den Treiber, beim ARM System mit Wine Emulator nicht, was zu abstürzen führte.
Da ging die Fehlersuche ins OS und den Treiber. Nicht jedermannns Sache ohne Sourcecode.
Da läuft eine Menge schlampiger Code rum, da ist es oft mit einfachem recompiling nicht getan.
Gibt selbst Ärger bei Portierung von einer Linux Distribution auf eine andere.

Am besten bleibt man beim Original System für das der Code erstellt wurde.

robbitop
2020-12-07, 16:39:14
Ja das kostet definitiv Aufwand für jede einzelne Applikation. Aber sobald die kritische Masse erreicht ist, ist es sicherlich wie ein Domino Effekt, der dann immer mehr Entwickler animiert, diese Arbeit zu investieren. In einem Zeitraum von Jahren oder gar Jahrzehnten ist doch sicherlich einiges möglich.

ChaosTM
2020-12-07, 16:59:56
Die 32Core Chips nächstes Jahre werden spannend.
Ob AMD und intel an ARM CPUs basteln ?

add.: ich vergas Nvidia - von denen kommt garantiert was interessantes

amdfanuwe
2020-12-07, 17:55:37
In einem Zeitraum von Jahren oder gar Jahrzehnten ist doch sicherlich einiges möglich.
Davon träumt man seit den ersten PCs.
Die Industrie tickt halt anders.

Rooter
2020-12-07, 18:16:40
Oder eine komplett neue ISA ohne Altlasten. Das wäre auch spannend - aber wohl mangels SW praktisch zum Misserfolg verdammt.Vielleicht könnte man dieser neuen ISA ja ein paar Gene von x86 mitgeben. Natürlich nicht das fette und langsame Zeug. Gerade genug Basics, dass Emulation schön schnell läuft.

MfG
Rooter

robbitop
2020-12-07, 18:16:46
Ja aber Zeiten ändern sich auch. Qualcomm und MS investieren nicht umsonst ziemlich viel Zeit und Geld. Die Ergebnisse von Apple werden sicherlich die Industrie ehe anstacheln hier weiter zu machen. ARM für Windows gibt es ja schon und einen Emulator auch und wiederkehrende Produkte. Mal sehen, was MS und andere daraus machen werden.
In der Hinsicht lief bis vor kurzem ja noch wenig bis gar nichts.

urpils
2020-12-07, 19:09:29
also ichwehe nicht, dass sich das auf ARM vs. x86 reduzieren ließe. Ja - x86 hat einige (!!!!) architekturbedingte Altlasten und Nachteile - aber es ist nicht so, dass ARM inhärent grundlegend "besser" wäre.

Es kommt sicherlich eine Menge zusammen: viele Altlasten die Intel aus Kompatibilitätsgründen mitschleppt, rieeeesige Mengen an Altlasten, die Windows mitschleppt - aus Kompatibilitätsgründen.

Geringe Margen bei Low-Power-Chips verhindern wahrscheinlich, dass sich Firmen im großen Stil "trauen" dieses Risiko einzugehen, um von Unten nach Oben aufzustocken. Apple ist hier nunmal in einer recht einzigartigen Position: können über OS, API, Programmiersprache, Compiler, Bibliotheken, "Emulator (Rosetta)" und die Chuzpe echt einfach alles was älter als ein paar Jahre ist abzuschließen ihre komplette Plattform nach vorne zu bringen.

In den technischen Details hatte Apple schon mehrfach Erfahrung (Motorola, PPC, Intel, jetzt eigene Chips), sie haben ihre Hauptplatform (iOS) ohnehin seit Tag 1 auf ARM laufen mitsamt aller dazugehörigen Technologien... es ist für Apple in dieser Kombination also (auch mit Mut) möglich das durchzuziehen...

Die "Industrie" ist ansonsten wahrscheinlich einfach zu disjunkt, um ohne Koordination an allen Schnittstellen einen gemeinsamen Nenner zu finden - zumal es mit Winter einfach Tonnenweise mehr Legacy und Unternehmen gibt, die sich auf dieHinterbeine stellen, wenn sich was ändert...

Sofern nicht Qualcomm DEUTLICH mehr liefert als in den letzten Jahren - oder RISCV noch ein paar Jahre reift wüsste ich nicht, wie sich am Status Quo all zu schnell was ändern sollte...

Selbst wenn nVidia JETZT startet - das dauert 5-10 Jahre, bis die auf nem Stand wie Apple sind... :/

mboeller
2020-12-07, 20:55:04
Sofern nicht Qualcomm DEUTLICH mehr liefert als in den letzten Jahren - oder RISCV noch ein paar Jahre reift wüsste ich nicht, wie sich am Status Quo all zu schnell was ändern sollte...


ich glaube, dass der Hypervisor im SD888 ein Anzeichen dafür sind, dass sie in Zukunft eher auf einen Mix aus Win10 und Android setzen werden und nicht die reine emulierte Win10-Performance im Vordergrund stehen wird. Ich kann mich aber auch komplett irren.

=Floi=
2020-12-07, 22:15:19
Das problem ist WIN. Das ist alles viel zu aufgeblasen mit den zig diensten im hintergrund.

Ailuros
2020-12-07, 22:18:17
Lehdro schrieb aber etwas von Fertigungsrückstand und das stimmt so einfach nicht. Sicher, manche Prozesse kamen bei der Core Architektur deutlich früher, aber ein Fertigungsrückstand ist im industrieweiten vergleich nicht zu erkennen gewesen, eher umgekehrt.

Einen Fertigungsrueckstand konnte ich nicht sehen, sie waren aber stets 1-2 Generationen hinter Apple fuer jegliche IP die sie benutzten (GPU, decoders etc.)

Um damit zu sagen, ja es liegt auch an der ISA. Maximal Effiziente Cores zu bauen ist mit x86 und seinen diversen Erweiterungen einfach schwieriger als mit RISC. Das war die Aussage worauf Lehdro sich bezog bzw. widersprache und ich finde im Gegenteil das an der Aussage etwas dran ist.

Atom CPUs wurden eben leider nicht von Grund auf fuer perf/W entwickelt. Das Maerchen dass man via software bzw. einem einfachem DVFS alles auf jeglichem Prozessor (egal ob CPU, GPU oder was noch...) regeln kann wird wohl keiner glauben. Latenzen und nochmal Latenzen und dafuer sind selbst ihre eigenen iGPUs total nutzlos damals und auch heute fuer jeglichen ULP SoC. An einem desktop oder laptop merkt man solche Kleinigkeiten selten bis nie aber mir lehrt die integrierte GPU im tablet in ca. 3 Stunden wenn ich solitaire mit dem Mist spiele. Die Applikation ist von Klondike und man kann sie fuer alles android runterladen. Wuerden wir jetzt die Debatte auf smartphones erweitern wirds gleich noch schlimmer.

Dass ein Konzern wie Intel aufgrund seiner Behäbigkeit immer mehr Entwicklungsressourcen verbraucht (Nicht nur manpower, sondern auch auch Zeit) als ein AMD oder Apple Hardwareteam bestreite ich nicht.

Ich glaube Du hast eine schlechte Vorstellung wie viele engineers Apple generell benutzt sowohl fuer hw als auch sw.

Wo hast du die Daten her dass Larabee angeblich teurer war als die Tablet Ausflüge? In die Tabletstrategie zählte auch Intels Modemdivision mit enormen 5G investitionen. Ich glaube kaum dass ein viel kürzer laufendes GPUprojekt welches nie den Endkundenmarkt erreicht hat ebensoviel Entwicklungskosten verursacht hat.

LRB Prime das nicht das Tageslicht sah war $1 Mrd schwer. Intel hat die Nachfolgs-Projekte ueber etliche Generationen nie eingestampft nur waren es HPC dedizierte Schleudern. Ob sie je wirklich Gewinn davon gemacht haben steht in den Sternen, aber mit den Marktanzahlen von NVIDIA kann ich es mir schwer vorstellen. ULP war uebrigens nicht nur tablets; die smartphone SoCs wollte nur kein Schwein kaufen wegen zu hohem Stromverbrauch.

Ailuros
2020-12-07, 22:22:52
Betrachtungen zur M1 GPU (https://www.realworldtech.com/forum/?threadid=197759)

Imagination Rogue GPU IP ist schon seit seiner ersten Generation ueber 2 MADDs/ALU/clock faehig. Apple hat trotz allem nicht nur fast den gesamten GPU code umgeschrieben seit etlichen Generationen sondern benutzt auch nur wahlweise diverse TBDR Optimierungen wie sie ihnen am besten schmecken. Switching FB/RTs ohne jegliches flushing ist auf dem PowerVR schon seit 2 Jahrzehnten moeglich als einfaches Beispiel; im Gegensatz setzt wohl Apple auf kleine back to back renders fuer solche Faelle.

Zossel
2020-12-08, 07:04:35
Auch RISC-V wäre interessant - aber dort sehe ich diesen Punkt für die gängigen OS noch weiter in der Zukunft - die Wachstumsraten sind aber vielversprechend.

Der Desktopmarkt auf Wintel Basis ist doch eh nur ein Bruchteil des Marktes, und leider ein äußerst Renitenter.

Zossel
2020-12-08, 07:10:53
Das problem ist WIN. Das ist alles viel zu aufgeblasen mit den zig diensten im hintergrund.

Ach immer wieder die selben Scheisshausparolen, jedes moderne Desktop-OS und Handy-OS ist mit zig Diensten im Hintergrund aufgeblasen.

Benutzername
2020-12-08, 07:24:58
Ach immer wieder die selben Scheisshausparolen, jedes moderne Desktop-OS und Handy-OS ist mit zig Diensten im Hintergrund aufgeblasen.


Den Unterschied sieht man ja auch direkt zwischen MacOS auf intel und MAcOS auf ARM. x86 ist halt manchmal hakelig und schleppt noch Legacy Kram wie Interrupts und was nicht alles mit sich herum. was sich halt so in vier Jahrzehnten IBM-PC halt so angesammelt hat.

Das ist ja alles von grund auf neu gemacht beim ARM Mac und hat auch erheblich mehr spezialisierte Recheneinheiten für zB Videoschnitt. Natürlich fluppt der dann besser als ein corei3.


-------------------------------------------

in other news: die kleinen MacMini Kästchen verkaufen sich in Japan wie geschnitten Suschi: https://macnotes.de/2020/12/01/mac-mini-katapultiert-apple-in-japan-auf-platz-1/

27% marktanteil bei den Verkäufen derzeit ist schon ordentlich. Gut, bei Apple Benutzern ist auch der Aufrüstdruck erheblich größer. Ich meine die letzten Macmini mit intel hatten core i3/5/7 8000er? Vermutlichauch die meisten mit nur 8GB RAM.

robbitop
2020-12-08, 09:21:06
Ich glaube Du hast eine schlechte Vorstellung wie viele engineers Apple generell benutzt sowohl fuer hw als auch sw.

Das ist sicherlich mittlerweile eine kleine Armee. Aber Apple scheint in ihrer SoC Sparte zumindest bis jetzt ziemlich flink zu agieren. Ggf. ist die Organisationsstruktur im Konzern auch einfach besser aufgebaut.

davidzo
2020-12-08, 12:55:27
Ich glaube Du hast eine schlechte Vorstellung wie viele engineers Apple generell benutzt sowohl fuer hw als auch sw.


Was für eine Unterstellung, ich glaube du musst mal besser lesen lernen.
Ich schrieb etwas von Behäbigkeit, du liest Headcount. Das eine hat nichts mit dem anderen zutun. Intel hat einfach viel mehr Tradition und Rituale als das relativ junge Apple SOC Development Team. Genau wie bei der CDU werden bei Intel untere und mittlere Management-Posten nach Dauer der Unternehmenszugehörigkeit verteilt und nicht nach Talent und Fähigkeit. Vor kurzem war das auch im top Management so. Wobei man bezweifeln kann dass sich das geändert hat wenn man Jim Kellers schnellen Abgang interpretiert. Es ist nicht nur die Konzernstruktur, die könnte man durch eine harten Cut aufrollen, sondern auch ein kulturelles Problem welches Intel hier nicht mehr konkurrenzfähig macht. Erzähl das mal einem Ingenieur mit 30 Jahren Unternehmenszugehörigkeit, dass er nicht nächstes Jahr Teamleiter wird weil es begabtere, engagiertere jüngere und mit besseren sozialen skills ausgestattete Mitarbeiter dafür gibt.




LRB Prime das nicht das Tageslicht sah war $1 Mrd schwer. Intel hat die Nachfolgs-Projekte ueber etliche Generationen nie eingestampft nur waren es HPC dedizierte Schleudern. Ob sie je wirklich Gewinn davon gemacht haben steht in den Sternen, aber mit den Marktanzahlen von NVIDIA kann ich es mir schwer vorstellen. ULP war uebrigens nicht nur tablets; die smartphone SoCs wollte nur kein Schwein kaufen wegen zu hohem Stromverbrauch.

Eben, dachte ich mir. Ein miniprojekt im Vergleich zum 5G Struggle oder den fünf Generationen Tabletchips die man vermasselt hat. BTW, bei Sofia war es nicht die Leistungsaufnahme, sondern die ständigen Verzögerungen. Das teil war einfach Jahre später dran als geplant und dann war die software mal wieder nicht bereit. Kompatibilität war über die ganze phase der x86 android devices ein Problem das nie ganz weggehen wollte. Als sie dann verfügbar gewesen wären war sofia nur mehr für lowcost produkte tauglich.


BTW, anderes Thema: Gewissermaßen hat Intel die Ultramobile Strategie nach Cherrytrail und den gecancelten Sofia Socs eben nicht ganz eingestampft. Man hat einfach ein neues Projekt für die Ingenieure gesucht und herausgekommen ist Lakefield. Wenn man sich anguckt mit was für einer TDP der M1 im air läuft, bzw. dass der nur von einem wenige Quadratzentimeter großem Aluminiumblech gekühlt wird(ja, nicht mal Kupfer oder gar ne heatpipe!), dann ist das durchaus vergleichbar mit dem was Intel sich vorgenommen hat.

Interessant wie durch die Wahl unterschiedlicher Fertigungsstrategien und Architekturen zwei so gänzlich verschiedene Socs heraus gekommen sind.
Dabei gibt es rein theoretisch viele Gemeinsamkeiten. Efficiency Cores, POP Memory, Einsatz in premium ultramobiles (= neuer Name für Ultrabooks/ Macbook Air), passivkühlung.

Bei der Umsetzung wird aber noch viel trauriger deutlich wie weit abgeschlagen Intel mittlerweile ist. Klar das Apple in 5nm mit 16mrd Transistoren mehr erreichen kann, aber man darf nicht vergessen dass allein das Compute Die von Lakefield schon auf 4Mrd Xtors kommt.

smalM
2020-12-08, 14:11:53
Bei der Umsetzung wird aber noch viel trauriger deutlich wie weit abgeschlagen Intel mittlerweile ist. Klar das Apple in 5nm mit 16mrd Transistoren mehr erreichen kann, aber man darf nicht vergessen dass allein das Compute Die von Lakefield schon auf 4Mrd Xtors kommt.
Und daß dieses Die schon 82mm² groß ist, was nahe legt, daß Intel keine ULP-Variante des 10nm+ zur Verfügung hat(te), entweder weil sie nicht entwickelt wurde oder weil sie nicht funktioniert.

Zossel
2020-12-08, 15:56:36
Den Unterschied sieht man ja auch direkt zwischen MacOS auf intel und MAcOS auf ARM. x86 ist halt manchmal hakelig und schleppt noch Legacy Kram wie Interrupts und was nicht alles mit sich herum. was sich halt so in vier Jahrzehnten IBM-PC halt so angesammelt hat.

Also einen Computer ohne Interrupts würde ich mir garantiert nicht kaufen, aber das hätte bei Apple eine gewisse Tradition, die CPU im Apple II hatte zwar Interrupts allerdings wurden die nicht genutzt sondern zeigten in den RomMonitor.

Und zumindest die Cortex-Mx haben eigentlich einen ziemlich geilen Interruptcontroller .....

Zossel
2020-12-08, 15:59:42
aber man darf nicht vergessen dass allein das Compute Die von Lakefield schon auf 4Mrd Xtors kommt.

Was sind "Xtors"?

Lehdro
2020-12-08, 16:14:25
Was sind "Xtors"?
Transistoren. Wobei ich die "Abkürzung" auch ein Unding (https://www.google.com/search?q=xtors) finde. Ist das Wort wirklich zu lang? :redface:

Zossel
2020-12-08, 16:18:38
Transistoren. Wobei ich die "Abkürzung" auch ein Unding (https://www.google.com/search?q=xtors) finde. Ist das Wort wirklich zu lang? :redface:

In der deutschen Sprachen bietet sich "Transen" als Abkürzung an.

Ailuros
2020-12-08, 22:38:38
Was für eine Unterstellung, ich glaube du musst mal besser lesen lernen.
Ich schrieb etwas von Behäbigkeit, du liest Headcount. Das eine hat nichts mit dem anderen zutun. Intel hat einfach viel mehr Tradition und Rituale als das relativ junge Apple SOC Development Team. Genau wie bei der CDU werden bei Intel untere und mittlere Management-Posten nach Dauer der Unternehmenszugehörigkeit verteilt und nicht nach Talent und Fähigkeit. Vor kurzem war das auch im top Management so. Wobei man bezweifeln kann dass sich das geändert hat wenn man Jim Kellers schnellen Abgang interpretiert. Es ist nicht nur die Konzernstruktur, die könnte man durch eine harten Cut aufrollen, sondern auch ein kulturelles Problem welches Intel hier nicht mehr konkurrenzfähig macht. Erzähl das mal einem Ingenieur mit 30 Jahren Unternehmenszugehörigkeit, dass er nicht nächstes Jahr Teamleiter wird weil es begabtere, engagiertere jüngere und mit besseren sozialen skills ausgestattete Mitarbeiter dafür gibt.

Beschissenes Management hat zahllose Ansichtspunkte. Hat dieses nicht die richtige Vision ist meistens alles falsch von der Philosophie ueber Strategien, resources, Anzahl der Angestellten usw. Boes war es keineswegs gemeint, ich denke nur leider meistens ein paar Millimeter weiter.

Eben, dachte ich mir. Ein miniprojekt im Vergleich zum 5G Struggle oder den fünf Generationen Tabletchips die man vermasselt hat. BTW, bei Sofia war es nicht die Leistungsaufnahme, sondern die ständigen Verzögerungen. Das teil war einfach Jahre später dran als geplant und dann war die software mal wieder nicht bereit. Kompatibilität war über die ganze phase der x86 android devices ein Problem das nie ganz weggehen wollte. Als sie dann verfügbar gewesen wären war sofia nur mehr für lowcost produkte tauglich.

Intel hatte fuer mich nie ein wahre Vision fuer ULP SoCs. Das was sie veroeffentlicht haben zeigte mir zumindest dass sie nicht wirklich wussten was genau sie erreichen wollten.


BTW, anderes Thema: Gewissermaßen hat Intel die Ultramobile Strategie nach Cherrytrail und den gecancelten Sofia Socs eben nicht ganz eingestampft. Man hat einfach ein neues Projekt für die Ingenieure gesucht und herausgekommen ist Lakefield. Wenn man sich anguckt mit was für einer TDP der M1 im air läuft, bzw. dass der nur von einem wenige Quadratzentimeter großem Aluminiumblech gekühlt wird(ja, nicht mal Kupfer oder gar ne heatpipe!), dann ist das durchaus vergleichbar mit dem was Intel sich vorgenommen hat.

Interessant wie durch die Wahl unterschiedlicher Fertigungsstrategien und Architekturen zwei so gänzlich verschiedene Socs heraus gekommen sind.
Dabei gibt es rein theoretisch viele Gemeinsamkeiten. Efficiency Cores, POP Memory, Einsatz in premium ultramobiles (= neuer Name für Ultrabooks/ Macbook Air), passivkühlung.

Bei der Umsetzung wird aber noch viel trauriger deutlich wie weit abgeschlagen Intel mittlerweile ist. Klar das Apple in 5nm mit 16mrd Transistoren mehr erreichen kann, aber man darf nicht vergessen dass allein das Compute Die von Lakefield schon auf 4Mrd Xtors kommt.

Intel hat den ULP Zug schon seit langem verpasst. Dafuer haben sich Qualcomm, Samsung, Apple und HiSilicon schon seit langem etabliert. Fuer Intel spezifisch das was sie heute noch retten koennen ist dass Apple in ihrer ausgekapselten high end hw Welt nicht noch weiter waechst als heute. Ein Verkaufspublikum gibt es IMHO dafuer eigentlich nicht, aber es ist schon so dass es unangenehmer fuer die gesamte Wintel Fraktion geworden ist.

Zossel
2020-12-09, 06:01:35
Intel hat den ULP Zug schon seit langem verpasst. Dafuer haben sich Qualcomm, Samsung, Apple und HiSilicon schon seit langem etabliert. Fuer Intel spezifisch das was sie heute noch retten koennen ist dass Apple in ihrer ausgekapselten high end hw Welt nicht noch weiter waechst als heute. Ein Verkaufspublikum gibt es IMHO dafuer eigentlich nicht, aber es ist schon so dass es unangenehmer fuer die gesamte Wintel Fraktion geworden ist.

Zusammenfassung: Bisher hat Intel alles was nicht mit X64/X86 (und X64 ist von AMD) zu tun hat verkackt.

Ailuros
2020-12-09, 19:37:52
Zusammenfassung: Bisher hat Intel alles was nicht mit X64/X86 (und X64 ist von AMD) zu tun hat verkackt.

Intel bleibt nach wie vor der groesste Semiconductor manufacturer weltweit und daran wird sich zumindest fuer die naechsten paar Jahre schwer etwas aendern.

Zum Thema:

https://semiaccurate.com/2020/12/07/apple-gets-creative-with-their-upcoming-cpus/

Zwar nichts Neues aber es duerfte schon etwas daran liegen. Die Geruechte fuer die GPU config halte ich momentan brutal uebertrieben (die Charlie auch nicht beruehrt) aber mich wuerden auch in weniger absehbarer Zukunft Ueberraschungen in breiten API Aenderungen kein bisschen wundern.

Das ist sicherlich mittlerweile eine kleine Armee. Aber Apple scheint in ihrer SoC Sparte zumindest bis jetzt ziemlich flink zu agieren. Ggf. ist die Organisationsstruktur im Konzern auch einfach besser aufgebaut.

Zu Zeiten wo Uttar noch compiler basierende Optimierungen bei IMG fuer Rogue geschrieben hat, lieferten diese jedes Mal ca. 20-30% mehr Leistung. Es dauerte aber um die 6 Monate meistens bis Apple diese Treiber-Version benutzte um darauf ihren eigenen Treiber zu entwickeln eben wegen der sehr hohen Anzahl der Applikationen die sie durchkaemmen mussten. Trotz allem stets sehenswert schneller als jeder andere 0815 SoC Hersteller.

Zossel
2020-12-09, 21:48:14
Intel bleibt nach wie vor der groesste Semiconductor manufacturer weltweit und daran wird sich zumindest fuer die naechsten paar Jahre schwer etwas aendern.

Na ja, je nachdem was google für "semiconductor market shares" ausspuckt ist das bei weiten nicht so eindeutig wie du suggerierst.

=Floi=
2020-12-14, 05:36:25
Das ist sicherlich mittlerweile eine kleine Armee. Aber Apple scheint in ihrer SoC Sparte zumindest bis jetzt ziemlich flink zu agieren. Ggf. ist die Organisationsstruktur im Konzern auch einfach besser aufgebaut.

Ich sehe den unterschied im willen und im budget. Bei intel darf alles nichts kosten und das hemmt die ganze firma. Es kann mir auch keiner erzählen, dass man so viele externe leute zukaufen müsste und im eigenen haus keiner sitzt.

Intel schafft nichtmal die zeitnahe integration von pcie 4.0. Die reihe an fails am/im design bleibt lange und wird nicht kürzer. Die jährliche produkterneuerung ist mittlerweile auch überholt und kostet sicherlich nur noch geld.

Matrix316
2020-12-14, 11:33:05
Ok. Bin überzeugt. Die Kiste rennt. ;)

CYklj1w9rrg

Ist vielleicht garnet so schlecht. Nur muss man anscheinend aufpassen bei ganz spezieller Hardware und Software die halt noch nicht unterstützt wird.

smalM
2020-12-21, 18:21:15
Tech Insight (https://www.techinsights.com/blog/two-new-apple-socs-two-market-events-apple-a14-and-m1)

Die-Shot von A14 und M1.
Leider nicht besonders doll aufgelöst, aber immerhin zumindest der erste vom A14, der nicht nur irgendeinen Metal-Layer zeigt...

=Floi=
2020-12-24, 22:17:54
danke

=Floi=
2020-12-26, 16:01:46
Wird es einen A15 geben, oder setzt aplle bei den tablets auch auf einen M1?