Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27]

urpils
2025-07-17, 20:29:20
ich lad's grad runter - wie "bencht" man das Spiel denn? gibts da ne Option oder kann ich da parallel bis es lädt schon was vorbereiten?

Demogod
2025-07-17, 20:35:24
Gibt n Bench in den Grafikoptionen

urpils
2025-07-17, 21:58:22
mit welcher Einstellung? Hab erstmal nur mit max laufen lassen inkl. Path Tracing + MetalFX Q + FSR 3.1 FG

M3 MAX + 48GB
1080P : 42.77 FPS
2160P : 13.42 FPS

auch alles auf Max wie bei dir:

M4max + 48GB (und nen Haufen Programme im Hintergrund ;) )
1080P: 59,59 FPS avg und 50,87 FPS min → aber darunter echt brutal ungleichmäßige Frametimes
2160P: 18,67 FPS avg und 16,11 FPS min

aber was ich realistischer finde:

Setting: "for this Mac" + MetalFX Quality + Ray-Tracing alles auf Max, außer Path-Tracing (deaktiviert):
1440P: 30,36 FPS avg und 20,01 FPS min

Setting: "for this Mac" + MetalFX Quality + Ray-Tracing alles auf Max, außer Path-Tracing (deaktiviert) + FSR 3.1 FG:
1440P: 56,67 FPS avg und 47,93 FPS min

und wie man es wohl spielen wird:

Setting: "for this Mac" (das inkludiert DRS):
1440P: 75,63 FPS avg und 64,01 FPS min

Setting: "for this Mac" aber mit MetalFX quality:
1440P: 93,71 FPS avg und 78,15 FPS min

Setting: "for this Mac" aber mit MetalFX quality:
2880P: 28,93 FPS avg und 25,31 FPS min

und zuletzt:
Setting: "for this Mac" aber mit MetalFX quality + Raytraced Shadows, Reflections und Lighting medium:
1440P: 35,87 FPS avg und 30,39 FPS min

Setting: "for this Mac" aber mit MetalFX quality + Raytraced Shadows, Reflections und Lighting medium + FSR 3.1 FG:
1440P: 66,38 FPS avg und 56,99 FPS min

Daredevil
2025-07-17, 22:38:51
mit welcher Einstellung? Hab erstmal nur mit max laufen lassen inkl. Path Tracing + MetalFX Q + FSR 3.1 FG

auch alles auf Max wie bei dir:

M4max + 48GB (und nen Haufen Programme im Hintergrund ;) )

So, Zuhause. Ich reihe mich mal ein und mach direkt nen Vergleich auf zwischen uns drei. ^^

Max Settings - inkl. Path Tracing + MetalFX Q + FSR 3.1 FG
FullHD
M3 Max 40c: 42,77fps
M4 Max 40c: 59,59fps
M3 Ultra 60c: 61,62fps

UHD
M3 Max 40c: 13,42fps
M4 Max 40c: 18,67fps
M3 Ultra 60c: 21,53fps

Ansonsten hier ein paar weitere Ergebnisse:
UHD Low: 52,20fps
UHD Mid: 39,22fps
UHD High: 34,92fps
UHD Ultra: 22,24fps

UHD RT Low + FSR: 54,26fps
UHD RT Mid + FSR: 37,16fps
UHD RT High + FSR: 28,52fps
UHD RT Ultra + FSR: 17,96fps

WQHD For Mac + MetalFX: 82,65fps
WQHD For Mac + FSR 3.0: 110,59fps
WQHD For Mac + FSR 3.0 +FG: 175,33fps

Wenn man für mich Richtung "spielbar" gehen würde, würde es wohl irgendwie so aussehen. Für Raytracing hat die Kiste jedoch zu wenig Dampf bzw. man muss mal schauen, was Metal4 noch so raus holt. Das "Apple Framegen" kommt offenbar erst mit macOS 26.
https://s1.directupload.eu/images/250717/m3air2n2.png

misterh
2025-07-17, 22:47:05
war zu erwarten.

hab macOS 26 Beta drauf und hab da kein Apple´s FG gesehen.

Daredevil
2025-07-17, 23:17:40
Ich denke die Anwendung muss es auch unterstützen, wa?
MetalFX Frame Interpolation und MetalFX Denoising kommt halt erst mit Metal 4.
https://developer.apple.com/videos/play/wwdc2025/211/

misterh
2025-07-17, 23:45:04
hoffentlich kommt ja im nächsten Beta Version dann.

urpils
2025-07-18, 06:01:17
ohne Raytracing läuft es schon überraschend ok dafür, dass das kein "Gaming"-Rechner ist und ich eigentlich nur viele "Productivity" Programme laufen lasse.

die M4 40c GPU kommt auch recht gut an die M3 60c GPU ran - aber wie ihr schon sagtet: für RT reicht es dann mit der Rohpower einfach nicht.

und FG hilft in den Regionen unter/um native 30fps auch nicht - da hat man ein dermaßen ungleichmäßiges Framepacing + sichtbare Artefakte, dass es dann auch witzlos ist.

Zossel
2025-07-18, 06:17:49
ohne Raytracing läuft es schon überraschend ok dafür, dass das kein "Gaming"-Rechner ist und ich eigentlich nur viele "Productivity" Programme laufen lasse.

Ach, wenn man bestimmte Programme laufen lässt degeneriert der Rechner so das bestimmte andere Programmen dann nicht mehr richtig laufen?

Warum kauft man sich solche Computer?

urpils
2025-07-18, 07:28:21
Ach, wenn man bestimmte Programme laufen lässt degeneriert der Rechner so das bestimmte andere Programmen dann nicht mehr richtig laufen?

Warum kauft man sich solche Computer?

Ich sagte: dafür, dass der Computer für Productivity da ist und ich idR nix anderes mache läuft Cyberpunk überraschend fluffig.

Wie passiv-aggressiv kann man einen Post aktiv bewusst missverstehen wollen. Zossel: ja ;)

Daredevil
2025-07-18, 08:56:55
Ach, wenn man bestimmte Programme laufen lässt degeneriert der Rechner so das bestimmte andere Programmen dann nicht mehr richtig laufen?

Warum kauft man sich solche Computer?
Es ist andersrum genauso. Kauf ich mir ne mobile 5090 und möchte mobil Leistung haben, degeneriert dort z.B. die Akkuleistung oder die Performance und damit die Produktivität. Der M4 ist extrem effizient, auch im Gaming, der M5 steht vor der Tür. Insofern kommts wie so oft drauf an, welchen Kompromiss man eingeht.

Demogod
2025-07-18, 09:29:25
Mich würde auch mal der Stromverbrauch interessieren. Die Switch2 schafft das Game immerhin mit <20 Watt iirc. DigitalFoundry haben da nen Test gemacht.

misterh
2025-07-22, 21:36:43
in Beta 4 ist Metal 4 drauf. Werde nachher dann mal prüfen.
Edit: 1080P und 4K beide ca. 1 FPS weniger als mit Beta 3

dildo4u
2025-07-25, 20:22:41
Performance und Bildqualität Test

qXTU3Dgiqt8

robbitop
2025-07-26, 08:34:09
Interessant dass:

1.) die NN Variante von MetalFX Upsampling sehr gut aussieht und fast mit DLSS4 mithalten kann
2.) Apple sogar an einem ray reconstruction und Frame Generation Äquivalent arbeitet
3.) Der Einbruch mit RT sogar stärker zu sein scheint als bei RDNA2 was impliziert, dass die verbaute RT HW nicht so viel Fokus/Priorität im GPU Deaign hatte (was ja auch Sinn macht wenn man bedenkt wofür die M Chips normalerweise genutzt werden)
4.) wie energieeffizient die GPUs (zumindest beim Rastern) sind - allerdings hat man mit N3E auch einen Node Vorsprung vor Nvidia/AMD

Es ist wirklich erstaunlich was Apples GPU Abteilung da rausgehauen hat die letzten Generationen wenn man bedenkt wie unwichtig Spielegrafik für Apple ist. Sie sind praktisch on par mit den großen GPU IHVs ohne dass sie davon großartig was davon haben. Was zeigt wie viel Budget und Talent mittlerweile in dieser Abteilung sind.

dildo4u
2025-07-26, 08:58:33
Kommt auf dem PC vielleicht nicht rüber aber Games wie Genshin Impact sind ziemlich beliebt und brauchen viel GPU Power ist bis Heute ein guter Test für Handys.

Zumindest die Android haben damit ordentlich Probleme 60fps zu halten ohne passive Kühlung zu überlasten, dort kann sich Apple noch absetzen.

https://www.golem.de/news/genshin-impact-und-co-free-to-play-game-macht-mehr-gewinn-als-activision-blizzard-2306-175017.html

robbitop
2025-07-26, 09:09:23
Naja aber wie du sagst ist das ein Handyspiel was auch auf den 0815 ARM GPUs läuft. Da braucht es kein top modernes modernes Featureset. Das ist etwas ganz anderes als ein moderner AAA PC Titel.

dildo4u
2025-07-26, 09:41:20
S24 Ultra war 1000€ + Handy würde es nicht unterschätzen ruckelt sich ordentlich einen ab.

https://youtu.be/vniGodXyDYU?si=x7OCgaWqgVhK6KjY&t=167

robbitop
2025-07-26, 10:49:41
Es ist trotzdem Spielzeuggrafik. Ggf schlecht optimiert. Aber ich sehe da nichts was ein modernes Featureset bräuchte. Wahrscheinlich nur genug grunt um über die schlechte Optimierung zu brutforcen. Da braucht aber keine tolle GPU IP sondern nur Siliziumfläche und oder Takt.

basix
2025-08-31, 11:00:20
Das ist voll an mir vorbeigegangen: 2021 hat Huawei mit Exagear einen x86 Emulator für ARM vorgestellt, der schneller ist als Apples Rosetta 2
https://habr.com/en/companies/huawei/articles/577208/

smalM
2025-09-10, 20:49:24
Via AnandTech-Forum:
Hello MTE (https://x.com/never_released/status/1965482272829964395)

Geekbench CPU (https://browser.geekbench.com/v6/cpu/search?utf8=✓&q=iPhone18&sort=multicore_score)
Geekbench GPU (https://browser.geekbench.com/v6/compute/search?page=1&q=iPhone18&sort=score&utf8=✓)

Daredevil
2025-09-11, 00:45:14
Ich habe gerade mal meinen A18Pro gegen das erste A19Pro Geekbench Ergebnis vergleichen. ( Mit Vorsicht zu genießen?! )
Beide SoCs kommen mit 6 GPU Kernen, im Schnitt +38.8%. What the fuck kochen die da in Cupertino? :freak:

Also der Wert alleine im Vergleich zu den Snapdragons ist jetzt nicht spektakulär gut, aber ich stelle mir gerade vor, diese GPU kommt mit 10 Kernen in ein jetzt schon schnellen MacMini, in ein Studio oder gar ein MacPro mit 80 Cores+. Das ist schon... ehm... nett.
Da sind wir dann aber auch einem Punkt angelangt, das kannste echt nen A-SoC in ein MacBook packen für 500€, oder ne Mini Gaming Konsole aus einem AppleTV machen. Das sind ja crazy Sprünge.

https://browser.geekbench.com/v6/compute/compare/4765303?baseline=4770466
https://s1.directupload.eu/images/250911/cy23ksva.png

davidzo
2025-09-11, 00:50:22
Mehr Bandbreite, mehr cache und mehr Takt effektiv, da der a18pro häufig drosseln musste? Kommt schon hin und kann in der praxis einer längeren gamingsession noch mehr sein.

Der chip wäre wirklich was fürs Macbook Air.

Daredevil
2025-09-11, 01:02:44
Also bei einem Durchlauf Geekbench muss da noch nichts gedrosselt werden denke ich, das geht ja schnell von der Hand. Moment, ich lass es mal ein paar mal durchlaufen:

1. 32897
2. 31089
3. 27805
4. 29270
5. 29863
6. 24079
7. 25970
8. 26780
9. 23139
10. 25007

Aber kann natürlich sein, dass der A19Pro schlicht mehr säuft und deswegen höher boosted im Peak. Peak Performance ist ja durchaus wichtig bei AI und co.

Der A19Pro kommt im CPU Test auf SC: 3966 und MC: 10465
https://browser.geekbench.com/v6/cpu/13747615
Ein M1 Pro ausm Forum kommt hier auf SC:2397 und MC:10534 und GPU:63039. :D

Nightspider
2025-09-11, 11:43:52
What the fuck kochen die da in Cupertino? :freak:

Sieht jetzt eigentlich nicht beeindruckend aus imo.

Laut Leaks soll der Snapdragon 8 Elite Gen 2 eine höhere SingleCore Leistung haben und bei der GPU war QualComm sowieso meistens schneller.

Daredevil
2025-09-11, 11:55:21
Das mag sein, Apples Architektur ist aber skalierbar und wenn solche schnellen Kerne in eine 200-300w Umgebung geworfen werden, ausgehend vom bereits sehr schnellen M4 Max mit dem Hintergedanken, das es eigentlich mich nicht so wirklich „Desktop Hardware“ gibt, dann klopft man ganz schnell bei der Leistungsklasse von NVIDIA an, während man AMD bereits in jeglicher Sicht hinter sich lässt. Mit jeder dieser „kleinen jährlichen Sprünge“ wächst zudem die Preis/Leistung an, das bewirkt schon was im Markt.

Qualcomm schön und gut, Lunar Lake ist auch supidupi, ein MacBook Air like Produkt haben wir trotzdem noch nirgendwo gesehen im Markt. Flach, schnell, geräuschlos, ausdauernd, gute Peripherie und Display für unter 1000€? Nicht existent, warum?

Nightspider
2025-09-11, 12:38:10
während man AMD bereits in jeglicher Sicht hinter sich lässt.

Wenn AMD nächstes Jahr mit den 2nm Chips kommt werden die Karten neu gemischt.

Ich würde eher sagen Apples Vorteil schmilzt dahin.

Badesalz
2025-09-11, 12:47:47
ein MacBook Air like Produkt haben wir trotzdem noch nirgendwo gesehen im Markt. Flach, schnell, geräuschlos, ausdauernd, gute Peripherie und Display für unter 1000€? Nicht existent, warum?Tja tut mir leid. Die Zeiten der 13" Laptops sind im PC-Markt quasi vorbei.

dann klopft man ganz schnell bei der Leistungsklasse von NVIDIA anWenn das gehen würde, würden sie das machen.

dildo4u
2025-09-11, 12:56:06
Dell hat Lunar Lake für 660 € im Angebot.

https://i.ibb.co/qMc1V1TX/Bildschirmfoto-vom-2025-09-11-12-55-27.png (https://ibb.co/mC2zgzf1)


https://www.dell.com/de-de/shop/dell-laptops/dell-14-plus-2-in-1-laptop/spd/dell-db04250-2-in-1-laptop

Badesalz
2025-09-11, 13:30:24
Und das sogar mit einer ausreichend großen SSD...

MSABK
2025-09-11, 13:51:08
Und das sogar mit einer ausreichend großen SSD...

Klar, gibt sicher das ein oder andere Angebot. Aber das MacBook Air ist nun mal das default notebook und ist immer in den Top3 der Verkaufscharts. Sehe jetzt aber auch nicht, dass in der Windows-Welt da Konkurrenz kommt. Es gibt das Asus A14 mit Snapdragon, aber das hat einen Lüfter.

smalM
2025-09-11, 14:33:08
Wenn AMD nächstes Jahr mit den 2nm Chips kommt werden die Karten neu gemischt.
Und dann kommt Apple mit den N2 Chips und die Karten werden wieder neu gemischt.
So wie immer, wieder und wieder.

davidzo
2025-09-11, 15:23:05
Sieht jetzt eigentlich nicht beeindruckend aus imo.


Die Zuwächse sind sicher weniger als früher, aber was man nicht vergessen darf haben wir hier einen jährlichen Zyklus während im Desktop ein 2-Jahreszyklus herrscht und man sich dort trotzdem mit Produkten wie "Zen5%" zufrieden geben muss.
Zweistellige Zuwächse bei der ST Leistung pro Jahr sind schon sehr ordentlich. Da kann man bei AMD oder Intel nur von Träumen, denn die bräuchten bei ihrem 2-Jahreszyklus mindestens 25% ST Leistungsverbesserungen um da mit zu halten.



Laut Leaks soll der Snapdragon 8 Elite Gen 2 eine höhere SingleCore Leistung haben und bei der GPU war QualComm sowieso meistens schneller.

Erstens gibt es keinen 8 Elite Gen2 und zweitens lief der 8 Gen5 in den Antutu Leaks übertaktet auf über 5Ghz. Das sind die Taktraten die wir bei den nächsten Desktopchips erwarten können. Aber auch der M4 liefert schon 4K in GB6. Serien-handys mit 8g5 sollen mit 4,61Ghz kommen und das S26 edge sogar auf 4,74Ghz boosten. Die leaks waren aber afaik mixed/ MT tests. die ST scores vom s26 edge liefen scheinbar nur mit 4Ghz und da war der Chip 13% langsamer als der A19. Was man auch nicht vergessen sollte ist dass das S26 Edge und andere 8g5 Geräte erst 2026 in den Verkauf gehen und die iphones jetzt schon im Handel sind.

Trotzdem ist das beeindruckend von Qcomm. Die highscores der Android Chips kommen zwar mit unsinnigen Verbräuchen und Taktraten zustande, aber der IPC Sprung ist immer noch gewaltig. Das würde bedeuten dass die IPC bei Qualcomms neuesten Chips nur noch knapp hinter den neuesten Apple Chips liegt.
Das ist eine ziemlich beeindruckende Aufholjagd wenn man bedenkt dass die Phoenix Cores im X-Elite nur knapp M1 IPC aufweisen konnten und erst mit mehr Takt und Kernen einen kleinen Vorsprung ausarbeiten konnten.



Ich würde eher sagen Apples Vorteil schmilzt dahin.

Gegenüber Qualcomm auf jeden Fall. Aber gegenüber der X86 Konkurrenz scheint er noch zu steigen. Gerade Lunarlake ist ein gutes Beispiel. Hier bekommt man knapp Apple M2 Leistung, trotz eines Fullnode Vorsprungs bei der Fertigung. Und Lunarlake ist nicht unkompetitiv zu Krackan, insofern wird das auch vs AMD nicht viel anders aussehen.

Dell hat Lunar Lake für 660 € im Angebot.

Sicher ist das "gut genug" für das meiste. Aber wenn ich woanders schon die Leistung und Effizienz bekomme die es bei Intel und AMD erst in 2-3Jahren gibt, dann sind das 2-3Jahre mehr nutzbare Lebensdauer für mein System. Wieso sollte ich also nicht etwas mehr Geld ausgeben wenn ich länger was von dem System habe?

Iamnobot
2025-09-11, 15:56:13
Da Geekbench-Ergebnisse durch SME geboostet werden und Apple im Gegensatz zu Qualcomms Snapdragon 8 Elite SME(2) intregriert hat schneiden Apple SoCs in Geekbench gegenüber Konkurrenzprodukten ohne SME automatisch besser ab. Ob sich dieser verursachte Zugewinn in den nächsten Jahren in auch in "Real World Performance" niederschlagen wird steht völlig in den Sternen.

Nightspider
2025-09-12, 01:21:12
während im Desktop ein 2-Jahreszyklus herrscht und man sich dort trotzdem mit Produkten wie "Zen5%" zufrieden geben muss.

Unter Linux waren es eher 20% wenn ich mich richtig erinnere. Die 5% gabs eher in Games, wo der alte IO Chip gebremst hat.
Der IO lief noch im vergleichnsweise uralten N6 vom Band.

Wenn AMD und Intel ihre Compute Chiplets jetzt im selben Node fertigen lassen wie Apple, wird der Abstand zumindest beim Prozess geringer.
Und auch wenn Apples hochintegrierter Ansatz wesentlich effizienter ist, so ist X86 im Moment noch deutlich flexibler.

Da kann man bei AMD oder Intel nur von Träumen, denn die bräuchten bei ihrem 2-Jahreszyklus mindestens 25% ST Leistungsverbesserungen um da mit zu halten.

Die 30-40% durch X3D und Zen4 mit 22-26% waren jetzt aber auch nicht verkehrt.

Und teile der aktuellen CPUs werden noch im "uralten" N6 gefertigt. Ich denke wir werden mit Zen6 und Zen7 nochal paar richtig dicke Sprünge erleben.

Apples Sprünge werden auf jeden Fall kleiner. Die ~~10% beim neuen A19 sind gut aber keinesfalls so beeindruckend wie die Sprünge noch vor 5 Generationen.

Und dann kommt Apple mit den N2 Chips und die Karten werden wieder neu gemischt.
So wie immer, wieder und wieder.

Du hast die Intention meiner Aussage nicht ganz verstanden. Bei AMD gibts einen viel größeren Sprung von N6/N4 auf N3/N2.

Der Abstand im Fertigungsprozess wird deutlich kleiner.

Daredevil
2025-09-12, 01:45:04
Apples Sprünge werden auf jeden Fall kleiner. Die ~~10% beim neuen A19 sind gut aber keinesfalls so beeindruckend wie die Sprünge noch vor 5 Generationen.

Ich glaube der Fokus ist seit mehreren Generationen schlicht die GPU, mh?
Es ist ja nicht so, als könnte Apple ihr 2+4 Schema nicht ändern in 2+6 oder sowas, aber wofür denn? Der Flaschenhals bei Foto und Videoberechnung hängt halt in der GPU.

GB5
Single Core:
iPhone XR: 1115pts
iPhone 11: 1338pts +20%
iPhone 12: 1580pts +18%
iPhone 13: 1714pts +8%
iPhone 14Pro: 1871pts +9%
iPhone 15Pro: 2024pts +8%
iPhone 16Pro: 2216pts +9%

Multi Core:
iPhone XR: 2597pts
iPhone 11: 3417pts +31%
iPhone 12: 3944pts +15%
iPhone 13: 4552pts +15%
iPhone 14Pro: 5330pts +17%
iPhone 15pro: 5671pts +7%
iPhone 16Pro: 6466pts +14%

Compute:
iPhone XR: 4392pts
iPhone 11: 6303pts +43%
iPhone 12: 9233pts +47%
iPhone 13: 10994pts +19%
iPhone 14Pro: 15731pts +43%
iPhone 15pro: 20264pts +29%
iPhone 16Pro: 24493pts +21%

Beachtlich an der Stelle, das sind die Werte eines M1 im MacBook Air :ulove:
Single Core: 1687pts
Multi Core: 7433pts
Compute: 18656pts

Was ich mich aber ernsthaft frage ist, ob die Neural Engine vielleicht jetzt iPhone only ist und man mit dem M5 oder ähnlichem die Neural Engine komplett links liegen lässt um mehr Platz zu bekommen, wenn man nun "KI Einheiten" in der GPU hat, die eh mehr leisten aufgrund der Bandbreite. Hat jemand dazu jemand mehr Informationen? Ich habe in einem Podcast aufgeschnappt, dass dies für Frame Generation und MetalFX sinnvoll sein sollen. Die Neural Engine wurde mit dem A19Pro ja gar nicht erwähnt.

urpils
2025-09-12, 06:01:09
Ich glaube der Fokus ist seit mehreren Generationen schlicht die GPU, mh?
Es ist ja nicht so, als könnte Apple ihr 2+4 Schema nicht ändern in 2+6 oder sowas, aber wofür denn? Der Flaschenhals bei Foto und Videoberechnung hängt halt in der GPU.

GB5


Was ich mich aber ernsthaft frage ist, ob die Neural Engine vielleicht jetzt iPhone only ist und man mit dem M5 oder ähnlichem die Neural Engine komplett links liegen lässt um mehr Platz zu bekommen, wenn man nun "KI Einheiten" in der GPU hat, die eh mehr leisten aufgrund der Bandbreite. Hat jemand dazu jemand mehr Informationen? Ich habe in einem Podcast aufgeschnappt, dass dies für Frame Generation und MetalFX sinnvoll sein sollen. Die Neural Engine wurde mit dem A19Pro ja gar nicht erwähnt.

leider ist ja kaum noch jemand da, der das differenziert analysiert und entsprechende Artikel schreibt, seit Anandtech zu ist :(

so wie die Keynote klang, hatte ich eher den Eindruck, dass die GPU-Einheiten High-Performance sind - und die NPU High-Efficiency, sodass zumindest bei Laptops die NPU immer noch sinnvoll ist... die GPU war doch bisher auch schon schneller in der Peak-Perforamnce für ML-Tasks soweit ich weiß, aber die NPU um Einiges stromsparender, was ja überhaupt erst der Grund dafür ist/war.

davidzo
2025-09-12, 13:38:38
Da Geekbench-Ergebnisse durch SME geboostet werden und Apple im Gegensatz zu Qualcomms Snapdragon 8 Elite SME(2) intregriert hat schneiden Apple SoCs in Geekbench gegenüber Konkurrenzprodukten ohne SME automatisch besser ab. Ob sich dieser verursachte Zugewinn in den nächsten Jahren in auch in "Real World Performance" niederschlagen wird steht völlig in den Sternen.

Die Rede ist 8 Gen5, nicht vom ursprünglichen 8 Elite. Und der hat auch SME.
Der Cortex X925 hat auch schon SME (SVE2) und der C1 natürlich erst recht.
Insofern zieht das Argument von letztem Jahr nicht mehr.

Application support ist bei iOS einfacher. Natürlich nutzt ein aktuelles iOS mit den Apple eigenen AI Apps zur Spracherkennung, Fotobearbeitung etc. SME wenn es etwas bringt.
Bei Android wird es verständlicherweise etwas länger dauern, da die Plattform stark fragmentiert ist.



Was ich mich aber ernsthaft frage ist, ob die Neural Engine vielleicht jetzt iPhone only ist und man mit dem M5 oder ähnlichem die Neural Engine komplett links liegen lässt um mehr Platz zu bekommen, wenn man nun "KI Einheiten" in der GPU hat, die eh mehr leisten aufgrund der Bandbreite.
Das klingt eher nach dem nvidia Weg mit Tensor Cores. Ich bin gespannt wie AMD es löst, ob sie mit den NPUs weiter machen oder mit RDNA5 einfach soviel low precision througput un die Shaderalus bauen dass man die nicht mehr braucht.


so wie die Keynote klang, hatte ich eher den Eindruck, dass die GPU-Einheiten High-Performance sind - und die NPU High-Efficiency, sodass zumindest bei Laptops die NPU immer noch sinnvoll ist... die GPU war doch bisher auch schon schneller in der Peak-Perforamnce für ML-Tasks soweit ich weiß, aber die NPU um Einiges stromsparender, was ja überhaupt erst der Grund dafür ist/war.
Wobei es eben auch SME2 in der CPU gibt mit dedizierten Matrixeinheiten die AI Aufgaben geringer Intensität erledigen können ohne dafür die GPU oder NPU aufzuwecken. Wie ARM beim C1 anmerkt genießt die CPU eine bessere Speicherlatenz und muss nicht erst aufgeweckt werden und ist deshalb häufig effizienter. Zudem ist es wohl viel einfacher dafür zu programmieren als für die NPU.

smalM
2025-09-14, 19:28:50
Der Cortex X925 hat auch schon SME (SVE2) und der C1 natürlich erst recht.
SVE2 (Scalable Vector Extensions) und SME/SME2 (Scalable Matrix Extension) sind zwei verschiedene Dinge und der X925 hat letzteres ganz sicher nicht.
Bei SVE2 bin ich mir nicht sicher, ob das überhaupt im Consumerbereich schon einmal realisiert wurde. Arm hat es jedenfalls nach der Einführung von Armv9 von verpflichtend auf optional zurückgenommen.

Daredevil
2025-09-14, 19:52:16
so wie die Keynote klang, hatte ich eher den Eindruck, dass die GPU-Einheiten High-Performance sind - und die NPU High-Efficiency, sodass zumindest bei Laptops die NPU immer noch sinnvoll ist... die GPU war doch bisher auch schon schneller in der Peak-Perforamnce für ML-Tasks soweit ich weiß, aber die NPU um Einiges stromsparender, was ja überhaupt erst der Grund dafür ist/war.
Ich habs mir nochmal angeschaut, da reden sie ja von "4x Peak compute of A18Pro" und "this is MacBook Pro Level of compute".
Ein A18Pro hat ja bekannter weise 6 GPU Cores und diese Cores sind ja Pi mal Daumen die, die auch in einem M4/Pro/Max drin stecken.
4x Performance x 6 GPU Cores = 24, bedeutet also der A19Pro leistet in AI Tasks mehr als ein M4 Pro mit 20 GPU Cores? Leg ich 4x auf ein M4 Max in einem LLM Benchmark kommen wir in 5090 Range, wobei hier natürlich die Bandbreite irgendwann limitiert. Ich werde aus den Einheiten noch nicht so recht schlau, vielleicht gibts ja dieses Jahr auch noch Macs, wo das ein wenig besser erläutert wird. Ansonsten bin ich sehr gespannt, AI Leistung kann es nicht genug geben. :smile:
Ich werf am Freitag direkt DrawThings an und vergleiche mal, ob es dort irgendwas messbares gibt. ^^

Iamnobot
2025-09-14, 20:31:58
Die Rede ist 8 Gen5, nicht vom ursprünglichen 8 Elite. Und der hat auch SME.
Der Cortex X925 hat auch schon SME (SVE2) und der C1 natürlich erst recht.
Insofern zieht das Argument von letztem Jahr nicht mehr.
ICH habe nicht davon gesprochen, sondern vom SD 8 Elite. Produkte mit dem SoC, den du als 8 Gen5 bezeichnest sind doch noch gar nicht kauf- und bewertbar.

Daredevil
2025-09-14, 21:45:49
Kleines Update, ich habe in der Geekbench AI Datenbank Ergebnisse zu drei "iPhone 18.x" Geräten gefunden, hier mal ein kleiner Vergleich zu dem iPhone 15Pro und 16Pro.

iOS + CoreML
CPU:
iPhone 15Pro: SP.3935-HP.6836-QS.5590
iPhone 16Pro: SP.4529-HP.7743-QS.6185
iPhone 17Pro: SP.4846-HP.7906-QS.6124

GPU:
iPhone 15Pro: SP.5002-HP.5922-QS.5155
iPhone 16Pro: SP.6129-HP.7082-QS.6791
iPhone 17Pro: SP.9056-HP.16560-QS.17016

Neural Engine:
iPhone 15Pro: SP.3950-HP.24408-QS.32234
iPhone 16Pro: SP.4493-HP.32210-QS.44479
iPhone 17Pro: SP.4918-HP.35019-QS.48148

Da kommen wir tatsächlich ziemlich nah in die MacBook Pro Region.
Ein M3 Max mit 40GPU Cores kommt hier auf SP.17670-HP.19686-QS.14892 im GPU Test.

So eine GPU mit 20 Cores würde in dem Test bei linearer Skalierung eine 4090 hinter sich lassen.
Oder andersrum wäre ein M5 mit 10C halb so schnell in dem Test wie eine 4090. Absurd.

Detaillierte Ansicht zu dem GB AI Score
https://s1.directupload.eu/images/250914/qc3bo3dh.png
https://s1.directupload.eu/images/250914/nmeqim29.png

davidzo
2025-09-14, 22:18:36
ICH habe nicht davon gesprochen, sondern vom SD 8 Elite. Produkte mit dem SoC, den du als 8 Gen5 bezeichnest sind doch noch gar nicht kauf- und bewertbar.
Okay, aber die Rede zwischen Nightspider und mir war von den jüngst geleakten 8gen5 scores. Das ist der direkte Nachfolger und soll angeblich nicht 8 Elite Gen2 heißen sondern einfach 8gen5.
Hier den 8 Elite einzuwerfen von dem in den Scores gar nicht die Rede ist relativiert nicht die Aussagen zum A19 vs 8gen5.

Zossel
2025-09-15, 12:15:33
Bei latest and greatest Nodes scheint Apple nicht mehr als Erster mit zuspielen: https://www.computerbase.de/news/wirtschaft/tsmc-a16-fertigung-nvidia-will-bei-2-nm-mit-backside-power-erstkunde-sein.94328/

Badesalz
2025-09-15, 12:30:40
Habt ihr mir nicht schon mehrmals erzählt, der A16 ist so ein halber Schritt und wahrscheinlich primär nur für die KI-Spielchen von NV/AMD interessant?
Würde passen.

Ah ja: "TSMC hatte diese Lösung deshalb explizit auch für HPC-Chips vorgestellt."

davidzo
2025-09-15, 12:55:47
Das war absehbar dass Nvidia Apple ablöst als cutting Edge Kunden von TSMC wenn man mal den Firmenwert und das verfügbare Kapital der beiden Firmen anschaut.

Allerdings ist das mit A16 doch überraschend spät. Das zeigt wie langfristig die Verträge mit Apple einerseits sind und wie lange die Entwicklungszyklen bei nvidia andererseits.

Apple hat die KI-Entwicklung verschlafen. Milliarden in Aktien-Rückkäufe zu stecken, anstatt in eine Aufholjagd nach nvidia ist ein massiver Fehler. Hybris kommt vor dem Fall.

JUG1PlqAUJk

Klar sorgen die ständigen Preiserhöhungen für ein vermindertes Wachstum. aber die langfristige Bedrohung ist viel substantieller.

Die langfristige Bedrohung für Apple geht nicht etwa von Qcomm, AMD, Intel, Huawei oder Samsung aus, sondern von nvidia. Nur nvidia hat Technologie gegen die Apple nicht konkurrenzfähig, ja sogar voll von dieser abhängig ist. Nur nvidia hat das Kapital um sich gegenüber Apple bei der Reservierung von cutting Edge Fertigung bei TSMC durchzusetzen.

aceCrasher
2025-09-15, 13:04:47
Das war absehbar dass Nvidia Apple ablöst als cutting Edge Kunden von TSMC wenn man mal den Firmenwert und das verfügbare Kapital der beiden Firmen anschaut.
Es geht ja nicht nur darum. Die Kunden von Nvidias KI-Beschleunigern sind vermutluch auch bereit nahezu jeden Preis zu bezahlen um ein besseres Produkt zu bekommen. Bei iPhones bin ich mir unsicher ob die Mehrheit der Kunden bereit ist deutlich mehr zu zahlen um den neuesten statt dem zweitneuesten Prozess zu haben.

Zossel
2025-09-15, 13:28:11
Ah ja: "TSMC hatte diese Lösung deshalb explizit auch für HPC-Chips vorgestellt."

Wären gerade Telefone der heißere Scheiß als KI hätte das TSMC-Marketing dort Telefon statt HPC rein geschrieben. (Nur weil man Klamotten von XY trägt wird man nicht Schwarm aller Mädels)

urpils
2025-09-15, 13:37:03
(…)
Apple hat die KI-Entwicklung verschlafen. Milliarden in Aktien-Rückkäufe zu stecken, anstatt in eine Aufholjagd nach nvidia ist ein massiver Fehler. Hybris kommt vor dem Fall.

Klar sorgen die ständigen Preiserhöhungen für ein vermindertes Wachstum. aber die langfristige Bedrohung ist viel substantieller.

Die langfristige Bedrohung für Apple geht nicht etwa von Qcomm, AMD, Intel, Huawei oder Samsung aus, sondern von nvidia. Nur nvidia hat Technologie gegen die Apple nicht konkurrenzfähig, ja sogar voll von dieser abhängig ist. Nur nvidia hat das Kapital um sich gegenüber Apple bei der Reservierung von cutting Edge Fertigung bei TSMC durchzusetzen.

Ich sehe jetzt keine großen Überschneidungen zwischen Apple und nVidia.

Weder produziert NVIDIA Telefone noch Apple Grafikkarten/KI Beschleuniger für Andere.

Ob der KI Hype nicht bald zusammenfällt muss sich auch erstmal zeigen. Klar ist Apple spät dran - aber das war Google ganz zu Beginn des ChatGPT Hypes gefühlt auch. Und mittlerweile gibt’s genug Konkurrenten, die alle auf nem ähnlichen Niveau mitspielen.

Daredevil
2025-09-15, 14:05:28
Die Fertigung und die Nachfrage nach Produkten ist bei beiden auch ein wenig anders, zumindest wenn man das reine KI Geschäft bei Nvidia betrachtet.
Dort spielt zwar auch irgendwo Preis/Leistung eine Rolle, viel wichtiger ist aber Performance/Watt und damit die TCO einer solchen Serverfarm über mehrere Jahre hinweg.

Performance/Watt ist bei Apple zwar auch seit dem M1 ein klarer Fokus, es geht aber nicht direkt um den Verbrauch beim Computing, sondern das man hiermit bessere Geräte bauen kann, die eben Nachfrage erzeugen. MacBook Air, iPad Pro und jetzt iPhone Air sind relativ Konkurrenzlos im gesamten Paket, so wie Apple es geschnürt hat. Mal davon ab, das wir nun erhebliche Steigerungen sehen im AI Computing bei dem A19Pro Kernen, welche vielleicht auch irgendwo Bestandteil von irgendeiner Apple Cloud werden?! Diese Technologie kann man ja ebenso skalieren, aktuell nutzt Apple ja soweit ich weiß M2 Ultra Chips, die ebenso Ultralahm sind mittlerweile.

Für ein Apple Produkt zahlt niemand das doppelte, nur weil es für die gleiche Leistung nun 30% weniger verbraucht. Beim AI HPC Markt ist das was anderes, dort würde man auch drei mal soviel zahlen, wenn die Energiekosten irgendwann den Einkaufspreis übersteigen und die Rechnung nach mehrere Jahre Auslastung aufgeht. Insofern kann Nvidia hier auch den Premium Preis an TSMC zahlen.

So gesehen stehen beide aber schon irgendwie in Konkurrenz, es ist der Kampf zwischen der Cloud und Edge Computing.

Ridcully
2025-09-15, 15:33:55
Ich würde in Sachen KI auf Apple setzen. Wenn irgendwann ein tolles Chat GPT 5.2 gegen eine Mittelmäßige Siri mit KI antritt hat Apple auf einen Schlag direkten Zugang zu Millionen Kunden. Die Kunden haben die passende Hardware, Zahlungsdaten sind vorhanden und das Vertrauen. Auch kleine wie große Konzerne/ Firmen haben Apple Accounts wie ihre Dienshandys.

Nvidia hat einfach keinen Zugang zu den Kunden. Hier hat Microsoft schon weit bessere Karten.

Daredevil
2025-09-15, 16:01:53
...zusätzlich kostet das den Kunden nichts, Apple braucht nicht Atomkraftwerke für Rechenzentren bauen ( ihre laufen effizient und CO2 neutral mit Solar/Wind whatever ) und Datenschutz wäre hier gewährleistet durch Private Compute und lokale Berechnung. Das wäre schon nett.

Apple hat ja, wie oben bereits geschrieben, immense Zuwächse im Geekbench AI gemacht. Summiert man mal die einzelnen Kategorien, ergibt sich folgender Leistungssprung::

CPU KI Berechnung:
A17Pro: 16361
A18Pro: 18457 +12,8%
A19Pro: 18876 +2,3%

GPU KI Berechnung:
A17Pro: 16079
A18Pro: 20002 +24,4%
A19Pro: 42632 +113%

NPU KI Berechnung:
A17Pro: 60592
A18Pro: 81182 +34%
A19Pro: 88085 +8,5%

Lass die GPU KI Performance mal in LLMs, Bildgenerierung, Vision Capabilities und sonstigen Späßchen niederschlagen, dann rappelts aber im Karton, wenn das genauso auf iPads/MacBooks und den richtigen Macs kommt.
Ein FullFat M4Max im Notebook leistet bei 60w knapp die hälfte von dem, was eine 5080 rausknallt bei 250-300w. Dabei hat letztere "nur" 16GB und der Base M4 Max 48GB. Das sind zumindest geprüfte Werte aus dem Forum. (gpt-oss-20b LLM Benchmark).
Das könnte die KI Welt im Consumer Markt schon ein wenig hin und herschütteln, wobei der Großteil der Consumer natürlich weder nen Computer noch nen Mac hat, sondern Smartphones und Tablets. :D

Badesalz
2025-09-15, 16:41:51
Ich schätze Apple kommt in seinem Bereich wie IBM mit Watson in seinem. Alleinige Konzentration auf pragmatisch-nützlich.

davidzo
2025-09-15, 16:54:13
Ich sehe jetzt keine großen Überschneidungen zwischen Apple und nVidia.


Und genau das ist das Problem. Apple hat nichts vergleichbares im Angebot mit dem man ansatzweise mit nvidia bzw. den Firmen die nvidia nutzen konkurrieren kann. Da Microsoft, Google etc. aber alle ihre eigenen KI Softwareprojekte haben die auch massive Fortschritte machen und Milliarden an Nutzern gewinnen, ist Apple das Erste mal so in Zugzwang das man fremd einkaufen gehen muss.

Die Überschneidung ist eindeutig dass Nvidia in Zukunft TSMCs wichtigster Kunde wird, nicht mehr Apple.

Und die Abnehmer von Nvidias Chips stehen in Konkurrenz zu Apples Produkten (Siri, icloud, Appstore, ...)


Weder produziert NVIDIA Telefone noch Apple Grafikkarten/KI Beschleuniger für Andere.

Qualcomm war viel weniger das Problem, da Apple als erste geige einfach den gesamten cutting Edge Prozess reservieren konnte. Das gleiche gilt für AMD und Intel.
Zudem konkurrieren die Android und Windowsgeräte schon aufgrund des fragmentierten Ökosystems nicht direkt mit Apple iOS, macOS, icloud, etc. - die Gefahr von Qualcomm geht viel eher in Richtung Huawei, Mediatek, Intel/AMD als das Apple sich hier sorgen machen muss.


Ob der KI Hype nicht bald zusammenfällt muss sich auch erstmal zeigen. Klar ist Apple spät dran - aber das war Google ganz zu Beginn des ChatGPT Hypes gefühlt auch. Und mittlerweile gibt’s genug Konkurrenten, die alle auf nem ähnlichen Niveau mitspielen.

Wer spielt auf einem ähnlichen Niveau wie nvidia?
- Du meinst die Kunden von nvidia, das stimmt. Nvidia ist halt keine vertikal integrierte Firma wie Apple.

Und Apple ist nicht nur spät dran, sondern auch bereits grandios gescheitert. Apple Intelligence und das neue Siri sind immer noch nicht fertig, bzw. Spielzeuge die es nicht mal mit Microsofts Copilot aufnehmen können. Apple bewegt sich da eher auf einem niveau mit Intels AI playground. - nette Gimmicks als Technologiedemonstrator aber kein zusammenhängendes Konzept.

Mittlerweile ist Apple soweit dass man die AI Ressourcen bei Google mietet. Für Siri ist nach mehrfachem Scheitern eigener LLM Entwicklungen nun eine abgeänderte Gemini im Spiel.
- Damit gibt man nicht nur die Grundsätze der sicheren icloud auf und gesteht sich ein gescheitert zu sein, sondern man dreht auch den Spieß um den Apple bisher immer gegen andere verwendet hat.
Plötzlich ist Google der Plattformbetreiber und Apple der Mieter. Google kann also die Preise und Regeln für Services festlegen, genau so wie Apple es gegenüber Google und anderen Softwarefirmen macht die im Appstore bzw. auf iOS Produkte anbieten. Glaub mal ja nicht dass diese Firmen das nicht ausnutzen.



So gesehen stehen beide aber schon irgendwie in Konkurrenz, es ist der Kampf zwischen der Cloud und Edge Computing.

Genau das.
Und Apple war bisher auch ein Leader bei Cloud computing. iCloud ist die Nummer1 bei den bezahlten Cloud Services für Endkunden. Nahezu jeder iphone Besitzer hat ein Abo. Dass man jetzt das Handtuch werfen muss und bei AI computing Google Dienste einkauft ist ein Desaster für Apples Führungsanspruch.


Nvidia hat einfach keinen Zugang zu den Kunden. Hier hat Microsoft schon weit bessere Karten.
Eben und Microsoft nutzt nvidia.

Da nvidia den Markt gecornert hat, könnten sie die Preise komplett diktieren.
Solange Microsoft und andere AI Anbieter wie OpenAI, Anthrophic etc. wachsen kann Nvidia also den Großteil von deren Einnahmen und neuen Investments abschöpfen. Genau soviel dass diese gerade nicht pleite gehen oder ihr AI Engagement einstellen.

...zusätzlich kostet das den Kunden nichts, Apple braucht nicht Atomkraftwerke für Rechenzentren bauen ( ihre laufen effizient und CO2 neutral mit Solar/Wind whatever ) und Datenschutz wäre hier gewährleistet durch Private Compute und lokale Berechnung. Das wäre schon nett.

Nur ist die Realität halt das die besseren AI-Modelle alle in der Cloud laufen und das weiß auch Apple. Die Edge AI für Consumer die alle immer predigen hat irgendwie noch keine Fahrt aufgenommen, weder in der Windowswelt noch bei Apple.
Insofern bauen Microsoft, Google und OpenAI halt die Atomkraftwerke und Apple zahlt einen ordentlichen Aufschlag um sich bei diesen einzumieten.

Wenn Apple irgendwann mal eigene Cloud-KI Chips bauen möchte, dann hätten sie besser mal vor 3-4Jahren angefangen. Genau in die Zeit fällt auch die Absage an die eigene Entwicklungsabteilung eine eigene Serverfarm mit Nvidia GPUs aufzubauen.

Das wird sonst wie bei BMW, Mercedes und Co. und E-mobilität.:
- Erst lachen sie drüber, mit E-Autos ließe sich kein Geld verdienen. und zählen ihre Umsätze im Vergleich zu Tesla und den Chinesen.
- Dann sagen sie die Entwicklung wäre billiger wenn erstmal der ganze Markt sich hin zur e-mobilität bewegt.
- Danach fragt man nach staatlicher Unterstützung für die Entwicklung. Argument dafür ist das Verbrenner-Aus welches man selber vorschlägt.
- Und natürlich Staatliche Zuschüsse für die Jobs sobald der Absatz wegbricht weil man massiv Marktanteile verliert.
- Konsequent zum Umsatzeinbruch stellt man die Entwicklungen ein und akzeptiert dass die Konkurrenz uneinholbare Vorteile hat und billiger und besser produzieren kann weil diese die richtigen Batteriewerke gebaut hat und man selber nichts dergleichen hat.
- Und am Ende entlässt man doch Mitarbeiter und schließt Werke wobei man gleichzeitig versucht das Verbrenner-Aus aufzuweichen.

Daredevil
2025-09-15, 17:47:49
Apple öffnet mit den 26er Software Reihe doch genau heute die Schnittstelle für Nutzer, die per shortcuts explizit auswählen können ob sie das lokale Modell benutzen möchten, das Server Modell von Apple oder eben ChatGPT.
Zudem haben App Entwickler nun die Möglichkeit, die lokalen Modelle für ihre Apps auf dem iPhone zu nutzen. Mozilla hat das integriert und bietet bei Zusammenfassungen unter 5000 Zeichen eine lokale Bearbeitung, darüber hinaus geht es in die Cloud. Ist zwar erstmal nur alles Textbasiert, aber immerhin gehts los.
Playground bietet ja mittlerweile auch ne bessere Qualität für Smartphones an und Geschwindigkeit, hier gibts ebenso ChatGPT Integration oder lokale Berechnung.

Jede Anfrage an Apple ist eine weniger die über Nvidias Server geht. ^^
Die 12GB in dem Air und Pro sind vermutlich ja auch nicht aus Spaß dort. Apple geht halt langsam und effizient an die Sache ran, kann gut gehen, oder eben auch nicht. Trotz aller Medien Berichten hindert es offensichtlich nicht, dass sich Hardware verkauft, was sie zumindest ein wenig bestätigt.
Apple macht damit Gewinn, OpenAI nicht.

smalM
2025-09-15, 21:05:42
Bei latest and greatest Nodes scheint Apple nicht mehr als Erster mit zuspielen: https://www.computerbase.de/news/wirtschaft/tsmc-a16-fertigung-nvidia-will-bei-2-nm-mit-backside-power-erstkunde-sein.94328/
Es könnte durchaus überhaupt keinen Mobil-SoC mit A16 geben, weil mit den Low-Power-Designs die Vorteile nicht so zum Tragen kommen, daß es sich wirtschaftlich lohnt; nicht einmal für Apple.
Vielleicht bei den M-SoCs (bspw. das Compute-Die, falls die großen modular werden), wer weiß? Apple und TSMC werden keinen Piep dazu sagen, bis die jeweiligen Geräte auf den Markt kommen.
Und dann wird es wahrscheinlich heißen "TSMC's 2nd generation 2nm node".

Zossel
2025-09-16, 14:02:44
Es könnte durchaus überhaupt keinen Mobil-SoC mit A16 geben, weil mit den Low-Power-Designs die Vorteile nicht so zum Tragen kommen, daß es sich wirtschaftlich lohnt; nicht einmal für Apple.
Vielleicht bei den M-SoCs (bspw. das Compute-Die, falls die großen modular werden), wer weiß? Apple und TSMC werden keinen Piep dazu sagen, bis die jeweiligen Geräte auf den Markt kommen.
Und dann wird es wahrscheinlich heißen "TSMC's 2nd generation 2nm node".

Bessere elektrische Eigenschaften lassen sich bestimmt auch für lower power nutzen.

smalM
2025-09-17, 11:22:58
"daß es sich wirtschaftlich lohnt" habe ich nicht aus Spaß hingeschrieben.
Wir werden es sehen, die Designs sind bereits festgelegt, inklusive ob N2P oder A16 zum Einsatz kommt.
Müßte ich wetten, ich würde auf keine Firma setzen, die nicht auch schon N3B zum Einsatz gebracht hat.

Sunrise
2025-09-17, 12:54:13
Apple hat uns doch bereits gezeigt, dass sie N3 jetzt bis zum letzten Pferd durchgeritten haben. Warum sollte man das nicht weitergehen? Scheinbar reicht das aus, um 3 Jahre Evolution abzudecken. Wenn die Zahlen einigermaßen passen (die Abhängigkeit muss möglichst wie bei Nvidia stark stein) und sie das Paket "Apple" gut verkaufen können, sieht das äußerlich betrachtet erstmal gut aus. Steve Jobs hat ja gezeigt, dass HW allein nicht das entscheidende Kriterium für die Verkäufe war.

Diese Salami-Taktik wird hier auch bei KI angewendet werden. Es fehlt aktuell noch an der Vision bzw. für mich klar erkennbarem Fokus. KI ist noch in den Kinderschuhen (baby steps). Mal einigermaßen objektiv betrachtet müssten Sie nicht nur das OS, sondern auch diverse Apps anpassen und aufgrund der steigenden HW-Fähigkeiten kommt dann irgendwann ein größerer Schritt. Ich gehe davon aus, dass da parallel schon seit Jahren experimentiert wird, aber dort bzgl. Software-Entwicklung (Craig) sehr viel Hirnschmalz reinfließen muss, weil alles Richtung Edge Nodes geht und Apple sich ja nicht die Butter vom Brot nehmen lassen will.

Und genau das ist auch der springende Punkt. Allein aus Ihrer "bei uns bist du sicher"-Bubble heraustreten wird nicht einfach, dementsprechend sollten dann eigentlich native, eigene KI-Entwicklungen folgen, von denen man aber bisher (außer Apple Intelligence) nichts hört.

Dass Nvidia hier immer größer wird ist logisch, weil Jensen das Ökosystem als "Universum" definiert und Cook das Thema eher als Gadget für unterwegs betrachtet. Jensen denkt in ganz anderen Dimensionen, ebenso wie Musk. Das ist auch der Grund, warum Apple abseits der bestehenden Produkte viel an die Wand gefahren hat. Wie die Sache mit dem Schuster...

smalM
2025-09-17, 23:04:57
Apple hat uns doch bereits gezeigt, dass sie N3 jetzt bis zum letzten Pferd durchgeritten haben.
Was willst Du uns damit eigentlich erzählen?

smalM
2025-09-17, 23:08:11
Geekerwan (Chinesisch) (https://www.bilibili.com/video/BV1cBp4zQENM/)

Daredevil
2025-09-18, 00:39:11
Geil, Danke! Hier das YT Video von Geekerwan:
https://www.youtube.com/watch?v=Y9SwluJ9qPI

Highlights:
Cache und Bandbreite ordentlich aufgebohrt
P Core nur leicht übertaktet
E Core +15-20% trotz höherem Takt und trotz gleichem Verbrauch
GPU hebt mit Raytracing und High Intense Workloads im Vergleich zum A18Pro komplett ab
Er geht davon aus, das ein M5 Max äquivalent in direkter Konkurrenz zu einer 5090 mobile steht

https://s1.directupload.eu/images/250918/7sqoayjd.png

https://s1.directupload.eu/images/250918/uxymck7d.png

https://s1.directupload.eu/images/250918/goq84e2r.png

https://s1.directupload.eu/images/250918/zvu2zw8n.png

https://s1.directupload.eu/images/250918/3l9xbcd8.png

https://s1.directupload.eu/images/250918/zvu2zw8n.png

https://s1.directupload.eu/images/250918/x2e82ycb.png

Sehr sehr lecker, perspektivisch für iPads, MacBooks und irgendwann auch mal ein MacPro. :ulove:

Sunrise
2025-09-18, 02:10:05
Was willst Du uns damit eigentlich erzählen?
Das steht doch unmissverständlich da. Apple iteriert in so kleinen Schritten wie möglich. Maximale Wirtschaftlichkeit.

Daredevil
2025-09-19, 16:25:02
Kleiner Test in Draw Things aka GenAI mit Flux.schnell 5-bit

1024X1024 - 4 Steps
6c iPhone 16 Pro Max: 295sek
6c iPhone 17 Pro: 104sek
60c M3 Ultra: 17sek

Sicherlich eine Kombination aus Architektur, Kühlung und Verbesserungen in der GPU + Speichergröße und Bandbreite, der Sprung ist aber schon enorm und bringt GenAI einen großen Schritt voran von "HPC" Richtung "Mainstream" aka Smartphones und Tablets.

Badesalz
2025-09-19, 17:06:42
und bringt GenAI einen großen Schritt voran von "HPC" Richtung "Mainstream" aka Smartphones und Tablets.GenAI?? :biggrin: :uconf3: Ja, einen großen. Ab jetzt sind bis GenAI nur noch 128 solche zu machen.

basix
2025-09-20, 09:10:56
Geil, Danke! Hier das YT Video von Geekerwan:
https://www.youtube.com/watch?v=Y9SwluJ9qPI

Highlights:
Cache und Bandbreite ordentlich aufgebohrt
P Core nur leicht übertaktet
E Core +15-20% trotz höherem Takt und trotz gleichem Verbrauch
GPU hebt mit Raytracing und High Intense Workloads im Vergleich zum A18Pro komplett ab
Er geht davon aus, das ein M5 Max äquivalent in direkter Konkurrenz zu einer 5090 mobile steht

Geekerwan zeigt mal wieder, wie man ein sehr detailliertes und umfangreiches Review macht. Auch mit vielen Details zu Architektur und Chipaufbau. Und die Performance / Watt Skalierungen würde ich gerne von allen Reviewern von CPUs und GPUs sehen ;)

Zum neuen Apple Chip:
- P-Cores beeindrucken gar nicht. Das meiste wird mal wieder durch mehr Verbrauch erkauft (siehe Spec 2017)
- E-Core Verbesserungen sind ziemlich nice
- GPU Performance-Steigerung ist recht beeindruckend. Apple hat hier allerdings hinten gelegen, verglichen mit z.B. den Snapdragons. Jetzt ist man knapp führend.

Ja, das wird gute M5 Chips geben. Ich bin aber gespannt, was Apple bei der nächsten Generation aus TSMC N2 rausholen wird. Dort könnte es nochmals einen etwas grösseren Sprung geben.

Daredevil
2025-09-20, 09:25:13
Es gibt ja mittlerweile ein paar unboxings und disassembly Videos, im allgemeinen ist der A19Pro auch nicht größer geworden, sondern minimal kleiner. Habe gerade keine Daten zur Hand, das Video war von Max Tech wo er die Kiste komplett aufgeruppt hat. ^^

dildo4u
2025-09-21, 11:23:01
Gameing Test mit der Vapor Chamber vernichtet die Vorgänger.

4Ip-elSZwfQ

robbitop
2025-09-21, 11:28:53
Hat echte Vorteile was sustained angeht. Aber mal ehrlich: wer spielt echte ernsthafte Spiele auch ernsthaft auf dem Smartphone? Ist ggf eher eine tolle Techdemo als dass das ein echter Usecase für viele ist oder?

Zossel
2025-09-21, 11:42:55
.... ernsthafte Spiele .....

Spannende Formulierung, aber wir sind ja nicht zum Spaß hier.

urpils
2025-09-21, 11:44:05
Hat echte Vorteile was sustained angeht. Aber mal ehrlich: wer spielt echte ernsthafte Spiele auch ernsthaft auf dem Smartphone? Ist ggf eher eine tolle Techdemo als dass das ein echter Usecase für viele ist oder?

Wenn du nach Geld/Umsätzen gehst scheint das ein sehr relevanter Usecase zu sein. Auch mit technisch anspruchsvolleren Titel. Ich kanns aber auch nicht verstehen

dildo4u
2025-09-21, 11:48:47
Selbst wenn der Anteil der Spieler ein Witz ist es werden tonnenweise mher Geräte verkauft vs Konsolen daher lohnen sich die Ports vermutlich da man sie ja auch am Mac zocken kann.

Daredevil
2025-09-21, 11:52:03
Hat echte Vorteile was sustained angeht. Aber mal ehrlich: wer spielt echte ernsthafte Spiele auch ernsthaft auf dem Smartphone? Ist ggf eher eine tolle Techdemo als dass das ein echter Usecase für viele ist oder?
Ein iPad mit den gleichen GPU Kernen + HDMI Kabel und du hast PS4/Pro Qualität?
Switch Qualität ist auch nicht das, was mich vom Hocker holt, aber andere machen das ernsthaft und erfreuen sich an einem Cyberpunkt in Switch Quali. ^^

Das iPhone könntest du ja theoretisch auch an nen Fernseher/Monitor anschließen und mit Controller zocken, wenns gut aussieht mit MetalFX, why not? Mach ich auch nicht, aber manche ja vielleicht schon.

robbitop
2025-09-21, 12:11:13
Spannende Formulierung, aber wir sind ja nicht zum Spaß hier.
Leider ein Beitrag, der nichts zum Thema beiträgt.

Du weißt was gemeint ist. Es gibt diese Handyspiele die man mal ein paar Minuten spielt (sowas wie Angry Birds, Bejewled oder vielleicht diese Asphalt spiele) und es gibt richtiges Gaming (wo man auch mal länger spielt und in der Regel - jedoch nicht notwendigerweise- AAA Titel). ;)


Wenn du nach Geld/Umsätzen gehst scheint das ein sehr relevanter Usecase zu sein. Auch mit technisch anspruchsvolleren Titel. Ich kanns aber auch nicht verstehen
Wobei die Frage ist ob das eine Aussage darüber trifft ob nur ein paar Minuten ein typisches Handyspiel gedallert wird oder was richtiges für längere Zeit. Nur für letzteres bräuchte es die sustained Performance.
Die Umsätze sind riesig - liegt aber vor allem an der Größe des Marktes (so ziemlich jeder Mensch ab einem gewissen Alter - sogar in Entwicklungs und Schwellenländern) hat mittlerweile ein Smartphone und ist somit potentieller Kunde. Aber wie viele von denen spielen längere Zeit am Stück ein Spiel was die HW so auslastet, dass sustained performancesteigerungen relevant sind?
Aber ggf irre ich ich da auch. :) Ich kann es wie du jedenfalls aufgrund des Formfaktors und der Steuerung und der Ergonomie nicht nachvollziehen. Aber ggf spielen doch eine Menge Leute Fortnite oder Minecraft primär auf dem Handy.

Ein iPad mit den gleichen GPU Kernen + HDMI Kabel und du hast PS4/Pro Qualität?
Switch Qualität ist auch nicht das, was mich vom Hocker holt, aber andere machen das ernsthaft und erfreuen sich an einem Cyberpunkt in Switch Quali. ^^

Das iPhone könntest du ja theoretisch auch an nen Fernseher/Monitor anschließen und mit Controller zocken, wenns gut aussieht mit MetalFX, why not? Mach ich auch nicht, aber manche ja vielleicht schon.
Ja absolut - aber wie viel % der Leute machen das? Pads dazu kaufen und/oder an einen Monitor anschließen. Außerhalb unserer Nerd Bubble? :)

Daredevil
2025-09-21, 12:42:41
Ich verstehe auch nicht, wieso es Gaming phones mit Lüfter gibt, Aber irgendjemand scheint ja darauf zu stehen auf Basis von Asus seinem Research, sonst würde es ja kein ROG Phone geben. :D
Sachen gibts, Leute gibts. Vielleicht eher der asiatische Markt?

Ich denke mal, die Vapor Chamber ist auch gut für Pros, die damit halt ProRes aufnehmen für Stunden oder so ein Kram. Ebenso ne harte Nische, aber mit einer Nische fängt ja vieles an. ( Raytracing .. )

smalM
2025-09-22, 01:13:03
"Mobile gaming" war 2023 ein 81 Mrd.$ Markt, fast soviel wie PC + Konsolen.
Davon gingen knapp 48 Mrd.$ an Apples Appstore. Es ist anzunehmen, daß die eine oder andere Milliarde dabei in Apples Säckel gelandet ist.

robbitop
2025-09-22, 11:50:17
Ja sagt aber nichts über die Art des Gamings aus. Hab ich ja schon weiter oben geschrieben. Für 99% der Dulli Handygames braucht es praktisch kaum Power - schon gar nicht sustained. Aber wer weiß - besser haben als brauchen.

bbott
2025-09-22, 17:24:16
Ja sagt aber nichts über die Art des Gamings aus. Hab ich ja schon weiter oben geschrieben. Für 99% der Dulli Handygames braucht es praktisch kaum Power - schon gar nicht sustained. Aber wer weiß - besser haben als brauchen.
Haben ist besser als brauchen, bei Smartphones gilt das Motto (noch).

smalM
2025-09-24, 11:52:05
Dieshot des A19 von ChipWise (https://chipwise.tech/wp-content/uploads/2025/09/A19_SoC_dieshot.jpg)

Nightspider
2025-09-24, 12:24:48
Kenne 2 Kollegen die >1000 Euro für PUBG mobile ausgegeben haben.

Der eine von beiden irgendwas um die 2500 Euro und zockt am iPad.

Also ja, solche Leute existieren.

Der gut verdienende Stiefvater vom Kumpel hat wohl auch schon etliche Euros in irgend so ein Star Wars Rollenspiel @ iPad ausgegeben. Bestimmt auch schon mindestens paar hunder Euro.

robbitop
2025-09-24, 12:48:17
Ipad =! iPhone ^^
Aber schon krass wofür manche ihr Geld ausgeben.

Iamnobot
2025-09-24, 22:34:56
Snapdragon 8 Elite Gen 5 im Benchmark: Qualcomm schlägt Apple erstmals bei Single-Core-Leistung
Der Snapdragon 8 Elite Gen 5 ist in der Tat wie vom Hersteller beworben der aktuell schnellste Smartphone-Chip. Das zeigen CPU- und GPU-Benchmarks, die die Redaktion auf einem Referenzgerät des Unternehmens ausführen konnte.
Ist aber nur ein Referenzgerät. Nichtsdestotrotz beachtlich.
https://www.computerbase.de/news/prozessoren/snapdragon-8-elite-gen-5-im-benchmark-qualcomm-schlaegt-apple-erstmals-bei-single-core-leistung.94437/

Daredevil
2025-09-24, 22:57:03
24GB ist ne Ansage für KI mit der GPU Power. ^^
Da wird der vermutlich hohe Verbrauch zwar mit massiv dicken Batterien erschlagen, aber wenn die Leistung da ist, nimmt man sie doch gerne mit. Die 1% im Single Core sind aber mal ganz glatt an der Taktschraube gedreht, bin sehr gespannt ob das auch in der realen Welt so zum Vorschein kommt. :D

basix
2025-09-26, 09:40:07
Gibt es nicht auch Benches mit A19 Pro, wo man ~4000 Punkte in GB 6.5 erreicht?

Hier ein Geekerwan Review vom Snapdragon Elite Gen 5:
https://www.youtube.com/watch?v=YJaHi-gZESo

davidzo
2025-09-26, 11:10:46
Gibt es nicht auch Benches mit A19 Pro, wo man ~4000 Punkte in GB 6.5 erreicht?

Hier ein Geekerwan Review vom Snapdragon Elite Gen 5:
https://www.youtube.com/watch?v=YJaHi-gZESo

Ja, die A19pro Werte haben eine Streuung zwischen ca. 3800 und 4050Punkte. Computerbases Werte sind am unteren Ende. Vielleicht war das Gerät angewärmt oder der Akku nicht mehr voll? Vielleicht hat das Simcard modell mit dem kleineren Akku eine andere TDPgrenze?

Geekerwan hat ein Seriengerät getestet, nicht das QRD. Hier wird auch realistischerer LPDDR5x-9600 verwendet und nicht 106777 wie beim QRD.
Die Resultate vom 8g5 bei Geekerwan mit bis zu 20Watt bei GB6 ST legen nahe dass die Spitzenwerte des QRD bei 1T Geekbench durch noch mehr Übertaktung entstanden sind.

Ich bin auch ein bisschen enttäuscht dass Computerbase Qualcomms Marketing zumindest in den Überschriften unkritisch nachplappert. Den Konjunktiv in den Newsartikeln übersieht man danach mal schnell.
Anscheinend lohne es sich für Qualcomm bei der Launchparty mal wieder keine Kosten zu scheuen. Man hat die Reviewer großzügig nach Hawai eingeladen.

Qualcomm hat mit Oryon 3 den schnellsten Smartphone-Chip"
- Das ist die Überschrift des Launchartikel und nicht von eigenen Tests.

Wie sich Qualcomm gegenüber AMD, Intel und Apple schlägt
- Auch beim geplanten Desktop Chip macht man sich die Herstelleraussagen zu eigen. Immerhin der Rest des Artikels ist überwiegend im Konjunktiv formuliert.

De la Rocco geht dann auch Qualcomm auf den Leim wenn es um die Vergleichstabellen geht. Da steht 2x 3rd Gen. Oryon 4,6Ghz und 6x 3rd Gen. Oryon 3,62 GHz als wenn es sich um dieselbe Architektur handelt. Das ist genau was Qualcomm möchte: der SOC soll als eine all P-Core CPU wahrgenommen werden. Dabei sind die M-Cores laut Geekerwan nur ca. halb so schnell.

Bei ernsthaftem Journalismus hätte ich erwartet dass man etwas kritischer ist und herausfindet und auch berichtet dass es sich hier um grundverschiedene Oryon-M und Oryon-L Architekturen handelt wie Geekerwan das getan hat.

Iamnobot
2025-09-26, 11:14:50
Ich bin auch ein bisschen enttäuscht dass Computerbase Qualcomms Marketing zumindest in den Überschriften unkritisch nachplappert. Den Konjunktiv in den Newsartikeln übersieht man danach mal schnell.
Anscheinend lohne es sich für Qualcomm bei der Launchparty mal wieder keine Kosten zu scheuen. Man hat die Reviewer großzügig nach Hawai eingeladen.
Ein Glück berichten "Journalisten" bei Apple Launches immer vollkommen objektiv über die neuen Produkte.

Argo Zero
2025-09-26, 11:17:56
Ja sagt aber nichts über die Art des Gamings aus. Hab ich ja schon weiter oben geschrieben. Für 99% der Dulli Handygames braucht es praktisch kaum Power - schon gar nicht sustained. Aber wer weiß - besser haben als brauchen.

Im Grunde haben wir schon lange einen Level erreicht, dass Mehr(-Leistung) im Grunde für die meisten überflüssig ist.
Ich freue mich daher immer über mehr Akkulaufzeit und nicht über einen Score von einem Benchmark, wenn mal wieder ein neues iPhone fällig wird ^^

smalM
2025-09-26, 11:30:52
@basix
Ein paar Dutzend (https://browser.geekbench.com/v6/cpu/search?q=iPhone18&sort=score)

Man soll übrigens Geekerwans Spec2017 Ergebnisse für Android nur innerhalb von Android vergleichen, es soll da Probleme bei SPEC mit der verwendeten libc geben.

basix
2025-09-26, 13:41:04
Oryon-M ist in etwa A725 / C1-Pro Niveau. Das ist kein Big Core im herkömmlichen Sinn, eher ein Medium Core. ARMs C1-Premium sind irgendwo dazwischen.

fizzo
2025-09-26, 13:49:42
Dieshot des A19 von ChipWise (https://chipwise.tech/wp-content/uploads/2025/09/A19_SoC_dieshot.jpg)

Gibt es auch eine Schätzung zur Die-Fläche hierzu?

basix
2025-09-26, 14:14:16
Apple A18 Pro wird mit ~105mm2 angegeben.
The A18 is ~14% smaller than A18 Pro at ~105mm2 and the assumption is A19 is smaller or similar in size.

smalM
2025-09-26, 14:17:26
ChipWise hat keine Info dazu abgegeben.
Grob abgeschätzt anhand der Größe des SLC auf A18 und A19 könnte das Die des A19 sogar etwas kleiner sein als das Die vom A18, macht ca. 16,5 ~17 Mrd. Transistoren.
Aber das kann auch täuschen...

fizzo
2025-09-26, 14:19:44
Apple A18 Pro wird mit ~105mm2 angegeben.

Danke, der A19 Pro dann wohl >105mm2….

KarlKastor
2025-09-26, 23:54:45
Man soll übrigens Geekerwans Spec2017 Ergebnisse für Android nur innerhalb von Android vergleichen, es soll da Probleme bei SPEC mit der verwendeten libc geben.
Hast du da nähere Details zu?

w0mbat
2025-09-27, 10:53:27
Der A19 hat wohl doch 16MB SLC.

smalM
2025-09-27, 15:02:11
Hast du da nähere Details zu?

Hier (https://x.com/soft_fox_lad/status/1971324357478858784)

Andrei hier (https://www.reddit.com/r/hardware/comments/1npt0nc/comment/ng3y0ss/)

smalM
2025-09-27, 15:05:09
Dieshot des A19 Pro von ChipWise (https://chipwise.tech/wp-content/uploads/2025/09/A19pro_SoC_dieshot.jpg)

Daredevil
2025-09-30, 19:54:21
Irgendso ein Crazy Russian YouTuber ist an ein M5 iPad gekommen. :D
https://www.ifun.de/ipad-pro-m5-vorab-im-video-vorgestellt-zum-aerger-von-apple-266106/

Er hat direkt Geekbench angeschmissen, Vergleich zum M4(9c) iPad Pro:
Single Core: 4133pts +10%
Multi Core: 15437pts +16%
Compute: 74568pts +34%

Speicher wächst auf 12GB an, analog zum A19Pro. Das alles in einem 5.3mm schlanken Gehäuse.
Mein M3 Ultra mit 28c/60c kommt auf 3242/26891/229344. Ich will nen M5 Ultra, damit segelt Apple dann wohl in in die Threadripper und 4090/5090 Leistungsklasse. :ulove:

smalM
2025-09-30, 20:35:46
iPad17,3 in Geekbench 6 CPU (https://browser.geekbench.com/v6/cpu/14173685)
iPad17,3 in GPU (https://browser.geekbench.com/v6/compute/4916838) (via AnandTech-Forum, die Suchfunktion findet das bei mir nicht)

Vergleich mit dem schnellsten M4-iPad (https://browser.geekbench.com/v6/cpu/compare/14173685?baseline=13571681)
Das M4-iPad dürfte dabei gekühlt gewesen sein.

Daredevil
2025-09-30, 21:55:30
Obacht, die >1TB Versionen haben einen 10c M4 +16GB, darunter gibts einen Performance Core weniger. Bin gespannt, ob es wieder "dickere" Versionen gibt, die vielleicht dann 24GB haben? Wie bereits erwähnt, hier kommen wir langsam in Regionen, wo auf einem Smartphone und Tablet GenAI ziemlich erträglich laufen könnten, demnach wäre mehr RAM auch sehr nett. Das kleine gpt-oss-20b bekommt man hier bestimmt brauchbar zum laufen.

pixelguy
2025-10-15, 19:58:40
Der M5 ist erschienen:

https://9to5mac.com/2025/10/15/apple-unveils-m5-chip-the-next-generation-of-apple-silicon/

Daredevil
2025-10-16, 22:42:04
Kleiner Test in Draw Things aka GenAI mit Flux.schnell 5-bit

1024X1024 - 4 Steps
6c iPhone 16 Pro Max: 295sek
6c iPhone 17 Pro: 104sek
60c M3 Ultra: 17sek

Sicherlich eine Kombination aus Architektur, Kühlung und Verbesserungen in der GPU + Speichergröße und Bandbreite, der Sprung ist aber schon enorm und bringt GenAI einen großen Schritt voran von "HPC" Richtung "Mainstream" aka Smartphones und Tablets.

M5 > AllIn GPU+AI Speed
Die Sprünge M1>M4 sind teilweise kleiner als der Sprung M4>M5. :ulove:

https://s1.directupload.eu/images/251016/puy24sh3.png (https://www.directupload.eu)

https://s1.directupload.eu/images/251016/8gqr3mjs.png (https://www.directupload.eu)

https://s1.directupload.eu/images/251016/di4pcxy4.png (https://www.directupload.eu)

https://s1.directupload.eu/images/251016/cjcjbthm.png (https://www.directupload.eu)

https://s1.directupload.eu/images/251016/gu2gv4lc.png (https://www.directupload.eu)

https://s1.directupload.eu/images/251016/s9vgzyvp.png (https://www.directupload.eu)

Vielleicht wirds ja dann jetzt was mit Cyberpunk und Raytracing mit nem M5 Max/Ultra ^^

=Floi=
2025-10-17, 02:04:30
welcher depp hat diese graphen gemacht?
Absolut bescheuert.

Daredevil
2025-10-17, 09:34:50
Was ist daran bescheuert?
Hier sieht man Gen to Gen Verbesserungen und nun mal eben den kleinsten M Prozessor von 2020 als Basis/Flexwert für potentielle Upgrader.

smalM
2025-10-17, 11:19:46
Der M1 kam vor 5 Jahren raus und ganz offensichtlich sind Besitzer von M1-Macs die Zielgruppe, an die sich die Darstellung wendet.

smalM
2025-10-17, 13:47:53
Mac17,2 in Geekbench CPU (https://browser.geekbench.com/v6/cpu/14496729)
via MacRumors Forum

Mac17,2 in Geekbench Compute (https://browser.geekbench.com/v6/compute/5025833)
Mac17,2 in Geekbench AI (https://browser.geekbench.com/search?k=ai&q=mac17)

davidzo
2025-10-17, 18:15:26
Mac17,2 in Geekbench AI (https://browser.geekbench.com/search?k=ai&q=mac17)

Single und double precision entsprechen einer 4050 Labtop.
Quantisiert auf dem Niveau einer Desktop 5070ti.

Rooter
2025-10-17, 18:57:49
Der M1 kam vor 5 Jahren raus und ganz offensichtlich sind Besitzer von M1-Macs die Zielgruppe, an die sich die Darstellung wendet.Sehe ich auch so.
"Bis zu 6x schnellere KI Performance als der M1" ist nach einem halben Jahrzehnt nicht ungewöhnlich, sondern im völlig erwartbaren Bereich. Wenn man bedenkt, wie wichtig KI in den letzten paar Jahren geworden ist, sogar eher unbeeindruckend.

MfG
Rooter

fizzo
2025-10-18, 07:50:30
Die Leistungssteigerung der letzten 5 Jahre finde ich durchaus beachtlich. Gerade weil in der Fertigung keine so großen Sprünge wie in der Vergangenheit waren.

basix
2025-10-18, 10:03:11
Die Leistungssteigerung der letzten 5 Jahre finde ich durchaus beachtlich. Gerade weil in der Fertigung keine so großen Sprünge wie in der Vergangenheit waren.

Erste N5 Iteration vs. N3P, ja. Mehr ist es nicht. Apple hat die Frequenz der P-Kerne um ~1.4x erhöht. Die GPU wurde ebenfalls massiv schneller.

Es ist aber auch der Stromverbrauch nach oben gegangen, das solle man nicht unter den Tisch kehren ;)

Ich bin ziemlich gespannt auf die M6 Geräte mit N2P nächstes Jahr. Also generell alle CPUs mit N2P (Apple M6, ARM C2, Qualcomm Gen 6, Zen 6, Nova Lake). N2P mit GAA bietet zwei relativ grosse Sprünge bei max. Performance wie auch Energieffizienz (weniger viel bei Flächendichte). Ich vermute deswegen, dass bei allen CPU Cores die Frequenz relativ stark ansteigen dürfte, etwa +10...15%. Vielleicht knacken sogar alle Smartphone SoCs die 5.0 GHz Marke :freak:

Daredevil
2025-10-18, 10:05:05
Prozentual ist die Leistungssteigerung vielleicht nicht beachtlich, da Strix Halo in 2025 im Cinebench auf die gleiche Single Core Leistung eines M1 kommt und das -immer noch- eigentlich ein Tablet SoC ist, ist das schon Wahnsinn. Der M1 war schon over the Top gut, das Apple es aber schafft fast jedes Jahr eine Besonderheit aus dem Hut zu zaubern ( M3 Raytracing, M4 CPU Boost, M5 GPU/AI Boost? ) obwohl die Basis schon meilenweit vor der X86 Konkurrenz war, das ist eigentlich die Besonderheit. Qualcomm mag aufschließen und auch Intel nähert sich an, trotzdem baut niemand ein Tablet mit den SoCs oder ein leichtes und schlankes, passives Notebook, weil die leistungsmäßig aufschließen, aber allesamt noch zuviel saufen.

Gerade Apple, die im Software AI Bereich hinterher hinken, bekommen mit der Entwicklung der Hardware die Möglichkeit in den nächsten Jahren NVIDIA wieder vom Stock Market Thron zu stoßen, wenn lokale KI in den Geräten gut genug für die Nutzer wird und der A19 und M5 zeigt ziemlich gut, was die -richtigen- Prozessoren leisten werden.
Und weil Apple den Kram allesamt selber baut, können sie sogar über den Preis gehen.

Die ganze Gaming Industrie kann eigentlich nur froh sein, dass Apple nicht mit Valve zusammen arbeitet und einen ordentlichen SoC/Device dafür produziert und sich die Gaming Gemeinde mit solchen hässlichen, dicken, schweren und unhandlichen Handhelds wie ein Ally X zufrieden gibt. :D
Das Damokles Schwert schwebt aber mit jedem Jahr höher und wenn es wirklich mal fallen sollte, kracht es deutlich mehr.


Ich will noch einmal kurz Computerbase zitieren, damit man sich nochmal kurz den Fortschritt vors Gesicht führt.
Das haben sie beim Test mit dem M4 geschrieben in einem MacBook Air: https://www.computerbase.de/artikel/notebooks/apple-macbook-air-m4-test.91907/seite-2#abschnitt_macbook_air_mit_m4_im_benchmark
Vierfache Single-Core-Effizienz von Intel Lunar Lake
Ein Vergleich mit Lunar Lake, Intels derzeit effizientester Notebook-Plattform: Beim Core Ultra 9 288V stehen 16 Watt Verbrauch 127 Punkten im Cinebench 24 gegenüber, also 7,94 Punkte pro Watt und damit lediglich ein Viertel der Leistung des M4. Anders ausgedrückt: Apple Silicon hat die vierfache Single-Core-Effizienz von Intel Lunar Lake. AMDs Ryzen AI 9 HX 370 schneidet mit 5,89 Punkten pro Watt noch schlechter ab.
https://s1.directupload.eu/images/251018/2ybxrm2k.png

mironicus
2025-10-18, 10:29:11
16 GB sind nicht mehr zeitgemäß und dafür dann 1800 Euro verlangen (Macbook Pro M5). Das sind höchstens teure Terminal für KI-Clouddienste. Ich kriege 128 GB mit Strix Halo für 2000 Euro als Mini-PC.

Daredevil
2025-10-18, 10:50:16
Das MacBook Air mit M4 war bereits bei 800€, der MacMini M4 bei knapp 550€, das meinte ich damit. Der Einstieg ist sehr sehr tief und mehr als ausreichend für die meisten Käufer. Ein Smartphone SoC im MacBook wäre auch schon mehr als genug, weil viele aktuell ja auch noch mit dem M1 zufrieden sind und der A18/A19 ist schlicht schneller als der M1.

Der Gegenspieler zu Strix Halo ist der kleine M4 Pro MacMini mit 64GB Unified Memory, der richtige PC der MacStudio mit 128/512GB Unified Memory.
Strix Halo ist mit 128GB sehr nett in der Kerbe zwischendrin, dafür mangelt es am Ende dann aber an Leistung und an Software Support für AI Kram, dafür kostet die Kiste aber deutlich weniger, jep. Eine Base MacMini Alternative mit der gleichen Leistung, die gibts aber nicht.
For the record: Ein M3 Ultra ist auch viel zu langsam für den gezahlten Preis, auch wenn die Kiste ähnlich schnell ist wie aktuelle Desktop Prozessoren und Mittelklasse GPUs. Ein M5 Ultra würde hier extrem gut stehen, das wird ein Riesen Sprung für mich... irgendwann. ^^

Bezüglich der AI Leistung, wir haben hier im Forum einen gpt-oss-20b Benchmark Thread wo explizit das LLM getestet wird:
Speed | CPU | GPU | RAM |Verbrauch |Token pro Watt | Member
223,00 tok/sec | 9950X3D | RTX5090| 32GB | 328w | 0,68 | HisN
157,00 tok/sec | 7800X3D | RTX5070ti |16GB | 250w | 0,63| x-force
140,00 tok/sec | 265k | 7900XTX| 24GB | 350w | 0,40 | RoNsOn Xs
119,00 tok/sec | M3 Ultra 28c | M3 Ultra 60c |96GB | 125w | 0,95 | Daredevil
83,53 tok/sec | M4 Max 16c | M4 Max 40c |48GB | --- | --- | urpils
55,34 tok/sec | 11400 | RTX4000| 20GB | 70w | 0,79 | Loeschzwerg
23,01 tok/sec | X Elite X1E-80 | X Elite X1E-80| 32GB | --- | --- | MSABK
17,00 tok/sec | Z1 Extreme | Z1 Extreme| 16GB | 30w | 0,57 | Gouvernator


Apple wird mit der M5 Reihe um ein mehrfaches effizienter sein als die aktuelle Blackwell Architektur von Nvidia und dabei wahrscheinlich auch noch ein wenig schneller, oder gleich schnell. Urpils hat keine Daten geliefert, ein M4 Max müsste aber irgendwo bei um die 40-60w liegen und somit wären die Token pro Watt hier bei 1,39-2,09, also 2-3 mal effizienter als Desktop Blackwell. Dann füg jetzt mal noch die Neural Accelerators hinzu und gute Nacht. Ich würde mich nicht wundern, wenn Apple diese Technik natürlich auch entwickelt hat, um ihre eigene Datencenter zu füllen. Token per Watt ist gerade im AI Bereich ein unheimlich wichtiger Faktor, da die Energiekosten den Wert einer einzelnen GPU irgendwann übersteigen, je nach dem wie lang sie im Betrieb ist. Wo sich RDNA4 und Strix Halo einreiht, weiß ich nicht, weil niemand hier im Forum daran teilgenommen hat. :o)
Ich wollte den Benchmark eigentlich auch mit meinem iPhone machen, die 12GB VRAM reichen aber nicht aus. :D

urpils
2025-10-18, 13:03:28
ich habe leider keine zuverlässige Verbrauchsmessmöglichkeit ;)

falls es da ein software-Tool gäbe, kann ich das gern noch machen

ich kann es leider nur indirekt grob abschätzen. im Leerlauf brauchen macStudio und das StudioDisplay etwa 50-55 Watt. Unter LM-Studio geht es dann auch etwa 105 Watt hoch. aber wie genau die Messung ist, kann ich nicht beurteilen. (Ausgabe der USV)

smalM
2025-10-18, 13:51:17
16 GB sind nicht mehr zeitgemäß und dafür dann 1800 Euro verlangen (Macbook Pro M5). Das sind höchstens teure Terminal für KI-Clouddienste. Ich kriege 128 GB mit Strix Halo für 2000 Euro als Mini-PC.
Viel Spaß damit, Deinen Minirechner, einen Bildschirm und eine fette Powerbank durch die Gegend zu schleppen...

Daredevil
2025-10-18, 14:37:36
ich habe leider keine zuverlässige Verbrauchsmessmöglichkeit ;)

falls es da ein software-Tool gäbe, kann ich das gern noch machen

ich kann es leider nur indirekt grob abschätzen. im Leerlauf brauchen macStudio und das StudioDisplay etwa 50-55 Watt. Unter LM-Studio geht es dann auch etwa 105 Watt hoch. aber wie genau die Messung ist, kann ich nicht beurteilen. (Ausgabe der USV)
Termin öffnen und folgendes eingeben:
sudo powermetrics

Da bekommst du viele viele Daten über den SoC, aber eben auch das hier:
https://s1.directupload.eu/images/251018/hsixdz5w.png

------

iStat Menus zeigt einem auch den Gesamtverbrauch an, also was die Kiste quasi aus der Steckdose saugt. Ich habe aber überhaupt keinen Plan, wo die Software die Daten her bekommt. In meinen Messungen passt der Wert ziemlich genau zu dem, was aus der Steckdose kommt.
https://s1.directupload.eu/images/251018/i5tpxm7i.png

Ist aber auch nicht nötig. Der M4 Max wird schon irgendwo bei der hälfte des M3 Ultras sein. Einerseits zieht er zwar ein wenig mehr als ein einzelner M3 Max, andersrum ist die "verklebung" des M3 Ultra natürlich auch deutlich ineffizienter, auch wenn du den dicken M4 Max hast.

mboeller
2025-10-18, 14:43:05
Viel Spaß damit, Deinen Minirechner, einen Bildschirm und eine fette Powerbank durch die Gegend zu schleppen...

tsss

https://preisvergleich.heise.de/?cat=nb&xf=12_131072~6751_32

Daredevil
2025-10-18, 15:06:28
tsss

https://preisvergleich.heise.de/?cat=nb&xf=12_131072~6751_32
Strix Halo ist gut und hat auch sicherlich seine Vorteile mit den 128GB, aber nicht durchweg. Es gibt auch entscheidende Nachteile und das ist eben der GPU/AI Speed, der Verbrauch und damit die Flexibilität. Die unten stehende Leistung bekommst du nicht, wenn du es ohne Netzteil betreibst, oder?

https://www.storagereview.com/review/hp-zbook-ultra-g1a-14-review-all-the-ai-hype-not-enough-payoff
While capable of running the model, the HP Zbook Ultra G1a and Apple MacBook Pro M4 Pro fall behind considerably. The MacBook completes the task in 91.5 seconds, noticeably faster than the ZBook’s 131.9 seconds. Notably, this performance comes at a considerable price difference; the configured HP Zbook Ultra G1a costs $4,049 compared to the MacBook Pro at $2,799. This means you pay a substantial premium for slower performance with the ZBook. Running the larger model here underscores that dedicated professional-grade GPUs are crucial for optimal performance with models of this size. While you can run them on the HP Zbook Ultra G1a, the performance gap versus a dedicated GPU is massive, and the price doesn’t align with the results.

https://s1.directupload.eu/images/251018/ir346vjd.png

CPU seitig sieht das natürlich anders aus, wenn AMD in 2/3nm fertigt sicherlich auch, dabei das ist halt der aktuelle Stand.


Edit: ^^
https://s1.directupload.eu/images/251018/h9sfv8qe.jpghttps://s1.directupload.eu/images/251018/22ittmd7.jpg

urpils
2025-10-18, 18:23:38
Termin öffnen und folgendes eingeben:
sudo powermetrics

Da bekommst du viele viele Daten über den SoC, aber eben auch das hier:
https://s1.directupload.eu/images/251018/hsixdz5w.png

------

iStat Menus zeigt einem auch den Gesamtverbrauch an, also was die Kiste quasi aus der Steckdose saugt. Ich habe aber überhaupt keinen Plan, wo die Software die Daten her bekommt. In meinen Messungen passt der Wert ziemlich genau zu dem, was aus der Steckdose kommt.
https://s1.directupload.eu/images/251018/i5tpxm7i.png

Ist aber auch nicht nötig. Der M4 Max wird schon irgendwo bei der hälfte des M3 Ultras sein. Einerseits zieht er zwar ein wenig mehr als ein einzelner M3 Max, andersrum ist die "verklebung" des M3 Ultra natürlich auch deutlich ineffizienter, auch wenn du den dicken M4 Max hast.


ahhh.. ok. interessant. also er hat mir "combined power" beim Durchlaufen von LM-Studio mit dem gpt-oss-20b in der Spitze 42 Watt angezeigt.

Aber man muss auch sagen, dass das ja ne recht kurze Lastspitze ist. vielleicht muss ich da was suchen, wo er länger dran arbeitet?

mironicus
2025-10-18, 21:07:21
Erst wenn Apple endlich ein Tandem-Oled in die Macbook Pro verbaut, würde ich persönlich wechseln (von meinem M2 Pro).

smalM
2025-10-18, 22:15:33
tsss

https://preisvergleich.heise.de/?cat=nb&xf=12_131072~6751_32
Ist das dieser Mini-PC mit 128 GB RAM für 1800€?

Daredevil
2025-10-21, 15:16:17
iPad Pro mit M5 im Test: Apple überrundet die Konkurrenz
https://www.computerbase.de/artikel/tablets/apple-ipad-pro-m5-test.94717/
Das Sprichwort „sich auf den Lorbeeren ausruhen“ gehört ganz offensichtlich nicht zu Apples Vokabular. Viel eher war es aber eine ganz bewusste Entscheidung Apples, nach dem M4 jetzt mit dem M5 den Wettbewerbern noch einmal so richtig zu zeigen, wer der Platzhirsch ist. Das iPad Pro mit M5 überrundet die Konkurrenz, denn selbst der M4 würde eigentlich noch ausreichen, um dieses Jahr den Spitzenplatz zu behalten.

Der M5 ist eine Machtdemonstration, mit der sich das iPad Pro in die Gefilde leistungsfähiger Notebooks begibt.

Ein Highlight: Die RT Leistung wurde hier auch erheblich aufgebohrt, knapp 46% mehr Bilder. Der A19Pro kam hier im Vergleich zum Vorgänger auf +64% Leistung, wahrscheinlich aber auch wegen der Vapor Chamber im iPhone 17Pro. Schön, dass es mit nach oben skaliert.
https://s1.directupload.eu/images/251021/appz38cl.png

davidzo
2025-10-21, 15:33:23
In Solarbay, also mit Raytracing fast 50% vor der Radeon 890M als Referenz mit 128bit SI. Schon der M4 war hier leicht schneller. Die Speicherbandbreite ist aber dank 9600er LPDR5X auch 28% höher.
In Rasterizing, also Steel Nomad light sind es nur 18% Vorsprung.

Die üblichen AMD HX370 Geräte sind aber 16" Notebooks mit 35-54Watt TDP.
Apple erreicht das mit maximal 14W TDP.
21h Akkulaufzeit aus nur 39WH ist beeindruckend.

mboeller
2025-10-21, 17:58:43
Ist das dieser Mini-PC mit 128 GB RAM für 1800€?

nein das Notebook ...

+

https://www.notebookcheck.com/Ein-Konkurrent-fuer-das-MacBook-Pro-HP-Notebook-mit-Ryzen-AI-Max-Pro-und-OLED-Panel-fuer-1-899-Euro.1143435.0.html

Der_Korken
2025-10-21, 19:59:07
CB 2024, +58% ST-Leistung auf den schnellsten (mobilen) Ryzen. Ohne Worte...

Hoffentlich misst jemand mal nach, ob die großen Kerne von Intel und AMD mittlerweile schon von Apples E-Cores überholt wurden ...

https://www.computerbase.de/artikel/notebooks/apple-macbook-pro-m5-test.94739/seite-2#abschnitt_hoehere_singlecoreleistung_als_desktopcpus

Edit:

CB 2024 scheint den M-CPUs sehr zu schmecken. In Spec2017 und CB 2023 ist Apple "nur" noch 25% vorne in ST: https://www.bilibili.com/video/BV1XYWRzQEtP/?spm_id_from=333.1387.list.card_archive.click

Wobei ich vor kurzem gehört hab, dass die Spec-Suite erneuert werden soll, da sich seit 2017 doch einiges getan hat im CPU-Bereich.

dildo4u
2025-10-22, 07:08:50
Ich finde die Konfig dumm der USP war doch das die Geräte sich nicht bemerkbar machen jetzt ist der Ding so laut wie Gameing Notebooks.

Das passiert wenn sie unbedingt jedes Jahr was neues bringen müssen anstatt auf 2nm zu warten.

MSABK
2025-10-22, 07:15:04
Klar ist beeindruckend. Ich wüsste aber nicht was der M5 im iPad besser machen könnte als mein M1 Tablet.

So viel Leistung und dann wird es für Streaming usw genutzt.

mczak
2025-10-22, 08:40:31
Ich finde die Konfig dumm der USP war doch das die Geräte sich nicht bemerkbar machen jetzt ist der Ding so laut wie Gameing Notebooks.

Das passiert wenn sie unbedingt jedes Jahr was neues bringen müssen anstatt auf 2nm zu warten.
Das alte Modell mit dem M4 war auch nicht wirklich leiser.
Und dass das so laut ist liegt hauptsächlich daran dass Apple eine miese Kühllösung verbaut bei den Modellen mit M4 und M5, die Modelle mit den Pro Chips (ich gehe mal davon aus das wird beim M5 Pro auch so sein) sind trotz deutlich mehr Abwärme im selben Gehäuse bei Maximallast leiser.

dildo4u
2025-10-22, 08:45:13
Wie kann das laut sein sie haben ja nich zusätzlich noch eine Nvidia GPU zu Kühlen und das ist das kleineste Modell.

Badesalz
2025-10-22, 08:54:32
CB 2024 scheint den M-CPUs sehr zu schmecken.Intel übrigens auch. Bedeutet real überhaupt nichts. Welche ausentwickelte Erwachsene fallen bitte noch mit CB rein? :|
Wobei ich vor kurzem gehört hab, dass die Spec-Suite erneuert werden soll, da sich seit 2017 doch einiges getan hat im CPU-Bereich.Zum Glück nicht nur bei Apple.

Der_Korken
2025-10-22, 10:12:53
Intel übrigens auch. Bedeutet real überhaupt nichts. Welche ausentwickelte Erwachsene fallen bitte noch mit CB rein? :|

Wenn du aussagekräftigere ST-Benches (oder "Low-Thread-Benches") hast, immer her damit. Geekbench hab ich extra weggelassen :usweet:.

mboeller
2025-10-22, 10:18:37
Intel übrigens auch. Bedeutet real überhaupt nichts. Welche ausentwickelte Erwachsene fallen bitte noch mit CB rein? :|
Zum Glück nicht nur bei Apple.


ist ja nett, das sich bei den CPUs, egal ob Apple, Android oder X86 was getan hat. Zumindest die X86-Software ist größtenteils immer noch auf dem Stand von (großzügig) 2015.

Badesalz
2025-10-22, 10:22:33
Geekbench hab ich extra weggelassen :usweet:.Ok das relativiert das natürlich teils. Dafür gibt es klar mehrere Pluspunkte :up:
ist ja nett, das sich bei den CPUs, egal ob Apple, Android oder X86 was getan hat. Zumindest die X86-Software ist größtenteils immer noch auf dem Stand von (großzügig) 2015.Es ist ja auch immernoch x86-64 was damit betrieben wird :| Was hat sich denn bei Apple seit Ende 2020 an der M-Software so getan?

Oder schweben dir da grad Intels trölf ISA-extensions vor? :usweet: Die haben hier z.B. dem 7-zip noch nicht einmal etwas gebracht.

Badesalz
2025-10-23, 09:26:12
[B]iPad Pro mit M5 im Test: Apple überrundet die Konkurrenz
[...]
Ein Highlight: Die RT Leistung wurde hier auch erheblich aufgebohrt, Das ist auch klar genau das was sich die Leute fragen die sich nach einem Tablett bzw. einem/neuen Ipad umschauen:
"Wie sieht es da mittlerweile mit der RT-Leistung aus?" :ulol:

MSABK
2025-10-23, 09:55:48
Die Performance ist schön und gut. Am ende des Tages ist es halt aber doch nicht vergleichbar weil ein WindowsUser hat nichts von dem Vergleich.

dildo4u
2025-10-23, 10:09:41
Das ist auch klar genau das was sich die Leute fragen die sich nach einem Tablett bzw. einem/neuen Ipad umschauen:
"Wie sieht es da mittlerweile mit der RT-Leistung aus?" :ulol:
Der Erste RT versuch war wohl nur AMD Level jetzt siehts besser aus.
Alles ganz nett wenn PC Low End Karten alleine über 100 Watt ziehen.

Cyberpunk 20 auf 58fps.

https://youtu.be/NHlLPTRM8JI?si=796lfvrjaoE_5H4k&t=224

Daredevil
2025-10-23, 11:47:19
Das ist auch klar genau das was sich die Leute fragen die sich nach einem Tablett bzw. einem/neuen Ipad umschauen:
"Wie sieht es da mittlerweile mit der RT-Leistung aus?" :ulol:
Henne-Ei Problem.

Blender kommt aufs iPad – mit Pencil-Support
https://www.heise.de/news/Blender-kommt-aufs-iPad-mit-Pencil-Support-10500178.html
Eigentlich erscheint es geradezu logisch, dass man digitale Werkstoffe bei der Verwendung von Blender "anfassen" möchte – tatsächlich gibt es dafür auf PC oder Mac diverses Zubehör. Doch nun wird die Nutzung des Open-Source-3D-Pakets noch etwas natürlicher: Die Blender-Foundation hat angekündigt, eine iPad-Version der Software umzusetzen, die spezifisch auf Apple-Tablets angepasst ist.
Da das iPad Pro mittlerweile dank M-SoCs schnell genug geworden ist, ist das jetzt auch technisch möglich. "Die Idee dabei ist, die volle Leistung von Blender auf diese Geräte zu holen."

-----------

Die Performance ist schön und gut. Am ende des Tages ist es halt aber doch nicht vergleichbar weil ein WindowsUser hat nichts von dem Vergleich.
Wenn Apple Hardware mit Emulation oder Simulation von Windows bzw. X86 schneller ist als die Native X86 Hardware, wird es u.U dann doch sehr spannend. :)

Badesalz
2025-10-23, 12:09:17
DAS ist auch was man will. Blender auf 12.9". Der tatsächlich "sichtbare" Bereich ist übrigens kleiner.

Ja. Die Leistung ist da. Das steht auch nicht zu Debatte. Von der äähh... Gesamtkörperform :rolleyes: erinnert mich sowas grad nur - egal welcher Hersteller es wäre - an diese Zeichnung
https://www.cartoonstock.com/cartoon?searchID=CS483514

Wenn Apple Hardware mit Emulation oder Simulation von Windows bzw. X86 schneller ist als die Native X86 Hardware, wird es u.U dann doch sehr spannend.Natürlich. Es wird halt zum einen in den nächsten Jahren nichts mehr von AMD/Intel kommen. Zum anderen sieht es sehr danach aus, daß Apple Hardware preislich immer attraktiver wird :uup:

Daredevil
2025-10-23, 13:31:08
Wenn man Procreate auf einem iPad nutzt, macht sich Blender bestimmt auch ganz gut, das große iPad ist jetzt in der Tat nicht klein, da der Abstand zum Kopf deutlich geringer ist als der Monitor auf dem Tisch. Zudem hat man hier nen extrem gut kalibriertes Tandem OLED Display mit 1000nits durchgängig, das bekommste als Monitor schlicht nicht, als Tablet schon mal gar nicht, als Notebook vereinzelt.

Das hier sind die einzigen Geräte mit OLED und 1000 Nits
https://s1.directupload.eu/images/251023/mdjj6aw6.png

Zur Leistung: Natürlich macht AMD und Intel auch weiter. Wenn Apple aktuell aber in manchen Szenarien 30-50% vorne liegt, dann ist der Abschlag der Emulation das Resultat, das es ähnlich schnell läuft. Bei manchen Apps ein wenig mehr, bei anderen weniger.

Eine 5060M kommt im Blender Benchmark auf 3544pts, Strix Halo auf 1303pts und der M5 wie vorher schon geschrieben auf 1751pts. Pack den iPad Abschlag rein aufgrund der 5mm dicke und der sehr begrenzten Kühlung und wir landen hier irgendwas um die 10-20% unter AMDs schnellstem SoC, ist doch nett für den Einstiegs-Tablet-SoC.

1/3 der 5080 Mobile Leistung für bald irgendwann um die 500-600€ in nem MacMini
https://s1.directupload.eu/images/251023/8qws9cr4.png

Badesalz
2025-10-23, 13:32:32
Da hast du auch wieder Recht. Es gibt kaum was schöneres als 1000 Nits direkt vor der Nase.

robbitop
2025-10-23, 13:34:57
Doch: 2000 Nits X-D
Manche sind einfach nur zahlengeil. Wenn man im Sonnenlicht draußen sitzt braucht man 1000 nits full screen und mehr. Aber in normaler Innenumgebung...naja.

Daredevil
2025-10-23, 13:39:54
Da hast du auch wieder Recht. Es gibt kaum was schöneres als 1000 Nits direkt vor der Nase.
Die gibt es, wenn man das Gerät nicht nur zum Netflix gucken im Keller verwendet, sondern zum arbeiten. Ich habe ziemlich oft in den letzten Jahren Videos geschnitten in der Bahn, auf Flughäfen oder in Cafes und muss mich nie von der Sonne weg positionieren, weil das MacBook mit den 1000Nits hell genug gewesen ist, um die Blendung aufzufressen. Nur weil du keinen Usecase kennst, bedeutet das nicht, das es keinen gibt.
Ein iPad nutzt man noch mal mehr mobiler als ein Notebook und dementsprechend braucht so ein Gerät, sofern man es in jeder Situation gut bedienen möchte, eben genau das Display, was es nun hat. Wer das Tandem OLED Display mal gesehen hat, der weiß genau, warum Apple das eingebaut hat. Das ist sehr sehr nett.

Und selbst wenn man die maximale Helligkeit nicht benötigt, hat man zusätzlich auch im SDR Bereich einfach ein seeeeehr effizientes Display.
76% längere Laufzeit als das LED Display im M3 iPad Air, dabei 14% dünner und 28% leichter.
https://s1.directupload.eu/images/251023/xw2r4uvp.png

robbitop
2025-10-23, 13:43:36
Ich arbeite schon seit Jahrzehnten mit Laptop in Bahn und Flugzeug. Ohne 1000 nits - ging auch. Ist es in den Situationen geiler wenn das Display heller ist? Klar. Geht es ohne? Na klar. Und wie oft genau kommen die Situationen vor? In 0,1% der Fälle?
Klar ist das geil - aber IMO ist das ein wenig Gehype. :D

mboeller
2025-10-23, 13:52:56
Ich habe ziemlich oft in den letzten Jahren Videos geschnitten in der Bahn, auf Flughäfen oder in Cafes und muss mich nie von der Sonne weg positionieren, weil das MacBook mit den 1000Nits hell genug gewesen ist, um die Blendung aufzufressen.

redest du dir jetzt wirklich den Glare-Bildschirm schön?

Daredevil
2025-10-23, 13:56:20
iPads werden zum Monitoring und zum Livebild für Kamera Setups verwendet, insofern stellt sich die Frage imho nicht. Nicht jeder benötigt das sicherlich, es ist aber eben ein "Pro Display" für diejenigen, die es eben brauchen. Wer das nicht braucht, kauft halt ein Air oder profitiert dann vom sparsameren Display. Ich persönlich bin mit 500nits nicht klar gekommen, weswegen ich mir Vivid gekauft habe, um den MiniLED Screen auf 1000 Nits hochzujubeln. Zuhause auf meinem Monitor auf dem Schreibtisch brauche ich so eine Helligkeit sicherlich nicht. Das iPad bräuchte für mich wahrscheinlich auch nicht diese Helligkeit, das ich bin aber auch kein SemiPro Videograph.

https://www.youtube.com/watch?v=fLGESoDaGEY
https://s1.directupload.eu/images/251023/lqpfjwru.png

redest du dir jetzt wirklich den Glare-Bildschirm schön?
Matte Beschichtungen verfälschen die Brillanz des Bildes, dort würdest du für die richtige Farbkorrektur nochmal mehr Helligkeit benötigen, um ein korrektes Ergebnis zu bekommen. Also Matt und Low Brightness wird schwierig, Matt und High Brightness ist sehr nice.
Wenn du auf einem Matten 500nit Display Color gradest und dir das Ergebnis später auf 500nit Glare anschaust, hast du ein völlig anderes Ergebnis. Und mal davon ab, kann man ohne HDR Displays, die wirklich HDR darstellen, eben kein HDR bearbeiten. Wenn du mal den erlebbaren Schwarzwert eines glänzenden und eines matten Geräts vergleichst, sieht man direkt den Unterschied ziemlich stark.

Aber genug OT hier. (:

Badesalz
2025-10-23, 13:58:18
redest du dir jetzt wirklich den Glare-Bildschirm schön?Man muss jetzt aber auch nicht alles gleich schlecht reden. In der heutigen Zeit, wie man das so sagt, ist das in der Bahn nicht ganz verkehrt, wenn du genau siehst was in deinem Rücken passiert.

davidzo
2025-10-23, 16:34:39
Ich arbeite schon seit Jahrzehnten mit Laptop in Bahn und Flugzeug. Ohne 1000 nits - ging auch. Ist es in den Situationen geiler wenn das Display heller ist? Klar. Geht es ohne? Na klar. Und wie oft genau kommen die Situationen vor? In 0,1% der Fälle?
Klar ist das geil - aber IMO ist das ein wenig Gehype. :D

Mir ist es ein Rätsel wie manche Leute mit so wenig Licht auskommen. Ich bekomme da Kopfschmerzen vom auf den Screen starren und rätseln was die kaum erkennbaren Zeichen heißen könnten. Wenn ich mal bei Kollegen über die Schulter gucken soll rege ich mich regelmäßig auf wenn die ihr Display am Miminum betreiben weil sie ihr Netzteil nicht anstecken wollen und der Intel labtop eben begrenzt Akku hat. Ich kann dann von weiten nichts erkennen.

Augen sind wohl verschieden. Ich fahre halt auch im Büro gerne die vollen 500nits auf meinem Notebook und nur morgens und abends rediziere ich etwas.


redest du dir jetzt wirklich den Glare-Bildschirm schön?
Es gibt das ipad pro doch auch mit nanotexturglas wie die macbooks auch.

robbitop
2025-10-23, 18:12:50
500 nits im Büro? :O Vielleicht musst du mal zum Augenarzt? X-D (oder aber du sitzt vor einer Fensterfront in der Mittagssonne? - da wäre dann aber leichte Abdunklung oder smartere Platzwahl effizienter ^^)
Ich habe da absolut nicht das geringste Problem - wenn man mal Extremsituationen ausklammert die quasi nie vorkommen.

Badesalz
2025-10-23, 18:45:51
@robi
Fensterfront wird nicht reichen. Ich hatte schon einige Male das Gefühl, er sitzt im Glashaus...

@davidzo
Man starrt Kollegen auch nicht von weit Weg auf den Schirm. Übrigens. Vielleicht regeln sie das extra runter, weil sie wissen, du sitzt dahinter?

CrazyIvan
2025-10-23, 20:59:15
Von meiner Seite auch klares Bekenntnis zur Pro-Helligkeits-Fraktion im Arbeitsumfeld.
Mich nervt es, dass mein AG bei den sonst soliden HP EliteBook Konfigurationen immer am Display spart - 250 nits und weit weg von getreuer sRGB-Darstellung. Wenigstens bei den stationären Monitoren mit ca. 400 nits und 95% sRGB hatte man ein wenig Erbarmen.
Ich möchte im Büro nicht im Halbdunkel sitzten müssen, nur weil das Display sonst aufgibt - von direkter Sonneneinstrahlung rede ich da gar nicht.
Und vor allem in der Industrie ist der Shopfloor üblicherweise sehr gut und aus vielen Achsen ausgeleuchtet, um Abschattung zu minimieren - ist ein Qualitäts- und Ergonomiethema in den meisten Fertigungen. Das wurde dank LED als sehr energieeffizientem Leuchtmittel auch in den letzten Jahren noch massiv gesteigert.
Und das ist schon auch hinsichtlich Volumen ein signifikanter Markt und nicht etwa eine Nische.

basix
2025-10-24, 09:12:44
Also zum Arbeiten oder generell lange auf den Bildschirm schauen, empfinde ich etwas dunkler als deutlich angenehmer. Ich bin bei glaube ich so 100...120nits unterwegs. Spiele und Filme sind ein anderes Thema, da darf es heller sein.

Badesalz
2025-10-24, 09:53:08
@CrazyIvan
Das war erst kein generelles Thema.
Es ging erst um Tabletts, dann um Laptop, dann Büro. Dann du mit Fabrikhalle...

@all
Ich hab bei uns wirklich nichts sabotiert, aber was Tabletts angeht ist hier die Welt beim ipad6 stehen geblieben. Mittlerweile eben auch nicht das wichtigste Gerät im Haus :rolleyes: Den hat hier eigentlich noch nie jemand über 50% hochgezogen gehabt. Hab ich bisher nie erlebt.
Eigentlich, weil ich als einziger mal so eine Phase hatte wo ich damit draußen saß. Keine Ahnung wieviel das immer war. Irgendwas zwischen 60 und 70 wohl.

Und nie runtergezogen. Jedes Mal, wenn das dann drin jemand nahm und anmachte: "Booaah! Hilfee! Weer war deeenn am ipaaad draan?? Augeenkreebs!" :wink:

Und sonst liebe Kinderlein, wenn es hier um CPU/SoC geht, dann ist eine allgemeine Markenwerbung genauso wie eine spezielle über Displays völlig peng, oder?

Deren 2025 Generationen von egal was erreichen neue bisher unerreichte Preisregionen. Daran wird sich das messen. Nicht am RT am Tablett. Und nein, es ist keine Frage dessen was man für das Geld bekommt, denn die Leistungen reichen zu allermeist schon längst. Es ist die Frage der absoluten Ausgaben.
P/L rückt mittlerweile immer weiter in den Hintergrund, weil P eben schon davor dicke ausreichte. Die Pro finden zwar durch P/L nun paar neue Einsatzfelder, aber das sind eben nur die Pro.

Daredevil
2025-10-24, 12:33:12
Wow, du kommst in nen SoC Speku Thread und deine Grundaussage ist, die Leistung reicht schon lange aus. Macht’s ja offenbar nicht, sonst hätten wir lokale KI schon in den AirPods. Dass die P/L nicht steigt, weil die Performance zwar mehr wird, sie aber „ausreicht“, ist doch auch Käse. Heute kannste AAA Titel auf einem iPhone spielen, vor 5 Jahren ging das nicht. Man kann nie genug Performance haben, nie.

Je schneller die Hardware ist, desto effektiver wird sie eben auch.
Der M5 saugt zwar mehr als der M4, da die Aufgaben aber schneller erledigt werden, steigt die Batterielaufzeit an. Ein M1 öffnet zwar ähnlich schnell eine App wie der M5, wenn ich 4K120/8K60 Videos schneide, ist letzterer aber eher fertig und demnach schläft das iPhone eher wieder ein. Technischer Fortschritt.