Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple
VooDoo7mx
2023-09-13, 11:18:56
Ist IMO ein "mindset" Ding mit Apple. Die sagen immer "Games whoohoo". Aber echtes Commitment da was zu machen ist da nicht. Wenn es das wäre würden sie nicht nur 99% Open Source Code klauen und 1% beisteuern um dieses "Developer Kit" zu bauen, was im H1 diesen Jahres vorgestellt wurde. Wenn sie committed wären, würden sie einen kickass Translation layer bauen, wie Valve mit Proton, der bestmöglich jedes Windows Spiel auf dem Mac laufen lässt. Spielinherente Bugs umgeht (die Kompatibilität breaken) und mit einem schlagkräftigen Team konstant daran arbeitet, dass so viele wie mögliche Games (gut) laufen. Zu jedem neuen Release gibt es dann ein Translation layer update. Ich bin mir dank Valve's Vorarbeit (und Apples erstaunlich schneller x86 translation) ziemlich sicher, dass wenn sie es wollten, Spiele ziemlich gut auf Macs laufen könnten.
Wenn sie mit Valve partnern würden, würde Valve vielleicht sogar ein Teil des "Legworks" für sie übernehmen wer weiß?
Und natürlich müssten sie ihre Treiber etwas mehr auf 3D Games optimieren.
Tja zumindest bisher ist das mindset bei Apple dafür nicht da. Aber es wäre sicherlich nicht schädlich für Apple das zu ändern.
Wenn man sich anschaut, was die in HW bauen. Eine top moderne GPU mit offenbar hohem RT HW Level (und meshshading), sogar modernes temporales Upsampling (auf CB steht sogar dass das auf einem NN basieren soll). Und dann wird das alles nur halbherzig genutzt und größtenteils nur für Bildbearbeitung und Videoschnitt (die nur ein Bruchteil der Features benötigen).
Aber wer weiß - vielleicht überrascht Apple uns ja doch noch und man kann in ein paar Jahren relativ gut auf Macs spielen.
Apple soll einfach Vulkan unterstützen und fertig.
Dann kann praktisch Valve mit Proton übernehmen und ein paar Apple Engneers arbeiten mit Valve zusammen.
Das ist aber nicht der Apple-way. Wenn es Spiele auf dem Mac gibt dann nur zu überteuerten Preisen im Mac Store. Apple ist ja bekanntlich sehr knapp bei der Kasse und muss bei jeden Verkauf mitverdienen.
Zusammenarbeit mit anderen Firmen? Niemals! Softwareverkäufe in anderen Stores? Bestenfalls noch geduldet.
Assasins Creed und Resident Evil kommen auf das iPhone. Bedeutet dies, dass das auch nativ auf dem MacBook laufen wird?
Jede iOS/iPadOS App läuft nativ und ohne Anpassung auf Mac OS mit ARM Prozessoren.
Der Ersteller muss nur im Store einen Haken setzen, damit die auch im MAC Store auftauscht. Was viele natürlich nicht machen. Wäre ja auch zu einfach.
Ailuros
2023-09-13, 11:55:50
Darf gerne alles in Hardware unterstützt werden, da habe ich nichts dagegen :) Allerdings finde ich wachsen iOS wie Android mal so gar nicht, hinsichtlich Software und neuen Möglichkeiten. Aber klar, was machen die Leute schon an ihrem Smartphone außer Instagram und Co.? Logisch dass sich da keiner abmüht großartig mehr aus der Hardware zu holen.
IMHO entwickelt Apple heute nicht mehr SoCs fuer tablets/smartphones, sondern einer quasi Grundlage von ULP SoCs fuer ein smartphone bis zu einem bombastischen SoC fuer laptops und co. oder eben anders A17 zu M3 (und dann natuerlich die die-Multiplizierung bis zum M3 Ultra).
Ich hab auch das Gefuehl dass die meisten hier den Aufwand fuer hw RT ueberschaetzen; mal sehen ob zukuenftige die shots fuer die GPUs zwischen A17 und A16 helfen. Grob einschaetzen kann man es schon. Ich lass mich gerne eines besseren belehren aber ich hab das Bauchgefuehl dass die RAC units in etwa so gross sind wie eine raster/geometry unit in der GPU.
***edit: IMG gibt natuerlich keine Daten an aber Wizard war die erste SoC GPU IP (eine quad core Rogue GPU) mit dedizierten RT hw Einheiten. Als ich Rys damals bei B3D fragte ob das transistoren-budget fuer den RT Teil nenneswert waere sagte er einfach nein. Wizard stammt aus 2015 und wurde afaik nie in hw realisiert: https://www.highperformancegraphics.org/slides23/2023-06-_HPG_IMG_RayTracing_2.pdf Ebenso gute Lektuere McCombe war ein ex Apple engineer und eines der Vaeter von Caustic: https://dlnext.acm.org/doi/abs/10.1145/2504435.2504444
Sonst wenn Apple irgendwelche extravagantere Plaene fuer AR/VR in der Zukunft hat, wuerde ich effiziente RT hw als eine absolute Notwendigkeit ansehen.
Daredevil
2023-09-13, 11:59:31
Assasins Creed und Resident Evil kommen auf das iPhone. Bedeutet dies, dass das auch nativ auf dem MacBook laufen wird?
Resident Evil Village haste heute schon nativ mit AI Upscaling.
@Ailuros
„Apple Silicon“ beginnt doch bei der Watch, oder? Die hat ja nun auch bald ne neural engine drin. ^^
Und der alte Watch Chip werkelt ja im neuen HomePod.
Ailuros
2023-09-13, 12:20:45
@Ailuros
„Apple Silicon“ beginnt doch bei der Watch, oder? Die hat ja nun auch bald ne neural engine drin. ^^
Und der alte Watch Chip werkelt ja im neuen HomePod.
Wie meinen?
***edit: wenn ich Dich nicht falsch verstanden habe Apple hat zwar schon frueher angefangen die GPU ALUs umzukrempeln aber offiziell war ihr erster "custom" design fuer 2016 angekuendigt.
Assasins Creed und Resident Evil kommen auf das iPhone. Bedeutet dies, dass das auch nativ auf dem MacBook laufen wird?
Die Resident Evil Teile kommen laut Capcom auch für iPads mit M1 und M2 Chip und Mac.
Bei AC Mirage habe ich noch nichts offizielles gelesen.
https://www.capcom-games.com/apple/en-us/
The_Invisible
2023-09-13, 12:35:46
Die iPads haben ja erst ab der 1TB Variante 16GB RAM, reichen dafür 8GB wirklich aus? Aber gut, wahrscheinlich darauf optimiert...
Daredevil
2023-09-13, 12:47:05
Wie meinen?
***edit: wenn ich Dich nicht falsch verstanden habe Apple hat zwar schon frueher angefangen die GPU ALUs umzukrempeln aber offiziell war ihr erster "custom" design fuer 2016 angekuendigt.
Nichts wildes. Ich meinte nur, dass Apple Silicon nicht beim iPhone anfängt, sondern doch auch schon in der Watch steckt. Jetzt weiß ich natürlich nicht, ob der "S9 SiP" auch in 3nm gefertigt ist, vermutlich nicht, aber der ähnelt ja dem AXX laut den Bildern bei Apple. Also CPU Cores, GPU Cores, Neural Engine.
Ailuros
2023-09-13, 12:56:03
Nichts wildes. Ich meinte nur, dass Apple Silicon nicht beim iPhone anfängt, sondern doch auch schon in der Watch steckt. Jetzt weiß ich natürlich nicht, ob der "S9 SiP" auch in 3nm gefertigt ist, vermutlich nicht, aber der ähnelt ja dem AXX laut den Bildern bei Apple. Also CPU Cores, GPU Cores, Neural Engine.
https://en.wikipedia.org/wiki/Apple_silicon#Apple_S3
Custom GPUs ab S4 ie ~2018
Nightspider
2023-09-13, 13:18:14
Der Chip vom letzten Jahr wurde angeblich in N7P gefertigt, also wird der Chip in der neuesten Apple Watch mit 60% mehr Transistoren sicherlich in N5P oder N4 o.ä. gefertigt werden.
Kann man auf den Apple Watches eigentlich Benchmarks laufen lassen?
Die absolute Leistung, im Vergleich zu PC Hardware, würde mich mal interessieren, genauso wie die Die Size.
davidzo
2023-09-13, 13:18:24
Das spricht für ein relativ hohes HW Level für RT. (verglichen mit RDNA3)
Das weiß man nicht, vielleicht ist es auch ähnlich wie bei RDNA3 und die Rasterperformance ist auch vergleichbar schneller geworden. Das würde in eine Linie zu früheren Apple SOCs passen die immer schon recht starke GPUs auf APU level hatten.
Phoenix ist halt auch nur eine kleine APU und schon der A14 hatte eine GPU die mit den damaligen AMD APUs mithalten konnte. Apple SOCs sind halt auch weniger bandbreitenlimitiert durch den LPDDR5 dank großzügigem System Level Cache.
Direktvergleiche sind schwer zu finden, am ehesten findet man noch was zum M1 der ja genau doppelt soviele GPU Cores (8C) hatte wie der A14 (4C).
Bei Anandtech hatte die M1 GPU den 4700U um durchschnittlich Faktor 2 geschlagen und auch die diskrete 560X und GTX 1650 im Griff.
A15 und A16 hatten beide bei der GPU kaum Fortschritt mit lediglich 5-Cores und geringfügig mehr Takt.
Insofern ist es eh an der Zeit gewesen mit einem echten Fullnodesprung jetzt mal wieder zu den Labtop APUs auzuschießen.
Was so ein M3 aus dem Steamdeck Formfaktor rausholen könnte, wenn Spiele nativ liefen...
Ja, es ist schon krass das einige Telefone (iphones) erheblich mehr Spieleperformance bieten als mobile Spielekonsolen. Andererseits bei der extremen Preisdifferenz auch wenig verwunderlich: Ab 349€ vs ab 1199€
Ailuros
2023-09-13, 14:19:54
Das weiß man nicht, vielleicht ist es auch ähnlich wie bei RDNA3 und die Rasterperformance ist auch vergleichbar schneller geworden. Das würde in eine Linie zu früheren Apple SOCs passen die immer schon recht starke GPUs auf APU level hatten.
Phoenix ist halt auch nur eine kleine APU und schon der A14 hatte eine GPU die mit den damaligen AMD APUs mithalten konnte. Apple SOCs sind halt auch weniger bandbreitenlimitiert durch den LPDDR5 dank großzügigem System Level Cache.
Direktvergleiche sind schwer zu finden, am ehesten findet man noch was zum M1 der ja genau doppelt soviele GPU Cores (8C) hatte wie der A14 (4C).
Bei Anandtech hatte die M1 GPU den 4700U um durchschnittlich Faktor 2 geschlagen und auch die diskrete 560X und GTX 1650 im Griff.
Potential auf Papier haben die Tiere schon, nur eben einfach zu vernachlaessigte GPU Treiber fuer gaming.
4k und ein synthetischer benchmark wo man so manche GPU in Theorie vergleichen kann, aber in Echtzeit-Spielen dann wohl eher die Sintflut fuer Apple:
https://gfxbench.com/result.jsp?benchmark=gfx50&test=778&order=median&base=gpu
(Vorsicht: standalone GPU scores sind meistens uebertaktet)
A15 und A16 hatten beide bei der GPU kaum Fortschritt mit lediglich 5-Cores und geringfügig mehr Takt.
Insofern ist es eh an der Zeit gewesen mit einem echten Fullnodesprung jetzt mal wieder zu den Labtop APUs auzuschießen.
Ich hab das Gefuehl dass Apple nach der Series7Plus GPU ihre umgekrempelten ALUs auf 64 SIMD lanes/cluster geaendert hat. Keine Ahnung ob sie inzwischen auf 128SPs/cluster gestiegen sind, man weiss auch meistens nie was in solch einem Tier steckt.
Auf jeden Fall ist +20% mehr Leistung von A16 zu A17 nichts wirklich besonderes. In Echtzeit ist es nichtmal M1 GPU Leistung ausser ich habe etwas falsch verstanden.
***edit: apropos smartphone SoCs: es hat sich bei ULP SoCs nichts fundamentales geaendert und wird sich auch nicht aendern IMHO wenn es zu Langzeit-Leistung kommt. Ein smartphone mit einem A17 wird ein brutal strenges DVFS haben muessen. Im Langlauf und sobald die Dinger heiss werden wird automatisch runtergekaktet und ein Entwickler kann sich stets bis zu 50% Rohleistung abrechnen dafuer. Hat jetzt eine solche GPU 1 TFLOP FP32 peak und bleibt nach brutalem Stress am Ende nur noch 0.5 TFLOP uebrig muss ein jeglicher sw developer mit diesen Papiertigern kaempfen. Ein M3 dann mit genau gleichen Einheiten, aber mit um einiges laessigerem DVFS verwandelt sich dann schnell in ein ganz anderes Tier von so oder so hoeheren peak Frequenzen mal ganz zu schweigen.
Nightspider
2023-09-13, 14:31:07
Ja, es ist schon krass das einige Telefone (iphones) erheblich mehr Spieleperformance bieten als mobile Spielekonsolen. Andererseits bei der extremen Preisdifferenz auch wenig verwunderlich: Ab 349€ vs ab 1199€
Das war allerdings schon vor 6,5 Jahren so, als die Switch auf den Markt kam.
Heute ist vielleicht schon die Apple Watch 9 schneller als die Switch. ;D
Sweepi
2023-09-13, 15:37:46
Der Ersteller muss nur im Store einen Haken setzen, damit die auch im MAC Store auftauscht. Was viele natürlich nicht machen. Wäre ja auch zu einfach.
Afaik wurde das umgestellt: Mittlerweile müssen die Entwickler einen Haken setzen, sonst taucht die iPad App automatisch im Mac Appstore auf.
robbitop
2023-09-13, 15:41:15
Apple soll einfach Vulkan unterstützen und fertig.
Dann kann praktisch Valve mit Proton übernehmen und ein paar Apple Engneers arbeiten mit Valve zusammen.
Ich kann mir vorstellen, dass es deutliche Vorteile gibt, wenn man eine eigene API für die eigene HW hat. Aber was soll's Apple hat die Manpower einen eigenen Wrapper zu bauen.
Genauso bildet Proton ja auch nicht die Laufzeitumgebung für Mac ab. Proton ist viel mehr als nur ein DXVK.
davidzo
2023-09-13, 15:45:39
Auf jeden Fall ist +20% mehr Leistung von A16 zu A17 nichts wirklich besonderes. In Echtzeit ist es nichtmal M1 GPU Leistung ausser ich habe etwas falsch verstanden.
Wenn der A14, A15, A16, A17 jeweils 20% Mehrleistung bringen, dann komme ich bei 6,9 GPU Cores raus. Der A17 sollte also mit der 7-Core GPU im Macbook Air vergleichbar sein.* Zwischen A14 und A15 sind es fast +50%, zwischen A15 und A16 dagegen kaum 10%.
In den wenigen plattformunabhängigen voll supporteten Titeln und Benchmarks ist so eine M1 GPU 1,7x bis 2,2x so schnell wie eine Vega 8.
Und Phoenix ist auch ca. 1,6x bis 1,9x so schnell wie eine Vega8.
Im Langlauf und sobald die Dinger heiss werden wird automatisch runtergekaktet und ein Entwickler kann sich stets bis zu 50% Rohleistung abrechnen dafuer. Hat jetzt eine solche GPU 1 TFLOP FP32 peak und bleibt nach brutalem Stress am Ende nur noch 0.5 TFLOP uebrig muss ein jeglicher sw developer mit diesen Papiertigern kaempfen. Ein M3 dann mit genau gleichen Einheiten, aber mit um einiges laessigerem DVFS verwandelt sich dann schnell in ein ganz anderes Tier von so oder so hoeheren peak Frequenzen mal ganz zu schweigen.
Das ist imo stark übertrieben. Ein A15 im iphone13 pro throttelt üblicherweise nur um 10-20%. Von 50% habe ich noch nichts gehört solange der Akku heil ist und das ding nicht gerade auf dem armaturenbrett gegrillt wird.
Das ganze ist aber bei der steamdeck oder mobilen gaming Labtops auch nicht anders, Intel ist da abseits der Steckdose meistens noch viel schlimmer.
Dass ein M1max Macbook pro auch mobil immer die volle CPU und GPU Leistung abrufen konnte ist da eher eine industrieweite Ausnahme und war auch für Apple was besonderes. Der M2 soll sich da gerüchteweise schon etwas anders verhalten.
Aber ja, wenn die Leistung im A17 schon so gut aussieht bin ich gespannt auf die Labtop/Desktopversionen der GPU µArch. Die könnte tatsächlich konkurrenzfähig sein mit AMD und Nvidia Hardware auch Leistungsmäßig. Der M1Ultra hatte die 16fache Hardwareausstattung eines A14. Das 16fache in 3Dmark Solar-Bay wäre auf dem Niveau von übertakteten 4090ern.
Aber es steht und fällt eben mit der Vulkan-Unterstützung. Das Apple alle Spieleentwickler bei Metal mit an board bekommt, daran glaube ich einfach nicht. Die Berichte dass die Hauptkosten eines advanced Chip Designs mittlerweile die Software und Treiberentwicklung sind, gelten sicher auch für Apple: https://www.3dcenter.org/news/news-des-7-september-2023
smalM
2023-09-13, 19:46:52
Apple soll einfach Vulkan unterstützen und fertig.
Aber es steht und fällt eben mit der Vulkan-Unterstützung.
Ist Apple ziemlich egal.
Wenn Du auf deren Ökosystem mit über 1 Milliarde Geräten reüssieren willst, sollst Du Metal benutzen, sonst hält Dich Apple da halt für irrelevant.
Und wenn man jeden Tag eine Milliarde $ umsetzt und ein Viertel Milliarde $ Gewinn macht, ist der Druck das anders zu sehen nicht gerade besonders hoch. ;)
Daredevil
2023-09-13, 23:50:22
Wenn der A14, A15, A16, A17 jeweils 20% Mehrleistung bringen, dann komme ich bei 6,9 GPU Cores raus. Der A17 sollte also mit der 7-Core GPU im Macbook Air vergleichbar sein.* Zwischen A14 und A15 sind es fast +50%, zwischen A15 und A16 dagegen kaum 10%.
Der Sprung war teilweise kleiner, als auch größer, weil beim 14pro auch einfach mehr Kerne dazu bekommen sind. Ich unterhalte im Benchmark Forum so eine kleine Geekbench Historie ( I know, Geekbench ist nicht Raw GPU ), da sieht man gerade im MC und beim Compute Test schon schöne anstiege. SC ist in der Tat stiefmütterlich, allerdings frage ich mich halt auch, ob man sich darauf fokussieren muss? Weil "schnell genug" ist ein einzelner Kern sicherlich für ein Smartphone. Im Cinebench würde ein A17 Performance Kern beim HighEnd von AMD und Intel mitspielen und gerade im Notebook/Desktop/Workstation Bereich sind schnellere Effizienzkerne sicherlich zielführender, weil Apple ja Perf/Watt fokussiert.
Und es ist wieder soweit :)
Single Core:
iPhone XR: 1115pts
iPhone 11: 1338pts +20%
iPhone 12: 1580pts +18%
iPhone 13: 1714pts +8%
iPhone 14Pro: 1871pts +9%
Multi Core:
iPhone XR: 2597pts
iPhone 11: 3417pts +31%
iPhone 12: 3944pts +15%
iPhone 13: 4552pts +15%
iPhone 14Pro: 5330pts +17%
Compute:
iPhone XR: 4392pts
iPhone 11: 6303pts +43%
iPhone 12: 9233pts +47%
iPhone 13: 10994pts +19%
iPhone 14Pro: 15731pts +43%
Ein M1 ist im Compute Score bei 20736pts :eek:
Wir machen einfach mal einen LongTerm Vergleich:
Was hat sich seit dem iPhone XR getan?
SingleCore +67%
MultiCore +205%
Compute +358%
Zur Neural Engine habe ich keine Tests, die hat sich aber von M1>M2 verdoppelt und müsste sich somit im vergleich zum M1 nun vervierfachen.
Und ich persönlich in meinem Workflow im Social Media Bereich ( Text, Bild, Video, KI Berechnungen ) finde den Fokus auf Effizienz/MC/GPU/Neural Engine auch ehrlich gesagt nicht verkehrt, anstatt im SC ganz oben zu sein. Allerdings sind um die 10% für die Fluppdizität nie verkehrt. :D
Für den Kino Modus ist das iPhone auch immer noch lahm, selbst das 14pro. Wenn man 30min mit dem CinemaMode aufnimmt, muss der erstmal 10-20min berechnen, bevor ich es zum MacBook Airdroppen kann. Da fehlt irgendwo entscheidend Power.
davidzo
2023-09-14, 00:30:46
Missverständnis, ich dachte wir reden gerade immer noch von Grafikleistung, also "GPU-Cores". Da müsste der A17 mittlerweile fast doppelt so schnell sein wie der A14, bzw. mit einem M1 mit 7Kern GPU / 896Alus mithalten können wenn man grob vereinfacht durchschnittlich 20% Mehrleistung pro Generation annimmt.
Daredevil
2023-09-14, 00:48:36
Das könnte imho auch so hinkommen anhand meiner Laienzahlen. Der A17 wäre demnach auch ein schöner SoC für einen kommenden AppleTV mit AI Upscaling ect. :)
Also wäre WoW demnach sogar drin. :D
Redneck
2023-09-14, 08:38:29
Das könnte imho auch so hinkommen anhand meiner Laienzahlen. Der A17 wäre demnach auch ein schöner SoC für einen kommenden AppleTV mit AI Upscaling ect. :)
Also wäre WoW demnach sogar drin. :D
Hatte ich auch schon gedacht, gerade mit AV1 Support in Hardware, aber bis das kommt wirds dauern. Der Chip ist in der Produktion bestimmt einiges teurer als der A15 (welcher wahrscheinlich auch nur Resteverwertung nicht 100%er Chips im ATV ist). Bildverbesserer ist auch dringend nötig, wenn ich das Teil (ATV4k gen2) gegen die netflix/prime streams von meinem Panasonic ub424 uhd player Vergleiche. Das ist schon enorm, was der Pana da mit seinem HCX herausholt.
smalM
2023-09-14, 09:52:06
Die ersten paar GB6 Einträge sind für den A17 aufgetaucht. Hier ein Vergleich zu einem (sehr schnellen) A16 (https://browser.geekbench.com/v6/cpu/compare/2592831?baseline=1619977).
Ailuros
2023-09-14, 10:40:15
Wenn der A14, A15, A16, A17 jeweils 20% Mehrleistung bringen, dann komme ich bei 6,9 GPU Cores raus. Der A17 sollte also mit der 7-Core GPU im Macbook Air vergleichbar sein.* Zwischen A14 und A15 sind es fast +50%, zwischen A15 und A16 dagegen kaum 10%.
In den wenigen plattformunabhängigen voll supporteten Titeln und Benchmarks ist so eine M1 GPU 1,7x bis 2,2x so schnell wie eine Vega 8.
Und Phoenix ist auch ca. 1,6x bis 1,9x so schnell wie eine Vega8.
https://gfxbench.com/result.jsp?benchmark=gfx50&test=778&order=median&base=gpu&ff-check-desktop=0
Apple behauptet selber bis zu 20% Mehr-leistung fuer die GPU zwischen A17 und A16.
Ein Adreno740 vom letzten Jahr erreicht uebrigens um die 25-29 fps im gleichen Test (ich weiss leider nicht wo der Durchschnitt liegt aber schaetzungsweise =/>23fps); liegt der A17 jetzt irgendwo bei 20+ fps im Durchschnitt ist es wohl das erste Mal in letzten Jahren wo eine smartphone GPU nicht vor der gesamten Konkurrenz in GPU Leistung liegt.
Das ist imo stark übertrieben. Ein A15 im iphone13 pro throttelt üblicherweise nur um 10-20%. Von 50% habe ich noch nichts gehört solange der Akku heil ist und das ding nicht gerade auf dem armaturenbrett gegrillt wird.
Das ganze ist aber bei der steamdeck oder mobilen gaming Labtops auch nicht anders, Intel ist da abseits der Steckdose meistens noch viel schlimmer.
Dass ein M1max Macbook pro auch mobil immer die volle CPU und GPU Leistung abrufen konnte ist da eher eine industrieweite Ausnahme und war auch für Apple was besonderes. Der M2 soll sich da gerüchteweise schon etwas anders verhalten.
Welcher ISV hat den in letzter Zeit einen echten Qual-benchmark entwickelt dass eine andere Geschichte zeigen koennte als etwas womit sich die GPU nur so nebenbei langweilt? Kishonti benutzt immer noch den veralteten Manhattan3.1 test womit fast alle neuen ULP GPUs die 60 fps onscreen erreichen und somit auch ueberhaupt keine Leistung verlieren. Wuerde sich jemand um so einen Stresstest scheren und dazu auch noch die jeweilige Temperatur messen wuerde nach sagen wir mal 3 Stunden Quaelerei dann waeren =/>30% leicht am Hut. Es waren sw Entwickler die behaupteten dass man mit ULP SoC fuer bis zu 50% Verlust rechnen kann, nicht ich.
Sonst ist ein smartphone mit einem tablet und alles groesserem darueber schlecht vergleichbar, schon von der Groesse des Geraets. Insgesamt gab es bis jetzt kein grosses Interesse von Spiele-entwicklern fuer solche Platformen egal welches Potential jegliche heute hat.
Ich lass mich gerne angenehm ueberraschen mit der M3 GPU Leistung, aber A17 klingt mir momentan als viel zu langweilig.
Aber es steht und fällt eben mit der Vulkan-Unterstützung. Das Apple alle Spieleentwickler bei Metal mit an board bekommt, daran glaube ich einfach nicht. Die Berichte dass die Hauptkosten eines advanced Chip Designs mittlerweile die Software und Treiberentwicklung sind, gelten sicher auch für Apple: https://www.3dcenter.org/news/news-des-7-september-2023
Meh dafuer hat Apple zu viele Interessen-Konflikte IMHO. Ja zum letzten. Waeren sie wirklich an gaming interessiert wuerden sie auch keine so hohen Prozentuale fuer Spiel-Verkaeufe verlangen.
Ich kann mir zwar schwer vorstellen dass es irgendwann soweit kommt, aber wuerde Apple 1 oder mehr Gereaete primaer fuer gaming/entertainment planen dann koennte sich einiges aendern.
***edit: OT and apropos A17 zu Konsolen-Vergleiche um Missverstaendnissen zu entgehen:
Ryan Smith - Tuesday, September 12, 2023 - link
Feature parity. No one is claiming performance parity. 3nm is good, but it's not that good.
https://www.anandtech.com/show/20051/the-apple-2023-fall-iphone-event-live-blog
Zossel
2023-09-14, 12:08:38
Ich kann mir zwar schwer vorstellen dass es irgendwann soweit kommt, aber wuerde Apple 1 oder mehr Gereaete primaer fuer gaming/entertainment planen dann koennte sich einiges aendern.
Welchen Mehrwert könnte so ein Gerät haben um bei Apple Preisen gegen die Konkurrenz zu bestehen?
Ailuros
2023-09-14, 13:56:02
Welchen Mehrwert könnte so ein Gerät haben um bei Apple Preisen gegen die Konkurrenz zu bestehen?
Eine Frage fuer Apple's Marketing-Abteilung. Haette ich eine Antwort fuer eine solche Frage haette ich nicht ein Poco F3 sondern ein Iphone 14 in der Hosentasche ;)
KarlKastor
2023-09-14, 16:21:28
Das ist imo stark übertrieben. Ein A15 im iphone13 pro throttelt üblicherweise nur um 10-20%. Von 50% habe ich noch nichts gehört solange der Akku heil ist und das ding nicht gerade auf dem armaturenbrett gegrillt wird.
Ein iPhone XS verliert 44%, iPhone 11 42% und ein iPhone 12 knapp 30% in Aztec Ruins.
https://www.anandtech.com/show/16192/the-iphone-12-review/4
Daredevil
2023-09-15, 00:17:57
Spannend, das man im Geekbench bereits Werte von CPU SC/MC und CoreML sieht, aber keine GPU Werte. Ob da wohl doch was "überraschendes" auf uns zu kommt?
Laut 9to5mac schaut es so aus:
A15 Bionic: 2183 single-core | 5144 multi-core
A16 Bionic: 2519 single-core | 6367 multi-core
A17 Pro: 2914 single-core | 7199 multi-core
M1: 2223 single-core | 7960 multi-core
( Wobei GB6 natürlich nicht nur die CPU fordert )
Hier kann man mal selbst stöbern:
https://browser.geekbench.com/search?k=ml_inference&q=iPhone16%2C1
Hier ist der Vergleich A16 vs. A17
https://browser.geekbench.com/v6/cpu/compare/2592831?baseline=2601985
robbitop
2023-09-15, 08:12:49
Der Takt ist auch gar nicht mehr so gering von den P Cores. 3,77 GHz.
smalM
2023-09-16, 18:30:07
Spannend, das man im Geekbench bereits Werte von CPU SC/MC und CoreML sieht, aber keine GPU Werte.
GB5: https://browser.geekbench.com/v5/compute/compare/6633334?baseline=6632961
GB6: https://browser.geekbench.com/v6/compute/compare/930648?baseline=930865
Ailuros
2023-09-18, 14:51:14
https://gfxbench.com/compare.jsp?benchmark=gfx50&did1=117314481&os1=iOS&api1=metal&hwtype1=iGPU&hwname1=Apple+A17+Pro+GPU&did2=109254608&os2=iOS&api2=metal&hwtype2=iGPU&hwname2=Apple+A16+GPU
Nichts besonderes; next.....
Nennenswerter Unterschied Aztec ruins high mit +40% mehr Leistung. Sonst scheint sich an Tessellation nichts geaendert zu haben (Car chase) und ich hab den Verdacht dass sie zwar mehr clusters in der GPU im Vergleich zum A16 haben, aber womoeglich auch etwas beischeidenere Frequenzen fuer die GPU. Geometrie, texel und pixel Fuellraten sind leicht geringer stellenweise.
urpils
2023-09-18, 17:58:17
https://gfxbench.com/compare.jsp?benchmark=gfx50&did1=117314481&os1=iOS&api1=metal&hwtype1=iGPU&hwname1=Apple+A17+Pro+GPU&did2=109254608&os2=iOS&api2=metal&hwtype2=iGPU&hwname2=Apple+A16+GPU
Nichts besonderes; next.....
Nennenswerter Unterschied Aztec ruins high mit +40% mehr Leistung. Sonst scheint sich an Tessellation nichts geaendert zu haben (Car chase) und ich hab den Verdacht dass sie zwar mehr clusters in der GPU im Vergleich zum A16 haben, aber womoeglich auch etwas beischeidenere Frequenzen fuer die GPU. Geometrie, texel und pixel Fuellraten sind leicht geringer stellenweise.
was glaubst du, wo die Performance-Regression her kommt? (also Texturfüllrate oder was ist da geringer?)
könnte das ein Software-Treiber-Ding sein oder haben Sie ne andere Hardware-Abwägung getroffen?
dildo4u
2023-09-20, 09:22:32
RE Village auf A17 Pro auf 720p/30fps gelockt schätze mal damit das Smartphone nicht überhitz hoffe wir bekommen bald M1/M2 Benches.
A17 Pro scheint deutlich mehr zu saufen und trottelt stärker.
1h_CT9HJt90
Ailuros
2023-09-20, 10:27:10
was glaubst du, wo die Performance-Regression her kommt? (also Texturfüllrate oder was ist da geringer?)
könnte das ein Software-Treiber-Ding sein oder haben Sie ne andere Hardware-Abwägung getroffen?
Bei einem cluster mehr und leicht geringerer Leistung in tests die sich auf Fuellrate, Geometrie, ROPs usw beziehen kann ich persoenlich nur an geringere Frequenz als im A16 denken. In allen anderen benchmark tests liegt die A17 GPU im Vorsprung mit einem peak von den voerwaehnten +40% in Aztec ruins high.
In 4k Aztec ruins scheinen momentan beide SoCs GPUs im Gleichstand zu sein; falls dem so bleibt (es gibt noch nicht genug Testdurchlaeufe um Schlussfolgerungen zu ziehen) dann sehen wir im gleichen Test von 1440p zu 4k von 40% auf nur geringen Unterschied (4%), wo es dann wohl auch an Bandbreite fehlen koennte fuer A17.
Ich wuerde fuer den zukuenftigen M3 oder wie immer der SoC heissen wird kein aehnliches Verhalten erwarten, dank grosszuegigerem DVFS und hoffentlich mehr Bandbreite als im A17.
mboeller
2023-09-20, 11:02:43
.
A17 Pro scheint deutlich mehr zu saufen und trottelt stärker.
Ja, schaut so aus. 14w !
in dem Apple-Thread:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13398740&postcount=11226
dildo4u
2023-09-22, 17:06:48
Hoffe es gibt schnell Werte Baldurs Gate 3 hat offiziellen Apple Support.(M1 oder besser)
https://store.steampowered.com/news/app/1086940/view/3718340776819602796
smalM
2023-10-02, 18:34:50
Bei einem cluster mehr und leicht geringerer Leistung in tests die sich auf Fuellrate, Geometrie, ROPs usw beziehen kann ich persoenlich nur an geringere Frequenz als im A16 denken.
A17 Pro delivers 2TFLOPs compute throughput. That gives us the GPU clock of 1.3Ghz (https://forums.macrumors.com/threads/m3-chip-generation-speculation-megathread.2393667/post-32571544)
hoffentlich mehr Bandbreite als im A17
Apple neigt dazu ein SI mindestens zwei Jahre beizubehalten.
Erst M2 bekam LPDDR5 und ich denke deshalb M3 wird es auch haben.
Da bereits M1 Pro/Max LPDDR5 hatten, könnte es hier zu einem Wechsel zu LPDDR5X kommen.
Ailuros
2023-10-03, 13:29:15
A17 Pro delivers 2TFLOPs compute throughput. That gives us the GPU clock of 1.3Ghz (https://forums.macrumors.com/threads/m3-chip-generation-speculation-megathread.2393667/post-32571544)
Ergo wahrscheinlich um ~8% geringerer Takt (peak) im Vegleich zur A16 GPU (schwirrt im Netz rum keine Ahnung ob es stimmt). Zwar sind jegliche Test-resultate noch etwas zwielichtig aber A17 scheint bis jetzt etwas mehr zu verbrauchen fuer die GPU, was aber nicht besonders viel Sinn macht. 20% mehr Einheiten und ~8% weniger Takt.... :rolleyes:
smalM
2023-10-26, 15:00:27
Das Apple Event ist am Dienstag um 1:00 Uhr (da die Sommerzeit in den USA erst eine Woche später umgestellt wird, sind es nur 8 statt 9 Stunden).
"Scary Fast" -- der Mac Pro mit Quad M2 Max kommt doch noch! ;D
Nightspider
2023-10-29, 09:44:15
Mit dem N3 Prozess hat Apple scheinbar fast mehr Nachteile als Vorteile oder?
Wird der M3 dann schon im besseren N3E Prozess kommen?
Ansonsten dürften auch da viele entäuscht werden.
y33H@
2023-10-29, 13:47:46
HVM von N3E war für H2'23 angesetzt, wird also wohl N3B sein.
smalM
2023-10-30, 16:15:08
HVM von N3E war für H2'23 angesetzt, wird also wohl N3B sein.
HVM von N3E wurde von C.C. Wei in der Earnings Conference am 19. Oktober für das 4. Quartal angekündigt.
y33H@
2023-10-30, 22:21:27
OK =)
Ailuros
2023-10-31, 06:44:25
https://www.anandtech.com/show/21114/the-apple-scary-fast-event-live-blog-starts-at-5pm-pt0000-utc
Ok benchmarks mal abwarten.
fizzo
2023-10-31, 07:31:17
https://nanoreview.net/en/cpu-compare/apple-m3-vs-apple-m2
Mein erster Eindruck, solide.
edit: der M3 Max ist ein Monster!
boxleitnerb
2023-10-31, 07:42:53
https://nanoreview.net/en/cpu-compare/apple-m3-vs-apple-m2
Mein erster Eindruck, solide.
Was haben die da getestet? Der M3 Pro hat 12, nicht 14 Kerne.
fizzo
2023-10-31, 08:08:44
Was haben die da getestet? Der M3 Pro hat 12, nicht 14 Kerne.
Hm, wo siehst du da den Pro? Ist ja M2 vs. M3.
edit: hier die Pro Varianten https://nanoreview.net/en/cpu-compare/apple-m3-pro-vs-apple-m2-pro
Stimmt, ist falsch!
spotz
2023-10-31, 11:36:55
Als gerüchteweise von 36 GB RAM Konfigurationen geschrieben wurde, dachte ich mir schon das Apple jetzt Triple- und Hexachannel beim Speicher nutzt. Aber ich dachte sie würden die Speicherbandbreite erhöhen und nicht verringern! Der M3 Pro hat jetzt nur noch 150 GB/s statt 200GB/s und der M3 Max mit 30 Grafikkernen nur noch 300 GB/s statt 400 GB/s. Lediglich der M3 Max mit 40 Grafikkernen hat noch die 400 GB/s, wie seine Vorgänger.
Wie sich das bei Raytracing und anderen Anwendungen wohl auswirken wird?
MSABK
2023-10-31, 13:43:34
2000€ für ein Notebook mit 8gb Ram kann auch nur Apple anbieten.:D
w0mbat
2023-10-31, 14:12:42
Für 1999€ hat man M1 Pro mit 16GB RAM und 512GB SSD bekommen, jetzt zahl man dafür 2499€ (M3 Pro, 18GB RAM, 512GB SSD).
Eine Preissteigerung um 25%!
mboeller
2023-10-31, 14:17:38
Als gerüchteweise von 36 GB RAM Konfigurationen geschrieben wurde, dachte ich mir schon das Apple jetzt Triple- und Hexachannel beim Speicher nutzt. Aber ich dachte sie würden die Speicherbandbreite erhöhen und nicht verringern! Der M3 Pro hat jetzt nur noch 150 GB/s statt 200GB/s und der M3 Max mit 30 Grafikkernen nur noch 300 GB/s statt 400 GB/s. Lediglich der M3 Max mit 40 Grafikkernen hat noch die 400 GB/s, wie seine Vorgänger.
Wie sich das bei Raytracing und anderen Anwendungen wohl auswirken wird?
wo wirkt sich die verringerte Bandbreite aus? Abgesehen von Spielen natürlich.
mczak
2023-10-31, 15:04:19
Als gerüchteweise von 36 GB RAM Konfigurationen geschrieben wurde, dachte ich mir schon das Apple jetzt Triple- und Hexachannel beim Speicher nutzt. Aber ich dachte sie würden die Speicherbandbreite erhöhen und nicht verringern! Der M3 Pro hat jetzt nur noch 150 GB/s statt 200GB/s und der M3 Max mit 30 Grafikkernen nur noch 300 GB/s statt 400 GB/s. Lediglich der M3 Max mit 40 Grafikkernen hat noch die 400 GB/s, wie seine Vorgänger.
Insbesondere der M3 Pro wurde offenbar deutlich kostenoptimiert - gegenüber dem M2 Pro 6+6 CPU Konfiguration (statt 8+4), ein GPU-Kern weniger, schmaleres SI. Man hätte natürlich das schmalere SI auch mit schnellerem lppdr5x Speicher kompensieren können aber das kostet halt auch Transistoren. Da der Chip insgesamt 10% weniger Transistoren hat als noch der M2 Pro (M3 Pro gegenüber M3 bloss +50% bei M2 Pro gegenüber M2 waren das noch +100%) gehe ich auch nicht davon aus dass der SLC (zumindest nicht allzu viel) gewachsen ist. Die GPU kann natürlich eventuell etwas bandbreiteneffizienter agieren (Dynamic Caching vielleicht, was immer das genau sein soll?), aber ich vermute mal die geringere Speicherbandbreite kann schon Auswirkungen haben.
Dass sich die Kostenoptimierung beim M3 Pro auf die Endkundenpreise auswirkt kann man allerdings auch nicht behaupten.
davidzo
2023-10-31, 15:26:44
Wie sich das bei Raytracing und anderen Anwendungen wohl auswirken wird?
wo wirkt sich die verringerte Bandbreite aus? Abgesehen von Spielen natürlich.
Die Bandbreitenreduzierung entspricht wahrscheinlich mehr der Realität von dem was abrufbar war auf M1 + M2. Die bleiben nämlich weit zurück hinter den theoretischen Werten. Wahrscheinlich konnte Apple ein paar Handbremsen beim Memory Controller lösen, neben wahrscheinlich auch deutlich mehr SLC Cache.
Auf die CPU-Leistung hat das eh keine Auswirkungen. Der CPU-teil kann selbst beim M1max eh nichtmal 250gb/s abrufen, selbst wenn alle P und E-Cores ausgelastet sind. Deshalb performen M2pro und M2Max in CPUload ja auch praktisch identisch. Auch die GPU konnte das SI nicht voll auslasten.
Anandtech vermutet dass die 400gbs/s nur bei aggregierter Nutzung von CPU, GPU, NPU und mediaCodecs zustande kommen könnte: https://www.anandtech.com/show/17024/apple-m1-max-performance-review/2
Ich finde es bemerkenswert dass Apple neben den üblichen branch prediction Verbesserungen bei den Cores laut der Präsentation erneut breiter geworden ist. Die P-Cores sollen noch mehr decode Kapazitäten bekommen haben und execution ports dazu gewonnen haben. Wir reden hier also von 9 oder 10 wide Decode-width.
Sowas passiert bei x86 äußerst selten. Wir haben seit Jahrzehnten nur 4-wide decoder in CPUs gehabt und AMD hat praktisch seit 4 Generationen das gleiche decode, issue und execution Layout und verändert quasi nur die Execution Units, insbesondere FP und und die caches davor und dazwischen.
Intel hat bei den P-Cores Skylake massiv an Decode und Execution Breite zugelegt (6-wide decode bei GLC), das hat aber auch massiv Power und Diespace gekostet. Zen5 sieht nach einer behutsamen minimal-Verbreiterung aus (5-wide decode?).
Es wäre Interessant wenn Apple das erneut ohne Power-Strafe hinkriegt und auch überhaupt noch in höhere Leistung umwandeln kann, hat man doch bisher schon die Industrieweit breitesten Cores.
davidzo
2023-10-31, 16:25:07
Btw, der M3pro ist eigentlich eine Regression verglichen zum M2pro. Nicht nur hat er weniger Speicherbandbreite und die CPU ist als 6+6 eine Abspeckung zur bisherigen 8+4 CPU: Insgesamt hat der Chip nur noch 37Mrd Transistoren verglichen mit bisher 40Mrd beim M2pro.
Apple möchte wohl deutlich die Kosten reduzieren und geht den nvidia-Weg indem man einen extrem großen Abstand zwischen Highend und Enthusiast schafft.
smalM
2023-10-31, 18:14:12
Das Interessante am M3 Pro ist, daß er nun kein reduziertes Max-Design mehr ist, sondern deutlich mit dem M3 eine Familie bildet. Und ja, der Schwerpunkt der Entwicklung lag anscheinend auf Kompaktheit, während der M3 Max mit Platz nicht knausern mußte.
VooDoo7mx
2023-10-31, 18:53:49
Btw, der M3pro ist eigentlich eine Regression verglichen zum M2pro. Nicht nur hat er weniger Speicherbandbreite und die CPU ist als 6+6 eine Abspeckung zur bisherigen 8+4 CPU: Insgesamt hat der Chip nur noch 37Mrd Transistoren verglichen mit bisher 40Mrd beim M2pro.
Apple möchte wohl deutlich die Kosten reduzieren und geht den nvidia-Weg indem man einen extrem großen Abstand zwischen Highend und Enthusiast schafft.
Und ich wette das der Chip wegen 3nm trotzdem teurer in der Fertigung als der M2 Pro sein wird.
Außerdem macht es auch mehr Sinn, dass der M3 Pro sich mehr vom M3 Max unterscheidet.
Und ich wette das trotz weniger Transistoren und auch SPeicherbandbreite der M3 Pro trotzdem schneller als der M2 Pro sein wird. Die Blöße wird sich Apple sicher nicht geben.
LadyWhirlwind
2023-10-31, 19:30:07
Btw, der M3pro ist eigentlich eine Regression verglichen zum M2pro. Nicht nur hat er weniger Speicherbandbreite und die CPU ist als 6+6 eine Abspeckung zur bisherigen 8+4 CPU: Insgesamt hat der Chip nur noch 37Mrd Transistoren verglichen mit bisher 40Mrd beim M2pro.
Apple möchte wohl deutlich die Kosten reduzieren und geht den nvidia-Weg indem man einen extrem großen Abstand zwischen Highend und Enthusiast schafft.
In der Schweiz ist der Preis für vergleichbare Konfiguration leicht gesunken.
Ziel ist es wohl ein High End Gerät zuneinem vernünftigen Preis anzubieten.
Wer den M3 Max braucht, hat idR auch einnahmen mit denen er das finanzieren kann.
Mandalore
2023-11-01, 14:39:15
Gibts inzwischen eine Analyse der neuen Architektur, die im A17 Pro und den M3 Chips jetzt verwendet wird (GPU)?
Waren nicht die bisherigen Designs auf Grundlage eines (ur)alten PowerVR-Design erstellt worden?
davidzo
2023-11-01, 17:09:50
Gibts inzwischen eine Analyse der neuen Architektur, die im A17 Pro und den M3 Chips jetzt verwendet wird (GPU)?
Leider noch nichts. Üblicherweise dauert das einige Monate nach Verfügbarkeit nochmal. M3s werden ab 4.11. ausgeliefert. vielleicht lässt sich das beschleunigen wenn jemand eine M3 bare-metal Instanz an Cheese-and-chips vermietet :biggrin::
https://chipsandcheese.com/2023/10/31/a-brief-look-at-apples-m2-pro-igpu/
dildo4u
2023-11-01, 17:16:49
4Ghz für M3 Performance Cores.
https://wccftech.com/first-apple-m3-geekbench-6-single-and-multi-core-leak/
smalM
2023-11-01, 17:31:47
Eintrag in GB6 dazu (https://browser.geekbench.com/v6/cpu/compare/3343681?baseline=3306428)
Ailuros
2023-11-01, 22:46:09
Btw, der M3pro ist eigentlich eine Regression verglichen zum M2pro. Nicht nur hat er weniger Speicherbandbreite und die CPU ist als 6+6 eine Abspeckung zur bisherigen 8+4 CPU: Insgesamt hat der Chip nur noch 37Mrd Transistoren verglichen mit bisher 40Mrd beim M2pro.
Apple möchte wohl deutlich die Kosten reduzieren und geht den nvidia-Weg indem man einen extrem großen Abstand zwischen Highend und Enthusiast schafft.
Guter Punkt aber klingt momentan als zu oberflaechlich.
https://www.anandtech.com/show/21116/apple-announces-m3-soc-family-m3-m3-pro-and-m3-max-make-their-marks
Es handelt sich hier eher um eine komplizierte +/- Affaere und ich will ernsthaft bezweifeln dass Apple es auf die engineering Gurgel gewuergt hat um 7.5% weniger die area anzuzielen. Allein die gesteigerten Frequenzen fast ueberall koennten schon so manches + gerechtfertigen.
Ja die reduzierte Busbreite ist im minus Bereich aber was kommt dafuer im Gegensatz an Transistoren fuer das dynamische caching dazu oder ja es ist ein GPU cluster weniger aber dafuer haben wir u.a. mesh shaders, ray tracing und eine angeblich "neue" Architektur wobei wir vielleicht wenn wir zwei vergleichbare die shots fuer die SoCs finden koennten, wir vielleicht raten koennten ob die GPU insgesamt diesmal groesser oder kleiner ist. Ich tippe mal gezielt auf vergleichbare die area denn eine jegliche neue Architektur sollte das gleiche Ziel mit einem kuerzerem Weg erreichen usw. usw. Decoder haben uebrigens laecherliche Groessen in solchen SoCs, aber AV-1 ist fuer deren Verhaeltnisse alles andere als "billig" in hw.
dildo4u
2023-11-02, 08:13:42
M3 Max Geekbench Werte.
https://www.computerbase.de/2023-11/geekbench-apples-m3-max-schlaegt-den-snapdragon-x-elite-teils-deutlich/
fondness
2023-11-02, 09:27:05
Da wird mal wieder so getan als wäre Geekbench sowas wie ein brauchbarer Benchmark. Der Vergleich mit dem M3 Max ist auch ein wenig unfair und AMD fehlt leider völlig.
smalM
2023-11-02, 13:30:17
GeekBench ist ein recht brauchbarer Benchmark, aber man sollte natürlich, wie bei jedem anderen Test auch, wissen, was wird da eigentlich getestet. Ganz offensichtlich hast Du keine Ahnung, was GB mißt und bist anscheinend auch nicht in der Lage, Dich über die veröffentlichte Meßmethode zu informieren, sondern möchtest lieber jedem im Forum mitteilen, was für ein toller Hecht Du bist, indem Du das übliche GB-Bashhing der ganzen anderen tollen Hechte weiterverbreitest….
und AMD fehlt leider völlig.
https://browser.geekbench.com/v6/cpu/singlecore
https://browser.geekbench.com/v6/cpu/multicore
VooDoo7mx
2023-11-02, 14:01:17
GeekBench ist ein recht brauchbarer Benchmark, aber man sollte natürlich, wie bei jedem anderen Test auch, wissen, was wird da eigentlich getestet. Ganz offensichtlich hast Du keine Ahnung, was GB mißt und bist anscheinend auch nicht in der Lage, Dich über die veröffentlichte Meßmethode zu informieren, sondern möchtest lieber jedem im Forum mitteilen, was für ein toller Hecht Du bist, indem Du das übliche GB-Bashhing der ganzen anderen tollen Hechte weiterverbreitest….
Doch Geekbench ist 100% Mist und wird auch immer Mist bleiben.
Benchmark ist quasi immer Apple best Case was sich dann in realen Anwendungen nie bestätigt.
Das Applejünger sich dann immer einen an den Geekbench abpimmeln ist dann natürlich vorprogrammiert. Für die ist es natürlich der beste Benchmark überhaupt.
Daredevil
2023-11-02, 14:16:57
Da kann Apple ja schwer was für, wenn in einem Ryzen keine Neural engine steckt, die manche der -vielen- durchgeführten Tests beschleunigt.
Der Score am Ende ist eine Zusammenfassung, der SC Score ist ziemlich brauchbar und kann übertragen werden, beim MC Test ist es halt mehr „RealWorld“ und halt eben nicht konzentriert Cinebench. Mal völlig davon ab, das Apple Silicon in Cinebench ebenso ordentlich abliefert. Ist das jetzt auch kein Real World Test mehr?
fondness
2023-11-02, 14:26:32
Da kann Apple ja schwer was für, wenn in einem Ryzen keine Neural engine steckt, die manche der -vielen- durchgeführten Tests beschleunigt.
Der Score am Ende ist eine Zusammenfassung, der SC Score ist ziemlich brauchbar und kann übertragen werden, beim MC Test ist es halt mehr „RealWorld“ und halt eben nicht konzentriert Cinebench. Mal völlig davon ab, das Apple Silicon in Cinebench ebenso ordentlich abliefert. Ist das jetzt auch kein Real World Test mehr?
In Ryzen steckt eine neural engine, zumindest im aktuellen phoenix. Geekbench verwendet halt nur das Apple Teil. Aber die Apple User können sich gerne weiter selbst beweihräuchern und so tun als ob Apple die ultimativen Chips baut. Untermauert mit dem Apple benchmark geekbench. Man braucht eh nur die Kommentare der jeweiligen User durchlesen und weiß sofort wer Apple verwendet. Was da an Zorn und persönlichen Attacken daher kommt wenn man es wagt die Apple Huldigung zu hinterfragen finde ich immer wieder beeindruckend.
urpils
2023-11-02, 14:39:13
In Ryzen steckt eine neural engine, zumindest im aktuellen phoenix. Geekbench verwendet halt nur das Apple Teil. Aber die Apple User können sich gerne weiter selbst beweihräuchern und so tun als ob Apple die ultimativen Chips baut. Untermauert mit dem Apple benchmark geekbench. Man braucht eh nur die Kommentare der jeweiligen User durchlesen und weiß sofort wer Apple verwendet. Was da an Zorn und persönlichen Attacken daher kommt wenn man es wagt die Apple Huldigung zu hinterfragen finde ich immer wieder beeindruckend.
warum denn so passiv aggressiv?
Vielleicht machen wir einfach mit einer ruhigeren und sachlichen Diskussion weiter.
- jeder Benchmark hat seine Eigenheiten
- kein Benchmark kann in EINER Zahl die Komplexität moderner Performance-Eigenschaften von Prozessoren gänzlich fassen. Das ist nunmal eine Eigenheit der Datenreduktion
- innerhalb der Apple-M-Reihe kann ein Benchmark wie Geekbench dazu beitragen, die relative Performance einzuschätzen
- man kennt die "Real-World-Leistung" der Apple SoCs ggü. den aktuell verfügbaren Produkten "der Konkurrenz"
- der M3/Pro/Max ist "schneller" als M1 und M2
- M1/M2/M3 tendieren dazu für den Formfaktor Notebook eine sehr gute Lösung zu sein
können wir uns darauf einigen? die Details kann man ja darauf aufbauend ausdiskutieren :)
Daredevil
2023-11-02, 14:56:54
In Ryzen steckt eine neural engine, zumindest im aktuellen phoenix. Geekbench verwendet halt nur das Apple Teil.
Bist du dir da ganz sicher? :)
Hier ist ein Test zwischen 7950X und Phoenix
https://browser.geekbench.com/v6/cpu/compare/3353006?baseline=3352963
In "Navigation" ist der 7950X nahezu doppelt so schnell. ( Gute MC Skalierung? )
In File Compression ist der 7950X "nur" 30% schneller. ( Speicher Bandbreite o.ä.? )
Bei "Text Processing", "Background Blur" und "Photo Filter" ist der dicke 7950X nur 10-15% schneller als der dicke 7950X.
Warum?
CPU Benchmark
Geekbench 6 measures your processor's single-core and multi-core power, for everything from checking your email to taking a picture to playing music, or all of it at once. Geekbench 6's CPU benchmark measures performance in new application areas including Augmented Reality and Machine Learning, so you'll know how close your system is to the cutting-edge.
Wenn ein Phoenix nun in Photoshop irgendwelche KI Dinge besser kann als der "dicke" 7950X, wird dies in Geekbench dargestellt. Dies fließt in den Score mit ein, das ist halt eben Geekbench, der einen Durchschnitt über viele Plattformen bilden möchte. Irgendwo wird auch mit Sicherheit Unified Memory mit einfließen bei bestimmten Tests und ja, dies wird den Geekbench Score anheben, ohne dass die CPU schneller sein muss. Dies ist aber eben auch etwas, was beim Nutzer ankommt, indem manche Dinge schlicht fluffiger laufen.
Its part of the Game, aber halt nicht das ganze Spiel.
dildo4u
2023-11-02, 15:46:57
Die Neural Engine von AMD wird mit Sicherheit noch nicht genutzt alles zu neu.
Die Performance von Apple M3 kommt vom Takt sieht man doch die alten Modell liefen halt weit unter 4GHz.
Und Geekbench hat ein extra ML Bench Geekbench 6 wird die Neural Engine nicht nutzen.
https://www.geekbench.com/ml/
Das Apple mit M3 MAX Intel und AMD deutlich schlägt ist gegeben, die Chips sind Absurde Monster was den Transistor Count angeht.
AMD wird bis Strix Halo nix in dem Bereich haben.(12 Zen5 Cores plus 40 CU RDNA 3.5)
Daredevil
2023-11-02, 17:16:19
Okay, dann mag das nicht mit reinspielen. Geekbench schreibt ja, dass sie auch ML testen, aber dann nur auf der CPU? Wie dem auch sei, was am Ende raus kommt, kommt nun einmal am Ende raus. Wenn Apple ne bessere Connection hat zu nem Benchmark Anbieter und somit mehr KI Features in Tools kommt, dann kann man nur hoffen, dass dies auch für andere Anwendungen stimmt.
Weil theoretisch Leistung bringt einem nichts, wenn man sie nicht nutzen kann. AMD kann auch ne 10x so schnelle Neural Engine haben, wenn man die mangels Implementierung nicht nutzen kann, bringt das einem am ende nicht viel. "Real World" Benches werden wir ja bald sehen. :)
Ich sehs aber schon kommen, dass die AMD Fanboys mit Geekbench Scores durch das Forum huschen, weil man auf einmal nen Intel 14900k hinter sich lässt. :D
Immer ne Frage der Perspektive, nech.
davidzo
2023-11-02, 18:27:32
Ich finde Hardwarebeschleunigung sollte durchaus mit einfließen wen es sich um einen Benchmark-Index handelt wie Geekbench. Das darf halt nicht allzu sehr gewichtet werden dass es den Index zu sehr färbt und sollte nur in so vielen Examples vor kommen wie es relativ in der freien Wildbahn eingesetzt wird.
Es ist ja nicht so als wenn wir auf x86 AVX2 oder avx512 deaktivieren bloß weil manche CPUs das nicht haben. Oder Bei GPUs nvidia kein BVH traversal und coherency sorting benutzen weil AMD das nicht supportet.
Nicht vergessen darf man auch dass im Apple Ökosystem die neuen Hardwarefunktionalitäten für wichtige leistungskritische Software in der Regel schon ab Auslieferung der neuen Hardware recht gut unterstützt werden. Das ist also bereits ab Tag1 ein Mehrwehrt für den User und damit sehr unterschiedlich zu Windows wo es meistens wesentlich länger dauert oder auch mal nie passiert.
Ich erinnere mich da an HBCC, Draw Stream binning Rasterizer und rapid packed math. Nichts davon hat es im Endeffekt geschafft, Performancegewinne wurden trotzdem angekündigt.
Abseits davon sehe ich nicht wo Apple einen so großen Vorsprung bei der NPU haben soll. Phoenix hat 10Tops und Strix soll 40-45 bekommen. Die M3 Chips mit 18Tops und M2s mit 16 liegen doch jetzt schon fast in Reichweite. Qualcomm cheated bei den Angaben leider weil sie ungewöhnliche int4 Werte angeben. Statt 45Tops kann man hier also nur mit 23 rechnen, also deutlich hinter Strix/ Zen5.
Daredevil
2023-11-02, 18:42:21
Natürlich gehören integrale Features auch dazu, sofern sie dem Nutzer am Ende einen Mehrwert bieten. FSR3 und DLSS3 sind auch besser als Apples Integration und wenn dies in Spielen bewertet wird, ist das ein Riesen Nachteil für Apple, weil es schlicht schlechter ist.
- Intel hat bislang beim AV1 Hardware Encoding ordentlich abgeliefert, weil sie es eben als einer der ersten eingebaut haben, das gehört demnach auch honoriert.
- Apple baut Unified Memory SoCs und wenn ein Pro Workload 100GB VRAM möchte, dann kann man dies eben bald nur da ordentlich machen und in keinem anderen Notebook.
- Nvidia hat mit Cuda und ihren RTX Geschichten seit Jahrzehnten die Industrie auf ihrer Seite. Selbst wenn die Hardware nicht liefern würde, die Schnittstelle ist halt eben etabliert.
- AMD baut mit seinen Threadrippern und der Chiplet Technologie unheimlich gute Server Prozessoren, wo sich der Rest der Industrie die Zähne ausbeißt, weil es mit jeder Generation besser wird.
Jede Firma hat da schon ihre Unicorn Technologien und die bringen dem einen etwas, dem anderen vielleicht nicht.
--------------------------------
Stichwort Neural Engine: Das wird in Real World Tests auch noch eine spannende Sache. Weil die im A17 ja mehr liefert als die im M3.
There’s another thing to consider. Every M3-series chip comes with a 16-core Neural Engine, just like the A17 Pro in the latest iPhones. However, while the A17 Pro’s Neural Engine can perform 35 TOPS (trillion operations per second), the M3 maxes out at 18 TOPS.
It’s unclear if any of this will actually be a problem. It could be that the performance cores in the M3 Pro are more powerful than those in the M2 Pro, so Apple doesn’t need to pack as many of them in. Similarly, Macs might be able to hand off more processing to the GPU than an iPhone can, meaning the Neural Engine doesn’t require as much power.
davidzo
2023-11-02, 18:49:36
FSR3 und DLSS3 sind auch besser als Apples Integration und wenn dies in Spielen bewertet wird, ist das ein Riesen Nachteil für Apple, weil es schlicht schlechter ist.
Da Upsampling in der Regel mit einer Qualitätseinbuße einher geht sollte das auch nicht direkt gegen natives rendering antreten. Aber man kann ja einen kleinen Extra-Teil des Index hinzufügen für FSR/DLSS.
Stichwort Neural Engine: Das wird in Real World Tests auch noch eine spannende Sache. Weil die im A17 ja mehr liefert als die im M3.
Könnte es nich sein dass Apple beim A17 wie schon Qualcomm mit Int4 rechnet weil das im Mobilbereich wohl einigermaßen verbreite ist während im Desktop Int8 und BF16 dominieren?
Ailuros
2023-11-03, 07:10:00
Da Upsampling in der Regel mit einer Qualitätseinbuße einher geht sollte das auch nicht direkt gegen natives rendering antreten. Aber man kann ja einen kleinen Extra-Teil des Index hinzufügen für FSR/DLSS.
Mich wuerde es ernsthaft interessieren wie die Leistung fuer upsamling auf Apple's neuen Loesungen aussieht. Sonst sind die Kosten fuer die Qualitaet direkt mit dem Grad von details/Aufloesung in einer jeglichen Szene verbunden. IMHO waere jegliches upsampling fuer alles =/>1080p kein Problem fuer Apple's Mx SoCs.
Könnte es nich sein dass Apple beim A17 wie schon Qualcomm mit Int4 rechnet weil das im Mobilbereich wohl einigermaßen verbreite ist während im Desktop Int8 und BF16 dominieren?
Auch in MacOS? (ehrliche Frage).
E39Driver
2023-11-03, 09:58:05
M3 sieht ja ziemlich brauchbar aus. Wobei in Summe ~ 10 - 15% Steigerung auf den M2 auch nur normale erwartbare Evolution ist.
Als Potenzieller Käufer finde ich das Mac-Portfolio jedoch immer noch unausgegoren und spiegelt sich ja auch in den aktuellen Quartalszahlen und dem stark eingebrochenen Mac-Absatz wieder. Für einen weit verbreiteten 27 Zoll Intel iMac gibt es immer noch keinen sinnvollen Nachfolger. Und die seit 10 Jahren stagnierende Basisausstattung 8GB/256GB wird auch immer mehr zum Kaufhemmnis
fondness
2023-11-03, 10:11:01
warum denn so passiv aggressiv?
Vielleicht machen wir einfach mit einer ruhigeren und sachlichen Diskussion weiter.
- jeder Benchmark hat seine Eigenheiten
- kein Benchmark kann in EINER Zahl die Komplexität moderner Performance-Eigenschaften von Prozessoren gänzlich fassen. Das ist nunmal eine Eigenheit der Datenreduktion
- innerhalb der Apple-M-Reihe kann ein Benchmark wie Geekbench dazu beitragen, die relative Performance einzuschätzen
- man kennt die "Real-World-Leistung" der Apple SoCs ggü. den aktuell verfügbaren Produkten "der Konkurrenz"
- der M3/Pro/Max ist "schneller" als M1 und M2
- M1/M2/M3 tendieren dazu für den Formfaktor Notebook eine sehr gute Lösung zu sein
können wir uns darauf einigen? die Details kann man ja darauf aufbauend ausdiskutieren :)
Ich bin passiv aggressiv? Du hast schon den Beitrag hier gelesen?
GeekBench ist ein recht brauchbarer Benchmark, aber man sollte natürlich, wie bei jedem anderen Test auch, wissen, was wird da eigentlich getestet. Ganz offensichtlich hast Du keine Ahnung, was GB mißt und bist anscheinend auch nicht in der Lage, Dich über die veröffentlichte Meßmethode zu informieren, sondern möchtest lieber jedem im Forum mitteilen, was für ein toller Hecht Du bist, indem Du das übliche GB-Bashhing der ganzen anderen tollen Hechte weiterverbreitest….
Ein neutraler Beobachter würde wohl den zitieren :)
Es ist offensichtlich, dass Geekbench eine deutliche Schlagseite Richtung Apple hat. Aber wenn man das offensichtliche ausspricht wird man direkt von eine ganzen Apple-Fanboy Armada bearbeitet.
Ailuros
2023-11-05, 06:58:10
Btw, der M3pro ist eigentlich eine Regression verglichen zum M2pro. Nicht nur hat er weniger Speicherbandbreite und die CPU ist als 6+6 eine Abspeckung zur bisherigen 8+4 CPU: Insgesamt hat der Chip nur noch 37Mrd Transistoren verglichen mit bisher 40Mrd beim M2pro.
Apple möchte wohl deutlich die Kosten reduzieren und geht den nvidia-Weg indem man einen extrem großen Abstand zwischen Highend und Enthusiast schafft.
Entschuldigt dass ich es zum zweiten Mal zitiere aber hier etwas spekulatives das aber Sinn macht:
https://www.anandtech.com/show/21116/apple-announces-m3-soc-family-m3-m3-pro-and-m3-max-make-their-marks
The Hardcard - Tuesday, October 31, 2023 - link
Some nonprofessional observations:
1 Apple made a major change in how it produces the chips. Previously, they designed the Max chips, so that the bottom half of the GPU section, system level cache, and memory controllers could be chopped off to make the Pro, getting two products from one mask.
The M3 Pro is his own design, with a completely different layout, thus requiring apple to spend money to lay out and make a mask for a separate chip. This is very expensive however, slicing off a chunk of silicon for each Pro chip was also expensive, especially since they probably had to cut off some silicon with no defects to meet the demand for previous Pros.
2 Previous high-end M chips thus had identical, dual-cluster performance blocks with four cores each and an efficiency cluster with two and then four cores. From the die shots, you can see they increased to up to six cores per cluster. The M3 Max still has two performance clusters, and one efficiency cluster.
M3 Pro has the six performance cores on only one cluster. In the Anandtech Article on M1 Max performance it was shown that each cluster could draw somewhat above 100 GB per second. That goes to why the M3 Pro has a reduced capacity memory interface. With only one cluster, the CPU can’t use 200 GB per second.
I plan on scrounging the money together for an M3 Max for running local high parameter large language models. My current conditions require my machine to be unplugged a large portion of the time, maintaining full performance unplugged is important to me.
128 GB of unified memory will allow running the biggest models with GPU acceleration. I am very disappointed that they didn’t go with LPDDR5-9600 though. Neural networks are memory bandwidth limited and faster memory would have made a huge difference in inference speed.
The_Invisible
2023-11-05, 08:25:15
M3 sieht ja ziemlich brauchbar aus. Wobei in Summe ~ 10 - 15% Steigerung auf den M2 auch nur normale erwartbare Evolution ist.
Als Potenzieller Käufer finde ich das Mac-Portfolio jedoch immer noch unausgegoren und spiegelt sich ja auch in den aktuellen Quartalszahlen und dem stark eingebrochenen Mac-Absatz wieder. Für einen weit verbreiteten 27 Zoll Intel iMac gibt es immer noch keinen sinnvollen Nachfolger. Und die seit 10 Jahren stagnierende Basisausstattung 8GB/256GB wird auch immer mehr zum Kaufhemmnis
Hab ich mir auch schon länger überlegt als Home-Office/dev station, aber wenn man min. 32gb RAM braucht wird's einfach absurd teuer.
Dann doch lieber Eigenbau Mini-ITX um ein paar hunderter und qufrüstbar...
urpils
2023-11-05, 08:56:42
Hab ich mir auch schon länger überlegt als Home-Office/dev station, aber wenn man min. 32gb RAM braucht wird's einfach absurd teuer.
Dann doch lieber Eigenbau Mini-ITX um ein paar hunderter und qufrüstbar...
wobei/wofür brauchst du denn 32gb RAM? (ernste Frage - ich komme bei mir gerade so mit 16GB aus... aber könnte mich immer noch etwas einschränken, wenn es sein müsste...)
Hintergrund der Frage: Übersicht, welche Anwendungen und Anwendungsfälle von viel RAM profitieren und deshalb die Investition gerechtfertigt ist.
smalM
2023-11-05, 10:14:20
Bei GB6 ist der erste Eintrag für einen M3 Pro aufgetaucht.
Hier der Vergleich (https://browser.geekbench.com/v6/cpu/compare/3390128?baseline=3050630) mit dem z.Z. schnellsten MT Eintrag für einen M2 Pro.
Außerdem tauchen jetzt auch GB5-Ergebnisse für den M3 Max auf (bspw. hier (https://browser.geekbench.com/v5/cpu/21906278)), wo man dann sehen kann, daß der M2 Ultra, anders als im kooperativen GB6, erwartungsgemäß bei MT noch deutlich schneller ist; der Vorsprung liegt bei ca. 20%. Interessant ist, daß der MT Cryptoscore gegenüber dem M2 Max nur noch mit dem Takt steigt und die gestiegene Anzahl der Cores nicht mehr widerspiegelt. MT Integer und FP steigen hingegen um ca. 50%.
Maynard Handley zu Dynamic Caching (https://forums.macrumors.com/threads/3d-rendering-on-apple-silicon-cpu-gpu.2269416/post-32694869) der M3-GPU
The_Invisible
2023-11-05, 10:33:04
wobei/wofür brauchst du denn 32gb RAM? (ernste Frage - ich komme bei mir gerade so mit 16GB aus... aber könnte mich immer noch etwas einschränken, wenn es sein müsste...)
Hintergrund der Frage: Übersicht, welche Anwendungen und Anwendungsfälle von viel RAM profitieren und deshalb die Investition gerechtfertigt ist.
Die Standardumgebung mit IDEs, Browser, Teams usw allein brauchen schon 16GB, wenn man dann noch VMs/komplexere Docker-Compose laufen hat und nicht alles immer runterfahren will sind eigentlich fast 32GB zu wenig, deshalb auch 64GB in der Hauptmaschine derzeit. Wenn man dann noch größere Projekte nebenbei mit vielen Threads gleichzeitig compiled braucht man auch hier mehrere GB zusätzlich. Bin eigentlich richtig glücklich derzeit mit meinem 16Kerner und 64GB RAM, nur in idle/Teillast sind die AMDs nicht gerade spitze...
So ein MAC Studio wäre schon nett, nur die 2,4k bekommst selbst mit dem niedrigeren Stromkosten nie rein...
Matrix316
2023-11-05, 11:02:12
Also in diesem Zitat stand, dass man vom M1+2 Max die Hälfte für den Pro genommen hat. Aber wars nicht früher umgekehrt? Man hatte den Pro entwickelt und dann mit dieser neuen Super Schnittstelle zwei Pros zu einem Max zusammengeklebt?
Deswegen verstehe ich nicht ganz das neue Pro Design.
Ach Quatsch, das war vom Max zum Ultra. :)
VooDoo7mx
2023-11-07, 10:18:21
Notebookcheck hat schon einen Test zum MAcbook Pro 14 mit M3 rausgehauen.
https://www.notebookcheck.com/Apple-MacBook-Pro-14-2023-M3-im-Test-Das-Basismodell-des-MBP-14-kommt-jetzt-ohne-Pro-SoC.764259.0.html
- kleinere Kühlung mit einen Lüfter (war zu erwarten)
- CPU taktet nur bei SC Last auf 4GHz
- bei MC Last so um die 3,6GHz
- CB R23 ca 10k
- Bei CPU Last ca 20W Verbrauch (M1 war etwa bei 18W)
- Performance in 3DMark Wildlife Extreme 8K Punkte / Phoenix hat in etwa 5K Punkte
- Leider kein Solar Bay Test
- Keine Angabe Zu Stromverbrauch GPU Last
- Bei gleichzeitiger Last CPU + GPU wird gedrosselt. Kühlung reicht nicht aus
- Apple typisch kocht unter Last der SoC bei 102°C
- Weiterhin schlechte SSD Speeds bei der 512GB Version (war zu erwarten)
Alles in allen ist die erste Version von TSMCs 3nm Prozess sehr enttäuschend. Wenn man M3 mir M1 vergleicht, sind die Steigerungen in Sachen Energieeffizienz minimal.
Aquaschaf
2023-11-07, 13:21:08
Lässt man die Preise außen vor finde ich das Portfolio mit M3, M3 Pro und M3 Max ausgewogener. Aber bei den hohen Preisen sieht der M3 Pro echt nicht sehr attraktiv aus - solange man sie noch kriegt kann man stattdessen auch ein Model mit M1 Max nehmen.
bloodflash
2023-11-07, 14:08:35
Lässt man die Preise außen vor finde ich das Portfolio mit M3, M3 Pro und M3 Max ausgewogener. Aber bei den hohen Preisen sieht der M3 Pro echt nicht sehr attraktiv aus - solange man sie noch kriegt kann man stattdessen auch ein Model mit M1 Max nehmen.
Ja, die lieben Preise...
Statt 2500,- für den einfachen M3 mit 16GB und kastrierter SSD, wird es dann wohl ein AMD 7000 mit 8c16c, 32GB und 1TB-SSD für ca. 1500,-. Evtl. sind dann sogar 120Hz und LTE/5G mit drin. Langsam kommen die Modelle ja auf den Markt.
Die 3700,- für den M3pro finde ich dann doch zu abgehoben.
Daredevil
2023-11-07, 14:12:12
Upselling funktioniert ja auch beim iPad. Entweder nimmste gleich das Base Ding oder ein Pro, wenn du wirklich Pro bist. Das Air ist so teuer, das es den Preis des Pro attraktiv macht. Es wird sicherlich auch welche geben, für die der M3Pro der ideale Chip ist ( mehrere Monitore, HDMI 2.1, RAM ect. ), die Leistung ist aber hier vermutlich echt nicht ausschlaggebend.
Entweder macht man so wenig, das ein M3 ausreicht oder macht so viel damit, das ein M3Max sein muss und da der M3 teilweise schneller als ein für viele "viel zu schneller" M1Pro/Max ist in manchen CPU Tasks, geht der Trend auch eher Richtung Base Apple Silicon, wo er vermutlich eh schon war.
Matrix316
2023-11-08, 12:59:52
Ja, die lieben Preise...
Statt 2500,- für den einfachen M3 mit 16GB und kastrierter SSD, wird es dann wohl ein AMD 7000 mit 8c16c, 32GB und 1TB-SSD für ca. 1500,-. Evtl. sind dann sogar 120Hz und LTE/5G mit drin. Langsam kommen die Modelle ja auf den Markt.
Die 3700,- für den M3pro finde ich dann doch zu abgehoben.
Wo sind denn deine Apple Preise her? Der M3 Pro 14er gibt's schon ab 2500 Euro. Das Einsteiger Pro mit 16 GB sind nur 2230 Euro. :) Fast Schnäppchen! ;)
Also die Performance ist ja schon nicht so schlecht. Gerade die GPU vom Max. Aber ich verstehe immer noch nicht die Deklarierung mit 10 Kernen, 19 Kernen oder 30 Kernen, weil bei einer GPU hat noch nie jemand auf die Kerne geschaut, weil die ja ganz anders funktionieren als CPUs, oder? Wieviel "Kerne" hat eigentlich eine 4090 so? Genau...
basix
2023-11-08, 14:31:57
Eine 4090 hat 128 (SM) "Kerne", eine 7900XTX hat 96 (CU) oder 48 (WGP) "Kerne", usw. ;)
Matrix316
2023-11-08, 15:07:27
Eine 4090 hat 128 (SM) "Kerne", eine 7900XTX hat 96 (CU) oder 48 (WGP) "Kerne", usw. ;)
Nehm ich da jetzt die Shader Einheiten? Oder die TMUs? Tensor Cores? RT Cores? :freak:
Ich finde Apple sollte der GPU einen eigenen Namen geben, weil die scheinen ja relativ schnell zu sein. Was weiß ich. Apple Graphics 3010 oder 3019 oder 3030. Und im nächsten Chip dann 4010, 4019 etc.. Dann kann man immer vergleichen ist eine 3030 von Apple besser als eine 4070 von Nvidia? ;)
bloodflash
2023-11-08, 17:06:30
Wo sind denn deine Apple Preise her?
Das sind die von mir zusammengeklickten Preise von (für mich) sinnvollen Konfigurationen. Wahrscheinlich war das alles mit angemessener CPU/RAM/SSD-Ausstattung für das jeweilige Modell.
robbitop
2023-11-08, 23:17:04
Das mit den GPU Cores war bei mobile GPUs in den SoCs eigentlich schon lange üblich. ARM und IMGTec benennen das sfhon seit grob 1 Jahrzehnt so. AMD hat das bei den APUs zu Bulldozer Zeiten auch mal so vermarktet und Intel tut das zT auch noch (bei ihren „APUs“) indirekt mit der Nummerierung der CPU Cores und GPU Cores. X+Y etc
Ailuros
2023-11-10, 12:54:10
Das mit den GPU Cores war bei mobile GPUs in den SoCs eigentlich schon lange üblich. ARM und IMGTec benennen das sfhon seit grob 1 Jahrzehnt so. AMD hat das bei den APUs zu Bulldozer Zeiten auch mal so vermarktet und Intel tut das zT auch noch (bei ihren „APUs“) indirekt mit der Nummerierung der CPU Cores und GPU Cores. X+Y etc
Im ULP SoC Markt gibt es auch heute noch fuer die GPUs gravierende Unterschiede zu jeglicher dGPU. Korrekt vermarktet ist in der ULP Welt ein "core" ein GPU block der auch so einzeln verkauft bzw. integriert werden kann. In dem Fall entwickelt hier der IP provider einen einzelnen core der bis zu N cores innerhalb eines SoCs skaliert werden kann. Mir persoenlich ist von allen GPU IP Faellen bekannt wo mehr als 16 GPU cores integriert wurden, Ausnahme sind dann natuerlich Apple's Implementierungen in Mx SoCs wo aber auch teilweise eher ein existierender GPU Block einfach kopiert und doppelt integriert wird.
High end GPU Entwickler wie NV und AMD fangen ihre Entwicklung quasi von oben nach unten an und es gibt hier keineswegs irgendwelche Zwangsgrenzen wo man pro cluster bzw. "core" jetzt ploetzlich innerhalb N die area mir nichts dir nichts bleiben muss.
Es duerfte uebrigens selbst heute keine ULP SoC GPU geben wo die TMUs wirklich unabhaengig von den ALU Bloecken sind. Anders fuer ULP GPUs wird wo immer moeglich gespart und fuer high end GPUs (zugegeben uebertrieben illustriert) so viel wie moeglich verschwendet.
mboeller
2023-11-11, 14:51:15
Notebookcheck hat schon einen Test zum MAcbook Pro 14 mit M3 rausgehauen.
https://www.notebookcheck.com/Apple-MacBook-Pro-14-2023-M3-im-Test-Das-Basismodell-des-MBP-14-kommt-jetzt-ohne-Pro-SoC.764259.0.html
Notebookcheck hat jetzt einen Folgeartikel rausgelassen. Sie empfehlen das alte Macbook Pro14 mit M2-Pro. Das wäre die bessere und günstigere Wahl!
https://www.notebookcheck.com/Das-neue-MacBook-Pro-14-M3-sollte-man-nicht-kaufen-solange-es-noch-das-M2-Pro-Modell-gibt.767317.0.html
allerdings gibt es aktuell noch das alte MacBook Pro 14 M2 Pro, welches als Basisvariante mit 16 GB RAM aktuell für rund 2.150 Euro im Handel verfügbar ist (MBP 14 M3 mit 16 GB kostet 2.229 Euro) und es ist insgesamt ganz klar das bessere Paket
=Floi=
2023-11-22, 18:51:05
Sollte denen bei apple mal zu denken geben.
Demogod
2023-11-23, 20:58:34
Ganz gutes Analysevideo imo auch wenn es nicht super tief geht. (https://youtu.be/8bf3ORrE5hQ)
dildo4u
2023-12-05, 13:26:55
RT Performance gegen Desktop GPU.
https://i.ibb.co/KrgrDKd/Screenshot-2023-12-05-132632.png (https://imgbb.com/)
https://www.computerbase.de/2023-12/apple-macbook-pro-m3-max-test/
davidzo
2023-12-05, 16:26:16
Blender/Cycles 4.0 soll angeblich schon die Hardware RT Einheiten nutzen.
https://opendata.blender.org/benchmarks/query/?compute_type=OPTIX&compute_type=CUDA&compute_type=HIP&compute_type=METAL&compute_type=ONEAPI&blender_version=4.0.0&group_by=device_name
Der Speedup zwischen M2 GPU Cores und M3 Cores ist beinahe 2x.
Zwischen M1 und M3 gar 300%.
M2Pro (19C): 892.79
M1Max (32C): 930.67
M1Ultra (48C): 1379.18
M3Pro (14C): 1430.82
M2Max (30C): 1443.32
M3Pro (18C): 1500.92
M1Ultra (64C): 1621.08
M2Max (38C): 1765.03
M3Max (30C): 2851.28
M2Ultra (76C): 3218.52
M3Max (40C): 3424.82
RTX 4070 Laptop: 3583.34
RTX 4080 Laptop: 5638.85
RTX 4090 Laptop: 7058.49
Die Zugewinne sind also ordentlich, durch Hardware RT also weit höher als die Stagnation im Gaming Bereich.
Für mich ist das aber auch nicht ganz so hoch wie erhofft (bin Rhino/Cycles User momentan noch auf Intel/Radeon Plattform). Vielleicht wächst das aber auch mit neuen Softwareversionen nochmal etwas an.
Nvidia hat mit Optix ca. Faktor 3x gegenüber nur CUDA rausgeholt. GPU/CUDA ohne Optix war wiederum schneller als CPU Rendering um Faktor 3x, also 9x insgesamt (CPU: Intel 8C/16T E2286M).
Der M3Max ist also mit 40-60Watt Verbrauch ca. auf RTX 4070 laptop niveau (115W). Nicht übel für mobile.
Wenn der M3 Ultra wiederum ein doppelter Pro ist, dann können wir RTX 4090 laptop Ergebnisse erwarten, bei ca. 80-100Watt (4090 laptop: 175W). Die 4090 Desktop (450WTDP, real 350W) bleibt dann aber immer noch 40% schneller...
robbitop
2023-12-05, 16:33:10
Die Frage ist, wie viel RT HW sie verbaut haben.
Level 2 – Ray/Box and Ray/Tri Testers in Hardware. (RDNA2/3)
Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware. (Ampere/Turing)
Level 3.5 - Ada Lovelace / Alchemist
Level 4 – BVH Processing with Coherency Sorting in Hardware
Kann mir gut vorstellen, dass man erstmal nur Level 2 verbaut hat. Kostet am wenigsten Transistoren und es ist jetzt auch nicht gerade die Core Applikation von Apples Clientel, die das ausreizt.
davidzo
2023-12-05, 16:51:09
Ja, ich habe dazu zwei Theorien:
1. die Cycles Implementierung für die RT Einheiten vom M3 ist noch im Alpha-status und die performance wird noch besser.
2. es ist wie bei AMD nur Level2 verbaut. Apple hat ja in metal schon viele grundlagen für schnelles Software RT. Es würde Sinn machen dass man das bereits frühzeitig angelegt hat weil man bei der Hardware nicht direkt in die Vollen gehen wollte.
Was aber imo gegen Theorie2 spricht ist der enorme Zuwachs an Transistoren pro GPU-Core von dem man in Games ohne RT praktisch nichts sieht.
Btw, die 40-kern M3Max GPU ist ja ziemlich genau auf 7900XT-Niveau. Das ist schon beachtlich für einen Chip von dem weniger als die Hälfte, also ca. 40Mrd Transistoren auf die GPU entfallen (Navi31: 58Mrd). Das ist von der Größe eher mit dem Navi31 Compute Die alleine vergleichbar, auch weil der SLC und LPDDR5 ja Systemweit genutzt wird. Allerdings bei einem sechstel des Energieverbrauchs. - Das hat nicht mehr nur mit N3 zutun, das ist schon eine GPU Architektur, die Apple da hat, die effizienter in performance per watt und PPA ist als AMDs.
robbitop
2023-12-05, 17:01:10
Wo siehst du das? Im 3DM RT Benchmark auf CB ist der M3 Max nur auf Radeon 6700XT niveau? ~50.000 punkte vs ~53.000 punkte
davidzo
2023-12-05, 17:06:40
Wo siehst du das? Im 3DM RT Benchmark auf CB ist der M3 Max nur auf Radeon 6700XT niveau? ~50.000 punkte vs ~53.000 punkte
Ich meine immer noch Blender/Cycles, also ein Pro/Workstation Workload mit RT. Gerade wenn man im Unterschied dazu die eher ernüchternde gaming-Leistung sieht, zwängt sich doch der Eindruck auf dass die RT Implementierung wohl etwas weiter geht als die von RDNA3.
robbitop
2023-12-05, 17:15:12
Ja das kann natürlich sein.
Daredevil
2023-12-05, 17:17:06
Wo siehst du das? Im 3DM RT Benchmark auf CB ist der M3 Max nur auf Radeon 6700XT niveau? ~50.000 punkte vs ~53.000 punkte
Ich weiß jetzt nicht wie groß oder ob das Einfluss hat, aber 3DM ist keine MacOS sondern eine iPhone/iPad App. Da ist vllt. noch etwas Potential vorhanden.
Matrix316
2023-12-05, 17:26:34
8 GB sind doch nicht ganz so gut wie Apple behauptet:
u1dxOI_kYG8
robbitop
2023-12-05, 17:33:44
Die low Spec Modelle sind nur dazu da um den "starting at" price attraktiv erscheinen zu lassen und beim tatsächlichen Kauf, die Kunden auf höhere Specs zu "massieren". 8 GB RAM sind im Jahr 2023 (fast 2024!) einfach untragbar bei einem neuen Laptop (insbesondere einem so teuren). Das wird niemand so speccen. Aber immerhin geht es wenigstens bei 512 GB Storrage los und nicht mit lächerlich kleinen Kapazitäten wie beim iPad (64 GB).
Die Margen, die Apple (aber auch Dell und Co sind da nicht viel besser) für RAM/Speichererweiterung ziehen sind astronomisch. Gerade in Zeiten, wo man nicht upgraden kann, ist man praktisch gezwungen beim Kauf das höhere Spec Modell zu nehmen. Und dann wird es saftig.
MicroSD Slots gibts natürlich auch nicht, damit man bloß auch beim Storrage nochmal 200+ EURs für +512 GB ausgibt.
maximus_hertus
2023-12-05, 17:54:00
Das wird niemand so speccen.
Die Basemodelle werden sich so oder so sehr gut verkaufen. ICh wäre mir nicht sicher, ob nicht das 8GB Model (beim Pro) nicht das meistverkaufte sein wird. Sehr viele KAufen einfach das Basemodel, welches meistens auch noch günstiger angeboten wird (im Handel). Der Aufpreis zu 16+ GB RAM beträgt dann nicht selten deutlich mehr als die von Apple veranschlagten 230 Euro, da die nicht Base-Modelle nur selten spürbar beim Preis nachgeben.
Ich halte es immer noch für einen Fehler im aktuellen PRO nur 8GB zu verbauen. Vor allem wären 1799 USD als Basepreis nicht wirklich kritischer als 1599 USD.
Wenn man bei 2199 vs 1999 gestunden hätte, hätte man mit der psychologischen "1" irgendwie argumentieren können? Aber so?
robbitop
2023-12-05, 18:26:40
Oha - ja das kann natürlich sein. Die armen Käufer. 8 GB sind heute mehr als grenzwertig und bei einem neuen teuren Laptop erwartet man, dass der auch ein paar Jahre gut funktioniert. Das ist dann Kustekuchen.
Mein Dell XPS13 (Dienstlaptop) von 2018 ist jetzt schon (nur mit office365) an der absoluten Kotzgrenze dank 8 GB RAM bei Windows10 - hätte den damals die Firma gleich mit 16 GB gespecct wäre alles noch okay aber so brauche ich bald einen neuen. Ich errinnere mich, dass 2018 8GB schon nicht so dolle waren und ich diese Befürchtung hatte…
Selbst wenn MacOS effizienter ist, wird das sicherlich nicht un Welten sein. 8 GB RAM bei einem niegelnagelneuen Macbook ist auf jeden Fall in 2023 schon ziemlich dreist.
MSABK
2023-12-05, 20:42:57
Sogar die iPhones haben doch 8GB Ram. Aber bei Apple geht es, die kriegen auch 2024 für 2000€ 8GB Ram Notebooks verkauft.
robbitop
2023-12-05, 20:56:09
Naja bei Phones ist es IMO was anderes. Da sind die Apps und das OS auf einer ganz anderen Ebene in Sachen Funkionalität und RAM Hunger.
Daredevil
2023-12-05, 21:04:10
Wenn man heute sagt, 8GB Ram sind zu wenig ( agree! ), ist das vor 3 Jahren auch schon so gewesen und das MBA mit 8GB ist unheimlich erfolgreich gewesen und ist es heute immer noch. Die Foren sind nicht voll mit "Mein Ram ist zu klein", sondern "Die Kiste rennt einfach!".
Das liegt aber vermutlich einfach daran, dass der Großteil der Menschen einfach -nichts- mit den Kisten macht, außer WhatsApp, Candy Crush, paar iPhone Fotos bearbeiten und Serien schauen.
Das M1 Pro mit 256/8 hat bei Amazon 2360 Bewertungen und hat glatte 4.8 Sterne.
https://www.amazon.de/Apple-MacBook-Pro-mit-Chip/dp/B08N5SF4RG/ref=sr_1_17?__mk_de_DE=ÅMÅŽÕÑ&crid=39YNL8IP0NQV1&keywords=macbook+air+8gb&qid=1701806519&sprefix=macbook+air+8%2Caps%2C156&sr=8-17
Das M1 Air mit 256/8 hat 5500+ Bewertungen und ebenso glatte 4.8
https://www.amazon.de/Apple-MacBook-Air-mit-Chip/dp/B08N5S9B8X/ref=sr_1_1?__mk_de_DE=ÅMÅŽÕÑ&crid=3LRC0WI2FQU0C&keywords=macbook+air+8gb+m1&qid=1701806591&sprefix=macbook+air+8gb+m%2Caps%2C124&sr=8-1
Das rechtfertigt wie gesagt nicht den Fakt, dass 8GB natürlich quatsch sind, wenn man ein wenig anspruchsvoll sein möchte. Aber andererseits... wird es einfach gekauft wie bescheuert und die Customer Satisfaction scheint enorm zu sein.
Und andererseits bin ich gerade enorm glücklich, mein MBP mit nem M1 Max+32GB ausgestattet zu haben, weil mir nen Stable DiffusionXL Bild gerade 26GB belegt, was ich selbst mit einer 3090 nicht hinbekommen würde. Sehe auch echt selten, dass die Kiste in dem Moment knapp 90w verbrät. :D
Unified Memory for the Win!
y33H@
2023-12-05, 22:59:12
Wofür brauchst du so große Stable Diffusion Bilder?
Daredevil
2023-12-06, 01:08:59
"Brauchen" ist so ein subjektives Wort. :D
Na hätte ich den Speicher nicht, würde ich die Quali natürlich auch nicht so hoch jagen.
Ich bastel mir aber nebenbei gerne Wallpaper zusammen oder halt Bilder, die man irgendwo mal für benötigt. Also YT Thumbnails, Hintergrunde, Einblendungen ect. oder halt aus Spaß an der Ästhetik.
Wenn ich was schickes gefunden habe, lass ich das MacBook in der Tat dann Nachts die höchstmögliche Quali in verschiedenen Seeds durchlaufen und gucke mir am Tag später das Ergebnis an. SDXL Turbo habe ich allerdings noch nicht getestet, das klingt sehr spannend, wobei mir die Quali wichtiger ist.
Mayhem
2023-12-06, 09:27:44
War da nicht auch was, dass die neueren 8GB/256GB Kisten nur halbe SSD-Bandbreite haben und vllt deswegen auch ausgebremst werden?
Aber ja, schöner wär, wenn sie einfach 8GB streichen und 16GB nur 100€ teurer machen würden. Hätten sie immer noch ne fette Marge drauf und die Leute wären "zufriedener". So hat man immer das Gefühl sich falsch zu entscheiden.
Allerdings muss man auch sagen, dass das Video etwas unrealistisch ist. Die wenigsten Leute lassen 2x 100% Tasks nebeneinander laufen. Das kommt in der Praxis auf solchen Geräten doch so gut wie nicht vor.
Und wie Daredevil schon schrieb: Auch 16GB sind dann iwann zu wenig.
Matrix316
2023-12-06, 13:18:02
Der Punkt ist ja: Wenn das Base Model mit 8 GB auch nur 1599 Euro (im Vergleich zu den 1599 $ in den USA) kosten würde, könnte man ja den Aufpreis zu 16 GB vielleicht verschmerzen - aber Apple will ja 1999 Euro dafür haben. Und das ist doch ein wenig frech. (EDIT: Ja ich weiß 1599 wäre billiger als das 15 Air, aber das ist IMO eh viel viel zu teuer).
w0mbat
2023-12-06, 13:31:25
Die US-Preise sind ohne MwSt., währen (ausgehend vom $-Preis) eher 1799€ hier. Aber ja, es ist zu teuer hierzulande.
Apropos RAM und Apples M3: Gibt es mittlerweile ein paar Infos zum Dynamic Caching? Funktioniert es einfach so ohne das die Software daran angepasst werden muss oder müssen die Anwendungen das Feature speziell unterstützen und was bringt es unterm Strich?
Wenn was beim Dynamic Caching bei rum kommt, wären die 8 GB RAM vielleicht doch nicht so wenig.
smalM
2023-12-22, 16:39:29
Was ist eigentlich mit dem iPad Gen. 11 passiert?
Von Gen. 5 bis 10 gab es sechs Generationen lang jedes Jahr ein neues.
Wäre doch nicht schwierig gewesen: iPad auf, A14 raus, A15 rein, iPad zu, fertig.
Ailuros
2023-12-27, 08:40:24
Apropos RAM und Apples M3: Gibt es mittlerweile ein paar Infos zum Dynamic Caching? Funktioniert es einfach so ohne das die Software daran angepasst werden muss oder müssen die Anwendungen das Feature speziell unterstützen und was bringt es unterm Strich?
Wenn was beim Dynamic Caching bei rum kommt, wären die 8 GB RAM vielleicht doch nicht so wenig.
Ich lass mich gerne eines besseren belehren aber von dem bisschen dass ich im Netz fuer dynamic caching gelesen habe, handelt sich um einen effizienteren Umgang von caching fuer die GPU, welches im Normalfall keine spezielle Anpassungen brauchen sollte. Nach den generellen Berichten wie sich Macbooks mit M3 verhalten, hab ich zwar keinen Zweifel dass es funktioniert, aber wenn man nicht unbedingt ein Apple laptop "braucht" (aus welchem Grund auch immer....) sehe ich eher ein Problem mit einem viel zu hohem MSRP als zu "wenig" 8GB Speicher. Bei den Macbook mit M3 Preisen kann ich mir locker ein windows gaming laptop mit einer laptop GTX4060 GPU besorgen die dann selber ihre 8GB dedizierten Speicher hat und 16GB System-Speicher, wenn nicht sogar noch einer schnelleren laptop GPU.
Mir ist zwar schon klar dass es Apple nicht juckt, denn wer ein Macbook haben will wird sich schon eins besorgen, egal was es kostet, aber die Tiere sind einfach zu teuer.
fondness
2023-12-27, 10:05:35
Wo siehst du das? Im 3DM RT Benchmark auf CB ist der M3 Max nur auf Radeon 6700XT niveau? ~50.000 punkte vs ~53.000 punkte
Gab es da nicht mal vor kurzem Smartphone-Benchmarks, wo die Samsung "Eclipse" GPU (RDNA2) bei Raytracing alles von Qualcomm und Apple hinter sich lässt? Also ich würde mir nicht viel erwarten hinsichtlich Raytracing-Leistung.
basix
2023-12-27, 12:18:31
8 GB sind doch nicht ganz so gut wie Apple behauptet:
https://youtu.be/u1dxOI_kYG8
Apples Claim mit dem "Unified Memory" ist auch einfach nonsens. Wenn ich einen Windows Laptop ohne dGPU habe, was habe ich dann? Ach ja, Unified Memory.
Das Speicher Management von Windows hat sich auch weiterentwickelt und ich würde hier gegenüber Apple nicht wirklich einen grossen Nachteil sehen. Apps verbrauchen auf dem Mac auch nicht auf wundersame Weise weniger RAM und die meisten Windows Laptops haben mittlerweile auch eine NVMe SSD, was allfälliges Caching / Auslagern auf Mac wie Windows ähnlich schnell macht.
Zum Dynamic Caching:
Das soll die GPU-Utilization erhöhen und so wie ich das verstehe, sind da primär Register und Caches involviert und nicht DRAM.
smalM
2023-12-27, 12:19:44
Meinst Du vielleicht den Basemark "In Vitro"?
VooDoo7mx
2023-12-27, 15:03:56
Gab es da nicht mal vor kurzem Smartphone-Benchmarks, wo die Samsung "Eclipse" GPU (RDNA2) bei Raytracing alles von Qualcomm und Apple hinter sich lässt? Also ich würde mir nicht viel erwarten hinsichtlich Raytracing-Leistung.
Ja in deinen feuchten Fanboy Träumen passiert das vielleicht.
Du kannst dir auch selber die App herunterladen und das nachprüfen, da kannst du dir Ergebnisse aller Geräte anschauen.
3D Mark Solar Bay: (RT Benchmark)
Snapdragon 8 Gen2: ~5300
Snapdragon 8 Gen3: ~8500
Apple A16: ~4300
Apple A17: ~6100
Exynos 2200: ~4400
=Floi=
2023-12-27, 15:07:16
RT ist sowas von egal die nächsten 3-4 jahre.
Zossel
2023-12-27, 15:23:46
Das Speicher Management von Windows hat sich auch weiterentwickelt und ich würde hier gegenüber Apple nicht wirklich einen grossen Nachteil sehen. Apps verbrauchen auf dem Mac auch nicht auf wundersame Weise weniger RAM und die meisten Windows Laptops haben mittlerweile auch eine NVMe SSD, was allfälliges Caching / Auslagern auf Mac wie Windows ähnlich schnell macht.
Und nebenbei verschleißt das auch noch die SSD, kann man die mittlerweile wieder tauschen oder ist der Kram immer noch zum wegwerfen konzipiert?
basix
2023-12-27, 16:19:43
Beim Mac? Ist auch beim M3 verlötet: https://youtu.be/3yXCKMNEJUo?t=222
Wie im 8/16GB Vergleichsvideo gesagt wird und auch hier angemerkt wurde: Wenn man das Ding halt "nicht braucht" - d.h. nur etwas Office, Multimedia-Konsum und Browsing - ist 8 GB knapp genug. Aber je nach Nutzerverhalten (viele Browser-Tabs offen usw.) sind 8GB auch bei "niedrigen Anforderungen" etwas zu wenig und 12-16GB wären sinnvoller. Für das zahlt man aber saftige Aufpreise und Nachrüsten ist bei DRAM wie SSD nicht möglich. Apple halt.
Wenn man es sich überlegt ist es eigentlich eine Sauerei: DRAM oder SSD Defekte sind in der Häufigkeit wohl ein guter Teil der Ausfälle. Und grösseren Kapazitäten sind nur gegen absurde Aufpreise erhältlich. Bei den meisten Windows Notebooks kann ich hier nach belieben "nachkonfigurieren" oder reparieren, wenn nötig. Klar gibt es auch verlötete DRAMs in Windows Laptops (was sich mit LPCAMM2 hoffentlich auch bald ändert), bei der SSD ist das aber eigentlich nie der Fall.
urpils
2023-12-27, 17:40:24
Apples Claim mit dem "Unified Memory" ist auch einfach nonsens. Wenn ich einen Windows Laptop ohne dGPU habe, was habe ich dann? Ach ja, Unified Memory.
Das Speicher Management von Windows hat sich auch weiterentwickelt und ich würde hier gegenüber Apple nicht wirklich einen grossen Nachteil sehen. Apps verbrauchen auf dem Mac auch nicht auf wundersame Weise weniger RAM und die meisten Windows Laptops haben mittlerweile auch eine NVMe SSD, was allfälliges Caching / Auslagern auf Mac wie Windows ähnlich schnell macht.
Zum Dynamic Caching:
Das soll die GPU-Utilization erhöhen und so wie ich das verstehe, sind da primär Register und Caches involviert und nicht DRAM.
also so stimmt das ja (meines Wissens nach) nicht. wenn du eine integrierte GPU hast, dann nutzen die "shared" memory. d.h. dass CPU und GPU auf eigene Speicherbereiche zugreifen.
die M-Prozessoren haben aber EINEN Speicherbereich für CPU und GPU gleichzeitig. das ist durchaus ein Unterschied.
Zossel
2023-12-27, 20:21:49
also so stimmt das ja (meines Wissens nach) nicht. wenn du eine integrierte GPU hast, dann nutzen die "shared" memory. d.h. dass CPU und GPU auf eigene Speicherbereiche zugreifen.
die M-Prozessoren haben aber EINEN Speicherbereich für CPU und GPU gleichzeitig. das ist durchaus ein Unterschied.
Lass dich nicht von der Apple Propaganda verwirren.
Und das funzt auch mit diskreten GPUs via PCIe:
https://coconucos.cs.uni-duesseldorf.de/lehre/home/lectures/bsusp/k13a1/
Noch etwas Spielerei dazu:
https://archive.fosdem.org/2020/schedule/event/fbdev/attachments/slides/3595/export/events/attachments/fbdev/slides/3595/fosdem_2020_nicolas_caramelli_linux_framebuffer.pdf
mocad_tom
2024-01-02, 18:13:42
https://www.golem.de/news/operation-triangulation-wie-ein-trojaner-simple-security-fehler-bei-apple-zeigt-2401-180736-2.html
Aus Security-Sicht schwerwiegender ist jedoch eine dauerhafte Entscheidung des Apple-Hardware-Teams, die sich wohl nur langfristig für künftige Geräte ändern lassen wird. Martin schreibt dazu: "Das Ganze hängt mit dem Problem zusammen, dass es aus Leistungsgründen keine IOMMU für die GPU gibt."
Wow, ist da eine Bombe geplatzt.
Das ist ja heftig.
Da wird auch klar, warum man in den Mac Pro Tower keine Grafikkarte reinpacken kann. Die können halt echt so heimgehen.
:facepalm:
davidzo
2024-01-02, 21:31:35
Was haben den dGPUs damit zutun?
Soweit ich weiß haben nvidia und AMD dGPUs auch keine iommu. Aber die nutzen ja auch nicht denselben Speicher und Adressraum wie die CPU, daher kann ein GPU Thread nicht in den Speicherbereich eines CPU Threads schreiben. Dass Speicherschutz bei GPUs aber eher stiefmütterlich behandelt wird, weil man da ja angeblich keine kritischen Daten drin liegen hat ist aber schon seit Ewigkeiten so, leider.
Wenn GPUs einfach nur accelerators sind bzw. Parallelprozessoren, dann find eich sollte man dort dieselben maßstäbe setzen wie an eine CPU und DRAM.
Das Hardware per Se sicherer ist würde eich aber mal bezweifeln, denn auch da gibt es Attackiervektoren wie spectre, meltdown, rowhammer etc. Firmware kann man dann immerhin patchen, hardware nicht.
Savay
2024-01-03, 01:01:44
Was haben den dGPUs damit zutun?
Soweit ich weiß haben nvidia und AMD dGPUs auch keine iommu.
Wird spätestens ab WDDM 2.x nicht die IOMMU der CPU dafür genutzt? :confused: (AMD-Vi etc.)
Und der RAM wird doch auch von der GPU mit benutzt und umgekehrt auf den VRAM direkt von der CPU zu gegriffen...reBAR ahoi...
Zossel
2024-01-03, 08:02:04
Was haben den dGPUs damit zutun?
Soweit ich weiß haben nvidia und AMD dGPUs auch keine iommu. Aber die nutzen ja auch nicht denselben Speicher und Adressraum wie die CPU, daher kann ein GPU Thread nicht in den Speicherbereich eines CPU Threads schreiben. Dass Speicherschutz bei GPUs aber eher stiefmütterlich behandelt wird, weil man da ja angeblich keine kritischen Daten drin liegen hat ist aber schon seit Ewigkeiten so, leider.
Wenn GPUs einfach nur accelerators sind bzw. Parallelprozessoren, dann find eich sollte man dort dieselben maßstäbe setzen wie an eine CPU und DRAM.
GPUs waren schon in Stalingrad Busmaster fähig.
Zossel
2024-02-28, 00:34:02
Das nächste verkackte KI-Projekt:
https://www.spiegel.de/wirtschaft/unternehmen/apple-gibt-offenbar-elektroauto-entwicklung-auf-a-0f2564a9-8099-4e85-81a1-4fddf07f020a
Eigentlich sollten ja schon seit 10 Jahren Auto ohne Biologie fahren.
=Floi=
2024-02-28, 01:27:02
Die können hald rechnen. Es ist weder einfach noch kostengünstig.
Zossel
2024-02-28, 12:21:35
Die können hald rechnen. Es ist weder einfach noch kostengünstig.
Telefone von Apple sind auch nicht kostengünstig.
woodsdog
2024-02-28, 12:26:11
Telefone von Apple sind auch nicht kostengünstig.
und Wasser ist nass.
Müssen sie halt einfach auch nicht sein wenn alle anderen nur die eigenen Rücklichter sehen. Trotz hoher Preise wächst der Marktanteil in westlichen Märkten immer mehr. Warum sollten die sich mit 150$ Androiden prügeln wollen v0v
mocad_tom
2024-03-22, 00:30:19
https://arstechnica.com/security/2024/03/hackers-can-extract-secret-encryption-keys-from-apples-mac-chips/
Unpatchable vulnerability in Apple chip leaks secret encryption keys
smalM
2024-04-12, 13:09:33
Neue Gerüchte zum M4. (https://www.macrumors.com/2024/04/11/m4-ai-chips-late-2024/)
Matrix316
2024-04-30, 14:52:41
Stellt euch vor ihr habt gerade ein M3 Macbook gekauft und dann kommen die neuen iPads und sind schneller. ;)
https://www.maclife.de/news/ipad-pro-m4-chip-indizien-deuten-groesseres-update-100123839.html
Zossel
2024-04-30, 14:57:37
Stellt euch vor ihr habt gerade ein M3 Macbook gekauft und dann kommen die neuen iPads und sind schneller. ;)
Stell dir vor es wird es wird nichts besseres mehr geben.
Dieser ganze Computerkram ist einfach verderbliche Ware die mit der Zeit zu Sondermüll wird, war schon immer so und wird auch noch eine ganze Zeit lang so bleiben.
Matrix316
2024-04-30, 16:02:36
Stell dir vor es wird es wird nichts besseres mehr geben.
Dieser ganze Computerkram ist einfach verderbliche Ware die mit der Zeit zu Sondermüll wird, war schon immer so und wird auch noch eine ganze Zeit lang so bleiben.
Falsche Antwort auf die richtige Frage. ;)
Was ich meine, sollte Apple nicht die neuen Chips in den besten Produkten zuerst releasen, damit sich die Käufer nicht veräppelt vorkommen?
woodsdog
2024-04-30, 16:42:49
wieso veräppelt?
M3s kannst du im Pro z.B. seit 2023 kaufen... selbst jetzt gekauft ist es doch völlig normal das Zitat "Ende des Jahres" ggf was neues draußen is.
Newsflash: wir haben noch April
"Das beste Produkt" ist doch total subjektiv... ich kenne Leute die nur mit IPads arbeiten... nur iPhones haben... mit irgendwas muss man ja anfangen.
Matrix316
2024-04-30, 17:12:07
wieso veräppelt?
M3s kannst du im Pro z.B. seit 2023 kaufen... selbst jetzt gekauft ist es doch völlig normal das Zitat "Ende des Jahres" ggf was neues draußen is.
Newsflash: wir haben noch April
"Das beste Produkt" ist doch total subjektiv... ich kenne Leute die nur mit IPads arbeiten... nur iPhones haben... mit irgendwas muss man ja anfangen.
Ich mein ja nur es ist irgendwie komisch, wenn du in den kleinsten Geräten eine schnellere CPU hast als in welchen die viel mehr kosten. Und die iPads sollten ja eigentlich unter den Macbooks stehen, oder? Mac Minis, Studios und Pros gibt es ja noch nicht mal mit M3. Und die neuen iPads werden ja eventuell nächste Woche schon vorgestellt.
woodsdog
2024-04-30, 17:55:26
die Ipad Pro's werden schon anders platziert, das sind mitnichten die "Kleinsten" und darüber hinaus ist das alles nur Spekulation von wiedergekäuter Spekulation.
v0v
Mortalvision
2024-04-30, 18:29:58
Die IpadPros sind in manchen Bereichen kleine Workstations. Das einzige, was ein IpadPro effektiv von einem iMacPro trennt, ist das Betriebssystem und ein paar Anschlussmöglichkeiten.
Daredevil
2024-05-01, 01:57:00
Falsche Antwort auf die richtige Frage. ;)
Was ich meine, sollte Apple nicht die neuen Chips in den besten Produkten zuerst releasen, damit sich die Käufer nicht veräppelt vorkommen?
Die Neural Engine im A17pro ist auch deutlich schneller als im M3, und nun? Verschiedene Produkte haben verschiedene Anforderungen und ein MacBook mit einem iPad zu vergleichen ist natürlich auch Quatsch.
Mac Nutzer wechseln nicht auf ein iPad, selbst wenn dort ein M8 drin wäre.
Man kauft hauptsächlich nämlich die Produkte nach den eigenen Anforderungen und Problemlösungen und nicht aufgrund der blanken Specs. Klingt zwar doof im 3DCenter, ist aber halt so.
Matrix316
2024-05-05, 19:26:09
Die Neural Engine im A17pro ist auch deutlich schneller als im M3, und nun? Verschiedene Produkte haben verschiedene Anforderungen und ein MacBook mit einem iPad zu vergleichen ist natürlich auch Quatsch.
Mac Nutzer wechseln nicht auf ein iPad, selbst wenn dort ein M8 drin wäre.
Man kauft hauptsächlich nämlich die Produkte nach den eigenen Anforderungen und Problemlösungen und nicht aufgrund der blanken Specs. Klingt zwar doof im 3DCenter, ist aber halt so.
Ja aber sollten nicht Geräte die mehr können auch stärkere Prozessoren bekommen?
w0mbat
2024-05-05, 19:32:09
Die Neural Engine im A17pro ist auch deutlich schneller als im M3 [...]
Bist du dir da so sicher? Ich denke, die NPU im M3 ist sogar schneller, nur nimmt Apple andere INT/FP Werte für die TOPS/FLOPS Angaben. Warum auch immer.
Matrix316
2024-05-07, 16:47:17
Tatsächlich neue iPad Pros mit dem M4 Chip. Die Preise sind natürlich jenseits von Gut und Böse. 1550 Euro für die 13 Zoll Version! https://www.mactechnews.de/news/article/Apple-praesentiert-das-iPad-Pro-2024-Neuartiges-Display-M4-und-mehr-184803.html Ohne Keyboard... ich weiß ja net....
w0mbat
2024-05-07, 16:53:38
Naja, ein 13'' tandem-OLED display mit 1600nits, der neue M4 (ab 1TB Modell mit 16GB RAM) ist quasi das beste "Laptop" das es aktuell gibt. Nur dünner und leichter.
Matrix316
2024-05-07, 17:22:58
Naja, ein 13'' tandem-OLED display mit 1600nits, der neue M4 (ab 1TB Modell mit 16GB RAM) ist quasi das beste "Laptop" das es aktuell gibt. Nur dünner und leichter.
Und ohne Tastatur und ohne gescheitem Betriebsystem. ;)
Würden die wenigstens macOS draufmachen. Aber so ist ein Macbook immer überlegen was einfach die Produktivität angeht.
Es sei denn du bist einer der wenigen die mit dem Stift malen. Ja gut. Aber sonst?
Ich meine so als Couch Unterhaltungsgerät sind die ja nicht schlecht. Aber echt mit arbeiten? :uponder:
Finch
2024-05-07, 18:42:56
Und ohne Tastatur und ohne gescheitem Betriebsystem. ;)
Würden die wenigstens macOS draufmachen. Aber so ist ein Macbook immer überlegen was einfach die Produktivität angeht.
Es sei denn du bist einer der wenigen die mit dem Stift malen. Ja gut. Aber sonst?
Ich meine so als Couch Unterhaltungsgerät sind die ja nicht schlecht. Aber echt mit arbeiten? :uponder:
Jau. Ich bin in Audit immer auf dem Weg von einer Abteilung zur nächsten. So ein iPad ist da ideal. Für mich ist das helle OLED und die verbesserte Effizienz des M4 (allegedly) interessant.
Daredevil
2024-05-07, 19:17:36
Bist du dir da so sicher? Ich denke, die NPU im M3 ist sogar schneller, nur nimmt Apple andere INT/FP Werte für die TOPS/FLOPS Angaben. Warum auch immer.
Der M3 hat 18 TOPS, der A17pro 35 TOPS. Der M4 hat nun 38TOPS, also offenbar die Neural Engine des A17Pro mit leichtem plus durch Fertigung und co?!
Sind die TOPS überhaupt vergleichbar mit z.B. Intel/AMD und co? Oder unterscheiden die sich auch zwischen A und M SoCs? Ich weiß es nicht.
davidzo
2024-05-07, 19:58:05
Der M3 hat 18 TOPS, der A17pro 35 TOPS. Der M4 hat nun 38TOPS, also offenbar die Neural Engine des A17Pro mit leichtem plus durch Fertigung und co?!
Sind die TOPS überhaupt vergleichbar mit z.B. Intel/AMD und co? Oder unterscheiden die sich auch zwischen A und M SoCs? Ich weiß es nicht.
Die Mac SOCs haben fettere GPUs die man auch für AI nutzen kann, die brauchen keine so fette NPU. Siehe AMD mit 77 Tops auf Strix point (45 von der die NPU, Rest GPU+CPU). Ab einer Leistungsfähigkeit von "good enough" welche durch die M-SOCs CPU-und GPU-seitig durchaus erreicht wird limitiert auch eher die Speicherbandbreite bzw. bei nvidia Consumer GPUs die Speichermenge für noch größere AI workloads.
Apple gibt die NPU Leistung eigentlich immer in FP16 Genauigkeit an, egal ob iOS oder MacOS.
Intel/AMD/Nvidia/Microsoft zählen allerdings in Int8. Die Werte sind also nicht vergleichbar, bzw. könnten in 8bit präzision bei Apple vielleicht sogar doppelt so hoch sein sofern die das unterstützen.
robbitop
2024-05-07, 21:14:29
Die CPU Cores scheinen endlich einen Sprung nach vorn gemacht zu haben. Und innerhalb weniger Monate von N3B auf N3E.
Schon beeindruckend was Apple da aus seiner SoC Sparte drückt.
Was sich Qualcomm mit ihrem Oryon Core wohl gerade denkt? Vor kurzem haben sie sich noch mit dem M2 verglichen, waren knapp vorn. Dann kam der M3 den man nur mit der Brechstange begegnen konnte und ein paar Monate später dann M4 mit einem anscheinend ordentlichen Sprung an Performace und Effizienz.
mboeller
2024-05-08, 07:00:35
Was sich Qualcomm mit ihrem Oryon Core wohl gerade denkt? Vor kurzem haben sie sich noch mit dem M2 verglichen, waren knapp vorn. Dann kam der M3 den man nur mit der Brechstange begegnen konnte und ein paar Monate später dann M4 mit einem anscheinend ordentlichen Sprung an Performace und Effizienz.
yep, und dann kommt Kepler und sagt so was für mich unverständliches:
https://twitter.com/Kepler_L2/status/1787959708156129512
It's been 4 years since Firestorm and they haven't managed to increase IPC by even 5%.
They are about to get lapped hard by Intel/AMD.
Klar, IPC ist nicht Effizienz, aber trotzdem ...
DozerDave
2024-05-08, 07:10:10
Performance ist nicht alles. Die haben den Vorteil des eigenen Ökosystems. Kein bloatware-Windows.
Was nützt die schnellste CPU wenn die behäbige Software wieder alles zunichte macht?
Beim Event stellen Sie den M4 als 10 Core CPU mit 4 Performance Kernen vor, während auf der Website beim iPad Pro steht, das es eine 9 Core CPU mit 3 Performance Kernen sei. Fehler oder haben die einen Kern abgeschaltet?
dildo4u
2024-05-08, 07:41:11
Beim Event stellen Sie den M4 als 10 Core CPU mit 4 Performance Kernen vor, während auf der Website steht, das es eine 9 Core CPU mit 3 Performance Kernen sei. Fehler oder haben die einen Kern abgeschaltet?
Es gibt verschiedene Versionen je nachdem wie viel Speicher man kauft 10 Cores ab 1TB.
Ein näherer Blick auf die technischen Daten des iPad Pro enthüllt aber auch eine Reihe von Einschränkungen. Allen voran sind die Modelle mit 256 GB und 512 GB Speicher mit einer langsameren Version des Chips ausgestattet, die nur drei statt vier Performance-Kerne besitzt, wodurch die CPU-Performance sogar langsamer als jene des Apple M3 ausfallen könnte. Wer den schnellsten Apple M4 haben möchte, muss daher mindestens 1.929 Euro für das 11 Zoll iPad Pro mit 1 TB Speicher ausgeben.
https://www.notebookcheck.com/Apple-M4-startet-mit-mehr-Kernen-und-wesentlich-schnellerer-GPU-aber-auch-Einschraenkungen.834964.0.html
robbitop
2024-05-08, 07:47:02
yep, und dann kommt Kepler und sagt so was für mich unverständliches:
https://twitter.com/Kepler_L2/status/1787959708156129512
Klar, IPC ist nicht Effizienz, aber trotzdem ...
Hm ich hab mir mal Geekbench Single Core und Cinebench R23 Single Core results angeschaut. Fast alles vom Fortschritt kam vom gestiegenen Takt. Der Core M3 hat in Geekbench gerade mal 5% höhere IPC. In Cinebench sind es nur 3,2%.
Resultate für M4 gibt es noch nicht.
Jetzt muss man wirklich mal schauen was mit M4 ist.
Ggf. hat es ja doch was damit auf sich, dass da ein paar core Leute vom CPU Team weg von Apple sind. Apple kann anscheinend dank allerbestem Fertigungsprozess und exzellenten SoC und Implementierungsleuten ordentlich was bei der Effizienz und beim Takt rausholen. Aber wenn M4 wieder nicht wesentlich stärker pro Takt geworden ist als M2 wäre das schon irgendwie ein Zeichen.
Ich vermute ein guter Teil des Performance Gewinns hängt auch mit der beim Event erwähnten verbesserten Kühlung durch höherem Kupferanteil im Gehäuse(?) - wenn mich meine Erinnerung nicht trügt - und dem schnelleren LPDDR5 Speicher zusammen. Beides sind ja die Flaschenhälse bei Solchen Chips.
Erstaunlich, das sie jetzt beim Chip einen CPU Kern beschneiden. Beim M1,2 und 3 waren es immer Grafikkerne.
Daredevil
2024-05-08, 08:57:24
Selbst wenn das neueste iPad nur einen M1 hätte, wäre es immer noch anderen Tablets hauchhoch überlegen. Ich bin ja auch ein Tech Nerd und mag Performance Zahlen, am Ende entscheidet aber für die meisten das, was man in der Hand hält und was man damit machen kann und nicht das, was im Gehäuse steckt. Deswegen finde ich den Vergleich zu Qualcomm auch sicherlich auf den SoC fokussiert klar richtig, aber ohne ein bezahlbares Produkt mit vergleichbarer Peripherie ist es halt nichts, was Leute kaufen. Klar muss das Marketing diese Vergleiche anstellen, dann ist die Fallhöhe aber nun einmal auch tiefer, wenn es nicht liefern kann.
Als Vergleich kann man vielleicht Intel und AMD nehmen. AMD ist technologisch klar meilenweit vor Intel und die Notebook SoCs und dGPUS die AMD jedes Jahr präsentiert sind fantastisch. Intel verkauft am Ende aber immer noch Millionen mehr Notebooks, weil AMD das grandiose Produkt irgendwie nicht in die Marktdurchdringung bekommt und den "Intel Schrott" absägen kann.
Genau so hat AMD ja auch embeddet Hardware die super in Tablets arbeiten könnte, effizient ist der Spaß ja. Aber es gibt einfach nichts zu kaufen und/oder das drumherum ist zu sehr auf P/L getrimmt. AMD sollte die Chips der nächsten Ultrabook Generation bauen und nicht Qualcomm. :usad:
Allerdings muss man Apple auch ankreiden, das sie ziemlich schlecht darin geworden sind eine Geschichte um das Produkt zu bauen. Ich hatte vom ersten 11" iPad Pro jedes iPad und klar wurde drumherum alles immer mal hübscher, am Ende ist es aber nur ein iPad und man macht genau das gleiche damit, wie beim Jahr zuvor, zumindest ich. Sicherlich gibt es die iPad Ultras die das als 2TB Main System nutzen, dazu gehöre ich aber nicht. Ob mein iPad nun nen A12Z hat oder nen M2 macht für mich fast keinen Unterschied, da "eh alles läuft" und die Möglichkeit leider künstlich beschrankt wird durch die Software. Selbst mit einem M2 bekomme ich manche Apple Arcade Games nicht auf 60fps, weil die Apps locked auf 30fps sind und das fasse ich auch Prinzip nicht an. Mal davon abgesehen, das vieles sicherlich mit 120fps laufen würde.
Die Leistungsfähigkeit der Hardware überholt den Mehrwert durch Anwendungsszenarien, was sicherlich eine sehr komfortable Situation für Apple ist, ich würde mir aber mal wünschen, mehr zu sehen. Andersrum läuft ja die iPad Sparte monetär besser als die Mac Sparte, also bin ich vielleicht auch einfach die Minderheit mit meinem "old Fashion" Mac. :D
Matrix316
2024-05-08, 10:20:10
In einem Podcast hat einer gemutmaßt, dass man vielleicht jetzt die SoCs für die Geräte optimiert, weil angeblich würde das mit dem OLED Panel nur gehen, weil man den M4 hat oder so ähnlich? Da frage ich mich, was die Display Form mit dem Prozessor oder der Grafikeinheit zu tun hat? Mal abgesehen von der Auflösung? Braucht man für höhere Helligkeiten mehr Leistung? Oder andere Spezialchips? :uponder: Aber vielleicht bekommen die iPads die geraden M Chips und die Computer dann die ungeraden. :D
Selbst wenn das neueste iPad nur einen M1 hätte, wäre es immer noch anderen Tablets hauchhoch überlegen. Ich bin ja auch ein Tech Nerd und mag Performance Zahlen, am Ende entscheidet aber für die meisten das, was man in der Hand hält und was man damit machen kann und nicht das, was im Gehäuse steckt. Deswegen finde ich den Vergleich zu Qualcomm auch sicherlich auf den SoC fokussiert klar richtig, aber ohne ein bezahlbares Produkt mit vergleichbarer Peripherie ist es halt nichts, was Leute kaufen. Klar muss das Marketing diese Vergleiche anstellen, dann ist die Fallhöhe aber nun einmal auch tiefer, wenn es nicht liefern kann.
Als Vergleich kann man vielleicht Intel und AMD nehmen. AMD ist technologisch klar meilenweit vor Intel und die Notebook SoCs und dGPUS die AMD jedes Jahr präsentiert sind fantastisch. Intel verkauft am Ende aber immer noch Millionen mehr Notebooks, weil AMD das grandiose Produkt irgendwie nicht in die Marktdurchdringung bekommt und den "Intel Schrott" absägen kann.
Genau so hat AMD ja auch embeddet Hardware die super in Tablets arbeiten könnte, effizient ist der Spaß ja. Aber es gibt einfach nichts zu kaufen und/oder das drumherum ist zu sehr auf P/L getrimmt. AMD sollte die Chips der nächsten Ultrabook Generation bauen und nicht Qualcomm. :usad:
Allerdings muss man Apple auch ankreiden, das sie ziemlich schlecht darin geworden sind eine Geschichte um das Produkt zu bauen. Ich hatte vom ersten 11" iPad Pro jedes iPad und klar wurde drumherum alles immer mal hübscher, am Ende ist es aber nur ein iPad und man macht genau das gleiche damit, wie beim Jahr zuvor, zumindest ich. Sicherlich gibt es die iPad Ultras die das als 2TB Main System nutzen, dazu gehöre ich aber nicht. Ob mein iPad nun nen A12Z hat oder nen M2 macht für mich fast keinen Unterschied, da "eh alles läuft" und die Möglichkeit leider künstlich beschrankt wird durch die Software. Selbst mit einem M2 bekomme ich manche Apple Arcade Games nicht auf 60fps, weil die Apps locked auf 30fps sind und das fasse ich auch Prinzip nicht an. Mal davon abgesehen, das vieles sicherlich mit 120fps laufen würde.
Die Leistungsfähigkeit der Hardware überholt den Mehrwert durch Anwendungsszenarien, was sicherlich eine sehr komfortable Situation für Apple ist, ich würde mir aber mal wünschen, mehr zu sehen. Andersrum läuft ja die iPad Sparte monetär besser als die Mac Sparte, also bin ich vielleicht auch einfach die Minderheit mit meinem "old Fashion" Mac. :D
Das ist ein gute Punkt. Es ist immer noch ein iPad. Ich hab ein Air 2020 mit dem A14 und wüsste nicht, was ein M2 oder M4 oder M20 an der Benutzung ändern würde. Zwei Audioquellen gleichzeitig geht noch nicht, oder? Dateimanagement ist immer noch grauselig. Anschlüsse sind Mangelware. Apps sind immer noch meistens abgespeckt. Multitasking und so ist eingeschränkt.
Ich könnte ein iPad nur als Main System nutzen, wenn es auch ein echtes Desktop Betriebsystem hat. MacOS ist zwar auch nicht perfekt, aber kann immer noch mehr als iPad OS.
robbitop
2024-05-08, 10:24:52
In einem Podcast hat einer gemutmaßt, dass man vielleicht jetzt die SoCs für die Geräte optimiert, weil angeblich würde das mit dem OLED Panel nur gehen, weil man den M4 hat oder so ähnlich? Da frage ich mich, was die Display Form mit dem Prozessor oder der Grafikeinheit zu tun hat? Mal abgesehen von der Auflösung? Braucht man für höhere Helligkeiten mehr Leistung? Oder andere Spezialchips? :uponder: Aber vielleicht bekommen die iPads die geraden M Chips und die Computer dann die ungeraden. :D
Nach meinem Verständnis braucht es den IP block weil:
1. sind es zwei Panels die so angesteuert werden müssen dass sie synchron sinnvoll im Tandem wie ein einziges funktionieren.
2. Da OLED sehr anfällig für Helligkeits/Gammaverfälschungen bei unterschiedlich langer Haltezeit ist und man VRR zum Energiesparen nutzen will und der Enduser die Erwartungen hat, dass unabhängig von der Refreshrate (die dann sehr dynamisch springen kann) die gleiche Helligkeit/Gamma vorherrscht und da nichts flackert muss das bei der Ansteuerung kompensiert werden.
------------------------------
IP6x / Wasserresistenz wäre mal eine schöne Neuerung. Ich habe letztes Jahr mein 2017er iPad Pro beim Baden gekillt. Mit einem iPhone seit vielen Jahren kein Problem. ^^
Serien im Wasser schauen ist was Nettes. Traue ich mir jetzt erstmal nicht mehr.
Sehr schade, dass das iPad gestorben ist weil gefühlt immer noch alles flüssig und fix lief, was ich damit gemacht hab. Nur der Akku war schon ziemlich unten aufgrund des Alters.
Matrix316
2024-05-08, 11:19:20
In meinem iPad Air 2020 ist der Akku auch ziemlich schlecht. Das Ding liegt eine Woche rum und ist leer, obwohl ich nix mit gemacht habe. Beim iPad Air 1 war das noch nicht so schlimm damals...
davidzo
2024-05-08, 11:39:56
Die CPU Cores scheinen endlich einen Sprung nach vorn gemacht zu haben. Und innerhalb weniger Monate von N3B auf N3E.
Schon beeindruckend was Apple da aus seiner SoC Sparte drückt.
Gibt es schon unabhängige Tests?
Ich sehe nur ernüchternde Resultate. 12% mehr Leistung im Geekbench vs M3 bei +20% Cores (+2 E-Cores) klingt nicht nach Architektonischen Verbesserungen.
Der M4 scheint lediglich der M3 done right zu sein, ein Mid-gen refresh mit der besseren NPU vom A17pro als einzige Verbesserung. N3E rudert ja eh bei Density etwas zurpck zugunsten gerigerer Kosten und besserem Yield. Zudem verringert Apple die Maximaltaktraten, ein deutlicher Beweis dafür dass man sich mit dem M3 in N3 etwas zu viel vorgenommen hatte.
Die M2*** Serie war genau so. Einfach mehr Cores und etwas mehr Takt aber die gleiche Grundarchitektur ja sogar Speichercontroller wie der M1. Damals ging auch der Verbrauch in die Höhe im Vergleich zu den M1, Pro, Max versionen Geräten. Der wird mit dem M4 jetzt hoffentlich wieder zurück gehen, denn der M3max hat das auf eine unrühmliche Spitze getrieben. Wer mal M1max und den M3max beide auf Vollast getrieben hat weiß was ich meine - die M3version hat zwar die gleiche Kühlung ist aber doppelt so laut.
Ich finde das einfach frech was die Techpresse so schreibt ohne das überhaupt selbst nachgeprüft zu haben:
Macwelt: Apple M4 Chip: (R)evolution in der Prozessoreffizienz
Apple hat wieder einmal die Grenzen der Prozessorleistung verschoben.
Selbst Golem stellt Behauptungen auf die man nicht selber untermauern kann:
Der Mittelfinger für loyale Macbook-Kunden
So schnell ist das Macbook mit der neuesten CPU schon überholt.
Immerhin beruhigt mich das dass sich an der Kernarchitektur nichts getan zu haben scheint, denn ich plane gerade die Anschaffung eines M3pro oder M3max Macbooks. Und wenn der M4 nichts neues ist sondern einfach nur zwei E-Cores mehr und ein billigerer Prozess, dann fühlt sich das an wie zwischen einer 12 und 16Kern Version innerhalb des M3 zu entscheiden.
Die M3s waren leider auch nur stagnation in allem anderen als Cinebench und Geekbench: https://www.mrdbourke.com/apple-m3-machine-learning-test/
RT reißt es für mich aber gerade so eben raus. Bisher lief meine CAD Software am besten auf x86, aber seit nem halben Jahr gibt es ne gute ARM-Version. Demnächst kommt wohl auch RT support für den Renderer, deswegen muss es leider M3 sein bei mir. Sonst spricht mich der M1max eigentlich viel mehr an. Der ist bei der MT Leistung und Energieeffizienz kaum schlechter als ein M3pro und hat mehr RAM und Bandbreite in Reserve und die Singlecoreleistung reicht mir auch.
Mit den neuen angekündigten 1-Jahres Updates für Macbooks verfolgt Apple anscheinend das alte W-intel PC-Release-Modell. Ein größeren Beweis dass die Zeit der großen Sprünge vorbei ist und jetzt nur noch kleinere Verbesserungen kommen kann es nicht geben.
fondness
2024-05-08, 22:22:54
Mutige Ansage des bekannten leakers Kepler_L2:
Hot take: Apple switching to ARM was the worst mistake they have done recently.
It's been 4 years since Firestorm and they haven't managed to increase IPC by even 5%.
They are about to get lapped hard by Intel/AMD.
https://twitter.com/Kepler_L2/status/1787959708156129512?t=Po3-we26daxDw0dENmWTUA&s=19
Daredevil
2024-05-09, 01:05:40
Die ersten Geekbench scores zeigen einen 22% höheren SC Score und 25% im Multi als im M3. What the hell. :o
3810 SC Punkte, Intels 14900KF kommt auf 3300 Punkte.
https://browser.geekbench.com/v6/cpu/6016039
GPU scheint auch solide zu sein, Vergleich Geekbench laut Max tech.
M4: 5,379 per core
M3: 4,724 per core
M2: 4,573 per core
M1: 4,026 per core
Wenn da ein Ultra oder mehr raus kommt, wird das ne Beerdigung für X86. ;D
Mein M1 Max wird nun CPU seitig von einem 5mm dicken Tablet geschlagen, alles klar. :usad:
dildo4u
2024-05-09, 03:53:45
Ich würde solche Sprünge von Zen 5 erwarten die Frage ist eher ob AMD genug
Liefern kann wenn sie Intel überall ersetzen müssen.
robbitop
2024-05-09, 06:43:12
Ui 4,4 GHz mittlerweile. Wären dann aber immernoch >10% IPC Uplift wenn die 22% ggü M3 stimmen im SC.
fondness
2024-05-09, 08:38:21
Die ersten Geekbench scores zeigen einen 22% höheren SC Score und 25% im Multi als im M3. What the hell. :o
3810 SC Punkte, Intels 14900KF kommt auf 3300 Punkte.
https://browser.geekbench.com/v6/cpu/6016039
GPU scheint auch solide zu sein, Vergleich Geekbench laut Max tech.
M4: 5,379 per core
M3: 4,724 per core
M2: 4,573 per core
M1: 4,026 per core
Wenn da ein Ultra oder mehr raus kommt, wird das ne Beerdigung für X86. ;D
Mein M1 Max wird nun CPU seitig von einem 5mm dicken Tablet geschlagen, alles klar. :usad:
LOL, die scores sind natürlich nicht vergleichbar, Geekbench ist der Haus und Hof benchmark von Apple. Aber das ist ja bekannt, apple fanboys ignorieren diesen Fakt halt gerne :-).
robbitop
2024-05-09, 09:06:33
Das mit dem Glashaus.
fondness
2024-05-09, 09:09:31
Das mit dem Glashaus.
Hast du auch ein Argument oder wie üblich nur die persönliche schiene? :-)
robbitop
2024-05-09, 09:13:37
Hast du auch ein Argument oder wie üblich nur die persönliche schiene? :-)
Du beschimpfst gerade andere als Apple Fans. Dann brauchst du dich nicht zu beschweren, dass der Glashausspruch kommt. Gerade der größte AMD Fanboy bezeichnet andere als Fans.
Ursache -> Wirkung.
fondness
2024-05-09, 09:18:31
Du beschimpfst gerade andere als Apple Fans. Dann brauchst du dich nicht zu beschweren, dass der Glashausspruch kommt. Gerade der größte AMD Fanboy bezeichnet andere als Fans.
Ursache -> Wirkung.
Ja, weil seit Jahren bekannte Fakten ignoriert werden bzgl. geekbench. Argument -> Schlussfolgerung. Du hingegen bist mangels Argumenten einfach nur am "beschimpfen" meiner Person interessiert -> getroffene Hunde bellen :-).
Zudem: "beschimpftst" ein bisschen sehr melodramatisch für jemanden der selbst nur so mit Fanboy Vorwürfen um sich wirft. :-)
robbitop
2024-05-09, 09:54:04
Ja, weil seit Jahren bekannte Fakten ignoriert werden bzgl. geekbench. Argument -> Schlussfolgerung. Du hingegen bist mangels Argumenten einfach nur am "beschimpfen" meiner Person interessiert -> getroffene Hunde bellen :-).
Zudem: "beschimpftst" ein bisschen sehr melodramatisch für jemanden der selbst nur so mit Fanboy Vorwürfen um sich wirft. :-)
Aha und wo ist in dem Post da unten das Argument? Du agitierst und bezeichnest andere als Fanboys. Mehr ist da nicht sichtbar. Dann brauchst du dich nicht über einen Glashaus Post zu wundern.
Aber klar es sind immer die anderen. ;)
LOL, die scores sind natürlich nicht vergleichbar, Geekbench ist der Haus und Hof benchmark von Apple. Aber das ist ja bekannt, apple fanboys ignorieren diesen Fakt halt gerne :-).
urpils
2024-05-09, 10:04:44
könnten wir dieses gegenseitige Rumdiskutieren einfach wie Erwachsene sein lassen und uns mit dem beschäftigen, worüber mach sich austauschen kann?
bisher gibt's zum M4 ja noch nicht viel. Werbeaussagen der Keynote und wohl erste Geekbench-Scores, die zumindest eine relative Einordnung innerhalb des GB ermöglichen.
Lass uns doch bitte dabei bleiben und alle Fanboydiskussionen in einen anderen Thread auslagern :)
fondness
2024-05-09, 10:12:54
Aha und wo ist in dem Post da unten das Argument? Du agitierst und bezeichnest andere als Fanboys. Mehr ist da nicht sichtbar. Dann brauchst du dich nicht über einen Glashaus Post zu wundern.
Aber klar es sind immer die anderen. ;)
Du bist fähig den ersten Satz zu lesen? :-)
LOL, die scores sind natürlich nicht vergleichbar, Geekbench ist der Haus und Hof benchmark von Apple.
Aber ja urpils hat natürlich Recht, diese Diskussion ist völlig sinnlos, deshalb war das auch der letzte Beitrag von mir zu diesem Thema.
Daredevil
2024-05-09, 10:16:45
LOL, die scores sind natürlich nicht vergleichbar, Geekbench ist der Haus und Hof benchmark von Apple. Aber das ist ja bekannt, apple fanboys ignorieren diesen Fakt halt gerne :-).
Einfach mal das 800g schwere 120w Netzteil der AMD und Intel Notebooks entfernen, dann stimmt der Abstand zu einem <500g Tablet. ;)
Zur SC Leistung des M3Max im verlgleich zum aktuelleren Intel gabs ja schon sehr aufschlussreiche Worte von Computerbase.
„ Der Verbrauch sucht seinesgleichen
Der Cinebench R23 dient auch für einen Effizienzvergleich unter den Apple-Chips und vor allem zu Intels Raptor-Lake-H-Generation. Ist nur ein P-Kern aktiv, dümpelt der M3 Max ähnlich wie der M2 Max bei rund 5 Watt vor sich hin, während zum Beispiel ein Intel Core i9-13950HX beim achtfachen Verbrauch für lediglich 10 Prozent Mehrleistung liegt.“
Stell dir jetzt mal 10-20% mehr Leistung vor und 30-40 Kerne in einem Ultra Modell, manche sprechen ja mittlerweile auch von einem „Extreme Modell“, welches 2 Ultra beherbergt. Ziemlich Juicy und natürlich nur wunschdenken. Natürlich ist das keine Beerdigung, wir reden ja immer noch über 5000€+ Macs mit MacOS. Das war Spaß herrgott.
Die bessere Technik resultiert ja nicht gleich automatisch in Verkaufszahlen, sonst würde deine Lieblingsfirma eigentlich den Windows Markt dominieren. :)
fondness
2024-05-09, 10:20:03
Einfach mal das 800g schwere 120w Netzteil der AMD und Intel Notebooks entfernen, dann stimmt der Abstand. ;)
Das bestreite ich auch nicht, dass ist aber ein völlig anderes Argument als die Beerdigung von x86 anhand von geekbench auszurufen :-). Zumal das wohl sehr viel mehr auf Intel als auf AMD zutrifft und AMD je nach TDP Bereich sehr gut mithalten kann.
fondness
2024-05-09, 10:22:33
Zur SC Leistung des M3Max im verlgleich zum aktuelleren Intel gabs ja schon sehr aufschlussreiche Worte von Computerbase.
„ Der Verbrauch sucht seinesgleichen
Der Cinebench R23 dient auch für einen Effizienzvergleich unter den Apple-Chips und vor allem zu Intels Raptor-Lake-H-Generation. Ist nur ein P-Kern aktiv, dümpelt der M3 Max ähnlich wie der M2 Max bei rund 5 Watt vor sich hin, während zum Beispiel ein Intel Core i9-13950HX beim achtfachen Verbrauch für lediglich 10 Prozent Mehrleistung liegt.“
Richtig, hier fehlt aber (warum auch immer) völlig der Vergleich zu AMD, die Intel genauso vernichten :-). Das mit Intel ist natürlich schon lange bekannt, mal sehen wann die das endlich in den Griff bekommen.
dildo4u
2024-05-09, 10:25:32
Einfach mal das 800g schwere 120w Netzteil der AMD und Intel Notebooks entfernen, dann stimmt der Abstand zu einem <500g Tablet. ;)
Zur SC Leistung des M3Max im verlgleich zum aktuelleren Intel gabs ja schon sehr aufschlussreiche Worte von Computerbase.
„ Der Verbrauch sucht seinesgleichen
Der Cinebench R23 dient auch für einen Effizienzvergleich unter den Apple-Chips und vor allem zu Intels Raptor-Lake-H-Generation. Ist nur ein P-Kern aktiv, dümpelt der M3 Max ähnlich wie der M2 Max bei rund 5 Watt vor sich hin, während zum Beispiel ein Intel Core i9-13950HX beim achtfachen Verbrauch für lediglich 10 Prozent Mehrleistung liegt.“
7840HS sieht ok aus vs M2 Max beide sollten um 35 Watt liegen.
https://i.ibb.co/ypGRzVW/Screenshot-2024-05-09-102256.png (https://ibb.co/xYPsn3J)
https://youtu.be/FwUoLbMhiWk?si=Wnuj5ZNf_IimlqPV
Matrix316
2024-05-09, 12:16:32
Für Mobile sind die M Chips ja auch ganz gut, aber im Desktop Bereich wäre ein Threadripper z.B. für einen Mac Pro deutlich deutlich besser. Nicht so effizient, aber darum geht es ja auch nicht, wenn man 6000+ für einen Rechenknecht ausgibt. Aber gegen 96 Kerne hätte auch ein M4 Mega Ultra Probleme.
w0mbat
2024-05-09, 12:49:18
M4 scheint auf ARMv9 zu basieren.
Monkey
2024-05-09, 12:53:14
M4 scheint auf ARMv9 zu basieren.
Macht das nenn Unterschied? Hab hier gerade ein m3 max MBP und der Unterschied zum M1 Max ist bei Foto/Videobearbeitung gefühlt nicht existent.
urpils
2024-05-09, 13:32:51
M4 scheint auf ARMv9 zu basieren.
Quelle?
Daredevil
2024-05-09, 13:52:17
Für Mobile sind die M Chips ja auch ganz gut, aber im Desktop Bereich wäre ein Threadripper z.B. für einen Mac Pro deutlich deutlich besser. Nicht so effizient, aber darum geht es ja auch nicht, wenn man 6000+ für einen Rechenknecht ausgibt. Aber Gegen 96 Kerne hätte auch ein M4 Mega Ultra Probleme.
Jaaaa ihr habts ja recht. :D
Der spekulative Hot Take ist ja schon seit dem M1, das der MacPro quasi keinen eigenen Prozessor hat. Das wäre demnach natürlich einer, der sich, wenn überhaupt, damit messen lassen müsste, nur der existiert nicht und niemand weiß, ob dies überhaupt mal der Fall sein wird. Also Apple Silicon mit 300w+, weil dessen Kühlleistung ja easy abtransportiert werden konnte, wie früher auch beim Xeon. Vor und Nachteil ist natürlich Unified Memory, was verschiedenste Dinge unheimlich beschleunigt, aber andernfalls die Flexibilität einschränkt. Wie wohl eine reine "CPU" aussehen würde mit dem aktuellen Technologiestand?
@Monkey
Wird die Kiste nicht ausgelastet, oder wo ist der Flaschenhals bei deinem Workload?
Apple behauptet ja, das rendern ist beim M4 doppelt so schnell als beim M2.
Bin gespannt, ob die an der Media Engine gedreht haben, die war bislang ja jetzt Immer die selbe.
Computerbase hat das Thema nun auch aufgegriffen und gibt Vergleiche an zwischen verschiedenen Systemen.
Meinetwegen kann jeder den Score im Vergleich zu Intel und AMD ausblenden, mir reicht die Einordnung gegenüber dem M2/M3 und der Qualcomms Kiste.
https://www.computerbase.de/2024-05/geekbench-apple-m4-hat-die-mit-abstand-hoechste-single-core-leistung/
https://s20.directupload.net/images/240509/ci5j86bl.png
Monkey
2024-05-09, 19:31:52
@Monkey
Wird die Kiste nicht ausgelastet, oder wo ist der Flaschenhals bei deinem Workload?
[/URL]
Der Flaschenhals ist meiner Meinung nach folgender: Die Performance bei Videoverarbeitung kommt schlicht von den Media Engines, GPU ist quasi irrelevant schneller und das endet dann damit das zb eine Timeline 5k Red raw auf dem m3 max mit 11fps läuft während sie auf dem M1 max mit 9fps läuft. Beides ruckelt wie Sau :)
Bei Photoshop merke ich wirklich überhaupt keinen Unterschied, da würde ich sogar behaupten das mein alter ryzen Laptop schneller war - aber auch wesentlich schneller leer und ätzend laut.
Daredevil
2024-05-09, 19:50:45
Wie wohl eine reine "CPU" aussehen würde mit dem aktuellen Technologiestand?
Passend dazu hat Mark Gurman gerade folgendes gepostet bei X:
https://www.bloomberg.com/news/articles/2024-05-09/apple-to-power-ios-18-ai-features-with-in-house-server-mac-chips-this-year
NEW: Apple will deliver some of its upcoming artificial intelligence features this year via data centers equipped with its own in-house processors, part of a sweeping effort to infuse its devices with AI capabilities.
Da simma ja mal gespannt, ob sowas auch im MacPro Einzug findet für AI Workloads. Ai Ai Ai. :freak:
@Monkey
Für meinen Workload kann ich das nachvollziehen, ich schneide und bearbeite allerdings auch nur 4K60 HEVC. Die Media Engine ist so schnell ( oder langsam, wie man es sehen möchte ), das sie ja im M1 Pro das gleiche macht wie im M3 Max.
Einen großen Unterschied würde ich nur bei einem Ultra sehen, weil dort eben zwei Media Engines verbaut sind, die demnach beides auch schneller machen.
Erst wenn Filter/Effekte und Sound Klimbims hinzugefügt werden, wird die CPU bzw. GPU deutlich mehr ausgelastet, der Verbrauch steigt mal über 40w, ist aber weit entfernt vom 100w+ Madness, den z.B. der Topaz Video AI Demo Bench ausmacht. Mein Material ist ja deutlich entspannter und ich nutze FCX, da habe ich noch nie Performance Probleme gesehen und wenn ein 30 Min Video nun in 20 Minuten oder 10 Minuten gerendert wird, macht das kaum einen Unterschied für mich, weil ich währenddessen eh Thumbnail, Texte, Timestamps und sonstigen Kram erstelle mit Canva, Pixelmator, ChatGPT und co.
Laut Gerüchten auf X hat Apple beim M4 eine neue Media Engine verbaut bzw. die Teilweise verbessert, weil dort erstmalig "8K H264" steht. Vermutlich könnte ein M3/M4 aber auch das abdecken, was mein M1 Max heute kann.
Offenbar nutzt du weder das Material, welches Apple liegt noch die Programme, mh? :D
Es gibt ja fantastische Programme wie iStatMenu, da kann man sich die Auslastung anschauen um zu sehen, wo der Flaschenhals ist.
Ich hatte heute nen 1 1/2 Std Zoom Call und habe eben 3 Videos mit jeweils ca. 5 Minuten Länge in 4K exportiert. Keine Große Sache, deswegen langweilt sich die Kiste ja auch.
Währenddessen ein wenig Pixelmator Magic mit Objekte entfernen, Farbe entfernen und ausschneiden, ebenso easy Tasks.
Spikes auf knapp über 30w, die meiste Arbeit hat wahrscheinlich die Media Engine und die Neural Engine gemacht.
https://s20.directupload.net/images/240509/ykmg98kp.png
dildo4u
2024-05-10, 02:47:10
AMD bringt wohl 10 Kern Modelle wird interessant die direkt zu vergleichen.
https://videocardz.com/newz/amd-reportedly-readying-ryzen-ai-165-strix-point-apu-with-10-cores
Monkey
2024-05-10, 07:49:23
Passend dazu hat Mark Gurman gerade folgendes gepostet bei X:
https://www.bloomberg.com/news/articles/2024-05-09/apple-to-power-ios-18-ai-features-with-in-house-server-mac-chips-this-year
Da simma ja mal gespannt, ob sowas auch im MacPro Einzug findet für AI Workloads. Ai Ai Ai. :freak:
@Monkey
Für meinen Workload kann ich das nachvollziehen, ich schneide und bearbeite allerdings auch nur 4K60 HEVC. Die Media Engine ist so schnell ( oder langsam, wie man es sehen möchte ), das sie ja im M1 Pro das gleiche macht wie im M3 Max.
Einen großen Unterschied würde ich nur bei einem Ultra sehen, weil dort eben zwei Media Engines verbaut sind, die demnach beides auch schneller machen.
Erst wenn Filter/Effekte und Sound Klimbims hinzugefügt werden, wird die CPU bzw. GPU deutlich mehr ausgelastet, der Verbrauch steigt mal über 40w, ist aber weit entfernt vom 100w+ Madness, den z.B. der Topaz Video AI Demo Bench ausmacht. Mein Material ist ja deutlich entspannter und ich nutze FCX, da habe ich noch nie Performance Probleme gesehen und wenn ein 30 Min Video nun in 20 Minuten oder 10 Minuten gerendert wird, macht das kaum einen Unterschied für mich, weil ich währenddessen eh Thumbnail, Texte, Timestamps und sonstigen Kram erstelle mit Canva, Pixelmator, ChatGPT und co.
Laut Gerüchten auf X hat Apple beim M4 eine neue Media Engine verbaut bzw. die Teilweise verbessert, weil dort erstmalig "8K H264" steht. Vermutlich könnte ein M3/M4 aber auch das abdecken, was mein M1 Max heute kann.
Offenbar nutzt du weder das Material, welches Apple liegt noch die Programme, mh? :D
Es gibt ja fantastische Programme wie iStatMenu, da kann man sich die Auslastung anschauen um zu sehen, wo der Flaschenhals ist.
Ich hatte heute nen 1 1/2 Std Zoom Call und habe eben 3 Videos mit jeweils ca. 5 Minuten Länge in 4K exportiert. Keine Große Sache, deswegen langweilt sich die Kiste ja auch.
Währenddessen ein wenig Pixelmator Magic mit Objekte entfernen, Farbe entfernen und ausschneiden, ebenso easy Tasks.
Spikes auf knapp über 30w, die meiste Arbeit hat wahrscheinlich die Media Engine und die Neural Engine gemacht.
https://s20.directupload.net/images/240509/ykmg98kp.png
Lass uns das Mal in einem anderen Thread weiterführen :)
pixelguy
2024-05-15, 18:19:32
Interessant...
Apple musste ggf. aufgrund des Fertigungsprozesses schneller einen neuen Prozessor entwickeln und hat dabei relativ viel vom M3 übernommen und diesen nur optimiert.
Apple musste eine neue CPU entwickeln
https://www.golem.de/news/kam-der-m4-zu-frueh-apple-musste-eine-neue-cpu-entwickeln-2405-185150.html
mboeller
2024-05-16, 08:50:14
nt
][immy
2024-05-16, 09:00:30
Interessant...
Apple musste ggf. aufgrund des Fertigungsprozesses schneller einen neuen Prozessor entwickeln und hat dabei relativ viel vom M3 übernommen und diesen nur optimiert.
Apple musste eine neue CPU entwickeln
https://www.golem.de/news/kam-der-m4-zu-frueh-apple-musste-eine-neue-cpu-entwickeln-2405-185150.html
Fragt sich ob sie denn genug Zeit hätten die letzte große Sicherheitslücke zu stopfen, oder ob das immernoch per Software gelöst wird (zumindest das ging ja beim m3, während m1&2 nicht fixbar waren).
mocad_tom
2024-05-16, 09:38:09
https://twitter.com/negativeonehero/status/1788364108737466609
Bei den SME Befehlssätzen(Scalable Matrix Extensions - wird genutzt für Object detection) hat sich die Leistung verdoppelt.
Kurzum:
!IPC!-Steigerung ohne SME:
3%
Taktsteigerung:
8%
Manche Subtests sind !Frequenzbereinigt! auf M4 langsamer als auf M3:
Horizon Detection, Structure from Motion
Viele Subtests haben genau die 8% Leistungssteigerung, wie durch die Taktanhebung zu erwarten ist:
CLang, File Compression, Text Processing
robbitop
2024-05-16, 10:05:59
Zu - dann hat Kepler gar nicht so unrecht gehabt. Seit M1 ist primär der Takt gestiegen. Quasi IPC Stillstand seit M1.
Fliwatut
2024-05-16, 11:29:08
Der M1 war dann wohl Apples "Sandy Bridge"-Moment.
mocad_tom
2024-05-16, 11:58:50
Ich weiß auch nicht, was da im Hintergrund schiefläuft.
Geekbench 6.2, sobald SME da ist zeigt es sofort einen mächtigen Ausschlag an.
-----------------
Das ist die Geekbench-Whats-new aktuell:
https://www.geekbench.com/doc/geekbench6-benchmark-internals.pdf
Das ist die Geekbench-Whats-new vom März 2023
https://web.archive.org/web/20230307144315/https://www.geekbench.com/doc/geekbench6-benchmark-internals.pdf
Im März 2023 wurde keine AVX2,AVX512,AMX genutzt.
Jetzt wird AVX2,AVX512,AMX und SME genutzt, wenige Tage, nachdem der M4 rausgekommen ist. :crazy2: :crazy2: :crazy2:
=Floi=
2024-05-16, 12:15:43
Quasi IPC Stillstand seit M1.
Würde ich so nicht genau sagen. Es kann so vieles noch am chip optimiert worden sein und auf der anderen seite ist ein M1/M2 gerät noch immer richtig gut. Bei intel hätte man jeden step extra bezahlt. M1 wöäre gedrosselt gewesen und es wäre ein krampf gewesen.
Der chip ist noch so groß und da gibt es so viele bereiche zum optimieren. Bei der GPU legt apple nach.
][immy
2024-05-16, 12:59:29
Zu - dann hat Kepler gar nicht so unrecht gehabt. Seit M1 ist primär der Takt gestiegen. Quasi IPC Stillstand seit M1.
Hat vermutlich damit zu tun das der Chip echt komplex/groß ist und die Performance primär durch die breiten Interfaces zustande kam, an denen sich ja nun nicht mehr so viel geändert hat.
Abseits der Fertigung scheint sich aber definitiv wenig zu tun.
mocad_tom
2024-05-16, 14:07:27
@][immy
M1 hat komplett die Virtualisierungs-Tags/-flags im L1- und L2-Cache weggelassen.
Damit hat man eine M1-CPU ohne Virt gegen CPUs mit Virt getestet.
(auch wenn man Virt nicht nutzt, so muss man es recht dominierend in die Caches reinbauen)
Von M1 auf M2 wurde die IPC um 10% erhöht, dann Virt eingebaut, zack Leistung um 10% wieder runter.
Geekbench 6.3 über Rocket Lake/Alder Lake/Raptor Lake/Zen 2/ Zen 3/M2/M3/M4 drüber - das wäre mal ein interessanter "Nachtest-Artikel".
Da ist auch eine ziemlich diskrepanz zwischen den release Notes und dem 50 Seiten PDF.
https://www.primatelabs.com/release/geekbench6/
Die haben die Sample-Sizes von Single-Core und Multi-Core verändert.
Die haben auch im März 2023 wohl schon AMX unterstützt nur konnte ich es in der Browser suche nicht finden, erst im Adobe-PDF-Viewer selbst in der Suche hat es dann geklappt.
Dennoch bencht ein Geekbench 6.3 heute ziemlich Fundamental anders, als ein Geekbench 6.0 von Februar 2023 und erst heute haben sie genauer dazunotiert was eigentlich auf AVX/AMX/SME optimiert ist.
DozerDave
2024-05-16, 14:09:03
Also wie immer bei Geekbench: Vergleichbarkeit nur über die genaue App-Version.
robbitop
2024-05-16, 14:35:20
Der M1 war dann wohl Apples "Sandy Bridge"-Moment.
Eigentlich haben sie regelmäßig hohe IPC Sprünge hingelegt seit A6.
A13 war iirc der letzte Chip der signifikante IPC Spreünge hingelegt hat. M1 hat die Kerne aus dem A14 die iirc kaum zulegten. Also irgendwas stockt da beim CPU Team. Das sage ich seit Jahren.
pixelguy
2024-05-16, 15:14:07
Oder sie haben es nicht nötig?
robbitop
2024-05-16, 15:35:22
Stillstand ist immer eine unschlaue Entscheidung. Schneller als man glaubt, wird man eingeholt. Siehe Intel die sich mit Skylake und 14nm+++++++ zu lange ausgeruht haben. Nur dadurch hatte AMD mit Ryzen überhaupt eine Chance.
DozerDave
2024-05-16, 16:11:38
Im Gegensatz zu Intel wird aber die Strukturbreite kleiner. Dank TSMC.
robbitop
2024-05-16, 16:13:02
Das stimmt aber Qualcomm nippt schon an Apples Fersen mit Oryo.
MSABK
2024-05-16, 17:31:08
Das stimmt aber Qualcomm nippt schon an Apples Fersen mit Oryo.
Qualcomm würde ich nicht als Konkurrenz ansehen. Obwohl Windows on ARM seit Jahren erhältlich ist, ist das immer noch eher Beta, die Treiber Alpha.
y33H@
2024-05-16, 17:31:34
Siehe Intel die sich mit Skylake und 14nm+++++++ zu lange ausgeruht haben. Nur dadurch hatte AMD mit Ryzen überhaupt eine Chance.Das lag mehr an 10nm als am Ausruhen ^^
Das stimmt aber Qualcomm nippt schon an Apples Fersen mit Oryo.Ich will erst mal sehen ob/was Hamoa tatsächlich abliefert ...
robbitop
2024-05-16, 17:44:22
Am Ende kann doch keiner bestreiten, dass Stillstand nicht auch potenziell gefährlich ist. Seit M1 haben sie ordentlich an der Taktschraube gedreht. Die Möglichkeiten haben aber im Ultra low power mobile Bereich auch ihre Grenzen.
Ich frage mich ob da ggf nicht doch die wesentlichen Macher der sehr guten CPU Cores abgewandert sind und man jetzt etwas auf der Stelle tritt.
Monkey
2024-05-16, 18:11:40
Der M1 war dann wohl Apples "Sandy Bridge"-Moment.
Glaub das passt ziemlich gut! Ich hab das schon mal geschrieben, Apple hat sich mit dem M1 eigentlich keinen Gefallen getan.
smalM
2024-05-16, 22:40:16
https://scalable.uni-jena.de/opt/sme/micro.html
basix
2024-05-17, 07:25:14
Glaub das passt ziemlich gut! Ich hab das schon mal geschrieben, Apple hat sich mit dem M1 eigentlich keinen Gefallen getan.
Ich finde solche Aussagen immer wieder lustig. Ja, ausgehend vom M1 sind Leistungssprünge und vor allem Unterschiede bei den B-Noten (Verbrauch, Video-Engine für Apple-Formate) geringer. Aber die Mx SoCs sind für Apple ein riesen Gewinn. Für einige ist das sogar ein Produktmerkmal, um auf einen Mac umzusteigen. Und Apple hat sicher auch eine höhere Marge auf ihren CPUs, als wenn sie die von Intel beziehen würden.
Dass man jetzt nicht unbedingt von einem M1 auf einen M3 umsteigen muss liegt einfach daran, dass für die allermeisten Leute und die meisten Tasks einfach genug Leistung da ist. Das gilt auch für x86 CPUs. Wir hier in der Foren-Bubble oder allgemein Leute mit erhöhtem Anspruch feiern vielleicht neuere CPUs. "Normale" Leute behalten ihre Geräte, solange sie damit zufrieden sind. Für Web-Browsing, Office etc. reicht die Peformance. Und das ist oftmals 4+ Jahre bei Notebooks und meistens ist es zudem der Akku oder zu wenig Festplattenspeicher, der zu Unzufriedenheit führt. Zumindest ist das aus meiner Erfahrung so (eigene und im Umfeld)
dildo4u
2024-05-17, 07:35:51
Die alten Geräte haben zu wenig RAM das ist der Grund zum Aufrüsten, könnte sein das kommende AI Funktionen für 8 GB Modelle entfallen.
basix
2024-05-17, 07:43:32
Da haben die smarten Konzerne ja Abhilfe: Nimm deren Cloud ;)
Aber ansonsten: Ja, RAM kann dort limitieren. Wir sind dort aber noch nicht angekommen. Sprechen wir in 2-3 Jahren nochmals darüber, wenn ML/AI in 0815 Tools angekommen ist.
vinacis_vivids
2024-05-17, 08:02:29
Für KI-Projekte sind 64GB RAM manchmal schon zu wenig. Ich würde Apple mal 128GB oder 256GB schnellen RAM empfehlen, falls die sich das überhaupt leisten können.
dildo4u
2024-05-17, 08:10:30
Für KI-Projekte sind 64GB RAM manchmal schon zu wenig. Ich würde Apple mal 128GB oder 256GB schnellen RAM empfehlen, falls die sich das überhaupt leisten können.
Apple ist ein Enduser Konzern ich Tippe drauf das 12GB für Handy und 16GB für Laptops für die fertigen Modelle auf dem Gerät reichen wird.
Komplexere Modelle werden über Cloud Dienste laufen.
Monkey
2024-05-17, 09:00:01
Ich finde solche Aussagen immer wieder lustig. Ja, ausgehend vom M1 sind Leistungssprünge und vor allem Unterschiede bei den B-Noten (Verbrauch, Video-Engine für Apple-Formate) geringer. Aber die Mx SoCs sind für Apple ein riesen Gewinn. Für einige ist das sogar ein Produktmerkmal, um auf einen Mac umzusteigen. Und Apple hat sicher auch eine höhere Marge auf ihren CPUs, als wenn sie die von Intel beziehen würden.
Dass man jetzt nicht unbedingt von einem M1 auf einen M3 umsteigen muss liegt einfach daran, dass für die allermeisten Leute und die meisten Tasks einfach genug Leistung da ist. Das gilt auch für x86 CPUs. Wir hier in der Foren-Bubble oder allgemein Leute mit erhöhtem Anspruch feiern vielleicht neuere CPUs. "Normale" Leute behalten ihre Geräte, solange sie damit zufrieden sind. Für Web-Browsing, Office etc. reicht die Peformance. Und das ist oftmals 4+ Jahre bei Notebooks und meistens ist es zudem der Akku oder zu wenig Festplattenspeicher, der zu Unzufriedenheit führt. Zumindest ist das aus meiner Erfahrung so (eigene und im Umfeld)
Ich meinte damit eher das Apple die Latte mit den m1(max) so hoch gesetzt hat das die kleinen Verbesserungen bei m2/3(max) nicht ausgereicht haben um Kunden den Wechsel vom M1 schmackhaft zu machen. Ich kenne genug Leute aus dem Bereich der Videoverarbeitung die bei entsprechender Mehrleistung umgestiegen wären, sich aber selbst heute noch lieber gebrauchte M1(max) kaufen weil alles andere wenig Sinn macht.
Ansonsten hast natürlich Recht.
Sunrise
2024-05-17, 12:17:37
Ich meinte damit eher das Apple die Latte mit den m1(max) so hoch gesetzt hat das die kleinen Verbesserungen bei m2/3(max) nicht ausgereicht haben um Kunden den Wechsel vom M1 schmackhaft zu machen. Ich kenne genug Leute aus dem Bereich der Videoverarbeitung die bei entsprechender Mehrleistung umgestiegen wären, sich aber selbst heute noch lieber gebrauchte M1(max) kaufen weil alles andere wenig Sinn macht.
Ansonsten hast natürlich Recht.
Das wird generell mehr und mehr zur Herausforderung für Apple. Was auch der Grund ist (und Cook arbeitet tatsächlich so), dass man jetzt plötzlich dann doch viel auf AI umlenken will. Da kann man dann komplett neue “Probleme” und Anforderungen generieren.
Die Verkaufsargumente eines iPads schwinden zusehends und bei Enduser-Laptops hat die große Masse nicht ansatzweise die Anforderungen, die ein Macbook mit M-Chip mittlerweile irgendwie auslasten können.
dildo4u
2024-05-17, 13:36:32
Genshi auf M4 über 100fps.
1NIHmCnNhno
Der neue Raster 3DMark Test
https://i.ibb.co/LSpQvgt/Screenshot-2024-05-22-082105.png (https://ibb.co/CB0JW97)
https://www.computerbase.de/2024-05/3dmark-steel-nomad-ergebnisse-ueberblick
Badesalz
2024-05-24, 10:08:05
Dass man jetzt nicht unbedingt von einem M1 auf einen M3 umsteigen muss liegt einfach daran, dass für die allermeisten Leute und die meisten Tasks einfach genug Leistung da ist. Das gilt auch für x86 CPUs. Wir hier in der Foren-Bubble oder allgemein Leute mit erhöhtem Anspruch feiern vielleicht neuere CPUs. "Normale" Leute behalten ihre Geräte, solange sie damit zufrieden sind.
Das. Oder solange sie heile bleiben... Ich erwähne das schon seit paar Jahren, daß alle Nicht-Zocker mittlerweile in Leistung ersaufen.
Wir haben hier ein iPad schon so lange, daß ich grad garnicht mehr weiß, ob es Gen5 oder Gen6 ist :freak: Weder ist das Teil rasend schnell noch aber ist es jemals langsam gewesen. Bis heute nicht. Es tut was es tun soll ohne zu nerven und der Akku hält dermaßen lange, daß wir uns immer wieder mal auf die Suche aufmachen wo denn das Netzteil diesmal eingeräumt wurde.
davidzo
2024-06-02, 17:45:48
:
Zitat Kepler_L2:
Hot take: Apple switching to ARM was the worst mistake they have done recently.
It's been 4 years since Firestorm and they haven't managed to increase IPC by even 5%.
They are about to get lapped hard by Intel/AMD.
Das ist herumgetrolle, reine Polemik.
Natürlich ist die IPC um mehr als was er sagt gestiegen. Wer 5% misst misst absichlich mist. Ich finde bestimmt sogar einen Test wo der M2 sogar langsamer ist weil ihm sein 12MB SLC schneller ausgeht als die 16Mb im M1.
Natürlich zählen auch Caches und breitere FPUs oder neue Befehlssätze zur Architektur und IPC dazu. Sonst müsste man ja Zen2 mit halbierter FPU und zen3 mit halbiertem Cache messen und Zen5 mit halbem Speichertakt für irgendwelche IPC Aussagen.
Also irgendwas stockt da beim CPU Team. Das sage ich seit Jahren.
Ich glaube das wird nur durch die hohe Produktkadenz suggeriert. Der M1 kam zeitgleich mit Golden Cove Kernen. Seitdem gab nur einen einzigen Fullnode shrink (5nm auf 5nm). Intel hat im Desktop sogar noch den gleichen alten Node.
Intel hat im Zeitraum mit Raptor Cove lediglich 3% IPC draufgelegt und der Rest kam durch Takt und DDR5. Meteorlake ist wieder eine Regression, insofern kann man bezogen auf die IPC von Stillstand sprechen.
AMD hat in der gleichen Zeit von Zen3 zu zen4 13% IPC Verbesseurngen vorgelegt inkl. verdoppeltem L2cache und DDR5, konkurriert aber nach wie vor im Produktmix nur auf Augenhöhe mit Intel.
Intel hat diese Augenhöhe also durch andere Faktoren wie Takt, Corecount, pricing hergestellt.
Das zeigt wie absurd Aussagen sind die sich rein auf eine hypotetische "IPC" beziehen und Takt, Fertigung, Verbrauch und Pricing außer acht lassen.
Stillstand ist immer eine unschlaue Entscheidung. Schneller als man glaubt, wird man eingeholt. Siehe Intel die sich mit Skylake und 14nm+++++++ zu lange ausgeruht haben. Nur dadurch hatte AMD mit Ryzen überhaupt eine Chance.
Naja, davor gab es auch nur single digit IPC Verbesserungen. Sandybridge mit knapp 10% war gut, Ivybridge nur ein neuer Fertigungsprozess und Haswell hatte ohne AVX2 auch keine 10%, später damit aber praktisch skylake-IPC vorweggenommen.
IPC ist auch nur eine Methode aus dem Playbook eines CPU herstellers. Es ist nicht hilfreich das so einzeln zu betrachten und darüber zu urteilen wenn doch das Ergebnis ein anderes ist, nämlich dass der M4 in der ST performance mit dem größten Abstand vor aktuellen Desktop CPUs liegt als das jemals für eine Apple CPU der Fall war.
Der M1 lag noch 11% (R24 ST) bis 25% (R23 ST) hinter einem 12900K zum Launchzeitpunkt. Aktuell liegt sogar ein M3pro noch vor dem 14900KS und wenn der M4 wie in anderen ST Tests nochmal 22% drauflegt, dann führt die Tablet-CPU mehr als jemals zuvor.
Intel muss auch erstmal beweisen mit Arrowlake und Lunarlake dass sie auch double digit IPC Steigerungen können.
Stichwort Diminishing returns - manchmal ist es eben leichter einfach über Takt, mehr Cache, Cores und Speichersystem die Leistung zu erhöhen.
Gerade bei Architekturen mit einer extrem hohen IPC sind die low hanging fruits dann eher woanders zu suchen.
Als Ende 2021 der M1 gelauncht wurde hat man Apple dafür kritisiert zwar eine hohe IPC zu haben aber wenig Takt zu liefern. Mittlerweile hat Apple den Takt um 37,5% angehoben (3200->4400) und zwar ohne dass der Verbrauch explodiert. Ist das etwa kein engineering feat? Kein anderer CPU-hersteller konnte in dem Zeitraum derartige Taktgewinne aufweisen, nichtmal Zen4 und Intel Raptorlake mit unlimited TDP.
Auch Qualcomm muss erstmal beweisen dass Hamoa kein one-trick pony war sondern man regelmäßig solche IPC Zuwächse abliefern kann. Wegen der praktisch schon hohen IPC und diminishing returns spricht auch eher mehr dafür dass man sich als nächstes auf die physische Implementierung, also Takt und Verbrauch konzentriert.
Hamoa verhält sich ja eher wie ein übertakteter M2pro, was auch zum 2nd gen N5 Node passt. Die bread and butter SKUs haben lediglich 3.4Ghz ohne Turbo und für die seltene 4.2Ghz SKU braucht man 80Watt und eine große Kühlung. Mal sehen ob nicht auch Qualcomms Nuvia team als nächstes den Weg der Leistungssteigerung via Taktsteigerung einschlägt.
Bei den SME Befehlssätzen(Scalable Matrix Extensions - wird genutzt für Object detection) hat sich die Leistung verdoppelt.
Kurzum:
!IPC!-Steigerung ohne SME:
3%
mit SME:
8%
Taktsteigerung:
8%
Für einen Refresh nach 8 Monaten und in einem vergleichbaren Node finde ich das eine sehr gute Leistung.
+16% Performance uplift wären vergleichbar mit Zen2 auf Zen3 und dafür hat AMD immerhin 2 Jahre gebraucht.
Zumal diese 16% IPC eher das Minimum sind, in GB6 kommen ja +22% heraus, wobei da wahrscheinlich auch die verdoppelte Speicherbandbreite mit einfließt.
robbitop
2024-06-02, 19:12:42
M1 war ja schon eine Gen nach dem „Stillstand“ der IPC Entwicklung. Im Prinzip ist bei den P Cores seit 2019 nicht mehr viel passiert taktnormiert. Und M1 kam 2020 - wir haben 2024. :) Davor gab es jedes Jahr - ob Shrink oder nicht - schon vergleichbare IPC Zuwächse die wir jetzt alle 2 Jahre bei AMD sehen. ~15-20%. Pro Jahr. Ob shrink oder nicht. Und jetzt gab es ordentlich shrink.
Übrigens liegt Kepler nicht so weit daneben. Nimm dir GB single core Scores und normiere sie nach Takt. Ich hab das für M1-4 gemacht und da kam erstaunlich wenig mehr taktnormierte Leistung heraus.
Und trotz Upgrades wie Takt und Caches etc holen die ARM Standardcores(!) (Cortex X925 - ehem X5) nächstes Jahr voraussichtlich Apples P Cores ein (laut ARM - muss sich noch bestätigen - aber substanzlos wird es nicht notwendigerweise sein).
Bis dato hatten sie einen 2-3 Jahresvorsprung auf die Standard ARM Cores und der ist weg. So ganz substanzlos kann die Kritik IMO nicht sein.
davidzo
2024-06-02, 19:51:00
M1 war ja schon eine Gen nach dem „Stillstand“ der IPC Entwicklung. Im Prinzip ist bei den P Cores seit 2019 nicht mehr viel passiert taktnormiert. Und M1 kam 2020 - wir haben 2024. :)
Kommt drauf an ob man sich auf die M1 Familie bezieht und auf Desktop oder mobile produkte. Die Macbook Pros kamen im Oktober 2021 und die Mac pros erst Anfang 2022. Der M1 ist vielmehr ein Produkt des jahres 2021 als 2021.
Davor gab es jedes Jahr - ob Shrink oder nicht - schon vergleichbare IPC Zuwächse die wir jetzt alle 2 Jahre bei AMD sehen. ~15-20%. Pro Jahr. Ob shrink oder nicht. Und jetzt gab es ordentlich shrink.
Bullshit, dafür müsste AMD ja erstmal eine Architektur pro Jahr bringen. Die bringen aber nur alle 2 jahre eine und dazwischen lauwarme mobile refreshes. Außerdem scheinst du wieder IPC zuwächse mit Zuwächsen allgemein zu verwechseln.
Ist eh Latte, denn ob die Ingenieure 20% mehr Leistung durch IPC Zuwachs herausholen (bei gleichem verbrauch) oder 20% durch Taktzuwachs (bei gleichem Verbrauch) spielt für das Endprodukt keine Rolle.
Übrigens liegt Kepler nicht so weit daneben. Nimm dir GB single core Scores und normiere sie nach Takt. Ich hab das für M1-4 gemacht und da kam erstaunlich wenig mehr taktnormierte Leistung heraus.
Er liegt mit seinen 5% von M1 bis M4 um mehr als Faktor 2x daneben.
Bei GB6 gibt es 53% Performancezuwachs, trotz nur 37,5% Taktzuwachs.
Wie gesagt, AMD hat im selben Zeitraum von M1 bis M4 lediglich Zen3 und Zen4 gebracht. Klar muss man da jetzt demnächst noch Zen5 mit draufrechnen, aber ich bezweifle dass da insgesamt ein performancezuwachs von 53% bei gleichem verbrauch dazu kommt. Zen4 hat seine Performancegewinne hauptsächlich durch die höhere TDP geschafft, bei gleichem Verbrauch war das eher mickrig trotz Fullnode Sprung.
Und trotz Upgrades wie Takt und Caches etc holen die ARM Standardcores(!) (Cortex X925 - ehem X5) nächstes Jahr voraussichtlich Apples P Cores ein (laut ARM - muss sich noch bestätigen - aber substanzlos wird es nicht notwendigerweise sein).
Bis dato hatten sie einen 2-3 Jahresvorsprung auf die Standard ARM Cores und der ist weg. So ganz substanzlos kann die Kritik IMO nicht sein.
Der X4 ist ja gerade eben erst kaufbar. Bis der X5 / 925 erscheint wird es noch ein Weilchen dauern. Dieses Jahr kommt erstmal der A18 und im September nächsten Jahres gibts schon den A19. Btw sagte Kepler_L2 explizit AMD/Intel und nicht ARM.
ARM übertreibt zudem in seinen Folien gerne mal und vermutet unrealistische Taktgewinne durch neue Prozesse die es so in den finalen Designs nicht gibt.
Was man auch nicht vergessen darf ist dass ARM mit seinen X- Designs dermaßen bei den Transistoren in die Vollen geht dass die PPA stark leidet. So stark dass die Partner eben nur einen P-Core verbauen weil der kaum schlechtere A715 eben doch nur knapp halb so groß ist und man gleich 4x a510 auf die Fläche eines X3 bekommt. Sowohl Apples als auch Nuvias P-Cores sind dagegen sehr flächeneffektiv, in der Hinsicht sogar Meilenweit vor Intel Cores (und AMD, denn M2 Cores sind nur in etwa so groß wie Zen4C Kerne beide in N5).
Die +36% perf sind keine IPC Angabe und die simulierten +15% IPC in GB6 sind zwar stark, aber der SD8G3 ist ja auch noch 26% bei der Gesamtperformance hinter dem A17. Zum A18 und A19 wird es hier also wieder nicht reichen. Das sieht wieder nach dem klassischen 2-Jahres Vorsprung aus, zumal sich der Mobilmarkt zukünftig eh um die NPU und GPULeistung drehen wird.
robbitop
2024-06-02, 20:57:40
M1-M4 mit dem Zeitraum Zen3-4 zu vergleichen ist aber stark übertrieben. Zen 3 kam Ende 2020 und Zen 4 Q3 2022. Zen 5 ist zeitlich viel näher an M4 dran. Also wenn man es mit AMD vergleicht dann Zen 3-5. Zen 3-4 wäre eher äquivalent zu M1-2.
Was ich mit AMD meinte war: dort gab es alle 2 Jahre 10-15% IPC Zuwachs. Den gab es bei Apple bis kurz vor M1 jedes Jahr. Und das ist kein Bullshit. A7 bis A14.
Verstehe mich nicht falsch - die Apple Cores sind noch top notch. Aber der Vorsprung vor ARM und QCom schrumpft. Und ja man kann auch mit Takt Fortschritte machen - aber die Leiter hat begrenzte Anzahl an Stufen im mobile/ULV Umfeld wo die Dinger arbeiten müssen. M4 liegt immerhin schon bei 4,4 GHz. Da muss jetzt auch wieder IPC kommen.
fondness
2024-06-02, 22:18:28
Die Diskussion hier ist witzig. Apple bringt angeblich jedes Jahr einen core und AMD alle zwei Jahre. Aber bei Apple gab es in der Zeit M1-4 und bei AMD Zen3-5. Also irgendwas passt hier nicht zusammen :-). Auch punkto ipc, Zen3 lag bei 19% IPC plus, Zen4 13%, Zen5 weiß man noch nicht. Apple bringt kaum noch IPC, da hat kepler imo schon recht. Von der einstigen Überlegenheit der Apple cores ist nicht mehr viel übrig, sie haben noch einen perf/Watt Vorteil, was bei einem full node shrink Vorsprung aber auch nicht verwundert.
davidzo
2024-06-03, 00:50:04
Was ich mit AMD meinte war: dort gab es alle 2 Jahre 10-15% IPC Zuwachs.
Dafür eben nur wenig Taktzuwachs. Und beim gleichen Verbrauch ist man auch nicht geblieben.
Es macht einfach keinen Sinn isoliert über IPC Zuwachs zu reden - Leistungszuwachs ist relevant.
Den gab es bei Apple bis kurz vor M1 jedes Jahr. Und das ist kein Bullshit. A7 bis A14.
Wie gesagt, je höher die ILP Extraktion einer uArch, desto schwieriger wird es da einen drauf zu setzen. Ab einem gewissen Punkt macht es vielleicht mehr Sinn stattdessen die Taktbarkeit zu verbessern. Gerade wenn es um den Einsatz im Desktop bzw. Notebooks geht und nicht nur Handys. Und die PPA hat Apple auch nicht außer acht gelassen, afaik ist der ROB trotz mehr Einträgen von M1 zu M3 flächenmäßig deutlich geschrumpft.
Auch punkto ipc, Zen3 lag bei 19% IPC plus, Zen4 13%, Zen5 weiß man noch nicht.
Wenn M1 die Baseline für Apple ist (2020/21), dann ist Zen3 (2020) auch die Baseline für AMD du Witzbold.
Als PC Fanboy hat man anscheinend eine selektive Erinnerung.
Von der einstigen Überlegenheit der Apple cores ist nicht mehr viel übrig, sie haben noch einen perf/Watt Vorteil, was bei einem full node shrink Vorsprung aber auch nicht verwundert.
Lol, wie gesagt ist die Überlegenheit gerade größer den je. Guck dir dochmal die ST Scores vom M4 an.
20% vor der schnellsten Desktop CPU in ST war noch keine Apple CPU zuvor. Deine Fokussierung auf IPC macht dich anscheinend blind.
Und einen Fullnodesprung vor Intel und AMD war Apple schon immer bei der M-Serie. Was zählt ist wann der Kunde es kaufen kann. Der M1 war schon 5nm und seitdem hat Apple eben vier Generationen bei nur einem Fullnodesprung gebracht.
Btw wird Intel noch dieses Jahr bei der Fertigung gleichziehen. Mit Lunarlake kann man den Rückstand egalisieren. Der Fertigungsabstand ist also eher kleiner geworden als größer und dient nicht mehr als Relativierung.
Daredevil
2024-06-03, 08:54:00
IPC ist ja auch gar nicht das Ziel von Apple, sie proklamieren ja jedes Mal Performance/Watt als Ziel und das liefern sie sowas von ab.
AMD kann auch nochmal 30% mehr IPC haben, ein iPad wie Apple es baut können sie am Ende trotzdem nicht und darum geht es Apple ja am Ende: Produkte wo dies auch zum tragen kommt.
Apple wirbt zwar auch manchmal mit dem Speed der Geräte, eben weil sie „nebenbei“ im Vergleich sehr schnell sind, aber das ist ja gar nicht deren Steckenpferd.
Deswegen vergleichen wir hier Tablet SoCs mit Desktop CPUs, was ja schon verrückt genug ist und ganz klar zeigt, dass seit den M1 die Strategie aufgeht. Das M1 MacBook gibts in Amerika im WallMart für 600$ rum.
Das ist heute immer noch ein super Gerät. Das ist quasi das Budget MacBook, was 95% der Leute ausreicht.
robbitop
2024-06-03, 10:54:24
So hab jetzt mal IPC Werte in Excel ausgewertet:
https://i.postimg.cc/2bsNTtcq/Apple-IPC-development.png (https://postimg.cc/2bsNTtcq)
Hier das Excel file: https://docs.google.com/spreadsheets/d/1qfKOILqUhyFJbl-tVsCr0UQD_79L4QIw/edit?usp=sharing&ouid=102193457347546419765&rtpof=true&sd=true
Wie man sieht, ist A13 der letzte SoC, der größere IPC Sprünge geliefert hat.
Wenn man den Mittelwert von A8 bis A17 zieht, landet man bei 11,5% IPC uplift pro Jahr. Wenn man jetzt aber A8 bis A13 als Mittelwert annimmt (bevor irgendwie in der Hinsicht kaum noch etwas am IPC Steigerung pro Jahr kam) sind es 17,2% pro Jahr. Der Verlauf ist super eindeutig.
fondness
2024-06-03, 11:06:29
So hab jetzt mal IPC Werte in Excel ausgewertet:
https://i.postimg.cc/2bsNTtcq/Apple-IPC-development.png (https://postimg.cc/2bsNTtcq)
Hier das Excel file: https://docs.google.com/spreadsheets/d/1qfKOILqUhyFJbl-tVsCr0UQD_79L4QIw/edit?usp=sharing&ouid=102193457347546419765&rtpof=true&sd=true
Wie man sieht, ist A13 der letzte SoC, der größere IPC Sprünge geliefert hat.
Wenn man den Mittelwert von A8 bis A17 zieht, landet man bei 11,5% IPC uplift pro Jahr. Wenn man jetzt aber A8 bis A13 als Mittelwert annimmt (bevor irgendwie in der Hinsicht nichts mehr kam) sind es 17,2% pro Jahr. Der Verlauf ist super eindeutig.
Erstmal danke für den Aufwand. Aber gut ist jetzt nicht sonderlich verwunderlich, dass es leichter ist die IPC zu steigern wenn man weit hinter top-notch ist. Da profitiert man massiv von der Forschungsarbeit anderer. Wenn man alles ausgereizt hat was andere schon haben wird es natürlich deutlich schwerer.
robbitop
2024-06-03, 11:26:25
Naja die Sache ist, zeitlich korreliert das ziemlich mit dem Ausstieg der Nuvia Leute, die jetzt zu QCOM sind. Es ist kein Beweis oder so. Aber ein Indiz.
robbitop
2024-06-03, 11:38:13
Ich hab mir jetzt mal das Wachstum des Single Core Scores (also nicht taktratennormiert) angeschaut. Das gibt folgendes Bild ab:
https://i.postimg.cc/K4CskLwY/Apple-IPC-development-score.png (https://postimg.cc/K4CskLwY)
Excelfile: https://docs.google.com/spreadsheets/d/1qfk2zULMpTqYrrPw4uUlcnTOeUVJ8b7G/edit?usp=sharing&ouid=102193457347546419765&rtpof=true&sd=true
Das sieht freundlicher aus aber man sieht, dass der Fortschritt dennoch abgefallen ist. Ich habe extra Geomittelwerte genommen wegen der starken Ausreißer mit A9 und zT A10.
Im (geometrischen) Mittel gab es overall einen Performancezuwachs pro Jahr (single core) von 19,3%. Bis A13 (also exkludiert A14-17) sogar 26,7 %.
Insbesondere A15-A17 liefern auch ohne Taktraten zu normieren weniger ab.
Und die Taktschraube hat (insbesondere im mobile Bereich) auch bald ein Ende. Wir sind mit M4 ja schon bei 4,4 GHz.
Jetzt könnte man konstatieren, dass IPC Sprünge auch immer schwieriger werden. Man muss sehen, wie in den nächsten Jahren QCOM und ARM hier abliefern. Denn aufgeholt hat QCOM schon heute und ARM ab nächstem Jahr (sofern Apple nicht mit M5 eine deutliche Änderung vollzieht).
Sunrise
2024-06-03, 12:51:09
Das spiegelt ziemlich gut wieder, dass Apple “lahm” hinsichtlich HW geworden ist. Man scheint sich voll aufs Zugpferd TSMC zu verlassen, und ihre Dominanz als Einfluss ausspielen zu können.
Nur leider kommt jetzt auch Nvidia… und Apple geht zugleich nur halbgar neue HW-Projekte an, bzw. ziehen sie nicht durch. Da scheint es generell an Führung und teuren Fachleuten zu mangeln.
So ein Durchwisch wie Elon Musk das alle paar Jahre mal angeht, fehlt hier komplett. Da scheint am Kern ziemlich viel Durcheinander zu sein.
robbitop
2024-06-03, 12:54:49
Nvidia wird laut Gerüchten (zunächst) mit Mediatek einen Notebook (AI PC) SoC auflegen, der nächstes Jahr (2025) kommt. Mit Blackwell IP und Cortex X925 (ehem X5).
Mein subjektiver Eindruck (ich kann falsch liegen) ist, dass der Braindrain, den der Weggang der CPU Leute (Nuvia -> QCOM) da zumindest einen signifikanten Einfluss hatte.
IMO ist der Vorsprung zumindest deutlich geschmolzen.
davidzo
2024-06-03, 13:31:29
Ich hab mir jetzt mal das Wachstum des Single Core Scores (also nicht taktratennormiert) angeschaut. Das gibt folgendes Bild ab:
https://i.postimg.cc/K4CskLwY/Apple-IPC-development-score.png (https://postimg.cc/K4CskLwY)
Excelfile: https://docs.google.com/spreadsheets/d/1qfk2zULMpTqYrrPw4uUlcnTOeUVJ8b7G/edit?usp=sharing&ouid=102193457347546419765&rtpof=true&sd=true
Das sieht freundlicher aus aber man sieht, dass der Fortschritt dennoch abgefallen ist. Ich habe extra Geomittelwerte genommen wegen der starken Ausreißer mit A9 und zT A10.
Im (geometrischen) Mittel gab es overall einen Performancezuwachs pro Jahr (single core) von 19,3%. Bis A13 (also exkludiert A14-17) sogar 26,7 %.
Insbesondere A15-A17 liefern auch ohne Taktraten zu normieren weniger ab.
Und die Taktschraube hat (insbesondere im mobile Bereich) auch bald ein Ende. Wir sind mit M4 ja schon bei 4,4 GHz.
Danke für deinen Aufwand!
Aber du mischt da wieder Dinge durcheinander die nicht zusammen gehören. Ich dachte wir reden hier hauptsächlich über die M-SOCs?
Du kannst nicht gleichzeitig die 10% ST increase des A17 hervorheben und im nächsten Satz den M4 mit 4,4Ghz erwähnen als wäre dessen Ergebnis dasselbe wie der A17.
- Der A17 ist N3B, hat eine Turbo von 3,5Ghz und entspricht eher dem M3
- Der M4 ist N3E und legt in GB6 22% ST auf den M3 oben drauf
- Auch M3 und M2 haben jeweils höhere Zuwächse gegenüber M1 als die iphone SOCs (Apple claimt +30% über M1 ST beim M3)
- Der Zuwachs zwischen M3 auf M4 ist größer als der zwischen M1->M2 oder M2->M3.
- Würdest du also M-Chips in deinem Diagramm vergleichen verliefe die Kurve ganz anders. Du kannst nicht einfach die A-Serie Kurve verwenden um dabei Aussagen über die M-Serie Skalierung zu treffen.
- Der A17 hat so geringe Zuwächse bei der CPU weil Apple dort anscheinend den Fokus auf die NPU gelegt hat, anders als bei der M3 Generation.
- A15 war dagegen ein GPU upgrade und A16 eben nur ein Refresh vom A15 mit nur 7% mehr Transistorbudget. Allgemein sind die Transistorzuwächse im iphone viel geringer als im Mac, weil da wohl der Kostendruck durch den advanced node höher ist.
Was man schon sehen kann an der Entwicklung der SOCs ist dass der Fokus sich von der CPU zur GPU und verschiebt. Genau wie bei Intel/AMD/Qcomm.
- Der Anteil der GPU an der DIEfläche hat in jeder Generation zugenommen, die CPU abgenommen.
- Die M3 P-Cores sind geschrumpft vermutlich die M4 P-Cores auch. Gleichzeitig sind die E-Cores gewachsen (analog zu Intel).
- Beim M4 ist die NPU massiv angewachsen und die Pro/Max Serien werdne hier owhl noch einen oben drauf legen.
robbitop
2024-06-03, 13:41:13
Ich kann mir auch nochmal die M-SoCs anschauen. Die Cores sind aber die gleichen und bei den M-SoCs gibt es noch nicht so viel Historie für die Daten.
Da müsste man dann die AX Vorgänger nehmen - aber die kamen IIRC auch relativ unregelmäßig heraus.
IMO spielt es keine Rolle ob A-SoCs oder M-SoCs weil es um die Single Core Performance von Apple's P cores geht - mir insbesondere auch um deren IPC.
Vielleicht muss man den M4 auch nochmal ausklammern, weil der A17Pro eher das (Smartphone) Pendant vom M3 ist.
Ich finde meine Übersicht stellt trotz deiner Einwände relativ klar, dass die P Cores stagnieren. Ob jetzt noch ein weiterer Datenpunkt dazukommt oder nicht. Da gibt es mMn nicht viel zu lamentieren. Warum das so ist - ja da sind die Möglichkeiten vielfältig. Von dir genannter AI und GPU Fokus. Von mir genannter Brain Drain.
Ich frage mich ehrlich gesagt auch ob, es wirklich sowas wie einen Fokus über völlig fremde IP Blöcke gibt, die von völlig verschiedenen Teams bearbeitet werden. Ob da jetzt wirklich die CPU Jungs seit 4 Jahren zurückgepfiffen werden wegen ein paar weniger mm² damit die AI Engine oder die GPU schneller werden kann? Kann ich mir bei dem was Apple sonst jahrelang aus der SoC Sparte abgeliefert hat schwer vorstellen. Möglich ist es natürlich dennoch.
robbitop
2024-06-03, 14:33:36
So ich hab jetzt mal ein File für die iPad SoC Serie gebaut. Da es Stellen gab, wo es Lücken zwischen den Releases gab, habe ich die Lücken mit iPhone SoCs (A7, A11 und A13) gefüllt.
https://i.postimg.cc/S2tBHTyh/Apple-IPC-development-pad.png (https://postimg.cc/S2tBHTyh)
Excel file: https://docs.google.com/spreadsheets/d/1rUJjNKgdkD548LfIAWGwiqbSht-9i4E7/edit?usp=sharing&ouid=102193457347546419765&rtpof=true&sd=true
Das Ergebnis stellt sich vor allem in Bezug auf den M1 etwas anders da. Aber man kann sehen, alles was nach M1 kam fällt stark ab. Sowohl IPC increase als auch absolute score increase (also nicht normierte Performance).
M1 war absolut stark und danach war es schon fast enttäuschend. IIRC sind die CPU Leute, die bei Apple gekündigt haben nach dem M1 weg. Passt ja zufällig irgendwie.
Badesalz
2024-06-04, 08:53:35
Mein subjektiver Eindruck (ich kann falsch liegen) ist, dass der Braindrain, den der Weggang der CPU Leute (Nuvia -> QCOM) da zumindest einen signifikanten Einfluss hatte.Ja? Ich nenne es eine Katastrophe. Aus Apples Sicht hätte man niemals zulassen sollen, daß soetwas passiert.
Die bisher mit Abstand größte Niederlage von Cook.
Zossel
2024-06-04, 09:11:32
Ja? Ich nenne es eine Katastrophe. Aus Apples Sicht hätte man niemals zulassen sollen, daß soetwas passiert.
Die bisher mit Abstand größte Niederlage von Cook.
Konkurrenz soll eine Katastrophe sein?
maximus_hertus
2024-06-04, 09:15:35
Konkurrenz soll eine Katastrophe sein?
Aus der Sicht von Apple ist es eine Katastrophe.
MSABK
2024-06-04, 09:18:33
Ich würde es nicht als direkt Konkurrenz sehen. MacOS ist konkurrenzlos und da wechselt niemand wegen dem Chip zu Windows oder umgekehrt.
Badesalz
2024-06-04, 11:26:44
Aus der Sicht von Apple ist es eine Katastrophe.This.
Danke. Zossel darf man anscheinend nicht alles antworten was man antworten müsste.
davidzo
2024-06-04, 16:02:44
Btw, es ist zwar aufgrund der Historie einfacher CB R23 Werte zu vergleichen, aber in CB R24 und Geekbench skalieren die M-CPUs wesentlich besser.
Und es stimmt zwar dass die Geschwindigkeit der IPC und Speed Verbesserungen abgenommen hat. Aber die ursprüngliche Geschwindigkeit von A7 bis A13 lag ja auch weit über dem wie Industrie-Mittel. Wenn Apple sich jetzt also eher auf dem Industrie Mittel weiter entwickelt heißt das nicht dass man den Vorsprung verliert sondern weiterhin hält.
Wie gesagt entsteht der Eindruck von Stagnation imo hauptsächlich durch die jährlichen Releases während AMD und Intel auf einem 2-jährigen Releasetakt operieren. Die ST-Performance gewinne sind größer als die von Intel und AMD im gleichen Zeitraum. Der Abstand ist also eher noch gewachsen.
Mein subjektiver Eindruck (ich kann falsch liegen) ist, dass der Braindrain, den der Weggang der CPU Leute (Nuvia -> QCOM) da zumindest einen signifikanten Einfluss hatte.
Nun haben die Nuvia Leute es aber auch nicht geschafft eine schnellere Architektur zu bauen obwohl sie jede Menge Zeit hatten. Immerhin hat man die eigenen Projektionen bei der performance getroffen. +50% performance bei gleicher Power vor dem A13 hatte man projektiert. Allerdings war das 2019. Man hat also 5 Jahre gebraucht um das heraus zu bringen.
Bevor man daraus irgendwelche Schlüsse zur zukünftigen IPC Entwicklung der Nuvia-Cores ziehen kann muss man erstmal auf Qualcomms zweiten Wurf warten.
M1 war absolut stark und danach war es schon fast enttäuschend. IIRC sind die CPU Leute, die bei Apple gekündigt haben nach dem M1 weg. Passt ja zufällig irgendwie.
Und genau da habe ich wenig Hoffnungen mit Qcomm. Ich glaube nicht dass sie die Leute langfristig halten können. Qualcomm ist eine Firma die durch und durch von MBAs gemanaged wird, ein Graus für Ingenieure. Das Management Desaster rund um die eigenen mobile PMICs die das Nuvia-Team unbedingt verwenden musste obwohl sie nicht passten spricht da eindeutige Töne. Das Management wird ja häufig als Grund genannt wieso es 5 Jahre gedauert hat bis die CPUs endlich gelauncht sind, dreimal so lange wie geplant. Und eigentlich wollten die Nuvia-Gründer eh Server CPUs, Xeon Konkurrenten machen, deswegen sind sie ja bei Apple ausgeschieden weil sie das dort nicht durften. Qcomm hat die Pläne erstmal gestoppt, was sicher nicht so gut bei den Gründern angekommen ist.
Die Leistungsträger haben sicher ziemlich fette Earn-Out Klauseln unterschrieben die nicht nur an Jahre Unternehmenszugehörigkeit sondern auch an Milestones geknüpft sind. Wenn die aber abgelaufen sind wird jeder halbwegs behabte Ingenieur da schleunigst weg wollen. Die Angebote in der Industrie sind einfach zu lukrativ wenn dich nvidia, Intel, Mediatek, Samsung oder AMD mit Kusshand nehmen. Außerdem hast du dann zig Millionen auf dem Konto die dich wesentlich entspannter machen was Jobs mit anstrengenden Managern angeht.
Außerdem glaube ich sehr wohl dass Apple auch seine Teams umverlagert hat richtung GPU und NPU. AMD macht das auch, dass dem Radeon-Team personelle Ressourcen entzogen wurden um eine Datacenter APU zu bauen oder sogar bei Zen5c zu helfen. Es ist nicht so als wenn Chip Architects ein Leben lang CPU Floating Point Einheiten konstruieren. Jim Keller hat Befehlssätze entwickelt, Schnittstellenprotokolle, Netzwerkchips, CPUs, Tesla Dojo und Deeplearning Hardware.
CPUs sind halt nicht mehr der Performancetreiber für Computer der es in den Jahren 2000 bis 2010 war. Die Ära der hohen GPU Performancezuwächse von ca. 2005 bis 2015 neigt sich auch langsam einem Ende zu. Das ist nicht nur bei Apple so, das ist Industrieweit so. Alle ziehen im moment Manpower aus der CPU und GPU Entwicklung und investieren in die Datacenter GPUs / KI Accelerators. Was kommt als nächstes?
Zossel
2024-06-04, 17:57:35
Aus der Sicht von Apple ist es eine Katastrophe.
Soll etwa Apple die gleichen Probleme bekommen wie Intel die gerade hat?
Zossel
2024-06-04, 18:06:04
Alle ziehen im moment Manpower aus der CPU und GPU Entwicklung und investieren in die Datacenter GPUs / KI Accelerators. Was kommt als nächstes?
Wie wäre es den mal mit den dank KI selbstfahrenden Autos die uns vor 10 Jahren versprochen wurden?
davidzo
2024-06-04, 18:35:01
Wie wäre es den mal mit den dank KI selbstfahrenden Autos die uns vor 10 Jahren versprochen wurden?
Nicht mit Apple ;D die haben da ein paar Milliarden rein versenkt und dabei festgestellt dass es doch keine so gute Idee ist in den Automobilmarkt zu gehen. Und Tesla? Siehst ja wie es da jetzt läuft.:rolleyes:
robbitop
2024-06-04, 19:23:35
@davidzo
die Story mit „wir wollen lieber server cpus bauen und deshalb sind wir weg“ finde ich sehr zweifelhaft. CPU ist CPU und Herausforderungen gibt es insbesondere bei mobile mehr als genug. Die wollten sich selbstständig machen und Millionäre werden. Haben sie ja anscheinend auch geschafft - Qcom hat ihr Unternehmen teuer gekauft. :)
Ich weiß auch nicht ob man CPU Leute so einfach zu anderen IP Arten umlenken kann und dann gute Performance erwarten kann (ob die Erfahrung da transferierbar ist). Einiges erscheint mir da schon ziemlich speziell zu sein. Dass es solche Tausendsassa wie Jim gibt die alles schnell lernen glaube ich. Aber ob das mit jedem so geht…?
vinacis_vivids
2024-06-04, 19:26:03
Seit dem Steve Jobs weg ist, ist der Laden nur noch chaotisch, abgehoben und leistungsschwach.
DozerDave
2024-06-04, 19:56:35
Früher war alles besser^^
Nutzt jemand von Euch überhaupt einen M1-M4 Prozessor? Schonmal betrachtet dass das Ökosystem aus CPU und OS einfach runder läuft?
Monkey
2024-06-04, 20:28:22
Nutzt jemand von Euch überhaupt einen M1-M4 Prozessor?
Jo hier.
Schonmal betrachtet dass das Ökosystem aus CPU und OS einfach runder läuft?
Nö, was meinste?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.