PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25]

VooDoo7mx
2023-09-13, 11:18:56
Ist IMO ein "mindset" Ding mit Apple. Die sagen immer "Games whoohoo". Aber echtes Commitment da was zu machen ist da nicht. Wenn es das wäre würden sie nicht nur 99% Open Source Code klauen und 1% beisteuern um dieses "Developer Kit" zu bauen, was im H1 diesen Jahres vorgestellt wurde. Wenn sie committed wären, würden sie einen kickass Translation layer bauen, wie Valve mit Proton, der bestmöglich jedes Windows Spiel auf dem Mac laufen lässt. Spielinherente Bugs umgeht (die Kompatibilität breaken) und mit einem schlagkräftigen Team konstant daran arbeitet, dass so viele wie mögliche Games (gut) laufen. Zu jedem neuen Release gibt es dann ein Translation layer update. Ich bin mir dank Valve's Vorarbeit (und Apples erstaunlich schneller x86 translation) ziemlich sicher, dass wenn sie es wollten, Spiele ziemlich gut auf Macs laufen könnten.
Wenn sie mit Valve partnern würden, würde Valve vielleicht sogar ein Teil des "Legworks" für sie übernehmen wer weiß?
Und natürlich müssten sie ihre Treiber etwas mehr auf 3D Games optimieren.

Tja zumindest bisher ist das mindset bei Apple dafür nicht da. Aber es wäre sicherlich nicht schädlich für Apple das zu ändern.

Wenn man sich anschaut, was die in HW bauen. Eine top moderne GPU mit offenbar hohem RT HW Level (und meshshading), sogar modernes temporales Upsampling (auf CB steht sogar dass das auf einem NN basieren soll). Und dann wird das alles nur halbherzig genutzt und größtenteils nur für Bildbearbeitung und Videoschnitt (die nur ein Bruchteil der Features benötigen).
Aber wer weiß - vielleicht überrascht Apple uns ja doch noch und man kann in ein paar Jahren relativ gut auf Macs spielen.


Apple soll einfach Vulkan unterstützen und fertig.
Dann kann praktisch Valve mit Proton übernehmen und ein paar Apple Engneers arbeiten mit Valve zusammen.

Das ist aber nicht der Apple-way. Wenn es Spiele auf dem Mac gibt dann nur zu überteuerten Preisen im Mac Store. Apple ist ja bekanntlich sehr knapp bei der Kasse und muss bei jeden Verkauf mitverdienen.
Zusammenarbeit mit anderen Firmen? Niemals! Softwareverkäufe in anderen Stores? Bestenfalls noch geduldet.

Assasins Creed und Resident Evil kommen auf das iPhone. Bedeutet dies, dass das auch nativ auf dem MacBook laufen wird?

Jede iOS/iPadOS App läuft nativ und ohne Anpassung auf Mac OS mit ARM Prozessoren.
Der Ersteller muss nur im Store einen Haken setzen, damit die auch im MAC Store auftauscht. Was viele natürlich nicht machen. Wäre ja auch zu einfach.

Ailuros
2023-09-13, 11:55:50
Darf gerne alles in Hardware unterstützt werden, da habe ich nichts dagegen :) Allerdings finde ich wachsen iOS wie Android mal so gar nicht, hinsichtlich Software und neuen Möglichkeiten. Aber klar, was machen die Leute schon an ihrem Smartphone außer Instagram und Co.? Logisch dass sich da keiner abmüht großartig mehr aus der Hardware zu holen.

IMHO entwickelt Apple heute nicht mehr SoCs fuer tablets/smartphones, sondern einer quasi Grundlage von ULP SoCs fuer ein smartphone bis zu einem bombastischen SoC fuer laptops und co. oder eben anders A17 zu M3 (und dann natuerlich die die-Multiplizierung bis zum M3 Ultra).

Ich hab auch das Gefuehl dass die meisten hier den Aufwand fuer hw RT ueberschaetzen; mal sehen ob zukuenftige die shots fuer die GPUs zwischen A17 und A16 helfen. Grob einschaetzen kann man es schon. Ich lass mich gerne eines besseren belehren aber ich hab das Bauchgefuehl dass die RAC units in etwa so gross sind wie eine raster/geometry unit in der GPU.

***edit: IMG gibt natuerlich keine Daten an aber Wizard war die erste SoC GPU IP (eine quad core Rogue GPU) mit dedizierten RT hw Einheiten. Als ich Rys damals bei B3D fragte ob das transistoren-budget fuer den RT Teil nenneswert waere sagte er einfach nein. Wizard stammt aus 2015 und wurde afaik nie in hw realisiert: https://www.highperformancegraphics.org/slides23/2023-06-_HPG_IMG_RayTracing_2.pdf Ebenso gute Lektuere McCombe war ein ex Apple engineer und eines der Vaeter von Caustic: https://dlnext.acm.org/doi/abs/10.1145/2504435.2504444

Sonst wenn Apple irgendwelche extravagantere Plaene fuer AR/VR in der Zukunft hat, wuerde ich effiziente RT hw als eine absolute Notwendigkeit ansehen.

Daredevil
2023-09-13, 11:59:31
Assasins Creed und Resident Evil kommen auf das iPhone. Bedeutet dies, dass das auch nativ auf dem MacBook laufen wird?

Resident Evil Village haste heute schon nativ mit AI Upscaling.

@Ailuros
„Apple Silicon“ beginnt doch bei der Watch, oder? Die hat ja nun auch bald ne neural engine drin. ^^
Und der alte Watch Chip werkelt ja im neuen HomePod.

Ailuros
2023-09-13, 12:20:45
@Ailuros
„Apple Silicon“ beginnt doch bei der Watch, oder? Die hat ja nun auch bald ne neural engine drin. ^^
Und der alte Watch Chip werkelt ja im neuen HomePod.

Wie meinen?

***edit: wenn ich Dich nicht falsch verstanden habe Apple hat zwar schon frueher angefangen die GPU ALUs umzukrempeln aber offiziell war ihr erster "custom" design fuer 2016 angekuendigt.

RBG
2023-09-13, 12:31:31
Assasins Creed und Resident Evil kommen auf das iPhone. Bedeutet dies, dass das auch nativ auf dem MacBook laufen wird?
Die Resident Evil Teile kommen laut Capcom auch für iPads mit M1 und M2 Chip und Mac.
Bei AC Mirage habe ich noch nichts offizielles gelesen.

https://www.capcom-games.com/apple/en-us/

The_Invisible
2023-09-13, 12:35:46
Die iPads haben ja erst ab der 1TB Variante 16GB RAM, reichen dafür 8GB wirklich aus? Aber gut, wahrscheinlich darauf optimiert...

Daredevil
2023-09-13, 12:47:05
Wie meinen?

***edit: wenn ich Dich nicht falsch verstanden habe Apple hat zwar schon frueher angefangen die GPU ALUs umzukrempeln aber offiziell war ihr erster "custom" design fuer 2016 angekuendigt.
Nichts wildes. Ich meinte nur, dass Apple Silicon nicht beim iPhone anfängt, sondern doch auch schon in der Watch steckt. Jetzt weiß ich natürlich nicht, ob der "S9 SiP" auch in 3nm gefertigt ist, vermutlich nicht, aber der ähnelt ja dem AXX laut den Bildern bei Apple. Also CPU Cores, GPU Cores, Neural Engine.

Ailuros
2023-09-13, 12:56:03
Nichts wildes. Ich meinte nur, dass Apple Silicon nicht beim iPhone anfängt, sondern doch auch schon in der Watch steckt. Jetzt weiß ich natürlich nicht, ob der "S9 SiP" auch in 3nm gefertigt ist, vermutlich nicht, aber der ähnelt ja dem AXX laut den Bildern bei Apple. Also CPU Cores, GPU Cores, Neural Engine.

https://en.wikipedia.org/wiki/Apple_silicon#Apple_S3

Custom GPUs ab S4 ie ~2018

Nightspider
2023-09-13, 13:18:14
Der Chip vom letzten Jahr wurde angeblich in N7P gefertigt, also wird der Chip in der neuesten Apple Watch mit 60% mehr Transistoren sicherlich in N5P oder N4 o.ä. gefertigt werden.

Kann man auf den Apple Watches eigentlich Benchmarks laufen lassen?

Die absolute Leistung, im Vergleich zu PC Hardware, würde mich mal interessieren, genauso wie die Die Size.

davidzo
2023-09-13, 13:18:24
Das spricht für ein relativ hohes HW Level für RT. (verglichen mit RDNA3)

Das weiß man nicht, vielleicht ist es auch ähnlich wie bei RDNA3 und die Rasterperformance ist auch vergleichbar schneller geworden. Das würde in eine Linie zu früheren Apple SOCs passen die immer schon recht starke GPUs auf APU level hatten.
Phoenix ist halt auch nur eine kleine APU und schon der A14 hatte eine GPU die mit den damaligen AMD APUs mithalten konnte. Apple SOCs sind halt auch weniger bandbreitenlimitiert durch den LPDDR5 dank großzügigem System Level Cache.
Direktvergleiche sind schwer zu finden, am ehesten findet man noch was zum M1 der ja genau doppelt soviele GPU Cores (8C) hatte wie der A14 (4C).
Bei Anandtech hatte die M1 GPU den 4700U um durchschnittlich Faktor 2 geschlagen und auch die diskrete 560X und GTX 1650 im Griff.

A15 und A16 hatten beide bei der GPU kaum Fortschritt mit lediglich 5-Cores und geringfügig mehr Takt.
Insofern ist es eh an der Zeit gewesen mit einem echten Fullnodesprung jetzt mal wieder zu den Labtop APUs auzuschießen.




Was so ein M3 aus dem Steamdeck Formfaktor rausholen könnte, wenn Spiele nativ liefen...

Ja, es ist schon krass das einige Telefone (iphones) erheblich mehr Spieleperformance bieten als mobile Spielekonsolen. Andererseits bei der extremen Preisdifferenz auch wenig verwunderlich: Ab 349€ vs ab 1199€

Ailuros
2023-09-13, 14:19:54
Das weiß man nicht, vielleicht ist es auch ähnlich wie bei RDNA3 und die Rasterperformance ist auch vergleichbar schneller geworden. Das würde in eine Linie zu früheren Apple SOCs passen die immer schon recht starke GPUs auf APU level hatten.
Phoenix ist halt auch nur eine kleine APU und schon der A14 hatte eine GPU die mit den damaligen AMD APUs mithalten konnte. Apple SOCs sind halt auch weniger bandbreitenlimitiert durch den LPDDR5 dank großzügigem System Level Cache.
Direktvergleiche sind schwer zu finden, am ehesten findet man noch was zum M1 der ja genau doppelt soviele GPU Cores (8C) hatte wie der A14 (4C).
Bei Anandtech hatte die M1 GPU den 4700U um durchschnittlich Faktor 2 geschlagen und auch die diskrete 560X und GTX 1650 im Griff.

Potential auf Papier haben die Tiere schon, nur eben einfach zu vernachlaessigte GPU Treiber fuer gaming.

4k und ein synthetischer benchmark wo man so manche GPU in Theorie vergleichen kann, aber in Echtzeit-Spielen dann wohl eher die Sintflut fuer Apple:

https://gfxbench.com/result.jsp?benchmark=gfx50&test=778&order=median&base=gpu

(Vorsicht: standalone GPU scores sind meistens uebertaktet)

A15 und A16 hatten beide bei der GPU kaum Fortschritt mit lediglich 5-Cores und geringfügig mehr Takt.
Insofern ist es eh an der Zeit gewesen mit einem echten Fullnodesprung jetzt mal wieder zu den Labtop APUs auzuschießen.

Ich hab das Gefuehl dass Apple nach der Series7Plus GPU ihre umgekrempelten ALUs auf 64 SIMD lanes/cluster geaendert hat. Keine Ahnung ob sie inzwischen auf 128SPs/cluster gestiegen sind, man weiss auch meistens nie was in solch einem Tier steckt.

Auf jeden Fall ist +20% mehr Leistung von A16 zu A17 nichts wirklich besonderes. In Echtzeit ist es nichtmal M1 GPU Leistung ausser ich habe etwas falsch verstanden.

***edit: apropos smartphone SoCs: es hat sich bei ULP SoCs nichts fundamentales geaendert und wird sich auch nicht aendern IMHO wenn es zu Langzeit-Leistung kommt. Ein smartphone mit einem A17 wird ein brutal strenges DVFS haben muessen. Im Langlauf und sobald die Dinger heiss werden wird automatisch runtergekaktet und ein Entwickler kann sich stets bis zu 50% Rohleistung abrechnen dafuer. Hat jetzt eine solche GPU 1 TFLOP FP32 peak und bleibt nach brutalem Stress am Ende nur noch 0.5 TFLOP uebrig muss ein jeglicher sw developer mit diesen Papiertigern kaempfen. Ein M3 dann mit genau gleichen Einheiten, aber mit um einiges laessigerem DVFS verwandelt sich dann schnell in ein ganz anderes Tier von so oder so hoeheren peak Frequenzen mal ganz zu schweigen.

Nightspider
2023-09-13, 14:31:07
Ja, es ist schon krass das einige Telefone (iphones) erheblich mehr Spieleperformance bieten als mobile Spielekonsolen. Andererseits bei der extremen Preisdifferenz auch wenig verwunderlich: Ab 349€ vs ab 1199€

Das war allerdings schon vor 6,5 Jahren so, als die Switch auf den Markt kam.

Heute ist vielleicht schon die Apple Watch 9 schneller als die Switch. ;D

Sweepi
2023-09-13, 15:37:46
Der Ersteller muss nur im Store einen Haken setzen, damit die auch im MAC Store auftauscht. Was viele natürlich nicht machen. Wäre ja auch zu einfach.

Afaik wurde das umgestellt: Mittlerweile müssen die Entwickler einen Haken setzen, sonst taucht die iPad App automatisch im Mac Appstore auf.

robbitop
2023-09-13, 15:41:15
Apple soll einfach Vulkan unterstützen und fertig.
Dann kann praktisch Valve mit Proton übernehmen und ein paar Apple Engneers arbeiten mit Valve zusammen.
Ich kann mir vorstellen, dass es deutliche Vorteile gibt, wenn man eine eigene API für die eigene HW hat. Aber was soll's Apple hat die Manpower einen eigenen Wrapper zu bauen.
Genauso bildet Proton ja auch nicht die Laufzeitumgebung für Mac ab. Proton ist viel mehr als nur ein DXVK.

davidzo
2023-09-13, 15:45:39
Auf jeden Fall ist +20% mehr Leistung von A16 zu A17 nichts wirklich besonderes. In Echtzeit ist es nichtmal M1 GPU Leistung ausser ich habe etwas falsch verstanden.

Wenn der A14, A15, A16, A17 jeweils 20% Mehrleistung bringen, dann komme ich bei 6,9 GPU Cores raus. Der A17 sollte also mit der 7-Core GPU im Macbook Air vergleichbar sein.* Zwischen A14 und A15 sind es fast +50%, zwischen A15 und A16 dagegen kaum 10%.

In den wenigen plattformunabhängigen voll supporteten Titeln und Benchmarks ist so eine M1 GPU 1,7x bis 2,2x so schnell wie eine Vega 8.
Und Phoenix ist auch ca. 1,6x bis 1,9x so schnell wie eine Vega8.


Im Langlauf und sobald die Dinger heiss werden wird automatisch runtergekaktet und ein Entwickler kann sich stets bis zu 50% Rohleistung abrechnen dafuer. Hat jetzt eine solche GPU 1 TFLOP FP32 peak und bleibt nach brutalem Stress am Ende nur noch 0.5 TFLOP uebrig muss ein jeglicher sw developer mit diesen Papiertigern kaempfen. Ein M3 dann mit genau gleichen Einheiten, aber mit um einiges laessigerem DVFS verwandelt sich dann schnell in ein ganz anderes Tier von so oder so hoeheren peak Frequenzen mal ganz zu schweigen.
Das ist imo stark übertrieben. Ein A15 im iphone13 pro throttelt üblicherweise nur um 10-20%. Von 50% habe ich noch nichts gehört solange der Akku heil ist und das ding nicht gerade auf dem armaturenbrett gegrillt wird.
Das ganze ist aber bei der steamdeck oder mobilen gaming Labtops auch nicht anders, Intel ist da abseits der Steckdose meistens noch viel schlimmer.
Dass ein M1max Macbook pro auch mobil immer die volle CPU und GPU Leistung abrufen konnte ist da eher eine industrieweite Ausnahme und war auch für Apple was besonderes. Der M2 soll sich da gerüchteweise schon etwas anders verhalten.

Aber ja, wenn die Leistung im A17 schon so gut aussieht bin ich gespannt auf die Labtop/Desktopversionen der GPU µArch. Die könnte tatsächlich konkurrenzfähig sein mit AMD und Nvidia Hardware auch Leistungsmäßig. Der M1Ultra hatte die 16fache Hardwareausstattung eines A14. Das 16fache in 3Dmark Solar-Bay wäre auf dem Niveau von übertakteten 4090ern.

Aber es steht und fällt eben mit der Vulkan-Unterstützung. Das Apple alle Spieleentwickler bei Metal mit an board bekommt, daran glaube ich einfach nicht. Die Berichte dass die Hauptkosten eines advanced Chip Designs mittlerweile die Software und Treiberentwicklung sind, gelten sicher auch für Apple: https://www.3dcenter.org/news/news-des-7-september-2023

smalM
2023-09-13, 19:46:52
Apple soll einfach Vulkan unterstützen und fertig.
Aber es steht und fällt eben mit der Vulkan-Unterstützung.
Ist Apple ziemlich egal.
Wenn Du auf deren Ökosystem mit über 1 Milliarde Geräten reüssieren willst, sollst Du Metal benutzen, sonst hält Dich Apple da halt für irrelevant.
Und wenn man jeden Tag eine Milliarde $ umsetzt und ein Viertel Milliarde $ Gewinn macht, ist der Druck das anders zu sehen nicht gerade besonders hoch. ;)

Daredevil
2023-09-13, 23:50:22
Wenn der A14, A15, A16, A17 jeweils 20% Mehrleistung bringen, dann komme ich bei 6,9 GPU Cores raus. Der A17 sollte also mit der 7-Core GPU im Macbook Air vergleichbar sein.* Zwischen A14 und A15 sind es fast +50%, zwischen A15 und A16 dagegen kaum 10%.

Der Sprung war teilweise kleiner, als auch größer, weil beim 14pro auch einfach mehr Kerne dazu bekommen sind. Ich unterhalte im Benchmark Forum so eine kleine Geekbench Historie ( I know, Geekbench ist nicht Raw GPU ), da sieht man gerade im MC und beim Compute Test schon schöne anstiege. SC ist in der Tat stiefmütterlich, allerdings frage ich mich halt auch, ob man sich darauf fokussieren muss? Weil "schnell genug" ist ein einzelner Kern sicherlich für ein Smartphone. Im Cinebench würde ein A17 Performance Kern beim HighEnd von AMD und Intel mitspielen und gerade im Notebook/Desktop/Workstation Bereich sind schnellere Effizienzkerne sicherlich zielführender, weil Apple ja Perf/Watt fokussiert.

Und es ist wieder soweit :)

Single Core:
iPhone XR: 1115pts
iPhone 11: 1338pts +20%
iPhone 12: 1580pts +18%
iPhone 13: 1714pts +8%
iPhone 14Pro: 1871pts +9%

Multi Core:
iPhone XR: 2597pts
iPhone 11: 3417pts +31%
iPhone 12: 3944pts +15%
iPhone 13: 4552pts +15%
iPhone 14Pro: 5330pts +17%

Compute:
iPhone XR: 4392pts
iPhone 11: 6303pts +43%
iPhone 12: 9233pts +47%
iPhone 13: 10994pts +19%
iPhone 14Pro: 15731pts +43%

Ein M1 ist im Compute Score bei 20736pts :eek:

Wir machen einfach mal einen LongTerm Vergleich:
Was hat sich seit dem iPhone XR getan?
SingleCore +67%
MultiCore +205%
Compute +358%
Zur Neural Engine habe ich keine Tests, die hat sich aber von M1>M2 verdoppelt und müsste sich somit im vergleich zum M1 nun vervierfachen.

Und ich persönlich in meinem Workflow im Social Media Bereich ( Text, Bild, Video, KI Berechnungen ) finde den Fokus auf Effizienz/MC/GPU/Neural Engine auch ehrlich gesagt nicht verkehrt, anstatt im SC ganz oben zu sein. Allerdings sind um die 10% für die Fluppdizität nie verkehrt. :D
Für den Kino Modus ist das iPhone auch immer noch lahm, selbst das 14pro. Wenn man 30min mit dem CinemaMode aufnimmt, muss der erstmal 10-20min berechnen, bevor ich es zum MacBook Airdroppen kann. Da fehlt irgendwo entscheidend Power.

davidzo
2023-09-14, 00:30:46
Missverständnis, ich dachte wir reden gerade immer noch von Grafikleistung, also "GPU-Cores". Da müsste der A17 mittlerweile fast doppelt so schnell sein wie der A14, bzw. mit einem M1 mit 7Kern GPU / 896Alus mithalten können wenn man grob vereinfacht durchschnittlich 20% Mehrleistung pro Generation annimmt.

Daredevil
2023-09-14, 00:48:36
Das könnte imho auch so hinkommen anhand meiner Laienzahlen. Der A17 wäre demnach auch ein schöner SoC für einen kommenden AppleTV mit AI Upscaling ect. :)
Also wäre WoW demnach sogar drin. :D

Redneck
2023-09-14, 08:38:29
Das könnte imho auch so hinkommen anhand meiner Laienzahlen. Der A17 wäre demnach auch ein schöner SoC für einen kommenden AppleTV mit AI Upscaling ect. :)
Also wäre WoW demnach sogar drin. :D
Hatte ich auch schon gedacht, gerade mit AV1 Support in Hardware, aber bis das kommt wirds dauern. Der Chip ist in der Produktion bestimmt einiges teurer als der A15 (welcher wahrscheinlich auch nur Resteverwertung nicht 100%er Chips im ATV ist). Bildverbesserer ist auch dringend nötig, wenn ich das Teil (ATV4k gen2) gegen die netflix/prime streams von meinem Panasonic ub424 uhd player Vergleiche. Das ist schon enorm, was der Pana da mit seinem HCX herausholt.

smalM
2023-09-14, 09:52:06
Die ersten paar GB6 Einträge sind für den A17 aufgetaucht. Hier ein Vergleich zu einem (sehr schnellen) A16 (https://browser.geekbench.com/v6/cpu/compare/2592831?baseline=1619977).

Ailuros
2023-09-14, 10:40:15
Wenn der A14, A15, A16, A17 jeweils 20% Mehrleistung bringen, dann komme ich bei 6,9 GPU Cores raus. Der A17 sollte also mit der 7-Core GPU im Macbook Air vergleichbar sein.* Zwischen A14 und A15 sind es fast +50%, zwischen A15 und A16 dagegen kaum 10%.

In den wenigen plattformunabhängigen voll supporteten Titeln und Benchmarks ist so eine M1 GPU 1,7x bis 2,2x so schnell wie eine Vega 8.
Und Phoenix ist auch ca. 1,6x bis 1,9x so schnell wie eine Vega8.

https://gfxbench.com/result.jsp?benchmark=gfx50&test=778&order=median&base=gpu&ff-check-desktop=0

Apple behauptet selber bis zu 20% Mehr-leistung fuer die GPU zwischen A17 und A16.

Ein Adreno740 vom letzten Jahr erreicht uebrigens um die 25-29 fps im gleichen Test (ich weiss leider nicht wo der Durchschnitt liegt aber schaetzungsweise =/>23fps); liegt der A17 jetzt irgendwo bei 20+ fps im Durchschnitt ist es wohl das erste Mal in letzten Jahren wo eine smartphone GPU nicht vor der gesamten Konkurrenz in GPU Leistung liegt.


Das ist imo stark übertrieben. Ein A15 im iphone13 pro throttelt üblicherweise nur um 10-20%. Von 50% habe ich noch nichts gehört solange der Akku heil ist und das ding nicht gerade auf dem armaturenbrett gegrillt wird.
Das ganze ist aber bei der steamdeck oder mobilen gaming Labtops auch nicht anders, Intel ist da abseits der Steckdose meistens noch viel schlimmer.
Dass ein M1max Macbook pro auch mobil immer die volle CPU und GPU Leistung abrufen konnte ist da eher eine industrieweite Ausnahme und war auch für Apple was besonderes. Der M2 soll sich da gerüchteweise schon etwas anders verhalten.

Welcher ISV hat den in letzter Zeit einen echten Qual-benchmark entwickelt dass eine andere Geschichte zeigen koennte als etwas womit sich die GPU nur so nebenbei langweilt? Kishonti benutzt immer noch den veralteten Manhattan3.1 test womit fast alle neuen ULP GPUs die 60 fps onscreen erreichen und somit auch ueberhaupt keine Leistung verlieren. Wuerde sich jemand um so einen Stresstest scheren und dazu auch noch die jeweilige Temperatur messen wuerde nach sagen wir mal 3 Stunden Quaelerei dann waeren =/>30% leicht am Hut. Es waren sw Entwickler die behaupteten dass man mit ULP SoC fuer bis zu 50% Verlust rechnen kann, nicht ich.

Sonst ist ein smartphone mit einem tablet und alles groesserem darueber schlecht vergleichbar, schon von der Groesse des Geraets. Insgesamt gab es bis jetzt kein grosses Interesse von Spiele-entwicklern fuer solche Platformen egal welches Potential jegliche heute hat.

Ich lass mich gerne angenehm ueberraschen mit der M3 GPU Leistung, aber A17 klingt mir momentan als viel zu langweilig.

Aber es steht und fällt eben mit der Vulkan-Unterstützung. Das Apple alle Spieleentwickler bei Metal mit an board bekommt, daran glaube ich einfach nicht. Die Berichte dass die Hauptkosten eines advanced Chip Designs mittlerweile die Software und Treiberentwicklung sind, gelten sicher auch für Apple: https://www.3dcenter.org/news/news-des-7-september-2023

Meh dafuer hat Apple zu viele Interessen-Konflikte IMHO. Ja zum letzten. Waeren sie wirklich an gaming interessiert wuerden sie auch keine so hohen Prozentuale fuer Spiel-Verkaeufe verlangen.

Ich kann mir zwar schwer vorstellen dass es irgendwann soweit kommt, aber wuerde Apple 1 oder mehr Gereaete primaer fuer gaming/entertainment planen dann koennte sich einiges aendern.

***edit: OT and apropos A17 zu Konsolen-Vergleiche um Missverstaendnissen zu entgehen:

Ryan Smith - Tuesday, September 12, 2023 - link
Feature parity. No one is claiming performance parity. 3nm is good, but it's not that good.

https://www.anandtech.com/show/20051/the-apple-2023-fall-iphone-event-live-blog

Zossel
2023-09-14, 12:08:38
Ich kann mir zwar schwer vorstellen dass es irgendwann soweit kommt, aber wuerde Apple 1 oder mehr Gereaete primaer fuer gaming/entertainment planen dann koennte sich einiges aendern.

Welchen Mehrwert könnte so ein Gerät haben um bei Apple Preisen gegen die Konkurrenz zu bestehen?

Ailuros
2023-09-14, 13:56:02
Welchen Mehrwert könnte so ein Gerät haben um bei Apple Preisen gegen die Konkurrenz zu bestehen?

Eine Frage fuer Apple's Marketing-Abteilung. Haette ich eine Antwort fuer eine solche Frage haette ich nicht ein Poco F3 sondern ein Iphone 14 in der Hosentasche ;)

KarlKastor
2023-09-14, 16:21:28
Das ist imo stark übertrieben. Ein A15 im iphone13 pro throttelt üblicherweise nur um 10-20%. Von 50% habe ich noch nichts gehört solange der Akku heil ist und das ding nicht gerade auf dem armaturenbrett gegrillt wird.

Ein iPhone XS verliert 44%, iPhone 11 42% und ein iPhone 12 knapp 30% in Aztec Ruins.
https://www.anandtech.com/show/16192/the-iphone-12-review/4

Daredevil
2023-09-15, 00:17:57
Spannend, das man im Geekbench bereits Werte von CPU SC/MC und CoreML sieht, aber keine GPU Werte. Ob da wohl doch was "überraschendes" auf uns zu kommt?

Laut 9to5mac schaut es so aus:
A15 Bionic: 2183 single-core | 5144 multi-core
A16 Bionic: 2519 single-core | 6367 multi-core
A17 Pro: 2914 single-core | 7199 multi-core
M1: 2223 single-core | 7960 multi-core

( Wobei GB6 natürlich nicht nur die CPU fordert )

Hier kann man mal selbst stöbern:
https://browser.geekbench.com/search?k=ml_inference&q=iPhone16%2C1

Hier ist der Vergleich A16 vs. A17
https://browser.geekbench.com/v6/cpu/compare/2592831?baseline=2601985

robbitop
2023-09-15, 08:12:49
Der Takt ist auch gar nicht mehr so gering von den P Cores. 3,77 GHz.

smalM
2023-09-16, 18:30:07
Spannend, das man im Geekbench bereits Werte von CPU SC/MC und CoreML sieht, aber keine GPU Werte.
GB5: https://browser.geekbench.com/v5/compute/compare/6633334?baseline=6632961
GB6: https://browser.geekbench.com/v6/compute/compare/930648?baseline=930865

Ailuros
2023-09-18, 14:51:14
https://gfxbench.com/compare.jsp?benchmark=gfx50&did1=117314481&os1=iOS&api1=metal&hwtype1=iGPU&hwname1=Apple+A17+Pro+GPU&did2=109254608&os2=iOS&api2=metal&hwtype2=iGPU&hwname2=Apple+A16+GPU

Nichts besonderes; next.....

Nennenswerter Unterschied Aztec ruins high mit +40% mehr Leistung. Sonst scheint sich an Tessellation nichts geaendert zu haben (Car chase) und ich hab den Verdacht dass sie zwar mehr clusters in der GPU im Vergleich zum A16 haben, aber womoeglich auch etwas beischeidenere Frequenzen fuer die GPU. Geometrie, texel und pixel Fuellraten sind leicht geringer stellenweise.

urpils
2023-09-18, 17:58:17
https://gfxbench.com/compare.jsp?benchmark=gfx50&did1=117314481&os1=iOS&api1=metal&hwtype1=iGPU&hwname1=Apple+A17+Pro+GPU&did2=109254608&os2=iOS&api2=metal&hwtype2=iGPU&hwname2=Apple+A16+GPU

Nichts besonderes; next.....

Nennenswerter Unterschied Aztec ruins high mit +40% mehr Leistung. Sonst scheint sich an Tessellation nichts geaendert zu haben (Car chase) und ich hab den Verdacht dass sie zwar mehr clusters in der GPU im Vergleich zum A16 haben, aber womoeglich auch etwas beischeidenere Frequenzen fuer die GPU. Geometrie, texel und pixel Fuellraten sind leicht geringer stellenweise.

was glaubst du, wo die Performance-Regression her kommt? (also Texturfüllrate oder was ist da geringer?)

könnte das ein Software-Treiber-Ding sein oder haben Sie ne andere Hardware-Abwägung getroffen?

dildo4u
2023-09-20, 09:22:32
RE Village auf A17 Pro auf 720p/30fps gelockt schätze mal damit das Smartphone nicht überhitz hoffe wir bekommen bald M1/M2 Benches.
A17 Pro scheint deutlich mehr zu saufen und trottelt stärker.

1h_CT9HJt90

Ailuros
2023-09-20, 10:27:10
was glaubst du, wo die Performance-Regression her kommt? (also Texturfüllrate oder was ist da geringer?)

könnte das ein Software-Treiber-Ding sein oder haben Sie ne andere Hardware-Abwägung getroffen?

Bei einem cluster mehr und leicht geringerer Leistung in tests die sich auf Fuellrate, Geometrie, ROPs usw beziehen kann ich persoenlich nur an geringere Frequenz als im A16 denken. In allen anderen benchmark tests liegt die A17 GPU im Vorsprung mit einem peak von den voerwaehnten +40% in Aztec ruins high.

In 4k Aztec ruins scheinen momentan beide SoCs GPUs im Gleichstand zu sein; falls dem so bleibt (es gibt noch nicht genug Testdurchlaeufe um Schlussfolgerungen zu ziehen) dann sehen wir im gleichen Test von 1440p zu 4k von 40% auf nur geringen Unterschied (4%), wo es dann wohl auch an Bandbreite fehlen koennte fuer A17.

Ich wuerde fuer den zukuenftigen M3 oder wie immer der SoC heissen wird kein aehnliches Verhalten erwarten, dank grosszuegigerem DVFS und hoffentlich mehr Bandbreite als im A17.

mboeller
2023-09-20, 11:02:43
.
A17 Pro scheint deutlich mehr zu saufen und trottelt stärker.


Ja, schaut so aus. 14w !

in dem Apple-Thread:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13398740&postcount=11226

dildo4u
2023-09-22, 17:06:48
Hoffe es gibt schnell Werte Baldurs Gate 3 hat offiziellen Apple Support.(M1 oder besser)


https://store.steampowered.com/news/app/1086940/view/3718340776819602796

smalM
2023-10-02, 18:34:50
Bei einem cluster mehr und leicht geringerer Leistung in tests die sich auf Fuellrate, Geometrie, ROPs usw beziehen kann ich persoenlich nur an geringere Frequenz als im A16 denken.
A17 Pro delivers 2TFLOPs compute throughput. That gives us the GPU clock of 1.3Ghz (https://forums.macrumors.com/threads/m3-chip-generation-speculation-megathread.2393667/post-32571544)

hoffentlich mehr Bandbreite als im A17
Apple neigt dazu ein SI mindestens zwei Jahre beizubehalten.
Erst M2 bekam LPDDR5 und ich denke deshalb M3 wird es auch haben.
Da bereits M1 Pro/Max LPDDR5 hatten, könnte es hier zu einem Wechsel zu LPDDR5X kommen.

Ailuros
2023-10-03, 13:29:15
A17 Pro delivers 2TFLOPs compute throughput. That gives us the GPU clock of 1.3Ghz (https://forums.macrumors.com/threads/m3-chip-generation-speculation-megathread.2393667/post-32571544)

Ergo wahrscheinlich um ~8% geringerer Takt (peak) im Vegleich zur A16 GPU (schwirrt im Netz rum keine Ahnung ob es stimmt). Zwar sind jegliche Test-resultate noch etwas zwielichtig aber A17 scheint bis jetzt etwas mehr zu verbrauchen fuer die GPU, was aber nicht besonders viel Sinn macht. 20% mehr Einheiten und ~8% weniger Takt.... :rolleyes:

smalM
2023-10-26, 15:00:27
Das Apple Event ist am Dienstag um 1:00 Uhr (da die Sommerzeit in den USA erst eine Woche später umgestellt wird, sind es nur 8 statt 9 Stunden).

"Scary Fast" -- der Mac Pro mit Quad M2 Max kommt doch noch! ;D

Nightspider
2023-10-29, 09:44:15
Mit dem N3 Prozess hat Apple scheinbar fast mehr Nachteile als Vorteile oder?

Wird der M3 dann schon im besseren N3E Prozess kommen?

Ansonsten dürften auch da viele entäuscht werden.

y33H@
2023-10-29, 13:47:46
HVM von N3E war für H2'23 angesetzt, wird also wohl N3B sein.

smalM
2023-10-30, 16:15:08
HVM von N3E war für H2'23 angesetzt, wird also wohl N3B sein.
HVM von N3E wurde von C.C. Wei in der Earnings Conference am 19. Oktober für das 4. Quartal angekündigt.

y33H@
2023-10-30, 22:21:27
OK =)

Ailuros
2023-10-31, 06:44:25
https://www.anandtech.com/show/21114/the-apple-scary-fast-event-live-blog-starts-at-5pm-pt0000-utc

Ok benchmarks mal abwarten.

fizzo
2023-10-31, 07:31:17
https://nanoreview.net/en/cpu-compare/apple-m3-vs-apple-m2

Mein erster Eindruck, solide.

edit: der M3 Max ist ein Monster!

boxleitnerb
2023-10-31, 07:42:53
https://nanoreview.net/en/cpu-compare/apple-m3-vs-apple-m2

Mein erster Eindruck, solide.

Was haben die da getestet? Der M3 Pro hat 12, nicht 14 Kerne.

fizzo
2023-10-31, 08:08:44
Was haben die da getestet? Der M3 Pro hat 12, nicht 14 Kerne.

Hm, wo siehst du da den Pro? Ist ja M2 vs. M3.

edit: hier die Pro Varianten https://nanoreview.net/en/cpu-compare/apple-m3-pro-vs-apple-m2-pro

Stimmt, ist falsch!

spotz
2023-10-31, 11:36:55
Als gerüchteweise von 36 GB RAM Konfigurationen geschrieben wurde, dachte ich mir schon das Apple jetzt Triple- und Hexachannel beim Speicher nutzt. Aber ich dachte sie würden die Speicherbandbreite erhöhen und nicht verringern! Der M3 Pro hat jetzt nur noch 150 GB/s statt 200GB/s und der M3 Max mit 30 Grafikkernen nur noch 300 GB/s statt 400 GB/s. Lediglich der M3 Max mit 40 Grafikkernen hat noch die 400 GB/s, wie seine Vorgänger.

Wie sich das bei Raytracing und anderen Anwendungen wohl auswirken wird?

MSABK
2023-10-31, 13:43:34
2000€ für ein Notebook mit 8gb Ram kann auch nur Apple anbieten.:D

w0mbat
2023-10-31, 14:12:42
Für 1999€ hat man M1 Pro mit 16GB RAM und 512GB SSD bekommen, jetzt zahl man dafür 2499€ (M3 Pro, 18GB RAM, 512GB SSD).

Eine Preissteigerung um 25%!

mboeller
2023-10-31, 14:17:38
Als gerüchteweise von 36 GB RAM Konfigurationen geschrieben wurde, dachte ich mir schon das Apple jetzt Triple- und Hexachannel beim Speicher nutzt. Aber ich dachte sie würden die Speicherbandbreite erhöhen und nicht verringern! Der M3 Pro hat jetzt nur noch 150 GB/s statt 200GB/s und der M3 Max mit 30 Grafikkernen nur noch 300 GB/s statt 400 GB/s. Lediglich der M3 Max mit 40 Grafikkernen hat noch die 400 GB/s, wie seine Vorgänger.

Wie sich das bei Raytracing und anderen Anwendungen wohl auswirken wird?

wo wirkt sich die verringerte Bandbreite aus? Abgesehen von Spielen natürlich.

mczak
2023-10-31, 15:04:19
Als gerüchteweise von 36 GB RAM Konfigurationen geschrieben wurde, dachte ich mir schon das Apple jetzt Triple- und Hexachannel beim Speicher nutzt. Aber ich dachte sie würden die Speicherbandbreite erhöhen und nicht verringern! Der M3 Pro hat jetzt nur noch 150 GB/s statt 200GB/s und der M3 Max mit 30 Grafikkernen nur noch 300 GB/s statt 400 GB/s. Lediglich der M3 Max mit 40 Grafikkernen hat noch die 400 GB/s, wie seine Vorgänger.

Insbesondere der M3 Pro wurde offenbar deutlich kostenoptimiert - gegenüber dem M2 Pro 6+6 CPU Konfiguration (statt 8+4), ein GPU-Kern weniger, schmaleres SI. Man hätte natürlich das schmalere SI auch mit schnellerem lppdr5x Speicher kompensieren können aber das kostet halt auch Transistoren. Da der Chip insgesamt 10% weniger Transistoren hat als noch der M2 Pro (M3 Pro gegenüber M3 bloss +50% bei M2 Pro gegenüber M2 waren das noch +100%) gehe ich auch nicht davon aus dass der SLC (zumindest nicht allzu viel) gewachsen ist. Die GPU kann natürlich eventuell etwas bandbreiteneffizienter agieren (Dynamic Caching vielleicht, was immer das genau sein soll?), aber ich vermute mal die geringere Speicherbandbreite kann schon Auswirkungen haben.
Dass sich die Kostenoptimierung beim M3 Pro auf die Endkundenpreise auswirkt kann man allerdings auch nicht behaupten.

davidzo
2023-10-31, 15:26:44
Wie sich das bei Raytracing und anderen Anwendungen wohl auswirken wird?
wo wirkt sich die verringerte Bandbreite aus? Abgesehen von Spielen natürlich.


Die Bandbreitenreduzierung entspricht wahrscheinlich mehr der Realität von dem was abrufbar war auf M1 + M2. Die bleiben nämlich weit zurück hinter den theoretischen Werten. Wahrscheinlich konnte Apple ein paar Handbremsen beim Memory Controller lösen, neben wahrscheinlich auch deutlich mehr SLC Cache.

Auf die CPU-Leistung hat das eh keine Auswirkungen. Der CPU-teil kann selbst beim M1max eh nichtmal 250gb/s abrufen, selbst wenn alle P und E-Cores ausgelastet sind. Deshalb performen M2pro und M2Max in CPUload ja auch praktisch identisch. Auch die GPU konnte das SI nicht voll auslasten.
Anandtech vermutet dass die 400gbs/s nur bei aggregierter Nutzung von CPU, GPU, NPU und mediaCodecs zustande kommen könnte: https://www.anandtech.com/show/17024/apple-m1-max-performance-review/2


Ich finde es bemerkenswert dass Apple neben den üblichen branch prediction Verbesserungen bei den Cores laut der Präsentation erneut breiter geworden ist. Die P-Cores sollen noch mehr decode Kapazitäten bekommen haben und execution ports dazu gewonnen haben. Wir reden hier also von 9 oder 10 wide Decode-width.

Sowas passiert bei x86 äußerst selten. Wir haben seit Jahrzehnten nur 4-wide decoder in CPUs gehabt und AMD hat praktisch seit 4 Generationen das gleiche decode, issue und execution Layout und verändert quasi nur die Execution Units, insbesondere FP und und die caches davor und dazwischen.
Intel hat bei den P-Cores Skylake massiv an Decode und Execution Breite zugelegt (6-wide decode bei GLC), das hat aber auch massiv Power und Diespace gekostet. Zen5 sieht nach einer behutsamen minimal-Verbreiterung aus (5-wide decode?).

Es wäre Interessant wenn Apple das erneut ohne Power-Strafe hinkriegt und auch überhaupt noch in höhere Leistung umwandeln kann, hat man doch bisher schon die Industrieweit breitesten Cores.

davidzo
2023-10-31, 16:25:07
Btw, der M3pro ist eigentlich eine Regression verglichen zum M2pro. Nicht nur hat er weniger Speicherbandbreite und die CPU ist als 6+6 eine Abspeckung zur bisherigen 8+4 CPU: Insgesamt hat der Chip nur noch 37Mrd Transistoren verglichen mit bisher 40Mrd beim M2pro.

Apple möchte wohl deutlich die Kosten reduzieren und geht den nvidia-Weg indem man einen extrem großen Abstand zwischen Highend und Enthusiast schafft.

smalM
2023-10-31, 18:14:12
Das Interessante am M3 Pro ist, daß er nun kein reduziertes Max-Design mehr ist, sondern deutlich mit dem M3 eine Familie bildet. Und ja, der Schwerpunkt der Entwicklung lag anscheinend auf Kompaktheit, während der M3 Max mit Platz nicht knausern mußte.

VooDoo7mx
2023-10-31, 18:53:49
Btw, der M3pro ist eigentlich eine Regression verglichen zum M2pro. Nicht nur hat er weniger Speicherbandbreite und die CPU ist als 6+6 eine Abspeckung zur bisherigen 8+4 CPU: Insgesamt hat der Chip nur noch 37Mrd Transistoren verglichen mit bisher 40Mrd beim M2pro.

Apple möchte wohl deutlich die Kosten reduzieren und geht den nvidia-Weg indem man einen extrem großen Abstand zwischen Highend und Enthusiast schafft.

Und ich wette das der Chip wegen 3nm trotzdem teurer in der Fertigung als der M2 Pro sein wird.

Außerdem macht es auch mehr Sinn, dass der M3 Pro sich mehr vom M3 Max unterscheidet.
Und ich wette das trotz weniger Transistoren und auch SPeicherbandbreite der M3 Pro trotzdem schneller als der M2 Pro sein wird. Die Blöße wird sich Apple sicher nicht geben.

LadyWhirlwind
2023-10-31, 19:30:07
Btw, der M3pro ist eigentlich eine Regression verglichen zum M2pro. Nicht nur hat er weniger Speicherbandbreite und die CPU ist als 6+6 eine Abspeckung zur bisherigen 8+4 CPU: Insgesamt hat der Chip nur noch 37Mrd Transistoren verglichen mit bisher 40Mrd beim M2pro.

Apple möchte wohl deutlich die Kosten reduzieren und geht den nvidia-Weg indem man einen extrem großen Abstand zwischen Highend und Enthusiast schafft.

In der Schweiz ist der Preis für vergleichbare Konfiguration leicht gesunken.
Ziel ist es wohl ein High End Gerät zuneinem vernünftigen Preis anzubieten.

Wer den M3 Max braucht, hat idR auch einnahmen mit denen er das finanzieren kann.

Mandalore
2023-11-01, 14:39:15
Gibts inzwischen eine Analyse der neuen Architektur, die im A17 Pro und den M3 Chips jetzt verwendet wird (GPU)?


Waren nicht die bisherigen Designs auf Grundlage eines (ur)alten PowerVR-Design erstellt worden?

davidzo
2023-11-01, 17:09:50
Gibts inzwischen eine Analyse der neuen Architektur, die im A17 Pro und den M3 Chips jetzt verwendet wird (GPU)?


Leider noch nichts. Üblicherweise dauert das einige Monate nach Verfügbarkeit nochmal. M3s werden ab 4.11. ausgeliefert. vielleicht lässt sich das beschleunigen wenn jemand eine M3 bare-metal Instanz an Cheese-and-chips vermietet :biggrin::
https://chipsandcheese.com/2023/10/31/a-brief-look-at-apples-m2-pro-igpu/

dildo4u
2023-11-01, 17:16:49
4Ghz für M3 Performance Cores.


https://wccftech.com/first-apple-m3-geekbench-6-single-and-multi-core-leak/

smalM
2023-11-01, 17:31:47
Eintrag in GB6 dazu (https://browser.geekbench.com/v6/cpu/compare/3343681?baseline=3306428)

Ailuros
2023-11-01, 22:46:09
Btw, der M3pro ist eigentlich eine Regression verglichen zum M2pro. Nicht nur hat er weniger Speicherbandbreite und die CPU ist als 6+6 eine Abspeckung zur bisherigen 8+4 CPU: Insgesamt hat der Chip nur noch 37Mrd Transistoren verglichen mit bisher 40Mrd beim M2pro.

Apple möchte wohl deutlich die Kosten reduzieren und geht den nvidia-Weg indem man einen extrem großen Abstand zwischen Highend und Enthusiast schafft.

Guter Punkt aber klingt momentan als zu oberflaechlich.

https://www.anandtech.com/show/21116/apple-announces-m3-soc-family-m3-m3-pro-and-m3-max-make-their-marks

Es handelt sich hier eher um eine komplizierte +/- Affaere und ich will ernsthaft bezweifeln dass Apple es auf die engineering Gurgel gewuergt hat um 7.5% weniger die area anzuzielen. Allein die gesteigerten Frequenzen fast ueberall koennten schon so manches + gerechtfertigen.

Ja die reduzierte Busbreite ist im minus Bereich aber was kommt dafuer im Gegensatz an Transistoren fuer das dynamische caching dazu oder ja es ist ein GPU cluster weniger aber dafuer haben wir u.a. mesh shaders, ray tracing und eine angeblich "neue" Architektur wobei wir vielleicht wenn wir zwei vergleichbare die shots fuer die SoCs finden koennten, wir vielleicht raten koennten ob die GPU insgesamt diesmal groesser oder kleiner ist. Ich tippe mal gezielt auf vergleichbare die area denn eine jegliche neue Architektur sollte das gleiche Ziel mit einem kuerzerem Weg erreichen usw. usw. Decoder haben uebrigens laecherliche Groessen in solchen SoCs, aber AV-1 ist fuer deren Verhaeltnisse alles andere als "billig" in hw.

dildo4u
2023-11-02, 08:13:42
M3 Max Geekbench Werte.


https://www.computerbase.de/2023-11/geekbench-apples-m3-max-schlaegt-den-snapdragon-x-elite-teils-deutlich/

fondness
2023-11-02, 09:27:05
Da wird mal wieder so getan als wäre Geekbench sowas wie ein brauchbarer Benchmark. Der Vergleich mit dem M3 Max ist auch ein wenig unfair und AMD fehlt leider völlig.

smalM
2023-11-02, 13:30:17
GeekBench ist ein recht brauchbarer Benchmark, aber man sollte natürlich, wie bei jedem anderen Test auch, wissen, was wird da eigentlich getestet. Ganz offensichtlich hast Du keine Ahnung, was GB mißt und bist anscheinend auch nicht in der Lage, Dich über die veröffentlichte Meßmethode zu informieren, sondern möchtest lieber jedem im Forum mitteilen, was für ein toller Hecht Du bist, indem Du das übliche GB-Bashhing der ganzen anderen tollen Hechte weiterverbreitest….

sth
2023-11-02, 13:33:06
und AMD fehlt leider völlig.
https://browser.geekbench.com/v6/cpu/singlecore
https://browser.geekbench.com/v6/cpu/multicore

VooDoo7mx
2023-11-02, 14:01:17
GeekBench ist ein recht brauchbarer Benchmark, aber man sollte natürlich, wie bei jedem anderen Test auch, wissen, was wird da eigentlich getestet. Ganz offensichtlich hast Du keine Ahnung, was GB mißt und bist anscheinend auch nicht in der Lage, Dich über die veröffentlichte Meßmethode zu informieren, sondern möchtest lieber jedem im Forum mitteilen, was für ein toller Hecht Du bist, indem Du das übliche GB-Bashhing der ganzen anderen tollen Hechte weiterverbreitest….

Doch Geekbench ist 100% Mist und wird auch immer Mist bleiben.
Benchmark ist quasi immer Apple best Case was sich dann in realen Anwendungen nie bestätigt.

Das Applejünger sich dann immer einen an den Geekbench abpimmeln ist dann natürlich vorprogrammiert. Für die ist es natürlich der beste Benchmark überhaupt.

Daredevil
2023-11-02, 14:16:57
Da kann Apple ja schwer was für, wenn in einem Ryzen keine Neural engine steckt, die manche der -vielen- durchgeführten Tests beschleunigt.
Der Score am Ende ist eine Zusammenfassung, der SC Score ist ziemlich brauchbar und kann übertragen werden, beim MC Test ist es halt mehr „RealWorld“ und halt eben nicht konzentriert Cinebench. Mal völlig davon ab, das Apple Silicon in Cinebench ebenso ordentlich abliefert. Ist das jetzt auch kein Real World Test mehr?

fondness
2023-11-02, 14:26:32
Da kann Apple ja schwer was für, wenn in einem Ryzen keine Neural engine steckt, die manche der -vielen- durchgeführten Tests beschleunigt.
Der Score am Ende ist eine Zusammenfassung, der SC Score ist ziemlich brauchbar und kann übertragen werden, beim MC Test ist es halt mehr „RealWorld“ und halt eben nicht konzentriert Cinebench. Mal völlig davon ab, das Apple Silicon in Cinebench ebenso ordentlich abliefert. Ist das jetzt auch kein Real World Test mehr?

In Ryzen steckt eine neural engine, zumindest im aktuellen phoenix. Geekbench verwendet halt nur das Apple Teil. Aber die Apple User können sich gerne weiter selbst beweihräuchern und so tun als ob Apple die ultimativen Chips baut. Untermauert mit dem Apple benchmark geekbench. Man braucht eh nur die Kommentare der jeweiligen User durchlesen und weiß sofort wer Apple verwendet. Was da an Zorn und persönlichen Attacken daher kommt wenn man es wagt die Apple Huldigung zu hinterfragen finde ich immer wieder beeindruckend.

urpils
2023-11-02, 14:39:13
In Ryzen steckt eine neural engine, zumindest im aktuellen phoenix. Geekbench verwendet halt nur das Apple Teil. Aber die Apple User können sich gerne weiter selbst beweihräuchern und so tun als ob Apple die ultimativen Chips baut. Untermauert mit dem Apple benchmark geekbench. Man braucht eh nur die Kommentare der jeweiligen User durchlesen und weiß sofort wer Apple verwendet. Was da an Zorn und persönlichen Attacken daher kommt wenn man es wagt die Apple Huldigung zu hinterfragen finde ich immer wieder beeindruckend.

warum denn so passiv aggressiv?

Vielleicht machen wir einfach mit einer ruhigeren und sachlichen Diskussion weiter.
- jeder Benchmark hat seine Eigenheiten
- kein Benchmark kann in EINER Zahl die Komplexität moderner Performance-Eigenschaften von Prozessoren gänzlich fassen. Das ist nunmal eine Eigenheit der Datenreduktion
- innerhalb der Apple-M-Reihe kann ein Benchmark wie Geekbench dazu beitragen, die relative Performance einzuschätzen
- man kennt die "Real-World-Leistung" der Apple SoCs ggü. den aktuell verfügbaren Produkten "der Konkurrenz"
- der M3/Pro/Max ist "schneller" als M1 und M2
- M1/M2/M3 tendieren dazu für den Formfaktor Notebook eine sehr gute Lösung zu sein

können wir uns darauf einigen? die Details kann man ja darauf aufbauend ausdiskutieren :)

Daredevil
2023-11-02, 14:56:54
In Ryzen steckt eine neural engine, zumindest im aktuellen phoenix. Geekbench verwendet halt nur das Apple Teil.
Bist du dir da ganz sicher? :)
Hier ist ein Test zwischen 7950X und Phoenix
https://browser.geekbench.com/v6/cpu/compare/3353006?baseline=3352963

In "Navigation" ist der 7950X nahezu doppelt so schnell. ( Gute MC Skalierung? )
In File Compression ist der 7950X "nur" 30% schneller. ( Speicher Bandbreite o.ä.? )
Bei "Text Processing", "Background Blur" und "Photo Filter" ist der dicke 7950X nur 10-15% schneller als der dicke 7950X.
Warum?

CPU Benchmark

Geekbench 6 measures your processor's single-core and multi-core power, for everything from checking your email to taking a picture to playing music, or all of it at once. Geekbench 6's CPU benchmark measures performance in new application areas including Augmented Reality and Machine Learning, so you'll know how close your system is to the cutting-edge.

Wenn ein Phoenix nun in Photoshop irgendwelche KI Dinge besser kann als der "dicke" 7950X, wird dies in Geekbench dargestellt. Dies fließt in den Score mit ein, das ist halt eben Geekbench, der einen Durchschnitt über viele Plattformen bilden möchte. Irgendwo wird auch mit Sicherheit Unified Memory mit einfließen bei bestimmten Tests und ja, dies wird den Geekbench Score anheben, ohne dass die CPU schneller sein muss. Dies ist aber eben auch etwas, was beim Nutzer ankommt, indem manche Dinge schlicht fluffiger laufen.
Its part of the Game, aber halt nicht das ganze Spiel.

dildo4u
2023-11-02, 15:46:57
Die Neural Engine von AMD wird mit Sicherheit noch nicht genutzt alles zu neu.
Die Performance von Apple M3 kommt vom Takt sieht man doch die alten Modell liefen halt weit unter 4GHz.
Und Geekbench hat ein extra ML Bench Geekbench 6 wird die Neural Engine nicht nutzen.

https://www.geekbench.com/ml/

Das Apple mit M3 MAX Intel und AMD deutlich schlägt ist gegeben, die Chips sind Absurde Monster was den Transistor Count angeht.
AMD wird bis Strix Halo nix in dem Bereich haben.(12 Zen5 Cores plus 40 CU RDNA 3.5)

Daredevil
2023-11-02, 17:16:19
Okay, dann mag das nicht mit reinspielen. Geekbench schreibt ja, dass sie auch ML testen, aber dann nur auf der CPU? Wie dem auch sei, was am Ende raus kommt, kommt nun einmal am Ende raus. Wenn Apple ne bessere Connection hat zu nem Benchmark Anbieter und somit mehr KI Features in Tools kommt, dann kann man nur hoffen, dass dies auch für andere Anwendungen stimmt.
Weil theoretisch Leistung bringt einem nichts, wenn man sie nicht nutzen kann. AMD kann auch ne 10x so schnelle Neural Engine haben, wenn man die mangels Implementierung nicht nutzen kann, bringt das einem am ende nicht viel. "Real World" Benches werden wir ja bald sehen. :)

Ich sehs aber schon kommen, dass die AMD Fanboys mit Geekbench Scores durch das Forum huschen, weil man auf einmal nen Intel 14900k hinter sich lässt. :D
Immer ne Frage der Perspektive, nech.

davidzo
2023-11-02, 18:27:32
Ich finde Hardwarebeschleunigung sollte durchaus mit einfließen wen es sich um einen Benchmark-Index handelt wie Geekbench. Das darf halt nicht allzu sehr gewichtet werden dass es den Index zu sehr färbt und sollte nur in so vielen Examples vor kommen wie es relativ in der freien Wildbahn eingesetzt wird.

Es ist ja nicht so als wenn wir auf x86 AVX2 oder avx512 deaktivieren bloß weil manche CPUs das nicht haben. Oder Bei GPUs nvidia kein BVH traversal und coherency sorting benutzen weil AMD das nicht supportet.

Nicht vergessen darf man auch dass im Apple Ökosystem die neuen Hardwarefunktionalitäten für wichtige leistungskritische Software in der Regel schon ab Auslieferung der neuen Hardware recht gut unterstützt werden. Das ist also bereits ab Tag1 ein Mehrwehrt für den User und damit sehr unterschiedlich zu Windows wo es meistens wesentlich länger dauert oder auch mal nie passiert.
Ich erinnere mich da an HBCC, Draw Stream binning Rasterizer und rapid packed math. Nichts davon hat es im Endeffekt geschafft, Performancegewinne wurden trotzdem angekündigt.

Abseits davon sehe ich nicht wo Apple einen so großen Vorsprung bei der NPU haben soll. Phoenix hat 10Tops und Strix soll 40-45 bekommen. Die M3 Chips mit 18Tops und M2s mit 16 liegen doch jetzt schon fast in Reichweite. Qualcomm cheated bei den Angaben leider weil sie ungewöhnliche int4 Werte angeben. Statt 45Tops kann man hier also nur mit 23 rechnen, also deutlich hinter Strix/ Zen5.

Daredevil
2023-11-02, 18:42:21
Natürlich gehören integrale Features auch dazu, sofern sie dem Nutzer am Ende einen Mehrwert bieten. FSR3 und DLSS3 sind auch besser als Apples Integration und wenn dies in Spielen bewertet wird, ist das ein Riesen Nachteil für Apple, weil es schlicht schlechter ist.

- Intel hat bislang beim AV1 Hardware Encoding ordentlich abgeliefert, weil sie es eben als einer der ersten eingebaut haben, das gehört demnach auch honoriert.

- Apple baut Unified Memory SoCs und wenn ein Pro Workload 100GB VRAM möchte, dann kann man dies eben bald nur da ordentlich machen und in keinem anderen Notebook.

- Nvidia hat mit Cuda und ihren RTX Geschichten seit Jahrzehnten die Industrie auf ihrer Seite. Selbst wenn die Hardware nicht liefern würde, die Schnittstelle ist halt eben etabliert.

- AMD baut mit seinen Threadrippern und der Chiplet Technologie unheimlich gute Server Prozessoren, wo sich der Rest der Industrie die Zähne ausbeißt, weil es mit jeder Generation besser wird.

Jede Firma hat da schon ihre Unicorn Technologien und die bringen dem einen etwas, dem anderen vielleicht nicht.

--------------------------------

Stichwort Neural Engine: Das wird in Real World Tests auch noch eine spannende Sache. Weil die im A17 ja mehr liefert als die im M3.
There’s another thing to consider. Every M3-series chip comes with a 16-core Neural Engine, just like the A17 Pro in the latest iPhones. However, while the A17 Pro’s Neural Engine can perform 35 TOPS (trillion operations per second), the M3 maxes out at 18 TOPS.

It’s unclear if any of this will actually be a problem. It could be that the performance cores in the M3 Pro are more powerful than those in the M2 Pro, so Apple doesn’t need to pack as many of them in. Similarly, Macs might be able to hand off more processing to the GPU than an iPhone can, meaning the Neural Engine doesn’t require as much power.

davidzo
2023-11-02, 18:49:36
FSR3 und DLSS3 sind auch besser als Apples Integration und wenn dies in Spielen bewertet wird, ist das ein Riesen Nachteil für Apple, weil es schlicht schlechter ist.

Da Upsampling in der Regel mit einer Qualitätseinbuße einher geht sollte das auch nicht direkt gegen natives rendering antreten. Aber man kann ja einen kleinen Extra-Teil des Index hinzufügen für FSR/DLSS.


Stichwort Neural Engine: Das wird in Real World Tests auch noch eine spannende Sache. Weil die im A17 ja mehr liefert als die im M3.
Könnte es nich sein dass Apple beim A17 wie schon Qualcomm mit Int4 rechnet weil das im Mobilbereich wohl einigermaßen verbreite ist während im Desktop Int8 und BF16 dominieren?

Ailuros
2023-11-03, 07:10:00
Da Upsampling in der Regel mit einer Qualitätseinbuße einher geht sollte das auch nicht direkt gegen natives rendering antreten. Aber man kann ja einen kleinen Extra-Teil des Index hinzufügen für FSR/DLSS.

Mich wuerde es ernsthaft interessieren wie die Leistung fuer upsamling auf Apple's neuen Loesungen aussieht. Sonst sind die Kosten fuer die Qualitaet direkt mit dem Grad von details/Aufloesung in einer jeglichen Szene verbunden. IMHO waere jegliches upsampling fuer alles =/>1080p kein Problem fuer Apple's Mx SoCs.

Könnte es nich sein dass Apple beim A17 wie schon Qualcomm mit Int4 rechnet weil das im Mobilbereich wohl einigermaßen verbreite ist während im Desktop Int8 und BF16 dominieren?

Auch in MacOS? (ehrliche Frage).

E39Driver
2023-11-03, 09:58:05
M3 sieht ja ziemlich brauchbar aus. Wobei in Summe ~ 10 - 15% Steigerung auf den M2 auch nur normale erwartbare Evolution ist.

Als Potenzieller Käufer finde ich das Mac-Portfolio jedoch immer noch unausgegoren und spiegelt sich ja auch in den aktuellen Quartalszahlen und dem stark eingebrochenen Mac-Absatz wieder. Für einen weit verbreiteten 27 Zoll Intel iMac gibt es immer noch keinen sinnvollen Nachfolger. Und die seit 10 Jahren stagnierende Basisausstattung 8GB/256GB wird auch immer mehr zum Kaufhemmnis

fondness
2023-11-03, 10:11:01
warum denn so passiv aggressiv?

Vielleicht machen wir einfach mit einer ruhigeren und sachlichen Diskussion weiter.
- jeder Benchmark hat seine Eigenheiten
- kein Benchmark kann in EINER Zahl die Komplexität moderner Performance-Eigenschaften von Prozessoren gänzlich fassen. Das ist nunmal eine Eigenheit der Datenreduktion
- innerhalb der Apple-M-Reihe kann ein Benchmark wie Geekbench dazu beitragen, die relative Performance einzuschätzen
- man kennt die "Real-World-Leistung" der Apple SoCs ggü. den aktuell verfügbaren Produkten "der Konkurrenz"
- der M3/Pro/Max ist "schneller" als M1 und M2
- M1/M2/M3 tendieren dazu für den Formfaktor Notebook eine sehr gute Lösung zu sein

können wir uns darauf einigen? die Details kann man ja darauf aufbauend ausdiskutieren :)

Ich bin passiv aggressiv? Du hast schon den Beitrag hier gelesen?

GeekBench ist ein recht brauchbarer Benchmark, aber man sollte natürlich, wie bei jedem anderen Test auch, wissen, was wird da eigentlich getestet. Ganz offensichtlich hast Du keine Ahnung, was GB mißt und bist anscheinend auch nicht in der Lage, Dich über die veröffentlichte Meßmethode zu informieren, sondern möchtest lieber jedem im Forum mitteilen, was für ein toller Hecht Du bist, indem Du das übliche GB-Bashhing der ganzen anderen tollen Hechte weiterverbreitest….

Ein neutraler Beobachter würde wohl den zitieren :)

Es ist offensichtlich, dass Geekbench eine deutliche Schlagseite Richtung Apple hat. Aber wenn man das offensichtliche ausspricht wird man direkt von eine ganzen Apple-Fanboy Armada bearbeitet.

Ailuros
2023-11-05, 06:58:10
Btw, der M3pro ist eigentlich eine Regression verglichen zum M2pro. Nicht nur hat er weniger Speicherbandbreite und die CPU ist als 6+6 eine Abspeckung zur bisherigen 8+4 CPU: Insgesamt hat der Chip nur noch 37Mrd Transistoren verglichen mit bisher 40Mrd beim M2pro.

Apple möchte wohl deutlich die Kosten reduzieren und geht den nvidia-Weg indem man einen extrem großen Abstand zwischen Highend und Enthusiast schafft.

Entschuldigt dass ich es zum zweiten Mal zitiere aber hier etwas spekulatives das aber Sinn macht:

https://www.anandtech.com/show/21116/apple-announces-m3-soc-family-m3-m3-pro-and-m3-max-make-their-marks

The Hardcard - Tuesday, October 31, 2023 - link
Some nonprofessional observations:

1 Apple made a major change in how it produces the chips. Previously, they designed the Max chips, so that the bottom half of the GPU section, system level cache, and memory controllers could be chopped off to make the Pro, getting two products from one mask.

The M3 Pro is his own design, with a completely different layout, thus requiring apple to spend money to lay out and make a mask for a separate chip. This is very expensive however, slicing off a chunk of silicon for each Pro chip was also expensive, especially since they probably had to cut off some silicon with no defects to meet the demand for previous Pros.

2 Previous high-end M chips thus had identical, dual-cluster performance blocks with four cores each and an efficiency cluster with two and then four cores. From the die shots, you can see they increased to up to six cores per cluster. The M3 Max still has two performance clusters, and one efficiency cluster.

M3 Pro has the six performance cores on only one cluster. In the Anandtech Article on M1 Max performance it was shown that each cluster could draw somewhat above 100 GB per second. That goes to why the M3 Pro has a reduced capacity memory interface. With only one cluster, the CPU can’t use 200 GB per second.

I plan on scrounging the money together for an M3 Max for running local high parameter large language models. My current conditions require my machine to be unplugged a large portion of the time, maintaining full performance unplugged is important to me.

128 GB of unified memory will allow running the biggest models with GPU acceleration. I am very disappointed that they didn’t go with LPDDR5-9600 though. Neural networks are memory bandwidth limited and faster memory would have made a huge difference in inference speed.

The_Invisible
2023-11-05, 08:25:15
M3 sieht ja ziemlich brauchbar aus. Wobei in Summe ~ 10 - 15% Steigerung auf den M2 auch nur normale erwartbare Evolution ist.

Als Potenzieller Käufer finde ich das Mac-Portfolio jedoch immer noch unausgegoren und spiegelt sich ja auch in den aktuellen Quartalszahlen und dem stark eingebrochenen Mac-Absatz wieder. Für einen weit verbreiteten 27 Zoll Intel iMac gibt es immer noch keinen sinnvollen Nachfolger. Und die seit 10 Jahren stagnierende Basisausstattung 8GB/256GB wird auch immer mehr zum Kaufhemmnis

Hab ich mir auch schon länger überlegt als Home-Office/dev station, aber wenn man min. 32gb RAM braucht wird's einfach absurd teuer.

Dann doch lieber Eigenbau Mini-ITX um ein paar hunderter und qufrüstbar...

urpils
2023-11-05, 08:56:42
Hab ich mir auch schon länger überlegt als Home-Office/dev station, aber wenn man min. 32gb RAM braucht wird's einfach absurd teuer.

Dann doch lieber Eigenbau Mini-ITX um ein paar hunderter und qufrüstbar...

wobei/wofür brauchst du denn 32gb RAM? (ernste Frage - ich komme bei mir gerade so mit 16GB aus... aber könnte mich immer noch etwas einschränken, wenn es sein müsste...)

Hintergrund der Frage: Übersicht, welche Anwendungen und Anwendungsfälle von viel RAM profitieren und deshalb die Investition gerechtfertigt ist.

smalM
2023-11-05, 10:14:20
Bei GB6 ist der erste Eintrag für einen M3 Pro aufgetaucht.
Hier der Vergleich (https://browser.geekbench.com/v6/cpu/compare/3390128?baseline=3050630) mit dem z.Z. schnellsten MT Eintrag für einen M2 Pro.

Außerdem tauchen jetzt auch GB5-Ergebnisse für den M3 Max auf (bspw. hier (https://browser.geekbench.com/v5/cpu/21906278)), wo man dann sehen kann, daß der M2 Ultra, anders als im kooperativen GB6, erwartungsgemäß bei MT noch deutlich schneller ist; der Vorsprung liegt bei ca. 20%. Interessant ist, daß der MT Cryptoscore gegenüber dem M2 Max nur noch mit dem Takt steigt und die gestiegene Anzahl der Cores nicht mehr widerspiegelt. MT Integer und FP steigen hingegen um ca. 50%.

Maynard Handley zu Dynamic Caching (https://forums.macrumors.com/threads/3d-rendering-on-apple-silicon-cpu-gpu.2269416/post-32694869) der M3-GPU

The_Invisible
2023-11-05, 10:33:04
wobei/wofür brauchst du denn 32gb RAM? (ernste Frage - ich komme bei mir gerade so mit 16GB aus... aber könnte mich immer noch etwas einschränken, wenn es sein müsste...)

Hintergrund der Frage: Übersicht, welche Anwendungen und Anwendungsfälle von viel RAM profitieren und deshalb die Investition gerechtfertigt ist.

Die Standardumgebung mit IDEs, Browser, Teams usw allein brauchen schon 16GB, wenn man dann noch VMs/komplexere Docker-Compose laufen hat und nicht alles immer runterfahren will sind eigentlich fast 32GB zu wenig, deshalb auch 64GB in der Hauptmaschine derzeit. Wenn man dann noch größere Projekte nebenbei mit vielen Threads gleichzeitig compiled braucht man auch hier mehrere GB zusätzlich. Bin eigentlich richtig glücklich derzeit mit meinem 16Kerner und 64GB RAM, nur in idle/Teillast sind die AMDs nicht gerade spitze...

So ein MAC Studio wäre schon nett, nur die 2,4k bekommst selbst mit dem niedrigeren Stromkosten nie rein...

Matrix316
2023-11-05, 11:02:12
Also in diesem Zitat stand, dass man vom M1+2 Max die Hälfte für den Pro genommen hat. Aber wars nicht früher umgekehrt? Man hatte den Pro entwickelt und dann mit dieser neuen Super Schnittstelle zwei Pros zu einem Max zusammengeklebt?

Deswegen verstehe ich nicht ganz das neue Pro Design.

Ach Quatsch, das war vom Max zum Ultra. :)

VooDoo7mx
2023-11-07, 10:18:21
Notebookcheck hat schon einen Test zum MAcbook Pro 14 mit M3 rausgehauen.
https://www.notebookcheck.com/Apple-MacBook-Pro-14-2023-M3-im-Test-Das-Basismodell-des-MBP-14-kommt-jetzt-ohne-Pro-SoC.764259.0.html

- kleinere Kühlung mit einen Lüfter (war zu erwarten)
- CPU taktet nur bei SC Last auf 4GHz
- bei MC Last so um die 3,6GHz
- CB R23 ca 10k
- Bei CPU Last ca 20W Verbrauch (M1 war etwa bei 18W)
- Performance in 3DMark Wildlife Extreme 8K Punkte / Phoenix hat in etwa 5K Punkte
- Leider kein Solar Bay Test
- Keine Angabe Zu Stromverbrauch GPU Last
- Bei gleichzeitiger Last CPU + GPU wird gedrosselt. Kühlung reicht nicht aus
- Apple typisch kocht unter Last der SoC bei 102°C
- Weiterhin schlechte SSD Speeds bei der 512GB Version (war zu erwarten)

Alles in allen ist die erste Version von TSMCs 3nm Prozess sehr enttäuschend. Wenn man M3 mir M1 vergleicht, sind die Steigerungen in Sachen Energieeffizienz minimal.

Aquaschaf
2023-11-07, 13:21:08
Lässt man die Preise außen vor finde ich das Portfolio mit M3, M3 Pro und M3 Max ausgewogener. Aber bei den hohen Preisen sieht der M3 Pro echt nicht sehr attraktiv aus - solange man sie noch kriegt kann man stattdessen auch ein Model mit M1 Max nehmen.

bloodflash
2023-11-07, 14:08:35
Lässt man die Preise außen vor finde ich das Portfolio mit M3, M3 Pro und M3 Max ausgewogener. Aber bei den hohen Preisen sieht der M3 Pro echt nicht sehr attraktiv aus - solange man sie noch kriegt kann man stattdessen auch ein Model mit M1 Max nehmen.

Ja, die lieben Preise...
Statt 2500,- für den einfachen M3 mit 16GB und kastrierter SSD, wird es dann wohl ein AMD 7000 mit 8c16c, 32GB und 1TB-SSD für ca. 1500,-. Evtl. sind dann sogar 120Hz und LTE/5G mit drin. Langsam kommen die Modelle ja auf den Markt.

Die 3700,- für den M3pro finde ich dann doch zu abgehoben.

Daredevil
2023-11-07, 14:12:12
Upselling funktioniert ja auch beim iPad. Entweder nimmste gleich das Base Ding oder ein Pro, wenn du wirklich Pro bist. Das Air ist so teuer, das es den Preis des Pro attraktiv macht. Es wird sicherlich auch welche geben, für die der M3Pro der ideale Chip ist ( mehrere Monitore, HDMI 2.1, RAM ect. ), die Leistung ist aber hier vermutlich echt nicht ausschlaggebend.
Entweder macht man so wenig, das ein M3 ausreicht oder macht so viel damit, das ein M3Max sein muss und da der M3 teilweise schneller als ein für viele "viel zu schneller" M1Pro/Max ist in manchen CPU Tasks, geht der Trend auch eher Richtung Base Apple Silicon, wo er vermutlich eh schon war.

Matrix316
2023-11-08, 12:59:52
Ja, die lieben Preise...
Statt 2500,- für den einfachen M3 mit 16GB und kastrierter SSD, wird es dann wohl ein AMD 7000 mit 8c16c, 32GB und 1TB-SSD für ca. 1500,-. Evtl. sind dann sogar 120Hz und LTE/5G mit drin. Langsam kommen die Modelle ja auf den Markt.

Die 3700,- für den M3pro finde ich dann doch zu abgehoben.
Wo sind denn deine Apple Preise her? Der M3 Pro 14er gibt's schon ab 2500 Euro. Das Einsteiger Pro mit 16 GB sind nur 2230 Euro. :) Fast Schnäppchen! ;)

Also die Performance ist ja schon nicht so schlecht. Gerade die GPU vom Max. Aber ich verstehe immer noch nicht die Deklarierung mit 10 Kernen, 19 Kernen oder 30 Kernen, weil bei einer GPU hat noch nie jemand auf die Kerne geschaut, weil die ja ganz anders funktionieren als CPUs, oder? Wieviel "Kerne" hat eigentlich eine 4090 so? Genau...

basix
2023-11-08, 14:31:57
Eine 4090 hat 128 (SM) "Kerne", eine 7900XTX hat 96 (CU) oder 48 (WGP) "Kerne", usw. ;)

Matrix316
2023-11-08, 15:07:27
Eine 4090 hat 128 (SM) "Kerne", eine 7900XTX hat 96 (CU) oder 48 (WGP) "Kerne", usw. ;)
Nehm ich da jetzt die Shader Einheiten? Oder die TMUs? Tensor Cores? RT Cores? :freak:

Ich finde Apple sollte der GPU einen eigenen Namen geben, weil die scheinen ja relativ schnell zu sein. Was weiß ich. Apple Graphics 3010 oder 3019 oder 3030. Und im nächsten Chip dann 4010, 4019 etc.. Dann kann man immer vergleichen ist eine 3030 von Apple besser als eine 4070 von Nvidia? ;)

bloodflash
2023-11-08, 17:06:30
Wo sind denn deine Apple Preise her?
Das sind die von mir zusammengeklickten Preise von (für mich) sinnvollen Konfigurationen. Wahrscheinlich war das alles mit angemessener CPU/RAM/SSD-Ausstattung für das jeweilige Modell.

robbitop
2023-11-08, 23:17:04
Das mit den GPU Cores war bei mobile GPUs in den SoCs eigentlich schon lange üblich. ARM und IMGTec benennen das sfhon seit grob 1 Jahrzehnt so. AMD hat das bei den APUs zu Bulldozer Zeiten auch mal so vermarktet und Intel tut das zT auch noch (bei ihren „APUs“) indirekt mit der Nummerierung der CPU Cores und GPU Cores. X+Y etc

Ailuros
2023-11-10, 12:54:10
Das mit den GPU Cores war bei mobile GPUs in den SoCs eigentlich schon lange üblich. ARM und IMGTec benennen das sfhon seit grob 1 Jahrzehnt so. AMD hat das bei den APUs zu Bulldozer Zeiten auch mal so vermarktet und Intel tut das zT auch noch (bei ihren „APUs“) indirekt mit der Nummerierung der CPU Cores und GPU Cores. X+Y etc

Im ULP SoC Markt gibt es auch heute noch fuer die GPUs gravierende Unterschiede zu jeglicher dGPU. Korrekt vermarktet ist in der ULP Welt ein "core" ein GPU block der auch so einzeln verkauft bzw. integriert werden kann. In dem Fall entwickelt hier der IP provider einen einzelnen core der bis zu N cores innerhalb eines SoCs skaliert werden kann. Mir persoenlich ist von allen GPU IP Faellen bekannt wo mehr als 16 GPU cores integriert wurden, Ausnahme sind dann natuerlich Apple's Implementierungen in Mx SoCs wo aber auch teilweise eher ein existierender GPU Block einfach kopiert und doppelt integriert wird.

High end GPU Entwickler wie NV und AMD fangen ihre Entwicklung quasi von oben nach unten an und es gibt hier keineswegs irgendwelche Zwangsgrenzen wo man pro cluster bzw. "core" jetzt ploetzlich innerhalb N die area mir nichts dir nichts bleiben muss.

Es duerfte uebrigens selbst heute keine ULP SoC GPU geben wo die TMUs wirklich unabhaengig von den ALU Bloecken sind. Anders fuer ULP GPUs wird wo immer moeglich gespart und fuer high end GPUs (zugegeben uebertrieben illustriert) so viel wie moeglich verschwendet.

mboeller
2023-11-11, 14:51:15
Notebookcheck hat schon einen Test zum MAcbook Pro 14 mit M3 rausgehauen.
https://www.notebookcheck.com/Apple-MacBook-Pro-14-2023-M3-im-Test-Das-Basismodell-des-MBP-14-kommt-jetzt-ohne-Pro-SoC.764259.0.html



Notebookcheck hat jetzt einen Folgeartikel rausgelassen. Sie empfehlen das alte Macbook Pro14 mit M2-Pro. Das wäre die bessere und günstigere Wahl!

https://www.notebookcheck.com/Das-neue-MacBook-Pro-14-M3-sollte-man-nicht-kaufen-solange-es-noch-das-M2-Pro-Modell-gibt.767317.0.html


allerdings gibt es aktuell noch das alte MacBook Pro 14 M2 Pro, welches als Basisvariante mit 16 GB RAM aktuell für rund 2.150 Euro im Handel verfügbar ist (MBP 14 M3 mit 16 GB kostet 2.229 Euro) und es ist insgesamt ganz klar das bessere Paket

=Floi=
2023-11-22, 18:51:05
Sollte denen bei apple mal zu denken geben.

Demogod
2023-11-23, 20:58:34
Ganz gutes Analysevideo imo auch wenn es nicht super tief geht. (https://youtu.be/8bf3ORrE5hQ)

dildo4u
2023-12-05, 13:26:55
RT Performance gegen Desktop GPU.

https://i.ibb.co/KrgrDKd/Screenshot-2023-12-05-132632.png (https://imgbb.com/)

https://www.computerbase.de/2023-12/apple-macbook-pro-m3-max-test/

davidzo
2023-12-05, 16:26:16
Blender/Cycles 4.0 soll angeblich schon die Hardware RT Einheiten nutzen.
https://opendata.blender.org/benchmarks/query/?compute_type=OPTIX&compute_type=CUDA&compute_type=HIP&compute_type=METAL&compute_type=ONEAPI&blender_version=4.0.0&group_by=device_name

Der Speedup zwischen M2 GPU Cores und M3 Cores ist beinahe 2x.
Zwischen M1 und M3 gar 300%.

M2Pro (19C): 892.79
M1Max (32C): 930.67
M1Ultra (48C): 1379.18
M3Pro (14C): 1430.82
M2Max (30C): 1443.32
M3Pro (18C): 1500.92
M1Ultra (64C): 1621.08
M2Max (38C): 1765.03
M3Max (30C): 2851.28
M2Ultra (76C): 3218.52
M3Max (40C): 3424.82
RTX 4070 Laptop: 3583.34
RTX 4080 Laptop: 5638.85
RTX 4090 Laptop: 7058.49

Die Zugewinne sind also ordentlich, durch Hardware RT also weit höher als die Stagnation im Gaming Bereich.

Für mich ist das aber auch nicht ganz so hoch wie erhofft (bin Rhino/Cycles User momentan noch auf Intel/Radeon Plattform). Vielleicht wächst das aber auch mit neuen Softwareversionen nochmal etwas an.

Nvidia hat mit Optix ca. Faktor 3x gegenüber nur CUDA rausgeholt. GPU/CUDA ohne Optix war wiederum schneller als CPU Rendering um Faktor 3x, also 9x insgesamt (CPU: Intel 8C/16T E2286M).

Der M3Max ist also mit 40-60Watt Verbrauch ca. auf RTX 4070 laptop niveau (115W). Nicht übel für mobile.

Wenn der M3 Ultra wiederum ein doppelter Pro ist, dann können wir RTX 4090 laptop Ergebnisse erwarten, bei ca. 80-100Watt (4090 laptop: 175W). Die 4090 Desktop (450WTDP, real 350W) bleibt dann aber immer noch 40% schneller...

robbitop
2023-12-05, 16:33:10
Die Frage ist, wie viel RT HW sie verbaut haben.

Level 2 – Ray/Box and Ray/Tri Testers in Hardware. (RDNA2/3)
Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware. (Ampere/Turing)
Level 3.5 - Ada Lovelace / Alchemist
Level 4 – BVH Processing with Coherency Sorting in Hardware

Kann mir gut vorstellen, dass man erstmal nur Level 2 verbaut hat. Kostet am wenigsten Transistoren und es ist jetzt auch nicht gerade die Core Applikation von Apples Clientel, die das ausreizt.

davidzo
2023-12-05, 16:51:09
Ja, ich habe dazu zwei Theorien:
1. die Cycles Implementierung für die RT Einheiten vom M3 ist noch im Alpha-status und die performance wird noch besser.
2. es ist wie bei AMD nur Level2 verbaut. Apple hat ja in metal schon viele grundlagen für schnelles Software RT. Es würde Sinn machen dass man das bereits frühzeitig angelegt hat weil man bei der Hardware nicht direkt in die Vollen gehen wollte.

Was aber imo gegen Theorie2 spricht ist der enorme Zuwachs an Transistoren pro GPU-Core von dem man in Games ohne RT praktisch nichts sieht.

Btw, die 40-kern M3Max GPU ist ja ziemlich genau auf 7900XT-Niveau. Das ist schon beachtlich für einen Chip von dem weniger als die Hälfte, also ca. 40Mrd Transistoren auf die GPU entfallen (Navi31: 58Mrd). Das ist von der Größe eher mit dem Navi31 Compute Die alleine vergleichbar, auch weil der SLC und LPDDR5 ja Systemweit genutzt wird. Allerdings bei einem sechstel des Energieverbrauchs. - Das hat nicht mehr nur mit N3 zutun, das ist schon eine GPU Architektur, die Apple da hat, die effizienter in performance per watt und PPA ist als AMDs.

robbitop
2023-12-05, 17:01:10
Wo siehst du das? Im 3DM RT Benchmark auf CB ist der M3 Max nur auf Radeon 6700XT niveau? ~50.000 punkte vs ~53.000 punkte

davidzo
2023-12-05, 17:06:40
Wo siehst du das? Im 3DM RT Benchmark auf CB ist der M3 Max nur auf Radeon 6700XT niveau? ~50.000 punkte vs ~53.000 punkte

Ich meine immer noch Blender/Cycles, also ein Pro/Workstation Workload mit RT. Gerade wenn man im Unterschied dazu die eher ernüchternde gaming-Leistung sieht, zwängt sich doch der Eindruck auf dass die RT Implementierung wohl etwas weiter geht als die von RDNA3.

robbitop
2023-12-05, 17:15:12
Ja das kann natürlich sein.

Daredevil
2023-12-05, 17:17:06
Wo siehst du das? Im 3DM RT Benchmark auf CB ist der M3 Max nur auf Radeon 6700XT niveau? ~50.000 punkte vs ~53.000 punkte
Ich weiß jetzt nicht wie groß oder ob das Einfluss hat, aber 3DM ist keine MacOS sondern eine iPhone/iPad App. Da ist vllt. noch etwas Potential vorhanden.

Matrix316
2023-12-05, 17:26:34
8 GB sind doch nicht ganz so gut wie Apple behauptet:

u1dxOI_kYG8

robbitop
2023-12-05, 17:33:44
Die low Spec Modelle sind nur dazu da um den "starting at" price attraktiv erscheinen zu lassen und beim tatsächlichen Kauf, die Kunden auf höhere Specs zu "massieren". 8 GB RAM sind im Jahr 2023 (fast 2024!) einfach untragbar bei einem neuen Laptop (insbesondere einem so teuren). Das wird niemand so speccen. Aber immerhin geht es wenigstens bei 512 GB Storrage los und nicht mit lächerlich kleinen Kapazitäten wie beim iPad (64 GB).
Die Margen, die Apple (aber auch Dell und Co sind da nicht viel besser) für RAM/Speichererweiterung ziehen sind astronomisch. Gerade in Zeiten, wo man nicht upgraden kann, ist man praktisch gezwungen beim Kauf das höhere Spec Modell zu nehmen. Und dann wird es saftig.
MicroSD Slots gibts natürlich auch nicht, damit man bloß auch beim Storrage nochmal 200+ EURs für +512 GB ausgibt.

maximus_hertus
2023-12-05, 17:54:00
Das wird niemand so speccen.

Die Basemodelle werden sich so oder so sehr gut verkaufen. ICh wäre mir nicht sicher, ob nicht das 8GB Model (beim Pro) nicht das meistverkaufte sein wird. Sehr viele KAufen einfach das Basemodel, welches meistens auch noch günstiger angeboten wird (im Handel). Der Aufpreis zu 16+ GB RAM beträgt dann nicht selten deutlich mehr als die von Apple veranschlagten 230 Euro, da die nicht Base-Modelle nur selten spürbar beim Preis nachgeben.


Ich halte es immer noch für einen Fehler im aktuellen PRO nur 8GB zu verbauen. Vor allem wären 1799 USD als Basepreis nicht wirklich kritischer als 1599 USD.

Wenn man bei 2199 vs 1999 gestunden hätte, hätte man mit der psychologischen "1" irgendwie argumentieren können? Aber so?

robbitop
2023-12-05, 18:26:40
Oha - ja das kann natürlich sein. Die armen Käufer. 8 GB sind heute mehr als grenzwertig und bei einem neuen teuren Laptop erwartet man, dass der auch ein paar Jahre gut funktioniert. Das ist dann Kustekuchen.

Mein Dell XPS13 (Dienstlaptop) von 2018 ist jetzt schon (nur mit office365) an der absoluten Kotzgrenze dank 8 GB RAM bei Windows10 - hätte den damals die Firma gleich mit 16 GB gespecct wäre alles noch okay aber so brauche ich bald einen neuen. Ich errinnere mich, dass 2018 8GB schon nicht so dolle waren und ich diese Befürchtung hatte…

Selbst wenn MacOS effizienter ist, wird das sicherlich nicht un Welten sein. 8 GB RAM bei einem niegelnagelneuen Macbook ist auf jeden Fall in 2023 schon ziemlich dreist.

MSABK
2023-12-05, 20:42:57
Sogar die iPhones haben doch 8GB Ram. Aber bei Apple geht es, die kriegen auch 2024 für 2000€ 8GB Ram Notebooks verkauft.

robbitop
2023-12-05, 20:56:09
Naja bei Phones ist es IMO was anderes. Da sind die Apps und das OS auf einer ganz anderen Ebene in Sachen Funkionalität und RAM Hunger.

Daredevil
2023-12-05, 21:04:10
Wenn man heute sagt, 8GB Ram sind zu wenig ( agree! ), ist das vor 3 Jahren auch schon so gewesen und das MBA mit 8GB ist unheimlich erfolgreich gewesen und ist es heute immer noch. Die Foren sind nicht voll mit "Mein Ram ist zu klein", sondern "Die Kiste rennt einfach!".
Das liegt aber vermutlich einfach daran, dass der Großteil der Menschen einfach -nichts- mit den Kisten macht, außer WhatsApp, Candy Crush, paar iPhone Fotos bearbeiten und Serien schauen.

Das M1 Pro mit 256/8 hat bei Amazon 2360 Bewertungen und hat glatte 4.8 Sterne.
https://www.amazon.de/Apple-MacBook-Pro-mit-Chip/dp/B08N5SF4RG/ref=sr_1_17?__mk_de_DE=ÅMÅŽÕÑ&crid=39YNL8IP0NQV1&keywords=macbook+air+8gb&qid=1701806519&sprefix=macbook+air+8%2Caps%2C156&sr=8-17

Das M1 Air mit 256/8 hat 5500+ Bewertungen und ebenso glatte 4.8
https://www.amazon.de/Apple-MacBook-Air-mit-Chip/dp/B08N5S9B8X/ref=sr_1_1?__mk_de_DE=ÅMÅŽÕÑ&crid=3LRC0WI2FQU0C&keywords=macbook+air+8gb+m1&qid=1701806591&sprefix=macbook+air+8gb+m%2Caps%2C124&sr=8-1

Das rechtfertigt wie gesagt nicht den Fakt, dass 8GB natürlich quatsch sind, wenn man ein wenig anspruchsvoll sein möchte. Aber andererseits... wird es einfach gekauft wie bescheuert und die Customer Satisfaction scheint enorm zu sein.

Und andererseits bin ich gerade enorm glücklich, mein MBP mit nem M1 Max+32GB ausgestattet zu haben, weil mir nen Stable DiffusionXL Bild gerade 26GB belegt, was ich selbst mit einer 3090 nicht hinbekommen würde. Sehe auch echt selten, dass die Kiste in dem Moment knapp 90w verbrät. :D
Unified Memory for the Win!

y33H@
2023-12-05, 22:59:12
Wofür brauchst du so große Stable Diffusion Bilder?

Daredevil
2023-12-06, 01:08:59
"Brauchen" ist so ein subjektives Wort. :D
Na hätte ich den Speicher nicht, würde ich die Quali natürlich auch nicht so hoch jagen.
Ich bastel mir aber nebenbei gerne Wallpaper zusammen oder halt Bilder, die man irgendwo mal für benötigt. Also YT Thumbnails, Hintergrunde, Einblendungen ect. oder halt aus Spaß an der Ästhetik.
Wenn ich was schickes gefunden habe, lass ich das MacBook in der Tat dann Nachts die höchstmögliche Quali in verschiedenen Seeds durchlaufen und gucke mir am Tag später das Ergebnis an. SDXL Turbo habe ich allerdings noch nicht getestet, das klingt sehr spannend, wobei mir die Quali wichtiger ist.

Mayhem
2023-12-06, 09:27:44
War da nicht auch was, dass die neueren 8GB/256GB Kisten nur halbe SSD-Bandbreite haben und vllt deswegen auch ausgebremst werden?
Aber ja, schöner wär, wenn sie einfach 8GB streichen und 16GB nur 100€ teurer machen würden. Hätten sie immer noch ne fette Marge drauf und die Leute wären "zufriedener". So hat man immer das Gefühl sich falsch zu entscheiden.

Allerdings muss man auch sagen, dass das Video etwas unrealistisch ist. Die wenigsten Leute lassen 2x 100% Tasks nebeneinander laufen. Das kommt in der Praxis auf solchen Geräten doch so gut wie nicht vor.

Und wie Daredevil schon schrieb: Auch 16GB sind dann iwann zu wenig.

Matrix316
2023-12-06, 13:18:02
Der Punkt ist ja: Wenn das Base Model mit 8 GB auch nur 1599 Euro (im Vergleich zu den 1599 $ in den USA) kosten würde, könnte man ja den Aufpreis zu 16 GB vielleicht verschmerzen - aber Apple will ja 1999 Euro dafür haben. Und das ist doch ein wenig frech. (EDIT: Ja ich weiß 1599 wäre billiger als das 15 Air, aber das ist IMO eh viel viel zu teuer).

w0mbat
2023-12-06, 13:31:25
Die US-Preise sind ohne MwSt., währen (ausgehend vom $-Preis) eher 1799€ hier. Aber ja, es ist zu teuer hierzulande.

RBG
2023-12-06, 14:28:55
Apropos RAM und Apples M3: Gibt es mittlerweile ein paar Infos zum Dynamic Caching? Funktioniert es einfach so ohne das die Software daran angepasst werden muss oder müssen die Anwendungen das Feature speziell unterstützen und was bringt es unterm Strich?

Wenn was beim Dynamic Caching bei rum kommt, wären die 8 GB RAM vielleicht doch nicht so wenig.

smalM
2023-12-22, 16:39:29
Was ist eigentlich mit dem iPad Gen. 11 passiert?
Von Gen. 5 bis 10 gab es sechs Generationen lang jedes Jahr ein neues.
Wäre doch nicht schwierig gewesen: iPad auf, A14 raus, A15 rein, iPad zu, fertig.

Ailuros
2023-12-27, 08:40:24
Apropos RAM und Apples M3: Gibt es mittlerweile ein paar Infos zum Dynamic Caching? Funktioniert es einfach so ohne das die Software daran angepasst werden muss oder müssen die Anwendungen das Feature speziell unterstützen und was bringt es unterm Strich?

Wenn was beim Dynamic Caching bei rum kommt, wären die 8 GB RAM vielleicht doch nicht so wenig.

Ich lass mich gerne eines besseren belehren aber von dem bisschen dass ich im Netz fuer dynamic caching gelesen habe, handelt sich um einen effizienteren Umgang von caching fuer die GPU, welches im Normalfall keine spezielle Anpassungen brauchen sollte. Nach den generellen Berichten wie sich Macbooks mit M3 verhalten, hab ich zwar keinen Zweifel dass es funktioniert, aber wenn man nicht unbedingt ein Apple laptop "braucht" (aus welchem Grund auch immer....) sehe ich eher ein Problem mit einem viel zu hohem MSRP als zu "wenig" 8GB Speicher. Bei den Macbook mit M3 Preisen kann ich mir locker ein windows gaming laptop mit einer laptop GTX4060 GPU besorgen die dann selber ihre 8GB dedizierten Speicher hat und 16GB System-Speicher, wenn nicht sogar noch einer schnelleren laptop GPU.

Mir ist zwar schon klar dass es Apple nicht juckt, denn wer ein Macbook haben will wird sich schon eins besorgen, egal was es kostet, aber die Tiere sind einfach zu teuer.

fondness
2023-12-27, 10:05:35
Wo siehst du das? Im 3DM RT Benchmark auf CB ist der M3 Max nur auf Radeon 6700XT niveau? ~50.000 punkte vs ~53.000 punkte

Gab es da nicht mal vor kurzem Smartphone-Benchmarks, wo die Samsung "Eclipse" GPU (RDNA2) bei Raytracing alles von Qualcomm und Apple hinter sich lässt? Also ich würde mir nicht viel erwarten hinsichtlich Raytracing-Leistung.

basix
2023-12-27, 12:18:31
8 GB sind doch nicht ganz so gut wie Apple behauptet:

https://youtu.be/u1dxOI_kYG8

Apples Claim mit dem "Unified Memory" ist auch einfach nonsens. Wenn ich einen Windows Laptop ohne dGPU habe, was habe ich dann? Ach ja, Unified Memory.

Das Speicher Management von Windows hat sich auch weiterentwickelt und ich würde hier gegenüber Apple nicht wirklich einen grossen Nachteil sehen. Apps verbrauchen auf dem Mac auch nicht auf wundersame Weise weniger RAM und die meisten Windows Laptops haben mittlerweile auch eine NVMe SSD, was allfälliges Caching / Auslagern auf Mac wie Windows ähnlich schnell macht.

Zum Dynamic Caching:
Das soll die GPU-Utilization erhöhen und so wie ich das verstehe, sind da primär Register und Caches involviert und nicht DRAM.

smalM
2023-12-27, 12:19:44
Meinst Du vielleicht den Basemark "In Vitro"?

VooDoo7mx
2023-12-27, 15:03:56
Gab es da nicht mal vor kurzem Smartphone-Benchmarks, wo die Samsung "Eclipse" GPU (RDNA2) bei Raytracing alles von Qualcomm und Apple hinter sich lässt? Also ich würde mir nicht viel erwarten hinsichtlich Raytracing-Leistung.

Ja in deinen feuchten Fanboy Träumen passiert das vielleicht.
Du kannst dir auch selber die App herunterladen und das nachprüfen, da kannst du dir Ergebnisse aller Geräte anschauen.

3D Mark Solar Bay: (RT Benchmark)

Snapdragon 8 Gen2: ~5300
Snapdragon 8 Gen3: ~8500
Apple A16: ~4300
Apple A17: ~6100
Exynos 2200: ~4400

=Floi=
2023-12-27, 15:07:16
RT ist sowas von egal die nächsten 3-4 jahre.

Zossel
2023-12-27, 15:23:46
Das Speicher Management von Windows hat sich auch weiterentwickelt und ich würde hier gegenüber Apple nicht wirklich einen grossen Nachteil sehen. Apps verbrauchen auf dem Mac auch nicht auf wundersame Weise weniger RAM und die meisten Windows Laptops haben mittlerweile auch eine NVMe SSD, was allfälliges Caching / Auslagern auf Mac wie Windows ähnlich schnell macht.

Und nebenbei verschleißt das auch noch die SSD, kann man die mittlerweile wieder tauschen oder ist der Kram immer noch zum wegwerfen konzipiert?

basix
2023-12-27, 16:19:43
Beim Mac? Ist auch beim M3 verlötet: https://youtu.be/3yXCKMNEJUo?t=222

Wie im 8/16GB Vergleichsvideo gesagt wird und auch hier angemerkt wurde: Wenn man das Ding halt "nicht braucht" - d.h. nur etwas Office, Multimedia-Konsum und Browsing - ist 8 GB knapp genug. Aber je nach Nutzerverhalten (viele Browser-Tabs offen usw.) sind 8GB auch bei "niedrigen Anforderungen" etwas zu wenig und 12-16GB wären sinnvoller. Für das zahlt man aber saftige Aufpreise und Nachrüsten ist bei DRAM wie SSD nicht möglich. Apple halt.

Wenn man es sich überlegt ist es eigentlich eine Sauerei: DRAM oder SSD Defekte sind in der Häufigkeit wohl ein guter Teil der Ausfälle. Und grösseren Kapazitäten sind nur gegen absurde Aufpreise erhältlich. Bei den meisten Windows Notebooks kann ich hier nach belieben "nachkonfigurieren" oder reparieren, wenn nötig. Klar gibt es auch verlötete DRAMs in Windows Laptops (was sich mit LPCAMM2 hoffentlich auch bald ändert), bei der SSD ist das aber eigentlich nie der Fall.

urpils
2023-12-27, 17:40:24
Apples Claim mit dem "Unified Memory" ist auch einfach nonsens. Wenn ich einen Windows Laptop ohne dGPU habe, was habe ich dann? Ach ja, Unified Memory.

Das Speicher Management von Windows hat sich auch weiterentwickelt und ich würde hier gegenüber Apple nicht wirklich einen grossen Nachteil sehen. Apps verbrauchen auf dem Mac auch nicht auf wundersame Weise weniger RAM und die meisten Windows Laptops haben mittlerweile auch eine NVMe SSD, was allfälliges Caching / Auslagern auf Mac wie Windows ähnlich schnell macht.

Zum Dynamic Caching:
Das soll die GPU-Utilization erhöhen und so wie ich das verstehe, sind da primär Register und Caches involviert und nicht DRAM.

also so stimmt das ja (meines Wissens nach) nicht. wenn du eine integrierte GPU hast, dann nutzen die "shared" memory. d.h. dass CPU und GPU auf eigene Speicherbereiche zugreifen.

die M-Prozessoren haben aber EINEN Speicherbereich für CPU und GPU gleichzeitig. das ist durchaus ein Unterschied.

Zossel
2023-12-27, 20:21:49
also so stimmt das ja (meines Wissens nach) nicht. wenn du eine integrierte GPU hast, dann nutzen die "shared" memory. d.h. dass CPU und GPU auf eigene Speicherbereiche zugreifen.

die M-Prozessoren haben aber EINEN Speicherbereich für CPU und GPU gleichzeitig. das ist durchaus ein Unterschied.

Lass dich nicht von der Apple Propaganda verwirren.

Und das funzt auch mit diskreten GPUs via PCIe:
https://coconucos.cs.uni-duesseldorf.de/lehre/home/lectures/bsusp/k13a1/

Noch etwas Spielerei dazu:
https://archive.fosdem.org/2020/schedule/event/fbdev/attachments/slides/3595/export/events/attachments/fbdev/slides/3595/fosdem_2020_nicolas_caramelli_linux_framebuffer.pdf

mocad_tom
2024-01-02, 18:13:42
https://www.golem.de/news/operation-triangulation-wie-ein-trojaner-simple-security-fehler-bei-apple-zeigt-2401-180736-2.html

Aus Security-Sicht schwerwiegender ist jedoch eine dauerhafte Entscheidung des Apple-Hardware-Teams, die sich wohl nur langfristig für künftige Geräte ändern lassen wird. Martin schreibt dazu: "Das Ganze hängt mit dem Problem zusammen, dass es aus Leistungsgründen keine IOMMU für die GPU gibt."

Wow, ist da eine Bombe geplatzt.
Das ist ja heftig.

Da wird auch klar, warum man in den Mac Pro Tower keine Grafikkarte reinpacken kann. Die können halt echt so heimgehen.

:facepalm:

davidzo
2024-01-02, 21:31:35
Was haben den dGPUs damit zutun?

Soweit ich weiß haben nvidia und AMD dGPUs auch keine iommu. Aber die nutzen ja auch nicht denselben Speicher und Adressraum wie die CPU, daher kann ein GPU Thread nicht in den Speicherbereich eines CPU Threads schreiben. Dass Speicherschutz bei GPUs aber eher stiefmütterlich behandelt wird, weil man da ja angeblich keine kritischen Daten drin liegen hat ist aber schon seit Ewigkeiten so, leider.
Wenn GPUs einfach nur accelerators sind bzw. Parallelprozessoren, dann find eich sollte man dort dieselben maßstäbe setzen wie an eine CPU und DRAM.

Das Hardware per Se sicherer ist würde eich aber mal bezweifeln, denn auch da gibt es Attackiervektoren wie spectre, meltdown, rowhammer etc. Firmware kann man dann immerhin patchen, hardware nicht.

Savay
2024-01-03, 01:01:44
Was haben den dGPUs damit zutun?

Soweit ich weiß haben nvidia und AMD dGPUs auch keine iommu.

Wird spätestens ab WDDM 2.x nicht die IOMMU der CPU dafür genutzt? :confused: (AMD-Vi etc.)

Und der RAM wird doch auch von der GPU mit benutzt und umgekehrt auf den VRAM direkt von der CPU zu gegriffen...reBAR ahoi...

Zossel
2024-01-03, 08:02:04
Was haben den dGPUs damit zutun?

Soweit ich weiß haben nvidia und AMD dGPUs auch keine iommu. Aber die nutzen ja auch nicht denselben Speicher und Adressraum wie die CPU, daher kann ein GPU Thread nicht in den Speicherbereich eines CPU Threads schreiben. Dass Speicherschutz bei GPUs aber eher stiefmütterlich behandelt wird, weil man da ja angeblich keine kritischen Daten drin liegen hat ist aber schon seit Ewigkeiten so, leider.
Wenn GPUs einfach nur accelerators sind bzw. Parallelprozessoren, dann find eich sollte man dort dieselben maßstäbe setzen wie an eine CPU und DRAM.


GPUs waren schon in Stalingrad Busmaster fähig.

Zossel
2024-02-28, 00:34:02
Das nächste verkackte KI-Projekt:

https://www.spiegel.de/wirtschaft/unternehmen/apple-gibt-offenbar-elektroauto-entwicklung-auf-a-0f2564a9-8099-4e85-81a1-4fddf07f020a

Eigentlich sollten ja schon seit 10 Jahren Auto ohne Biologie fahren.

=Floi=
2024-02-28, 01:27:02
Die können hald rechnen. Es ist weder einfach noch kostengünstig.

Zossel
2024-02-28, 12:21:35
Die können hald rechnen. Es ist weder einfach noch kostengünstig.

Telefone von Apple sind auch nicht kostengünstig.

woodsdog
2024-02-28, 12:26:11
Telefone von Apple sind auch nicht kostengünstig.

und Wasser ist nass.

Müssen sie halt einfach auch nicht sein wenn alle anderen nur die eigenen Rücklichter sehen. Trotz hoher Preise wächst der Marktanteil in westlichen Märkten immer mehr. Warum sollten die sich mit 150$ Androiden prügeln wollen v0v

mocad_tom
2024-03-22, 00:30:19
https://arstechnica.com/security/2024/03/hackers-can-extract-secret-encryption-keys-from-apples-mac-chips/


Unpatchable vulnerability in Apple chip leaks secret encryption keys

smalM
2024-04-12, 13:09:33
Neue Gerüchte zum M4. (https://www.macrumors.com/2024/04/11/m4-ai-chips-late-2024/)

Matrix316
2024-04-30, 14:52:41
Stellt euch vor ihr habt gerade ein M3 Macbook gekauft und dann kommen die neuen iPads und sind schneller. ;)

https://www.maclife.de/news/ipad-pro-m4-chip-indizien-deuten-groesseres-update-100123839.html

Zossel
2024-04-30, 14:57:37
Stellt euch vor ihr habt gerade ein M3 Macbook gekauft und dann kommen die neuen iPads und sind schneller. ;)

Stell dir vor es wird es wird nichts besseres mehr geben.
Dieser ganze Computerkram ist einfach verderbliche Ware die mit der Zeit zu Sondermüll wird, war schon immer so und wird auch noch eine ganze Zeit lang so bleiben.

Matrix316
2024-04-30, 16:02:36
Stell dir vor es wird es wird nichts besseres mehr geben.
Dieser ganze Computerkram ist einfach verderbliche Ware die mit der Zeit zu Sondermüll wird, war schon immer so und wird auch noch eine ganze Zeit lang so bleiben.
Falsche Antwort auf die richtige Frage. ;)

Was ich meine, sollte Apple nicht die neuen Chips in den besten Produkten zuerst releasen, damit sich die Käufer nicht veräppelt vorkommen?

woodsdog
2024-04-30, 16:42:49
wieso veräppelt?

M3s kannst du im Pro z.B. seit 2023 kaufen... selbst jetzt gekauft ist es doch völlig normal das Zitat "Ende des Jahres" ggf was neues draußen is.

Newsflash: wir haben noch April

"Das beste Produkt" ist doch total subjektiv... ich kenne Leute die nur mit IPads arbeiten... nur iPhones haben... mit irgendwas muss man ja anfangen.

Matrix316
2024-04-30, 17:12:07
wieso veräppelt?

M3s kannst du im Pro z.B. seit 2023 kaufen... selbst jetzt gekauft ist es doch völlig normal das Zitat "Ende des Jahres" ggf was neues draußen is.

Newsflash: wir haben noch April

"Das beste Produkt" ist doch total subjektiv... ich kenne Leute die nur mit IPads arbeiten... nur iPhones haben... mit irgendwas muss man ja anfangen.

Ich mein ja nur es ist irgendwie komisch, wenn du in den kleinsten Geräten eine schnellere CPU hast als in welchen die viel mehr kosten. Und die iPads sollten ja eigentlich unter den Macbooks stehen, oder? Mac Minis, Studios und Pros gibt es ja noch nicht mal mit M3. Und die neuen iPads werden ja eventuell nächste Woche schon vorgestellt.

woodsdog
2024-04-30, 17:55:26
die Ipad Pro's werden schon anders platziert, das sind mitnichten die "Kleinsten" und darüber hinaus ist das alles nur Spekulation von wiedergekäuter Spekulation.

v0v

Mortalvision
2024-04-30, 18:29:58
Die IpadPros sind in manchen Bereichen kleine Workstations. Das einzige, was ein IpadPro effektiv von einem iMacPro trennt, ist das Betriebssystem und ein paar Anschlussmöglichkeiten.

Daredevil
2024-05-01, 01:57:00
Falsche Antwort auf die richtige Frage. ;)

Was ich meine, sollte Apple nicht die neuen Chips in den besten Produkten zuerst releasen, damit sich die Käufer nicht veräppelt vorkommen?
Die Neural Engine im A17pro ist auch deutlich schneller als im M3, und nun? Verschiedene Produkte haben verschiedene Anforderungen und ein MacBook mit einem iPad zu vergleichen ist natürlich auch Quatsch.
Mac Nutzer wechseln nicht auf ein iPad, selbst wenn dort ein M8 drin wäre.

Man kauft hauptsächlich nämlich die Produkte nach den eigenen Anforderungen und Problemlösungen und nicht aufgrund der blanken Specs. Klingt zwar doof im 3DCenter, ist aber halt so.

Matrix316
2024-05-05, 19:26:09
Die Neural Engine im A17pro ist auch deutlich schneller als im M3, und nun? Verschiedene Produkte haben verschiedene Anforderungen und ein MacBook mit einem iPad zu vergleichen ist natürlich auch Quatsch.
Mac Nutzer wechseln nicht auf ein iPad, selbst wenn dort ein M8 drin wäre.

Man kauft hauptsächlich nämlich die Produkte nach den eigenen Anforderungen und Problemlösungen und nicht aufgrund der blanken Specs. Klingt zwar doof im 3DCenter, ist aber halt so.
Ja aber sollten nicht Geräte die mehr können auch stärkere Prozessoren bekommen?

w0mbat
2024-05-05, 19:32:09
Die Neural Engine im A17pro ist auch deutlich schneller als im M3 [...]
Bist du dir da so sicher? Ich denke, die NPU im M3 ist sogar schneller, nur nimmt Apple andere INT/FP Werte für die TOPS/FLOPS Angaben. Warum auch immer.