Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27

Ailuros
2022-06-29, 13:08:37
@Ailuros
Ich nehme mal an, die GPU im M1 ist mit dem LPDDR4X gehandicapt?

Das, etwas aehnliches oder Apple hat tatsaechlich eine neue GPU.

robbitop
2022-06-29, 13:37:23
IIRC wurde für A15 gesagt es sei eine neue GPU uArch. M2 GPU nutzt IIRC die gleiche GPU uArch von A15.

smalM
2022-06-29, 15:08:17
@Ailuros
Der Shared-Bereich der GPU scheint neu zu sein. Der vom M1 konnte wohl nur 8 Cores verwalten aber sie haben nicht einfach den vom M1 Pro übernommen. Die Cores sind sich zwar sehr ähnlich, ein paar Unterschiede im Detail lassen sich dennoch feststellen; auch hier wurden also nicht einfach die Cores vom Vorgänger übernommen.

@robbitop
Die GPU-Cores bei M2 und A15 scheinen nicht völlig identisch zu sein.
Aber die Abweichung ist nur so minimal, daß vielleicht sogar nur der Auflösung und Farbgebung der Die-Shots geschuldet ist.

robbitop
2022-06-30, 08:16:34
Also Apple und Anandtech schreiben was von neuer GPU. Sie soll neue Instruktionen können und weitere Einheiten neben den bestehenden FP32/16 FPUs bekommen haben. Leider finde ich dazu nicht mehr Details. Ich erinnere mich aber auch vage, dass Apple die in der Keynote als neue Arch vermarktet hatte.



in terms of microarchitectural changes the new A15 GPU appears to adopt the same double FP32 throughput as on the M1 GPU, seemingly adding extra units alongside the existing FP32/double-rate FP16 ALUs.
....
The new GPU architecture, and possibly the new SLC allow for fantastic gains in performance, as well as efficiency.

https://www.anandtech.com/show/16983/the-apple-a15-soc-performance-review-faster-more-efficient/3

dildo4u
2022-06-30, 12:48:04
M2 läuft selbst mit Lüfter in den Schutzmodus wenn man ihn wirklich prügelt.


https://youtu.be/pc8Wi5EWQx0?t=1350

davidzo
2022-06-30, 15:00:22
M2 läuft selbst mit Lüfter in den Schutzmodus wenn man ihn wirklich prügelt.


https://youtu.be/pc8Wi5EWQx0?t=1350

Völlig normal für eine mobile CPU.
Bei x86 machen das sogar Desktop CPUs, nennt sich dann "baseclock", TAU, PL2, etc.

Btw, der Lüftervergleich ist natürlich auch nichtssagend, wenn man verschiedene Modelle vergleicht. Ein kleinerer Lüfter ist nicht nur bei gleicher Drehzahl leiser, sondern hat auch eine viel höhere maximale Drehzahl als ein größerer in einem größeren Gerät. Btw, das pro Gerät hat außerdem zwei Lüfter, nicht einen.
Dass die "pro" Geräte tatsächlich überhaupt nicht thermisch oder power-related drosseln ist erstaunlich, sowas gibt es bei Windows-Geräten seit Jahren nicht mehr, selbst wenn man workstation Geräte kauft. Anscheinend stuft Apple die Kühllösungen nach casual (Air), medium (nonpro) und pro (full load) ab und schaft damit eine Leistungs-segmentierung die es sonst mit demselben Silicon bzw. µArch nicht gäbe.

dildo4u
2022-06-30, 15:02:59
Aber auf 5 Watt das macht kein Sinn, das ist klar der Notfall Modus da es Richtung 110° geht.

Ailuros
2022-06-30, 15:28:20
Also Apple und Anandtech schreiben was von neuer GPU. Sie soll neue Instruktionen können und weitere Einheiten neben den bestehenden FP32/16 FPUs bekommen haben. Leider finde ich dazu nicht mehr Details. Ich erinnere mich aber auch vage, dass Apple die in der Keynote als neue Arch vermarktet hatte.


https://www.anandtech.com/show/16983/the-apple-a15-soc-performance-review-faster-more-efficient/3

Weitere SPs auf jeden Fall nicht.

M1 GPU = 8 cores - 2.6 TFLOPs FP32

(4* 16SPs - 2FMAC/SP) /core

8 cores * 64SPs * 4 FLOPs * 1.27GHz = 2.6 TFLOPs

M2 GPU = 10 cores - 3.6 TFLOPs FP32

(Scenario 1 - refresh to M1 GPU)
10 cores * 64SPs * 4 FLOPs * 1.42GHz = 3.6 TFLOPs

(Scenario 2 - "neue" Architektur)

(128SPs - 1FMAC/SP) /core
10 cores * 128SPs * 2 FLOPs * 1.42GHz = 3.6 TFLOPs

Ich tippe leider auf scenario 1 obwohl ARM vor kurzem GPU IP mit hw ray tracing ankuendigte.

https://www.theverge.com/2022/6/28/23186148/arm-immortalis-hardware-ray-tracing-mobile-features-specs

Mal sehen wer fuer ULP mobile SoCs RT und VRS (variable rate shading) in finalen Geraeten zuerst anbietet.

robbitop
2022-06-30, 15:43:10
In Aztek 1440p im Anandtech review ist der 5 Core A15 >40% schneller als der 5 Core A14. Die Abstände variieren je nach Benchmark. Sieht mir auf den ersten Blick nach einer anderen Performanceverteilung aus als einfach nur ein Offset an Rechenleistung. Das ist zumindest ein Indiz einer anderen uArch.

Ailuros
2022-06-30, 16:03:17
In Aztek 1440p im Anandtech review ist der 5 Core A15 >40% schneller als der 5 Core A14. Die Abstände variieren je nach Benchmark. Sieht mir auf den ersten Blick nach einer anderen Performanceverteilung aus als einfach nur ein Offset an Rechenleistung. Das ist zumindest ein Indiz einer anderen uArch.

In der Datenbank sieht es aber im Durchschnitt eher so aus:

https://gfxbench.com/result.jsp?benchmark=gfx50&test=759&order=median&base=gpu&ff-check-desktop=0

~17% Unterschied und wenn man auf "best score" wechselt sind es dann 36% Unterschied.

Oder auch so: https://gfxbench.com/compare.jsp?benchmark=gfx50&did1=90692022&os1=iOS&api1=metal&hwtype1=GPU&hwname1=Apple+Inc.+Apple+A14+GPU&D2=Apple+iPhone+13

robbitop
2022-07-01, 09:03:48
Schade, dass es seit dem Anand (und jetzt Ian) weg ist praktisch keine vernünftigen deep dives mehr in die GPU und CPU uArch der A SoCs mehr gibt.

Wobei ich mich schon frage, warum sollte es nicht auch regelmäßige Innovation in Apples GPUs geben, wenn es die klar sichtbar in allen anderen IP Blöcken gibt. Und die Performance der GPU ist ja auch pro W nicht von schlechten Eltern. Ich kann mir schwer vorstellen, dass das nur das Ergebnis jahrelangens Widerkauens alter uArchs sein soll. Ggf. sind die uArchs ja auch neu aber Apple legt weniger wert darauf Features zu verbauen, die ihr Clientel kaum nutzt (raytracing und DX12 Ultimate Featuresets) und setzt die Transistoren lieber anders ein. Das heißt nicht zwangsweise, dass die uArch alt ist, oder?

aceCrasher
2022-07-01, 09:43:00
Schade, dass es seit dem Anand (und jetzt Ian) weg ist praktisch keine vernünftigen deep dives mehr in die GPU und CPU uArch der A SoCs mehr gibt.


Diese Artikel waren soweit ich weiß in den letzten Jahren sowieso von Andrei Frumusanu, nicht von Ian. Leider ist Andrei aber auch abgewandert...

Ailuros
2022-07-01, 10:21:56
Schade, dass es seit dem Anand (und jetzt Ian) weg ist praktisch keine vernünftigen deep dives mehr in die GPU und CPU uArch der A SoCs mehr gibt.

Wobei ich mich schon frage, warum sollte es nicht auch regelmäßige Innovation in Apples GPUs geben, wenn es die klar sichtbar in allen anderen IP Blöcken gibt. Und die Performance der GPU ist ja auch pro W nicht von schlechten Eltern. Ich kann mir schwer vorstellen, dass das nur das Ergebnis jahrelangens Widerkauens alter uArchs sein soll. Ggf. sind die uArchs ja auch neu aber Apple legt weniger wert darauf Features zu verbauen, die ihr Clientel kaum nutzt (raytracing und DX12 Ultimate Featuresets) und setzt die Transistoren lieber anders ein. Das heißt nicht zwangsweise, dass die uArch alt ist, oder?

RT sollte man nicht als "Notwendigkeit" fuer 3D ansehen sondern in mobilen Faellen hauptsaechlich fuer augmented reality und dergleichen. ARM behauptet fuer Mali:

https://www.theverge.com/2022/6/28/23186148/arm-immortalis-hardware-ray-tracing-mobile-features-specs

“However, Ray Tracing on Immortalis-G715 only uses 4 percent of the shader core area, while delivering more than 300 percent performance improvements through the hardware acceleration.” It’s not clear if a 3x speedup over software-based ray tracing will be enough to tempt game developers, but when Nvidia introduced hardware accelerated ray tracing in its RTX 2080, it advertised a 2x-3x boost at the time. “It’s the right performance point for now to get this technology into the market,” says Arm’s Paul Williamson, adding that it may also come in handy in augmented reality applications where RT could be used to match virtual lighting to the real-world environment around you.

Uebrigens gibt es eine interessante Geschichte hinter DX11 Tessellation als Beispiel. Apple wollte anfangs nichts davon wissen, weil wenn man LOD richtig implementiert macht die Generierung von Geometrie keinen Sinn mehr. Apple wollte eine Alternative vorstellen wobei es eigentlich nur ein paar bescheidene Aenderungen in der Tessellations hw waren, es wurde aber nichts daraus da gerade damals das Schlammasel mit IMG auftauchte. Weder NV noch AMD hat es bis jetzt interessiert das Zeug zu aendern.

Apple's GPU hat genauso wie Mali GPU IP das absolut notwendigste fuer Android/iOS und co. Nur Adreno GPUs sind in dem Markt DX12, mit dem sie aber dummerweise auch nichts besonderes anstellen koennen.

Sonst da wir schon VRS erwaehnt haben: Apple muesste sich dafuer mit IMG's Methoden fuer tiling strenger anpassen, damit es auf Apple's TBDR ihnen nicht ins Gesicht knallt.

basix
2022-07-01, 11:09:30
Ist das HW-RT der Malis von den Fähigkeiten her auf Niveau von RDNA2 oder eher Turing? Ich sehe keine explizite BVH-Traversal Acceleration in der RT-Unit aber im Begleittext wird zumindest von BVH-Traversal gesprochen.

robbitop
2022-07-04, 08:49:31
Da das in mobile Geräten (zumindest vorerst) ein reines Checklist feature sein dürfte, wird es vermutlich auf's allerletzte Minimum hinauslaufen.

dildo4u
2022-07-04, 11:58:10
1 zu 1 Vergleich beide liegen bei 20 Watt unter Dauerlast, Dell lässt sehr kühl laufen 75°.
Was mich wundert Alderlake ist eigentlich der Geekbench King aber die 65 Watt Boost scheinen nicht zu reichen um auf die 4.7Ghz zu kommen.

ciqX1l3s2F8


FWfJq0Y4Oos

Ailuros
2022-07-17, 12:25:01
Ist das HW-RT der Malis von den Fähigkeiten her auf Niveau von RDNA2 oder eher Turing? Ich sehe keine explizite BVH-Traversal Acceleration in der RT-Unit aber im Begleittext wird zumindest von BVH-Traversal gesprochen.

Keine Ahnung. Ich wuerde aber eher in Richtung RDNA2 tippen.

mocad_tom
2022-07-18, 11:42:44
Apple M2 ist ja jetzt schon am Ausliefern.

Andrei Frumusanu ist eigentlich der einzige, der bei Apple Silizium die Cache latency der einzelnen Caches herausgemessen hat.

Cache latency für M1

https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested

Cahce latency für M1pro

https://www.anandtech.com/show/17024/apple-m1-max-performance-review/2

Gab es schon einen Artikel zu Cache Latency für M2?

Ich kann keinen finden, Frumusanu ist auch nicht mehr bei Anandtech

Der_Korken
2022-07-18, 12:51:58
https://youtu.be/FWfJq0Y4Oos

Hier sieht man sehr schön, wo Apples Architektur den Rest noch komplett deklassiert: ST-Verbrauch. Die ST-Leistung ist auf Zen 3-Niveau und nur knapp hinter Alder Lake, aber bei 1/3 oder 1/4 des Verbrauchs. In MT egalisiert sich das ganze wieder etwas, wobei 6800U und 1260P natürlich auch mehr Kerne haben und den Takt somit stärker drosseln können. Ich frage mich, ob Apple das dadurch erreicht, dass sie den ST-Takt künstlich begrenzen und die Arch eigentlich mehr schaffen würde oder ob sie wirklich so viel effizienter sind und im MT durch die kleinere Kernzahl/ schlechterem Arbeitspunkt an Effizienz verlieren gegenüber z.B. einem 8/16-Prozzi.


Gab es schon einen Artikel zu Cache Latency für M2?

Ich kann keinen finden, Frumusanu ist auch nicht mehr bei Anandtech

Solche interessanten Artikel werden wir wohl so schnell nicht mehr bekommen. Ich fand sowas immer super interessant, um zu sehen wo schnellere Architekturen eigentlich ihre Leistung herholen.

Dampf
2022-07-18, 13:20:54
Solange die GPU Architektur immer noch nicht auf dem aktuellen Stand ist, kann ich die M-Serie von Apple einfach nicht guten Gewissens empfehlen.

robbitop
2022-07-18, 13:44:37
Für die vielen vielen Mac User die damit raytracen wollen und enttäuscht feststellen, dass es nicht hardwarebeschleunigt ist? :D

Dampf
2022-07-18, 23:35:57
Für die vielen vielen Mac User die damit raytracen wollen und enttäuscht feststellen, dass es nicht hardwarebeschleunigt ist? :D

Blender ist jetzt kein unrealistisches Anwendungszenario für Mac User und da zerstört selbst die popeligste RTX GPU den M1/M2.

Aber auch kein hardwarebeschleunigtes AV1 ist ein KO-Kriterium, da immer mehr Streaming Dienste es nutzen werden.

Wenn ich über 1000€ für eine Hardware ausgebe, soll sie auch auf dem aktuellen Stand sein.

Daredevil
2022-08-14, 19:10:14
Hab heute nen 4K60 Video, was ca. 30 Minuten lang ist in FCX exportiert mit verschiedenen Videos, Bildern, Schriften, Chromakey, Color Correction usw.
Da kommt die Kiste schon mal an ihre Grenzen, die Lüfter gingen auch so auf 3000rpm hoch, aber immer noch im Rahmen vom Geräusch her. War definitiv keine schlechte Idee, den MAX zu nehmen fürs Video Editing.
Der Export war trotzdem sehr fix. Am Ende ist das ganze für ein mobiles Gerät immer noch "zu schnell". Es läuft einfach alles wie Butter, es ist fantastisch für Video und Fotokram.

Ich hätte es ja auch nie für möglich gehalten, aber ich nutze auch ausschließlich nur das Trackpad und die integrierte Tastatur. Ne Maus hatte ich schon lange nicht mehr in der Hand. ( Liegt aber auch am fehlenden HDMI 2.1, weil 120hz nur auf dem Display darstellbar sind )

Saft verbrauchen kann die Kiste auch, sieht man sehr selten. ^^
( Display auf über 500 Nits, da auf dem Balkon )
https://abload.de/img/bildschirmfoto2022-08dddmf.png

dildo4u
2022-08-15, 11:43:31
gtIOumOjYWs

y33H@
2022-09-07, 20:13:21
iPhone 14 (Plus) mit A15, da wollte Apple wohl keinen A16 in 5 nm auflegen ^^

pixelguy
2022-09-07, 23:31:47
Das Pro hat aber einen A16

y33H@
2022-09-07, 23:44:45
Mit N4, ja - bringt immerhin 6% Area laut TSMC ... ich hab zu früh gepostet ^^

robbitop
2022-09-08, 00:33:48
Sehr lauwarm der A16. 16 statt 15 Mrd Transistoren. Bei den CPU Cores hat man überhaupt nicht mit dem A15 verglichen sondern mit der Konkurrenz die noch am A13 zu knabbern hat. Es scheint wohl zu stimmen, dass Apple seit dem A14 anfängt zu stagnieren was die Performanceentwicklung angeht.
Ob es hier wirklich einen so massiven brain drain zu Qualcomm (über Nuvia) und zu anderen gab beim CPU Team? Oder ob man jetzt wie Intel (bis AMD mit Ryzen zurückkam) jetzt einfach nur noch liefert, was man muss aber nicht mehr? Ich bin seit A15 jedenfalls verglichen mit der Innovation der CPU Cores seit dem A7 sehr enttäuscht.
Wenn mit dem nächsten SoC trotz 3 nm in Bezug auf die CPU nicht viel passiert, werden wir es wissen. Wenn man so weiter macht, ist der mühsam aufgebaute Vorsprung schnell weg.

Ridcully
2022-09-08, 08:14:20
Der A16 ist wirklich enttäuschend. Vor allem weil er ja auch noch nächstes Jahr im IPhone 15 stecken könnte.

Aber leider kann ich die Entscheidung von Appel auch nachvollziehen:

Sie sind bei mobilen CPUs seit Jahren abselut dominierend. Es macht kaum Sinn hier Ressourcen zu investieren. Die sind bei der Kamera oder beim Display besser aufgehoben.

Jeder Dollar und jede fähige Person wird beim M1 M2 und M3 gebraucht. Hier ist gewaltiges geleistet worden aber Intel und AMD sind hier noch sehr dicht dran.

Das Iphone Pro muss „günstig“ bleiben. Apple hätte schlimmen Gegenwind bekommen wenn sie den Einstiegspreis von 999 auf 1199 angehoben hätten. Aufgrund von Bauteilpreisen und Inflation ist die Marge beim IPhone Pro sicherlich gesunken. Ein neu entwickelter A16 im 3 Nanometer wäre da nicht hilfreich gewesen.

smalM
2022-09-08, 08:30:17
Der Kamerahersteller Apple brachte gestern vier neue Modelle auf den Markt.

dildo4u
2022-09-08, 08:33:21
Es macht null Sinn die CPU weiter aufzupumpen wenn ein KI Accelerator massiv Energie effizienter ist, es scheint das Apple keine Konkurrenz bekommt da AMD und Intel immer noch dran glauben eher ihre Cores dicker zu machen als endlich mehr spezielle Hardware zu verbauen.(Keine Neurale Engine in Zen4/Raptor Lake)
Wenn keine Hardware da ist kann man auch keine Programme dran anpassen also wenn Zen 5/Meteor Lake mit KI kommen kommt der App Support 2024 und nicht früher.

smalM
2022-09-08, 10:22:12
Es ist sinnlos die CPU aufzupumpen, wenn die Konkurrenz mit dem Spitzenmodell 25% zulegen muß, um dein zwei Jahre altes Modell zu erreichen, das du als Einsteigerversion benutzt.

Apple hat wahrscheinlich CPU + GPU so gut wie unverändert vom A15 übernommen, eine generationelle Entwicklung fand wohl nur außerhalb dieses Bereichs statt. CPU + GPU profitieren vom Wechsel von N5P zu N4 und von LPDD4X zu LPDDR5 und das dürfte Apple völlig gereicht haben.
Ich könnte mir auch durchaus vorstellen, daß die Entwicklung so weitergeht und man das Transistorbudget von N3 bei weitem nicht ausschöpft, sondern lieber das Die wieder schrumpfen läßt.

basix
2022-09-08, 10:52:07
Bei N3 erwarte ich schon einen grösseren Sprung. Dass jetzt der A16 nicht stärker ist, ist vor allem auch eine ökonomische Frage. Grössere Die sind halt teuerer. Da sind spezifische Accelerators für bestimmte Tasks für den Moment effizienter.

Ailuros
2022-09-08, 12:35:23
Bei N3 erwarte ich schon einen grösseren Sprung. Dass jetzt der A16 nicht stärker ist, ist vor allem auch eine ökonomische Frage. Grössere Die sind halt teuerer. Da sind spezifische Accelerators für bestimmte Tasks für den Moment effizienter.

Unter den heutigen Bedigungen macht eine "neue" Generation alle 2 Jahre Sinn; es ist ja auch nicht so dass QCOM im Gegensatz in der Android Welt in jedem Jahr brutal die Leistung steigert. Es ist fast ueberall alles teurer geworden und wird sich in absehbarer Zukunft auch nichts daran aendern, eher das Gegenteil. Die Zeiten wo selbst Apple auf egal welchem metric jedes Jahr einen Faktor 2x anstrebte sind seit langem vorbei.

Ich bezweifle dass momentan Apple QCOM's kommende higher end SoCs irgenwelche Sorgen machen. IMHO strebt QCOM im allerbesten Fall die best moegliche sustained performance fuer low end laptops an. Es wuerde mich verdammt ueberraschen wenn sie schon jetzt mit einer extravaganten Loesung wie chiplets ankommen. A16 ist ja die Basis fuer Mx-wasauchimmer Apple benutzen wird.

Fuer ULP SoCs fuer smartphones deckt sie A16 locker und sie behalten nach wie vor ihren bisherigen Vorsprung (CPU & GPU) und fuer den M1 Nachfolger koennen sie im Notfall stets noch etwas mehr an der Frequenz kitzeln falls es je eine Not dafuer geben sollte.

--------------------------------------------------------
Fuer mich selber: waere ich ein Premium Kunde dem der Preis relativ egal ist, wuerde ich schon ein foldable high end smartphone erwarten.

robbitop
2022-09-08, 13:42:03
Ich kann das mit den Ressourcen nicht ganz nachvollziehen. Das sind ja nicht einfach X Leute. Das sind hoch spezialisierte Leute. Wenn der Fokus auf andere Teile des SoCs liegt: was machen die CPU Leute? Ich bezweifle dass die da groß helfen können. Und Budget spart es auch nicht, die rumsitzen zu lassen.

Die „CPU aufzupumpen“ muss ja nicht das einzige Designziel sein. Ein Ziel könnte sein: ISO Perf aber X Prozent weniger Power oder Y Prozent weniger Transistoren.

Ich finde es verglichen mit Apples Historie etwas merkwürdig. Aber gut: ggf sitzen ja alle an einem größeren Schritt für 3 nm.
Wenn dann wirklich nichts mehr kommt, sollte man sich Sorgen machen :)

MSABK
2022-09-08, 13:44:58
Apple hat doch inzwischen so viele CPUs mit den ganzen Pro, Max und wie so noch heißen. Da wird sicherlich niemand rumsitzen denke ich mir.

robbitop
2022-09-08, 15:54:33
Das sind aber alles die gleichen CPU Cores. A15 und M2 A14 und M1-M1pro/max/ultra.

Mal schauen was tatsächlich beim A16 rauskommt in Messungen bzgl Effizienz der CPU Cores.

smalM
2022-09-08, 19:47:21
Bei N3 erwarte ich schon einen grösseren Sprung.
Ich erwarte eine 6-Core GPU. Was wir bei den CPUs bekommen könnten, ist SVE2 (mit oder ohne ARMv9).
Bei allem anderen glaube ich, daß es eher bei kleinen Verbesserungen bleiben wird.

Die „CPU aufzupumpen“ muss ja nicht das einzige Designziel sein. Ein Ziel könnte sein: ISO Perf aber X Prozent weniger Power oder Y Prozent weniger Transistoren.
Das wäre neu.
Was Du beschreibst, klingt nach einem Designziel für die Effizienzcores.
Aber auch da ist Apple bisher eher dem Pfad mehr Transistoren, mehr Leistung gefolgt; Energieeinsparung hat man zwar gerne mitgenommen, wenn der Prozeß es hergab, man hat aber lieber von vornherein die Cores auf sparsam ausgelegt. Insbesondere, da sie ja die CPUs in den Watch-SIPs liefern müssen.
Weniger Transistoren gab es mWn. nur ein einziges Mal, als für das AppleTV der A5 in der 3. Auflage in CPU und GPU kastriert wurde.

Das sind aber alles die gleichen CPU Cores. A15 und M2 A14 und M1-M1pro/max/ultra.
Das muß ja nicht so bleiben.
Apple könnte einen Split planen, bspw. mit Einführung von SVE2: 256b-Einheiten für die M- und 128b-Einheiten für die A-Serie.
Da hätten Sie unter der Haube genug zu tun für Ihre CPU-Designer, daß die ganz bestimmt nicht Däumchen drehen... ;)

MSABK
2022-09-08, 19:58:05
Das sind aber alles die gleichen CPU Cores. A15 und M2 A14 und M1-M1pro/max/ultra.

Mal schauen was tatsächlich beim A16 rauskommt in Messungen bzgl Effizienz der CPU Cores.

Das beeindruckende bei Apple ist mMn, dass sie langfristig planen und arbeiten. Sie haben eine klare Agenda langfristig scheint mir, M1 geht ja so lange zurück. Vlt kommt in 10 Jahren etwas, was auf heutiges zurück geht und wir es nicht auf dem Radar hatten.

Einfach faszinierend wie Apple arbeitet.

smalM
2022-09-09, 00:19:14
Es wird gerade ein GB5-Eintrag herumgereicht: hier (https://browser.geekbench.com/v5/cpu/17124579) bzw. hier (https://browser.geekbench.com/v5/cpu/17124579.gb5)
Ein Vergleich (https://browser.geekbench.com/v5/cpu/compare/17124579?baseline=14495323) zu einem gutgehenden A15.

Der MT-Test ist seltsam, völlig inkonsistentes Verhalten.
Steckte das iPhone in einem Toaster oder lief was im Hintergrund?

Update:
Ein weiterer Eintrag in GB5 ergibt bei MT sehr viel mehr Sinn: hier (https://browser.geekbench.com/v5/cpu/17141095) bzw. hier (https://browser.geekbench.com/v5/cpu/17141095.gb5) und der Vergleich (https://browser.geekbench.com/v5/cpu/compare/17141095?baseline=14495323)

Ailuros
2022-09-09, 09:05:07
Ich kann das mit den Ressourcen nicht ganz nachvollziehen. Das sind ja nicht einfach X Leute. Das sind hoch spezialisierte Leute. Wenn der Fokus auf andere Teile des SoCs liegt: was machen die CPU Leute? Ich bezweifle dass die da groß helfen können. Und Budget spart es auch nicht, die rumsitzen zu lassen.

Die „CPU aufzupumpen“ muss ja nicht das einzige Designziel sein. Ein Ziel könnte sein: ISO Perf aber X Prozent weniger Power oder Y Prozent weniger Transistoren.

Ich finde es verglichen mit Apples Historie etwas merkwürdig. Aber gut: ggf sitzen ja alle an einem größeren Schritt für 3 nm.
Wenn dann wirklich nichts mehr kommt, sollte man sich Sorgen machen :)

IMHO ist kein IHV so bloed und laesst engineers nur so dumm herumhocken. Du weiss besser als ich dass stets parallel mehr als 1 oder 2 Projekte parallel unter Entwicklung liegen; unter normalen Bedingungen 3. Hab ich ein weniger anspruchsvolles Projekt vor dem release schiebt man resources einfach auf das wirklich anspruchsvollere Projekt und fuer die heutigen Zustaende braucht Apple wirklich kein Gaspedal. Fuer 2024 und nach QCOM's erstem laptop und co SoC werden sie wohl nicht gerade nur einen Fetzen vor QCOM liegen wollen sondern um einiges mehr (nur mein eigenes "gut feeling").

Am Rand, GPU Leistung:

https://gfxbench.com/result.jsp?benchmark=gfx50&test=759&order=median&base=gpu&ff-check-desktop=0

Aztec Ruins High Tier offscreen
A15 = 35,8
A14 = 29,8
A13 = 27,4
A12 = 20,8

Qualcomm Adreno 730 = 25,80

.......M1 = 67,5 ...da Apple den letzen auch in tablets benutzt und QCOM den 730 fuer Samsung's high end tablets.....errrrr

pixelguy
2022-09-14, 12:48:21
TSMC N3E: Apple nutzt optimierte 3-nm-Fertigung für A17 und M3

https://www.computerbase.de/2022-09/tsmc-n3e-apple-nutzt-optimierte-3-nm-fertigung-fuer-a17-und-m3/

robbitop
2022-09-14, 13:41:53
Dann geht‘s hoffentlich endlich wieder voran. Aber eine scheiß neue Policy, dass das normale iPhone den kalten Kaffee vom letzten Jahr bekommt.

smalM
2022-09-14, 13:52:06
Bisher war das Vorziehen der N3E-Variante nur ein Gerücht. Ich wüßte allerdings nicht, daß sich am von TSMC vorgegebenen, offiziellen Zeitplan (= 1 Jahr nach N3) etwas geändert haben sollte.
Also ja, der M3 könnte Ende '23 in N3E kommen; und nein, für den A17 kommt N3E (bisher) nicht früh genug.

Ailuros
2022-09-16, 09:11:51
https://gfxbench.com/result.jsp?benchmark=gfx50&test=759&order=median&base=gpu&ff-check-desktop=0

A16 vs. A15

4k Aztec high tier offscreen
+11%

Aztec high tier offscreen (1440p)
+25%

In ALU low level tests legt der A16 =/>20% dazu im Vergleich zum A15, bei allem das eher auf Geometrie oder etwas auf Tessellation setzt (Car chase) liegt er sogar leicht hinter dem A15.

Daredevil
2022-09-16, 15:32:27
Hier mal GB5 :)

Single Core:
iPhone XR: 1115pts
iPhone 11: 1338pts +20%
iPhone 12: 1580pts +18%
iPhone 13: 1714pts +8%
iPhone 14Pro: 1871pts +9%

Multi Core:
iPhone XR: 2597pts
iPhone 11: 3417pts +31%
iPhone 12: 3944pts +15%
iPhone 13: 4552pts +15%
iPhone 14Pro: 5330pts +17%

Compute:
iPhone XR: 4392pts
iPhone 11: 6303pts +43%
iPhone 12: 9233pts +47%
iPhone 13: 10994pts +19%
iPhone 14Pro: 15731pts +43%

Offenbar wird Multicore bzw. E-Cores und GPU fokussiert, mh?
Ich meine... wenn man jedes Jahr knapp unter 10% im SC bringen könnte, wäre das nach 2-3 Generationen ja trotzdem ein riesen Sprung.

urpils
2022-09-16, 16:21:50
also dafür, dass gemutmaßt wurde, dass es nicht voran geht, ist das doch überaus erfreulich.

SC innerhalb von 4 Jahren (XR → 14 Pro) um 67% verbessert. Multicore sogar um 200% ist in der aktuellen Zeit doch echt eine respektable Sache. Hatte mit viel weniger gerechnet.

Jetzt wo Anand-Tech aus dem Game raus ist: wer wird denn analysieren, wie viel davon Prozess/Takt/Peripherie ist und was auf Architektur zurückzuführen ist?

smalM
2022-09-16, 16:22:34
Beim A15 muß man darauf achten, ob man ein iPhone 13 Pro (= 5 GPU-Cores) oder ein iPhone 13 (= 4 GPU-Cores) zum Vergleich heranzieht.
Tatsächlich ist der Vorsprung des A16 nur hauchdünn. (https://browser.geekbench.com/v5/compute/search?utf8=✓&q=Apple+A15&sort=score)

Ansonsten:
Könntet Ihr endlich aufhören, die Overall-Scores von GB5 für Leistungsvergleiche zu benutzen?
Das ist nur knapp weniger blödsinnig als der Gesamt-Score von Antutu...

robbitop
2022-09-16, 16:27:32
also dafür, dass gemutmaßt wurde, dass es nicht voran geht, ist das doch überaus erfreulich.

SC innerhalb von 4 Jahren (XR → 14 Pro) um 67% verbessert. Multicore sogar um 200% ist in der aktuellen Zeit doch echt eine respektable Sache. Hatte mit viel weniger gerechnet.

Jetzt wo Anand-Tech aus dem Game raus ist: wer wird denn analysieren, wie viel davon Prozess/Takt/Peripherie ist und was auf Architektur zurückzuführen ist?

+9% pro CPU Core ist wie man an der Zeitreihe sieht mehr als lauwarm.

KarlKastor
2022-09-17, 05:37:54
Naja, man kann aber auch nicht viel mehr erwarten. Die Caches wurden schon zuvor extrem aufgeblasen und ohne Shrink ist man auch im Handeln limitiert.
Für Apple vielleicht problematisch, da man andere Sprünge gewohnt ist. Aber für den Kunden eigentlich auch egal. Man kann zwar nie genug Power haben, aber im Alltag merkt man davon eher wenig.
Arm macht auch keine größeren Sprünge, von daher bleibt der Abstand gewahrt.
Für diese Gen wäre eine Performanceanalyse interessant. A16 und die "Android SoC" sind ausnahmsweise mal auf der gleichen Fertigung.

basix
2022-09-17, 10:36:45
+9% pro CPU Core ist wie man an der Zeitreihe sieht mehr als lauwarm.

Intel Style -> 2600K, 3770K, 4770K, 4790K, 6700K ;)

robbitop
2022-09-17, 10:50:03
Böse aber wahr. Aber so ist das eben ohne Wettbewerb.

fondness
2022-09-17, 11:15:10
Jeder der mal in der Entwicklung gearbeitet hat, weiß, dass das so nicht funktioniert. Völlig absurd zu glauben, dass da jemand Däumchen dreht. Sie haben eben den 3nm Prozess nicht rechtzeitig bekommen also musste man improvisieren.

Daredevil
2022-09-17, 11:26:04
Overall Performance ( zumindest der MC Teil ) um 17% zu steigern ist aber durchaus fein. :)
Ich bin selber jemand, der lieber nach SC Performance schreit, gar keine Frage, aber heutzutage sind manche Anwendungen halt MC optimiert, gerade auf E-Cores und somit ist das natürlich nicht zu vernachlässigen, wenn das Gerät halt nen Akku hat. ( Intel geht dem Beispiel ja ebenfalls nach )
Mein MacBook Pro sehe ich im Gegensatz dazu eher selten im 100% Auslastungsbereich, da hier die meiste Arbeit eh die Video Encoder usw. mache. :ugly:

Der eine Peak war vermutlich mein verschlüsseltes Backup, welches ich gepackt habe. :)
CPU Auslastung
https://abload.de/img/bildschirmfoto2022-09orfn6.png

Was aber limitiert bei Bild/Videobearbeitung bei mir ( 4k60 ) ist die GPU und die halt dedizierten Recheneinheiten. In dem Falle passe ich aber auch genau in das Anwendungsspektrum von Apple als "Video Editor", mal vorsichtig gesagt.

DozerDave
2022-09-17, 12:32:47
Ich sehe das so: Es gibt Jahre mit großen Leistungssteigerungen und Jahre mit geringen Leistungssteigerungen.

dildo4u
2022-09-17, 12:33:43
Intel Style -> 2600K, 3770K, 4770K, 4790K, 6700K ;)
Normal wenn man Software hat die mehr durch die GPU oder Hardware Blöcke gewinnt.
Intel hatte nicht nur die CPU nicht angefasst sondern auch die GPU.

Der ganz normale M2 gewinnt am meisten durch verbesserte Videoblöcke.

https://youtu.be/_LU3kUGxiaQ?t=695

Single Core Leistung scheint locker für Zen 4 zu reichen.

https://youtu.be/_LU3kUGxiaQ?t=334

davidzo
2022-09-17, 13:14:30
Intel Style -> 2600K, 3770K, 4770K, 4790K, 6700K ;)

Allerdings hatte Intel da zumindest anfangs auch noch eine Kadenz von einem Jahr.

Das halten sie einfach nicht mehr durch. Ironischerweise ist dass geradezu eine Umkehrung der MAC - PC Verhältnisse von vorher.

Damals war der große Vorteil von PCs dass es jedes Jahr eine neue CPU und GPU Gen gab (inkl. refreshes).

Bei Macs hat sich nur alle drei bis fünf Jahre etwas geändert, selbst der Wechsel von PowerPC zu Intel hat die seltenen Generationswechsel nicht beschleunigt. Das 13" Macbook lief bis 2015 weiter und selbst das 15" Topmodell hatte in 2015 noch Haswell CPUs. Der Mac Pro wurde bis 2017 mit Ivybridge verkauft...

Ab da ging es aber auch mit dem PC bergab, zumindest bei Intel:
Broadwell kam zu spät, Skylake und Kabylake sind eigentlich dasselbe und Coffee-, coffee-refresh und Comet lake nur dasselbe mit unterschiedlichen corecounts.

Bei AMD ging es zwar nach Zen1 sehr schnell vorwärts, allerdings gab es davor auch sechs Jahre Stillstand zwischen Phenom und Zen1. Ryzen 5000 ist jetzt auch schon wieder zwei Jahre alt und man merkt es.
Im Schnitt sind das weder bei Intel noch bei AMD mehr als 9% ST pro Jahr bzw. 15% MT.

Der Eindruck dass es auf dem PC jetzt gerade schneller geht entsteht also auch nur weil wir einen größeren Abstand zwischen den Launches haben. Insbesondere bei GPUs ist der Launchabstand mittlerweile geradezu gigantisch.

Kochen halt alle nur mit Wasser, auch Apple.

basix
2022-09-17, 14:13:17
Bei Zen 1 -> Zen 4 sind es ~2.0x ST Performance innerhalb von 5 Jahren (1800X -> 7700X), evtl. sogar etwas mehr. Das sind im Schnitt +15% ST pro Jahr. Multi Threaded wird es in Richtung +30% tendieren (1800X -> 7950X, mit erhöhter Leistungsaufnahme). Und Zen 5 soll ein weiterer grosser Sprung werden.

+10% pro Jahr sind ja nicht schlecht. Aber eben auch nicht wirklich gut. Und wie die sagst, Apple kocht auch nur mit Wasser. Und wenn da halt keine grossartigen Sprünge bei der Fertigung gemacht werden, verlangsamt sich das auch bei Apple.

Platos
2022-09-17, 14:45:51
Sinnvoller fände ich, wenn man die Akkuleistung weiter steigert bzw. eben den Stromverbrauch senkt.

Wobei bei Apple ja anzunehmen ist, dass sie dann einfach kleinere Akkus verbauen und die Laufzeit gleich bleibt :D

basix
2022-09-17, 14:50:24
Für Mobilgeräte bin ich definitv bei dir: Kleiner, leiser, kühler, leichter, längere Akkulaufzeit. Eben das, was ein Mobilgerät gut macht.

Deswegen ist der 5800X3D ja auch so genial: Geschissen auf die letzten 200-300 MHz, dafür sehr effizient.

robbitop
2022-09-17, 14:54:02
Jeder der mal in der Entwicklung gearbeitet hat, weiß, dass das so nicht funktioniert. Völlig absurd zu glauben, dass da jemand Däumchen dreht. Sie haben eben den 3nm Prozess nicht rechtzeitig bekommen also musste man improvisieren.
Naja schau dir Intel an in der Bulldozer Ära. Skylake für ein halbes Jahrzehnt. Apple hat auch schon beim gleichen Fertigungsprozess größere Sprünge bei CPU Archs gemacht. AMD und Intel auch.

Am Ende geben nicht die Entwickler die Richtung vor sondern das Management. Wenn kein Handlungsbedarf besteht, weil der Wettbewerb abgehängt ist, gibt man halt weniger Gas.

—————-

Was Energieeffizienz angeht sind Apples SoCs definitiv ganz vorn. Mein Eindruck ist, dass Apple nicht die größten Akkus verbaut.

fondness
2022-09-17, 19:18:44
Naja schau dir Intel an in der Bulldozer Ära. Skylake für ein halbes Jahrzehnt.

Du glaubst doch nicht ernsthaft, dass das so geplant war. Da ist intern gewaltig was schief gelaufen und musste wohl nicht nur ein Architekturansatz gekübelt werden.


Am Ende geben nicht die Entwickler die Richtung vor sondern das Management. Wenn kein Handlungsbedarf besteht, weil der Wettbewerb abgehängt ist, gibt man halt weniger Gas.

So funktioniert das nicht. Es gibt natürlich Kennzahlen die man erfüllen soll. Aber erstens sind diese immer zu hoch und zweitens ist kein Management der Welt beleidigt wenn man mehr abliefert als gefordert.

Es gibt vielleicht weniger Druck um interne Prozesse zu verbessern, aber auch während der Bulldozer Zeit hat Intel die RnD Ausgaben konstant erhöht.


Was Energieeffizienz angeht sind Apples SoCs definitiv ganz vorn. Mein Eindruck ist, dass Apple nicht die größten Akkus verbaut.

Mal sehen wie das im selben Fertigungsprozess aussieht.

Platos
2022-09-17, 20:03:01
Mein Eindruck ist, dass Apple nicht die größten Akkus verbaut.

Das ist so. Sie haben sich zwar verbessert, aber es ist eigentlich schon immer so gewesen, dass Apple im Vergleich zur Konkurrenz deutlich kleinere Akkus verbaut. Sie haben aber auch einen niedrigeren Stromverbrauch, die Akkulaufzeit ist also Konkurrenzfähig (Bei Laptops ja seit M1 deutlich besser).

Aber eben: Sie könnten deutlich mehr. Für was braucht man noch mehr Leistung am Handy? Sie könnten auch locker die nächsten 2-3 SoCs in der Effizienz pushen und die Leistung gleichbleibend lassen. Natürlich dürfen sie dann die Akkus nicht verkleinern, sonst merkt ja niemand was davon.

Ich persönlich verstehe nicht, warum Apple das nicht macht. Sie haben soviel Vorsprung, da geht das locker. Klar, es gibt die üblichen Benchmarkjäger, aber wenn die Masse sieht, dass es deutlich länger durchhält, ist das bei einem Mobilegerät ein sehr starkes Kaufargument.

Bei den Notebooks mit eigenem SoC war die Akkulaufzeit Medial auch etwas, das oft erwähnt wurde. M.M.n das einzige wirkliche Argument von Apple vs andere Laptops.

Rooter
2022-09-17, 20:38:51
Du glaubst doch nicht ernsthaft, dass das so geplant war. Da ist intern gewaltig was schief gelaufen und musste wohl nicht nur ein Architekturansatz gekübelt werden. Klar hatte Intel Probleme mit der Fertigung, weiteren Verkleinerung. Aber dennoch hätten sie mehr bieten können, es war aber nicht nötig.

MfG
Rooter

Daredevil
2022-09-17, 22:02:34
Stell alle Features der letzen Jahre ab und du musst nur noch alle 3-4 Tage aufladen. Ist ja nicht so, als würden die SoCs nicht effizienter werden, sie werden halt auch benutzt. Meine Watch 7 läuft auch 3 Tage, aber nur weil das Display zu 95% am Tag aus ist.
Das 14pro hat die gleiche Laufzeit wie das 13pro, aber halt mit 2000Nits UND Always on. Das 13er das gleiche wie zum 12er, nur halt mit 120hz.
Das 12 er ebenso mit 5G im Vergleich zum 11er usw. Lifestyle Features kosten Strom.

Der Akku und die Leistung ist in iPhones so fett, das 90% aller User durch den Tag kommen, würde ich mal behaupten. Warum also mehr verbauen, wenn es in Features gesteckt werden kann?

Platos
2022-09-17, 22:08:16
Du beschreibst nichts weiter wie gesteigerte Perfomance bei selbem Stromverbrauch.

Das, was ich aber meinte, ist gleiche Perfomance bei weniger Stromverbrauch.

Auf nem Handy ist da massgeblich der Auslieferungszustand entscheidend. Wenn das Handy also mehr Leistung bei gleicher Verlustleistung liefert, ist es eben genau nicht das, was ich meinte.

Der SoC ist eben nicht so entwickelt worden, dass er absolut gesehen weniger verbraucht (ohne Leistung zu verlieren).

Daredevil
2022-09-18, 00:13:28
Ein helleres Display beschreibt sicher nicht „Performance“.
Zudem steigt die Akkulaufzeit trotzdem stetig an.

Platos
2022-09-18, 10:00:32
Du verstehst anscheinend meine Kernaussage nicht. Ich weiss aber, dass du gerne bezüglich Apple immer nur die besten Worte kennst. Daher war mir eig. ja klar, dass du nur an meiner Kernaussage vorbei redest, die eig. wäre, die SoC-Entwicklung auf (hauptsächlich!) weniger Stromverbrauch zu lenken und nicht, die Perfomance zu steigern.

Ailuros
2022-09-18, 10:21:29
Ansonsten:
Könntet Ihr endlich aufhören, die Overall-Scores von GB5 für Leistungsvergleiche zu benutzen?
Das ist nur knapp weniger blödsinnig als der Gesamt-Score von Antutu...

ROFL :freak: Tatsaechlich.

Jeder der mal in der Entwicklung gearbeitet hat, weiß, dass das so nicht funktioniert. Völlig absurd zu glauben, dass da jemand Däumchen dreht. Sie haben eben den 3nm Prozess nicht rechtzeitig bekommen also musste man improvisieren.

Jeder der wirklich einen Schimmer von Entwicklung hat, weiss dass einen echte neue hardware Generation eben NICHT vom Herstellungsprozess abhaengig ist. Damit es keine Missverstaendnisse gibt: haette Apple den A16 um sagen wir mal nochmal +30% Leistung aufgebohrt mit den dazu benoetigten zusaetzlichen Einheiten, wuerden sie damit auch mehr iPhones verkaufen oder nicht? Entwicklung "improvisiert" nicht. Die Entwickler muessen so viele wie moegliche Konstanten der Zukunft voraussehen koennen und dazu das best moegliche konkrete Resultat liefern damit die Balancen der Firma auch in DER absehbaren Zukunft sich nicht aendern.

Jeder der grossen IHVs hat geschichtlich mehrere Male bewiesen dass sie eine neue hw Generation auch ohne einen neuen Prozess liefern koennen. Was bringt es HEUTE Apple wenn sie um nochmal ein gesundes N% vor der Konkurrenz liegen wuerde?

Ich hab gerade nochmal nachgestest und der Adreno 650 ergibt in 4k Aztec Ruis High Tier (Vulkan) im Vergleich zum Adreno 730 den "berauschenden" Unterschied von 15%. Ja was zum Henker macht denn die Android Welt genau in dem Fall? Ist bei denen auch die Entwicklung abgefurzt weil X oder Y Prozess daran schuld sein muss?

Daredevil
2022-09-18, 14:22:47
Du verstehst anscheinend meine Kernaussage nicht. Ich weiss aber, dass du gerne bezüglich Apple immer nur die besten Worte kennst. Daher war mir eig. ja klar, dass du nur an meiner Kernaussage vorbei redest, die eig. wäre, die SoC-Entwicklung auf (hauptsächlich!) weniger Stromverbrauch zu lenken und nicht, die Perfomance zu steigern.
https://cntronic.com/data/product/lg/product17955_2.jpg

:D

fizzo
2022-09-18, 14:48:54
Du beschreibst nichts weiter wie gesteigerte Perfomance bei selbem Stromverbrauch.

Das, was ich aber meinte, ist gleiche Perfomance bei weniger Stromverbrauch.

Auf nem Handy ist da massgeblich der Auslieferungszustand entscheidend. Wenn das Handy also mehr Leistung bei gleicher Verlustleistung liefert, ist es eben genau nicht das, was ich meinte.

Der SoC ist eben nicht so entwickelt worden, dass er absolut gesehen weniger verbraucht (ohne Leistung zu verlieren).

High-perf cores are faster and use 20% less power than the A15

Wie viel davon kann man den 4nm Prozess zuschreiben? IMHO setzt Apple schon bewusst bei seinen SoC auf niedrigen Stromverbrauch. Speziell die Efficiency Cores sind Klasse. Haben mich schon beim A15 beeindruckt.

fondness
2022-09-18, 14:58:02
Jeder der wirklich einen Schimmer von Entwicklung hat, weiss dass einen echte neue hardware Generation eben NICHT vom Herstellungsprozess abhaengig ist.

OMG da hat ja jemand Ahnung.:freak:
Einen Fertigungsprozess kurzfristig zu switchen ist völlig unrealistisch.

robbitop
2022-09-18, 15:01:58
Sowas muss ja nicht kurzfristig geschehen sein. Für die Öffentlichkeit war es schon lange zu lesen, dass 3nm in Verzug ist. Apple wird es wohl weit früher erfahren haben.

fondness
2022-09-18, 15:39:25
Deshalb wird man trotzdem kein spezifisches CPU oder GPU Design, dass man schon auf einen bestimmten Prozess ausgelegt hat backporten. Das müsste man schon wirklich sehr sehr bald erfahren haben, viel früher als die Öffentlichkeit. Designzyklen sind lang.

Viel wahrscheinlicher ist es, dass Apple mit dem ursprünglich geplanten Design auf dem 3nm Prozess bleibt und jetzt für 5nm kurzfristig einen "Plan B" eingeschoben hat.

robbitop
2022-09-18, 15:46:50
Das denke ich auch.

smalM
2022-09-18, 20:03:40
Feature-Freeze für den SoC ist ca. 2 Jahre vor Tape-out. Spätestens da wird der Prozeß festgelegt, der für die Produktion Verwendung finden soll.
Da Apple der Entwicklungspartner von TSMC für neue Nodes ist, kann man davon ausgehen, daß Apple da schon längst wußte, daß der N3 für den A16 nicht rechtzeitig bereit sein würde.
Der A16 mag tatsächlich nur eine Zwischenlösung sein, aber er wurde gewiß nicht kurzfristig eingeschoben.

DozerDave
2022-09-18, 20:41:29
Also als Design Flop sehe ich den A16 nicht.
Der ist mit Sicherheit nicht das was viele erwartet haben, aber auch kein Reinfall.

Ailuros
2022-09-19, 12:38:05
Einen Fertigungsprozess kurzfristig zu switchen ist völlig unrealistisch.

Hat auch niemand erwaehnt. Wenn ein IHV eine neue Generation vorstellt kann dieses auch OHNE den neuesten Prozess vorkommen und io & behold kann es unter idealen Umstaenden sogar bis zu 2x Mal die Leistung des Vorgaengers ankommen minus das was der neueste Prozess an Zusatzleistung pro Transistor liefern kann.

Haette Apple eine Not gesehen den A16 um 30% schneller zu gestalten haetten sie dieses auch angestellt und eben OHNE kleineren Prozess. Innerhalb logischen Grenzen war Apple nie geizig mit Transistoren bzw. die area fuer ihre SoCs, eher das Gegenteil.


Viel wahrscheinlicher ist es, dass Apple mit dem ursprünglich geplanten Design auf dem 3nm Prozess bleibt und jetzt für 5nm kurzfristig einen "Plan B" eingeschoben hat.

Nein. Zu IMG Series5 Zeiten verdoppelte Apple fast jedes Jahr die GPU GFLOPs/s, welches heute schon seit langem nicht mehr der Fall ist. Heutzutage kann man froh sein wenn ein jeglicher ULP SoC Designer bis zu 30% pro Jahr an Leistung dazulegt. Bei Apple sieht es mehr oder weniger heutzutage in etwa so aus fuer GPUs: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13102767&postcount=5791

Und es ist genauso langweilig in der Android/Qcom Welt geworden.

Platos
2022-09-19, 12:48:38
Wie viel davon kann man den 4nm Prozess zuschreiben? IMHO setzt Apple schon bewusst bei seinen SoC auf niedrigen Stromverbrauch. Speziell die Efficiency Cores sind Klasse. Haben mich schon beim A15 beeindruckt.

20% weniger power bei was? Gleichem Takt oder gleichem Betriebszustand? Diese Aussagen sind meistens auf gleiche Leistung bezogen. Das ist aber nur theorie, denn betrieben wird er ja mit 20% mehr Leistung. In der Realität entspricht dass dann normalerweise gleicherm Stromverbrauch bei mehr Leistung.

Aber wie gesagt, gibts dazu ne Quelle, in der ersichtlich ist, auf was diese 20% bezogen sind und vor allem, wie der SoC dann am Ende betrieben wird?

smalM
2022-09-20, 21:41:40
Zu IMG Series5 Zeiten verdoppelte Apple fast jedes Jahr die GPU GFLOPs/s
Von fast nichts auf einen Hauch mehr.
Weißt Du ganz gut...

Ailuros
2022-09-22, 08:54:53
Von fast nichts auf einen Hauch mehr.
Weißt Du ganz gut...

Man kann geschichtlich aufsuchen wieviel Zusatzleistung bei neuer hardware NUR vom Herstellungsprozess mit ein paar kleineren "refinements" kommen kann und wieviel von einer wahren neuen hardware Generation.

smalM
2022-09-25, 11:11:52
Apple A16 Die Analysis (https://www.angstronomics.com/p/apple-a16-die-analysis)

Ailuros
2022-09-26, 10:50:09
Apple A16 Die Analysis (https://www.angstronomics.com/p/apple-a16-die-analysis)

Entweder verpasse ich etwas wesentliches oder der GPU block ist relativiert zum CPU block viel zu klein.

davidzo
2022-09-26, 12:43:31
Entweder verpasse ich etwas wesentliches oder der GPU block ist relativiert zum CPU block viel zu klein.

Der L3 ist falsch beschriftet. Das ist der SLC, also auch ein GPU Cache.

Und die CPU Blöcke sind doch nicht größer als die GPU, stimmt doch alles?
Es ist halt weiterhin eine kleine 5-C"Telefon-GPU" und Kein Tablet-Desktop M1 mit 8-12C.
Ich bin viel mehr gespannt auf das was nach Rogue kommt, also Apples erste RT-Capable GPU. Ich würde ja gerne Next-Gen schreiben, aber das wäre vom Featurelevel wohl eher Current gen ;D

Ailuros
2022-09-26, 12:56:14
Der L3 ist falsch beschriftet. Das ist der SLC, also auch ein GPU Cache.

Und die CPU Blöcke sind doch nicht größer als die GPU, stimmt doch alles?
Es ist halt weiterhin eine kleine 5-C"Telefon-GPU" und Kein Tablet-Desktop M1 mit 8-12C.
Ich bin viel mehr gespannt auf das was nach Rogue kommt, also Apples erste RT-Capable GPU. Ich würde ja gerne Next-Gen schreiben, aber das wäre vom Featurelevel wohl eher Current gen ;D

Uebrigens: https://gfxbench.com/compare.jsp?benchmark=gfx50&did1=109252601&os1=iOS&api1=metal&hwtype1=iGPU&hwname1=Apple+A16+GPU&D2=Apple+iPhone+13+Mini

Wie auch bei den ersten Resultaten scheint die A16 GPU ein komisches Tier zu sein. In low level ALU tests legt sie gegen A15 ca. 30% dazu, aber auch in etwa genauso viel im driver overhead test.....hmmmmm :rolleyes:

Sonst zum ganzen cache Wirrwarr: es gibt schon seit Ewigkeiten Meinungsverschiedenheiten ob man die SLC caches nur zur GPU zaehlen sollte oder nicht.....und dann muss man auch noch dazuraten was genau zwischen den beiden SLCs liegt.....Schwamm drueber. Grob eingeschaetzt ist die GPU die area irgendwo =/>1/3. Fuer den CPU block hatte ich mal wieder einen brainfart da ich dummerweise beim ersten Blick den NPU block in meinem Hinterschaedel zum CPU block mitgezaehlt habe.

smalM
2022-09-26, 21:11:38
Der L3 ist falsch beschriftet. Das ist der SLC, also auch ein GPU Cache.
Ja, der SLC hängt an der Fabric, genauso wie alles andere auch; er läßt sich weder der CPU noch der GPU zuordnen.
Zur CPU gehören hingegen die AMX-Units, jeweils oberhalb von "L2 Ctrl".

So die Auflösung überhaupt eine Beurteilung zuläßt, scheinen mir bis auf den größeren P.-L2 die beiden CPU-Cluster und die GPU unverändert.
Ich gestehe, daß ich die NPU ohne Beschriftung kaum wiedererkannt hätte, auch wenn sie beim M2 ebenso asymetrisch um die Ecke geht.

Ailuros
2022-10-06, 08:49:36
https://www.fudzilla.com/news/pc-hardware/55607-apple-backtracks-as-tsmc-tells-it-pay-up-or-else

Nick Farell ist zwar die bei weitem schlechteste "Quelle" fuer alles Apple, aber es liegt schon wares dran. Vor Jahren wollte ja niemand glauben dass Apple relativ billig bei TSMC herstellt dank schon damals hohen Herstellungs-Volumen.

TSMC haette schon sich schon vor einiger Zeit wehren sollen, aber jetzt wo das Volumen mit M1 steigt und auch weiterhin steigen wird war es schon seit einiger Zeit ueberfaellig.

Von jetzt ab wird wohl der Transistoren-budget pro chip um einiges enger ueberwacht ;)

smalM
2022-10-06, 16:51:17
Ich halte die ganze Geschichte für ziemlichen Unsinn.
1. Niemand außerhalb der innersten Zirkel von TSMC und Apple erfährt von den Preisverhandlungen zwischen den beiden, schon gar nicht irgendwelche Leute, die auf Twitter dumm daher schwatzen oder Inhaber von obskuren Webseiten, deren Name fud beinhaltet.
2. Apple und TSMC haben eine Art symbiotische Beziehung, keiner kann ohne den anderen. Weder kann TSMC Apple als Kunden ersetzen, noch kann Apple zu einem anderen Lieferanten gehen.

Ailuros
2022-10-07, 08:46:49
Es ist zwar keinem der genaue Inhalt von den Vertraegen zwischen den beiden bewusst, es gab aber auch wiederum nicht einen einzigen wahren Insider der je in der Vergangenheit behauptete dass Apple genau die gleichen Preise wie andere IHVs bezahlt.

Apple und TSMC haben eine Art symbiotische Beziehung, keiner kann ohne den anderen. Weder kann TSMC Apple als Kunden ersetzen, noch kann Apple zu einem anderen Lieferanten gehen.

Ist wohl aber doch ein Grund mehr falls Apple tatsaechlich sehenswert niedrige Preise vereinbart hatte, dass sich TSMC doch irgendwann mal wendet und doch hoehere Preise von Apple verlangt, wenn nicht gleich die Preise die alle anderen IHVs auch bezahlen muessen. Noch mehr wenn die Ansprueche an Volumen seitens Apple zunehmend steigen.

Den obrigen quote koennte ich auch kinderleicht zu einer symbiotischen Beziehung zwischen Apple und Imagination anpassen. Ich fress einen Besen wenn Apple vor dem ganzem Schlammassel genau so hohe royalties wie andere Semi Hersteller bezahlte. Bei dem ganzen Affentheater zwischen den beiden ging es lediglich darum dass Apple (gerechtfertigt IMHO) keine royalties ab einem Punkt bezahlen wollte wenn sie schon zumindest die ALUs komplett umkrepeln.

Es liegt nichts schlechtes bzw. ungewoehnliches daran wenn sich ein jegliches Apple einen hoeheren Rabatt dank hohen Volumen einraeumt; IMHO waere im Gegenteil Apple schoen bloed wenn sie es NICHT ausnuetzen wuerden.

Wie dem auch sei bezahlt von Punkt N Apple an TSMC hoehere Preise als zuvor wird man dieses schon irgendwo in X Generationen von heute sehen, wenn Apple etwas vorsichtiger mit die area/SoC werden sollte.

robbitop
2022-10-07, 08:55:27
Wobei es Apple auch nicht umbringen würde, wenn TSMC seine Preise erhöht. Was ist der Anteil des SoCs an der Gesamt BOM? 5-10%? Dazu kommt dann das Verhältnis zwischen BOM und Verkaufspreis. Entweder erhöht man den Preis ein wenig (was die typischen Apple Kunden kaum kümmert) oder man absorbiert den Betrag. Apples Marge ist riesig - Apple sehe ich da überhaupt nicht bedroht. Aber dennoch geht es sicherlich schnell um Milliarden wegen des hohen Volumens.

--------------

Was wirklich besorgniserregend ist, ist TSMCs Quasi Monopol bei bleeding edge. Das wissen sie natürlich und können beliebig die Marge nach oben kurbeln, weil es keine Alternative gibt.
Man kann nur hoffen, dass Samsung und Intel (als Foundry Business) hier mittelfristig aufholen, denn nur so kann man die Preisspirale brechen. Wettbewerb.

smalM
2022-10-07, 12:48:03
Den obrigen quote koennte ich auch kinderleicht zu einer symbiotischen Beziehung zwischen Apple und Imagination anpassen.
Das sehe ich anders: Imagination dachte, sie hätten eine symbiotische Beziehung mit Apple...:wink:
Was hat sich der Vorstand dabei gedacht, als sie mit Apple die erste umfassende "Architektur-Lizenz" abgeschlossen haben, daß Apple nur Geld überweist und sonst nichts passiert?

Was ist der Anteil des SoCs an der Gesamt BOM? 5-10%?
Das SoC oder das Die?

Ailuros
2022-10-09, 10:44:09
Das sehe ich anders: Imagination dachte, sie hätten eine symbiotische Beziehung mit Apple...:wink:
Was hat sich der Vorstand dabei gedacht, als sie mit Apple die erste umfassende "Architektur-Lizenz" abgeschlossen haben, daß Apple nur Geld überweist und sonst nichts passiert?

Wer sagt dass es je eine solche gab bevor IMG irgendwelche Probleme aufzeigte? IMG waren Apple's Plaene zwar langfristig bewusst, sie wussten aber nicht wann dieses passieren wird. Eine reine Architekur Lizenz wurde erst unterschrieben als Apple originaler multi-year, multi-wasauchimmer Vertrag ausgelaufen ist: https://www.imaginationtech.com/news/imagination-and-apple-sign-new-agreement/

Das was bei Imagination schief gelaufen ist, ist dass sie einen CEO der ziemlich viele fragliche Investitionen fuer IMG einstellte etwas zu frueh die Tuer gezeigt haben, denn er war derjenige der fuer die zu grosse Abhaengigkeit fuer Apple bei Imagination verantwortlich war und leider auch einer der wenigen der wusste wie Apple vereinfacht "tickt".

IMG wusste dass sie zu abhaengig von Apple waren und es war Apple ebenso bewusst.

Der eigentliche Grund warum Apple erstmal angefangen hat IMG's GPU IP zunehmend zu modifizieren, war dass sie einfach mit IMG's roadmap generell nicht einverstanden waren.

Es war IMG nicht nur bewusst dass Apple vorhatte "unabhaengiger" zu werden, sondern auch vor geraumer Zeit dass "iOS erwachsener werden wird" (irgendwo 4-5 Jahre vor dem Vertrag) und das war der wortwortliche hint damals. Deshalb erwaehnt der obrige 2020 Vertrag auch: ...under which Apple has access to a wider range of Imagination’s intellectual property in exchange for license fees.

Heute kann Apple ihre GPUs und Treiber so gestalten wie sie wollen und IMG muss nicht mehr eine Unmenge an engineering resources fuer ihren vorigen grossen Partner wie Apple widmen. Langfristig ist somit keiner der beiden geschadet, aber symbiotisch war deren Beziehung vom ersten iPhone schon.

Ailuros
2022-10-09, 10:47:50
Was wirklich besorgniserregend ist, ist TSMCs Quasi Monopol bei bleeding edge. Das wissen sie natürlich und können beliebig die Marge nach oben kurbeln, weil es keine Alternative gibt.
Man kann nur hoffen, dass Samsung und Intel (als Foundry Business) hier mittelfristig aufholen, denn nur so kann man die Preisspirale brechen. Wettbewerb.

Als die obrigen engineering Koepfe von IMG noch bei IMG hockten, hiess es dass Apple durchaus mit Intel fuer Herstellung zumindest verhandelt hat. Das was sich damals herumsprach ist dass Apple sehr grossen Wert auf GPU Effizienz legt und Intel's damalige Prozesse einfach nicht optimal fuer GPUs waren. Kann sein dass Intel fuer ihre eigene GPUs seither einiges geaendert hat, aber im guten Ganzen stimme ich Dir schon zu, dass TSMC rundum die beste Option dort draussen momentan ist.

Daredevil
2022-10-24, 12:21:00
https://www.computerbase.de/2022-10/mac-pro-apple-plant-m2-mit-48-cpu-und-152-gpu-kernen/
Mac Pro: Apple plant M2 mit 48 CPU- und 152 GPU-Kernen
GPU mit bis zu 152 statt 64 Kernen

Im GPU-Bereich soll von derzeit maximal 64 Kernen auf mindestens 76 Cores im M2 Ultra aufgestockt werden, während für den M2 Extreme 152 GPU-Kerne im Raum stehen. Der gemeinsame Arbeitsspeicher für das gesamte System und somit auch der Speicher für die GPU soll auf bis zu 256 GB klettern, nachdem bislang bei 128 GB Schluss war.
:ulove:

smalM
2022-10-24, 18:08:18
Mac Pro: Apple plant M2 mit 48 CPU- und 152 GPU-Kernen

Die 152 GPU-Kerne brechen sich runter auf 38 pro M2 Max Die, bzw. 19 pro Shared-Logic-GPU-Block.
Das erscheint mir seltsam.
Ob es wohl 20 pro Block sind, von denen immer einer abgeschaltet wird – nicht alleine wg. Defekt, sondern eventuell schlicht auch nur der Kern, der am meisten Saft zieht?

Monkey
2022-10-24, 20:00:25
https://www.computerbase.de/2022-10/mac-pro-apple-plant-m2-mit-48-cpu-und-152-gpu-kernen/
Mac Pro: Apple plant M2 mit 48 CPU- und 152 GPU-Kernen

:ulove:

Klingt nach 12k+ fürs Einstiegsmodell mit 64gb.

smalM
2022-12-02, 21:50:24
Na sowas, der M2 Max in GB5 hat zwei Läufe hingekriegt mit völlig identischen Ergebnissen in allen Subtests (https://browser.geekbench.com/v5/cpu/compare/18988586?baseline=18973011). Und das gleich zwei Mal (https://browser.geekbench.com/v5/cpu/compare/18985517?baseline=18972971). DAS nenne ich stabile Ergebnisse! :uponder:

@Daredevil
Danke, Link korrigiert.

Daredevil
2022-12-02, 23:51:11
Häh?
Du vergleichst doch in dem Link den ersten Wert mit genau dem gleichen? :D

@Monkey
Im here for the tech. Meinetwegen kann es auch 20k kosten, ich würde es nur sehr spannend finden, was sie Kiste so leistet. Stable Infusion lässt meinen Max auf jeden fall schwitzen. :D

Ailuros
2022-12-05, 07:38:36
Die 152 GPU-Kerne brechen sich runter auf 38 pro M2 Max Die, bzw. 19 pro Shared-Logic-GPU-Block.
Das erscheint mir seltsam.
Ob es wohl 20 pro Block sind, von denen immer einer abgeschaltet wird – nicht alleine wg. Defekt, sondern eventuell schlicht auch nur der Kern, der am meisten Saft zieht?

Keine Ahnung. Auf jeden Fall schaetze ich dass der heutige M2 skaliert auf einem Ultra SoC ein gutes Stueck unter der 4090 GFXbench Leistung ausfallen wuerde. Ich bezweifle dass sie die Leistung selbst nach der aufgepumpten M2 Variante erreichen werden, aber dann eben nahe genug um in internen benchmarks N Leistung marketingtechnisch behaupten zu koennen.

robbitop
2022-12-05, 07:42:30
Man muss immer bedenken, dass Apples GPUs und Treiber nicht auf Gaming ausgerichtet sind. Eher auf Compute für Creatortasks - das ist halt deren Clientel. Es ist völlig irrelevant wie gut oder schlecht ein Apple SoC in Gaming ist da es auf die Verkäufe sehr wahrscheinlich so gut wie keine Auswirkung hat.

Ailuros
2022-12-05, 07:56:39
Man muss immer bedenken, dass Apples GPUs und Treiber nicht auf Gaming ausgerichtet sind. Eher auf Compute für Creatortasks - das ist halt deren Clientel. Es ist völlig irrelevant wie gut oder schlecht ein Apple SoC in Gaming ist da es auf die Verkäufe sehr wahrscheinlich so gut wie keine Auswirkung hat.

Stimmt schon. Aber der M2 liegt momentan im 4k Aztec test ungefaehr um 45% ueber dem M1. Wenn man hypothetisch auf das M1 Ultra Resultat nochmal 45% addiert, kommt man ungefaehr auf 60% der 4090 GPU Leistung im gleichen Test.

Der M1 Ultra erreicht ungefaehr 90% der 3090Ti Leistung (standard clocks) im gleichen Test.

Da der test hauptsaechlich ALU bound ist hat man schon eine Indizie wo der jegliche SoC liegen koennte. Marketingtechnisch sind hypothetisch 60% der 4090 zu wenig und wiederrum ~90% 4090 gut genug dass Apple fuer ihre eigenen Anwendungen dann 4090 Leistung behaupten kann oder?

Daredevil
2022-12-05, 08:13:38
An sich brauchen wir ja auch einen dicken SoC im "MacPro".
Der Studio kann ja keine Konkurrenz zu "300w Threadripper+450w Nvidia" sein und neue potentielle >6k-7k-8k Monitore mit 120hz/240hz Whatever kann man so auch nur "unzureichend" Bedienen.

Daher denke ( hoffe :D ) ich doch, das Apple da nochmal den Kleber rausholt oder anderweitig zaubert, um in CPU und GPU Maßstäbe zu setzen, falls ihnen das natürlich wichtig ist.
Der richtige MacPro mit 4x VegaVII war ja eine Ansage in der Richtung, da haben sie ziemlich viel Custom gemacht und sich super viel Mühe gegeben, um maximal "Pro" zu sein.

Thema Gaming: Ist imho ein Long Term Schritt von Apple. Mit jedem SoC wird Gaming jetzt immer und immer mehr gepusht, schon alleine, weil die Entwickler einfach die Verkaufszahlen von den Macs/iPads sehen.

smalM
2022-12-05, 17:09:31
Stimmt schon. Aber der M2 liegt momentan im 4k Aztec test ungefaehr um 45% ueber dem M1. Wenn man hypothetisch auf das M1 Ultra Resultat nochmal 45% addiert, kommt man ungefaehr auf 60% der 4090 GPU Leistung im gleichen Test.
Der M1 hat nur LPDDR4X-4266, der M2 hingegen LPDDR5-6400 - so wie M1 Pro/Max auch schon.
Ich glaube nicht, daß es eine gute Idee ist, die Skalierung von M1 zu M2 auf den Rest der M2-Generation einfach zu übertragen.
Ich rechne für den Ultra mit ca. 27,5 TFLOPS (falls die Gerüchte mit 76 Kernen recht haben) und damit ein Plus von ca. 30%.
Es muß sich dann erst einmal erweisen, daß Apple diesen potentiellen Zuwachs an Leistung auch "auf den Boden kriegt".

Ailuros
2022-12-09, 06:43:36
Der M1 hat nur LPDDR4X-4266, der M2 hingegen LPDDR5-6400 - so wie M1 Pro/Max auch schon.
Ich glaube nicht, daß es eine gute Idee ist, die Skalierung von M1 zu M2 auf den Rest der M2-Generation einfach zu übertragen.
Ich rechne für den Ultra mit ca. 27,5 TFLOPS (falls die Gerüchte mit 76 Kernen recht haben) und damit ein Plus von ca. 30%.
Es muß sich dann erst einmal erweisen, daß Apple diesen potentiellen Zuwachs an Leistung auch "auf den Boden kriegt".

Der Punkt der vorigen Laien-Rechnung war lediglich dass Apple die zusaetzliche Einheiten fuer die kommende M2 Varianten braucht um N Leistungsziel zu erreichen. Bandbreite hin und her mit den existierenden synthetischen benchmarks haengt ein "M2 Ultra" auch womoeglich wieder zu stark an CPU limits, ausser Kishonti erfinden irgend einen bunten 8k test.

Bei der fanless tablet M2 Implentierung taktet die GPU knapp unter 1.42GHz; mag sein dass Apple genau die gleiche Frequenz auch fuer eine Ultra Variante verwendet, weniger oder sogar mehr. Ich war lediglich etwas grosszuegiger mit meinen frei erfundenen Zahlen. Wieso 76 clusters fuer den Ultra? Uebrigens mit welchem Herstellungsprozess die neuen Max, Ultra usw?

***edit:

Milchmaedchen-Rechnung

GTX3090 35.58 TFLOPs
M1 Ultra 21.30 TFLOPs
----------------------
GTX4090 82.58 TFLOPs
M2 Ultra ????

Die sterilen Zahlen sagen jetzt gar nichts, aber ein M2 Ultra um nur 30% schneller auf Papier waere im Vergleich zur jeglicher anderer laptop GPU Konkurrenz ein ziemlicher fail. Ich wuerde in synthetischen GPU tests wie 4k Aztek zumindest 4080 Leistung erwarten was aber auch ungefahr M1 Ultra + 60% bedeuten wuerde. Mit 156 clusters durchaus erreichbar. Ich halte zwar Apple's marketing-technischen Vergleich mit NVIDIA high end GPUs als durchaus laecherlich, aber es geht mir hier eher Apple's eigenen moeglichen Behauptungen zu folgen. Sieht es dann irgendwie so aus, dann liegt die M2 Ultra GPU Leistung in echten Spielen irgendwo im </= 4070 Bereich.

smalM
2022-12-10, 21:36:01
Bei der fanless tablet M2 Implentierung taktet die GPU knapp unter 1.42GHz; mag sein dass Apple genau die gleiche Frequenz auch fuer eine Ultra Variante verwendet, weniger oder sogar mehr. Ich war lediglich etwas grosszuegiger mit meinen frei erfundenen Zahlen. Wieso 76 clusters fuer den Ultra? Uebrigens mit welchem Herstellungsprozess die neuen Max, Ultra usw?

Das Gerücht behauptete ja 152 Kerne für den Doppel-Ultra-SoC für den Mac Pro, macht 76 für den M2 Ultra.

Wir haben nur die eine M-Generation als Beispiel und danach wird die gesamte M2-Generation nur marginal beim CPU- & GPU-Takt voneinander abweichen. Aber jedes andere beliebige Taktverhalten kann man halt mit nur einem bekannten Datenpunkt auch nicht ausschließen.

Gerüchte besagen, N3 sei für Apple, alle anderen kämen erst bei N3E zum Zuge, und TSMC produziere gerade N3-Chips für Apple. Da muß man sich natürlich fragen, was das denn sein soll und so werden wohl M2 Pro/Max ins Spiel gekommen sein. Ich vermute hingegen, M2 Pro/Max waren eigentlich für den Spätherbst vorgesehen und damit kein N3. Ob es dann N4 oder nur N5P geworden ist, halte ich nicht für so unbedingt bedeutsam; N4 machte sich natürlich beim Marketing besser :biggrin:

Ailuros
2022-12-14, 06:06:56
Ich wuerde schon schaetzen dass das M2 Monster irgendwo um die 50 TFLOPs ausfallen koennte. Bei kleinerem Prozess haben sie vielleicht auch gute Chancen fuer hoehere Frequenzen.

---------------------------------------------------
Uebrigens wenn Apple mit dem A16 Nachfolger den Leistungs-Vorsprung behalten will, brauchen sie irgendwo um die M2 Leistung. Zwar noch zu frueh aber sowohl kommender QCOM als auch Dimensity 9200 SoCs deuten irgendwo um die M1 Leistung an. Der letzte soll in Manhattan 3.1 228fps und wenn ich mich nicht irre Immortalis MC11@750MHz.

megachip800
2022-12-31, 15:49:59
Der M1 hat nur LPDDR4X-4266, der M2 hingegen LPDDR5-6400 - so wie M1 Pro/Max auch schon.
Ich glaube nicht, daß es eine gute Idee ist, die Skalierung von M1 zu M2 auf den Rest der M2-Generation einfach zu übertragen.
Ich rechne für den Ultra mit ca. 27,5 TFLOPS (falls die Gerüchte mit 76 Kernen recht haben) und damit ein Plus von ca. 30%.
Es muß sich dann erst einmal erweisen, daß Apple diesen potentiellen Zuwachs an Leistung auch "auf den Boden kriegt".

Fehlt nur noch die entsprechende Software um das ausnutzen zu können . Apple muss selber in die Spiele Entwicklung einsteigen und eigene Studios aus der Taufe heben um den Verkauf von diesen M Chips und Macs zu pushen , auch professionelle Anwendungen, da sieht sehr bisher Mau aus. Und die Frage ist ja auch wie lange werden die M Systeme unterstützt? Kauft man sich jetzt ein vollausgebauten Mac Studio für 8000Euro mit M1 Chip Ultra, laufen in 5 Jahren dann dort die Software noch wenn M3/M4 aktuell ist? Gibt es einen kontinuierlichen Support dafür? Sonst braucht man ja nicht so viel Geld in so einem Rechner investieren. 2011 habe ich mir den iMac 27 geholt es gab dann diverse neue Betriebssysteme die man installieren musste, die Software Hersteller haben das aber nicht mitgemacht , es gab viele Programme die ich hatte , dieliefen auf dem neuen Betriebssystem nicht, oder neue Software liefen auf das alte Mac OS nicht. also die Inkompatibilität zwischen den Betriebssystemversionem bei den Macs, schien größer zu sein als zwischen den Windows Versionen und dessen PC Software.

Daredevil
2022-12-31, 16:05:41
Imho geht das alles von alleine, solange Apple mehr und mehr Hardware verkauft.
Wer heute eine App programmiert, bringt sie erst auf iOS raus, da mehr verbreitet und zahlungswilliger als bei Android.
Wenn M1/M2 iPads weiter im Umlauf kommen mitsamt den MacBooks, welche die Windows Welt zahlenmäßig ja aktuell hinter sich lassen im Wachstum, kommen auch automatisch Spiele für den Mac raus. Apple kann das natürlich ähnlich wie AppleTV+ beschleunigen mit Geld, aber das ganze kann sicherlich auch organisch wachsen.

Die Nintendo Switch ist ja ein Beispiel dafür, dass man "normale" Spiele auch auf ein System mit ARM bringen kann, wenn es sich besser verkauf als herkömmliche Konsolen. Und Apple hat halt Desktop/Notebook/Tablet/Smartphone und "Konsole" aka AppleTV, da ist die potentielle Kundschaft schon da.
Apple Arcade und manche gute "Indie" Spiele sind denke ich schon der Grundstein oder erste Tests, wie z.B. Resident Evil.

Platos
2022-12-31, 17:25:14
Bezüglich App: Android ist Stückezahlenmässig vor IOS, aber Zahlungswilliger ist hier wohl das ganz grosse Stichwort.

Daredevil
2022-12-31, 19:51:55
Ich hab mich käsig ausgedrückt, sorry. Natürlich ist die Basis von Android weit verbreiteter, wollte kein Unsinn verbreiten. :)
Kurz anschneiden wollte ich, dass Apple in "Kernmärkten" ihre Position weiter ausbaut und teilweise dort schon über 50% Anteil ist.
Kernmärkte sind dann vermutlich die, die eben zahlungswilliger sind in Dingen wie Services, Apps, Zubehör usw.
Amerika mit 50%+ ist schon echt krass, aber da ist ja auch bestimmt jeder zweite verschuldet. :usad:
Geografische Verteilung ist höchst unterschiedlich
Bei der geografischen Verteilung gibt es allerdings große Unterschiede. In Nordamerika sowie Australien und Ozeanien dominiert iOS mit einem Marktanteil von 54 Prozent (Android: 45 Prozent). Anders sieht das in Europa aus: Hier kommt Googles Betriebssystem auf 69,3 Prozent, während iOS rund 30 Prozent aller Smartphones antreibt. Noch deutlicher ist die Android-Übermacht in Afrika, Asien und Südamerika: Auf diesen Kontinenten erreichen Apples Geräte lediglich eine Verbreitung zwischen 10 und 18 Prozent, nahezu der gesamte Rest von bis zu 90 Prozent entfällt auf Android-Smartphones. StockApps-Analystin Edith Reads rechnet zwar damit, dass Apple in den kommenden Jahren weiter aufholen kann, sieht aber Googles Dominanz auf absehbare Zeit nicht in Gefahr. Sie begründet diese Einschätzung unter anderem mit der Tatsache, dass Android quelloffen ist. Zudem sei der Vorsprung des Suchmaschinen-Konzerns so groß, dass er nur durch etwas Außergewöhnliches überwunden werden könne.

smalM
2023-01-02, 17:01:54
Bezüglich App: Android ist Stückezahlenmässig vor IOS, aber Zahlungswilliger ist hier wohl das ganz grosse Stichwort.
Wen interessieren Stückzahlen? Der Erfolg wird in Geld gemessen: https://www.businessofapps.com/data/app-revenues/

dildo4u
2023-01-17, 15:34:03
M2 Pro/Max angekündigt.


https://www.apple.com/newsroom/2023/01/apple-unveils-m2-pro-and-m2-max-next-generation-chips-for-next-level-workflows/

smalM
2023-01-17, 16:56:21
Tatsächlich 19-Core und 38-Core GPUs, na sowas...

davidzo
2023-01-17, 20:16:20
96GB RAM?

Immer noch 4x packages mit 64bit SI, also 192Gbit per Modul. Der M2pro hat ein geändertes package und ist etwas weniger rechteckig als vorher weil dieselben schmalen 32bit LPDDR5 64Gbit Module wie beim M1 und M2 verwendet werden und nicht die quadratischen 64bit Doppelmodule wie beim M1pro, M1max und M2max.

w0mbat
2023-01-18, 00:34:05
Tatsächlich 19-Core und 38-Core GPUs, na sowas...
Jupp, sehr interessant, dass Apple 19 & 38 Kerne verbaut. Gerüchte haben ja über 20 & 40 Kerne gesprochen. Was wohl der Grund dafür ist?

robbitop
2023-01-18, 09:08:18
Jeweils 1x Kern Redundanz um die Yields zu steigern.

Exxtreme
2023-01-18, 09:22:00
Jupp, sehr interessant, dass Apple 19 & 38 Kerne verbaut. Gerüchte haben ja über 20 & 40 Kerne gesprochen. Was wohl der Grund dafür ist?

Eventuell liegt es daran, dass sich die Gerüchtestreuer was aus den Fingern gesogen haben und 20/40 als nicht-krumme Zahlen so plausibel erschienen.

smalM
2023-01-18, 10:18:19
Jeweils 1x Kern Redundanz um die Yields zu steigern.
Hatte ich auch schon mal vermutet, aber nein, es sind tatsächlich 19 & 38.
Insbesondere das Pro-Design (https://www.apple.com/newsroom/images/product/mac/standard/Apple-M2-chips-M2-Pro-230117.zip) der GPU ist sehr kompakt, sodaß ich geneigt bin zu glauben, daß Apple sich dort alleine aus dem Grund auf 19 Cores beschränkt hat und daß das Max-Design (https://www.apple.com/newsroom/images/product/mac/standard/Apple-M2-chips-M2-Max-230117.zip) aus Symetriegründen dann eben 2x 19 Cores bekam. Bei letzterem wäre ein nicht abgeschnittener Die-Shot abzuwarten, um das besser verstehen zu können.

Ailuros
2023-01-18, 16:14:01
Wenn ich mich nicht verrechnet habe taktet die GPU bei 1.394GHz. Pro Core haben sie stets 128SPs, 8 TMUs & 4 ROPs.

w0mbat
2023-01-24, 12:36:11
Hat sich doch einiges geändert.

HuR7tL2eejw

smalM
2023-02-14, 22:07:56
Neuer Geekbench 6 ist raus.
Es gibt nur noch einen Single- und einen Multicorescore.
Crypto ist weg und die Subscores für Int und Fp ebenso.

Hier ein Vergleich von M1 Pro und M2 Pro. (https://browser.geekbench.com/v6/cpu/compare/134?baseline=499)

Wie bisher muß man bei den Suchergebnissen zum Sortieren "&sort=score" bzw. "&sort=multicore_score" an die URL anhängen, bei einem Einzelergebnis ".gb6" für mehr Informationen.

dildo4u
2023-02-20, 10:44:07
MacBook Pro mit M2 Max im Test: Der Effizienzmeister schlägt mit voller Wucht zurück


https://www.computerbase.de/2023-02/apple-macbook-pro-m2-max-test/


Akkulaufzeit im Youtube Test ist mäh, M3 könnte aber bald AV1 beschleunigen.

https://videocardz.com/newz/apple-safari-16-4-beta-browser-gets-av1-codec-support

MSABK
2023-02-20, 10:56:33
Oh man, sind schon geile Geräte. Aber die Preise sind weit weg von dem was ich mir leisten kann inzwischen.

Edit: Oder besser gesagt gewillt bin zu bezahlen.

Lurtz
2023-02-21, 09:54:04
Akkulaufzeit im Youtube Test ist mäh, M3 könnte aber bald AV1 beschleunigen.

https://videocardz.com/newz/apple-safari-16-4-beta-browser-gets-av1-codec-support
Im Test wird h264 genutzt, nicht AV1.

robbitop
2023-02-21, 10:06:32
Beschleunigt MacOS mit dem M2 keinen modernen Codec in Youtube? Mit h264 bist du sicher? IIRC bietet youtube nur noch VP9 oder alternativ AV1.
Leider scheint noch längst nicht alles in AV1 auf youtube vorzuliegen. Das meiste ist anscheinend noch VP9.

edit: seit MacOS Big Sur gibt es VP9 Support.

Daredevil
2023-02-22, 15:40:20
Für den kommenden iPhone-Chip A17 Bionic soll Apple sich Chips aus TSMCs erstem 3-nm-Verfahren besorgt haben - und zwar alle.
https://www.golem.de/news/soc-apple-soll-sich-tsmcs-gesamten-n3-bestand-gesichert-haben-2302-172057.html

Smartphones, iPads, Watches, MacBooks, Macs, iMacs, MacPro.... da kann man wohl echt nicht genug bekommen, damit man wirklich alles bedienen kann. :ugly:
Netter Nebeneffekt für Apple, nicht für den Kunden > Niemand anderes kann auf die neueste Technik aufbauen, sofern TSMC nicht den nächsten Prozess anbieten kann.

Die Aussage von Golem:
Das 3-nm-Verfahren soll generell eine um 35 Prozent verbesserte Effizienz gegenüber dem 4-nm-Prozess bringen

gepaart mit dem M2 Test von Computerbase:
Im Multi-Core-Test des Cinebench R23 kommt der M2 Pro analog zum M2 Max auf rund 35 Watt, der Core i9-13950HX hingegen auf durchschnittlich 150 Watt. Der 2,18-fachen Leistung steht damit ein 4,3-facher Verbrauch gegenüber. Gedrosselt auf 55 Watt, kommt der Core i9-13950HX noch auf die 1,3-fache Performance, schneidet mit einem 1,6-fachen Strombedarf aber weiterhin schlechter ab, wenngleich deutlich besser. Im Single-Core-Test des Cinebench R23 liefert der Core i9-13950HX die 1,26-fache Leistung bei circa 8-fachem Verbrauch, denn 45 Watt bei Intel stehen nur 5,5 Watt bei Apple gegenüber.
ahne ich nichts gutes für AMD und Intel.
Entweder Apple baut weiterhin noch dünner, damit 20 CPU Kerne auch bald in eine Apple Watch passen, oder sie drehen mal wirklich an der Performance Schraube. Das wird nett. :)

robbitop
2023-02-22, 15:46:40
Ich bin gespannt ob wir mit A17 endlich wieder signifikante Fortschritte bei der CPU sehen werden. Dort tritt man seit A14 praktisch auf der Stelle. Ja die Cores vom A15 haben etwas an Perf/W drauf gelegt aber verglichen zu den Sprüngen davor ist es ein Witz was seit A14 passiert. Klar man hat noch die schnellste mobile uArch aber der Wettbewerb kommt gefühlt immer näher an was vor A14 anders war: der Abstand stieg und stieg.

Der_Korken
2023-02-22, 16:18:03
Die Aussage von Golem:


gepaart mit dem M2 Test von Computerbase:

ahne ich nichts gutes für AMD und Intel.
Entweder Apple baut weiterhin noch dünner, damit 20 CPU Kerne auch bald in eine Apple Watch passen, oder sie drehen mal wirklich an der Performance Schraube. Das wird nett. :)

Bei der MT-Effizenz sehe ich zumindest auf AMD nicht so große Probleme zukommen. Den 7950X kann man locker auf 90W runterschrauben und hat immer noch mehr Performance als ein voll ausgefahrener 7900X mit 200W. Die sind bei niedrigem Takt schon absurd effizient. Die Aussage mit 1.25x ST-Performance bei 8X Verbrauch ist das eigentliche Problem. Teillast- und Idleverbrauch sind und bleiben zumindest bei den Desktop-Modellen von AMD eine Katastrophe. Bei Intel ist zumindest Idle ganz OK. Solange solche Aspekte aber in Reviews keine Beachtung finden, wird kein Hersteller Zeit und Geld aufwenden, um es zu verbessern. Das gleiche gilt auch für Mainboards.

Linmoum
2023-02-22, 16:25:17
Der CB-Test ist wie immer albern, weil deren Apple-Autor Jahr für Jahr den gleichen Müll von sich gibt und vor allem immer nur irgendwelche Intel-Schluckspechte vergleicht, um reißerisch beim Header und dem Fazit sein zu können.

Dem Verbrauchsdiagramm nach liegt das Lenovo Z13 G1 irgendwo bei ~15W SC (6650U Pro) und das Pro mit M2 Max liegt demgegenüber hier nur ~12% vorne. Das ist aber wohlgemerkt auch noch ein Zen3+ als Gegenspieler mit N6 statt N5. Wenn CB da mal Zen4-Werte einpflegt, dann ist der ganze Artikel komplett wertlos. Und bei Intel kann man vielleicht auch mal anders testen und nicht immer to the moon. Völlig albern sowas.

Der_Korken
2023-02-22, 16:31:49
Die U-Modelle von AMD sind in der Tat ganz gut und Zen 4 sehe ich da tendenziell auch vor Apple. Technisch geht es also, aber ein normaler Desktop sieht gegenüber stationären Alternativen wie einem Mac Mini halt übelst alt aus beim Verbrauch.

Daredevil
2023-02-22, 18:47:54
Der CB-Test ist wie immer albern, weil deren Apple-Autor Jahr für Jahr den gleichen Müll von sich gibt und vor allem immer nur irgendwelche Intel-Schluckspechte vergleicht, um reißerisch beim Header und dem Fazit sein zu können.

Dem Verbrauchsdiagramm nach liegt das Lenovo Z13 G1 irgendwo bei ~15W SC (6650U Pro) und das Pro mit M2 Max liegt demgegenüber hier nur ~12% vorne. Das ist aber wohlgemerkt auch noch ein Zen3+ als Gegenspieler mit N6 statt N5. Wenn CB da mal Zen4-Werte einpflegt, dann ist der ganze Artikel komplett wertlos. Und bei Intel kann man vielleicht auch mal anders testen und nicht immer to the moon. Völlig albern sowas.
1. Der Forenpost ist echt unterirdisch, weil du direkt mit der Bias Blase um die Ecke kommst. Warum dieses billige Framing? Wenn die Fakten ein klares Bild sprechen, schreib die doch hier nieder anstatt emotional zu reagieren wie ein Reddit Kid, dass du ihn als "albern" und "reißerisch" betiteln musst, "den gleichen Müll"?
2. Ich glaube wir haben unterschiedliche Tests gesehen.
3. Du hast vollkommen recht, der Vergleich hinkt bei Apple Silicon immer, da niemand ein Komplettpaket wie Apple bauen kann in der Kombination mit CPU/GPU/RAM. Apples "Low Power" SoCs sind aber so gut, dass Redakteure sie mit den HighEnd Modellen vergleichen, weil sie da teilweise auch rankommen, manchmal weit vorne sind, ab und an aber auch mal das Hintertreffen haben.

Jedes mal fühlt sich hier jemand in der Ehre gekränkt. :usad:

Linmoum
2023-02-22, 19:20:31
Ich hab dir einen Fakt niedergeschrieben, auf den er bei seinen Vergleichen komischerweise ja gar nicht eingeht (und sich dann ja halt auch eingestehen müsste, dass er neu vs. "alt" vergleicht). Dass man dem Herren bei CB Apple-Bias unterstellt, hat Gründe die selbst verschuldet sind und in bereits in der Vergangenheit erschienenen Tests und News zu Apple-Produkten liegen.

Du hast aber scheinbar tatsächlich einen anderen Test gesehen oder willst es nicht anders sehen als das, was der Autor dir vorkaut.

Wer objektiv meint, dass AMD bei der Effizienz "vorgeführt" wird, erzählt schlicht nicht die ganze Wahrheit. Und selbst bezogen auf Intel halte ich diese Formulierung in dieser Pauschalität für Quatsch. Aber man kann sich die Vergleichspunkte natürlich so hinbiegen, dass sie das Bild zeichnen, was man haben will.

Ich frage mich eher, warum du so allergisch reagierst. Zumal du ja mit "ahne nichts gutes" angefangen hast. Obwohl AMDs aktuelle Architektur beispielsweise überhaupt nicht in dem Test auftaucht und der Abstand so schon gering ist. ;)

Worauf ich nur allergisch reagiere, sind eigentlich seriöse Tech-Seiten mit reißerischen Headern und "Tests", die man in solch einer Form mit solchen Formulierungen von der Bild erwarten würde.

dildo4u
2023-02-23, 07:38:38
Die x86 Modelle haben doch eh keine Chance da der RAM nicht auf dem Package ist es ist also wirklich Apfel vs Birnen Vergleich.
AMD hat die IGP Leistung bis jetzt nicht hervor gehoben da auch die neuen Modelle nur 12CU haben.(zu wenig Bandbreite/Cache für mher)

Zossel
2023-03-24, 19:19:36
ARM sollte besser heute als morgen sterben:Financial Times zitiert eine Herstellerquelle: "Arm geht zu den Kunden und sagt: 'Wir hätten gerne mehr Geld für im Großen und Ganzen das Gleiche.' Was Softbank im Moment macht, ist, den Marktwert des Monopols zu testen, das ARM innehat".https://www.heise.de/news/Smartphone-Prozessoren-Beschwerden-ueber-neues-ARM-Lizenzmodell-7972452.html

ChaosTM
2023-03-24, 19:23:09
Im Prinzip ja. RISC5 wäre die bessere Alternative.

=Floi=
2023-03-24, 19:52:50
umgedreht erwarten die kunden auch schnellere kerne.

pixelguy
2023-06-05, 19:44:05
https://i.imgur.com/S76luWJ.jpeg

Monster...

smalM
2023-06-05, 19:59:33
Ein Mac Pro ist also ein Mac Studio mit mehr I/O.
Wie wohl die PCIe-Slots an den SoC gekoppelt sind?

Nightspider
2023-06-05, 19:59:44
Second Generation 5nm? :|

Nicht mal ein N4 Prozess?

Platos
2023-06-05, 20:24:18
ARM sollte besser heute als morgen sterben:https://www.heise.de/news/Smartphone-Prozessoren-Beschwerden-ueber-neues-ARM-Lizenzmodell-7972452.html

Viel schlimmer ist doch eig., dass in einem Jahr 1.2 Milliarden Smartphones verkauft wurden.

Wie oft die Leute ihr Smartphone wechseln, ist irgendwie schon krank (hat ja nicht jeder der 8 Milliarden Menschen ein Smartphone und kleine Kinder und ältere Leute ja normalerweise auch nicht).

smalM
2023-06-05, 21:27:49
Second Generation 5nm? :|

Nicht mal ein N4 Prozess?

Wo soll der denn plötzlich herkommen?

Daredevil
2023-06-05, 21:47:37
Den M2Ultra im pro fühle ich überhaupt nicht, da die SC Leistung genauso stark ist wie in einem iPad. Da hätten sie imho warten können auf nen M3Ultra oder M3 Quad oder was auch immer.
Wenigstens ne Ecke OC hätte dran hängen können, aber nöööö. I/O schön und gut, aber das ist ne Nische in der Nische der extrem teuren Geräte.

smalM
2023-06-05, 23:03:49
Den M2Ultra im pro fühle ich überhaupt nicht, da die SC Leistung genauso stark ist wie in einem iPad.
Laß mich raten: Du gehörst nicht zur Zielgruppe.

I/O schön und gut, aber das ist ne Nische in der Nische der extrem teuren Geräte.
Laß mich raten: Du gehörst immer noch nicht zur Zielgruppe.

Daredevil
2023-06-05, 23:14:41
Ich bin die Zielgruppe, die Leistung benötigt und ein M2Ultra leistet teilweise in manchen Workloads halt schlicht nicht mehr als ein iPad Pro mit M2 und der GPU Teil ist zwar schnell, aber immer noch deutlich langsamer in ML Workloads als eine 3090. Einzig und alleine der gemeinsame Speicher ist sehr nett. Aber ja, für den I/O Pro bin ich keine Zielgruppe, für mich wäre eher ein MacStudio eine annehmbare Maschine, aber nicht ohne mehr SC Leistung. q:

Nightspider
2023-06-06, 06:08:56
Wo soll der denn plötzlich herkommen?

Hmm ?

smalM
2023-06-06, 14:02:55
@Nightspider
Die M3-Generation dürfte noch diese Jahr anfangen die M2-Generation abzulösen. Erst M2, die M2 Pro/Max werden dann bald folgen.
Wieso sollte Apple da ausgerechnet den M2 Max, das Die mit der wahrscheinlich geringsten Auflage, vorher noch schnell von N5P nach N4 transferieren? Das ergibt weder ökonomisch noch resourcenseitig Sinn.
Es würde mich nicht wundern, wenn die Produktion von M2 jeder Art bereits eingestellt wäre.

dildo4u
2023-06-07, 12:10:43
DX12 Emulation mit Wine für Mac OS.
Ist nicht für Enduser gedacht sondern für Entwickler zum Testen ob Ports machbar sind.


https://wccftech.com/mac-gaming-may-be-about-to-explode-with-crossovers-wine-diablo-iv-cyberpunk-2077-and-more-already-work/

Video von Apple zum Spiele Portierung.

https://developer.apple.com/videos/play/wwdc2023/10123/

MSABK
2023-06-08, 09:10:18
DX12 Emulation mit Wine für Mac OS.
Ist nicht für Enduser gedacht sondern für Entwickler zum Testen ob Ports machbar sind.


https://wccftech.com/mac-gaming-may-be-about-to-explode-with-crossovers-wine-diablo-iv-cyberpunk-2077-and-more-already-work/

Video von Apple zum Spiele Portierung.

https://developer.apple.com/videos/play/wwdc2023/10123/

Warum nicht für Enduser wenn die Spiele doch laufen?

urpils
2023-06-08, 09:19:07
Warum nicht für Enduser wenn die Spiele doch laufen?

verschiedene Gründe fallen mir ein

- Apple möchte, dass die Spiele portiert werden → also nativ laufen. Dadurch hat sich in der Demo z.B. bei "the Medium" die Framerate von 30 auf etwa 60 fps verbessert. Wenn also "alles läuft über WINE/Proton" (nichts Anderes ist es ja) grundlegend nicht so gut läuft, wie es könnte - dann wird es immer einen Makel haben
- "laufen" heißt nicht → gut/fehlerfrei; das System ist gedacht, um eine Vorstellung davon zu bekommen, was geht/nicht geht, wenn man Shader/... relativ simple auf die nativen macOS Schnittstellen portiert. Kann gut sein, dass Grafik läuft, aber Sound aufgrund irgendwelcher Custom-Software nicht läuft; da kann man dann auch nix tun als Nutzer
- Apple hat die nen großen Patch aus deren Entwicklung aktuell in wine hochgeladen. Somit ist es sehr realistisch, dass offiziell von Apple das System für Entwickler gedacht ist, es aber früher oder später (z.B. per Crossover) auch dem Standardnutzer relativ einfach zugänglich wird.

dildo4u
2023-06-08, 09:25:38
CPU Overhead/Inkompatibilität mit DRM etc.
Und die Mac Displays haben oft sinnlos Hohe Auflösungen, da macht es Sinn fürs Gaming Apples eigenes Upsampling zu nutzen.

MSABK
2023-06-08, 10:02:39
Bin mal gespannt was sich da tut, gpu power hat Apple ja genug.

urpils
2023-06-08, 12:39:32
Bin mal gespannt was sich da tut, gpu power hat Apple ja genug.

"gpu-power" in Bezug auf was?
Für Low-End/Mainstream: klar.
Für High-End? da haben sie leider nichts. :/

smalM
2023-06-08, 14:36:38
GB5 M2 Ultra (https://browser.geekbench.com/v5/cpu/21305974)

Wenn das echt ist:

Single-Core Performance
Single-Core Score 1956
Crypto Score 2912
Integer Score 1793
Floating Point Score 2149

Multi-Core Performance
Multi-Core Score 27945
Crypto Score 46817
Integer Score 24532
Floating Point Score 32195

Im Vergleich mit dem M1 Ultra (https://browser.geekbench.com/v5/cpu/compare/21305974?baseline=15339966)

DozerDave
2023-06-08, 16:55:11
Singlecore +9,3%
Multicore +14,7%

smalM
2023-06-08, 18:05:38
@DozerDave
Der M1 Ultra ist ein sehr gut gehendes Exemplar in SC und das schnellste in MC in der Datenbank.
Der M2 Ultra ist in SC gegenüber M2 Max (gleicher Takt) eher mittelprächtig, MC ist natürlich offen.

Ailuros
2023-06-09, 12:08:42
"gpu-power" in Bezug auf was?
Für Low-End/Mainstream: klar.
Für High-End? da haben sie leider nichts. :/

Von einer anderen Perskeptive auf Papier bzw. Marketing-Gefusel deckt Apple selbst eine high end laptop GPU Loesung. Dass es keinen anstaendigen Treiber dafuer gibt ist leider der springende Punkt der die eigentlich hw zum Papiertiger degradiert.

In synthetischem Mist leistet die M1 Ultra GPU schon in etwa was man von dieser erwarten wuerde:

https://gfxbench.com/result.jsp?benchmark=gfx50&test=778&text-filter=&order=median&ff-lmobile=true&ff-smobile=true&os-Android_gl=true&os-Android_vulkan=true&os-iOS_gl=true&os-iOS_metal=true&os-iPadOS_metal=true&os-Linux_gl=true&os-OS_X_gl=true&os-OS_X_metal=true&os-Windows_dx=true&os-Windows_dx12=true&os-Windows_gl=true&os-Windows_vulkan=true&pu-dGPU=true&pu-iGPU=true&pu-GPU=true&arch-ARM=true&arch-unknown=true&arch-x86=true&base=gpu

Die 4090 laptop GPU ist hier um ca. 18% vor der M1 Ultra GPU. Den Unterschied wird der Nachfolger schon decken, aber eben leider nach wie vor nur extrem selten oder gar nicht in echten Spielen.

dildo4u
2023-06-09, 15:40:13
No Mans Sky auf Apple M1 bis M2 Max


GkrEtm8wOfQ

robbitop
2023-06-09, 18:04:54
Wenn sie es mittelfristig annähernd auf das Level von Proton bei SteamOS hinbekommen eröffnet sich eindeutig die Möglichkeit für Spiele auf dem Mac. Mein Steam Deck hat bisher so ziemlich alles gefressen was ich ihm an Spielen gegeben hab. Und das auch relativ zu HW echt mit sehr guter Performance.

urpils
2023-06-09, 18:25:26
Von einer anderen Perskeptive auf Papier bzw. Marketing-Gefusel deckt Apple selbst eine high end laptop GPU Loesung. Dass es keinen anstaendigen Treiber dafuer gibt ist leider der springende Punkt der die eigentlich hw zum Papiertiger degradiert.

In synthetischem Mist leistet die M1 Ultra GPU schon in etwa was man von dieser erwarten wuerde:

https://gfxbench.com/result.jsp?benchmark=gfx50&test=778&text-filter=&order=median&ff-lmobile=true&ff-smobile=true&os-Android_gl=true&os-Android_vulkan=true&os-iOS_gl=true&os-iOS_metal=true&os-iPadOS_metal=true&os-Linux_gl=true&os-OS_X_gl=true&os-OS_X_metal=true&os-Windows_dx=true&os-Windows_dx12=true&os-Windows_gl=true&os-Windows_vulkan=true&pu-dGPU=true&pu-iGPU=true&pu-GPU=true&arch-ARM=true&arch-unknown=true&arch-x86=true&base=gpu

Die 4090 laptop GPU ist hier um ca. 18% vor der M1 Ultra GPU. Den Unterschied wird der Nachfolger schon decken, aber eben leider nach wie vor nur extrem selten oder gar nicht in echten Spielen.

aber "high-end" ist für mich nicht "Laptop"... wenn ich mir nen mac Studio oder macPro kaufe, dann hilft es mir nicht, wenn ich synthetisch fast so schnell wie ein Laptop werde.. oder? :confused:

smalM
2023-06-09, 19:34:18
Der M2 Ultra dürfte gegenüber dem M2 Max kein Deut besser skalieren als der M1 Ultra gegenüber dem M1 Max.

Apple wird die Effizienz – gemeint ist hier das Verhältnis von eingesetzen HW-Resourcen zu Leistung – ihrer zusammengesetzten GPUs noch deutlich steigern müssen, insbesondere, wenn zukünftig mehr als 2 Dies im Spiel sein werden.
In Anbetracht von Apples Anspruch würde ich daher in Sachen GPU den Ansatz von M1/M2 Ultra eher als gescheitert betrachten.

Die Frage ist, sind das nur ein paar Bottlenecks, die bspw. in der M3-Generation schon behoben sein könnten? Oder ist es ein grundsätzlicheres Problem, das nur schwer anzugehen ist?

Ailuros
2023-06-11, 12:12:52
aber "high-end" ist für mich nicht "Laptop"... wenn ich mir nen mac Studio oder macPro kaufe, dann hilft es mir nicht, wenn ich synthetisch fast so schnell wie ein Laptop werde.. oder? :confused:


Ich hab es vielleicht schlecht in Erinnerung, aber welche GPUs genau hat denn Apple vor den Mx SoCs in ihre PCs und co damals integiert?

Ailuros
2023-06-11, 12:20:20
Der M2 Ultra dürfte gegenüber dem M2 Max kein Deut besser skalieren als der M1 Ultra gegenüber dem M1 Max.

Apple wird die Effizienz – gemeint ist hier das Verhältnis von eingesetzen HW-Resourcen zu Leistung – ihrer zusammengesetzten GPUs noch deutlich steigern müssen, insbesondere, wenn zukünftig mehr als 2 Dies im Spiel sein werden.
In Anbetracht von Apples Anspruch würde ich daher in Sachen GPU den Ansatz von M1/M2 Ultra eher als gescheitert betrachten.

Die Frage ist, sind das nur ein paar Bottlenecks, die bspw. in der M3-Generation schon behoben sein könnten? Oder ist es ein grundsätzlicheres Problem, das nur schwer anzugehen ist?

M1 Ultra skaliert wie erwartet im Vergleich zu allem M1 darunter ausserhalb Spielen wohl nur in einem 4k synthetischen Test wo (auch wie erwartet) jeglicher M1 Variante bis zur Ultra die Bandbreite u.a. ausgeht. Wuerde die Ultra nirgends voll skalieren dann waere es ein hw Problem.

Ich befuerchte dass wenn sich die Apple sw engineers nicht hinsetzen und sich um anstaendigere 3D Treiber kuemmern, es ziemlich egal sein wird ob sie jetzt in einen SoCs 40-50 oder 100 GPU clusters in einen SoC integrieren.

smalM
2023-06-11, 13:13:52
Ich hab es vielleicht schlecht in Erinnerung, aber welche GPUs genau hat denn Apple vor den Mx SoCs in ihre PCs und co damals integiert?
Mac Pro
Radeon Pro Vega II Vega 20
Radeon Pro W5500X Navi 14
Radeon Pro W5700X Navi 10
Radeon Pro W6600X Navi 23
Radeon Pro W6800X Navi 21
Radeon Pro W6900X Navi 21

iMac Pro
Radeon Pro Vega 56 Vega 10
Radeon Pro Vega 64 Vega 10
Radeon Pro Vega 64X Vega 10

iMac 27"
Radeon Pro 5300 Navi 14
Radeon Pro 5500 XT Navi 14
Radeon Pro 5700 Navi 10
Radeon Pro 5700 XT Navi 10

MacBook Pro
Radeon Pro 5300M Navi 14
Radeon Pro 5500M Navi 14
Radeon Pro 5600M Navi 10

Daredevil
2023-06-11, 13:24:29
Der M2 Ultra dürfte gegenüber dem M2 Max kein Deut besser skalieren als der M1 Ultra gegenüber dem M1 Max.


Leaks zu diversen Ergebnissen im GPU Bereich sprechen aktuell dafür, dass Apple dort irgendwas "gefixt" haben soll.
Die Gerüchteküche redet ja eh davon, das man einen M1"Extreme" bauen wollte, also mit 4x Max Chips, die Skalierung aber schlecht gewesen sein soll.
Wenn sie das technologisch in der M2 Variante nun gelößt sein sollte, ist das schon mal nett, der richtige Star wird aber imgo eher in 3nm gebaut für einen "richtigen" Pro Chip. ^^
GFXBench soll wohl beim M2 Ultra 56% besser performen, was außerhalb der "30% increase" liegt. ( https://www.youtube.com/watch?v=ZAW1pQJIqp8 )
Apple selbst gibt ja an, dass der M2 Ultra deutlich in GPU intensiven Tasks besser performt als die M1 Variante.

Hier sieht man M1 Ultra vs. M2 Ultra, allerdings nur Geekbench. Trotzdessen sehen die einzelnen Tests ja erfolgsversprechend aus.
https://browser.geekbench.com/v5/compute/compare/6557339?baseline=6557839

vinacis_vivids
2023-06-11, 13:28:20
Naja, wird Zeit, dass Apple zurück zu AMD geht was GPUs angeht und evtl. auch CPUs. AMD kann es einfach besser.

Was Apple derzeit liefert, ist einfach überteuert und nicht wirklich gut. Ständig top-notch TSMC-Fertigung, weil sie Kohle ohne Ende haben, aber die uArch ist nur unteres Mittelmaß.

Was sie können, sind halt propiätäre Modelle basteln, und dabei sollen sie bleiben. Design und Marketing ist super. Aber die eigene Apple-uArch ist einfach überteuert, für den Preis eher schwach und auf Kosten der unwissenden Kunden gebaut.

Selbst ne alte Vega20 und ne starke AMD-CPU hält locker mit Apple M1/M2 mit.

Demogod
2023-06-11, 13:50:02
obviously troll post ??! ^^ #5915

DozerDave
2023-06-11, 14:16:34
Der Kollege hat noch nie einen Mac mit m1 oder m2 genutzt.

vinacis_vivids
2023-06-11, 14:23:47
Wozu auch? Für die Kohle stelle ich mir ein deutlich besseres System her - Workstation:

AMD 64C vs Intel 56C vs M2 Ultra

https://abload.de/thumb/20230611_142225v4i9k.jpg (https://abload.de/image.php?img=20230611_142225v4i9k.jpg)

Daredevil
2023-06-11, 14:42:29
Spannend.

AMD Ryzen Threadripper PRO 5995WX: 5899€
280w TDP

Intel Xeon w9-3495X: 6869€
420w TDP

MacStudio mit M2 Ultra: 4800€
inkl. Case, Netzteil, 64GB Unified Memory, 60Core GPU, 1TB PCIe 4th, ProRes Beschleunigung, Lautsprecher, 10GB Ethernet, 4x Thunderbolt, Wlan 6E, nahezu lautlose Kühlung
ca. 70w Verbrauch MT CPU

Völlig rückständig. Da wirkt der M2 Ultra sogar so, als wäre das ein ziemlich guter Deal. :<)

smalM
2023-06-11, 14:50:20
GFXBench
M1 Max M1 Ultra % M2 Max M2 Ultra %
Aztec 4K 141,8 261,4 84,3 178,8 298,1 66,7
Aztec 1440p hi 311,8 507,7 62,8 398,9 594,3 49,0
Aztec 1080p lo 782,4 727,9 -7,0 968,4 901,3 -6,9
Car Chase 466,3 434,1 -6,9 593,6 572,6 -3,5
Manhattan 3.1.1 516,7 884,3 71,1 674,8 1112,7 64,9

Die Daten für den M2 Ultra dürften sich zwar noch bessern, wenn die Datenbasis größer wird, aber Wesentliches wird sich wohl nicht mehr tun.
Ich kann jetzt nicht sehen, daß von M1 zu M2 eine positive Entwicklung stattgefunden haben soll.

Tarkin
2023-06-11, 21:03:38
Spannend.

AMD Ryzen Threadripper PRO 5995WX: 5899€
280w TDP

Intel Xeon w9-3495X: 6869€
420w TDP

MacStudio mit M2 Ultra: 4800€
inkl. Case, Netzteil, 64GB Unified Memory, 60Core GPU, 1TB PCIe 4th, ProRes Beschleunigung, Lautsprecher, 10GB Ethernet, 4x Thunderbolt, Wlan 6E, nahezu lautlose Kühlung
ca. 70w Verbrauch MT CPU

Völlig rückständig. Da wirkt der M2 Ultra sogar so, als wäre das ein ziemlich guter Deal. :<)

Ja, nur leider ist so ein Threadripper Sytem auch ungefähr 3x so schnell beim Rendering

Besser wäre hier ein Vergleich mit einem 13900K, 7900X od 7950X System + GPU... kriegt man für DEUTLICH weniger Geld als dieses komplett überteuerte Apple Gerümpel.

Apple baut tolle Geekbench 6 CPUs... kann man Apple Fanboys wunderbar damit blenden.

In klassischen MT Tests wird ein 7950X im Eco Mode mit 65W im Schnitt wahrscheinlich ungefähr die selbe Performance erreichen wie ein M2 Ultra

pixelguy
2023-06-11, 21:12:51
So ein Unsinn….

Schaut euch doch mal die echten professionellen use cases bei Foto oder Videoproduktion an und zeigt mir ein PC System im Vergleich.

Monkey
2023-06-11, 21:28:05
Keine Ahnung was für Produktionen du jetzt genau meinst aber ich kann dir sagen das mein m1max ziemlich gleich auf mit meinem alten 1700x Vega64 Desktop, oder meinem ehemaligen 5900hs 3060 Laptop im Bereich Videoschnitt ist. Bei Canon 6k Raw kollabiert das mbp ziemlich schnell was die timeline Performance in davinci resolve angeht.

Dafür hat es andere Vorteile, aber die reine Performance ist es nicht.

vinacis_vivids
2023-06-11, 22:01:11
Der M2Max ist einfach riesig und bringt wenig Leistung:

Cinebench23 MC:
Apple M2 Max - 14767
AMD 7950X3D - 36291

Der 7950X3D ist +146% schneller bzw. viel mehr als doppelt so schnell wie der M2 Max.

Blender 3.3 Classroom CPU:
Apple M2Max : 326 Sekunden
AMD 7950X3D : 133 Sekunden

knapp 200 Sekunden Vorsprung für den 7950X3D! AMD ist in einer ganz anderen Liga technisch gesehen.

Rooter
2023-06-11, 22:23:14
Der M baucht dafür aber nur einen Bruchteil der Leistung. Wobei ich verstehen, wenn das für jemand keine Rolle spielt. Für mache aber halt schon.

MfG
Rooter

mocad_tom
2023-06-11, 23:59:15
@pixelguy

bei videoschnitt und bildbearbeitung benchmarkst du am ende bloß die nvme ssd.

da steckt man eine gute optane ssd in ein mittelgutes system und macht alles platt.

bei videoschnitt von 4k hdr raw material ist nur die nachhaltige langanhaltende schreibleistung ausschlaggebend.
und da macht man immer den Dram auf dem controller dicht.

optane schreibleistung ca faktor 5 von dlc flash.

=Floi=
2023-06-12, 02:13:32
Der M2Max ist einfach riesig

AMD 7950X3D




kann mal jemand den m2max mit dem x3d vergleichen?
mm2 und transistoren.


ich denke, apple will bewusst nicht die vulkan und dx12 sau durchs dorf treiben, wenn sie auf metal selbst die hand drauf haben und so viel effizienter grafikausgabe darstellen können.
zumindest glaube ich, dass hier einer der grossen keys liegt.
Für die pixeldichte sind mobile chips absurd sparsam. ich kann es mir nur so erklären, dass apple hier noch einen draufsetzt und unter der haube von metal alles auf effiziente und energiesparende ausgabe ausgelegt wurde.

Zossel
2023-06-12, 06:41:05
ich denke, apple will bewusst nicht die vulkan und dx12 sau durchs dorf treiben, wenn sie auf metal selbst die hand drauf haben und so viel effizienter grafikausgabe darstellen können.

Alle sind mal wieder doof, bis auf Apple?

Ailuros
2023-06-12, 10:50:13
GFXBench
M1 Max M1 Ultra % M2 Max M2 Ultra %
Aztec 4K 141,8 261,4 84,3 178,8 298,1 66,7
Aztec 1440p hi 311,8 507,7 62,8 398,9 594,3 49,0
Aztec 1080p lo 782,4 727,9 -7,0 968,4 901,3 -6,9
Car Chase 466,3 434,1 -6,9 593,6 572,6 -3,5
Manhattan 3.1.1 516,7 884,3 71,1 674,8 1112,7 64,9

Die Daten für den M2 Ultra dürften sich zwar noch bessern, wenn die Datenbasis größer wird, aber Wesentliches wird sich wohl nicht mehr tun.
Ich kann jetzt nicht sehen, daß von M1 zu M2 eine positive Entwicklung stattgefunden haben soll.

Ausser Kishonti schmeisst noch eine 8k Variante des Tests in den Mix und die Ultras koennen ihre Beine noch weiter ausstrecken.

Mich wuerde fuer das obrige eher ein perf/W Test interessieren.

Aquaschaf
2023-06-12, 12:28:20
kann mal jemand den m2max mit dem x3d vergleichen?
mm2 und transistoren.


ich denke, apple will bewusst nicht die vulkan und dx12 sau durchs dorf treiben, wenn sie auf metal selbst die hand drauf haben und so viel effizienter grafikausgabe darstellen können.
zumindest glaube ich, dass hier einer der grossen keys liegt.
Für die pixeldichte sind mobile chips absurd sparsam. ich kann es mir nur so erklären, dass apple hier noch einen draufsetzt und unter der haube von metal alles auf effiziente und energiesparende ausgabe ausgelegt wurde.

Ich denke Apple ist Kontrolle über ihr eigenes Ökosystem sehr wichtig, Kompatibilität mit anderen, und Rückwärtskompatibilität weniger. Es dürfte aus ihrer Sicht Arbeit sparen und flexibler sein etwas eigenes anzubieten, anstatt an Standards teilzuhaben. Der Anteil der API an der Effizienz ist vielleicht vorhanden, aber eher gering.

Tarkin
2023-06-13, 07:48:31
Tja.... sag ich doch. 65w 7950X schneller als M2 Ultra

und ein Ryzen 9 7945HX ist sogar noch einen Zacken schneller mit 33-34k in CB R23

also ca. 17% mehr Leistung ;)

smalM
2023-06-13, 10:16:11
Hector Martin (https://social.treehouse.systems/@marcan/110493886026958843) zum Mac Pro:
They have two big PCIe switches and are hanging everything off of them.

From the device tree:

8x Gen4 lanes on die 0, switched:
x1 to USB internal
x2 to SATA internal
x4 to I/O card (USB, probably single lane connected)
x8 to slot6
x1 to LAN1
x1 to LAN2
x1 to WiFi/BT

16x Gen4 lanes on die 1, switched:
x16 to slot1
x16 to slot2
x8 to slot3
x8 to slot4
x8 to slot5

Daredevil
2023-06-13, 11:45:51
Da scheint es wohl doch noch Probleme teilweise zu geben mit dem Scaling, sehr schade.
Die ganzen M2 Reviews sind eigentlich komplett sinnlos, als würde man nen 9900k und nen 9900ks komplett einmal durch die Benchmarks ziehen.
Beim Ultra ist das auch nicht anders, Evolution einer sehr guten "First Gen" Architektur, aber keine Revolution. Next.
5QUA5d1l3uo

Aquaschaf
2023-06-13, 12:18:51
Tja.... sag ich doch. 65w 7950X schneller als M2 Ultra

und ein Ryzen 9 7945HX ist sogar noch einen Zacken schneller mit 33-34k in CB R23

also ca. 17% mehr Leistung ;)

65 Watt sind die eingestellte TDP. In dem Artikel von Anandtech zieht der 7950X damit knapp über 90 Watt. Damit liegt er was Leistung/Watt angeht etwa 20% hinter dem M2 Ultra (der braucht 36 Watt).

Zen 4 Mobile kommt in etwa an die Effizient von M2 ran bei Multi-Threading: https://www.notebookcheck.com/AMD-Ryzen-9-7940HS-in-der-Analyse-Zen4-Phoenix-ist-im-Idealfall-so-effizient-wie-Apple.709916.0.html

Single-Threaded ist Apple aber immer noch weit vorne.

smalM
2023-06-14, 23:37:20
Zen 4 Mobile kommt in etwa an die Effizient von M2 ran bei Multi-Threading: https://www.notebookcheck.com/AMD-Ryzen-9-7940HS-in-der-Analyse-Zen4-Phoenix-ist-im-Idealfall-so-effizient-wie-Apple.709916.0.html
Und wieder welche, die doch tatsächlich den R23 für einen CPU-Test halten. :freak:

Rooter
2023-06-15, 00:39:32
Tja.... sag ich doch. 65w 7950X schneller als M2 UltraWie viel Watt braucht der M2 Ultra?

MfG
Rooter

basix
2023-06-15, 07:54:42
Wie viel Watt braucht der M2 Ultra?

MfG
Rooter

Ein M2 benötigt 23W bei CB23 MT (https://www.techspot.com/review/2499-apple-m2/). Ein M2 Ultra mit 4x P-Cores und 2x E-Cores wird wohl nahe des vierfachen schlucken. Eine Annahme von ~70...80W ist wohl nicht verkehrt.

Im Endeffekt: Wenn man AMD und Intel CPUs auch am Sweetspot betreibt und ähnliche Prozesse wie Apple nutzen (N4/N5), nimmt sich das alles nicht viel bei der Energieeffizienz. Dass Apples Chips als energieeffizienter wahrgenommen werden liegt an zwei Dingen: Taktraten liegen näher beim Sweetspot und niedrigem Idle-Verbrauch.

robbitop
2023-06-15, 10:33:51
Naja synthetische MT Tests sind jetzt nicht so aussagekräftig. AMD hat nur P Cores die auch noch SMT haben. Die M Cores sind ja eher für die Mac typischen Anwendungen gemacht wo reine MT Leistung allein nicht so der Bottleneck ist.

smalM
2023-06-15, 13:23:21
Ein M2 benötigt 23W bei CB23 MT (https://www.techspot.com/review/2499-apple-m2/).
Das ist falsch ausgedrückt: R23 kann den M2 nur so weit auslasten, daß der 23W benötigt. Unter CPU-Vollast zieht ein M2 eigentlich klar über 30W.

davidzo
2023-06-15, 14:50:30
Ein M2 benötigt 23W bei CB23 MT (https://www.techspot.com/review/2499-apple-m2/). Ein M2 Ultra mit 4x P-Cores und 2x E-Cores wird wohl nahe des vierfachen schlucken. Eine Annahme von ~70...80W ist wohl nicht verkehrt.


Wall Power :freak:
Leute, das ist das gesamte Notebook nicht die CPU ;D;D

Daredevil
2023-06-15, 17:38:50
Ein M2 benötigt 23W bei CB23 MT (https://www.techspot.com/review/2499-apple-m2/). Ein M2 Ultra mit 4x P-Cores und 2x E-Cores wird wohl nahe des vierfachen schlucken. Eine Annahme von ~70...80W ist wohl nicht verkehrt.

Good Call! Sind 70w in Cinebench Multi und die Kiste wird nicht wärmer als 80°C und ist im Grunde lautlos. :ugly:
Ergebnisse bei 5:00
d2DKSjyY74Q

basix
2023-06-15, 18:07:42
Wall Power :freak:
Leute, das ist das gesamte Notebook nicht die CPU ;D;D

"Wall Power Minus Idle Power" lese ich da ;) Anscheinend hast du nur bis Wall Power gelesen und dann hat das Apple Jünger Hirn getriggert :D (Scherz ;))

Zieh noch 10-20% ab für die Wandler- & Netzteilverluste und du landest bei ~20W. 4*20W = 80W - weniger E-Cores = ~M2 Ultra

Das obige Video von Daredevil zeigt 70W Package Power :D

davidzo
2023-06-15, 19:49:07
"Wall Power Minus Idle Power" lese ich da ;) Anscheinend hast du nur bis Wall Power gelesen und dann hat das Apple Jünger Hirn getriggert :D (Scherz ;))

Zieh noch 10-20% ab für die Wandler- & Netzteilverluste und du landest bei ~20W. 4*20W = 80W - weniger E-Cores = ~M2 Ultra

Das obige Video von Daredevil zeigt 70W Package Power :D

Und der Idleverbrauch zählt vielleicht nicht zur CPU dazu ;D ?
Und wo sind da die Ram, i/o, Storage - die sind im M2 Package doch mit drin, im 6800U nicht.

Nee, das sind alles keine ordentlichen Messungen, auch das Video von Daredevil ist schrott. Sofwaretools sind im Zweifelsfalle nicht gut kalibriert und sollten immer durch steckdosenmessung überprüft werden, denn jeder Hersteller verwendet da andere Methoden.
Man kann doch auch nicht theoretische TDP Werte einer CPU alleine auf der einen Seite mit der Wallpower, also einem SOC, Ram, Storage auf der anderen Seite vergleichen.

Übrigens auch auf der x86 Seite. Dort die TDP-up zu veranschlagen in der der Prozess maximal ineffizient arbeitet wäre auch unfair X86 gegenüber. Es gibt aber auch Vollastworkloads in der ein M1Ultra in MT nur 38Watt braucht und solche in denen er mit 90Watt läuft -total Anwendungsabhängig. Dasselbe übrigens auch bei den AMD APUs, wobei da dort meist die TDP-limits greifen und einfach unterschiedliche Taktraten anliegen.

Einfach nur zwei Maximalwerte zu vergleichen ist wie die Autogeschwindigkeit im freien Fall zu messen. Das hat heutzutage keine Aussage mehr über die Anwendungsrealität. Das ist lediglich eine Messung von Lastspitzen und darin vermutlich nichtmal genau weil nicht hochauflösend genug. In Cinebench r23 mag das vielleicht reproduzierbare Ergebnisse geben, aber vergleichbar mit anderen Anwendungen sind die damit noch lange nicht.

Es gibt auf der x86 Seite raffinierten Turbomechanismen und Kurzzeit-TDPs die im Testverlauf auch mal mehrfach getriggert werden können und auf der anderen Seite kann auch ein M2Ultra mehr verbrauchen als die CPUkerne alleine wenn zusätzlich noch die GPU, NPU und Prores Codecs Vollast laufen sowie das SI voll ausgelastet sind.
Ein sinnvoller Vergleich ist daher immer nur die Messung der verbrauchten Energie für einen abgeschlossenen Job. Und zwar entweder mit externen proben direkt aus der spannungsversorgung des chips oder als Gesamtsystemlast an der Steckdose. Damit ignoriert man die Lastspitzen und kürzt die Performanceunterschiede raus. Es misst ausschließlich die Effizienz und zwar genau so wie es ein Nutzer erwartet. Der will beim Thema Effizienz nicht wissen welches Gerät mehr verbraucht, aber ggf. schneller fertig wird (performance ist auch ein thema für sich), sondern wieviel Akkuleistung nach dem Job noch vorhanden ist.

Was wir brauchen ist ein direkter Vergleich wieviele Joule oder Kwh ein Cinebench MT Durchlauf kostet. Und dasselbe mit Lightroom, Handbrake, Davinci, arnold, corona, Finalcut, premiere etc.
Verbrauchte Joules ist die einzig relevante Metrik für Effizienz. Bei Games dann eben verbrauchte Energie für 30min gaming mit 120FPS cap oder so.
Und ich schlage vor das ersteinmal an der Steckdose zu messen, da sonst eben vernachlässigt wird wieviel der DRAM auf dem Package verbraucht, der bei x86 extern sitzt, wieviel der T2 cryptochip und integrierte flashcontroller im M2 verbrauchen die bei x86 extern sind und wieviel die NPU und Codecs verbrauchen.

Daredevil
2023-06-15, 21:05:23
Im Grunde muss man erstmal Workloads finden, die halt auch der "Realität" entsprechen und damit meine ich nicht "Realtests", sondern Tests, wo der Mehrwert auch richtig gegeben ist.
Beispiel MaxTech Video:
5Min 4k HEVC Export: M1 Studio: 1:17, M2 Studio: 0.47.
Selbst wenn der Export über 60 Minuten gehen sollte, ist die Ersparnis hier gering.
Der Lightroom Classic Test ist da schon ausschlaggebender, wo der alte Intel MacPro 12+ Minuten braucht für den Workload und der M2 Ultra 3 Minuten.... aber WER ZUM HIMMEL EXPORTIERT DENN 500 42MP BILDER DEN GANZEN TAG? :D

Für diejenigen, die Videoschnitt und Bearbeitung nutzen mit den Tools und Formaten, wo Apple Silicon glänzen kann, den ist sie Ersparnis doch egal, solang es keine Workloads sind, wo man 1 Stunde+ warten muss, mehrmals am Tag. Wo hingegen Apple aber noch arbeiten muss, sind reine CPU Workloads und reine GPU Workloads, lass es z.B. Xcode sein, Streaming in H264, 3D Rendern Kram und meinetwegen auch AI Workloads. Da ist die Leistung schon okay, aber nicht bahnbrechend, wie sie es z.B. mit ihren eigenen En/Decodern hinbekommen.

Es ist halt vielleicht ein wenig ambitionierter, AMD und Nvidia mit einer APU in den Arsch treten zu wollen, als das man es separat macht. Zugegeben, eine ganz schon große APU. :D
Es reizt mich als Bastelmaschine schon wirklich sehr, aber da 3nm vor der Tür steht, kann ich das einfach nicht tun, die SC Leistung ist einfach zu schwach.

basix
2023-06-15, 21:28:45
Und der Idleverbrauch zählt vielleicht nicht zur CPU dazu ;D ?
Wenn du den Idle-Verbrauch noch dazuzählen musst, dann sieht es für den M2 noch schlechter aus. Der ist beim 65W 7950X schon integriert ;)


Und wo sind da die Ram, i/o, Storage - die sind im M2 Package doch mit drin, im 6800U nicht.

Und wieder besser für M2. Obwohl das sehr niedrige einstellige Wattzahlen bei Mobile und DDR5 sein dürften. 16 GByte DDR5 bei Burst Write = 2W: https://www.computerbild.de/artikel/cb-Tipps-Software-Arbeitsspeicher-Stromverbrauch-Wie-viel-Energie-benoetigt-RAM-32805127.html

Und das sind DIMMs und nicht LPDDR5X inkl. erweiterten Stromsparmechanismen.

Endeffekt: Wieder in etwa Gleichstand ;)


Nee, das sind alles keine ordentlichen Messungen, auch das Video von Daredevil ist schrott. Sofwaretools sind im Zweifelsfalle nicht gut kalibriert und sollten immer durch steckdosenmessung überprüft werden, denn jeder Hersteller verwendet da andere Methoden.
Man kann doch auch nicht theoretische TDP Werte einer CPU alleine auf der einen Seite mit der Wallpower, also einem SOC, Ram, Storage auf der anderen Seite vergleichen.

Kein SW Tool ist super akkurat aber +/-10% wird es schon hinkommen. Mehr wollen wir ja gar nicht wissen, wenn sich eh schon beide auf Augenhöhe bewegen. Ob jetzt der eine Chip evtl. 10% effizienter ist ist faktisch egal. Ist mMn immer noch auf Augenhöhe.



Übrigens auch auf der x86 Seite. Dort die TDP-up zu veranschlagen in der der Prozess maximal ineffizient arbeitet wäre auch unfair X86 gegenüber. Es gibt aber auch Vollastworkloads in der ein M1Ultra in MT nur 38Watt braucht und solche in denen er mit 90Watt läuft -total Anwendungsabhängig. Dasselbe übrigens auch bei den AMD APUs, wobei da dort meist die TDP-limits greifen und einfach unterschiedliche Taktraten anliegen.

Einfach nur zwei Maximalwerte zu vergleichen ist wie die Autogeschwindigkeit im freien Fall zu messen. Das hat heutzutage keine Aussage mehr über die Anwendungsrealität. Das ist lediglich eine Messung von Lastspitzen und darin vermutlich nichtmal genau weil nicht hochauflösend genug. In Cinebench r23 mag das vielleicht reproduzierbare Ergebnisse geben, aber vergleichbar mit anderen Anwendungen sind die damit noch lange nicht.

Es gibt auf der x86 Seite raffinierten Turbomechanismen und Kurzzeit-TDPs die im Testverlauf auch mal mehrfach getriggert werden können und auf der anderen Seite kann auch ein M2Ultra mehr verbrauchen als die CPUkerne alleine wenn zusätzlich noch die GPU, NPU und Prores Codecs Vollast laufen sowie das SI voll ausgelastet sind.
Ein sinnvoller Vergleich ist daher immer nur die Messung der verbrauchten Energie für einen abgeschlossenen Job. Und zwar entweder mit externen proben direkt aus der spannungsversorgung des chips oder als Gesamtsystemlast an der Steckdose. Damit ignoriert man die Lastspitzen und kürzt die Performanceunterschiede raus. Es misst ausschließlich die Effizienz und zwar genau so wie es ein Nutzer erwartet. Der will beim Thema Effizienz nicht wissen welches Gerät mehr verbraucht, aber ggf. schneller fertig wird (performance ist auch ein thema für sich), sondern wieviel Akkuleistung nach dem Job noch vorhanden ist.

Was wir brauchen ist ein direkter Vergleich wieviele Joule oder Kwh ein Cinebench MT Durchlauf kostet. Und dasselbe mit Lightroom, Handbrake, Davinci, arnold, corona, Finalcut, premiere etc.
Verbrauchte Joules ist die einzig relevante Metrik für Effizienz. Bei Games dann eben verbrauchte Energie für 30min gaming mit 120FPS cap oder so.
Und ich schlage vor das ersteinmal an der Steckdose zu messen, da sonst eben vernachlässigt wird wieviel der DRAM auf dem Package verbraucht, der bei x86 extern sitzt, wieviel der T2 cryptochip und integrierte flashcontroller im M2 verbrauchen die bei x86 extern sind und wieviel die NPU und Codecs verbrauchen.

Für CB23 gibt es das bereits:
https://github.com/BrsVgl/PerformanceEfficiencySuite#rankings

Bring deinen M1 Max mal da unter :)
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=606794

Anandtech hat zum Teil die Joule bei ihren Tests angezeigt, allerdings afaik nur für Mobile Chips.


Apples Chips sind super effizient, keine Frage. Aber so weit vorne wie sie sich präsentieren sind sie nicht. Ausser man macht gerade Gebrauch von den Accelerators für Videoschnitt usw.

Bei den x86 CPUs verhageln die hohen Boost-Clocks einen Grossteil der Effizienz. Würden diese Chips -20% Takt fahren, sähe das Bild anders aus. Und genau das Bild lässt sich mit einem auf 65W gedrosselten 7950X darstellen. DDR5-DIMM PHYs, mehr PCIe 5.0 Lanes und 2x IFOP zu den CCDs sind auch nicht gerade auf Low Power getrimmt verglichen mit dem IO des M1/M2 (von mir aus auch Max ohne Die-to-Die Interconnect). Und dennoch kommt man auf vergleichbare Effizienz in vielen Lebenslagen. Das Problem bei den x86 Geräten ist, dass Intel und AMD um die Performancekrone kämpfen und dabei die letzten 10-20% Performance auch noch mitnehmen. Genau das selbe sehen wir bei den dGPUs von AMD und Nvidia. Auch wenn das für die Geräteperformance meistens nicht entscheidend ist. Apple macht das hier intelligenter, da sie den Takt auf einem sinnvollen und effizienten Niveau lassen. Und das ist der ganze Trick am ganzen. Die x86 und dGPU Welt sollte sich hier ein Beispiel nehmen. Ich als informierter Nutzer kann Power Limit und Takt manuell begrenzen, für mich sind alle Chips in etwa gleich effizient, egal ob Intel, AMD oder Nvidia ;)

davidzo
2023-06-15, 22:40:03
Wenn du den Idle-Verbrauch noch dazuzählen musst, dann sieht es für den M2 noch schlechter aus. Der ist beim 65W 7950X schon integriert

Dass der 65W TDP 7950x einen großen teil des Tests mit 90Watt absolviert das hatten wir doch schon. Und da musst du wirklich DRAM und SSD und chipsatz noch draufrechnen, das ist beim M.2 eben alles on Package. Wenn man die wallpower misst wie in dem anderen Test dann noch gute 10-15% Netzteilverluste.

Und wieder besser für M2. Obwohl das sehr niedrige einstellige Wattzahlen bei Mobile und DDR5 sein dürften.

Wieso mobile, der 7950x hat doch DDR5 Dimms, kein mobile?

Btw, das MX power Gadget für den M2 zeigt neben der PackagePower auch eine CPUPower. Und die differiert von halbsoviel wie die Packagepower biszu +5 Watt höher als die packagepower (wie zum Teufel?).
Soviel zu "die Softwaretools werden schon stimmen". Wieso nicht einfach wall power messen?


Bei den x86 CPUs verhageln die hohen Boost-Clocks einen Grossteil der Effizienz. Würden diese Chips -20% Takt fahren, sähe das Bild anders aus.

Es sind eher -50%. Der 7950x auf 65Watt hat ja einen Leistungsrückstand von 45% im CB Rating.
Und wennman auch bei ST lasten effiziente Taktraten walten lassen würde hätte man singlethreaded einen ordentlichen Rückstand. Momentan kommt man nur auf vergleichbare oder bessere ST Leistung mit ca. dreifachem Power-budget.


Und genau das Bild lässt sich mit einem auf 65W gedrosselten 7950X darstellen. DDR5-DIMM PHYs, mehr PCIe 5.0 Lanes und 2x IFOP zu den CCDs sind auch nicht gerade auf Low Power getrimmt verglichen mit dem IO des M1/M2 (von mir aus auch Max ohne Die-to-Die Interconnect).

Eben hatten wir noch über den M2Ultra gesprochen, jetzt plötzlich vom M2 vanilla? Und der Ultra hat 64 PCIe lanes und einen viel fetteren die to die interconnect. Nicht zu vergessen die Thunderbolt Anschlüsse. Das ist wesentlich mehr als AM5 an i/o zu bieten hat.
Auch wenn man phoenix mit dem M2pro vergleicht nehmen die sich imo nichts.


Und dennoch kommt man auf vergleichbare Effizienz in vielen Lebenslagen.
Das Problem bei den x86 Geräten ist, dass Intel und AMD um die Performancekrone kämpfen und dabei die letzten 10-20% Performance auch noch mitnehmen. Genau das selbe sehen wir bei den dGPUs von AMD und Nvidia. Auch wenn das für die Geräteperformance meistens nicht entscheidend ist. Apple macht das hier intelligenter, da sie den Takt auf einem sinnvollen und effizienten Niveau lassen. Und das ist der ganze Trick am ganzen. Die x86 und dGPU Welt sollte sich hier ein Beispiel nehmen. Ich als informierter Nutzer kann Power Limit und Takt manuell begrenzen, für mich sind alle Chips in etwa gleich effizient, egal ob Intel, AMD oder Nvidia ;)
Das sehe ich noch nicht. Die Unterschiede sind geringer, ja und in selektiven Tests lässt sich vielleicht auch mal Gleichstand oder ein kleiner Vorsprung für x86 messen. Aber ich habe ehrlich gesagt auch noch keine Vergleichmessungen gesehen wo das wirklich der Fall war, komisch oder?

Gerade wenn es um viele Lebenslagen geht, sehe ich da noch einen gewissen Rückstand bei AMD. Hohe Idlepower, die niedrige Effizienz bei Singlethreaded und allgemein in lightly threaded workloads. Da der Alltag vor allem von solchen workloads dominiert wird könnte bei vielen normalen Aufgaben schonmal nur 50% der Effizienz rauskommen wenn man die joules pro Job messen würde. Und ich gehe jetzt von einem von dir handoptimierten system aus, nicht vom hochgeprügelten Originalzustand.

smalM
2023-06-17, 17:10:33
Anandtech hat zum Teil die Joule bei ihren Tests angezeigt, allerdings afaik nur für Mobile Chips.
Sie haben damals von Desktopchips die Scores mit angezeigt, aber nicht die eingesetzte Energie (das hätte eh die Skala völlig gesprengt :biggrin:).
Andrei hatte aber später in Tweets Protokolle von SPEC-Läufen gezeigt, wo man das dann ableiten konnte.
Ist aber schon ziemlich lange her, also A12 / A13 / A14 gegen i9-9900K in SPEC2006.
ST Integer (SPECspeed)
52,82 11,1kJ A13
63,34 8,94kJ A14
54,28 64,7kJ 9900K

Ein 1185G7 erreichte 55,28 Punkte und dürfte dabei um die 45kJ verbraucht haben,
ein Cortex-A77 erreichte zwar nur 36 Punkte, der Energieverbrauch lag aber gleichauf mit dem A14 bei 8,96kJ.

Daredevil
2023-06-25, 11:58:25
Leider ist das manuelles Tweaking ja unmöglich bei MacOS, ich habe gerade aber mal den neuen Corona Benchmark mit den zwei verschiedenen Batterieprofilen getestet.

M1 Max Default:
https://abload.de/img/bildschirmfoto2023-06kgi3g.png?5511bed59cbd819b1c495cb82c279369

M1 Max Battery Save:
https://abload.de/img/bildschirmfoto2023-0636iyl.png?819aec96c41605338b129ae3b9081a2f

Man bekommt das ganze also noch deutlich effizienter, sofern man möchte.
Default: 142.307pts/w
Eco: 196.518 pts/w +38%
Mein zugegeben hochgezüchteter 5600X@105w fernab von dem Sweetspot haut dort 32.971pts/w raus, der Score beträgt 3.462.042, insofern verdient der es auch, geprügelt zu werden, weil er im MT einfach lahm ist. :D

mocad_tom
2023-06-26, 10:59:50
Was da los?

https://www.heise.de/news/Angeblich-zwei-Prozesse-fuer-Apples-neuen-A17-Bionic-geplant-9197455.html

N3B ist der Prozess, der eigentlich spät 2022 starten sollte.
Das ist der anfängliche N3 Prozess, wo es dann später geheissen hat, dass den nur Apple und kein anderer Hersteller nutzen wird.

Jetzt gibt es A17 Bionic in N3B und N3E?

Wobei der N3E größer sein muss, weil die Transistordichte entspannt wurde.

dildo4u
2023-06-26, 11:09:54
Apple hat schon letztes Jahr damit angefangen eine zwei Klassen Gesellschafft zu schaffen, nur die High-End Modelle haben A16 bekommen.
Zwei A17 ist vermutlich deutlich besser als A15 und 16, die selektierten Chips könnten höheren Takten und mehr GPU Cores nutzen.
Dafür hätten alle 2023 Modelle die selbe CPU/GPU Architektur.

mocad_tom
2023-06-26, 19:30:35
Klar hab ich verstanden, wenn der Prozess schlecht läuft ist das ein riesen Vorteil für Apple.

Weil dann die kleinen Ingenieurwichtel hergehen und den A17 einmal in N3B und dann in N3E und dann nochmal in N3P daherzaubern und die selben Ingenieurwichtel machen auch den Apple M3 in N3B und N3E und N3P.

Ach und bevor ich es vergesse, die Ingenieurwichtel machen auch den M3Pro in N3B und N3E und N3P.

Und das ist immer ein riesen Vorteil für Apple weil Ingenieurwichtel quasi in unendlicher Anzahl vorhanden sind.

Und Apple kostet das alles nichts und TSMC kostet das alles auch nichts.

Gab es da nicht mall ein Gerücht, dass nvidia die nächste GPU-Generation in N4 und N3P designed und je nach dem wie gut es vom Band läuft entscheidet man sich dann(das ist aber mitten im Geschäftsjahr 2024 verortet gewesen)?

smalM
2023-06-27, 09:51:02
Und das ist immer ein riesen Vorteil für Apple weil Ingenieurwichtel quasi in unendlicher Anzahl vorhanden sind.
Wichtel?
Ich dachte das wären Heinzelmännchen.

Jetzt gibt es A17 Bionic in N3B und N3E?
Dieses Jahr in N3B, nächstes Jahr in N3E.
Da aber N3E nicht designkompatibel mit N3B ist, dürfte es wohl eine Abwägenssache sein, ob die kleinen Kosten- und Produktionsvorteile von N3E den Dichtenachteil und die Redesignkosten überhaupt wert wären.
Dazu käme der Nachteil, Personalkapazität für das Redesign eines SoCs in seiner Zweitverwertung zu binden, die man bei der A19-/A20-Entwicklung eigentlich gewinnbringender einsetzen könnte.
Aber wer weiß, vielleicht hat Apple ja inzwischen so viele Heinzelmännchen, daß das alles gar kein Problem mehr ist?

bloodflash
2023-07-05, 09:44:37
Hmm, hat Apple doch nicht den heiligen Gral in Sachen Dual-GPU gefunden?
https://9to5mac.com/2023/07/04/apple-game-porting-tool-macos-update/
"When running Cyberpunk on a M2 Ultra Mac, the average frames per second went from 8 FPS to 18 FPS.
Interesting, it seems that Game Porting Tool has some compatibility issues with Apple’s M1 Ultra and M2 Ultra chip, as the same games perform better on less powerful chips. This could be due to the fact that the Ultra chips combine two Max chips into one with UltraFusion technology, so perhaps the tool doesn’t yet have full support for it.
With M1 Max, Cyberpunk runs at 40 FPS."

Da bin ich doch auf erste native Umsetzungen für MacOS und Vergleiche zwischen den Chipderivaten gespannt.

smalM
2023-07-05, 12:01:06
Da hat wohl jemand was Mißverstanden.
Das Tool soll helfen abzuschätzen, ob sich ein Port nach MacOS lohnt und wo es eventuell hakt.
Das Tool soll nicht dafür sorgen, daß auf wundersame Weise PC-Spiele total performant auf MacOS laufen.
Cyberpunk hakt? Dann muß Cyberpunk angepaßt werden, nicht das Tool.

robbitop
2023-07-05, 12:30:28
Wobei man anhand der Existenz von Valves Proton sowas durchaus erwarten könnte. Wenn Apple es unbedingt wollen würde, könnten sie sich ihr eigenes Proton Pendant schaffen, was relativ performant Windows Spiele ins MacOS auf die M SoCs bringt.
Da einige moderne und performante Spieleports in MacOS gar nicht mit ARM laufen und trotzdem schnell laufen muss man konstatieren, dass Rosetta2 nicht der große Bottleneck zu sein scheint.
Würden sie Vulkan unterstützen, könnten sie Proton wahrscheinlich zu 99% übernehmen.

Aquaschaf
2023-07-05, 12:58:14
Da hat wohl jemand was Mißverstanden.
Das Tool soll helfen abzuschätzen, ob sich ein Port nach MacOS lohnt und wo es eventuell hakt.
Das Tool soll nicht dafür sorgen, daß auf wundersame Weise PC-Spiele total performant auf MacOS laufen.
Cyberpunk hakt? Dann muß Cyberpunk angepaßt werden, nicht das Tool.

Das emulierte Spiele getestet werden liegt daran dass es bis jetzt nicht viele native Spiele gibt die die Hardware fordern. Nach außen sollten M1 Ultra und M2 Ultra wie eine GPU aussehen. Man würde ja auch nicht erwarten dass ein Spiel welches auf einer RTX 4070 gut läuft extra Optimierungen braucht damit es auf einer RTX 4090 läuft.

Dass die Spiele auf der Dual-GPU schlechter laufen als auf den monolithischen könnte am Treiber liegen, oder die Hardware-Implementierung ist an sich nicht so gut für Spiele geeignet.

Das ganze ist eher theoretisch relevant, einen Mac mit M Ultra SOC würde sich kaum jemand zum Gaming kaufen.
Wenn Spiele generell gut auf M Ultra skalieren würden hätte Apple halt schon etwas hinbekommen, was AMD und NVidia erst in ein paar Jahren auf den Markt bringen. Aber das scheint nicht der Fall zu sein. Muss es auch nicht, weil der Chip eher für Compute-Tasks eingesetzt wird bei denen die Skalierung kein Problem ist.

bloodflash
2023-07-05, 17:00:49
Da hat wohl jemand was Mißverstanden. Was jetzt genau?
Max vs Doppelmax
Und wie sich das wohl nativ verhalten würde.
War doch alles klar!?

urpils
2023-07-05, 17:32:51
Wobei man anhand der Existenz von Valves Proton sowas durchaus erwarten könnte. Wenn Apple es unbedingt wollen würde, könnten sie sich ihr eigenes Proton Pendant schaffen, was relativ performant Windows Spiele ins MacOS auf die M SoCs bringt.
Da einige moderne und performante Spieleports in MacOS gar nicht mit ARM laufen und trotzdem schnell laufen muss man konstatieren, dass Rosetta2 nicht der große Bottleneck zu sein scheint.
Würden sie Vulkan unterstützen, könnten sie Proton wahrscheinlich zu 99% übernehmen.

genau DAS ist doch das GamePortingToolkit von Apple. Ein "Proton", das auf Metal übersetzt.

oder meintest du etwas Anderes?

robbitop
2023-07-05, 17:56:24
Die Intention ist aber eine andere. Protons Intention ist es mit so gut wie keinem Performanceverlust Windows Spiele fehlerfrei in Linux spielbar zu machen.
Die Intention dieses Kits ist es jedoch Ports nach MacOS zu vereinfachen. Die Performance ist lausig und die Kompatibilität wohl sehr mittelmäßig. Was okay ist da es nur ein Tool ist um beim Portieren zu MacOS zu helfen.

smalM
2023-07-05, 23:02:17
Wenn Apple es unbedingt wollen würde
Apple will, daß Metal benutzt wird.
Das Tool soll dazu Anreize schaffen, alles andere ist ein Nebenschauplatz.

Man würde ja auch nicht erwarten dass ein Spiel welches auf einer RTX 4070 gut läuft extra Optimierungen braucht damit es auf einer RTX 4090 läuft.
Wenn ich da so betrachte, wie schlecht mitunter ein auf Nvidia optimiertes Spiel auf AMD läuft... und dann hat Apples GPU auch noch eine TBDR-Architektur und die Softwaregrundlage ist Metal.
Wie gut sind noch mal die erst vom Chinesischen ins Englische und anschließend ins Deutsche übersetzte Betriebsanleitungen?

Dass die Spiele auf der Dual-GPU schlechter laufen als auf den monolithischen könnte am Treiber liegen
Der Treiber sieht nur eine GPU.

oder die Hardware-Implementierung ist an sich nicht so gut für Spiele geeignet.
Hardware-Bottlenecks wären meine Vermutung.
Probleme der Chiplet-GPU-Lösung wird Apple aber immer zuerst im Bereich GPGPU angehen; wenn dadurch zufällig auch ein Spiele-Bottleneck verschwindet, sind sie bestimmt nicht böse drum, aber auf ihrer Prioritätenliste dürfte das erst ziemlich weit unten auftauchen.

Daredevil
2023-07-06, 00:05:11
Das Update vom Game Porting Toolkit verbessert teilweise die Performance um 20%, das ist für ne Beta und eine Emulation ja schonmal ein großer Schritt, weitere werden sicherlich folgen.

DF hat sich das auch mal angeschaut:
jTsc_UvlT3E

Hier ein Video zum Update:
Nl12azxMbFc


Offenbar geht "Nat Brown" wohl in die offene Kommunikation bei Twitter rund um das Game Porting Toolkit. Der Dude arbeitet bei Apple und war vorher bei Valve.
https://twitter.com/natbro
https://www.linkedin.com/in/natbro/

Der sollte sich also ggf. ein wenig auskennen. :D

robbitop
2023-07-06, 08:28:28
SmallIM eine Art eigenes schnelles Proton würde natürlich auch mit Metal gehen. Mit Vulkan könnten sie halt direkt DXVK nutzen. So müssen sie einen eigenen Translationlayer machen der mit gleich geringem Overhead und gleich hoher Kompatibilität wohl Jahre braucht. Oder sie bauen einen Vulkan Metal Translationlayer der ggf kaum oberhead kostet und bauen den an dxvk hinten dran. (wie moltenvk).

smalM
2023-08-03, 23:02:45
Apples April-Quartal (https://d18rn0p25nwr6d.cloudfront.net/CIK-0000320193/aa27ac54-fd2d-46a1-ac9d-e3021520b55f.pdf)

81,8 Mrd.$ Umsatz, davon
-- 39,7 iPhone
-- 6,8 Macs
-- 5,7 iPads
-- 21,2 Services
-- 8,3 Sonstiges
19,9 Mrd.$ Nettogewinn

Der Umsatz mit Hardware hat gegenüber dem Vorjahresquartal um 2,8 Mrd.$ nachgegeben (-4,4%),
Services hat das ein Stück wieder aufgefangen (+8,2%).

mboeller
2023-08-06, 20:33:33
Bloomberg enthüllt Specs des Apple M3 ARM-Prozessors sowie sieben Macs mit M3, M3 Pro und M3 Max (https://www.notebookcheck.com/Bloomberg-enthuellt-Specs-des-Apple-M3-ARM-Prozessors-sowie-sieben-Macs-mit-M3-M3-Pro-und-M3-Max.739319.0.html)

E39Driver
2023-08-07, 10:49:00
Wäre schön wenn Apple mit dem M3/M3 Pro nun mal die bisher stiefmütterlich behandelte iMac Reihe aktualisiert und auch einen Nachfolger für den 27' Intel-iMac anbietet. Allein gewerblich wird es sicherlich einen millionenbedarf in Arztpraxen, Fotostudios und für Messestände usw für einen großen iMac geben. Ebenso wer privat einen aus dem Support gefallenen 27-Zoll Intel iMac der Jahre 2015 - 2017 hat, wird sicherlich nicht zu einem 24-Zoll Modell als Downgrade wechseln sondern wartet einen würdigen Nachfolger ab

smalM
2023-08-09, 22:48:34
Bloomberg enthüllt Specs des Apple M3 ARM-Prozessors sowie sieben Macs mit M3, M3 Pro und M3 Max (https://www.notebookcheck.com/Bloomberg-enthuellt-Specs-des-Apple-M3-ARM-Prozessors-sowie-sieben-Macs-mit-M3-M3-Pro-und-M3-Max.739319.0.html)
Wieso lassen die jemand einen Artikel über Macs schreiben, der ganz offensichtlich keine Ahnung davon hat und noch nicht einmal in der Lage ist, bei Gurman auch nur richtig abzuschreiben.
Kommt mir das nur so vor, oder gehen gerade irgendwie viel Seiten bei der Qualität ziemlich den Bach runter?

spotz
2023-08-15, 18:59:27
Wenn Gurman schreibt, dass der M3 Pro mit ner 36 GB RAM Option kommt, könnte es dann sein das Apple beim Speicherinterface des Pro von QuadChannel zu HexaChannel wechselt? Dann hätte der M3 Pro auch mehr Speicherbandbreite, die er für Raytracing usw. auch gut gebrauchen könnte. Dummer Gedanke oder möglich?

Daredevil
2023-08-15, 21:21:03
Es sind laut MaxTech einfach nur 12GB Chips, der M2 hat ja auch eine 24GB Option.

spotz
2023-08-15, 22:33:25
Auch Maxtech führt eine 36 GB RAM Option für den M3 Pro und eine 144 GB RAM Option für den M3 Max auf (ab 08:45 im Video). Vielleicht begehe ich da einen Denkfehler, aber das ergibt für mich bei vier und acht Speicherkanälen komische Speichergrößen mit 9 GB oder 18 GB. Bei sechs (M3 Pro) und zwölf (M3 Max) Speicherkanälen kommen hingegen nachvollziehbare Speichergrößen heraus. Auch bei den anderen RAM Optionen.

Daher mein Gedanke, ob Apple die Anzahl der Kanäle im Speicherinterface vielleicht erhöht hat. Das würde ja auch gleichzeitig die Speicherbandbreite erhöhen. Beim M3 Pro mit dem bisherigen LPDDR5 RAM von 200 auf 300 GB/s oder ggf. zukünftig mit LPDDR5x RAM auf 408 GB/s (6x68). Entsprechend verdoppelt sich das beim M3 Max.
Wenn die M3 deutlich leistungsstärker als ihre Vorgänger sind, brauchen sie ja auch mehr Speicherbandbreite. Insbesondere Features wie Raytracing benötigen viel Speicherbandbreite und -kapazität. Daher erscheint mir der Gedanke mit sechs und zwölf Speicherkanälen sinnvoll - außer ich übersehe etwas.

Hier der Link zu Gurman mit den 36 GB RAM, den auch Maxtech aufgenommen hat.
https://www.bloomberg.com/news/newsletters/2023-05-14/apple-m3-chip-mac-specifications-and-features-cpu-gpu-and-ram-increase-details-lhngxmx4
So what does the M3 look like? Well, at least one version in testing has 12 CPU cores, 18 graphics cores and 36 gigabytes of memory. That’s according to data collected by an App Store developer and shared with Power On.

Maxtech
https://www.youtube.com/watch?v=cJJn8dTq8vo

smalM
2023-08-16, 16:22:52
@spotz
Für einen M3 Pro mit 256b-SI werden Vielfache von 8 Dies benötigt, in diesem Fall 288Gbit / 8 = 36Gbit = 3x 12Gbit Dies in jedem RAM-Stapel. Je vier dieser RAM-Stapel werden zu einem 128b-Package zusammengefaßt. Wo soll da das Problem sein?

Das Problem, das Apple übrigens recht dringend lösen muß, ist eine GPU verteilt über mehrere Dies effizient und konsistent zum Laufen zu bringen. Daß ein Ultra mitunter langsamer agiert als ein Max, ist auf Dauer der Kundschaft nicht vermittelbar, insbesondere da ja auch der Max dem Ende als monolitisches Die entgegen sieht. Das bißchen Raytracing ist da die Nische in der Nische und bei Apple tatsächlich eher ein Softwareproblem (Metal).

Ailuros
2023-08-20, 12:41:44
Also der Anspruch an zusaetzlicher Bandbreite fuer RT haengt davon ab wie Apple es am Ende implementiert. Handelt es sich nur um eine stinklangweilige in line Loesung a la Mali bzw. Adreno dann ist der Anspruch brutal gross; im Gegenfall wo sie etwas von IMG (ex-Caustic) lizenziert haben kann das Resultat ziemlich verdaubar aussehen.

smalM
2023-08-20, 23:51:44
Wenn das zweite Abkommen von Anfang 2020 IMGs Rayltracing umfaßt, wieso sollte Apple das nicht nutzen? Ich denke zwar nicht, daß direkt eine IMG-Lösung implementiert würde, sondern eher eine Apple-Lösung unter dem IMG-Patent-Schutzschirm. es gab allerdings bisher noch keinen Piep zu Metal3 und Raytracing außerhalb von Compute.

Andererseits: Der zeitliche Abstand vom A11 zum ersten Abkommen von 2014 entspricht übrigens dem vom A17 zum zweiten Abkommen...

urpils
2023-08-21, 06:01:36
DAS ist: „kein Piep“? ;)

https://developer.apple.com/videos/play/wwdc2023/10128/

smalM
2023-08-27, 12:06:24
Touché! :D

Ailuros
2023-08-29, 15:04:35
Wenn das zweite Abkommen von Anfang 2020 IMGs Rayltracing umfaßt, wieso sollte Apple das nicht nutzen? Ich denke zwar nicht, daß direkt eine IMG-Lösung implementiert würde, sondern eher eine Apple-Lösung unter dem IMG-Patent-Schutzschirm. es gab allerdings bisher noch keinen Piep zu Metal3 und Raytracing außerhalb von Compute.

Andererseits: Der zeitliche Abstand vom A11 zum ersten Abkommen von 2014 entspricht übrigens dem vom A17 zum zweiten Abkommen...

Ιch hab es jetzt schlecht in Erinnerung wann genau IMG ihre erste GPU IP mit eingebautem RT ankuendigte. Es hat aber auch kein normal sterblicher irgendwelche Ahnung was Apple's Vertrag genau enthalten hat.

Sonst jein zur Implementierung im Fall einer Lizenz; Apple hat hauptsaechlich afaik die ALUs stark umgekrempelt, aber es ist nach wie vor ein deferred renderer. IMG hatte Caustic gekauft weil ihre RT hw Implementierung ziemlich starke "Verwandschaften" hatte zu ihrer alten ray casting Philosophie und sich die beide Welten leichter getroffen haben. Eine zu "abartige" Implementierung koennte katastrophal fuer einen deferred renderer sein, die so oder so es ziemlich schwer haben mit hohen Geometrie-Raten.

smalM
2023-08-29, 16:47:54
Ein Gerücht besagte damals, Apple hätte bereits an den ALUs der PowerVR 7XT Hand angelegt. Selbstredend wurde das nie bestätigt oder dementiert. Auffällig ist, wie sehr das GPU-Design dann mit dem A11 umgekrempelt wurde.
Es gab mal ein Demo, ich meine so eine Art Steampunk-Bibliothek, die das erste war, was IMG bzgl. Raytracing vorgeführt hat. Könnte 2014 oder so gewesen sein. Das war aber keine Produktankündigung sondern eine Tech-Demo.

Ailuros
2023-08-30, 08:18:21
Ein Gerücht besagte damals, Apple hätte bereits an den ALUs der PowerVR 7XT Hand angelegt. Selbstredend wurde das nie bestätigt oder dementiert. Auffällig ist, wie sehr das GPU-Design dann mit dem A11 umgekrempelt wurde.

Das Ding verzoegert im Prinzip nach wie vor einen frame (nicht immer natuerlich).
So lange das Grundgestell (sozusagen) + anderer Schnickschnack wie PVR Textur-Kompression immer noch bleibt, muss Apple nach wie vor ihre "Architektur"-Lizenz erneuern so bald sie auslaeft.


Es gab mal ein Demo, ich meine so eine Art Steampunk-Bibliothek, die das erste war, was IMG bzgl. Raytracing vorgeführt hat. Könnte 2014 oder so gewesen sein. Das war aber keine Produktankündigung sondern eine Tech-Demo.

Simon Fenney (eines der Vaeter des Dreamcast) der afaik auch die meisten eingereichten Patente bei IMG hat selber:

https://www.youtube.com/watch?v=wyhsAvnGfpA

https://www.highperformancegraphics.org/slides23/2023-06-_HPG_IMG_RayTracing_2.pdf

smalM
2023-09-03, 17:27:33
So lange das Grundgestell (sozusagen) + anderer Schnickschnack wie PVR Textur-Kompression immer noch bleibt, muss Apple nach wie vor ihre "Architektur"-Lizenz erneuern so bald sie auslaeft.
Ich denke, das müssen sie so oder so, da IMG ihnen einen Patentschutzschirm bietet.
Sie würden deshalb wahrscheinlich selbst dann, wenn sie wirklich alles total umgekrempelt hätten, ein Abkommen mit IMG haben.

Ailuros
2023-09-05, 08:58:39
Ich denke, das müssen sie so oder so, da IMG ihnen einen Patentschutzschirm bietet.
Sie würden deshalb wahrscheinlich selbst dann, wenn sie wirklich alles total umgekrempelt hätten, ein Abkommen mit IMG haben.

Keiner hat zwar eine Ahnung was eine solche "Architektur-Lizenz" ueber etliche Jahre kosten koennte, aber Lizenzgebueren waren fuer eine einfache Lizenz fuer nagelneue IP irgendwo um die $1.5Mio (und dann eben royalties pro verkauftem chip). Ich kann mir schwer vorstellen dass eine einfache Lizenz fuer Apple mehr als 4-5Mio insgesamt kostet, Apple hat damit keine Patent-Kopfschmerzen und IMG verdient zwar verdammt wenig daran muss aber auch keinen Finger fuer Unterstuetzung bewegen.

Bis zur ersten custom GPU musste IMG fuer ihre Groesse schon ziemlich viel resources fuer Unterstuetzung opfern und Apple meckerte intern stets dass die Entwicklungs-geschwindigkeit bei IMG zu lahmarschig ist. Jetzt hat IMG alle Haende frei was Apple resources betrifft aber keine sehenswerte Partner und Apple hat sich in letzten Jahren auch nicht gerade etwas aufgerissen *hust* die GPU fundamental weiterzuentwickeln, denn von DX11 features (mit DX12 darf man gar nicht anfangen) gab es bisher nichts.

Variable rate shading (DX12) wuerde so manche GPU resources sparen, damit hw RT noch sinnvoller wird.

robbitop
2023-09-05, 09:04:17
Da kommt aber was. Es gibt bereits SDK (und eine Training Session) für RT in Mantle Metal. Anscheinend hat Apple eine moderne GPU in der Mache, die dann ggf. mit dem M3 kommt.

Ailuros
2023-09-05, 09:23:21
Da kommt aber was. Es gibt bereits SDK (und eine Training Session) für RT in Mantle. Anscheinend hat Apple eine moderne GPU in der Mache, die dann ggf. mit dem M3 kommt.

RT hat auf Papier schon jeder grosse Spieler der ULP SoC GPUs entwickelt. Nur ist es im Fall von Mali und Adreno leider nur in line RT. Mal absehen was Apple genau dafuer hat und sicher nicht fuer "Mantle" LOL.

davidzo
2023-09-05, 10:09:42
Kannst du genauer erklären was du mit in-line RT meinst? Adreno 740 hat soweit ich weiß BVH traversal in HW und auch die Immortalis G715 hat laut ARMs Präsentation sowohl ray box units (BVH), RTR ray tri units für die Dreiecks-Intersection und denoising per shader alus.

Mantle ist doch die uralte AMD API die DirectX12 vorranging weil asynchronous compute auf GCN
nicht mit DX11 funktionierte? Die ist doch lange tot?!
Vulkan hat Raytracing und alle diese RT auf Arm Implementationen sind für Vulkan.

Ich würde mich nicht wundern wenn der mobile Space den Desktop hier mal wieder still und heimlich überholt. Gerade softwareseitig hat man es als Follower häufig einfacher. Da erwarte ich eine schnelle und kompakte RT Implementierung in Metal. Fertigungstechnisch sind die eh schon auf einem anderen Level, Mediatek nutzt schon N4P und demnächst kommt Apple mit dem ersten N3 chip. IMGtec hat RT LVL3+4 ja schon in der in der Hinterhand, das hat wohl bisher aber vom Transistorbudget einfach noch für keinen ihrer Kunden Sinn gemacht dafür dass es noch kaum Software gab die das nutzt.

Ailuros
2023-09-05, 11:04:58
Kannst du genauer erklären was du mit in-line RT meinst? Adreno 740 hat soweit ich weiß BVH traversal in HW und auch die Immortalis G715 hat laut ARMs Präsentation sowohl ray box units (BVH), RTR ray tri units für die Dreiecks-Intersection und denoising per shader alus.

https://forum.beyond3d.com/threads/arm-immortalis-gpu-mobile-with-hardware-raytracing.62910/page-2#post-2282139

... the inline tracing feature, where we put a traceRay function in a compute shader and then process the result in the same shader..

...Inline disables any reordering or material sorting in HW, so we should use it only with care.

You can do inline RT with Metal in any kind of shader program as far as I remember, but please take my words with a grain of salt since I only looked at the APIs superficially

Uebrigens: https://www.androidauthority.com/smartphone-ray-tracing-benchmarks-3261541/


Ich würde mich nicht wundern wenn der mobile Space den Desktop hier mal wieder still und heimlich überholt. Gerade softwareseitig hat man es als Follower häufig einfacher. Da erwarte ich eine schnelle und kompakte RT Implementierung in Metal. Fertigungstechnisch sind die eh schon auf einem anderen Level, Mediatek nutzt schon N4P und demnächst kommt Apple mit dem ersten N3 chip. IMGtec hat RT LVL3+4 ja schon in der in der Hinterhand, das hat wohl bisher aber vom Transistorbudget einfach noch für keinen ihrer Kunden Sinn gemacht dafür dass es noch kaum Software gab die das nutzt.

Im Bereich perf/Watt vielleicht schon, aber es wird auch keiner so leicht wirklich ueberragende RT Portionen fuer eine Handy GPU in eine Szene schmeissen wollen. IMG's Loesung ist auch ziemlich variabel; ein Kunde kann auch eine beschnittene RT IP in eine GPU integrieren um Platz zu sparen.

davidzo
2023-09-05, 12:42:33
Zitat:... the inline tracing feature, where we put a traceRay function in a compute shader and then process the result in the same shader..

Hm, also in DXR 1.1 ist das nur ein anderes Softwaremodell dass sich besonders für leichtes RT eignet und teils Effizienzvorteile zu haben scheint.

Klingt also eher als wenn Qualcomm die Rt pipeline bewusst nicht im Vulkantreiber implementiert oder exposed hat weil das für den mobile Usecase entweder eh zu kompliziert für die developer wäre oder sie wissen dass es performanceimplikationen gibt.



Zitat:...Inline disables any reordering or material sorting in HW, so we should use it only with care.
Ist das so?
In DXR 1.1 steht dasses angeblich auf dieselbe Hardware zurückgreift, also BVH, Ray intersect etc. und laut unabhängigen Tests performt nvidia Hardware sogar häufig besser mit inline RT als mit der dedizierten RT pipeline: https://www.diva-portal.org/smash/get/diva2:1573746/FULLTEXT01.pdf

robbitop
2023-09-05, 12:44:19
RT hat auf Papier schon jeder grosse Spieler der ULP SoC GPUs entwickelt. Nur ist es im Fall von Mali und Adreno leider nur in line RT. Mal absehen was Apple genau dafuer hat und sicher nicht fuer "Mantle" LOL.
Ich meinte Metal - brainfart. X-D

RT ist aber ein Indikator dafür, dass man die GPU komplett umgekrempelt hat.

Ailuros
2023-09-05, 12:58:26
Hm, also in DXR 1.1 ist das nur ein anderes Softwaremodell dass sich besonders für leichtes RT eignet und teils Effizienzvorteile zu haben scheint.

Klingt also eher als wenn Qualcomm die Rt pipeline bewusst nicht im Vulkantreiber implementiert oder exposed hat weil das für den mobile Usecase entweder eh zu kompliziert für die developer wäre oder sie wissen dass es performanceimplikationen gibt.


Ist das so?
In DXR 1.1 steht dasses angeblich auf dieselbe Hardware zurückgreift, also BVH, Ray intersect etc. und laut unabhängigen Tests performt nvidia Hardware sogar häufig besser mit inline RT als mit der dedizierten RT pipeline: https://www.diva-portal.org/smash/get/diva2:1573746/FULLTEXT01.pdf

Ich hab nicht die blasseste Ahnung was genau QCOM/ARM angestellt haben. Es gibt eben diverse Thesen, eben weil die ULP Radeon im Exynos2200 besser mit RT leistet als die anderen zwei.

Sonst wenn ein IHV etwas in einem so wichtigen API wie Vulkan mit Absicht nicht freistellt, ist unter normalen Umstaenden etwas faul.

Ich meinte Metal - brainfart. X-D

Kann allen passieren ;)

RT ist aber ein Indikator dafür, dass man die GPU komplett umgekrempelt hat.

Bleibt abzusehen was sie genau integriert haben.

mocad_tom
2023-09-12, 10:09:40
So wie das am 20. Juni bereits vorhergesagt wurde:

https://www.heise.de/news/Angeblich-zwei-Prozesse-fuer-Apples-neuen-A17-Bionic-geplant-9197455.html

Es gibt nur den A17 Bionic im Iphone 15 Pro und Iphone 15 Pro Max und ansonsten gibt es im Jahr 2023 keinen anderen TSMC N3 Prozessor in irgendeinem anderen Gerät.

https://www.macrumors.com/2023/08/07/tsmc-not-charging-apple-for-defective-chips/

Und da werden dann auch nur die lauffähigen Prozessoren von Apple bezahlt.

Und M3 mit irgendeinem TSMC N3 Prozess in diesem Jahr überhaupt nicht:
https://www.computerbase.de/2023-09/apple-geruechte-kein-mac-event-mit-m3-im-oktober-m2-soll-ins-ipad-air/

prinz_valium_2
2023-09-12, 13:29:48
Ganz kleiner rollout also.

RBG
2023-09-12, 22:13:16
Die GPU des A17 soll in Hardware die vierfache Raytracing Leistung eines A16 in Software haben laut Apple. Kann man daraus irgendwelche Rückschlüsse auf das ungefähre Leistungsniveau in Raytracing beim M3 ziehen? Mir fällt es schwer das einzuschätzen.

davidzo
2023-09-13, 00:00:36
Die GPU des A17 soll in Hardware die vierfache Raytracing Leistung eines A16 in Software haben laut Apple. Kann man daraus irgendwelche Rückschlüsse auf das ungefähre Leistungsniveau in Raytracing beim M3 ziehen? Mir fällt es schwer das einzuschätzen.

CB hat den A16 mit 3.867 Punkten vermessen. Ein S23 Ultra / Adreno 740 hat 5500Pkte und ne 4090 eher so 220K.

Das Vierfache wäre 15K, also leicht oberhalb von einem 7940HS (12K). Das wäre für ein Telefon und in Anbetracht der limitierten Bandbreite schon extrem gut.

OgrEGT
2023-09-13, 07:03:45
Wofür wird RT auf dem Smartphone sinnvoll eingesetzt?

Loeschzwerg
2023-09-13, 07:25:47
Für öhhh... nix ^^ Adobe After Effects, Illustrator... eben Creative-Anwendungen. Also eher was für das iPad dann. Für das iPhone fehlt eine Samsung DeX Alternative.

dildo4u
2023-09-13, 08:48:59
Wofür wird RT auf dem Smartphone sinnvoll eingesetzt?
Blender hat ab Version 3.5 z.b Support für Metal wollen sie dort Konkurrenzfähig sein braucht es RT Beschleunigung.

M2 Ultra ist auf Level mit Laptops mit 4060 die man für 1000€ bekommen kann.

https://abload.de/img/screenshot2023-09-130rziyk.png

https://abload.de/img/screenshot2023-09-130d0drc.png

Ailuros
2023-09-13, 09:01:02
Für öhhh... nix ^^ Adobe After Effects, Illustrator... eben Creative-Anwendungen. Also eher was für das iPad dann. Für das iPhone fehlt eine Samsung DeX Alternative.

Apple ist nicht der einzige IHV der RT in ULP SoCs unterstuetzt. Diese Henne/Ei Debatte fuer neue Faehigkeiten sind immer so eine Affaere fuer sich.

Uebrigens: es hat wohl noch keiner bemerkt dass die GPU jetzt endlich auch mesh shaders unterstuetzt ;)

Loeschzwerg
2023-09-13, 09:17:59
Darf gerne alles in Hardware unterstützt werden, da habe ich nichts dagegen :) Allerdings finde ich wachsen iOS wie Android mal so gar nicht, hinsichtlich Software und neuen Möglichkeiten. Aber klar, was machen die Leute schon an ihrem Smartphone außer Instagram und Co.? Logisch dass sich da keiner abmüht großartig mehr aus der Hardware zu holen.

robbitop
2023-09-13, 10:13:18
CB hat den A16 mit 3.867 Punkten vermessen. Ein S23 Ultra / Adreno 740 hat 5500Pkte und ne 4090 eher so 220K.

Das Vierfache wäre 15K, also leicht oberhalb von einem 7940HS (12K). Das wäre für ein Telefon und in Anbetracht der limitierten Bandbreite schon extrem gut.
Das spricht für ein relativ hohes HW Level für RT. (verglichen mit RDNA3)
Apple hebt mit dem A17 pro die GPU erstmals auf ein modernes Level. Mesh shading und (wahrscheinlich) ein recht hohes RT Level. Scheint auch die erste vollständig allein entwickelte GPU von Apple zu sein.
Was so ein M3 aus dem Steamdeck Formfaktor rausholen könnte, wenn Spiele nativ liefen...

Was mich stark enttäuscht: die CPU ist trotz Fullnodeshrink wieder nur (bis zu!) +10% schneller geworden (trotz sogar breiterem decoder, und breiterer execution engine). Auch wurde keine Angabe zu den E Cores (relativ zum Vorgänger) gemacht. Die großen Sprünge sind seit A14 (2020!) vorbei.
Ich glaube mittlerweile ist da was dran, dass die Leute, die für die großen Sprünge verantwortlich waren mit Nuvia weg sind und Apple das nicht aufgefangen bekommt.
Bis dato konnte man das noch damit begründen, dass es keinen shrink gab. Aber mit 3 nm entfällt das.

Nightspider
2023-09-13, 10:41:36
Nunja, die Apple CPU Cores haben gefühlt ein Jahrzehnt lang die Konkurrenz im mobilen Bereich massiv dominiert und sind immernoch sehr weit vorne in der Single Thread Leistung.

Apple wird die Ingenieure teilweise lieber an anderen Teilen (AI) arbeiten lassen und einige Experten aus dem Bereich haben Apple ja auch wieder verlassen über die letzten 10 Jahre verteilt.

Jedes Jahr 10% sind nach 2 Jahren trotzdem +21%. Nach 3 Jahren 33%, nach 4 Jahren 46% usw. :)

Und AI Beschleuniger fressen mittlerweile verdammt viel Chipfläche. Man muss sich den Die Shot mal anschauen, wie riesig dieser Block mittlerweile ist.

Selbst so eine """dumme""" Armbanduhr hat heute schon extreme Möglichkeiten und kann die Offline rede und antwort stehen.

Mich würde ja mal interessieren wie Half Life 2 oder Far Cry und Crysis auf so einer Apple Watch laufen würden. ;D

VooDoo7mx
2023-09-13, 10:44:58
Ich freu mich schon auf die ganzen RT Games die ich dann auf dem M3/Pro/Max/Ultra Macs nicht spielen kann und dann doch wieder meinen Windows Notebook einschalte.

robbitop
2023-09-13, 10:57:30
Nunja, die Apple CPU Cores haben gefühlt ein Jahrzehnt lang die Konkurrenz im mobilen Bereich massiv dominiert und sind immernoch sehr weit vorne in der Single Thread Leistung.
Jedes Jahr 10% sind nach 2 Jahren trotzdem +21%. Nach 3 Jahren 33%, nach 4 Jahren 46% usw. :)

Mit der Einstellung wird die Konkurrenz aber aufholen, denn die legt mehr zu als 10% gen over gen.


Apple wird die Ingenieure teilweise lieber an anderen Teilen (AI) arbeiten lassen und einige Experten aus dem Bereich haben Apple ja auch wieder verlassen über die letzten 10 Jahre verteilt.
Ich glaube nicht, dass resources (Anzahl von Ingenieuren) das Problem ist. Und ich weiß auch nicht, ob CPU Spezialisten die besten sind um AI Engines oder GPUs oder sonst was für IP Blöcke zu designen.
Für mich liegt die Vermutung nahe, dass die entscheidenden Leute weg sind.

Qualcomm hat Nuvia nicht ohne Grund gekauft. Sie waren trotz Armeen an CPU Engineers nicht in der Lage das zu machen, was Apple gemacht hat. ARM und Samsung genauso nicht. Das liegt dann in der Regel bei CPUs an einigen wenigen besonders brilianten Leuten.

Ich freu mich schon auf die ganzen RT Games die ich dann auf dem M3/Pro/Max/Ultra Macs nicht spielen kann und dann doch wieder meinen Windows Notebook einschalte.

Ist IMO ein "mindset" Ding mit Apple. Die sagen immer "Games whoohoo". Aber echtes Commitment da was zu machen ist da nicht. Wenn es das wäre würden sie nicht nur 99% Open Source Code klauen und 1% beisteuern um dieses "Developer Kit" zu bauen, was im H1 diesen Jahres vorgestellt wurde. Wenn sie committed wären, würden sie einen kickass Translation layer bauen, wie Valve mit Proton, der bestmöglich jedes Windows Spiel auf dem Mac laufen lässt. Spielinherente Bugs umgeht (die Kompatibilität breaken) und mit einem schlagkräftigen Team konstant daran arbeitet, dass so viele wie mögliche Games (gut) laufen. Zu jedem neuen Release gibt es dann ein Translation layer update. Ich bin mir dank Valve's Vorarbeit (und Apples erstaunlich schneller x86 translation) ziemlich sicher, dass wenn sie es wollten, Spiele ziemlich gut auf Macs laufen könnten.
Wenn sie mit Valve partnern würden, würde Valve vielleicht sogar ein Teil des "Legworks" für sie übernehmen wer weiß?
Und natürlich müssten sie ihre Treiber etwas mehr auf 3D Games optimieren.

Tja zumindest bisher ist das mindset bei Apple dafür nicht da. Aber es wäre sicherlich nicht schädlich für Apple das zu ändern.

Wenn man sich anschaut, was die in HW bauen. Eine top moderne GPU mit offenbar hohem RT HW Level (und meshshading), sogar modernes temporales Upsampling (auf CB steht sogar dass das auf einem NN basieren soll). Und dann wird das alles nur halbherzig genutzt und größtenteils nur für Bildbearbeitung und Videoschnitt (die nur ein Bruchteil der Features benötigen).
Aber wer weiß - vielleicht überrascht Apple uns ja doch noch und man kann in ein paar Jahren relativ gut auf Macs spielen.

MSABK
2023-09-13, 11:08:39
Assasins Creed und Resident Evil kommen auf das iPhone. Bedeutet dies, dass das auch nativ auf dem MacBook laufen wird?