PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25

robbitop
2022-03-10, 10:29:30
Wer benötigt denn soviel Pixel-Leistung bei MacOS? 21 TFLOPs ohne TensorCores für DL und RT-Beschleunigung für Effekte und Rendering sind in einer Welt mit Ampere ziemlich wenig für 110 Milliarden Transistoren. Sieht für mich aus, wie ein komplett an dem Kundenbedürfnissen vorbeientwickeltes Produkt.
Apple hat eine Neural Engine für DL in den SoCs. Und sie haben eine Menge an Compute was für die Workflows (Simulationen und Rendering jeglicher Art) sinnvoll ist.
Wenn das für die Endkunden nicht sinnvoll wäre, würde es nicht den Markterfolg haben und Apple würde auch nicht Milliarden in diese Handstände investieren.

Ohne HW-Beschleunigung für Raytracing wird der Mac in Blender von jeder popeligen RTX GPU geschlagen.

Keine Ahnung was man sich dabei gedacht hat, den Chip ohne RT auszustatten.
Lag nicht bereits der M1 Max knapp unter 3080 Level mit Metal? Der M1 Ultra ist doppelt so schnell. Also scheint sich das nicht zu bewahrheiten in Blender.

Ailuros
2022-03-10, 10:38:43
Man muss bedenken, dass Apples Geräte keine Orientierung in den Gaming Markt haben. Deren PCs sind eher Creator/Productivity Geräte.
Eine gaming orientierte HW Architektur hätte wenig Sinn, da es auf den Macs kein DirectX und kein Windows (außerhalb von VMs und Emulation) gibt und das auch ein Nischenbereich der Kunden von Apple ist. Augenscheinlich investiert man die Transistoren in die Workloads die von ihren Zielkunden gefordert sind.

Tja der Leser bzw. Beobachter der z.B. von einer GPU ueber einer 3090 desktop GPU liest, stellt sich wohl etwas anderes davon vor. Und selbst wenn jeglicher Leser das obrige versteht wird er immer noch legitim fragen mit was zum Henker Apple genau vergleicht.

@Ailuros
Bist du sicher, dass sie noch sehr abhängig von IMG sind? Mein Eindruck ist, dass sie schon eine ganze Weile selbst für ihre GPUs zuständig sind. Das begann vor ein paar Jahren in der Änderung bestehender IMG Architekturen. Die ISA haben sie wohl eine Weile nicht angetastet. Aber ISA =! Implementierung der uArch. Bist du sicher, dass sie nicht inzwischen schon komplett eigene uArchs entwickeln? In Anbretracht dessen, was sie seit Jahren in der SoC Sparte geleistet wird, würde es mich wundern, wenn sie kein kompetentes, leistungsstarkes GPU Team haben, was nicht im Stande ist das selbst zu machen.

Dass sie fast die gesamte GPU vereinfacht "umgeschrieben" haben sollte klar sein, aber es ist nach wie vor nach aussen eine DX10.0 GPU mit einer Tessellations-Einheit, ein reiner TBDR und hat auch rein zufaellig die genau gleiche SP Anzahl pro cluster, Anzahl der TMUs etc. wie die damalige 7 Plus Rogue Generation. Du hast nach wie vor 16SPs/cluster, es wird weiterhin fast alles verzoegert um einen frame und Du hast nach wie vor alle IMG relevante extensions u.a. auch fuer PVRTC. Im Gegenfall haette Apple ihre multi-year Lizenz nicht erneuert.

***edit: 8192 Einheiten fuer die Ultra GPU nach Apple, ergo 8192/2 (weil 2 FMACs/SP) = 4096 SPs / 16SPs = 256 clusters mit 2 TMUs/cluster. 512 TMUs mit einer Frequenz irgendwo um die <1.3GHz gibt Dir die 660GigaTexels Fuellrate und 21 TFLOPs FP32.

Nach meinem Verständnis nutzen sie Mechanismen, die von IMG patentiert sind (eine ganze Menge um den TBDR herum) und entsprechend fließen dort Gelder, damit IMG das akzeptiert.

Ja natuerlich ist es eine Architektur-Lizenz dass aendert aber nichts am obrigen und nein die heutigen GPUs sind keine komplette Eigenentwicklung.

Da Apple womoeglich keine royalties bezahlt fliessen im besten Fall pro Jahr ein paar Mio $ fuer die Lizenz und das ist dann wohl schon auch alles.

Insgesamt: egal was die neue Exynos GPU leistet, Apple hat es wohl nicht gerne gesehen dass Samsung frueher mit ray tracing angekommen ist. Wenn alles so einfach waere eine jegliche RT Einheit zu entwickeln waere auch nicht so kompliziert gewesen von Apple's engineering team oder bzw. eine GPU raster Architektur die zumindest alle fuer sie nutzvollen Teile einer DX12+ Architektur integriert.

Car Chase hat im Kishonti benchmark eine logische Menge an Tessellation und dort leisten Apple GPUs mehr oder weniger schon was man erwarten wuerde. Im synthetischen Tesselations-test sieht man mit Apple's Absicht keine Resultate weil der Test brutal reinhaut und sie sich sofort selbst gegen Tegra K1 total blamieren wuerden.

ChaosTM
2022-03-10, 10:39:48
Wäre schön wenn es jemand schaffen würde, die Windows 11 für ARM Preview auf einem MAX laufen zu lassen. Ein direkter Vergleich wäre schon interessant.
Apple wird aber alles menschenmögliche getan haben um das zu verhindern, oder ?

Dampf
2022-03-10, 10:40:57
@robbi Hast du dazu Quellen? Ich bezweifle dass der M1 Max auch nur in die Nähe der 3080 mit OptiX kommt.

Beim Vergleichen musst du darauf achten, dass Cycles und OptiX genutzt werden. Ohne OptiX bzw in Evee denke ich schon dass der M1 Max nahe rankommt, da wird aber keine RT HW genutzt.

Troyan
2022-03-10, 10:42:45
Apple hat eine Neural Engine für DL in den SoCs. Und sie haben eine Menge an Compute was für die Workflows (Simulationen und Rendering jeglicher Art) sinnvoll ist.
Wenn das für die Endkunden nicht sinnvoll wäre, würde es nicht den Markterfolg haben und Apple würde auch nicht Milliarden in diese Handstände investieren.


Interessiert es MacOS Kunden? Es gibt kaum Produkte für diese Workloads. Ich sehe nicht, dass der MacOS außer Videoschnitt und so ein Kram relevant wäre. Ampere ist deutlich besser und vorallem deutlich günstiger als Produkt.

Und man darf nicht vergessen, nur das teuerste Produkt hat den schnellsten SoC.

ChaosTM
2022-03-10, 10:47:27
Spannend wird es erst, wenn Intel, AMD und NV mit solchen ARM/RISC-5 SOCs kommen werden und das werden sie unter Garantie.
Diskrete (bis) 250watt x86/64 Dino Cpus und (bis)500Watt GPUs sind Auslaufmodelle.

Ailuros
2022-03-10, 10:53:23
Interessiert es MacOS Kunden? Es gibt kaum Produkte für diese Workloads. Ich sehe nicht, dass der MacOS außer Videoschnitt und so ein Kram relevant wäre. Ampere ist deutlich besser und vorallem deutlich günstiger als Produkt.

Inwiefern ist Ampere genau guenstiger? Apple integriert schon seit etlichen GPU Generationen in etwa die gleichen GPUs nur werden hauptsaechlich dessen Einheiten skaliert. Was soll genau daran teuer sein, noch mehr da Apple einen kompletten SoC entwickelt der offensichtlich nicht nur aus dem GPU block besteht?

Und man darf nicht vergessen, nur das teuerste Produkt hat den schnellsten SoC.

Ja und? Apple sorgt langsam fuer eine Kette an SoCs um all ihre eigenen Marktsegmente zu bedienen ohne Abhaengigkeiten zu anderen Herstellern.

Spannend wird es erst, wenn Intel, AMD und NV mit solchen ARM/RISC-5 SOCs kommen werden und das werden sie unter Garantie.
Diskrete (bis) 250watt x86/64 Dino Cpus und (bis)500Watt GPUs sind Auslaufmodelle.

Der Unterschied ist hier dass Apple von mobilen ULP SoCs nach oben entwickelt und nicht umgekehrt; anders hoechste Prioritaet ist hier Stromverbrauch. Konkurrenz wird mit absoluter Sicherheit fuer Apple kommen, aber wenn dann wohl eher von QCOM und Samsung. Es ist eben nicht so dass Intel und NV sich nicht mit mobilen ULP SoCs gewagt haben, aber wohl nicht mit irgendwelchem Erfolg.

Der geringere Stromverbrauch wird teilweise mit geringeren Faehigkeiten von Apple eingekauft; fuer ihre eigene iOS/macOS Welt ist es auch ziemlich egal, aber umsonst ist gar nichts.

dildo4u
2022-03-10, 11:02:23
Ohne HW-Beschleunigung für Raytracing wird der Mac in Blender von jeder popeligen RTX GPU geschlagen.

Keine Ahnung was man sich dabei gedacht hat, den Chip ohne RT auszustatten.
Es ist nicht so einfach wenn du Szenen hast die nicht in den Vram einer Quadro RTX passen bringt dir die RTX Beschleunigung nix.
Das M1 Ultra Modell geht bis 128GB, Quadro RTX 6000 max 48GB.
Vermutlich werden wir nie genaue Zahlen bekommen aber Avatar 2 wird vermutlich neue Rekorde aufstellen was Datenmenge pro Frame angeht.

VooDoo7mx
2022-03-10, 11:18:30
Wer benötigt denn soviel Pixel-Leistung bei MacOS? 21 TFLOPs ohne TensorCores für DL und RT-Beschleunigung für Effekte und Rendering sind in einer Welt mit Ampere ziemlich wenig für 110 Milliarden Transistoren. Sieht für mich aus, wie ein komplett an dem Kundenbedürfnissen vorbeientwickeltes Produkt.

Man kann aber damit jetzt ganz schnell 8K Videos für youtube (:ulol:) exportieren. Weeeeeeeeeeeeeee

Professionelle Anwendungen z.BV. auch im CAD Bereich die von der Leistung profitieren können gibt es ja nicht.
Games gibt es sowieso nicht für Mac.

Jetzt nach fast 1 1/2 Jahren sieht die Adaption von Mac OS ARM immer noch richtig mies aus.

Wenn Apple mal von ihren scheiß hohen Ross runterkommen würden und auch Vulkan unterstützen würden neben Metal wäre ja auch schon mal viel geholfen. Aber was weiß ich schon.

Es ist nicht so einfach wenn du Szenen hast die nicht in den Vram einer Quadro RTX passen bringt dir die RTX Beschleunigung nix.
Das M1 Ultra Modell geht bis 128GB, Quadro RTX 6000 max 48GB.
Vermutlich werden wir nie genaue Zahlen bekommen aber Avatar 2 wird vermutlich neue Rekorde aufstellen was Datenmenge pro Frame angeht.

Und wo limitiert da die Quadro RTX6000?
Hast du irgendwo konkrete Beispiele? Oder blubberst du nur Apple Marketing BS nach?

dildo4u
2022-03-10, 11:24:54
Hängt natürlich davon ab wie groß das verwendete Projekt ist sobald eine 3D Szene nicht mher in den Vram der Quadro passt hast du nicht mehr Optimale Performance beim Rendering.
System Speicher ist ja zur Zeit massiv langsamer als der Speicher direkt auf der Karte, DDR5 erreicht keine 800/GB Sec wie M1 Ultra.

basix
2022-03-10, 11:29:26
Apple könnte zukünftig folgendes angehen:
- OpenGL/DX12/Vulkan -> Metal Parser (analog DXVK)
- GPU mit RT Support
- GPU mit Matrix/INT8 Beschleunigung
- Bootcamp für M1+ (hängt an OpenGL/DX/Vulkan Support)
- Verbesserungen an Rosetta 2 (M2+)

Das würde MacOS-Geräte stark aufwerten. Für Professionals, Prosumer wie auch normale Consumer. Damit löst man sich komplett von x86 und 3rd Pary GPUs. Die HW-Verbesserungen an der GPU werden meiner Meinung nach eh kommen. Der Rest hängt an Apples Produkt-Strategie.

Naja, bin noch gespannt auf Jade-4C im Mac Pro.

Reaping_Ant
2022-03-10, 12:12:57
Wie sieht es bei der M1 GPU eigentlich mit double precision aus? Bei NV und AMD gibt es das ja nur noch nennenswert bei den HPC Chips, die alleine schon gerne mehr kosten als ein Mac Studio.

robbitop
2022-03-10, 12:20:59
Weiß man denn welches Featureset in Vulkan exponiert ist für die M1 Family? Sieht das da wirklich noch nach einem Äquivalent vergleichbar DX10 aus?

@basix
Matrixbeschleunigung ist doch bereits in der Neural Engine im SoC vorhanden

Mal sehen für wie wesentlich Apple RT HW Beschleunigung für ihre GPU hält.

Bootcamp wirkt auf mich so als hätte Apple das mit ARM fallengelassen. War offenbar eh ein Nischenfeature und die meisten Kunden waren mit VM Lösung zufrieden.

Ailuros
2022-03-10, 12:49:11
Weiß man denn welches Featureset in Vulkan exponiert ist für die M1 Family? Sieht das da wirklich noch nach einem Äquivalent vergleichbar DX10 aus?

Alles seit Series8 (Furian) bis zur dritten Auslage von Albiorix wird als Vulkan1.2/OGL_ES3.x angegeben.

Bis zu Series9 konnten die Kunden bis zu "fast DX11" das featureset steigern, aber man ist eben DX11 kompliant oder nicht. Sie haben stets vor Albiorix in Stellen wie precise rounding gespart: https://blog.imaginationtech.com/powervr-gpu-the-mobile-architecture-for-compute/

Sonst fuer RT, haelt Apple auch nichts von Tessellation so wie es implementiert wurde ab DX11, aber sie unterstuetzen es trotz allem in hw.

smalM
2022-03-10, 12:59:10
Wäre schön wenn es jemand schaffen würde, die Windows 11 für ARM Preview auf einem MAX laufen zu lassen. Ein direkter Vergleich wäre schon interessant.
Apple wird aber alles menschenmögliche getan haben um das zu verhindern, oder ?
Nein. Sie haben nur sehr deutlich gemacht, daß Windows ihnen völlig am A... vorbei geht. Wenn MS Schwierigkeiten mit der Implementierung hat, müssen sie alleine sehen, wie sie damit klar kommen.

Troyan
2022-03-10, 13:16:31
Inwiefern ist Ampere genau guenstiger? Apple integriert schon seit etlichen GPU Generationen in etwa die gleichen GPUs nur werden hauptsaechlich dessen Einheiten skaliert. Was soll genau daran teuer sein, noch mehr da Apple einen kompletten SoC entwickelt der offensichtlich nicht nur aus dem GPU block besteht?


Wir reden hier von über 800mm^2 Fläche. Der Chip ist so groß wie nVidia's GA100. Und ich kann nichtmal drei Anwendungsbereiche nennen, wo man die 800mm^2 bei Apple einsetzen könnte...

Ich finde es einfach nur angeberisch etwas zu produzieren, weil man es kann und nicht, weil es einen relevanten Nutzen hat. Die Rohstoffe sind viel zu kostbar in der heutigen Zeit. Außerdem verhindert Apple konkurrenz, weil Ressourcen bei TSMC anderen Firmen nicht mehr zu Verfügung stehen.

Ailuros
2022-03-10, 13:37:22
Wir reden hier von über 800mm^2 Fläche. Der Chip ist so groß wie nVidia's GA100. Und ich kann nichtmal drei Anwendungsbereiche nennen, wo man die 800mm^2 bei Apple einsetzen könnte...

Wobei es trotz allem nichts hilft einen kompletten SoC mit nur einem GPU chip zu vergleichen. Wie gross waere ein kompletter SoC mit einem GA100 equivalenten GPU block?

Erstens handelt es sich um einen SoC der in ein Geraet mit sehr hohen Preisen kommt (ab $4k) und zweitens ist der Mac Pro noch an der Reihe wohl zeitlich spaeter angeschlagen; anders die fette Dame hat noch gar nicht ausgesungen.

Ich finde es einfach nur angeberisch etwas zu produzieren, weil man es kann und nicht, weil es einen relevanten Nutzen hat.

Du darfst mich gerne ueberzeugen dass sie keinen cent an Gewinn an diesen Tieren machen werden.

Die Rohstoffe sind viel zu kostbar in der heutigen Zeit. Außerdem verhindert Apple konkurrenz, weil Ressourcen bei TSMC anderen Firmen nicht mehr zu Verfügung stehen.

NVIDIA hat erstmal gegen eine gesunde Summe Herstellung bei TSMC fuer einige Zeit gesichert. Sonst sollen Samsung und Intel ihre eigene Herstellungsbuden besser organisieren, dann haetten Konkurrenten wie QCOM auch keinen Drang nicht mehr so viel bei Samsung herzustellen.

Herumheulen koennen viele, aber realistisch gesehen wuerde KEINE foundry einen Herstellungsvertrag mit Apple uebersehen und dass schon seit mehr als einem Jahrzent wo sie noch gar nichts mit laptop chips am Hut hatten. Es ist ja auch nicht so dass ihr groesstes Herstellungsvolumen aus 800mm2 SoCs besteht; dafuer eher ein minority report.

Der M1 ist inzwischen so billig in Herstellung geworden, dass sie es gerade in ein tablet gesteckt haben.

Troyan
2022-03-10, 13:44:54
Die GPU macht ca. 2/3 der Fläche aus. Das sind 533mm^2. Die Leistung in professionellen Anwendung erreicht ~3070 Niveau, der liegt auf 8nm ohne EUV bei 392mm^2.

Ailuros
2022-03-10, 13:47:44
Die GPU macht ca. 2/3 der Fläche aus. Das sind 533mm^2. Die Leistung in professionellen Anwendung erreicht ~3070 Niveau, der liegt auf 8nm ohne EUV bei 392mm^2.

ROFL

https://images.anandtech.com/doci/17302/383946218.jpg


https://www.anandtech.com/show/17306/apple-announces-m1-ultra-combining-two-m1-maxes-for-even-more-performance

basix
2022-03-10, 13:52:56
@basix
Matrixbeschleunigung ist doch bereits in der Neural Engine im SoC vorhanden.

22 TOPS sind aber nicht gerade prickelnd verglichen mit 300 TOPS einer 3090. Selbst mit DOT4A INT8 Produkt bei der M1 Ultra GPU würde man 80 TOPS erreichen.

Troyan
2022-03-10, 13:55:51
ROFL

https://images.anandtech.com/doci/17302/383946218.jpg


https://www.anandtech.com/show/17306/apple-announces-m1-ultra-combining-two-m1-maxes-for-even-more-performance

https://www.anandtech.com/show/17024/apple-m1-max-performance-review

Der Vergleich zwischen M1 Pro und M1 Max zeigt eindrucksvoll, wie verschwenderisch der GPU-Teil ist.

Ailuros
2022-03-10, 14:45:14
https://www.anandtech.com/show/17024/apple-m1-max-performance-review

Der Vergleich zwischen M1 Pro und M1 Max zeigt eindrucksvoll, wie verschwenderisch der GPU-Teil ist.

Es sind weder 2/3 der insgesamten die Flaeche noch irgendwo in der Naehe von 533+ mm2, aber ich hab auch ehrlich keine andere Reaktion erwartet :P

mboeller
2022-03-10, 14:56:52
also ich fand diese Folie hier am bemerkenswertesten:

https://images.anandtech.com/doci/17306/Apple-M1-Ultra-gpu-performance-01.jpg

21TFlops @ 100w ...

basix
2022-03-10, 15:08:08
Naja, die GPU läuft auch nur auf 1.3 GHz. Das hilft enorm. Zudem 5nm TSMC vs. Samsung 8nm. Und der GDDR6X einer 3090 hilft auch nicht gerade ;)

Klar, für sich betrachtet und im direkten Vergleich ist das Teil genial und sehr fortschrittlich. Aber Apple kocht auch nur mit Wasser. AMD und Nvidia könnten das auch, wenn sie wollten.

smalM
2022-03-10, 15:16:58
@basix
Wie kommst Du auf die Idee, Apple wäre an Int8-Performance interessiert?

Gratzner
2022-03-10, 15:18:57
Es sind weder 2/3 der insgesamten die Flaeche noch irgendwo in der Naehe von 533+ mm2, aber ich hab auch ehrlich keine andere Reaktion erwartet :P
2/3 ist noch zu klein geschätzt. Erstmal Apple Bild hat nix mit dem realen Die zu tun. Anandtech Die Shot hat von der GPU nur die Speicherinterfaces, SLC Cache und die GPU-Kerne selber markiert (Alles Bestandteile welche zweifelsfrei von der GPU benutzt werden), es fehlen aber noch die ganzen Display Phys, Media Engine, Color ROPs + Z ROPs, was auch immer. Bei AMDs APU waren das dann oftmals die ganzen schwer zuzuordnenden Bestandteile um die CPU und GPU herum. Wäre also nicht falsch ähnliches bei Apple zu erwarten. Für irgendwas müssen schließlich die nicht zugeordnete Bestandteile gut sein

Troyan
2022-03-10, 15:26:02
also ich fand diese Folie hier am bemerkenswertesten:

https://images.anandtech.com/doci/17306/Apple-M1-Ultra-gpu-performance-01.jpg

21TFlops @ 100w ...

Tolle Folie. RTX 3080 TI mobile liefert laut nVidia irgendwas zwischen 16,7 TFLOPs (80W) und 23,6 TFLOPs (150W).

Betrachtet man nun die eingesetzten Ressourcen, ist das schon ziemlich miserabel, was Apple bei ca. 4x Transistoreneinsatz erreicht...

basix
2022-03-10, 15:29:24
@basix
Wie kommst Du auf die Idee, Apple wäre an Int8-Performance interessiert?

Weil für gewisse Produktivanwendungen allenfalls interessant? Kenne mich mit den ganzen Bildbearbeitungs- und Video-Tools nicht im Detail aus. Aber es gibt z.B. den AI-Denoiser von Nvidia fürs Rendering. Und es erweitert einfach den Einsatzzweck des Geräts. Keine Ahnung ob man TensorFlow und Geschwister auf dem Mac verwenden kann. Oder entwickeln Mac User keine ML/AI Modelle und Anwendungen? ;)

Der_Korken
2022-03-10, 16:50:22
Bei der Energieeffizienz beeindruckt Apple zweifelsfrei, das kann man nicht anders sagen. Allerdings zahlen sie auch einen hohen Preis dafür, wenn man sich die riesigen 5nm-Dies ansieht. In die 114 Mrd. Transistoren des M1 Ultras passt ein 64-Kern-Milan-Epyc samt IO-Die (ca. 42 Mrd.) und ein A100 (ca. 53Mrd.) bzw. ein MI200 (ca. 2x29Mrd.) rein und hätte immer noch was übrig, um noch einen 256MB großen SLC oben drauf zu legen. Die Performance pro Transistor ist also deutlich schlechter als bei AMD/Nvidia. Würde man die genannte Kombi so weit runtertakten oder downsizen, dass sie auf M1-Ultra-Level ist und das ganze noch in 5nm shrinken, würde die beim Verbrauch vermutlich auch gar nicht mal so schlecht dastehen. Das soll Apples Chips keinesfalls schlecht reden, aber auch die müssen am Ende mit Wasser kochen.

urpils
2022-03-10, 16:57:49
Wäre schön wenn es jemand schaffen würde, die Windows 11 für ARM Preview auf einem MAX laufen zu lassen. Ein direkter Vergleich wäre schon interessant.
Apple wird aber alles menschenmögliche getan haben um das zu verhindern, oder ?

afair hat Apple gemeldet, dass Sie Windows prinzipiell unterstützen würden, Microsoft jedoch kein Interesse zeigt, was scheinbar an einem Exklusiv-Deal mit Qualcom für ARM-Windows liegt, der aber wohl dieses oder nächstes Jahr ausläuft.

Könnte also sein, dass Microsoft das doch noch liefern wird.

fondness
2022-03-10, 17:45:38
also ich fand diese Folie hier am bemerkenswertesten:

https://images.anandtech.com/doci/17306/Apple-M1-Ultra-gpu-performance-01.jpg

21TFlops @ 100w ...

Ich finde diese Apple beweihräucherung zunehmend lächerlich. Mangels brauchbarer benchmarks werden die Apple Marketing Zahlen als Fakten gesehen.

Daredevil
2022-03-10, 19:10:33
Da sie beim letzten und vorletztem mal der Wahrheit entsprachen, spricht auch nichts dagegen, dass es nicht die Wahrheit ist.

VooDoo7mx
2022-03-10, 19:35:02
afair hat Apple gemeldet, dass Sie Windows prinzipiell unterstützen würden, Microsoft jedoch kein Interesse zeigt, was scheinbar an einem Exklusiv-Deal mit Qualcom für ARM-Windows liegt, der aber wohl dieses oder nächstes Jahr ausläuft.

Könnte also sein, dass Microsoft das doch noch liefern wird.

Das ist auf jeden Fall richtig so, Genauso hat das dieser grauhaarige Apple Marketing Schwurbler Craig Dingsbums auch wiedergegeben.
Jedoch müsste Apple dann auch Windows Treiber für z.B. den GPU Teil bereit stellen und diese auch pflegen nur irgendwie glaube ich da überhaupt nicht dran.


Da sie beim letzten und vorletztem mal der Wahrheit entsprachen, spricht auch nichts dagegen, dass es nicht die Wahrheit ist.

Die Wahrheit:

https://abload.de/img/screenshot2022-03-101j4k85.jpg

iS_uPukPuo4

https://abload.de/img/screenshot2022-03-101pxj77.jpg

HfWk_W64wkU

https://images.anandtech.com/graphs/graph17024/126685.png
https://images.anandtech.com/graphs/graph17024/126681.png

davidzo
2022-03-10, 21:05:46
Das ist auf jeden Fall richtig so, Genauso hat das dieser grauhaarige Apple Marketing Schwurbler Craig Dingsbums auch wiedergegeben.
Jedoch müsste Apple dann auch Windows Treiber für z.B. den GPU Teil bereit stellen und diese auch pflegen nur irgendwie glaube ich da überhaupt nicht dran.


Dass Apple dann auch Treiber liefert, daran würde ich nicht dran zweifeln.
Einer der großen Vorteile von Bootcamp labtops gegenüber windows labtops war tatsächlich schon immer der gute Treibersupport von Apple für Windows und der zentrale Updater. Die Art und Weise wie bei einer Windows Neuinstallation ohne einen extra klick zu verschwenden alle Treiber aufgespielt werden schlägt von der Nutzerfreundlichkeit alle vergleichbaren Herstellerpakete wie Thinkvantage, Asus live update, etc.
Windows auf einem Mac war dadurch tatsächlich schon immer eine bessere User experience als Windows auf einem PC.




Die Wahrheit:

Naja, Cuda vs Non-cuda zu testen ist ungefähr so fair wie einen Xeon W3275x mit Prores Softwarencoding gegen den M1 mit prores Hardwarencoding zu testen. Das Ergebnis ist vorhersehbar und hat nichts mit der general purpose Hardware zutun sondern mit Hardwarencoding und der Software die man testet. Man sollte lieber den Xeon mit afterburnerkarte testen, dann ist es einigermaßen fair.
PCs mit AMD Karten laufen in Blender auch ohne Cuda und schneiden auch nicht sonderlich gut ab. Apple hat kürzlich erst mit dem metal support für Blender angefangen, da ist klar dass man nicht so schnell ein jahrzehnt an Cuda-development aufholt. Allerdings würde ich schätzen dass es mit jeder Version von Blender eher besser wird, da daran gerade aktiv entwickelt wird.




https://images.anandtech.com/graphs/graph17024/126685.png
https://images.anandtech.com/graphs/graph17024/126681.png

Ich denke das sind sehr ansehnliche Ergebnisse für eine 70W GPU+CPU TDP die nicht primär für gaming entwickelt wurde.
Die 3060m braucht mehr als das doppelte nur um geringfügig schneller zu sein und hat nichtmal ne CPU dabei.
Vergleichbar wäre es wenn man die M1Max GPU gegen eine Max-Q GPU mit 55Watt antreten lässt in einem Chassis mit 15W CPU. Da hast du plötzlich nur ne 1650m oder 3050m maxQ zur Verfügung und die wird sogar vom der 16C M1pro GPU geschlagen.

Anhand der Benchmarks vom M1Max kannst du auch gut interpolieren dass ein M1Ultra mit der 2-fachen Leistung wohl auch vor der 3080m herauskommen wird. Das ist doch ziemlich anständig für eine workstation CPU-GPU Kombi mit 120W TDP.

y33H@
2022-03-10, 21:45:05
Eher 180W für CPU+GPU, der Max war schon bei 90W.

y33H@
2022-03-10, 21:46:40
Erstmal Apple Bild hat nix mit dem realen Die zu tun. Anand selbst sagte, der Die Shot sei kein Fake.

Gratzner
2022-03-10, 22:57:33
Es ging um das Schaubild, nicht den Die-Shoot. Ailuros hatte das Schaubbild verwendet, um daraus die Chipfläche für die Grafikkarte abzuschätzen [Link zum Beitrag (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12946557&postcount=5519)], Schaubbild nochmal im Spoiler

https://images.anandtech.com/doci/17306/M1U_GPUb.png
Die-Shoot:


Das mit diesem Bild zu versuchen ist natürlich vollkommener Käse.

Savay
2022-03-11, 01:09:30
Anhand der Benchmarks vom M1Max kannst du auch gut interpolieren dass ein M1Ultra mit der 2-fachen Leistung wohl auch vor der 3080m herauskommen wird.

Ist das mit dem 2 fach denn praktisch schon gesichert? Für GPGPU schön und gut...aber 3D?
Wie bekommt Apple die beiden GPU Slices synchronisiert?
Oder nutzen die AFR o.ä.?

Wir reden hier ja nicht von ner doppelt so breiten monolithischen Chip sondern von ner MCM GPU.

Daredevil
2022-03-11, 01:25:36
Laut Apple sieht der Entwickler ja "einen Chip", egal ob bei CPU/GPU. Insofern kann man hoffen, dass das auch wirklich so stimmt. :D

https://www.anandtech.com/show/17306/apple-announces-m1-ultra-combining-two-m1-maxes-for-even-more-performance
We’ll go more into this in the obligatory follow-up article, but the important point to take away here is that Apple has become the first vendor to bond two GPUs together with such a massive amount of bandwidth. This is what’s enabling them to take a stab at presenting the two GPUs as a single device to the OS and applications, as it allows them to quickly shuffle data between the GPUs as necessary.



Wir brauchen Spiele für den Mac, das würde AMD und Nvidia echt Dampf machen. :(

dildo4u
2022-03-11, 06:50:48
Ist das mit dem 2 fach denn praktisch schon gesichert? Für GPGPU schön und gut...aber 3D?
Wie bekommt Apple die beiden GPU Slices synchronisiert?
Oder nutzen die AFR o.ä.?

Wir reden hier ja nicht von ner doppelt so breiten monolithischen Chip sondern von ner MCM GPU.
AMD will doch genau das selbe machen laut Gerüchten mit 6 und 5nm gemixt, bei Apple ist alles 5nm.
Wenn das nicht unsichtbar für die Software ist kann das nicht ernsthaft Nvidia vom Thron stoßen.

Troyan
2022-03-11, 09:52:04
Ist das mit dem 2 fach denn praktisch schon gesichert? Für GPGPU schön und gut...aber 3D?
Wie bekommt Apple die beiden GPU Slices synchronisiert?
Oder nutzen die AFR o.ä.?

Wir reden hier ja nicht von ner doppelt so breiten monolithischen Chip sondern von ner MCM GPU.

Das selbe, was nVidia mit GA100 gemacht hat nur mit zwei Chips. GA100 besteht auch aus zwei "Bereiche" verbunden über den L2-Cache.

fondness
2022-03-11, 09:55:09
Laut Apple sieht der Entwickler ja "einen Chip", egal ob bei CPU/GPU. Insofern kann man hoffen, dass das auch wirklich so stimmt. :D

https://www.anandtech.com/show/17306/apple-announces-m1-ultra-combining-two-m1-maxes-for-even-more-performance


Wir brauchen Spiele für den Mac, das würde AMD und Nvidia echt Dampf machen. :(

Das Ding ist doch technologisch gar nicht in der Lage moderne Spiele auszuführen, oder hat sich das mittlerweile geändert? AFAIK ist der Chip maximal auf DX10.1 Level.

Savay
2022-03-11, 10:11:12
Laut Apple sieht der Entwickler ja "einen Chip", egal ob bei CPU/GPU. Insofern kann man hoffen, dass das auch wirklich so stimmt. :D


Bei den Threadripper und Ryzen sieht der Entwickler auch nur "einen Chip"...
Und wir alle wissen, dass die CCX/CCDs durchaus zu Auffälligkeiten führen. :wink:

Fakt ist der Ultra hat sowas wie 2 CCX (wobei eigentlich wohl eher 4 (2x Performance + Efficiency) und 2 getrennte GPU Slices.
Dass das alles so nahtlos funktioniert wie behauptet wäre zumindest bei letzterem mal interessant zu sehen.

AMD will doch genau das selbe machen laut

AMD hat aber den recht großen und breit angebundenen IF$...was vergleichbares gibt es beim M1 Max?
Ob der kleine SLC dafür reicht? Ist der dafür überhaupt ausgelegt? Bandbreite etc.?

Troyan
2022-03-11, 10:13:48
Der Interconnect ist 2,5TB/s schnell. Das reicht vollkommen aus. Entspricht ja auch glaube ich der Geschwindigkeit des L2 Caches von nVidia.

AffenJack
2022-03-11, 10:51:45
Der Interconnect ist 2,5TB/s schnell. Das reicht vollkommen aus. Entspricht ja auch glaube ich der Geschwindigkeit des L2 Caches von nVidia.

Jupp, ist ne völlig andere Geschwindigkeit als zb Mi250 mit nur 400Gb/s zwischen den Dies. Da ists auch egal, ob Single oder Multidie und es verhält sich wie ein Chip.

Ich frage mich gerade auf welchem TSMC Packaging das basiert? Dachte nicht, dass wir solche Geschwindigkeiten ohne 3D Packaging bei Interconnects sehen.

Ailuros
2022-03-11, 11:03:34
2/3 ist noch zu klein geschätzt. Erstmal Apple Bild hat nix mit dem realen Die zu tun. Anandtech Die Shot hat von der GPU nur die Speicherinterfaces, SLC Cache und die GPU-Kerne selber markiert (Alles Bestandteile welche zweifelsfrei von der GPU benutzt werden), es fehlen aber noch die ganzen Display Phys, Media Engine, Color ROPs + Z ROPs, was auch immer. Bei AMDs APU waren das dann oftmals die ganzen schwer zuzuordnenden Bestandteile um die CPU und GPU herum. Wäre also nicht falsch ähnliches bei Apple zu erwarten. Für irgendwas müssen schließlich die nicht zugeordnete Bestandteile gut sein

Es ist eben nicht so dass es im internet keine echten M1 Max die shots gibt, wo man den GPU block deutlich anerkennen kann. Obwohl es zwar stimmt dass Apple schon seit A2 mehr Transistoren in ihre GPU Bloecke investiert, gab es schon seit damals die endlosen Maerchen dass die GPU angeblich die Haelfte des die estates wenn nicht noch mehr einnehmen soll.

M1 Max ist zwar zugegeben eine Ausnahme weil es einen higher end Markt anspricht als vorige Axx SoCs, aber maximal war es fuer die letzten bis zu 1/3 des die estates pro high end SoC fuer die GPU und fuer Samsung/Qualcomm meistens um 1/4.

Es wird sich schon irgendwann jemand hinsetzen und den reinen GPU block im M1 Ultra ausrechnen, und nein Bloecke wie SLC cache oder auch encoders/decoders (dedizierte hw um CPU und GPU zu entlasten) u.a. zaehlt man unter normalen Umstaenden nicht mit. Sonst warum auch nicht gleich die CPU Bloecke, denn ohne diese kann die GPU ja auch nichts anstellen oder?

Aus rein technologischer Perspektive (und legitime Kritik gegen Apple's Design Entscheidungen zur Seite), hat Apple eigentlich Intel, AMD und NVIDIA u.a. mit chiplets zum "punch geschlagen". Jeder weiss wo es in absehbarer Zukunft langgehen wird und IHVs brauchen die Erfahrung mit der Materie. Noch mehr Apple da sie ihrem Publikum auch beweissen muessen, dass sie mit der Loesung von Intel/AMD auch die richtige Entscheidung getroffen haben.

Das Ding ist doch technologisch gar nicht in der Lage moderne Spiele auszuführen, oder hat sich das mittlerweile geändert? AFAIK ist der Chip maximal auf DX10.1 Level.

As far as you know, wieso genau? Weil Du es selber bestaetigen kannst oder weil Du es rein zufaellig mitgelesen hast? Spart Apple immer noch an rounding precision dann ist es nichtmal 10.1 sondern 10.0. Ist aber fuer Apple's Welt ziemlich nebenwichtig da jegliche Faehigkeit ueber 10.0 durch extensions in Vulkan/OGL_ES geregelt wird. Bis zu A15 als ich einen sw Entwickler fragte, war das Ding nicht ueber variable rate shading faehig, weil die Architektur workarounds braucht damit es auf einem deferred renderer auch Sinn macht.

Sonst steckt schon seit mehreren Axx Generationen Tessellation in hw in den Dingern u.a.

Jupp, ist ne völlig andere Geschwindigkeit als zb Mi250 mit nur 400Gb/s zwischen den Dies. Da ists auch egal, ob Single oder Multidie und es verhält sich wie ein Chip.

Ich frage mich gerade auf welchem TSMC Packaging das basiert? Dachte nicht, dass wir solche Geschwindigkeiten ohne 3D Packaging bei Interconnects sehen.

Ich bin mir zwar nicht sicher aber ich halte die interconnect Bandbreite schon ein bisschen uebertrieben. Von dem abgesehen so lange es beim interconnect nicht hapert, verteilt der Treiber viewports an beide GPU Bloecke (moeglichst mit gleicher Komplexitaet) und das ganze wird mit macro und micro tiling geloest (weiss zwar nicht wie es Apple genau anstellt aber IMG's GPU IP hat heutzutage RISC-V basierende microcontroller ebenso wie NV u.a.). Durch die Verzoegerung eines frames (und auch fast alles asynchronous) ist es unter normalen Umstaenden auch kein Problem, so lange man keine uebertrieben feingehackte Geometrie hat und hier brauchen sie vielleicht dann doch so viel interconnect Bandbreite? Ueberstopft man so ein Tier mit einer Unmenge feiner Geometrie, wird es wohl auch endlos hin und her puffern muessen?

Am Rand weiss ich zwar nicht ob es stimmt, aber man sagte mir gestern dass Apple momentan nur bis zu zwei dies verbinden kann. Ergo will Apple in absehbarer Zukunft noch etwas groesseres vorlegen, wird es wohl auf der naechsten A16 Generation basieren (wenn's stimmt).

basix
2022-03-11, 11:05:45
@Affenjack
Ich würde auf etwas ähnliches wie EFB bei AMD tippen. Und Apple selbst spricht von "Silicon Interposer". Bei HBM2e klappt das ja auch mit ähnlichen Bandbreiten, wenn man es pro GPU betrachtet.

Anscheinend sind es ~10'000 Verbindungen. Bei 2.5 TByte/s entspricht das 2.0 GT/s pro Pin. Das ist relativ langsam.

robbitop
2022-03-11, 12:28:42
Die GPU ist halt nicht für Spiele entwickelt sondern für Anwendungen die ihr Clientel nutzt. Und damit die Energieeffizienz passt, macht man diese eher besonders breit und taktet dafür niedriger. f~P³
Entsprechend mehr Fläche kostet das ist aber energieeffizienter.

Man wird sehen müssen, wie erfolgreich das Produkt ist und wie zufrieden die Content Creator Kundschaft der SKU namens "Studio" ist. Der Name "Studio" sagt ja schon alles. Da interessieren Spiele eher weniger.

y33H@
2022-03-11, 12:42:50
Apple legt den Fokus auf Final Cut Pro und Logic Pro, halt CPU+GPU+NPU.

Ailuros
2022-03-11, 12:46:59
Die GPU ist halt nicht für Spiele entwickelt sondern für Anwendungen die ihr Clientel nutzt. Und damit die Energieeffizienz passt, macht man diese eher besonders breit und taktet dafür niedriger. f~P³
Entsprechend mehr Fläche kostet das ist aber energieeffizienter.

Man wird sehen müssen, wie erfolgreich das Produkt ist und wie zufrieden die Content Creator Kundschaft der SKU namens "Studio" ist. Der Name "Studio" sagt ja schon alles. Da interessieren Spiele eher weniger.

Taktet die GPU wirklich auf 1.3GHz haetten sie auch locker mehr Leistung herauskitzeln koennen, natuerlich mit um einiges hoeherem Stromverbrauch.

y33H@
2022-03-11, 12:58:19
Ich frage mich gerade auf welchem TSMC Packaging das basiert? Dachte nicht, dass wir solche Geschwindigkeiten ohne 3D Packaging bei Interconnects sehen.
Keine Angabe ob CoWoS oder InFO, klang eher wie Custom bzw mit Hilfe von Apples inhouse Packaging Team.

davidzo
2022-03-11, 13:23:13
Keine Angabe ob CoWoS oder InFO, klang eher wie Custom bzw mit Hilfe von Apples inhouse Packaging Team.

Was ist denn mit AMDs EFB, ist das nicht auch eher CoWos oder hat AMD da eine inhouse packaging Firma?

Ich kann mir zwar vorstellen dass Apple inhouse an dem Packaging mitentwickelt hat, aber die Fertigung wird man schön weiter an Partner outsourcen. Bisher war man ja ein sehr guter Kunde von TSMCs advanced packaging, mit InFO für die Handychips und so weiter.

y33H@
2022-03-11, 13:35:17
Ich persönlich würde bei EFB wie Ultra Fusion auf eine spezielle Variante von InFO-L tippen, habe mich zuletzt aber wenig damit beschäftigt bzw zu wenige Infos seitens AMD/Apple vorliegen.

Gratzner
2022-03-11, 13:48:42
Es ist eben nicht so dass es im internet keine echten M1 Max die shots gibt, wo man den GPU block deutlich anerkennen kann.
Nein, man erkennt nur die GPU-Kerne, welche einen Block bilden. Diese enthalten im wesentlichen die SIMD-Einheiten. Die Rasterizer, Geometrie-Einheiten und ähnliches sind vielleicht im Streifen zwischen den GPU-Kernen. Der Ganze Rest fehlt aber.

Es sind also Teile des GPU-Blockes bisher nicht auf den Die lokalisiert.

gab es schon seit damals die endlosen Maerchen dass die GPU angeblich die Haelfte des die estates wenn nicht noch mehr einnehmen soll.

Es ist nur ein Märchen, wenn man denkt eine GPU bestehe nur aus SIMD-Einheiten.

Im Spoiler mal eine Die-Shot Analyse von Navi14 von Locuza. Die GPU besteht nichtmal zur Hälfte aus WGP (welche die SMD-Einheiten enthalten). Der ganze riesige Rest, welcher zu einer GPU gehört, ist eben auf dem Apple-Die-Shot nicht lokalisiert.

Source: https://www.youtube.com/watch?v=SQjwKH3D5Hw&t=391s
https://i.ibb.co/WHNZFb2/123456789.png


Wenn Du schon nur die GPU-Kerne von Apple als Vergleich heranziehen willst, dann sollte man auch nur die WGP von AMD, Xe-Cores von Intel oder Cuda-Cores von Nvidia heranziehen und nicht deren gesamte GPU. Und der Navi14-Die-Shot im Spoiler zeigt, dass dann plötzlich auf Seiten der anderen Hersteller die GPUs weniger als halb so groß sind.

Es bleibt also dabei, das Apple in Perf/mm^2 ggü. den anderen Hersteller stark zurück hängt oder die Effizienz der GPU mit extrem großen Chipflächenverbrauch erkauft (und 2 Fullnodes Vorsprung) statt hier architektonisch ein (großen) Vorteil zu haben

Ailuros
2022-03-11, 14:05:59
Nein, man erkennt nur die GPU-Kerne, welche einen Block bilden. Diese enthalten im wesentlichen die SIMD-Einheiten. Die Rasterizer, Geometrie-Einheiten und ähnliches sind vielleicht im Streifen zwischen den GPU-Kernen. Der Ganze riesige Rest fehlt aber.

Es sind also große Teile des GPU-Blockes bisher nicht auf den Die lokalisiert.


Es ist nur ein Märchen, wenn man denkt eine GPU bestehe nur aus SIMD-Einheiten.

Im Spoiler mal eine Die-Shot Analyse von Navi14 von Locuza. Die GPU besteht nichtmal zur Hälfte aus WGP (welche die SMD-Einheiten enthalten). Der ganze riesige Rest, welcher zu einer GPU gehört, ist eben auf dem Apple-Die-Shot nicht lokalisiert.

Wenn Du schon nur die GPU-Kerne von Apple als Vergleich heranziehen willst, dann sollte man auch nur die WGP von AMD, Xe-Cores von Intel oder Cuda-Cores von Nvidia heranziehen und nicht deren gesamte GPU. Und der Navi14-Die-Shot im Spoiler zeigt, dass dann plötzlich auf Seiten der anderen Hersteller die GPUs weniger als halb so groß sind.


Gut dann streng Dich mal an und zeig mir was an dem GPU block hier genau noch fehlt:

https://images.anandtech.com/doci/17019/M1MAX.jpg

https://www.anandtech.com/show/17019/apple-announced-m1-pro-m1-max-giant-new-socs-with-allout-performance

Ich auf jeden Fall sehe KEINE 533mm2 (bzw. 267mm2/core) oder groesser fuer die GPU oder ich verpasse etwas wesentliches.


Es bleibt also dabei, das Apple in Perf/mm^2 ggü. den anderen Hersteller stark zurück hängt oder die Effizienz der GPU mit extrem großen Chipflächenverbrauch erkauft (und 2 Fullnodes Vorsprung) statt hier technologisch ein Vorteil zu haben

Apple war nie geizig wenn es zu area kommt, eher das brutale Gegenteil. Der technologische Vorteil bei dem Monster hier ist dass es der erste chiplet basierende SoC ist.

Gratzner
2022-03-11, 14:30:51
Ich auf jeden Fall sehe KEINE 533mm2 (bzw. 267mm2/core) oder groesser fuer die GPU oder ich verpasse etwas wesentliches.

Ja, du verpasst viele wesentliche Sachen: mehr als 1/3 des Dies ist gar nicht zugeordnet bzw. noch gar nicht der CPU oder GPU zugeordnet. Außerdem dient dieses Bild von Anandtech nur der groben Veranschaulichung. Anandtech hielt es beim M1max nichtmal notwendig, die NPU zu markieren, während sie beim M1Pro noch markiert ist.

Entweder man vergleicht die reinen GPU-Kerne (wie du es bei Apple gemacht hast) mit den reinen GPU-Kernen der anderen Herstellern (bei anderen Herstellern hast Du stets deren gesamtes Die genommen) oder ganze GPUs mit ganze GPUs. Bei letzterem nimmt die Apple-GPU mehr als 2/3 der gesamten Die-Size ein. Bei dieser Betrachtung zähle ich bspw. die Speicherinterfaces und SLC zu einem großen Teil als der GPU dienend, da sie auch die meiste Speicherbandbreite braucht. Du zählst ja bei AMD und NVidias-GPUs deren großen Speicherinterfaces ebenfalls zur GPU und nicht als extra Einheiten, welcher nix mit der GPU zu tun haben

smalM
2022-03-11, 16:19:39
Anscheinend sind es ~10'000 Verbindungen. Bei 2.5 TByte/s entspricht das 2.0 GT/s pro Pin. Das ist relativ langsam.
Bei 4 Verbindungen pro Datenleitung sind das 8 GT/s. Das ist ziemlich schnell.

Fakt ist der Ultra hat sowas wie 2 CCX (wobei eigentlich wohl eher 4 (2x Performance + Efficiency) und 2 getrennte GPU Slices.

Es sind 4 P-Cluster mit je gesharetem 12MB L2 und 2 E-Cluster mit je gesharetem 4MB L2.
Die GPU besteht aus 4 Teilen, denn bereits eine M1 Max GPU besteht aus 2 gekoppelten M1 Pro GPUs.

AMD hat aber den recht großen und breit angebundenen IF$...was vergleichbares gibt es beim M1 Max?
Ob der kleine SLC dafür reicht?
96MB SLC.
Und zur Erinnerung, TBDR braucht deutlich weniger Bandbreite und das meiste wird eh über den sehr großen Registersatz abgefackelt.

Ich persönlich würde bei EFB wie Ultra Fusion auf eine spezielle Variante von InFO-L tippen, habe mich zuletzt aber wenig damit beschäftigt bzw zu wenige Infos seitens AMD/Apple vorliegen.
InFO-LSI und eine von/für Apple angepaßte Variante von LIPINCON wäre meine Vermutung, 8 bi-unidirektionale Verbindungen.

Ailuros
2022-03-11, 22:02:49
Ja, du verpasst viele wesentliche Sachen: mehr als 1/3 des Dies ist gar nicht zugeordnet bzw. noch gar nicht der CPU oder GPU zugeordnet. Außerdem dient dieses Bild von Anandtech nur der groben Veranschaulichung. Anandtech hielt es beim M1max nichtmal notwendig, die NPU zu markieren, während sie beim M1Pro noch markiert ist.

Entweder man vergleicht die reinen GPU-Kerne (wie du es bei Apple gemacht hast) mit den reinen GPU-Kernen der anderen Herstellern (bei anderen Herstellern hast Du stets deren gesamtes Die genommen) oder ganze GPUs mit ganze GPUs. Bei letzterem nimmt die Apple-GPU mehr als 2/3 der gesamten Die-Size ein. Bei dieser Betrachtung zähle ich bspw. die Speicherinterfaces und SLC zu einem großen Teil als der GPU dienend, da sie auch die meiste Speicherbandbreite braucht. Du zählst ja bei AMD und NVidias-GPUs deren großen Speicherinterfaces ebenfalls zur GPU und nicht als extra Einheiten, welcher nix mit der GPU zu tun haben

So lange Bloecke nicht exclusiv von der GPU benutzt werden, sind sie auch kein Anteil der GPU.Andrei der damals bei Anandtech den Artikel geschrieben hat ist ein erfahrener Entwickler und arbeitete u.a. eine Zeit lang bei Imagination Technologies.

Und nur mal so nebenbei jeder kleine Block den man im die shot im GPU block sehen kann, besteht aus 16 SPs, 2 TMUs und 1 ROP, eben weil dummerweise bei mobilen ULP SoC GPU designs so manches einfach an die ALUs gekoppelt sind. Es sind eben keine desktop GPUs und sind ganz andere Tiere.

Von mir aus kann jeder glauben oder sehen was er will, unheimlich gross ist der GPU block schon auf dem M1 Max bzw. *2 fuer den Ultra SoC, aber 2/3 eben nicht. Und komm mir bloss nicht mit irgendwelchem rasterizer an oder sonst welcher mickrigen Einheit an, das gesamte Tier ist nicht ueber unendliche Dreicke/Takt faehig und nimmt um die 5% der gesamten GPU die area ein und liegt natuerlich innerhalb dem GPU Quadrat der von den SLC caches umkreist wird.

davidzo
2022-03-11, 22:52:14
Es bleibt also dabei, das Apple in Perf/mm^2 ggü. den anderen Hersteller stark zurück hängt oder die Effizienz der GPU mit extrem großen Chipflächenverbrauch erkauft (und 2 Fullnodes Vorsprung) statt hier technologisch ein Vorteil zu haben

Und 2 fullnodes sind etwa kein technologischer Vorsprung? Oder 250% power / Watt gegenüber einer 3090 ist etwa kein technologischer Vorsprung?
Btw, es ist eh nur 1 fullnode gegenüber AMD bzw. 1.5 nodes gegenüber Nvidia.

bereits eine M1 Max GPU besteht aus 2 gekoppelten M1 Pro GPUs.

Ist das so? Das ist interessant, weil die M1Max GPU skaliert nahezu 100% gegenüber M1pro. Das hieße dann dass man auch beim M1Ultra eine ziemlich gute Skalierung erwarten kann.

Gratzner
2022-03-12, 01:32:29
So lange Bloecke nicht exclusiv von der GPU benutzt werden, sind sie auch kein Anteil der GPU.
Es geht ja nicht darum, die verschiedene Bestandteile exklusiv als ein Bestandteil der GPU-Aufzuführen, sondern deren Flächenverbrauch einfach als GPU-Teil zu gewichten (für einen Flächenverbrauchsvergleich), weil sie von dieser extensiv genutzt wird. Es macht einfach kein Sinn eine volle Nvidia/AMD/Intel GPU mit Speicherinterface, etc, gegen ein paar GPU-Kerne zu vergleichen (was Du aber genau tust).

So lange Bloecke nicht exclusiv von der GPU benutzt werden, sind sie auch kein Anteil der GPU.Andrei der damals bei Anandtech den Artikel geschrieben hat ist ein erfahrener Entwickler und arbeitete u.a. eine Zeit lang bei Imagination Technologies.

Wenn Du hart nach dieser Definition die Vergleiche Anstellen willst, stellt sich die Frage, warum dann eine volle Nvidia-GPU mit der Apple-GPU-Verglichen wird: Nvidias Speicherinterface wird genauso von der Media-Enginge verwendet, welche Du explizit nicht als Teil der GPU wissen willst. Die Shadereinheiten so einer GPU werden genauso für software oder hybrides De-/Encoding verwendet... usw., usf.

ryan
2022-03-12, 01:35:59
Gut dann streng Dich mal an und zeig mir was an dem GPU block hier genau noch fehlt:

https://images.anandtech.com/doci/17019/M1MAX.jpg

https://www.anandtech.com/show/17019/apple-announced-m1-pro-m1-max-giant-new-socs-with-allout-performance



Kommt immer drauf an, was Du genau vergleichen willst.

Eine dedizierte GPU besteht nicht nur aus Recheneinheiten. In dem eingekreisten GPU Core Block fehlen auf jeden Fall u.a. die Media Einheit, Speicherchannel, Cache, Display ext: https://twitter.com/marcan42/status/1461390053389729794/photo/1

Bei einer dedizierten GPU ist das unweigerlich alles mit dabei, hier von RDNA2: https://twitter.com/GPUsAreMagic/status/1463893815991975936

Wenn man jetzt von einer dedizierten GPU die gesamte Die size nimmt und vom Apple M1 nur den GPU Core Block, ist das sicher kein sinnvoller Vergleich.

davidzo
2022-03-12, 02:05:44
Kommt immer drauf an, was Du genau vergleichen willst.

Eine dedizierte GPU besteht nicht nur aus Recheneinheiten. In dem eingekreisten GPU Core Block fehlen auf jeden Fall u.a. die Media Einheit, Speicherchannel, Cache, Display ext: https://twitter.com/marcan42/status/1461390053389729794/photo/1

Bei einer dedizierten GPU ist das unweigerlich alles mit dabei, hier von RDNA2: https://twitter.com/GPUsAreMagic/status/1463893815991975936

Wenn man jetzt von einer dedizierten GPU die gesamte Die size nimmt und vom Apple M1 nur den GPU Core Block, ist das sicher kein sinnvoller Vergleich.

Es ist aber auch kein sinnvoller vergleich wenn du die media codecs voll dazu zählst die immerhin 2x decode und 4x encode plus 4x proresRAW jeweils in 8K verarbeiten können ein popeliger GPU Mediablock kann nur einen stream decode und einen encode und nichts in die richtung von raw codecs.
Es ist auch kein sinnvoller vergleich das SI vollständig dazu zu zählen, schließlich ist das LPDDR und 1024bit. Als reine GPU hätte man das mit gddr6 auch billiger haben können, aber für die CPU, die mögliche Ramgröße und die powerklasse macht es eben schon sinn LPDDR zu nehmen.

Ailuros
2022-03-12, 05:13:17
Es geht ja nicht darum, die verschiedene Bestandteile exklusiv als ein Bestandteil der GPU-Aufzuführen, sondern deren Flächenverbrauch einfach als GPU-Teil zu gewichten (für einen Flächenverbrauchsvergleich), weil sie von dieser extensiv genutzt wird. Es macht einfach kein Sinn eine volle Nvidia/AMD/Intel GPU mit Speicherinterface, etc, gegen ein paar GPU-Kerne zu vergleichen (was Du aber genau tust).

Ich hab es nirgends gegen irgendwelche andere GPU oder sogar einen SoC verglichen, es war Troyan der den Vergleich zum GA100 erwaehnte. Und ja natuerlich geht es darum was ein GPU block exclusiv benutzt oder nicht. Es ist ein SoC sprich System on chip und ergo um eines mehr als nur eine Grafikeinheit. Einen block mitzuzaehlen der mehrere Recheneinheiten als nur die GPU bedient ist absurd, sonst wie gesagt sollte man auch den relativ mickrigen CPU block auch gleich mitzaehlen.

Bis vor ein paar Deiner Posts waren in die shots angeblich "nur" ALUs eingekreist. Dass TMUs u.a. an die ALUs in dem Fall festgekoppelt sind (wobei TMUs ziemlich viel Platz einnehmen u.a.); in dem Fall eines solchen SoCs erwaehnte jegliches marketing auch mit Grund N Anzahl von "cores".

Wenn Du hart nach dieser Definition die Vergleiche Anstellen willst, stellt sich die Frage, warum dann eine volle Nvidia-GPU mit der Apple-GPU-Verglichen wird: Nvidias Speicherinterface wird genauso von der Media-Enginge verwendet, welche Du explizit nicht als Teil der GPU wissen willst. Die Shadereinheiten so einer GPU werden genauso für software oder hybrides De-/Encoding verwendet... usw., usf.

Dann zaehl dann auch gefaelligst bei der naechsten NV oder egal welchen GPU neben dem chip den dedizierten Speicher als Flaeche zum GPU chip mit, egal ob sich in einem normalen SoC alle Einheiten den gleichen Speicher teilen muessen. :freak:

Dazu noch Andrei im M1 Max writeup:

https://www.anandtech.com/show/17024/apple-m1-max-performance-review/2

Unfortunately, the news here isn’t the best case-scenario that we hoped for, as the M1 Max isn’t able to fully saturate the SoC bandwidth from just the CPU side;

That begs the question, why does the M1 Max have such massive bandwidth? The GPU naturally comes to mind, however in my testing, I’ve had extreme trouble to find workloads that would stress the GPU sufficiently to take advantage of the available bandwidth. Granted, this is also an issue of lacking workloads, but for actual 3D rendering and benchmarks, I haven’t seen the GPU use more than 90GB/s (measured via system performance counters). While I’m sure there’s some productivity workload out there where the GPU is able to stretch its legs, we haven’t been able to identify them yet.

That leaves everything else which is on the SoC, media engine, NPU, and just workloads that would simply stress all parts of the chip at the same time. The new media engine on the M1 Pro and Max are now able to decode and encode ProRes RAW formats, the above clip is a 5K 12bit sample with a bitrate of 1.59Gbps, and the M1 Max is not only able to play it back in real-time, it’s able to do it at multiple times the speed, with seamless immediate seeking. Doing the same thing on my 5900X machine results in single-digit frames. The SoC DRAM bandwidth while seeking around was at around 40-50GB/s – I imagine that workloads that stress CPU, GPU, media engines all at the same time would be able to take advantage of the full system memory bandwidth, and allow the M1 Max to stretch its legs and differentiate itself more from the M1 Pro and other systems.



Am Ende des Tages hat Apple tatsaechlich den Herstellungsvorsprung ausgenutzt (was aber auch nichts Neues ist schon seit der Geburt von Axx SoCs) und das was sie real liefern koennen (wenn man kunterbuntes Marketing weglaesst) erreichen sie nicht mit irgendwelchen illigetimen Methoden.

Wenn Du wirklich einen Vergleich zu einer modernen dGPU haben willst, fress ich einen Besen wenn die M1 Ultra GPU universal einer (desktop) 3090 und auch 3080 in 3D Spielen bzw. einer grossen Mehrzahl an Applikationen das Wasser reichen kann (ebenso fuer high end Radeon SKUs). Das "absurde" hier ist dass Apple ihr Tier nur fuer ihren eigenen Laden, bzw eigene sw auf die sie sich konzentrieren zugeschnitten hat und dafuer brauchen sie auch keine aufwendige Spiele bzw. Treiber-Anpassungen in der Richtung. Was der M1 Max momentan leistet kann man sehr gut im oben verlinkten Artikel sehen; M1 Ultra ist dann wohl im besten Fall doppelt so hoch.

Kommt immer drauf an, was Du genau vergleichen willst.

Eine dedizierte GPU besteht nicht nur aus Recheneinheiten. In dem eingekreisten GPU Core Block fehlen auf jeden Fall u.a. die Media Einheit, Speicherchannel, Cache, Display ext: https://twitter.com/marcan42/status/1461390053389729794/photo/1

Bei einer dedizierten GPU ist das unweigerlich alles mit dabei, hier von RDNA2: https://twitter.com/GPUsAreMagic/status/1463893815991975936

Wenn man jetzt von einer dedizierten GPU die gesamte Die size nimmt und vom Apple M1 nur den GPU Core Block, ist das sicher kein sinnvoller Vergleich.

Nochmal auch fuer Dich ich hab nirgends einen SoC block gegen eine dedizierte GPU verglichen. Unter normalen Umstaenden vergleicht man SoCs gegen SoCs; ein SoC wie der M1 (egal welcher) kann von sich aus komplett ein System bedienen, eine dGPU eben nicht.

y33H@
2022-03-12, 08:19:08
Die GPU besteht aus 4 Teilen, denn bereits eine M1 Max GPU besteht aus 2 gekoppelten M1 Pro GPUs.


Gespiegeltes Design wie Schmetterlingsflügel, aber keine zwei Pro aneinander.

smalM
2022-03-12, 11:50:20
Da hast Du natürlich recht, ein Schmetterling mit einem Kopf, zwei Leibern und vier Flügeln :biggrin:

y33H@
2022-03-12, 14:48:55
LOL ^^

Gratzner
2022-03-12, 16:50:40
Ich hab es nirgends gegen irgendwelche andere GPU oder sogar einen SoC verglichen, es war Troyan der den Vergleich zum GA100 erwaehnte.
Er hat auch die 3070 erwähnt. Warum lässt Du ihn nicht einfach das erwähnen?


Es ist ein SoC sprich System on chip und ergo um eines mehr als nur eine Grafikeinheit. Einen block mitzuzaehlen der mehrere Recheneinheiten als nur die GPU bedient ist absurd, sonst wie gesagt sollte man auch den relativ mickrigen CPU block auch gleich mitzaehlen.

Ich habe nirgends geschrieben, dass man diese Blöcke zu GPU dazugehörig zählen soll, sondern deren Flächenverbrauch für einen Flächenverbrauchsvergleich dazu gewichten sollte (Vollständig oder nicht vollständig). Sonst müsste man bei einer GPU die ganzen ALUs rausrechnen, werden bei hybriden De-/Encoding zusammen mit der Media-Engine verwendet, welche Du explizit nicht als Teil der GPU wissen willst.


Bis vor ein paar Deiner Posts waren in die shots angeblich "nur" ALUs eingekreist

Habe ich nirgends behauptet


Dann zaehl dann auch gefaelligst bei der naechsten NV oder egal welchen GPU neben dem chip den dedizierten Speicher als Flaeche zum GPU chip mit, egal ob sich in einem normalen SoC alle Einheiten den gleichen Speicher teilen muessen.

Nö, DRAM zählt nicht zur Fläche mit, da DRAM Fertigung und SoC-Fertigung sich stark unterscheiden. Man zählt sehr wohl (zur groben Einordnung und je nach Usecase) den Speicher gewichtet den einzelnen Bestandteilen dazu. Bspw. bei XBox und PS5 SoC spricht man (zur groben Einordnung) 10GB der iGPU und 6GB der CPU zu


Nochmal auch fuer Dich ich hab nirgends einen SoC block gegen eine dedizierte GPU verglichen.

Nochmal auch fuer Dich, lass doch andere ein SoC Block gegen ein dedizierte GPU (grob) vergleichen.

Ailuros
2022-03-12, 17:36:18
Er hat auch die 3070 erwähnt. Warum lässt Du ihn nicht einfach das erwähnen?

Er hat es erwaehnt uind ich hab niemand seine Meinung verweigert.


Ich habe nirgends geschrieben, dass man diese Blöcke zu GPU dazugehörig zählen soll, sondern deren Flächenverbrauch für einen Flächenverbrauchsvergleich dazu gewichten sollte (Vollständig oder nicht vollständig). Sonst müsste man bei einer GPU die ganzen ALUs rausrechnen, werden bei hybriden De-/Encoding zusammen mit der Media-Engine verwendet, welche Du explizit nicht als Teil der GPU wissen willst.

Man kann den Speicher eben nicht mitzaehlen und auch nicht die caches. Die encoding/decoding Bloecke sind so klein auf einem solchen SoC dass es fast nicht der Rede wert ist, aber es geht hier ums Prinzip. Und das Prinzip steht dafuer dass es dedizierte hw ist um CPU/GPU zu entlasten und man verbraucht um zich mal weniger Strom bei N mehr streams (wurde auch schon erwaehnt) fuer etwas mehr hw. Zu 28nm Zeiten war ein decoder Block gerade noch etwas ueber 1mm2 . Heutzutage werden hoehere Aufloesungen und um zich mal mehr Formate und mehr streams parallel unterstuetzt aber brutal groesser sind die Dinger trotz allem nicht geworden.

Habe ich nirgends behauptet

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12946695&postcount=5526

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12947578&postcount=5555

Nein, man erkennt nur die GPU-Kerne, welche einen Block bilden. Diese enthalten im wesentlichen die SIMD-Einheiten. Die Rasterizer, Geometrie-Einheiten und ähnliches sind vielleicht im Streifen zwischen den GPU-Kernen. Der Ganze Rest fehlt aber.

Es sind also Teile des GPU-Blockes bisher nicht auf den Die lokalisiert.

Was soll denn der ganze Rest genau sein? TMUs als Beispiel nehmen relativ viel Platz ein und diese fest in der pipeline gekoppelt sind koennen sie auch nur im eigentlichen GPU "core" hocken und nicht in irgend einer merkwuerdigen Ecke zwischen den cores, am Rand oder sonst wo. Ebenso RBE/ROPs. Pro 16 (dual issue) SIMDs sind es 2 TMUs, 1 RBE/ROP.


Nö, DRAM zählt nicht zur Fläche mit, da DRAM Fertigung und SoC-Fertigung sich stark unterscheiden. Man zählt sehr wohl (zur groben Einordnung und je nach Usecase) den Speicher gewichtet den einzelnen Bestandteilen dazu. Bspw. bei XBox und PS5 SoC spricht man (zur groben Einordnung) 10GB der iGPU und 6GB der CPU zu.

Flaechenmaessig macht es keinen Sinn es mitzuzaehlen weil alle Bloecke Zugang zum Speicher habebn und eben nicht nur CPU/GPU. Im Fall von allem Apple gibt es zugegeben eine kleine zugesprochene Speichermenge fuer die GPU fuer parameter storage, aber es aendert nichts am vorigen.


Nochmal auch fuer Dich, lass doch andere ein SoC Block gegen ein dedizierte GPU (grob) vergleichen.

Sehr schoen dann Apples zu Apples (pun intended) koennen wir gerne mit einem aus 2019 Intel basierenden Mac Pro vergleichen mit einem damaligen MSRP von $5999 mit einem 8 core Xeon, 32GB ram, Radeon Pro W5500 8GB RAM und 512GB SSD (ebenso ueberteuert und von geringem Kaufswert).

Ailuros
2022-03-12, 17:40:00
Entweder stimmt irgend etwas nicht (und der Treiber erkennt nur die eine GPU, bei der Ultra sind es ~60fps onscreen und bei der Max 120fps onscreen?) oder es wird ziemlich blamierend fuer Apple:

https://gfxbench.com/result.jsp?benchmark=gfx50&test=757&order=median&text-filter=Apple&base=gpu

smalM
2022-03-12, 20:29:21
Wieso schaust Du bei onscreen? Da begrenzt der Monitor das Ergebnis.
offscreen ist übrigens seltsam genug...

GB5 Compute (https://browser.geekbench.com/v5/compute/search?utf8=✓&q=Apple+M1&sort=score)

y33H@
2022-03-12, 22:39:19
Sieht kaputt aus.

Troyan
2022-03-13, 10:11:11
Naja, Interconnect wird immer langsamer als L2 Cache sein. Jede Kommunikation über die Verbindung führt zu Latenzproblemen.

robbitop
2022-03-13, 10:36:56
Mit genug Threads in Flight und lokalem reuse ist Latenz für GPUs relativ unproblematisch verglichen mit CPUs. Zumindest in den Größenordnungen von dem was bei modernen Interconnectlösungen rauskommen sollte.
RDNA3 soll es ja in ein paar Monaten auch zeigen und auch NV arbeitet für die Lovelacenachfolge uArch dran.
IMO sind das durch moderne Packagingtechnologien bereits gelöste Probleme.

Gratzner
2022-03-13, 15:51:31
Man kann den Speicher eben nicht mitzaehlen und auch nicht die caches. Die encoding/decoding Bloecke sind so klein auf einem solchen SoC dass es fast nicht der Rede wert ist, aber es geht hier ums Prinzip. Und das Prinzip steht dafuer dass es dedizierte hw ist um CPU/GPU zu entlasten und man verbraucht um zich mal weniger Strom bei N mehr streams (wurde auch schon erwaehnt) fuer etwas mehr hw. Zu 28nm Zeiten war ein decoder Block gerade noch etwas ueber 1mm2 . Heutzutage werden hoehere Aufloesungen und um zich mal mehr Formate und mehr streams parallel unterstuetzt aber brutal groesser sind die Dinger trotz allem nicht geworden.

Ich wollte nie den Speicher bzw. das Speichersystem mitzählen zur GPU, sondern nur dessen Flächenverbrauch für einen theoretischen Flächenverbrauchsvergleich dazugewichten. Und nein, ein Speichercontroller ist keine dedizierte HW-Block, welcher eine GPU entlastet. Klar wird so ein Speichercontroller nicht nur für die GPU genutzt. Wenn ich alle Blöcke, welche (potentiell) auch für andere Sachen genutzt werden, rausrechne, dann muss ich bei Nvidia alle, neben dem Speichercotroller, auch alle GPCs usw. rausrechnen. Deren ALUs werden schließlich beim hybriden Videodecoding/-encoding verwendet. So bleiben dann bei der 3070 mit 392mm^2 in 8nm vielleicht 50mm^2 in 8nm übrig. Der M1Pro hat 432mm^2 in 5nm. Wenn ich jetzt den relativen Anteil von 1/3 nehme (wie von dir vorgeschlagen), dann ist Apple 144mm^2 in 5nm groß. Der relative Unterschied wird also noch größer (Und der Vergleich laut deiner Logik noch besser, ich sehe das eben nicht so).



https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12946695&postcount=5526

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12947578&postcount=5555

Ich schreibe dort nirgends, das die Cores nur aus Alus bestehen sollen.


Was soll denn der ganze Rest genau sein?

FIVR, L2-Cache, L2-Controller, irgendeine Art von Fabric zu CPU, Display-Controller, Display-Phys, ggf. SMU, ...



Flaechenmaessig macht es keinen Sinn es mitzuzaehlen weil alle Bloecke Zugang zum Speicher habebn und eben nicht nur CPU/GPU. Im Fall von allem Apple gibt es zugegeben eine kleine zugesprochene Speichermenge fuer die GPU fuer parameter storage, aber es aendert nichts am vorigen.
.
Ich wollte den Speicher nie dazuzählen, sondern dessen Flächenverbrauch dazugewichten.

pixelguy
2022-03-14, 15:39:02
Gerüchte rund um den Mac Pro bzw. den M1 Ultra Ultra :freak:

Nachdem Apple bereits zwei M1 Max zu einem M1 Ultra verbinden konnte, setzt der nächste Mac Pro demnach auf zwei kombinierte M1 Ultra – und somit auf 40 CPU-Kerne sowie bis zu 128 GPU-Kerne.


Da die Performance bislang sehr genau mit der Anzahl der Kerne skalierte und es auch in praxisnahen Benchmarks nur geringe "Reibungsverluste" gab, lässt sich die zu erwartende Performance bereits einschätzen. Mit 48.000 Punkten in Geekbench würde Apple den mit großem Abstand schnellsten Chip auf dem Markt anbieten. Der AMD Ryzen Threadripper 3990X mit 64 Kernen bringt es derzeit auf 25.200....

https://www.mactechnews.de/news/article/Mac-Pro-2022-Auf-dem-Weg-zum-M1-Ultra-Ultra-Leaker-will-grobe-Schemata-des-Chips-erlangt-haben-179709.html

Savay
2022-03-14, 18:11:49
Giga und Mega sind auch noch frei... :tongue:

basix
2022-03-14, 18:16:20
M1 "Extreme" soll es laut Gerüchten nicht geben, da M2 bald kommen soll (Marketing-Message usw.). M2 Extreme dann schon eher.

Giga und Mega sind auch noch frei... :tongue:
Nö. Frei nach UT2k4 zitiert: Double, Multi, Mega, Ultra, Monster, Ludicrous, Holy Shit. Diese Einteilung ist von der IEEE für Multi-Chip Designs zum Standard erklärt worden. Mega wäre eine Stufe unter Ultra und Giga ist nicht zulässig. M1 wäre normal; M1 Pro wäre M1 Double; M1 Max wäre M1 Multi/Mega. Apple hat sich leider nicht vollständig an dieses Namensschema gehalten.

M1 Monster wäre eigentlich ganz schick :D

y33H@
2022-03-15, 15:18:37
M1 ub0r =)

robbitop
2022-03-15, 16:40:43
Es wirkt ein wenig als würde es langsamer werden. M1 inkl Ultra hat noch die A14 Cores aus 2020. M2 soll in 2022 die A15 CPU Cores bekommen (die praktisch keine Weiterentwicklung hatten. A16 wird dieses Jahr vorgestellt aber wohl nur im iPhone Pro genutzt werden. Also werden wir 2022 in vielen Produkten noch CPU Cores mit der Performance aus dem Jahr 2020 sehen.

fizzo
2022-03-15, 18:37:21
Es wirkt ein wenig als würde es langsamer werden. M1 inkl Ultra hat noch die A14 Cores aus 2020. M2 soll in 2022 die A15 CPU Cores bekommen (die praktisch keine Weiterentwicklung hatten. A16 wird dieses Jahr vorgestellt aber wohl nur im iPhone Pro genutzt werden. Also werden wir 2022 in vielen Produkten noch CPU Cores mit der Performance aus dem Jahr 2020 sehen.

https://www.anandtech.com/show/16983/the-apple-a15-soc-performance-review-faster-more-efficient/2

Imho wird der A15 unterschätzt. Speziell die Effizienz hat sich signifikant verbessert. Anandtech hat das schön analysiert. Der M2 wird ein guter Schritt vorwärts. Gerüchte zufolge wird auch das Setup der Kerne aufgebohrt. Wir werden sehen.

Windi
2022-03-15, 18:52:38
Die A15 CPU Cores sind zwar nicht großartig schneller geworden, sollen aber bei Dingen wie Virtualisierung deutlich besser geworden sein. Also genau das, was bei Workstations und Servern interessant wäre. Da macht es dann Sinn, das Apple für den Mac Pro auf den M2 wartet.

Und das der A16 nur im neuen iPhone Pro genutzt werden soll, liegt wahrscheinlich daran, das TSMC noch Probleme mit dem neusten Fertigungsprozess hat. Apple kann halt auch nicht zaubern und muss sich der Realität beugen.
Das kann nächstes Jahr aber schon wieder anders aussehen.

robbitop
2022-03-15, 18:52:43
Oh das ist mir entfallen. Sehr interessant! Danke für den Hinweis. :up:

y33H@
2022-03-17, 14:52:54
Ich teaser mal ^^

https://scr3.golem.de/screenshots/2203/Apple-M1-Ultra-Benches-GPU/thumb620/01-3dmark-wild-life-extreme-unlimited-(4k-graphics-score,-metalvulkan)-chart.png

https://scr3.golem.de/screenshots/2203/Apple-M1-Ultra-Benches-CPU/thumb620/07-cinebench-r23-(sustained-10-min)-chart.png

Loeschzwerg
2022-03-17, 15:26:50
Das ist schon eine ziemlich ordentliche Skalierung im 3DMark. Kaum Reibungsverluste durch "Dual DIE".

y33H@
2022-03-17, 15:29:03
Adobe, Blender, GFXBench sieht's nicht so gut aus.

smalM
2022-03-18, 09:55:37
@y33H
Das ist zwar so, aber es scheint grundsätzlich zu funktionieren und damit sind die nicht-funktionierenden Fälle "nur" ein Treiber-/Softwareproblem.

Witzig, daß gerade 3DMark, deren Erzeugnisse jahrelang miserabel auf Apple-Kram liefen, den M1 Ultra recht gut im Griff zu haben scheint. Das spricht für eine saubere Metal-Umsetzung von Wild Life.

fondness
2022-03-18, 11:09:49
Das ist schon eine ziemlich ordentliche Skalierung im 3DMark. Kaum Reibungsverluste durch "Dual DIE".

3d Mark hat auch mit sli/crossfire nie Probleme gemacht. Auf so statische Szenen kann man sehr gut optimieren. In der Praxis sieht das dann meist anders aus.

robbitop
2022-03-18, 11:47:49
https://youtu.be/irjc1nJ1eJs?t=881 (Test von "The Verge")

4K Tomb Raider:
M1 Max 33 fps
M1 Ultra 60 fps

Das Ding funktioniert anscheinend wirklich wie eine GPU. Die Leistung im GPU Limit wird verdoppelt.

Zu dumm, dass man gerade vom 3090 PC keine 4K Benchmarks gemacht hat.
In 1440p ist der PC vorn. Aber das kann auch CPU Limit (aber das kann auch am Mac Port liegen und wer weiß ob da nicht doch x86 Emulation im Spiel ist). In 4K wäre es interessant geworden. Ich vermute, dass da nicht so viel gefehlt hätte. Und das Ding nimmt erheblich weniger Leistung auf.

Nur mal zum approximieren:
3090 im CB Test in Shadow of the tomb raider:
1440p: 123 fps
2160p: 73 fps

Man verliert also ~40%. Dann würde man beim obigen Benchmark bei 67 fps landen. So viel schneller ist die 3090 nicht in dem Spiel. Und hier vergleichen wir einen tot optimierten Grafiktreiber für das Spiel vs einem Mac Port mit nicht game spezifisch optimierten Treibern.

Das Video zeigt den Workflow von deren Creators (Bildbearbeitung, Video editing und Musik/Ton Bearbeitung). Und da fegt M1 Ultra wohl alles bisher da gewesene weg. Sicher auch durch viel Nutzung von spezifisch vorhandener HW.

y33H@
2022-03-18, 13:43:09
Eine RTX 3090 macht bei "4K Highest" immerhin95 fps, gerade laufen lassen.

btw hier mein Test des M1 Ultra:

https://www.golem.de/news/m1-ultra-im-test-die-kroenung-des-apple-silicon-2203-163884.html

dildo4u
2022-03-18, 13:47:51
Wundert mich das es nicht mal ein Navites AAA Game gibt was man benchen kann Tomb Raider ist doch Emuliert oder?

Daredevil
2022-03-18, 14:02:36
Es ist einfach unheimlich traurig, das es so wenig/keine Spiele für den Mac gibt, da die Hardware so riesen Schritte nach vorne macht.
Ich habe ja nen M1 Max im Notebook und für den Videoschnitt ist das auch alles fein, aber das es kaum ein Spiel gibt, was man echt ausreizen kann, nervt extrem.

Wenn es das Studio mit HDMI 2.1 geben würde und einer ordentlichen Steam Bibliothek bzw. AAA Games, würde ich schlicht den PC mit 3090 nicht mehr brauchen. Was ein MacPro an der Stelle dann leistet, nehmen wir einfach nochmal eine x2 Verbesserung an, ist ja absurd.

Ich gehe immer noch stark davon aus, das auch Apple bald mehr herausfordernde Games auf Arcade rausbringen wird, aber das ist wohl noch ein langer Zeitraum und die passenden Devices müssen dafür da sein. Mehr GPU Power für "Basic" Macs z.B.

y33H@
2022-03-18, 14:12:58
Wundert mich das es nicht mal ein Navites AAA Game gibt was man benchen kann Tomb Raider ist doch Emuliert oder?Ja, Rosetta - man kann WoW nehmen, der Download läuft aber noch ^^

Daredevil
2022-03-18, 14:13:53
Diablo würde auch gehen, vielleicht kann man da was machen in 4k oder mehr? :)

y33H@
2022-03-18, 14:26:17
Diablo 1?

Daredevil
2022-03-18, 14:36:24
Schon Diablo 3 im Battle.net Launcher. Da habe ich mal ein paar Tests gemacht mit dem M1 im Pro.
Das ist zumindest eines der wenigen Spiele, die bei 4K vielleicht etwas Leistung fordern.
H9o2ebOat3w

Gerne auch mal OBS in Augenschein nehmen, welche Qualität bei x264 einschaltbar ist. :D

y33H@
2022-03-18, 14:47:22
Ist das echt ARM64 und Metal? ich sammle gerade, ist teils schwer da gescheite Infos zu finden ohne es wirklich zu installieren ...

Sunrise
2022-03-18, 14:48:42
...Wenn es das Studio mit HDMI 2.1 geben würde und einer ordentlichen Steam Bibliothek bzw. AAA Games, würde ich schlicht den PC mit 3090 nicht mehr brauchen. Was ein MacPro an der Stelle dann leistet, nehmen wir einfach nochmal eine x2 Verbesserung an, ist ja absurd.
Soviel Leistung ist tatsächlich nicht schlecht in dem Formfaktor, aber der Preis hat sich halt auch gewaschen.

Das Studio mit dem MAX wäre preislich noch OK, aber damit ist die Leistung eben auch wieder deutlich schlechter relativ zum das ULTRA (abartig teuer...).

smalM
2022-03-18, 15:58:49
Es ist einfach unheimlich traurig, das es so wenig/keine Spiele für den Mac gibt, da die Hardware so riesen Schritte nach vorne macht.
Das ist ein Henne-Ei-Problem. Jahrelang hat Apple unterirdischen GPU-Leistung verbaut, manchmal gab es sogar deutliche Rückschritte.
Wo sollte denn da Interesse am Spieleerwerb herkommen auf der einen Seite und wo sollte da Interesse am Spieleentwickeln herkommen auf der andern Seite?
Ja, die Mindestleistung eines Macs ist von 0,4 TFLOPS auf 2,3 TFLOPS gestiegen, aber entscheidend sind nicht neu verkaufte Macs, entscheidend ist die leistungsschwache installierte Basis.

Daredevil
2022-03-18, 16:04:50
Die Switch hat auch den "Switch" geschafft auf ARM und Spiele. ^^

@y33H@
Achso, ne. Das ist nicht M1 optimiert.
Hier findest du Anwendungen mit nativem Support bzw. kannst suchen, leider gibt es keine Spiele Sparte.
https://isapplesiliconready.com/de/for/developer

Troyan
2022-03-18, 16:35:17
In SotTR ist das RTX3070 Leistungslevel. Nimmt man 3080TI Mobile, erreicht nVidia das selbe Leistungslevel bei ca. 150W.

Platos
2022-03-18, 16:42:09
Das ist ein Henne-Ei-Problem. Jahrelang hat Apple unterirdischen GPU-Leistung verbaut, manchmal gab es sogar deutliche Rückschritte.
Wo sollte denn da Interesse am Spieleerwerb herkommen auf der einen Seite und wo sollte da Interesse am Spieleentwickeln herkommen auf der andern Seite?
Ja, die Mindestleistung eines Macs ist von 0,4 TFLOPS auf 2,3 TFLOPS gestiegen, aber entscheidend sind nicht neu verkaufte Macs, entscheidend ist die leistungsschwache installierte Basis.

Wohl eher: Warum sollte jemand sich nen Mac kaufen, um Spiele zu spielen? Der wäre ja schon ordentlich bescheuert. Und die wenigsten kaufen ne Workstation (und könnten sich dann den Gaming-PC spaaren). Zu Apple-Intel Zeiten gabs schliesslich in den kleinen Modellen nie ne brauchbare GPU und die hatten die meisten. Und der M1 ist jetzt auch nicht grad ne krasse Gamer-GPU... Und darüber sind wir wieder bei Laptops, die nur ein Bruchteil der Macuser besitzen.

Also wenn, dann taugt ein Apple Produkt immer nur als Zweitverwendung als Gaming-Plattform. Denn das P/L wird niemals gut sein, egal was Apple bringt. Zahlen tust du ja bekanntlich die Marke und nicht die Hardware. Und eine Zweitverwendung reicht nicht aus, um am Markt genug Leute anzusprechen. Die Masse kann sich so oder so kein Macbook leisten, auch nicht das günstigste und schon gar nicht kauft da jemand primär zum zocken (der nicht völlig bescheuert ist).

Daredevil
2022-03-18, 19:09:15
So ein M1 im iPad Air geht schon Richtung bezahlbar, wenn man sich als Alternative eine Switch anschaut. Aber gut, die Entwicklung bei der Switch stockt halt auch und die Preise bleiben oben.
Da verkauft die Software halt die Hardware, bei Apple müsste die Hardware die Software verkaufen, das war schon immer schwieriger.

Zossel
2022-03-19, 15:34:04
Der Interconnect ist 2,5TB/s schnell. Das reicht vollkommen aus. Entspricht ja auch glaube ich der Geschwindigkeit des L2 Caches von nVidia.

Gibt es Angaben zum Stromverbrauch des Interconnects?

2,5TB/s wäre ja vergleichbar zur Bandbreite des L3 von Zen3 (2TB/s).

Felixxz2
2022-03-19, 16:18:12
Baldur's Gate 3 läuft nativ auf M1.

Demogod
2022-03-20, 22:20:23
Wieviel Arbeit ist das wohl wenn eh alles schon Xcode Projekte sind??

fondness
2022-03-21, 10:45:08
In SotTR ist das RTX3070 Leistungslevel. Nimmt man 3080TI Mobile, erreicht nVidia das selbe Leistungslevel bei ca. 150W.

Und wir reden hier immer noch von 5nm bei Apple, also Minimum ein Full-Node vorne. Dazu ist wie du schon erwähnst der Betriebspunkt natürlich auch sehr relevant, Apple betriebt die Chips mit Sicherheit im Perf/Watt sweet spot.

robbitop
2022-03-21, 11:15:29
Dafür aber irgendein wackeliger Mac Port, keine Spieleoptimierten Treiber, keine Spieleoptimierte uArch. Man vergleicht da schon ein bisschen Äpfel mit Möhren.

Daredevil
2022-03-21, 11:26:08
Und wenn Rosetta nicht MC, sondern SC limitiert ist, wird der Score auch nicht signifikant höher, auch wenn man da 40 M1 Kerne in der Kiste hat.
Da würde dann erst der M2 zeigen, ob GPU Leistung auch mit CPU Leistung steigt, sofern dort die SC Leistung steigt.

Troyan
2022-03-21, 11:35:02
Dafür aber irgendein wackeliger Mac Port, keine Spieleoptimierten Treiber, keine Spieleoptimierte uArch. Man vergleicht da schon ein bisschen Äpfel mit Möhren.

Aber wenn Apple irgendwelche Encoder-Benchmarks nimmt, dann ist das okay?
Ist es die Schuld von AMD und nVidia, dass es keine relevanten Anwendungen für MacOS gibt?

Geekbench hat einen Metal-Pfad, ist daher wohl vergleichbar. Interessant ist, dass A100 mit 80GB und 19,5 TFLOPs 2,8x schneller ist als M1 Ultra.

Die Ironie ist, dass eigentlich nur die CPU- und Encoder/Decoder für Apple relevant sind und die trotzdem zuviel Fläche für eine richtig langsame GPU aufbringen, die für nichts genutzt werden kann.

robbitop
2022-03-21, 11:40:54
Ist halt kein spieleorientiertes System. Kann man vergleichen - bringt aber für den Zielmarkt nichts.
Wer spielt schon ernsthaft auf dem Mac?

Die GPU wird für alle möglichen Effekte für Video und Photo und Music Editing genutzt. Die Content Creators von the Verge haben es getestet und waren schwer beeindruckt in deren Workflow. Das ist ein bisschen mehr als De- und Encoding.

Gratzner
2022-03-21, 14:33:09
Apple hat ihre GPU mit einer diskreten Gaming-GPU von Nvidia verglichen (RTX 3090 oder auch der RTX 3060ti)[1]. Sie sind aufgrund von irgendwelchen nicht erläuterten Benchmarks zum Schluss gekommen, ihre GPU sei (vielfach) besser als die Spiele-GPUs von Nvidia[1]. Nun vergleichen einige Leute (auf einer wesentlich transparenteren Art und Weise) die Apple GPU mit den Nvidia-Spiele-GPUs in Spielen und kommen zu einem ganz anderen Schluss [2]. Weil das Ergebnis dann einem nicht mehr gefällt, ist es urplötzlich nicht mehr sinnvoll die GPUs in Spielen zu vergleichen.

Wenn der Spiele-Vergleich nicht sinnvoll ist: warum vergleicht den Apple ihre GPUs mit anderen Spiele-GPUs?

[Jetzt mal übertrieben dargestellt: Das ist so, als würde ich mein Schreibtisch mit dem M1-Vergleichen und zum Schluss kommen, mein Schreibtisch ist in nicht genannten Benchmarks dem M1 haushoch überlegen (Schaff ich, wenn ich nur Schreibtischkriterien nehme). Sobald dann aber Leute kommen und feststellen, der M1 ist in CPU-Sachen um Faktor unendlich meinen Schreibtisch überlegen, erwidere ich dann einfach (weil ich das nicht hören will): der Vergleich ist nicht sinnvoll, da M1 und der Schreibtisch verschiedene Sachen wollen.]

Wenn man der Meinung ist, der M1-Geräte sind nicht zum spielen da, ist das Ok. Aufgrund von Apples medialer Darstellung und weil Spielen einer der typischsten PC-Anwendungen sind, wird sich der Chip dennoch in Spiele-Vergleiche immer wieder messen dürfen und einige/viele werden den Chip dementsprechend auch nach der Spiele-Leistung bewerten.

[1]bspw. https://www.apple.com/de/newsroom/2022/03/apple-unveils-m1-ultra-the-worlds-most-powerful-chip-for-a-personal-computer/
[2]bspw. https://wccftech.com/apple-m1-ultra-64-core-gpu-gets-smoked-by-nvidia-geforce-rtx-3090-in-compute-gaming-benchmarks/

pixelguy
2022-03-21, 14:52:24
Sie vergleichen aber nie mit Spielen sondern mit Profi-Software.
Gegen welche Hardware/GPU sollen sie sich denn vergleichen?

Dass eine Nvidia GPU halt nur zum Zocken genutzt wird, ist doch nicht die Schuld von Apple.

Gratzner
2022-03-21, 15:15:59
Nvidia hat nicht nur gaming-GPUs sondern auch professionelle GPUs!?
Beispielsweise gegen eine Quadro-Karte oder einer A5000

Die Gaming-GPUs sind teilweise bei professionelle Software über den Treiber enorm eingeschränkt und sind mit wesentlich weniger Speicher bestückt.

Edit:
@robbitop
Ich stimme dir ja auch zu. Frage bleibt dennoch: Warum dann der Vergleich mit Spiele-GPUs, wie einer 3060ti? Gezielt irreführendes Cherry Picking?

Bezüglich Benchmarks: Bei Apple heißt es einfach nur in den Fussnoten: "Leistung gemessen unter Anwendung ausgewählter, branchenüblicher Standard-Benchmarks."

robbitop
2022-03-21, 15:16:59
Apple hat ihre GPU mit einer diskreten Gaming-GPU von Nvidia verglichen (RTX 3090 oder auch der RTX 3060ti)[1]. Sie sind aufgrund von irgendwelchen nicht erläuterten Benchmarks zum Schluss gekommen, ihre GPU sei (vielfach) besser als die Spiele-GPUs von Nvidia[1]. Nun vergleichen einige Leute (auf einer wesentlich transparenteren Art und Weise) die Apple GPU mit den Nvidia-Spiele-GPUs in Spielen und kommen zu einem ganz anderen Schluss [2]. Weil das Ergebnis dann einem nicht mehr gefällt, ist es urplötzlich nicht mehr sinnvoll die GPUs in Spielen zu vergleichen.

Wenn der Spiele-Vergleich nicht sinnvoll ist: warum vergleicht den Apple ihre GPUs mit anderen Spiele-GPUs?

[Jetzt mal übertrieben dargestellt: Das ist so, als würde ich mein Schreibtisch mit dem M1-Vergleichen und zum Schluss kommen, mein Schreibtisch ist in nicht genannten Benchmarks dem M1 haushoch überlegen (Schaff ich, wenn ich nur Schreibtischkriterien nehme). Sobald dann aber Leute kommen und feststellen, der M1 ist in CPU-Sachen um Faktor unendlich meinen Schreibtisch überlegen, erwidere ich dann einfach (weil ich das nicht hören will): der Vergleich ist nicht sinnvoll, da M1 und der Schreibtisch verschiedene Sachen wollen.]

Wenn man der Meinung ist, der M1-Geräte sind nicht zum spielen da, ist das Ok. Aufgrund von Apples medialer Darstellung und weil Spielen einer der typischsten PC-Anwendungen sind, wird sich der Chip dennoch in Spiele-Vergleiche immer wieder messen dürfen und einige/viele werden den Chip dementsprechend auch nach der Spiele-Leistung bewerten.

[1]bspw. https://www.apple.com/de/newsroom/2022/03/apple-unveils-m1-ultra-the-worlds-most-powerful-chip-for-a-personal-computer/
[2]bspw. https://wccftech.com/apple-m1-ultra-64-core-gpu-gets-smoked-by-nvidia-geforce-rtx-3090-in-compute-gaming-benchmarks/
Ich meine, dass die Vergleiche aber Produktivitätsbenchmarks waren. Wenn man sich ihre Zielclientel anschaut, machen Spielebenchmarks keinen Sinn. Kann man machen - aber ist für deren Clientel so relevant wie ein Sack Reis in China. ;)
Sind halt wir Forennerds, die das interessiert - aber das is 0,00001% deren Marktes. :D

Nvidia hat nicht nur gaming-GPUs sondern auch professionelle GPUs!?
Beispielsweise gegen eine Quadro-Karte oder einer A5000
Deren Quadros und Teslas sind aber für viele Anwendungen, die Nicht-Spiele sind überhaupt nicht notwendig. Da geht es primär um Content Creation. Videoschnitt, Photbearbeitung, Rendering. All das kann auch Geforce.
Quadros sind für CAD und Teslas für HPC.

Geforece heißt nicht zwangsweise, dass es für Spiele sein muss.

Savay
2022-03-21, 15:20:12
Das die HW von Apple tendenziell Inselbegabt ist und nen extremen Fokus auf Apple Software legt, ist aber ja genauso wohl auch kaum nVs Schuld.


Geforece heißt nicht zwangsweise, dass es für Spiele sein muss.

Eben...und wenn man sich dann auch mal etwas agnostischere Produktiv Benchmarks ansieht, landet die HW schon grob da wo sie angesichts ihrer Rohleistung landen sollte.
Apple pickt sich natürlich das raus wo sie aus Gründen besonders gut dastehen. (ProRes bspw.)

Marketing Links kann man davon abgesehen eh nicht wirklich ernst nehmen. :wink:
"Der M1 Ultra integriert auch spezielle Apple Technologien wie eine Display Engine, die mehrere externe Displays ansteuern kann"
Gleich mehrere externe Displays...uuhhh...Such wow. Much impressive.

robbitop
2022-03-21, 15:30:55
Naja die optimieren ihre Hardware und Software zu 100% auf das was ihre Clientel nutzt. Das sind nunmal keine Gamer oder AutoCAD Konstrukteure. Das sind in der Regel die "Kreativen". Und genau der Kram wird optimiert. Und es zahlt sich offenbar für sie aus.



Gleich mehrere Externe Displays...uuhhh...Such wow. Much impressive.
Bis zu 4x 6K Displays und 1x 4K Display. Das ist schon ordentlich. ;)

Savay
2022-03-21, 17:06:32
Das sind in der Regel die "Kreativen". Und genau der Kram wird optimiert.

Sind aber selbst dann meist nicht "die" Kreativen, sondern einige Kreative mit nem spezifischen Worflow und starken Fokus auf Apple Anwendungen.
Ist ja auch echt alles nicht schlecht oder so, aber halt wie alles was Apple macht, logischerweise extrem Apple-zentrisch.

Liegt ja in der Natur der Sache und ist nicht zu deren Nachteil, solange sie für ihre Kunden dadurch nen Mehrwert generieren.

Führt die Vergleichbarkeit nur streckenweise etwas ad absurdum.
Wenn man dann auf sowas wie DxO, Topaz, DaVinci (ohne ProRes) etc. pp. schaut sieht es halt oft auch direkt wesentlich ausgeglichener aus.


Bis zu 4x 6K Displays und 1x 4K Display. Das ist schon ordentlich. ;)

Und wie viele davon OS und GPU bedingt nur gespiegelt? :wink: Oder hat der Ultra das Problem der anderen M1 nicht?

5 Displays sind ordentlich, aber auch nix neues.
Meine Custom N21 Karte hat ja auch "4x8K" :freak: Und die kostet wahrscheinlich soviel wie der gebürstete und eloxierte Alu-Ständer für das Studio Dingenskirchen. :weg:
Bei denen sind dann eh weniger Anschlüsse rausgeführt als möglich wären.
Die Pro haben afair allesamt 6x MiniDP.

robbitop
2022-03-21, 19:38:40
Ich glaube nicht, dass da beim Ultra was gespiegelt werden muss. Sind ja 2x M1 Max. Laut the verge funktionieren die wie gedacht.

Die Creatives sind mit dem ganzen Adobe Kram für Video, Bild und Musikbearbeitung was man den Reviews sieht, die sich auf den workflow beziehen, sehr zufrieden.

In der Mac Welt wird eben viel Adobe, Final Cut und co genutzt. Sicherlich weniger DaVinci und Co.

smalM
2022-03-22, 14:13:50
Wie viele Displays der M1 Ultra tatsächlich ansteuern könnte, wissen wir nicht, da nicht bekannt ist, wieviele Displayausgänge aus dem Chip herausgeführt sind.
Mindestens 6 Displays kann Mac OS seit Erscheinen des Macintosh II verwalten, also seit 35 Jahren.

Demogod
2022-03-22, 22:10:14
6 Monitore.. explain plz. edit: achso verwalten (also theoretisch technisch und auch praktisch). Ok kann ich mir vorstellen wenn du dir da in die Slots noch Grakas geballert hast.
Also 2 Monitore kenne ich von meinem Stiefvater seit Anfang der 90er am Mac.

edit: trotzdem interessiert mich -Quelle plz- wo das Limit von 6 definiert ist.

Felixxz2
2022-03-26, 17:43:26
Was erwartet ihr eig für einen SoC in Apples AR/VR Headset? Soll ja ein 96W Netzteil und 4k OLED bekommen (obwohl damit natürlich auch 2x 2Kx2K gemeint sein kann).

Und sehen wir dann zur WWDC vielleicht schon die ersten Anstrengungen in Richtung Games auf Apple Silicon? Das wäre ja für VR wohl der Hauptanwendungsfall.

pixelguy
2022-03-26, 18:43:23
Von dem was man hört, wird das Headset so teuer, dass es sich in der ersten Version nur an Profi-Anwender richtet. Also eher nix mit Games.

urpils
2022-03-26, 19:25:00
Von dem was man hört, wird das Headset so teuer, dass es sich in der ersten Version nur an Profi-Anwender richtet. Also eher nix mit Games.

Games? ;D;D;D

wir reden hier von Apple(!!!!!). Wer da ernsthaft irgendeinen Gedanken jemals darauf verschwendet hat anzunehmen, dass man da eine taugliche Spieleplattform bekommt, hat Apple als Firma noch nicht wahrgenommen :rolleyes:

Felixxz2
2022-03-27, 01:48:01
Also nur für Architekten und für Porn oder wie? :freak:
Aber wann hat Apple jemals eine neue Produktkategorie vorgestellt, die nicht an Consumer gerichtet war?

urpils
2022-03-27, 08:18:33
Also nur für Architekten und für Porn oder wie? :freak:
Aber wann hat Apple jemals eine neue Produktkategorie vorgestellt, die nicht an Consumer gerichtet war?

Und wann hat Apple jemals eine (neue) Produkt Kategorie vorgestellt, die in irgendeiner Form an Spieler gerichtet war?

Von kleineren Casual Games gehe ich hier nicht. Natürlich werden die technisch möglich sein. Das wird aber kein oculus und kein valve Projekt, indem man merkt, dass sie da einen Fokus drauf gesetzt haben.

Ich würde mich auch nicht wundern, wenn es keine separaten ein Gartengeräte dafür gäbe.

An wen das gerichtet sein soll? Das kann ich mir auch noch nicht so richtig vorstellen. Alles was Apple bis hier im AR Bereich gezeigt hat, war zwar immer technisch interessant und spannend, aber so einen ernsthaften Anwendungsfall konnte ich noch nicht erkennen.
Allerdings ist dafür auch Apple verantwortlich. Nicht ich. Ich habe keine Ahnung zu man ein AR oder VR Headset regelmäßig sinnvoll einsetzen soll. (außen Spiele)

Felixxz2
2022-03-27, 08:32:49
Also mir fällt es schwer sich ein VR Headset vorzustellen, bei dem das Thema Games ausgeklammert wird. Natürlich ist Apple nicht Valve, aber irgendeine Form von Gamesangebot wird es sicherlich geben. Da sind sich auch die Gerüchte bisher einig.

pixelguy
2022-03-30, 10:25:49
Wagt Apple einen neuen Vorstoß in die Spiele-Industrie?
https://www.mactechnews.de/news/article/Wagt-Apple-einen-neuen-Vorstoss-in-die-Spiele-Industrie-179824.html

Vielleicht tut sich ja doch etwas in Richtung Games.

Die Frage ist eher, in welcher Form dies passieren könnte?

- stationär als aufgebohrtes Apple TV?
- als Erweiterung zu der iPad Reihe?
- eigenständiges, mobiles Gerät?

Der M-Chip hat sicher genug Power. Und man hätte auch eine sehr schöne Plattform als Entwickler.

Daredevil
2022-03-30, 11:24:42
Man schaue sich die Entwicklung von ATV+ an, dann kann man in etwa abschätzen, in welche Richtung ein Arcade Bundle gehen könnte.
Von "Da gibt es kaum Serien, niemand schaut Apple TV+" zu "Wow, zwei Oscars für Coda, da schaue ich doch gerne mal rein".
Generell wird Arcade vielleicht dann auch mal "Erwachsener", weil dort tummelt sich zuviel "Arcade" Kram rum, welcher sicher gerne gespielt wird von der Masse, aber uns als "Gamer" vielleicht nicht so abholt.

Am Ende kann sich Apple einkaufen, worauf sie Bock haben und wenn Nintendo das geschafft hat mit der Switch, dann Apple auch.
Ich würde an der Stelle keine Unterschiede machen in der Geräteklasse, ein M1 ist z.B. eine massiv schnellere Switch Hardware und die kann man überall verbauen, egal ob MacBook, iMac, iPad, AppleTV oder irgendwann auch Brillen oder was auch immer so kommen mag. Und Switch Hardware reicht vielen offensichtlich aus, es muss als keine M1 Ultra Hardware sein.

Wenn es kommt, kommt es überall, ähnlich einem Streaming Angebot ( "Kann man überall spielen ") , nur das jedes Gerät schlicht schnell genug ist für eben diese Games.
Ich sags ja schon seit 2 Jahren, aber meiner Meinung nach ist das nur eine Frage der Zeit.
Apple müsste nur ne Coop mit Nintendo eingehen/sie aufkaufen und fertig ist der Lachs.

Felixxz2
2022-03-30, 14:08:05
Ui klingt spannend. Und macht auch absolut Sinn. Sie haben die besten Chips, ein riesiges Ökosystem und das Geld um sowas durchzudrücken.
Darüber hinaus gibt es aktuell schon eine enorme Hardwarebasis an M1x Geräten, die alle auf diese Games zugreifen könnten.
Ergänzend dazu einen neuen Apple TV mit M1 Pro/Max.

Dann kann man weiterhin schön Provi abzwacken von den Herstellern, wenns gut läuft auch die bisherigen 30% am Markt verteidigen.

Die Große Frage ist hier eigentlich nur: Setzen sie vor allem auf den 3rd Party Support großer Marken wie CoD oder Assassins Creed (und wie gehen sie mit den expliziten Inhalten für Erwachsene um) oder investieren sie vor allem in eigene Brands oder kaufen Studios.

Und abgesehen davon, ob das Sinn macht, scheint der Gamesmarkt aber auch Spaß zu machen, wenn man sich M$ ansieht, die völlig ohne Not (und ohne Gewinn) seit 20 Jahren Geld in dieses Geschäft pumpen :freak:

pixelguy
2022-03-30, 14:13:11
Nintendo werden sie nie kaufen können. Es ist quasi ausgeschlossen, dass eine nicht japanische Firma die übernehmen darf.

Auch glaube ich nicht, dass Apple eine dezidiertes Gaming-Device veröffentlicht, welches nicht sehr nah an Xbox und PS5 rankommt. Das passt nicht zum Edel-Image.

Dann bleiben sie eher bei Mobile-Games.

Aber vielleicht kaufen sie sich ja Unity? Das war sogar mal eine exklusive Engine für Apple Spiele.

first announced and released in June 2005 at Apple Inc.'s Worldwide Developers Conference as a Mac OS X-exclusive game engine
https://en.wikipedia.org/wiki/Unity_(game_engine)

Damit könnten Sie auch Epic ein wenig nerven und Unity ist auch im Profi-Umfeld aktiv...

davidzo
2022-03-30, 14:51:54
Wieso nicht Valves Vorarbeit in Sachen Proton, Wine, DXVK nutzen, wo doch eh alles Open Source ist? Wäre ein klassischer Safari-Konqueror-Webkit Bitch move von Apple. Open Source verwenden aber solange hinter verschlossener Tür umschreiben dass es nachher keiner der open source maintainer versteht oder ungeprüft in sein repo rein haben will.
- Hm, dagegen spricht dass der Vulkansupport für die M1 GPU grottig ist. Das müsste sich schon bessern wenn man sich das Ökosystem anderer eigen machen will. Auch DXVK übersetzt nach Vulkan. Eine direkte DirectX zu Metal-Schnittstelle aus dem Nichts zu stampfen wäre doch eine sehr sehr große Überraschung.

Die Hardware ist da, ja. Aber wo zum Teufel soll das Ökosystem herkommen?
- Eigenbau: Dann müsste Apple vor Jahren schon massiv Gamedeveloper eingestellt haben. Das hätten wir mitgekriegt. Man launcht nicht einfach eine Hardware: Zuerst kommt die Plattform und der Developer support, dann arbeiten die externen Studios 2-3 Jahre an den Launchgames und dann erst kann man eine Hardware launchen.
- Win/Linux/Steam Ökosystem kopieren: Dann müsste man mehr Interesse an branchenübergreifenden Standards haben wie Vulkan, was nicht der Fall ist.

pixelguy
2022-03-30, 16:58:41
wenn überhaupt machen die da ganz sicher etwas eigenes.

Und das Ökosystem haben sie: Die vers. Appstores mit mehreren Milliarden aktiven Geräten.

https://i.imgur.com/k1ky2Hq.png

Man schaue sich nur mal die Leistung des M1 Max an...
Da geht schon was.

Felixxz2
2022-03-31, 01:04:43
Wie ist das aber mit dem Featureset? Ist das nicht nur DX10 like? Tesselation und Geometry Shader gibts nicht oder? Raytracing sowieso nicht.

spotz
2022-03-31, 01:22:51
Wenn da was dran ist, müsste es einen A16 oder M2 Chip mit Raytracing geben. Kann mir nicht vorstellen, dass man heutzutage noch einen Vorstoß in Richtung Spiele ohne Raytracing machen kann. Erst recht nicht mit dem Image das Apple hat.

Daredevil
2022-03-31, 10:09:17
Die Switch ist ja auch ganz okay erfolgreich, ohne Raytracing und 4k, oder? :)
Its about the Content, not about Visual Features.

Natürlich ist das Nice2Have, ich hoffe aber das Apple nichts verbaut, was 1. Eine Nische ist und 2. Einfach nicht ordentlich läuft in jedem Spiel.
Ratchet ist das einzige Spiel, was mit 60fps flüssig läuft und dabei noch gut aussieht auf einer Konsole, den Rest kann man quasi in die Tonne hauen, da hier dann woanders visuell gespart wird.
Generell ist Raytracing ( aktueller Stand ) auf der Konsole super überflüssig.

Auf dem PC ist es schon weiter, aber da auch nur abseits einer GPU über 1000€ ( aktueller Stand ), aber auch dort weit entfernt von optimal, wenn man nicht mit DLSS/FSR tricksen möchte.
Ist sicherlich Nice2Have und ich habe es auch gerne, aber kein muss, nicht in 2022.

vinacis_vivids
2022-03-31, 10:33:05
Nicht weil es technisch notwendig ist, sondern weil Nvidia bei discrete Graphics mit RayTracing losgelegt hat, ist Apple als Weltspitze quasi dazu gezwungen mit Nvidia, AMD und evtl. Intel aufzuschließen und es auch ordentlich zu kontern.

Samsung hat bereits im Smartfone Bereich mit RayTracing losgelegt. Kann vllt. auch sein, dass Apple bei AMD RayTracing einkaufen muss, weil das KnowHow noch fehlt.

robbitop
2022-03-31, 11:07:35
Interessiert offenbar Apples Kunden nicht. Gewinn und Umsatz nehmen immer weiter zu.
Grundsätzlich macht RT aber sicherlich für Rendering auf dem Mac Sinn.

spotz
2022-03-31, 12:52:58
Die Switch ist ja auch ganz okay erfolgreich, ohne Raytracing und 4k, oder? :)
Its about the Content, not about Visual Features.

Natürlich ist das Nice2Have, ich hoffe aber das Apple nichts verbaut, was 1. Eine Nische ist und 2. Einfach nicht ordentlich läuft in jedem Spiel.
Ratchet ist das einzige Spiel, was mit 60fps flüssig läuft und dabei noch gut aussieht auf einer Konsole, den Rest kann man quasi in die Tonne hauen, da hier dann woanders visuell gespart wird.
Generell ist Raytracing ( aktueller Stand ) auf der Konsole super überflüssig.

Auf dem PC ist es schon weiter, aber da auch nur abseits einer GPU über 1000€ ( aktueller Stand ), aber auch dort weit entfernt von optimal, wenn man nicht mit DLSS/FSR tricksen möchte.
Ist sicherlich Nice2Have und ich habe es auch gerne, aber kein muss, nicht in 2022.

Ist halt die Frage ob sie nur ein spezielles Gaming Device (AR/VR Brille/Helm) anbieten wollen oder ihr gesamtes Produktportfolio mit Spielen unterstützen wollen. Ich hoffe mal das auch Letzteres der Fall ist, denn das würde alle ihre Produkte für viele Menschen interessanter machen.

Da könnte der M1 oder ein M2 ohne Raytracing als Einstieg interessant sein. Ein iPad Mini mit M1 könnte man gegen Steam Deck und Switch positionieren, aber auch beim iMac, Mac Mini usw grundsätzliche Spielefähigkeiten mitbringen. Da hätte man dann auch schon eine gewisse Basis, da ein paar Millionen dieser Geräte ja bereits verkauft wurden.
Für Hardcore Gamer die schon jetzt bereit sind viel Geld auszugeben, müsste man dann aber einen Raytracing fähigen M2 Pro/Max/Fun ;) haben der dann auch in höherpreisigen Geräten enthalten ist. Promotion wäre da auch ein interessantes Feature. Diese zahlungswilligen Hardcore Gamer wird man meiner Meinung nach ohne Raytracing aber nicht locken können. Ein M1 Max oder gar M1 Ultra ist für die ohne Raytracing wenig attraktiv, auch wenn der in den von denen geforderten Performanceregionen spielt und sie auch bereit wären den entsprechenden Preis dafür zu zahlen. In den Preisbereichen ist Raytracing Pflicht.

Das bringt aber nur was, wenn Apple zum Start mit ein, besser zwei Dutzend neuen Spielen aufwarten kann, die Metal unterstützen und am besten im Mehrspieler auch Crossplay fähig sind.

Daredevil
2022-03-31, 23:26:37
Man sieht aber auch hier im Forum sehr gut, dass RT nicht unbedingt Pflicht ist, sonst hätte jeder ne 3080/3080ti/3090 und kaum einer eine AMD GPU, die stark im RT schwächelt. ( Weil sie natürlich günstiger ist und gleich viel Rohleistung bietet, RT ist da am Ende dann egal. )
Wenn man es ernst meint, muss man auch Geld dafür ausgeben, das scheint aber nicht der Fall zu sein, deswegen ist es am Ende nur Nice2Have.
Viel interessanter ist an der Stelle der 64/128GB VRAM des M1 Ultra. Da kannst du ein komplettes Spiel drin parken. ;D

spotz
2022-04-01, 07:01:09
Ein ganzes Spiel im RAM ist schon cool :D

Wenn man AMD als Maßstab nimmt, dann sollte Raytracing zumindest als Checklistenfeature dabei sein und ungefähr auf dem Niveau der aktuellen Konsolen sein. Das wäre zumindest meine persönliche Erwartung, von einem M2 Max der je nach Gerät auch schon 2000 bis 3000 Euro kostet. Dann soll die Grafik schon Konsolenniveau haben.

Ginge wahrscheinlich auch ohne Raytracing. Allerdings je weniger man geboten bekommt, desto mehr potentielle Spieler entscheiden sich dann dagegen. Daher wäre es schon schön wenn der M2 Raytracing böte. Insbesondere wenn Apple vorhat mehr Spiele und Spieler auf seine Macs zu bekommen.

urpils
2022-04-01, 08:39:44
Ein ganzes Spiel im RAM ist schon cool :D

Wenn man AMD als Maßstab nimmt, dann sollte Raytracing zumindest als Checklistenfeature dabei sein und ungefähr auf dem Niveau der aktuellen Konsolen sein. Das wäre zumindest meine persönliche Erwartung, von einem M2 Max der je nach Gerät auch schon 2000 bis 3000 Euro kostet. Dann soll die Grafik schon Konsolenniveau haben.

Ginge wahrscheinlich auch ohne Raytracing. Allerdings je weniger man geboten bekommt, desto mehr potentielle Spieler entscheiden sich dann dagegen. Daher wäre es schon schön wenn der M2 Raytracing böte. Insbesondere wenn Apple vorhat mehr Spiele und Spieler auf seine Macs zu bekommen.

wovon redest du denn? wie kommst du denn auf die Idee, dass irgendein ein Checklistenraytracinghardwarefeature irgendjemanden bewegen sollte Apple zu kaufen oder nicht?

man kann auf der Plattform eh nicht sinnvoll spielen. Apple hat daran auch kein Interesse und auch keinerlei KnowHow.

Wenn sie klug sind, dann wird Apple nen Teufel tun die sog. "Core-Games" auf ihre Plattform zu holen.

Schau dir nur mal an, was die "Hardcore Gamer" ständig für Szenen machen in den Medien (Online-Chats und -verhalten, siehe hier im Rocket-Beans-Forum,...)

Klar - wenn man auf der Apple Plattform alles spielen könnte, wäre das für mich auch schön. Aber ich sehe nicht, wieso es in Apples Interesse sein sollte, diese "eklige" Kundengruppe anzuziehen.

Savay
2022-04-01, 12:54:53
Wenn man es ernst meint, muss man auch Geld dafür ausgeben, das scheint aber nicht der Fall zu sein, deswegen ist es am Ende nur Nice2Have.

Ich hab locker die Kohle für ne 3090, gebe das trotzdem nicht für eine nV Karte aus. :rolleyes:
Genauso wie ich mir Apple HW nicht kaufe obwohl die Kohle da wäre.

Wer sich ne AMD Karte leisten kann, kann das BTW auch mit ner gleichteuren nV Karte.
Als ob irgendjemand der 500€ oder gar 1000€+ für ne GPU ausgibt ein Pfennigfuchser wäre. :freak:
Immer dieser absurde Mythos es würde am Geld scheitern.

Das Problem ist nicht das Geld, das Problem ist immer der Nutzen.

Die Wahrheit ist aus Kundensicht doch viel profaner:
Noch hat RT mehr oder weniger Techdemo Status, ähnlich wie VR. (Und ja ich hab ne Index)
RT ist damit (wie btw auch DLSS) reines nice to have, weil es zu wenig relevante(!) Verbreitung hat und ersteres oder meistens leider eh läuft wie ein Sack Nüsse sofern es nicht subtil sondergleichen ist und kaum einen ausreichenden Mehrwert bietet.
DLSS hat dann noch das "Problem", dass es aktuell ein Feature ist, das primär zu wenig Rohleistung kompensieren soll und eigentlich nur die Lebensdauer der HW verlängert.
Davon haben spätestens die großen Karten idR aber eh genug, wenn man sich von RT fernhält.
Deswegen wird das alles erst in ein paar Jahren wirklich akut.

Insofern muss man es als Vorbereitung zur ausreichenden Marktdurchdringung betrachten und momentan als Perpetuum Mobile für's nV Marketing wenn man es nüchtern betrachtet.

Das heißt aber auch, dass Apple, wenn sie es in der Richtung ernst meinen, es zumindest AMD-like grundlegend als HW/SW Funktionalität anbieten müssten...zumindest um das Ökosystem darauf vorzubereiten.

Daredevil
2022-04-01, 15:44:10
Du zitierst mich, wiedersprichst und schreibst genau das selbe. :D

spotz
2022-04-01, 17:02:37
wovon redest du denn? wie kommst du denn auf die Idee, dass irgendein ein Checklistenraytracinghardwarefeature irgendjemanden bewegen sollte Apple zu kaufen oder nicht?

man kann auf der Plattform eh nicht sinnvoll spielen. Apple hat daran auch kein Interesse und auch keinerlei KnowHow.
Ich rede von dem Beitrag (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12965363#post12965363) auf der vorherigen Seite, bei dem es heißt das Apple einen neuen Vorstoß im Spielebereich vorbereitet.

mocad_tom
2022-04-10, 11:04:51
und das ist damit gemeint, wenn ich sage, dass virtualisierung auf dem m1 komplett verkackt ist:

https://mobile.twitter.com/AsahiLinux/status/1513037664379113481

im m2 haben sie einiges davon repariert.

die m1 generation wird dann deprecated, weil es so dermaßen viel aufwand sein wird, beide virtualisierungen unter einen hut zu bekommen.

aktuell beschneidet parallels beim intel mac features(sachen, die mit intel macs schon funktioniert haben), damit sie die komplexität überhaupt stemmen können. wird lustig, wenn sie mit einführung des m2 zeug vom m1 wegschmeissen müssen.

der m1 ist so eine ausgeburt des schwachsinns.

robbitop
2022-04-10, 11:23:06
Aber nur aus einer Sicht der absoluten Nischenanwendung für die M1 Nutzer. Wie viele Mac Kunden betrifft das ernsthaft so dass es für sie ein wirklich relevanter Nachteil ist? Sub 1%?

smalM
2022-04-15, 20:58:04
@robbitop
Du hast ‰ falsch geschrieben :wink:

smalM
2022-04-25, 20:25:34
How macOS manages M1 CPU cores (https://eclecticlight.co/2022/04/25/how-macos-manages-m1-cpu-cores/)

Ailuros
2022-04-28, 08:09:40
Es scheint sich etwas in der Kishonti Datenbank bewegt zu haben fuer die Ultra Leistung.

Aztec Ruins High Tier offscreen:

M1 Ultra = 507,70 fps
M1 Max = 313,20 fps
M1 Pro = 167,80 fps

Max --> Ultra = 1.6x
M1 Pro --> Max = 1.9x
M1 Pro --> Ultra = 3.0x

Kann sein dass der Ultra hier aus irgend einem Grund immer noch 10-15% hinter seinem realen Potenzial liegt.

Ailuros
2022-06-01, 12:07:16
Kishonti hat zu ihrem letzten benchmark eine 4k offscreen Variante von Aztec Ruins (high tier) hinzugefuegt. So weit stets peak Resultate:

Apple M1 Ultra: 260,30 fps
Apple M1 Max: 141,10 fps
Apple M1: 35,70 fps

Qcom Adreno 730: 21,50 fps
Samsung XClipse 920: 11,10 fps
Qcom Adreno 650: 11,00 fps

https://gfxbench.com/result.jsp?benchmark=gfx50&test=778&order=score&base=gpu

smalM
2022-06-02, 16:04:43
Das sieht doch ganz vernünftig aus:

M1 Max --> Ultra = 1,85x
M1 Pro --> Ultra = 3,57x
M1 --> Ultra = 7,29x

Die Frage ist nun, wieso erreicht der M1 Ultra nicht 580 fps in Aztec Ruins High Tier? Was ist der Flaschenhals?

Ach ja, Apple A10: 4,7 fps

Ailuros
2022-06-03, 08:31:02
Das sieht doch ganz vernünftig aus:

M1 Max --> Ultra = 1,85x
M1 Pro --> Ultra = 3,57x
M1 --> Ultra = 7,29x

Die Frage ist nun, wieso erreicht der M1 Ultra nicht 580 fps in Aztec Ruins High Tier? Was ist der Flaschenhals?

Ach ja, Apple A10: 4,7 fps

Haette ich ein onscreen Resultat vom spezifischen Test waere die Antwort einfacher.

https://gfxbench.com/device.jsp?benchmark=gfx50&os=OS%20X&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20M1%20Ultra&did=105168694&D=Apple%20M1%20Ultra

Insgesamt heisst es im Klartext dass der Ultra nur in Faellen wo Bandbreite anfaengt zu limitieren seine Beine ausstreckt. So verrueckt anspruchsvoll ist Aztec Ruins high tier nicht wirkllich (nun gut fuer ein smartphone schon), da waere ein 8k test wohl vielleicht noch eine Option nur fuer desktops und co.

robbitop
2022-06-03, 09:17:16
Eigentlich ist das Verhältnis zwischen Bandbreite und Rohleistung beim MAX exakt das gleiche wie beim Ultra (2x MAX). Aber ich vermute, weil Offscreen eher was mit Auflösung zu tun hat, hat der Bottleneck eher nicht mit Bandbreite sondern mit allem (an GPU Leistung) zu tun. Auflösung kostet alles (außer Geometrieleistung). Also streckt er seine Beine entweder im Bereich, wo man aus dem CPU Bottleneck kommt oder aus einem Geometriebottleneck. :)

Matrix316
2022-06-06, 19:55:30
Jetzt wurde hier schon eine Stunde nur über iOS und WatchOS geredet. Was isn jetzt mitm M2? ;)

EDIT: Jetzt aber.

smalM
2022-06-06, 20:24:50
M2
N5-Derivat, > 20 Mrd. Transistoren (ca. 145mm²)
CPU +18% (L2 P: 16MB, E: 4MB)
GPU (10 Core) +35% (+25% @ ISO-Power)
NPU 15,8 TOPS
SLC 8MB
LPDDR5-6400, bis 24 GB RAM

Die CPUs sehen schwer nach Avalanche und Blizzard aus, inklusive der in der Größe verdoppelten AMX-Unit; der shared Bereich der GPU hat deutlich zugelegt.

Ghost1nTh3GPU
2022-06-06, 20:26:12
Triple-A Games auf dem Mac/Metal/Apple Silicon... :uponder:

y33H@
2022-06-06, 21:25:46
Halbierter SLC?

smalM
2022-06-06, 21:50:54
@y33H
In der englischen Wiki ist beim M1 die SLC-Größe mit 16MB angegeben, in der deutschen steht 8MB. Ich halte zweiteres für korrekt.

basix
2022-06-06, 21:52:59
Im Apple Slide Deck steht "Shared 16MB" ;)
https://www.computerbase.de/2022-06/apple-m2-mehr-leistung-bei-gleichem-verbrauch/

Schöne Zuwächse sind das alles. mMn der grösste Bringer ist aber, dass nun ProRes Encode/Decode Accelerators mit dabei sind.

Edit:
MetalFX Upscaling als Alternative zu FSR, DLSS und XeSS:
https://www.computerbase.de/2022-06/macos-13-ventura-metalfx-upscaling-ist-apples-antwort-auf-dlss-und-fsr-2-0/

w0mbat
2022-06-07, 01:26:28
Im Apple Slide Deck steht "Shared 16MB" ;)
https://www.computerbase.de/2022-06/apple-m2-mehr-leistung-bei-gleichem-verbrauch/
16MB L2 für die P-Cores, aber wie viel SLC (L3)?

Felixxz2
2022-06-07, 04:41:13
Edit:
MetalFX Upscaling als Alternative zu FSR, DLSS und XeSS:
https://www.computerbase.de/2022-06/macos-13-ventura-metalfx-upscaling-ist-apples-antwort-auf-dlss-und-fsr-2-0/

Das dürfte ja dann wohl der finale Beleg sein, dass an was Gaming-bezogenem gearbeitet wird, evtl. die Konsole real ist.
Bzw. es für die VR Brille genutzt wird, wobei es dort ja auch nur für 3D Sachen sinnvoll wäre.
Auch wenn wschl. hier gleich wieder die üblichen Steine fliegen, dass Apple nie und nimmer zur Gamesplattform wird ;D

KarlKastor
2022-06-07, 05:36:35
@y33H
In der englischen Wiki ist beim M1 die SLC-Größe mit 16MB angegeben, in der deutschen steht 8MB. Ich halte zweiteres für korrekt.
Begründung?
Die Quellen die in der deutschen Wikipedia genannten werden, lassen eher auf 16 MB schließen.
TechInsight hat den Cache 0.8x der Fläche des A14 gemessen. Eher wahrscheinlich ist es, das die Density etwas gestiegen ist, anstatt stark gesunken. Andrei hat auch auf 16 MB geschätzt anhand der Messdaten.

In Wikipedia steht auch 32, 64, 128 MB für die größeren Modelle. Andrei sagt aber klar, der SLC wäre 50% größer und wäre also vielfache von 24 MB.
In Wikipedia steht ziemlich viel Quark.

basix
2022-06-07, 08:36:40
Das dürfte ja dann wohl der finale Beleg sein, dass an was Gaming-bezogenem gearbeitet wird, evtl. die Konsole real ist.
Bzw. es für die VR Brille genutzt wird, wobei es dort ja auch nur für 3D Sachen sinnvoll wäre.
Auch wenn wschl. hier gleich wieder die üblichen Steine fliegen, dass Apple nie und nimmer zur Gamesplattform wird ;D

Naja, die HW dazu hätte Apple seit M1+ ja. Und einen genug grossen Markt auch. Bislang war Apple einfach noch nicht gewillt, auf Gaming zu setzen (Prosumer Image?). Aber Gaming ist ein Bereich, wo man viel Geld verdienen kann, vor allem wenn das Apple wie gehabt über ihren App-Store laufen lässt.

Einer Konsole bin ich noch skeptisch gegenüber gestellt. Im Prinzip ginge das ja in Richtung eines Mac Studio mit M1 Max/Pro. Ich denke eher, dass es Upgrade von MacOS gibt, wo man eine Art Game Console UI erhält. Als App. Das hat den riesigen Vorteil, dass Apple das bestehende SW & HW Ökosystem mitnehmen kann. Mit einer "Konsole" würden sie zudem ihre Apotheker Preise gefährden. Nur fürs Gaming zahlt man nicht so viel für so ein Gerät.

mboeller
2022-06-07, 08:50:57
Mit einer "Konsole" würden sie zudem ihre Apotheker Preise gefährden. Nur fürs Gaming zahlt man nicht so viel für so ein Gerät.

?? AppleTV incl. M1 od. M2 + mehr Speicher ??

basix
2022-06-07, 09:08:01
Da bringst du ein gutes Argument und gleichzeitig stützt du meines ;)

AppleTV hat klar einen anderen Primärnutzen. Aber ja, ein M1 mit 8GB in diesem Ding für z.B. 300$, wieso nicht. Mir stellt sich dann aber die Frage: Wie gross und teuer wird die SSD werden? Apple ist dafür bekannt, bei der SSD einen Cash Grab par excellence abzuziehen.
Bie modernen Spielen würde ich mindestens 512GB SSD erwarten. Und hier wird es dann eng in 300$ (für Apple Niveau) und ich kann gleich eine Xbox Series S + AppleTV nehmen, was mich ~400$ kostet.

pixelguy
2022-06-07, 09:41:29
Ich würde Gaming bei Apple begrüßen, glaube aber nicht, dass sie damit Erfolg haben werden.
Die DNA fehlt einfach.

Gaming braucht "Social-Komponenten" und das kann Apple einfach nicht...

Neu im Gamecenter ist jetzt Activity... Naja...

Da muss deutlich mehr kommen um dem Markt gleichzuziehen.

basix
2022-06-07, 10:06:46
Was bei Apple aber ist: Wenn sie beschliessen den Gaming-Weg zu beschreiten, dann vermutlich Vollgas und nicht nur lauwarm.

sth
2022-06-07, 10:21:29
Was bei Apple aber ist: Wenn sie beschliessen den Gaming-Weg zu beschreiten, dann vermutlich Vollgas und nicht nur lauwarm.
Naja... wenn ich mir das letzte halbe Dutzend Gaming-Commitments von Apple anschaue, dann habe ich Zweifel. ;)

Ghost1nTh3GPU
2022-06-07, 10:39:15
Wenn Apple eine vernünftige VR/AR-Brille bringt, könnte man da die Prosumer vielleicht locken.
Die "Wahl" auf RE8 fiel da möglicherweise nicht zufällig.

Auf der anderen Seite wird es sicherlich auch überlegen seitens der Cloud geben. Mit den M-SoCs hat man sehr dichte und effiziente Hardware. Warum hier nicht Mac OS samt Apple SoC als Mietmodell verkaufen, die Einstiegshürde wäre da für viele niedriger als ein paar Tausender vorzustrecken.
Mit dem USB-C iPhones gibt es dann auch passende Clients, wo dann in einem Hybrid OS ein Teil der Fenster aus der Cloud kommen. Eventuell auch AAA-Games.

basix
2022-06-07, 11:12:37
Stimmt, Cloud Gaming gäbe es ja auch noch. Vielleicht gibt es eine Art Hybrid Konzept (Cloud + Stationär)

MSABK
2022-06-07, 11:14:28
Die Preise für das neue Air mit M2 sind aber mal gesalzen mit 1499€ für nur 8Gb ram und 256ssd.

basix
2022-06-07, 11:21:54
Willkommen bei Apple ;)

M1 Notebooks waren eigentlich gar nicht so überteuert, soweit ich mich erinnere. Wie war hier der MSRP des M1 Air?

dildo4u
2022-06-07, 11:24:07
XPS 13 plus ist bei 1.600 für das Alder Lake 1240p 8GB Modell, Intel/Dell hält dort auch die Hand auf.


https://www.heise.de/news/Dell-XPS-13-Plus-Generalueberholtes-Edel-Notebook-mit-12-Kern-CPU-im-Shop-7070193.html


Asus ist billiger zumindest mit Ryzen 6000, vermutlich eine Image Sache Asus=Ramsch?

https://estore.asus.com/de/90nb0wa3-m00710-zenbook-s-13-oled-um5302-amd-ryzen-6000-series.html

robbitop
2022-06-07, 11:30:01
Edit:
MetalFX Upscaling als Alternative zu FSR, DLSS und XeSS:
https://www.computerbase.de/2022-06/macos-13-ventura-metalfx-upscaling-ist-apples-antwort-auf-dlss-und-fsr-2-0/
Wie im Nachbarthread (FSR 2.0) gesagt - ich habe mir den Stream gestern angeschaut und der Wortlaut ließ es IMO unklar, ob es wirklich ein FSR 2.0 / DLSS 2.x / XeSS Wettbewerber ist. Sie redeten von "spatial upscaling" und "temporal Anti Aliasing". Entweder haben sie es nicht eindeutig und korrekt kommuniziert oder - wenn man dem Wortlaut folgt - ist es eigentlich nur sowas wie FSR 1.0. Spatial upscaling - temporales AA hat ja fast jedes Spiel sowieso schon. Ggf hat man es aber auch nicht vernünftig kommuniziert.
Aber warum sollte man ein temporales upsampling Verfahren mit "spatial upscaling in combination with temporal anti aliasing" beschreiben?


----------------------------
Bei den SoCs tritt man IMO auf der Stelle. Die Kerne im M2 gibt es bereits seit 2021 im A15 und sind nur eine sanfte Evolution der Kerne aus dem M1/A14. Und dazu tritt man mit 5nm auf der Stelle. Apple nutzt seit 2020 mit dem A14/M1 5 nm. 2022 und wenig Bewegung. Normalerweise war Apple immer bleeding edge bei Fertigungsprozessen. 2020 in 5 nm war schon super früh. 2022 ist 5 nm irgendwie schon ein Mainstream Prozess und einige wenige gehen schon auf 4nm. Sogar bei fetten GPUs (Hopper und ggf. auch Ada). 4 nm hätte ich bei Apple in 2022 wenigstens erwartet und neue CPU Cores. Ggf. war ja an dem Nuvia Gerücht doch was dran, dass es da einen großen Braindrain gab an dem man jetzt zu knabbern hat.
Oder aber man realisierte, dass man so weit vorn war, dass man jetzt auch mal melken kann. IMO gefährlich.

davidzo
2022-06-07, 11:36:22
Die Preise für das neue Air mit M2 sind aber mal gesalzen mit 1499€ für nur 8Gb ram und 256ssd.

Inflation, unsere €-Kröten sind nichts mehr wert. Es gibt aktuell auch keine Notebooks mit Alderlake unter 1600€. Das ist das neue Normal.

Grafikkarte 800€-1200€, CPU 600€ und Mittelklasse Notebooks ab 2K, willkommen in 2022!

dildo4u
2022-06-07, 11:38:39
----------------------------
Bei den SoCs tritt man IMO auf der Stelle. Die Kerne im M2 gibt es bereits seit 2021 im A15 und sind nur eine sanfte Evolution der Kerne aus dem M1/A14. Und dazu tritt man mit 5nm auf der Stelle. Apple nutzt seit 2020 mit dem A14/M1 5 nm. 2022 und wenig Bewegung. Normalerweise war Apple immer bleeding edge bei Fertigungsprozessen. 2020 in 5 nm war schon super früh. 2022 ist 5 nm irgendwie schon ein Mainstream Prozess und einige wenige gehen schon auf 4nm. Sogar bei fetten GPUs (Hopper und ggf. auch Ada). 4 nm hätte ich bei Apple in 2022 wenigstens erwartet und neue CPU Cores. Ggf. war ja an dem Nuvia Gerücht doch was dran, dass es da einen großen Braindrain gab an dem man jetzt zu knabbern hat.
Oder aber man realisierte, dass man so weit vorn war, dass man jetzt auch mal melken kann. IMO gefährlich.

Wenn die Gerüchte stimmen kommt von Intel nix brauchbares bis Mitte 2023.(Meteor Lake)
Raptor Lake is 10nm und AMD kann nicht genug Chips liefern um gefährlich zu werden.

basix
2022-06-07, 11:46:20
TSMCs N3 ist einfach noch nicht ready. Deswegen jetzt nur der sanfte Anstieg bei den Cores und beim M2. Apple arbeitet vor allem mit viel Transistor-Budget. Ohne von N5 wegzugehen, wird da also auch nicht viel passieren.

robbitop
2022-06-07, 11:46:42
Wenn die Gerüchte stimmen kommt von Intel nix brauchbares bis Mitte 2023.(Meteor Lake)
Raptor Lake is 10nm und AMD kann nicht genug Chips liefern um gefährlich zu werden.

AMD, Intel und auch Qualcomm sollte man nicht unterschätzen. Ggf. hat NV ja auch noch was vor mit einem ARM SoC. Wer rastet der rostet.

Ich sehe Apple nicht mit vollem Committment in die AAA Spielebranche laufen. Aus zwei Gründen:

1. Verdienen sie (ich meine harte Gewinne - nicht Umsätze) wahrscheinlich dank Appstore mehr als die meisten anderen in der Spielebranche - davon sind wenige Titel AAA - aber auf den Gewinn kommt es an
2. Die installierte Basis an Geräten ist ziemlig nischig. Insbesondere wenn man sie nochmal auf das Zielpublikum filtert. Die meisten Macs werden wohl von Video/Fotoleuten mit begrenztem Spielinteresse besessen. Die meisten AppleTVs wohl von Netflix und Co schauern.

Ich vermute, dass sie das, was sie haben immer weiter ausbauen werden.

---------------------

Was die Hardware angeht: das neue MBA ist ja wirklich krass dünn und leicht bei riesiger Akkulaufzeit und relativ hoher Leistung. Das ist schon verführerisch.

----------------------
Man mit diversen translation layers (ähnlich Proton im SteamOS) damit auch ganz brauchbar spielen und es werden auch immer mehr Spiele, die unterstützt werden.

TSMCs N3 ist einfach noch nicht ready. Deswegen jetzt nur der sanfte Anstieg bei den Cores und beim M2. Apple arbeitet vor allem mit viel Transistor-Budget. Ohne von N5 wegzugehen, wird da also auch nicht viel passieren.
Ja das hab ich auch gelesen. Aber man hätte ja wenigstens 4 nm nehmen können.

basix
2022-06-07, 12:08:54
N4 ist auch erst gegen Ende Jahr ready (siehe Hopper). Ist einfach ein Timeline Thema.

robbitop
2022-06-07, 12:26:38
Da bin ich skeptisch. Normalerweise sind Fertigungsprozesse für mobile SoCs laaaange verfügbar bevor die für GPUs und CPUs nutzbar sind. Ada soll ja bereits in Fertigung sein und soll wohl auch auf 4 nm sein.

dildo4u
2022-06-07, 12:32:43
Snapdragon 8 Gen plus nutzt 4nm von TSMC Modelle damit sollen im Juli kommen.Aber gut möglich das diese Stückzahlen für Apple viel zu niedrig wären.

RBG
2022-06-07, 12:42:13
Ich vermute das sie N4 für die Pro, Max, Ultra Modelle des M2 benutzen. Beim M1 war es ja ähnlich: Der M1 wurde in N5 und die Pro, Max, Ultra dann in N5P gefertigt.

fondness
2022-06-07, 12:42:17
Wie im Nachbarthread (FSR 2.0) gesagt - ich habe mir den Stream gestern angeschaut und der Wortlaut ließ es IMO unklar, ob es wirklich ein FSR 2.0 / DLSS 2.x / XeSS Wettbewerber ist. Sie redeten von "spatial upscaling" und "temporal Anti Aliasing". Entweder haben sie es nicht eindeutig und korrekt kommuniziert oder - wenn man dem Wortlaut folgt - ist es eigentlich nur sowas wie FSR 1.0. Spatial upscaling - temporales AA hat ja fast jedes Spiel sowieso schon. Ggf hat man es aber auch nicht vernünftig kommuniziert.
Aber warum sollte man ein temporales upsampling Verfahren mit "spatial upscaling in combination with temporal anti aliasing" beschreiben?


----------------------------
Bei den SoCs tritt man IMO auf der Stelle. Die Kerne im M2 gibt es bereits seit 2021 im A15 und sind nur eine sanfte Evolution der Kerne aus dem M1/A14. Und dazu tritt man mit 5nm auf der Stelle. Apple nutzt seit 2020 mit dem A14/M1 5 nm. 2022 und wenig Bewegung. Normalerweise war Apple immer bleeding edge bei Fertigungsprozessen. 2020 in 5 nm war schon super früh. 2022 ist 5 nm irgendwie schon ein Mainstream Prozess und einige wenige gehen schon auf 4nm. Sogar bei fetten GPUs (Hopper und ggf. auch Ada). 4 nm hätte ich bei Apple in 2022 wenigstens erwartet und neue CPU Cores. Ggf. war ja an dem Nuvia Gerücht doch was dran, dass es da einen großen Braindrain gab an dem man jetzt zu knabbern hat.
Oder aber man realisierte, dass man so weit vorn war, dass man jetzt auch mal melken kann. IMO gefährlich.


Ähm das was Nvidia bewusst als 4N und eben nicht N4 bezeichnet ist soweit ich das verstanden haben eine marketingetechnische umbenennung des N5 Prozesses von TSMC.

robbitop
2022-06-07, 12:50:40
Ähm das was Nvidia bewusst als 4N und eben nicht N4 bezeichnet ist soweit ich das verstanden haben eine marketingetechnische umbenennung des N5 Prozesses von TSMC.
Annahme oder gibt es dafür eine Quelle?
Und weiterhin hat Qualcomm einen SoC in 4 nm. Mediatek hat auch einen.

dildo4u
2022-06-07, 12:51:36
4nm ist immer ein 5nm Refrech oder nicht?

basix
2022-06-07, 12:53:02
Naja, "optimized N5" is eigentlich genau das: N4.

Vielleicht schreibt es Apple einfach nicht so auf ihre Folien.

fondness
2022-06-07, 12:53:36
Annahme oder gibt es dafür eine Quelle?
Und weiterhin hat Qualcomm einen SoC in 4 nm. Mediatek hat auch einen.

Kann ich jetzt in der Arbeit leider nicht eruieren, später. So oder so wäre 4nm nur eine cost-down Variante von 5nm, der nächste major node ist 3nm. Möglicherweise hat der 5nm Prozess sogar Vorteile.

robbitop
2022-06-07, 12:54:18
Naja, "optimized N5" is eigentlich genau das: N4.

Vielleicht schreibt es Apple einfach nicht so auf ihre Folien.

Bisher haben sie jeden Prozess auch so benannt wie er hieß. Warum sollte man das auch nicht tun? Ist ja werbewirksam. Optimized 5 nm klingt eher wie N5P oder ein leicht angepasster N5P.

Kann ich jetzt in der Arbeit leider nicht eruieren, später. So oder so wäre 4nm nur eine cost-down Variante von 5nm, der nächste major node ist 3nm. Möglicherweise hat der 5nm Prozess sogar Vorteile.
Auch half nodes bringen in der Regel etwas bessere Dichten, Performance und Power. Siehe 12nm vs 16 nm, 8 nm vs 10 nm (bei Samsung) und vor kurzem 6 nm vs 7 nm.

Sunrise
2022-06-07, 13:04:53
…Bei den SoCs tritt man IMO auf der Stelle. Die Kerne im M2 gibt es bereits seit 2021 im A15 und sind nur eine sanfte Evolution der Kerne aus dem M1/A14. Und dazu tritt man mit 5nm auf der Stelle. Apple nutzt seit 2020 mit dem A14/M1 5 nm. 2022 und wenig Bewegung. Normalerweise war Apple immer bleeding edge bei Fertigungsprozessen. 2020 in 5 nm war schon super früh. 2022 ist 5 nm irgendwie schon ein Mainstream Prozess und einige wenige gehen schon auf 4nm. Sogar bei fetten GPUs (Hopper und ggf. auch Ada). 4 nm hätte ich bei Apple in 2022 wenigstens erwartet und neue CPU Cores. Ggf. war ja an dem Nuvia Gerücht doch was dran, dass es da einen großen Braindrain gab an dem man jetzt zu knabbern hat.
Oder aber man realisierte, dass man so weit vorn war, dass man jetzt auch mal melken kann. IMO gefährlich.
Sehe ich komplett gegensätzlich.

Ja, weiterhin 5nm war auch für mich kurz ein Schock, aber dann:

1) Sehr gute Verbesserungen bei identischem Verbrauch
2) Maximale Verfügbarkeit direkt garantiert (Apple hatte bei Macbooks permanent enorm starke Lieferprobleme, vor allem ersichtlich ab dem M1 Pro)
3) Apple hat ein eigenes Ökosystem, das weiterhin (auch wenn fast abgeschlossen) noch in der Transition ist

Für Apple der weit wichtigste Punkt ist 2), alles andere nützt dir nichts, wenn du nicht noch mehr Leute ins Ökosystem integrieren kannst, weil du nicht lieferfähig bist.

Auch NV oder wer auch immer kann nicht unendlich 4nm oder darunter liefern, das Angebot wird entweder künstlich verknappt oder die Preise so hoch angesetzt, dass man nur die jeweiligen Marktbereiche abschöpft. Und selbst das ist eine Herausforderung.

robbitop
2022-06-07, 13:08:40
Im Q1 gab es eines der stärksten Wachstumsraten im Bereich Mac mit M1. Die "Knappheit" kann auch einfach mit dem gesteigerten Bedarf einher gehen. M1 war schon relativ disruptiv.

Ich finde es auffällig, dass sie erstmalig im Bereich SoC schon etwas stagnieren. 2021 Cores und 2020 Fertigung in einem 2022 SoC. Die sind nach wie vor erstklassig aber das war ja nicht der Punkt.

Sunrise
2022-06-07, 13:15:16
Im Q1 gab es eines der stärksten Wachstumsraten im Bereich Mac mit M1. Die "Knappheit" kann auch einfach mit dem gesteigerten Bedarf einher gehen. M1 war schon relativ disruptiv.

Ich finde es auffällig, dass sie erstmalig im Bereich SoC schon etwas stagnieren. 2021 Cores und 2020 Fertigung in einem 2022 SoC. Die sind nach wie vor erstklassig aber das war ja nicht der Punkt.
Die vermutlichen Gründe habe ich ja dargelegt, denn ab 14” Macbook Pro sind es 7-9 Wochen Lieferzeit (das sind 2 Monate) aufgrund der enorm gestiegenen Nachfrage. Diese hätte bedient werden können, wenn noch mehr Angebot dagewesen wäre. Auch ich wollte mir eines mit dem M1 Max kaufen, hab es dann aber gelassen, weil die Wartezeit mir zu lange war (Lust verloren, Geld gespart…).

Wenn Apple jetzt ihr Angebot aber reduziert, stagniert das Geschäft.

Der 5nm-Weg ist IMHO ganz klar mit der Verfügbarkeit zu begründen, und Apple stößt in Summe bei allen ihren Bedarfen für die SoCs eben schon in Regionen vor, “wo noch nie ein Mensch zuvor gewesen ist”.

Das nächste iPhone mit den neuen Kernen kommt dann mit 4nm, die Schritte insgesamt werden ab sofort länger dauern, das iPhone geht weiter voran (weil der SoC auch recht kompakt sein sollte). Darauf aufbauend dann weiterhin die M-Generationen.

robbitop
2022-06-07, 13:26:28
Es soll nach Gerüchten auch nur das iPhone 14 Pro den neuen A16 SoC bekommen. Alle anderen iPhone Varianten bekommen den alten A15.

basix
2022-06-07, 13:41:32
Was in die selbe Kerbe schlagen würde: Verfügbarkeit.

smalM
2022-06-07, 13:47:56
Begründung?
Die Quellen die in der deutschen Wikipedia genannten werden, lassen eher auf 16 MB schließen.
TechInsight hat den Cache 0.8x der Fläche des A14 gemessen. Eher wahrscheinlich ist es, das die Density etwas gestiegen ist, anstatt stark gesunken. Andrei hat auch auf 16 MB geschätzt anhand der Messdaten.

In Wikipedia steht auch 32, 64, 128 MB für die größeren Modelle. Andrei sagt aber klar, der SLC wäre 50% größer und wäre also vielfache von 24 MB.
In Wikipedia steht ziemlich viel Quark.

Der SLC von Pro und Max ist irrelevant, der ist völlig anders aufgebaut als im M1.
Bei dem aber lasse ich mich gerne eines Besseren belehren.

Ich finde es auffällig, dass sie erstmalig im Bereich SoC schon etwas stagnieren. 2021 Cores und 2020 Fertigung in einem 2022 SoC. Die sind nach wie vor erstklassig aber das war ja nicht der Punkt.
Das dürfte zum Teil der unterschiedlichen Kadenz von A- und M-Serie geschuldet sein. Die A-Serie bekommt jedes Jahr eine neue CPU, der Zyklus bei der M-Serie läuft ca. 1½ Jahre.
Man wird also vermutlich eine M-Soc-Generation haben, die gleichauf mit den A-SoCs sind und dann eine, die etwas hinterherhinkt, und die dritte, die eine Generation bei den A-Socs überspringt und dann wieder gleichauf ist mit der dann aktuellen A-SoC-Generation.
Ich kann mit vorstellen, daß die M-SoCs dabei die A-SoCs aus Marketinggründen nie überholen dürfen...

robbitop
2022-06-07, 14:21:19
Was in die selbe Kerbe schlagen würde: Verfügbarkeit.
Ja das stimmt.

davidzo
2022-06-07, 14:33:30
Ist eigentlich schon jemandem aufgefallen dass in Apples eigenen Grafiken der M2 nicht so gut nach unten skaliert wie der M1?

Also der Graph für den M2 fängt einfach bei höherer minimal-power an als der für den M1. Sowohl bei der CPU als auch bei der GPU sind das ca. 3Watt statt vormals 2,5Watt:

https://www.apple.com/newsroom/images/live-action/wwdc-2022/Apple-WWDC22-M2-chip-CPU-perf-vs-power-01-220606_big.jpg.large.jpg

https://www.apple.com/newsroom/images/live-action/wwdc-2022/Apple-WWDC22-M2-chip-GPU-perf-vs-power-01-220606_big.jpg.large.jpg

Das könnte ein Indiz dafür sein dass Apples verbesserter N5 Prozess nicht unbedingt in Richtung N4 verbessert ist, sondern in Richtung N5P. Für AMD geht ja schon länger das Gerücht um dass man TSMC um einen echten high power prozess gebeten hat und auch bei Nvidia gab es das gerücht dass sich hinter "4N" mehr von N5P/HPC als von dem mobilprozess N4 versteckt, den Qualcomm und mediatek benutzen.
Der A15 soll ja auch N5P nutzen, von Apple als 5nm+ bezeichnet.

Ein Großteil von den 18% ST performance könnten die Taktraten sein. Der größere L2 wirkt sich nicht so großartig aus. Der A15 zieht auch ganze 8% nur aus höheren ST-Taktraten, bei MT workloads sind es sogar mehr.

Demogod
2022-06-07, 15:07:27
Und was sagt ihr zur Fast resource loading api in metal 3? Vermutlich das Äquivalent zu DirectStorage oder?

smalM
2022-06-07, 17:02:02
Ist eigentlich schon jemandem aufgefallen dass in Apples eigenen Grafiken der M2 nicht so gut nach unten skaliert wie der M1?
Darf ich Dir den Begriff "Marketingfolie" ans Herz legen?
Das ist Werbung, kein Testergebnis.

Erinnert mich daran, daß Leute auf solchen Folien den Abstand von einem Bildchen von der Jahresendmarke auf einem Zeitstrahl abgemessen haben und damit den Veröffentlichungszeitpunkt einer neuen CPU-Genration herausfinden wollten....

Felixxz2
2022-06-07, 17:39:44
Update 07.06.2022 16:33 Uhr Forum »
Weitere für Gamer relevante Neuerungen in macOS Venutra machen deutlich, dass Apple das Thema Gaming für die Zukunft wesentlich stärker auf die Agenda gesetzt hat.

Neben MetalFX Upscaling und Fast Resource Loading bringt macOS 13 auch einen Performance HUD mit Informationen zu CPU- und GPU-Render-Zeiten, ein ressourcenschonendes Screen-Capturing für Game-Streaming sowie die Unterstützung für populäre PC-Lenkräder wie Logitech G920 und Logitech G29.

Der Mitschnitt einer Session von der WWDC 2022 soll noch am 7. Juni weitere Details zu den Neuerungen in Metal 3 thematisieren.

Apple wird nie in den Gaming-Markt einsteigen!!1111:freak:

robbitop
2022-06-07, 18:31:21
Tja und wie viel Prozent der AAA Releases kommen für MacOS? Bisher nur ein Bruchteil. Liegt am Ende ja auch nicht bei Apple sondern bei den Studios zu entscheiden welche Plattformen sie supporten. MacOS Geräte sind da aktuell eher die Marktnische. Es ist ein Bruchteil des PC Gesamtmarktes und davon wiederum ist es nur ein Bruchteil der User die wirklich interessiert an AAA Gaming sind.

Um es noch schwieriger zu machen, muss das Studio dann auch noch eine andere API für 3D nutzen. Kein OpenGL und kein Vulkan Support - man muss die Metal API nutzen. Also wird es nicht mal ein besonders leichter Port.

Ghost1nTh3GPU
2022-06-07, 18:40:09
Mit Capcom hat man da halt einen der letzten grossen Hersteller an der Angel, der noch nicht unter Sony bzw. Microsofts direkter Kontrolle steht. Epic ist ja kein Thema mehr...X-D

Und da Capcom mit RE7 und wohl bald auch RE8/R4R exzellente VR-Spiele hat, wird wohl dir Partnerschaft auf das Apple Headset zielen.
Mit M3 und einem guten AI-Upscaler, der die Tensor-HW nutzt, wäre da wohl PS5/XSX mit 10-15W in Schlagweite.

Felixxz2
2022-06-08, 02:13:28
Tja und wie viel Prozent der AAA Releases kommen für MacOS? Bisher nur ein Bruchteil. Liegt am Ende ja auch nicht bei Apple sondern bei den Studios zu entscheiden welche Plattformen sie supporten. MacOS Geräte sind da aktuell eher die Marktnische. Es ist ein Bruchteil des PC Gesamtmarktes und davon wiederum ist es nur ein Bruchteil der User die wirklich interessiert an AAA Gaming sind.

Um es noch schwieriger zu machen, muss das Studio dann auch noch eine andere API für 3D nutzen. Kein OpenGL und kein Vulkan Support - man muss die Metal API nutzen. Also wird es nicht mal ein besonders leichter Port.


Klar Bruchteil, Nische - oder etwa doch über 1 Milliarde A-SoC Geräte? :freak:
Vielleicht sind doch eher AAA Games Nische?

Wie viele AAA Games hatten denn Sony oder MS vor PS/Xbox? Wie viele Games überhaupt? Nur weil man irgendwo anfängt, heißt das ja ganz sicher nicht, dass man nicht auch ankommt.

robbitop
2022-06-08, 06:01:07
Der Großteil der A SoC Geräte sind iPhones und iPads. Auf denen laufen halt dann die typischen mobile Games. Mit denen verdient Apple bereits gutes Geld. Das ist ja schon Status Quo. Wenn es um AAA Gaming gehen soll ist das aber was anderes.

Zossel
2022-06-08, 06:40:55
Ich sehe Apple nicht mit vollem Committment in die AAA Spielebranche laufen.

Würde Apple mit seinen Zensurallüren und puritanischer Moral bei den Zockern überhaupt landen können?

sth
2022-06-08, 09:15:55
Um es noch schwieriger zu machen, muss das Studio dann auch noch eine andere API für 3D nutzen. Kein OpenGL und kein Vulkan Support - man muss die Metal API nutzen. Also wird es nicht mal ein besonders leichter Port.

Genau das. Apple legt der Spieleentwicklung auf macOS seit Jahr und Tag Steine in den Weg, weil ihnen alles andere wichtiger ist.

Game-Demos und "jetzt will Apple groß in den Gaming-Markt einsteigen"-Artikel kenne ich jetzt schon seit mindestens 20 Jahren (Doom 3-Demo mit John Carmack). Gefolgt ist darauf nie etwas.

Das bisschen Gaming-Markt auf dem Mac hat sich eher trotz als wegen Apple entwickelt, und ist dank einiger "Mass Extinction Events" heute eher kleiner als noch vor ein paar Jahren.

Ghost1nTh3GPU
2022-06-08, 10:24:04
Würde Apple mit seinen Zensurallüren und puritanischer Moral bei den Zockern überhaupt landen können?
Offenbar kann man sich ein RE8 erlauben.

Langfristig wird man im AR/VR/xVerse-Markt nur behaupten können, wenn man sich auch "gewissem" Content öffnet.
Und man kann wohl nicht nur vermuten, dass die Industrie aktuell auch schon auf Apple HW filmt und schneidet.;)

mboeller
2022-06-08, 10:59:27
"M2 Pro" dieses Jahr angeblich in 3nm:

https://www.notebookcheck.com/Apple-M2-Pro-soll-dieses-Jahr-in-3nm-produziert-werden.626494.0.html

robbitop
2022-06-08, 11:18:15
Macht Sinn, das nur mit SoCs für niedrigere Stückzahlen zu machen (higher end). Ich bin gespannt, wie sie den Shrink nutzen werden. Wenn M2 Pro/Max nicht deutlich überproportional Transistoren skaliert (Analog zu M1->M1 Max usw), dann könnte das dessen TDP (zumindest die des M2 Pro) deutlich senken und damit auch "feasible" für die Plattformen machen, die für M2 passen (iPad Pro, 13" Macbooks ohne Kühlung).

smalM
2022-06-08, 20:43:29
Nach Apples üblichen Schema käme M2 Pro/Max im Frühjahr 2023. Das würde mit N3 ganz gut hinhauen.
Fragt sich nur, ob "würde ganz gut hinhauen" nicht die eigentliche Ursache der Meldung ist...

Sunrise
2022-06-08, 23:44:45
"M2 Pro" dieses Jahr angeblich in 3nm:

https://www.notebookcheck.com/Apple-M2-Pro-soll-dieses-Jahr-in-3nm-produziert-werden.626494.0.html
Diese Zerstörung (oder besser Vernichtung, das hört sich passender an) will sich doch echt keiner mehr ansehen.

Unterstützt aber auch die Vermutung, dass die Verfügbarkeit für die “großen Maschinen” dann besser wird, weil Apple hier parallel unterschiedliche Nodes fahren könnte.

Ich muss auf mein Konto aufpassen… das wird hart.

robbitop
2022-06-09, 06:32:57
Naja Qualcomm kommt Ende diesen Jahres mit Nuvia Cores. Ggf gibt es dann mal Wettbewerb. Nvidia arbeitet angeblich auch an einem ARM SoC.

Sunrise
2022-06-09, 12:26:36
Naja Qualcomm kommt Ende diesen Jahres mit Nuvia Cores. Ggf gibt es dann mal Wettbewerb. Nvidia arbeitet angeblich auch an einem ARM SoC.
Das wird hoffentlich dazu führen, dass sie gerade deshalb zu Höchstleistungen getrieben werden.

Abseits der schlechten Makro-News in der Welt, ist es aktuell wirklich sehr sehr spannend (auch CPU- und GPU-Markt generell).

Seitdem die Industrie nichtmehr von Intel "blockiert" wird, gehts voran, eine sehr schöne Entwicklung.

Dieser ARM-Switch bei Apple war aber auch ein Geniestreich sondergleichen, und sie haben es unglaublich gut umgesetzt.

Daredevil
2022-06-09, 12:44:26
GRID Legende kommt ebenso auf den Mac
THtswuiHM18

robbitop
2022-06-09, 12:44:57
@sunrise
Sehe ich alles genauso. Allerdings ist Intel nur partiell daran Schuld. Es fehlte einfach Wettbewerb. Ohne Wettbewerb gibt es wenig Motivation und Incentives für ein hohes Tempo.

Rei-
2022-06-09, 18:08:45
@robbitop meinst du damit einen SoC außerhalb der Switch 2?

robbitop
2022-06-09, 18:27:59
Ja. Wohl was recht Leistungsfähiges. Aber Gerüchte halt - ich weiß nicht mal mehr bei welchem der Leaker ich das vor ein paar Wochen gesehen hab.

Zossel
2022-06-10, 19:17:39
Apple M1 Affected By "PACMAN" Hardware Vulnerability In Arm Pointer Authentication (https://www.phoronix.com/scan.php?page=news_item&px=Apple-M1-PACMAN)

y33H@
2022-06-11, 11:44:09
Apple M2 Die Shot and Architecture Analysis

https://semianalysis.substack.com/p/apple-m2-die-shot-and-architecture?s=r

M2 als Pro/Max soll Tape-out mit 5 nm statt 3 nm hinter sich haben ...

robbitop
2022-06-11, 14:28:28
Merkwürdig dass der Smartphone SoC A15 32 MiB SLC hat und die großen Pad/Macbook SoCs M1/M2 nur 8 MiB. Die sollten doch mehr Bedarf an Bandbreite (durch hitraten steigerung) haben.

w0mbat
2022-06-11, 15:32:13
Die M-chips haben aber auch viel mehr Speicherbandbreite.

smalM
2022-06-13, 12:58:53
Es scheint nicht so sehr auf die doppelte Bandbreite sondern auf die doppelt so vielen Speicherkanäle anzukommen.

Locuza
2022-06-13, 22:44:14
Es gibt natürlich auch ein begrenztes Flächenbudget.
16 MB, nur das SRAM-Array, ist größer als ein GPU-Core (128 ALUs).
Beim A15 ist die Energieeffizienz besonders wichtig, entsprechend wird versucht mehr Daten lokal zu speichern.
Bei der M-Serie kann man in der Hinsicht etwas relaxter sein und mehr Fläche in CPU- und GPU-Kerne investieren.

=Floi=
2022-06-13, 23:22:14
Es gibt natürlich auch ein begrenztes Flächenbudget.

Bei 20mrd für diese art von chip würde ich da nicht mehr mitgehen. Die bauen was in der größe sinnvoll ist.
20mrd sind absurd viel für einen chip, welchen es miollionenfach selbst in tablets gibt.

davidzo
2022-06-14, 11:35:00
Bei 20mrd für diese art von chip würde ich da nicht mehr mitgehen. Die bauen was in der größe sinnvoll ist.
20mrd sind absurd viel für einen chip, welchen es miollionenfach selbst in tablets gibt.

Finde ich nicht. 20Mrd sind eigentlich völlig im Bereich des Erwarteten für einen thin and light Mobilchip in 2021-22.

Der Apple A6x dürfte ca.- 700mio Transistoren gehabt haben (der A7/2013 hat über 1Mrd) und ist in 2012 erschienen. Wenn Laut Moores Law die Transistoren alle zwei Jahre verdoppelt wurden, dann müssten wir heute genau bei 22,4Mrd Transistoren sein. - Passt doch!

Es ist nur Intel die mit ihren Prozessen und Produktstrategie seit Jahren daneben liegen. Es gibt zwar Industrieweit Zweifler von Moores Law, aber nur bei Intel hat man diese Zweifel auch tatsächlich in Roadmaps umgesetzt :freak:.
Das hat ihnen fast ein Jahrzehnt lang zwar Rekord-Profitabilität gesichert, kostet sie jetzt aber die Führungsposition.

Btw, sowohl Keller als auch Gelsinger sind wieder bekennende Anhänger von Moores Law, da hat also ein 180Grad Wechsel in der Leitkultur stattgefunden.

Nehalem ist 2008 als High end Desktop CPU mit 781Mio Transistoren gelauncht. Nach Moores Law müssten wir im also HEDT mittlerweile 99Mrd Transistoren schwere Chips haben, im Mainstream entsprechen 50 und im ultra mobile ca. 20-30. Bei letzterem sind wir nur noch um ca. Faktor 2 off, also liegen lediglich 2 Jahre hinter dem Plan.
Nun im HEDT hat Intel die letzten fünf bis acht Jahre eine beeindruckende Geschichte an Verzögerungen und kompletten Fails aufgestellt.
Aus der 6 monatigen Verzögerung von Sandybrridge-E wurden 1-Jahr mit Ivybridge und Haswell, dann anderthalb Jahre bei Broadwell-E und Skylake-X.
Ab dem Skylake-X refresh ist alles auseinander gefallen und seit Threadripper hat intels HEDT praktisch aufgehört zu existieren (kein icelake hedt etc.). Und wie es aussieht könnte Sapphire Rapids einem ganz ähnlichen Schicksal zu Opfer fallen.

Wir dürfen uns keine Illusionen machen, Alderlake ist eine reine Mainstream CPU, kein HEDT. Das ist der Nachfolger vom i7-870, 2600k, 3770k etc, die mal mit 280$ angefangen haben.

Ailuros
2022-06-14, 15:15:49
Finde ich nicht. 20Mrd sind eigentlich völlig im Bereich des Erwarteten für einen thin and light Mobilchip in 2021-22.

Betrachtet man nur steril die Anzahl der Transistoren (+4 Mrd. vs. M1@16b) sind +25% an Transistoren fuer einen "refresh" Herstellungsprozess wirklich innerhalb der Erwartungen.

Ich weiss jetzt nicht wo die CPU cores im M2 takten aber zumindest die GPU im M2 duerfte um zumindest 10% hoeher takten welches aber auch nicht umsonst sein wird:

https://www.anandtech.com/show/17431/apple-announces-m2-soc-apple-silicon-updated-for-2022

With a combination of a larger core count and what would seem to be a 10% or so increase in GPU clockspeeds (based on TFLOPS), Apple is touting two performance figures for the M2’s GPU. At iso-power (~12W), the M2 should deliver 25% faster GPU performance than the M1. However the M2’s GPU can, for better or worse, also draw more power than the M1’s GPU. At its full power state of 15 Watts, according to Apple is can deliver 35% more performance.

2 zusaetzliche GPU Bloecke (sprich cores von 8 auf 10) und dazu nochmal 10% mehr Takt ist schon etwas gewagt. Damit ich auf die 3.6 TFLOPs komme muss die GPU um die 1.4GHz takten. Die M1 GPU taktet wenn ich mich nicht irre irgendwo um die 1.27GHz.

robbitop
2022-06-14, 15:30:04
Würde mich nicht wundern, wenn ein M2 die Performance des Xbox Series S SoCs hat. Schon beachtlich für nur 15W. Natürlich völlig irrelevant, da es praktisch kaum Spiele für die Plattform gibt.

][immy
2022-06-14, 16:23:10
Würde mich nicht wundern, wenn ein M2 die Performance des Xbox Series S SoCs hat. Schon beachtlich für nur 15W. Natürlich völlig irrelevant, da es praktisch kaum Spiele für die Plattform gibt.
Zumal an sich der Chip allein schon zu teuer sein dürfte um ihn in so etwas wie einer Konsole zu verbauen. In der Hoch-Preis Apple-Welt ist das natürlich machbar. Aber der Chip ist schon extrem gewaltig für das was er eigentlich tun soll.

Aber hat apple die Performance des M1 nicht schon in die Richtung einer RTX 3070 gehend bezeichnet? Da sollte der M2 doch eigentlich weite Kreise um den Series S SoC ziehen.

davidzo
2022-06-14, 18:28:39
[immy;13030830']
Aber hat apple die Performance des M1 nicht schon in die Richtung einer RTX 3070 gehend bezeichnet? Da sollte der M2 doch eigentlich weite Kreise um den Series S SoC ziehen.

Nicht die Tabletversion von der hier die Rede ist, bzw. dessen Nachfolger der M2 ist.

Der M1pro ziehlt auf midrange mobile Grafik mit 16 GPU-Kernen und 5,3Tflops und die M1Max version mit 32 Kernen und 10,4Tflops soll highend Mobile Grafik paroli bieten. Laut Apple Grafik ist damit die RTX3080 labtop gemeint, die bei 160Watt etwa 10% mehr Leistung als der M1max abliefern soll.
Die Rohleistung kann sich mit Ampere aber nicht wirklich vergleichen.

Im Desktop gibts noch den M1 Ultra mit 20Tflops und 800gb/s. Das ist dann wirklich auch mit Desktop Highend GPUs vergleichbar. Das Featureset ist ohne Raytracing Cores und ohne AV1 Decoder aber bereits etwas veraltet.

robbitop
2022-06-14, 19:32:07
[immy;13030830']Zumal an sich der Chip allein schon zu teuer sein dürfte um ihn in so etwas wie einer Konsole zu verbauen. In der Hoch-Preis Apple-Welt ist das natürlich machbar. Aber der Chip ist schon extrem gewaltig für das was er eigentlich tun soll.

Aber hat apple die Performance des M1 nicht schon in die Richtung einer RTX 3070 gehend bezeichnet? Da sollte der M2 doch eigentlich weite Kreise um den Series S SoC ziehen.

So teuer dürfte der Chip gar nicht sein. 141 mm2 Fläche. Das entspricht einer Einsteiger GPU. Sowas wird es in 5 nm in 2023 sicherlich geben.

Der M1 war eher in Richtung einer gtx1660. Du meinst ggf den M1 Max oder M1 Ultra.

Locuza
2022-06-14, 23:17:00
Auf Basis der PHYs und L2-Caches ist der M2-Chip eher ~155 mm² groß, Apples angezeigte Bildskalierung ist kleiner als in echt.

Rein von den Rohdaten ist ein M1 Max sehr vergleichbar mit der PS5 GPU bzw. einer 6600 XT.
Der M1 kommt dagegen "nur" auf 2.6 TFs, 84 GTex/s und 41 GPix/s.
Eine GTX 1660 ist rein auf dem Papier ein gutes level darüber mit >5.3 TFLOPs, 166 GTex/s und 91 GPix/s.
Der M1 Pro positioniert sich in der Hinsicht sehr nah an eine GTX 1660.
https://abload.de/img/apple-m-series-annoti70j6o.jpg

robbitop
2022-06-15, 08:17:25
IIRC war M1 in Tomb Raider schneller als eine 1660 und fast an der 2060 dran. Ggf holt Apple einfach mehr raus pro tflop. Fette onchip caches und tbdr vs imr (auch wenn der Vorteil heute kleiner ist als früher). Ggf holt man auch mehr Auslastung pro FPU raus.

pixelguy
2022-06-15, 10:23:09
Kann man irgendwie einschätzen, was der M1 Max im Vergleich zum PS5 SoC kostet?

Immerhin produziert den Apple ja auch in sehr hohen Stückzahlen.
Ein M2 Pro dürfte den wahrscheinlich auch schon schlagen...

Schlimm, dass die (scheinbar) nicht richtig in den Gaming-Bereich wollen... Also mit eigener AppleTV Konsole.

davidzo
2022-06-15, 11:02:26
Kann man irgendwie einschätzen, was der M1 Max im Vergleich zum PS5 SoC kostet?


Mehr als Faktor 2

N5 kostet +70% mehr vs N7 (16.988 $ vs 9346 $)
Der PS5 SOC ist außerdem 15% kleiner (360mm2 vs 420mm2)

https://www.tomshardware.com/news/tsmcs-wafer-prices-revealed-300mm-wafer-at-5nm-is-nearly-dollar17000#:~:text=According%20to%20the%20estimates%2C%20TSMC,its%2016nm%20or%2 012nm%20technology.

Also Faktor 2,12 um es genau zu sagen.

Das macht für Apple aber keinen großen Unterschied. Apple verkauft ganze Devices mit sehr teuren Chassis, Screens, teurer Software, etc.
Wenn die CPU da um +110% teurer wird, dann macht das in der gesamten BOM vielleicht 5% Aufpreis aus. Ein Aufpreis der Apple Kunden nichtmal auffällt.
Bei einer Konsole wie der PS5 macht der SOC locker ein viertel der BOM aus und würde damit schmerzlich in Sonys Marge schneiden bzw. das Marktsegment verfehlen.

Eine 2000€ Konsole von Apple, darauf wartet doch niemand wirklich, oder doch?

Btw, der M1max ist auch erheblich schneller als der PS5 SOC. Und zwar nicht nur bei der CPU. Bei den Taktraten die Sony fährt dürfte die CPU locker 50% vor dem Zen2 SOC liegen. Aber ich denke auch die GPU ist weitaus schneller als der RDNA1/2 mix von sony, weil sie wie robbitop schon sagte wahrscheinlich über tbdr und caches weitaus mehr auf die Straße bringt als die Rohleistung suggeriert. + 30-50% fände ich auch da nicht abwegig.

Also die beiden Socs sind nicht wirklich vergleichbar. Aber der M1max ist halt auch nicht doppelt so schnell. Also was die power per area bzw. transistor angeht sind SONY/AMD noch sehr konkurrenzfähig. Aber das ist ja immer so wenn man die IPC und Effizienz steigern will...

Locuza
2022-06-15, 14:09:06
IIRC war M1 in Tomb Raider schneller als eine 1660 und fast an der 2060 dran. Ggf holt Apple einfach mehr raus pro tflop. Fette onchip caches und tbdr vs imr (auch wenn der Vorteil heute kleiner ist als früher). Ggf holt man auch mehr Auslastung pro FPU raus.
"Einfach" mal Faktor >2 gegenüber Nvidia Turing, mit 68 GB/s Gesamtbandbreite und gerade mal 8 MB SLC. :D
Also irgendwann müssen gesunde Zweifel eintreten und noch einmal genauer nachgeschaut werden. ;)

Eine mobile Mobile 1650 lag 30-48% in Front in Rise of the Tomb Raider gegenüber dem M1, die 1660 Ti war 68-107% schneller:
https://images.anandtech.com/graphs/graph16252/119359.png
https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/3


Die mobile 1660 Ti mit 80W war bei Shadow of the Tomb Raider 18% schneller (57.7 vs. 48.84).
Das kommt dann hin mit ~1660 level, aber auf die mobile Variante bezogen.
https://abload.de/img/m1prothkc6.jpg

Das Level zeigt sich auch grob bei anderen Spielern, Borderlands 3 mal ausgenommen:
https://www.techspot.com/review/2357-apple-m1-pro/

Da hat der Kopf wohl eher M1 Pro Ergebnisse für den M1 abgespeichert.

Der TBDR-Vorteil sollte mittlerweile deutlich kleiner als früher ausfallen, seitdem Nvidia und AMD Tiled Rasterizer verwenden und eine sehr gute Delta Color Compression-Implementierung,die iirc bei Apple überraschend spät Einzug fand.
Theoretisch konnte auch AMD's Vega Rasterizer als TBDR arbeiten:
Pixel shading can also be deferred until an entire batch has been processed, so that only visible foreground pixels need to be shaded.
This deferred step can be disabled selectively for batches that contain polygons with transparency.
Deferred shading reduces unnecessary work by reducing overdraw (i.e., cases where pixel shaders are executed multiple times when different polygons overlap a single screen pixel).
Deferred pixel processing works by using a scoreboard for color samples prior to executing pixel shaders on them.
If a later sample occludes or overwrites an earlier sample, the earlier sample can be discarded before any pixel shading is done on it.
The scoreboard has limited depth, so it is most powerful when used in conjunction with binning.
https://en.wikichip.org/w/images/a/a1/vega-whitepaper.pdf

In der Praxis ist das natürlich ungleich komplizierter zu bewerten, da nicht in allen Fällen Tiled-Based-Rendering oder TBDR zum Einsatz kommt, was auch besser sein kann.

Ab M1 Pro/Max sind 24/48 MB SLC vermutlich viel eher die Performancebooster, wenn man von ungefähr gleichen Rohleistung ausgeht und fair optimierten Apps.

smalM
2022-06-15, 22:33:11
M2 in GB5 (https://browser.geekbench.com/v5/cpu/compare/15482594?baseline=11843515)
Wenn gefälscht, ist mir zumindest in den Detailangaben kein grober Schnitzer aufgefallen...

Mehr als Faktor 2

N5 kostet +70% mehr vs N7 (16.988 $ vs 9346 $).

Das ist Quark.
Das hat sich einer aus den Fingern gesaugt, der das als Hobby betreibt, ohne echtes Wissen. Hat einen wilden Investitionsplan für N5 aufgestellt und von da den Preis pro Wafer zurückgerechnet.

Der_Korken
2022-06-15, 22:44:10
M2 in GB5 (https://browser.geekbench.com/v5/cpu/compare/15482594?baseline=11843515)
Wenn gefälscht, ist mir zumindest in den Detailangaben kein grober Schnitzer aufgefallen...


Bei 3,5Ghz und nur knapp 10% in ST sieht das für mich nach keinen IPC-Steigerungen am Core aus. Bei MT hilft eine höhere Effizienz für noch mehr Takt, sonfern der M1 nicht schon permanent auf allen Cores mit vollem 3,2Ghz lief.

smalM
2022-06-15, 23:23:45
Avalanche ist auf höhere Energieeffizienz ausgelegt als Firestorm.
Der A15 ist ST nicht nur 12,5% schneller als der A14, er braucht für die gleiche Aufgabe auch noch 16,5% weniger Energie.
Dasselbe Ergebnis kann man auch für M2 gegen M1 erwarten.

Ailuros
2022-06-16, 09:26:10
"Einfach" mal Faktor >2 gegenüber Nvidia Turing, mit 68 GB/s Gesamtbandbreite un
Der TBDR-Vorteil sollte mittlerweile deutlich kleiner als früher ausfallen, seitdem Nvidia und AMD Tiled Rasterizer verwenden und eine sehr gute Delta Color Compression-Implementierung,die iirc bei Apple überraschend spät Einzug fand.
Theoretisch konnte auch AMD's Vega Rasterizer als TBDR arbeiten:

https://en.wikichip.org/w/images/a/a1/vega-whitepaper.pdf

In der Praxis ist das natürlich ungleich komplizierter zu bewerten, da nicht in allen Fällen Tiled-Based-Rendering oder TBDR zum Einsatz kommt, was auch besser sein kann.

Ab M1 Pro/Max sind 24/48 MB SLC vermutlich viel eher die Performancebooster, wenn man von ungefähr gleichen Rohleistung ausgeht und fair optimierten Apps.

Zwischen tile based, ein bisschen tiling + ein bisschen deferred und einem vollem TBDR gibt es immer noch ziemlich grosse Unterschiede und jede Loesung hat ihre eigene Vor- und Nachteile. Ich bleibe nach wie vor dabei dass das Optimum irgendwo in der Mitte liegt; fuer eine Unzahl an Geometrie ist ein IMR ideal und fuer eine Unzahl an pixel shading ein TBDR und selbst dieses ist brutal vereinfacht.

Apple mag immer noch auf IMG's Grundarchitektur basieren, hat die ALUs seit einigen Generationen zum absolut besseren umgeschrieben verwendet aber auch nicht alle Methoden die IMG in ihren neuesten Architekturen implementiert. Noch schlimmer Apple ist unter den letzten IHVs die intensiv in Spiele-relative Treiber-Optimierungen investieren wuerde wobei natuerlich synthetische benchmarks eine andere Geschichte sind:

https://gfxbench.com/result.jsp?benchmark=gfx50&test=778&order=score&base=gpu

Egal ob man "best score" oder "median score" benutzt positionieren sich Apple's GPUs im Bereich (mehr oder weniger) wo Apple's marketing verspricht. Dass danach Apple Spiele eigentlich wurscht sind, ist ein total anderes Kapitel. Es haelt auch keinen Benutzer etwas davon ab jegliche desktop GPU so weit wie es geht zu uebertakten.

Von dem abgesehen soll in M2 eine "neue GPU" stecken. Bis jetzt hab ich noch keine Indizien sehen koennen um was es sich handelt, aber bis jetzt klingt mir das Ganze eher nach einem refresh zum vorigen M1 Material.

davidzo
2022-06-16, 15:14:02
Das ist Quark.
Das hat sich einer aus den Fingern gesaugt, der das als Hobby betreibt, ohne echtes Wissen. Hat einen wilden Investitionsplan für N5 aufgestellt und von da den Preis pro Wafer zurückgerechnet.

Könnte sein das es übertrieben ist. Bezieht sich letzendlich aber auch auf 2020, ist also sowieso nicht mehr gültig, denn N5 ist nicht mehr risk sondern in voller volume-production.

Laut AMDs jüngster Folie zum financial Analyst Day ist der Kostenanstieg eines 250mm2 DIEs von N7 nach N5 ca. +35%. Nicht so steil wie 12nm auf N7, aber immer noch sehr steil.
Das erscheint deutlich realistischer, sind aber immer noch Faktor 1.6 sind zwischen PS3 SOC (360mm2-N7)) und M1Max (420mm2-N5). Zumal der M1max wohl kaum an die Stückzahlen des PS5 Socs heranreicht und somit der Sockelbetrag für Produktionslinie, Masken, Packaging etc. deutlich höher sein dürfte. Das Package des M1max ist ja schon wesentlich aufwändiger als das einfache Flipchip der PS5. Es wird also trotzdem nah an Faktor 2x sein...

smalM
2022-06-17, 11:58:27
Laut AMDs jüngster Folie zum financial Analyst Day ist der Kostenanstieg eines 250mm2 DIEs von N7 nach N5 ca. +35%.
Das sieht schon deutlich besser aus!

VooDoo7mx
2022-06-19, 19:51:44
Die M-chips haben aber auch viel mehr Speicherbandbreite.

Und einen deutlich größeren L2 Cache.

Mittlerweile gibt es auch Total War Warhammer III für Mac OS. So wie es da aussieht hat der M1 Max im integrierten Benchmark ungefähr die Performance wie eine Desktop 3050.
Da ist noch viel zu tun...

Ailuros
2022-06-29, 10:48:12
Erste M2 Resultate:

https://gfxbench.com/compare.jsp?benchmark=gfx50&did1=107251875&os1=OS+X&api1=metal&hwtype1=GPU&hwname1=Apple+M2&D2=Apple+M1

In "anstrengenden" tests wie Aztec High Tier liegt der Unterschied bei guten 45% :wink:

dildo4u
2022-06-29, 10:55:20
Das neue AIR könnte ein Ziemlicher flop werden da Apple Performance mit erhöhten TDP erzeugt.

5JATGoxXX4o

robbitop
2022-06-29, 11:03:32
Sehr workload abhängig vermute ich. Bei Volllast ja, bei Teillast wahrscheinlich eher weniger. Die Airs sind ja in der Regel Geräte die selten auf Dauervolllast laufen.

Ailuros
2022-06-29, 11:49:38
Sehr workload abhängig vermute ich. Bei Volllast ja, bei Teillast wahrscheinlich eher weniger. Die Airs sind ja in der Regel Geräte die selten auf Dauervolllast laufen.

Wenn man sich das video anschaut dann sind die Vergleiche zwischen M1 Pro und M2 Pro ziemlich enttaeuschend fuer's letzte. Ich als Kunde der sich nach einem Pro orientiert, wuerde mich nur schwer fuer's M2 entscheiden.

DrumDub
2022-06-29, 12:14:51
Wenn man sich das video anschaut dann sind die Vergleiche zwischen M1 Pro und M2 Pro ziemlich enttaeuschend fuer's letzte. Ich als Kunde der sich nach einem Pro orientiert, wuerde mich nur schwer fuer's M2 entscheiden. apple kann halt doch nicht zaubern: Die gesteigerte Leistung geht jedoch mit einem Plus beim Energiebedarf einher, was die Effizienz zumindest unter Last klar negativ beeinflusst. https://www.golem.de/news/apple-m2-im-test-die-revolution-ist-abgesagt-2206-166359-3.html

robbitop
2022-06-29, 12:30:11
IMO sollte man schon wenigsten den Pro oder Max SoC für ein Macbook Pro nehmen. Das 13" MBP hat gegenüber dem Air einfach zu wenig Mehrwert.

mboeller
2022-06-29, 12:45:38
"M2 Pro" dieses Jahr angeblich in 3nm:

https://www.notebookcheck.com/Apple-M2-Pro-soll-dieses-Jahr-in-3nm-produziert-werden.626494.0.html

... es gibt also einen Grund für diese Gerüchte.

Ailuros
2022-06-29, 12:47:55
apple kann halt doch nicht zaubern: https://www.golem.de/news/apple-m2-im-test-die-revolution-ist-abgesagt-2206-166359-3.html

Zweifellos. IMHO ist es einfach ein sinnloses Produkt unter solchen Konstanten, welches aber wohl keinen IHV davon abhalten wird etwas Neues zu praesentieren.

smalM
2022-06-29, 12:58:03
Apple wird sich schon was dabei gedacht haben, das 13" MBP mit M1 nicht als einfaches MacBook ohne Pro einzuführen.
Ich kann nur nicht erkennen, was...

@Ailuros
Ich nehme mal an, die GPU im M1 ist mit dem LPDDR4X gehandicapt?