PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25

RLZ
2020-06-24, 12:36:42
Tja, ein schlechtes Beispiel: Tesla ist in Teilen besser (Antrieb), das Auto an sich ist nicht besser/schlechter als die anderen. Desweiteren ist diese/ähnliche Antriebstechnologie bei den deutschen Autoherstellern schon im letzten Jahrtausend spruchreif gewesen, das wurde nur firmenpolitisch nie durchgezogen. Habe hierzu Insiderwissen. Das macht den Vergleich obsolet - weil bei Intel & AMD hält niemand Technologie zurück.
Zwar eigentlich andere Baustelle als der Thread, aber Tesla ist auch noch massiv besser bei Software, Integration von verschiedenen Systemen, Fertigungsoptimierung, Time to Market und modernen Entwicklungsprozessen. Ihr vertikale Integration und Denkweise erlaubt es ihnen mit initialien Investments die Fertigungskosten langfristig extrem stark zu senken.

Sehr gut gesagt (bezogen auf die komplette Rede). Apple muß keine absolute Performance-Krone bieten, da geht es um andere Dinge. Den Rest biegt das Marketing gerade. Genau deswegen ist Apple auch nicht im Zwang, die höchste Performance zu bauen - und wird sie demzufolge auch nicht bauen.
Halte ich auch für komplett falsch. Apple ist DIE Luxusmarke in dem Bereich. Da erwartet man einfach die höchste Performance. Für mich persönlich war das auch einer die ausschlaggebenden Gründe auf ein iPhone zu wechseln. Apple liegt bei der CPU Performance im Smartphone Bereich einfach mehrere Generationen vor der Konkurrenz und bietet damit eine wesentlich höhere Zukunftssicherheit. Bis andere High-End Smartphones auf ein ähnliches Niveau kommen, ist das iPhone so alt, dass ich eh ein neues kaufe.

Matrix316
2020-06-24, 12:39:34
Zwar eigentlich andere Baustelle als der Thread, aber Tesla ist auch noch massiv besser bei Software, Integration von verschiedenen Systemen, Fertigungsoptimierung, Time to Market und modernen Entwicklungsprozessen. Ihr vertikale Integration und Denkweise erlaubt es ihnen mit initialien Investments die Fertigungskosten langfristig extrem stark zu senken.


Halte ich auch für komplett falsch. Apple ist DIE Luxusmarke in dem Bereich. Da erwartet man einfach die höchste Performance. Für mich persönlich war das auch einer die ausschlaggebenden Gründe auf ein iPhone zu wechseln. Apple liegt bei der CPU Performance im Smartphone Bereich einfach mehrere Generationen vor der Konkurrenz und bietet damit eine wesentlich höhere Zukunftssicherheit. Bis andere High-End Smartphones auf ein ähnliches Niveau kommen, ist das iPhone so alt, dass ich eh ein neues kaufe.
Das liegt aber IMO eher daran, dass man iOS selbst baut und nicht was anderes verwendet. Ein aktuelles Android dürfte auf den aktuellen iPhones relativ langsam laufen. Nur wenige Kerne, kaum RAM. iOS dürfte halt optimiert ohne Ende sein.

RLZ
2020-06-24, 13:31:16
Das liegt aber IMO eher daran, dass man iOS selbst baut und nicht was anderes verwendet. Ein aktuelles Android dürfte auf den aktuellen iPhones relativ langsam laufen. Nur wenige Kerne, kaum RAM. iOS dürfte halt optimiert ohne Ende sein.
Das OS dürfte einen vernachlässigbaren Einfluss auf CPU Benchmarks haben.
Sowohl in SPEC Benchmarks (https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/4) als auch in Anwendungsbenchmarks (https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/5) sieht man, dass die Konkurrenz sich inzwischen langsam an iPhone 8 Niveau rangetastet hat, während Apple seitdem jedes Jahr den IPC massiv gesteigert hat und bis auf Ausnahmen mit der Konkurrenz den Boden aufwischt.

YfOrU
2020-06-24, 13:39:17
... die grossen softwarehersteller werden sicherlich nen furz tun zum auf ARM optimieren, wozu auch, 90% der käuferschaft hat eh nen richtiges OS = win

Der Anteil an Usern der für Software (nicht Spiele) Geld in die Hand nimmt ist auf Apples OSX (analog zu iOS) sicherlich höher als bei Microsoft Windows. Hinzu kommt das auf Geräten mit OSX auch proportional häufiger Software wie Adobe CC, AutoCAD etc. läuft. Das ist nunmal Premium und die Käuferschicht damit zahlungskräftiger. Deshalb werden die großen Softwarehersteller auch mitziehen. Für die ist hier (mit neuen Versionen, kostenpflichtigen Updates oder gleich Abos) gutes Geld zu verdienen.

Daredevil
2020-06-24, 13:40:27
Das OS dürfte einen vernachlässigbaren Einfluss auf CPU Benchmarks haben.
Das sieht bei MacBooks aber stark anders aus, weil Apple selbst Intel CPUs besser auf macOS laufen lässt, als auf Windows.
Durch Optimierungen durch die Fancurve ( Temp Target 100 Grad ) und höhere Taktraten ( leichtes Undervolting ).

Ailuros
2020-06-24, 13:47:11
Das liegt aber IMO eher daran, dass man iOS selbst baut und nicht was anderes verwendet. Ein aktuelles Android dürfte auf den aktuellen iPhones relativ langsam laufen. Nur wenige Kerne, kaum RAM. iOS dürfte halt optimiert ohne Ende sein.

Bei Android werden eine Unzahl von verschiedenen SoCs bedient. Wuerde Google und co. nur fuer einen einzigen SoC pro Generation Android Version N entwickeln dann wuerde das letzte auch mit bescheidener hw auskommen.

Nur weil jegliche sw Platform in der Android Welt verdammt beschissen entwickelt wurde, heisst es bei langem gar nichts. Zwischen chinesischen Handies gibt es oefters Welten an qualitativen Unterschieden was sw betrifft zwischen z.B. Huawei und Xiaomi.

D4ve
2020-06-24, 14:25:14
cinebench wird der ARM komplett zerfetzt werden, blender auch... ARM kann wenige sachen gut(die dafür massiv besser als x86), aber dann wars das auch schon... die grossen softwarehersteller werden sicherlich nen furz tun zum auf ARM optimieren, wozu auch, 90% der käuferschaft hat eh nen richtiges OS = win

Abwarten... für Blender soll ja recht bald ein Update kommen.
http://www.cgchannel.com/wp-content/uploads/2020/06/200623_AppleSiliconMacs_Blender.jpg
"We’ve already done some of the initial work for the most widely used open source projects, and will be publishing patches to them in the next next few days," said Apple VP Andreas Wendker (Quelle (http://www.cgchannel.com/2020/06/apple-ditches-intel-cpus-in-macs-in-favour-of-its-own-chips/), bzw. State of Union Talk (https://developer.apple.com/videos/play/wwdc2020/102/)).
Im Anschluss hoffe ich das jemand auf dem DevKit mal den BlenderBench macht, dass man mal ein Gefühl bekommt. Hat mich bei der Keynote schon gestört, dass sie bei Maya nur den Viewport aber nicht Arnold gezeigt haben... Generell wäre aber mal die Frage wie wichtig 90% der Käuferschaft Cinebench oder Blender ist, der Kreis der C4D und Blender-User ist generell eher gering.

Ich bezweifle auch dass bei Apple diese Entscheidung gefallen wäre wenn sie sich des Performance-Potentials nicht sicher gewesen wären, schlechte Presse darüber braucht auch ein Laden wie Apple nicht.

pixelguy
2020-06-24, 14:41:14
90% der käuferschaft hat eh nen richtiges OS = win

Ja, genau... ein richtiges OS also...
Damit disqualifizierst du dich ja selbst.

Ich muss manchmal wegen der Steuer auf Windows wechseln. Das fühlt sich immer sehr sehr richtig an alles. ;D

Aber das ist von mir aus Geschmacksache. macOS jedoch abzusprechen, dass es ein "richtiges" OS ist, hat schon nichts mehr mit der Realität zu tun.

Daredevil
2020-06-24, 14:43:22
cinebench wird der ARM komplett zerfetzt werden, blender auch... ARM kann wenige sachen gut(die dafür massiv besser als x86), aber dann wars das auch schon... die grossen softwarehersteller werden sicherlich nen furz tun zum auf ARM optimieren, wozu auch, 90% der käuferschaft hat eh nen richtiges OS = win
Ok Boomer.
Kannst du das ganze geschreie hier von dir eigentlich auch belegen, oder bist du gerade so in Stammtisch laune?

Matrix316
2020-06-24, 14:52:01
Ja, genau... ein richtiges OS also...
Damit disqualifizierst du dich ja selbst.

Ich muss manchmal wegen der Steuer auf Windows wechseln. Das fühlt sich immer sehr sehr richtig an alles. ;D

Aber das ist von mir aus Geschmacksache. macOS jedoch abzusprechen, dass es ein "richtiges" OS ist, hat schon nichts mehr mit der Realität zu tun.

Die Software ist wichtiger als das OS oder die Hardware.

Wenns alle Spiele und alle Software von A-Z auf dem Amiga gäbe, würden heute die meisten Leute wahrscheinlich einen Amiga nutzen. :freak: So konnte man in 2-3 Sekunden die Workbench booten und Turrican lief super flüssig, aber Wing Commander hat geruckelt ohne Ende. Am Ende hat sich dann Wing Commander durchgesetzt...

Hätte Commodore oder Escom oder wer dran war in den 90ern auf X86 und Linux gesetzt - so ähnlich wie Apple später - würde es eventuell das System noch offiziell geben. :frown:

bluey
2020-06-24, 15:25:32
Ok Boomer.
Kannst du das ganze geschreie hier von dir eigentlich auch belegen, oder bist du gerade so in Stammtisch laune?

Komisch. Der Marktanteil von macOS sieht gar nicht mal so umrelevant auf. Aber ist ja kein richtiges OS, weil es kein Windows Start Menü hat. Stimmt ja, dass Pro-Users nur Windows nutzen. Sieht man ja in Firmen wie Google, Facebook oder jedes andere erfolgreiche Startup. Alles Windows Domäne. Wie realitätsfremd man sein kann...

https://de.statista.com/statistik/daten/studie/157902/umfrage/marktanteil-der-genutzten-betriebssysteme-weltweit-seit-2009/

smalM
2020-06-24, 15:57:45
Glaube nicht, dass ARM mit einem Ryzen 3950X oder so mithalten kann. Zumindest nicht in den iMacs oder Mac Minis - zumindest was Multicoreleistung betreffen wird.
Echt jetzt, die werden in einem Mac mini nicht mit einer 190W-CPU mithalten können? Ich bin schockiert, jawohl, SCHOCKIERT!

Was immer Du nimmst, hör auf damit... :wink:

Matrix316
2020-06-24, 16:31:57
Echt jetzt, die werden in einem Mac mini nicht mit einer 190W-CPU mithalten können? Ich bin schockiert, jawohl, SCHOCKIERT!

Was immer Du nimmst, hör auf damit... :wink:
Also der 3950X ist garnicht so wild was Stromverbrauch betrifft. Ich denke der sollte auch in einem Mac Mini laufen. :)

Sunrise
2020-06-24, 17:16:36
...Aber ich halte Intel Ingenieue nicht für so schlecht, wie er sie darstellt. Klar, 10 nm haben sie verhunzt, aber dafür 14 nm so stark ausgereizt, dass ich mich fragen müsste, ob TSMC das geschafft hätte. Natürlich muss man sich die Frage nicht stellen, wenn man bessere nodes generell hinbekommt.
TSMC plant immer relativ konservativ und kommt ebenso mit Iterationen der Prozesse auf den Markt. Schau dir mal 16nm an, was es dort an verschiedenen Prozessvarianten gibt, 12nm ist ja auch praktisch eine Abwandlung davon. Die haben einen sehr guten Fokus, ähnlich Apple, während Intel und Samsung eher in die Kategorie "Dampfplauderer" nach außen auftreten, was aus meiner Erinnerung damals bei Intel nicht so war. Intel kam komischerweise immer dann in Probleme, wenn sie dachten, sie sind die geilsten und nichts kann schief gehen und Konkurrenz existiert nie wieder, überspitzt formuliert.

Natürlich hatte Intel keine Wahl, aber würde TSMC in ähnlicher Situation stehen, fokussiert man sich eben auf das was man hat, einen stabilen Prozess, und optimiert sich die Finger wund. Bei TSMC ist dies aber schon seit Jahr(zehnten) kein Thema, die liefern immer sehr sehr pünktlich. Hier werden allerdings Spezialwünsche immer gerne bedient.

Aus dem Kopf waren es nur halbgare Schnellschüsse wie 20nm (Apple) oder damals bei 0.13um, als man mit hoher Leakage zu kämpfen hatte, während AMD sich bewusst für 0.15um entschied (R300).

Seitdem laufen die wie ein Uhrwerk.

Inbesondere deshalb sollte man da wirklich optimistisch sein, die Apple-Semi-Leute sind einfach ein eingespieltes Team und die scheinen da nichts anbrennen zu lassen und perfekt mit TSMC zusammenzuarbeiten, AMD scheint ebenso sehr gut mit TSMC auszukommen, wenn man das mal im Vergleich zu dem GlobalFoundries-Desaster ohne Ende(tm) sieht.

Wörns
2020-06-24, 17:36:38
Bei Intel muss man bedenken, dass sie vielleicht könnten, wenn sie denn wollten.
Und sie wollen nicht, wenn der alte Prozess noch wirtschaftlicher ist als der neue und der Konkurrenzdruck überschaubar bleibt.
Wenn Intel eine Foundry wäre (zu geringem Anteil ist das ja sogar der Fall), die vom Foundry Geschäft leben muss, und seinen Kunden Roadmaps versprochen hätten, die mit der Konkurrenz verglichen werden, dann wäre Intel prozesstechnisch sicher viel weiter.
Ich schreibe Intel noch nicht ab. Irgendwann haben die ihren Prozess im Griff und kommen mit Macht zurück.
MfG

biohaufen
2020-06-24, 17:43:50
Das liegt aber IMO eher daran, dass man iOS selbst baut und nicht was anderes verwendet. Ein aktuelles Android dürfte auf den aktuellen iPhones relativ langsam laufen. Nur wenige Kerne, kaum RAM. iOS dürfte halt optimiert ohne Ende sein.

Nach dieser Betrachtung wäre ein FX9590 mit 32GB RAM ja super klasse...
Anzahl der Threads und Arbeitsspeicher geben noch kein Anhaltspunkt für Performance.

cinebench wird der ARM komplett zerfetzt werden, blender auch... ARM kann wenige sachen gut(die dafür massiv besser als x86), aber dann wars das auch schon... die grossen softwarehersteller werden sicherlich nen furz tun zum auf ARM optimieren, wozu auch, 90% der käuferschaft hat eh nen richtiges OS = win

Das behauptest du immer wieder ohne irgendeinen Beweis und SPEC2006 beweist immer noch das Gegenteil da es viele Beispiele durch die Bank weg testet.
Die großen Softwarehersteller brauchen zum Teil auch nicht ARM spezifisch optimieren, das kann auch der Compiler.
Natürlich müssen entsprechende Libs mitspielen.

Aha und Windows ist auch das einzig richtige OS, Linux und macOS nur Randerscheinungen?
Für Consumer vielleicht richtig, sonst auch nur schlecht pauschalisiert.

Daredevil
2020-06-24, 18:05:23
Also der 3950X ist garnicht so wild was Stromverbrauch betrifft. Ich denke der sollte auch in einem Mac Mini laufen. :)
Ich glaube du schaust da ein bisschen zu Oberflächlich auf die Zahlen.
Der 3950X ist ein Prozessor, also der Motor eines Autos.
Ein Apple SoC ist viel mehr als das mit seinem Security Enclace, die ML Geschichten, Bilderkennung, Grafikbeschleunigung, T2 Chip usw.

Apples Custom Chips, die heute auch schon einen riesen Unterschied machen ( Video Decoding ohne T2 auf nem Dual Core? lol ), entlasten sehr effizient den Hauptprozessor, weswegen er auch gar nicht auf dem Papier der schnellste sein muss. Wichtig ist am Ende nämlich nicht, dass der Prozessor schnell ist, sondern dass das Video schnell gerendert werden kann.
Der A8 im HomePod ist nicht nur für Musik da, der berechnet dir auch die Videosignale deiner Sicherheitskameras vor der Tür, damit die Cloud nicht genutzt werden muss. Das kannst du nicht nur mit einem "reinen" Prozessor machen.
MacOS buffert dir heute schon OS Updates über das Netzwerk für deine iOS Geräte. Auch das ist möglich, wenn man ein "Always On" SoC hat.
Die Möglichkeiten sind da schier unbegrenzt, da kann dir selbst ein Threadripper nicht das Leben einfacher machen.

Mein Wunschgedanke wäre ja, dass irgendwann alle Apple Geräte noch mehr miteinander kommunizieren für Workloads.
Also wenn ich ein Video rendern möchte auf dem iPad, dass die Daten simultan vom AppleTV, iPhone, meinen beiden Homepods und dem nicht vorhandenen MacBook mit berechnet werden, damit die Aufgabe einfach instant fertig wird.
Mit WiFi6 schicke ich ja jetzt schon 800mbit durch die Luft, an Datenmangel herrscht es da ja nicht.

robbitop
2020-06-24, 18:14:12
Schoen und gut. Aber wenn sich Apple selber weiterhelfen kann warum eigentlich nicht? Denn irgendwelche Einzigartigkeit noch irgendwelche spezielle hw Anpassungen werden sie von Intel nie haben. Ergo?
Sehe ich auch so. Mir ging es aber darum, dass hier mancher behauptet, Intel hätte die weniger talentierten Design Engineers. Und IMO sollte man Intel hier nicht unterschätzen oder gar über sie herziehen. Nur darum ging es mir. :)

cinebench wird der ARM komplett zerfetzt werden, blender auch... ARM kann wenige sachen gut(die dafür massiv besser als x86), aber dann wars das auch schon... die grossen softwarehersteller werden sicherlich nen furz tun zum auf ARM optimieren, wozu auch, 90% der käuferschaft hat eh nen richtiges OS = win
Hast du auch Fakten, um diese Behauptungen zur Performance untermauern? Das Instructionset spielt heutzutage bei modernen CPUs mit Decodern doch nur eine untergeordnete Rolle. Dazu kommt, dass ARM Devices mittlerweile wahrscheinlich den Großteil aller Geräte ausmachen dürfte. Ein Großteil der Entwickler sollte entsprechende Erfahrung bereits mitbringen.
Was macht eigentlich ein "richtiges OS" aus? Und was macht Windows zu einem "richtigen" Betriebssystem und fehlt somit MacOS (im Kern IIRC ein BSD!) oder einem Linux?

In diesem Thread liest man leider nur polarisierende, oberflächliche und größtenteils falsche Beiträge von dir. Objektiv wirkst du hier auch nicht. Das trägt zur Diskussion leider nicht nur nichts bei, sondern lässt diese auch noch leiden.

Monkey
2020-06-24, 19:11:31
Ich bin drauf gespannt, Windows läuft ja auch auf ARM und wenn nun zb die Adobe Suite drauf optimiert wird und besser läuft könnte es für alle interessant werden. Egal ob MacOS oder Windows.

Kommen die ersten Reviews und Premiere/Davinci Resolve/Photoshop laufen wesentlich langsamer geht der shitstorm los. Läuft alles tip-top kriegen wir bestimmt hellere/bessere Displays die mehr Akku fressen und am Ende ändert sich irgendwie gar nix.

Vor allem werden Intel und AMD ja auch nachlegen müssen, die werden dann ja kaum so weitermachen wie bisher - sofern die ARM Macs wesentlich flotter laufen sollten.

Bzgl DEC/Power Menschen im Apple Team finde ich die Aussage relativ gaga, klar sind das alles Leute gewesen die tolle Designs designed haben aber gerade das Alpha Team sollte doch mittlerweile in Rente sein ;D Man kann auch im Alpha Team gewesen sein und Kaffee gebracht haben.

steve.it
2020-06-24, 19:59:09
aber gerade das Alpha Team sollte doch mittlerweile in Rente sein ;D Man kann auch im Alpha Team gewesen sein und Kaffee gebracht haben.

https://www.heise.de/newsticker/meldung/Das-letzte-Alpha-Prozessormodell-erscheint-100773.html

Matrix316
2020-06-24, 21:17:16
Ich bin drauf gespannt, Windows läuft ja auch auf ARM und wenn nun zb die Adobe Suite drauf optimiert wird und besser läuft könnte es für alle interessant werden. Egal ob MacOS oder Windows.

Kommen die ersten Reviews und Premiere/Davinci Resolve/Photoshop laufen wesentlich langsamer geht der shitstorm los. Läuft alles tip-top kriegen wir bestimmt hellere/bessere Displays die mehr Akku fressen und am Ende ändert sich irgendwie gar nix.

Vor allem werden Intel und AMD ja auch nachlegen müssen, die werden dann ja kaum so weitermachen wie bisher - sofern die ARM Macs wesentlich flotter laufen sollten.[...]

Ja aber das ist ja der springende Punkt und das hüpfende i, warum ich alles andere als positiv auf diese Entwicklung gestimmt bin.

Die Performance von diesen ARM Chips ist doch wurstegal. Im ersten Moment bringt es dem ganzen Computermarkt NULL, wenn eine Firma plötzlich die schnellste CPU des Universums hat, wenn die CPU nur Computer von dieser Firma verwenden dürfen. :)

Ich glaube du schaust da ein bisschen zu Oberflächlich auf die Zahlen.
Der 3950X ist ein Prozessor, also der Motor eines Autos.
Ein Apple SoC ist viel mehr als das mit seinem Security Enclace, die ML Geschichten, Bilderkennung, Grafikbeschleunigung, T2 Chip usw.

Apples Custom Chips, die heute auch schon einen riesen Unterschied machen ( Video Decoding ohne T2 auf nem Dual Core? lol ), entlasten sehr effizient den Hauptprozessor, weswegen er auch gar nicht auf dem Papier der schnellste sein muss. Wichtig ist am Ende nämlich nicht, dass der Prozessor schnell ist, sondern dass das Video schnell gerendert werden kann.
Der A8 im HomePod ist nicht nur für Musik da, der berechnet dir auch die Videosignale deiner Sicherheitskameras vor der Tür, damit die Cloud nicht genutzt werden muss. Das kannst du nicht nur mit einem "reinen" Prozessor machen.
MacOS buffert dir heute schon OS Updates über das Netzwerk für deine iOS Geräte. Auch das ist möglich, wenn man ein "Always On" SoC hat.
Die Möglichkeiten sind da schier unbegrenzt, da kann dir selbst ein Threadripper nicht das Leben einfacher machen.

Mein Wunschgedanke wäre ja, dass irgendwann alle Apple Geräte noch mehr miteinander kommunizieren für Workloads.
Also wenn ich ein Video rendern möchte auf dem iPad, dass die Daten simultan vom AppleTV, iPhone, meinen beiden Homepods und dem nicht vorhandenen MacBook mit berechnet werden, damit die Aufgabe einfach instant fertig wird.
Mit WiFi6 schicke ich ja jetzt schon 800mbit durch die Luft, an Datenmangel herrscht es da ja nicht.

Dass dieser SoC für sich genommen der reine Wahnwitz ist, streitet doch kaum einer ab.

Und es gab schon immer super Computer mit RISC oder PowerPC Chips die schneller und besser waren als X86 kompatible.

Das Problem für uns alle ist doch aber, dass Apple sich aus dem PC Markt damit quasi entfernt und abkapselt und dass diese Entwicklung erst mal für den Rest außerhalb der Apple Welt garnichts bringt.

Oder meinst du wir können im nächsten Jahr A13X Chips und Apple Silicon Mainboards im Laden kaufen?

Windows kannst du auch vergessen. Wer Windows braucht für die Arbeit oder zum Spielen, wird sich nie mehr einen Mac kaufen. Auch gerade im Enterprise Bereich werden sich viele zwei Mal überlegen noch einen Mac zu kaufen, wenn sie nicht wissen, ob Windows noch drauf laufen wird.

Aber eine andere Sache: Was ist, wenn Intel und AMD anfangen ihre CPUs auch zu SoCs zu machen, die du vielleicht auch nicht mehr einzeln kaufen kannst, sondern nur noch in Komplett PCs?

Was ist, wenn Intel und AMD eigene RISC Prozessoren machen, die nicht mehr kompatibel zueinander sein werden und zu Apple eventuell schon garnicht? Gerade auch wegen der vielen Zusatzchips die Apple da mit einbaut? Was ist wenn Nvidia und Microsoft da mitmachen eigene SoCs zu bauen? Vielleicht fängt auch noch Amazon an.

Was ist, wenn jeder Hinz und Kunz einen eigenen "Apple Kosmos" machen will? Dann sind wir soweit wie beim Fernsehen wo du Netflix, Amazon Prime, Sky, HBO (in den USA), Maxdome, Disney+, Dazn etc. etc. hast und in Zukunft hat dann jeder 5 PCs und 6 Notebooks wie Spielkonsolen, nur wenn er alle PC Software nutzen will? :freak: Dann sehen die Kinderzimmer wieder aus wie 1990. ;D

Der einzige Grund, warum der PC an sich so einen weltweiten Siegeszug gemacht hat war doch auch, die Kompatibilität untereinander. Und Apple fängt jetzt genau das an zu torpedieren.

Badesalz
2020-06-24, 21:29:16
Apple liegt bei der CPU Performance im Smartphone Bereich einfach mehrere Generationen vor der Konkurrenz und bietet damit eine wesentlich höhere Zukunftssicherheit.Für was denn? Für die Corona-App? Für RT-Grafik in Plague Inc?

Monsta
2020-06-24, 21:36:59
Ja aber das ist ja der springende Punkt und das hüpfende i, warum ich alles andere als positiv auf diese Entwicklung gestimmt bin.

Die Performance von diesen ARM Chips ist doch wurstegal. Im ersten Moment bringt es dem ganzen Computermarkt NULL, wenn eine Firma plötzlich die schnellste CPU des Universums hat, wenn die CPU nur Computer von dieser Firma verwenden dürfen. :)



Dass dieser SoC für sich genommen der reine Wahnwitz ist, streitet doch kaum einer ab.

Und es gab schon immer super Computer mit RISC oder PowerPC Chips die schneller und besser waren als X86 kompatible.

Das Problem für uns alle ist doch aber, dass Apple sich aus dem PC Markt damit quasi entfernt und abkapselt und dass diese Entwicklung erst mal für den Rest außerhalb der Apple Welt garnichts bringt.

Oder meinst du wir können im nächsten Jahr A13X Chips und Apple Silicon Mainboards im Laden kaufen?

Windows kannst du auch vergessen. Wer Windows braucht für die Arbeit oder zum Spielen, wird sich nie mehr einen Mac kaufen. Auch gerade im Enterprise Bereich werden sich viele zwei Mal überlegen noch einen Mac zu kaufen, wenn sie nicht wissen, ob Windows noch drauf laufen wird.

Aber eine andere Sache: Was ist, wenn Intel und AMD anfangen ihre CPUs auch zu SoCs zu machen, die du vielleicht auch nicht mehr einzeln kaufen kannst, sondern nur noch in Komplett PCs?

Was ist, wenn Intel und AMD eigene RISC Prozessoren machen, die nicht mehr kompatibel zueinander sein werden und zu Apple eventuell schon garnicht? Gerade auch wegen der vielen Zusatzchips die Apple da mit einbaut? Was ist wenn Nvidia und Microsoft da mitmachen eigene SoCs zu bauen? Vielleicht fängt auch noch Amazon an.

Was ist, wenn jeder Hinz und Kunz einen eigenen "Apple Kosmos" machen will? Dann sind wir soweit wie beim Fernsehen wo du Netflix, Amazon Prime, Sky, HBO (in den USA), Maxdome, Disney+, Dazn etc. etc. hast und in Zukunft hat dann jeder 5 PCs und 6 Notebooks wie Spielkonsolen, nur wenn er alle PC Software nutzen will? :freak: Dann sehen die Kinderzimmer wieder aus wie 1990. ;D

Der einzige Grund, warum der PC an sich so einen weltweiten Siegeszug gemacht hat war doch auch, die Kompatibilität untereinander. Und Apple fängt jetzt genau das an zu torpedieren.

Es ändert doch kaum was, jetzt kannst Du auch kein Osx Software auf Deinem Pc ausführen.

Ich arbeite auch mit Linux/Windowsm, spiele am PC/Konsole und habe trotzdem Macbook iWatch und iPhone.

Warum sollte sich das ausschließen?

Edit: Meine Frau benutzt auf der Firma auch Windows und hat Privat Macbook/Iphone.

Matrix316
2020-06-24, 21:41:11
Es ändert doch kaum was, jetzt kannst Du auch kein Osx Software auf Deinem Pc ausführen.

Ich arbeite auch mit Linux/Windowsm, spiele am PC/Konsole und habe trotzdem Macbook iWatch und iPhone.

Warum sollte sich das ausschließen?
Natürlich kann ich OSX Software auf meinem PC ausführen: Hackintosh!
Und ich kann Windows Software auf dem MAC ausführen: Bootcamp oder Virtualisierung.

Das Wunder von X86.

Das geht dann nicht mehr, wenn Macs nur noch ARM nutzen.

Monsta
2020-06-24, 21:55:12
Natürlich kann ich OSX Software auf meinem PC ausführen: Hackintosh!
Und ich kann Windows Software auf dem MAC ausführen: Bootcamp oder Virtualisierung.

Das Wunder von X86.

Das geht dann nicht mehr, wenn Macs nur noch ARM nutzen.

Das geht aber nur weil Apple das zulässt, das hat nur zum Teil damit zu tun das es technisch möglich ist. Die könnten das jederzeit stoppen.

Und warum sollte Apple aus Ihrer Sicht schlechtere Cpus verbauen nur damit die Hackintosh gemeinde weiter Osx nutzt?

Ich denke die wenigsten nutzen Windows auf Ihrem Macbook, aber es gibt bestimmt welche die das machen, die habe natürlich pech wenn sie ein neues kaufen wollen.
Aber wenn man eh Windows nutzt, kann man auch gleich ein Premium Windows Gerät kaufen.

Badesalz
2020-06-24, 22:05:51
Der einzige Grund, warum der PC an sich so einen weltweiten Siegeszug gemacht hat war doch auch, die Kompatibilität untereinander. Und Apple fängt jetzt genau das an zu torpedieren.Ich wüsste aber auch nicht wie sie vom diesem Markt noch was anknabbern wollen, wenn sie wie eine Dellworkstation sind, für den 3fachen Preis.

Es geht nur über Andersein. Funzt ja auf dem Smartphonemarkt.
Die Lebensängste von Skynet & Co... Ich weiß nicht, ob Apples Umstieg von x86 auf ARM-Design den PC-Markt bedroht. Die guten Programme die auf WinPC von OSX kommen, weil alles x86, sind was?

Ich hab für das Notebook meiner Holde mal eine Woche ÄHNLICHE Programme gesucht die ich nutze und die sie super findet. Sowas wie FaststoneViewer oder TotalCommander (! :D) und paar andere. Nichts, as dem Namen halbwegs gerecht wäre.
Ich fand das Ding vom Anfang an letzte Rotze und so bleibt es auch. Mittlerweile macht sie das Teil 1x in 2 Wochen an. Wohl immer kurz davor ahnend, daß ich sie wegen dem sausschweren Aluklappbox mal wieder ausmeckern würde.
Ihr iPad läuft gefühlt 1h pro Tag...

Apple hat nicht die "developers! developers!" für x86. Die Proggen alle lieber irgendwas für iOS. Da ist es wirklich besser, ein iMac wird als Mega-iPad verstanden als ein Komputer. Eine iOS-App die drauf ausgerichtet ist eine Tasta und eine Maus zu erwarten kommt bestimmt eher zustande als eine x86 Soft. Im Apple-Mikrokosmos jedenfalls.

Daredevil
2020-06-24, 22:07:35
Natürlich kann ich OSX Software auf meinem PC ausführen: Hackintosh!

Ein Hackintosh ist Spielzeug, sowas kannst du doch nicht als produktive und zuverlässige Maschine benutzen. :rolleyes:

Nicht nur Hardware macht Produktivität aus, sondern auch gut funktionierende Software. Durch das verschmelzen der Plattformen und das teilen der Apps wird man auf MacOS deutlich produktiver, weil man eben viele neue Werkzeuge hat.
Mag für dich sein, dass es der Untergang vom Desktop ist, für mich ist das der Schritt, das Apple wieder großflächig im "Desktop" Fuß fassen kann.

Aber niemand braucht als MacOS Nutzer Windows, wofür?
Genauso wie niemand als Windows Nutzer unbedingt MacOS braucht.

Matrix316
2020-06-24, 22:20:10
Ein Hackintosh ist Spielzeug, sowas kannst du doch nicht als produktive und zuverlässige Maschine benutzen. :rolleyes:

Nicht nur Hardware macht Produktivität aus, sondern auch gut funktionierende Software. Durch das verschmelzen der Plattformen und das teilen der Apps wird man auf MacOS deutlich produktiver, weil man eben viele neue Werkzeuge hat.
Mag für dich sein, dass es der Untergang vom Desktop ist, für mich ist das der Schritt, das Apple wieder großflächig im "Desktop" Fuß fassen kann.

Aber niemand braucht als MacOS Nutzer Windows, wofür?
Genauso wie niemand als Windows Nutzer unbedingt MacOS braucht.
Vielleicht braucht mans nicht, aber vielleicht will mans haben? Zum Beispiel Triple A Games unter Windows sind doch was ganz anderes als diese billig iOS Sachen. Oder was ist, wenn man Windows Programme programmiert? Oder umgekehrt Mac Programme? Ich brauch jeweils das OS dafür.

Nur war bislang Apple ein ganz schlechtes Vorbild: Haben den Kopfhörer Ausgang wegrationalisiert, waren die ersten mit einem 1000 Euro Flagschiff Smartphone... und alle anderen kopieren munter was sie vormachen.

Ich habe Angst, dass der offene PC bald nicht mehr so offen ist, wenn jeder auf den Geschmack kommt seinen eigenen ARM Walled Garden SoC zu machen.

Monsta
2020-06-24, 22:26:13
Vielleicht braucht mans nicht, aber vielleicht will mans haben? Zum Beispiel Triple A Games unter Windows sind doch was ganz anderes als diese billig iOS Sachen. Oder was ist, wenn man Windows Programme programmiert? Oder umgekehrt Mac Programme? Ich brauch jeweils das OS dafür.

Nur war bislang Apple ein ganz schlechtes Vorbild: Haben den Kopfhörer Ausgang wegrationalisiert, waren die ersten mit einem 1000 Euro Flagschiff Smartphone... und alle anderen kopieren munter was sie vormachen.

Ich habe Angst, dass der offene PC bald nicht mehr so offen ist, wenn jeder auf den Geschmack kommt seinen eigenen ARM Walled Garden SoC zu machen.

Triple A Games sind auf dem Mac doch schon immer kacke. Das ist einfach kein Spielcomputer.
Dafür gibt es doch den PC oder Konsole, man muss doch nicht nur ein Gerät haben, wir leben doch nicht in einer Planwirtschaft.

Ich glaube nicht das der PC in seiner Form stirbt nur weil Apple eigene Cpus macht.

Daredevil
2020-06-24, 22:34:08
Vielleicht braucht mans nicht, aber vielleicht will mans haben? Zum Beispiel Triple A Games unter Windows sind doch was ganz anderes als diese billig iOS Sachen.
There is an App for that.
Steam, Moonlight , PS4App, Xbox App, Shadow... Sidecar?
Kannst du kreuz und quer durchs Netzwerk streamen bzw. MacOS und Windows Rechner kannst du dir in der Wolke zusammen klicken. Wir haben ja 2020 und nicht 2002, da bekommst du sowas hinterher geworfen.
Es gibt btw. Steam für MacOS und mit dem iPad und iPhone kommen nochmals nen Haufen Spiele dazu.
Hinzu kommt durch die Öffnung von ARM für den Mac, dass Developer sicherlich viel Interesse daran haben, ihre Games für MacOS/iPad/iPhone/iPod/AppleTV zu verteilen, weil unheimlich viele Nutzer, die angesprochen werden.
Sowas ist einzigartig und war immer das, was Microsoft mit WindowsPhone/RT/Win10 erreichen wollte. Also die eine App für alle Plattformen.

PS: Auf der Switch kannst du auch keine neue Hardware einbauen und die Spiele sehen für die arschlahme Hardware grandios aus. Nichts, was Apple nicht auch theoretisch erreichen könnte, wenn Spieleentwickler halt dort mal anfangen.

Felixxz2
2020-06-24, 22:42:41
Natürlich kann ich OSX Software auf meinem PC ausführen: Hackintosh!
Und ich kann Windows Software auf dem MAC ausführen: Bootcamp oder Virtualisierung.

Das Wunder von X86.

Das geht dann nicht mehr, wenn Macs nur noch ARM nutzen.

Klingt alles sehr danach als ob DU gerne Macs mit x86 hättest und das ist ja auch ok.

99% der Kunden von Apple wissen aber weder was ein Hackintosh noch Bootcamp ist und das ist auch ok.

Deshalb sind deine Befürchtungen auch ein wenig am Ziel vorbei, denn Apple macht den Schritt, weil sie die einzigen sind die das können. Sie haben das Ökosystem, sie haben die Chips und sie haben die passenden Kunden, die sowas geil finden. Wer offene System mag ist doch schon lange vor Jobs Tod gegangen.
Die Angst vor einer Segmentierung ist wirklich stark übertrieben.

Matrix316
2020-06-24, 22:51:49
There is an App for that.
Steam, Moonlight , PS4App, Xbox App, Shadow... Sidecar?
Kannst du kreuz und quer durchs Netzwerk streamen bzw. MacOS und Windows Rechner kannst du dir in der Wolke zusammen klicken. Wir haben ja 2020 und nicht 2002, da bekommst du sowas hinterher geworfen.
Es gibt btw. Steam für MacOS und mit dem iPad und iPhone kommen nochmals nen Haufen Spiele dazu.
Hinzu kommt durch die Öffnung von ARM für den Mac, dass Developer sicherlich viel Interesse daran haben, ihre Games für MacOS/iPad/iPhone/iPod/AppleTV zu verteilen, weil unheimlich viele Nutzer, die angesprochen werden.
Sowas ist einzigartig und war immer das, was Microsoft mit WindowsPhone/RT/Win10 erreichen wollte. Also die eine App für alle Plattformen.

PS: Auf der Switch kannst du auch keine neue Hardware einbauen und die Spiele sehen für die arschlahme Hardware grandios aus. Nichts, was Apple nicht auch theoretisch erreichen könnte, wenn Spieleentwickler halt dort mal anfangen.

Dein PS Absatz ist eigentlich das wichtigste:

Willst du, dass Desktop Computer zu Spielkonsolen mutieren?

Bislang konnte man Macs als richtige Computer mit Windows verwenden. Jetzt werden sie zu iPads mit Maus und Tastatus. ;)

Steam ist schön, aber es gibt nicht mal annähernd alle Steam Games für die Systeme wo du Steam laden kannst.

Apple sollte sich eigentlich für den PC Markt öffnen und AMD CPUs und Nvidia GPUs ins Boot holen und macOS für normale PCs freigeben anstatt sich komplett einzuigeln. Ich könnte mir vorstellen, dass ganz viele Leute macOS als Alternative zu Windows nutzen würden - und dann würden auch die Triple A Spiele kommen - wenn sie denn offiziell könnten. Dell oder HP oder Lenovo PCs mit macOS...:uidea: Was meinst du wie die abgehen würden?

pixelguy
2020-06-24, 23:05:04
Warum wird der Mac zu einem iPad mit Maus und Tastatur?
Wegen einer anderen CPU Architektur?

Ich verstehe auch das ganze Gerede von geschlossenem System nicht. Was ist an macOS geschlossen?
Aktuell kann ich doch machen und installieren was ich will? Warum sollte sich das mit einer ARM CPU ändern?
Und warum könnte sowas mit einer x86 CPU nicht passieren wenn es Apple unbedingt will?

Habt ihr überhaupt mal produktiv an einem Apple gearbeitet oder länger genutzt als im Apple Store?

Monsta
2020-06-24, 23:18:05
Dein PS Absatz ist eigentlich das wichtigste:

Willst du, dass Desktop Computer zu Spielkonsolen mutieren?

Bislang konnte man Macs als richtige Computer mit Windows verwenden. Jetzt werden sie zu iPads mit Maus und Tastatus. ;)

Steam ist schön, aber es gibt nicht mal annähernd alle Steam Games für die Systeme wo du Steam laden kannst.

Apple sollte sich eigentlich für den PC Markt öffnen und AMD CPUs und Nvidia GPUs ins Boot holen und macOS für normale PCs freigeben anstatt sich komplett einzuigeln. Ich könnte mir vorstellen, dass ganz viele Leute macOS als Alternative zu Windows nutzen würden - und dann würden auch die Triple A Spiele kommen - wenn sie denn offiziell könnten. Dell oder HP oder Lenovo PCs mit macOS...:uidea: Was meinst du wie die abgehen würden?


Warum sollte man auf nem Mac Windows verwenden, Windows ist einfach das schlechtere OS. Linux und OSX finde ich deutlich Leistungsfähiger.

bluey
2020-06-24, 23:30:40
Vielleicht habe ich es überlesen aber was ist den ein “richtiger Computer”.

Leonidas
2020-06-25, 03:53:28
Jo, die Diskussion, was besser ist (zu lesen als: was man subjektiv für besser hält), ist müßig.

BTT ... relevant sind hier die Fragen, die sich mit diesem Wechsel des CPU-Anbieters ergeben. Die Meinungen dazu, wieviel Apple damit auf die Beine stellen kann, gehen augenscheinlich weit auseinander - was eigentlich gut ist, in anderen Fragen der IT-Welt gilt es zu oft nur noch eine Einheitsmeinung.

robbitop
2020-06-25, 07:50:44
Die ganze Diskussion um die SoCs, die jahrelang on topic und technisch fokussiert war, ist nun seitenlang mit Müll gefüllt. Könnte die Moderation mal bitte aufräumen?

pixelguy
2020-06-25, 11:29:55
Sehe gerade, dass der Thread schon fast 10 Jahre alt ist.... wow!

Ich frage mich ja, wie Apple mit den Pro Geräten (Desktop) umgeht.
Es läuft ja schon relativ viel auf der GPU. Da kann ich mir dann schon vorstellen, dass man auch weiterhin auf Karten von AMD setzt.

Aber man könnte da natürlich auch wesentlich freier arbeiten.
Zum Beispiel die SSD näher an die GPU bringen und eigene Chips für den Datenaustausch entwickeln.

Wie bspw. bei der PS5.

Zossel
2020-06-25, 12:09:53
Triple A Games sind auf dem Mac doch schon immer kacke. Das ist einfach kein Spielcomputer.

Macht ja auch keinen Spaß wenn Apple wg. einen Vulkan2Metal Layer mal wieder rumzickt.

Felixxz2
2020-06-25, 12:20:18
Sehe gerade, dass der Thread schon fast 10 Jahre alt ist.... wow!

Ich frage mich ja, wie Apple mit den Pro Geräten (Desktop) umgeht.
Es läuft ja schon relativ viel auf der GPU. Da kann ich mir dann schon vorstellen, dass man auch weiterhin auf Karten von AMD setzt.

Aber man könnte da natürlich auch wesentlich freier arbeiten.
Zum Beispiel die SSD näher an die GPU bringen und eigene Chips für den Datenaustausch entwickeln.

Wie bspw. bei der PS5.

Denke auch dass AMD Karten weiterhin gehen werden. Die scheinen ja ne ganz innige Partnerschaft zu haben und es ist wohl ziemlich ausgeschlossen, dass Apple externe GPUs bringt.

Spannend wird auf jedenfall auch Thunderbolt. Eigentlich müsste das ja trotzdem gehen oder?

pixelguy
2020-06-25, 12:20:19
Macs sind keine Gaming Geräte. Genausowenig wie es automatisch jedes Windows Notebook ist.... was soll das immer?

pixelguy
2020-06-25, 12:32:56
Spannend wird auf jedenfall auch Thunderbolt. Eigentlich müsste das ja trotzdem gehen oder?

Ja. Warum nicht?
Intel sagt ja auch, dass man weiterhin Partner bleibt.

Matrix316
2020-06-25, 13:16:49
Warum sollte man auf nem Mac Windows verwenden, Windows ist einfach das schlechtere OS. Linux und OSX finde ich deutlich Leistungsfähiger.
Die Leistungsfähigkeit eines Betriebsystems hat für den Erfolg noch nie eine Rolle gespiele. Die Software, die es für das OS gibt, ist das entscheidende. Was bringt mir das beste OS, wenn es keine Software für gibt? Nix.

Vielleicht habe ich es überlesen aber was ist den ein “richtiger Computer”.
Apple wirbt selbst im letzten iPad Spot: Dein nächster Computer ist kein Computer. :freak:

pixelguy
2020-06-25, 13:22:55
Die Leistungsfähigkeit eines Betriebsystems hat für den Erfolg noch nie eine Rolle gespiele. Die Software, die es für das OS gibt, ist das entscheidende. Was bringt mir das beste OS, wenn es keine Software für gibt? Nix.
Es gibt keine Software für macOS?
Wenn man Games mal ausklammert, halte ich das einfach für eine falsche Aussage. Falls du es so gemeint hast.
Ich würde für meine genutzten Programme und Tools keine guten Alternativen unter Windows finden. Das ist aber mal wieder Geschmacksache. Aber es gibt mehr als genug gute Software.

Apple wirbt selbst im letzten iPad Spot: Dein nächster Computer ist kein Computer. :freak:
Da geht es ja auch um das iPad.
Ich habe ein iPad Pro und ein MacBook Pro und beide erfüllen ihren eigenen Zweck.

Matrix316
2020-06-25, 13:24:31
Warum wird der Mac zu einem iPad mit Maus und Tastatur?
Wegen einer anderen CPU Architektur?

Ich verstehe auch das ganze Gerede von geschlossenem System nicht. Was ist an macOS geschlossen?
Aktuell kann ich doch machen und installieren was ich will? Warum sollte sich das mit einer ARM CPU ändern?
Und warum könnte sowas mit einer x86 CPU nicht passieren wenn es Apple unbedingt will?

Habt ihr überhaupt mal produktiv an einem Apple gearbeitet oder länger genutzt als im Apple Store?

Ich hatte bislang 4 Macbook Pros und 2 iPads und für 2 Monate ein iPhone. Die Macbooks waren damals die besten Notebooks überhaupt, weil die Windows Notebooks noch alles Plastikbomber mit schlechten Displays waren und ein Unibody MBP um Welten geiler war - also so 2010~2017.

Geschlossen im Sinne von nicht mehr offen. ;) Die CPU kannst du nicht mehr tauschen, weil die auch garnicht im Laden angeboten wird. Bislang geht das zumindest beim Mac Pro oder iMac Pro noch. Stichwort Hackintosh. Bislang kannst du dir einen PC bauen und mit etwas Tricks macOS installieren. Mit ARM nicht mehr, weil du eine ARM CPU bräuchtest.

Dann wird aus den Macs wirklich Playstations.

Klar ist das dann super optimiert und schneller, aber du kannst auch fast nix mehr aufrüsten, bis auf eventuell RAM. Aber selbst wenn eine eigene interne GPU verwendet wird... dann ist das eben kein offenes System mehr wie der normale PC eben wo du fast alles tauschen kannst und auch alles kompatibel ist.

Matrix316
2020-06-25, 13:28:45
Es gibt keine Software für macOS?
Wenn man Games mal ausklammert, halte ich das einfach für eine falsche Aussage. Falls du es so gemeint hast.
Ich würde für meine genutzten Programme und Tools keine guten Alternativen unter Windows finden. Das ist aber mal wieder Geschmacksache. Aber es gibt mehr als genug gute Software.


Da geht es ja auch um das iPad.
Ich habe ein iPad Pro und ein MacBook Pro und beide erfüllen ihren eigenen Zweck.

1. Wenn du Spiele mal ausklammerst ja. Aber Spiele gehören für mich zum Softwarepaket auch dazu. Ich meine, wenn du Office und Adobe und Spiele und die meiste kommerzielle Software ausklammerst, dann ist das Softwareangebot unter Linux auch nicht so schlecht.

Für Windows gibt's aber nunmal insgesamt das größte Softwareangebot. Egal ob kommerziell oder OpenSource. Für Windows gibt's fast alles, für Linux und MacOS eben nicht.

2. Schau dir mal macOS Bixer ;) an. Das sieht sogar schon fast so aus wie iPad OS. :ugly:

Du hast am Ende ein iPad mit Maus und Tastatur und iPadOS Big Sur mit Fenstern und hoffentlich einem besseren File Manager. Selbst in einem Mac Pro mit ARM wäre das so. Was ist in 2 Jahren, wenn einem die CPU zu langsam ist? Kauf doch mal die neue ARM CPU im Laden und versuch die auszutauschen...

Es gab mal so eine Werbung: Wie rüste ich einen Mac auf: Wegwerfen und neu kaufen. Jetzt ist es bald wieder soweit. (Notebooks klammere ich mal aus, weil das im Windows Bereich auch so langsam anfängt, dass alles auf die Platine gepappt wird).

pixelguy
2020-06-25, 13:30:35
Naja, auch jetzt gibt es schon CPUs in Macs, welche du nicht im Laden kaufen kannst.
Und Hackintoshs zählen einfach nicht. Wer macht das denn? Das ist Liebhaberei und Bastelei.

Die MacBooks kannst du auch jetzt schon nicht mehr sauber reparieren. Ich habe da meine Erfahrungen gemacht. Musste Akku und Display tauschen, da ich mich geweigert hatte ein MacBook mit der Butterfly Tastatur zu kaufen. Bei meinem alten Modell ging das noch, bei den neuen schon nicht mehr oder nur sehr schwer.

Aber auch in der Windows/Intel-Welt wird das auf Dauer nicht mehr ewig so weitergehen.
Das ist für mich auf jeden Fall kein Punkt gegen ARM.

pixelguy
2020-06-25, 13:34:46
1. Wenn du Spiele mal ausklammerst ja. Aber Spiele gehören für mich zum Softwarepaket auch dazu. Ich meine, wenn du Office und Adobe und Spiele und die meiste kommerzielle Software ausklammerst, dann ist das Softwareangebot unter Linux auch nicht so schlecht.

Für Windows gibt's aber nunmal insgesamt das größte Softwareangebot. Egal ob kommerziell oder OpenSource. Für Windows gibt's fast alles, für Linux und MacOS eben nicht.

Ja, aber Games sind einfach kein Fokus. Was auch daran liegen dürfte, dass die meisten Macs einfach Notebooks sind. Und auch unter Windows spielen die meisten auf Ihren Notebooks keine AAA Titel in max. Details.
Wer das unbedingt benötigt kauft sich ein PC. Da kann aber Apple doch nix dafür :biggrin:

2. Schau dir mal macOS Bixer ;) an. Das sieht sogar schon fast so aus wie iPad OS. :ugly:


Da scheint wohl bald auch Touch auf die MacBooks zu kommen... So sieht es zumindest aus.

Felixxz2
2020-06-25, 14:10:52
Matrix könnten wir die Diskussion bitte mal wieder zum Topic zurückführen? Wie haben verstanden, dass du walled gardens doof findest, aber so wird es nunmal sein, da word niemand von uns was dran ändern. Und für viele funktioniert das auch sehr gut.

Viel spannender fände ich ne Info wann die Dev Kits kommen

sth
2020-06-25, 14:13:04
Was die Performance angeht wird man erst im Herbst etwas sagen können. Selbst die Developer Transistion Kits sind da wenig aussagekräftig, da dort ein 1,5 Jahre alter Tablet-Chip drinsteckt, der so mit Sicherheit nicht in Consumer Macs kommen wird.

Und selbst dann wird es sicher schwierig eine echte Vergleichbarkeit zu haben, da der Wechsel zu den eigenen CPUs Apple halt Dinge ermöglicht die mit Intel/x86 so nicht gehen, wie z.B. das Apples A-Chips seit eingen Jahren Hardwaresupport für bestimmte JavaScript-Besonderheiten haben, um z.B. Safari zu beschleunigen (daher ist ein aktuelles iPhone mit passivgekühlter low-power-CPU in einigen Browserbenchmarks plötzlich gleichauf mit High-End Intel Desktop-Macs).

Gerade wenn sie die Umstellung mit kleinen Modellen beginnen (z.B. low-end Notebooks) wird Apple das sicher marketingtechnisch voll ausschlachten.

Dazu kommt, dass Apple zukünftig sicher noch deutlich mehr auf Hardwarelösungen für bestimmte Themen setzen wird, so wie sie es ja mit dem T2 auch schon teilweise für Intel-Macs tun (Full-disk encryption, Video de- und encoding, etc.). Bei den iOS-Geräten ist es ja jetzt schon deutlich mehr (z.B. Image Processing Pipeline).

Ich gehe daher davon aus, dass es komplizierter werden wird mit den Performance-Vergleichen. Klar kann man Software nutzen die einfach keinerlei Plattformoptimierungen nutzt um ein Bild von der CPU Rohperformance zu bekommen. Aber wie relevant das am Ende für eine Person ist, die z.B. vor hat Videos mit Final Cut zu schneiden sei mal dahingestellt.

Für die Emulation von bestehender x86-Software hat Apple zudem auch einige Tricks parat. Z.B. können die Apple CPUs für die Ausführung von übersetztem Intel-Code die Memory Page Size von standardmäßig 16kb auf 4kb umschalten.

Ein paar ausführlichere Infos gegenüber der Keynote gibt es z.B. in folgenden WWDC sessions:

Platforms State of the Union
https://developer.apple.com/videos/play/wwdc2020/102/

Explore the new system architecture of Apple Silicon Macs
https://developer.apple.com/videos/play/wwdc2020/10686/

D4ve
2020-06-25, 14:16:52
1. Wenn du Spiele mal ausklammerst ja. Aber Spiele gehören für mich zum Softwarepaket auch dazu. Ich meine, wenn du Office und Adobe und Spiele und die meiste kommerzielle Software ausklammerst, dann ist das Softwareangebot unter Linux auch nicht so schlecht.

Für Windows gibt's aber nunmal insgesamt das größte Softwareangebot. Egal ob kommerziell oder OpenSource. Für Windows gibt's fast alles, für Linux und MacOS eben nicht.

Ist halt einfach mal abhängig von deiner Anwendungsdomäne. Wenn dir PC-Spiele wichtig sind, dann ist Mac/Linux halt die falsche Plattform aber das gilt halt einfach mal nicht für jeden. Genausogut könnte ich entgegnen, dass ich auf Mac Adobe/Affinity, Blender, Maya, ZBrush etc. habe und zudem alles was ich für SW-Dev brauche - C, C++, Python, Java, Julia, Rust, Clojure, git, IDEs und Editoren wie den Jetbrains-Kram, VS Code, XCode gibts auch. Als ich noch Direct3D entwickelt hab war ich von Windows und Visual Studio abhängig (D3D ist übrigens genauso schlecht weil Vendor-Specific), aber davon konnte ich weg. Office wird immer egaler, in meiner Firma sitzen fast alle Devs an Linux und benutzen es im Browser. Aufrüstbarkeit ist auch kein Thema mehr, jeder arbeitet am Laptop das halt am End-of-Life getauscht wird. Aber auch hier gilt: anekdotisches Wissen. Muss halt jeder schauen was passt. Und wenns nicht passt, dann freuen dass es Alternativen gibt.

BTT:
Gestern gab es eine Präsentation zur Architektur:
Explore the new system architecture of Apple Silicon Macs (https://developer.apple.com/videos/play/wwdc2020/10686/)
Gesprochen haben sie von u.a. über Shared Memory zwischen CPU und GPU und den Vorteil, dass jetzt kein Datenaustausch mehr über PCIe laufen muss. Klingt so als ob sich Apple damit von der dedizierten GPU verabschieden will. Schlecht für alles was mehr Dampf haben soll als ein MacBook Air... während ich mir bei der ARM CPU noch vorstellen kann, dass sie dort Leistung auf die Straße bringen können, habe ich bei der GPU noch Zweifel.

bluey
2020-06-25, 14:33:28
Passend zur ganzen Situation. Bei den ganzen Bugs in der letzter Zeit Intel Prozessoren... Ging schnell, dass alle Meltdown vergessen haben.

https://www.macrumors.com/2020/06/25/buggy-skylake-chips-hastened-apple-silicon/

sth
2020-06-25, 14:56:04
Passend zur ganzen Situation. Bei den ganzen Bugs in der letzter Zeit Intel Prozessoren...
In einer der Sessions sprechen sie auch über darüber, dass Apple CPUs Geräten komplett getrennte Adressräume zuweisen kann. Ich würde mal mutmaßen, dass das auch eine Reaktion auf z.B. die Thunderbolt Hardware-Sicherheitslücken der letzten Jahre ist.

sth
2020-06-25, 15:17:53
Gesprochen haben sie von u.a. über Shared Memory zwischen CPU und GPU und den Vorteil, dass jetzt kein Datenaustausch mehr über PCIe laufen muss. Klingt so als ob sich Apple damit von der dedizierten GPU verabschieden will. Schlecht für alles was mehr Dampf haben soll als ein MacBook Air... während ich mir bei der ARM CPU noch vorstellen kann, dass sie dort Leistung auf die Straße bringen können, habe ich bei der GPU noch Zweifel.
Macbook Air ist vielleicht etwas niedrig gegriffen (High-End Spielekonsolen nutzen ja auch shared Memory und sind deutlich schneller). Apple hat sich in der Vergangenheit auch nicht gescheut, für die jew. Zeit vergleichsweise breite Speicherinterfaces zu bauen (siehe z.B. https://www.anandtech.com/show/5688/apple-ipad-2012-review/12). Mal schauen ob da vielleicht noch die eine oder andere Überraschung kommt.

Mit der RX5600M mit HBM2 haben sie ja gerade im 16" Macbook Pro eine relativ Macbook-unüblich hohe Grafiklösung im Programm (die sie sich dafür aber auch vergolden lassen). Wäre peinlich wenn der ARM-Nachfolger da nicht ansatzweise gegen ankäme.

Und natürlich könnte Apple bei den großen Pro-Macs auch einfach weiter auf AMD-GPUs setzen, wie bisher auch. Aktuell gibt es nach meinem Stand noch keine Infos die das grundsätzlich ausschließen.

Ich denke aber dieses Jahr wird es ohnehin erstmal mit den kleineren Modellen losgehen.

Rabiata
2020-06-25, 15:53:24
Tja, ein schlechtes Beispiel: Tesla ist in Teilen besser (Antrieb), das Auto an sich ist nicht besser/schlechter als die anderen. Desweiteren ist diese/ähnliche Antriebstechnologie bei den deutschen Autoherstellern schon im letzten Jahrtausend spruchreif gewesen, das wurde nur firmenpolitisch nie durchgezogen. Habe hierzu Insiderwissen. Das macht den Vergleich obsolet - weil bei Intel & AMD hält niemand Technologie zurück.
Leicht OT, aber da muß ich noch eine Kleinigkeit loswerden:
Nach allem was ich zum Thema weiß, sind der Knackpunkt die Batterien. Elektromotoren sind ausgereifte Technologie, da hat jede Firma Zugriff auf leistungsfähige Technik. Notfalls per Zukauf. Batterietechnik dagegen ist noch ziemlich im Fluß. Wer sich da einen größeren Vorteil sichern kann, gewinnt den Technologiewettbewerb.

steve.it
2020-06-25, 16:36:50
Selber noch nicht angeschaut.
Special guests Craig Federighi and Greg Joswiak join me to discuss the news from WWDC 2020: the Mac’s transition to Apple silicon, MacOS 11 Big Sur, iOS and iPadOS 14, and more.
https://daringfireball.net/2020/06/the_talk_show_wwdc_2020

https://www.youtube.com/watch?v=Hg9F1Qjv3iU&feature=emb_logo

bluey
2020-06-25, 18:16:50
Matrix könnten wir die Diskussion bitte mal wieder zum Topic zurückführen? Wie haben verstanden, dass du walled gardens doof findest, aber so wird es nunmal sein, da word niemand von uns was dran ändern. Und für viele funktioniert das auch sehr gut.

Viel spannender fände ich ne Info wann die Dev Kits kommen

Montag kommt meins.

Ravenhearth
2020-06-25, 18:17:09
Intel insider claims it finally lost Apple because Skylake QA 'was abnormally bad' (https://www.pcgamer.com/intel-skylake-why-apple-left/)

pixelguy
2020-06-25, 18:30:03
Montag kommt meins.
Cool! Aber gibt es da nicht ein massives NDA? :biggrin:

Zossel
2020-06-25, 18:36:14
Für Windows gibt's aber nunmal insgesamt das größte Softwareangebot. Egal ob kommerziell oder OpenSource. Für Windows gibt's fast alles, für Linux und MacOS eben nicht.

Allerdings hat Windows jede Menge ziemlich nervige Software.

Oft hat Software für Windows total obskure und nicht nachvollziehbare Einschränkungen oder der Kram bringt irgentwas mit was man überhaupt nicht haben will und nur schwer wieder los wird.

Unicous
2020-06-25, 18:41:23
Ich bin jetzt nicht 100% informiert über Piednoëls Schaffenswerk (und habe den Artikel noch nicht gelesen), aber war er nicht auch an Skylake und Co beteiligt (bevor er dann 2017 die Firma verlassen hat)?:freak:


edit:

Also wie schon gedacht, ein typischer Fall von "Die größten Kritiker der Elche waren früher selber welche."
Ich sehe so gut wie keine Selbstreflexion in den Kommentaren, aber das ist man von Piednoël auch nicht anders gewohnt.

Das zeigt auch den Korpsgeist auf der bei Intel herrscht. Ein Kunde weist auf die vielen Fehler hin, aber das gibt dem großen, alten Schlachtschiff nicht zu denken, ob sie nicht u.U. einen falschen Kurs eingeschlagen haben.

Zossel
2020-06-25, 18:53:19
Leicht OT, aber da muß ich noch eine Kleinigkeit loswerden:
Nach allem was ich zum Thema weiß, sind der Knackpunkt die Batterien. Elektromotoren sind ausgereifte Technologie, da hat jede Firma Zugriff auf leistungsfähige Technik. Notfalls per Zukauf. Batterietechnik dagegen ist noch ziemlich im Fluß. Wer sich da einen größeren Vorteil sichern kann, gewinnt den Technologiewettbewerb.

Warum immer nur Akkus?

Wie wäre es z.b. mit (platinfreien) Brennstoffzellen die mit Biokohlenwasserstoffen betrieben werden die aus Salzwasseralgen gewonnen werden?

Und bei E-Motoren passiert wohl auch was: https://www.golem.de/news/volabo-mit-niedrigspannung-in-die-elektromobile-zukunft-1910-144374.html

Und die Qualität von Teslakisten: https://www.golem.de/news/neuwagen-tesla-in-qualitaetsstudie-auf-letztem-platz-2006-149291.html

Zossel
2020-06-25, 18:54:31
Das zeigt auch den Korpsgeist auf der bei Intel herrscht. Ein Kunde weist auf die vielen Fehler hin, aber das gibt dem großen, alten Schlachtschiff nicht zu denken, ob sie nicht u.U. einen falschen Kurs eingeschlagen haben.

So führen sich eigentlich alle Marktführer auf.

x-force
2020-06-25, 19:01:25
Und bei E-Motoren passiert wohl auch was: https://www.golem.de/news/volabo-mit-niedrigspannung-in-die-elektromobile-zukunft-1910-144374.html


hm :freak: ~300kw leistung bei 48v machen bescheidene 6250 ampere.
das was die bei der herstellung am motor sparen wollen, legen sie für armdicke kabel wieder oben drauf. vom gewicht mal ganz abgesehen.
ich würde auch nicht von weniger gefahr reden, der strom reicht um mit zentimeter dicken elektroden zu schweißen

Limit
2020-06-25, 19:07:24
Macbook Air ist vielleicht etwas niedrig gegriffen (High-End Spielekonsolen nutzen ja auch shared Memory und sind deutlich schneller). Apple hat sich in der Vergangenheit auch nicht gescheut, für die jew. Zeit vergleichsweise breite Speicherinterfaces zu bauen (siehe z.B. https://www.anandtech.com/show/5688/apple-ipad-2012-review/12). Mal schauen ob da vielleicht noch die eine oder andere Überraschung kommt.
Ich denke nicht, dass es sich für Apple lohnt High-End GPUs zu entwickeln die dann nur in geringen Stückzahlen produziert werden. Daher erwarte ich Chips mit iGPUs für die kleinen und mittleren Modelle und Chips ohne GPU aber mit mehr Kernen für die High-End Modelle, die dann wie gehabt mit einer externen GPU zusammenarbeiten.

Triple A Games sind auf dem Mac doch schon immer kacke. Das ist einfach kein Spielcomputer.
Dafür gibt es doch den PC oder Konsole, man muss doch nicht nur ein Gerät haben, wir leben doch nicht in einer Planwirtschaft.
Mac + Konsole könnte ich mir ja noch vorstellen, aber Mac + Spiele-PC? Da würde ich dann einfach nur den PC nehmen und eine Menge Geld sparen.

Ich glaube nicht das der PC in seiner Form stirbt nur weil Apple eigene Cpus macht.
Das halte ich auch für ausgeschlossen, wahrscheinlicher stirbt damit eher der Mac wenn zu viele Software-Entwickler ihn links liegen lassen, aber noch wahrscheinlicher bleibt es einfach beim Nebeneinander von PC und Mac.

Matrix316
2020-06-25, 20:27:06
[...]

Das halte ich auch für ausgeschlossen, wahrscheinlicher stirbt damit eher der Mac wenn zu viele Software-Entwickler ihn links liegen lassen, aber noch wahrscheinlicher bleibt es einfach beim Nebeneinander von PC und Mac.
Apple war in den letzten Jahren immer ein ganz mieses Vorbild was Kunden(un)freundlichkeit betrifft. Windows Notebooks konnte man immer leicht öffnen und aufrüsten. Apple fing an alles dicht zu machen und sogar Speicher und SSDs zu verlöten und die PC Bauer sehen: Hmmm, das ist ja viel billiger - machen wirs auch so und wir können den Speicher Upgrade extra teuer machen. Genauso mit dem Kopfhöreranschluss bei Handys: Hmm, das ist ja viel billiger und wir können gleichzeitig noch extra Kopfhörer verkaufen.

Allerdings hat Windows jede Menge ziemlich nervige Software.

Oft hat Software für Windows total obskure und nicht nachvollziehbare Einschränkungen oder der Kram bringt irgentwas mit was man überhaupt nicht haben will und nur schwer wieder los wird.

Was heißt Windows hat nervige Software? Windows hat so gut wie ALLE Software. Wenn dir ein Media Player zu nervig ist, installierste halt einen anderen. Die Freiheit bei der Auswahl der Software ist IMO einer der größten Vorteile von Windows gegenüber jeder anderen Plattform. Aber jetzt wirds wirklich OT.

Was mir aber am PC gefällt, dass wenn mir Windows nicht gefällt kann ich auch Linux drauf machen oder auch macOS oder Free BSD oder sonstwas.

Auf dem Mac geht das mit etwas bastelei auch - noch.

Danach ist der Mac eine Playstation mit festem OS.

Eventuell gibts in Zukunft vielleicht nicht mal mehr CPU Optionen bei Notebooks, so dass es pro Generation nur noch eine Variante gibt wie bei den iPads und iPhones.

steve.it
2020-06-25, 21:33:54
Was heißt Windows hat nervige Software? Windows hat so gut wie ALLE Software. Wenn dir ein Media Player zu nervig ist, installierste halt einen anderen. Die Freiheit bei der Auswahl der Software ist IMO einer der größten Vorteile von Windows gegenüber jeder anderen Plattform. Aber jetzt wirds wirklich OT.

Da ich Windows schon seit mehr als 15 Jahren nicht mehr privat verwende, bin ich etwas raus.
Unter macOS gibt es einiges an sehr geiler Software, für die mir keine gleichwertigen Alternativen bekannt sind.

Selbst so etwas simples, wie einen guten RSS-Reader finde ich nicht unter Windows (oder kenne ich nicht). Die Betonung liegt auf gut.
Unter macOS: https://reederapp.com
Wenn der mir nicht passt, gibt es mehrere gleichwertige bzw. ähnlich gute Alternativen.
Unter Windows habe ich keinen einzigen gefunden, der nur in die Nähe kommt (ist aber auch länger her, dass ich das letzte mal danach geschaut habe). Das scheint mir auch ein Grund zu sein, warum einige kein RSS nutzen, da die keine wirklich guten Reader kennen...

https://www.devontechnologies.com/de/apps/devonthink
=> gibt es meinem Kenntnisstand nichts gleichwertiges unter Windows.

Phase One Capture One:https://www.captureone.com/de
Gibt es zwar auch für Windows. Lead-Plattform scheint aber macOS zu sein. Den Eindruck erhält man, wenn man ins Forum schaut.

usw. (könnte die Liste fortführen - soll aber nur als Beispiel dienen).

Klar, für Windows gibt es unter dem Strich mehr Software.
Nur ist es nicht so, dass es für macOS nichts gibt... ;-)

pixelguy
2020-06-25, 21:48:17
Sehe ich genauso wie steve.it...

Hier übrigens ein Interview zu Apple Silicon (Timestamp): https://www.youtube.com/watch?v=Hg9F1Qjv3iU&list=WL&t=2725s

Es geht auch explizit um die Lock-In Gerüchte.

Felixxz2
2020-06-25, 22:38:22
Cool! Aber gibt es da nicht ein massives NDA? :biggrin:

Jo gibt es. Das wird aber sicher einige nicht daran hindern uns mit Details zu versorgen :D

Andere Frage: Der A12Z ist ja eine 4+4 Config. Das dürfte aber sicher aufgebohrt werden, vor allem für Macbook Pros. Vielleicht auch als Config-Option.
Was denkt ihr also werden sie bringen?
Würde ausm Bauch raus mal auf 8+4 tippen, mit 4 kleinen Cores. Die reichen wohl auch am Mac für alles was einfach ist oder für always on.

Und dann 8 große Kerne mit +20% IPC zum A12Z, um Intel die Hosen auszuziehen :D

Badesalz
2020-06-25, 22:40:01
RSS wird wohl nicht von MacOS gerettet werden können
https://apps.derstandard.de/privacywall/story/2000084674551/rss-stirbt-tod-eines-tools-gegen-fake-news-und-facebook
https://forum.golem.de/kommentare/internet/browser-mozilla-bestaetigt-support-ende-fuer-rss-in-firefox/rss-stirbt-leider/121278,5205389,5206118,read.html

Devonthink ist schon eine Wucht. FALLS das alles auf den eigenen Datenträgern bleibt.

CaptureOne... und "lead-platform" MacOS
"I wonder why Phase One seems so reluctant to use Metal, other than that it's Mac specific and they're trying for as much platform-common code as possible. Another example: they still don't completely support long-standing Mac file selection methods (example: discontiguous groups of files)."
(vom Ende letzten Jahres)
https://support.captureone.com/hc/en-us/community/posts/360009388498-16-quot-MBP-CPU-GPU-performance

Und irgendwie erinnere ich mich an einen kurzen Rant von CaptureOne, bezüglich Metall :ulol: (und den damit (vor)programmierten Tot von OpenCL)

Unicous
2020-06-25, 23:23:17
Das ist typische Blasenmentalität.

Man kann Windows sicherlich für Vieles verantwortlich machen, aber nicht dafür, dass es keinen Raum für Entwicklung lässt. Es gibt eine fast unendliche Auswahl an alternativen Programmen und Apps die die Funktionalität erweitern bzw. verbessern.

Bei MacOS war/ist die Auswahl z.T. deutlich eingeschränkter, man muss aber zu Gute halten, dass schon vornherein die mitgelieferten Programme von guter Qualität sind und es einen dedizierten Entwicklerkreis gibt, der sich durch diverse Zukäufe und auch die Kundenbindung die durch das MacOS/iOS Ökosystem in den letzten 13 Jahren entwickelt, vergrößert hat.
Leider schauen diese Entwickler nicht über den Tellerrand und bleiben in ihrer Blase, bzw. werden von Apple aufgekauft und die Versionen die für Windows entwickelt wurden werden eingestellt.
(Siehe auch diese Liste an Aufkäufen die Apple getätigt hat ->https://en.wikipedia.org/wiki/List_of_mergers_and_acquisitions_by_Apple)


Und auch das Hardware-Ökosystem, das auf einer überschaubaren Anzahl von CPUs und GPUs etc. besteht ist ein Anreiz als Entwickler sich nicht für Windows oder Android/Linux zu entscheiden, insbesondere wenn man das gesamte Entwicklungsteam nur aus 1-2 Leuten besteht.:wink:

Warum sich die Mühe machen zig Tausende Android-Handys und OS-Versionen zu unterstützen, wenn man im "goldenen Käfig" sitzt und die Hardware-Veränderungen über die Produktiterationen überschaubar ist (abgesehen von den Performancesteigerungen natürlich).
Bei iOS hat man einen "Grund-SoC" der je nach Produkt etwas performanter ausfällt ( z.B. iPad vs. iPad Pro) und das war es auch fast schon (natürlich gibt es auch noch diverse "Co-Prozessoren").

Bei Android ist es Qualcomm mit diversen Iterationen und Architekturen, dann gibt es Mediatek, Hisilicon, Rockchip, Allwinner...

Der Anreiz für Apple exklusiv zu entwickeln ist also zum Teil dem Fakt geschuldet, dass es deutlich risikobefreiter ist als für Windows oder Android zu entwickeln.

steve.it
2020-06-26, 00:23:28
RSS wird wohl nicht von MacOS gerettet werden können
https://apps.derstandard.de/privacywall/story/2000084674551/rss-stirbt-tod-eines-tools-gegen-fake-news-und-facebook
https://forum.golem.de/kommentare/internet/browser-mozilla-bestaetigt-support-ende-fuer-rss-in-firefox/rss-stirbt-leider/121278,5205389,5206118,read.html

- unter Windows und Linux hatte ich keine RSS Reader genutzt, da ich keine guten kannte und daher RSS nicht zu schätzen wusste. Unter dem Mac nutze ich die seit Anfang an (also ca. 15 Jahre) und kann mir das ohne gar nicht vorstellen.
Ich habe schon öfters den Eindruck erhalten, dass viele User überhaupt nicht wissen, wie ein guter RSS Reader aussieht und so Kram wie in Firefox (früher) oder Thunderboard für einen RSS Reader halten...


CaptureOne... und "lead-platform" MacOS
"I wonder why Phase One seems so reluctant to use Metal, other than that it's Mac specific and they're trying for as much platform-common code as possible. Another example: they still don't completely support long-standing Mac file selection methods (example: discontiguous groups of files)."
(vom Ende letzten Jahres)
https://support.captureone.com/hc/en-us/community/posts/360009388498-16-quot-MBP-CPU-GPU-performance

Und irgendwie erinnere ich mich an einen kurzen Rant von CaptureOne, bezüglich Metall :ulol: (und den damit (vor)programmierten Tot von OpenCL)
Das ist ein anderes Thema. Im Forum dort sind mir aber in der Vergangenheit schon einige Posts aufgefallen, dass bestimmte Features unter macOS besser laufen oder unter Windows (offenbar) noch fehlen bzw. nicht gleichwertig umgesetzt sind. Das hatte ich gemeint. Das letzte mal war es glaube ich etwas mit der Library.

Das ist typische Blasenmentalität.

Man kann Windows sicherlich für Vieles verantwortlich machen, aber nicht dafür, dass es keinen Raum für Entwicklung lässt. Es gibt eine fast unendliche Auswahl an alternativen Programmen und Apps die die Funktionalität erweitern bzw. verbessern.
Blasenmentalität würde ich sagen, haben eher die Windows-Usern, die nicht mitreden können bzw. glauben, dass es unter dem Mac kaum Softwar gibt (es gibt natürlich Bereiche, in denen auch der Mac schwach aufgestellt ist). Devonthink ist eine der Anwendungen, die ich oben genannt hatte, allein wegen der sich mancher (angeblich) schon ein Mac gekauft hat.

Das ganze Scripting (das leider in den letzten Jahren nicht mehr weiterentwickelt wurde), ist ebenfalls nett. Mittels Automator kommt auch eine Laie recht gut zurecht.
https://www.heise.de/forum/heise-online/Kommentare/Kommentar-Automatisierung-in-macOS-Apple-raeumt-die-Schmuddelecke-nicht-auf/Re-man-startet-unter-macOS-Terminal-und-bekommt-bekommt-ba-sh-wie-anderswo/posting-36913468/show/

Unicous
2020-06-26, 04:46:14
Du zitierst das eine und antwortest dann auf etwas was ich nicht gesagt habe?:confused:

Unter MacOS ist die Auswahl eingeschränkter, warum sollte man das überhaupt bestreiten, das ist alleine schon dem Marktanteil geschuldet. Ich habe auch nichts von "kaum" oder dergleichen gesagt. Deine Argumentation besteht aus Spiegel, Spiegel und deinen anekdotischen, selbstreferenziellen Erfahrungen mit MacOS und dem Versuch Alternativen für Windows zu ergooglen?

Ich rede nicht von iOS, btw., das ist eine ganz andere Geschichte, das hatte ich ja bereits ausgeführt. Der App Store ist deutlich besser aufgestellt und kuratiert als der Play Store (auch wenn es hier nominell auch mehr Apps gibt.:wink:). Zukünftig wird das eh verschwimmen und das wird Apples Software-Ökosystem nochmals stärken, wenn sie es klug anstellen.

Das sollte aber nicht darüber hinwegtäuschen, dass Macs weiterhin "nur" 8% der weltweit verkauften Rechner ausmacht. Das ist mehr als ordentlich... und trotzdem eine Nische, die seit langer Zeit erfolgreich bedient wird.

Iamnobot
2020-06-26, 07:19:14
Apple war in den letzten Jahren immer ein ganz mieses Vorbild was Kunden(un)freundlichkeit betrifft. Windows Notebooks konnte man immer leicht öffnen und aufrüsten. Apple fing an alles dicht zu machen und sogar Speicher und SSDs zu verlöten und die PC Bauer sehen: Hmmm, das ist ja viel billiger - machen wirs auch so und wir können den Speicher Upgrade extra teuer machen. Genauso mit dem Kopfhöreranschluss bei Handys: Hmm, das ist ja viel billiger und wir können gleichzeitig noch extra Kopfhörer verkaufen.
Exakt. Und jetzt ist das Betriebssysten dran. I OS zeigt, wohin die Reise geht...

pixelguy
2020-06-26, 07:54:13
Exakt. Und jetzt ist das Betriebssysten dran. I OS zeigt, wohin die Reise geht...

Achja? Woran machst du diese Aussage fest?
Apple sagt ganz offiziell das Gegenteil.

Aber vielleicht kommen wir mal wieder zurück zum Thema.
Wenn ihr Apple blöd findet, ist das ja ok. Gehört hier aber nicht hin.

Iamnobot
2020-06-26, 08:00:57
Achja? Woran machst du diese Aussage fest?
Apple sagt ganz offiziell das Gegenteil.
Auch in Bezug auf das Booten von anderen Betriebssystemen? ;)

pixelguy
2020-06-26, 08:21:59
Auch in Bezug auf das Booten von anderen Betriebssystemen? ;)

Nein. Aber was hat das damit zu tun?
Das ist nicht ihre Pflicht. Dadurch wird macOS nicht zu einem geschlossenen System.

Badesalz
2020-06-26, 09:50:42
Ich habe schon öfters den Eindruck erhalten, dass viele User überhaupt nicht wissen, wie ein guter RSS Reader aussieht und so Kram wie in Firefox (früher) oder Thunderboard für einen RSS Reader halten...Abschließend zum Thema:
https://www.vice.com/en_us/article/a3mm4z/the-rise-and-demise-of-rss

Das ist ein anderes Thema. Im Forum dort sind mir aber in der Vergangenheit schon einige Posts aufgefallen […]
Nun... ich hab da immer meine Links zu sowas, bevor die Leute mir erzählen, ich dichte mir da grad was zurecht.

Und immernoch, ist die Programmvielfalt glasklar kleiner als unter Win. Das kann man mit "ich brauch x,y,z und das gibt es in Gut auf dem Mac" mal mehr mal weniger relativieren, aber pauschal wegwischen können ist nicht. Da sollte man auch mal ehrlich zu sich selbst sein.

Meine These wie gesagt ist eben, das dies eine der Sachen ist wo man ein iOS-Appsystem auf dem Mac herbeizaubert ;)

Zossel
2020-06-26, 10:21:49
Spannend:

Das Design der I/O Memory Management Units (IOMMU) wird bei Apple Silicon aber ein anderes sein. Intel-basierte Macs nutzen eine IOMMU für alle PCIe-Geräte, während Apple Silicon eine IOMMU pro PCIe-Gerät nutzen wird. Das soll dafür sorgen, dass diese Geräte nur auf den Speicher zugreifen können, der für dieses Gerät vorgesehen war. Apple will mit dieser Maßnahme zudem unterbinden, dass PCIe-Geräte sich gegenseitig „belauschen“ könne

https://www.computerbase.de/2020-06/apple-silicon-im-detail-wwdc-2020/#abschnitt_pciegeraete_erhalten_eigene_iommus

Allerdings gibt es bereits IOMMU Groups:

http://awilliam.github.io/presentations/KVM-Forum-2016/#/2/17
http://awilliam.github.io/presentations/KVM-Forum-2016/#/2/18

plus folgende


Jemand anwesend der die beiden Ansätze bewerten kann?

Zossel
2020-06-26, 10:37:59
Apple war in den letzten Jahren immer ein ganz mieses Vorbild was Kunden(un)freundlichkeit betrifft.

IMHO konnte man bereits bei dem allerersten MAC nicht in den Supervisormode der 68K CPU wechseln. Das war auch der Grund warum ich mir damals einen ST statt einem Mac gekauft habe.

Beim Apple II war das alles noch ganz anders, da war im Handbuch der Sourcecode vom F8 ROM abgedruckt.

Ailuros
2020-06-26, 12:40:44
Sehe ich auch so. Mir ging es aber darum, dass hier mancher behauptet, Intel hätte die weniger talentierten Design Engineers. Und IMO sollte man Intel hier nicht unterschätzen oder gar über sie herziehen. Nur darum ging es mir. :)

Man kann auch nicht erwarten dass jeder selbst im geringsten verstehen kann wie Apple's Geschaeifts-Mentalitaet wirklich tickt.

Apple war mit der IMG roadmap vor etlichen Jahren nicht mehr zufrieden, eben zum Zeitpunkt als es Apple bewusst wurde dass sie QCOM mit ihren Adrenos ziemlich schnell bei so manchem metric ueberholen wird. Sie haben auch wohl mehr als nur einmal das Ganze mit IMG besprochen, denn IMG wusste schon seit einiger Zeit dass Apple custom GPU IP entwickeln wird. Apple kuendigte die Loesung (worueber es eigentlich IMHO um royalties ging) frueher an als IMG erwartet haette, aber der eigentliche Punkt hier ist der wer Scheiss baut bzw. weniger liefert als erwartet wird wenn moeglich ersetzt.

Apple's Problem mit Intel war wohl erstens dass die Leistung nur noch gering skalierte (nochmal roadmap) und dass Skylake so manches Problemchen fuer sie hatte.

Es gelten natuerlich auch Vorteile wie vorher erwaehnt die Kombination von eigen entwickelter hw und eigen entwickelter sw, aber es geht mir hier um den Tropfen der jeweils zu den relevanten Entscheidungen seitens Apple gefuehrt hat. Apple hat offensichtlich einen SoC fuer Macs nicht gestern entwickelt und schon gar nicht jegliche sw Aenderungen dafuer nur vor kurzem geplant. So lange wie die Geruechte herumschwirren dass iOS "erwachsener" werden soll, genau so alt ist auch die ganze Geschichte.

smalM
2020-06-26, 13:57:11
Apple wirbt selbst im letzten iPad Spot: Dein nächster Computer ist kein Computer.
Da geht es ja auch um das iPad.
Nein, das ist Werbung und damit geht es um die Zielgruppe der potentiellen iPad-Käufer. Die Anzahl der Leute, die mit einem iPad die nächste ERP-Software programmieren wollen, dürfte ziemlich klein sein und wird deshalb von der Werbung exkludiert. Apple verkauft mit dem iPad keinen Computer, sie verkaufen das einfache Kontakthalten mit den Enkelchen per Facetime usw...
Bosch verkauft in seiner Werbung auch nicht den neuen super-duper Bohrhammer, sie verkaufen dickere Löcher in der Wand.

Montag kommt meins.
[...]
Andere Frage: Der A12Z ist ja eine 4+4 Config. Das dürfte aber sicher aufgebohrt werden, vor allem für Macbook Pros. Vielleicht auch als Config-Option.
Was denkt ihr also werden sie bringen?
Würde ausm Bauch raus mal auf 8+4 tippen, mit 4 kleinen Cores. Die reichen wohl auch am Mac für alles was einfach ist oder für always on.
Und dann 8 große Kerne mit +20% IPC zum A12Z, um Intel die Hosen auszuziehen
Neid! Wo wohnst Du und wann bist Du nicht zuhause?

Zu Deiner Vermutung:
Ja, ich denke Du wirst mit 8+4 richtig liegen.
Und 20% mehr IPC ist im Bereich des Möglichen, wenn Apple den Core so wie beim A11-Monsoon noch einmal verbreitert, sonst wird's eher marginal werden. Auch der Takt wird sicherlich einen deutlichen Sprung machen. Und damit meine ich nicht den Spitzentakt für einen Core sondern den all-core.
Allerdings denke ich, daß das nur die erste Fingerübung sein wird. Ich glaube, wir werden innerhalb eines Jahres brutal viel Leistung in einem MacBook Pro sehen.

ich würde auch nicht von weniger gefahr reden, der strom reicht um mit zentimeter dicken elektroden zu schweißen
Die Leistung reicht aus, um ein gutes Stück aus einem 24er-Schlüssel zu verdampfen – keine Ahnung, wo sie bei Chrom-Nickel-Stahl liegt, aber die Kochtemperatur von Eisen ist 3000℃.

Heimatsuchender
2020-06-26, 15:34:53
Apple war in den letzten Jahren immer ein ganz mieses Vorbild was Kunden(un)freundlichkeit betrifft


Dann musst du aber auch alle anderen Hersteller kritisieren, die das nachmachen.

Und auch uns Kunden, weil wir das Zeug trotzdem kaufen.

Zossel
2020-06-26, 15:58:55
Dann musst du aber auch alle anderen Hersteller kritisieren, die das nachmachen.

MS wollte doch in den Nullern noch was viel schlimmeres bauen hat das aber nach Protesten wieder zurückgezogen. Runde Ecken und so ....

Und auch uns Kunden, weil wir das Zeug trotzdem kaufen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12348829&postcount=4080

Normalerweise sage ich auch jedem Apple User direkt in die Fresse das er ein Idiot ist und auch mich einschränkt weil jedes verkaufte Apple Device ein Stück weniger Freiheit für Alle ist.

Und das kannst Du und jeder Andere auch tun!

Heimatsuchender
2020-06-26, 16:03:49
MS wollte doch in den Nullern noch was viel schlimmeres bauen hat das aber nach Protesten wieder zurückgezogen. Runde Ecken und so ....



https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12348829&postcount=4080

Normalerweise sage ich auch jedem Apple User direkt in die Fresse das er ein Idiot ist und auch mich einschränkt weil jedes verkaufte Apple Device ein Stück weniger Freiheit für Alle ist.

Und das kannst Du und jeder Andere auch tun!


Wie gesagt. Wir Kunden sind zum Teil selbst schuld. Wir kaufen die Dinge trotz der Einschränkungen. Egal, von welchem Hersteller.

Zossel
2020-06-26, 16:06:04
Apple wirbt selbst im letzten iPad Spot: Dein nächster Computer ist kein Computer. :freak:

Eigentlich sind diese ganzen Dinger mit Grabbelbedienung reine Medienkonsumgeräte, also genauso wie ein Fernseher und machen dich genauso blöd und infantil.
Apple ist halt richtig dreist sagt es dir direkt in die Fresse.

Schade das Neil Postman schon tot ist, er hätte sicherlich schöne Bücher darüber geschrieben.

pixelguy
2020-06-26, 16:36:09
Normalerweise sage ich auch jedem Apple User direkt in die Fresse das er ein Idiot ist und auch mich einschränkt weil jedes verkaufte Apple Device ein Stück weniger Freiheit für Alle ist.

Und das kannst Du und jeder Andere auch tun!

Mit Leuten wie dir macht eine Diskussion halt einfach keine Sinn...
Verblendet und auf die eigenen Wünsche und Ansichten beschränkt.
Alle anderen haben diesen zu folgen und sind halt sonst Idioten.

Bin ich halt ein Idiot. Komme ich mit klar, solange ich nicht Windows nutzen muss ;D

Aber vielleicht kommst du mal zurück zum Thema oder belässt es jetzt einfach mal dabei, dass Apple scheiße ist.
Haben wir alle verstanden.

Hier gehts um Technik der ARM-Eigenentwicklung von Apple.

LadyWhirlwind
2020-06-26, 18:44:17
Wie gesagt. Wir Kunden sind zum Teil selbst schuld. Wir kaufen die Dinge trotz der Einschränkungen. Egal, von welchem Hersteller.

Meine iPhones haben immer alle stressfrei funktioniert. Und wenn nicht, habe ich 2 Tage später den Apple Store mit einem reparierten Gerät verlassen. Bei begründeten Reklamationen habe ich den Apple-Store immer problem los erlebt, Gerät wurde auf Garantie repariert bzw. getauscht.
Mann kann jetzt die hohen Reparaturpreise kritisieren, aber das ich das Gerät im Store nicht einschicken muss, ist es mir wert.

Und es ist Jahre her, dass ich das Gefühl hatte, mir fehlt etwas.

Zossel
2020-06-26, 20:12:21
Mit Leuten wie dir macht eine Diskussion halt einfach keine Sinn...
Verblendet und auf die eigenen Wünsche und Ansichten beschränkt.

Ich will mir halt nicht von einer Computerfirma vorschreiben lassen keine Titten auf meinen Handy sehen zu dürfen oder Karten mit Drohnenangriffen oder keinen Adblocker im Browser installieren zu dürfen. Und jeder der das nutzt und kauft macht das attraktiver.

Hier gehts um Technik der ARM-Eigenentwicklung von Apple.

Die Basistechnik für den Freiheitsentzug, die sich jetzt weiter ausbreiten soll.

Zossel
2020-06-26, 20:13:37
Und es ist Jahre her, dass ich das Gefühl hatte, mir fehlt etwas.

Dir fehlt kein Adblocker im Browser?

pixelguy
2020-06-26, 20:24:25
Ich will mir halt nicht von einer Computerfirma vorschreiben lassen keine Titten auf meinen Handy sehen zu dürfen oder Karten mit Drohnenangriffen oder keinen Adblocker im Browser installieren zu dürfen. Und jeder der das nutzt und kauft macht das attraktiver.

Die Basistechnik für den Freiheitsentzug, die sich jetzt weiter ausbreiten soll.

Kannst du alles machen. Nur halt nicht mit einer App aus dem AppStore.

Und wo steht, dass der Freiheitsentzug weiter ausbreiten soll? Apple sagt das Gegenteil aus Nachfrage.

Monsta
2020-06-26, 20:26:44
Dir fehlt kein Adblocker im Browser?


Wie wäre es mit Firefox Klar? Titten usw zeigt der auch an.

pixelguy
2020-06-26, 20:26:58
Dir fehlt kein Adblocker im Browser?

Also ich habe einen im Chrome auf dem Mac.

Und übrigens, man wird unter iOS 14 wesentlich freier in der Wahl der default Apps. Man kann also auch chrome oder Gmail als erste Wahl setzen.

Soviel zum Freiheitsentzug.
Wobei die ggf. auch nur einer Kartellklage zuvor kommen wollten.
Die Microsoft, die Kämpfer der Freiheit ja verloren hat.

Zossel
2020-06-26, 21:01:51
Wie wäre es mit Firefox Klar? Titten usw zeigt der auch an.

Apple lässt keine Plugins zu.

LadyWhirlwind
2020-06-26, 21:04:45
Dir fehlt kein Adblocker im Browser?

Fehlen nicht, weil ich einen Installiert habe. Das geht nämlich...

Ach, und meine Selfies kann ich auch speichern...

Ich seh also dein Problem nicht.

Und Karten mit Drohnen Angriffen fehlen mir nicht wirklich.

Zossel
2020-06-26, 21:05:12
Kannst du alles machen. Nur halt nicht mit einer App aus dem AppStore.

Und was kann man am Appstore vorbei auf den Kisten installieren? Selbst FF-Plugins sind verboten.

Apple sagt das Gegenteil aus Nachfrage.

Was sagt Apple, kannst du das Zitat hier zitieren?

Zossel
2020-06-26, 21:07:39
Fehlen nicht, weil ich einen Installiert habe. Das geht nämlich...

Upps, sag mal wie das geht. Ein Kollege klagte darüber das da nix geht, und als wir einen FF installiert hatten um ublock zu nutzen ging das auch nicht.

Und Karten mit Drohnen Angriffen fehlen mir nicht wirklich.

Schöne neue Welt.

LadyWhirlwind
2020-06-26, 21:08:28
Und was kann man am Appstore vorbei auf den Kisten installieren? Selbst FF-Plugins sind verboten.


Was willst du den am App Store vorbei installieren?

Monsta
2020-06-26, 21:14:42
Apple lässt keine Plugins zu.

"Firefox klar" zeigt keine Werbung an. Und ja es geht auf dem Iphone da ich den Broswer auf meinem benutze.

https://apps.apple.com/de/app/firefox-klar/id1073435754


Bei dem ARM Macs wird man ohne App Store weiterhin Software installieren können. Ein Terminal wird es auch weiterhin geben.

Felixxz2
2020-06-26, 22:37:18
Und was kann man am Appstore vorbei auf den Kisten installieren? Selbst FF-Plugins sind verboten.


Digga möchtest du bitte aufhören diesen Thread zuzuspamen? Mehr OT geht ja wohl nicht. Wenn dir Apples Produkte nicht passen, dann geh doch mit gutem Beispiel voran und verlasse die Diskussion. Hier gehts um SoCs und nicht um Skynet....

Badesalz
2020-06-26, 22:40:50
Upps, sag mal wie das geht. Ein Kollege klagte darüber das da nix geht, und als wir einen FF installiert hatten um ublock zu nutzen ging das auch nicht.Falls da was kommt speichere ich mir das natürlich gerne auch ab :up:

Ich bin so halbwegs bei dir, auch wenn ich das imho sinniger bringen könnte ;) ABER das ändert nichts. Ein ARM-Mac ändert gegenüber einem x86-Mac garnichts, für Leute, die das Zeug nicht leiden können. Pauschal verschlimmert vorerst nichts.

Sollte das dennoch so werden, dann haben sie leider etwas richtig gemacht :freak: Entweder sie können den Preis drücken und es wird für nicht Fangirls attraktiv oder es wird doch noch richtig schnell.
Sonst aber ändert das vorerst noch garnichts. Jedenfalls bis man wirklich weiß wieviel anders - oder halt wie ähnlich - für einen iOS Progger das ARM-MacOS ist.

pixelguy
2020-06-26, 22:47:29
Was sagt Apple, kannst du das Zitat hier zitieren?

Hatte das Video mit entsprechendem timestamp vor 1-2 Seiten verlinkt.

https://www.youtube.com/watch?v=Hg9F1Qjv3iU&list=WL&t=2725s

Schau es halt auch mal

LadyWhirlwind
2020-06-26, 22:49:30
Content Blocker gibts im App Store. Sobald einer installiert ist, kann er aktiviert werden.

https://www.macrumors.com/how-to/enable-content-blockers-safari/

Kann man auch googeln.

Was nicht geht sind Extensions, die direkt zugreifen können. Aber so kann auch niemand die Daten nach China, der NSA etc. schicken...

Badesalz
2020-06-26, 22:55:21
Was nicht geht sind Extensions, die direkt zugreifen können. Aber so kann auch niemand die Daten nach China, der NSA etc. schicken...Oder deine Selfies nach Fap... Ou. Mist... Schon passiert :usweet:

Oh. Nochmal passiert... Was ist denn da nur los? ;)

pixeljetstream
2020-06-27, 13:27:01
Diskussion zur Apple GPU, aus
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12349679#post12349679

Ich frage mich ja, ob die GPUs auch mit AMD und Nvidia mithalten können. Meistens ist die CPU in diesen ARM SOCs super stark und die GPU dagegen ne Krücke. Vielleicht wird das ganze ja ausbalancierter demnächst.

Für das hauptklientel der Mac User, weniger Gaming als workstation, insbesondere 2d etc. sollte das schon recht gut klappen, zumal die SoCs viele zusätzliche Spezialisierte Einheiten für inferencing und Video haben.

Tiler Architektur haben ja nur bei hoher Geometrielast nen Nachteil. Gerade im workstation Bereich wir sich hier aber Raytracing auch für Standard viewport weiter verbreiten, so dass der Nachteil auch nicht mehr so ins Gewicht fällt.

pixeljetstream
2020-06-27, 13:37:24
Die diskreten AMD-GPUs bleiben natürlich. Apple wird da jetzt keine High-End-Karten mit PowerVR-Technik bauen. Bin mir nicht mal sicher, ob das theoretisch mit heutigen PowerVR-Architekturen überhaupt geht. In jedem Falle wäre das für den kleinen Apple-Markt und den dazu vergleichbar winzigen Markt für diskrete Grafik bei Apple mMn einfach viel zuviel Entwicklungsaufwand.
Das mit dem kleineren Mark, kann man IMO ebenso umdrehen. Gerade weil nicht so groß, leichter an die eigenen Stärken anzupassen, statt overhead an third Party IP etc. de facto muss dieser Markt sich sw seitig gerade von GL und CL verabschieden, ergo passiert da eh einiges auch sw seitig.

Im übrigen glaube ich dass da nicht mehr viel von powerVR übrig ist. Aus patentgründen kommen sie halt nicht drumherum da weiter zu zahlen, aber sie haben schon ewig eigene GPU hw Teams.

pixeljetstream
2020-06-27, 13:46:47
Die GPU im Ax SoC ist schon ein paar Jahre lang intern keine PowerVR GPU mehr. Apple hat mittlerweile alles umgeschrieben und eine eigene GPU gebaut. IMG bekommt lediglich Lizenzen, da sie sonst gegen deren IP verstoßen würden.
Man sollte Apple nicht unterschätzen - auch im GPU Bereich haben sie mittlerweile eine ganze Menge Top Talente akquiriert.
Und gerade GPU uArchs sind ja noch relativ leicht skalierbar durch Breite.

+1




Bei GPUs ist das "Mischen" ja auch dank der standardisierten Abstraktionsschichten viel viel leichter.
Aber wenn du als hw Hersteller die Chance hast ähnlich zu Konsolen alles auf eine Architektur zu optimieren, spricht IMO wenig dagegen. Denk an all die Leistungsverluste am PC vs Konsolen... all das interne hin und her. Compiler, profiling tools, docu für Entwickler wie sie optimieren sollen...

=Floi=
2020-06-27, 13:52:50
Ich frage mich, wo die leistungsfähigkeit bei mobilen geräten herkommt.
Sind die 50-70% der aktuellen grafik einfach so problemlos stromsparend darzustellen und die letzten paar % verbrauchen die extremen watt?!

COD mobile und ein paar andere games sehen super aus und laufen imho auch in 1080p. Das ist schlicht pervers, wenn ich das mit dem pc vergleiche, wo ich pro frame schon 1-4watt verbrate.

x-force
2020-06-27, 14:08:06
Ich frage mich, wo die leistungsfähigkeit bei mobilen geräten herkommt.


größe des soc und betriebspunkt auf effizienz statt leistung

a13 bionic hat ca 100nm
amd zen2 apu ca 150nm, aber die leistet auch wesentlich mehr und ist noch mit vega anstatt navi

zudem packt apple dichter 8,5 vs 10 mrd transistoren

Zossel
2020-06-27, 14:16:56
"Firefox klar" zeigt keine Werbung an. Und ja es geht auf dem Iphone da ich den Broswer auf meinem benutze.

https://apps.apple.com/de/app/firefox-klar/id1073435754


Da muss man auch erst mal drauf kommen das das so umständlich ist.

Bei dem ARM Macs wird man ohne App Store weiterhin Software installieren können. Ein Terminal wird es auch weiterhin geben.

Auch bei den derzeitigen X64 Geräten fährt Apple sukzessive die Freiheit runter, und die zusätzlichen Möglichen der eigenen Chips werden die Kontrollfreaks bei Apple schon zu nutzen wissen.

pixeljetstream
2020-06-27, 14:16:58
Ich frage mich, wo die leistungsfähigkeit bei mobilen geräten herkommt.
Sind die 50-70% der aktuellen grafik einfach so problemlos stromsparend darzustellen und die letzten paar % verbrauchen die extremen watt?!

COD mobile und ein paar andere games sehen super aus und laufen imho auch in 1080p. Das ist schlicht pervers, wenn ich das mit dem pc vergleiche, wo ich pro frame schon 1-4watt verbrate.

Ich denke wenn man das Bild auf nen großen pc Monitor ausgeben würde, und dann vergleicht wird man bestimmt mehr an den Einsparungen zum normalen Spiel erkennen. Aber ja ist schon beachtlich.

pixelguy
2020-06-27, 16:02:19
Ich bin ja mal gespannt, ob das Apple Modem rechtzeitig fertig wird.
Dann könnte das ja direkt mir rein und die MacBooks hätten endlich auch LTE.

Kallenpeter
2020-06-27, 21:23:49
Ich bin ja mal gespannt, ob das Apple Modem rechtzeitig fertig wird.
Dann könnte das ja direkt mir rein und die MacBooks hätten endlich auch LTE.
Daran habe ich auch schon öfter gedacht.

Und macht auch nur Sinn. Wie beim iPad wäre das zukünftig einer der Punkte die man mit Aufpreis verkaufen kann. Erst recht wenn man an eSims denkt, vermutlich wird Apple dann versuchen den Mobilfunkvertrag mit zwei Klicks auf andere Endgeräten mit zu nutzen.

Badesalz
2020-06-27, 23:04:32
Für das hauptklientel der Mac User, weniger Gaming als workstation, insbesondere 2d etc. sollte das schon recht gut klappen, zumal die SoCs viele zusätzliche Spezialisierte Einheiten für inferencing und Video haben.Was nochmal macht man mit Inferencing an einer Workstation? (oder gar einem Smartphone...)

Ja wirklich schade, daß es z.B. kein Solidworks für MacOS gibt. Da hätte man sich was anschauen können ;)
Immerhin gibts aber vom DraftSight 2020 SP1 eine Art Beta für Mac. Hmm... :tongue:

smalM
2020-06-28, 14:05:45
In einem anderen Forum ging es um das iPad Pro und ob das ein Mac-Tablet wird.
Dabei kam mir der Gedanke, wird es überhaupt noch einen separaten iPad-Pro-SoC geben?
Wozu soll sich Apple damit mühen, wenn wahrscheinlich genug Salvage-Teile aus der Mac-SoC Produktion verfügbar sind, bzw. schaltet man halt in einer handvoll Millionen Stück einen Teil des SoCs ab – finanziell dürfte das auf das Gleiche rauskommen wie ein eigens entwickelter SoC, man entlastet aber die Entwicklungsabteilung.

urpils
2020-06-28, 15:21:51
In einem anderen Forum ging es um das iPad Pro und ob das ein Mac-Tablet wird.
Dabei kam mir der Gedanke, wird es überhaupt noch einen separaten iPad-Pro-SoC geben?
Wozu soll sich Apple damit mühen, wenn wahrscheinlich genug Salvage-Teile aus der Mac-SoC Produktion verfügbar sind, bzw. schaltet man halt in einer handvoll Millionen Stück einen Teil des SoCs ab – finanziell dürfte das auf das Gleiche rauskommen wie ein eigens entwickelter SoC, man entlastet aber die Entwicklungsabteilung.

Es ist doch eher umgekehrt. Man entwickelt für iPad und iPhone und was an Technik abfällt steckt man in die. macs ;)

pixelguy
2020-06-28, 15:56:41
In einem anderen Forum ging es um das iPad Pro und ob das ein Mac-Tablet wird.
Dabei kam mir der Gedanke, wird es überhaupt noch einen separaten iPad-Pro-SoC geben?
Wozu soll sich Apple damit mühen, wenn wahrscheinlich genug Salvage-Teile aus der Mac-SoC Produktion verfügbar sind, bzw. schaltet man halt in einer handvoll Millionen Stück einen Teil des SoCs ab – finanziell dürfte das auf das Gleiche rauskommen wie ein eigens entwickelter SoC, man entlastet aber die Entwicklungsabteilung.

Für die MacBook Air sollte der iPad SoC auf jeden Fall ausreichen.
Mein iPad Pro ist gefühlt auf jeden Fall deutlich flüssiger als das Air.
Hab da jetzt aber keine Benchmarks im Kopf.

Die Frage ist echt, wie die da den Schnitt machen. Kann mir nicht so richtig vorstellen, dass iPad Pro und Air verschmelzen.

Es ist doch eher umgekehrt. Man entwickelt für iPad und iPhone und was an Technik abfällt steckt man in die. macs ;)

Siehe oben, zumindest für die unteren Geräteklassen macht das bestimmt Sinn.
Aber ab dem kleinsten Pro nicht mehr. Und sie sagen ja auch, dass sie mehrere Chips planen für vers. Geräteklassen.

=Floi=
2020-06-28, 17:13:31
weil das air auch super schlecht konstruiert ist und man wohl bewusst zum pro weniger performance anbietet.

pixelguy
2020-06-28, 17:53:56
Ja, das Air ist echt nicht gut... Keine Ahnung was die sich dabei gedacht haben

Felixxz2
2020-06-28, 17:58:09
Vermutlich soll es im Vergleich zu den eigenen SoCs noch schlechter dastehen haha

pixelguy
2020-06-28, 18:01:10
Naja, zumindest haben sie dann mit dem eigenen Apple Silicon da keine Ausrede mehr.
Die Dinger sollten dann keine Hitzeprobleme oder andere Fehlkonstruktionen in dem Bereich haben.

Deinorius
2020-06-29, 02:13:15
weil das air auch super schlecht konstruiert ist und man wohl bewusst zum pro weniger performance anbietet.


Das ist ja noch harmlos ausgedrückt. Der Kühlerblock hat keinen vernünftigen Kontakt zum Prozessor! Wenn zumindest das gegeben wäre, ginge deutlich mehr.

Monsta
2020-06-29, 09:06:26
Da muss man auch erst mal drauf kommen das das so umständlich ist.
.

Willst Du Du uns verkackeiern? Du hast kein Iphone bist uninformiert und behauptest einfach unwarheiten.
Dann muss man Dir das mehrfach erklären und am Ende ist es umständlich eine App zu installieren?

Wie wäre wenn man sich zuerst schlau macht und dann im Forum steil geht. Auch ohne Iphone kann man sich schlau machen welcher Browser die Privatsphäre mehr schützt.

Aber warscheinlich willst Du nur gegen Apple ätzen und nutzt selber nen Chrome browser ;D

davidzo
2020-06-29, 10:55:30
Was ich bedeutsam finde ist das Apple bereits seine kleinen Cores als ebenbürtig zu Intels "big cores" sieht und die performance Cores einfach nochmal in einer anderen Liga spielen sollen.

Nebenbei die klare Bekenntnis zu heterogenem Multiprocessing, wir werden also auch im desktop wohl Chips mit kleinen und großen Kernen sehen.


Vielleicht spielt bei der Entscheidung von Intel weg zu gehen auch das lakefield debakel eine Rolle. Jahrelang angekündigt und letzendlich vom performanceansatz viel zu niedrig angesetzt um 2020 noch irgendwas zu reißen.
Ich meine Lakefield bzw. Foveros erste Implementation wurde spätestens 2018 mit allen Details (4+1, 64eu gen11, etc.) und Package Shots angekündigt und sollte eigentlich zeitgleich mit icelake herauskommen.
Wenn die da schon silicon hatten, wird Apple mindestens 2 Jahre früher bescheid gewusst haben in welche Richtung as geht und dass Lakefield nicht mit den eigenen A-Series Socs mithalten können wird.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70672&stc=1&d=1593420920

Felixxz2
2020-06-29, 14:11:07
Was ich bedeutsam finde ist das Apple bereits seine kleinen Cores als ebenbürtig zu Intels "big cores" sieht und die performance Cores einfach nochmal in einer anderen Liga spielen sollen.

Nebenbei die klare Bekenntnis zu heterogenem Multiprocessing, wir werden also auch im desktop wohl Chips mit kleinen und großen Kernen sehen.
[/IMG]

Das fand ich auch eine kleine, aber bedeutende Randnotiz. Falls das nur im Ansatz so kommt, wäre das der Wahnsinn. Wenn man sich mal ansieht, dass die LITTLE Cores auf Apple A6 Kernen basieren und weniger ziehen als Intels Chipsatz :freak:

Der heterogene Ansatz ist aber auch einfach klar überlegen. Auch am Desktop bist du einfach meistens in irgendwelchen 2D Apps, schaust Videos oder schreibst Mails. Oder hängst im 3D Center ab ;D

Wenn du das bei paar Watt passiv tun kannst, ist das einfach nur mega. Wenn du dann deine Pro App startest geht der Lüfter halt an, aber das hast du ja jetzt auch schon und zwar ordentlich.

robbitop
2020-06-29, 14:54:15
Ich glaube nicht, dass die Tempest auf Swift basieren. Sie haben aber eine ähnliche IPC.

Felixxz2
2020-06-29, 15:34:02
Ich glaube nicht, dass die Tempest auf Swift basieren. Sie haben aber eine ähnliche IPC.

Wurde im Anandtech review spekuliert, ist natürlich kein Fakt. Da das Design aber sehr ähnlich ist, ist es doch recht wahrscheinlich

robbitop
2020-06-29, 15:46:36
Ggf. in der Form wie Core 2 auf P6 basierte. Das Instructionset ist neuer, die Frage ist ob die Pipelinestufen auch passen etc. Sicherlich wird man Dinge und Erkenntnisse übernommen haben. Aber auch sehr vieles neu gemacht haben, damit es besonders klein und sparsam (besonders im idle) wird. Sowas wird gern unterschätzt. Ein komplettes Redesign (oder großteils) würde mich nicht wundern.

pixelguy
2020-06-29, 16:57:36
Wie weit könnte Apple eigentlich gehen und das Betriebssystem oder bestimmte Software per Hardware beschleunigen? Mit eigenen Chips und/oder Anpassungen?
Gibt es da Themenfelder wo das Sinn macht?

Wie weit ist da eigentlich das iPhone mit iOS?

D4ve
2020-06-29, 17:01:28
Erste Benches (leider Geekbench :freak:)
https://images.macrumors.com/t/74UiYspVXDLEoEkaFXcW4rKzDzc=/1600x0/filters:quality(90)/article-new/2020/06/rosetta-2-benchmarks-a12z-mac-mini.jpg

Edit:
Geekbench wurde mit Rosetta ausgeführt.

pixelguy
2020-06-29, 17:07:25
Erste Benches (leider Geekbench :freak:)

Edit:
Geekbench wurde mit Rosetta ausgeführt.

Das kommt ja schon sehr nah an das MacBook Air 2020 mit i5 oder sehe ich das gerade falsch?

Trotz Rosetta.

Edit: Naja gut, da war selbst das 2018er iPad Pro schon deutlich stärker. Sagt also nix aus.

sth
2020-06-29, 17:25:18
Edit: Naja gut, da war selbst das 2018er iPad Pro schon deutlich stärker. Sagt also nix aus.
Jein... Geekbench ist cross-plattform meines Wissens kaum vergleichbar, aber macOS x86_64 vs. macOS x86_64 auf ARM via Rosetta ist schon ein interessanter Vergleich - wenn auch er noch keinerlei Rückschlüsse auf die native Perforamance zulässt. Aber immerhin scheint die x86-Emulation doch relativ performant zu sein.

Und wie gesagt: Es handelt sich beim A12Z immernoch um eine 1,5 Jahre alte Tablet-CPU, die so nie in Macs kommen wird (direkte Aussage von Apple). D.h. von hier wird es nur besser werden.

[edit]: https://twitter.com/unaliasedme/status/1277613771024994304
"Neat detail: It's showing a four core Virtual CPU, the A12Z is an 8 core CPU with four large cores and four little cores. The controller can pool all eight cores on iOS.
Rosetta doesn't run on the little cores by the looks of things."

D4ve
2020-06-29, 17:54:02
https://twitter.com/unaliasedme/status/1277613771024994304[/url]
"Neat detail: It's showing a four core Virtual CPU, the A12Z is an 8 core CPU with four large cores and four little cores. The controller can pool all eight cores on iOS.
Rosetta doesn't run on the little cores by the looks of things."

Ja, sieht man auch schon in den Geekbench-Resultaten, dass nur vier Kerne laufen. War es zu aufwendig die Big-Little-Struktur und das Load-Scheduling in Rosetta zu implementieren, oder sagt sich Apple einfach nur "Für Emulation nur Big Cores!"?

sth
2020-06-29, 18:01:36
Ja, sieht man auch schon in den Geekbench-Resultaten, dass nur vier Kerne laufen. War es zu aufwendig die Big-Little-Struktur und das Load-Scheduling in Rosetta zu implementieren, oder sagt sich Apple einfach nur "Für Emulation nur Big Cores!"?
Gute Frage. Irgendjemand hatte neulich mal verlautbaren lassen, dass das DTK laut den Release Notes von Apple Einschränkungen bei der Umschaltung der Memory Page Size hat.
Evtl. ist das der Grund mit den kleinen Cores? Andererseits wäre ich mir auch nicht sicher, ob Apple sich wirklich den Aufwand macht, das Load Scheduling für Rosetta zu implementieren.

Unrelated: https://twitter.com/stroughtonsmith/status/1277628592458006528 ;)

Felixxz2
2020-06-29, 18:01:38
Wie weit könnte Apple eigentlich gehen und das Betriebssystem oder bestimmte Software per Hardware beschleunigen? Mit eigenen Chips und/oder Anpassungen?
Gibt es da Themenfelder wo das Sinn macht?

Wie weit ist da eigentlich das iPhone mit iOS?

Irgendwer hat doch hier vor paar Seiten erwähnt, dass sie ne Javascript HW Beschleunigung drin haben. Könnte man mal nachforschen.

Sonst die Benches sehen nett aus, sind aber nat. fürn Popo. Rosetta scheint aber echt gut zu laufen.

sth
2020-06-29, 18:16:19
Irgendwer hat doch hier vor paar Seiten erwähnt, dass sie ne Javascript HW Beschleunigung drin haben. Könnte man mal nachforschen.
Siehe z.B. Zusammenfassung hier: https://www.infoq.com/news/2018/11/iphone-xs-javascript-performance/

Geht im konkreten Fall wohl auf das ARMv8.3-Instruction-Set zurück, welches theoretisch auch andere implementieren könnten.

Aber da hat Apple halt einen großen Vorteil: Sie können sowas mal eben auf HW und SW-Seite gleichzeitig implementieren.

In diesem Fall ist das Ganze wohl seit dem A12 supported, also seit der 2018er Chip-Generation.


Ansonsten hat Anandtech auch immer ganz nette Artikel über Apples Chips, z.B. https://www.anandtech.com/show/13392/the-iphone-xs-xs-max-review-unveiling-the-silicon-secrets

D4ve
2020-06-29, 18:34:10
GeekBench Einzelergebnisse (https://browser.geekbench.com/v5/cpu/compare/2729566?baseline=2726446)

pixelguy
2020-06-29, 18:37:46
GeekBench Einzelergebnisse (https://browser.geekbench.com/v5/cpu/compare/2729566?baseline=2726446)

Interessant. Aber das MacBook (Mid 2017) ist echt ein altes und lahmes Ding.

steve.it
2020-06-29, 20:00:08
Wir haben unseren Transition Mini heute bekommen.

Erster Eindruck: erstaunlich positiv.

Unsere eigene Anwendung - basierend auf einer 4D Datenbank läuft nach erstem Kurztest bisher direkt und fehlerfrei. Und das beste: sie läuft gefühlt und laut Benchmark mit Datenbankoperationen etwa gleich schnell (keine Grafik) - verglichen mit einem MacBook Pro i7/2,9GHz.

Das hat bei uns keiner erwartet!
https://www.mactechnews.de/news/article/Apples-Developer-Transition-Kit-Erste-Entwickler-bekommen-ARM-Mac-und-veroeffentlichen-Benchmarks-175358.html#newscomment1460220

Badesalz
2020-06-29, 22:44:31
Was nochmal macht man mit Inferencing an einer Workstation? (oder gar einem Smartphone...)Garnicht so einfach zu beantworten hä? :freak:

Zossel
2020-06-29, 23:17:26
Siehe z.B. Zusammenfassung hier: https://www.infoq.com/news/2018/11/iphone-xs-javascript-performance/

Geht im konkreten Fall wohl auf das ARMv8.3-Instruction-Set zurück, welches theoretisch auch andere implementieren könnten.

Improved Javascript data type conversion

Javascript uses the double-precision floating-point format for all numbers. However, it needs to convert this common number format to 32-bit integers in order to perform bit-wise operations. Conversions from double-precision float to integer, as well as the need to check if the number converted really was an integer, are therefore relatively common occurrences.

Wo braucht man das ständig in JS? Mal ganz davon abgesehen das boolesche Operationen auf Sachen die mal ein float waren ziemlich heikel sind.

y33H@
2020-06-29, 23:31:35
Garnicht so einfach zu beantworten hä? :freak:
Unter anderem für Fotos und Videos.

robbitop
2020-06-30, 09:08:18
Die Anwendung von AI wird immer weiter zunehmen IMO. Weil die Hardware dafür immer besser wird und weil auch der Wissensstand (vor allem auch bei den Herstellern von Endprodukten) immer weiter zunimmt und es immer mehr Anwendungsgebiete gibt.
Alles was bis dato nur mittelmäßig über statische Algorithmen mittelmäßig gut lief und der Mensch eingreifen musste (Software Automation) wird immer mehr davon profitieren. Zum Beispiel kann potenziell auch Konstruktion besser automatisiert werden. Schnittstellen zwischen FEM und CAD gibt es ja schon und es gibt auch algorithmische Ansätze. Von der Konstruktion bis zur Zeichnungserstellung. Aber da muss man als Mensch doch immer wieder eingreifen. Über Training und Inferencing kann man hier sicher besser automatisieren als über starre Ansätze.

Upscaling, Rekonstruktion, Filtern von Bild und Videomaterial. Und da wird es sicherlich immer mehr Anwendungsfälle geben. Nicht umsonst bauen immer mehr SoC Hersteller FF Units für Inferencing in die Chips.

Badesalz
2020-06-30, 21:38:51
Upscaling, falls da Inferencing wirklich was nützt: check.

Den Rest hab ich verstanden, aber nicht begriffen. Filter auf Vids und Fotos, ist das sowas wie bei Snapchat? :usweet:

Inferencing-AI, auf dem Smartphone und der Workstation?... Lautete die Frage.

robbitop
2020-06-30, 21:49:16
Filter und Effekte sind beim Videoediting (jeder Art) gang und gebe.

smalM
2020-07-01, 11:24:27
https://browser.geekbench.com/v5/compute/1140290

Die Compute-Leistung profitiert ein kleines Bißchen vom Kühlsystem des Mac mini, die GPU scheint aber genau so getaktet zu sein wie im iPad Pro.

PS:
Wenn das Mainbord meines DTK eperm-d995af6e2ef02771 und nicht APPLE-TEST heißt, dann sollte ich das automatische Veröffentlichen von Testläufen in GeekBench vielleicht lieber abschalten...

Badesalz
2020-07-01, 17:55:48
Filter und Effekte sind beim Videoediting (jeder Art) gang und gebe.Ah ja. Typische Smartphone Anwendung. Sorry.

pixelguy
2020-07-01, 17:59:20
Ah ja. Typische Smartphone Anwendung. Sorry.

Überhaupt nicht. Dafür gibts auch Profisoftware.

Badesalz
2020-07-01, 18:33:18
Ah so ;)

pixelguy
2020-07-01, 19:45:04
Na dann

|MatMan|
2020-07-01, 22:23:25
Ah ja. Typische Smartphone Anwendung. Sorry.
Du disqualifiziert dich hier gerade selbst als ernstzunehmender Gesprächspartner. Stattdessen könntest du auch einfach selbst etwas recherchieren.

Apple benutzt ihre Neural Engine u.a. für Face ID und die Camera App (u.a. für 4k HDR Video Verarbeitung). Wahrscheinlich wird das auch für viele Dinge bei der Verarbeitung von Fotos verwendet (z.B. Erkennung von Gesichtern, Lächeln, usw.).

Apple says it’s using that machine learning in the iPhone 11’s cameras to help process their images, and says the chip’s speed allows it to shoot 4K video at 60 fps with HDR enabled.



Huawei hat mal damit geworben Fotos bei schlechten Lichtverhältnissen durch AI aufzubessern.
Offline Siri oder Bixby laufen auch über solche Neural Engines (bzw. werden dadurch beschleunigt).

Die Hersteller bauen die nicht umsonst ein und verbessern die auch noch ständig.

Badesalz
2020-07-01, 22:37:49
Du disqualifiziert dich hier gerade selbst als ernstzunehmender Gesprächspartner. Stattdessen könntest du auch einfach selbst etwas recherchieren.Immer schön locker bleiben...
Apple benutzt ihre Neural Engine u.a. für Face ID und die Camera App (u.a. für 4k HDR Video Verarbeitung). Wahrscheinlich wird das auch für viele Dinge bei der Verarbeitung von Fotos verwendet (z.B. Erkennung von Gesichtern, Lächeln, usw.)... ja bestens! Genau DAS wollte ich hören. Genau das... :up:

=Floi=
2020-07-03, 02:00:23
Für was denn? Für die Corona-App? Für RT-Grafik in Plague Inc?

fürs normale arbeiten! Alles läuft fluffiger. Apps starten schnell. Automatische Fotonachbearbeitung.
Auch für games ist es toll. Ich habe auch schlecht programmierte apps, welche viel leistung brauchen.
App updates gehen schnell von der hand.

Mein 6S Plus ist nach ~4 jahren noch brauchbar schnell.

robbitop
2020-07-03, 06:48:35
Ah ja. Typische Smartphone Anwendung. Sorry.

Adobe Premiere, Sony Vegas Pro, Final Cut Pro, DaVinci Resolve etc das sind alles Profitools für Videoedeting jeglicher Art. Für TV Produktionen, Werbeproduktion, Youtube - alles was mit Video zu tun hat.

.

Badesalz
2020-07-04, 20:24:57
@robbitop
Diese Programme nutzen Inferencing? Oder schon vergessen um was es ging?

y33H@
2020-07-04, 23:49:52
Ja, tun sie.

Badesalz
2020-07-05, 07:35:43
Wo findet man die Infos dazu? Ich schau mir grad die Specs zu Vega17Pro und bei HW-Unterstützung finde ich nur Infos zu NVEnc und VCE.

nagus
2020-07-05, 18:10:46
https://www.mactechnews.de/news/article/Apples-Developer-Transition-Kit-Erste-Entwickler-bekommen-ARM-Mac-und-veroeffentlichen-Benchmarks-175358.html#newscomment1460220

ist das dieses MacBook Pro gemeint? https://preisvergleich.check24.de/notebooks/apple-macbook-pro-133-zoll-ohne-touch-bar-core-i7-6660u-16gb-ram-1tb-ssd-grau-late-2016.html?

wenn ja... lol?. die CPU, die da verbaut ist, ist nach heutigen maßstäben eine zumutung. ein i7-6660U mit 2 Kerne und 4 Threads von Q1/2016. Ist ja wirklich sicher sehr schwierig sowas zu übertreffen.

robbitop
2020-07-05, 18:12:23
Aber mit Emulation und weniger TDP und die Kerne sind zumindest beinahe 2x Jahre alt.

nagus
2020-07-05, 18:15:58
Aber mit Emulation und weniger TDP und die Kerne sind zumindest beinahe 2x Jahre alt.

wissen wir nicht, ,mit wieviel watt der Apple chip in dem development kit läuft. aber ja, vermutlich weniger. und ja emuliert. trotzdem ist dieser intel chip von anfang 2016 ein ziemlicher crap muss man sagen. und besonders viel hoffnung auf high performance mac pros würde ich mir aufgrund dessen jetzt nicht machen. dieser emulierte shit ist einfach ein graus... apple kann auch nicht zaubern.

Monsta
2020-07-05, 18:22:17
ist das dieses MacBook Pro gemeint? https://www.apple.com/de/shop/product/FLH52D/A/refurbished-154-macbook-pro-mit-29-ghz-quad%E2%80%91core-intel-core-i7-und-retina-display-space-grau

wenn ja... lol?. die CPU, die da verbaut ist, ist nach heutigen maßstäben eine zumutung. ein i7-6660U mit 2 Kerne und 4 Threads von Q1/2016. Ist ja wirklich sicher sehr schwierig sowas zu übertreffen.

Nein in den 15" Macbooks sind Cpus mit 4 Kernen und 8 Threads und alles andere als eine Zumutung. Und das schon seit 2012.

nagus
2020-07-05, 18:31:51
Nein in den 15" Macbooks sind Cpus mit 4 Kernen und 8 Threads und alles andere als eine Zumutung. Und das schon seit 2012.

sorry, hab vorhin den falschen link erwischt. ich meinte den https://preisvergleich.check24.de/notebooks/apple-macbook-pro-133-zoll-ohne-touch-bar-core-i7-6660u-16gb-ram-1tb-ssd-grau-late-2016.html?

macbook pro mit i7 (2 kerner!) ... ganzschön mutig von intel sowas "i7" zu nennen.

Monsta
2020-07-05, 19:01:49
Ja die 15W Dual Cores sind kacke, da sind die i5 von den i7 nicht zu unterscheiden. Die rennen alle in Tdp Limit.
Ich hatte da verschiedene Modelle in Thinkpads. Mit Undervolting kann man da was rauskitzeln.
Als die Duals Cores noch 35 Watt hatten, waren die gut zu gebrauchen, aber die 15 Watt Varianten sind ein Witz.

y33H@
2020-07-05, 21:57:34
Wo findet man die Infos dazu?Die Tensor Cores für Inferencing beschleunigen in Davinci Resolve das Color-Grading, Zoom- und Upscaling-Funktionen (Superscale 2x bzw Superscale 4x) und Speedwarp für Slow Motion. Zudem in Adobe Lightroom CC Classic (Enhance Details) und in Adobe Premiere Pro (Auto Reframe).

KarlKastor
2020-07-06, 19:46:55
sorry, hab vorhin den falschen link erwischt. ich meinte den https://preisvergleich.check24.de/notebooks/apple-macbook-pro-133-zoll-ohne-touch-bar-core-i7-6660u-16gb-ram-1tb-ssd-grau-late-2016.html?

macbook pro mit i7 (2 kerner!) ... ganzschön mutig von intel sowas "i7" zu nennen.
Was soll daran mutig sein? Welche 15 W CPU war schneller?

pixelguy
2020-07-07, 21:22:34
Eigene Mac-GPU statt AMD- oder Nvidia-Grafik
Geforce und Radeon fliegen raus - zumindest in Macs mit Apple Silicon statt Intel x86.

Quelle: https://www.golem.de/news/apple-silicon-eigene-mac-gpu-statt-amd-oder-nvidia-grafik-2007-149491.html


Tomb Raider lief bei der Keynote wohl schon auf einer Apple GPU.

Zumindest bei den Notebooks kann ich es verstehen. Auch bei den Pro-Modellen.
Beim normalen iMac ggf. auch noch.

Aber ob es für die Pro-Desktops reicht?!

Demogod
2020-07-07, 21:52:55
Ich frag mich auch bis wann es noch Treiber für AMD karten geben wird.. vor allem wegen Hackintosh..
Edit: Ich mein den Mac Pro müssen sie ja noch ne Weile supporten.. kam gerade erst raus..!

Felixxz2
2020-07-07, 22:15:37
Ziemlich nichtssagender Artikel. Natürlich kommen alle Apple SoCs mit GPU. Ich denke aber trotzdem, dass AMD GPUs weiterhin möglich sein werden. An 200W wirst du nicht vorbeikommen und Apple wird keine externen Karten bringen.

y33H@
2020-07-07, 22:46:13
Die Slide war da ziemlich eindeutig ... ich hatte es bei der Keynote des WWDC20 auch so verstanden, dass das Apple Silicon mit einer dGPU gekoppelt wird.

pixeljetstream
2020-07-08, 00:28:29
Der Tweet eines Apple Mitarbeiters den ich dazu verlinkt hatte war ja auch in die gleiche Richtung. Es macht imo so auch am meisten Sinn, wenn schon eigenes dann alles.

Felixxz2
2020-07-08, 07:25:39
Die Slide war da ziemlich eindeutig ... ich hatte es bei der Keynote des WWDC20 auch so verstanden, dass das Apple Silicon mit einer dGPU gekoppelt wird.

Mit einer eigenen?

y33H@
2020-07-08, 07:40:23
Nein, anderer IHV.

Sunrise
2020-07-08, 09:40:44
dGPU-Umsatz dürfe bei Apple relativ zum SoC-Geschäft geradezu mickrig sein. Es ergibt wenig Sinn, wenn AMD hier ein verlässlicher Partner ist, dem ohnehin daran gelegen ist, immer an der Spitze zu agieren und Apple sich voll auf die SoCs fokussieren kann.

Ich sehe aktuell zumindest nicht, warum sich das ändern sollte.

robbitop
2020-07-08, 09:48:54
Dass Apple die IP und die Mittel hat, auch große CPUs und GPUs zu bauen, wenn sie wollen ist ohne Zweifel. Aber wie schon beschrieben stellt sich die Frage nach dem Business Case. Die großen Macs (insbesondere Mac Pro, iMac) sind vermutlich in Bezug auf die Gesamtstückzahl sehr gering. Die Abschreibungen für die Entwicklung, Fertigung, Distribution und alles was dazu gehört wären horrende. Ich bin wirklich gespannt, was sie da vor haben.
Es wäre dank Metal wesentlich einfacher, dGPUs (sofern nötig bzw sofern man diese Produkte weiter anbieten will) von einem IHV machen zu lassen.

Andererseits sind die Workloads auf einem Mac (ist ja keine Spielmaschine) häufig gut parallelisierbar. Wie HPC workloads. Entsprechend könnte man hier (im Gegensatz zu spielen) auch mehrere SoCs/GPUs verbauen oder aber den SoC einfach nur breiter machen oder beides.

Das Thema (Apple Silicone) wird wirklich, wirklich spannend werden.

Felixxz2
2020-07-08, 10:09:17
Nein, anderer IHV.

Ah ok dann hat mich pixeljetstream verwirrt haha.

Ja das denke ich auch. AMD läuft eh schon auf Metal und ist anscheinend für alle Apple Exclusive Späße zu haben, also why not?

robbitop
2020-07-08, 10:20:56
Ich kann mir auch gut vorstellen, dass AMD mittlerweile (auch durch deren Semi Custom Sparte mit Sony und MS) eine sehr offene Attitüde in Bezug auf customer requests hat. Der Kunde (sofern es kommerziell passt) spezifiziert was er möchte und wie er es möchte und man implementiert es hoch kooperativ. Das macht so eine Zusammenarbeit sehr pragmatisch und flexibel.
Ich kann mir auch gut vorstellen, dass AMDs GPU Team und Apples GPU Team durch diese Kooperation sich sogar gegenseitig ein Stück weit beeinflussen und beide davon profitieren. Zumindest in sofern es so geplant ist für die Zukunft.

Felixxz2
2020-07-08, 12:06:23
Jo wirkt auf jeden Fall so. Denke auch, dass wir in Zukunft weiter Exklusivchips für Apple oder sogar mehr sehen werden. Ähnlich wie beim Mac Pro.
Klar ist aber auch, das nV wohl nicht mehr zurückkehren wird zu Apple.

Daredevil
2020-07-08, 12:57:41
Apple hat aber dann immer noch das Problem mit der Abhängigkeit, es sei denn sie basteln mit AMD zusammen einen Chip.
Weil Apple hat dann immer noch genau die Hardware, die alle anderen haben und jeder weiß ganz genau, was bei Apple die nächsten Jahre auf dem Plan steht, da es Roadmaps gibt seitens AMD z.B.
Der Überraschungseffekt seitens Apple war da ja immer zunichte gemacht, weil man wusste, welche Hardware verbaut wird.
Das kann halt nicht passieren, wenn Apple selbst fertigt und sich so ein Alleinstellungsmerkmal baut.

Ein iPad Pro kann doch auch schon 4k Streams Encodieren und Apple selbst hat ja die Afterburner Karte gebaut. ( Wo die GPU dann egal ist )
Dann kommt Afterburner halt aufs PCB und man kann mit Apple Silicon auch 3x 8K darstellen. Etwas, das man mit keiner AMD Karte kann, richtig?

PS:
fT9HUZ21FbQ

pixeljetstream
2020-07-08, 14:26:36
Ah ok dann hat mich pixeljetstream verwirrt haha.

Ja das denke ich auch. AMD läuft eh schon auf Metal und ist anscheinend für alle Apple Exclusive Späße zu haben, also why not?
Weil ich der Meinung bin das es keine dgpu von anderen Herstellern mehr gibt. Der slide ist ja eindeutig Apple silicon nur in Verbindung mit Apple gpu, und sie haben extra nen Text der sagt dass dgpu für Performance nötig ist, ist auch Mythos ;)

Hab hier schonmal geschrieben, dass ich das Argument von wegen weniger kosten durch externen ihv absolut nicht nachvollziehen kann. Mehr Abstraktion um mit der eigenen gpu und ner anderen klar zu kommen bremst/kostet zusätzlich für die Zukunft. Ihre gpus sind ordentlich insbesondere für das was Leute so auf dem mac machen, viel billiger das eigene anzupassen. Es kommt dann alles aus einer Hand etc.

robbitop
2020-07-08, 14:58:24
Naja stell dir mal vor ihr würdet eine extra GPU für einen klitzekleinen Markt auflegen. Extra Entwicklung, extra Maske, extra PCB, extra Fertigungslinie, Logistik etc.

Abstraktionsebenen sind ja mittlerweile seit Vulkan, Metal (und DX12) schon ziemlich weit gediegen, so dass man einiges machen kann. Die wenigsten Applikationen auf dem Mac werden to the metal (nicht im Sinne der API sonder der HW :D) programmiert. So ziemlich alles nutzt Metal auf dem Mac. Solange die GPU die requirements für eine Metal Version abdeckt - wo ist das Problem?
Wo siehst du denn da den Flaschenhals (vielleicht mal 1-2 Beispiele) warum das bremsen sollte?

Dank APIs und Treiber sind GPUs ja auch grundsätzlich zur Anwendung kompatibel untereinander.

Felixxz2
2020-07-08, 15:42:58
Weil ich der Meinung bin das es keine dgpu von anderen Herstellern mehr gibt. Der slide ist ja eindeutig Apple silicon nur in Verbindung mit Apple gpu, und sie haben extra nen Text der sagt dass dgpu für Performance nötig ist, ist auch Mythos ;)

Hab hier schonmal geschrieben, dass ich das Argument von wegen weniger kosten durch externen ihv absolut nicht nachvollziehen kann. Mehr Abstraktion um mit der eigenen gpu und ner anderen klar zu kommen bremst/kostet zusätzlich für die Zukunft. Ihre gpus sind ordentlich insbesondere für das was Leute so auf dem mac machen, viel billiger das eigene anzupassen. Es kommt dann alles aus einer Hand etc.

Naja wie wollen sie denn 200W externe Karten ersetzen? In einem SoC?
Genau, gar nicht.

Natürlich werden die integrierten GPUs geil und für 90% ausreichen. Aber was machen denn dann Mac Pro User oder auch Leite die eGPU verwenden?

Daredevil
2020-07-08, 16:02:33
Apple muss keine Grafikkarten ersetzen. Apple muss die Probleme lösen, die ihre Kunden in ihrem täglichen Business haben.
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fwww.slashgear.com%2Fwp-content%2Fuploads%2F2019%2F06%2Fafterburner_insert.jpg&f=1&nofb=1

Compatible with Mac Pro (current generation)
PCI Express x16 card
Accelerates ProRes and ProRes RAW codec in Final Cut Pro X, QuickTime Player X and supported third-party applications
Supports playback of up to 6 streams of 8K ProRes RAW or up to 23 streams of 4K ProRes RAW*

Dafür braucht es keine ineffiziente fette Allround-GPU ( Werkzeugkasten ), sondern nur das Werkzeug, was man dafür braucht.
Und genau das kann man selbst bauen und muss nicht auf AMD warten, bis die das irgendwann mal releasen, weil man unabhängig sein möchte.

Ein MacPro mit einer RX580+Afterburner Card ist günstiger und mächtiger als eine reine VII GPU Version. Warum also ne dicke GPU nutzen?
Mit einer 2080ti kann ich nicht mal zwei 8K Streams bei YT anschauen, da geht nur einer.

Monkey
2020-07-08, 16:21:20
Die afterburner Karte kostet 2400€ und beschleunigt nur das Playback, und das nur mit prores Codec und unter finalcut. Sicherlich alles andere als Massenmarkt tauglich

Monsta
2020-07-08, 16:23:31
Ein Mac Pro hat auch nicht den Anspruch massenmarkttauglich zu sein.

Daredevil
2020-07-08, 16:31:57
Die afterburner Karte kostet 2400€ und beschleunigt nur das Playback, und das nur mit prores Codec und unter finalcut. Sicherlich alles andere als Massenmarkt tauglich
Genau. Sie kostet 2400€, weil sie ganz und haargenau den den Kunden zugeschnitten ist, den du dort beschreibst. Also jemand, der schnell und effizient Prores in Finalcut nutzt.

Das wollte ich damit ausdrücken.
Es braucht keine "AllinOne" Grafikkarte für Video Beschleunigung. Es braucht in dem Fall eine Videokarte für Video Beschleunigung.
Eine GPU ist flexibel, aber langsam und nicht Effizient. Deswegen gibt es ja FPGAs.

pixelguy
2020-07-08, 16:33:47
Und gezockt wird auf dem Mac eh kaum.
Da reicht es, wenn etwas ältere Games auf mittleren Einstellungen laufen. So scheint es mit Tomb Raider ja zu sein.

Mehr geht jetzt auch kaum und es wird auch nicht nachgefragt.

robbitop
2020-07-08, 16:37:34
Die afterburner Karte kostet 2400€ und beschleunigt nur das Playback, und das nur mit prores Codec und unter finalcut. Sicherlich alles andere als Massenmarkt tauglich
Das war ja nur ein Beispiel. Aber man kann grundsätzlich viel in Fixed Function hardware gießen. Und das ist schnell um Größenordnungen effizienter als General Purpose Hardware.
Für reine Compute Lasten, die nicht über FF machbar wären, ist das was anderes. Die Frage ist allerdings, ob das für Macs überhaupt relevant ist.

Monkey
2020-07-08, 16:40:05
Ein Mac Pro hat auch nicht den Anspruch massenmarkttauglich zu sein.



Eben, und darum lässt sich sowas wie die afterburner Karte imho schlecht auf ARM Geräte ummünzen

Daredevil
2020-07-08, 16:45:55
Hm, wieso nicht? Der T2 Chip steckt in jedem neuen Gerät von Apple drin und der macht auch ( unter anderem ) genau das ( nur in kleinerem Maße ), er beschleunigt Video Encodierung.
Das ist Apple Silicon, heute schon. Und er erledigt eine Vielzahl von anderen Dingen, die ein Intel Prozessor nicht richtig tun kann.
Theoretisch könnte er das vielleicht, aber Intel wird nicht für Apple eigene Prozessoren entwickeln und ich glaube ebenso wenig, dass AMD für Apple eigene GPUs entwickeln wird.

Apple wird nicht mit dem Mac voran kommen, wenn die Leistung jahrelang absehbar ( AMDs Roadmap ) ist und man Hardware mäßig kein Alleinstellungsmerkmal setzt.
Ich meine.... Apple ordert ja von AMD jetzt schon die "Pro" Modelle ihrer GPUs, warum machen sie das? ( bsp. neue GPU im 16" MBP )

pixelguy
2020-07-08, 17:18:11
Warum sollte AMD das nicht für Apple genauso machen wie für Sony und MS?
Apple verkauft ja genug Geräte.

Aber klar, das wären max. Anpassungen bestehender Architekturen. Aber ggf. auch mit Integration eigener Logik.

Loeschzwerg
2020-07-08, 17:25:19
Ginge es nach Kosten für Entwicklungsaufwand, Logistik, Fertigung usw. dürfte es z.B. auch keine speziellen IBM und Fujitsu Prozessoren geben.
Und es ist ja nicht so als gäbe es nicht schon dGPUs welche ausschließlich im Apple Ökosystem zum Einsatz kommen (Vega12).

Daredevil
2020-07-08, 17:33:44
Warum sollte AMD das nicht für Apple genauso machen wie für Sony und MS?
Apple verkauft ja genug Geräte.

Aber klar, das wären max. Anpassungen bestehender Architekturen. Aber ggf. auch mit Integration eigener Logik.
Ja gut, das kann AMD natürlich tun, wenn sie lust haben. Custom Silicon für Apple, klar. Solange Apple da Geld zahlt, sagt AMD da sicherlich nicht nein. ^^

Zwei Dinge sind da aber grundlegend anders.
1. Der Planungsaufwand einer Konsole erstreckt sich über mehrere Jahre und die Verweildauer über ebenfalls mehrere Jahre, nicht nur über eins. ( iPhone SoCs machen jedes Jahr riesen Sprünge, Intel/AMD/Nvidia Produkte nicht. )
2. Macs sind ne Nische, kein Massenprodukt. Wenn sich da 80 Millionen Stück umsetzen lassen, dann wäre das natürlich was anderes.
Aber andererseits.... wenn man durch die eigene Fertigung des SoCs 10% pro Chip Sparen kann, sind das wiederum Milliarden, die man spart.

Polaris ist 2016 rausgekommen und steckt 2020 in einem MacPro für mehrere Tausend Euro.
AMD lahmt auch in der Entwicklung, nicht nur Intel.

robbitop
2020-07-08, 17:37:37
Naja es ist keine komplette Entwicklung sondern Semi Custom. IP die eh auf der Roadmap ist mit kleinen und mittleren Anpassungen und einer eigenen SKU. Zumindest eigene SKUs hat AMD ja schon mehrfach geliefert (siehe mobile Vega für Apple, Navi12 aber auch spezifische Tonga Konfigurationen). Das kann man sicherlich auch noch ein Stück weit vertiefen. Apples Anforderungen und Ideen sind sicherlich, wie die von Sony und MS eher auch als "befruchtend" für die in Entwicklung stehende IP zu sehen.

Loeschzwerg
2020-07-08, 17:42:20
Wenn Apples eigene Grafik IP entsprechend skaliert, läuft es irgendwie auf das gleiche raus (hinsichtlich HW Entwicklung/Kosten). Da nimmt man doch dann eher die Option die Basis im Ökosystem zu vereinheitlichen und spart sich dann mittelfristig Arbeit bei der Software.

Monkey
2020-07-09, 10:17:47
Hm, wieso nicht? Der T2 Chip steckt in jedem neuen Gerät von Apple drin und der macht auch ( unter anderem ) genau das ( nur in kleinerem Maße ), er beschleunigt Video Encodierung.

Weil ich denke das externe Karten uninteressant sind für neue Geräte)und schnelle, interne "Extrachips" die Kosten zu sehr nach drücken. Weiterhin beschleunigen die AB Karten nur Video und nicht jeder bearbeitet ständig Videos und freut sich über eine schnellere 8k Wiedergabe (die quasi niemand braucht).

Mit einer flotten Vega Karte (oder was auch immer) profitieren dann zB auch Davinci Resolve, irgendwann wohl auch mal Premiere, Photoshop die Spiele und andere 3d Anwendungen.


Das war ja nur ein Beispiel. Aber man kann grundsätzlich viel in Fixed Function hardware gießen. Und das ist schnell um Größenordnungen effizienter als General Purpose Hardware.
Für reine Compute Lasten, die nicht über FF machbar wären, ist das was anderes. Die Frage ist allerdings, ob das für Macs überhaupt relevant ist.

Ich bin da absolut kein Experte aber irgendwie kann ich das nicht ganz glauben. Gefühlt wird seit 25 Jahren die Hardware (ich sags mal so dumm) breiter damit alles in Software gemacht werden kann und nun soll Apple wieder herkommen und wie in den 90ern alles in Hardware gießen damit es effizient läuft. Weiß nich...

Aber wie gesagt bin da kein Experte, bin einfach etwas skeptisch :)

robbitop
2020-07-09, 10:45:02
Naja gerade Videodecoding und Encoding kann man wunderbar in HW gießen.
Da gibt es sicher noch mehr Anwendungen.

Apple hat den Vorteil, dass sie Hardware (bis auf Transistorebene) und OS und SDK - einfach alles in einer Hand haben. Das gibt es in der Konstellation kein zweites Mal. Wenn das jemand schaffen könnte dann die.

Sunrise
2020-07-09, 10:52:22
Vor allem ist der Flächenbedarf für solche Aufgaben, die aber dem Mac einen Vorteil geben können, geradezu winzig. Zusätzlich spart es enorm an Energie ein, wenn hierfür keine General Purpose-Einheiten benutzt werden müssen.

Apple wird in den A-SoCs mittlerweile sehr viel fixed function (DSP) haben, einen Ersatz für QuickSync haben sie ja quasi schon, die Fähigkeiten wurden stetig enorm aufgebohrt. Ich kann mich noch erinnern, da war 1080p mit hoher Bitrate ein Thema...Schnee von gestern. Ebenso 4K...auch Schnee von gestern, Apple bietet es jetzt offiziell iOS-, iPadOS-, und tvOS-seitig (AirPlay und Youtube) inkl. HDR (also erstmals die komplette Kette) an. Auch teilweise wohl eine politische Sache. Die HW konnte das aber schon viel früher (Kamera, DSP), jedenfalls rein vom Durchsatz war 4K schon vorher kein Thema. Jetzt hat man die Software aber wohl nachgezogen.

Es geht eigentlich nur darum, die richtigen, effizienten Technologien nach vorne zu bringen und das kann Apple, wenn alles aus einer Hand kommt, natürlich viel besser als alle anderen, ohne abhängig zu sein.

dGPUs sind mir dennoch erstmal zu koomplex, und die Mengen die da verkauft werden, sollten fast unter den Tisch fallen (der Aufpreis auf eine Navi12 mit HBM beträgt 700 EUR, das schränkt die Käufergruppe enorm ein). Ob man IMGTecs IP hier besser einsetzen kann, ist die Frage. Wir müssen jetzt erstmal abwarten, was Apple da tatsächlich vorstellt.

pixeljetstream
2020-07-09, 11:34:57
Ich bin da absolut kein Experte aber irgendwie kann ich das nicht ganz glauben. Gefühlt wird seit 25 Jahren die Hardware (ich sags mal so dumm) breiter damit alles in Software gemacht werden kann und nun soll Apple wieder herkommen und wie in den 90ern alles in Hardware gießen damit es effizient läuft. Weiß nich...

Aber wie gesagt bin da kein Experte, bin einfach etwas skeptisch :)

Auch bei den dicken GPUs ist der Trend wieder mehr spezialisierte Units zu haben (tensor, Raytracing, decompression ...). Liegt einfach an dem Problem das es immer schwerer/teurer wird das mit general purpose zu erschlagen. Es ist viel billiger und effizienter es anders zu machen, nur um zu wissen was man genau mit welchem Interface in hw gießt, braucht es halt Vorlauf und Abschätzung was genau relevant wird.
Worauf man heute halt mehr achtet ist wie die Sachen sich in den stärker programmierbaren Teil einfügen.

Ich denke auch ein dickes Apple soc (man denke an die neuen Konsolen) ist absolut fähig die compute Leistung herzubringen für die Anwendungen die das Klientel interessiert. Tile based deferred rendering hat ja nur bei hoher Geometrielast ein Nachteil, was eh nicht so den User dort Inter, und langfristig kann man sagen, dass Raytracing hier das Problem eben anders löst und adequater für die kreativen.

Felixxz2
2020-07-09, 11:57:52
Ich hab Mist spekuliert haha

https://www.computerbase.de/2020-07/apple-silicon-thunderbolt-gpus/

Also keine AMD Gpus....dann tatsächlich die Frage ob externe/PCIe Karten kommen von Apple mit dickeren GPUs?

Daredevil
2020-07-09, 12:16:51
Weil ich denke das externe Karten uninteressant sind für neue Geräte)und schnelle, interne "Extrachips" die Kosten zu sehr nach drücken. Weiterhin beschleunigen die AB Karten nur Video und nicht jeder bearbeitet ständig Videos und freut sich über eine schnellere 8k Wiedergabe (die quasi niemand braucht).

Mit einer flotten Vega Karte (oder was auch immer) profitieren dann zB auch Davinci Resolve, irgendwann wohl auch mal Premiere, Photoshop die Spiele und andere 3d Anwendungen.




Ich bin da absolut kein Experte aber irgendwie kann ich das nicht ganz glauben. Gefühlt wird seit 25 Jahren die Hardware (ich sags mal so dumm) breiter damit alles in Software gemacht werden kann und nun soll Apple wieder herkommen und wie in den 90ern alles in Hardware gießen damit es effizient läuft. Weiß nich...


Aber wie gesagt bin da kein Experte, bin einfach etwas skeptisch :)
Ein iPad z.B. kann heute viele Dinge schon erledigen, die man als privat Mensch braucht, sagen wir 90 Prozent. Für alles andere braucht es spezielle Hardware. Vor 8 Jahren konnte man noch nicht auf dem Smartphone 4K Videos schneiden, heute geht das. Sprich mobile Prozessoren reichen für Basics aus, es braucht keine dicken Prozessoren mehr, wenn man das klug mit FF Einheiten ausstattet, wird das Ganze effizienter.

Prozessoren über 4 Kerne sind heute für privat komplett unnötig, wofür braucht man die meistens? Richtig, professionelle Anwendungen.
Ein Threadripper kostet wieviel mehr als ein schlanker 4 Kerner? Deutlich mehr, dafür verbraucht er auch mehr als 200w.
Die Idee ist m.M. nach, diesen fetten 64c Threadripper zu ersetzen mit einem 4 Kerner und FPGA Hardware bzw. Machine learning, was das klüger verarbeitet. Das ganze wird halt nicht so fett, kann dafür annähernd das gleiche?!

Vielleicht sind fgpas ja heute gar nicht mehr so einseitig und man hat halt den Vorteil, dass man nichts überflüssiges mehr verbaut.
Lass doch mal hwinfo an deinem Rechner laufen und schau am Ende des Tages nach, wie hoch deine Prozessorlaat war.
Ich komme da auf unter 10% für den ganzen Tag, habe also Hardware, die zu 90% im Idle ist. Ressourcen werden da nicht wirklich gut genutzt, Strom wird unnötig verbraucht, das geht doch irgendwie besser.

smalM
2020-07-09, 19:55:56
Apple kann immer eine Beschleuniger-Karte ins System integrieren, die nur systemseitig sichtbar ist. Dem Programmiermodell wird ausschließlich die Apple-GPU offenbart. Dritte hätten dann keinerlei Zugriff auf dieses Hardware. Es wäre damit auch irrelevant, ob diese Hardware von AMD oder von Apple selbst stammte, produziert würde sie ja eh von TSMC ;)

Daredevil
2020-07-10, 02:09:41
Aus diesem Video:
BMs_-bZBqxg

Apple schwachere Hardware:
https://abload.de/img/unbenanntpwjkp.png

schlägt die stärkere Hardware:
https://abload.de/img/unbena2nntkfk9q.png

Wenn man mit einer VegaII und eine 12c Intel Prozzi nen Threadripper+2080ti versägt, dann schafft man vielleicht nicht direkt das selbe mit Apple Silicon, aber man kann sich schon schnell rantasten. :>

Aktuelle Werte eines iPad Pro 2018/2020, wie auch immer vergleichbar das ist:
CPU: 4675
GPU: 9310(2018), 11437 (2020)

Das muss man sich halt auch mal auf der Zunge zergehen lassen.
Das iPad 2018 und das iPad 2020 haben im grunde den gleichen SoC, nur dass der 2020er mehr GPU Einheiten freigeschaltet bekommen hat.
Akkulaufzeit ist gleich, Stromverbrauch ist gleich, Formfaktor ist gleich > ~23% mehr GPU Power. Einfach so aus dem Ärmel geschüttelt.

Ich bin sooo gespannt wie ein Flitzebogen. :D
Das könnte mein erstes MacBook werden zu Weihnachten, falls es überhaupt ein MacBook wird. Was auch immer es wird.

Edit:
Speedbump durch nen frisch gestartetes iOS 14 Beta

iOS13:
GPU: 11437
iOS14:
GPU: 12428 +8,7%

smalM
2020-07-10, 10:33:01
Aus diesem Video:
Speedbump durch nen frisch gestartetes iOS 14 Beta

iOS13:
GPU: 11437
iOS14:
GPU: 12428 +8,7%

Noch 8,7% mehr Leistung nach 2 Jahren zu finden ist entweder eine tolle Errungenschaft oder ein da habt Ihr Euch am Anfang nicht richtig Mühe gegeben.

Die Frage bei der GPU ist übrigens auch, wie verdoppelt man die Leistung auf dem Die?
Einfach mehr Cores dranpappen?
Wieviele davon kann die zentrale Logik verwalten?
Wieviele davon kann die zentrale Logik effizient verwalten?

Die 8,7% von oben lassen mich vermuten, daß der letzte Punkt nicht so ganz einfach ist.

Daredevil
2020-07-10, 11:47:21
Es waren 23% nach zwei Jahren, aber wo die herkommen, ist ja kein Geheimnis.
Die 8% waren jetzt Software, also knapp ein Jahr , möchte das aber noch von anderen bestätigt haben. :)

smalM
2020-07-10, 13:04:17
Da bereits jemand auf dem DTK 11700 Punkte überschritten hatte, wüßte ich nicht, was an Deinem Ergebnis jetzt so falsch sein sollte.

Ailuros
2020-07-12, 06:52:55
Manche haben eine komische Vorstellung von so einigen Sachen......nur ein paar links und wer's vesteht ok ;)

https://forum.beyond3d.com/posts/2138763/

The future is computational pipelines and raytracing, for that it works just fine.

https://www.anandtech.com/show/15877/intel-hybrid-cpu-lakefield-all-you-need-to-know

https://uk.linkedin.com/in/xile-sheila-yang-0536a529?challengeId=AQEMRhrtzdkv1AAAAXNBQGtlPgbhp0dqH4zlZ1eqjCdRNpY5nzs2GygISpk c_fChl4yhV1eS9MCjh3Zd625kHyxF8ZNgKbbvNw&submissionId=bc737624-69e6-2016-3ee8-c3e4b6ede812

pixelguy
2020-07-23, 09:05:01
Mal etwas leicht Offtopic...

ARM scheint ja zum Verkauf zu stehen und Apple hat wohl auch Gespräche dazu geführt: https://9to5mac.com/2020/07/22/report-apple-held-preliminary-talks-with-arm-about-an-acquisition-but-not-planning-a-bid/

Aber wie muss man sich denn die rechtliche Situation vorstellen?

Was ist, wenn bspw. nVidia ARM kaufen würde?
Müsste Apple weiterhin dort lizenzieren oder können die bereits jetzt machen was sie wollen?

Zossel
2020-07-23, 10:36:30
die bereits jetzt machen was sie wollen?

Warum sollte ARM kein Geld verdienen wollen?

Monkey
2020-07-23, 11:12:06
Aus diesem Video:
https://youtu.be/BMs_-bZBqxg

Apple schwachere Hardware:
https://abload.de/img/unbenanntpwjkp.png

schlägt die stärkere Hardware:
https://abload.de/img/unbena2nntkfk9q.png

Wenn man mit einer VegaII und eine 12c Intel Prozzi nen Threadripper+2080ti versägt, dann schafft man vielleicht nicht direkt das selbe mit Apple Silicon, aber man kann sich schon schnell rantasten. :>

Aktuelle Werte eines iPad Pro 2018/2020, wie auch immer vergleichbar das ist:
CPU: 4675
GPU: 9310(2018), 11437 (2020)

Das muss man sich halt auch mal auf der Zunge zergehen lassen.
Das iPad 2018 und das iPad 2020 haben im grunde den gleichen SoC, nur dass der 2020er mehr GPU Einheiten freigeschaltet bekommen hat.
Akkulaufzeit ist gleich, Stromverbrauch ist gleich, Formfaktor ist gleich > ~23% mehr GPU Power. Einfach so aus dem Ärmel geschüttelt.

Ich bin sooo gespannt wie ein Flitzebogen. :D
Das könnte mein erstes MacBook werden zu Weihnachten, falls es überhaupt ein MacBook wird. Was auch immer es wird.

Edit:
Speedbump durch nen frisch gestartetes iOS 14 Beta

iOS13:
GPU: 11437
iOS14:
GPU: 12428 +8,7%

Ich will nix falsches sagen aber AFAIR ist besonders der Datenexport in Davinci mit den Vega Karten wesentlich schneller als mit Nvidia - mit meiner Vega64 ist das mega schnell, mit meiner Laptop 1050ti stürzt es auch dauernd ab oder produziert kappute files.

pixelguy
2020-07-23, 11:30:57
Warum sollte ARM kein Geld verdienen wollen?
Ich meinte damit die bestehenden Designs / Lizenzen.
Also alles was sie jetzt haben. Für neue Dinge müssten sie natürlich zahlen.

Aber was, wenn es an einen Hersteller geht, der in Zukunft nichts mehr lizenziert? Das dürfte Apple nicht gefallen.

davidzo
2020-07-23, 12:01:33
Ich meinte damit die bestehenden Designs / Lizenzen.
Also alles was sie jetzt haben. Für neue Dinge müssten sie natürlich zahlen.

Aber was, wenn es an einen Hersteller geht, der in Zukunft nichts mehr lizenziert? Das dürfte Apple nicht gefallen.

Ich glaube nicht das nvidia ein Interesse hätte aus dem IP Business auszusteigen, zudem bezweifle ich dass ARMs Verträge das zulassen würden. Dafür zahlen Qualcomm, Samsung und Apple einfach zu gut. Und ARM ist ja glücklicherweise in einer sehr starken Position gegenüber Intel, diese Infrastruktur will man ja nicht mutwillig kaputt machen.
Mit der eigenen GPU expertise könnte man ARMs Mali so auf Vordermann bringen dass man auch mit GPU IP ordentliche zusätzliche Lizenzeinnahmen generieren kann.

NV ist mit den eigenen Denver CPUs ja so ziemlich auf die Fresse geflogen, das wird man nicht nochmal versuchen. Man wird wohl weiterhin eigene Socs bauen, aber wie jüngst basierend auf ARM standard IP und konzentriert sich da aber auf andere Märkte als in Konkurrenz zu den bisherigen Kunden zu treten. Der Markt für mobile Socs ist zu gut verteilt und nicht besonders margenstark, wieso sollte nvidia da also wieder rein wollen?
Den automotive Bereich bietet noch viel Potential, ist margenträchtig, ebenso könnte man weiterhin socs für mobile Spielekonsolen liefern.

Die große Investition sehe ich eher im Serverbereich, das passt in nvidias langfristige strategische Ausrichtung mit Mellanox und so. Da passt eine eigene CPU Architektur nur perfekt hinein: Ein nvidia DGX mit eigener Multicore CPU, integrietem NVlink und Mellanox ConnectX in der CPU.

Der Servermarkt ist so extrem Margenstark und dadurch das Intel da seit Jahren nicht mehr vorgelegt hat reißen sich gerade viele Firmen um die attraktiven Stücke. Nvidia richtet sich schon länger strategisch auf das Servergeschäft aus, jedoch scheut man sich noch erneut ein internes großes Prozessor Desginteam aufzustellen. Das wäre vielleicht anders wenn man gleich eines der besten Design-teams als Ganzes kaufen kann.


Ich würde einen Kauf ARMs durch nvidia als Glücksfall sehen. Es würde ARM die Ressourcen und Ambitionen geben das Duopol im Prozessormarkt aufbrechen, denn nvidia würde mit Serverdesigns im Highend Prozessormarkt mitmischen wollen. Gleichzeitig würde im Desktop und mobile dann Apple als zusätzlicher Player noch die Würze in die x86 vs ARM Battle geben. Eventuell würde das aber auch zu mehr Vielfalt bei der Vergabe von Konsolenaufträgen führen dadurch dass man wie AMD auch CPU und GPU aus eigener IP als APU integrieren kann.

Ich rechne überhaupt nicht damit dass nvidia irgendwas an der Lizensierung von ARM IP ändern würde. Das würde nur ARM als ISA schwächen und RISC-V nützen und das will man bei so einem Investment auf keinen Fall.

Zossel
2020-07-23, 15:29:55
Mit der eigenen GPU expertise könnte man ARMs Mali so auf Vordermann bringen dass man auch mit GPU IP ordentliche zusätzliche Lizenzeinnahmen generieren kann.

In dem Markt sind vernünftige Treiber noch mehr gefragt als unter Windows, dieser BLOB Müll taugt nur für Wegwerfprodukte.

mironicus
2020-08-01, 10:18:55
Erste Specs zu ARM-Mac.
https://hexus.net/tech/news/laptop/144508-apple-macbook-a14x-specs-pricing-launch-date-leaked/


A14X SoC
RAM 8GB, 16GB
SSD 256GB, 512GB, (1TB)
12-inch Retina Display
15hr~20hr battery life
720p Facetime HD Camera
Single USB-C port
Lighter than 1kg
4th gen Butterfly Keyboard
$799(at least)~

urpils
2020-08-01, 13:09:32
irgendwelche Leaks von irgendwem, die keinerlei Aussage zulassen zu irgendwas. außerdem sieht man ja schon am "Butterfly Keyboard" dass es quatsch ist - apple hat sich davon zurückgezogen..

davidzo
2020-08-01, 13:15:07
Das Messerdünne Macbook 12" "nonpro" Retina gold/rose war einer der größten Flops der Apple Geschichte. Das wird man nicht wiederholen, soviel steht fest, denn letztendlich hat man deshalb ja das Air auf Retinalevel gehoben und die Macbooklinie ersatzlos eingestampft.

dildo4u
2020-08-11, 14:21:29
Apple scheint extrem zuversichtlich zu sein was ARM Performance angeht.
Der neue Intel Mac geht auf 150 Watt, krass wenn sie das innerhalb eines Jahres ersetzten.

ivp0JroF9pM

smalM
2020-08-13, 09:44:32
Apple scheint extrem zuversichtlich zu sein was ARM Performance angeht.
Der neue Intel Mac geht auf 150 Watt, krass wenn sie das innerhalb eines Jahres ersetzten.
Mir erschließt sich nicht so ganz der Sinn der Aussage. Ein 8-Core Skylake, der nur 150W verbrät, wird doch schon deutlich ausgebremst, sonst wären es eher 100W mehr. Selbstverständlich ist sich Apple sicher, daß sie das - bei viel weniger Verbrauch - schlagen werden.
Aber die Herausforderung liegt nicht darin, die Intel-CPUs in den Macs schlagen zu können, sondern die Intel-CPUs (und die AMD-GPUs!) wirtschaftlich sinnvoll ersetzen zu können.

Zossel
2020-08-13, 11:54:57
Aber die Herausforderung liegt nicht darin, die Intel-CPUs in den Macs schlagen zu können, sondern die Intel-CPUs (und die AMD-GPUs!) wirtschaftlich sinnvoll ersetzen zu können.

Wirtschaftlich sinnvoll für die Shareholder oder für die Kunden?

dildo4u
2020-08-13, 13:32:18
Mir erschließt sich nicht so ganz der Sinn der Aussage. Ein 8-Core Skylake, der nur 150W verbrät, wird doch schon deutlich ausgebremst, sonst wären es eher 100W mehr. Selbstverständlich ist sich Apple sicher, daß sie das - bei viel weniger Verbrauch - schlagen werden.
Aber die Herausforderung liegt nicht darin, die Intel-CPUs in den Macs schlagen zu können, sondern die Intel-CPUs (und die AMD-GPUs!) wirtschaftlich sinnvoll ersetzen zu können.
Ich finde 150 für eine All in One heftig das Display heizt ja zusätzlich, ich hätte hier erwartet das sie härtere TDP Limits fahren.
Der Vorgänger lag deutlich drunter laut dem Video.

woodsdog
2020-08-13, 13:45:57
Mir erschließt sich nicht so ganz der Sinn der Aussage. Ein 8-Core Skylake, der nur 150W verbrät, wird doch schon deutlich ausgebremst, sonst wären es eher 100W mehr.

ein 9900K Äquivalent wird bei 150W keineswegs "deutlich ausgebremst". Das bringt vielleicht 200-300Mhz Turbo vs default 90-100W und dürfte schlicht die Grenze zur machbaren Kühlung in einem All-In-One sein.

Viel mehr geht sowieso mit Luft nicht weil dir die CPU ab 180-190W - auch wenn sie verlötet ist - gnadenlos ins Temp-Limit rennt. 250W bekommst du nur gekühlt wenn du köpfst und mit liquid metal und WaKü anrückst. Eher nicht so die Apple iMac Variante ;D

smalM
2020-08-14, 11:26:19
Ich finde 150 für eine All in One heftig das Display heizt ja zusätzlich, ich hätte hier erwartet das sie härtere TDP Limits fahren.
Der Vorgänger lag deutlich drunter laut dem Video.

Der 10700K hat eine TDP von 125W, der 9900K nur von 95W. Wenn Apple das Kühlsystem entsprechend angepaßt hat, dann hat die CPU im 2020er iMac sehr viel mehr Spielraum als ihr Vorgänger im 2019er iMac hatte.
Und Cinebench fordert die CPU thermisch sehr, da die AVX-Units so verdammt viel Strom ziehen.

woodsdog
2020-08-14, 12:28:10
Was die Chips an default TDP im Retail haben dürfte ziemlich irrelevant sein.
Du kannst ziemlich sicher sein, das Apple in ihren Kisten komplett frei entscheidet welche Werte TDP, PL1, PL2, TAU und EWMA haben.
Ich halte es für ausgeschlossen das der 10700er für 56 Sekunden 230W in das winz-Gehäuse drücken darf.

transstilben
2020-08-14, 14:02:37
230 Watt für 56 Sekunden ist nun auch nicht die Welt. Das entspricht ca. 1000 Watt für 14 Sekunden. Einen Liter Wasser bekommt man damit jedenfalls nicht zum Kochen, wenn wir mal von Zimmertemperatur ausgehen. Wenn die Kiste kalt ist, warum sollte Apple nicht den Boost erlauben, wie er vorgesehen ist, wenn die Temperaturen (und die Lautstärke) es hergeben ?

smalM
2020-08-15, 15:25:30
@woodsdog
Deine Strohmann-Argumente nerven.
Wir sprechen von den 150~160W im Video und Du kommst mit 230W daher, die niemals für 56s anliegen könnten. Hast Du was zur Diskussion beizutragen oder willst Du nur kindisch sein?

@transstilben
230 Watt für 56 Sekunden sind 13000 J. Ja, das ist zwar nicht wahnsinnig viel, nur wissen wir nicht, wieviel Masse die relevanten Teile des Kühlsystems auf die Waage bringen, und die Wärmekapazität von Kupfer ist sehr viel kleiner als die von Wasser (1:11). So hättest Du bspw. bei 250g und 40° Erwärmungsspielraum nur 16s Zeit. Man kann im Video sehen, wie zum Ende des Cinebench-Laufs der Verbrauch auf die 125W-Linie runtergefahren wird. Die 4800 Punkte dürften etwa 1 Minute entsprechen, die der Test läuft.

woodsdog
2020-08-15, 16:49:13
@woodsdog
Deine Strohmann-Argumente nerven.
Wir sprechen von den 150~160W im Video und Du kommst mit 230W daher, die niemals für 56s anliegen könnten. Hast Du was zur Diskussion beizutragen oder willst Du nur kindisch sein?

DU hast hier angefangen mit offiziellen TDPs zu argumentieren. Entsprechend habe ich offizielle PL2 und TAU Werte ergänzt und spekuliert das Apple das abweichend zu Retailchips sicher nicht so ausufern lässt.

Entweder ist dein Leseverständniss mangelhaft oder du hast keine Ahnung was neben der super schwammingen TDP sonst noch so an Werten eine Rolle spielt.

Noch mal für dich die Werte der 8 Kerner :
10700k = PL1 125W, PL2 230W, TAU 56 Sekunden
10700 = PL1 125W, PL2 224W, TAU 28 Sekunden

TAU gibt an, wie lange die Chips die "TDP" aka PL1 mit dem Wert in PL2 Überfahren dürfen. EWMA erklärbär ich dir jetzt nicht, google selber. Nächstes mal darfst du gerne einen anderen Ton anschlagen.

Das ist aber im Grunde hier auch ziemlich Offtopic da es um Apples ARM Chips geht.

transstilben
2020-08-15, 17:09:39
...
230 Watt für 56 Sekunden sind 13000 J.
...


Machen wir 13 Joule draus, dann sind wir uns einig ;-)

smalM
2020-08-17, 10:58:21
Machen wir 13 Joule draus, dann sind wir uns einig
Da werden wir uns wohl nicht einig werden können:
1 J = 1 Ws
1 Joule ist die Energie, die benötigt wird, um 1 Sekunde lang die Leistung von 1 Watt zu erbringen.

Aber wenn Du das schöner findest, kann ich gerne 13 kJ draus machen...

Dampf
2020-08-28, 16:48:13
https://www.macwelt.de/news/Apple-Silicon-schlaegt-Macbook-Pro-16-im-Geschwindigkeitsvergleich-10873144.html

https://bilder.macwelt.de/4267751_620x310_r.webp

Junge junge. Ich habs euch ja gesagt, ARM ist die Zukunft. Sogar mit Rosetta reicht die Leistung noch für eigentlich alles aus.

robbitop
2020-08-28, 16:59:31
Das wollten jahrelang viele nicht glauben, wie schnell die Apple ARM Kerne sind. So langsam werden 1:1 Vergleiche möglich und beginnen, das zu zeigen.

Benutzername
2020-08-29, 02:24:17
Das wollten jahrelang viele nicht glauben, wie schnell die Apple ARM Kerne sind. So langsam werden 1:1 Vergleiche möglich und beginnen, das zu zeigen.


Weil sie halt nicht weiter denken als bis zu den den ganzen Socs in Telefonen, Waschmaschinen und was weiß ich. Ist ungefähr so sinnvoll wie x86(-64) an Intels Atoms zu messen, was man aus der ISA bauen kann. :rolleyes:
Und als damals ende der Achtziger die Acorn Archimedes Homecomputer kamen haben die auch links und rechts alles überholt. Also schnell geht mit ARM auch. Alles eine Frage der Implementierung. man hat sich halt auf den Markt für niedrigen Energieverbrauch konzentriert. Der PC auf dem Schreibtisch ist ja Wintel Domäne bis heute.

Sunrise
2020-08-31, 17:54:32
Ach du Scheisse...wir haben echt noch garnichts gesehen.

Apple scheint es wirklich Ernst zu meinen, es kommt wohl direkt eine GPU auf 5nm (zumindest laut Tabelle für den iMac). Dann ist der Rest aber nicht weit.

Siehe:
https://ctee.com.tw/news/tech/326938.html

Von RetiredEngineer (https://twitter.com/chiakokhua/status/1300224203577126912) auch aufgegriffen:

"Apple GPU Eyes TSMC 5nm"

"Sicilian" - A14, 5nm iPhone SoC.
"Tonga" - A14X/Apple Silicon, 5nm iPad/MacBook SoC.
"Lifuka" - 5nm Apple GPU for iMac.

PS: Der 5nm A14 iPhone SoC heißt wohl Sicily, Sicilian ist wohl falsch verstanden worden.

EDIT: Mal den relevanten Teil der oberen News durch DeepL gejagd:

"Industriequellen zufolge wurde der erste von Apple entworfene A14X-Prozessor fertiggestellt und wird bis Ende des Jahres mit der Massenproduktion unter Verwendung des 5-Nanometer-Prozesses von TSMC beginnen.

Nach Angaben der Apple-Lieferkette wird Apple voraussichtlich Ende dieses Jahres ein Macbook mit einem 12-Zoll-Retina-Display auf den Markt bringen, das seinen selbst entwickelten und konstruierten A14X-Prozessor mit dem Entwicklungscode von Tonga verwendet, eine USB-Typ-C-Schnittstelle unterstützt und weniger als 1 Kilogramm wiegt, da der Arm-basierte Prozessor einen geringen Stromverbrauch hat. Der Akku des Macbooks hält 15 bis 20 Stunden. Der A14X-Prozessor wird auch in der neuen Generation des iPad Pro-Tabletts zum Einsatz kommen.

In der Vergangenheit hat Apple Mac PCs mit Intel-CPUs eingeführt, entweder mit einem Phaidon- oder Supermikro-Grafikprozessor, aber Branchenkenner haben zuvor berichtet, dass Apple die Unterstützung für den Supermikro-Grafikprozessor in der 64-Bit-Version des Betriebssystems macOS Arm entfernt hat, was darauf hindeutet, dass zukünftige Mac PCs mit Apple Silicon den von Apple selbst entworfenen Grafikprozessor verwenden könnten. Kürzlich gab es Gerüchte, dass die iMacs, die Apple nächstes Jahr auf den Markt bringen wird, nicht nur Apple Silicon-Prozessoren verwenden, sondern auch Apple GPUs haben werden.

Apples selbst entworfene GPU schreitet laut der Quelle reibungslos voran. Apple entwirft eine Reihe von Prozessoren für den Mac. Die neuen GPUs werden eine bessere Leistung pro Watt und eine höhere Rechenleistung liefern, mit einer kachelbasierten Technologie für verzögertes Rendering, die es Anwendungsentwicklern ermöglicht, leistungsfähigere professionelle Programme und Spiele zu schreiben."

EDIT 2:
Apple scheint wohl laut Gerüchten bereits 2nm Kapazität bei TSMC gebucht zu haben. Dieser schnelle Fortschritt ist schon erschreckend. Wir sind noch nichtmal bei 5nm richtig angekommen.

Dampf
2020-08-31, 17:56:55
Jetzt gehts los, jetzt gehts los!

Die GPUs werden bestimmt krasse Leistung bieten.

smalM
2020-08-31, 20:20:59
Wie Apple die GPU wohl an den SoC anbindet?
Per LIPINCON direkt an den System-Bus oder ähnliches? Apple hatte ja extra betont, daß ihre GPU-Lösung direkt im System eingebunden sein wird.

robbitop
2020-08-31, 23:00:11
Ich frage mich wie sehr Apple reine 3D Leistung eigentlich braucht. AAA Spiele sind ja praktisch irrelevant. Entsprechend anders könnten die GPUs aussehen. Mehr auf Compute und Video ausgerichtet. +Mehr fixed function. Weniger Fokus auf ILP Extraktion um jeden Preis.
Kann man dann am Ende kaum mit dem vergleichen, was AMD/NV so bauen.

smalM
2020-09-01, 00:31:52
Du meinst die GPU auf dem SoC als tatsächlich einzig "richtige" GPU und Lifuka quasi als Apples Version von CDNA?

robbitop
2020-09-01, 09:56:51
Das kommt eben auf den Workload an. Compute ist ja sehr allgemein. Ich habe den Eindruck, dass wenig im Bereich 3D Grafik und Scientific Calculations und CAD auf dem Mac geschieht. Der Schwerpunkt scheint Video und Photobearbeitung zu sein.

Ggf. gibt es dazu deutlich effizientere Wege als einfach nur einen Haufen ALUs in einen Die zu quetschen. Es kommt Apples Kunden ja nicht auf TFLOPs an oder fps im 3D Markt sondern dass ihre Software möglichst schnell bei möglichst wenig Energieverbrauch ist.
Ohne Anpassungen der Software würde ich mir den CDNA Weg vorstellen (ggf. braucht man viel weniger üblichen 3D Kram wie TMUs). Da Apple aber fast alles in einer Hand hat könnte ich mir auch deutlich mehr Fixed Function und weniger General Purpose Hardware vorstellen. Fixed Function ist halt um Größenordnungen kleiner (Transistoren) und sparsamer. Kann aber dafür auch nur die eine Funktion. Ich erwarte mittelfristig auch ALUs die Matrixoperationen ausführen können (NV nennt diese Tensor Cores). Inferencing wird eine größere Rolle spielen.

Ich habe wirklich keine Ahnung in welche Richtung das gehen kann/wird. Ggf. muss man dahin auch erstmal evolutionieren. Also dass man mit etwas CDNA artigem anfängt und immer mehr die Devs in Richtung Fixed Function bringt. Ich habe allerdings auch wenig Wissen darüber, was sich in dem Bereich gut in Hardware gießen lässt. Video En/Decoding macht man ja bereits so (und das tut man schon recht gut). Keine Ahnung was da noch alles möglich ist.

Wichtig ist auch Datenlokalität - denn Datentransfers machen heute den Löwenanteil der Gesamtleistungsaufnahme aus. Entsprechend wird man dort sicherlicher Transistoren investieren: Cache.

GPUs sind jedenfalls primär für 3D Grafik gebaut. Das ist nicht Apples primärer Anwendungszweck. Entsprechend würde ich erwarten, dass Apple hier schon in eine etwas andere Richtung geht um möglichst viel Perf/W zu extrahieren.

Gauß
2020-09-02, 21:53:01
https://www.macwelt.de/news/Apple-Silicon-schlaegt-Macbook-Pro-16-im-Geschwindigkeitsvergleich-10873144.html

https://bilder.macwelt.de/4267751_620x310_r.webp

Junge junge. Ich habs euch ja gesagt, ARM ist die Zukunft. Sogar mit Rosetta reicht die Leistung noch für eigentlich alles aus.Das war lediglich ein winziger Test mit extrem wenig Code. Das ist daher kein aussagekraeftiger Vergleich.
Auch z.B. Geekbench5 reflektiert kaum reale Anwendungen, die auch praktisch leistungskritisch sind.

Eines steht fest: die ARM-Architektur bietet keine (signifikante) inhaerente Leistungsvorteile gegenueber x86, wenn maximale Leistung gefordert wird.
Ich empfinde es extrem zweifelhaft, dass Apple im Hochleistungssegment klassischer Desktop-Anwendungen die Konkurrenz in Sachen single-core-Leistung uebertreffen kann. Eventuell werden sie versuchen dies mit vielen Kernen zumindest oberflaechlich auszugleichen.

amdfanuwe
2020-09-02, 22:55:30
Eines steht fest: die ARM-Architektur bietet keine (signifikante) inhaerente Leistungsvorteile gegenueber x86,
wo sollen die auch herkommen?
Nach dem Dekoder werkeln bei beiden Architekturen ALUs, Integer und FPU Einheiten, Caches, Media, SIMD etc. Einheiten.
Wie ausgewogen die Einheiten zusammenarbeiten und ob sie auf Leistung oder Sparsam ausgelegt sind, macht den Chip aus.
Ob da jetzt ARM oder X86 Decoder obendrüber sitzen macht den Braten nicht fett.

smalM
2020-09-10, 08:36:15
Artikel (https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?CnlID=1&cat=40&id=0000593298_RMP1WNG0LQ496S7M250T4) von Digitimes vom 9.9.

Apple Silicon rumored to have a 5nm quaterly capacity of 20,000 wafer
InFO_L 1Q21 finished

Apple (Apple) following the heavy "Apple Silicon" self-developed chip project surfaced, the semiconductor supply chain has been reported. After entering the fourth quarter this year, TSMC will supply Apple Silicon with a 5nm production capacity for MacBook/iPad Pro chips. It is estimated that it will reach the level of 5,000~6,000 wafer per month, and it is expected to see 20,000 wafer in a single quarter. At present, the integrated wafer-level fan-out package (InFO) in the latter stage is working hard for the A14 processor for the iPhone 12 that will be launched in the fourth quarter of Austrian aid. The utilization rate of InFO_PoP for mobile devices continues to increase. Experts familiar with advanced packaging and testing companies estimate that Apple Silicon is used in the MacBook/iPad Pro product line. For a 5nm wafer, about 650~700 chips can be cut out from one wafer. Two chips will be used as a group side by. Encapsulation in side mode,

According to the supply chain, TSMC is actively promoting the InFO_LSI (Local Si interconnect) process of the InFO family. If it successfully enters the Apple Silicon supply chain, one InFO will be able to package about 230 to 250 chips. The total InFO production capacity in a single quarter will be on the rise. 40,000 to 50,000 wafer are used for Apple Silicon, and the demand for Apple MacBook/iPad Pro devices is estimated. There will be about 6 million to 7 million units in the first half of next year.

The advanced packaging and testing supply chain industry said that in fact, MacBook and iPad have become "explosive purchases" of Apple's terminal products in the first half of the year due to long-distance business opportunities. The current epidemic has no obvious signs of cooling down. From Home (WFH), Apple has achieved significant performance growth in the NB/tablet field in the first half of the year. The subsequent strengthening of Apple Silicon’s IT product capabilities is estimated to be in line with current trends.

Those familiar with the packaging and testing industry admit that, in fact, TSMC’s InFO family originally targeted HPC and mobile devices. The former is still working closely with the substrate industry. It is expected that InFO_LSI, which cooperates with the substrate industry, will complete the certification in the first quarter of 2021.

However, the well-established FC-BGA package of OSAT manufacturers such as ASE and Amkor is quite cost-competitive. It is understood that the Apple Silicon sample A12Z processor previously demonstrated by Apple, It was Aker, who worked closely with TSMC and Apple, who worked on the back-end packaging. Therefore, ASE and Aker insiders also confirmed that they are continuing to actively negotiate Apple Silicon packaging and measuring production orders with Apple, which is now ongoing.

The advanced packaging and testing materials industry said that based on the analysis of the 5nm A14 series processor wafer manufacturing progress, it is estimated that it will take about 2 months in the first stage, and another month for InFO and other later stages of packaging and testing. In the near future, InFO_PoP responds to the fourth quarter iPhone 12 With the launch of, the utilization rate continues to increase.

The monthly production capacity of InFO is about 110,000 to 130,000 wafer, and the production capacity of nearly 400,000 wafer in a single quarter. There is currently no significant capacity expansion. According to relevant industry analysis, it is estimated that the iPhone A14 will be the focus until the middle of the fourth quarter. However, from the end of the fourth quarter to the first quarter of 2021, it is estimated that part of the InFO packaging capacity will be transferred to the new MacBook and the new iPad next year.

In the past, the utilization rate of InFO packaging was highly linked to the low and peak seasons of smartphones. In low season, the utilization rate of InFO is often reflected in detail. For example, InFO_oS and InFO_MS used by HPC are relatively focused on high-standard Netcom chips, and the demand for energy is not too large. However, observing Apple's recent sales strategy, the affordable iPhone SE series has been well received by the consumer market, and if Apple Silicon expands in the future Step forward, TSMC’s InFO family is expected to increase its combat power.

The semiconductor industry speculates that due to the introduction of Mini LED backlighting or 5G communication technologies in the 2021-style new MacBook, iPad Pro and other products, the cost of components will rise, and Apple Silicon is expected to effectively reduce the previous Intel (Intel) dominance period. The cost of the processor, but under the situation that Apple should not significantly reduce the price of new terminals, self-developed chips are indeed a clear strategic trend.

TSMC revealed the "3D Fabric" advanced packaging platform in the technology forum. In addition to the latest technology and the previous 3D SoIC, it clearly pointed out the progress of InFO/CoWoS. In "3D", InFO is divided into "InFO-R" (RDL interconnect) and "InFO-L" (LSI+RDL interconnect). InFO-L is expected to have stronger performance and cost performance.

The CoWoS part also separates CoWoS-R, CoWoS-L, and the long-developed silicon interposer CoWoS-S (Si Interposer), which has been well received by customers. The new CoWoS technology development that incorporates LSI and RDL Interposer is actually The main development direction to improve efficiency and reduce costs.

That is, the "Interposer miniaturization" that the packaging and testing foundry is committed to in high-end fan-out packaging technologies such as Fan-out EB, trying to bridge different chips with a Die (embedded bridge die) that is about 1/10 of the volume of the main chip. , Moving in the direction of reducing costs and enhancing efficiency.

The relevant industry speaking system does not make public comments on specific customers, orders, and supply chain statements.

smalM
2020-09-11, 15:15:17
Der mehr oder weniger bekannte Ex-Intelmitarbeiter François Piednoël hat ein YouTube-Video (https://www.youtube.com/watch?v=xrUhthKAsi4) eingestellt, wie er glaubt, daß Apple einen Mac-SoC verwirklichen sollte.

woodsdog
2020-09-12, 08:20:21
Der mehr oder weniger bekannte Ex-Intelmitarbeiter François Piednoël hat ein YouTube-Video (https://www.youtube.com/watch?v=xrUhthKAsi4) eingestellt, wie er glaubt, daß Apple einen Mac-SoC verwirklicht.

Häh?
Das Video hat den Titel "How I would design the Ax Apple chip to go in the MAC" und das ist genau auch der Inhalt :confused:

smalM
2020-09-12, 10:48:41
@woodsdog
Korrigiert.

pixelguy
2020-09-14, 08:19:25
Wie es aussieht, kauft Nvidia demnächst ARM.

Wie läuft denn das mit den Lizenzen? Sie wollen ja erstmal alles weiterführen. Aber was, wenn sich das in ein paar Jahren ändert?

Sind Architektur-Halter wie Apple da raus? Oder müssen sie die Lizenzen immer erneuern?

smalM
2020-09-14, 21:53:02
@pixelguy
Ich kenne nur die Aussage 3 Jahre oder dauerhaft, aber das ist Info aus der Zeit, als Apple den A6 mit seinem ersten eigenen Core rausbrachte (die 3 Jahre beziehen sich natürlich nicht auf die Nutzungsdauer des eigenen Designs).
Es hängt also daran, welche Art von Architekturlizenz jemand hat. Und von dem guten Dutzend Lizenznehmer, die mal 2015 veröffentlicht wurden, hatten zum einen 4 eh nur eine ARMv7-Lizenz, zum anderen entwirft z.Z. kaum noch jemand einen eigenen Core. Mir fällt neben Apple auf die Schnelle nur Marvel, HiSilicon und Fujitsu ein. Neu hinzu kam Nuvia, aber die haben ja erst letztes Jahr angefangen; alle außer Apple im Server-Segment.

Bei den Nicht-Architekturlizenzen gibt es zwar auch eine Dauerhafte, aber das gilt wohl nur für Embedded-Lösungen. Lizensierte Core-IP muß ansonsten wohl spätestens nach 7 Jahren erneuert werden, für den Smartphonebereich dürfte eine einmalige Lizensierung also ausreichen....

davidzo
2020-09-15, 11:52:21
Lizensierung bezieht sich in diesem Falle ja auch immer auf die ISA, also ISA Erweiterungen die in dem Zeitraum entstehen. Selbst wenn man die Lizenz nicht verlängert kann man damit noch ein paar Jahre relativ aktuelle Socs bauen.

Was nützt es einem wenn eine Vielzahl der x86 Patente bereits ausgelaufen sind, wenn man damit praktisch nur Pentium kompatible Socs bauen kann und alle neueren Befehlssatzerweiterungen noch Patentgeschützt sind? Da läuft in 2020 kaum noch eine anwendung drauf.

Im Falle Apple allerdings könnte es ihnen egal sein wohin die ISA von ARM noch geht. Man ist da ja nicht auf externen softwaresupport angewiesen und könnte einfach einen Fork machen und eigene ISA Erweiterungen entwickeln. Die wären dann nicht mehr von ARM/NV Patentgeschützt, eher umgekehrt durch Apple. Möglicherweise kann man damit sogar schneller sein, bzw. die moderneren, interessanteren ISA Erweiterungen liefern. Wenn Apple dann eine erweiterung hat die Nvidia gerne im mainline ARMv8 Arm :biggrin: hätte und Apple Interessiert an weiterer Kompatibilität mit der öffentlichen ISA hat, dann gibt s einfach ein gegenseitiges Patentnutzungsabkommen. Die Firmen haben beide soviele gute Technologien im Angebot das beide davon massiv profitieren würden. Zumal Apple und NV keine direkten Konkurrenten sind.

Deinorius
2020-09-15, 12:46:18
Ja, aber zumindest Apple scheint nvidia zu hassen. ;D

Wörns
2020-09-15, 15:54:24
Vielleicht hat Nvidia mit den ARM Patenten auch genug Munition, um X86ff lahmzulegen, wenn die Patentinhaber Intel/AMD nicht zu einem Austauschabkommen bereit sind. Dann hat Nvidia quasi über Nacht eine X86 Lizenz.
MfG

pixelguy
2020-09-15, 19:52:04
Apple hat gerade den neuen A14 in 5nm vorgestellt. Für das iPad Air

6 Kerne CPU (4 Big / 2 Littl) -> 40% schneller als der A13 Vorgänger
4 Kerne GPU -> 30% schneller als der A13 Vorgänger

Dampf
2020-09-15, 20:10:52
Und ML Beschleunigung wurde auch deutlich aufgebohrt.

Apple weiß, wo die Zukunft liegt.

Daredevil
2020-09-15, 20:45:20
Apple hat gerade den neuen A14 in 5nm vorgestellt. Für das iPad Air

6 Kerne CPU (4 Big / 2 Littl) -> 40% schneller als der A13
4 Kerne GPU -> 30% schneller als der A13

Schneller als der alte iPad Air Prozessor, oder nicht?