PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27

24p
2017-04-22, 20:58:32
Es ist halt einfach so, dass er, richtig getestet, viele der Apps neu laden muss. Das kostet Zeit und dementsprechend ist das Ergebnis. Wie schnell er dann noch ist, das ist Spekulation. Sicher immer noch schneller als Android. Zu wenig RAM merkt man aber eben schon, nur ist ein i-Gerät schin vom Start weg schneller beim laden von Apps und vielen Tätigkeiten. Android Handys haben eben den Nachteil, dass deren CPU-Leistung geringer ist (und das nicht nur ein wenig). Deswegen habe ich ja auch ein Air2 und ein ip7. Trotzdem ist es ärgerlich, dass hier am RAM gespart wird, merken tut man das schon, nur ist dieser Test dort dazu ungeeignet.
Die 2GB sind btw auch noch recht unkritisch in dem Test, die ganzen lange ladenden Apps dürften drin bleiben. Macht man Dinge, die viel RAM kosten (also zB Browsen) spielt auch das Android Gerät seinen RAM gegen die schnelle CPU der i-Geräte aus.

urpils
2017-04-22, 21:46:00
Es ist halt einfach so, dass er, richtig getestet, viele der Apps neu laden muss. Das kostet Zeit und dementsprechend ist das Ergebnis. Wie schnell er dann noch ist, das ist Spekulation. Sicher immer noch schneller als Android. Zu wenig RAM merkt man aber eben schon, nur ist ein i-Gerät schin vom Start weg schneller beim laden von Apps und vielen Tätigkeiten. Android Handys haben eben den Nachteil, dass deren CPU-Leistung geringer ist (und das nicht nur ein wenig). Deswegen habe ich ja auch ein Air2 und ein ip7. Trotzdem ist es ärgerlich, dass hier am RAM gespart wird, merken tut man das schon, nur ist dieser Test dort dazu ungeeignet.
Die 2GB sind btw auch noch recht unkritisch in dem Test, die ganzen lange ladenden Apps dürften drin bleiben. Macht man Dinge, die viel RAM kosten (also zB Browsen) spielt auch das Android Gerät seinen RAM gegen die schnelle CPU der i-Geräte aus.

Das kann durchaus sein - ist aber ohne konkrete vergleiche Spekulation. Dass das Mehr an RAM den Android Geräten in obigem Test aber nicht hilft (obwohl es dass eigentlich müsste) ist aber dargelegt und somit bisher das einzig Valide was wir hier haben.

Demogod
2017-04-22, 22:10:51
hat jemand app-gesamtgrösse MB-vergleiche zwischen android und ios (optimalerweise so unregelmässigkeiten bezüglich doppelt vorhandener interface dateien herausgerechnet) am start?

24p
2017-04-22, 22:44:58
Das kann durchaus sein - ist aber ohne konkrete vergleiche Spekulation. Dass das Mehr an RAM den Android Geräten in obigem Test aber nicht hilft (obwohl es dass eigentlich müsste) ist aber dargelegt und somit bisher das einzig Valide was wir hier haben.

Nein, es wird nicht richtig getestet. Auch das ist Fakt. Es ist dann einfach die schnellere CPU, die gewinnt. Darüber, ob und in wiefern RAM den Androiden hilft, darüber sagt der Test nichts aus.

=Floi=
2017-04-22, 23:42:03
gerade beim laden der apps kann man geschickt viel faken oder im hintergrund laden. ich denke gerade ios hat hier viel feintuning integriert.
einfachstes beispiel ist der erste screen. NUR der muss schnell geladen werden und der rest kann gemütlich im hintergrund nachgeladen werden.

schaut euch als gegenbeispiel die ganzen pc programme an. ein COD:BO3 braucht ewig um nur ins menü zu kommen. effektive ladezeit und kopierschutzverifikation können im hintergrund laufen und das menü könnte innerhald von 5 sek geladen werden...

urpils
2017-04-23, 06:52:23
gerade beim laden der apps kann man geschickt viel faken oder im hintergrund laden. ich denke gerade ios hat hier viel feintuning integriert.
einfachstes beispiel ist der erste screen. NUR der muss schnell geladen werden und der rest kann gemütlich im hintergrund nachgeladen werden.

schaut euch als gegenbeispiel die ganzen pc programme an. ein COD:BO3 braucht ewig um nur ins menü zu kommen. effektive ladezeit und kopierschutzverifikation können im hintergrund laufen und das menü könnte innerhald von 5 sek geladen werden...

https://youtu.be/-pFpv0Im1UY

Auch nicht perfekt. Aber hier sieht man deutlich dass er wartet bis die Animationen losgehen. Somit ist die App komplett geladen und nicht nur der Screenshot des ersten Bildschirms. Wie gesagt: ändert nix am ersten Video und ist auch im Alltag bei mir so nachzuvollziehen.

drdope
2017-04-23, 08:48:56
gerade beim laden der apps kann man geschickt viel faken oder im hintergrund laden. ich denke gerade ios hat hier viel feintuning integriert.
einfachstes beispiel ist der erste screen. NUR der muss schnell geladen werden und der rest kann gemütlich im hintergrund nachgeladen werden.

schaut euch als gegenbeispiel die ganzen pc programme an. ein COD:BO3 braucht ewig um nur ins menü zu kommen. effektive ladezeit und kopierschutzverifikation können im hintergrund laufen und das menü könnte innerhald von 5 sek geladen werden...

Userexperience ist leider für das gro der Entwickler ein Fremdwort.
In der c't gab es vor ein paar Jahren mal einen Artikel darüber, welche Klimmzüge iOS macht, um schneller zu wirken als es real ist.
Ich hab' leider den Link nicht mehr zu Hand...
:frown:

urpils
2017-04-23, 09:02:21
Userexperience ist leider für das gro der Entwickler ein Fremdwort.
In der c't gab es vor ein paar Jahren mal einen Artikel darüber, welche Klimmzüge iOS macht, um schneller zu wirken als es real ist.
Ich hab' leider den Link nicht mehr zu Hand...
:frown:

das war vor 5-10 Jahren auch wirklich notwendig.. seit etwa 3-4 Jahren sind die SoCs aber wirklich schnell und auch ausreichend RAM für anspruchsvollere Anwendungen ist nun vorhanden. Aus meiner Sicht sind wir sogar eher so weit, dass die Software der Hardware hinterher hinkt.. seht euch doch nur mal das iPad Pro an - da gibt es ja eigentlich keine Software, die ernsthaft die Hardwarefähigkeiten ausnutzt.

auch auf dem iPhone 6s und 7 gibt es nur vereinzelt wirklich hardwarehungrige Beispiele...

smalM
2017-04-26, 21:40:51
Aus meiner Sicht sind wir sogar eher so weit, dass die Software der Hardware hinterher hinkt.. seht euch doch nur mal das iPad Pro an - da gibt es ja eigentlich keine Software, die ernsthaft die Hardwarefähigkeiten ausnutzt.

Apple dürfte zwischen 170 Mio. und 200 Mio. iPads mit A4 - A6 verkauft haben. Davon werden immer noch sehr, sehr viele benutzt. Das bremst die Softwareentwicklung heftig aus. Im Vergeleich dazu wird der iPad Pro Bestand eher dürftig sein...

Nightspider
2017-04-27, 05:39:25
Wobei das iPad 1 mit A4 nahezu unbrauchbar ist.

Glaube nicht das die 1. Gen noch großartig genutzt wird. Viel zu langsam.

Schon das iPad 2 ist gefühlt 3-5 mal schneller und ist damit heute noch nutzbar.

DarkSoldier
2017-04-27, 07:29:25
Wobei das iPad 1 mit A4 nahezu unbrauchbar ist.

Glaube nicht das die 1. Gen noch großartig genutzt wird. Viel zu langsam.

Schon das iPad 2 ist gefühlt 3-5 mal schneller und ist damit heute noch nutzbar.

Habe auch noch ein iPad 3, das ist so langsam, dass es nur noch als digitaler Notenständer herhalten darf.

24p
2017-04-27, 08:15:13
das war vor 5-10 Jahren auch wirklich notwendig.. seit etwa 3-4 Jahren sind die SoCs aber wirklich schnell und auch ausreichend RAM für anspruchsvollere Anwendungen ist nun vorhanden. Aus meiner Sicht sind wir sogar eher so weit, dass die Software der Hardware hinterher hinkt.. seht euch doch nur mal das iPad Pro an - da gibt es ja eigentlich keine Software, die ernsthaft die Hardwarefähigkeiten ausnutzt.

auch auf dem iPhone 6s und 7 gibt es nur vereinzelt wirklich hardwarehungrige Beispiele...


Das sehe ich ähnlich. Das iPad pro (und auch das normale) sind ja am Ende nichts anderes als große iPhones. Imo muss da irgendwann der Schritt gegangen werden, den MS erfolgreich mit dem Surface Pro gegangen ist. Das Tablat als tragbaren PC.

smalM
2017-05-01, 00:06:03
Imo muss da irgendwann der Schritt gegangen werden, den MS erfolgreich mit dem Surface Pro gegangen ist.

Erfolgreich? Erfolgreich in den Medien, oder was?

Bei wccftech (http://wccftech.com/apple-a11-geekbench/), was immer es auch wert sein mag ;)

Daredevil
2017-05-01, 00:08:52
Habe auch noch ein iPad 3, das ist so langsam, dass es nur noch als digitaler Notenständer herhalten darf.
Dito, hab das letztens verschenkt an ne Oma von ner Freundin für Facetime.
Es laufen zwar Games noch ganz nett drauf ( Super Mario Run ), aber die CPU ist komplett überfordert mir nahezu allem. Es ist nicht mal permanent langsam, das wäre gar nicht so schlimm. Das hakelige lagvolle arbeiten ist grausam.

24p
2017-05-01, 10:42:20
Erfolgreich? Erfolgreich in den Medien, oder was?

Bei wccftech (http://wccftech.com/apple-a11-geekbench/), was immer es auch wert sein mag ;)

Soweit ich weiß, sind die Verkaufszahlen vo SP ziemlich gut, auch abseits der Medien. Ich sehe selbst auch immer mehr Leute damit herumlaufen. Immer bedenken, dass man hier das absolute Premiumsegment bedient.

http://www.areamobile.de/bilder/189677-original-tablet-markt-2016-c-idc

smalM
2017-05-05, 16:05:39
Was soll uns die IDC-Märchenstunde sagen?

Da gucke ich lieber in die Bilanzen und sehe, daß die Surface-Division gerade mal 831 Mio.$ Umsatz im letzten Quartal gemacht hat, 26% weniger als im Vorjahr.
iPad alleine erbrachte 3,89 Mrd.$ Umsatz und der Rückgang betrug 'nur' 12%.

Was hat MS da nochmal Vorbildhaftes geleistet?

deekey777
2017-06-05, 20:51:38
Apple verbaut in das neue iPad Pro 10.5'' den neuen A10X mit 3+3 CPU-Kernen und 12 GPU-Kernen. http://images.anandtech.com/doci/11515/screen_shot_2017-06-05_at_11.47.02_am.png

smalM
2017-06-07, 17:37:48
Geekbench (https://browser.primatelabs.com/v4/cpu/3036382)

iPad 7,4
2,36GHz
8MB L2
0 L3 (das wird aber beim A9 und A10 auch so angezeigt)
4GB RAM (128bit SI)

Single Score 3832 (3029/3576)
Multi Score 9091 (5382/6066)

In Klammern die schnellsten Werte für A9X und A10.

Keine Ahnung, welches der beiden Pros das überhaupt ist...

=Floi=
2017-06-07, 18:02:53
ich versteh nicht, warum die keine quads verbauen können. bei der gpu hauen die ganz schön auf die kacke. im android bereich gibt es nicht mal mehr ansatzweise so etwas starkes. Da baut keiner mehr starke tablets.

deekey777
2017-06-07, 18:16:11
Geekbench (https://browser.primatelabs.com/v4/cpu/3036382)

iPad 7,4
2,36GHz
8MB L2
0 L3 (das wird aber beim A9 und A10 auch so angezeigt)
4GB RAM (128bit SI)

Single Score 3832 (3029/3576)
Multi Score 9091 (5382/6066)

In Klammern die schnellsten Werte für A9X und A10.

Keine Ahnung, welches der beiden Pros das überhaupt ist...
Das kleinere Pro mit 9,7'' hatte nur 2 GB. Die RAM-Größe des neuen kleinen Modells ist eine Unbekannte.

https://twitter.com/settern/status/872201445193400320

Serenity Caldwell hat William Savona retweetet
4GB on both models

robbitop
2017-06-07, 19:40:20
A10X soll wohl in 10 nm gefertigt sein. Zumindest besagten das die Gerüchte. Würe auch erklären, warum es so lange gebraucht hat bis die neuen iPads kamen.


ich versteh nicht, warum die keine quads verbauen können. bei der gpu hauen die ganz schön auf die kacke. im android bereich gibt es nicht mal mehr ansatzweise so etwas starkes. Da baut keiner mehr starke tablets.
Weil der Mehrnutzen bei iOS relativ gering ist. Vermutlich profitiert man selbst vom 3. Core kaum.
Im Mobilebereich gibt es nur wenige Realworldapplikationen die deutlich von >2C profitieren. Realworld dominieren die Apple SoCs seit A7 mit 2C die Mitbewerber mit >4C. Einfach weil dort Singlethread noch wesentlich wichtiger ist und deren Cores deutlich mehr ST Leistung haben.

Nightspider
2017-06-07, 19:52:09
Das 128 Bit SI ist neu oder? Vorher 64 Bit?
Wäre eine Verdopplung. Wie wirds realisiert? War vorher nicht LPDDR5x Dual Channel oder so?

Doppelte Bandbreite dürfte jedenfalls für einen guten Teil des Leistungszuwachses verantwortlich sein.

deekey777
2017-06-07, 19:57:02
Das 128 Bit SI ist neu oder? Vorher 64 Bit?
Wäre eine Verdopplung. Wie wirds realisiert? War vorher nicht LPDDR5x Dual Channel oder so?

Doppelte Bandbreite dürfte jedenfalls für einen guten Teil des Leistungszuwachses verantwortlich sein.

Nein, http://www.anandtech.com/show/9766/the-apple-ipad-pro-review/2

robbitop
2017-06-07, 20:04:33
Interessant, dass man offenbar wie bei A9X ohne L3 auskommt. A8X, A9 und A10 hatten je 4MiB L3.

Hoffentlich kommt von Anand nochmal ein In-depth-Review zum SoC. Zum A10 wollte Ryan eigentlich eines machen - das kam aber nie...

robbitop
2017-06-07, 20:16:16
Single Score 3832 (3029/3576)
Multi Score 9091 (5382/6066)

In Klammern die schnellsten Werte für A9X und A10.

+20 % IPC ggü A9X (ST)
+6 % IPC ggü A10 (ST) -> ggf. die höhere Hitrate des deutlich größeren L2 Caches? Wobei 8 MiB merkwürdig klingen @3 Cores.

Sind zwar keine riesen Sprünge mehr aber immerhin tut sich von Generation zu Generation ja doch noch etwas.

Ich bin gespannt, was mit A11 kommt. Ich könnte mir früher oder später SMT vorstellen bei dieser doch recht breiten mArch.
Oder es kommt seit A7 (A8-10 scheinen ja eher evolutionäre Verbesserungen zu sein) mal wieder eine neue mArch.

smalM
2017-06-08, 15:21:49
+20 % IPC ggü A9X (ST)
+6 % IPC ggü A10 (ST) -> ggf. die höhere Hitrate des deutlich größeren L2 Caches?

Das schnellste Einzelergebnis für einen A10 ist 3576 Single-Core-Score. Das setzt sich zusammen aus
2422 Crypto
4034 Integer
3372 FP
3138 Memory

Das 3832 Single-Core-Score-Ergebnis für den A10X setzt sich zusammen aus
2480 Crypto
4010 Integer
3474 FP
4307 Memory

Das schnellste Einzelergebnis für einen Snapdragon 835 ist 2088 Single-Core-Score. Das setzt sich zusammen aus
1224 Crypto
2069 Integer
1419 FP
3351 Memory

Die ersten drei sehe ich als Fluktuation, signifikant ist nur das wesentlich höhere Memory-Ergebnis, das ja zu erwarten war. Ein einzelner Core profitiert also erst einmal nicht vom großen L2.

Das schnellste Einzelergebnis für einen A10 ist 6066 Multi-Core-Score. Das setzt sich zusammen aus
4646 Crypto
7433 Integer
6186 FP
3164 Memory

Das 9091 Multi-Core-Score-Ergebnis für den A10X setzt sich zusammen aus
6962 Crypto
10956 Integer
9398 FP
4965 Memory

Das schnellste Einzelergebnis für einen Snapdragon 835 ist 6797 Multi-Core-Score. Das setzt sich zusammen aus
6122 Crypto
9025 Integer
6205 FP
2839 Memory (3558 Anmerkung s.u.)

Interessanter Weise kommt der A10X in den ersten drei Testsequenzen den rechnerischen A10 x 1,5 sehr nahe, der Overhead für Multi-Core scheint sich also nicht zu vergrößern. Und ein einzelner Core kann anscheinend das 128bit-SI nicht voll ausreizen.

Ergänzung:
Zum Vergleich den Snapdragon 835 hinzugefügt. Beim Multi-Core-Test werden offensichtlich alle Cores eingesetzt.
Anmerkung:
Beim Multi-Core-Ergebnis fiel der Memory-Test schwach aus. Aus dem Single-Score-Beispiel habe ich deshalb das dortige Ergebnis für den Multi-Core-Memory-Test in Klammern dazugesetzt. Ich habe eine Reihe Ergebnisse aus der Datenbank angeguckt und es scheint systematisch ein besonders gutes Ergebnis im Multi-Core-Test mit einem schwachen Ergebnis im Memory-Test einherzugehen. Seltsam...

smalM
2017-06-13, 17:01:03
Das neue Spielzeug ist da, ein 10.5" WLAN 256GB (GestaltID iPad7,3).

Es fühlt sich leichter an als das Pro 9.7" (es ist schwerer) und es fühlt sich flacher an (es ist dicker)...
Da ich iPads fast ausschließlich im Querformat benutze, finde ich es praktisch, daß die (in diesem Fall) seitlichen Ränder kaum schmaler geworden sind. An die sehr schmalen Ränder oben und untern muß ich mich erst gewöhnen, sie kommen mir wie abgeschnitten vor. Die größere Darstellungsfäche ist angenehmer, als ich mir das vorher vorgestellt hatte.
Die Entspiegelung wurde merklich verbessert, die Display-Oberfläche ist aber genauso schnell vertappert wie beim Vorgänger. Bei direktem Nebeneinander kann ich eine ganz leicht verbesserte Farbdarstellung erkennen, die etwas nuancierter ist. Insgesamt war der Schritt vom Air 2 zum Pro 9.7" deutlich größer als der jetzt vom 9.7" zum 10.5".

Hier ein paar Zahlen:

Geekbench 4
single 3935 (crypt 2488, int 4147, fp 3535, mem 4421)
multi 9346 (crypt 7156, int 11308, fp 9634, mem 5049)
compute 27306

GFXBench Metal
Manhattan 3.1.1 1440p offscreen 44,3Fps
Manhattan 3.1 1080p on-/offscreen 40,3Fps/64,7Fps
Manhattan 1080p on-/offscreen 56,4Fps/95,1Fps
T-Rex 1080p on-/offscreen 60,0Fps/212,3Fps

GFXBench OpenGL
Manhattan 1080p on-/offscreen 56,2Fps/88,0Fps
T-Rex 1080p on-/offscreen 59,4Fps/213,4Fps

Linpack (Problem size 500, Number of runs 100)
single 922,85Mflops
multi 2670,51Mflops

3DMark
Sling Shot (OpenGL ES 3.0 1920x1080)
onscreen 4606 (Graphics 7493, Physics 1961)
unlimited 6274 (Graphics 12297, Physics 2311)
Sling Shot Extreme (Metal 2560x1440)
onscreen 3654 (Graphics 4773, Physics 2006)
unlimited 4220 (Graphics 6033, Physics 2056)

Antutu 211272
3D 90789
UX 60270
CPU 48506
RAM 11707

Flash
read 958 MB/s
write 372 MB/s

Beim Testen wird die Rückseite etwas warm, das Apple-Loga sehr. Offensichtlich ist die innere Anordung jetzt wie beim iPad Pro 12.9"; nach dem Testen kühlt das iPad sehr schnell ab.

Schade, daß GFXBench Metal nicht lauffähig war...


Update:

GFXBench Metal lief wieder (und wie, allein das Datenbankupdate brauchte satte 3 1/2 Stunden!).
Tests liefen aber unauffällig, Ergebnisse habe ich oben eingefügt.

@ Robbitop
Ja, beim Scrollen verschmiert der Text nicht.
Aber ich lese nicht, während ich den Text scrolle sondern ich lese, scrolle, lese. Deshalb verstehe ich das Getue, das darum gemacht wird, eh nicht.

Und ja, das Ding ist sehr schnell, aber das Pro 9.7" ist nun auch alles andere als lahm.
Noch habe ich nichts ausprobiert, was nach der wesentlich höheren Multi-Tread- und GP-Leistung verlangt, das und das Spielen wird warten müssen, bis ich mehr Zeit dafür habe...

Als letzter Punkt noch: Das Befüllen des 10.5" aus dem Backup vom Pro 9.7" wurde mehr schlecht als recht ausgeführt, ich mußte sehr vieles aus dem App-Store nachladen.
Und man sollte sich auf eine Update-Orgie einstellen, es wurde ein Haufen Kram auf das 10.5"-Format angepaßt.

mczak
2017-06-13, 17:46:39
Das neue Spielzeug ist da, ein 10.5" WLAN 256GB (GestaltID iPad7,3).

Es fühlt sich leichter an als das Pro 9.7" (es ist schwerer) und es fühlt sich flacher an (es ist dicker)...
Laut den technischen Daten stimmt das nicht ganz, es soll genau so dick sein (beide 6.1mm). Allerdings tatsächlich ansonsten minimal grösser (Länge, Breite) und schwerer (so um die 7%). Ausser du hast bei der Dicke die Hundertstelmillimeter gemessen, die Angaben sind bloss auf den Zehntelmillimeter genau :-).

smalM
2017-06-13, 19:37:59
Sorry, das war nicht ganz ernst gemeint.
Tatsächlich steht nur die Kamera noch weiter raus. Die Gehäuse selbst sind eigentlich gleich dick.

Und ja, ich mag die herausstehende Kamera am iPad nicht!
Am iPhone ist mir das egal, da ist immer züchtig eine Hülle drum, aber meine iPads sind immer Nackedeis.

robbitop
2017-06-13, 22:40:00
@smalM
Wie macht sich das 120Hz Display so? Hohe Bewegtschärfe beim Scrollen?
Wie macht sich die neue CPU und die 4 GiB RAM? Müsste doch ziemlich schnell sein?

smalM
2017-06-14, 21:48:29
iFixit hat das 10.5" auseinandergenommen (https://www.ifixit.com/Teardown/iPad+Pro+10.5-Inch+Teardown/92534)

pixelguy
2017-06-14, 22:07:01
Das Video ist ganz interessant in dem Zusammenhang: https://www.iphoneblog.de/2017/06/14/apples-20-millisekunden-pencil/

Ailuros
2017-06-16, 17:53:35
Die peak A10X Manhattan3.0/3.1/3.1.1 scores liegen grob =/< 2.0 A10 GPU Leistung, ergo vergleichbare GPU Frequenzen zur A10 GPU bei irgendwo um die 630+MHz bzw. ~490 TFLOPs FP32.

Ich hab mich ehrlich nicht mit dem Ding beschaeftigt aber ich hab das Gefuehl dass der A10X doch nicht auf 10FF hergestellt wurde bin mir aber nicht sicher.

Sonst wie auch in der Vergangheit: schoen die A10X GPU packt fast 120 fps in Manhattan 3.0 bzw. 80+ fps in 3.1, fuer was nochmal genau? Mehr als OGL_ES3.0 weigert sich selbst in sw Apple immer noch zu unterstuetzen.

Mal sehen ob Apple bei ihren "eigenen" zukuenftigen GPUs irgend eine ueberraschende Innovation fuer Tessellation und co. vorstellen wird.

deekey777
2017-06-16, 18:36:24
Du meinst bestimmt GFLOPs.

https://9to5mac.com/2017/06/14/ipad-pro-versus-macbook-pro-speed-tests/

steve.it
2017-06-17, 13:45:57
Geekbench hat keinen guten Ruf, wird aber ständig verwendet. Inwieweit taugt ein aktuelles Geekbench zum Vergleich ARM vs. X86_64?

Mehr als OGL_ES3.0 weigert sich selbst in sw Apple immer noch zu unterstuetzen.

Metal 2
https://developer.apple.com/metal/

deLuxX`
2017-06-17, 19:39:43
Ein hypothetischer A11X verputzt dann wohl meinen Xeon 1230v3 Haswell zum Frühstück.:freak:

Nach den Verbrauchs- und Hitzemessungen von https://www.notebookcheck.com/Test-Apple-iPad-Pro-10-5-Tablet.226580.0.html tippe ich auf 10nm.

deekey777
2017-06-17, 20:39:01
Gab es da nicht den Vorwurf, dass Geekbench in bestimmten Tests auf spezielle Einheiten greift, während auf den normalen x86-CPUs alles in Software läuft?

drdope
2017-06-17, 20:49:52
Hab' ich zumindest so im Hinterkopf gespeichert, daß Geekbench viele Dinge benched, die auf den AppleSoCs in Hardware gegossen sind.
Aber einen konkreten "Beweis" dazu, habe ich leider nicht zur Hand...
:(

deLuxX`
2017-06-17, 22:30:54
Anders herum: gibt es einen Bench der vergleichbare ergebnisse erzeugt?

deekey777
2017-06-17, 22:56:34
Hab' ich zumindest so im Hinterkopf gespeichert, daß Geekbench viele Dinge benched, die auf den AppleSoCs in Hardware gegossen sind.
Aber einen konkreten "Beweis" dazu, habe ich leider nicht zur Hand...
:(
Meine Vermutung war die AES-Verschlüsselung, aber sie ist nicht mehr so maßgeblich, auch war das der Vorteil der Intel CPUs ggü. AMD.

http://www.geekbench.com/doc/geekbench4-cpu-workloads.pdf

Anders herum: gibt es einen Bench der vergleichbare ergebnisse erzeugt?
Eigentlich hast du Recht. Auf der anderen Seite kann ein Test, der in einem bestimmten Bereich übermäßig viele Punkte bringt, die Vergleichbarkeit verfälschen. Aber das war schon immer so.

Awrack
2017-06-18, 00:43:54
Ich habe seit gestern das neue IPAD Pro mit 12'9 Zoll, das Air 2 wurde in letzter Zeit immer langsamer, jetzt habe ich wieder ein Geschwindigkeit wie ich es vom PC gewohnt bin, auch die ständigen Rucker beim scrollen sind komplett weg es ist alles sehr smooth, eine leichte Bewegungsunschärfe gibt es immer noch dank LCD.

Ailuros
2017-06-19, 11:39:15
Metal 2
https://developer.apple.com/metal/

Ist doch scheissegal im gegebenen Fall OB sie momentan daran arbeiten. Wuerde es heute Unterstuetzung fuer >ES3.0 geben wuerden alle ihre GPUs ab A8 die Car Chase und Tessellations-Tests in gfxbench in software bearbeiten koennen.

deekey777
2017-06-19, 11:41:43
Ist doch scheissegal im gegebenen Fall OB sie momentan daran arbeiten. Wuerde es heute Unterstuetzung fuer >ES3.0 geben wuerden alle ihre GPUs ab A8 die Car Chase und Tessellations-Tests in gfxbench in software bearbeiten koennen.

Wie viele andrere Geräte mit PowerVR-GRafik können denn den Test ausführen?

urpils
2017-06-22, 11:55:33
https://www.macrumors.com/2017/06/22/imagination-tech-up-for-sale-after-apple-battle/

urpils
2017-06-30, 06:36:13
"A10X is TSMC 10 nm FF"

http://www.anandtech.com/show/11596/techinsights-confirms-apple-a10x-soc-10nm-tsmc

deLuxX`
2017-06-30, 08:42:48
Ich hab Recht gehabt.:eek:

Edit: das ist einfach so Banane. Das kleinste SoC für iPads bisher und trotzdem so böse schnell...

Sunrise
2017-06-30, 11:14:02
Vom Resultat erinnert das verblüffend stark an TSMCs 20nm, den Apple sich auch als praktisch größter Kunde schnellstens gesichert hatte. Keine nennenswerten Taktsteigerungen, praktisch nur in die Breite gegangen.

Interessant ist vor allem der fast dreifach größere L2 Cache, gegenüber dem A9 bzw. A9X. Diese massive Steigerung kommt etwas unerwartet, dachte erst an einen Schreibfehler.

Weitere Taktsteigerungen erwarte ich erst mit TSMCs 7nm. Beim iPhone8 müsste Apple etwas Ähnliches liefern oder aber sie erneuern wieder die Cores und bauen wieder ein 2+2 Core-Design wie beim iPhone7.

smalM
2017-07-01, 00:07:12
Weitere Taktsteigerungen erwarte ich erst mit TSMCs 7nm.

Wenn Du recht hast, sehen wir die A11-CPUs nur so bei 2,4GHz.

Ich nehme aber an, Hurricane wird im A10X nur aus Stromspargründen so niedrig getaktet; die A11-CPUs könnten bei 2,75GHz liegen.

Aber wer weiß, ob Apple seine neuen iPhone 7s / 7s+ / '8' nicht über den SoC(-Takt) differenzieren will...

Entropy
2017-07-01, 00:22:48
...und Tessellations-Tests in gfxbench in software bearbeiten koennen.Es wäre recht "dumm" von Apple so ein Feature zu implementieren, was Tiled-Rendering in den Rücken feuert, denn dann muss das auch in Metal rein, und ewig supportet werden.
Ich könnte mir vorstellen, dass es keine GPU gibt die bei Tesselation binning betreibt.

Ich denke selbst auf PS4/XB1 wird das kaum ein Spiel nutzen, jedenfalls nicht ausgiebig.

robbitop
2017-07-04, 10:52:14
Ich bin mal gespannt, ob der CPU Core in A11 eine neue mArch bringt bzw. ob man SMT implementiert. Die breite mArch schreit ja geradezu danach. Auch wäre es interessant, ob man den Corecount in den nonX SoCs auch erhöt.

@persönliche Erfahrung zum A10x
Ich habe seit kurzem das iPad Pro 10.5 mit 256 GB. Alter ist das brutal schnell! Der A10X und die 4 GB RAM fühlen sich um Welten schneller an als alle anderen Pads / Phones die ich in letzter Zeit in der Hand hatte...

Entropy
2017-07-04, 11:32:09
Ich bin mal gespannt, ob der CPU Core in A11 eine neue mArch bringt bzw. ob man SMT implementiert. Die breite mArch schreit ja geradezu danach.
Vermutlich machen die es einfach um die ersten zu sein die das haben, wie es bei 64 Bit war. Es ist ja eine technologische Auszeichnung Desktoptechnologie auf Mobile zu bringen, zumindestens für eine "High Tech Company".
Ich fände SMT als Energiesparfunktion interesant, denn statt big.little, könnte ein SMT-Core auch z.B. 8 Threads ausführt, während die restlichen Cores komplett im Tiefschlaf sind. Einen schnellen Core voll auszulasten kann effizienter sein, als 4 "schlechte".

Kannst du ein paar Shadertoy Sachen testen? Dann könnten wir das gegen Desktop GPUs einsortieren. Wäre auch interesant zu sehen, ob es throttled bei Dauerbelastung.

smalM
2017-07-04, 13:18:51
Vermutlich machen die es einfach um die ersten zu sein die das haben, wie es bei 64 Bit war.
:freak:

BlackBirdSR
2017-07-04, 15:10:20
Ich fände SMT als Energiesparfunktion interesant, denn statt big.little, könnte ein SMT-Core auch z.B. 8 Threads ausführt, während die restlichen Cores komplett im Tiefschlaf sind. Einen schnellen Core voll auszulasten kann effizienter sein, als 4 "schlechte".



Das ergibt leider keinen Sinn.
Ein Kern kann auch so beliebig viele Threads bearbeiten. Dazu braucht es kein SMT.

Ob es jetzt in mobile günstiger wäre 2 Threads mit hoher Verlustleistung statt 2 Kernen bri geringerer Belastung laufen zu lassen ist ein anderes unbeantwortetes Thema

Nightspider
2017-07-04, 15:23:31
@persönliche Erfahrung zum A10x
Ich habe seit kurzem das iPad Pro 10.5 mit 256 GB. Alter ist das brutal schnell! Der A10X und die 4 GB RAM fühlen sich um Welten schneller an als alle anderen Pads / Phones die ich in letzter Zeit in der Hand hatte...

Das 120Hz Display dürfte bei der gefühlten Performance aber auch einiges ausmachen.

robbitop
2017-07-04, 16:35:27
Kannst du ein paar Shadertoy Sachen testen? Dann könnten wir das gegen Desktop GPUs einsortieren. Wäre auch interesant zu sehen, ob es throttled bei Dauerbelastung.
Klar - was genau muss ich tun? :)

Das 120Hz Display dürfte bei der gefühlten Performance aber auch einiges ausmachen.
Ja - aber eher was Bewegtschärfe angeht. Ist definitiv fühlbar. Aber auch mit 60 Hz wäre es so extrem schnell und reaktiv. Und das kommt definitiv vom HW Unterbau.

Entropy
2017-07-04, 18:36:06
Klar - was genau muss ich tun? :)
Könntest du die FPS von ein paar shadern nennen? z.B.
https://www.shadertoy.com/view/Ms2SD1
falls das am Refresh von Display limitiert ist, dann:
https://www.shadertoy.com/view/4ttSWf
Vorsicht, das kann auf manchen Geräten den Browser umbringen.

Nightspider
2017-07-04, 18:48:16
Ja - aber eher was Bewegtschärfe angeht. Ist definitiv fühlbar. Aber auch mit 60 Hz wäre es so extrem schnell und reaktiv. Und das kommt definitiv vom HW Unterbau.

Hmm okay.
Bei welchen Anwendungen merkst du es am stärksten?

Kommt die gefühlte Mehrperformance eigentlich hauptsächlich von der CPU oder von Speicher, Bandbreite und GPU und CPU zusammen?

Ich werde da schon immer neidisch. Hätte gern den A10X in einem Samsung Tablet mit OLED Panel.

In Android Tablets gibts ja meist nur Schrott-Hardware.

robbitop
2017-07-04, 21:02:23
Könntest du die FPS von ein paar shadern nennen? z.B.
https://www.shadertoy.com/view/Ms2SD1
falls das am Refresh von Display limitiert ist, dann:
https://www.shadertoy.com/view/4ttSWf
Vorsicht, das kann auf manchen Geräten den Browser umbringen.

60.0 fps bei beiden. Bei letzterem ein schwarzes Bild. Funktioniert also nicht. Bei ersterem sieht man einen Ozean. Aber auch da 60 fps. Kann ich mit der shadertoy App irgendwie fps anzeigen lassen?


@Nightspider
Ich vermute, die Performance kommt von der CPU und dem schnellen ssd Speicher. Ich merke es überall. Er startet jede App brutal schnell, wechselt schnell, sucht schnell. Es ist einfach überall alles sofort schnell und reaktiv da. Andere iPads die ich in der Hand hatte oder auch das Galaxy Tab S2 waren da ein wenig träger, weniger smooth, weniger reaktiv. Das pro empfinde ich wirklich als brutal. Als wenn man das erste Mal einen PC mit SSD, schnellem Prozessor und 120hz hat...

-/\-CruNcher-/\-
2017-07-04, 21:22:33
Schwarzes Bild = Er ist am Laden ;) das kann etwas dauern bevor sich da was tut auf Mobile wohl noch etwas länger.

Zumal das Youtube video dadrunter auch den Browser etwas time outen kann wobei keine Ahnung wie sich da Safari verhält

robbitop
2017-07-04, 21:27:03
Schwarzes Bild = Er ist am Laden ;) das kann etwas dauern bevor sich da was tut auf Mobile wohl noch etwas länger.

Zumal das Youtube video dadrunter auch den Browser etwas time outen kann wobei keine Ahnung wie sich da Safari verhält

Schwarzer bildschirm seit 5 min. Da passiert wohl nix mehr. In der App startet Rainforest aber sofort. Läuft aber lahm. Leider kein framecounter in der app..

smalM
2017-07-07, 17:43:31
Apple Fires Back at Supplier Imagination (https://www.bloomberg.com/news/articles/2017-07-07/apple-fires-back-at-supplier-imagination-in-contract-dispute)

Apple will Imagination bereits Ende 2015 davon unterrichtet haben, keine neue IP mehr zu kaufen, also nach Erscheinen der A9(X)-SoCs.

Ich hatte eigentlich ziemlich fest angenommen, wir würden in den A11(X)-SoCs noch ein letztes Mal PowerVR sehen, jetzt, mit der verlängerten Zeitlinie, bin ich mir nicht mehr so sicher...

YfOrU
2017-09-13, 00:06:17
A11 Bionic:
https://www.golem.de/news/apple-a11-bionic-iphone-chip-nutzt-eigene-gpu-und-deep-learning-1709-130014.html

2x Monsoon (HP Kerne)
4x Mistral (LP Kerne)
heterogeneous multi-processing
eigene GPU Architektur (3 Kerne)
Vermutlich auch durchgehend eigene ISPs/DSPs
Neural-Engine (2 Kerne)
10nm TSMC, 4,3 Mrd. Transistoren

Ist mal wieder eine ordentliche Ansage und mit der deutlich gestiegenen MT Performance dürfte man bezogen auf Smartphones (und in Zukunft auch non x86 Tablets) endgültig in einer eigenen Liga angekommen sein. Gespannt bin ich aber vor allen auf die GPU. Komplett neue Architekturen haben heute Seltenheitswert und die Performance/Effizienz Angaben gegenüber A10 sind trotz 14 zu 10nm ambitioniert.

N0Thing
2017-09-13, 00:20:01
Gespannt bin ich aber vor allen auf die GPU. Komplett neue Architekturen haben heute Seltenheitswert.

Ja, da bin ich auch gespannt. Habe mich bei der Präsentation gefragt, ob der Leistungsgewinn allein durch die neue GPU kommt, oder ob da vor allem Metal 2 dahinter steckt.

Sunrise
2017-09-13, 01:36:22
Bei den 30% Mehrleistung bei nur halbem Stromverbrauch bei der GPU ggü. dem iPhone 7 - da stand mir ganz kurz der Mund offen.

Daher interessiert mich auch brennend, wie Apple das bewerkstelligt hat, aber das muss vermutlich wiedermal auf Anandtechs Beziehungen zu Apple warten.

Ich weiß zwar nicht, wie das ggü. dem schon recht effizienten PowerVR-Design gehen soll, aber wenn es jemand schafft, dann Apple.

mczak
2017-09-13, 05:27:04
Ja, da bin ich auch gespannt. Habe mich bei der Präsentation gefragt, ob der Leistungsgewinn allein durch die neue GPU kommt, oder ob da vor allem Metal 2 dahinter steckt.
Metal 2 ist jetzt nicht gerade der Bringer - da gibt es einfach ein paar neue Features, aber die Unterschiede sind auch nicht wirklich grösser als sie zwischen metal 1.0/1.1/1.2 waren (auch wenn diese Versionen wohl offiziell gar nie so hiessen). Ich wüsste also nicht wieso das schneller sein soll - es sei denn natürlich man benutzt da einen Test der die neuen Features nutzen kann aber ich denke nicht dass das der Fall ist.
Aber auf die neue GPU bin ich natürlich auch gespannt, vor allem das Effizienzziel scheint mir tatsächlich auch sehr ambitioniert mit dem halben Stromverbrauch gegenüber A10 bei gleicher Leistung (einfach nur schnell kann ja jeder bauen...).

Relic
2017-09-13, 09:05:06
Bei den 30% Mehrleistung bei nur halbem Stromverbrauch bei der GPU ggü. dem iPhone 7 - da stand mir ganz kurz der Mund offen.

Daher interessiert mich auch brennend, wie Apple das bewerkstelligt hat, aber das muss vermutlich wiedermal auf Anandtechs Beziehungen zu Apple warten.

Ich weiß zwar nicht, wie das ggü. dem schon recht effizienten PowerVR-Design gehen soll, aber wenn es jemand schafft, dann Apple.

Niemals einer Übersetzung vertrauen sondern der Originalquelle... Apple selbst hat gesagt 30% Mehrleistung bei gleichem Stromverbrauch oder halber Stromverbrauch bei gleicher Leistung.

deekey777
2017-09-13, 09:18:14
Was Apple tatsächlich sagt:
Mit sechs Kernen und 4,3 Milliarden Transistoren hat der A11 Bionic vier Effizienzkerne, die bis zu 70 % schneller sind als der A10 Fusion Chip, und zwei Performance*kerne, die bis zu 25 % schneller sind. Und wenn du besonders viel Leistung brauchst, kann die CPU alle sechs Kerne auf einmal einsetzen



GPU von Apple
Die neue von Apple entwickelte GPU mit drei Kernen ist bis zu 30 % schneller als der A10 Fusion.


Egal.

Die Apple GPU ist doch tausendmal interessanter.
https://developer.apple.com/videos/play/fall2017/604/

https://developer.apple.com/documentation/metal/about_gpu_family_4

Metal 2 ist jetzt nicht gerade der Bringer - da gibt es einfach ein paar neue Features, aber die Unterschiede sind auch nicht wirklich grösser als sie zwischen metal 1.0/1.1/1.2 waren (auch wenn diese Versionen wohl offiziell gar nie so hiessen). Ich wüsste also nicht wieso das schneller sein soll - es sei denn natürlich man benutzt da einen Test der die neuen Features nutzen kann aber ich denke nicht dass das der Fall ist.
Aber auf die neue GPU bin ich natürlich auch gespannt, vor allem das Effizienzziel scheint mir tatsächlich auch sehr ambitioniert mit dem halben Stromverbrauch gegenüber A10 bei gleicher Leistung (einfach nur schnell kann ja jeder bauen...).
Korrigier mich, aber es sieht so aus, als wäre Metal 2 deutlich näher an A11, als es zuvor mit Metal 1.x und A7-A10 der Fall war.

HW-Tessellation? Wo bist du? Async Compute, Threadgröße von 2x2?

https://abload.de/img/a11kyshr.jpg

Sunrise
2017-09-13, 09:52:34
Niemals einer Übersetzung vertrauen sondern der Originalquelle... Apple selbst hat gesagt 30% Mehrleistung bei gleichem Stromverbrauch oder halber Stromverbrauch bei gleicher Leistung.
Korrekt, hatte das gestern wohl falsch aufgenommen im Stream, dennoch beeindruckend. Die Antwort heißt wohl TBDR.

https://developer.apple.com/videos/play/fall2017/604/[/url]

https://developer.apple.com/documentation/metal/about_gpu_family_4
Apple setzt also voll auf TBDR wie schon IMGTec zuvor. Dass sich IMGTec da mit Händen und Füßen dagegen wehrt, ist klar, aber das was Apple da geschafft hat ist schon enorm, wenn das völlig ohne Patentverletzungen stattfand. Der Know-How-Transfer ist natürlich nicht von der Hand zu weisen, aber das ist ja nichts Neues.

Dass jede Firma die es sich leisten kann da noch etwas in der Hinterhand hat, ist auch klar. Da scheint wohl noch eine ganze Ecke Potenzial zu schlummern.

Laut deinen Links wird vor allem enorm an Energie eingespart, weil der Tile-Speicher so nahe am Shader-Kern liegt und dadurch bleibt soviel wie möglich lokal ohne externen Speicherzugriff. Wie und ob das vorher ein Flaschenhals war, kann ich mangels tieferem Wissen aber nicht beurteilen.

Da werden wir beim A11X wohl 6 "Kerne" (wohl eher Cluster) sehen, also wieder eine Verdopplung, wie zuvor. Dabei ist bereits der A10X schon abartig schnell.

robbitop
2017-09-13, 10:12:00
Korrekt, hatte das gestern wohl falsch aufgenommen im Stream, dennoch beeindruckend. Die Antwort heißt wohl TBDR.

Die Vorgänger GPU basierte ja auch auf einem TBDR. Ergo gleiche Voraussetzungen. Somit kann das nicht die Antwort auf den Vorsprung sein. :)

Fertigungsprozess ist sicher nicht ganz irrelevant. A10 Fusion war ja 14 nm, A11 ist 10 nm. Ansonsten sah man ja bei NV mit Maxwell, Pascal und sicherlich auch Volta, dass Effizienz nochmal steigerbar ist - u.A. durch erhöhte Datenlokalität (Signale über die GPU zu schieben - oder schlimmstenfalls über dessen Grenzen hinweg kostet Energie).
Auch kann ich mir vorstellen, dass in Punkto Controlllogik pro Shadercluster und in Punkto Shadercompiler noch Luft nach oben war. Apple hatte ja seit Jahren schon die besten Leute der Industrie nach und nach angeworben. Klar, dass irgendwann mal eine eigene GPU kommt. Wenn man genug Ressourcen hat, kann man auch mehr leisten.
Als NV noch jedes Jahr neue Tegras lieferte, waren ihre ULP GPUs ggü den IMGs (obwohl sie keine vollen TBDRs hatten) sehr stark auf den Fersen. IIRC kamen die Tegras aber immer mit einem älteren Node auf dem Markt. Wenn man nodenormiert verglich (was NV gern tat - siehe A8x vs Tegra X1) waren die NV ULPs schon energieeffizienter. Insofern war eigentlich erahnbar, dass IMG in ihrer mArch auch noch einiges nicht ausgeschöpft hat.

Gerade bei den letzten beiden Punkten, kann ich mir vorstellen, dass IMG als vergleichbar kleine GPU Schmiede (ggü NV z.B.) noch nicht alle Potenziale ausschöpfen konnte. Apple hat mittlerweile ganz andere Ressourcen aufgebaut.

Man darf nicht vergessen, dass die letzten GPUs auch bereits schon (durch Apple) stark modifizierte GPUs waren. Das kam nicht über Nacht.

deLuxX`
2017-09-13, 10:14:05
Da werden wir beim A11X wohl 6 "Kerne" (wohl eher Cluster) sehen, also wieder eine Verdopplung, wie zuvor. Dabei ist bereits der A10X schon abartig schnell.
Der schlägt dann knapp einen Intel CFL. :freak:

YfOrU
2017-09-13, 10:18:31
Die Geekbench Werte sollen wohl korrekt sein (A11):
http://browser.geekbench.com/v4/cpu/3976700

Ist schon ganz schön weit weg von beispielsweise Samsung (Exynos 8895):
http://browser.geekbench.com/v4/cpu/3793763

Und auch nochmal ein ordentlicher Schritt gegenüber dem A10 (non X):
http://browser.geekbench.com/v4/cpu/3981226

robbitop
2017-09-13, 10:19:08
Da werden wir beim A11X wohl 6 "Kerne" (wohl eher Cluster) sehen, also wieder eine Verdopplung, wie zuvor. Dabei ist bereits der A10X schon abartig schnell.
Meinst du 3x starke und 3x schwache Kerne (wie A10X)?
Interessant wäre mal zu wissen, wie stark die IPC gestiegen ist.

Was auffällig war, dass der S3 @Applewatch Series 3 deutlich fixer ist als der S2. Ob man da die neuen "schwachen" Kerne genommen hat? :)

Ob es schon die neuen Mistral Cores sind oder noch die alten Zephyr? :)

robbitop
2017-09-13, 10:23:31
Die Geekbench Werte sollen wohl korrekt sein:
http://browser.geekbench.com/v4/cpu/3976700

Ist schon ganz schön weit weg von beispielsweise Samsung:
http://browser.geekbench.com/v4/cpu/3793763

Und auch nochmal ein ordentlicher Schritt gegenüber dem A10 (non X):
http://browser.geekbench.com/v4/cpu/3981226
21 % höhere ST Leistung. Takt wäre interessant. In dem Link stehen 24 MHz. (wäre ja eine krasse IPC ;D)

71% höhere MT Leistung -> jep herogenes Computing funktioniert. Auch die Mistrals rechnen simultan mit (gemeinsam mit den Monsoons).

8 MB L2 Cache laut dem Link @A11. A10 hatte wohl nur 3 MB, A10x aber auch 8 MB. Jeweils kein L3 (merkwürdig - A10 hat doch 4 MiB L3...offenbar liest GB nicht zuverlässig aus). A11 scheint den L1 I/D halbiert zu haben. Die Frage ist, ob er den L1 von Mistral oder Monsoon ausliest....

Ich hoffe, es gibt einen In-Depth Artikel zu mArch. Bei A10/A10X gab es IIRC nichts richtig gutes. Mich würde es nicht wundern, wenn Apple mittlerweile SKL IPC erreicht hat (oder mehr).

deekey777
2017-09-13, 10:40:27
Apple setzt also voll auf TBDR wie schon IMGTec zuvor. Dass sich IMGTec da mit Händen und Füßen dagegen wehrt, ist klar, aber das was Apple da geschafft hat ist schon enorm, wenn das völlig ohne Patentverletzungen stattfand. Der Know-How-Transfer ist natürlich nicht von der Hand zu weisen, aber das ist ja nichts Neues.

Vielleicht hat IMG an Apple zu viel abgetreten, ohne es zu merken. X-D
Sprich: "Vor dem Unterzeichnen sollte man schon die Verträge lesen." ;D

AffenJack
2017-09-13, 12:20:05
Meinst du 3x starke und 3x schwache Kerne (wie A10X)?
Interessant wäre mal zu wissen, wie stark die IPC gestiegen ist.

Was auffällig war, dass der S3 @Applewatch Series 3 deutlich fixer ist als der S2. Ob man da die neuen "schwachen" Kerne genommen hat? :)

Ob es schon die neuen Mistral Cores sind oder noch die alten Zephyr? :)

Bei den Geekbenchwerten sind FP und INT ziemlich haargenau um die den gleichen Faktor größer. Damit würde ich eher kleine IPC Verbesserungen erwarten, da man eher Tweaks als große Veränderungen durchgeführt hat. Schätze der Großteil kommt vom Mehrtakt. Aber die IPC ist für den ULP Markt eh jenseits von gut und böse.

GPU wird vom Aufbau interessant, wieviel Infos man da wohl kriegen wird. Die Performancesteigerung an sich ist jetzt nicht wirklich beeindruckend und ich denke nen IMG Chip hätte da in dieser Generation mehr erreicht. Aber dafür das das deren erste Generation ist, ist das schon verdammt gut. Da dürfte es wohl eher die Perspektive sein die zählt indem Apple nun keine Linzengebühren mehr zahlen muss und es sie stört, dass sie bei der GPU nur noch gleichwertig sind mit den anderen. Apple dürfte wohl über die nächsten generationen versuchen sich da wieder einen Vorsprung zu erarbeiten.

Sunrise
2017-09-13, 12:37:14
Meinst du 3x starke und 3x schwache Kerne (wie A10X)?
Interessant wäre mal zu wissen, wie stark die IPC gestiegen ist.
War bezogen auf die GPU. Beim A10X war es ja eine gespiegelte/verdoppelte 6-Cluster GPU (also insgesamt 12 Cluster, die von Apple als Kerne bezeichnet wurden).

Beim A11 gibt Apple bei der GPU ein "three-core design" an. Da wurde also wohl einiges umgebaut und evtl. die Einheiten pro Cluster deutlich erhöht bzw. vergrößert, z.B. FP16 soll doppelt so schnell sein, ebenso die Texturfüllrate laut deekey777s Links.

Ein Kommentar noch bzgl. der Single-Core-Performance im Geekbench:
Apple ist jetzt annähernd doppelt so schnell wie Samsungs Eigenentwicklung. Das ist irgendwie ziemlich krank. Also 2253 Punkte (Exynos 8895) vs. 4271 Punkte (Apple A11), siehe Yf0rUs Links.

deekey777
2017-09-13, 12:44:31
Jetzt müssen sie nur noch Microsoft nachmachen und macOS auf ARM vollständig portieren. :ulol:

robbitop
2017-09-13, 12:50:43
Bei den Geekbenchwerten sind FP und INT ziemlich haargenau um die den gleichen Faktor größer. Damit würde ich eher kleine IPC Verbesserungen erwarten, da man eher Tweaks als große Veränderungen durchgeführt hat. Schätze der Großteil kommt vom Mehrtakt. Aber die IPC ist für den ULP Markt eh jenseits von gut und böse.

Das wären dann aber fast 3 GHz, die es bräuchte, wenn es vom Takt kommen würde. Kann ich mir fast nicht vorstellen.

Sunrise
2017-09-13, 13:07:29
Das wären dann aber fast 3 GHz, die es bräuchte, wenn es vom Takt kommen würde. Kann ich mir fast nicht vorstellen.
Vom 24. Juli von Ice Universe:
https://mobile.twitter.com/UniverseIce/status/889491036292001793

Apple A11 ,3.0GHz,HMP(Heterogeneous Multi-Processing)

Halte ich auch für etwas viel, wäre aber möglich. Der Single-Core-Wert ist einfach zu heftig. Die IPC-Steigerungen werden ja immer weniger.

AffenJack
2017-09-13, 13:15:31
Das wären dann aber fast 3 GHz, die es bräuchte, wenn es vom Takt kommen würde. Kann ich mir fast nicht vorstellen.

Wenn wir die 21% Single Thread Steigerung aus Geekbench nehmen sind wir bei 2,83Ghz. Mit Tweaks meinte ich schon einen minimalen Anstieg, also so 5%. Dann brauchst dafür noch 2,7 Ghz. Das klingt für mich nicht unmöglich in 10nm. War es nicht auch so, dass Geekbench nur wenig auf größere Caches reagiert? Habe ich irgendwie im Hinterkopf, dass es da mehr um die Coreleistung ging. Dann würde ne zusätzlich Cacheerhöhung in normalen Anwendungen dann auch die 25% mehr Leistung erzeugen.

smalM
2017-09-13, 14:33:02
Wenn wir die 21% Single Thread Steigerung aus Geekbench nehmen

Du mußt natürlich den Single-Thread-Integerscore betrachten.
A10: 4034 (der höchste Score in der GB4-Datenbank, den ich gesehen habe)
A11: 4722 (vom o.a. Link)

Macht 17,1% mehr oder 2,74 GHz Takt, wenn man davon ausgeht, daß der Monsoon-Core keine Integer-IPC-Änderung erfahren hat.
Der um 4%-Punkte höhere Single-Thread-Score ergibt sich demgegenüber aus dem um 27% gestiegenen Memoryscore und dem um 26% gestiegenen Cryptoscore.

Jetzt müssen sie nur noch Microsoft nachmachen und macOS auf ARM vollständig portieren.

Mache einen Jailbreak und besorge Dir terminal und vi...

robbitop
2017-09-13, 14:54:22
Wenn wir die 21% Single Thread Steigerung aus Geekbench nehmen sind wir bei 2,83Ghz. Mit Tweaks meinte ich schon einen minimalen Anstieg, also so 5%. Dann brauchst dafür noch 2,7 Ghz. Das klingt für mich nicht unmöglich in 10nm. War es nicht auch so, dass Geekbench nur wenig auf größere Caches reagiert? Habe ich irgendwie im Hinterkopf, dass es da mehr um die Coreleistung ging. Dann würde ne zusätzlich Cacheerhöhung in normalen Anwendungen dann auch die 25% mehr Leistung erzeugen.
Apple gibt 25% an. Keine Anwendung skaliert 1:1. Insofern wären es ohne IPC Fortschritt 2925 MHz.

Die IPC-Steigerungen werden ja immer weniger.

Wobei die IPC Steigerung von A9 zu A10 schon nicht so schlecht war.

https://browser.geekbench.com/v4/cpu/search?q=iphone+7
https://browser.geekbench.com/v4/cpu/search?q=iphone+6s

Sind taktnormiert immerhin ~8 %.

Richtig merkwürdig ist A10X:
https://browser.geekbench.com/v4/cpu/search?q=ipad+pro

Der ist taktnormiert im ST ~18% schneller als A9


Hier kurz anhand der besten Ergebnisse ST Punkte pro MHz:

A6: 0,62
A6X: 0,59
A7: 0,99
A8: 1,16
A9 1,40
A9X 1,42
A10 1,53
A10X: 1,67


Schon noch erheblich, was man über mehrere Generationen noch an IPC auf Cyclone (A7) draufpacken konnte.


Bei gleicher ST-IPC wie A10 wären 2800 MHz nötig. Bei A10X IPC wären nur 2550 MHz nötig. Ich bin wirklich auf den Takt gespannt. Es ist schon merkwürdig, dass A10X schon ein gutes Stück mehr IPC als A10 hat.

robbitop
2017-09-13, 15:21:37
Du mußt natürlich den Single-Thread-Integerscore betrachten.
A10: 4034 (der höchste Score in der GB4-Datenbank, den ich gesehen habe)

A10 liegt eher bei ~3500-3600. Die 4xxx sind bei mir nur wenige Ergebnisse - da steht dann auch was von Anroid und Core i7. Höchstens der A10X kommt ganz knapp an die 4000.

Bei den Geekbenchwerten sind FP und INT ziemlich haargenau um die den gleichen Faktor größer.
Habe ich jetzt mal versucht, nachzustellen. Ich vergleiche die schnellsten ST Ergebnisse von A10, A10X und A11. A10 und A10X haben die gleiche Signatur. Das Verhältnis der ST Einzeltests scheint auf den ersten Blick gleich zu sein. A11 weicht hier schon etwas ab.

Also ist Monsoon schon noch etwas anders als Hurricane. 5-10 % mehr IPC könnten drin sein.

mczak
2017-09-13, 17:02:20
Korrigier mich, aber es sieht so aus, als wäre Metal 2 deutlich näher an A11, als es zuvor mit Metal 1.x und A7-A10 der Fall war.

HW-Tessellation? Wo bist du? Async Compute, Threadgröße von 2x2?

Tessellation ging auch schon früher (metal 1.2 IIRC) (wobei ich kann mich gerade nicht erinnern ob das auch bei IOS ging oder nur macOS).
Kann gut sein dass mit Metal 2 die Fähigkeiten der API und des Chips mehr oder weniger quasi übereinstimmen. Aber wie gesagt, diese zusätzlichen Features musst du erst mal nutzen. Nimmst du eine "alte" App wird die nicht dadurch plötzlich schneller.

fondness
2017-09-13, 17:11:58
Korrekt, hatte das gestern wohl falsch aufgenommen im Stream, dennoch beeindruckend. Die Antwort heißt wohl TBDR.


Ich finde das nicht beeindruckend, immerhin reden wir hier von 10nm vs. 14/16nm. 30% Mehrleistung beim selben Stromverbrauch sollte schon alleine der Shrink bringen. Zumal man nicht weiß, wie verlässlich die Marketingzahlen von Apple sind. Ich bin sogar davon überzeugt, dass das aktuell IMG-Design Series 8 effizienter wäre. A10 hat Series 7 Rogue. Aber okay, wenn man schon mit viel Aufwand eine eigenen GPU-Architektur entwickelt, dann setzt man die auch ein.

smalM
2017-09-13, 19:37:53
A10 liegt eher bei ~3500-3600. Die 4xxx sind bei mir nur wenige Ergebnisse - da steht dann auch was von Anroid und Core i7. Höchstens der A10X kommt ganz knapp an die 4000.

Suche nach "Apple A10 Fusion" statt nach "iPhone 7", dann kommen diese Einträge nicht.

Und ich schrieb Single-Thread-Integerscore.
Sonst funkt insbesondere der Memoryscore dazwischen, der bei den X-Modellen natürlich jeweils immer deutlich höher ausfällt als bei den 'normalen' und damit den Single-Core Score nach oben treibt.

Unterschiede beim IPC anhand der Single-Core Scores zu betrachten ist völlig müßig.
Das ist die Liste betrachtet anhand des Integer-Scores:

A7: 1,07
A8: 1,31
A8X: 1,36
A9: 1,6
A9X: 1,56
A10: 1,72
A10X: 1,74
A11: 1,85 (bei 2,55 GHz)

Also ist Monsoon schon noch etwas anders als Hurricane. 5-10 % mehr IPC könnten drin sein.

Ohne Kenntnis des Taktes ist das doch reine Spekulation. Aber bei 7,5% mehr IPC käme der A11 auf 2,55 GHz; das habe ich Dir oben in die Liste eingetragen...

robbitop
2017-09-13, 20:49:50
A10 hat Series 7 Rogue. Aber okay, wenn man schon mit viel Aufwand eine eigenen GPU-Architektur entwickelt, dann setzt man die auch ein.

Die Frage ist, wie viel Rogue noch drin steckt. Laut David Kanter (?) war das Ding bereits stark umgebaut. Wer weiß, wie stark ein Vanilla Series 7 Chip bei gleichem Transistorbudget gewesen wäre.

deekey777
2017-09-13, 21:45:15
Tessellation ging auch schon früher (metal 1.2 IIRC) (wobei ich kann mich gerade nicht erinnern ob das auch bei IOS ging oder nur macOS).
Kann gut sein dass mit Metal 2 die Fähigkeiten der API und des Chips mehr oder weniger quasi übereinstimmen. Aber wie gesagt, diese zusätzlichen Features musst du erst mal nutzen. Nimmst du eine "alte" App wird die nicht dadurch plötzlich schneller.
Ich meinte das so, dass der Chip anscheinend Tessellation nicht auf die Weise unterstützt wie die Konkurrenz wie Adreno 500er oder Tegra X1.

pixelguy
2017-09-13, 22:49:40
Nur mal rein hypothetisch: könnte Apple mit dem neuen Chip (oder x davon) eine Konkurrenz zu aktuellen Konsolen auf die Beine stellen?

Kallenpeter
2017-09-13, 23:26:58
Sollte eigentlich hier hin:

Hier wird spekuliert der Performancegewinn hängt zu großen Teilen von dem Wegfall der 32 Bit Unterstützung ab...?

If you subtract out the efficiency gains from removing 32-bit support, you’re left with maybe very roughly a 15% improvement in CPU IPC for the big cores,
https://techspecs.blog/blog/2017/9/13/thoughts-on-the-iphone-x

urpils
2017-09-14, 08:10:26
Nur mal rein hypothetisch: könnte Apple mit dem neuen Chip (oder x davon) eine Konkurrenz zu aktuellen Konsolen auf die Beine stellen?

rein leistungstechnisch? wenn du dir die switch ansiehst müsste der A11 schon darüber liegen. was alles andere angeht halte ich es für fast ausgeschlossen...

fizzo
2017-09-14, 08:23:04
rein leistungstechnisch? wenn du dir die switch ansiehst müsste der A11 schon darüber liegen. was alles andere angeht halte ich es für fast ausgeschlossen...

Dir ist aber schon bewusst, dass in der switch ein heruntergetakteter Tegra X1 arbeitet? Da ist der A11 schon eine ganz andere Hausnummer. In Verbindung mit Netzanschluss, also ohne Rücksicht auf Akkulaufzeit, dürft die Leistung für eine potente Konsole IMHO durchaus vorhanden sein.

BTB
2017-09-14, 09:28:47
Ich bin beeindruckt von der Leistung, die Frage ist aber aktuell tatsächlich, wofür? Spiele ok, nutzen das aber auch nur bedingt, aber sonst. Schade das Apple nicht auf den VR Zug mit aufgesprungen ist, da wäre die Leistung noch gefragt. Ansonsten für die Handy Spielchen eher nicht. Ok im iPad schon eher, aber im iPhone ist das wie Porsche im Berufsverkehr.

deekey777
2017-09-14, 09:41:52
A8-7410 (4x Puma+ mit 2,2 GHz): (http://browser.geekbench.com/v4/cpu/3098233) 1533 3907 (Notebook)

Athlon 5370 (http://browser.geekbench.com/v4/cpu/2264705) (Desktop, keine Ahnung, ob Pumas auch in Desktops verbaut worden sind): 1738 4863

Besser geht's nicht. CPU-seitig dürfte der A11 selbst dem SoC der PS4Pro und der Xbox One X das Leben schwer machen. Aber GPU-seitig wäre ich mir da nicht ganz sicher, selbst die X1 dürfte hier schneller sein.

robbitop
2017-09-14, 10:50:57
A10X hat afaik ~700 gflops FP32. FP16 sicherlich 2x. A10 hat sicherlich die hälfte. Also rund 350 gflops fp32. A11 soll 30% schneller sein. Wären 455 gflops fp32.
Tegra X1 hat 365 gflops. Xbone hat 1200 gflops. A11X...spätestens A12X kommt somit seitens der GPU heran. Die CPU ist wahrscheinlich das geringere Problem. (allerdings haben ms und sony ja bereits nachgelegt und ihre GPUs deutlich aufgebohrt - mit einem mobile SoC wird man niemals zeitgleich mithalten können.)
Wobei die IPC hier nicht berücksichtigt ist. X1 liegt irgendwo bei A10/11. Ist allerdings nur 20 nm.

deekey777
2017-09-14, 10:59:27
Flops sind nicht alles. Ich traue mich anzuzweifeln, dass die PowerVR-GPUs so mächtig sind wie die von AMD und Nvidia.

Ganon
2017-09-14, 11:16:19
Man kann halt nur theoretisch heran gehen, mangels vergleichbarer Software. Laut Geekbench haben die Apple CPUs auch alle die Leistung von Intels Core i7 CPUs... aber da man iOS samt Software nicht auf einem i7 ausführen kann, kann man es auch hier nur schwer vergleichen.

deekey777
2017-09-14, 11:34:08
Es wird ja niemand gehindert, i7-Software für iOS zu schreiben. ;D

Im Ernst:
Der Geekbench ist eine Sammlung aus Vielzahl kurzer Tests, so dass es fraglich ist, wie es bei Dauerbelastung aussieht. Der Ausgangspunkt war aber, wie es aussieht, wenn man einen A11 in eine Konsole verbaut, also ausreichende Kühlung und Stromversorgung. Wenn der A11 den Takt hält oder nur geringfügig drosselt, so ist die Leistung schon beeindruckend.

Natürlich wäre es interessant zu wissen, wie sich Apple SoCs zB in Cinebench schlagen.

Daredevil
2017-09-14, 11:44:45
Ich bin beeindruckt von der Leistung, die Frage ist aber aktuell tatsächlich, wofür? Spiele ok, nutzen das aber auch nur bedingt, aber sonst. Schade das Apple nicht auf den VR Zug mit aufgesprungen ist, da wäre die Leistung noch gefragt. Ansonsten für die Handy Spielchen eher nicht. Ok im iPad schon eher, aber im iPhone ist das wie Porsche im Berufsverkehr.
SlowMotion 240fps @1080p
AR Dinge, die momentan sehr gepusht werden
Machine Learning
Live Snapchat Filter ;D
Deutlich bessere Foto Nachbearbeitung

Gibt schon Dinge, manche fallen einem aber nicht unbedingt immer auf.

robbitop
2017-09-14, 12:47:27
Flops sind nicht alles. Ich traue mich anzuzweifeln, dass die PowerVR-GPUs so mächtig sind wie die von AMD und Nvidia.
Ja die IPC wird sicherlich etwas hinter Maxwell/Pascal sein. (andererseits sprechen wir hier von Apple...)

Ein großes Problem für ULPs und IGPs ist die Bandbreite ggü dGPUs. Deshalb hat sich dort schon früh das Tiling (damit ist nicht zwingend TBDR gemeint) etabliert. Ich glaube dass dieses Problem ggü dem ersten überwiegt.

edit:
Icestorm Graphics Unlimited Score:
X1: 57.922 (ShieldTV) -> 365 GFLOPs -> 159 Pkt/GFLOP
X1: 52.861 (Pixel C) -> 365 GFLOPs -> 144 Pkt/GFLOP (hier sicherlich abgesenkter Takt dank mobile -> somit Vergleichswert ggü den A10/A10X)
A10: 62.880 -> ~ 350 GFLOPs -> 180 Pkt / GFLOP
A10X: 109.555 -> ~ 700 GFLOPs -> 156 Pkt / GFLOP

A10X scheint etwas zu limitieren. Ggf. CPU oder der Interconnect zwischen der gedoppelten GPU oder aber das Fehlen eines L3 Caches wie bei A10.

Hier müsste man noch mehr Tests vergleichen. Aber so schlecht schlägt sich schon die GPU in A10 taktnormiert nicht gegen Maxwell. Man sollte Apple nicht unterschätzen. Und wie gesagt: A10 ist kein Vanilla Serie7. Laut David Kanter sind es stark angepasste GPUs seit A8. (https://www.realworldtech.com/apple-custom-gpu/)

Quellen für Scores:
https://www.notebookcheck.net/NVIDIA-Tegra-X1-Maxwell-GPU.137006.0.html
https://www.futuremark.com/hardware/mobile/Apple+iPhone+7/review
https://www.futuremark.com/hardware/mobile/Apple+iPad+Pro+2017+10.5/review

deekey777
2017-09-14, 13:12:35
Sling Shot und Cloud Gate sind vergleichbare Tests, das ist mein A10-9600P mit 6 CUs, http://www.3dmark.com/cg/3986648

(Hat Cloud Gate eigentlich Unlimited?, muss ich zuhause nachschauen).

Der A10X schafft in Sling Shot 7305, während mein A10-9600P 7655 (Graphics Score). Äpfel mit Birnen? Bestimmt, aber trotzdem nicht uninteressant.


@robbitop: Ich habe alles gesehen!

robbitop
2017-09-14, 15:08:00
Ich denke ein Vergleich zwischen Mobile Geräten macht am meisten Sinn. X1 enthält mit Maxwell auch eine relativ moderne mArch aus dem PC Bereich.

Ich habe jetzt nochmal Icestorm, Slingshot Unlimited, Slingshot Extreme unlimited und GFXBench Manhattan 3.1 verglichen. Dazu habe ich die Scores durch die Rechenleistung geteilt.

Icestrom Unlimited:
X1: 145
A10: 180
A10X: 156

Icestorm Extreme Unlimited:
X1: 8,1
A10: 8,5
A10X: 7,8

Slingshote Unlimited:
X1: 12
A10: 18,8
A10X: 16,8


GFXBench Manhattan 3.1 offscreen:
X1: 0,1205
A10: 0,1257
A10X: 0,1187

Traditionell throttln die Apple SoCs weniger als der Wettbewerb - das kommt als Ungenauigkeit dazu. Aber man sieht, dass Apple mit ihrer Custom GPU schon bei A10 im Bereich der IPC von Maxwell liegt. Eine beachtliche Leistung.


edit:

hier nochmal der Abschnitt von Davod Kanter, der besonders interessant ist:


e believe the company has similarly shifted from licensing PowerVR to designing a custom GPU. This new GPU first shipped in the A8 processor that is in the iPhone 6, and its descendants are also in the A9 and A10 Fusion processors in the iPhone 6S and 7

....

Imagination Technologies were hired away by Apple earlier this year. Apple’s GPU appears to still use some of the PowerVR fixed-function graphics hardware. However based on a variety of public evidence, it is clear that Apple has replaced the programmable shader cores with their own more efficient and higher performance design. To take advantage of the custom shader cores, Apple also developed their own driver and compiler to emit code for its architecture.

...

After years of recruiting graphics architects, Apple has designed its own custom GPU, which is already shipping in the A8, A9, and A10


Eigener Shadercore, eigene Treiber, eigener Shadercompiler. Seit A8. Kann man also mit den vanilla IMG GPUs also nicht mehr vergleichen.

24p
2017-09-15, 18:38:27
http://www.techadvisor.co.uk/review/laptops/aorus-x3-plus-gaming-laptop-review-3584869/

Das ist gerade so eine Webseite. Bedient sich laggy und crashed bei mir nach einer Weile.

robbitop
2017-09-15, 20:50:52
Keine Probleme auf der Webseite mit dem Pro 10.5 von mir. (A10X)

24p
2017-09-15, 23:53:08
Bei mir schmiert die nach einer Weile immer ab. Ebenfalls pro 10.5.

Edit.
Habe herausgefunden woran es lag, mit chrystal (als Inhaltsblocke) crasht es, ohne nicht. Verbuggter mist.
Die Seite ist aber auch mit js Werbungs zugemüllt, das ist nicht mehr feierlich.

Edit 2.
Doch nicht. ;( Crasht weiterhin.

Edit 3. Auf dem ip7 crasht es auch. Aber nur, wenn ich da die Desktopversion anfordere und somit auch dieses nervige Video rechts unten abgespielt wird. Das lässt wohl das Fass überlaufen.

Google sagt, es ist auch in der Vergangenheit bei sehr speicherintensiven Webseiten passiert. Ja, die feinen RAM Optimierungen, welche wenigstens das pro nicht mehr nötig haben sollte.

Mein "alter" Xeon Haswell packt die Seite ohne Adblock übrigens ohne Probleme und ist da auch sehr viel schneller als das pro 10.5. So viel zur hohen Performance, testweises Surfen mit dem neuen SP habe ich ja auch hinter mir. Das ist da imo schon schneller, egal was geekbench sagt. Die JS Performance und Speicherintensive Seiten sorgen für eine sehr inkonsistente Performance. ich habe immer das gefühl, dass die Apple SoC bei leichten Tasks super schnell sind, aber sobald es komplexer wird...

robbitop
2017-09-16, 10:04:55
Könnte auch am Zusammenspiel mit Chrome liegen. A10X liegt grob auf HSW IPC. IMO abwegigig irgendeine verbuggte, schlecht gecodete Webseite als Indikator zu nehmen. Dafür gibt es sauber geschriebene synthetische browsertests. Die sehen alle @A10X sehr sehr gut aus.

24p
2017-09-16, 10:14:28
Leider sind diese verbuggten Webseiten Realität, mein PC kommt damit klar. BTW glaube ich immer noch, dass diese Webseite nicht verbuggt ist, sondern wahrscheinlich an irgendeiner Stelle mehr Speicher verbraucht bzw etwas macht, was der Safari JS Engine nicht schmeckt. Ist ja auch nur ein Beispiel für das, was notebookcheck sagt. Diese Fehlerchen gibt es in kleinerer Form auch anderswo. Diese Browsertests sind da nicht aussagekräftig für die Weiten des Netzes und imo einfach auch zu synthetisch.

robbitop
2017-09-16, 10:37:27
Irgendwas ist komisch bei dir. Hab angegebene Webseite geladen und danach 5-6 reviews dort durchgescrollt. Hier stürzt nichts ab oder ist langsam. Kann deine Beobachtung (auch im Generellen habe ich das noch auf anderen websites nicht erlebt) nicht bestätigen.Gerade mit ip7 nachgestellt.

24p
2017-09-16, 11:43:57
Läuft das Video bei dir?

fizzo
2017-09-17, 10:18:54
http://www.techadvisor.co.uk/review/laptops/aorus-x3-plus-gaming-laptop-review-3584869/

Das ist gerade so eine Webseite. Bedient sich laggy und crashed bei mir nach einer Weile.

Also bei mir ist die Steite weder laggy noch crashed sie. Das Video läuft dazu unten rechts (ohne Sound) flüssig. Hm, dubios. Ipad Pro 10,5" mit Standarbrowser.

robbitop
2017-09-17, 10:32:16
Dito ip7 und pro 10.5.

Rooter
2017-09-17, 19:12:51
Daher interessiert mich auch brennend, wie Apple das bewerkstelligt hat, aber das muss vermutlich wiedermal auf Anandtechs Beziehungen zu Apple warten.

Ich weiß zwar nicht, wie das ggü. dem schon recht effizienten PowerVR-Design gehen soll, aber wenn es jemand schafft, dann Apple.Ja, das frage ich mich bei der CPU schon seit Jahren. :uponder: Eigentlich nicht überraschend, dass es jetzt bei der GPU genau so ist.

MfG
Rooter

pixelguy
2017-09-18, 22:06:48
Sehr interessanter Gedanke:

It all starts with Silicon. Unlike software which can be written, discarded and rewritten at a rapid clip, the law of reality makes it hard for a chip to be designed, tried and manufactured at scale. So in a sense, Apple’s chip and hardware teams have to peer almost two-to-four years into the future, predict what could be possible, what they can make possible and then make it work.

A11’s neural capabilities might be utilized for FaceID today, but it wouldn’t surprise me to see a version of this technology identifying foods we are eating, tagging them and storing them in a HealthKit database (measuring our caloric intake). Or a future version enabling unique augmented reality experiences to go hand in hand with other technologies.

Quelle: https://om.co/2017/09/13/18420/

smalM
2017-09-22, 23:34:50
Wenn man sich in Geekbench einen Haufen (nigelnagelneuer) Einträge für iPhone10,n (8=1,4 / 8+=2,5 / X=3) anguckt, so häufen sich zwei Taktangaben: Einmal um die 2060MHz und einmal um die 2370 MHz.
Gucken wir da auf Mistral und Monsoon?

Es sind übrigens bisher 1200 Einträge (vor ein paar Tagen waren es noch unter 25), Ausreißer und Schwachsinn sollten also so langsam keine Rolle mehr spielen...


GPU-Test von tweakers.net (Zuwachs gegenüber A10, alles offscreen):
40% T-Rex
35% Manhattan
70% Ice Storm
48% Sling Shot
Leider kein Manhattan 3.1 oder gar 3.1.1.

robbitop
2017-09-24, 00:06:43
Also praktisch keine Takterhöhung? -> nochmal eine signifikante IPC Steigerung. Schon wahnsinn, was Apple da macht. IPC seitig dreht man Kreise um sämtliche ARM mArchs. Würde mich nicht wundern, wenn man längst an SKL herangekommen ist oder gar vorbeigezogen ist (reine ST IPC).

BTB
2017-09-24, 01:33:19
Habe ich was übersehen oder beziehen sich alle nur auf den Geekbench? In anderen Benchmarks ist das iPhone7 zwar schnell aber auch nur vergleichbar mit einem aktuellen Samsung. So richtig kann ich diese Wunderwerte nicht glauben und wunder mich doch dass die hier und auch woanders kommentarlos nachgeplappert werden.

robbitop
2017-09-24, 09:23:50
Die Mongoose Kerne von Samsung sind ähnlich schnell wie A73. Seit Cyclone sind alle anderen marchs einfach nur überrannt worden seitens ipc. Das ist aber nichts Neues.

YfOrU
2017-09-24, 12:04:56
Habe ich was übersehen oder beziehen sich alle nur auf den Geekbench? In anderen Benchmarks ist das iPhone7 zwar schnell aber auch nur vergleichbar mit einem aktuellen Samsung. So richtig kann ich diese Wunderwerte nicht glauben und wunder mich doch dass die hier und auch woanders kommentarlos nachgeplappert werden.

Das sind synthetische CPU Benchmarks welche perfekt mit der Anzahl der CPU Kerne skalieren. Da kann das iPhone7 (A10) mit seinen zwei simultan aktiven Kernen (2xHP oder 2xLP) nicht überproportional schneller sein.

Beim A11 sind es 2xHP und 4xLP und es können wie bei Samsungs Exynos alle Kerne gleichzeitig aktiv sein (4xHP + 4xLP). Daher steigt die synthetische MT Performance gegenüber dem Vorgänger massiv an.

Die pro Kern Performance von Apples HP Kernen liegt meilenweit (langsam eher Lichtjahre ;)) vor dem was Samsung und Qualcomm zu bieten haben (~ ARM Cortex A73 Niveau). Und zwar derart extrem das schon 2x Hurricane (A10) nahe an 4x Mongoose + 4x Cortex-A53 liegen (Exynos 8895). Beim A11 wären bereits die zwei HP Kerne (Monsoon) in einem ähnlichen TDP Budget alleine schneller.

Ob derart brachiale CPUs bei Smartphones unbedingt notwendig sind ist ein anderes Thema. Allerdings werden diese CPU Kerne auch in anderen Geräten eingesetzt. Schaut man sich beispielsweise Tablets an dann gibt es Intels Core, Apples ARM SoCs und dann ganz lange nichts (also ansonsten effektiv übergroße Smartphones).

urpils
2017-09-25, 10:36:35
Ob derart brachiale CPUs bei Smartphones unbedingt notwendig sind ist ein anderes Thema. Allerdings werden diese CPU Kerne auch in anderen Geräten eingesetzt. Schaut man sich beispielsweise Tablets an dann gibt es Intels Core, Apples ARM SoCs und dann ganz lange nichts (also ansonsten effektiv übergroße Smartphones).

klar - die "Notwendigkeit" kann man zur Diskussion stellen - aber es ermöglicht tatsächlich völlig neue Funktionen. Teilweise Spielereien - teilweise aber auch vielleicht mögliche praktische Anwendungsbereiche.. dazu gehören z.B. die neuen Live-Foto-Versionen, die einiges an Berechnungszeit verschlingen, Porträt-Modus und Konsortien, AR-Funktionalität, Bilderkennung in Fotos, Videobearbeitung mit 40k60p usw...

smalM
2017-09-28, 02:57:20
Auf beyond3d.com wird wild über die A11-GPU spekuliert - anscheinend auf Grundlage von Einträgen in der GFXBench-Datenbank. Die sind aber in ihrer Inkonsistenz ziemlich unglaubwürdig, so daß ich die die Diskussion eher für müßig halte.
Einen ausführlichen GPU-Test von einer vertrauenswürdigen Seite habe ich allerdings noch nicht gesehen.

Interessant aber der Die-Shot (von TechInsight (http://www.techinsights.com/about-techinsights/overview/blog/apple-iphone-8-teardown/)), wenn er auch leider im CPU-Bereich Fehler aufweist und nicht gerade deutlich ist.
Zwischen den mit "SRAM" bezeichneten Blöcken und den CPUs (2x "CPU1" & 4x "CPU2") ist noch ein Haufen Cache und Logic zu sehen.
Ob der SRAM der NPU zugeordnet ist oder dem SoC insgesamt zur Verfügung steht?
Auffällig bei der GPU, daß der Bereich der Shared-Logic sehr viel kleiner ausfällt, als bei PowerVR 6XT/7XT und die seit PowerVR 6XT bekannte Anordung in den "Kernen", zwei Shadercluster mit der Textureinheit dazwischen, nicht mehr existiert.

pixelguy
2017-09-30, 18:09:42
Interessant: https://asia.nikkei.com/Business/Companies/Apple-A-semiconductor-superpower-in-the-making?page=2

smalM
2017-11-16, 21:55:21
Von einer chinesisch-sprachigen Seite via AppleInsider (http://appleinsider.com/articles/17/11/15/rumor-2018-ipad-pro-with-face-id-will-be-powered-by-8-core-a11x-chip): Der A11X soll 8 Cores bekommen.
Jaja, das hat man eh so erwartet?
Vermeldet aber wird eine Kombination aus 3 Monsoon und 5 Mistral...

smalM
2017-11-17, 17:45:02
Aus einem Bericht (https://www.fastcompany.com/40497639/source-apple-is-looking-to-intel-to-power-super-fast-5g-iphone) der Seite fastcompany.com

"The end game, multiple sources have said, is to build the Intel modem onto an integrated system-on-a-chip (SoC) that would also contain the CPU, GPU, and other iPhone components. The SoC would be co-designed by Intel and Apple and would be fabricated at an Intel facility."

Wenn man es als Aussage sieht, daß Intel das anstrebt, dann kann man das so stehen lassen.
Als Ziel von Apple ist es hingegen extrem unglaubwürdig. Intel hat prozeß- und produktionsseitig nichts anzubieten, was Apple von TSMC weglocken könnte.

robbitop
2017-11-17, 18:11:40
Hu? Intels 14 nm entspricht eher tsmcs 10nm bzw ist tsmcs 12/16nm eigentlich nur ein 20nm ff Verfahren. Zumal 14++ nochmal richtig zugelegt hat. In 2018 kommt intels 10nm+ Prozess, der etwas tsmcs 7nm entspricht.

Wobei Apples Ziel doch sicherlich ein eigenes Modem sein sollte. Mich wundert, dass es nur so wenige Modemhersteller gibt und sich so viele schwer daran tun. Hat sicherlich mit einem Minenfeld an Patenten und der ganzen Analogtechnik zu tun, die ganz andere Prozessanforderungen haben wird als der restliche Teil des SoCs.

smalM
2017-11-18, 14:44:00
Ja. Und?
Intel hat keinen Prozeßvorsprung mehr, der Prozeßwechsel läuft z.Z. bei TSMC wie am Fließband, bei Intel mit Hängen und Würgen. Was sollte also Apple dazu bewegen zu Intel zu wechseln? Ich habe wenig Zweifel, daß A12 – A14 von TSMC hergestellt werden wird.
Erst mit dem Wechsel auf Gate-all-around wird sich mMn. für Intel eine Chance ergeben, so sie dann was besseres zu bieten haben. Da Apples eigener Entwicklungshorizont 3 Jahre beträgt, ist ja ab 2021 noch alles völlig offen.

Zum Modem: Sieht Apple das als im Prinzip beliebig oder als essentiell an?
Der Entwicklungsaufwand ist beträchtlich und Intel hat sehr viel Geld in die Hand genommen um zu Qualcomm aufzuschließen. Als Gegenleistung für eine Eigenentwicklung bekäme Apple aber nichts besonderes zurück, sondern nur ein eigenes Modem, das genauso funktioniert, oder besser gesagt funktionieren muß, wie alle anderen auch.
Das ist nicht gerade das, was Apple anstrebt mit seinen Eigenentwicklungen.
Ich tippe deshalb zwar auf die Integration eines Intel-Modems im nicht-X-SoC, aber nicht auf dem Die sondern im PoP als InFO-Package zusammen mit dem RAM. Bei den X-SoCs bleibt alles wie gehabt.

robbitop
2017-11-18, 18:34:53
Wieso keinen Prozessvorsprung? Habe doch ueber deinem Post ganz klar aufgezeigt, dass sie noch immer 1x fullnode Vorsprung haben. Bis tsmc auf 7nm ankommt, hat Intel schon die 3. Generation 10nm++ (entspricht tsmcs 7nm).
Aber tsmc und co holen auf - bzw dauern Intels Prozessspruwnge nun laenger.

Meinst du nicht, dass ein eigenes Modem Vorteile (analog cpu/gpu) bringen kann? Signalstärke, oder Powerefficiency. Wenn man sowas tut, muss man natürlich in bestimmten Feldern besser sein, als der Standardanbieter. Hat man aber bei cpus und gpus ja auch geschafft.

BlackBirdSR
2017-11-18, 22:59:34
Als Beispiel..

Bild aus einem Extremetech Artikel:
https://www.extremetech.com/computing/249075-foundry-futures-tsmc-samsung-globalfoundries-intel-gear-7nm-beyond

https://www.extremetech.com/wp-content/uploads/2017/03/Slide6.png

robbitop
2017-11-19, 06:03:08
An Intels Stelle wuerde ich dieses (affige) Spiel halt mitspielen und den 10nm Prozess (wie die anderen Kinder) auch in 7nm umbenennen. X-D

deekey777
2017-11-19, 13:36:06
Interessant: https://9to5mac.com/2017/11/18/imac-pro-a10-fusion-chip/

According to information available via the BridgeOS 2.0 software package from Apple, it appears that the iMac Pro will feature an ARM coprocessor in the form of an A10 Fusion chip. This would mark the first time that a Mac has used an A-series chip designed by Apple.

Iamnobot
2017-11-19, 13:49:19
Der zweite Schritt (nach dem Chip für die Touchbar), langsam Aufgaben auf eigene Chips auszulagern. Mal sehen, wie lange Intel den Komplettumstieg hinauszögern kann...

smalM
2017-11-20, 01:54:40
Als Beispiel..
Bild aus einem Extremetech Artikel

Bilder von Intels Marketingabteilung. Was nicht zum Narativen paßt, wird weggelassen.
Das ist auch völlig OK so, denn es sind Schaubilder, mit denen Intel sein Publikum beeindrucken möchte. Nur daß das so ist, sollte man nicht vergessen.

Ich bin übrigens gespannt, wann der erste Chip von Intel mit 100 Mio. Transistoren pro mm² dann wirklich zu haben sein wird; oder ob damit mal wieder nur die maximale Dichte in einer Speicherbank des L3 gemeint ist :wink:

An Intels Stelle wuerde ich dieses (affige) Spiel halt mitspielen und den 10nm Prozess (wie die anderen Kinder) auch in 7nm umbenennen. X-D

Ist doch völlig Wurst wie die Hersteller das nennen. Es ist doch nur der Name der jeweiligen Prozeßgeneration und hat schon seit Jahren bei keinem was mit der Gatelänge zu tun. Und mit GaaFET wird die Angabe noch viel sinnloser als sie mit FinFET eh schon war.
Vor nicht all zu langer Zeit fiel mir auf, daß TSMC angefangen hatte "nm" zu meiden und inzwischen oft nur noch "N7", "N5" etc. benutzt.

Relic
2017-11-20, 09:21:41
An Intels Stelle wuerde ich dieses (affige) Spiel halt mitspielen und den 10nm Prozess (wie die anderen Kinder) auch in 7nm umbenennen. X-D

Naja Abseits von Nerd-Foren interessiert keinen die Fertigungsgröße und bei Entscheidern von z.B. Apple ist der Name des Prozesses auch egal, da die sich bestimmt etwas tiefer damit auseinander setzen...
Also ist es doch vollkommen egal wie der Prozess heißt...

robbitop
2017-11-20, 11:00:35
Das scheinen tsmc und samsung ganz offensichtlich anders zu sehen. Beides multi Milliarden Unternehmen.

Felixxz2
2017-12-19, 18:38:42
https://arstechnica.com/gadgets/2017/12/the-imac-pro-is-now-available-heres-how-people-are-already-using-it/

Im neuen iMac werkelt jetzt der T2 und übernimmt einiges an System/Accelerate funktionen.
Schon ne heftige Nummer, die wohl die Spekus um komplette ARM Macs weiter anheizen wird.

Denke aber dass dieser mixed Betrieb mittelfristig die eleganteste Lösung ist. Voll aufm ARM ist absehbar nicht vorteilhaft, Sachen wie Security oder Video/Audio sind dort aber gut aufgehoben.

dildo4u
2018-04-02, 21:28:02
Apple Plans to Use Its Own Chips in Macs From 2020, Replacing Intel

https://www.bloomberg.com/news/articles/2018-04-02/apple-is-said-to-plan-move-from-intel-to-own-mac-chips-from-2020

deekey777
2018-04-02, 21:41:26
Apple Plans to Use Its Own Chips in Macs From 2020, Replacing Intel

https://www.bloomberg.com/news/articles/2018-04-02/apple-is-said-to-plan-move-from-intel-to-own-mac-chips-from-2020
Alle Jahre wieder.

=Floi=
2018-04-02, 23:09:05
9% aktienverlust ist aber schon hart.

spotz
2018-04-03, 06:31:32
An Intels Stelle wuerde ich dieses (affige) Spiel halt mitspielen und den 10nm Prozess (wie die anderen Kinder) auch in 7nm umbenennen. X-D
Vielleicht machen die das auch demnächst. Denn angeblich überspringt Intel den 7nm Prozess zugunsten des 5 nm Prozess ab 2020 ;)

http://www.tomshardware.de/cannonlake-icelake-tigerlake-10nm-5nm,news-254612.html

gravitationsfeld
2018-04-03, 07:16:41
Alle Jahre wieder.
Kann aber schon sein. Apple hat absurde R&D-Ausgaben und hat den kompletten Mobile-SoC durch eigene IP ersetzt.

https://www.macrumors.com/2016/05/12/apple-record-10b-research-dev-spending/ 12 Milliarden USD in 2017. Das ist so viel wie Intel.

Warum auch nicht? Ihre Chips haben inzwischen hoehere IPC als Intel. Die Frage ist halt wie hoch der Takt skaliert? Die Apple-Kunden haben den Architektur-Wechsel jetzt schon drei Mal mitgemacht und sie beschweren sich kaum.

urpils
2018-04-03, 08:07:57
ich bin da noch skeptisch, wie genau das laufen soll. Es ist ja nicht damit getan einfach eine CPU auszutauschen... was ist denn mit dem ganzen IO-Kram?

bekommt man Thunderbolt (über USB3) denn ohne Intel? was ist mit der ganzen I/O und Bus-IP? es reicht doch nicht nur ne neue CPU zu bauen - der Rest muss ja auch irgendwie mit kommen... ich kann mir vorstellen, dass man sich da über Patente dumm und dämlich bezahlen kann im Zweifel...

Ganon
2018-04-03, 09:26:42
Apple hatte auch zu PowerPC Zeiten den ganzen anderen Kram auf dem Mainboard selbst gebaut. Das wäre nicht neu für die. Kosten spielen auch keine Rolle mehr, da die Kundschaft eh fast alles von Apple kauft, egal wie teuer oder wie gut/schlecht Preis/Leistung ist. Die Software selbst wird ja auch auf Intel-Systemen alle Nase lang inkompatibel. Und wenn irgendwas wegen Patenten nicht mehr geht, dann wird das mal eben schnell als "sowieso schon lange outdated" bezeichnet.

Apple hat also prinzipiell beste Voraussetzungen so einen Schritt vorzunehmen. Ob das jetzt sinnvoll ist, sei mal dahin gestellt.

lumines
2018-04-03, 10:12:28
Die Software selbst wird ja auch auf Intel-Systemen alle Nase lang inkompatibel.

Musste auch erst einmal nachdenken, was so alles verloren gehen könnte. Zuerst ist mir Steam und praktisch die gesamte Mac-Bibliothek eingefallen.

Mir ist dann aber aufgefallen, dass sowieso mit jedem macOS-Release die OpenGL-Performance stetig sinkt. Bis 2020 haben sie die erreichbaren FPS mit OpenGL vielleicht bis auf 0 runtergeschraubt und können dann behaupten, dass es sowieso niemand mehr benutzt. Hier habt ihr es jedenfalls zuerst gelesen.

Ganon
2018-04-03, 10:28:16
Musste auch erst einmal nachdenken, was so alles verloren gehen könnte. Zuerst ist mir Steam und praktisch die gesamte Mac-Bibliothek eingefallen.

Mit dem Wegfall der 32bit Kompatibilität hat man im Endeffekt auch alle alten APIs damit weggeworfen. Das was übrig bleibt, müsste im Großen und Ganzen genauso portabel sein wie es im Open Source Ökosystem so üblich ist. D.h. die 08/15 App muss wirklich nur noch umkompiliert werden, außer der Entwickler hat wirklich was aktiv dagegen getan.

Und wie ich schon sagte, alte Software ist oft sowieso nie lange kompatibel unter macOS, außer der Hersteller leistet regelmäßig Support.

Mir ist dann aber aufgefallen, dass sowieso mit jedem macOS-Release die OpenGL-Performance stetig sinkt. Bis 2020 haben sie die erreichbaren FPS mit OpenGL vielleicht bis auf 0 runtergeschraubt und können dann behaupten, dass es sowieso niemand mehr benutzt. Hier habt ihr es jedenfalls zuerst gelesen.

Ist auch nicht mehr großartig relevant im macOS Bereich. Die, die noch auf OpenGL setzen sind entweder weg, oder setzen noch auf OpenGL <=3.3 (z.B. Blender) und alle anderen sind bereits auf Metal umgestiegen oder sind gerade dabei.

bbott
2018-04-03, 10:58:45
Warum auch nicht? Ihre Chips haben inzwischen hoehere IPC als Intel. Die Frage ist halt wie hoch der Takt skaliert? Die Apple-Kunden haben den Architektur-Wechsel jetzt schon drei Mal mitgemacht und sie beschweren sich kaum.

1. IPC womit gemessen? Geekbench? ARM arbeitet noch immer massiv mit Beschleuniger Funktionen. Linus über Geekbench:
https://forums.anandtech.com/threads/linus-torvalds-geekbench-is-sh-t.2344722/

2. AMD kommt auf ~4Ghz und es wird gemeckert und gemeckert, das Intel 5 Ghz schafft. Appel liegt bei gut zwei Ghz. Appel wird mit drei Ghz Ihre Probleme haben und alles darüber wird massiv den Stromverbrauch in die höhe Treiben.

Mit Steven Job hätte ich Apple ein CPU-Architektur wechsel zu getraut, aber mit den Qualitätsproblemen welche Apple derzeit hat, würde ich sagen riskiert man die Firma.

Ich persönlich hatte gehofft, dass AMD durch Ryzen auch den Weg in Apple Produkte findet. Das hätte die x86 CPU Entwicklung weiter angefeuert.

robbitop
2018-04-03, 11:09:23
Es gibt auch browserbenchmarks und 3dmark welche Plattformübergreifend sind. Auch kann man unbeschleunigte Einzeltestergebnisse von Geekbench vergleichen. Aber wirklich sauber ist ein plattformübergreifender Vergleich nicht möglich.
Wenn man sich die mArch der aktuellen Applecores, die Transistoranzahl und den Stromverbrauch bei Volllast anschaut und welche Anwendungen wie fix auf denen laufen, ist die Annahme einer zumindest ähnlichen IPC IMO nicht zu weit hergeholt.

Aber IO und hohe Taktraten (Dinge die sich massiv zwischen Mobiles und PCs unterscheiden) sind wirklich noch eine große nicht zu unterschätzende Lücke, die es zu überbrücken gilt.

Andererseits hat Apple mittlerweile die besten Leute der Industrie in dem Bereich und mehr als genug Geld. Wenn sie es wirklich wollen, schaffen sie das mittelfristig schon.

deekey777
2018-04-03, 11:13:19
Kann aber schon sein. Apple hat absurde R&D-Ausgaben und hat den kompletten Mobile-SoC durch eigene IP ersetzt.

https://www.macrumors.com/2016/05/12/apple-record-10b-research-dev-spending/ 12 Milliarden USD in 2017. Das ist so viel wie Intel.

Warum auch nicht? Ihre Chips haben inzwischen hoehere IPC als Intel. Die Frage ist halt wie hoch der Takt skaliert? Die Apple-Kunden haben den Architektur-Wechsel jetzt schon drei Mal mitgemacht und sie beschweren sich kaum.
Ich stimme dir zu, dass die Wahrscheinlichkeit jedes Jahr steigt, dass Apple eigene CPUs verbaut, insbesondere nachdem sie sich von IMG verabschiedet haben.

Apple wird das Kunststück vollbringen müssen, an dem Microsoft derzeit scheitert: Emulation von x86-64-Software. Microsoft hat derzeit zwei Nachteile: Sie haben keine eigenen SoCs, die an ihre Wünsche angepasst sind, und es wird der ältere Snapdragon 835 eingesetzt, während der S845 laut einigen Äußerungen Anpassungen an die x86-Emulation haben soll (und schneller ist er auch).

Apple wird den Vorteil haben, dass sie die Entwickler besser überzeugen können, native Software zu entwickeln (wobei "nativ" eher zu hart klingt).

..

bekommt man Thunderbolt (über USB3) denn ohne Intel? was ist mit der ganzen I/O und Bus-IP? es reicht doch nicht nur ne neue CPU zu bauen - der Rest muss ja auch irgendwie mit kommen... ich kann mir vorstellen, dass man sich da über Patente dumm und dämlich bezahlen kann im Zweifel...
Klar, es gibt doch ein ganzes Mainboard für AMD mit Thunderbolt 3 (habe nicht mehr im Kopf, ob für AM4 oder Threaddings).

urpils
2018-04-03, 11:13:41
Musste auch erst einmal nachdenken, was so alles verloren gehen könnte. Zuerst ist mir Steam und praktisch die gesamte Mac-Bibliothek eingefallen.

Mir ist dann aber aufgefallen, dass sowieso mit jedem macOS-Release die OpenGL-Performance stetig sinkt. Bis 2020 haben sie die erreichbaren FPS mit OpenGL vielleicht bis auf 0 runtergeschraubt und können dann behaupten, dass es sowieso niemand mehr benutzt. Hier habt ihr es jedenfalls zuerst gelesen.

Apple hatte auch zu PowerPC Zeiten den ganzen anderen Kram auf dem Mainboard selbst gebaut. Das wäre nicht neu für die. Kosten spielen auch keine Rolle mehr, da die Kundschaft eh fast alles von Apple kauft, egal wie teuer oder wie gut/schlecht Preis/Leistung ist. Die Software selbst wird ja auch auf Intel-Systemen alle Nase lang inkompatibel. Und wenn irgendwas wegen Patenten nicht mehr geht, dann wird das mal eben schnell als "sowieso schon lange outdated" bezeichnet.
Apple hat also prinzipiell beste Voraussetzungen so einen Schritt vorzunehmen. Ob das jetzt sinnvoll ist, sei mal dahin gestellt.

sie KÖNNEN das schon - aber da gehört halt deutlich mehr dazu als "einfach nur einen Prozessor" zu bauen. Dass sie das softwareseitig gestemmt bekommen bezweifelt wahrscheinlich niemand - keine Firma hat so viele Platformwechsel gemeistert wie Apple.

Aber zu Power-PC Zeiten bestanden auch noch ganz andere Voraussetzungen... Aktuell müssten sie ALLES neu bauen, wo man aktuell auf Intel zurückgreifen könnte: Memory-Management, Soundkarte, Festplattencontroller, PCI-Express, Thunderbolt, Powermanagment, diverse Security-Features, USB, LAN,... das kann man dann wahrscheinlich nicht mehr so einfach "von der Stange" bekommen wie aktuell...


2. AMD kommt auf ~4Ghz und es wird gemeckert und gemeckert, das Intel 5 Ghz schafft. Appel liegt bei gut zwei Ghz. Appel wird mit drei Ghz Ihre Probleme haben und alles darüber wird massiv den Stromverbrauch in die höhe Treiben.

Mit Steven Job hätte ich Apple ein CPU-Architektur wechsel zu getraut, aber mit den Qualitätsproblemen welche Apple derzeit hat, würde ich sagen riskiert man die Firma.

Ich persönlich hatte gehofft, dass AMD durch Ryzen auch den Weg in Apple Produkte findet. Das hätte die x86 CPU Entwicklung weiter angefeuert.

apple liegt nicht bei "2Ghz".. zum einen braucht man Smartphone-SOCs nicht mit Desktop-Prozessoren zu vergleichen und zum anderen sieht man ja, dass Ghz alleine keinerlei Performance-Auskünfte geben. Wenn sie nen Desktop/Notebook-Processor bauen, dann wird dieser eben den entsprechenden Anforderungen genügen - so wie sie es aktuell für ihre Smartphone-Voraussetzungen basteln.

edit: nur zur Klarstellung: ich meinte damit, dass man vom aktuellen Smartphone-SOC mit seiner Taktrate nicht auf einen Desktop-Rechner schließen kann. Die Limitierungen eines Smartphones bestehen für Desktop-Rechner nicht - insofern haben sie da alle Möglichkeiten entsprechend die CPU zu designen...
/edit

Mit Steve-Jobs hat das nichts zu tun - auch wenn er gerne immer herausgegraben wird ;)

Dass Ryzen nicht zu Apple kommen würde, war eigentlich klar, da aktuell wegen Intel Thunderbolt mit AMD nicht zu bekommen wäre - kann sein, dass sich dass durch die "Öffnung" von Thunderbolt ändern könnte - aber DAS wird wohl der ausschlagende Grund gewesen sein...

Musste auch erst einmal nachdenken, was so alles verloren gehen könnte. Zuerst ist mir Steam und praktisch die gesamte Mac-Bibliothek eingefallen.

Mir ist dann aber aufgefallen, dass sowieso mit jedem macOS-Release die OpenGL-Performance stetig sinkt. Bis 2020 haben sie die erreichbaren FPS mit OpenGL vielleicht bis auf 0 runtergeschraubt und können dann behaupten, dass es sowieso niemand mehr benutzt. Hier habt ihr es jedenfalls zuerst gelesen.

OpenGL ist da keine Hürde: Unreal und Unity unterstützen Metal - und Vulkan bietet mittlerweile auch einen Metal-"Wrapper". Für den Großteil der aktuellen Tools dürfte es kein größeres Hindernis sein ziemlich einfach die Kompatibilität wieder herzustellen...

Ganon
2018-04-03, 11:20:05
Aber zu Power-PC Zeiten bestanden auch noch ganz andere Voraussetzungen... Aktuell müssten sie ALLES neu bauen, wo man aktuell auf Intel zurückgreifen könnte: Memory-Management, Soundkarte, Festplattencontroller, PCI-Express, Thunderbolt, Powermanagment, diverse Security-Features, USB, LAN,... das kann man dann wahrscheinlich nicht mehr so einfach "von der Stange" bekommen wie aktuell...

Apple will doch auch gar nichts "von der Stange" haben. Sie wollen doch alles alleine bauen. Und dann wird das MacBook eben auf iPad Niveau eingedampft.

Und dass Apple schneller Schnittstellen wegschmeißt als man sie einführt ist ja nun auch nichts neues.

robbitop
2018-04-03, 11:23:26
IO kann man sich in Form von IP Blöcken oder ganzen Chipsätzen kaufen. Synopsis/ASMedia und Co helfen da sicher.

deekey777
2018-04-03, 11:32:14
IO kann man sich in Form von IP Blöcken oder ganzen Chipsätzen kaufen. Synopsis/ASMedia und Co helfen da sicher.

Apple-Flaws. ;D

Aktuelle Apple-GPUs dürften mit den HD Graphics von Intel locker mithalten können, aber wie sieht es mit härteren Brocken aus?

Ganon
2018-04-03, 11:39:37
Na nicht vergessen, dass der "Apple-Desktop" was anderes ist, als der übliche PC-Desktop. Der Mac Pro ist auf der Kippe zur Einstellung. Apples "neuer" Pro Desktop heißt iMac Pro.
Entsprechend müsst ihr euch die Systeme auch vorstellen. Feste Systeme ohne (interne) Erweiterbarkeit.

Von daher besteht auch kein großes Hindernis eine NVidia oder AMD GPU neben dran zu hängen, über welchen Weg auch immer. Apple muss nur zu sich selbst kompatibel sein. Apple interessiert sich nicht für Windows, Linux oder Abwärtskompatibilität.

Eine 08/15 PCIe Karte baut man sich doch schon seit Ewigkeiten nicht mehr ein. Alles über USB/Thunderbolt, oder was auch immer Apple dann jetzt noch neu erfindet.

Kallenpeter
2018-04-03, 11:54:09
Na nicht vergessen, dass der "Apple-Desktop" was anderes ist, als der übliche PC-Desktop. Der Mac Pro ist auf der Kippe zur Einstellung. Apples "neuer" Pro Desktop heißt iMac Pro.

Apple arbeitet aber laut Cook an einen neuen, modularen Mac Pro. Der iMac Pro ist mehr oder weniger eine Zwischenlösung.

Sunrise
2018-04-03, 12:07:51
Die Frage ist halt wie hoch der Takt skaliert? Die Apple-Kunden haben den Architektur-Wechsel jetzt schon drei Mal mitgemacht und sie beschweren sich kaum.
Wenn die Taktwalls bzw. Schätzungen bis etwa 5GHz bei 7nm stimmen, dann würde ich mir keine Sorgen machen. Apple kann nur nicht schneller rauf, weil dann die Leistungsaufnahme keinem SoC mehr entsprechen würde. Die könnten wohl leicht im CPU- als auch im GPU-Sektor mitspielen. Ist halt die Frage welche Einschnitte es mittelfristig bei dicken Apps geben würde, die aktuell wohl brutal auf Intel optimiert sind, die verbauen ja auch Thunderbolt und Co. und das ist eben Intel.

Ganon
2018-04-03, 12:09:08
Apple arbeitet aber laut Cook an einen neuen, modularen Mac Pro.

Die Story "wir arbeiten an einem neuen Mac Pro" ist so alt wie der Mac Pro selbst. Ich mein, das ist doch alles total albern. Ein Mac Pro ist doch auch nur ein verkappter PC. Wenn Apple nicht ständig versuchen würde das Rad neu zu erfinden, wäre der Mac Pro eine ideale Lösung für viele. Aber man muss ja immer irgendwelche Kunststücke vollführen, statt einfach mal einen vernünftigen, erweiterbaren Desktop-Computer zu bauen.

-> Apple will das einfach nicht.

Du wirst also vermutlich auch keinen ARM-basierten MacPro finden, sollte Apple das alles durchziehen. Der (aktuell total veraltete) MacPro ist das einzige Apple Produkt, wo man an den Interna überhaupt irgendwas machen kann. Deswegen braucht Apple hier sich hier auch nicht an irgendwelche Standards halten. Sie können einfach irgendwelche Systeme nach ihrem Gusto bauen, ähnliche wie es die Konsolenhersteller schon seit Jahren tun.

Kallenpeter
2018-04-03, 12:23:53
Die Story "wir arbeiten an einem neuen Mac Pro" ist so alt wie der Mac Pro selbst.

Cook hat es vor ca. einem Jahr so gesagt. Vielleicht kommt es auch anders, aber das wird sich zeigen müssen.

gravitationsfeld
2018-04-03, 17:42:12
Apple wird das Kunststück vollbringen müssen, an dem Microsoft derzeit scheitert: Emulation von x86-64-Software.
Ich vermute, dass hat eher einen lizenzrechtlichen als technischen Ursprung. Da koennte Apple auch Probleme bekommen mit Intel. Wird eventuell ein Gericht darueber entscheiden muessen.

IP und Patente haben Apple aber auch schon beim IMGtec-Ersatz nicht gejuckt. Sie haben TBDR eingebaut, und es ist eigentlich ziemlich klar, dass PowerVR die einzigen sind, die die Patente dafuer haben.

Von aussen hat das mit der GPU eh ein Geschmaeckle, weil sie die ImgTec-GPU schon vorher ziemlich weitgreifend optimiert haben. Das klingt fast schon nach Industriespionage nach chinesischem Stil.

pixelguy
2018-04-03, 18:12:30
Gab es nicht mal Gerüchte, dass AMD ggf. mit Apple zusammenarbeiten könnte?
Wäre nicht ein SoC denkbar, der ARM und x86 vereint?

deekey777
2018-04-03, 18:22:54
Wobei die angekündigten 15 Monate noch nicht um sind, das wäre der 03. Juli 2018. http://www.bbc.com/news/business-39476898

https://www.computerbase.de/2017-04/iphone-ipad-soc-gpu-apple/

Die WWDC 2018 ist doch um die Zet.

Matrix316
2018-04-03, 18:38:54
Als ich die Meldung gesehen habe, dachte ich erst: JA, endlich AMD Ryzen in Apple PCs. :D

Also so lange ARM nicht 100% X86 kompatibel ist, kann man es doch am Desktop vergessen. Und wie will man Windows parallel installieren? Die Arm Version wo nur Crap ausm Store läuft?

Apple versteht einfach nicht wozu man sich ein Notebook und Desktop Computer käuft. Für ECHTE Software und Programme die viel Ressourcen brauchen. Programmieren mit Visual Studio, Excei mit Millionen von Zeilen und hunderten von Spalten, Triple A Games wie Far Cry, Witcher, Videoschnitt, Photoshop oder vergleichbares.

ARM heißt nicht umsonst ARM. Wer nur auf ARM setzt ist ARM dran.

EDIT: Wir haben nicht 1990 wo man mit ARM auf dem Desktop noch jemanden hinter dem Ofen hervorlocken konnte. Sogar wichtiger als Speed und Stromverbrauch ist die Kompatibilität. Damals lief Amiga Software nicht auf dem PC, Archimedes Software nicht auf dem Amiga und PC Software nicht auf Archimedes. Heute sollte jede Software am Desktop kompatibel sein. Und zwar zu 100%. Alles andere wäre ein Rückschritt in die Steinzeit.

fondness
2018-04-03, 20:15:51
Apple kann nur nicht schneller rauf, weil dann die Leistungsaufnahme keinem SoC mehr entsprechen würde.

Das ist bestenfalls Spekulation. Ein Hoch Takt Design ist kein selbstläufer.

deekey777
2018-04-03, 20:47:56
9% aktienverlust ist aber schon hart.
Vielleicht steckt in diesem Verlust auch die Befürchtung, dass Intel Apple als Modem-Kunden verliert.

Iamnobot
2018-04-04, 09:11:52
Apple Plans to Use Its Own Chips in Macs From 2020, Replacing Intel
Mittelfristig wird das so kommen. Dazu dann ein verdongeltes OS und das geschlossene Ökosystem ist perfekt.
Vielleicht wurden deswegen Mac Mini und Macbook Air schon so lange nicht mehr aktualisiert: bei solchen Einstiegsmodellen kann man am ehesten auf ARM setzen, da Leistung nicht so wichtig ist. Und wenn als Vergleich der neuen Geräte irgendeine Uralt Intel CPU aus dem zig Jahre alten Vorgängermodell herhalten muss, sieht die neue ARM-Eigenentwicklung nochmal performanter aus.

deekey777
2018-04-04, 11:35:24
...
Wäre nicht ein SoC denkbar, der ARM und x86 vereint?

AMDs PSP. X-D

Apple kombiniert bereits einen ARM-SoC (T2) mit einer Intel-CPU im iMac Pro, wobei der Schwerpunkt auf Sicherheit liegt (Überwachen des Bootvorgangs, Verschlüsselung der Daten). Der T2 kümmert sich aber auch um die FaceTime-Kamera. Der T1 in dem MacBook Pro kümmert sich auch um die Sicherheit und um die Touchbar.

pixelguy
2018-04-28, 10:18:57
Ah, hier geht die ganze Entwicklungsarbeit wohl rein: https://www.mactechnews.de/news/article/Geruecht-Apple-arbeitet-an-ARVR-Brille-mit-8K-Aufloesung-pro-Auge-169448.html

8K pro Auge mit 5mm Chip... :freak:

dylan522p
2018-05-01, 23:20:14
Sorry for using google translate, I always read this forum using it.

http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=%2Fnetahtml%2FPTO%2Fsearch-bool.html&r=1&f=G&l=50&co1=AND&d=PTXT&s1=9958932&OS=9958932&RS=9958932

Apple erhält ein Patent für einen Prozessor, der mehrere unähnliche Prozessorkerne enthält, die unterschiedliche Teile der Befehlssatzarchitektur implementieren

Macht am meisten Sinn mit großen kleinen Design. Du kannst deinen kleinen Kern so viel Platz sparen lassen, indem du alte Instruktionen (für Intel) wegwirfst und den ganzen riesigen Vektor-Kram ausschneidest und ihn auf die Bones 1x64 oder 1x128 bringst, anstatt auf die 2x512, die Intel auf ihrem Big macht Ader.

Makes most sense with big little design. You can have your small core save so much space by throwing away legacy instructions (for intel) and cut out all the huge vector stuff, and bring it down to bear bones 1x64 or 1x128, rather than the 2x512 that Intel is doing on their big core.

deekey777
2018-05-23, 10:47:38
Produktion des A12 angelaufen: https://www.bloomberg.com/news/articles/2018-05-23/apple-partner-tsmc-is-said-to-start-making-chips-for-new-iphones

Sunrise
2018-05-23, 13:20:45
Produktion des A12 angelaufen: https://www.bloomberg.com/news/articles/2018-05-23/apple-partner-tsmc-is-said-to-start-making-chips-for-new-iphones
7nm wird echt heiß, bin schon gespannt wie ein Flitzbogen. Nichts umsonst springen AMD und Co. bei TSMC direkt nach. Mal sehen ob sich Apple traut, irgendwann sogar AMD zu verbauen...

pixelguy
2018-05-29, 12:49:59
Produktion von ARM-MacBooks in Auftrag gegeben?
https://www.mactechnews.de/news/article/Produktion-von-ARM-MacBooks-in-Auftrag-gegeben-169639.html

Spekulationen zufolge hat die enorm lange Entwicklungszeit des kommenden Mac Pro möglicherweise den schlichten Grund, dass es sich um das erste ARM-basierende Mac-Projekt handeln könnte.

deekey777
2018-05-29, 13:09:15
Produktion von ARM-MacBooks in Auftrag gegeben?
https://www.mactechnews.de/news/article/Produktion-von-ARM-MacBooks-in-Auftrag-gegeben-169639.html
Nein, doch, veraltet?
Apple und Digitimes - das ging noch nie richtig gut.

https://9to5mac.com/2018/05/25/apple-project-star-arm-details/

UPDATE (5/26): As we speculated, there are different possibilities for this device. Bloomberg’s Mark Gurman reports it is a low-cost iPhone that looks like an iPhone X:

I’m told this “N84” device is actually the low-cost LCD iPhone that looks like an iPhone X. https://t.co/KU0xhfkkHe https://t.co/YqiGMLHacb

— Mark Gurman (@markgurman) May 26, 2018

Matrix316
2018-05-29, 13:12:05
Produktion von ARM-MacBooks in Auftrag gegeben?
https://www.mactechnews.de/news/article/Produktion-von-ARM-MacBooks-in-Auftrag-gegeben-169639.html
Wer würde tausende von Euro in einen Mac Pro investieren, der keinen intel Prozessor hat und nur iOS (oder macOS für ARMe) oder so läuft? ;)

deekey777
2018-05-29, 13:18:19
Wer würde tausende von Euro in einen Mac Pro investieren, der keinen intel Prozessor hat und nur iOS (oder macOS für ARMe) oder so läuft? ;)
Wer hat denn tausende Euro in Macbooks inverstiert, als vom PowerPC auf x86 gewechselt wurde? Apple-Nutzer müssen doch Vollpfosten sein!

dildo4u
2018-05-29, 13:28:55
Wer würde tausende von Euro in einen Mac Pro investieren, der keinen intel Prozessor hat und nur iOS (oder macOS für ARMe) oder so läuft? ;)
Intel hat doch Probleme mit 10nm,vielleicht denkt Apple das TSMC dauerhaft ein Vorteil bei der Fertigung hat.Der A11 ist ja schon auf Level mit Intels Mobile Chips.

Single Core ist Vergleichbar:

https://browser.geekbench.com/processors/2057

https://browser.geekbench.com/ios-benchmarks

Ich würde aber vermute das das Mac Book Pro sofort ein 6 Core Arm bekommt.

Matrix316
2018-05-29, 21:08:22
Wer hat denn tausende Euro in Macbooks inverstiert, als vom PowerPC auf x86 gewechselt wurde? Apple-Nutzer müssen doch Vollpfosten sein!
Ja aber kompatibilitätsmäßig ist es doch so: X86 >>>>>>>>>>>>>>>>> Power PC >>>>>>>>>>>>>>> Arm. Alle Milliarden von PCs nutzen X86, während Arm heute vorwiegend nur noch in Smartphones und Tablets benutzt werden. Du kannst ja dann nicht mal mehr Windows installieren für Bootcamp. Höchstens die ARM Version wo genausowenig läuft wie bei einem neuen macOS für ARM.

Kallenpeter
2018-05-29, 21:13:06
Also von Apples Ökosystem her wäre es eine Umstellung, aber bestimmt machbar. Das eigentliche Hindernis sehe ich auch eher bei Windows, welches dann nicht mehr auf Macs läuft. Ist natürlich die Frage auf wie vielen Macs überhaupt Windows installiert ist.

lumines
2018-05-29, 21:27:05
Wer würde tausende von Euro in einen Mac Pro investieren, der keinen intel Prozessor hat und nur iOS (oder macOS für ARMe) oder so läuft? ;)

Mir fällt auf Anhieb keine Software unter macOS ein, die ich momentan benutze und die nicht auf einem ARM-Mac laufen würde.

Steam-Spiele lasse ich einmal außen vor, weil die unter macOS mitlerweile immer mehr wie ein Sack Kartoffeln laufen. Das wird auf Dauer sowieso nicht gut gehen.

Wahrscheinlich wäre der Umstieg von x86 zu ARM bei der allermeisten Software weniger dramatisch als von 32-Bit-Carbon auf Cocoa.

Matrix316
2018-05-29, 21:59:47
Mir fällt auf Anhieb keine Software unter macOS ein, die ich momentan benutze und die nicht auf einem ARM-Mac laufen würde.

Steam-Spiele lasse ich einmal außen vor, weil die unter macOS mitlerweile immer mehr wie ein Sack Kartoffeln laufen. Das wird auf Dauer sowieso nicht gut gehen.

Wahrscheinlich wäre der Umstieg von x86 zu ARM bei der allermeisten Software weniger dramatisch als von 32-Bit-Carbon auf Cocoa.
Im Moment läuft überhaupt keine macOS Software unter ARM. Nur iOS. Das müsste man ALLES neu kompilieren oder programmieren, je nach dem wie die Entwicklungsumgebung das managet.

Mit X86 hatte man damals ganz viel kompatibilität gewonnen, die man jetzt wieder zum Fenster werfen würde. Und dazu noch Hardware bekommt, die noch lange nicht an die High End Intel CPUs rankommt.

Wenn man weg von intel will, soll man lieber in Ryzen und Threadripper investieren. Und dafür Grafikkarten von Nvidia. Apropos Grafikkarten... gibt's überhaupt ARM kompatible Treiber für Geforce oder Radeon Karten? Oder will man Onboard nutzen?

Immerhin reden wir hier über Macs und nicht iPads.

lumines
2018-05-29, 22:08:30
Das müsste man ALLES neu kompilieren oder programmieren, je nach dem wie die Entwicklungsumgebung das managet.

Wenn man es nur einmal alles neu kompilieren muss, dann wäre das doch vollkommen in Ordnung? Macht man doch sowieso.

Bei nativer macOS-Software sollte der Aufwand gegen 0 gehen.

gibt's überhaupt ARM kompatible Treiber für Geforce oder Radeon Karten? Oder will man Onboard nutzen?

Davon würde ich ausgehen. Immerhin bietet Nvidia selbst ARM-SoCs an.

Ansonsten lässt Apple ein bisschen Geld springen. Haben sie bisher ja auch gemacht. AFAIK sind sowohl der Intel-Treiber als auch der für AMD-GPUs überwiegend von Apple. Nur Nvidia schreibt Treiber für macOS überwiegend selbst.

deekey777
2018-05-29, 22:21:55
Wenn Apple eigene SoCs für Macs bieten will, warum dann auf Dritt-GPUs setzen? Sonst: Wenn AMD oder Nvidia wollen, dann müssen sie die Treiber liefern, was Nvidia derzeit auch tut (eGPU).

So oder so: Star scheint ein günstiges iPhone zu sein. Es wird wohl nocht etwas dauern, bis ein adäquater Ersatz für Intel-Macs kommt.

pixelguy
2018-05-30, 01:50:54
Wäre es nicht möglich, dass Apple einfach x86 lizenzierst oder sich von AMD was basteln lässt?

urpils
2018-05-30, 06:37:05
Wäre es nicht möglich, dass Apple einfach x86 lizenzierst oder sich von AMD was basteln lässt?

was von AMD zu nehmen ist ja keine sinnvolle Option: sie wollen von Intel weg um sich unabhängig von Intel zu machen (die in letzter Zeit eher mit Verzögerungen glänzen als mit regelmäßigen Produktupdates). Sie würden mit AMD einfach eine andere Abhängigkeit eingehen - und das macht keinen Sinn.

Wenn sie EH was Neues entwickeln, dann können sie auch die schlankere und effizientere ARM-Basis nehmen, in die sie jetzt seit Jahren eh schon investieren. Da ist KnowHow vorhanden - x86 müssten sie sich komplett neu aufstellen - und es würde Jahre dauern da was sinnvolles auf die Beine zu stellen - und mit ARM sind sie schon in greifbarer Nähe (zumindest für Laptops).

ich bezweifle auch, dass die Patente zu bezahlbaren Konditionen rausgegeben werden würden ;)

Ganon
2018-05-30, 09:10:42
Ach MacTechNews... die predigen schon seit mindestens einem Jahr in jeder halbwegs dazu passenden News den glorreichen, kettenzerschlagenden ARM-based Mac an, der alle Mac-User in den siebten Innovations- und Performance-Himmel führen wird. Neben einer Tonne Werbung verpackt als News ist diese Seite für den ein oder anderen News-Lacher immer mal wieder gut. Stöbert mal in den News dazu, das ist echt lustig.

Also, nicht dass ich einen ARM Mac ausschließe, aber wenn eine News Seite ständig das offensichtliche predigt, dann erfüllt sich das vielleicht auch irgendwann mal.

Ob Apple sich traut wirklich "den Mac" auf ARM umzustellen bezweifle ich aber. Ich vermute sie bringen eher eine dritte Linie raus mit einem iOS/macOS Hybriden bzw. iOS mit einem Desktop. Auch wenn es mittlerweile auch ein ARM-Windows gibt, war der Grund für den wieder wachsenden Erfolg der Mac-Reihe die Windows Kompatibilität und Konkurrenzfähigkeit. Im geschäftlichen Bereich kenne ich kaum jemanden der nicht auch noch Windows auf Macs betreibt.

Für Apple selbst wäre die Umstellung aber relativ einfach. Wie ich ja schon paar mal erwähnt habe, ist es bei Mac-Nutzern ja schon Gewohnheit, dass Software inkompatibel wird und man neu kaufen muss. Von daher hat man die Nutzerbasis entsprechend trainiert. Auch iOS schert sich einen Dreck um Abwärtskompatibilität und entweder der Entwickler patcht ein Leben lang nach oder die App läuft halt nicht mehr. Passiert bei Spielen gerne mal. Mit dem nächsten macOS fliegt 32bit Software vermutlich komplett raus und somit gibt's noch weniger Sorgen (für Apple). Entsprechende willige Entwickler werden vermutlich einfach nur ihre Software neu kompilieren müssen.

Und wenn sie den Schritt wirklich tun, müssen sie auch erst mal zeigen, dass sie langfristig ein CPU-Design weiterentwickeln und skalieren können. Und wenn sie dann die Sackgasse gefunden haben, ob sie da auch wieder raus kommen. Jim Keller kann vermutlich auch nicht immer und immer wieder bei allen Firmen vorbei kommen.

steve.it
2018-05-30, 09:25:47
macOS: Apple mit Spezialbehandlung für 299 Apps
https://www.heise.de/mac-and-i/meldung/macOS-Apple-mit-Spezialbehandlung-fuer-299-Apps-4058222.html

War mir nicht bekannt. Dennoch müssen viele Entwickler Anpassungen durchführen.

Der Mac ist heute etablierter als zum Zeitpunkt des Switch PPC - x86. Es gibt IMHO auch mehr native Anwendungen, die es vorher nicht gab. Aus der Sicht spielt x86_64 Kompatibilität heute IMHO weniger eine Rolle (im Vergleich zu damals). Eher für so Bereiche wie Virtualisierung, Docker etc. Allerdings trifft das auch weniger auf die Masse IMHO zu.

Dass mit einem ARM-Mac alles besser wird, glaube ich auch nicht. Es liegt nicht an Intel, dass ein Mac mini z.B. von Apple nicht gepflegt wird etc.!

Momentan würde ich gerne AMD im Mac sehen, da diese offenbar weniger stark für Spectre/Meltdown anfällig sind.

pixelguy
2018-05-30, 12:07:25
was von AMD zu nehmen ist ja keine sinnvolle Option: sie wollen von Intel weg um sich unabhängig von Intel zu machen (die in letzter Zeit eher mit Verzögerungen glänzen als mit regelmäßigen Produktupdates). Sie würden mit AMD einfach eine andere Abhängigkeit eingehen - und das macht keinen Sinn.

Wenn sie EH was Neues entwickeln, dann können sie auch die schlankere und effizientere ARM-Basis nehmen, in die sie jetzt seit Jahren eh schon investieren. Da ist KnowHow vorhanden - x86 müssten sie sich komplett neu aufstellen - und es würde Jahre dauern da was sinnvolles auf die Beine zu stellen - und mit ARM sind sie schon in greifbarer Nähe (zumindest für Laptops).

ich bezweifle auch, dass die Patente zu bezahlbaren Konditionen rausgegeben werden würden ;)
Ich meinte eher sowas in die Richtung x86/ARM Hybrid. AMD könnte da ja etwas Custom bauen und Apple zur Verfügung stellen. Dann könnten die zwar auf ARM setzen aber auch die x86 Kompatibilität behalten.

Nightspider
2018-05-30, 12:16:02
Vor allem kann es sein das Intel Apple jetzt wieder davonrennt bei der Architektur dank Jim Keller, Raja Koduri usw.

Jim Keller hat damals sicherlich mit den größten Impact gehabt beim Leistungssprung der Apple SoCs.

robbitop
2018-05-30, 12:32:30
Schwer zu sagen. Gerade IPC unterliegt ja stark dem Gesetz des abnehmenden Grenzertrags.

steve.it
2018-05-30, 13:30:09
Jim Keller hat damals sicherlich mit den größten Impact gehabt beim Leistungssprung der Apple SoCs.

Forum MacRumors:

I worked with Jim, too, at AMD (before he left and eventually came back). He architected the hyper transport bus back then. Good guy. Certainly a bigger loss to Apple than Manu, but, like I said, few engineers are indispensable.
https://forums.macrumors.com/threads/google-hires-veteran-chip-designer-away-from-apple-to-build-custom-chips-for-pixel-smartphones.2050816/#post-24686253

Jim isn’t going to help their fab troubles. Also, people seem to be giving him credit for things he didn’t do. I see press reports giving him credit for things he didn’t do for Opteron at AMD, for example. (I was there, and Jim seems to get credit for stuff done by the cto, for example.)

He’s a very bright guy. Really knows buses better than anyone else. In the years since I worked with him I’m sure he’s gained additional expertise. But I don’t think he’s going to save intel.
https://forums.macrumors.com/threads/intel-foundries-continue-to-face-issues-and-another-spectre-like-vulnerability-disclosure-may-be-looming.2117941/page-5

deekey777
2018-05-30, 13:43:38
Es würde mich nicht wundern, dass Apple eine günstige Chromebook-Alternative bringt. Das "billige" iPad reicht hier nicht aus, denn es fehlt an einer Tastatur und Mauszeiger. Und so ein Gerät wäre ein Testfeld für einen stärkeren eigenen SoC mit ARM64. Wobei das aktuelle SoCs im iPad 9,7 (2018) genügend Leistung haben dürfte.

Dann muss Apple in etwa wissen, welche Software zB auf den MacBooks/MacBook Pros überwiegend benutzt wird, um eine Abwägung zu treffen, wie viel Aufwand in die x86-Emulation gesteckt werden muss. Sprich: Wenn überwiegender Teil der Nutzer eher selten Drittsoftware nutzt und die meisten Anbieter der Drittsoftware ihre Produkte zeitnah auf ARM64 portieren, dann wird Apple zB für die wenigen Spieler nicht so viel Aufmerksamkeit widmen.

Dann werden auch Anbieter professioneller Software, die überwiegend auf iMacs/iMac Pros läuft, genügend Zeit haben, auf ARM64 umzusteigen.

Nebenbei:
Auch ein Mac Mini wäre ein schönes Testgerät für ein Apple-SoC.

Sunrise
2018-05-30, 16:09:09
Das läuft nach dem Motto:
"Irgendwann müssen wir mal anfangen..."

Mit 7nm bei TSMC mit den ganzen Packaging-Vorteilen geht da sicher einiges.

urpils
2018-05-30, 17:48:02
Ich meinte eher sowas in die Richtung x86/ARM Hybrid. AMD könnte da ja etwas Custom bauen und Apple zur Verfügung stellen. Dann könnten die zwar auf ARM setzen aber auch die x86 Kompatibilität behalten.

ich sehe nicht was das bringen würde. Entweder wechseln sie die Architektur und nutzen die entsprechenden Vorteile (und akzeptieren die Nachteile) oder eben nicht... ein "Hybrid" hätte quasi NUR Nachteile. Und selbst bauen können sie wahrscheinlich besser als die meisten anderen. Möglich wäre es durchaus für Apple.. die Frage ist halt ob, wie und warum ;)

smalM
2018-06-01, 01:54:00
Schwer zu sagen. Gerade IPC unterliegt ja stark dem Gesetz des abnehmenden Grenzertrags.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63486&stc=1&d=1527810659

So ganz furchtbar isses bei Apple ja nicht gerade gelaufen...

urpils
2018-06-01, 06:43:19
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63486&stc=1&d=1527810659

So ganz furchtbar isses bei Apple ja nicht gerade gelaufen...

wo kommen denn diese Zahlen her? und was sind denn 1500? Pferde? Sekunden? Umdrehungen? ;)

ich weiß was du sagen willst - aber so gänzlich ohne Kontext (wahrscheinlich geekbench?) hilft es nicht so viel :)

BlackBirdSR
2018-06-01, 06:47:09
wo kommen denn diese Zahlen her? und was sind denn 1500? Pferde? Sekunden? Umdrehungen? ;)

ich weiß was du sagen willst - aber so gänzlich ohne Kontext (wahrscheinlich geekbench?) hilft es nicht so viel :)


Kann ja nur Geekbench sein.
Der einzige Benchmark, der immer so schön linear skaliert mit jeder CPU Generation

robbitop
2018-06-01, 08:13:49
Ich meinte natürlich auch kein Synthetikkram mit viel ILP. Außerdem kamen die ARM CPUs ja auch aus einer ganz anderen ipc Region und landen jetzt langsam da wo Intel liegt.
Intel hat seit SB in 2011 ~30% bis 2018 mit CFL nur an ipc zugelegt.

Ganon
2018-06-01, 10:10:50
Darum halt auch meine Frage, ob Apple in Zukunft Schritt halten kann. Sie sind jetzt mit der IPC in etwa auf Intel Niveau... aber kommen sie darüber auch (weit) hinaus? IPC ist ja schön und gut, steht halt immer noch die Frage im Raum wie sich Apples Chips verhalten würden, wenn man sie plötzlich mit 6-8 Kernen und 4 Ghz betreibt.

Für Apple ist das an sich ja kein Problem, da sie in ihren MacBooks eh absolutes Intel Low End verbauen. Außer beim 15" Pro-Modell sind überall nur Dual Cores drin. Die zu "besiegen" oder mitzuhalten ist natürlich keine Kunst, auch wenn ihr Marketing was anderes behaupten wird.

Sunrise
2018-06-01, 10:46:36
Darum halt auch meine Frage, ob Apple in Zukunft Schritt halten kann. Sie sind jetzt mit der IPC in etwa auf Intel Niveau... aber kommen sie darüber auch (weit) hinaus? IPC ist ja schön und gut, steht halt immer noch die Frage im Raum wie sich Apples Chips verhalten würden, wenn man sie plötzlich mit 6-8 Kernen und 4 Ghz betreibt.

Für Apple ist das an sich ja kein Problem, da sie in ihren MacBooks eh absolutes Intel Low End verbauen. Außer beim 15" Pro-Modell sind überall nur Dual Cores drin. Die zu "besiegen" oder mitzuhalten ist natürlich keine Kunst, auch wenn ihr Marketing was anderes behaupten wird.
Da würde ich mir mal garkeine Sorgen machen, denn die ging bei Apple doch stetig nach oben. Ab 7nm ist zudem dermaßen viel Spielraum allein bei prozessbedingten Vorteilen und Apple hat auch beim A11 wieder enorm zugelegt. Der A12 bringt da hoffentlich wieder etwas Frisches mit, es sei denn man hebt sich das für den A13 auf, glaube ich aber nicht, da Apple immer maximal Gas geben wird.

In den iPhones und iPads ist alles nur eine Frage, und zwar den richtigen Mix aus Takt, SoC-Größe und natürlich dem Stromverbrauch zu finden. Würde Apple nicht so rigoros deckeln (das Throttling ist ja dennoch manchmal vorhanden), würde da eine ganz andere Leistung auf die Straße kommen. 7nm lässt locker Spielraum für sehr konservative 3GHz Performance-Kerne mit mehr IPC (Caches, weitere Anpassungen), sodenn Apple das auch verbauen will. Wenn selbst die GPU jetzt praktisch ohne IMGTec auskommt, und hier auch starke Verbesserungen eingebracht wurden, dann ist Intel da auch nicht unbedingt eine Hürde. Intel ist nicht gerade ein Vorzeigebeispiel für Fortschritt, zumindest definitiv nicht die letzten Jahre. Die pumpen zuviel Geld in zuviele Bereiche und das nagt auch am Fokus. AMD hat das bereits gezeigt. Apple ist damit nicht zu vergleichen, genauso wie NV stetig alles reinpumpt in Ihre GPU-Entwicklungen, sind die iPhones für Apple das allerwichtigste Produkt.

Bei Apple mache ich mir da eher Gedanken in Richtung Software, die diese Leistung überhaupt abrufen kann, bzw. ordentlich nutzt. Ich habe immernoch ein iPhone 7 und sehe auch aktuell nicht, wofür ich mehr benötigen sollte, eher wird Apple mich dann wieder zu neuer HW "zwingen", ich hoffe mal iOS 12 läuft noch ordentlich. Vor einigen jahren habe ich noch fast jedes Jahr gewechselt. Die Frage ist eher was mit persönlich die immer höhere IPC bringt, wenn das OS bzw. die Touch-Eingabe nicht mit meinen Finger hinterherkommt. Da uns wahrscheinlich 120Hz/fps? erwarten werden, sollte das jedenfalls eine fühlbare Verbesserung bringen, aber der Bremser ist hier definitiv iOS.

Ganon
2018-06-01, 11:10:37
Da würde ich mir mal garkeine Sorgen machen, denn die ging bei Apple doch stetig nach oben. Ab 7nm ist zudem dermaßen viel Spielraum allein bei prozessbedingten Vorteilen und Apple hat auch beim A11 wieder enorm zugelegt.

Da ich jetzt nicht warte will bis du deinen Beitrag endlich fertig editiert hast... ;)

Es ist aber recht naiv anzunehmen, dass Apple jetzt immer wieder lineare Steigerungen vollführen kann. Vor allem zeigen sich diese Steigerungen hauptsächlich in einer einzelnen (fragwürdigen) Benchmark-Suite und aufgrund des abgeschotteten Systems ist es schwer zu ermitteln wie die allgemeine Performance sonst noch so ist im Vergleich.

Ich will ihnen ja nicht die Erfolge aberkennen, aber es ist weiterhin "nur" ein Dual Core den sie halt recht gut nach oben geprügelt haben. Sie müssen "mir" in dem Fall erst mal zeigen, dass sie auch in der Lage sind mehr Kerne und mehr Takt umzusetzen. Ist natürlich für iOS unnötig, aber hier geht's ja auch gerade eher um einen Desktop-Konkurrenten.

Es ist gar nicht so einfach von einem Design auf der andere Design zu wechseln und hierbei die gleiche Effizienz zu erhalten. Auch weitere Kerne "klatscht" man nicht einfach so ran.... also, kann man natürlich tun, aber das läuft dann halt schlecht.

Das wird mir "hier" für meinen Geschmack alles zu sehr trivialisiert.

Sunrise
2018-06-01, 11:30:15
Da ich jetzt nicht warte will bis du deinen Beitrag endlich fertig editiert hast... ;)

Es ist aber recht naiv anzunehmen, dass Apple jetzt immer wieder lineare Steigerungen vollführen kann. Vor allem zeigen sich diese Steigerungen hauptsächlich in einer einzelnen (fragwürdigen) Benchmark-Suite und aufgrund des abgeschotteten Systems ist es schwer zu ermitteln wie die allgemeine Performance sonst noch so ist im Vergleich.

Ich will ihnen ja nicht die Erfolge aberkennen, aber es ist weiterhin "nur" ein Dual Core den sie halt recht gut nach oben geprügelt haben. Sie müssen "mir" in dem Fall erst mal zeigen, dass sie auch in der Lage sind mehr Kerne und mehr Takt umzusetzen. Ist natürlich für iOS unnötig, aber hier geht's ja auch gerade eher um einen Desktop-Konkurrenten.

Es ist gar nicht so einfach von einem Design auf der andere Design zu wechseln und hierbei die gleiche Effizienz zu erhalten. Auch weitere Kerne "klatscht" man nicht einfach so ran.... also, kann man natürlich tun, aber das läuft dann halt schlecht.

Das wird mir "hier" für meinen Geschmack alles zu sehr trivialisiert.
Was sollte denn deiner Meinung nach ein Problem darstellen, mehr Kerne und Takt umzusetzen? Das wurde von Apple doch die letzten Generationen (vor allem im A11) schon vollzogen? So richtig verstehe ich deine Zweifel irgendwie nicht. A11 ist deshalb vordergründig ein Dual-Core (stimmt aber auch nichtmehr wirklich), weil mehrere High-Performance-Kerne iOS-seitig wohl keinen Sinn ergeben, da Apple auf fühlbare Geschwindigkeit optimiert und das liegt eben bei wenigen Kernen und hohem Takt dann direkt an. Der A11 hat ja noch vier weitere Kerne, für stromsparnde Nutzung, dennoch können aber auch alle parallel arbeiten.

Es behauptet ja niemand, dass man keine Anpassungen dafür vornehmen müsste, denn dafür wurde ja am Performance Controller geschraubt (2. Gen), damit man alle Kerne gut auslasten und wieder schlafen lassen kann. Das ist aber für Apple kein Hindernis und schon garnicht, wenn man sowieso den Fokus auf den SoCs hat.

Ich habe jedenfalls von Apple noch keine Anzeichen gesehen, die mir zeigen, dass sie auf die Bremse treten.

Ganon
2018-06-01, 12:02:57
Was sollte denn deiner Meinung nach ein Problem darstellen, mehr Kerne und Takt umzusetzen?

Das Straucheln aller anderen Hersteller in dem Fall und dazu die Erfahrungen aus der Beobachtung anderer CPU-Hersteller mit ihren Designs. Und, wie gesagt, geht es nicht darum was für ein iPad reicht, sondern eben den Desktop-Fall der alle Nase lag hergebetet wird.

Das Ranklatschen von langsamen Kernen ist ja nun auch kein Kunstwerk. Es geht rein darum, wie sehr Apple eben ihre schnellen Kerne noch skalieren kann. Und natürlich wie sehr Geekbench diese angeblichen Steigerungen verzerrt.

Mit diesem "immer höher, weiter, schneller" sind quasi schon alle CPU Hersteller auf die Nase geflogen und ich sehe halt kein Anzeichen dafür, dass es Apple hier nicht ebenso treffen würde. Es gibt meiner Meinung nach noch ganze andere Gründe dafür, dass ihr High-Performance Design ein Dual Core ist, als nur "mehr brauchen wir gerade nicht".

tl;dr: Für sämtliche Zukunftsprognosen wird mir einfach zu viel auf einem einzelnen Benchmark rumgeritten.

mboeller
2018-06-01, 13:49:47
Es ist aber recht naiv anzunehmen, dass Apple jetzt immer wieder lineare Steigerungen vollführen kann. Vor allem zeigen sich diese Steigerungen hauptsächlich in einer einzelnen (fragwürdigen) Benchmark-Suite und aufgrund des abgeschotteten Systems ist es schwer zu ermitteln wie die allgemeine Performance sonst noch so ist im Vergleich.


SPECint_base2006 (runterscrollen):

https://www.anandtech.com/show/9766/the-apple-ipad-pro-review/4

schon etwas älter dieser Vergleich zw. A9x und CoreM

Sunrise
2018-06-01, 15:29:20
Das Ranklatschen von langsamen Kernen ist ja nun auch kein Kunstwerk. Es geht rein darum, wie sehr Apple eben ihre schnellen Kerne noch skalieren kann. Und natürlich wie sehr Geekbench diese angeblichen Steigerungen verzerrt.
Warum redest du eigentlich ständig nur von Geekbench als Indikator?

Es gibt meiner Meinung nach noch ganze andere Gründe dafür, dass ihr High-Performance Design ein Dual Core ist, als nur "mehr brauchen wir gerade nicht".
Inwiefern? Sind das jetzt Verschwörungstheorien oder hat das Hand und Fuß?! Würde mich tatsächlich auch interessieren, an was du da denkst!

tl;dr: Für sämtliche Zukunftsprognosen wird mir einfach zu viel auf einem einzelnen Benchmark rumgeritten.
Also ich gehe da nicht nur von einem Benchmark aus. 3DMark wurde bei PcPer getestet vs. einem i5-7300U und auch bei den üblichen Verdächtigen gibt es anderes Futter.

Ganon
2018-06-01, 15:52:17
Warum redest du eigentlich ständig nur von Geekbench als Indikator?
Also ich gehe da nicht nur von einem Benchmark aus. 3DMark wurde bei PcPer getestet vs. einem i5-7300U und auch bei den üblichen Verdächtigen gibt es anderes Futter.

Na hast du denn einen Vergleich über die letzten Apple A CPUs in diesen Benchmarks? Egal wo ich hinschaue, überall nur Geekbench. Ja hier und da mal ein anderer Benchmark, aber im Großen und Ganzen kommt Geekbench zum Einsatz.

Wenn man aber über die "lineare Skalierung" der Apple A CPUs redet hilft es nicht, wenn man zeigt wie irgend eine A CPU gegen ein Low End Intel ankämpft. Also sowas wie die Grafik aus Geekbench da vorhin.

Und dann ist hoffentlich die GPU-Leistung dort nicht auch noch mit enthalten. Es geht mir auch nicht darum wie schnell Apple CPUs im Vergleich zu Intels LowEnd Linie ist.


Inwiefern? Sind das jetzt Verschwörungstheorien oder hat das Hand und Fuß?! Würde mich tatsächlich auch interessieren, an was du da denkst!

Wie ich schon gesagt habe: Meine Vermutung liegt eher darin, dass Apple das Design nicht breiter bei gleicher oder ähnliche Effizient hinbekommt. Wenn sie es doch können, dann wird man das ja vielleicht irgendwann sehen.

Natürlich ist es bei einer BlackBox CPU mit einem BlackBox OS und abgeschotteter Software-Installation alles nur Vermutung. Ist genauso eine Vermutung wie zu sagen, dass in Zukunft alles wunderbar herrlich wird und nirgendwo Probleme auftreten und Apple noch quasi unendlich Spielraum in alle Richtungen hat ;)

deekey777
2018-06-01, 19:40:39
Irgendwas hat Apple definitiv vor: https://www.macrumors.com/2018/05/31/apple-portland-engineering-hub/

smalM
2018-06-03, 22:17:01
ich weiß was du sagen willst - aber so gänzlich ohne Kontext (wahrscheinlich geekbench?) hilft es nicht so viel

Sorry, da ist mir beim Hochladen die Legende verloren gegangen:
Apple CPUs – Geekbench 4 auf 1 GHz skaliert.

Ich will ihnen ja nicht die Erfolge aberkennen, aber es ist weiterhin "nur" ein Dual Core den sie halt recht gut nach oben geprügelt haben.

Ich gucke gerade etwas verwirrt auf mein iPad Pro 10.5. Sollte da nicht ein CPU mit einer 3+3 Konfiguration verbaut sein?

Wenn man aber über die "lineare Skalierung" der Apple A CPUs redet hilft es nicht, wenn man zeigt wie irgend eine A CPU gegen ein Low End Intel ankämpft. Also sowas wie die Grafik aus Geekbench da vorhin.

Die Grafik vergleicht ausschließlich Apple CPUs.

Zu Apple und ARM für den Mac:
Ich glaube nicht, daß wir einen der A-SoC im Mac wiederfinden werden; insbesondere kann es NEON mit AVX2 nicht im Geringsten aufnehmen.
Allerdings finde ich es ziemlich lächerlich anzunehmen, daß Apple nicht in der Lage sei, eine CPU auf Mac-Bedürfnisse auszulegen. Eine Lösung á la AMD mit zusammengeschalteten Dies würde die große Bandbreite an benötigter Prozessorleistung von MacBook bis Mac Pro abdecken können.
Ob Apple das machen wird? Ich denke: Nein, allein aus wirtschaftlichen Erwägungen lohnt es sich für die 18-20 Mio. Macs nicht. Und anders als im Smartphone-/Tablet-Bereich bietet Intel (oder AMD) ein recht große und leistungsfähige Palette an CPUs zur freien Auswahl an. Ich glaube also eher nicht, daß Apple einen groß genügenden Vorteil in der Entwicklung einer eigenen CPU sieht.
Aber wer weiß, die Wege des Herrn (Cook) sind unergründlich...

pixelguy
2018-06-26, 10:27:09
Qualcomm geht schon mal vor: https://www.golem.de/news/qualcomm-wir-entwickeln-dediziertes-silizium-fuer-laptops-1806-135054.html

=Floi=
2018-06-26, 11:39:49
finde dieses marktsegment ohne echtes x86/X64 schon ein wenig mau.
Da gäbe es für mich andere anwendungsfälle, wo ich den schritt begrüßen würde und die arm cores gut und günstig genug wären.

smalM
2018-07-03, 11:35:39
iGeneration (https://www.igen.fr/iphone/2018/07/premier-benchmark-dun-mysterieux-iphone-2018-dote-de-4-go-de-ram-104545) hat einen neuen Eintrag bei Geekbench (https://browser.geekbench.com/v4/cpu/8816787) gefunden, der angeblich von einem A12 stammen soll.

robbitop
2018-07-03, 13:43:23
Kaum schneller als A11? Da stimmt IMO etwas nicht.

aceCrasher
2018-07-03, 14:04:52
Definitiv nicht, selbst wenn sie an der Architektur selbst nichts geändert hätten, müssten sie trotzdem durch 7nm mehr Taktspielraum haben.

SKYNET
2018-07-03, 14:08:58
evtl. legen sie die präferenz auf akkulaufzeit....

robbitop
2018-07-03, 15:24:11
Glaube ich nicht. Apple hat bisher ausnahmslos signifikant mehr Leistung bei jeder SoC Gen geliefert. Gerade bei einem Sprung von 10 nm auf 7 nm ist davon auszugehen, dass man deutlich mehr Leistung bekommt.

Interessant, dass man den L1 Cache vervierfacht (32kb->128kb). Bin mal gespannt, ob das die Latenz verschlechtert.

smalM
2018-07-03, 21:04:24
Monsoon nur 32KB L1? Das ist ja wohl eher Mistral.

robbitop
2018-07-04, 11:06:35
Leider macht Anandtech ja schon eine Weile keine In-Depth Artikel mehr. Laut Wiki sind es bei Mistral je 32 kB instruction und data Cache @L1.

smalM
2018-07-05, 11:55:36
Ach ja, völlig vergessen zu erwähnen:
Wenn die Massenproduktion des A12 im Mai gestartet wurde, dann ist das hier, wenn echt, auf jeden Fall ein Teil aus der Risc-Production, wer weiß in welchem Stadium der Entwicklung.

HotSalsa
2018-07-05, 13:11:19
Kaum schneller als A11? Da stimmt IMO etwas nicht.

Ich vermute das ist der hochgetaktete A11 für das günstige 6.1 Zoll Phone mit LCD Screen. Kann mir vorstellen das hier nur eine überarbeitete Variante des A11 verwendet wird.

Der Nachfolger des iPhone X erhält dann auch den A12. Dieser wird auch mehr Leistung haben als diese 10%.

deekey777
2018-07-05, 14:09:33
Semi-OT:
http://appleinsider.com/articles/18/07/05/apple-wont-use-intels-5g-modem-in-future-iphones

Apple has reportedly notified Intel of its decision to not use its modem in a next-generation iPhone model, internal Intel communications and sources familiar with the matter advised to CTech. It is believed the decision affects iPhones that will launch in 2020, and not those destined for the 2019 refresh.
Das wäre ein Ding für Intel.

smalM
2018-07-06, 14:12:04
Ich vermute das ist der hochgetaktete A11 für das günstige 6.1 Zoll Phone mit LCD Screen.

AES hat um 16% zugelegt, INT um 2% und FP um 7%, taktbereinigt. Wie soll das durch eine Taktsteigerung zustande gekommen sein?

Was ich ganz interessant fand, war die Spekulation von jemandem, daß wir die Auswirkungen von Spectre & Co. sehen. Daß also der geringe IPC-Fortschritt eine Auswirkung davon ist, die CPU zu härten.

BigKid
2018-07-06, 14:36:47
Die kommende iOS Version hat doch den Fokus auf performance improvement ?
Eher milde performance Anhebung auf Hardware-Seite + Performance Optimierung im OS ergibt zusammen immernoch einen deutlichen Schub. Dass Apple dann diesmal einen (größeren) Teil des Prozessvorteils nutzt um die Laufzeit signifikant zu erhöhen wäre doch gar nicht so abwegig und könnte IMHO sogar erklären warum man bei dieser iOS Version die Performance in den Mittelpunkt gerückt hat...
Wenn ich mir überlege WIE Leistungsfähig die Hardware im Vergleich zu den ersten Smartphones ist, dann fragt man sich schon wieviel davon einfach auf der Strecke bleibt weil schon lange nicht mehr optimiert wurde/wird...

=Floi=
2018-07-15, 16:57:17
es sollen mit dem ios update die alten prozessoren performanter gemacht werden. aggresivere taktung.

BigKid
2018-07-17, 15:10:12
es sollen mit dem ios update die alten prozessoren performanter gemacht werden. aggresivere taktung.
Das würde aber IMHO nicht rechtfertigen iOS12 unter das Motto "Performance Optimierung" zu stellen... Dann erkauft man sich die Leistung ja mit (noch) niedrigerer Akku-Lebensdauer ?!? Performance Optimierung von Software bedeutet nach meinem Weltbild (aber das muss sich ja nicht mit dem von Apple decken) den Code mal zu reviewen und nach Stellen zu suchen wo man ihn effizienter machen kann...
Jetzt einfach die alten SOCs zu "übertakten" wäre schon sehr lame...

=Floi=
2018-07-17, 15:31:21
https://www.mactechnews.de/news/article/iOS-12-Performance-Effizienz-AR-und-mehr-169687.html

zitat
Den App-Start will Apple beispielsweise um bis zu 40 Prozent beschleunigt haben. Dafür sorgt unter anderem, wie der Prozessor des iPhones angesprochen wird. Dieser kann nun verzögerungsfrei volle Leistung zur Verfügung stellen und diese dann ebenso rasch wieder absenken. Auf diese Weise sinkt der Energieverbrauch, obwohl die Leistung steigt.

die energie wird ja weiterhin benötigt und darin liegt wohl der schlüssel. Könnten ja einfach hardcodierte usercases sein. App start --> volle power
Durch die batterie drosselung wurde denen wohl erst klar, dass die leute performance wollen und nicht nur akku laufzeit.

ich hoffe hier zieht android nach.

=Floi=
2018-08-08, 16:20:17
Warum verkauft apple keine produkte mit teildeaktivierten chips?
die brauchen 60 mio stück pro quartal und verkaufen dann nur die besten modelle?!

grobi
2018-08-08, 16:29:38
Warum verkauft apple keine produkte mit teildeaktivierten chips?
die brauchen 60 mio stück pro quartal und verkaufen dann nur die besten modelle?!


Ist doch zum Teil im AppleTV erfolgt.

smalM
2018-08-13, 14:55:42
Auf wccftech ist ein Artikel (https://wccftech.com/apple-a12-geekbench-4-score-alleged-2018-iphone-iphone-9-gpu-performance-specifications-features-launch/) mit angeblich neuen GB4 Scores des A12 aufgetaucht:
4690 Punkte Single- und 12908 Punkte Multiscore. Wie so oft sind leider keine Einzelwerte vorhanden.
Singlescore entspräche so ziemlich dem des letzten Gerüchts (4673), Multiscore wäre aber ein Stück höher (10912).
In der GB4 Datenbank ist weder unter iPhone, noch unter iPhone11 ein entsprechender Eintrag zu finden...

deekey777
2018-09-12, 19:48:51
A12 Bionic, 2+4 CPU-Cores und 4-Core GPU, 6,5 Milliarden Transen, 8-Core Neural Dings mit 5 Billionen Operationen pro Sekunde. 7 nm.

Sunrise
2018-09-12, 20:32:23
Irgendwas versteh ich nicht, wenn wir beim A12 weiterhin bei 6/4 CPU-Cores sind, und wir 40-50% bessere Energieeffizienz haben, warum gibt es beim iPhone Xs gerademal 30 Minuten mehr Batterielaufzeit? Hab ich irgendwas Entscheidendes verpasst?

Was schluckt hier dann soviel Akku? Oder haben die Nasen den Akku schon wieder verkleinert?

deekey777
2018-09-12, 20:34:40
Irgendwas versteh ich nicht, wenn wir beim A12 weiterhin bei 6/4 CPU-Cores sind, und wir 40-50% bessere Energieeffizienz haben, warum gibt es beim iPhone Xs gerademal 30 Minuten mehr Batterielaufzeit? Hab ich irgendwas Entscheidendes verpasst?
Die eSIM klaut Platz. :D

Das iPhone Xr hält 90 Minuten mehr als iPhone 8 Plus.

Kallenpeter
2018-09-12, 20:38:53
Irgendwas versteh ich nicht, wenn wir beim A12 weiterhin bei 6/4 CPU-Cores sind, und wir 40-50% bessere Energieeffizienz haben, warum gibt es beim iPhone Xs gerademal 30 Minuten mehr Batterielaufzeit? Hab ich irgendwas Entscheidendes verpasst?

Naja, das muss man schon ganzheitlich betrachten:

1. Das Gerät hat auch mehr Funktionen. Teilweise vermutlich auch neue/umfangereichere always-on Funktionen. Oder schau dir an was das Geräte alles berechnet wenn ein einzelnes Foto gemacht wird. Da hat man dann 40% mehr Energieeffizienz Vs. 300% mehr Rechendaufwand.

2. Der SOC ist nur ein Stromverbraucher. Zwei andere große Verbraucher sind der Basebandchip (Mobilfunk...) und das Display (vielleicht ist es ja z.B. heller?). Dazu kommen noch Sensoren, Lautsprecher, RAM, Flash (auch wenn im SoC integriert ist).


Was durchaus sein kann ist, das man bei bestimmten (rechenintensiven) Anwendungen mehr zusätzliche Laufzeit rausbekommt als die halbe Stunde.

Sunrise
2018-09-12, 20:54:14
Ja, du hast schon Recht.

Es sticht aber eben sehr stark heraus, da scheint wirklich irgendwas enorm Energie zum Frühstück zu verspeisen. Der neue LTE-Baseband für uns scheint ja wieder von Intel zu kommen, das Display soll 60% mehr Dynamikumfang haben, aber sonst? Da fällt mir eigentlich nur die brachial leistungsfähigere Neural Engine ein.

Das würde bedeuten, dass Apple die 7nm-Vorteile vor allem für die umgebende Hardware genutzt hat, denn 15% Mehrleistung bei den Performance-Cores und (waren es 25%?) bei den High-Efficiency-Cores ist schon relativ bescheiden, wenn man mal bedenkt, wie stark die S-Modelle oft verbessert wurden.

Man hat anscheinend gemerkt, dass einfach mehr als genug CPU-Leistung vorhanden ist, und setzt die Energie jetzt woanders ein. Mal sehen wie sich das in Reviews auswirkt.

Da ist man fast schon enttäuscht, weil man dachte, mit 7nm kommt da jetzt ein riesiger Sprung nach vorne.

MSABK
2018-09-12, 20:57:55
Ja, du hast schon Recht.

Es sticht aber eben sehr stark heraus, da scheint wirklich irgendwas enorm Energie zum Frühstück zu verspeisen. Der neue LTE-Baseband für uns scheint ja wieder von Intel zu kommen, das Display soll 60% mehr Dynamikumfang haben, aber sonst? Da fällt mir eigentlich nur die brachial leistungsfähigere Neural Engine ein.

Das würde bedeuten, dass Apple die 7nm-Vorteile vor allem für die umgebende Hardware genutzt hat, denn 15% Mehrleistung bei den Performance-Cores und (waren es 25%?) bei den High-Efficiency-Cores ist schon relativ bescheiden, wenn man mal bedenkt, wie stark die S-Modelle oft verbessert wurden.

Man hat anscheinend gemerkt, dass einfach mehr als genug CPU-Leistung vorhanden ist, und setzt die Energie jetzt woanders ein. Mal sehen wie sich das in Reviews auswirkt.

Da ist man fast schon enttäuscht, weil man dachte, mit 7nm kommt da jetzt ein riesiger Sprung nach vorne.

Es könnte doch auch einfach banal sein und das Display braucht viel Energie. Das war doch glaube ich beim iPhone X doch auch so, wenn ich mich richtig erinnere. Das Xr hat z.B. mehr Laufzeit bei der Internetnutzung als das Xs Max und sonst die gleiche Laufzeit vom Xs Max. Denke OLED wird viel Energie brauchen.

Sunrise
2018-09-12, 21:15:21
Es könnte doch auch einfach banal sein und das Display braucht viel Energie. Das war doch glaube ich beim iPhone X doch auch so, wenn ich mich richtig erinnere. Das Xr hat z.B. mehr Laufzeit bei der Internetnutzung als das Xs Max und sonst die gleiche Laufzeit vom Xs Max. Denke OLED wird viel Energie brauchen.
Ja, OLED bei hellen (mehrheitlich weißem Content) ist sicher deutlich ineffizienter als ein LCD wie Apple ihn nutzt im neuen Xr. Dafür sollte OLED bei dunklem Content besser sein, nur wird eben mehrheitlich wohl mit weißem Hintergrund getestet.

Allerdings musst du ja zum alten X vergleichen und bei 40-50% mehr Energieeffizienz auf 7nm kann der OLED eigentlich nicht schlechter sein, sondern eher besser, das war bisher jede Generation so, dass die Displays effizienter wurden und das bei identischen 625 cd /m2 im Vergleich zum X.

Also scheint es irgendeine Kombination aus vielen Faktoren (z.B. hat das neue Xs ja jetzt LTE mit 4x4 MIMO inkl. LAA, das frisst sicher ordentlich) zu sein. Ich bin persönlich ziemlich zwiegespalten, was ich davon jetzt halten soll.

MSABK
2018-09-12, 21:24:04
Ja, OLED bei hellen (mehrheitlich weißem Content) ist sicher deutlich ineffizienter als ein LCD wie Apple ihn nutzt im neuen Xr. Dafür sollte OLED bei dunklem Content besser sein, nur wird eben mehrheitlich wohl mit weißem Hintergrund getestet.

Allerdings musst du ja zum alten X vergleichen und bei 40-50% mehr Energieeffizienz auf 7nm kann der OLED eigentlich nicht schlechter sein, sondern eher besser, das war bisher jede Generation so, dass die Displays effizienter wurden und das bei identischen 625 cd /m2 im Vergleich zum X.

Also scheint es irgendeine Kombination aus vielen Faktoren (z.B. hat das neue Xs ja jetzt LTE mit 4x4 MIMO inkl. LAA, das frisst sicher ordentlich) zu sein. Ich bin persönlich ziemlich zwiegespalten, was ich davon jetzt halten soll.

Deswegen wundert es mich, dass Apple keinen Darkmode für in iOS12 bringt. Das ganze OS ist ja extrem hell ausgelegt.

smalM
2018-09-13, 10:30:07
Das würde bedeuten, dass Apple die 7nm-Vorteile vor allem für die umgebende Hardware genutzt hat, denn 15% Mehrleistung bei den Performance-Cores und (waren es 25%?) bei den High-Efficiency-Cores ist schon relativ bescheiden, wenn man mal bedenkt, wie stark die S-Modelle oft verbessert wurden.
Bei 40% weniger Verbrauch ist stark davon auszugehen, daß Takterhöhung zum Leistungszuwachs eher wenig beigetragen hat, da sind 15% aus dem Monsoon rauszuquetschen gar nicht so wenig. Der reale Zuwachs düfte wohl der Steigerung von Hurricane zu Monsoon entsprechen.
Die kleinen Cores wurden anscheinend nur mit bis zu 50% weniger Verbrauch konnotiert, ohne Leistungsangabe.

Sunrise
2018-09-13, 11:02:53
Bei 40% weniger Verbrauch ist stark davon auszugehen, daß Takterhöhung zum Leistungszuwachs eher wenig beigetragen hat, da sind 15% aus dem Monsoon rauszuquetschen gar nicht so wenig. Der reale Zuwachs düfte wohl der Steigerung von Hurricane zu Monsoon entsprechen.
Die kleinen Cores wurden anscheinend nur mit bis zu 50% weniger Verbrauch konnotiert, ohne Leistungsangabe.
Ich habe mir das heute nochmal angesehen.

Wenn man davon ausgeht, dass die High-Efficiency-Cores tatsächlich 50% weniger verbrauchen (ohne Leistungszuwachs) und das dürfte bei sehr vielen Apps (außer Spiele, AR usw.) im quasi Idle ja entscheidend die Laufzeit beeinflussen, dann frage ich mich noch mehr, wo diese enormen Reserven hingewandert sind.

Das steht doch absolut nicht in Relation zueinander, da 7nm doch enorme Vorteile bringt. Wenn Apple also das Design stark Richtung Energieeffizienz ausgelegt hat, wurde da irgendwas in Apples Test-Methodik geändert das wir nicht mitbekommen haben? Wie kann das sein, dass dann im Endeffekt nur 30 Minuten mehr Laufzeit von Apple angegeben werden?

Eine Erklärung wäre wie oben angesprochen, dass die anderen Verbraucher (also nicht der SoC selbst) hier deutlich mehr Energie als beim ersten X benötigen. Eventuell gewichte ich den SoC auch einfach viel zu stark.

MSABK
2018-09-13, 11:13:00
Das mit dem kleineren Akku würde ich nicht unterschätzen, das macht Apple gerne. Der Akku vom 8+ z.b ist kleiner als der vom Vorgänger.

robbitop
2018-09-13, 12:00:09
Ich denke auch dass du den SoC zu stark gewichtest. In der Regel idelt eh der Großteil vom SoC im Regulärbetrieb. Dank clock- und powergating entsprechend mit sehr geringem Verbrauch. Display, Modem, GPS und WLAN sind IMO sehr große Verbraucher. Insbesondere wenn der Empfang nicht der beste ist. Ich merke beim iP7, wie dann ein Teilbereich des Geräts warm wird. Sendeleistung?

Sunrise
2018-09-13, 12:23:45
Ich denke auch dass du den SoC zu stark gewichtest. In der Regel idelt eh der Großteil vom SoC im Regulärbetrieb. Dank clock- und powergating entsprechend mit sehr geringem Verbrauch. Display, Modem, GPS und WLAN sind IMO sehr große Verbraucher. Insbesondere wenn der Empfang nicht der beste ist. Ich merke beim iP7, wie dann ein Teilbereich des Geräts warm wird. Sendeleistung?
Auch wenn noch nicht final bestätigt, könnte das neue Intel XMM 7560 Modem wohl für den Großteil verantwortlich sein, soll ja anstatt Qualcomm nun auch in den US-Märkten verwendet werden. Qualcomm hat hier sicher ein paar wichtige Patente die auch den Verbrauch enorm beeinflussen. Mal davon ab, dass beim Vergleich zwischen Qualcomm und Intel (iPhone 7) auch festgestellt wurde, dass Qualcomm hier deutlich bessere und wohl auch stabilere Verbindungen aufbauen konnte. Das neue Intel hat ja jetzt 4x4 MIMO und 2 Antennen gibts dazu, dazu LAA und so weiter, das schlägt wohl ordentlich ins Energiebudget.

smalM
2018-09-13, 20:52:22
Nun trudeln die ersten Ergebnisse im GB4 (https://browser.geekbench.com/v4/cpu/search?dir=desc&q=iPhone11&sort=created_at) ein.

Sieht nach 2,49 GHz aus und nach gebremstem Schaum im Multi-Core (so man das mit einigen wenigen Ergebnissen sagen kann).

IC3M@N FX
2018-09-15, 08:57:12
Ich finde es schade das Apple keinen richtigen Darkmode für iOS rausbringt.

Es wird von vielen Kunden gewünscht aber es wird immer noch ignoriert.... ist ja nicht so das es äußerst einseitiger Wunsch ist, gerade OLED iPhones profitieren davon extrem allein schon wegen der Akku Laufzeit.

robbitop
2018-09-15, 12:06:20
Beingt der Darkmode wirklich so viel? Die Apps haben soch sicherlich die gleichen Farben wie vorher. Auch die Webseiten. Oder? Entsprechend wäre die Dauer bei der das greift ggf gering?

urpils
2018-09-15, 12:20:08
für die, denen es wirklich wichtig ist gibt's ja noch "smart invert" - das funktioniert recht ordentlich... hab ich auf 3x Sidebutton....

Daredevil
2018-09-15, 12:24:42
Das mit dem kleineren Akku würde ich nicht unterschätzen, das macht Apple gerne. Der Akku vom 8+ z.b ist kleiner als der vom Vorgänger.
Jap, sehe ich auch so.
Apple hat seit Jahren kaum bis nichts an der Akkulaufzeit gedreht und die Dinger verkaufen sich wie geschnitten Brot.
Selbst wenn Apple ein paar Cent spart und den Akku nur aus Kosten gründen kleiner machen kann bei gleicher Laufzeit wegen dem SoC, können sie das tun.

Falls wirklich mal ein großer Schrei nach Akkukapazität da ist, wird Apple reagieren, aber vorher müssen sie das halt einfach nicht. ( Haben sie ja zum Teil schon mit den + Modellen )
Ein 1000€ iPhone wird nicht auf einmal zu einem Verkaufsschlager, nur weil es 2-3 Stunden mehr Akkulaufzeit bietet. Das ist ein Verkaufsschlager, weil es ein iPhone ist. :D

Ich denke mir jedes mal, dass die Applewatch mehr als einen Tag durchhalten sollte, aber es kommen dauerhaft immer nur Features, Dual Core, GPS, LTE ect. dazu. Das ist anscheinend für den Großteil wichtiger, sonst würde es ja nicht so gebaut werden. Einen Tod stirbst du bei Entscheidungen immer. Wenn das Leute zu einem 4000maH Mate 10 scheucht, ist das okay, solange es der kleinste Teil ist.

Kallenpeter
2018-09-15, 14:18:27
Dadurch das seit einigen Jahren ja weltweit verstärkt an Batterien geforscht wird (Elektromobilität...), hoffe ich ja das sich das bald bei Smartphones bemerkbar macht.

Dinge wie Feststoffbatterien (Energiedichte bis zu 4x höher) werden ja als erstes in kleineren Geräten verbaut (Drohnen, Smartwatches, Smartphones). Hoffentlich passiert hier also in den nächsten Jahren was.

Wobei auch ein schnelleres Aufladen das Problem lösen würde. Und hier tut sich ja jetzt schon etwas. Samsung ist da etwas vorangegangen, aber auch die neueren iPhones lassen sich ja schneller Aufladen. Wenn man hier mal bei 15-20W ankommt wäre das schon ne feine Sache.

Während der Präsentation wurde ja auch gesagt das das Xs schneller läd als das X, aber leider wurden bisher keine Zahlen genannt.

urpils
2018-09-15, 15:51:50
(...)
Apple hat seit Jahren kaum bis nichts an der Akkulaufzeit gedreht und die Dinger verkaufen sich wie geschnitten Brot. (...)


versteh mich nicht falsch: ich hätte auch gerne generell mehr Akkulaufzeit, ABER: das iPhone X hatte eine bessere Laufzeit als alle iPhones die ich davor hatte. (ich hatte nie die Plusmodelle). Vom 3GS angefangen bin ich NIE über einen kompletten Tag gekommen mit einer normalen Akkuladung - ich musste immer zwischendurch mal laden, kam mit Mühe und Not mit 5-10% Akku abends zuhause an usw...

das iPhone X hält locker einen Tag bei moderater bis hoher Nutzung durch- das war schon ein massiver Sprung an Akkulaufzeit (zumindest für mich), insofern muss ich dir da etwas widersprechen.

Sunrise
2018-09-16, 12:03:53
Sind immerhin fast 39% mehr mAh beim X im Vergleich zum iPhone 7. Deshalb hatte Apple da auch bis zu 2 Stunden längere Laufzeit angegeben, der Rest wanderte wohl in andere Komponenten wie das Modem usw.

Dafür stieg die Gehäusegröße minimal an (das X ist etwa 10% dicker geworden), was auf die Fläche gerechnet Platz für den größeren Akku gemacht hat.

Da die Laufzeit von meinem iPhone 7 schon ganz gut ist (selbst nach über 2 Jahren), hat Apple mit dem X, aber sicherlich noch mehr mit dem Xs da schon etwas verbessert, aber die Laufzeit vom Xs Max ist dann halt schon noch ne Bank besser. Allerdings ist das Teil so groß und unhandlich, was möchte ich mir nicht antun.

fondness
2018-09-16, 12:51:12
Irgendwas versteh ich nicht, wenn wir beim A12 weiterhin bei 6/4 CPU-Cores sind, und wir 40-50% bessere Energieeffizienz haben, warum gibt es beim iPhone Xs gerademal 30 Minuten mehr Batterielaufzeit? Hab ich irgendwas Entscheidendes verpasst?

Was schluckt hier dann soviel Akku? Oder haben die Nasen den Akku schon wieder verkleinert?

Man muss die Apple bis zu Marketing blub Zahlen auch nicht immer für voll nehmen. Da werden fast immer best case Szenarien ausgesucht die in der Praxis so nicht gegeben sind.

N0Thing
2018-09-17, 22:40:05
Beingt der Darkmode wirklich so viel? Die Apps haben soch sicherlich die gleichen Farben wie vorher. Auch die Webseiten. Oder? Entsprechend wäre die Dauer bei der das greift ggf gering?

Ich habe mit meinem Lumia 950 natürlich kein aktuelles, modernes OLED, aber ich merke zumindest einen Unterschied bei der Temperatur des Geräts, wenn ich beim surfen den Lesemodus benutze, der bei mir Text weiß und den Hintergrund schwarz darstellt.
Der Hauptaspekt bei der Akkulaufzeit liegt aber in meinem Fall sicherlich an der CPU und/oder Modem, Netflix allein mit WLAN frisst im Vergleich nur marginal am Akku.

Ailuros
2018-09-18, 12:06:50
Man muss die Apple bis zu Marketing blub Zahlen auch nicht immer für voll nehmen. Da werden fast immer best case Szenarien ausgesucht die in der Praxis so nicht gegeben sind.

Wobei welcher anderer Hersteller genau besser sein soll in dem Markt? Wenn ich mir z.B. Huawei's nicht all zu alte Bescheisserei in benchmarks bedenke und auch ihr kunterbuntes bzw. uebertriebenes marketing fuer ihr "GPU turbo" dann ist Apple's Kaese in relativem Sinn sogar unschuldig. https://www.anandtech.com/show/13285/huawei-gpu-turbo-investigation

Die eigentliche Antwort zu Sunrise's Frage ist eben dass ein SoC aus einer Unzahl mehr an Prozessor-Elementen besteht als nur der CPU. Obwohl noch nichts bestaetigt, duerfte die GPU eine Eigenentwicklung sein. Ich persoenlich wuerde beim ersten GPU Versuch von Apple zumindest keine Wunder erwarten. Ein "gut genug" als Resultat bis man wirklich alles auf Trab bringen kann bei so unendlich vielen Konstanten, klingt mir etwas logischer.

Natuerlich gibt es leider immer noch keine gfxbench Resultate von denen man vielleicht moeglich trends erahnen koennte....

robbitop
2018-09-18, 12:15:37
Ich dachte bereits die GPU im A11 ist bereits die erste custom gpu?

Zumal man (lt David Kanter?) schon seit Generationen sehr viel und tief am gfx Teil der img GPUs custom gemacht hat, oder? Das dürfte auch schon eine Menge Erfahrung gebracht haben sollte - zumal man ja sehr erfahrene Leute eingestellt hat. Also Erfahrung sollte weniger das Problem sein, oder?

Ailuros
2018-09-18, 12:23:45
Ich dachte bereits die GPU im A11 ist bereits die erste custom gpu?

Nein.

Zumal man (lt David Kanter?) schon seit Generationen sehr viel und tief am gfx Teil der img GPUs custom gemacht hat, oder? Das dürfte auch schon eine Menge Erfahrung gebracht haben sollte - zumal man ja sehr erfahrene Leute eingestellt hat. Also Erfahrung sollte weniger das Problem sein, oder?

David hat einen Haufen Mist zusammengekritzelt ohne sich weder mit Apple oder IMG je in Kontakt zu setzen. Nur weil IMGs oeffentliche Dokumentation ziemlich alt war als er den Artikel schrieb, heisst es gar nichts. Die Aenderungen die er fuer den Artikel erahnen konnte sind zwar echt, sind aber real in IMG's neuerem GPU IP. Apple A11 hat eine leicht modifizierte Series7XT Variante. Irrelevant haben die Dinger dedizierte hw fuer Tessellation sind aber nicht > DX10 weil noch einiges in den ALUs bzw TMUs dafuer fehlt.

***edit: A12 gfxbenches sind erschienen; zu viele IMG spezifische extensions *schulterzuck*

smalM
2018-09-18, 19:54:49
Nein.

Apple A11 hat eine leicht modifizierte Series7XT Variante.

Da sagen die Die-Shots aber was anderes. Die GPU hat nur noch oberflächliche Gemeinsamkeiten mit dem 7XT-Design. Wenn, dann hat Apple da ziemlich am ursprünglichen Design gedreht.

Apropos, der A12 ist nun in GB4 in der iOS-Übersicht bei Metal mit 21775 Punkte aufgeführt.
Zum Vergleich: Der A10 ist vermerkt mit 13047 Punkten, der A11 mit 15292 und der A10X mit 29373.

GFXBench 5: A10, A11, A12 und A10X (alles offscreen):

Aztec 1440p . . . . . 10,6 . 12,2 . 26,9 . 21,5
Aztec 1080p . . . . . 26,0 . 39,8 . 58,1 . 61,5
Car Chase. . . . . . . 18,1 . 28,9 . 46,7 . 48,5
Manhattan 3.1.1 . . 24,5 . 30,0 . 42,1 . 46,6

Die Zahlen stammen aus der GFXBench-Datenbank, außer für den A10X, die sind von meinem iPad.