Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27

robbitop
2015-07-29, 15:13:56
Meinst du für den S2? Wohl eher 14/16 nm. 22FDX braucht länger und ist nicht besser.

Ausgehend von der Vergangenheit gehe ich davon aus, dass ARMs Standard Cores alle durch sehr gute Custom Cores schlagbar sind. Signifikant. Insofern würde es mich nicht wundern, wenn das auch für Cortex A7 gilt.
Der Fertigungsprozess spielt auch eine Rolle und ja noch ist die Watch ein zu ungewisses Projekt. Aber ggf. ändert sich der Wearables Markt mittelfristig.

Mir geht es erstmal nur um eine technische Betrachtung.

Ailuros
2015-07-29, 21:31:27
Möglicherweise kann Apple aber mehr Perf/W rausholen als ARM. Und das wäre bei Wearbles wichtiger als bei allen anderen Geräteklassen. (dabei ist hier gemeint, dass eine akzeptable Performance bei längerer Akkulaufzeit erreicht werden soll - das geht bestimmt besser als beim Cortex A7).


Schafft jeder Hersteller unter normalen Bedingungen fuer high end cores. Es gibt wohl schon einen Grund weil keiner bis jetzt custom cores im low end benutzt Apple inklusive,.

Wenn der Markt in Zulunft sich so stark etabliert kann Apple wohl daran denken und dafuer wohl eher mit hypothetischen 64bit cores. Gegen A53 gibt es einiges zu verbessern, gegen A7 sieht es eher grau aus ueberhaupt fuer perf/mm2.

mboeller
2015-07-30, 09:47:53
Meinst du für den S2? Wohl eher 14/16 nm. 22FDX braucht länger und ist nicht besser.

nein! -> siehe die 22FDX-Präsentation

robbitop
2015-07-30, 10:18:19
Stimmt. Für diesen Anwendungsfall. Problem ist nur, dass 22FDX deutlich später kommt als 14/16nm.
Wird es noch einen Nachfolgeprozess mit FD-SOI geben? Idealerweise dann mit FinFETs?

deekey777
2015-08-09, 11:53:21
Septermber naht, also kommt das Event-Ratespiel, aktuell ist es der 9. Septmber:
Apple expected to unveil 'iPhone 6s,' new Apple TV on Sept. 9 (http://appleinsider.com/articles/15/08/07/apple-expected-to-unveil-iphone-6s-new-apple-tv-on-sept-9)

Was ist der aktuelle Stand, was den A9 angeht? 3*Tornado+ und Grafikeinheit des A8X oder 7er Serie?

Mir ist das eigentlich egal, mich interessiert Apple TV.

mczak
2015-08-09, 18:01:40
Was ist der aktuelle Stand, was den A9 angeht? 3*Tornado+ und Grafikeinheit des A8X oder 7er Serie?

Also bei apple weiss man ja wirklich gar nicht was da kommt. Aber bei der GPU müsste es eigentlich 7er Serie sein - das passt auch vom Zeitpunkt der Ankündigung durch PowerVR perfekt. Der GT7400 wäre da die logische Wahl, allerdings unterhalb dessen anzusiedeln was im A8X steckt (auch wenn da wohl höherer Takt drinliegt). Vielleicht wird's ja ein GT7600 - dagegen spricht vor allem dass PowerVR selbst den eigentlich nur für Tablets vorsieht.
Bei den CPU-Kernen dürfte eine Weiterentwicklung der Cyclone/Tornado oder wie auch immer die jetzt heissen sehr wahrscheinlich sein. In welche Richtung genau die sich ändern hat wohl keiner ausserhalb apple eine Idee - höherer Takt, Multithreading, oder einfach etwas IPC-optimiert... Ich bin da vorsichtig mit Spekulationen, und sage einfach mal mehr als 4 Kerne werden es sicher nicht :-).

smalM
2015-08-10, 10:25:06
Mir ist das eigentlich egal, mich interessiert Apple TV.

Ist nicht der A8 der neue A5?

AffenJack
2015-08-10, 11:46:41
Also bei apple weiss man ja wirklich gar nicht was da kommt. Aber bei der GPU müsste es eigentlich 7er Serie sein - das passt auch vom Zeitpunkt der Ankündigung durch PowerVR perfekt. Der GT7400 wäre da die logische Wahl, allerdings unterhalb dessen anzusiedeln was im A8X steckt (auch wenn da wohl höherer Takt drinliegt).

Unterhalb des A8X wäre durchaus auch zu erwarten, da A8X einfach nen ungemein großer Sprung war. Davor waren die Tablets näher an der Handyleistung. GT7400 plus leicht mehr Takt hört sich schon ganz richtig an. Damit landet man dann auch bei 60-80% über dem A8. Oder doch 7600 mit weiterhin sehr niedrigem Takt, aber glaube ich weniger. Dazu würde ich dann weiterhin nur 2 CPU-Kerne erwarten, dann aber mit entweder höherer IPC oder Takt. Aber vielleicht überrascht Apple mich mit 3 Kernen, an 4 glaube ich aber nicht. Apple hält seine HandySoCs immer im Bereich um die 100 mm². Ausgehend von A8 und ~15% mehr Transistoren auf gleicher Fläche durch Finfet sind ~30% mehr Transistoren zu erwarten. Da ist das Budget für zu große Sprünge auch zu knapp.

BigKid
2015-08-10, 12:28:12
Unterhalb des A8X wäre durchaus auch zu erwarten, da A8X einfach nen ungemein großer Sprung war. Davor waren die Tablets näher an der Handyleistung. GT7400 plus leicht mehr Takt hört sich schon ganz richtig an. Damit landet man dann auch bei 60-80% über dem A8. Oder doch 7600 mit weiterhin sehr niedrigem Takt, aber glaube ich weniger. Dazu würde ich dann weiterhin nur 2 CPU-Kerne erwarten, dann aber mit entweder höherer IPC oder Takt. Aber vielleicht überrascht Apple mich mit 3 Kernen, an 4 glaube ich aber nicht. Apple hält seine HandySoCs immer im Bereich um die 100 mm². Ausgehend von A8 und ~15% mehr Transistoren auf gleicher Fläche durch Finfet sind ~30% mehr Transistoren zu erwarten. Da ist das Budget für zu große Sprünge auch zu knapp.
Schon interessant wie wichtig es auch im Handy und Tablet bereich ist immer den schnellsten zu haben...
Dabei wären Themen wie Ausdauer für den Normalverbraucher eigentlich viel wichtiger... Bling bling hin oder her - aber am Ende wäre mir ein Handy mit dem ich auch mal länger was tun (=Zocken) kann wichtiger... Aber vlt. bin ich auch zu alt für sowas... Wenn zB ein A8 auf Wunsch einem Spiel gegenüber so tun könnte als wäre er ein A6 und dabei einfach mal nur noch halb so viel verbraucht - DAS wäre imho mal cool... Ich bin immer wieder barsch erstaunt wieviel das bei meinem Gaming Notebook ausmacht die FPS auf 30 festznageln und auf ein bisschen Grafikquali in einem Spiel zu verzichten... Da sind locker 1.5 - 2 mal solange Laufzeiten drinn...

mczak
2015-08-10, 17:25:23
Wenn zB ein A8 auf Wunsch einem Spiel gegenüber so tun könnte als wäre er ein A6 und dabei einfach mal nur noch halb so viel verbraucht - DAS wäre imho mal cool...
Das ist ein reines Softwareproblem, von der Hardware her gibt es da keine Hindernisse.

deekey777
2015-08-10, 18:19:02
Ist nicht der A8 der neue A5?
Irgendwie schon.

robbitop
2015-08-11, 08:16:44
Mich würde es nicht wundern, wenn Apple eine neue µ-Arch aus dem Hut zaubert mit A9 oder A10.
Sie scheinen ja 2 große CPU Teams zu haben.

basti333
2015-08-11, 17:37:38
Mich würde es nicht wundern, wenn Apple eine neue µ-Arch aus dem Hut zaubert mit A9 oder A10.
Sie scheinen ja 2 große CPU Teams zu haben.


Müssen aber auch 2 bzw. 3 SoCs Linien bedienen. A, AX und neuerdings S.

robbitop
2015-08-12, 11:08:06
A und AX verwenden aber die gleichen IP Blöcke. Insofern ist es für das CPU Team ziemlich irrelevant. Die S-Reihe verwendet Standard ARM IP (Cortex A7).

Ailuros
2015-08-17, 17:59:38
Wenn ein GT7400/quad 7XT zumindest um 50% schneller ist als der heutige GX6450, brauchen sie nicht mehr clusters fuer A9. Bei gleicher Frequenz wie im A8 waere damit ein smartphone/A9 SoC bei ungefaehr +/- 30 fps in Manhattan/3.0 (sustained) welches im Vergleich zu allem anderen dass momentan herumschwirrt und beliebig throttelt durchaus konkurrenzfaehig ist (iPhone6 Plus/Metal = 20.8 fps, Adreno430/smartphone = 24.9 fps heute....). Alles natuerlich unter der Vorraussetztung dass "A9" ein smartphone SoC und "A9X" ein tablet SoC sein wird.

Ich zietiere mich mal selber aus der Vergangenheit: http://vr-zone.com/articles/apple-iphone-6s-gfxbench-scores-suggest-best-class-graphics-performance/97182.html

Sonst:

In addition to the A9 Graphics benchmark, the post on Weibo also revealed the CPU performance of the A9X chipset. Since the iPad Air 3 is not likely to debut this year, it could perhaps be used on the 12.9-inch iPad model. The chip manages to post an impressive 2109 in the single-core test and 5101 in the multi-core test.

:wink:

AffenJack
2015-08-17, 19:20:02
Schau lieber was die Quelle dafür ist. Der User da im Thread will nicht nur A9X Performance wissen, sondern hat im gleichen Augenblick auch Exynos M1 Custom Core Resultate sowie Nv Parker. Das ist mir doch zuviel des Guten.

Nichtsdestotrotz ist das auch in etwas meine Leistungseinschätzung für das Ding.

mboeller
2015-08-17, 20:34:19
Sonst:


n addition to the A9 Graphics benchmark, the post on Weibo also revealed the CPU performance of the A9X chipset. Since the iPad Air 3 is not likely to debut this year, it could perhaps be used on the 12.9-inch iPad model. The chip manages to post an impressive 2109 in the single-core test and 5101 in the multi-core test.


:wink:


so lahm? ;)

http://www.gsmarena.com/huawei_kirin_950_tops_geekbench_score_chart_specs_confirmed-news-13586.php

single-core: 1909
multi-core: 6096

deekey777
2015-08-17, 21:05:33
Letzte Woche hatte der A9 nur ein GB RAM, jetzt sind wir bei zwei. Ein GB Zuwachs pro Woche, am 9. September sind wir bei mindestens vier.

Demirug
2015-08-17, 22:00:02
Letzte Woche hatte der A9 nur ein GB RAM, jetzt sind wir bei zwei. Ein GB Zuwachs pro Woche, am 9. September sind wir bei mindestens vier.

Je mehr Apple in Richtung Multiapp geht desto mehr physikalischen RAM brauchen sie nun auch wirklich da ja ihre "Softram" Lösung dadurch immer weniger effizient wird.

mboeller
2015-08-18, 07:30:26
Letzte Woche hatte der A9 nur ein GB RAM, jetzt sind wir bei zwei. Ein GB Zuwachs pro Woche, am 9. September sind wir bei mindestens vier.

eher umgekehrt:

http://www.phonearena.com/news/Geekbench-3-test-shows-1GB-of-RAM-on-the-Apple-iPhone-6s-Plus_id72619

siehe update am Ende des Artikels.

Ailuros
2015-08-18, 08:08:50
Schau lieber was die Quelle dafür ist. Der User da im Thread will nicht nur A9X Performance wissen, sondern hat im gleichen Augenblick auch Exynos M1 Custom Core Resultate sowie Nv Parker. Das ist mir doch zuviel des Guten.

Nichtsdestotrotz ist das auch in etwas meine Leistungseinschätzung für das Ding.

Weibo wo man sich registrieren muss oder verpass ich etwas? Parker hatte schon seit langem seinen tape out, ergo wundert es mich eher dass es noch keine kunterbunten leaks gibt oder NV haelt mit Absicht die Klappe weil es eben nichts Beinbrechendes zu berichten gibt.

so lahm? ;)

http://www.gsmarena.com/huawei_kirin_950_tops_geekbench_score_chart_specs_confirmed-news-13586.php

single-core: 1909
multi-core: 6096

Wach mich wieder auf wenn es Huawei schafft bessere sw Platformen zu meistern als Mediatek. Deren hw, Geraete und deren Verarbeitungsqualitaet ist zwar relativ gut aber fuer den Preis die sie fuer die Dinger verlangen ist die unterliegende sw eine absolute Frechheit ueberhaupt wenn sich Huawei selber als das "Apple" vom fernen Osten ansehen will. Dafuer ist der Weg noch verdammt lang.....

robbitop
2015-08-18, 09:30:39
Wenn die Gerüchte stimmen und A9/x mit 2 GHz CPU Takt läuft, ist der Single Core (GB3) Score nicht besonders beeindruckend. Typhoon (A8) hat einen Single Core Score von 1620 bei 1,4 GHz.
Entspräche also keiner linearen Skalierung mit dem Takt.

Wenn man allerdings entgegen den Gerüchten weiterhin niedrig taktet, ist der Sprung schon beeindruckend.

AffenJack
2015-08-18, 12:55:00
Weibo wo man sich registrieren muss oder verpass ich etwas? Parker hatte schon seit langem seinen tape out, ergo wundert es mich eher dass es noch keine kunterbunten leaks gibt oder NV haelt mit Absicht die Klappe weil es eben nichts Beinbrechendes zu berichten gibt.


Man muss sich da nicht registrieren, ja der Weibo ist die Quelle des ganzen. Zusammenfassend diese Grafik aus dem Thread:
http://ww4.sinaimg.cn/bmiddle/006bWoNYjw1ev0z9waayuj30zj14ndm0.jpg

Edit:
Keine Ahnung, von manchen Rechnern kann ich zugreifen, von anderen nicht.
Sonst gibts da noch A9 Werte für Geekbench und angebliche Tegra GFX3.0 Manhatten Werte.

deekey777
2015-08-19, 16:24:53
Die allwöchentlichen Gerüchte zu iPad Pro:
http://appleinsider.com/articles/15/08/19/apples-mythical-ipad-pro-allegedly-spotted-in-ios-app-analytics
https://www.appsee.com/blog/technology/the-ipad-pro-is-real-and-its-size-is-2048x2732
2,048×2,732 für Pro? Etwas wenig für 12,9 Zoll. Egal, dafür ist eine höhere GPU-Leistung nötig. Der A8X ist ja alles andere als schwach, aber Series 7?
Hier "Vermutungen": http://appleinsider.com/articles/15/08/19/force-touch-input-on-ipad-pro-expected-to-come-from-new-apple-stylus-launching-this-fall

robbitop
2015-08-19, 16:38:01
Die DPI nimmt mit der Displaygröße bei Apple ab, weil man das Gerät weiter weg hält. :)

Ailuros
2015-08-20, 09:24:15
Die allwöchentlichen Gerüchte zu iPad Pro:
http://appleinsider.com/articles/15/08/19/apples-mythical-ipad-pro-allegedly-spotted-in-ios-app-analytics
https://www.appsee.com/blog/technology/the-ipad-pro-is-real-and-its-size-is-2048x2732
2,048×2,732 für Pro? Etwas wenig für 12,9 Zoll. Egal, dafür ist eine höhere GPU-Leistung nötig. Der A8X ist ja alles andere als schwach, aber Series 7?
Hier "Vermutungen": http://appleinsider.com/articles/15/08/19/force-touch-input-on-ipad-pro-expected-to-come-from-new-apple-stylus-launching-this-fall

Es ist ueberhaupt keine hoehere GPU Leistung noetig fuer den Quark an mobilen Spielen die herumschwirren. Dass sie eine staerkere GPU liefern werden ist selbstverstaendlich um auch den ziemlich hohen Strassenpreis von dem Ding zu gerechtfertigen. Mehr als ca. 50% Mehrleistung erwarte ich von der A9X GPU sowieso nicht im Vergleich zum A8X, welches auch nicht den Tag retten wuerde wenn die GPU Leistung wirklich unausreichend beim letzteren waere.

Wenn's nur ums GUI geht reichen 2 TMUs@500MHz schon vollkommen aus sogar fuer =/>4k; bei der A8X GPU sind es 8x Mal so viel TMUs.

robbitop
2015-08-20, 09:27:32
Du erwartest nur +50%? Das wäre aber ziemlich mickrig. War doch bisher fast jedes mal fast eine Verdopplung der Leistung bisher.

Sunrise
2015-08-20, 09:36:17
Für mich klingt das alles bisher auch nicht nach einem sonderlich großen Sprung, erst recht nicht wenn die ~2.0GHz beim A9/A9X stimmen sollten.

Man hat dieses Mal aber auch einen Prozess, der sowohl mehr Takt als auch Fläche erlaubt, womit man automatisch erwarten könnte, dass hier am Takt etwas nach oben gedreht wird, weil die Cores auch schon ziemlich fett sind. Vorher musste man da vorsichtiger sein, man hatte vor allem mehr Fläche, aber höherer Takt war eher kritisch.

Es könnte wirklich sein, dass erst der A10/A10X wirklich Neues bringt, was aber auch untypisch für Apple wäre, denn der A7 brachte Cyclone und das war bekanntlich das 5s.

AffenJack
2015-08-20, 10:27:35
Man hat dieses Mal aber auch einen Prozess, der sowohl mehr Takt als auch Fläche erlaubt, womit man automatisch erwarten könnte, dass hier am Takt etwas nach oben gedreht wird, weil die Cores auch schon ziemlich fett sind. Vorher musste man da vorsichtiger sein, man hatte vor allem mehr Fläche, aber höherer Takt war eher kritisch.

Es könnte wirklich sein, dass erst der A10/A10X wirklich Neues bringt, was aber auch untypisch für Apple wäre, denn der A7 brachte Cyclone und das war bekanntlich das 5s.

14FF erlaubt vor allem Takt. Fläche sinds nur ~15%. Man kann nicht jedes mal eine Verdopplung der Leistung erwarten, wenn der Prozess nur alle 2 Generationen verkleinert wird. Auch A10/A10X wird noch auf 14nm sein. Wenn da also noch Leistung draufkommen soll in der nächsten Generation kann man nicht an die Grenzen des Prozesses/Verbrauchs gehen.

Ailuros
2015-08-20, 10:51:17
Du erwartest nur +50%? Das wäre aber ziemlich mickrig. War doch bisher fast jedes mal fast eine Verdopplung der Leistung bisher.

1. Ist die GPU Leistung der A8X GPU ohnehin schon im relativen Sinn ueberdimensional fuer ein ultra thin tablet.
2. Siehe Affenjack's Beitrag oben fuer den Prozess.
3. "Nur" +50% sind wohl ein Witz im Angesicht dass wir um einen ~60fps score in Manhattan3.0 offscreen reden.

Sunrise
2015-08-20, 11:07:54
Auch A10/A10X wird noch auf 14nm sein. Wenn da also noch Leistung draufkommen soll in der nächsten Generation kann man nicht an die Grenzen des Prozesses/Verbrauchs gehen.
Das kann man schon, wenn man davon ausgeht, dass A10/A10X nichtmehr Cyclone bzw. Typhoon(+) sind. Deshalb nutzt man ja jetzt den Takt-Spielraum aus, weil es wohl nochmal ein Zwischenschritt mit bekannter Architektur wird, bevor man Größeres ändert.

Du glaubst doch nicht, dass 2.0GHz (sollte es stimmen) ein konservativer Takt für 16nm/14nm ist, wenn Apple bisher 1.3GHZ/1.4GHz maximal angelegt hatte. Da muss spätestens mit A10/A10X definitiv mehr kommen, als nur den restlichen Spielraum zu nutzen.

Der A8X war eben ein verdammt fettes Teil in jeder Hinsicht, da wären +50% auch schon locker ausreichend, selbst beim iPad Pro. Beim A9 erwarte ich aktuell nur noch einen verbesserten A8 mit deutlich mehr Takt und Series 7XT, das sind zumindest die Anzeichen. Die Dinger sind jetzt auch nicht wirklich langsam, insofern reicht das aus.

Ist ja nichtmehr lange, noch ein paar Wochen.

James Ryan
2015-08-20, 11:14:00
Erwartet hier wirklich jemand 2 GHz für den A9 aufgrund des extrem schlecht gefakten Screenshots, wo Apple A9 als SoC angezeigt wurde?:freak:

1,5 GHz und 3 Kerne mit 2 GB RAM für den A9 sollten realistisch sein.

MfG :cool:

Ailuros
2015-08-20, 11:18:08
Sie reden ueber A9X fuers tablet fuer ca. Weihnachten und nicht fuers naechste iPhone/A9.

Sonst taktet die triple CPU im A8X bis zu 1.5GHz; hypothetisch sind 2.0GHz ~33% mehr (was aber nicht heissen soll dass es mir nichts dir nichts 2.0 GHz sein muessen...).

smalM
2015-08-20, 11:30:35
Zur Echtheit der Tabelle meint John Poole (https://mobile.twitter.com/jfpoole/status/632066813380165632)

robbitop
2015-08-20, 11:49:17
Mit einem Triple Core im A9 ist es nicht getan. Der bringt ja nicht unmittelbar mehr spürbare Leistung. Erst wenn die Software nachgezogen ist. IMO sollte schon ein gewisser Sprung in der Leistung aus Takt und/oder IPC kommen. Ich könnte mir vorstellen, dass das SWIFT Team jetzt mit seinem "Tock" dran ist. Typhoon sieht nämlich nach einem "Tick" (Refresh) von Cyclone aus.

Ich kann mir gut vorstellen, dass Swift, Cyclone und Typhoon für geringe Taktraten ausgelegt worden sind und bei einer signifikanten Taktsteigerung anfangen würden wie Schluckspechte zu saufen. :)
Wenn ein FinFET Prozess energieeffizient höhere Taktraten zulassen würde, würde es ggf. Sinn machen, die neue "Tick"-µ-Arch auch für etwas höhere Taktraten auszulegen.

Am Ende muss man sich fragen, wie viel an IPC Steigerung noch drin ist, eh man zu sehr in den Bereich des sinkenden Grenzertrags kommt.

deekey777
2015-08-20, 12:01:42
Es ist ueberhaupt keine hoehere GPU Leistung noetig fuer den Quark an mobilen Spielen die herumschwirren. Dass sie eine staerkere GPU liefern werden ist selbstverstaendlich um auch den ziemlich hohen Strassenpreis von dem Ding zu gerechtfertigen. Mehr als ca. 50% Mehrleistung erwarte ich von der A9X GPU sowieso nicht im Vergleich zum A8X, welches auch nicht den Tag retten wuerde wenn die GPU Leistung wirklich unausreichend beim letzteren waere.

Wenn's nur ums GUI geht reichen 2 TMUs@500MHz schon vollkommen aus sogar fuer =/>4k; bei der A8X GPU sind es 8x Mal so viel TMUs.

Hat Apple mit dem A9X weiterhin den Längsten?

Demirug
2015-08-20, 12:18:02
Es ist ueberhaupt keine hoehere GPU Leistung noetig fuer den Quark an mobilen Spielen die herumschwirren.

Ich würde ja gerne mehr GPU Leistung nutzen. Das Problem ist nur das

1. Der Akku das nicht lange mitmacht.

2. Die Geräte dabei verdammt heiß werden.

Entsprechend muss ich mich da zurückhalten. Ein anderes Problem ist das Apple einen zwingt auch relativ alte Geräte zu Unterstützen weil man im Store die Freigabe nicht genau genug regeln kann.

urpils
2015-08-20, 17:13:24
Ich würde ja gerne mehr GPU Leistung nutzen. Das Problem ist nur das

1. Der Akku das nicht lange mitmacht.

2. Die Geräte dabei verdammt heiß werden.

Entsprechend muss ich mich da zurückhalten. Ein anderes Problem ist das Apple einen zwingt auch relativ alte Geräte zu Unterstützen weil man im Store die Freigabe nicht genau genug regeln kann.

mit iOS9 kannst du auf 64bit-Geräte beschränken - das sollte doch was bringen, oder?

Demirug
2015-08-20, 21:55:19
mit iOS9 kannst du auf 64bit-Geräte beschränken - das sollte doch was bringen, oder?

Das löst aber nicht das Hitze und Akku Problem.

urpils
2015-08-20, 22:06:08
Das löst aber nicht das Hitze und Akku Problem.

nein das natürlich nicht - ich bezog mich darauf, dass man damit zumindest die Geräte etwas mehr einschränken kann...

Godmode
2015-08-20, 22:34:43
Ein anderes Problem ist das Apple einen zwingt auch relativ alte Geräte zu Unterstützen weil man im Store die Freigabe nicht genau genug regeln kann.

Was ist für dich relativ alt? Wenn man nur iOS8+ Geräte targeted, ist das iPhone 4S das älteste Device.

Demirug
2015-08-21, 02:31:14
Was ist für dich relativ alt? Wenn man nur iOS8+ Geräte targeted, ist das iPhone 4S das älteste Device.

iPad 2 ist noch etwas älter. Und ja fast 4 Jahre ist relative alt im Mobile bereich.

Ailuros
2015-08-21, 08:43:50
Ich würde ja gerne mehr GPU Leistung nutzen. Das Problem ist nur das

1. Der Akku das nicht lange mitmacht.

2. Die Geräte dabei verdammt heiß werden.

Entsprechend muss ich mich da zurückhalten. Ein anderes Problem ist das Apple einen zwingt auch relativ alte Geräte zu Unterstützen weil man im Store die Freigabe nicht genau genug regeln kann.

Kein Wunder wenn man alles in einstellige Millimeter dicke Geraete ohne jegliche Kuehlung stecken will und dabei habt Ihr nichtmal unsere verrueckte Temperaturen. Default liegt die CPU im tablet (Android) bei =/>30C und nur mit leichtem browsing (mit Dolphin z.B. der etwas anspruchsloser ist als Chrome) ist man sofort ueber 42C.

Sonst ist die zwangsmaessige Unterstuetzung von aelteren Geraeten zwar ziemlich absurd, aber wenn jemand ein Spiel nur fuer's iPad Air2 oder besser entwickeln wuerde waere das Publikum dafuer auch relativ klein. Lohnt sich dann wirklich so ein Projekt, oder ist in der ISV Welt die Quantitaet ploetzlich irrelevant?


Hat Apple mit dem A9X weiterhin den Längsten?

Ausser NV schafft es Parker in ein ultra thin tablet zu quetschen, wohl ja. Ist aber so oder so wurscht, denn tablets liegen fuer die absehbare Zukunft sowieso flach. Was Apple eigentlich brauchen wuerde ist ein gigantisches smartphone in der Form eines 6.5-7" phablets. Duerfte nicht schwer sein, man kann lediglich das iPad mini schrumpfen. Man kann es eventuell dann auch iPhone Maxi nennen :P

Ich hab mir selber das Ding hier http://www.tinydeal.com/huawei-honor-x2-7-android-50-16gb-4g-phablet-smart-casefilm-p-152009.html mal naeher angeschaut. Fuer den Preis hat es leider zu viele Macken und mit unter den beschissensten LTPS displays die ich je gesehen habe. Der Trend der absehbaren Zukunft liegt aber schon in dem Bereich, eben fuer Leute die es schaffen mit einem 7" Brummer zu telefonieren :rolleyes:

Demirug
2015-08-21, 10:53:55
Kein Wunder wenn man alles in einstellige Millimeter dicke Geraete ohne jegliche Kuehlung stecken will und dabei habt Ihr nichtmal unsere verrueckte Temperaturen. Default liegt die CPU im tablet (Android) bei =/>30C und nur mit leichtem browsing (mit Dolphin z.B. der etwas anspruchsloser ist als Chrome) ist man sofort ueber 42C.

Das Gesamtkonzept ist inzwischen völlig aus dem Ruder gelaufen.

Sonst ist die zwangsmaessige Unterstuetzung von aelteren Geraeten zwar ziemlich absurd, aber wenn jemand ein Spiel nur fuer's iPad Air2 oder besser entwickeln wuerde waere das Publikum dafuer auch relativ klein. Lohnt sich dann wirklich so ein Projekt, oder ist in der ISV Welt die Quantitaet ploetzlich irrelevant?

Quantität ist schon wichtig. Es ist allerdings auch so das je älter die Hardware ist desto weniger sind die Leute bereit noch zusätzlich Geld auszugeben. Jetzt könnte man natürlich die älteren Geräte einfach nicht mehr unterstützen. Das Problem dabei ist nur das man dann unzählige 1 Stern Wertungen deswegen bekommt. Es bringt auch nicht in die Beschreibung einen entsprechenden Hinweiß zu setzen. Die liest nämlich scheinbar so gut wie keiner.

Ailuros
2015-08-21, 11:40:00
Das Gesamtkonzept ist inzwischen völlig aus dem Ruder gelaufen.

Das Verbrauchs-problem koennte man irgendwie quer schon loesen, das Problem der Hitze eben nicht. Dementsprechend duerfte es kein smartphone bzw. tablet dass seine peak (synthetische) Leistung je ueber laengere Zeit einhalten kann. Das ist nichts wirklich Neues und es wird sich wohl schwer etwas daran aendern, ueberhaupt wenn ueberhaupt smartphones konstant duenner werden "muessen".

Quantität ist schon wichtig. Es ist allerdings auch so das je älter die Hardware ist desto weniger sind die Leute bereit noch zusätzlich Geld auszugeben. Jetzt könnte man natürlich die älteren Geräte einfach nicht mehr unterstützen. Das Problem dabei ist nur das man dann unzählige 1 Stern Wertungen deswegen bekommt. Es bringt auch nicht in die Beschreibung einen entsprechenden Hinweiß zu setzen. Die liest nämlich scheinbar so gut wie keiner.

Ist zwar OT aber jegliches online rating (so wie es in ALLEN Branchen heutzutage laeuft) bringt absolut und niemand gar nichts. Leider eine Plage der wohl keine Firma heutzutage entgehen kann.

BigKid
2015-08-25, 11:04:57
Der Trend der absehbaren Zukunft liegt aber schon in dem Bereich, eben fuer Leute die es schaffen mit einem 7" Brummer zu telefonieren :rolleyes:
Ich habe das wirklich lange nicht verstanden bis es bei mir vor kurzem "klick" gemacht hat mit folgender Erkenntnis: Was macht man den heute am häufigsten mit seinem Handy ? Antwort: Es ist eben NICHT telefonieren... Insofern ist der Komfortgewinn durch größeres Display und evtl. auch längere Laufzeiten wichtiger... Und sorum betrachtet habe ich da dann "plötzlich" Verständnis für entwickelt... Ich denke sogar selbst drüber nach... Denn auch bei mir ist telefonieren das geworden was ich am seltensten mit dem Ding mache...

urpils
2015-08-25, 12:08:41
Ich habe das wirklich lange nicht verstanden bis es bei mir vor kurzem "klick" gemacht hat mit folgender Erkenntnis: Was macht man den heute am häufigsten mit seinem Handy ? Antwort: Es ist eben NICHT telefonieren... Insofern ist der Komfortgewinn durch größeres Display und evtl. auch längere Laufzeiten wichtiger... Und sorum betrachtet habe ich da dann "plötzlich" Verständnis für entwickelt... Ich denke sogar selbst drüber nach... Denn auch bei mir ist telefonieren das geworden was ich am seltensten mit dem Ding mache...

ich weiß ja nicht, wie die anderen es machen, aber zumindest ich telefoniere ausschließlich über das Headset, sodass mir theoretisch die Smartphonegröße nicht so wichtig wäre - aber dennoch: die Möglichkeit ein 7" Gerät bequem mitzunehmen ist doch eher selten...

Sunrise
2015-09-09, 19:27:14
iPad Pro - A9X

1.8X vs. A8X (CPU)
2.0X vs. A8X (GPU)
2.0X vs. A8X (BW)

Holy shit... was ein Monster (Akku is ja gigantisch diesmal)

smalM
2015-09-09, 19:44:08
Macht aber nur ca. 10% mehr Grafikleistung als im iPad Air 2, bezogen auf die Anzahl der Pixel...

Grrr, tatsächlich kein iPad Air 3.
Das stand eigentlich auf meiner Einkaufsliste für diesen Herbst!
Genau so eine Fehlentscheidung seitens Apple wie das Murks-Update vom iPad Mini 2 zum 3...
Da sollte wohl das Pro besonders gut aussehen.

AffenJack
2015-09-09, 20:13:54
iPad Pro - A9X

1.8X vs. A8X (CPU)
2.0X vs. A8X (GPU)
2.0X vs. A8X (BW)

Holy shit... was ein Monster (Akku is ja gigantisch diesmal)

Meine Spekulation
CPU = Quad Core =1,33 x 1,1(IPC) x 1,25 (Takterhöhung)
So in etwa, wobei gab ja Spekulationen über 2ghz beim A9X oder? Das würde auch passen, dann würde die IPC aber nicht weiter steigen. Außer Apple überrascht wieder mit nem 3Kerner.
GPU = 8 Cluster GT7800 mit mehr Takt.

Mal gucken was beim 6S so stehen wird.

Sunrise
2015-09-09, 20:15:50
Meine Spekulation
CPU = Quad Core =1,33 x 1,1(IPC) x 1,25 (Takterhöhung)
So in etwa, wobei gab ja Spekulationen über 2ghz beim A9X oder? Das würde auch passen, dann würde die IPC aber nicht weiter steigen. Außer Apple überrascht wieder mit nem 3Kerner.
GPU = 8 Cluster GT7800 mit mehr Takt.

Mal gucken was beim 6S so stehen wird.Ja, auf den A9 bin ich jetzt auch gespannt...

Ravenhearth
2015-09-09, 20:32:22
Sie haben beim A9X und ipad Pro nichts zum RAM gesagt. Das bedeutet wohl weiterhin nur 2GB. Nicht gerade "pro".

deekey777
2015-09-09, 20:36:39
Sie haben beim A9X und ipad Pro nichts zum RAM gesagt. Das bedeutet wohl weiterhin nur 2GB. Nicht gerade "pro".
Hat Apple je etwas zu RAM oder GHz gesagt?

smalM
2015-09-09, 20:37:34
Ich frage mich, ob die Aufnahme, die Phil Schiller gezeigt hat, wirklich einen A9X gezeigt hat.
Dann würde dem nämlich der Heatspreader fehlen, den die X-Versionen sonst bisher brauchten.

@dekey777
Ich glaube mich zu entsinnen, daß bei der Vorstellung des A8X die 2GB explizit genannt wurden. Fehlerinnerung, kein Piep zum RAM!

AffenJack
2015-09-09, 20:43:33
Sie haben beim A9X und ipad Pro nichts zum RAM gesagt. Das bedeutet wohl weiterhin nur 2GB. Nicht gerade "pro".

Ram wurde eigentlich nie erwähnt, aber man wechselt von Lpddr3 zu Lpddr4.
Bei 128 Bit braucht man 4 Bausteine und 8Gbit ist die kleinste Lpddr4 Größe die es gibt. Dementsprechend 4Gb beim Pro. Bei den Iphones mit 64Bit dann halt 2Gb Ram.

Ravenhearth
2015-09-09, 20:43:48
Hat Apple je etwas zu RAM oder GHz gesagt?

Jetzt wo dus sagst... war sogar beim A8X nicht der Fall. Warum eigentlich nicht? Wenn sie mit Leistungsangaben um sich werfen, können sie doch auch den RAM nennen. :confused: Ich hoffe jedenfalls auf 3 oder 4GB im A9X und 2GB im A9. Alles andere wäre lächerlich - wieder einmal.

Sunrise
2015-09-09, 20:44:38
iPhone - A9

1.7X vs. A8 (CPU)
1.9X vs. A8 GPU)

Sieht gut aus..

iFanatiker
2015-09-09, 20:47:03
M9 nun integriert im im SoC und immer an?

Ravenhearth
2015-09-09, 21:03:35
Jop.

Ailuros
2015-09-09, 21:18:36
Macht aber nur ca. 10% mehr Grafikleistung als im iPad Air 2, bezogen auf die Anzahl der Pixel...



3d muss nicht unbedingt in der nativen Aufloesung laufen und fuer alles andere liegt jeglicher dieser GPUs seit A8X im brutalen Ueberfluss fuer jegliches UI selbst fuer 4k.

y33H@
2015-09-09, 21:23:42
Ram wurde eigentlich nie erwähnt, aber man wechselt von Lpddr3 zu Lpddr4. Bei 128 Bit braucht man 4 Bausteine und 8Gbit ist die kleinste Lpddr4 Größe die es gibt. Dementsprechend 4Gb beim Pro. Bei den Iphones mit 64Bit dann halt 2Gb Ram.Stimmt rechnerisch, es gibt aber auch 6 GBit Chips.

Sunrise
2015-09-09, 22:05:51
Sagt mal, mir fällt grad auf, dass Apple nichts von neuer Transistor Tech. beim A9X im Gegensatz zum A9 erwähnt hat... Das wurde beim A9 extra rausgestellt, eigenartig...

basti333
2015-09-09, 22:21:22
Sagt mal, mir fällt grad auf, dass Apple nichts von neuer Transistor Tech. beim A9X im Gegensatz zum A9 erwähnt hat... Das wurde beim A9 extra rausgestellt, eigenartig...

Das ganze Event war ja extrem gestaucht und Technische Details werden ja eh immer weniger hervorgehoben.

smalM
2015-09-09, 22:27:35
Ich habe mir das Bild vom A9X noch einmal angeguckt; ich denke jetzt, das könnte tatsächlich ein Originalbild sein.
Kein Heatspreader --> 1xFF Prozeß.
Sie haben diesesmal auch nichts zu den Anzahlen der Transistoren gesagt, das wurde das letzte Mal auch noch groß rausgestrichen.

AffenJack
2015-09-09, 22:31:13
Stimmt rechnerisch, es gibt aber auch 6 GBit Chips.

Na ok, aber dann muss die Rammenge zumindest etwas ansteigen. Hatte bisher nur von 8Gbit gehört, aber stimmt Samsung macht auch 6Gbit. Micron wohl nur 8 Gbit.

Sagt mal, mir fällt grad auf, dass Apple nichts von neuer Transistor Tech. beim A9X im Gegensatz zum A9 erwähnt hat... Das wurde beim A9 extra rausgestellt, eigenartig...
Laut Anandtech ham sie gesagt, dass es ne "New Transistor architecture" ist.

Ravenhearth
2015-09-09, 22:35:26
Wenn sie annähernd die doppelte Leistung des A8 in ein Handy quetschen wollen, dann geht es ohne FitFet auch nicht.

Sunrise
2015-09-09, 22:58:51
Laut Anandtech ham sie gesagt, dass es ne "New Transistor architecture" ist.
Dann haben sie das wieder exclusiv von irgendwo her, hab nämlich grad das Replay an, da wird definitiv nichts von new transistor tech beim A9X gesagt....

Aber das es 14nm oder 16nm ist, ist wohl dennoch fast sicher.

Wenn sie annähernd die doppelte Leistung des A8 in ein Handy quetschen wollen, dann geht es ohne FitFet auch nicht.
Ja, wird auch massiv gekauft und die Dinger sind winzig, das rechnet sich bei solchen SoC immer, hat jetzt sogar mich beeindruckt, mit so einer Steigerung hatte ich nicht gerechnet. Beim A9X haut Apple ja schon immer auf die Kacke... sind eben nicht solche Limitierungen auf so engem Raum wie beim Handy....

Nightspider
2015-09-09, 23:48:35
Überraschend...naja...abwarten. Am Ende nur 4 Kerne mit 28% höherer Peak-Taktrate.

YfOrU
2015-09-09, 23:49:22
Das wirklich interessante am A9X im iPad Pro ist das es praktisch der erste ARMv8 SoC sein müsste welcher wirklich im Bereich potenter Intel CPUs landen sollte und aufgrund des Geräteformates (12,9 Zoll) dabei auch noch in einem 1 zu 1 vergleichbaren TDP Rahmen operiert (Skylake, Core M). In erster Linie ist das aber die nächste üble Klatsche für Qualcomm denn Apple zieht die eigene SoC und CPU Entwicklung in einem gnadenlosen Tempo durch wie es sonst nur Intel fertig bringt.

Überraschend...naja...abwarten. Am Ende nur 4 Kerne mit 28% höherer Peak-Taktrate.

Die praktisch einzigen potenten ARM SoCs welche bei längerer konstanter Last nur geringfügig einbrechen sind von Apple. Würde Apple ähnlich aggressive Frequenzen ansetzen wie Samsung oder Qualcomm sähen klassische Benchmarks noch mal ganz anders aus ;)

y33H@
2015-09-09, 23:56:34
Dann haben sie das wieder exclusiv von irgendwo her, hab nämlich grad das Replay an, da wird definitiv nichts von new transistor tech beim A9X gesagt ...Das habe ich mir aber auch notiert, einer der Apple-Typen sagte das.

EDIT
War beim A9, nicht beim A9X.

http://scr3.golem.de/screenshots/1509/Apple-iPhone-6S-Keynote/thumb620/Apple-iPhone-6S-08.jpg

Ravenhearth
2015-09-10, 00:21:01
In erster Linie ist das aber die nächste üble Klatsche für Qualcomm denn Apple zieht die eigene SoC und CPU Entwicklung in einem gnadenlosen Tempo durch wie es sonst nur Intel fertig bringt..

Allerdings landen Apple-Chips für gewöhnlich nicht in Android-Geräten :wink: Apples A9(X) ist somit etwas außer Konkurrenz, was natürlich nicht bedeutet, dass er gänzlich irrelevant wäre. Der wirkliche Maßstab werden wohl Samsungs kommender Exynos und ein paar andere werden.

Unicous
2015-09-10, 00:30:29
Ich hab es leider nicht gesehen, was heißt beim iPad Pro "variable refresh rate"?

http://images.anandtech.com/doci/9614/Apple%20September%202015-161_575px.jpg

Das was ich denke oder nur Stromsparmodus über eDP Spec?

edit.

nvm., ist wohl einfach nur PSR (Panel Self Refrehs), Panel geht auf 30Hz runter bei Inaktivität.

prinz_valium
2015-09-10, 00:45:24
ganz ehrlich. dies ist meine vermutung.

der a9x ist 14ff von samsung
der a9 ist immer noch 20nm von tmsc
(new transistor architecture klingt stark nach intel mit seinem tick/tock - jedenfalls für mich ist eine architektur eine architektur und keine technologie)


alles andere passt imho nicht volumen mäßig. oder woher soll man bis ende des jahres 60 - 80 millionen 14/16nm ff chips herbekommen?

YfOrU
2015-09-10, 00:48:57
Allerdings landen Apple-Chips für gewöhnlich nicht in Android-Geräten :wink: Apples A9(X) ist somit etwas außer Konkurrenz, was natürlich nicht bedeutet, dass er gänzlich irrelevant wäre. Der wirkliche Maßstab werden wohl Samsungs kommender Exynos und ein paar andere werden.

Apple ist objektiv betrachtet der absolute Maßstab für CPUs auf Basis der ARMv8 ISA. ARMs Big.Little ist im direkten Vergleich ein ziemlicher Witz und das kann nicht der Anspruch von Unternehmen wie Samsung oder Qualcomm sein. Beide haben eigene ARMv8 CPU Designs in der Entwicklung aber müssen sich trotzdem bereits in dritter Generation vorführen lassen - als jeweilige Marktführer mit entsprechendem Budget ;)

prinz_valium
2015-09-10, 00:56:09
das ipad pro kommt auch erst im november
es wurde dort erwähnt, dass auch die scheicherbrandbreite und flash brandbreite deutlich erhöt wurde.

ergo könnte man dort auf die neuen lpddr4 chips von samsung setzen.
auch das wird man nicht bei den neuen iphones sehen, da diese deutlich früher und in ganz anderen stückzahlen erscheinen.



geht ihr wirklich davon aus, dass der a9x nur ein aufgebohrter a9 ist? für mich klingt das zur zeit alles am unwahrscheinlichsten.
http://abload.de/img/apple_socf2jnv.png

bei den phone prozessoren verschweigt man auch wie viel schneller die neuen nun sein sollen
irgendwie ist das alles ziemlich misteriös.
dazu kommt noch die tatsache, dass der a9 von den dimensionen größer als der a8 auf den geleakten bildern war

Ravenhearth
2015-09-10, 01:11:54
@YfOrU: Aus technologischer Perpektive hast du natürlich Recht.


ergo könnte man dort auf die neuen lpddr4 chips von samsung setzen.
auch das wird man nicht bei den neuen iphones sehen, da diese deutlich früher und in ganz anderen stückzahlen erscheinen.

Ich gehe von LPDDR4 beim A9 aus, warum auch nicht? Die Kapazitäten sollten nicht das Problem sein.

geht ihr wirklich davon aus, dass der a9x nur ein aufgebohrter a9 ist? für mich klingt das zur zeit alles am unwahrscheinlichsten.

Behauptet wer? Und was verstehst du unter "aufgebohrt"? In der Regel sind die X auf dem gleichen Technik-Stand wie die normalen Chips, nur eben breiter bei CPU, GPU und Speicherinterface und/oder mit höherem Takt. 14nm/16nm halte ich bei beiden für bestätigt.

prinz_valium
2015-09-10, 01:29:12
bei der iphone 6s und a9 präsentation spricht apple von 70% mehr cpu und 90% gpu leistung.

sollte sich das auf den a8 vorgänger beziehen, kommt man bei ingesamt 2.2facher cpu und 3.05 facher gpu leistung im vergleich zu dem a7 raus. die eigenen angaben von apple zum a9x stehen ja oben.


bei der geringen differenz würde das beudeuten der a9x hat cpu seitig nur etwas mehr takt als der a9, aber kerne und alles andere müsste identisch sein

Ravenhearth
2015-09-10, 02:09:23
Bei der Angabe des A8X ggü dem A7 stapelt Apple aber relativ tief, ersterer dürfte schon (beinahe?) durch IPC und Takt 40% schneller sein, aber er hat ja auch noch 3 statt 2 Kerne (der A8 hat 2). Damit scheint auch die A9X-Angabe recht niedrig zu sein.

Ailuros
2015-09-10, 03:53:44
Bei der Angabe des A8X ggü dem A7 stapelt Apple aber relativ tief, ersterer dürfte schon (beinahe?) durch IPC und Takt 40% schneller sein, aber er hat ja auch noch 3 statt 2 Kerne (der A8 hat 2). Damit scheint auch die A9X-Angabe recht niedrig zu sein.

Apple testet die SoCs im Vergleich in ziemlich vielen Applikationen und kommt dann zu diesen Marketing-technischen Unterschieden. Man kann es nur als Indizie sehen, denn 1:1 liegen die Zahlen nicht zu hw Unterschieden. Nebenbei steigt Leistung nie linear bei CPUs bei steigender core-Anzahl, wobei Apple das 1.4x schon beim A8 launch benutzte, ergo Marketing-Gefusel aber konsistent bleibt das Zeug schon fuer eine gewisse Zeit. Alles natuerlich nichts Neues....

Ein Gegenbeispiel zur GPU Seite mit dem Nx Mal Leistung der obrigen Tabelle:

Gfxbench3.0/Metal/1080p offscreen:

A8X = 41.1 fps
A8 = 20.8 fps
A7 = 14.6 fps

Zwar zeigt sich hier die A8 GPU "nur" um 1.42x schneller als die A7 GPU (und nicht 1.6x wie sie angeben), aber der Unterschied zwischen A8X und A7 fuer die GPU sind dann schon hier 2.8x Mal.

In Echtzeit wird wohl auch das iPhone6S Plus um irgendwo =/>40% schneller sein in dem test fuer die GPU im Vergleich zum iPhone6 Plus IMHO.

smalM
2015-09-10, 17:35:02
Meine persönliche Verschwörungstheorie:
Apple hat das iPad Air und Mini vom Update zur A9-Generation ausgenommen, um genügend 16FF+ Kapazität für das iPhone 6s/6s+ zur Verfügung zu haben. Das iPad Pro spielt ob der "geringen" Verkaufsmenge keine Rolle. Air und Mini werden zu einem späteren Zeitpunkt nachgezogen (Wortscase: erst in einem Jahr).

Zu den technischen Angaben der SoCs: Daß etwas nicht erwähnt wurde gestern, hat bei dem Zeitmangel keine größere Bedeutung, weder in positiver noch in negativer Hinsicht.

basti333
2015-09-10, 17:47:10
Meine persönliche Verschwörungstheorie:
Apple hat das iPad Air und Mini vom Update zur A9-Generation ausgenommen, um genügend 16FF+ Kapazität für das iPhone 6s/6s+ zur Verfügung zu haben. Das iPad Pro spielt ob der "geringen" Verkaufsmenge keine Rolle. Air und Mini werden zu einem späteren Zeitpunkt nachgezogen (Wortscase: erst in einem Jahr).

Warum Verschwörungstheorie? Genauso wird es sein.Das iPad pro kommt erst im November und vermutlich auch nur in geringen Stückzahlen. Ich denke das iPad Air wird dann im Frühjahr (zusammen mit einer neuen Uhr?) ein refresh bekommen. Widersprechen würde ich aber beim Mini, das hat aus Marketing-Gründen keinen A9 bekommen. Ist halt das low-cost entry Modell, das Kriegt nicht den aktuellsten SOC.

Avalox
2015-09-10, 17:54:41
Gebt mal einen Tipp ab.

Wie viel der 70% mehr CPU Leistung kommen anteilig auf:

Mehr CPU Kernen
Höherer Takt
Besserer IPC

Nightspider
2015-09-10, 18:58:13
Wie hoch dürfte denn die Speicherbandbreite in etwa ausfallen mit LPDDR4?

Nutzte der A8X Dual Channel? Ich glaube nicht oder? Das war nur beim Tegra der Fall wenn ich mich nicht irre.

Sternenschimmer
2015-09-10, 20:37:35
Memory Interface: 64-bit Dual-channel LPDDR3-1600 (25.6GB/s)

y33H@
2015-09-10, 21:01:12
Dualchannel meint hier 2x 32 Bit.

AffenJack
2015-09-10, 21:40:18
Wie hoch dürfte denn die Speicherbandbreite in etwa ausfallen mit LPDDR4?

Nutzte der A8X Dual Channel? Ich glaube nicht oder? Das war nur beim Tegra der Fall wenn ich mich nicht irre.

Ja, A8X hat 128Bit wie Tegra usw. Ist aber bei Mobile glaube Quad Channel wie y33H@ schon erwähnt, da 32Bit= 1 Channel.
Das Doppelte vom A8X beim A9X halt, dementsprechend 51,2 GB/s. Bei A9 dementsprechend die Hälfte mit 25,6 GB/s.

davidzo
2015-09-10, 23:25:43
256bit SI ist schon ne Hausnummer für ne mobile CPU.
Wenn man bedenkt dass selbst intels 4C/8T Skylakes nur 128bit haben (34gb/s)

Oder gibt es eine andere Möglichkeit wie Apple diese Bandbreite erreicht? edram, GDDR5 oder so?
hochgetakteten ddr4 halte ich für keine option ob des einsatzzwecks (eher lpddr4), zudem sind 3,2Ghz DDR4 module noch recht rar...

AffenJack
2015-09-11, 00:27:35
Es sind keine 256 Bit sondern 128 Bit. Die Bandbreite wird einfach mit LPDDR4 erreicht. Da sürfte 3200 Ram nun Standard werden.

davidzo
2015-09-11, 00:53:44
mir sind nur normale ddr4 3200 module bekannt. lpddr4 gibt es soweit ich weiss erst mit biszu 2133, wo die auslieferung gerade erst begonnen hat - aktuell eingesetzt wird in allen möglichen mobilanwendungen aber bisher nur lpddr4 1600 - das passt dann wieder besser zu 256bit...

eventuell kein low power ram, sondern desktop class RAM? Bei 12.5" und einem riesen Alugehäuse sollte das möglich sein, das surface pro 3 schafft es ja auch irgendwie viel mehr hardware hinein zu stopfen...

Ravenhearth
2015-09-11, 01:19:52
Das macht keinen Sinn. Normaler DDR4 braucht zu viel Strom, von 256 Bit gar nicht zu reden, das Surface Pro 3 hat einen Lüfter. Es sind ganz einfach 4x32 Bit LPDDR4-1600 ("3200"), ergo 51,2 GB/s. Das Galaxy S6 hat bspw. schon 2x32 Bit LPDDR4-1555 mit 24,8 GB/s.

mczak
2015-09-11, 04:19:18
Das macht keinen Sinn. Normaler DDR4 braucht zu viel Strom, von 256 Bit gar nicht zu reden, das Surface Pro 3 hat einen Lüfter. Es sind ganz einfach 4x32 Bit LPDDR4-1600 ("3200"), ergo 51,2 GB/s. Das Galaxy S6 hat bspw. schon 2x32 Bit LPDDR4-1555 mit 24,8 GB/s.
Was eigentlich auch schon eine ganze Menge ist. Ist ja nicht nur Skylake CPU die "nur" 34GB/s hat, auch z.B so ein armer GM108 muss sich mit bloss 14GB/s begnügen (und schlägt sich dabei im Gegensatz zu den 64bit Mars Chips erstaunlich gut).

Ailuros
2015-09-11, 08:11:10
Wenn Ihr einen desktop SoC mit einem ULP SoC vergleichen wuerdet, wuerde es auch noch irgendwie Sinn machen. Jegliche standalone GPU selbst fuer ein low end laptop (mit ihrer eigenen Bandbreite) mit einem jeglichen SoC (wo die vorhandene Bandbreite SoC Bandbreite ist und nicht dedizierte GPU Bandbreite) ist es schon ziemlich schwammig.

Nebu murmelt uebrigens von der Moeglichkeit einer 6 cluster GPU im A9:

https://forum.beyond3d.com/posts/1871015/

Das 7600/A9, 7600*2/A9X war mein erster Gedanke vor geraumer Zeit, nur war ich eher konservativ eingestellt seither. Im ersten Fall und bei vergleichbaren Frequenzen mit heutigen A8/A8X GPUs reicht erstmal die A9 GPU Leistung auf fast A8X Nivaeu.

y33H@
2015-09-11, 09:11:27
Es sind ganz einfach 4x32 Bit LPDDR4-1600 ("3200"), ergo 51,2 GB/s.Ja, auch mein Tipp. 256 Bit wäre zu fett.

robbitop
2015-09-11, 09:35:12
@Ail
Hat IMG nicht wegen Apples Frankenstein "GXA6850" reagiert und mit Serie7 endlich Cluster en masse angeboten?

IIRC war die Skalierung von Frankenstein nicht so toll wie native cluster. Wäre es nicht sinnvoller einen sehr niedrig getakteten 16C zu nehmen (breit statt hohe Frequenz)? Oder aber einen 8C mit etwas höherer Frequenz?

Um ehrlich zu sein habe ich aber auch an 6C für A9 und 2x6C für A9X gedacht seit einer ganzen Weile...

y33H@
2015-09-11, 09:39:42
Geht hoch bis zu 16 Clustern (GT7900).

davidzo
2015-09-11, 09:51:46
die rechnung checke ich nicht ?!

ein 32bit Bus hat doch nur die halbe Bandbreite wie ein 64bit Speicherbus!

Skylake hat 128bit bzw. 2x64bit DDR4 und 34GB/s (bei 2133). bzw. 17GB pro Speicherriegel, der aber wohlgemerkt ja auch 64bit Busbreite hat. Bei 32bit Busbreite sieht das schon ganz anders aus.

Demnach komme ich bei 128bit (4x32) bei 1600mhz auch nur auf 25,6Gb/s - oder hat lpddr4 einen anderen prefetch als DDR4?


EDIT: Habe gerade nachgelesen, LPDDR4 unterscheidet sich erheblich von DDR4 (doppelter prefetch), das war mir nicht bewusst. Dementsprechend schlecht dürften die Latenzen sein, was sich negativ auf die CPU-performance auswirken kann, für die GPU ists aber großartig.


BTW, den V ergleich mit Desktopprozessoren finde ich absolut zulässig.
Das hat Apple außerdem selbst vorgeschlagen mit der Marketing-ansage "Desktop Class Processor".

robbitop
2015-09-11, 09:57:11
Geht hoch bis zu 16 Clustern (GT7900).
Das Serie7XT bis 16C geht ist kalter Kaffe. :)
Ich wollte mit meiner Frage lediglich implizieren, dass ein Frankenstein 2.0 dieses Mal nicht notwendig ist, weil Serie7 sehr hoch skaliert.

y33H@
2015-09-11, 10:00:15
Offiziell gibt's nur 8 und 16 Cluster, kA es mit zB 12 aussieht.

robbitop
2015-09-11, 10:04:05
Wurde der LPDDR3 im iPad Air2 nicht bereits mit 1600 MHz getaktet? Eine Verdopplung kommt nur hin, wenn LPDDR4 im iPad Pro höher taktet und/oder das Interface breiter ist. Bei 4 GiB RAM fallen "krumme SIs" schonmal raus. Wenn es also wirklich eine Verdopplung gibt, kann sie nur aus einer Richtung kommen.

Ein doppelt so breites SI kostet vermutlich weniger Strom als ein doppelt so hoch getaktetes. Ggf. musste man für die 4 GiB sowieso mehr Bausteine verbauen. Machbar ist alles - und Apple hat uns nicht zum ersten Mal überrascht.

Andere Möglichkeit: sie haben den SRAM Cache doppelt so schnell gemacht und beziehen sich darauf.

Ailuros
2015-09-11, 10:05:24
@Ail
Hat IMG nicht wegen Apples Frankenstein "GXA6850" reagiert und mit Serie7 endlich Cluster en masse angeboten?

Es waere Bloedsinn zu behaupten dass Apple nicht in irgend einer Art ihre roadmap beinflusst, aber im gegebenen Fall ist die Antwort wohl eher negativ.

IIRC war die Skalierung von Frankenstein nicht so toll wie native cluster.

Es war wohl eine Treiber-affaere denn es hat sich in der Zwischenzeit wieder hingebogen. A8/GX6450 liegt heute bei 20.8 fps und A8X/2*GX6450 bei 43.4 fps in Manhattan3.0/Metal/offscreen 1080p.

Wäre es nicht sinnvoller einen sehr niedrig getakteten 16C zu nehmen (breit statt hohe Frequenz)? Oder aber einen 8C mit etwas höherer Frequenz?

Falls der 7900 nur mit DX11.2 kommt waere es eine totale Schnappsidee fuer Apple den idiotischen >50% Transistoren-overhead fuer >DX10.0 zu tragen wenn sie es nicht wirklich brauchen.

IMG wollte schon laenger mit Rogue etwas anbieten dass eventuell jemand auch fuer ultra low end PC oder laptop anbieten koennte. Weniger als DX11 ist dort Bloedsinn und ein 16 cluster 7900 ist dafuer keine schlechte Idee. Ob es jemand benutzen wird? Wohl eher nein....

Um ehrlich zu sein habe ich aber auch an 6C für A9 und 2x6C für A9X gedacht seit einer ganzen Weile...

Wobei wenn dem so ist am Ende und A9X hat wieder eine gespiegelte GPU vom A9 und man den Bogen nach oben macht, hat Apple im gegebenen Fall NICHT die IMG roadmap so stark beinflusst sonst haette es auch einen 12 cluster 7XT im Angebot gegeben. Hier spielt natuerlich fruitco's rosarote "Einzigartigkeit" wieder mit.....:freak:

Ich warte erstmal die ersten die shots von chipworks ab um es zu sichern, aber wenn sich Nebu im angeblichen die shot nicht verglotzt hat ist es eben genau das Gegenteil was die wohl bekannten NV Juenger von Apple und dieser Generation erwartet hatten. Mehr dazu spaeter, bis natuerlich NV uns mit ihrem Parker, ihren endlosen design wins und recalls wieder die Ohren mit BS vollpumpt und die NV Juenger wieder froehlich unter ihren Felsen hervorkriechen.

robbitop
2015-09-11, 10:06:12
Offiziell gibt's nur 8 und 16 Cluster, kA es mit zB 12 aussieht.
Offiziell gibt es keinen 12C. Darum ging es mir aber auch, wenn du nochmal nachließt. Ein 12C Frankenstein ist vielleicht nicht nötig, wenn man auch ein 16C Modell nutzen kann und dies entsprechend heruntertaktet oder ggf. ein 8C Modell und dieses höher taktet. Denn die Skalierung war IIRC mit GXA6850 nicht besonders toll. Damals musste man es aber mangels Skalierung in Serie 6 tun. Serie 7 skaliert hoch genug. Reichen 8C nicht, nimmt man halt 16C.

edit: vielleicht macht ein Frankenstein doch Sinn. :D


Es war wohl eine Treiber-affaere denn es hat sich in der Zwischenzeit wieder hingebogen. A8/GX6450 liegt heute bei 20.8 fps und A8X/2*GX6450 bei 43.4 fps in Manhattan3.0/Metal/offscreen 1080p.

Dann nehme ich alles zurück und behaupte das Gegenteil. :)

Ailuros
2015-09-11, 10:14:51
Dann nehme ich alles zurück und behaupte das Gegenteil. :)

Ich hab es auch selber in letzter Zeit bemerkt, denn keiner hockt 24/7 in der Kishonti Datenbank und drueckt unendlich auf F5 :biggrin:

Spass beiseite das neue iPad mini erscheint in der Kategorie leckerer als nie; wenn ich es nur mit Android haben koennte :weg: ;D

***edit: ich erlaube mir auch einen kleinen "wrap up" fuer den Thread hier: wir haben mehr oder weniger das eigentliche Paket der "Eigen-entwicklung" vor uns. iOS ist quasi in leicht groessere Geraete mit der Zeit gewachsen und Apple hat diese mit so hoch wie moeglicher "desktop alike" Leistung ausgestattet. Etwas weniger aggressiv bis jetzt was die CPU betrifft, aber doch wiederrum verdammt aggressiv was die GPU betrifft stets im direkten Vergleich zu ihren eigenen kleinsten Macbook Air Angeboten. Es wird interessant sein wie dort die Zukunft fuer diese aussehen wird.

robbitop
2015-09-11, 10:17:46
Was ist mit dem Nexus 9? Wäre das etwas für dich? Das ist doch sehr ähnlich und hat Denver (*hicks**up*) :D

Ich finde es schade, dass Apple die minis mit den Vorjahres SoCs ausstattet. Ich finde den Formfaktor genial und würde sogar mehr Geld bezahlen als für das Air. Man bekommt leider nur den Gammel von Vorgestern... :(

Ailuros
2015-09-11, 10:26:28
Was ist mit dem Nexus 9? Wäre das etwas für dich? Das ist doch sehr ähnlich und hat Denver (*hicks**up*) :D

Ich finde es schade, dass Apple die minis mit den Vorjahres SoCs ausstattet. Ich finde den Formfaktor genial und würde sogar mehr Geld bezahlen als für das Air. Man bekommt leider nur den Gammel von Vorgestern... :(

Das mini4 ist mit den heutigen Daten wohl bis zu guten 30% schneller fuer die GPU als GK20A; ich bezweifle dass A9 diesbezueglich besser sein wird und eine A9X bzw. Tegra X1 GPU kann wohl heute noch keiner so leicht in ein <400 gr <8" ultra thin tablet quetschen, ausser Du willst es auf Dauer auf einer zusaetzlichen Kuehlplatte bedienen.

Sunrise
2015-09-11, 10:44:48
Der A9 Die-Shot der Keynote sagt eigentlich alles, die bei beyond3D im Forum sind zu ungenau, es gibt noch einen in der Frontalansicht. Allerdings erkenne ich da nur Dual-Core bei der CPU und das würde nochmal gute IPC-Verbesserungen und hohen Takt (min. 2.0GHz) bedeuten was wahrscheinlich voll durchschlagen würde.

Damit würden Apple theoretisch auch 3 Kerne beim A9X reichen, aber ich habe immernoch keinen Beleg für neue Fertigung beim A9X gesehen, weshalb man in dem Fall von Quad-CPU und etwa verdoppelter GPU zum A9 mit für beide konservativerem Takt ausgehen müsste.

2GB und 4GB RAM sollten aber bestätigt sein, wie schon spekuliert.

robbitop
2015-09-11, 11:02:43
Das mini4 ist mit den heutigen Daten wohl bis zu guten 30% schneller fuer die GPU als GK20A; ich bezweifle dass A9 diesbezueglich besser sein wird und eine A9X bzw. Tegra X1 GPU kann wohl heute noch keiner so leicht in ein <400 gr <8" ultra thin tablet quetschen, ausser Du willst es auf Dauer auf einer zusaetzlichen Kuehlplatte bedienen.
A9 hat doch laut Apple eine deutlich höhere GPU Leistung als A8. Es wurde ja offenbar kein A8X verbaut.

Mich persönlich stört die GPU Leistung überhaupt nicht, weil ich auf Tablets nicht so gern spiele (lieber AAA auf anständigen Plattformen). Ich empfinde Burst CPU Leistung und RAM (ggf. Leserate des Flashspeichers falls sie limitiert) als wichtigeres Kriterium. Und dort sind die +70% CPU Leistung von A9 ggü A8 schon sehr sehr lecker. Mehr Reserven für zukünftige Softwarereleases und schnellerer App-Start und schnellerer Webseitenaufbau.

Ich hätte das Gefühl bzw die Erwartung, dass ein iPad Mini 4 mit einem A9 ein wenig länger sich "snappy" anfühlt als eines mit A8.
Ein A8X wäre sicher ähnlich gut, weil ich davon ausgehe, dass die SW früher oder später den dritten Kern nutzen kann. Aber A8X wäre wohl zu fett für das Mini (TDP, Battery Time etc).

Ich tippe darauf, dass A9/A9X wegen des Finfetprozesses (teuer und begrenzte Stückzahlen) den Premiumprodukten vorbehalten sind.

Gern würde ich für ein Premium Mini auch mehr Geld bezahlen. Mir geht es mehr um den Formfaktor. 10" finde ich für mich persönlich fast zu groß. 8" in 4:3 oder 3:2 hingegen ideal.

robbitop
2015-09-11, 11:09:11
Der A9 Die-Shot der Keynote sagt eigentlich alles, die bei beyond3D im Forum sind zu ungenau, es gibt noch einen in der Frontalansicht. Allerdings erkenne ich da nur Dual-Core bei der CPU und das würde nochmal gute IPC-Verbesserungen und hohen Takt (min. 2.0GHz) bedeuten was wahrscheinlich voll durchschlagen würde.

Damit würden Apple theoretisch auch 3 Kerne beim A9X reichen, aber ich habe immernoch keinen Beleg für neue Fertigung beim A9X gesehen, weshalb man in dem Fall von Quad-CPU und etwa verdoppelter GPU zum A9 mit für beide konservativerem Takt ausgehen müsste.

2GB und 4GB RAM sollten aber bestätigt sein, wie schon spekuliert.

Ich würde sonstwas darauf verwetten, dass sowohl A9 als auch A9X auf 1xFF Prozessen basieren. Das pfeifen erstens die Spatzen vom Dach und zweitens sind die Gewinne in Sachen Performance einfach zu groß. Die Akkulaufzeiten (A9 Geräte) blieben laut Apple hingegen gleich bei sogar leicht kleineren Akkus.

Beim iPad Pro ist natürlich mehr Spielraum für den A9X - sogar in 20 nm. Es ist aber IMO sehr wahrscheinlich, dass das Air 3 auch den A9X bekommt.

Ob die Taktrate wirklich so signifikant gesteigert wurde, ist fraglich. Takt ist idR sehr ungünstig für den Verbrauch (idR eine nicht lineare Funktion zur Geschwindigkeit) - und die Akkus wurden kleiner.
Klar schafft 1xFF etwas Raum dafür.

Ich würde mich nicht wundern, wenn Apple uns mal wieder alle mit einem "Tock" überrascht und ordentlich IPC dazu gewinnt.

Offenbar hat man ja 2 Teams

Swift Tick
Cyclone Tock
Tyhpoon Tick
??? Tock


Die Tocks haben bisher immer richtig auf die K*cke gehauen.

Sunrise
2015-09-11, 12:11:59
Unter 14 bzw. 16FF sollte Takt nicht das Problem sein, und viel mehr Fläche als TSMCs 20SoC hatte Apple ja nicht, ergo weiterhin Dual-Core, etwas mehr Fläche und deutlich mehr Takt, das schlägt auch voll durch im Gegensatz zu mehr Kernen und spart Platz, den man in die GPU stecken kann.

Auf dem Die-Shot erkenne ich 5 bzw. eher 6 Cluster bei der GPU, die allerdings total anders aussehen als noch bei Rogue 6, ich habe mir das mal an einem 65" mit SuperRes angeschaut und es ist unglaublich wie dicht Apple da alles reingequetscht hat, man erkennt eine ganze Menge SRAM, die springen einen direkt an, scheint als hat Apple da wieder am Cache rumgespielt, bald wissen wir hoffentlich mehr.

Jedenfalls freue ich mich auf mein 6s jetzt schon.

robbitop
2015-09-11, 12:19:19
6C Serie7XT macht auch wirklich Sinn. Auch der Dual Core macht Sinn. Wenn der Prozess wirklich eine Taktsteigerung von 40...45% zuläßt bei gleiche Leistungsaufnahme wäre das natürlich extrem gut. Der Takt war ja bisher seit Swift und spätestens Cyclone immer so ein nig noch unausgeschöpftes Potenzial.
Zu der obigen Taktsteigerung fehlen dann noch 15-20 % IPC und dann landet man bei 70 %. Klingt plausibel. Immerhin ist man mit Cyclone und Typhoon schon recht weit oben in Bezug auf die IPC gewesen. Insofern ist 15-20 % immer noch eine ordentliche Steigerung - insbesondere wenn sie mit einer so deutlicher Steigerung der Taktfrequenz einhergeht.

Ergo:

A9:
2x Cores @2 GHz
6C Series7XT

A9X
3x Cores @>2GHz (hier ist die Rede von +80%)
12C Series7XT

Klingt plausibel.

Jetzt wäre es noch interessant zu wissen, wie A9X eine Verdopplung der Bandbreite hinbekommen hat. Ob es eine Taktverdopplung oder eine SI Verdopplung war. Denn beides geht nicht, da ein ungerades SI (192 bit) für eine gerade Speichermenge (4 GB) nicht ideal sind.
IMO ist eine Taktverdopplung ausgehend von 1600 MHz LPDDR3 auf 3200 MHz LPDDR4 fast unwahrscheinlich. Geht LPDDR4 überhaupt so hoch? Ist ja auch eine Sache des Stromverbrauches...

Sunrise
2015-09-11, 12:28:36
Mein Gefühl sagt zumindest SI weil Apple da bisher immer großzügig war. Allerdings wäre das schon ziemlich fett.

robbitop
2015-09-11, 12:29:16
Es wäre.... Apple. :D
Ich tippe btw auch auf das SI.

deekey777
2015-09-11, 12:44:19
Was für Dieshots? Ich bin alt und blind, helft mir.

AffenJack
2015-09-11, 12:57:34
Jetzt wäre es noch interessant zu wissen, wie A9X eine Verdopplung der Bandbreite hinbekommen hat. Ob es eine Taktverdopplung oder eine SI Verdopplung war. Denn beides geht nicht, da ein ungerades SI (192 bit) für eine gerade Speichermenge (4 GB) nicht ideal sind.
IMO ist eine Taktverdopplung ausgehend von 1600 MHz LPDDR3 auf 3200 MHz LPDDR4 fast unwahrscheinlich. Geht LPDDR4 überhaupt so hoch? Ist ja auch eine Sache des Stromverbrauches...

LPDDR4 geht bis 4266 Datenrate, also 2133Mhz. Lpddr3 war 800mhz beim A8X und man wird nun 1600mhz Lpddr4 nutzen. Samsung benutzt im S6 schon lange 1555mhz. Apple wird wie gesagt einfach auf 1600mhz gehen. 256Bit ergibt null Sinn.

robbitop
2015-09-11, 15:00:31
LPDDR4 geht bis 4266 Datenrate, also 2133Mhz. Lpddr3 war 800mhz beim A8X und man wird nun 1600mhz Lpddr4 nutzen. Samsung benutzt im S6 schon lange 1555mhz. Apple wird wie gesagt einfach auf 1600mhz gehen. 256Bit ergibt null Sinn.
Komm mal von den MHz weg. Die Zahl steht für MT/s. Die tatsächliche interne Taktrate ist egal und verwirrt nur, sobald sich da wieder neue Teiler/Domains egeben.

DDR4-1600 hat (egal ob LP oder nicht LP) 1600 MT/s - bei 64 bit also 12.800 MiB/s. 128 bit ergeben aber nur 25,6 GB/s.

Das iPad Air 2 hatte bereits LPDDR3-1600
http://www.golem.de/news/a8x-gegen-tegra-k1-die-derzeit-schnellsten-tablet-chips-1411-110144.html

Ebenfalls 1600MT/s.

Da die Datenrate genau verdoppelt wurde, müsste es also LPDDR4-3200 sein (bei gleich breitem SI) - zumindest ist LPDDR4 auch bis maximal 3200 MT/s spezifiziert:http://www.androidauthority.com/lpddr4-everything-need-know-599759/

Ergo entweder LPDDR4-3200 @128bit oder LPDDR34-1600 @256 bit

256 bit ergibt nicht null Sinn. Breite ist idR energieeffizienter als Takt. Kostet "nur". Und auch nicht so übertrieben wie immer getan wird. Aber das BOM Problem hat Apple bei den iPad Pro Preisen sowieso nicht.

edit
LPDDR4-3200 hat 3200MT/s -> 51,2 GB/s @128 bit - und die sind im iPad Pro wohl verbaut.

Ravenhearth
2015-09-11, 15:17:53
LPDDR4-1600 bei 128 Bit erreicht 51,2 GB/s. Das hatten wir doch schon.

robbitop
2015-09-11, 15:34:26
Du hast Recht! edit - es heißt aber LPDDR4-3200 (siehe Link der JEDEC ganz unten). Es sind also tatsächlich sind es 3200 MT/s. Dann stimmt auch die Bandbreite. Die MHz Zahlen sind so sinnfrei verwirrend.

https://www.jedec.org/news/pressreleases/jedec-releases-lpddr4-standard-low-power-memory-devices

https://en.wikipedia.org/wiki/Mobile_DDR

edit:
dann hat das Air 2 offenbar LPDDR3-800, sofern die Zahl hinter dem "-" für die Clock Frequency und nicht die Data Transfer Rate steht.

edit2:

interessanterweise scheint bei DDR3 Speicher die Zahl hinter dem "-" für die Data Transfer Rate.
DDR3-1600 hat also 1600 MT/s
https://en.wikipedia.org/wiki/DDR3_SDRAM

Mich wundert, dass die Nomenklatur bei DDR und LPDDR dann eine andere ist(?)

Nach der Nomenklatur vom DDR-Speicher wäre der LPDDR4 dann LPDDR4-3200 (iPad Pro) und der LPDDR3-1600 (iPad Air 2).

edit3:
ich zweifle die 3200MT/s im LPDDR4 nicht mehr an. Aber ich finde keine Hinweise auf die Nomenklatur LPDDR4-1600. Ich würde also davon ausgehen, dass es tatsächlich LPDDR4-3200 heißen müsste.

edit4:
Laut JEDEC heißt es offenbar auch so:
http://www.jedec.org/sites/default/files/M_Greenberg_Mobile%20Forum_May_%202013_Final.pdf

LPDDR4-3200 und LPDDR3-1600.

Es steht also wie ich vermutete für die MT/s. Also hat das iPad Pro offenbar LPDDR4-3200 (welcher auch so spezifizert ist - es gibt sogar LPDDR4-4266). Das iPad Air 2 dann LPDDR3-1600.

Ergo 128 Bit. Ich glaub jetzt stimmts. :)

Ravenhearth
2015-09-11, 15:56:39
256 Bit und 8GB dann beim A10X? :ulol:

Ich glaube nicht.

Sunrise
2015-09-11, 16:35:59
256 Bit und 8GB dann beim A10X? :ulol:

Ich glaube nicht.
Du, Apple hat jetzt wie lange gebraucht, um mehr als 1GB zu verbauen? Multipliziere den Zeitraum mit 4 und du weißt, wann es 8GB gibt. :D

Aber mal im Ernst:
Wenn Apple sich entschließen sollte, ihre SoCs in Desktop-ähnlicher Umgebung einzusetzen (nicht-iOS), dann könnten auch mehr als 4GB nichtmehr sehr weit hergeholt sein.

Nightspider
2015-09-11, 16:52:27
256 Bit und 8GB dann beim A10X? :ulol:

Da wäre ein Stack mit HBM imo wahrscheinlicher.

Ailuros
2015-09-12, 08:51:38
Wider IOs liegen auf jedermans roadmap in absehbarer Zukunft aber es gibt keinen Schimmer von suendhaft teurem HBM fuer ULP SoCs

AffenJack
2015-09-12, 10:04:55
A9 ist wohl Dual Core:
https://forum.beyond3d.com/posts/1871298/

Rys dürfte schon bescheid wissen. Also würde ich 30% mehr IPC und 30% mehr Takt beim A9 schätzen. A9X auch weiterhin 3 Kerne und noch etwas mehr Takt.
Alternative was mit 2/3 Kernen prinzipiell ja auch noch möglich wäre, wenn die SMT hätten. Da ja gerade Gerüchte über zu gute Multicoreskalierung aufkamen.
GPU glaube ich weiterhin an 4 und 8 Cluster. Der Finfet Prozess wird einfach viel mehr Takt erlauben.

Nightspider
2015-09-12, 10:07:05
Mehr Takt und IPC ist besser als mehr Kerne -> gefällt mir.

Ailuros
2015-09-12, 14:24:28
A9 ist wohl Dual Core:
https://forum.beyond3d.com/posts/1871298/

Rys dürfte schon bescheid wissen. Also würde ich 30% mehr IPC und 30% mehr Takt beim A9 schätzen. A9X auch weiterhin 3 Kerne und noch etwas mehr Takt.
Alternative was mit 2/3 Kernen prinzipiell ja auch noch möglich wäre, wenn die SMT hätten. Da ja gerade Gerüchte über zu gute Multicoreskalierung aufkamen.
GPU glaube ich weiterhin an 4 und 8 Cluster. Der Finfet Prozess wird einfach viel mehr Takt erlauben.

Twister ist der codename der "neuen" CPU Familie. Fuer die GPU gibt es die konservative These fuer 7400/7800 fuer 30/60fps in Manhattan je nach SoC mit etwas hoeherer Frequenz als heute und der 7600/2*7600 These fuer 40/80fps Manhattan bei vergleichbaren zu heutigen Frequenzen.

Ich weiss es wirklich noch nicht weil ich es fuer ueberfluessig halte nachzufragen. Das zweite klingt um einiges mehr nach Apple und nachdem im mini4 ein A8X steckt, waere es ziemlich merkwuerdig wenn das iPhone so weit dahinter liegen wuerde. Es sol nicht heissen dass dem so ist, aber die Tendenz liegt schon wohl bei 6/12 sonst haette ich schon ein PM bekommen bei B3D ;) nicht von Rys natuerlich aber ja er weiss schon mit Sicherheit bescheid.

urpils
2015-09-12, 18:28:12
Twister ist der codename der "neuen" CPU Familie. Fuer die GPU gibt es die konservative These fuer 7400/7800 fuer 30/60fps in Manhattan je nach SoC mit etwas hoeherer Frequenz als heute und der 7600/2*7600 These fuer 40/80fps Manhattan bei vergleichbaren zu heutigen Frequenzen.

Ich weiss es wirklich noch nicht weil ich es fuer ueberfluessig halte nachzufragen. Das zweite klingt um einiges mehr nach Apple und nachdem im mini4 ein A8X steckt, waere es ziemlich merkwuerdig wenn das iPhone so weit dahinter liegen wuerde. Es sol nicht heissen dass dem so ist, aber die Tendenz liegt schon wohl bei 6/12 sonst haette ich schon ein PM bekommen bei B3D ;) nicht von Rys natuerlich aber ja er weiss schon mit Sicherheit bescheid.

im mini4 ist doch "nur" ein A8

Ailuros
2015-09-12, 19:32:12
im mini4 ist doch "nur" ein A8

Argghhh tatsaechlich; ein X zu viel und wohl doch nicht die uebertolle Aufruestung zum mini3.


****edit: ich sehe gerade dass Apple fuer die A9X GPU im Vergleich zum originalen iPad eine Steigerung von 360x Mal behauptet. 2 GFLOPs FP16 * 360 = 720 GFLOPs FP16. Bei 8C sind es 710MHz, bei 12C dann 466MHz.... :D

smalM
2015-09-13, 13:17:06
Offiziell gibt's nur 8 und 16 Cluster, kA es mit zB 12 aussieht.

Das frage ich mich auch, seit 7XT vorgestellt wurde; skaliert das durch (1, 2, 3, 4, 5, 6, 7, 8 Shader-Paare), oder skaliert das wieder nur bis zu 4 Shader-Paaren und die GT7900 ist einfach nur eine verdoppelte GT7800.

Was für Dieshots? Ich bin alt und blind, helft mir.
Gemeint ist wohl dieses Bild (http://images.anandtech.com/doci/9614/Apple%20September%202015-263.jpg).

Rechts oben sind die 3 Shadercluster-Paare recht gut zu erkennen (nicht zu erkennen ist, was dazwischen alles zum Nicht-Shader-Bereich der GPU gehört).
In der Mitte ist der 4MB-L3-Cache dieses Mal in 2 Blöcke aufgeteilt.
Rechts unten verschwindet leider ein Teil der beiden CPUs im Schatten, so daß man nicht erkennen kann, wie weit sich der L2-Cache noch erstreckt.
Ebenfalls im Schatten verschwunden sind alle Ränder des Dies und damit das Speicherinterface...

deekey777
2015-09-13, 20:50:44
Gemeint ist wohl dieses Bild (http://images.anandtech.com/doci/9614/Apple%20September%202015-263.jpg).

Rechts oben sind die 3 Shadercluster-Paare recht gut zu erkennen (nicht zu erkennen ist, was dazwischen alles zum Nicht-Shader-Bereich der GPU gehört).
In der Mitte ist der 4MB-L3-Cache dieses Mal in 2 Blöcke aufgeteilt.
Rechts unten verschwindet leider ein Teil der beiden CPUs im Schatten, so daß man nicht erkennen kann, wie weit sich der L2-Cache noch erstreckt.
Ebenfalls im Schatten verschwunden sind alle Ränder des Dies und damit das Speicherinterface...
Ach so, Danke.
Will Apple Chipworks ärgern?

Ailuros
2015-09-13, 21:00:43
7XT skaliert bis zu 16 cluster im 7900. 2,4,6,8,16 clusters vom 7200 bis zum 7900. Es gibt keine ungerade cluster Anzahl und ein 7900 ist eben nicht ein 2*7800. Wenn clusters wie cores skalieren verbratet eine Unmenge mehr redundante hw. Sonst unter normalen Umstaenden teilen sich jeweils 2 cluster eine quad TMU.

Ein 7900 ist viel zu gross fuer ein heutiges tablet und wenn es ausschliesslich mit DX11.2 kommen sollte gibt es noch einen +50% overhead fuer DX10->DX11.2 dass wohl Apple momentan noch nicht interessiert.

Mehr als 6 clusters werden im Android Raum schwer benutzt werden und Apple darf und kann semi custom GPU IP selber zusammenschustern. Mehr als 4C gibt es heute unter Android nicht mit Rogues.

smalM
2015-09-14, 02:55:50
@dekey777
Ist doch schön für die Applemitarbeiter, wenn ihr Werk einmal nicht einfach hinter der schnöden Anzahl Transistoren verschwindet, sondern von Apple selbst zur Schau gestellt wird.

@Ailuros
Wenn 7XT sauber bis 16C hochskaliert, ohne daß wie bei der GXA6850 ⅔ des Nicht-Shader-Bereichs verdoppelt werden müssen, wieso gibt es dann keinen 10C, 12C oder 14C? Das wäre dann doch (auf dePapier) in einem Aufwasch mit drin gewesen?
Und es ist schade, daß bisher keine G6630/GX6650 realisiert worden ist, ich hätte gerne einmal das Originaldesign von IMG gesehen...

deekey777
2015-09-14, 09:01:12
@dekey777
Ist doch schön für die Applemitarbeiter, wenn ihr Werk einmal nicht einfach hinter der schnöden Anzahl Transistoren verschwindet, sondern von Apple selbst zur Schau gestellt wird.


Apple tut nie etwas ohne Grund. Diese neue Offenheit dient nur dem Zweck, den Aktionären und den potentiellen Käufern zu zeigen, dass die neuen Geräten zum Premiumpreis auch die Premiumhardware bieten. Es war vor dem Event undenkbar, dass man einfach so die Größe des Arbeitsspreichers herausfindet.

https://twitter.com/hamzasood/status/643092816315445248

Gleiches gilt für den Dieshot.

Wenn ich mich nicht irre, war das beim Event zum iPad 2 nicht anders, als hervorgehoben wurde, dass der A5 zwei Kerne hat, weil Tegra 2 bereits in Sartlöchern war.

Ailuros
2015-09-14, 10:24:26
@Ailuros
Wenn 7XT sauber bis 16C hochskaliert, ohne daß wie bei der GXA6850 ⅔ des Nicht-Shader-Bereichs verdoppelt werden müssen, wieso gibt es dann keinen 10C, 12C oder 14C? Das wäre dann doch (auf dePapier) in einem Aufwasch mit drin gewesen?
Und es ist schade, daß bisher keine G6630/GX6650 realisiert worden ist, ich hätte gerne einmal das Originaldesign von IMG gesehen...

Wie ich schon robbitop weiter oben erklaerte wurde hoechstwahrscheinlich IMGs roadmap eben nicht 1:1 auf Apple's Notwendigkeiten angepasst und der Grund dass sie bis zu 16 clusters skalieren diesmal ist eben NICHT Apple sondern low end desktop/notebooks. Zugegeben absurd da wohl keiner ausser Intel je daran interessiert waere und fuer Intel waere es ziemlich absurd ihre eigene GPU Technologie nicht zu benutzen.

Theoretisch koennte IMG eine Unmenge von IP Angeboten entwickeln, aber es waere dann noch ueberfluessiger als heute; da sie nicht cores sondern clusters skalieren wuerde es zu viele cores bedeuten mit relativ vergleichbarer Leistung da eben NICHT in allen Faellen front und back ends mitskalieren. Wenn Apple wieder die A9 GPU spiegelt wie im A8/A8X ist es kein Problem da front- und back-end einfach verdoppelt werden. Es frisst mehr die area aber bis zu einem Punkt ist es Apple ueberhaupt fuer GPUs ziemlich wurscht.

Marketing-technisch erreichen sie auch so ihr behauptetes 2.0x Mal GPU fuer A9X vs. A8X. Ein 7XT cluster ist um ca. 50% effizienter als ein 6XT cluster (clock for clock and cluster for cluster) und dann eben nochmal 50% mehr clusters (von 8 auf 12) und voila das Marketing-Gefusel trifft dann auch zu.

***edit: und bevor jemand fragen sollte, front-/back-end fuer 4 und 6 clusters bis zu 6XT sind afaik gleich. Ergo entweder man steigt gleich von 4 auf 8 clusters theoretisch, denn sonst bei 6 skalieren hauptsaechlich ALUs und TMUs. Ob sie etwas fuer 7XT geaendert haben bleibt abzusehen.

So oder so und natuerlich etwas OT: unter Android ist momentan der groesste PowerVR GPU IP Kunde Mediatek und davon hat ARM so oder so schon den groesseren GPU IP Anteil. Bis zum Helio X10 sind sie immer noch bei 2 cluster Rogues und es wuerde mich verdammt ueberraschen wenn Mediatek in absehbarer Zukunft mehr als 2 GPU Rogue clusters integriert. Intel wird in absehbarer Zeit ihr eigenes Zeug auch fuer ULP SoCs benutzen ergo bleibt nichts mehr sehenswertes uebrig fuer IMG.

robbitop
2015-09-14, 10:27:42
Mir fällt ein: was gegen 6C/12C spricht, ist, dass es seitens IMG kein offizielles 6C IPC gibt. Entweder das wurde custom für Apple entwickelt, oder Apple muss mittels 4C oder 8C IPs skalieren.

Ailuros
2015-09-14, 10:40:23
Mir fällt ein: was gegen 6C/12C spricht, ist, dass es seitens IMG kein offizielles 6C IPC gibt. Entweder das wurde custom für Apple entwickelt, oder Apple muss mittels 4C oder 8C IPs skalieren.

:rolleyes:

http://blog.imgtec.com/powervr/powervr-series7xt-gpus-push-graphics-and-compute-performance


PowerVR GT7200: 2 shading clusters, 64 ALU cores
PowerVR GT7400: 4 shading clusters, 128 ALU cores
PowerVR GT7600: 6 shading clusters, 192 ALU cores
PowerVR GT7800: 8 shading clusters, 256 ALU cores
PowerVR GT7900: 16 shading clusters, 512 ALU cores

robbitop
2015-09-14, 10:56:28
Ah ok - das ist an mir vorbeigegangen. Danke. :) Dann sollten 6C/12C relativ realistisch und wahrscheinlich sein.

Ailuros
2015-09-14, 11:08:55
Ah ok - das ist an mir vorbeigegangen. Danke. :) Dann sollten 6C/12C relativ realistisch und wahrscheinlich sein.

Um es genauer zu machen hier die Quelle fuer Apple's Behauptung:

http://www.tomshardware.com/news/apple-a9-a9x-chips-mobile,30050.html

Apple also introduced a more powerful variant of the A9, called the A9X, which will power the new iPad Pro. The company claimed that its CPU is 80 percent faster than the previous A8X CPU and that the GPU is also twice as fast. When comparing them to the chip in the original iPad from 2010, the company said the CPU performance has improved over 22 times -- and 360 times for the GPU.

iPad (1) GPU = SGX535@250MHz

SGX535 = 2 Vec2 = 8 FLOPs * 0.25GHz = 2 GFLOPs * 360x = 720GFLOPs

Ich schliesse es komplett aus dass sie mit den 720 FP32 meinen ;)

Sunrise
2015-09-14, 15:00:33
6C sind jedenfalls für mich persönlich fast sicher. Beim A9X liegt es nahe, dass man mit der Frequenz weiter runter ist aber die doppelte Anzahl Cluster verbaut hat.

Mal gespannt, wer den A9 und den A9X jetzt letztendlich produziert. Sollten sich zumindest beim A9 TSMC und Samsung die Produktion teilen, wäre das mehr als kurios, da man unterschiedliche SoCs hätte.

Apple hat in der letzten Zeit immer die Strukturgröße in der Keynote genannt, während sie dieses Mal nur den Hinweis auf "Neue Transistortechnologie bzw. Technik" geben. Da drückte man sich beim A9 ganz bewusst nur sehr vage aus.

robbitop
2015-09-14, 15:03:28
@Ail
720 GFLOPs @FP32 klingen tatsächlich zu hoch. Aber 360 GFLOPs (weil half rate) klingen zu niedrig.
Andererseits sind die GPUs von IMG von Serie zu Serie effizienter pro FLOP geworden. Vielleicht hat man die Effizienzverbesserungen mit reingerechnet? Oder man hat die tatsächlichen arithmetischen Durchsätze mit einem selbst programmierten Synthie gemessen.

Mal gespannt, wer den A9 und den A9X jetzt letztendlich produziert. Sollten sich zumindest beim A9 TSMC und Samsung die Produktion teilen, wäre das mehr als kurios, da man unterschiedliche SoCs hätte.

Apple hat in der letzten Zeit immer die Strukturgröße in der Keynote genannt, während sie dieses Mal nur den Hinweis auf "Neue Transistortechnologie bzw. Technik" geben. Da drückte man sich beim A9 ganz bewusst nur sehr vage aus.
Dank "Industriespionage" sollen Samsungs und TSMCs Prozesse doch sehr sehr ähnlich sein. Das macht es leichter. :D
Dennoch doppelter Aufwand, da zwei Maskensets und zwei Fertiger zu betreuen.

Beim A8 hat angeblich auch Samsung und TSMC sich den Auftrag geteilt.

Ergibt bei dem Volumen bei neuartigen Prozessen auch Sinn. Das Kontingent ist begrenzt und der Bedarf sehr hoch. Also muss man mit der Brechstange Kontingent zusammenkaufen. Zumal es auch für die Verhandlung recht gut ist, wenn man dem günstigeren mehr Volumen zuschanzen kann. Und zwar relativ dynamisch.

Apple sollte locker die Stückzahl mit ihren SoCs erreichen, dass eine solche Strategie Sinn ergibt.

smalM
2015-09-15, 00:15:56
@robbitop
Ich habe immer noch nichts dazu gesehen, daß Samsung den 14FF LPP hochgefahren hätte.
Daß Apple noch in 14FF LPE fertigen läßt, halte ich eher für unwahrscheinlich, auch wenn der für einen "early" recht gut gelungen ist.

Samsung hat ganz bestimmt keine A8 in ihrem (nicht so dollen) 20 LPE hergestellt - und seltsamerweise wurde die Geschichte einem immer noch als brühwarm verkauft, als Samsung den 20 LPP schon längst offiziell gecancelt hatte...

Z.Z. glaube ich eher, die A9-Generation wird vollständig in 16FF+ hergestellt und Apple hat versucht durch den Verzicht auf den A9/A9X im iPad Mini/Air ausreichend Kapazität für's 6s zur Verfügung zu haben.

Sunrise
2015-09-15, 00:49:51
Samsungs 14LPP vor dem M1 halte ich auch für zweifelhaft. Alleine die Kapazitätsfrage sollte eigentlich zu TSMC zeigen, und das kann dann eigentlich nur 16FF+ sein, vor allem bei den starken Verbesserungen ggü. dem A8 auf 20nm.

Interessanterweise hat man dieses Mal keine Infos zur Transistoranzahl preisgegeben und meine Vermutung ist, dass der A9 ähnlich wie der A8 auch extrem kompakt ist und man sich diesbzgl. für den A10 schon vorgenommen hat, dort wieder deutlich mehr ins Transistorbudget zu investieren.

Denn alleine die Frequenzen noch weiter zu steigern reicht Apple dann nicht, das wurde jetzt mit dem A9 ausgeschöpft. Entweder sie gehen auf mehr Cores oder es kommt etwas "unerwartet" Neues.

robbitop
2015-09-15, 08:59:36
Samsung hat einen 20 nm Prozess. Der Exynos 5430 und 5433 wird darin hergestellt. Samsungs 14 LPE kann gar nicht so schlecht sein - der Exynos 7420 war bis vor dem Apple Event der mit Abstand beste ULP SoC für Smartphones.


Rumors like this are fairly common, but the analyst in question, Ming-Chi Kuo, has a solid reputation for correctly predicting Apple launches and activities. According to the analyst, GlobalFoundries, which originally agreed to be a contract partner and second source fabrication facility for Samsung, wasn’t able to hit Apple’s yield targets. Initial yields at GF were at 30%, while Apple demanded 50% yield to hit certain internal requirements. Globalfoundries is serving as Samsung’s second source at 14nm, after cancelling its own 14nm-XM process.
http://www.extremetech.com/computing/203540-split-loyalties-apple-may-pull-back-from-samsung-chip-deal-due-to-low-yields

Ich denke mal, dass ein Analyst mit bisher astreiner Reputation das besser einschätzen können sollte. Demnach wäre A9 aufgesplittet zwischen Samsung und TSMC.
Sieht mir also eher so aus, als würde man GFs Anteil (vom 14 nm Prozessoutput) an TSMC aufteilen, weil die es (mal wieder) nicht gebacken bekommen.

IMO passt es auch ganz gut, jetzt nur den 14 LPE / 16FF (ohne Plus) zu nutzen, da man nächstes Jahr um diese Zeit ja noch nicht auf die Nachfolgeprozessgeneration (10FF) zugreifen kann aber dennoch ein Upgrade braucht.

Immerhin benötigt man auf ja eine sehr hohe Menge an SoCs. Ich könnte mir gut vorstellen, dass man ungern das Risiko eingeht, nicht liefern zu können, nur weil man die aller modernste Prozessvariante (die potenziell noch nicht bereit ist) haben will.

AffenJack
2015-09-15, 09:22:33
16FF+ kann es doch gar nicht sein, die Produktion hat da gerade erst begonnen. Im August sind wohl erste Chips zurück gekommen. Den Prozess sehen wir beim A9X wohl. Die ersten Chargen des A9 werden alle 14LPE sein. Wird doch schon lange bei Samsung vorproduziert um die nötigen Mengen zu erhalten. Dann eine Kombination aus 14LPE/16FF+. 16FF wirds nicht sein, denn der ist zu schlecht. Apple und fast alle anderen sind da abgesprungen da deutlich schlechter als 14 LPE.

robbitop
2015-09-15, 09:24:52
Wie gesagt: TSMC hat offenbar 30 % der Volumens für A9 bekommen. Und ja ich denke auch, dass sie nicht den allerheißesten Scheiss nehmen - einfach aufgrund der benötigten Stückzahl und der daraus resultierenden Vorlaufzeit. 14 LPE erscheint mir zunächst auch als gut genug. Im A10 gäbe es potenziell mit 14 LPP und 16FF+ nochmal ein potenzielles Upgrade.

Ailuros
2015-09-15, 10:21:59
@Ail
720 GFLOPs @FP32 klingen tatsächlich zu hoch. Aber 360 GFLOPs (weil half rate) klingen zu niedrig.
Andererseits sind die GPUs von IMG von Serie zu Serie effizienter pro FLOP geworden. Vielleicht hat man die Effizienzverbesserungen mit reingerechnet? Oder man hat die tatsächlichen arithmetischen Durchsätze mit einem selbst programmierten Synthie gemessen.

Apple benutzt afaik eine Reihe an Leistungsmessungen fuer CPU und GPU. Im Fall von der GPU zwischen A8X und A9X haut das 2.0x Mal wohl schon hin, nur bleibt abzusehen in welchen Faellen genau.

Clock for clock, cluster for cluster = S6XT --> S7XT +60%

A8X vs. A9X = 8 vs. 12 clusters = +50%
---------------------------------------------------
+ 110%
A8X GPU@533MHz vs. A9X GPU@470MHz = -12%
---------------------------------------------------
TOTAL +98%

***edit: die +60% fuer 7XT clusters vs. 6XT clusters sind unter anderem IMHO fuer texture cache/back end relativen Erweiterungen die hoehere throughputs erlauben.

Wenn die A9X GPU so skaliert wie ich es nach IMG's Behauptungen erwarte duerfte das Ding bei ueber 80 fps in Manhattan 3.0/1080 offscreen landen.

Wie gesagt: TSMC hat offenbar 30 % der Volumens für A9 bekommen. Und ja ich denke auch, dass sie nicht den allerheißesten Scheiss nehmen - einfach aufgrund der benötigten Stückzahl und der daraus resultierenden Vorlaufzeit. 14 LPE erscheint mir zunächst auch als gut genug. Im A10 gäbe es potenziell mit 14 LPP und 16FF+ nochmal ein potenzielles Upgrade.

Ich denke Affenjack hat recht. A9 duerfte ausschliesslich Samsung sein zumindest zum Anfang und dabei ist es egal was jeder moechtegern Analyst im Netz projezierte oder projezieren will. Was womoeglich stimmt ist dass TSMC fuer timeframe X 30% des Produktions-volumens fuer die A9-Familie bekommen hat, welches dann auch sehr schoen zur A9X Produktion einer gewissen Zeit passen koennte, da sie eine Unmenge mehr an iPhones verkaufen werden und nur schaetzungsweise 2 dutzend "Bumsmillionen" an iPad PROs.

AffenJack
2015-09-15, 10:58:24
Ich lasse mich gerne überraschen, aber ich glaube noch immer nicht an 12 Cluster beim A9X. Wie du schon schreibst müsste der Takt dann sogar vom A8X runter gehen. Dabei ist S7XT laut IMG besser taktbar und 14nm erlaubt auch deutlich höhere Taktraten. Der Anteil der Static Leakage steigt bei den kleineren Prozessen einfach immer mehr und zu niedrige Taktraten machen auch kein Sinn. Außerdem wird der Soc auch fürs Ipad Air vorhalten nehme ich an, dass nur später kommen wird. Da sollens dann nur noch 400mhz werden? Also ich bleibe bei 8 Clustern fürs Pro 2 als meine Annahme;)

robbitop
2015-09-15, 11:26:54
Für static leakage gibt es ja Power Gating. Ansonsten ist Frequenz eigentlich immer ineffizienter als Breite, da man idR eine höhere Betriebsspannung benötigt. Ich tippe auf 12C. Ggf. ist die Angabe von Apple etwas pessimistisch. Denn die 60 % IPC Steigerung von S7->S6XT schlägt sicher nicht immer und überall durch. Wäre nicht das erste Mal, dass Apple etwas pessimistische Angaben macht.

Ein 2x6C wäre zwar etwas größer als ein nativer 12C - aber dafür skaliert das Front End / Geometrieleistung auch mit. Die generelle Skalierung bei ihrer eigenen Sklaierung (GXA6800) hat man ja treiberseitig laut Ailuros offenbar im Griff.

Ich denke auch, dass das Air 3 den A9X bekommen wird. Ich bin auch gespannt, ob dieses dann 3D Touch bekommen wird und ob der Pencil mit dem Air 3 zusammenarbeiten wird. Von ersterem würde ich zumindest ausgehen.

Sunrise
2015-09-15, 11:39:37
Wenn es wirklich 14LPE sein sollte, dann hat Samsung aber beträchtlich mehr Kapazität zur Verfügung, als bisher vermutet, denn Samsung produziert dort ja auch die ganz neuen eigenen SoCs, das wäre für mich persönlich eine starke Überraschung.

Allerdings hätte man in diesem Fall dann wirklich noch Luft nach oben. Dass der A9X von TSMC kommt ist eine gewagte Vermutung, da keine direkte oder indirekte FinFET-Angabe von Apple kam. Ignorieren wir das mal wäre es aber sicher möglich, da Apple so TSMC auch beschäftigen würde.

Ailuros
2015-09-15, 11:53:20
Ich lasse mich gerne überraschen, aber ich glaube noch immer nicht an 12 Cluster beim A9X. Wie du schon schreibst müsste der Takt dann sogar vom A8X runter gehen. Dabei ist S7XT laut IMG besser taktbar und 14nm erlaubt auch deutlich höhere Taktraten. Der Anteil der Static Leakage steigt bei den kleineren Prozessen einfach immer mehr und zu niedrige Taktraten machen auch kein Sinn. Außerdem wird der Soc auch fürs Ipad Air vorhalten nehme ich an, dass nur später kommen wird. Da sollens dann nur noch 400mhz werden? Also ich bleibe bei 8 Clustern fürs Pro 2 als meine Annahme;)

Du bekommst aber dummerweise die 720 GFLOPs FP16 auf einer 8 cluster GPU nur mit 705MHz, welches wiederrum eine Steigerung des Taktes um ~32% gegenueber der A8X GPU bedeuten wuerde. Es ist nicht unmoeglich aber bei einer solchen Taktsteigerung einer so komplizierten ULP GPU kann der Stromverbrauch schwer flach liegen im Vergleich zum A8X und schon gar nicht ueber laengere Zeit. Noch kommt dazu dass eben im transistor count NICHT gleich sein wird bei wieder 8 clusters denn die +60% im 7XT IP kommen auch nicht umsonst.

12 cluster fuer 360 GFLOPs FP32 bzw. 720 GFLOPs FP16 entsprechen einem Takt von 470MHz.

Um ganz genau zu sein liegt afaik die Basis-frequenz fuer die A8X GPU bei 466MHz und burst bei 533MHz; wenn's obrige stimmt entspricht die A9X burst Frequenz der A8X Basis-GPU-Frequenz (ungefaehr).

smalM
2015-09-15, 12:46:35
16FF+ kann es doch gar nicht sein, die Produktion hat da gerade erst begonnen.

Der Übergang von Riskproduction zu Produktivbetrieb war vor drei Monaten im Juno.

16FF wirds nicht sein, denn der ist zu schlecht. Apple und fast alle anderen sind da abgesprungen da deutlich schlechter als 14 LPE.

16FF wurde wohl mit dem Produktionsstart von 16FF+ stillgelegt.

Wie gesagt: TSMC hat offenbar 30 % der Volumens für A9 bekommen.

Offenbar?

Im A10 gäbe es potenziell mit 14 LPP und 16FF+ nochmal ein potenzielles Upgrade.

Wenn TSMC, dann wohl eher 16FFC.

robbitop
2015-09-15, 13:07:54
Wenn es wirklich 14LPE sein sollte, dann hat Samsung aber beträchtlich mehr Kapazität zur Verfügung, als bisher vermutet, denn Samsung produziert dort ja auch die ganz neuen eigenen SoCs, das wäre für mich persönlich eine starke Überraschung.

Allerdings hätte man in diesem Fall dann wirklich noch Luft nach oben. Dass der A9X von TSMC kommt ist eine gewagte Vermutung, da keine direkte oder indirekte FinFET-Angabe von Apple kam. Ignorieren wir das mal wäre es aber sicher möglich, da Apple so TSMC auch beschäftigen würde.
Der A9X sollte ziemlich sicher 1xFF sein. Alles andere würde arg überraschen. Noch mehr Takt und noch breiter als der A9. Und er muss in das iPad Air 3 passen. 20 nm klingt da schon nach zu wenig.


Offenbar?

Quelle habe ich doch oben gepostet. Ich denke mal, dass der Mann mehr Einsicht hat als jeder andere von uns. Bisher hatte er eine sehr gute Reputation was seine Aussagen anging.




Wenn TSMC, dann wohl eher 16FFC.
Meinetwegen auch 16FFC.

deekey777
2015-09-15, 13:48:21
Der A9X sollte ziemlich sicher 1xFF sein. Alles andere würde arg überraschen. Noch mehr Takt und noch breiter als der A9. Und er muss in das iPad Air 3 passen.
Muss er das?

robbitop
2015-09-15, 13:55:28
Ja.

Sunrise
2015-09-15, 14:41:25
Rein von der Performance her kann nur der A9X passen, der A9 wäre für den Nachfolger vom Air nicht schnell genug. Dass das Air nicht aktualisiert wurde spricht nicht für dessen Verkaufszahlen. Auch nicht unbedingt für die Menge an SoCs die Apple beim A9X produzieren lässt, was evtl. wieder ein Hinweis auf TSMC ist. IMHO sind das Mini und ein iPhone derzeit die beste Kombination.

Apple tut sich da selbst keinen Gefallen, soviele verschiedene Pads anzubieten, das ist beim iPhone deutlich besser gelöst. Für mich ist ein iPad derzeit keine Option mehr, zuviel Spielerei und zuwenig Alltagsnutzen, da ist ein ordentliches Laptop Gold dagegen.

deekey777
2015-09-15, 18:30:06
Der A8 im iPad Mini 4 taktet mit 1,5 GHz und hat 2 GB RAM: http://www.macrumors.com/2015/09/15/ipad-mini-4-faster-a8-2gb-ram/

AffenJack
2015-09-15, 18:32:29
Du bekommst aber dummerweise die 720 GFLOPs FP16 auf einer 8 cluster GPU nur mit 705MHz, welches wiederrum eine Steigerung des Taktes um ~32% gegenueber der A8X GPU bedeuten wuerde. Es ist nicht unmoeglich aber bei einer solchen Taktsteigerung einer so komplizierten ULP GPU kann der Stromverbrauch schwer flach liegen im Vergleich zum A8X und schon gar nicht ueber laengere Zeit. Noch kommt dazu dass eben im transistor count NICHT gleich sein wird bei wieder 8 clusters denn die +60% im 7XT IP kommen auch nicht umsonst.


Ja und +30% klingt für mich nicht so schlimm, denn der Stromverbrauch soll doch gar nicht gleich zu A8X bleiben. Das Ipad Pro ist 30% größer und 13% dicker. Da kann man locker den Stromverbrauch des SoCs leicht erhöhen. 15-20% Taktsteigerung dürfte schon durch den neuen Prozess drin sein. Wenn dann der Stromverbrauch um 15% hoch geht für die letzten 10% ist das absolut im Rahmen.
Beim A9 braucht man bei 60% durch S7XT nur noch 20% Taktsteigerung um auf 1,9 x A8 zu kommen. Bei 6 Clustern müssen da die Taktraten noch mehr gesenkt werden. Wir werden sehen, dauert ja nur noch 2 Wochen;)

Der Übergang von Riskproduction zu Produktivbetrieb war vor drei Monaten im Juno.
16FF wurde wohl mit dem Produktionsstart von 16FF+ stillgelegt.

Wafer brauchen 10 Wochen vom Produktionsstart. Deswegen hab ich ja geschrieben, erste Chips bekommen die Kunden im August. TSMC hat nicht umsonst angekündgt, dass Ende Q3 der erste Umsatz kommt.

Wenn TSMC, dann wohl eher 16FFC.

Nein, 16FFC ist nen Low-Cost Note. Da wird es keine High-End SoCs geben.

smalM
2015-09-16, 00:39:24
Quelle habe ich doch oben gepostet. Ich denke mal, dass der Mann mehr Einsicht hat als jeder andere von uns. Bisher hatte er eine sehr gute Reputation was seine Aussagen anging.

Ich kenne die Beiträge von Kuo, der Mann kennt sich bei den asiatischen Zulieferern gut aus und so sind manche seiner Vorhersagen ausgesprochen nah dran.
Aber die Geschichte, Apple habe erst Mitte April entschieden, Mal eben 30% der A9-produktion zu TSMC rüberzuschieben? Das ist ausgemachter Blödsinn!

Nein, 16FFC ist nen Low-Cost Note. Da wird es keine High-End SoCs geben.
Hmm, ich hatte bisher den 16FFC als 16FF+ mit Produktionsvorteilen wg. reduzierter Anforderungen an das Design und damit kompakteren Abmessungen gesehen, lasse mich aber gerne eines besseren belehren.

Ailuros
2015-09-16, 09:18:46
Ja und +30% klingt für mich nicht so schlimm, denn der Stromverbrauch soll doch gar nicht gleich zu A8X bleiben. Das Ipad Pro ist 30% größer und 13% dicker. Da kann man locker den Stromverbrauch des SoCs leicht erhöhen.

Nein zum letzten, eben weil der display den meisten zusaetzlichen Strom fressen wird. Den SoC noch zusaetzlich belasten ist nicht unbedingt die beste Idee.

15-20% Taktsteigerung dürfte schon durch den neuen Prozess drin sein. Wenn dann der Stromverbrauch um 15% hoch geht für die letzten 10% ist das absolut im Rahmen.

Das erste iPad hatte fuer die GPU eine Frequenz von 250MHz und heute bei "nur" 533MHz; auf welchem Prozess Apple damals herstellte und wie weit die Prozess-technologie seither gekommen ist weisst Du selber. Waeren hohe Frequenzen etwas fuer Apple haetten sie sie schon seit langem benutzt, ueberhaupt da NV als Gegenbeispeil im K1 bei 850MHz/28nm und X1 bei 1GHz/20nm taktet. Es wuerde mich verdammt ueberraschen wenn Apple selbst fuer Serie8 je ueber die 600MHz virtuelle Grenze kreuzt.

Beim A9 braucht man bei 60% durch S7XT nur noch 20% Taktsteigerung um auf 1,9 x A8 zu kommen. Bei 6 Clustern müssen da die Taktraten noch mehr gesenkt werden. Wir werden sehen, dauert ja nur noch 2 Wochen;)

Der Haarspalterei zu Liebe ist 60+20= 80%. Im heutigen iPhone6 Plus taktet die GPU bei 533MHz und im iPhone6 bei 467MHz peak. Um ungefaehr die Haelfte der A9X GPU zu erreichen, wird die GPU im 6S Plus auch nicht niedriger takten als die A9X GPU.

AffenJack
2015-09-16, 18:05:34
Ich kenne die Beiträge von Kuo, der Mann kennt sich bei den asiatischen Zulieferern gut aus und so sind manche seiner Vorhersagen ausgesprochen nah dran.
Aber die Geschichte, Apple habe erst Mitte April entschieden, Mal eben 30% der A9-produktion zu TSMC rüberzuschieben? Das ist ausgemachter Blödsinn!

Nun nimmt man die Gerüchteküche, so sollte eh bei beiden Foundries gefertigt werden und dazu noch bei Gf. Da Gf aber nicht liefern konnte, wurde der GF Anteil zu TSMC rübergeschoben, denn Samsung ist einfach ausgelastet.


Hmm, ich hatte bisher den 16FFC als 16FF+ mit Produktionsvorteilen wg. reduzierter Anforderungen an das Design und damit kompakteren Abmessungen gesehen, lasse mich aber gerne eines besseren belehren.


Prinzipiell ja, aber obwohl TSMC von den ganzen Verbesserungen spricht soll die Roadmap von den so aussehen:

TSMC also provided updates on other processes on its roadmap, which includes the following:

High Performance – 28HP, 28HPM, 20SoC, 16FF+
Mainstream – 28LP, 28HPC, 28HPC+, 16FFC
Ultra Low Power – 55ULP, 40ULP, 28ULP, 16FFC (16FFC is in both mainstream and low power categories)

http://community.cadence.com/cadence_blogs_8/b/ii/archive/2015/04/12/tsmc-symposium-new-16ffc-and-28hpc-processes-target-mainstream-designers-and-internet-of-things-iot


Nein zum letzten, eben weil der display den meisten zusaetzlichen Strom fressen wird. Den SoC noch zusaetzlich belasten ist nicht unbedingt die beste Idee.

Gemäß dieser Logik würde A9X nicht existieren und das Ipad Pro hätte den A9 drin. Aber Tablets haben durch ihre Größe SoCs mit mehr Stromverbrauch.


Der Haarspalterei zu Liebe ist 60+20= 80%. Im heutigen iPhone6 Plus taktet die GPU bei 533MHz und im iPhone6 bei 467MHz peak. Um ungefaehr die Haelfte der A9X GPU zu erreichen, wird die GPU im 6S Plus auch nicht niedriger takten als die A9X GPU.

Nein, 1,2x 1,6 = 1,92 :wink:

Ailuros
2015-09-17, 09:43:20
Gemäß dieser Logik würde A9X nicht existieren und das Ipad Pro hätte den A9 drin. Aber Tablets haben durch ihre Größe SoCs mit mehr Stromverbrauch.

Mit dem Pro wird aber nicht nur der SoC sondern auch der display groesser. Bei allen iPads der vorigen paar Generationen gab es keine Aenderung in der display Groesse und 1536p Aufloesung.

Nein, 1,2x 1,6 = 1,92 :wink:

Touche.

533MHz * 20% = 640MHz jetzt frag mich aber bloss nicht warum eine ~470MHz Frequenz mit mehr clusters wahrscheinlicher ist fuer Apple's uebliche Masche :freak:

AffenJack
2015-09-17, 18:15:13
Mit dem Pro wird aber nicht nur der SoC sondern auch der display groesser. Bei allen iPads der vorigen paar Generationen gab es keine Aenderung in der display Groesse und 1536p Aufloesung.


Aha, dann sag mir doch wieso das Iphone 6 Plus höher taktet als das normale Iphone 6. Laut deiner Aussage hier ist das ein Ding der Unmöglichkeit, da das Display vom I6+ ja größer wird und eine höhere Auflösung hat.

Sunrise
2015-09-17, 21:32:37
Es wäre schon höchst überraschend, wenn Apple es nötig hätte, 8 Cluster stark hochgetaktet zu verbauen, wenn sie den A9X sowieso bauen und sie mit IMGTec IP sowieso alles machen können. Warum sollte man ausgerechnet beim Pro diese Entscheidung treffen, wenn schon das iPad Air 2 die Anzahl verdoppelt hat? Und zusätzlich gab es sogar die 3-Core CPU.

Die logische Konsequenz aus 4 und 8 C bei den Vorgängern sind 6 und 12 C bei den Nachfolgern.

Wir werden es ohnehin bald genau wissen.

AffenJack
2015-09-18, 09:00:12
Jetzt wo ich den Dieshot bei B3d nochmal gesehen hab glaube ichs auch. Ich bin gespannt wie groß die beiden Chips werden.

Sunrise
2015-09-18, 10:10:15
Laut meiner Schätzung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10695898#post10695898) sind es beim A9 etwa 102,72mm². Also praktisch gleich groß wie der A7. Apple hat hier gut in die GPU und auch (trotz Dual-Core) in die CPU investiert. Daher trotz neuer Fertigung der Zuwachs im Vergleich zum A8, der wohl auf 20nm konservativer ausgelegt werden musste, war der doch auffällig klein.

Der A9X muss wieder deutlich größer sein, vor allem bei 12 Clustern. Die GPU im A9 belegt laut Die Shot etwa 1/3 des Platzes bei 6 Clustern (Augenmaß, nicht nachgerechnet), zusätzlich min. 3-Core CPU und wir kommen da auf neue Rekorde jenseits der 135mm². Hier sehe ich auch das einzige Argument für "nur" 8 Cluster, wenn Apple um alles in der Welt Platz sparen wollte.

Dem Apple Shot vom A9X der Keynote traue ich daher nicht so recht, da müssen wir auf richtige Bilder warten.

deekey777
2015-09-18, 21:15:53
Hatten wir das schon?
http://vr-zone.com/articles/apple-a9-dual-core-soc-clocked-1-8ghz-reveals-iphone-6s-listing-tenaa/99198.html

Dual-Core mit 1,8 GHz.

Sunrise
2015-09-18, 21:50:38
Nein, hatten wir noch nicht. Die chinesische Seite ist allerdings voller Schreibfehler, dort steht was von 4MB RAM direkter drunter. Zudem wären das nichtmal 30% mehr Takt, da müsste Apple nochmal ordentlich IPC nachgelegt haben, damit man auf "bis zu 70%" kommt und die Apple-Angaben waren bisher auch realistisch.

Nightspider
2015-09-18, 21:55:24
Welche Taktraten sind beim A9X zu erwarten?

Von 3 solcher CPU Kerne mit 2Ghz dürften Sony und MS nur träumen. :D

prinz_valium
2015-09-19, 18:54:33
Welche Taktraten sind beim A9X zu erwarten?

Von 3 solcher CPU Kerne mit 2Ghz dürften Sony und MS nur träumen. :D

was meinen?
schlecht wird ein snapdragon 820 auch nicht sein

robbitop
2015-09-20, 00:08:41
Aber an Twister IPC ist nicht einmal annähernd zu denken. QC kann zufrieden sein, wenn sie Cyclone IPC erreichen werden mit Kryos.

Ailuros
2015-09-21, 11:25:23
Aha, dann sag mir doch wieso das Iphone 6 Plus höher taktet als das normale Iphone 6. Laut deiner Aussage hier ist das ein Ding der Unmöglichkeit, da das Display vom I6+ ja größer wird und eine höhere Auflösung hat.

Fuer Apple sind niedrigere als sonst benutzte Frequenzen glaubwuerdiger. Ab Serie6/28nm sind hoehere Frequenzen moeglich als bis zu Serie5. Apple hat beim letzten bei 280MHz fuer den 554MP4 halt gemacht. Mit Rogue/A7 ging es dann ab =/>450MHz los, waehrend Rogue und co eigentlich fuer =/>600MHz unter 28nm vorgeschlagen werden. 533MHz fuer einen quad cluster Rogue ist im 6 Plus vergleichsmaessig noch lange kein Ereignis, schon gar nicht da weder das display dessen noch die Aufloesung irgendwelche Rekorde fuer heutige "phablets" bricht. 470 im iPhone6 bzw. 533MHz im iPhone6 Plus bewegen sich nach wie vor in unmittelbarer Frequenz-naehe jeglicher Rogue Implementierung von Apple.

Wir sind jetzt aber doch am Ende bei 6 clusters im A9 und ich fress einen Schokoladen-Besen wenn Apple das Ding auch noch auf 770MHz taktet wie jemand bei B3D spekuliert. Ergo angenommen die Leistung ist so wie bis jetzt hier projeziert (einen Schnitt niedriger als A8X GPU Leistung fuer die A9 GPU), wird die GPU wohl wo genau takten?

Nur zur Erinnerung: ich teilte Deine Meinung in letzter Zeit; es war Nebu mit seinem hint von einem die shot mit 6 clusters der mir die Ohrfeige verpasste. Den Rest kann man mit backwards speculative math ziemlich genau ausrechnen.

Laut meiner Schätzung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10695898#post10695898) sind es beim A9 etwa 102,72mm². Also praktisch gleich groß wie der A7. Apple hat hier gut in die GPU und auch (trotz Dual-Core) in die CPU investiert. Daher trotz neuer Fertigung der Zuwachs im Vergleich zum A8, der wohl auf 20nm konservativer ausgelegt werden musste, war der doch auffällig klein.

Der A9X muss wieder deutlich größer sein, vor allem bei 12 Clustern. Die GPU im A9 belegt laut Die Shot etwa 1/3 des Platzes bei 6 Clustern (Augenmaß, nicht nachgerechnet), zusätzlich min. 3-Core CPU und wir kommen da auf neue Rekorde jenseits der 135mm². Hier sehe ich auch das einzige Argument für "nur" 8 Cluster, wenn Apple um alles in der Welt Platz sparen wollte.

Dem Apple Shot vom A9X der Keynote traue ich daher nicht so recht, da müssen wir auf richtige Bilder warten.

Ausser A9X ist die bombastische Ueberraschung und hat nur hoehere Frequenzen anstatt mehr Einheiten vs. A9 (man nennt es dann auch nicht unbedingt "A9X"), duerfte das Ding nicht kleiner als 160mm2 werden. Milchmaedchen-Schaetzung meinerseits 3.5Mrd fuer A9?

So viel auch zur angeblichen "Unmoeglichkeit" von jemand vor geraumer Zeit fuer einen so grossen SoC unter einem FinFET Prozess.

smalM
2015-09-21, 13:18:57
Wilde Größenspekulationen auf Grundlage eines Die-Shots, bei dem alle vier Ränder im Dunkeln verschwinden und man nur ganz schlecht abschätzen kann, wieviel der Fläche noch verborgen ist.

Schön auch bei B3D, wo jemand eine Rahmen um einen Bereich legt, ihn mit L2 kennzeichnet und aus der Rahmengröße 2MB Cache ableitet. Nur gehört im Rahmen ein Drittel gar nicht zum Cache und ein weiteres Drittel ist nicht zu sehen, da herrscht nur Dunkelheit.

Der Wahnsinn hat offenbar Methode :biggrin:

y33H@
2015-09-21, 13:21:16
Der Die-Shot ist vom A9, nicht vom A9X.

Ailuros
2015-09-21, 13:32:36
Der Die-Shot ist vom A9, nicht vom A9X.

So viel ist klar; Sunrise schaetzt Groessen von die shots normalerweise ziemlich gut ein. Hat er recht und A9 ist bei etwas ueber 100mm2, dann kann A9X schwer "nur" ~130mm2 gross sein wenn es eine 12 cluster GPU wie spekuliert hat.

Sunrise
2015-09-21, 14:00:14
Wilde Größenspekulationen auf Grundlage eines Die-Shots, bei dem alle vier Ränder im Dunkeln verschwinden und man nur ganz schlecht abschätzen kann, wieviel der Fläche noch verborgen ist.
Das kann ich ganz einfach aufklären, schau mal auf das Datum, wann ich diese Schätzung getätigt habe, vieleicht fällt dir was auf. :wink:

Aber in Kürze:
Meine Schätzung bzw. Messung fußt nicht auf dem Apple Dieshot der Keynote, den gab es ja zu der Zeit noch nicht. Ist aber auch nicht bombenfest, wenn auch die damaligen Schätzungen bisher recht gut getroffen hatten.

smalM
2015-09-22, 01:39:07
@Sunrise
Ich habe die Genauigkeit von 0,01mm² jedenfalls sehr bewundert :biggrin:

Sunrise
2015-09-22, 08:23:49
@Sunrise
Ich habe die Genauigkeit von 0,01mm² jedenfalls sehr bewundert :biggrin:
Die sind auch mehr als Spaßfaktor gedacht, zumindest Chipworks ist da aber bei den SoCs auch sehr genau, im Gegensatz zu GPUs, wo wir oft nur die offizielle gerundete Angabe vor dem Komma haben.

Ailuros
2015-09-22, 08:31:54
Anandtech wird vielleicht den GPU block im A9 einschaetzen koennen, wobei es eher bedaurnswert ist dass Apple diesmal keine Transistoren-Anzahl angegeben hat (oder hab ich es verpasst?). Ganz grob eingeschaetzt basierend auf Apple's A8X Transistoren-Anzahl duerfte dessen GPU irgendwo ueber 800Mio Tranistoren schwer sein.

Auf der letzten Anzahl basierend hab ich auch das transistor-budget fuer A9 via Milchmaedchen-Rechnung eingeschaetzt. ~1.1+Mrd Transistoren fuer eine GT7600 und wenn's ~1/3 vom die ist.....;D

Sunrise
2015-09-22, 11:27:01
Ja, Apple scheint da aktuell wenig Interesse zu haben, die Transistoren-Menge zu nennen, warum auch immer.

Es muss jedenfalls eine ziemlich ordentliche Steigerung gegeben haben. Nicht nur die GPU wurde deutlich komplexer, auch die CPU (IPC), evtl. die Caches und der M9 ist direkt integriert, auch wenn ich den alleine als eher nebensächlich betrachte, so winzig wie der laut Apple auf aktueller Fertigung noch ist.

Also über 3 Milliarden Transistoren sollten wir hier locker zusammen bekommen, evtl. eher Richtung 3,5 Milliarden. Der A9 sieht auch extrem dicht gepackt aus, zumindest erkenne ich da kaum Leerräume um die Funktionsblöcke, das würde alles gut zusammen passen. Der A9X schießt natürlich dann den Vogel ab, wenn wirklich 12 Cluster verbaut wurden.

deekey777
2015-09-22, 12:27:31
https://twitter.com/MoonshineDesign/status/646158938799378432/photo/1?ref_src=twsrc^tfw

http://9to5mac.com/2015/09/21/iphone-6s-arrives-early/
Die Ergebnisse sind nicht ohne.

Ailuros
2015-09-22, 12:31:35
Tja unter dem Licht der kommenden high end GPU chips kann man leicht denken was wohl um die 5 Mrd. Transistoren sind; aber ein tablet SoC fast oder irgendwo gleich kompliziert wie ein GM204 GPU chip ist schon eine Hausnummer. Bleibt nur noch die Frage ob sie in absehbarer Zeit das Aufruestungs-tempo bremsen muessen oder ob es doch weiterhin so froehlich weiter gehen kann.

AffenJack
2015-09-22, 12:40:18
Tja unter dem Licht der kommenden high end GPU chips kann man leicht denken was wohl um die 5 Mrd. Transistoren sind; aber ein tablet SoC fast oder irgendwo gleich kompliziert wie ein GM204 GPU chip ist schon eine Hausnummer. Bleibt nur noch die Frage ob sie in absehbarer Zeit das Aufruestungs-tempo bremsen muessen oder ob es doch weiterhin so froehlich weiter gehen kann.

Eigentlich ist das keine frage, da der Prozess nur alle 2 Jahre verbessert wird in der Regel, wirds auch in Richtung einer Verdopplung alle 2 Jahre und nicht pro Jahr gehen. Viel mehr geht schlicht nicht.

deekey777
2015-09-22, 13:06:25
Tja unter dem Licht der kommenden high end GPU chips kann man leicht denken was wohl um die 5 Mrd. Transistoren sind; aber ein tablet SoC fast oder irgendwo gleich kompliziert wie ein GM204 GPU chip ist schon eine Hausnummer. Bleibt nur noch die Frage ob sie in absehbarer Zeit das Aufruestungs-tempo bremsen muessen oder ob es doch weiterhin so froehlich weiter gehen kann.
Wie Demirug schon schrieb und ich persönlich erleben durfte (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10663707&postcount=4187):
Aufgrund des Schlankheitswahns ist die Kühlung zu schwach, damit diese Leistung länger aufrechterhalten bleibt. Entweder werden die Geräte dicker, um die Wärme vernünftig abzuführen, oder es wird schon gedrosselt, bevor der Tester den Timer starten kann.

Sunrise
2015-09-22, 13:19:59
Wie Demirug schon schrieb und ich persönlich erleben durfte (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10663707&postcount=4187):
Aufgrund des Schlankheitswahns ist die Kühlung zu schwach, damit diese Leistung länger aufrechterhalten bleibt. Entweder werden die Geräte dicker, um die Wärme vernünftig abzuführen, oder es wird schon gedrosselt, bevor der Tester den Timer starten kann.
Die Taptic Engine scheint auch einiges an Platz gekostet zu haben, was natürlich die insgesamte Kühlung aufgrund der sich weiter "verdünnenden" Geräte auch nicht gerade erleichert. Ich bin mal gespannt, ob diese brachiale Mehrleistung des A9, der immerhin im Single-Core den Multi-Core Wert von meinem A7 erreicht und beim Multi-Core dann knapp unter dem A8X landet wirklich gleichzeitig noch so sparsam und auf längere Zeit performant ist oder ob sich hier was verschlechtert hat.

Avalox
2015-09-22, 18:07:44
https://twitter.com/MoonshineDesign/status/646158938799378432/photo/1?ref_src=twsrc^tfw

http://9to5mac.com/2015/09/21/iphone-6s-arrives-early/
Die Ergebnisse sind nicht ohne.


Der Vorteil der A9 CPU ist allein auf seinen höheren Takt zu beziehen?
Das finde ich eher etwas enttäuschend.

Ist nicht viel geblieben von der 70% Aussage seitens Apple?!?

AffenJack
2015-09-22, 18:14:29
Geekbench ist ja auch nur ein Bench, aber da siehts in der Tat eher nach 50% Verbesserung aus. 30% durch Takt und 15% nochmal durch die bessere IPC. Bin gespannt wo man die 70% finden wird die Apple verlautbart hat.

Avalox
2015-09-22, 18:19:33
30% höherer Takt, 30% höhere CPU Leistung des A9. Wo siehst du da 50%?

Ein A9 CPU Kern ist 50% schneller als ein Cortex-A57 Kern im Exynos 7420.

AffenJack
2015-09-22, 18:27:10
Hab das von CB:
http://www.computerbase.de/2015-09/apple-a9-soc-hat-zwei-kerne-3-mb-l2-cache-und-bis-zu-1.8-ghz/#diagramm-geekbench-3-total-single-core

Zwischen 40-50% je nach Art des Benches

Avalox
2015-09-22, 18:39:41
Ich habe mir einen aktuellen Wert fürs iPhone 6 in Geekbench selbst gesucht, der lag etwas höher, als der im Computerbase Vergleich. Das machte dann ca. 30% mehr Takt und etwas unter 40% Performancevorteil.

Natürlich im Gesamtscore. Einzelne Aspekte der CPU sind ja kaum zu vergleichen, da muss man auf die detaillierteren Ergebnisse des Geekbench warten.
Also rund 30% mehr Takt und 40% mehr Performance.

Da bleiben die IPC seit dem A7 aber recht konstant.

AffenJack
2015-09-22, 18:51:09
Nee, so "schlecht" isses nicht. Hat sich auch eindeutig doch noch einiges an der IPC getan. Siehe:
https://browser.primatelabs.com/geekbench3/3515465

Avalox
2015-09-22, 19:03:02
na ja. Verbesserungen des IPC bewegen sich immer im einstelligen Prozentbereich. Diesmal sind es 7 - 8%.

Das was die A9 CPU so abhebt von der A8 CPU ist allein der Takt. Der Rest ist nett, sicherlich auch schön, dass so schön linear skaliert wird. Spricht ja für das neue Design.

Sunrise
2015-09-22, 19:22:18
Dass fast alles aus der neuen Fertigung kommt hatten wir ja schon, und ich bin mir auch recht sicher, dass das bei Dual-Core wie vermutet voll durchschlägt. Dass keine 70% rauskommen (bei Geekbench) ist auch klar, das war auch beim A8 nicht anders. Ist also nichts Neues. Anhand welcher Anwendung(en) Apple das festmacht wissen wir nicht.

Auf einem iPhone ist die Fläche zu begrenzt, um wirklich mehrere Dinge parallel zu bedienen, daher wird dann nach oben skaliert und an der pro Core Leistung immer in kleineren Schritten gearbeitet, damit man die Salami-Taktik auch bei abnehmendem Grenzertrag aufrecht erhalten kann, gell robbitop? ;)

Der Sprung vom A7 auf den A9 ist jedenfalls nicht ohne, dabei bei gleicher Größe (Spekulation) und weiterhin gleicher Akkulaufzeit auf 14nm LPE. Da sind noch genug Reserven bis nächstes Jahr.

smalM
2015-09-22, 20:53:48
Eventuell sehen wir hier in den verschiedenen Ergebnissen Unterschiede zwischen warmen/heißen und kalten Geräten.

Wenn der A9 tatsächlich 3MB L2-Cache haben sollte, dann muß zum einen der Die auf dem Photo noch ein ganzes Stück nach rechts rausragen. Zum anderen, wieviel hat Apple dann bloß dem A9X mitgegeben?

Sunrise
2015-09-22, 21:31:47
Eventuell sehen wir hier in den verschiedenen Ergebnissen Unterschiede zwischen warmen/heißen und kalten Geräten.
Ist mir auch schon aufgefallen, von 1,79GHz bis 1,85GHz ist alles dabei. Vor allem gibt es auch beim 6S Plus stärkere Schwankungen, wenn die geposteten Leaks bzw. "Reviews" auch alle stimmen.

Wenn der A9 tatsächlich 3MB L2-Cache haben sollte, dann muß zum einen der Die auf dem Photo noch ein ganzes Stück nach rechts rausragen. Zum anderen, wieviel hat Apple dann bloß dem A9X mitgegeben?
Beim A9X sagt das Milchmädchen min. 4,5MB Cache. Wie schon vermutet hat Apple wohl kräftig am Cache investiert, was clever ist, da erstens dicht packbar, äußerst geringer Verbrauch und wohl evtl. auch damit die Twister-Kerne nicht verhungern.

Ailuros
2015-09-23, 09:08:51
Eigentlich ist das keine frage, da der Prozess nur alle 2 Jahre verbessert wird in der Regel, wirds auch in Richtung einer Verdopplung alle 2 Jahre und nicht pro Jahr gehen. Viel mehr geht schlicht nicht.

Ich befuerchte sogar schlimmeres fuer die weitere Zukunft aber wir werden sehen.

Wie Demirug schon schrieb und ich persönlich erleben durfte (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10663707&postcount=4187):
Aufgrund des Schlankheitswahns ist die Kühlung zu schwach, damit diese Leistung länger aufrechterhalten bleibt. Entweder werden die Geräte dicker, um die Wärme vernünftig abzuführen, oder es wird schon gedrosselt, bevor der Tester den Timer starten kann.

Beim "Schlankheitswahn" geht es eher ums Gewicht vom Geraet als alles andere. Mehr als 500gr ist eben ergonomisch Bloedsinn ein ultra thin tablet laenger in einer Hand zu halten. Da ich die Diskussion mit Demi hatte ist sie mir sehr wohl bewusst, nur hab ich den Eindruck dass er anspruchsvollere Spiele als die heutigen existierenden meinte und nicht der in seiner Mehrzahl lahmer Kaese der an mobilen Spielen kursiert. Wenn's auf einem iPad zu heiss wird, dann stell Dir mal vor wie es auf jeglichen anderen Android high end tablet aussehen wuerde ueberhaupt mit einem QCOM oder Samsung SoC wo es fast immer um zich Mal mehr throttelt als auf einem jeglichen Apple SoC. Ultra thin tablets bzw. jegliches smartphone sind so oder so nicht besonders geeignet fuer ernsthaftes gaming. Selbst wenn man das Hitze-problem besser loesen wuerde, ist und bleibt die Ergonomie dieser Geraete fuer Spiele beschissen.

Wenn jetzt jemand fragt warum Apple GPU Leistung so aggressiv skaliert, ist und bleibt die Antwort dass CPU Leistung mit ansteingender Anzahl von cores nicht linear skalieren im Gegensatz zu GPUs. Der iPhone A9 SoC mit seiner 6 cluster GPU wird fuer's UI und einfachen Brei ausserhalb von 3D nicht mehr als 2 cluster benutzen.

Metal bzw. Vulkan (sprich low level APIs) sollen ja helfen, aber Wunder kann man davon auch keine erwarten. Uebrigens braucht man bei relativ hohen Umgebungstemperaturen wie bei uns hier eine Kuehlungsplatte wenn man auf einem gaming laptop ueber laengere Zeit ein anspruchsvolles Spiel spielen will. Ausser man kauft etwas so extravagantes: http://images.anandtech.com/doci/9649/GX700_DOCK_150618_1442496763.jpg

Sunrise
2015-09-23, 17:39:58
Laut der BILD (http://www.bild.de/digital/smartphone-und-tablet/iphone/iphone-6s-und-6s-plus-diese-iphones-will-man-kraeftig-druecken-42619282.bild.html) skaliert der A9 tatsächlich bis 1,85GHz in beiden iPhones (auch das Plus), wie oben schon geschrieben.

Interessant sind die Werte, welche die Bild gemessen hat, vor allem im Vergleich zu denen der Besitzerin des iPhones 6S, die u.a. auch einen 3DMark-Durchlauf dokumentiert hat:
https://twitter.com/MoonshineDesign

3DMark
https://pbs.twimg.com/media/CPj4Xx9UsAAScJg.jpg
https://pbs.twimg.com/media/CPj4XzQUYAE3u2F.jpg

Vergleiche ich die spaßeshalber mit 3DMark-Werten des Samsung Galaxy S6 (http://www.futuremark.com/hardware/mobile/Samsung+Galaxy+S6/review) kommt das hier raus:


3DMark Unlimited | Average | Graphics | Physics | GFX 1 | GFX 2 | Physics
------------------+---------+----------+---------+-----------+-----------+---------
iPhone 6S | 24842 | 39663 | 10764 | 208.7 FPS | 146.9 FPS | 34.2 FPS
iPad Air 2 | 21657 | 31486 | 10363 | 148 FPS | 128 FPS | 33 FPS
iPhone 6 | 17275 | 22749 | 9378 | 122 FPS | 83 FPS | 30 FPS
Samsung Galaxy S6 | 21037 | 16590 | 22634 | 113 FPS | 87 FPS | 53 FPS

Die Bild bekommt oben aber sowohl beim 6S / 6S Plus einen deutlich höheren Average von 27909 / 27884 Punkten, was doch sehr nach leichtem throttling aussieht (etwa 10%).

Dennoch natürlich abseits der Physics-Werte absolut beeindruckend. Mehr müssen tiefergehende Tests zeigen. (anandtech und Co.)

EDIT:
- Werte des iPhone 6 auf iOS 9 hinzugefügt (http://www.futuremark.com/hardware/mobile/Apple+iPhone+6/review)
- Werte des iPad Air 2 auf iOS 9 hinzugefügt (http://www.futuremark.com/hardware/mobile/Apple+iPad+Air+2/review)

Ailuros
2015-09-23, 19:32:46
Hmmm im graphics test schneller als das A8X? Wenn's nur im 3dmark der Fall ist, dann womoeglich dank hoeherer Bandbreiten-Effizienz im A9. Wieso 3dmark und nicht gleich GFXbench3.x? *seufz*

AffenJack
2015-09-23, 19:37:35
Ich befuerchte sogar schlimmeres fuer die weitere Zukunft aber wir werden sehen.


Ja, aber das kommt erst etwas später. Als nächstes kommen ja erstmal 10nm und 7nm, die jeweils nur ein Sprung wie der 20nm TSMC Prozess werden. Da wird das Geweine schon beginnen, aber durch die besseren Speichertechniken wird man da noch was rausholen. Später wirds schwerer.

Hmmm im graphics test schneller als das A8X? Wenn's nur im 3dmark der Fall ist, dann womoeglich dank hoeherer Bandbreiten-Effizienz im A9.

A8X ist da nichtmal 50% schneller als der A8. Den Test kann man vergessen. Wer weiß, was da limitiert.

Ailuros
2015-09-23, 19:38:41
A8X ist da nichtmal 50% schneller als der A8. Den Test kann man vergessen. Wer weiß, was da limitiert.

Bandbreite afaik.

deekey777
2015-09-23, 21:50:03
Laut der BILD (http://www.bild.de/digital/smartphone-und-tablet/iphone/iphone-6s-und-6s-plus-diese-iphones-will-man-kraeftig-druecken-42619282.bild.html) skaliert der A9 tatsächlich bis 1,85GHz in beiden iPhones (auch das Plus), wie oben schon geschrieben.

Interessant sind die Werte, welche die Bild gemessen hat, vor allem im Vergleich zu denen der Besitzerin des iPhones 6S, die u.a. auch einen 3DMark-Durchlauf dokumentiert hat:
https://twitter.com/MoonshineDesign

3DMark
https://pbs.twimg.com/media/CPj4Xx9UsAAScJg.jpg
https://pbs.twimg.com/media/CPj4XzQUYAE3u2F.jpg

Vergleiche ich die spaßeshalber mit 3DMark-Werten des Samsung Galaxy S6 (http://www.futuremark.com/hardware/mobile/Samsung+Galaxy+S6/review) kommt das hier raus:


3DMark Unlimited | Average | Graphics | Physics | GFX 1 | GFX 2 | Physics
------------------+---------+----------+---------+-----------+-----------+---------
iPhone 6S | 24842 | 39663 | 10764 | 208.7 FPS | 146.9 FPS | 34.2 FPS
iPad Air 2 | 21657 | 31486 | 10363 | 148 FPS | 128 FPS | 33 FPS
iPhone 6 | 17275 | 22749 | 9378 | 122 FPS | 83 FPS | 30 FPS
Samsung Galaxy S6 | 21037 | 16590 | 22634 | 113 FPS | 87 FPS | 53 FPS

Die Bild bekommt oben aber sowohl beim 6S / 6S Plus einen deutlich höheren Average von 27909 / 27884 Punkten, was doch sehr nach leichtem throttling aussieht (etwa 10%).

Dennoch natürlich abseits der Physics-Werte absolut beeindruckend. Mehr müssen tiefergehende Tests zeigen. (anandtech und Co.)

EDIT:
- Werte des iPhone 6 auf iOS 9 hinzugefügt (http://www.futuremark.com/hardware/mobile/Apple+iPhone+6/review)
- Werte des iPad Air 2 auf iOS 9 hinzugefügt (http://www.futuremark.com/hardware/mobile/Apple+iPad+Air+2/review)
Da hat man richtig Lust darauf hinzuweisen, dass das Galaxy S6 eine deutlich höhere Auflösung als das iPhone 6S hat.

mczak
2015-09-24, 05:22:22
Da hat man richtig Lust darauf hinzuweisen, dass das Galaxy S6 eine deutlich höhere Auflösung als das iPhone 6S hat.
Ich weiss nicht worauf du da anspielen willst aber das ist bei dem Test völlig egal.
Der Graphics-Score liegt da (praktisch ausschliesslich aufgrund GPU2 Test, bei GPU1 nehmen die sich nicht viel) oberhalb eines Tegra K1 (der Gesamtscore liegt allerdings aufgrund des halb so hohen Physics-Scores klar darunter), bei vermutlich doch sehr deutlich geringerem Verbrauch. An den Tegra X1 kommt man natürlich trotzdem nicht heran, ist sowieso (gegenüber K1 wie auch X1) ein ziemlich gewagter Vergleich (K1/X1 haben natürlich klare Fabrikationsnachteile, die sind halt nicht mehr taufrisch, werkeln dafür in Tablets statt einem Phone).

Sunrise
2015-09-24, 07:41:28
Ja, ich hatte sogar überlegt ob ich die Tegra X1-Werte auch noch mit aufnehme, aber das würde dann etwas zu weit gehen, da sprechen wir schließlich über einen SoC der angefangen vom Tablet bis zur Multimedia-Box unter Umständen ein Vielfaches verbraucht. Die Werte sind jetzt natürlich nicht minder beeindruckend, aber bei sowas würde ich dann auch ganz gern eine hypothetische 16-Cluster Rogue 7XT dagegen stellen, damit wir auf annähernd gleichem TDP-Level bleiben.

Und selbst wenn, zumindest an der Leistung des X1 im Shield Tablet sollte Apple vorbeiziehen, wenn man mal die Physics-Test außer Acht lässt. Das mit der Fertigung sollte man natürlich auch nicht vergessen, hauptsächlich aber weil NV ganz andere Designziele hat und erst ab Tablet überhaupt mitspielt und das wird sich wohl auch nicht ändern.

Ailuros
2015-09-24, 09:16:53
Da hat man richtig Lust darauf hinzuweisen, dass das Galaxy S6 eine deutlich höhere Auflösung als das iPhone 6S hat.

Nach allen Indizien muss sich die A9 GPU alles andere als verstecken vor der 7420 GPU. Da es wohl bald auch offscreen 1080p (ergo bei gleicher Aufloesung) Resultate geben wird, ist das obrige so substanzlos wie es ueberhaupt gehen kann.

Ich weiss nicht worauf du da anspielen willst aber das ist bei dem Test völlig egal.
Der Graphics-Score liegt da (praktisch ausschliesslich aufgrund GPU2 Test, bei GPU1 nehmen die sich nicht viel) oberhalb eines Tegra K1 (der Gesamtscore liegt allerdings aufgrund des halb so hohen Physics-Scores klar darunter), bei vermutlich doch sehr deutlich geringerem Verbrauch. An den Tegra X1 kommt man natürlich trotzdem nicht heran, ist sowieso (gegenüber K1 wie auch X1) ein ziemlich gewagter Vergleich (K1/X1 haben natürlich klare Fabrikationsnachteile, die sind halt nicht mehr taufrisch, werkeln dafür in Tablets statt einem Phone).

Es gibt kein tablet mit Tegra X1. Mit K1 ja aber das liegt heutzutage mit Metal ein gutes 30% hinter dem A8X was die GPU betrifft.

Ja, ich hatte sogar überlegt ob ich die Tegra X1-Werte auch noch mit aufnehme, aber das würde dann etwas zu weit gehen, da sprechen wir schließlich über einen SoC der angefangen vom Tablet bis zur Multimedia-Box unter Umständen ein Vielfaches verbraucht. Die Werte sind jetzt natürlich nicht minder beeindruckend, aber bei sowas würde ich dann auch ganz gern eine hypothetische 16-Cluster Rogue 7XT dagegen stellen, damit wir auf annähernd gleichem TDP-Level bleiben.

Und selbst wenn, zumindest an der Leistung des X1 im Shield Tablet sollte Apple vorbeiziehen, wenn man mal die Physics-Test außer Acht lässt. Das mit der Fertigung sollte man natürlich auch nicht vergessen, hauptsächlich aber weil NV ganz andere Designziele hat und erst ab Tablet überhaupt mitspielt und das wird sich wohl auch nicht ändern.


Mir sagt 3dmark fuer ULP SoC GPUs leider weniger aus als alles GFXbench. Ich warte lieber ab wie es im letzten aussieht da dessen benchmarks erstmal um einiges GPU bound sind und zweitens es eine Reihe von low level test hat die mehr Indizien fuer die Staerken/Schwaechen jeder Loesung angeben. Soll heissen dass ich noch meine Vorbehalte habe denn ich bin mir nicht sicher dass das iPhone6S um so viel schneller sein wird als das 6 Plus in Manhattan 3.0 wie im 3dmark bench.

deekey777
2015-09-24, 10:39:32
Ich weiss nicht worauf du da anspielen willst aber das ist bei dem Test völlig egal.
.
Ich darf doch etwas trollen, oder?

Das Galaxy S6 hat eine deutlich höhere Auflösung bei niedrigerer Grafikleistung. Natürlich kommt jetzt der (berechtigte) Einwand, dass es kaum Anwendungen gibt, die so komplex sind, dass die Grafikleistung nicht ausreicht oder die Grafikeinstellungen heruntergefahren werden müssen. Es gab solche Spiele, und da muss ich ehrlicherweise recherchieren, ob es sie noch gibt, denn Grafikkracher gibt es kaum.

Questionable rumor claims Apple's next-gen 'A10' processor could switch to six cores (http://appleinsider.com/articles/15/09/23/questionable-rumor-claims-apples-next-gen-a10-processor-could-switch-to-six-cores)

Ich finde die Originalaussage nicht, aber Apple soll auch im Bereich big.LITTLE forschen (natürlich schauen sie sich alle Konzepte an).

Egal. Am Ende stellt es sich eh heraus, dass der A9X eigentlich A9MP2 ist. X-D

robbitop
2015-09-24, 11:48:47
Die custom cores scheinen offenbar keine Little Cores zu brauchen um auch bei Teillast effizient zu laufen.

Avalox
2015-09-24, 12:39:11
Was Teillast beim iPhone ist, wird über das OS gesteuert und dieses ist restriktiv und beschränkend.
Das was Apple als Ready Standby Betrieb benötigt läuft auf dem M9 Kern, einen Little Kern auf den der Entwickler der Apps schreibt gar keinen Zugang hat, oder ihn auch nur anders selbst nutzen könnte und damit für das Gerätekonzept Anwendungsmöglichkeiten gar nicht erst umgesetzt werden können.

BigKid
2015-09-24, 13:37:30
Meine Polar M400 Pulsuhr hat vor einigen Monaten per Update auch Smartwatch Features spendiert bekommen. Seit dem geht der Akku von meinem EierPhone auch im Standby ganz schön runter...
Meint ihr der neue intergierte M9 und der neue Fertigungsprozess allgemein könnten in dem Szenario ne positive Rolle spielen ?

robbitop
2015-09-24, 13:38:37
Der M9 enthält aber keinen Application Prozessor. Das ist überhaupt nicht vergleichbar. Da ist unter anderem ein Cortex Kern aus der M-Serie drin. Das haben AFAIK praktisch alle modernen SoCs für Hintergrundkram.
Ansonsten benötigt Qualcomm auch keinen Little Prozessor. Intel auch nicht. AMD auch nicht.

iOS war tatsächlich sehr restriktiv - zugunsten des Energie und Ressourcenbedarfs - öffnet sich aber immer weiter. Siehe Splitscreen (also echtes Mutlitasking) auf aktuellen 2 GiB Geräten.

Avalox
2015-09-24, 13:57:09
Der M9 enthält aber keinen Application Prozessor. Das ist überhaupt nicht vergleichbar. Da ist unter anderem ein Cortex Kern aus der M-Serie drin. Das haben AFAIK praktisch alle modernen SoCs für Hintergrundkram.
Ansonsten benötigt Qualcomm auch keinen Little Prozessor. Intel auch nicht. AMD auch nicht.

Klar ist es vergleichbar, denn Apple lagert auf diesen Aufgaben aus, welche in marktbegleitenden Systemen für den Benutzer durch Apps offen stehen, bei Apple aber deshalb natürlich verschlossen bleiben.

Ausserdem bauen weder AMD, noch Intel in dem Feld wettbewerbsfähige SoCs.
Qualcomm nutzt natürlich big.LITTLE.
LITTLE heisst little, weil es klitze kleinen Aufwand für den Hersteller ist. Jegliche andere Optimierung, oder Strategie muss dagegen erst mal stand halten.

robbitop
2015-09-24, 14:04:29
Ich meine Krait und Kryos basierende SoCs. Ansonsten haben praktisch alle modernen SoCs M-Prozessoren von ARM, auf die vergleichbare Backgroundtasks gelegt werden können.

Und ansonsten halten Apples SoC momentan jeder Alternative Stand. Ähnliches vermute ich auch für Kryos. Auch NV nutzt in ihren Denver SoCs keine extra Little Prozessoren.

Custom Cores hätten wenig Sinn, wenn sie nicht Eigenschaften hätten deren Ausprägung besser ist als bei vergleichbaren Standard-ARM-IPs.

Avalox
2015-09-24, 14:17:55
Und ansonsten halten Apples SoC momentan jeder Alternative Stand.


Kann man beim besten Willen so nicht behaupten.

Es gibt nur wenige CPUs auf dem Markt, welche nicht frei programmierbar und so vergleichbar sind. Aber genau die der Apple SoCs gehören dazu.

Weiß der Pinsel was Apple alles im iOS so veranstaltet, um die SoC für den Wettbewerb fit zu machen.

Software ist ein Faktor, der solch enormen Einfluss hat, dass der Vergleich kaum gegeben ist.

Man sieht ja, dass unter Last die Apple Geräte die aller kürzesten Laufzeiten haben.


Was Qualcomm da so machen wird, muss sich auch erst mal zeigen, von big.LITTLE geht aber Qualcomm nicht weg.

robbitop
2015-09-24, 15:05:34
Apple Geräte haben den kleinsten Akku. Laufzeiten zu vergleichen und daraus auf den Verbrauch zu schließen passt irgendwo nicht.

Was meinst du mit nicht frei programmierbar?

Big.LITTLE wird von Qualcomm in der nächsten Generation nur bei Mainstream (600er) und Low End (400er) SoCs genutzt. Der High End SoC (820) wird auf 4x Kryos ohne big.LITTLE setzen. Die schieben sicher nicht umsonst die Entwicklungskosten für einen Custom Core raus. Das gleiche gilt für NV und Apple.

Avalox
2015-09-24, 15:27:20
Apple Geräte haben den kleinsten Akku. Laufzeiten zu vergleichen und daraus auf den Verbrauch zu schließen passt irgendwo nicht.

Was meinst du mit nicht frei programmierbar?


Das der externe Entwickler beim besten Willen nicht über die exekutive Grenze des Systemes herüber kommt. Was allerdings notwendig ist, um sich einen umfassenden Eindruck der CPU und es Systems machen zu können.


Big.LITTLE wird von Qualcomm in der nächsten Generation nur bei Mainstream (600er) und Low End (400er) SoCs genutzt.

Aus guten Grund wird auch Qualcomm dort big.LITTLE einsetzen, oder meinst du nicht?
Aufwand/Ertrag scheint offensichtlich überlegen zu sein.

robbitop
2015-09-24, 16:00:15
Kryos ist einfach High End. Das ist der einzige Grund. Sie haben keinen eigenen Low Cost Kern. Ggf. hatten sie auch keine Ressourcen Kryos für 1xFF nm und für 28 nm (600/400 Serie) fertig zu machen und haben dann dort einfach auf Standardkram zurückgegriffen.

Aufwand/Nutzen ist bei Standard ARM Kernen sicherlich am (edit)höchsten besten. Man kann fertiges Zeug lizensieren. Will man aber nach ganz oben (High End), macht Custom Core Sinn. Für die preislich kompetative Schiene macht es wohl weniger Sinn. Ja.

Ailuros
2015-09-24, 18:33:01
Ich darf doch etwas trollen, oder?

Das Galaxy S6 hat eine deutlich höhere Auflösung bei niedrigerer Grafikleistung. Natürlich kommt jetzt der (berechtigte) Einwand, dass es kaum Anwendungen gibt, die so komplex sind, dass die Grafikleistung nicht ausreicht oder die Grafikeinstellungen heruntergefahren werden müssen. Es gab solche Spiele, und da muss ich ehrlicherweise recherchieren, ob es sie noch gibt, denn Grafikkracher gibt es kaum.

Questionable rumor claims Apple's next-gen 'A10' processor could switch to six cores (http://appleinsider.com/articles/15/09/23/questionable-rumor-claims-apples-next-gen-a10-processor-could-switch-to-six-cores)

Ich finde die Originalaussage nicht, aber Apple soll auch im Bereich big.LITTLE forschen (natürlich schauen sie sich alle Konzepte an).

Egal. Am Ende stellt es sich eh heraus, dass der A9X eigentlich A9MP2 ist. X-D

Ja nur ist die A9 GPU von sich aus mit nur 6 clusters bei schaetzungsweise 470-500MHz effizienter als die 8 cluster GPU im 7720 bei 772MHz peak; sie wird nicht nur schneller sein sondern wenn es zum battery test in GFXbench und 30 Durchlaeufen kommt wird die zweite ihre Frequenz um einiges mehr nach unten throtteln.

http://www.anandtech.com/show/9146/the-samsung-galaxy-s6-and-s6-edge-review/6

http://images.anandtech.com/graphs/graph9146/73779.png


http://www.anandtech.com/show/9146/the-samsung-galaxy-s6-and-s6-edge-review/3

http://images.anandtech.com/graphs/graph9146/73792.png

Sonst hier kann man bewundern wie die heutige Leistungs-situation unter Manhattan 3.0 genau aussieht: https://gfxbench.com/result.jsp?benchmark=gfx31&test=545&order=score&base=gpu&ff-check-desktop=0
Exynos7420: 24.9 fps von 8 clusters@772MHz
Apple A8: 21.6 fps von 4 clusters@533MHz

beides auf 1080p offscreen; jetzt rechne nochmal 2 cluster dazu fuer die A9 GPU und ein gutes Prozentual zusaetzlicher Effizienz....


Apple wird einen Vogel haben um je zu big.LITTLE zu greifen. Der Schwachsinn dass Apple's CPU Effizienz teilweise auf iOS beruht ist fuer die Hunde. KEINER der eiinen custom core entwickelt und der dessen dynamische Frequenzen jeglichem Herstellungsprozess anpassen kann, wird so daemlich sein und auf big.LITTLE setzen und es macht auch keiner.

big.LITTLE ist ARM's Notloesung um allen ihren Kunden die gleiche faire Chancen zu geben. Mediatek kann sich eben NICHT leisten auf dem neuesten und teuersten Prozess herzustellen eben weil sie hauptsaechlich low cost SoCs verkaufen; sie stellen heute immer noch auf 28HPm hauptsaechlich her und alles FinFET wird um einige Zeit auf sich warten lassen, eben aus Kosten-Gruenden. Waere die Sache anders koennte ARM sich die zweischienige CPU Entwicklung auch sparen und gleich auf nur eine core IP pro Generation setzen.

YfOrU
2015-09-24, 19:44:46
Aufwand/Ertrag scheint offensichtlich überlegen zu sein.

Big.Little gibt es vor allen aus einem Grund: ARM muss immer parallel eine ganze Reihe an Cortex CPUs entwickeln um das gesamte Anwendungsspektrum möglichst aller Lizenznehmer jeweils optimal abdecken zu können. Ultra-Mobile ist für ARM nur ein Teil des Marktes.

Entsprechend gibt es von ARM praktisch keine auf einzelne Marktsegmente spezialisierte CPU Designs. Big.Little ist für ARM schlichtweg die effizienteste Variante um die unterschiedlichen Eigenschaften der eigenen CPU Designs unter einem Dach zusammen fassen zu können. Wer in einem lukrativen Teilsegment über die notwendigen Ressourcen und Volumen verfügt kann mit einem darauf abgestimmten Design natürlich ein besseres Paket abliefern.

Ailuros
2015-09-24, 19:55:21
Big.Little gibt es vor allen aus einem Grund: ARM muss immer parallel eine ganze Reihe an Cortex CPUs entwickeln um das gesamte Anwendungsspektrum möglichst aller Lizenznehmer jeweils optimal abdecken zu können. Ultra-Mobile ist für ARM nur ein Teil des Marktes.

Entsprechend gibt es von ARM praktisch keine auf einzelne Marktsegmente spezialisierte CPU Designs. Big.Little ist für ARM schlichtweg die effizienteste Variante um die unterschiedlichen Eigenschaften der eigenen CPU Designs unter einem Dach zusammen fassen zu können. Wer in einem lukrativen Teilsegment über die notwendigen Ressourcen und Volumen verfügt kann mit einem darauf abgestimmten Design natürlich ein besseres Paket abliefern.

So ist es; und dieses werden ARM engineers auch off the record nicht verleugnen. Oeffentlich koennen sie sich sowieso selten bis nie aeussern. Ich hab es auf jeden Fall vom Maul des Loewen. Und um Missverstaendnissen von meiner Seite zu entgehen: ich hab persoenlich nicht das geringste gegen big.LITTLE. Richtig implementiert laeuft es schon ausgezeichnet; nur ist es eben alles anzupassen um zich Male umstaendlicher als nur einfache dynamische Frequenzen von einem quad core als Beispiel.

Avalox
2015-09-25, 08:03:06
Apple wird einen Vogel haben um je zu big.LITTLE zu greifen. Der Schwachsinn dass Apple's CPU Effizienz teilweise auf iOS beruht ist fuer die Hunde. KEINER der eiinen custom core entwickelt und der dessen dynamische Frequenzen jeglichem Herstellungsprozess anpassen kann, wird so daemlich sein und auf big.LITTLE setzen und es macht auch keiner.

Mal wieder einer gewagte Aussage.
Ich werde dich dran erinnern in 4 Monaten.

big.LITTLE entspricht schlicht dem Anwendungsverhalten von smarten Geräten, welche ein sprungfixes Lastverhalten haben, eben weil sie im Standby und Dialogbetrieb ein grundsätzlich konträres Lastverhalten aufweisen.
Ein heterogenes Multiprozessing ist ein probates Mittel. Welches zudem in der Breite durchgesetzt hat, weil es der effektivere Weg ist und damit in Verbindung der ARM eigenen Entwürfe den Druck eigene Design zu entwickeln massiv verringert hat.

Apple Geräte haben den kleinsten Akku. Laufzeiten zu vergleichen und daraus auf den Verbrauch zu schließen passt irgendwo nicht.

Das ist falsch. Das iPhone 6 Plus hat einen im Vergleich gar großen Akku und schneidet trotzdem im Vergleich in Lastszenarien schlechter ab in der Energiebilanz. Auch reiner CPU Last.

Ich bleibe dabei, solange mir niemand das Gegenteil beweisen kann, sind Beschränkungen im iOS selbst der Hebel um eine für den Apple SoC komfortable Situation zu schaffen.

Ailuros
2015-09-25, 08:30:46
Mal wieder einer gewagte Aussage.
Ich werde dich dran erinnern in 4 Monaten.

Mach das ruhig; was soll denn Apple in 4 Monaten genau veroeffentlichen? Oder besser wie OFT hast gerade Du mir irgend eine "gewagte Aussage" diesbezueglich unter die Nase reiben koennen?

big.LITTLE entspricht schlicht dem Anwendungsverhalten von smarten Geräten, welche ein sprungfixes Lastverhalten haben, eben weil sie im Standby und Dialogbetrieb ein grundsätzlich konträres Lastverhalten aufweisen.

Ich kann und darf die vertraulichen Eingestaendnisse von ARM engineers nicht an die Luft setzen, aber wenn es nicht die vorerwaehnten durchaus verstaendlichen Interessen ihrer Kunden wuerde, haetten sie auch anders entwickelt.


Ich bleibe dabei, solange mir niemand das Gegenteil beweisen kann, sind Beschränkungen im iOS selbst der Hebel um eine für den Apple SoC komfortable Situation zu schaffen.

Was anderes wuerde man von Dir auch nicht erwarten, eben weil es keiner beweisen kann. Ja es ist ein Luxus fuer fruitco dass sie ihr eigenes OS haben und ja es hat selbstverstaendliche Vorteile. Es heisst aber dann eben auch nicht dass die unterliegende hw unter Android hypothetisch schlecht abschneiden wuerde. Schon gar nicht wenn Apple eigentlich gar nichts an IP im jeglichen SoC zu 100% selber entwickelt. Fuer die CPU kann man nichts direkt vergleichen fuer den Rest der GPU, video etc IP dann eben schon und es ist eben dann NICHT der Fall dass die GPU unter iOS besser abschlaegt sondern es ist eher die Unfaehigkeit anderer GPU IP Entwickler gleich effiziente GPU IP zu entwickeln.

Der daemlichen Selbstverstaendlichkeit zu Liebe: wuerde Twister im A9X nicht die Effizienz erreichen die Apple haben will fuer ihren neuen tablet-Riesen dann haetten sie auch nicht den geringsten Skrupel Intel CPUs zu benutzen wie sie es auch fuer Macs machen. In der Zwischenzeit ist es eher Samsung und QCOM die es immer noch nicht geschafft haben nach all der Zeit seit dem A7 eine custom 64bit CPU aufs Laufband zu setzen. Es WIRD beim einen nach N Jahren erscheinen und beim zweiten wird es noch etwas mehr dauern wobei mit fraglicher Effizienz, wobei wenn man es dann fuer die selbsverstaendliche Daemlichkeit um 180 Grad dreht wird uns auch keiner einreden koennen dass sie unter iOS hypothetisch selbst Cyclone(Prime) das Wasser reichen koennen.
------------------------------------------------------------------------------------------------------------------------------------

Zurueck zum eigentlichen Thema:

https://forum.beyond3d.com/posts/1872991/

I asked a NZer whom had just received their 6s, via reddit to run GFXbench, which they kindly did, but not all the way through.
Manhattan Offscreen - 37.6 fps vs iPad Air 2- 39.5 fps vs iPhone 6 - 19.2 fps

Texturing - 1080p offscreen fillrate - 6526 Mtexels/s vs iPad Air 2 - 6569 Mtexels/s vs iPhone 6 - 2320 Mtexels/s

http://imgur.com/a/x624w

Wie erwartet; unter OpenGL vergleichbare zur A8X GPU Leistung.

Driver Overhead 2 1080p offscreen:

iPad Air2 = 26.6 fps
iPhone6s = 47.3 fps

Driver Overhead 2 low level test in GFXbench3.0:

This is an enhanced version of the original Driver Overhead test found in GFXbench3.0 and approximates the graphics driver's CPU load when running Manhattan high level test. It renders the same amount of geometry twice to add a glow effect, using lots of draw calls, changing rendertargets, vertex formats and shaders as well. The test also alters graphics states like depth test and blending between blocks of draw calls. Required minimum API: OpenGL_ES3.0 / OpenGL4.1

NV Denver ist bei 56.8 fps uebrigens, 32bit Tegra K1 bei 26.3 fps, Qualcomm S810 bei 17.9 fps und Exynos7420 bei beinbrechenden 10.4 fps im 6 Edge.....so viel fuer die "Tatsache" dass custom cores sich nirgends als effizienter zeigen :P

deekey777
2015-09-25, 09:13:25
Kryos ist einfach High End. Das ist der einzige Grund. Sie haben keinen eigenen Low Cost Kern. Ggf. hatten sie auch keine Ressourcen Kryos für 1xFF nm und für 28 nm (600/400 Serie) fertig zu machen und haben dann dort einfach auf Standardkram zurückgegriffen.

....

Bitte "KYRO, um Ail zu ärgern! ;D

.
------------------------------------------------------------------------------------------------------------------------------------

Zurueck zum eigentlichen Thema:

https://forum.beyond3d.com/posts/1872991/



Wie erwartet; unter OpenGL vergleichbare zur A8X GPU Leistung.

Driver Overhead 2 1080p offscreen:

iPad Air2 = 26.6 fps
iPhone6s = 47.3 fps

Driver Overhead 2 low level test in GFXbench3.0:



NV Denver ist bei 56.8 fps uebrigens, 32bit Tegra K1 bei 26.3 fps, Qualcomm S810 bei 17.9 fps und Exynos7420 bei beinbrechenden 10.4 fps im 6 Edge.....so viel fuer die "Tatsache" dass custom cores sich nirgends als effizienter zeigen :P
Jetzt bin ich da, wo wir vor einem Jahr waren: Es wurde nicht mit der Metal-Version getestet, dann gibt es paar Pünktchen mehr.

Jetzt bin noch mehr Arschloch:
Spiele wie Asphalt 8 und Modern Combat 5 nutzen Metal und bieten so zusätzliche Effekte, Asphalt 8 bietet eine zusätzliche Season mit bis zu 24 Fahrzeugen. Wer die Effekte auf PC sehen will, kann die Einstellungen in Asphalt 8 auf sehr hoch setzen. Diese zusätzlichen Effekte bieten Highend-Androide meines Wissens nicht.

Avalox
2015-09-25, 09:21:48
Mach das ruhig; was soll denn Apple in 4 Monaten genau veroeffentlichen? Oder besser wie OFT hast gerade Du mir irgend eine "gewagte Aussage" diesbezueglich unter die Nase reiben koennen?


Moongose wird mit einer Sicherheit mit ARM LITTLE Kernen kombiniert, eben weil es wenig Sinn macht, den niedrigst Lastbereich in einer Architektur mit abzudecken, in einem Design welches für hohe Leistung konzipiert ist.

Ich kann und darf die vertraulichen Eingestaendnisse von ARM engineers nicht an die Luft setzen,

Das glaube ich gerne, weil es eine ingenieurtechnisch interessantes Produkt ist und sicherlich eine tolle Herausforderung ist ein universales Produkt zu schaffen.

Vom Apple A7-A9 ist dermaßen wenig bekannt wie oder was genau gelöst wurde, welcher Aufwand getrieben wurde usw..
Die Effizienz des Design lässt sich kaum beurteilen. Das Ergebnis ist sicherlich interessant.


Der daemlichen Selbstverstaendlichkeit zu Liebe: wuerde Twister im A9X nicht die Effizienz erreichen die Apple haben will fuer ihren neuen tablet-Riesen dann haetten sie auch nicht den geringsten Skrupel Intel CPUs zu benutzen wie sie es auch fuer Macs machen.

Ich sage ja nicht, dass Twister nicht effizient sei. Aber auch das Riesentablet läuft letztendlich unter dem selben iOS, wie das iPhone. Zumal ein Pad eh etwas unproblematischer ist.

Gaestle
2015-09-25, 09:31:07
Für den Alltag abseits von Grafikintensiven Spielen (öffnen und schließen von Apps) stelle ich mir vor, dass die Bandbreite zum Speicher etc. wichtiger sein könnte, als das Drosseln/Einbremsen/Frequenzreduzierung (Throtteling) nach 30 Durchläufen Benchmark.

Wie sieht es eigentlich damit aus, bei Apple im Vergleich zu Anderen?

Ailuros
2015-09-25, 09:35:27
Moongose wird mit einer Sicherheit mit ARM LITTLE Kernen kombiniert, eben weil es wenig Sinn macht, den niedrigst Lastbereich in einer Architektur abzudecken.


Ach Samsung hat uns ja durch die Jahre mit ihrer hw und sw Entwicklung sooo ueberwaeltigt dass wir gar nicht mehr wissen wo wir LSI kategorisieren sollen. Es wird ein Wunder sein wenn das Resultat gleich beim ersten Versuch sehenswert effizienter sein wird als jeglicher anderer custom core.

Auf rein technischer Basis bin ich eher auf die zweite Auflage vom Denver gespannt, denn der erste Versuch war leider nicht das was ich erwartete.

Das glaube ich gerne, weil es eine ingenieurtechnisch interessantes Produkt ist und sicherlich eine tolle Herausforderung ein universales Produkt zu schaffen.

Vom Apple A7-A9 ist dermaßen wenig bekannt wie, oder was er genau macht, welcher Aufwand getrieben wurde, um was zu erreichen.
Die Effizienz des Design lässt sich kaum beurteilen.

Es gibt genug Indizien dass die unterliegende IP alles andere als ein Schlappschwanz ist.

Ich sage ja nicht, dass Twister nicht effizient sei. Aber auch das Riesentablet läuft letztendlich unter dem selben iOS, wie das iPhone. Zumal ein Pad eh unproblematischer ist.

Nochmal: wenn Twister nicht gut genug waere haetten sie eine Intel CPU benutzt. Alles Atom ist wohl selbst theoretisch nicht besser bzw. effizienter, schon gar nicht wenn bei heutigen Loesungen die burst Frequenz bei ueber 1.8GHz liegt.

Ailuros
2015-09-25, 09:44:15
Für den Alltag abseits von Grafikintensiven Spielen (öffnen und schließen von Apps) stelle ich mir vor, dass die Bandbreite zum Speicher etc. wichtiger sein könnte, als das Drosseln/Einbremsen/Frequenzreduzierung (Throtteling) nach 30 Durchläufen Benchmark.

Ein guter Speicher-controller ist uebermaessig wichtig in einem jeglichen ULP SoC; ist dieser verkackt wird es nur zu Problemen fuehren. T-Rex im GFXbench ist ein reiner GPU bound test (ein Haufen Geometrie und einen Unmenge an z/stencil), wobei im benchmark bei einem 4*A15+4*A7 setup hauptsaechlich nur ein einziger A7 core bei maessiger Frequenz benutzt wird. Im obrigen Anand test reduziert der 7420 seine GPU Frequenz bis fast zu 40% damit er nicht zu heiss wird. Je hoeher die eigentliche peak GPU Frequenz desto moeglicher und groesser ist throttling fuer die GPU. Bei 772MHz peak kein Wunder ueberhaupt wenn man es wie oben mit einer 533MHz peak getakteten GPU vergleicht. Wenn die erste eventuell auf irgendwo 470MHz runterzieht waehrend die zweite "nur" auf 430MHz als einfaches Beispiel, glaubst Du dass es ein reiner Zufall ist dass die beiden Frequenzen keinen sehenswerten Abstand von sich haben?

Wie sieht es eigentlich damit aus, bei Apple im Vergleich zu Anderen?

Apple benutzt niedrigere (peak) GPU Frequenzen als selbst diese die der IP provider vorschlaegt.

Avalox
2015-09-25, 09:57:56
Nochmal: wenn Twister nicht gut genug waere haetten sie eine Intel CPU benutzt. Alles Atom ist wohl selbst theoretisch nicht besser bzw. effizienter, schon gar nicht wenn bei heutigen Loesungen die burst Frequenz bei ueber 1.8GHz liegt.

Natürlich ist Twister gut genug. Aber iOS kennt weder einen x86, noch ein Multiplattform Packageformat für native Code Anteile. Ein Intel Tablet wäre erstmal mit einer Umstellung verbunden, die der ähnlich ist, als vom PowerPC auf die Intelarchitektur gewechselt wurde und dieses ging erst, als die Leistung der Intelsysteme so viel besser war, dass Apple es sich erlauben konnte die PowerPC Hardware zu emulieren.
Twister ist sicherlich eine gute Architektur und es nicht im Traum dran zu denken, dass Apple auf eine Atom CPU dort setzen würde.
Eher ist mit dem Gegenteil zu rechnen, nur hat Apple dort das Architekturproblem im Detail auch, allerdings auch in der Vergangenheit bewiesen dieses mit Aufwand lösen zu können.

Ailuros
2015-09-25, 10:42:28
Am Rand bezog ich mich natuerlich auf Moorefield; bei 2.3GHz burst ist der Stromverbrauch alles andere als ideal und es stottert auch ab und zu. Wie es mit Intel's kommenden ULP Loesungen aussehen wird noch keine Ahnung.

----------------------------------------------------

Uebrigens sieht es wohl doch so aus dass A9X bei ueber 80fps in Manhattan3.0 ankommen wird; wie ich gerade bei B3D erwaehnte erwarte ich nicht dass dieses fuer lange so bleiben wird. Schwer zu glauben dass NV nicht Parker dagegen "vorankuendigen" wird ;)

deekey777
2015-09-25, 11:31:00
Am Rand bezog ich mich natuerlich auf Moorefield; bei 2.3GHz burst ist der Stromverbrauch alles andere als ideal und es stottert auch ab und zu. Wie es mit Intel's kommenden ULP Loesungen aussehen wird noch keine Ahnung.

----------------------------------------------------

Uebrigens sieht es wohl doch so aus dass A9X bei ueber 80fps in Manhattan3.0 ankommen wird; wie ich gerade bei B3D erwaehnte erwarte ich nicht dass dieses fuer lange so bleiben wird. Schwer zu glauben dass NV nicht Parker dagegen "vorankuendigen" wird ;)
Aber was soll die Vorankündigung bringen, wenn Apple sein iPad Pro fertig hat?

Ich wundere mich auch deswegen, dass Microsoft sein Event erst am 6. Oktober durchführt, an dem auch ein Surface Pro 4 vorgestellt werden soll. Da ist das Kind (das iPad Pro) schon in den Brunnen gefallen und kann Microsoft noch mehr Kunden streitig machen.

AffenJack
2015-09-25, 12:26:58
Uebrigens sieht es wohl doch so aus dass A9X bei ueber 80fps in Manhattan3.0 ankommen wird; wie ich gerade bei B3D erwaehnte erwarte ich nicht dass dieses fuer lange so bleiben wird. Schwer zu glauben dass NV nicht Parker dagegen "vorankuendigen" wird ;)

War ja auch zu erwarten, da es nunmal 2x A8X sein soll. Apples Performanceangaben bei Grafik passen immer recht gut zu den Gfxbench Scores.
Wieso sollte Nv da was ankündigen? Die werden wie immer auf der CES ankündigen.

Gaestle
2015-09-25, 12:55:42
Ein guter Speicher-controller ist uebermaessig wichtig in einem jeglichen ULP SoC; ist dieser verkackt wird es nur zu Problemen fuehren.

Apple benutzt niedrigere (peak) GPU Frequenzen als selbst diese die der IP provider vorschlaegt.

Es ging mir bei der Frage nach Apple um die Speicherbandbreite. Im normalen 0815-App-Alltag (ohne Spiele) wird der User ja sowieso selten in den Bereich von Drosselung kommen. Da ist schnelles Öffnen und Schließen wichtig, was vermutlich auch bandbreitenlimitiert ist.

Snap810 wird ja mit "LPDDR4 1600MHz Dual-channel 64-bit (25.6GBps)" von Qualcom angegeben. Kann man aussagen zu Apple bzw. MediaTek treffen?

robbitop
2015-09-25, 13:31:14
Das ist falsch. Das iPhone 6 Plus hat einen im Vergleich gar großen Akku und schneidet trotzdem im Vergleich in Lastszenarien schlechter ab in der Energiebilanz. Auch reiner CPU Last.


Wo ist der konkrete Vergleich? Welches Gerät gegen das 6 Plus / 6S Plus (wir haben 2015).

Wie kann sichergestellt werden, dass nicht andere Randbedingungen bei diesem Vergleich das Ergebnis verfälschen?

- Leistungsaufnahme Display
- Leistungsaufnahme RAM, eMMC
- Leistungsaufnahme sämtlicher I/Os
- Throtteling
- vergleichbarer Fertigungsprozess (A9 vs Exynos 7470 zB)
- unterschiedliche Software erzeugt unterschiedliche Last

Da gibt es zu viele Randbedingungen, die das Ergebnis verfälschen können.

IMO müsste wenigstens die Taktfrequenz und die direkte Leistungsaufnahme des SoCs gemonitort werden, um eine sinnvolle Aussage über die Leistungsaufnahme des SoCs treffen zu können.

Weiterhin ist auch die Frage zu stellen, ob Volllast ein sinnvoller Vergleich für die Güte eines SoCs ist. Es ist eine Kennzahl. Eine vieleicht viel wichtigere Kennzahl ist aber ggf. eher der Energieverbrauch (Wh) über einen typischen normierten Lastzyklus. Dieser hat vermutlich (so werden ULP Geräte ja bedient) oftmals Idlephasen, viele Teillastphasen und wenige Lastspitzen.
Und das sollte dann noch mit einem Faktor der absoluten Leistungsfähigkeit kombiniert werden. IMO wäre das eine sinnvolle Kennzahl. Performance pro Wh in einem standardisierten Normzyklus.

Auch wenn der Vergleich wie oben angedeutet relativ wenig aussagekräftig ist: Schauen wir uns ein paar Zahlen zum iP6+ (A8) an:
Dagegen setzen wir aus Spaß das S6 mit dem neusten 14 nm SoC und der neusten Displaygeneration. In ein paar Tagen könnte man es dann mit dem iP6S+ vergleichen.

Web Browsing WIFI:
iP6+: 13,7 h @11,13Wh Akku
Galaxy S6: 10,7 h @9,8Wh Akku

Normiert auf die Kapazität des Akkus ergibt es, dass das S6 88 % der Laufzeit des iP6+ erreicht.

GFX Bench
iP6+: 3,3 h
S6: 2,86 h

Normiert auf die Kapazität des Akkus ergibt es, dass das S6 98 % der Laufzeit des iP6+ erreicht. Und dabei ist die Performance Degradation im S6 nicht vergleichbar. Das Gerät throttelt offenbar auf rund 75 % der Leistung des iP6+ runter. Trotz 14nm FF.

Im Battery Basemark sieht es noch schlechter aus.

Ein vergleichbarer CPU isolierter Battery-Test ist leider nicht dabei - da ich keinen finden konnte. Ggf. kannst du einen Vorschlag machen?

Fazit:
Aus oben genannten Gründen ist der angestellte Vergleich wenig sinnvoll. Deine These wird aber auch von solchen einfachen Vergleichen nicht untermauert.


http://www.anandtech.com/show/9146/the-samsung-galaxy-s6-and-s6-edge-review/3
http://www.anandtech.com/show/8554/the-iphone-6-review/7

smalM
2015-09-25, 14:23:18
iFixit hat auf dem A9 die Bezeichnung APL0898 gefunden.
Das dürfte dann wohl ein Samsung-Teil sein.
Der A8 trägt die Bezeichnung APL1011, der A8X APL1012.
Die Samsung-Vorgänger hatten alle die Bezeichnung APLxx98...

Ailuros
2015-09-25, 14:26:11
War ja auch zu erwarten, da es nunmal 2x A8X sein soll. Apples Performanceangaben bei Grafik passen immer recht gut zu den Gfxbench Scores.
Wieso sollte Nv da was ankündigen? Die werden wie immer auf der CES ankündigen.

Wieso vorankuendigen? Fuer den "hoppla wir sind auch da, wenn auch total irrelevant" Effekt vielleicht :P

Es ging mir bei der Frage nach Apple um die Speicherbandbreite. Im normalen 0815-App-Alltag (ohne Spiele) wird der User ja sowieso selten in den Bereich von Drosselung kommen. Da ist schnelles Öffnen und Schließen wichtig, was vermutlich auch bandbreitenlimitiert ist.

Zwei Einzelheiten die Dir womoeglich bewusst sind oder auch nicht:

* ULP SoCs haben keine dedizierte Bandbreite fuer ihre GPUs, sondern es kaempfen eine Unzahl an Einheiten im SoC um die ein und selbe Bandbreite.
* Ausserhalb von 3D schalten Rogue GPUs cluster ab jeweils in Paaren; bei A9 und 6 clusters sind dann nur noch 2 clusters fuer einfachen Schnickschnack operativ. Bei gleicher Aufloesung und hoeherer Bandbreite im A9 hast Du auch unter normalen Umstaenden mehr Bandbreite pro pixel verfuegbar als zuvor.

Snap810 wird ja mit "LPDDR4 1600MHz Dual-channel 64-bit (25.6GBps)" von Qualcom angegeben. Kann man aussagen zu Apple bzw. MediaTek treffen?

Der 810 hat einen hw bug im MC, deshalb wird das Ding auch so bruehend heiss wenn es nicht rechtzeitig von der sw brutal gedrosselt wird; ergo kein gutes Beispiel denn Mist kann ueberall passieren.

Mediatek hat eigentlich keine high end SoCs sondern nur im Bereich wo sich andere Hersteller mit mainstream bewegen. Es geht zwar Schritt fuer Schritt aufwaerts in Richtung high end aber auch nur momentan was die CPUs in deren SoCs betrifft.

Aber was soll die Vorankündigung bringen, wenn Apple sein iPad Pro fertig hat?

Aus reinen marketing-Gruenden.

Ich wundere mich auch deswegen, dass Microsoft sein Event erst am 6. Oktober durchführt, an dem auch ein Surface Pro 4 vorgestellt werden soll. Da ist das Kind (das iPad Pro) schon in den Brunnen gefallen und kann Microsoft noch mehr Kunden streitig machen.

Ob das PRO auch fuer Apple selber irgend ein Verkaufsschlager sein wird, ist auch ein Kapitel fuer sich. Ueberhaupt bei dessen Strassenpreis. Ich bin mir nichtmal so sicher dass Microsoft mit Apple jegliche relevante potentielle Kundschaft fuer solche Geraete teilen koennte.

robbitop
2015-09-25, 14:46:34
Bandbreite wird zumindest in den Apple SoCs ja relativ gut abgefedert.

1. Durch den Tilecache (IMG baut TBDRs) - andere Designs haben AFAIK aber z.T. Tile Caches
2. Durch den großen L3 Cache auf dem SoC (haben andere SoCs das auch?)

Hinzu kommen die üblichen Komprimierungsverfahren (Color/Z Compression).

Ich vermute, dass die ULP-GPUs zwar keine Bandbreite im Überschuss haben, aber auch andererseits nicht unbedingt verhungern.

Ailuros
2015-09-25, 14:55:51
Bandbreite wird zumindest in den Apple SoCs ja relativ gut abgefedert.

1. Durch den Tilecache (IMG baut TBDRs) - andere Designs haben AFAIK aber z.T. Tile Caches
2. Durch den großen L3 Cache auf dem SoC (haben andere SoCs das auch?)

Hinzu kommen die üblichen Komprimierungsverfahren (Color/Z Compression).

Ich vermute, dass die ULP-GPUs zwar keine Bandbreite im Überschuss haben, aber auch andererseits nicht unbedingt verhungern.

Tilers haben generell einen Bandbreiten-Vorteil beim tiling, dafuer muessen sie nicht unbedingt etwas verzoegern; dafuer haben sie auch mit der unendlichen Pufferei der Geometrie zu kaempfen. Fuer einfache Aufgaben ausserhalb 3D ist egal fuer welchen heutigen ULP SoC die Debatte ueber die Bandbreite ueberfluessig.

Gaestle
2015-09-25, 15:29:20
Vielleicht bin ich ja komplett auf dem Holzweg, oder ich drücke mich nicht klar genug aus...

Wenn ich ein Programm starte... z.B. die DB-Fahrplan-App... dann wird (in meiner naiven Vorstellung) der Programmcode in die CPU geladen und dort verarbeitet. Die gesamt-Startzeit summiert sich also aus Ladezeit (Bandbreite) und Verarbeitungszeit (CPU-Last).

Ich vermute, dass im normalen Alltagsbetrieb (abseits von Spielen) beim Öffnen und Beenden von Apps die CPU-Leistung vielleicht gar nicht mehr das Hauptproblem ist, sondern die Datenraten der Speicheranbindung. Diese könnte dann mitentscheidend sein, als wie "schnell" ein Gerät empfunden wird (natürlich neben solchen "Nebensächlichkeiten" wie parallel abgearbeiteten Tasks)...

Bei PCs laden Programme auch deutlich schneller, wenn SSDs verbaut sind (statt alten HDD). SSDs haben auch deutlich bessere Bandbreiten bzw. Lese/Schreibraten.

Darauf wollte ich hinaus. Auf diesen Aspekt und wie das bei Apple bzw. Qualcomm bzw. Mediatek ist.
Mir ist klar, dass sich ein Mobil-SoC eine Bandbreite für alle Teile (CPU, GPU) hat. Mir ist auch klar, dass ein verkorkster Memory-Controller negative Effekte haben dürfte.

Aber gibt es diesbezüglich konkrete Tests?

Armaq
2015-09-25, 15:54:14
SSDs haben eine deutlich bessere Zugriffszeit, daher die gefühlte krasse Mehrperformance. Die mittleren Lese/Schreibraten sind auch besser, aber richtig krass sind die Zugriffszeiten/Latenzen.

Avalox
2015-09-25, 16:44:13
Web Browsing WIFI:
iP6+: 13,7 h @11,13Wh Akku
Galaxy S6: 10,7 h @9,8Wh Akku

Normiert auf die Kapazität des Akkus ergibt es, dass das S6 88 % der Laufzeit des iP6+ erreicht.

GFX Bench
iP6+: 3,3 h
S6: 2,86 h


Ach ja. Das Spiel kann man treiben.


S6 Edge 2.600 mAh Akku http://www.chip.de/artikel/Samsung-Galaxy_S6_Edge_32GB-Handy-Test_77529832.html
Online-Laufzeit: 8:05 Stunden
Sprechzeit: 9:43 Stunden

iPhone 6S Plus 2.750 mAh Akku http://www.chip.de/preisvergleich/273350/Uebersicht-Apple-iPhone-6-Plus-128GB.html
Online-Laufzeit: 6:16 Stunden
Sprechzeit: 7:05 Stunden

iPhone 6 Plus 2.915 mAh Akku http://www.chip.de/preisvergleich/273350/Uebersicht-Apple-iPhone-6-Plus-128GB.html
Online-Laufzeit: 6:20 Stunden
Sprechzeit: 8:56 Stunden

Damit erreicht das iPhone 6 Plus 75% der Akku Effizienz und das iPhone 6 Plus nur 70% der Effizienz. Natürlich ganz ausser Acht gelassen, dass Surfen und Telefonie am S6 grundsätzlich Leistungsfähiger, weil Funktionsreicher und dadurch vermutlich zudem aufwändiger sind.

Das meinte ich aber nicht. Ich meinte die in iOS 8 möglichen Hintergrunddienst im Standby Betrieb und diese sehen noch viel beeindruckender im Ergebnis aus. Lass mich da mal suchen .. Wirst sicherlich im Vergleich beeindruckt sein.

AffenJack
2015-09-25, 18:33:47
So da nun die GfxBench Werte auch da sind, kann man etwas über die Taktraten nachdenken:
https://gfxbench.com/device.jsp?benchmark=gfx30&os=iOS&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A9%20GPU&did=27074956&D=Apple%20iPhone%206S%20Plus

Wenn ich mir die Füllrate anschaue, bei 2 TMUs pro Cluster?, landen wir bei 540 Mhz. Wenn ich mich nicht verrechnet habe. Da scheinen die Series 7 Angaben von wegen 40-60% schneller pro Cluster pro takt zumindest bei GfxBench nicht viel zu bringen.

Gaestle
2015-09-25, 19:53:38
SSDs haben eine deutlich bessere Zugriffszeit, daher die gefühlte krasse Mehrperformance. Die mittleren Lese/Schreibraten sind auch besser, aber richtig krass sind die Zugriffszeiten/Latenzen.

Vielen Dank für die Info. :)
Wieder was gelernt... :)

Ailuros
2015-09-25, 20:07:32
So da nun die GfxBench Werte auch da sind, kann man etwas über die Taktraten nachdenken:
https://gfxbench.com/device.jsp?benchmark=gfx30&os=iOS&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A9%20GPU&did=27074956&D=Apple%20iPhone%206S%20Plus

Wenn ich mir die Füllrate anschaue, bei 2 TMUs pro Cluster?, landen wir bei 540 Mhz. Wenn ich mich nicht verrechnet habe. Da scheinen die Series 7 Angaben von wegen 40-60% schneller pro Cluster pro takt zumindest bei GfxBench nicht viel zu bringen.

Die A8X GPU landet eine vergleichbare Fuellrate mit 16 TMUs gegen 12 diesmal. Bei B3D sprachen sie davon dass der ttest verbugged ist, ich hingegen weiss das dieser verdammt viel alpha blending benutztt. Einfacher: Du solltest NICHT an TMUs * Frequenz denken, sondern an pixels pro cluster im back end * Frequnz. Bandbreite pro SoC dann auch noch in Betracht nehmen, denn alpha blending braucht verdammt viel davon. Hilft es so?

***edit: ok ich hab mich verglotzt Du hast auf 3.0 und nicht 3.1 Resultate verlinkt; im ersten ist der Fuellraten-test etwas anspruchsloser als in 3.1. Das obrige gilt dann schon:

GFXbench3.0

https://gfxbench.com/compare.jsp?benchmark=gfx30&did1=27074956&os1=iOS&api1=metal&hwtype1=GPU&hwname1=Apple+A9+GPU&D2=Apple+iPad+Air+2

GFXbench3.1

https://gfxbench.com/compare.jsp?benchmark=gfx31&did1=27074956&os1=iOS&api1=gl&hwtype1=GPU&hwname1=Apple+A9+GPU&D2=Apple+iPad+Air+2

Ich hab nicht ohne Grund die Frequenz von der A9 GPU etwas niedriger eingeschaetzt als bei der A8X GPU.

Manhattan 3.0 offscreen

iPhone6 Plus: 20.4
GX6450= 4 clusters * 64 FLOPs/clock * 0.533GHz = 136 GFLOPs

iPad Air 2 = 39.6
2*GX5450= 8 clusters * 64 FLOPs/clock * 0.533GHz = 273 GFLOPs

iPhone6S Plus: 39.4
GT7600= 6 clusters * 64 FLOPs/clock * 0.533GHz = 205 GFLOPs

Manhattan ist verdammt ALU bound; wenn es nur steril nach FLOPs ginge muesste das letzte bei ungefaehr 30fps landen, wobei ich immer noch auf eine =/>470MHz fuer den GT7600 tippe (hab aber dank dem Beispeil mit Absicht mit der gleichen Frequenz gerechnet). Apple hat 1.9x Mal die GPU Leistung behauptet; stimmt auch selbst hier, denn bei gleicher Frequenz waeren es nur 1.5x bei 6 gegen 4 clusters.

Schau Dir mal alle low level tests genauer an im Vergleich:

https://gfxbench.com/compare.jsp?benchmark=gfx30&did1=27074956&os1=iOS&api1=metal&hwtype1=GPU&hwname1=Apple+A9+GPU&D2=Apple+iPhone+6+Plus

ALU 2 ist bei 2.2x als Gegenbeispiel. Uebrigens hilft es auch die Alpha blending Resultate hier mit den Fillrates zu parallelisieren. T-Rex offscreen ist bei knapp unter 1.8x aber hier schlaegt eher die zu starke Geometrie-last ein.

****** edit Nr.2: Ich hab's mal schnell durchlaufen lassen: G6230 (Series6) @533MHz, 2 clusters/4 TMUs unter GFXbench3.1 fillrate = 1225 MTexels/s :P

y33H@
2015-09-25, 22:02:53
Chipworks geht beim A9 von 80 Prozent der Die-Size des A8 aus, zudem offenbar Samsung 14FF:

http://www.chipworks.com/about-chipworks/overview/blog/inside-the-iphone-6s

robbitop
2015-09-26, 07:19:07
Ach ja. Das Spiel kann man treiben.


S6 Edge 2.600 mAh Akku http://www.chip.de/artikel/Samsung-Galaxy_S6_Edge_32GB-Handy-Test_77529832.html
Online-Laufzeit: 8:05 Stunden
Sprechzeit: 9:43 Stunden

iPhone 6S Plus 2.750 mAh Akku http://www.chip.de/preisvergleich/273350/Uebersicht-Apple-iPhone-6-Plus-128GB.html
Online-Laufzeit: 6:16 Stunden
Sprechzeit: 7:05 Stunden

iPhone 6 Plus 2.915 mAh Akku http://www.chip.de/preisvergleich/273350/Uebersicht-Apple-iPhone-6-Plus-128GB.html
Online-Laufzeit: 6:20 Stunden
Sprechzeit: 8:56 Stunden

Damit erreicht das iPhone 6 Plus 75% der Akku Effizienz und das iPhone 6 Plus nur 70% der Effizienz. Natürlich ganz ausser Acht gelassen, dass Surfen und Telefonie am S6 grundsätzlich Leistungsfähiger, weil Funktionsreicher und dadurch vermutlich zudem aufwändiger sind.

Das meinte ich aber nicht. Ich meinte die in iOS 8 möglichen Hintergrunddienst im Standby Betrieb und diese sehen noch viel beeindruckender im Ergebnis aus. Lass mich da mal suchen .. Wirst sicherlich im Vergleich beeindruckt sein.
Das Ergebnis ist völlig widersprüchlich zum Ergebnis von Anand. Chip.de? Naja...
Außerdem ist ein Vergleich der Akkukapazität in mAh nicht sinnvoll, wenn die Spannung verschieden ist. Verglichen wird in Wh.

iuno
2015-09-26, 07:40:08
Chipworks geht beim A9 von 80 Prozent der Die-Size des A8 aus, zudem offenbar Samsung 14FF:

http://www.chipworks.com/about-chipworks/overview/blog/inside-the-iphone-6s

Da hast du glaube ich etwas falsch verstanden? Der A9 hat demnach 94mm², A8 lag bei 89mm². Die 80% richten sich an die "Schrumpfrate" in einer Dimension für Transistoren, die Fläche schrumpft dabei auf ~64%. So ist etwa der SRAM Block statt 4,8 nur noch 3,1 mm² groß. Der Chip an sich ist aber weiter gewachsen, was ja auch Sinn macht

Avalox
2015-09-26, 10:54:54
Das Ergebnis ist völlig widersprüchlich zum Ergebnis von Anand. Chip.de? Naja...
Außerdem ist ein Vergleich der Akkukapazität in mAh nicht sinnvoll, wenn die Spannung verschieden ist. Verglichen wird in Wh.


Die Spannung ist immer gleich 3,8V, bei allen Geräten hier.

Ich finde noch den Test im Verlgeich mit Moves, Facebook usw. Apps im Hintergrund. Warte mal ab. Die wahrlich interessanten Sachen werden selten getestet.

YfOrU
2015-09-26, 11:05:18
Keine Ahnung was bei Chip los ist aber bereits deren Ergebnisse für das iPhone 6 Plus in Relation zum S6 (Edge) fallen komplett aus dem Rahmen.

Anand: http://www.anandtech.com/show/9146/the-samsung-galaxy-s6-and-s6-edge-review/3
CB: http://www.computerbase.de/2015-09/apple-iphone-6s-plus-test/5/#abschnitt_laufzeiten
Notebookcheck: http://www.notebookcheck.com/Test-Samsung-Galaxy-S6-Edge-Plus-Smartphone.149989.0.html
Arstechnica: http://arstechnica.com/gadgets/2015/04/samsung-galaxy-s6-review-its-whats-on-the-outside-that-counts/3/

Das sind alles große Publikationen deren fachliche Kompetenz in jedem Fall deutlich oberhalb von Chip.de angesiedelt ist. Die sind heute leider nur noch ein Schatten ihrer selbst.

Edit: CB Link, Danke ;)

iuno
2015-09-26, 12:05:59
@Avalox: Trotzdem ist es Blödsinnig, immer die Kapazität in mAh anzugeben. Man sollte sich endlich darauf einigen, bei Wh zu bleiben.
@YfOrU: Du hast zwei mal anandtech verlinkt ;)
@Topic: Wow, habe jetzt erst die Reviews überflogen, der A9 ist ja mal wieder eine Wucht

AffenJack
2015-09-26, 12:32:30
Keine Ahnung was bei Chip los ist aber bereits deren Ergebnisse für das iPhone 6 Plus in Relation zum S6 (Edge) fallen komplett aus dem Rahmen.

Anand: http://www.anandtech.com/show/9146/the-samsung-galaxy-s6-and-s6-edge-review/3
CB: http://www.anandtech.com/show/9146/the-samsung-galaxy-s6-and-s6-edge-review/3
Notebookcheck: http://www.notebookcheck.com/Test-Samsung-Galaxy-S6-Edge-Plus-Smartphone.149989.0.html
Arstechnica: http://arstechnica.com/gadgets/2015/04/samsung-galaxy-s6-review-its-whats-on-the-outside-that-counts/3/

Das sind alles große Publikationen deren fachliche Kompetenz in jedem Fall deutlich oberhalb von Chip.de angesiedelt ist. Die sind heute leider nur noch ein Schatten ihrer selbst.

Man müsste einfach mal wissen wie Chip Onlinelast genau definiert, aber dazu hab ich nix gefunden. Beim Telefonieren drehen sie die Sendeleistung aller Telefon auf Maximum und schalten alle Hintergrundprogramme, Bildschirm usw ab. Dementsprechend wirds dann nur nen Bench von GSM-Chip und Akkugröße, da der Rest fast nix verbraucht. Vielleicht machen sie beim Onlinetest irgendwas ähnliches.


Manhattan ist verdammt ALU bound; wenn es nur steril nach FLOPs ginge muesste das letzte bei ungefaehr 30fps landen, wobei ich immer noch auf eine =/>470MHz fuer den GT7600 tippe (hab aber dank dem Beispeil mit Absicht mit der gleichen Frequenz gerechnet). Apple hat 1.9x Mal die GPU Leistung behauptet; stimmt auch selbst hier, denn bei gleicher Frequenz waeren es nur 1.5x bei 6 gegen 4 clusters.

Schau Dir mal alle low level tests genauer an im Vergleich:

https://gfxbench.com/compare.jsp?benchmark=gfx30&did1=27074956&os1=iOS&api1=metal&hwtype1=GPU&hwname1=Apple+A9+GPU&D2=Apple+iPhone+6+Plus

ALU 2 ist bei 2.2x als Gegenbeispiel. Uebrigens hilft es auch die Alpha blending Resultate hier mit den Fillrates zu parallelisieren. T-Rex offscreen ist bei knapp unter 1.8x aber hier schlaegt eher die zu starke Geometrie-last ein.

****** edit Nr.2: Ich hab's mal schnell durchlaufen lassen: G6230 (Series6) @533MHz, 2 clusters/4 TMUs unter GFXbench3.1 fillrate = 1225 MTexels/s :P

Apples 1,9x A8 hab ich ja gar nicht angezweifelt. Nur kam mir die Füllrate so vor, als wäre A9 höher getaktet als A8. Mir ging es da eher um IMGs Zahlen, dass Series 7 40-60% schneller ist pro Cluster. Obwohl Manhatten Alu-bound ist wie du schreibst und der ALU Test auch 2,2x als Wert liefert, kommt nur 1,9x A8 an. Bei gleichem Takt ist das nur 30% besser pro Cluster als Series 6 und nicht mehr. Da hatte ich mehr erwartet. DAs ist aber weniger ne Apple, als Series 7 Architekturdiskussion;)

YfOrU
2015-09-26, 12:46:43
Für mich sieht das in Relation zu allen anderen Publikationen so aus als würde deren (Chip) Script Webseiten mit der maximalen Geschwindigkeit in einer Endlosschleife laden welche das Gerät abarbeiten kann. Also ohne festgesetzte Intervalle und dadurch geht die Vergleichbarkeit verloren (es wird unterschiedlich viel Arbeit verrichtet). Die maximale Sendeleistung als Ausgangspunkt für einen Vergleich zu nehmen ist genauso sinnfrei wie ein Videotest bei maximaler Helligkeit des jeweiligen LCDs. Im Endeffekt würden die Ergebnisse von Chip bedeuten das Qualcomms (20nm) MDM9635M wesentlich schlechter ist als der 28nm Vorgänger und das ist zum einen unwahrscheinlich und zum anderen wäre Apple dann beim alten MDM9625M geblieben. Deren Ergebnisse sind komplett für die Tonne.

Ailuros
2015-09-26, 14:33:57
Affenjack,

Du kannst aus den Fuellraten wenig bis gar nichts herauslesen so wie sie dastehen. Du gehst davon aus dass die Frequenz auch wirklich bei ueber 500MHz liegt, muss es aber nicht sein.

Takten sie etwas niedriger als 533 ist der Unterschied bei =/>50% und das uebrigens bei noch ziemlich frischen Treibern die Apple selber schreibt, wo es bei allen Loesungen stets mit der Zeit die Leistung zunimmt. IMG ist ziemlich genau in ihren Angaben; Rys hat bei B3d erlauetert dass die 60% ein konservativer Durchschnitt sei und ich hab keinen Grund ihm nicht zu glauben.

Ist mein eigener frei erfundener Spekulationsmist auf demrichtigen Pfad lhat die GT7600 um die 40% ((wenn nicht mehr) Transistoren als die A8X GPU. Ich schaetze momentan 1.1-1.2Mrd. Fuer die 6 clusters. Die GPU ist wohl immer noch DX10.0 aber Apple gibt zum ersten Mal 16*16k Texturen im Trieber an; die Faehigkeit war schon immer da nur begrnzten sie bis jetzt auf 4*4k. Ich hab den Verdacht dass diesmal die texture caches im back end fett genug sind damit groessere Texturen auch erstmal Sinn machen.

YfOrU,

Fuer Anandtech spezifisch hat die Seite zwar Anand selber nicht mehr, aber mit Verlaub so toll waren seine Artikel nun auch wieder nicht. Wenn ich mir aber dort als Beispiel Nebu's letzten multi-core Artikel ansehe ist die Seite alles andere als schlechter geworden. Reviews sind stets Opfer von Federn mit zu viel Halbwissen und zu viel Zeitdruck zur Veroeffentlichung.

Avalox
2015-09-26, 16:20:01
Keine Ahnung was bei Chip los ist aber bereits deren Ergebnisse für das iPhone 6 Plus in Relation zum S6 (Edge) fallen komplett aus dem Rahmen.


Ein paar Pille Blogs und Hobby Portale im Internet, gegen einen Redaktionstest der größten deutschsprachigen Fachtest Betreibers?

Hmm.

smalM
2015-09-26, 17:16:37
Ein paar Pille Blogs und Hobby Portale im Internet, gegen einen Redaktionstest der größten deutschsprachigen Fachtest Betreibers?

Hmm.

Du meinst dieses abgehalfterte Chip.de? Dagegen ist ja selbst eine Seite wie androidpit.de als neutral einzustufen... :biggrin:

y33H@
2015-09-26, 17:22:55
Da hast du glaube ich etwas falsch verstanden? Der A9 hat demnach 94mm², A8 lag bei 89mm². Die 80% richten sich an die "Schrumpfrate" in einer Dimension für Transistoren, die Fläche schrumpft dabei auf ~64%. So ist etwa der SRAM Block statt 4,8 nur noch 3,1 mm² groß. Der Chip an sich ist aber weiter gewachsen, was ja auch Sinn machtJa, du hast freilich Recht :freak: ;(

Ailuros
2015-09-27, 16:47:46
Nichts wirklich besonderes aber vom Anandtech forum von einem User:

http://forums.anandtech.com/showpost.php?p=37727770&postcount=38

Im B3D forum schoen zusammengefasst:

Cold score Hot score Hot/Cold ratio
Manhattan 56.4 FPS 54.1 FPS 0.959
Manhattan offscreen 39.2 FPS 32.2 FPS 0.822
T-Rex 59.7 FPS 58.8 FPS 0.986
T-Rex offscreen 78.8 FPS 65.6 FPS 0.833