PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Avalox
2015-09-28, 09:05:47
Für mich sieht das in Relation zu allen anderen Publikationen so aus als würde deren (Chip) Script Webseiten mit der maximalen Geschwindigkeit in einer Endlosschleife laden welche das Gerät abarbeiten kann.

Ach so? Steht das irgendwo?

Ich würde sagen, genau so sieht das nicht aus. Weil natürlich der Exynos des Samsung mehr Rechenleistung bietet als der A9 und der Chrome Browser schön parallelisiert mit seinen High Performance Kernen mit zu Werke geht. Ich vermute aber stark, dass der Exynos in solch eine Szenario nicht die Effizienz des Apple Gegenstücks erreicht, was du ja implizit behauptest. Dazu kommt ja noch, das Webseiten eher großflächig hell sind und somit für die AMOLED Panel der Samsung Geräte eher Worstcase sind. Trotzdem schneiden diese weit besser ab.
Zudem auch und insbesondere das Szenario mit der garantiert nicht hohen Last des telefonierens, also ausgeschalteter Bildschirm, ausgeschaltete Hintergrunddienste die Apple Geräte sehr schlecht dastehen lassen.


Stetige aber geringe Last wird den Apple CPUs nicht schmecken, ein Szenario welches über Funktionseinschränkungen das iOS abgefangen und verhindert wird. Das ist die These.

Dieses trifft sich dann auch mit der Lebensrealität eine iPhone Benutzers.

Ailuros
2015-09-28, 12:45:28
Fuer diejenigen die es noch nicht bemerkt haben liegen momentan die OGL und Metal GFXbench Resultate gleich auf fuer den A9; Metal bringt zwar nur ein einstelliges Prozentual auf A8/A8X aber den Fetzen Zusatz wuerde ich noch fuer A9@Metal erwarten.

-----------------------------------------------------------
Avalox,

Auf dem el cheapo China tablet hier wo dummerweise zwar kein 3G vorhanden ist aber der telephony driver trotzdem existierte und aktiv war, frass mir der Scheiss im kompletten idle status unnoetig Batterielaufzeit. Selbst wenn ich gar nichts mit dem Ding angestellt habe war nach knapp 1.5 Tagen die Batterie alle. Root ---> alle Referenzen zu telephony entfernt und voila Problem geloest.

Ich hab mich um ehrlich zu sein nie ueber laengere Zeit mit Apple/iOS beschaeftigt; gelegentliche Herumfummelei auf schnell geliehenen Geraeten hilft hier nicht, aber weiss der Geier was fruitco genau mit dem Zeug anstellt u.a. Es sagt aber bei diesem ausgekapseltem Beispiel wenig bis gar nichts ueber die unterliegende hw und dessen Effizienz aus.

Stetige aber geringe Last wird den Apple CPUs nicht schmecken, ein Szenario welches über Funktionseinschränkungen das iOS abgefangen und verhindert wird. Das ist die These.

Dafuer muesste aber meine These stimmen dass sie cores nicht asynchron takten. Im jeden anderen Fall taktet man einfach auf zweistellige Frequenzen runter und es ist schon gut. Wie gesagt ohne eins der Dinger ueber laengere Zeit durch Laengen zu ziehen kann ich nicht mal verdaechtigen was sie genau anstellen.

YfOrU
2015-09-28, 14:01:01
Trotzdem schneiden diese weit besser ab.

Das trifft nur bei Tests zu welche die Helligkeit des Displays statt auf 150 bzw. 200 cd/m² für alle Geräte fest setzen die Variante 50% wählen. Das Display des iPhone 6 Plus ist bei 100% glatt 200 cd/m² heller als das des Galaxy S6 Edge.

Zu dem Thema (Anandtech):
As a result, we must test battery life holistically, which is far from trivial in most cases. One of the first problems we can encounter in trying to test battery life is display brightness, which can significantly affect results in a battery life test. Although it’s common to standardize at 50% brightness, 50% brightness can be as low as 80 nits or as high as 250 nits depending upon the brightness curve that the OEM sets. In order to avoid this pitfall, we test battery life with the display set to have a 200 nit brightness when displaying a white image.

deekey777
2015-09-28, 14:09:11
Vorläufige Balkendiagramme von Anandtech:
http://www.anandtech.com/show/9662/iphone-6s-and-iphone-6s-plus-preliminary-results

Alter...

Avalox
2015-09-28, 14:10:16
Das trifft nur bei Tests zu welche die Helligkeit des Displays statt auf 150 bzw. 200 cd/m² für alle Geräte fest setzen die Variante 50% wählen. Das Display des iPhone 6 Plus ist bei 100% glatt 200 cd/m² heller als das des Galaxy S6 Edge.


Dafür hat das iPhone Plus Display auch nur die Hälfte der Auflösung und verbraucht nicht mehr Strom, wenn weiße Bildschirme angezeigt werden.
Wer ein helles Display hat wird es schon nutzen.
Einfallen tut mir für die eine, wie die andere Testmethode viele Argumente.

Es gibt ja auch noch einen dritten Ansatz. Wie wäre es denn, wenn man die Bildschirme auf einen subjektiv empfundene Paarigkeit des Kontrastes einstellt? Das sollte ja eigentlich Ziel sein, im zweiten Ansatz.

Eigentlich ist Anandtech Methode mal wieder die schlechteste.

robbitop
2015-09-28, 14:22:51
Vorläufige Balkendiagramme von Anandtech:
http://www.anandtech.com/show/9662/iphone-6s-and-iphone-6s-plus-preliminary-results

Alter...
Alter^2...

Soviel zu den supertoll parallelisierten Chrome Browser. Ich denke immernoch, dass der Browsing eben doch (edit) nicht überdurchschnittlich parallelisierbar ist - auch wenn Chrome viele Threads nutzt - die Ergebnisse sprechen wirklich für sich.

Zu den Laufzeittests: Auf chip.de sollte man nicht viel geben, wenn mehrere, IMO deutlich fähigere Redaktionen, völlig andere Ergebnisse liefern.

Avalox
2015-09-28, 14:26:28
Zu den Laufzeittests: Auf chip.de sollte man nicht viel geben, wenn mehrere, IMO deutlich fähigere Redaktionen, völlig andere Ergebnisse liefern.


Fähiger ist Chip.

Es ist immer derjeniger besser im testen, der das schlechtere Ergebnis außerhalb des vorgegebenen Testmusters begründet liefert


"Apple iPhone 6 Plus: Enttäuschung beim Akku
Bis hierhin hinterlässt das iPhone 6 Plus im Test einen hervorragenden Eindruck, doch beim Akku macht sich Ernüchterung breit. Knappe vier Stunden nimmt sich die Batterie Zeit bis 100 Prozent beim Ladebalken aufleuchten. Im Online-Test gibt das iPhone 6 Plus ein lediglich minimal besseres Bild ab: Nach 6 Stunden und 20 Minuten geht dem Akku die Puste aus. Immerhin messen wir bei der Telefon-Gesprächszeit 8 Stunden und 56 Minuten – ein guter Wert. Die Laufzeiten drücken die Gesamtnote des iPhones stark nach unten."


http://www.chip.de/artikel/Apple-iPhone-6-Plus-128GB-Handy-Test_72709530.html



Jetzt sag mir mal als iPhone Benutzer.

Entsprechen eher 6 Stunden surfen am iPhone Plus der Lebensrealität, oder 13 Stunden?

Wer ehrlich ist, wird sagen. Neh einen ganzen Tag von morgens bis abends ohne Unterbrechung am iPhone surfen, haut irgendwie nicht hin. Wer behauptet das Gegenteil?

robbitop
2015-09-28, 14:27:52
Fähiger ist Chip.

Es ist immer derjeniger besser im testen, der das schlechtere Ergebnis begründet liefert.


Was für eine Logik.

YfOrU
2015-09-28, 14:31:13
Einfallen tut mir für die eine, wie die andere Testmethode viele Argumente.


Ist das wirklich dein Ernst ? Die Regulierung der Helligkeit ist bei den meisten Geräten nicht mal linear. Den Schieberegler auf die Mitte zu setzen ist pure Lotterie. Gleichzeitig ist die Helligkeit bezogen auf die Laufzeit der mit Abstand größte Faktor.

Avalox
2015-09-28, 14:33:16
Was für eine Logik.

Absolut. Derjenige der im Test die Anomalie findet, welche zudem noch der Nutzungserfahrung entspricht hat ganz offensichtlich den besseren Test.


Ist das wirklich dein Ernst ? Die Regulierung der Helligkeit ist bei den meisten Geräten nicht mal linear. Den Schieberegler auf die Mitte zu setzen ist pure Lotterie. Gleichzeitig ist die Helligkeit bezogen auf die Laufzeit der mit Abstand größte Faktor.

Helligkeit ohne Kontrast hat "null" Aussagekraft, es sei denn du willst das Wohnzimmer beleuchten

YfOrU
2015-09-28, 14:47:57
Helligkeit ohne Kontrast hat "null" Aussagekraft, es sei denn du willst das Wohnzimmer beleuchten

Bei einem Schwarzwert von 0.6 cd/m² und einer maximalen Helligkeit von 500 cd/m² ist ein IPS LCD bei direkter Sonneneinstrahlung in jedem Fall besser ablesbar als ein OLED mit 0.0 cd/m² zu 330 cd/m². Damit der Kontrast sich spürbar negativ auf die Ablesbarkeit auswirkt müsste der wesentlich schlechter sein - also so wie bei billigen TN Panels.

deekey777
2015-09-28, 14:56:27
Alter^2...

Soviel zu den supertoll parallelisierten Chrome Browser. Ich denke immernoch, dass der Browsing eben doch überdurchschnittlich parallelisierbar ist - auch wenn Chrome viele Threads nutzt - die Ergebnisse sprechen wirklich für sich.
.
Heute morgen wollte ich auf Ergebnisse von iXBT hinweisen, ließ es aber.

Avalox
2015-09-28, 15:00:11
Bei einem Schwarzwert von 0.6 cd/m² und einer maximalen Helligkeit von 500 cd/m² ist ein IPS LCD bei direkter Sonneneinstrahlung in jedem Fall besser ablesbar als ein OLED mit 0.0 cd/m² zu 330 cd/m². Damit der Kontrast sich spürbar negativ auf die Ablesbarkeit auswirkt müsste der wesentlich schlechter sein - also so wie bei billigen TN Panels.

Ach so.

Du meinst also, dass ein helles Display durchaus ein Verkaufsargument ist für die Nutzung im Freien?
Dann sollte man es doch so testen, wie die Leute denken es nutzen zu können. Würde ich mal vermuten.


Nochmal die Frage.

Findest du ein Webbrowsing Testergebnis von Anandtech, welches 13 bis 14 Stunden ununterbrochens Surfen am iPhone Plus ausgibt der Lebensrealtität entsprechend?

Kannst du den ganzen Tag das Gerät zum Nonstop Surfing nutzen, ohne es zu laden? Das haut nicht hin, wenn du ehrlich bist. Also haut Anands Test nicht hin.

deekey777
2015-09-28, 16:37:14
Ach so.

...

Nochmal die Frage.

Findest du ein Webbrowsing Testergebnis von Anandtech, welches 13 bis 14 Stunden ununterbrochens Surfen am iPhone Plus ausgibt der Lebensrealtität entsprechend?

Kannst du den ganzen Tag das Gerät zum Nonstop Surfing nutzen, ohne es zu laden? Das haut nicht hin, wenn du ehrlich bist. Also haut Anands Test nicht hin.
Fühlst du dich dann persönlich in Gefühlen verletzt, wenn das der Fall sein sollte?

Sunrise
2015-09-28, 17:36:27
Vorläufige Balkendiagramme von Anandtech:
http://www.anandtech.com/show/9662/iphone-6s-and-iphone-6s-plus-preliminary-results

Alter...
Bestätigt auch meine Nutzererfahrung der letzten Tage, allerdings habe ich das normale 6s, nicht das Plus, die sich aber bzgl. der Leistung scheinbar (bis evtl. Dauerlast-Szenarien) nicht viel nehmen, was aber noch genauer unter die Lupe genommen werden müsste.

Jedenfalls ist das Browsing einfach nur noch beeindruckend schnell, sofern man vergleichbare Testbedingungen hat, wie AC-WLAN (zum AC-AirPort) mit etwa 600Mbps Durchsatz und gegenübergestellt einem per 1GBit LAN angeschlossenen i7 Nehalem@4GHz Desktop. Leider ist die Latenz über Kabel nicht zu schlagen, weshalb aber auch das nicht wirklich vergleichbar ist.

Es gibt allerdings in iOS 9 aktuell noch viele Fehler, die nicht das volle Potenzial nutzen. Der A9 is jedenfalls definitiv "Desktop Class" und wenn ich mir anschaue, dass Apple jetzt sogar NVMe spricht, dann fehlt hier nichtmal viel zum Glück für evtl. kommende Desktop A-SoCs von Apple. Denn wenn Akku und Temperatur mehr Spielraum haben, Apple statt Dual-Core min. Quad-Core verbaut, kann man sich ausrechnen, wie die Dinger abgehen.

YfOrU
2015-09-28, 20:23:10
Du meinst also, dass ein helles Display durchaus ein Verkaufsargument ist für die Nutzung im Freien?
Dann sollte man es doch so testen, wie die Leute denken es nutzen zu können. Würde ich mal vermuten.

Kann man natürlich machen aber die Ergebnisse sind dann nicht vergleichbar. Eine Vergleichbarkeit ist nur gegeben wenn die Helligkeit über alle getesteten Geräte normiert ist. Das gilt für alle mobilen Geräte und jeder der auch nur halbwegs den Anspruch hat ordentliche Reviews abzuliefern hält sich daran denn das Panel ist nun mal der größte Einzelverbraucher und damit auch die größte Variable.

Hierüber werde ich mit dir nicht weiter diskutieren denn das ist in jeder Hinsicht Basiswissen. Sowohl was die Technik selbst betrifft als auch bezogen auf die Ermittlung belastbarer Testergebnisse.


Kannst du den ganzen Tag das Gerät zum Nonstop Surfing nutzen, ohne es zu laden? Das haut nicht hin, wenn du ehrlich bist. Also haut Anands Test nicht hin.

Und der von NBC dann auch nicht oder wie sollen wir das verstehen ?
http://www.notebookcheck.com/Test-Apple-iPhone-6-Plus-Smartphone.126671.0.html

Hacki_P3D
2015-09-28, 21:03:59
Bei einem Schwarzwert von 0.6 cd/m² und einer maximalen Helligkeit von 500 cd/m² ist ein IPS LCD bei direkter Sonneneinstrahlung in jedem Fall besser ablesbar als ein OLED mit 0.0 cd/m² zu 330 cd/m². Damit der Kontrast sich spürbar negativ auf die Ablesbarkeit auswirkt müsste der wesentlich schlechter sein - also so wie bei billigen TN Panels.


Und wie kommst Du auf diese 330cd/m²?
Die S6 Displays hauen über 780cd/m² raus..

YfOrU
2015-09-28, 21:34:42
Bei automatischer Anpassung der Helligkeit über den Sensor. Bei manueller Einstellung (relevant für die Testergebnisse, Laufzeit) liegt das Limit bei der Hälfte.
Siehe: http://www.computerbase.de/2015-04/samsung-galaxy-s6-edge-test-reset-try-again-win/

Hacki_P3D
2015-09-28, 22:01:25
Jepp, ist mir auch bekannt :)
Dann kann man es eben nicht direkt miteinander vergleichen ;)

dildo4u
2015-09-29, 00:40:53
Hier wird bestätigt das es zwei verschiedene Versionen vom A9 gibt.(14 und 16nm)


http://www.macrumors.com/2015/09/28/iphone-6s-a9-samsung-tsmc/

Ailuros
2015-09-29, 08:10:56
Alter^2...

Soviel zu den supertoll parallelisierten Chrome Browser. Ich denke immernoch, dass der Browsing eben doch überdurchschnittlich parallelisierbar ist - auch wenn Chrome viele Threads nutzt - die Ergebnisse sprechen wirklich für sich.

Zu den Laufzeittests: Auf chip.de sollte man nicht viel geben, wenn mehrere, IMO deutlich fähigere Redaktionen, völlig andere Ergebnisse liefern.

Also ich hab beim durchlesen bei den A9 Resultaten vs. Surface Pro 3 an die moeglichen A9X gedacht.

Fuer den Rest: was zum Henker interessiert genau der Dreck der die oben erwaehnte Scheissbude veroeffentlicht? Es hat auch nichts mit dem Thema zu tun, aber Avalox braucht mal wieder Luftraum zum "trollen" :weg:

Hier wird bestätigt das es zwei verschiedene Versionen vom A9 gibt.(14 und 16nm)


http://www.macrumors.com/2015/09/28/iphone-6s-a9-samsung-tsmc/

....und um einiges wichtiger fuers Thema als was jegliches Furzmagazin veroeffentlicht; A9 ist dual sourced und der Samsung 14FF chip um 10% kleiner. Ich will hoffen dass der TSMC chip nicht auf 16FF+ sondern auf 16FF hergestellt wurde :P

Dem Anstand zu Liebe ein weiteres Bravo an Sunrise fuer seine durchaus stoerende Genauigkeit die area von die shots einzuschaetzen :P

Anandtech's relevanter writeup: http://www.anandtech.com/show/9665/apples-a9-soc-is-dual-sourced-from-samsung-tsmc

Also die eigentliche "billion dollar question" waere, warum das rosarote iPhone6s so populaer ist :D

robbitop
2015-09-29, 09:19:13
Also doch dual sourced - hatte ich - bzw der Analyst den ich verlinkt hatte - ja gesagt. Wollte aber niemand wahr haben. :D

Ist aber schon ein wahnsinnig hoher Aufwand, so komplexe ASICs zu dual sourcen. Das Verkaufsvolumen der iDevices gibt es aber offenbar her. (und vermutlich ist das 1x nm FF Kontingent limitiert, so dass das eventuell nötig gewesen ist)

Avalox
2015-09-29, 09:39:26
Kann man natürlich machen aber die Ergebnisse sind dann nicht vergleichbar. Eine Vergleichbarkeit ist nur gegeben wenn die Helligkeit über alle getesteten Geräte normiert ist

Absolut nicht. Weshalb sollte dieses so sein und weshalb sollte dann nur die Bildschirmhelligkeit normiert werden?
Ich habe schon geschrieben, dass die Kontraste völlig unterschiedlich sind, dass die Abstrahlwinkel völlig unterschiedlich sind, dass die Displaygrößen und die Bildschirmtechnologie völlig unterschiedlich sind. Aber wenn schon der Bildschirm, weshalb normiert man andere Dinge nicht noch gleich mit?

Nein natürlich gehört nicht der Bildschirm generell normiert, diese Normierung ist in sich schon ein Spezialfall und der Test natürlich damit speziell und ohne allgemeine Aussagekraft.

Dem Tester würde ja damit z.B. nicht mal entfernt auffallen, wenn der Stromverbrauch bei hoher Helligkeit völlig überproportional ansteigt, was aber keinesfalls ungewöhnlich ist.


Es sind schlicht schlechte Tests.

Und wenn ein Test ein Ergebnis hervorbringt, welches jeden Dussel von der Ecke sofort auffällt weil dieses so unmöglich stimmen kann und sich niemals mit der Lebensrealität deckt, dann ist es ein sehr schlechter Test.

Anandtech bringt es ja fertig und testiert den Geräten eine längere Laufzeit, als selbst Apple seinen iPhones unter optimistischsten Bedingen und Marketingeinschlag in die Werbung schreibt und dass ist schon eine echte neue Spitze der Schlechtleistung.

deekey777
2015-09-29, 09:51:27
Was ich mich frage:
Der A8 ist ja Apples neuer A5 und kommt in Apple TV, iPad Mini 4 und iPod Touch 6 zum Einsatz. In den beiden zuerst genannten mit 2 GB RAM. Jetzt die Frage: Bleibt es (noch lange) bei der Fertigung in 20 nm oder wird er geshrinkt, wenn das betriebswirtschaftlich sinnvoll ist?

Ailuros
2015-09-29, 09:55:16
Ich stelle mir vor dass alles unter 20nm sich momentan noch nicht lohnt fuer lower cost Geraete. Unglueckliche Ausnahme ist hier wohl das iPad4 mini.

robbitop
2015-09-29, 09:57:06
Naja ich gehe fest davon aus, dass das mini5 (sofern es das geben wird), den A9 bekommen wird.

Sunrise
2015-09-29, 10:55:26
Was ich mich frage:
Der A8 ist ja Apples neuer A5 und kommt in Apple TV, iPad Mini 4 und iPod Touch 6 zum Einsatz. In den beiden zuerst genannten mit 2 GB RAM. Jetzt die Frage: Bleibt es (noch lange) bei der Fertigung in 20 nm oder wird er geshrinkt, wenn das betriebswirtschaftlich sinnvoll ist?
Die Frage ist: Was erhoffst du dir davon? Komplexerer Prozess mit FinFETs und teurere Wafer? In dem Moment als Apple sich dafür entschieden hat, ist das Produkt darauf ausgelegt. Das sind Produkte die immer dem iPhone hinterher eifern werden, hier muss Apple immer das Beste verbauen. Der Rest "wäre schön", ist aber nicht nur betriebsschaftlich nicht sinnvoll.

Apple kann zwar sicher verdammt gute Preise raushandeln, dennoch haben sie intern eine Prioritätenliste, welche Mengen verfügbar sind und welche Produkte zuerst bedient werden müssen.

smalM
2015-09-29, 11:00:23
Es gibt ja auch noch einen dritten Ansatz. Wie wäre es denn, wenn man die Bildschirme auf einen subjektiv empfundene Paarigkeit des Kontrastes einstellt?

Ja genau, subjektive Testmethoden waren schon immer die besten! :freak:

Avalox
2015-09-29, 11:49:04
Ja genau, subjektive Testmethoden waren schon immer die besten! :freak:

Empfundene Helligkeit ist subjektiv. Die Subjektivität bringst du ein, indem du mit einem Messgerät nur den Lichtstrom misst. Zweifelsfrei mit dem Ergebnis, dass die Displays unterschiedlich hell und praktikabel wirken.

Solch ein Test ist zu simpel gedacht.

YfOrU
2015-09-29, 11:56:32
Arstechnica: A9 Throttling
http://arstechnica.com/apple/2015/09/a-3d-touch-above-the-iphone-6s-and-6s-plus-reviewed/4/#h2

http://cdn.arstechnica.net/wp-content/uploads/2015/09/charts.021-980x720.png

http://cdn.arstechnica.net/wp-content/uploads/2015/09/charts.022-980x720.png

http://cdn.arstechnica.net/wp-content/uploads/2015/09/charts.023-980x720.png

Sunrise
2015-09-29, 11:58:53
Also die eigentliche "billion dollar question" waere, warum das rosarote iPhone6s so populaer ist :D
Ich mag ja beides ganz gern, vor allem rot, aber als Telefon will man hier einfach wieder was Exklusives rumzeigen können. Apple macht das schon sehr geschick, ich könnte mir vorstellen, dass hier evtl. diese Angela-Ahrendts einen gewissen Einfluss hat, was die Farben angeht.

robbitop
2015-09-29, 12:02:58
Hat Arstechnica eigentlich auch Messungen zum Exynos 7240? Habe leider keine auf Anhieb gefunden.

YfOrU
2015-09-29, 12:10:35
Siehe: (untere Hälfte des Artikels) http://arstechnica.com/gadgets/2015/04/in-depth-with-the-snapdragon-810s-heat-problems/

robbitop
2015-09-29, 12:20:05
Oh das sieht ja nicht so toll aus für den Exynos. Sustained in 3DBenchmarks throttelt er auch sehr sehr stark. Er wird sogar deutlich langsamer als der veraltete A8 (ebenfalls sustained).

YfOrU
2015-09-29, 12:24:04
Wobei der Exynos 7420 zumindest bezogen auf den CPU Part grundsätzlich ganz gut funktioniert. Big.Little ist unter diesem Blickwinkel nicht ganz unproblematisch da die Skalierung (nach unten, thermisches Limit) teilweise über das Little Cluster laufen muss und das kostet dann (S810) richtig viel Performance.

smalM
2015-09-29, 12:33:46
Also doch dual sourced - hatte ich - bzw der Analyst den ich verlinkt hatte - ja gesagt. Wollte aber niemand wahr haben.
Jetzt müssen wir wohl alle dran glauben. :biggrin:

Hmm, sind die nun hergestellt in 16FF+ und 14FF LPP oder 16FF und 14FF LPE?
Und gehen alle APL0898 ins 6s und alle APL1022 ins 6s+?
Und sind die Dies überhaupt gleich?
Chipworks, macht hinne! ;D

robbitop
2015-09-29, 12:40:02
Wobei der Exynos 7420 zumindest bezogen auf den CPU Part grundsätzlich ganz gut funktioniert. Big.Little ist unter diesem Blickwinkel nicht ganz unproblematisch da die Skalierung (nach unten, thermisches Limit) teilweise über das Little Cluster laufen muss und das kostet dann (S810) richtig viel Performance.
Das habe ich nicht angezweifelt. Samsung hat big.Little beim 3. Versuch endlich hinbekommen. Aber im sustained Lastfall throttelt der A57 aber schon sehr sehr stark im 7240. Die GPU auch, wenn ich mir die sustained Performance anschaue.

Throtteln tun natürlich alle mobile Devices, weil in den meisten Usecases nur kurz die Peakperformance abgefragt wird. Allerdings für die GPU sollte man nicht so stark throtteln, weil dessen Usecase relativ häufig ein Spiel ist. Und dort ist sustained Performance relativ wichtig. Ansonsten hat man nach 10-30 min nur noch ein Bruchteil der vorhandenen Leistung. Dafür steht man in Benchmarks aber gut dar.

robbitop
2015-09-29, 12:41:45
Jetzt müssen wir wohl alle dran glauben. :biggrin:

Hmm, sind die nun hergestellt in 16FF+ und 14FF LPP oder 16FF und 14FF LPE?
Und gehen alle APL0898 ins 6s und alle APL1022 ins 6s+?
Und sind die Dies überhaupt gleich?
Chipworks, macht hinne! ;D
Bei Anand steht, dass die TSMC Version laut Chipworks 8% größer ist. Welcher Prozess es genau ist, bekommt Chipworks sicher nicht so leicht raus.
Da 16FF angeblich gecancelt wurde, sollte es schon die 16FF+ Version sein, oder?

smalM
2015-09-29, 12:42:39
Die Subjektivität bringst du ein, indem du mit einem Messgerät nur den Lichtstrom misst.

:eek:

AffenJack
2015-09-29, 13:14:14
Bei Anand steht, dass die TSMC Version laut Chipworks 8% größer ist. Welcher Prozess es genau ist, bekommt Chipworks sicher nicht so leicht raus.
Da 16FF angeblich gecancelt wurde, sollte es schon die 16FF+ Version sein, oder?

Doch das sollte Chipworks hinkriegen. Gate und Metal Pitch des Prozesses ist bekannt und ich meine Chipworks hat das bei früheren Prozesson schon überprüft und konnte das sehr genau feststellen.
Prinzipiell war dies die Annahme, dass es 16FF+ wird und 16FF gecancelt ist, aber der Größenunterschied lässt einen wieder etwas zweifeln.

YfOrU
2015-09-29, 13:58:05
Das habe ich nicht angezweifelt. Samsung hat big.Little beim 3. Versuch endlich hinbekommen. Aber im sustained Lastfall throttelt der A57 aber schon sehr sehr stark im 7240. Die GPU auch, wenn ich mir die sustained Performance anschaue.

Dieses mal bekommt dafür Qualcomm Prügel welche mit S810 ordentlich daneben gegriffen haben. Allerdings habe ich so meine Zweifel das es nur an Qualcomm liegt.

Mit Blick auf: The Samsung Exynos 7420 Deep Dive http://www.anandtech.com/show/9330/exynos-7420-deep-dive stellt sich mir schon die Frage ob ein Quadcore A57 Cluster bei 20nm bezogen auf Smartphones nicht bereits grundsätzlich am obersten Limit bzw. etwas darüber ist. Der Exynos 7420 funktioniert vor allen deshalb wesentlich besser da die Spannung aufgrund von 14nm FF deutlich niedriger angesetzt werden kann. Ansonsten würde der wohl auch abseits von extremen Ausnahmefällen auf das Little Cluster zurückwechseln.

robbitop
2015-09-29, 14:25:25
Nunja - man hätte auch die Taktraten etwas zurückfahren können. Qualcomms 600er Serie soll ja A72 Kerne verbauen - und das auf 28 nm. Huawais Kirin 950 ebenso. Da werden die Taktraten dann sicher etwas konservativer gefahren werden. Man kann eben nicht alles haben.
Qualcomm ist bei S810 einfach zu enthusiastisch in diesem Bereich unterwegs. Ein ähnliches Problem hatte ja auch der 20 nm Exynos 5433. Und der Memorycontroller war dazu auch noch etwas suboptimal.

Ich bin auf Samsungs zukünftige (bereits gerüchteweise in Entwicklung befindliche) Custom Cores gespannt.

Die Sturm Kerne von Apple (Cyclone, Typhoon, Twister - ob da noch ein "Tornado" oder Ähnliches folgt? :D) zeigen, dass sich das für die Diversifizierung lohnen kann. NV, Qualcomm und Samsung traue ich da noch einiges zu. Denver war (bis auf seine bauartbedingten Hickups) ja auch nicht von schlechten Eltern. :)

Zumindest bringen sie Abwechslung in's Spiel. Auch die Kerne von ARM selbst sind sicherlich sehr gut und interessant - vor allem wenn man bedenkt, dass ARM sicherlich deutlich weniger Ressourcen aufbringen kann als die großen.

Die ULP Welt ist schon wirklich interessant in den letzten Jahren geworden. Ein wenig wie im PC CPU/GPU Markt in den 90ern. Jetzt hat es sich dort ja leider zu einer zweifarbigen (prinzipiell sogar nur einfarbigen) Suppe konsolidiert.

smalM
2015-09-29, 16:11:28
@AffenJack @robbitop
Dafür, daß 16FF+ und 14FF LPP angeblich bei gate-pitch x interconnect-pitch gleich groß sein sollten, sind 8% schon verblüffend.
Deswegen fragte ich mich auch, ob die Dies überhaupt dasselbe Design haben.
Oder der 16FF+-Entwurf ist auf Nummer sicher mit mehr Fülltransistoren gemacht?
Es sind da ja viele Varianten denkbar...

smalM
2015-09-29, 23:23:22
Verteilung von Samsung-A9:TSMC-A9 via MacRumors (http://www.macrumors.com/2015/09/29/a9-chip-split-tsmc-samsung/):

6s 22:78
6s Plus 57:43

Datenbasis: Knapp 1100 6s und gut 1400 6s Plus
Ja, die Daten kommen aus Fernost :D

Sunrise
2015-09-30, 10:04:36
Ich bin echt mal auf die Unterschiede gespannt.

Vorausgesetzt die Größenunterschiede ergeben sich rein durch die Strukturgrößen der Transistoren bzw. der Designregeln des Prozesses, sprich, der SoC hätte wirklich nur minimale Anpassungen, dann hätte man hier einen extrem seltenen Fall der Vergleichbarkeit unter den Fabs. Hatte sich hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10755633&postcount=341) ja schon angedeutet.

Für TSMC 16FF+ wäre der TSMC-A9 allerdings ziemlich enttäuschend (mal rein auf die Größe bezogen) und man würde mal wieder sehen wie blödsinnig diese Marketing-Angaben wirklich sind, denn was entscheidend ist, sind fertig SoCs bzw. fertige Produkte die auch ausgewogen arbeiten und nicht diese "Peak"-Angaben, was maximal erreicht werden kann. Und da liefert Samsung derzeit wohl die Speerspitze, wenn man mal Intel ausnimmt.

Ailuros
2015-09-30, 12:10:54
Ich bin echt mal auf die Unterschiede gespannt.

Vorausgesetzt die Größenunterschiede ergeben sich rein durch die Strukturgrößen der Transistoren bzw. der Designregeln des Prozesses, sprich, der SoC hätte wirklich nur minimale Anpassungen, dann hätte man hier einen extrem seltenen Fall der Vergleichbarkeit unter den Fabs. Hatte sich hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10755633&postcount=341) ja schon angedeutet.

Für TSMC 16FF+ wäre der TSMC-A9 allerdings ziemlich enttäuschend (mal rein auf die Größe bezogen) und man würde mal wieder sehen wie blödsinnig diese Marketing-Angaben wirklich sind, denn was entscheidend ist, sind fertig SoCs bzw. fertige Produkte die auch ausgewogen arbeiten und nicht diese "Peak"-Angaben, was maximal erreicht werden kann. Und da liefert Samsung derzeit wohl die Speerspitze, wenn man mal Intel ausnimmt.

Ich bin auch nicht ueberzeugt dass der eine oder andere SoC wesentlich besser mit Leckstroemen und Verbrauch umgeht: https://forum.beyond3d.com/posts/1873622/

Letzter Paragraph aus dem link oben:
Still hats off to Apple. A (semi- ?)custom SoC taped out to two fabs in the same time must have been development hell. You need two back-end teams to begin with and you likely take a hit of tens of millions of dollars for such a complex IC. However, I can imagine they wanted to avoid yield and supply issues. Maybe this has been the strategy of Apple for the past two generations of A-type SoCs and this time both foundries were struggling with yield, so Apple decided to take both parts into production.

Weiss der Geier wirklich wieso der TSMC SoC etwas groesser ist. Auf ersten Blick sieht es zwar schon aus als ob Samsung mit 14FF einen Vorteil hat, aber jetzt wo ich es nochmal ueberdenke muss es nicht wirklich so sein. Einen chip parallel fuer zwei verschiedene Prozesse auszulegen und dann noch 1:1 fuer die area zu erwarten wobei der eigentliche Unterschied doch eher ein einstelliges Prozentual ist, ist schon ein bisschen merkwuerdig. Beim vorigen Post oben sieht es so aus als ob die yields um die 50% besser sind bei TSMC, welches aber auch eine ziemlich gewagte Schlussvolgerung waere.

Man kann wirklich viele Thesen finden wieso dem so ist, ich moechte aber daran erinnern dass TSMC ausserhalb vom A9 wichtigere Vertraege halten konnte fuer kommende hochkomplizierte chips als Samsung aus TSMC's Haenden reissen konnte ;) Gut ich kann einen <10% Vorteil fuer Samsung's 14FF sehen; sind die yields aber besser und wenn nicht um wieviel genau?

robbitop
2015-09-30, 15:27:30
Der Grund für die höhere Anzahl von Samsung A9s muss nicht unbedingt der Yield sein. Es kann auch sein, dass Samsung weniger Geld verlangt oder einfach mehr Kapazität im gleichen Zeitraum hatte.
Auch eine Kombination aus diesen Gründen ist möglich. Samsung war immerhin doch etwas früher dran mit ihrem FinFET Prozess.

Dass die GPU Hersteller bei TSMC bleiben hat sicher auch noch andere Gründe. Immerhin haben sie Jahrzehntelange Erfahrung mit TSMC im Zusammenhang mit GPUs. Da ist die Scheu vor dem Risiko sicher auch eine Komponente.
Beim letzten Wechsel (NV40 @IBM) hat NV sich ja bereits die Finger verbrannt.

smalM
2015-09-30, 17:37:20
Der Grund für die höhere Anzahl von Samsung A9s muss nicht unbedingt der Yield sein.
Kann es sein, daß Du nur auf die 6s Plus Zahlen geguckt hast?
Die Gesamtanzahl der Samsung-A9 ist deutlich niedriger als die der TSMC-A9.

Sunrise
2015-09-30, 17:48:03
Samsung hat bzw. hatte mit ihren eigenen SoCs genug zu tun, die werden wohl kaum ihre Kapazitäten und Marktanteile für Apple gefährden, daher war es auch nicht realistisch, dass alles auf 14nm kommt. TSMC hingegen hat wieder (wie schon bei 20nm SoC) Apple mächtig Kapazität angeboten, aber evtl. genügte die Anfangsmenge nicht, sodass man in den sauren Apfel gebissen hat und beide beauftragt hat. TSMC wird Apple wie immer auch soweit entgegen gekommen sein und Apple wird mit ziemlicher Sicherheit auch weiter so verfahren, denn es werden immer mehr SoCs gebraucht.

Theoretisch könnte das Samsung mit ihrer 400 Fußballfelder großen Kapazitätserweiterung bald evtl. sogar alleine stemmen, und TSMC will sicher alles, nur das nicht.

AffenJack
2015-09-30, 19:14:19
Samsung hat bzw. hatte mit ihren eigenen SoCs genug zu tun, die werden wohl kaum ihre Kapazitäten und Marktanteile für Apple gefährden, daher war es auch nicht realistisch, dass alles auf 14nm kommt. TSMC hingegen hat wieder (wie schon bei 20nm SoC) Apple mächtig Kapazität angeboten, aber evtl. genügte die Anfangsmenge nicht, sodass man in den sauren Apfel gebissen hat und beide beauftragt hat. TSMC wird Apple wie immer auch soweit entgegen gekommen sein und Apple wird mit ziemlicher Sicherheit auch weiter so verfahren, denn es werden immer mehr SoCs gebraucht.

Theoretisch könnte das Samsung mit ihrer 400 Fußballfelder großen Kapazitätserweiterung bald evtl. sogar alleine stemmen, und TSMC will sicher alles, nur das nicht.

Selbst dann wird Samsung Kapazitätsprobleme haben und das dürfte auch der einfach Grund sein, wieso Apple Dual-Sourced. Man muss sich mal vorstellen, was Samsung da am produzieren ist. Eigene SoCs, Apple SoCs, die gesamte Qualcomm Produktion soll von Samsung am Anfang kommen. Der gesamte High-End Smartphone Markt produziert bei Samsung.

LadyWhirlwind
2015-09-30, 19:35:35
Samsung hat bzw. hatte mit ihren eigenen SoCs genug zu tun, die werden wohl kaum ihre Kapazitäten und Marktanteile für Apple gefährden, daher war es auch nicht realistisch, dass alles auf 14nm kommt. TSMC hingegen hat wieder (wie schon bei 20nm SoC) Apple mächtig Kapazität angeboten, aber evtl. genügte die Anfangsmenge nicht, sodass man in den sauren Apfel gebissen hat und beide beauftragt hat. TSMC wird Apple wie immer auch soweit entgegen gekommen sein und Apple wird mit ziemlicher Sicherheit auch weiter so verfahren, denn es werden immer mehr SoCs gebraucht.

Theoretisch könnte das Samsung mit ihrer 400 Fußballfelder großen Kapazitätserweiterung bald evtl. sogar alleine stemmen, und TSMC will sicher alles, nur das nicht.

Die Frage ist auch, ob Apple wirklich nur auf einen Hersteller setzen will. Wenn dieser - aus welchen Gründen auch immer - ausfällt oder nur ein bruchteil der vereinbarten Menge liefern kann, dann hat Apple ein Umsatz/Gewinn Problem. Bei den Stückzahlen denke ich nicht, dass die Kosten für ein Dualsourcing die Handelsspanne (gross margin) in einem Verhältnis reduzieren, dass den entgangenen Umsatz bzw. Gewinn rechtfertigt, wenn es bei einem einzelnen Lieferanten zu Produktionsproblemen kommen sollte. So aber bleibt Apple viel flexibler.

Sunrise
2015-09-30, 19:38:31
@Ladywhirlwind:
Richtig, hat eigentlich fast nur Vorteile. Und wenn es wirklich gleich heftig an die Stückzahlen bzw. Millionen geht, dann bei Apple.

YfOrU
2015-09-30, 20:00:35
Die iPhones generieren je nach Quartal 60 bis 70% des Umsatzes (2014 gesamt: 182,8 Mrd. US Dollar bei 38,5 Mrd. Gewinn). Etwas anderes als Dual-Sourcing jeglicher auch nur im Ansatz kritischer Komponenten wäre betriebswirtschaftlicher Wahnsinn. Für Apple sind das zusätzlich zum einen nur Peanuts (Entwicklungskosten, Vorfinanzierung) und zum anderen lässt sich mit zwei Zulieferern für die gleiche Komponente auch der Preis auf einem gesunden Niveau halten. Gibt wenige Unternehmen welche im Kontext der Marktwirtschaft bzw. der Lieferkette derart konsequent und effizient operieren wie Apple ;)

basti333
2015-09-30, 21:18:38
Theoretisch könnte das Samsung mit ihrer 400 Fußballfelder großen Kapazitätserweiterung bald evtl. sogar alleine stemmen, und TSMC will sicher alles, nur das nicht.

Fragt sich wie lange Intel sich noch sträubt als Auftragsfertiger zu agieren. Ich meine bei Apples derzeitigen Vorsprung wäre es von Intel utopisch zu glauben das Apple seine mobile Devices nochmal auf x86 umstellt, außerdem wird das -bislang nur theoretische- Risiko, das Apple auch seine Macs auf eigene Chips umstellt, langsam aber sicher real. Der restliche PC markt is auch nicht gerade am aufblühen. Und zu allem Überfluss ist Intels Fertigungsvorsprung derzeit am dahinschmelzen. Ich frag mich da echt warum intel seine neusten Fertigungstechnologien noch nicht als Auftragefertiger nutzt. Zumindest bei Apple würde man damit inzwischen wohl nicht mehr an der eigenen x86 Sparte sägen. Oder anders gefragt: Was muss noch passieren mit Intel sich bewegt? Wollen sie warten bis sie in ernste Bedrängnis geraten und aus der Not heraus handeln, statt aus einer Position der Stärke?

YfOrU
2015-10-01, 11:17:01
Fragt sich wie lange Intel sich noch sträubt als Auftragsfertiger zu agieren. Ich meine bei Apples derzeitigen Vorsprung wäre es von Intel utopisch zu glauben das Apple seine mobile Devices nochmal auf x86 umstellt, außerdem wird das -bislang nur theoretische- Risiko, das Apple auch seine Macs auf eigene Chips umstellt, langsam aber sicher real

Intel ist vor allen daran interessiert das Apple die mobilen Produkte mittelfristig auf deren Kommunikationslösungen (Funktechnik) umstellt (statt Qualcomm). SoCs wird auf absehbare Zeit so oder so niemand bei Apple unterbringen können. Das Apple Notebooks und Desktops (OSX) in Zukunft mit eigenen ARM Prozessoren ausrüstet ist nahezu ausgeschlossen. Zum einen wäre der Aufwand enorm und gleichzeitig sind die Stückzahlen in Relation zu ultra-mobile gering. Zum anderen ist die x86 Kompatibilität inkl. Bootcamp (MS Windows) für Apple heute ein sehr wichtiges Verkaufsargument.


Der restliche PC markt is auch nicht gerade am aufblühen.

Die Margen sind mangels Konkurrenz weiterhin traumhaft und im Enterprise Bereich nimmt Intels Marktanteil seit Jahren zu.


Und zu allem Überfluss ist Intels Fertigungsvorsprung derzeit am dahinschmelzen.

Der ist kleiner geworden aber nicht in dem Maßstab wie es auf den ersten Blick erscheint. Aufgrund der immer weiter zunehmenden Komplexität und der Abhängigkeit von Zulieferern (Fertigungstechnik) rückt die Branche zwangsläufig näher zusammen.


Ich frag mich da echt warum intel seine neusten Fertigungstechnologien noch nicht als Auftragefertiger nutzt.

Intel ist in derart vielen Geschäftsfeldern aktiv das es nur wenige Bereiche (bzw. potentielle Kunden) gibt in denen dadurch keine direkte Konkurrenz zu eigenen Produkten entstehen würde. Der Ansatz ist aktuell ein anderer: Intel stellt sich noch breiter auf. Beispiel: Die Übernahme von Altera. Der Weg das Volumen mittelfristig über eigene Produkte in "neuen" Segmenten deutlich zu steigern ist bezogen auf die verfügbaren Ressourcen durchaus nahe liegend. Das geht nicht von heute auf morgen sondern braucht Jahre (Integration in das Unternehmen, flexiblere Fertigungsprozesse) aber das kann sich ein Unternehmen wie Intel auch leisten da die x86 Cash Cow auf absehbare Zeit weiter funktioniert.

Ailuros
2015-10-01, 12:30:24
Der Grund für die höhere Anzahl von Samsung A9s muss nicht unbedingt der Yield sein. Es kann auch sein, dass Samsung weniger Geld verlangt oder einfach mehr Kapazität im gleichen Zeitraum hatte.
Auch eine Kombination aus diesen Gründen ist möglich. Samsung war immerhin doch etwas früher dran mit ihrem FinFET Prozess.

Wieso sollte Samsung mehr Kapazitaet fuer 14FF haben wenn sie wie oben schon erwaehnt die meisten SoCs fuer die heutigen high end smartphones darunter herstellen? Tatsache ist eher dass weder Sammy noch TSMC genug fuer Apple liefern konnten sonst haetten sie auch nie zum umstaendlichen und teuren dual sourcing gegriffen.

Dass die GPU Hersteller bei TSMC bleiben hat sicher auch noch andere Gründe. Immerhin haben sie Jahrzehntelange Erfahrung mit TSMC im Zusammenhang mit GPUs. Da ist die Scheu vor dem Risiko sicher auch eine Komponente.
Beim letzten Wechsel (NV40 @IBM) hat NV sich ja bereits die Finger verbrannt.

NV schickt fuer jeden neuen Samsung Prozess der letzten Jahre testchips rueber, sonst wuerde es auch nicht immer und immer wieder Geruechte geben dass NV angeblich bei Samsung herstellen wird. Hier weiss dann NV schon innerhalb Grenzen wie jeglicher Samsung Prozess fuer N chips aussehen koennte.

robbitop
2015-10-01, 14:10:00
Agreed zum ersten. Da hast du wohl Recht! Das mit NV finde ich interessant. Danke für die Info. :)

Ailuros
2015-10-01, 19:22:25
Agreed zum ersten. Da hast du wohl Recht! Das mit NV finde ich interessant. Danke für die Info. :)

Nichts Neues; kommt ja immer wieder in den Medien. Es hiess ja mehrere Male vor kurzem dass Parker bzw. Pascal angeblich bei Samsung hergestellt werden. Am Ende ist es wohl weder noch.

smalM
2015-10-01, 19:27:08
Bei den Stückzahlen denke ich nicht, dass die Kosten für ein Dualsourcing die Handelsspanne (gross margin) in einem Verhältnis reduzieren, dass den entgangenen Umsatz bzw. Gewinn rechtfertigt, wenn es bei einem einzelnen Lieferanten zu Produktionsproblemen kommen sollte. So aber bleibt Apple viel flexibler.

Definitionsgemäß reduzieren die zusätzlichen Kosten die Handelsspanne überhaupt nicht.
Sie werden nämlich an anderer Stelle (Konzernkosten F & E) verbucht. :biggrin:

Daniel Nenni von semiwiki.com zu den zusätzlichen Kosten:
I'm looking into this but from what I'm told today TSMC did the migration for Apple. It was described to me as a "diving catch" to get more Apple business betting that Samsung would not meet Apple's yield-schedule-capacity requirements. Based on what I know about Morris Chang and how competitive he is this is definitely a strong possibility.

[...]

In my former life I did quite a few design migrations from process to process at equal geometries and migrations to smaller geometries. The biggest trade off you have is area, which could explain the density difference. Sound reasonable?

Sunrise
2015-10-02, 18:01:14
Nachdem ich jetzt ein paar Tage das 6s in Benutzung habe, fällt mir doch extrem auf, dass die 6 Cluster Rogue 7XT enorm am Akku saugt. Ob das jetzt für das normale 6s unbedingt nötig war (die Leistung ruft doch in der Lebzeit nie jemand ab) mal dahingestellt, aber da hat Apple scheinbar zugunsten des 6s Plus, das gefühlt immer beliebter wird und der Entscheidung, nur einen SoC für beide iPhones zu nutzen IMHO einen gewissen Grenzwert überschritten.

Ich komme mit Mühe und Not und nur einer Browser Game App (sonst nur Mail, Kommunikation und ein bißchen Surfen mit Safari) an die 8 bzw. 9 Stunden und zwar nur weil ich wirklich fast alles deaktiviert habe (inkl. 3D Touch). In der Batterieübersicht habe ich bei der Game App immer um die 50% stehen und auch Google Maps und Co. ziehen enorm am Akku.

Kennt Rogue 7XT die Drossel oder läuft der immer auf max.? Mich würde auch mal interessieren, ob man mit Metal hier Optimierungspotenzial hat, Akku einzusparen, die App Programmierer also etwas an dieser Situation ändern könnten.

fondness
2015-10-02, 18:06:14
Ich komme mit Mühe und Not und nur einer Browser Game App (sonst nur Mail, Kommunikation und ein bißchen Surfen mit Safari) an die 8 bzw. 9 Stunden und zwar nur weil ich wirklich fast alles deaktiviert habe (inkl. 3D Touch). In der Batterieübersicht habe ich bei der Game App immer um die 50% stehen und auch Google Maps und Co. ziehen enorm am Akku.


OMG, für mich wäre ein Smartphone völlig unbenutzbar, das nicht mind. einen vollen Tag hält und zwar OHNE das ich alles deaktivieren muss.

EdRu$h
2015-10-03, 04:05:30
OMG, für mich wäre ein Smartphone völlig unbenutzbar, das nicht mind. einen vollen Tag hält und zwar OHNE das ich alles deaktivieren muss.

Er meint bestimmt bei 8-9 Stunden Benutzung, ganz sicher nicht Standby, in meinem Bekanntenkreis sind die Meldungen über den Akku alle zu 100% Positiv und keiner berichtet von so einer geringen Laufzeit.

Ailuros
2015-10-03, 12:12:44
Nachdem ich jetzt ein paar Tage das 6s in Benutzung habe, fällt mir doch extrem auf, dass die 6 Cluster Rogue 7XT enorm am Akku saugt. Ob das jetzt für das normale 6s unbedingt nötig war (die Leistung ruft doch in der Lebzeit nie jemand ab) mal dahingestellt, aber da hat Apple scheinbar zugunsten des 6s Plus, das gefühlt immer beliebter wird und der Entscheidung, nur einen SoC für beide iPhones zu nutzen IMHO einen gewissen Grenzwert überschritten.

Ich komme mit Mühe und Not und nur einer Browser Game App (sonst nur Mail, Kommunikation und ein bißchen Surfen mit Safari) an die 8 bzw. 9 Stunden und zwar nur weil ich wirklich fast alles deaktiviert habe (inkl. 3D Touch). In der Batterieübersicht habe ich bei der Game App immer um die 50% stehen und auch Google Maps und Co. ziehen enorm am Akku.

Kennt Rogue 7XT die Drossel oder läuft der immer auf max.? Mich würde auch mal interessieren, ob man mit Metal hier Optimierungspotenzial hat, Akku einzusparen, die App Programmierer also etwas an dieser Situation ändern könnten.

Schlampige erste sw Implementierung oder was? Wie schon erwaehnt unter normalen Umstaenden duerfte die GPU ausserhalb 3D nicht mehr als 2 cluster operativ haben (ergo 1/3 vom ganzen Ding) und diesbezueglich muesste sie auch den neueren Prozess mitberechnet (weil N mehr Transistoren pro cluster) in etwa so viel verdonnern wie jede A7 bzw. A8 GPU.

Sunrise
2015-10-03, 15:18:52
Schlampige erste sw Implementierung oder was? Wie schon erwaehnt unter normalen Umstaenden duerfte die GPU ausserhalb 3D nicht mehr als 2 cluster operativ haben (ergo 1/3 vom ganzen Ding) und diesbezueglich muesste sie auch den neueren Prozess mitberechnet (weil N mehr Transistoren pro cluster) in etwa so viel verdonnern wie jede A7 bzw. A8 GPU.
Es ist schwer zu sagen, jedenfalls ziehen Apps (ohne 3D) gefühlt stärker am Akku als noch mit dem A7 und iOS 8.4.1. Als würde die GPU immer im Volllast-Bereich arbeiten. Bei ganz einfachen Browser-Games (ausschließlich 2D) dürfte eigentlich keine hohe Last anfallen. Ebenso Apps wie Lovoo und Google Maps, bei denen ich lediglich (keine Satelittenübersicht) die ganz einfache Ansicht fahre, die GPU nuckelt fröhlich den Akku leer, ich kann schon fast zugucken.

Ich mach heute Abend mal einen Restore, evtl. ist bei mir auch was faul, aber sowas hatte ich mit dem A7 und iOS 8.4.1 nicht.

Für Benchmarks ist das natürlich grandios, und sonst ist das Ding auch verflucht schnell (die Lags bei iOS 9 sind allerdings bekannt, evtl. auch ein Indiz für schlecht optimierte SW) aber sobald man irgendwas grafisch Aufwändigeres macht wirds ganz schnell dünn.

Evtl. fehlt auch eine Anpassung an Metal oder es stimmt irgendwas mit dem Runtertakten der GPU nicht.

Rooter
2015-10-04, 14:49:11
Die SoCs von Apple schlagen ja schon seit einigen Generationen alle Konkurenten um Längen, vor allem bei der Single-Core Leistung:
http://www.computerbase.de/2015-09/apple-iphone-6s-plus-test/2/#diagramm-geekbench-3-total-single-core

Klar, Andoid muss für hunderte Hardwarekombinationen entwickelt werden, während es bei Apple nur eine Handvoll sind. Aber das allein kann ja nicht die Erklärung für z.B. 70% Vorsprung gegenüber dem Flaggschiff von Samsung sein. Weiß man schon wie die das hinkriegen? :D
(Sorry falls die Frage hier im Thread schon beantwortet wurde, wollte jetzt keine 129 Seiten durchblättern...)

MfG
Rooter

Felixxz2
2015-10-05, 03:49:20
Kann das überhaupt nicht bestätigen, wechsel auch vom 5s und habe hervorragende Akkulaufzeiten.

Sunrise
2015-10-05, 10:55:48
Kann das überhaupt nicht bestätigen, wechsel auch vom 5s und habe hervorragende Akkulaufzeiten.
Hast du paar Zahlen bzgl. deiner Nutzung?

Nach Deaktivierung von "Reduce Motion" (stellt den Parallax-Effekt der UI dar und die Fenster-Animationen) komme ich jetzt auf etwa 10 Std. aktiver Nutzung, was in Ordnung ist. Irgendwie sieht das für mich alles danach aus, als ob Apple da eine Menge Akku über die GPU einfach unnötig verbläst.

Ich warte mal auf GPU-Langzeittests von anandtech und Co., denn wir Ailuros schon sagt, aufgrund der >50% gestiegenen Effizienz von Rogue 7XT und dem neuen Prozess sollten das eigentlich die 50% mehr Cluster locker auffangen können. Es sei denn es stimmt irgendwas mit dem Ansprechen der GPU nicht (SW).

Warten wir mal auf anandtech und evtl. einer guten Seite mit Akku-Tests. Denn viele der aktuellen Tests sind teilweise so krumm und absolut sinnfrei, das hilft nicht wirklich.

Ailuros
2015-10-05, 11:07:25
Wenn meine spekulative Mathe bezueglich Transistoren nicht total nutzlos ist dann kann es sein dass die A9 GPU insgesamt als block irgendwo 3x Mal so gross ist wie der A8 GPU block. In dem Fall schluckt der Prozess den Unterschied natuerlich nicht so leicht. Vorsicht: ich sagte fuer alles ausserhalb 3D wo man unter normalen Umstaenden nicht mehr als 2 cluster aktiv haben sollte.

Bloede Frage: gab/gibt es diesen parallax Effekt fuers UI auch auf vorigen iPhones und wenn ja wie reagieren diese darauf?

BigKid
2015-10-06, 08:41:24
Wenn meine spekulative Mathe bezueglich Transistoren nicht total nutzlos ist dann kann es sein dass die A9 GPU insgesamt als block irgendwo 3x Mal so gross ist wie der A8 GPU block. In dem Fall schluckt der Prozess den Unterschied natuerlich nicht so leicht. Vorsicht: ich sagte fuer alles ausserhalb 3D wo man unter normalen Umstaenden nicht mehr als 2 cluster aktiv haben sollte.

Bloede Frage: gab/gibt es diesen parallax Effekt fuers UI auch auf vorigen iPhones und wenn ja wie reagieren diese darauf?
Den hat iOS7 eingeführt zumindest bis runter zum iPhone 5S also... ich kann jetzt nicht sagen ob es auch bei älteren Phones ging...
Und ja - der effekt hat am Akku genuckelt aber meiner Erinnerung nach nicht ge-ruckelt...

deekey777
2015-10-06, 10:39:20
Review des iPad mini 4 von iXBT (russische Sprache, schwere Sprache):http://www.ixbt.com/td/ipad-mini-4.shtml

Die GFX-Ergebnisse deuten etwas einen höheren GPU-Takt an.

Ailuros
2015-10-06, 18:27:37
Review des iPad mini 4 von iXBT (russische Sprache, schwere Sprache):http://www.ixbt.com/td/ipad-mini-4.shtml

Die GFX-Ergebnisse deuten etwas einen höheren GPU-Takt an.

In welchen Universum soll denn das iPhone 6 Plus ganze 31,2 fps in Manhattan offscreen genau erreichen? Ich weiss nicht was die Kerle gemessen haben genau, aber ein iPhone 6 Plus erreicht in diesem test 21.7 fps: https://gfxbench.com/device.jsp?benchmark=gfx31&os=iOS&api=metal&cpu-arch=ARM&hwtype=GPU&hwname=Apple%20A8%20GPU&did=22419489&D=Apple%20iPhone%206%20Plus

Es gibt zwar noch keine mini4 Resultate in der Datenbank, aber zumindest das iPod Touch6 mit A8 taktet die GPU auf den gleichen 533MHz peak wie die iPhone 6 Plus GPU: https://gfxbench.com/result.jsp?benchmark=gfx31&test=545&order=score&text-filter=Apple%20A8%20GPU&base=device&ff-check-desktop=0

deekey777
2015-10-06, 19:25:25
Ist wohl ein Vertipper, darauf achte ich gar nicht, da ist mir die Datenbank wichtiger.

Ich bin schon gespannt, was Apple TV (2015) leistet. Wenn der A8 dort auch mit 1,5 GHz läuft (und die GPU ähnlich "niedrig"), fände ich das schwach.

Ailuros
2015-10-06, 20:15:49
Ich bezweifle dass es auf Apple TV besser aussehen wird. Apple wird nur dafuer teure SoCs benutzen wenn es ein groesserer Verkaufserfolg wird und sie auch dementsprechend hohe Margen dafuer kassieren koennen.

Das erste iPad hatte einen SGX535@250MHz als GPU mit ganzen 2 GFLOPs :P

Sunrise
2015-10-07, 14:00:08
Wenn meine spekulative Mathe bezueglich Transistoren nicht total nutzlos ist dann kann es sein dass die A9 GPU insgesamt als block irgendwo 3x Mal so gross ist wie der A8 GPU block. In dem Fall schluckt der Prozess den Unterschied natuerlich nicht so leicht. Vorsicht: ich sagte fuer alles ausserhalb 3D wo man unter normalen Umstaenden nicht mehr als 2 cluster aktiv haben sollte.

Bloede Frage: gab/gibt es diesen parallax Effekt fuers UI auch auf vorigen iPhones und wenn ja wie reagieren diese darauf?
Es gibt scheinbar schon einen ersten Test bzgl. der A9-Varianten von einer chinesischen Seite. Dort liefert die TSMC-Version satte 20% mehr Akku im Vergleich zu Samsung.

Ich habe eben mal auf meinem 6s nachgeschaut:

Die App aus dem App Store "Lirum Device Info Lite" installiert und es steht auf der Home-Seite direkt N71AP als Codename für meinen A9.

Im Netz (http://www.engadget.com/2015/10/06/does-your-iphone-have-a-good-or-bad-a9-cpu/) gibt es folgende Information:

N66AP (6s plus) or N71AP (6s) - Samsung chip
N66MAP (6s plus) or N71MAP (6s) - TSMC chip

Da brauche ich mich jetzt auch nichtmehr wundern, warum meine Akku-Leistung gefühlt schlechter ist, wenn es wirklich stimmt, dass der TSMC A9 unerwartet deutlich besser abschneidet.

Finde ich ehrlich gesagt ein wenig krass, wenn sich das jetzt bestätigt. Lustigerweise scheinen die 6s Plus größtenteils mit TSMC ausgeliefert zu werden, während Apple beim kleineren Akku mehr Samsung verbaut. Andersrum hätte es anhand dieser Resultate mehr Sinn ergeben. Jetzt fallen aber die Laufzeiten ziemlich heftig unterschiedlich aus, wo das 6s Plus sowieso schon den größeren Akku hat.

Mal auf mehr Daten von offiziellen Seiten warten (Chipworks), aber toll finde ich das jetzt nicht.

basti333
2015-10-07, 14:15:31
Es gibt scheinbar schon einen ersten Test bzgl. der A9-Varianten von einer chinesischen Seite. Dort liefert die TSMC-Version satte 20% mehr Akku im Vergleich zu Samsung.[...]

Das wäre schon heftig, würde aber erklären warum es teils unterschiedliche Erfahrungsberichte zur Akkulaufzeit gibt (anderer seit gibt es die fast immer). Mein 6S (ohne Plus) hat übrigens N71mAP, also den vermeintlichen TSMC. Akkulaufzeit, rein subjektiv, war bisher OK. Also weder positiv noch negativ aufgefallen. Komme gut über den Tag.

Ailuros
2015-10-07, 19:37:10
Es gibt scheinbar schon einen ersten Test bzgl. der A9-Varianten von einer chinesischen Seite. Dort liefert die TSMC-Version satte 20% mehr Akku im Vergleich zu Samsung.

Ich habe eben mal auf meinem 6s nachgeschaut:

Die App aus dem App Store "Lirum Device Info Lite" installiert und es steht auf der Home-Seite direkt N71AP als Codename für meinen A9.

Im Netz (http://www.engadget.com/2015/10/06/does-your-iphone-have-a-good-or-bad-a9-cpu/) gibt es folgende Information:

N66AP (6s plus) or N71AP (6s) - Samsung chip
N66MAP (6s plus) or N71MAP (6s) - TSMC chip

Da brauche ich mich jetzt auch nichtmehr wundern, warum meine Akku-Leistung gefühlt schlechter ist, wenn es wirklich stimmt, dass der TSMC A9 unerwartet deutlich besser abschneidet.

Finde ich ehrlich gesagt ein wenig krass, wenn sich das jetzt bestätigt. Lustigerweise scheinen die 6s Plus größtenteils mit TSMC ausgeliefert zu werden, während Apple beim kleineren Akku mehr Samsung verbaut. Andersrum hätte es anhand dieser Resultate mehr Sinn ergeben. Jetzt fallen aber die Laufzeiten ziemlich heftig unterschiedlich aus, wo das 6s Plus sowieso schon den größeren Akku hat.

Mal auf mehr Daten von offiziellen Seiten warten (Chipworks), aber toll finde ich das jetzt nicht.

Klingt mir noch etwas zu gewagt ergo behalte ich erstmal sicherheitshalber meine Vorbehalte. Falls es aber stimmen sollte, will ich gerne nochmal hoeren wie "toll" Samsung's Prozess wirklich ist im Vergleich zu TSMC's und wieso viele insiders sich doch nicht so begeistert zeigen ueber 14FF im Hintergrund.

urpils
2015-10-07, 19:53:10
ich hab wohl den TSMC-Chip.. wie lang werkelt denn anandtech noch rum?? ;)

Sunrise
2015-10-07, 21:06:37
ich hab wohl den TSMC-Chip.. wie lang werkelt denn anandtech noch rum?? ;)
Was unsere unterschiedlichen Akku-Laufzeiten evtl. auch erklärt. Mal gespannt, welche Reviewseiten das noch aufgreifen. Oft wartet anandtech auf Chipworks, sodass sie hier noch weiter ins Detail gehen können.

Inzwischen mehren sich auch die Rückmeldungen zu dem Thema. Ein Reddit-Benutzer hatte beide zum Testen und satte 2 Std. mehr Laufzeit beim Geekbench Batterietest, den Test hatte er öfter wiederholt bei identischer Basis, hier gibts eine gute Zusammenfassung:

http://www.macrumors.com/2015/10/07/tsmc-samsung-a9-battery-tests/

Sorry, Apple, aber 2 Std. sind einfach zuviel bei Last. Da werden wieder Gewinne über die Benutzerzufriedenheit gestellt, wahrscheinlich war Samsung einfach nur früher dran, während TSMC jetzt den Großteil der SoCs liefert.

basti333
2015-10-07, 21:37:42
Sorry, Apple, aber 2 Std. sind einfach zuviel bei Last. Da werden wieder Gewinne über die Benutzerzufriedenheit gestellt, wahrscheinlich war Samsung einfach nur früher dran, während TSMC jetzt den Großteil der SoCs liefert.

Natürlich sehr ärgerlich als betroffener, aber ich denke der normale Alltag dürfte weniger krass ausfallen, denn da geht ja mehr -im vergleich, mehr strom für den baseband-chip drauf.

urpils
2015-10-07, 22:09:58
Was unsere unterschiedlichen Akku-Laufzeiten evtl. auch erklärt. Mal gespannt, welche Reviewseiten das noch aufgreifen. Oft wartet anandtech auf Chipworks, sodass sie hier noch weiter ins Detail gehen können.

Inzwischen mehren sich auch die Rückmeldungen zu dem Thema. Ein Reddit-Benutzer hatte beide zum Testen und satte 2 Std. mehr Laufzeit beim Geekbench Batterietest, den Test hatte er öfter wiederholt bei identischer Basis, hier gibts eine gute Zusammenfassung:

http://www.macrumors.com/2015/10/07/tsmc-samsung-a9-battery-tests/

Sorry, Apple, aber 2 Std. sind einfach zuviel bei Last. Da werden wieder Gewinne über die Benutzerzufriedenheit gestellt, wahrscheinlich war Samsung einfach nur früher dran, während TSMC jetzt den Großteil der SoCs liefert.

EIN Benutzer... Jetzt wart erstmal ab. Ich halte das für nicht repräsentativ und Käse

Sunrise
2015-10-08, 13:17:36
EIN Benutzer... Jetzt wart erstmal ab. Ich halte das für nicht repräsentativ und Käse
Die Ergebnisse von Endbenutzern in diversen Foren sind bisher aber recht eindeutig, der eine Benutzer den du meinst hat für mich nur die Relevanz, dass er früher Zugriff auf verschiedene Geräte hatte. Sowas allein ist sicher kein Beweis für irgendwas, das Netz ist aber mittlerweile voller Rückmeldungen.

Es werden jedenfalls mehr und mehr Rückmeldungen, da ist auf jeden Fall ein klares Bild erkennbar, und es ist teilweise noch heftiger als die 20%. Siehe zum Beispiel hier:
http://forums.macrumors.com/threads/iphone-6s-6s-plus-battery-test-results-only.1926607/

Ein Geekbench Score von 2286 Punkten mit gerademal 3:48:40 Std. Laufzeit bei 3% verbleibendem Akku beim Samsung A9 SoC steht einem Geekbench Score von 3553 Punkten und satten 5:55:20 Std. Laufzeit bei noch 7% verbleibendem Akku gegenüber, wohlgemerkt beim TSMC gefertigten A9. Laut der Benutzer sind das vergleichbare Bedingungen, die im Thread auch angegeben wurden.

Ich werde den Test selbst auch noch durchführen, aber persönlich bin ich schon zu 99% überzeugt, da brauche ich keine weiteren Hinweise. Ich kann es persönlich nachvollziehen, das mein 6s zumindest unter Last eher dem Samsung-Ergebnis entsprechen wird. Hatte gestern gerademal 6 Std. Laufzeit, das waren nur Safari und paar Apps für 5-10 Minuten gestartet und der Akku war leer, da war nichtmal richtig Last drauf, dagegen ist auch mein 5s mit A7 selbst auf iOS 9 deutlich länger unterwegs.

Ravenhearth
2015-10-08, 13:23:42
Wenn es tatsächlich so sein sollte; woran mag das liegen?

Sunrise
2015-10-08, 13:35:02
Wenn es tatsächlich so sein sollte; woran mag das liegen?
Da es scheinbar nun auch beim Geekbench auftritt, und sollte sich das definitiv bestätigen, dann betrifft das wohl den SoC generell.

Hier mal ein Auszug was der Geekbench Battery Test macht:
http://mobilesemi.blogspot.de/2015/05/battery-performance-based-on-geekbench.html

Battery performance based on Geekbench battery test results
A while ago, Primate Labs added a battery performance test to the Geekbench benchmark suite, which has been frequently used on this blog and elsewhere to analyze CPU processing peformance. The battery performance test gives the opportunity to better gauge the power efficiency of different CPU architectures, especially for the type of workload that the Geekbench battery test represents.

Battery test overview

The battery test is intended to be run starting from a fully loaded battery until the battery is completely run down. It appears to target a certain fixed level of CPU processing that is sustained throughout the test. In the test results, a duty cycle parameter is given for several time points, which more or less represents CPU utilization. Slower CPU cores (such as quad-core Cortex-A7-based SoCs) have a higher duty cycle percentage, while high-performance "big" cores such as Cortex-A57 and Krait-400 show a lower percentage.

In practice, most battery test results in the Geekbench database were terminated early in the benchmark process and do not give useful information. The test runs that completed a full run-down from 100% to close to 0% battery do give a usable indication of battery efficiency. The benchmark expresses battery performance as a number, similar to Geekbench CPU performance scores. This score is correlated with the duration and duty cycle using a certain formula, reflecting the amount of CPU work done and the battery running time. The score is heavily influenced by the actual capacity of the battery used in the device.

Da gibt es jetzt wahrscheinlich mehrere Dutzend Möglichkeiten, evtl. fährt man den Samsung SoC auch mit einer höheren Spannung an, was auch bei mir die schlechte Laufzeit im Standby erklären würde. Ich verliere bei allem auf OFF über Nacht 10% Akku. Wenn man das hochrechnet weiß ich nicht, wie Apple da auf "Up to 10 days" kommen will. Das geht nämlich bei mir garnicht, da ich nicht noch mehr Möglichkeiten habe das Ding weiter im Verbrauch zu reduzieren, bzw. sie liegen mit iOS nicht für mich offen.

Avalox
2015-10-08, 13:43:51
das ist doch mal ein ...gate.

Erst das 3,5 Mio. Apple Music gate und nun ein Samsung Sabotage Gate.
Ob Apple davon wusste und den Testern "optimierte" Geräte hat vorab zukommen lassen?

Nicht mal der Durchschnittsverbrauch stimmt. Da kann man froh sein, dass Apple noch keine Brennstoffzelle nutzt ....

Sunrise
2015-10-08, 19:02:58
Nunja, wird sowieso wieder runtergespielt und in 2 Wochen interessiert das niemanden mehr.

Apple, wenn sie sich überhaupt äußern (nur wenn die großen Seiten dem Ganzen auf den Zahn fühlen), wird die Dinger in den Stores stillschweigend tauschen und das wars dann. Zumindest liest man das teilweise schon in Foren. Das betrifft jetzt ein paar Millionen Geräte, von denen wohl immer mehr von TSMC kommen werden. Ist irgendwann also Schnee von gestern.

Nur wirkliche Power-User merken das, andere wie Otto, Hans und Margarete sind total zufrieden, und wer braucht schon Batterielaufzeit, hauptsache ein iPhone.

basti333
2015-10-08, 20:10:02
Am merkwürdigsten ist eigentlich das Apple es nicht gebacken gekriegt hat die Samsung teile in das 6S Plus zu bauen, dann wäre alles i.O. gewesen. Entweder war das logistisch nicht machbar (schwer vorstellbar) oder Apple war selbst nicht bewusst das es so gravierende unterschiede sind (irgendwie auch nicht vorstellbar).

Ailuros
2015-10-08, 20:28:38
Es wird dauern aber frueher oder spaeter wird schon heraussickern was genau los ist. Interessant ist es auf jeden Fall.

Ravenhearth
2015-10-08, 22:22:45
An Samsungs Prozess kann es doch eigentlich nicht liegen, oder? Der Exynos 7420 scheint sehr effizient zu sein.

Felixxz2
2015-10-08, 23:46:52
Also ich hab laut app nen samsung, aber super akkulaufzeiten. Um halb 8 bei 100%, jetzt 23:46 und 88%
Also nicht standby sonder gute benutzung, über Mobilfunk.

Blediator16
2015-10-08, 23:50:49
Gibt auch Videotests, wo beides gleichgut abschneidet.

basti333
2015-10-08, 23:53:10
O. k., jetzt hat sich sogar Apple zu Wort gemeldet, damit ist es offiziell ein neues Gate:freak:

http://www.macrumors.com/2015/10/08/apple-a9-chip-2-3-percent-difference/

Kartenlehrling
2015-10-09, 00:40:35
https://www.youtube.com/watch?t=9&v=0bAeJ5fJ1M0
iPhone 6s Chipgate?

Nightspider
2015-10-09, 02:52:16
Die hätten mal lieber den Idle-Verbrauch testen sollen.

Ailuros
2015-10-09, 08:35:49
An Samsungs Prozess kann es doch eigentlich nicht liegen, oder? Der Exynos 7420 scheint sehr effizient zu sein.

Es muss ja auch nicht mir nichts dir nichts am Prozess per se liegen. Ich erinnere dass Samsung ihren eigen entwickelten SoC auf ihrem eigen entwickelten Prozess hergestellt haben.

Im Gegensatz zu Apple die den gleichen chip fuer zwei verschiedene Prozesse gleichzeitig anpassen mussten. So oder so gibt es fuer Apple keinie einzige Entschuldigung falls es wirklich an den Samsung SoCs liegen sollte; schon gar nicht bei den Preisen die sie verlangen.

Avalox
2015-10-09, 08:44:43
Es muss ja auch nicht mir nichts dir nichts am Prozess per se liegen. Ich erinnere dass Samsung ihren eigen entwickelten SoC auf ihrem eigen entwickelten Prozess hergestellt haben.

Im Gegensatz zu Apple die den gleichen chip fuer zwei verschiedene Prozesse gleichzeitig anpassen mussten. So oder so gibt es fuer Apple keinie einzige Entschuldigung falls es wirklich an den Samsung SoCs liegen sollte; schon gar nicht bei den Preisen die sie verlangen.

Wenn Samsung mehr Apple SoCs baut, dann würde ich mal als erstes vermuten, dass TSMC einfach eine fortschrittlichere Revision als Design bekommen hat mit vielleicht schon einigen ausgemerzten Fehlern, schlicht weil sie später angefangen haben zu produzieren.

Vermutlich lösst es sich eh wieder mal in wohlgefallen auf.

Sunrise
2015-10-09, 08:45:18
Gibt auch Videotests, wo beides gleichgut abschneidet.
Videotests messen nur die von PowerVR entwickelte fixed-function Decoder-HW, die braucht egal auf welchem SoC weniger Saft als das Display und somit sind Vergleiche mit Videos natürlich zu 99,9% identisch.

Apple versucht jetzt "den Schaden" zu begrenzen, ganz typisches Verhalten.

Da ich das schon gemerkt habe bei meinem Nutzungsverhalten des 6s, bevor das überhaupt bekannt wurde, sind das auch echte real-world Tests.

Mit Spielen und Multimedia werben und jetzt angeben, dass man das iPhone nicht dauerhaft belasten darf, wird ja immer besser.

Eigentlich reicht sowas wie 3DMark zu loopen, dann hat man reproduzierbare real-world 3D-Gaming Tests.

Ailuros
2015-10-09, 08:49:20
Ach man koennte mit zich komischen Thesen ankommen; z.B. IMG hat Rogue in enger Zussamenarbeit mit TSMC fuer 16FF u.a. optimiert und daher....nun strick Dir die Verschwoerungsthese selber weiter.

----------------------------------------------------------------------

Sunrise,

Bei weitem nicht die idealste Loesung aber hast Du oder jemand anders schon ein factory reset gewagt?

Sunrise
2015-10-09, 08:54:36
Sunrise,

Bei weitem nicht die idealste Loesung aber hast Du oder jemand anders schon ein factory reset gewagt?
Ja, Reset, Restore und selbst bei leerem iPhone saugt es den Akku leer. Hab heute Nacht alles auf Off gehabt, sämtliche Features wie 3D Touch, Reduce Motion, usw. dann WiFi aus und Airplane Mode an und der Geekbench gibt mir deutlich unter 4 Std. während die TSMC-Dinger sogar fast 6 Std. erreichen.

Ganz krass scheint es beim Samsung 6s Plus zu sein, mit knapp über 6 Std. während ein normales 6s mit TSMC da fast rankommt. Das 6s Plus mit TSMC hat dann wieder satte 8 Std.

Ailuros
2015-10-09, 09:00:36
Ja, Reset, Restore und selbst bei leerem iPhone saugt es den Akku leer. Hab heute Nacht alles auf Off gehabt, sämtliche Features wie 3D Touch, Reduce Motion, usw. dann WiFi aus und Airplane Mode an und der Geekbench gibt mir deutlich unter 4 Std. während die TSMC-Dinger sogar fast 6 Std. erreichen.

Ganz krass scheint es beim Samsung 6s Plus zu sein, mit knapp über 6 Std. während ein normales 6s mit TSMC da fast rankommt. Das 6s Plus mit TSMC hat dann wieder satte 8 Std.

Uh oh.....:rolleyes:

Nichts Neues zum Thema: http://www.anandtech.com/show/9708/analyzing-apple-statement-for-tsmc-and-samsung-a9

deekey777
2015-10-09, 10:40:12
Wenn es tatsächlich so sein sollte; woran mag das liegen?
Samsung kann nichts? Samsung fehlen Millionen für die Forschung, weil diese in Prozesse gegen Apple gesteckt werden?

Dass Apple sich zu Wort meldet, zeigt, dass den Ernst der Lage, so dass Apple gleich Schadenersatzprozesse vorbeugen will.

Microsoft hat beim Lumia-Event nicht umsonst auf die verbesserte Kühlung der 950er hingwiesen. Klar, das XL hat auch einen 810er, einen Hitzkopf in der Vorstellung der gesamten Menschheit. Wenn die Samsung-A9 heißer werden als die TSMC-Ableger, könnte man bei Apple fragen, wie das passieren konnte.

Ailuros
2015-10-09, 11:22:02
Angenommen ein hw Problem laesst sich etablieren, was soll Apple's oeffentliche Aussage gegen eine moegliche Klage genau ausrichten?

Apple's Reaktion zeigt mir lediglich dass tatsaechlich daran etwas liegen koennte.

Kartenlehrling
2015-10-09, 11:46:23
Wenn die Samsung-A9 heißer werden als die TSMC-Ableger,
könnte man bei Apple fragen, wie das passieren konnte.

Die Samsungs A9 scheinen ja kleiner aber auch schneller zu sein.
Und somit ist der Kreis geschlossen der SamsungA9 wird wärmer und hat Leckstrom und das hat wieder zufolge das für die gleiche Leistung mehr Strom gebraucht wird oder ungenutzt fliest.

CB hatte letzt eine schönen Test gemacht wie sehr sich die Temperatur aufs Stromverhalten und Leistung auswirkt am Beispiel vom AMD Fury.

deekey777
2015-10-09, 11:51:15
Angenommen ein hw Problem laesst sich etablieren, was soll Apple's oeffentliche Aussage gegen eine moegliche Klage genau ausrichten?

Apple's Reaktion zeigt mir lediglich dass tatsaechlich daran etwas liegen koennte.

Wirbt Apple mit den Benchmarkergebnissen, was die Laufzeit angeht? Nein, Apple führt eigene Messungen durch, die der Realität entsprechen, wenn man Apple glauben will. Eine Klage, die auf die Benchmarkergebnisse gestützt ist, wird kaum Chancen haben. Darum das Statement: "Kommt uns ja nicht mit diesen Ergebnissen!"

Es sei denn, man weist nach, dass Apples Messmethode entweder falsch ist oder die Ergebnisse verfälscht sind, so dass die Laufzeitangaben auf der Homepage unrichtig sind und den potentiellen Käufer täuschen und die Konkurrenz benachteiligen. Dann hat Apple ein Problem.

Selbst wenn es ein Hardware-Problem ist: So lange die Apples eigenen Laufzeitangaben nicht widerlegt werden können, gibt es kein Chipgate. Dass Apple reagiert, zeigt gerade, dass Apple aus Vergangenheit gelernt hat.

Sunrise
2015-10-09, 11:59:55
@Kartenlehrling:
Die Performance soll quasi fast identisch sein, das halte ich anders auch nicht für denkbar, weil man das sofort in allen erdenklichen Benchmarks merken würde. Eine gewisse Varianz hast du selbst wenn du bei identischem SoC 10x den Geekbench laufen lässt, teilweise sind da 150 Punkte Unterschied, selbst getestet.

Was man jedoch nicht offensichtlich merkt und auch schwierig nachvollziehen kann sind unterschiedliche Batterielaufzeiten bei unterschiedlicher HW, da einstellungsabhängig und zusätzlich durchs SoC-Binning und dann hat Apple auch noch dual-sourced. Da weiß Apple genau, was für ein Risiko bzw. auf Gewinn optimierte Strategie sie da gewählt haben, weil sie immer mehr SoCs zwingend schnell brauchen. Hatten wir hier im Thread auch schon öfter.

Dass Apple da nicht sagt "Ja, wir wissen das", is doch klar, aber das Statement spricht schon Bände. Vor allem so extrem schnell noch vor den weiteren weltweiten Veröffentlichungen der neuen iPhones.

Ailuros
2015-10-09, 12:53:50
Wirbt Apple mit den Benchmarkergebnissen, was die Laufzeit angeht? Nein, Apple führt eigene Messungen durch, die der Realität entsprechen, wenn man Apple glauben will. Eine Klage, die auf die Benchmarkergebnisse gestützt ist, wird kaum Chancen haben. Darum das Statement: "Kommt uns ja nicht mit diesen Ergebnissen!"

Es sei denn, man weist nach, dass Apples Messmethode entweder falsch ist oder die Ergebnisse verfälscht sind, so dass die Laufzeitangaben auf der Homepage unrichtig sind und den potentiellen Käufer täuschen und die Konkurrenz benachteiligen. Dann hat Apple ein Problem.

Selbst wenn es ein Hardware-Problem ist: So lange die Apples eigenen Laufzeitangaben nicht widerlegt werden können, gibt es kein Chipgate. Dass Apple reagiert, zeigt gerade, dass Apple aus Vergangenheit gelernt hat.

Die wuerde im relativen Sinn noch so stimmen wenn ALLE Geraete/SoCs das genau gleiche Verhalten vorzeigen. Im Fall wo es aber bewiesen werden kann dass es zwischen 2 SoCs einen sehenswerteren Verbrauchs-Unterschied gibt (und dieses in stinknormalen Alltags-Faellen und nicht in irgend einem absurdem Eckfall) als Apple selber eingestehen will, ist es sehr wohl ein standhafter Fall gegen sie fuer eine potentielle Klage. Was dann bei der Klage herauskommen kann ist dann ein anderes Kapitel, aber das sinnlose Geblubber eines jeglichen Herstellers kann auf keinen Fall eine Klage verhindern.

Kartenlehrling
2015-10-09, 13:22:35
Was ist denn aus den verschieden Linsen beim Samsung geworden?
Wenn man hochwertiger Produkte zu Test schickt und dann in der Massenfertigung aber abspeckt bzw. die Qualität nicht halten kann ist das eine verdammt sauerrei.
Was sich die Hersteller in der letzten zeit erlauben geht auf keine Kuhhaut.

dildo4u
2015-10-09, 14:07:15
Samsung vs TSMC A9 im Test.


https://youtu.be/pXmIQJMDv68

Ailuros
2015-10-09, 19:03:18
7% Unterschied sind nicht wenig aber auch kein Beinbruch. Klingt mir aber nicht nach dem was Sunrise zu beschreiben scheint. Entweder es wird nicht richtig getestet oder Sunrise hat ein wirklich problematisches Exemplar erwischt *schulterzuck* :confused:

basti333
2015-10-09, 19:15:34
7% Unterschied sind nicht wenig aber auch kein Beinbruch. Klingt mir aber nicht nach dem was Sunrise zu beschreiben scheint. Entweder es wird nicht richtig getestet oder Sunrise hat ein wirklich problematisches Exemplar erwischt *schulterzuck* :confused:

Andererseits, wenn man das iPhone dann wirklich mal intensiver nutzt (Zugfahrt, Flugzeug, auto...) dann wird es deutlich schmerzlicher. Zumindest wenn keine Lademöglichkeit vorhanden ist.

Ailuros
2015-10-09, 19:59:52
Andererseits, wenn man das iPhone dann wirklich mal intensiver nutzt (Zugfahrt, Flugzeug, auto...) dann wird es deutlich schmerzlicher. Zumindest wenn keine Lademöglichkeit vorhanden ist.

Ist bei high end smartphones nichts Neues, bei iPhones eben intensiver auch dank der zu kleinen Batterien. Ich als Android-User will heutzutage von <3000mAh nichts mehr hoehren und sitze erst aufrecht bei =/>4000mAh. Mich nervt eher das tablet dass ich ca. alle 2 Tage laden muss.

Sunrise
2015-10-10, 00:29:07
7% Unterschied sind nicht wenig aber auch kein Beinbruch. Klingt mir aber nicht nach dem was Sunrise zu beschreiben scheint. Entweder es wird nicht richtig getestet oder Sunrise hat ein wirklich problematisches Exemplar erwischt *schulterzuck* :confused:
Der Test ist leider denkbar schlecht aus Benutzersicht, er testet fast ausschießlich die am effizientesten Teile des SoCs:

1) Timelapse (testet Camera DSP, den VXE + Display + Speicher)
2) 4K Video (testet Camera DSP, den VXE + Display + Speicher)
3) iMovie Export (da er 1:1 exportiert, VXE + Speicher)
4) Geekbench Performance (CPU fixed-function)

Und trotz dessen, dass er überhaupt kein Safari nutzt, keine anderen Anwendungen oder Google Maps und Co. oder irgendwelche Spiele, für das man ein Handy in der Masse normalerweise nutzt, hat er praktisch 7% Unterschied. Wahrscheinlich leakt Samsungs 14nm LPE hier deutlich mehr, daher braucht er immer mehr Akku. Generell muss man die CPU und die GPU aber etwas arbeiten lassen, was er nicht macht. Da schläft 95% des SoCs um es mal etwas übertrieben auszudrücken.

Ist halt auch extrem zeitaufwändig, fällt aber sofort auf, wenn man es mal richtig nutzt. Allein das in iOS 9 vieles per Metal auf der GPU läuft, wird auch alles außer Acht gelassen bei dem Test.

EDIT:
Geekbench 3 zeigt mit neuem Update nun auch die SoC-Bezeichnung an. Die Zeichen der Zeit erkannt.

deekey777
2015-10-13, 23:24:51
Heise sagt, Apple hat Recht: http://m.heise.de/mac-and-i/artikel/iPhone-6s-CPU-Fragen-und-Antworten-2843614.html

Ars Technica sagt das auch: http://arstechnica.com/apple/2015/10/samsung-vs-tsmc-comparing-the-battery-life-of-two-apple-a9s/

AffenJack
2015-10-13, 23:28:15
Wenn man so Geekbench mit Gfxbench vergleicht sieht man das Problem des Samsungprozesses. Solange niedrige Taktraten genutzt werden ist alles in Ordnung, aber bei hohen Taktraten hat der Prozess ein Problem. Wäre interessant die Spannungen im Vergleich zu sehen. Vielleicht braucht Samsung mehr für 1,9 Ghz.

deekey777
2015-10-14, 08:19:02
Das ist heftig: http://mobile.reuters.com/article/idUSKCN0S72T320151013

Ailuros
2015-10-14, 09:30:09
Wenn man so Geekbench mit Gfxbench vergleicht sieht man das Problem des Samsungprozesses. Solange niedrige Taktraten genutzt werden ist alles in Ordnung, aber bei hohen Taktraten hat der Prozess ein Problem. Wäre interessant die Spannungen im Vergleich zu sehen. Vielleicht braucht Samsung mehr für 1,9 Ghz.

Ich bin immer noch nicht sicher ob es wirklich am Prozess haengt oder ob Apple's engineering einfach geschlampt hat beim layout des A9 fuer 14FF. Auf welche Gfxbench Resultate beziehst Du Dich eigentlich? Falls Du diejenigen bei arstechnica meinen solltest, ist der Unterschied von 4% nicht der Rede wert, die CPU wird seher maessig in diesem eingesetzt und die GPU taktet ja auch nicht besonders hoch im A9. Gegen die burst Frequenz von 772MHz die der ziemlich grosse MP8 GPU block im 7420 erreicht, ist die GT7600 Frequenz eher langweilig.

Das ist heftig: http://mobile.reuters.com/article/idUSKCN0S72T320151013

Ich sterbe vor Langeweile bei jeglicher Patentklage ueberhaupt in den Staaten.

AffenJack
2015-10-14, 09:49:37
Ich bin immer noch nicht sicher ob es wirklich am Prozess haengt oder ob Apple's engineering einfach geschlampt hat beim layout des A9 fuer 14FF. Auf welche Gfxbench Resultate beziehst Du Dich eigentlich? Falls Du diejenigen bei arstechnica meinen solltest, ist der Unterschied von 4% nicht der Rede wert, die CPU wird seher maessig in diesem eingesetzt und die GPU taktet ja auch nicht besonders hoch im A9. Gegen die burst Frequenz von 772MHz die der ziemlich grosse MP8 GPU block im 7420 erreicht, ist die GT7600 Frequenz eher langweilig.


Arstechnica, weil GFXBench sogut wie gleiche Laufzeiten hat. Der GPU Block im 7420 ist auch egal, das sind keine hohen Taktraten für den Prozess. Aber bei über 1,5Ghz oder so könnte er möglicherweise ineffizienter werden.

Sunrise
2015-10-14, 10:02:55
Wenn man so Geekbench mit Gfxbench vergleicht sieht man das Problem des Samsungprozesses. Solange niedrige Taktraten genutzt werden ist alles in Ordnung, aber bei hohen Taktraten hat der Prozess ein Problem. Wäre interessant die Spannungen im Vergleich zu sehen. Vielleicht braucht Samsung mehr für 1,9 Ghz.
Geekbench scheint hier jedenfalls irgendwas zu zeigen, dem sich lustigerweise bisher kaum eine Seite annimmt. Wahrscheinlich scheut man hier böse Rückmeldungen von Apple, da erwartet man wohl einfach zuviel von den heutigen Internet-Medien.

Laut Ars Technica wissen wir, dass scheinbar kaum eine (keine?) App die Twister-Kerne voll ausfährt, sondern selbst Spiele scheinbar nur bis an die 70% peaken, d.h. der SoC muss nicht am Maximum betrieben werden. Leider finde ich keine Seite, die den SoC mal mit gewöhnlichen Apps voll ausfährt, eventuell gibt es auch garkeine, was dieses "Problem" in der Tat entschärfen würde.

Die Resultate auf Geekbench sind jedenfalls eindeutig, aber auch nicht anwendbar, da sie einen Fall zeigen, der anscheinend so gut wie nie auftreten wird.

So gesehen hätten beide Seiten "Recht", es gibt gravierende Differenzen bis zu 50%, jedoch sind diese bei der Alltagsnutzung selbst am Limit selten bis garnicht relevant. Ähnlich einem Power-Virus, den man auf eine CPU loslässt.

https://browser.primatelabs.com/battery3/search?dir=desc&page=1&q=n71ap&sort=score (Samsung 6s)
https://browser.primatelabs.com/battery3/search?dir=desc&q=n71map&sort=score (TSMC 6s)

https://browser.primatelabs.com/battery3/search?dir=desc&q=n66ap&sort=score (Samsung 6s Plus)
https://browser.primatelabs.com/battery3/search?dir=desc&q=n66map&sort=score (TSMC 6s Plus)

Die wirklich einzige Hoffnung sind jetzt Anandtech (aber leider aufgrund der Nähe zu Apple evtl. befangen) und letztendlich Chipworks, die uns das anhand einer genauen Analyse erklären können.

PS: Bei meinem persönlichen 6s habe ich wohl zusätzlich Pech gehabt, denn trotz mehrfacher Kalibrierung des Akkus über mehrere Tage, geht mein 6s auch öfter bei 7% Restakku einfach aus, wenn ich es dann wieder verbinde zeigt es mir plötzlich 10% an, das hatte ich bei einem iPhone so noch nie und ist höchst irritierend, wenn man unterwegs ist und sich auf das Ding verlässt. Aber das ist eine andere Geschichte...

Ailuros
2015-10-14, 10:08:02
Arstechnica, weil GFXBench sogut wie gleiche Laufzeiten hat. Der GPU Block im 7420 ist auch egal, das sind keine hohen Taktraten für den Prozess. Aber bei über 1,5Ghz oder so könnte er möglicherweise ineffizienter werden.

Waere interessant zu wissen bei wieviel mV die Swift cores angelegt sind bei ihrer peak Frequenz. Bei den A57 im 7420 sind es auf jeden Fall bei 1.9GHz = 975,00mV.

OT aber ich hab hier erst jetzt bemerkt wie beschissen auch der 20nm Prozess bei Samsung war:

http://www.anandtech.com/show/9330/exynos-7420-deep-dive

Pro cluster fuer die GPUs:

28LPE / 20LPE / 14LPE
5mm2 / 4.2mm2 / 2.25mm2

deekey777
2015-10-14, 10:40:53
...


Ich sterbe vor Langeweile bei jeglicher Patentklage ueberhaupt in den Staaten.
Bringt doch etwas Würze in die Langeweile.

BigKid
2015-10-14, 13:03:36
Heise sagt, Apple hat Recht: http://m.heise.de/mac-and-i/artikel/iPhone-6s-CPU-Fragen-und-Antworten-2843614.html

Ars Technica sagt das auch: http://arstechnica.com/apple/2015/10/samsung-vs-tsmc-comparing-the-battery-life-of-two-apple-a9s/
Ich kannn mich deren Argumentation nicht anschliessen (und CT zitiert hier nur ein anderes Magazin soweit ich das erkennen konnte)...

Einfach zu sagen "ja - es gibt deutliche Unterschiede unter Last - aber das ist ja nicht das typische Szenario für den Einsatz eines Smartphones" ist die billigste Auserede ever... Sobald ich das Ding also z.B. zum Daddeln einsetze kann ich beim Smasung Chip davon ausgehen, dass der Akku ne ganze Stunde früher Schlapp macht ?

Was passiert wenn das Ding in ner Hülle steckt ? Da hat das iPhone eh schon ein Problem seine Wärme loszuwerden - schaukelt sich das dann nicht hoch ? Wird der Unterschied nicht noch größer ?

Ich hab leider (so wie es aktuell aussieht) den Samsung Chip erwischt und überlege ob ich Maule... Über AppleCare+ hatte ich bisher wenig Probleme ein Gerät getauscht zu kriegen (so z.B. als das Display mal einen leichten Grünstich hatte)...

Unicous
2015-10-14, 13:11:49
Erstens ist das heise.de, zweitens zitieren sie aus mac&i welches wiederum ein Magazin des heise Verlags ist, genauso wie auch ct'.:wink:

basti333
2015-10-14, 16:44:19
Ein -zugegeben etwas oberflächlicher- Artikel (http://stevecheney.com/on-apples-incredible-platform-advantage/) über Apples Ambitionen bzgl. ihrer Prozessoren-Eigenentwicklungen. Aber ein Absatz ist doch ganz interessant

It’s also known in inner circles that Apple has embarked on design of radio interface (RF) chips that traditionally were off limits to all but the most advanced chip makers like Qualcomm. These chips rival CPUs in complexity. Apple is now designing these to spec and will be putting its own radios into future mobile devices. This has physical layer impacts on bandwidth, connectivity, latency and user experience—all critical for autonomous vehicles.

Ist jetzt nichts total neues, aber trotzdem Konkreter als das, was ich bisher gelesen hab.

Ailuros
2015-10-14, 19:09:29
Ein -zugegeben etwas Oberflächlicher- Artikel (http://stevecheney.com/on-apples-incredible-platform-advantage/) über Apples Ambitionen bzgl. ihrer Prozessoren-Eigenentwicklungen. Aber ein Absatz Absatz ist doch ganz interessant



Ist jetzt nichts total neues, aber trotzdem Konkreter als das, was ich bisher gelesen hab.

Koennte, muss aber nicht eine Eigenentwicklung sein: http://imgtec.com/news/press-release/imagination-rolls-out-complete-ensigma-connectivity-ip-solutions-from-baseband-to-rf/ Qualcomm benutzt Ensigma IP im Atheros.

robbitop
2015-10-15, 08:07:36
Bei Apples Stückzahl ist Eigentkreation von fast jeder Semi-Komponente denkbar. Bei den Modems war es IMO nur eine Frage der Zeit bis das passiert. Apple will sich sicher nicht nur die Marge einstecken sondern das Ding auch direkt in den SoC packen. Spart Platz und Leistungsaufnahme.

Ailuros
2015-10-15, 08:24:14
Entweder alles oder gar nichts oder? :P

Wenn alles so leicht und billig waere wuerde es auch andere wie QCOM selber entwickeln und Apple haette ihre eigene foundry unter vielen anderen. Allein der Kopfschmerz und Zeit die man fuer die Validierung solcher Dinger braucht ist die eher laecherliche royalty pro Einheit nicht der Rede wert.

Soll aber nicht heissen dass Apple nicht Apple ist.

robbitop
2015-10-15, 14:48:47
Eben. Nur weil etwas nicht leicht ist. heisst es nicht dass man es nicht macht. Apple wird Kosten/Nutzen abwiegen und dementsprechend handeln. Manchmal sind bestimmte Sondermerkmale Apple sehr viel Wert. Apple ist Apple. ;-)
Wenn sie es machen, überrascht es mich jedenfalls nicht. Wenn nicht, aber auch nicht. :D

LadyWhirlwind
2015-10-16, 22:47:55
Apple & Intel scheint offenbar wieder aktueller zu werden.

http://venturebeat.com/2015/10/16/intel-has-1000-people-working-on-chips-for-the-iphone/

Ich könnte mir gut vorstellen, das Intel die SoCs für Appel produziert, wenn sie deren LTE-Modems verwenden.

smalM
2015-10-18, 13:15:06
Spekulation auf SemiWiki.com (https://www.semiwiki.com/forum/content/5108-who-will-get-next-bite-apple-chip-business.html) bzgl. des zweiten 16FFC-Prozesses von TSMC, der bei der Bilanzpressekonferenz bekannt geworden ist:

Q: Regarding your 16-nanometer FFC, would that enter mass production in the second half next year or 2017?
C.C. Wei: Our initial schedule actually said in 2017, but we might pull in because right now we have two versions of 16 FFC. One is shrink and the other one is a non-shrink.

Ailuros
2015-10-23, 11:31:57
https://forum.beyond3d.com/posts/1876279/

I've just had my first good look at both chips. There are significant layout, utilisation and library-level differences between the two variants, and no two layout blocks are identical. So there's a lot more at play than pure transistor manufacturing between the two. I know that's kind of obvious from the low-res imaging that Chipworks put out there, where you could see some differences, but it's worth pointing out they're not minor.

Ich bleibe bei meinem Verdacht dass Apple engineering vielleicht beim 14FF layout einfach geschlampt hat....

BigKid
2015-10-26, 14:01:05
Ich habe mal ein paar Fragen an die Profis:
1) In einem aktuellen "high end" 3D Spiel... Wieviel % des Stromverbrauchs macht da die CPU und wieviel die GPU aus - Ballpark ?
2) Ist die Last die 3DMark / GLBench auf den Akku gibt vergleichbar mit dem echten spielen ?

Und zuletzt aus dem iPhone Thread ein interessanter Link:
http://forums.macrumors.com/threads/105-units-of-6s-6s-test-confirm-samsung-6s-uses-18-more-power-in-high-demand-real-world-usage.1931880

Hier haben sie 105 iPhones verglichen und das Ergebnis ist:
Unter Last (3D Spiele, HD Videos Editieren, ... ) hält ein 6s PLUS von TMSC 18% länger durch !
Auf dem 6s NON-Plus ist der unterschied nur 1% ...

deekey777
2015-10-28, 19:54:21
Anandtech hat (endlich) das iPad mini 4 getestet: http://www.anandtech.com/show/9724/the-apple-ipad-mini-4-review

Der A8 taktet höher, auch dessen GPU.

Ailuros
2015-10-28, 20:59:22
Anandtech hat (endlich) das iPad mini 4 getestet: http://www.anandtech.com/show/9724/the-apple-ipad-mini-4-review

Der A8 taktet höher, auch dessen GPU.

Ich sehe keinen hoehere Takt auch bei der GPU; die GPU im iPhone6 die Du im obrigen test siehst taktet auf 467MHz peak und die GPU im iPhone6 Plus im A8 taktet bei 533MHz und hat fast identische Leistungswerte mit dem 4 mini A8: https://gfxbench.com/device.jsp?benchmark=gfx31&os=iOS&api=gl&D=Apple+iPhone+6+Plus&testgroup=overall

Hast Du irgend einen Koller mit den A8 Frequenzen oder was? http://www.forum-3dcenter.org/vbulletin/showthread.php?t=513454&page=129

Im allerbesten Fall hat der SoC im mini 4 etwas mehr Platz als in einem smartphone und koennte eventuell weniger throtteln.

robbitop
2015-10-30, 09:06:57
Ich bin schon auf den A10 gespannt. Wenn man die bisherigen Gerüchte mal anders interpretiert, wäre es denkbar, dass Apple den CPU Cores SMT spendiert.
Die Wirbelsturm CPU µ-Arch bietet ziemlich viel Execution Ressources, viele Ports und hat ein breites Front-End. Da bietet sich SMT an - eine hohe Skalierung durch SMT ist also möglich (analog zu den Power8 CPUs mit 4x SMT, bei denen SMT ja wirklich viel! bringt).

Intels Core µ-Arch spart ja durch cleveres Design viele Ports. Trotz hohen Ressources im Back End scheint das die Skalierung von SMT etwas zu dämpfen.

So könnte man mit relativ wenig Transistoren (aber hohem Validierungsaufwand) die parallele Leistungsfähigkeit signifikant steigern - ohne "drölftausend" Kerne zu verbauen und behält dennoch eine hohe ST Leistung.

Ich sehe da gewisse Parallelen zu ZEN. ZEN ähnelt vom µ-Arch Schaubild Cyclone ziemlich (Chefarchitekt war in beiden Fällen Jim Keller). Für ZEN ist, wie wir wissen SMT vorgesehen. Beide haben viele Ports und viel Ressourcen im Backend. Cyclone hat etwas weniger Backend dafür aber ein breiteres Frontend.

Sunrise
2015-10-30, 11:36:24
Apple rennt hier jedenfalls mehr und mehr in Limits, durch ihre aggressive SoC-Strategie und natürlich auch was die Akkulaufzeit angeht, da sie mehr und mehr (HW)-Funktionen hinzufügen und das Gehäuse nicht signifikant dicker machen wollen.

ZEN ähnelt vom µ-Arch Schaubild Cyclone ziemlich (Chefarchitekt war in beiden Fällen Jim Keller).
Ich will dir deinen Beitrag jetzt nicht zerpflücken, aber Chefarchitekt war er laut meiner Recherche eher beim A4 und/oder beim A5. Danach (A6, A7 usw.) finde ich leider nur Vermutungen. Natürlich sieht es schon so aus (von außen), dass Apple da vor allem auf Keller zurückgegriffen hat, gerade weil nach Cyclone ja dann nur noch Aufgüsse kamen (was ja auch ein Zeichen dafür ist, das man Jahre im Voraus geplant hatte). Es spricht vor allem auch für die starke Grundarchitektur, die Apple dort gewählt hat. "Einfach" hier und da mehr dazugebaut, vom Grundkonzept aber nicht groß abgewichen, besser geht es kaum.

Inwieweit er aber den späteren SoCs noch das Sagen hatte, erschließt sich mir aber generell nicht. Eventuell erfahren wir ja beim A10 bzw. der nächsten Hauptarchitektur mehr über dessen "Erbauer". So alle 3 Jahre sollte man aber schon mit etwas Neuem rechnen können. Das wäre dann zumindest mal wieder etwas Interessantes, denn die Konkurrenz schläft nicht.

robbitop
2015-10-30, 12:08:06
Innovationen/Leistung werden hauptsächlich über Shrinks "bezahlt" (Leistungsaufnahme). So wie bei Intel auch. Es geht nicht alles auf einmal. Mit dem 14LPP/16FF+ und einigen Prozessoptimierungen die in der Reifephase ja usus sind, sollte SMT für den A10 nicht undenkbar sein.

A8 und A9 haben eine relativ gute sustained Leistung. Gerade bei Spielen scheint die GPU viel weniger zu drosseln als bspw beim 7240. Ähnliches gilt auch für die CPU.

Apple hat allerdings wenig Platz beim Gehäuse, weshalb man bei den Taktraten bisher recht konservativ war. Die erhöhte Leakage beim A9 (14FF) könnte Prozessbedingt sein.

Sofern nicht durch Bugs im neuen iOS verhunzt (manche 6S/6S+ hatten da relativ schlechte Laufzeiten bei iOS <9.1) sind die realen Laufzeiten bezogen auf den kleinen Akku ziemlich gut.

Aber eines ist klar - es wird durch alle IHVs mehr Leistung verbaut als sustained möglich wäre. Ist halt auf kurze peaks ausgelegt. Passt aber glücklicherweise zum Workflow von ULPs.


Was Jim Keller und Cyclone angeht: er war bis 2012 da. Cyclone kam 2013. Vom fertigen Design bis zur Massenproduktion liegt mindestens 1 Jahr. Wenn nicht sogar etwas mehr durch die Evaluierungsarbeit. 2012 sollte Cyclone also fertig gewesen sein vom Design. Die Grundauslegung wohl noch eher. Designstart sollte also eher 2010/11 gewesen sein. Nach Pareto kosten die letzten 20 % am meisten Zeit. Das ist dann was für fleißige Bienchen. Jemand wie Keller muss also vor allem in der Auslegungsphase dabei sein.

In der designrelevanten Phase sollte Keller also dabei gewesen sein. Keller hat nicht ohne Grund das Image, CPU-Entwicklungsteams zu "befruchten" und dann den Arbeitgeber zu wechseln um dort das gleiche zu tun. Die Fleißarbeit ist ihm ggf. zu langweilig - das machen dann die fleißigen Bienchen. Ist diese Arbeit getan, sucht er sich wieder eine vergleichbar spannende Aufgabe. Jetzt angeblich bei Samsung. (2018/19 werden wir ggf. dann erste Produkte sehen)
Es würde doch merkwürdig sein, jemanden wie Jim in der Firma zu haben, ohne dass dieser bei der Auslegung des jeweilig aktuellen Designs (Cyclone) maßgeblich beteiligt zu sein. A4 und A5 waren ja noch Standard ARM IP Cores.

ZEN sieht, wenn man sich die Grundauslegung aussieht, Cyclone sehr ähnlich. Ein Zufall? Die konkrete Implementierung ist natürlich eine andere.

-----

Zum A10. Es braucht nicht immer ständig neue Grundarchitekturen. Wenn man sich eh schon sehr weit oben an der Kurve des sinkenden Grenzertrags befindet, sind Optimierungen/Evolution sicher ausreichend. Auch wenn die Implementierung sicher regelmäßig neue sind. Intel sitzt von der Grundauslegung seit Core 2 auf einer ähnlichen Grundauslegung und optimiert/verändert diese seitdem (schnellere Caches, integrierter Memcontroller, mehr ILP, optimierte Decoder, Loopstream Detector etc).

Es ist immer eine Frage der Definition, was wirklich neu ist. Bei Skylake ist sicher kein Transistor mehr mit Core 2 gemein. Vermutlich nicht mal zu Sandy Bridge, weil die konkrete Implementierung neu gemacht worden ist. Aber sie entstammen einer Grundauslegung - einer Familie.

Die Wirbelstürme scheinen auf den ersten Blick ein ähnlich gutes Fundament zu haben für die Grundauslegung. Analog zu Intels "Core" würde es mich nicht wundern, wenn diese immer weiter verändert würde. Schritt für Schritt.

Andererseits ist Apple Apple... :D

YfOrU
2015-11-02, 16:56:47
Anandtech 6S und 6S Plus Review:
http://www.anandtech.com/show/9686/the-apple-iphone-6s-and-iphone-6s-plus-review

A9 (Twister):
http://www.anandtech.com/show/9686/the-apple-iphone-6s-and-iphone-6s-plus-review/4
Wrapping things up, we’ll see the full impact of Twister and Apple’s shift to LPDDR4 in our full look at system performance. But in a nutshell A9 and Twister are a very potent update to Apple’s CPU performance, delivering significant performance increases from both architectural improvements and from clockspeed improvements. As a result the performance gains for A9 relative to A8 are very large, and although Twister isn’t Cyclone, Apple does at times come surprisingly close to the kind of leap ahead they made two years ago. A8 and Typhoon already set a high bar for the industry, but A9 and Twister will make chasing Apple all the harder.


Ist schon wirklich beeindruckend was Apple hier auch im Kontext der gesamten Plattform inkl. Storage abgeliefert hat.

robbitop
2015-11-03, 16:19:14
Vor allem fand ich es interessant, dass selbst Ryan mittlerweile den Vergleich zu Intels Cores durchaus sieht. Wundert mich bei der µ-Arch nicht. Mich würde es auch nicht wundern, wenn beide µ-Archs taktnormiert schon recht nahe beieinanderliegen. Intels Core ist allerdings mit 4,5W dann auch recht weit an der unteren Grenze seiner sinnvollen Skalierbarkeit - hingegen ist Twister genau für diesen Arbeitspunkt ausgelegt worden. Insofern ist der Perf/W sicher beim A9 besser. Aber die absolute Performance natürlich nicht.

deekey777
2015-11-04, 09:59:38
I...

Hast Du irgend einen Koller mit den A8 Frequenzen oder was? http://www.forum-3dcenter.org/vbulletin/showthread.php?t=513454&page=129

....

Wegen Apple TV 4. Keine Ahnung, wieso. Es gibt keine Daten zu dem Takt des SoCs (oder sind die irgendwo versteckt?).

So, die allmonatliche Meldung, dass ein iPhone mit 4''-Display kommt:
http://appleinsider.com/articles/15/11/03/apple-to-launch-new-metal-4-inch-iphone-with-a9-cpu-in-early-2016-insider-says

Gleich mit dem A9, aber ohne Force Dings? Es fehlt ja noch ein neues iPad Air, vielleicht kommen die beiden gleichzeitig auf den Markt. A9 = Premium-Preis, A8 = niedrigerer Premium-Preis.

Ailuros
2015-11-04, 10:19:51
Die GPUs im A8 im iPad mini4 und iPhone6 Plus takten beide bei einer peak 533MHz Frequenz. Bei gleicher GPU Leistung koennen die Dinger nicht unterschiedlich takten.

Sonst ein 4" smartphone mit einem A9? Ich weiss zwar nicht was die Herren bei fruitco fuer eine Vorstellung haben, aber ich wuerde einem 4" smartphone dann eher den A8 verpassen und dem mini 4 eher den A9 SoC :rolleyes:

smalM
2015-11-06, 20:17:49
Sonst ein 4" smartphone mit einem A9? [...] aber ich wuerde einem 4" smartphone dann eher den A8 verpassen und dem mini 4 eher den A9 SoC

Ein iPad mini mit dem A9 wird dann einfach das mini 5.

Bei einem neuen 4" iPhone käme es darauf an, wie Apple es positionieren wollte, als 6c (mit einem A8) oder als 6s mini (mit einem A9).
Eigentlich wäre in der Produktmatrix für beide Platz.

Ailuros
2015-11-06, 20:27:18
Das aendert nichts an der Tatsache dass es ungewoehnlich ist dass ein 7.9' tablet einen bescheideneren SoC hat als die smartphones der gleichen "Generation". Es ist ja nicht so dass die minis billig sind, in grossen Volumen verkauft werden oder es schwerer haben mit der Hitze als ein smartphone.

Die Leistung bzw. Potential eines A9 ist um zich Male umsetzbarer in einem 8" tablet als in einem <5" smartphone, oder auch 1536 vs.750p. Ja beim mini5 werden die kommenden smartphones dann wohl A10 SoCs im Gegensatz haben :rolleyes:

Terrarist
2015-11-07, 01:19:21
Die Mini Serie (inkl. Mac Mini) dient wohl hauptsächlich dazu die Reste aus dem Lager zu verwerten, und den Produktionsprozess voll auszureizen.

smalM
2015-11-07, 02:13:05
@Terrarist
Ja klar doch... endlich hat das mal einer durchschaut!

@Ailuros
Es ist ja nun nicht so, daß ich nicht gerne einen A9 im aktuellen iPad mini sähe und (insbesondere!) einen A9X im aktuellen iPad Air; Kapazität sollten sie ja genug haben dieses Jahr. Auch paßt das so gar nicht zum eigenen Anspruch, das jeweils bestmögliche Produkt abzuliefern!
Eventuell will Apple schlicht einen ordentlichen Abstand zum iPad Pro hinlegen oder man versucht den Produktzyklus weg von dem des iPhones zu verschieben.

Ailuros
2015-11-08, 14:50:47
Mir ist egal wieso sie es machen, und ich behalte stets die Perspektive eines potentiellen Kunden. Das iPad PRO ist ein >700gr, ziemlich teures, ziemlich grosses tablet und die herkoemmlichen 10" tablets nach dem Air2 wohl EOL. Im mini dann die Haelfte der Pro Leistung zu haben waere quasi normal, ein Viertel dann eben nicht mehr.

Kurz: ok for now da es immer noch das Air2 zum kaufen gibt. Stirbt diese aus waere es besser wenn das mini5 eben einen A10 anstatt A9 bekommt.

Sonst kann man Lagerreste genauso fuer <5" smartphones benutzen ueberhaupt bei Bums-750p Aufloesungen wofuer ein A9 mehr overkill ist als ein A8 zu mager fuer 1536p. Eine ziemlich einfache Relativierung.

smalM
2015-11-08, 20:03:52
Stirbt diese aus waere es besser wenn das mini5 eben einen A10 anstatt A9 bekommt.

Bisher sehe ich nur, daß Apple das 10er iPad vom Upgradezyklus des iPhones abkoppelt. Um welchen Zeitraum das verschoben wird (beim 8er war's ja ein ganzes Jahr), wird sich weisen. Ein Aussterben der 10er-Größe sehe ich überhaupt nicht; das 12er ist eine zusätzliche Größe, kein Ersatz.

Ailuros
2015-11-09, 06:16:48
Bisher sehe ich nur, daß Apple das 10er iPad vom Upgradezyklus des iPhones abkoppelt. Um welchen Zeitraum das verschoben wird (beim 8er war's ja ein ganzes Jahr), wird sich weisen. Ein Aussterben der 10er-Größe sehe ich überhaupt nicht; das 12er ist eine zusätzliche Größe, kein Ersatz.

Ich dachte es wurde so vermittelt, dass die 10" tablets EOL sind nach dem Air2. Sie stellen wohl A9X SoCs in extrem begrenzten Mengen her fuers PRO und wenn die Herstellung dann billiger wird kommt es vielleicht in den Air2 Nachfolger.

deekey777
2015-11-11, 13:24:02
Kurzpreview zum iPad Pro:
http://www.anandtech.com/show/9780/taking-notes-with-ipad-pro/2

Doppelte Leistung eines iPhone 6s in Manhattan und des iPad Air 2, was wichtiger ist. Alter...

robbitop
2015-11-11, 13:37:59
W00t? Warum die Abkehr vom Tripple Core? Dafür hat man natürlich mit 2,25 GHz ordentliche ST Performance. Vielleicht ein Zeichen, dass man für A10/11 SMT vorsieht?

dildo4u
2015-11-11, 14:33:22
http://i.imgur.com/0R9xPos.png

http://cdn.arstechnica.net/wp-content/uploads/2015/11/iPad-Pro-charts.009-980x735.png

http://arstechnica.com/apple/2015/11/ipad-pro-review-mac-like-speed-with-all-the-virtues-and-limitations-of-ios/

urpils
2015-11-11, 15:35:17
holy sh** OO
also ich hab mal eins bestellt und es soll schon am Freitag kommen - wird ein ganz schöner Sprung vom iPad 3.. ich befürchte aber, dass die aktuelle Softwarelandschaft das Hardwarepotential brach liegen lässt... :/

smalM
2015-11-11, 16:59:38
W00t? Warum die Abkehr vom Tripple Core? Dafür hat man natürlich mit 2,25 GHz ordentliche ST Performance. Vielleicht ein Zeichen, dass man für A10/11 SMT vorsieht?

Wer weiß, ob wir den dritten Core im A10 nicht wiedersehen? Die Multicore-Leistung des A9X ist ja an sich nicht übel, aber gegenüber dem A8X fehlt es doch deutlich an Vorsprung und bei "Pro" hätte auch ich mehr erwartet.
Aber ein schöner SoC für ein iPad Air 3 :biggrin:

Ailuros
2015-11-11, 18:02:20
W00t? Warum die Abkehr vom Tripple Core? Dafür hat man natürlich mit 2,25 GHz ordentliche ST Performance. Vielleicht ein Zeichen, dass man für A10/11 SMT vorsieht?

Es gab auch eine sehenswerte Steigerung durch die caches im Vergleich zum A8X. Sonst ist Ryan's Bauchgefuehl @anandtech fuer 10 GPU clusters IMO ziemlich naiv IMHO. Es ist um zich Male einfacher einen 7600 zu "spiegeln" als sonstige merkwuerdige Spielereien.

Ich wuerde mal liebend gerne etwas zusaetzliches an synthetischen benchmarks ausserhalb Geekbench fuer die CPU sehen, aber schon in diesem muss sich TWISTER selbst vor einem i5 nicht besonders verstecken. Sag bloss nie wieder "NIE" :P

deekey777
2015-11-12, 09:03:39
W00t? Warum die Abkehr vom Tripple Core? Dafür hat man natürlich mit 2,25 GHz ordentliche ST Performance. Vielleicht ein Zeichen, dass man für A10/11 SMT vorsieht?

Ich hatte im Hinterkopf die Aussage von Adobe, diese hatte auch eine "Vier" zum Inhalt, bezog sich aber auf RAM. Jetzt habe ich erneut in die Tabelle geschaut, es ist wirklich ein Dual-Core.

iPad Pro Teardown (https://www.ifixit.com/Teardown/iPad+Pro+Teardown/52599)

Akkukapazität ist etwas größer als die des Surface Pro 4.

Sunrise
2015-11-12, 15:39:58
holy sh** OO
also ich hab mal eins bestellt und es soll schon am Freitag kommen - wird ein ganz schöner Sprung vom iPad 3.. ich befürchte aber, dass die aktuelle Softwarelandschaft das Hardwarepotential brach liegen lässt... :/
Genau aus diesem Grund ist das Ding für mich die reine Geldvernichtung. Die Hardware ist der absolute Wahnsinn, das fängt beim Design an, den neuen Lautsprechern (akustisch mit Bass-Kammern optimiert und aufgrund der Klangverteilung wird das Maximum an unverzerrter Lautstärke rausgeholt) und hört natürlich beim A9X auf. Dem gegenüber stehen aber kaum Anwendungsmöglichkeiten, welche die Hardware richtig nutzen und dazu noch die unhandliche Größe.

iOS hat eine Rundum-Erneuerung nötiger als je zuvor.

deekey777
2015-11-12, 15:49:59
Genau aus diesem Grund ist das Ding für mich die reine Geldvernichtung. Die Hardware ist der absolute Wahnsinn, das fängt beim Design an, den neuen Lautsprechern (akustisch mit Bass-Kammern optimiert und aufgrund der Klangverteilung wird das Maximum an unverzerrter Lautstärke rausgeholt) und hört natürlich beim A9X auf. Dem gegenüber stehen aber kaum Anwendungsmöglichkeiten, welche die Hardware richtig nutzen und dazu noch die unhandliche Größe.

iOS hat eine Rundum-Erneuerung nötiger als je zuvor.
Darum finde ich die ganzen "Das Ding ist schneller als SP4 und dabei auch günstiger"-Kommentare so lustig.

urpils
2015-11-12, 17:47:55
Genau aus diesem Grund ist das Ding für mich die reine Geldvernichtung. Die Hardware ist der absolute Wahnsinn, das fängt beim Design an, den neuen Lautsprechern (akustisch mit Bass-Kammern optimiert und aufgrund der Klangverteilung wird das Maximum an unverzerrter Lautstärke rausgeholt) und hört natürlich beim A9X auf. Dem gegenüber stehen aber kaum Anwendungsmöglichkeiten, welche die Hardware richtig nutzen und dazu noch die unhandliche Größe.

iOS hat eine Rundum-Erneuerung nötiger als je zuvor.

ich möchte es in erster Linie tatsächlich wegen dem größeren Display.. dass die Software jetzt nicht hinterherkommt ist natürlich traurig - bedeutet aber im Umkehrschluss wahrscheinlich, dass man sehr lange sehr gut mit diesem Gerät auskommen wird.. mein letztes iPad war das erste Retina-Pad - das hat seinen Dienst für mich in der Zeit wirklich gut geleistet - wenn das Pro jetzt mindestens genausolange durchhält, lohnt sich die "Investition" in gewisser Weise für den einen oder anderen schon...

bin mal gespannt wie es in der Praxis ist - ob es wirklich was taugt oder nicht.. dieses Jahr hat Apple wirklich ganz schön vorgelegt, Macbook, watch, TV, iPad Pro, iPhone...

prinz_valium
2015-11-12, 18:41:49
krasser chip. aber für mich trotzdem deutlich zu teuer das ipad pro
dann lieber das air2 für 350 im sale ergattern

smalM
2015-11-12, 22:02:34
Richtig sinnvoll ist das iPad Pro wohl dann, wenn man den Pencil für seine Arbeit tatsächlich auch braucht. Die Kombination scheint ja im Augenblick das non-plus-ultra zu sein (Wacom-Aktien schon verkauft?)

Wenn man so viel Geld hat, daß es einem egal ist wieviel mehr es kostet, dann ist das natürlich auch ein schöner Kaufgrund :D

prinz_valium
2015-11-12, 23:56:04
Darum finde ich die ganzen "Das Ding ist schneller als SP4 und dabei auch günstiger"-Kommentare so lustig.

günstiger?
wer kann da denn nicht rechnen

außer vllt man vergleich die 32gb version ohne stift mit dem einstigespreis der surface pro geräte
aber der chip ist schon wirklich ein leckerbissen. jetzt wird nur die frage sein, wie es mit throtteln aussieht. würde mich wundern wenn das teil 2 stunden volle leistung bringen kann ohne lüfter

Ailuros
2015-11-13, 07:09:14
günstiger?
wer kann da denn nicht rechnen

außer vllt man vergleich die 32gb version ohne stift mit dem einstigespreis der surface pro geräte
aber der chip ist schon wirklich ein leckerbissen. jetzt wird nur die frage sein, wie es mit throtteln aussieht. würde mich wundern wenn das teil 2 stunden volle leistung bringen kann ohne lüfter

Wenn ich mich nicht irre soll es nach Apple's Angaben 10 Stunden beim browsing aushalten. Kommt natuerlich drauf an was Du mit "voller Leistung" meinst, aber um die 3 Stunden gaming sollte es schon aushalten koennen.

Ich hab persoenlich keinen Nutzen fuer so ein grosses tablet; fuer das Geld wuerde ich mir eher ein ultrabook kaufen.

smalM
2015-11-14, 15:59:01
jetzt wird nur die frage sein, wie es mit throtteln aussieht. würde mich wundern wenn das teil 2 stunden volle leistung bringen kann ohne lüfter

Wundere Dich: http://cdn.arstechnica.net/wp-content/uploads/2015/11/iPad-Pro-charts-2.002.png

Nightspider
2015-11-14, 16:20:13
30min != 2h *klugscheiß* :D

Undertaker
2015-11-15, 09:35:39
2,16 GHz? Sollten es laut Anandtech nicht 2,26 GHz sein? Ansonsten kann man im Formfaktor des iPad Pro locker die 2- bis 3-fache Leistung wegkühlen (~6 Watt nur für den SoC gehen da locker), sodass der Taktunterschied zum iPhone am Testende jetzt nicht unbedingt überrascht.

prinz_valium
2015-11-15, 23:31:37
also ich hab das teardown video angesehen.
kann mir aber nicht erklären, wie sie die hitze so gut abführen können

also vllt kann mir ja einer erklären, warum das 6s so am throtteln ist, das ipad pro aber scheinbar garnicht trotz höherem takt.

Ailuros
2015-11-16, 06:06:06
12.9 vs. 5.5".

smalM
2015-11-17, 02:14:00
Das alleine ist es nicht.
Die Platine hat nur eine Bestückungsseite, die zum Gehäuseboden zeigt und sie ist recht zentral angebracht, die Wärme kann also nach allen Seiten abgegeben werden.
Und dann noch das übliche eines X-Modells, kein RAM im SoC und ein wärmeleitfähigere Abdeckung.

Ailuros
2015-11-17, 07:30:19
Es faengt alles vom groesseren Gehaeuse an, denn solche "stunts" koennte man eben nicht auf einem duennen heutigen smartphone + 5.5" display benutzen.

Ailuros
2015-11-20, 10:05:35
http://vr-zone.com/articles/apples-upcoming-4-inch-iphone-rumored-pack-apple-a8-chip-improved-facetime-camera/101690.html

A8 macht auch um einiges mehr Sinn.

smalM
2015-11-20, 11:39:17
Wieso?
Es kommt doch darauf an, wie das neue 4" iPhone positioniert wird:
Als 6s in klein, also 'iPhone 6sc' mit A9.
Als Einstieg in die Produktmatrix, also 'iPhone 6c' mit A8.
Beides ist denkbar.

Eigentlich fände ich sogar eine 3x3 Produktmatrix (3 Jahrgänge in allen 3 Größen) ganz ansprechend und denke auch, daß 9 Modelle im Verhältnis zu über 230 Mio. verkauften iPhones keine zu große Vielfalt darstellt, schließlich können selbst Applenutzer mit Hilfe ihrer Finger bis 10 zählen :biggrin:

Ailuros
2015-11-20, 16:24:08
Einen iPhone6S Zwerg kann ich mir schwer vorstellen; ich hab dann schon eine Art "6sC" im Hinterkopf.

Wieso 6SC? U.a. deshalb: http://vrworld.com/2015/11/20/apple-advances-past-the-1-billion-sales-mark-in-india/

Weil:

1. Ein A8 bedeutet hoehere Margen.
2. A8 fuer 750p mehr als nur ausreicht.

Eigentlich fände ich sogar eine 3x3 Produktmatrix (3 Jahrgänge in allen 3 Größen) ganz ansprechend und denke auch, daß 9 Modelle im Verhältnis zu über 230 Mio. verkauften iPhones keine zu große Vielfalt darstellt, schließlich können selbst Applenutzer mit Hilfe ihrer Finger bis 10 zählen

Ob langfristig dann dual sourcing fuer Herstellung mit den zunehmend problematischen Prozessen ausreicht, waere dann der Kopfschmerz direkt danach.

smalM
2015-11-20, 23:17:46
Das kleine iPhone könnte ja mit ein paar Monaten Verzögerung, bspw. Anfang März kommen und würde so keine zusätzliche Last im versorgungskritischen 4. Quartal bedeuten (man könnte ja dorthin auch noch die Präsentation der kleineren iPads verlegen, um dem ganzen mehr Gewicht zu verleihen).

1. Ein A8 bedeutet hoehere Margen.
Schwer zu schlagendes Argument :D

Ach ja, das iPhone 5c hat sich am besten in den USA und in Europa verkauft. In den anderen Märkten wollten die Leute "richtige iPhones".

Ailuros
2015-11-21, 09:03:41
Indien ist immer noch im Aufschwung und ich hab um ehrlich zu sein noch keine relevante Statistik dafuer gesehen. Je mehr high end smartphones dort verkauft werden desto schneller stagniert dann auch der Markt.

Sonst ist das Problem momentan eben leider noch dass 16FF+/14FF Herstellung immer noch ziemlich teuer sein sollte im Vergleich zu Samsung 20nm.

smalM
2015-11-28, 00:49:03
Kein Systemcache auf dem A9X. Chipswork hat nachgeguckt (https://g.foolcdn.com/editorial/images/186872/a9x-annotated_large.png).
Und es sieht so aus, daß es zwei Funktionsblöcke gibt, die von jeweils zwei Shaderclusterpaare geteilt werden, also dreifach vorhanden sind, während auf dem A9 alle drei Shaderclusterpaare mit den nur einmal vorhanden Funktionsblöcken auskommen müssen.

Ailuros
2015-11-29, 18:32:35
http://www.idownloadblog.com/2015/11/28/a9x-teardown-chipworks/

Es sind wohl doch 12 cluster fuer die GPU und nicht 10 wie Anandtech spekulierte. L3 ist in A9X weggefallen weil man die dafuer verbunden Stromsparmassnahmen in einem 12+" tablet nicht wirklich braucht.

IVN
2015-11-29, 19:48:29
Ich würde gerne sehen, wie dieser m.M.n. maßlos gehypte Chip gegen den 4200U in meinem Notebook abschneidet. Nicht aber in weltfremden Benchmarks, wie Geekbench, sondern beim Ausführen echter Programme.

Ailuros
2015-11-29, 20:28:57
Nur wenn Apple ihre SoCs in ihren kleinen Macbooks in absehbarer Zukunft benutzen sollte. Sonst wird fast jeder eigen hergestellter SoC von allen Herstellern heute gehypt, egal ob sie es wert sind oder nicht. Sonst wird es irgendwann auch Zeit bis wir die zu grosse Abhaengigkeit vom Wintel Rums loswerden, aber dafuer ist leider Apple mit ihren verrueckten Gewinn-Margen alles andere als geeignet.

lumines
2015-11-29, 20:31:19
Nicht aber in weltfremden Benchmarks, wie Geekbench, sondern beim Ausführen echter Programme.

Was sind denn echte Programme? Haben die die ganzzahligeren Ganzzahlen, oder wie darf man sich das vorstellen?

Vielleicht verwechselst du Geekbench mit anderen Benchmarks?

Ein Vergleich mit „echten“ Programmen wäre wahrscheinlich langweiliger als sich viele Leute vorstellen. Die CPU-Leistung kann man ja schon vergleichsweise gut einschätzen.

=Floi=
2015-11-29, 21:48:22
geekbench bencht auch die fixed fuction verschlüsselungs-/entschlüsselungsfunktionen und deswegen schneiden neuere CPUs so stark ab. Die ergebnisse fließen dann in den gesamtscore mit ein und leider spiegelt das nicht den gewinn in der realität.

lumines
2015-11-29, 21:50:26
Die ergebnisse fließen dann in den gesamtscore mit ein und leider spiegelt das nicht den gewinn in der realität.

Der Trend geht zur Vollverschlüsselung. Realitätsfern sind eher Szenarien, in denen AES in Hardware nicht beachtet wird.

=Floi=
2015-11-29, 22:04:22
du willst es nicht verstehen.
was nützen mir 1gb/sek veerschlüsselungsdurchsatz, wenn der prozessor so langsam ist, dass dies in der praxis keine rolle spielt?
Im ARM bereich ist die reine cpu-leistung noch immer maßgebend für die gefühlte performance und da verwässert der geekbench einfach die realität. Wenn ein zusammengeschusterter A53 octacore hohe werte hat und in der praxis ne krücke ist, dann ist für mich der benchmark gescheitert, weil dieser keinen realistischen vergleich der CPU-performance bietet.

lumines
2015-11-29, 22:19:59
du willst es nicht verstehen.
was nützen mir 1gb/sek veerschlüsselungsdurchsatz, wenn der prozessor so langsam ist, dass dies in der praxis keine rolle spielt?

Dass deine CPU nicht deinen I/O-Durchsatz und deine Sicherheit limitiert?

Wenn ein zusammengeschusterter A53 octacore hohe werte hat und in der praxis ne krücke ist, dann ist für mich der benchmark gescheitert, weil dieser keinen realistischen vergleich der CPU-performance bietet.

Und was ist deiner Meinung nach realistisch? Vollverschlüsselung in Software?

Genau so gut könnte ich auch sagen, dass man willkürlich irgendwelche x86-Instruktionen moderner CPUs beim Vergleich mit ARM ausschließen sollte, weil man das ja so nicht direkt vergleichen kann. Die Realität sieht aber eben so aus, dass man immer nur die CPU als gesamtes Paket kaufen kann. Bei Apple beinhaltet das eben Hardwarebeschleunigung für Verschlüsselung, bei vielen x86-CPUs eben nicht. Und es ist ja nicht so, dass Apple das nicht benutzt oder gar nur, um in Benchmarks gut dazustehen. Vollverschlüsselung ist dort seit langer Zeit der Default und vollkommen real.

Es wäre zwar nett, wenn man das besser vergleichen könnte, aber die Realität sieht eben so aus, dass mobile Plattformen Richtung Vollverschlüsselung gehen. Das nicht miteinzubeziehen würde das Bild nur noch weiter verfälschen.

Ein hypothetisches MacBook mit einem ARM SoC hätte standardmäßig auch Vollverschlüsselung aktiv. Das kann ich dir garantieren. Das nicht miteinzubeziehen wäre schon sehr realitätsfern. Ich frage mich sowieso, wann Apple das in OS X einmal standardmäßig aktiviert. Es ist sowieso nur eine Checkbox entfernt und alle CPUs in den Macs der letzten fünf Jahre sollten es in Hardware unterstützen.

smalM
2015-11-30, 00:08:43
Die AES-Befehlssatzerweiterung wurde bei Intel-CPUs 2010 eingeführt (Westmere), also auch nicht gerade erst gestern.
Dieses Gemache um AES und das würde ARM-Prozessoren in Benchmarks bevorzugen, ist nicht nur hinterwäldlerisch in Hinblick auf die totale Verschlüsselung (die ja wohl hoffentlich bald jeder nutzt), es zeugt auch von schlichtem Unwissen bei den eigenen Argumenten!

Ganon
2015-11-30, 00:40:24
Genau so gut könnte ich auch sagen, dass man willkürlich irgendwelche x86-Instruktionen moderner CPUs beim Vergleich mit ARM ausschließen sollte, weil man das ja so nicht direkt vergleichen kann.

Es ist aber ein Unterschied, ob man nur einen speziellen Algorithmus schnell berechnen kann, oder ob man schnell in generischen Rechenaufgaben ist. D.h. wenn der x86er jetzt eine Fused multiply-add Funktion bekommt, dann kann damit jeder Algorithmus beschleunigt werden, der entsprechende Berechnungen beinhaltet, wie z.B. Spiele. Und damit potentiell JEDES Spiel.

Ein komplett in Hardware gegossener Algorithmus wird immer nur diese eine Sache können und nie mehr. Auch nur bei der kleinsten Abweichung wird die Hardware versagen.

Genauso würdeste du auch nicht die CPUs nutzn wollen, die hier gerade bei uns an der Uni gebaut werden. Die laufen mit 300 Mhz und vernichten jeden i7... in ihrem Aufgabenbereich... alles voller Fixed Function Kram.

lumines
2015-11-30, 02:23:11
Das ist mir klar, aber hier ging es ja speziell darum, dass AES in Hardware die Benchmarkergebnisse verfälscht. Praktisch will das aber niemand in Software machen, egal wie schnell die CPU ist. Wozu auch, gerade so etwas verbrät nur unnötig CPU-Zyklen und bei mobilen Geräten gar Akkuleistung.

Man sollte es vielleicht so sehen: Der Geekbench bevorzugt keine Apple SoCs, sondern straft einfach nur alles ab, was kein AES in Hardware kann. Ich finde das vollkommen legitim. Das ist ein Feature, welches heute jedes halbwegs aktuelle (mobile) Gerät haben sollte. Wenn man Vollverschlüsselung als essentielle Funktion ansieht, was überhaupt nicht unrealistisch ist, dann müsste man eben mit massiven Leistungseinbußen rechnen, wenn man das in Software machen wollte. Genau das bildet der Geekbench eben ab.

IVN
2015-11-30, 02:57:04
Was sind denn echte Programme? Haben die die ganzzahligeren Ganzzahlen, oder wie darf man sich das vorstellen?

Das sind Programme, die es leider für iOS nicht gibt, weil auf dem Spielzeug-Betriebssystem von Apple nur Apps für Content-Consumption laufen.

Vielleicht verwechselst du Geekbench mit anderen Benchmarks?

Nein, ich denke nicht. Ein Benchmark, der Fixed-Function-Einheiten einer ISA nutzt und der anderen nicht, und bei dem sich der Code gewaltig in der Länge unterscheidet, ist kein ernstzunehmender Benchmark, sondern bezahlte Propaganda.

Edit: Und die armen Fanboys trinken das "Kool-Aid" als wäre es Ambrosia. Manche sind so verblendet, dass sie ernsthaft glauben, Apple, ein absoluter Neuling im CPU-Business, hätte es geschafft, Intel im Perf/Watt um mindestens Faktor 5 zu überholen.

lumines
2015-11-30, 03:34:51
Ein Benchmark, der Fixed-Function-Einheiten einer ISA nutzt und der anderen nicht, und bei dem sich der Code gewaltig in der Länge unterscheidet, ist kein ernstzunehmender Benchmark, sondern bezahlte Propaganda.

Geekbench benutzt nicht nur bei den Apple SoCs die AES-Erweiterungen. Oder was meinst du genau?

Edit: Und die armen Fanboys trinken das "Kool-Aid" als wäre es Ambrosia. Manche sind so verblendet, dass sie ernsthaft glauben, Apple, ein absoluter Neuling im CPU-Business, hätte es geschafft, Intel im Perf/Watt um mindestens Faktor 5 zu überholen.

Du scheinst offenbar nicht mitbekommen zu haben, dass Apple 2008 P.A. Semi gekauft hat. Viel mehr braucht man dazu wohl auch nicht zu sagen.

Nebenbei ist Apples Geschichte eng mit der von ARM verzahnt. Vielleicht solltest du das noch einmal nachlesen.

IVN
2015-11-30, 04:00:27
Geekbench benutzt nicht nur bei den Apple SoCs die AES-Erweiterungen. Oder was meinst du genau?
Wieso werden diese Erweiterungen, bei einem Benchmark, der Cross-Plattform-Vergleichbarkeit gewährleisten soll, überhaupt benutzt? Und wieso ist der Code im x86-Strang deutlich länger, was auf schwieriger auszuführenden Code hindeutet?

Ganon
2015-11-30, 08:51:27
Man sollte es vielleicht so sehen: Der Geekbench bevorzugt keine Apple SoCs, sondern straft einfach nur alles ab, was kein AES in Hardware kann. Ich finde das vollkommen legitim. [...] Genau das bildet der Geekbench eben ab.

Das wird aber sehr sehr schnell ein Apfel-Birnen Vergleich. Oder warum haben wir alle keinen Grafikprozessor als Hauptprozessor? Immerhin ist der 10-20 mal schneller als eine CPU...

Du versteifst dich gerade halt nur darauf, dass es natürlich sinnvoll ist einen oft genutzten Algorithmus mit fixed-function Hardware zu beschleunigen. Gut, dann darf man aber auch nur diesen Teil mit anderen CPUs vergleichen. Aber nur weil der fixed-function Part einer CPU jetzt ungewöhnlich schnell ist, sollte man nicht davon ausgehen, dass die ganze CPU schnell ist.

Und genau das macht Geekbench. Ein einzelner Test-Block zieht die gesamte Bewertung drastisch nach oben. Das heißt, wenn Apple die Leistung der CPU senken würde, aber die fixed-function Parts beschleunigt, dann würde die Endwertung steigen. CPUs sollte man halt immer nur an ihrer allgemeinen Leistung messen, ansonsten ist das alles sinnlos. Doppelte Leistung bei Verschlüsselung bringt dem Nutzer weniger als doppelte Framerate in allen Spielen.

Wie beim iPad von einer Freundin bei mir... plötzlich schickte ich ihr mal ein H.265 Video... uuups, keine Fixed-Function Hardware dafür im iPad und CPU zu schwach zum selbst dekodieren. Mein 5 Jahre alter x86er hat damit keine Probleme...

Arnoldie
2015-11-30, 09:29:28
...

Wie beim iPad von einer Freundin bei mir... plötzlich schickte ich ihr mal ein H.265 Video... uuups, keine Fixed-Function Hardware dafür im iPad und CPU zu schwach zum selbst dekodieren. Mein 5 Jahre alter x86er hat damit keine Probleme...
Eben (auch wenn der A9X HEVC in Hardware wiedergeben könnte).

Die x86-Prozessoren haben sich als universelle Rechenknechte bewährt. Für ARM kann man das einfach nicht sagen, es gibt einfach keine Grundlage hierfür.

Relic
2015-11-30, 09:59:35
Eben (auch wenn der A9X HEVC in Hardware wiedergeben könnte).

Die x86-Prozessoren haben sich als universelle Rechenknechte bewährt. Für ARM kann man das einfach nicht sagen, es gibt einfach keine Grundlage hierfür.
Wo wir wieder bei Äpfel und Birnen wären. Was hat dein der X86 Prozessor für eine TDP und was der IPAD ARM Prozessor? Ich wette, dass ein 5Jahre alter x86 mit der TDP des Ipads auch kein h265 flüssig wiedergeben könnte.
Passender Prozessor wäre hier der Intel Amton N450 mit 5,5W TDP und der kann nicht mal 1080p h264 flüssig darstellen. Soviel zu x86 vor 5 Jahren.

Ganon
2015-11-30, 10:01:15
Ich wette, dass ein 5Jahre alter x86 mit der TDP des Ipads auch kein h265 flüssig wiedergeben könnte.

Tjaa, leider testet das Geekbench nicht.

edit:

Und reitet doch nicht immer so auf dem konkreten Beispiel rum...

robbitop
2015-11-30, 10:07:06
Eben (auch wenn der A9X HEVC in Hardware wiedergeben könnte).

Die x86-Prozessoren haben sich als universelle Rechenknechte bewährt. Für ARM kann man das einfach nicht sagen, es gibt einfach keine Grundlage hierfür.

Das liegt aber nicht an der ISA sondern an Applikation, OS und TDP, was Ganon beschrieben hat. Die ARM ISA ist wie der POWER ISA wie auch die MIPS ISA wie auch die x86 ISA vergleichbar als "universale Rechenknechte".

Twister Kerne sind taktnormiert auf in etwa Intel Core Niveau. Das sollte nach einem Blick auf die µ-Arch eigentlich ersichtlich sein. Auch wenn man sich die "nicht Fixed Function" Einzelergebnisse aus GB3 anschaut. Wirklich genau lässt es sich sicher nicht sagen - aber der Vergleich liegt mittlerweile nahe.

Warum denn auch nicht? Apple hat die besten Leute aus der Industrie zusammengekauft und arbeitet jetzt auch seit einem >halben Jahrzehnt an custom Cores (2008/2009 sollte die Entwicklung von SWIFT begonnen haben in etwa, wenn man übliche Design und Validierungszeiträume von CPU Kernen zugrunde legt). Die sehr breite µ-Arch und schnelle Caches sprechen IMO eine eindeutige Sprache.

Interessant finde ich, dass sie den L3 Cache wegließen. Das 128 Bit DDR4 SI scheint also den 12C Series7XT Core sättigen zu können. Ein TBDR hat prinzipbedingt (Tile Cache) auch etwas weniger Bandbreitenbedarf als ein klassischer IMR (wobei es sowas zugegebenermaßen auch nicht mehr gibt :D).

Arnoldie
2015-11-30, 10:21:42
Wo wir wieder bei Äpfel und Birnen wären. Was hat dein der X86 Prozessor für eine TDP und was der IPAD ARM Prozessor? Ich wette, dass ein 5Jahre alter x86 mit der TDP des Ipads auch kein h265 flüssig wiedergeben könnte.
Passender Prozessor wäre hier der Intel Amton N450 mit 5,5W TDP und der kann nicht mal 1080p h264 flüssig darstellen. Soviel zu x86 vor 5 Jahren.
Ausreden, nichts als Ausreden. :P
Das liegt aber nicht an der ISA sondern an Applikation, OS und TDP, was Ganon beschrieben hat. Die ARM ISA ist wie der POWER ISA wie auch die MIPS ISA wie auch die x86 ISA vergleichbar als "universale Rechenknechte".

Twister Kerne sind taktnormiert auf in etwa Intel Core Niveau. Das sollte nach einem Blick auf die µ-Arch eigentlich ersichtlich sein. Auch wenn man sich die "nicht Fixed Function" Einzelergebnisse aus GB3 anschaut. Wirklich genau lässt es sich sicher nicht sagen - aber der Vergleich liegt mittlerweile nahe.

Warum denn auch nicht? Apple hat die besten Leute aus der Industrie zusammengekauft und arbeitet jetzt auch seit einem >halben Jahrzehnt an custom Cores (2008/2009 sollte die Entwicklung von SWIFT begonnen haben in etwa, wenn man übliche Design und Validierungszeiträume von CPU Kernen zugrunde legt). Die sehr breite µ-Arch und schnelle Caches sprechen IMO eine eindeutige Sprache.

.

Du willst also ernsthaft behaupten:
Würde ich heute einen A9X mit einer leistungsstarken Geforce in einen Rechner stecken, auf dem Linux läuft, dann bekäme ich in Spielen die gleiche Leistung wie mit einem halbwegs aktuellen Intel-Zweikerner. Oder mit dem x264-Benchmark die gleichen FPS?

Ailuros
2015-11-30, 10:28:54
Ich bezweifle so oder so dass Apple kurzfristig iOS in die untere Sparte von Macbooks schleussen wird. iOS ist "erwachsener" geworden und ist eine Stufe hoeher gestiegen als mit ultra thin 9.7" tablets. Am Ende des Tages ist die Agonie von den fanboys beider Seiten eigentlich umsonst, denn es wird weder Microsoft noch Apple eine Unmenge an Surface und iPad PROs verkaufen koennen einfach weil sie zu teuer sind.

Persoenlich interessiert es mich auch wenig was Apple mit ihren SoCs in absehbarer Zukunft anstellen wird. Aber:

1. Intel hat im Surface Pro keine ULP SoC per se, ergo ein heutiger Atom SoC kann insgesamt nicht im geringsten gegen den A9X auf mehr als einer Ebene konkurrieren. Apple dediziert aus ihren eigenen Gruenden einen ziemlich fetten Brocken an SoC Flaeche fuer die GPU.

2. Beide Seiten koennen sich die Schlaege unter dem Guertel sparen; nur weil sowohl Intel und Apple historisch bis heute in mehreren Faellen zu bloed waren via sw die hw Faehigkeiten vom video block voll auszunutzen heisst es gar nichts.

Fuer die Intel Juenger: ist ja schoen und gut dass Euch fruitco beunruhigt aber i-Zeug wird genauso wie die Macs ein Nischen-Produkt bleiben. Dass was Euch wirklich Angst machen sollte ist Google/Android und all die Hersteller die dafuer hw und sw entwickeln und nicht Apple. Um mit diesen zu konkurrieren muss sowohl Intel als auch Microsoft ihr Zeug frei hergeben damit sie die Relevanz nicht ganz in der Zukunft verlieren. Zu glauben dass die Kombination Microsoft + Intel das einzige Heilmittel ist und dass es wirklich nirgends und nie ohne diese weitergehen koennte ist einfach naiv.

Ganon
2015-11-30, 10:29:32
@Arnoldie
Ne, die Aussage ist eher, das Apple auf Augenhöhe mit der Core-Architektur von Intel ist. D.h. wenn dann kriegst du halt ähnliche Leistung, wenn du einen ähnlichen Prozessor einbaust. Also in dem Fall etwa Core M Niveau.

Da Apple keine Desktop-Varianten baut ist es halt alles nur Spekulation. Intel kann zeigen dass sie ihre CPUs auf 4 Kerne und 4Ghz bringen kann, ohne das der Prozessor gleich in sich zusammenfällt. 8 Kerne und 3.5Ghz gehen auch. Es gehen aber auch 2 Kerne mit 1Ghz und ~4W TDP.

Apple hat nur letzteres bisher gezeigt. Ob man eine Apple CPU auf Core i7 Niveau bringen kann ist halt weiter reine Spekulation.

robbitop
2015-11-30, 10:30:37
Du willst also ernsthaft behaupten:
Würde ich heute einen A9X mit einer leistungsstarken Geforce in einen Rechner stecken, auf dem Linux läuft, dann bekäme ich in Spielen die gleiche Leistung wie mit einem halbwegs aktuellen Intel-Zweikerner. Oder mit dem x264-Benchmark die gleichen FPS?
Davon abgesehen, dass es AFAIK keine nennenswerten AAA Spiele für Linux mit ARM Unterstützung gibt? ;)

Ich sage, ein Twister hat vergleichbare taktnormierte Leistung wie ein Core.

Twister kann natürlich nicht so hoch takten wie Intels Cores - ist eben eine echte ULP Architektur. Wenn du Intels Core aber auf den gleichen Takt festtackerst, sollten ähnliche Ergebnisse dabei herauskommen. (den Vergleich kann man eben nicht nachvollziehen, da die Apple Cores nur auf iOS laufen, ein vernünftiges Spiele OS - also Windows - kein ARM akzeptiert und den Apple SoCs auch entsprechendes I/O fehlt - z.B. PCI express - und es keine Windowstreiber für die SoC Komponenten gibt).

Taktraten sind halt immer eine Grundauslegung des Designs. Core skaliert halt sehr gut zwischen 15 und 95 W. Unter 15W verliert er unverhältnismäßig viel Takt (wenn man sustained Leistung abfordert) und krebst Core M schnell auf dem Basistakt rum. Die ARM Cores aus dem ULP Bereich fühlen sich genau dort wohl. Will man sie aber signifikant höher takten explodiert der Verbrauch exponentiell und der Takt geht nur wenig höher. Insofern würde ich A9x im Einsatzbereich ULP (also mit eingezwängtem TDP) was Perf/W angeht eher deutlich über Core M ansetzen.

Keiner der beiden kann zaubern. Es ist nur eine Auslegungsfrage. Über mehr als Faktor 10 (TDP) skalieren Designs eben nur schlecht.

Ailuros
2015-11-30, 10:35:36
Ausreden, nichts als Ausreden. :P

Mal sehen wie es am anderen Ufer aussieht....

Du willst also ernsthaft behaupten:
Würde ich heute einen A9X mit einer leistungsstarken Geforce in einen Rechner stecken, auf dem Linux läuft, dann bekäme ich in Spielen die gleiche Leistung wie mit einem halbwegs aktuellen Intel-Zweikerner. Oder mit dem x264-Benchmark die gleichen FPS?

Ich weiss zwar nicht wass er genau behaupten wuerde, wird oder will aber ich schmeiss auch nicht eine ULP SoC mit einer desktop CPU in den gleichen Topf aus hoffentlich verstaendlichen Gruenden. Ob es theoretisch moeglich waere ist zwar eine nette Hypothese aber der desktop Markt wird weiterhin nicht so dazuwachsen wie der smartphone Markt und das mit oder ohne Apple's hw und sw.

Auf ULP SoC Ebene aber gibt es NV GPU IP welches vergleichbar ist zu dem welches Apple benutzt. Unter OGL_ES bis jetzt hat sich das erste nicht als deutlich effizienter zeigen koennen und genau gleiches gilt auch fuer Apple's CPU Eigenentwicklungen gegen Intel's Atom CPU IP.

@Arnoldie
Ne, die Aussage ist eher, das Apple auf Augenhöhe mit der Core-Architektur von Intel ist. D.h. wenn dann kriegst du halt ähnliche Leistung, wenn du einen ähnlichen Prozessor einbaust. Also in dem Fall etwa Core M Niveau.

Da Apple keine Desktop-Varianten baut ist es halt alles nur Spekulation. Intel kann zeigen dass sie ihre CPUs auf 4 Kerne und 4Ghz bringen kann, ohne das der Prozessor gleich in sich zusammenfällt. 8 Kerne und 3.5Ghz gehen auch. Es gehen aber auch 2 Kerne mit 1Ghz und ~4W TDP.

Apple hat nur letzteres bisher gezeigt. Ob man eine Apple CPU auf Core i7 Niveau bringen kann ist halt weiter reine Spekulation.

Braucht Apple momentan ueberhaupt etwas auf dem Leistungsniveau da es insgesamt immer noch billiger ist von Intel ganze chips einzukaufen?


------------------------------------------------------------------------------------------------------

Um mal zu versuchen es auf eine andere Ebene zu bringen: da ULP mobile SoCs zu heiss werden wenn sie dauern auf voller Pulle laufen, ist der Leistungsdurchschnitt in Echtzeit offensichtlich geringer als bei einem desktop. Notebooks liegen dazwischen mit Tendenz die eher auf desktop hw zeigen, aber es wird hier auch beschnittene hw integriert im Vergleich zum desktop.

Ganon
2015-11-30, 10:42:40
Braucht Apple momentan ueberhaupt etwas auf dem Leistungsniveau da es insgesamt immer noch billiger ist von Intel ganze chips einzukaufen?

Apple verkauft halt den Prozessor verpackt in einem iPad Pro als "Desktop Class". Und da braucht man sich über den ein oder anderen Beißreflex nicht wundern.

lumines
2015-11-30, 10:43:30
Wieso werden diese Erweiterungen, bei einem Benchmark, der Cross-Plattform-Vergleichbarkeit gewährleisten soll, überhaupt benutzt? Und wieso ist der Code im x86-Strang deutlich länger, was auf schwieriger auszuführenden Code hindeutet?

Mehr Zeilen deuten auf langsameren Code hin? Wäre mir neu. Das Konzept musst du einmal genauer erklären.

Und wie genau unterstützt es bitte die Vergleichbarkeit, wenn ich willkürlich Funktionen der CPU ausschließe?

Ich mein, es gibt einfach Sachen, die macht niemand ernsthaft in Software. Warum also überhaupt so vergleichen?

Das wird aber sehr sehr schnell ein Apfel-Birnen Vergleich. Oder warum haben wir alle keinen Grafikprozessor als Hauptprozessor? Immerhin ist der 10-20 mal schneller als eine CPU...

Ich verstehe nicht so genau den Bezug zu meinem Post.

Aber nur weil der fixed-function Part einer CPU jetzt ungewöhnlich schnell ist, sollte man nicht davon ausgehen, dass die ganze CPU schnell ist.

Das habe ich auch nie geschrieben.

Du versteifst dich gerade halt nur darauf, dass es natürlich sinnvoll ist einen oft genutzten Algorithmus mit fixed-function Hardware zu beschleunigen. Gut, dann darf man aber auch nur diesen Teil mit anderen CPUs vergleichen.

Man kann die Werte auch rausrechnen.

Ailuros
2015-11-30, 10:46:03
Apple verkauft halt den Prozessor verpackt in einem iPad Pro als "Desktop Class". Und da braucht man sich über den ein oder anderen Beißreflex nicht wundern.

Als was sollten sie den Rums denn sonst verkaufen? Fast einen tausender fuer ein smartphone auf steroids? Wir verstehen uns schon einander, aber diejenigen die quasi "unruhig" geworden sind mit dem Zeug haben wohl verpasst dass der Zug fuer Wintel schon lange abgefahren ist.

robbitop
2015-11-30, 10:52:15
Apple verkauft halt den Prozessor verpackt in einem iPad Pro als "Desktop Class". Und da braucht man sich über den ein oder anderen Beißreflex nicht wundern.
Die Frage ist, was "Desktop Class" meint. Wenn man jetzt natürlich auf seinen i7 mit 4,5 GHz denkt, ist Desktop Class natürlich überzogen.

Wenn man sich aber die µ-Arch und die IPC anschaut und die 64 bit ISA kann man es durchaus gelten lassen.
Gegen billig Desktops mit Dual Core Pentium/Celerons sicherlich vergleichbar.

Am Ende ist es eh nur "PR-Sprech". ;)

Ailuros
2015-11-30, 10:56:51
Ich wiederhole nochmal dass Demirug in diesem Forum betonte dass ULP SoCs generell zu heiss werden damit man anspruchsvolle Spiel dafuer entwickelt. Schoen man hat von der GPU heute peak TFLOP Werte von 512 GFLOPs FP32 bzw. 1 TFLOP FP16 im GM20b@Tegra X1. Rechnet man mit einer durchschnittlichen Auslastung von grob der Haelfte kann man schon etwas dementsprechendes dafuer entwickeln und es ist bei jeglichen anderen SoCs bzw. hw Bloecken auch nicht besonders anders, wobei man im vorigen Fall dann schon ein Geraet hat (Shield Android TV) welches eben NICHT auf Batterie laeuft.

Die Frage ist, was "Desktop Class" meint. Wenn man jetzt natürlich auf seinen i7 mit 4,5 GHz denkt, ist Desktop Class natürlich überzogen.

Wenn man sich aber die µ-Arch und die IPC anschaut und die 64 bit ISA kann man es durchaus gelten lassen.
Gegen billig Desktops mit Dual Core Pentium/Celerons sicherlich vergleichbar.

Am Ende ist es eh nur "PR-Sprech". ;)

Ich spekulierte vor Jahren dass in etwa mobile core i3 Nivaeu erreicht werden koennte, welches selbst Du damals nicht glauben wolltest. Um es klarer zu machen mit core i3 waren damals die CPU der ersten i3 Generation gemeint. Und clock fuer clock will ich ernsthaft bezweifeln dass meine "Schaetzung" (es basierte auch auf insider info) irgendwie daneben ist. Mann muss nur nicht vergessen dass ULP SoCs extrem seltener ihre maximalen Frequenzen benutzen.

Ganon
2015-11-30, 11:04:55
Die Frage ist, was "Desktop Class" meint. Wenn man jetzt natürlich auf seinen i7 mit 4,5 GHz denkt, ist Desktop Class natürlich überzogen.

Klar. Vllt. wünsche ich mir nur auch langsam mal wieder eine echte Konkurrenz für Intel. Denn nicht mal IBM mit ihren ultrateuren POWER8 CPUs kann Intels Core Architektur durchgängig schlagen.

Man sitzt halt da, einem ist selbst ein 4Ghz i7 zu langsam und nichts passiert xD Und dann kommt Apple mit so einem Popelchip an und redet von Desktop-Class :ugly:

Ich wiederhole nochmal dass Demirug in diesem Forum betonte dass ULP SoCs generell zu heiss werden damit man anspruchsvolle Spiel dafuer entwickelt.

Mir war so, als wenn die neuen Apple CPUs das nicht mehr tun. Also ihren Takt durchaus halten können.

Avalox
2015-11-30, 11:20:54
Ich glaube die CPU Kerne sind als solche nicht die thermische Herausforderung. problematischer sind die GPU Kerne des SoCs.

Ailuros
2015-11-30, 11:33:48
Mir war so, als wenn die neuen Apple CPUs das nicht mehr tun. Also ihren Takt durchaus halten können.

Sie konnten schon immer ihre peak Frequenzen einhalten. Dass heisst aber nicht dass sie Stunden bei 1.5GHz bei voller core Auslastung laufen werden. Man braucht auch eher selten so extravagante Frequenzen.

Ich glaube die CPU Kerne sind als solche nicht die thermische Herausforderung. problematischer sind die GPU Kerne des SoCs.

Gilt ausschliesslich unter 3D eben weil nur relativ wenige CPU cores zum Einsatz kommen und bei ziemlich maessigen durchschnittlichen Frequenzen. Kishonti's GPU bound benchmarks laufen hautsaechlich mit nur einem A7 core auf einem big.LITTLE Gespann und nicht mehr als ~800MHz. Kein Wunder dass dann diejenigen SoCs die mit extravaganten Frequenzen ankommen auch mehr throtteln auf Dauer.

Ausserhalb von 3D: heutige GPUs lassen nur einen geringen Block der insgesamten GPU eingeschaltet. Es wuerde mich verdammt wundern wenn der 7420 z.B. ausserhalb von 3D mehr als 2 clusters bzw. 2 TMUs aktiv laesst. Die restlichen clusters gehen zum Tiefschlaf und die Frequenz ist selten ueber 200-300MHz je nach Fall. Dieses gegen Gigahertz Frequenzen zu vergleichen grenzt schon an die Laecherlichkeit. Die Merhzahl der minimalen Frequenzen unter Android und iOS liegen zwischen 400 und 500MHz je nach CPU.

Arnoldie
2015-11-30, 11:37:12
Davon abgesehen, dass es AFAIK keine nennenswerten AAA Spiele für Linux mit ARM Unterstützung gibt? ;)

Ich sage, ein Twister hat vergleichbare taktnormierte Leistung wie ein Core.

Twister kann natürlich nicht so hoch takten wie Intels Cores - ist eben eine echte ULP Architektur. Wenn du Intels Core aber auf den gleichen Takt festtackerst, sollten ähnliche Ergebnisse dabei herauskommen. (den Vergleich kann man eben nicht nachvollziehen, da die Apple Cores nur auf iOS laufen, ein vernünftiges Spiele OS - also Windows - kein ARM akzeptiert und den Apple SoCs auch entsprechendes I/O fehlt - z.B. PCI express - und es keine Windowstreiber für die SoC Komponenten gibt).

Taktraten sind halt immer eine Grundauslegung des Designs. Core skaliert halt sehr gut zwischen 15 und 95 W. Unter 15W verliert er unverhältnismäßig viel Takt (wenn man sustained Leistung abfordert) und krebst Core M schnell auf dem Basistakt rum. Die ARM Cores aus dem ULP Bereich fühlen sich genau dort wohl. Will man sie aber signifikant höher takten explodiert der Verbrauch exponentiell und der Takt geht nur wenig höher. Insofern würde ich A9x im Einsatzbereich ULP (also mit eingezwängtem TDP) was Perf/W angeht eher deutlich über Core M ansetzen.

Keiner der beiden kann zaubern. Es ist nur eine Auslegungsfrage. Über mehr als Faktor 10 (TDP) skalieren Designs eben nur schlecht.
Metro Last Light Redux zum Beispiel.

Das war Reductio ad absurdum von mir. Es ist einfach eine müssige Diskussion. Geekbench ist zwar schön und gut, aber man sollte die Butter bei die Fische lassen: So lange es keinen Desktop-ARM-PC gibt, sollte man einfach mit den Ergebnissen nicht herumwerfen.

Ailuros
2015-11-30, 11:41:35
Metro Last Light Redux zum Beispiel.

Das war Reductio ad absurdum von mir. Es ist einfach eine müssige Diskussion. Geekbench ist zwar schön und gut, aber man sollte die Butter bei die Fische lassen: So lange es keinen Desktop-ARM-PC gibt, sollte man einfach mit den Ergebnissen nicht herumwerfen.

So lange man einen desktop SoC nicht in ein ultra thin tablet quetschen kann um zu beweisen dass man es schwer lange nach der boot screen schaffft ist das obrige Argument genauso lahm wie dieses.

Ganon
2015-11-30, 11:44:19
Metro Last Light Redux zum Beispiel.

Das wird auf einem ARM-Prozessor sicher nicht starten ;)

@Ailuros

Was ist denn die TDP vom A9X? Gibt es da Aussagen?

robbitop
2015-11-30, 11:59:06
Ich wiederhole nochmal dass Demirug in diesem Forum betonte dass ULP SoCs generell zu heiss werden damit man anspruchsvolle Spiel dafuer entwickelt. Schoen man hat von der GPU heute peak TFLOP Werte von 512 GFLOPs FP32 bzw. 1 TFLOP FP16 im GM20b@Tegra X1. Rechnet man mit einer durchschnittlichen Auslastung von grob der Haelfte kann man schon etwas dementsprechendes dafuer entwickeln und es ist bei jeglichen anderen SoCs bzw. hw Bloecken auch nicht besonders anders, wobei man im vorigen Fall dann schon ein Geraet hat (Shield Android TV) welches eben NICHT auf Batterie laeuft.


Volle Zustimmung. Die Apple SoCs halten im Vergleich mit den anderen ULPs die Taktraten sustained vergleichsweise gut. Aber eines ist klar. Es wird warm, der Takt geht dennoch etwas zurück und der Akku ist ruck-zuck alle. :D

Beim iPad Pro ist es sicherlich nicht ganz so arg - aber prinzipiell muss man konstatieren, dass ULP SoCs eher für Peak als Sustained ausgelegt sind.


Ich spekulierte vor Jahren dass in etwa mobile core i3 Nivaeu erreicht werden koennte, welches selbst Du damals nicht glauben wolltest. Um es klarer zu machen mit core i3 waren damals die CPU der ersten i3 Generation gemeint. Und clock fuer clock will ich ernsthaft bezweifeln dass meine "Schaetzung" (es basierte auch auf insider info) irgendwie daneben ist. Mann muss nur nicht vergessen dass ULP SoCs extrem seltener ihre maximalen Frequenzen benutzen.
Asche über mein Haupt. Ich hatte damals einfach Unrecht. Ich konnte mir nicht vorstellen, dass Apple das schafft. Zu unserem Erstaunen kam es völlig anders. :)

Klar. Vllt. wünsche ich mir nur auch langsam mal wieder eine echte Konkurrenz für Intel. Denn nicht mal IBM mit ihren ultrateuren POWER8 CPUs kann Intels Core Architektur durchgängig schlagen.

Man sitzt halt da, einem ist selbst ein 4Ghz i7 zu langsam und nichts passiert xD Und dann kommt Apple mit so einem Popelchip an und redet von Desktop-Class :ugly:

Dummerweise nimmt die Marktrelevanz dafür einfach ab und die Gewinnmarge für Apple ist in ihren ULP Devices einfach extrem hoch. Wenn Apple es wollte (bzw es sich für sie lohnen würde) würden sie es sich hinbekommen, mittelfristig Desktop CPUs zu entwickeln, die mit Intels Cores mithalten könnten.


Metro Last Light Redux zum Beispiel.

Das war Reductio ad absurdum von mir. Es ist einfach eine müssige Diskussion. Geekbench ist zwar schön und gut, aber man sollte die Butter bei die Fische lassen: So lange es keinen Desktop-ARM-PC gibt, sollte man einfach mit den Ergebnissen nicht herumwerfen.
Es ist für die Diskussionen von µ-Archtekturen durchaus sinnvoll, bestehende (wenn auch plattformübergreifende) Benchmarks zur Betrachtung zurate zu ziehen.
Einen echten 1:1 Vergleich wird es nicht geben. Das sollte aber zumindest die Diskussionen über verschiedene µ-Archs nicht behindern.

Letztenendes kann man die Leistungsfähigkeit im Vergleich nicht präzise quantifizieren - da gebe ich dir Recht. Aber man kann schon ein ungefähres Leistungsniveau abschätzen.

Ich bezweifle übrigens, dass Metro Last Light Redux eine Unterstützung für die ARM ISA hat.

Arnoldie
2015-11-30, 13:51:56
Weil das so schön (OT) ist:
NVIDIA's Tegra X1 Delivers Stunning Performance On Ubuntu Linux (http://www.phoronix.com/scan.php?page=article&item=nvidia-tegra-x1&num=1)

Ganon
2015-11-30, 13:57:32
Wenn das Teil nicht $600 kosten würde, würde ich sowas gerne zum rumprobieren haben :D

Ailuros
2015-11-30, 14:02:01
Das wird auf einem ARM-Prozessor sicher nicht starten ;)

@Ailuros

Was ist denn die TDP vom A9X? Gibt es da Aussagen?

Keine Ahnung, aber es wuerde mich verdammt wundern wenn das Ding bei rein theoretischem peak "nur" 10 oder 15W verbrauchen wuerde; mich wuerde selbst 35W nicht ueberraschen denn TDP wird leider viel zu oft falsch verstanden. In Echtzeit muessen sie schon meistens unter die 10W Grenze drosseln IMO.

Wenn man das OT des Tegra X1 links innerhalb der Diskussion hier benutzt, dann verbraucht nach NVIDIA Android TV auch meistens "unter 10W" wobei es nicht wirklich ein mobiles Geraet ist wenn es konstant in der Steckdose steckt. IMHO auch der Grund warum NV den A53 quad abgeschaltet hat; ihr eigener interconnect erlaubt kein GTS ergo wuerde der quad nichts besonderes mehr bringen da dier Verbrauchs-Unterschied zwischen A57 und A53 cores nicht mehr so gross ist wie frueher (A7 vs. A15).

Wenn das Teil nicht $600 kosten würde, würde ich sowas gerne zum rumprobieren haben.

Im Link oben steht drin dass der MSRP je nach Fall bei $199 oder $299 liegt.

Weil das so schön (OT) ist:
NVIDIA's Tegra X1 Delivers Stunning Performance On Ubuntu Linux (http://www.phoronix.com/scan.php?page=article&item=nvidia-tegra-x1&num=1)

Was soll uns genau ein standard ARM quad A57@2.0GHz peak genau sagen? Wenn man trollen will ist der link ideal; sonst fehlt hier total die Relevanz.

Ganon
2015-11-30, 14:12:35
Im Link oben steht drin dass der MSRP je nach Fall bei $199 oder $299 liegt.


http://www.anandtech.com/show/9779/nvidia-announces-jetson-tx1-tegra-x1-module-development-kit

Also falls es da noch andere Varianten gibt... kA, aber das Board kostet halt so viel.

Ailuros
2015-11-30, 14:16:56
http://www.anandtech.com/show/9779/nvidia-announces-jetson-tx1-tegra-x1-module-development-kit

Also falls es da noch andere Varianten gibt... kA, aber das Board kostet halt so viel.

Das devboard ergo Jetson X1 schon; Shield Android TV kostet aber so viel wie oben erwaehnt. Wusste ja nicht dass Du es fuer quasi Entwicklung brauchst.

Ganon
2015-11-30, 14:25:54
Das devboard ergo Jetson X1 schon; Shield Android TV kostet aber so viel wie oben erwaehnt. Wusste ja nicht dass Du es fuer quasi Entwicklung brauchst.

Es geht mir mehr darum die CPU "für die eigene Nutzung" zu haben und nicht in irgend einem bis in alle Ecken gelockten System. D.h. ich würde gerne mein ArchLinux drauftun und rumprobieren.

Gut, ich weiß jetzt nicht wie "offen" diese Shield Systeme so sind. Ansonsten hat man dafür meist nur diese Raspberry Pi + Variationen für diese Aufgaben und das sind oft alles andere als High End CPUs.

Ailuros
2015-11-30, 14:41:31
Es geht mir mehr darum die CPU "für die eigene Nutzung" zu haben und nicht in irgend einem bis in alle Ecken gelockten System. D.h. ich würde gerne mein ArchLinux drauftun und rumprobieren.

Gut, ich weiß jetzt nicht wie "offen" diese Shield Systeme so sind. Ansonsten hat man dafür meist nur diese Raspberry Pi + Variationen für diese Aufgaben und das sind oft alles andere als High End CPUs.

Wir sind zwar zu weit OT aber NV wird bald ein Shield tablet mit X1 veroeffentlichen. Fuer die CPU ist wieder hoechstwahrscheinlich nur der A57 eingeschaltet bei 1.9GHz und die GPU duerfte auf 800-830MHz takten (anstatt 1GHz in der Shield set top box). Beim tablet sollte es schon moeglich sein http://www.computerbase.de/2015-11/shield-tablet-x1-daten-und-benchmarks-zum-k1-nachfolger/

----------------------
Back on topic: etwas mehr von Anandtech fuer die L3 cache im A9: http://www.anandtech.com/show/9825/correcting-a9s-l3-cache

IVN
2015-12-01, 00:18:32
Mehr Zeilen deuten auf langsameren Code hin? Wäre mir neu. Das Konzept musst du einmal genauer erklären.
Kein Problem. Gehen wird von einem hypothetischen "IVN-Bench" aus, der sowohl auf ARM als auch x86 läuft. Sobald eine ARM-CPU erkannt wird, bencht dieser Benchmark wie lange die CPU braucht um 1 Mio. mal 1+1 zu berechnen. Sobald eine x86-CPU erkannt wird, ermittelt der Benchmark wie lange diese braucht um 1 Mio. mal 1:1+1 zu berechnen. So wird durch praktisch triviale Code-Verlängerung eine Architektur enorm benachteiligt. Besonders da gewisse Rechenschritte, wie etwa Teilung, sehr lange brauchen.

Und wie genau unterstützt es bitte die Vergleichbarkeit, wenn ich willkürlich Funktionen der CPU ausschließe?

Ich mein, es gibt einfach Sachen, die macht niemand ernsthaft in Software. Warum also überhaupt so vergleichen?
Es gibt einfach Sachen, die macht niemand ernsthaft...und Punkt. Außer den Freaks in PC-Foren nutzt kein gewöhnlicher User Verschlüsselung am PC. Von daher ist es egal ob die CPU das in SW oder HW macht. Es ist schön, dass ARM-CPUs das praktisch nebenbei machen können, juckt mich das aber, wenn ich einfach ein Device brauche, welches schnell ist? Kann der A9(X) mit Fixed-Function meine Spiele oder Programme beschleunigen? Nein? Was hat das dann in einem general-purpose Cross-Plattform-Benchmark zu suchen?

Novum
2015-12-01, 00:43:27
Wo kann man den Code denn sehen? Wuerde gerne mal nen Blick drauf werfen.

lumines
2015-12-01, 09:08:42
Kein Problem. Gehen wird von einem hypothetischen "IVN-Bench" aus, der sowohl auf ARM als auch x86 läuft. Sobald eine ARM-CPU erkannt wird, bencht dieser Benchmark wie lange die CPU braucht um 1 Mio. mal 1+1 zu berechnen. Sobald eine x86-CPU erkannt wird, ermittelt der Benchmark wie lange diese braucht um 1 Mio. mal 1:1+1 zu berechnen. So wird durch praktisch triviale Code-Verlängerung eine Architektur enorm benachteiligt. Besonders da gewisse Rechenschritte, wie etwa Teilung, sehr lange brauchen.

Eine exponentiell wachsende Funktion wäre noch viel langsamer in wenigen Zeilen Code. Nur als einfaches Gegenbeispiel.

Die Länge des Codes sagt vielleicht etwas über das Laufzeitverhalten aus, wenn die Komplexität der berechneten Funktionen gleich ist. Aber das ist schon eine seltsame Annahme über Code, den man nicht einmal kennt.

Es gibt einfach Sachen, die macht niemand ernsthaft...und Punkt. Außer den Freaks in PC-Foren nutzt kein gewöhnlicher User Verschlüsselung am PC. Von daher ist es egal ob die CPU das in SW oder HW macht.

Andersrum wirst du kein iOS-Gerät finden, das keine Vollverschlüsselung aktiv hat.

Ailuros
2015-12-09, 20:40:09
http://www.fudzilla.com/news/graphics/39417-apple-building-a-gpu

Fudo hat wohl zu wenig hits in der letzten Zeit, ergo muss er dafuer Sorgen dass seine Dummheit dafuer etwas hilft :freak:

Arnoldie
2015-12-09, 21:10:38
http://www.fudzilla.com/news/graphics/39417-apple-building-a-gpu

Fudo hat wohl zu wenig hits in der letzten Zeit, ergo muss er dafuer Sorgen dass seine Dummheit dafuer etwas hilft :freak:
Er hätte wenigstens schreiben können, dass das Orlando-Team aus ehemaligen AMD-Mitarbeitern eine geheime eigene GPU-Lösung entwickeln (für alle Fälle und so).

Novum
2015-12-09, 21:17:55
http://www.fudzilla.com/news/graphics/39417-apple-building-a-gpu

Fudo hat wohl zu wenig hits in der letzten Zeit, ergo muss er dafuer Sorgen dass seine Dummheit dafuer etwas hilft :freak:
Wieso ist das so unwahrscheinlich? Bei den CPUs haben sie es doch auch bis zum letzten Moment geheim gehalten.

Arnoldie
2015-12-09, 21:21:54
Wieso ist das so unwahrscheinlich? Bei den CPUs haben sie es doch auch bis zum letzten Moment geheim gehalten.
Such mal diesen Thread nach "Orlando" durch. :biggrin:

Apple hat definitiv eine Exit-Strategie, aber Intel ist so ein Beispiel: Egal, wie groß du bist und wie viel Geld du hast, einen guten Grafikchips kriegst du einfach so nicht hin.

Novum
2015-12-09, 21:40:37
Ich weiss nicht ob das bei Intel nicht auch was mit dem Willen zu tun hat. Aber kann schon sein.

Ailuros
2015-12-10, 07:46:16
Such mal diesen Thread nach "Orlando" durch. :biggrin:

Apple hat definitiv eine Exit-Strategie, aber Intel ist so ein Beispiel: Egal, wie groß du bist und wie viel Geld du hast, einen guten Grafikchips kriegst du einfach so nicht hin.

Ich traue es Apple schon zu dass sie etwas schaffen koennten, die Frage ist lediglich ob es wirklich die resources am Ende dafuer wert ist. Wenn dann waere es fuer irgendwelche daemliche "Einzigartigkeit" die sie ohnehin schon quasi haben, denn ausser ihnen integriert sowieso kein anderer so grosses GPU IP.

Ich weiss nicht ob das bei Intel nicht auch was mit dem Willen zu tun hat. Aber kann schon sein.

Viel zu viel Buerokratie ;)

Ravenhearth
2015-12-10, 10:20:49
An Apples Stelle würd ich noch eher Imagination kaufen, wenns unbedingt sein muss, die Firma ist an der Börse zZ keine Milliarde wert. Das Bezahlen die doch aus der Portokasse.

smalM
2015-12-10, 10:38:52
Sie sind schon der größte Aktionär und mit weitem Abstand der größte Kunde.
Wenn Apple hopp sagt, springt IM. Wozu dann den Laden kaufen?

Ravenhearth
2015-12-10, 11:09:51
Hab ja nicht gesagt, dass ich es sinnvoll fände ;)

robbitop
2015-12-10, 11:11:50
http://www.fudzilla.com/news/graphics/39417-apple-building-a-gpu

Fudo hat wohl zu wenig hits in der letzten Zeit, ergo muss er dafuer Sorgen dass seine Dummheit dafuer etwas hilft :freak:

Was spricht denn dagegen? Ja IMG verkauft ihre Lizenzen sehr günstig. Aber das gleiche gilt auch für ARMs CPU Lizenzen. Stückzahlen sind bei Apple ja gegeben. Eine custom GPU wäre ggf. eine weitere Differenzierungsmöglichkeit.
GPUs sind sicherlich kein Zuckerschlecken hinsichtlich der Entwicklung - das sind CPUs aber auch nicht.

Will nicht sagen, dass etwas an dem was Fudo sagt, dran sein muss. Aber völlig abwegig wäre es nicht IMO.


Apple hat definitiv eine Exit-Strategie, aber Intel ist so ein Beispiel: Egal, wie groß du bist und wie viel Geld du hast, einen guten Grafikchips kriegst du einfach so nicht hin.
Eine gute CPU (gemessen an den Intel Cores) bekommt man ebenso wenig mal eben hin. Es ist eine Frage der Mannschaft und der bestehenden Patentsituation - AMD und NV haben sich viele Dinge patentieren lassen, um die man kaum/schwer herumkommt. Aber auch das gilt für CPUs.

An Apples Stelle würd ich noch eher Imagination kaufen, wenns unbedingt sein muss, die Firma ist an der Börse zZ keine Milliarde wert. Das Bezahlen die doch aus der Portokasse.
Wäre eine Möglichkeit. Aber auch IMG ist nicht unbedingt der Nabel der Welt. Man sieht bspw. an Maxwell V2 dass Prozess/Transistor und Powernormiert dort kaum etwas herankommt.
Mich würde es nicht wundern, wenn NVs nächster Tegra der dann auch auf 16ff produziert wird mehr Perf/W (bei vermutlich aber übertriebenen Powerbudget!) A9X überlegen sein wird.
Ja die Tegras verbraten zu viel Strom mit ihren GPUs. Aber wenn man weniger aggressiv mit dem Takt wäre, würde es mich nicht wundern, dass sie bei vergleichbarem Powerbudget mehr Performance liefern würden als Serie 7.

Das gilt nur als Beispiel, dass durchaus noch Potenzial besteht.

Ailuros
2015-12-10, 11:28:00
An Apples Stelle würd ich noch eher Imagination kaufen, wenns unbedingt sein muss, die Firma ist an der Börse zZ keine Milliarde wert. Das Bezahlen die doch aus der Portokasse.

Apple hat genug Milliarden um selbst ARM zu kaufen. Wieso es nicht moeglich ist, ist eigentlich selbstverstaendlich.


Was spricht denn dagegen? Ja IMG verkauft ihre Lizenzen sehr günstig. Aber das gleiche gilt auch für ARMs CPU Lizenzen. Stückzahlen sind bei Apple ja gegeben.

Samsung bezahlt weniger fuer ARM GPU IP dank bundle deals. Was dagegen spricht? Vieles. U.a. hat Apple einen sehenswerten Einfluss auf IMG's roadmap.

Sonst: je hoeher die Stueckzahlen desto hoeher der Einfluss des Kunden und desto kleiner der pro IP core royalty Preis.

Eine custom GPU wäre ggf. eine weitere Differenzierungsmöglichkeit.

A8X und A9X haben schon custom GPUs, ausser Du glaubst dass es ein Kinderspiel ist N IP zu spiegeln.

GPUs sind sicherlich kein Zuckerschlecken hinsichtlich der Entwicklung - das sind CPUs aber auch nicht.

Schoen, warum entwickelt dann Apple keine x86 CPU?

Will nicht sagen, dass etwas an dem was Fudo sagt, dran sein muss. Aber völlig abwegig wäre es nicht IMO.

Rein zufaellig hatten wir vor einer Ewigkeit genau die gleiche Debatte und was dabei herauskam steckt in A8X/A9X.

Eine gute CPU (gemessen an den Intel Cores) bekommt man ebenso wenig mal eben hin. Es ist eine Frage der Mannschaft und der bestehenden Patentsituation - AMD und NV haben sich viele Dinge patentieren lassen, um die man kaum/schwer herumkommt. Aber auch das gilt für CPUs.

Auch IMG hat einen Haufen Patente, ebenso wie ARM und auch etliche kleine Schmieden.

Wäre eine Möglichkeit. Aber auch IMG ist nicht unbedingt der Nabel der Welt. Man sieht bspw. an Maxwell V2 dass Prozess/Transistor und Powernormiert dort kaum etwas herankommt.

Nicht schon wieder....wieviele Transistoren hat denn die eine oder andere Loesung genau Deiner Meinung nach genau?

Mich würde es nicht wundern, wenn NVs nächster Tegra der dann auch auf 16ff produziert wird mehr Perf/W (bei vermutlich aber übertriebenen Powerbudget!) A9X überlegen sein wird.

Wie passt "mehr" perf/W mit einem uebetriebenen powerbudget in den gleichen Satz und wieso muessen wir wieder den gleichen Scheiss durchkauen? Nochmal zum mitlesen der Abstand in die area fuer das gesamte Paket zwischen DX10.0 und DX11.1 ist ziemlich gross.

Apple iPad Air2 OpenGL Manhattan 3.0 offscreen: 40,0 fps @533MHz
Google Pixel C OpenGL Manhattan 3.0 offscreen: 54,0 fps @850MHz

Das erste wuerde bei 850MHz peak ueber 60 fps liefern; unter Metal dann knapp unter 70.

Ja die Tegras verbraten zu viel Strom mit ihren GPUs. Aber wenn man weniger aggressiv mit dem Takt wäre, würde es mich nicht wundern, dass sie bei vergleichbarem Powerbudget mehr Performance liefern würden als Serie 7.

Sie haben aggressivere DVFS settings, aber dafuer sind alle Tegra GPU Bloecke auch fuer sehr hohe Frequenzen optimiert. Im Normalfall throtteln die Dinger nicht mehr als die hypothetische Toleranz-Grenze von ~20%. So lange wir keine DX11.x S7 IMG GPU zum Vergleich haben, ist es fuer NVIDIA ueberhaupt unfair Aepfel mit Birnen zu vergleichen.

Das gilt nur als Beispiel, dass durchaus noch Potenzial besteht.

Dann haette Apple schon seit einer Ewigkeit IP von NVIDIA lizenziert, wenn perf/W besser waere.

Arnoldie
2015-12-10, 12:29:12
Lassen wir doch den Kinderkramm:

Kann Apple eine GPU entwickeln, die von einem ULP bis zu einem Mac Pro eingesetzt werden kann? Wenn Apple erst gar nicht vor hat, eine solche GPU zu entwickeln, dann lohnt sich die Diskussion über eine hypothetische GPU von Apple gar nicht.

Ailuros
2015-12-10, 12:43:06
Lassen wir doch den Kinderkramm:

Kann Apple eine GPU entwickeln, die von einem ULP bis zu einem Mac Pro eingesetzt werden kann? Wenn Apple erst gar nicht vor hat, eine solche GPU zu entwickeln, dann lohnt sich die Diskussion über eine hypothetische GPU von Apple gar nicht.

Afaik haben die GPU engineers (es sind uebrigens nur die groessten ex Orlando team Talente die eingestellt wurden und nicht das ganze Team....) alle Haende voll die GPU IP so schnell wie moeglich zu integrieren und auch u.a. fuer tablet SoCs die IP zu spiegeln. Wenn man beobachtet wie schnell neue GPU IP von Apple integriert wird und wie lange es dauert bis andere Hersteller IP von der gleichen Familie zu integrieren ist die Antwort leicht. Wir haben heute smartphones mit GT7600/Series7XT und von der gleichen IP Familie werden wohl dual cluster GT7200/7XT wenn ich mich nicht irre nicht vor Mitte 2016 in Geraeten erscheinen.

Theoretisch koennte Apple vieles, aber der einzige Punkt wo Fudo recht hat ist dass so lange das Resultat jeglicher Forschung nichts wert ist, das Projekt fuer uns eigentlich nicht wirklich existiert.

robbitop
2015-12-10, 13:12:28
A8X und A9X haben schon custom GPUs, ausser Du glaubst dass es ein Kinderspiel ist N IP zu spiegeln.
Ich meinte eher eine eigene µ-Architektur. Ist es bereits bekannt, dass im A9X seitens Apple die Spiegelung vorgenommen wurde? Eine andere Möglichkeit wäre ggf. dass IMG gleich eine entsprechende Skalierung selbst für Apple vorgenommen hat.


Schoen, warum entwickelt dann Apple keine x86 CPU?
Das dürfen mWn nur Intel, AMD und VIA.
Die Frage wäre auch, ob sich das bei den Stückzahlen im Laptopmarkt bei Apple lohnen würde.

Deren ULP Schine hingegen bietet sehr hohe Stückzahlen bei gleichzeitig sehr hoher Marge.



Rein zufaellig hatten wir vor einer Ewigkeit genau die gleiche Debatte und was dabei herauskam steckt in A8X/A9X.
Und das ist auch schon sehr beeindruckend!



Auch IMG hat einen Haufen Patente, ebenso wie ARM und auch etliche kleine Schmieden.
Ja richtig. Die natürlich eingeschlossen. Je später man "zur Party" kommt, desto mehr Lösungsansätze sind über Patente abgedeckt und desto schwieriger ist es, ohne Patentverletzungen eine eigene µ-Arch hinzubekommen, die daraus keinen signifikanten Schaden zieht.



Nicht schon wieder....wieviele Transistoren hat denn die eine oder andere Loesung genau Deiner Meinung nach genau?
Mir liegen leider keine Zahlen vor. Tegra X1 und A8X haben einen vergleichbaren Fertigungsprozess und sicherlich halbwegs vergleichbare Packdichten. X1 ist deutlich kleiner. Wieviel davon aber auf die GPU zurückfällt, ist mir nicht bekannt.

Tegras leben auch von hohen Taktraten (auf Kosten der TDP das ist klar!).



Wie passt "mehr" perf/W mit einem uebetriebenen powerbudget in den gleichen Satz und wieso muessen wir wieder den gleichen Scheiss durchkauen? Nochmal zum mitlesen der Abstand in die area fuer das gesamte Paket zwischen DX10.0 und DX11.1 ist ziemlich gross.


Apple iPad Air2 OpenGL Manhattan 3.0 offscreen: 40,0 fps @533MHz
Google Pixel C OpenGL Manhattan 3.0 offscreen: 54,0 fps @850MHz

Das erste wuerde bei 850MHz peak ueber 60 fps liefern; unter Metal dann knapp unter 70.
Da hast du sicherlich Recht.

Andererseits könnte man das Design aber auch breiter machen und niedriger takten. Ich habe die Vermutung, dass die GPU im X1 deutlich keiner ist als die GPU im A8X.

Aber man kann hier nur spekulieren, wie sich was auswirken würde. Meiner Meinung nach verliert NV überproportional viel perf/W durch unnötig hohe Taktraten.



So lange wir keine DX11.x S7 IMG GPU zum Vergleich haben, ist es fuer NVIDIA ueberhaupt unfair Aepfel mit Birnen zu vergleichen.
Ja das stimmt. Man müsste Tegra Next gegen A9X vergleichen und dabei idealerweise Kenntnis der Transistorzahlen und der Verbrauchscharakteristik vorliegen haben.



Dann haette Apple schon seit einer Ewigkeit IP von NVIDIA lizenziert, wenn perf/W besser waere.
Nicht, wenn man eventuell vorhat mittelfristig eigene GPUs zu entwerfen.
Gegebenenfalls sprechen auch andere Gründe gegen NV IP. Ggf. ist NV nicht so flexibel wie IMG und tut alles, um ihren Lizenzkunden glücklich zu machen. Da ist IMG schon vorbildlich - zumindest was ihren größten Kunden angeht.

Ailuros
2015-12-10, 13:44:51
Ich meinte eher eine eigene µ-Architektur.

Sehr viel mehr "custom" laesst GPU IP unter normalen Umstaenden nicht zu.

Ist es bereits bekannt, dass im A9X seitens Apple die Spiegelung vorgenommen wurde? Eine andere Möglichkeit wäre ggf. dass IMG gleich eine entsprechende Skalierung selbst für Apple vorgenommen hat.

Wofuer es im letzten Fall keinen logischen Grund geben wuerde dass IMG keine 12 cluster Variante als IP anbietet. Ohne jegliche guidelines vom IP provider geht es sowieso nie egal welches IP oder wo, aber so weit ich weiss hatten die paar ex Orlando Kerle u.a. den GX6450 fuer A8X gespiegelt. Wieso soll es beim A9X anders sein?

Um es klarer zu machen: es war Charlie der von irgend jemand AMD gehoert hatte dass in etwa zu Apple A5 Zeiten die groessten engineering Talente vom ex Orlando team bei Apple eingestellt wurden. Er wollte damals Gift drauf nehmen dass fruehestens bei der achten und spaetens bei der neunten A SoC Generation Apple eine VOLLE eigene GPU haben wird. Faellt der Groschen bei A8 bzw. A9 oder ist es klar genug so? Charlie und co. haben ausgezeichnete Quellen, es hapert leider oefters bei der Interpretation von diversen hints. Fudo ist nur ein bloeder Papagei der von der Materie sowieso nicht die blasseste Ahnung hat.

Charlie hatte auch Gift davor geschluckt dass QCOM IMG GPU IP lizenziert hat weil die ersten unfaehig wahren eine DX11 GPU zu entwickeln. QCOM hat tatsaechlich mit IMG verhandelt, hat auch bei IMG fett lizenziert nur leider handelte es sich um Ensigma IP fuer ihre heutigen Atheros chips.

Das dürfen mWn nur Intel, AMD und VIA.
Die Frage wäre auch, ob sich das bei den Stückzahlen im Laptopmarkt bei Apple lohnen würde.

Es ist ein sehr grosser Fehler bei solchen Hypothesen heute Apple zweischienig zu betrachten; haben sie langfristig X geplant dann lohnt es sich nur eigentlich fuer alles.

Deren ULP Schine hingegen bietet sehr hohe Stückzahlen bei gleichzeitig sehr hoher Marge.

....und auch verdammt hohen Entwicklungskosten wobei der tablet Markt (wo die SoCs auch am teuersten sind) irgendwann zur fraglichen Investition werden koennte.

Ja richtig. Die natürlich eingeschlossen. Je später man "zur Party" kommt, desto mehr Lösungsansätze sind über Patente abgedeckt und desto schwieriger ist es, ohne Patentverletzungen eine eigene µ-Arch hinzubekommen, die daraus keinen signifikanten Schaden zieht.

Egal was Apple fuer eine GPU entwickeln wuerde, es waeren mit aller Wahrscheinlichkeit nicht nur die Entwicklungskosten sondern auch die unendlichen Patentklagen die sie womoeglich bewaeltigen muessen.

Mir liegen leider keine Zahlen vor. Tegra X1 und A8X haben einen vergleichbaren Fertigungsprozess und sicherlich halbwegs vergleichbare Packdichten. X1 ist deutlich kleiner. Wieviel davon aber auf die GPU zurückfällt, ist mir nicht bekannt.

Es gibt seit T3 keine die shots mehr (leider). Wieviel ist "deutlich" genau, denn ich kann mich nichtmal an ein anstaendiges Bild von einem X1 chip erinnern? Ohne Transistoren-Anzahl ist es auch nicht viel wert.

Andererseits könnte man das Design aber auch breiter machen und niedriger takten. Ich habe die Vermutung, dass die GPU im X1 deutlich keiner ist als die GPU im A8X.

Und wie sieht es dann mit der Packdichte eventuell aus? Transistoren-Anzahlen wuerden wirklich helfen, aber es gibt dafuer nichts. Waere es wirklich ein deutlicher Vorteil wuerde NV's marketing schon angeben. Du hast uebrigens 256 "skalare" FP32 SPs auf der A8 GPU und 512 FP16 ALUs, nur eben bei "nur" bis zu 533MHz.

Nur weil es mir keiner glauben wollte: Adreno 4xx zu Adreno 3xx hat einen overhead auf die Anzahl von clusters normalisiert von ueber 50%.

Aber man kann hier nur spekulieren, wie sich was auswirken würde. Meiner Meinung nach verliert NV überproportional viel perf/W durch unnötig hohe Taktraten.

War schon immer so; die Tegra3 GPU reichte bis auf 520MHz waehrend die gesamte Konkurrenz auf "nur" 200-350MHz herumtrottelte.


Nicht, wenn man eventuell vorhat mittelfristig eigene GPUs zu entwerfen.
Gegebenenfalls sprechen auch andere Gründe gegen NV IP. Ggf. ist NV nicht so flexibel wie IMG und tut alles, um ihren Lizenzkunden glücklich zu machen. Da ist IMG schon vorbildlich - zumindest was ihren größten Kunden angeht.

Alle IP providers schuften ziemlich viel fuer ihre Partner fuer wenig Geld. Dafuer ist IMG nicht gerade eine Aussnahme. Ist zwar OT, aber wenn IMG heute Samsung oder Mediatek nicht fuer kleinen IoT SoCs helfen wuerde, wuerden diese auch nicht besonders weiterkommen. Nur ein erfolgreiches Produkt kann die projezierten royalties reinholen und nein es ist eben nicht immer so dass ein dicker Name dafuer ausreicht. Einmal ja, aber der Kunde erinnert sich mehr an jeglichen Flop ueber die Jahre, als jeglichen Erfolg.

smalM
2015-12-11, 00:35:17
Hab ja nicht gesagt, dass ich es sinnvoll fände
:biggrin:

Es gibt seit T3 keine die shots mehr (leider). Wieviel ist "deutlich" genau, denn ich kann mich nichtmal an ein anstaendiges Bild von einem X1 chip erinnern?

Es gibt nur noch Photoshop statt Dieshot. Und diese Photshop-Bilder sind nicht etwa geschönte Abbildungen, sondern sie haben mit der Wirklichkeit absolut nichts zu tun.

Ailuros
2015-12-11, 08:22:37
Es gibt nur noch Photoshop statt Dieshot. Und diese Photshop-Bilder sind nicht etwa geschönte Abbildungen, sondern sie haben mit der Wirklichkeit absolut nichts zu tun.

Mich wundert es aber trotzdem warum chipworks nicht so einen chip auseinandernimmt. Gut mit Apple SoCs haben sie sich auch automatisch N klicks garantiert, aber es ist wiederrum auch nicht so dass wenn sie einen Tegra chip freilegen wuerden es kein Interesse dafuer geben wuerde.

Ailuros
2015-12-12, 20:35:39
Apple hat endlich OGL_ES3.1 Treiber nachgeliefert: https://gfxbench.com/result.jsp?benchmark=gfxgen&test=631&order=score&base=gpu&ff-check-desktop=0

Die A9 GPU (GT7600) ist um knapp unter 60% schneller als die A8X GPU (GX6850) in Manhattan 3.1 offscreen.

Sunrise
2015-12-28, 15:56:48
Apple hat endlich OGL_ES3.1 Treiber nachgeliefert: https://gfxbench.com/result.jsp?benchmark=gfxgen&test=631&order=score&base=gpu&ff-check-desktop=0

Die A9 GPU (GT7600) ist um knapp unter 60% schneller als die A8X GPU (GX6850) in Manhattan 3.1 offscreen.
Und der A9X ist doppelt so schnell wie der A9, was doch ein ziemlicher eindeutiger Hinweis auf dessen Konfiguration ist, sofern man nur der CPU mehr Taktspielraum gegeben hat.

Wäre dann etwa mit A8 und dem gespiegelten A8X vergleichbar. Gibt ja leider immer noch nichts Genaueres.

Arnoldie
2015-12-28, 16:10:44
Apple hat endlich OGL_ES3.1 Treiber nachgeliefert: https://gfxbench.com/result.jsp?benchmark=gfxgen&test=631&order=score&base=gpu&ff-check-desktop=0

Die A9 GPU (GT7600) ist um knapp unter 60% schneller als die A8X GPU (GX6850) in Manhattan 3.1 offscreen.
Irgendwie sehe ich nur Metal-Ergebnisse. Keine Ahnung, bin alt und müde.

Ailuros
2015-12-28, 16:48:20
Irgendwie sehe ich nur Metal-Ergebnisse. Keine Ahnung, bin alt und müde.

Es sind Metal gegen Metal Ergebnisse, ergo ein durchaus legitimer Vergleich (es gibt uebrigens noch keine ES3.1 OGL Resultate fuer iOS).

Manhattan 3.1 offscreen:

A9X = 55.2 fps
A9 = 28.2 fps
A8X = 17.7 fps

Hier ist die 6 cluster/A9 GPU um fast 60% schneller als die 8 cluster/A8X GPU bei gleicher Frequenz. A9X ist im Gegensatz um ueber 3x Mal schneller als A8X. Da muss IMG schon heftig sowohl front als auch back end aufgepumpt haben damit es zu solchen Ergebnissen kommt.

Und der A9X ist doppelt so schnell wie der A9, was doch ein ziemlicher eindeutiger Hinweis auf dessen Konfiguration ist, sofern man nur der CPU mehr Taktspielraum gegeben hat.

Kann sein dass ich mich irre, aber die A9X GPU koennte sogar "nur" auf <470MHz takten, waehrend die GT7600@A9 bei 533MHz. Das iPad PRO hat auch eine ziemlich grosse Bandbreite fuer ULP mobile Konstanten und steckt auch in einem ziemlich grossen Geraet im Vergleich zu einem 5.5" smartphone.

Wäre dann etwa mit A8 und dem gespiegelten A8X vergleichbar. Gibt ja leider immer noch nichts Genaueres.

Manhattan3.1 ist um einiges brutaler mit ALU Belastung als 3.0. Beim ersten macht alles bis zu Serie6XT eine ziemlich schlechte Figur im Vergleich zu anderen GPUs der Konkurrenz. Die A9 GPU ist hier um einen Faktor 3.4x schneller als die A8 GPU obwohl gleiche Frequenzen und 2 zusaetzliche cluster in der ersten. Genauer:

A9: 28.2 fps - 205 GFLOPs FP32 / 410 GFLOPs FP16
A8: 8.4 fps - 136 GFLOPs FP32 / 273 GFLOPs FP16
A7: 4.2 fps (28.2 / 4.2 = 6.7x) 136 GFLOPs FP32 / 205 GFLOPs FP16

Es wird leider womoeglich wieder eine Ewigkeit dauern bis wir OGL_ES3.2 Treiber von Apple sehen, aber ich bin verdammt neugierig wie all diese SoCs in Car chase bzw. im Tessellations-test in GFXbench abschneiden.

Kallenpeter
2016-01-11, 21:23:52
Mir ist die Tage mal ein Gedanke gekommen:

Nachdem Apples Pläne für eine embedded (on-chip) Sim-Karte vor ein paar Jahren noch von den Providern abgelehnt wurden, haben die Netzbetreiber ja inzwischen eingelenkt und erkannt das die Vorteile (IoT, einfach buchbare Datenpakete, einfacher Handhabbar, weniger Support...) den Nachteil (Einfacherer Anbieterwechsel, aus Providersicht) überwiegen.

In diesen Zusammenhang könnte man ja durchaus die Gerüchte sehen, welche besagen das Apple an einen in-House Baseband Chip arbeitet. Wenn man den dann zusammen mit einer e-sim in die SoC packt (A10, A11?...), wäre es für Nutzer ohne Probleme möglich einen bestehenden Vertrag auf mehrere Geräte auszuweiten oder mehrere Datenpakete zu buchen etc.

Das wäre auch aus Apples Sicht ein weiteres Argument die Mac auf ARM zu switchen.

YfOrU
2016-01-22, 15:56:20
Sehr spät aber dafür auch sehr ausführlich: The Apple iPad Pro Review http://www.anandtech.com/show/9766/the-apple-ipad-pro-review

Ailuros
2016-01-25, 09:48:35
Sehr spät aber dafür auch sehr ausführlich: The Apple iPad Pro Review http://www.anandtech.com/show/9766/the-apple-ipad-pro-review

Ergo ist der A9X um ca. 46mm2 groesser als A9, wobei man die fehlende L3 cache im ersten abrechnen sollte und vielleicht noch einen Furz fuer die hoeheren Twister Frequenzen und man bekommt in etwa wieviel mm2 eine GT7600 unter 16FF+ einnimmt.

Um ehrlich zu sein hatte ich sogar mehr als 147mm2 fuer den A9X erwartet.

Sunrise
2016-01-25, 10:53:25
Der A9X hat ein paar Überraschungen gebracht, wobei die Vermutung mit den verdoppelten GPU-Clustern ja richtig war. Das scheint mittlerweile auch der am Besten abschätzbare Teil der Tablet-SoCs zu sein, solange Apple bei IMGTec bleibt.

Anandtech hat übrigens eine Spekulation zum L3-Cache nicht erwähnt. Denn wenn dieser wirklich so dicht packbar ist wie Anandtech schreibt, dann halte ich den wahrscheinlichsten Grund für das Weglassen aufgrund der Anandtech-Analyse, dass Apple diesen sich für den A10X aufgehoben hat und dann auch wieder einführen wird.

Damit hätten sie noch etwas Spielraum sowohl für etwas Einsparpotential beim Energieverbrauch als auch eine noch etwas bessere Leistung. Das ist der IMHO naheliegendste Grund.

Dass der A9X nur zwei Kerne hat ist überaus beeindruckend. Denn mit vier solcher Kerne ist das Teil (im Vergleich zu Quadcore-SoCs von Intel) sicher bei vielen Aufgaben mehr als nur ebenbürtig, vor allem beim Stromverbrauch. So ein Ding würde sämtliche Multi-Core-Resultate (zumindest im Sinne theoretischer Benchmarks) sprengen.

robbitop
2016-01-26, 11:23:36
Das erste Gerät mit Cortex A72 (Kirin 950 SoC 16nm 2,3 GHz) ist reviewt worden.
Die Performance ggü A57 ist enttäuschend. Das Mate 8 mit A72 ist nur 14% schneller im GB3 Single Core als das Galaxy S6+ (Exynos 7 mit 2,1 GHz A57). Das sind taktnormiert nichteinmal 5 % mehr Leistung. Wenn hier nicht irgendetwas gewaltig klemmt, scheint der A72 nur ein optimierter A57 zu sein (Energieeffizienz und ein wenig mehr IPC). Die µ-Arch sah, wenn ich mich an den Report von Anand korrekt errinnere, kaum anders aus als beim A57. Die zeitlich sehr zeitnahe Veröffentlichung nach A57 spricht ebenfalls dafür. Auch dass Samsung zum Exynos 8 ihr eigenes Design bringt und den A72 nicht berücksichtigt wirft kein gutes Licht auf die µ-Arch (gemessen an den neuen und dieses Jahr noch erscheinenden Custom Cores - Kryos/M1).

Für A10/A10X wird vermutlich kein neuer Herstellungsprozess zur Verfügung stehen. Höchstens optimierte/gereiftere 14/16nm FinFet Prozesse. Wobei ich darauf tippe, dass die TSMC Version des A9 bereits in 16FF+ gefertigt ist. Also muss der Vorteil beim A10/10X größtenteils aus dem Design kommen. L3 macht, wie sunrise sagt, absolut Sinn. Ich persönlich tippe beim A10 (spätestens A11) auch über die Nutzung von SMT. Sowohl Front-End als auch Execution sind bei den Wirbelstürmen so breit, dass es sicherlich etwas bringen sollte. Zen sieht den Wirbelstürmen ja auch recht ähnlich aus und wird ebenfalls auf SMT setzen.

y33H@
2016-01-26, 11:48:10
Und hier der Link zum Test: http://www.computerbase.de/2016-01/huawei-mate-8-test/

robbitop
2016-01-26, 11:55:03
Den habe ich glatt vergessen, danke y33h@ :)

Ravenhearth
2016-01-26, 12:11:13
Der anandtech-Test (http://www.anandtech.com/show/9878/the-huawei-mate-8-review/3) sah da wesentlich positiver aus, vor allem bei der Energieeffizienz!

robbitop
2016-01-26, 12:14:42
Bei Anand sieht es nach 10% im Mittel aus. 0.77 vs 0.7 SPEC / MHz. Ist aber auch ein anderer Benchmark.

http://www.anandtech.com/show/9878/the-huawei-mate-8-review/3

Ravenhearth
2016-01-26, 12:26:27
Gegenüber dem 7420 sinds eher 17%, im Geekbench Integer nur 3% und Geekbench FP rund 12%. Groß ist der Unterschied nicht, aber die im Mittel ~20% schnelleren A72 im Kirin 950 (Takt+IPC) brauchen nur etwa 3,7W statt der 5,5W der A57 im 7420! Das ist die eigentliche Verbesserung.