Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple
Ailuros
2014-09-22, 15:53:59
Eine kleine OT-Anmerkung. nebuchadnezzar ist mE Andrei Frumusanu, nicht Joshua Ho.
Wieso verwechsel ich die beiden staendig? Ist ja ziemlich peinlich....:eek:
Dank Dir.
Avalox
2014-09-23, 06:47:39
Ja die onscreen TRex iPhone6 Plus Resultate in der Datenbank koennen nicht stimmen
Warum sollen die Ergebnisse nicht stimmen?
Sieht doch erstmal passig aus.
GPU Übertaktetes iPhone 6 Plus rendert FP16 in niedriger Auflösung und läuft dann über einen Scaler. Würde doch passen.
http://abload.de/img/auswahl_002ufcvw.png
http://gfxbench.com/result.jsp?benchmark=gfx30&test=546&order=median&base=device&os-check-Android_gl=0&os-check-Windows_gl=0&arch-check-unknown=0&arch-check-x86=0
Ailuros
2014-09-23, 09:25:55
Weil anscheinend jemand die 6 mit den 6 Plus Resultaten irgendwo verwuschtelt hat. Das Anandtech onscreen Resultat fuer das 6 Plus ist in seiner nativen Aufloesung und nicht in 1334*750 wie beim iPhone6 und macht auch so wirklich Sinn. Wenn ein IMG engineer wie Rys andeutet dass irgend etwas nicht stimmt mit der Datenbank dann glaube ich ihm auch.
Nur weil Dir die Resultate besser ins Auge passen heisst es gar nichts. Sie koennen einfach nicht stimmen. Wenn das 6 Plus wirklich in 1334*750 rendern wuerde dann muessten seine Resultate auch um ~10% hoeher sein als im iPhone6 (TRex onscreen), eben WEIL das 6 Plus die GPU auch um ~10% hoeher taktet :rolleyes:
Es ist genau die gleiche Datenbank die fuer Manhattan offscreen folgendes angiebt:
iPhone6 Plus = 18.7 fps
iPhone6 = 17.9 fps
BigKid
2014-09-23, 10:02:34
Erste Resultate von iPhone6/6 Plus von Nebu aka Joshua Ho: http://www.anandtech.com/show/8559/iphone-6-and-iphone-6-plus-preliminary-results
***edit: ich hab jetzt erst bemerkt dass bei Kishonti fuer die neuen iPhones auch die Batterie-laufzeiten unter TRex onscreen gemessen wurden:
iPhone6 Plus: 231 min
iPhone6: 143 min
iPhone5S: 146 min
Also wenn man nun noch davon ausgeht dass der Akku nach ein paar vollständigen Ladungen und Entladungen noch etwas besser wird bedeutet das in etwa dass das iPhone6 trotz größer und schneller etwa gleich wenn nicht nen kleinen Ticken besser als das 5S ist und das iPhone6 Plus etwa 1,5 - 2 Stunden mehr in die Wagschaale werfen kann... das ist ne Menge...
Ailuros
2014-09-23, 10:17:35
Also wenn man nun noch davon ausgeht dass der Akku nach ein paar vollständigen Ladungen und Entladungen noch etwas besser wird bedeutet das in etwa dass das iPhone6 trotz größer und schneller etwa gleich wenn nicht nen kleinen Ticken besser als das 5S ist und das iPhone6 Plus etwa 1,5 -2 Stunden mehr in die Wagschaale werfen kann... das ist ne Menge...
Etwa so deuteten auch Apple's eigene Behauptungen beim launch der beiden smartphones, ausser natuerlich dass sie nirgends 3D erwaehnten. Die Resultate sind noch etwas frisch, ergo sollte man eher abwarten bis sie sich stabilisieren damit jegliche moegliche Fehler ausgeschlossen werden koennen.
deekey777
2014-09-23, 10:35:21
Apple hat uns in den letzten Jahren verwöhnt, was die Leistungssteigerungen angeht. Was mich ärgert, ist, dass für einige sehr schwer zu verstehen ist, dass aktuell keine Leistungssteigerung bei einem Smartphone nicht notwendig ist.
Ohne eine tiefgreifende Untersuchung lässt sich zur Leistung des A8 keine Aussage treffen, insbesondere wenn man sich bereits jetzt streitet, was in welcher Auflösung gerendert wird. Ich könnte wirklich ein Arschloch sein und sagen, dass die Ergebnisse irrelevant sind, weil die Macher Metal nicht benutzt haben.
Viel interessanter ist, wie der A8 in einem iPad performen wird. Wird es der gleiche A8 sein (wie es beim A7 der Fall war) oder wird Apple wieder einen A8X bringen (ist aber eher unwahrscheinlich, da unnötig)?
Avalox
2014-09-23, 10:41:06
Wenn das 6 Plus wirklich in 1334*750 rendern wuerde dann muessten seine Resultate auch um ~10% hoeher sein als im iPhone6 (TRex onscreen), eben WEIL das 6 Plus die GPU auch um ~10% hoeher taktet :rolleyes:
Der Benchmark wird doch nicht 100% mit dem Takt skalieren. Zudem ist die CPU scheinbar etwas langsamer im iPhone 6 Plus, im Vergleich zum iPhone 6 und wie der Scaler implementiert ist weiß auch noch niemand. Durchaus möglich, dass dieser nicht 4free arbeitet. Das iPhone 6 Plus hat zudem im Test eine signifikate Mehrperformance.
Ich will da gar nicht diskutieren, mehr wird man da schon noch früh genug zu hören.
Allerdings sagt die Datenbank nicht von 1334*750 Pixel, sondern von 1136x640 Pixel, also Apple Retina iPhone Auflösung. Dieses für iPhone 6 und iPhone 6 Plus. Das passt zu Apples Anwendungsphilosophie, die ja generell vorsieht im Postprocessing alte Anwendungen auf die neue Auflösung zu skalieren. Auf beiden Geräten. Das mach iOS garantiert auch für 3D Games, welche auflösungsfixiert daher kommen.
Ein Update von GFXBench ist eh erforderlich für die neuen iPhones, eigentlich kann man nur warten bis dieser da ist.
BigKid
2014-09-23, 11:10:01
Etwa so deuteten auch Apple's eigene Behauptungen beim launch der beiden smartphones, ausser natuerlich dass sie nirgends 3D erwaehnten. Die Resultate sind noch etwas frisch, ergo sollte man eher abwarten bis sie sich stabilisieren damit jegliche moegliche Fehler ausgeschlossen werden koennen.
Wobei das Ding verflixt warm wird... Ich habe bevorzugte immer ne dünne aber "rundum" geschlossene Hülle... Und da wird das 6er richtig warm beim benchen... Also dahingehend merk ich nix von mehr Effizienz... Ich bin echt versucht mir erstmals eher nen Bumper plus Folie zu holen...
Ailuros
2014-09-23, 11:10:46
Der Benchmark wird doch nicht 100% mit dem Takt skalieren.
Aber auch nicht zu fast 0% bzw. innerhalb vom margin of error. Manhattan ist ALU bound genug dass die Leistung ziemlich gut mit der Frequenz skaliert.
Zudem ist die CPU scheinbar etwas langsamer im iPhone 6 Plus, im Vergleich zum iPhone 6 und wie der Scaler implementiert ist weiß auch noch niemand. Durchaus möglich, dass dieser nicht 4free arbeitet. Das iPhone 6 Plus hat zudem im Test eine signifikate Mehrperformance.
Was hat die CPU in einem GPU benchmark grosses zu beinflussen bei kleinen Frequenz-Unterschieden?
Allerdings sagt die Datenbank nicht von 1334*750 Pixel, sondern von 1136x640 Pixel, also Apple Retina iPhone Auflösung. Dieses für iPhone 6 und iPhone 6 Plus. Das passt zu Apples Anwendungsphilosophie, die ja generell vorsieht im Postprocessing alte Anwendungen auf die neue Auflösung zu skalieren. Auf beiden Geräten. Das mach iOS garantiert auch für 3D Games, welche auflösungsfixiert daher kommen.
Info iPhone6:
http://gfxbench.com/device.jsp?benchmark=gfx30&os=iOS&api=gl&D=Apple+iPhone+6&testgroup=info
Info iPhone6 Plus:
http://gfxbench.com/device.jsp?benchmark=gfx30&os=iOS&api=gl&D=Apple+iPhone+6+Plus&testgroup=info
Du kannst wohl selber lesen was im ersten link eingetragen ist.
Avalox
2014-09-23, 11:14:51
Was hat die CPU in einem GPU benchmark grosses zu beinflussen bei kleinen Frequenz-Unterschieden?
Wenn es CPU limitierende Tests bei GFX gibt, dann sind es TRex und Manhattan. Entsprechend hat eine gleich schnelle CPU, bei unterschiedlich schneller GPU eine größeren, glättenden Einfluss.
Du kannst wohl selber lesen was im ersten link eingetragen ist.
ja, physikalische Auflösung des Displays.
Die Renderingauflösung des jeweiligen Tests gibt die GFX Datenbank zum Bench an.
Ailuros
2014-09-23, 11:15:13
Apple hat uns in den letzten Jahren verwöhnt, was die Leistungssteigerungen angeht. Was mich ärgert, ist, dass für einige sehr schwer zu verstehen ist, dass aktuell keine Leistungssteigerung bei einem Smartphone nicht notwendig ist.
Bei steigenden Aufloesungen? In welchem parallelen Universum hast Du die Ansicht gerade diagonal geparkt? :rolleyes:
Ohne eine tiefgreifende Untersuchung lässt sich zur Leistung des A8 keine Aussage treffen, insbesondere wenn man sich bereits jetzt streitet, was in welcher Auflösung gerendert wird. Ich könnte wirklich ein Arschloch sein und sagen, dass die Ergebnisse irrelevant sind, weil die Macher Metal nicht benutzt haben.
Und es waere genauso viel bullshit wie's obrige.
Viel interessanter ist, wie der A8 in einem iPad performen wird. Wird es der gleiche A8 sein (wie es beim A7 der Fall war) oder wird Apple wieder einen A8X bringen (ist aber eher unwahrscheinlich, da unnötig)?
Tja das weiss leider noch keiner. Ich will aber zumindest hoffen dass sie zumindest sehenswert hoehere Frequenzen fuer die CPU und GPU benutzt haben, wenn es keinen "A8X" geben sollte.
BigKid
2014-09-23, 11:18:51
Bei steigenden Aufloesungen? In welchem parallelen Universum hast Du die Ansicht gerade diagonal geparkt? :rolleyes:
Wobei ich ihm hier zustimme... Auch wenn es hier NICHT ums RAM geht... Mein aktuelles Verständnis Dank deinen und Demis Posts ist:
Pixelfüllrate haben wir doch eigentlich genug (siehe iPad Air mit A7) - was dringend fehlt ist mehr RAM für bessere Texturen...
Und das ist aktuell auch mein Hauptproblem mit vielen Games... Augenkrebs... Das wird jetzt auf den größeren Displays sicher nicht besser...
Ist jetzt OT aber: Weiß jemand ob die Spieleschmieden sich hier die Mühe machen für Andriod (und die Handys mit mehr RAM) anzupassen und bessere Texturen reinpacken ?
Avalox
2014-09-23, 11:27:23
Ist jetzt OT aber: Weiß jemand ob die Spieleschmieden sich hier die Mühe machen für Andriod (und die Handys mit mehr RAM) anzupassen und bessere Texturen reinpacken ?
Kann man wohl sicher nicht pauschal beantworten. Aber das Folgende hatte ich gerade aktuell gelesen und mal gebookmarkt. Also ja, es wird gemacht, bei Portierungen
"The Android version of daWindci has some spiffy new graphical effects too like enhanced particle effects and better textures to give it that shiny new game feel."
Ailuros
2014-09-23, 11:37:18
Wobei ich ihm hier zustimme... Auch wenn es hier NICHT ums RAM geht... Mein aktuelles Verständnis Dank deinen und Demis Posts ist:
Pixelfüllrate haben wir doch eigentlich genug (siehe iPad Air mit A7) - was dringend fehlt ist mehr RAM für bessere Texturen...
Und das ist aktuell auch mein Hauptproblem mit vielen Games... Augenkrebs... Das wird jetzt auf den größeren Displays sicher nicht besser...
Ist jetzt OT aber: Weiß jemand ob die Spieleschmieden sich hier die Mühe machen für Andriod (und die Handys mit mehr RAM) anzupassen und bessere Texturen reinpacken ?
Mit aller Wahrscheinlichkeit ist Series6XT das was Series6 von Anfang haette sein sollen. Ist das erste jetzt irgendwo um 50% schneller als das zweite dann ist die groesste Anzahl dieses Prozentuals von architektur-bedingten Verbesserungen.
T Rex offscreen:
iPhone6 Plus: 45.0 fps
iPhone6: 42.0 fps
iPhone5S: 28.8 fps
Eine These waere dass die A8 GPU um fast 60% hoeher taktet oder dass einfach die Architektur so umgekrempelt wurde dass sie u.a. mit Geometrie bzw. allem z/stencil um einiges besser leistet. Es war Apple selber welches fuer die A7 GPU angegeben hat dass sie "nur" um 2x Mal schneller ist als die A6X GPU, wobei sie garantiert nicht mit FLOPs gemessen haben weil es dort eher ein Faktor >3.0 war
Das alles hat ueberhaupt NICHTS mit der Texel-fuellrate zu tun die tatsaechlich schon auf A7 mehr als nur ausreichend ist, welche wenn die iPhone6 GPU auch auf 450MHz taktet wie im 5S dann auch die genau gleiche Texel-fuellrate hat, mit moeglicher Ausnahme von alpha blending welches diesmal in Kishonti's Fuellraten-tests auch mitbenutzt wird. GPUs sind komplizierte Tiere und bestehen aus einer Vielfalt von diversen Einheiten.
Avalox
2014-09-23, 17:45:34
Gabs das schon?
http://www.chip-architect.com/news/Apple_A8_vs_A7_1024x762.jpg
fondness
2014-09-23, 19:15:34
http://www.anandtech.com/show/8562/chipworks-a8
mczak
2014-09-23, 20:00:11
Also wenn ich das richtig sehe sind die beiden grossen Blöcke gleich oberhalb des L3-Cache neu? Jedenfalls kann ich beim A7 nirgends solch schöne grosse reguläre Blöcke ausmachen...
Ailuros
2014-09-24, 08:40:45
http://www.anandtech.com/show/8562/chipworks-a8
On A8 and its 20nm process this measures at 19.1mm2, versus A7’s 22.1mm2 G6430. As a result Apple is saving some die space compared to A7, but this is being partially offset by the greater complexity of GX6450 and possibly additional SRAM for larger caches on the GPU. Meanwhile looking at the symmetry of the block, it’s interesting that the blocks of texturing resources that every pair of GPU cores share is so visible and so large. With these resources being so big relative to the GPU cores themselves, you can see why Imagination would want to share them as opposed to building them 1:1 with the GPU cores.
TMUs sind immer relativ gross ueberhaupt wenn es sich um 16k*16k TMUs handelt.
Sonst wird die GPU noch groesser am Ende....was zum Teufel hat ASTC dass es so verdammt viele Transistoren braucht? Mit dem obrigen ist die A7 GPU schaetzungsweise auf 280.5Mio Transistoren, waehrend die A8 GPU auf 418.5 Mio Transistoren womoeglich steigt bzw. einen Unterschied von 49%.
BigKid
2014-09-25, 11:32:17
Wobei das Ding verflixt warm wird...
Ich wollte hier nochmal Ansetzen... Und auch wenn es schon wieder leicht Richtung OT geht bekommt man in diesem Thread viel bessere Antworten als in den anderen IP threads ;)
Ich habe bemerkt dass man nicht Pauschal sagen kann 2D -> A8 GPU langweilt sich und 3D -> A8 wird heiss...
Gestern zB ist das Ding nur beim Surfen recht warm geworden (Bug ?).
Heute habe ich dann Battle Heart Legacy gespielt (3D, einfache aber schöne Grafik mit guten Texturen) -> nix mit heiss und die Akkuladung ging auch nicht so massiv runter...
Ist das nur mit "VSYNC" (kann der überhaupt beeinflusst/abgeschaltet werden (ich meine vom Entwickler ich als Enduser kanns ja nicht)) oder einfacher Grafik erklärbar ?
Ailuros
2014-09-25, 12:01:25
Eigentlich waere der Teil der Debatte besser im relevanten i-thread (sic) im mobilen forum aufgehoben. Ich bin mir zwar nicht sicher aber es klingt eher nach einem sw Problem.
BigKid
2014-09-25, 12:08:38
Eigentlich waere der Teil der Debatte besser im relevanten i-thread (sic) im mobilen forum aufgehoben. Ich bin mir zwar nicht sicher aber es klingt eher nach einem sw Problem.
Ja... Vermutlich ist das hier nur Randthema und es ist für mich völlig in Ordnung wenn du hier als Admin durchgreifst und den Thread sauber hältst wenn es zuviel wird...
Die anderen Threads rauschen nur so wegen der ganzen Apple-Hater etc darum schätze ich den hier... Und trage damit auch zu einer Art rauschen bei... Also wie gesagt... Fire at will...
:rolleyes:
Ailuros
2014-09-25, 12:17:31
Ja... Vermutlich ist das hier nur Randthema und es ist für mich völlig in Ordnung wenn du hier als Admin durchgreifst und den Thread sauber hältst wenn es zuviel wird...
Dies ist hauptsaechlich ein quasi Apple SoC thread. Die Chancen dass es hier jemand sieht und Dir weiterhilft sind gering und ich hab keinen i-gear um Dir eine Antwort dafuer zu liefern.
Die anderen Threads rauschen nur so wegen der ganzen Apple-Hater etc darum schätze ich den hier... Und trage damit auch zu einer Art rauschen bei... Also wie gesagt... Fire at will...
:rolleyes:
Deshalb lass ich auf meistens selber die Finger vom mobilen Forum weg. Zu Deinem Problem aber: bei einem aehnlichen Problem auf einem Android-Geraet wuerde ich ein komplettes factory reset empfehlen. Geh mir aber nicht an die Gurgel falls es eine falsch geratene Massnahme sein sollte :eek:
BigKid
2014-09-25, 12:25:21
Dies ist hauptsaechlich ein quasi Apple SoC thread. Die Chancen dass es hier jemand sieht und Dir weiterhilft sind gering und ich hab keinen i-gear um Dir eine Antwort dafuer zu liefern.
Ah... Ich suche auch gar nicht nach Hilfe... Aber eben weil es hier um den A8 geht und der ja nun laut Apple ach so effizient ist habe ich mal meine Beobachtungen geteilt und mich eben gefragt warum das so ist... An ein spezielles Problem mit meinem konkreten Handy glaube ich aktuell eher nicht :wink:
deekey777
2014-09-25, 15:57:40
Bei steigenden Aufloesungen? In welchem parallelen Universum hast Du die Ansicht gerade diagonal geparkt? :rolleyes:
Ist nicht dein Ernst, oder?
Das meine Aussage natürlich in Relation zu gestiegener Auflösung gedacht war, versteht sich von selbst.
Und ich bleibe dabei:
Aktuell ist nicht ersichtlich, warum die Grafikleistung (abgesehen von steigender Auflösung) noch mehr steigen soll. Es gibt kaum Spiele (es geht immer um Spiele), die noch mehr Grafikleistung erfordern. Im Gegenteil: Es gibt eine Stagnation. Wenn im A8 tatsächlich "nur" ein GX6450 steckt, dann hat Apple alles richtig gemacht, in ein Smartphone einen Smartphine gerechten SoC einzubauen.
Und es waere genauso viel bullshit wie's obrige.
Siehe oben.
Es gibt übrigens bereits mindestens 2 Spiele, die Metal für Mehr nutzen. Mehr Effekte, mehr Gegner.
Ist nicht dein Ernst, oder?
Aktuell ist nicht ersichtlich, warum die Grafikleistung (abgesehen von steigender Auflösung) noch mehr steigen soll. Es gibt kaum Spiele (es geht immer um Spiele), die noch mehr Grafikleistung erfordern. Im Gegenteil: Es gibt eine Stagnation.
Was die gefühlte Stagnation angeht, spielt die RAM-Knappheit auf iOS-Geräten eine nicht unwesentliche Rolle.
Ailuros
2014-09-25, 19:40:21
Ist nicht dein Ernst, oder?
Das meine Aussage natürlich in Relation zu gestiegener Auflösung gedacht war, versteht sich von selbst.
Ja es ist mein absoluter Ernst.
Und ich bleibe dabei:
Aktuell ist nicht ersichtlich, warum die Grafikleistung (abgesehen von steigender Auflösung) noch mehr steigen soll. Es gibt kaum Spiele (es geht immer um Spiele), die noch mehr Grafikleistung erfordern. Im Gegenteil: Es gibt eine Stagnation. Wenn im A8 tatsächlich "nur" ein GX6450 steckt, dann hat Apple alles richtig gemacht, in ein Smartphone einen Smartphine gerechten SoC einzubauen.
Die Leistung ist aber um 50% mit dem GX6450 gestiegen, welches erstmal um 50% gegen Deine "These" spricht. Wie die Geschichte weiter gehen wird sehen wir bei den naechsten iPads.
Sonst ist die Leistung nicht weiter gestiegen weil 20SoC zu armselig ist und nicht so viel Strom spart wie es jemand von solch einem Prozess erwarten wuerde.
Siehe oben.
Wie gesagt bullshit.
Es gibt übrigens bereits mindestens 2 Spiele, die Metal für Mehr nutzen. Mehr Effekte, mehr Gegner.
Und mehr Stromverbrauch insgesamt denn nichts kommt umsonst in 3D; siehe Du jetzt oben.
Was die gefühlte Stagnation angeht, spielt die RAM-Knappheit auf iOS-Geräten eine nicht unwesentliche Rolle.
Waere alles in Ordnung mit 20SoC haette sich in der Zwischenzeit bei B3D zumindest einer gemeldet und mir erklaert dass es Bloedsinn ist.
http://forum.beyond3d.com/showpost.php?p=1876243&postcount=212
deekey777
2014-09-25, 19:54:00
Rumored 12.9-inch iPad Pro said to feature A8X chip w/ enhanced performance (http://9to5mac.com/2014/09/25/12-9-inch-ipad-pro-a8x/)
Alle Tage wieder.
=Floi=
2014-09-25, 20:02:03
was ist denn am GM6450 anders? ist das eine neue architektur? nur mehr takt?
Ailuros
2014-09-25, 20:09:56
was ist denn am GM6450 anders? ist das eine neue architektur? nur mehr takt?
GX6450 ist eine Variante aus der Series6XT Familie; ein refresh zu den Series6 cores mit u.a. 33% mehr FP16 ALUs und um die 50% mehr Leistung als die G6430 GPU im A7. Beide sind quad cluster GPUs.
smalM
2014-09-29, 18:13:53
Also wenn ich das richtig sehe sind die beiden grossen Blöcke gleich oberhalb des L3-Cache neu? Jedenfalls kann ich beim A7 nirgends solch schöne grosse reguläre Blöcke ausmachen...
Ja, das siehst Du richtig.
Und sie beinhalten ziemlich viel Speicher, ca. 2MB, wenn's SRAM wie im L3 ist...
AffenJack
2014-09-29, 20:30:38
Aus dem PowerVR Thread
Zu 100% Spekulation ohne jeglichen Hintergrund-hint:
H2 2014 = A8@20SoC TSMC (iPhone6, iPhone6 Plus - iPadAir2 H1 15')
H1 2015 = A8X@16FF TSMC iPad Pro
H2 2015 = A9@14nm Sammy/GloFo
Ich glaube gerade andersrum.
H1 15 Samsung 14nm A8X
H2 15 TSMC 16FF+ A9
Der CEO von TSMC klang beim letzten Talk eher so, dass man erst ab H2 2015 nennenswerte Volumen in 16nm fertigen wird. Auch gabs Meldungen (glaube Digitimes, aber trotzdem), dass Apple 16FF+ haben will, da 16nm zu schlecht im Vergleich zu Samsung ist, da er die 15% Disizereduktion zb nicht mitbringt.
Gibts eigentlich mittlerweile Anhaltspunkte wofür Apple die ganze Diearea nun verbrät, wenn die CPU und GPU weiterhin recht klein sind und es wohl auch nicht nach großen Mengen Sram aussieht?
Ailuros
2014-09-30, 07:59:37
Aus dem PowerVR Thread
Ich glaube gerade andersrum.
H1 15 Samsung 14nm A8X
H2 15 TSMC 16FF+ A9
Der CEO von TSMC klang beim letzten Talk eher so, dass man erst ab H2 2015 nennenswerte Volumen in 16nm fertigen wird. Auch gabs Meldungen (glaube Digitimes, aber trotzdem), dass Apple 16FF+ haben will, da 16nm zu schlecht im Vergleich zu Samsung ist, da er die 15% Disizereduktion zb nicht mitbringt.
Digitimes erzaehlt viel Scheiss wenn der Tag lang ist aber bei TSMC haben sie guten Zugang. Ich bin mir nicht sicher aber ich glaube dass auch Samsung mit 14nm in H1 nicht produktionsreif sein wird. Dann wird halt A8X auch auf 20SoC hergestellt; ist ja nicht so dass A8 besonders gross ist....
Gibts eigentlich mittlerweile Anhaltspunkte wofür Apple die ganze Diearea nun verbrät, wenn die CPU und GPU weiterhin recht klein sind und es wohl auch nicht nach großen Mengen Sram aussieht?
Ich bekomme momentan nichtmal eine Antwort ob meine A8 GPU Frequenz-Schaetzungen stimmen; ich muss wohl abwarten bis sich der Staub etwas setzt und dann werden schon mehr Leute zwitschern ;)
robbitop
2014-09-30, 10:05:48
Ich tippe auch auf 20 nm für A8X (sofern es den denn geben wird). Insbesondere bei größeren Plattformen hat man auch das TDP Budget dafür.
Ailuros
2014-09-30, 10:16:42
Ich tippe auch auf 20 nm für A8X (sofern es den denn geben wird). Insbesondere bei größeren Plattformen hat man auch das TDP Budget dafür.
Wenn es wirklich ein 12.9" tablet geben wird, dann kann es auch nicht unendlich schwer werden.
Ailuros
2014-09-30, 11:48:09
Ende September erst risk produktion fuer 16FF? http://www.fudzilla.com/home/item/35869-first-tsmc-16nm-finfet-product-announced
Ich dachte sie haetten es schon lange hinter sich. Na dann sieht es grau aus fuer jeglichen 16FF chip vor Herbst 2015; I stand corrected.
robbitop
2014-09-30, 11:53:25
Wenn es wirklich ein 12.9" tablet geben wird, dann kann es auch nicht unendlich schwer werden.
Das nicht. Aber ein Tablet - egal welche Größe - hat einen deutlich größeren Akku als ein Smartphone. Deshalb kann man dort andere SoCs einbauen.
Siehe A5X/A6X bei Apple oder die neueren Tegras. Passen in ein Tablet aber nicht in ein Smartphone.
Sunrise
2014-09-30, 22:35:52
Dann wird halt A8X auch auf 20SoC hergestellt; ist ja nicht so dass A8 besonders gross ist....
Ich wüsste jetzt auch nicht warum sie 16FF bzw. 14XM bei einem A8X für das iPad Pro benötigen sollten. Bei der Gehäusegröße hat der SoC soviel Platz, dass Apple hier andere Designentscheidungen wie die nötige GPU- und CPU-Leistung vorziehen wird. Mal davon ab, dass das Pro wahrscheinlich abartig teuer wird und ich immer noch nicht verstehe, wer das kaufen soll, entwirft man den A8X dann extra nur für dieses Produkt mit fraglicher Absatzmenge. Da darf der A8X ruhig auch doppelt so groß sein, sofern man es als nötig erachtet (dickeres Speicherinterface, den 6-Cluster RogueXT, evtl. minimal mehr CPU-Leistung ohne Throtteln im Betrieb). Samsung wird ja auch extra für das Tablet neue Panels liefern, das wird sich Apple fürstlich bezahlen lassen.
Hinsichtlich der Apple Watch würde 16FF+ bzw. 14XM auch deutlich mehr Sinn ergeben, da man damit möglichst lange Laufzeit aus dem Winzigakku rausquetschen kann und man bei der Uhr einfach absolut keinen Platz zu verschenken hat.
Ailuros
2014-09-30, 22:54:54
Ich wüsste jetzt auch nicht warum sie 16FF bzw. 14XM bei einem A8X für das iPad Pro benötigen sollten.
Ich weiss zwar nicht was Apple vorhat, aber wenn ich sagen wir mal Cyclone@=>2.0GHz mit einem GX6650@550MHz und 2GB RAM unterbringen wollen wuerde (alles bei einem =/<4k display der auch noch heftig Strom verbratet), dann waere 20SoC wohl ziemlich knapp werden wenn man dass Geraet auch superschlank und superleicht halten will.
Plant Apple wirklich so ein Monster dann steht wohl ein >>1.0kg Geraet ausser Frage.
Bei der Gehäusegröße hat der SoC soviel Platz, dass Apple hier andere Designentscheidungen wie die nötige GPU- und CPU-Leistung vorzieht. Mal davon ab, dass das Pro wahrscheinlich abartig teuer wird und ich immer noch nicht verstehe, wer das kaufen soll, entwirft man den A8X dann extra nur für dieses Produkt mit fraglicher Absatzmenge. Samsung wird ja auch extra für das Tablet neue Panels liefern, das wird sich Apple fürstlich bezahlen lassen.
Weniger als einen obszoenen Preis wuerde ich auch nicht erwarten. Geringe Gewinnmargen werden es wohl aber nicht sein und man koennte den design schon in Zukunft wiederbenutzen fuer kleinere Geraete.
Hinsichtlich der Apple Watch würde 16FF+ bzw. 14XM auch deutlich mehr Sinn ergeben, da man damit möglichst lange Laufzeit aus dem Winzigakku rausquetschen kann.
Weiss eigentlich schon jemand was in dem SoC drinsteckt bzw. auf welchem Prozess es hergestellt wird?
Sunrise
2014-10-01, 00:19:31
Ich weiss zwar nicht was Apple vorhat, aber wenn ich sagen wir mal Cyclone@=>2.0GHz mit einem GX6650@550MHz und 2GB RAM unterbringen wollen wuerde (alles bei einem =/<4k display der auch noch heftig Strom verbratet), dann waere 20SoC wohl ziemlich knapp werden wenn man dass Geraet auch superschlank und superleicht halten will.
Sollte in etwa so aussehen:
- 1.4GHz "Enhanced" Cyclone
- 550MHz 6-Cluster Rogue 6XT (GX6650)
- 64-bit Dual-channel LPDDR3-1600 (2GB)
Das wäre wohl absolut noch im Rahmen.
Die CPU auf 2GHz zu takten wäre wohl zuviel des Guten, da müsste man bei 20nm den SoC wohl gänzlich auf Speed auslegen und dann auf sämtliche Power Improvements verzichten. Beim A8 hat Apple wohl einen Mix aus Area und Power Improvements gefahren. Ich denke der Sweetspot liegt bei nicht mehr oder um die 1.4GHz. Alles andere wie Display, das sicher stark am Akku ziehen wird, die GPU und hinsichtlich der Bandbreite und Speichermenge der verdoppelte Speicher sollte auch wichtiger sein. Die CPU kann momentan sowieso keiner wohl so richtig auslasten.
Weiss eigentlich schon jemand was in dem SoC drinsteckt bzw. auf welchem Prozess es hergestellt wird?
Ist wohl noch zu früh. Der S1 sollte aber praktisch alles beinhalten was zu einem Mikrocomputer dazu gehört.
Anandtech hat übrigens endlich das iPhone 6-Review veröffentlich, da stehen ein paar interessante Werte zum Enhanced Cyclone drin.
Ailuros
2014-10-01, 00:23:23
Ich hab den review vor kurzem mal schnell durchgelesen.
Sonst klingt mir persoenlich die genau gleiche CPU Frequenz fuer so ein Projekt zumindest komisch. Na mal sehen ob es so ein Ding auch wirklich geben wird.
Das Geruecht fuer ein groesseres iPad schwirrt schon seit einiger Zeit herum und ziehlt afaik eher auf Profis als den Otto-Normalverbraucher. Vielleicht auch im Zusammenhang zu diesem: http://www.xbitlabs.com/news/mobile/display/20140715231135_Apple_Teams_Up_with_IBM_to_Make_iPhone_and_iPad_Ultimate_Tools_fo r_Businesses_and_Enterprises.html
differenzdiskriminator
2014-10-01, 09:36:24
Plant Apple wirklich so ein Monster dann steht wohl ein >>1.0kg Geraet ausser Frage.
Das wäre Dead on Arrival, so wie das Surface Pro. Niemand will ein Tablet mit dem Gewicht eines Backsteins.
Was wiegt das Samsung 12" Gerät? Ich meine unter 800g. Das sollte auch für Apple die maximale Obergrenze sein.
Ailuros
2014-10-01, 09:54:13
Das wäre Dead on Arrival, so wie das Surface Pro. Niemand will ein Tablet mit dem Gewicht eines Backsteins.
Was wiegt das Samsung 12" Gerät? Ich meine unter 800g. Das sollte auch für Apple die maximale Obergrenze sein.
Selbst 800gr sind tatsaechlich zu schwer wenn man ein solches zu lange in einer Hand halten wuerde. Am idealsten vom Gewicht her sind die =/>300gr 7-8" tablets.
differenzdiskriminator
2014-10-01, 10:05:15
Selbst 800gr sind tatsaechlich zu schwer wenn man ein solches zu lange in einer Hand halten wuerde. Am idealsten vom Gewicht her sind die =/>300gr 7-8" tablets.
Richtig, aber auch völlig utopisch ein 12" Gerät in 300g zu quetschen.
Selbst das Gehäuse dürfte mehr wiegen...
Ailuros
2014-10-01, 10:09:40
So war es auch nicht gemeint :biggrin:
differenzdiskriminator
2014-10-01, 10:12:45
:P
robbitop
2014-10-01, 11:05:48
Normally, I would expect a 4.7” class smartphone to need a battery around the size of the HTC One (M7) or Motorola Moto X (2013) to keep pace with phones like the One (M8) and Galaxy S5, but Apple has pulled it off with a battery that is much smaller. There are two key factors that we can point to in this case. The first is the display, which can avoid pushing the LED backlight towards the higher current region that is much less efficient. This is because the amount of light-blocking circuitry is reduced and the active area of the display can be higher. The second aspect is the SoC, which is on a lower power 20nm process node. While TSMC’s 20nm process doesn’t have FinFET, improved silicon straining and high K metal gate make it possible to drive down active power and leakage when compared to 28nm processes. It’s also likely that the A8’s architecture is more efficient than other SoCs we’ve seen this year. However, it's important to note that without a capacitance and voltage table or something similarly concrete we can't really prove this statement.
http://www.anandtech.com/show/8554/the-iphone-6-review/7
Soviel zum ganzen Akkuthema. Mit normierter Helligkeit zeigt sich, dass das iPhone 6 sehr sehr viel aus seinem kleinen Akku macht. Ein wichtiges Indiz zu dem, was bereits vermutet wurde: der SoC scheint sparsam zu sein.
Ailuros
2014-10-01, 15:28:20
http://www.anandtech.com/show/8554/the-iphone-6-review/7
Soviel zum ganzen Akkuthema. Mit normierter Helligkeit zeigt sich, dass das iPhone 6 sehr sehr viel aus seinem kleinen Akku macht. Ein wichtiges Indiz zu dem, was bereits vermutet wurde: der SoC scheint sparsam zu sein.
Der wichtigste Punkt ist "sustained performance".
http://www.anandtech.com/show/8554/the-iphone-6-review/7
http://images.anandtech.com/graphs/graph8554/68013.png
http://images.anandtech.com/doci/8554/iPhone6_GFXBench_Rundown_575px.PNG
http://images.anandtech.com/graphs/graph8554/68002.png
Die ~19% die das Shield tablet verliert sind zwar nicht toll, aber auch nicht gerade ein Beinbruch. Im Gegensatz sollte sich QCOM/LG fuer das LG G3 Bild (-50%) ziemlich schaemen.
deekey777
2014-10-07, 16:02:47
Sketchy rumor suggests Apple will converge a refrigerator and a toaster, 12.9 inch iPad will run both iOS and OS X (http://9to5mac.com/2014/10/07/osx-ios-2-in-1-ipad/)
Originalmeldung:
Apple 12-inch tablet may adopt Mac OS, iOS-integrated operating system (http://www.digitimes.com/news/a20141001PD203.html)
Da wird meiner Meinung nach zu viel reininterpretiert, eher bringt Apple ein 2-in-1-Gerät mit OS und Core-M als Konkurrenz zum Surface Pro 3 (preislich liegt SP3 über dem iPad, also passt das).
Apple: Samsung soll 14-Nanometer-"A9"-Chip bauen (http://www.heise.de/newsticker/meldung/Apple-Samsung-soll-14-Nanometer-A9-Chip-bauen-2412604.html)
Das ist aber nicht neu, zumindest was die Fertigung bei Samsung angeht.
Ailuros
2014-10-07, 16:05:47
Der Vertrag zwischen Samsung und Apple fuer 14nm ist schon seit einiger Zeit bekannt. Samsung ging uebrigens damit frueher in risk production als TSMC mit 16FF. Siehe auch Affenjack's Post etwas weiter oben.
deekey777
2014-10-08, 21:43:05
So, Apple verschickt Einladungen zum Event am 16.10.2014.
deekey777
2014-10-09, 08:58:30
iOS 8.1 beta includes “3x” images for iPad interface elements, possibly pointing to higher-res tablets (http://9to5mac.com/2014/10/08/ios-8-1-beta-includes-3x-images-for-ipad-interface-elements-possibly-pointing-to-higher-res-tablets/)
The presence images don’t necessarily confirm that such a device will be introduced, but it does provide some evidence that Apple is at least considering it
Ein A8 wäre bei 3D-Anwendungen mit einer dreifacher Auflösung des ersten iPad (1024*768) wohl überfordert.
Nightspider
2014-10-09, 14:39:36
A8X incoming?
y33H@
2014-10-09, 14:49:13
Mal schauen, wie viel Luft Apple vom Takt her hat.
smalM
2014-10-11, 12:23:47
Bild einer bestückten iPad Air 2 Platine und zum Vergleich eine iPad Air Platine:
http://www.apple.club.tw/ipad-air-2-大量零件曝光/
Leider keine hohe Auflösung, so daß keine Bezeichnungen erkennbar sind.
Wie erwartet, sind SoC und RAM getrennt.
Sunrise
2014-10-11, 19:06:26
Der A8X ist jetzt anhand der geleakten iPad Air 2 Bilder auch bestätigt.
Nightspider
2014-10-11, 19:07:48
Alles andere hätte auch gewundert.
Somit ist auch bestätigt, dass das Air 2 eine höhere Auflösung haben wird und/oder es eine Pro Version geben wird.
robbitop
2014-10-12, 00:47:03
Der A8X macht auch bei 2048x1536 in den normalen Tabelts schon Sinn. A8 ist ggü A7 einfach nicht besonders gewachsen was GPU Leistung angeht. Das hat man vermutlich gemacht, um einen sehr sparsamen Smartphone SoC zu entwickeln, damit das iPhone 6 so dünn und leicht sein kann (kleiner Akku). Dafür braucht es dann aber auf der anderen Seite einen Tablet SoC. Ist aus technischer Sicht auch sinnvoll für 2 so unterschiedliche Formfaktoren auch 2 unterschiedliche SoCs zu machen.
Ich kann mir vorstellen, dass das iPad mini nur den A8 bekommt und das Air den A8x. Und das "Pro", sofern es denn eines geben wird.
smalM
2014-10-12, 14:45:39
Das iPad mini könnte auch den A8x bekommen, nur mit einem niedrigeren Taktniveau, und sich unter Dauerlast weiter runtertakten.
Apple muß dringend was für Attraktivität beider iPads tun! Eine andere Maßnahme wäre, den Flashspeicher mit 64GB - 128 GB - 256 GB anzubieten - nicht daß ich das glaube, es wäre so appleuntypisch - aber das würde alle anderen Anbieter heftig treffen.
Sunrise
2014-10-12, 15:36:10
Das iPad mini könnte auch den A8x bekommen, nur mit einem niedrigeren Taktniveau, und sich unter Dauerlast weiter runtertakten.
Apple muß dringend was für Attraktivität beider iPads tun! Eine andere Maßnahme wäre, den Flashspeicher mit 64GB - 128 GB - 256 GB anzubieten - nicht daß ich das glaube, es wäre so appleuntypisch - aber das würde alle anderen Anbieter heftig treffen.
Da muss allerdings noch weit mehr passieren als das.
Apple hat jetzt seit dem 3er! noch altbackene 2048x1536 während inzwischen schon Smartphones höher auflösen. Man hat das iPad einfach immer nur leistungsmäßig mit dem Nötigen versorgt (beim Air lediglich den Smartphone-SoC reingeflanscht) und 128 GB zuerst angeboten und das wars.
Deshalb wird Apple wohl auch nicht nur die Hardware mit dem A8X stärker als beim iPhone aufbohren, sondern auch den RAM, evtl. endlich mal das Display auflösungstechnisch erneuern und softwareseitig Split-Screen Multitasking einführen, was wohl gerade beim PRO(duktivität)-Tablet als neues Feature wichtig wird. Ebenso Touch ID und evtl. weitere Dinge noch nachziehen.
Ich kann die Worte von Tim schon hören:
"The iPad Air 2 is the biggest step in technology since the introduction of the original iPad"
Es muss einfach was passieren, denn das iPad verliert einfach immer mehr seine Daseinsberechtigung. Das hatte Steve so sicher nicht im Sinn.
Nightspider
2014-10-12, 17:44:43
Naja ich glaube die höhere Auflösung ist schon sehr sicher.
Es wurden ja wohl schon höher aufgelöste Symbole in iOS gefunden.
Falls es ein iPad Pro geben wird stehen die Chancen imo auch nicht schlecht das im A8X nicht nur die GPU sondern auch die CPU vergrößert wird. (QuadCore?)
smalM
2014-10-12, 20:38:44
Apple hat jetzt seit dem 3er! noch altbackene 2048x1536 während inzwischen schon Smartphones höher auflösen.
Na und?
Als wäre eine höhere Auflösung gleichbedeutend mit einer höheren Qualität.
Sunrise
2014-10-12, 21:11:06
Na und?
Als wäre eine höhere Auflösung gleichbedeutend mit einer höheren Qualität.
Was heißt bei dir denn Qualität? Man hat jetzt schon höhere PPI auf dem iPhone als auf dem eigenen iPad. Natürlich ist das Panel selbst auch extrem wichtig, aber seit dem 3er ist einfach nichts passiert, das für mich einen Neukauf rechtfertigen würde.
Der A8X und ein paar neue Hardware- und Software-Feature könnten das ändern.
Demirug
2014-10-13, 00:45:30
iOS 8.1 beta includes “3x” images for iPad interface elements, possibly pointing to higher-res tablets (http://9to5mac.com/2014/10/08/ios-8-1-beta-includes-3x-images-for-ipad-interface-elements-possibly-pointing-to-higher-res-tablets/)
Ein A8 wäre bei 3D-Anwendungen mit einer dreifacher Auflösung des ersten iPad (1024*768) wohl überfordert.
Aus den 3x Images kann man leider nicht schlussfolgern das auch die Auflösung wirklich 3 mal so groß wie beim Original iPad ist. Seit dem 6+ arbeitet Apple ja mit einem Downscale Trick. Intern wird zwar in einen 3x backbuffer gerendert aber vor der Ausgabe gibt es einen downscale. In der Dokumenation steht aber auch ganz klar das man für 3D Anwendungen nur die echte physikalische Größe nutzen soll. Da die Technik vorhanden ist muss man auch beim neuen iPad mit diesem Trick rechnen.
Desweiteren ist durchaus damit zu rechnen das alte Apps die nicht entsprechend für die neue Hardware markiert sind nur die alte Auflösung zu sehen bekommen und es dann einen Upscale geben würde.
James Ryan
2014-10-13, 06:11:38
Was heißt bei dir denn Qualität? Man hat jetzt schon höhere PPI auf dem iPhone als auf dem eigenen iPad. Natürlich ist das Panel selbst auch extrem wichtig, aber seit dem 3er ist einfach nichts passiert, das für mich einen Neukauf rechtfertigen würde.
Der A8X und ein paar neue Hardware- und Software-Feature könnten das ändern.
Selbst das iPhone 4 hat eine höhere PPI als das aktuelle iPad Air, eben weil man es viel näher hält ;)
Das iPad Air 2 erhält mit Sicherheit keine 3x Auflösung vom ersten iPad, eher eine 2500er-Auflösung. Das wird der A8X locker packen.
Bin eher verwundert dass das Air 2 wohl keinen Mute-Schalter mehr bieten wird. Hoffentlich wird das nicht auf das iPhone übertragen.
MfG
deekey777
2014-10-13, 08:51:00
Aus den 3x Images kann man leider nicht schlussfolgern das auch die Auflösung wirklich 3 mal so groß wie beim Original iPad ist. Seit dem 6+ arbeitet Apple ja mit einem Downscale Trick. Intern wird zwar in einen 3x backbuffer gerendert aber vor der Ausgabe gibt es einen downscale. In der Dokumenation steht aber auch ganz klar das man für 3D Anwendungen nur die echte physikalische Größe nutzen soll. Da die Technik vorhanden ist muss man auch beim neuen iPad mit diesem Trick rechnen.
Desweiteren ist durchaus damit zu rechnen das alte Apps die nicht entsprechend für die neue Hardware markiert sind nur die alte Auflösung zu sehen bekommen und es dann einen Upscale geben würde.
Klingt einleuchtend. Danke.
Welche Panels kämen aktuell in Frage, die auch tatsächlich hergestellt werden?
urpils
2014-10-13, 11:12:43
Klingt einleuchtend. Danke.
Welche Panels kämen aktuell in Frage, die auch tatsächlich hergestellt werden?
Apple ist groß genug, dass ie nicht auf "verfügbare Panels" schauen müssen.. die bestellen was sie haben möchten und wo man erwarten kann, dass diese in entsprechenden Stückzahlen dann auch produziert werden können ;)
differenzdiskriminator
2014-10-13, 12:30:32
Apple ist groß genug, dass ie nicht auf "verfügbare Panels" schauen müssen.. die bestellen was sie haben möchten und wo man erwarten kann, dass diese in entsprechenden Stückzahlen dann auch produziert werden können ;)
Offensichtlich nicht, sonst hätte das iphone6+ eine nach Apple-Standard "glatte" Auflösung und nicht so krumme FullHD. Da hat man wohl ein Standardpanel genommen, statt etwas spezielles entwickeln zu lassen.
Offensichtlich nicht, sonst hätte das iphone6+ eine nach Apple-Standard "glatte" Auflösung und nicht so krumme FullHD. Da hat man wohl ein Standardpanel genommen, statt etwas spezielles entwickeln zu lassen.
Ehrlich gesagt: Ich glaube das FullHD-Panel im 6+ ist ein Plan B. Ob aus Fertigungs- oder Stromverbrauchsgründen kann ich nicht sagen, aber ich rechne spätestens in 1-2 Generationen mit einem Panel mit der vollen Auflösung.
Mag sein, dass sie beim iPad erstmal den gleichen Weg gehen, aber auch hier ist es dann sicher nicht als Dauerlösung gedacht.
Sunrise
2014-10-13, 13:06:54
Offensichtlich nicht, sonst hätte das iphone6+ eine nach Apple-Standard "glatte" Auflösung und nicht so krumme FullHD. Da hat man wohl ein Standardpanel genommen, statt etwas spezielles entwickeln zu lassen.
Das FullHD-Panel im iPhone 6 Plus ist aber kein Standardpanel (im Sinne der Technik) das ist ja das Komische. Da wurde einiges geändert, ansonsten wären das nicht so verdammt gute Displays geworden. Das ist ein Alleinstellungsmerkmal bei Apple, was IPS angeht. Ich gehe davon aus, dass das neue iPad ein ähnlich gutes Panel abbekommt.
Wir bewegen uns jetzt allerdings langsam am Threadthema vorbei.
Avalox
2014-10-13, 14:16:25
Das FullHD-Panel im iPhone 6 Plus ist aber kein Standardpanel (im Sinne der Technik) das ist ja das Komische. Da wurde einiges geändert, ansonsten wären das nicht so verdammt gute Displays geworden. Das ist ein Alleinstellungsmerkmal bei Apple, was IPS angeht. Ich gehe davon aus, dass das neue iPad ein ähnlich gutes Panel abbekommt.
Wir bewegen uns jetzt allerdings langsam am Threadthema vorbei.
Apple ist dort immer leading edge am Stand der Zeit unterwegs. Für den Displayhersteller wird es sicherlich vom Vorteil sein, dass Apple zwar als Vorzugskunde die Displays bekommt, er dann aber weitere Abnehmer damit beglücken kann.
deekey777
2014-10-13, 20:47:37
Apple ist groß genug, dass ie nicht auf "verfügbare Panels" schauen müssen.. die bestellen was sie haben möchten und wo man erwarten kann, dass diese in entsprechenden Stückzahlen dann auch produziert werden können ;)
Da muss ich dir zustimmen, aber dann wüssten wir das längst, da die Zuliefererkette nie dicht ist.
Auf der anderen Seite waren die Panels des iPhone 6 sehr lange unbekannt, die Leaks kamen sehr spät.
Purported next-gen iPad Air logic board shows 2GB of RAM, A8X chip (http://appleinsider.com/articles/14/10/13/purported-next-gen-ipad-air-logic-board-shows-2gb-of-ram-a8x-chip)
Sunrise
2014-10-14, 16:03:51
Der A8X sollte um die 117mm^2 haben, wenn ich keinen Fehler gemacht habe. Das Ding ist ca. 11,18mm x 10,50mm groß, also vor allem in die Breite ausgehend vom A8 (der hat 8,47mm x 10,50mm).
Das sind also 28mm^2 mehr wie beim A8 bzw. 31,5% davon, was schon ordentlich ist.
Nachtrag:
Wenn man davon ausgeht, dass die gesamte 4-Cluster GX6450 im A8 etwa 19,1mm^2 groß ist und der CPU-Block nur noch ca. 12,2mm^2, dann hat man schätzungsweise mit zwei zusätzlichen Clustern (19,1 / 4 = ca. 5mm^2 pro Cluster) immernoch 18mm^2 zur Verfügung.
Mit anderen Worten, da würde nochmal die komplette CPU reinpassen und wohl auch das Dual-Channel Interface.
Spannend...
Die Größen der Blöcke sind dem Chipworks iPhone 6-Artikel entnommen.
Avalox
2014-10-14, 16:06:49
Wird der A8X bei Samsung gefertigt und der A8 bei TSMC?
Sunrise
2014-10-14, 16:13:31
Wird der A8X bei Samsung gefertigt und der A8 bei TSMC?
Sieht momentan alles nach TSMC für beide aus.
Unicous
2014-10-14, 16:25:42
Laut semiwiki produziert Samsung gar nichts.
The first rumor is that Samsung will get 30-40% of the Apple A8 business. Apple will use the same A8 SoC for the iPhone 6 and iPad products. I’m hoping the A8 will be clocked up for the iPad because I know it can go faster than 1.4GHz! Bottom line: Samsung is NOT supplying 20nm A8 parts to Apple. Show me an iPhone or iPad tear down that proves otherwise and a new iPad is yours.
https://www.semiwiki.com/forum/content/3898-apple-samsung-tsmc-intel-14nm-mashup.html
Nun darf man Daniel Nenni nicht allzu ernst nehmen, aber es könnte schon etwas dran sein. Samsung hat seine 20nm in den letzten Monaten nämlich so gut wie gar nicht mit PMs bedacht oder beworben (außer den eigenen Exynos Chips), jedoch hausieren sie andauernd mit 14nm.
Hoffentlich nimmt Chipsworks das Ding auseinander (wenn es denn "real" ist. So toll ist die Aufnahme nicht und kann dennoch manipuliert sein). Ich schätze es wird wieder TSMC draufstehen.
smalM
2014-10-14, 21:13:46
Der A8X sollte um die 117mm^2 haben, wenn ich keinen Fehler gemacht habe. Das Ding ist ca. 11,18mm x 10,50mm groß, also vor allem in die Breite ausgehend vom A8 (der hat 8,47mm x 10,50mm).
Das sind also 28mm^2 mehr wie beim A8 bzw. 31,5% davon, was schon ordentlich ist.
Kannst Du mal erklären wo diese Angaben zur Die-Größe des A8X herkommen?
Wenn man davon ausgeht, dass die gesamte 4-Cluster GX6450 im A8 etwa 19,1mm^2 groß ist und der CPU-Block nur noch ca. 12,2mm^2, dann hat man schätzungsweise mit zwei zusätzlichen Clustern (19,1 / 4 = ca. 5mm^2 pro Cluster) immernoch 18mm^2 zur Verfügung.
Ein Shadercluster-Paar und die von beiden Clustern geteilte Texture-Unit machen unter ⅓ der GX6450 aus. Wieso sollte sich der Off-Shader-Bereich auf einer GX6650 vergrößern?
Sunrise
2014-10-14, 23:16:12
Kannst Du mal erklären wo diese Angaben zur Die-Größe des A8X herkommen?
Ausgehend vom A7-Package (die Platine von iFixit ist schön hochauflösend) des iPad Air den A8X der geleakten Platine druntergelegt, die Maße auf die Realmaße normalisiert (beim A8X am Apple-Logo orientiert und diversen Bauteilen auf der Platine selbst und dann abgeglichen) und dann die Differenz vom A8X ausgerechnet.
Da Chipworks die Höhe auch des A8 schon hatte, der A7 fast identisch hoch ist und nach dem Drunterlegen des A8X dieser in der Höhe auch praktisch identisch zum A7-Package zu sein scheint, sollte zumindest dieser Teil auch passen. Klingt komplizierter als es ist, hatte etwas Langeweile und mich mal mit GIMP ausgetobt. :D
Ein Shadercluster-Paar und die von beiden Clustern geteilte Texture-Unit machen unter ⅓ der GX6450 aus. Wieso sollte sich der Off-Shader-Bereich auf einer GX6650 vergrößern?
War nur großzügig gerechnet, das Milchmädchen lässt grüßen. Ich habe keine Ahnung ob beim GX6650 da noch was anderes größer werden muss. Die 4 Cluster sind ja in den Ecken, bei einem 6 Cluster-Layout des RogueXT bin ich mir nicht sicher wo genau die 2 zusätzlichen Cluster liegen müssen. Jedenfalls erscheint mir das potentiell mehr Transistoren zu fressen als der mit nur 4 Clustern.
Zusätzlich wird da beim custom Layouting sicher ein wenig an Fülltransistoren innerhalb des A8X stecken, was man nur schlecht schätzen kann.
Jedenfalls finde ich es beachtlich was da an Platz übrig bleibt, damit hätte ich nicht gerechnet. Alles natürlich unter dem Vorbehalt das ich mich nicht verrechnet habe.
Unicous
2014-10-15, 02:20:39
http://www.apple.club.tw/wp-content/uploads/2014/10/A8X.jpg
http://www.apple.club.tw/ipad-air-2%E7%A2%BA%E5%AF%A6%E6%98%AFa8x-2gb-ram/
Nightspider
2014-10-15, 03:01:39
Wird sicher doppelte GPU Leistung haben und der Rest bleibt komplett gleich.
CPU Takt könnte aber noch ~200-400Mhz höher sein als beim iPhone 6.
LadyWhirlwind
2014-10-16, 19:49:27
Apple-designed image signal processor im A8X
Sunrise
2014-10-16, 20:38:50
Da lag ich ja mit meiner Schätzung (http://www.forum-3dcenter.org/vbulletin/member.php?userid=3555) ganz gut:
- 1.4GHz "Enhanced" Cyclone
- 550MHz 6-Cluster Rogue 6XT (GX6650)
- 64-bit Dual-channel LPDDR3-1600 (2GB)
Wobei die CPU wohl jetzt noch 10% höher getaktet ist als im A8 (evtl. dann zwischen 1.5 und 1.6GHz) und man von der RAM-Menge aktuell nichts weiß.
Das Ding muss ja ne ziemlich brachiale GPU-Leistung haben anhand der Angaben. Heftig.
Kann mal jemand bei der GPU nachrechnen? Kommt man mit 2 Cluster mehr und 550MHz auf die 2.5x?
robbitop
2014-10-16, 21:12:11
Da lag ich ja mit meiner Schätzung (http://www.forum-3dcenter.org/vbulletin/member.php?userid=3555) ganz gut:
- 1.4GHz "Enhanced" Cyclone
- 550MHz 6-Cluster Rogue 6XT (GX6650)
- 64-bit Dual-channel LPDDR3-1600 (2GB)
Wobei die CPU wohl jetzt noch 10% höher getaktet ist als im A8 (evtl. dann zwischen 1.5 und 1.6GHz) und man von der RAM-Menge aktuell nichts weiß.
Das Ding muss ja ne ziemlich brachiale GPU-Leistung haben anhand der Angaben. Heftig.
Kann mal jemand bei der GPU nachrechnen? Kommt man mit 2 Cluster mehr und 550MHz auf die 2.5x?
Müsste hinkommen.
GPU:
A8 ggü A7: 1,5x
A8x ggü A7: 2,5x
-> A8x ggü A8: 1,66
Bei einem 6C Series6XT müsste die GPU dann rechnerisch 555 MHz haben (A8 hatte 500 MHz). Sollte also ca. 550 MHz sein.
Ist ggü A7 ein guter - aber auch notwendiger Sprung. A7 war ein Phone SoC und A8X ist endlich wieder ein Tablet SoC. Damit holt man Tegra K1 ein.
CPU:
A8 ggü A7: 1,25x
A8x ggü A7: 1,40x
->A8x ggü A8: 1,12x
A8x CPU sollte also ca. 1,57 GHz haben.
Nightspider
2014-10-16, 21:21:04
2,5fache iPad Air Leistung. Soso, wann kommt der GTA5 Port? :D
Ich hätte mir mehr CPU Leistung gewünscht. Wenn nicht mit IPC möglich dann eben mit mehr Kernen.
2GB RAM sollten ja auf jeden Fall dabei sein.
smalM
2014-10-16, 21:34:45
Ist ggü A7 ein guter - aber auch notwendiger Sprung. A7 war ein Phone SoC und A8X ist endlich wieder ein Tablet SoC. Damit holt man Tegra K1 ein.
Wenn der A8X genausowenig unter Last runtertakten muß wie der A8, dann haut er den Tegra K1 locker weg. :biggrin:
robbitop
2014-10-16, 21:56:50
Das interessiert die Benchmarkfraktion und damit die Masse leider wenig. (ich finde, dass man außerdem nicht unbedingt begeistert sein muss. Tegra K1 ist immerhin 28 nm. A8X ist 20 nm)
Was Spiele angeht: IMO sinnlos. Nicht der richtige Formfaktor, nicht die richtige Eingabemöglichkeit. Fast nie AAA-Produktionen. IMO ist Spielen auf SFF-Geräten reiner Casual Kram.
smalM
2014-10-17, 02:37:24
CPU:
A8 ggü A7: 1,25x
A8x ggü A7: 1,40x
->A8x ggü A8: 1,12x
A8x CPU sollte also ca. 1,57 GHz haben.
Hast Du das gegen den 5SL8960 oder gegen den 5SL8965 gerechnet?
Es könnte ja sein, daß Apples Vergleich A8 ≈ 5SL8960 +25% und A8X ≈ 5SL8965 +40% bedeutet hat. :wink:
robbitop
2014-10-17, 07:20:24
Stimmt - das könnte sein. In dem Falle wären die Taktfrequenzen im A8x noch mal ein bisschen höher. Zumindest für die CPU. Also ggf. 1,6 - 1,65 GHz.
Sunrise
2014-10-21, 21:37:31
Es scheint sich zu bestätigen, das neue iPad Air 2 hat 3 Cores und 2GB RAM.
Nachdem die Passmark-Resultate ja ein wenig durcheinander waren, sollte dieses Geekbench-Resultat (http://browser.primatelabs.com/geekbench3/1061742) eindeutig sein. Die 3 Cores laufen demnach mit 1.5GHz.
Da meine Größenrechnung vom Die des A8X (ca. 117mm²) ja ergeben hat, dass da Platz für eigentlich 4 Cores ist, ist es überraschend, dass Apple jetzt wohl "nur" 3 Cores verbaut hat.
Interessant wird jetzt, ob der A8X vielleicht doch 4 Cores hat und man hinsichtlich Stromverbrauch/Wärmeentwicklung oder was auch immer einen Core nicht aktiviert. Da müssen wir Resultate von Chipworks abwarten. Der A8X mit 4 Cores würde sich jedenfalls gut für das iPad Pro eignen, sofern wir da keine weiteren Überraschungen sehen.
Jedenfalls ist eines sicher, dieses iPad sollte so schnell nichts kleinkriegen. Hinsichtlich Auflösung relativ zur CPU- und GPU-Performance ist das jetzt wahrscheinlich so ziemlich das Optimum. Das Ding sollte für viele Jahre locker ausreichend sein.
deekey777
2014-10-21, 21:48:47
Interessant, wirklich interessant.
Es sind trotzdem zwei Kerne und ein Magic Steve Jobs Core.
Die Speicheranbindung dürfte interessant sein.
Nightspider
2014-10-21, 21:53:29
Ahaha, sowas hatte ich mir ja genau gewünscht - wenigstens 3 Kerne. :D
Das Air 2 dürfte extrem gut mit mehreren Apps parallel klar kommen.
deekey777
2014-10-21, 22:35:51
Es scheint sich zu bestätigen, das neue iPad Air 2 hat 3 Cores und 2GB RAM.
Nachdem die Passmark-Resultate ja ein wenig durcheinander waren, sollte dieses Geekbench-Resultat (http://browser.primatelabs.com/geekbench3/1061742) eindeutig sein. Die 3 Cores laufen demnach mit 1.5GHz.
Da meine Größenrechnung vom Die des A8X (ca. 117mm²) ja ergeben hat, dass da Platz für eigentlich 4 Cores ist, ist es überraschend, dass Apple jetzt wohl "nur" 3 Cores verbaut hat.
Interessant wird jetzt, ob der A8X vielleicht doch 4 Cores hat und man hinsichtlich Stromverbrauch/Wärmeentwicklung oder was auch immer einen Core nicht aktiviert. Da müssen wir Resultate von Chipworks abwarten. Der A8X mit 4 Cores würde sich jedenfalls gut für das iPad Pro eignen, sofern wir da keine weiteren Überraschungen sehen.
Jedenfalls ist eines sicher, dieses iPad sollte so schnell nichts kleinkriegen. Hinsichtlich Auflösung relativ zur CPU- und GPU-Performance ist das jetzt wahrscheinlich so ziemlich das Optimum. Das Ding sollte für viele Jahre locker ausreichend sein.
Hat Apple überhaupt eine Wahl, einen schwächeren SoC einzusetzen als der A8X?
Natürlich werden 99% der Nutzer diese Leistung nie brauchen, aber das eine Prozent könnte entscheidend sein, wenn dieses eine Prozent Software einsetzt, die so teuer ist wie das iPad selbst.
http://appleinsider.com/articles/14/10/21/ibms-first-enterprise-apps-for-ipad-to-launch-next-month-as-ipad-reaches-90-percent-tablet-share-in-us-education
Wann wird A7 auf 20 nm geshrinkt (wenn überhaupt)?
Nightspider
2014-10-21, 22:55:00
iPad Mini 3 doch mit A8?
https://developer.apple.com/library/ios/documentation/DeviceInformation/Reference/iOSDeviceCompatibility/OpenGLESPlatforms/OpenGLESPlatforms.html#//apple_ref/doc/uid/TP40013599-CH106-SW1
deekey777
2014-10-21, 22:58:28
iPad Mini 3 doch mit A8?
https://developer.apple.com/library/ios/documentation/DeviceInformation/Reference/iOSDeviceCompatibility/OpenGLESPlatforms/OpenGLESPlatforms.html#//apple_ref/doc/uid/TP40013599-CH106-SW1
Eigentlich steht da A8 GPU (PowerVR GX6450). Also Cyclone-CPU, aber A8-Grafik? Ich glaub, das ist ein Verschreiber.
Apple kann man vieles vorwerfen. Auch dass sie für das iPad mini 3 einen eigenen SoC entwickeln. Im Hinblick auf das vermeintliche ATV4 eine interessante Spekulation.
Sunrise
2014-10-21, 23:11:42
http://www.apple.com/de/ipad/compare/#comparison-chart
Etwas runter scrollen. Das iPad mini 3 hat definitiv nur einen A7+M7.
Wann wird A7 auf 20 nm geshrinkt (wenn überhaupt)?
Was erhoffst du dir davon? Laut Anandtech sind die jeweiligen Blöcke im A8 bereits ein sehr guter Shrink inkl. sinnvollen Verbesserungen des A7. Das Ding wäre nur geringfügig kleiner als 89mm². Im Endeffekt kann man sich das sparen.
LadyWhirlwind
2014-10-21, 23:35:29
Das iPad ist imho auch die Plattform mti dem höheren Leistungsbedarf. Es macht daher auch Sinn zuerst auf dem iPad 2 GB Ram zu bringen, ebenso die 3 cores. So können sich die Entwickler schon mal auf 2 GB Zeiten einstellen, aber sind, wegen dem iPhone6 noch gezwungen, auf 1 GB hin zu opitmieren. So dass auch ältere iPhone/ipad Modelle noch von der Software profitieren. Und mit einem modernen 64-bit Soc mit 3 cores dürften auch die Anforderungen für komplexere Enterpricesoftware erstmal erfüllt werden.
Ich besitze nachwievor ein retina iPad der 1. Generation, und bin immmer noch , auch was die Geschwindigkeit anbelangt absolut zufrieden. Klar, ab und zu merkt mann die fehlende CPU-Leistung und der fehlende Ram, aber nicht, dass es mich stören würde.
deekey777
2014-10-22, 09:59:14
Was erhoffst du dir davon? Laut Anandtech sind die jeweiligen Blöcke im A8 bereits ein sehr guter Shrink inkl. sinnvollen Verbesserungen des A7. Das Ding wäre nur geringfügig kleiner als 89mm². Im Endeffekt kann man sich das sparen.
Die Hoffnung ist, dass das gleiche passiert, wie beim Shrink des A5 auf 32 nm.
Wo sind die GFX-Ergebnisse?
Selbst Nexus 9 kann bei Multi-Leistung nicht mithalten: http://appleinsider.com/articles/14/10/21/apples-new-a8x-powered-ipad-air-2-smokes-new-android-tablets-including-nvidias-tegra-k1
http://www.engadget.com/2014/10/21/ipad-air-2-mini-3-review/
Die GFX-Ergebnisse sind stark, auch 3DMark Unlimited. Wohl kaum eine A8 GPU im iPad Mini 3.
y33H@
2014-10-22, 11:02:29
Sowohl CPU- als auch GPU-seitig gibt's nix stärkeres, sauber.
YfOrU
2014-10-22, 11:30:12
Selbst Nexus 9 kann bei Multi-Leistung nicht mithalten: http://appleinsider.com/articles/14/10/21/apples-new-a8x-powered-ipad-air-2-smokes-new-android-tablets-including-nvidias-tegra-k1
Mit Blick auf die vergleichsweise brachial hohe IPC welche Apple mit Cyclone auf den Tisch geknallt hat, einem dedizierten SoC für Tablets (A8X) und 20nm ist das wenig überraschend. Drei Kerne und etwas höhere CPU Frequenzen sehen für mich dabei aus wie der Griff nach dem Sweetspot. Das Denver nicht ganz in der Liga von Cyclone spielt zeigt eigentlich schon die Taktfrequenz. Zwei fette CPU Kerne bei 28nm und 2,3 Ghz. Am oberen Ende der Skala.
Avalox
2014-10-22, 11:44:30
Drei Kerne und etwas höhere CPU Frequenzen sehen für mich dabei aus wie der Griff nach dem Sweetspot.
Was für ein Sweetspot?
Nexus 9 wurde mit dem Android 4 32Bit Geekbench getestet.
+25% sagt der GB Entwickler für K1 64 für die nächsten Zeit (64 Bit Version) voraus. Ich glaube nicht, dass Apple solchen schnöden Wettlauf anstrebt, können sie eh nicht halten und schnell die Plätze verlieren.
Ich denke Apple wird das egal sein und auf Subnotebook Performance zielen mit den eigenen Produkten. Solche Entwicklung muss sich ja amotisieren, zumal die iPad Verkäufe ja schon seit einiger Zeit absehbar Schluckauf haben.
YfOrU
2014-10-22, 11:47:38
Was für ein Sweetspot?
Effizienz im Kontext von Fertigung und Design. Also die Skalierung Taktfrequenz/Verlustleistung sowie der Fläche (20nm/28nm).
Solche Entwicklung muss sich ja amotisieren, zumal die iPad Verkäufe ja schon seit einiger Zeit absehbar Schluckauf haben.
Bei den Stückzahlen und dem Gewinn den Apple jedes Quartal erwirtschaftet finanziert sich deren CPU und SoC Entwicklung im vorbeigehen.
Apple, R&D Ausgaben gesamt: http://fortune.com/2014/07/25/chart-of-the-day-apple-ramps-up-rd-spending/
Im letzten Quartal (Apple Q4/2014) waren es ~55 Millionen SoCs welche effektiv über Endgeräte abgesetzt wurden. Macht für das Geschäftsjahr 2014 ~260 Millionen SoCs gesamt.
robbitop
2014-10-22, 13:03:22
Es scheint sich zu bestätigen, das neue iPad Air 2 hat 3 Cores und 2GB RAM.
Nachdem die Passmark-Resultate ja ein wenig durcheinander waren, sollte dieses Geekbench-Resultat (http://browser.primatelabs.com/geekbench3/1061742) eindeutig sein. Die 3 Cores laufen demnach mit 1.5GHz.
Da meine Größenrechnung vom Die des A8X (ca. 117mm²) ja ergeben hat, dass da Platz für eigentlich 4 Cores ist, ist es überraschend, dass Apple jetzt wohl "nur" 3 Cores verbaut hat.
Interessant wird jetzt, ob der A8X vielleicht doch 4 Cores hat und man hinsichtlich Stromverbrauch/Wärmeentwicklung oder was auch immer einen Core nicht aktiviert. Da müssen wir Resultate von Chipworks abwarten. Der A8X mit 4 Cores würde sich jedenfalls gut für das iPad Pro eignen, sofern wir da keine weiteren Überraschungen sehen.
Jedenfalls ist eines sicher, dieses iPad sollte so schnell nichts kleinkriegen. Hinsichtlich Auflösung relativ zur CPU- und GPU-Performance ist das jetzt wahrscheinlich so ziemlich das Optimum. Das Ding sollte für viele Jahre locker ausreichend sein.
Bei 3 Cores sollte aber eigentlich mehr als +40 % CPU Leistung (die ja ggü A7 angegeben war) rumkommen. Warum sollte Apple tiefstapeln?
Aber ja - die Geekbenchresultate sind eindeutig.
Ich bin auf die ersten Die-Shots gespannt. Vieleicht sind es ja wirklich 4 Kerne, bei denen einer als Low Power Kern ausgelegt ist.
Wobei es zumindest bei A6 so aussah auf den Die-Shots als hätte Apple neben den beiden Swiftkernen noch 2 kleine Customcores - also eine Art big.LITTLE by Apple.
Ahaha, sowas hatte ich mir ja genau gewünscht - wenigstens 3 Kerne. :D
Das Air 2 dürfte extrem gut mit mehreren Apps parallel klar kommen.
Wird bei iOS nicht bei Multitasking in der Regel die Anwendung, die im Hintergrund läuft, schlafen gelegt?
Wird sicher eine Weile dauern, bis man auch außerhalb von Sinnlos-Benchmarks (und ggf. Casualspielen) echte Vorteile aus >2 Kernen ziehen kann.
YfOrU
2014-10-22, 13:17:39
Bei 3 Cores sollte aber eigentlich mehr als +40 % CPU Leistung (die ja ggü A7 angegeben war) rumkommen. Warum sollte Apple tiefstapeln?
http://www.apple.com/de/apple-events/2014-oct-event/
Phil Schiller zum A8X, CPU (ab 43:30): 2X Performance some Apps, 40% most Apps.
Statt Trallala wir haben n-Kerne ist das mal eine ehrliche Aussage denn die Skalierung über zwei CPU Kerne hinaus ist im Bereich ultra-mobile bisher die absolute Ausnahme.
robbitop
2014-10-22, 13:35:34
OK - Reallife Performance wäre das OK. Dann reiten sie also nicht auf Synthieperformance, wie es alle anderen tun, herum. :up:
deekey777
2014-10-22, 13:39:07
Was für ein Sweetspot?
Nexus 9 wurde mit dem Android 4 32Bit Geekbench getestet.
+25% sagt der GB Entwickler für K1 64 für die nächsten Zeit (64 Bit Version) voraus. Ich glaube nicht, dass Apple solchen schnöden Wettlauf anstrebt, können sie eh nicht halten und schnell die Plätze verlieren.
....
25% mehr?
Selbst mit einem um 25% höheren MT-Wert würde ein Nexus 9 eine niedrigere Performance als iPad Air 2 erreichen.
robbitop
2014-10-22, 13:42:02
Zumal +25% nur für die Nutzung des 64 bit Instruktionssatzes und die größeren Register IMO utopisch sind. Das sind oftmals nichtmal +10 %.
Demirug
2014-10-22, 13:46:29
Wird bei iOS nicht bei Multitasking in der Regel die Anwendung, die im Hintergrund läuft, schlafen gelegt?
Ja, aber das wird mit jeder iOS Version immer mehr in Form von Background Tasks aufgeweicht.
Zudem kann man wenn die App den Focus verliert dem OS sagen das man die CPU noch braucht. Apple sagt zwar nicht wie lange man sie bekommt aber bis ios 7 waren das bis zu 10 Minuten. Bei ios 3 Minuten. Für ios 8 habe ich den Wert noch nicht.
Avalox
2014-10-22, 15:08:22
25% mehr?
Selbst mit einem um 25% höheren MT-Wert würde ein Nexus 9 eine niedrigere Performance als iPad Air 2 erreichen.
Ausser Frage, das Ipad hat ja auch ein Kern mehr. Aber Single Core Performance mag ja auch nett sein.
15% sind es, ich habe mich verschrieben. Rund 2100 Punkte soll das Nexus 9 dann mit einem Kern einfahren.
Es ist auch genau der selbe Vorsprung den Geekbench in der 64Bit Version fürs iPad/iPhone eingefahren hat.
Die Cortex 64 Bit Kerne werden ebenfalls solch einen Hüpfer machen und haben zudem ordentliche Taktreserven.
Der Snapdragon 810 ist z.B. momentan mit 2,8 GHz in der Gerüchteküche (für ein Telefon, wenn da was dran ist). Apple wird diesen Vorsprung in kurzer Zeit verlieren und egal wird es ihnen auch sein.
Nightspider
2014-10-22, 16:51:43
Auf jeden Fall fördert soviel brachiale Leistung die Entwicklung von professionellen Apps.
Paar gute Ideen fallen den App Entwicklern ja immer mal wieder ein.
robbitop
2014-10-23, 09:36:34
Ich bin immer wieder erstaunt, wieviel IPC Apple in den Cyclone (insbesondere die "enhanced version") gepackt hat. Der scheint ca. 2x so viel IPC zu haben wie alle anderen ARM Kerne.
Andererseits muss er das auch, damit er niedrige Taktraten fahren kann, um so Leistungsaufnahme unten zu halten. Ich tippe darauf, dass Apple die Dinger im Sweetspot fährt und deutlich mehr Takt mit extrem höherer Leistungsaufnahme nur möglich wäre und sich damit nicht mehr lohnen würde.
Am Ende führen viele Wege nach Rom. :)
Man will eine hohe IPC-Rate haben im Mobile-Bereich weil heute Leckströme alles dominieren.
So schnell wie möglich fertig werden und dann komplett abschalten.
Früher war das mal anders als wirklich die Transistoren nur beim schalten Energie verbraucht haben.
robbitop
2014-10-23, 09:53:07
Aber im gleichen Atemzug ist es interessant, dass Qualcomm mit ihrem Krait und ARM mit ihrem A57 jetzt bald an er 3 GHz Marke kratzen und eigentlich auch keine großen Sorgen mit Leistungsaufnahme haben.
Sunrise
2014-10-23, 11:21:18
...Die Speicheranbindung dürfte interessant sein.
Laut iFixit (https://www.ifixit.com/Teardown/iPad+Air+2+Teardown/30592) sind es 2x 1GB Elpida RAM-Chips.
Hallo 128-bit Speicherinterface. :D
Fehlt nur noch Chipworks...
YfOrU
2014-10-23, 13:34:56
Aber im gleichen Atemzug ist es interessant, dass Qualcomm mit ihrem Krait und ARM mit ihrem A57 jetzt bald an er 3 GHz Marke kratzen und eigentlich auch keine großen Sorgen mit Leistungsaufnahme haben.
Genaugenommen sind das Peak Turbo Werte. Beispiel:
http://arstechnica.com/gadgets/2013/11/when-benchmarks-arent-enough-cpu-performance-in-the-nexus-5/
Auf der einen Seite sind die hohen Frequenzen bei vergleichsweise geringer IPC natürlich toll um ein reaktionsfreudiges Endgerät zu bekommen. Andererseits ist dann eine Reduzierung auf die halbe Nennfrequenz entsprechend übel. So ein Verhalten ist auch abseits von Benchmarks in der Praxis bei längerer intensiver Nutzung auf vielen ultra-mobilen Geräten reproduzierbar. Genau das wurde von Apple bei der Vorstellung des A8 auch angesprochen. Die Kurve ist gegenüber A7 ein gutes Stück flacher geworden. So wie ich das sehe wären wohl durchaus etwas höhere (Peak) CPU Frequenzen möglich gewesen. Mit dem CPU Design und 20nm ist Apple aber in einer derart komfortablen Position das die Notwendigkeit nicht gegeben ist.
Geekbench ist natürlich alles andere als der heilige Gral - beim Vergleich mit diversen mobilen 28nm 19W Kaveri APUs gehen einem trotzdem die Augen auf. IMHO ein CPU Design auf Intel Core Niveau und sowas fällt bekanntlich nicht gerade vom Himmel.
Nightspider
2014-10-23, 13:58:48
Spannend wird es eben in ~3 Monaten. Wenn der Snapdragon 810 nicht nur mit fast 3Ghz läuft sondern auch noch eine um vielleicht 40-50% höhere IPC besitzt und mit LPDDR4 1600Mhz DualChannel daherkommt.
Diese wird bei SingleCore Benchmarks stark aufholen und im MultiCore Benchmarks wahrscheinlich wieder den A8X verhauen.
robbitop
2014-10-23, 15:07:19
Ui, dass die Schnappdrachen so doll heruntertakten wußte ich gar nicht. A8 soll ja seinen Takt und damit seine Performance weitestgehend halten.
Andererseits: Die meisten Smartphones/Tablets werden zum Surfen benutzt. Da muss eine Webseite oder eine App mal schnell starten. Da ist kurzzeitige Maximalleistung schon wichtig.
Langfristige Leistung wird seltenst gebraucht. Eben weil Formfaktor und Eingabemöglichkeiten eh kaum ernsthafte Benutzung ausschließen.
Aber daran sieht man mal, welche Vorteile der Aufwand mit Cyclone bietet. Niedrige Leistungsaufnahme bei vergleichbarer oder besserer Leistung ohne Einbrüche. :)
lumines
2014-10-23, 15:37:58
Andererseits: Die meisten Smartphones/Tablets werden zum Surfen benutzt. Da muss eine Webseite oder eine App mal schnell starten. Da ist kurzzeitige Maximalleistung schon wichtig.
Langfristige Leistung wird seltenst gebraucht. Eben weil Formfaktor und Eingabemöglichkeiten eh kaum ernsthafte Benutzung ausschließen.
Ja, mit den „alten“ Snapdragons war das vielleicht noch ein bisschen grenzwertig (das Galaxy S4 konnte teilweise nicht einmal 1,2 GHz halten, wenn es lange auf 1,9 GHz lief – das galt natürlich nicht für alle S600, das S4 hatte einen sehr aggressiven Takt), aber mittlerweile ist selbst ein gedrosselter S800 gar nicht so langsam.
Zumal auch eher die Smartphones drosseln. Bei Tablets ist das nicht so weit verbreitet, soweit ich weiß.
Apple ist aber auch in einer anderen Position. Wenn man sich als Entwickler sicher sein kann, dass die App immer die (fast) genau gleiche CPU-Leistung beanspruchen kann, macht das die Sache natürlich etwas einfacher zu testen. Man hat viel weniger Edge-Cases. Bei Android ist das durch die vielen verschiedenen CPUs sowieso nicht gegeben, von daher ist das da auch nicht so interessant.
Unicous
2014-10-23, 18:00:00
Hmmmm.
http://forum.beyond3d.com/showpost.php?p=1882733&postcount=500
Ailuros schließt nicht aus, dass es vllt. doch eher 8 Cluster sind, die entsprechend niedrig getaktet sind (450MHz z.B.).
Das wäre ja schon eine interessante Entwicklung. Für mich stellt sich dann aber die Frage wie ein potenzieller A9(X) dann aussieht. Klar skaliert Rogue sicherlich noch linear weiter und es stellt sich die Frage inwieweit Apple die 7er Serie überhaupt tangiert.
Beides frisst jedenfalls Fläche und passt mE nicht in Apples Konzept. Spannend.:eek:
BlackBirdSR
2014-10-23, 18:42:19
Beides frisst jedenfalls Fläche und passt mE nicht in Apples Konzept. Spannend.:eek:
Fläche ist schon lange nicht mehr das Problem.
Heutzutage ist fast alles nur noch durch thermale Randbedingungen limitiert. Zu kleine DIE-Größen will man auch wieder nicht haben...
Ich denke nicht, dass Apple lieber weniger Fläche und dafür mehr Takt gehabt hätte.
Unicous
2014-10-23, 19:02:29
Dass Apple gerne in die Breite geht bei ihren SoC-Designs ist ja kein Geheimnis. Aber dennoch haben sie vergleichsweise schlanke Dies (in Relation zu den IP blocks die darauf Platz einnehmen) und versuchen wie jeder Hersteller die Kosten zu kontrollieren. Die Dinger werden millionenfach hergestellt, da macht ein mm² schon so einiges aus.
Wie sich der komplett neue Prozess darauf auswirkt, ist auch eine sehr "heiße" Frage. So weit ich mich erinnere haben FinFETs bei Intel zu einem leichten Temperaturanstieg geführt (zusätzlich zu den Schwierigkeiten, bei kleinerer Die Size, die Wärme abzuführen) . Das ist bei Desktop/Notebook Prozessoren verschmerzbar, weil man eine fette Heatsink mit Lüfter installieren kann (oder eben geringe Taktziele vorgibt), aber wie steht es um Mobile SoCs?
Intels 14nm FinFETs sind noch einmal dichter gepackt um Fläche zu sparen, ich frage mich wie sich das auf die Wärmeableitung auswirkt. Sind Samsungs 14nm FinFETs genauso "gut" wie Intels 14nm FinFETs oder eher auf 22nm Niveau? Das Scaling von 20nm auf 14nm lässt eher auf Letzteres schließen.
mboeller
2014-10-23, 19:14:54
wo siehst du jetzt das Problem?
14/16nm = 20nm mit Finfets... das Die wird also nicht mehr kleiner oder nur unwesentlich (laut Samsung).
Dafür erlaubt laut der letzten Pressemitteilung von TSMC 16nm (also 20nm+Finfets) 40% mehr Leistung im Vergleich zu 28nm oder 60% weniger Verbrauch. Selbst gegenüber dem jetzigen 20nm Prozess sollte da noch einiges drin sein.
Es sollte also nicht schwerer werden (bei gleicher Leistung) die Wärme abzuführen sondern leichter. Und selbst bei 40% höherer Leistung könnte, wenn die Pressemitteilung nicht zu falsch ist der Verbrauch gleich bleiben; immer natürlich im Vergleich zu 28nm. Aber so viel besser als 28nm ist der 20nm Prozess auch nicht.
Unicous
2014-10-23, 19:38:19
Da TSMC gerne mal flunkert gebe ich eher wenig auf ihre Performanceaussagen. Das Wort "and" wird ja gerne synonym für "or" verwendet.:wink:
Die Wärmeabfur bei FinFETs ist problematisch, weil an den Drains Hotspots entstehen. Dieses Problem verschärft sich natürlich durch geringere Strukturgrößen. Deswegen hat Intel auch ihre FinFETs umgestaltet (neben dem Fakt, dass sie natürlich von 22nm auf 14nm gehen:tongue:)
http://images.anandtech.com/doci/8367/14nmFinfet3_575px.png
Sie sind jetzt länger und schmaler(also verjüngen sich) und dadurch verringert sich die Leakage und das dürfte das Problem der Hotspots zumindest für 14nm verbessern. Intel hat das aber mit Yield Problemen bezahlt, wie sie ja selbst zugegeben haben.
TSMC und Samsung haben aber nicht ein Produkt mit FinFETs hervorgebracht bis jetzt. Daher stellt sich die Frage wie sie diese Probleme angehen und wie vergleichbar ihre FinFETs mit denen von Intel sind.
smalM
2014-10-23, 23:18:00
Spannend wird es eben in ~3 Monaten. Wenn der Snapdragon 810 nicht nur mit fast 3Ghz läuft sondern auch noch eine um vielleicht 40-50% höhere IPC besitzt und mit LPDDR4 1600Mhz DualChannel daherkommt.
Der A57 wird fast die gleiche Architektur wie der A15 haben, wie soll da allein durch die Umstellung auf 64bit 50% mehr IPC rauskommen?
Ailuros schließt nicht aus, dass es vllt. doch eher 8 Cluster sind, die entsprechend niedrig getaktet sind (450MHz z.B.). [...] Für mich stellt sich dann aber die Frage wie ein potenzieller A9(X) dann aussieht. Klar skaliert Rogue sicherlich noch linear weiter und es stellt sich die Frage inwieweit Apple die 7er Serie überhaupt tangiert.
Nach GX6850 ist Schluß, mehr als 4 Clustern-Paare kann die Rogue-Architektur nicht.
Es können aber zwei Rogue-GPUs zusammenarbeiten, wie zu Serie 5 Zeiten...
y33H@
2014-10-24, 00:07:28
3-fach skalar und 15-Stufen-Pipe ist gleich, dafür doppelte Register und +50 % größerer L1I-Cache. ARM selbst sagt, der A57 legt um knapp die Hälfte verglichen mit dem A15 nur durch IPC zu, dann kommt noch der Takt und 64 Bit dazu.
64 bit ist langsamer als 32 bit bei ARM.
y33H@
2014-10-24, 08:48:44
Bitte? 64 Bit soll mit 64 Bit Code langsamer sein? Da sagen meine Messungen und die Hersteller was anderes ;-)
robbitop
2014-10-24, 09:16:00
Hmmmm.
http://forum.beyond3d.com/showpost.php?p=1882733&postcount=500
Ailuros schließt nicht aus, dass es vllt. doch eher 8 Cluster sind, die entsprechend niedrig getaktet sind (450MHz z.B.).
Das wäre ja schon eine interessante Entwicklung. Für mich stellt sich dann aber die Frage wie ein potenzieller A9(X) dann aussieht. Klar skaliert Rogue sicherlich noch linear weiter und es stellt sich die Frage inwieweit Apple die 7er Serie überhaupt tangiert.
Beides frisst jedenfalls Fläche und passt mE nicht in Apples Konzept. Spannend.:eek:
Auf Serie 6 folgt Serie ... ? ;)
Wird angeblich im Dezember vorgestellt. Es soll jetzt auf einen 1 Jahreszyklus umgestellt werden bei IMG mit µ-Arch-Updates. Die werden dabei schon dafür sorgen, dass Skalierung erhalten bleibt.
Entweder über mehr Cluster oder über schnellere Cluster.
Verwechsle übrigens die Cluster von Rogue nicht mit den Cores von Serie 5(XT). Bei Serie 5(XT) wurde ja mGPU on Chip gemacht. Rogue hingegen tut, was AMD und NV schon seit Jahren tun: sie skalieren die Ausführungseinheiten einer Architektur für 3-4 Größen. Rogue tut AFAIK nichts anderes.
Der A57 wird fast die gleiche Architektur wie der A15 haben, wie soll da allein durch die Umstellung auf 64bit 50% mehr IPC rauskommen?
IIRC waren es eher zwischen 30 und 40 %. Und da das ARMs Angaben sind, wird es eher optimistisch angesetzt sein. Rechne mal mit +30 % IPC ggü A15.
Bitte? 64 Bit soll mit 64 Bit Code langsamer sein? Da sagen meine Messungen und die Hersteller was anderes ;-)
Was für "Messungen" sind das? ARMv8 hat größeres Instruction-Encoding und man muss überall 64-Bit-Pointer mitschleppen.
In normalem Code ist das mit Garantie langsamer.
YfOrU
2014-10-24, 10:08:20
Exynos 5420 (Galaxy Note 3)
4*Cortex A7 1,3 Ghz + 4* Cortex A15 1,9 Ghz
Geekbench 3.2 SC: 923 MC: 2693
http://browser.primatelabs.com/geekbench3/1086347
Exynos 5433 (Galaxy Note 4):
4*Cortex A53 1,3 Ghz + 4*Cortex A57 1,9 Ghz
Geekbench 3.2 SC: 1128 MC: 3589
http://i-cdn.phonearena.com/images/articles/142108-image/Geekbench-3.2-single-core.jpg
http://i-cdn.phonearena.com/images/articles/142107-image/Geekbench-3.2-multi-core.jpg
Für den Exynos 5433 gibt es bei Geekbench inzwischen höhere Einträge, allerdings nur mit Angabe zur Frequenz der A53 Kerne: SC: 1350 MC: 4837
http://browser.primatelabs.com/geekbench3/search?dir=desc&q=ARM+UNIVERSAL5433&sort=score
Deutlich mehr als ~30% IPC Steigerung gegenüber A15 würde ich A57 auf Basis der aktuellen Werte nicht zuschreiben.
Avalox
2014-10-24, 10:12:35
Was für "Messungen" sind das? ARMv8 hat größeres Instruction-Encoding und man muss überall 64-Bit-Pointer mitschleppen.
ARM Instruction Enconding ist doch 32Bit unter ARMv7, wie ARMv8. Tumb Mode, hat ein variables Instruction Encoding, aber welchen Obcode willst du denn in ein 16 Bit Encoding unterbringen, sobald ein paar Register mehr benutzt werden?
Normal übersetzter ARMv8 Code ist doch erhebliche flinker, auf einer CPU die beides unterstützt. Klar gibt architektonische Vorteile, aber trotzdem sehr einheitlich schneller.
Exynos 5433 (Galaxy Note 4):
Der Geekbench ist eine 32Bit Software, unter einem 32Bit Betriebssystem in einem 32Bit Kompatiblitätsmodus der CPU, welche zudem deutlich langsameren Speicher angebunden bekommen hat, beim Exynos 5433.
YfOrU
2014-10-24, 10:37:08
Der Geekbench ist eine 32Bit Software, unter einem 32Bit Betriebssystem in einem 32Bit Kompatiblitätsmodus der CPU, welche zudem deutlich langsameren Speicher angebunden bekommen hat, beim Exynos
Natürlich. Ist und bleibt deshalb trotzdem ein ARMv8 Cortex-A57 (siehe AES und SHA1) und die vorhandene Speicherperformance ist bei einer Detailbetrachtung im Kontext der CPU Rohleistung durchaus ausreichend.
5420 bei 2,1 Ghz: http://browser.primatelabs.com/geekbench3/search?dir=desc&q=universal5420&sort=multicore_score
5420 bei 1,9 Ghz: http://browser.primatelabs.com/geekbench3/763138
5433 bei vermutlich 1.9 Ghz: http://browser.primatelabs.com/geekbench3/search?dir=desc&q=ARM+UNIVERSAL5433&sort=multicore_score
y33H@
2014-10-24, 10:51:44
Der Geekbench ist eine 32Bit Software, unter einem 32Bit Betriebssystem in einem 32Bit Kompatiblitätsmodus der CPU, welche zudem deutlich langsameren Speicher angebunden bekommen hat, beim ExynosGeekbench kann 64 Bit.
Avalox
2014-10-24, 10:58:22
Natürlich. Ist und bleibt deshalb trotzdem ein ARMv8 Cortex-A57
Na, ja nicht ganz. Die ARMv8 Vorteile, wie auch die zusätzlichen Registern und Einheiten liegen brach. Rund 15% wird der Standardcode des 64 Bit Benches profitieren.
Geekbench kann 64 Bit.
Auf einem Apple A7 und A8.
y33H@
2014-10-24, 11:12:28
Und unter Windows und unter Linux und unter Mac und bald auch unter Android.
BlackBirdSR
2014-10-24, 11:25:57
Und unter Windows und unter Linux und unter Mac und bald auch unter Android.
Geekbench wird jetzt zum neuen 3d Mark. Wo immer dabei raus kommt, egal welche Optimierungen und Compiler, egal welche sonstige Faktoren, das Ergebnis ist in allen multiversen Fakt auf allen Ebenen des Seins......
Da wird dann daraus abgeleitet, dass Apple die ipc von Server Prozessoren erreicht, dass ein core so viel besser ist als der andere und wie viel konstante ipc der Wechsel auf 64bit bringt....
Ihr solltet hier mal mitlesen.....
mboeller
2014-10-24, 11:48:51
3-fach skalar und 15-Stufen-Pipe ist gleich, dafür doppelte Register und +50 % größerer L1I-Cache. ARM selbst sagt, der A57 legt um knapp die Hälfte verglichen mit dem A15 nur durch IPC zu, dann kommt noch der Takt und 64 Bit dazu.
wo siehst du da 50%?
http://www.arm.com/products/processors/cortex-a/cortex-a57-processor.php?tab=Performance
robbitop
2014-10-24, 12:35:14
Geekbench wird jetzt zum neuen 3d Mark. Wo immer dabei raus kommt, egal welche Optimierungen und Compiler, egal welche sonstige Faktoren, das Ergebnis ist in allen multiversen Fakt auf allen Ebenen des Seins......
Da wird dann daraus abgeleitet, dass Apple die ipc von Server Prozessoren erreicht, dass ein core so viel besser ist als der andere und wie viel konstante ipc der Wechsel auf 64bit bringt....
Ihr solltet hier mal mitlesen.....
Du hast schon Recht mit dem was du sagst. Aber es gibt leider kaum crossplattform Benchmarks um Vergleiche zu ziehen.
Bedeutet: Am Ende können wir entweder nur wackelige Vergleiche aufstellen oder halt eben gar keine. ;)
y33H@
2014-10-24, 12:44:47
wo siehst du da 50%?
http://www.arm.com/products/processors/cortex-a/cortex-a57-processor.php?tab=PerformanceHier, hatte ARM im Frühling verschickt.
ARM Instruction Enconding ist doch 32Bit unter ARMv7, wie ARMv8. Tumb Mode, hat ein variables Instruction Encoding, aber welchen Obcode willst du denn in ein 16 Bit Encoding unterbringen, sobald ein paar Register mehr benutzt werden?
Das ist der Punkt. ARMv7-Programme sind praktisch immer Thumb2, das heißt man spart sich die Hälfte des I$-Cache.
Na, ja nicht ganz. Die ARMv8 Vorteile, wie auch die zusätzlichen Registern und Einheiten liegen brach. Rund 15% wird der Standardcode des 64 Bit Benches profitieren.
ARMv8 hat nur beim SIMD-Zeug mehr Register. Das bringt dir bei normalem Code genau welchen Vorteil? Und selbst dort sind 32 statt 16 Register zwar ein Vorteil, aber kein besonders großer.
Normal übersetzter ARMv8 Code ist doch erhebliche flinker
Das bezweifle ich. Ich behaupte das Gegenteil. Es gibt NULL Gründe warum das Zeug schneller sein sollte.
Man braucht mehr Platz für Instructions, man braucht mehr Platz für Pointer und man hat mehr Cache-Misses bei der Virtual Adress Translation.
Avalox
2014-10-24, 13:25:54
Das ist der Punkt. ARMv7-Programme sind praktisch immer Thumb2, das heißt man spart sich die Hälfte des I$-Cache..
Nicht generell.
Thumb2 bedeut nicht, dass kein 32Bit Instruction-Encoding genutzt wird.
Man ist mit einem 16Bit Instruction-Encoding, doch ganz schön eingeschränkt was den Platz für den Opcode angeht, schliesslich müssen die Registeradressen ja zwangläufig hinein passen. Wie hoch ist denn der Programmanteil? Ist das wirklich so relevant in der Praxis?
Alter, du brauchst mir nicht erklären was Thumb2 ist :ugly:
Die meisten Instructionen werden sehr wohl mit 16 Bit kodiert, nur wenig verwendete nicht. Das reduziert die Codegröße fast um die Hälfte.
Du kannst hier rumrudern wie du willst, ARMv8 hat keinen Performancevorteil, außer man arbeitet explizit auf 64 Bit Integern. Was fast nie der Fall ist, außer bei Krypto-Zeug. Ich fress nen Besen wenn gewöhnliche Programme nicht langsamer werden wenn man auf 64 bit kompiliert.
BlackBirdSR
2014-10-24, 15:19:39
ARMv8 hat nur beim SIMD-Zeug mehr Register. Das bringt dir bei normalem Code genau welchen Vorteil? Und selbst dort sind 32 statt 16 Register zwar ein Vorteil, aber kein besonders großer.
Ich dachte bisher, auch ARMv8 erhöht die Anzahl der GPRs von 13 auf 30 und die Anzahl der Vector-Register bleibt bei 32, nun aber alle 128Bit breit...
Ist das so? Ich dachte die GRPs waren schon bei 31 bisher.
Aber selbst wenn hat man durch Register-Renaming eigentlich selten einen großen Nutzen davon. Ich bin immer noch skeptisch. Das dürfte wie bei x86-64 größtenteils auf Null rauskommen in dem Fall.
y33H@
2014-10-24, 15:29:07
31 statt 15.
BlackBirdSR
2014-10-24, 15:40:04
31 statt 15.
Können wir uns mal auf eine genaue Zahl einigen ;)
Es sind imo X0-X29, X30 ist ein PLR, daher 30 statt 13.
Bei ARMv7 sinds die GPRs von R0 bis R12
Gandharva
2014-10-25, 17:29:32
Du kannst hier rumrudern wie du willst, ARMv8 hat keinen Performancevorteil, außer man arbeitet explizit auf 64 Bit Integern. Was fast nie der Fall ist, außer bei Krypto-Zeug. Ich fress nen Besen wenn gewöhnliche Programme nicht langsamer werden wenn man auf 64 bit kompiliert.
Warts nur ab. Geekbench hat so einige Crypto Tests drin. Das wird dann gebencht und taadaaa ~15% besserer Score. Und dann alle so: Yeah! ;)
y33H@
2014-10-25, 18:15:36
Können wir uns mal auf eine genaue Zahl einigen ;)
Es sind imo X0-X29, X30 ist ein PLR, daher 30 statt 13. Bei ARMv7 sinds die GPRs von R0 bis R12Wen man so "rechnet", stimme ich dir vollauf zu.
Ailuros
2014-11-02, 09:07:59
wo siehst du jetzt das Problem?
14/16nm = 20nm mit Finfets... das Die wird also nicht mehr kleiner oder nur unwesentlich (laut Samsung).
Dafür erlaubt laut der letzten Pressemitteilung von TSMC 16nm (also 20nm+Finfets) 40% mehr Leistung im Vergleich zu 28nm oder 60% weniger Verbrauch. Selbst gegenüber dem jetzigen 20nm Prozess sollte da noch einiges drin sein.
Es sollte also nicht schwerer werden (bei gleicher Leistung) die Wärme abzuführen sondern leichter. Und selbst bei 40% höherer Leistung könnte, wenn die Pressemitteilung nicht zu falsch ist der Verbrauch gleich bleiben; immer natürlich im Vergleich zu 28nm. Aber so viel besser als 28nm ist der 20nm Prozess auch nicht.
Samsung soll ziemlich grosse yield Probleme mit 14nm haben.
Sonst zur GPU es ist tatsaechlich ein "GX6850" bei schaetzungsweise 500MHz welches 256 FP32 oder 1024 FP16 FLOPs und 16 TMUs u.a. bedeutet. Unter Gfxbench3.0 scheint die Applikation eine Laufzeit von ca. 4 Stunden unter TRex onscreen einzuschaetzen. Und jetzt kommt natuerlich gleich wieder die "ja aber 20nm...." Laier als Entschuldigung :rolleyes:
robbitop
2014-11-07, 21:36:05
Samsung soll ziemlich grosse yield Probleme mit 14nm haben.
Sonst zur GPU es ist tatsaechlich ein "GX6850" bei schaetzungsweise 500MHz welches 512 FP32 oder 1024 FP16 SPs und 16 TMUs u.a. bedeutet. Unter Gfxbench3.0 scheint die Applikation eine Laufzeit von ca. 4 Stunden unter TRex onscreen einzuschaetzen. Und jetzt kommt natuerlich gleich wieder die "ja aber 20nm...." Laier als Entschuldigung :rolleyes:
http://www.anandtech.com/show/8666/the-apple-ipad-air-2-review/2
Joshua Hoe schreibt es sei ein GX6650. Ist er falsch informiert?
Ailuros
2014-11-07, 21:49:44
http://www.anandtech.com/show/8666/the-apple-ipad-air-2-review/2
Joshua Hoe schreibt es sei ein GX6650. Ist er falsch informiert?
Bis zu den chipworks A8 die shots "glaubte" auch Anandtech an einen GX6650 in diesem; am Ende war es doch nur ein GX6450. Einmal um 2 clusters zu viel im A8 und einmal um 2 clusters zu wenig im A8X.
robbitop
2014-11-07, 22:18:41
Hehe - dann gleicht es sich aus. :)
y33H@
2014-11-07, 22:48:39
Im A8X steckt ein XT6 mit acht USCs? IMG hat für Apple extra was gebaut? Dann lag ich doch nicht völlig daneben ...
Ailuros
2014-11-08, 07:08:27
Im A8X steckt ein XT6 mit acht USCs? IMG hat für Apple extra was gebaut? Dann lag ich doch nicht völlig daneben ...
Es warten alle auf den die shot von chipworks. Wenn Du auf B3D rueberschielst, hat die SoC Seite im iPad Air2 review Ryan Smith geschrieben.
Es ist nicht das erste Mal falls es Dich wundern sollte; der SGX554 im iPad4 wurde nur von Apple lizenziert und integriert nur hatten sie damals auch jeden Punkt ankuendigen muessen. Seit neuestem scheinen sie aber ihre Investoren hinter geschlossenen Tueren zu informieren und es wird ein sehr grosser Anteil von Informationen zurueckgehalten.
Ich wuerde sogar behaupten dass Serie7 schon im Umlauf ist obwohl noch nicht angekuendigt.
***edit: http://www.imgtec.com/news/detail.asp?ID=934 ....am 19/11 kommt wohl die relevante Ankuendigung.
Hehe - dann gleicht es sich aus. :)
http://forum.beyond3d.com/showpost.php?p=1886553&postcount=3214
:D
Ailuros
2014-11-12, 06:18:13
GXA6850:
http://anandtech.com/show/8716/apple-a8xs-gpu-gxa6850-even-better-than-i-thought
Sunrise,
Ausgezeichnet eingeschaetzt. Der die soll ~125mm2 gross sein; mit Deinen 117mm2 warst Du nahe genug.
-----------------------------------------------------------------------------------------------------
Bei ca. 3 Mrd. Transistoren = ~24Mio/mm2
Fuer die eingeschaetzten 38mm2 fuer die GPU sind es dann =/>900Mio Transistoren.
Dass Apple einfach 2*GX6450 genommen hat und sie zusammengeschustert hat haette ich nicht erwartet. Ich kann mir aber schwer vorstellen dass ein waschreiner 8 cluster config von IMG so viel in Transistoren gekostet haette (ist aber Apple offensichtlich wurscht).
Apple entwickelt also keine eigenen GPUs bis jetzt, sondern "semi-custom" GPUs basierend auf IMG GPU IP. Sobald sie jetzt noch den neuesten Treiber benutzen, brechen sie dann schon noch die 40fps Grenze ;)
robbitop
2014-11-12, 10:23:16
Das könnte einen Vorteil haben. Im Prinzip ist es ja ein GX6450 MP2. Analog zu Serie5 XT sollte damit auch die Geometrie/Rasterleistung verdoppelt sein.
Ailuros
2014-11-12, 13:22:41
Das könnte einen Vorteil haben. Im Prinzip ist es ja ein GX6450 MP2. Analog zu Serie5 XT sollte damit auch die Geometrie/Rasterleistung verdoppelt sein.
Nur haben dummerweise 5XT cores zusaetzliche hw fuers scheduling und auch den Hydra Zusatz-core.
Die A8X GPU ist in Manhattan offscreen um ca. 70% schneller als die A8 GPU obwohl die erste doppelt so hohe Fuellraten landet. In TRex ist der Unterschied sogar unter 60%.
deekey777
2014-11-12, 14:28:59
Apple hat doch einen Knall. Und die nötigen Resourcen.
robbitop
2014-11-12, 14:49:52
Nur haben dummerweise 5XT cores zusaetzliche hw fuers scheduling und auch den Hydra Zusatz-core.
Die A8X GPU ist in Manhattan offscreen um ca. 70% schneller als die A8 GPU obwohl die erste doppelt so hohe Fuellraten landet. In TRex ist der Unterschied sogar unter 60%.
Gleiche GPU Taktraten von A8 und A8x?
Definitiv ein GPU Limit?
Falls eins vom beiden nicht glasklar "ja" lautet muss man nochmal genauer hinschauen.
Ailuros
2014-11-12, 18:31:58
Gleiche GPU Taktraten von A8 und A8x?
Definitiv ein GPU Limit?
Falls eins vom beiden nicht glasklar "ja" lautet muss man nochmal genauer hinschauen.
Ich kann Dir die Fragen noch nicht beantworten. Ich hab die gleichen Gedanken auch bei B3D gepostet, aber ich bezweifle dass Ryan oder sonst wer eine Antwort dafuer haben. Die IMG Kerle wissen wohl schon was los ist, aber da es sich um eine reine Apple Affaere handelt wird keiner das Risiko eingehen und sich darueber selbst off the record aeussern.
smalM
2014-11-12, 19:59:55
Dass Apple einfach 2*GX6450 genommen hat und sie zusammengeschustert hat haette ich nicht erwartet. Ich kann mir aber schwer vorstellen dass ein waschreiner 8 cluster config von IMG so viel in Transistoren gekostet haette (ist aber Apple offensichtlich wurscht).
Ich glaube nicht an an einen GX6450MP2, bevor ich den Die-Shot nicht gesehen habe!
Ryan Smith schreibt ja auch vorsichtigerweise, daß es so aussieht als ob zwei GX6450 aufeinandergestapelt wären. Es hat ja bisher noch keiner von uns ein Design > GX6450 zu Gesicht bekommen.
Nur wieso er so darauf herumreitet, daß es keine offizielle GX6850 IP gibt, ist mir etwas schleierhaft, es ist doch kein Geheimnis, daß GX6 bis acht Cluster skaliert...
Vom A7 gab es übrigens ein 31MPixel-Bild, vom A8 nur noch ein 0,25MPixel-Bild und so wie's aussieht, bekommen wir den A8X erst garnicht gezeigt. Ob Apple da wohl dichtgemacht hat?
robbitop
2014-11-12, 22:02:07
Man muss doch nur auf Chipworks warten. Die liefern dann schon - ob Apple will oder nicht. ;)
deekey777
2014-11-12, 22:17:23
Hier ist doch ein Bild, oder?
http://www.macrumors.com/2014/11/12/a8x-graphics-8-cores/
Ailuros
2014-11-13, 06:49:42
Ich glaube nicht an an einen GX6450MP2, bevor ich den Die-Shot nicht gesehen habe!
Ryan Smith schreibt ja auch vorsichtigerweise, daß es so aussieht als ob zwei GX6450 aufeinandergestapelt wären. Es hat ja bisher noch keiner von uns ein Design > GX6450 zu Gesicht bekommen.
Nur wieso er so darauf herumreitet, daß es keine offizielle GX6850 IP gibt, ist mir etwas schleierhaft, es ist doch kein Geheimnis, daß GX6 bis acht Cluster skaliert...
Nur wurde im A8X die GPU nicht von IMG auf 8 clusters skaliert. Es gibt tatsaechlich keine offizielle 8 cluster 6XT Variante; ein Grund darauf zum herumreiten waere IMG's engineering Faehigkeiten zu schuetzen, denn eine 8 cluster Variante von IMG haette besser skaliert.
Sonst darfst Du gerne raten woher Ryan sein Material fuer solche Artikel bekommt und das garantiert nicht von Apple.
Vom A7 gab es übrigens ein 31MPixel-Bild, vom A8 nur noch ein 0,25MPixel-Bild und so wie's aussieht, bekommen wir den A8X erst garnicht gezeigt. Ob Apple da wohl dichtgemacht hat?
Es wurde gerade zum chipworks die shot verlinkt; nach was sieht Dir der gigantische GPU block im A8X genau aus?
smalM
2014-11-13, 10:03:58
Es sieht aus, als wäre ein Teil des Nicht-CSU-Bereichs gedoppelt worden und ein Teil nicht.
Ailuros
2014-11-13, 10:10:59
Es sieht aus, als wäre ein Teil des Nicht-CSU-Bereichs gedoppelt worden und ein Teil nicht.
http://images.anandtech.com/doci/8716/A8X%20draft%20floorplan.png
http://images.anandtech.com/doci/8562/APL1011_TMET05_166628_Poly_blog_blocks.png
Ich weiss nicht was Du meinst, aber ich sehe im ersten den GPU block vom zweiten quasi verdoppelt.
smalM
2014-11-13, 17:49:06
Außen sind die vier Clusterpaare (1 - 8) mit der jeweils gesharten Textureinheit (T).
Innen liegen drei Funktionsblöcke, von denen die beiden äußeren ein spiegelsymetrisches Paar bilden (A & B), in der Mitte liegt ein einzelner Funktionsblock.
Beim GX6450 gibt es statt des spiegelsymetrischen Paares nur ein Teil, der einzelne Funktionsblock bleibt hingegen.
Verständlicher?
Was mich überrascht ist, wie sehr Apple im A8X das Design der einzelnen Shadercluster gegenüber dem A8 geändert hat!
robbitop
2014-11-13, 18:05:08
1. Bei der Skalierung wäre ich noch vorsichtig. Eh man das beurteilen kann, sollte feststehen, dass A8 und A8X mit gleicher Frequenz laufen. Und es sollte glas klar nachgewiesen sein, dass im vergleichenden Benchmarks ein 100 %iges GPU Limit vorliegt.
Weiterhin sollte auch nachgewiesen sein, dass nicht gethrottelt wird.
Erst wenn diese Faktoren vorliegen - erst dann kann man etwas zur Skalierung sagen IMO.
2. Ich bin nicht überzeugt, dass IMG nichts mit dem 8 C Design zu tun hatte. Soweit ich weiß, muss Apple nur sagen "spring" und IMG antwortet nur noch "wie hoch?". Warum sollte man das nicht den eigentlichen Designer machen lassen anstatt selbst rumzufrickeln. Das geht schneller und das Ergebnis ist sicher besser.
Ich tippe eher darauf, dass die 8C Lösung halt eine custom Lösung von IMG ist.
Ailuros
2014-11-13, 18:11:40
Außen sind die vier Clusterpaare (1 - 8) mit der jeweils gesharten Textureinheit (T).
Innen liegen drei Funktionsblöcke, von denen die beiden äußeren ein spiegelsymetrisches Paar bilden (A & B), in der Mitte liegt ein einzelner Funktionsblock.
Beim GX6450 gibt es statt des spiegelsymetrischen Paares nur ein Teil, der einzelne Funktionsblock bleibt hingegen.
Verständlicher?
Dazu auch Xmas@B3D:
http://forum.beyond3d.com/posts/1807611/
The GPU is almost exactly mirrored, but if you look closely there are some areas which aren't (just above/below and to the right of the "8-core GPU" label).
Das obrige stimmt dann schon, nur heisst es eben nach wie vor dass wie schon erwaehnt der GX6450 "quasi dupliziert" wurde und der Haarspalterei zu Liebe hab ich den Eindruck dass das Rechteck dass Du im Zentrum eingezeichnet hast etwas kleiner sein sollte, denn der 6450 block im A8 ist auch quasi rechteckig.
Womoeglich haben sie etwas Logik ersetzt in der Mitte um die beiden Bloecke zu verbinden, denn etwas besseres faellt mir nicht ein.
Ailuros
2014-11-13, 18:18:57
1. Bei der Skalierung wäre ich noch vorsichtig. Eh man das beurteilen kann, sollte feststehen, dass A8 und A8X mit gleicher Frequenz laufen. Und es sollte glas klar nachgewiesen sein, dass im vergleichenden Benchmarks ein 100 %iges GPU Limit vorliegt.
Weiterhin sollte auch nachgewiesen sein, dass nicht gethrottelt wird.
Erst wenn diese Faktoren vorliegen - erst dann kann man etwas zur Skalierung sagen IMO.
Manhattan ist verdammt ALU limitiert; da GX6450 mit =/>125GFLOPs 19.3 fps liefert, sollte ein config mit doppelt so viel clusters mit gleichem internen Aufbau mit =/>256GFLOPs etwas mehr als "nur" 33 fps liefern.
2 und 4 cluster Series6 cores skalieren fast linear diesbezueglich.
2. Ich bin nicht überzeugt, dass IMG nichts mit dem 8 C Design zu tun hatte. Soweit ich weiß, muss Apple nur sagen "spring" und IMG antwortet nur noch "wie hoch?". Warum sollte man das nicht den eigentlichen Designer machen lassen anstatt selbst rumzufrickeln. Das geht schneller und das Ergebnis ist sicher besser.
Ich tippe eher darauf, dass die 8C Lösung halt eine custom Lösung von IMG ist.
Nein zum letzten. Es ist die direkte Antwort was bei Apple all die ex AMD GPU engineers vom ehemaligen Orlando team in letzter Zeit genau anstellten.
GX6450 ist 19.1mm2 gross im A8 und die A8X GPU um die 38mm2; wenn man clusters skaliert verdoppelt sich NICHT die Flaeche bei doppelt so viel clusters.
robbitop
2014-11-13, 18:27:32
Interessant. :)
Mich würde interessieren, wie man 2 GPUs transparrent verschaltet. Zumal der Treiber ja auch noch mitspielen muss. Programmiert Apple mittlerweile eigene Treiber?
P.S
bist du sicher, dass auch beim A8X noch kein CPU Limit auftritt?
smalM
2014-11-14, 00:38:59
Das obrige stimmt dann schon, nur heisst es eben nach wie vor dass wie schon erwaehnt der GX6450 "quasi dupliziert" wurde und der Haarspalterei zu Liebe hab ich den Eindruck dass das Rechteck dass Du im Zentrum eingezeichnet hast etwas kleiner sein sollte, denn der 6450 block im A8 ist auch quasi rechteckig.
"Quasi" ist ein so dehnbarer Begriff, daß dem zu widersprechen schwerfällt. Aber es ist eben KEIN GX6450MP2, auch wenn der größte Teil eines GX6450 gedoppelt (besser: gespiegelt) wurde.
Ich habe die beiden spiegelsymetrischen Funktionsblöcke A & B dort abgetrennt, wo die Spiegelsymetrie endete. Das Rechteck in der Mitte ist schlicht das, was übrigbleibt.
Auf die "Rechteckigkeit" würde ich nicht so viel Gewicht legen, die Shader-Units sind bspw. im A8 quadratisch und im A8X deutlich rechteckig; es wurden offensichtlich die Funktionseinheiten im Core neu angeordnet. Auch die Textureinheiten wurden "flacher" designed.
Interessant. :)
Mich würde interessieren, wie man 2 GPUs transparrent verschaltet. Zumal der Treiber ja auch noch mitspielen muss. Programmiert Apple mittlerweile eigene Treiber?
Das ist bei einem Tile Renderer mit gemeinsamen Adressraum relativ simpel. Da wird ziemlich wenig Software daran beteiligt sein.
Apple hat sich dafür wohl einen eigenen Arbitter gebaut der die Last verteilt.
Ailuros
2014-11-14, 06:39:51
"Quasi" ist ein so dehnbarer Begriff, daß dem zu widersprechen schwerfällt. Aber es ist eben KEIN GX6450MP2, auch wenn der größte Teil eines GX6450 gedoppelt (besser: gespiegelt) wurde.
Es ist kein "MP2" weil in IMG's marketing Geblubber es auch mit hw Logik unterstuetzt werden wuerde.
Ich habe die beiden spiegelsymetrischen Funktionsblöcke A & B dort abgetrennt, wo die Spiegelsymetrie endete. Das Rechteck in der Mitte ist schlicht das, was übrigbleibt.
Auf die "Rechteckigkeit" würde ich nicht so viel Gewicht legen, die Shader-Units sind bspw. im A8 quadratisch und im A8X deutlich rechteckig; es wurden offensichtlich die Funktionseinheiten im Core neu angeordnet. Auch die Textureinheiten wurden "flacher" designed.
Weiss der Geier was sie angerichtet haben; der A8X scheint ja auch eine noch groessere Packdichte zu haben als A8. A8 liegt irgendwo bei =/>21Mio/mm2 waehrend A8X schon auf =/>23Mio/mm2 steigt.
Interessant. :)
Mich würde interessieren, wie man 2 GPUs transparrent verschaltet. Zumal der Treiber ja auch noch mitspielen muss. Programmiert Apple mittlerweile eigene Treiber?
Apple entwickelt schon seit einer Ewigkeit ihre GPU Treiber auf den IMG Referenz-Treibern & compiler basierend.
P.S
bist du sicher, dass auch beim A8X noch kein CPU Limit auftritt?
In anderen Applikationen wohl schon aber in einem ALU limitierenden benchmark wie Manhattan wohl nicht.
Schau Dir 3dmark im Gegensatz zu Manhattan onscreen an: http://www.anandtech.com/show/8666/the-apple-ipad-air-2-review/4 als einfaches Beispiel.
Sunrise
2014-11-14, 11:08:26
GXA6850:
http://anandtech.com/show/8716/apple-a8xs-gpu-gxa6850-even-better-than-i-thought
Sunrise,
Ausgezeichnet eingeschaetzt. Der die soll ~125mm2 gross sein; mit Deinen 117mm2 warst Du nahe genug.
-----------------------------------------------------------------------------------------------------
Bei ca. 3 Mrd. Transistoren = ~24Mio/mm2
Fuer die eingeschaetzten 38mm2 fuer die GPU sind es dann =/>900Mio Transistoren.
Dass Apple einfach 2*GX6450 genommen hat und sie zusammengeschustert hat haette ich nicht erwartet. Ich kann mir aber schwer vorstellen dass ein waschreiner 8 cluster config von IMG so viel in Transistoren gekostet haette (ist aber Apple offensichtlich wurscht).
Interessant. Sehr interessant. Also dafür ist nun der noch übrige Platz (im Vergleich zum A8 und zu den inoffiziellen Package-Shots des A8X) draufgegangen.
Da muss jemand das Rogue-Design aber wirklich sehr genau kennen, wenn man man das derart "zweckentfremdet" hat. Ziemlich heftig, dass man da mal einfach so den GPU-Teil quasi verdoppelt hat.
Ich könnte mir vorstellen, dass Apple das getan hat, weil man erstens für das iPad Pro noch etwas mehr Performance gut gebrauchen kann, andererseits war man da wohl primär auch Pad-limitiert, u.a. durch das 64 Bit Dual-Channel Interface, weshalb man das Ding noch etwas aufgeblasen hat. Im geposteten Die-Shot fehlt sogar noch eine Markierung für das SDRAM Interface oben links.
Weiss der Geier was sie angerichtet haben; der A8X scheint ja auch eine noch groessere Packdichte zu haben als A8. A8 liegt irgendwo bei =/>21Mio/mm2 waehrend A8X schon auf =/>23Mio/mm2 steigt.
Ich sehe da auch eine ganze Menge an Fülltransistoren bzw. "freier Fläche" um CPU und GPU, evtl. um das Monster besser kühlen zu können.
Der A8 wirkt in Anbetracht dessen ja schon fast wie eine vorherige Generation. Unglaublich was Apple da alles in den A8X reingequetscht hat. Bin jedesmal wieder aufs Neue überrascht.
Ailuros
2014-11-14, 13:25:24
Ich sehe da auch eine ganze Menge an Fülltransistoren bzw. "freier Fläche" um CPU und GPU, evtl. um das Monster besser kühlen zu können.
Der A8 wirkt in Anbetracht dessen ja schon fast wie eine vorherige Generation. Unglaublich was Apple da alles in den A8X reingequetscht hat. Bin jedesmal wieder aufs Neue überrascht.
Ich waere persoenlich verdammt enttaeuscht gewesen wenn Apple bei der heutigen Generation die gleiche Masche wie beim A7 wiederholt haette.
Sonst wie es aussieht kochen sie wohl ein 16C Monster fuer die <20nm zukuenftige Generation.
AffenJack
2014-11-16, 12:58:51
Für die Marketingsprech 10nm Generation meinst du wohl, denn 14nm/16FF wird nicht mehr als 8 Cores haben. Ohne Diesizereduktion könnens nicht noch mehr werden.
Beim A9X wäre Series 7 8Core durchaus passend mit höheren Taktraten.
robbitop
2014-11-16, 13:04:30
14/16nm bringen zwar nicht so viel Flächenersparnis, wie es klingt, aber laut TSMC und Samsung sind es dennoch rund 25 %.
Ich tippe mal darauf, dass Ailuros auch eher auf einen A9X anspielt. Dort ist die Die Size nicht ganz so kritisch.
Es ist eine logische Konsequenz, wenn man heute 8C hat und im Nachfolger die Leistung verdoppeln will, dass man die Clusteranzahl verdoppelt (Apple macht idR immer lieber ein breites Design mit niedrigen Taktraten als ein schmales mit hohen - ist stromsparender).
Also keine Überraschung.
A9 ohne "X" wird mit Serie7 6-8C auskommen müssen IMO.
A9X dann mit Serie 7 16C
Interessant wird's beim CPU Core. Ob es bei einem aufgemotztem Cyclone bleibt (der noch aufgemotzter wird) oder ob man eine neue µ-Arch bringt.
Bisher hat Apple noch bei jeder neuen SoC Generation eine Überraschung im SoC parat.
AffenJack
2014-11-16, 13:23:48
Soweit ich weiß sagen GF/TSMC beide 15% Diesizereduktion und da die Finfetprozesse äußerst teuer werden, wird man die Diesize von 20nm kaum mehr erhöhen. Ich glaube nicht an einen >150mm² Chip als A9X, der es mit 16 Cores/ 4Kernen usw wohl werden würde. Alleine die 16Core Gpu dürfte mit Series 7 >70mm² Platz einnehmen in 16FF.
Series 7 verspricht schon eine 40-60% höhere Leistung pro Cluster pro Takt. Dazu ne leichte Takterhöhung die durch Finfet locker drin ist und du bist fast bei deiner Leistungsverdopplung.
robbitop
2014-11-16, 13:36:34
Soweit ich weiß sagen GF/TSMC beide 15% Diesizereduktion und da die Finfetprozesse äußerst teuer werden, wird man die Diesize von 20nm kaum mehr erhöhen. Ich glaube nicht an einen >150mm² Chip als A9X, der es mit 16 Cores/ 4Kernen usw wohl werden würde.
Series 7 verspricht schon eine 60% höhere Leistung pro Cluster. Dazu ne leichte Takterhöhung die durch Finfet locker drin ist und du bist bei deiner Leistungsverdopplung.
Apple hat im A8X noch viele Fülltransistoren drin. Und wer weiß, welche HDLibs man noch hat.
Zumal Apple eine superhohe Marge in ihren Produkten hat. Was sind da schon ein paar Cent mehr für den SoC?
Apple hat in einem AX SoC bisher immer alle Register gezogen. Serie 7XT wird mit offiziell 16C als Maximum tituliert. Also wird man das Maximum verbauen. Insbesondere, wenn Ailuros (der ja verdammt gute Quellen hat) das auch schon gehört hat. A9X sollte schon sehr weit, wenn nicht sogar schon in der Validierungsphase sein. Wäre also nicht verwunderlich, wenn er davon schon gehört hätte.
Ob nun 16C oder was völlig anderes: A9X wird, wenn man die historische Entwicklung betrachtet, alles bringen, was möglich ist und nicht enttäuschen.
15 % stimmen. Man kann aber A9X nicht einfach nur 15 % mehr Transistoren spendieren und ca. 30 % höher takten. Das wäre ein Speedbump von nur 50 %. Pro Generation gab es immer Faktor 2 im "X" SoC Bereich. Also wird A9X mehr Transistoren bekommen als der "Shrink" hervorbringen kann. Ich halte es für nicht unwahrscheinlich, dass A9X größer wird. A8X ist auch nicht unbedingt ein Riese. Also warum nicht - bis auf den Fakt, dass man ein wenig Marge verliert. Was kosten schon 10-20 sqmm? Sicherlich vernachlässigbar.
Ailuros
2014-11-16, 15:09:22
Für die Marketingsprech 10nm Generation meinst du wohl, denn 14nm/16FF wird nicht mehr als 8 Cores haben. Ohne Diesizereduktion könnens nicht noch mehr werden.
Beim A9X wäre Series 7 8Core durchaus passend mit höheren Taktraten.
Zum fettgedruckten sagten wir genau das gleiche fuer A8-wasauchimmer nach dem A7....ein hoeher getakteter 6C Rogue blah blah blah und was passierte ist dass sich die Frequenz nur marginal gesteigert hat, waehrend sich die cluster Anzahl verdoppelt hat. Ausser Du glaubst dass im Notfall Apple selbst von einem >150mm2 SoC scheuen wird. Ihr groesster bis jetzt war bei 165mm2.
Es haengt wohl eher davon ab was sie von der Konkurrenz erahnen.
* Mag sein dass Apple bis zu einem Punkt benchmarks egal sind wie viele behaupten, aber die Leistungskrone fuer GPUs wollten sie wohl nicht so leicht an NV verschenken. Sonst haetten sie auch beruhigt auf einem GX6650@500MHz sitzen bleiben koennen.
* Die GPU Frequenzen von A7 ueber A8 zu A8X liegen alle im 450-500+MHz Bereich und dieses von Samsung 28nm zu TSMC 20SoC.
* Wird NV mit der Erista GPU diesmal wieder auf sehr extravagente Frequenzen setzen oder fuer eine maessigere (mehr haltbare) Leistungssteigerung im Vergleich zu GK20A? Bei 850MHz ist man mit 2SMMs auf 435 GFLOPs. Wie zuversichtig bist Du Dir dass Apple irgendwann bald WEIT ueber 600MHz eine GPU takten wird?
* Die A8X GPU ist eine quasi GX6450 nochmal gespiegelt; ergo von 19mm2 fuer die A8 GPU heute bei 38mm2 fuer die A8X GPU. Ein hypothetischer GT7900 mit 16C heisst nicht automatisch 8C*2 die area. Die GPU wird schon in etwa so gross werden wie Du schaetzt bei 16C aber dann nur auch wegen dem Umstieg von DX10 zu DX11.x.
Zur Erinnerung die A8X GPU liefert bei eingeschaetzter 500MHz Frequenz heute 256 GFLOPs FP32.
Ausser Apple integriert in A9 eine GT7600 (6C) und spiegelt die GPU auf 12C fuer A9X :P
Undertaker
2014-11-16, 15:14:53
Ihr groesster bis jetzt war bei 165mm2.
Da waren allerdings auch die Preise pro mm² noch deutlich niedriger und der Bedarf für Leistungssteigerungen ein ganz anderer. Aber heute oder bei einem A9X? Warum unnötig Geld für etwas verplempern, was für 99% aller Käufer eh keinen Unterschied mehr macht?
Ailuros
2014-11-16, 15:34:33
Da waren allerdings auch die Preise pro mm² noch deutlich niedriger und der Bedarf für Leistungssteigerungen ein ganz anderer. Aber heute oder bei einem A9X? Warum unnötig Geld für etwas verplempern, was für 99% aller Käufer eh keinen Unterschied mehr macht?
Frag doch Apple warum sie in den A8X geschuettet haben und nicht bescheiden beim A8 auch fuer tablets geblieben sind. Eben weil "keiner" den Unterschied sehen wird.
Wenn jegliche Weiterentwicklung Geld-Verschwendung waere, haetten IHVs die Entwicklung schon gestern einstellen koennen.
Undertaker
2014-11-16, 15:49:13
Die Rede war von >150 mm² bzw. dass es sogar wieder ein Monster in Richtung 165 mm² geben könnte. Das halte ich für eher unwahrscheinlich, weil sich wie gesagt diverse Randparameter geändert haben. Aber ja, selbst der A8X ist mit seinen gut 120 mm² schon recht heftig imo (zumindest für den neuen und teuren 20nm Prozess).
Ailuros
2014-11-16, 16:05:01
Die Rede war von >150 mm² bzw. dass es sogar wieder ein Monster in Richtung 165 mm² geben könnte. Das halte ich für eher unwahrscheinlich, weil sich wie gesagt diverse Randparameter geändert haben. Aber ja, selbst der A8X ist mit seinen gut 120 mm² schon recht heftig imo (zumindest für den neuen und teuren 20nm Prozess).
A8X ist ~125mm2 gross. Wuerden sie wie beim A7 (101mm2) einen einzigen SoC fuer smartphones und tablets benutzen haetten sie bei einem einzigen A8 SoC fuer tablets und smartphones bei 125mm2 sicher einen groesseren Kosten-Kopfschmerz.
Wenn man aber fuer die iPhones nur mit 89mm2 SoC Flaeche auskommt, dann kann man sich auch eine 125mm2 tablet only SoC eher leisten.
Es kommt drauf an was fuer Plaene Apple genau hat; aber wieso Apple ploetzlich mit einem hypothetischen >150mm2 (tablet) SoC ein Kosten-Problem haben wuerde ist mir fremd.
Ihr habt ja so oder so immer noch die Einstellung dass Apple genau das gleiche wie jeder andere fuer Herstellung bezahlt, ergo kommt die Debatte in die genau gleiche Sackgasse wie immer.
Undertaker
2014-11-16, 17:40:09
Es kommt drauf an was fuer Plaene Apple genau hat; aber wieso Apple ploetzlich mit einem hypothetischen >150mm2 (tablet) SoC ein Kosten-Problem haben wuerde ist mir fremd.
Das hat ja keiner gesagt, oder? Es ging darum, dass auch Apple Aufwand und Nutzen gegeneinander abwägen wird. Nur weil man es sich leisten könnte, wirft Apple kein Geld zu Fenster hinaus. Bestes, aktuelles Beispiel: Die "krummen" drei CPU-Kerne beim A8X, anstatt einfach gleich vier zu verbauen. Sofern jetzt beim Air 3 keine weitere, deutliche Auflösungsanhebung ansteht, sehe ich persönlich wenig Anlass für einen Monsterchip.
robbitop
2014-11-16, 17:56:04
Beim Air2 stand auch keine Erhöhung der Auflösung an. Apple verbaute bisher im AX SoC immer das Maximum an GPU Leistung. Das wird auch nächstes Mal so sein.
Da setzt Apple offenbar den Fokus. GPU Leistung bringt immer was. CPU Kerne hingegen nicht.
Bei der Skalierung der CPU geht Apple langsamer vor weil mehr Kerne kaum was bringen. Jetzt 3x zu bringen sollte die Devs dazu bringen, noch ein wenig Mehrnutzen herauszuziehen, ehe man es auch im A9 oder A10 verbaut.
Ailuros
2014-11-16, 17:56:29
Das hat ja keiner gesagt, oder? Es ging darum, dass auch Apple Aufwand und Nutzen gegeneinander abwägen wird. Nur weil man es sich leisten könnte, wirft Apple kein Geld zu Fenster hinaus. Bestes, aktuelles Beispiel: Die "krummen" drei CPU-Kerne beim A8X, anstatt einfach gleich vier zu verbauen.
Dagegen spricht eben die fast 1Mrd. Transistoren schwere GPU und um die zukuenftigen GPU Moeglichkeiten ging es hier und nicht um die CPU. Wenn vom iPadAir zum Air2 nach Apple selber die GPU um 2.5x Mal in Leistung steigert waehrend die CPU nur um 40%, dann sollte es wohl offensichtlich sein wo Apple ihre Prioritaeten setzt.
Sofern jetzt beim Air 3 keine weitere, deutliche Auflösungsanhebung ansteht, sehe ich persönlich wenig Anlass für einen Monsterchip.
Wie ich schon im vorigen Post erwaehnte haengt es davon ab was fuer Plaene Apple genau hat. Es ist eben NICHT so dass es keine Geruechte von einem angeblichen groesseren tablet gibt, welches wenn es existiert wohl schwer immer noch mit 2048 herumwerkelt bei 13" Bildflaeche.
Undertaker
2014-11-16, 18:10:16
Dagegen spricht eben die fast 1Mrd. Transistoren schwere GPU und um die zukuenftigen GPU Moeglichkeiten ging es hier und nicht um die CPU. Wenn vom iPadAir zum Air2 nach Apple selber die GPU um 2.5x Mal in Leistung steigert waehrend die CPU nur um 40%, dann sollte es wohl offensichtlich sein wo Apple ihre Prioritaeten setzt.
Auch hier wurde nichts Gegenteiliges gesagt. Ich habe dir nur Anhand des CPU-Beispiels verdeutlicht, dass Apple sehr wohl auf Kosten und Fläche achtet und nicht sinnlos Transistoren verballert. Beim A8X ist die GPU und die gesamte Chipgröße mächtig, aber die aufgeführten 150 oder 165 mm² wären in einem nochmals teureren Prozess eine ganz andere Hausnummer. Und gerade das iPad zählt zu den Produkten, wo die Marge für Apple-Maßstäbe eher am unteren Rand liegt und die Verkaufszahlen schwächeln.
Es ist eben NICHT so dass es keine Geruechte von einem angeblichen groesseren tablet gibt, welches wenn es existiert wohl schwer immer noch mit 2048 herumwerkelt bei 13" Bildflaeche.
Es ist sehr wahrscheinlich, dass schon der A8X schon in Hinblick auf ein größeres iPad Pro entworfen wurde. ;) Das wäre dann also schon aktuell "eingepreist" und kein Argument für ein weiteres Größenwachstum mehr.
AffenJack
2014-11-16, 18:36:27
Es haengt wohl eher davon ab was sie von der Konkurrenz erahnen.
* Mag sein dass Apple bis zu einem Punkt benchmarks egal sind wie viele behaupten, aber die Leistungskrone fuer GPUs wollten sie wohl nicht so leicht an NV verschenken. Sonst haetten sie auch beruhigt auf einem GX6650@500MHz sitzen bleiben koennen.
Ich glaube ehrlich gesagt, dass sie Nv einen Dreck interessiert. Bei dem kleinen Marktanteil sind sie praktisch egal. QC und Intel dürften viel eher die Konkurrenz sein die interessiert und die will man immer distanzieren.
* Die GPU Frequenzen von A7 ueber A8 zu A8X liegen alle im 450-500+MHz Bereich und dieses von Samsung 28nm zu TSMC 20SoC.
* Wird NV mit der Erista GPU diesmal wieder auf sehr extravagente Frequenzen setzen oder fuer eine maessigere (mehr haltbare) Leistungssteigerung im Vergleich zu GK20A? Bei 850MHz ist man mit 2SMMs auf 435 GFLOPs. Wie zuversichtig bist Du Dir dass Apple irgendwann bald WEIT ueber 600MHz eine GPU takten wird?
Nur bringt 20nm eben kaum Prozessverbesserungen, was bei 16nm anders wird. Irgendwann ist die Dynamic Leakage im Vergleich zur Static Leakage so klein, dass es sich nicht mehr lohnt die Taktraten niedrig zu halten für die Effizienz. PVR hat bei S7 auch davon geredet, dass das Design besser für hohe Taktraten ist meine ich. Dementsprechend kann ich mir durchaus >=600mhz bei nem A9X vorstellen. Da S7 die Flops besser nutzen soll, wird einfaches Flop berechnen auch nicht helfen. 650mhz mit 1,5 facher IPC bringt halt auch eine Verdopplung der Geschwindigkeit.
Ausser Apple integriert in A9 eine GT7600 (6C) und spiegelt die GPU auf 12C fuer A9X :P
Diese Config wollte ich auch vorschlagen und klingt für mich deutlich realistischer als 16Cores. Aber auch da würde ich leicht höheren Takt erwarten, der dann in einen Faktor 3 in der Leistung resultiert. Ob Apple das wirklich als nötig ansieht ist unklar.
Ailuros
2014-11-16, 19:56:47
Ich glaube ehrlich gesagt, dass sie Nv einen Dreck interessiert. Bei dem kleinen Marktanteil sind sie praktisch egal. QC und Intel dürften viel eher die Konkurrenz sein die interessiert und die will man immer distanzieren.
Dafuer haette locker auch der vorerwaehnte GX6650@500MHz gereicht. Die A8 GPU ist in etwa gleich so schnell wie der Adreno420 (wenn er gerade schoen kuehl ist und nicht bis zu 50% throttelt) und fast 2x Mal so schnell wie der ultra thin tablet Baytrail.
Nur bringt 20nm eben kaum Prozessverbesserungen, was bei 16nm anders wird. Irgendwann ist die Dynamic Leakage im Vergleich zur Static Leakage so klein, dass es sich nicht mehr lohnt die Taktraten niedrig zu halten für die Effizienz. PVR hat bei S7 auch davon geredet, dass das Design besser für hohe Taktraten ist meine ich. Dementsprechend kann ich mir durchaus >=600mhz bei nem A9X vorstellen. Da S7 die Flops besser nutzen soll, wird einfaches Flop berechnen auch nicht helfen. 650mhz mit 1,5 facher IPC bringt halt auch eine Verdopplung der Geschwindigkeit.
War fuer Rogue schon von Anfang an so; Allwinner taktet die G6230 je nach Markt zwischen 600 und 780MHz. Natuerlich ist die ein 6230 diametrisch kleiner als alles das Apple seit A7 integriert hat, aber Apple bevorzugt traditionell die Breite vor der Frequenz. Gleiches gilt auch fuer Mediatek und wo immer sie Rogue benutzen bis jetzt. Series5XT wurden von all diesen (meistens single core) zwischen 250 und 350MHz getaktet; von da ab auf =/>600MHz ist schon ein Schritt. Taktet jetzt die S7 refresh-Serie etwas besser dann geht halt Apple im besten Fall von den heutigen 450-500MHz (je nach Fall) auf 550-600MHz. Das marketing-Geblubber von IMG hat auch nirgends garantiert wo und wieviel die Frequenz-steigerung gemeint ist oder?
Diese Config wollte ich auch vorschlagen und klingt für mich deutlich realistischer als 16Cores. Aber auch da würde ich leicht höheren Takt erwarten, der dann in einen Faktor 3 in der Leistung resultiert. Ob Apple das wirklich als nötig ansieht ist unklar.
Es geht nicht um die Anzahl der clusters per se fuer die naechste Generation sondern eher um eine moegliche quasi Verdoppelung der GFLOPs vom heutigen Standpunkt, wenn dieser auch als notwendig empfunden wird. Weiss der Geier ob Apple ueberhaupt schon etwas von S7 wissen will; jetzt wo sie mit semi custom designs angefangen haben gibt es mehr als nur eine Moeglichkeit.
Auch hier wurde nichts Gegenteiliges gesagt. Ich habe dir nur Anhand des CPU-Beispiels verdeutlicht, dass Apple sehr wohl auf Kosten und Fläche achtet und nicht sinnlos Transistoren verballert. Beim A8X ist die GPU und die gesamte Chipgröße mächtig, aber die aufgeführten 150 oder 165 mm² wären in einem nochmals teureren Prozess eine ganz andere Hausnummer. Und gerade das iPad zählt zu den Produkten, wo die Marge für Apple-Maßstäbe eher am unteren Rand liegt und die Verkaufszahlen schwächeln.
Und Dein Beispiel kraenkelt gerade an der Stelle dass wenn Apple einen vierten CPU core als notwendig empfunden haette, es auch integriert haette. Auch die >150mm2 Hausnummer kann sich Apple leisten.
Es ist sehr wahrscheinlich, dass schon der A8X schon in Hinblick auf ein größeres iPad Pro entworfen wurde. ;) Das wäre dann also schon aktuell "eingepreist" und kein Argument für ein weiteres Größenwachstum mehr.
Nur ging es hier nirgends um die heutige SoC Generation. Es wird wohl davon auch einen Nachfolger mit einem naechster Generation SoC geben.
Undertaker
2014-11-16, 20:20:22
Und Dein Beispiel kraenkelt gerade an der Stelle dass wenn Apple einen vierten CPU core als notwendig empfunden haette, es auch integriert haette. Auch die >150mm2 Hausnummer kann sich Apple leisten.
Irgendwie läuft das schon wieder darauf hinaus, dass du meine "Der Apfel ist rot"-Aussage mit "Nein, die Birne ist grün" beantwortest. :freak: Nochmal: Es geht nicht darum was Apple sich leisten könnte, sondern was Apple sich unter wirtschaftlichen Gesichtspunkten auch real leisten wird. Ja, auch ein 150-165mm² A9X wird kein Verlustgeschäft ergeben, aber die Marge unnötig schmälern, wenn es keinen signifikanten Grund für solchen Gigantismus gibt. Dein Hinweis auf das iPad Pro war insofern falsch, als dass mit sehr hoher Wahrscheinlichkeit schon der A8X mit Hinsicht auf dieses Gerät dimensioniert wurde. Und dein Hinweis auf frühere Generationen ist an dieser Stelle irrelevant, weil die Preise pro mm² in 16nm (gerade zu Beginn) ein Vielfaches früherer Prozesse betragen werden.
Ailuros
2014-11-16, 21:04:35
Nochmal: Es geht nicht darum was Apple sich leisten könnte, sondern was Apple sich unter wirtschaftlichen Gesichtspunkten auch real leisten wird. Ja, auch ein 150-165mm² A9X wird kein Verlustgeschäft ergeben, aber die Marge unnötig schmälern, wenn es keinen signifikanten Grund für solchen Gigantismus gibt.
Und diese genau Logik hinkt dann eben im Angesicht eines A8X unter einem noch fragwuerdigeren Prozess als 16/14nm naemlich 20SoC/TSMC. Was Du fuer notwendig haelst muss nicht unbedingt mit Apple's komischer Vorstellung uebereinstimmen.
Haette jemand vor 1 Jahr behauptet dass Apple im A8X 1Mrd. Transistoren bzw. 8 clusters fuer die GPU in diesen schmiert waere die Reaktion gleich gewesen.
Dein Hinweis auf das iPad Pro war insofern falsch, als dass mit sehr hoher Wahrscheinlichkeit schon der A8X mit Hinsicht auf dieses Gerät dimensioniert wurde.
Es waere nicht das erste Mal dass sie ein tablet fuer den ersten Schub quasi "unterdimensionieren" auf irgend eine Art.
Und dein Hinweis auf frühere Generationen ist an dieser Stelle irrelevant, weil die Preise pro mm² in 16nm (gerade zu Beginn) ein Vielfaches früherer Prozesse betragen werden.
Es hat noch keiner von uns eine Ahnung wo Apple den naechsten SoC herstellen wird. Das aendert zwar nichts per se am hypothetischen Preis pro Quadratmillimeter aber fuer jeden anderen Normalsterblichen und eben nicht Apple.
Irgendwie läuft das schon wieder darauf hinaus, dass du meine "Der Apfel ist rot"-Aussage mit "Nein, die Birne ist grün" beantwortest.
Es gibt auch Birnen die zu einem Anteil rot sind und auch gruene wie auch rote Aepfel. Wir sind im Spekulationsforum und Du wirst wohl damit leben muessen dass jemand seine Meinung haben darf, wobei diese nicht stur rot oder gruen sein muss.
Undertaker
2014-11-16, 22:18:32
Es hat noch keiner von uns eine Ahnung wo Apple den naechsten SoC herstellen wird. Das aendert zwar nichts per se am hypothetischen Preis pro Quadratmillimeter aber fuer jeden anderen Normalsterblichen und eben nicht Apple.
Du bist also der Ansicht, das Apple in 20nm oder 16nm pro mm2 nicht mehr zahlt/zahlen wird als noch in 45 oder 32nm? Ich kann nur davor warnen, mit A5X-Analogien auf zukünftige Chipgrößen zu schließen. Auch für Apple explodieren die Preise pro Fläche mit künftigen Prozessen, die Konditionen im Konkurrenzvergleich sind ein anderes Thema. Und gleichzeitig ist die GPU-Performance anders als in der Vergangenheit (A5X, iPad 3) für 95% aller Einsatzzwecke kaum noch ein Thema - ein aktuelles iPad ähnlich viel Grafikleistung wie ein MacBook Air. Klar, auch zukünftig wird die Leistung weiter steigen. Aber der Druck, auf Biegen und Brechen in immer teurere Regionen >150mm2 gehen zu müssen, geht zurück. Willst du wetten, ob Apples erster 16nm Tablet-Chip diese Marke knackt? ;)
Es gibt auch Birnen die zu einem Anteil rot sind und auch gruene wie auch rote Aepfel. Wir sind im Spekulationsforum und Du wirst wohl damit leben muessen dass jemand seine Meinung haben darf, wobei diese nicht stur rot oder gruen sein muss.
Das war nicht die Aussage meiner Analogie... Aber das ist genau wieder das, was ich meinte. ;)
pixelguy
2014-11-16, 22:25:48
Ich habe mal ne Frage bzgl. der "potenziellen" Machbarkeit für eine Apple Konsole. Welche Leistung wäre denn wirtschaftlich mit einer ARM/IMG-Kombination machbar?
Die Frage ist ja auch, ob eine solche Lösung überhaupt gut zu programmieren wäre... Alles rein theoretisch natürlich :)
Ailuros
2014-11-17, 06:36:59
Du bist also der Ansicht, das Apple in 20nm oder 16nm pro mm2 nicht mehr zahlt/zahlen wird als noch in 45 oder 32nm?
Wieviel haben sie denn fuer jeden Transistor unter 32nm genau bezahlt? Das ganze Taechtelmaechtel mit Samsung fuer die Herstellung ging erst los als Samsung nachdem der vorige Vertrag ausgelaufen ist die Preise um etwas erhoeht hat. Es sollte nicht heissen dass Apple umsonst herstellt, aber sie bezahlen auch keine 6.5k pro wafer fuer 20SoC heute.
Ich kann nur davor warnen, mit A5X-Analogien auf zukünftige Chipgrößen zu schließen. Auch für Apple explodieren die Preise pro Fläche mit künftigen Prozessen, die Konditionen im Konkurrenzvergleich sind ein anderes Thema. Und gleichzeitig ist die GPU-Performance anders als in der Vergangenheit (A5X, iPad 3) für 95% aller Einsatzzwecke kaum noch ein Thema - ein aktuelles iPad ähnlich viel Grafikleistung wie ein MacBook Air. Klar, auch zukünftig wird die Leistung weiter steigen. Aber der Druck, auf Biegen und Brechen in immer teurere Regionen >150mm2 gehen zu müssen, geht zurück. Willst du wetten, ob Apples erster 16nm Tablet-Chip diese Marke knackt? ;)
Ich wette gar nichts mehr mit Apple; ich erwartete sogar fuer diese Generation dass sie beim A8 stecken bleiben und man hat dieses auch hier herauslesen koennen. Im Gegensatz haben sie von 28nm auf 20SoC (wobei die Stromersparnisse beim letzten verdammt fraglich sind) die Transistoren-Anzahl verdreifacht.
Auf dieser Seite sagte ich mehr als nur einmal dass es von den Plaenen Apple's abhaengt; sie haben tatsaechlich vor iOS weiter wachsen zu lassen, bleibt nur abzusehen wann und wie sie damit anfangen.
Das war nicht die Aussage meiner Analogie... Aber das ist genau wieder das, was ich meinte. ;)
Gut dann man mach mal eine spekulative Schaetzung wo Apple bei der naechsten SoC Generation mit der GPU in etwa landen koennte, dann koennen wir erst recht ueber Analogien reden.
Selbst wenn sie den A8X auf 16FF bzw. 14nm schrumpfen wuerden, wuerde das Resultat nicht unter schaetzungweise ~110mm2 fallen, ergo vielleicht noch einen CPU Kern dazu und die Frequenz dessen auf 1.6GHz und gut ist es fuer A9X? Anders ein quasi "iPad mini3 Effekt" fuers Air3 oder?
=Floi=
2014-11-17, 11:00:27
apple hat masse und diese dürfte den preis pro transistor erheblich senken.
robbitop
2014-11-17, 11:51:24
Zumal es Apple mehr nützt, den besten SoC auf dem Markt zu haben, als nochmal ein 50 cent Marge einzusparen. Denn den besten SoC zu haben verbessert die Reviews und damit die Umsätze und damit dann das Gesamtergebnis. Gerade beim iPad, welches immer mehr Marktanteile verliert, sollte man jetzt klotzen und nicht kleckern.
Apple hat genug Cash um mutige Entscheidungen zu treffen um auch mal weiter zu schauen als nur die Einzelproduktmarge und von Quartalsergebnis zu Quartalsergebnis.
Ich bin mir sicher, dass A9X wieder alle Register ziehen wird, die möglich sind. Das haben sie schon immer mit den AX SoCs gemacht. Egal ob 120 sqmm oder 160 sqmm.
Kleinkarriert kann man bei Produkten sein, die sich wie geschnitten Brot verkaufen.
AffenJack
2014-12-04, 19:09:26
Gibt mal wieder Infos zu den Fertigungsprozessen der nächsten Chips. Laut digitimes kriegt Samsung den A9 im Iphone größtenteils, während TSMC wohl den A9X bekommen hat. War allerdings schon vorher relativ klar, denn Apple dürfte bei Samsung nicht mehr soviel Wafer wie früher bekommen und sowieso seine Fertigung mehr verteilen, wenn Qualcomm wirklich nen beträchtlichen Teil seiner Fertigung zu Samsung schiebt.
Ailuros
2014-12-05, 06:08:03
Gibt mal wieder Infos zu den Fertigungsprozessen der nächsten Chips. Laut digitimes kriegt Samsung den A9 im Iphone größtenteils, während TSMC wohl den A9X bekommen hat. War allerdings schon vorher relativ klar, denn Apple dürfte bei Samsung nicht mehr soviel Wafer wie früher bekommen und sowieso seine Fertigung mehr verteilen, wenn Qualcomm wirklich nen beträchtlichen Teil seiner Fertigung zu Samsung schiebt.
Wie viele Chancen bestehen denn eigentlich dass Apple das A9 schon irgendwo im Fruehling vorstellen koennte? Mir klingt Fruehling 15' fuer 14nm und 16FF noch sehr frueh, aber die Geruechte diesbezueglich wollen nicht nachlassen.
AffenJack
2014-12-05, 07:36:12
Wenn Apple nicht anfängt ihre Chipbenennenung zu mischen klingts für mich äußerst unglaubwürdig. Nen A9X, der zuerst in ein größeres Ipad kommt wäre eher glaubwürdig, aber A9 hat im Frühjahr keine Produkte in die er wandern kann. Der Release Cycle für das Iphone ist im Herbst, da seh ich einfach nicht wozu man einen A9 braucht
Ailuros
2014-12-05, 08:08:24
Wenn Apple nicht anfängt ihre Chipbenennenung zu mischen klingts für mich äußerst unglaubwürdig. Nen A9X, der zuerst in ein größeres Ipad kommt wäre eher glaubwürdig, aber A9 hat im Frühjahr keine Produkte in die er wandern kann. Der Release Cycle für das Iphone ist im Herbst, da seh ich einfach nicht wozu man einen A9 braucht
Wenn man sich die diesbezueglichen Artikel durchliest wird einem sowieso schwindlig mit dem Haufen an Bloedsinn der in diesen steckt. Falls Apple das mini nicht irgendwann begraben will, dann waere es der einzige Kandidat fuer dass vielleicht ein update in Q2 15' mit einem A9 Sinn machen koennte. Ob die yields bei Samsung 14nm wirklich einen hard launch erlauben koennten, waere dann ein anderes Kapitel. Es heisst nach wie vor dass yields fuer Sammy's 14nm fuer einige Zeit ultra-beschissen sein werden. Bleibt dann nur noch ein A8X shrink auf 14nm als These, aber wenn sich hier der Stromverbrauch ncht sehenswert verbessert (IMO >40%) sieht es nicht danach aus....
Womit ich mit den meisten Geruechte-Artikeln zustimme ist dass ein vergleichbarer SoC zwischen einem 9.7" und einem =/>12.2" tablet ziemlich merkwuerdig ist, weil irgendwo dann die Verkaufs-Initiative fuer das grosse tablet fehlt.
smalM
2014-12-10, 02:21:03
Ich habe mich beim iPad mini 3 von Anfang an gefragt, ob Apple nicht einfach nur alle A8 ausschließlich für das iPhone 6 reservieren wollte?
Und im Rahmen eines Silent-updates bekommt das iPad mini 3 dann im 1.Quartal einen A8, sobald sich die Lage beim iPhone 6 entspannt hat.
Ailuros
2014-12-10, 06:12:43
Ich habe mich beim iPad mini 3 von Anfang an gefragt, ob Apple nicht einfach nur alle A8 ausschließlich für das iPhone 6 reservieren wollte?
Und im Rahmen eines Silent-updates bekommt das iPad mini 3 dann im 1.Quartal einen A8, sobald sich die Lage beim iPhone 6 entspannt hat.
Durchaus moeglich.
BigKid
2014-12-10, 09:23:07
Ich habe mich beim iPad mini 3 von Anfang an gefragt, ob Apple nicht einfach nur alle A8 ausschließlich für das iPhone 6 reservieren wollte?
Und im Rahmen eines Silent-updates bekommt das iPad mini 3 dann im 1.Quartal einen A8, sobald sich die Lage beim iPhone 6 entspannt hat.
Tja... Oder es läuft ganz anders und sie erproben den neuen Fertigungsprozess still und heimlich mit einem simplen shrink des A8 und stecken ihn in das iPAd Mini 2.5 - haben sie mit dem iPad 2 ja auch schonmal still und heimlich gemacht. Gleicher Chip neue Fertigung wohingegen die "neueren" Produkte mit neuerem SOC gleichzeitig weiterhin in der alten Fertigungstechnik kamen.
robbitop
2014-12-10, 09:53:07
Ja aber dann höchstens ein Shrink des A7. Denn einfach einen Nachfolge SoC (A8) hineinzustecken hat Apple noch nie gemacht bei einem inoffiziellen Update.
BigKid
2014-12-10, 09:56:44
Ja aber dann höchstens ein Shrink des A7. Denn einfach einen Nachfolge SoC (A8) hineinzustecken hat Apple noch nie gemacht bei einem inoffiziellen Update.
Das würde dann sogar erklären können warum sie beim a7 geblieben sind wenn sie sowas vorhätten...
Andererseits könnte es auch so ne Nummer werden wie beim iPad3 - kaum ein halbes Jahr später schieben sie das iPad4 nach und man kommt sich nur ein bisschen ver*rscht vor...
Und man könnte es auch no großartig Verkaufen "wir hören auf unsere Nutzer - viele waren enttäuscht im Mini kein SOC upgrade vorzufinden" (halt nicht so technisch) oder so in der Art...
robbitop
2014-12-10, 09:59:39
Naja und man will sicher etwas Distanz zu den Margenträchtigeren Produkten wie dem iPad Air 2 und dem iPhone 6+ schaffen, um die Kanibalisierung etwas zu minimieren.
Ich hoffe, dass die iPad Mini Serie nicht immer nur den letztjährigen SoC bekommt. :(
IMO ist das nämlich ein sehr genialer Formfaktor - ich würde auch 600 €*für ein iPad Mini ausgeben und es der Air-Reihe vorziehen, weil ich den Formfaktor genial finde.
BigKid
2014-12-10, 10:57:48
Naja und man will sicher etwas Distanz zu den Margenträchtigeren Produkten wie dem iPad Air 2 und dem iPhone 6+ schaffen, um die Kanibalisierung etwas zu minimieren.
Ich hoffe, dass die iPad Mini Serie nicht immer nur den letztjährigen SoC bekommt. :(
IMO ist das nämlich ein sehr genialer Formfaktor - ich würde auch 600 €*für ein iPad Mini ausgeben und es der Air-Reihe vorziehen, weil ich den Formfaktor genial finde.
Das erste iPad Mini hatte doch den neusten Chip (A7) - oder nicht ?
Das zweite dann leider nicht...
Aus 2 Ereignissen - die dann noch wiedersprüchlich sind einen Trend abzuleiten ("... immer nur ...") ist etwas gewagt - oder ?
Ich fand den Formfaktor auch sehr verlockend bis das iPhone größer geworden ist - jetzt bin ich mir nicht so sicher... Andereseits ist das iPhone+ mir definitiv zu groß für ein Handy... Also vielleicht wirds bei mir auch irgendwann ein Mini... Wäre dieses Jahr schon fast soweit gewesen hätten sie die gleiche neue Hardware spendiert wie im Air oder im iPhone.
Ailuros
2014-12-10, 11:14:47
Die Sache mit den mini iPads ist schon etwas kompliziert; zwischen einem 5.5" iPhone 6 Plus und einem 7.9" iPad mini ist der Unterschied nicht mehr so gross wie frueher. Falls Apple tatsaechlich auch ein >12" tablet plant sind 3 tablets von verschiedener Groesse doch etwas zu viel. Erhaelt man aber alle 3 dann ist es nicht so absurd dass sich die iPhones und die mini iPads dann den gleichen SoC teilen und dann alles >9" mit dem gleichen groesseren SoC.
BigKid
2014-12-10, 11:52:38
Die Sache mit den mini iPads ist schon etwas kompliziert; zwischen einem 5.5" iPhone 6 Plus und einem 7.9" iPad mini ist der Unterschied nicht mehr so gross wie frueher. Falls Apple tatsaechlich auch ein >12" tablet plant sind 3 tablets von verschiedener Groesse doch etwas zu viel. Erhaelt man aber alle 3 dann ist es nicht so absurd dass sich die iPhones und die mini iPads dann den gleichen SoC teilen und dann alles >9" mit dem gleichen groesseren SoC.
Würde Sinn machen. Haben sie aber diesmal (aus (noch) nicht offensichtlichen Gründen) nicht gemacht - das Mini hat doch (noch) den A7 oder ?
Das iPad Mini belegt aber meiner Ansicht nach eine Lücke mit der es sich in den iBook-Reader Markt schiebt - einfach auf Grund der Größe. Ein iPad ist vielen auf Reisen noch zu groß. Ein Mini kommt da genau hin.
Wer ein iPhone Plus hat überlegt sich das vielleicht zweimal... Aber vielen (mich eingeschlossen) ist das Ding einfach zu groß. Ich glaube die Masse ist hier einfach mehrfach geteilt.
Die Leute die sich 2 Geräte kaufen dürfen sich aufteilen in:
iPhone und iPad Mini
iPhone und iPad
iPhone+ und iPad
Keine Ahnung wie es bei Leuten aussieht die nur ein Gerät haben...
Ich glaube nicht dass es so viele gibt die sich ein iPhone+ UND ein Mini zulegen aber wer weiß das schon... Ob die Gruppen die ein Mini wollen genug sind weiterhin bedient zu werden - wer weiß das...
Eventuell läßt Apple ja auch einfach das Mini und das Air ein wenig wachsen und es gibt keine 3 Pads...
Ailuros
2014-12-10, 12:12:17
Sie haben womoeglich das iPad mini3 mit dem A7 gelassen, weil sie nicht genug SoCs hatten diese zu bedienen?
Sonst sind mir persoenlich 3 tablet Varianten auch zu viel, aber man weiss ja auch fast nie was Apple genau plant.
robbitop
2014-12-10, 12:30:22
Das erste iPad Mini hatte doch den neusten Chip (A7) - oder nicht ?
Das zweite dann leider nicht...
Aus 2 Ereignissen - die dann noch wiedersprüchlich sind einen Trend abzuleiten ("... immer nur ...") ist etwas gewagt - oder ?
Ich fand den Formfaktor auch sehr verlockend bis das iPhone größer geworden ist - jetzt bin ich mir nicht so sicher... Andereseits ist das iPhone+ mir definitiv zu groß für ein Handy... Also vielleicht wirds bei mir auch irgendwann ein Mini... Wäre dieses Jahr schon fast soweit gewesen hätten sie die gleiche neue Hardware spendiert wie im Air oder im iPhone.
Deine Darstellung ist unvollständig.
2012 Das erste iPad Mini hat damals auch den A5 bekommen, als das iPhone 5 und das iPad 4 den A6/A6x bekamen.
2013 kam das iPad Mini 2 (iPad Mini Retina) gab es kein A7X und alle bekamen den A7.
2014 kam das iPad Mini 3 - nur den A7 aus dem Vormodell. Also analog zu 2012.
Der 8" Formfaktor ist durchaus beliebt. Vor allem wenn man ihn mit 4:3 umsetzt, weil das effektiv mehr Nutzfläche beim Surfen ergibt als 16:10/16:9.
Das Nexus 9 (ok - 1" größer) schlägt durchaus in die gleiche Kerbe.
Ich behaupte nicht, dass es ein Trend ist. Ich hoffe, dass es keiner wird.
BigKid
2014-12-10, 12:37:31
Deine Darstellung ist unvollständig.
2012 Das erste iPad Mini hat damals auch den A5 bekommen, als das iPhone 5 und das iPad 4 den A6/A6x bekamen.
2013 kam das iPad Mini 2 (iPad Mini Retina) gab es kein A7X und alle bekamen den A7.
2014 kam das iPad Mini 3 - nur den A7 aus dem Vormodell. Also analog zu 2012.
Der 8" Formfaktor ist durchaus beliebt. Vor allem wenn man ihn mit 4:3 umsetzt, weil das effektiv mehr Nutzfläche beim Surfen ergibt als 16:10/16:9.
Das Nexus 9 (ok - 1" größer) schlägt durchaus in die gleiche Kerbe.
Ich behaupte nicht, dass es ein Trend ist. Ich hoffe, dass es keiner wird.
hehe... Ich wert alt... ich hab glatt eine Generation iPad Minis vergessen/verschlafen...
Ailuros
2014-12-10, 13:00:57
hehe... Ich wert alt... ich hab glatt eine Generation iPad Minis vergessen/verschlafen...
Verpasst hast Du aber trotzdem nichts :freak: *rennt um sein Leben*
Nightspider
2014-12-11, 14:44:12
Angeblich laufen ja jetzt die ersten Apple S1 Chips für die Apple Watch bei Samsung in 14nm vom Band.
Ist der 14nm Prozess von Samsung jetzt mehr mit dem 16FF von TSMC oder dem 14nm Prozess von Intel vergleichbar?
robbitop
2014-12-11, 14:56:56
Eher mit dem 16FF. Beides sind 20 nm + Finfet Prozesse. Intel hat einen 14 nm + Finfetprozess. Wobei die "nm" Angaben eigentlich auch schon seit Langem nicht mehr aussagekräftig sind.
Aber es ist anzunehmen, dass bezüglich Performance, Leakage der Intel Prozess besser ist. Was Packdichte angeht, könnte es sein, dass die alle auf vergleichbarem Niveau sind.
Samsung 14nm finde ich ein wenig zu spät für S1. Schließlich soll diese ja im Q1 bereits verkauft werden. Da wäre ein jetziger Ramp-Up doch ein wenig zu spät.
Ailuros
2014-12-11, 19:03:22
Keine Ahnung ueber Samsung's 14nm, aber TSMC's 16FF ist ~17nm equivalent:
https://forum.beyond3d.com/posts/1618667/
Sunrise
2014-12-11, 19:04:12
...Samsung 14nm finde ich ein wenig zu spät für S1. Schließlich soll diese ja im Q1 bereits verkauft werden. Da wäre ein jetziger Ramp-Up doch ein wenig zu spät.
Laut Quellen aus China gab es beim Display und beim Prozessor noch Probleme mit der Ausbeute, weshalb man mit der Massenfertigung frühestens im Februar gerechnet hatte.
Jetzt wird berichtet, dass Apple nun die Probleme der Ausbeute beseitigt hat und man bereits im Januar mit der Fertigung beginnen könnte (Quanta hat die Anzahl der Mitarbeiter stark aufgestockt). Gleichzeitig berichtet Samsung, dass die Massenfertigung für einen nicht genannten Kunden begonnen hat. Komischer Zufall, meinst du nicht?
Der erste Schwung an Lieferungen an Apple soll um die 3-4 Millionen Einheiten haben, das sollte bei der Größe eines S1 zu machen sein.
Beim S1 auf 14nm war ich auch skeptisch, nur, welcher andere Kunde ist bei Samsung "schärfer" auf den Prozess als Apple? Zudem werden A8 und A8X ja bei TSMC gefertigt, man limitiert sich hier auch nicht die eigene Kapazität. Zudem ist 16FF Geschichte und 16FF+ erst in risk produktion.
Ich spekuliere da ja jetzt schon seit Monaten damit (S1 wäre einfach perfekt dafür) und jetzt kommen plötzlich auch Informationen aus allen Ecken.
Nightspider
2014-12-11, 19:09:37
Ja so klein wie die S1 sicherlich sind (gibts da überhaupt Vermutungen? wird man auch bei schlechter Ausbeute genug herstellen können.
Zumal man ja nicht so viele Apple Watch verkaufen wird wie iPhones.
Nightspider
2014-12-14, 23:18:57
Repost:
Computerbase schreibt es wäre der A9. :|
http://www.computerbase.de/2014-12/samsung-startet-14-nm-fertigung-fuer-ersten-auftragskunden/
basti333
2014-12-15, 12:52:37
Repost:
Computerbase schreibt es wäre der A9. :|
http://www.computerbase.de/2014-12/samsung-startet-14-nm-fertigung-fuer-ersten-auftragskunden/
Wäre der Produktionsstart nicht viel zu früh wenn man die erst um September braucht? (ergo: irgendein Apple Gerät, welches eher auf dem Markt kommt, wird ihn bekommen)
Sunrise
2014-12-15, 13:05:52
Wäre der Produktionsstart nicht viel zu früh wenn man die erst um September braucht? (ergo: irgendein Apple Gerät, welches eher auf dem Markt kommt, wird ihn bekommen)
Ich halte das auch für sehr weit hergeholt, vor allem weil ja von Massenproduktion gesprochen wurde.
Mögliche wäre es evtl. wenn Apple den SoC entweder früher benötigt oder aber wenn Samsung durch die noch relativ schlechte Ausbeute ggü. 20nm bei TSMC jetzt schon anfangen muss zu produzieren, da gerade die SoCs die Apple für die Handys vorsieht ihnen ja geradezu aus den Händen gerissen werden. Das wird sich in Zukunft bei Apple noch verschärfen, denn da kommt keiner mehr beim Produzieren nach, so schnell wie die verkauft werden.
Dabei würde dann auch die Frage wieder hochkommen, ob Apple Samsung aktuell nur für "gute Dies" bezahlt (und Samsung hier einen Kunden hat, mit dem sie indirekt werben können, wie es ja auch zu lesen ist).
Gandharva
2014-12-15, 13:16:32
Wäre der Produktionsstart nicht viel zu früh wenn man die erst um September braucht? (ergo: irgendein Apple Gerät, welches eher auf dem Markt kommt, wird ihn bekommen)
Denke nicht, da der yield atm unterirdisch ist.
BigKid
2014-12-15, 14:12:25
Wäre der Produktionsstart nicht viel zu früh wenn man die erst um September braucht? (ergo: irgendein Apple Gerät, welches eher auf dem Markt kommt, wird ihn bekommen)
Ich tippe hier auch mal auf die Apple Watch. Die können da jedes bisschen an Energieeffiziens brauchen das sie rausholen können. Eine Uhr die jede Nacht an die Dose muss ist eh schon indiskutabel... Dazu dürfte der SOC klein sein. Also nicht schlecht für dein Einstieg... Besser als ein A9 oder A9X denke ich... Und für die Apple Watch haben sie ja Frühjahr 2015 gesagt - oder ?
basti333
2014-12-15, 14:17:29
Denke nicht, da der yield atm unterirdisch ist.
Angenommen man würde ihn für ein kommendes 12" iPad pro brauchen, könnte die ausbeute u.U. reichen.
Ich tippe hier auch mal auf die Apple Watch. Die können da jedes bisschen an Energieeffiziens brauchen das sie rausholen können. Eine Uhr die jede Nacht an die Dose muss ist eh schon indiskutabel... Dazu dürfte der SOC klein sein. Also nicht schlecht für dein Einstieg... Besser als ein A9 oder A9X denke ich... Und für die Apple Watch haben sie ja Frühjahr 2015 gesagt - oder ?
Ja, wäre auch eine möglichkeit, dann würden die Gerüchte aber wohl nicht ganz zutreffen, weil man so einen SoC wohl kaum A9 (ohne Namenszusatz) nennen würde.
Ailuros
2014-12-15, 18:44:39
Ich koennte wetten dass Samsung den Wirbel im Hintegrund fuer 14nm mit Absicht animiert. Apple ist ja der letzte der will dass andere wissen was sie treiben.
Sonst klingt mir der i-watch SoC genauso fragwuerdig wie alles andere momentan unter 14nm.
Ailuros
2015-01-03, 16:45:26
http://www.fudzilla.com/news/36648-intel-could-save-apple-s-bacon
Hmmmm.....
However he admitted that it was more that TSM/Samsung would operate FinFET under very low yield output and keep capacity tight.
Klingt mir eher nach einem Henne/Ei Dilemma.
Sunrise
2015-01-09, 21:09:24
http://www.digitimes.com/news/a20150108PD203.html
Samsung Electronics' 28nm process technology has reportedly obtained orders for the Apple Watch set for launch in March 2015. The orders call for 3,000-4,000 12-inch wafers monthly, according to industry sources.
...
Samsung and Taiwan Semiconductor Manufacturing Company (TSMC) with their respective 1Xnm FinFET process technologies are expected to be in the race for orders for the second-generation Apple Watch, the sources noted.
Also doch erst für die zweite Generation 14nm bzw. 16FF+. Das sollte die Laufzeit der ersten Generation und auch die Nutzbarkeit und Flexbilität der Apps stark einschränken. Finde ich ein wenig eigenartig, dass man 28nm nutzt. Das scheint irgendwie zu bestätigen, dass Samsung keinen nutzbaren 20nm-SoC-Prozess hat.
robbitop
2015-01-10, 14:14:40
Vermutlich baut man sowieso konsequent einen super simplen SoC, der sowieso eine extrem niedrige Leistungsaufnahme hat - fast schon unabhängig vom Fertigungsprozess.
Mit Kernen wie aus der ARM M-Serie.
deekey777
2015-01-14, 19:11:34
http://9to5mac.com/2015/01/14/apple-a-series-chips-mac/
Es würde mich nicht wundern, wenn Apple eine Alternative zu Chromebooks anbietet, denn insbesondere in den Schulen werden diese mehr und mehr eingesetzt.
Ailuros
2015-01-14, 19:21:10
ARM powered Mac? Frevel wer so etwas je geglaubt hat :eek:
Ab A10 und <i3 klingt in etwa das was ich schon seit einiger Zeit erwarte.
basti333
2015-01-14, 19:34:31
Wenn Intel tatsächlich als Auftragsfertiger für Apple einspringt, kann man das als Intels Kapitulation vor dem Mobile-Market sehen (zumindest was die in-house Entwicklung angeht) :D
Ailuros
2015-01-15, 06:42:17
http://semiaccurate.com/2015/01/12/major-foundry-fixes-1416nm-process-problems/
So weit so gut; und da es mir zu langweilig eine unendliche moechtegern Analyse darueber zu lesen, reicht es mir dass angeblich alles ploetzlich wie Butter laeuft.
http://semiaccurate.com/2015/01/13/major-soc-ramps-volume-1416nm/
Wie viele Kandidaten gibt es genau fuer "major SoC"? Genau. Kurze Geschichte noch kuerzer: Apple produziert froehlich mit dual sourcing ihre naechster Generation SoCs.
Sunrise
2015-01-15, 10:55:37
http://semiaccurate.com/2015/01/12/major-foundry-fixes-1416nm-process-problems/
So weit so gut; und da es mir zu langweilig eine unendliche moechtegern Analyse darueber zu lesen, reicht es mir dass angeblich alles ploetzlich wie Butter laeuft.
http://semiaccurate.com/2015/01/13/major-soc-ramps-volume-1416nm/
Wie viele Kandidaten gibt es genau fuer "major SoC"? Genau. Kurze Geschichte noch kuerzer: Apple produziert froehlich mit dual sourcing ihre naechster Generation SoCs.
[Ironie an]Ist vor allem auch verdammt überraschend, dass (sollte es wirklich Probleme gegeben haben, was ja dementiert wurde) sowas angegangen und ASAP behoben wird.[Ironie aus]
Ist in der Tat wieder mal die Zeit (und vor allem das Geld) nicht Wert, das überhaupt ernst zu nehmen.
Als Nächstes kommt dann ein (natürlich gegen Geld) Bericht, der uns sagt, dass der 14nm-Yield schlecht ist. Nene, neue Prozesse funktionierten natürlich immer am Besten wenn sie frisch aus dem Ofen kamen, ist ja logisch. :freak:
Ailuros
2015-01-28, 08:48:27
Relativ OT, aber es muessen wohl die "one size to fit them all"-Anbeter wohl doch einen Rueckzieher machen: http://www.anandtech.com/show/8940/apple-q1-fy-2015-financial-results-record-iphone-sales-drive-record-earnings
Quartal gegen Quartal eine Steigerung von fast 69% in iPhone Verkaufszahlen ist wohl kein Witz mehr.
deekey777
2015-02-12, 21:37:46
Richtig OT, aber man weiß nie: Apple hat die App-Größe im App Store auf 4 GB erhöht. Die einzigen Apps, die so groß sind, sind meistens Spiele. Damit wären bessere Texturen und mehr möglich, was mehr Grafikleistung verlangen kann. Gerade Bioshock leidet unter doch schlechten Texturen.
Demirug
2015-02-12, 22:25:40
Richtig OT, aber man weiß nie: Apple hat die App-Größe im App Store auf 4 GB erhöht. Die einzigen Apps, die so groß sind, sind meistens Spiele. Damit wären bessere Texturen und mehr möglich, was mehr Grafikleistung verlangen kann. Gerade Bioshock leidet unter doch schlechten Texturen.
Wenn man bessere Texturen haben wollte war das noch nie ein Problem da man ja beim ersten Programmstart nachladen kann. Das Problem ist der RAM.
Man hat die Größe wohl erhöht da die Apps nun auch eine 64 Bit Version enthalten müssen. Für Apps die schon mit nur den 32 Bit Code am Limit waren stellte das ein heftiges Problem da.
Ailuros
2015-02-13, 06:41:21
Wenn man bessere Texturen haben wollte war das noch nie ein Problem da man ja beim ersten Programmstart nachladen kann. Das Problem ist der RAM.
Man hat die Größe wohl erhöht da die Apps nun auch eine 64 Bit Version enthalten müssen. Für Apps die schon mit nur den 32 Bit Code am Limit waren stellte das ein heftiges Problem da.
Da die GPUs ab A8 ASTC unterstuetzen, spart man ueberhaupt insgesamt etwas damit im Vergleich zu PVRTC oder ist der Unterschied relativ gering?
robbitop
2015-02-13, 09:10:09
Bekommt man denn die vollen 1024 MiB RAM? Falls ja, besteht da nicht noch Raum zur Optimierung? Was ich bis jetzt an Content auf dem iPhone 6 / Air 2 gesehen habe, kann nicht einmal ansatzweise gegen AAA Content auf der PS360 mithalten. Und dort sind nur 512 MiB verbaut.
fondness
2015-02-13, 09:18:23
Relativ OT, aber es muessen wohl die "one size to fit them all"-Anbeter wohl doch einen Rueckzieher machen: http://www.anandtech.com/show/8940/apple-q1-fy-2015-financial-results-record-iphone-sales-drive-record-earnings
Quartal gegen Quartal eine Steigerung von fast 69% in iPhone Verkaufszahlen ist wohl kein Witz mehr.
Allerdings hängt Apple mittlerweile fast vollständig vom iPhone ab, denn alles andere hat rückläufige Verkaufszahlen oder ist im Verhältnis kaum relevant. Eine nicht ungefährliche Situation.
fizzo
2015-02-13, 10:30:00
Allerdings hängt Apple mittlerweile fast vollständig vom iPhone ab, denn alles andere hat rückläufige Verkaufszahlen oder ist im Verhältnis kaum relevant. Eine nicht ungefährliche Situation.
Welchen Maßstab legst du da an? Nur mal so zur Relativierung:
* revenue from the iTunes Store, the App Store, the Mac App Store, the iBooks Store, AppleCare, Apple Pay, licensing and other Services - letztes Quartal - $ 4,8 Milliarden
Das ist mehr als z.B. nVidia im gesamten Jahr 2014 umgesetzt hat.
Bekommt man denn die vollen 1024 MiB RAM? Falls ja, besteht da nicht noch Raum zur Optimierung?
Nein, OS-Footprint liegt schon im dreistelligen Bereich. Allerdings ist es nicht so wie unter Android, wo es irgendein willkürliches Heap-Limit für Applikationen gibt. Was frei ist kann auch (fast*) vollständig genutzt werden.
*Kurz bevor der Arbeitsspeicher komplett voll läuft wird die Anwendung vom System gekillt, da es kein Swap-File gibt.
Was ich bis jetzt an Content auf dem iPhone 6 / Air 2 gesehen habe, kann nicht einmal ansatzweise gegen AAA Content auf der PS360 mithalten. Und dort sind nur 512 MiB verbaut.
- Niemand kann sich erlauben, nur auf die aktuelle Gerätegeneration zu optimieren, zumal diese erst seit ein paar Monaten auf dem Markt ist. Man schneidet sich halt von großen Teilen des potenziellen Marktes ab.
Selbst die Anzahl Games, die nur A7 oder neuer supporten (= OpenGL ES 3.0 zur Voraussetzung machen) ist sehr klein.
- Die Games auf den zurückliegenden Konsolengenerationen waren am Ende bis zur Kotzgrenze optimiert, da sich die Hardwarebasis ja über die Jahre nie geändert hat.
Welchen Maßstab legst du da an? Nur mal so zur Relativierung:
* revenue from the iTunes Store, the App Store, the Mac App Store, the iBooks Store, AppleCare, Apple Pay, licensing and other Services - letztes Quartal - $ 4,8 Milliarden
Das ist mehr als z.B. nVidia im gesamten Jahr 2014 umgesetzt hat.
Das ist zwar richtig, aber in Relation zum iPhone- bzw. Gesamtumsatz kaum der Rede wert. Noch dazu ist es ein Sammelposten, d.h. wenn beispielsweise die Zahlen im iTunes-(Music-)Store stark rückläufig sind, fällt das nicht mal auf.
Demirug
2015-02-13, 10:51:05
Da die GPUs ab A8 ASTC unterstuetzen, spart man ueberhaupt insgesamt etwas damit im Vergleich zu PVRTC oder ist der Unterschied relativ gering?
ASTC hat ja eine reihe von Abstufungen. Aber wie du schon sagst A8. Entsprechend wird es im Moment noch eher weniger benutzt weil man ja auch für die alten CPUs/GPUs kompatible bleiben muss.
Bekommt man denn die vollen 1024 MiB RAM? Falls ja, besteht da nicht noch Raum zur Optimierung? Was ich bis jetzt an Content auf dem iPhone 6 / Air 2 gesehen habe, kann nicht einmal ansatzweise gegen AAA Content auf der PS360 mithalten. Und dort sind nur 512 MiB verbaut.
Im Allgemeinen sagt man das man besser nicht über 30% physikalischen RAM in einer App gehen sollte. In der Praxis kommt man auf etwa 60% bevor man gekillt wird. 1MB Geräte haben ein Hardlimit bei 650MB. Das wurde bei 2MB angehoben ich habe den Wert aber noch nicht.
Ein weiteres Problem ist das die System APIs manchmal dazu neigen selbst sehr viel Speicher zu benutzen. Die älteren GPU Treiber / OpenGL Runtime ist da ganz schlimm. Mit den neueren GPUs ist es etwas besser geworden.
- Niemand kann sich erlauben, nur auf die aktuelle Gerätegeneration zu optimieren, zumal diese erst seit ein paar Monaten auf dem Markt ist. Man schneidet sich halt von großen Teilen des potenziellen Marktes ab.
Es ist relative schwer bis unmöglich einzelne Geräte selektiv auszuschließen. Defakto muss man alles bis zurück zum 4s/iPad 2 unterstützen.
fondness
2015-02-13, 10:54:14
Welchen Maßstab legst du da an? Nur mal so zur Relativierung:
* revenue from the iTunes Store, the App Store, the Mac App Store, the iBooks Store, AppleCare, Apple Pay, licensing and other Services - letztes Quartal - $ 4,8 Milliarden
Das ist mehr als z.B. nVidia im gesamten Jahr 2014 umgesetzt hat.
In Relation zum iPhone trotzdem nur ein Tropfen auf den heißen Stein und vor allem hängt der Posten auch teilweise mit dem iPhone zusammen. Oder wie viele Umsätze wird man im App-Store oder mit Apple Pay noch machen ohne iPhone?
robbitop
2015-02-13, 14:32:37
Apple hat jedenfalls so viel Cash, dass sie ziemlich sicher sein sollten - zumal man dafür auch eine Menge nutzen kann, um es in R&D und Akvisationen zu pumpen, die einen vorne halten.
prinz_valium
2015-02-13, 15:49:59
Welchen Maßstab legst du da an? Nur mal so zur Relativierung:
* revenue from the iTunes Store, the App Store, the Mac App Store, the iBooks Store, AppleCare, Apple Pay, licensing and other Services - letztes Quartal - $ 4,8 Milliarden
Das ist mehr als z.B. nVidia im gesamten Jahr 2014 umgesetzt hat.
na den apple maßstab :rolleyes:
das von dir genannte beispiel ist aber nicht sehr gut, da app store, apple care und apple pay auch direkt mit den iphone verkäufen und nutzung in verbindung steht. brechen die ein, bricht auch diese sparte ein
und von einbrechen müssen wir nicht mal reden. wachen die iphone verkäufe nicht mehr, wächst auch diese sparte nur noch sehr schwer.
Ailuros
2015-02-13, 16:39:43
ASTC hat ja eine reihe von Abstufungen. Aber wie du schon sagst A8. Entsprechend wird es im Moment noch eher weniger benutzt weil man ja auch für die alten CPUs/GPUs kompatible bleiben muss.
Das ist mir schon klar. Ich fragte eher ob man theoretisch mit ASTC mehr Speicher sparen wuerde fuer Spiele gegenueber PVRTC.
Allerdings hängt Apple mittlerweile fast vollständig vom iPhone ab, denn alles andere hat rückläufige Verkaufszahlen oder ist im Verhältnis kaum relevant. Eine nicht ungefährliche Situation.
Vollstaendig ist leicht uebertrieben aber man kann es trotzdem so stehen lassen. Was genau soll daran schlimm sein und welcher andere Markt genau hat irgendwelche Moeglichkeiten in absehbahrer Zukunft wie smartphones/phablets? Auf jeden Fall ist fruitco in einer besseren Situation momentan als andere die selbst mit dem tollsten SoC kein Land sehen oder diejenigen die zu bloed waren sich ernsthaft mit dem ULP SoC Markt zu beschaeftigen.
Ja natuerlich braucht Apple einen neuen Markt um in der Zukunft weiter wachsen zu koennen. Glaubst Du vielleicht dass man mit so stabiler hw wie die Ax SoCs und iOS gar nichts weiteres anstellen kann in der Zukunft und wenn ja gibt es nur eine Moeglichkeit?
Andersrum: wie gut verkauft Samsung ihre smartphones in letzter Zeit? Wie gut geht QCOM's Gechaeft genau? In welcher Zeitschleusse hat sich SONY selber vergessen? Es ist nicht gerade so dass alle anderen ploetzlich ein Mordsgeschaeft machen.
Undertaker
2015-02-13, 17:43:08
Ich muss fondness da trotzdem Recht geben: Wenn auch nur eine iPhone-Generation mal floppen sollte, hat Apple ein Problem. Das iPhone 6 geht imo vor allem wegen der größeren Diagonale so gut, doch was wird der must-have-Anreiz bei der nächsten Generation? Das Thema SoC dürfte für den typischen Apple-Kunden ziemlich irrelevant sein, das aktuelle Level ist sehr ordentlich und der Leidensdruck damit niedrig (auch weil neue Killer-Apps fehlen).
Imo ist das auch der Grund, warum z.B. bei Samsung die Verkäufe zuletzt schwächelten. Die Innovationskurve flacht seit dem Galaxy S3 stark ab, die Kunden sehen zunehmend weniger Anreize für teure High-End-Modelle, deren Mehrleistung im Alltag immer weniger zu spüren ist. Gilt genauso für Displays, die Diagonalen stagnieren so langsam und Auflösungen >FHD werden abseits von VR-Brillen relativ witzlos.
Ailuros
2015-02-13, 17:50:17
Gott dann manchen sie halt weniger verrueckte Gewinne und schaufeln weniger Millarden von ihren Wuchermargen. Wie ich schon sagte es nicht gerade so dass es andere blendend geht oder dass Analysten irgendwelche brutale Wachstumsraten fuer jeglichen anderen in 2015 prophezeien.
Die groesseren iPhones sind noch relativ jung und es gibt wohl noch genug Luftraum von Apple Kunden die noch nicht ihr iPhone aufgeruestet haben. Viel groessere Sorgen wuerde ich mir als Apple mit der chinesischen Regierung machen als alles andere.
Undertaker
2015-02-13, 17:57:16
Apples Gewinne hängen halt zu 80% an dieser exorbitanten iPhone-Marge, anders als ein breiter Konzern wie Samsung (der das dann mit Foundry/Speicher/Displays/Haushaltsgeräte/whatever etwas abfedern kann) hängt alles an der Innovationskraft dieses einen Produktes. Wie gesagt: Entscheidend wird, ob zukünftige Generationen neue must-have-Features bieten werden. Wenn nicht, werden sich immer mehr Kunden überlegen, ob es nicht auch ein Android-Gerät für 1/3 des Preises tut. Beim iPad ist genau dieses Szenario bereits eingetreten.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.