PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

basti333
2012-04-12, 11:46:08
Nein einen A5 @32 nm ohne deaktivierten Kern (so wie die iPad 2 aktuell auch angeblich ausgeliefert werden).
Wäre aber sehr sehr mager... Vieleicht drehen die dann ordentlich an der Taktschraube.
Oder aber der A5 @32nm ist nur für AppleTV und iPad 2.


Mir persönlich is ja akkulaufzeit 100x wichtiger als ein Handy zu haben was 3 monate die Benschmark anführt.

sth
2012-04-12, 11:47:40
Nämlich einen A5 mit einem deaktivierten core in 32nm. Nachdem das 4s einen A5 mit zwei kernen hat?
Natürlich einen 32nm A5 ohne deaktivierten Kern. :rolleyes:
Die SingleCore-Variante im AppleTV gibt's doch nur zur Resteverwertung.

Das nächste iPhone wird durch LTE ohnehin höheren Stromverbrauch haben, da kommt eine sparsamere CPU (noch dazu mit kleinerer Die-Fläche) nicht ungelegen, zumal Akku-Laufzeit bei Apple ohnehin hoch auf der Prioritätsliste steht.

In der Vergangenheit haben sich neue Gehäuse-Designs und neue Hardware-Plattformen im Jahreszyklus abgewechselt. Wenn sie das beibehalten, dann wäre dieses Jahr ein neues Gehäuse-Design auf Basis des A5 (oder einer Abwandlung davon) dran. Nächstes Jahr dann der technische Refresh (wie letztes Jahr schon beim 4S).

Ein 32nm A5 würde zudem auch im nächsten iPod Touch und was auch immer sonst noch kommt (7.85" iPad?) Sinn machen. Die 45nm-Version war aufgrund der großen Die-Fläche sicher vergleichsweise teuer in der Herstellung.

robbitop
2012-04-12, 12:44:48
Mir persönlich is ja akkulaufzeit 100x wichtiger als ein Handy zu haben was 3 monate die Benschmark anführt.

Wenn man das nur so sehen würde, hätten wir heute keine Smartphones.
Sicherlich ist es nicht so wichtig wie bei Tablets oder bei PCs und Notebooks. Aber es ist schon gut, dass man immer schneller surfen kann, Apps schneller öffnen und installieren kann und Spiele immer schicker werden.
Natürlich nicht auf Kosten der Akkulaufzeit.

Das nächste iPhone wird durch LTE ohnehin höheren Stromverbrauch haben, da kommt eine sparsamere CPU (noch dazu mit kleinerer Die-Fläche) nicht ungelegen, zumal Akku-Laufzeit bei Apple ohnehin hoch auf der Prioritätsliste steht.
Das iPhone 5 hat ggf. schon das neue 28 nm Qualcomm Modem. Der Mehrverbrauch sollte sich damit zum Glück in Grenzen halten.

basti333
2012-04-12, 13:22:11
Das nächste iPhone wird durch LTE ohnehin höheren Stromverbrauch haben, da kommt eine sparsamere CPU (noch dazu mit kleinerer Die-Fläche) nicht ungelegen, zumal Akku-Laufzeit bei Apple ohnehin hoch auf der Prioritätsliste steht.

Da habe ich so meine zweifel, nachdem das iPhone 4S nurnoch 200 stunden standbyzeit hat. Das 4er hatte noch 300.

sth
2012-04-12, 13:29:52
Das iPhone 5 hat ggf. schon das neue 28 nm Qualcomm Modem. Der Mehrverbrauch sollte sich damit zum Glück in Grenzen halten.
Hoffen wir's. Wenn das nächste iPhone wieder erst im Herbst kommt (wovon ich im Moment ausgehe), dann dürfte es eigentlich hinhauen.

Da habe ich so meine zweifel, nachdem das iPhone 4S nurnoch 200 stunden standbyzeit hat. Das 4er hatte noch 300.
In der Praxis ist die Akku-Laufzeit beider Geräte ziemlich gleich. Sicher wird der 45nm A5 mehr Strom ziehen als der A4, aber ich vermute, dass die Software in Sachen Akku-Laufzeit eine viel größere Rolle spielt. iOS5 ist stromhungriger als iOS4 und die Laufzeit des 4S werden sie sicher nicht mit iOS4 bestimmt haben.

robbitop
2012-04-12, 14:32:55
In der Praxis schaffe ich mit dem iPhone 4 2x Tage. Leute, die es viel nutzen vermutlich weniger. Das ist beim 4S nicht anders. Solange es nicht < 1 Tag ist (bei 2 Jahre altem Akku), ist es in Ordnung. Ich lade jede Nacht den Akku, damit es ein tägliches Ritual ist und ich es nicht vergesse.

steve.it
2012-05-27, 01:01:13
Apple expanding Israel R&D center with SoC engineer openings
http://www.appleinsider.com/articles/12/05/25/apple_expanding_israel_rd_center_with_soc_engineer_openings.html

Nightspider
2012-06-22, 12:33:46
Was erwarten unsere 3DC Experten denn so für einen Apple SoC im 6. iPhone?
Ein A5 Shrink in 32nm/28nm mit höheren Taktraten?

robbitop
2012-06-22, 14:02:51
Es deutet im Moment alles darauf hin.

Nightspider
2012-06-22, 14:13:18
Ob Apple auch endlich mal den CPU Speed anhebt? Mit 800-100 Mhz bei 2 ARM9 Cores ist man ja mittlerweile schon recht veraltet gegen die 1,5Ghz QuadCore, selbst wenn die GPU zu den Top3 gehört.

Vor allem wenn die Konkurenz im Herbst schon mit Krait QuadCore und 2GB RAM aufwartet:

http://www.computerbase.de/news/2012-06/angeblich-leistungsfaehigeres-htc-one-xl-in-entwicklung/

Knuddelbearli
2012-06-22, 15:22:46
eventuell schon A15?

wie sieht es da aktuell bei samsung aus wann sollen die kommen?

Nightspider
2012-06-22, 15:33:43
Im Moment sieht es eher nach 2.Q 2012 bei Samsung aus obwohl es zuletzte Gerüchte gab ob nicht das Galaxy Note 2 mit A15 DualCore daherkommen wird.

Apple wird wohl kaum mit A15 vor 2013 kommen. Erst recht nicht bei den großen Stückzahlen, die benötigt werden.
QualComm kommt ja auch kaum hinterher mit der Produktion der Krait 28nm SoCs.

sth
2012-06-22, 19:08:29
Was erwarten unsere 3DC Experten denn so für einen Apple SoC im 6. iPhone?
Ein A5 Shrink in 32nm/28nm mit höheren Taktraten?
Vermutlich den 32nm A5, der derzeit im 16gb iPad 2 Verwendung findet und dessen Ausschuss als SingleCore-Variante im AppleTV verbaut wird. Wahrscheinlich gepaart mit 1gb RAM.

Ich gehe fest davon aus, dass das nächste iPhone LTE haben wird, was derzeit noch mit einem deutlich höheren Stromverbrauch verbunden ist. Da würde es Sinn machen, beim SoC ein bisschen zu sparen um die Akkulaufzeit aufrecht zu erhalten.

Die nächste SoC-Generation erwarte ich erst für 2013, allein schon weil Apple mittlerweile wohl schon Monate vorher die Produktion hochfahren muss, um dem Ansturm gerecht zu werden.

Dieses Jahr gibt's das Design-Update und neue Hardware-Features (LTE, vermutlich NFC - ich sag' nur Passbook), nächstes Jahr dann wieder eine neue Architektur – wobei ich da noch viel gespannter auf die GPU als auf die CPU bin.

Ailuros
2012-06-23, 22:56:16
Vor H2 2012 werden wir wohl wenige Geraete (wenn ueberhaupt) auf Regalen mit A15 CPU cores sehen.

Sonst wenn im naechsten iPad (2013) kein Rogue stecken sollte, bekommt IMG's Konkurrenz freie Bahn was GPU Leistung betrifft fuer fast 1 Jahr.

basti333
2012-06-23, 23:38:58
Vermutlich den 32nm A5, der derzeit im 16gb iPad 2 Verwendung findet und dessen Ausschuss als SingleCore-Variante im AppleTV verbaut wird. Wahrscheinlich gepaart mit 1gb RAM.

Ich gehe fest davon aus, dass das nächste iPhone LTE haben wird, was derzeit noch mit einem deutlich höheren Stromverbrauch verbunden ist. Da würde es Sinn machen, beim SoC ein bisschen zu sparen um die Akkulaufzeit aufrecht zu erhalten.

Die nächste SoC-Generation erwarte ich erst für 2013, allein schon weil Apple mittlerweile wohl schon Monate vorher die Produktion hochfahren muss, um dem Ansturm gerecht zu werden.

Dieses Jahr gibt's das Design-Update und neue Hardware-Features (LTE, vermutlich NFC - ich sag' nur Passbook), nächstes Jahr dann wieder eine neue Architektur – wobei ich da noch viel gespannter auf die GPU als auf die CPU bin.

Halte ich auch für das wahrscheinlichste szenario, ein geshrinkter A5 evtl. mit mehr takt und die stromersparnis für LTE nutzen. Sehr positiv daran wäre das bei UMTS betriebs die akkulaufzeit stark zunehmen dürfte :)

Ailuros
2012-07-19, 10:40:59
http://semiaccurate.com/2012/07/18/trinitys-system-architect-turns-up-at-apple/

Ailuros
2012-08-02, 12:28:56
http://semiaccurate.com/2012/08/01/apples-cpu-architect-jim-keller-moves-back-to-amd/

Apple muss schoen bloed sein wenn man solche Talente gehen laesst. Gut fuer AMD denn sie brauchen sicher jemand wie Keller oder besser jeder waere froh Keller zu haben.

basti333
2012-08-02, 20:12:29
http://semiaccurate.com/2012/08/01/apples-cpu-architect-jim-keller-moves-back-to-amd/

Apple muss schoen bloed sein wenn man solche Talente gehen laesst. Gut fuer AMD denn sie brauchen sicher jemand wie Keller oder besser jeder waere froh Keller zu haben.
Naja, so ist der lauf der dinge, top-leute verlassen öfter das unternehmen weil es woanders einen posten mit mehr verantwortung gibt der im eigenen unternehmen nicht vakant ist.

iFanatiker
2012-08-14, 10:37:46
Sag mal Ailuros... irgendwelche Gerüchte zum SoC des nächsten iPhones aufgeschnappt?

Mittlerweile scheint ja fast alles bekannt zu sein außer des verbauten SoCs. Bisher hört man aus den ehemaligen Quellen so gut wie nichts bzgl. des SoC im iP5. Gesichert ist doch nur, dass er bei Samsung fabriziert wird?

Gibt es vielleicht doch eine Überraschung? Dual A15 mit PowerVR SGX543MP2 (leicht höhere Taktraten als im 4S). Samsung scheint ja seinen 32nm Prozess ganz gut im Griff zu haben und eventuell doch nicht Zufall, dass Samsung gerade jetzt mit seinen Exynos 5 Duo 32 rausrückt?

Ailuros
2012-08-14, 11:08:03
Geruechte fuer Apple gibt es stets Tonnen im Netz; echte zuverlaessige Infos hingegen selten bis gar nichts. Der SoC wird mit aller Wahrscheinlichkeit unter Samsung's 32nm hergestellt.

Gibt es vielleicht doch eine Überraschung? Dual A15 mit PowerVR SGX543MP2 (leicht höhere Taktraten als im 4S). Samsung scheint ja seinen 32nm Prozess ganz gut im Griff zu haben und eventuell doch nicht Zufall, dass Samsung gerade jetzt mit seinen Exynos 5 Duo 32 rausrückt?

Eine Ueberraschung waere es schon dass Apple ploetzlich mehr Gewicht hypothetisch auf die CPU als die GPU schuetten wuerde. Ein dual A15 mit einem MP2@=/>250MHz waere gerade noch konkurrenzfaehig was die GPU Leistung betrifft mit dem 32nm Exynos 4 (Mali400MP4@440MHz, Galaxy S3). Apple iPad2/SGX543MP2@250MHz = 1507 frames GLBenchmark2.5, GalaxySIII/Mali400MP4@440MHz = 1486 frames GLBenchmark2.5).

Insgesamt erwarte ich nicht dass ihr 32nm SoC fuer das iPhone5 kleiner sein wird als sagen wir mal 120mm2 und da passt schon einiges rein, wobei theoretisch ein dual A15 ziemlich stromfressend waere. Samsung musste bei 1.7GHz fuer diesen im 5250 halt machen und ich warte erstmal ab wie die finalen Frequenzen in echten Geraeten sowohl fuer die CPU als auch fuer die GPU aussehen werden. Der Mali400MP4 war anfangs auch nicht nur fuer 266MHz unter 45nm geplant.

Ailuros
2012-08-30, 08:38:44
http://www.bloomberg.com/news/2012-08-29/apple-qualcomm-spurned-in-bids-for-exclusive-tsmc-chip-supply.html

....und somit kann man wohl vorruebergehend einen Grabstein ueber die Apple/TSMC Geruechte legen. Es war auch zu erwarten dass TSMC nicht so bloed ist irgendwelche Exclusivitaeten zu garantieren und damit eine grosse Anzahl ihrer traditioneller Kunden anzupinkeln.

Fudzilla interpretiert den bloomberg report mit etwas zusaetzlichem Pfeffer: http://www.fudzilla.com/home/item/28545-tsmc-tells-apple-and-qualcomm-where-to-stick-their-money

Kein Wunder Qualcomm analysiert intern nach Geruechten die Moeglichkeit in der weiteren Zukunft in eine eigene foundry zu investieren. Bleibt die Frage ob Apple auch mit solchen Gedanken spielt fuer die weitere Zukunft.

Wenn man so grosse Kapazitaeten wie Apple und Qualcomm braucht ist es durchaus ausfuehrliche Analysen wert von beiden IHVs. Ob daraus etwas werden wird steht natuerlich in den Sternen, aber es bleibt fuer Apple eine Tatsache dass sie nach wie vor fuer SoC Herstellung von SAMSUNG abhaengig sind.

robbitop
2012-08-30, 10:30:56
Naja die einfachere Lösung wäre vieleicht, sich einen Partner zu suchen. Eine Foundry wie TSMC, UMC, Global Foundry, IBM etc und denen eine Fabrik zu subventionieren. Vieleicht kann man sich sogar mit jemandem wie Qualcomm eine Fabrik teilen. Die muss ja ausgelastet sein, sonst wirds teuer. Das Know How selbst aufbauen wird viel teurer und kostspieliger und es gibt ein Minenfeld an Patenten zu Fertigungstechnolgie.

Die_Allianz
2012-08-30, 10:42:43
Ich verstehe nicht wieso Apple nicht einfach mit Intel was macht.? Hat Intel Angst vor ARM oder Apple Angst davor x86 und ARM von einem Zulieferer zu beziehen?

AnarchX
2012-08-30, 10:48:05
Intel wird wohl eher versuchen Apple von seinen LowPower-x86-Atoms zu überzeugen, als ARM in seinen Fabs zu fertigen.

Langfristig könnte Silvermont @ 14nm wohl eine interessante Alternative sein, denn die wachsenden ARM-Cores werden wohl in Zukunft auch an Effizienz verlieren.

robbitop
2012-08-30, 10:55:19
Intel hat versucht mit Apple am iPhone zu arbeiten (vgl. Biographie Steve Jobs). Aber die Atoms waren nicht das Richtige. Viel hohe Leistungsaufnahme.
Anderes Problem mit Intel ist: die verkaufen - insbesondere wenn man von ihnen abhängig ist - zu mörderischen Preisen. Davon kann MS seit der Xbox ein Liedchen singen. Vorteil bei ARM ist, dass man den Lieferanten wechseln kann und damit in Verhandlungen auch ganz anders die Preise für einen SoC drücken kann. Bist du aber ersteinmal bei Intel ist der Zug abgefahren.

Ailuros
2012-08-30, 11:39:32
Naja die einfachere Lösung wäre vieleicht, sich einen Partner zu suchen. Eine Foundry wie TSMC, UMC, Global Foundry, IBM etc und denen eine Fabrik zu subventionieren. Vieleicht kann man sich sogar mit jemandem wie Qualcomm eine Fabrik teilen. Die muss ja ausgelastet sein, sonst wirds teuer. Das Know How selbst aufbauen wird viel teurer und kostspieliger und es gibt ein Minenfeld an Patenten zu Fertigungstechnolgie.

Das obrige war doch genau der Versuch seitens Apple und Qualcomm fuer TSMC. Der Anspruch beider an Volumen (und ein jeglicher solcher Vertrag waere wohl nicht ohne jegliche Prioritaeten fuer Apple bzw. Qualcomm gekommen...) ist einfach zu gross. Keine foundry kann es sich so leicht leisten ihre bisherigen Kunden einfach so abzustinken; gut man unterschreibt einen Mega-Vertrag mit Qualcomm z.B. und nach 5 Jahren guter Zusammenarbeit laesst Qualcomm die foundry im Stich weil sie eine eigene foundry auf die Beine stellen. Viel Spass dann fuer UMC, Glofo oder sonst wen nochmal von Anfang an Kunden anzulozen.

Samsung hatte selber Lieferungsprobleme fuer ihre eigene SoCs weil sie Apple's Volumen decken mussten und genau deshalb hat Samsung auch in die neue Texas foundry Schweinesummen investiert. Und nein dass Samsung daran denkt auf irgend eine Art die Herstellung fuer Apple zu stocken oder zu blockieren ist keine Alternative fuer Samsung, eben weil Apple nur ziemlich komplizierte Vertraege unterschreibt und es auch nicht gerade ideal fuer Samsung waere ploetzlich einen Kunden wie Apple zu verlieren.

Apple hat IMHO schon einen Plan fuer das was sie genau wollen; SAMSUNG hingegen (ist auch ziemlich kompliziert mit den Zich Abteilungen des Konzerns) klingt immer noch als ob sie nicht genau wissen was sie wollen.

Den einzigen Grund den ich mir vorstellen kann warum Apple nicht weiter bei SAMSUNG herstellen wollte, ist dass Apple es eben nicht gerne sieht dass SAMSUNG einen genauen Durchblick hat was Apple kocht.

iFanatiker
2012-08-30, 17:10:28
Doch A6?

http://9to5mac.com/2012/08/30/more-iphone-parts-a6-processor-more-new-9-pin-cables/

:biggrin:

Und nein dass Samsung daran denkt auf irgend eine Art die Herstellung fuer Apple zu stocken oder zu blockieren ist keine Alternative fuer Samsung, eben weil Apple nur ziemlich komplizierte Vertraege unterschreibt und es auch nicht gerade ideal fuer Samsung waere ploetzlich einen Kunden wie Apple zu verlieren.

Apple hat IMHO schon einen Plan fuer das was sie genau wollen; SAMSUNG hingegen (ist auch ziemlich kompliziert mit den Zich Abteilungen des Konzerns) klingt immer noch als ob sie nicht genau wissen was sie wollen.

Den einzigen Grund den ich mir vorstellen kann warum Apple nicht weiter bei SAMSUNG herstellen wollte, ist dass Apple es eben nicht gerne sieht dass SAMSUNG einen genauen Durchblick hat was Apple kocht.

Samsung ist ja als Zulieferer ein richtiger Gigant. Die ganzen Kunden von Samsung verfolgen ja den Krieg zwischen Apple und Samsung recht genau. Entsprechend wird sich Samsung hüten hier irgendwas zu unternehmen was nicht nur Apple zum Abspringen bewegen könnte.

Ich bin sowieso sicher, dass der ganze Zulieferer Teil von Samsung früher oder später unabhängig wird.

lumines
2012-08-30, 17:47:04
Ich halte dieses Foto für einen Fake. Das neue iPhone wird sicher keinen Quad-Core besitzen.

iFanatiker
2012-08-30, 19:39:14
Ich halte dieses Foto für einen Fake. Das neue iPhone wird sicher keinen Quad-Core besitzen.

Das steht auch nichts vom Quadcore.

Das eine Bild was du vermutlich als Quadcore interpretierst, sind vier leere Platinen frisch vom Band vor dem aufbringen der Chips usw. :biggrin:

Das Bild war ich meine zeigt nur !angeblich! den Soc nach dem entfernen des Schutzes und drauf steht A6. Eventuell auch eine Fälschung.

sth
2012-08-30, 21:22:12
Ob QuadCore oder nicht, wäre Cortex A15 + PowerVR Series6 jetzt schon denkbar? Falls nicht wird es wohl eher ein Zwischending werden, falls überhaupt.

Oder sie branden den 32nm A5 um... o_O

Oder es ist ein Fake...

Theoretisch ist das ja iPhone mit dem SGX542MP2 noch gut aufgestellt, es ist eher das iPad 3, das noch mehr Grafikpower vertragen könnte. A15 jetzt und PowerVR Series6 dann nächstes Jahr im iPad?

Grivel
2012-08-30, 22:00:43
Intel wird wohl eher versuchen Apple von seinen LowPower-x86-Atoms zu überzeugen, als ARM in seinen Fabs zu fertigen.

Langfristig könnte Silvermont @ 14nm wohl eine interessante Alternative sein, denn die wachsenden ARM-Cores werden wohl in Zukunft auch an Effizienz verlieren.
Sehr richtig. Sobald die Leistung der ARMs mal richtig steigen muss, wird die Architektur Probleme bekommen. Intel brauch sich da momentan keine Sorgen machen.

Der Grund für ARM war ja wohl mehr die Sparsamkeit denn die Leistung.

robbitop
2012-08-30, 22:28:23
Das ist doch nur ein Label. Man kann alles mögliche unter Nomenklatur "A6" verkaufen. Ein hochgetakteter A5@ 32nm z.B. Der A4 war ja praktisch auch nur ein geshrinkter und hochgetakteter A3 (auch wenn man den A3 nie so genannt hat).

Wieso sollte ARM es nicht schaffen, die IPC zu steigern? Da ist (aus TDP Gründen) noch viel Luft nach oben. Intel zahlt immer extra den Preis für x86. Aber der Preis wird relativ zum Rest des Kerns, wie durch Vorredner schon benannt, mit forschreitenden Fertigungsprozessen immer kleiner. Und Intel hat den Fertigungsvorteil. Aber wie gesagt: Man sollte Intel nicht in die Position bringen, dass man von ihnen abhängig ist. Dann wird man ausgesaugt.

deekey777
2012-08-30, 22:46:10
So lange darauf nicht Samsung steht... :biggrin:

Wenn Apple sich bemüht, eigene Prozessoren zu fertigen bzw. als im Exklusivauftrag, dann erscheint es etwas unlogisch zu spekulieren, dass sie auf Intel umsatteln könnten.

Ailuros
2012-08-31, 02:13:46
Theoretisch ist das ja iPhone mit dem SGX542MP2 noch gut aufgestellt, es ist eher das iPad 3, das noch mehr Grafikpower vertragen könnte. A15 jetzt und PowerVR Series6 dann nächstes Jahr im iPad?

Jetzt mal ehrlich wieso koennte iPad3 noch mehr Grafikleistung genau vertragen? Das Ding wurde Anfang des Jahres veroeffentlicht und bis zu kurzem war es bei weitem die schnellste GPU im SFF Markt. Ach ja Qualcomm hat Adreno320 Resultate veroeffentlicht aber es sind noch keine relevanten Geraete unmittelbar erhaeltlich und das LG970 ist um lediglich 2% schneller was aber auch innerhalb vom margin of error liegen koennte (25,4 vs. 24,8 fps).

Das MP4 im iPad3 taktet auf 250MHz waehrend Adreno320 (quad core) bei zumindest 400MHz taktet, ist OGL_ES3.0 kompliant. Von die area bzw. Stromverbrauch sollten wir lieber noch nicht reden. Wie dem auch sei A5X wurde unter 45nm hergestellt; Adreno320 unter 28nm.

Sonst nix mit Rogue vor 28nm zumindest IMO. Vor diesem ist noch 32nm SAMSUNG an der Reihe.

sth
2012-08-31, 02:20:40
Jetzt mal ehrlich wieso koennte iPad3 noch mehr Grafikleistung genau vertragen? Das Ding wurde Anfang des Jahres veroeffentlicht und bis zu kurzem war es bei weitem die schnellste GPU im SFF Markt.
Weil es durch die hohe Auflösung in der Praxis deutlich langsamer als das iPad 2 und das iPhone 4S ist.

Ailuros
2012-08-31, 02:26:02
Weil es durch die hohe Auflösung in der Praxis deutlich langsamer als das iPad 2 und das iPhone 4S ist.

Wo denn genau?

sth
2012-08-31, 02:36:37
Wo denn genau?
Für die UI ist die GPU schnell genug, aber wenn's an Games geht fehlt's einfach an Fillrate.

Wenn ich hier ein aktuelles Projekt anschaue (OpenGL ES 2):
iPhone 4S: 60fps (vsync)
iPad 3: 40fps

Man kann natürlich in etwas niedrigerer Auflösung rendern und das dann hochskalieren (machen auch einige Games so, z.B. Max Payne), aber schöner ist natürlich schon wenn man die Auflösung auch ausnutzen kann.


[edit]: Zusammengefasst: Der A5X muss mit der doppelten Grafikleistung des A5 viermal so viele Pixel rendern. Das ist das Problem.

Ailuros
2012-08-31, 02:47:54
Für die UI ist die GPU schnell genug, aber wenn's an Games geht fehlt's einfach an Fillrate.

Wenn ich hier ein aktuelles Projekt anschaue (OpenGL ES 2):
iPhone 4S: 60fps (vsync)
iPad 3: 40fps

Man kann natürlich in etwas niedrigerer Auflösung rendern und das dann hochskalieren (machen auch einige Games so, z.B. Max Payne), aber schöner ist natürlich schon wenn man die Auflösung auch ausnutzen kann.

Und auch noch vsynced fuer das 4S? :rolleyes:

iPhone4S= MP2@200MHz
iPad3 = MP4@250MHz
-----------------------------
Fuellrate Faktor 2.5x

Zumindest GLBenchmark2.5 welches verdammt ALU lastig ist, scheint keine solchen Phaenomaene nachzuweisen. Kann es sein dass die Applikation einfach zu stark Fuell-raten abhaengig ist?

sth
2012-08-31, 02:56:22
Und auch noch vsynced fuer das 4S? :rolleyes:

iPhone4S= MP2@200MHz
iPad3 = MP4@250MHz
-----------------------------
Fuellrate Faktor 2.5x
Dafür 5.1x so viele Pixel zu rendern...


Zumindest GLBenchmark2.5 welches verdammt ALU lastig ist, scheint keine solchen Phaenomaene nachzuweisen. Kann es sein dass die Applikation einfach zu stark Fuell-raten abhaengig ist?
Die Anwendung ist sehr Füllraten-abhängig (multitexturiertes Terrain), daher sieht man den Unterschied dort halt sehr deutlich. Aber wie gesagt: Andere Games stoßen an das gleiche Problem und reduzieren daher die Auflösung auf dem 3er.

Ailuros
2012-08-31, 09:19:11
Die Anwendung ist sehr Füllraten-abhängig (multitexturiertes Terrain), daher sieht man den Unterschied dort halt sehr deutlich. Aber wie gesagt: Andere Games stoßen an das gleiche Problem und reduzieren daher die Auflösung auf dem 3er.

Kann man im Fall vom iPad3 nicht eine wahre maximale Aufloesung von 720p als Beispiel anlegen, anstatt der oeden Hochskalierung?

Was jetzt die spezifische Applikation betrifft, gibt es keine Alternative fuer das multitexturierte Terrain?

Nebenbei plauderte ich vor kurzem privat mit einem Konsolen Entwickler und er sagte dass Fuellraten auf heutigen GPUs kein besonderes Problem mehr sind sondern eher die eigentliche Effizienz der Fuellrate. Mag sein dass es auf einem TBDR etwas besser ist was Fuellraten betrifft in Echtzeit, aber kann es sein dass es doch notwendig ist dass Architekturen demenstprechend umgekrempelt werden muessen in der Zukunft damit die Fuellraten Effizienz auf GPUs generell steigt?

robbitop
2012-08-31, 09:23:32
Naja im Frühjahr wenn das neue iPad kommt, ist vieleicht ein Rogue dabei. Und der wird den 4MP vernichten.
Ich bin allerdings auf breite Benchmarks vom Adreno 320 gespannt (ohne Vsync). Es bleibt abzuwarten, ob er wirklich konsistent den 4MP schlagen kann.
Falls ja ist das trotzdem eine sehr gute Leistung. Denn der 4MP ist ja wahnsinnig groß. Vermutlich so groß, dass er selbst in 28 nm nicht kleiner wäre als die 28 nm Konkurrenzdesigns. Und dazu noch das fette Memory SI.

Ailuros
2012-08-31, 09:40:06
Naja im Frühjahr wenn das neue iPad kommt, ist vieleicht ein Rogue dabei. Und der wird den 4MP vernichten.

Mit Apple weiss man nie so richtig was sie kochen. Wie schon mal erwaehnt IMHO ist Apple schoen bloed wenn sie keine A15/Rogue Kombination fuer das naechste iPad benutzen, aber garantiert sehe ich auch nirgends.


Ich bin allerdings auf breite Benchmarks vom Adreno 320 gespannt (ohne Vsync). Es bleibt abzuwarten, ob er wirklich konsistent den 4MP schlagen kann.
Falls ja ist das trotzdem eine sehr gute Leistung.

Nur in ALU lastigen Faellen, was aber nicht besonders fuer die Architektur bzw. dessen compiler spricht. Ich schaetze (weiss es aber nicht) dass 320 aus 4 SIMD16 besteht mit jeweils einer TMU pro SIMD cluster. In desktop marketing Geblubber gleicht dieses 64 "SPs" was aber auch fuer den MP4 gilt, mit dem klitzekleinen Unterschied dass 320 bei =/>400MHz taktet waehrend der MP4 lediglich auf 250MHz brummt (ist aber auch 28 vs. 45nm bitte schoen).

Sonst sind es 8 TBDR TMUs@250MHz gegen 4 IMR TMUs@=/>400MHz u.a.

iPad3 erschien als Geraet Anfang 2012 und es dauert noch ein Weilchen bis Adreno320 Geraete auf Regalen erscheinen.

Denn der 4MP ist ja wahnsinnig groß. Vermutlich so groß, dass er selbst in 28 nm nicht kleiner wäre als die 28 nm Konkurrenzdesigns. Und dazu noch das fette Memory SI.

Im Vergleich zu was? Adreno320? yeahrightsureok :rolleyes:

Sonst sind A5 bzw. A5X wahnsinnig gross. Zeig mir andere SoCs wo die dual A9 so viel die area einnehmen wie bei diesen. Eine ganz andere Analogie was sich aber bei der Grosszuegigkeit des insgesamten SoCs auch natuerlich in der Groesse des GPU blocks wiederspiegelt. Im A5 ist der CPU block um die 30mm2 gross. Kannst Du ja gerne gegen Tegra2 vergleichen. Zwar fehlt einiges an power gating relativem Zeug und NEON aber Tegra2 ist unter 40nm lediglich 40+mm2 gross.

robbitop
2012-08-31, 09:58:56
War eine Vermutung. Kommt es nicht hin, dass der 4MP unter 28 nm nicht kleiner wäre als der Adreno 320?

Ailuros
2012-08-31, 10:13:28
War eine Vermutung. Kommt es nicht hin, dass der 4MP unter 28 nm nicht kleiner wäre als der Adreno 320?

Kommt auf den SoC Hersteller an im Fall von allem SGX wie und wieso er jegliches GPU IP genau auslegt. Unter "normalen" Situationen wuerde es mich verdammt wundern wenn ein MP4 nicht kleiner ist als ein Adreno320.

320 ist OGL_ES3.0/DX9L3, waehrend SGX cores ein paar Einzelheiten fehlen fuer OGL_ES3.0.

Falls Apple im naechsten Pad immer noch auf Series5XT reiten sollte, ist es bei weitem kein Weltuntergang.

Schau Dir sth's Kommentare oben an; ein wichtiges Problem ab iPad3 ist die brutale 2048*1536 Aufloesung. Ich weiss zwar nicht ob Rogue eine hoehere Fuellraten-Effizienz haben wird im Vergleich zu Series5, aber es sind nach wie vor 2 TMUs/cluster, waehrend Qualcomm (Adreno320) und ARM T6xx immer noch auf 1 TMU/cluster setzen.

Vom LG970 gibt es momentan nur ein Resultat: http://www.glbenchmark.com/phonedetails.jsp?D=LG+E970&benchmark=glpro25 welches ich aber auch nicht bezweifle. LG971 kommt etwas niedriger an welches vielleicht niedrigere Frequenzen oder sonst etwas bedeuten koennte: http://www.glbenchmark.com/phonedetails.jsp?D=LG+E971&benchmark=glpro25

Das letztere ist um einiges langsamer als das LG971, jedoch erreicht in Egypt classic 1080p offscreen 44,3 fps. In diesem landet der MP4 stolze 87,4 fps: http://www.glbenchmark.com/phonedetails.jsp?D=Apple+iPad+3&benchmark=glpro25



Nebenbei konzentriert sich Qualcomm nach wie vor auf Android smartphone designs; der erste vorhersehbare Konkurrent dafuer klingt nach TI OMAP5430 mit einem SGX544MP2@532MHz.

robbitop
2012-08-31, 10:20:14
Gibt also keine Infos, wie groß ein 4MP unter 40 nm und wie groß ein Adreno 320 unter 28 nm ist?

Ailuros
2012-08-31, 10:36:35
Gibt also keine Infos, wie groß ein 4MP unter 40 nm und wie groß ein Adreno 320 unter 28 nm ist?

Gibt es momentan einen MP4 unter 40/45nm ausserhalb A5X? Und nein der PS Vita zaehlt hier nicht mit weil es sich um einen speziell angepassten design handelt deshalb nennt es Sony auch SGX543MP4+.

Es gibt doch die shots vom >160mm2 A5X die oder?

robbitop
2012-08-31, 10:41:58
Und vom 320?

Ailuros
2012-08-31, 11:23:57
Und vom 320?

Offensichtlich nichts oeffentliches.

sth
2012-08-31, 14:36:00
Kann man im Fall vom iPad3 nicht eine wahre maximale Aufloesung von 720p als Beispiel anlegen, anstatt der oeden Hochskalierung?
Wie meinst du das? Egal welche Auflösung ich zum Rendern wähle, ich muss es doch am Ende immer hochskalieren, wenn ich's Bildschirmfüllend haben will. :confused:
Oder meinst du Video-Mode setzen und Skalierung über das Panel? Das geht unter iOS nicht (genauso wenig wie vsync deaktivieren ;) ).


Was jetzt die spezifische Applikation betrifft, gibt es keine Alternative fuer das multitexturierte Terrain?
Sagen wir mal "ungern" ;). Es gibt aber noch Optimierungsmöglichkeiten. Ich schätze, dass sich vielleicht noch 25% rausholen lassen ohne visuell Kompromisse eingehen zu müssen. Desweiteren läuft es auf dem iPad3 ja trotzdem schon "schnell genug".


Nebenbei plauderte ich vor kurzem privat mit einem Konsolen Entwickler und er sagte dass Fuellraten auf heutigen GPUs kein besonderes Problem mehr sind sondern eher die eigentliche Effizienz der Fuellrate. Mag sein dass es auf einem TBDR etwas besser ist was Fuellraten betrifft in Echtzeit, aber kann es sein dass es doch notwendig ist dass Architekturen demenstprechend umgekrempelt werden muessen in der Zukunft damit die Fuellraten Effizienz auf GPUs generell steigt?
Habe leider bisher keine Erfahrungen mit den Konsolen. Ich kann aber sagen, dass der normale A5 im iPad 2 und iPhone 4S ein sehr ausgewogenes Paket ist. Auch die Fillrate ist dort eigentlich kein Thema. Ehrlich gesagt gibt es keinen spezifischen Punkt, der in der Praxis besonders limitiert. Daher bin ich auch bisher davon ausgegangen, dass das nächste iPhone den 32nm A5 bekommt und den eingesparten Strom in LTE und Akkulaufzeit investiert.

Das "Problem" mit dem iPad 3 ist ja lediglich, dass wir plötzlich nicht mehr von 720p oder auch 1080p reden, sondern von Auflösungen, die heutzutage selbst im PC-Gaming-Bereich noch exotisch sind. Gemessen daran ist es aber schon wirklich erstaunlich, wie schnell das Teil ist.


Falls Apple im naechsten Pad immer noch auf Series5XT reiten sollte, ist es bei weitem kein Weltuntergang.
Das sehe ich nicht anders.

Trotzdem bin ich neugierig, wie sich A15+Series6 schlagen werden. :)

iFanatiker
2012-08-31, 16:24:40
Wie meinst du das? Egal welche Auflösung ich zum Rendern wähle, ich muss es doch am Ende immer hochskalieren, wenn ich's Bildschirmfüllend haben will. :confused:


Aehmm...eine Sache ist doch wenn du im Offscreen in 1024*768 Pixel renderst und eine andere Sache wenn du deine Szene wirklich mit 2048*1506 renderst. Dann kann man in der Tat recht schnell Probleme mit der Fillrate bekommen. Die meisten nutzen als Target für den Offrenderer 1440x1080 Pixel. Damit hast du ungefähr identische Performance wie unter dem iPad2.

sth
2012-08-31, 16:44:07
Aehmm...eine Sache ist doch wenn du im Offscreen in 1024*768 Pixel renderst und eine andere Sache wenn du deine Szene wirklich mit 2048*1506 renderst. Dann kann man in der Tat recht schnell Probleme mit der Fillrate bekommen. Die meisten nutzen als Target für den Offrenderer 1440x1080 Pixel. Damit hast du ungefähr identische Performance wie unter dem iPad2.
Ja aber genau das habe ich doch beschrieben. :confused:

basti333
2012-09-01, 11:03:15
Das ist doch nur ein Label. Man kann alles mögliche unter Nomenklatur "A6" verkaufen. Ein hochgetakteter A5@ 32nm z.B. Der A4 war ja praktisch auch nur ein geshrinkter und hochgetakteter A3 (auch wenn man den A3 nie so genannt hat).

Ich denke auch das ein A6 nur ein A5 mit mehr takt und evtl. mehr speicher wäre. Aus markteingtechnischer sicht auch sicherlich schlauer als ihn weiter als A5 zu betiteln und dann in der produktpräsentation noch groß was von 32nm fertigungstechnologie und taktraten zu faßeln, von sowas distanziert sich Apple ja eher.

So lange darauf nicht Samsung steht... :biggrin:

Wenn Apple sich bemüht, eigene Prozessoren zu fertigen bzw. als im Exklusivauftrag, dann erscheint es etwas unlogisch zu spekulieren, dass sie auf Intel umsatteln könnten.

Ich kann mir beim besten willen nicht vorstellen das Apple eine eigenständige foundry aufbauen möchte. Das würde doch unsummen an Zeit und Geld kosten bis man TSMC und Samsung eingeholt hätte und die vergangenheit zeigt doch sehr deutlich das Apple zwar sehr, sehr viel geld hat, aber damit äußerst geizig umgeht. Da fände ich es wesentlich logischer wenn man zusammen mit einem Partner eine eigene Fab baut, in die Apple dann auch selbst investiert (wie man es ja auch bei anderen zulieferern macht). Wenn TSMC und Smasung das ablehnen würde Apple mit genügend guten willen bestimmt auch bei Global foundries oder UMC unterkommen können.

Ailuros
2012-09-01, 22:39:10
Apple ist ueberhaupt nicht geizig wenn es um Investitionen geht die ihr Geschaeft stuetzen. Wie viel haben die server farms genau gekostet in die sie vor kurzem investiert haben?

Wenn Apple empfindet dass sie in weniger absehbarer Zukunft eine foundry brauchen, werden sie auch eine auf die Beine stellen.

Es ist schon heute ein Problem fuer jegliche foundry Apple's Volumen zu decken. Was wuerde passieren wenn Apple's Volumen noch weiter steigen sollte in der Zukunft weil noch N neue Maerkte angesprochen werden?

In einer eigenen foundry weiss kein Schwein mehr ausserhalb Apple was sie gerade kochen und es kann auch keiner abschielen wie man A,B oder C integriert.

Natuerlich weiss ich nicht was Apple genau vorhat, aber als absurd klingt mir das obrige gerade nicht.

sth
2012-09-13, 13:45:21
Also doch schon A15! (http://www.anandtech.com/show/6279/apples-iphone-5-uses-a6-soc-arm-cortex-a15s-inside)

Der Artikel an sich ist zwar noch nichts handfestes, aber der Compiler im gestrigen Xcode-Release kennt plötzlich auch eine neue Architektur (http://www.cocoanetics.com/2012/09/iphone-5/) ("armv7s"). ;)

Coda
2012-09-13, 13:48:28
Anders ist das 2x auch kaum zu erklären.

sth
2012-09-13, 13:56:51
Och, man müsste den A9 "nur" auf 1.6ghz prügeln :D Aber wäre schon reichlich unrealistisch.

Bin trotzdem sehr überrascht, dass sie jetzt "schon" den Architektursprung gemacht haben. IMHO die einzige wirkliche Überraschung am neuen iPhone.

Bleibt noch die Frage nach der GPU. SGX543MP2 mit höherem Takt? SGX543MP4? Rogue?

robbitop
2012-09-13, 13:57:16
Naja ein A9 @1,6 GHz wären mit 32 nm sicher auch möglich und wäre auch Faktor 2. Aber mich würde ein A15 natürlich mehr freuen.
Welchen Takt bräuchte ein A15 ca um 2x so schnell wie ein 800 MHz A9 zu sein? Bei einer IPC Steigerung von 40 % bräuchte man noch immer ca. 1,2 GHz.

Ailuros
2012-09-13, 14:16:21
Och, man müsste den A9 "nur" auf 1.6ghz prügeln :D Aber wäre schon reichlich unrealistisch.

Unrealistisch fuer den CPU block bei weitem nicht. Was man wissen sollte ist ob es im Zusammenhang zu allen anderen Einheiten im SoC theoretisch realistisch waere und bei einem so grossen GPU block ist es schwer einzuschaetzen.

Anders Texas Instrument's OMAP4470 hat einen dual A9@1.5GHz und einen single core SGX544@384MHz unter 45nm.

Bin trotzdem sehr überrascht, dass sie jetzt "schon" den Architektursprung gemacht haben. IMHO die einzige wirkliche Überraschung am neuen iPhone.

Kann sein dass ich total falsch liege, aber ich kann an die A15 Geschichte persoenlich immer noch nicht glauben. Sinn macht es schon nur soll A6 um die 95mm2@32nm gross sein. Im Vergleich zu A5/122m2@45nm bzw. A5X/163mm2@45nm faellt es mir schwer an 2*A15 zu glauben da diese um einiges mehr die area verbrauchen als A9.

Bleibt noch die Frage nach der GPU. SGX542MP2 mit höherem Takt? SGX542MP4? Rogue?

Entweder 543MP2@400MHz oder 543MP4@200MHz IMHO. Das erste nimmt weniger Platz ein, verbraucht aber dank hoeherer Frequenz auch mehr Strom.

Rogue faellt in die genau gleiche Kategorie was die area betrifft wie fuer die A15 CPU IP oben. Wuerde mir jemand sagen dass A6 130 oder sogar 160mm2 gross ist unter 32nm waere die Loesung zum Raetsel ziemlich leicht. Apple legt mit Absicht ihre SoC ziemlich grosszuegig aus und 95mm2@32nm (um 22% kleiner nach Anand) laesst mich nicht daran denken. Falls er jedoch -22% im Vergleich zu A5X meinte aendert sich die Geschichte; aber jeglicher Vergleich wird wohl zwischen iPhone5 A6 und iPhone4S A5 liegen.

***edit: mehr oder weniger aehnliche Gedanken: http://forum.beyond3d.com/showpost.php?p=1666015&postcount=1250

Nightspider
2012-09-13, 14:27:28
Verbaut HTC nicht schon ein 1, 7Ghz A9 QuadCore im One XL?

1, 6 GHz A9 DualCore wäre ein leichtes unter 32nm.

Ailuros
2012-09-13, 14:28:14
Anders ist das 2x auch kaum zu erklären.

Im allerschlimmsten Fall ist es ein quad A9 bei 800+ MHz und Apple macht sich laecherlich mit extrem idiotischem marketing da cores durch steigende core-Anzahl bei gleicher Frequenz eben nicht linear skalieren.

Spasstiger
2012-09-13, 14:28:52
@Ailuros: 22% kleiner könnte auch auf die Package-Größe bezogen sein wie bei Anandtech schon angemerkt.

Ailuros
2012-09-13, 14:33:54
Verbaut HTC nicht schon ein 1, 7Ghz A9 QuadCore im One XL?

1, 6 GHz A9 DualCore wäre ein leichtes unter 32nm.

Nein. Das HTC One XL enthaelt einen MSM8960 SoC von Qualcomm mit einem dual core Krait@1.5GHz und einer Adreno225 GPU@400MHz. Krait ist ein gutes Stueck sparsamer mit die area im Vergleich zu A15 und die Adreno225 GPU duerfte um einiges kleiner sein als ein SGX543MP4. TMUs sind stets vergleichsmaessig ziemlich teuer in GPUs; Adreno225 hat lediglich 2 waehrend der MP4 ganze 8 hat.

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=HTC+One+XL&testgroup=system

Das einzig komische ist dass Samsung's eigener kommender Exynos 5250 auf 32nm hergestellt wird und dieser enthaelt eine dual A15 CPU@1.5GHz und eine ARM Mali T604 GPU@500MHz. Das Ding muss aber auch bombastisch gross sein.

@Ailuros: 22% kleiner könnte auch auf die Package-Größe bezogen sein wie bei Anandtech schon angemerkt.

Er hat mir eine e-mail geschickt und ich hab ihm meine Gedanken vermittelt. Mal sehen was bei seiner Antwort rauskommt.

Nightspider
2012-09-13, 14:35:47
Achja aber irgendein neues Smartphones hat doch glaube den 1, 7Ghz Tegra 3.

Nightspider
2012-09-13, 14:44:04
Ach das HTC One X + hat den 1,7 Tegra3:

http://www.google.de/search?hl=de&site=&source=hp&q=htc+Tegra+3+mit+1%2C+7++Ghz&btnG=

Ailuros
2012-09-13, 14:45:38
Achja aber irgendein neues Smartphones hat doch glaube den 1, 7Ghz Tegra 3.

HTC OneX hat einen Tegra3 taktet aber auch nur maximal bei 1.5GHz. http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=HTC+One+X+%28EndeavorU%29&testgroup=system

Kann sein dass HTC etwas aehnliches geplant hatte denn ich kann mich auch wage an eine 1.7GHz Behauptung fuer T3 erinnern. Entweder HTC meinte von Anfang an ein zukuenftiges Geraet mit einem hoeher getaktetem T3 oder man sah trotz allem ein dass es eine schlechte Idee ist fuer den Stromverbrauch es mit der Frequenz zu uebertreiben.

Coda
2012-09-13, 14:48:15
Im allerschlimmsten Fall ist es ein quad A9 bei 800+ MHz und Apple macht sich laecherlich mit extrem idiotischem marketing da cores durch steigende core-Anzahl bei gleicher Frequenz eben nicht linear skalieren.
Sie sagen auf einem Slide sehr deutlich, dass die Startzeit von Apps abgenommen hat. Das ist kaum durch Multi-Core zu machen.

Ailuros
2012-09-13, 15:03:21
Sie sagen auf einem Slide sehr deutlich, dass die Startzeit von Apps abgenommen hat. Das ist kaum durch Multi-Core zu machen.

Ok. Ich hab's zwar gelesen, aber es leuchtete wohl zu dem Zeitpunkt nichts auf. Unter dem Licht hast Du natuerlich recht. Schliesst aber wohl doch nicht A9 bei extravaganteren als bisher Frequenzen aus oder?

Screemer
2012-09-13, 15:06:53
dieses jahr kommen doch auch die ersten arm cortex a7 socs (http://www.chinaeshops.com/blog/ampe-allwinner-cortex-a7-quad-core-tablet-is-coming.html), die ja binärkompatibel mit a15 sind. wäre ein solcher zwischenschritt für apple auch denkbar?

sth
2012-09-13, 15:07:10
Der eindeutigste Hinweis dafür, dass es kein neuer Aufguss des A9 ist, bleibt für mich die Tatsache, dass Xcode seit gestern standardmäßig Fat-Binaries für eine bis dato nicht im SDK vorhandene Architektur baut.

Schon alles etwas mysteriös, ich denke in den nächsten Tagen wissen wir genaueres.

Nightspider
2012-09-13, 15:30:17
HTC OneX hat einen Tegra3 taktet aber auch nur maximal bei 1.5GHz. http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=HTC+One+X+%28EndeavorU%29&testgroup=system

Kann sein dass HTC etwas aehnliches geplant hatte denn ich kann mich auch wage an eine 1.7GHz Behauptung fuer T3 erinnern. Entweder HTC meinte von Anfang an ein zukuenftiges Geraet mit einem hoeher getaktetem T3 oder man sah trotz allem ein dass es eine schlechte Idee ist fuer den Stromverbrauch es mit der Frequenz zu uebertreiben.

Vielleicht übertaktet HTC auch den Tegra 3?
http://winfuture.de/news,71880.html

Oder sitzt da schon der Tegra 3+ drin in 28nm?

Ailuros
2012-09-13, 15:39:15
Vielleicht übertaktet HTC auch den Tegra 3?
http://winfuture.de/news,71880.html

Oder sitzt da schon der Tegra 3+ drin in 28nm?

Im heutigen HTC OneX hockt ein AP30 und der link spricht von einem speed binned AP37 im HTX One X+ bei 1.6GHz wobei nur einer der 4 cores auf 1.7GHz takten wird. Batterie bleibt gleich gross im letzten und das Geraet wird etwas dicker. Was der eigentliche Zweck von dem Bloedsinn sein soll, weiss wohl nur HTC selber, denn der Leistungsgewinn ist theoretisch eher gering ausser der SoC hat noch grosszuegigere Bandbreite als das Asus TF700T tablet.

iFanatiker
2012-09-13, 15:50:56
Bei einer IPC Steigerung von 40 % bräuchte man noch immer ca. 1,2 GHz.

Es gab mit Sicherheit auch andere Verbesserungen im iP5. Ich gehe von breiterer/schnellerer Speicher-Anbindung z. B. gegenüber A5 im iPhone 4S.


Der eindeutigste Hinweis dafür, dass es kein neuer Aufguss des A9 ist, bleibt für mich die Tatsache, dass Xcode seit gestern standardmäßig Fat-Binaries für eine bis dato nicht im SDK vorhandene Architektur baut.

Schon alles etwas mysteriös, ich denke in den nächsten Tagen wissen wir genaueres.

Alleine der Sprung von Darwin bei iOS6 zeichnete großes ab wie eben einen Sprung in der Architektur. Darwin ist mit iOS6 eine ganze Nummer über ML gesprungen.

Ich glaube zu erahnen wieso Apple im Moment so geheimnisvoll tut:

1. Der A5x im iPad3 soll nicht "veraltet" wirken. :biggrin:

2. Joe Sixxpack kann zwar was mit Cores oder Takt anfangen aber wenig mit der Angabe zu Architektur, IPC usw. Deswegen hat Apple da gestern nichts erwähnt. Man möge sich nur erinnern welche Probleme im Marketing schon damals Intel hatte als IPC und nicht der Takt wichtig wurde. S3 hat ja Quadcore und iP5 nicht und dann nur 1 GHz Takt -> totaler Dreck.

dieses jahr kommen doch auch die ersten arm cortex a7 socs (http://www.chinaeshops.com/blog/ampe-allwinner-cortex-a7-quad-core-tablet-is-coming.html), die ja binärkompatibel mit a15 sind. wäre ein solcher zwischenschritt für apple auch denkbar?

Cortex A7 schafft im Schnitt weniger IPC als A8 oder A9. Die A7 IP soll nur besonders günstige und verbrauchsarme SoC ermöglichen.

Ailuros
2012-09-13, 16:23:19
iFanatiker,

Apple ist fuer ihre Geheimnistuerei fuer solche Einzelheiten bekannt. Bin mir zwar nicht mehr sicher aber ich bezweifle dass Apple bei der allerersten Vorstellung von vorigen Produkten gleich jegliche Einzelheit erwaehnte.

=Floi=
2012-09-13, 18:47:41
ein technisches pdf könnten sie schon online stellen. die präsentation war imho eh ein witz, weil da quasi nichts brauchbares zu sehen war. technisch doch so gut und dann versteckt man sich so.

sth
2012-09-13, 18:55:16
ein technisches pdf könnten sie schon online stellen. die präsentation war imho eh ein witz, weil da quasi nichts brauchbares zu sehen war. technisch doch so gut und dann versteckt man sich so.
Als die iPhones noch zur WWDC vorgestellt wurden war das noch etwas besser, da dann zumindest in den Developer-Sessions gelegentlich ein bisschen was zu den Interna gesagt wurde.

Momentan weiß man ja noch nicht einmal, wieviel RAM das iPhone 5 hat... (mein Tip: 1GB)

basti333
2012-09-13, 20:31:42
Als die iPhones noch zur WWDC vorgestellt wurden war das noch etwas besser, da dann zumindest in den Developer-Sessions gelegentlich ein bisschen was zu den Interna gesagt wurde.

Momentan weiß man ja noch nicht einmal, wieviel RAM das iPhone 5 hat... (mein Tip: 1GB)

Naja, es interessiert ja auch 90% der kunden nicht.

iFanatiker
2012-09-13, 20:58:22
iFanatiker,

Apple ist fuer ihre Geheimnistuerei fuer solche Einzelheiten bekannt.

Na....Apple ist schon immer gut drin technische Spezifikationen zu Marketing Zwecken zu verwenden wenn es eben passt. Hier ist es aber eben ziemlich schwer. Drauf wollte ich hinaus.

Quad Core, GHz usw. sagen Joe Sixxpack was...aber irgendein Techno Speek über A15 Blub ist schwer den Leuten verständliche zu vermitteln. Vor allem ist es schwer zu verkaufen, dass ein Dual A15 im Endeffekt besser ist in einen Mobiltelefon als ein Quad A9 .

Und die Sache mit dem iPad war das Zünglein an der Waage. Seit dem iPad 1 hatten die iPads immer den größten SoC aus dem Hause Apple für den jeweiligen Zyklus. Jetzt entsteht die Situation, dass in vielen Fällen das iP5 schneller werkeln dürfte als das iPad 3 und so "Shitstorm" entstehen könnten ala iPad 3 total veraltet blub blub. Eine bisschen blöde Situation und Apple wird vielleicht in der Tat in Zukunft die iPad High End Modelle ähnliche wie die Macbooks pflegen (ein Vollupdate und ein "Kosmetik" Update pro Jahr) was so einige Gerüchte besagen...aber der SoC dort muss bis März aushalten. Ich glaube schon, dass wir schon kurzfristig das iPad 3 mit dem Mini Dock sehen werden (und vielleicht paar kleinen Änderungen)...aber einen neuen SoC mit Sicherheit nicht.

sth
2012-09-13, 21:24:37
Naja, es interessiert ja auch 90% der kunden nicht.
Eben. Genausowenig wie die Frage, ob da nun ein A9 oder ein A15 drin werkelt.

Aber z.B. die Entwickler interessiert's, und die erfahren von Apple mittlerweile leider auch nichts mehr direkt.

Ailuros
2012-09-13, 23:38:21
Na....Apple ist schon immer gut drin technische Spezifikationen zu Marketing Zwecken zu verwenden wenn es eben passt. Hier ist es aber eben ziemlich schwer. Drauf wollte ich hinaus.

Quad Core, GHz usw. sagen Joe Sixxpack was...aber irgendein Techno Speek über A15 Blub ist schwer den Leuten verständliche zu vermitteln. Vor allem ist es schwer zu verkaufen, dass ein Dual A15 im Endeffekt besser ist in einen Mobiltelefon als ein Quad A9 .

Und die Sache mit dem iPad war das Zünglein an der Waage. Seit dem iPad 1 hatten die iPads immer den größten SoC aus dem Hause Apple für den jeweiligen Zyklus. Jetzt entsteht die Situation, dass in vielen Fällen das iP5 schneller werkeln dürfte als das iPad 3 und so "Shitstorm" entstehen könnten ala iPad 3 total veraltet blub blub. Eine bisschen blöde Situation und Apple wird vielleicht in der Tat in Zukunft die iPad High End Modelle ähnliche wie die Macbooks pflegen (ein Vollupdate und ein "Kosmetik" Update pro Jahr) was so einige Gerüchte besagen...aber der SoC dort muss bis März aushalten. Ich glaube schon, dass wir schon kurzfristig das iPad 3 mit dem Mini Dock sehen werden (und vielleicht paar kleinen Änderungen)...aber einen neuen SoC mit Sicherheit nicht.

Wer Lust hat kann die relevante Diskussion bei B3D verfolgen. Es ist beruhigend dass ich nicht der einzige bin der an A15 nicht so leicht glauben will, zumindest nicht mit den bisher gelieferten hints.

Kann sein dass Du recht hast und sich Apple mit Absicht hinter ihrem Finger versteckt. Anders die technischen Spezifizationen werden entweder gleichzeitig mit dem ersten reviews/Messungen erscheinen oder spaeter.

Coda
2012-09-14, 01:07:15
Ahja, und woher kommt dann armv7s? Wenn es immer noch ein A9 wäre, würde man keine neue Arch für den Compiler brauchen.

Ailuros
2012-09-14, 08:17:48
Ahja, und woher kommt dann armv7s? Wenn es immer noch ein A9 wäre, würde man keine neue Arch für den Compiler brauchen.

Ist armv7s in irgend einem Treibercode aufgetaucht? Wenn ja sagt es mir auch nichts denn Apple experimentiert mit so manchem Zeug im Hintergrund. Ebenso wie quad A9s in der Vergangenheit irgendwo aufgetaucht sind und fast jeder war sich damals sicher dass A5X/iPad3 einen quad A9 enthalten wird.

Ganz so nebenbei privat hat ein ARM CPU engineer guten Grund A15 ernsthaft zu bezweifeln. Uebrigens ist die originale Quelle fuer das A15 Zeug verdaechtig still, was zwar alles oder gar nichts heissen kann, aber falls es doch kein A15 sein sollte ist es nicht gerade eine angenehme Situation fuer ihn.

Wie schon erwaehnt ich persoenlich wuerde eine A15 Loesung ueber alles andere bevorzugen. Nebenbei schaetzt Brian Klug@Anandtech MP3 fuer die GPU.

Falls es stimmen sollte und man genau 2x Mal die theoretische Leistung eines MP2@200MHz (iPhone4S) haben will, reicht MP3@267MHz.

***edit: die wildeste These ueberhaupt (und nein es gibt keine einzige Indizie dafuer) waere dass Apple eben die CPU selber auf ARM Instruktionen basierend entwickelt hat. In dem Fall lach ich mich krank, denn dann hatte keiner recht am Ende.

http://semiaccurate.com/forums/showpost.php?p=168470&postcount=15

AnarchX
2012-09-14, 09:10:25
Im Endeffekt wurde ja mit schnelleren Startup Zeiten geworben. Wohl möglich LP-DDR3, anstatt LP-DDR2 beim A5 und ein Boost auf >1,6GHz für solche Anwendungsstarts?

Man müsste testen, ob die Leistungsverdopplung auch in längeren Benchmarks bestehen bleibt.

sth
2012-09-14, 11:03:08
Ist armv7s in irgend einem Treibercode aufgetaucht?
Nein, direkt in den (Standard-)Build-Settings.

iFanatiker
2012-09-14, 13:12:03
***edit: die wildeste These ueberhaupt (und nein es gibt keine einzige Indizie dafuer) waere dass Apple eben die CPU selber auf ARM Instruktionen basierend entwickelt hat. In dem Fall lach ich mich krank, denn dann hatte keiner recht am Ende.

Mal schauen. In jedem Fall sorgt armv7s für lustige Effekte heute bei uns mit iPhone5 Target weil etliche Libs diese Target noch nicht drin haben. :biggrin:

Ehrlich....das Aussehen schon vor Monaten geleakt...aber sowas kurz vor dem Start des iPhone 5. :freak: Fail. :biggrin:

Ist armv7s in irgend einem Treibercode aufgetaucht?

XCode hat nun nur noch armv7 und armv7s als Targets. Stellt man 5er deploy ein wird automatisch auch beides als Target in den Build eingetragen, erzeugt usw. Sowas macht man nicht wegen mehr mehr Cores, anderen IO Interface usw. Da hat sich eben was an der Architektur geändert. Vielleicht hat ja Apple in der Tat nun ein Custom Design ähnlich wie Qualcomm?

Oder ganz ganz wilde Spekulation?

Kein A15 IP sondern Krait IP Lizenz von Qualcomm? Wäre sowas zu abwegig? Darf Qualcomm sowas überhaupt mit seiner ARM Instruction Lizenz?

robbitop
2012-09-14, 13:23:41
Vieleicht hängt es (ARMV7s) gar nicht mit dem iPhone 5 zusammen? Normalerweise wird den Devs doch sowas Monate vorher zur Verfügung gestellt, damit sie zum Launch schon halbwegs fertig sind.
Vieleicht hängt es mit einem zukünftigen Produkt wie dem iPad 2013 zusammen?

iFanatiker
2012-09-14, 13:29:30
Vieleicht hängt es (ARMV7s) gar nicht mit dem iPhone 5 zusammen?

Doch...wenn du eben Deployment 5er auswählst wird in das Build File automatisch Armv7s eingetragen. Auch der 5er emulator verwendet genau diesen Build. Ist halt ganz neu mit dem GM von XCode seit der Vorstellung der 5er.

Selbst die großen First Level Partner von FB oder Twitter hat es "kalt" erwischt diesmal.

sth
2012-09-14, 13:29:44
Vieleicht hängt es (ARMV7s) gar nicht mit dem iPhone 5 zusammen?
Dann wäre es schon in den iOS6 Betas aufgetaucht und nicht erst im GM-Release von vorgestern Abend.

Normalerweise wird den Devs doch sowas Monate vorher zur Verfügung gestellt, damit sie zum Launch schon halbwegs fertig sind.
Das hat Apple noch nie so gehandhabt. Softwarefeatures ja, hardwarebezogene Features nicht.

Vieleicht hängt es mit einem zukünftigen Produkt wie dem iPad 2013 zusammen?
Macht wenig Sinn, es dann ausgerechnet jetzt so kurzfristig in die Binaries zu integrieren, wo jeder Entwickler krampfhaft versucht binnen 2-3 Tagen ein Update fertig zu kriegen.

Coda
2012-09-14, 15:32:00
Ok. Ich hab's zwar gelesen, aber es leuchtete wohl zu dem Zeitpunkt nichts auf. Unter dem Licht hast Du natuerlich recht. Schliesst aber wohl doch nicht A9 bei extravaganteren als bisher Frequenzen aus oder?
Man braucht für höhere Taktfrequenzen wohl kaum zusätzlich kompilierte Binaries.

=Floi=
2012-09-14, 15:55:11
wie läuft dann alte software? läuft das immer noch nativ drauf und die neuen befehle beschleunigen nur die neue software ähnlich SSE bei intel?

iFanatiker
2012-09-14, 16:04:19
wie läuft dann alte software? läuft das immer noch nativ drauf und die neuen befehle beschleunigen nur die neue software ähnlich SSE bei intel?

Die "armv7" binaries laufen auch auf "armv7s" Geräten.

Man braucht für höhere Taktfrequenzen wohl kaum zusätzlich kompilierte Binaries.

Eben. Genauso verhält es sich auch bei der Erhöhung der Core Anzahl.

Und bevor hier die Frage kommt: die Adressierung von "Features" des spezifischen Gerätes sind von den Binaries unabhängig sondern es geht nur um den Architektur-Level hier. Also armv7 für alles mit Cortex A8 und A9.

Ailuros
2012-09-14, 16:31:30
Mag sein dass es total Bloedsinn ist am Ende aber eine eigen entwickelter CPU core seitens Apple wuerde zeitgemaess viel mehr Sinn machen als A15. Nach ARM erwarten sie keine A15 in sehenswerten Volumen vor 2013 in Geraeten. Passt auch schoen zum Thread-titel.

Mit Qualcomm Krait ist der Vorsprung gegen A15 ja noch radikaler...Krait verbraucht uebrigens nicht so viel die area afaik als A15. Ich nehme den Gedanken aber trotz allem noch nicht ernst. Der einzige hint den ich je bezueglich Apple's moeglichen CPU Eigenentwicklungen bekam ist dass es zeitlich nicht sooo weit entfernt ist als ich glauben wuerde. Kann alles oder gar nichts heissen aber ich hatte auf >2015 getippt.

Uebrigens hab ich glatt uebersehen bei B3D:

http://forum.beyond3d.com/showpost.php?p=1666209&postcount=1288

hmmmmm.......:rolleyes:

sth
2012-09-14, 16:36:28
wie läuft dann alte software? läuft das immer noch nativ drauf und die neuen befehle beschleunigen nur die neue software ähnlich SSE bei intel?
Apple hat einen Mechanismus ("universal binaries" oder auch "fat binaries"), über den sie Binaries für unterschiedliche Architekturen in ein File packen, wie damals auch bei der PowerPC => Intel-Umstellung auf dem Desktop.

Bei iOS verwenden sie es primär zu Optimierungszwecken: Zwar sind die verschiedenen Architekturen untereinander rückwärtskompatibel, aber trotzdem baut das iOS SDK standardmäßig für jede Architektur eigene, optimierte Binaries (welche dann am Ende mittels des passend benannten Tools "lipo" in eine einzige fat binary zusammengefasst werden).

Bisher waren das unter iOS die Architekturen armv6 und armv7, wobei armv6 kürzlich gestrichen wurde (betrifft die Geräte der ersten beiden Hardwaregenerationen, die schon länger nicht mehr offiziell unterstützt werden).

Nun taucht mit dem GM-Release des iOS6 SDK plötzlich eine neue Architektur "armv7s" auf, und da wundert man sich dann schon etwas... Egal was im neuen iPhone sitzt, ein normaler Cortex A9 ist es höchstwahrscheinlich nicht.


[edit]: armv7s binaries laufen übrigens nicht auf dem A5(X). Umgekehrt kann man aber recht sicher davon ausgehen, dass normale armv7-Binaries auf dem neuen Chip laufen. Sonst würden die ganzen Reviewer wohl beim Versuch etwas aus dem App Store zu laden ihr blaues Wunder erleben.

Demirug
2012-09-14, 16:56:38
Laut meinen Infos unterscheidet sich armv7s nur durch einige zusätzliche Floating Point Befehle. Deswegen gehen die ersten jetzt schon hin und machen aus ihren armv7 libs durch ein wenig Magic armv7s libs damit sie ihre Projekte doch durch den linker bekommen.

sth
2012-09-14, 17:36:32
Deswegen gehen die ersten jetzt schon hin und machen aus ihren armv7 libs durch ein wenig Magic armv7s libs damit sie ihre Projekte doch durch den linker bekommen.
Wozu der Aufwand? Einfach armv7s aus der Liste der Build-Architekturen rausnehmen (und sei's nur temporär) und gut ist.

Ailuros
2012-09-15, 08:27:43
Nach Rys' letzten Aussagen steckt auf jeden Fall kein A9 im A6:


http://forum.beyond3d.com/showpost.php?p=1666551&postcount=1317

http://forum.beyond3d.com/showpost.php?p=1666558&postcount=1319

iFanatiker
2012-09-15, 10:14:50
Laut meinen Infos unterscheidet sich armv7s nur durch einige zusätzliche Floating Point Befehle.

Wie Ailuros schon schrieb: VFPv4 ist drin. Entsprechend erklärt haben dürften sich die zusätzlichen FP Befehle. Das wäre ein deutliches Anzeichen für A15. (A7 ist für andere Art von Geräten gedacht und die IP ist zu neu um jetzt fertiges Silizium in großen Stückzahlen zu haben).

Natürlich könnte Apple auch wirklich ein eigenes Design gemacht haben und so ähnlichen verfahren haben wie Qualcomm und so ein aufgebohrtes A9 Design in Richtung A15 gemacht haben.

Und natürlich laufen die armv7 Binaries auch auf den A6. Nicht neue erzeugte Apps sollen ja auch laufen. Das Problem ist eher eben der Build mit Target iP5. Entweder bearbeitet man die Config wie STH es schon meinte...oder man modifiziert sogar nur eben die Header der Fremd-Libaries.

Ailuros
2012-09-15, 10:40:06
Custom design hat IMHO folgende Vor- und Nachteile:

Nachteile:
* um einiges teurer und umstaendlicher als einfache CPU IP

Vorteile:
* bei rechtzeitiger Entwicklung schnelleres time to market
* eine direkte Anpassung der Notwendigkeiten fuer gpp auf iOS; nutzloses Zeug kann rausfliegen und da wo man etwas braucht kann man aufpumpen.
* wenn's obrige wirklich klappt koennte man wie mit dem Krait mit sparsamer die area am Ende ankommen

Der Thread hier ist schon ziemlich alt aber vor einiger Zeit hatte ich gehoert dass Apple von ARM einen der leading Eagle engineers geschnappt hatte und ARM ziemlich sauer war. Die Zeitspanne ist zwar zugegeben randmaessig knapp IMHO, aber Apple hat auch verdammt viel in relevante Resourcen investiert.

Benedikt
2012-09-15, 20:37:14
AnandTech: The iPhone 5's A6 SoC: Not A15 or A9, a Custom Apple Core Instead (http://www.anandtech.com/show/6292/iphone-5-a6-not-a15-custom-core)

sth
2012-09-15, 21:41:31
Oha, das kam unerwartet...

Ailuros
2012-09-15, 23:10:05
Oha, das kam unerwartet...

Unerwartet? Es macht zich mal mehr Sinn als ein A15 aus Gruenden die ich schon oben erwaehnt habe. Anand erwaehnt sie auch im verlinkten Artikel.

sth
2012-09-15, 23:37:51
Unerwartet? Es macht zich mal mehr Sinn als ein A15 aus Gruenden die ich schon oben erwaehnt habe. Anand erwaehnt sie auch im verlinkten Artikel.
Das meinte ich nicht im Bezug auf diese Diskussion sondern allgemein.
Wer hätte noch vor einer Woche damit gerechnet? [für diese Hardwaregeneration]

steve.it
2012-09-16, 00:12:06
Eigenes Design fällt zusammen mit größerem Display... :biggrin:

basti333
2012-09-16, 02:32:42
AnandTech: The iPhone 5's A6 SoC: Not A15 or A9, a Custom Apple Core Instead (http://www.anandtech.com/show/6292/iphone-5-a6-not-a15-custom-core)

Wenn man so darüber nachdenkt macht es schon sinn. Apple hat massiv in know-how investiert, hat grundsätzlich mehr als genug kapital und hat einen riesigen Eigenbedarf.

Vielleicht sogar einen schritt näher an der eigenen Architektur für MacBook und iMac :confused:

Ailuros
2012-09-16, 03:17:45
Das meinte ich nicht im Bezug auf diese Diskussion sondern allgemein.
Wer hätte noch vor einer Woche damit gerechnet?

Ich rechnete sowieso seit der thread hier angefangen hat eher mit der naechsten technologischen SoC Generation.

http://forum.beyond3d.com/showpost.php?p=1666748&postcount=1352

If tbat's their chip, it's definitely an impressive achievement. They bought PA semi about 4 years ago, so they had some experienced designers and probably usable functional blocks. But even then implementing and validating an ARMv7 core is certainly not an easy task.

So bald aber Anand mit A15 angefangen hat welches ziemlich unwahrscheinlich geklungen hat und das armv7s Zeug tauchte auf, war es die logischere Option fuer jemand wie Apple von allen.

AnarchX
2012-09-16, 10:01:19
Ob da bald ein eigenes GPU-Design folgt? :D

robbitop
2012-09-16, 10:04:51
Wenn sie ein Designteam kaufen würden vieleicht. (analog zu PA Semi)
Ich frage mich, warum Apple nicht längst IMG übernommen hat. Das wäre ein super Schnäppchen und würde die Konkurrenz massiv schwächen.
Mit dem richtigen Preis würde man die Anteile sicher bekommen.

Benedikt
2012-09-16, 10:14:49
Wenn sie ein Designteam kaufen würden vieleicht. (analog zu PA Semi)
Ich frage mich, warum Apple nicht längst IMG übernommen hat. Das wäre ein super Schnäppchen und würde die Konkurrenz massiv schwächen.
Mit dem richtigen Preis würde man die Anteile sicher bekommen.
Anti-Trust?

robbitop
2012-09-16, 10:24:49
Warum? Es gibt genug GPU IP Vendors im SoC Markt. Qualcomm hat das mobile ATI GPU Team gekauft. Da gab es auch keine Probleme.

basti333
2012-09-16, 11:11:01
Wenn sie ein Designteam kaufen würden vieleicht. (analog zu PA Semi)
Ich frage mich, warum Apple nicht längst IMG übernommen hat. Das wäre ein super Schnäppchen und würde die Konkurrenz massiv schwächen.
Mit dem richtigen Preis würde man die Anteile sicher bekommen.

Weil Intel sich auch bei IMG eingekauft hat und die würden bestimmt nicht verkaufen. Apple hält aber auch anteile, aber keiner von beiden wird wohl eine mehrheit bekommen, weil der jeweils andere das verhindern würde.


Edit: Mal so dumm gefragt, wäre es nicht noch einmal deutlich schwieriger ein eigenes GPU design auf die beine zu stellen, oder gibt es da auch lizensierbare architekturen wie bei ARM?

robbitop
2012-09-16, 11:24:49
Weil Intel sich auch bei IMG eingekauft hat und die würden bestimmt nicht verkaufen. Apple hält aber auch anteile, aber keiner von beiden wird wohl eine mehrheit bekommen, weil der jeweils andere das verhindern würde.


Edit: Mal so dumm gefragt, wäre es nicht noch einmal deutlich schwieriger ein eigenes GPU design auf die beine zu stellen, oder gibt es da auch lizensierbare architekturen wie bei ARM?
Intel hält doch nur ein paar Prozent.

Ein eigenes GPU Design aus dem Nichts? Das wäre ein extrem gewaltiger Kraftaufwand. Außerdem hätte man keine Patente und Mauern voller bestehender Patente vor sich. Halte ich für sehr unwahrscheinlich.

Coda
2012-09-16, 12:03:52
Ob da bald ein eigenes GPU-Design folgt? :D
Das ist viel schwieriger wegen den Treibern. Und ich vermute, dass auch das nötige Know-How bei CPUs einfacher zu bekommen ist.

basti333
2012-09-16, 12:30:07
Intel hält doch nur ein paar Prozent.


In June 2009, it was announced that Intel's stake had increased to 14% after it had acquired 25m shares.[10] One week later, Intel acquired another 5m shares from the Saad Group (based in Saudi Arabia), and its shareholding rose to 16.02%.[11]

Days later, Apple Inc announced it had subscribed for 2.2m new shares at 142.75p each and made market purchases of another 11.52m shares, raising its stake to 9.5%
http://en.wikipedia.org/wiki/Imagination_Technologies

Zergra
2012-09-16, 12:51:55
Ich denke eher das Apple irgentwann aufhört selber zu Entwickeln und dort einfach nurnoch Einkauft ...

robbitop
2012-09-16, 13:03:22
Das muss man differenzieren. In jedem Business trifft man Make-or-Buy-Descisions. Wenn es lohnt, etwas selbst zu machen, tut man das. Wenn nicht, lagert man es aus. Das hängt von Kosten/Nutzen, ob es Kern-Know-How ist, wie schwer es ist, ob andere es wesentlich besser können und von den Stückzahlen ab.
Apple kann nicht alles selbst entwickeln. Aber immerhin entwickelt man schon ziemlich vieles selbst. Aber natürlich ist nicht alles selbstentwickelt. Apple ist gut darin, vielversprechende Technologien früh zu erkennen und dann erfolgreich in ein marktfähiges Produkt zu überführen.
Das läuft in der Automobil- und Luftfahrtbranche ähnlich.
Verglichen mit den meisten Vendors der Konkurrenz hat man aber noch ziemlich viel der HW und SW selbst in der Hand.

basti333
2012-09-16, 13:22:34
Ich denke eher das Apple irgentwann aufhört selber zu Entwickeln und dort einfach nurnoch Einkauft ...


Nur mal so zum vergleich: Apples jährlicher bedarf an SoCs ist mittlerweile größer als alle jährlich verkauften CPUs von Intel zusammen. Natürlich sind Intel CPUs ne andere hausnummer, aber die dimensionen werden so schon deutlicher.

Coda
2012-09-16, 14:26:00
Wieviel ARM-Designs gibt's damit dann eigentlich? ARM, Apple, Qualcomm und NVIDIA (zukünftig)?

LadyWhirlwind
2012-09-17, 04:31:15
Ich denke eher das Apple irgentwann aufhört selber zu Entwickeln und dort einfach nurnoch Einkauft ...

Unwahrscheinlich, weil wenn Apple einkauft, sind im Preis für jeden SoC und für jede Lizenz auch die Entwicklungskosten und ein Gewinn einkalkuliert. Apple's Bedarf ist aber in der Regel so hoch, dass es sich lohnt selber zu entwickeln und so die Rentabilität zu erhöhen. Vorausgesetzt Apple gelingt es die nötigen Patente und Spezialisten an Board zu holen.

Ailuros
2012-09-17, 10:12:11
Warum? Es gibt genug GPU IP Vendors im SoC Markt. Qualcomm hat das mobile ATI GPU Team gekauft. Da gab es auch keine Probleme.

Und Qualcomm verkauft GPU IP oder eigenstaendige GPU chips an wen genau? Intel hat eine hoehere Aktienanzahl als Apple in IMG und nebenbei liefert IMG IP an eine Unzahl an Partnern. Erzaehl mir bloss nicht dass es die restlichen Partner von IMG freuen wuerde oder dass es nicht bedeuten wuerde dass IMG unter der Haube von Apple eine Unzahl an deals verlieren wuerde.

IMG ist nicht von Apple abhaengig und auch nicht Apple von IMG. Die durchschnittliche royalty die IMG pro IP core kassiert liegt bei knapp 30+p/core. Und wenn es schon sein muss es wuerde mich SEHR ueberraschen wenn IMG bei der Definierung ihrer Architekturen sich nicht nach Apple's Wuenschen richtet.

robbitop
2012-09-17, 10:22:34
Genau deswegen würde ich an Apples Stelle IMG kaufen. Damit hätte die Konkurrenz eines der besten GPU Designs nicht mehr zur Verfügung und für sich selbst könnte man das ganze vieleicht noch mehr anpassen. Exklusives ist immer gut. Der Markt könnte sich bezüglich Antitrust nicht beschweren, da es noch genug frei lizensierbare GPUs im SoC Bereich gibt.
Intel scheint sich ja mittelfristig von IMGs Designs abzuwenden. Zumindest sieht es so aus. Wollten die nicht lieber Gen7 beim nächsten Atom SoC?

Coda
2012-09-17, 10:24:27
Genau deswegen würde ich an Apples Stelle IMG kaufen.
Wer sagt, dass IMG sich kaufen lassen würde?

Ailuros
2012-09-17, 10:30:38
Wieviel ARM-Designs gibt's damit dann eigentlich? ARM, Apple, Qualcomm und NVIDIA (zukünftig)?

Custom designs basierend auf ARM CPU instruction sets gibt es bis jetzt von Qualcomm und jetzt Apple und ja NVIDIA koennte zukuenftig mit Project Denver noch zu der Liste kommen. Ich bin mir etwas unsicher ob es wirklich bei NV der Fall ist denn die Denver Geschichte ist ein unendlicher flip flop intern bei NV.

Keiner weiss zwar was genau Apple vorhat mit ihrer unendlichen Geheimnistuerei, aber bei NV ist es etwas komplizierter fuer Denver; dieses wird sich nicht nur auf small form factor SoCs begrenzen, da NV langfristig eine Antwort auf Intel/AMD's PC/notebook SoCs braucht und wohl auch HPC SoCs anstrebt.

Bleibt abzusehen was Apple genau mit ihrem custom design vorhat fuer die Zukunft. Ob sie auch vorhaben fuer die weniger vorhersehbare Zukunft Mac SoCs selber zu entwickeln und nicht mehr bei Intel bzw. AMD einzukaufen? Momentan eine noch etwas zu gewagte Spekulation und es klingt mir eher dass Apple erstmal den Zehen ins kalte Wasser mit small form factor taucht und dann erst mit der Zeit zu sehen ob es sich lohnt. Fuer so ein ambitionsreiches Projekt muessten sie auch ziemlich grosse foundry resources sichern.

Qualcomm hat in UMC eine Milliarde geschuettet, was wohl andere UMC Partner wie TI oder ST Micro womoeglich indirekt einen Tritt in den Hintern verpasst, denn ich kann mir schwer vorstellen dass Qualcomm nicht Prioritaet verlangt hat. TI's CEO klang vor Tagen als ob sie ploetzlich ihr Interesse im SFF Markt verloren haben da Qualcomm, Samsung und Apple so brutal zuschlagen. Zufall?

Intel macht ploetzlich die Tueren auf fuer kleine und vorsichtig ausgesuchte Partner fuer Herstellung bei ihren foundries usw. alles in allem klingt es danach als ob sich so manches in den naechsten Jahren aendern koennte. Apple braucht auf jeden Fall eine foundry die ihr brutal grosses Volumen und Prioritaet garantieren kann, falls sie wirklich in der Zukunft nicht mehr bei Samsung herstellen wollen. Meistens ist aber der gerichtliche Quark zwischen so grossen Firmen wie Samsung und Apple nur ein albernes Affentheater und es muss nicht immer so intensive Emotionen wiederspiegeln wie es manche fanboys beider Seiten interpretieren wollen. Business as usual.

robbitop
2012-09-17, 10:35:47
Wer sagt, dass IMG sich kaufen lassen würde?
Jeder Mensch hat seinen Preis. Jeder. ;)

Was den Apple Core angeht. Der muss wirklich bombastisch hohe IPC haben. Der scheint auf den A9 einen IPC Sprung von 60 % gemacht zu haben. Auf einen OoO Kern. Und das offenbar nicht nur in irgendwelchen SIMD Spezialfällen.

Ailuros
2012-09-17, 10:39:47
Genau deswegen würde ich an Apples Stelle IMG kaufen. Damit hätte die Konkurrenz eines der besten GPU Designs nicht mehr zur Verfügung und für sich selbst könnte man das ganze vieleicht noch mehr anpassen. Exklusives ist immer gut. Der Markt könnte sich bezüglich Antitrust nicht beschweren, da es noch genug frei lizensierbare GPUs im SoC Bereich gibt.
Intel scheint sich ja mittelfristig von IMGs Designs abzuwenden. Zumindest sieht es so aus. Wollten die nicht lieber Gen7 beim nächsten Atom SoC?

Siehe auch Coda's Frage welches erstmal der Kern der eigentlichen Antwort waere. Wer hat Dir genau erzaehlt dass Intel keine IMG IP mehr benutzen wird zumindest fuer small form factor? Dass Intel nichts mehr von IMG IP in =/>netbooks benutzen wird hat wohl gar nichts mit small form factor zu tun.

Exclusiv waere es nur fuer Apple und natuerlich nur ihr einziger Vorteil. Fuer IMG selber waere es die letzte Schrottloesung und eben gerade jetzt wo die Firma bei so brutalem Aufschwung liegt. Es ist nicht allzu lange her wo ihre Aktie bei 15 pennies lag und heute schwankt sie zwischen 550-650p. Damals waren es um die 300+ Angestellte, heute >1200 weltweit und IMG ist heute mehr als 2 Milliarden wert. Wie bloed kann man wirklich sein sich verkaufen zu lassen? Im vorigen Jahr verkauften sie >325Mio GPU IP und projezieren anhand der deals die sie haben 1 Mrd. chips/Jahr.

Jeder Mensch hat seinen Preis. Jeder. ;)

Und wer zum Henker erzaehlt Dir dass Apple ueberhaupt daran interessiert ist? IMG koennte sich leicht fuer 20 Pfund/Aktie verkaufen lassen, aber selbst Apple ist nicht so bloed eine uebertriebene Unsumme in eine Firma zu schuetten und dann auch noch eine Unzahl von employees zu erhalten waehrend IP spottbillig ist im Vergleich.

Etwas Lesematerial: http://www.imgtec.com/corporate/presentations/AGM12/Imagination_AGM_FY2011-12.pdf

robbitop
2012-09-17, 10:44:55
Es wäre eine verdammt gute Investition. Genau wie PA Semi. Was sind schon ein paar Mrd für Apple? Man würde die GPUs der Konkurrenz vermutlich entscheident schwächen.
Ob Apple oder wer auch immer das wirklich will - da habe ich keinen blassen Schimmer. Ich sage nur, dass ich das an deren Stelle (schon frühzeitig!! - 2004+) getan hätte.
IMG macht einfach sehr sehr gute Designs. Wäre doch schön, wenn man etwas hat, was die Copycats nicht haben können.

Ailuros
2012-09-17, 11:03:24
Es wäre eine verdammt gute Investition. Genau wie PA Semi. Was sind schon ein paar Mrd für Apple? Man würde die GPUs der Konkurrenz vermutlich entscheident schwächen.
Ob Apple oder wer auch immer das wirklich will - da habe ich keinen blassen Schimmer. Ich sage nur, dass ich das an deren Stelle (schon frühzeitig!! - 2004+) getan hätte.
IMG macht einfach sehr sehr gute Designs. Wäre doch schön, wenn man etwas hat, was die Copycats nicht haben können.

Wie gesagt es waere nur eine gute Investition fuer Apple aber fuer IMG eben nicht. Die Aussicht fuer IMG war schon in 2004 ziemlich gut und ich hab nie irgendwelche Geruechte von irgendwelchen Verkaufsverhandlungen gehoert. Es gab ledigliche ziemlich langwierige Verhandlungen zwischen IMG und Qualcomm (aber nicht Aufkauf-relevant) und weiss der Geier ob Qualcomm je wirklich an GPU IP interessiert war. Am Ende hat Qualcomm display IP und Ensigma IP von IMG lizenziert, wobei der letzte deal um zich Male groesser ist in moeglichem Volumen als GPU IP fuer Qualcomm je gewesen waere.

Apple hat uebrigens so viele Milliarden weil sie genau wissen wo man Milliarden am besten investiert. Wie gesagt so lange IMG fuer Apple's "jump" requests fragt "how high" hat Apple keine Not an irgendwelche zusaetzliche Ausgaben zu denken und es ist auch spottbillig. Fuer wie viele Produkte hat Apple bis jetzt SGX543 genau benutzt? Repeat licenses sind um verdammt billig und auch royalty Raten. Lies mal das pdf oben vorsichtig durch und man kann leicht sehen wie gross der Resourcen-Aufwand fuer IP genau ist. Die Kosten zu tragen waere fuer Apple theoretisch auch kein Problem, nur eben diametrisch teurer als ein multi-year/multi license IP deal wie der heutige mit IMG. Je mehr repeat licenses desto kleiner der Preis und je hoeher die Anzahl der Lizenzen bzw. Volumen ebenso.

robbitop
2012-09-17, 11:32:12
Da hast du natürlich Recht. Vieleicht sollte Apple aber zumindest noch ein paar mehr Anteile kaufen um anderen potenziellen Zugang oder Einfluss zu erschweren.

Ailuros
2012-09-17, 12:01:32
Da hast du natürlich Recht. Vieleicht sollte Apple aber zumindest noch ein paar mehr Anteile kaufen um anderen potenziellen Zugang oder Einfluss zu erschweren.

Errr wieso? Glaubst Du dass IMG nicht schon anhand Apple's Volumen ziemlich jede beantragte Turnerei von Apple mitmacht? Fuer was steht bei Dir "jump-how high?" genau? ;)

deekey777
2012-09-17, 12:47:52
Da stellt sich die Frage, ob Apple den A6 nicht in die kommenden iPad minis verbaut. Ein iPad Mini ist ja auf niedrigen Verbrauch angewiesen, andererseits ist der A5@32 nm ja nicht ein Stromfresser (er steckt nicht umsonst in den neuen iPods).

sth
2012-09-17, 12:56:09
Da stellt sich die Frage, ob Apple den A6 nicht in die kommenden iPad minis verbaut. Ein iPad Mini ist ja auf niedrigen Verbrauch angewiesen, andererseits ist der A5@32 nm ja nicht ein Stromfresser (er steckt nicht umsonst in den neuen iPods).
Da die kleineren iPads ja preislich eher das low-end bedienen sollen denke ich eher an die gleiche Konfiguration wie in den iPod touches. Wäre schon etwas kurios, wenn man für $300 die Wahl zwischen einem iPod mit A5 und einem iPad mit A6 hätte. ;)

robbitop
2012-09-17, 13:52:01
Errr wieso? Glaubst Du dass IMG nicht schon anhand Apple's Volumen ziemlich jede beantragte Turnerei von Apple mitmacht? Fuer was steht bei Dir "jump-how high?" genau? ;)
Das bezweifle ich nicht. Aber vieleicht will ja irgendwann noch wer anders Einfluss nehmen und Anteile kaufen. Da könnte man gleich mal einen Riegel vorschieben, damit es so bleibt wie es ist.

Da die kleineren iPads ja preislich eher das low-end bedienen sollen denke ich eher an die gleiche Konfiguration wie in den iPod touches. Wäre schon etwas kurios, wenn man für $300 die Wahl zwischen einem iPod mit A5 und einem iPad mit A6 hätte. ;)
Ich wäre mir da nicht so sicher. Schließlich muss auch das iPad mini (sofern es sowas denn geben wird) konkurrenzfähig sein. Gerade im Hinblick auf das Nexus 7. Bei Apples Zyklen müsste das Ding 1 Jahr durchhalten. Da kann man nicht mit einem veralteten SoC starten.
Der A6 ist relativ sparsam und klein. Ggü dem A5@32 nm sind das nur ein paar $. Wenn überhaupt.
Der iPod Touch ist ein völlig anderes Marktsegment. Da gibt es ja kaum bedrohliche Konkurrenz, wenn man sich die Marktmacht anschaut.
Den iPod Touch kann man für 209 € kaufen. Das iPad Mini schätze ich auf 299 €. Da ist schon noch Reserve drin. Insbesondere, wenn man kein Retina Display verbaut. (wobei ich das bei Apple für inkonsequent halten würde)

Wann hat Apple schon jemals so richtig ernsthaft low cost Produkte gebaut?

Ailuros
2012-09-17, 14:00:57
Das bezweifle ich nicht. Aber vieleicht will ja irgendwann noch wer anders Einfluss nehmen und Anteile kaufen. Da könnte man gleich mal einen Riegel vorschieben, damit es so bleibt wie es ist.

Weder Intel noch Apple haben durch ihren Aktienanteil irgendwelchen direkten Einfluss auf IMGs strategische Entscheidungen.

robbitop
2012-09-17, 14:04:06
Je mehr Anteile man hat, desto größer ist der Einfluss. Und wenn es nur indirekt ist. Sonst würden sich weder Apple noch Intel beteiligen.

Ailuros
2012-09-17, 14:17:15
Je mehr Anteile man hat, desto größer ist der Einfluss. Und wenn es nur indirekt ist. Sonst würden sich weder Apple noch Intel beteiligen.

Oder eine Firma investiert in Aktien in einen Partner um ihm Finanz-maessig etwas auf die Beine zu helfen. Wieviel total stock voting rights glaubst Du garantiert Intel ihr Aktien-anteil ueberhaupt? Ausser es hat sich nichts geaendert ist es ein niedriges pissat einstelliges Prozentual.

http://www.guardian.co.uk/business/marketforceslive/2009/jun/23/2

We see the upcoming results together with Intel stake building and gathering iPhone newsflow as support for Imagination's growth

Dass sowohl Intel als auch Apple die Aktien vom damals problematischen Saad group aufgekauft haben, sollte Dir etwas sagen.

http://www.v3.co.uk/v3-uk/news/1974379/apple-follows-intel-grabbing-extra-imagination-stake

It is believed Imagination had to sell over 10 million shares because of the Saudi group Saad having to cut back its stake in the firm after its accounts were frozen by a government bank.

basti333
2012-09-17, 17:29:18
Je mehr Anteile man hat, desto größer ist der Einfluss. Und wenn es nur indirekt ist. Sonst würden sich weder Apple noch Intel beteiligen.

Das zum einen, zum anderen weil man verhindern will das andere firmen IMG übernehmen. Was auch die erklärung ist warum Apple nicht IMG kauft. Es geht nicht, man würde wahrscheinlich millionen für überteuerte aktien ausgeben, um am ende festzustellen das man doch nicht alles Anteile bekommt. Intel würde nicht verkaufen, wohl auch nicht zum doppelten Aktienkrus, das haben sie nicht nötig. Auf der anderen seite könnte es weitere firmen geben die schnell IMG aktien kaufen, weill sie auf ein unabhängiges IMG angewiesen sind.

sth
2012-09-17, 18:26:46
Ich wäre mir da nicht so sicher. Schließlich muss auch das iPad mini (sofern es sowas denn geben wird) konkurrenzfähig sein. Gerade im Hinblick auf das Nexus 7. Bei Apples Zyklen müsste das Ding 1 Jahr durchhalten. Da kann man nicht mit einem veralteten SoC starten.
"Veraltet" würde ich den A5 nicht nennen. Klar, CPU-mäßig gibt es besseres, aber gerade in Sachen GPU kann der A5 noch gut mitmischen (vor allem beim 1024x768). Weder das 4S noch das iPad 3 fühlen sich in der Praxis langsam an, was man von den SingleCore-Geräten spätestens seit iOS5 nicht mehr behaupten kann.

Sagen wir's mal so: Als Entwickler lässt sich's mit dem A5 im Moment noch sehr gut leben.

Den iPod Touch kann man für 209 € kaufen. Das iPad Mini schätze ich auf 299 €.
Was du für 209€ kaufen kannst ist ein 16GB iPod touch aus dem Jahr 2010, mit TN-Panel, unbrauchbaren Kameras und Apple A4.
Der aktuelle iPod touch (IPS-Panel, brauchbare Kameras, Apple A5) beginnt hierzulande bei 319€ für die Variante mit 32GB. Halbieren wir beim iPad den Speicher, dann könnte es hinkommen, aber etwas komisch sähe es schon aus, wenn das iPad dann die besseren Specs hätte.

Da ist schon noch Reserve drin. Insbesondere, wenn man kein Retina Display verbaut. (wobei ich das bei Apple für inkonsequent halten würde)
Preissache, früher oder später wird sicher auch das 8"-Gerät ein Retina-Display bekommen, aber ich denke eher später als früher. Ausgenommen natürlich, die Preise beginnen deutlich höher als momentan spekuliert wird.

Wann hat Apple schon jemals so richtig ernsthaft low cost Produkte gebaut?
Das werden sie beim neuen iPad vermutlich auch nicht tun, aber ich denke halt, dass sie dann lieber an den Specs sparen als am Rest.

Ailuros
2012-09-17, 20:27:00
Also persoenlich wuerde ich schon einen A6 im iPad mini bevorzugen, schon weil es Entwickler mehr Freiheit geben wuerde, aber ich wuerde selber leider auch auf A5R2 tippen.

Sonst was die GPU betrifft gibt es an einem 543MPx nichts besonderes auszusetzen. Klar es fehlen ein paar Einzelheiten fuer OGL_ES3.0 Halti aber dafuer gibt es momentan nur Adreno320 und leistungsmaessig schlaegt es nur um einen Fetzen den MP4@250MHz im iPad3. Ich befuerchte dass wenn NV's Wayne eine 4 SIMD16, 4 TMU GPU haben wird wie Adreno 320, wuerde das letzte ziemlich impotent dastehen.

Sonst ist die breite Mehrzahl von anderen mobilen GPUs entweder featurereich aber relativ langsam (Vivante GPU IP, Adreno2xx) oder relativ feature-arm aber durchaus flott fuer die die area die sie verbrauchen (ARM Mali400, ULP GeForce.

In projezierten verkauften Einheiten wird Amazon Kindly Fire HD der eigentliche groesste Konkurrent vom iPadmini sein. Hier hat die 7" Variante einen OMAP4460 (dual A9@1.2GHz, SGX540@384MHz) und die 8.9" Variante einen OMAP4470 (dual A9@1.5GHz, SGX544@384MHz). Was ist beim iPad mini genau im Vergleich veraltet falls es einen A5R2 tragen sollte? Das bisher vorgezeigte Stotterfest auf den FireHD ist unakzeptabel wird wohl aber Amazon bis zum launch hinbiegen koennen. Sonst braucht das DX9.0L3 zusaetzliche texturing Zeug des 544 kein Schwein auf iOS und Apple wird jeglichen Frequenz-Unterschied mit den FireHD durch ihre gut optimierte sw Platform im Handumdrehen herausholen und das Resultat wird sich stets um zich Male fluessiger anfuehlen,

Bleibt das Nexus7 von Google, wobei Asus hofft dass sie 6 Mio Einheiten vom Laufband fuer 2012 bekommen, weil sie eben mit geraumen Knappheiten zu kaempfen haben. Kindle Fire HDs werden insgesamt auf 14Mio fuer 2012 eingeschaetzt. Wo das iPad mini eingeschaetzt wird von diversen Analysten keine Ahnung, aber mit einem hypothetischen MSRP von $299 liegt es irgendwo in der Mitte zwischen dem FireHD 7" und 8.9", bietet aber fuer sein Geld IMHO ziemlich viel Mehrwert als beide zusammen. Das Nexus koennte um einiges besser verkaufen wenn es keine so brutalen supply constraints geben wuerde.

sth
2012-09-17, 21:10:30
Also persoenlich wuerde ich schon einen A6 im iPad mini bevorzugen, schon weil es Entwickler mehr Freiheit geben wuerde, aber ich wuerde selber leider auch auf A5R2 tippen.
Natürlich wär's schön, aber aus Entwicklersicht bereitet mir die Allgegenwärtigkeit des A5 gerade weit weniger Kopfschmerzen als die Tatsache, dass der A4 immernoch verkauft wird.

Sähe natürlich ein bisschen anders aus, wenn der A6 doch einen neueren Grafikkern als den SGX543 hätte. (unwahrscheinlich)

Ailuros
2012-09-17, 21:13:41
Klar wär's schön, aber aus Entwicklersicht bereitet mir die Allgegenwärtigkeit des A5 weit weniger Kopfschmerzen als die Tatsache, dass der A4 immernoch verkauft wird.

Das mit Sicherheit LOL. A4 ist aber Gott sei Dank dabei sich zu verabschieden zumindest von der Herstellungs-Perspektive.

basti333
2012-09-17, 21:19:22
Das mit Sicherheit LOL. A4 ist aber Gott sei Dank dabei sich zu verabschieden zumindest von der Herstellungs-Perspektive.

Das iPhone 4 hat doch nen A4 und wird weiterhin verkauft.

Ailuros
2012-09-17, 21:25:08
Das iPhone 4 hat doch nen A4 und wird weiterhin verkauft.

Hatte ich total vergessen; Du hast natuerlich Recht. Leider...


Sieht natürlich ein bisschen anders aus, wenn der A6 doch einen neueren Grafikkern als den SGX543 hätte.

Ich glaube es erst wenn ich es sehe. Ausserdem hab ich das Gefuehl dass wenn Du das Ding in die Finger bekommst Dich genauso fuehlen wirst im Vergleich zu Series5XT wie mit der A5 vs. A4 CPU ;)

sth
2012-09-17, 21:44:26
Das iPhone 4 hat doch nen A4 und wird weiterhin verkauft.
Am schlimmsten finde ich den Einstiegs-iPod Touch, der hat nämlich nicht nur den A4 sondern auch nur 256MB RAM. :frown: (iPhone 4 hat 512MB)


Ausserdem hab ich das Gefuehl dass wenn Du das Ding in die Finger bekommst Dich genauso fuehlen wirst im Vergleich zu Series5XT wie mit der A5 vs. A4 CPU ;)
Vermutlich. ;)
Trotzdem wird man so oder so weiterhin für den A5 optimieren müssen, da der uns sicherlich noch eine ganze Weile erhalten bleiben wird – unabhängig davon, ob er nun auch im 8" iPad landet oder nicht.

basti333
2012-09-17, 22:00:53
Am schlimmsten finde ich den Einstiegs-iPod Touch, der hat nämlich nicht nur den A4 sondern auch nur 256MB RAM. :frown: (iPhone 4 hat 512MB)

Finde es auch etwas übertrieben was apple da an alten generationen im verkauft behalt, die akteulle und der vprgänger würden eigentlich reichen...

sth
2012-09-17, 22:31:00
Finde es auch etwas übertrieben was apple da an alten generationen im verkauft behalt, die akteulle und der vprgänger würden eigentlich reichen...
Dazu kommt, dass iOS6 das iPad 1 nicht mehr unterstützt. D.h. wenn ich bei Neuentwicklungen auf iOS6 als Baseline setzen wollen würde, dann fielen mir zwar 15 Millionen potentielle Kunden raus, aber die Kombi A4+256MB müsste ich durch den iPod touch trotzdem noch supporten. Irgendwie hirnrissig.

Ailuros
2012-09-18, 11:44:22
http://news.cnet.com/8301-13579_3-57514662-37/apples-a6-chip-development-detailed/

"So for its 2013 products, Apple will have to rely on the same CPU design, perhaps in a quad-core configuration and with a higher-performance GPU."

:D

BlackBirdSR
2012-09-18, 12:32:03
Ich versteh leider nicht, warum das lustig ist ;)
Irgendwelche Infos fehlen mir da ;D

mboeller
2012-09-18, 12:39:25
Rogue ;)

Ailuros
2012-09-18, 13:27:59
Ich versteh leider nicht, warum das lustig ist ;)
Irgendwelche Infos fehlen mir da ;D

Ich bin mir immer noch nicht sicher ob Apple im naechsten iPad eine Rogue Variante integrieren wird oder wieder eine Series5XT GPU.

Da sich die Entwicklungs-beschreibung vom Analysten mit vielem von dem was ich gehoert hatte deckt, will ich hoffen dass er auch mit dieser Schaetzung recht hat.

basti333
2012-09-18, 17:49:11
Apple's next CPU "will likely implement the 64-bit ARMv8 instruction set," he wrote.

Expect this in 2014, Gwennap said. "So for its 2013 products, Apple will have to rely on the same CPU design, perhaps in a quad-core configuration and with a higher-performance GPU."

Würde bedeuten das ab 2014 eine Apple eigene ARM CPU im Notebook/Desktop bereich zumindest denkbar wäre.

sth
2012-09-19, 09:27:17
Nicht wirklich ein objektiver Test (da browserabhängig), aber definitiv interessant:

iPhone 5/A6 SunSpider Performance: Faster than Intel's Atom Z2460 (http://www.anandtech.com/show/6309/iphone-5a6-sunspider-performance)

Ailuros
2012-09-19, 09:34:43
Nicht wirklich ein objektiver Test (da browserabhängig), aber definitiv interessant:

iPhone 5/A6 SunSpider Performance: Faster than Intel's Atom Z2460 (http://www.anandtech.com/show/6309/iphone-5a6-sunspider-performance)

Definitiv browser-abhaengig und ich stimme auch Exophase bei B3D zu:

http://forum.beyond3d.com/showpost.php?p=1667510&postcount=1409

The stuff about Atom's Sunspider advantage being down to memory subsystem is probably nothing more than a total guess on Intel's part. I'd be really surprised if they actually came to this answer by analyzing performance counters on Medfield vs Cortex-A9.

Javascript performance is highly dependent on the web browser and compiler techniques the JIT uses. Some of it is pretty different from conventional compiler techniques, and if it relies on self-modifying code (like the deopts in Chrome do) then Cortex-A9 is at a very specific disadvantage. Maybe Apple got wise and made code invalidation fast from user land somehow.

I wish it would stop getting attention by virtue of the fact that Javascript programs are still several times slower than native equivalents. So it's just a competition between extremely slow and horrifically slow. It's the kind of thing where I doubt memory subsystem performance is the big gating factor, unless it's all coming from icache misses.

sth
2012-09-19, 10:34:39
Die Reviews sind raus und anscheinend sind auch schon vereinzelte iPhones abseits der üblichen Pressevertreter im Umlauf. Ich denke in Kürze werden wir mehr handfeste Werte zu sehen kriegen (ich bin mal gespannt, was bei GLBenchmark rauskommt).

Ailuros
2012-09-19, 11:16:35
Die Reviews sind raus und anscheinend sind auch schon vereinzelte iPhones abseits der üblichen Pressevertreter im Umlauf. Ich denke in Kürze werden wir mehr handfeste Werte zu sehen kriegen (ich bin mal gespannt, was bei GLBenchmark rauskommt).

Mir ist es zu langweilig all die reviews durchzulesen, aber ich bezweifle dass irgendwo etwas ueber die GPU drinsteht. Falls es tatsaechlich ein MP3@267MHz sein sollte, erwarte ich 2300-2400 frames in GLBenchmark2.5. Da Dich eher Fuellraten fuer Dein Material interessieren, iPhone4S 800MTexels/s, iPhone5 1.6GTexels/s (falls das obrige stimmt).

deekey777
2012-09-19, 12:26:45
Definitiv browser-abhaengig und ich stimme auch Exophase bei B3D zu:

http://forum.beyond3d.com/showpost.php?p=1667510&postcount=1409
Habe keine Zeit zum Suchen, aber das hatten wir schon bei iOS 4.x, als allein ein iOS-Update bessere Leistung brachte.

Dem Kunden kann es egal sein, da er eben in einem geschlossenen System unterwegs ist.

iFanatiker
2012-09-19, 12:53:19
Habe keine Zeit zum Suchen, aber das hatten wir schon bei iOS 4.x, als allein ein iOS-Update bessere Leistung brachte.

Dem Kunden kann es egal sein, da er eben in einem geschlossenen System unterwegs ist.

Eben. Sunspider ist eben vor allem ein Benchmark der Javascript Engine.

Trotzdem gibt es hier paar Rückschlüsse wenn man es im einen iPhone 4S unter iOS 6 vergleicht wo vermutlich eben die identische JS Engine zum Einsatz kommt (FPU Optimierungen sind hier egal - hier dürfte vor allem Integer IPC ziehen).

Rechnet man die 20% mehr Takt raus, schafft der A6 fast die doppelte Performance. Ok, die Frage ist wie sich die erhöhte Speicheranbindung gegenüber A5 des 4S hier niederschlägt. Die IPC von dem Teil ist aber trotzdem schon eine krasse Nummer.

Performance/Verbrauch ist auch beeindruckend. Selbst beim Surfen mit recht JS Lastigen Webseiten kommen die Tester so auf die 10 bis 11 Stunden unter Wifi.

Ergo: Die Investitionen von Apple in eine modifizierten ARM IP haben sich mehr als gelohnt. Andere Hersteller müssen dazu ja noch wegen der Verfügbarkeit ja auch unterschiedliche SoCs in ein und dasselbe Modell verbauen was für Apple entfällt.

deekey777
2012-09-19, 13:00:58
Aus dem iOS-Review von Engadget:
Safari is also faster now, thanks to iOS 6 utilizing a zippier JavaScript engine. We ran some basic browser benchmark tests and the results were pleasant: we were able to crank out SunSpider tests faster (1,748ms, versus 2,266 on iOS 5) and we also saw significant increases in HTML5test and Browsermark scores (369 vs 296 and 105,894 vs 86,702 respectively).
http://m.engadget.com/2012/09/18/ios-6-review/?icid=eng_tp_fullpic(4:5)

Ohne Worte.

YfOrU
2012-09-19, 13:47:09
Sind immerhin 915ms (A6) zu 1748ms (A5) unter gleicher OS Version. Ohne massive Steigerung der Taktrequenz ist das schon recht beachtlich.

Auch insgesamt hat Apple hier (Software) einen ziemlich guten Job gemacht denn das 4S steht mit Dual A9@800Mhz im Vergleich zu anderen Plattformen sehr ordentlich da.

Ailuros
2012-09-19, 16:13:00
Habe keine Zeit zum Suchen, aber das hatten wir schon bei iOS 4.x, als allein ein iOS-Update bessere Leistung brachte.

Dem Kunden kann es egal sein, da er eben in einem geschlossenen System unterwegs ist.

http://forum.beyond3d.com/showpost.php?p=1667591&postcount=1412

Es soll nicht heissen dass A6 keine sehenswerte Leistungsteigerung bringt, sondern dass so manche Bumsschlussfolgerungen anhand doofer Messungen leider zu Tage kommen.

BlackBirdSR
2012-09-20, 09:23:40
Mich wundert immernoch, dass Apple hier nicht aggressiver das eigene IP vermarktet.

Es wäre doch nur ein weiterer logischer Schritt wie bei IOS6 und Google Maps, die Unabhängigkeit von anderen Ideengebern zu verkünden...

Ailuros
2012-09-20, 09:47:05
Mich wundert immernoch, dass Apple hier nicht aggressiver das eigene IP vermarktet.

Es wäre doch nur ein weiterer logischer Schritt wie bei IOS6 und Google Maps, die Unabhängigkeit von anderen Ideengebern zu verkünden...

Kann sein dass sie davon Schiss haben dass eine dual core@=/>1GHz Ankuendigung beim Publikum falsch ankommt. Mit der ueblichen Vermarktung von um weit hoeheren Frequenzen und dem unendlichen quad core Kaugummi kann ich es teilweise schon verstehen denn nur wenige sind gut technisch informiert. Wie ich schon vor Tagen sagte klingt es eher danach dass Apple eher die Leistungszahlen in reviews fuer sich sprechen laesst.

Am Rand hat Qualcomm als Gegenbeispiel sehr guten Grund mit allen moeglichen Fanfaren ueber ihre custom CPUs zu werben da sie damit auch ihre potentielle Kundschaft anlozen koennen. Gilt bei Apple aber nicht da sie ihre SoCs ausschliesslich fuer eigenen Nutzen entwickeln.

BlackBirdSR
2012-09-20, 09:54:29
Kann sein dass sie davon Schiss haben dass eine dual core@=/>1GHz Ankuendigung beim Publikum falsch ankommt.

Stimmt auch wieder.
Wenn man sich bereits die PR Kampagnen von Samsung ansieht, finden sich da nie Seitenhiebe auf die CPU, einfach weil man ohne Daten keinen Angriff darauf starten kann.

Das ist für Apple schon mal nicht schlecht, denn Du hast recht, für viele mag eine 1GHz Dual-Core CPU im Vergleich zum Quad-Core Galaxy-S3 ein Entscheidungsgrund sein - unabhängig von der wirklichen Performance.

Hoffentlich erleben wir nicht die Rückkehr des Performanceratings?!?:freak:

mboeller
2012-09-20, 10:06:56
Das ist für Apple schon mal nicht schlecht, denn Du hast recht, für viele mag eine 1GHz Dual-Core CPU im Vergleich zum Quad-Core Galaxy-S3 ein Entscheidungsgrund sein - unabhängig von der wirklichen Performance.


Genau...1GHz Dual-Core...tsss lahm...das haben ja schon die China-Schrotthandy's (MTK 6577 zB.)

<wo ist hier der Ironiebutton>

KayCee
2012-09-20, 11:00:45
Hätte eigentlich auch mehr von Apple erwartet...
Aber, und das darf man nicht vergessen, die Hardware von Apple bzw. eigentlich die SW von den Obstlern ist immer so, dass die Geräte trotzdem alle flüssig, stabil und vor allem flott laufen...und das ist auch eine beachtliche Leistung.

Obwohl es nur Dual 1,2Ghz sind, kann man es (theoretisch) gg Quadcore mit 1,4Ghz antreten lassen, was Performance angeht...

Nur eben zu berücksichtigen: Unterschiedliche Software (iOS gg bspw. ANDROID oder Windows 8)

Ailuros
2012-09-20, 11:04:32
Stimmt auch wieder.
Wenn man sich bereits die PR Kampagnen von Samsung ansieht, finden sich da nie Seitenhiebe auf die CPU, einfach weil man ohne Daten keinen Angriff darauf starten kann.

Das ist für Apple schon mal nicht schlecht, denn Du hast recht, für viele mag eine 1GHz Dual-Core CPU im Vergleich zum Quad-Core Galaxy-S3 ein Entscheidungsgrund sein - unabhängig von der wirklichen Performance.

Hoffentlich erleben wir nicht die Rückkehr des Performanceratings?!?:freak:

Performance-rating waere Schwachsinn. Es wird eben leider etwas dauern bis der Otto-Normalverbraucher einsieht dass die Effizienz pro Einheit zich Male wichtiger ist als sterile Einheiten-Anzahlen bzw. Frequenzen.

Ich sehe es leider immer noch Leute im Netz enttaeuscht waren dass Qualcomm's MSM8960 nur eine dual core CPU traegt gegen quad core bei Samsung bzw. Tegra3 SoCs. Dass ein einzelner Krait bzw. A15 einen ziemlich grossen Unterschied bedeutet gegen jeglichen einzelnen A9 core muss man eben zich Male zusaetzlich erklaeren.

AnarchX
2012-09-20, 12:26:46
Genau...1GHz Dual-Core...tsss lahm...das haben ja schon die China-Schrotthandy's (MTK 6577 zB.)

<wo ist hier der Ironiebutton>
Werben kann man mit 2x1GHz und 1GiB wirklich nicht. Insofern macht Apple das schon richtig mit dem ~2x A5 Vergleich.
Details zu Mikroarchitekturen und IPC interessiert wohl kaum einen Kunden.

Eventuell hätte man eine Review-Guide ähnlich wie bei den GraKa anfertigen können, in welchen man bestimmte Benchmarks auswählt, in denen die Leistungsfähigkeit demonstriert wird.

Hoffentlich gibt es bald einen Die-Shot zum A6, vielleicht setzt ja Apple auch auf einen Companion...

sth
2012-09-20, 13:07:00
Obwohl es nur Dual 1,2Ghz sind
Nach meinem Kenntnisstand sogar nur 1,0 (http://browser.primatelabs.com/geekbench2/search?utf8=✓&q=iphone5).

[edit]: AnarchX war schneller.

=Floi=
2012-09-20, 17:17:04
Hätte eigentlich auch mehr von Apple erwartet...
Aber, und das darf man nicht vergessen, die Hardware von Apple bzw. eigentlich die SW von den Obstlern ist immer so, dass die Geräte trotzdem alle flüssig, stabil und vor allem flott laufen...und das ist auch eine beachtliche Leistung.

Obwohl es nur Dual 1,2Ghz sind, kann man es (theoretisch) gg Quadcore mit 1,4Ghz antreten lassen, was Performance angeht...

Nur eben zu berücksichtigen: Unterschiedliche Software (iOS gg bspw. ANDROID oder Windows 8)


der chip schlägt den vorgänger um faktor 2. was soll denn daran schlecht sein?!
apple hat genau dort angesetzt wo es wichtig ist und sie setzen hier eben nicht auf einen quad, sondern um höhere IPC.

Ailuros
2012-09-20, 19:58:46
Hätte eigentlich auch mehr von Apple erwartet...
Aber, und das darf man nicht vergessen, die Hardware von Apple bzw. eigentlich die SW von den Obstlern ist immer so, dass die Geräte trotzdem alle flüssig, stabil und vor allem flott laufen...und das ist auch eine beachtliche Leistung.

Obwohl es nur Dual 1,2Ghz sind, kann man es (theoretisch) gg Quadcore mit 1,4Ghz antreten lassen, was Performance angeht...

Nur eben zu berücksichtigen: Unterschiedliche Software (iOS gg bspw. ANDROID oder Windows 8)

Was ist Deiner Meinung nach besser ein dual core Krait@1.0GHz oder ein quad core A9@1.4GHz?

Nightspider
2012-09-20, 21:37:40
So eine Frage kann man nicht mit einer Aussage beantworten.

Man sollte klar unterscheiden, was potentiell mehr Leistung bietet und was unter aktuellen Bedingungen und aktuellen Anpassungen unter übLichen Programmen mehr Leistung bietet.

Ailuros
2012-09-20, 22:27:42
So eine Frage kann man nicht mit einer Aussage beantworten.

Man sollte klar unterscheiden, was potentiell mehr Leistung bietet und was unter aktuellen Bedingungen und aktuellen Anpassungen unter übLichen Programmen mehr Leistung bietet.

Ich kann sie Dir kinderleicht beantworten: Effizienz pro Einheit ueber sterile Anzahl der Einheiten.

Krait, Apple A6 und Cortex A15 sind alle eine neue CPU Generation im Vergleich zu Cortex A9. Wenn man mehr Instruktionen bearbeiten kann im ersten Fall pro Takt werden Einzelheiten wie core Anzahl bzw. Frequenz bei solchen Vergleichen ab einem Punkt zweitrangig.

Ailuros
2012-09-21, 11:47:16
http://www.xbitlabs.com/news/mobile/display/20120920175925_Apple_to_Rule_the_Tablet_Market_Till_2016_Despite_of_Google_Andro id_and_Microsoft_Windows_IDC.html

Wuerde ich mir auch nicht anders vorstellen.

steve.it
2012-09-21, 23:11:52
GLBenchmark 2.5 Egypt HD offscreen 1080p (C24Z16):

iPhone 5: 3003
iPad 3: 2820
Galaxy S III: 1708
iPad 2: 1545
Nexus 7: 1331
iPhone 4S: 1252
One X: 1197
Galaxy Nexus: 603

GLBenchmark 2.5 Egypt classic offscreen 1080p (C16Z16):

iPhone 5: 10349
iPad 3: 9877
Galaxy S III: 6662
iPad 2: 5489
iPhone 4S: 4535
Nexus 7: 4301
One X: 4041
Galaxy Nexus: 1632

http://forums.macrumors.com/showpost.php?p=15809632&postcount=16


http://images.anandtech.com/doci/6323/Apple%20A6%20Die%20diffusion-marked-2%20pass_575px.jpg

http://www.anandtech.com/show/6323/apple-a6-die-revealed-3core-gpu-100mm2

fizzo
2012-09-22, 00:06:40
http://www.pcmag.com/article2/0,2817,2410034,00.asp

:up:

steve.it
2012-09-22, 10:34:05
The iPhone 5 Performance Preview
http://www.anandtech.com/show/6324/the-iphone-5-performance-preview

BlackBirdSR
2012-09-22, 11:08:34
Und das mit 2x1.2 ghz dual core + MP3. Respekt an Apple.

Benedikt
2012-09-22, 12:22:40
Und das mit 2x1.2 ghz dual core + MP3. Respekt an Apple.
Ich sehe da jetzt nichts, was Krait nicht zumindest annähernd auch bewerkstelligen könnte, oder?

fondness
2012-09-22, 12:31:37
Ich sehe da jetzt nichts, was Krait nicht zumindest annähernd auch bewerkstelligen könnte, oder?

Es wird doch eh ein Dual-Core Krait in Form der Snapdrogan S4 mitgetestet und dieser wird trotz höherer Taktfrequenz geschlagen. Die Frage ist höchstens noch wie viel davon vielleicht auch noch aufgrund der Software zustande kommt. Aber ansonsten scheint die IPC auch deutlich vor Krait zu liegen (der allerdings auch schon länger am Markt ist).

robbitop
2012-09-22, 12:36:42
Die IPC von Apples erstem eigenen CPU Design ist relativ zu Qualcomms Krait und zu ARMs A15, insbesondere weil Kerngröße und TDP nicht schlechter sind, wirklich bemerkenswert.
Im Hinterkopf sollte auch behalten werden, dass ein Quadcore in synthetischen Benchmarks hilft, aber in sehr sehr vielen realen Applikationen kaum etwas bringt, weil oftmals nicht unbegrenzt parallelisiert werden kann.

fondness
2012-09-22, 12:46:52
Die IPC von Apples erstem eigenen CPU Design ist relativ zu Qualcomms Krait und zu ARMs A15, insbesondere weil Kerngröße und TDP nicht schlechter sind, wirklich bemerkenswert.
Im Hinterkopf sollte auch behalten werden, dass ein Quadcore in synthetischen Benchmarks hilft, aber in sehr sehr vielen realen Applikationen kaum etwas bringt, weil oftmals nicht unbegrenzt parallelisiert werden kann.

Wenn man sich über Jahre hinweg die besten Köpfe der Industrie zusammen kauft ist das eben nicht umsonst. Der Chip ist absolut konkurrenzlos, keine Frage. Und er wird das auch noch länger bleiben, selbst A15-Chips dürften erst 2013 den Markt erreichen. Ein Quad-Core in einem mobilen Gerät ist primär Marketing, gerade da sehr viel Software dort noch überhaupt nicht parallelisiert ist.

dildo4u
2012-09-22, 12:54:18
Es wird doch eh ein Dual-Core Krait in Form der Snapdrogan S4 mitgetestet und dieser wird trotz höherer Taktfrequenz geschlagen. Die Frage ist höchstens noch wie viel davon vielleicht auch noch aufgrund der Software zustande kommt. Aber ansonsten scheint die IPC auch deutlich vor Krait zu liegen (der allerdings auch schon länger am Markt ist).
Weder das HTC noch das GS3 laufen mit Android 4.1,die CPU ist in jedem Fall schneller im GS3.Das Speicherinterface rettet den Gesamtwert vom iP5.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9473378&postcount=784

robbitop
2012-09-22, 12:55:21
Was heißt die besten CPU Entwickler der Industrie? AFAIK haben die hauptsächlich PA Semi für einen verhältnismäßig guten Preis erworben.
Die besten CPU Entwickler dürften bei Intel (und danach IBM, AMD, Oracle, SUN etc) sitzen.

fondness
2012-09-22, 13:00:41
Was heißt die besten CPU Entwickler der Industrie? AFAIK haben die hauptsächlich PA Semi für einen verhältnismäßig guten Preis erworben.
Die besten CPU Entwickler dürften bei Intel (und danach IBM, AMD, Oracle, SUN etc) sitzen.

Es sitzen auch einige ehemalige AMD (und was man so gehört hat auch Intel-Leute) bei Apple. Ich weiß das weil ich meine Bac-Arbeit bei AMD gemacht habe und zu diesem Zeitpunkt massiv Top-Leute Richtung Apple abgeworben wurden.

fondness
2012-09-22, 13:10:10
Weder das HTC noch das GS3 laufen mit Android 4.1,die CPU ist in jedem Fall schneller im GS3.Das Speicherinterface rettet den Gesamtwert vom iP5.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9473378&postcount=784

Man braucht vier Kernen @ 1.6Ghz um die zwei Kerne von Apple in einem annähernd perfekt parallelisierten Benchmark zu schlagen. Welche CPU bei weitem überlegen ist braucht man wohl nicht erwähnen. Natürlich stets unter dem Fragezeichen der Software.

dildo4u
2012-09-22, 13:19:32
Man braucht vier Kernen @ 1.6Ghz um die zwei Kerne von Apple in einem annähernd perfekt parallelisierten Benchmark zu schlagen. Welche CPU bei weitem überlegen ist braucht man wohl nicht erwähnen. Natürlich stets unter dem Fragezeichen der Software.
Auf die einzel Werte achten,die CPU Werte sind beim GS3 viel besser,(+30-50%)das Speicherinterface rettet das ip5.

Coda
2012-09-22, 13:29:14
Das GS3 hat aber vier Kerne.

robbitop
2012-09-22, 13:32:48
Es sitzen auch einige ehemalige AMD (und was man so gehört hat auch Intel-Leute) bei Apple. Ich weiß das weil ich meine Bac-Arbeit bei AMD gemacht habe und zu diesem Zeitpunkt massiv Top-Leute Richtung Apple abgeworben wurden.
An welchem AMD Standort warst du denn?

fondness
2012-09-22, 13:33:13
Auf die einzel Werte achten,die CPU Werte sind beim GS3 viel besser,(+30-50%)das Speicherinterface rettet das ip5.

Bei doppelt so vielen Kernen und 33% mehr Takt. IPC pro Kern liegt wohl annähernd doppelt so hoch wie bei einem A9.

An welchem AMD Standort warst du denn?

In Austin.

dildo4u
2012-09-22, 13:35:35
Das GS3 hat aber vier Kerne.

Jo sind 4 alte Kerne weil's schon länger auf dem Markt ist,sehe da kein Problem dank der Größe des Akkus gegenüber dem iP5.Beide haben das was passt eingebaut bei Android kanns nicht genug CPU Power haben.Bei ios läuft eh schon alles sehr schnell,weil's in 5 Jahren kaum Aufwändiger wurde.

Coda
2012-09-22, 13:36:44
Das ist ein Problem, weil die wenigsten Applikationen von Multi-Core gebrauch machen, schon gar nicht bei der Ladezeit. Für die "Snappiness" bringt das exakt nichts vier statt zwei Kerne zu haben.

Für ein Smartphone ist Single-Thread-Leistung immer noch bei weitem das wichtigste, und da vernichtet A6 alles auf dem Markt.

dildo4u
2012-09-22, 13:41:21
Komisch warum das GS3 dann beim Browserbench so gut mithält,dort wird doch nur eine Seite/Effekt gerendert.Das muss Multithreaded sein,das 4 Core Modell schlägt dort das Dual Core GS3 um längen ,obwohl es Krait Cores nutzt.

Hier mal der Test.
http://browsermark.rightware.com/browsermark/index.action


Das GS3 wohl ohne Android 4.1 Update.
http://www.abload.de/img/49989j3jjy.png

BlackBirdSR
2012-09-22, 14:21:03
Den A6 hätte ich gerne im ipad Mini...

deekey777
2012-09-22, 14:43:13
Den A6 hätte ich gerne im ipad Mini...

Da stellt sich die Frage, ob Apple den A6 nicht in die kommenden iPad minis verbaut. Ein iPad Mini ist ja auf niedrigen Verbrauch angewiesen, andererseits ist der A5@32 nm ja nicht ein Stromfresser (er steckt nicht umsonst in den neuen iPods).

Hätte ich auch gern. Es stellt sich die Frage, wie Apple das Mini positionieren will: als kostengünstige Alternative zum iPad 2 oder als Highend im 7-Zoll-Sektor.

steve.it
2012-09-22, 14:48:29
Die besten CPU Entwickler dürften bei Intel (und danach IBM, AMD, Oracle, SUN etc) sitzen.
Bei P.A. Semi saßen auch richtig gute Leute.

Ich hatte mal von einem ehemaligen AMD Chipdesigner ebenfalls den Hinweis bekommen, dass Apple vermutlich mit die besten Leute in der Branche hat (bezogen auf ARM bzw. SoCs). Das liegt mittlerweile schon mehrere Monate zurück.

Der A6 ist in der Gerüchteküche übrigens vor über einem Jahr das erste mal aufgetaucht.
http://winfuture.de/news,64356.html

Nightspider
2012-09-23, 01:31:55
Gegen A15 DualCores mit 1,7Ghz dürfte die CPU dennoch kein Land sehen. Und QuadCores mit A15 wird es auch schon lang vor dem iPhone Gen7 geben. Zumal Apple scheinbar auch nur langsameren LPDDR2 statt 3 verwendet.

steve.it
2012-09-23, 02:47:06
Gegen A15 DualCores mit 1,7Ghz dürfte die CPU dennoch kein Land sehen. Und QuadCores mit A15 wird es auch schon lang vor dem iPhone Gen7 geben. Zumal Apple scheinbar auch nur langsameren LPDDR2 statt 3 verwendet.

Wenn du den Stromverbrauch nicht berücksichtigst... ;)

robbitop
2012-09-23, 07:30:09
Die reinen Specs sind sowieso völlig irrelevant. Das iPhone4 und das 4S waren trotz massiv langsamerer CPU nie langsamer anzufühlen als die Androiden. Der A6 ist schon was Singlethreadleistung (und damit snappyness) angeht ziemlich gut. Ob jetzt im nächsten Jahr ein Android nochmal ein paar Prozent von den Specs draufpackt spielt nur eine untergeordnete Rolle. Die Gesamterfahrung aus SW/HW wird wohl wie bei den Vorgängern nicht snappier sein.
Um auf die gleiche Laufzeit bei einem Quad A15 zu kommen, braucht es auf jeden Fall dann wieder einen größeren Akku, was das Handy größer und schwerer macht. Das hat das iPhone5 ja sehr gut hinbekommen. Leicht, niedrige Bauhöhe und erhalten gebliebene Einhandbedienung. Das wäre mit deutlich hungrigerem SoC dann nicht mehr zu halten.

Coda
2012-09-23, 10:52:58
Die Gesamterfahrung aus SW/HW wird wohl wie bei den Vorgängern nicht snappier sein.
Ich hab da mit meinem 4.1 ehrlich gesagt kein Problem mehr. Selbst auf dem Galaxy Nexus, das "nur" zwei A9 hat :)

robbitop
2012-09-23, 13:28:25
Ich fand bisher die Ladezeiten von aufwändigen Websites immer zu langsam. Ich bin zu verwöhnt von meinem Desktop. Auf einem Tablet oder einem Smartphone dauert das immer ein paar Sekunden. Ich mag dieses quasi-instant Seitenaufbaugefühl. Und das sollte mit dem A6 ein Stückchen näher kommen.
Aber auf jeden Fall ist das Meckern auf hohem Niveau.

BlackBirdSR
2012-09-23, 13:33:45
Ich fand bisher die Ladezeiten von aufwändigen Websites immer zu langsam. Ich bin zu verwöhnt von meinem Desktop. Auf einem Tablet oder einem Smartphone dauert das immer ein paar Sekunden. Ich mag dieses quasi-instant Seitenaufbaugefühl. Und das sollte mit dem A6 ein Stückchen näher kommen.
Aber auf jeden Fall ist das Meckern auf hohem Niveau.

Das liegt aber am Desktop mehr daran, dass dein browsercache schon im üppigen Hauptspeicher liegt oder von der ssd kommt. Das kann keine CPU aufholen.

Coda
2012-09-23, 14:01:43
Smartphones haben aber auch Flash.

robbitop
2012-09-23, 14:04:42
Mir ist aber auch aufgefallen, dass Smartphonebrowser nicht so sehr zu cachen scheinen. Drücke ich auf "zurück" wird bei Safari in iOS die Seite komplett neu geladen.

Coda
2012-09-23, 14:13:33
Ist ja auch logisch, du hast ja viel weniger Platz frei im Dateisystem.

robbitop
2012-09-23, 14:21:18
Dann wird es Zeit, dass etwas mehr Speicher in die Dinger kommt. :D

basti333
2012-09-23, 14:52:29
Smartphones haben aber auch Flash.

Welcher aber nicht ansatzweise so schnell ist wie ne richtige SSD.

Coda
2012-09-23, 15:17:32
Ich glaube trotzdem nicht, dass das der Bottleneck ist.

sth
2012-09-23, 15:28:10
Desktop-Browser fühlen sich (ordentliche Internetverbindung vorausgesetzt) auch mit deaktiviertem Cache noch fast genauso schnell an.
Mobile-Browser sind dagegen auch langsam, selbst wenn man auf einen Server im LAN zugreift.

Ich schätze die CPU dort immernoch als maßgeblich limitierenden Faktor ein.

Ailuros
2012-09-23, 16:51:44
http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&certified_only=1&D1=Apple%20iPhone%205&D2=Apple%20iPad%203

iPhone5 leicht schneller als iPad3 in GLBenchmark2.5. Der A6 duerfte einen MP3@300-325MHz haben im Vergleich zu MP4@250MHz im A5X.

sth
2012-09-23, 17:17:51
Könnte es Rogue deiner Meinung nach ins nächste iPad (Q1 2013) schaffen?

Coda
2012-09-23, 17:18:16
Die GPU ist doch laaaaaaangweilig.

sth
2012-09-23, 17:25:19
Wie meinen? Rogue, 543MP3 oder das Thema im Allgemeinen? ;)

Ailuros
2012-09-23, 17:32:31
Könnte es Rogue deiner Meinung nach ins nächste iPad (Q1 2013) schaffen?

Schwer zu sagen. Wir sind uns immer noch nicht sicher ob A6 wirklich um die 95mm2 gross ist unter 32nm. Wenn ja hat Apple genug Luftraum um eine ebenso bombastische die area wie beim A5X (165mm2@45nm) zu erreichen und da passt schon einiges rein.

Nach IMG hatten schon mehrere ihre Partner tape outs mit Rogue und es soll in Zich Mal besserem Zustand sein als SGX zum vergleichbaren Zeitpunkt. Bei Apple kann man es einfach nie mit Sicherheit wissen; ich haette auch nicht daran geglaubt dass sie es schon jetzt mit der custom CPU schaffen aber man sieht ja was daraus geworden ist.

Die GPU ist doch laaaaaaangweilig.

Im Vergleich zu Rogue sicher; sonst ist Adreno320 die einzige OGL_ES3.0 GPU und smartphone gegen smartphone sieht es dann so aus:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&certified_only=1&D1=Apple%20iPhone%205&D2=Xiaomi%20MI%202

Adreno320 kommt nur im 2.5 offscreen einen Schnitt weiter vorne an und dieses bei IMHO 4*SIMD16/64SPs@400MHz gegen 12 Vec4/48SPs@=/>300MHz.

Der MP3 im A6 ist auch nur etwas schneller als das MP4 im A5X. Wenn Apple jetzt immer noch auf Series5XT im naechsten iPad setzen sollte und die GPU Leistung nochmal verdoppelt, sind sie immer noch ca. 70-80% zumindest vor dem schnellsten Zeug vor der heutigen Konkurrenz. Natuerlich aber auch dann ein ziemlich gewagter Schachzug denn ich erwarte schon um einiges mehr Loesung als beim Adreno320 fuer ARM Mali T604 dass auch bald erscheinen sollte und natuerlich NV's Wayne. Mit einem quad core GC6400 Rogue haben sie dann schon einen verdammt grossen Vorsprung aber dann auch hauptsaechlich im GFLOP Bereich.

Ein GC6400 haette schaetzungsweise maximal nur 3x Mal so viel Texel-fuellrate auf Papier wie der MP3 im A6. Ausser Rogue hat um zich Mal hoehere Fuellraten-Effizienz.

Coda
2012-09-23, 18:59:00
Wie meinen? Rogue, 543MP3 oder das Thema im Allgemeinen? ;)
535MP3. Alles schon gesehen.

sth
2012-09-23, 19:15:51
535MP3. Alles schon gesehen.
535 wäre bitter. ;)
Aber ich stimme zu: Könnte spannender sein.

Ailuros
2012-09-23, 21:11:11
535MP3. Alles schon gesehen.

Haarspalterei aber 543. 535 ist nicht multi core faehig und ist lediglich 2 Vec2, 2 TMUs, 8z gegen 4 Vec4+1, 2 TMUs, 16z = 543 pro core.

Series5XT (ob single core oder MPs) ist ausserhalb Apple gerade erst am ausrollen was die Android-Welt betrifft.
Intel CloverTrail = SGX544MP2@533MHz
TI OMAP 4470 = SGX544MP1@384MHz
TI OMAP 5430 = SGX544MP2@532MHz
ST Ericsson Novathor = SGX544MP1@500-600MHz (je nach SoC)
Samsung und weiss der Geier wer noch....sind alles Produkte die gerade erst auf den Markt kommen oder SoCs die gerade erst beim sampling sind.

Apple hat ihre eigene release-Zeiten aber sie sind in letzter Zeit der Konkurrenz ziemlich im Vorsprung was GPU Integrierung betrifft.

Ailuros
2012-09-24, 11:39:49
http://www.anandtech.com/show/6323/apple-a6-die-revealed-3core-gpu-100mm2

Wird auf 95mm2@32nm Samsung eingeschaetzt momentan. Mit den 266MHz fuer den MP3 stimme ich nicht zu. Es kann nur =/>300MHz sein anhand der Fuellraten-Resultate unter GLBenchmark2.5.

Nightspider
2012-09-24, 11:43:05
Ich freu mich schon auf den fight Samsung Exynos 5250 (Dual) mit 2*1,7 Ghz A15 mit Mali T604 Quad und 32-bit Dual-channel 800 MHz LPDDR3/DDR3 (12.8 GB/sec) or 533 MHz LPDDR2 (8.5 GB/sec) vs. Apple A6.
Der Exynos sollte ja auch bald aufschlagen.

robbitop
2012-09-24, 12:05:37
Es wird ein irrelevanter Fight, da er nicht in der gleichen Plattform stattfindet und beide zu einem ähnlichen Gesamtergebnis kommen werden. Also fühlbar ein ähnliches Erlebnis. *boring*
Wesentlich interessanter ist ein A6X. Wenn der wirklich mit einem Rogue kommen sollte, wird man einen nicht zu verachtenden Performanceschub der GPU sehen können. Vieleicht packen sie ja noch ein bisschen mehr Turbotakt für die CPU drauf.

Ailuros
2012-09-24, 12:07:59
Ich freu mich schon auf den fight Samsung Exynos 5250 (Dual) mit 2*1,7 Ghz A15 mit Mali T604 Quad und 32-bit Dual-channel 800 MHz LPDDR3/DDR3 (12.8 GB/sec) or 533 MHz LPDDR2 (8.5 GB/sec) vs. Apple A6.
Der Exynos sollte ja auch bald aufschlagen.

Device form factor? Stromverbrauch? Die maximalen specs vom Exynos 5250 stimmen schon, nur bleibt eben abzusehen wie gross der SoC genau sein wird und unter welchen Bedingungen man es in ein smartphone quetschen kann. Ausser ich hab irgend etwas verpasst, gibt Samsung keine Frequenzen fuer die GPU an, obwohl viele 500MHz erwarten. Man hat auch fuer den Exynos4@45nm 400MHz fuer die GPU erwartet, aber es realisierten sich nur 266MHz, wobei man dann erst mit 32nm auf 440MHz skalierte. Gleiches gilt auch fuer die CPU. Bunte "bis zu" N GHz Werte gibt es auf jeglichen product flyers von SoC Herstellern.

Ailuros
2012-09-24, 20:17:28
http://semiaccurate.com/2012/09/24/an-update-on-apple-moving-away-from-intel/

Typisches SA langwieriges Geblubber. Aber einige Punkte haben mich schon zum weiterdenken gebracht.

robbitop
2012-09-25, 09:47:57
Wenn Apple jemals von Intel als CPU Lieferant für die Macs weggeht, haben sie maximal zweitklassige CPUs.
Intels Vorsprung in Fertigungstechnologie und IPC starken CPU Designs ist IMO uneinholbar.
Ich kann mir kaum vorstellen, dass Apple zweitklassige Komponenten in den Macs verbauen will. Dann haben wir wieder die gleiche Situation wie zu PPC Zeiten. Am Ende verliert man dadurch Kunden.

Hugo
2012-09-25, 10:33:33
Apple könnte doch "irgendwann" ihre Macs mit eigensentwickelten Prozessoren auf ARM Basis ausstatten. Oder?

Iamnobot
2012-09-25, 11:07:46
"They are making laptops into big iOS devices step by step."

Genau da geht die Reise hin. Das Erschreckende ist, dass es genug Schafe geben wird, die das mit sich machen lassen werden...

robbitop
2012-09-25, 11:43:01
Apple könnte doch "irgendwann" ihre Macs mit eigensentwickelten Prozessoren auf ARM Basis ausstatten. Oder?
Technisch möglich. Und das nicht mal langsam. Aber niemals konkurrenzfähig hinsichtlich Leistung, Verbrauch, Chipgröße mit Intels Produkten.

AnarchX
2012-09-25, 11:55:35
Vielleicht laufen auf diesen ARM-Macs dann aufwendigere Anwendungen in der Cloud auf Intel-basierenden Servern?

robbitop
2012-09-25, 12:02:44
Urks - das würde dann ja eine tolle snappy Experience werden...
Ich glaube ehrlich gesagt nicht daran.

Ronny145
2012-09-25, 12:59:37
http://semiaccurate.com/2012/09/24/an-update-on-apple-moving-away-from-intel/

Typisches SA langwieriges Geblubber. Aber einige Punkte haben mich schon zum weiterdenken gebracht.


Apple würde sich selber ins Fleisch schneiden. Das würde Apple mehr treffen als Intel.

Ailuros
2012-09-25, 13:12:00
Technisch möglich. Und das nicht mal langsam. Aber niemals konkurrenzfähig hinsichtlich Leistung, Verbrauch, Chipgröße mit Intels Produkten.

Wieso sollte die area in irgend einer Art fuer Apple speziell ein Kopfschmerz sein (stets innerhalb von Grenzen). Zeig mir zumindest einen tablet SoC der 165mm gross ist wie A5X unter 45nm und dann zeig mir zumindest ein tablet dass gleichzeitig so hohe Gewinn-margen erreicht wie Apple mit dem iPad3.

Hier mal ein ziemlich merkwuerdiger Artikel wo ich immer noch nicht genau verstehen kann auf was genau der Author hinaus will: http://www.eetimes.com/electronics-news/4396818/Could-Apple-A6-be-a-big-little-processor

Nebenbei bin ich immer noch nicht ueberzeugt dass Apple die CPU cores im A6 auf lediglich 1.0GHz taktet. Wenn ja und die eigentliche Leistung bzw. Effizienz mitberechnet, ist das Resultat alles andere als so einfach zu uebersehen und schon gar nicht als erster Versuch.

Apple wird wohl nicht so bloed sein sich selber ins Knie zu schiessen und in der weiteren Zukunft mit eigenen SoCs ihren Kunden "downgrades" liefern. Wenn es sich mit N% zusaetzlicher die area loesen koennte mit konkurrenzfaehigem Stromverbrauch bzw. Leistung im Vergleich zu Intel's Produkten der weiteren Zukunft, dann braucht Apple eigentlich nur eine foundry mit der sie dank ihrer Volumen und ihren typisch gewaltig strengen Vertraegen geringe Preise und Prioritaeten erringen koennen und nein das Endresultat muss nicht unbedingt mehr kosten als Intel SoCs, da Intel nicht gerade umsonst verkauft.

Damit Apple erstmal so weit kommt, muss es sich fuer sie auf mehreren Fronten auch wirklich lohnen.

robbitop
2012-09-25, 13:53:16
Wieso sollte die area in irgend einer Art fuer Apple speziell ein Kopfschmerz sein (stets innerhalb von Grenzen). Zeig mir zumindest einen tablet SoC der 165mm gross ist wie A5X unter 45nm und dann zeig mir zumindest ein tablet dass gleichzeitig so hohe Gewinn-margen erreicht wie Apple mit dem iPad3.
1. es ging nicht um embedded CPUs (dort ist Intel in der Tat nicht berauschend)
2. es ging mir um alle 3 Größen im Zusammenspiel.



Nebenbei bin ich immer noch nicht ueberzeugt dass Apple die CPU cores im A6 auf lediglich 1.0GHz taktet.
Laut Anand taktet die CPU je nach Last zwischen 800 MHz und 1200 MHz.

Apple wird wohl nicht so bloed sein sich selber ins Knie zu schiessen und in der weiteren Zukunft mit eigenen SoCs ihren Kunden "downgrades" liefern. Wenn es sich mit N% zusaetzlicher die area loesen koennte mit konkurrenzfaehigem Stromverbrauch bzw. Leistung im Vergleich zu Intel's Produkten der weiteren Zukunft, dann braucht Apple eigentlich nur eine foundry mit der sie dank ihrer Volumen und ihren typisch gewaltig strengen Vertraegen geringe Preise und Prioritaeten erringen koennen und nein das Endresultat muss nicht unbedingt mehr kosten als Intel SoCs, da Intel nicht gerade umsonst verkauft.

Damit Apple erstmal so weit kommt, muss es sich fuer sie auf mehreren Fronten auch wirklich lohnen.
Im Desktop/Notebookbereich wird es IMO auf absehbarer Zeit nicht dazu kommen, dass irgendwer Intel auch nur annähernd gefährlich werden kann. Der Fertigungsvorteil ist brachial. Mittlerweile ist man bei fast 3 Jahren Fertigungsvorsprung. Beim Design wohl noch mehr. Und Intel steckt mit ihren Milliarden und ihrem Tick-Tock kontinuierlich weiter hinein.

LadyWhirlwind
2012-09-25, 14:00:19
Die Frage ist doch eher, traut sich Apple permanent zwei Architekturen gleichzeitig zu verwenden. Da sie ja mit Fat Binaries bei der Umstellung von PPC zu Intel schon einige Erfahrungen in dem bereich hatten, ohne das es zu grösseren Schwierigkeiten kam. Ich sehe hier die MacBook Airs als Kandiaten für Apple eigene ARM basierende Prozessoren. Für wirklich leistungshungrige Anwendungen sind die Airs ja sowieso nicht geschaffen. Insbesondere wenn Apple bereit ist etwas CPU Leistung gegen längere Batterielaufzeiten/geringeres Gewicht einzutauschen.

Für die iMac, MacBook Pro und Mac Pro könnte Apple ja weiterhin Intel CPU's verwenden. Da die Airs ja 1/3 der Notebook verkäufe von Apple ausmachen, könnte sich das schon lohnen. Insbesondere da die ULV-CPU's ja nicht gerade billig sein sollen.

Da Appe ja eine eigene CPU für die iPhone und iPads als wichtig erachtet, wäre ich nicht überrascht wenn sie längerfristig viel Geld in Fertigungstechnologien investieren würden.

Ailuros
2012-09-25, 14:27:28
1. es ging nicht um embedded CPUs (dort ist Intel in der Tat nicht berauschend)
2. es ging mir um alle 3 Größen im Zusammenspiel.

Kommt drauf in was man genau die area investiert. A5 und A5X sind eben so gross um weniger Strom zu verbrauchen.

Laut Anand taktet die CPU je nach Last zwischen 800 MHz und 1200 MHz.

Na wohl um einiges weniger als 800MHz; falls es Anand nur erraten hat sagt es mir nicht viel. Seine angeblichen 266MHz fuer das MP3 machen auch keinen Sinn und ein einziger Blick auf seine eigenen Resultate reicht.

Im Desktop/Notebookbereich wird es IMO auf absehbarer Zeit nicht dazu kommen, dass irgendwer Intel auch nur annähernd gefährlich werden kann. Der Fertigungsvorteil ist brachial. Mittlerweile ist man bei fast 3 Jahren Fertigungsvorsprung. Beim Design wohl noch mehr. Und Intel steckt mit ihren Milliarden und ihrem Tick-Tock kontinuierlich weiter hinein.

Muss ich nochmal erwaehnen dass Apple nicht so bloed ist ein allzu grosses Risiko einzugehen? Wenn ueberhaupt etwas daran liegt, dann liegt zum Beispiel LadyWhirlwind's Vorschlag erstmal im Raum des Moeglichen. Ein Zehen am Anfang ins kalte Wasser und man sieht von da ab weiter. Apple's naechster grosse Schlag hat sowieso nichts mit SFF oder desktop/laptops zu tun.

basti333
2012-09-25, 15:19:27
Apple würde sich selber ins Fleisch schneiden. Das würde Apple mehr treffen als Intel.

Das würde Intel nicht treffen? Entschuldige, Apple nimmt einen nicht unerheblichen teil von intels produktion ab, wenn Apple abspringt müssen fixkosten wie strukturverkleinerung auf die anderen kunden umgelegt werden. Und bei explosionsartig steigenden kosten für neue fertigungstechnologien muss Intel deutlich zulegen bei den verkäufen, auf keinen fall aber verlieren.
Am ende muss Intel noch mehr fremdfertigung übernehmen - mit geringeren margen.

Die andere sache wäre das Apple mit eigene ARMs erheblich kosten sparen würde, Microsoft könnte sich gezwungen sehen bei Windows nachzuziehen und generell ARM unterstützen, ein absolutes katatropheszenario für Intel.

Man muss auch bedenken das die CPU in relation zum gesamtsystem immer weniger stromverbraucht. Je kleiner der prozentuale anteil der CPU am systemverbrauch, desto weniger wichtig werden Intel fertigungsvorsprünge. Bei normalen, nicht-laptop consumer produkten (bei Apple: iMac, Mac Mini), wäre bestimm heute schon einer ARM lösung denkbar, der etwas höhere stromverbrauch juckt da ja keinen.

Ob es wirklich soweit kommt will ich nicht sagen, aber es gibt nicht nur kontra argumente.

robbitop
2012-09-25, 15:23:09
Selbst im Air wäre ein ARM ein ziemlicher Schlag in's Wasser. Die Dinger haben mittlerweile Core i7 mit SC Turbo von ~3 GHz. Bald kommt Haswell und Broadwell und die GPU Leistung wird explodieren. Und all das im 17 W TDP Bereich. Das ist natürlich wesentlich mehr TDP als die embedded ARMs. Wenn sie aber in annehmbare Leistungsbereiche mit ARM wollten, würden sie auch Größenordnungen über denen der embedded Designs liegen.
Ivy, Haswell, Broadwell haben dank extrem gutem Design und Fertigungstechnologie so dermaßen brutale Leistung - auch im 17 W Bereich - dass ARMs keine Chance haben. Und das auf absehbare Zeit. Ein ARM wäre in jedem Fall immer ein Downgrade - und das kein unsignifikantes.

Anand hat die 800, 1000 und 1200 MHz über Geekbench herausgefunden. Nicht geraten.

Ailuros
2012-09-25, 15:42:29
Selbst im Air wäre ein ARM ein ziemlicher Schlag in's Wasser. Die Dinger haben mittlerweile Core i7 mit SC Turbo von ~3 GHz. Bald kommt Haswell und Broadwell und die GPU Leistung wird explodieren. Und all das im 17 W TDP Bereich. Das ist natürlich wesentlich mehr TDP als die embedded ARMs. Wenn sie aber in annehmbare Leistungsbereiche mit ARM wollten, würden sie auch Größenordnungen über denen der embedded Designs liegen.

Natuerlich wuerden sie Groessenordnungen ueber den SFF designs liegen. Mehrleistung kommt auch nirgends und nie umsonst. Ich bleib aber dabei dass die area innerhalb von Grenzen kein besonders grosser Kopfschmerz fuer Apple waere.

CPU Effizienz bzw. Stromverbrauch wuerden mir schon sorgen machen, aber bevor ich irgend eine Schlussfolgerung ziehe will ich einen higher end custom ARM CPU design erstmal sehen. Was jetzt GPU Leistung bzw. Effizienz betrifft, 4 Rogue clusters liefern schon in etwa XBox360 GPU Leistung. Selbst bei 32 clusters macht die Latenz des Designs keinen Halt.


Anand hat die 800, 1000 und 1200 MHz über Geekbench herausgefunden. Nicht geraten.

Und geekbench liest immer alles richtig aus auch bei unbekannten Architekturen?

Ronny145
2012-09-25, 17:17:50
Das würde Intel nicht treffen?


Das habe ich nicht geschrieben. Wie wäre es mit lesen?

sth
2012-09-25, 17:57:11
Und geekbench liest immer alles richtig aus auch bei unbekannten Architekturen?
Es gibt unter iOS zumindest einen direkten System-Call zum Auslesen der aktuellen CPU-Frequenz.
Der ist zumindest "semi-offiziell" (Apps werden dafür nicht wegen private API usage abgelehnt).

Ailuros
2012-09-25, 18:37:45
http://www.ifixit.com/Teardown/Apple-A6-Teardown/10528/2

Generally, logic blocks are automagically laid out with the use of advanced computer software. However, it looks like the ARM core blocks were laid out manually—as in, by hand.

A manual layout will usually result in faster processing speeds, but it is much more expensive and time consuming.

The manual layout of the ARM processors lends much credence to the rumor that Apple designed a custom processor of the same caliber as the all-new Cortex-A15, and it just might be the only manual layout in a chip to hit the market in several years.

Im letzten Satz meinen sie wohl den SFF Markt.

Coda
2012-09-26, 02:41:23
Übrigens sieht der Chip tatsächlich nach Big-Little aus für mich:

http://cdn.arstechnica.net/wp-content/uploads/2012/09/apple_a6_dieshot.jpg

Zwei kleine Kerne rechts neben dem L2, zwei große links davon. Ich wüsste nicht was das sonst sein soll rechts daneben.

Vielleicht doch einfach nur handgelegte A15 + A7?

Iamnobot
2012-09-27, 18:18:45
A6 läuft wohl doch mit 1.3 Ghz.
http://www.engadget.com/2012/09/26/apple-a6-cpu-13ghz-geekbench-confirmed-overclocking/

Ailuros
2012-09-27, 19:10:59
Vielleicht doch einfach nur handgelegte A15 + A7?

ARM engineers wissen zwar nicht was Apple genau jeweils anstellt, aber einer sagte mir privat dass man A15 beruhigt ausschliessen kann. Die Gruende wollte er zwar nicht erwaehnen, aber ich vertraue ihm schon.

Was jetzt die Frequenz betrifft, klingt zumindest 1.3GHz plausibler als 1.2 oder sogar 1.0GHz. Bei 1.0 waere es schon eine ziemliche Wundertuete.

Nightspider
2012-09-27, 19:14:19
Würdest du A6 immer noch über A15 einordnen was IPC betrifft?

Ailuros
2012-09-27, 19:57:27
Würdest du A6 immer noch über A15 einordnen was IPC betrifft?

Ueberhaupt nicht. Mein Bauchgefuehl sagt mir dass der A6 CPU block sowohl Vor- als auch Nachteile haben koennte im Vergleich zu A15 genauso wie Krait. Apple hat aber den Luxus (und ich will auch glauben dass sie ihn ausgenutzt haben) die CPU an ihr iOS so gut wie moeglich anzupassen. In solch einem Fall sind jegliche Vergleich mit Krait, A15 etc. eher zwielichtig eben weil man diese unter iOS nicht mit den A6 CPUs vergleichen kann.

robbitop
2012-09-28, 09:04:18
Naja man kann die Ergebnisse aber am Cortex A9 referenzieren. Beide Plattformen haben einen A9. Man kann dann Takt- und Kernbereinigt die IPC bestimmen.
Bisher sieht es eher so aus als hätte der ARM Core im A6 mehr IPC als Krait und A15.

Coda
2012-09-28, 10:31:50
ARM engineers wissen zwar nicht was Apple genau jeweils anstellt, aber einer sagte mir privat dass man A15 beruhigt ausschliessen kann. Die Gruende wollte er zwar nicht erwaehnen, aber ich vertraue ihm schon.
Okay, verstehe.

Dennoch: Schade, dass Apple in üblicher Manier überhaupt nichts verrät.

BigKid
2012-10-04, 10:30:39
Auch wenn es ungenau und laienhaft ist:
Das Ding (iPhone 5 / A6) wird verdammt warm... Und wenn ich mir die Akkulaufzeit unter Last(3D Spiele) ansehe, dann habe ich nicht wirklich den Eindruck, dass das Ding in etwa genauso sparsam ist wie der A5 - ich habe eher den Eindruck er zieht sich deutlich mehr...
Gestern mal 2 Stunden drauf gezockt (Akku direkt davor von 0 auf 100% geladen) - Akku runter auf 40%.

Ailuros
2012-10-04, 10:39:07
Auch wenn es ungenau und laienhaft ist:
Das Ding (iPhone 5 / A6) wird verdammt warm... Und wenn ich mir die Akkulaufzeit unter Last(3D Spiele) ansehe, dann habe ich nicht wirklich den Eindruck, dass das Ding in etwa genauso sparsam ist wie der A5 - ich habe eher den Eindruck es zieht sich annähernd das doppelte...
Gestern mal 2 Stunden drauf gezockt (Akku direkt davor von 0 auf 100% geladen) - Akku runter auf 40% !

Und wie genau glaubst Du sieht es auf anderen smartphones genau aus mit N% weniger GPU leistung?

Auf einem HTC OneX als Beispiel erreichst Du nichtmal volle 2 Stunden Laufzeit unter anspruchsvollem 3D.

A5 (iPhone4S):

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Apple+iPhone+4S&testgroup=battery

iPhone4S vs. HTC OneX:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&certified_only=1&D1=Apple%20iPhone%204S&D2=HTC%20One%20X%20(EndeavorU)

AnarchX
2012-10-04, 10:43:36
Ohne Vergleichswerte ist das in der Tat "laienhaft".

Aber wenn das Display hell eingestellt war, sind wohl die ~1,6W Vebrauch die BigKid erzeugt hat, nicht so unrealistisch. Und das Aluminium-Case dürfte auch zu einem erhöhten Wärmeempfinden beitragen.

BigKid
2012-10-04, 10:49:20
Und wie genau glaubst Du sieht es auf anderen smartphones genau aus mit N% weniger GPU leistung?

Auf einem HTC OneX als Beispiel erreichst Du nichtmal volle 2 Stunden Laufzeit unter anspruchsvollem 3D.

A5 (iPhone4S):

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Apple+iPhone+4S&testgroup=battery

iPhone4S vs. HTC OneX:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&certified_only=1&D1=Apple%20iPhone%204S&D2=HTC%20One%20X%20(EndeavorU)
Was ich glaube ? Ich hatte etwas/sprürbar weniger Laufzeit erwartet. Doppelte Leistung kommt nicht umsonst - selbst mit Fertigung in kleineren Strukturen...
Nur hat Apple sich hingestellt und in etwa die selben Laufzeiten versprochen und das sehe ich nicht...
Daher messe ich das 5er am 4S und nicht an einem Samsung, HTC oder sonstwas...
Übrigens betrachte ich das ganze einfach mit Interesse und wenig Emotion... Solange es mir einen Tag gut durchsteht bei viel Benutzung - und 2-3 Tage bei wenig Nutzung ist das für mich ok. Zum Zocken auf langen Reisen habe ich das iPad oder nen Akkupack.

Ohne Vergleichswerte ist das in der Tat "laienhaft".

Aber wenn das Display hell eingestellt war, sind wohl die ~1,6W Vebrauch die BigKid erzeugt hat, nicht so unrealistisch. Und das Aluminium-Case dürfte auch zu einem erhöhten Wärmeempfinden beitragen.

Ich habe das iPhone5 aus dem Backup des 4Ss hergestellt.
Zumindest die Helligkeitseinstellungen sind also die selben (bei etwa 30%) - aber das Display des 5ers scheint tatsächlich heller zu sein. Die Displayhelligkeit sollte man nicht unter aber auch nicht überschätzen.
Subjektiv scheint mir das 5er aber beim Spielen etwa 1.5 mal so schnell den Akku leer zu ziehen wie das 4S.

Hmm...
Vlt. könnte ich die Citadel Demo mal auf beiden in ner Endlosschleife laufen lassen - beide Handys im Flugmodus, Display Helligkeit bei beiden auf Minimum.... Noch etwas auf das man achten sollte ?

Ailuros
2012-10-04, 11:11:29
Was ich glaube ? Ich hatte etwas/sprürbar weniger Laufzeit erwartet. Doppelte Leistung kommt nicht umsonst - selbst mit Fertigung in kleineren Strukturen...
Nur hat Apple sich hingestellt und in etwa die selben Laufzeiten versprochen und das sehe ich nicht...

Es gab Messung fuer Batterielaufzeit fuer das iPhone5 am Anfang aber da sie entfernt wurden bin ich mir nicht so sicher dass sie auch echt waren. Die Resultate waren relativ aehnlich zum 4S.

Ergo will ich erstmal abwarten was dort in Zukunft fuer's 5 erscheint und nein zu 100% akkurat sind diese benchmarks auch nicht. Es dauert auch eine Ewigkeit und keiner hat Lust fuer jegliches Geraet etliche Stunden fuer jeden einzelnen der benchmarks zu widmen.


Daher messe ich das 5er am 4S und nicht an einem Samsung, HTC oder sonstwas...
Übrigens betrachte ich das ganze einfach mit Interesse und wenig Emotion... Solange es mir einen Tag gut durchsteht bei viel Benutzung - und 2-3 Tage bei wenig Nutzung ist das für mich ok. Zum Zocken auf langen Reisen habe ich das iPad oder nen Akkupack.

Ja nur sehe ich nichts aus Deinem vorigem Post dass dem 4S irgend eine besonders groessere Laufzeit unter 3D zuspricht.

Ich habe das iPhone5 aus dem Backup des 4Ss hergestellt.
Zumindest die Helligkeitseinstellungen sind also die selben - aber das Display des 5ers scheint tatsächlich heller zu sein. Die Displayhelligkeit sollte man nicht unter aber auch nicht überschätzen.
Subjektiv scheint mir das 5er aber beim Spielen etwa 1.5 mal so schnell den Akku leer zu ziehen wie das 4S.

Helligkeit ist eben ein Problem und es gilt auch fuer die Kishonti Resultate. Wenn Du das 4S noch haben solltest und kein Messgeraet fuer Helligkeit, koenntest Du im Notfall probieren die Helligkeit auf 4S Nivaeu mit dem nackten Auge in etwa gleichzustellen.

Hmm...
Vlt. könnte ich die Citadel Demo mal auf beiden in ner Endlosschleife laufen lassen - beide Handys im Flugmodus, Display Helligkeit bei beiden auf Minimum.... Noch etwas auf das man achten sollte ?

Minimum wuerde nicht helfen wenn es bei default eine hoehere Helligkeit auf einem der beidem gibt. Sind die Batterien gleich gross auf beiden Geraeten? (und ja ich bin etwas faul momentan es aufzusuchen); falls nicht ist es noch ein Faktor der mitspielt.

iFanatiker
2012-10-04, 12:37:44
Bzgl. Taktrate:

Die beiden CPU Blöche im A6 scheinen wohl sowas wie ein Turboboot Feature zu haben. Abhängig von der thermischen Auslastung der einzelnen Funktionseinheiten wird bisschen über den Zieltakt hochgetaktet. Deswegen auch die unterschiedlichen Ergebnisse. Und selbst mit dem 1.3 GHz Takt ist die Integer IPC schon eine krasse Nummer. Wobei hier immer die Frage ist wie man die Sache bzgl. der Frontanbindung einstuft.


Subjektiv scheint mir das 5er aber beim Spielen etwa 1.5 mal so schnell den Akku leer zu ziehen wie das 4S.


Bei NOVA 3 hat das 4S auch keine drei Stunden ausgehalten. Selbst Fieldrunners 2 zieht den Akku leer wie nichts. Da verwechselst du war.

Und daneben:

Natürlich verbraucht das 5er mehr Saft....das Display hat mehr Bildpunkte und auch die Beleuchtungseinheit muss ja größer sein weil das Display ja auch größer ist. Selbst also bei gleicher Helligkeitseinstellung verbraucht das 5er mehr Saft bei eingeschalteten Display als das 4S. Der SoC dürfte vermutlich nicht mehr Saft ziehen gegenüber dem 45nm A5.

BigKid
2012-10-05, 10:21:47
Bei NOVA 3 hat das 4S auch keine drei Stunden ausgehalten. Selbst Fieldrunners 2 zieht den Akku leer wie nichts. Da verwechselst du war.
.
Das ist möglich - daher schrieb ich Subjektiv... Allerdings glaube ich nicht dass ein "Infinity Blade 2" nun soviel weniger Strom zieht als "Lilli" ...

Unterm Strich aber:
- das iP5 hat ein helleres und größeres Display
- der A6 ist etwa doppelt so Leistungsfähig in allen Bereichen
- Apple hat aber behauptet dass das i5 etwa so lange durchhält wie das iP4S

Damit das klappt müsste der A6 also sogar weniger Strom ziehen als der A5 um das Display zu kompensieren, denn der Akku ist nicht wirklich gewachsen (von 1430 Milliamperstunden auf 1440 Milliamperestunden). Im besten Fall ist das Display des iP5 einfach etwas effizienter als das des iP4S und verbraucht etwa gleich viel (oder die Touch-Senorik) dann muss der A6 "nur" genausoviel brauchen wie der A5...

Nebenfrage: Hmm... Gab es Erkenntnisse was der "geschrumpfte" A5 im iPad2 "V2" gebracht hat bezüglich Laufzeit ?
EDIT: Hab was: http://www.areamobile.de/bilder/93012-original-ipad-2-wifi-im-benchmark-c-anandtech
http://www.areamobile.de/assets/news/2012-05/ipad-2-gaming-benchmark-anandtech.png
Also 20% mehr Laufzeit durch den die-shrink ... Allerdings kennen wir halt den Vebrauch des restlichen Systems nicht...
Wenn ich jetzt rate und mal davon ausgehe, dass der A5 für 50% des Stromverbrauches verantwortlich ist, dann wären fast 50% weniger Stromverbrauch durch den die-shrink erfolgt... Somit wäre doppelte Leistung bei gleichen Verbrauch für den A6 doch nicht so unmöglich wie ich dachte...

Ich habe beide Geräte (4S und 5) noch hier da sich meine bessere Hälfte grade nicht Entscheiden kann ob Sie mir das Gerät abkauft oder nicht (und lieber mit dem "Zombie" 3G(ohne s) weitermacht und sich lieber weiter jedesmal ärgert wenn das Navi abschmiert... :) )

Also am WE komme ich vlt. dazu mal folgendes zu tun:
- beide Geräte auf 100% laden
- Citadel Demo laufen lassen (hat jemand einen Vorschlag was sich noch nutzen liesse (bin kein Entwickler und habe keinen Jailbreak) ?)
- automatische Sperrung abschalten
- Flugmodus
- Ton aus
- Displays beide auf Minimum (warum Minimum: Weil ein 1:1 vergleich eh nicht möglich ist... die Displays sind eine unbekannte Größe)
- Nach 2 Stunden schauen was noch an Akkuleistung da ist

Ailuros
2012-10-05, 11:00:54
Momentchen in welcher Aufloesung wurde Infinity Blade in den jeweiligen Pads gemessen? Uebrigens sagt der Vergleich sowieso nichts aus da das iPad3 eine Monster-batterie hat.

***edit: wie ich es mir vorstellte: http://www.anandtech.com/show/5789/the-ipad-24-review-32nm-a5-tested/2

The 3rd generation iPad obviously doesn't do as well as the iPad 2 here, as it not only has a more power hungry GPU but it's also rendering the scene at a higher resolution (and driving a higher resolution panel). What's most impressive however is just how much better the iPad 2,4 does here: a 29% increase in battery life over the original iPad 2,1.

Wenn es jetzt in Infinity Blade ein Vergleich zwischen 1024*768 (iPad2, iPad2.4) und 2048*1536 (iPad3) sein sollte, ist der Vergleich total wertlos zwischen iPad2 und iPad3.