PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27

S940
2013-04-11, 17:37:23
Mich interessiert momentan was dieses Jahr von Apple kommt und nicht in 2014.
Letztens hatten wir doch erst die Meldung mit dem 16nm Tapeout, das ist noch weiter weg. Neu ist, was noch nicht bekannt war und das wird dann berichtet, egal in welchem Jahr. Außerdem schließt man solche Fertigungsverträge lange im voraus. Das kommt schon hin.
Sehs doch positiv: Spätestens nächstes Jahr interessiert es Dich dann auch ^^

Ailuros
2013-04-11, 18:22:15
Der 4 Cluster Rogue ist kleiner als der 544 MP4 und trotzdem leistungsfähiger? :eek:

Ich hatte etwas anderes im Hinterkopf: bis jetzt ist (egal auf welche Weise) die gestrige tablet Leistung bei Apple die heutige iPhone Leistung. Fuer einen iPhone5 Nachfolger waere ein A6X shrink bei 28nm TSMC gar nicht mal so eine daemliche Idee. Daemlich ist dann eben nur dass ein dual Rogue cluster mit Sicherheit um einiges effizienter sein wird.

Sonst fuer's obrige: 544 = DX9L3, G6400 = DX10.0; beide haben insgesamt 8 TMUs und sonst generell entfaellt beim zweiten quad cluster einiges an hw Redundanz im Vergleich zum MP4. Rogue wird in dem Fall effizienter sein als neue Architektur (vector gegen skalare ALUs) und sonst gewinnt von um einiges hoeheren Frequenzen weil der design fuer hoehere Latenzen ausgelegt wurde und kleinere Prozesse. Genau einschaetzen kann ich den G6400 noch nicht, aber dass der die area Unterschied zu einem 544MP4 besonders gross ist will ich bezweifeln.

Uebrigens sollte es klar sein dass IMG's marketing wie jegliche andere Marketing-Abteilung uebertreibt, aber der 544MP4@280MHz im iPad4 ist um fast 19x Mal schneller als ein SGX540@200MHz: http://glbenchmark.com/compare.jsp?D1=Toshiba+AT200&D2=Apple+iPad+4&cols=2

Haette ST E die Daten fuer den A9600 (RIP) richtig kommuniziert, erreicht wohl das naechste iPad (wenn ich nicht verarscht wurde blah blah blah) um die 75% der Leistung der voerwaehnten vaporware Leiche.

Letztens hatten wir doch erst die Meldung mit dem 16nm Tapeout, das ist noch weiter weg. Neu ist, was noch nicht bekannt war und das wird dann berichtet, egal in welchem Jahr. Außerdem schließt man solche Fertigungsverträge lange im voraus. Das kommt schon hin.
Sehs doch positiv: Spätestens nächstes Jahr interessiert es Dich dann auch ^^

Wenn der tape out auch wirklich ein tape out gewesen waere LOL :biggrin:

Sonst da IMG's roadmap schon bekannt ist und ich einen Fetzen fuer fruitco zugesteckt bekam, gibt es zum letzteren keine besondere Ueberraschung.

Unter 16nm fuer die CPU wuerde ich sicherheitshalber mal nichts herkommliches von fruitco erwarten.

deekey777
2013-04-16, 18:01:20
Apple setting up shop in Florida for custom chip development (http://appleinsider.com/articles/13/04/16/apple-setting-up-shop-in-florida-for-custom-chip-development)
Apple's hardware development operations are expanding to the Orlando, Fla., area, where the company apparently plans to design, build and test custom chips for future devices.
Und:
While Orlando is not known as a hub for silicon development, the area does have a strong presence in tech in a variety of manners. Most notably, AMD has a research, development and design office based out of the city.
Ergänzend:
http://9to5mac.com/2013/04/16/job-postings-suggest-apple-to-begin-chip-development-in-orlando-florida/
Notably, the area is already populated with relevant talent as it is home to popular semiconductor company/Apple chip partner Qualcomm which may be the reason for the location
Orlando scheint sehr attraktiv zu sein.

Ailuros
2013-04-16, 18:06:39
Na endlich hat jemand etwas entdeckt; mal sehen ob die rumor mongerers dahinter kommen an was Apple genau kocht. Es ist durchaus relevant zum Thread-titel hier man muss nur 3 Buchstaben entfernen dann ist es perfekt ;)

Die_Allianz
2013-04-16, 18:31:22
Na endlich hat jemand etwas entdeckt; mal sehen ob die rumor mongerers dahinter kommen an was Apple genau kocht. Es ist durchaus relevant zum Thread-titel hier man muss nur 3 Buchstaben entfernen dann ist es perfekt ;)

Soll heißen Apple baut was eigenes, neue Wege mit neu entwickelter Microarchitektur nicht auf ARM-Basis?
Dazu gabs mal wilde Spekulationen, sogar mit einem Namen für das Kind...

Komm gleich wieder mit link dazu,....

Macroscalar

http://homes.cs.washington.edu/~asampson/blog/macroscalar.html

http://www.macrumors.com/2012/02/06/apples-macroscalar-trademark-application-sparks-speculation-on-processor-architecture-advances/

robbitop
2013-04-17, 09:13:55
Damit könnten sie Lizenzen für die ISA sparen. Aber ob das so viel Geld ist, ist die Frage. ARM ist eine sehr gute ISA für SFF - und für die Devs sind "Multititel" vermutlich am einfachsten, solange alle Plattformen ARM haben. Aber wie ich Apple kenne, gibt es bei einem ISA Wechsel wieder super gute DevKits, die vieles übernehmen.
Theoretisch kann Apple es sich leisten, die ISA zu wechseln. Sie haben ja ein eigenes geschlossenes Ökosystem. Mir ist nur (bis auf die paar Kröten für die ISA Lizenz) der Benefit nicht ganz klar...

YfOrU
2013-04-17, 10:01:07
Mir ist nur (bis auf die paar Kröten für die ISA Lizenz) der Benefit nicht ganz klar...

Apples Ökosystem ist heute zweigeteilt. ARM und x86. Die x86 ISA kann für Apple keine langfristige Option sein da hier keine eigenen Designs möglich sind.

Bleibt also nur die ARM ISA und dabei stellt sich die berechtigte Frage warum Apple massig Ressourcen investieren sollte um diese über das gesamte Portfolio an Produkten zu skalieren. Bei den hier sowieso nötigen Investitionen inkl. Fertigung auf eine vollständige Unabhängigkeit zu verzichten macht unter dem Gesichtspunkt eines geschlossenen Systems keinen Sinn. Apple definiert sich grundsätzlich über Innovationen sowie Abgrenzungen und dabei ist die heutige Abhängigkeit ein Klotz am Bein. Die Gefahr x-beliebig zu werden oder aufgrund nicht zu kontrollierender (externer) Faktoren den Anschluss zu verlieren ist durchaus vorhanden.

Am Ende muss sich alles dem Ökosystem und dem damit verbundenen Portfolio an Produkten unterordnen. Wenn Apple über diesen Weg Erfolg hat wovon ich aktuell ausgehe wird es den Stein endgültig zum rollen bringen.

robbitop
2013-04-17, 10:21:39
Bezüglich der großen CPUs habe ich ja mal klar umrissen, was es bedeuten würde, wenn sie sich von Intel abwenden würden.
Kurz: Sie würden nicht mehr konkurrenzfähig sein. SFF CPUs sind das eine - große effiziente und IPC starke CPUs das andere. Intels Prozesse und Designs sind uneinholbar. Für niemanden. Und das sage ich mit Trauer, da es dem Markt nicht guttut. Schau dir alle anderen Fertiger an. Die bekommen z.T. nicht einmal 28 nm gebacken. Insbesondere mit Taktfrequenzen für CPUs. Intel ist bald bei 14 nm. Intels CPUs haben ~ 50 % mehr IPC als alles andere - und das muss man nochmal auf die Kurve des sinkenden Grenzertrags sehen. Das ist als wenn bei der Tour de France (ziemlich weit oben auf der gesättigten Kurve - weil alles Profis sind) ein Sportler in 2/3 der Zeit im Ziel ankommt. Das sind keine "low hanging fruits" 50 %. Das sind extrem übermäßig erarbeitete 50 %. Mit Zeit und Ressourcen, die kaum jemand stemmen könnte. Bis Apple mit Intel mithalten könnte, verpulvern sie hunderte Milliarden und 10 Jahre Zeit.

Alternativ können sie mittelmäßige CPUs bauen (gemessen an Intel - leider wie AMD) und in 3-5 Jahren dort sein.

Ich sehe zumindest Mittelfristig im >15 W Bereich keine echten Alternativen und Perspektiven. Darunter hingegen schon. Siehe ARM, siehe Jaguar etc. Das könnte Apple auch schaffen.

Henroldus
2013-04-17, 10:35:12
zum Thema:
Daten des Apple iPhone 5S (http://hartware.de/news_57569.html)
Fakten oder Fake?

A7 Quadcore
1,2GHz
2GB RAM
PowerVR SGX554MP4

http://www.hartware.de/media/news/57000/57569_2b.jpg

Edit:ok Fake :(

YfOrU
2013-04-17, 10:56:21
Bezüglich der großen CPUs habe ich ja mal klar umrissen, was es bedeuten würde, wenn sie sich von Intel abwenden würden.
Kurz: Sie würden nicht mehr konkurrenzfähig sein. SFF CPUs sind das eine - große effiziente und IPC starke CPUs das andere. Intels Prozesse und Designs sind uneinholbar. Für niemanden. Und das sage ich mit Trauer, da es dem Markt nicht guttut. Schau dir alle anderen Fertiger an. Die bekommen z.T. nicht einmal 28 nm gebacken. Insbesondere mit Taktfrequenzen für CPUs. Intel ist bald bei 14 nm. Intels CPUs haben ~ 50 % mehr IPC als alles andere - und das muss man nochmal auf die Kurve des sinkenden Grenzertrags sehen. Das ist als wenn bei der Tour de France (ziemlich weit oben auf der gesättigten Kurve - weil alles Profis sind) ein Sportler in 2/3 der Zeit im Ziel ankommt. Das sind keine "low hanging fruits" 50 %. Das sind extrem übermäßig erarbeitete 50 %. Mit Zeit und Ressourcen, die kaum jemand stemmen könnte. Bis Apple mit Intel mithalten könnte, verpulvern sie hunderte Milliarden und 10 Jahre Zeit.

Alternativ können sie mittelmäßige CPUs bauen (gemessen an Intel - leider wie AMD) und in 3-5 Jahren dort sein.

Ich sehe zumindest Mittelfristig im >15 W Bereich keine echten Alternativen und Perspektiven. Darunter hingegen schon. Siehe ARM, siehe Jaguar etc. Das könnte Apple auch schaffen.

Deshalb habe ich den Punkt Fertigung auch angesprochen. Apple wird das nicht im Alleingang machen. Dafür ist dieser Konzern viel zu effizient und rational. Hier gibt es aufgrund der Abgrenzung vom restlichen Markt und der allgemeinen Entwicklung der Halbleiterbranche durchaus mehrere mögliche Optionen.

Im übrigen gehe ich davon aus das wir uns langfristig von den heute im Desktop üblichen TDP Werten großteils verabschieden werden. Zum einen müssen die Designs ganz allgemein für immer geringere TDP Kategorien anwendbar sein (->Mobilität kontra Skalierung) und zum anderen wird das klassische ATX Format mit der Möglichkeit zur Abführung extrem hoher Verlustleistungen im regulären Consumer Segment keine unendliche Zukunft haben.

robbitop
2013-04-17, 11:09:42
Es gibt aber auf der Welt keinen Fertiger, der es mit Intel aufnehmen kann. Früher war AMD mal nah dran (6 Monate). Aber seit dem das Geld zur Neige ging, verlor man immer mehr. Ich sehe da nicht wirklich eine Alternative.

Relevant für Apple sind vor allem die mobilen Geräte. Also bis ~35 W. Vieleicht auch noch die iMacs. Also 77 W. Da brauchst du schon ganz andere Designs als die Dinger in SFF.

YfOrU
2013-04-17, 11:38:02
Es gibt aber auf der Welt keinen Fertiger, der es mit Intel aufnehmen kann. Früher war AMD mal nah dran (6 Monate). Aber seit dem das Geld zur Neige ging, verlor man immer mehr. Ich sehe da nicht wirklich eine Alternative.

TSMC wird in Zukunft mit Sicherheit näher an Intel herankommen (einholen: nein). Einfach schon deshalb weil Unternehmen wie Qualcomm keine andere Wahl haben als massiv zu investieren (und gleichzeitig Bedarf und Absatz allgemein weiter zunehmen -> mehr Kapital).
Auf der anderen Seite bin ich mir nicht so sicher ob es für Intel auf lange Sicht der wirtschaftlichste Weg ist nur eigene Chips zu fertigen. Hier wäre ein Unternehmen wie Apple als Partner eine der interessantesten Lösungen.


Relevant für Apple sind vor allem die mobilen Geräte. Also bis ~35 W. Vieleicht auch noch die iMacs. Also 77 W. Da brauchst du schon ganz andere Designs als die Dinger in SFF.

Set-Top und AIO gibt es heute bereits häufig mit mobilen CPUs. Mit etwas anderen würde ich hier in Zukunft nicht kalkulieren (also maximal ~35W). Das ein einzelnes Design von Smartphone bis AIO nicht ausreicht ist selbstverständlich.

Ailuros
2013-04-17, 11:42:35
35W TDP Region ist schon einige Meilen weiter oben als die obere Grenze in derer sich heute iOS bewegt ;)

YfOrU
2013-04-17, 11:54:55
35W TDP Region ist schon einige Meilen weiter oben als die obere Grenze in derer sich heute iOS bewegt ;)

Apples gesamter Markt lässt sich allerdings nicht alleine über etwas wie das heutige iOS abdecken. Ob das dann 25 oder 35W sind spielt eigentlich kaum eine Rolle. Mir ging es hier um die Aussage das man insgesamt auch ein gutes Stück über Smartphone / Tablet hinaus skalieren muss um eine eigene ISA überhaupt konsequent einsetzen zu können.

robbitop
2013-04-17, 12:11:44
Auch TSMC kommt mit Investitionen nicht an Intel heran. Alle jaulen über steigende Kosten mit jedem Prozessschritt herum. Verlängern Lebenszyklen. Auch die Prozesssprünge dauern über all länger. Außer bei Intel: konstant wie ein Urwerk purzelt der nächste Prozess heraus. Intel macht Dinge in Serie, die bei anderen noch im Labor sind. Es wird eher schlimmer als besser IMO. Weiterer Vorteil: Intel legt die Designs auf den Fertigungsprozess aus und andersherum. Bei TSMC wird das als Fremdfertiger schwieriger. Auch die time-to-market ist mit externen Unternehmen schlechter.
Will man an der Spitze sein (und ich denke, den Anspruch hat Apple bei Geräten mit CPUs >15W), ist man zumindest mittelfristig an Intel gebunden.

Ailuros
2013-04-17, 12:23:42
Apples gesamter Markt lässt sich allerdings nicht alleine über etwas wie das heutige iOS abdecken. Ob das dann 25 oder 35W sind spielt eigentlich kaum eine Rolle. Mir ging es hier um die Aussage das man insgesamt auch ein gutes Stück über Smartphone / Tablet hinaus skalieren muss um eine eigene ISA überhaupt konsequent einsetzen zu können.

Es klingt IMHO wahrscheinlicher dass entweder tablets groesser werden in der Zukunft oder Apple stellt ein neue Produkt-Kategorie zwischen heutigen iPads und Macbooks vor. Was und wie ist momentan eigentlich wurscht, ich wollte nur betonen dass zwischen den heutigen ~5W TDP eines tablets und den hypothetischen 35W ziemlich grosser Luftraum liegt.

Auch TSMC kommt mit Investitionen nicht an Intel heran. Alle jaulen über steigende Kosten mit jedem Prozessschritt herum. Verlängern Lebenszyklen. Auch die Prozesssprünge dauern über all länger. Außer bei Intel: konstant wie ein Urwerk purzelt der nächste Prozess heraus. Intel macht Dinge in Serie, die bei anderen noch im Labor sind. Es wird eher schlimmer als besser IMO.

Prozesstechnologie wird nicht zunehmend problematisch weil alle anderen foundries besoffenne Affen als engineers haben und nur Intel die Genies; frueher oder spaeter wird auch Intel den Nebeneffekten nicht entgehen koennen und die ersten Indizien fuer strategische Aenderungen bei Intel sind schon zu sehen.

Weiterer Vorteil: Intel legt die Designs auf den Fertigungsprozess aus und andersherum. Bei TSMC wird das als Fremdfertiger schwieriger. Auch die time-to-market ist mit externen Unternehmen schlechter.
Will man an der Spitze sein (und ich denke, den Anspruch hat Apple bei Geräten mit CPUs >15W), ist man zumindest mittelfristig an Intel gebunden.

Wenn ARM bzw. IMG jeweils fuer ihre IP Produkte sich den jeweiligen Prozessen bei TSMC anpassen koennen mit ihren 0815 Kosten im Vergleich zu einem IHV wie Apple, dann haelt wohl auch Apple nichts davon auf. Beide vorerwaehnte haben schon Vorarbeit fuer TSMC 16nm geleistet und diese kunterbunt durch PRs angekuendigt.

Erstens haengt es davon ab was Apple genau vorhat und dann werden wir sehen was sie genau und warum angerichtet haben. Mit den i-Geraeten hat Apple eine bessere Vision fuer die Zukunft aufgewiesen als jegliches Intel, mit ueber-mythischer foundry oder nicht. Wenn es so weiter geht sind IHVs wie Qualcomm und/oder Apple auf dem bestmoeglichen track; es ist dann eher am Ende Intel dass ein bisschen Feuer unter dem Hinterm braucht um erstmal im SFF mobile Markt aufzuholen und sich eine anstaendigere Wachstumsrate als heute zu garantieren.

Eine gute Frage waere was Charlie/SA mit dem hier meint: http://semiaccurate.com/2013/03/25/what-is-apple-doing-at-14nm/

robbitop
2013-04-17, 14:20:31
Mir ging es nicht um den SFF Markt. Dort haben andere Vorsprung (den Intel aber rasant aufholt!).

Intel hat keine Mystischen Foundries oder besondere Genies. Die haben einfach Jahrzehntelange Erfahrung, hunderte Milliarden Dollar an Forschung ausgegeben und Manpower (was Qualität und Quantität angeht), mit denen keine andere Foundry mithalten kann.

Natürlich muss auch Intel mit physikalischen Gesetzen kämpfen. Offenbar haben sie aber wesentlich bessere Ressource, Equipment, Know How und was weiß ich, um allen anderen deutlich die Rücklichter zu zeigen. Ich finde das für den Markt sehr schade. Aber es ist nunmal Fakt. Intel ist mindestens 1x Fullnodeshrink voraus. Und dabei machen andere Foundries nicht einmal Vergleichbares (ASICS mit > 3 GHz Taktfrequenz - was nochmal eine deutlich höhere Herausforderung darstellt).
Ich nehme auch an, dass es etwas anderes ist, wenn ARM gewisse Änderungen an einem bestehenden Produktionsprozess vornimmt (da werden sicher nur ein paar Prozessparameter geändert) als wenn ein Prozess maßgeschneidert auf ein Design (und umgekehrt) ist.
ARM hat gar nicht das Geld für einen indiviualen Fertigungsprozess.
Was das kostet, könnte man mal AMD fragen. Denen ist mittlerweile das Geld dafür ausgegangen. Jetzt müssen sie Standardprozesse nutzen (ab 20 nm) bei denen sie nur noch an Prozessparametern drehen dürfen (was man auch als angepassten Prozess verkaufen kann).

Für jeden Prozessschritt braucht es Tools und Automatisierungstechnik, die mehrere Millionen kosten. Wenn doch noch Extrawürste willst (z.B. SOI etc), wird es noch deutlich teurer.

Intel hat sicher keinen Zauberstab - aber sie haben weit mehr im eigenen Haus als alle anderen.

Ailuros
2013-04-17, 19:59:27
Mir ging es nicht um den SFF Markt. Dort haben andere Vorsprung (den Intel aber rasant aufholt!).

Was fuer einen Marktanteil hat denn Intel genau im smartphone Markt momentan? Unter rasant verstehe ich etwas anderes.

Intel hat keine Mystischen Foundries oder besondere Genies. Die haben einfach Jahrzehntelange Erfahrung, hunderte Milliarden Dollar an Forschung ausgegeben und Manpower (was Qualität und Quantität angeht), mit denen keine andere Foundry mithalten kann.

Natürlich muss auch Intel mit physikalischen Gesetzen kämpfen. Offenbar haben sie aber wesentlich bessere Ressource, Equipment, Know How und was weiß ich, um allen anderen deutlich die Rücklichter zu zeigen. Ich finde das für den Markt sehr schade. Aber es ist nunmal Fakt. Intel ist mindestens 1x Fullnodeshrink voraus. Und dabei machen andere Foundries nicht einmal Vergleichbares (ASICS mit > 3 GHz Taktfrequenz - was nochmal eine deutlich höhere Herausforderung darstellt).
Ich nehme auch an, dass es etwas anderes ist, wenn ARM gewisse Änderungen an einem bestehenden Produktionsprozess vornimmt (da werden sicher nur ein paar Prozessparameter geändert) als wenn ein Prozess maßgeschneidert auf ein Design (und umgekehrt) ist.
ARM hat gar nicht das Geld für einen indiviualen Fertigungsprozess.
Was das kostet, könnte man mal AMD fragen. Denen ist mittlerweile das Geld dafür ausgegangen. Jetzt müssen sie Standardprozesse nutzen (ab 20 nm) bei denen sie nur noch an Prozessparametern drehen dürfen (was man auch als angepassten Prozess verkaufen kann).

Für jeden Prozessschritt braucht es Tools und Automatisierungstechnik, die mehrere Millionen kosten. Wenn doch noch Extrawürste willst (z.B. SOI etc), wird es noch deutlich teurer.

Intel hat sicher keinen Zauberstab - aber sie haben weit mehr im eigenen Haus als alle anderen.

Wir brauchen keinen Weihrauch fuer Intel's Prozesstechnologie; obwohl der obrige SA link mal wieder nichtssagend ist ausser man bezahlt dafuer sollte er Dir trotzdem Gedanken machen, denn es gibt zufaelligerweise kein 14nm bei TSMC.

Sonst wenn Apple nach dem i-Zeug Sturm es schafft mit smartTVs wieder einen quasi Trend zu setzen, dann haben leider Intel und co. wieder das Nachsehen und dafuer (die Englaender nennen es "lack of vision" :rolleyes: ) hilft die beste Prozess-technologie gar nichts.

Qualcomm hat in den letzten Jahren wie hohe genau Zuwachsraten? Ist es nicht Intel bei denen seit neuestem die Gewinn-rate um ganze 25% gefallen ist? Wenn man eine geschlossene foundry fuer fast ausschliesslich Eigengebrauch fuehrt und Dein Kerngeschaeft faengt an nachzulassen hilft die tolle Prozess-technologie auch nicht mehr viel. Intel's management muss ihre Antennen aufmachen und nach neuen Umsaetzen suchen und dabei ist es alles andere als absurd die Prozess/foundry Tuer fuer jemand wie Apple selbst fuer begrenzte Volumen aufzumachen.

So lange das was hypothetisch bei Intel hergestellt wird fuer Apple nicht Intel's chip Bestellungen fuer Apple's Mac-gear beinflusst kann Intel es auch total egal sein was Apple damit anfaengt.

LadyWhirlwind
2013-04-17, 21:07:11
Tatsächlich würde es für Intel Sinn machen mit Apple zusammen zu arbeiten:

Mittlerweile wird ja der Trend von Hard und Software aus einer Hand, bzw. zu zumindest streng kontrollierten Plattformen immer stärker. Siehe auch die Surface Tablets von Microsoft, die iOS Plattform und auch Windows Phone. Damit wird aber auch der Prozessorhersteller immer weniger wichtiger. Im wichtigen Mobilen Markt mit Tablets und Smartphones sind sie wenig bis gar nicht vertreten. Auf der anderen Seite kommen Grafikkarten mittlerweile auch in Servern zum Einsatz. Intel profitiert derzeit auch nicht vom Tablet-Boom. Ein Vorsprung in der Prozesstechnologie stellt zwar einen Konkurenzvorteil dar, aber nur wenn man ihn auch halten kann. Intel muss dafür viel Geld investieren bei einem tendenziell kleiner werdenden Absatzmarkt.

Auf der anderen Seite weiss auch Apple das die Fertigungsgrösse einen Konkurenzvorteil sein kann. Gut möglich das Apple bereit ist massiv in TSMC und/oder GF (und andere Auftragsfertiger) zu investieren, das Geld dafür haben sie ja locker. Es kann Intel nicht recht sein, wenn jemand massiv in Fertigungstechnologien investiert von denen letztendlich die direkte Konkurenz profitieren kann. Auf der anderen Seite könnten Intel und Apple sich die Kosten für die Weiterentwicklung teilen. Dadurch sinken die Kosten für Intel und ob die Geräte nun auf einem Apple OS oder einem von Microsoft läuft, kann Intel dann egal sein. Profitieren würde dann Intel so oder so. Eigene CPU's wären dann zwar sicher profitabler, aber da die R&D Kosten von zwei Firmen getragen würden, würde bei gleichbleibenden Preisen (was bei einem Vorsprung in der Prozesstechnologie nicht soo unwahrscheinlich ist), der Profit von Intel steigen. Wenn Apple Intel klar macht, das sie gedenken in Zukunft sämtliche Geräte mit eigenen Chips zu bestücken, sehe ich da durchaus möglichkeiten für eine Win-Win Situation.

Die_Allianz
2013-04-17, 21:26:54
Tatsächlich würde es für Intel Sinn machen mit Apple zusammen zu arbeiten:

Mittlerweile wird ja der Trend von Hard und Software aus einer Hand, bzw. zu zumindest streng kontrollierten Plattformen immer stärker. Siehe auch die Surface Tablets von Microsoft, die iOS Plattform und auch Windows Phone. Damit wird aber auch der Prozessorhersteller immer weniger wichtiger. Im wichtigen Mobilen Markt mit Tablets und Smartphones sind sie wenig bis gar nicht vertreten. Auf der anderen Seite kommen Grafikkarten mittlerweile auch in Servern zum Einsatz. Intel profitiert derzeit auch nicht vom Tablet-Boom.
absolut richtig! ich hatte auch schon mal in einem anderen thread erwähnt das apple doch bei Intel fertigen sollte, wenn sie unbedingt von Samsung weg wollen.
Intel mag zwar ein leuchtender Stern am High-Performance-CPU-Himmel sein, bringt aber nix wenn sich der ganze Himmel verdunkelt.
In Grafik, APUs und SFF kann Intel seit Jahren absolut nix reißen, was sich auch nicht ändern wird. Es ist dort einfach nicht nötig den Intel-Preisaufschlag zu zahlen.
-> eigentlich sollte Intel noch mehr als Apple an einer Zusammenarbeit interessiert sein.

Vielleicht steckt hinter dem Fab-Riesenprojekt (Project Azalea) in den USA doch nicht TSMC, sondern Intel. Würde geographisch eher passen. ;)

http://www.heise.de/newsticker/meldung/Umsatzminus-bei-Intel-1843375.html

Ailuros
2013-04-18, 07:38:49
Keiner weiss mit Sicherheit wer und warum an Azalea interessiert war/ist. TSMC wurde als moeglicher Kandidat genannt weil sie tatsaechlich aktiv die Moeglichkeit untersuchen in den US herzustellen, aber sich wohl doch noch nicht dafuer entschieden haben.

http://www.xbitlabs.com/news/other/display/20130415234417_TSMC_We_Have_Not_Made_a_Decision_to_Build_a_Fab_in_the_U_S.html

Sonst ist Apple klug und flexibel genug wohl auch an eine komplizierte multi-sourcing Strategie fuer Herstellung zu denken. Spekulatives Beispiel:

low level - high volume SoCs = Samsung
higher level - lower volume SoCs = TSMC
highest level - low volume SoCs = Intel

Je mehr Volumen TSMC theoretisch in der Zukunft aufnehmen koennte desto weniger koennten sie bei Samsung mit der Zeit herstellen.

robbitop
2013-04-18, 10:33:07
Was fuer einen Marktanteil hat denn Intel genau im smartphone Markt momentan? Unter rasant verstehe ich etwas anderes.



Wir brauchen keinen Weihrauch fuer Intel's Prozesstechnologie; obwohl der obrige SA link mal wieder nichtssagend ist ausser man bezahlt dafuer sollte er Dir trotzdem Gedanken machen, denn es gibt zufaelligerweise kein 14nm bei TSMC.

Sonst wenn Apple nach dem i-Zeug Sturm es schafft mit smartTVs wieder einen quasi Trend zu setzen, dann haben leider Intel und co. wieder das Nachsehen und dafuer (die Englaender nennen es "lack of vision" :rolleyes: ) hilft die beste Prozess-technologie gar nichts.

Qualcomm hat in den letzten Jahren wie hohe genau Zuwachsraten? Ist es nicht Intel bei denen seit neuestem die Gewinn-rate um ganze 25% gefallen ist? Wenn man eine geschlossene foundry fuer fast ausschliesslich Eigengebrauch fuehrt und Dein Kerngeschaeft faengt an nachzulassen hilft die tolle Prozess-technologie auch nicht mehr viel. Intel's management muss ihre Antennen aufmachen und nach neuen Umsaetzen suchen und dabei ist es alles andere als absurd die Prozess/foundry Tuer fuer jemand wie Apple selbst fuer begrenzte Volumen aufzumachen.

So lange das was hypothetisch bei Intel hergestellt wird fuer Apple nicht Intel's chip Bestellungen fuer Apple's Mac-gear beinflusst kann Intel es auch total egal sein was Apple damit anfaengt.

Der SFF Markt wächst und der Desktop Markt schrumpft. Das ist seit Jahren so. Intel ist hauptsächlich in letzterem aufzufinden. Deshalb die schrumpfenden Gewinne. In ihrem Markt (der zwar schrumpft aber nicht weg sein wird - jeder braucht weiterhin PCs/Laptops) macht ihnen aber niemand etwas vor. Nicht einmal ansatzweise.

Im SFF Markt hast du Recht. Dort sind Qualcomm, ARM, Apple etc alle wirklich eindeutig führend. Mit "aufholen" meine ich in erster Linie ein Aufholen auf technischer Seite. Den Atom bekommt Intel mittlerweile in das gleiche Power Budget wie andere. Erstaunlicherweise ist der olle in order Atom gar nicht so langsam gegenüber den SFF OoO Designs.
Intel wird mit 22 nm und einem neuen OoO Design nachlegen. Intel hat den Trend SFF auch erkannt und will dort auch eindringen - völlig klar. Vieleicht werden sie ihn nicht so schnell dominieren - ich gehe aber davon aus, dass sie in den nächsten 5 Jahren auch dort immer erfolgreicher werden.

Intel hat unangefochtenerweise mit großem Abstand die beste Foundry mit den besten Prozessen. Die Jungs haben gute 2+ Jahre Vorsprung auf diesem Gebiet.
Zumindest im Desktop/Laptop Bereich sehe ich keine potenzielle Bedrohung oder Konkurrenz in den nächsten 5 Jahren. Eher andersherum: sie werden in den SFF Markt eindringen. Und wenn sie es wirklich wollen, haben sie die Chance, dort erfolgreich zu sein. Dank Fertigungstechnologischer Übermacht und ggf. einem sehr guten Prozessordesign. Wenn schon ein olles 5 Jahre altes in order Prozessordesign, welches für Netbooks/Nettops, heute in Punkto Leistung/Watt gut darsteht - wie steht denn ein echtes, modernes SFF OoO Design in fortschrittlichen 22 nm (und 1 Jahr später in 14 nm) dar?

Allerdings haben sie Nachholbedarf, was die restlichen Teile des SoCs anbelangt für SFF. Ich weiß nicht, ob ihre Desktop IGP dort die richtige Wahl war. Ein Rogue wäre für SFF sicher besser. Hinzu kommen Dinge wie Modem etcpp. Das hängt wirklich vom Willen Intels ab (an dem ja IMO auch deren GPU Projekte gescheitert sind und nicht am Unvermögen der Engineers)...

Intel braucht kein Weihrauch. Was Design und Fertigung angeht, haben sie es verdammt nochmal leider dermaßen drauf, dass Mitbewerber in ihren Domänen ziemlich alt aussehen.

Intels Schwäche, was andere gut ausnützen können (und auch der neue AMD Mann betont), ist ihre eigene Trägheit. Das Management braucht für Wandel halt immer sehr lange. Wenn der Zug aber erstmal in's Rollen gerät, kann das passieren, was Intel seit Conroe mit dem PC Markt betreibt...

Tatsächlich würde es für Intel Sinn machen mit Apple zusammen zu arbeiten:

Mittlerweile wird ja der Trend von Hard und Software aus einer Hand, bzw. zu zumindest streng kontrollierten Plattformen immer stärker. Siehe auch die Surface Tablets von Microsoft, die iOS Plattform und auch Windows Phone. Damit wird aber auch der Prozessorhersteller immer weniger wichtiger. Im wichtigen Mobilen Markt mit Tablets und Smartphones sind sie wenig bis gar nicht vertreten. Auf der anderen Seite kommen Grafikkarten mittlerweile auch in Servern zum Einsatz. Intel profitiert derzeit auch nicht vom Tablet-Boom. Ein Vorsprung in der Prozesstechnologie stellt zwar einen Konkurenzvorteil dar, aber nur wenn man ihn auch halten kann. Intel muss dafür viel Geld investieren bei einem tendenziell kleiner werdenden Absatzmarkt.

Auf der anderen Seite weiss auch Apple das die Fertigungsgrösse einen Konkurenzvorteil sein kann. Gut möglich das Apple bereit ist massiv in TSMC und/oder GF (und andere Auftragsfertiger) zu investieren, das Geld dafür haben sie ja locker. Es kann Intel nicht recht sein, wenn jemand massiv in Fertigungstechnologien investiert von denen letztendlich die direkte Konkurenz profitieren kann. Auf der anderen Seite könnten Intel und Apple sich die Kosten für die Weiterentwicklung teilen. Dadurch sinken die Kosten für Intel und ob die Geräte nun auf einem Apple OS oder einem von Microsoft läuft, kann Intel dann egal sein. Profitieren würde dann Intel so oder so. Eigene CPU's wären dann zwar sicher profitabler, aber da die R&D Kosten von zwei Firmen getragen würden, würde bei gleichbleibenden Preisen (was bei einem Vorsprung in der Prozesstechnologie nicht soo unwahrscheinlich ist), der Profit von Intel steigen. Wenn Apple Intel klar macht, das sie gedenken in Zukunft sämtliche Geräte mit eigenen Chips zu bestücken, sehe ich da durchaus möglichkeiten für eine Win-Win Situation.

Ich halte beide Szenarien für sehr interessant. :)


Sonst ist Apple klug und flexibel genug wohl auch an eine komplizierte multi-sourcing Strategie fuer Herstellung zu denken. Spekulatives Beispiel:

low level - high volume SoCs = Samsung
higher level - lower volume SoCs = TSMC
highest level - low volume SoCs = Intel

Je mehr Volumen TSMC theoretisch in der Zukunft aufnehmen koennte desto weniger koennten sie bei Samsung mit der Zeit herstellen.
This!

Ailuros
2013-04-18, 10:58:26
Im SFF Markt hast du Recht. Dort sind Qualcomm, ARM, Apple etc alle wirklich eindeutig führend.

Wohl eher Qualcomm, Samsung und Apple der Haarspalterei zu Liebe da ARM als IP Lieferant kein direkter Konkurrent zu Intel ist.

Mit "aufholen" meine ich in erster Linie ein Aufholen auf technischer Seite. Den Atom bekommt Intel mittlerweile in das gleiche Power Budget wie andere. Erstaunlicherweise ist der olle in order Atom gar nicht so langsam gegenüber den SFF OoO Designs.

Weder die CPU noch die GPU und schon gar nicht die VXD (IMG) Antiquitaeten in Intel's SoCs sind dem Intel Markennahmen wuerdig. Es ist zwar um einiges besser geworden, aber stets too little too late im Vergleich zur Konkurrenz. Die Clovertrail+ GPU ist um ~1/3 langsamer als die im S4 und ich will mir nicht vorstellen wie es im Vergleich zum naechsten iPhone aussehen wird.

Intel wird mit 22 nm und einem neuen OoO Design nachlegen. Intel hat den Trend SFF auch erkannt und will dort auch eindringen - völlig klar. Vieleicht werden sie ihn nicht so schnell dominieren - ich gehe aber davon aus, dass sie in den nächsten 5 Jahren auch dort immer erfolgreicher werden.

Wenn es Intel einsieht wie wichtig die GPU in einem heutigen und zukuenftigen SFF SoC sein wird wird es wieder mal zu spaet sein.

Intel hat unangefochtenerweise mit großem Abstand die beste Foundry mit den besten Prozessen. Die Jungs haben gute 2+ Jahre Vorsprung auf diesem Gebiet.

Wenn Du es nach Intel einsiehst dass der Prozess-Weihrauch gleich Null wert ist zu all dem obrigen kommen wir vielleicht einen Schritt weiter. Momentan hoeren wir Haswell Bums und Rums von allen Seiten fuer ULV Geraete, aber dass NV mit Logan teilweise eine Antwort dafuer schon halbwegs angekuendigt hat, hat wohl noch keiner geschnallt. Wir werden eben dann sehen inwiefern der ueberheilige Prozess etwas retten wird.

Zumindest im Desktop/Laptop Bereich sehe ich keine potenzielle Bedrohung oder Konkurrenz in den nächsten 5 Jahren. Eher andersherum: sie werden in den SFF Markt eindringen. Und wenn sie es wirklich wollen, haben sie die Chance, dort erfolgreich zu sein. Dank Fertigungstechnologischer Übermacht und ggf. einem sehr guten Prozessordesign. Wenn schon ein olles 5 Jahre altes in order Prozessordesign, welches für Netbooks/Nettops, heute in Punkto Leistung/Watt gut darsteht - wie steht denn ein echtes, modernes SFF OoO Design in fortschrittlichen 22 nm (und 1 Jahr später in 14 nm) dar?

Wenn Intel nicht die richtige GPU Philosophie fuer SFF SoCs zeitig aufschnappt wird es nur zu Eintagsfliegen und maessigen Resultaten kommen. Und damit wir es endlich auf eine Basis setzen anstatt ULV Haswell braeuchten sie etwas in der >500GFLOP GPU Region fuer =/>10W tablets/ultrabooks und fuer smartphones >600MHz G6200 Rogue um das Blatt wirklich zu aendern und dann erst koennte ich auch beruhigt zugeben dass ihr Prozessvorteil ihnen auch wirklich etwas bringt. Ohne korrekte Design-Entscheidungen sind Prozessvorteile einen feuchten Dreck wert.

Allerdings haben sie Nachholbedarf, was die restlichen Teile des SoCs anbelangt für SFF. Ich weiß nicht, ob ihre Desktop IGP dort die richtige Wahl war. Ein Rogue wäre für SFF sicher besser. Hinzu kommen Dinge wie Modem etcpp. Das hängt wirklich vom Willen Intels ab (an dem ja IMO auch deren GPU Projekte gescheitert sind und nicht am Unvermögen der Engineers)...

Es wird waermer....;) Zwar gibt es Rogue auf Intel's smartphone roadmap aber wie immer too little too late...

Intel braucht kein Weihrauch. Was Design und Fertigung angeht, haben sie es verdammt nochmal leider dermaßen drauf, dass Mitbewerber in ihren Domänen ziemlich alt aussehen.

Na dann streng dich mal an das obrige effektiv zu beantworten.

Intels Schwäche, was andere gut ausnützen können (und auch der neue AMD Mann betont), ist ihre eigene Trägheit. Das Management braucht für Wandel halt immer sehr lange. Wenn der Zug aber erstmal in's Rollen gerät, kann das passieren, was Intel seit Conroe mit dem PC Markt betreibt...

Siehe fettgedrucktes weiter oben :P



This!

:cool:;)

Ailuros
2013-04-24, 11:41:12
http://www.fudzilla.com/home/item/31182-apple-beats-wall-street-expectations

Cook used the opportunity to point out that Apple won’t have any major product launches anytime soon, but he said a slew of new products is coming this fall.

Also doch erst im Herbst :frown:

robbitop
2013-04-24, 12:07:29
Rogue? :D

robbitop
2013-04-24, 12:19:49
Wohl eher Qualcomm, Samsung und Apple der Haarspalterei zu Liebe da ARM als IP Lieferant kein direkter Konkurrent zu Intel ist.
Da hast du Recht. (alter Haarspalter) ;)


Weder die CPU noch die GPU und schon gar nicht die VXD (IMG) Antiquitaeten in Intel's SoCs sind dem Intel Markennahmen wuerdig. Es ist zwar um einiges besser geworden, aber stets too little too late im Vergleich zur Konkurrenz. Die Clovertrail+ GPU ist um ~1/3 langsamer als die im S4 und ich will mir nicht vorstellen wie es im Vergleich zum naechsten iPhone aussehen wird.
Absolut und richtig! Intel läuft noch hinterher. Im Moment haben sie alles mit brutalem Einsatz des Fertigungsprozesses gemacht. Aber immerhin, sie sind von der TDP massiv runtergekommen. Das erinnert mich an die P4 Zeiten, als man mit aller Macht in 90nm und 65 nm den P4 fast noch konkurrenzfähig bekam (technisch - nicht kommerziell - da hatte Intel ja nie Probleme).



Wenn es Intel einsieht wie wichtig die GPU in einem heutigen und zukuenftigen SFF SoC sein wird wird es wieder mal zu spaet sein.
Korrekt. Es ist alles eine Sache des Willens und der Strategie. Die Manpower, das Know How und die Prozesse sind alle da.



Wenn Du es nach Intel einsiehst dass der Prozess-Weihrauch gleich Null wert ist zu all dem obrigen kommen wir vielleicht einen Schritt weiter.
Solange sie solche antiquierte SoCs ausliefern: absolut! Aber es ist ein sehr genialer Bonus, wenn man tatsächlich mal einen guten SoC abliefern würde. Die würde dank >1 Node Vorsprung richtig Rückenwind bekommen...


Momentan hoeren wir Haswell Bums und Rums von allen Seiten fuer ULV Geraete, aber dass NV mit Logan teilweise eine Antwort dafuer schon halbwegs angekuendigt hat, hat wohl noch keiner geschnallt. Wir werden eben dann sehen inwiefern der ueberheilige Prozess etwas retten wird.
Einen Haswell und einen Broadwell wird man IMO nicht erfolgreich in den SFF bekommen. Zustimmung!



Wenn Intel nicht die richtige GPU Philosophie fuer SFF SoCs zeitig aufschnappt wird es nur zu Eintagsfliegen und maessigen Resultaten kommen. Und damit wir es endlich auf eine Basis setzen anstatt ULV Haswell braeuchten sie etwas in der >500GFLOP GPU Region fuer =/>10W tablets/ultrabooks und fuer smartphones >600MHz G6200 Rogue um das Blatt wirklich zu aendern und dann erst koennte ich auch beruhigt zugeben dass ihr Prozessvorteil ihnen auch wirklich etwas bringt. Ohne korrekte Design-Entscheidungen sind Prozessvorteile einen feuchten Dreck wert.

Korrekt. Aber wenn Intel wollte, könnten sie sicher. Die neue Atom OoO CPU + 4-6 Cluster Rogue + 14 nm Low Power Prozess. Das Ding würde vermutlich rocken.


Es wird waermer....;) Zwar gibt es Rogue auf Intel's smartphone roadmap aber wie immer too little too late...
Mir ist nicht klar, warum sie so offensichtliche Fehlentscheidungen tätigen. Sie sind partiell Anteilseigner von IMG und könnten die schönsten Lizenzen erwerben...



Na dann streng dich mal an das obrige effektiv zu beantworten.
Habe ich getan. Mit "ihren Domänen" meine ich die Märkte, in denen sie bereits erfolgreich sind: Desktop+Laptop. Dort kommt niemand an sie ran und es wird so schnell keiner schaffen.

Wenn sie wirklich mal langsam aufwachen sollten, was SFF angeht (und ich denke, das ist ein guter Markt für die Zukunft von Intel), dann haben sie das Potenzial, den Markt zu "conroen". :D

Ailuros
2013-04-24, 12:35:10
Wenn Intel nicht noch mehr aufwachen wird was SFF betrifft (und ja der Markt wird langsam in die 10-15W tablet Region wachsen IMHO) dann koennen sie nur hoffen dass NV mit Denver ziemlich stark auf die Nase faellt.

deekey777
2013-05-30, 19:21:48
Apple setting up shop in Florida for custom chip development (http://appleinsider.com/articles/13/04/16/apple-setting-up-shop-in-florida-for-custom-chip-development)

Und:

Ergänzend:
http://9to5mac.com/2013/04/16/job-postings-suggest-apple-to-begin-chip-development-in-orlando-florida/

Orlando scheint sehr attraktiv zu sein.
Orlando-GPU-Team von AMD nun angeblich bei Apple (http://www.heise.de/mac-and-i/meldung/Orlando-GPU-Team-von-AMD-nun-angeblich-bei-Apple-1873394.html)
Apple hat einem Bericht von MacRumors zufolge mindestens ein Dutzend ehemaliger GPU-Experten des Chipkonzerns AMD übernommen, die zuvor in dessen Büro in Orlando arbeiteten.

Nightspider
2013-06-25, 04:36:47
Mich wundert, das es hier noch nicht erwähnt wurde.

Erste 20nm Chips für Apple in kleineren Mengen wohl schon ab Juli in Produktion.
Massenproduktion ab Anfang 2014.

http://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/26818-tsmc-kurz-
vor-abschluss-eines-3-jahresvertrags-mit-apple.html

Sammelt Apple die produzierten Chips von Juli bis ~Oktober um zum Release (Mitte-Ende Oktober / Anfang November?) zumindest schon eine größere Hand voll neuer 20nm Produkte anbieten zu können?

Bleibt die Frage:
Wo wäre 20nm am wichtigsten?

iPhone?
-ist meiner Meinung nach schnell genug
iPad?
-kann mehr Leistung gebrauchen, hat aber auch einen großen Akku
iPad Mini?
-imo am wahrscheinlichsten, wenn das iPad Mini 2 mit Retina Auflösung kommt, mehr Leistung benötigt und genauso klein bleiben soll

Allerdings wird das iPad 5 ja auch geschrumpt und wird deutlich kleiner und dünner, bei gleicher Bilddiagonale. Dort würde ein deutlich schnellerer und stromsparenderer 20nm Chip auch Sinn machen.

Wobei auch über einen späteren Start des iPad mini 2 spekuliert wird (Dezember? Januar?)
Bis dahin dürfte Apple genügend 20nm Chips zu Verfügung haben.

robbitop
2013-06-25, 08:56:33
Das ist bis dato Risk Production. TSMC hat vor kurzem mal gesagt, dass es mit 20 nm erst Q2 2014 losgeht. Apple braucht riesige Mengen für ihre Produkte.
Ich halte es für unwahrscheinlich, dass sie auf Risk Production setzen.
2011 gab es für 28 nm auch schon Risk Production. Und doch waren die ersten mit 28 nm in größeren Stückzahlen AMD mit Tahiti. Erst danach dann Qualcomm (Anfang 2012) und Apple erst im Herbst 2012. Eben weil sie riesige Stückzahlen brauchen.

Ich würde darauf tippen, dass dieses Jahr ein 28 nm SoC herauskommt.

Ailuros
2013-06-25, 12:28:23
2013 = 28nm Samsung.

prinz_valium
2013-06-25, 12:45:00
vorallem wird sich apple wohl kaum mit sowas seine margen kaputt machen lassen wollen.
oder glaubt ihr, die können tmsc einen vertrag aufgedrückt haben, wo deren yields keine rolle spielen beim preis?

20nm von tmsc in apple produkten? frühstens im sommer (eher herbst) 2014 imho
selbst bei einem möglichen produkt im frühjahr, egal welches es nun wird, sehe ich da noch keine 20nm chips von tmsc drin.

oder würde mir da jemand von den leuten hier, die ahung haben, widersprechen?


edit: ich rede ofc vom martkstart der produkt und nicht fertigungsbeginn oder chips sammeln. das kann jeweil ein quartal oder ein paar monate früher anfangen

Ailuros
2013-06-25, 12:54:22
Es gab auch unendliche Geruechte dass Apple angeblich von einer jaehrlichen zu einer 6-monatigen Kadenz steigt wurde aber nichts daraus. Unter normalen Umstaenden haben wir in wenigen Monaten das neue iPad und iPhone bei Samsung unter 28nm hergestellt und deren Nachfolger um ca. ein Jahr spaeter.

prinz_valium
2013-06-25, 13:08:33
und dann passt eben auch wieder die tatsache 20nm und tsmc chips.
aber es gibt ja 2 ipads, sowie ein mögliches iphone billig und noch den ipod
diese könnten ja zu ganz anderen zeiten, als im herbst vorgestellt werden.
ich persönlich rechne mit mindestens 2, oder maximal 3 produkten. 4 würde mich sehr stark überraschen
5 neue produkte in einem quartal, wären aber deutlich zu viel
das neue iphone 5s ist 100% sicher
EINE neuens ipad ist auch 100% sicher
zwei neue ipads ist vllt sogar wahrscheinlich
noch ein zweites iphone dazu ist möglich, aber eher unrealistisch

aber wenn dann nun im fürhjahr eben eins von den ganannten produkten kommen würde, ist die frage, welcher chip dann drin steck. imho immernoch 28nm vllt aber sogar schon von tmsc, aber eben noch kein 20nm.

deekey777
2013-06-26, 15:49:38
Bilder sollen iPhone-5S-Prototypen mit "A7"-Chip zeigen (http://www.heise.de/mac-and-i/meldung/Bilder-sollen-iPhone-5S-Prototypen-mit-A7-Chip-zeigen-1896202.html)
Apple's Prototype iPhone 5S Based on New A7 Chip (http://www.macrumors.com/2013/06/24/apples-prototype-iphone-5s-based-on-new-a7-chip/)
Na ja, wer's glaubt, wird selig. Apple hat viele mit dem A6 überrascht, warum kein A7 in den kommenden Geräten? Aber ich glaube erst daran, wenn das iPhone 5S präsentiert wird.

robbitop
2013-06-26, 16:03:12
Warum nicht? Es gab bei jeder neuen Generation der iPhones seit dem iPhone 4 ein neuen Ax Prozessor. Das muss ja nicht bedeuten, dass es 20 nm sind.

Ailuros
2013-06-26, 17:19:44
Warum nicht? Es gab bei jeder neuen Generation der iPhones seit dem iPhone 4 ein neuen Ax Prozessor. Das muss ja nicht bedeuten, dass es 20 nm sind.

28nm ist ohnehin schon ein neuer Prozess fuer Apple; wie bloed kann man eigentlich sein das Risiko einzugehen bei einer neuen foundry, einem neuen Prozess einen neuen SoC zu schicken? 20nm TSMC kommt mit einem refresh SoC der auf A7 basieren wird.

Bilder sollen iPhone-5S-Prototypen mit "A7"-Chip zeigen (http://www.heise.de/mac-and-i/meldung/Bilder-sollen-iPhone-5S-Prototypen-mit-A7-Chip-zeigen-1896202.html)
Apple's Prototype iPhone 5S Based on New A7 Chip (http://www.macrumors.com/2013/06/24/apples-prototype-iphone-5s-based-on-new-a7-chip/)
Na ja, wer's glaubt, wird selig. Apple hat viele mit dem A6 überrascht, warum kein A7 in den kommenden Geräten? Aber ich glaube erst daran, wenn das iPhone 5S präsentiert wird.

Wie ich schon bei B3D spekulierte (und wohl auch wieder falsch liegen werde ;) ) im iPhone5S steckt ein A7@28nm Samsung mit einem 2er Generation quad Swift bei 1.5GHz und ein G6200 mit 1/3 vom CPU Takt. Der wahrscheinlichste Fehler liegt wohl auf der CPU Seite :freak:

deekey777
2013-06-27, 15:11:35
Ich hoffe nicht, sonst ist mein iPhone 5 schon veraltet. ;(

robbitop
2013-06-27, 15:36:04
Ich hoffe nicht, sonst ist mein iPhone 5 schon veraltet. ;(
Das ist doch aber jedes Jahr so. Denkst du, Apple dreht Däumchen? Es muss ja auch verkaufbar sein. ;)

Aber letztenendes ist "veraltet" immer eine Frage der Definition. Fortschritt gibt es immer - aber der Swift in Kombination mit dem SGX 543MP3 ist mehr als stark genug für alles, was du die nächsten 2 Jahre mit dem Gerät machen wirst. IMO war sogar schon der A5 für's Surfen schnell genug.

lumines
2013-06-27, 15:45:50
Aber letztenendes ist "veraltet" immer eine Frage der Definition. Fortschritt gibt es immer - aber der Swift in Kombination mit dem SGX 543MP3 ist mehr als stark genug für alles, was du die nächsten 2 Jahre mit dem Gerät machen wirst. IMO war sogar schon der A5 für's Surfen schnell genug.

Würde ich auch mal behaupten. Ich mein, sogar der A5 ist nach wie vor alles andere als langsam in Kombination mit iOS. Die hohe GPU-Performance + Swift dürfte beim iPhone 5 dafür sorgen, dass es relativ gut altern wird.

Ailuros
2013-06-27, 18:51:26
Ich hoffe nicht, sonst ist mein iPhone 5 schon veraltet. ;(

Selbst wenn es ein shrink eines existierenden SoCs waere, waere es auch wieder hoechstwahrscheinlich die gestrige tablet GPU Leistung im heutigen smartphone. Ich hoffe schon denn wenn sich Rogue nicht so langsam in grossen Mengen verbreitet wird es mit GPGPU noch laenger dauern.

AffenJack
2013-06-27, 19:36:36
Wie ich schon bei B3D spekulierte (und wohl auch wieder falsch liegen werde ;) ) im iPhone5S steckt ein A7@28nm Samsung mit einem 2er Generation quad Swift bei 1.5GHz und ein G6200 mit 1/3 vom CPU Takt. Der wahrscheinlichste Fehler liegt wohl auf der CPU Seite :freak:

Gibts eigentlich schon irgendwelche geleakten Benches von Rogue? Wird interessant ob das Iphone Adreno330 schlagen kann. Das Ipad sollte das ja locker hinkriegen.

Selbst wenn es ein shrink eines existierenden SoCs waere, waere es auch wieder hoechstwahrscheinlich die gestrige tablet GPU Leistung im heutigen smartphone. Ich hoffe schon denn wenn sich Rogue nicht so langsam in grossen Mengen verbreitet wird es mit GPGPU noch laenger dauern.

Was hat Rogue mit GPGPU-Verbreitung zutun? Series 5 kann doch auch schon OpenCl oder etwa nicht?

Ailuros
2013-06-27, 20:02:03
Gibts eigentlich schon irgendwelche geleakten Benches von Rogue? Wird interessant ob das Iphone Adreno330 schlagen kann. Das Ipad sollte das ja locker hinkriegen.

iPhone5 hat den Adreno320 auch nicht schlagen koennen; einfacher es muss nicht unbedingt sein. GLB2.7 hat eine Unmenge an alpha tests und obwohl IMG es elegant unter den Teppich kehrt sind SGX cores ziemlich miserabel mit scissoring. Rogue verhaelt sich mit alpha tests wie man von einem TBDR erwarten wuerde; ich hab lediglich noch meine Vorbehalte ob die Entfernung von hw Redundanz von multi-core auf multi-cluster wirklich fuer ihren absoluten Vorteil ist am Ende.

ARM's Midgaard, Adreno3xx und die ULP GF im T4/4i sind relative Schlappschaenze wenn es zu Geometrie kommt; mal hoffen dass IMG nicht so daemlich war und auf den Punkt geometry throughput aufgepasst hat.

Nein ich hab keine direkte Antort auf Deine Frage, aber es steht oben genug Material zum weiterdenken ;)

Was hat Rogue mit GPGPU-Verbreitung zutun? Series 5 kann doch auch schon OpenCl oder etwa nicht?

Natuerlich ist Series5/5XT GPGPU faehig; das sollte aber wohl nicht heissen dass Rogue nicht um zich Male effizienter ist damit; nachdem was sich bei Entwicklern im Hintergrund herumspricht ist die Beschreibung oefters GPGPU done right. Hw maessig hast Du auf jedem 5/5XT core 2 FLOPs pro ALU lane; bei Rogue sind es je nach Variante 2.0-2.5x Mal so viel.

ARM Mali ab T62x geht anscheinend einen aehnlichen Weg, obwohl das native FP64 immer noch Unmengen an Strom frisst.

deekey777
2013-06-29, 10:21:23
http://online.wsj.com/article/SB10001424127887324682204578513882349940500.html#

Einige Chips sollen 2014 von TSMC gefertigt werden, Samsung bleibt weiterhin der größte Lieferant.

Ailuros
2013-06-29, 15:19:37
http://online.wsj.com/article/SB10001424127887324682204578513882349940500.html#

Einige Chips sollen 2014 von TSMC gefertigt werden, Samsung bleibt weiterhin der größte Lieferant.

Fuer wie lange? Wenn Samsung kurzfristig keine Kunden fuer ihre konstant steigenden freien Herstellungskapazitaeten finden kann (und wohl auch nicht besonders viele eigene SoCs herstellen werden in absehbarer Zukunft) haben sie langfristig wohl doch ein Problem.

Natuerlich wird sich Apple nur Schritt fuer Schritt von Samsung loesen was die Herstellung betrifft (welches viele komischerweise nicht vestehen konnten bis vor kurzem), aber bisher sieht es nicht danach aus als ob Samsung einen Plan B dafuer parat hat.

Eine zu groesse Abhaengigkeit von jemand wie Apple ist nie gut; frueher oder spaeter verpasst diese Tatsache IMG einen so grossen Tritt in den Hintern dass sie nicht mehr wissen werden wo's langgeht.

deekey777
2013-06-29, 15:51:59
Was wird eigentlich für das Günstig-iPhone spekuliert? Vor langer Zeit wurde ein Qualcom-SoC ins Spiel gebracht, aber wie sieht's heute aus? Wenn das iPhone 5S mit einem A7 kommt, wäre nicht ein A6 im Günstig-iPhone denkbar? Oder ist der A6 noch zu teuer?

robbitop
2013-06-29, 16:08:39
Wer weiß, ob man eine so starke Fragmentierung der HW auf der Plattform überhaupt will. Ich würde eher darauf tippen, dass ein A(x)-SoC enthalten ist. Vieleicht wie beim günstigen iPod touch immer der jeweilige A(n-1).

Sunrise
2013-06-29, 16:27:20
Fuer wie lange? Wenn Samsung kurzfristig keine Kunden fuer ihre konstant steigenden freien Herstellungskapazitaeten finden kann (und wohl auch nicht besonders viele eigene SoCs herstellen werden in absehbarer Zukunft) haben sie langfristig wohl doch ein Problem.
Bei den SoCs sicherlich, da wird Samsung sich etwas überlegen müssen. Derzeit sieht es aber noch so aus, als könne Apple nicht ohne Samsung. Das neue Macbook Air zeigt auch wieder, dass die Zusammenarbeit noch funktioniert (SSD) und es wurde wohl auch wieder auf Samsung als Panel-Lieferant für das zukünftige iPad gewechselt.

Eine zu groesse Abhaengigkeit von jemand wie Apple ist nie gut; frueher oder spaeter verpasst diese Tatsache IMG einen so grossen Tritt in den Hintern dass sie nicht mehr wissen werden wo's langgeht.
Wenn wir den Deal mit TSMC mal so interpretieren, dass Apple nicht gewillt ist, zukünftig eigene SoCs aus der Hand zu geben, dann sieht es für IMG wohl noch eine ganze Weile sehr gut aus. Sollte Apple teilweise auf Qualcomm SoCs für günstigere Produkte setzen (wie auch immer man das kaufmännisch rechtfertigt ist mir allerdings ein Rätsel und hat wohl eher mit der Menge an SoCs zu tun, die man benötigt, da Qualcomm "eigene" Kapazitäten für sich reserviert), dann ist IMG auch noch lange nicht aus dem Rennen. Das fördert eher den Drang, der Konkurrenz die Stirn zu bieten und ist grundsätzlich eine gute Sache.

Aber bis 10nm ist noch eine Weile hin. Da würde ich dann erstmal eine schlüssige Erklärung dafür haben wollen, warum Apple von IMG abspringen sollte. Und das sollte solange nicht passieren, wie Apple eigene SoCs designed und produzieren lässt.

robbitop
2013-06-29, 16:30:10
Bis Apple eines Tages die Grafik IP selbst entwickelt...

Sunrise
2013-06-29, 16:36:20
Bis Apple eines Tages die Grafik IP selbst entwickelt...
Ja, genau in die Richtung dachte ich. Hier sind Patente aber King. Hat Apple da derzeit überhaupt etwas?

robbitop
2013-06-29, 16:45:05
Selbst wenn sie nicht viel haben, haben sie andere Patente, mit denen wieder deals mit IHVs machen kann.

Schau mal, wie viele Firmen GPU Know How mittlerweile haben. Im PC Bereich sind es allein schon mind. 4 (Intel, AMD, NV, S3). Im Mobilbereich sind es eher mehr. Da sollte es für Apple kein Problem sein, GPU Know How aufzubauen und entsprechende Patente zu lizensieren oder einzutauschen (cross licence agreements).
Mit CPUs haben sie es ja auch hinbekommen - was sogar schwieriger sein kann als bei GPUs.

=Floi=
2013-06-29, 17:17:03
gute know how haben aber nicht viele und auch am tegra sieht man wie schwer es hier noch ist etwas brauchbares und modernes auf die beine zu stellen. apple würde sich nur verschlechtern.

würde bei einem billigen iphone eher auf einen geshrinkten älteren A6 tippen. so spart man sich optimierungen bei der software und kann den gleichen soc weiterverwenden.

robbitop
2013-06-29, 17:22:38
Als ob NV nicht das Know How hätte...
Das war einfach nur eine Abwägung zwischen Features, Leistung und Kernfläche. Und für die Fläche der GPU hat T4 ziemlich viel Leistung. Der ganze SoC inkl. 5x A15 passt auf lächerliche 80 sqmm. Die entsprechenden Features braucht im Moment eh keine wesentliche App im Mobilbereich. Es wird mehr gelästert, als dass das wirklich ein Nachteil ist.

=Floi=
2013-06-29, 17:59:24
umgedreht ist die fläche egal. siehe apple.
bei entsprechendem preis kann man auch einen größeren soc problemlos verkaufen und nv wollte mit dem tegra die krone und werden jedes mal von apple und qualcomm vorgeführt. tegra ist nicht langsam, "on the edge" ist er aber auch nicht.

robbitop
2013-06-29, 18:12:16
umgedreht ist die fläche egal. siehe apple.
Das würde ich nicht verallgemeinern. Apple hat den Luxus, dass sie Geräte mit hoher Gewinnspanne verkaufen und ihre eigenen SoC in diesem Ökosystem keine Konkurrenz haben. Also kann der SoC auch größer werden.

NV hingegen muss seine SoCs verkaufen. Und zwar in einen Markt, der mit sehr geringen Gewinnspannen versehen ist (SoCs kosten < 5 % des Endgerätepreises) und mit viel Konkurrenz.

NVs und Apples Voraussetzungen einen SoC zu designen können also diametral sein.

bei entsprechendem preis kann man auch einen größeren soc problemlos verkaufen und nv wollte mit dem tegra die krone und werden jedes mal von apple und qualcomm vorgeführt. tegra ist nicht langsam, "on the edge" ist er aber auch nicht.
Wenn NV mit Tegra die "Krone" gewollt hätte, hätten sie das Ding nicht auf 80 sqmm aufgelegt.
Glaubst du allen Ernstes, NV hätte Probleme, eine mindestens konkurrenzfähige GPU zu entwerfen? Es ist der Markt, der ihre Vorgehensweise bestimmt.

basti333
2013-06-29, 20:24:11
Ja, genau in die Richtung dachte ich. Hier sind Patente aber King. Hat Apple da derzeit überhaupt etwas?

Zumindest sucht Apple gerade GPU Entwickler bzw. betreibt Headhunting bei AMD. Wie sieht es denn mit einem Aufkauf von IMT aus? Rein vom Firmenwert her dürfte das ja nicht so das problem sein, wäre die Frage ob Intel da mitmachen würde...?

robbitop
2013-06-30, 09:47:13
Es gibt noch andere Anteilseigner außer Apple, die das nicht zulassen würden. z.B. Intel.

Ailuros
2013-06-30, 15:45:04
Selbst wenn sie nicht viel haben, haben sie andere Patente, mit denen wieder deals mit IHVs machen kann.

Schau mal, wie viele Firmen GPU Know How mittlerweile haben. Im PC Bereich sind es allein schon mind. 4 (Intel, AMD, NV, S3). Im Mobilbereich sind es eher mehr. Da sollte es für Apple kein Problem sein, GPU Know How aufzubauen und entsprechende Patente zu lizensieren oder einzutauschen (cross licence agreements).
Mit CPUs haben sie es ja auch hinbekommen - was sogar schwieriger sein kann als bei GPUs.

Es sind nicht mehr GPU Schmieden als in jeglicher Vergangenheit sondern weniger. Ich bin mir sicher dass Apple extrem scharf auf ex-XGI (siehe SiS) oder auch ex-Bitboys (siehe Qualcomm) Patente sein koennte.

Mit Apple weiss man selten bis nie was sie genau vorhaben, selbst ihre eigentlichen Partner sind sich nie absolut sicher. Zwar durchaus eine Moeglichkeit fuer die weniger vorhersehbare Zukunft aber weiss der Geier ob in der Zwischenzeit sie in etwas anderes investieren werden.

CPUs basieren immer noch auf ARM ISA; zwischen diesem und eine CPU von Grund auf zu entwickeln liegt nochmal ein gewaltiger Unterschied. Die Moeglicheit fuer's letzte haben sie schon, aber es kann auch keiner garantieren dass eine eigen entwickelte CPU oder GPU auch wirklich etwas konkurrenzfaehiges werden wird.

Geschichtlich gibt es mehr gefloppte GPU Versuche als Erfolge am Ende von neuen Einsteigern. Wie dem auch sei fuer jemand wie Apple so schmerzlos wie moeglich sich von PowerVR GPU IP zu loesen, waere wenn ASTC zum mainstream im SFF mobilen Markt wird.

basti333
2013-06-30, 17:10:42
Es gibt noch andere Anteilseigner außer Apple, die das nicht zulassen würden. z.B. Intel.

Das habe ich doch gerade gefragt.

Naja, ich denke Intels eigenes interesse an IMT ist sicherlich gesunken, da man ja mittlerweile mit der inhouse grafik sehr weit ist. Gleichzeitig macht man sich wohl immer weniger illusionen bzgl. Apple, also das die irgendwann doch noch Intels SoCs ins iPhone bauen. In sofern ist Intel vielleicht ja zu einem horrenden Preis durchaus gewillt seinen Anteil zu verkaufen. Bringt ja auch nichts bis zuletzt gegen so eine Übernahme zu kämpfen und Apple schaut sich dann anderswo um, dann sind Intels Anteile Wertlos geworden^^

Ailuros
2013-06-30, 19:27:11
Das habe ich doch gerade gefragt.

Naja, ich denke Intels eigenes interesse an IMT ist sicherlich gesunken, da man ja mittlerweile mit der inhouse grafik sehr weit ist.

Weder Intel, Apple oder sonst wer kann jegliche Firma nicht kaufen wenn sie keinen Bock hat sich zu verkaufen; die Zeiten der feindlichen Uebernahmen sind vorbei. Intel benutzt weiterhin IMG GPU IP fuer smartphones wo das eigentliche Volumen sitzt im Gegensatz zu tablets; steigt Intel's Marktanteil so brutal an wie es Analysten vorhersehen dann aber auch nur weil der Markt insgesamt weiterwachsen wird.

http://fudzilla.com/home/item/31813-intel-will-make-a-mobile-push

Gleichzeitig macht man sich wohl immer weniger illusionen bzgl. Apple, also das die irgendwann doch noch Intels SoCs ins iPhone bauen.

Sagt wer? Nicht dass nicht jeder Einzug gerne bei Apple haette, aber Apple ist wohl nicht so daemlich und hat Milliarden und N engineers ueber die Jahre angesammelt um SoCs und CPUs zu entwickeln nur am Ende das Ganz ins Klo runterzuspuelen.

In sofern ist Intel vielleicht ja zu einem horrenden Preis durchaus gewillt seinen Anteil zu verkaufen. Bringt ja auch nichts bis zuletzt gegen so eine Übernahme zu kämpfen und Apple schaut sich dann anderswo um, dann sind Intels Anteile Wertlos geworden^^

Vielleicht hilft es einzusehen dass Apple anfangs eigentlich nur etwas IMG unter die Arme helfen wollte als sie die ersten Aktien kauften. Weder Intel noch Apple haben bei IMG heutzutage irgendwelche sehenswerte voting rights in der Firma dass jeglicher zusammengestrickte Konspirationsthese irgendwo oder irgendwann Sinn machen koennte. Die Sache ist um zich einfacher als viele von Euch vorstellt und ja tud mir leid aber weder Apple noch Intel legen so viel wert auf IMG als ihr Euch vorstellen wollt.

Sonst wenn morgen Apple bei IMG das Dilemma setzen wuerde zwischen GPU IP Exclusivitaet fuer Apple oder IMG fliegt raus wuerde IMG wohl die zweite Option waehlen.

smalM
2013-07-06, 16:41:46
Intel hält etwa 15% an IMG, Apple ca. 10%. Der Anteil institutioneller Anleger ist leider nicht bekannt. Der Börsenwert des restlichen 75% Anteils an IMG ist < 600 Mio.£.

Da anscheinend alleine Apple in der Lage ist große Die-Flächen in Kauf zu nehmen, erreichen sie schon durch die größere Anzahl an GPU-Cores Exklusivität, wozu also IMG kaufen?

fondness
2013-07-06, 16:53:03
Wenn NV mit Tegra die "Krone" gewollt hätte, hätten sie das Ding nicht auf 80 sqmm aufgelegt.
Glaubst du allen Ernstes, NV hätte Probleme, eine mindestens konkurrenzfähige GPU zu entwerfen? Es ist der Markt, der ihre Vorgehensweise bestimmt.

Seltsam, "der Markt" hat aber durchgehend deutlich bessere GPUs in ihren SoCs und sonderlich erfolgreich ist NV auch nicht. Noch dazu takten sie die teile so hoch das die Perf/Watt auch im Eimer ist.
Bei der nächsten Generation kommen sie ja endlich mit einem Kepler-Derivat, aber was der GPU-Spezialist NV bisher hier abgeliefert hat ist blamabel im Vergleich zur Konkurrenz.

Undertaker
2013-07-06, 17:16:45
Seltsam, "der Markt" hat aber durchgehend deutlich bessere GPUs in ihren SoCs und sonderlich erfolgreich ist NV auch nicht. Noch dazu takten sie die teile so hoch das die Perf/Watt auch im Eimer ist.
Bei der nächsten Generation kommen sie ja endlich mit einem Kepler-Derivat, aber was der GPU-Spezialist NV bisher hier abgeliefert hat ist blamabel im Vergleich zur Konkurrenz.

Welcher konkurrierende SoC liefert bei 80 mm² die gleiche Performance bei besserer Perf/Watt? :confused: S800 hat gerüchteweise wohl ~120 mm². In ähnlichen Klassen spielen auch Apples letzte Tablet-SoCs.

In dieser Hinsicht ist T4 ein Kompromiss zugunsten günstigerer Produktionskosten. Ich bezweifle das es für Nvidia auch nur ansatzweise ein technisches Hindernis gewesen wäre, doppelt so viele Shader bei halber Taktrate zu verbauen.

Nightspider
2013-07-06, 18:01:56
Müssten nicht bald langsam mal neue Infos zu Apples nächsten SoCs durchsickern?

Was erwartet ihr? QuadCore mit höheren Taktraten und deutlich breitere GPU?

Ailuros
2013-07-06, 18:06:35
Intel hält etwa 15% an IMG, Apple ca. 10%. Der Anteil institutioneller Anleger ist leider nicht bekannt. Der Börsenwert des restlichen 75% Anteils an IMG ist < 600 Mio.£.

Da anscheinend alleine Apple in der Lage ist große Die-Flächen in Kauf zu nehmen, erreichen sie schon durch die größere Anzahl an GPU-Cores Exklusivität, wozu also IMG kaufen?

Afaik wurde der SGX554 nur von Apple lizenziert. Sonst war der market cap von IMG bevor die Aktie irgendwo um die Haelfte gefallen ist bei fast $2 Mrd.

deekey777
2013-07-06, 18:11:42
Müssten nicht bald langsam mal neue Infos zu Apples nächsten SoCs durchsickern?


So wie zum A6?

Ailuros
2013-07-06, 18:14:46
Welcher konkurrierende SoC liefert bei 80 mm² die gleiche Performance bei besserer Perf/Watt? :confused: S800 hat gerüchteweise wohl ~120 mm². In ähnlichen Klassen spielen auch Apples letzte Tablet-SoCs.

Fuer high end SoCs braucht man auch high end die area. Wenn man sich nicht mehr als 80mm2 maximal leisten kann weil man mit beschissenen Volumen zu tun hat, geht man von Anfang an zu einem Bruchteil der die area und greift den Markt von unten an, etabliert sich mit der Zeit durch steigende Volumen und skaliert die area und Leistung danach Schritt fuer Schritt.

Apple's SoCs sind auch obszoen groesser als Tegras, wobei sie sogar doppelt so viel area mit dem A5X erreicht hatten im Vergleich zum konkurrierenden Tegra. Ja und? Wenn man hunderte Mio chips pro Jahr herstellen laesst sieht bei dem Volumen der BOM genau wie aus? Apple legt auch ihre SoCs so verdammt breit aus um mehr Strom zu sparen; die Flaeche die der CPU block im A5X schluckt ist fast so gross wie ein ganzer Tegra2.

In dieser Hinsicht ist T4 ein Kompromiss zugunsten günstigerer Produktionskosten. Ich bezweifle das es für Nvidia auch nur ansatzweise ein technisches Hindernis gewesen wäre, doppelt so viele Shader bei halber Taktrate zu verbauen.

Ich bezweifle dass Du nicht einsehen kannst dass T4i eine bessere Balance zwischen CPU und GPU haben koennte als T4 und dieses nur bei 60mm2. Und dabei drehen wir uns wieder im Kreis und sind wieder beim originalen Punkt.

Undertaker
2013-07-06, 18:35:08
Fuer high end SoCs braucht man auch high end die area.

Mit diesem Grundsatz ist Tegra 4 aus Perf/Watt Sicht kein High-End-Prozessor - das wird vermutlich auch keiner behaupten (nichtmal Nvidia vergleicht Perf/Watt mit etwas anderem als Tegra 3 :freak:). Imo kann man die dahinter stehende Absicht durchaus nachvollziehen: Ohne Modem hat man in Smartphones generell einen schlechten Stand und zielt darum primär auf Tablets. In Tablets wiederum ist der TDP-Spielraum höher, d.h. ein kleinerer und ineffizienterer Die mit hohen Frequenzen weniger schädlich.

Apple's SoCs sind auch obszoen groesser als Tegras, wobei sie sogar doppelt so viel area mit dem A5X erreicht hatten im Vergleich zum konkurrierenden Tegra. Ja und? Wenn man hunderte Mio chips pro Jahr herstellen laesst sieht bei dem Volumen der BOM genau wie aus? Apple legt auch ihre SoCs so verdammt breit aus um mehr Strom zu sparen; die Flaeche die der CPU block im A5X schluckt ist fast so gross wie ein ganzer Tegra2.

Tja, Apple braucht sich als High-End-Anbieter darum einfach überhaupt keinen Kopf machen, zumindest wenn es um den jeweils aktuellen SoC für das "große" iPad geht. Der prozentuale Anteil der SoC-Kosten gemessen am Verkaufspreis ist wohl bei kaum einem anderen Konkurrenzprodukt so klein...


Ich bezweifle dass Du nicht einsehen kannst dass T4i eine bessere Balance zwischen CPU und GPU haben koennte als T4 und dieses nur bei 60mm2.

Ganz ehrlich: Dürfte T4i bezüglich der CPU-Leistung nicht mindestens so nahe an T4 liegen wie bei der GPU-Leistung? Wenn man den bisher durchgesickerten Werten glauben schenken mag, dürften die neuesten A9r4-Kerne bei 2,3 GHz nicht wirklich weit hinter einem A15 bei "nur" 1,8 GHz liegen.

Ailuros
2013-07-06, 19:02:02
Mit diesem Grundsatz ist Tegra 4 aus Perf/Watt Sicht kein High-End-Prozessor - das wird vermutlich auch keiner behaupten (nichtmal Nvidia vergleicht Perf/Watt mit etwas anderem als Tegra 3 :freak:).

Ist es nicht irgendwie steril eine jegliche chip-Komplexitaet nur von der die area zu beurteilen? Ist transistor density wie aus Magie ploetzlich bei SFF SoCs verschwunden? :D

Nochmal der A5X CPU block ist fast so gross wie der gesamte T2; wie sieht es mit Transistoren-dichte in solchen Faellen genau aus?

Und natuerlich je groesser die Transistoren-dichte desto hoeher die Chancen fuer hoeheren Stromverbrauch. Von der perf/W Perspektive ist T4 durchaus high end Material.

Imo kann man die dahinter stehende Absicht durchaus nachvollziehen: Ohne Modem hat man in Smartphones generell einen schlechten Stand und zielt darum primär auf Tablets. In Tablets wiederum ist der TDP-Spielraum höher, d.h. ein kleinerer und ineffizienterer Die mit hohen Frequenzen weniger schädlich.

Und der BOM bzw. die Herstellungskosten sind NV egal oder was? Ueberhaupt wenn man roten Zahlen generiert fuer eine Sparte kann man nur sparen wo man nur sparen kann. Sonst aehnlich mit Dichte oben: je hoeher die Frequenzen desto hoeher die Leckstroeme und der Stromverbrauch. 672MHz sind nicht gerade wenig fuer eine GPU beim allerersten 28nm Versuch; Adreno330 bei 450MHz und SGX554 bei 280MHz.

Tja, Apple braucht sich als High-End-Anbieter darum einfach überhaupt keinen Kopf machen, zumindest wenn es um den jeweils aktuellen SoC für das "große" iPad geht. Der prozentuale Anteil der SoC-Kosten gemessen am Verkaufspreis ist wohl bei kaum einem anderen Konkurrenzprodukt so klein...

Gilt doch auch fuer Samsung zwar unter anderen Bedingungen aber bei Samsung's Volumen koennen sie sich so manchen Spass auch goennen.

Ganz ehrlich: Dürfte T4i bezüglich der CPU-Leistung nicht mindestens so nahe an T4 liegen wie bei der GPU-Leistung? Wenn man den bisher durchgesickerten Werten glauben schenken mag, dürften die neuesten A9r4-Kerne bei 2,3 GHz nicht wirklich weit hinter einem A15 bei "nur" 1,8 GHz liegen.

Wie sieht es mit der SoC Bandbreite aus auf T4i und wieso kann diese als universale Bandbreite so manches auf einem SoC sowohl fuer CPU als auch fuer GPU drosseln? Ausserdem warten wir mal lieber ab ob und wie viele Hersteller die T4i benutzen werden gleich am Anfang mit 2.3GHz wirklich takten werden. Alle bisherige T4 Geraete liegen um 10% niedriger (CPU und GPU) als Shield.

Diese oeden "bis zu" Werte verwenden leider alle SoC Hersteller bei der originalen Vermarktung.

Ailuros
2013-07-12, 13:23:21
http://semiaccurate.com/2013/07/12/apple-has-their-own-fab/

Hmmmm.....:rolleyes:

robbitop
2013-07-12, 13:36:28
Da stellen sich mir mehrere Fragen:

1. Ist das was dort steht wahr?
2. Haben sie vor selbst eine Fabrik zu bauen und auszustatten oder haben sie sich bei jemandem eingekauft, der für sie eine Fabrik baut und betreibt?

Ohne vorhandenes Know How wäre das ein schwieriges Unterfangen.

Die_Allianz
2013-07-12, 14:26:01
http://semiaccurate.com/2013/07/12/apple-has-their-own-fab/

Hmmmm.....:rolleyes:

bp;dr

http://www.heise.de/newsticker/meldung/Noch-ein-Internet-Kuerzel-bp-dr-1912531.html

Gipsel
2013-07-12, 15:31:42
Da stellen sich mir mehrere Fragen:

1. Ist das was dort steht wahr?
2. Haben sie vor selbst eine Fabrik zu bauen und auszustatten oder haben sie sich bei jemandem eingekauft, der für sie eine Fabrik baut und betreibt?
No we are not joking, Apple just bought into a fab, and not in a trivial way either.
Nach der Wortwahl im freien Teil sollte es klar sein, was er meint.
Ohne den Rest zu kennen, vielleicht Anteile an irgendeiner Foundry, Zuschüsse zu den Kosten für Prozessentwicklung und im Gegenzug garantierte Kapazitäten? Keine Ahnung.

robbitop
2013-07-12, 16:04:14
Nach der Wortwahl im freien Teil sollte es klar sein, was er meint.
Ohne den Rest zu kennen, vielleicht Anteile an irgendeiner Foundry, Zuschüsse zu den Kosten für Prozessentwicklung und im Gegenzug garantierte Kapazitäten? Keine Ahnung.
Ja den Satz habe ich auch gelesen. ;)
Ich hege ja schon länger die Theorie, dass wenn sie ins Fab Business einsteigen, sie sich groß bei jemandem einkaufen und nicht von 0 selbst damit beginnen. Das wäre Selbstmord.
Wer weiß, vieleicht kann man aus so einer Alianz ja langfristig das Know How abschöpfen und aufbauen, um irgendwann selbst in der Lage zu sein.

Die_Allianz
2013-07-12, 16:48:17
ja und was ist der Unterschied zwischen 'einkaufen' und vertraglich Liefermengen, Preise, Strafen usw. mit einem Lieferanten zu vereinbaren wie man es schon seit Jahrzehnten macht? Das Apple in Zukunft von TSMC kauft ist ja ein alter Hut

Gipsel
2013-07-12, 17:00:08
ja und was ist der Unterschied zwischen 'einkaufen' und vertraglich Liefermengen, Preise, Strafen usw. mit einem Lieferanten zu vereinbaren wie man es schon seit Jahrzehnten macht? Das Apple in Zukunft von TSMC kauft ist ja ein alter Hut
Wenn man sich in eine Firma einkauft, dann ist das mehr als ein Liefervertrag. Man kauft einen Anteil an der Firma (also sich selber in die entscheidenden Gremien der Firma ;)) und nicht nur eine Ware oder Dienstleistung.

edit: Bedeutung zwei ist die passende (http://de.wiktionary.org/wiki/einkaufen).

basti333
2013-07-12, 17:02:26
ja und was ist der Unterschied zwischen 'einkaufen' und vertraglich Liefermengen, Preise, Strafen usw. mit einem Lieferanten zu vereinbaren wie man es schon seit Jahrzehnten macht? Das Apple in Zukunft von TSMC kauft ist ja ein alter Hut

Naja, ich denke die übergänge sind fließend, aber denkbar wäre ja z.B das TSMC und apple gemeinsam eine neue firma gründen die dann eine Fab hinstellt und nur für apple produziert. Kow-how von TSMC und Geld von apple.

Ailuros
2013-07-12, 17:38:04
Ich hab natuerlich nicht die blasseste Ahnung was hinter der paywall im Artikel steht, aber ob eine einfache Investition in eine andere Firma seitens Apple fuer Herstellung oder sogar im unwahrscheinlicheren Fall eigene foundry Plaene ueberrascht es mich nicht, genauso wie es mich auch nicht langfristig bei Qualcomm ueberraschen wird.

Mit den Volumen mit denen Apple momentan umgeht und noch schlimmer in der Zukunft umgehen wird machen Schachzuege in Richtung einer konstant wachsenden Unaebhaengigkeit auch voll Sinn. Noch besser je hoeher die Volumen desto mehr muessen Prioritaeten fuer die Herstellung bzw. zeitige Auslieferung garantiert sein.

Der springende Punkt ist dass langfristig fuer Apple's Herstellung Samsung, Intel und TSMC wohl das nachsehen haben werden. Ich kann mir nicht vorstellen wie Samsung die Herstellungsluecke von Apple langfristig decken koennte, Intel's PC Herstellung schrumpft auch schneller als SFF dazuwaechst und TSMC wird am Ende auch ueber die Schulter glotzen muessen denn auch Qualcomm sucht seit einer Ewigkeit nach einer alternativen foundry in die sie fett investieren koennen.

boxleitnerb
2013-07-12, 17:39:46
Angeblich hat sich Apple in eine Fab eingekauft/sich eine gebaut/eine ganze Fab gekauft:

http://semiaccurate.com/2013/07/12/apple-has-their-own-fab/

Ailuros
2013-07-12, 17:45:13
Angeblich hat sich Apple in eine Fab eingekauft/sich eine gebaut/eine ganze Fab gekauft:

http://semiaccurate.com/2013/07/12/apple-has-their-own-fab/

Eine ganze Seite zu spaet: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9840227&postcount=820

boxleitnerb
2013-07-12, 17:46:30
Sorry...

robbitop
2013-07-12, 17:48:51
Wenn Apple und Qualcomm sich bei TSMC jeweils an einer exklusiven Fab beteiligen, kann TSMC doch fröhlich in die Zukunft schauen. Hinzu kommen sicher auch Synergieeffekte, da Qualcomm und Apple sicherlich top Prozesse verlangen und mitfinanzieren. Die Prozessentwicklung könnte eventuell dann noch entschlossener vorangehen.

Ailuros
2013-07-12, 17:55:44
Wenn Apple und Qualcomm sich bei TSMC jeweils an einer exklusiven Fab beteiligen, kann TSMC doch fröhlich in die Zukunft schauen. Hinzu kommen sicher auch Synergieeffekte, da Qualcomm und Apple sicherlich top Prozesse verlangen und mitfinanzieren. Die Prozessentwicklung könnte eventuell dann noch entschlossener vorangehen.

http://semiaccurate.com/forums/showthread.php?t=7280

*schulterzuck* klingt mir alles nicht nach den ueblichen "Kandidaten".

***edit: http://www.xbitlabs.com/news/other/display/20130710235557_Samsung_Looking_Forward_to_Make_Chips_for_Amazon_Nvidia_Sony_Repo rt.html

War es nicht SA das unendlich trommelte dass Apple ein Riesenproblem mit dem rechtlichen Unfug gegen Samsung haben wird? Ich sehe nach wie vor dass Samsung das eigentliche Problem am Ende hat und nein die Luecke von Apple ist zu gross um es mit dem erwaehnten zu fuellen.

Screemer
2013-07-12, 18:05:31
umc oder smic vieleicht? die wären auch in nem preisbereich den man rechtfertigen könnte. letztere sind technologisch aber mindestens 2-3 prozessschritte hinten an. umc soll aber schon bald 20nm finfet produzieren können, wenn ich das richtig verstanden hab.

AffenJack
2013-07-12, 18:22:17
Ich hab natuerlich nicht die blasseste Ahnung was hinter der paywall im Artikel steht, aber ob eine einfache Investition in eine andere Firma seitens Apple fuer Herstellung oder sogar im unwahrscheinlicheren Fall eigene foundry Plaene ueberrascht es mich nicht, genauso wie es mich auch nicht langfristig bei Qualcomm ueberraschen wird.


Bis auf TSMC, Intel, GF und Samsung gibts kaum jemanden der Apple einfach mal so ne Fabrik hinstellen kann. Bei ersterer Option wird man aber kaum was vom Knowhow sehen, sondern nur für die Kapazitäten zahlen und die Kandidaten sind alle groß genug, dass sie sich schon das sehr gut bezahlen lassen werden. Da wäre GF noch der eheste Kandidat, allerdings glaube ich kaum, dass die Scheichs da groß Macht aufgeben werden. Ich kann mir gut vorstellen, dass Apple aber mehr will und irgendwen kleineren aufkauft. Apple denkt auch nicht so kurzfristig und kann gut einige Jahre bei TSMC bleiben, während man dann der Common Platform beitritt und durch genug Geldeinsatz ihre Fabrik aufbaut.


Der springende Punkt ist dass langfristig fuer Apple's Herstellung Samsung, Intel und TSMC wohl das nachsehen haben werden. Ich kann mir nicht vorstellen wie Samsung die Herstellungsluecke von Apple langfristig decken koennte, Intel's PC Herstellung schrumpft auch schneller als SFF dazuwaechst und TSMC wird am Ende auch ueber die Schulter glotzen muessen denn auch Qualcomm sucht seit einer Ewigkeit nach einer alternativen foundry in die sie fett investieren koennen.

Ich sehe bei den keine großen Probleme im Moment, Samsung muss einfach entweder auf stärker eigene SoCs setzen oder deutlich mehr für Qualcomm produzieren. Sollte man Auslastungsprobleme bekommen, weil Qualcomm eigene Fabs will, haut man Qualcomm aus den Samsungphones raus und setzt voll auf eigene Chipentwicklung. Groß genug ist Samsung um das auch alleine hinzukriegen. Bei QC bin ich mir deshalb auch gar nicht so sicher, obs wirklich eigene Foundries werden, weil das Risiko Samsung zu verlieren einfach beträchtlich ist.
Intel wird im SFF mit der nun aggressiveren Strategie im SFF auch deutlich wachsen und seine Kapazitäten auslasten und TSMC schaffts meist ja nichtmal zu liefern, weil die Kapazitäten zu gering sind. Wenns da mal bisschen entspannung gibt, wäres auch nicht so schlimm.

@screemer
Ist Stmicro wirklich so hintendran? Mir scheint das Knowhow, auch zusammen mit Soitec was die haben ist ziemlich gut. Das Problem ist daraus was zu machen, da es ST einfach finanziell jetzt nicht überragend gut geht. Die wären auch mein Tip gewesen. Billig, gutes Knowhow, kann man durchaus was draus machen mit etwas Geldeinsatz.

Ailuros
2013-07-12, 18:53:19
Ich sehe bei den keine großen Probleme im Moment, Samsung muss einfach entweder auf stärker eigene SoCs setzen oder deutlich mehr für Qualcomm produzieren. Sollte man Auslastungsprobleme bekommen, weil Qualcomm eigene Fabs will, haut man Qualcomm aus den Samsungphones raus und setzt voll auf eigene Chipentwicklung. Groß genug ist Samsung um das auch alleine hinzukriegen. Bei QC bin ich mir deshalb auch gar nicht so sicher, obs wirklich eigene Foundries werden, weil das Risiko Samsung zu verlieren einfach beträchtlich ist.

Leicher gesagt als getan; nach den angehaeuften Problemen seitens Samsung LSI (hw Probleme beim 5410 und noch weitere 4 stornierte SoCs aus Samsung's eigener roadmap), will Samsung mobile vorruebergehend nichts mehr von den Exynos SoCs hoehren. Es sollen lediglich 10-20% von den insgesamten S4 smartphones eigene SoCs abbekommen haben und nach Geruechten will Samsung mobile fuer das S5 nur noch Qualcomm SoCs benutzen.

Ja natuerlich steigt Apple nicht zu 100% morgen aus sondern Schritt fuer Schritt ueber die Jahre, aber wenn Samsung erstmal ihre Herstellungskapazitaeten mit eigenen SoCs decken koennten wuerden sie auch nicht nach potentiellen Kunden herumfischen wie der Link selber angiebt.

Intel wird im SFF mit der nun aggressiveren Strategie im SFF auch deutlich wachsen und seine Kapazitäten auslasten und TSMC schaffts meist ja nichtmal zu liefern, weil die Kapazitäten zu gering sind. Wenns da mal bisschen entspannung gibt, wäres auch nicht so schlimm.

Na irgendwann werden sie es natuerlich schon schaffen, bleibt aber die Frage wie viel zusaetzlichen Boden bis dann Apple und Qualcomm in der Zwischenzeit dazugewonnen haben.

@screemer
Ist Stmicro wirklich so hintendran? Mir scheint das Knowhow, auch zusammen mit Soitec was die haben ist ziemlich gut. Das Problem ist daraus was zu machen, da es ST einfach finanziell jetzt nicht überragend gut geht. Die wären auch mein Tip gewesen. Billig, gutes Knowhow, kann man durchaus was draus machen mit etwas Geldeinsatz.

Schon immer! ST Micro hatte immer nur billigscheiss Prozesse in Malta und fuer etwas anspruchsvolleres wurde durch die Jahre alles an andere foundries verschickt. Es wuerde mich verdammt ueberraschen wenn sie heute sogar einen 40/45nm Prozess haben sollten ;D

Bis zum Punkt wo sie die mobile Linie fuer ST_Ericsson einstampften stellten sie ihre Novathor SoCs auch bei dritten foundries her.

Screemer
2013-07-12, 19:09:33
ich war eher bei smics (http://www.smics.com/eng/index.php). st wäre aber auch denkbar und vor allem noch viel billiger.

robbitop
2013-07-12, 19:15:02
http://semiaccurate.com/forums/showthread.php?t=7280

*schulterzuck* klingt mir alles nicht nach den ueblichen "Kandidaten".

***edit: http://www.xbitlabs.com/news/other/display/20130710235557_Samsung_Looking_Forward_to_Make_Chips_for_Amazon_Nvidia_Sony_Repo rt.html

War es nicht SA das unendlich trommelte dass Apple ein Riesenproblem mit dem rechtlichen Unfug gegen Samsung haben wird? Ich sehe nach wie vor dass Samsung das eigentliche Problem am Ende hat und nein die Luecke von Apple ist zu gross um es mit dem erwaehnten zu fuellen.
Ich weiß nicht - es gibt nicht viele Parteien, die gute Prozesse anbieten. Vor dem Hintergrund um die ganzen Verhandlungen mit TSMC und dieser Meldung
http://hothardware.com/Reviews/GameChanger-TSMC-May-Build-Dedicated-Apple-Fab/
sieht es eher nach TSMC aus.

Was wären denn potenzielle Partner?

Intel
GF
TSMC
UMC
IBM
Samsung
Toshiba
ST

- Samsung wird es nicht, Apple will sich dort ja lösen.
- Intel wird das sicher nicht tun. Die geben ungern ihren Fertigungsvorteil ab.
- UMC ist immer ein Stückchen hinter allen anderen .... meh
- IBM bietet AFAIK jetzt nicht sooo viele Prozesse an und ist nicht in aller erster Linie ein Fremdfertiger
- Analog zu IBM und UMC ist Toshiba einzuortnen
- ST macht eher zu

Bleiben noch als wahrscheinliche Kandidaten Global Foundries und TSMC.

TSMC ist größer und hat den besseren Track Record. Auch sind sie bei 28 nm weiter (was ein Indikator für die Zukunft sein könnte).
Hinzu kommen die ganzen Meldungen im Zusammenhang zwischen TSMC und Apple im letzten Jahr. Es sieht sehr wahrscheinlich nach TSMC aus ... IMO

Ailuros
2013-07-12, 19:19:57
SA hat den newsblurb wieder zurueckgezogen, etwas kuerzer gestaltet und wieder veroeffentlicht :freak: :biggrin:

Ailuros
2013-07-13, 10:59:05
http://appleinsider.com/articles/13/07/12/rumor-apple-buys-into-chip-fab-plans-to-build-its-own-silicon

Apple's alleged buy-in to an unnamed chip fabrication plant is not a "trivial" investment, a report published Friday by SemiAccurate claims. The full report remains hidden behind a $1,000-per-year paywall, but tags accompanying the story may reveal Apple's rumored mystery partner: United Microelectronics Corporation.

Wenn's tatsaechlich UMC sein sollte, erstmal ein ziemlich starker blow gegen Qualcomm, denn sie waren auch an grossen Investitionen in UMC interessiert; jemand hat wohl mehr angeboten ;)

***edit: falscher Alarm; jemand im SA forum der wohl Zugang hat sagte gerade es waere falsch :(

robbitop
2013-07-13, 11:21:26
Apple braucht einen guten Fertiger - die besten Prozesse, die verfügbar sind. UMC wäre in dieser Hinsicht die falsche Wahl. Die ideale Wahl wäre Intel - aber die wollen das sicher nicht.

AffenJack
2013-07-13, 14:04:10
Es kommt wie schon geschrieben drauf an, ob man nur ne Fab für sich oder das Knowhow haben will. Das Knowhow der besten Prozesse wird man nicht kriegen. Auch TSMC wird nen Teufel tun und son Angebot annehmen. Einzig Gf wäre der einzige Kandidat von den besseren. UMC seh ich auch eher mit Qualcomm gerade.

Zu ST: Sie haben glaube keine Fabrik mehr, die aktuelle Prozesse produziert, weil sie einfach kein Geld mehr haben. Aber ne Forschung für die neuen Prozesse haben sie weiterhin. FD-Soi in 20 nm haben sie doch glaube ich auch mitentwickelt. Also haben sie durchaus das Knowhow. Auf den Rest von ST könnte man verzichten und dann Fabs in nem Jointventure aufbauen.

Aber wenn die Meldung stimmt, müssten wir ja in den nächsten Tagen dann wirklich davon hören. Solch große Investitionen müssen doch auf dem Aktienmarkt vermeldet werden oder?

basti333
2013-07-13, 14:20:49
Aber wenn die Meldung stimmt, müssten wir ja in den nächsten Tagen dann wirklich davon hören. Solch große Investitionen müssen doch auf dem Aktienmarkt vermeldet werden oder?

Also Firmenkäufe müssen natürlich gemeldet werden, Joint Ventures aber nur bedingt. Apple hat Investitionen in Zulieferer in der Vergangenheit nur als Zahl in seinen regulären Geschäftsberichten veröffentlicht, ohne Nennung irgendwelcher Details. Ich wüsste nicht warum eine Investitionen von sagen wir einer Miliarde in Sharp anders veröffentlicht werden sollte als meinetwegen 10 Milliarden in TSMC oder so. Btw. es gab in einen der letzten Quartalsberichte (frag mich jetzt nicht genau welcher, aber ist nicht lange her) auch einen ungewöhnlich großen Posten unter den Investitionen in Equitment and irgendwas (wo halt die ganze Fertigungsausrüstung reinfällt). Da ging es auch um einen hohen milliardenbetrag, schon damals gab es Spekulationen das man diese Summe eigentlich nur mit einer -wie auch immer gearteten- Investition in eine Fab erklären kann.

Ailuros
2013-07-13, 14:38:23
Zu ST: Sie haben glaube keine Fabrik mehr, die aktuelle Prozesse produziert, weil sie einfach kein Geld mehr haben. Aber ne Forschung für die neuen Prozesse haben sie weiterhin. FD-Soi in 20 nm haben sie doch glaube ich auch mitentwickelt. Also haben sie durchaus das Knowhow. Auf den Rest von ST könnte man verzichten und dann Fabs in nem Jointventure aufbauen.

Sie hatten NIE eine foundry die etwas mit aktuellen Prozessen zu tun hatte. FD-SOI war fuer Herstellung bei GloFo Samsung gedacht.

Die_Allianz
2013-07-13, 16:57:34
was ist jetzt eigentlich die Information?
Neue Fab? Alte Fab?
Steht Apple drauf? Steht UMC drauf? Steht TSMC drauf? Oder doch Intel?
Steht die Fab schon oder wird erst gebaut? Wo?

Also wenn der "Insider-Hans-Wurst" 1000$ für die Info will sollte doch irgendwas belastbares drinstehen, oder? Rumspinnen kann jeder...

Ailuros
2013-07-13, 19:21:30
was ist jetzt eigentlich die Information?
Neue Fab? Alte Fab?
Steht Apple drauf? Steht UMC drauf? Steht TSMC drauf? Oder doch Intel?
Steht die Fab schon oder wird erst gebaut? Wo?

Also wenn der "Insider-Hans-Wurst" 1000$ für die Info will sollte doch irgendwas belastbares drinstehen, oder? Rumspinnen kann jeder...

Na zumindest haben wir mal wieder Material zum spekulieren und dazu noch umsonst :wink:

Mich wundert ehrlich wieso nichts von den subscribers nach aussen leaked.

smalM
2013-07-14, 03:05:52
TSMC hat doch schon Milliardenangebote sowohl von Apple als auch von Qualcomm ausgeschlagen, weil sie die alleinige Kontrolle über ihre Fabs behalten wollten. Auch hat TSMC keine Probleme die ca. 9,5 Mrd.$ Investitionskosten für 2013 zu stemmen. Woher soll also der Sinneswandel kommen?

@basti333
Apple Investitions-Ausgaben für 2012 lagen bei 10,3 Mrd.$, vorher geplant waren 8 Mrd.$. Geplant für dieses Jahr sind 9,5 Mrd.$. Das bezieht sich natürlich auf Apples Finanzjahr.

Coda
2013-07-14, 11:41:41
Apple braucht einen guten Fertiger - die besten Prozesse, die verfügbar sind. UMC wäre in dieser Hinsicht die falsche Wahl. Die ideale Wahl wäre Intel - aber die wollen das sicher nicht.
Schmeißen sie halt Geld drauf und fertigen so lange noch wo anders weiter. Seh ich jetzt nicht so das Problem.

Ailuros
2013-07-14, 15:50:15
Schmeißen sie halt Geld drauf und fertigen so lange noch wo anders weiter. Seh ich jetzt nicht so das Problem.

Gilt auch natuerlich fuer jegliche andere Option ausserhalb von UMC, eben um jegliches Risiko zu minimalisieren. Hiess es nicht in den Medien dass Apple angeblich einen 4-Jahres Vertrag mit TSMC abgeschlossen hat? Zeit genug um vieles auf die Beine zu stellen.

basti333
2013-07-14, 15:57:13
wie schwer bzw. risikoreich wäre es denn für Apple ohne eine Foundry zu übernehmen komplett von vorne anzufangen und bspw. der IBM-Entwicklerallianz beizutreten. Könnte man so nicht auch an viel know-how kommen?

AffenJack
2013-07-14, 16:24:10
Ohne jemanden der zumindest schonmal etwas Erfahrung in dem Bereich hat ist das äußerst risikoreich und arg teuer. Die Entwickleerallianz überlässt dir das Knowhow auch nicht einfach so weil sies kann. Du musst selber möglichst was liefern können was den Mitgliedern auch was bringt oder dich da teuer einkaufen. Es dürfte deutlich risikoärmer und billiger sein jemanden zu übernehmen, der zumindest halbwegs Erfahrung hat.

@Ailuros
Digitimes oder so meinte glaube von 20nm -10nm, also 3 Prozesse ist der Vertrag. Bei 10 nm sindwa mit 4 Jahren aber schon eher recht optimistisch. KA wies nun wirklich ist, aber genug Zeit was aufzubaun wäre schon.

robbitop
2013-07-14, 16:26:38
Mich wundert ehrlich wieso nichts von den subscribers nach aussen leaked.

Vieleicht hat er einfach keine. :D

Ailuros
2013-07-14, 18:25:00
@Ailuros
Digitimes oder so meinte glaube von 20nm -10nm, also 3 Prozesse ist der Vertrag. Bei 10 nm sindwa mit 4 Jahren aber schon eher recht optimistisch. KA wies nun wirklich ist, aber genug Zeit was aufzubaun wäre schon.

Ok das aendert natuerlich einiges; minimum 6 Jahre und selbst das ist optimistisch.

Vieleicht hat er einfach keine. :D

Dann haette er seit langem die Seite dicht machen muessen. Finanziell stand SA vor der paywall ziemlich schlecht da.

deekey777
2013-07-15, 18:06:10
Samsung Regains Its Biggest Client Apple (http://english.hankyung.com/news/apps/news.view?c1=&newscate=1&nkey=201307150718011)
Apple reportedly taps Samsung to build A9 SoCs for 2015 iPhones, iPads (http://appleinsider.com/articles/13/07/14/apple-reportedly-taps-samsung-to-build-a9-socs-for-2015-iphones-ipads)
A report from the Far East on Sunday claims Apple will go back to smartphone rival Samsung for production of its next-generation iOS device processors, with ramp-up and deployment scheduled for 2015.

Papier ist geduldig.

Ailuros
2013-07-15, 19:50:15
Hahaha....man dreht sich ein paar mal im Kreis und Verzweiflung regelt den Rest :biggrin:

Ailuros
2013-08-01, 13:44:34
http://www.xbitlabs.com/news/mobile/display/20130731235135_Apple_Develops_iPad_Mini_with_New_Application_Processor_Same_Non_ Retina_Display.html

Daemlicher geht es nicht wenn es stimmen sollte; kurz ein A6 SoC aber immer noch mit einem 1024*768 display. Faellt mir aber verdammt schwer zu verdauen.

It looks like triple-cluster graphics engines with dual-channel memory sub-systems were not designed for ultra-high resolutions.

Woher kommt jetzt wieder der Mist? Man muss nicht alles in 2048 rendern in dem Fall und fast 2 GTexels/s Fuellrate im A6 sind mehr als genug fuer so ein Geraet.

Wenn's stimmt klingt es eher danach als ob Apple nicht genug 2048/7" displays finden kann.

robbitop
2013-08-01, 14:02:33
Das wäre fürchterlich. In 2013 noch ein XGA Tablet? :|

Interessant ist folgender Absatz


Theoretically, Apple may be developing two generations of Apple iPad mini at the same time: one will be J75/J76/J77, which will feature fast processor and old displays; another is J85/J86/J87, which will feature new SoC and new reting-class display.

Ergo ein low cost iPad Mini mit A6 und XGA Display und ein höherpreisiges mit A6 und Retina Display.

sth
2013-08-01, 14:13:12
Gleichzeitig berichtet das Journal nun doch von einem Retina-Display: http://www.macrumors.com/2013/08/01/next-ipad-mini-likely-to-have-retina-display-possibly-multiple-colors-of-back-covers/

Ich würde auf den ganzen Kram im Moment nicht viel geben. Im Herbst wird sich zeigen, was Sache ist. IMHO ist ein Retina-Display für das Mini ein Muss, aber das heißt nicht, dass es auch kommt.

lumines
2013-08-01, 14:49:45
Ergo ein low cost iPad Mini mit A6 und XGA Display und ein höherpreisiges mit A6 und Retina Display.

Na ja, ich weiß nicht. Das wäre eigentlich nicht Apples Stil. Wenn sie aber wirklich auch ein Low End iPhone bringen würden, wäre das schon wieder realistischer. Bisher haben sie im Low End ja einfach nur die alten Geräte angeboten. Das ergibt für sie auch Sinn, weil so die Plattform leistungstechnisch geringer fragmentiert.

robbitop
2013-08-01, 16:22:56
Tja ich habe auch nie verstanden, warum man davon abrücken will. Andererseits muss man sagen, dass die Vorjahresmodelle beim Neukauf auch nie attraktiv waren. Die waren oftmals auf 8 GB Speicher beschnitten und dennoch nur ~100 € günstiger.

Bei 16 GB und 200 € Preisdifferenz hätte das wohl anders ausgesehen. Aber so viel verbilligte sich die Produktion für Apple offenbar nicht, so dass man sich sonst evtl zu sehr Konkurrenz im eigenen Hause gemacht hätte.

Ailuros
2013-08-05, 13:14:19
http://gfxbench.com/device.jsp?benchmark=gfx27&D=Apple%20iPad%204

Am Rand: als GLB2.7 erschienen ist landete das iPad4 840 frames in 1080p offscreen. Heute bei 1072 frames, ergo einer bisherigen Steigerung von 28%.

Es liegt noch einiges in compiler/Treibern nur muessen sich auch die IHVs die Zeit nehmen das Potential herauszuquetschen; im gegebenen Fall Apple mit IMG's compiler updates.

Sonst gab es in letzter Zeit fuer was jede mobile GPU Spruenge in GLB2.7 (weil der benchmark auch relativ jung ist), aber in der Mehrzahl nicht so deutlich wie im gegebenen Fall.

deekey777
2013-08-16, 14:31:24
Apple's A7 SoC expected to be 20% more efficient, debut in 'iPhone 5S' (http://appleinsider.com/articles/13/08/15/apples-a7-soc-expected-to-be-20-more-efficient-debut-in-iphone-5s)
By stepping up to ARMv8, and tweaking hardware and software packages, Kuo believes Apple will manage to squeeze out a 20 percent increase in efficiency over the A6.

Boosting those numbers is the inclusion of LPDDR3 RAM, a faster memory specification than the LPDDR2 modules used in the A6. The increased bandwidth will allow Apple to maintain a relatively small amount of dedicated memory. Kuo expects the A7 to carry the same 1GB of on-die RAM seen with with the previous generation chip.

Kuo notes that there is no clear evidence indicating whether the A7 will support 32-bit or 64-bit processes, but says he "would not be surprised" to see 64-bit support this year. If 64-bit isn't included in the A7, however, Kuo says manufacturing trends will likely push Apple in that direction if and when a next-generation "A8" processor is released.

Nightspider
2013-08-16, 14:48:23
Wehe wenn die wieder nur 1GB RAM verbauen beim iPad5.

Ailuros
2013-08-16, 14:50:58
Wehe wenn die wieder nur 1GB RAM verbauen beim iPad5.

Keine Ahnung; auf jeden Fall ist der A7 SoC oben wohl nur fuer's iPhone5S.

robbitop
2013-08-16, 14:51:52
ARMv8? :eek: Entweder steckt ein Cortex A57 drin oder Apple hat schon wieder eine CPU mit neuer µ-Architektur entwickelt! (oder das Gerücht ist hoax)

By stepping up to ARMv8, and tweaking hardware and software packages, Kuo believes Apple will manage to squeeze out a 20 percent increase in efficiency over the A6.


Kuo notes that there is no clear evidence indicating whether the A7 will support 32-bit or 64-bit processes

Das ist ja ein halber Widerspruch. ARMv8 ist eine 64 bit ARM ISA. Oben wird gesagt, der A7 hat ARMv8 und unten wird es indirekt angezweifelt. Als würde der Typ diesen Zusammenhang gar nicht kennen. :|

Nightspider
2013-08-16, 14:54:04
Ist das Cortex A57 Design überhaupt schon fertig?
Dann hätte man doch auch von Mitbewerbern gehört, das diese an SoCs damit arbeiten.

Ailuros
2013-08-16, 14:56:33
ARMv8? :eek: Entweder steckt ein Cortex A57 drin oder Apple hat schon wieder eine CPU mit neuer µ-Architektur entwickelt! (oder das Gerücht ist hoax)

Waere es nicht verdammt daemlich von einer custom ISA CPU auf einen A57 zu steigen? Wenn werden sie das ARMv8 ISA benutzen und nein es ist keine Pflicht 64bit zu benutzen in dem Fall.

Nein es ist kein hoax; ich erwaehne schon einige Zeit in meinen Apple Spekulationen "Swift2".

LadyWhirlwind
2013-08-16, 15:04:11
Ich versteh zuwenig davon um das beurteilen zu können:
- Wie wirkt sich 64-bit auf den Stromverbrauch aus
- Auf das Performance/Watt Verhältnis
- Auf die SoC Kosten/Die-Fläche?

Ich bezweifle nämlich das Apple just for fun 64-bit implementieren wird.

Undertaker
2013-08-16, 15:06:04
Waere es nicht verdammt daemlich von einer custom ISA CPU auf einen A57 zu steigen?

Unabhängig vom Thema Apple: Warum sollte es das sein? Ein Custom Core macht Sinn, wenn man sich dadurch eine höhere Effizienz, eine frühere Verfügbarkeit oder niedrigere Lizenzgebühren verspricht. Die ersten beiden Punkte können (müssen aber natürlich nicht) auch bei einem gelungenen Design direkt von ARM zutreffen.

robbitop
2013-08-16, 15:06:32
Ist das Cortex A57 Design überhaupt schon fertig?
Dann hätte man doch auch von Mitbewerbern gehört, das diese an SoCs damit arbeiten.
Das Design ist sicherlich fertig. Aber bis ein Design auch in einen SoC integriert wird und dieser gefertigt wird, kostet nochmal richtig Zeit.

Aber siehe unten:


Waere es nicht verdammt daemlich von einer custom ISA CPU auf einen A57 zu steigen? Wenn werden sie das ARMv8 ISA benutzen und nein es ist keine Pflicht 64bit zu benutzen in dem Fall.
Das ist mir schon klar. Aber dennoch nenne ich alle Möglichkeiten (der Vollständigkeit halber) - egal wie wahrscheinlich sie sind.

Nein es ist kein hoax; ich erwaehne schon einige Zeit in meinen Apple Spekulationen "Swift2".
Das wäre aber wirklich extrem... Nach einem Jahr schon wieder eine neue µ-Arch? Wenn das stimmt, dann chapeau Apple!

Qualcomm und ARM haben eine µ-Arch bis dato immer ~2 Jahre gehabt und haben diese dann schrittweise aufgebohrt.

Ich versteh zuwenig davon um das beurteilen zu können:
- Wie wirkt sich 64-bit auf den Stromverbrauch aus
- Auf das Performance/Watt Verhältnis
- Auf die SoC Kosten/Die-Fläche?

Ich bezweifle nämlich das Apple just for fun 64-bit implementieren wird.

Ich könnte mir vorstellen, dass das Instructionset per se schlanker oder effizienter ist und man die Decoder weniger aufbläht.

Ailuros
2013-08-16, 15:27:51
20% Leistungssteigerung klingt mir nicht nach einer neuen Architektur, lass mich aber gerne eines besseren belehren.

Nightspider
2013-08-16, 15:35:12
20% klingt um genau zu sein nach 20nm. :D *duckundweg*

Ist bekannt wie groß das Entwicklerteam bei Apple ist (im Vergleich zu ARM und QualComm Teams)?

robbitop
2013-08-16, 15:46:35
@Ail
Da stand "efficiency" nicht Leistungssteigerung. Der SoC kann bei gleicher Leistung auch 20 % weniger verbrauchen. Oder er kann bei gleichem Verbrauch 20 % schneller sein. Das kann auch zu Teilen aus höheren Taktraten resultieren.

Ailuros
2013-08-16, 15:55:34
Unabhängig vom Thema Apple: Warum sollte es das sein? Ein Custom Core macht Sinn, wenn man sich dadurch eine höhere Effizienz, eine frühere Verfügbarkeit oder niedrigere Lizenzgebühren verspricht. Die ersten beiden Punkte können (müssen aber natürlich nicht) auch bei einem gelungenen Design direkt von ARM zutreffen.

Nur sehe ich persoenlich nichts vielversprechendes bei ARM A5X dass Apple dazu treiben wuerde die Swift Weiterentwicklung aufzugeben. Wenn Apple die Lizenzgebuehren loswerden will, brauchen sie nur eine CPU zu 100% selber entwickeln welches IMHO kurzfristig schon kommen wird aber eben noch nicht mit A7-wasauchimmer.

20% klingt um genau zu sein nach 20nm. :D *duckundweg*

Ist bekannt wie groß das Entwicklerteam bei Apple ist (im Vergleich zu ARM und QualComm Teams)?

20nm ist 2014/A8.

@Ail
Da stand "efficiency" nicht Leistungssteigerung. Der SoC kann bei gleicher Leistung auch 20 % weniger verbrauchen. Oder er kann bei gleichem Verbrauch 20 % schneller sein. Das kann auch zu Teilen aus höheren Taktraten resultieren.

Ich weiss schon was er genau meinte; es sind +20% die im Hintergrund herumschleichen pro Takt, Apple wird etwas hoeher takten und hoechstwahrscheinlich auf quad steigen.

robbitop
2013-08-17, 13:17:41
Zum Quadcore: Das ist anzunehmen. Alles andere wäre langsam auch nicht mehr zeitgemäß.

20 % mehr IPC, dazu mehr Takt und doppelte Anzahl von Kernen. Das ist schon ziemlich nett. Dazu kommt vermutlich mit Rogue auch eine anständige Leistungssteigerung der GPU.

sth
2013-08-17, 15:28:57
Wichtiger als ein QuadCore im nächsten iPhone wäre mir ehrlich gesagt neben Rogue (und damit OpenGL ES 3) vor allem schnellerer Flash-Speicher, denn die Ladezeiten von Apps etc. sind mittlerweile selten CPU-limitiert. Dazu am besten ein Lightning-Port mit USB3. Auch gegen 2GB RAM hätte ich nichts einzuwenden.

Aber ich gehe trotzdem davon aus, dass ein QuadCore kommt und wie ich Apple kenne, werden sie beim RAM wieder knausern (also bei 1GB bleiben). Das reicht momentan unter iOS zwar aus, wird aber angesichts der neuen Möglichkeiten von iOS7 (z.B. Inter-App Audio) wieder schnell zu einem limitierenden Faktor werden.

robbitop
2013-08-17, 19:04:45
Ich habe mit meinem iPhone 5 eigentlich keine Sorgen mit den App-Ladezeiten. Einzig der Appstore ist IMO irgendwie langsam. Könnte aber auch am Abruf der Daten liegen. (Zeit bis er bspw die Updates anzeigt).

Ich halte blindes Wettrüsten der Specs eher für nebensächlich. Die Erfahrung mit dem Gerät muss einfach stimmen.

sth
2013-08-17, 21:42:35
Ich habe mit meinem iPhone 5 eigentlich keine Sorgen mit den App-Ladezeiten.
Als Nutzer fällt es einem vermutlich nicht oft auf, aber als Entwickler merke ich schon, wo die Ladezeiten limitieren. Ich muss dazu sagen: Es wird mit jeder Gerätegeneration etwas besser, aber ich würde mir in diesem Bereich einen richtigen Umbruch wünschen, wie damals der Schritt von 1x Cortex A8 auf 2x Cortex A9, oder vom SGX535 auf den SGX543MP. Das waren Schritte, die nicht nur eine leichte Verbesserung gebracht haben, sondern plötzlich ganz neue Möglichkeiten eröffnet haben, die man vorher nicht einmal in Erwägung gezogen hat.

Schau' dir mal Anwendungen an, die mit großen Datenmengen hantieren, z.B. GarageBand oder iMovie. Da merkt man schon recht extrem, dass die I/O-mäßig am Limit sind. Apple ist recht gut darin, soetwas zu kaschieren (z.B. mit ausgedehnten Animationen), aber es fehlt einfach die "Snappiness", die man von anderen Anwendungen gewohnt ist.

Einzig der Appstore ist IMO irgendwie langsam. Könnte aber auch am Abruf der Daten liegen. (Zeit bis er bspw die Updates anzeigt).
Das liegt primär daran, dass Apple keine Webservices kann. ;)

Ich halte blindes Wettrüsten der Specs eher für nebensächlich. Die Erfahrung mit dem Gerät muss einfach stimmen.
Dito. Daher wünsche ich mir ja auch Dinge, die nicht unbedingt marketingtauglich sind.

Nightspider
2013-08-17, 21:51:00
Vielleicht nutzt man auch bald den neuen V-NAND (3D-NAND) von Samsung, der kompakt ist und sehr hohe Leistung mit höherer Lebensdauer kombiniert.

deekey777
2013-08-25, 20:38:47
Apple said to have tested 64-bit ‘A7′ chips for iPhone 5S, 31% speed increases reported (http://9to5mac.com/2013/08/25/apple-said-to-have-tested-64-bit-a7-chips-for-iphone-5s-31-speed-increases-reported/)

Silly season oder was?

Die_Allianz
2013-08-25, 20:50:28
Apple said to have tested 64-bit ‘A7′ chips for iPhone 5S, 31% speed increases reported (http://9to5mac.com/2013/08/25/apple-said-to-have-tested-64-bit-a7-chips-for-iphone-5s-31-speed-increases-reported/)

Völlig egal, oder? Das iPhone 5S mit A7 wird iOS 7 und 8 sicher flüssig darstellen und mit iOS9 auch keine echten Probleme haben. Das ist was für den Kunden zählt

sth
2013-08-25, 20:58:24
Ich glaube es ging deekey777 eher um den Artikel an sich: Als ob 64bit ein Feature wäre, über welches man "mal eben" kurz vor Markteinführung entscheidet, oder Effekte wie der Blur in iOS7 CPU-basiert wären.

Der Artikel scheint mir eher wie die eine Sammelstelle für wahllose Gerüchte, die der Autor (mehr schlecht als Recht) versucht hat in einen Kontext zu setzen.
Ergo: Jup -> Silly season. Vermutlich nichts anderes als Clickbait.

Nightspider
2013-08-25, 21:04:12
Apple muss doch nur etwas den Takt anheben.
Vor allem wenn die von Apple entwickelten CPU-Kerne so effizient sind wie manche vermuten.

Wobei DualCore schon wieder traurig wäre in anbetracht der winzigen Größe der CPU-Kerne.

sth
2013-08-25, 21:08:43
Wobei DualCore schon wieder traurig wäre in anbetracht der winzigen Größe der CPU-Kerne.
Wenn's dafür best-in-class Akkulaufzeit gäbe, wäre das in meinen Augen dieses Jahr noch vertretbar.

Nightspider
2013-08-25, 21:09:54
Das kann Apple bei dem kleinen Akku eh nicht schaffen.

Die_Allianz
2013-08-25, 21:10:43
Ich glaube es ging deekey777 eher um den Artikel an sich: Als ob 64bit ein Feature wäre, über welches man "mal eben" kurz vor Markteinführung entscheidet, oder Effekte wie der Blur in iOS7 CPU-basiert wären.

ja hab ich auch so verstanden.
Trotzdem wollte ich eben zur news sagen das es ziemlich wurscht ist ob ich mein iPhone jetzt mit 64 oder 32 bit flüssiger nutzen kann als das andere Zeug.

Interessant fände ich eher den Stromverbrauch oder inwieweit das Design von Apple kommt

Edit zu der Core-Diskussion oben:
Woran erkennt ihr denn bei der Benutzung obs 2,4 8 oder 16 echte oder logische Kerne hat? Ich könnte nicht behaupten das unterscheiden zu können

sth
2013-08-25, 22:03:03
Das kann Apple bei dem kleinen Akku eh nicht schaffen.
Joa, leicht wird's sicher nicht. Aber bisher schlagen sie sich trotz der geringen Akku-Kapazitäten noch ziemlich gut.

Woran erkennt ihr denn bei der Benutzung obs 2,4 8 oder 16 echte oder logische Kerne hat? Ich könnte nicht behaupten das unterscheiden zu können
Ich würde mal sagen, dass der Schritt von SingleCore zu mehren Cores der einzige ist, den man als User tatsächlich halbwegs unterscheiden kann. Alles Weitere äußert sich in der Praxis eigentlich nur noch in kürzeren Berechnungszeiten bei einigen Anwendungen – aber da kann man als User nicht wirklich erkennen, wodurch diese zustande kommen.
Bei Games würde es auch nur bedingt helfen, da bei Mobile-Plattformen üblicherweise ohnhin keine gleichzeitige Vollauslastung von CPU und GPU möglich ist.

Daher bin ich eben auch der Meinung, dass QuadCore noch kein must-have ist.
Aber auf längere Sicht müssen sie schon am Ball bleiben. Gerade Apple hat mit Programmen wie iPhoto/iMovie/Garageband auf iOS schon einiges am Start, was sogar tatsächlich spürbar von einem QuadCore profitieren könnte.

BlackBirdSR
2013-08-26, 00:14:39
Nur sehe ich persoenlich nichts vielversprechendes bei ARM A5X dass Apple dazu treiben wuerde die Swift Weiterentwicklung aufzugeben. Wenn Apple die Lizenzgebuehren loswerden will, brauchen sie nur eine CPU zu 100% selber entwickeln welches IMHO kurzfristig schon kommen wird aber eben noch nicht mit A7-wasauchimmer.



Welche ISA würde Apple dann idealer Weise verwenden?

=Floi=
2013-08-26, 00:27:42
Völlig egal, oder? Das iPhone 5S mit A7 wird iOS 7 und 8 sicher flüssig darstellen und mit iOS9 auch keine echten Probleme haben. Das ist was für den Kunden zählt


aber mehr ram bräuchte der chip. so kann man das telefon schon zum stocken bringen, weil zu viele apps den speicher verstopfen. imho der flaschenhals.

Ailuros
2013-08-26, 07:19:09
Welche ISA würde Apple dann idealer Weise verwenden?

Etwas mit einer Apfel Unterschrift vielleicht :D

SentinelBorg
2013-08-26, 20:10:41
Ich glaube es ging deekey777 eher um den Artikel an sich: Als ob 64bit ein Feature wäre, über welches man "mal eben" kurz vor Markteinführung entscheidet, oder Effekte wie der Blur in iOS7 CPU-basiert wären.

Der Artikel scheint mir eher wie die eine Sammelstelle für wahllose Gerüchte, die der Autor (mehr schlecht als Recht) versucht hat in einen Kontext zu setzen.
Ergo: Jup -> Silly season. Vermutlich nichts anderes als Clickbait.
ARMV8 muss nicht zwingend volles 64 Bit bedeuten. So wie ich das sehe, könnte Apple durchaus jetzt einen Chip designen, der AArch64 unterstützt, inkl. der ganzen zusätzlichen Vorteile wie die 32 zusätzlichen 128 Bit Register und die neuen Crypto-Befehle sowie den generell aufgeräumten Befehlssatz, dabei aber nur 32 Bit Pointer verwenden. Die ISA unterstützt das im Prinzip, auch wenn es eine etwas seltsame Umsetzung wäre.

robbitop
2013-08-27, 09:58:33
Apple muss doch nur etwas den Takt anheben.
Vor allem wenn die von Apple entwickelten CPU-Kerne so effizient sind wie manche vermuten.

Wobei DualCore schon wieder traurig wäre in anbetracht der winzigen Größe der CPU-Kerne.
Da sieht man die PC/Android Einstellung. ;) Reines Specs-Gedenke.
Wenn man vor der Wahl steht 2 zusätzliche Kerne gegen mehr Akkulaufzeit, höhere Taktraten oder mehr GPU Leistung einzutauschen und weiß, dass mehr als 2 Kerne eh kaum genutzt werden... liegt die Entscheidung doch auf der Hand.

deekey777
2013-08-27, 14:23:26
Also ich hätte gern Kantenglättung in Spielen...

robbitop
2013-08-27, 14:43:27
Spiele auf einem SFF sind verglichen mit PC/Konsole sowieso für die Tonne.

Ailuros
2013-08-27, 15:40:04
Spiele auf einem SFF sind verglichen mit PC/Konsole sowieso für die Tonne.

Behalt mal den Gedanken; mal sehen ob Du den dann in einem Jahrzehnt um 180 Grad drehen musst.

deekey777
2013-08-27, 16:29:37
Spiele auf einem SFF sind verglichen mit PC/Konsole sowieso für die Tonne.
Grundsätzlich ja, ändert nichts daran, dass ich etwas Kantenglättung sehen will.

sth
2013-08-27, 16:42:01
Grundsätzlich ja, ändert nichts daran, dass ich etwas Kantenglättung sehen will.
+1

>300dpi + AA sieht wirklich sehr nice aus.

BlackBirdSR
2013-08-27, 16:44:11
Etwas mit einer Apfel Unterschrift vielleicht :D

Gibts dazu schon mehr Infos?

Wenn es kein ARM mehr wird, muss Apple ja komplett alles neu aufsetzen.
Das ist IMO ein riesen Aufwand, bietet allerdings die Chance, alle Notebooks und Macs gleich mit umzustellen.

robbitop
2013-08-27, 16:51:49
Behalt mal den Gedanken; mal sehen ob Du den dann in einem Jahrzehnt um 180 Grad drehen musst.
An den Grundprinzipien ändert sich nichts. Nicht die Rechenleistung ist das Problem, sondern der Formfaktor.

Grundsätzlich ja, ändert nichts daran, dass ich etwas Kantenglättung sehen will.
Mist wird geglättet nicht besser. Aber ich hab auch nichts dagegen. ;)

sth
2013-08-27, 16:55:24
An den Grundprinzipien ändert sich nichts. Nicht die Rechenleistung ist das Problem, sondern der Formfaktor.
Der Formfaktor erfordert halt neue Spiel- und Eingabekonzepte, genauso wie es im Bereich der normalen Anwendungen auch der Fall ist. Ich denke was diese Entwicklung angeht stehen wir noch ziemlich am Anfang.

deekey777
2013-08-27, 16:57:37
+1

>300dpi + AA sieht wirklich sehr nice aus.
Wenn man auf einem Fernseher spielt, bekommt man von den 321 PPI des iPhone nicht viel. Aber von dem fehlenden AA schon.

sth
2013-08-27, 17:04:41
Wenn man auf einem Fernseher spielt, bekommt man von den 321 PPI des iPhone nicht viel. Aber von dem fehlenden AA schon.
Auf dem Fernseher dominieren leider in erster Linie die MPEG-Artefakte (zumindest bei Airplay), IMHO.

Aber dann wäre da natürlich noch die Frage, wie es mit dem AppleTV weitergeht... ;)

robbitop
2013-08-27, 17:29:29
Mag sein - und dennoch gibt es ergonomische Gesichtspunkte. Das ist hier aber OT.

Ailuros
2013-08-27, 17:34:13
An den Grundprinzipien ändert sich nichts. Nicht die Rechenleistung ist das Problem, sondern der Formfaktor.

Laesst sich alles loesen.

Mist wird geglättet nicht besser. Aber ich hab auch nichts dagegen. ;)

Wenn's schon mit dem AA Zeug sein muss, wieso sollen mich Kanten mehr stoehren als nur bilinear bzw. trilinear gefilterte Texturen. Meine erste Prioritaet waere AF, direkt danach hoehere Aufloesungen auf gleichen Bildflaechen und dann von mir aus MSAA.

***edit: wobei Apple mit Rogue ohnehin schon das schoenste und billigste MSAA im Markt hat; nuetzt mir aber ohne hoehere Aufloesungen und AF wohl nichts.

deekey777
2013-09-10, 19:38:16
64-bit für den A7.
http://live.mac-and-i.de/Event/iPhone-Event/88418323

BlackBirdSR
2013-09-10, 20:28:14
64-bit für den A7.
http://live.mac-and-i.de/Event/iPhone-Event/88418323

Bei allem anderen wäre ich auch sehr enttäuscht gewesen, nach der Intel Folie mit dem Vergleich eines 64 Bit Mobile SOCs eines führenden Herstellers....

Nightspider
2013-09-10, 23:14:37
Also ist der A7 doppelt so groß wie der A6.
Bleibt die Frage was so extrem gewachsen ist.
Die CPU Architektur? Anzahl der CPU-Kerne? GPU?
Beides?

Wenn ich mich nicht irre ist ja jetzt auch ein Teil des SoCs in den M3 Chip gewandert, der zusätzlich verbaut wird.

Ailuros
2013-09-10, 23:28:41
Also ist der A7 doppelt so groß wie der A6.


http://en.wikipedia.org/wiki/Apple_%28system_on_chip%29

A5@45nm = 122.6 mm2
A6@32nm = 96.71 mm2
A7@28nm = 102 mm2

Bleibt die Frage was so extrem gewachsen ist.
Die CPU Architektur? Anzahl der CPU-Kerne? GPU?
Beides?

Wenn ich mich nicht irre ist ja jetzt auch ein Teil des SoCs in den M3 Chip gewandert, der zusätzlich verbaut wird.

Du meinst wohl Transistoren da A7 bei 1Mrd. liegt. Ja der M7 ist dazugekommen. Sonst zweite Generation von Swift, neue GPU Generation (von DX9.0 zu DX10.0) und wohl noch restliches drum und dran das dazukam. Uebermaessig gross ist der SoC aber nicht. Wenn ich mich nicht irre ist z.B. S800 um einiges groesser; ist aber auch egal wo ziemlich wurscht so lange der Stromverbrauch stimmt.

Nightspider
2013-09-10, 23:50:31
Ob für Swift 2 trotzdem ARMs neue 64Bit Architektur lizensiert und Teile davon wiederverwertet wurde? Oder meint ihr das Swift 2 eine komplette Eigenentwicklung ist?

Du hast natürlich Recht. Ich meinte doppelte Transistorzahl und nicht doppelte Die-Größe.

Ailuros
2013-09-11, 00:04:03
Wenn es die komplette Eigenentwicklung auch wirklich gibt dann ab A8 oder A9; IMO hat Apple auch hier das ISA von ARM fuer "Swift2" lizenziert.

Coda
2013-09-11, 00:27:58
Die ISA hat doch nichts mit der Implementierung zu tun. Natürlich sind die Cores Eigenentwicklungen.

Ailuros
2013-09-11, 00:32:29
Die ISA hat doch nichts mit der Implementierung zu tun. Natürlich sind die Cores Eigenentwicklungen.

Nightspider fragte wohl fuer den zukuenftigen Fall wo bei Apple dann womoeglich sogar die ISA Lizenz entfaellt; in solch einem Fall ist es dann zu 100% eine Eigenentwicklung.

Gaestle
2013-09-11, 08:44:06
Wurde schon mal diskutiert, was 64Bit in den nächsten 3 Jahren auf Smartphones/Pads bringen könnten? Ein Adressraum größer 4GB, aber sonst? Sind mehr als 4GB in den nächsten 3 Jahren zu erwarten?

Warum ist Apple auf 64Bit gegangen, was versprechen Sie sich davon?

Ailuros
2013-09-11, 08:49:21
Wurde schon mal diskutiert, was 64Bit in den nächsten 3 Jahren auf Smartphones/Pads bringen könnten? Ein Adressraum größer 4GB, aber sonst? Sind mehr als 4GB in den nächsten 3 Jahren zu erwarten?

Warum ist Apple auf 64Bit gegangen, was versprechen Sie sich davon?

Wenn ich mich nicht irre ist nach Apple 64bit eine Notwendigkeit fuer heterogeneous processing; jetzt aber nicht hauen falls ich etwas falsch verstanden habe ;)

Coda
2013-09-11, 09:30:34
Nightspider fragte wohl fuer den zukuenftigen Fall wo bei Apple dann womoeglich sogar die ISA Lizenz entfaellt; in solch einem Fall ist es dann zu 100% eine Eigenentwicklung.
Wie jetzt? Sie wollen weg von ARM?

Ailuros
2013-09-11, 09:58:15
Wie jetzt? Sie wollen weg von ARM?

Wenn sie es selber schaffen ihre jeweiligen design-Ziele zu erreichen warum nicht? Apple ist eben die Art von Hersteller die tatsaechlich langfristig alles selber entwickeln koennte u.a. auch GPUs.

AffenJack
2013-09-11, 10:19:53
Weil sie damit enorm auf die Fresse fallen könnten und das Risiko riesig für sie ist. Man ist gerade langsam an nen Punkt gelangt, wo man für die Marktanteile kämpfen muss und das Wachstum nicht mehr grenzenlos ist. Die Androids haben sone Qualität erreicht, dass selbst ein Teil der Iphonebesitzer Androidhandys als gleichwertige Alternativen sehen, aber bei IOs bleiben da sie da schon viele Apps haben und Geld investiert haben. Wenn das alles verfällt, weil man erstmal auf ne Portierung warten muss und manche Apps vll nichtmal portiert werden, können auch so einige auf Android wechseln.
Dazu die Kosten die man für die Entwicklung veranschlagen muss, die auch nicht gering sind. Der kleine Obolus an ARM kommt mir da deutlich sinnvoller vor.

Coda
2013-09-11, 10:22:51
Wenn sie es selber schaffen ihre jeweiligen design-Ziele zu erreichen warum nicht?
Ich glaube du verstehst gar nicht was das für Auswirkungen hätte. Das kannst du getrost vergessen.

AnarchX
2013-09-11, 10:26:49
Abgesehen von den laufenden Verträgen könnten die Großen (Apple, Qualcomm, Samsung, ...) eine ARM-Übernahme doch aus der Portokasse stemmen?

Ailuros
2013-09-11, 10:40:54
Ich glaube du verstehst gar nicht was das für Auswirkungen hätte. Das kannst du getrost vergessen.

Ja ARM wird Apple dafuer zwei Mal taeglich umsonst auspeitschen :biggrin:


Dazu die Kosten die man für die Entwicklung veranschlagen muss, die auch nicht gering sind. Der kleine Obolus an ARM kommt mir da deutlich sinnvoller vor.

Es geht Apple nicht um den relativ laecherlichen "Obolus" fuer ARM, sondern um die Flexibilitaet des Designs. Zwar ist laut roadmap IMG mit Rogue noch immer im sicheren Gebiet fuer einige Jahre, aber irgendwann wird sich Apple IMO auch in die Richtung wagen.

basti333
2013-09-11, 10:43:44
http://en.wikipedia.org/wiki/Apple_%28system_on_chip%29

A5@45nm = 122.6 mm2
A6@32nm = 96.71 mm2
A7@28nm = 102 mm2

28nm ist noch nicht bestätigt


Abgesehen von den laufenden Verträgen könnten die Großen (Apple, Qualcomm, Samsung, ...) eine ARM-Übernahme doch aus der Portokasse stemmen?

ARM ist auch so seine 5 Milliarden oder so wert, verglichen mit vielleicht 50 Millionen Lizenzkosten (wenn überhaupt) die Apple jährlich zahlt ist das schon nen Batzen. Aber davon abgesehen ist eine Übernahme schwer, sowohl Apple als auch Intel halten größere Aktienpakete an ARM, vermutlich um genau so einer Übernahme vorzubeugen.

Ailuros
2013-09-11, 10:47:55
28nm ist noch nicht bestätigt

Theoretisch unter 32nm 1Mrd. Transistoren auf 100mm2 will ich nicht den Stromverbrauch sehen und fuer alles <28nm waere es ein ziemlich daemlicher design.


ARM ist auch so seine 5 Milliarden oder so wert, verglichen mit vielleicht 50 Millionen Lizenzkosten (wenn überhaupt) die Apple jährlich zahlt ist das schon nen Batzen. Aber davon abgesehen ist eine Übernahme schwer, sowohl Apple als auch Intel halten größere Aktienpakete an ARM, vermutlich um genau so einer Übernahme vorzubeugen.

Wer sagt dass ARM sich kaufen lassen will? Die Zeiten der feindlichen Uebernahmen sind vorbei.

Coda
2013-09-11, 10:59:03
Ja ARM wird Apple dafuer zwei Mal taeglich umsonst auspeitschen :biggrin:
Lustig. Die ganzen sonstigen Entwickler werden ihnen dafür den Vogel zeigen. Das schließt auch App-Entwickler ein. Glaubst du die haben Bock ihre Assembly-Routinen nochmal neu zu schreiben? Ohne guten Grund?

Ailuros
2013-09-11, 11:14:43
Wo ich mich gerade daran erinnere: was passiert denn theoretisch wenn sie GPU IP wechseln wuerden mit PowerVR TC welches proprietaer ist?

Coda
2013-09-11, 11:25:39
Nichts, das abstrahiert OpenGL ja. Müssen halt die gleichen Extensions unterstützen. Ja, natürlich dann auch die PowerVR TC.

del_4901
2013-09-11, 11:36:51
Nichts, das abstrahiert OpenGL ja. Müssen halt die gleichen Extensions unterstützen. Ja, natürlich dann auch die PowerVR TC.
TC kannst du notfalls in der Runtime (aus)wechseln. Die meissten Games duerften da nicht zeitkritisch sein.

Ailuros
2013-09-11, 12:04:42
Wenn ich mich nicht irre warnt auch Apple die Entwickler davor dass sie PVR TC nicht als gegeben empfinden sollen. Ergo waere ein Wechsel kein Problem, ausser natuerlich wenn man nicht zu etwas wie ASTC umschwingt.

Knuddelbearli
2013-09-11, 15:28:03
Wurde schon mal diskutiert, was 64Bit in den nächsten 3 Jahren auf Smartphones/Pads bringen könnten? Ein Adressraum größer 4GB, aber sonst? Sind mehr als 4GB in den nächsten 3 Jahren zu erwarten?

Warum ist Apple auf 64Bit gegangen, was versprechen Sie sich davon?

Tablet gibt es schon mit 3 GB

Nightspider
2013-09-11, 15:34:05
Ob der A7 im gleichen stromsparenden Prozess gefertigt wird, wie der S800?

SentinelBorg
2013-09-11, 16:54:31
Ich vermute die frühe Implementierung von AArch64 kommt auch daher, dass Apple eventuell eine grössere Version des Chips sich für das MacBook Air und somit OS X überlegt hat. Quasi als Sicherheit falls Intel trödelt, damit sie nicht nochmal in eine Situation wie damals mit dem G5 geraten.

robbitop
2013-09-11, 16:59:15
Ob der A7 im gleichen stromsparenden Prozess gefertigt wird, wie der S800?
S800 wird doch AFAIK bei TSMC gefertigt und A7 bei Samsung.

Nightspider
2013-09-12, 00:42:44
Wann sind erste echte Benchmarks (Leaks) zu erwarten?

S800 wird doch AFAIK bei TSMC gefertigt und A7 bei Samsung.

Danke. Ist bekannt mit welchem Prozess von TSMC der Prozess von Samsung zu vergleichen ist?

Ailuros
2013-09-12, 00:48:18
Wann sind erste echte Benchmarks (Leaks) zu erwarten?



Danke. Ist bekannt mit welchem Prozess von TSMC der Prozess von Samsung zu vergleichen ist?

http://gfxbench.com/device.jsp?benchmark=gfx27&D=Apple%20iPhone%205S

Nur ein Resultat bis jetzt leider.

Samsung's 28nm Prozess ist ziemlich gut von dem was ich hoere.

BigKid
2013-09-12, 10:07:52
http://gfxbench.com/device.jsp?benchmark=gfx27&D=Apple%20iPhone%205S

Nur ein Resultat bis jetzt leider.



Hmm... OnScreen passt das aber nur bedingt zu Apples Ansage - oder gibts da ne Art "vsync" ?

http://gfxbench.com/compare.jsp?D1=Apple+iPhone+5S&D2=Apple+iPhone+5&cols=2
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=46692&stc=1&d=1378973245

Ailuros
2013-09-12, 10:13:24
Onscreen ist immer vsynced welches sowohl fuer echte Spiele als auch benchmarks gilt; wenn man "offscreen" laufen laesst in GFXbench sieht man auch nichts auf dem display aus verstaendlichen Gruenden.

BigKid
2013-09-12, 10:18:17
Onscreen ist immer vsynced welches sowohl fuer echte Spiele als auch benchmarks gilt; wenn man "offscreen" laufen laesst in GFXbench sieht man auch nichts auf dem display aus verstaendlichen Gruenden.
Hmm.... Danke...
Aber wo liegt die Refresh Rate? Laufen die iPhone Displays mit 50Hz (dachte immer 60Hz) ? Anders kann ich mir nicht erklären wieso das iPhone5 hier so nahe ans 5S kommt ...
Oder das Result ist Banane (fake) oder es limitiert was anderes ?

Ailuros
2013-09-12, 10:22:42
Und wo liegt das ? Laufen die iPhone Displays mit 50Hz ? Anders kann ich mir nicht erklären wieso das iPhone5 hier so nahe ans 5S kommt ...
Oder das Result ist Banane (fake) oder es limitiert was anderes ?

Nein das Resultat ist stinknormal unter den Bedingungen. Irgendwo knapp unter 60Hz ist die Bildwiederholrate und es ist eben bei v-synced dann ein maximaler framerate-threshold der nicht ueberschritten werden kann.

Ich wuerde mir denken dass es seit einer Ewigkeit bekannt ist dass alles im ULP Markt vsynced laeuft und ueberhaupt fuer was vsynced genau steht.

Ich versteh nicht wo genau das Problem liegt; das 5S liegt schon in etwa 2x Mal schneller als das 5 in diesem eher langweiligen Test. Apple soll endlich mit den GLB2.7 scores rausruecken.

BigKid
2013-09-12, 10:30:41
Nein das Resultat ist stinknormal unter den Bedingungen. Irgendwo knapp unter 60Hz ist die Bildwiederholrate und es ist eben bei v-synced dann ein maximaler framerate-threshold der nicht ueberschritten werden kann.

Ich wuerde mir denken dass es seit einer Ewigkeit bekannt ist dass alles im ULP Markt vsynced laeuft und ueberhaupt fuer was vsynced genau steht.

Ich versteh nicht wo genau das Problem liegt; das 5S liegt schon in etwa 2x Mal schneller als das 5 in diesem eher langweiligen Test. Apple soll endlich mit den GLB2.7 scores rausruecken.
Nochmal Danke... Hatte meinen Post nochmal etwas überabeitet aber du warst schneller... Ich habe auch direkt kein Problem damit...

Ich hätte nur einfach erwartet, dass bei 60Hz Refreshrate und gleicher Auflösung (was bei 5 und 5S ja gegeben ist), das 5S sich Onscreen halt noch etwas weiter vom 5er absetzen kann und nicht schon bei 53fps limitiert wird...
Wenn ich auf dem PC benche und vsync anhabe, dann lande ich meist recht genau bei 59-60fps - mir war nicht klar, dass da bei den Mobiles früher schluss ist...

Ailuros
2013-09-12, 10:38:05
Nochmal Danke... Hatte meinen Post nochmal etwas überabeitet aber du warst schneller... Ich habe auch direkt kein Problem damit...

Ich hätte nur einfach erwartet, dass bei 60Hz Refreshrate und gleicher Auflösung (was bei 5 und 5S ja gegeben ist), das 5S sich Onscreen halt noch etwas weiter vom 5er absetzen kann und nicht schon bei 53fps limitiert wird...
Wenn ich auf dem PC benche und vsync anhabe, dann lande ich meist recht genau bei 59-60fps - mir war nicht klar, dass da bei den Mobiles früher schluss ist...

GalaxyS4 mit einem 1080p display:

http://gfxbench.com/device.jsp?benchmark=gfx27&D=Samsung%20SHV-E330S%20Galaxy%20S4

68.3 fps offscreen
53.8 fps onscreen

Ich weiss jetzt nicht mehr wo die refresh rate genau liegt aber flatt auf 60Hz ist es afaik meistens nie sondern etwas weniger (56Hz?).

deekey777
2013-09-12, 11:24:11
So macht das Madonion:
https://itunes.apple.com/us/app/3dmark/id642839144?mt=8

3DMark is used by millions of people, hundreds of hardware review sites and many of the world's leading technology companies. It's the industry standard benchmark for graphics performance measurement, a professional level diagnostic tool now available to everyone for free!

Use 3DMark Ice Storm for device-to-device comparisons of mainstream mobile devices. Ice Storm is an OpenGL ES 2.0 benchmark test that uses fixed off-screen rendering at 720p then scales the output to fit the native display resolution of your device. Ice Storm includes two graphics tests designed to stress the GPU performance of your device and a physics test to stress its CPU performance.

Use 3DMark Ice Storm Extreme for device-to-device comparisons of high performance mobile devices. Ice Storm Extreme raises the off-screen rendering resolution to 1080p and uses higher quality textures and post-processing effects in the graphics tests to create a more demanding load for the latest smartphones and tablets.

Ailuros
2013-09-17, 09:06:05
Apple A7 GPU scheint wohl doch eine custom GPU auf Rogue Basis zu sein:

MT8135 Rogue G6200:

http://gfxbench.com/device.jsp?benchmark=gfx27&D=MediaTek+MT8135+%28PowerVR+Rogue+Han%29&testgroup=gl

Apple A7 Rogue G6x00:

http://gfxbench.com/device.jsp?benchmark=gfx27&D=Apple+iPhone+5S&testgroup=gl

urpils
2013-09-17, 09:49:02
Apple A7 GPU scheint wohl doch eine custom GPU auf Rogue Basis zu sein:

MT8135 Rogue G6200:

http://gfxbench.com/device.jsp?benchmark=gfx27&D=MediaTek+MT8135+%28PowerVR+Rogue+Han%29&testgroup=gl

Apple A7 Rogue G6x00:

http://gfxbench.com/device.jsp?benchmark=gfx27&D=Apple+iPhone+5S&testgroup=gl

Finde das ja relativ spannend. Was meinst du, wann der A7 aufgeschliffen wird und wann man da mit genaueren Analysen rechnen kann?

Ailuros
2013-09-17, 09:59:42
Finde das ja relativ spannend. Was meinst du, wann der A7 aufgeschliffen wird und wann man da mit genaueren Analysen rechnen kann?

Unter normalen Umstaenden dauert es nicht all zu lange bevor Anand mit einem vollen review ankommt.

robbitop
2013-09-17, 19:42:55
Apple A7 GPU scheint wohl doch eine custom GPU auf Rogue Basis zu sein:



Hast du was anderes erwartet?

Sunrise
2013-09-17, 20:31:22
Finde das ja relativ spannend. Was meinst du, wann der A7 aufgeschliffen wird und wann man da mit genaueren Analysen rechnen kann?
Das kommt relativ schnell nachdem das 5s offiziell zu kaufen sein wird. Ebenso die iFixit-Analyse der Komponenten.

BigKid
2013-09-17, 23:31:34
Unter normalen Umstaenden dauert es nicht all zu lange bevor Anand mit einem vollen review ankommt.

Kannst du ein bisschen was zu dem Speicherverbrauch im 32/64Bit Mischbetrieb spekulieren ? :)
Es gab ja die offizielle Aussage, dass das 5S unter iOS7 sowohl 32 wie auch 64 Bit Versionen der verwendeten Libs laden muss, wenn 32 und 64 Bit Anwendungen laufen (eigentlich klar - kommt mir als Hilfsprogrammierer von Windows her bekannt vor) ...
Aber wie störend wird das unter der Annahme, dass auch das 5S nur 1GB Ram hat?

Coda
2013-09-17, 23:35:46
Apple A7 GPU scheint wohl doch eine custom GPU auf Rogue Basis zu sein:
Da GL ES 3.0 angesagt war, war mir das schon klar :)

Das kommt relativ schnell nachdem das 5s offiziell zu kaufen sein wird. Ebenso die iFixit-Analyse der Komponenten.
iFixit kann leider auch nicht in die Chips reinschauen. Und selbst wenn, wäre es am Die recht schwer zu sagen, ob es Rogue ist oder SGX.

LadyWhirlwind
2013-09-18, 00:12:04
Spekulationen das Intel der A7 gefertigt hat:

http://seekingalpha.com/article/1694892-intel-and-apple-an-interesting-tidbit

Keine Ahnung was davon zu halten ist...

Nightspider
2013-09-18, 01:13:49
In 22nm wäre der Chip doch aber nicht 102mm² groß oder?

LadyWhirlwind
2013-09-18, 01:35:14
Die 102mm2 stammen von Phil Schiller. Der Rest ist im Moment spekulation.

deekey777
2013-09-18, 09:15:31
http://www.anandtech.com/show/7335/the-iphone-5s-review/2
First off, based on conversations with as many people in the know as possible, as well as just making an educated guess, it’s probably pretty safe to say that the A7 SoC is built on Samsung’s 28nm HK+MG process. It’s too early for 20nm at reasonable yields, and Apple isn’t ready to move some (not all) of its operations to TSMC.

Ailuros
2013-09-18, 09:22:04
Da GL ES 3.0 angesagt war, war mir das schon klar :)

Halloechen an Dich und robbitop: es ist eine Apple A7 GPU die zwar auf Rogue G6430 basiert ist aber eine Apple Anpassung. Mediatek's G6200 hat 16k*16k TMUs waerend die Apple 7 GPU nur 4k*4k hat.

iFixit kann leider auch nicht in die Chips reinschauen. Und selbst wenn, wäre es am Die recht schwer zu sagen, ob es Rogue ist oder SGX.

Es ist ein modifzierter G6430.

AnarchX
2013-09-18, 09:51:54
Wohl fast 4-fache Single-Thread-Leistung eines Cortex A9. Damit könnte man wohl schon AMD bezüglich der IPC eingeholt haben?

Ailuros
2013-09-18, 10:08:28
Wohl fast 4-fache Single-Thread-Leistung eines Cortex A9. Damit könnte man wohl schon AMD bezüglich der IPC eingeholt haben?

Es gibt benchmarks im Anand review; nebenbei reden wir nach wie vor beim iPhone5S ueber eine smartphone platform und eine unter normalen Umstaenden maximale 2-3W TDP. AMD hat nichts vergleichbares, ergo waere es wohl weisser mit Vergleichen auf das iPad5 zu warten fuer CPU und GPU.

In der absehbaren Zukunft wird SoC Bandbreite wohl die groesste Rolle spielen woran jegliche Architektur kinderleicht verdrosseln kenn wenn es daran fehlt.

Undertaker
2013-09-18, 10:10:59
Wohl fast 4-fache Single-Thread-Leistung eines Cortex A9. Damit könnte man wohl schon AMD bezüglich der IPC eingeholt haben?

4-fach? Ich sehe da ziemlich genau doppelte A9-IPC. Browsertests kann man für CPU-Vergleiche nicht heranziehen (zumindest nicht unter den Bedingungen bei Anandtech), am realistischsten erscheint mir da noch der 3DMark Physics Test. Dort erreicht z.B. ein Galaxy S2 mit ähnlicher Taktrate und ebenfalls zwei Kernen ~4k, das 5S ~8k. Das wäre übrigens etwa so schnell wie der "alte" Exynos 5250 mit 2x 1,7 GHz und A15-Kernen.

Da muss ich mich korrigieren: Da das alte iPhone 5 ja genauso schnell war, gibt es hier wohl wie von Anandtech beschrieben einen Bug. Dennoch: Faktor 4 ggü. A9 erscheint mir doch zu hoch.

AnarchX
2013-09-18, 10:28:29
Ich hatte mich am GeekBench 3.0 orientiert, aber der bezieht wohl unter 64-Bit auch die AES-Beschleunigungserweiterungen ein.

Nimmt man diese Ergebnisse als Basis:
http://browser.primatelabs.com/geekbench3/58206
http://www.anandtech.com/show/7335/the-iphone-5s-review/3 (letzte Tabelle, 32-Bit ohne Beschleunigungen)

Dann ist es wohl taktbereinigt bei ST wohl nur ein Faktor 2. Nochmals Leistung wird aber dann bei der Skalierung auf 2 Kerne geholt, wo die Speicherarchitektur des Dual-A9 im A5 wohl noch viele Flaschenhälse hatte.

Sunrise
2013-09-18, 10:36:54
iFixit kann leider auch nicht in die Chips reinschauen. Und selbst wenn, wäre es am Die recht schwer zu sagen, ob es Rogue ist oder SGX.
iFixit direkt nicht, die arbeiten aber öfter mal mit Chipworks zusammen und die haben das nötige KnowHow und Equipment. Am Die selbst wird es sicher schwierig, aber wir können zu 99,9% davon ausgehen, dass es Rogue ist. Denn Apple braucht auch fürs nächste iPad einen potenten Untersatz und die Wahrscheinlichkeit, dass Apple 2 verschiedene GPU-Familien im A7 und A7X einbaut ist gering bis ausgeschlossen.

Hier mal der entsprechende Artikel zum A6, fand das recht interessant:
http://www.ifixit.com/Teardown/Apple+A6+Teardown/10528/1

PS: Anandtech ist ja echt schnell diesmal, hätte mit solch einem ausführliche Review erst nach dem 20. gerechnet. Das scheint Apple wohl nicht zu stören.

Ailuros
2013-09-18, 11:56:07
Das merkwuerdige an der Geschichte ist auf was sich Apple bezog fuer 2x die GPU Leistung des A7 im Vergleich zu A6. Der FLOP Unterschied ist um einiges groesser und auch die Leistungs-Unterschiede in den benchmarks als nur 2x.

Oder das Fuellraten-Resultat in Anand's review ist abgef****. Bei 8 TMUs die ein 6430 hat, duerfte nach dem Fuellraten-Resultat die Frequenz bei ungefaehr 430+MHz liegen.

SGX543MP3@325MHz im A6 liegt bei 35,1 GFLOPs, waehrend ein G6430 bei hypothetischen 433MHz bei 110,8 GFLOPs.

***edit: ausser natuerlich Apple rechnet auch den kleineren geometry throughput mit, welcher auch wirklich zu erwarten war.

******edit Nr.2: da im Netz herumfliesst dass Cyclone eine quad core CPU ist, ich sehe es von den 3dmark physics Resultaten erstmal nicht.

mboeller
2013-09-18, 15:12:55
Ich hatte mich am GeekBench 3.0 orientiert, aber der bezieht wohl unter 64-Bit auch die AES-Beschleunigungserweiterungen ein.

Nimmt man diese Ergebnisse als Basis:
http://browser.primatelabs.com/geekbench3/58206
http://www.anandtech.com/show/7335/the-iphone-5s-review/3 (letzte Tabelle, 32-Bit ohne Beschleunigungen)

Dann ist es wohl taktbereinigt bei ST wohl nur ein Faktor 2. Nochmals Leistung wird aber dann bei der Skalierung auf 2 Kerne geholt, wo die Speicherarchitektur des Dual-A9 im A5 wohl noch viele Flaschenhälse hatte.

Wieso kommst du auf einen Faktor 2?

1065 ST @ 1,3GHz <-> 200 ST @ 800GHz

200 x 1,3/0,8 = 325
1065 / 325 = 3,27-fach

deekey777
2013-09-20, 19:45:11
Es ist soweit: http://www.chipworks.com/en/technical-competitive-analysis/resources/blog/inside-the-iphone-5s/

urpils
2013-09-20, 20:08:09
Es ist soweit: http://www.chipworks.com/en/technical-competitive-analysis/resources/blog/inside-the-iphone-5s/

danke :) leider scheint die Seite total überfordert zu sein - außer ein bisschen (layouttechnisch) zerstörtem Text läd er nix ;)

Ailuros
2013-09-20, 20:23:05
danke :) leider scheint die Seite total überfordert zu sein - außer ein bisschen (layouttechnisch) zerstörtem Text läd er nix ;)

So weit bin ich gar nicht gekommen und nein ich setzt mich jetzt nicht eine halben Tag hin bis die Seite (wenn ueberhaupt) ladet. Irgendwann wird der verdammte Verkehr schon nachlassen :)

***edit:

http://forum.beyond3d.com/showpost.php?p=1786288&postcount=2121



Default
http://www.chipworks.com/en/technica...the-iphone-5s/

So the A7 is made at Samsung afterall and the M7 is a discrete chip with a Cortx-M3 by NXP.

Steht sonst noch was wichtiges drin? Das obrige ist ja wirklich nichts Neues.

deekey777
2013-09-21, 00:45:58
Infinity Blade III auf iPhone 5s und iPhone 5: http://toucharcade.com/2013/09/20/infinity-blade-iii-on-the-iphone-5s-first-impressions/
Das ist schon ein Unterschied.

Undertaker
2013-09-21, 10:08:08
Es gibt einen Unterschied, aber der ist doch höchst minimal. Das 5S-Bild ist imo mehr geblurt denn geglättet, die Texturen sind teils sichtbar matschiger. Besser sieht das Bild für mich nur bedingt aus – da kann man aus der Mehrleistung sicher noch bessere Fortschritte herausholen. Kein gutes Beispiel.

robbitop
2013-09-21, 12:14:30
Ist die IPC von Cyclops eigentlich oberhalb vom A15?

Ronny145
2013-09-21, 12:22:32
Ist die IPC von Cyclops eigentlich oberhalb vom A15?


Laut Geekbench v3 liegt sie höher als Haswell :freak: Klar liegt die IPC höher, viel höher.

robbitop
2013-09-21, 13:30:07
Gibt es auch konkludente Ergebnisse? Schneller als Haswell sagt mir, dass man den Benchmark mit Skepsis betrachten sollte. So hohe IPC Sprünge bei gleicher Leistungsaufnahme machen mich zunächst skeptisch. A15 ist ein sehr energiehungriges Design. Und man will bei geringerer spezifischer Leistungsaufnahme schneller sein? Fast zu schön um wahr zu sein. Die Engineers bei ARM sind sicher keine Stümper.

Ailuros
2013-09-21, 15:15:04
Gibt es auch konkludente Ergebnisse? Schneller als Haswell sagt mir, dass man den Benchmark mit Skepsis betrachten sollte.

Was sonst ist neu generell fuer CPU benchmarks?

So hohe IPC Sprünge bei gleicher Leistungsaufnahme machen mich zunächst skeptisch. A15 ist ein sehr energiehungriges Design. Und man will bei geringerer spezifischer Leistungsaufnahme schneller sein? Fast zu schön um wahr zu sein. Die Engineers bei ARM sind sicher keine Stümper.

Und wer zum Henker hat Dir je erzaehlt dass das Ding auf A15 basiert genau?

http://www.anandtech.com/show/7335/the-iphone-5s-review/2

The CPU cores are, once again, a custom design by Apple. These aren’t Cortex A57 derivatives (still too early for that), but rather some evolution of Apple’s own Swift architecture. I’ll dive into specifics of what I’ve been able to find in a moment. To answer the first question on everyone’s mind, I believe there are two of these cores on the A7. Before I explain how I arrived at this conclusion, let’s first talk about cores and clock speeds

Cyclone ist einfach das was manche schon seit einiger Zeit andeuteten: ein "Swift2".

Es ist und bleibt eine smartphone CPU um Himmel's Willen.

Und ja "desktop class performance" ist lediglich Apple's Art zu sagen was sie wirklich vorhaben fuer die Zukunft; glaubt mir ja fast keiner ergo selber schuld :P

***edit: nebenbei sneak peak zeigt A7 GPU Leistung in der absehbaren Zukunft leicht ueber GT520 Nivaeu.

LadyWhirlwind
2013-09-21, 15:18:32
Der A7 ist laut Anandtech ein ARMv8 und der A15 war doch ein ARM v7.

Edit: Ailuros war schneller.

Ailuros
2013-09-21, 15:19:43
Der A7 ist laut Anandtech ein ARMv8 und der A15 war doch ein ARM v7.

Womoeglich aber nur das ISA.

***edit: Deine Antwort war durchaus korrekt.

*****edit Deux: Material zum herumspielen fuer diejenigen die Kaffeesatz aus die shots lesen koennen: http://www.anandtech.com/show/7355/chipworks-provides-first-apple-a7-die-shot

mboeller
2013-09-21, 18:39:03
wow, wenn Hans de Vries recht hat, dann ist jeder Cyclops core mehr als 6mm² groß.
Damit ist der Cyclops doppelt so groß wie ein Jaguar Core. Ganz schön heftig. Kein Wunder das die proMHz Leistung so hoch ist.

Link: http://semiaccurate.com/forums/showpost.php?p=195450&postcount=98

Blediator16
2013-09-21, 18:44:37
Und mehr als doppelt so groß als ein A15 Core.

Sunrise
2013-09-21, 18:51:20
wow, wenn Hans de Vries recht hat, dann ist jeder Cyclops core mehr als 6mm² groß.
Damit ist der Cyclops doppelt so groß wie ein Jaguar Core. Ganz schön heftig. Kein Wunder das die proMHz Leistung so hoch ist.

Link: http://semiaccurate.com/forums/showpost.php?p=195450&postcount=98
Man will garnicht wissen, was Apple bei identischer Die-Größe auf 20nm da an Leistung reinpacken könnte.

Undertaker
2013-09-21, 18:55:04
wow, wenn Hans de Vries recht hat, dann ist jeder Cyclops core mehr als 6mm² groß.
Damit ist der Cyclops doppelt so groß wie ein Jaguar Core. Ganz schön heftig. Kein Wunder das die proMHz Leistung so hoch ist.

Wenn man sich überlegt, wie wenig das im Vergleich zur gesamten Die-Size ist, spricht eigentlich recht wenig gegen ein derart großzügiges Design. Offenbar ist ja nicht nur die Leistung enorm, sondern auch die Energieeffizienz grandios – mit einem Quad-Core in einem kommenden A7X würde Apple wohl zumindest die sonstige ARM-Konkurrenz ziemlich alt aussehen lassen (auch wenn ich persönlich weiterhin auf einen Dual-Core tippe).

BlackBirdSR
2013-09-21, 20:15:13
Ja ich warte ja nur, dass ein ganz Großer bei Apple rausfliegt.....

Spaceballs - Die Müsliflocken. Spaceballs - Der Flammenwerfer... Apple 64Bit - das Airbook... Apple 64Bit das MacBook... Apple 64Bit - der iMac, die Börsianer stehn' auf sowas."

Ailuros
2013-09-22, 08:45:44
wow, wenn Hans de Vries recht hat, dann ist jeder Cyclops core mehr als 6mm² groß.
Damit ist der Cyclops doppelt so groß wie ein Jaguar Core. Ganz schön heftig. Kein Wunder das die proMHz Leistung so hoch ist.

Link: http://semiaccurate.com/forums/showpost.php?p=195450&postcount=98

Ein anderer IHV koennte auf hoehere Packdichten setzen; A7 ist zwar etwas dichter ausgelegt als Vorgaenger aber eine gewisse Grosszuegigkeit gibt es schon. Uebrigens was meistens von uns allen unwissenden als "CPU" eigenkreidet wird sind die cores und surrounding logic.

Und mehr als doppelt so groß als ein A15 Core.

Zeigt mir ein dual core A15 Geraet dass nur mit einer 1500+mAH Batterie auskommt und dazu auch stundenlang darauf laufen kann. Die Mussgeburt namens 5250 von Samsung ist zwar ein schlechtes Beispiel, aber schau Dir mal an was fuer eine Batterie das Nexus10 mit sich schleppt....ja eben :rolleyes:

Und der Punkt ist dann eben nur einer: entweder man macht etwas RICHTIG oder eben gar nicht. An halbgahren peinlichen Loesungen ist keiner wirklich interessiert.

Ja ich warte ja nur, dass ein ganz Großer bei Apple rausfliegt.....

Spaceballs - Die Müsliflocken. Spaceballs - Der Flammenwerfer... Apple 64Bit - das Airbook... Apple 64Bit das MacBook... Apple 64Bit - der iMac, die Börsianer stehn' auf sowas."

Spass beiseite und alles stets IMHO hat Apple 64bit so frueh wie moeglich implementiert damit sie sich auch genug Zeit lassen koennen um die Unzahl der Applikationen langsam dafuer anzupassen. Bevor das letztere zu einem gesunden Standpunkt kommt sehe ich persoenlich keinen anderen Schritt.

In der Zwischenzeit kommt ja dann noch in 2014 Samsung mit 64bit Exynos SoCs jubel trubel und irgendwann spaeter NVIDIA mit ihrem 64bit Denver mit secret sauce extra jubel trubel mit Kaese. Eine weitere wirklich anstaendige Implementierung erwarte ich lediglich von Qualcomm.

Wenn Dir jemand wirklich Angst machen sollte mit der Moeglichkeit dass sie langfristig vielleicht 64bit Prozessoren nach oben skalieren dann ist es Qualcomm; wer scheisst schon ueber die ueberteurten fruitco-Nischenprodukte?

BigKid
2013-09-22, 10:03:54
Habt ihr den Artikel in der CT gesehen? Die haben sich das 5s auch sehr ausführlich zur Brust genommen.
Interessant dabei: Sie sagen dass zwar das 5S ca 2msl so schnell aussieht aber wenn man sich die Detailergebnisse ansieht dann würde bei der Gemotrieleustung das 5c/5 er das 5s sehr deutlich schlagen und zwar zwischen 40 und 125 Prozent.

Auch interessant beim Laufzeit Test mit 3D Spiel wiederum schlägt das 5s die anderen mit ca 7,4 gegen ca 5,1 Stunden...


Fährt das 5s da mit angezogener Handbremse ? Oder passt da was an den Treibern noch nicht? Oder haben sie an Geometrie-Pipelines gespart?

Ailuros
2013-09-22, 10:12:56
Habt ihr den Artikel in der CT gesehen? Die haben sich das 5s auch sehr ausführlich zur Brust genommen.
Interessant dabei: Sie sagen dass zwar das 5S ca 2msl so schnell aussieht aber wenn man sich die Detailergebnisse ansieht dann würde bei der Gemotrieleustung das 5c/5 er das 5s sehr deutlich schlagen und zwar zwischen 40 und 125 Prozent.

Auch interessant beim Laufzeit Test mit 3D Spiel wiederum schlägt das 5s die anderen mit ca 7,4 gegen ca 5,1 Stunden...


Fährt das 5s da mit angezogener Handbremse ? Oder passt da was an den Treibern noch nicht? Oder haben sie an Geometrie-Pipelines gespart?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9925716&postcount=1032

Zukuenftige Treiber werden schon etwas gut machen aber der Unterschied wird IMHO NIE gedeckt werden.

Du vergisst dass ein MP3 oder MP4 wie man sie bis zu den A6 SoCs findet sind 3 bzw. 4 ganze cores. Das heisst u.a. dass diese auch 3 bzw. 4 raster und trisetup units haben. Die trisetup Einheit wird zwar grosszuegig ausgestattet sein fuer den G6430 im A7 aber gegen eine drei- oder vierfache Einheit kann sie schlecht kontern.

Und genau an dem Punkt muss ein hw designer auch gewisse Balancen halten; gestaltet man einiges zu gross dann wird es auch ploetzlich redundant nur clusters gegen ganze cores zu skalieren. Wenn man cores skaliert dann gleicht es auch einer gewissen hw Redundanz.

Es gibt uebrigens NICHTS auf dem iPhone5S bei dem der heutige trisetup (und andere Aspekte) zu knapp sein koennte selbst fuer die Zukunft. Die Frage sollte eher sein was zum Henker das iPhone5 genau mit seinen weit ueber 100Mio Tris/s genau angestellt haette bevor ALUs, TMUs, z/stencil und vor allem Bandbreite limitiert haette.

urpils
2013-09-22, 10:13:21
Habt ihr den Artikel in der CT gesehen? Die haben sich das 5s auch sehr ausführlich zur Brust genommen.
Interessant dabei: Sie sagen dass zwar das 5S ca 2msl so schnell aussieht aber wenn man sich die Detailergebnisse ansieht dann würde bei der Gemotrieleustung das 5c/5 er das 5s sehr deutlich schlagen und zwar zwischen 40 und 125 Prozent.

Auch interessant beim Laufzeit Test mit 3D Spiel wiederum schlägt das 5s die anderen mit ca 7,4 gegen ca 5,1 Stunden...


Fährt das 5s da mit angezogener Handbremse ? Oder passt da was an den Treibern noch nicht? Oder haben sie an Geometrie-Pipelines gespart?

Wird zwar sicher noch einiges mit Treibern zu machen sein, aber aufgrund der neuen Architktur ist der geometriedurchsatz eben geringer als vorher.

robbitop
2013-09-22, 10:13:30
Und wer zum Henker hat Dir je erzaehlt dass das Ding auf A15 basiert genau?
Niemand. Wer behauptet denn so einen Unfug? Swift und Cyclops sind custom Cores.

A15 setze ich nur als Vergleich. Wenn Cyclops deutlich schneller als A15 wäre (bei vergleichbarem Prozess) und weniger Energie benötigt, müssen folgerichtig ARMs Ingenieure Stümper (verglichen mit den Jungs bei Apple) sein. Und da werde ich dann skeptisch/neugierig.


Der A7 ist laut Anandtech ein ARMv8 und der A15 war doch ein ARM v7.

Edit: Ailuros war schneller.
Die Frage hat niemand gestellt. Es ist völlig klar, dass es ein ARMv8 Design ist, da es sich um eine 64 bit ARM ISA handelt.

fondness
2013-09-22, 10:15:35
Niemand. Wer behauptet denn so einen Unfug? Swift und Cyclops sind custom Cores.

A15 setze ich nur als Vergleich. Wenn Cyclops deutlich schneller als A15 wäre (bei vergleichbarem Prozess) und weniger Energie benötigt, müssen folgerichtig ARMs Ingenieure Stümper (verglichen mit den Jungs bei Apple) sein. Und genau das bezweifle ich. :)

Ich nicht. Apple hat sich schon das beste was die Industrie zu bieten hat zusammen gekauft. Auch Qualcomm erzielt ja bessere Ergebnisse. Dazu kommt das Die-Size für Apple keine Rolle spielt. Man darf auch nicht vergessen wie winzig ARM eigentlich ist. Wer langfristig gegen Intel und Qualcomm bestehen will braucht custom-cores, auf ARM-Design würde ich nicht mehr wetten.

Ailuros
2013-09-22, 10:22:36
Wird zwar sicher noch einiges mit Treibern zu machen sein, aber aufgrund der neuen Architktur ist der geometriedurchsatz eben geringer als vorher.

Hab ich schon oben erwaehnt durch den anderen Link, aendert aber grundsaetzlich nichts daran dass Rogue mit der cluster-Skalierung andere Staerken aufweisst gegen SGX. SGX ist um guten Ganzen ALU limitiert egal welche Variante, waehrend Rogue in den bisherigen Varianten eher Geometrie/input assembly bound ist; FLOPs gibt es nur so zum herumschmeissen ;)

Niemand. Wer behauptet denn so einen Unfug? Swift und Cyclops sind custom Cores.

A15 setze ich nur als Vergleich. Wenn Cyclops deutlich schneller als A15 wäre (bei vergleichbarem Prozess) und weniger Energie benötigt, müssen folgerichtig ARMs Ingenieure Stümper (verglichen mit den Jungs bei Apple) sein. Und genau das bezweifle ich. :)



Du hast selber A15 in Deiner Frage erwaehnt und ich war offensichtlich nicht der einzige der Dich so verstanden hat. Von dem abgesehen und der absoluten Haarspalterei zu Liebe es ist CYCLONE so wie ein Wirbelsturm als Codename und nicht ein einaeugiger Riese aus meiner heimatlichen Mythologie :P

Ich nicht. Apple hat sich schon das beste was die Industrie zu bieten hat zusammen gekauft. Auch Qualcomm erzielt ja bessere Ergebnisse. Dazu kommt das Die-Size für Apple keine Rolle spielt. Man darf auch nicht vergessen wie winzig ARM eigentlich ist. Wer langfristig gegen Intel und Qualcomm bestehen will braucht custom-cores, auf ARM-Design würde ich nicht mehr wetten.

Man kann sehr wohl auf ARM CPU IP setzen und erfolgreich sein siehe dazu MediaTek. Die haben eine vergleichbare Wachstumsrate wie Qualcomm. Man muss eben die Implemntierung auch richtig hinbekommen wofuer Samsung LSI bisher wohl zu daehmlich war. Es liegt nichts krummes an big.LITTLE es sind eher die Klugscheisser bei LSI schuld die schon seit Jahren Milliarden ins Klo geschuettet haben um custom GPU designs auf die Beine zu stellen. Dass das Resultat beim letzten dann beim "hello triangle" Anfaenger-kurs schon abgevoegelt war brauch ich Dir wohl nicht erzaehlen.

robbitop
2013-09-22, 10:25:56
Du hast selber A15 in Deiner Frage erwaehnt und ich war offensichtlich nicht der einzige der Dich so verstanden hat.
Man muss auch mal aus dem Kontext lesen können. ;)

Undertaker
2013-09-22, 10:55:26
Man kann sehr wohl auf ARM CPU IP setzen und erfolgreich sein siehe dazu MediaTek.

MediaTeks Erfolg beruht nicht zuletzt auf dem A7, der wirklich sehr schön klein, sparsam und ausreichend schnell ist. Das heißt allerdings nicht, dass Qualcomm oder Apple mit ihren immensen Ressourcen nicht ein besseres derartiges Design entwerfen könnten. In der Klasse sind wohl nur einfach die Margen zu niedrig, als dass sich dieser Aufwand lohnen würde. Aber wer weiß, was zukünftig noch kommt. ;)

BigKid
2013-09-22, 13:24:33
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9925716&postcount=1032

Zukuenftige Treiber werden schon etwas gut machen aber der Unterschied wird IMHO NIE gedeckt werden.

Du vergisst dass ein MP3 oder MP4 wie man sie bis zu den A6 SoCs findet sind 3 bzw. 4 ganze cores. Das heisst u.a. dass diese auch 3 bzw. 4 raster und trisetup units haben. Die trisetup Einheit wird zwar grosszuegig ausgestattet sein fuer den G6430 im A7 aber gegen eine drei- oder vierfache Einheit kann sie schlecht kontern.

Und genau an dem Punkt muss ein hw designer auch gewisse Balancen halten; gestaltet man einiges zu gross dann wird es auch ploetzlich redundant nur clusters gegen ganze cores zu skalieren. Wenn man cores skaliert dann gleicht es auch einer gewissen hw Redundanz.

Es gibt uebrigens NICHTS auf dem iPhone5S bei dem der heutige trisetup (und andere Aspekte) zu knapp sein koennte selbst fuer die Zukunft. Die Frage sollte eher sein was zum Henker das iPhone5 genau mit seinen weit ueber 100Mio Tris/s genau angestellt haette bevor ALUs, TMUs, z/stencil und vor allem Bandbreite limitiert haette.
Wie immer vielen Dank für deine Ausführungen. Hat mir auch bezüglich Verständnisses weiter geholfen...
Nachdem ich mit dem iPad 3 quasi auf die Nase gefallen bin würde ich ja sagen, dass es eher die Pixelfüllraten sind/waren, die ein Problem darstellten...

Für Nova3 und GOF2 mussten sie ja einiges tun um die auf dem iPad 3 flüssig zu bekommen - meine ich mich zu erinnern...


Für mich ist das 5S an einer ganz anderen Stelle ein Upgrade - wenn das Ding in typischen 3D Spielen tatsächlich 7,4 statt 5,1 Stunden durchhält - und das bei Gleichwertiger bis besserer Grafik/FPS Leistung - dann Hut ab...

Ailuros
2013-09-22, 15:12:22
MediaTeks Erfolg beruht nicht zuletzt auf dem A7, der wirklich sehr schön klein, sparsam und ausreichend schnell ist. Das heißt allerdings nicht, dass Qualcomm oder Apple mit ihren immensen Ressourcen nicht ein besseres derartiges Design entwerfen könnten.

Bei den Preisen bei denen Mediatek verkauft eben wohl NICHT. Wieso benutzt QCOM nicht auch Krait im low end SoC Bereich? Wer genau sagt Dir dass ein custom core nicht einen groesseren insgesamt BOM bedeutet?

Ich hab im zeitigen "phablet" einen MT6589 stecken; von der CPU und GPU Seite hat das Ding gar nichts zum nachsehen im Vergleich zu einem Tegra3 als Beispiel wobei aber die Kosten des SoCs und der eigentliche Stromverbrauch um einiges niedriger ist als beim letzten und dazu traegt eben nicht nur die CPU als einzige Einheit dazu. Im Vergleich zu Apple's Zeug ist es deutlich schneller als ein iPhone4S, obwohl es sogar bei 1080p laeuft; haette ich aber zu dem Zeitpunkt ein iPhone4S geholt haette es mich immer noch 2x Mal so viel gekostet fuer yesteryear's techno-news ;)

In der Klasse sind wohl nur einfach die Margen zu niedrig, als dass sich dieser Aufwand lohnen würde. Aber wer weiß, was zukünftig noch kommt. ;)

Siehst Du, Du bist schon selber drauf gekommen. Das gleiche wie in meinem letzten Satz im ersten Paragraph oben nur anders formuliert.

Aber von der GPU Seite her: Apple benutzt fuer ihr smartphone einen dual Cyclone@1.3GHz mit einem vier cluster G6430 Rogue bei 433MHz, waehrend Mediatek ihre tablets bald mit einem dual A15@1.7GHz+ dual A7@1.2GHz und einem dual cluster G6200 Rogue bei glaube ich 286MHz bedienen wird. Im folgenden Vergleich taktet der Mediatek Rogue bei nur 220MHz IMHO:

http://gfxbench.com/compare.jsp?D1=Apple+iPhone+5S&D2=MediaTek+MT8135+%28PowerVR+Rogue+Han%29&cols=2

Wenn ich mich jetzt nicht verzettelt habe duerfte der MT8135 bei voller Frequenz ueber 18 fps in GLB2.7 offscreen erreichen und ich kann mir NICHT vorstellen dass Apple fuer A7X/tablets bei nur ~100mm2@28nm bleibt. Mediatek hat aber den 8135 noch nicht ausgeliefert welches in den naechsten Monaten passieren duerfte aber MTK projeziert 20Mio Einheiten bis zum Ende des Jahres obwohl in China tablets sich ziemlch beschissen verkaufen. Warten wir mal den offiziellen launch vom 8135 ab, aber Du wirst es schwer haben mir herauszureden dass die Dinger eine verdammt gute perf/$ Relation haben.

Apple kann so etwas total scheissegal sein weil sie keine SoC an dritte verkaufen. Mediatek hingegen verkauft an dritte wie verrueckt und es wird Samsung als erstes sein dass sich wegen diesem in China bald ueber die Schulter glotzen muss.

Wie immer vielen Dank für deine Ausführungen. Hat mir auch bezüglich Verständnisses weiter geholfen...
Nachdem ich mit dem iPad 3 quasi auf die Nase gefallen bin würde ich ja sagen, dass es eher die Pixelfüllraten sind/waren, die ein Problem darstellten...

Für Nova3 und GOF2 mussten sie ja einiges tun um die auf dem iPad 3 flüssig zu bekommen - meine ich mich zu erinnern...


Für mich ist das 5S an einer ganz anderen Stelle ein Upgrade - wenn das Ding in typischen 3D Spielen tatsächlich 7,4 statt 5,1 Stunden durchhält - und das bei Gleichwertiger bis besserer Grafik/FPS Leistung - dann Hut ab...

Es ist stets ein Problem zwischen dem was man weiss und was man wirklich sagen darf; Rogue ist ein verdammt gutes Stueck wenn es zu ULP GPUs kommt hat aber noch ein paar rohe Kanten die ausgeschliffen werden muessen auf hw Ebene ;)

Undertaker
2013-09-22, 16:03:23
Bei den Preisen bei denen Mediatek verkauft eben wohl NICHT. Wieso benutzt QCOM nicht auch Krait im low end SoC Bereich? Wer genau sagt Dir dass ein custom core nicht einen groesseren insgesamt BOM bedeutet?

Siehst Du, Du bist schon selber drauf gekommen. Das gleiche wie in meinem letzten Satz im ersten Paragraph oben nur anders formuliert.

Warum nimmst du meine Aussage dann so auseinander, wenn ich genau das selbst schon gesagt habe? :wink: Es ging grundlegend nur darum, dass der Erfolg von MediaTek aktuell vor allem ein Erfolg des (von MediaTek sicherlich auch gut implementierten) Cortex-A7 ist, der wiederum vor allem davon profitiert, dass keiner der großen Custom-Chip-Konkurrenten ein eigenes Design in diesem Preisbereich aufgelegt hat. Den Grund dafür haben wir ja nun bereits beide genannt.

Beim Cortex-A15 sieht das ganz anders aus – die paar Milliönchen, die ARM in das Design gesteckt haben wird, können gegen die Milliarden von Apple, Qualcomm und Intel gar nicht gut aussehen.

Ailuros
2013-09-22, 16:08:34
Warum nimmst du meine Aussage dann so auseinander, wenn ich genau das selbst schon gesagt habe? :wink: Es ging grundlegend nur darum, dass der Erfolg von MediaTek aktuell vor allem ein Erfolg des (von MediaTek sicherlich auch gut implementierten) Cortex-A7 ist, der wiederum vor allem davon profitiert, dass keiner der großen Custom-Chip-Konkurrenten ein eigenes Design in diesem Preisbereich aufgelegt hat. Den Grund dafür haben wir ja nun bereits beide genannt.

Ja aber der eigentliche PUNKT dann ist dass Mediatek oder jegliches Mediatek zwar ARM CPU IP benutzt aber damit eben NICHT im Nachteil liegt.

Schau her hier nochmal der quote von fondness:

Ich nicht. Apple hat sich schon das beste was die Industrie zu bieten hat zusammen gekauft. Auch Qualcomm erzielt ja bessere Ergebnisse. Dazu kommt das Die-Size für Apple keine Rolle spielt. Man darf auch nicht vergessen wie winzig ARM eigentlich ist. Wer langfristig gegen Intel und Qualcomm bestehen will braucht custom-cores, auf ARM-Design würde ich nicht mehr wetten.

Dass man jetzt mir nichts Dir nichts custom designs braucht kann ich nicht so leicht akzeptieren. Wenn man bei einer ARM CPU IP Implementierung die Sache versaut dann bestehen auch Chancen dass man es auch mit custom designs versaut und anders rum :P Mit reinem CPU IP ist man sogar auf einer sicheren Schiene; man muss eher ziemlich daemlich sein so etwas so verdammt versauen zu koennen dass es nicht mehr richtig laeuft :D

Beim Cortex-A15 sieht das ganz anders aus – die paar Milliönchen, die ARM in das Design gesteckt haben wird, können gegen die Milliarden von Apple, Qualcomm und Intel gar nicht gut aussehen.

A15 war selbst von ARM nie alleinstaendig fuer smartphones u.a. gedacht. Genau deshalb wurde big.LITTLE entwickelt. Es ist eben NICHT ARM's Fehler dass Samsung zu daemlich war es richtig im 5410 auf Anhieb zu implementieren. Das dumme war halt dass es keinen anderen "ersten" dafuer gab und die engineers hier nichts "abschreiben" konnten. Muss ich immer der Boese hier sein und dann blubber ich auch angeblich zu viel am Ende? :D

Undertaker
2013-09-22, 16:24:57
Ja aber der eigentliche PUNKT dann ist dass Mediatek oder jegliches Mediatek zwar ARM CPU IP benutzt aber damit eben NICHT im Nachteil liegt.

Ja, weil es im Low-End-Bereich eben keine echte Konkurrenz gibt mit Custom Cores gibt. ;) Ohne Intel würden AMDs CPUs auch besser aussehen, oder?


A15 war selbst von ARM nie alleinstaendig fuer smartphones u.a. gedacht. Genau deshalb wurde big.LITTLE entwickelt. Es ist eben NICHT ARM's Fehler dass Samsung zu daemlich war es richtig im 5410 auf Anhieb zu implementieren. Das dumme war halt dass es keinen anderen "ersten" dafuer gab und die engineers hier nichts "abschreiben" konnten.

big.LITTLE ändert nichts an der mangelhaften Effizienz des A15 unter Volllast. Bei gleicher Leistungsaufnahme kann ein A15-Kern nicht einmal halb so hoch takten wie ein Krait-Kern, ohne das die Pro-MHz-Leistung im gleichen Verhältnis besser wäre. Gegen Cyclone oder Silvermont sieht das Ganze noch schlechter aus. Das, was Samsung oder Nvidia bei ihren Implementierungen zusätzlich noch versaut haben, rechne ich da noch gar nicht mit ein. :D

Ailuros
2013-09-22, 16:35:33
Ja, weil es im Low-End-Bereich eben keine echte Konkurrenz gibt mit Custom Cores gibt. ;) Ohne Intel würden AMDs CPUs auch besser aussehen, oder?

Dagegen kann man nichts einwenden.

big.LITTLE ändert nichts an der mangelhaften Effizienz des A15 unter Volllast. Bei gleicher Leistungsaufnahme kann ein A15-Kern nicht einmal halb so hoch takten wie ein Krait-Kern, ohne das die Pro-MHz-Leistung im gleichen Verhältnis besser wäre.

Die pro-MHz Leistung im big.LITTLE wandelt sofort auf einen ganz andere Ebene sobald anstatt A15 dann A7 cores eingesetzt werden.

Gegen Cyclone oder Silvermont sieht das Ganze noch schlechter aus. Das, was Samsung oder Nvidia bei ihren Implementierungen zusätzlich noch versaut haben, rechne ich da noch gar nicht mit ein. :D

Ich bin derjenige hier der primaer in asynchrone Frequenz-Verwaltung gegen big.LITTLE bzw. gegen NV's 4+1 Scheiss glaubte und Du wirst mir jetzt nicht den Tischdeckel umdrehen um mich weiter zu verwirren ja? ;D

Spass beiseite neben dem obrigen will ich trotzdem eine anstaendige Implementierung von big.LITTLE sehen. Ich werden eben NICHT die Idee so leicht verdammen nur weil Samsung zu bloed war es anstaendig zu implementieren.

Ailuros
2013-09-22, 17:10:39
http://www.fudzilla.com/home/item/32578-20nm-high-performance-chips-in-2h-2014

With this in mind, the 2014 Snapdragon line-up and Tegra 5 are both 28nm chips. The same applies to next generation Exynos parts, as Samsung was relatively late to 28nm. And Apple? We’re not sure yet.

20nm TSMC.

Sunrise
2013-09-22, 18:32:03
http://www.fudzilla.com/home/item/32578-20nm-high-performance-chips-in-2h-2014
20nm TSMC.
Hm, mist, wenn ich da jetzt auch Geld drauf setzen würde, teilen wir dann? ;) Oder andersrum, gibt es da überhaupt wen, der mit 28nm rechnet? Eher nicht, oder?

Daran gibt es IMHO absolut keine Zweifel. Da wird man aktuell schon alle Weichen entsprechend gestellt haben.

LadyWhirlwind
2013-09-22, 18:54:56
Ich würd kein Geld auf was anderes als 20nm TSMC setzen.

An Intel glaub ich im Moment noch nicht. Und für 16nm TSMC wäre es wohl doch zu früh.

deekey777
2013-09-22, 19:03:54
Apple’s iPhone 5S renders 1080P video at twice the rate of the iPhone 5, Geekbenches close to 2010 Mac Mini (http://9to5mac.com/2013/09/22/apples-iphone-5s-renders-1080p-video-at-twice-the-rate-of-the-iphone-5-geekbenches-close-to-2010-mac-mini/)

Ich kann mir schwer vorstellen, dass es nur an Zyklon liegt. Offenbar hat der A7 einen besseren Encoder, aber auch höhere Bandbreite und wohl schnellerer Flashspeicher. Für den Nutzer ist das aber egal: Schneller ist schneller.

Sunrise
2013-09-22, 19:18:52
Apple’s iPhone 5S renders 1080P video at twice the rate of the iPhone 5, Geekbenches close to 2010 Mac Mini (http://9to5mac.com/2013/09/22/apples-iphone-5s-renders-1080p-video-at-twice-the-rate-of-the-iphone-5-geekbenches-close-to-2010-mac-mini/)

Ich kann mir schwer vorstellen, dass es nur an Zyklon liegt. Offenbar hat der A7 einen besseren Encoder, aber auch höhere Bandbreite und wohl schnellerer Flashspeicher. Für den Nutzer ist das aber egal: Schneller ist schneller.
Ist es eigentlich sicher, dass das über den PowerVR läuft und nicht über die CPU? Denn wenn das ein direktes Ergebnis des Encoders wäre, dann gibt es da meines Wissen nur das PowerVR-Monster mit 4K-Support und das wäre so ein Hammer, dass ich das erst glaube, wenn ich es sehe. Wäre natürlich auch möglich, dass man den alten aufgeblasen hat, was aber sicher nicht so ganz trivial ist, da PowerVR diese Designs ja speziell auf bestimmte Anforderungen zugeschnitten hat.

Habe leider mein 5s noch nicht, andernfalls hätte ich dort die Grenzen ausgelotet und dann hätten wir eine Antwort darauf. Bisher hat das noch keine Seite richtig analysiert. Das einzige, was mir jedoch - eher zufällig - auffiel ist, dass man beim 5s nun auch offiziell 1080p60 angibt (mit High Profile Level 4.2).

Ailuros
2013-09-22, 19:40:16
Apple’s iPhone 5S renders 1080P video at twice the rate of the iPhone 5, Geekbenches close to 2010 Mac Mini (http://9to5mac.com/2013/09/22/apples-iphone-5s-renders-1080p-video-at-twice-the-rate-of-the-iphone-5-geekbenches-close-to-2010-mac-mini/)

Ich kann mir schwer vorstellen, dass es nur an Zyklon liegt. Offenbar hat der A7 einen besseren Encoder, aber auch höhere Bandbreite und wohl schnellerer Flashspeicher. Für den Nutzer ist das aber egal: Schneller ist schneller.

Uhmm Momentchen: Apple baut im A7 eine total neue CPU und eine total neue GPU ein. Gaebe es einen halbwegs sinnvollen Grund nicht auch neues video encoding und decoding IP von IMG einzubauen?

Ist es eigentlich sicher, dass das über den PowerVR läuft und nicht über die CPU? Denn wenn das ein direktes Ergebnis des Encoders wäre, dann gibt es da meines Wissen nur das PowerVR-Monster mit 4K-Support und das wäre so ein Hammer, dass ich das erst glaube, wenn ich es sehe. Wäre natürlich auch möglich, dass man den alten aufgeblasen hat, was aber sicher nicht so ganz trivial ist, da PowerVR diese Designs ja speziell auf bestimmte Anforderungen zugeschnitten hat.

Habe leider mein 5s noch nicht, andernfalls hätte ich dort die Grenzen ausgelotet und dann hätten wir eine Antwort darauf. Bisher hat das noch keine Seite richtig analysiert. Das einzige, was mir jedoch - eher zufällig - auffiel ist, dass man beim 5s nun auch offiziell 1080p60 angibt (mit High Profile Level 4.2).

Fuer VXE steht nichts in den IMG whitepapers von 4k obwohl auch diese skalierbar sind als cores. Wie dem auch sei bis jetzt hat Apple stets afaik den neuesten Schrei an IMG decoder und encoder IP eingebaut, egal ob sie oefters die Dinger durch sw wegen eigener Gruende gedrosselt haben.

Sunrise
2013-09-22, 19:52:36
Uhmm Momentchen: Apple baut im A7 eine total neue CPU und eine total neue GPU ein. Gaebe es einen halbwegs sinnvollen Grund nicht auch neues video encoding und decoding IP von IMG einzubauen?



Fuer VXE steht nichts in den IMG whitepapers von 4k obwohl auch diese skalierbar sind als cores. Wie dem auch sei bis jetzt hat Apple stets afaik den neuesten Schrei an IMG decoder und encoder IP eingebaut, egal ob sie oefters die Dinger durch sw wegen eigener Gruende gedrosselt haben.
Ja, war auch gerade am suchen, der Encoder ist in der Tat nicht genau spezifiziert, da er wohl "scalable" ist. Beim Decoder gibt Apple aber offiziell nun 1080p60 mit High Profile 4.2 an (das 5s speichert die mit Slo-Mo aufgezeichneten Videos in 720p120 mit High Profile 4.2) und das kann laut IMG eigentlich nur das bedeuten:

POWERVR VXD392 in more detail

The POWERVR VXD392 video decode core is targeted at a wide range of applications including mobile devices, 3DTV, HDTV, IDTV, set top box (STB), Blu-ray and media players. It delivers significant improvements in bandwidth saving and latency tolerance compared to previous generation technologies.

VXD392 is capable of decoding full high-definition (H.264 level 4.2) at 1080P60 and beyond up to full 4k x 4k resolution and can decode multiple streams simultaneously to fully meet Blu-ray and other multi stream decode requirements. The highly parallel architecture of all VXD cores enables a typical H.264 High profile HD stream to be decoded with a clock rate of just 70MHz.VXD392 can be configured on a time division multiplex basis to handle single, dual and multi-stream HD decoding. This allows functions such as stereoscopic 3D, picture-in picture and multi-picture menus for advanced EPG applications.

- See more at: http://www.imgtec.com/news/Release/index.asp?NewsID=597#sthash.aMIX7ZDS.dpuf

Du hast natürlich Recht, dass Apple da bisher schon extrem großzügig war (da hatten wir es ja schonmal drüber), aber 4K würden mich echt umhauen. Vor allem könnte das Ding dann schon H.265, wenn ich mich nicht verlesen habe, was natürlich aber erstmal brach liegen würde. Sowas habe ich eigentlich erst mit dem iPhone 6 erwartet.

Ailuros
2013-09-22, 20:04:35
Kann auch sein dass Apple irgendwo ein paar Aspekte bei der Implementierung kuerzer zieht; bei der A7 GPU welche tatsaechlich einem Rogue 64x0 entspricht gibt der Treiber komischerweise 4k*4k TMUs an waehrend es bei Rogue eigentlich 16k*16k sein sollte.

Anders kann durchaus sein dass der decoder ein VXD392 ist, aber Apple irgendwo etwas gespart hat um sich nur auf ihre eigenen Notwendigkeiten zu begrenzen.

Sunrise
2013-09-22, 20:16:51
Kann auch sein dass Apple irgendwo ein paar Aspekte bei der Implementierung kuerzer zieht; bei der A7 GPU welche tatsaechlich einem Rogue 64x0 entspricht gibt der Treiber komischerweise 4k*4k TMUs an waehrend es bei Rogue eigentlich 16k*16k sein sollte.

Anders kann durchaus sein dass der decoder ein VXD392 ist, aber Apple irgendwo etwas gespart hat um sich nur auf ihre eigenen Notwendigkeiten zu begrenzen.
Das ist sicher möglich, allerdings frage ich mich, ob es da sinnvoll ist, einen fertigen decoder IP core nochmal manuell anzupassen, da das Ding auf 28nm ja so schon winzig im Vergleich zu dem Rest ist. Bei Rogue macht die Begrenzung auf 4k TMUs wohl Sinn, da man dadurch wohl auch andere Teile kleiner auslegen kann. Ist sowieso schon der Wahnsinn, dass Apple solche Eingriffe macht.

Wie auch immer, ich werde mit dem 5s mal testen, was möglich ist, das interessiert mich nämlich wirklich jetzt. :)

Ailuros
2013-09-22, 20:20:35
Wenn Du Resultate hast, bitten wir stets fuer wertvollen feedback :)