PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

BigKid
2012-10-05, 11:14:30
Momentchen in welcher Aufloesung wurde Infinity Blade in den jeweiligen Pads gemessen? Uebrigens sagt der Vergleich sowieso nichts aus da das iPad3 eine Monster-batterie hat.

***edit: wie ich es mir vorstellte: http://www.anandtech.com/show/5789/the-ipad-24-review-32nm-a5-tested/2



Wenn es jetzt in Infinity Blade ein Vergleich zwischen 1024*768 (iPad2, iPad2.4) und 2048*1536 (iPad3) sein sollte, ist der Vergleich total wertlos zwischen iPad2 und iPad3.

Nae... Du hast es falsch verstanden...
Es ging um das iPad2 vs iPad2 V2 oder iPad2.4 wie es auch genannt wird.
Hier hat Apple still und heimlich einen Die-Shrink des A5 gemacht... Ich habe versucht aus dem Erfolg dieses Shrinks abzuleiten ob der A6 gegenüber dem ungeschrinkten A5 tatsächlich doppelte Leistung bei gleichem Verbrauch bringen kann...

Vielleicht magst du dir mit diesem Hinweis nochmal ansehen was ich geschrieben hatte :)

Ailuros
2012-10-05, 12:09:35
Nae... Du hast es falsch verstanden...
Es ging um das iPad2 vs iPad2 V2 oder iPad2.4 wie es auch genannt wird.
Hier hat Apple still und heimlich einen Die-Shrink des A5 gemacht... Ich habe versucht aus dem Erfolg dieses Shrinks abzuleiten ob der A6 gegenüber dem ungeschrinkten A5 tatsächlich doppelte Leistung bei gleichem Verbrauch bringen kann...

Vielleicht magst du dir mit diesem Hinweis nochmal ansehen was ich geschrieben hatte :)

Ich hab Dich sehr gut verstanden, denn Du siehst u.a. auch die Moeglichkeit selber dass Apple's Behauptung vielleicht doch nicht so uebertrieben war fuer iPhone4S vs. iPhone5.

Ich hab Dich auch nicht direkt gequotet, haette aber klarer sein sollen dass der chart eher selber Bloedsinn ist seitens Anand obwohl er es mit dem Text darunter rettet. Wenn ein Geraet in einer 4x Mal so hohen Aufloesung rendert, dann gehoert es auch nicht in den gleichen chart mit den anderen 1024 iPads.

Screemer
2012-10-05, 13:10:56
Es geht in dem Fall aber doch um die allgemeine akkulauzeit und nicht um die Effizienz. Den Nutzer interessiert in dem Fall nur wie lange sein Partner durchhält. Das testet man dann eben unter den regulären Gegebenheiten. In dem Fall eben mit unterschiedlicher Auflösung.

BigKid
2012-10-05, 14:34:43
Ich hab Dich sehr gut verstanden, denn Du siehst u.a. auch die Moeglichkeit selber dass Apple's Behauptung vielleicht doch nicht so uebertrieben war fuer iPhone4S vs. iPhone5.

Ich hab Dich auch nicht direkt gequotet, haette aber klarer sein sollen dass der chart eher selber Bloedsinn ist seitens Anand obwohl er es mit dem Text darunter rettet. Wenn ein Geraet in einer 4x Mal so hohen Aufloesung rendert, dann gehoert es auch nicht in den gleichen chart mit den anderen 1024 iPads.
Ich bin mir IMMERNOCH nicht sicher dass du mich verstanden hast. Es geht nicht um das NEW Ipad oder iPad3. Es geht um das iPad 2 und das iPad 2.4.
Warum also fängst du an von höherer Auflösung zu sprechen ?

Um beurteilen zu können ob der A6 durch die neue Fertigungsstruktur so stark profitiert, dass er doppelte Leistung zum gleichen Preis bringen kann habe ich mich an den Die-Shrink das A5 erinnert... Ich habe also nur A5 alt gegen A5 neu verglichen - sonst wurde am iPad 2.4 NICHTS verändert. Auch nicht die Auflösung.
Zu sehen ist dann eine Akku-Laufzeit-Steigerung in Spielen um 20%. Wenn man nun mal ganz blöd animmt, das der A5 etwa 50% des Stromverbrauchs verursacht bedeuetet das, dass der Die-Shrink soviel Strom spart dass ein A6 mit dem selben Verbrauch wie der UNGESHRINKTE A5 passen könnte.
Und der A5 ist ja der SOC im iPhone 4S...

Es kann natürlich sein, dass wir aneinander vorbei reden, denn ich bezog mich auf dein
Uebrigens sagt der Vergleich sowieso nichts aus da das iPad3 eine Monster-batterie hat.
Das iPad 3 ist zwar auf den Folien auch mit drauf - den habe ich in meine Überlegungen aber gar nicht einbezogen - wärend du vielleicht rein auf die Frage abziehlst ob es Sinn macht den iPAd3 da mit auf die Folien zu nehmen...

Dass sich eine Sinnfrage stellt wenn man die iPADs 2 nun gegen das iPad 3 bencht - ja - das muss jeder selbst entscheiden. Ich finde den Vergleich auf die reine Akku-Laufzeit bezogen schon interessant. Denn auch daran muss sich ein Nachfolger messen... Nur schneller und schöner reicht nicht - ich kann ja auch die Auflösung nicht runtersetzen um Strom zu sparen...

:) Vielleicht werden Spiele oder das iOS einem diese Option irgendwann anbieten (müssen) ;) um den Akku nicht in 1 1/2 Stunden leer zu saugen (und auf 90Grad zu erhitzen) ...

Ailuros
2012-10-05, 14:41:09
Es geht in dem Fall aber doch um die allgemeine akkulauzeit und nicht um die Effizienz. Den Nutzer interessiert in dem Fall nur wie lange sein Partner durchhält. Das testet man dann eben unter den regulären Gegebenheiten. In dem Fall eben mit unterschiedlicher Auflösung.

Es bleibt aber ein Apfel zu Birnen Vergleich. Im Fall von dem chart ist der Unterschied sowieso nur bei 14 Minuten zwischen iPad2 und 3. Das letzte haelt eben fast 6 Stunden aus, eben weil eine gigantische Batterie zur Verfuegung steht, obwohl es sich beim iPad3 um einen um 35% groesseren SoC handelt auf dem gleichen Herstellungsprozess und gleichen Frequenzen.

Ich kann auch zwei Autos vergleichen; das eine faehrt bergauf mit 10% Steigungsrate und das andere auf totaler Ebene den genau gleichen Abstand. Dass im ersten Fall das Auto um N% mehr angestrengt wird ist ja nebensaechlich denn man darf so oder so mit unvergleichbaren metrics vergleichen oder?

BigKid
2012-10-05, 14:53:59
Ich kann auch zwei Autos vergleichen; das eine faehrt bergauf mit 10% Steigungsrate und das andere auf totaler Ebene den genau gleichen Abstand. Dass im ersten Fall das Auto um N% mehr angestrengt wird ist ja nebensaechlich denn man darf so oder so mit unvergleichbaren metrics vergleichen oder?
Einspruch... Denn mit ähnlichen Argument bekommen dicke SUVs eine bessere "Umweltfreundlichkeit" bescheinigt... Weil der "arme" SUV ja ach so viele mehr Tonnen schleppen muss und dafür nur lobenswert wenig mehr Verbraucht hat er ne besser Energieffizienz... Das ist zwar faktisch richtig - verfehlt aber den Zweck für den diese Labels eigentlich dienen (sollten)... Streng genommen sollte aber IMHO für die Effizienz nicht die Gespannlast sondern die Nutzlast zählen und das sind halt im Schnitt c.a. 80kg Mensch.

Zurück zu den Laufzeitvergleichen:
Also ich finde den Vergleich auch zulässig - solange ich als Nutzer nicht die Möglichkeit bekomme bewusst nen Gang runter zu schalten - also z.B. das Rendering auf halbe Auflösung und GPU entsprechend Taktbegrenzt um Strom zu sparen... Dann wäre es wieder was anderes und für einen fairen Vergleich iPad2 und iPad3 müsste dann die selbe Auflösung gefahren werden...

Ailuros
2012-10-05, 15:38:59
Zurück zu den Laufzeitvergleichen:
Also ich finde den Vergleich auch zulässig - solange ich als Nutzer nicht die Möglichkeit bekomme bewusst nen Gang runter zu schalten - also z.B. das Rendering auf halbe Auflösung und GPU entsprechend Taktbegrenzt um Strom zu sparen... Dann wäre es wieder was anderes und für einen fairen Vergleich iPad2 und iPad3 müsste dann die selbe Auflösung gefahren werden...

Wo genau liegt jeglicher Einwand wenn jemand diesen eher wichtigen Unterschied betont? Bei technisch orientierten threads wie diesem ist es vollkommen normal.

Sonst ingesamt hat das iPad3 so oder so eine bis zu 2x Mal so hohe Batterie-laufzeit als eine quasi vergleichbare handheld Konsole wie PS Vita, ergo liegt der Verbraucher generell nicht im Nachteil wenn er Spiele auf dem iPad3 spielt.

BigKid
2012-10-08, 11:49:56
Wo genau liegt jeglicher Einwand wenn jemand diesen eher wichtigen Unterschied betont? Bei technisch orientierten threads wie diesem ist es vollkommen normal.

Sonst ingesamt hat das iPad3 so oder so eine bis zu 2x Mal so hohe Batterie-laufzeit als eine quasi vergleichbare handheld Konsole wie PS Vita, ergo liegt der Verbraucher generell nicht im Nachteil wenn er Spiele auf dem iPad3 spielt.
Aus der Sicht gesprochen hast du recht...
Solange man den Rest nicht aus dem Auge verliert...
A5 vs. A6 bzw. iPhone4S vs. iPhone 5 bezogen ist die reine Akku-Laufzeit halt einfach ein Kriterium ist das man dabei genausowenig unerwähnt lassen sollte...

deekey777
2012-10-11, 22:50:03
Chip Design Luminary Leaves Samsung for Apple (http://blogs.wsj.com/digits/2012/10/11/chip-design-luminary-leaves-samsung-for-apple/)
The gadget maker has hired Jim Mergard, a 16-year veteran of Advanced Micro Devices AMD who was a vice president and chief engineer there before he left for Samsung. He is known for playing a leading role in the development of a high-profile AMD chip that carried the code name Brazos and was designed for low-end portable computers.
Ob das wirklich stimmt? Und wofür genau? Eine eigene Desktop-CPU?

basti333
2012-10-11, 23:47:40
Chip Design Luminary Leaves Samsung for Apple (http://blogs.wsj.com/digits/2012/10/11/chip-design-luminary-leaves-samsung-for-apple/)

Ob das wirklich stimmt? Und wofür genau? Eine eigene Desktop-CPU?

Bei Apple scheint man großes vorzuhaben. Was Desktop CPUs betrifft so denke ich schon das Apple daran arbeitet, aber noch keine Entscheidung getroffen hat ob und wann diese zum Einsatz kommen.

Ailuros
2012-10-12, 00:51:51
Chip Design Luminary Leaves Samsung for Apple (http://blogs.wsj.com/digits/2012/10/11/chip-design-luminary-leaves-samsung-for-apple/)

Ob das wirklich stimmt? Und wofür genau? Eine eigene Desktop-CPU?

Warum sollte es nicht wahr sein? Sonst besteht durchaus die Moeglichkeit dass Apple intern experimentiert aber selbst wenn etwas daraus werden wird dann in der weiteren Zukunft und mit einem relativem konservativem low end design fuer den Anfang.

Sonst hat auch Qualcomm Eric Demers eingestellt. Soll es jetzt heissen dass Qualcomm ploetzlich desktop oder sogar Konsolen GPUs fuer die vorhersehbare Zukunft plant? Engineering Talent und Erfahrung koennen in vielen Projekten nutzvoll sein.

robbitop
2012-10-12, 06:56:05
So einen Mann kann man auch gut für SoCs gebrauchen. Es ist ja nicht so, dass solche Leute nur ganz genau das können, wofür sie bekannt wurden. Je nach CPU / SoC TDP Target können solche Leute alles machen.

Ailuros
2012-10-12, 08:16:00
So einen Mann kann man auch gut für SoCs gebrauchen. Es ist ja nicht so, dass solche Leute nur ganz genau das können, wofür sie bekannt wurden. Je nach CPU / SoC TDP Target können solche Leute alles machen.

Genau. Bei jeglichem custom CPU design das auf IP instruction sets basiert, sind die Herausforderungen nicht gerade klein. Brazos ist ja so oder so ein SoC nur eben mit anderen Zielen.

deekey777
2012-10-12, 10:50:02
Ihr habt die News nicht durchgelesen, oder?

Ailuros
2012-10-12, 11:45:44
Ihr habt die News nicht durchgelesen, oder?

Was genau gibt es zusaetzliches im Link zu lesen dass ich verpasst habe? Ach ja:

Besides the current breed of Apple smartphones and tablets, Moorhead says Mergard’s talents could potentially be applied to Apple’s PC efforts, where its Macs use Intel chips but not SoCs. “He would be very capable of pulling together internal and external resources to do a PC processor for Apple,” Moorhead says.

Da Moorhead wortwoertlich nur PC processor erwaehnt, ist die Interpretation des Authors "not SoC" die hier eher falsch am Platz ist. Wenn es je so weit kommt dass Apple etwas fuer ihre Macs bzw. notebooks selber entwickelt wird es nichts anderes als ein SoC sein.

Sonst sagt Moorhead nichts anderes als dass Mergard sehr gut waere engineering resources zusammenzukratzen fuer so ein Projekt.

Wie in meinem vorigen Beispiel waere Demers fuer Qualcomm genauso ideal GPU engineering resources zusammenzukratzen fuer higher end GPUs als small form factor.

Ich unterstuetze ja selber die Moeglichkeit dass Apple higher end SoCs fuer die Zukunft planen koennte, aber die obrige Aussage ist genauso nichts-aussagend wie unsere Spekulationen hier.

LadyWhirlwind
2012-10-12, 15:15:10
Ich denke der A6 und auch die Anwerbung von Jim Mergard zeigt, dass man in Cupertino die CPU als (möglicher) konkurenzvorteil erachtet und darum auch bereit ist einen entsprechenden Aufwand zu treiben. Bei guten Erfahrungen mit dem A6 und weiteren custom SoC's, wäre es nicht unlogisch für Apple es auch mit Notebooks SoC's /CPU's zu versuchen. Ein möglicher Kandidat dafür wären die kleinen MacBook Air Modelle (11"&13"), sofern sich für Apple und den Kunden der Aufwand/ anfängliche Inkompatibilität für die Fat-Binaries lohnt.

Was wurde eigentlich aus den Foundry-Plänen von Apple? Hat man da mal wieder was gehört? Ich denke nicht, dass Apple die Pläne nicht mehr weiter verfolgt, auch wenn sie bei TSMC mit ihrer Milliarde kein Glück hatten. Intel machts ja vor, und Apple hat genug einnahmen um sich ein ähnliches Konzept zu leisten.

Es würde mich nicht überraschen, wenn es langfristig zu einem Konkurenz-Kampf zwischen Windows Intel CPU-Architektur und Apple CPU-Architektur käme.

Ailuros
2012-10-12, 16:25:05
Was wurde eigentlich aus den Foundry-Plänen von Apple? Hat man da mal wieder was gehört? Ich denke nicht, dass Apple die Pläne nicht mehr weiter verfolgt, auch wenn sie bei TSMC mit ihrer Milliarde kein Glück hatten. Intel machts ja vor, und Apple hat genug einnahmen um sich ein ähnliches Konzept zu leisten.

TSMC hat angegeben dass sie an dedizierte fabs fuer IHVs denken. Muss zwar nichts heissen, aber Apple waere ein guter Kandidat dafuer.

Es würde mich nicht überraschen, wenn es langfristig zu einem Konkurenz-Kampf zwischen Windows Intel CPU-Architektur und Apple CPU-Architektur käme.

Im small form factor Markt ist es ohnehin schon so. Fuer den Moment wuerde ich noch schlucken dass vielleicht Apple langfristig lower end SoC fuer ihre desktop/notebooks entwickeln koennte, nach dem Punkt muss ich meinem Freund robbitop oben dann schon recht geben. Mit Intel's Erfahrung und Herstellungs-prozess Vorteil ist es verdammt schwer in breiteren Felden zu konkurrieren.

Das einzige negative fuer Intel ist dann eben dass sie ein sehenswertes Verkaufsvolumen verlieren wuerde.

Fakt ist momentan dass es zwar alles bunte Spekulation ist, aber es spricht sich schon hinter den Kulissen herum:

http://www.anandtech.com/show/6355/intels-haswell-architecture

To make matters worse, there's trouble in paradise. When Apple dropped PowerPC for Intel's architectures back in 2005 I thought the move made tremendous sense. Intel needed a partner that was willing to push the envelope rather than remain content with the status quo. The results of that partnership have been tremendous for both parties. Apple moved aggressively into ultraportables with the MacBook Air, aided by Intel accelerating its small form factor chip packaging roadmap and delivering specially binned low leakage parts. On the flip side, Intel had a very important customer that pushed it to do much better in the graphics department. If you think the current crop of Intel processor graphics aren't enough, you should've seen what Intel originally planned to bring to market prior to receiving feedback from Apple and others. What once was the perfect relationship, is now on rocky ground.

The A6 SoC in Apple's iPhone 5 features the company's first internally designed CPU core. When one of your best customers is dabbling in building CPUs of its own, there's reason to worry. In fact, Apple already makes the bulk of its revenues from ARM based devices. In many ways Apple has been a leading indicator for where the rest of the PC industry is going (shipping SSDs by default, moving to ultra portables as mainstream computers, etc...). There's even more reason to worry if the post-Steve Apple/Intel relationship has fallen on tough times. While I don't share Charlie's view of Apple dropping Intel as being a done deal, I know there's truth behind his words. Intel's Ultrabook push, the close partnership with Acer and working closely with other, non-Apple OEMs is all very deliberate. Intel is always afraid of customers getting too powerful and with Apple, the words too powerful don't even begin to describe it.

What does all of this have to do with Haswell? As I mentioned earlier, Intel has an ARM problem and Apple plays a major role in that ARM problem. Atom was originally developed not to deal with ARM but to usher in a new type of ultra mobile device. That obviously didn't happen. UMPCs failed, netbooks were a temporary distraction (albeit profitable for Intel) and a new generation of smartphones and tablets became the new face of mobile computing. While Atom will continue to play in the ultra mobile space, Haswell marks the beginning of something new. Rather than send its second string player into battle, Intel is starting to prep its star for ultra mobile work.

deekey777
2012-10-12, 16:32:45
TSMC Seen to be Sole 20nm Process Supplier to Apple Quad Processors (http://cens.com/cens/html/en/news/news_inner_41728.html)
Citigroup Global Markets Inc. estimated Taiwan Semiconductor Manufacturing Co. (TSMC) to be the only supplier of 20nm process to Apple quad-core processors over the next one to two years, citing the company’s unmatched technological advance on 20nm process and Apple’s decision to adopt 20nm quad-core processors in its new products.

Ailuros
2012-10-12, 16:50:52
ROFL zumindest ist die projezierte timeline nicht ausserhalb dem logischen Feld. 20nm ist bei weitem momentan in einem so miserablem Zustand wie er es kein voriger Prozess bis jetzt war.

Sonst interessiert mich momentan hauptsaechlich was Apple mit 28nm vorhat.

Coda
2012-10-12, 16:54:25
ROFL zumindest ist die projezierte timeline nicht ausserhalb dem logischen Feld. 20nm ist bei weitem momentan in einem so miserablem Zustand wie er es kein voriger Prozess bis jetzt war.
Davon war auszugehen. Das wird immer schlimmer werden.

LadyWhirlwind
2012-10-13, 13:48:54
Apple's Foundry Pläne werden uns zeitig genug verraten wohin die Reise in Cupertino gehen soll. Ich würde nicht ausschliessen wollen, dass Apple - wie Intel - nicht nur das Chipdeasign als potenzieller Konkurenzvorteil sieht sondern auch die Fertigung. Ausreichend Bedarf für eigne Foundry's und Entwicklung von Prozesstechnologien hat Apple ja. Es wird zwar sicher ein paar Jahre dauern bis Apple Intel eingeholt bzw. aufgeholt hat, aber noch ist Intel nicht uneinhohlbar weit vorne - billig wirds aber wohl nicht werden, bei dem Gewinn kann Apple das aber verschmerzen.

Vorderhand bin ich aber mal gespannt was im iPad Mini steckt, wenn es denn kommt.

basti333
2012-10-13, 16:19:51
Apple's Foundry Pläne werden uns zeitig genug verraten wohin die Reise in Cupertino gehen soll. Ich würde nicht ausschliessen wollen, dass Apple - wie Intel - nicht nur das Chipdeasign als potenzieller Konkurenzvorteil sieht sondern auch die Fertigung. Ausreichend Bedarf für eigne Foundry's und Entwicklung von Prozesstechnologien hat Apple ja. Es wird zwar sicher ein paar Jahre dauern bis Apple Intel eingeholt bzw. aufgeholt hat, aber noch ist Intel nicht uneinhohlbar weit vorne - billig wirds aber wohl nicht werden, bei dem Gewinn kann Apple das aber verschmerzen.

Vorderhand bin ich aber mal gespannt was im iPad Mini steckt, wenn es denn kommt.

Ich glaube an keine eigene Foundry von Apple. Das passt irgendwie nicht zu Apple. Die Vergangenheit hat gezeigt das sie zwar massig geld haben, damit aber nachwievor sehr vorsichtig umgehen. Und Milliarden in eine foundry zu pumpen, in der Hoffnung nach Jahren an die etablierten heranzukommen, ist schon sehr gefährlich.

Zumal die kosten für Strukturverkleinerungen ja explodieren und es nicht unwahrscheinlich ist das es zu noch mehr Konsolidierungen kommt. Apple wird wohl besser beraten sein, wenn es weiterhin seine Einkaufsmarkt geschickt ausspielt. Man darf auch nicht vergessen das Apple seit den neunzigern komplett aus jedweder eigenfertigung ausgestiegen ist und das hat sich bisher eigentlich nur positiv ausgewirkt, rückwirkend kann sagen das apple auch hier für einige konkurrenten Vorreiter war.


Ich ich stimme hier auch anandtech zu, wenn Apple auch in Desktopbereich eigene ARMs einsetzt, wäre der wegfallende Kunde für Intel sicherlich verkraftbar, aber microsoft könnte sich genötigt fühlen hier nachzuziehen, um nicht ein weiteres mal einen (vermeindlichen) trend zu verschlafen.

Ailuros
2012-10-13, 19:10:37
Es ist billiger heutzutage in foundries fett zu investieren um Herstellungs-Prioritaeten zu sichern , als eine eigene foundry auf die Beine zu stellen. Wenn man das vorige nicht sichern kann und man hat Angst dass sein Geschaeft durch Herstellungs-probleme gefaerdet wird dann ja waere es ein Gedanke.

Macht Qualcomm momentan auch nicht anders, obwohl sie nicht ausgeschlossen haben dass sie vielleicht in weiterer Zukunft an eine eigene foundry denken koennten.

Fuer die naechsten paar Jahre zumindest scheint es kein Problem zu sein fuer Apple und sie scheinen wohl doch mit fetten Investitionen ihre Ecke bei TSMC gesichert zu haben. Zusaetzlich ist die area (stets innerhalb von Grenzen) kein besonderer Kopfschmerz fuer Apple und ihr Volumen. Eine eigene foundry haette die Vorteile dass wirklich keiner mehr wissen wuerde was sie planen und angepasste Prozess-technologie zu ihren jeweiligen designs u.a. Die moeglichen Nachteile hat basti oben schon erwaehnt.

BigKid
2012-10-22, 09:41:35
Ich bin euch noch ein update schuldig bezüglich der Laufzeit A5 vs. A6 / iPhone4S vs. iPhone5. Ich habe letzte Woche erschreckt festgestellt, dass sich die Probleme von iOS6 bzw. dem iPhone5 nicht nur auf Probleme mit der Verbindung oder dem Durchsatz durchs WLAN zu beschränken scheinen, sondern eventuell auch auf den Stromverbrauch mit aktivierten WLAN.

Ich konnte einfach durch konsequentes abschalten des WLANs bei meinem iPhone5 das "Standvermögen" von 1-2.5 Tagen auf 3-4 Tage erhöhen. Normalerweise hatte ich das WLAN unter der Woche immer an weil ich entwder auf Arbeit oder Zuhause auch WLAN habe... Ich weiß das auch beim iPhone4S natürlich eine Auswirkung da war, habe sie aber lange nicht als so heftig in Erinnerung.

Kann also gut sein, dass mein Eindruck das 5er halte lange nicht so lange durch zwar richtig, aber nicht dem A6 sondern der restlichen Hardware geschuldet ist...
Trotzdem habe ich das Thema das 4S mal gegen das 5er antreten zu lassen nicht aufgegeben. Ich vergess es grade nur immer wenn ich mal Zeit hätte...

Einen weiteren Vergleich habe ich allerdings vor 2 Wochen in den Alpen noch gemacht: GPS Tracking... Da war das 5er sogar einen paar Prozent sparsamer als das 4S.

Ailuros
2012-10-22, 10:00:24
Kann es sein dass bei aktiviertem WLAN das Geraet oefters nach einer WLAN Verbindung suchen muss? Konstante Suchen beinflussen den Stromverbrauch schon um einiges. Du hast wohl einen wireless router zu Hause oder? Wenn Du das iPhone5 mit aktiviertem WLAN stundenlang herumliegen hast und es sucht nicht aus irgend einem Grund nach einer Verbindung muesste unter normalen Umstaenden sich nichts fundamentales aendern.

Ich persoenlich schalte WLAN ausserhalb vom Buero oder zu Hause stets ab, sonst sucht mir das Ding konstant nach Verbindungen und verschwende somit unnoetig Batterie-laufzeit.

BigKid
2012-10-22, 10:07:11
Kann es sein dass bei aktiviertem WLAN das Geraet oefters nach einer WLAN Verbindung suchen muss? Konstante Suchen beinflussen den Stromverbrauch schon um einiges. Du hast wohl einen wireless router zu Hause oder? Wenn Du das iPhone5 mit aktiviertem WLAN stundenlang herumliegen hast und es sucht nicht aus irgend einem Grund nach einer Verbindung muesste unter normalen Umstaenden sich nichts fundamentales aendern.

Ich persoenlich schalte WLAN ausserhalb vom Buero oder zu Hause stets ab, sonst sucht mir das Ding konstant nach Verbindungen und verschwende somit unnoetig Batterie-laufzeit.
Es sollten beide WLANs bekannt gewesen sein (Office und zu Hause).
Zumindest mein iPhone hat aber definitiv im WLAN ein Problem. Trotz bester Verbindungsstärke will ganz oft nicht ein Byte über den Äther - bei mir Zuhause hat es geholfen alles statisch einzutragen (IPAdresse, Gateway, DNS,...)...Trotzdem fühlt sich WLAN immernoch langsamer an als 3G.
Positiv scheint mir allerdings der Verbrauch unter 3G zu sein - mir scheint als würde das 5er nun im reinen 3G betrieb länger durchzuhalten als das 6er...
Eventuell ist irgendwas im iPhone5/iOS6 "geschwätziger" und zusammen mit den WLAN Problemen führt dass dazu dass ständig Daten gesendet werden bzw. es versucht wird...

Ailuros
2012-10-22, 10:26:56
Also ich waere beim letzten Satz ziemlich unruhig an Deiner Stelle :eek:

BigKid
2012-10-22, 10:33:37
Also ich waere beim letzten Satz ziemlich unruhig an Deiner Stelle :eek:
Pfff... Naja - ich gehe erstmal von einer Unschuldsvermutung aus. Sonst dürfte ich mir kein Handy mehr kaufen... Ist ja z.B. bekannt das Apple gerne Informationen sammelt um z.B. zu wissen welche WLANs denn an bestimmten Orten vorhanden sind um dann damit wiederum die Positionsbestimmung ohne GPS rein über WLAN und 3G besser zu machen.
Oder in iOS6 sind aktuell noch irgendwelche "Debug" Einstellungen aktiv, die Daten über Abstürze, Stromverbrauch etc. an einen Apple-Server funken wollen... Watt weiss ich... Aber im Ernst - ich habe diese Unschuldsvermutung im Bereich Politik und Soziales bereits verloren... Wenn ich die nun auch hier noch verliere, dann weiss ich bald nicht mehr wohin... Also gehe ich erstmal von einem Bug aus...

Ailuros
2012-10-22, 10:52:58
An Apple hab ich nichtmal gedacht um ehrlich zu sein. Ich kenn mich mit den Dingern zu wenig aus und ich weiss auch nicht ob und welche 3rd party Applikationen Du installiert hast.

Ailuros
2012-10-22, 17:47:21
Ich traue solchen Einschaetzungen meistens wenig, aber eine Indizie ist es schon:

http://www.fudzilla.com/home/item/29175-ipad-mini-bom-estimated-at-$195

LadyWhirlwind
2012-10-23, 01:30:28
Wir werden sehen was es kostet, ich bin schon mal gespannt darauf, wo genau Apple das Gerät platzieren wird. Aber $349 scheint mir nicht so verkehrt, vorallem wenn der iPod Touch 5th Gen $299 kostet. Appel wird auch so mehr als genug von den Geräten verkaufen.

@BigKid Laut: http://www.computerbase.de/news/2012-10/apple-testet-ios-6.0.1/ sollen in iOS 6.0.1 irgendwelche Wlan-Probleme behoben werden. Vielleicht lag es bei dir auch daran.

sth
2012-10-23, 01:56:16
Aber $349 scheint mir nicht so verkehrt
In einem Markt, in dem sich $199 als Einstiegspreis für gute Geräte (allen voran Nexus 7) etabliert, fände ich $349 schon ziemlich abgehoben für das Einstiegsmodell. Google und auch Amazon geben zwar selbst zu, dass sie keine großen Margen auf ihren Geräten haben (d.h. es ist nicht davon auszugehen, dass Apple preislich komplett mitzieht), dennoch sehe ich $299 eigentlich als oberste Schmerzgrenze für das Basismodell an – gerade wenn sie damit auch auf Schulen abzielen wollen.

Ich bezweifle, dass sie damit im 7"-8"-Tablet Markt auch nur annähernd die Marktanteile erreichen würden, wie sie derzeit im 10"-Markt inne haben.

vorallem wenn der iPod Touch 5th Gen $299 kostet.
Aber dafür auch gleich mit 32GB und einem der besten Displays, die derzeit überhaupt zu kriegen sind. Die Produktlinie als solche geht ja zudem schon bei $199/16GB los (wenn auch mit dem alten 2010er Modell).

Appel wird auch so mehr als genug von den Geräten verkaufen.
Wohl wahr. ;)

Heelix01
2012-10-23, 05:16:07
Ich bezweifle, dass sie damit im 7"-8"-Tablet Markt auch nur annähernd die Marktanteile erreichen würden, wie sie derzeit im 10"-Markt inne haben.

Nüchtern Betrachtet ist der typische 7" Käufer ja schon jemand der wenig Geld ausgeben will und nicht einer der 7" so toll findet.
Aber das gehört in eine Diskussion über den nutzen von 7" Tablet zwischen 5" smartphone und 10" Tablet.

Letztlich teilen die Anbieter diese Einschätzung oder habe ich die highend 7" Geräte für 500€ übersehen ?

Ailuros
2012-10-23, 08:15:26
In einem Markt, in dem sich $199 als Einstiegspreis für gute Geräte (allen voran Nexus 7) etabliert, fände ich $349 schon ziemlich abgehoben für das Einstiegsmodell. Google und auch Amazon geben zwar selbst zu, dass sie keine großen Margen auf ihren Geräten haben (d.h. es ist nicht davon auszugehen, dass Apple preislich komplett mitzieht), dennoch sehe ich $299 eigentlich als oberste Schmerzgrenze für das Basismodell an – gerade wenn sie damit auch auf Schulen abzielen wollen.

Ich bezweifle, dass sie damit im 7"-8"-Tablet Markt auch nur annähernd die Marktanteile erreichen würden, wie sie derzeit im 10"-Markt inne haben.

Amazon's CEO hat vor kurzem zugegeben dass sie beim break even point verkaufen. Ergo wenn es stimmt, kostet sie das 7" HD in etwa $199, was mir aber zugegeben ziemlich viel klingt ueberhaupt bei einem so relativ bescheidenem SoC. Falls es aber doch stimmen sollte wird der BOM von einem mini auf jeden Fall nicht gleich sein sondern hoeher IMO, ueberhaupt da ich bis jetzt A5R2 erwarte. Im Fall von einem A6 aendert sich gleich nochmal das ganze Bild (nicht besonders wahrscheinlich aber man weiss ja nie was Apple vorhat).

Aber dafür auch gleich mit 32GB und einem der besten Displays, die derzeit überhaupt zu kriegen sind. Die Produktlinie als solche geht ja zudem schon bei $199/16GB los (wenn auch mit dem alten 2010er Modell).

Verschiedene Geraete und ziemlich sehenswerte Unterschied was BOM betrifft.

sth
2012-10-23, 10:41:38
Amazon's CEO hat vor kurzem zugegeben dass sie beim break even point verkaufen. Ergo wenn es stimmt, kostet sie das 7" HD in etwa $199, was mir aber zugegeben ziemlich viel klingt ueberhaupt bei einem so relativ bescheidenem SoC. Falls es aber doch stimmen sollte wird der BOM von einem mini auf jeden Fall nicht gleich sein sondern hoeher IMO, ueberhaupt da ich bis jetzt A5R2 erwarte. Im Fall von einem A6 aendert sich gleich nochmal das ganze Bild (nicht besonders wahrscheinlich aber man weiss ja nie was Apple vorhat).
Der BOM dürfte schon ein paar $ höher liegen als von Kindle Fire und Nexus 7 aber vermutlich nicht viel wenn man von A5r2 und einem 1024er Display ohne Superlativen ausgeht. Zum Vergleich: Das Nexus 7 kommt ja auch schon mit IPS-Panel und Tegra3.

Wie gesagt: Apple wird sich die Marge nicht nehmen lassen, aber für >$300 müssten sie schon etwas mehr bieten IMHO.

Verschiedene Geraete und ziemlich sehenswerte Unterschied was BOM betrifft.
Schon klar, ging mir da eher um die Verbrauchersicht als den BOM. ;) Es gäbe wenig Verwirrung darüber, dass das iPad günstiger wäre als der iPod touch, da der iPod touch ja theoretisch schon bei $199 losgeht.

Ailuros
2012-10-23, 11:00:42
Der BOM dürfte schon ein paar $ höher liegen als von Kindle Fire und Nexus 7 aber vermutlich nicht viel wenn man von A5r2 und einem 1024er Display ohne Superlativen ausgeht. Zum Vergleich: Das Nexus 7 kommt ja auch schon mit IPS-Panel und Tegra3.

Wie gesagt: Apple wird sich die Marge nicht nehmen lassen, aber für >$300 müssten sie schon etwas mehr bieten IMHO.

Wenn es tatsaechlich ein A5R2 wird, sehe ich nirgends eine Garantie dass die Frequenzen gleich sein werden wie beim touch5. Wenn ja wird die insgesamte Leistung ziemlich laecherlich sein ueberhaupt im Vergleich zu Tegra3 wenn Du's schon erwaehnst und sogar noch mit niedrigerer Aufloesung als im vorigen.

Ob es den BOM theoretisch selbst indirekt erhoehen koennte? Keine Ahnung bei so einer These muesste man wissen wie die binning yields aussehen. Wenn das mini jetzt tatsaechlich mit deutlich hoeheren Frequenzen ankommt, dann wuerde ich vorschlagen dass Apple bis jetzt diejenigen SoCs mit hoeherer Takttoleranz durch die bisherige A5R2 Produktion gesammelt hat und wohl noch zusaetzliche wafer-runs benoetigen wird um die Nachfrage zu decken. Sonst im weniger wahrscheinlichen Fall wo sie A6 SoCs benutzt haben, wird eben der "Abfall" mit der niedrigsten logischen Takt-toleranz dafuer benutzt.


Schon klar, ging mir da eher um die Verbrauchersicht als den BOM. ;) Es gäbe wenig Verwirrung darüber, dass das iPad günstiger wäre als der iPod touch, da der iPod touch ja theoretisch schon bei $199 losgeht.

Das iPod touch 5 landet momentan in etwa die gleiche Leistung wie das iPad2. Das ist IMHO fuer den Endverbraucher kein besonderes Kaufargument fuer das mini eher das Gegenteil. Hingegen Leistung die sich zwischen iPad2 und iPad3 platziert dann schon und in dem Fall werden auch nicht allzu viele ueber den MSRP meckern. Aber es ist nach wie vor Apple; ich muss sie natuerlich nicht verstehen koennen ;)

***edit: nicht mal iPad2 Leistung sondern eher iPhone4S fuer das iPod touch 5:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&certified_only=1&D1=Apple%20iPod%20Touch%205&D2=Apple%20iPhone%204S

sth
2012-10-23, 11:28:39
Ich denke was den BOM etwas höher treibt als bei Nexus und Kindle dürfte vor allem das Gehäuse sein (vermutlich Alu statt Plastik) und vielleicht kriegt das Display auch noch In-Cell-Technik, um das Gerät noch einen Hauch dünner machen zu können. Was die Kosten für den A5r2/A6 angeht: Das lässt sich natürlich schwer schätzen und hängt, wie du schon sagst, von vielen Faktoren ab. Allerdings produzieren sie den A5r2 auch schon eine ganze Weile und die Die-Fläche ist noch dazu geringer als beim Tegra3, also gehe ich eher nicht davon aus, dass man hier deutlich höhere Kosten zu erwarten hätte.

Ailuros
2012-10-23, 15:10:24
Allerdings produzieren sie den A5r2 auch schon eine ganze Weile und die Die-Fläche ist noch dazu geringer als beim Tegra3, also gehe ich eher nicht davon aus, dass man hier deutlich höhere Kosten zu erwarten hätte.

Unter 40nm herzustellen ist um einiges billiger als 32nm. Ist zwar ein bekloppter Vergleich (denn 32 != 28nm) aber bei TSMC kostet heute ein 28nm wafer um einiges ueber 2x Mal so viel als ein 40nm wafer. Die ~25% die T30 groesser ist reichen bei weitem nicht den Kosten-Unterschied auszugleichen, sonst waere NV schoen bloed gewesen nicht noch eine T3x refresh auf 28nm zu jagen um mit Frequenzen nochmal heftig zuzulegen.

Und bevor es jemand sagt ja natuerlich geniesst Apple Mega-Rabbatt bei Samsung dank hohen Volumen fuer die Herstellung, aber dieser gilt nicht nur ausschliesslich fuer einen einzigen Prozess.

sth
2012-10-23, 15:33:25
Ist zwar ein bekloppter Vergleich (denn 32 != 28nm) aber bei TSMC kostet heute ein 28nm wafer um einiges ueber 2x Mal so viel als ein 40nm wafer.
Interessant, dass die Unterschiede dermaßen groß sein können hätte ich nicht gedacht.

deekey777
2012-10-23, 20:13:46
Die vierte iPad-Generation kommt mit einem A6X. Nicht einfach einem A6, sondern einem A6X.

fizzo
2012-10-23, 20:28:05
Die vierte iPad-Generation kommt mit einem A6X. Nicht einfach einem A6, sondern einem A6X.

Für mich persönliche das Highlight vom heutigen Event - bin schon auf näher Details gespannt =)

sth
2012-10-23, 20:28:38
A6X fand ich jetzt nicht überraschend (also dass auch zukünftige Retina-iPads abgewandelte SoCs bekommen werden). Schon überraschend fand ich dagegen, dass es jetzt überhaupt schon einen "richtigen" Refresh gibt, also nicht nur den neuen Dock-Connector.

Bin mal auf die GPU gespannt, aber aufgrund des frühen Launches vermute ich mal es wird die gleiche Konstellation wie schon beim A5X sein (MP4), nur wahrscheinlich mit höherem Takt. Oder mit anderen Worten: Rogue werden wir dann wohl frühstens nächsten Herbst sehen.

[edit]: Gerade gesehen: Apple gibt auch 2x bei der GPU-Performance an, nicht nur bei der CPU. Hmm...

Nightspider
2012-10-23, 20:28:48
Damit hat Ailuros wohl am wenigsten gerechnet. :D

Ich glaube das wir im März dafür kein neues iPad sehen werden. Mal sehen. Von meinem iPad 1 wäre der Sprung zu meinem iPad 4 sicherlich riesig. Über einen Umstieg werde ich mittelfristig nachdenken.

BigKid
2012-10-23, 20:35:17
Die vierte iPad-Generation kommt mit einem A6X. Nicht einfach einem A6, sondern einem A6X.
Himmel Ar*ch und Zwirn...
So langsam...
In der neuen Fertigungstechnik...
2mal schneller - verdammt...
Wenn das beim Rendern von PDFs durchschlägt und die Laufzeit besser ist...Dann bin ich versucht... Mag jemand ein IPAD 3 (64GB / umts) ?
Trotzdem - grad mal n halbes Jahr nach dem letzten.
Pfffffffffffff....der A6X wird auch mehr gpu power haben als der A5X...Auch 2x...
Mann dann war das Pad3 ein echter Lückenfüller...
Um mal nicht von vera***he zu sprechen.

fizzo
2012-10-23, 21:09:31
Ich quote mich mal aus dem Sammelthread:


Ein "Dual-core A6X with quad-core graphics" laut Homepage.

http://www.apple.com/at/ipad/compare/

Kann mir nicht vorstellen, dass der Takt, im Vergleich zum A5X, verdoppelt wurde....

...wären dann 2GHz :ugly:

Nightspider
2012-10-23, 21:11:43
Wahrscheinlich beides neue Architekturen mit höherer Frequenz und deutlich schnellerer Speicheranbindung.

Doppelter Wlan-Speed dürfte auch bemerkbar sein auf YouTube und anderen Streaming-Portalen. Vielleicht sogar bei Speicherintensiven Websiten.

iFanatiker
2012-10-23, 21:13:49
So...Wetten werden angenommen beim A5X

[] Verdoppelung des Taktes
[] Verdoppelung der Cluster
[] mehr Bandbreite
[] Kombi
[] Sonder Auswahl: Rogue

Ich tippe mal:

5 Cluster mit leicht erhöhten Takt?

Eher Interessant ist doch wer den A6X fertigt?

Edit: Quadcore? Also SGX543MP4 mit ~400 MHz?



Ich glaube das wir im März dafür kein neues iPad sehen werden. Mal sehen. Von meinem iPad 1 wäre der Sprung zu meinem iPad 4 sicherlich riesig. Über einen Umstieg werde ich mittelfristig nachdenken.

Ende Märze bis Ende Mai wird es ein neues iPad geben.....außer die Windows 8 Tablet floppen so stark, dass Apple keinen unmittelbare Bedarf nach einen Update sieht.

fizzo
2012-10-23, 21:17:16
Bin auf folgendes gestossen:

Until we have a proper analysis of the SoC’s silicon, the most likely theory is that Apple adopted the same CPU cores as on the A6 and possibly pushed up the processor speed, while switching to a lower manufacturing node (the A6 is built on a 32nm process), something that would make sense given that the battery life appears to be more or less constant.

Apple also added one more GPU core to the A6, swapping the PowerVR SGX 543MP4 for something beefier. At equal speed, each core must be at least twice as powerful as the SGX543 which means that whatever is in the iPad 4 could be the first Series 6 Power VR Rogue GPU

link (http://www.itproportal.com/2012/10/23/some-rogue-thoughts-a6x-soc-apple-ipad-4-tablet/)

AnarchX
2012-10-23, 21:18:16
...wären dann 2GHz :ugly:
Ausgehend von der Verdopplung A5->A6 (0,8->1,3GHz), sollten es wohl um die 1,6GHz sein.

Unter 32nm erreicht Intel bei SGX544 bis zu 640MHz, da sollten ~500MHz wohl durchaus erreichbar sein.

iFanatiker
2012-10-23, 21:22:42
Unter 32nm erreicht Intel bei SGX545 bis zu 640MHz, da sollten ~500MHz wohl durchaus erreichbar sein.

Lass dich nicht vom Namen täuschen. Ein SGX543 Cluster ist bisschen kleiner als der SGX545. Hier sind es minmum vier Cluster. Ist schon eine ganze andere Nummer.

Nightspider
2012-10-23, 21:27:49
Auf jeden Fall wird Apple der 4.Generation des iPads der Konkurenz (Google+Samsung) und derem angeblich neuen HighEnd Tablet Nexus 10 (2560*1600 + Exynos 5250 A15 DualCore) vorweggreifen.

Wobei das neue Google/Samsung Tablet natürlich mehr Leistung und eine höhere Auflösung bieten würde.
Bei Android fehlen mir aber immernoch die ganzen Multitasking Gesten, die Apple bietet. (Mit 5 Fingern Apps wechseln, schließen und mit 4 Fingern den "Taskmanager" öffenen).

Ailuros
2012-10-23, 21:42:11
Damit hat Ailuros wohl am wenigsten gerechnet. :D

Meinst Du jetzt A6X oder was? Falls ja meine schlimmsten Befuerchtungen fuer das naechste iPad waren nur 2x Mal so hohe GPU Leistung im Vergleich zum iPad2. Haettest Du die Debatte hier naeher verfolgt haettest Du gesehen dass ich einer der wenigen war die damit gerechnet haben :(

Nightspider
2012-10-23, 21:51:52
Oh, dann hatte ich das wohl falsch in Erinnerung. Sry. :)

Das du mit einem iPad 4Gen gerechnet hast ist mir tatsächlich nicht aufgefallen bzw. habe ich wohl überlesen.

Wann rechnest du denn mit dem iPad 5Gen? in 6 oder in 12 Monaten?

Das einzige was ich mir jetzt noch wünschen würde: Vodafone LTE Support, InCell Display, mehr RAM, doppelten Flash-Speicher zu gleichen Preis.

Es ist schon etwas heftig das Apple nach 2,5 Jahren immernoch den gleichen Aufpreis für die gleichen Speichermengen verlangt, wo 256GB SSDs für 150 Euro zu haben sind.

Ailuros
2012-10-23, 22:09:50
Lass dich nicht vom Namen täuschen. Ein SGX543 Cluster ist bisschen kleiner als der SGX545. Hier sind es minmum vier Cluster. Ist schon eine ganze andere Nummer.

Ich glaub ich hab das alte Series5XT whitepaper nicht mehr, aber nach IMG in dem whitepaper waren alle SGX cores unter 200MHz@65nm angegeben:

SGX543/DX9 = 8mm2 (MP2 = 16mm2, MP4= 32mm2 usw.)
SGX545/DX10.1 = 12.5mm2

Offensichtlich kostet es mehr die area wenn man die Frequenz erhoeht, aber bei weitem eben nicht als wenn man im Fall von Series5XT core-Anzahl skaliert; dafuer steigt aber der Stromverbrauch mit der hoeheren Frequenz radikal.

Intel interessiert die area genauso wenig wie Apple aus anderen Gruenden, da Intel selber in ihren foundries herstellt. Der MP4 im A5X duerfte unter ueber 40mm2 unter Samsung 45nm gross sein, waehrend der 545@640MHz unter Intel 32nm nur gerade um ein zweistelliges Prozentual kleiner ist als oben angegeben.

Woher Du es jetzt hast dass ein SGX543MPx cluster kleiner sein wuerde als ein single core 545 reicht leider nicht in meine Phantasie ;)

Series5XT sind uebrigens sogar etwas groesser als nur 8mm2 pro core weil fuer das Sueppchen der multi-core Skalierung noch etwas dazukommt dass IMG komischerweise nie bis jetzt erwaehnt hat. Komischerweise gibt es im Galaxy Nexus Treiber source-code eine Referenz fuer "Hydra", was ich aber oeffentlich noch nicht erklaeren will fuer was es steht.

Sonst ist Series5XT generell ein merkwuerdiges +/- was Transistoren betrifft im Vergleich zu Series5 cores. Der 545 hat eben nicht nur DX10 geometry shaders sondern einen um einiges flexibleren in Programmierbarkeit primitive processor der auch tessellieren kann unter Umstaenden. Da die Leistung aber eher miserabel war, flog das ganze Zeug raus und in Series5XT wurde der ganze Brei auf etwas mehr als dem typischen DX10 geometry shader reduziert.

Was jetzt Series6 Rogue betrifft sollte man natuerlich finale Ankuendigungen erwarten aber egal wie oft ich es drehe durch spekulative Mathe anhand IMG's eigenen oeffentlichen Behauptungen und ST Ericsson's angekuendigte Novathor A9600 Spezifikationen, wird mit einer Frequenz von >650MHz dafuer gerechnet und IMG hat es auch mehrere Male angegeben dass die hoehere Leistung durch eine neue breitere Architektur + hoehere Frequenzen + kleinere Herstellungsprozesse kommt.

Summa summarum: meine schlimmsten Befuerchtungen fuer Apple waren in letzter Zeit dass sie nicht im naechsten iPad auf Rogue steigen. 2x Mal die GPU Leistung im Vergleich zum iPad3 klingt mir eher nach einem Series5XT MP6@325MHz oder alternativem config der dessen Leistung erreicht. Selbst der bescheidenste momentan erhaeltliche Rogue (GC6200/DX10.1) waere ca. 3x mal SGX543MP4@250MHz GPU Leistung. Verdammter Mist :mad:

lumines
2012-10-23, 22:12:38
Wann rechnest du denn mit dem iPad 5Gen? in 6 oder in 12 Monaten?

Ich bin zwar nicht Ailuros, aber man kann wohl davon ausgehen, dass das iPad ab jetzt immer zu dieser Zeit vorgestellt wird. Die Keynote im Frühjahr war zeitlich eigentlich immer ein bisschen seltsam und ich vermute fast, dass sie das iPad 4 (oder late 2012?) bewusst genutzt haben um die Release-Zyklen ein bisschen anzugleichen.

Das iPad 3 hätte sich dafür eher nicht so gut geeignet, weil die GPU-Leistung eben doch recht grenzwertig war. Dann hätte man überdurchschnittlich lange auf einem (relativ zur Auflösung gesehen) langsamen Gerät sitzen müssen, während die Konkurrenz vielleicht davonzieht. So ist das iPad eigentlich wieder eine vollständig runde Sache, mit der man wohl problemlos 12 Monate überbrücken kann, imho.

]Summa summarum: meine schlimmsten Befuerchtungen fuer Apple waren in letzter Zeit dass sie nicht im naechsten iPad auf Rogue steigen. 2x Mal die GPU Leistung im Vergleich zum iPad3 klingt mir eher nach einem Series5XT MP6@325MHz oder alternativem config der dessen Leistung erreicht. Selbst der bescheidenste momentan erhaeltliche Rogue (GC6200/DX10.1) waere ca. 3x mal SGX543MP4@250MHz GPU Leistung. Verdammter Mist

Das wäre für den ursprünglichen Release im Februar / März aber auch ein wenig knapp geworden, oder? Ich mein, immerhin kann das iPad 4 das Retina-Display im Gegensatz zum iPad 3 gut stemmen. Das dürfte erstmal oberste Priorität gehabt haben, insofern ist das ja wohl der beste Kompromiss gewesen.

Ailuros
2012-10-23, 22:19:46
Ich quote mich mal aus dem Sammelthread:




...wären dann 2GHz :ugly:

A6/iPhone5 hat einem SGX543MP3@~325MHz. Natuerlich koennten sie bei einem MP3 bleiben im A6X und lediglich die Frequenz auf =/>500MHz erhoehen, das dumme ist aber dann eben dass es ziemlich auf den Stromverbrauch hauen wuerde. Apple ist mit GPU Takt stets sehr konservativ in ihren SoCs und geht lieber in die Breite, eben weil mehr die area um einiges weniger kostet als sehr hohe Frequenzen.

Felixxz2
2012-10-23, 22:21:41
Hat denke ich auch was mit dem Weihnachtsgeschäft zutun. Viele haben evtl. an Weihnachten kein iPad mehr gekauft, sondern noch bis März gewaretet.

Ailuros
2012-10-23, 22:25:42
Ich bin zwar nicht Ailuros, aber man kann wohl davon ausgehen, dass das iPad ab jetzt immer zu dieser Zeit vorgestellt wird. Die Keynote im Frühjahr war zeitlich eigentlich immer ein bisschen seltsam und ich vermute fast, dass sie das iPad 4 (oder late 2012?) bewusst genutzt haben um die Release-Zyklen ein bisschen anzugleichen.

Das iPad 3 hätte sich dafür eher nicht so gut geeignet, weil die GPU-Leistung eben doch recht grenzwertig war. Dann hätte man überdurchschnittlich lange auf einem (relativ zur Auflösung gesehen) langsamen Gerät sitzen müssen, während die Konkurrenz vielleicht davonzieht. So ist das iPad eigentlich wieder eine vollständig runde Sache, mit der man wohl problemlos 12 Monate überbrücken kann, imho.

Ich kann momentan noch nicht ausschliessen dass Apple fuer Mitte 2013 nichts anderes plant. Fuer ihre Volumen und moeglichen 28nm Plaene waere der Zeitpunkt auch durchaus ideal.

Das wäre für den ursprünglichen Release im Februar / März aber auch ein wenig knapp geworden, oder? Ich mein, immerhin kann das iPad 4 das Retina-Display im Gegensatz zum iPad 3 gut stemmen. Das dürfte erstmal oberste Priorität gehabt haben, insofern ist das ja wohl der beste Kompromiss gewesen.

Siehe oben; das Ganze klingt mir eher nach einem Nebeneffekt wobei die generelle 28nm Verspaetung/Knappheit wohl eine Rolle mitgespielt hat. Stets u.a. denn Apple wird wohl keinen Bock haben Samsung Exynos 5250 eine zu breite Laufzeit lassen zu wollen als Beispiel. Theoretisch liegt 2xMal iPad3 GPU Leistung auf maximalen 72 GFLOPs, genauso viel rein zufaellig wie der T604 im Exynos5 bei 500MHz. Ein anstaendiger tablet Rogue fuer 2013 waere ein quad cluster CG6400 mit 3x Mal so hohe GPU Leistung als der iPad3 Nachfolger.

LadyWhirlwind
2012-10-23, 22:26:50
Jop, war sinnvoll das zu machen, besonders wenn man gleich auch MS den Windows 8 start vermiesen kann. Jetzt kommt alles grosse auf Weihnachten und da kaufen die Leute wohl auch mehr, wenns neu ist.

Ailuros
2012-10-23, 22:41:44
Auf jeden Fall wird Apple der 4.Generation des iPads der Konkurenz (Google+Samsung) und derem angeblich neuen HighEnd Tablet Nexus 10 (2560*1600 + Exynos 5250 A15 DualCore) vorweggreifen.

Wobei das neue Google/Samsung Tablet natürlich mehr Leistung und eine höhere Auflösung bieten würde.


Nur mal so nebenbei fuer so hohe Aufloesungen braucht man meistens so viel wie moeglich Fuellrate. Ausser Samsung taktet den Mali T604 im Nexus 10 hoeher als 500MHz (was ich erstmal sehen will bevor ich es glaube) sind es theoretisch maximale 2.0 GTexels/s Fuellrate da jeder der 4 clusters im 604 lediglich nur 1 TMU haben. So viel Fuellrate hat schon ein iPad3 (8 TMUs@250MHz).

Der Mali400MP4 in den neuesten 32nm Revisionen taktet schon bei 530MHz was auf Papier eine Fuellrate von 2.12 GTexels gibt. Im GL Benchmark2.5 offscreen 1080 Fuellraten test erreicht das letzte 0.836 GTexels/s in diesem gegen 1.82 GTexels fuer das iPad3.

***edit: ich hab wohl verpasst dass quad core tatsaechlich offentlich ist fuer das naechste iPad. SGX543MP4@500MHz; die Frequenz kann nicht kleiner sein als 500MHz sonst ist die 2x Mal Leistungsangabe nicht korrekt.

Gipsel
2012-10-23, 23:51:15
Komischerweise gibt es im Galaxy Nexus Treiber source-code eine Referenz fuer "Hydra", was ich aber oeffentlich noch nicht erklaeren will fuer was es steht.:rolleyes:
Unrelated fact #1:
Eine Hydra ist eine griechische Sagengestalt mit mehreren Köpfen (es wurden immer mehr).

Unrelated fact #2:
Was heute bei AMD Eyefinity heißt, fing mal unter dem Begriff Hydravision an.

Ailuros
2012-10-24, 00:22:30
:rolleyes:
Unrelated fact #1:
Eine Hydra ist eine griechische Sagengestalt mit mehreren Köpfen (es wurden immer mehr).

Unrelated fact #2:
Was heute bei AMD Eyefinity heißt, fing mal unter dem Begriff Hydravision an.

Fakt 1 ist nicht zu weit metaphorisch, denn es ist eigentlich eine quasi Verbindung von wahlweise 1 bis maximal 16 cores theoretisch.

Henroldus
2012-10-24, 07:45:26
Doppelter Wlan-Speed dürfte auch bemerkbar sein auf YouTube und anderen Streaming-Portalen. Vielleicht sogar bei Speicherintensiven Websiten.
sicher nicht, es sei denn deine DSL Leitung wird durch das WLAN ausgebremst :wink:

robbitop
2012-10-24, 08:42:45
Die vierte iPad-Generation kommt mit einem A6X. Nicht einfach einem A6, sondern einem A6X.
Das war doch eh klar.

Ailuros
2012-10-24, 09:28:47
Das war doch eh klar.

Was aber nicht klar war ist dass Apple ein "mid life kicker" zwischen iPad3 und der naechsten wahren tablet Generation stecken wird.

robbitop
2012-10-24, 10:39:57
Was aber nicht klar war ist dass Apple ein "mid life kicker" zwischen iPad3 und der naechsten wahren tablet Generation stecken wird.
Es war klar, dass das iPad 4 -unabhängig vom Releasezeitpunkt- den A6X enthalten wird. Dass es nun deutlich früher kam als gedacht, war unerwartet.

IMO ist das iPad 4 kein Midlifekicker. Es kam einfach früher. Ich gehe nicht davon aus, dass sie ab jetzt den Lebenszyklus auf 6 Monate reduzieren.

Es ergab einfach Sinn:

- 28 nm wäre in Massen offenbar in Q1 2013 eh nicht ausreichend günstig für Apples hohen Deman verfügbar
- man kann das Weihnachtsgeschäft mitnehmen

Ich denke, sie haben einfach nur die Kadenz geändert, um jetzt jährlich das Weihnachtsgeschäft mitnehmen zu können. Ist natürlich einmalig blöd für die iPad 3 Käufer. (ich persönlich empfand das iPad 3 trotz des Retina Displays als keinen großen Sprung, da die CPU Leistung gleich blieb)
Das iPad 5 kommt sicher in einem Jahr mit einem 28 nm SoC mit Rogue und ggf. höher getakteter CPU oder als Quadcore.

BigKid
2012-10-24, 11:32:44
Was aber nicht klar war ist dass Apple ein "mid life kicker" zwischen iPad3 und der naechsten wahren tablet Generation stecken wird.
Ich sehe nun im Nachhinein das iPad3 als MidLife Kicker... Sie hätten es genauso machen können/sollen wir beim iPhone 4S damals... Einfach das iPad2 länger leben lassen genau wie sie das iPhone4 länger leben liessen... Mich haben sie damit nun erstmalig sehr verärgert... Ich ringe noch mit mir wie sehr/wie sich das auswirkt...

Ailuros
2012-10-24, 11:40:17
IMO ist das iPad 4 kein Midlifekicker. Es kam einfach früher. Ich gehe nicht davon aus, dass sie ab jetzt den Lebenszyklus auf 6 Monate reduzieren.

Ist der tablet Markt wirklich so gross und die Apple tablet userbase so fanatisch dass sie alle 6 Monate ein marginal schnelleres tablet brauchen? Dass jetzt A6X um ca. 2x Mal schneller wird als A5X waere die normale jaehrliche cadence; "A7" wie immer es auch heissen wird, wird IMHO nicht frueher als Mitte 2013 ankommen und es wird wohl rein zufaellig mit einer neuen GPU Generation kommen. Sonst von dem Punkt und aufwaerts wenn man aus einem jaehrlichen Zyklus zu einem 6-monatigem Zyklus wandelt hat man unter normalen Umstaenden anstatt 2x Mal so viel Leistung jaehrlich dann eben 1x mal so viel alle 6 Monate. Weder Herstellungsprozesse noch Stromverbrauch werden groessere Leistungs-unterschiede erlauben.

Apple liegt momentan unter "Druck" mit Qualcomm S4, Samsung Exynos 5250 und auch bald NVIDIA Wayne u.a. ergo brauchten sie etwas damit sie ueberbruecken koennen BIS die wahre naechste Generation herstellungsfaehig sein wird. Die schaetzungsweise >5500 frames die das "iPad4" in GLBenchmark2.5 erreichen koennte, wird bis zu H2 2013 wohl keiner so leicht erreichen wird.

Einfacher:

http://www.glbenchmark.com/result.jsp?benchmark=glpro25&advanced-filter=false&orderby=448&base=gpu&os=0&os=1&os=2&os=3&os=4&version=all&certified_only=1&brand=all&gpu=all

Und nebenbei Exynos 5250 bald unter uns:

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Samsung+GT-B9150&testgroup=gl


Ich denke, sie haben einfach nur die Kadenz geändert, um jetzt jährlich das Weihnachtsgeschäft mitnehmen zu können. Ist natürlich einmalig blöd für die iPad 3 Käufer. (ich persönlich empfand das iPad 3 trotz des Retina Displays als keinen großen Sprung, da die CPU Leistung gleich blieb)
Das iPad 5 kommt sicher in einem Jahr mit einem 28 nm SoC mit Rogue und ggf. höher getakteter CPU oder als Quadcore.

Einem Jahr? Siehe oben.

basti333
2012-10-24, 11:43:16
Apple liegt momentan unter "Druck" mit Qualcomm S4, Samsung Exynos 5250 und auch bald NVIDIA Wayne u.a. ergo brauchten sie etwas damit sie ueberbruecken koennen BIS die wahre naechste Generation herstellungsfaehig sein wird. Die schaetzungsweise >5500 frames die das "iPad4" in GLBenchmark2.5 erreichen koennte, wird bis zu H2 2013 wohl keiner so leicht erreichen koennen.

Druck?! Warum, weil vielleicht 1% der nutzer Tablets nach Benchmarks kaufen?

Ich denke es gab auch jetzt eine neue Generation mit man die beiden iPads jetzt im gleichen zyklus hat.

Ailuros
2012-10-24, 11:48:41
Druck?! Warum, weil vielleicht 1% der nutzer Tablets nach Benchmarks kaufen?

Dafuer musst Du Apple erklaeren warum sie ihre tablets nicht gerne auf dem 2. Platz sehen. Du kannst ja gerne behaupten dass jegliche benchmark Resultate nirgends einen Einfluss auf die Verbraucher haben, nur wird es wohl auch keiner glauben.

***edit: nebenbei waere es mir persoenlich zich Male lieber wenn wir sogar Spiele-benchmarks haetten als nur synthetische benchmarks, aber es wird frueher oder spaeter schon kommen.

Ich denke es gab auch jetzt eine neue Generation mit man die beiden iPads jetzt im gleichen zyklus hat.

Wir werden sehen wann das naechste high end tablet veroeffentlicht wird.

BigKid
2012-10-25, 11:40:58
Sonst von dem Punkt und aufwaerts wenn man aus einem jaehrlichen Zyklus zu einem 6-monatigem Zyklus wandelt hat man unter normalen Umstaenden anstatt 2x Mal so viel Leistung jaehrlich dann eben 1x mal so viel alle 6 Monate. Weder Herstellungsprozesse noch Stromverbrauch werden groessere Leistungs-unterschiede erlauben.

Hmm... Meinst du anstatt 4x mal so viel Leistung jährlich dann eben 2x so viel alle 6 Monate ? Das 1x mal so viel macht keinen Sinn... 1x soviel ist genau so viel... :confused:

Ailuros
2012-10-25, 11:55:27
Hmm... Meinst du anstatt 4x mal so viel Leistung jährlich dann eben 2x so viel alle 6 Monate ? Das 1x mal so viel macht keinen Sinn... 1x soviel ist genau so viel... :confused:

Brainfart; jaehrlich +100% oder jedes halbe Jahr +50%. Besser so? :)

BigKid
2012-10-25, 12:29:18
Brainfart; jaehrlich +100% oder jedes halbe Jahr +50%. Besser so? :)
Ahhh.... Ja jetzt mach es Sinn :-)
Jetzt könnte ich den Klugscheisser raushängen lassen und sagen...
Naja... 50% halbjährlich wären ja eigentlich 125% Jährlich (Zinsenzins)... Aber lassen wir das ;)

Wie ist das eigentlich bei den SOCs ? Ist da gerade jetzt in der "Anfangsphase" eigentlich noch "mehr drinn" als Leistungsverdopplung pro Jahr weil man Erkenntisse aus GPUs und herkömmlichen CPUs nutzen könnte und quasi "hinterherinkt" (auch in der Fertigungstechnik) - oder ist das eine andere Welt ?

Ailuros
2012-10-25, 12:49:16
Ahhh.... Ja jetzt mach es Sinn :-)
Jetzt könnte ich den Klugscheisser raushängen lassen und sagen...
Naja... 50% halbjährlich wären ja eigentlich 125% Jährlich (Zinsenzins)... Aber lassen wir das ;)

Noch einfacher: die doppelte Leistung pro Jahr wuerde einfache jeweils auf 6 Monate halbiert.

Wie ist das eigentlich bei den SOCs ? Ist da gerade jetzt in der "Anfangsphase" eigentlich noch "mehr drinn" als Leistungsverdopplung pro Jahr weil man Erkenntisse aus GPUs und herkömmlichen CPUs nutzen könnte und quasi "hinterherinkt" (auch in der Fertigungstechnik) - oder ist das eine andere Welt ?

Es wird stets Grenzen wie die area, Herstellungskosten, Stromverbrauch, Batterie-groessen geben.

Weder CPU noch GPU Architekturen werden in so kurzer Zeit sich aendern koennen, noch kann man die CPU core Anzahl unendlich skalieren.

Noch dazu werden Herstellungsprozesse zunehmend komplizierter, was auch die Lebenszeiten der Prozesse verlaengert und auch damit die Entwicklung zunehmend bremst.

AnarchX
2012-11-02, 16:54:46
A6X @ Chipworks: http://www.chipworks.com/blog/recentteardowns/2012/11/01/inside-the-apple-ipad-4-a6x-to-be-revealed/

Ailuros
2012-11-02, 19:03:46
http://www.xbitlabs.com/news/other/display/20121101233000_Apple_Boosts_Research_and_Development_Spending_by_40_in_Fiscal_20 12.html

40% mehr R&D Kosten fuer 2012.

robbitop
2012-11-02, 20:31:12
Die beste Investition die man tätigen kann. Gerade als Technologieunternehmen. Schön die Gewinne reinvestieren und noch bessere Produkte bringen. :)

deekey777
2012-11-05, 23:16:48
Apple Said to Be Exploring Switch From Intel Chips for the Mac (http://www.bloomberg.com/news/2012-11-05/apple-said-to-be-exploring-switch-from-intel-chips-for-the-mac.html)

"Apple Inc. (AAPL) is exploring ways to replace Intel Corp. (INTC) processors in its Mac personal computers with a version of the chip technology it uses in the iPhone and iPad, according to people familiar with the company’s research."

Bob Mansfields neue Aufgabe?

Ganon
2012-11-05, 23:19:58
Wenn sie eine ARM-CPU bauen können, die die Leistung und das Feature-Set eines i3/i5/i7 hat mit gleichen Featureset (64bit, AVX, VT, etc.)... bitte, warum nicht. Aber bitte nicht solche Krücken wie in den ganzen Tablets...

Die_Allianz
2012-11-06, 07:00:47
Wenn sie eine ARM-CPU bauen können, die die Leistung und das Feature-Set eines i3/i5/i7 hat mit gleichen Featureset (64bit, AVX, VT, etc.)... bitte, warum nicht.
Wenn sie eine ARM-CPU bauen können, die in Kombintaion mit dem OS und angepasster SW die üblichen Aufgaben an PC mit der selben Performance erledigt... bitte, warum nicht.

Echte Menschenn interessieren keine Benchmarks. Wenns schnell läuft und lange Laufzeit hat ist den Leuten doch völlig wurscht was da für eine CPU drin ist.
Apple hat ja im Gegensatz zu den sonstigen Crapware-Herstellern den Vorteil ihre Notebooks noch nie mit Intel und anderen Stickern zugeklebt zu haben. ;D

http://www.cyberstyle.ru/misc/Image/arm-inside.png

Ailuros
2012-11-06, 07:05:47
Es wird nicht leicht sein so viel ist mir klar; es ist eben aber mal wieder tragische Ironie dass wenn ich etwas gehoert habe es als absurd abgestempelt wird und es dauert meistens nicht all zu lange bis sich eben das jegliche hearsay doch im Netz verbreitet. Und nein es wurde hier nichts abgeschrieben. Apple hat es tatsaechlich wohl im Hinterkopf; ob etwas daraus wird oder nicht steht noch in den Sternen. Apple hat genug Resourcen um herumzuexperimentieren.

Exxtreme
2012-11-06, 09:36:19
Echte Menschenn interessieren keine Benchmarks. Wenns schnell läuft und lange Laufzeit hat ist den Leuten doch völlig wurscht was da für eine CPU drin ist.
Apple hat ja im Gegensatz zu den sonstigen Crapware-Herstellern den Vorteil ihre Notebooks noch nie mit Intel und anderen Stickern zugeklebt zu haben. ;D

http://www.cyberstyle.ru/misc/Image/arm-inside.png

Die Menschen interessiert aber Produktivität. Ist man mit Intel doppelt so produktiv weil schneller dann hat Arm keine Chance.

robbitop
2012-11-06, 09:58:55
Wenn Apple zukünftig nur noch zweitklassige Produkte haben möchte, dann sollten sie von Intel weg.
So toll der A6 auch sein mag. Im PC/Notebook Bereich werden sie in absehbarer Zeit nicht den Hauch einer Chance haben.

Ailuros
2012-11-06, 10:30:31
Wenn Apple zukünftig nur noch zweitklassige Produkte haben möchte, dann sollten sie von Intel weg.

Ich will trotzdem erst den wirklichen Plan sehen bzw. erste Resultate wenn sich wirklich Apple dafuer entscheidet bevor ich zu irgendwelchen Schlussvolgerungen komme.


So toll der A6 auch sein mag. Im PC/Notebook Bereich werden sie in absehbarer Zeit nicht den Hauch einer Chance haben.

Atom hat auch nichts mit desktop CPUs zu tun, also bitte :rolleyes: Wenn es weit kommt werden sie wohl nicht sooo daemlich sein und nur einen aufgepumpten A6 Ableger benutzen. A6/A6X sind ausschliesslich fuer smartphones/tablets entwickelt worden. Da Apple wohl auf einem 64bit instruction set experimentieren wird, wird es auch nicht morgen passieren. Weiss der Geier bei welchen small form factor SoC Generation sie dann schon sind wenn es mit irgend einem moeglichem low end PC/notebook SoC so weit kommt. A50 wurde gerade erst angekuendigt; vor 2015 im besten Fall wird daraus nichts.

Im Nachteil werden sie schon gegen Intel's CPUs liegen, aber es bleibt eben dann auch abzusehen wie der insgesamte SoC aussehen wird und was sie eventuell an ihren OSs und bis zu welchem Grad anpassen koennen.

iFanatiker
2012-11-06, 10:58:00
Wenn Apple zukünftig nur noch zweitklassige Produkte haben möchte, dann sollten sie von Intel weg.

Der Schlüsselbegriff ist eben "zukünftig" und damit dürfte 2017, 18 oder sowas gemeint sein. Hier geht es also nicht um ein A6X sondern um ganze andere Design mit einen auch ganz anderen Verbrauchsbudget. Dazu macht es natürlich nicht Sinn für die ganze Produkpalette. Aber z. B. die Einsteiger Air wären doch perfekt für solch eine eigene Architektur.

Und wieso zweitklassig? Die Marschrichtung sind komplexe SoCs bestehend aus einen ganz Konglomerat an spezialisierten Funktionseinheiten. Ein maßgeschneiderter SoC mit optimal abgestimmter Software kann durchaus dann plötzlich sehr wettbewerbsfähig sein.

Daneben dürfte Apple eben auch nicht der einzige sein mit einer solchen langfristigen Strategie und die gibt es bei Apple ja schon länger. Der Umstieg auf LLVM usw. kommen ja nicht von ungefähr.

robbitop
2012-11-06, 11:20:00
Was wollt ihr mit eurem A6? Das war nur ein Beispiel, was sie bereits geschafft haben. Es ist völlig klar, dass das Design nicht aufblasbar für PCs/Laptops ist.

Die Gründe für meine These sind:

- Intel ist fertigungstechnisch unantastbar. Die sind der kompletten Halbleiterindustrie um über einen Fullnode (i.e. > 2 Jahre) voraus
- Intel hat eine eigene Fertigung - Time to Market ist viel besser als bei einem Fremdhersteller
- Der Vorsprung in Design und Fertigung entspricht dem Gesetz des abnehmenden Grenzertrags. Doppelt so gut bedeutet vermutlich 10x so viel Aufwand und Know How. Das ist eine Expotenzialfunktion
- Die heutigen Core i Prozessoren haben eine extrem hohe IPC bei extrem niedriger Leistungsaufnahme. Um dort hin zu kommen, muss man diese Expotenzialfunktion hinaufklettern.
Dagegen spielen die SFF SoCs im Sandkasten. Auf das IPC Level kommt in der gesamten Industrie kein Gegenspieler. Nichteinmal ansatzweise. Und wenn sie es versuchen, explodiert die Leistungsaufnahme
- Atom ist nie eine SFF CPU gewesen - sie war für eine TDP Klasse mit einer Größenordnung höher gedacht gewesen und Intel hat brutalen Fertigungsmethoden und viel Aufwand versucht, sie dort hineinzuquetschen. Das Design war aber nie dafür gedacht

- ein Design lässt sich hervorragend in einer Größenordnung der TDP skalieren. Alles darüber oder darunter rennt dann gegen eine Mauer.

- Intels aggressive und Ressourcenfressende Tick-Tock Methode. Jedes Jahr 15 % mehr Leistung, zweijährlich mit 1 Jahres Kadenz eine neue µArch und ein neuer Fertigungsprozess. Wer kann das auf Dauer durchhalten?? Das ist als würde man einen Marathon auf volle Distanz sprinten. Normalen Menschen platzt die Kondition nach wenigen hundert Metern. ;)

Ich bin überzeugt, dass sich sehr gute ARM CPUs bauen lassen. Ich denke, dass das Instruction Set keine Rolle spielt. Es ist das Design dahinter und die Fertigungstechnik.

Vieleicht kann Apple sich langfristig ein konkurrenzfähiges Design liefern und eine Halbleiterfabrik bauen. Aber an die Fertigungstechnik von Intel (und IMO auch das letzte Fünkchen beim Design) werden sie mittelfristig (IMO nie) nicht erreichen. Und auf dem Weg braucht es eine 2-3 stellige Milliardensumme über 5-10 Jahre.

Und sobald man nicht in allen Belangen an die Intel CPU rankommt (die jährlich 10-15% schneller werden!!), ist man nur zweitklassig.

IMO eine typische Make-or-Buy Entscheidung, über ein Rennen, dass man realistisch nicht gewinnen kann und Ressourcen ohne Ende verbrät.
IMO werden sie, wenn sie es selbst machen wollen, damit leben müssen, dass die CPU dann nur zweitklassig ist. Ich weiß nicht, ob Steve das soetwas gewollt hätte. (diese Situation hatte man damals schon mit PPC)

edit:

Das liest sich etwas nach Säbelrasseln, um die Preise bei Intel zu drücken. Vieleicht sind solche ARMs ja auch irgendwann mal interessant für Ultrabooks, die extra leicht und dünn sind und wo Performance nicht kritisch ist. Bei den Macbook Pros und den iMACs IMO aber nicht.

Ailuros
2012-11-06, 12:19:40
Was wollt ihr mit eurem A6? Das war nur ein Beispiel, was sie bereits geschafft haben. Es ist völlig klar, dass das Design nicht aufblasbar für PCs/Laptops ist.

Du hast es selber erwaehnt und dazu in einem ziemlich zwielichtigen context:

So toll der A6 auch sein mag. Im PC/Notebook Bereich werden sie in absehbarer Zeit nicht den Hauch einer Chance haben.

Wenn Du nichts mit A6 vergleichen willst, dann lass sie selber weg damit keiner darauf reagiert.

Die Gründe für meine These sind:

- Intel ist fertigungstechnisch unantastbar. Die sind der kompletten Halbleiterindustrie um über einen Fullnode (i.e. > 2 Jahre) voraus.

Zweifellos; aber bis jetzt nur fuer CPUs.

- Intel hat eine eigene Fertigung - Time to Market ist viel besser als bei einem Fremdhersteller.

Auch zweifellos.

- Der Vorsprung in Design und Fertigung entspricht dem Gesetz des abnehmenden Grenzertrags. Doppelt so gut bedeutet vermutlich 10x so viel Aufwand und Know How. Das ist eine Expotenzialfunktion

Bezweifelt auch keiner obwohl man es auch uebertreiben kann.

- Die heutigen Core i Prozessoren haben eine extrem hohe IPC bei extrem niedriger Leistungsaufnahme. Um dort hin zu kommen, muss man diese Expotenzialfunktion hinaufklettern.

Und woher willst Du wissen an was Apple genau experimentiert?

Dagegen spielen die SFF SoCs im Sandkasten. Auf das IPC Level kommt in der gesamten Industrie kein Gegenspieler. Nichteinmal ansatzweise. Und wenn sie es versuchen, explodiert die Leistungsaufnahme.

Apple hat SFF SoCs und diese sind als Gesamtpaket besser (iOS mitberechnet) als Intel's SFF SoCs. Hatte Apple irgendwelche vorige Erfahrung mit der Entwicklung von SFF SoCs?

Ohne zu wissen was Apple genau vorhat nimmst Du Dir einfach einen ziemlich fetten Brocken in den Mund; nicht mehr und nicht weniger.

- Atom ist nie eine SFF CPU gewesen - sie war für eine TDP Klasse mit einer Größenordnung höher gedacht gewesen und Intel hat brutalen Fertigungsmethoden und viel Aufwand versucht, sie dort hineinzuquetschen. Das Design war aber nie dafür gedacht.

Da muss aber dann jemand fragen wohin ihre Jahrelange und ziemlich grosse Erfahrung genau hingeflogen ist. Selbst Intel kann sich falsche Design-Entscheidungen erlauben und Atom waere nicht die einzige.

- ein Design lässt sich hervorragend in einer Größenordnung der TDP skalieren. Alles darüber oder darunter rennt dann gegen eine Mauer.

Ich hab momentan nur SFF SoCs zum Vergleich; ergo schiess mal los wie es mit perf/W und perf/mm2 bei Medfield gegen A6 bzw. Clovertrail gegen A6X aussieht.

Ja natuerlich liegen viele legitime Punkte in Deinem Post und die wird auch keiner bezweifeln, aber Du kommst nach wie vor zu Schlussfolgerungen ohne die blasseste Ahnung zu haben was Apple planen koennte und unter welchen Vorraussetzungen.

- Intels aggressive und Ressourcenfressende Tick-Tock Methode. Jedes Jahr 15 % mehr Leistung, zweijährlich mit 1 Jahres Kadenz eine neue µArch und ein neuer Fertigungsprozess. Wer kann das auf Dauer durchhalten?? Das ist als würde man einen Marathon auf volle Distanz sprinten. Normalen Menschen platzt die Kondition nach wenigen hundert Metern. ;)

Siehe oben.

Ich bin überzeugt, dass sich sehr gute ARM CPUs bauen lassen. Ich denke, dass das Instruction Set keine Rolle spielt. Es ist das Design dahinter und die Fertigungstechnik.

Eben NICHT NUR wenn man den Luxus hat sein eigenes OS zu haben und damit herumzuspielen.

Vieleicht kann Apple sich langfristig ein konkurrenzfähiges Design liefern und eine Halbleiterfabrik bauen. Aber an die Fertigungstechnik von Intel (und IMO auch das letzte Fünkchen beim Design) werden sie mittelfristig (IMO nie) nicht erreichen. Und auf dem Weg braucht es eine 2-3 stellige Milliardensumme über 5-10 Jahre.

Siehe weiter oben.

Und sobald man nicht in allen Belangen an die Intel CPU rankommt (die jährlich 10-15% schneller werden!!), ist man nur zweitklassig.

IMO eine typische Make-or-Buy Entscheidung, über ein Rennen, dass man realistisch nicht gewinnen kann und Ressourcen ohne Ende verbrät.
IMO werden sie, wenn sie es selbst machen wollen, damit leben müssen, dass die CPU dann nur zweitklassig ist. Ich weiß nicht, ob Steve das soetwas gewollt hätte. (diese Situation hatte man damals schon mit PPC)

Du packst nach wie vor die Sache am falschen Ende.

edit:

Das liest sich etwas nach Säbelrasseln, um die Preise bei Intel zu drücken. Vieleicht sind solche ARMs ja auch irgendwann mal interessant für Ultrabooks, die extra leicht und dünn sind und wo Performance nicht kritisch ist. Bei den Macbook Pros und den iMACs IMO aber nicht.

Nein. Ich hab vor Seiten immer und immer wieder erwaehnt dass wenn etwas kommt es ein sehr bescheidener Anfang mit einem Schritt fuer Schritt Aufbau sein wird. In solch einem Fall faengt man gerade da an wo man einen Vorteil hat und nicht anders rum und nie mit geballter Kraft durch die Wand. Aber ist wohl zu schwer zu verstehen.

BigKid
2012-11-06, 12:54:34
http://www.xbitlabs.com/news/other/display/20121101233000_Apple_Boosts_Research_and_Development_Spending_by_40_in_Fiscal_20 12.html

40% mehr R&D Kosten fuer 2012.

Nur mal so am Rande und sorry für OT - ich finde das extrem löblich !

Ich habe von Softwareunternehmen gehört die nach "Marktbeobachtung" feststellen, dass andere Firmen im gleichen Segment nur 10% für R&D ausgeben und als Reaktion darauf selbst von 12% auf 10% runterzugehen...

10% für RD ... Da wundert man sich nicht mehr über Bananaware und Software an der sich eigentlich nur noch das Interface ändert aber (fast) kein echter Fortschritt mehr zu finden ist...

Ailuros
2012-11-06, 13:07:56
Nur mal so am Rande und sorry für OT - ich finde das extrem löblich !

Ich habe von Softwareunternehmen gehört die nach "Marktbeobachtung" feststellen, dass andere Firmen im gleichen Segment nur 10% für R&D ausgeben und als Reaktion darauf selbst von 12% auf 10% runterzugehen...

10% für RD ... Da wundert man sich nicht mehr über Bananaware und Software an der sich eigentlich nur noch das Interface ändert aber (fast) kein echter Fortschritt mehr zu finden ist...

Alles andere als OT; die 39% mehr R&D Ausgaben sind fuer fiscal year 2012 (endete im September) und durch dieses liegt wohl wenig bis gar nichts von A6/A6X Entwicklung drin, da diese nicht innerhalb dieses Jahres fertiggestellt wurden. Natuerlich liegt in der $3.4 Mrd Summe ziemlich alles drin (sw, hw etc.), aber ihr naechstes Ziel werden wohl smartTVs sein.

basti333
2012-11-06, 13:54:51
Die Gründe für meine These sind:

- Intel ist fertigungstechnisch unantastbar. Die sind der kompletten Halbleiterindustrie um über einen Fullnode (i.e. > 2 Jahre) voraus
- Intel hat eine eigene Fertigung - Time to Market ist viel besser als bei einem Fremdhersteller
- Der Vorsprung in Design und Fertigung entspricht dem Gesetz des abnehmenden Grenzertrags. Doppelt so gut bedeutet vermutlich 10x so viel Aufwand und Know How. Das ist eine Expotenzialfunktion

Will ich alles nicht anzweifeln, aber man solle sich schon die frage stellen: Wird das in Zukunft noch so eine große rolle spielen? Die Zeit ist auf Apples Seite, denn das Leistungsangebot wächst viel schneller als der bedarf und das wird sich zukünftig, wenn überhaupt, nur noch verschärfen. Und bis Apple Intel komplett den Rücken kehren könnte, vergehen ja noch locker 3 oder 4 Jahre.

Nicht zuletzt berechnet Intel ja große Preisaufschläge für seinen Fertigungsvorsprung, das wird man sich bei o.g. Veränderungen nicht auf ewig leisten können und das dürfte wohl auch ein grund für Apple Bestrebungen nach Unabhängigkeit sein. Auf alle Fälle bekommt Intel ja allein schon durch diese Gerüchte mächtig Druck.

Ein Vorteil der auf Apple Seite ist, wäre das man Soft- und Hardware genau auf einander abstimmen kann. Ich weiß ja nicht in wie weit Apple jetzt Einblick und Einfluss in kommende Intel CPU-Generationen hat.

robbitop
2012-11-06, 14:26:42
Die Vorsprünge in Fertigung und Design werden (es sei denn Intel slipt dämlich) nicht einschmelzen. Intel schläft nicht und hat nunmal unglaublich viel Know How und Ressourcen.

SFF ist dagegen Sandkasten. Ein ARM CPU Core ist mit einem Bruchteil der Ressourcen zu erledigen. Selbst die kleine Company ARM baut mal eben den schnellsten SFF Core.

Sicher kommt man bis auf ein gewisses Stück heran. Aber gleich gut in jeder Hinsicht? Das fällt mir sehr sehr schwer vorstellbar.

Natürlich hat man Vorteile, wenn man HW und SW in einer Hand hat. Aber MacOS kann man auch perfekt auf eine Intel CPU optimieren. Das ergibt rein von der CPU keinen Vorteil für ARM.

Vieleicht ergibt sich jetzt aber für ARM (und alle Licensees) in den nächsten Jahren nochmal eine Chance. Immerhin wird ARM jetzt auch bei Windows 8 unterstützt. Es könnte dort wieder mal neuen Wettbewerb geben.

Distroia
2012-11-06, 14:59:20
Nur mal so am Rande und sorry für OT - ich finde das extrem löblich !

Ich habe von Softwareunternehmen gehört die nach "Marktbeobachtung" feststellen, dass andere Firmen im gleichen Segment nur 10% für R&D ausgeben und als Reaktion darauf selbst von 12% auf 10% runterzugehen...

10% für RD ... Da wundert man sich nicht mehr über Bananaware und Software an der sich eigentlich nur noch das Interface ändert aber (fast) kein echter Fortschritt mehr zu finden ist...

Apples R&D sind geradezu winzig im Anbetracht der größe des Unternehmens - da machen die 40% die Butter auch nicht Fett. Hier der beste Vergleich, den ich auf die Schnelle finden konnte:

http://mashable.com/2012/11/01/apple-research-investments/

Distroia
2012-11-06, 15:00:46
Nur mal so am Rande und sorry für OT - ich finde das extrem löblich !

Ich habe von Softwareunternehmen gehört die nach "Marktbeobachtung" feststellen, dass andere Firmen im gleichen Segment nur 10% für R&D ausgeben und als Reaktion darauf selbst von 12% auf 10% runterzugehen...

10% für RD ... Da wundert man sich nicht mehr über Bananaware und Software an der sich eigentlich nur noch das Interface ändert aber (fast) kein echter Fortschritt mehr zu finden ist...

Apples R&D sind geradezu winzig im Anbetracht der größe des Unternehmens - da machen die 40% die Butter auch nicht Fett. Hier der beste Vergleich, den ich auf die Schnelle finden konnte:

http://mashable.com/2012/11/01/apple-research-investments/

2% für R&D. :freak: Fand ich irgendwie lustig nach deinem Beispiel mit den 12% -> 10%.

robbitop
2012-11-06, 15:51:11
Das R&D Volumen wird mit Sicherheit steigen. Jetzt wo sie anfangen, eigene ASICs zu bauen anstatt nur fremdfertigen zu lassen und fertige Technologien zu lizensieren.

basti333
2012-11-06, 16:21:34
Apples R&D sind geradezu winzig im Anbetracht der größe des Unternehmens - da machen die 40% die Butter auch nicht Fett. Hier der beste Vergleich, den ich auf die Schnelle finden konnte:

http://mashable.com/2012/11/01/apple-research-investments/

2% für R&D. :freak: Fand ich irgendwie lustig nach deinem Beispiel mit den 12% -> 10%.


Die grafik zeigt für mich nur wie leichtfertig Großkonzerne mit milliarden um sich werfen, jetzt mal abgesehen von Samsung, gibt es kein unternehmen in der liste was grundlegen andere oder mehr dinge entwickelt bzw. auf den markt bringt als Apple, gerade was MS und Nokia investieren: Dafuq? wo wandert das geld hin?


Die Vorsprünge in Fertigung und Design werden (es sei denn Intel slipt dämlich) nicht einschmelzen. Intel schläft nicht und hat nunmal unglaublich viel Know How und Ressourcen.

Ich habe nicht behauptet Intels Vorsprung in der Fertigung wird abnehmen, ich behaupte das der Vorteil, den Intel davon hat, abnehmen wird. Der Bedarf an Mehrleistung nimmt schon seit längerer zeit ab. Bei Laptops macht sich das darin bemerkbar, das sie längere Laufzeiten haben und der Anteil der CPU an der gesamten Leistungsaufnahme des Systems ebenfalls stetig abnimmt. Jedes Prozent was die CPU weniger braucht, gibt Apple mehr Spielraum für eigene Lösungen.

robbitop
2012-11-06, 16:29:44
Ich habe nicht behauptet Intels Vorsprung in der Fertigung wird abnehmen, ich behaupte das der Vorteil, den Intel davon hat, abnehmen wird. Der Bedarf an Mehrleistung nimmt schon seit längerer zeit ab. Bei Laptops macht sich das darin bemerkbar, das sie längere Laufzeiten haben und der Anteil der CPU an der gesamten Leistungsaufnahme des Systems ebenfalls stetig abnimmt. Jedes Prozent was die CPU weniger braucht, gibt Apple mehr Spielraum für eigene Lösungen.

Das Argument hat noch nie gegolten. Im Endeffekt würde Apple in Benchmarks hinten liegen bzw die Konkurrenz wäre im produktiven Bereich reaktiver. In Benchmarks hinten zu liegen hat noch nie jemandem gut getan. Das würde Apple IMO nie akzeptieren.

Eine eigene Lösung müsste schon hinsichtlich aller Kriterien mindestens gleichgut sein.

IPC-Vorsprung wird natürlich schmilzen. Warum? Weil Intel schon ganz weit oben auf der Kurve des abnehmenden Grenzertrags ist und andere noch low hanging Fruits ernten können. Aber gleich gut zu werden bei gleich guter TDP? I highly doubt it. Und IMO wird Apple nichts anderes akzeptieren. Zumindest täte man gut darin. Und genau das meine ich mit erstklassiger und zweitklassiger HW.
Das Argument "braucht man nicht" zählt ganz einfach nicht. Schon gar nicht bei Hochpreisgeräten.

Ailuros
2012-11-07, 06:23:15
robbi,

Es wird sich fuer den Anfang IMHO NICHTS an Mac Leistung aendern. So viel sollte reichen ein klein bisschen weiterzudenken. Sonst bewegt Euch nicht konstant in absoluten Bereichen, denn es ist so verdammt viel fluessig in diesem Markt wo es stets nicht allzu lange dauert bis etwas unerwartetes auftaucht:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9534890&postcount=811

....und nein das letzte hat nichts mit dem Thema direkt zu tun. Nur eine Indizie dass vieles verdammt fluessig ist.

***edit: und weil es beim ersten lesen nicht besonders klar wird wenn man nicht weiss wer wer genau ist, der groesste Batzen an Patenten/IP etc von MIPS geht eigentlich an ARM. Kurz und verdammt vereinfacht MIPS wurde zwischen ARM und IMG in verschiedenen Portionen verteilt, obwohl ARM nirgends als direkter Kaeufer erscheint.

Kalmar
2012-11-07, 09:21:04
aber ihr naechstes Ziel werden wohl smartTVs sein.

dafür sollten die eigenen cpus reichen ... und da werden sich dann wieder alle verwundert die augen reiben, wie apple es nur schafft ein nicht ganz so vermurkstes bedienungskonzept auf den fernseher zu bringen mit einer sehr guten rundum vernetzung

Ailuros
2012-11-07, 09:32:57
dafür sollten die eigenen cpus reichen ... und da werden sich dann wieder alle verwundert die augen reiben, wie apple es nur schafft ein nicht ganz so vermurkstes bedienungskonzept auf den fernseher zu bringen mit einer sehr guten rundum vernetzung

Kommt drauf an wie aggressiv der smartTV langfristig sein soll; wenn Apple im Hinterkopf haben sollte daraus eine generische home entertainment Platform zu entwickeln die mit Gelegenheitspielchen gegen heutige Konsolen indirekt kontern soll, dann reichen die heutigen SoCs dafuer nicht aus.

Wenn man jetzt langfristig groessere SoCs mit iOS entwickeln wuerde, muss man nicht unbedingt damit nur einen hypothetischen Markt wie smartTV bedienen.

AnarchX
2012-11-07, 09:37:34
Wie weit wohl ein A6X beim Takt skalieren könnte, wenn man ihm ~10W zugesteht?

Ailuros
2012-11-07, 09:46:36
Wie weit wohl ein A6X beim Takt skalieren könnte, wenn man ihm ~10W zugesteht?

Mehr als 1800 CPU <-> 360 GPU wuerde ich nicht schaetzen. Ist sowieso nicht dafuer entwickelt. Fuer etwas ambitionsreicheres wuerde ich eher an einen zweiter Generation Swift + Rogue denken.

iFanatiker
2012-11-07, 09:57:59
@robbitop

Deine Argumente sind natürlich schon richtig. Den A6X hast du allerdings ins Gespräch gebracht und dieser hat nichts mit diesen langfristigen Plänen zu tun. Es geht um ein Zeitraum 2017 und folgend wo es eventuell erste Produkte geben könnte.

Die Sache ist doch recht klar. AMD kämpf aktuell um das nackte Überleben und im Worst Case würde Intel eine absolute Allmacht auf den Markt haben und wie die Kartell Behörden reagieren werden ist die Frage. ARM hin oder her im SFF SoC Bereich. Intel wird auch in diesen Markt mit voller Wucht demnächst einschlagen und von der Energie Effizienz her dürfte Intel schon jetzt die stärkste Architektur auf den Markt haben. Wie stark Intel reagieren kann auf Bedrohungen haben wir doch schön am Beispiel der IGPs gesehen. Im Endeffekt ist Intel praktisch schon heute weiter im Bereich der APUs als AMD (siehe auch mal einfach das SDK for OpenCL* Applications 2012 an und die Steigerung der Performance dort). Es wäre doch fahrlässig wenn sich Unternehmen wie Apple (und andere Giganten) nicht um strategischen Plan B bemühen würden....zumindest als Alternative in zukünftigen Verhandlungen mit Intel und auch als Absicherung falls ARM keine entsprechend IP anbieten kann. Es ist übrigens nicht nur Apple mit solchen Gedanken beschäftigt.

robbitop
2012-11-08, 10:54:55
@robbitop

Deine Argumente sind natürlich schon richtig. Den A6X hast du allerdings ins Gespräch gebracht und dieser hat nichts mit diesen langfristigen Plänen zu tun. Es geht um ein Zeitraum 2017 und folgend wo es eventuell erste Produkte geben könnte.

OMG. Es war ein Beispiel als Achievement von Apple. Nichts anderes.

Naja - ARM scheint ja eine immer wichtige Rolle in Zukunft zu spielen. Windows 8 unterstützt nun auch ARM und Apple könnte sowas auch einführen.

Aber ob das für PRO Zwecke konkurrenzfähig wird, ist zu bezweifeln. Aber mit dem vermutlichen Zurückziehen von AMD wird auf jeden Fall ein Platz im Markt frei und zufällig drängt ARM nun auch in andere Geräte ein. Eine gute Chance, das zu nutzen.

Timbaloo
2012-11-08, 13:14:55
Es wäre nur wünschenswert wenn es einen zweiten etablierten Befehlssatz neben x86/x64 auf "echten" Rechnern gäbe. Auch nicht uninteressant für nvidias Denver.

Natürlich hat intel einen enormen single-threaded Vorteil, den aufzuholen dürfte nahezu unmöglich sein, auf der anderen Seite führen solche Riesenkerne auch in eine Sackgasse. Aktuell profitiert intel hier sicher von der single-thread-Denke die leider zu oft vorherrscht, in ein paar Jahren kann das aber schon ganz anders aussehen. Eine Vielzahl an Anwendungen liessen sich vergleichsweise einfach parallelisieren. Und dann ziehen die many-cores den multi-cores vielleicht sogar weg.

robbitop
2012-11-08, 13:28:27
Gerade Nichtserver Applikationen lassen sich nur sehr begrenzt parallelisieren. Singlethread IPC ist enorm wichtig. Nebenbei steigert Intel trotzdem die Parallelität in dem sie die Execution Units so aufbohren, dass bei SMT auch mehr bei rum kommt (weiterer Int Port bei Haswell). Wenn sie müssen, verbauen sie auch problemlos mehr Kerne. Es sind 4 Kerne im Moment weil sie nicht mehr tun müssen.
Außerdem greift auch Amdahls Law relativ schnell.

Nightspider
2012-11-12, 18:56:27
http://hartware.net/news_56337.html

Kann denn Samsung einfach so die Preise um 20% erhöhen?

sth
2012-11-12, 19:01:09
Kann denn Samsung einfach so die Preise um 20% erhöhen?
Natürlich, sofern die Lieferverträge zwischen Apple und Samsung den Preis nicht dauerhaft festschreiben.
Gerade bei etwas risikobehaftetem wie Chipfertigung (wer weiß schon im Voraus genau, wie die Yields sich entwickeln werden), ist da sicher irgendwo Spielraum.

Allerdings basiert die News auch nur auf Gerüchten.

StefanV
2012-11-12, 19:11:40
Tja, das passiert halt, wenn man so dämlich ist, sich mit 'nem Zulieferer anzulegen. Der kann dann 'mal eben' die Preise anziehen. Insbesondere wenn es keine Alternativen gibt.

Und anscheinend hat irgendwie keiner so richtig bock auf Appe. Warum wohl? :)
Naja, selbst Schuld, kann man da nur sagen...

basti333
2012-11-12, 22:23:24
Naja, man muss beachten das alles immer nur Gerüchte sind, man weiß praktisch nichts gesichertes in Bezug auf Apple, seine Zulieferer und ihre Verträge untereinander.

Was man so liest ist Samsung ja durchaus daran gelegen Apple als Kunden zu behalten. Umgekehrt will Apple aber schnell vom Samsung weg, dazu gab es ja vor kurzem wieder mal etwas konkretere Gerüchte das Apple zukünftig zu TSMC wechselt für die Chipproduktion. Naja, vielleicht ist da ja was dran und jetzt denkt samsung sich: Scheiß drauf, jetzt ists eh gelaufen, dann wenigstens noch etwas gewinn damit machen. Aber letztendlich weiß ja niemand was genau da hinter den kulissen abläuft.


Und anscheinend hat irgendwie keiner so richtig bock auf Appe. Warum wohl? :)
Naja, selbst Schuld, kann man da nur sagen...
:|:conf2:

Ich glaube jeder Konzern ist froh wenn er seine produkte an Apple verkaufen kann, das bedeuted massenhaft umsatz, auch Samsung hat das immer gern getan und nie anstalten gemacht Apple den Hahn abzudrehen.

Für Samsung ist die laufende Trennung von Apple ein doppelter Verlust. Zum einen verliert man einen guten Kunden, zum anderen kriegen die eigenen Konkurrenten (in der Halbleiterindustrie) diesen Kunden. Gerade in der heutigen Zeit, in der eigene Foundries sehr, sehr teuer werden ist masse ja alles.

LadyWhirlwind
2012-11-13, 02:08:50
http://hartware.net/news_56337.html

Kann denn Samsung einfach so die Preise um 20% erhöhen?

Irgendwie bezweifle ich das die laufenden Verträge mit Samsung es zulassen das die Preise einfach ohne konkreten Grund um 20% steigen (wobei natürlich nicht auszuschliessen ist das Apple bei dem Verträgen mist gebaut hat).
Kann es nicht einfach sein, dass der 32nm HKMG Prozess für Apple teurer ist, als der alte 45nm Prozess? Apple hat zwar im Frühling angefangen erste Geräte mit SoC's im 32nm Prozess auszuliefern, aber erst seit dem A6 und dem A5 im iPad mini im grossem Volumen. Möglich das die Yields nicht hoch genug sind und Apple laut den Verträgen dafür das finanzielle Risiko mitträgt. Das würde

Möglich auch das Apple die Verträge 2014 auslaufen lassen möchte, oder in Zukunft nicht mehr soviel bei Samsung produzieren will und darum gezwungen ist, einen höheren Preis pro SoC zu bezahlen. Ich gehe davon aus das Apple für eine mehr oder weniger konstante Auslastung von x-% einer Node über den Amotisierungszeitraum einen massiven Rabatt erhalten hat, da durch die konstant hohen Abnahmemengen das finanzielle Risiko für Samsung gering war. Wenn Apple allerdings weg von Samsung will, kriegen sie logischerweise den entsprechenden Rabatt nicht mehr.

Ailuros
2012-11-13, 07:45:38
Irgendwie bezweifle ich das die laufenden Verträge mit Samsung es zulassen das die Preise einfach ohne konkreten Grund um 20% steigen (wobei natürlich nicht auszuschliessen ist das Apple bei dem Verträgen mist gebaut hat).

Einzelheiten ueber solche Vertraege erfaehrt man sowieso extrem selten bis nie. Die Chancen dass ein jeglicher Vertrag so etwas vorhersieht sind aber IMHO aeusserst gering. Aussnahmen waeren force majeure aber davon besteht momentan kein Anhalt afaik.

Kann es nicht einfach sein, dass der 32nm HKMG Prozess für Apple teurer ist, als der alte 45nm Prozess? Apple hat zwar im Frühling angefangen erste Geräte mit SoC's im 32nm Prozess auszuliefern, aber erst seit dem A6 und dem A5 im iPad mini im grossem Volumen. Möglich das die Yields nicht hoch genug sind und Apple laut den Verträgen dafür das finanzielle Risiko mitträgt.

Neuere Prozesse sind stets teurer pro wafer in der Herstellung egal bei welcher foundry. Irgendwo wird es schon ausbalanciert mit der Tatsache dass man mit einem kleineren Prozess mehr Transistoren pro mm2 packen kann. A6X/32nm ist z.B. um 25% kleiner als A5X/45nm, obwohl der erste eine hoehere Transistoren-Anzahl haben duerfte. Das soll jetzt nicht heissen dass A6X momentan nicht leicht teurer in der Herstellung sein koennte als A5X, aber die Unterschiede duerften unter normalen Umstaenden nicht sehr gross sein.

Möglich auch das Apple die Verträge 2014 auslaufen lassen möchte, oder in Zukunft nicht mehr soviel bei Samsung produzieren will und darum gezwungen ist, einen höheren Preis pro SoC zu bezahlen. Ich gehe davon aus das Apple für eine mehr oder weniger konstante Auslastung von x-% einer Node über den Amotisierungszeitraum einen massiven Rabatt erhalten hat, da durch die konstant hohen Abnahmemengen das finanzielle Risiko für Samsung gering war. Wenn Apple allerdings weg von Samsung will, kriegen sie logischerweise den entsprechenden Rabatt nicht mehr.

Kann sein, aber dann auch nur wenn jeglicher Rabatt nicht durch einen Vertrag gesichert war. Unter normalen Umstaenden ist keine Firma so fahrlaessig solche Einzelheiten nicht im Vertrag zu sichern. Falls es jetzt bei Apple der Fall war, sind sie eben selber schuld.

Ailuros
2012-11-22, 23:43:58
http://www.fudzilla.com/home/item/29547-apple-tv-not-coming-anytime-soon

SmartTV von Apple wohl nicht vor Ende 2013.

Die_Allianz
2012-12-01, 11:39:02
Ich verstehe nicht wieso Apple nicht einfach mit Intel was macht.? Hat Intel Angst vor ARM oder Apple Angst davor x86 und ARM von einem Zulieferer zu beziehen?

http://tech.fortune.cnn.com/2012/11/30/intel-apple-samsung-chips/

laut Bericht würde Intel die ARM-SoCs von Apple für Apple fertigen, wenn Apple im Gegenzug Intel-Zeug im iPad verbaut.

Gott bewahre! Da sollte Apple sich lieber weiter von Samsung ausnehmen lassen, oder 10-15 Milliarden an TSMC geben für 1-2 Fabs.

Nightspider
2012-12-01, 11:43:07
Apple SoCs 2013 in 22nm bzw. 2014 in 16nm wäre schon sehr übel für die Konkurenz.
Gerade im Mobilen Sektor hätte Apple damit einen uneinholbaren Vorteil.
Den Vorteil könnte sich Apple natürlich auch einiges kosten lassen.
Und wenn Apple noch die neuen digitalen Wlan-Chips von Intel nutzen würde, die auch weniger Strom verbrauchen sollen wäre das auch für beide Firmen von Vorteil.

Blediator16
2012-12-01, 14:22:00
Hab gehört AMD produziert bald für Apple ihre SoCs :freak:

robbitop
2012-12-01, 15:39:44
Wenn dann Global Foundries. AMD hat keine Fertigung mehr. :D

basti333
2012-12-02, 00:14:25
Nie, nie, niemals würde Apple beim iPad auf x86 switchen. Und das Intel das glaubt halte ich auch für sehr unwahrscheinlich.

Nightspider
2012-12-02, 01:45:59
Intel stellt nicht nur CPUs her. Apple könnte NAND-Chips, Wlan,Chips usw. bei Intel kaufen.
Die wären zwar sicherlich teurer als bei der Konkurenz aber von der Technik immer die besten.
Schließlich ist Intel beim Fertigungsprozess immer ganz vorne und enwickelt eben auch neue Techniken wie die neuen digitalen Wlan-Module die teils deutlich Strom sparen können.

C.D.B.
2012-12-02, 02:22:34
... Immerhin wird ARM jetzt auch bei Windows 8 unterstützt. Es könnte dort wieder mal neuen Wettbewerb geben.

NEIN. Windows8 gibts NUR für x86 (x64). Du meinst WindowsRT, das ganz klar eine Totgeburt ist. Da is nix mit Wettbewerb. ;)

robbitop
2012-12-02, 08:26:44
Sagst du so. Vöölig egal ob Windows 8 x86 oder Windows 8 ARM (RT). Jeder anständige Applikationsentwickler wird nun seine Binaries auch für ARM kompilieren. Das macht vermutlich nichteinmal großen Aufwand. Ansonsten würde er sich den RT Markt völlig ohne Grund selbst versperren.
Das kann schon mittelfristig dazu führen, dass ARM immer weiter an Bedeutung gewinnt, bis beides in einem OS zusammengefasst wird. Siehe MacOS (PPC, x86).

Ailuros
2012-12-02, 10:51:29
http://tech.fortune.cnn.com/2012/11/30/intel-apple-samsung-chips/

laut Bericht würde Intel die ARM-SoCs von Apple für Apple fertigen, wenn Apple im Gegenzug Intel-Zeug im iPad verbaut.

Gott bewahre! Da sollte Apple sich lieber weiter von Samsung ausnehmen lassen, oder 10-15 Milliarden an TSMC geben für 1-2 Fabs.

Nur eine weitere Spekulation von zich anderen die Apple betreffen sollen und ja durchaus gerechtfertigt da wir im Spekulationsforum sind.

Wie schon zich Male erwaehnt wenige ausser Apple selber wissen wirklich was Apple je vorhat und zusaetzlich hat Apple seit einer Ewigkeit die alberne Tendenz im Geheimen links und rechts nach Moeglichkeiten nachzuforschen ohne dass ein wirkliches Ziel dahinter steckt. Vereinfacht versuchen meistens herumzuschnueffeln was die Konkurrenz vorhat.

Das soll jetzt gar nichts heissen zur obrigen Spekulation, aber es gibt schon einige Punkte die solch einen Strategiewechsel fuer Apple absurd machen.

Die_Allianz
2012-12-02, 11:14:20
Das soll jetzt gar nichts heissen zur obrigen Spekulation, ...

Wie ist denn deine Meinung zum Thema Fab für Apple in der Zukunft? Von Samsung wollen sie weg, laut Berichten hat TSMC nicht die Kapazität für die Fertigung...

basti333
2012-12-02, 13:29:18
Wie ist denn deine Meinung zum Thema Fab für Apple in der Zukunft? Von Samsung wollen sie weg, laut Berichten hat TSMC nicht die Kapazität für die Fertigung...

Ist halt nix was von heute auf morgen geht, ich könnt mir auch vorstellen das Apple nicht komplett wechselt sondern zukünftig bei zwei firmen fertigen lässt. Von Samsung mag man sich dann vielleicht trotzdem abwenden, aber das ist wohl noch lange hin.

Aber Nightspider hat auch recht, vielleicht würde sich intel ja schon damit zufriedengeben wenn Apple zukünftig Baseband-technik von Intel (früher infineon) einsetzt. Wenn es wirklich soweit kommt, wäre auch klar warum vor einiger zeit die meldung umherging das Intel eine neue Fab für mehrere milliarden größer baut als geplant und wohl auch anderswo Kapazitäten ausbaut.

LadyWhirlwind
2012-12-02, 14:18:40
Es könnte sich dabei auch um ein erstes Angebot von Intel an Apple handeln. Gut möglich das sich Intel am Ende damit zufrieden gibt, dass Apple im Gegenzug dafür andere Produkte von Intel (Baseband-technik, NAND & WLAN-Chips etc.) bei Intel kauft.

Auch wenn Windows RT noch nicht sehr weit verbreitet ist, besteht durchaus die Chance, dass es sich gut genug verkauft um lanfristig zu bestehen. Intel hat m.M.n die Schlacht um die Dominanz von x86 verloren. In den wachstumsfeldern Tabelts und Mobilgeräte domminiert ARM. Intel ist daher darauf angewiesen neue Geschäftsfelder zu finden. Chipproduktion für Apple wäre da eine Möglichkeit. Insbesondere wenn Apple sich im Gegenzug an den Kosten für die Entwicklung und Ausbau kleinerer Fertigungsschritte beteiligt.

Ailuros
2012-12-03, 08:16:24
Wie ist denn deine Meinung zum Thema Fab für Apple in der Zukunft? Von Samsung wollen sie weg, laut Berichten hat TSMC nicht die Kapazität für die Fertigung...

Berichte wollen vieles wenn es zur Samsung vs. Apple Saga kommt unter anderem dass jeweilige Seite dunkles Voodoo gegen den "Gegner" anstellt.

Wenn TSMC nicht die Kapazitaet haben wuerde, wieso wuerde sie dann ploetzlich im Gegenfall Intel haben? Noch besser wieso SOLL Apple mir nichts dir nichts nicht mehr bei Samsung herstellen wollen? Nur weil die diversen Rumormongerers auf dem Netz Material brauchen um wilde Konspirations-thesen zu stricken?

Wie gesagt Apple hatte schon immer eine Tendenz im Hintergrund gerne herumzuschnueffeln um zu sehen was generell los ist bzw. moeglich ist obwohl sie schon fest unterschriebene deals haben. Bevor die Bitboys von AMD gekauft wurden, wurde die Kerle von Apple fuer ein Angebot fuer GPU IP angefragt und es reisten damals die BB Kerle voll Euphorie in die US um ihr Angebot zu machen. Es ging damals auch ziemlich wild im Netz zu als die BB fans ziemlich "sicher" waren dass ein "grosser" deal vor der Tuer steht. Das daemliche war halt dass Apple ihren multi-year, multi-license Vertrag mit IMG noch nicht veroeffentlicht hatte, dieser aber voll unterschrieben und gueltig war.

Nur ein Beispiel aber ja so daemlich verhaelt sich Apple, deshalb auch u.a. die unendliche Geheimnistuerei. Samsung hat Milliarden in die Texas foundry investiert um u.a. das Apple Volumen decken zu koennen. Es ist weder in Samsung's noch Apple's unmittelbarem Interesse dass Apple ihre GESAMTE Herstellung woanders verfrachtet. Die Moeglichkeit von dual sourcing bestand stets aber auch nur dann wenn Apple's Volumen auch ziemlich stark ansteigen wird.

Dural
2012-12-03, 09:55:18
Alle gehen davon aus dass Apple in Zukunft noch mehr fertigen lassen muss.

Ich behaupte aber das Gegenteil! Ab einem gewissen Zeitpunkt wird die Menge bei Apple Stagnieren oder sogar Rückläufig sein.

Samsung, Google, Microsoft und co sind einfach zu Mächtig. Zudem man ab Android 4.2 auch nicht mehr wirklich sagen kann das Apple noch einen Software Vorteil hat. Es läuft einfach extrem gut.
Apple kann sich im Smartphone Bereich ja schon gar nicht mehr richtig absetzten, im Tablet Bereich haben sie derzeit sicher noch einen kleinen Zeitlichen Vorteil, aber in naher Zukunft wird das auch hier Geschichte sein.

Das Risiko für Apple ins blaue hinein Fabriken zubauen, halte ich für Extrem Gross.

Nightspider
2012-12-03, 12:41:42
Aus der News könnte man auch einiges interpretieren.
http://www.computerbase.de/news/2012-12/vor-haswell-noch-sparsamere-ivy-bridge-geplant/

Ein Dualcore oder gar SingleCore mit SMT und "nur" 2Ghz als Ivy Bridge könnte man gut im iPad 5 verbauen. ;)

Henroldus
2012-12-03, 12:48:59
ja, Intel könnte aber wollte nicht bisher, nun müssen sie:
günstige CPUs mit geringerer TDP.
Die absolute Leistungsspitze interessiert niemanden mehr, Effizienz ist gefragt und die lässt man sich aktuell noch teuer bezahlen mit den mobilen ULV 17W CPUs im <ironie>super</ironie> laufenden Ultrabookmarkt

iFanatiker
2012-12-03, 13:36:01
ARM bietet nach wie vor eine absolut magere CPU Leistung...selbst im Vergleich zum Verbrauch. Toll sind die Produkte eben weil es eine IP Lizenz ist,weil sie günstig in der Herstellung sind und weil es eben keine Konkurrenz bisher gibt. Zunehmend wird aber bei Tablets, wenn sie eben immer mehr in Richtung Notebook sich vorarbeiten, die CPU Leistung wichtiger (CGPU hin oder her). Dank der höheren Marge dort wird das Segment auch für Intel interessant. Ich könnte mir also durchaus einen Haswell mit sagen wir mal 7 Watt TDP vorstellen welchen Intel für einen hypothetischen "iPad Pro/Air Touch" anbieten würde oder eine Litte/Big Lösung in Kooperation zwischen Intel und Apple. Wäre für beide Seiten eine Win-Win Situation. Apple wird Samsung nie im Leben gänzlich rausschmeißen und Samsungs OEM Sparte wird sehr ungern auf Apple als Kunden verzichten....aber eine Ausweitung der Fertiger macht Sinn. Wobei ich eben nicht glaube, dass sich Intel auf sowas einlässt. Auch Apple wird keine Lust haben seine Abhängig von Intel auszubauen.

Eher wird vermutlich Intel nun der nächste Lieferant für Flash Bausteine. Bisher hat Apple hier auch ein Problem. Trotz der Deals mit Samsung, Toshiba usw. fehlen Apple Flash Bausteine immer noch. Dazu vermutlich noch Kommunikationsgeschichten usw.

ja, Intel könnte aber wollte nicht bisher, nun müssen sie:
günstige CPUs mit geringerer TDP.
Die absolute Leistungsspitze interessiert niemanden mehr, Effizienz ist gefragt und die lässt man sich aktuell noch teuer bezahlen mit den mobilen ULV 17W CPUs im <ironie>super</ironie> laufenden Ultrabookmarkt

Stimmt. Alle Märkte mit einer gesunden Marge sind total uninteressant und im Server Bereich werden ARMs mit der Leistung von Intel Atom Ausschuss siegen! :biggrin:

Timbaloo
2012-12-03, 13:39:46
Mal so ein Gedanke: Hat intel eigentlich Arm-Lizenzen?

iFanatiker
2012-12-03, 13:45:53
Mal so ein Gedanke: Hat intel eigentlich Arm-Lizenzen?

Intel hatte sogar mit den XScales mit Abstand damals die leistungsstärksten ARM SoCs entwickelt und gefertigt nach der Übernahme von StrongARM. Allerdings ist in diese klassischen SoC Geschäft die Marge so klein, dass es für Intel keinen Sinn machte und die XScale Sparte verkauft wurde. (Auch wenn es einige nVidia Jünger nicht glauben mögen....).

Daneben...wieso sollte Intel ARMs Design IP verwenden wenn das eigene Design haushoch überlegen ist. Die ARM IP Lizenz bietet eben den anderen Teilnehmern Vorteile....für Intel so gut wie keine. Der Instruction Set ist wieder eine andere Sache.

Aber ja: Intel dürfte immer noch eine ARM Lizenz haben.

robbitop
2012-12-03, 13:55:17
Ganz im Gegenteil. ARM CPUs sind gerade bezogen auf den Verbrauch extrem gut. Der Cortex A15 fährt mit > 1 W einen Atom gegen die Wand. Intels Core Architektur ist für min Faktor 10 mehr an TDP designt und lässt sich dort nicht hineinquetschen. Selbst AMDs Jaguar kommt nicht auf eine so gute Leistung pro Watt. Das ist genau der Grund, warum AMD für Microserver auf ARM will. Das ist für Anwendungen die absolut Multithreaded sind perfekt und führt zu guten Stromersparnissen. Dann skaliert man die Anzahl der Kerne eben nach oben.

iFanatiker
2012-12-03, 14:02:50
Ganz im Gegenteil. ARM CPUs sind gerade bezogen auf den Verbrauch extrem gut. Der Cortex A15 fährt mit > 1 W einen Atom gegen die Wand.

Exynos 5250 als SoC dürfte eine TDP von etwas um die 4 Watt haben. Der Intel Atom N2600 mit einer TDP von 3,3 Watt liegt in rein CPU (die TDP dürfte eben vor allem für die CPU, IO usw. verbraten werden) limitierten Benchmarks nicht viel schlechter da und der Atom ist eben absolute Ausschussware von Intel und ist das Kind eines ganzen anderen Zeitalters (x86 Kompatibilität und keine Konkurrenz zu den teueren Intel Core Modellen).

Ok, interessant wäre noch der Teillast Bereich und das Verhalten dort.

AMD will sein Geschäft mit ARM ausbauen weil es eben sehr günstig möglich ist. Eine eigene Architektur dafür, kann AMD schlicht und ergreifend im Moment finanziell nicht mehr stemmen.

Gerade eben wird es jetzt eine Aufsplittung geben im Markt. Die großen Tablets werden zunehmend leistungsfähigere SoC bekommen als die Smartphones alleine wegen der Stromversorgung und Thermik. Eben kann mir sehr gut einen 7 Watt Haswell vorstellen, welcher im High End Tablett Markt ziemlich alles umwirbeln wird.

Ailuros
2012-12-03, 14:05:53
Alle gehen davon aus dass Apple in Zukunft noch mehr fertigen lassen muss.

Ich behaupte aber das Gegenteil! Ab einem gewissen Zeitpunkt wird die Menge bei Apple Stagnieren oder sogar Rückläufig sein.

Nicht wenn sie in neue Maerkte eindringen. Ihr Marktanteil wird mit der Zeit vielleich schon kleiner werden, aber wenn man der insgesamte Markt um N% waechst heisst dann waechst das Volumen womoeglich schon.

Samsung, Google, Microsoft und co sind einfach zu Mächtig. Zudem man ab Android 4.2 auch nicht mehr wirklich sagen kann das Apple noch einen Software Vorteil hat. Es läuft einfach extrem gut.

Wer und wo einen jeglichen Vorteil hat lass ich den jeweiligen Endverbraucher entscheiden. Microsoft ist wo genau momentan maechtig? Mit einem Zehen gerade im tiefen Wasser von Maechtigkeit zu reden ist gerade noch eine Zumutung ueberhaupt zum Markanteil von Google Android.

Apple kann sich im Smartphone Bereich ja schon gar nicht mehr richtig absetzten, im Tablet Bereich haben sie derzeit sicher noch einen kleinen Zeitlichen Vorteil, aber in naher Zukunft wird das auch hier Geschichte sein.

Wieviel Verluste machen sie im einem oder anderen Markt oder besser wie sehen die Gewinn-Margen bei jeglichem Konkurrenten genau aus? Gering ist ihr Tablet-Marktanteil leider immer noch nicht.

Das Risiko für Apple ins blaue hinein Fabriken zubauen, halte ich für Extrem Gross.

Huh?


Aber ja: Intel dürfte immer noch eine ARM Lizenz haben.

Nutzlose Antiquitaet fuer die heutigen Verhaeltnisse.

Coda
2012-12-03, 14:08:20
Ganz im Gegenteil. ARM CPUs sind gerade bezogen auf den Verbrauch extrem gut. Der Cortex A15 fährt mit > 1 W einen Atom gegen die Wand. Intels Core Architektur ist für min Faktor 10 mehr an TDP designt und lässt sich dort nicht hineinquetschen. Selbst AMDs Jaguar kommt nicht auf eine so gute Leistung pro Watt. Das ist genau der Grund, warum AMD für Microserver auf ARM will. Das ist für Anwendungen die absolut Multithreaded sind perfekt und führt zu guten Stromersparnissen. Dann skaliert man die Anzahl der Kerne eben nach oben.
ARM hat übrigens ein relaxteres Memory-Model als x86, was auch hilft beim Stromsparen, aber bei Multithreading große Kopfschmerzen verursacht (Writes müssen nicht in order sein bezüglich anderen Cores und son Dreck - muss man alles selbst fencen).

Da gibt's auch schon Stimmen, die das geändert haben wollen und dann würde ein Vorteil wegfallen.

Die ARM ISA ist nämlich nicht wirklich kleiner als x86 heutzutage mit allen Extensions. Ich bin mir nicht sicher, ob da wirklich der Vorteil herkommt, oder es einfach die Auslegung der Chips ist.

robbitop
2012-12-03, 14:09:18
Also die A15 Benchmarks die ich gesehen habe, schlagen den Atom deutlich. Außerdem ist eine leistungsfähigere GPU enthalten. Die 4 W TDP wüßte ich gern mal wo du die herhast.


Die ARM ISA ist nämlich nicht wirklich kleiner als x86 heutzutage mit allen Extensions. Ich bin mir nicht sicher, ob da wirklich der Vorteil herkommt, oder es einfach die Auslegung der Chips ist.

Das denke ich auch. Das ist Auslegungssache. Die ARMs sind halt für SFF ausgelegt. Das Atom Design ist eher für Netbooks/Nettops ausgelegt gewesen und wird jetzt mit Brutalität der Fertigungstechnologie dort hineingequetscht. Wenn Intel ein dediziertes SFF Design hätte, würde es sich sicher ganz anders behaupten.
Ich nehme an, dass Silvermont schon besser passen könnte.

AnarchX
2012-12-03, 14:15:02
Silvermont wird wohl eher eine Alternative zu Apples Swift, A15 oder Krait.
Ob er gegen A7 oder A53 (bzgl. Pro-Watt-Leistung) bestehen kann ist eher fraglich, da müsste wohl eher eine Weiterentwicklung des In-Order-Atoms her.

iFanatiker
2012-12-03, 14:17:41
Also die A15 Benchmarks die ich gesehen habe, schlagen den Atom deutlich. Außerdem ist eine leistungsfähigere GPU enthalten. Die 4 W TDP wüßte ich gern mal wo du die herhast.

Meinste du dir wo ein N270 Single Core ohne HT einen Ex 5 Daul gegengebencht wurde. Also der D525 schlug sich da nicht schlecht und ein Atom Z2760 dürfte nicht viel langsamer sein bei 1,7 Watt TDP.

Natürlich kranken Intel SoC immer noch an der schwachen GPU Leistung...dies wird sich aber ändern.

Und für den Exynos 5 sagt Samsung nichts bzgl. der max TDP. Aber unter 3 bis 4 Watt geht da mit Sicherheit nichts.

Ihm
2012-12-03, 14:33:28
Alle gehen davon aus dass Apple in Zukunft noch mehr fertigen lassen muss.

Ich behaupte aber das Gegenteil! Ab einem gewissen Zeitpunkt wird die Menge bei Apple Stagnieren oder sogar Rückläufig sein.

Samsung, Google, Microsoft und co sind einfach zu Mächtig. Zudem man ab Android 4.2 auch nicht mehr wirklich sagen kann das Apple noch einen Software Vorteil hat. Es läuft einfach extrem gut.
Apple kann sich im Smartphone Bereich ja schon gar nicht mehr richtig absetzten, im Tablet Bereich haben sie derzeit sicher noch einen kleinen Zeitlichen Vorteil, aber in naher Zukunft wird das auch hier Geschichte sein.

Das Risiko für Apple ins blaue hinein Fabriken zubauen, halte ich für Extrem Gross.

Glaubst du ernsthaft, dass der Großteil der Nutzer sich zwischen iOS und Android wegen der feinen Unterschiede in den Features entscheidet?
Die Beschränkung auf reine Zahlen und technische Features bei den "Großen", die man heute anbietet aber erst in fünf Jahren braucht, ist der Grund warum Apple überhaupt erst wieder auf die Überholspur gekommen ist.

1,5 GHz Quadcore, 4GB RAM, 5,3" Bildschirme...blablabla.
Wenn der Gesamteindruck schon nicht stimmt, dann sind die Details völlig egal. Und aktuell empfinden so einige Menschen Apples-Strategie als insgesamt runder. Dazu kommt noch, dass die iOS-Plattform für Entwickler deutlich lukrativer ist als Android. Vereinfacht könnte man sagen, Apple wird als sexy, Android als eher durchschnittlich empfunden.
Natürlich ist hier Apples Marketing nicht ganz unbeteiligt. Siehe AMD: Bei wem ist aus der Werbung irgendwas hängen geblieben? Dagegen macht Intel deutlich mehr Werbung inkl. Sound Branding, was sicherlich die meisten kennen dürften.

Es ist eigentlich ganz simpel:
Wenn 80% der Zielgruppe einen Bruchteil der Funktionen nutzt, welche wiederum schon längst Standard sind, womit bewege ich dann diese Zielgruppe meine Produkt zu kaufen? Preis und Attraktivität.

Und so sieht es aktuell aus:

- Googles Image ist durch die Datenschutzdiskussionen angekratzt.
- Android hat kein einheitliches Image, aber das lässt sich auf Grund der Strategie kaum vermeiden.
- Android ist ein OS; die Geräte können von überall kommen.
- Updatepolitik ist miserabel; auch kaum zu vermeiden.
- Bezahlsystem im Vergleich ebenfalls unterdurchschnittlich.
- Magnet für Leute mit eher wenig Geld und kaum Lust zum Einkauf über den Play Store; auch logisch, da es besonders viele günstige und leistungsschwache Smartphones mit Android gibt.

- Apple verteidigt bisher relativ erfolgreich ihr "Saubermann"-Image.
- "It Just Works"-Strategie ist das Aushängeschild der Marke. Nicht gerade schädlich für ein Technologieunternehmen, welches zum Großteil normale Nutzer beliefert.
- Fluch und Segen: Interaktion mit Fremdgeräten miserabel, Interaktion innerhalb der Apple-Welt hervorragend. Man wird "belohnt", wenn man Apple schön treu bleibt.
- Apples Marketing ist State of the Art. Niemand schafft es wie Apple, so wenig Geräte für so viele Bereiche als tauglich zu verkaufen.
- Einziges Unternehmen unter den Großen der IT, welches den Minimalismus konsequent durchzieht und alte Zöpfe abschneidet.
- die Marke Apple gilt bei vielen als sexy und das obwohl es als Statussymbol durch den Verlust der Exklusivität kaum noch taugt.
- Apples Ökosystem ist bei Entwicklern sehr beliebt, weil hier die zahlungswilligsten Kunden sind.
- Die Geräte sind teurer, aber die Attraktivität kompensiert den Mehrpreis.

Man könnte die Liste wahrscheinlich endlos weiter führen.
Was aber auffällt ist, dass Apple eine andere Strategie verfolgt und eher die anderen mittlerweile versuchen die Strategie in Teilen zu kopieren.

Ich kann einfach nur hoffen, dass Google und Microsoft weiterhin mächtig gegenhalten werden. Denn die Behauptung, dass die Verbreitung eines Systems eine verbindliche Aussage zur finanziellen Situation sein könnte ist ein Trugschluss. Apple ist aktuell noch in einer idealen Lage: Weniger Marktanteile als die Konkurrenz, aber deutlich höhere Gewinne. Das vermeidet Ärger mit den Ämtern. ;) Auf Monopole habe ich als Kunde jedoch überhaupt keine Lust, da kommen bei mir nämlich ganz üble Erinnerungen hoch, wenn ich an Intel und Nvidia denke. :(

robbitop
2012-12-03, 15:06:37
Silvermont wird wohl eher eine Alternative zu Apples Swift, A15 oder Krait.
Ob er gegen A7 oder A53 (bzgl. Pro-Watt-Leistung) bestehen kann ist eher fraglich, da müsste wohl eher eine Weiterentwicklung des In-Order-Atoms her.
Das verstehe ich nicht. Silvermont soll mehr Leistung haben als Atom. A53 soll mehr Leistung haben als A15. Die Leistungsaufnahme sollte beim Silvermont auch nicht steigen.

Meinste du dir wo ein N270 Single Core ohne HT einen Ex 5 Daul gegengebencht wurde. Also der D525 schlug sich da nicht schlecht und ein Atom Z2760 dürfte nicht viel langsamer sein bei 1,7 Watt TDP.
Singlethread IPC meine ich. Da ist die Anzahl an Kernen egal. Die Kernapplikationen hängen nunmal genau davon ab.


Natürlich kranken Intel SoC immer noch an der schwachen GPU Leistung...dies wird sich aber ändern.
Da bin ich gespannt. Die eigenen GPU Designs werden sicher nicht gerade genügsam sein.

Und für den Exynos 5 sagt Samsung nichts bzgl. der max TDP. Aber unter 3 bis 4 Watt geht da mit Sicherheit nichts.
Der Exynos 5 hat im Chromebook den Atom abgelöst. Er bietet mehr Leistung und spart fast 50 % des Akkus ein.

AnarchX
2012-12-03, 15:11:17
Nein, A53 ist ein effizienter In-Order-ARM, der wohl Cortex A9 erreichen soll, bei deutlich weniger Flächenbedarf und Verbrauch.
Sofern Silvermont nicht auf ein ähnliches Pro-Watt-Leistungsverhältnis wie solche In-Order-LITTLE-Cores skalieren kann, muss Intel wohl auch noch eine entsprechende Lösung anbieten. Aber vielleicht kaschiert man es auch mit der besseren Fertigung.

Ailuros
2012-12-03, 15:13:43
Natürlich kranken Intel SoC immer noch an der schwachen GPU Leistung...dies wird sich aber ändern.

Das haengt streng von Intel's Design-Entscheidungen selber ab. Fuer smartphones bleiben sie bei IMG GPU IP, es garantiert uns aber keiner dass Intel so aggressiv sein wird mit smartphone GPUs wie Apple.

Dass Intel in absehbarer Zukunft GenX GPUs benutzen wird fuer tablets ist wohl nichts Neues mehr, aber ich sehe auch nirgends eine Garantie dass sich auch hier Apple so leicht in diesem Bereich schlagen laesst. Intel hat 10x Mal so viel GPU Leistung mit der naechsten Generation versprochen. Marketing-technisch liegt schon der GPU block im iPad4 auf dem Nivaeu (8.53 vs. 80.64 GFLOPs), in Echtzeit schaetzungsweise schon die halbe Strecke davon bezogen. Zumindest doppelt so viel Echtzeitleistung von der GPU im naechsten iPad und man hat zumindest Gleichstand.

Und für den Exynos 5 sagt Samsung nichts bzgl. der max TDP. Aber unter 3 bis 4 Watt geht da mit Sicherheit nichts.

Da wir in einem Apple thread sind, verbraucht wohl Swift nicht so viel Strom wie A15.

robbitop
2012-12-03, 15:29:33
Nein, A53 ist ein effizienter In-Order-ARM, der wohl Cortex A9 erreichen soll, bei deutlich weniger Flächenbedarf und Verbrauch.
Sofern Silvermont nicht auf ein ähnliches Pro-Watt-Leistungsverhältnis wie solche In-Order-LITTLE-Cores skalieren kann, muss Intel wohl auch noch eine entsprechende Lösung anbieten. Aber vielleicht kaschiert man es auch mit der besseren Fertigung.
Achja ich meinte dann A57(?) - den großen neuen OoO Kern. Intel kann ja ggf. auch etwas big.LITTLE mäßiges machen. Ich finde den Ansatz ziemlich schlau.
Apple scheint bei Swift ja etwas ähnliches zu machen.

Die_Allianz
2012-12-03, 18:43:50
Wenn TSMC nicht die Kapazitaet haben wuerde, wieso wuerde sie dann ploetzlich im Gegenfall Intel haben?

Weil die Stückzahlen bei TSMC, auch ohne Apple, steigen. Bei Intel wird die Auslastung in den nächsten Jahren eher zurückgehen. PC und Notebook-Verkäufe gehen im Moment zurück wie nix anderes!

Noch besser wieso SOLL Apple mir nichts dir nichts nicht mehr bei Samsung herstellen wollen? Nur weil die diversen Rumormongerers auf dem Netz Material brauchen um wilde Konspirations-thesen zu stricken?

Nein ich hatte was gelesen das 2014 Verträge auslaufen.

Ailuros
2012-12-03, 19:47:02
Weil die Stückzahlen bei TSMC, auch ohne Apple, steigen. Bei Intel wird die Auslastung in den nächsten Jahren eher zurückgehen. PC und Notebook-Verkäufe gehen im Moment zurück wie nix anderes!

Intel bedient aber den SFF Markt und wird sich wohl nicht selber erhoffen dass ihre Marktanteile weiterhin so bescheiden sein werden wie bisher oder? Bis zum Punkt wo die Samsung Texas foundry in die Startloecher kam, hatte Samsung ziemlich grosse Probleme ihre eigenen SoCs herzustellen und sie mussten auch dank Apple so manchen anderen Kunden anstinken.

Verhandeln werden Intel und Apple schon (weiss der Geier ueber genau was, denn die Geruechte sind wohl trotz allem kein Zufall), nur heisst es bis eine Unterschrift faellt und dieses nach aussen sickert und ueberhaupt fuer Apple's typische Herumfummelei gar nichts.

Nein ich hatte was gelesen das 2014 Verträge auslaufen.

Was aber alles oder gar nichts heissen kann im gegebenen Fall. Momentan sieht es eben nicht danach aus dass es weder in Samsung's noch Apple's bester Interesse ist bzw. sein wird dass Apple wo anders herstellt.

Das Geruecht dass Apple nach einer alternativen foundry sucht ist schon ziemlich alt geworden und wird sich wohl auch nicht unbedingt unterdruecken lassen, so lange es juristische Differenzen - die ueberhaupt nichts mit der Herstellung zu tun haben - zwischen Samsung und Apple gibt. Und genau eben hier liegt der Bloedsinn der ganzen daemlichen Geruechte-kochereien, die das eine mit dem anderem verbinden.

Wenn Apple zu N Zeitpunkt entweder zu dual sourcing kommt oder die gesamte Herstellung zu einer anderen foundry traegt, ist wohl der eigentliche Grund dass Apple bei einem neuen Herstellungspartner ein besseres Angebot bekommen hat und nicht die alberne gerichtliche Zankerei. Ob und wieso Intel generell ein besseres Angebot machen koennte will fuer solch einen Fall ist dann die brennende Frage.

deekey777
2012-12-04, 12:43:25
Apple hiring ‘dozens’ of former Texas Instruments engineers to boost chip-making operations in Israel (http://thenextweb.com/apple/2012/12/03/apple-hiring-dozens-of-former-texas-instruments-engineers-to-boost-chip-making-operations-in-israel/)
Apple has been expanding its workforce in Israel over the past couple of weeks, tapping a pool of former Texas Instruments (TI) employees in the country to build up research and development centers in Hertezliya and Haifa, The Next Web has learned.
Keine Ahnung, ob das wirklich so stimmt oder bloß ein Gerücht. Fähige Leute sind die ehemaligen TI-Mitarbeiter allemal.

robbitop
2012-12-04, 13:03:26
Da kann gut was dran sein. Apple hat in den letzten Jahren soziemlich alles was an Top-Leuten da war, geschnappt bzw. angeheuert und/oder aufgekauft (durch Firmenaqkuisationen). Und es zahlt sich offenbar auch meistens aus. Die Herstellungsverfahren sind state-of-the-art, viele Schlüsselkomponenten waren state-of-the-art und man designt nun eigene SoCs.
Wer weiß, wie lange es dauert, eh sie eigene Foundries -zumindest für SoCs- aufbauen. Mit lizensierten Fertigungsprozessen aus einer Fertigungsalianz.
Allerdings widerspräche das Apples Supply-Chain Philosophie, die sie Ende der 90er Jahren (durch Tim Cook) aufgebaut haben: sie produzieren nichts selbst, sonderndesignen es kaufen das gefertigte (durch ihre Marktmacht) möglichst günstig ein. Das ist einerseits ziemlich günstig und andererseits sind es keine Fixkosten (auch wenn das nicht ganz stimmt - da werden Mindestmengen über Jahre festgeschrieben sein).

basti333
2012-12-04, 16:49:20
Weil die Stückzahlen bei TSMC, auch ohne Apple, steigen. Bei Intel wird die Auslastung in den nächsten Jahren eher zurückgehen. PC und Notebook-Verkäufe gehen im Moment zurück wie nix anderes!


Naja, Intels eigene verkäufe mögen zurückgehen, aber es gibt ja viele mögliche kunden um sein Foundry Geschäft auszubauen.


Die Meldung mit den ehemaligen TI-Leuten zeigt, wie ich finde, nochmal das Apple kein x86 ins iPad pflanzen wird. Man ist nach wie vor dabei millionen, wenn nicht milliarden, in die in-house chips zu stecken, da wird man bei denen bleiben.

Ailuros
2012-12-04, 17:03:21
Apple hiring ‘dozens’ of former Texas Instruments engineers to boost chip-making operations in Israel (http://thenextweb.com/apple/2012/12/03/apple-hiring-dozens-of-former-texas-instruments-engineers-to-boost-chip-making-operations-in-israel/)

Keine Ahnung, ob das wirklich so stimmt oder bloß ein Gerücht. Fähige Leute sind die ehemaligen TI-Mitarbeiter allemal.

Kein Geruecht.

According to sources close to the situation, Apple has been hiring “dozens” of engineers from Texas Instruments after the company began cutting around 250 jobs from its Ra’anana development center as it looks to lay off around 1,700 employees (about 5 percent of its total workforce) globally.

Zwar nicht alle, aber es sollte nicht ueberraschen dass die meisten von den 1700 Entlassenen weltweit von anderen IHVs eingestellt werden.

AnarchX
2012-12-08, 10:58:53
TV-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9573318#post9573318

deekey777
2012-12-13, 14:51:13
Bericht: Apple angeblich an Chipfabrik in New York interessiert (http://www.heise.de/mac-and-i/meldung/Bericht-Apple-angeblich-an-Chipfabrik-in-New-York-interessiert-1768308.html)

ARM und GF arbeiten doch zusammen, oder?

Ailuros
2012-12-13, 15:11:17
Bericht: Apple angeblich an Chipfabrik in New York interessiert (http://www.heise.de/mac-and-i/meldung/Bericht-Apple-angeblich-an-Chipfabrik-in-New-York-interessiert-1768308.html)

ARM und GF arbeiten doch zusammen, oder?

ARM als IP provider arbeiten mit allen foundries quasi zusammen wo ihre cores hergestellt werden. Im Artikel steht aber nichts von ARM sondern AMD/GloFo die auf dem Gelaende des erwaehnten campus schon irgendwelche Abteilungen haben.

deekey777
2012-12-13, 15:38:00
Ich meinte das anders:
GF hat Erfahrung, ARM-SoCs zu fertigen (haben sie das nicht an Dritte angeboten?). Wäre nicht überraschend, wenn Apple (auch) bei GF fertigen lässt.

basti333
2012-12-13, 17:50:59
Bericht: Apple angeblich an Chipfabrik in New York interessiert (http://www.heise.de/mac-and-i/meldung/Bericht-Apple-angeblich-an-Chipfabrik-in-New-York-interessiert-1768308.html)

ARM und GF arbeiten doch zusammen, oder?

Ich denke nachwievor nicht das Apple im Alleingang eine Fab baut, wenn dann wird man sich mit einem auftragsfertiger zusammentun. Aber eine Fab für 10 milliarden ist schon ne nummer, da gäbe es sicher nicht viele unternehmen die dahinter stecken können. Apple (in zusammenarbeit mit jemand anderen) und evtl. noch Samsung oder Intel.

Die_Allianz
2012-12-19, 07:06:03
http://tech.fortune.cnn.com/2012/11/30/intel-apple-samsung-chips/

laut Bericht würde Intel die ARM-SoCs von Apple für Apple fertigen, wenn Apple im Gegenzug Intel-Zeug im iPad verbaut.

Gott bewahre! Da sollte Apple sich lieber weiter von Samsung ausnehmen lassen, oder 10-15 Milliarden an TSMC geben für 1-2 Fabs.

Auch Apple scheint meinen favorisierten Vorschlag als die beste Lösung zu sehen: Eigene TSCM-Fab nur für Apple

http://www.macrumors.com/2012/12/18/project-azalea-a-tsmc-chip-factory-dedicated-to-building-processors-for-idevices/

Ailuros
2012-12-19, 10:12:57
Auch Apple scheint meinen favorisierten Vorschlag als die beste Lösung zu sehen: Eigene TSCM-Fab nur für Apple

http://www.macrumors.com/2012/12/18/project-azalea-a-tsmc-chip-factory-dedicated-to-building-processors-for-idevices/

Auschliessen kann man es zwar nicht, aber es gab vor einiger Zeit einen spekulativen Artikel darueber den andere Seiten jetzt nur quasi abschreiben. Keiner weiss wer das Gelaende erstmal erworben hat und fuer welchen Zweck. Mehr als eine These ist es nicht, ausser der originale Author weiss mehr und wollte es mit Absicht nur auf dem Thesen-Nivaeu lassen.


Die Kroenung von dem macrumors link oben ist das folgende:

Samsung currently builds all of the custom A-series processors that Apple uses in its iOS devices in an Austin, Texas plant, including the newest 32-nanometer process A6 chip used in the iPhone 5 and the A6X chip used in the fourth generation iPad. Rumors have, however, suggested that Apple is interested in making a deal with TSMC instead, both to cut ties with Samsung and to take advantage of TSMC's 20-nanometer process for use in late 2013.

Das fettgedruckte ist wohl der Witz des Jahres auch fuer 2013 wenn man weiss wie viele IHVs schon heute genau wieviel Produktion unter TSMC's 20nm innerhalb 2013 erwarten. ;D:freak:

Das hier klingt mir persoenlich nicht dass irgendwo ein so ambitionsreiches Projekt versteckt sein koennte und es TSMC nirgends erwaehnt: http://www.xbitlabs.com/news/other/display/20121215113316_TSMC_to_Boost_Capital_Expenditures_in_2013_to_Record_9_Billion.ht ml

Ailuros
2012-12-21, 08:47:50
http://www.xbitlabs.com/news/other/display/20121220132511_TSMC_Confirms_Plans_to_Build_a_Semiconductor_Fab_in_the_U_S.html

Erstmal positiv dass TSMC zugesteht dass sie die Moeglichkeit fuer eine fab in US untersuchen. Selbst wenn Apple dahinter stecken wuerde, wuerde es keiner so frueh eingestehen.

basti333
2013-01-02, 16:06:07
http://www.google.com/hostednews/afp/article/ALeqM5j7wAtHTBZomjNOkDT4xl-_QqLIsw

Nightspider
2013-01-12, 14:13:51
Wie hoch ist aktuell die Chance das Apple im März iPad 5 und iPad Mini 2 rausbringt?

Wie könnte ein SoC Update aussehen? Die CPU ist ja atm noch das kleinste am ganzen SoC. Vielleicht verbaut Apple zukünftig einfach 4 Kerne und lässt die GPU unangetastet um das SoC nicht unnötig viel größer zu machen und die Kosten in Grenzen zu halten.

Oder sieht jemand bis März möglicherweise schn eine neue GPU Architektur im A7X?

basti333
2013-01-12, 14:51:45
Wie hoch ist aktuell die Chance das Apple im März iPad 5 und iPad Mini 2 rausbringt?

Wie könnte ein SoC Update aussehen? Die CPU ist ja atm noch das kleinste am ganzen SoC. Vielleicht verbaut Apple zukünftig einfach 4 Kerne und lässt die GPU unangetastet um das SoC nicht unnötig viel größer zu machen und die Kosten in Grenzen zu halten.

Oder sieht jemand bis März möglicherweise schn eine neue GPU Architektur im A7X?

der A6 wird ja "noch" in 32nm hergestellt, denkbar wäre ein shrink auf 28nm, evtl. schon bei TSMC.

Die_Allianz
2013-01-12, 15:05:52
der A6 wird ja "noch" in 32nm hergestellt, denkbar wäre ein shrink auf 28nm, evtl. schon bei TSMC.

TSMC ist sicher. Prozess und Zeitrahmen noch unklar. Frühjahr '13 eher nicht.
Vielleicht fährt Apple nochmal die Strategie den neuen Prozess (diesmal inkl. Zulieferer) erst mal an "kleinen" Stückzahlen zu erproben in einem Produkt wie dem AppleTV. So haben sie es schonmal gemacht

http://www.heise.de/mac-and-i/meldung/Bericht-A6X-Chipproduktion-wandert-angeblich-zu-TSMC-1775641.html

Ailuros
2013-01-12, 22:18:26
Wenn sie Schritt fuer Schritt die Herstellung von der einen zur anderen foundry umziehen, minimalisiert Apple jegliches Risiko.

Nightspider
2013-01-13, 22:18:27
Apple könnte jetzt in 28nm bei Samsung fertigen um im März neue Produkte auf den Markt zu werfen.

basti333
2013-01-13, 23:19:25
Ich frag mich ja auch ob es für Apple möglich ist statt einen seperaten Basebandchip (von Qualcomm) zu verbauen, die IP dafür zu kaufen und in den SoC zu integrieren. Macht Qualcomm bei sowas mit oder wäre das was neues?

YfOrU
2013-01-14, 09:19:56
Ich frag mich ja auch ob es für Apple möglich ist statt einen seperaten Basebandchip (von Qualcomm) zu verbauen, die IP dafür zu kaufen und in den SoC zu integrieren. Macht Qualcomm bei sowas mit oder wäre das was neues?

Baseband IP Cores zur Integration würde Apple sicher am Markt bekommen. Die Frage ist allerdings ob das bei Apple überhaupt gewünscht wird. Apple konkurriert nicht direkt mit anderen SoC Anbietern da diese nur in eigenen Produkten eingesetzt werden. Die Integration in den SoC geht durchaus auf Kosten der Flexibilität und Rechtssicherheit.

Beispiel: iPad Mini mit LTE wäre so kaum möglich gewesen denn zur Zeit des A5 Die Shrinks (Apple TV, iPad 2.5) gab es praktisch keine halbwegs komplette LTE Baseband. Somit wäre der SoC entweder sehr viel später gekommen oder hätte sehr wenige Frequenzen unterstützt.

Zusätzlich ist eine integrierte Baseband immer ein massiver Angriffspunkt für Konkurrenten. Hier wird es durchaus noch sehr interessant ob zum Beispiel das von Nvidia verfolgte Konzept aufgeht denn in Software abgebildete Funktionen schützen nicht zwangsläufig vor der Patentklatsche. Momentan spielt deren Baseband am Markt keine Rolle aber das kann sich bei einer Integration ändern. Da in diesem Markt (Mobilfunktechnik) alle das Messer zwischen den Zähnen haben ist das nicht ganz ohne Risiko.

robbitop
2013-01-14, 11:58:41
Ich vermute, dass A7 2x Rogue Cluster bekommt und A7x 4x Rogue Cluster. Swift wird IMO bleiben.
Ob jetzt außerhalb von Die-Size 28 nm etwas ggü. 32 nm bringt, bleibt abzuwarten. Bisher waren die Halfnodes vor allem kleiner.

Ailuros
2013-01-14, 12:47:41
Ich vermute, dass A7 2x Rogue Cluster bekommt und A7x 4x Rogue Cluster. Swift wird IMO bleiben.
Ob jetzt außerhalb von Die-Size 28 nm etwas ggü. 32 nm bringt, bleibt abzuwarten. Bisher waren die Halfnodes vor allem kleiner.

Ich kann mir schwer vorstellen dass ein smartTV wie das neueste Zeug von LG schon heute so viel Leistung hat wie das naechste iPad Monate spaeter :D

Einfacher:

A6 hat 6 TMUs@325MHz, waehrend A6X 8 TMUs@280MHz. Zwar wird Rogue um einiges hoeher takten, aber ich erwarte bei Apple trotz allem konservativere Frequenzen als wo anders. Ein G6200 dual cluster hat 4 TMUs :P

robbitop
2013-01-14, 13:02:34
Hm ... ich dachte es gibt ersteinmal nur Rogue 2C und 4C? Und ich dachte, die bringen einen beachtlichen Leistungssprung?

Ailuros
2013-01-14, 13:06:23
Hm ... ich dachte es gibt ersteinmal nur Rogue 2C und 4C? Und ich dachte, die bringen einen beachtlichen Leistungssprung?

Angekuendigt sind G62x0 dual cluster, G64x0 quad cluster und G66x0 six cluster. Pro cluster sind es jeweils 2 TMUs. Es ist eben nicht so dass Rogue nicht effizienter ist, aber Du wirst mir doch nicht einreden wollen dass Apple an einen Fuellraten-Rueckschritt denkt bei so hohen tablet Aufloesungen oder?

robbitop
2013-01-14, 13:08:57
Angekuendigt sind G62x0 dual cluster, G64x0 quad cluster und G66x0 six cluster. Pro cluster sind es jeweils 2 TMUs. Es ist eben nicht so dass Rogue nicht effizienter ist, aber Du wirst mir doch nicht einreden wollen dass Apple an einen Fuellraten-Rueckschritt denkt bei so hohen tablet Aufloesungen oder?
Da hast du vermutlich Recht. Dann 6C für A7X und 4C für A7.

Ailuros
2013-01-14, 19:55:15
Da hast du vermutlich Recht. Dann 6C für A7X und 4C für A7.

Ich weiss ehrlich nicht was Apple genau vorhat, aber ich wuerde zwischen A7 und A7X (smartphone to tablet SoC) auf das gleiche config setzen bei verschiedener Frequenz. 6 cluster Rogue werden wir wohl nicht vor 2014 sehen; ist auch brutal viel Leistung fuer die heutigen standards und es kann tatsaechlich sein dass Apple zu einer halbjaehrigen Kadenz greift (obwohl ich es als total uebertrieben empfinde).

robbitop
2013-01-15, 09:01:46
Halbjährlich neue SoCs? Damit machen sie sich doch selbst kaputt. Zumal es so häufig gar keine Shrinks gibt.
Ist auch eine 3C Kombination möglich?

Ailuros
2013-01-15, 19:12:29
Halbjährlich neue SoCs? Damit machen sie sich doch selbst kaputt. Zumal es so häufig gar keine Shrinks gibt.
Ist auch eine 3C Kombination möglich?

Ob sie moeglich ist keine Ahnung; auf jeden Fall wurden bis jetzt nur 2, 4 und 6 cluster Varianten angekuendigt. Uebrigens kann man jeweils in 2 cluster Mengen clusters ganz ausschalten. Bei einem 6C bei Bums-applikationen die keine besondere GPU Ansprueche haben, kann man locker 4C zum pennen schicken.
Ohne dass ich jetzt zu viel sage: wenn man ganze cores skaliert hat es sowohl Vor- als auch Nachteile. Wenn man clusters skaliert kann man eventuell in vielen Stellen die Effizienz erhoehen, aber die Limitierungen zwischen MP und cluster configs wandern dann an eine andere Stelle. Es wird wohl nicht all zu lange dauern bis man das Ganze basierend auf realen Messungen besser analysieren kann.

Ein paar interessante Einzelheiten von Arun ueber mobile GPUs:

http://forum.beyond3d.com/showpost.php?p=1693943&postcount=444

Agreed in theory although none of my points had anything with the extra control logic To simplify the reasoning, I assumed that even on an IMR the control logic would be less expensive than adding more units to achieve the same performance (i.e. imagine a design with identical VS and PS units that are statically allocated to one or the other at design/manufacturing time to save that control logic; I would expect that to always be slower than an unified design).

Regarding geometry vs pixel processing logic, the specifics are often overlooked:
- On an IMR, if the triangle setup unit is the bottleneck, then the PS/TMUs will stall. So if you have a very high polygon count object that is nearly entirely outside the frustum or at least fails the depth test, you will pay the geometry processing cost of that object in full.
- On a TBR, only the *average* VS vs PS throughput matters, as you can do the pixel processing of the previous render/frame while doing the geometry processing of the current one. So if the geometry processing for the entire render/frame isn't the overall bottleneck, then that invisible object will basically come for free. This is an often overlooked advantage of TBRs for geometry processing.
- On both IMRs and TBRs, you ideally want to have all the fixed-function units busy as often as possible, so that they don't become a bottleneck at other points in time. For example, on a very naive unified shader TBR where you did geometry processing and pixel processing sequentially with no overlap, if the geometry stage was triangle setup limited, then the shader core will mostly stall for that duration. On the other hand if geometry and pixel processing happen in parallel, the geometry part may essentially come "for free".
- When doing VS and PS overlap in an unified architecture (either IMR or TBR), it's very frequent for the VS not to use the TMUs while the PS might be TMU limited. So ideally you want fine-grained overlap between VS and PS inside every individual shader core/cluster so that the VS ALU instructions basically come for free when the PS is TMU limited.

The last point especially is very easy to get wrong if you try to get away with simple control logic, although it's hard to say how much it matters for typical workloads as they'd need to be both VS_heavy and TMU-heavy for this to be significant; arguably part of GLBenchmark 2.5 does fit in that category FWIW.

Fuer den letzten Punkt fuer VS & PS overlap: Arun erwaehnt es zwar nicht aber es duerfte bei allen mobilen GPUs eine gewisse Koppelung zwischen ALUs und TMUs geben. Eine komplette Entkoppelung wie es schon seit Jahren auf Radeon desktop GPUs bzw. GeForces ab G80 gibt waere momentan suendhaft teuer.

xL|Sonic
2013-01-17, 01:38:42
TSMC contracted to fab a cutting-edge chip for a ‘breakthrough’ Apple device
(http://www.idownloadblog.com/2013/01/16/apple-tsmc-20nm/)

TSMC will reportedly take it from there, making quad-core chips for iPads, iPhones and iPods beginning in 2014.

DigiTimes Research also cites previous reports of TSMC getting to fab an improved version of the iPad 4′s A6X chip using its 28nm process technology, starting in the first quarter of 2013.

“The new 28nm version of the existing A6X will power Apple’s next-generation iPad and iPad mini devices, which will be launched around the middle of 2013″, the article reads.

And then this key quote (emphasis mine):

In addition, Chai noted that though TSMC with its 20nm SoC process will most likely secure its first chip orders from Apple, the foundry’s 16nm FinFET process will play a key role in Apple’s “breakthrough” product.

basti333
2013-01-17, 05:23:51
TSMC contracted to fab a cutting-edge chip for a ‘breakthrough’ Apple device
(http://www.idownloadblog.com/2013/01/16/apple-tsmc-20nm/)

16nm (SoC?) für ein breakthrough Produkt? Das hört sich weniger nach einem iTV an(der auch mit 32nm oder 28nm problemlos realisierbar wäre von der hardwareseite her), dafür mehr nach einem ARM Chip für Apples Computer (Desktop und Notebooks). Man darf gespannt sein.

AnarchX
2013-01-30, 08:36:01
A5Xr2: http://www.anandtech.com/show/6709/slightly-smaller-apple-tv-32-a1469-contains-a5x-soc-bcm4334-combo

Wo liegt der Vorteil gegenüber einem A6, mit wohl vergleichbarer Leistung und Die-Size unter 32nm?
Aber mit einer GPU in dieser Leistungsklasse würde der Apple TV schon eine deutlich Aufwertung erfahren und wohl wirklich als Gaming-Device beworben werden können.

robbitop
2013-01-30, 08:49:35
Der A6 wäre sogar schneller. Ähnliche GPU Leistung und doppelte CPU Leistung.
Vieleicht ist der A5XR2 nur ein low risk Pipecleaner für 28 nm? Der A5R2 war es ja auch für 32 nm.

Ailuros
2013-01-30, 10:38:21
Der A6 wäre sogar schneller. Ähnliche GPU Leistung und doppelte CPU Leistung.
Vieleicht ist der A5XR2 nur ein low risk Pipecleaner für 28 nm? Der A5R2 war es ja auch für 32 nm.

Wenn Frequenzen gleich bleiben bei einem hypothetischen 28nm shrink ist die A6 GPU um ca. 10% schneller als im A5XR2.

AnarchX
2013-01-30, 10:41:48
Aber wäre es bei 28nm überhaupt noch ein A5X? Das 4x32-Bit SI könnte man wohl nicht bei einem solchen massiven Shrink beibehalten?

Vielleicht hat man sich irgendwo sehr günstige 40nm Kapazität gesichert?

Eventuell eine HP-Implementierung: 2x A9 >1,4GHz + MP4@>300MHz und LP-DDR3 und man hätte wohl durchaus >A6-Leistung, wenn auch bei erhöhtem Verbrauch, der bei stationären Betrieb akzeptiert werden kann.

Ailuros
2013-01-30, 10:55:22
Aber wäre es bei 28nm überhaupt noch ein A5X? Das 4x32-Bit SI könnte man wohl nicht bei einem solchen massiven Shrink beibehalten?

Damit ich mich selber nicht verwirre:

A5 /SGX543MP2@204MHz = Samsung 45nm (CPU<->GPU = 4:1)
A5X /SGX543MP4@250MHz = Samsung 45nm (CPU<->GPU = 4:1)
A5R /SGX543MP2@204MHz = Samsung 32nm (CPU<->GPU = 4:1)
A6 /SGX543MP3@325MHz = Samsung 32nm (CPU<->GPU = 5:1)
A5XR2 /SGX543MP4@250MHz (?) = Samsung (?) 32 oder 28nm? (CPU<->GPU = 4:1)

Vielleicht hat man sich irgendwo sehr günstige 40nm Kapazität gesichert?

Es gibt lediglich Indizien fuer eine ab 28nm Fertigung bei TSMC.

Eventuell eine HP-Implementierung: 2x A9 >1,4GHz + MP4@>300MHz und LP-DDR3 und man hätte wohl durchaus >A6-Leistung, wenn auch bei erhöhtem Verbrauch, der bei stationären Betrieb akzeptiert werden kann.

Bisherige shrinks hatten keine Frequenz-steigerungen. Und fuer so ein Bums-geraetchen wie AppleTV dass ziemlich billig ist wird man wohl nicht unbedingt durch Laengen gehen und an Frequenzen schrauben. Schon gar nicht die CPU auf 1.4GHz weil es sonst die GPU auf 350MHz pumpt und den power budget ziemlich schnell zur Decke raushaut.

Es ist ja auch nicht so dass das iPadmini-Deux mit iPad3 Leistung irgendwie schlecht anliegen wird.

robbitop
2013-01-30, 11:31:48
IMO würde im iPad Mini ein A6 viel besser passen. Aber es kann gut sein, dass Apple lieber einen A5XR2 bringt. Allein für den AppleTV würde sich das wohl nicht lohnen. Die CPU Leistung wäre in dem Falle dann aber erst recht veraltet.

deekey777
2013-01-30, 12:35:38
Es ist die Frage der Auflösung, die Apple mit dem iPad mini 2 anstrebt. Für 2048*1536 ist ein A5X nicht stark genug, daher gibt es Anwendungen, die nicht mit voller Auflösung auf dem iPad 3 laufen (oder mit stark reduzierten Details).

Ein A6 reicht da definitiv nicht aus, aber warum sollte Apple nicht einfach eine neue Auflösung anbieten, wo ein A5X ausreicht? Ein A6 könnte auch stark genug sein, müsste dann aber höher takten. Warum dann ein A5X im AppleTV 3.2? Reserveleistung für vermeintliche Spiele?

robbitop
2013-01-30, 12:59:31
Es ist immer die Frage, was ausreichend ist. Für das iPad 3 war A5X schnell genug. Sicher gab es auch Anwendungen die in der Auflösung runtergehen mussten. Aber das ist ja eher weniger schlimm.
Er sollte also auch für das Mini reichen. A6 ist ein bisschen schneller bzgl GPU aber vor allem bei der CPU massiv schneller. Und ein Cortex A9 @1 GHz ist heute IMO total veraltet.
Ich hoffe, dass kein A5X Einzug halten wird. Ich fürchte es aber fast...

deekey777
2013-01-30, 14:38:04
Es gibt eine Sache, die keiner von uns beantwortet hat: Wenn Apple wirklich mit kostengünstigem iPhone kommt, welcher Chip wird drin stecken, damit der Abstand nicht nur äußerlich, sondern auch innen sicht- und fühlbar ist? Warum griff Apple beim iPod touch 5 und dem iPad mini auf den A5 zurück und nicht auf den A6?

Klar, ein A6 kostet mehr als ein A5, schließlich ist er größer. Aber nur mit einem A5 wird der Käufer die niedrigere Performance spüren, die den Preisabstand zum iPhone 5 bzw. Retina-iPad rechtfertigt, so dass er sich die Frage stellen wird, ob er nicht Geld in mehr Leistung investieren sollte.

Übrigens:
Es gab ja schon seit Herbst Spekulationen über eine neue ATV-Box, jetzt bekommen wir wohl die Bestätigung dafür. Wenn Apple noch mit einem eigenen Fernseher kommt, welche Auflösung wird er haben? Vielleicht ist AppleTV 3.2 ein Testanlauf für die Kunden, die einen Fernseher mit höherer Auflösung als 1080p haben.

Ailuros
2013-01-30, 14:50:03
Es ist die Frage der Auflösung, die Apple mit dem iPad mini 2 anstrebt. Für 2048*1536 ist ein A5X nicht stark genug, daher gibt es Anwendungen, die nicht mit voller Auflösung auf dem iPad 3 laufen (oder mit stark reduzierten Details).

Zwischen A5X und A6 liegt bei der Fuellrate kein besonderer Unterschied; A5X= 8 TMUs@250MHz vs. A6= 6 TMUs@325MHz. Selbst bei A6X sieht es nicht besonders besser aus da 8 TMUs@280MHz.

Ein A6 reicht da definitiv nicht aus, aber warum sollte Apple nicht einfach eine neue Auflösung anbieten, wo ein A5X ausreicht? Ein A6 könnte auch stark genug sein, müsste dann aber höher takten. Warum dann ein A5X im AppleTV 3.2? Reserveleistung für vermeintliche Spiele?

Haben wir schon besprochen hier im Thread. Bei 7" fuer das naechste mini wuerden locker 1280*960 (4:3) ausreichen. Es soll zu umstaendlich die existierenden Applikationen dafuer anzupassen und nein persoenlich verstehe ich es trotz allem nicht so ganz denn 2048 displays sind nicht billig und verbrauchen einen fetten Happen an zusaetzlichem Strom. Irgendwo muesste sich das Ganze ausbalancieren koennen.

Nightspider
2013-01-30, 16:31:20
Du weißt doch gar nicht wie viel Strom IGZO Displays verbrauchen.

Gut möglich das ein 2048er IGZO Display weniger Strom verbrauch als ein normales 1024er.

Ailuros
2013-01-30, 16:56:19
Du weißt doch gar nicht wie viel Strom IGZO Displays verbrauchen.

Gut möglich das ein 2048er IGZO Display weniger Strom verbrauch als ein normales 1024er.

Wenn die "Moeglichkeit" zur Tatsache wird, koennen wir es gerne nochmal besprechen.

robbitop
2013-01-30, 17:00:40
Ich gehe ehrlich gesagt auch von einem IGZO 2048er Display aus.
Ein A5X(R2) wäre aber eine derbe Enttäuschung...Ich will Swift CPU Kerne und nicht die alten Cortex A9 Dinger...

Ailuros
2013-01-30, 17:14:19
Ich gehe ehrlich gesagt auch von einem IGZO 2048er Display aus.
Ein A5X(R2) wäre aber eine derbe Enttäuschung...Ich will Swift CPU Kerne und nicht die alten Cortex A9 Dinger...

Was besser waere ist vielen von uns klar; nur was Apple wirklich WILL ist dann ein ganz andere Geschichte...leider.

Nightspider
2013-01-30, 18:53:35
Ich gehe sogar so weit zu sagen, das ein iPad Mini 2 mit 2048 und herkömmlicher LCD Technik bei selber Größe gar nicht möglich wäre.

Denn Apple dürfte versuchen die Größe nicht zu ändern und die Akkulaufzeit gleich groß zu behalten.

Bleibt die Frage wann die neuen Produkt auf den Markt kommen. Wenn jetzt schon Bilder vom Gehäuse des iPad5 auftauchen wäre ein Release im März nicht unmöglich.

Ailuros
2013-01-30, 18:56:29
Keine Ahnung wie zuverlaessig aber eine Analysten-roadmap fuer Apple projezierte iPad5 und das naechste mini fuer Q3.

Die_Allianz
2013-01-30, 19:31:12
Ich gehe sogar so weit zu sagen, das ein iPad Mini 2 mit 2048 und herkömmlicher LCD Technik bei selber Größe gar nicht möglich wäre.

ich gehe sogar so weit zu sagen das es 2013 kein iPad mini mit 2048er Auflösung geben wird, vielleicht sogar niemals.

Andere Frage: wenn man sich die fallenden PC und jetzt auch Mac-Verkäufe anschaut, lohnt es sich für Apple denn tatsächlich ARM-CPUs oder SoCs für Notebooks zu entwickeln? Frisst die ganze Entwicklungsarbeit denn nicht den Kostenvorteil? Es muss ja auch OSX angepasst werden.
Ich glaube irgendwie immer weniger daran.

lumines
2013-01-30, 19:54:40
ich gehe sogar so weit zu sagen das es 2013 kein iPad mini mit 2048er Auflösung geben wird, vielleicht sogar niemals.

Warum das niemand in Erwägung zieht, ist mir übrigens auch ein Rätsel. „Niemals“ denke ich aber nicht, denn die Leistungsaufnahme wird zwangsläufig sinken und die Perfomance steigen. Apple wird vermutlich ein Retina-Dsiplay verbauen, wenn sie keine Kompromisse wie beim iPad 3 eingehen müssen. Das wäre beim mini imho fatal, sind doch der Formfakter und das Gewicht eigentlich die Gründe für das mini.

Andere Frage: wenn man sich die fallenden PC und jetzt auch Mac-Verkäufe anschaut, lohnt es sich für Apple denn tatsächlich ARM-CPUs oder SoCs für Notebooks zu entwickeln? Frisst die ganze Entwicklungsarbeit denn nicht den Kostenvorteil? Es muss ja auch OSX angepasst werden.
Ich glaube irgendwie immer weniger daran.

Die Diskussion dürfte sich mit dem Air 11" und Intel, die immer weiter durch ARM unter Druck geraten, sowieso erledigt haben. Intel spielt ja insofern Apple zu, als dass ihre größten Innovationen sich momentan bei GPU-Leistung und der Leistungsaufnahme befinden. Sie optimieren also genau dort, wo für Apple ein eigener Desktop-ARM-SoC in Frage kommen würde. Letztendlich dürfte das Apple den Reiz nehmen, dort eine eigene Lösung anzubieten. Außerdem sollte man nicht davon ausgehen, dass sie klassische PCs noch einmal revolutionieren wollen, einfach weil der Markt für sie vielleicht nicht schrumpft, er aber insgesamt ziemlich gesättigt ist. Würde sich gar nicht lohnen dort noch einmal die Hardware-Plattform zu ändern und Kompatibilitätsprobleme zu verursachen.

Ailuros
2013-01-30, 19:59:18
Es wird in der Zukunft keine quasi ARM-Intel "Konkurrenz" bei Apple geben.

deekey777
2013-01-30, 20:30:00
Apple says new Apple TV isn't redesigned, just features minor tweaks (http://appleinsider.com/articles/13/01/30/apple-says-new-apple-tv-isnt-redesigned-just-features-minor-tweaks)
Despite details from a new FCC filing suggesting an updated Apple TV would feature a smaller form factor, Apple has indicated that the slightly tweaked hardware will look and function just like the current model.
"We sometimes make component changes which require an updated model number for regulatory approval," the company said. "The component changes we made don't affect product features and Apple TV customers will continue to have the same great user experience."

Das glaube ich ihnen so gar: Mit iOS 5.2 bleibt alles beim Alten. X-D

basti333
2013-01-30, 20:38:18
Vielleicht legt man den Grundstein für einen Apple Fernseher, testet schonmal was machbar ist etc.
Eher aber denke ich auch an einen 28nm shrink für ein neues mini, der jetzt schonmal "getestet" wird, evtl, ja schon bei TSMC. Hierbei handelt es sich vielleicht um die ersten SoCs von TSMC die man jetzt nicht wegschmeißen will, sondern vielleicht wieder mit einem deaktivierten core oder so in die Apple TVs steckt, später gehts dann ins mini.

deekey777
2013-01-30, 21:05:14
...


Haben wir schon besprochen hier im Thread. Bei 7" fuer das naechste mini wuerden locker 1280*960 (4:3) ausreichen. Es soll zu umstaendlich die existierenden Applikationen dafuer anzupassen und nein persoenlich verstehe ich es trotz allem nicht so ganz denn 2048 displays sind nicht billig und verbrauchen einen fetten Happen an zusaetzlichem Strom. Irgendwo muesste sich das Ganze ausbalancieren koennen.
Heutige universelle Apps eines vernünftigen Anbieters bieten Unterstützung für 3GS, iPhone 4, iPhone 4S (mehr Effekte, bessere Texturen), iPhone 5 (wie 4S, aber 16:9), iPad 1 (iPhone 4 Niveau, aber 1024x768), iPad 2 (wie iPhone 4S, aber 1024x768), iPad 3/iPad 4 (und selbst hier gibt es weitere Anpassungen). Ob umständlich oder nicht: Entweder man macht es oder man lässt es (wie Rockstar) oder man lässt sich viel Zeit (Gameloft und deren Nova 3).

Nightspider
2013-01-30, 21:27:25
ich gehe sogar so weit zu sagen das es 2013 kein iPad mini mit 2048er Auflösung geben wird, vielleicht sogar niemals.


Genau, man belässt den größten Kritikpunkt einfach und lässt die Konkurenz meilenweit davon ziehen. :rolleyes:

Der Nexsus 7 Nachfolger kommt vielleicht sogar mit Full-HD Panel.

Also ob die Pixeldichte von 2048 bei 7" in 2 Jahren noch etwas besonderes wäre.

Du solltest das Wort "niemals" etwas vorsichtiger benutzen.

Gerade wenn es sich um den größten Kritikpunkt und die größte Wunschveränderung gleichzeitig handelt, die technisch in Massenproduktion möglich ist. ;)

Nightspider
2013-03-12, 18:12:13
http://www.hardwareluxx.de/index.php/news/consumer-electronics/gadgets/25741-neuer-appletv-anscheindend-doch-ohne-a5x-chip.html

Ailuros
2013-03-12, 18:30:46
http://www.hardwareluxx.de/index.php/news/consumer-electronics/gadgets/25741-neuer-appletv-anscheindend-doch-ohne-a5x-chip.html

ROFL alle wollten mir nichts Dir nichts "wissen" dass der chip bei TSMC hergestellt wurde und jetzt das....:P

deekey777
2013-03-15, 21:09:11
Apple TV 2013 (A1469) Short Review: Analysis of a New A5 (http://www.anandtech.com/show/6834/apple-tv-2013-a1469-short-review-analysis-of-a-new-a5)

The latest Apple TV doesn’t change functionality, nor does it appear to be a step back in performance. The A1469 model really helps Apple reduce costs, both through better engineering and through a physically smaller A5 SoC.

Weniger Stromverbrauch.

basti333
2013-03-15, 23:35:43
Apple TV 2013 (A1469) Short Review: Analysis of a New A5 (http://www.anandtech.com/show/6834/apple-tv-2013-a1469-short-review-analysis-of-a-new-a5)



Weniger Stromverbrauch.

Und wie anandtech schreibt würde sich eine neuanschaffung nach nur 300 jahren rentieren :freak:

Ne, die frage ist doch, warum legt apple für dieses Nischenprdodukt den "Uralt" A5 nochmal neu auf? Lohnt sich sowas finanziell? Wohl nur wenn man damit noch längere Zeit was vor hat.

Ailuros
2013-03-16, 09:47:26
Und wie anandtech schreibt würde sich eine neuanschaffung nach nur 300 jahren rentieren :freak:

Ne, die frage ist doch, warum legt apple für dieses Nischenprdodukt den "Uralt" A5 nochmal neu auf? Lohnt sich sowas finanziell? Wohl nur wenn man damit noch längere Zeit was vor hat.

Ich hab durchaus eine These selbst wenn sie nichts besonderes in der Zukunft mit dem spezifischem SoC vorhaben: ein nettes Experiment mit groesseren Packdichten. Bei den knapp 40mm2 wird sich wohl ein Gigant wie Apple so ein relativ billiges Experiment wohl leisten koennen. Und ja es lohnt sich finanziell wenn alles nach Plan laeuft und sie in Zukunft sagen wir mal 40% mehr SoCs pro wafer bekommen.

smalM
2013-03-17, 20:36:30
In diesem Bild (http://www.chipworks.com/blog/technologyblog/files/2013/03/APL7498_APL7498X01_137210_Poly_b_branded.png) des neuen A5 ist die GPU markiert. Das sehe ich aber nur als ein Teil an, ich finde die 3 Funktionsblöcke seitlich und darunter, die die GPU-Kerne unterstützen (bspw. H.264 Encoding) sollte man eigentlich dazuzählen.
Aber im Vergleich mit den beiden GPUs links oben in diesem Bild (http://www.chipworks.com/blog/technologyblog/files/2013/03/Comparaison-shot-sm.jpg) des A5r2 fehlen die Hälfte dieser zusätzlichen Funktionsblöcke (dort hat jeder GPU-Kern seine eigenen).
Welche Funktionen sind also beim neuen A5 eingeschränkt?

Im übrigen könnte der neue A5 auch als Ersatz für den A4 dienen. Es wäre immerhin ein (kleiner) Schritt vorwärts bei der CPU und ein größerer bei der GPU und einer weg vom 45nm Prozeß. Eventuell will Apple ja das iPhone 4 für Märkte in Schwellenländern beibehalten und somit seine Palette beim Erscheinen des iPhone 5S von 3 auf 4 Modelle erweitern?

Ailuros
2013-03-18, 07:46:05
In diesem Bild (http://www.chipworks.com/blog/technologyblog/files/2013/03/APL7498_APL7498X01_137210_Poly_b_branded.png) des neuen A5 ist die GPU markiert. Das sehe ich aber nur als ein Teil an, ich finde die 3 Funktionsblöcke seitlich und darunter, die die GPU-Kerne unterstützen (bspw. H.264 Encoding) sollte man eigentlich dazuzählen.

Fixed function video decoder bzw. encoder zaehlt keiner zur GPU und wird auch keiner dazuzaehlen, eben weil das eine nichts mit dem anderen zu tun hat.


Aber im Vergleich mit den beiden GPUs links oben in diesem Bild (http://www.chipworks.com/blog/technologyblog/files/2013/03/Comparaison-shot-sm.jpg) des A5r2 fehlen die Hälfte dieser zusätzlichen Funktionsblöcke (dort hat jeder GPU-Kern seine eigenen).
Welche Funktionen sind also beim neuen A5 eingeschränkt?

Falls es sich um GPU cache handeln sollte (und eben nicht video decoder/encoder) beim originalen A5 waeren es 2*64KB pro GPU Kern. Entweder sie haben einiges davon entfernt, welches aber natuerlich auch die Endleistung der GPU beinflusst oder es einfach um einiges dichter gepackt.

smalM
2013-03-18, 11:03:27
Nun ja, es ist das, was in den letzten Jahren auch alles auf diskrete GPUs gepackt wurde.

Es handelt sich nicht um Cache. Wie der aussieht erkennt man im Bild des neuen A5 am Cortex-A9, bei dem links oben der Cache ca. 1/4 der Fläche ausmacht (mMn ist er übrigens kleiner als bei den bisherigen A5-Implementationen). Und Cache ist eigentlich üblicherweise dicht gepackt, da läßt sich nur wenig im selben Prozeß optimieren.

Ailuros
2013-03-18, 20:55:59
Nun ja, es ist das, was in den letzten Jahren auch alles auf diskrete GPUs gepackt wurde.

Nur ist auf einer standalone GPU nicht der letzte milliWatt so wichtig wie auf einem mobilen Geraet. In der Mehrzahl der Faelle operiert ein ff decoder heute zwischen 50-150MHz je nach stream; was spart also mehr Strom?

Es handelt sich nicht um Cache. Wie der aussieht erkennt man im Bild des neuen A5 am Cortex-A9, bei dem links oben der Cache ca. 1/4 der Fläche ausmacht (mMn ist er übrigens kleiner als bei den bisherigen A5-Implementationen). Und Cache ist eigentlich üblicherweise dicht gepackt, da läßt sich nur wenig im selben Prozeß optimieren.

Dann packen wir es nochmal von vorne: http://www.chipworks.com/blog/technologyblog/files/2013/03/Comparaison-shot-sm.jpg

Bild links ja die GPU ist tatsaechlich links oben; wie viele Bloecke dieser gehoeren zur GPU und was ist genau was Deiner Meinung nach?

Sonst redete ich von 4*64KB GPU cache fuer den A5@45nm, sonst haette ich auch nicht originaler A5 gesagt.

smalM
2013-03-19, 00:41:20
Also: Links oben, ca. ein 1/4 der Die-Fläche, ein quadratischer Block in der Mitte, umgeben von 6 weiteren Funktionsblöcken. Das zusammen ergibt den SGX543MP2 des A5r2.
Ich habe es inzwischen auch noch mit dem A5X (http://media.idownloadblog.com/wp-content/uploads/2012/03/Chipworks-A5X-floorplan-001.jpg) verglichen. Ich vermute mal, wir sehen hier im neuen A5 einen single SGX543?

Die GPU des 45nm A5 (http://www.adafruit.com/adablog/wp-content/uploads/2011/03/APL0498_APL0498E01_Backside.jpg) sieht ja noch komplett anders aus. Im Bild gehört mMn alles was die Bezeichnung "Processor Data Path" trägt dazu. Der Cache wäre dann durch die "1" gekennzeichnet.

lumines
2013-03-19, 00:52:49
Ne, die frage ist doch, warum legt apple für dieses Nischenprdodukt den "Uralt" A5 nochmal neu auf? Lohnt sich sowas finanziell? Wohl nur wenn man damit noch längere Zeit was vor hat.

Die Features und Leistung des A5 reichen wohl fürs Apple TV. Anscheinend haben sie damit auch nicht mehr vor. Vielleicht bekommt der „kleine“ iPod Touch, der momentan (afaik) noch mit einem A4 läuft diese Version des A5 und dann dürfte sich die Entwicklung als Low-Cost-SoC mit geringer Leistungsaufnahme auch schon gelohnt haben.

Nach wie vor ist der kleinste iPod Touch mehr oder weniger die iOS-Alternative zum iPod nano und wird vermutlich auch in relativ hohen Stückzahlen hergestellt. Sollte man bedenken.

Ailuros
2013-03-19, 07:36:30
Also: Links oben, ca. ein 1/4 der Die-Fläche, ein quadratischer Block in der Mitte, umgeben von 6 weiteren Funktionsblöcken. Das zusammen ergibt den SGX543MP2 des A5r2.
Ich habe es inzwischen auch noch mit dem A5X (http://media.idownloadblog.com/wp-content/uploads/2012/03/Chipworks-A5X-floorplan-001.jpg) verglichen. Ich vermute mal, wir sehen hier im neuen A5 einen single SGX543?

Womoeglich ja da das Ding auch eine einzelne A9 CPU hat. Wie dem auch sei wer immer auf dem neuen A5 shot die GPU eingekreist hat, hat weder die GPU caches noch surrounding logic miteingekreidet wie auf vorigen shots.

Auf dem A5X shot sieht man sehr schoen das links und rechts die rechteckigen Flecken bei jedem GPU core womoeglich die caches sind. Im neuen A5 shot laesst diese wohl aussen weg und auch den block direkt unter dem was man als "GPU" markiert hat.

Die GPU des 45nm A5 (http://www.adafruit.com/adablog/wp-content/uploads/2011/03/APL0498_APL0498E01_Backside.jpg) sieht ja noch komplett anders aus. Im Bild gehört mMn alles was die Bezeichnung "Processor Data Path" trägt dazu. Der Cache wäre dann durch die "1" gekennzeichnet.

Kannst Du auch gleich wieder vergessen. Jeweils 1+2 (von oben nach unten) sind jeweils 1 GPU core mit allem drum und dran.

Nightspider
2013-03-19, 07:46:39
Wie es ausschaut kommen iPad5 und iPhone 6 tatsächlich erst im 3.Quartal.

Was für Spielzeug erwartest du im A7? Weiterhin nur DualCore mit höheren Taktraten oder diesmal mehr CPU-Kerne um der Android-Konkurrenz nicht hinterher zu hängen?

Ailuros
2013-03-19, 07:51:59
Wie es ausschaut kommen iPad5 und iPhone 6 tatsächlich erst im 3.Quartal.

Wie es aussieht nach was?

Was für Spielzeug erwartest du im A7? Weiterhin nur DualCore mit höheren Taktraten oder diesmal mehr CPU-Kerne um der Android-Konkurrenz nicht hinterher zu hängen?

Die offensichtliche Antwort waere: so wie es aussieht wohl quad core nach bisherigen Geruechten was alles oder gar nichts heissen kann.

Nightspider
2013-03-19, 08:04:16
Wie es aussieht nach was?

Würde das iPad5 noch im April kommen wäre doch schon mehr durchgesickert und Gerüchte sprachen zuletzt auch von Herbst.

Vielleicht sickert auch weniger durch weil sich einfach nicht mehr so viele dafür interessieren. Die Konkurrenz ist stark geworden und viele sind mit dem günstigen iPad Mini zufrieden.

Ailuros
2013-03-19, 13:26:55
Würde das iPad5 noch im April kommen wäre doch schon mehr durchgesickert und Gerüchte sprachen zuletzt auch von Herbst.

Ich bin noch nicht von gar nichts ueberzeugt, ueberhaupt da Samsung wieder so supply constrained mit ihren Exynos 5410 SoCs auf 28nm ist.

Vielleicht sickert auch weniger durch weil sich einfach nicht mehr so viele dafür interessieren. Die Konkurrenz ist stark geworden und viele sind mit dem günstigen iPad Mini zufrieden.

Man weiss mit Apple nie wirklich was genau los ist. Das letzte Mal dass ich nachfragte bei jemand der sicher weiss wo es losgeht vor ein paar Wochen, war die Antwort "bald" aber ich kann eine solche Antwort weiss der Geier wie interpretieren.

smalM
2013-03-22, 19:01:16
Kannst Du auch gleich wieder vergessen. Jeweils 1+2 (von oben nach unten) sind jeweils 1 GPU core mit allem drum und dran.

Sorry, da hatte ich mich wohl nicht genau genug ausgedrückt: Ich meinte wirklich nur den Buchstaben "1", der jeweils genau auf einem Cache-Block sitzt.

deekey777
2013-04-02, 19:12:10
Rumor: Apple's expiring chip contract with Samsung will lead to TSMC-built 'A7' chips (http://appleinsider.com/articles/13/04/02/rumor-apples-expiring-chip-contract-with-samsung-will-lead-to-tsmc-built-a7-chips)

Apple's future "A7" chips for 2014's "iPhone 6" will be built by Taiwan Semiconductor Manufacturing Co. once the existing contract with Samsung expires, a new rumor claims.

The details come from Taiwan's Economic Daily News, and were highlighted by Japanese blog Macotakara on Tuesday. The report claims that Apple plans to utilize a so-called "A7" processor built on a smaller 20-nanometer process next year.

...

The rumor, if true, suggests that Apple's anticipated "iPhone 5S," a next-generation handset expected to debut this year, will not feature a full-fledged next-generation "A7" processor. Conversely, the report's anticipated branding of the chip could be incorrect, and TSMC could in fact be working on a 20-nanometer chip for Apple that could be known as an "A8," or something else entirely.

Ich glaube an Nix.

Ailuros
2013-04-02, 19:34:32
Rumor: Apple's expiring chip contract with Samsung will lead to TSMC-built 'A7' chips (http://appleinsider.com/articles/13/04/02/rumor-apples-expiring-chip-contract-with-samsung-will-lead-to-tsmc-built-a7-chips)



Ich glaube an Nix.

Tja ist aber "Nix" unmoeglich? :confused:

deekey777
2013-04-02, 22:45:35
Ich spiele einfach den Ungläubigen Thomas.

Aktuell interessiert mich eher, wie das "Billig"-iPhone sein wird. Wird es ein iPod touch der 5. Generation mit Telefonfunktion und max. 3G? Wird Apple wirklich so wahnsinnig sein und greift auf Qualcom zurück (wegen der Verfügbarkeit)?


Apple to Begin Production of Next iPhone This Quarter, Summer Launch Possible (http://www.macrumors.com/2013/04/02/apple-to-begin-production-of-next-iphone-this-quarter/)

Wird drin ein A7 stecken? Oder kann Samsung einen geshrinkten A6 fertigen?

mboeller
2013-04-03, 09:18:15
Aktuell interessiert mich eher, wie das "Billig"-iPhone sein wird. Wird es ein iPod touch der 5. Generation mit Telefonfunktion und max. 3G? Wird Apple wirklich so wahnsinnig sein und greift auf Qualcom zurück (wegen der Verfügbarkeit)?
Wird drin ein A7 stecken? Oder kann Samsung einen geshrinkten A6 fertigen?

Glaubst du wirklich sie haben den A5 nur für die "paar" AppleTV Geräte geschrumpft? Alles IMHO natürlich.

robbitop
2013-04-03, 09:37:58
A7 kommt dieses Jahr und nicht 2014. Das wäre dann A8. 28 nm sollte eher der korrekte Prozess für den A7 sein. 20 nm frühestens 2014.

Ein Handy mit A5 wäre heute, selbst im günstigen Segment, nicht mehr konkurrenzfähig. Qualcomm ist nicht unmöglich aber ich sehe den Grund nicht. Sie müssten vieles ändern, da eine andere GPU drin steckt und auch eine ganz andere CPU. Zwar gleiches Instruction Set aber eben von der µ-Arch deutlich anders. Ich kann mir auch nicht vorstellen, dass die Qualcomm SoCs billiger sein sollen als Samsung SoCs.

Wenn für die High End Produkte dieses Jahr der A7 kommt, warum nicht den A6 nehmen? Ggf. auf 28 nm geshrinkt. Vieleicht auch etwas niedrigere Frequenzen.

Ich weiß auch nicht, ob es so eine gute Idee ist, ein low-cost iPhone zu bringen. Man macht sich doch nur die Margen kaputt. BMW konkurriert ja auch nicht mit Nissan. Umsatz allein ist überhaupt nicht entscheident sondern nur der Gewinn.

Außerdem gibt es ja auch immer das Vorjahresmodell zum niedrigeren Preis zu kaufen.

Glaubst du wirklich sie haben den A5 nur für die "paar" AppleTV Geräte geschrumpft? Alles IMHO natürlich.

Er steckt außerdem im iPad 2 (seit einem gewissen Produktionsdatum), in den aktuellen iPod Touches und gewiss auch im iPhone 4S (ab einem gewissen Produktionsdatum). Das sind schon einige Geräte.

Die_Allianz
2013-04-03, 09:54:44
Er steckt außerdem im iPad 2 (seit einem gewissen Produktionsdatum), in den aktuellen iPod Touches und gewiss auch im iPhone 4S (ab einem gewissen Produktionsdatum). Das sind schon einige Geräte.

nein es gibt einen 'neuen' A5 single-core der derzeit nur im Apple-TV zum Einsatz kommt.

http://www.anandtech.com/show/6834/apple-tv-2013-a1469-short-review-analysis-of-a-new-a5

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=45368&stc=1&d=1364975837

Ailuros
2013-04-03, 17:30:59
Ich spiele einfach den Ungläubigen Thomas.

Aktuell interessiert mich eher, wie das "Billig"-iPhone sein wird. Wird es ein iPod touch der 5. Generation mit Telefonfunktion und max. 3G? Wird Apple wirklich so wahnsinnig sein und greift auf Qualcom zurück (wegen der Verfügbarkeit)?


Apple to Begin Production of Next iPhone This Quarter, Summer Launch Possible (http://www.macrumors.com/2013/04/02/apple-to-begin-production-of-next-iphone-this-quarter/)

Wird drin ein A7 stecken? Oder kann Samsung einen geshrinkten A6 fertigen?

Nur Apple und ihr entourage wissen was Apple genau geplant hat. Sonst ehrliche Frage glaubst Du ehrlich dass Apple so daemlich ist und ueber Nacht die gesamte Fertigung von Samsung auf TSMC oder sonst noch wo rueberschickt?

Und auch nochmal genau die gleiche daemliche Frage von mir: wieso hat es Samsung so verdammt schwer ihren eigenen Exynos5410@28nm auf die Strasse in anstaendigen Volumen zu bringen und muss eventuell Qualcomm SoCs fuer einige Zeit lang benutzen fuer's GalaxyS4?

deekey777
2013-04-03, 18:03:09
Woher soll ich das wissen? :biggrin:

Apple Pulling Engineers from OS X 10.9 to Finish iOS 7 (http://www.dailytech.com/Apple+Pulling+Engineers+from+OS+X+109+to+Finish+iOS+7/article30268.htm)

Es stellt sich die Frage, was Apple im dritten Quartal präsentieren will. Bis auf die letzte Veröffentlichung kamen iPads mit altem iOS. Ich tippe mal, dass die Veröffentlichung des iOS 7 mit dem iPhone 5S festverbunden ist.

Ailuros
2013-04-03, 18:06:41
Der mini-A5 fuer AppleTV klingt verdaechtig nach einem Kandidat fuer die oede Uhr die nach Geruechten Apple auch planen soll.

basti333
2013-04-03, 19:14:12
Der mini-A5 fuer AppleTV klingt verdaechtig nach einem Kandidat fuer die oede Uhr die nach Geruechten Apple auch planen soll.

Glaube ich nicht, das dinge hätte viel zu viel Recheneistung und würde zu viel Strom ziehen.

Ailuros
2013-04-03, 19:43:19
Glaube ich nicht, das dinge hätte viel zu viel Recheneistung und würde zu viel Strom ziehen.

Der chip ist klein genug um in so ein Ding zu passen (6.1*6.2mm); sonst haengt Rechenleistung bzw. Stromverbrauch hauptsaechlich von der Frequenz ab. Ich will zwar nicht darauf bestehen, aber dass es physikalisch unmoeglich ist, stimmt auch wieder nicht.

Sunrise
2013-04-03, 20:03:12
Der mini-A5 fuer AppleTV klingt verdaechtig nach einem Kandidat fuer die oede Uhr die nach Geruechten Apple auch planen soll.
Der kleine A5 wäre im Prinzip für alles perfekt was relativ wenig Strom und wenig Platz benötigt. Dadurch, dass das Ding so klein ist und wohl hoch optimiert zu sein scheint, hat man damit wohl noch was größeres vor. Auch will ich garnicht wissen, was für eine Ausbeute Apple mit dem Ding hat, der 32nm-Prozess sollte was Prozessreife angeht ziemlich am Limit sein.

Da der A5 die verdammt starke Video-Encoder- und Dekodierungseinheit mitbringt (ich bin bei Tests mit einem Entwickler fast vom Stuhl gefallen, welche Auflösungen bei welchen Bitraten das Teil problemlos stemmen kann, da muss man allerdings Umwege gehen, um die Videos auch nativ auf das Device zu bekommen) eignet sich das Ding perfekt für mobile "Display"-Zwecke (zur Steuerung und Anzeige), bei denen nur wenig CPU und größtenteils nur eine flüssig dargestellte GUI benötigt wird.

An die Uhr dachte ich übrigens auch zuerst. Ich denke man nutzt das Teil für diverse Apple in-house Prototypen-Tests, da sich der A5 für verdammt viele Zwecke eignet. Der kommende TV soll ja evtl. auch mobile Bedienung mit einem zusätzlichen Device mitbringen. Dafür würde es sicherlich auch locker reichen.

Was auch noch dazu kommt ist, dass Apple wohl schnellstmöglich auf 20nm springen möchte. Und auch dafür wäre dieses ASIC, bzw. das Layout (recht inkomplex) perfekt. Zum Test für neue Targets, z.B. bei TSMC.

Ailuros
2013-04-03, 20:39:22
Da der A5 die verdammt starke Video-Encoder- und Dekodierungseinheit mitbringt (ich bin bei Tests mit einem Entwickler fast vom Stuhl gefallen, welche Auflösungen bei welchen Bitraten das Teil problemlos stemmen kann, da muss man allerdings Umwege gehen, um die Videos auch nativ auf das Device zu bekommen) eignet sich das Ding perfekt für mobile "Display"-Zwecke (zur Steuerung und Anzeige), bei denen nur wenig CPU und größtenteils nur eine flüssig dargestellte GUI benötigt wird.

Im Vergleich zur neuesten IP ist das Zeug ziemlich langweilig: http://www.imgtec.com/corporate/newsdetail.asp?NewsID=683

Sunrise
2013-04-03, 20:44:51
Im Vergleich zur neuesten IP ist das Zeug ziemlich langweilig: http://www.imgtec.com/corporate/newsdetail.asp?NewsID=683
Ja, hab schon gesehen, mit dem Teil würde ich gern mal rumspielen. :D

Dennoch war ich hellauf überrascht von flüssigen 1080p60 bei 50 Mbps(!) vom alten Decoder. Das ist schon der Wahnsinn. Das obere Teil frisst auch das Ding aber natürlich zum Frühstück.

Ailuros
2013-04-03, 21:21:54
Gott sei Dank integriert Apple ziemlich gutes/neues decoding/encoding IP in ihren SoCs. Was in Intel SFF mobile SoCs drinsteckt ist im Vergleich zum vorigen die absolute Antiquitaet.

robbitop
2013-04-04, 09:35:24
Ja, hab schon gesehen, mit dem Teil würde ich gern mal rumspielen. :D

Dennoch war ich hellauf überrascht von flüssigen 1080p60 bei 50 Mbps(!) vom alten Decoder. Das ist schon der Wahnsinn. Das obere Teil frisst auch das Ding aber natürlich zum Frühstück.
Seltsam - mein AppleTV3 mit A5r2 schafft nur Bitraten von ~15 MBit/s. Danach gibt es immer mehr Aussetzer und Bildfehler.
(zum Test habe ich Videos mittels Handbrake im m4v Format konvertiert mit unterschiedlichen Bitraten)

Sunrise
2013-04-04, 11:53:04
Seltsam - mein AppleTV3 mit A5r2 schafft nur Bitraten von ~15 MBit/s. Danach gibt es immer mehr Aussetzer und Bildfehler.
(zum Test habe ich Videos mittels Handbrake im m4v Format konvertiert mit unterschiedlichen Bitraten)
Ja, der ATV3 ist hier limitiert. Bei den mobilen Devices, ab iPad 3 (iPhone 5 und iPad 4 verhalten sich identisch) wird oben angesprochener Content aber problemlos abgespielt. Dafür müssen die Dateien auf dem iDevice liegen und der native Decoder muss aktiviert sein.

robbitop
2013-04-04, 13:03:32
Ja, der ATV3 ist hier limitiert. Bei den mobilen Devices, ab iPad 3 (iPhone 5 und iPad 4 verhalten sich identisch) wird oben angesprochener Content aber problemlos abgespielt. Dafür müssen die Dateien auf dem iDevice liegen und der native Decoder muss aktiviert sein.
Beim AppleTV3 wird auf die interne SSD (8 GiB Flash-Speicher) gestreamt. Ein gutes Stück des Videos ist also im Puffer.
Woher kommt diese Limitierung eigentlich? Wird denn dort ein nicht-nativer Decoder genutzt? Wie muss ich mir das vorstellen?

Ailuros
2013-04-04, 16:58:25
Beim AppleTV3 wird auf die interne SSD (8 GiB Flash-Speicher) gestreamt. Ein gutes Stück des Videos ist also im Puffer.
Woher kommt diese Limitierung eigentlich? Wird denn dort ein nicht-nativer Decoder genutzt? Wie muss ich mir das vorstellen?

Wenn Du micht jetzt ueber genaue Einzelheiten fragst kann ich nur Schulter zucken; was ich aber mit Sicherheit weiss ist dass Apple mit Absicht durch sw die decoder auf N Nivaeu festlegt. Theoretisch kann die eigentliche hw natuerlich mehr, aber es gibt auch stets einen Stromvebrauch um den man sich kuemmern muss ;)

robbitop
2013-04-04, 16:59:39
Naja der AppleTV hat nicht gerade das Problem mit dem Stromverbrauch. Ist ja kein Mobile Device.

Ailuros
2013-04-04, 17:13:45
Naja der AppleTV hat nicht gerade das Problem mit dem Stromverbrauch. Ist ja kein Mobile Device.

Errr last time I checked waren die Dinger auch spottbillig im Vergleich zu jeglichem anderen i-gear da wird wohl Apple keinen Bock haben fuer irgendwelche extravagante Kuehlungsloesungen fuer die Kisten zu bezahlen. Natuerlich ist der neueste SoC wohl nicht nur fuer Apple TV aber wenn Stromvebrauch kein Kopfschmerz waere geht man auch nicht ueber Laengen einen existierenden SoC etwas zu kastrieren um fuer genau die Dinger auf knapp 38mm2 zu quetschen.

robbitop
2013-04-04, 17:19:08
Iwo selbst der A5R1 bräuchte keine Kühlung. Ganz zu schweigen vom A5R2. Nichtmal unter Volllast. Aber wir sprechen hier von einer Fixed Function Video Decoding Einheit. Das sind ein paar hundert mW. Ich denke eher, dass sie die iTunes Freigabe nicht unbedingt pushen wollen, weil sie lieber den Online Filmstore pushen.

=Floi=
2013-04-04, 17:57:03
könnte auch eine restriktion der filmindusrtie sein. HQ nur mit eigenem content und man will eben die illegalen sachen nicht puschen.

robbitop
2013-04-05, 08:32:43
Naja iTunes Freigabe =! illegal. Das ist halt deine iTunes Videosammlung. Die geht von online gekauften Filmen über deine gerippten DVDs/Blurays (legal) bis hin zu Urlaubsvideos.
Natürlich besteht auch die Möglichkeit illegale Videos zu schauen. Klar.
Die Bitraten sind mit 15 MBit/s bei x264 allerdings so hoch, dass man mit anständigen Settings BD-Qualität erreicht. Es ist halt nur ärgerlich, dass BDs noch neu enkodiert werden müssen anstatt einfach nur geript und gemuxt.

basti333
2013-04-10, 17:07:49
bye bye Samsung heißt es wohl bei Apple
http://www.macrumors.com/2013/04/10/more-claims-of-samsung-being-cut-out-of-apples-a7-chip-development/

Blediator16
2013-04-10, 17:09:47
Alsob Samsung solche Sachen nicht schon vorher wissen würde. Es gibt sicher sowas wie Verträge :D

basti333
2013-04-10, 17:14:03
Alsob Samsung solche Sachen nicht schon vorher wissen würde. Es gibt sicher sowas wie Verträge :D
Hab ja nie das gegenteil behauptet ;)

Ailuros
2013-04-10, 19:35:37
Houston wir haben Frequenzen ;) :weg:

Blediator16
2013-04-10, 21:22:37
Ganz klar Intel wird Broadwell bei Samsung fertigen lassen :D

Ailuros
2013-04-11, 11:43:07
Ganz klar Intel wird Broadwell bei Samsung fertigen lassen :D

Apple fertigt momentan immer noch bei Samsung; die Frequenzen sehen gut aus.

S940
2013-04-11, 12:12:19
Apple fertigt momentan immer noch bei Samsung; die Frequenzen sehen gut aus.
Momentan bestreitet sicher keiner, aber was ist mit 20nm und dem genannten "A7"-Design?

Undertaker
2013-04-11, 14:10:20
http://www.computerbase.de/news/2013-04/erneut-spekulationen-rund-um-apple-socs-von-tsmc/

Fragt sich nur, ob es hier um einen Komplettumstieg geht, oder erst nach und nach Kontingente verlagert werden.

robbitop
2013-04-11, 14:27:11
Einen ruckartigen Umstieg wird ein Unternehmen wie Apple sicher nicht wagen. Das Risiko wäre viel zu hoch. Selbst neue Prozesse werden von Apple ja mit kleineren Pipecleanern (wie mit dem A5R2) getestet, die wenig Risiko haben.
Ich kann mir gut vorstellen, dass zunächst nur ein Shrink eines bestehenden SoCs dort gefertigt wird. Oder einer von 2 oder 3 SoCs. Außerdem wird man sich von TSMC mit Blut unterschriebene Verfügbarkeitsgarantie holen. Vieleicht gekoppelt mit garantierten Kapazitäten (ein Teil einer Fabrik oder eine ganze Fabrik, die exklusiv für Apple fertigt).

Die Gerüchte um TSMC scheinen sich jedenfalls zu verdichten. Vieleicht shrinkt man ja erstmal den A6 in 28 nm in kleineren Mengen bei TSMC und beobachtet, ob es wie gewohnt läuft.

Ailuros
2013-04-11, 16:21:16
Momentan bestreitet sicher keiner, aber was ist mit 20nm und dem genannten "A7"-Design?

Irgend ein asiatisches Geruecht dass sich seither wie ein Lagerfeuer verbreitet hat; es ist eben dann leider so dass anhand fehlender Daten generell den diversen rumor-mongering Seiten gar nichts anders uebrig bleibt als es konstant vom anderen abzuschreiben. Kann durchaus sein dass etwas daran liegt aber entschuldigt ist es nicht weisser die Sache Schritt fuer Schritt anzupacken? Mich interessiert momentan was dieses Jahr von Apple kommt und nicht in 2014.

http://www.computerbase.de/news/2013-04/erneut-spekulationen-rund-um-apple-socs-von-tsmc/

Fragt sich nur, ob es hier um einen Komplettumstieg geht, oder erst nach und nach Kontingente verlagert werden.

Ich stimme robbi ueberein; es waere logischer einen Schritt fuer Schritt Uebergang zu machen welches eine Eulogie sowohl fuer Apple und auch fuer Samsung waere.

Was jetzt A6X hypothetisch auf 28nm betrifft: move, shrink & re-use ist natuerlich billiger, aber mit einer dual cluster Rogue variante wuerden sie schon um einiges an die area sparen; bei Apple ist das letzt aber meistens bis zu einem Punkt nebenwichtig. Wenn's stimmt gewinnt Apple auch durch TSMC's bessere Packdichte unter 28HPM.

robbitop
2013-04-11, 16:24:46
Der 4 Cluster Rogue ist kleiner als der 544 MP4 und trotzdem leistungsfähiger? :eek: