PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

pixelguy
2011-08-29, 10:18:52
Hi,

ich stelle mir schon seit längerem die Frage, was Apple mit seiner A-Serie vorhat.

A4 und A5 waren ja recht "normale" ARM CPUs, doch wie sieht es mit A6 oder A7 aus? Meint ihr, diese werden ebenfalls nah am ARM-Standard liegen? Oder baut Apple evtl. etwas eigenes? In wie weit wäre dies überhaupt möglich?

Knuddelbearli
2011-08-29, 10:42:09
wohl kaum nachdem sie das erst vor "einigen" jahren aufgegeben haben

pixelguy
2011-08-29, 10:57:14
Was meinst du denn? Die Abkehr von PowerPC?

Ich rede schon von ARM-CPUs, welche sich allerdings von Samsung, Qualcomm oder anderen deutlich stärker unterscheiden als bisher.

Asahi
2011-08-29, 11:27:12
Ich gehe davon aus, dass Apple die ARM Architektur verstärkt einsetzen wird, um eine Alternative zu Intel zu haben bzw. ein Druckmittel gegen Intel. Natürlich muss Apple erst noch beweisen, ob es möglichst, mit ARM basierenden CPUs Performanceprodukte zu bauen....

pixelguy
2011-08-29, 11:32:40
Ich kenne mich in dem Bereich nicht sonderlich gut aus, ist es aber nicht so, dass ARM ein Design erstellt und die Hersteller dieses dann in Lizenz bauen?

In wie weit sind Anpassungen bzw. Erweiterungen neben dieser Roadmap möglich?

Knuddelbearli
2011-08-29, 22:16:57
deutlich

ARM stellt das Grundgerüst was die anderen Firmen damit machen ist dann ihre Sache

Die_Allianz
2011-08-29, 22:42:24
in der aktuellen c't ist ein kleiner Artikel zu genau diesem Thema drin. Für Laien wie mich interessant. Apple könnte schon beim aktuellen A5 den Befehlssatz angepasst haben um mehr Performance für iOS rauszuholen. HW und SW praktisch ohne Fragmentierung im Haus aufeinander abstimmen zu können ist schon irre; auch ein Grund warum iPhone und iPad so flüssig laufen.

€dit: Wohin es geht kann man nicht sagen, nur vermuten. Auch wenn Apple einige ARM-Designer eingekauft hat glaube ich nicht an ein MacBook mit ARM; in den nächsten 3 Jahren.

Ganon
2011-08-29, 22:49:25
Für ARM auf dem Desktop müsste man erst mal das Design auf etwas mehr Performance trimmen. Auf entsprechenden Tablets läuft nicht umsonst meist nur eine Anwendung auf einmal.

Soundwave1983
2011-08-30, 15:18:46
ich stelle mir schon seit längerem die Frage, was Apple mit seiner A-Serie vorhat.

Soweit ich mich erinneren kann, sind die A4 und A5 SoCs nichts anderes als mit Apple-Logo versehene Samsung Standardware. Keine Ahnung ob das zu 100% stimmt, aber es würde mich nicht wundern.

Iamnobot
2011-08-30, 17:41:18
Apple könnte schon beim aktuellen A5 den Befehlssatz angepasst haben um mehr Performance für iOS rauszuholen. HW und SW praktisch ohne Fragmentierung im Haus aufeinander abstimmen zu können ist schon irre; auch ein Grund warum iPhone und iPad so flüssig laufen.
Bezweifle ich. Zumal andere sogar flüssigere Bedienung und Multitasking ohne eigene CPU hinbekommen (Blackberry Playbook, TI OMAP 4430)

basti333
2011-08-30, 19:18:28
Soweit ich mich erinneren kann, sind die A4 und A5 SoCs nichts anderes als mit Apple-Logo versehene Samsung Standardware. Keine Ahnung ob das zu 100% stimmt, aber es würde mich nicht wundern.

Beim A4 habe ich das auch noch gelesen, was den A5 angeht weiß ichs nicht. Aber da der A6 ja bei TSMC gefertigt werden soll, denke ich das es sich dabei nicht um einen Samsung Chip handelt. Und irgendwas wird Apple schon vorhaben. Man hat in den letzten jahren zwei Chipdesigner übernommen und hier im Forum schrieb mal wer das Apple vor einiger zeit ein paar hohe Tiere bei ARM abgeworben hat. Und die Gerüchte das Apple langristig komplett auf ARM umsteigt gibt es ja auch, was für mich auch Sinn ergeben würde.

Iamnobot
2011-08-30, 19:25:55
Und die Gerüchte das Apple langristig komplett auf ARM umsteigt gibt es ja auch, was für mich auch Sinn ergeben würde.
Sehe ich genauso. Zumal die Performance aktueller x86 CPUs die Bedürfnisse von >90% aller Privatnutzer sowieso weit übersteigt. Ich behaupte mal, dass iPad2-ähnliche Hardware in einem Notebook verbaut + ein vernünftiges OS vielen reichen würde. Und bald kommen ja schon erste A9 Quad Cores...
Nebenbei wäre es für Apple auch praktisch OS X mittelfristig durch das geschlossenere iOS zu ersetzen.

Tesseract
2011-08-30, 20:13:38
HW und SW praktisch ohne Fragmentierung im Haus aufeinander abstimmen zu können ist schon irre; auch ein Grund warum iPhone und iPad so flüssig laufen.
das hat damit überhaupt nix zu tun sondern hängt eher damit zusammen wie das threading bzw. die prozessprioritäten beschaffen sind.

Ailuros
2011-08-30, 21:34:51
Wenn Apple auf ARM umsteigen sollte dann IMHO nicht vor der uebernaechsten Generation.

Coda
2011-08-30, 21:48:06
auch ein Grund warum iPhone und iPad so flüssig laufen.
iOS würde auf einem Snapdragon genauso flüssig laufen.

lumines
2011-08-30, 22:11:13
das hat damit überhaupt nix zu tun sondern hängt eher damit zusammen wie das threading bzw. die prozessprioritäten beschaffen sind.

Liegt es nicht einfach daran, dass Apple nicht den ganzen JVM-Rattenschwanz mit sich rumzieht und die Programme einfach näher an der Hardware ausgeführt werden? Außerdem wird in iOS ziemlich viel Zeug per GPU gerendert. Aber das wirst du ja vermutlich wissen.

Die Sache mit den Eigenentwicklungen ist aber echt ziemlich undurchsichtig. Dafür, dass sich die CPUs (jedenfalls augenscheinlich) leistungstechnisch nicht wirklich von der Konkurrenz unterscheiden, betreibt Apple in Richtung ARM ziemlich viel Aufwand. Trotzdem kann ich mir iOS am Desktop nicht vorstellen, dafür hat sich Apple schon zu sehr bemüht OS X um Funktionen aus iOS zu erweitern. Irgendwo habe ich das schon mal gesagt, aber ich glaub nicht, dass Apple wirklich vorhat die momentane Produktpalette auf ein anderes OS umzustellen. Da müsste schon ein komplett neues Gerät her, welches als Zugpferd dient.

=Floi=
2011-08-31, 00:57:35
der apple aX markt ist auch verdammt groß und hart umkämpft. wer da nicht große innovationen bringt und vorne dabei ist wird langfristig untergehen.

steve.it
2011-10-10, 08:38:06
Apple Has 1,000 Engineers Working On Chips For The Post-PC Era (http://techcrunch.com/2011/10/09/apple-1000-engineers-chips/)

Ailuros
2011-10-10, 09:33:50
Apple Has 1,000 Engineers Working On Chips For The Post-PC Era (http://techcrunch.com/2011/10/09/apple-1000-engineers-chips/)

So enorm gross ist die Anzahl gar nicht wenn man bedenkt dass solche IHVs bei SoCs und ueberhaupt jemand wie Apple sw von hw engineers unterscheidet.

Blediator16
2011-10-10, 17:32:13
Dieser "Report" ist sowieso nicht ernst zu nehmen.

basti333
2011-10-10, 21:00:22
1000 ist ne krasse zahl, aber wie hoch die wirklich ist, kann man schwer beurteilen. Dazu müsste man vergleichszahlen von Intel, nvidia, Qualcomm etc. haben. Außerdem wurde diese zahl ja offensichtlichtlich in einem sehr weit auslegbaren kontext genannt.

Ailuros
2011-10-11, 01:04:18
1000 ist ne krasse zahl, aber wie hoch die wirklich ist, kann man schwer beurteilen. Dazu müsste man vergleichszahlen von Intel, nvidia, Qualcomm etc. haben. Außerdem wurde diese zahl ja offensichtlichtlich in einem sehr weit auslegbaren kontext genannt.

Ausser man will Tizen mitzaehlen hat eigentlich keiner von diesen ein eigenes sw ecosystem. Sterile Zahlen sind so oder so wurscht; Talent und Effizienz zaehlen eher.

sth
2011-10-11, 01:46:35
Ich denke ich nicht, dass in den nächsten paar Jahren alle Macs auf ARM-CPUs umgestellt werden. Sowas würde in erster Linie für Notebooks wie das Air Sinn machen.
Allerdings ist Apple der einzige PC-Hersteller, der so einen Schritt überhaupt wagen könnte und noch dazu schon die nötige Software-Infrastruktur dafür besitzt.

Im Gegensatz zum PowerPC->Intel Switch hätte Apple beim Umstieg auf ARM ein paar entscheidende Erleichterungen: Zum Einen hat ARM die gleiche Byte-Order, d.h. für 99% der Software wäre wirklich nur ein Recompile ohne zusätzliche Anpassungen nötig. Zum Anderen könnte Apple eine Intel-Emulation (wie einst Rosetta für PowerPC) zusätzlich von Hardwareseite beschleunigen, da sie jetzt auch Einfluss auf das CPU-Design haben und eigene Befehlssatzerweiterungen bringen können.

Man könnte den Gedanken noch weiterspinnen, aber ich glaube es macht mehr Sinn einfach abzuwarten.


Soweit ich mich erinneren kann, sind die A4 und A5 SoCs nichts anderes als mit Apple-Logo versehene Samsung Standardware. Keine Ahnung ob das zu 100% stimmt, aber es würde mich nicht wundern.
Das stimmt nicht so ganz. Der A4 ist zwar sehr ähnlich dem Samsung SoC aus dem iPhone 3GS/iPod Touch 3rd-gen., allerdings lief er mit höherem Takt als die zu dem Zeitpunkt erhältliche "Standardware". Angeblich soll er auch mehr L2-Cache haben. Der A5 ist wohl das erste Design, das maßgeblich von Apple entworfen wurde. Mir ist jedenfalls kein anderes fertiges SoC bekannt, auf dessen Design der A5 basieren könnte.

Natürlich gleichen sich die SoCs von Apple und den anderen Herstellern in vielen Punkten. Das beruht darauf, dass sie CPU- und GPU-Designs bei anderen Firmen einkaufen und in ihre Chips integrieren.

Ailuros
2011-10-11, 02:01:55
Samsung's S5PC1xx SoCs (aka Hummingbird) haben einen SGX540 integriert waehrend Apple A4 einen SGX535 hat. Wurde schon so oft wiederholt dass man es heutzutage schon uebefliegt, weil es einfach zu langweilig ist das gleiche Zeug immer und immer wieder zu wiederholen.

sth
2011-10-11, 02:09:02
Das 3GS hat ein Samsung SoC (angeblich ein S5PC100) mit Cortex A8 und SGX535. Darauf bezog sich die Aussage mit der Ähnlichkeit.

Ailuros
2011-10-11, 02:23:00
Das 3GS hat ein Samsung SoC (angeblich ein S5PC100) mit Cortex A8 und SGX535. Darauf bezog sich die Aussage mit der Ähnlichkeit.


http://www.samsung.com/global/business/semiconductor/support/brochures/downloads/systemlsi/s5pc100_brochure_200902.pdf

http://www.samsung.com/global/business/semiconductor/productInfo.do?fmly_id=834&partnum=S5PC100

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8567382&postcount=552

sth
2011-10-11, 02:45:16
Danke für die Links.

Kannst du mir sagen, wie der Zusammenhang zwischen dem S5PC100 und dem iPhone 3GS/iPod Touch 3rd-gen aussieht? Da diese Geräte einen PowerVR SGX535 haben kann es sich dann ja theoretisch nicht um einen S5PC100 (zumindest nicht von der Stange) handeln.

Knuddelbearli
2011-10-11, 08:22:17
Der A5 ist wohl das erste Design, das maßgeblich von Apple entworfen wurde. Mir ist jedenfalls kein anderes fertiges SoC bekannt, auf dessen Design der A5 basieren könnte.
und der "A5" findet jetzt wohl scheinbar im Samsung Galaxy Nexus Platz

Steel
2011-10-11, 11:26:24
und der "A5" findet jetzt wohl scheinbar im Samsung Galaxy Nexus Platz
Kannst Du für diese Theorie bitte einen anderen Thread aufmachen, als diesen hier zuzumüllen?

Ailuros
2011-10-11, 12:36:36
Danke für die Links.

Kannst du mir sagen, wie der Zusammenhang zwischen dem S5PC100 und dem iPhone 3GS/iPod Touch 3rd-gen aussieht? Da diese Geräte einen PowerVR SGX535 haben kann es sich dann ja theoretisch nicht um einen S5PC100 (zumindest nicht von der Stange) handeln.

Samsung hat den SoC fuer Apple hergestellt. Entwicklung war hoechstwahrscheinlich schon Apple's Affaere. Falls es doch eine Samsung Entwicklung war, dann ist mir der Codename des SoCs nicht bekannt obwohl leider S5PC100 oefters dafuer benutzt wurde. OT aber Samsung hat uebrigens ihren Hummingbird auf Exynos 1xxx umbenannt.

Kannst Du für diese Theorie bitte einen anderen Thread aufmachen, als diesen hier zuzumüllen?

Na der Unterton ist alles andere als angebracht; sonst ist es nicht mal eine Theorie sondern eine verdammt zweifelhafte These dass Samsung fuer's Nexus Prime einen SGX543MP2 integriert hat. Wenn dem wirklich so waere (welches ich so oder so ausschliesse denn das Prime hat mit aller Wahrscheinlichkeit einen OMAP4460) dann waere es garantiert kein A5. Wenn Samsung es wagen wuerde Apple's selbst entwickelten SoC ohne die Genehmigung Apple's zu integrieren, haette Apple einen standhaften Grund Samsung gerichtlich in den Boden zu stampfen.

***edit: uebrigens interessant http://www.xbitlabs.com/news/other/display/20111010134622_Apple_Has_Set_Roadmap_for_Several_Years_Report.html

sth
2011-10-11, 12:51:39
Notiz am Rande: Vorläufige iPhone 4GS Benchmarks (http://www.anandtech.com/show/4951/iphone-4s-preliminary-benchmarks-800mhz-a5-slightly-slower-gpu-than-ipad-2)

Samsung hat den SoC fuer Apple hergestellt. Entwicklung war hoechstwahrscheinlich schon Apple's Affaere. Falls es doch eine Samsung Entwicklung war, dann ist mir der Codename des SoCs nicht bekannt obwohl leider S5PC100 oefters dafuer benutzt wurde.
Okay, danke für die Info!

Knuddelbearli
2011-10-11, 14:45:31
Na der Unterton ist alles andere als angebracht; sonst ist es nicht mal eine Theorie sondern eine verdammt zweifelhafte These dass Samsung fuer's Nexus Prime einen SGX543MP2 integriert hat. Wenn dem wirklich so waere (welches ich so oder so ausschliesse denn das Prime hat mit aller Wahrscheinlichkeit einen OMAP4460) dann waere es garantiert kein A5. Wenn Samsung es wagen wuerde Apple's selbst entwickelten SoC ohne die Genehmigung Apple's zu integrieren, haette Apple einen standhaften Grund Samsung gerichtlich in den Boden zu stampfen.



aber nur falss diese These stimmt:

Entwicklung war hoechstwahrscheinlich schon Apple's Affaere

das ja immer das lustige am spekulieren ^^

Ailuros
2011-10-11, 15:40:50
aber nur falss diese These stimmt:

Ich bin mir nicht im klaren ob fuer das 3GS der dementsprechende SoC eine volle Apple Entwicklung oder geteilte Entwicklung zwischen Samsung und Apple war. A4 und A5 sind definitiv eine Apple only Entwicklung und damit hat Samsung ausser der Herstellung gar nichts zu tun, noch kann sie Samsung selber benutzen.

das ja immer das lustige am spekulieren ^^

Was zum Henker hat der 3GS SoC mit A5 gemeinsam? Gar nichts.
Das einzige lustige hier ist dass Du versuchst Deinen vorigen unlogischen Vorschlag zu gerechtfertigen. Nix mit A5 im Nexus Prime.

Knuddelbearli
2011-10-11, 15:47:17
wann ahbe ich jemals was vom 3GS geschrieben? ...

Ailuros
2011-10-11, 16:28:09
wann ahbe ich jemals was vom 3GS geschrieben? ...

Du hast Recht; ich hab meinen eigenen quote selber ueberflogen. Wie dem auch sei berichten eine Unzahl von Seiten das gleiche Bumsgeruecht was den SGX543MP2 betrifft; steht irgendwo dass Apple irgendwelche Exklusivitaet mit dem MP2 hat? Es gibt ueber 10 SoCs mit MPx die schon veroeffentlicht wurden und noch unter Entwicklung liegen. Samsung koennte oder sollte eigentlich ihren eigenen Exynos SoC fuer etwas wie das Prime benutzen, aber der eigentliche Grund warum sie eine alternative Loesung wie OMAP4460 benutzen wuerden ist dass OMAP4 die smart-phone Referenz Platform fuer Ice Cream Sandwich sein wird. Sonst ist Samsung's eigener Exynos sogar leistungsfaehiger als OMAP4460.

Irgend jemand hat hoechstwahrscheinlich relevante iPad2 GPU Leistung falsch aufgeschnappt aber dafuer braucht Samsung entweder einen OMAP4470 (erst in H1 2012 erhaeltlich) oder einen eigenen SoC mit einem SGX544@500MHz (fraglich ob sie dafuer vor H1 2012 Zeit hatten).

Egal was im Prime am Ende steckt wird es gar nichts mit A5 zu tun haben. So viel sollte zumindest klar stehen.

basti333
2011-10-11, 16:55:59
Denkbar wäre auch das Apple bei einem switch auf ARM einfach die "High end" rechner ausm programm fallen lässt. Also Mac Pro und die top iMacs. Der Mac pro wird schon jetzt ziemlich stiefmütterlich behandelt und das Professionel Segment hat für Apple ja eh nur noch eine untergeordnete rolle, während es vor 10 jahren vielleicht noch zugpferd war.

Desti
2011-10-11, 18:14:11
Das wird aber ein krasser Performance Rückschritt.

Das iPäd 2 schafft im Geekbenchmark gerade mal 749 Punkte


http://arstechnica.com/apple/news/2011/10/early-iphone-4s-benchmarks-show-speedy-expected-performance.ars

während selbst das kleine MäcAir Buch mit Intel Core i7-2677M 1.8 GHz (2 cores) schon 5795 Punkte hat.

http://www.primatelabs.ca/geekbench/mac-benchmarks/

Die_Allianz
2011-10-11, 18:26:42
na gut dass die meißten leute weniger benchmarks dafür aber mehr applikationen nutzen. also normale leute meine ich jetzt

basti333
2011-10-11, 18:46:00
na gut dass die meißten leute weniger benchmarks dafür aber mehr applikationen nutzen. also normale leute meine ich jetzt


Ganz zu schweigen davon, das ein eventueller switch auch erst 2014 oder gar später erfolgen könnte. Bis dahin werden sich ARM und x86 mehr annähren. Intel ist ja schon dabei nicht mehr das maximum rauszuholen sondern mehr auf Stromsparen zu setzen.

Desti
2011-10-12, 15:13:07
na gut dass die meißten leute weniger benchmarks dafür aber mehr applikationen nutzen. also normale leute meine ich jetzt


Klar, auf dem Tablet bemerkst du die miese Leistung des ARM nicht, weil auf dem winzigen Bildschirm eh nur Platz für ein einzelnes Programm ist. Aber will du bei einem Computer mit 1m Bildschirm auch immer nur ein einzelnes Programm im Fullscreen Modus laufen lassen?

Ailuros
2011-10-12, 16:31:12
Klar, auf dem Tablet bemerkst du die miese Leistung des ARM nicht, weil auf dem winzigen Bildschirm eh nur Platz für ein einzelnes Programm ist. Aber will du bei einem Computer mit 1m Bildschirm auch immer nur ein einzelnes Programm im Fullscreen Modus laufen lassen?

Im embedded Markt ist die hoechste Prioritaet aus verstaendlichen Gruenden der Stromverbrauch bzw. die Batterie-Laufzeit.

Es ist genauso eine schlechte Idee einen heutigen selbst low end PC auf einem ARM embedded SoC laufen zu lassen, wie einen heutigen desktop SoC in ein embedded SoC zu integrieren. Um so etwas zu kuehlen braeuchtest Du ein tablet in Koffergroesse um auch die Rucksack-batterie zu vermeiden.

Ausser natuerlich der Unterschied zwischen mehreren hundert MilliWatt (im gegebenen Fall iPhone4S) und =/>100 Watt ist besonders schwer zu verstehen.

pixelguy
2011-10-12, 16:32:56
Was mich ja beeindruckt, ist die Tatsache, dass der A5 mit scheinbar nur 800 MHz schneller ist als die Chips in allen anderen Android-Smartphones. Inklusive Galaxy S2.

Entweder liegt es an der Software oder die Hardware ist wirklich gut optimiert.

Ailuros
2011-10-12, 16:40:57
Was mich ja beeindruckt, ist die Tatsache, dass der A5 mit scheinbar nur 800 MHz schneller ist als die Chips in allen anderen Android-Smartphones. Inklusive Galaxy S2.

Entweder liegt es an der Software oder die Hardware ist wirklich gut optimiert.

Beides; afaik hat der A5 aggressiveres power/clock gating als im iPad2. Was ich mir vorstelle ist dass im Fall vom 4S die sw der hw fuer maximal N Stromverbrauch nur Frequenzen A, B, C...etc erlaubt.

Uebrigens hockt natuerlich die GPU auch nicht immer nur dumm rum ausserhalb 3D.

Bucklew
2011-10-12, 17:59:28
Was mich ja beeindruckt, ist die Tatsache, dass der A5 mit scheinbar nur 800 MHz schneller ist als die Chips in allen anderen Android-Smartphones. Inklusive Galaxy S2.

Entweder liegt es an der Software oder die Hardware ist wirklich gut optimiert.
Das ist ein reiner Softwareunterschied, weil die Konkurrenz Smartphones alle noch mit 2.x laufen. Ein Tablet mit Honeycomb ist z.B. schneller im Browserbenchmark als das 4s und das iPad2 - weil der Browser im HC eben schneller ist.

Link finde ich allerdings gerade nicht mehr, war glaub ich irgendwo Areamobile oder so?!

Der entscheidende Punkt ist aber: Mit iOS5 + iPhone4s kann Apple auf die Konkurrenz nur auf die aktuellen Konkurrenzmodelle aufholen, nicht mehr überholen (und wenn nur minimal). Dagegen steht IceCream kurz vor der Veröffentlichung und ich denke da wird Performancemäßig einiges optimiert sein. Lassen wir uns überraschen ;)

deekey777
2011-10-12, 18:12:37
http://www.anandtech.com/show/4454/acer-iconia-tab-a500/4

Ailuros
2011-10-13, 14:25:29
http://www.anandtech.com/show/4454/acer-iconia-tab-a500/4

Nur leider sind diese iOS4 Resultate. In Egypt erreichte das iPad2 damals 44.0 fps und heutzutage 59.4 fps.

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Apple+iPad+2&testgroup=system

Das ist ein reiner Softwareunterschied, weil die Konkurrenz Smartphones alle noch mit 2.x laufen. Ein Tablet mit Honeycomb ist z.B. schneller im Browserbenchmark als das 4s und das iPad2 - weil der Browser im HC eben schneller ist.

Link finde ich allerdings gerade nicht mehr, war glaub ich irgendwo Areamobile oder so?!

Ein solcher Link waere durchaus interessant aber es waere wohl auch angebracht ein iPad2 mit iOS5 zu vergleichen.

Uebrigens laesst HC einen jegliche GPU beim browsing nicht dumm herumhocken, ergo ist es nicht immer nur ein reiner sw Unterschied. Es wird mir wohl keiner behaupten wollen dass jegliche heute verfuegbare hw voll ausgelastet ist oder? Je mehr an der sw gedreht wird desto mehr kann man eventuell aus der unterliegenden hw herausholen.

Der entscheidende Punkt ist aber: Mit iOS5 + iPhone4s kann Apple auf die Konkurrenz nur auf die aktuellen Konkurrenzmodelle aufholen, nicht mehr überholen (und wenn nur minimal). Dagegen steht IceCream kurz vor der Veröffentlichung und ich denke da wird Performancemäßig einiges optimiert sein. Lassen wir uns überraschen ;)

Wuerde ICS so laufen wie gewollte waere das Nexus Prime schon angekuendigt worden; die Bumsentschuldigung dass Samsung+Google die Vorstellung dank Jobs' Tod verschoben haben kaufe ich persoenlich erstmal nicht.

Sonst bringen neue OS Revisionen auf ziemlichen allen Platformen unter normalen Unstaenden etwas. Selbst das ziemlich alte 3GS profitierte geraum von iOS5.

Dass soll jetzt nicht heissen dass Du nicht moeglicherweise Recht haben koentest, denn frueher oder spaeter wird das iPhone4S schon ueberholt werden mit der Zeit (und das sogar mit staerkerer als heute erhaeltlicher hw im Android Bereich), aber so etwas ist auch stinknormal in jeglichem computing Markt.

Insgesamt hatten sowohl Android tablets als auch HC einige Vorteile gegen das iPad und iPad2. Das dumme ist eben dass es trotzdem nicht besonders viel geholfen hat Apple an Marktanteil abzunagen.

Was die Android tablets IMHO brauchen sind hauptsaechlich billigere mainstream tablets um von unten nach oben Markanteile zu erobern. Nur so kann der Markt explodieren und Apple kann eventuell zusehen wie ihr insgesamter Martanteil schrumpft, aber nicht unbedingt ihre Margen oder ihr Gewinn.

Mich wuerde es kein bisschen wundern wenn die Geruechte stimmen dass das iPad3 sogar teurer sein koennte beim launch als jegliches andere bishere iPad.

Nightspider
2011-10-13, 15:02:22
Hälst du es für möglich das Apple seine eigenen Margen zur Erhaltung der Marktanteile verkleinert oder gehst du von einer Preissteigerung aus? (Stichwort: Premium Segment)

LovesuckZ
2011-10-13, 15:04:19
Android-Tablet brauchen vernünftige Berichterstattung und nicht dauernd dieses Mauerblümchengeschreibsel. Statt immer zu sagen, wie toll iOS ist, sollte man auch mal die Vorteile von Honeycomb hervorheben. Nur so wäre auch ein vernünftiger Konkurrenzkampf unter den Betriebssystem gewährleistet.

Ailuros
2011-10-13, 15:14:13
Hälst du es für möglich das Apple seine eigenen Margen zur Erhaltung der Marktanteile verkleinert oder gehst du von einer Preissteigerung aus? (Stichwort: Premium Segment)

Wenn Apple nichts vom mainstream Markt halten sollte, dann entwickeln sie nach wie vor das gleiche high end Zeug wie bis heute fuer smart-phones und tablets. Premium oder high end oder egal wie Du es nennen willst wird irgendwann in eine Sackgasse rennen denn man kann nur theoretisch N Anzahl von so teuren Produkten verkaufen. Ergo wenn alle beteiligten Firmen bzw. Analysten eine Explosion des embedded Markts (und ueberhaupt smart-phones) vorhersehen kann es nur einen groesseren Durchbruch im mainstream bzw. lower end bedeuten.

Man kann zwar nie etwas ausschliessen aber ich bezweifle dass Apple an 200 bzw. 100 Euro tablets bzw. smart-phones langfristig interessiert ist. Etwas billigeres (wie z.B. das heutige immer noch erhaeltliche iPhone3GS) schon, aber als eigenstaendiges Geraet ist es auch heute nicht so weit unten wie das =/<200 Euro Segment.

Android-Tablet brauchen vernünftige Berichterstattung und nicht dauernd dieses Mauerblümchengeschreibsel. Statt immer zu sagen, wie toll iOS ist, sollte man auch mal die Vorteile von Honeycomb hervorheben. Nur so wäre auch ein vernünftiger Konkurrenzkampf unter den Betriebssystem gewährleistet.

Dann mach Dich nuetzlich und schreib etwas selber zusammen. Anand z.B. sucht staendig nach neuen Leuten und anandtech ist eine der grossen Seiten die embedded unter die Lupe nehmen. Das es aber der magische Zauberstab sein wird dass es etwas aendern wird will ich ernsthaft bezweifeln.

Jederman koennte von morgens bis abends ueber Apple laestern aber es wuerde zu nichts bringen. Ich persoenlich kauf mir ihr Zeug einfach nicht und aus damit :P

LovesuckZ
2011-10-13, 15:36:21
Es geht hier nicht um das Lästern. Sondern einfach um eine Berichterstattung, die iOS nicht als das Ultimative hinstellt. Liest man sich Test zu Honeycomb-Geräten durch, werden meisten immer Dinge kritisiert, die bei iOS besser sind. Der umgekehrte Fall passiert aber nicht. Wo wird denn mal ausdrücklich das freie Dateisystem gelobt? Oder die Möglichkeit seine OnScreenTastatur zu modifizieren? Oder das man keinen PC für sein Tablet benötigt? Oder den besseren USB Support?

Apple bekommt ein Freifahrtsschein, weil sie es geschafft haben, dass ihr OS als der Standard angesehen wird. Andere OS werden kritisiert, wenn sie nicht iOS entsprechen, dagegen werden zusätzliche Features ignoriert und nicht zur Sprache gebracht.

Es ist logisch, dass so keine ernstzunehmende Konkurrenz entstehen kann und Apple damit auf dem Markt machen kann, was sie wollen.

steve.it
2011-10-13, 15:45:31
Apple bekommt ein Freifahrtsschein, weil sie es geschafft haben, dass ihr OS als der Standard angesehen wird. Andere OS werden kritisiert, wenn sie nicht iOS entsprechen, dagegen werden zusätzliche Features ignoriert und nicht zur Sprache gebracht.

Ersetze Apple durch Microsoft bzw. Windows... :biggrin:

Ailuros
2011-10-13, 15:52:47
Es geht hier nicht um das Lästern. Sondern einfach um eine Berichterstattung, die iOS nicht als das Ultimative hinstellt. Liest man sich Test zu Honeycomb-Geräten durch, werden meisten immer Dinge kritisiert, die bei iOS besser sind. Der umgekehrte Fall passiert aber nicht. Wo wird denn mal ausdrücklich das freie Dateisystem gelobt? Oder die Möglichkeit seine OnScreenTastatur zu modifizieren? Oder das man keinen PC für sein Tablet benötigt? Oder den besseren USB Support?

Apple bekommt ein Freifahrtsschein, weil sie es geschafft haben, dass ihr OS als der Standard angesehen wird. Andere OS werden kritisiert, wenn sie nicht iOS entsprechen, dagegen werden zusätzliche Features ignoriert und nicht zur Sprache gebracht.

Glaubst Du ich hab meinen vorigen Vorschlag nicht ernst gemeint?

Es ist logisch, dass so keine ernstzunehmende Konkurrenz entstehen kann und Apple damit auf dem Markt machen kann, was sie wollen.

Mal etwas uebertrieben, aber jedermans Grossmutter die sich an ihr i-Dingsda gewoehnt hat wird sich wohl schwer einen technischen Artikel wo auch immer durchlesen. Ersetz Grossmutter mit jeglichem anderen Beispiel das gerade passt.

Wenn man es schafft Produkte auf den "iconic" Status zu erheben, ist es verdammt schwer irgendwelchen Gegen-einfluss durch die Presse zu erreichen. Ich hab in zich Foren eher einen lauwarmen bis enttaeuschten Empfang fuer's iPhone4S sehen koennen bis jetzt, jedoch haben die Vorbestellungen jeglichen Apple Rekord brechen koennen.

Fuer mich sind tablets hauptsaechlich e-book reader und sehr nutzvolle Geraete fuer Leute die stundenlang im Zug oder Bus taeglich verbringen um zu ihrer Arbeit zu fahren und auch Leute die sehr viel reisen. Anstatt zich Zeitungen bzw. Magazine mitzuschleppen ist eben ein tablet eben im Vergleich eine Eulogie und ueber die Jahre auch billiger als zich Zeitungen zu kaufen. Und genau eben in diesem Bereich greift Amazon mit ihrem Kindle Fire wo anders an mit ~200$ tablets.

Sonst kann ich persoenlich die Nutzbarkeit eines jeglichen tablets weder zu Hause oder bei der Arbeit nicht verstehen. So lange es wifi gibt ist man mit einem notebook bzw. PC zich Mal effizienter bedient und das sogar bei vergleichbaren Preisen eines 500-600 Euro tablets.

Ersetze Apple durch Microsoft bzw. Windows... :biggrin:

Stimmt; die Mehrzahl meckert darueber arbeitet aber selber stets mit windows. :P

Heelix01
2011-10-13, 16:10:23
Der umgekehrte Fall passiert aber nicht. Wo wird denn mal ausdrücklich das freie Dateisystem gelobt? Oder die Möglichkeit seine OnScreenTastatur zu modifizieren? Oder das man keinen PC für sein Tablet benötigt? Oder den besseren USB Support?

Etwas "loben" was bedingten nutzen hat ? Tablet sind reine Fun Geräte, gemütliches Sofa Surfen, in der Bahn nen Film schauen, mal den Großeltern eine Diashow zeigen oder casual Games daddeln.

Das deckt wohl 90% der tablet Anwendungen ab.
Was interessiert jetzt: ein sicheres os was einfach immer funktioniert wo man sich keine Gedanken über Berechtigungen, " Installationen " etc. Machen muss oder aber ein freies Dateisystem oder besserer USB Support ( wobei ich mich noch frage worauf das genau abzielen soll ) ?
Ich habe mich mitlerweile sehr an die Einfachheit von Apple gewöhnt und finde den Umgang mit dem SGS einer Freundin grausig, verschachtelte Einstellungen etc.
Würde mir das auf dem Desktop pc wünschen, irgendwo nen Update ( Spiel, Programme, Treiber) Notifikation und Windows soll nach yes Klick alles alleine machen!
Man gewöhnt sich sehr sehr schnell an die rund um sorglos iOS Welt.

Apple macht einfach in sachen Marketing alles richtig und bietet das was man braucht. Das es jetzt nicht eine Hand voll geeks abdeckt ... Ja gut, damit kann und wird Apple leben können.

YfOrU
2011-10-13, 16:11:10
Es geht hier nicht um das Lästern. Sondern einfach um eine Berichterstattung, die iOS nicht als das Ultimative hinstellt. Liest man sich Test zu Honeycomb-Geräten durch, werden meisten immer Dinge kritisiert, die bei iOS besser sind. Der umgekehrte Fall passiert aber nicht.

Honycomb kommt eigentlich besser weg als das OS insgesamt ist. Bis heute ist es abseits vom privaten Umfeld praktisch nicht einsetzbar.


Wo wird denn mal ausdrücklich das freie Dateisystem gelobt?

Ganz ehrlich, das ist für die meisten Nutzer kein Vorteil sondern eher ein Nachteil. Nervt mich unter Android bei der alltäglichen Nutzung inzwischen selbst. Vorgänge wie blöd eBooks in einen Ordner zu kopieren und dann später auf dem Gerät mit der entsprechenden Software zu importieren sind ein Witz.


Oder die Möglichkeit seine OnScreenTastatur zu modifizieren?

Die Tastatur unter iOS ist richtig gut. Von so einigen Android Umsetzungen kann das nicht behauptet werden. Daher kein Bedarf und zusätzlich haben alle Geräte die gleiche Tastatur.


Oder das man keinen PC für sein Tablet benötigt?

Das Thema ist mit iOS 5 gegessen aber das war ein echter Nachteil und gerade bei größeren Gerätestückzahlen unschön.


Oder den besseren USB Support?

Was Peripherie angeht ist das iPad eine Klasse für sich. USB Support taugt höchstens als Placebo Argument.

LovesuckZ
2011-10-13, 16:15:07
Etwas loben was keiner braucht ? Tablet sind reine Fun Geräte, gemütliches Sofa Surfen, in der Bahn nen Film schauen, mal den Großeltern eine Diashow zeigen oder casual Games daddeln.

Das deckt wohl 90% der tablet Anwendungen ab.
Was interessiert jetzt: ein sicheres os was einfach immer funktioniert wo man sich keine Gedanken über Berechtigungen, " Installationen " etc. Machen muss oder aber ein freies Dateisystem oder besserer USB Support ( wobei ich mich noch frage worauf das genau abzielen soll ) ?

Jap - genau diese Dinge werden abstrakt dargestellt. Schonmal überlegt, welche Schritte du machen musst, um Bilder deiner Kamera auf deinem Tablet als Diashow ansehen zu können? Und wie Daten überhaupt auf dein Tablet gelangen?


Apple macht einfach in sachen Marketing alles richtig und bietet das was man braucht. Das es jetzt nicht eine Hand voll geeks abdeckt ... Ja gut, damit kann und wird Apple leben können.

Es hat nichts mit "Geeks" zu tun, wenn man Erleichterung will und keinen Stress.


Ganz ehrlich, das ist für die meisten Nutzer kein Vorteil sondern eher ein Nachteil. Nervt mich unter Android bei der alltäglichen Nutzung inzwischen selbst. Vorgänge wie blöd eBooks in einen Ordner zu kopieren und dann später auf dem Gerät mit der entsprechenden Software zu importieren sind ein Witz.

Klar, wenn man Daten nur in einer Anwendung will, dann braucht man auch kein freies Dateisystem, weil man dann sowieso nur den Anwendungen die Daten zuschiebt. Viel Spaß aber die Daten mal zwischen zwei Anwendungen auszutauschen, weil Anwendung A Probleme macht.


Die Tastatur unter iOS ist richtig gut. Von so einigen Android Umsetzungen kann das nicht behauptet werden. Daher kein Bedarf und zusätzlich haben alle Geräte die gleiche Tastatur.

Und du zeigst gerade, was ich geschrieben habe. Genau dieses Verhalten führt dazu, dass überhaupt keine Konkurrenz entstehen kann, weil man sich durch Absetzung von anderen Features ja nicht hervorheben kann.


Was Peripherie angeht ist das iPad eine Klasse für sich. USB Support taugt höchstens als Placebo Argument.

"Placebo Argument"? Komisch, ich finde es toll, wenn ich meine NTFS USB-Platte an mein Transformer anschließe und darüber einen Film schauen kann bzw. die Daten auf mein Tablet ziehe. Aber ich glaube, soetwas ist heutzutage viel zu geeky, gell?

Wäre nett, wenn jemand die Postings verschieben könnte. Ich wollte eigentlich auf den Punkt "AMD wird ihre Preise erhöhen" schreiben.

Heelix01
2011-10-13, 16:20:32
Naja, kommt drauf an! Bilder sind eh als Backup auf dem PC hinterlegt, von dort sync aufs Pad finde ich jetzt nicht so umständlich.

Alternativ gibt es halt passenden Adapter mit dem das 1 Klick ist ... Direkt vom der Cam.
Klar wäre es ok, es ohne Adapter zu bekommen, aber 5 in 1 Adapter Kost 21€ und man hat immer alles dabei :)

Bucklew
2011-10-13, 16:21:53
Ein solcher Link waere durchaus interessant aber es waere wohl auch angebracht ein iPad2 mit iOS5 zu vergleichen.
War zwar ein anderer als der von deekey, aber die Zahlen passen ja.

Wuerde ICS so laufen wie gewollte waere das Nexus Prime schon angekuendigt worden; die Bumsentschuldigung dass Samsung+Google die Vorstellung dank Jobs' Tod verschoben haben kaufe ich persoenlich erstmal nicht.
kA, was da diesmal hinter steckt, man wird es sehen. Bin auf jeden Fall auf ICS ziemlich gespannt.

Dass soll jetzt nicht heissen dass Du nicht moeglicherweise Recht haben koentest, denn frueher oder spaeter wird das iPhone4S schon ueberholt werden mit der Zeit (und das sogar mit staerkerer als heute erhaeltlicher hw im Android Bereich), aber so etwas ist auch stinknormal in jeglichem computing Markt.
Wieso mit der Zeit? Wenn wir von der Hardware her schauen, ist das 4s heute doch schon überholt und das nicht gerade wenig. Ein Galaxy S2 ist 40% schneller wenn wir mal auf die CPU gucken (als Beispiel). Da kann Apple jetzt noch von iOS5 profitieren, ich denke aber das da ICS einen ziemlich großen Vorsprung zugunsten von Android herausholen wird.

Das entscheidende ist aber, dass Apple eben NICHT Highend hat, so wie sie es bisher in jedem iPhone hatten - bezogen auf CPU/GPU, nicht auf die Ausstatung! Und das ist schon ne ziemlich krasse Entwicklung und ich denke auch nicht, dass das sich auf die Beliebtheit auswirken wird. Auch wenn immer gern das Gegenteil behauptet wird: Appleuser haben immer gern mit ihren Mhz angegeben.

Insgesamt hatten sowohl Android tablets als auch HC einige Vorteile gegen das iPad und iPad2. Das dumme ist eben dass es trotzdem nicht besonders viel geholfen hat Apple an Marktanteil abzunagen.
Kommt noch, hat auch bei den Smartphones seine 2-3 Jahre gebraucht :)

Mich wuerde es kein bisschen wundern wenn die Geruechte stimmen dass das iPad3 sogar teurer sein koennte beim launch als jegliches andere bishere iPad.
War doch beim iPad2 das Gerücht und das Gegenteil ist passiert? Ich glaube das eher nicht, dass Apple jetzt plötzlich die Preisschraube anzieht.

Ich hab in zich Foren eher einen lauwarmen bis enttaeuschten Empfang fuer's iPhone4S sehen koennen bis jetzt, jedoch haben die Vorbestellungen jeglichen Apple Rekord brechen koennen.
Nach absoluten Zahlen. Aber relativ nach der Steigerung des Smartphonemarktes eher nicht - müsste man aber mal die Zahlen genau untersuchen.

steve.it
2011-10-13, 16:36:45
Das entscheidende ist aber, dass Apple eben NICHT Highend hat, so wie sie es bisher in jedem iPhone hatten - bezogen auf CPU/GPU, nicht auf die Ausstatung!

:freak:
http://images.anandtech.com/graphs/graph4951/41613.png

Desti
2011-10-13, 16:59:40
Im embedded Markt ist die hoechste Prioritaet aus verstaendlichen Gruenden der Stromverbrauch bzw. die Batterie-Laufzeit.

Es ist genauso eine schlechte Idee einen heutigen selbst low end PC auf einem ARM embedded SoC laufen zu lassen, wie einen heutigen desktop SoC in ein embedded SoC zu integrieren. Um so etwas zu kuehlen braeuchtest Du ein tablet in Koffergroesse um auch die Rucksack-batterie zu vermeiden.

Ausser natuerlich der Unterschied zwischen mehreren hundert MilliWatt (im gegebenen Fall iPhone4S) und =/>100 Watt ist besonders schwer zu verstehen.

Wenn du den A5 voll auslastest, bist du auch nicht mehr bei Milliwatt und weder Intels Atom noch AMDs Bobcat haben irgend etwas mit 100 Watt zu tun.

Bucklew
2011-10-13, 17:43:53
:freak:
[...]
http://images.anandtech.com/graphs/graph4454/39138.png
:eek:

steve.it
2011-10-13, 17:52:37
http://images.anandtech.com/graphs/graph4454/39138.png
:eek:
Kein iPhone 4s. Kein iOS5. Alter Test.
Hier mal ein aktueller Test:
http://images.anandtech.com/graphs/graph4951/41655.png

Und du hast gemeint, dass es kein HighEnd sei. Bin mal gespannt, wie lange es dauert, bis ein anderes Gerät die Grafikleistung des iPhone 4s erreicht.

Bucklew
2011-10-13, 18:15:53
Kein iPhone 4s. Kein iOS5. Alter Test.
Hier mal ein aktueller Test:
Da ist ein iPad2. Das ist sogar SCHNELLER als ein 4s und ist trotzdem langsamer als die Tegra2-Konkurrenz mit identischem Takt.

Wie man bei deinem Test sieht ist ja ein HC-Android IMMER noch schneller als 4s. Und ICS kommt erst noch, das wird die Latte nochmal höher legen.

Und du hast gemeint, dass es kein HighEnd sei. Bin mal gespannt, wie lange es dauert, bis ein anderes Gerät die Grafikleistung des iPhone 4s erreicht.
Ah jetzt auf einmal ist die Grafikleistung wichtig ;D

urpils
2011-10-13, 18:26:30
Da ist ein iPad2. Das ist sogar SCHNELLER als ein 4s und ist trotzdem langsamer als die Tegra2-Konkurrenz mit identischem Takt.

Wie man bei deinem Test sieht ist ja ein HC-Android IMMER noch schneller als 4s. Und ICS kommt erst noch, das wird die Latte nochmal höher legen.


ich verstehe dein Problem nicht. das einzige Gerät was schneller ist, ist ein Tablet (da sollte man dann vllt. das iPad 2 mit vergleichen). Und wie aussagekräftig Benchmarks sind, sei mal dahingestellt.

Fakt: iPhone 4S (bzw. iOS 5) ist jetzt da - was kommt kann natürlich schneller sein, das kann man ja dann vergleichen.

LovesuckZ
2011-10-13, 18:28:57
Das Tablet ist schneller aufgrund dem schnelleren Browser. Also eine reine Softwaresache. Mit ICS sollte dann auch die Mobile-Plattform den schnelleren Browser erhalten.

YfOrU
2011-10-13, 19:07:55
Und du zeigst gerade, was ich geschrieben habe. Genau dieses Verhalten führt dazu, dass überhaupt keine Konkurrenz entstehen kann, weil man sich durch Absetzung von anderen Features ja nicht hervorheben kann.

Die Anpassbarkeit von Android in Bezug auf das Aussehen ist meiner Meinung nach weniger als Feature zu sehen sondern aufgrund der leider meist eher zweitklassigen Oberflächen (Hersteller) eine Notwendigkeit. Dazu kommt noch das man sich ungern beim Wechsel des (Android) Gerätes mit der dann vorgesetzten Oberfläche zufrieden gibt sondern bevorzugt die bereits gewohnte nutzt.


"Placebo Argument"? Komisch, ich finde es toll, wenn ich meine NTFS USB-Platte an mein Transformer anschließe und darüber einen Film schauen kann bzw. die Daten auf mein Tablet ziehe. Aber ich glaube, soetwas ist heutzutage viel zu geeky, gell?

Nein, Geeky ist es nicht und das hat in der Android Welt schon seine Daseinsberechtigung. Der Grund hierfür ist aber der Mangel an einer kompletten und einfach zu bedienenden Plattform. In der iOS/iTunes Welt ist sowas heute eigentlich unnötig.

Mir hat das was Android ausmacht selbst lange tierisch Spaß gemacht und ich bin seit WinCE/Mobile mittendrin. Je mehr diese Produkte in den Massenmarkt gedrückt werden desto größer wird der Teil an Personen denen diese Systeme viel zu komplex sind. Mir ist es nicht zu komplex aber mich ärgert es wenn ich sehe wie simpel vieles umzusetzen wäre und was man schlussendlich vorgesetzt bekommt.

Das Konzept hinter Android hat leider einen krassen Fehler und das ist die Abstinenz einer homogenen Schnittstelle wie iTunes. Irgendwann wird sich das auch ändern aber bis alles übersichtlich in die Cloud gewandert ist und sich dementsprechend verwalten lässt wird es noch sehr lange dauern.

In dem Bereich (Plattform/Usability) traue ich inzwischen Microsoft und vor allen Amazon deutlich mehr zu als Google.

Bucklew
2011-10-13, 22:46:25
ich verstehe dein Problem nicht. das einzige Gerät was schneller ist, ist ein Tablet (da sollte man dann vllt. das iPad 2 mit vergleichen). Und wie aussagekräftig Benchmarks sind, sei mal dahingestellt.
Pack mal ein iPhone4 und ein GalaxyS2 nebeneinander und dann surf mal ne Runde. Das ist mit dem iPhone dann nur noch ruckelfreies Warten ;D

Dazu kommt noch das man sich ungern beim Wechsel des (Android) Gerätes mit der dann vorgesetzten Oberfläche zufrieden gibt sondern bevorzugt die bereits gewohnte nutzt.
Und stattdessen dann einen Hersteller, der nicht nur die Oberfläche sondern auch noch die Hardware vorsetzt? Ne, danke...

Und die Alternative mit einem 2% Marktanteil ist defakto auch keine.

Das Konzept hinter Android hat leider einen krassen Fehler und das ist die Abstinenz einer homogenen Schnittstelle wie iTunes. Irgendwann wird sich das auch ändern aber bis alles übersichtlich in die Cloud gewandert ist und sich dementsprechend verwalten lässt wird es noch sehr lange dauern.
Das tut Honeycomb bereits an vielen Stellen, wird mit ICS sicherlich mehr. Aber ich würde mir eher die Möglichkeit wünschen einen eigenen Server einzurichten. Ich will doch meine ganzen Daten nicht in die USA schicken...

YfOrU
2011-10-14, 00:48:37
Und stattdessen dann einen Hersteller, der nicht nur die Oberfläche sondern auch noch die Hardware vorsetzt? Ne, danke...

Der Hersteller kümmert sich 3 Jahre lang in regelmäßigen Abständen um sein Produkte und bietet insgesamt das ausgereifteste, durchdachteste und rundeste Paket. Das ist einfach eine Tatsache.
Als Kunde ist mir das vollkommen egal wer die Hardware / Software liefert solange das Produkt passt. Oder soll ich mein Milestone zum Fenster herauswerfen weil Motorola Mobility jetzt zu Google gehört ? ;)


Und die Alternative mit einem 2% Marktanteil ist defakto auch keine.


Das diese Aussage falsch ist weiss jeder der sich mit WP7.5 ernsthaft beschäftigt hat. Für den Otto Normalverbraucher ist ein Windows Phone Produkt bei Gleichwertigkeit dem Android Produkt im Regelfall vorzuziehen. Begründung: Microsoft hat das Konzept welches hinter Apples (iOS) Erfolg steht nicht nur verstanden sondern auf eine eigene Art sehr vorbildlich umgesetzt.


Das tut Honeycomb bereits an vielen Stellen, wird mit ICS sicherlich mehr. Aber ich würde mir eher die Möglichkeit wünschen einen eigenen Server einzurichten. Ich will doch meine ganzen Daten nicht in die USA schicken...

Der zentrale Fehler ist das sich die verschiedenen Google Web Anwendungen in der heutigen Form für die Verwaltung nicht eignen. Weder ist diese ordentlich zusammen gefasst noch bieten diese den Komfort einer Software wie iTunes oder Zune. So eine Stückellandschaft wie von Google ist für den Massenmarkt nicht geeignet. Bei genauer Betrachtung ist der Kritikpunkt weniger Android selbst sondern die von Google verfolgte Umsetzung. Amazon verwendet schlussendlich die gleiche Basis, orientiert sich aber zurecht wesentlich näher an Microsoft und Apple.

Meine Wunschvorstellung wäre ebenfalls zum Beispiel die TK Anlage zuhause inkl. Massenspeicher zu einem Teil der Cloud werden zu lassen inkl. der Option welche Daten extern gespeichert bzw. bezogen werden. Aber bis das inklusive einem übergreifenden Standard kommt...

Ailuros
2011-10-14, 08:19:32
War zwar ein anderer als der von deekey, aber die Zahlen passen ja.

Komischerweise antwortete ich dekkey schon und sein Link war immer noch von iOS4.

kA, was da diesmal hinter steckt, man wird es sehen. Bin auf jeden Fall auf ICS ziemlich gespannt.

Wie jeder andere auch.

Wieso mit der Zeit? Wenn wir von der Hardware her schauen, ist das 4s heute doch schon überholt und das nicht gerade wenig. Ein Galaxy S2 ist 40% schneller wenn wir mal auf die CPU gucken (als Beispiel). Da kann Apple jetzt noch von iOS5 profitieren, ich denke aber das da ICS einen ziemlich großen Vorsprung zugunsten von Android herausholen wird.

200MHz aus 800MHz sind 25% Unterschied fuer die CPU und der MP2 im A5 ist ca. 2 Mal so schnell als der 45nm Mali400MP4@267MHz. Apple laesst die GPUs ausserhalb 3D nicht dumm herumhocken und ja Du kannst die >14 GFLOPs FP32 der GPU durchaus fuer GPP gebrauchen wo immer es Sinn macht.

Das entscheidende ist aber, dass Apple eben NICHT Highend hat, so wie sie es bisher in jedem iPhone hatten - bezogen auf CPU/GPU, nicht auf die Ausstatung! Und das ist schon ne ziemlich krasse Entwicklung und ich denke auch nicht, dass das sich auf die Beliebtheit auswirken wird. Auch wenn immer gern das Gegenteil behauptet wird: Appleuser haben immer gern mit ihren Mhz angegeben.

Was hatten denn berauschendes vorige iPhone Varianten?

Frequenz oder Breite heutzutage? Qualcomm kommt erst in H1 12' mit 8 Vec4 ALUs in ihren GPUs unter 28nm an und zu dem Zeitpunkt wird iPad3 mit dem naechsten SoC nachladen mit dem aber das iPhone5 oder wie immer es heissen wird erst spaeter nachgeladen wird.

Kommt noch, hat auch bei den Smartphones seine 2-3 Jahre gebraucht :)

Ja ein Zusatz bei den lower end tablets welches Apple wohl so oder so nicht besonders schert.

War doch beim iPad2 das Gerücht und das Gegenteil ist passiert? Ich glaube das eher nicht, dass Apple jetzt plötzlich die Preisschraube anzieht.

Weil jederman schon beim 2 den 2048 Bildschirm erwartete; glaubst Du der ist umsonst?

Nach absoluten Zahlen. Aber relativ nach der Steigerung des Smartphonemarktes eher nicht - müsste man aber mal die Zahlen genau untersuchen.

Die Anzahl deutet auf jeden Fall auf keinen lauwarmen Empfang; wie sich das Ding am Ende verkaufen wird wird sich schon zeigen.

Pack mal ein iPhone4 und ein GalaxyS2 nebeneinander und dann surf mal ne Runde. Das ist mit dem iPhone dann nur noch ruckelfreies Warten ;D

Gestern haben wir den Test auf den Tisch gelegt aber das iPhone4 mit iOS5 und es gab keinen klaren Gewinner zwischen den beiden.

Bucklew
2011-10-14, 09:29:14
Der Hersteller kümmert sich 3 Jahre lang in regelmäßigen Abständen um sein Produkte und bietet insgesamt das ausgereifteste, durchdachteste und rundeste Paket. Das ist einfach eine Tatsache.
Rund? Ja, wenn ich meine Rechte und Möglichkeiten als Kunde an der Kasse beim Kauf des Produktes abgebe. Nur unter dieser Prämisse.

Als Kunde ist mir das vollkommen egal wer die Hardware / Software liefert solange das Produkt passt. Oder soll ich mein Milestone zum Fenster herauswerfen weil Motorola Mobility jetzt zu Google gehört ? ;)
Betonung auf dem WENN sie es liefern. Wenn sie nicht mehr liefern was zu dir passt hast du verloren. Dann heißt es entweder das komplette OS wechseln oder damit leben.

Das diese Aussage falsch ist weiss jeder der sich mit WP7.5 ernsthaft beschäftigt hat. Für den Otto Normalverbraucher ist ein Windows Phone Produkt bei Gleichwertigkeit dem Android Produkt im Regelfall vorzuziehen. Begründung: Microsoft hat das Konzept welches hinter Apples (iOS) Erfolg steht nicht nur verstanden sondern auf eine eigene Art sehr vorbildlich umgesetzt.
Und genau das ist das Problem von WP7: Wozu ein zweite iOS? Und den "Erfolg" von WP7 sieht man ja auch. Demgegenüber ist der Erfolg von Android und der steckt sowohl WP7 als auch iOS locker in die Tasche. Alleine 55 Millionen verkaufter Androidgeräte in den letzten 3 Monaten.

Der zentrale Fehler ist das sich die verschiedenen Google Web Anwendungen in der heutigen Form für die Verwaltung nicht eignen. Weder ist diese ordentlich zusammen gefasst noch bieten diese den Komfort einer Software wie iTunes oder Zune.
"Komfort einer Software wie iTunes" - da kommt man ja aus dem Lachen nicht mehr heraus ;D

Meine Wunschvorstellung wäre ebenfalls zum Beispiel die TK Anlage zuhause inkl. Massenspeicher zu einem Teil der Cloud werden zu lassen inkl. der Option welche Daten extern gespeichert bzw. bezogen werden. Aber bis das inklusive einem übergreifenden Standard kommt...
Die Daten meiner TK-Anlage in die Cloud? Niemals! Aber offensichtlich scheinst du keine Probleme damit zu haben deine gesamten Daten an irgendein anonymes unternehmen in die USA zu schicken.....

Facebook nutzt du sicherlich auch, oder? ;)

200MHz aus 800MHz sind 25% Unterschied fuer die CPU und der MP2 im A5 ist ca. 2 Mal so schnell als der 45nm Mali400MP4@267MHz. Apple laesst die GPUs ausserhalb 3D nicht dumm herumhocken und ja Du kannst die >14 GFLOPs FP32 der GPU durchaus fuer GPP gebrauchen wo immer es Sinn macht.
Ja so wie es Honeycomb auch schon tut. Wer mal ein Customrom ohne HW-Beschleunigung genutzt hat, weiß das :freak:

Was hatten denn berauschendes vorige iPhone Varianten?

Frequenz oder Breite heutzutage? Qualcomm kommt erst in H1 12' mit 8 Vec4 ALUs in ihren GPUs unter 28nm an und zu dem Zeitpunkt wird iPad3 mit dem naechsten SoC nachladen mit dem aber das iPhone5 oder wie immer es heissen wird erst spaeter nachgeladen wird.
Ende des Jahres kommt Tegra3 mit Quadcore. Und mit Tegra4 kommt dann der große Sprung bei der GPU.

Ja ein Zusatz bei den lower end tablets welches Apple wohl so oder so nicht besonders schert.
So wenig, dass sie inzwischen in zig Ländern gegen Samsung klagen ;)

Weil jederman schon beim 2 den 2048 Bildschirm erwartete; glaubst Du der ist umsonst?
Hat auf jederman ein iPhone5 erwartet und es kam....?

Gestern haben wir den Test auf den Tisch gelegt aber das iPhone4 mit iOS5 und es gab keinen klaren Gewinner zwischen den beiden.
Ja das ist aber eben auch erst mit iOS5 der Fall. Und das S2 hat noch das Android 2.3. Pack nen Honeycomb mal daneben.

Ailuros
2011-10-14, 11:11:09
Ja so wie es Honeycomb auch schon tut. Wer mal ein Customrom ohne HW-Beschleunigung genutzt hat, weiß das :freak:

GPP ist auf <FP32 GPU ALUs sowieso nicht moeglich.

Ende des Jahres kommt Tegra3 mit Quadcore. Und mit Tegra4 kommt dann der große Sprung bei der GPU.

Na danke dass Du meinen eigentlichen Punkt unterstuetzt; bei Tegra3 geht der CPU block von 2*A9 1GHz (T2) auf 4*A9 1.5GHz und die GPU von 1 Vec4 PS 333MHz auf 2 Vec4 PS 500MHz, ergo geht die Sache eher in die Breite als dass es radikalere Frequenz-steigerungen gibt. Was jetzt T4 und dessen GPU betrifft ist es zwar nicht das Thema hier aber T4 soll nur 2x Mal schneller sein als T3 obwohl 28nm fuers erste laut NV's eigener roadmap. Du wirst wohl eher T5 meinen (28nm) ausser die NV roadmap wurde kurzfristig geaendert.

So wenig, dass sie inzwischen in zig Ländern gegen Samsung klagen ;)

Herstellung bleibt fuer den naechsten SoC hoechstwarhscheinlich immer noch bei Samsung 32nm. Die interne laecherliche Zankereien zwischen den beiden lassen mich kalt, denn bei einer gegenseitigen Abmachung werden wir sowieso nie erfahren was genau und wofuer abgezahlt wird. Siehe auch die NOKIA/Apple Abmachung.

Samsung haette Apple ziemlich ins schwitzen gebracht wenn Exynos seine original versprochenen Frequenzen erreicht haette. Unter 32nm und dem 4212 kommt es zwar so weit, aber Samsung hatte aggressivere Plaene als wir sie ueberhaupt im 45nm Exynos gesehen haben. Egal denn Samsung hat ohne die US schon die 10M Einheiten gebrochen mit dem SGS2.

Hat auf jederman ein iPhone5 erwartet und es kam....?

Von mir aus haetten sie es auch Borgo Sphinxter nennen koennen wenn es um die Namensgebung geht; so wie es momentan aussieht werden tablet SoCs bei Apple stets ein Jahr Vorsprung haben. Vor Herbst 2012 bezweifle ich ernsthaft dass Apple den iPad3 SoC in ein smart-phone quetschen kann ausser sie gehen frueher zu einem die shrink auf 28nm wofuer sie aber so oder so keine Zeit haben.

Ja das ist aber eben auch erst mit iOS5 der Fall. Und das S2 hat noch das Android 2.3. Pack nen Honeycomb mal daneben.

Es war 2.3.4 gegen iOS5. Ein SGS2 koennte wohl eher vielleicht ICS nachgeladen bekommen, aber der eigentliche grosse upgrade der das 4S ins Schaukeln bringen wird sind die smart-phones die auf Exynos 4212 basieren werden unter 32nm (H1 2012).

Dual A9@1.5GHz und Mali400MP4@400MHz; der 45nm Exynos ist auf 1-1.2GHz fuer die CPU und bei 267MHz fuer die GPU.


----------------------------------------------------------------

***edit: http://www.anandtech.com/show/4964/ifixit-iphone-4s-teardown-confirms-512mb-lpddr2-mdm6600

Bucklew
2011-10-14, 11:42:05
Na danke dass Du meinen eigentlichen Punkt unterstuetzt; bei Tegra3 geht der CPU block von 2*A9 1GHz (T2) auf 4*A9 1.5GHz und die GPU von 1 Vec4 PS 333MHz auf 2 Vec4 PS 500MHz, ergo geht die Sache eher in die Breite als dass es radikalere Frequenz-steigerungen gibt. Was jetzt T4 und dessen GPU betrifft ist es zwar nicht das Thema hier aber T4 soll nur 2x Mal schneller sein als T3 obwohl 28nm fuers erste laut NV's eigener roadmap. Du wirst wohl eher T5 meinen (28nm) ausser die NV roadmap wurde kurzfristig geaendert.
Nein ich meine schon Tegra4. Die reinen Leistungsdaten sagen nicht immer alles über die zugrunde liegende Technik/Architektur aus.

Herstellung bleibt fuer den naechsten SoC hoechstwarhscheinlich immer noch bei Samsung 32nm. Die interne laecherliche Zankereien zwischen den beiden lassen mich kalt, denn bei einer gegenseitigen Abmachung werden wir sowieso nie erfahren was genau und wofuer abgezahlt wird. Siehe auch die NOKIA/Apple Abmachung.
Wo sollte Apple auch sonst fertigen lassen? GF? :freak:

Ich denke aber schon, dass diese ganzen Klagen nicht gerade zu einem positiven Entwicklung der Verhältnis der Firmen führt. Das wird Apple in Zukunft bezahlen müssen.

Von mir aus haetten sie es auch Borgo Sphinxter nennen koennen wenn es um die Namensgebung geht; so wie es momentan aussieht werden tablet SoCs bei Apple stets ein Jahr Vorsprung haben. Vor Herbst 2012 bezweifle ich ernsthaft dass Apple den iPad3 SoC in ein smart-phone quetschen kann ausser sie gehen frueher zu einem die shrink auf 28nm wofuer sie aber so oder so keine Zeit haben.
Sie müssen ja sogar schon den A5 runtertakten ;)

Apple hat einfach nicht mehr die Innovation wie noch vor einem oder zwei Jahren. Diese Stelle haben inzwishcen andere Firmen übernommen.

So btw: http://www.golem.de/1110/87039.html

Es war 2.3.4 gegen iOS5. Ein SGS2 koennte wohl eher vielleicht ICS nachgeladen bekommen, aber der eigentliche grosse upgrade der das 4S ins Schaukeln bringen wird sind die smart-phones die auf Exynos 4212 basieren werden unter 32nm (H1 2012).

Dual A9@1.5GHz und Mali400MP4@400MHz; der 45nm Exynos ist auf 1-1.2GHz fuer die CPU und bei 267MHz fuer die GPU.
Ja klar, dass die nächsten Androidgeräte NOCH besser werden ist klar. Aber schon jetzt ist es halt maximal ein Tie, was die Performance angeht. Und das war vorher nicht so der Fall, da war ein neues iPhone was die Performance angeht quasi konkurrenzlos.

PN kommt nach dem Essen ;)

Heelix01
2011-10-14, 12:21:42
Ein iPad 2 plus ist Unsinn. Was für ein Minor Upgrade was das "plus" rechtfertig sollte das sein ?

Sobald der neue SoC und die display generation verfügbar ist gibt es das iPad 3.

Ein Low Budget Produkt hat Apple bei smartphone nicht gebracht, wieso also beim iPad ?!

LovesuckZ
2011-10-14, 12:24:36
Der Grund beim iPad könnte sein, dass die Android-Konkurrenz zu aufdringlich wird. Bei Smartphones ist es unerheblich, weil sowieso die Mehrheit der Leute sich das Telefon mit Tarif holt. Beim iPad sieht dagegen komplett anders aus. Und wenn man überlegt, dass z.B. ein Asus Transformer mit Dock nur unwesentlich mehr kostet als ein iPad 2, dann wird es für Apple schwerer gegen solche Konkurrenz zu bestehen.

Durch die Offenheit von Android, Konkurrenz durch unterschiedliche SoC und dadurch die hohe Innovationsfreudigkeit macht man auch Apple das Leben schwer.

Bucklew
2011-10-14, 12:25:55
Ein iPad 2 plus ist Unsinn. Was für ein Minor Upgrade was das "plus" rechtfertig sollte das sein ?
Also beim iPhone hat nach 15 Monaten ne neue CPU gereicht... :freak:

Ailuros
2011-10-14, 12:45:17
Nein ich meine schon Tegra4. Die reinen Leistungsdaten sagen nicht immer alles über die zugrunde liegende Technik/Architektur aus.

Die roadmap gibt Leistungs-steigerung auf SoC Basis an. Bis zu Tegra3 stimmt sie auf jeden Fall denn rein theoretisch ist T3 bis zu 5x Mal schneller als Tegra2. Ergo gab es irgend eine Aenderung der letzten Minute in der roadmap, oder T4 ist bis zu 2x Mal so schnell als T3 (bis zu 10x Tegra2).

Wo sollte Apple auch sonst fertigen lassen? GF? :freak:

Wo gibt es auf dem gesamten Netz eine Angabe darueber? Man sieht nur Bumsspekulationen ueber einen angeblichen A6@28nm TSMC der im Juni sampeln soll und auch im gleichen Monat in Geraeten erscheinen. Frag die diversen moechtegern Analysten woher sie mit dem Mist genau kommen :D

Ich denke aber schon, dass diese ganzen Klagen nicht gerade zu einem positiven Entwicklung der Verhältnis der Firmen führt. Das wird Apple in Zukunft bezahlen müssen.

Beide haben sich ein uebles Sueppchen eingebrockt und egal wer gewinnt oder verliert = selber schuld.

Sie müssen ja sogar schon den A5 runtertakten ;)

War beim iPhone4 und iPad1 genauso; nur hatten beide den gleichen SoC. Von A5 und aufwaerts scheint es komplizierter zu werden da die Pads ca. 1 Jahr im voraus einen schnelleren SoC abbekommen, waehrend jegliches iPhone mit dem SoC des vorigen Pad SoCs zurecht kommen muss. Hauptsaechlicher Grund: Unterschied in Aufloesung.

Apple hat einfach nicht mehr die Innovation wie noch vor einem oder zwei Jahren. Diese Stelle haben inzwishcen andere Firmen übernommen.

Ihre Innovation wurde stets bezweifelt und das von Anfang an; und nein ich lass mich in die Richtung der Debatte nicht ein weil ich generell von "iconic" Produkten egal in welchem Markt nichts halte.

So btw: http://www.golem.de/1110/87039.html

Geruechte gibt es stets tonnenweise. Falls es wirklich stimmen sollte und sie benutzen A5 dafuer schoen und gut, sonst bei A4 waere es ein ziemlich ueberteuertes Produkt.

Ja klar, dass die nächsten Androidgeräte NOCH besser werden ist klar. Aber schon jetzt ist es halt maximal ein Tie, was die Performance angeht. Und das war vorher nicht so der Fall, da war ein neues iPhone was die Performance angeht quasi konkurrenzlos.

Ich hab nie selber erwartet dass Apple stets freien Laufraum ohne Konkurrenz haben wird. Im schlimmsten Fall wird langfristig Apple genauso ein Nischen-produkt wie ihre desktops bzw. notebooks. Die eigentliche Frage und Thema des Threads hier ist ob sie hier etwas aendern wollen, denn ihre heutige Produkte sind nach wie vor zu teuer. Mit dem Advent von higher end SoCs in der absehbaren Zukunft (AMD, Intel, NV/Denver) koennte es helfen die Preise hier endlich zu reduzieren oder sie haben tatsaechlich vor bis zu einem gewissen Punkt auch fuer diese SoCs selber zu entwickeln.

Firmen koennen nur zuwachsen wenn sie sich konstant flexibel in ihren Kern-Maerkten zeigen und auch sich auch konstant in andere Maerkte erweitern koennen.

PN kommt nach dem Essen ;)

Bon apetit monsieur ;)

mekakic
2011-10-14, 12:56:15
Auch wenn immer gern das Gegenteil behauptet wird: Appleuser haben immer gern mit ihren Mhz angegeben.Distortion Field ahoi :D Ich habe noch nie sowas auch nur in Ansätzen von irgendeinem echten Menschen mal sagen hören. Selbst in unser Mega-Geek Abteilung auf der Arbeit. Grob die Hälfte hat ein iPhone und noch nie hat sich irgendwer, irgendwann mal über die Takte der verbauten CPU ausgelassen...never ever. Ich glaube auch nicht, daß das in den nächsten 10-20 Jahren nochmal wieder wichtig werden wird. Der Hersteller muß seinen Elektroschrott ins Gehäuse einbauen, so dass alles schnell genug und gleichzeitig die Leistungsaufnahme minimal ist. Alles andere ist doch nur noch wayne.

LovesuckZ
2011-10-14, 12:57:10
Die Taktfrequenz des iPhones kennt man auch nicht. :D
Aber ich wette, dass die Leute, die sich das 4S kaufen, wissen, dass dort ein DualCore Prozessor drin ist.

Ailuros
2011-10-14, 12:59:40
Durch die Offenheit von Android, Konkurrenz durch unterschiedliche SoC und dadurch die hohe Innovationsfreudigkeit macht man auch Apple das Leben schwer.

Bei steigender Konkurrenz profitiert stets der Endverbraucher, egal ob Apple oder nicht. Ich bleibe dabei dass tablets im Vergleich zu low end notebooks immer noch zu teuer sind und ebenso smartphones im Vergleich zu tablets. Das Ganze wird sich frueher oder spaeter schon ausbalancieren.

LovesuckZ
2011-10-14, 13:04:42
Bei steigender Konkurrenz profitiert stets der Endverbraucher, egal ob Apple oder nicht. Ich bleibe dabei dass tablets im Vergleich zu low end notebooks immer noch zu teuer sind und ebenso smartphones im Vergleich zu tablets. Das Ganze wird sich frueher oder spaeter schon ausbalancieren.

Es gibt keine Innovation bei Apple, wie es im Android-Markt der Fall. Das Asus Transformer mit Dock ist sehr innovativ. Die Sliders sind für viele interessant. Es gibt verschiedene Formate, unterschiedliche Größen, Displayauflösungen, ein breites Spektrum an SoCs...

Der Android-Markt schaukelt sich durch "interne" Konkurrenz in immer höhrere Positionen. Hardwaretechnisch rennt man Apple einfach davon. Und beim OS für Tablets hat man es schon längst geschafft. Apple's iPad lebt derzeit vom Ruf, aber nicht, weil man hier wirklich das bessere Produkt hat.

Ich denke schon, dass Apple ein billigeres iPad bringen muss. Ansonsten verkommt das iPad mehr der Macbook-Schiene.

urpils
2011-10-14, 13:18:37
Es gibt keine Innovation bei Apple, wie es im Android-Markt der Fall. Das Asus Transformer mit Dock ist sehr innovativ. Die Sliders sind für viele interessant. Es gibt verschiedene Formate, unterschiedliche Größen, Displayauflösungen, ein breites Spektrum an SoCs...

Der Android-Markt schaukelt sich durch "interne" Konkurrenz in immer höhrere Positionen. Hardwaretechnisch rennt man Apple einfach davon. Und beim OS für Tablets hat man es schon längst geschafft. Apple's iPad lebt derzeit vom Ruf, aber nicht, weil man hier wirklich das bessere Produkt hat.

Ich denke schon, dass Apple ein billigeres iPad bringen muss. Ansonsten verkommt das iPad mehr der Macbook-Schiene.

mal ganz abgesehen von den Begriffen "Innovation" und was nicht sonst noch. Was du hier schreibst klingt für Menschen interessant, die gern jedes Detail selbst aussuchen - überall schrauben und verstellen wollen und die ein Schaltdiagramm sämtlicher Prozessoren in ihren Geräten auswendig aufmalen können ;)

ich sehe nicht, wo man Apple hardwaretechnisch "davonrennt". Das iPad 2 ist verdammt schnell - hat ein unglaublich umfassendes Softwareangebot - viele wirklich großartige Programme/Spiele darunter, ist schick, hält lange durch (Akku) und ist extrem einfach zu bedienen.

Es ist ja schön, wenn andere Hersteller Nischen suchen oder für Leute mit anderen Ansprüchen produzieren - aber für viele Anwender bringt das keinen Vorteil. Es würde wohl auch eher Apple Philosophie widersprechen, wenn sie nun anfangen würden für jeden Spezialeinsatzbereich eine Extralösung azubieten.

die verschiedenen Formate/Größen/... bei Androidgeräten sind nunmal sowohl Vor- als auch Nachteil. Davon ist man beim iPad einfach losgelöst.

Apple könnte das iPad problemlos billiger anbieten, wenn sie es für nötig halten (schau dir mal deren Gewinnspanne bei iPhone und iPad an!) - aber scheinbar ist das nicht nötig - trotz der Androidkonkurrenz. (deren Geräte für mich überraschend teuer sind)

das einzige Konzept, bei dem ich durchaus sehe, dass Apple etwas dagegensetzen muss ist Amazon mit ihrem Kindle-Fire. Zu dem Preis werden einfach viele schwach werden und nicht sehen, wieso sie den Preis für ein iPad hinlegen sollen.

Apple verdient sein Geld mit Hardware
Amazon mit Verkäufenvon Filmen, Büchern, Musik, Apps...

mal sehen, welches Konzept hinterher aufgeht - am Prozessor wird es sicherlich nicht hängen!

Ailuros
2011-10-14, 13:35:05
Wenn du den A5 voll auslastest, bist du auch nicht mehr bei Milliwatt und weder Intels Atom noch AMDs Bobcat haben irgend etwas mit 100 Watt zu tun.

Ich sagte desktop SoCs in welche Atom nicht unbedingt faellt; aber wie dem auch sei und trotz dass die ganze Sache verdammt OT ist: food for thought
http://www.xbitlabs.com/news/cpu/display/20111013213656_Analyst_Condemns_AMD_for_Not_Employing_ARM_amid_Inability_to_Desi gn_Leading_High_Performance_x86_Processor.html

Bucklew
2011-10-14, 13:42:04
Die roadmap gibt Leistungs-steigerung auf SoC Basis an. Bis zu Tegra3 stimmt sie auf jeden Fall denn rein theoretisch ist T3 bis zu 5x Mal schneller als Tegra2. Ergo gab es irgend eine Aenderung der letzten Minute in der roadmap, oder T4 ist bis zu 2x Mal so schnell als T3 (bis zu 10x Tegra2).
Wie gesagt: Es zählt eben nicht nur die Leistung.

Wo gibt es auf dem gesamten Netz eine Angabe darueber? Man sieht nur Bumsspekulationen ueber einen angeblichen A6@28nm TSMC der im Juni sampeln soll und auch im gleichen Monat in Geraeten erscheinen. Frag die diversen moechtegern Analysten woher sie mit dem Mist genau kommen :D
Ich weiß ehrlich gesagt nicht wo die sich so einen Müll herziehen. Vorallem wo TSMC gar nicht die Kapazitäten hat mal eben so einen A6 zu produzieren.

Beide haben sich ein uebles Sueppchen eingebrockt und egal wer gewinnt oder verliert = selber schuld.
Ich denke aber einfach, dass Apple Samsung eher benötigt als andersherum. Selbst wenn Apple woanders kauft wird sie das teuer zu stehen kommen.

War beim iPhone4 und iPad1 genauso; nur hatten beide den gleichen SoC. Von A5 und aufwaerts scheint es komplizierter zu werden da die Pads ca. 1 Jahr im voraus einen schnelleren SoC abbekommen, waehrend jegliches iPhone mit dem SoC des vorigen Pad SoCs zurecht kommen muss. Hauptsaechlicher Grund: Unterschied in Aufloesung.
Dann wäre es doch sinnvoller zuerst den A5 im iPhone einzubauen wegen der höheren Auflösung? Ich denke ja eher das Problem ist durch die Abwärme/Stromverbrauch bedingt (erklärt auch die Runtertaktung).

Ihre Innovation wurde stets bezweifelt und das von Anfang an; und nein ich lass mich in die Richtung der Debatte nicht ein weil ich generell von "iconic" Produkten egal in welchem Markt nichts halte.
Naja, wenn man in die Mainstream-Medien guckt wurde da nichts bezweifelt. Ein Jobs kriegt ja auch überall ne riesen News während ein Richtie eine Erwähnung bie Heise kriegt...

Firmen koennen nur zuwachsen wenn sie sich konstant flexibel in ihren Kern-Maerkten zeigen und auch sich auch konstant in andere Maerkte erweitern koennen.
Ja und genau da sehen wir eine Stagnation bei Apple. Ob die Konkurrenz das ausnutzen kann muss man abwarten, bisher siehts ja net so schlecht aus.

Bon apetit monsieur ;)
Danke, Mensa :P

Distortion Field ahoi :D Ich habe noch nie sowas auch nur in Ansätzen von irgendeinem echten Menschen mal sagen hören. Selbst in unser Mega-Geek Abteilung auf der Arbeit.
Jaja, das haben im Heiseforum auch alle Applejünger behauptet. Und jetzt? Spammen sie das Forum mit Benchmarkwerten zu. Von daher, geschenkt...

Und wenn dem so wäre, dann gibt es ja auch keinen Grund von einem 4er auf ein 4s umzusteigen ;)

die verschiedenen Formate/Größen/... bei Androidgeräten sind nunmal sowohl Vor- als auch Nachteil. Davon ist man beim iPad einfach losgelöst.
Ich sehe da nur Vor- und keinen Nachteil, wenn man die Wahl hat. Nur ein Gerät kaufen zu können ist doch sowas von DDR....

LovesuckZ
2011-10-14, 13:42:50
mal ganz abgesehen von den Begriffen "Innovation" und was nicht sonst noch. Was du hier schreibst klingt für Menschen interessant, die gern jedes Detail selbst aussuchen - überall schrauben und verstellen wollen und die ein Schaltdiagramm sämtlicher Prozessoren in ihren Geräten auswendig aufmalen können ;)

Ich rede von Innovationen außerhalb von Hardware ala SoCs. Laptop-Dock von Motorola, in dem man sein Smartphone steckt. Das Dock für das Asus Transformer. Das sind Innovationen, die "anfassbar" sind und die eigenen Produkte gegenüber der Konkurrenz stärkt.


ich sehe nicht, wo man Apple hardwaretechnisch "davonrennt". Das iPad 2 ist verdammt schnell - hat ein unglaublich umfassendes Softwareangebot - viele wirklich großartige Programme/Spiele darunter, ist schick, hält lange durch (Akku) und ist extrem einfach zu bedienen.


Das gilt ebenfalls für Android. Der Status Quo ist jedoch zur Zeit, dass Apple eben keinen Vorsprung mehr hat - sei es durch Hardware oder OS. Und wenn man überlegt, dass Apple knapp ein Jahr vor Honeycomb-Tablets auf dem Markt kam, ist die Einholphase doch ziemlich rasant verlaufen.


Es ist ja schön, wenn andere Hersteller Nischen suchen oder für Leute mit anderen Ansprüchen produzieren - aber für viele Anwender bringt das keinen Vorteil. Es würde wohl auch eher Apple Philosophie widersprechen, wenn sie nun anfangen würden für jeden Spezialeinsatzbereich eine Extralösung azubieten.
die verschiedenen Formate/Größen/... bei Androidgeräten sind nunmal sowohl Vor- als auch Nachteil. Davon ist man beim iPad einfach losgelöst.

Apple bietet mit ihren Macs auch verschiedene Formfaktoren an. Ich sehe keinen Vorteil in einer Monokultur. Die schränkt einfach nur ein. RIM und HP können davon ein Lied singen. Apple hat eben noch den Ruf, so dass das iPad darunter zur Zeit nicht leidet.


Apple könnte das iPad problemlos billiger anbieten, wenn sie es für nötig halten (schau dir mal deren Gewinnspanne bei iPhone und iPad an!) - aber scheinbar ist das nicht nötig - trotz der Androidkonkurrenz. (deren Geräte für mich überraschend teuer sind)

Na, das ist doch logisch. Solange die Presse und die Medien das iPad nur lobt, statt es auch für seine Schwächen zu kritisieren, wird es noch eine Weile dauernd, bis das Mindshare umschwabt.

pixelguy
2011-10-14, 13:48:47
Nehmt es mir nicht übel, aber kann es sein, dass wir uns etwas vom Thema des Threads entfernen? ;)

mekakic
2011-10-14, 13:51:17
Jaja, das haben im Heiseforum auch alle Applejünger behauptet. Und jetzt? Spammen sie das Forum mit Benchmarkwerten zu. Von daher, geschenkt...Erstens: Ursache und Wirkung. Zweitens: Keine echte Menschen.

Und wenn dem so wäre, dann gibt es ja auch keinen Grund von einem 4er auf ein 4s umzusteigen ;)Beim 4er in der Tat. Aber der typische Wechseltakt liegt ja sowieso höher. Beim 3Gs oder anderen Handys sind die Gründe aber schon sehr gut.

steve.it
2011-10-14, 14:01:23
Jaja, das haben im Heiseforum auch alle Applejünger behauptet. Und jetzt? Spammen sie das Forum mit Benchmarkwerten zu. Von daher, geschenkt...
:rolleyes:
Spammen?
Solche Posts kommen aus einem einzigem Grund:
Wegen der inkompetenten Behauptungen, dass Apple so sehr hinterherhinken würde, obwohl die Verfasser solcher Aussagen häufig überhaupt nichts über SoCs und verbaute IP wissen.

Heelix01
2011-10-14, 14:10:16
*del hier stand Mist, falsches Topic ^^

Ailuros
2011-10-14, 15:32:36
Wie gesagt: Es zählt eben nicht nur die Leistung.

Oder die roadmap wurde wieder geaendert ;)

Ich weiß ehrlich gesagt nicht wo die sich so einen Müll herziehen. Vorallem wo TSMC gar nicht die Kapazitäten hat mal eben so einen A6 zu produzieren.

Och SA ging sogar so weit zu behaupten dass dank zu engen Kapazitaeten fuer Apple die Preise bei anderen erhoeht. Auschliessen will ich es noch nicht aber uebertrieben klingt es mir schon. Kann durchaus sein dass Apple zu TSMC geht ab 28nm aber dann wohl eher (und stets IMHO) mit dual sourcing.

Ich denke aber einfach, dass Apple Samsung eher benötigt als andersherum. Selbst wenn Apple woanders kauft wird sie das teuer zu stehen kommen.

Es auf Henne/Ei Basis zu philosophieren bringt nichts; auch Intel und NV haben einen Ausweg zu ihrer Zankerei gefunden. Ebenso Intel und AMD usw usw.

Dann wäre es doch sinnvoller zuerst den A5 im iPhone einzubauen wegen der höheren Auflösung? Ich denke ja eher das Problem ist durch die Abwärme/Stromverbrauch bedingt (erklärt auch die Runtertaktung).

Power/clock gating wurde umgekrempelt fuer A5 afaik. Im Grund ist es ja eine Reduzierung der Frequenz, aber eben um die Abwaerme/Stromverbrauch besser kontrollieren zu koennen kam das iPhone spaeter als das iPad2 mit A5. Wird wohl auch so in der Zukunft sein. Sie werden wohl nicht einen nochmal riesigen SoC unter 32nm gleich am Anfang in ein smart-phone quetschen koennen.

Ja und genau da sehen wir eine Stagnation bei Apple. Ob die Konkurrenz das ausnutzen kann muss man abwarten, bisher siehts ja net so schlecht aus.

Es bewegt sich noch viel mehr im embedded Markt. Der Einstieg von win8 in diesen wird auch ganz andere Messlatten setzen, ergo es liegen viel mehr Faktoren diesmal auf dem Laufband.

***edit: Peter Scott ist nichtmal ein Apple fan sondern genau das Gegenteil: http://www.fudzilla.com/mobiles/item/24470-apple-might-sell-up-to-4m-iphones-4s-this-weekend

Von dem abgesehen koennen wir vielleicht den Thread on topic bringen? Plant Apple tatsaechlich anspruchsvollere SoCs selber zu entwickeln fuer die weniger vorhersehbare Zukunft (fuer ihr eigenes low end desktop/notebook) Zeug oder nicht?

Desti
2011-10-14, 16:47:23
Ich sagte desktop SoCs in welche Atom nicht unbedingt faellt; aber wie dem auch sei und trotz dass die ganze Sache verdammt OT ist: food for thought
http://www.xbitlabs.com/news/cpu/display/20111013213656_Analyst_Condemns_AMD_for_Not_Employing_ARM_amid_Inability_to_Desi gn_Leading_High_Performance_x86_Processor.html


Was ein Anal erzählt, ist völlig irrelevant.

Nightspider
2011-10-14, 23:20:27
Samsung haette Apple ziemlich ins schwitzen gebracht wenn Exynos seine original versprochenen Frequenzen erreicht haette. Unter 32nm und dem 4212 kommt es zwar so weit, aber Samsung hatte aggressivere Plaene als wir sie ueberhaupt im 45nm Exynos gesehen haben. Egal denn Samsung hat ohne die US schon die 10M Einheiten gebrochen mit dem SGS2

...

Dual A9@1.5GHz und Mali400MP4@400MHz; der 45nm Exynos ist auf 1-1.2GHz fuer die CPU und bei 267MHz fuer die GPU.

Atm gibts den Exynos (45nm) doch schon in manchen Geräten mit 1,5 Ghz, wenn ich mich nicht irre. (Galaxy S2 Note mit 5" und die LTE Variante)

Wenn Samsung noch mehr von Apple durch Steitereien angemacht wird, würde es mich nicht wundern wenn Samsung den neuen 32nm Chip schon mit >= 1,8Ghz verbaut.

Soll der 32nm SoC nicht auch schon bald in Massenproduktion gehen, bis Ende des Jahres? Dann könnten wir doch schon im Winder (1.Q 2012) die ersten Galaxy S2 Ableger (LTE HD?) mit derartigem Speed (1,8Ghz?) sehen. Die Leistung würde man auch für 1280*720p brauchen, welche die HD Varianten haben.

sry 4 ot

Ailuros
2011-10-14, 23:56:03
Was ein Anal erzählt, ist völlig irrelevant.

Ich sagte aus gutem Grund "food for thought"; wie dem auch sei nicht mehr oder weniger relevant als Du behaupten willst.

Atm gibts den Exynos (45nm) doch schon in manchen Geräten mit 1,5 Ghz, wenn ich mich nicht irre. (Galaxy S2 Note mit 5" und die LTE Variante)

1.2GHz.

Wenn Samsung noch mehr von Apple durch Steitereien angemacht wird, würde es mich nicht wundern wenn Samsung den neuen 32nm Chip schon mit >= 1,8Ghz verbaut.

Ob Apple oder nicht wenn die Konkurrenz fuer hoehere Frequenzen drueckt (siehe z.B. OMAP4470@1.8GHz) dann wird Samsung und jegliches Samsung sowieso in die Richtung gehen.

Soll der 32nm SoC nicht auch schon bald in Massenproduktion gehen, bis Ende des Jahres? Dann könnten wir doch schon im Winder (1.Q 2012) die ersten Galaxy S2 Ableger (LTE HD?) mit derartigem Speed (1,8Ghz?) sehen. Die Leistung würde man auch für 1280*720p brauchen, welche die HD Varianten haben.

sry 4 ot

http://www.anandtech.com/show/4900/samsung-talks-about-32nm-15ghz-exynos-soc

Vom sampling eines SoC bis zur finalen Veroeffentlichung eines Geraets dauert es selten unter 6 Monaten und selbst dieses ist meistens optimistisch.

Bucklew
2011-10-15, 02:09:38
Oder die roadmap wurde wieder geaendert ;)
Jopp, soll ja auch beim iPhone so gewesen sein. Man sucht noch das iPhone 5 ;)

Och SA ging sogar so weit zu behaupten dass dank zu engen Kapazitaeten fuer Apple die Preise bei anderen erhoeht. Auschliessen will ich es noch nicht aber uebertrieben klingt es mir schon. Kann durchaus sein dass Apple zu TSMC geht ab 28nm aber dann wohl eher (und stets IMHO) mit dual sourcing.
Du erwähnst immer noch SA? Warum nicht direkt Bild.de?

Es auf Henne/Ei Basis zu philosophieren bringt nichts; auch Intel und NV haben einen Ausweg zu ihrer Zankerei gefunden. Ebenso Intel und AMD usw usw.
Einen Ausweg immer. Aber man beachte mal wer wann wie wo mehr Geld bezahlt hat ;)

Power/clock gating wurde umgekrempelt fuer A5 afaik. Im Grund ist es ja eine Reduzierung der Frequenz, aber eben um die Abwaerme/Stromverbrauch besser kontrollieren zu koennen kam das iPhone spaeter als das iPad2 mit A5. Wird wohl auch so in der Zukunft sein. Sie werden wohl nicht einen nochmal riesigen SoC unter 32nm gleich am Anfang in ein smart-phone quetschen koennen.
Scheint schon echt Rocket Science zu sein, vorallem wo andere Hersteller den identischen Chip mit identischen Taktraten sowohl im Smartphone als auch im Tablet einsetzen.

Es bewegt sich noch viel mehr im embedded Markt. Der Einstieg von win8 in diesen wird auch ganz andere Messlatten setzen, ergo es liegen viel mehr Faktoren diesmal auf dem Laufband.
Hör mir doch mit Win8 auf. Außer der Möglichkeit Smartphonesapps auf dem großen Windows-Desktop laufne zu lassen wird sich doch mit Win8 genau gar nichts ändern im Vergleich zu Win7. Und so toll wie WP7 ankommt....no comment...

Von dem abgesehen koennen wir vielleicht den Thread on topic bringen? Plant Apple tatsaechlich anspruchsvollere SoCs selber zu entwickeln fuer die weniger vorhersehbare Zukunft (fuer ihr eigenes low end desktop/notebook) Zeug oder nicht?
Wenn SoC dann nur in Geräten ala MacBook Air. Dann taktet das Gerät nicht immer herunter bei CPU-Belastung ;)

Ailuros
2011-10-15, 22:38:37
Einen Ausweg immer. Aber man beachte mal wer wann wie wo mehr Geld bezahlt hat ;)

Sind offensichtlich nicht vergleichbare Faelle.


Scheint schon echt Rocket Science zu sein, vorallem wo andere Hersteller den identischen Chip mit identischen Taktraten sowohl im Smartphone als auch im Tablet einsetzen.

Welches heutige smartphone hat denn >120mm2 grosse SoCs? Aber wenn's schon sein muss erklaer mir mal warum T30 und AP30 einen solchen zeitlichen Unterschied hatten und ob die Anzahl der Einheiten zwischen den beiden bzw. Frequenzen immer identisch sein werden und warum genau.


Hör mir doch mit Win8 auf. Außer der Möglichkeit Smartphonesapps auf dem großen Windows-Desktop laufne zu lassen wird sich doch mit Win8 genau gar nichts ändern im Vergleich zu Win7. Und so toll wie WP7 ankommt....no comment...

Wenn's nach mir ginge wuerde die wintel Hegemonie gar nichts mit dem embedded Zeug zu tun haben. Fuer mich ist der embedded Markt vollkommen in Ordnung mit ARM CPU IP und open source APIs wie Android.

Da sich aber so viele grosse Spieler im embedded Markt in letzter Zeit auf win8 konzentrieren, kann nur heissen dass es doch am Ende von Relevanz fuer einige Verbraucher hat.

Wenn SoC dann nur in Geräten ala MacBook Air. Dann taktet das Gerät nicht immer herunter bei CPU-Belastung ;)

Selbst fuer zukuenftige Geraete wie die heutigen MacBook Air braeuchten sie um einiges potentere SoCs als die heutigen embedded SoCs. Ergo ist der Aufwand alles andere als klein fuer so ein hypothetisches Projekt und sie werden wohl auch eigen angepasste ARM CPU IP brauchen wie NV in Project Denver. Natuerlich aber stets nur fuer Apple's Eigenverbrauch.

Nightspider
2011-10-17, 00:27:40
Hör mir doch mit Win8 auf. Außer der Möglichkeit Smartphonesapps auf dem großen Windows-Desktop laufne zu lassen wird sich doch mit Win8 genau gar nichts ändern im Vergleich zu Win7. Und so toll wie WP7 ankommt....no comment...
)

Win 8 wird als echtes Windows auf Tablets und Co kommen, nicht als extra mobile Version wie WP7.
Somit wird man alle angepasste Software, die auf Win 8 auf dem Desktop läuft auch auf Tablets nutzen können. Die brauchen eben nur ARM support.

Zumindest ging ich bisher immer davon aus. Wenn ich was falsches erzählt habe dürft ihr mich knechten. ;)

Ailuros
2011-10-17, 13:31:54
http://www.fudzilla.com/notebooks/item/24487-apple-has-nothing-to-worry-about

Ailuros
2011-10-21, 17:10:23
http://www.xbitlabs.com/news/cpu/display/20111020154016_Apple_s_Chips_Will_Not_Rival_Intel_Even_Inside_MacBooks_Analysts. html

Ein paar sehr gute Punkte.

steve.it
2011-10-22, 10:50:26
Jon Stokes: Meet ARM’s Cortex A15: The Future of the iPad, and Possibly the Macbook Air (http://www.wired.com/cloudline/2011/10/meet-arms-cortex-a15-the-future-of-the-ipad-and-possibly-the-macbook-air/)

Off topic aber im Artikel steht auch folgendes:
"Years ago, I heard the back-story on Apple’s switch to Intel first-hand from some folks on the IBM side of things, and what I learned was that Steve Jobs agonized over this decision and waited until the morning of the keynote before pulling the trigger on this move. He actually went into that day with two keynote presentations prepared: one for a PowerPC-based product line, and one for The Switch. When he pulled out The Switch presentation, the IBM team was absolutely as stunned as the rest of the world, as was the P.A. Semi team who had been separately assured by Jobs that their dual-core PowerPC part would find its way into Apple portables."

Desti
2011-10-22, 16:22:20
Jon Stokes: Meet ARM’s Cortex A15: The Future of the iPad, and Possibly the Macbook Air (http://www.wired.com/cloudline/2011/10/meet-arms-cortex-a15-the-future-of-the-ipad-and-possibly-the-macbook-air/)

Off topic aber im Artikel steht auch folgendes:
"Years ago, I heard the back-story on Apple’s switch to Intel first-hand from some folks on the IBM side of things, and what I learned was that Steve Jobs agonized over this decision and waited until the morning of the keynote before pulling the trigger on this move. He actually went into that day with two keynote presentations prepared: one for a PowerPC-based product line, and one for The Switch. When he pulled out The Switch presentation, the IBM team was absolutely as stunned as the rest of the world, as was the P.A. Semi team who had been separately assured by Jobs that their dual-core PowerPC part would find its way into Apple portables."

Komischer Mythos, wieso sollte die Welte davon überrascht gewesen sein, wenn man es überall im Internet schon Tage vorher lesen konnte?

steve.it
2011-10-22, 18:24:16
Komischer Mythos, wieso sollte die Welte davon überrascht gewesen sein, wenn man es überall im Internet schon Tage vorher lesen konnte?
Weil das was du im Netz lesen konntest nur Gerüchte waren. Und Gerüchte gibt es bei Apple immer viele und nicht wenige davon sind bloß Gerüchte, die niemals wahr werden. Apple äußert sich normalerweise nicht.
Daher haben bis zur Bekanntgabe viele nicht wirklich daran geglaubt, dass Apple tatsächlich zu Intel wechselt.

Nightspider
2012-01-07, 16:19:49
http://www.computerbase.de/news/2012-01/hinweise-auf-quad-core-socs-in-ios-5.1/

http://hartware.net/news_53730.html

Knuddelbearli
2012-01-07, 23:29:05
nach wie vor nur minimal geänderte Samsung socs

steve.it
2012-01-07, 23:35:46
nach wie vor nur minimal geänderte Samsung socs
:facepalm:

Von welchem SoC bei Samsung soll denn der A5 abstammen? :ugly:

Knuddelbearli
2012-01-07, 23:39:35
lies dir mal den CB link durch ...

steve.it
2012-01-07, 23:48:10
lies dir mal den CB link durch ...
Und? Leere Spekulationen, wie sie es bei Apple fast täglich gibt.

"nach wie vor": Der A5 mit seinem PowerVR SGX543MP2 ist von Apple. AFAIK gibt es bisher keinen SoC von Samsung mit PowerVR SGX543MP2. Definitiv nicht zu dem Zeitpunkt, als der A5 bzw. das iPad 2 auf den Markt kam.

Knuddelbearli
2012-01-07, 23:49:40
genauso ist das 4 Kerne nach wie vor nur eine Spekulation, nur weills im aktuellen iOS so steht muss es nicht kommen.

Also Facepalm wen anderes ...

steve.it
2012-01-07, 23:50:42
genauso ist das 4 Kerne nach wie vor nur eine Spekulation, nur weills im aktuellen iOS so steht muss es nicht kommen.

Hat das wer behauptet, dass es klare Fakten sind?

Edit:
Zudem soll der Exynos von Samsung auf ARM Mali Grafik setzen. Eher unwahrscheinlich, dass Apple PowerVR den Rücken kehren wird.

Knuddelbearli
2012-01-08, 00:00:06
Hat das wer behauptet, dass es klare Fakten sind?

Edit:
Zudem soll der Exynos von Samsung auf ARM Mali Grafik setzen. Eher unwahrscheinlich, dass Apple PowerVR den Rücken kehren wird.


nö aber du quittierst eine Aussage aus dem Link ja mit Facepalm ...

Ailuros
2012-01-08, 11:06:09
genauso ist das 4 Kerne nach wie vor nur eine Spekulation, nur weills im aktuellen iOS so steht muss es nicht kommen.

Also Facepalm wen anderes ...

Tatsache ist dass Apple seit einiger Zeit ihre eigenen SoCs entwickelt und sie lediglich in Samsung's foundries herstellt. Ergo liegt Dein originaler Kommentar so oder so ausserhalb jeglicher Realitaet, welches ueberhaupt nichts mit der moeglichen Anzahl der CPU cores im naechsten Apple SoC zu tun hat.

Im ersten Fall sind es nachschlagbare Fakten ueber existierende SoCs (die nicht nur A5 sondern auch vorige Apple SoCs betreffen) und im zweiten tatsaechlich nur Spekulation.

Im Raum des durchaus moeglichen fuer Apple's naechsten SoC waere tatsaechlich ein 4+4 config fuer CPU und GPU cores. Natuerlich kann es sein dass Samsung einen SoC mit aehnlichem config veroeffentlicht (Teufel selbst das GalaxyS2 hat schon einen Mali400MP4 fuer die GPU), nur wenn es dann zu eigentlichen Leistungsvergleichen kommt wird es eher Aepfel zu Birnen, weil eben der MP4@260MHz im SGS2 nicht mal annaehernd an die MP2@250MHz Leistung im iPad2 rankommt.

Knuddelbearli
2012-01-08, 12:03:40
wie oft den noch ich habe nur einen Link kommentiert, also wenn dir der nicht gefällt geh bei CB meckern und verschone mich damit ...

AnarchX
2012-01-08, 12:32:05
Hinter vier Kernen könnte sich doch auch 2x15 + 2xA7 verbergen?

Knuddelbearli
2012-01-08, 12:36:49
ja, aber drann glauben würde ich da eher nicht. Wenn dann 3+1 aber da kenne ich mich mit ARM zu wenig aus

Nightspider
2012-01-08, 17:46:41
Hinter vier Kernen könnte sich doch auch 2x15 + 2xA7 verbergen?

Korrigiert mich, wenn ich falsch liege aber ich glaube mit ARM A15 Cores könnte man den Zeitplan nicht einhalten, der eindeutig Februar-März für das iPad3 vorsieht,

Ailuros
2012-01-09, 01:57:21
Korrigiert mich, wenn ich falsch liege aber ich glaube mit ARM A15 Cores könnte man den Zeitplan nicht einhalten, der eindeutig Februar-März für das iPad3 vorsieht,

Stimmt schon so. In dem Fall macht IMHO quad core A9 mehr Sinn bei einer noch staerkeren GPU wie beim A5.

wie oft den noch ich habe nur einen Link kommentiert, also wenn dir der nicht gefällt geh bei CB meckern und verschone mich damit ...

CB erwaehnt erstmal nur ein angebliches Geruecht das sowieso keinen Sinn macht wenn man weiss wo es langgeht. Apple hat in letzten Jahren ueberhaupt keinen Samsung oder "Samsung aehnlichen" SoC benutzt und Du hast mit Deinem Kommentar diesem nicht widersprochen sondern es klang eher dass Du es bestaetigen wolltest. Kein Wunder dass es dazu Versuche geben wird den Fehler zu korrigieren.

Sonst zurueck zum Thema und bitte so sachlich wie moeglich.

sth
2012-01-09, 09:19:10
Ailuros: Meinst du das Transistorenbudget würde Quad-Core A9 + SGX543MP4 erlauben?

Ailuros
2012-01-09, 10:35:40
Ailuros: Meinst du das Transistorenbudget würde Quad-Core A9 + SGX543MP4 erlauben?

Apple hat die area auf A5 auch nicht besonders interessiert. Unter 32nm ist jeglicher A9 core winzig. NV ging ohne Herstellungsprozess zu aendern (40nm) von Tegra2/49mm2, 2*A9@1GHz, GPU 8 ALU lanes@333MHz auf Tegra3/80mm2, 4*A9 (+1 "little" core)@1.5GHz, GPU 12 ALU lanes@520MHz und es wurde u.a. auch der video decoding block erweitert etc. und der Stromverbrauch in normalen Gebrauchsfaellen ist entweder gleich oder teilweise etwas geringer.

Theoretisch passen 4+4 schon rein und sogar hoehere Frequenzen. Bei theoretischer Vollauslastung aller Einheiten wird es eben auch den Stromverbrach beinflussen. PS Vita hat eine Batterie-Laufzeit irgendwo ueber 3 Stunden, der SoC wurde aber auch unter Samsung 45nm hergestellt.

Tiamat
2012-01-09, 10:50:57
Klingt aber schon realistisch. Das der Eagle 2012 verbaut wird, war klar. Und die Einträge in Apple´s Betriebssystemen waren schon immer Indizien auf neue Produkte, eigentlich seit eh und je.
Die Konkurrenz ist ja auch schon ziemlich weit, von daher kann ich mir das gut vorstellen:
http://www.heise.de/mobil/meldung/Samsung-Exynos-5250-Cortex-A15-SoC-mit-2-GHz-1387406.html
http://www.heise.de/ct/meldung/Handy-und-Tablet-CPU-mit-vier-Kernen-1184890.html

Steel
2012-01-09, 10:52:13
Falls die Gerüchte stimmen dann glaube ich, dass es sich um in interne Tests handelt, die eben keinen Aufschluss darüber geben, ob tatsächlich demnächst 4Core Prozessoren in den Geräten landen werden.
Wenn, dann würde es imo auch nur im iPad sinnvoll sein (Batterielaufzeit) und selbst da habe ich mich noch nie nach mehr Prozessor Power gesehnt.

Ailuros
2012-02-02, 17:02:59
http://www.dailytech.com/article.aspx?newsid=23912

Sehr viel Zweifel laesst das nicht mehr was ein quad core CPU fuer Apple's naechsten SoC betrifft. Geruechte nehmen auch zu dass es vielleicht doch eine Eigenentwicklung von ex-PA Semi team sein koennte; auf jeden Fall knappt das timing IMHO schon.

basti333
2012-02-02, 19:18:05
Interessant wie schwer es ist von Samsung wegzukommen. Das Problme hat Apple ja nicht nur bei den SoCs, sondern auch bei Flashspeicher und LCDs.

Ailuros
2012-02-02, 21:21:37
Interessant wie schwer es ist von Samsung wegzukommen. Das Problme hat Apple ja nicht nur bei den SoCs, sondern auch bei Flashspeicher und LCDs.

Keine Ahnung ob es stimmt oder nicht aber dailytech erwaehnt LG fuer den Bildschirm. Ausser dem eher laecherlichen juristischem Gewaerkel hat Apple sonst kein besonderes Problem mit Samsung. Das eine hat auch nichts unbedingt mit dem anderen zu tun.

Nightspider
2012-02-02, 21:56:38
Bin echt mal gespannt, ob Samsung zu der Leistung der Apple SoCs aufschließen wird.
Es wird ja auch schon heftig diskutiert über die neuen Samsung SoCs und dem Galaxy S3.

Weiß jemand etwas Genaueres, wann mit den ersten LTE Gen2.0 Chips zu rechnen ist, mit geringerem Energieverbrauch und wovon das abhängt?

Viele Gerüchte sprechen im Moment ja von LTE Support beim iPad 3 obwohl Apple ja bisher immer konservativ war, bei solchen Sachen.

Ailuros
2012-02-02, 22:02:43
Bin echt mal gespannt, ob Samsung zu der Leistung der Apple SoCs aufschließen wird.
Es wird ja auch schon heftig diskutiert über die neuen Samsung SoCs und dem Galaxy S3.

Weiß jemand etwas Genaueres, wann mit den ersten LTE Gen2.0 Chips zu rechnen ist, mit geringerem Energieverbrauch und wovon das abhängt?

Viele Gerüchte sprechen im Moment ja von LTE Support beim iPad 3 obwohl Apple ja bisher immer konservativ war, bei solchen Sachen.

Ein jeglicher quad A9 ist hoffnungslos verloren gegen eine hoch getakteten dual A15 wie im Exynos 5250.

http://forum.beyond3d.com/showpost.php?p=1617240&postcount=526

Was jetzt die GPU im 5250 betrifft am wahrscheinlichsten ist MaliT604, oder wenn sie wieder Probleme haben sollte irgend ein SGX544MPx. So oder so mehr als nur konkurrenzfaehig so wie es aussieht zu dem an dem Apple moeglicherweise arbeitet.

Nightspider
2012-02-02, 22:05:26
Den Exynos 5250 werden wir wohl auch erst gegen Ende 2012 sehen, vielleicht in einem Galaxy Note 2 o.ä.
Bin mal gespannt, wer als erstes ein ARM15 SoC ins Verkaufsregal bringt.

Ailuros
2012-02-02, 22:29:21
Den Exynos 5250 werden wir wohl auch erst gegen Ende 2012 sehen, vielleicht in einem Galaxy Note 2 o.ä.
Bin mal gespannt, wer als erstes ein ARM15 SoC ins Verkaufsregal bringt.

Κommt auf Samsung selber an, denn sampling fuer 5250 ist Q2. Sonst sehen wir A15/Eagle CPU IP wohl generell zum Ende des Jahres wenn nicht gleich Anfang 2013 sehen und Qualcomm's Krait um einiges frueher.

basti333
2012-02-02, 22:36:30
Keine Ahnung ob es stimmt oder nicht aber dailytech erwaehnt LG fuer den Bildschirm. Ausser dem eher laecherlichen juristischem Gewaerkel hat Apple sonst kein besonderes Problem mit Samsung. Das eine hat auch nichts unbedingt mit dem anderen zu tun.

Naja, Aus Apples sich ist Samsung ja ein risiengroßer Plagiator und den unterstützt man ja nur ungerne indem man sein Größter Kunde ist.

dildo4u
2012-02-02, 22:38:21
Den Exynos 5250 werden wir wohl auch erst gegen Ende 2012 sehen, vielleicht in einem Galaxy Note 2 o.ä.
Bin mal gespannt, wer als erstes ein ARM15 SoC ins Verkaufsregal bringt.
Exynos 5250 kommt ins GS3 deshalb wird es erst im Sommer vorgestellt und vermutlich im Herbst ausgeliefert.Samsung will sicherlich nicht mit einem A9 SOC gehen das iphone 5 antreten.

http://www.pcgameshardware.de/aid,866448/Samsung-Galaxy-S3-Vorstellung-womoeglich-erst-im-Juni-oder-Juli/Handy/News/

Nightspider
2012-02-02, 22:43:20
Ja ich kenne die News und Gerüchte aber ich ging bisher davon aus, das es der 5250 nicht ins G3 schafft.
Wenn Ailuros aber Recht hat Samsung in Q2 mit der Produktions beginnt, könnte es etwas werden.

Das wird ein einen richtig fetten Geschwindigkeitsschub geben.

Ailuros
2012-02-02, 23:00:02
Ja ich kenne die News und Gerüchte aber ich ging bisher davon aus, das es der 5250 nicht ins G3 schafft.
Wenn Ailuros aber Recht hat Samsung in Q2 mit der Produktions beginnt, könnte es etwas werden.

Das wird ein einen richtig fetten Geschwindigkeitsschub geben.

Samsung hat es selber angekuendigt; ich brauch nicht "recht" haben ;)

Naja, Aus Apples sich ist Samsung ja ein risiengroßer Plagiator und den unterstützt man ja nur ungerne indem man sein Größter Kunde ist.

Interessen sind bei grossen Firmen um zich Male wichtiger als irgendwelcher emotioneller Humbug auf den leider das Publikum viel zu oft reinfaellt. Und die Geschichte mit dem angeblichen "Plagiator" ueberlass ich lieber den jeweiligen Gerichten, als mich mir mit dem Humbug wieder Zeit und bytes zu verschwenden. Genauso laecherlich wie sich angeblich NV und AMD Angestellte "hassen". Komischerweise saufen sie trotz allem auch so manches Bierchen zusammen. Genau die gleiche Marionetten-show die auch Politiker teilweise abziehen.

LadyWhirlwind
2012-02-07, 00:56:09
Möglicherweise werden wir bald wissen, was Apple vorhat, es gibt Gerüchte über eine "Apple's Macroscalar Architecture".

http://www.patentlyapple.com/patently-apple/2012/02/apples-macroscalar-architecture-will-it-take-ios-to-the-next-level.html

Da Apple die Markenrechte für den Begriff in the USA beantragt hat, dürfte es erfahrungsgemäss nicht mehr lange dauern.

pixelguy
2012-02-07, 01:12:50
Was genau ist denn der Vorteil von 3D transistors?

novl
2012-02-07, 10:56:30
Was genau ist denn der Vorteil von 3D transistors?

Niedrigere Leckströme und höhere Packdichte der Transistoren, außerdem sollen sie schneller schalten können.

Ailuros
2012-02-07, 16:43:19
Möglicherweise werden wir bald wissen, was Apple vorhat, es gibt Gerüchte über eine "Apple's Macroscalar Architecture".

http://www.patentlyapple.com/patently-apple/2012/02/apples-macroscalar-architecture-will-it-take-ios-to-the-next-level.html

Da Apple die Markenrechte für den Begriff in the USA beantragt hat, dürfte es erfahrungsgemäss nicht mehr lange dauern.

http://forum.beyond3d.com/showpost.php?p=1618397&postcount=580

basti333
2012-02-07, 19:56:04
Interessen sind bei grossen Firmen um zich Male wichtiger als irgendwelcher emotioneller Humbug auf den leider das Publikum viel zu oft reinfaellt. Und die Geschichte mit dem angeblichen "Plagiator" ueberlass ich lieber den jeweiligen Gerichten, als mich mir mit dem Humbug wieder Zeit und bytes zu verschwenden. Genauso laecherlich wie sich angeblich NV und AMD Angestellte "hassen". Komischerweise saufen sie trotz allem auch so manches Bierchen zusammen. Genau die gleiche Marionetten-show die auch Politiker teilweise abziehen.


Es geht nicht nur um "emotionen", Samsung ist inzwischen Apples größter Konkurrent. Den möchte man wenn möglich nicht im geringsten unterstützen und genausowenig soll er über die Chipfertigung an Betriebsgeheimnisse kommen.

Ailuros
2012-02-07, 19:59:43
Es geht nicht nur um "emotionen", Samsung ist inzwischen Apples größter Konkurrent. Den möchte man wenn möglich nicht im geringsten unterstützen und genausowenig soll er über die Chipfertigung an Betriebsgeheimnisse kommen.

Und das soll ein akkurates Bild fuer die Meinung innerhalb Apple sein ja? Wenn ja hast Du nicht die blasseste Ahnung wie falsch Du liegen koenntest.

sth
2012-02-07, 20:10:31
Es geht nicht nur um "emotionen", Samsung ist inzwischen Apples größter Konkurrent. Den möchte man wenn möglich nicht im geringsten unterstützen und genausowenig soll er über die Chipfertigung an Betriebsgeheimnisse kommen.
Samsung hat gerade in Kooperation mit Apple für $3,6 Milliarden eine Chipfabrik in Texas hochgezogen (http://www.reuters.com/article/2011/12/16/us-apple-samsung-idUSTRE7BF0D420111216).

Megakonzerne wie Samsung darf man sich nicht einfach als eine geschlossene Einheit vorstellen. Das sind mehr oder weniger unabhängig agierende Geschäftszweige.

Ailuros
2012-02-07, 20:17:30
Kooperation wuerde ich es nicht bezeichnen; es ist aber wahr dass eines der treibenden Gruende fuer SAMSUNG die Texas foundry auf die Beine zu stellen die Versorgung u.a. von Apple's Herstellungs-Volumen war.

basti333
2012-02-07, 20:19:11
Samsung hat gerade in Kooperation mit Apple für $3,6 Milliarden eine Chipfabrik in Texas hochgezogen (http://www.reuters.com/article/2011/12/16/us-apple-samsung-idUSTRE7BF0D420111216).

Megakonzerne wie Samsung darf man sich nicht einfach als eine geschlossene Einheit vorstellen. Das sind mehr oder weniger unabhängig agierende Geschäftszweige.

Zur Fab: Nix genaues Weiß man nicht, erst recht nicht ob und wie weit Apple da Finanziell involviert ist. Man sollte auch keine Zusammenhänge treffen von wegen Apple = US Konzern und Samsungs neue Fab = In den USA. Egal wo die chips herkommen, sie müssen so oder so nach China zurück um verbaut zu werden.

Zu Samsung: Ich weiß das man sie sich nicht als einheit vorstellen darf, sonst wäre Apple schon lange kein Kunde mehr. Trotzdem ist und bleibt es ein Konzern und wenn Apple könnte, hätte man sich schon andere zulieferer gesucht. Aber offensichtlich konnte bisher niemand die Mengen/Preis/Qualität liefern die Apple braucht. Das wird auch deutlicher wenn man sieht das Apple bis dato nur Samsung als Auftragsfertiger nutzt, entgegen der sonst gefahrenen Doppel-Zuliefer Strategie, Apple hat keine wahl, weil niemand sonst liefern kann momentan.

Ailuros
2012-02-07, 20:23:20
"Koennen" ist relativ; es will einfach keine grosse foundry so etwas unterschreiben weil sie automatisch zich andere Kunden vernachteiligen wuerden, wie es Samsung so oder so schon selber auf ihrem eigenen Fell gesehen hat (hallo TI ist rueber zu UMC u.a.) und Samsung's eigene SoCs kommen auch nicht gerade in Uebermengen auf die Strasse sonst wuerden sie auch nicht rechts und links SoCs von NVIDIA, Qualcomm und TI dazukaufen.

basti333
2012-02-07, 20:35:51
Najo, in anderen bereichen hat Apple auch einen zuliefer für 90% der aufträge, während ein zweiter nur 10% bekommt. Bei der Auftragsfertigung ist ja noch nichtmal das der fall. Scheinbar können die anderen die gewünschte fertigungsgröße nicht anbieten und wenn doch nur zu höheren preisen. Gerüchte gab es ja schon etliche das Apple bei TSMC anschleicht.

sth
2012-02-19, 20:28:12
http://www.macrumors.com/2012/02/19/photo-of-ipad-3-logic-board-with-a5x-system-on-a-chip/

pixelguy
2012-02-20, 00:33:27
Viel sagt das Bild aber nun nicht aus. Ein neuer Prozessor war ohnehin erwartet worden. Wie er am Ende heißen wir ist ja eigentlich völlig egal.

Vllt. will Apple aus Marketing-Gründen noch keinen A6 vorstellen um das iPhone 4S nicht "abzuwerten".

sth
2012-02-20, 02:29:45
Viel sagt das Bild nicht aus, aber zwei Dinge fallen auf:

- Der Name legt nahe, dass der Chip keine grundlegend neue Architektur haben wird
- Bisher hatte kein iDevice SoC einen Heatspreader

Ob das Bild nun echt und/oder das gezeigte wirklich final ist steht natürlich völlig offen.

Am 07.03. wissen wir mehr.


Vllt. will Apple aus Marketing-Gründen noch keinen A6 vorstellen um das iPhone 4S nicht "abzuwerten".
Sowas hat sie zumindest bisher wenig gejuckt. Das iPad 2 hat den A5 auch ein halbes Jahr vor dem iPhone bekommen. iPod Touch und AppleTV werden sogar noch mit A4 verkauft (und sind noch dazu nicht einmal FullHD-fähig) und laufen trotzdem wie geschnitten Brot.

Nightspider
2012-02-20, 04:15:18
Das A5X könnte auch dafür stehen, das bestimmte Teile des SoCs mehrfach vorhanden sind.
Das iPad Retina Display, welches quasi schon bestätigt ist, verlangt schließlich auch die vierfache Power beim Rendering. Die Architektur wird sich ja nicht ändern, da passt der Name schon, wenn auch weniger marketingtechnisch.

Wichtiger als die CPU wäre deshalb beim aktuellen Upgrade die GPU. Mit anderen Worten müsste die Leistung des Grafikteils prozentual stärker steigen als der CPU Teil. Ich würde 3 ARM Kerne und 6 Grafikkerne als sinnvoll erachten.

Zumindest sollte sich das iPad3 nicht langsamer anfühlen als der Vorgänger, was schwierig ist. Beim iPhone4 war es ja glaube ich auch der Fall, das es sich langsamer anfühlte als das 3GS.

sth
2012-02-20, 11:55:00
Ich wäre ja immernoch für einen Quad Cortex A9 + PowerVR SGX543MP4 + 1GB RAM, also praktisch ein "verdoppelter" A5 (in 28 oder 32nm).
Am besten noch mit höherem GPU-Takt (immerhin müssen ja 4x so viele Pixel gepusht werden).

Aber das ist nur Entwickler-Wunschdenken. :D

iFanatiker
2012-02-20, 12:33:51
Ich würde auf einen A5 mit verdoppelter Grafikhardware(MP4), 1 GB Ram (plus mehr Bandbreite) und erhöhter Max. Taktrate der CPU (1,2 GHz) meine zwei Dollar setzen.

sth
2012-02-20, 12:34:53
Ich würde auf einen A5 mit verdoppelter Grafikhardware(MP4), 1 GB Ram (plus mehr Bandbreite) und erhöhter Max. Taktrate der CPU (1,2 GHz) meine zwei Dollar setzen.
Das halte ich auch für das Wahrscheinlichste.

robbitop
2012-02-20, 13:24:31
Das wäre angesichts dessen, dass A15 Hardware in kürzerer Zeit erscheint absolut fail.
Ein A15 wird einen A9 in Grund und Boden stampfen. Hoffentlich ist der A5X wenigstens bereits in 28 nm und mit deutlich höheren Taktraten versehen...

basti333
2012-02-20, 17:35:45
Vielleicht ist auf dem Bild noch ein prototyp zu sehen und zur zeit des zusammenbauens war der A6 noch nicht verfügbar. Abwarten.

iFanatiker
2012-02-20, 17:46:07
Das wäre angesichts dessen, dass A15 Hardware in kürzerer Zeit erscheint absolut fail.

Eine Sache sind A15 SoCs in homöopathischen Dosen und was anderes ein RampUp in der Größenordung für den iPad3 Start. Ich bezweifele sehr stark, dass irgendeine Foundary in Dezember/Janura A15 SoC in entsprechender Stückzahl zu den benötigt kleinen Stückkosten fertigen kann bzw. dies Apple letztes Jahr zusagen konnte.

Daneben: die beste Hardware nützt nichts ohne entsprechende Software. Selbst wenn das iPad3 soviel CPU Leistung bringt wird keiner sie ausnutzen weil alle Entwickler natürlich auch das iPad1/2 bedienen wollen und zusätzlich hätte Apple auch iOS5 auf die A15 Architektur vorbereiten müssen. Und auch als PR Sicht wäre es IMHO ein Fehlschuss. Wenn sie das iPad3 zu sehr mit neuen PR-Features aufblähen - was bleibt für das iPhone 5 und iPad 4? Das iPad3 hat schon das Retina Display als einen sehr starken PR Träger.

Es ist essentiel wichtiger genug GPU Dampf zu haben für Apple beim iPad3 als in dieses CPU Wettrennen mit den Androids einzusteigen.

Aber mal schauen.

Ich gehe von einen A6 zusammen mit dem iPhone 5 (dort vielleicht A15 mit weniger Takt und weniger GPU Bums usw. = unproblematischer bzgl. Thermik und Verbrauch bei wirtschaftlicher Fertigung) und iOS6. Dieses Jahr dürfte das iPhone quasi richtig "runderneuert" werden inklusive neuen Design.

pixelguy
2012-02-20, 18:04:10
sehe ich ganz genauso!

RLZ
2012-02-20, 18:20:19
Viel sagt das Bild aber nun nicht aus. Ein neuer Prozessor war ohnehin erwartet worden. Wie er am Ende heißen wir ist ja eigentlich völlig egal.
Jemand der es mal realistisch sieht. Der Name des Prozessors ist anders als erwartet. Mehr Infos kann man aus der Quelle nicht ablesen.

Ailuros
2012-02-20, 22:02:20
Das wäre angesichts dessen, dass A15 Hardware in kürzerer Zeit erscheint absolut fail.
Ein A15 wird einen A9 in Grund und Boden stampfen. Hoffentlich ist der A5X wenigstens bereits in 28 nm und mit deutlich höheren Taktraten versehen...

A15 kommt von Samsung, TI und co. genau wann in finalen Geraeten? Sei froh wenn Du Geraete mit OMAP5 noch dieses Jahr siehst und mit Samsung ditto. Es gibt generell yield Probleme mit 28nm bei =/>2GHz momentan selbst bei Qualcomm und deren quad Krait SoCs.

Qualcomm's dual Krait bei =/>1.5GHz werden nach nicht allzu langer Zeit in Geraeten auftauchen und auch dieser ist zwar kein A15 aber der Unterschied zu A9 bzw. Snapdragons ist schon da.

Sonst basiert Apple's jeglicher Erfolg im small form factor Bereich wohl nicht auf der hw. A5X ist afaik Samsung 32nm und da ein SoC wohl nicht nur aus einer CPU besteht, hast Du wohl eine wichtige Frage gleich danach vergessen.


Mit dual A9 waere theoretisch A5X in heavy 3D scenarios wohl ziemlich CPU limitiert, eben weil der GPU block nicht nur eine moderate Aenderung sein wird. Das dumme ist eben dass quad A9 vs. dual A9 eben NICHT bedeutet dass Takt fuer Takt sich die Leistung ploetzlich verdoppelt. Lastet man unter heutlichen Verhaeltnissen etwas mehr alle 4 A9 auf maximaler Frequenz voll aus, ist die Batterie so schnell leer bis man gerade noch zaehlen kann. Sonst wenn A15 zeitlich moegliche gewesen waere waere Apple wohl nicht so bloed gewesen und waere auf quad A9 geblieben. Die eigentlichen Implementierung vom quad core wird zwar interessant sein, aber Wunder erwarte ich um ehrlich zu sein keine. Wie dem auch sei die GPU skaliert skaliert mit jeglicher Steigerung der Anzahl von cores und oder Frequenz so wie man es erwarten wuerde.


Jemand der es mal realistisch sieht. Der Name des Prozessors ist anders als erwartet. Mehr Infos kann man aus der Quelle nicht ablesen.

Kann sein dass ich den naechsten SoC ab und zu mal als "A6" erwaehnt habe aber dann nur eher aus Gewohnheit weil es fast schon jeder auf dem Netz so nannte. Ich wusste zwar nicht wie der 32nm SoC heissen wird, aber ich war mir schon seit einiger Zeit sicher dass A6 unter 28nm geplant war.

RLZ
2012-02-20, 22:29:30
Sei froh wenn Du Geraete mit OMAP5 noch dieses Jahr siehst und mit Samsung ditto.
Samsung hat doch Serienfertigung Exynos 5250 in 32nm für Q2 angekündigt. Für iPad zu spät, aber für iPhone 5 und S3 wahrscheinlich rechtzeitig.

sth
2012-02-20, 22:49:02
Mit dual A9 waere theoretisch A5X in heavy 3D scenarios wohl ziemlich CPU limitiert, eben weil der GPU block nicht nur eine moderate Aenderung sein wird.
Um stärker CPU-limitiert als das iPad 2 zu sein müsste die GPU (aufgrund des neuen Displays) ja mehr als die 4fache Fillrate des 542MP2 haben. In wiefern wäre das realistisch?

Wäre auch ein TripleCore A9 denkbar? Ich denke nicht, dass ein QuadCore auf iOS wirklich viel bringen würde im Moment. Es ist zwar auf System-Level und auch API-seitig einiges an MultiCore-Optimierung da, aber ich bezweifle dass derzeit viele Anwendungen von 4 Cores wirklich profitieren würden.

Nightspider
2012-02-20, 23:51:12
Eine Frage ist ja auch, ob wir in Zukunft auch echtes Multitasking auf iOs Geräten sehen werden. Das die geöffneten Apps immer wieder neu starten/laden müssen kotzt mich jedenfalls täglich auf dem iPad1 an.

@Ailuros: Was vermutest du denn im A5X, was ist dein Tipp?

sth
2012-02-20, 23:59:06
Eine Frage ist ja auch, ob wir in Zukunft auch echtes Multitasking auf iOs Geräten sehen werden. Das die geöffneten Apps immer wieder neu starten/laden müssen kotzt mich jedenfalls täglich auf dem iPad1 an.
"Richtiges" Multitasking in absehbarer Zeit nicht. Die Apps werden im Hintergrund weiter suspended (ausgenommen spezielle Features, z.B. Audiowiedergabe). Das ist keine technische Limitierung sondern eine gezielte Designentscheidung zugunsten der Akkulaufzeit.

Was du beschreibst ist aber etwas anderes: Wenn der Arbeitsspeicher voll ist werden die suspended Apps automatisch terminiert, da iOS keinen Swap hat. Das ist übrigens auch der Grund weshalb das manuelle Terminieren von Hintergrund-Apps in iOS nicht nötig ist.

Das ist bei den Geräten mit 512mb aber schon deutlich besser und wird - sofern das nächste iPad wieder ein RAM-Upgrade erfährt - nochmals um einiges besser werden.

Nightspider
2012-02-21, 00:31:22
So lange, wie ich schon dauernd bei wenigen Apps warten muss habe ich das Gefühl als wenn der Inhalt beim Wechsel fast immer terminiert wird,mauf meinem iPad1.
Wieviel MB RAM braucht denn das iOS5?

Auch mein Kumpel, der iPad 2 und iPhone 4S kennt, meinte das mein iPad1 bei einigen Animationen ruckeln würde.
Dass das iPad 1 mit neustem OS immer noch so läuft wie früher ist schlicht gelogen. Ich hoffe, dass sich das iPad 3 trotz höherer Auflösung flüssiger anfühlt, da das iOs auch mit jeder neuen Version mehr Leistung braucht und ich kein Bock darauf habe, das mein ipad 3 nach einem Jahr wieder ruckelt, falls ich mir eins kaufe.

sth
2012-02-21, 00:59:30
So lange, wie ich schon dauernd bei wenigen Apps warten muss habe ich das Gefühl als wenn der Inhalt beim Wechsel fast immer terminiert wird,mauf meinem iPad1.
Wieviel MB RAM braucht denn das iOS5?
Ca. 100MB

Auch mein Kumpel, der iPad 2 und iPhone 4S kennt, meinte das mein iPad1 bei einigen Animationen ruckeln würde.
Dass das iPad 1 mit neustem OS immer noch so läuft wie früher ist schlicht gelogen.
Ja, iOS 5.0 hat einige sehr unschöne Macken die Apple dringend ausbessern muss, nicht nur auf den alten Geräten. Meiner Meinung nach hätte man zwischendurch mindestens noch ein Minor-Update nachschieben sollen anstatt die Leute bis 5.1 hinzuhalten (welches das Feature-Update für das nächste iPad sein wird und somit wahrscheinlich für jeden gefixten Bug wieder einen Neuen bereithält). Gleiche Situation bei Lion. Selbst 10.7.3 ist noch lange nicht so stabil wie Snow Leopard es war und trotzdem steht für den Sommer schon der Nachfolger in den Startlöchern.

Apple muss wieder mehr auf Stabilität fokussieren. Die .0.0-Releases waren zwar schon immer nur was für Early Adopters, aber üblicherweise waren die meisten Sachen spätestens nach dem ersten oder zweiten Update sehr stabil. In den letzten Jahren ist das leider immer seltener der Fall.

</offtopic>

robbitop
2012-02-21, 08:49:23
Eine Sache sind A15 SoCs in homöopathischen Dosen und was anderes ein RampUp in der Größenordung für den iPad3 Start. Ich bezweifele sehr stark, dass irgendeine Foundary in Dezember/Janura A15 SoC in entsprechender Stückzahl zu den benötigt kleinen Stückkosten fertigen kann bzw. dies Apple letztes Jahr zusagen konnte.

Naja - dann hätte man den Launch ein paar Monate nach hinten verschoben.


Daneben: die beste Hardware nützt nichts ohne entsprechende Software. Selbst wenn das iPad3 soviel CPU Leistung bringt wird keiner sie ausnutzen weil alle Entwickler natürlich auch das iPad1/2 bedienen wollen und zusätzlich hätte Apple auch iOS5 auf die A15 Architektur vorbereiten müssen.
Was hätte man da vorbereiten müssen? Es ist das gleiche Instructionset. Die CPU ist einfach nur viel schneller. Und das hätte sich in Kernanwendungen, wie bspw. Safari, ausgezahlt. Wenn ich bedenke, wie arschlangsam heutige Tablets beim Browsen ggü. einem anständigem Laptop sind... dann muss noch einiges an CPU Leistung her.
Selbst mein MBA2010 ist massiv schneller bei den Ladezeiten als ein iPad2.


Und auch als PR Sicht wäre es IMHO ein Fehlschuss. Wenn sie das iPad3 zu sehr mit neuen PR-Features aufblähen - was bleibt für das iPhone 5 und iPad 4?
Hu? iPad und iPhone des gleichen Jahres, haben den gleichen SoC. Das war schon immer so. Das iPhone 5 bekommt natürlich den gleichen SoC wie das iPad 3.

iPad 4 und iPhone 6 wären 2013 - also noch weit in der Zukunft. Da braucht man nichts aufsparen.


Es ist essentiel wichtiger genug GPU Dampf zu haben für Apple beim iPad3 als in dieses CPU Wettrennen mit den Androids einzusteigen.
Ist es das? Die meisten Anwendungen sind nicht wirklich hungrig nach 3D-Leistung. Aber ja: wenn man Spiele in 4x Auflösung darstellen möchte - dann braucht man die 3D-Leistung.

Ich würde CPU Leistung aber nicht unterbewerten. Gerade der Browser ist das was als erstes begutachtet und getestet und gemessen wird. Und dort ist CPU Leistung essenziell.
Hoffentlich haben sie wenigstens massiv an der Taktschraube gedreht.
CPU Leistung zahlt sich sofort in Usability aus. Zumindest solange sie limitiert - und das tut sie m.E. oft, sofern man im schnellen WLAN ist.


Ich gehe von einen A6 zusammen mit dem iPhone 5 (dort vielleicht A15 mit weniger Takt und weniger GPU Bums usw. = unproblematischer bzgl. Thermik und Verbrauch bei wirtschaftlicher Fertigung) und iOS6. Dieses Jahr dürfte das iPhone quasi richtig "runderneuert" werden inklusive neuen Design.
Siehe oben - iPad 3 und iPhone 5 haben ziemlich sicher den gleichen SoC.
Weil es immer so war. Und weil es Sinn ergibt (Synergie mit allen Applegeräten, die einen SoC haben - weniger Validierungs und Designaufwand, mehr Zeit, den SoC in der TDP ins iPhone zu pressen, mehr Stückzahl also mehr Rabatt)

Wenn es im iPad 3 keinen A15 gibt - wird es mit ziemlicher Sicherheit erst im iPad 4 den A15 geben.

robbitop
2012-02-21, 10:09:27
@Ail

http://www.anandtech.com/show/5559/qualcomm-snapdragon-s4-krait-performance-preview-msm8960-adreno-225-benchmarks/2

Soviel zum Performance-Level von Krait. Sobald die CPU gefragt ist - und keine anderen Flaschenhälse da sind - rammt das Ding die A9 (wie erwartet) ungespitzt in den Boden.
Da A15 recht ähnlich wie Krait aufgebaut ist, erwarte ich eine vergleichbare IPC.

Und lauffähig sind die Dinger offenbar auch. Bis zur Massenauslieferung von Krait dauert es sicher nicht mehr lange.

Eine CPU von diesem Kaliber gehört IMO in ein aktuelles Tablet.

fondness
2012-02-21, 10:28:57
Eine CPU von diesem Kaliber gehört IMO in ein aktuelles Tablet.

Und wer genau soll eine solche CPU liefert? Außer Qualcomm ist ohnehin niemand in der Lage ein solches Eigendesign aus dem Boden zu stampfen, alle anderen warten auf den A15 von ARM. Im übrigen wird Krait in 28nm bei TSMC hergestellt, wo die Kapazitäten wohl noch für längere Zeit knapp sein werden was man so hört.

Henroldus
2012-02-21, 10:33:01
Im übrigen wird Krait in 28nm bei TSMC hergestellt, wo die Kapazitäten wohl noch für längere Zeit knapp sein werden was man so hört.
Nun, diese SOCs sind aber winzig(gibts hier eigentlich Zahlen?) im Vergleich zu den >300mm^2 Grafikchips in 28nm.
Insofern passen da einige mehr auf einen Wafer.

robbitop
2012-02-21, 13:12:04
Eben. SoCs sind winzig vom Flächenbedarf. Das ist ne Sache von ein paar Monaten. 2012 werden wir definitiv in den High End Tablets A15 und Krait sehen.

LadyWhirlwind
2012-02-21, 15:27:58
Sicher, aber auch von Apple? Schliesslich verbaut Apple ja den gleichen Soc in allen neuen iPads und dann auch im nächsten Iphone. Vom nächsten SoC wird Apple dieses Jahr wohl zwischen 80-100 Millionen Stück benötigen. Das ist dann doch ne ganze Menge.

Was mich aber mehr wundert ist der Heatspreader, deutet das nicht auf eine hohe Wärmeentwicklung und einen hohen Stromverbrauch hin?

Ailuros
2012-02-21, 17:43:37
@Ail

http://www.anandtech.com/show/5559/qualcomm-snapdragon-s4-krait-performance-preview-msm8960-adreno-225-benchmarks/2

Soviel zum Performance-Level von Krait. Sobald die CPU gefragt ist - und keine anderen Flaschenhälse da sind - rammt das Ding die A9 (wie erwartet) ungespitzt in den Boden.
Da A15 recht ähnlich wie Krait aufgebaut ist, erwarte ich eine vergleichbare IPC.

Und lauffähig sind die Dinger offenbar auch. Bis zur Massenauslieferung von Krait dauert es sicher nicht mehr lange.

Eine CPU von diesem Kaliber gehört IMO in ein aktuelles Tablet.

Hab ich etwas anderes behauptet? Krait ist ein Qualcomm custom design. Apple wird schon irgendwann mit custom designs ankommen die Frage ist nur wann. Sonst hatte Apple nicht genug Zeit einen A15 zu implementieren und erst wenn Du die ersten A15 powered Geraete auf Regalen sehen wirst, kannst Du mich nochmal daran erinnern. Falls es Geraete mit OMAP5 noch dieses Jahr geben wird dann werden es extrem wenig sein und besonders besser sieht es fuer Samsung auch nicht aus.

Ergo erklaer mir erstmal WANN die ersten A15 wirklich erscheinen werden bevor wir uns weiter hier im Kreis drehen. Falls Apple im Fruehling 2013 mit A15+Rogue ankommen sollte sieht es dann wie fuer OMAP5 bzw. Exynos5250 genau aus? Und nein wissen kann ich es nicht, aber wenn Apple wirklich logisch denkt kann es nicht anders aussehen.

Und wer genau soll eine solche CPU liefert? Außer Qualcomm ist ohnehin niemand in der Lage ein solches Eigendesign aus dem Boden zu stampfen, alle anderen warten auf den A15 von ARM. Im übrigen wird Krait in 28nm bei TSMC hergestellt, wo die Kapazitäten wohl noch für längere Zeit knapp sein werden was man so hört.

MSM8960 hat einen dual Krait@1.5GHz unter TSMC 28LP. Yield Probleme hat Qualcomm lediglich mit 28LP und CPU Frequenzen =/>2.0GHz und quad core Kraits unter TSMC 28HPM. Keiner der beiden letzten waren je fuer 2012 geplant sondern eher 2013.

Eben. SoCs sind winzig vom Flächenbedarf. Das ist ne Sache von ein paar Monaten. 2012 werden wir definitiv in den High End Tablets A15 und Krait sehen.

Dual Krait bis zu 1.7GHz mit Sicherheit (obwohl Qualcomm hauptsaechlich smartphone SoCs tonnenweise verkauft), fuer A15 siehe weiter oben. Von welchem Semi sollen denn die A15 SoCs massenweise schon auf dem Laufband fuer 2012 genau liegen?

steve.it
2012-02-23, 21:02:45
Und wer genau soll eine solche CPU liefert? Außer Qualcomm ist ohnehin niemand in der Lage ein solches Eigendesign aus dem Boden zu stampfen
Ähm Apple... ?
Zumindest wenn das stimmt, was ich mal gehört habe von jemanden in der Gegend dort, hat Apple evtl. sogar mittlerweile mit die besten Leute in dem Bereich.

Ailuros
2012-02-23, 21:05:38
Ähm Apple... ?
Zumindest wenn das stimmt, was ich mal gehört habe von jemanden in der Gegend dort, hat Apple evtl. sogar mittlerweile mit die besten Leute in dem Bereich.

Die Frage ist diesbezueglich nicht "ob" sondern eigentlich "wann".

pixelguy
2012-02-27, 11:41:51
Wie es aussieht, plant Apple mit einem A5X und einem A6: http://9to5mac.com/2012/02/26/apple-working-on-enhanced-a5-chip-a5x-and-completely-new-chip-a6/

robbitop
2012-02-27, 13:30:32
Das wäre sehr sonderbar. So müsste man 2 SoCs entwickeln, fertigen lassen, lagern und vertreiben. Das kostet mehr und es gibt weniger Stückzahlrabatt. Ich weiß nicht, ob das so glaubwürdig ist.
Oder aber der A5x ist eine alte umgelabelte günstige Klamotte...

Nightspider
2012-02-27, 14:27:32
Dann kommt der A5X als höher getaktete A5 Verision in das kleine iPad 3 mit 7-8" und alter Auflösung und der A6 kommt in das große iPad 3 mit Retina Display.
Für eine höhere Taktrate würde auch das Hitzeschild auf dem A5X sprechen.

LadyWhirlwind
2012-02-27, 14:33:22
Der A5X könnte ja eine überarbeitete 28nm Variante des A5 sein, mit leicht höherem Takt für und besserer Grafik für den AppleTV (ohne APP Support!). Eventuell dann auch in Zukunft im iPad 2 und iPhone 4S nachdem die jeweiligen Nachfolgemodelle erschienen sind.

iFanatiker
2012-02-27, 14:44:09
Und lauffähig sind die Dinger offenbar auch. Bis zur Massenauslieferung von Krait dauert es sicher nicht mehr lange

Weist du eigentlich wie lange die OMAP4 SoC "fertig" in Form von fertigen Silizium waren und wann TI endlich auch Stückzahlen liefern konnten? Oder auch Samsung mit seinen ganzen SoCs. :biggrin::biggrin:

Wenn ich mich so umhöre gibt es A15 SoCs in größerer Stückzahl zu vernünftigen Preisen erst in Richtung Ende 2012 zu haben.

Und zu OS Anpassungen:

Wir sprechen hier über Apple. Apple klatsch kein Hardware-Update aus reinen Selbstzweck rein bei einen so grossen Update wie dem iPad3. Die Cortex-M4 Co-Worker brauchen z. B. auch softwareseitige Anpassungen usw. Soweit mir bekannt ist A15 nicht mehr binärkompatibel zu A9 und die Frage ist wie gut optimiert die Compiler sind und wieviel Handarbeit angesagt ist um das OS auf A15 Architektur anzupassen.

Klar, im Browser würde man die Geschwindigkeit auch heute sehen.

Wozu sollte Apple den iPad Start auf Oktober/November bewegen wenn kurze Zeit dannach eh iPad3+ anstehen würde. Macht produktpolitisch keinen Sinn wenn man keinen Paperlaunch macht in März.

Das wäre sehr sonderbar. So müsste man 2 SoCs entwickeln, fertigen lassen, lagern und vertreiben. Das kostet mehr und es gibt weniger Stückzahlrabatt. Ich weiß nicht, ob das so glaubwürdig ist.
Oder aber der A5x ist eine alte umgelabelte günstige Klamotte...

Sie haben ja jetzt schon zwei SoC in ihren aktuellen Produkten. Es macht durchaus Sinn einen sehr günstigen SoC für Produkte wie dem Touch, ATV oder das Einstiegs iPhone (das 4S wird ja auch mit dem Erscheinen des 5er weiter verkauft werden) zu haben

YfOrU
2012-02-27, 15:03:12
Sie haben ja jetzt schon zwei SoC in ihren aktuellen Produkten. Es macht durchaus Sinn einen sehr günstigen SoC für Produkte wie dem Touch, ATV oder das Einstiegs iPhone (das 4S wird ja auch mit dem Erscheinen des 5er weiter verkauft werden) zu haben

Eben und es braucht für jegliche neue Apple TV Variante zwingend einen SoC welcher mit der GPU Performance des iPad 3 halbwegs auf Augenhöhe ist. Ansonsten lässt sich das Produkt nicht neu platzieren (deutlich stärkere Fokussierung auf Gaming & Entertainment). Davon ist aber auszugehen.

Das spricht ziemlich eindeutig gegen einen einfachen A5 mit höheren Taktfrequenzen. Sieht also nach einem echten neuen SoC (A5X) mit deutlich stärkerer GPU für iPad und ATV aus.

Einen A6 wird es jetzt kaum geben denn dafür ist es eigentlich noch zu früh. Hier wären Volumen nötig die momentan kaum zu erreichen sind und deshalb ist dieser SoC wohl zuerst im nächsten iPhone zu finden (als Update dann im iPad Refresh).

robbitop
2012-02-27, 15:03:26
Weist du eigentlich wie lange die OMAP4 SoC "fertig" in Form von fertigen Silizium waren und wann TI endlich auch Stückzahlen liefern konnten? Oder auch Samsung mit seinen ganzen SoCs. :biggrin::biggrin:

Laut Anandtech erscheint bald das HTC One XL mit einem Krait SoC für den Massenmarkt.


Und zu OS Anpassungen:

Wir sprechen hier über Apple. Apple klatsch kein Hardware-Update aus reinen Selbstzweck rein bei einen so grossen Update wie dem iPad3. Die Cortex-M4 Co-Worker brauchen z. B. auch softwareseitige Anpassungen usw. Soweit mir bekannt ist A15 nicht mehr binärkompatibel zu A9 und die Frage ist wie gut optimiert die Compiler sind und wieviel Handarbeit angesagt ist um das OS auf A15 Architektur anzupassen.

Die entsprechenden Optimierungsguides und Samples gibt es aber sicher nicht erst seit gestern. Es sind beides ARM v7 CPUs. Wenn es nicht direkt läuft (was mich bei gleichem Instructionset und gleicher ISA wundern würde), dann ist es sicher kein großer Eingriff.

YfOrU
2012-02-27, 15:16:24
Laut Anandtech erscheint bald das HTC One XL mit einem Krait SoC für den Massenmarkt.

Schau dir die Stückzahlen in dem Segment (LTE) an und dann ist das unproblematisch.

Bei sehr vielen neuen Geräten (MWC) gibt es zur Einführung Varianten mit Tegra3/Omap4/Krait. Den Aufwand betreiben die wenigsten wenn mit ausreichender Versorgung zu rechnen ist denn Krait gibt es auch ohne LTE bzw. sogar als reinen APP ohne Baseband.

Da der SoC für iPad3 und ATV bereits seit mehreren Monaten in der Massenfertigung sein muss um zur Markteinführung halbwegs ausreichende Stückzahlen verfügbar zu haben halte ich einen A6 hier für unrealistisch.

lumines
2012-02-27, 15:29:39
Braucht ein Apple TV wirklich die Hardwarepower eines aktuellen iPads? Ich denke eher nicht. Apple hat bisher vermutlich nicht ohne Grund die Hardware des iPod Touchs und Apple TV stark vernachlässigt. Bei den jetzigen Geräten ist es ein alter A4, bei der nächsten Generation eben ein eigener, abgespeckter SoC auf Basis des A5.

Der Rest (iPhone, iPad) wird dann wie gehabt mit dem kommenden High-End-SoC (sprich: A6) versorgt.

sth
2012-02-27, 15:38:53
Wenn an der Sache mit den zwei zeitgleichen SoCs was dran ist, dann wird der A5X wohl im Großen und Ganzen nur ein Die-Shrink des A5 sein.

Da schon länger spekuliert wird, dass Apple das iPad 2 (vermutlich in nur einer festen Konfiguration) als Einstiegsmodell im Programm lassen wird, würde es Sinn machen wenn der A5X dort eingesetzt werden würde. So könnte Apple gleich noch ein paar Dollar an den Akkus sparen.

Ein 7-8" iPad halte ich dagegen für sehr unwahrscheinlich. Wie gesagt, ich denke eher, dass sie versuchen werden die Produktionskosten des iPad 2 so zu optimieren, dass sie es günstiger anbieten können.

Der A5X könnte dann theoretisch auch gleich in den nächsten iPod Touch und den nächsten AppleTV wandern.

YfOrU
2012-02-27, 15:40:35
Braucht ein Apple TV wirklich die Hardwarepower eines aktuellen iPads?

Der ATV braucht sogar noch mehr (GPU) Power als das aktuelle iPad. Ist eine ganz simple Kalkulation aufgrund der Auflösung des angeschlossenen Displays. Full HD ist heute absoluter Standard und das muss der ATV in Zukunft auch in 3D anstandslos schaffen.

Bei Apple ist man alles andere als auf den Kopf gefallen. Der Markt der portablen Spielekonsolen wird von Smartphones zunehmend vereinnahmt und der ATV läuft nun mal mit dem gleichen Betriebssystem und damit auch dem gleichen Ökosystem wie die portablen Geräte aus eigener Entwicklung.

Der Content kommt also ganz von selbst und Apple hat grundsätzlich immer vergleichsweise starke GPUs eingesetzt. Die Basis ist also bereits vorhanden. Im Casual Gaming und Entertainment Bereich ist auch stationär noch sehr viel Potential.

Eine Playstation Vita steckt die Wii sowas von in die Tasche ;) und die GPU Leistung des nächsten Apple SoCs wird im Vergleich nicht unendlich weit zurückliegen.

sth
2012-02-27, 15:44:39
Full HD ist heute absoluter Standard und das muss der ATV in Zukunft auch in 3D anstandslos schaffen.
Das ist wohl richtig, aber das Problem sehe ich hier eher beim Preis. Die Popularität des aktuellen AppleTV kommt zu einem nicht unerheblichen Teil durch den Preis von $99. Apple verzichtet ungern auf hohe Margen, daher beführchte ich dass sie - sollte es wirklich zwei neue SoCs geben - zum günstigeren greifen werden.

AnarchX
2012-02-27, 15:46:35
Taktet der A4 im aktuellen Apple-TV eigentlich höher, als in den iDevices?

Ob nun 500mW oder 2W spielt ja hier keine Rolle, wenn es der SoC mitmacht.

lumines
2012-02-27, 15:50:20
der ATV läuft nun mal mit dem gleichen Betriebssystem und damit auch dem gleichen Ökosystem wie die portablen Geräte aus eigener Entwicklung.

Es ist eben nicht das gleiche Ökosystem, solange man es nicht nur als Streaming Client für iPad und Co. benutzt. Sonst hätte Apple das UI anders aufgebaut und schon längst den normalen iOS App Store integriert. Haben sie aber nicht.

YfOrU
2012-02-27, 15:54:00
Das ist wohl richtig, aber das Problem sehe ich hier eher beim Preis. Die Popularität des aktuellen AppleTV kommt zu einem nicht unerheblichen Teil durch den Preis von $99. Apple verzichtet ungern auf hohe Margen, daher beführchte ich dass sie - sollte es wirklich zwei neue SoCs geben - zum günstigeren greifen werden.

Sicher. Einen A6 wird der auf absehbare Zeit nicht bekommen.

Taktet der A4 im aktuellen Apple-TV eigentlich höher, als in den iDevices?

Ob nun 500mW oder 2W spielt ja hier keine Rolle, wenn es der SoC mitmacht.

Ganz normal und wohl auch ohne ernsthafte Implementierung der Energiesparfunktionen. Spielt hier einfach keine Rolle.

Es ist eben nicht das gleiche Ökosystem, solange man es nicht nur als Streaming Client für iPad und Co. benutzt. Sonst hätte Apple das UI anders aufgebaut und schon längst den normalen iOS App Store integriert. Haben sie aber nicht.

Hat bisher auch wenig Sinn gemacht. Unter anderen aufgrund der verbauten Hardware im Zusammenspiel mit der nativen Auflösung der Fernseher.
Der einzige Grund das Apple diesen Schritt nicht machen bzw. auf später verschieben könnte wäre in einer Abgrenzung des ATV3 gegenüber eigenen Fernsehern zu finden. Alles andere spricht dafür.
Apple muss aufgrund der starken Konkurrenz (Amazon) dringend Möglichkeiten finden Kunden in niedrigeren Preissegmenten anzusprechen ohne sich dabei die Marge im gesamten Portfolio zu ruinieren. Der ATV3 würde sich als potentiell günstiges Zugangsgerät zum Ökosystem auf jeden Fall anbieten.

iFanatiker
2012-02-27, 16:02:56
Laut Anandtech erscheint bald das HTC One XL mit einem Krait SoC für den Massenmarkt.

Das HTC ONE XL kommt im zweiten Quartal exklusiv bei AT&T in "hömopatischen" Dosen (paar tausend Geräte - Erfahrungswerte von anderen LTE Sondermodellen in den USA). Für das Modell mit mehr Volumen setzt man weiterhin auf Tegras bei HTC (baugleiches Gerät, nur ohne LTE und Crait).

Ich spreche immer noch von Verfügbarkeit von Millionen pro Quartal von SoCs um einen RampUp wie bei Apples iPad3 zu ermöglichen.


Die entsprechenden Optimierungsguides und Samples gibt es aber sicher nicht erst seit gestern. Es sind beides ARM v7 CPUs. Wenn es nicht direkt läuft (was mich bei gleichem Instructionset und gleicher ISA wundern würde), dann ist es sicher kein großer Eingriff.

Natürlich läuft es "sofort". Mir ging es es mehr um die Optimierung für "Spezialitäten" der jeweiligen Architektur, wie eben die richtige Unterstützung der Coworker usw.

Nightspider
2012-02-27, 21:02:12
Bin mal gespant was Samsung dieses Jahr in ihren Smartphones und Tablets verbaut.
Aktuelle Gerüchte gehen ja davon aus, das Samsung im Galaxy S3 den Exynos 4412 verbaut:
http://www.hardwareluxx.de/index.php/news/consumer-electronics/handys/21611-samsung-galaxy-s-iii-geleakt.html

Was schätzt ihr, wieviel % schneller bzw. langsamer die Mali 604 GPZ im Exynos 4412 wäre?

Zumindest sollte beim Galaxy S3 eine GPU verbaut werden, die deutlich schneller ist, als die schon extrem mächtige GPU aus dem Apple A5, die schon 1 Jahr alt ist.

Übrigens dürfte das Jahr 2012 noch spannender werden, da noch mehr Firmen im SoCs Markt mitmischen wollen, wie Huawei, die einen eigenen SoC nur für sich produzieren, und da die ersten Tablets mit Full HD und mehr (womöglich gar bis 2560*1440) erscheinen und die ersten ARM A15 Cores den Weg in die Produkte finden.
Ebenfalls halte ich es für möglich, wie bereits von anderen erwähnt, das Apple nicht mehr den gleichen SoC für iPhone und iPad verbaut, da sich das iPad zukünftig mit einer deutlich höheren Auflösung abhebt. Gut möglich, dass das gezeigte Apple A5X SoC im kleinen iPad und im 6. iPhone verbaut wird, während das große iPad mit 2048*1536 mit dem Apple A6 daherkommt.
Ebenfalls könnte Samsung versuchen mit einem 11,6" Tablet mit Dual ARM15 und 2560*1536 zu kontern. Derartige Gerüchte sind ja auch schon seit längerem im Umlauf.

Eigentlich bräuchten wir einen extra Thread für Smartphone und Tablet SoCs. Der Thread hier war ja mehr für Apples Eigenentwicklungen gedacht. Allerdings wird hier im Forum leider kaum über die SoCs von Qualcoom, Krait, Samsung, Huawei und Co. disskutiert.

Edit:

Diese Meldung nährt Ebenfalls Gerüchte, das Apple 2 vers. SoCs produzieren lässt.

http://www.giga.de/tablets/ipad-3/news/ipad-3-sowohl-hinweise-fur-apple-a5x-als-auch-a6-chip-beta-von-ios-5-1/

robbitop
2012-02-28, 08:31:20
Das HTC ONE XL kommt im zweiten Quartal exklusiv bei AT&T in "hömopatischen" Dosen (paar tausend Geräte - Erfahrungswerte von anderen LTE Sondermodellen in den USA). Für das Modell mit mehr Volumen setzt man weiterhin auf Tegras bei HTC (baugleiches Gerät, nur ohne LTE und Crait).
http://www.fudzilla.com/home/item/26104-atts-htc-one-x-has-a-dual-core-soc-not-quad
Fudzilla spricht sogar davon, dass das HTC One X einen Krait hat und in 60 Tagen gelauncht wird.

Ich spreche immer noch von Verfügbarkeit von Millionen pro Quartal von SoCs um einen RampUp wie bei Apples iPad3 zu ermöglichen.
Für einen starren (und sturen) Launch im Q1 2012 hast du Recht. Im Sommer hingegen und mit Apples Marktmacht, den gesamten Markt für andere leer zu kaufen, hätte das ggf. klappen können.

Ich finde es halt einfach furchtbar, dass das iPad, was wieder 1 Jahr halten muss, mit einem zum Launch obsolten SoC ausgestattet wird.
Natürlich gibt es viele andere Argumente wie das Retina Display. Aber das werden dieses Jahr offenbar auch viele Konkurrenztablets haben.
Spätestens wenn Krait oder A15 im nächstbesten Android Tablet zum Einsatz kommen, sieht das iPad dann in den Kernanwendungen kein Land mehr. Gerade Krait / A15 sind sowas von viel schneller als die vorherige Generation. Dagegen waren die letzten Architektureinführungen nicht so wichtig.




Natürlich läuft es "sofort". Mir ging es es mehr um die Optimierung für "Spezialitäten" der jeweiligen Architektur, wie eben die richtige Unterstützung der Coworker usw.
Wie gesagt: dafür gibt es Engineering Samples schon Quartale vorher und davor Optimierungsguides.
Sorry - aber an soetwas wird es sicher nicht hängen.
Schließlich ändert man nicht die ISA oder das Instructionset (wie damals bei MacOS).

Braucht ein Apple TV wirklich die Hardwarepower eines aktuellen iPads? Ich denke eher nicht. Apple hat bisher vermutlich nicht ohne Grund die Hardware des iPod Touchs und Apple TV stark vernachlässigt. Bei den jetzigen Geräten ist es ein alter A4, bei der nächsten Generation eben ein eigener, abgespeckter SoC auf Basis des A5.

Der Rest (iPhone, iPad) wird dann wie gehabt mit dem kommenden High-End-SoC (sprich: A6) versorgt.
Nein ein ATV braucht diese nicht. Aber er braucht (eigentlich seit Bestehen veraltet!!) einen SoC, der 1080p, 3D, HDMI1.4 und die HD-Tonformate beherrscht. Und das kann der A4 leider nicht. :(
(und ja ich weiß, dass iTunes nicht mehr als 720p + DTS liefert ... aber es gibt ja zum Glück XBMC für ATV .... und ja ich weiß, dass das Apple egal ist...)

rt.

Edit:

Diese Meldung nährt Ebenfalls Gerüchte, das Apple 2 vers. SoCs produzieren lässt.

http://www.giga.de/tablets/ipad-3/news/ipad-3-sowohl-hinweise-fur-apple-a5x-als-auch-a6-chip-beta-von-ios-5-1/
Klar - und wenn noch 10 andere Trash-Tabloit-Seiten die News von 9-to-5-mac abschreiben, sind es weitere 10 Indizien? ;)
Bis dato nur eine News - und die ließt sich eher spekulativ.

Aber sein kann es natürlich.

iFanatiker
2012-02-28, 11:32:53
http://www.fudzilla.com/home/item/26104-atts-htc-one-x-has-a-dual-core-soc-not-quad
Fudzilla spricht sogar davon, dass das HTC One X einen Krait hat und in 60 Tagen gelauncht wird.

HTC One X hat einen Tegra 3 Quad Core(http://www.nvidia.de/object/tegra-htc-one-x-20120226-de.html). Das HTC ONE XL hat den Crait und kommt erstmal als LTE Variante in den USA bei AT&T irgendwann zu unbestimmer Zeit (angepeilt ist Q2/2012 in kleinenn Mengen). Irgendwann ohne LTE in Deutschland...vielleicht.

Übrigens: Dickster Gewinner bis jetzt in Barca bei den SoC Deals....nVidia. Kaum ein Volumen-Hersteller der nicht auf nVidia setzt.

Ich sage es dir nochmal gerne:

Eventuell kann ja Apple zaubern und wir werden überrascht. Aber A15 und auch Crait in wirklichen Stückzahlen nicht vor dem Q3/2012 und da Apple sein Ein-Jahres-Update-Zyklus aufrecht erhält wäre ja dies wieder quasi vor dem Release des iPad3+. Irgendwelche absoluten HighEnd Geräte von dennen keine 50.000 Stück abgesetzt werden sind eine andere Nummer einfach.

Der Android Tablet Markt ist in Bewegung durch Low-End und Mid-End Geräte und der High-End Android Markt ist zur Zeit verlorener Posten (unabhängig von der Leistung). Das Nexus Tab wird auch eher Low-End denn High-End.

Und mit 2048*1536 Displays wird Apple recht alleine sein auf den Tablet Markt.

Der Smartphone sieht dagegen anders aus. Vor allem durch die Subventionierung der Provider. Hier wäre ein wirklich "starkes" iPhone5 angebracht dieses Jahr. Deswegen ja meine Meinung, dass wir einen Dual Core A15 durchaus eben beim 5er sehen könnten (kann ja auch weniger GPU Power bringen und viel weniger Takt). Es macht, gerade ja wegen der ungeheuren Menge an SoC die Apple pro Quartal absetzt in den iOS Geräten (60 Millionen oder sowas) hier auch auf unterschiedliche Designs und Fertiger zu setzen.

Aber wir werden sehen. Vielleicht überrascht ja Apple alle mit dem iPad3.


Ich finde es halt einfach furchtbar, dass das iPad, was wieder 1 Jahr halten muss, mit einem zum Launch obsolten SoC ausgestattet wird.


Wieso obsolet? Hast du dir mal anschaut was für eine GPU IP in den lieferbaren Crait steckt? Qualcom hat sich den Vorsprung erkauft durch eine sehr schwache GPU IP im Vergleich zu der CPU Leistung. Bei nVidia ist mit dem Tegra2 die Sache erfolgreich ausgeganen (Tegra2/3 waren liefbar vor dem Wettbewerb und gerade die grossen Massen beim Tegra3 sind jetzt sehr gut verfügbar) ich bezweifele, dass diese Strategie nochmal greift. Intel versucht ja auch sowas anscheinen (also mal ehrlich ein SGX540 Ende 2012?).

Und bzgl. der Browser-Geschwindigkeit:

Browser sind immer noch so schrecklich "unoptimiert". Klar...man kann es auch durch Brute Force lösen....

Auf anandtech gibt es ja die Benchmarks vom MSM8960. Im realen Browser-Einsatz bleibt von der theoretischen Leistungssteigerung nicht mehr viel über. Klar....Vorserie usw. Aber genau dies meinte ich mit Optimierung usw.



Nein ein ATV braucht diese nicht. Aber er braucht (eigentlich seit Bestehen veraltet!!) einen SoC, der 1080p, 3D, HDMI1.4 und die HD-Tonformate beherrscht. Und das kann der A4 leider nicht. :(


Der A4 mit 800 MHz decodiert total problem los H.264 Material mit bis zu 20 MBit Datenrate. Kannst du auf einen iPhone4 problemlos testen: einfach eine Datei per TP-App auf das Geräten laden und nicht per iTunes syncen. Das fehlen dieser Features hat ehes was mit mangel von entsprechenden Content im iTunes Store zu tun als mit wirklichen technischen Problemen. Das ATV soll ja keine universale Setup Box sein sondern vor allem der Zugang zum iTunes Store und der dortige Content gibt die technischen Grenzen für das ATV vor. Wenn die Content-Inhaber Apple entsprechende Konditionen bei 3D Content usw. einräumen -> wird es dies auch geben.

Nur so als Anmerkung: vermutlich steckt schon im A4 sehr potente (und auch programmierbare) AV DSP von PowerVX. Apple gewährt nur keinen Zugang dazu über eine API.

Ailuros
2012-02-28, 18:21:38
Bin mal gespant was Samsung dieses Jahr in ihren Smartphones und Tablets verbaut.
Aktuelle Gerüchte gehen ja davon aus, das Samsung im Galaxy S3 de Exynos verbaut:
http://www.hardwareluxx.de/index.php/news/consumer-electronics/handys/21611-samsung-galaxy-s-iii-geleakt.html

Was schätzt ihr, wieviel % schneller bzw. langsamer die Mali 604 GPZ im Exynos 4412 wäre?

Zumindest sollte beim Galaxy S3 eine GPU verbaut werden, die deutlich schneller ist, als die schon extrem mächtige GPU aus dem Apple A5, die schon 1 Jahr alt ist.

Übrigens dürfte das Jahr 2012 noch spannender werden, da noch mehr Firmen im SoCs Markt mitmischen wollen, wie Huawei, die einen eigenen SoC nur für sich produzieren, und da die ersten Tablets mit Full HD und mehr (womöglich gar bis 2560*1440) erscheinen und die ersten ARM A15 Cores den Weg in die Produkte finden.
Ebenfalls halte ich es für möglich, wie bereits von anderen erwähnt, das Apple nicht mehr den gleichen SoC für iPhone und iPad verbaut, da sich das iPad zukünftig mit einer deutlich höheren Auflösung abhebt. Gut möglich, dass das gezeigte Apple A5X SoC im kleinen iPad und im 6. iPhone verbaut wird, während das große iPad mit 2048*1536 mit dem Apple A6 daherkommt.
Ebenfalls könnte Samsung versuchen mit einem 11,6" Tablet mit Dual ARM15 und 2560*1536 zu kontern. Derartige Gerüchte sind ja auch schon seit längerem im Umlauf.

Eigentlich bräuchten wir einen extra Thread für Smartphone und Tablet SoCs. Der Thread hier war ja mehr für Apples Eigenentwicklungen gedacht. Allerdings wird hier im Forum leider kaum über die SoCs von Qualcoom, Krait, Samsung, Huawei und Co. disskutiert.

Edit:

Diese Meldung nährt Ebenfalls Gerüchte, das Apple 2 vers. SoCs produzieren lässt.

http://www.giga.de/tablets/ipad-3/news/ipad-3-sowohl-hinweise-fur-apple-a5x-als-auch-a6-chip-beta-von-ios-5-1/

Dieses Jahr wirst Du von Samsung's 5250 wenig bis gar nichts sehen. In der Zwischenzeit wird man sich wohl seitens Samsung mit einem 32nm 1.5GHz CPU + 400MHz Mali400MP4 SoC zufriedenstellen muessen.

http://www.fudzilla.com/home/item/26105-samsung-galaxy-s-iii-hardware-specs-leaked

Uebrigens gibt es einen ganzen Thread ueber Qualcomm. Natuerlich koennte man fuer jeglichen SoC Hersteller einen getrennten thread aufmachen, aber dafuer wird die Liste dann auch ziemlich lang. Es spricht aber generell nichts darueber dass wenn jemand will relevante threads fuer einen Hersteller aufzumachen. Ich hab es etwas vereinfacht und die relevanten SoC threads auf SoC GPU bzw. GPU IP konzentriert, daher gibt es threads fuer ARM Mali, IMG PowerVR, Qualcomm, Vivante und Tegra.

Nightspider
2012-02-29, 02:20:48
Vom 5250 war ja bezüglich 2012 auch nicht die Rede. ^^

Wie ordnest du den Exynos 4412 mit mali 400MP4 hinsichtlich CPU und GPU Leistung ein, bezüglich iPad2, möglichem iPad3 usw.?

robbitop
2012-02-29, 08:28:35
Wieso obsolet? Hast du dir mal anschaut was für eine GPU IP in den lieferbaren Crait steckt? Qualcom hat sich den Vorsprung erkauft durch eine sehr schwache GPU IP im Vergleich zu der CPU Leistung. Bei nVidia ist mit dem Tegra2 die Sache erfolgreich ausgeganen (Tegra2/3 waren liefbar vor dem Wettbewerb und gerade die grossen Massen beim Tegra3 sind jetzt sehr gut verfügbar) ich bezweifele, dass diese Strategie nochmal greift. Intel versucht ja auch sowas anscheinen (also mal ehrlich ein SGX540 Ende 2012?).
Der Nachfolge SoC mit Adreno 320 steht schon vor der Tür. Und IMO CPU > GPU. Die Core Apps sind keine Spiele. Brauchen also kaum 3D Leistung.

Natürlich soll Apple kein Qualcomm Adreno verbauen - das wäre ein Rückschritt. Ich hätte aber erwartet, dass sie sämtliche 28 nm Ressourcen aufkaufen und mit ihrem mittlerweile großem und kompetentem ARM Team einen A15 SoC mit SGX5xx MPx aus dem Boden gestampft hätten.

Schade. Z.B könnte man wie Intel einen SGX544 2MP nutzen.


Und bzgl. der Browser-Geschwindigkeit:

Browser sind immer noch so schrecklich "unoptimiert". Klar...man kann es auch durch Brute Force lösen....

Auf anandtech gibt es ja die Benchmarks vom MSM8960. Im realen Browser-Einsatz bleibt von der theoretischen Leistungssteigerung nicht mehr viel über. Klar....Vorserie usw. Aber genau dies meinte ich mit Optimierung usw.
Wie kommst du darauf, dass die unoptimiert sind? Die CPUs in einem SoC ist gegenüber jeder kaufbaren PC CPU einfach nur schnarchlahm. Dafür läuft das recht gut.

Und schau mal bitte auf die Messung, in der der Browsercache noch da ist. Also offenbar limitiert ohne Browsercache bei ihm z.B. die Verbindung und verfälscht damit das Messergebnis.




Der A4 mit 800 MHz decodiert total problem los H.264 Material mit bis zu 20 MBit Datenrate. Kannst du auf einen iPhone4 problemlos testen: einfach eine Datei per TP-App auf das Geräten laden und nicht per iTunes syncen. Das fehlen dieser Features hat ehes was mit mangel von entsprechenden Content im iTunes Store zu tun als mit wirklichen technischen Problemen. Das ATV soll ja keine universale Setup Box sein sondern vor allem der Zugang zum iTunes Store und der dortige Content gibt die technischen Grenzen für das ATV vor. Wenn die Content-Inhaber Apple entsprechende Konditionen bei 3D Content usw. einräumen -> wird es dies auch geben.

Nur so als Anmerkung: vermutlich steckt schon im A4 sehr potente (und auch programmierbare) AV DSP von PowerVX. Apple gewährt nur keinen Zugang dazu über eine API.
20 MBit / s ist zu wenig für 1080p + 3D.
Interessanterweise wird 1080p Material dekodiert - aber immer auf 720p herunterskaliert.
DTS-HD und DD-HD habe ich bis dato noch nicht gesehen. Keine Ahnung, ob das vorgesehen ist oder nicht.

Die Jungs von ATV Flash und XBMC sind jedenfalls bei 720p und SD-Tonformaten und kommen nicht weiter...

Ailuros
2012-02-29, 17:36:26
Vom 5250 war ja bezüglich 2012 auch nicht die Rede. ^^

Wie ordnest du den Exynos 4412 mit mali 400MP4 hinsichtlich CPU und GPU Leistung ein, bezüglich iPad2, möglichem iPad3 usw.?

Mali400MP4@266MHz << SGX543MP2@250MHz
Der erste mit 400MHz ergo bis zu 50% mehr Leistung wird die iPad2 GPU endlich um etwas ueberholen koennen aber wohl nicht diese vom iPad3 http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9187623&postcount=722


Natürlich soll Apple kein Qualcomm Adreno verbauen - das wäre ein Rückschritt. Ich hätte aber erwartet, dass sie sämtliche 28 nm Ressourcen aufkaufen und mit ihrem mittlerweile großem und kompetentem ARM Team einen A15 SoC mit SGX5xx MPx aus dem Boden gestampft hätten.

Zum allerletzten Mal bis Du es endlich verstehst: A15 WAR NICHT FUER ANFANG 2012 MOEGLICH. Es wird auch keine A15 vor Ende 2012 in Produkten geben und selbst das ist immer noch fraglich.

Samsung hat ihre eigene foundries und es wird auch von ihnen keinen 5250 in sehenswerten Mengen wenn ueberhaupt fuer dieses Jahr geben. Oh Ueberraschung selbst Samsung kommt unter 32nm mit einem quad A9 an. Bullshit duftet nicht besser wenn man es X Mal wiederholt.

Der Nachfolge SoC mit Adreno 320 steht schon vor der Tür. Und IMO CPU > GPU. Die Core Apps sind keine Spiele. Brauchen also kaum 3D Leistung.

Fuer wie lange genau noch? http://www.anandtech.com/show/5607/the-portland-group-announces-opencl-compiler-for-stericsson-armbased-novathor-socs

|MatMan|
2012-02-29, 18:00:44
Fuer wie lange genau noch? http://www.anandtech.com/show/5607/the-portland-group-announces-opencl-compiler-for-stericsson-armbased-novathor-socs
Ironischerweise unterstützt du seine Ansicht CPU > GPU damit sogar noch, denn das da angekündigte OpenCL läuft erstmal nur auf den ARM CPU cores ;)

For the time being OpenCL execution will be limited to the ARM cores. We’d eventually expect support in some manner to broaden to GPU cores, but not until sometime in 2013 when ST-Ericsson’s PowerVR Series 6 based A9600 SoC ships.

Die Annahme seitens Anandtech zum GPU support ist schon ziemlich vage... Da ist wohl nVidia mit CUDA sogar schneller falls Tegra 4 mit CUDA Unterstützung Ende 2012 kommen sollte :tongue:

Ailuros
2012-02-29, 18:16:45
Ironischerweise unterstützt du seine Ansicht CPU > GPU damit sogar noch, denn das da angekündigte OpenCL läuft erstmal nur auf den ARM CPU cores ;)

Ich hab den Text des links durchgelesen und verstanden bevor ich darauf verlinkt habe.

Die Annahme seitens Anandtech zum GPU support ist schon ziemlich vage... Da ist wohl nVidia mit CUDA sogar schneller falls Tegra 4 mit CUDA Unterstützung Ende 2012 kommen sollte :tongue:

Mit Mali400 koennte selbst wenn das Portland group es wollte nichts besonderes anstellen da die PS ALUs auf F16 limitiert sind. OpenCL wird leider fuer GPUs zu einem groesserem headstart kommen je mehr USC ALUs in small form factor GPUs erscheinen. Wenn die sw Platform nichts mit OpenCL zu tun hat, dann ist es ziemlich wurscht ob die unterliegende GPU GPGPU faehig ist oder nicht. SGX cores sind schon OpenCL embedded zertifiziert, sagt aber nichts so lange ein Hersteller kein OpenCL benutzt. In der Zwischenzeit duerfte jeglicher GPGPU Fetzen der benutzt wird (wie z.B. image processing u.a.) einfach durch OGL_ES geschleusst werden.

Ironischerweise werden in absehbarer Zukunft GPU blocks weiterhin wachsen und die Anzahl der ALUs konstant weiterskalieren, waehrend es fuer small form factor SoCs eben nicht besonders euphorisch aussieht fuer mehr als quad CPU IP je nach Generation.

|MatMan|
2012-02-29, 19:06:25
Ich hab den Text des links durchgelesen und verstanden bevor ich darauf verlinkt habe.
Das dachte ich mir schon - sah nur nicht ganz so aus ;)

Generell finde ich es sehr gut OpenCL Unterstützung für ARM zu sehen, welche dann auch hoffentlich breit über die meisten Geräte/SoCs kommt, selbst wenn erstmal nur für CPUs. Man hätte zumindest für Entwickler schonmal ein Softwareframework was dann idealerweise in zukünftigen Anwendungen auch schon genutzt wird bis dann mal GPU Unterstützung kommt...

Ailuros
2012-02-29, 22:02:48
Das dachte ich mir schon - sah nur nicht ganz so aus ;)

Generell finde ich es sehr gut OpenCL Unterstützung für ARM zu sehen, welche dann auch hoffentlich breit über die meisten Geräte/SoCs kommt, selbst wenn erstmal nur für CPUs. Man hätte zumindest für Entwickler schonmal ein Softwareframework was dann idealerweise in zukünftigen Anwendungen auch schon genutzt wird bis dann mal GPU Unterstützung kommt...

OGL_ES3.0/Halti bzw. DX10/DX11 (je nach Platform) sind eben auch idealer fuer alles GPGPU. Fuers erste soll es nicht heissen dass es in irgend einer Art OpenCL ersetzen wird, ich schaetze lediglich dass 3.0 etwas flexibler sein koennte als 2.0 heute.

Komischerweise ist OpenCL quasi ein "Enkelkind" von einer originalen Apple Initiative die sie sich danach entschieden haben freizugeben. Das merkwuerdige an der Geschichte ist dass sich bei Apple diesbezueglich noch nichts sehenwertes bewegt, eher das Gegenteil.

robbitop
2012-03-01, 08:13:05
Fuer wie lange genau noch? http://www.anandtech.com/show/5607/the-portland-group-announces-opencl-compiler-for-stericsson-armbased-novathor-socs
Was meinst du damit? GPGPU? Ich hoffe, du meinst das nicht. Das funktioniert -obwohl seit Jahren vorhanden- im Desktopmarkt schon nicht. Bisher war alles was im Endkundenmarkt GPGPU war ziemlicher crap.
GPU Physik, GPU Encoding etc. Die meisten Anwendungen sind eh kaum zu parallelisieren. Und selbst was theoretisch etwas parallelisierbar ist, scheitert am Können der Entwickler. Nene - GPGPU ist für den Endkunden nur selten sinnvoll.
Für irgendwelche Simulationen, Cruncher ist das natürlich was anderes.
Ich sehe aber nicht, wo GPGPU einen Browser schneller machen könnte (die UI ist ja bei Apple seit iPhone 3D beschleunigt), oder das OS, oder oder oder...
Ein Kompiler allein löst gar nichts. Es ist nur ein weiteres Tool...

Ailuros
2012-03-01, 13:03:13
Was meinst du damit? GPGPU? Ich hoffe, du meinst das nicht. Das funktioniert -obwohl seit Jahren vorhanden- im Desktopmarkt schon nicht. Bisher war alles was im Endkundenmarkt GPGPU war ziemlicher crap.
GPU Physik, GPU Encoding etc. Die meisten Anwendungen sind eh kaum zu parallelisieren. Und selbst was theoretisch etwas parallelisierbar ist, scheitert am Können der Entwickler. Nene - GPGPU ist für den Endkunden nur selten sinnvoll.
Für irgendwelche Simulationen, Cruncher ist das natürlich was anderes.
Ich sehe aber nicht, wo GPGPU einen Browser schneller machen könnte (die UI ist ja bei Apple seit iPhone 3D beschleunigt), oder das OS, oder oder oder...
Ein Kompiler allein löst gar nichts. Es ist nur ein weiteres Tool...

Der Portland Compiler ist sowieso momentan nur fuer CPUs gedacht; GPU support kommt spaeter.

Da die Zukunft jeglicher Grafik sogar langfristig auch desktop in SoCs liegt, wuerde ich mir trotz allem an Deiner Stelle mir mal ueberdenken welche Aspekte in einem SoC sinnvoller skaliert werden koennen. Sw wird sich mit der Zeit graduell anpassen muessen zu der unterliegenden hw.

Dass die CPU "der" wichtigste Teil in einem heutigen small form factor SoC sein soll ist eben bullocks; es ist eben nicht nur iOS 3D beschleunigt, sondern auch Android seit Honeycomb und ueber win8 brauchen wir wohl nicht reden. Dreh mal alles auf die CPU wenn moeglich in so einer Umgebung und Du kannst Dich freuen wie schnell die Batterie schlapp machen wird.

Es geht hier offensichtlich um Apple's kommenden SoC design choices; A15 war fuer Q1 2012 nicht moeglich und der Rest ist lediglich theoretischer Humbug der nichts mit der eigentlichen Realitaet zu tun hat. Fuer Apple's naechsten SoC gab es wohl ein Dilemma zwischen dual A9@=/>1.5GHz und quad A9@=/>1.5GHz (so lange es keinen custom design ala Krait gibt und A15 zeitlich eben ausserhalb JEGLICHER Moeglichkeit liegt).

Zwei mehr A9 cores fuer quad core CPU verbrauchen weder sehr viel mehr Strom da die volle Auslastung aller 4 cores eher eine Seltenheit ist und der Unterschied in die area ist unter 32nm auch ziemlich laecherlich. Nutzen? Der SoC mit N% mehr Grafikleistung ist unter heavy 3D cases weniger CPU limitiert und falls es immer noch nicht klar genug sein sollte SGX543MP4.

Kein SoC Hersteller hatte je A15 SoCs fuer frueher als H2 2012 geplant und da 28LP mit =/>2.0GHz dafuer ultra-beschissen sind wird es eine 1 oder 2 Quartale grosse Verspaetung dafuer geben. Krait ist zwar kein A9 aber auch kein A15 ergo ein ganz anderes Tier.

Am idealsten waere natuerlich wenn PASemi@Apple schon jetzt einen custom design auftischen koennte und dabei waere es WURSCHT ob es wirklich dual-wasauchimmer ist so lange es eine Generation hoeher waere als A9. Der Zeitraum ist zwar knapp aber grenzwertig theoretisch schon moeglich wenn Apple mit einem custom design im Zeitraum angefangen hat mit dem ich schaetze.

Sonst kein custom design fuer Apple's 32nm SoC? Quad A9 waere die einzige logischere Option unter der heutigen Verfuegbarkeit.

robbitop
2012-03-01, 13:50:28
Der Portland Compiler ist sowieso momentan nur fuer CPUs gedacht; GPU support kommt spaeter.

Da die Zukunft jeglicher Grafik sogar langfristig auch desktop in SoCs liegt, wuerde ich mir trotz allem an Deiner Stelle mir mal ueberdenken welche Aspekte in einem SoC sinnvoller skaliert werden koennen. Sw wird sich mit der Zeit graduell anpassen muessen zu der unterliegenden hw.

Dass die CPU "der" wichtigste Teil in einem heutigen small form factor SoC sein soll ist eben bullocks; es ist eben nicht nur iOS 3D beschleunigt, sondern auch Android seit Honeycomb und ueber win8 brauchen wir wohl nicht reden. Dreh mal alles auf die CPU wenn moeglich in so einer Umgebung und Du kannst Dich freuen wie schnell die Batterie schlapp machen wird.
3D Beschleunigung ist ja standard. Das kann jede Furz-GPU gut genug. Mehr sehe ich nichtmal im PC Bereich - und der ist von der Entwicklung Jahre voraus.
Ok - für Spiele-Apps wäre eine starke GPU sinnvoll. Und Tablets werden ja viel zum Spielen genutzt. Vieleicht auch in Zukunft noch der AppleTV.
Aber außerhalb der reinen GUI-Beschleunigung und 3D-Beschleunigung sehe ich heute keinen bis kaum Einsatz für GPU Code im embedded Markt. Wie gesagt: nicht mal im PC Markt. Und der ist Jahre(!!) voraus.

Es geht hier offensichtlich um Apple's kommenden SoC design choices; A15 war fuer Q1 2012 nicht moeglich und der Rest ist lediglich theoretischer Humbug der nichts mit der eigentlichen Realitaet zu tun hat. Fuer Apple's naechsten SoC gab es wohl ein Dilemma zwischen dual A9@=/>1.5GHz und quad A9@=/>1.5GHz (so lange es keinen custom design ala Krait gibt und A15 zeitlich eben ausserhalb JEGLICHER Moeglichkeit liegt).

.....
Kein SoC Hersteller hatte je A15 SoCs fuer frueher als H2 2012 geplant und da 28LP mit =/>2.0GHz dafuer ultra-beschissen sind wird es eine 1 oder 2 Quartale grosse Verspaetung dafuer geben. Krait ist zwar kein A9 aber auch kein A15 ergo ein ganz anderes Tier.

Verstanden und akzeptiert. Trotzdem finde ich es persönlich schade. A9 ist halt Schnee von gestern. ;)




Am idealsten waere natuerlich wenn PASemi@Apple schon jetzt einen custom design auftischen koennte und dabei waere es WURSCHT ob es wirklich dual-wasauchimmer ist so lange es eine Generation hoeher waere als A9. Der Zeitraum ist zwar knapp aber grenzwertig theoretisch schon moeglich wenn Apple mit einem custom design im Zeitraum angefangen hat mit dem ich schaetze.
Meinst du, dass wir mittelfristig von Apple einen eigens entwickelten SoC mit eigenem CPU Core mit ARM Instruction Set (analog zu Qualcomm) sehen werden?
Es ist doch so viel einfacher ein fertiges (und gutes - und günstiges) Design von ARM zu lizensieren.

Ailuros
2012-03-01, 19:20:26
3D Beschleunigung ist ja standard. Das kann jede Furz-GPU gut genug. Mehr sehe ich nichtmal im PC Bereich - und der ist von der Entwicklung Jahre voraus.
Ok - für Spiele-Apps wäre eine starke GPU sinnvoll. Und Tablets werden ja viel zum Spielen genutzt. Vieleicht auch in Zukunft noch der AppleTV.
Aber außerhalb der reinen GUI-Beschleunigung und 3D-Beschleunigung sehe ich heute keinen bis kaum Einsatz für GPU Code im embedded Markt. Wie gesagt: nicht mal im PC Markt. Und der ist Jahre(!!) voraus.

Der Abstand zwischen desktop und small form factor was feature sets betrifft ist alles andere als Jahre mit zwei Anfuehrungs-strichen voraus. Leistung mit absoluter Sicherheit ja. DX11 GPUs desktop 2009, DX11 small form factor GPUs 2013 und nein es sind nicht mehr als irgendwo 3 Jahre. Was jetzt Leistung betrifft hast Du ab 2013 vergleichbare GPU Leistung mit einer Xbox360 mit hoeheren Faehigkeiten.

Du musst mir trotzdem aber immer noch erklaeren von WOHER die zusaetzliche Leistung in der Zukunft bei small form factor SoCs kommen soll. GPU ALUs sind verdammt billig und es werden wohl nicht alle Hersteller so bloed sein in der Zukunft in diese Bloecke mehr und mehr zu investieren, nur damit der GPU block NUR mit 3D herumtrottelt. Noch schlimmer wo immer man via GPGPU eine GPU einsetzt mit einer logischen Anzahl von threads ist die GPU nicht nur effizienter als eine jegliche CPU, sondern verbraucht auch um einiges weniger Strom eben weil hoehere Parallelisierung mit geringeren Frequenzen benutzt werden.

Verstanden und akzeptiert. Trotzdem finde ich es persönlich schade. A9 ist halt Schnee von gestern. ;)

Schnee von gestern fuer ALLE SoC Hersteller. Nur weil ein IP Hersteller eine neue IP Generation zu X Zeitpunkt vorstellt, heisst es nicht dass diese auch in kurzer Zeit in realen Geraeten integriert wird. Von der eigentlichen IP Vorstellung bis zur Integrierung liegen normalerweise zumindest 1.5-2 Jahre und das ist wirklich nichts Neues. Dementsprechend ist A15 noch nicht das heisseste Eisen im Feuer, da es eben noch nicht herstellbar ist.

Noch besser: wenn Apple Anfang 2013 immer noch A9 CPU IP benutzt, dann spinnen sie wirklich und nein dafuer gibt es dann keine einzige Gerechtfertigung mehr.

Meinst du, dass wir mittelfristig von Apple einen eigens entwickelten SoC mit eigenem CPU Core mit ARM Instruction Set (analog zu Qualcomm) sehen werden?
Es ist doch so viel einfacher ein fertiges (und gutes - und günstiges) Design von ARM zu lizensieren.

Billiger ist eine einfache IP Lizenz von vielen Aspekten schon, aber die Vorteile sind groesser als die Nachteile. Schau Dir Qualcomm's dual Krait@1.5GHz an. Es wird nicht allzu lange dauern bis es Geraete damit geben wird. Krait ist zwar kein A15, ist aber weniger als ein Jahr frueher erhaeltlich.

Die Antwort ist ja, aber mehr will ich momentan nicht dazu sagen.

robbitop
2012-03-02, 08:50:15
Der Abstand zwischen desktop und small form factor was feature sets betrifft ist alles andere als Jahre mit zwei Anfuehrungs-strichen voraus. Leistung mit absoluter Sicherheit ja. DX11 GPUs desktop 2009, DX11 small form factor GPUs 2013 und nein es sind nicht mehr als irgendwo 3 Jahre.

Das sind für mich Jahre. 3-4 Jahre ist im Halbleiterbusiness eine Ewigkeit.

Du musst mir trotzdem aber immer noch erklaeren von WOHER die zusaetzliche Leistung in der Zukunft bei small form factor SoCs kommen soll. GPU ALUs sind verdammt billig und es werden wohl nicht alle Hersteller so bloed sein in der Zukunft in diese Bloecke mehr und mehr zu investieren, nur damit der GPU block NUR mit 3D herumtrottelt.
Das werden sie genau wie der PC-Desktop erreichen. Eben nur verzögert.
Durch Shrinks kommen: komplexere Kerne, mehr Kerne und mehr Takt. Ganz einfach.

Warum man trotz imenser Rechenleistung kein GPGPU macht? Das gleiche "Problem" haben wir doch im Desktop auch. Das Problem ist die Programmierung. Es ist extrem schwer effizient schon für mehrere CPUs zu programmieren - das kriegen die meisten Entwickler schon nicht hin. GPGPU ist nochmal einen Zacken schärfer. Und es lässt sich eben vieles nicht parallelisieren.

Sorry - aber GPGPU ist für die meisten Endanwenderfälle einfach nicht sinnvoll und bringt halt einfach gar nix. So einfach ist das.

Ailuros
2012-03-02, 11:18:50
Das sind für mich Jahre. 3-4 Jahre ist im Halbleiterbusiness eine Ewigkeit.

Eine Ewigkeit brauchte D3D es bis zu DX11 zu schaffen. Small form factor ging mit DX7+ VS1.1+ in die Startloecher und nach ca. 8 Jahren sind sie schon auf DX11.1. Wunder Dich bloess nicht wenn die zeitlichen Unterschiede in der Zukunft rein "zufaellig" schrumpfen koennten, auf jeden Fall wird Microsoft dafuer sorgen.

Das werden sie genau wie der PC-Desktop erreichen. Eben nur verzögert.
Durch Shrinks kommen: komplexere Kerne, mehr Kerne und mehr Takt. Ganz einfach.

Ja sicher wird es 10GHz CPUs geben oder? Wo und wieso ist die desktop Frequenz genau in letzten Jahren stecken geblieben? Und nein N mehr cores pro CPU heisst auch nicht automatisch Nx Mal so viel Leistung.

iPad1 hat einen einzelnen A8@800MHz mit einer GPU mit 2 ALUs@200MHz, waehrend tablets in 2013 eher nach 2*A15@2.0-2.5GHz mit einer GPU mit 32 ALUs@<700MHz. Du kannst mir gerne erklaeren um wieviel effizienter A15 gegen A8 ist und auch die Taktunterschiede erklaeren, aber der Haken direkt danach ist eben dass es um einiges brutalere Effizienz-Unterschiede pro GPU ALU gibt und zur gleichen Zeit eine fast analoge Frequenz-Steigerung. Das groessere "aber" im zweiten Fall ist dass die Endleistung die auf die Strasse gebracht werden kann durch die GPU um einiges groesser ist als im CPU Fall.

Warum man trotz imenser Rechenleistung kein GPGPU macht? Das gleiche "Problem" haben wir doch im Desktop auch. Das Problem ist die Programmierung. Es ist extrem schwer effizient schon für mehrere CPUs zu programmieren - das kriegen die meisten Entwickler schon nicht hin. GPGPU ist nochmal einen Zacken schärfer. Und es lässt sich eben vieles nicht parallelisieren.

iOS bzw. Android sind computing orientierte auf linux kernel basierende OSs

Sorry - aber GPGPU ist für die meisten Endanwenderfälle einfach nicht sinnvoll und bringt halt einfach gar nix. So einfach ist das.

Probier es mal mit image processing, Die Leistung eines einfachen SGX540 ist fast doppelt so hoch wie die von einer 2*A9@1GHz CPU und das sogar bei um einiges niedrigerem Stromverbrauch.

Jegliche Foto-knipserei und Bearbeitung der Resultate auf smartphones bzw. tablets ist ja natuerlich ausserhalb jeglicher Realitaet :rolleyes:

urpils
2012-03-02, 11:47:20
iOS bzw. Android sind computing orientierte auf linux kernel basierende OSs


das ist falsch. iOS hat rein gar nichts mit dem Linux Kernel gemein. bei iOS werkelt wie bei OSX auch der Mach Kernel (http://en.wikipedia.org/wiki/Mach_(kernel)) bzw. genauer der XNU-Kernel (http://en.wikipedia.org/wiki/XNU).

hier (http://en.wikipedia.org/wiki/IOS) ebenfalls erwähnt.

robbitop
2012-03-02, 13:51:20
Ja sicher wird es 10GHz CPUs geben oder? Wo und wieso ist die desktop Frequenz genau in letzten Jahren stecken geblieben? Und nein N mehr cores pro CPU heisst auch nicht automatisch Nx Mal so viel Leistung.

iPad1 hat einen einzelnen A8@800MHz mit einer GPU mit 2 ALUs@200MHz, waehrend tablets in 2013 eher nach 2*A15@2.0-2.5GHz mit einer GPU mit 32 ALUs@<700MHz.
Wir haben im Desktop auch keine 10 GHz.
Innerhalb der letzten Jahre haben wir im SoC CPU Bereich eine ähnliche Entwicklung wie im Desktopbereich gesehen.
ARM11 - Cortex A8 (superskalare Pipelines wie 486 zu Pentium)
A8 zu A9 (wie Pentium zu Pentium 2/Pro - OoO)
A9 zu A15 (mehr Parallelität der Pipelines, mehr Decodertricks, schnellere Caches etc wie Pentium 2 zu ... einem K8 ...)

Taktraten, Caches, Speicherbandbreiten, Kernzahlen. All das wächst analog zum Desktopmarkt. Nur eben wegen weniger Transistoren einige Prozesse zeitverzögert.


Du kannst mir gerne erklaeren um wieviel effizienter A15 gegen A8 ist und auch die Taktunterschiede erklaeren, aber der Haken direkt danach ist eben dass es um einiges brutalere Effizienz-Unterschiede pro GPU ALU gibt und zur gleichen Zeit eine fast analoge Frequenz-Steigerung. Das groessere "aber" im zweiten Fall ist dass die Endleistung die auf die Strasse gebracht werden kann durch die GPU um einiges groesser ist als im CPU Fall.

Das mag ja alles schön und gut sein. Wenn es so einfach wäre, das große Parallele Potenzial von GPUs zu nutzen, wäre es überall. Fakt ist, dass die meisten Entwickler überfordert sind oder aber meist der Anwendungsfall das eben nicht hergibt.
Das kann sonst noch so toll sein. Der meiste Code ist eben seriell. Und da sind GPUs ziemliche Luschen.


iOS bzw. Android sind computing orientierte auf linux kernel basierende OSs
Das hat mit konkreten Anwendungsfällen / Applikationen aber nichts zu tun. Dass der Support da ist, bedeutet gar nichts.



Probier es mal mit image processing, Die Leistung eines einfachen SGX540 ist fast doppelt so hoch wie die von einer 2*A9@1GHz CPU und das sogar bei um einiges niedrigerem Stromverbrauch.

Jegliche Foto-knipserei und Bearbeitung der Resultate auf smartphones bzw. tablets ist ja natuerlich ausserhalb jeglicher Realitaet :rolleyes:

Ja Imageprocessing. Ist eine Ausnahme. Fotos knipsen und lächerliche Bearbeitungen auf einem Smartphone. Was kann man da schon groß machen? Zuschneiden, Skalieren, Rote Augen (geht auf meinem iPhone). Mehr wäre auch Quark - das geht am PC besser.

Aber ja: Imageprocessing ist dafür wie gemacht. Videoprocessing vieleicht auch auf Smartphones.

Das ist aber echt die einzige große Ausnahme und zählt für mich nicht zu den Core Apps, die dadurch beschleunigt werden können.

Ailuros
2012-03-02, 18:54:01
Wir haben im Desktop auch keine 10 GHz.
Innerhalb der letzten Jahre haben wir im SoC CPU Bereich eine ähnliche Entwicklung wie im Desktopbereich gesehen.
ARM11 - Cortex A8 (superskalare Pipelines wie 486 zu Pentium)
A8 zu A9 (wie Pentium zu Pentium 2/Pro - OoO)
A9 zu A15 (mehr Parallelität der Pipelines, mehr Decodertricks, schnellere Caches etc wie Pentium 2 zu ... einem K8 ...)

Taktraten, Caches, Speicherbandbreiten, Kernzahlen. All das wächst analog zum Desktopmarkt. Nur eben wegen weniger Transistoren einige Prozesse zeitverzögert.

SoCs haben eine Bandbreite fuer alle Einheiten, ergo erstmal ein ganz anderes Tier als ein herkoemmlicher heutiger desktop PC der nicht mit einem SoC ausgestattet ist.

Sonst sehe ich im obrigen nichts das meinem Mist widerspricht. Wenn Du jetzt schon dabei bist kannst Du auch gerne einen SGX535 mit einem GC6400 vergleichen.


Das mag ja alles schön und gut sein. Wenn es so einfach wäre, das große Parallele Potenzial von GPUs zu nutzen, wäre es überall. Fakt ist, dass die meisten Entwickler überfordert sind oder aber meist der Anwendungsfall das eben nicht hergibt.
Das kann sonst noch so toll sein. Der meiste Code ist eben seriell. Und da sind GPUs ziemliche Luschen.


Das hat mit konkreten Anwendungsfällen / Applikationen aber nichts zu tun. Dass der Support da ist, bedeutet gar nichts.

So grosse Aenderungen kommen auch nicht ueber Nacht. Ausser Du willst mir einreden dass sich hw konstant weiter entwickeln wird und sw in relativem Sinn zu einem quasi Stillstand kommt. Ich bin eben so naiv zu glauben dass sich hw und sw parallel weiterentwickeln und sich das eine dem andere anpassen muss.

Ja Imageprocessing. Ist eine Ausnahme. Fotos knipsen und lächerliche Bearbeitungen auf einem Smartphone. Was kann man da schon groß machen? Zuschneiden, Skalieren, Rote Augen (geht auf meinem iPhone). Mehr wäre auch Quark - das geht am PC besser.

Aber ja: Imageprocessing ist dafür wie gemacht. Videoprocessing vieleicht auch auf Smartphones.

Das ist aber echt die einzige große Ausnahme und zählt für mich nicht zu den Core Apps, die dadurch beschleunigt werden können.

Die Frage ist ob es wirklich nur eine Ausnahme ist oder ein Beispiel fuer eine ganz andere Tendenz der Zukunft. Noch bunter wird es natuerlich wenn in der Zukunft GPU Bloecke "tiefer" in SoCs integriert werden und es etwas komplizierter sein wird die CPU von einer GPU darauf auseinander zu halten.

das ist falsch. iOS hat rein gar nichts mit dem Linux Kernel gemein. bei iOS werkelt wie bei OSX auch der Mach Kernel (http://en.wikipedia.org/wiki/Mach_(kernel)) bzw. genauer der XNU-Kernel (http://en.wikipedia.org/wiki/XNU).

hier (http://en.wikipedia.org/wiki/IOS) ebenfalls erwähnt.

Dass iOS ein "derivate" von MacOS ist kann keiner verleugnen. Es bedeutet aber keineswegs dass die vorige Vereinfachung falsch ist. Wie dem auch sei ich hab im Juni eine geplante Konferenz von der Carnegie Mellon Universitaet und da kann ich es wenn ich es nicht vergesse mit einem der Professoren klaeren.

sth
2012-03-02, 19:07:18
Dass iOS ein "derivate" von MacOS ist kann keiner verleugnen. Es bedeutet aber keineswegs dass die vorige Vereinfachung falsch ist. Wie dem auch sei ich hab im Juni eine geplante Konferenz von der Carnegie Mellon Universitaet und da kann ich es wenn ich es nicht vergesse mit einem der Professoren klaeren.
Es ging Urpils glaube ich nur um die Verallgemeinerung Linux<->Unix.

Ja, es ist ein Unix-System, nein es ist nicht Linux. Gilt sowohl für Mac OS X als auch für iOS.

Ailuros
2012-03-02, 19:42:20
Es ging Urpils glaube ich nur um die Verallgemeinerung Linux<->Unix.

Ja, es ist ein Unix-System, nein es ist nicht Linux. Gilt sowohl für Mac OS X als auch für iOS.

Es ist weder Unix noch Linux per se. Von mir aus Darwin based kernel wenn es so weit zur Haarspalterei kommen muss.

sth
2012-03-02, 20:38:45
Es ist weder Unix noch Linux per se. Von mir aus Darwin based kernel wenn es so weit zur Haarspalterei kommen muss.
Oder so.

Ich meinte Unix als Oberbegriff, kein direktes Derivat der AT&T-Ursuppe.

Ailuros
2012-03-02, 20:47:05
Oder so.

Ich meinte Unix als Oberbegriff, kein direktes Derivat der AT&T-Ursuppe.

Oder auch dass MacOS ein Unix-alike derivative ist, von dem iOS ein weiteres derivative ist. Der clue ist so oder so dass Apple's OSs propietaer und nicht open source sind.

Mumpitzelchen
2012-03-02, 21:23:46
UNIX hat ein definitive Spezifikation, siehe http://www.unix.org/
Laut der ist OSX, ohne wenn und aber, ein UNIX(tm) und UNIX 03 zertifiziert seit Leopard, egal wie Ailuros das umdefinieren will. BSD ist auch eins, Linux ist keins.

Am Anfang gabs ein paar Probleme weil Apple behauptet hat es wäre eins, ohne offiziell eine Bestätigung zu haben, was man nicht darf, aber mittlerweile ist das ausgeräumt.

IOS ist kein UNIX.

lumines
2012-03-02, 22:04:12
UNIX hat ein definitive Spezifikation, siehe http://www.unix.org/
Laut der ist OSX, ohne wenn und aber, ein UNIX(tm) und UNIX 03 zertifiziert seit Leopard, egal wie Ailuros das umdefinieren will. BSD ist auch eins, Linux ist keins.

Am Anfang gabs ein paar Probleme weil Apple behauptet hat es wäre eins, ohne offiziell eine Bestätigung zu haben, was man nicht darf, aber mittlerweile ist das ausgeräumt.

IOS ist kein UNIX.

Interessiert das irgendjemanden hier im Kontext? Letztendlich sind sich alle genannten Systeme / Kernel so ähnlich, dass es in der Praxis total irrelevant ist, was da unter der Haube läuft.

iOS ist zwar nicht als UNIX zertifiziert, aber grundsätzlich kann man damit auch alles machen. Jedenfalls lassen sich alle mir bekannten GNU / BSD Tools darauf kompilieren und problemlos ausführen.

An GPGPU-Zeug im großen Stil glaube ich aber auch nicht so wirklich. Neben ein bisschen Image Processing fällt mir da eigentlich kein anderes Einsatzgebiet ein. Man möge mich korrigieren, falls es da doch noch mehr realistische Möglichkeiten gibt.

urpils
2012-03-03, 08:02:42
Interessiert das irgendjemanden hier im Kontext? Letztendlich sind sich alle genannten Systeme / Kernel so ähnlich, dass es in der Praxis total irrelevant ist, was da unter der Haube läuft.


Moment mal... Die Schnittstellen sind definiert. Die Kernel unterscheiden sich mitunter deutlich. Kommt drauf an, was du mit "in der Praxis" und "ähnlich" meinst ;)

Korrekt ist es jedenfalls nicht.

Ailuros
2012-03-03, 19:58:24
Die Albernheit der unendlichen Debatte auf was iOS basiert wollte ich zwar entgehen aber es wird wohl nicht gelingen. Zurueck zum Thema vielleicht wenn ich hoeflichst bitten darf?

pixelguy
2012-03-07, 23:58:33
Angeblich hat der A5X die 4x Leistung eines A5. Wobei die Leistung Tegra 3 / A5 etwas seltsam aussieht?!

Der Grafikchip der neuen GPU ist scheinbar eine Quad-Core GPU.

Quelle: http://www.engadget.com/2012/03/07/new-ipad-vs-ipad-2/
http://www.golem.de/news/lte-und-retina-display-apple-stellt-ipad-3-vor-1203-90347.html

basti333
2012-03-08, 00:02:44
Angeblich hat der A5X die 4x Leistung eines A5. Wobei die Leistung Tegra 3 / A5 etwas seltsam aussieht?!

Der Grafikchip der neuen GPU ist scheinbar eine Quad-Core GPU.

Quelle: http://www.engadget.com/2012/03/07/new-ipad-vs-ipad-2/
http://www.golem.de/news/lte-und-retina-display-apple-stellt-ipad-3-vor-1203-90347.html



4x so schnell wie ein A5? Das hat Apple aber nicht behauptet. Man hat den Tegra 3 als maßstab genommen. Der A5 ist 2x so schnell wie der T3 und der A5X ist 4x so schnell wie der T3 (zumindest laut Apple). Das als grundlage genommen ist die Grafik vom A5X 2x so schnell wie vom A5.

deekey777
2012-03-08, 00:04:29
Es ist nicht scheinbar eine Quad-Core-GPU, sondern anscheinend.

http://www.apple.com/de/ipad/specs/

Speziell entwickelter, hochleistungsfähiger Dual-Core Apple A5X SOC (System-on-a-Chip) mit niedrigem Stromverbrauch und Quad-Core Grafik
Viermal schneller als Tegra 3, nicht als A5:
Der A5X soll laut Schiller "viermal so schnell" sein wie ein Tegra 3.
http://www.heise.de/mac-and-i/liveticker/backlog

pixelguy
2012-03-08, 00:18:12
Ups, habs ein bisschen durcheinander geworfen. verzeiht, ich komme gerade aus der sauna ;)

basti333
2012-03-08, 00:27:21
Ich könnte mir vorstellen eine bessere (Quad core) CPU hätte zuviel strom gefressen, man hat sich dann wohl lieber für LTE entschieden.

AnarchX
2012-03-08, 09:51:39
Die paar hundert mW für ein paar zusätzliche A9-Cores wären wohl das geringste Problem.
Der Verbrauch ist durch das neue Display wohl um gute 50% gestiegen (10h @ 42Wh, statt vorher 25Wh).

Winter[Raven]
2012-03-08, 09:59:00
http://www.zdnet.com/blog/btl/nvidia-on-apples-ipad-a5x-graphics-claims-show-us-the-benchmarks/71065

Dann werden wir wohl am 16ten paar neue Benches bekommen...

Coda
2012-03-08, 10:06:05
Es ist weder Unix noch Linux per se. Von mir aus Darwin based kernel wenn es so weit zur Haarspalterei kommen muss.
Aber selbstverständlich ist Mac OS X ein Unix und hat mit Linux überhaupt nichts zu tun.

Der Kernel ist ein Mach-Microkernel (beraubt um das "Micro") zusammengebastelt mit FreeBSD/OpenBSD-Device-Code und einer C++-Treiberschnittstelle + BSD Userspace. Ziemlich Frankenstein.

Iruwen
2012-03-08, 10:32:24
So fühlt sichs auch an wenn man auf Shellebene damit arbeitet.

deekey777
2012-03-08, 15:05:13
http://www.anandtech.com/show/5654/apple-tv-next-and-the-new-ipad-tech-specs-pages-post-single-core-a5-in-apple-tv
As predicted, the iPad next contains Apple's A5X SoC which we suspect is a 32nm A9MP2 and SGX543MP4, up from the A5's SGX543MP2. The rest of the specs on the new iPad page get a modest bump to, including a spec bump on 802.11a/b/g/n and Bluetooth 4.0 likely alongside use of Broadcom's BCM4330 module just like in the iPhone 4S. Battery also is considerably larger, at 42.5 Whr compared to the iPad 2's 25 Whr.
Interessant, aber steckt da auch was dahinter? 32 nm vs. 40 nm ist nicht so ein großer Schritt, aber immerhin. Kann da die Konkurrenz mithalten? Tegra 3 (Kal-El) ist noch in 40 nm.

robbitop
2012-03-08, 16:30:19
Die Taktfrequenz wäre noch interessant zu erfahren.
Der Sprung mag sich nicht hoch anhören, aber die Halfnodes sind oftmals von den Charakteristika nicht wirklich besser als die Fullnodes - nur eben kostengünstiger.

Ailuros
2012-03-08, 20:02:47
;9199994']Dann werden wir wohl am 16ten paar neue Benches bekommen...

Theoretisch waere es kinderleicht einen GPU benchmark so zusammenzubasteln der dieses auch beweisst; alles was Du brauchen wuerdest ist ein fragment limitierter synthetischer Test und es wird wohl nicht allzu schwer sein die 36GFLOPs gegen die 8GFLOPs fragment processing auszuspielen. Sonst dass es laecherliches marketing ist sollte klar sein. Wie dem auch sei da Apple's Andeutungen auf die gleiche Frequenz fuer den MP4 spielen (ergo 250MHz) koennte man schon bis zu 2.5x Mal ULP GF T30 Leistung in oeffentlichen benchmarks erwarten.

Das MP2@250MHz im iPad2 erreicht im 720p Egypt test mit 5.1 schon ueber 90fps.

Ailuros
2012-03-12, 19:34:34
Ok hab mich etwas ueberschaetzt: der MP4 ist momentan ca. 2x Mal so schnell als T30: http://www.glbenchmark.com/phonedetails.jsp?D=Apple+iPad+3&benchmark=glpro21

deekey777
2012-03-15, 11:11:21
http://www.dailytech.com/article.aspx?newsid=24234
Unten sind paar FPS-Balken.
Ist schon eine Entwicklung.
Der A5X ist, wie erwartet, mit 1 GHz getaktet (CPU). Ihm stehen 1 GB zur Seite.
http://www.tinhte.vn/threads/1139326/

Was kommt dieses Jahr noch? Das new iPhone? Aber mit welchem Prozessor? A5X mit MP2 und in 32 nm? A6 mit 2 Cortex-A15-Kernen?

Ailuros
2012-03-15, 11:33:36
http://www.dailytech.com/article.aspx?newsid=24234
Unten sind paar FPS-Balken.

Dead link?

Der A5X ist, wie erwartet, mit 1 GHz getaktet (CPU). Ihm stehen 1 GB zur Seite.
http://www.tinhte.vn/threads/1139326/

Ist das Ding jetzt am Ende auf 45 oder 32nm hergestellt?

AnarchX
2012-03-15, 11:35:58
Dead link?

Eigentlich nicht. Hier ein direkter Link zum Benchmark-Diagramm: http://images.dailytech.com/nimage/glbench_macworld.png

Ailuros
2012-03-15, 11:37:49
Geht bei mir nicht egal welcher browser :(

AnarchX
2012-03-15, 11:40:49
http://www.macworld.com/article/1165849/review_the_third_generation_ipad.html
=> http://images.macworld.com/images/article/2012/03/graphicschart2-275270.png

Ailuros
2012-03-15, 11:50:40
http://www.macworld.com/article/1165849/review_the_third_generation_ipad.html
=> http://images.macworld.com/images/article/2012/03/graphicschart2-275270.png

Danke. Eigentlich liegt das iPad2 mit iOS5.1 auf 90 fps http://www.glbenchmark.com/phonedetails.jsp?D=Apple+iPad+2&benchmark=glpro21

GLBenchmark2.1 ist einfach zu ausgelatscht fuer solche GPUs. 1080p GLbenchark2.5 sollte so langsam auftauchen, nicht nur wegen der um einiges hoeheren Aufloesung sondern auch dem um einiges anspruchsvollerem Inhalt.

AnarchX
2012-03-16, 10:17:22
~120mm² Die-Size für den A5X und wohl 28/32nm: http://www.anandtech.com/show/5681/apples-a5x-die-and-size-revealed
... oder Apple hat den Floorplan und die Packdichte optimiert.

Nightspider
2012-03-16, 10:34:53
Mit Dual Channel LPDDR2 RAM. Der alte A5 war ja noch mit single Channel angebunden oder?

Ailuros
2012-03-16, 19:00:02
~120mm² Die-Size für den A5X und wohl 28/32nm: http://www.anandtech.com/show/5681/apples-a5x-die-and-size-revealed
... oder Apple hat den Floorplan und die Packdichte optimiert.

Angesichts der chipworks Meldung dachte ich mich trifft ein Schlag. Anand hat aber nachgetragen und A5X ist 169mm2@45nm.

Ailuros
2012-03-16, 19:15:52
Uebrigens: http://www.xbitlabs.com/news/multimedia/display/20120314232839_Samsung_Hints_on_Smaller_Apple_iPad_with_7_85_Screen.html

Although Apple and Samsung are battling in courts, they remain key partners as Samsung manufactures chips, screens, memory and some other components for Apple. The companies are projected to work together until at least the end of 2014, therefore Samsung is very well informed about Apple’s demands and plans.

basti333
2012-03-16, 21:21:04
http://www.anandtech.com/show/5654/apple-tv-next-and-the-new-ipad-tech-specs-pages-post-single-core-a5-in-apple-tv

Interessant, aber steckt da auch was dahinter? 32 nm vs. 40 nm ist nicht so ein großer Schritt, aber immerhin. Kann da die Konkurrenz mithalten? Tegra 3 (Kal-El) ist noch in 40 nm.

Scheinbar wird der A5X weiterhin in 45nm produziert...erstaunlich

http://www.macrumors.com/2012/03/16/a5x-chip-floorplan-reveals-significant-space-required-for-quad-core-graphics/

AnarchX
2012-03-17, 09:35:24
Floorplan des A5X: http://www.anandtech.com/show/5686/apples-a5x-floorplan

Ailuros
2012-03-17, 10:31:13
Floorplan des A5X: http://www.anandtech.com/show/5686/apples-a5x-floorplan

A5 MP2 hat afaik 4*64KB system level cache (ergo 128KB pro GPU core) welches die hoechstmoegliche Menge fuer SGX cores ist. Es wuerde mich kein bisschen wundern wenn A5X 512KB fuer alle 4 cores haben sollte.

Also note that Apple has moved the DDR interfaces next to the GPU cores, compared to the CPU-adjacent design in the A5. It's clear who is the biggest bandwidth consumer in this chip.

Ja Anand, aber rate Mal wieviel Bandbreite ein IMR mit vergleichbarer Leistung heute genau brauchen wuerde ;)

Nightspider
2012-03-20, 20:08:13
Sorry für die Noobfrage: IMR steht wofür?

Laut einige Aussagen soll ja die Display Backlight nun fast doppelt soviel Leistung verbraten, wie beim iPad 2 und bei ca. 7W liegen.

Dagegen dürfte der A5X mit geschätzten 1,5-2W ja einen eher geringen Anteil am Gesamtkonsum benötigen.
Mich wundert es fast, das Apple die Taktrate der CPU nicht, unabhängig von der GPU, um wenigstens ~30% angehoben hat.
Dies dürfte ja recht wenig Mehrleistung benötigen. Wobei Apple sich das vielleicht auch als Argument für die nächste Generation aufheben wird um mit den neuen ARM15 Kernen nochmehr "angeben" zu können im Vgl. zum iPad 3.

Gespannt dürfen wir ja auch sein ob es Apple schafft den Leistungshunger des Displays bis zum iPad 4 zu senken oder zumindest den Leistungsbedarf des SoC zu senken und gleichzeitig die Performance stark zu steigern.

Steht denn bis 2013 auch eine neue GPU Architektur zur Verfügung, die auf GPU Seite einen ähnlichen Sprung versprechen könnte, wie auf der CPU Seite von ARM9 zu ARM15 Cores?

deekey777
2012-03-20, 20:10:08
IMR ist das Gegenteil zu TBDR.
Immediate M-irgendwas Renderer, wenn ich mich nicht irre.

Coda
2012-03-20, 21:36:57
Immediate Mode Renderer

RBG
2012-03-21, 02:54:21
Steht denn bis 2013 auch eine neue GPU Architektur zur Verfügung, die auf GPU Seite einen ähnlichen Sprung versprechen könnte, wie auf der CPU Seite von ARM9 zu ARM15 Cores?

Ja, nennt sich PowerVR Series6. Näheres findest du in folgendem Thread auf den letzten Seiten:http://www.forum-3dcenter.org/vbulletin/showthread.php?t=434237&page=36

robbitop
2012-03-21, 10:23:31
Er spricht von CPUs nicht von GPUs. ARM hat noch keine A15-Nachfolger-Architektur angekündigt.
Das ging in den letzten 3 Jahren aber auch wirklich Schlag-auf-Schlag. A8 - A9 und zuletzt A15. Alle hatten eine neue µ-Arch.

Hugo78
2012-03-22, 09:54:38
Laut einige Aussagen soll ja die Display Backlight nun fast doppelt soviel Leistung verbraten, wie beim iPad 2 und bei ca. 7W liegen.

Dagegen dürfte der A5X mit geschätzten 1,5-2W ja einen eher geringen Anteil am Gesamtkonsum benötigen.
Mich wundert es fast, das Apple die Taktrate der CPU nicht, unabhängig von der GPU, um wenigstens ~30% angehoben hat.
Dies dürfte ja recht wenig Mehrleistung benötigen.

Die Antwort liefert Apple selber:
Laut dem US-Verbrauchermagazin Consumer Report wird das neue iPad unter Last bis zu 47 Grad warm.
Laut Apple ist dies unter anderem auf die aufwändigere Hintergrundbeleuchtung des Displays, den leistungsstärkeren A5X-SoC und den größeren Akku zurückzuführen
- http://www.computerbase.de/news/2012-03/neues-ipad-mit-diversen-problemen/

Ailuros
2012-03-22, 10:55:22
IMR ist das Gegenteil zu TBDR.
Immediate M-irgendwas Renderer, wenn ich mich nicht irre.

Nicht unbedingt das Gegenteil im strengen Sinn; ein immediate mode renderer rendert heutzutage auch nicht wirklich alles so wie es reinfliesst (wieviele deferred rendering engines gibt es genau?) und ein defered renderer verzoegert auch nicht IMMER alles um einen frame.

Coda
2012-03-22, 10:58:51
Es wird nie irgendwas um einen Frame verzögert. Ein TBDR rendert ein Frame nur in zwei Schritten.

Nightspider
2012-03-22, 11:36:54
Er spricht von CPUs nicht von GPUs. ARM hat noch keine A15-Nachfolger-Architektur angekündigt.
Das ging in den letzten 3 Jahren aber auch wirklich Schlag-auf-Schlag. A8 - A9 und zuletzt A15. Alle hatten eine neue µ-Arch.

In dem Falle sprach ich wirklich von einer neuen GPU Architektur. ;)
Denn 2 neue Architekturen (CPU und GPU) würden die Leistung sowie die Leistung pro Watt wieder enorm steigern.

Wer weiß, wann wir die ersten PS360 Ports auf Handhelds sehen.

Die Antwort liefert Apple selber:

- http://www.computerbase.de/news/2012-03/neues-ipad-mit-diversen-problemen/

Wobei ich gar nichts gefragt habe, worauf Apple mir eine Antwort hätte geben können. ;)
Solche Aussagen bestehen zu 50% eh aus Marketinggeschwätz. Und diese PR-Leute haben von der Technik eh keine Ahnung.

LadyWhirlwind
2012-04-12, 01:38:57
Der vollständigkeit halber:

Offenbar verwendet Apple im neuen AppleTV einen A5 der mit einem deaktivierten Kern daher kommt und im 32nm Prozess gefertigt wurde. Vermutlich handelt es sich dabei um "binning parts", da in neuerne iPad 2's auch ein A5 im 32nm Prozess verwendet wird.

Quelle:
http://www.chipworks.com/en/technical-competitive-analysis/resources/technology-blog/2012/04/apple-a5-from-the-apple-tv-3-surprise-surprise/

sth
2012-04-12, 02:23:34
Ich vermute damit ist dann auch klar, welchen Chip das iPhone 5 kriegen wird. ;)

basti333
2012-04-12, 11:21:15
Ich vermute damit ist dann auch klar, welchen Chip das iPhone 5 kriegen wird. ;)
Nämlich einen A5 mit einem deaktivierten core in 32nm. Nachdem das 4s einen A5 mit zwei kernen hat?

Edit: Wobei das nächste iPhone vielleicht tatsächlich den gleichen A5 wie das 4S haben könnte, nur in 32nm statt 45. Den eingesparten Strom könnte man dann für LTE, längere Akkulaufzeit und/oder etwas höhere taktraten nehmen.

robbitop
2012-04-12, 11:25:25
Nein einen A5 @32 nm ohne deaktivierten Kern (so wie die iPad 2 aktuell auch angeblich ausgeliefert werden).
Wäre aber sehr sehr mager... Vieleicht drehen die dann ordentlich an der Taktschraube.
Oder aber der A5 @32nm ist nur für AppleTV und iPad 2.