PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - SoCs & i-Geraete


Seiten : [1] 2

Ailuros
2010-12-31, 16:30:58
Apple sucht nach engineers fuer CPU micro-architecture design:

http://www.xbitlabs.com/news/cpu/display/20101230164352_Apple_Wants_to_Create_Its_Own_Microprocessor_Architectures_Job_Po sting.html

Da darueber wie ueblich bunt spekuliert wird nochmal der semiaccurate link der auch im obrigen Artikel erwaehnt wird:

http://www.semiaccurate.com/2010/12/29/evidence-points-apple-designing-arm-laptops/

Erster Einwand betrifft den A4 SoC, denn es war keine reine Apple Entwicklung wenn man die Aehnlichkeiten zum iPhone3GS SoC betrachtet. Sonst stimmt es schon dass "A5" schon eine Eigenentwicklung ist. Die Frage ist lediglich wer beim naechsten SoC das layout macht, wobei es mich nicht ueberraschen wuerde wenn es nicht Samsung sondern jemand wie Renesas sein wuerde (aber nur so ein merkwuerdiges Bauchgefuehl).

Was jetzt Apple selber von da ab vorhat ueberhalb embedded/mobilen Geraeten weiss wohl nur Apple selber. Interessant sind manche diesbezueglichen Spekulationen schon ueberhaupt im semiaccurate Artikel.

LadyWhirlwind
2011-01-01, 13:00:11
Ich denke das Apple gucken wir, was sie haben und dann je nach dem Entscheiden was sie kurzfristig tun.

Softwaremässig sollte das kein so grosses Problem darstellen. Apple hat ja schon mit den Universalbinaries bewiesen, dass sie verschiedene Architekturen gemeinsam unterstüzen können. Es sollte für Apple's entwickler kein grosses Problem darstellen, das Mac OS SDK upzudaten, dass man dafür Programme für eine ARM-Version von OS X erstellen kann. Solche langfristigen Pläne würden sogar zu den restriktionen für Mac-Appstore Programme passen (keine Software die Kernelerweiterungen etc. benötigen). Sieht fast so aus, als ob Apple sicher gehen will, dass entsprechende Apps nur rekompiliert werden müssen.

Von der Hardwareseite, ist insbesondere das MacBook und das MacBook Air sowieso nicht für Rechenintensive/Grafikintensive arbeiten gedacht, da könnte sich eine ARM-CPU mit sehr niedrigem Stromverbrauch/platzbedarf wirklich rechnen. Ein MacBook(Air) mit 20h Batterielaufzeit wäre der Renner.

Alternativ besteht immer die möglichkeit das Apple eine andere Architektur lizensiert.

Coda
2011-01-01, 16:53:19
Der A4 ist einfach der Nachfolger des 3GS-Samsung-SoC. Viel heiße Luft um nichts war das - wie immer.

Ailuros
2011-01-02, 17:27:39
Der A4 ist einfach der Nachfolger des 3GS-Samsung-SoC. Viel heiße Luft um nichts war das - wie immer.

Das team dass die beiden SoCs entwickelte ist auch nicht gerade froh darueber dass Apple den ganzen Weihrauch in der Presse bekam, aber solche Einzelheiten klaert Apple ja selten bis nie auf.

steve.it
2011-01-02, 19:07:14
Das team dass die beiden SoCs entwickelte ist auch nicht gerade froh darueber dass Apple den ganzen Weihrauch in der Presse bekam, aber solche Einzelheiten klaert Apple ja selten bis nie auf.
Verstehe ich nicht. Es ist über den SoC im 3GS nie ein Tamtam veranstaltet worden. An dem SoC ist AFAIK auch nichts besonderes. Es ist im Wesentlichen ein Cortex A8 (+ PowerVR).
Wer hat denn den SoC im iPhone 3GS entwickelt?
Es könnte gut sein, dass Apple den SoC im 3GS selber "entwickelt" hat. Apple hat jedenfalls seit Ewigkeiten ein VLSI Team, das z.B. früher die Chipsätze (Northbridges) zum Teil für die PowerPC Macs entwickelt hatte.

Beim A4 gab es in der Tat etwas Tamtam.
Hier soll angeblich (so wie ich es in Erinnerung habe) maßgeblich Intrinsity die Finger im Spiel gehabt haben, die dann später von Apple gekauft worden sind. Der A4 ist bekanntlich dem Samsung SoC im Galaxy recht ähnlich.

Der A4 ist einfach der Nachfolger des 3GS-Samsung-SoC. Viel heiße Luft um nichts war das - wie immer.
Nunja, Apple hat P.A. Semi und Intrinsity geschluckt. Zudem gab es immer mal wieder Stellenanzeigen (wie auch jetzt), die zu berechtigten Spekulationen führen.
Es war aber eigentlich auch immer klar, dass aus Zeitgründen frühstens mit dem Nachfolger des A4 sich mögliche Spekulationen bewahrheiten könnten.

Nakai
2011-01-02, 19:18:26
Wer hat denn den SoC im iPhone 3GS entwickelt?

Das war Samsung mit dem S5PC100.

Samsungs derzeitiger SOC hat den Namen S5PC110/111...na fällt was auf.;)

An sich (imo) ist der Apple A4 nur ein S5PC100 mit mehr Cache, POP und höheren Taktraten.

Erst was Apple diesen Sommer wohl bringen könnte, wird wohl relativ beeindruckend werden.


mfg

steve.it
2011-01-02, 19:25:16
An sich (imo) ist der Apple A4 nur ein S5PC100 mit mehr Cache, POP und höheren Taktraten.


Was ist mit Intrinsity's domino cell library?

http://webcache.googleusercontent.com/search?q=cache:8PKNq8UdFb8J:www.william-baldwin.com/media/attachments/Samsung-Intrinsity_QA.doc+ntrinsitys+%22Cell+Library%22&cd=1&hl=de&ct=clnk&gl=de

davidzo
2011-01-02, 19:55:45
Apple ist in allen Designentscheidungen extrem konservativ. Auch wenn es um Architekturen und die zugrundeliegende Hardware geht. Das sieht man am Gehäusedesign, am regelmäßigen Produktzyklus und sogar beim Wechsel auf X86: Intel musste seit dem Tualatin bei den MobilCPUs erst mehrere Generationen deutlich vorne liegen bis man sich entschieden hat zu wechseln. Das hat auch Vorteile. Man hatte Zeit die Software fit zu machen, Apple ist also meistens mit diesen Konservativen Grundsätzen sehr gut gefahren. Das gilt übrigens auch für das Äußere, die Ästhetik welche, zerlegt man sie erst in ihre Bestandteile, alles andere als bahnbrechend ist.

Apple wird also vorerst keinerlei anstalten machen eine eigene Architektur zu etablieren, das bringt nur Nachteile mit sich. Stattdessen braucht man die Chipingenieure um eigene Vorteile in die vorhandene Hardware einzubauen. So könnte ich mir vorstellen, dass Apple medienbeschleunigung/hardwarecodecs in zukunft nicht von PowerVR lizensiert sondern eigene entwickelt mit der man das ecosystem rund um itunes und die eigene software besser ausnutzen kann oder das man einen neuen tiefen power state entwickelt. Außerdem wird man die performance tunen und da sich gerade bei socs sehr viel um die bandbreite dreht hat man auch genügend konventionelle schräubchen an denen man dazu drehen kann.

Der Apple A5 wird eher was wie omap4, tegra2 oder Samsungs Orion sein, genau wie der A4 direkt mit dem hummingbird und omap 36xx vergleichbar ist.

Man würde den state of the art stromsparprozessor und den hochentwickelten 3dbeschleuniger nie im leben für etwas experimentelles eigententwickeltes aufgeben, dafür ist man viel zu konservativ. es gibt nur wenige firmen die sowas machen, dann aber auch immer enorme investitionen tätigen, undurchsichtige partnerschaften schmieden, sich meist selbst überschätzen und dann teilweise trotzdem ersteinmal zweifelhafte margen erwirtschaften. Sony ist so eine eigenwillige Firma, wenn man nicht so genau ist Nvidia ebenfalls, beides aber völlig andere Firmenethiken als Apple.
Wenn Apple wirklich selber CPUs bauen wollte würden die mehr tun als nur ein paar Ingenieure anheuern, die würden sofort mit IBM, GF, NEC oder AMD in zusammensitzen und erstmal fünf Jahre entwickeln und dann erst evaluieren und ggf. verwerfen.

Nakai
2011-01-02, 19:56:33
Soweit wurde das nur dafür verwendet um die Taktraten auf 1GHz zu prügeln.
Diese Technology wird aber auch für andere CortexA8 außerhalb von Apples A4 verwendet.
Ebenso sieht man viele andere CortexA8 mit hohen Taktraten auf den Markt.

Intrinsity bringt hauptsächlich viel Erfahrung bei Hardware-Synthese mit, was für eine Selbstentwicklung von sparsamen Prozessoren(hierzu was Intrinsity bis jetzt veröffentlicht hat) sehr hilfreich ist.

Achja, ich müsste mich dazu erst noch reinlesen.


mfg

steve.it
2011-01-02, 20:11:49
Apple ist in allen Designentscheidungen extrem konservativ. Auch wenn es um Architekturen und die zugrundeliegende Hardware geht.
PowerPC? Firewire? In Zukunft vermutlich Lightpeak?
= Konservativ?


Das sieht man am Gehäusedesign
Wo?


und sogar beim Wechsel auf X86: Intel musste seit dem Tualatin bei den MobilCPUs erst mehrere Generationen deutlich vorne liegen bis man sich entschieden hat zu wechseln. Das hat auch Vorteile. Man hatte Zeit die Software fit zu machen
Mal abgesehen davon, dass der G4 häufig schlechter gemacht wird, als er war (und zumindest in der Anfangszeit eher überlegen war -> Akkulaufzeit), konnte Apple nicht früher die CPU-Architektur wechseln.
Gleichzeitig Betriebsystem (OS9 -> OS X) und Achitektur (PowerPC -> x86) zu wechseln, wäre vermutlich zuviel des Guten gewesen.

Stattdessen braucht man die Chipingenieure um eigene Vorteile in die vorhandene Hardware einzubauen. So könnte ich mir vorstellen, dass Apple medienbeschleunigung/hardwarecodecs in zukunft nicht von PowerVR lizensiert sondern eigene entwickelt mit der man das ecosystem rund um itunes und die eigene software besser ausnutzen kann oder das man einen neuen tiefen power state entwickelt
"Klar", Apple hält einfach so Anteile an Imagination Technologies.
Außerdem ist die Videobeschleunigung genau das, wo Apple am pennen ist bzw. hinterher hinkt (zumindest auf dem Mac).


Wenn Apple wirklich selber CPUs bauen wollte würden die mehr tun als nur ein paar Ingenieure anheuern, die würden sofort mit IBM, GF, NEC oder AMD in zusammensitzen

Paar Ingenieure?
Zu P.A. Semi steht z.B. im Wikipedia:
"P. A. Semi (originally "Palo Alto Semiconductor"[1]) was a fabless semiconductor company founded in Santa Clara, California in 2003 by Daniel W. Dobberpuhl (B.S. EE 1967 University of Illinois, Urbana-Champaign[2][3]) who was the lead designer for the DEC Alpha 21064 and StrongARM processors. The company employed a 150-person engineering team which included people who had previously worked on processors like Itanium, Opteron and UltraSPARC. Apple Inc acquired P.A. Semi for $278 million in April 2008."
http://en.wikipedia.org/wiki/P.A._Semi

+ Intrinisity

(allerdings haben sich einige Leute wieder aus dem Staub gemacht, inkl. Dobberpuhl).

Soweit wurde das nur dafür verwendet um die Taktraten auf 1GHz zu prügeln.
Diese Technology wird aber auch für andere CortexA8 außerhalb von Apples A4 verwendet.
Ebenso sieht man viele andere CortexA8 mit hohen Taktraten auf den Markt.

Angeblich soll der A4 Vorteile im Stromverbrauch haben (gilt evtl. auch für den Samsung SoC). Mag aber sein, dass da kein Unterschied zu den anderen SoCs mit 1GHz ist. Falls jemand genauere Infos hat, kann er dazu ja mal etwas posten.

Ailuros
2011-01-03, 12:01:09
Apple ist in allen Designentscheidungen extrem konservativ. Auch wenn es um Architekturen und die zugrundeliegende Hardware geht. Das sieht man am Gehäusedesign, am regelmäßigen Produktzyklus und sogar beim Wechsel auf X86: Intel musste seit dem Tualatin bei den MobilCPUs erst mehrere Generationen deutlich vorne liegen bis man sich entschieden hat zu wechseln. Das hat auch Vorteile. Man hatte Zeit die Software fit zu machen, Apple ist also meistens mit diesen Konservativen Grundsätzen sehr gut gefahren. Das gilt übrigens auch für das Äußere, die Ästhetik welche, zerlegt man sie erst in ihre Bestandteile, alles andere als bahnbrechend ist.

Apple wird also vorerst keinerlei anstalten machen eine eigene Architektur zu etablieren, das bringt nur Nachteile mit sich. Stattdessen braucht man die Chipingenieure um eigene Vorteile in die vorhandene Hardware einzubauen. So könnte ich mir vorstellen, dass Apple medienbeschleunigung/hardwarecodecs in zukunft nicht von PowerVR lizensiert sondern eigene entwickelt mit der man das ecosystem rund um itunes und die eigene software besser ausnutzen kann oder das man einen neuen tiefen power state entwickelt. Außerdem wird man die performance tunen und da sich gerade bei socs sehr viel um die bandbreite dreht hat man auch genügend konventionelle schräubchen an denen man dazu drehen kann.

Der Apple A5 wird eher was wie omap4, tegra2 oder Samsungs Orion sein, genau wie der A4 direkt mit dem hummingbird und omap 36xx vergleichbar ist.

Man würde den state of the art stromsparprozessor und den hochentwickelten 3dbeschleuniger nie im leben für etwas experimentelles eigententwickeltes aufgeben, dafür ist man viel zu konservativ. es gibt nur wenige firmen die sowas machen, dann aber auch immer enorme investitionen tätigen, undurchsichtige partnerschaften schmieden, sich meist selbst überschätzen und dann teilweise trotzdem ersteinmal zweifelhafte margen erwirtschaften. Sony ist so eine eigenwillige Firma, wenn man nicht so genau ist Nvidia ebenfalls, beides aber völlig andere Firmenethiken als Apple.
Wenn Apple wirklich selber CPUs bauen wollte würden die mehr tun als nur ein paar Ingenieure anheuern, die würden sofort mit IBM, GF, NEC oder AMD in zusammensitzen und erstmal fünf Jahre entwickeln und dann erst evaluieren und ggf. verwerfen.

Wenn die Geruechte ueber "A5" stimmen sollten, dann liegt dieser eher in Richtung OMAP5. Ich hatte genau wie Du aehnliche Bauchgefuehle fuer Apple's naechsten SoC, aber ich wurde in letzter Zeit mehrmals gewarnt ich sollte den Mythos dass Apple zu "konservativ" ist hw-maessig begraben ;)

Zum fettgedruckten:

http://www.imgtec.com/corporate/presentations/Interim10/Slide29.jpg

Wollen wir wetten dass Apple sogar IMG's naechste GPU Generation (Series6) schon lizenziert hat?

davidzo
2011-01-03, 12:21:17
PowerPC? Firewire? In Zukunft vermutlich Lightpeak?
= Konservativ?

Lightpeak ist eine intel technologie. Apple hat firewire in einer völlig anderen zeit entwickelt (80er), mit einer völlig anderen ethik. jetzt bestimmt die panik aufs falsche pferd zu setzen die entscheidungen. damals war man noch entscheidungsfreudiger, was ja zum teil auch zu der misere der 90er geführt hat.


Das sieht man am Gehäusedesign
Wo?

zeig mir ein apple notebook was sich nicht streng an das seifenstück design hält. auch das air ist im Grunde genommen daraus abgeleitet indem man die waagerechten Flächen minimiert hat (auf 2mm einer amd eckel, einer unten)

As gibt keinen anderen hersteller außer vielleicht lenovo wo der nachfolger eines jeden notebooks so haargenau dem vorgänger ähnelt, wie bei apple.


Mal abgesehen davon, dass der G4 häufig schlechter gemacht wird, als er war (und zumindest in der Anfangszeit eher überlegen war -> Akkulaufzeit), konnte Apple nicht früher die CPU-Architektur wechseln.
Kannst du lesen? Der G4 konkurrierte bei erscheinen 1999 mit dem Katmai, später Coppermine. Ich schrieb allerdings explizit vom Tualatin (2001).


"Klar", Apple hält einfach so Anteile an Imagination Technologies.
Außerdem ist die Videobeschleunigung genau das, wo Apple am pennen ist bzw. hinterher hinkt (zumindest auf dem Mac).
war nur ne vermutung. ist jedenfalls wahrscheinlicher als dass man eine neue architektur entwickelt.



Paar Ingenieure?
Zu P.A. Semi steht z.B. im Wikipedia:
"P. A. Semi (originally "Palo Alto Semiconductor"[1]) was a fabless semiconductor company founded in Santa Clara, California in 2003 by Daniel W. Dobberpuhl (B.S. EE 1967 University of Illinois, Urbana-Champaign[2][3]) who was the lead designer for the DEC Alpha 21064 and StrongARM processors. The company employed a 150-person engineering team which included people who had previously worked on processors like Itanium, Opteron and UltraSPARC. Apple Inc acquired P.A. Semi for $278 million in April 2008."
http://en.wikipedia.org/wiki/P.A._Semi

+ Intrinisity

(allerdings haben sich einige Leute wieder aus dem Staub gemacht, inkl. Dobberpuhl).

Du hast recht, 150 Leute minus Dobberpuhl sind wirklich so verschwindend gering dass man das wohl kaum paar Ingenieure nennen kann.
intel hat 90.000 Mitarbeiter und auch nvidia als idealmodell einer minimalen fabless-ip firma hat ein engineeringteam von mehreren tausend leuten. (allein der einzelne chip nv40 hat über 1000 ingenieure gebunden).
Mit 150 leuten kannst du heute gar nichts im großen Halbleiterbusiness.



Apple ist der Investmentberater unter den PC-Herstellern. Ständig evaluieren und geschickt investieren aber bloß nicht nur von Einzelnen abhängig sein oder gar dinge selber machen. Man unterhält tausende Fachleute und Berater um auch ja aufs richtige Pferd zu setzen.
Das ist wichtig, weil es für den mythos äußerst schädlich wäre in bestimmten Bereichen nur das zweitbeste anzubieten. Katastrophe wenn im einstiegsmacbook nun statt nv ein langsamer clarkdale intel integrated chip zu finden wäre (auch wenns dafür billiger ist als der vorgänger mit nv). Man sucht immer eine irgendwie geartete Ideallösung, auch wenn sie ökonomisch keinen Sinn macht. Das danken Apple die Kunden dann mit einer hohen Placebo Zufriedenheit die selbst bei den Produkten entsteht die eher in Mittelmäßigkeit versinken.
Die wirklichen technischen Entwicklungen werden alle Outgesourct. wie etwa das besonders kleine CPUpackage das intel erstmals fürs macbook air entwickelt hatte, die dünnen LCD module, der Touchscreen fürs iphone (deutsche firma), die flachen Hochkapazitätsakkus, die Ätztechnologie für die minilöcher im unibody, etc. - das sind alles Entwicklungen anderer Firmen. Apple hat die richtigen Ingenieure um diese Entwicklungen zur richtigen Zeit zu erkennen, zu investieren, nutzen und rechtzeitig wieder fallen zu lassen. Man verfolgt keinen nachhaltigen Aufbau von eigenem Engineering und Infrastruktur, stattdessen hält man sich konkurrierende günstlinge und spielt man lieber die chinesischen Auftragsfertiger gegen sich aus. Das hält den Preis niedrig, die eigenen ingenieure hält man sich als reine Analysten.

davidzo
2011-01-03, 12:35:39
Wollen wir wetten dass Apple sogar IMG's naechste GPU Generation (Series6) schon lizenziert hat?

ich schrieb von einer wahrscheinlichkeit beim medienprozessor, nie von der GPU. klar dass apple hier einer der vehementesten verfechter von powervr ist, schließlich sind sie bisher hervorragend damit gefahren. verdankt der ipod und das iphone doch seine geringe fragmentierung und gute spieleleistung hauptsächlich den bisher eingesetzten powervr gpus. für sowas haben die gar nicht die manpower. dagegen könnte man einen eigenen hardware videocodec für itunes und ipod verwenden der die totale abschaltung des restlichen socs erlaubt. womöglich aber zusätzlich zu dem von powervr lizensierten baustein. Ist aber auch nur eine vage vermutung von mir. das ist alles was ich apple zutrauen würde. mit echten prozessordesign werden die sich nicht befassen, nichtmal in dem maße wie das bisher samsung oder ti tun, die haben ja armeen von ingenieuren und eine eigene fertigung dahinter.

was omap5 angeht, für den cortex a10/arm eagle ist es noch zu früh und einen dual sgx543 bei annehmbaren stromverbrauch reinzuquetschen wäre schon eine beachtliche leistung. vielleicht 2012-13
ich denke da konservativer über den prozessor im nächsten ipad...

steve.it
2011-01-03, 12:42:05
damals war man noch entscheidungsfreudiger, was ja zum teil auch zu der misere der 90er geführt hat.
Der Grund war damals hauptsächlich Mac OS. Man tat sich schwer mit einem wirklich neuem OS. Zeitgleich kam Microsoft mit Windows 9x auf den Markt (neben NT). Zudem waren die Clones zum damaligen Zeitpunkt falsch. Da sind einige Gründe entfallen Apple Hardware zu kaufen (und damit hat bisher Apple das Geld hauptsächlich verdient). Auf der einen Seite die Clones, auf der anderen Seite Windows 9x bzw. kein echtes neues bzw. modernes Mac OS.


zeig mir ein apple notebook was sich nicht streng an das seifenstück design hält. auch das air ist im Grunde genommen daraus abgeleitet indem man die waagerechten Flächen minimiert hat (auf 2mm einer amd eckel, einer unten)
Ich habe Gehäusedesign gemeint = innere Werte. Und da verbaut Apple eben kein konservatives ATX -Design.


As gibt keinen anderen hersteller außer vielleicht lenovo wo der nachfolger eines jeden notebooks so haargenau dem vorgänger ähnelt, wie bei apple.
Es ist nicht so, dass sich das Äußere bei Apple nie ändert.
Das Unibody-Design war z.B. völlig neu und zumindest zu Beginn einzigartig.Das ist aber alles ziemlich OT im Thread.


Kannst du lesen? Der G4 konkurrierte bei erscheinen 1999 mit dem Katmai, später Coppermine. Ich schrieb allerdings explizit vom Tualatin (2001).
OK - ich bezog mich darauf, dass es eine Zeit gab, in der sich einige User bewusst ein iBook oder PowerBook gekauft hatten wegen dem G4 (als es z.B. noch kein Centrino gab). Aber anderes Thema.


war nur ne vermutung. ist jedenfalls wahrscheinlicher als dass man eine neue architektur entwickelt.
Eine an den Haaren herbei gezogene Vermutung, siehe Post von Ailuros.
Wer redet eigentlich von einer völlig neuen Architektur?


Du hast recht, 150 Leute minus Dobberpuhl sind wirklich so verschwindend gering dass man das wohl kaum paar Ingenieure nennen kann.
Dafür war das Interesse an der damaligen Power-CPU von P.A. Semi nicht gerade gering und P.A. Semi konnte z.B. das US-Militär als Kunde gewinnen. Grrößeres Engagement gab es nicht, da Apple da kein Interesse dran hatte (das US Militär musste man aber beliefern).
Sollte man nicht unterschätzen, wie du es gerade machst. Leute wie Dobberpuhl wollen bestimmt keine Däumchen drehen (vielleicht ist er auch deswegen gegangen ;) ).

Edit:
Ich habe deinen Post eben nicht gesehen.
ich schrieb von einer wahrscheinlichkeit beim medienprozessor, nie von der GPU. klar dass apple hier einer der vehementesten verfechter von powervr ist, schließlich sind sie bisher hervorragend damit gefahren. verdankt der ipod und das iphone doch seine geringe fragmentierung und gute spieleleistung hauptsächlich den bisher eingesetzten powervr gpus. für sowas haben die gar nicht die manpower. dagegen könnte man einen eigenen hardware videocodec für itunes und ipod verwenden der die totale abschaltung des restlichen socs erlaubt. womöglich aber zusätzlich zu dem von powervr lizensierten baustein. Ist aber auch nur eine vage vermutung von mir. das ist alles was ich apple zutrauen würde. mit echten prozessordesign werden die sich nicht befassen, nichtmal in dem maße wie das bisher samsung oder ti tun, die haben ja armeen von ingenieuren und eine eigene fertigung dahinter.
Schonmal von VXD gehört? Steckt auch in den div. SoCs. Im A4 soll angeblich ein VXD375 stecken.
http://www.imgtec.com/powervr/powervr-video.asp

Nakai
2011-01-03, 12:51:03
Es gab mal Gerüchte, dass der neue Iphone SOC zwei CortexA9 und einen SGX545 enthält.
Das war vor einem Jahr und bezog sich auf den AppleA4.
Mal gucken was kommt.

Ein einzelner SGX543XT MP-Kern wäre auch interessant und relativ billig.


mfg

mboeller
2011-01-03, 13:06:54
Zum fettgedruckten:

http://www.imgtec.com/corporate/presentations/Interim10/Slide29.jpg

Wollen wir wetten dass Apple sogar IMG's naechste GPU Generation (Series6) schon lizenziert hat?


Trident? Die ehemaligen GPU-Hersteller?

mboeller
2011-01-03, 13:08:13
Die wirklichen technischen Entwicklungen werden alle Outgesourct. wie etwa das besonders kleine CPUpackage das intel erstmals fürs macbook air entwickelt hatte, die dünnen LCD module, der Touchscreen fürs iphone (deutsche firma), die flachen Hochkapazitätsakkus, die Ätztechnologie für die minilöcher im unibody, etc. - .........


Du hast Liquid Metal vergessen! Eine Titan-Legierung bzw. ein metallisches Glas auf Titanbasis, die man Spritzgießen kann.

Ailuros
2011-01-03, 14:34:03
ich schrieb von einer wahrscheinlichkeit beim medienprozessor, nie von der GPU. klar dass apple hier einer der vehementesten verfechter von powervr ist, schließlich sind sie bisher hervorragend damit gefahren. verdankt der ipod und das iphone doch seine geringe fragmentierung und gute spieleleistung hauptsächlich den bisher eingesetzten powervr gpus. für sowas haben die gar nicht die manpower. dagegen könnte man einen eigenen hardware videocodec für itunes und ipod verwenden der die totale abschaltung des restlichen socs erlaubt. womöglich aber zusätzlich zu dem von powervr lizensierten baustein. Ist aber auch nur eine vage vermutung von mir. das ist alles was ich apple zutrauen würde. mit echten prozessordesign werden die sich nicht befassen, nichtmal in dem maße wie das bisher samsung oder ti tun, die haben ja armeen von ingenieuren und eine eigene fertigung dahinter.

Ich glaube Apple ist auch mit IMG's decoding IP ziemlich zufrieden. Hier die naechste Generation: http://www.imgtec.com/News/Release/index.asp?NewsID=597

was omap5 angeht, für den cortex a10/arm eagle ist es noch zu früh und einen dual sgx543 bei annehmbaren stromverbrauch reinzuquetschen wäre schon eine beachtliche leistung. vielleicht 2012-13
ich denke da konservativer über den prozessor im nächsten ipad...

SGX543@200MHz = 8mm2@65LP --> 2MP= 16mm2@65LP
Tegra2 GPU = ~9mm2@240MHz/40G,TSMC
Intel GMA600 = ~8.5mm2 = SGX535@400MHz Intel 45nm
"A5" = 45nm

Nakai,

Kann sein dass sich etwas geaendert hat aber bis zu einem Punkt in der Vergangenheit gab es keinen einzigen Series5XT Lizenznehmer der an einer single core Integrierung interessiert war.

Trident? Die ehemaligen GPU-Hersteller?

Zwar OT aber ja dieses Trident fuer Set top boxes: http://www.imgtec.com/partners/Trident_Microsystems.asp

http://www.imgtec.com/partners/pdf/Trident-PNX-8490-8491-Brief-10001A.pdf

...und auch SiS: http://www.imgtec.com/partners/Sis.asp

Hugo
2011-01-18, 18:01:22
speku zum A5
http://www.computerbase.de/news/hardware/prozessoren/2011/januar/details-zu-apples-a5-soc/

Ailuros
2011-01-18, 21:34:47
speku zum A5
http://www.computerbase.de/news/hardware/prozessoren/2011/januar/details-zu-apples-a5-soc/

Denkbar ist, dass der A5 – wie auch schon der A4 – von Samsung gefertigt wird und lediglich eine modifizierte Version des „Orion“-SoCs ist. Diesen hatte das südkoreanische Unternehmen Anfang September 2010 vorgestellt. Erste „Orion“-basierte Geräte sollen in der ersten Jahreshälfte auf den Markt kommen.

Orion erscheint erst Ende des Jahres. Wieso sollte Samsung einen groesseren Orion zuerst vorstellen und dann spaeter einen kleineren? Samsung entwickelt wie jeder semi nicht von hinten nach vorne.

Und was ist wenn der Bericht hier recht haben sollte: http://www.appleinsider.com/articles/11/01/14/rumor_apples_iphone_5_to_sport_new_a8_processor_qualcomm_baseband.html

Hong Kong-based newspaper Apple Daily reported Friday (via Google Translate) that parts for the new "iPhone 5," expected to arrive this year, will come from Taiwanese supplier Kinsus. The company is said to be working on a new custom processor, dubbed A8.

Auf jeden Fall macht dieses Zeug mehr Sinn als dass Samsung immer noch fuer Apple herstellt. Samsung wuerde dann hypothetisch fuer Apple einen ziemlich potenten SoC herstellen, waehrend ihr eigener schwaecherer Kaese (Orion) erst Ende des Jahres antanzt.

Uebrigens wenn die Einzelheit zum iPad2 stimmen sollte die mir gerade zugesteckt wurde, wird es sehr heikel werden fuer die Konkurrenz.

Hugo
2011-01-19, 19:43:47
@Ail
was wurde dir denn gesteckt?

ich wollt nur den Link auf Computerbse posten.
Obs stimmt kann ich nicht einschätzen ;)

Godmode
2011-01-19, 23:20:07
Bin mir nicht sicher, aber beim letzten iPad hat Apple einfach den ganzen Displaymarkt leer gekauft, und die anderen Herstellen hatten es dann ziemlich schwer an die Displays zu kommen. ;D

Ailuros
2011-01-21, 08:51:42
http://www.engadget.com/2011/01/14/exclusive-the-future-of-the-ipad-2-iphone-5-and-apple-tv-and/

Qualcollmm hat tatsaechlich einen design win gegenueber Infineon.

It seems likely that the device will land around April (perfectly timed with the 12-month product cycle Apple enjoys). And what about that device? From what we've been told, the thinner, sleeker tablet will sport a new screen technology that is akin to (though not the same as) the iPhone 4's Retina Display and will be "super high resolution" (unlike reports to the contrary). The device will remain at 10 inches but will now feature both front and rear cameras (not a huge surprise), and... there's an SD slot.

Presumably, the strength of the new dual-mode chipset is that it will allow both Verizon and AT&T to offer the iPad simultaneously.

Letzter quote fuer Dich Bucklew ;)

Ailuros
2011-01-30, 09:53:37
http://www.koreatimes.co.kr/www/news/tech/2011/01/129_80374.html

"Samsung has agreed with Apple to quadruple monthly shipments of its mobile AP chips to 20,000 sheets throughout this year from 5,000 last year," said an industry source, citing Samsung’s suppliers as the source, Wednesday.

This means that Samsung will offer 50 percent of its AP capacity to Apple for 2011, which would be more than the supply for its own products such as Galaxy S and Galaxy Tab, according to the executive.

Gaestle
2011-01-30, 11:32:38
Nach den Displays nun das. Gehen sie (Apple) davon aus, dass sie soviel verkaufen, oder wollen sie nur die Preise für die Mitbewerber durch Verknappung steigern? Schließlich produziert samsung auch für andere (u.a. Nokia).

ESAD
2011-01-30, 12:03:49
wäre schon möglich. bei den displays hat apple ja auch deutlich mehr gekauft als sie eigentlich verbaut haben.

Ailuros
2011-01-30, 13:06:57
Nach den Displays nun das. Gehen sie (Apple) davon aus, dass sie soviel verkaufen, oder wollen sie nur die Preise für die Mitbewerber durch Verknappung steigern? Schließlich produziert samsung auch für andere (u.a. Nokia).

Beziehst Du Dich jetzt auf SoCs? Wenn ja welchen SoC hat denn NOKIA von Samsung genau eingekauft? Ausser den TI OMAP SoC die Nokia meistens benutzt gibt es noch den neuesten SoC im N8 mit einer Broadcom GPU aber der wurde auch afaik von TI hergestellt.

Auf jeden Fall sieht es eher danach aus das Apple tatsaechlich projeziert dass sie so viel verkaufen. Es koennte auf jeden Fall erstmal erklaeren warum Samsung vielleicht fuer ihr naechstes Galaxy S tab2 Tegra2 SoCs gekauft hat und diese integriert. Wenn Samsung wirklich 50% ihrer Herstellungs-Kapazitaet Apple dediziert, dann heisst es erstmal dass sie einen Kunden wie Apple nicht verlieren wollen.

Interessant waere jetzt noch zu wissen ob Samsung die Preise fuer die Apple SoCs noch weiter reduziert hat. Bis jetzt waren es irgendwo $10-11/SoC. Hat jetzt Samsung von einer dritten Quelle eine grosse Quantitaet an SoCs bestellt, dann wird diese wohl so oder so nicht 15,20 oder sogar $30 pro Stueck gekostet haben sonst wuerde sich das Ganze fuer Samsung gar nicht lohnen und sie waeren schon bloed nicht auf andere Angebote unter der $12 Marge zu steigen.

Da die ganze Affaere eher in Samsung's und nicht in Apple's Haende liegt IMHO, wird es im besten Fall zu einer Reduzierung von SoC Preisen im Markt fueren, als dass es irgendwelche Knappheit heissen sollte.

xL|Sonic
2011-01-30, 14:00:35
Nach den Displays nun das. Gehen sie (Apple) davon aus, dass sie soviel verkaufen, oder wollen sie nur die Preise für die Mitbewerber durch Verknappung steigern? Schließlich produziert samsung auch für andere (u.a. Nokia).

Naja mit iPhone 5, iPad 2 und AppleTV 3 hat man ja 3 Geräte, welche man damit versorgen wird und wenn man sich anschaut wie häufig sich die Vorgänger verkauft hat ist das schon ne Menge die da zusammen kommt.

Gaestle
2011-01-30, 18:24:11
Beziehst Du Dich jetzt auf SoCs? Wenn ja welchen SoC hat denn NOKIA von Samsung genau eingekauft? Ausser den TI OMAP SoC die Nokia meistens benutzt gibt es noch den neuesten SoC im N8 mit einer Broadcom GPU aber der wurde auch afaik von TI hergestellt.


Ich meine gehört zu haben, dass der ARM11 mit dem StackedRAM im N8 (und damit wahrscheinlich auch im C7,C6-01 und E7) von Samsung produziert wird. Fand ich erstaunlich, weil beide ja direkte Konkurrenten im gleichen Markt sind.

Quelle gesucht und gefunden:
http://www.anandtech.com/show/4126/nokia-n8-review-/3


So what was needed in this case was a low-power, package efficient CPU design that could just about get the job done while sipping as little power and occupying as little space as possible. And this is almost exactly what Nokia found in the Samsung K5WXXXXXXX series of Fusion Memory MCP’s. This MCP (Multi Chip Package) allows Samsung to stack different memory types (DDR, NAND etc.) along with non-memory logic in the same low-power package. So for basically the same footprint as a single memory chip, Samsung is able to integrate the DDR memory (256MB), NAND (512MB) and a CPU (TI ARM11 applications processor).


.
.
An dieser Stelle zwar absolut OT, aber trotzdem vielleicht von Interesse:

Nokia’s choice of using an aged ARM 11 implementation, down-clocked to 680 Mhz (instead of the spec’d 772 Mhz) for its CPU may draw criticism in this day and age of gigahertz-capable, multi-core mobile SoC’s. But digging a little deeper seems to show that there may be some method to this madness. You see, pretty much everything in the N8 runs around the BCM2727 media processor. I would hazard a calculated guess that apart from lightweight low-level OS functions and interfacing with the baseband and other radio’s, there isn’t much else for the CPU to do on the N8. Plus, Symbian’s inherently efficient use of available resources helps too.


Edit:
Ich sehe gerade, ab 10. Februar verkauft auch Verizon (mit knapp 100mio Kunden) iPhones:
Die Grafik bitte mit Humor betrachten, ich will keinen Flamewar vom Zaun brechen!
http://dailymobile.se/2011/01/30/image-the-7-types-of-iphone-owners/7-types-iphone-users/

basti333
2011-01-30, 20:09:26
Naja mit iPhone 5, iPad 2 und AppleTV 3 hat man ja 3 Geräte, welche man damit versorgen wird und wenn man sich anschaut wie häufig sich die Vorgänger verkauft hat ist das schon ne Menge die da zusammen kommt.


Den iPod touch hast du noch vergessen.

schwedenJohnny
2011-01-30, 21:34:50
Apple kann doch nichtmal vernünftige Computer bauen und wollen sie CPUs bauen? lol ... ja klar... eher kauft AMD Intel ;D

bald wird eh jeder merken dass das ganze apple zeugs seinen Preis nicht wert ist. nur weils ausser dem supertollen iOS nichts anders gab verkaufte sich das Iphone und Ipod und neuerdings das Ipad... Mit googles android und Windows Mobile7 wird apple bald sowas von abstinken, dann können sie froh sein wenn sie nicht pleite gehen.

Naja, nur meine Meinung, wenn er natürlich auf ein sterbendes Pferd setzen wollt ist das eure sache...

Ailuros
2011-01-31, 07:43:31
Ich meine gehört zu haben, dass der ARM11 mit dem StackedRAM im N8 (und damit wahrscheinlich auch im C7,C6-01 und E7) von Samsung produziert wird. Fand ich erstaunlich, weil beide ja direkte Konkurrenten im gleichen Markt sind.

Quelle gesucht und gefunden:
http://www.anandtech.com/show/4126/nokia-n8-review-/3



.
.
An dieser Stelle zwar absolut OT, aber trotzdem vielleicht von Interesse:


Edit:
Ich sehe gerade, ab 10. Februar verkauft auch Verizon (mit knapp 100mio Kunden) iPhones:
Die Grafik bitte mit Humor betrachten, ich will keinen Flamewar vom Zaun brechen!
http://dailymobile.se/2011/01/30/image-the-7-types-of-iphone-owners/7-types-iphone-users/

Dann hat den SoC tatsaechlich Samsung hergestellt und ich lag falsch. Danke fuer den Link. Mal sehen was NOKIA neben dem Atom Zeug/MeeGo und hoechstwahrscheinlich OMAP noch alles benutzen wird in Zukunft.

Uebrigens an etwas dass ich nicht gedacht habe ist dass der vorige Link sich nur ueber wafers bei Samsung von Apple bezieht. Ein groesserer SoC bedeutet auch automatisch groessere Kapazitaeten, eine Kleinigkeit an die mich ein Freund gestern erinnerte. Ergo vielleicht schon eine hoehere Kapazitaet aber wohl doch nicht 4x Mal so hoch.

Mehr Spekulationen: http://www.appleinsider.com/articles/11/01/30/report_details_ipad_2_components_5_million_unit_supply.html

5 Mio Einheiten/Monat klingen erstmal logisch. Ich hab mich zwar selber von der super-hohen Aufloesung zurueckgezogen fuer iPad2 aber hier wandeln die Spekulationen vom einen absurden Ende zum anderen. 2048*1536 waere viel zu viel gewesen und 1024*768 klingt wiederrum zu wenig. Ich leg fuer mich persoenlich das Thema mal auf Eis und zieh mir meine Scheuklappen an, denn die Wahrheit koennte irgendwo zwischendrin liegen. Denn der Analyst der hier blubbert sollte auch ein bisschen schaerfer nachdenken ob alles was er behauptet auch Sinn macht:

As expected, the report also states "iPad 2 will also have a GPU using Imagination’s SGX543 dual core graphics technology which is 200~300% powerful than iPhone 4."

RAM is also on the rise, the report says. "For making full use of GPU upgrading advantage, iPad 2 needs bigger memory bandwidth. So iPad 2 has 512MB RAM, same as iPhone 4 and twice as much as iPad 1, but running at higher clock 1,066 MHz for getting bigger memory bandwidth (iPhone 4 memory clock is 800 MHz)."

Wenn ich schon 200~300% mehr Grafikleistung erwaehne und es auch noch mit einer hoeheren Bandbreiten-Not unterstuetze, dann wundere ich mich wofuer genau der SoC so viel mehr Fuell-rate braucht (wofuer man natuerlich auch X mehr Bandbreite braucht). Wofuer genau braucht man hoehere Fuellraten?

Apple kann doch nichtmal vernünftige Computer bauen und wollen sie CPUs bauen? lol ... ja klar... eher kauft AMD Intel ;D

Es geht um ARM CPU IP welches Apple in ihren SoCs benutzt.

bald wird eh jeder merken dass das ganze apple zeugs seinen Preis nicht wert ist. nur weils ausser dem supertollen iOS nichts anders gab verkaufte sich das Iphone und Ipod und neuerdings das Ipad... Mit googles android und Windows Mobile7 wird apple bald sowas von abstinken, dann können sie froh sein wenn sie nicht pleite gehen.

Naja, nur meine Meinung, wenn er natürlich auf ein sterbendes Pferd setzen wollt ist das eure sache...

Wie sich die Geschichte mit Apple im mobilen/embedded Markt entwickeln wird bleibt abzusehen.

Ailuros
2011-01-31, 09:43:38
Zwar OT was Apple betrifft aber ich mach fuer das nicht einen getrennten Thread auf:

http://www.xbitlabs.com/news/mobile/display/20110130114323_Nokia_to_Announce_Major_Smartphone_Strategy_Shift_in_February.htm l

Besser spaet wie nie fuer NOKIA :rolleyes:

Gaestle
2011-01-31, 10:01:41
Ankündigen und realisieren sind bei Nokia in der letzten Zeit zwei verschiedene Paar Schuhe. Du hast bei Nvidia oft die "Execution" bemängelt, gleiches gilt vielleicht auch für Nokia. Es soll gerüchteweise zwei große Events geben, eines am 11. Februar und ein zweites am 13. oder 14. Februar. Und dass sie wirklich auf WinMob7 oder Android wechseln, bezweifle ich, obwohl ich natürlich keinen Einblick habe. Aber der Blog von Tomi Ahonen (http://communities-dominate.blogs.com/) ist für Nokia-Interessierte sehr interessant. Der Eintrag vom 13. Dezember 2010 (http://communities-dominate.blogs.com/brands/2010/12/some-symbian-sanity-why-nokia-will-not-join-google-android-or-microsoft-phone-7.html) beschreibt IMHO recht gut die Bedeutung von Symbian / MeeGo für Nokia.

Ailuros
2011-01-31, 10:37:28
Ankündigen und realisieren sind bei Nokia in der letzten Zeit zwei verschiedene Paar Schuhe. Du hast bei Nvidia oft die "Execution" bemängelt, gleiches gilt vielleicht auch für Nokia.

Execution bei NV desktop hat aber wiederrum nichts mit SoCs zu tun und schon gar nicht mit NOKIA's generellen Design-Entscheidungen. In diesem Fall hat NV mit ihrer primaeren Konzentration fuer Tegra2 auf Android den Nagel voll auf den Kopf getroffen, waehrend NOKIA sich eher mit diversen anderen Optionen zu verwurschteln scheint um dann doch am Ende auf Android support denken zu muessen?


Es soll gerüchteweise zwei große Events geben, eines am 11. Februar und ein zweites am 13. oder 14. Februar. Und dass sie wirklich auf WinMob7 oder Android wechseln, bezweifle ich, obwohl ich natürlich keinen Einblick habe. Aber der Blog von Tomi Ahonen (http://communities-dominate.blogs.com/) ist für Nokia-Interessierte sehr interessant. Der Eintrag vom 13. Dezember 2010 (http://communities-dominate.blogs.com/brands/2010/12/some-symbian-sanity-why-nokia-will-not-join-google-android-or-microsoft-phone-7.html) beschreibt IMHO recht gut die Bedeutung von Symbian / MeeGo für Nokia.

Wenn NOKIA wirklich auf winM7 bzw. Android Unterstuetzung steigen sollte, dann hab ich auch einige Zweifel ob diese eher langwierige Analyse auch zu den richtigen Schlussfolgerungen kommt.

Verkaufszahlen hin und her weder das N900 noch N8 haben am Ende irgend ein "halo" um die beiden Produkte generiert beim Verbraucher. Und hier muss man natuerlich auch jeweilige "Design-Entscheidungen" ausfuehrlich analysieren auf welche Punkte diese sich genau beziehen. Auf jeden Fall haben diese beiden smart-phones eben nicht das gleiche "halo" wie z.B. N95 generiert und das unabhaengig was genau fuer hw drinsteckt (es steckt ja auch PowerVR IP im N900).

Gaestle
2011-01-31, 14:12:47
Der Blog hier http://mynokiablog.com/2011/01/31/thinking-that-nokia-is-planning-to-ditch-meego/ hat meiner Meinung nach einige Argumente zu bieten, die gegen einen Schwenk auf Android oder WinM7 sprechen. Aber in 14 Tagen gibt es sicher mehr Klarheit.

Für die extrem schlechte Presse, die Symbian^3 (IMHO ungerechtfertigt) erhalten hat, sind 4-5mio. verkaufte Einheiten in 6-8 Wochen nicht schlecht, gerade im Preisbereich ab 300€ und trotz schlechter Lieferbarkeit in einigen Ländern, auch wenn es insgesamt sicher im Vergleich zum iPhone nur Peanuts sind. Aber das iPhone schwimmt auf dem Hype ganz oben mit und Symbian^3 wurde zuerst absolut unreflektiert als der letzte Dreck beschrieben, weshalb man dann das ganze Telefon ebenso unreflektiert fast als Crap bezeichnet.

Ich will das Thema hier nicht weiter ausweiten, das ganze Internet ist voller Flamewars zwischen iPhone, N8 und Android und ich bin als zufriedener N8-Nutzer in dieser Diskussion bestimmt genauso "neutral", wie die vielen zufriedenen Android- und iPhone-Nutzer. Deshalb sollten wir das Thema hier vielleicht besser ruhen lassen.

Ailuros
2011-01-31, 14:58:29
MeeGo muss ich selber erstmal in Echtzeit sehen, aber da Intel da ihre Finger drin mithat hab ich so meine einige Vorbehalte bis ich das Resultat erstmal sehen kann. Ironisch ist wohl eher dass Intel selber fuer GMA600 neben MeeGo eben auch win7 und Android unterstuetzt und ich wuerde es sogar nicht ausschliessen dass hier irgend jemand aus dem Blauen eine Parallele gezogen hat.

Wenn man Symbian und Android Seite an Seite stellt gibt es auf beiden Seiten sowohl Vor- und Nachteile. Es geht hier aber eher um MeeGo und wie sich dieses gegen andere OSs behaupten wird.

Was jetzt iOS betrifft, schoen waere es wenn alles was an dem Zeug liegt nur hype waere.

Aus dem xbit labs Link oben:

"Nokia faces some very significant challenges. The game has changed from a battle of devices to a war of ecosystems and competitive ecosystems are gaining momentum and share. The emergence of ecosystems represents the broad convergence of the mobility, computing and services industries. [...] Nokia must compete on an ecosystem-to-ecosystem basis. In addition to great devices, we must build, catalyze, and/or join a competitive ecosystem," said Stephen Elop, chief executive officer of Nokia, during a recent conference call.

Wie genau soll ich denn den fett-gedruckten Satz genau interpretieren?

xbit labs gibt unten im Artikel zu dass NOKIA sich nie zu so einem Wandel geaeussert hat. Genauer:

Nokia has not said directly that it would start using Google Android or Microsoft Windows Phone 7, but a major strategy shift clearly has to do something with the software platform as the hardware part of Nokia is hardly too different from other cell phones.

Gaestle
2011-01-31, 15:16:26
Hier http://conversations.nokia.com/2011/01/27/stephen-elop-talks-strengths-successes-and-the-future/ steht etwas mehr als der fragliche Satz, der ja überall die Gemüter erregt. Ich weiß auch nicht, was ich davon halten soll. Meine Devise wäre abwarten und Tee trinken.

Der Satz kann sich auch auf MeeGo beziehen, wobei Apps & Co. über QT mit Symbian direkt kompatibel sind.

Hugo
2011-01-31, 19:29:10
specs des iPad2?
http://hartware.net/news_50884.html

Ailuros
2011-01-31, 21:21:56
Hier http://conversations.nokia.com/2011/01/27/stephen-elop-talks-strengths-successes-and-the-future/ steht etwas mehr als der fragliche Satz, der ja überall die Gemüter erregt. Ich weiß auch nicht, was ich davon halten soll. Meine Devise wäre abwarten und Tee trinken.

Der Satz kann sich auch auf MeeGo beziehen, wobei Apps & Co. über QT mit Symbian direkt kompatibel sind.

MeeGo ein konkurrierendes Eco-system?

specs des iPad2?
http://hartware.net/news_50884.html

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8540197&postcount=32

Hugo
2011-02-01, 06:29:17
@Ail
sorry überlesen ;)

Hugo
2011-02-02, 14:30:41
Display vom iPad2
http://www.hardwareluxx.de/index.php/news/consumer-electronics/gadgets/17662-display-des-ipad-2-macht-die-runde.html

Ailuros
2011-02-02, 14:39:29
Display vom iPad2
http://www.hardwareluxx.de/index.php/news/consumer-electronics/gadgets/17662-display-des-ipad-2-macht-die-runde.html

Das Zeug hat eine unglaubliche Runde im Netz gemacht. Wenn Apple tatsaechlich nur 1024*768 fuer's naechste Pad benutzt, dann frage ich mich ernsthaft warum sie die hw und Bandbreite um so viel genau aufgepumpt haben. Gegen die neuesten tablets wo sich die ~10" displays meistens im 720p Bereich bewegen waere es seitens Apple eine deutliche Schnappsidee, ausser ich verpasse irgend etwas wesentliches.

Es hat uebrigens nur ein Herr die Serien-nummer des iPad2 Schirm's angeblich "analysiert" und der gleiche Quark wurde von etlichen Seiten einfach wiedergekaut.

From commenter King below(unverified):

I checked it:
(LP)097×02 SLN1= LG Phillips
LP(097)x02 SLN1= 9.7 inch display
LP097x(02) SLN1= used on displays with xga,sxga,wsxga
LP097x02 (SL)N1= H-IPS
LP097x02 SL (N1)= Not sure

So Lg Phillips 9.7in XGA 1024×768 H-IPS display

http://www.9to5mac.com/50297/exclusive-ipad-2-screen-fresh-from-china

Unter den Kommentatoren sagte auch jemand ob er den neuen Schirm nicht ans iPad1 einstecken koennte, aber er hat halt dummerweise einen anderen connector.

mekakic
2011-02-02, 14:59:39
Das Zeug hat eine unglaubliche Runde im Netz gemacht. Wenn Apple tatsaechlich nur 1024*768 fuer's naechste Pad benutzt, dann frage ich mich ernsthaft warum sie die hw und Bandbreite um so viel genau aufgepumpt haben. Gegen die neuesten tablets wo sich die ~10" displays meistens im 720p Bereich bewegen waere es seitens Apple eine deutliche Schnappsidee, ausser ich verpasse irgend etwas wesentliches.Vielleicht auch ein sehr aufwendiger missleak seitens Apple?

Ailuros
2011-02-02, 15:09:45
Vielleicht auch ein sehr aufwendiger missleak seitens Apple?

Bezweifle ich. Entweder ist das Ding tatsaechlich 1024 oder der Kerl der es angeblich herausgelesen hat hat einen Fehler gemacht. Die Frage ist eher ob es irgend jemand der weiss wo es langgeht bis jetzt ueberprueft hat oder ob ein User-Kommentar unter einem Artikel reicht damit es zich Webseiten als Tatsache wiederproduzieren koennen.

=Floi=
2011-02-02, 22:47:40
warum soll apple immer gleich so viel neues bringen? ich denke die auflösung für das ipad dürfte reichen und da setzt man eher auf solche auflösungen. beim handy ist das ja etwas anderes.

ich hätte auch kein problem, wenn es im sommer nur einen A4 refresh geben würde. Sicher freut mich eine DC A5 mit verdoppelter grafikleistung auch ungemein.

clockwork
2011-02-03, 01:45:02
Wenn ihr schon bei Displays seit, könnt ihr ja gleich weiter spekulieren welche CPUs (und GPUs) in die anstehenden iMacs kommen. ;)

Ailuros
2011-02-03, 07:18:46
warum soll apple immer gleich so viel neues bringen? ich denke die auflösung für das ipad dürfte reichen und da setzt man eher auf solche auflösungen. beim handy ist das ja etwas anderes.

ich hätte auch kein problem, wenn es im sommer nur einen A4 refresh geben würde. Sicher freut mich eine DC A5 mit verdoppelter grafikleistung auch ungemein.

1. Die Mehrzahl der heutigen 7" tablets laufen auf 1024*600 und 10" bei 1280*800.

Beispiel: http://www.anandtech.com/show/4085/asus-announces-eee-pad-and-eee-slate-tablets/3

2. Vergleich mal in Echtzeit wie selbst einfacher Text auf iPhone4 gegen iPad1 aussieht. Schoen der "retina display" auf dem ersten ist schon ueberfluessig, aber es bleibt dabei dass je groesser die Flaeche des Bildschirms desto hoeher sollte die Aufloesung sein.

=Floi=
2011-02-03, 22:00:59
wie viele 15" notebooks gibt es mit 1366X768? Da wären die pixel wichtiger und niemanden interessiert es. das gleiche beim IP4. bei den android handys (800x480) sieht auch jeder nur das größere display und die ausreichend (sehr) gute qualität. Die 60% höhere pixeldichte sieht niemand.
ich sehe in einem tablet auch weniger ein arbeitsgerät.

Ailuros
2011-02-04, 08:03:38
wie viele 15" notebooks gibt es mit 1366X768? Da wären die pixel wichtiger und niemanden interessiert es. das gleiche beim IP4. bei den android handys (800x480) sieht auch jeder nur das größere display und die ausreichend (sehr) gute qualität. Die 60% höhere pixeldichte sieht niemand.
ich sehe in einem tablet auch weniger ein arbeitsgerät.

Wer redet denn ueberhaupt von notebooks? Windows mit seinen fixen ppi Werten fuer einfachen Text ist erstmal ein ziemlich bloeder Vergleich. Lies mal ein e-book auf einem heutigen iPad und dann koennen wir darueber reden ob man bei einer leicht hoeheren Aufloesung einen Unterschied sehen koennte oder nicht.

Ailuros
2011-02-07, 09:45:48
http://www.dailytech.com/article.aspx?newsid=20835

Verizon iPhone Sells Out, Verizon Attacks AT&T

Ailuros
2011-02-09, 12:44:27
NOKIA Stephen Elop's internal memo:

http://www.engadget.com/2011/02/08/nokia-ceo-stephen-elop-rallies-troops-in-brutally-honest-burnin/

http://www.dailytech.com/article.aspx?newsid=20863

Wohl doch keine hohe Aufloesung.

Ailuros
2011-02-11, 15:46:52
http://www.xbitlabs.com/news/mobile/display/20110210181518_Low_Cost_Apple_iPhone_in_The_Works_Report.html

Mein Bauchgefuehl tendiert eher in die negative Richtung, aber man weiss ja nie was Apple wirklich vorhat.

LadyWhirlwind
2011-02-11, 15:55:48
http://www.xbitlabs.com/news/mobile/display/20110210181518_Low_Cost_Apple_iPhone_in_The_Works_Report.html

Mein Bauchgefuehl tendiert eher in die negative Richtung, aber man weiss ja nie was Apple wirklich vorhat.

Ich glaube nicht, dass Apple das Display verkleinern wird, weil es sonst nicht mehr brauchbar zu bedienen ist, und ich glaube nicht das Apple sowas macht, eventuell ein iPhone light, das mit älterer Hardware kommt (Hardware von letzer, vorletzter Version, weniger interner Speicher, etc), wenn Apple darauf nur wenig Entwicklungskosten/Marketingkosten drauf schlägt, dürfte die $200 machbar sein...

MSABK
2011-02-11, 16:26:36
Ist ja nichts neues dass sachen entwickelt werden und nur Prototypen bleiben.

steve.it
2011-02-11, 16:29:20
Ich glaube nicht, dass Apple das Display verkleinern wird, weil es sonst nicht mehr brauchbar zu bedienen ist, und ich glaube nicht das Apple sowas macht, eventuell ein iPhone light, das m
Über und unter dem Display gibt es bei jetzigen iPhones noch Platz. Vielleicht gelingt es hier Apple das iPhone kleiner zu machen, ohne das Display selber verkleinern zu müssen, sofern an den Spekulationen etwas dran ist. Es gab ja auch das Gerücht, dass der Homebutton wegfallen könnte und durch eine Geste ersetzt werden könnte. In den Betas zu iOS 4.3 wurde auch mit neuen Gesten experimentiert.

Ailuros
2011-02-12, 08:23:28
Ich glaube nicht, dass Apple das Display verkleinern wird, weil es sonst nicht mehr brauchbar zu bedienen ist, und ich glaube nicht das Apple sowas macht, eventuell ein iPhone light, das mit älterer Hardware kommt (Hardware von letzer, vorletzter Version, weniger interner Speicher, etc), wenn Apple darauf nur wenig Entwicklungskosten/Marketingkosten drauf schlägt, dürfte die $200 machbar sein...

Wenn es Apple ueberhaupt will (der hauptsaechliche Grund dagegen steht ja am Ende des xbitlabs Artikel) ist es schon moeglich. Samsung kuendigt morgen oder uebermorgen ihre GalaxyS2 smart-phones und tablet an, waehrend es schon bekannt ist dass die billigere GalaxySL Linie nichtmal einen Hummingbird enthalten wird sondern einen TI OMAP3630.

Wie ich schon sagte mein Bauchgefuehl spricht zwar dagegen aber ich will auch noch nichts ausschliessen. Entwicklungskosten duerften so oder so relativ gering sein wenn es sich um einen A4 handeln sollte. Damit aber so ein Schritt ueberhaupt Sinn macht muessten entweder noch ausreichende 45/40nm wafer bei Samsung dafuer bereitstehen oder Apple hat einfach eine gesunde Anzahl von SoCs herumliegen die sie dann vielleicht loswerden wollen.

Denn selbst wenn Apple so ein Ding nur minimal vermarktet duerfte bei dem Preis dann trotzdem die Nachfrage ziemlich gross sein. Es wird aber dann auch tatsaechlich in Profit-Margen beissen und das ist eben der groesste Haken der gegen dieses angeblichen "nano" Dingsda sprechen koennte.

Ailuros
2011-03-10, 07:27:31
http://www.eetimes.com/electronics-news/4213873/Apple--TSMC-to-expand-foundry-ties

http://www.anandtech.com/show/4213/ios-43-review/1

Ailuros
2011-03-10, 12:26:37
http://www.fudzilla.com/mobiles/item/22075-iphone-5-to-get-a5-chip

Of course there was no way to prove this, until Chronic Dev group member Chronic, iOS developer Filippo Bigarella found mention of "N94AP" in the update. This is an Apple code name for a yet-to-be-released iPhone. The software then linked N94AP with another codename "S5L8940," which is the A5.

deekey777
2011-03-10, 12:35:11
Dass das iPhone 5 den A5 bekommt, ist nicht überraschend. Nur weiß man immernoch nicht genau, was sich hinter dem A5 versteckt.

Ailuros
2011-03-10, 12:52:51
Dass das iPhone 5 den A5 bekommt, ist nicht überraschend. Nur weiß man immernoch nicht genau, was sich hinter dem A5 versteckt.

Dual Cortex A9 + SGX543 MP2.

http://forum.beyond3d.com/showpost.php?p=1533559&postcount=106

Geekbench

iPad2,3 - 743
http://browse.geekbench.ca/geekbench2/view/374870
Processor integer performance - 672
Processor floating point performance - 901
Memory performance - 808
Memory bandwidth performance - 317
Processor Frequency - 894 MHz
L2 Cache - 1.00 MB
Memory - 502 MB
FSB - 250 MHz

iPad1,1 - 449
http://browse.geekbench.ca/geekbench2/view/375950
Processor integer performance - 366
Processor floating point performance - 457
Memory performance - 645
Memory bandwidth performance - 320
Processor Frequency - 1.00 GHz
L2 Cache - 512 KB
Memory - 246 MB
FSB - 100.0 MHz

mboeller
2011-03-11, 07:39:59
Dual Cortex A9 + SGX543 MP2.

http://forum.beyond3d.com/showpost.php?p=1533559&postcount=106


672/2 = 336

336/0,894 = 375,8

375,8/366 = 1,027 x A8 im iPad1

Sind clock-for-clock 2,7% Vorsprung nicht zu wenig für einen A9? Der 1MB L2-Cache alleine sollte das bereits locker ermöglichen.

Ailuros
2011-03-11, 07:50:15
672/2 = 336

336/0,894 = 375,8

375,8/366 = 1,027 x A8 im iPad1

Sind clock-for-clock 2,7% Vorsprung nicht zu wenig für einen A9? Der 1MB L2-Cache alleine sollte das bereits locker ermöglichen.

Dafuer muesste ich wissen was Geekbench genau anstellt um Dir zu antworten. Auf jeden Fall deuten die FPU Resultate deutlich darauf hin dass es sich um 2*A9 cores handelt. Apple hat fuer die CPU eine bis zu 2x Mal so hohe Leistungs-steigerung erwaehnt und fuer die GPU bis zu 9x Mal.

Hast bestimmt schon gelesen:

http://daringfireball.net/2011/03/the_ipad_2

CPU wird auch hier analysiert, und:

For example, on my original iPad, with 200 on-screen sprites, the framerate dropped to 45 fps. On the iPad 2, with 400 on-screen sprites, the framerate remained at 65 fps. On the iPad 1, Guy’s demo app dropped below 60 fps with about 100 animated sprites; on the iPad 2, it didn’t drop below 60 fps until there were over 750 animated sprites.

After I showed him the results, Guy told me, “The results show that the iPad 2 is easily about twice as powerful as the original and that this speed gain is a freebie — you don’t need to change your code structure in order to see significant gains. The differences in the amount of time spent rendering indicates that the GPU is really much faster than the original. The original iPad had a comparatively weak fill-rate and it was an issue for the device. The second generation really leaves that behind and it looks like it’ll be able to do some really incredible things graphically. My demo code is workman-like, competent code — meant to measure the relative strengths of the parts of the system. Taking some time to get the most out of that GPU and CPU will pay off with some really remarkable games and graphics apps.”

Bis zu 7x Mal so hohe sprites ist zu erwarten da bei 200MHz ein SGX535 13.5M echte Tris/s liefert, waehrend ein MP2 bei 66.5M Tris/s liegt.

Um das Ganze aber auf den originalen Punkt zu bringen: es sind zweifellos 2*A9@894MHz (siehe Geekbench) und ein SGX543 MP2. Einen single core 543 kann man sofort ausschliessen da der Entwickler oben von viel mehr Fuellrate spricht. Ein einzelner 543 hat 2 TMUs wie ein SGX535 auch.

Label
2011-03-11, 08:12:29
es sind zweifellos 2*A9@894MHz (siehe Geekbench)
Das glaube ich im Leben nicht.. Es sind 2x1GHz!
Warum sollte Apple falsche Specs (http://www.apple.com/de/ipad/specs/) angeben? Bei deren Zielgruppe haben die das gar nicht nötig...

Ailuros
2011-03-11, 08:23:11
Das glaube ich im Leben nicht.. Es sind 2x1GHz!
Warum sollte Apple falsche Specs (http://www.apple.com/de/ipad/specs/) angeben? Bei deren Zielgruppe haben die das gar nicht nötig...

Je mehr desto besser. 2x Mal die CPU Leistung erreicht ein 2*A9 so oder so selbst mit 894MHz.

Label
2011-03-11, 08:32:58
Naja, spätestens Morgen wird iFixit genauere Daten und Bilder zum A5 liefen... :idea:

stickedy
2011-03-13, 15:57:13
Läuft wohl nicht so, wie nVidia sich das gedacht hat: http://www.hartware.net/news_51212.html

Avalox
2011-03-13, 16:05:42
Läuft wohl nicht so, wie nVidia sich das gedacht hat: http://www.hartware.net/news_51212.html

Ist das jetzt so überraschend? Sony hat jedenfalls nichts von nVidia gewählt für das NGP.

in der aktuellen c't steht es auch und dieses trifft eigentlich den Nagel auf den Kopf.

"Nvidia bleibt nichts anderes übrig, als sich auch im Mobilmarkt auf ihre Stärken zu beziehen: eng mit Entwicklerstudios zusammenarbeiten, einige speziell auf Tegra-Chips optimierte Spiele in den die App-Stores bringen und mit der 3D-Stereoskopie-Fahne zu wedeln. Denn eine Performance-Revolution im Handheld-Grafikbereich ist zumindest der Tegra-2-Grafikkern nicht."

c't 2001, Heft 7 "Handheld Grafikchips" Martin Fischer

LovesuckZ
2011-03-13, 16:17:34
Läuft wohl nicht so, wie nVidia sich das gedacht hat: http://www.hartware.net/news_51212.html

Was - ein Chip, der ein Jahr später veröffentlicht wird, ist schneller? Oh Gott, dass muss neu sein in der Geschichte der Technikindustrie. :freak:

Im Sommer soll Tegra3 kommen, dann hat man auch hier wieder einen Gleichstand und bietet mehr CPU-Leistung.

Ailuros
2011-03-13, 16:43:03
Was - ein Chip, der ein Jahr später veröffentlicht wird, ist schneller? Oh Gott, dass muss neu sein in der Geschichte der Technikindustrie. :freak:

Nur sind diese Resultate immer noch nicht mit dem neuen Treiber es kommen bald noch zusaetzliche Ueberraschungen; uebrigens ist das iPad2 nur wenige Monate nach dem bulk von Tegra2 Geraeten erschienen, ergo nichts mit einem Jahr.


Im Sommer soll Tegra3 kommen, dann hat man auch hier wieder einen Gleichstand und bietet mehr CPU-Leistung.

Zum Zeitpunkt wo die groessere Masse an T3 Geraeten erscheinen wird Apple wieder nur ein paar Monate Abstand von den letzteren haben. Ja natuerlich wird T3 wohl 4 CPU Kerne haben, aber ob schon so viele CPU Kerne mehr genutzt werden koennen als eine schnellere GPU in Umgebungen wie Honeycomb bzw. iOS will ich ernsthaft bezweifeln. Aber Du kannst ja gerne von einem Gleichstand trauemen.

Irgendwo bis Juni kommt das iPhone5 mit dem gleichen A5 SoC an und damit wohl auch der fetteste Batzen ueberhaupt an high end smart-phones. Da der smart-phone Markt diametrisch groessere Volumen hat im Vergleich zu tablets, will ich sehen wieviele solche deals wirklich mit T3 am Ende erscheinen werden.

Neben dem ueblichen Rauch und Qualm seitens NV waren es weniger als eine handvoll von smart-phone deals fuer T2 (hohe Volumen) und um einige mehr tablet deals (niedrige Volumen).

LovesuckZ
2011-03-13, 16:52:06
Nur sind diese Resultate immer noch nicht mit dem neuen Treiber es kommen bald noch zusaetzliche Ueberraschungen; uebrigens ist das iPad2 nur wenige Monate nach dem bulk von Tegra2 Geraeten erschienen, ergo nichts mit einem Jahr.

Hä? Erste Tegra2 Geräte gibt es z.B. in Deutschland seit August 2010. Das sind zum Ipad2 fast 9 Monate. Tegra2 wird wohl 1 Jahr vor A5 sein Tape-Out gehabt haben. Es ist eben nVidia's Pech, dass die Einführung von Konkurrenzprodukten ein halbes Jahr länger gedauert hat.
Aber dies ist sich bestimmt nVidia bewusst. Und auf der MWC haben sie ja lautspurig auch die Verbesserungen mit Tegra3 angekündigt.

Zum Zeitpunkt wo die groessere Masse an T3 Geraeten erscheinen wird Apple wieder nur ein paar Monate Abstand von den letzteren haben.

Also wird Apple in diesem Jahr nochmal ein neues iPad ankündigen?
Ansonsten macht die Aussage keinen Sinn.

Ailuros
2011-03-13, 17:04:24
Hä? Erste Tegra2 Geräte gibt es z.B. in Deutschland seit August 2010.

Sicher failures wie die Toshiba Geraete. Ich rede von anstaendigen Volumen.

Das sind zum Ipad2 fast 9 Monate. Tegra2 wird wohl 1 Jahr vor A5 sein Tape-Out gehabt haben. Es ist eben nVidia's Pech, dass die Einführung von Konkurrenzprodukten ein halbes Jahr länger gedauert hat.
Aber dies ist sich bestimmt nVidia bewusst. Und auf der MWC haben sie ja lautspurig auch die Verbesserungen mit Tegra3 angekündigt.

Fuer 2011 liegt leider nicht nur T3 auf.

Also wird Apple in diesem Jahr nochmal ein neues iPad ankündigen?
Ansonsten macht die Aussage keinen Sinn.

Wer garantiert mir dass die Einfuehrung von T3 basierenden Produkten sich nicht wieder wiederholen koennte? Es ist eben leider ausserhalb NV's Kontrolle. Anstaendige Volumen von T3 wirst Du nicht vor Q1 2012 sehen.

LovesuckZ
2011-03-13, 17:11:33
Sicher failures wie die Toshiba Geraete. Ich rede von anstaendigen Volumen.

Das spielt überhaupt keine Rolle und steht mit der Leistungsfähigkeit von Tegra2 auch in keinem Zusammenhang.

Wer garantiert mir dass die Einfuehrung von T3 basierenden Produkten sich nicht wieder wiederholen koennte? Es ist eben leider ausserhalb NV's Kontrolle. Anstaendige Volumen von T3 wirst Du nicht vor Q1 2012 sehen.

nVidia hat auf der MWC Tegra3 Tabletprototypen zeigen können. Das Silizium ist fertig und an Partner für Testzwecke ausgeliefert. Honeycomb ist ebenfalls massenmarktreif. Die Wahrscheinlichkeit ist also sehr hoch, dass die Ankündigung eintreffen wird.

Außerdem ist es auch bezeichnend, dass dieser 1 Jahr alte Chip Apple's Chip in Sachen CPU-Leistung ebenbürtig bis überlegen ist. Aber dies kann man ja nicht so marketingreif verwenden, gell? :freak:
Auch wird vergessen, dass nVidia mit Tegra2 annährend 9 Monate vor der Konkurrenz fertiges Silizium hatte und somit auch die Entwicklung von Honeycomb in Bezug auf Multi-Core-Unterstützung beeinflussen konnte. Jede Medaille hat immer auch zwei Seiten.

=Floi=
2011-03-13, 17:20:09
in wie vielen handys ist tegra angekündigt oder gar auf dem markt?

komm mal runter. der A5 ist besser und in apple hat man wohl einen besseren gegner, wie in ati.


edit
was nützen mir diese paperlaunches? ich will produkte 3-8 wochen später im laden sehen...
das ist bei grafikkarten so und bei solchen produkten mache ich keine ausnahme. sony fabriziert den gleichen mist mit der psp2.

LovesuckZ
2011-03-13, 17:25:46
in wie vielen handys ist tegra angekündigt oder gar auf dem markt?

Und in wievielen Handys ist A5 enthalten? :freak:
Ihr schreibt manchmal Dinge, da kann man wirklich nur :uhammer:

edit
was nützen mir diese paperlaunches? ich will produkte 3-8 wochen später im laden sehen...
das ist bei grafikkarten so und bei solchen produkten mache ich keine ausnahme. sony fabriziert den gleichen mist mit der psp2.

Ist doch eine Krankheit in der Branche. Qualcomm hat schon Chips für 2012 angekündigt. Das ist noch dümmer...

fondness
2011-03-13, 17:30:52
Das spielt überhaupt keine Rolle und steht mit der Leistungsfähigkeit von Tegra2 auch in keinem Zusammenhang.

Das spielt sogar eine gewaltige Rolle. Die paar tausend Chips, welche man von Tegra 2 damals verkauft hat, hätte Apple wohl auch schon vor 6 Monate liefern können. Aber Apple stellt eben erst vor wenn sie hunderttausende fertige iPads auf Lager haben.

LovesuckZ
2011-03-13, 17:34:26
Das spielt sogar eine gewaltige Rolle. Die paar tausend Chips, welche man von Tegra 2 damals verkauft hat, hätte Apple wohl auch schon vor 6 Monate liefern können. Aber Apple stellt eben erst vor wenn sie hunderttausende fertige iPads auf Lager haben.

Soso - Apple hätte also schon im August Produkte mit A5 liefern können. Lustig, sah sich Apple doch genötigt schon im Januar 2010 ihr iPad anzukündigen, dass erst im März 2010 (oder war es April) in den USA zu kaufen gab. Nicht zu vergessen die zeitliche Verzögerung für den Rest der Welt...

Auch hier gilt: Ihr schreibt manchmal Dinge, da kann man wirklich nur :uhammer:

fondness
2011-03-13, 17:39:18
Soso - Apple hätte also schon im August Produkte mit A5 liefern können. Lustig, sah sich Apple doch genötigt schon im Januar 2010 ihr iPad anzukündigen, dass erst im März 2010 (oder war es April) in den USA zu kaufen gab. Nicht zu vergessen die zeitliche Verzögerung für den Rest der Welt...

Auch hier gilt: Ihr schreibt manchmal Dinge, da kann man wirklich nur :uhammer:

Warum du jetzt hier eine Geschichtsstunde abhältst bleibt wohl dein Geheimnis, vermutlich mangels Argumenten. Es ging einzig um alleine um den A5, bzw. das iPad2. Deine Aussage wonach NVs Tegar 2 ja schon ein Jahr alt sei ist einfach lächerlich. Apple verkauft vermutlich alleine dieses Wochenende mehr A5-Chips als Tegra 2 Chips bis jetzt an den Endkunden verkauft wurden.

LovesuckZ
2011-03-13, 17:49:19
Warum du das jetzt aus dem Hut zauberst bleibt wohl dein Geheimnis, vermutlich mangels Argumenten. Es ging einzig um alleine um den A5, bzw. das iPad2. Deine Aussage wonach NVs Tegar 2 ja schon ein Jahr alt sei ist einfach lächerlich.

Nein, lächerlich sind solche Postings, die Dinge zusammenschustern, die in keiner Abhängigkeit stehen.
nVidia zeigte Tegra2 auf der CES 2010 mit Prototypen. Apple zeigte das iPad 3 Wochen später als Prototyp. Wer hier behauptet, Apple hätte ja A5 schon im Ausgust ausliefern können, der sollte diesmal auch mal beweisen.

Auch spielt die Auslieferungsmenge überhaupt keine Rolle, wenn niemand sie bestellt. Bis auf das Tab gibt es nichtmal gleichwertige iPad1-Konkurrenten. Wo sind denn die TI, Qualcomm und Konsorten Tablets? Vielleicht liegt die Verzögerung ja einfach auf einer höhreren Betrachtungsschicht als dem Hardware-Layer. Wobei - wenn man nVidia bashen kann, dann steht die Logik auch einfach mal an zweiter Stelle.

fondness
2011-03-13, 18:02:51
Wobei - wenn man nVidia bashen kann, dann steht die Logik auch einfach mal an zweiter Stelle.

Du glaubst wohl wirklich alle sind gegen Nvidia und du führst den einsamen Kampf für die Gerechtigkeit oder? Schonmal auf die Idee gekommen das vielleicht doch du "etwas" verblendet bist und andere vielleicht einfach nur ein wenig mehr realistisch?

Ailuros
2011-03-13, 18:03:05
Das spielt überhaupt keine Rolle und steht mit der Leistungsfähigkeit von Tegra2 auch in keinem Zusammenhang.


Es spielt eine besonders grosse Rolle was die launch dates und Verfuegbarkeit diverser T2 Geraete betrifft. Nochmal das groesste Volumen kam erst in 2011. Und bei den insgesamten Verkaufsvolumen zu Apple's iPads ist das sowieso wurscht.


nVidia hat auf der MWC Tegra3 Tabletprototypen zeigen können. Das Silizium ist fertig und an Partner für Testzwecke ausgeliefert. Honeycomb ist ebenfalls massenmarktreif. Die Wahrscheinlichkeit ist also sehr hoch, dass die Ankündigung eintreffen wird.

Integration ist ausserhalb NV's Kontrolle; so viel wird man wohl vestehen koennen.

Außerdem ist es auch bezeichnend, dass dieser 1 Jahr alte Chip Apple's Chip in Sachen CPU-Leistung ebenbürtig bis überlegen ist. Aber dies kann man ja nicht so marketingreif verwenden, gell? :freak:
Auch wird vergessen, dass nVidia mit Tegra2 annährend 9 Monate vor der Konkurrenz fertiges Silizium hatte und somit auch die Entwicklung von Honeycomb in Bezug auf Multi-Core-Unterstützung beeinflussen konnte. Jede Medaille hat immer auch zwei Seiten.

Tegra2 hat als Referenz-Platform fuer Honeycomb gedient und das tatsaechlich weil es die erste dual core CPU Platform war. Ich sehe aber trotz allem nicht den Zusammenhang zu iOS oder Apple und schon gar nicht in Verkaufsvolumen.

Ich hab nichtmal einen besonderen Rueckschlag in Verkaufszahlen fuer's originale iPad sehen koennen als die ersten T2 Geraete erschienen sind.

Soso - Apple hätte also schon im August Produkte mit A5 liefern können. Lustig, sah sich Apple doch genötigt schon im Januar 2010 ihr iPad anzukündigen, dass erst im März 2010 (oder war es April) in den USA zu kaufen gab. Nicht zu vergessen die zeitliche Verzögerung für den Rest der Welt...

Auch hier gilt: Ihr schreibt manchmal Dinge, da kann man wirklich nur :uhammer:

Hat er nicht gesagt, gemeint oder angedeutet. Er sagte lediglich dass Du nicht einsehen willst dass die ersten T2 Geraete auf laecherlichem Volumen lagen. Ausser Du willst mir weissmachen dass T2 von August 2010 bis vor der ipad2 Ankundigung mehr tablets verkauft hat als iPad.

Nein, lächerlich sind solche Postings, die Dinge zusammenschustern, die in keiner Abhängigkeit stehen.

Noch laecherlicher ist Deine Tendenz nur das zu lesen bzw. interepretieren was Dir gerade so passt.

nVidia zeigte Tegra2 auf der CES 2010 mit Prototypen. Apple zeigte das iPad 3 Wochen später als Prototyp. Wer hier behauptet, Apple hätte ja A5 schon im Ausgust ausliefern können, der sollte diesmal auch mal beweisen.

Es hat keiner behauptet dass A5 schon Mitte 2011 erscheinen haette koennen allein schon aus dem Grund weil Apple traditionell jedes Jahr aufruestet. Ja es gab im letzten Sommer T2 Geraete die aber zurueckgezogen wurden weil sie eben problematisch waren. Dies hat zwar nichts mit NV zu tun, aber von einer Produkt-existenz und noch wichtiger Verkaufszahlen zu reden ist tatsaechlich laecherlich.

Auch spielt die Auslieferungsmenge überhaupt keine Rolle, wenn niemand sie bestellt. Bis auf das Tab gibt es nichtmal gleichwertige iPad1-Konkurrenten. Wo sind denn die TI, Qualcomm und Konsorten Tablets? Vielleicht liegt die Verzögerung ja einfach auf einer höhreren Betrachtungsschicht als dem Hardware-Layer.

Du wirst im Laufe des Jahres schon Grund zur Unruhe haben und nicht nur von den vorerwaehnten Semis.

Wobei - wenn man nVidia bashen kann, dann steht die Logik auch einfach mal an zweiter Stelle.

Gilt genauso anders rum, wenn nicht noch um einiges schlimmer.

LovesuckZ
2011-03-13, 18:12:30
Es spielt eine besonders grosse Rolle was die launch dates und Verfuegbarkeit diverser T2 Geraete betrifft. Nochmal das groesste Volumen kam erst in 2011. Und bei den insgesamten Verkaufsvolumen zu Apple's iPads ist das sowieso wurscht.

Tegra2 ist seit über einem Jahr fertig. Wie soll Tegra2 bitte schneller werden? Selbst wenn nVidia nur einen Chip verkauft hätte, wäre Tegra2 nicht schneller oder langsamer als heute.
Irgendwie verstehe ich es nicht, wieso Logik bei einigen nichts wieter als ein Eintrag im Lexika ist.

Integration ist ausserhalb NV's Kontrolle; so viel wird man wohl vestehen koennen.

Falsch. nVidia kann dabei helfen, indem sie entsprechende Tools und Plattformen bieten. Und das tun sie eben mit Tegra3. Man sollte dazu sich einfach nur die Kommentare von der MWC durchlesen.


Tegra2 hat als Referenz-Platform fuer Honeycomb gedient und das tatsaechlich weil es die erste dual core CPU Platform war. Ich sehe aber trotz allem nicht den Zusammenhang zu iOS oder Apple und schon gar nicht in Verkaufsvolumen.

Natürlich nicht. Weil dann würde man merken, dass es keine vergleichbaren Android-Tablets auf dem Markt gibt. Und dies ist vollkommen unabhängig davon wie gut oder schlecht T2 ist.


Ich hab nichtmal einen besonderen Rueckschlag in Verkaufszahlen fuer's originale iPad sehen koennen als die ersten T2 Geraete erschienen sind.

Und das hat genau was mit T2 zu tun? Das selbe kann man auch über Samsung sagen, oder TI, oder Qualcomm oder einen anderen der 60 Lizenznehmer von ARM.

T2 wurde zur selben Zeit vorgestellt wie Apple's A4. Wer sich hier hinstellt und ernsthaft behauptet, dass T2 nicht deutlich älter als A5 wäre, der müsste demnach das selbe auch über A4 schreiben.


Hat er nicht gesagt, gemeint oder angedeutet. Er sagte lediglich dass Du nicht einsehen willst dass die ersten T2 Geraete auf laecherlichem Volumen lagen. Ausser Du willst mir weissmachen dass T2 von August 2010 bis vor der ipad2 Ankundigung mehr tablets verkauft hat als iPad.

Nochmal: In welchen Zusammenhang stehen die ausgelieferten Geräte mit dem Alter und der Leistungsfähigkeit von Tegra2?
Merkt ihr nicht, dass ihr hier Dinge in einem Topf werft, die in keinem Zusammenhang stehen?
Das iPad1 wurde in Deutschland ende Mai verkauft. Im August veröffentlichte Toshiba das AC100 in Deutschland.


Es hat keiner behauptet dass A5 schon Mitte 2011 erscheinen haette koennen allein schon aus dem Grund weil Apple traditionell jedes Jahr aufruestet. Ja es gab im letzten Sommer T2 Geraete die aber zurueckgezogen wurden weil sie eben problematisch waren. Dies hat zwar nichts mit NV zu tun, aber von einer Produkt-existenz und noch wichtiger Verkaufszahlen zu reden ist tatsaechlich laecherlich.

Also bitte - "niemand" ist schon "Schaffe89". Du meinst bestimmt fondness, der genau dies behauptete:
Das spielt sogar eine gewaltige Rolle. Die paar tausend Chips, welche man von Tegra 2 damals verkauft hat, hätte Apple wohl auch schon vor 6 Monate liefern können. Aber Apple stellt eben erst vor wenn sie hunderttausende fertige iPads auf Lager haben.

=Floi=
2011-03-13, 18:24:08
Und in wievielen Handys ist A5 enthalten?
Ihr schreibt manchmal Dinge, da kann man wirklich nur


Ist doch eine Krankheit in der Branche. Qualcomm hat schon Chips für 2012 angekündigt. Das ist noch dümmer...

ein handy wurde mit dem A5 noch nicht vorgestellt. ;) :biggrin: (dann lass es eben ein tab sein. dort ist die "time to market" auch vorbildlich)
Wenn es im sommer so weit ist, dann wird das iphone 5 ~3 wochen später in laden stehen! Darum geht es mir. bei grafikkarten klappt es ja auch und warum holt man sich hier keinen starken partner ins boot, welcher wenigstens ein brauchbares tab/handy vorstellt und ausliefert?!

ich sage ja auch nicht, dass es andere besser machen, nur herrscht hier das problem der indirekten produkte, welche (der prozessor selbst) erst einmal einen kunden finden müssen. hier könnte man viel enger zusammenarbeiten und viel agiler handeln. arms strategie ging jahrelang gut, aber das ist heute nicht mehr zeitgemäß und apple hat dies auch kapiert.


wie oft sagte nv, dass tegra 2 so super toll sei und "the leading edge" darstelle. :rolleyes: nicht mal richtig auf dem markt (mir sind keine kaufbaren produkte im deutschen handel bekannt) und schon vom A5 überfahren. super.
die sollten einfach nicht den mund so voll nehmen und gerade bei der gpu ist es schon bitter so geschlagen zu werden. :rolleyes:
A5 sollte wie der tegra 2 40nm haben...

---
deine posts waren früher mal wirklich gut, aber jetzt geht es ja nur noch gegen alle anderen und gegen gipsel. nur nv ist noch super und alle anderen schlecht. das wird (zum glück) eh bald wieder in einer auszeit enden und hoffentlich besinnst du dich dann mal. Du verträgst wohl die starkte konkurrenz durch apple nicht.

LovesuckZ
2011-03-13, 18:33:07
Wenn es im sommer so weit ist, dann wird das iphone 5 ~3 wochen später in laden stehen! Darum geht es mir. bei grafikkarten klappt es ja auch und warum holt man sich hier keinen starken partner ins boot, welcher wenigstens ein brauchbares tab/handy vorstellt und ausliefert?!

Du kannst es nicht vergleichen. Die zeitliche Differenz ist wesentlich größer. Der Unterschied von Apple zu anderen ist, dass sie alles selbst produzieren. Nimm doch mal Motorola: Die müssen auf Google und nVidia warten und dann alles selbst zum Laufen bringen. Bei Grafikkarten kauft man die Karte, packt sie ein und verschickt es.


wie oft sagte nv, dass tegra 2 so super toll sei und "the leading edge" darstelle. :rolleyes: nicht mal richtig auf dem markt (mir sind keine kaufbaren produkte im deutschen handel bekannt) und schon vom A5 überfahren. super.

Nur bei der GPU-Leistung. Man sollte nicht vergessen, dass A5 bei CPU-Leistung nur auf T2 Niveau liegt!


die sollten einfach nicht den mund so voll nehmen und gerade bei der gpu ist es schon bitter so geschlagen zu werden. :rolleyes:
A5 sollte wie der tegra 2 40nm haben...

T2 ist ein Jahr alt. Wäre ziemlich lächerlich, wenn A5 ihn dort nicht schlagen würde. Selbst nVidia hat doch schon großartige Leistungssprünge mit T3 angekündigt.


---
deine posts waren früher mal wirklich gut, aber jetzt geht es ja nur noch gegen alle anderen und gegen gipsel. nur nv ist noch super und alle anderen schlecht. das wird (zum glück) eh bald wieder in einer auszeit enden und hoffentlich besinnst du dich dann mal. Du verträgst wohl die starkte konkurrenz durch apple nicht.

;D
Klar, vorallem weil ich mit meinem iPhone und iPad auch so unzufrieden bin. :freak:
Manchmal sollte man es einfach unterlassen über andere etwas zu schreiben, was sie selbst nie geschrieben haben.

=Floi=
2011-03-13, 18:38:16
solche toshiba tablets?
http://www.golem.de/1011/79409.html
gute werbung für nv ;) ;D


edit
eigentlich stellt nv auch nur den chip her, aber die anderen haben zum launch trotzdem schon karten fertig im handel!

Nakai
2011-03-13, 18:40:45
Nur bei der GPU-Leistung. Man sollte nicht vergessen, dass A5 bei CPU-Leistung nur auf T2 Niveau liegt!

Ja, das ist wahr. T2 war der erste SOC mit A9-Dualcore. Nur wird das bald kein Alleinstellungsmerkmal, sondern die Allgemeinheit sein. Eben wie beim 1GHz CortexA8.

T2 ist ein Jahr alt. Wäre ziemlich lächerlich, wenn A5 ihn dort nicht schlagen würde. Selbst nVidia hat doch schon großartige Leistungssprünge mit T3 angekündigt.

Das kann man nur sagen, wenn wir wüssten, wann der A5 gesampled hat.
Sampling ist ja mehr oder weniger der Produktionsstart. Wann die ersten Produkte auf den Markt kommen, hat NV eher nicht in der Hand.

Man kann aber davon ausgehen, dass das Sampling von A5 schon in weiterer Vergangenheit liegt.

€:
solche toshiba tablets?
http://www.golem.de/1011/79409.html
gute werbung für nv

Naja das waren die ersten "freiverfügbaren" T2. Dass diese in ein Netbook kommen, ist nicht verwunderlich. Díe Bewertungen sind auch kein Wunder. Softwareentwicklung ist bei einem SOC essentiell. Da hat Toshiba eben selber Hand angelegt und es verkackt.
Warum denkst du, dass T2 auf der Roadmap erst Anfang 2011 als verfügbar angezeigt wird? Weil jetzt erst die Softwareumgebung fertig ist.

LovesuckZ
2011-03-13, 18:44:19
Ja, das ist wahr. T2 war der erste SOC mit A9-Dualcore. Nur wird das bald kein Alleinstellungsmerkmal, sondern die Allgemeinheit sein. Eben wie beim 1GHz CortexA8.

Das ist der Vorteil von nVida: Wenn die Konkurrenz mit DualCore kommt, kann nVidia eventuell schon QuadCore liefern.


Das kann man nur sagen, wenn wir wüssten, wann der A5 gesampled hat.
Sampling ist ja mehr oder weniger der Produktionsstart. Wann die ersten Produkte auf den Markt kommen, hat NV eher nicht in der Hand.

Man kann aber davon ausgehen, dass das Sampling von A5 schon in weiterer Vergangenheit liegt.

Das gilt genauso für T2. Man muss nur einmal die Ankündigungen von T2 und T3 vergleichen.

Ailuros
2011-03-13, 18:48:51
Tegra2 ist seit über einem Jahr fertig. Wie soll Tegra2 bitte schneller werden? Selbst wenn nVidia nur einen Chip verkauft hätte, wäre Tegra2 nicht schneller oder langsamer als heute.

Ach lahmarschig ist das Ding so oder so. Das einzige was das Ding rettete war die dual core CPU.


Falsch. nVidia kann dabei helfen, indem sie entsprechende Tools und Plattformen bieten. Und das tun sie eben mit Tegra3. Man sollte dazu sich einfach nur die Kommentare von der MWC durchlesen.

Machen an fuer sich sogar IP Firmen und das nicht schon seit gestern. Hier kann aber NV und jeder andere SoC Hersteller immer noch hoffen dass die Integration nach Plan laeuft.

Natürlich nicht. Weil dann würde man merken, dass es keine vergleichbaren Android-Tablets auf dem Markt gibt. Und dies ist vollkommen unabhängig davon wie gut oder schlecht T2 ist.

Weil zufaelligerweise Honeycomb immer noch nicht vollkommen auf Trab ist?

T2 wurde zur selben Zeit vorgestellt wie Apple's A4.

Wenn Apple ein Produkt ankuendigt dann heisst es Massen-Verfuegbarkeit innerhalb wenigen Tagen.

Wer sich hier hinstellt und ernsthaft behauptet, dass T2 nicht deutlich älter als A5 wäre, der müsste demnach das selbe auch über A4 schreiben.

Das dumme ist dass es keiner in diesem Thread behauptet hat. Ich und fondness reden lediglich ueber Verkaufszahlen. Ich sahe keine unendliche Warte-schlangen im August 2010 fuer das Toshiba failure ganz im Gegensatz zu diesen die ich gestern fuer iPad2's sehen koennte. Ich wuerde mich zwar nicht persoenlich in eine Schlange fuer hw stellen, aber das ist auch ein anderes Kapitel.

Was juckt es mich wenn es T2 Geraete schon im August 2010 wenn sie erstens zurueckgezogen wurden und zweitens sowieso nichts anstaendiges verkauft haben? Der grosse Knall fuer T2 kam bei CES und selbst fuer diese war es nicht immer eine unmittelbare Verfuegbarkeit. Ganz im Gegenteil zu Apple die bis jetzt nur hard launches fuer ihre i-Geraete hat.

=Floi=
2011-03-13, 18:50:35
nv hat aber mit ihrer tollen spieletauglichen gpu so stark angegeben und nun ist quasi nichts mehr davon übrig. schaut man sich die zahlen an, dann kocht nv auch nur mit wasser und die ach so tolle leistung existiert nur auf dem papier. eigentlich müsste tegra so stark sein, dass er mit dem A5 mithält und eben auch noch eine weile mithalten kann. tut er aber nicht mal ein bisschen.
http://www.nvidia.com/object/tegra.html

Nakai
2011-03-13, 18:52:02
Das ist der Vorteil von nVida: Wenn die Konkurrenz mit DualCore kommt, kann nVidia eventuell schon QuadCore liefern.

Wenn der Stromverbrauch da mal nicht übel mitspielt.

Das gilt genauso für T2.

Auf der Roadmap steht doch explizit, dass Anfang 2010 mit der Produktion(also Sampling) losging. Wann der A5 das erste Mal aus der Fab rauskam wissen wir nicht.

Man muss nur einmal die Ankündigungen von T2 und T3 vergleichen.

T3 hätte imo schon vor längerer Zeit angekündigt werden sollen(und nicht erst vor ein paar Wochen). Das könnte einige Entwickler, die für zukünftige Projekte arbeiten, ziemlich ankotzen.

LovesuckZ
2011-03-13, 18:57:03
Das dumme ist dass es keiner in diesem Thread behauptet hat. Ich und fondness reden lediglich ueber Verkaufszahlen. Ich sahe keine unendliche Warte-schlangen im August 2010 fuer das Toshiba failure ganz im Gegensatz zu diesen die ich gestern fuer iPad2's sehen koennte. Ich wuerde mich zwar nicht persoenlich in eine Schlange fuer hw stellen, aber das ist auch ein anderes Kapitel.

Fondness hat dies klar und eindeutig gesagt. Wenn dir seine Aussagen nicht passen, dann solltest du dies nicht mir sagen.


Was juckt es mich wenn es T2 Geraete schon im August 2010 wenn sie erstens zurueckgezogen wurden und zweitens sowieso nichts anstaendiges verkauft haben? Der grosse Knall fuer T2 kam bei CES und selbst fuer diese war es nicht immer eine unmittelbare Verfuegbarkeit. Ganz im Gegenteil zu Apple die bis jetzt nur hard launches fuer ihre i-Geraete hat.

Es interessiert niemanden, ob dir etwas gefällt oder nicht. T2 ist nunmal schon seit 9 Monaten in Produkten erhältlich. Der SoC ist also weitaus älter als A5. Fakten heißen nunmal so, weil sie belegbar sind.

Wenn der Stromverbrauch da mal nicht übel mitspielt.

Laut nVidia ist der Stromverbrauch bei selber Last nicht höher.


Auf der Roadmap steht doch explizit, dass Anfang 2010 mit der Produktion(also Sampling) losging. Wann der A5 das erste Mal aus der Fab rauskam wissen wir nicht.

Tegra2 war zur CES schon in Händen der Partner. Es gab zich verschiedene Prototypen von verschiedenen Firmen. T2 kam also weitaus früher aus der Fab zurück als T3.

Nakai
2011-03-13, 19:06:15
Laut nVidia ist der Stromverbrauch bei selber Last nicht höher.


Ist er bei selber Last auch deutlich schneller?

Tegra2 war zur CES schon in Händen der Partner. Es gab zich verschiedene Prototypen von verschiedenen Firmen. T2 kam also weitaus früher aus der Fab zurück als T3.

Apple braucht keine Partner.

Apple liefert eine geschlossene Umgebung. Da läuft Softwareproduktion und Hardwareporduktion Hand in Hand.

LovesuckZ
2011-03-13, 19:22:39
Ist er bei selber Last auch deutlich schneller?

Natürlich nicht. Aber dies steht auch nicht zur Debatte.


Apple braucht keine Partner.

Apple liefert eine geschlossene Umgebung. Da läuft Softwareproduktion und Hardwareporduktion Hand in Hand.

Richtig, Apple hat viel kürzere Time-To-Market Zeiten. Aber das ändert nichtsw daran, dass T2 zur CES2010 schon weitaus länger von der Fab zurück war als T3.

hell_bird
2011-03-13, 19:25:24
Apple hat PowerVR oder? Das sind dann komplett unterschiedliche Techniken, die bei unterschiedlichen Szenarien ihre Stärken haben. Ich empfehle die Lektüre der aktuellen c't

Ailuros
2011-03-13, 19:30:46
Fondness hat dies klar und eindeutig gesagt. Wenn dir seine Aussagen nicht passen, dann solltest du dies nicht mir sagen.

Ich zitiere ihn nochmal:

Das spielt sogar eine gewaltige Rolle. Die paar tausend Chips, welche man von Tegra 2 damals verkauft hat, hätte Apple wohl auch schon vor 6 Monate liefern können. Aber Apple stellt eben erst vor wenn sie hunderttausende fertige iPads auf Lager haben.

Was genau kannst Du daran nicht verstehen? Wenn Apple keine hard launches machen wuerde und wenn es nur um beschissen kleine Volumen gehen wuerde wie beim halbgarem Folio um es in kurzer Zeit dank sw Problemen wieder zurueckzuziehen ja natuerlich haette es so Apple auch schaffen koennen.

Es ist ein perfekt logische Hypothese und keine Behauptung. Apple liefert nur nach einigen Tagen nach der Ankuendigung aus und dabei mit Volumen fuer die andere Hersteller ein ganzes Jahr brauchen um sie zu verkaufen.

Es interessiert niemanden, ob dir etwas gefällt oder nicht.

Noch weniger interessieren Deine indirekten Sticheleien. Leb damit dass es etliche Jahre dauern wird bis NV etwas anstaendiges auf die Beine stellen kann in diesem Markt.

T2 ist nunmal schon seit 9 Monaten in Produkten erhältlich. Der SoC ist also weitaus älter als A5. Fakten heißen nunmal so, weil sie belegbar sind.

Fakten sind auch:

1. Dass T2 kein anstaendiges power gating fuer beide CPUs hat.

2. Dass NV keine anstaendige Partner Unterstuetzung lieferte.

3. Dass die ULP GeForce im Vergleich zu anderen embedded GPUs eine technische Antiquitaet ist.

Laut nVidia ist der Stromverbrauch bei selber Last nicht höher.

Weil Nr. 1 oben gerichtet wurde und das fuer alle 4 cores.

Tegra2 war zur CES schon in Händen der Partner. Es gab zich verschiedene Prototypen von verschiedenen Firmen. T2 kam also weitaus früher aus der Fab zurück als T3.

In Haenden von Partnern schon aber eben nicht auf Regalen.

LovesuckZ
2011-03-13, 19:41:39
Was genau kannst Du daran nicht verstehen? Wenn Apple keine hard launches machen wuerde und wenn es nur um beschissen kleine Volumen gehen wuerde wie beim halbgarem Folio um es in kurzer Zeit dank sw Problemen wieder zurueckzuziehen ja natuerlich haette es so Apple auch schaffen koennen.

Das steht immer noch in keinem Zusammenhang mit der Leistungsfähigkeit von Tegra2. Hört doch endlich über zwei Dinge zu sprechen, die nichts gemeinsam haben.


Es ist ein perfekt logische Hypothese und keine Behauptung. Apple liefert nur nach einigen Tagen nach der Ankuendigung aus und dabei mit Volumen fuer die andere Hersteller ein ganzes Jahr brauchen um sie zu verkaufen.

Ipad 1 vergessen? Hoffentlich nicht. Toshiba hat das AC100 auch nur 2 Monate vorher angekündigt.


Noch weniger interessieren Deine indirekten Sticheleien. Leb damit dass es etliche Jahre dauern wird bis NV etwas anstaendiges auf die Beine stellen kann in diesem Markt.

Stimmt. Sieht man ja daran, dass die Konkurrenz wegläuft. :rolleyes:
Unglaublich wie sehr man eine Firma hassen muss, um Aussagen zu treffen, die einfach nur falsch sind. nVidia hat vor der mächtigen Konkurrenz ein DualCore Design auf den Markt betracht und bietet die Referenzplattform für Honeycomb und Motorola hat dadurch einen fast 6 monatigen Vorsprung vor der nicht Tegra2 Konkurrenz.
Wenn das also schon nicht "etwas anstaendiges" wäre, wie sieht denn erst konkurrenzfähig aus?

Fakten sind auch:

1. Dass T2 kein anstaendiges power gating fuer beide CPUs hat.

Die Aussage hatten wir schon. Das selbe gilt z.B. auch für TI's Omap.


2. Dass NV keine anstaendige Partner Unterstuetzung lieferte.

Gilt genauso auch für die anderen.


3. Dass die ULP GeForce im Vergleich zu anderen embedded GPUs eine technische Antiquitaet ist.

Die auf dem selben Niveau liegen oder ein Jahr jünger sind. Wow, was für eine Leistung.

IVN
2011-03-13, 19:57:54
@Ailuros


Dein Ton in diesem Thread ist sowas von biased. Mich würde es nicht stören, wenn du nur ein weiterer Nutzer, genau wie Lovesuckz wärst. Aber die Tatsache, das du ein Mod bist, und trotzdem den Fanboy raushängen lässt, ist auf so vielen Leveln falsch.

Überhaupt, wenn ich mich recht entsinne, so gibt es die ungeschriebene Regel, das ein Mod bei einem Theama, wo er befangen ist, und das er aktiv moderiert, eben NICHT diskutieren sollte. Das ist so, wie wenn man Polizisten gleichzeitig zu Richtern machen würde.


Und jetzt zurück zu Tegra: Tegra ist zZ der einzige SoC, der überhaupt was gegen A5 ausrichten kann. Es ist nicht der Fehler Nvidias, das Android 3 sooo lange es auf sich warten liess. Wie LS schon sagte, so war Tegra 2 schon vor nem Jahr fertig...lange vor A5. Bald kommt die nächste Tegra-Inkarnation, und hoffentlich reissen sich diesmal Samsung, Moto, und Co zusammen, und hauen schneller ihre Tablets raus. Hoffentlich wird in ~6 Monaten auch Android 3 bugfrei und wirklich fertig sein.

Hoffentlich, denn es gibt Leute die gerne ein Tablet kaufen würden, das einen nicht bevormundet. Und dass heisst: ganzes Web sehen (Flash), erweitern wie es einem passt (USB, Flash-Cards, usw).

Ailuros
2011-03-13, 20:09:51
Das steht immer noch in keinem Zusammenhang mit der Leistungsfähigkeit von Tegra2. Hört doch endlich über zwei Dinge zu sprechen, die nichts gemeinsam haben.

Kann sein dass Volumen fuer Dich nicht relevant sind, aber in der realen Welt dort draussen schon.


Stimmt. Sieht man ja daran, dass die Konkurrenz wegläuft. :rolleyes:

Tut sie auch. Nur eben nicht in Deiner verschachtelten Realitaet.

Unglaublich wie sehr man eine Firma hassen muss, um Aussagen zu treffen, die einfach nur falsch sind.

Unglaublich wie sehr man eine Firma lieben kann, um Aussagen zu treffen, die einfach nur falsch sind.

nVidia hat vor der mächtigen Konkurrenz ein DualCore Design auf den Markt betracht und bietet die Referenzplattform für Honeycomb und Motorola hat dadurch einen fast 6 monatigen Vorsprung vor der nicht Tegra2 Konkurrenz.
Wenn das also schon nicht "etwas anstaendiges" wäre, wie sieht denn erst konkurrenzfähig aus?

Und verkauft innherhalb des Jahres wie viel genau? PCGH hat NV fuer eine 15Mio Projektion fuer 2011 zitiert. Wenn Du irgendwelche Daten haben solltest die von einer Markt-kapitulation sprechen sollte nur raus damit.

Die Aussage hatten wir schon. Das selbe gilt z.B. auch für TI's Omap.

Nein. Es gibt manuals auf dem Netz; durchlesen hilft.

Gilt genauso auch für die anderen.

Eben nicht. Nur Du empfindest dass NV irgendeine Innovation in den Markt bringt (T3) mit aktiver Partner-Unterstuetzung. Es ist Normalgebrauch bei anderen sowohl auf hw als auch auf sw Level.

Die auf dem selben Niveau liegen oder ein Jahr jünger sind. Wow, was für eine Leistung.

Schon SGX540 ist faehiger und schneller als der Bums in Tegra2 und dieses erschien schon im GalaxyS.

Als vehementer Verteidiger von NV weisst Du selber dass NV stets davor sorgt im Bereich featuresets konstant im Vorsprung zu liegen. Im embedded Bereich ist es bisher leider das grobe Gegenteil und das schon seit GoForce Zeiten.


Dein Ton in diesem Thread ist sowas von biased. Mich würde es nicht stören, wenn du nur ein weiterer Nutzer, genau wie Lovesuckz wärst. Aber die Tatsache, das du ein Mod bist, und trotzdem den Fanboy raushängen lässt, ist auf so vielen Leveln falsch.

Ein Mod hat also kein Recht aktiv zu diskuttieren oder wie soll ich das verstehen?

Wenn es Dir passt micht als Fanboy anzusehen dann ist es zwar Dein Recht, aber ich wuerde in diesem Fall nur als fanboy vs fanboy agieren.

Nichtdestominder befuerchte ich dass die meisten von Euch immer noch nicht kapiert haben was im embedded Markt genau los ist. NV ist seit T2 im zweifellosen Aufschwung aber es ist immer noch keine Markt-kapitulation und nein dass NVIDIA dahintersteht bedeutet auch nichts.

Überhaupt, wenn ich mich recht entsinne, so gibt es die ungeschriebene Regel, das ein Mod bei einem Theama, wo er befangen ist, und das er aktiv moderiert, eben NICHT diskutieren sollte. Das ist so, wie wenn man Polizisten gleichzeitig zu Richtern machen würde.

Du kannst von mir aus Deine eigenen Regel in den hypothetischen Raum stellen (ungeschrieben ja?), aber wenn es Dir ein so grosses Problem macht dass ich ein Mod bin, kann ich auch im Handumdrehen die Modschaft entlegen und es wird wieder meine Meinung oder Post stil nicht aendern. Ergo leb damit.

Du bist lediglich angepisst weil ich Deinen vorigen Post geloescht habe.

Und jetzt zurück zu Tegra: Tegra ist zZ der einzige SoC, der überhaupt was gegen A5 ausrichten kann. Es ist nicht der Fehler Nvidias, das Android 3 sooo lange es auf sich warten liess. Wie LS schon sagte, so war Tegra 2 schon vor nem Jahr fertig...lange vor A5. Bald kommt die nächste Tegra-Inkarnation, und hoffentlich reissen sich diesmal Samsung, Moto, und Co zusammen, und hauen schneller ihre Tablets raus. Hoffentlich wird in ~6 Monaten auch Android 3 bugfrei und wirklich fertig sein.


Etwas gegen A5 ausrichten soll man wie verstehen? NVIDIA konkurriert nichtmal direkt gegen Apple. Apple koennte eventuell NV sogar als Kunden engagieren wenn sie ihre SoC nicht selber entwickeln wuerden.

Apple ist ein Einzelgaenger in diesem Markt mit ihrer eigenen sw Plattform und schoepfen die Mehrzahl ihres Umsatzes von ihrem application store.

Hoffentlich, denn es gibt Leute die gerne ein Tablet kaufen würden, das einen nicht bevormundet. Und dass heisst: ganzes Web sehen (Flash), erweitern wie es einem passt (USB, Flash-Cards, usw).

Ich hab kein einziges i-Geraet ob Du es glaubst oder nicht. Was genau Apple anrichtet in diesem Markt und mit welchem Vor- und Nachteilen ist bekannt. Und nein an die Apple Verkaufsvolumen wird vorueebergehend NV nicht reichen, egal ob es mir, Dir oder den anderen "fanboys" passen sollte oder nicht.

Nakai
2011-03-13, 20:13:20
Und jetzt zurück zu Tegra: Tegra ist zZ der einzige SoC, der überhaupt was gegen A5 ausrichten kann. Es ist nicht der Fehler Nvidias, das Android 3 sooo lange es auf sich warten liess. Wie LS schon sagte, so war Tegra 2 schon vor nem Jahr fertig...lange vor A5. Bald kommt die nächste Tegra-Inkarnation, und hoffentlich reissen sich diesmal Samsung, Moto, und Co zusammen, und hauen schneller ihre Tablets raus. Hoffentlich wird in ~6 Monaten auch Android 3 bugfrei und wirklich fertig sein.

Stimmt, ein SOC-Hersteller ist nur ein Hardwarehersteller. Den Softwareunterbau muss jeder Produktentwickler selber machen. Siehe Toshiba mit ihrem T2-Netbook.:freak:

Und wann A5 von Apple gesampled wurde und "fertig" war, wissen wir nicht. Aber nicht erst vor ein paar Wochen.;D

Mal was andres: Wieso denkt ihr, dass Renesas, TI, Qualcomm, IMG und ARM, schon viele Jahre vor der Markteinführung irgendwelche Produkte vorstellen?
Wenn NV jetzt erst T3 veröffentlicht hat(laut Roadmap auch sampled), dann sieht es mit der Softwareunterstützung ähnlich gut, wie beim T2 aus.

steve.it
2011-03-13, 20:18:20
Apple [...] schoepfen die Mehrzahl ihres Umsatzes von ihrem application store.

Das ist falsch.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8600104#post8600104

LovesuckZ
2011-03-13, 20:28:26
Kann sein dass Volumen fuer Dich nicht relevant sind, aber in der realen Welt dort draussen schon.

Hat immer noch nichts mit dem Thema zu tun.


Tut sie auch. Nur eben nicht in Deiner verschachtelten Realitaet.

Wir haben Apple und dann? Das LG ist glaube 30% schneller. So, wir haben also ein erhältliches Produkt und eines, was noch auf den Markt kommt. Wow. :eek:


Unglaublich wie sehr man eine Firma lieben kann, um Aussagen zu treffen, die einfach nur falsch sind.

Ich bitte darum aufzuzeigen, welche Aussage falsch sind. Von euch kommt bis auf "Volumen, Volumen, Volumen" nichts weiteres. Irgendwie langweilig, nicht?

Und verkauft innherhalb des Jahres wie viel genau? PCGH hat NV fuer eine 15Mio Projektion fuer 2011 zitiert. Wenn Du irgendwelche Daten haben solltest die von einer Markt-kapitulation sprechen sollte nur raus damit.

Und wieviele Tablets werden mit einem DualCore TI oder Qualcomm SoC verkauft werden? Wo ist denn die überlegende Konkurrenz, um gegen Apple in den Feldzug zugehen? Tegra2 wird jetzt gebasht. Ungleich der Tatsache, dass er der einzige vernünftige SoC ist, den man in konkurrenzfähige Produkte kaufen kann. Selbst DualCore Handys gibt es nur mit Tegra2.
Man sollte einfach mal auf dem Teppich bleiben und akzeptieren, dass Tegra2 als SoC weitaus konkurrenzfähiger ist als manche es gerne haben wollen.


Nein. Es gibt manuals auf dem Netz; durchlesen hilft.


Habe ich. In den öffentlicht zugänglichen PDF geht es nicht hervor, dass TI hier besser wäre.


Schon SGX540 ist faehiger und schneller als der Bums in Tegra2 und dieses erschien schon im GalaxyS.

Nur leider ist er jetzt zZ nicht. Ist ja toll, das da dann irgendwann die Treiber verbessert werden, aber dies kann man wohl kaum als Argument nehmen.


Als vehementer Verteidiger von NV weisst Du selber dass NV stets davor sorgt im Bereich featuresets konstant im Vorsprung zu liegen. Im embedded Bereich ist es bisher leider das grobe Gegenteil und das schon seit GoForce Zeiten.

Was weiß ich, worauf nVidia hier Wert legt. Es ist mir auch egal, da ich sowieso keine GPU in diesem Markt als alleiniges Produkt kaufen kann.

Label
2011-03-13, 20:30:00
Das ist falsch.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8600104#post8600104
Könntest Du bitte einmal dazu auch eine belastbare Quelle nennen?

Ailuros
2011-03-13, 20:30:16
Mal was andres: Wieso denkt ihr, dass Renesas, TI, Qualcomm, IMG und ARM, schon viele Jahre vor der Markteinführung irgendwelche Produkte vorstellen?

IMG, ARM und dergleichen gehoeren in eine andere Kategorie als Semi Hersteller wie Renesas, TI und dergleichen. IP Firmen kuendigen ihre IP dann an sobald sie fertig ist und natuerlich um ihre Kundschaft so frueh wie moeglich zu informieren.

Wenn NV jetzt erst T3 veröffentlicht hat(laut Roadmap auch sampled), dann sieht es mit der Softwareunterstützung ähnlich gut, wie beim T2 aus.

Nicht unbedingt. Dank der Aehnlichkeiten zu T2 duerfte sie es um einiges leichter haben mit T3. Grob vereinfacht hat diesmal 4 A9 cores anstatt 2 im T2 (und diese lassen sich diesmal unabhaengig von einander takten und abschalten) und die ULP GF bekommt hoechstwahrscheinlich nochmal eine Vec4 PS ALU dazu bei insgesamt hoeherer Frequenz.

Nakai
2011-03-13, 20:41:41
IMG, ARM und dergleichen gehoeren in eine andere Kategorie als Semi Hersteller wie Renesas, TI und dergleichen. IP Firmen kuendigen ihre IP dann an sobald sie fertig ist und natuerlich um ihre Kundschaft so frueh wie moeglich zu informieren.

Jup, nur ging es mir genau um den letzten Punkt. In diesem Bereich ist eine gewisse Informationspolitik verdammt wichtig.

Nicht unbedingt. Dank der Aehnlichkeiten zu T2 duerfte sie es um einiges leichter haben mit T3. Grob vereinfacht hat diesmal 4 A9 cores anstatt 2 im T2 (und diese lassen sich diesmal unabhaengig von einander takten und abschalten) und die ULP GF bekommt hoechstwahrscheinlich nochmal eine Vec4 PS ALU dazu bei insgesamt hoeherer Frequenz.

Mhh, würde ich bezweifeln. T2 ging Anfang 2010 in die Produktion und schlägt jetzt(mit der Ausnahme einiger Produkte) auf den Markt auf.
NV hat ja bei T3 ähnliche Ziele, wenn man die Roadmap betrachtet.
Also Ende 2011 bis Anfang 2012.

Das ist auch die SOC-typische Dauer von Produktionsbeginn zu Produkten.

IVN
2011-03-13, 20:42:18
Ein Mod hat also kein Recht aktiv zu diskuttieren oder wie soll ich das verstehen?

Doch, aber du solltest nicht ein Thema moderieren, wo du auch diskutierst.

Wenn es Dir passt micht als Fanboy anzusehen dann ist es zwar Dein Recht, aber ich wuerde in diesem Fall nur als fanboy vs fanboy agieren.Ich bin kein Fanboy...ich bin eher ein "ich will kein iPad, weil es für mich zu viele Nachteile hat" User. Und zZ hat man nur die Wahl zwischen A5 im Ipad 2 und Tegra 2 in den Android-Tablets.

Nichtdestominder befuerchte ich dass die meisten von Euch immer noch nicht kapiert haben was im embedded Markt genau los ist. NV ist seit T2 im zweifellosen Aufschwung aber es ist immer noch keine Markt-kapitulation und nein dass NVIDIA dahintersteht bedeutet auch nichts.Ich verstehe schon, nur, du schreibst die ganze Zeit so, als wärst du ein Aktionär oder als würdest du in der Marketingabteilung von IMG arbeiten. Jemand der nichts zu "gewinnen" hat, würde keine Ausdrücke wie "Tegra ist lahmarschig" usw benutzen.

Und das verwunder genau deswegen so sehr, weil Tegra 2 für Partner seit langem verfügbar ist. Was die IMG IP betrifft, so hat sie noch kein Hersteller ausser Apple bereits integriert. Das zeigt schon, das Nv in Zukunft auch früher ihre Designs fertig haben wird.



Du kannst von mir aus Deine eigenen Regel in den hypothetischen Raum stellen (ungeschrieben ja?), aber wenn es Dir ein so grosses Problem macht dass ich ein Mod bin, kann ich auch im Handumdrehen die Modschaft entlegen und es wird wieder meine Meinung oder Post stil nicht aendern. Ergo leb damit.

Du bist lediglich angepisst weil ich Deinen vorigen Post geloescht habe.Nein, besser du hast Anstand und moderierst nicht das Thema und löschst Beiträge, wo du doch selber postest, und einen gehörigen Grad an Bias zeigst.


Etwas gegen A5 ausrichten soll man wie verstehen? NVIDIA konkurriert nichtmal direkt gegen Apple. Apple koennte eventuell NV sogar als Kunden engagieren wenn sie ihre SoC nicht selber entwickeln wuerden. In meinen Consumer-Augen schon.

Denn es heisst zZ entweder Povervr/Apple/Bevormundung oder Tegra/Android/Freiheit.

Ailuros
2011-03-13, 20:49:14
Hat immer noch nichts mit dem Thema zu tun.

Fuer Dich.


Ich bitte darum aufzuzeigen, welche Aussage falsch sind. Von euch kommt bis auf "Volumen, Volumen, Volumen" nichts weiteres. Irgendwie langweilig, nicht?

Wenn Verkaufsvolumen nicht DER definierende Faktor des Erfolgs eines Produkts oder einer Produkt-familie sein sollte dann weiss ich auch nicht mehr weiter. Ein Produkt dass zwar kurz existierte aber ill fated war und zurueckgezogen wurde ist wohl schwer ein Gegenargument schon gar nicht wenn es nur laecherlich kleine Summen verkauft hat.


Und wieviele Tablets werden mit einem DualCore TI oder Qualcomm SoC verkauft werden?

Von TI's SoC gibt es momentan das RIM Blackberry Playbook und Qualcolmm hat auch ein paar schon angekuendigt und es werden noch weitere im Lauf des Jahres angekuendigt.


Wo ist denn die überlegende Konkurrenz, um gegen Apple in den Feldzug zugehen? Tegra2 wird jetzt gebasht. Ungleich der Tatsache, dass er der einzige vernünftige SoC ist, den man in konkurrenzfähige Produkte kaufen kann. Selbst DualCore Handys gibt es nur mit Tegra2.

Nochmal tablets haben sehr geringe Verkaufs-volumen im Vergleich zu smart-phones und es nicht gerade so dass selbst Apple eine Unmenge an iPads im Vergleich zu iPhones verkauft.


Man sollte einfach mal auf dem Teppich bleiben und akzeptieren, dass Tegra2 als SoC weitaus konkurrenzfähiger ist als manche es gerne haben wollen.

Mir waere es um einiges lieber wenn ich von NVIDIA das sehen wuerde was ich vom leading GPU IHV der Welt erwarten wuerde.


Nur leider ist er jetzt zZ nicht. Ist ja toll, das da dann irgendwann die Treiber verbessert werden, aber dies kann man wohl kaum als Argument nehmen.


Ich brauch den besseren Treiber ueberhaupt nicht fuer irgend ein Argument:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro20&showhide=true&certified_only=1&D1=Google%20Nexus%20S&D2=LG%20Star&D3=LG%20Optimus%203D

Links SGX540@200MHz, Mitte Tegra2, Rechts SGX540@307MHz.

Was weiß ich, worauf nVidia hier Wert legt. Es ist mir auch egal, da ich sowieso keine GPU in diesem Markt als alleiniges Produkt kaufen kann.

Und dabei gehen ein paar gute Chancen den embedded Markt regelrecht zu treiben zum Fenster raus oder wie? Ich bin mir sicher dass es NV schaden wuerde wenn sie CUDA Unterstuetzung auf Tegras haetten und einer der treibenden Firmen hinter GPGPU im embedded Markt waeren. Genauso wuerde es NV schaden wenn sie zumindest einen grossen handheld Deal gelandet haetten usw und so fort.

Dass man aber mit angeblicher besseren Grafik-Leistung in der Zwischenzeit schon wirbt ist natuerlich ein anderes Kapitel, ebenso die mit Absicht verdrehten benchmarks sowohl auf GPU als auch auf CPU Nivaeu.

Kann sein dass fuer die noch die CPU Leistung im embedded Markt am wichtigsten erscheint, aber ich bin schon seit Jahrzehnten jemand der sehr stark an die Wichtigkeit einer GPU in einem System glaubt.

LovesuckZ
2011-03-13, 21:00:30
Fuer Dich.
Wenn Verkaufsvolumen nicht DER definierende Faktor des Erfolgs eines Produkts oder einer Produkt-familie sein sollte dann weiss ich auch nicht mehr weiter. Ein Produkt dass zwar kurz existierte aber ill fated war und zurueckgezogen wurde ist wohl schwer ein Gegenargument schon gar nicht wenn es nur laecherlich kleine Summen verkauft hat.

Ohman. Ist es wirklich so schwer zu begreifen, dass der Erfolg eines Produktes überhaupt keine Bedeutung hat, wie alt der SoC ist?
Ist diese Logik nicht verständlich? Was soll das? Ich habe darauf nie bezug genommen, weil es nunmal nichts damit zu tun hat, dass Tegra2 ein Jahr älter als A5 ist.


Von TI's SoC gibt es momentan das RIM Blackberry Playbook und Qualcolmm hat auch ein paar schon angekuendigt und es werden noch weitere im Lauf des Jahres angekuendigt.

Weder das Playbook noch das HP Tablet kann man zur Zeit kaufen. Also - wo ist der Erfolg? Wo ist die Konkurrenz zu Apple?


Ich brauch den besseren Treiber ueberhaupt nicht fuer irgend ein Argument:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro20&showhide=true&certified_only=1&D1=Google%20Nexus%20S&D2=LG%20Star&D3=LG%20Optimus%203D

Links SGX540@200MHz, Mitte Tegra2, Rechts SGX540@307MHz.

Ich sehe folgendes:

GLBenchmark 2.0 Egypt: 3025 Frames 2847 Frames 3507 Frames
GLBenchmark 2.0 PRO: 2326 Frames 2573 Frames 2766 Frames

Wo ist also die Überlegenheit?

Ailuros
2011-03-13, 21:05:21
Doch, aber du solltest nicht ein Thema moderieren, wo du auch diskutierst.

Sagt wer?

Ich bin kein Fanboy...ich bin eher ein "ich will kein iPad, weil es für mich zu viele Nachteile hat" User. Und zZ hat man nur die Wahl zwischen A5 im Ipad 2 und Tegra 2 in den Android-Tablets.

Es war auch nicht auf Dich gezielt.

Ich verstehe schon, nur, du schreibst die ganze Zeit so, als wärst du ein Aktionär oder als würdest du in der Marketingabteilung von IMG arbeiten. Jemand der nichts zu "gewinnen" hat, würde keine Ausdrücke wie "Tegra ist lahmarschig" usw benutzen.

Die ULP GeForce schon und um diese geht es mir seit ich selber den Thread angefangen habe. Im T2 hat das Ding eine einzige Vec4 ALU die auf 80bit RGBA bzw. FP20 begrenzt ist, 2 TMUs und 8z stencil.

Und das verwunder genau deswegen so sehr, weil Tegra 2 für Partner seit langem verfügbar ist. Was die IMG IP betrifft, so hat sie noch kein Hersteller ausser Apple bereits integriert. Das zeigt schon, das Nv in Zukunft auch früher ihre Designs fertig haben wird.

Siehst Du genau hier eben ist das Problem dass Du keinen besonders guten Einblick in den embedded Markt hast. Apple ist eben nicht der einzige. Fuer 2010 waren ca. 2/3 von allen anderen Partnern von GPU IP und 1/3 von Apple.

Von insgesamt ueber 400Mio Einheiten gehoeren 160 insgesamt zu Apple. Der Rest ist TI, Renesas, Intel, Samsung u.a. und seit neuestem auch SONY fuer ihr NGP.

http://en.wikipedia.org/wiki/PowerVR/List_of_Products

http://en.wikipedia.org/wiki/Tegra

Nein, besser du hast Anstand und moderierst nicht das Thema und löschst Beiträge, wo du doch selber postest, und einen gehörigen Grad an Bias zeigst.

Dein Beitrag war total OT. Falls Du sonst noch irgendwelche Probleme haben solltest trag sie weiter zur Administration und wie gesagt ich pfeife gerne auf die Modschaft wenn dieses bedeuten wuerde dass ich keine persoenliche Meinung haben darf.

In meinen Consumer-Augen schon.

Dies ist aber kein Kaufsberatungs-thread.

Denn es heisst zZ entweder Povervr/Apple/Bevormundung oder Tegra/Android/Freiheit.

Tragische Ironie dass Du aber im Gegensatz eben mich genau bevormunden willst und mir nicht die Freiheit meiner Meinung erlaubst.

Und da ich trotz allem bei Thema bleiben will und werde, wie gesagt trag Deine Beschwerden an die Direktion.

IVN
2011-03-13, 21:05:31
Kann sein dass fuer die noch die CPU Leistung im embedded Markt am wichtigsten erscheint, aber ich bin schon seit Jahrzehnten jemand der sehr stark an die Wichtigkeit einer GPU in einem System glaubt.
Wenn ich ein Tablet sehe, das ausser dem Touchscreen keine weiteren Eingabemöglichkeiten hat, dann ist Gaming wirklich das letzte, das mir in den Sinn kommt. Ich denke da eher an Surfing, Video, Musik, Lesen, usw.
Und das Surfing ist ein sehr wichtiger Faktor. Wenn man mal beobachtet, wie komplex und Leistung fressend die heutigen Webseiten sind, dann wäre eine schnelle CPU viel wichtiger als die "9x GPU-Perf".

Ich sehe es so: ich hab die letzten Tage viele Geschwindigkeitsvergliche zw. Ipad, Ipad2 und Xoom auf YT geguckt, und wenn ich ehrlich bin, so sind alle diese Geräte LICHTJAHRE hinter meinem Desktop-PC*, was die "Surfing Experience" angeht.
In diesen Video werden Seiten wie Engadget geladen, um ein "worst case scenario" aufzuzeigen, weil ja Engadget sehr viele kleine Bilder hat. Und wenn ich sehe wie das Laden dieser und ähnlicher Seiten auf den Tablets 5-10 Sekunden dauert, auf meine PC aber <1 Sek, dann ist es klar wie verdammt lahm diese Geräte immer noch sind. Genau aus diesem Grund sind schnellere CPUs in diesen SoCs viel wichtigere, als irgendwelche GPU-Power.


*ein inzwischen lahmer und veralteter C2D 2,66, 4 gig, usw

Ailuros
2011-03-13, 21:10:26
Ohman. Ist es wirklich so schwer zu begreifen, dass der Erfolg eines Produktes überhaupt keine Bedeutung hat, wie alt der SoC ist?
Ist diese Logik nicht verständlich? Was soll das? Ich habe darauf nie bezug genommen, weil es nunmal nichts damit zu tun hat, dass Tegra2 ein Jahr älter als A5 ist.

So lange Du Dich vehement weigerst jegliches Gegenargument zu akzeptieren, handelt es sich auch nicht um eine echte Diskussion sondern um zwei verschiedene Monologe.

Weder das Playbook noch das HP Tablet kann man zur Zeit kaufen. Also - wo ist der Erfolg? Wo ist die Konkurrenz zu Apple?

Man kann auch nicht alle T2 Geraete kaufen. So what?

Ich sehe folgendes:

GLBenchmark 2.0 Egypt: 3025 Frames 2847 Frames 3507 Frames
GLBenchmark 2.0 PRO: 2326 Frames 2573 Frames 2766 Frames

Wo ist also die Überlegenheit?

Dass hier die ULP GF den kuerzeren zieht ist Dir nicht zufaellig aufgefallen?

IVN
2011-03-13, 21:14:56
Sagt wer?
Sagt der gesunde Menschenverstand.


Siehst Du genau hier eben ist das Problem dass Du keinen besonders guten Einblick in den embedded Markt hast. Apple ist eben nicht der einzige. Fuer 2010 waren ca. 2/3 von allen anderen Partnern von GPU IP und 1/3 von Apple.

Von insgesamt ueber 400Mio Einheiten gehoeren 160 insgesamt zu Apple. Der Rest ist TI, Renesas, Intel, Samsung u.a. und seit neuestem auch SONY fuer ihr NGP.

http://en.wikipedia.org/wiki/PowerVR/List_of_Products

http://en.wikipedia.org/wiki/Tegra
Ich meine nicht, wer die IP schon lizenziert hat, sondern, was gibt es schon zu kaufen auf dem Tablet-Markt? Tegra 2 und A5, sonst nichts.



Dein Beitrag war total OT. Falls Du sonst noch irgendwelche Probleme haben solltest trag sie weiter zur Administration und wie gesagt ich pfeife gerne auf die Modschaft wenn dieses bedeuten wuerde dass ich keine persoenliche Meinung haben darf.
Sag mal, siehst du denn nicht wie abartig es ist, das du in einem Thema moderierst, wo du auch in hitzige Diskussionen verwickelt bist?

Du musst deinen Mod-Posten nicht aufgeben, aber dort, wo du selber diskutierst, sollte ein anderer moderieren.



Tragische Ironie dass Du aber im Gegensatz eben mich genau bevormunden willst und mir nicht die Freiheit meiner Meinung erlaubst.
Das tue ich nicht. Es spricht ja nichts dagegen, das du diesen Thread eben nicht moderierst, dafür aber andere.

LovesuckZ
2011-03-13, 21:15:39
So lange Du Dich vehement weigerst jegliches Gegenargument zu akzeptieren, handelt es sich auch nicht um eine echte Diskussion sondern um zwei verschiedene Monologe.

Macht sinn, wenn man überlegt, dass ich von Anfang nie über Verkaufszahlen geredet habe:
Was - ein Chip, der ein Jahr später veröffentlicht wird, ist schneller? Oh Gott, dass muss neu sein in der Geschichte der Technikindustrie. :freak:

Im Sommer soll Tegra3 kommen, dann hat man auch hier wieder einen Gleichstand und bietet mehr CPU-Leistung.


Man kann auch nicht alle T2 Geraete kaufen. So what?

Wow, was für eine Argumentation. Erst wird über "Volumen" gesprochen, dann werden Produkte als Konkurrenz herangeführt, die man nicht kaufen kann. Das Xoom kann man kaufen. Das Atrix 4g kann man kaufen.
Aber man kann ja keine non-existente Konkurrenz bashen, gell? ;D

Dass hier die ULP GF den kuerzeren zieht ist Dir nicht zufaellig aufgefallen?

Und? Als ob der Unterschied für irgendwem von Bedeutung wäre. Das iPad 2 ist 2-4x schneller. Das ist bedeutend. Aber 0-20% ist sowas von egal.

Ailuros
2011-03-13, 21:28:05
Wenn ich ein Tablet sehe, das ausser dem Touchscreen keine weiteren Eingabemöglichkeiten hat, dann ist Gaming wirklich das letzte, das mir in den Sinn kommt. Ich denke da eher an Surfing, Video, Musik, Lesen, usw.
Und das Surfing ist ein sehr wichtiger Faktor. Wenn man mal beobachtet, wie komplex und Leistung fressend die heutigen Webseiten sind, dann wäre eine schnelle CPU viel wichtiger als die "9x GPU-Perf".

Das 9x Mal zeug ist reines marketing seitens Apple da es sich auf die GFLOPs bezieht. Fuer Apple koennte es aber trotz allem wichtig sein da in iOS genauso wie seit neuestem in Honeycomb ein ziemlich guter Anteil von GPU acceleration kommt.

Surfing ist bei iOS/Honeycomb eher eine CPU Affaere wobei aber die GPU doch "mitzeichnet", video ist eine Affaere vom fixed function decoder, audio vom audio DSP usw.

Ein SoC ist eine Selektion von diversen Prozessoren die jederzeit um den gleichen Speicher bzw. Bandbreite kaempfen muessen.

Ich sehe es so: ich hab die letzten Tage viele Geschwindigkeitsvergliche zw. Ipad, Ipad2 und Xoom auf YT geguckt, und wenn ich ehrlich bin, so sind alle diese Geräte LICHTJAHRE hinter meinem Desktop-PC*, was die "Surfing Experience" angeht.
In diesen Video werden Seiten wie Engadget geladen, um ein "worst case scenario" aufzuzeigen, weil ja Engadget sehr viele kleine Bilder hat. Und wenn ich sehe wie das Laden dieser und ähnlicher Seiten auf den Tablets 5-10 Sekunden dauert, auf meine PC aber <1 Sek, dann ist es klar wie verdammt lahm diese Geräte immer noch sind. Genau aus diesem Grund sind schnellere CPUs in diesen SoCs viel wichtigere, als irgendwelche GPU-Power.


*ein inzwischen lahmer und veralteter C2D 2,66, 4 gig, usw

Nebenbei kotzt mich erstmal die 1024 Aufloesung im iPad2 an aber das ist ebenso OT. Mein Problem mit NVIDIA ist dass sie weder auf hw noch auf sw front ihre GPUs besonders treiben. So wie es aussieht wird es GPGPU Unterstuetzung erst ab T5 geben wenn ich ihre road-map nicht falsch interpretiere. In der Zwischenzeit arbeiten andere Hersteller aktiv mit OpenCL schon seit 2009 und obwohl NV hier der Vorreiter sein sollte; rein gar nichts.

Und das ist lediglich ein Beispiel, aber ein ziemlich wichtiges. NV beschreibt selber in ihren Tegra slides den SoC als eine Sammlung an heterogenen Prozessoren. In solch einer Umgebung kann eben GPGPU um noch einiges wichtiger werden.

Was jetzt browsing auf einem jeglichen tablet betrifft, ich kann mir so oder so nicht vorstellen dass man mit so einem Ding ernsthaft browsen koennte. Z.B. so aktiv wie jetzt koennte ich mit so einem Ding nicht in einem Forum posten.

Macht sinn, wenn man überlegt, dass ich von Anfang nie über Verkaufszahlen geredet habe:

Es ist auch nicht in Deinem besten Interesse.

Wow, was für eine Argumentation. Erst wird über "Volumen" gesprochen, dann werden Produkte als Konkurrenz herangeführt, die man nicht kaufen kann. Das Xoom kann man kaufen. Das Atrix 4g kann man kaufen.
Aber man kann ja keine non-existente Konkurrenz bashen, gell? ;D

Sind schon alle T2 Geraete auf Regalen? Nein. Kann ich in dem Sinn ein schon angekuendigtes tablet wie Blackberry Playbook als Beispiel benutzen wenn Du nach TI tablets fragts? Ja.

Und? Als ob der Unterschied für irgendwem von Bedeutung wäre. Das iPad 2 ist 2-4x schneller. Das ist bedeutend. Aber 0-20% ist sowas von egal.

Mehr fuer's erste und mehr fuer alle anderen. Ich bin mir sicher dass 20% egal sind wenn eine desktop GPU um so viel ueberlegen ist als eine konkurrierende Radeon. Demenstrechend ist es total wurscht dass die GTX580 um sogar weniger als 20% im Durchschnitt schneller ist als eine 6970. Ich behalt mal ein paar dieser Kommentare fuer zukuenftige GPU Referenz.

LovesuckZ
2011-03-13, 21:36:15
Es ist auch nicht in Deinem besten Interesse.

Macht wiederum null Sinn, weil die Leistungsfähigkeit von Tegra2 nichts mit den Verkaufszahlen zu tun.

Sind schon alle T2 Geraete auf Regalen? Nein. Kann ich in dem Sinn ein schon angekuendigtes tablet wie Blackberry Playbook als Beispiel benutzen wenn Du nach TI tablets fragts? Ja.

Macht ebenfalls null Sinn. Merkst du nicht, wie dumm es ist einerseits von Verkaufszahlen zu reden und dann ein Produkt als Beispiel zu nehmen, dass bis heute genau 0x sich verkauft hat?
Ich wollte ein Beispiel eines Produktes haben, dass heute in Konkurrenz zum iPad2 steht. Kann ja nicht so schwer sein, wenn die Konkurrenz doch so überlegen wäre.


Mehr fuer's erste und mehr fuer alle anderen. Ich bin mir sicher dass 20% egal sind wenn eine desktop GPU um so viel ueberlegen ist als eine konkurrierende Radeon. Demenstrechend ist es total wurscht dass die GTX580 um sogar weniger als 20% im Durchschnitt schneller ist als eine 6970. Ich behalt mal ein paar dieser Kommentare fuer zukuenftige GPU Referenz.

Es ist einfach mal so unglaublich absurd die selben Maßstäbe heranzuführen. Niemand kauft sich ein Tablet, um damit alleine zu spielen. Selbst die 20% wird man nirgends merken, weil die Fragmentierung vorallem unter Android so dermaßen groß ist, dass Spiele auf den kleinsten gemeinsamen Nenner ausgerichtet werden.

Ailuros
2011-03-13, 21:50:18
Sagt der gesunde Menschenverstand.

Und dabei bist Du derjenige der diesen diktiert ja? Tut mir leid aber mir hat keiner gesagt als ich die Modschaft angeboten bekam dass ich mich dadurch anders verhalten muss.

Ich meine nicht, wer die IP schon lizenziert hat, sondern, was gibt es schon zu kaufen auf dem Tablet-Markt? Tegra 2 und A5, sonst nichts.

Point taken. Nein es gibt nebenbei das Blackberry Playbook und es wird innerhalb des Jahres noch weitere Ankuendigungen von Qualcomm und andere geben.


Sag mal, siehst du denn nicht wie abartig es ist, das du in einem Thema moderierst, wo du auch in hitzige Diskussionen verwickelt bist?

Nein. Ich war auch der Thread-starter und ich wuerde mich nicht anders verhalten ob Mod oder nicht. Im Fall wo ich kein Mod waere haette ich Deinen Beitrag als spam gemeldet.

Du musst deinen Mod-Posten nicht aufgeben, aber dort, wo du selber diskutierst, sollte ein anderer moderieren.

Wie gesagt wende Dich an den Administrator. Sonst lass das Zeug bitte aus dem Thread hier raus und Du kannst mich auch via PM erreichen.

Das tue ich nicht. Es spricht ja nichts dagegen, das du diesen Thread eben nicht moderierst, dafür aber andere.

Wenn Dir meine Meinung passen wuerde, wuerden wir diese Diskussion ueberhaupt nicht fuehren. Wie gesagt wende ich an die Direktion; ich aendere daran nichts.


Macht ebenfalls null Sinn. Merkst du nicht, wie dumm es ist einerseits von Verkaufszahlen zu reden und dann ein Produkt als Beispiel zu nehmen, dass bis heute genau 0x sich verkauft hat?

Nochmal Du hast mich nach einem TI tablet gefragt und das Playbook war die Antwort. Ich weiss sehr wohl dass es noch nicht erhaeltlich ist, wie auch einige T2 Produkte.

Ich wollte ein Beispiel eines Produktes haben, dass heute in Konkurrenz zum iPad2 steht. Kann ja nicht so schwer sein, wenn die Konkurrenz doch so überlegen wäre.

Es gibt ueberhaupt keines da Apple und iPad IMHO nach wie vor zu abgeschachtelt sind.

Es ist einfach mal so unglaublich absurd die selben Maßstäbe heranzuführen. Niemand kauft sich ein Tablet, um damit alleine zu spielen. Selbst die 20% wird man nirgends merken, weil die Fragmentierung vorallem unter Android so dermaßen groß ist, dass Spiele auf den kleinsten gemeinsamen Nenner ausgerichtet werden.

In Umgebungen wie iOS/Honeycomb ist es alles andere als egal und schon gar nicht ausserhalb 3D. Denn die Treiber-updates von denen Du gerechtfertigt nichts hoeren willst (waere bei mir genauso) betreffen lediglich 3D.

Sonst wo immer man rein fuer Rechen-aufgaben eine GPU in die Mischung reinzieht liegt die Differenz bei 70% fuer 540@200MHz und einen Schnitt unter 9xMal bei MP2.

LovesuckZ
2011-03-13, 22:56:55
Nochmal Du hast mich nach einem TI tablet gefragt und das Playbook war die Antwort. Ich weiss sehr wohl dass es noch nicht erhaeltlich ist, wie auch einige T2 Produkte.

Schön, dass einige T2 Produkte nicht erhältlich sind. Jemand, der T2 wegen den Verkaufszahlen basht, sollte dann doch Produkte erwähnen, die sich öfters als das AC100 von Toshiba verkauft habe.
Also, wo ist die überlegende Konkurrenz?

Nebenbei: A5 soll stolze 120mm^2 (http://www.appleinsider.com/articles/11/03/13/inside_apples_ipad_2_a5_fast_lpddr2_ram_costs_66_more_than_tegra_2.html) groß sein. Das wäre 50% größer als T3, der bei GPU konkurrenzfähig sein soll.

Tegra2 mit seinen 49mm^2 sei nach der selben Seite noch kleiner als A4 und ist dabei auch noch deutlich schneller. Sollten die Werte stimmen, erkauft sich Apple die Grafikleistung mit einem riesigen Flächenbedarf.

steve.it
2011-03-13, 23:01:44
Könntest Du bitte einmal dazu auch eine belastbare Quelle nennen?

Beispiel:

"Within the iTunes Store, the Company has expanded its offerings through the App Store and iBookstore, which allow customers to browse, search for, and purchase third-party applications and books through either a Mac or Windows-based computer or by wirelessly downloading directly to an iPhone, iPad or iPod touch."
S. 20

The results of the iTunes Store reflect growth of the iTunes App Store and continued growth in the installed base of iPhone, iPad, and iPod customers.
S. 26


Net Sales by Product:
Total Mac net sales: $ 5,430
iPod: $ 3,425
Other music related products and services (c): $ 1,431
iPhone and related products and services (d): $ 10,468
iPad and related products and services (e): $ 4,608
Peripherals and other hardware (f): $ 593
Software, service and other sales (g): $ 786
------------------------------------------------------------------
Total net sales: $ 26,741

(c) Includes iTunes Store sales, iPod services, and Apple-branded and third-party iPod accessories.
(d) Includes revenue recognized from iPhone sales, carrier agreements, services, and Apple-branded and third-party iPhone
accessories.
(e) Includes revenue recognized from iPad sales, services, and Apple-branded and third-party iPad accessories.
(f) Includes sales of displays, wireless connectivity and networking solutions, and other hardware accessories.
(g) Includes sales of Apple-branded operating system and application software, third-party software, and Mac and Internet services.
S. 25

Quelle: http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9NzgwODJ8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1

www.apple.com/investor/

steve.it
2011-03-13, 23:13:56
Etwas zum A5:
http://www.ubmtechinsights.com/reports-and-subscriptions/investigative-analysis/apple-ipad-2/

Nightspider
2011-03-13, 23:33:50
Aha...also hat das iPad 2 sowas wie einen Turbomodus mit max. 900 Mhz.

Somit kommt man wohl auf die 10h Laufzeit.

Mit anderen Worten: Wenn man nur Text ließt kann man nochmals mehr Laufzeit rausschlagen und unter Volllast könnte die Laufzeit kürzer sein als beim iPad 1 aber das müssen erst die Tests zeigen.

Wenn jmd. so einen Test gefunden hat bitte mal im iPad 2 Thread posten! :)

LovesuckZ
2011-03-14, 02:48:26
Angeblich soll A5 über 120mm^2 groß sein. Wenn man überlegt, dass dies der selben Quelle nach mehr als eine Verdopplung zum A4 entspricht, scheint wohl Apple den Bereich "mobile Gaming" ziemlich stark in Angriff nehmen zu wollen. Immerhin stieg die CPU-Leistung nur um das 2x.

Ailuros
2011-03-14, 07:40:26
Schön, dass einige T2 Produkte nicht erhältlich sind. Jemand, der T2 wegen den Verkaufszahlen basht, sollte dann doch Produkte erwähnen, die sich öfters als das AC100 von Toshiba verkauft habe.
Also, wo ist die überlegende Konkurrenz?

Wuerden wir Medaillen verteilen wer hier in den Fora die Realitaet am besten verdrehen kann, wuerde ich an Dich als erster denken. Nochmal von Anfang an, Du erwaehntest dass die ersten T2 Produkte schon im August erschienen sind und dabei ist es durchaus logisch dass jeglicher dieses Argument degradieren wird erstens weil diese problematische sw hatten und auch keine besondere Volumen generierten.

Jetzt versuch mal erstmal nachzuforschen wenn A5 in die eigentliche Produktion ging und wie lange Apple schon SoCs sammelt fuer einen hard-launch heutzutage und dann koennen wir ueber das eher alberne Thema weiterreden.

Nebenbei: A5 soll stolze 120mm^2 (http://www.appleinsider.com/articles/11/03/13/inside_apples_ipad_2_a5_fast_lpddr2_ram_costs_66_more_than_tegra_2.html) groß sein. Das wäre 50% größer als T3, der bei GPU konkurrenzfähig sein soll.

Dass A5 brutal gross sein wuerde ist nichts Neues; ich hab es sogar indirekt angedeutet als Dural meinte dass T3 zu gross sei. Spricht aber wohl eher fuer den zweiten Paragraph meiner Antwort weiter oben, als dagegen.

Die ULP GeForce konkurrenzfaehig zum MP2? Basierend auf was genau? NV gibt fuer ULP GF in T2 "8 cores" an; da es sich bei diesen um vector ALUs handelt sind es mit aller Wahrscheinlichkeit 1 Vec4+1 PS ALU (FP20) + 1 Vec4 VS ALU (wobei die +1 fuer die programmierbare blending Einheit steht). Bei der T3 ULP GF sollen es jetzt (immer noch non USC nach Anand's Artikel) "12 cores" sein. Vec6 + Vec6 waere wohl technisch ziemlich absurd, ergo klingen 2 Vec4+1 PS ALUs + 1 Vec4 ALU am wahrscheinlichsten. Jetzt bleibt natuerlich noch die Frage ob die Anzahl der TMUs und z/stencil Faehigkeiten gleich bleibt. 2 TMUs, 8 z/stencil bei T2 ULP.

Ein MP2 ist ingesamt 8 Vec+1 USC ALUs, 4 TMUs, 32 z/stencil.

Tegra2 mit seinen 49mm^2 sei nach der selben Seite noch kleiner als A4 und ist dabei auch noch deutlich schneller. Sollten die Werte stimmen, erkauft sich Apple die Grafikleistung mit einem riesigen Flächenbedarf.

Samsung war nie beruehmt fuer irgendwelche Herstellungsprozess-qualitaet. BOM fuer A4 soll bei $8 gewesen sein; keine Ahnung wie es auf A5 aussieht aber bei deren Margen koennen sie es auch verkraften. Die Geruechte dass Apple von Samsung 45nm auf TSMC 40G umsteigen will, werden wohl auch kein Zufall sein. Ein MP2 nimmt unter 65LP 16mm2 bei 200MHz ein, nach layout wahrscheinlich um die 18mm2. Im A5 duerfte der GPU block nicht unter 250MHz getaktet sein (sonst machen die 890MTexels/s die Anand gemessen hat auch keinen Sinn). Runter auf 45nm + die zusaetzliche Frequenz und der grosste Zusatz was die Flaeche betrifft ist wohl doch nicht alleine die GPU sondern sollte auf die Rechnung anderer Komponenten gehen. Bei gleicher Frequenz der GPU wie im Pad, sollte der MP2 nicht mehr als ~2.5x mehr die area als der SGX535 einnehmen. Der MP4+@200MHz im NGP soll bei 40nm irgendwo ueber 30mm2 einnehmen und dieser hat dank dem "+" DX9 L3/DX11 Textur-Faehigkeiten welche im SGX543 MP2 des iPad2 nicht vorhanden sind.

Die 2 A9 cores nehmen zwar nicht besonders viel Platz ein, die um 2x mal so grosse L2 cache, groessere Busbreite, doppelt so viel Speicher und weiss der Geier was noch wohl schon. Wuerde die Mehrzahl der zusaetzlichen die area wirklich auf die GPU gehen wie Du es illustrieren willst haette Apple in den A5 zumindest einen MP6 mit 3x Mal so viel Leistung wie beim MP2 eingebaut.

Ailuros
2011-03-14, 08:03:59
Angeblich soll A5 über 120mm^2 groß sein. Wenn man überlegt, dass dies der selben Quelle nach mehr als eine Verdopplung zum A4 entspricht, scheint wohl Apple den Bereich "mobile Gaming" ziemlich stark in Angriff nehmen zu wollen. Immerhin stieg die CPU-Leistung nur um das 2x.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8620997&postcount=833

Sobald sich der Dampf im Tegra Thread etwas setzt, hol ich das Apple relevante Zeug in diesen Thread rein wo es auch hingehoert.

Die eigentliche und wichtigere Frage ist was Apple genau vorhat fuer "A6" bzw. ihren naechsten SoC. Wird es eine Art refresh wie zwischen 3GS und iPhone4/iPad mit lediglich hoeheren Frequenzen oder geht dann Apple in die Richtung Breite so wohl von der CPU als auch der GPU Breite?

Apple's veroeffentlicht geschichtlich neue Produkte im ersten Quartal jedes Jahres, wobei in 1Q2012 eine 28nm Herstellung in grossen Quantitaeten durchaus moeglich sein wird.

"Mobiles gaming" ist uebrigens ein eigenes Kapitel; es ist wahr dass Apple's application store durch sein Volumen durchaus attraktiv ist fuer Entwickler bzw. ISVs ueberhaupt da sie 30% vom Umsatz bekommen. Es ist aber alles stets bis jetzt auf die $9 oder so Grenze beschraenkt, was wohl nicht etwas konkurrenzfaehiges zu einem AAA Titel auf einer handheld Konsole bedeutet. Quasi "Gelegenheits-gaming" dann eben.

ISVs (u.a. auch Epic) haben fuers iPad2 hoeher aufgeloeste Texturen eingelegt und 4xMSAA u.a., weil man eben nur so die zusaetzliche Leistung unter 1024*768 ausnutzen kann. Meine einzige Beschwerde ist hier dass Epic z.B. in Infinity Blade keinen Fetzen an AF eingesetzt hat. Bei der Fuellrate eine Schande.

Wenn "iPad3" jetzt mit einer hoeheren Aufloesung ankommt (nun 1024 koennen sie woll nicht fuer immer auslatschen) und Apple will nicht Funktionalitaeten die im iPad2 erscheinen ploetzlich entfernen, erscheint die These mit mehr Einheiten am wahrscheinlichsten.

Generell wenn man die zukuenftigen Tendenzen von GPU IP verfolgt (ARM Mali T604, Vivante GC2000, IMG Rogue/ST A9600) und auch Ankuendigungen wie die von Qualcomm fuer Adreno 3xx sieht es eher danach aus dass unter 28nm die GPU Bloecke ziemlich gross sein werden und damit selten bis nie unter 15mm2 selbst fuer das bescheidenste Zeug.

ARM Mali400MP4@275MHz im Samsung Orion duerfte bei post layout um die 14mm2 liegen unter 45nm.

IVN
2011-03-14, 08:09:53
Ich frage mich wieso Nv für T3-GPU nicht einfach einen Block vom G80 genommen und ihn verkleinert hat. 8 ALUs und 4 Tex, und der Rest darauf angepasst. Das DX10 Feature-Set ist für die mobilen Devices mehr als ausreichend, und die Arch hat sich zumindest was Performance angeht bewiesen. Die Frage ist also nur noch, ob man das Design auf Low-Power hätte anpassen können. Ein halber ION, ohne Schnickschnack, auf Verbarauch optimiert.

Ist das wirklich so verkehrt?

LovesuckZ
2011-03-14, 08:55:23
Wuerden wir Medaillen verteilen wer hier in den Fora die Realitaet am besten verdrehen kann, wuerde ich an Dich als erster denken. Nochmal von Anfang an, Du erwaehntest dass die ersten T2 Produkte schon im August erschienen sind und dabei ist es durchaus logisch dass jeglicher dieses Argument degradieren wird erstens weil diese problematische sw hatten und auch keine besondere Volumen generierten.

Und trotzdem hat z.B. Toshiba mehr AC100 Produkte verkauft als die gesamte Nicht-Apple-DualCoreKonkurrenz bis zum heutigen Tage. Überlegenheit sieht irgendwie anders aus...


Die ULP GeForce konkurrenzfaehig zum MP2? Basierend auf was genau? NV gibt fuer ULP GF in T2 "8 cores" an; da es sich bei diesen um vector ALUs handelt sind es mit aller Wahrscheinlichkeit 1 Vec4+1 PS ALU (FP20) + 1 Vec4 VS ALU (wobei die +1 fuer die programmierbare blending Einheit steht). Bei der T3 ULP GF sollen es jetzt (immer noch non USC nach Anand's Artikel) "12 cores" sein. Vec6 + Vec6 waere wohl technisch ziemlich absurd, ergo klingen 2 Vec4+1 PS ALUs + 1 Vec4 ALU am wahrscheinlichsten. Jetzt bleibt natuerlich noch die Frage ob die Anzahl der TMUs und z/stencil Faehigkeiten gleich bleibt. 2 TMUs, 8 z/stencil bei T2 ULP.

Ein MP2 ist ingesamt 8 Vec+1 USC ALUs, 4 TMUs, 32 z/stencil.

Tegra2 ist kleiner als A4 und besitzt mehr als die doppelte CPU und annährend die doppelte GPU-Leistung. Für ein Chip dem man am laufenden Band die Konkurrenzfähigkeit abspricht, ist dies ziemlich beachtlich.
Laut nVidia soll Tegra3 80mm^2 groß sein und bis zu 3x schnellere GPU-Leistung besitzen. Selbst wenn am Ende nur 2x ankommen, wäre man konkurrenzfähig zu A5 und das bei als doppelter CPU-Leistung.
Damit wird man neben A5 und NGP den wohl drittstärken SoC in Bezug der Grafikleistung für das Jahr 2011 stellen.


Samsung war nie beruehmt fuer irgendwelche Herstellungsprozess-qualitaet. BOM fuer A4 soll bei $8 gewesen sein; keine Ahnung wie es auf A5 aussieht aber bei deren Margen koennen sie es auch verkraften. Die Geruechte dass Apple von Samsung 45nm auf TSMC 40G umsteigen will, werden wohl auch kein Zufall sein. Ein MP2 nimmt unter 65LP 16mm2 bei 200MHz ein, nach layout wahrscheinlich um die 18mm2. Im A5 duerfte der GPU block nicht unter 250MHz getaktet sein (sonst machen die 890MTexels/s die Anand gemessen hat auch keinen Sinn). Runter auf 45nm + die zusaetzliche Frequenz und der grosste Zusatz was die Flaeche betrifft ist wohl doch nicht alleine die GPU sondern sollte auf die Rechnung anderer Komponenten gehen. Bei gleicher Frequenz der GPU wie im Pad, sollte der MP2 nicht mehr als ~2.5x mehr die area als der SGX535 einnehmen. Der MP4+@200MHz im NGP soll bei 40nm irgendwo ueber 30mm2 einnehmen und dieser hat dank dem "+" DX9 L3/DX11 Textur-Faehigkeiten welche im SGX543 MP2 des iPad2 nicht vorhanden sind.

Die 2 A9 cores nehmen zwar nicht besonders viel Platz ein, die um 2x mal so grosse L2 cache, groessere Busbreite, doppelt so viel Speicher und weiss der Geier was noch wohl schon. Wuerde die Mehrzahl der zusaetzlichen die area wirklich auf die GPU gehen wie Du es illustrieren willst haette Apple in den A5 zumindest einen MP6 mit 3x Mal so viel Leistung wie beim MP2 eingebaut.

Man kann es bezweifeln, dass A5 deswegen so groß ist, weil die CPU-Infrastruktur soviel Fläche einnehmen werde. Tegra2 ist 49mm^2 groß. Das müsste Apple dann alleine für die Verdopplung der CPU-Leistung ausgegeben haben... Klingt nicht pausibel.

Ailuros
2011-03-14, 09:16:34
Ich frage mich wieso Nv für T3-GPU nicht einfach einen Block vom G80 genommen und ihn verkleinert hat. 8 ALUs und 4 Tex, und der Rest darauf angepasst. Das DX10 Feature-Set ist für die mobilen Devices mehr als ausreichend, und die Arch hat sich zumindest was Performance angeht bewiesen. Die Frage ist also nur noch, ob man das Design auf Low-Power hätte anpassen können. Ein halber ION, ohne Schnickschnack, auf Verbarauch optimiert.

Ist das wirklich so verkehrt?

Nein verkehrt ist es durchaus nicht. Und man braucht fuer die heutigen Beduerfnisse auch nicht wirklich volle DX10 Komplianz im embedded Bereich. Ein paar Einzelheiten wie TMU relatives Zeug kann man durchaus weglassen. NV arbeitet tatsaechlich an solch einem Design (skalare USC ALUs) aber obwohl ich diesen schon fuer Tegra3 erwartete sieht es zunehmend danach aus dass dieser GPU Design erst im Tegra5/20nm erscheinen wird.

Eventuell wenn man einen high power Prozess benutzt wie bei T2/40G koennte man sogar an hot-clocked ALUs denken.

Die Tegra ULP GeForce ist ein merkwuerdiger hybrider GPU Design; selbst NV30 war split precision FP16/FP32 waehrend ULP/T2 nur FP20 PS ALUs hat und obwohl es vector ALUs vor G80 gab, waren diese auch nicht Vec4. Wenn man schon durch die Laengen geht und entwickelt so ein Ding fast von Grund auf, sind ihre heutigen Design-Entscheidungen zumindest merkwuerdig.

IVN
2011-03-14, 09:42:33
Wie viele Transis hat so ein MP2?

Ailuros
2011-03-14, 09:48:17
Und trotzdem hat z.B. Toshiba mehr AC100 Produkte verkauft als die gesamte Nicht-Apple-DualCoreKonkurrenz bis zum heutigen Tage. Überlegenheit sieht irgendwie anders aus...

Wieviele denn, damit wir die angebliche "Ueberlegenheit" endlich mal mit Zahlen auf den Tisch legen koennen?

Tegra2 ist kleiner als A4 und besitzt mehr als die doppelte CPU und annährend die doppelte GPU-Leistung. Für ein Chip dem man am laufenden Band die Konkurrenzfähigkeit abspricht, ist dies ziemlich beachtlich.

Im Vergleich zum iPad hat T2 tatsaechlich doppelt so viel CPU Leistung, was aber fuer die GPU nicht stimmt.

Laut nVidia soll Tegra3 80mm^2 groß sein und bis zu 3x schnellere GPU-Leistung besitzen. Selbst wenn am Ende nur 2x ankommen, wäre man konkurrenzfähig zu A5 und das bei als doppelter CPU-Leistung.

Siehst Du erkennst komischerweise dass das 3x Mal schnellere Marketing-Gefusel vielleicht doch nicht dem Durschnitt entspricht, genauso wie die von Apple zitierte bis zu 9x Mal so hohe GPU Leistung im iPad2 vs. iPad. Die T3 ULP GF soll nach NV selber 50% mehr ALUs haben und hoehere Frequenzen. Um 18 GFLOPs zu erreichen fuer jeglichen "bis zu" Marketing-Quark braucht die T3 ULP GF eine Frequenz von 1GHz.


Damit wird man neben A5 und NGP den wohl drittstärken SoC in Bezug der Grafikleistung für das Jahr 2011 stellen.

Eben nicht. Der embedded Markt besteht eben nicht nur aus A5 und Tegra SoCs und SONY's NGP ist eine handheld Konsole die gar nicht in den gleichen Topf kommen kann.

Man kann es bezweifeln, dass A5 deswegen so groß ist, weil die CPU-Infrastruktur soviel Fläche einnehmen werde. Tegra2 ist 49mm^2 groß. Das müsste Apple dann alleine für die Verdopplung der CPU-Leistung ausgegeben haben... Klingt nicht pausibel.

Wieso weisst Du spezifisch schon wie der insgesamte SoC ausgelegt ist? Ich hab nirgends behauptet dass es ausschliesschlich die CPU Infrastruktur betrifft sondern eher u.a. und zusaetzlich den GPU Zusatz. Schau Dir nochmal genauer den T2 floorplan an und notier mal wie gross z.B. der video decoding block zum GPU block oder den beiden CPUs ist. So lange man nicht weiss wie genau die diversen Bloecke bzw. Prozessoren aufgeteilt sind im SoC hilft es alles nichts.

Es bleibt ausserdem immer noch dabei dass Samsung 45nm eben schwer vergleichbar ist zu TSMC 40G. Intel, IBM und TSMC haben nach wie vor die besten Prozesse weltweit. Der Rest ist leider nicht so optimal, deshalb wird es mich kein bisschen wundern wenn Apple langfristig ganz zu TSMC umsteigt.

OT aber SAMSUNG scheint entry-level tablets etablieren zu wollen: http://www.xbitlabs.com/news/mobile/display/20110313094439_Samsung_Readies_Tablet_for_399_Flyer.html

Klingt mir relativ zwecklos, aber wir werden sehen...

Wie viele Transis hat so ein MP2?

Keine Ahnung und das betrifft nicht nur diesen GPU block sondern jeglichen im embedded Markt. Solche Daten werden selten bis nie von IP Providers und SoC Herstellern veroeffentlicht. Was man nicht vergessen sollte, ist dass manche technische Daten zwar eindrucksvoll auf Papier aussehen aber Echtzeit-Leistung ist immer noch einige Lichtjahre von jeglichem desktop entfernt. Der SONY NGP handheld hat einen MP4 (ergo doppelt so viel GPU cores wie der MP2 im iPad2) hat aber eine vergleichbare Echtzeit-Leistung irgendwo im Bereich einer C50 Fusion APU bei 280MHz. Das letztere ist fuer ein low end notebook bzw. low end PC fuer minimalste settings in bis zu DX10 Spielen in 1024 gerade noch gut genug mit nicht gerade berauschender Leistung. Dafuer verbraucht aber NGP als SoC um die 4 Watt, wobei sich ein jeglicher tablet und noch schlimmer smart-phone SoC lediglich im milli-Watt Bereich bewegen darf.

IVN
2011-03-14, 10:17:04
Keine Ahnung und das betrifft nicht nur diesen GPU block sondern jeglichen im embedded Markt. Solche Daten werden selten bis nie von IP Providers und SoC Herstellern veroeffentlicht. Was man nicht vergessen sollte, ist dass manche technische Daten zwar eindrucksvoll auf Papier aussehen aber Echtzeit-Leistung ist immer noch einige Lichtjahre von jeglichem desktop entfernt. Der SONY NGP handheld hat einen MP4 (ergo doppelt so viel GPU cores wie der MP2 im iPad2) hat aber eine vergleichbare Echtzeit-Leistung irgendwo im Bereich einer C50 Fusion APU bei 280MHz. Das letztere ist fuer ein low end notebook bzw. low end PC fuer minimalste settings in bis zu DX10 Spielen in 1024 gerade noch gut genug mit nicht gerade berauschender Leistung. Dafuer verbraucht aber NGP als SoC um die 4 Watt, wobei sich ein jeglicher tablet und noch schlimmer smart-phone SoC lediglich im milli-Watt Bereich bewegen darf.
ION hat eine TDP von 12 W, taktet mit 450/1100 ("Core"/ALUs) und er wird in 55nm hergestellt. Nehmen wir an das er halbiert wird (weil es wirklich ein Performance mäßiger Overkill wäre), das sein Takt auf 200 reudziert wird, und das er in 45nm hergestellt wird.

Da hätte die GPU immer noch ~11 GFLOPs und ~800 GTex pro Sek. Wobei wir wissen, das diese Arch nah an ihre theoretischen Werte rankommt. Das wäre wahrscheinlich schneller als MP2. Der Verbrauch ist dann eine andere Frage. Wir werden es aber nie wissen.

LovesuckZ
2011-03-14, 10:39:34
Wieviele denn, damit wir die angebliche "Ueberlegenheit" endlich mal mit Zahlen auf den Tisch legen koennen?

Hä? Du faselst die ganze Zeit davon, dass Tegra 2 und vorallem die GPU deutlich der Konkurrenz unterlegen wäre. Gleichzeitig wird dies unterlegt mit schlechten Verkaufszahlen. Du drehst dir deine Wahrheit so zurecht, dass du dich nie falsch wägst, gell?
Toshiba hat mehr AC100 mit einem DualCore verkauft als Samsung, TI und Qualcomm zusammen. Soviel zu euren Verkaufszahlengebrubbel.


Im Vergleich zum iPad hat T2 tatsaechlich doppelt so viel CPU Leistung, was aber fuer die GPU nicht stimmt.

Nein? Da sagt GLBenchmark (http://www.anandtech.com/show/4216/apple-ipad-2-gpu-performance-explored-powervr-sgx543mp2-benchmarked/2) was vollkommen anderes: 77% in Egypt und 85% in Pro - Auflösungsnormalisiert.


Siehst Du erkennst komischerweise dass das 3x Mal schnellere Marketing-Gefusel vielleicht doch nicht dem Durschnitt entspricht, genauso wie die von Apple zitierte bis zu 9x Mal so hohe GPU Leistung im iPad2 vs. iPad. Die T3 ULP GF soll nach NV selber 50% mehr ALUs haben und hoehere Frequenzen. Um 18 GFLOPs zu erreichen fuer jeglichen "bis zu" Marketing-Quark braucht die T3 ULP GF eine Frequenz von 1GHz.

Das Demo-Sample (http://www.youtube.com/watch?v=LRctKtt4RW8&feature=related) auf der MWC lies das Spiel bei besserer Grafik und mehr Einheiten doppelt so schnell ablaufen. Die Leistungssteigerung wird deutlich ausfallen und damit wird man die Lücke zu A5 deutlich verkleinern.


Eben nicht. Der embedded Markt besteht eben nicht nur aus A5 und Tegra SoCs und SONY's NGP ist eine handheld Konsole die gar nicht in den gleichen Topf kommen kann.

Welche anderen SoCs kommen denn an A5 und Tegra3 ran? Samsung, TI und Qualcomm müssen erstmal mit DualCore auf den Markt kommen.


Wieso weisst Du spezifisch schon wie der insgesamte SoC ausgelegt ist? Ich hab nirgends behauptet dass es ausschliesschlich die CPU Infrastruktur betrifft sondern eher u.a. und zusaetzlich den GPU Zusatz. Schau Dir nochmal genauer den T2 floorplan an und notier mal wie gross z.B. der video decoding block zum GPU block oder den beiden CPUs ist. So lange man nicht weiss wie genau die diversen Bloecke bzw. Prozessoren aufgeteilt sind im SoC hilft es alles nichts.

Apple hat die Video-Dekodierungseinheit nicht überarbeitet und trotzdem ist der Chip um mehr als doppelte angewachsen. Weder Apple noch Samsung können so unfähig sein, dass ein fast kompletter Tegra2 Chip alleine für die DualCore-A9 Integration draufgehen würde.

steve.it
2011-03-14, 10:56:20
Apple hat die Video-Dekodierungseinheit nicht überarbeitet
Wo hast du die Infos her?

iFanatiker
2011-03-14, 10:58:35
Man kann es bezweifeln, dass A5 deswegen so groß ist, weil die CPU-Infrastruktur soviel Fläche einnehmen werde. Tegra2 ist 49mm^2 groß. Das müsste Apple dann alleine für die Verdopplung der CPU-Leistung ausgegeben haben... Klingt nicht pausibel.

Der A4 und A5 sind so groß, weil Apple ein package on package Verfahren nutzt für die Produktion (der SoC und der RAM liegen aufeinander). AFAIK ist dies beim Tegra 2 nicht der Fall.

LovesuckZ
2011-03-14, 10:58:38
Wo hast du die Infos her?

Sie haben weder eine Verbesserung angepriesen, noch die Daten auf der Seite überarbeitet. Daher bleibe ich bei der Aussage.

steve.it
2011-03-14, 11:02:16
Sie haben weder eine Verbesserung angepriesen, noch die Daten auf der Seite überarbeitet. Daher bleibe ich bei der Aussage.
Das ist typisch für Apple, dass die Daten nicht groß angepriesen werden. Das sind Details (wie ich im anderen Thread geschrieben habe).
Und die paar Daten zu den Decodierungsfähigkeiten stimmen eh nicht bzw. sind untertrieben.
H.264 HighProfile können die iOS-Geräte mind. seit dem iPhone 3GS (zumindest bei SD-Auflösung). Laut Apple-Seite wäre das nicht möglich. Falls du nicht glaubst, teste das mal (z.B. mit Handbrake) oder schau mal was deekey77 hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8615640#post8615640) im Thread schreibt.
Von daher wäre ich mit deiner Behauptung vorsichtig (kann natürlich dennoch stimmen).

LovesuckZ
2011-03-14, 11:04:21
Das ist typisch für Apple, dass die Daten nicht groß angepriesen werden. Das sind Details (wie ich im anderen Thread geschrieben habe).
Und die paar Daten zu den Decodierungsfähigkeiten stimmen eh nicht bzw. sind übertrieben.
H.264 HighProfile können die iOS-Geräte mind. seit dem iPhone 3GS (zumindest bei SD-Auflösung). Laut Apple-Seite wäre das nicht möglich. Falls du nicht glaubst, teste das mal (z.B. mit Handbrake).

Naja - Apple will auch Filme per Itunes verkaufen. Da würde sich 1080p auch im Zuge der OnDemand Konkurrenz ziemlich gut machen. Hätten sie also den Video-Prozessor überarbeitet, hätten sie dies auch beworben.

Siehe zum Beispiel nVidia und Tegra3.

steve.it
2011-03-14, 11:08:33
Naja - Apple will auch Filme per Itunes verkaufen. Da würde sich 1080p auch im Zuge der OnDemand Konkurrenz ziemlich gut machen. Hätten sie also den Video-Prozessor überarbeitet, hätten sie dies auch beworben.
Nö. Apple hält sich bei den Specs bzgl. Decodierung an ihrem kleinsten gemeinsamen Nenner bzw. das was man an Content anbietet (und das ist leider kein HighProfile AFAIK).
Das was mehr geht, wird verschwiegen. Schau dir doch auch mal den XBMC-Port für iOS an (Jailbreak). Was die teilweise abspielen, dürfte laut den Specs von Apple überhaupt nicht gehen.


Siehe zum Beispiel nVidia und Tegra3.
Ich habe dir im anderen Thread schon mal geantwortet, dass Apple die Hardware eben nicht so in den Vordergrund stellt, wie du es gerade machst (sondern das Gesamterlebnis).

LovesuckZ
2011-03-14, 11:09:17
Nö. Apple hält sich bei den Specs an den kleinsten gemeinsamen Nenner.
Das was mehr geht, wird verschwiegen.


Ich habe dir im anderen Thread schon mal geantwortet, dass Apple die Hardware eben nicht so in den Vordergrund stellt, wie du es gerade machst (sondern das Gesamterlebnis).

Und ich habe dir geschrieben, dass dies falsch ist. Aber bitte, wenn du denkst, dass Apple sich noch zurückhält, wenn sie von 9x mehr Grafikleistung sprechen. :eek:

iFanatiker
2011-03-14, 11:11:32
Naja - Apple will auch Filme per Itunes verkaufen. Da würde sich 1080p auch im Zuge der OnDemand Konkurrenz ziemlich gut machen. Hätten sie also den Video-Prozessor überarbeitet, hätten sie dies auch beworben.

Siehe zum Beispiel nVidia und Tegra3.

Ist jetzt absolut OTT:

1. Apple bekommt zur Zeit keine Lizenz für 1080P Material von den Content-Anbietern für den iTunes Store. Ergeht den anderen großen Diensten auch nicht.

2. Bereits der A4 kann 1080P Material problemlos wiedergeben solange es unterstütze Codecs sind und man das Material nicht per iTunes Sync aufspielt.

3. Apple ist nicht nVidia (nVidia möchte ja seinen SoC ja an die Hardware Vendors verkaufen). Apple hat bei der iPad 2 Vorstellung noch nicht mal preisgeben welche GPU IP drin steckt, wie viel RAM das Gerät hat....da interessieren solche Infos wie Video Decoder noch weniger. Die ganze Präsi des A5 hat ganz geanu 30 Sekunden gedauert. Allerdings gibt es mittlerweile immer mehr anzeihen in iOS, daß eine Video API kommt und die gezeigten Effekte mit den Kameras sprechen für einen aufgebohrten Medien DSP.

steve.it
2011-03-14, 11:13:49
Und ich habe dir geschrieben, dass dies falsch ist. Aber bitte, wenn du denkst, dass Apple sich noch zurückhält, wenn sie von 9x mehr Grafikleistung sprechen. :eek:
Dann reden wir aneinander vorbei.



2. Bereits der A4 kann 1080P Material problemlos wiedergeben solange es unterstütze Codecs sind und man das Material nicht per iTunes Sync aufspielt.

Naja, ob es so ganz problemlos ist... jedenfalls geht es anscheinend mit ab und an Rucklern, wenn die Bitrate nicht zu hoch wird. Wobei ein AppleTV2 beim TV-Out (HDMI) AFAIK nicht mehr als 720p ermöglicht (die Hardware selber aber mehr kann).
Auch gehen in Hardware mehr Codecs, als Apple auf ihrer Seite bewirbt. Apple erlaubt nur nicht den Zugriff mit ihrer API. Bei XBMC nutzt man eine private API (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8519752&postcount=535), mit der man die Einschränkungen von Apple bei der offiziellen API umgeht.
Naja, wird OT und dir ist das AFAIK bekannt.

LovesuckZ
2011-03-14, 11:16:17
3. Apple ist nicht nVidia (nVidia möchte ja seinen SoC ja an die Hardware Vendors verkaufen). Apple hat bei der iPad 2 Vorstellung noch nicht mal preisgeben welche GPU IP drin steckt, wie viel RAM das Gerät hat....da interessieren solche Infos wie Video Decoder noch weniger. Die ganze Präsi des A5 hat ganz geanu 30 Sekunden gedauert. Allerdings gibt es mittlerweile immer mehr anzeihen in iOS, daß eine Video API kommt und die gezeigten Effekte mit den Kameras sprechen für einen aufgebohrten Medien DSP.

Apple will aber iPads, A-TVs und iPhones verkaufen. Sie protzen eben nicht so wie nVidia mit einem SoC, aber doch mit dem SoC im Produkt. Ist eben auch fatal, wenn der Eindruck entsteht, dass entsprechendes Material nicht wiedergegeben werden würde, weil man es einfach nicht weiß.

Dann reden wir aneinander vorbei.

Eigentlich nicht. Du behauptest, Apple protzt nicht mit Leistungswertungen. Ich sage, klar das tun sie und verweise auf die Seite und die Präsentation.

Dural
2011-03-14, 11:17:31
ach immer dieselbe Diskussion hier wegen der GPU Performance... ;D


T3 wird zurück schlagen und dann wieder ein anderer... ist doch normal... was habt ihr eigentlich erwartet?!? aber man sieht deutlich das NV hier schon einen kleinen Vorsprung hat, bei der Leistung und bei der Fertigung! Die anderen MÜSSEN aufholen NICHT NV sonst wird sich NV von Generation zu Generation weiter absetzten können!


Ich glaube das manche hier immer noch etwas zu jammern hätte wenn der T3 G80 Leistung hätte aber 2Watt mehr verbrauchen würde als A5 :freak:


und wieso einige die T2 Start Probleme NV ankreiden und nicht etwa Google und co ist mir ein Rätsel, NV liefert nur den Chip! wenn die Software nicht so weit ist kann NV nichts dafür und zeigt nur dass die NV Hardware (damals) deutlich vorgeschrittener war als die Software selber... diese verhältnis gab es schon zig male auch in der Computer Geschichte, ich erinnere nur mal an die ersten Dual Core CPUs :)

Ailuros
2011-03-14, 12:06:09
Hä? Du faselst die ganze Zeit davon, dass Tegra 2 und vorallem die GPU deutlich der Konkurrenz unterlegen wäre. Gleichzeitig wird dies unterlegt mit schlechten Verkaufszahlen. Du drehst dir deine Wahrheit so zurecht, dass du dich nie falsch wägst, gell?
Toshiba hat mehr AC100 mit einem DualCore verkauft als Samsung, TI und Qualcomm zusammen. Soviel zu euren Verkaufszahlengebrubbel.

Aber eine Anzahl oder Dokumentation kannst Du trotz allem nicht dazu liefern. Und es ist natuerlich nicht das Ende zu jeglichem Verkaufszahlengebrubbel nur weil Du irgend etwas blind aus der Luft grabst, aber wohl eher weil es bei Dir keinen Sinn macht es weiter zu diskuttieren.

Nein? Da sagt GLBenchmark (http://www.anandtech.com/show/4216/apple-ipad-2-gpu-performance-explored-powervr-sgx543mp2-benchmarked/2) was vollkommen anderes: 77% in Egypt und 85% in Pro - Auflösungsnormalisiert.

Nein. Und mir ist voll bewusst wie absurd das Ganze klingt. Ergo ignorier es momentan und stell es auf die Wartelist fuer spaeter.

Das Demo-Sample (http://www.youtube.com/watch?v=LRctKtt4RW8&feature=related) auf der MWC lies das Spiel bei besserer Grafik und mehr Einheiten doppelt so schnell ablaufen. Die Leistungssteigerung wird deutlich ausfallen und damit wird man die Lücke zu A5 deutlich verkleinern.

Mobile Spiele setzen zunehmend auf fragment processing und der Anteil fuer vertex processing liegt pro frame wohl immer noch unter der 10% Grenze generell. Zwar wird sich das letztere mit der Zeit aendern aber die Ansprueche auf fragment processing werden weiterhin um einiges mehr skalieren. Genau eben aus diesem Grund spekuliere ich auch dass bei T3/ULP sie auf doppelt so viele PS ALUs setzen. Und ja in solch einem Fall mit 2x so viel fragment ALUs und hoeherer Frequenz ist 2x Mal Leistung in solch einem Spiel normal.

Welche anderen SoCs kommen denn an A5 und Tegra3 ran? Samsung, TI und Qualcomm müssen erstmal mit DualCore auf den Markt kommen.

Qualcomm's dual core CPU SoCs liegen genauso auf der Warte-liste um dieses Jahr zu erscheinen wie auch Samsung's Galaxy Tab 10.1.

Apple hat die Video-Dekodierungseinheit nicht überarbeitet und trotzdem ist der Chip um mehr als doppelte angewachsen. Weder Apple noch Samsung können so unfähig sein, dass ein fast kompletter Tegra2 Chip alleine für die DualCore-A9 Integration draufgehen würde.

Ich hab keine Ahnung ob sie den video decoder geaendert haben oder nicht im A5. Es war lediglich ein Beispiel wie sich diverse Bloecke innerhalb eines SoCs verteilen koennten. Aber wenn Du wirklich glauben willst dass der MP2 im iPad2 eine Unmenge von die area von den 122mm2 einnimmt von mir aus.

LovesuckZ
2011-03-14, 12:12:41
Aber eine Anzahl oder Dokumentation kannst Du trotz allem nicht dazu liefern. Und es ist natuerlich nicht das Ende zu jeglichem Verkaufszahlengebrubbel nur weil Du irgend etwas blind aus der Luft grabst, aber wohl eher weil es bei Dir keinen Sinn macht es weiter zu diskuttieren.

Warum sollte ich irgendwas liefern, was ihr faselt? ;D
Merkst du eigentlich nicht, dass du derjenige bist, der seine Meinung dauernd ändert - mal zählen Verkaufszahlen, dann wieder nicht, dann wieder, dann wieder nicht.


Nein. Und mir ist voll bewusst wie absurd das Ganze klingt. Ergo ignorier es momentan und stell es auf die Wartelist fuer spaeter.

Ach später. Wann, wenn Tegra3 auf dem Markt ist? :freak:
Aber schön zu sehen, dass die nicht konkurrenzfähige Tegra2-GPU selbst dann nicht konkurrenzfähig sein soll, wenn sogar Tests es beweisen.
Das klingt ziemlich stark nach Absurdistan.


Ich hab keine Ahnung ob sie den video decoder geaendert haben oder nicht im A5. Es war lediglich ein Beispiel wie sich diverse Bloecke innerhalb eines SoCs verteilen koennten. Aber wenn Du wirklich glauben willst dass der MP2 im iPad2 eine Unmenge von die area von den 122mm2 einnimmt von mir aus.

Nein, du willst uns ja erzählen, das Apple bis auf die GPU annährend einen doppelt so großen Die benötigt als nVidia mit Tegra2 bzw. einen anscheinend noch größeren als Tegra3. Das klingt natürlich wesentlich glaubwürdiger. Woher soll eigentlich auf dem selben Prozeß die tolle Leistungssteigerung der GPU herkommen, wenn nicht aus einem wesentlich größeren Platzbedarf? Aber anscheinend kann IMGTech zaubern, indem sie für 9x mehr Leistung gerademal - was - 20% mehr Fläche benötigt?

Nakai
2011-03-14, 12:13:34
und wieso einige die T2 Start Probleme NV ankreiden und nicht etwa Google und co ist mir ein Rätsel, NV liefert nur den Chip! wenn die Software nicht so weit ist kann NV nichts dafür und zeigt nur dass die NV Hardware (damals) deutlich vorgeschrittener war als die Software selber... diese verhältnis gab es schon zig male auch in der Computer Geschichte, ich erinnere nur mal an die ersten Dual Core CPUs

Und diese Denkweise ist falsch. Ein SOC-Hersteller muss nicht nur die Hardware liefern, sondern auch den Developern eine Softwareumgebung und eine Basis liefern. Das hat NV nun schon zweimal verkackt.
Softwareprobleme kann man in diesem Fall direkt auf NV zurückwerfen.

In diesem Bereich ist eben eine dementsprechende Informationspolitik von Nöten.

Ailuros
2011-03-14, 12:44:20
Warum sollte ich irgendwas liefern, was ihr faselt? ;D
Merkst du eigentlich nicht, dass du derjenige bist, der seine Meinung dauernd ändert - mal zählen Verkaufszahlen, dann wieder nicht, dann wieder, dann wieder nicht.

Weil Du eben nichts zu liefern hast. Dreh Dich gerne weiterhin im Kreis rum mir wirds auf dem Karusell auf jeden fall nicht schwindlig.

Ach später. Wann, wenn Tegra3 auf dem Markt ist? :freak:
Aber schön zu sehen, dass die nicht konkurrenzfähige Tegra2-GPU selbst dann nicht konkurrenzfähig sein soll, wenn sogar Tests es beweisen.
Das klingt ziemlich stark nach Absurdistan.

Ein jeglicher kommender sw update ist ziemlich wurscht fuer aeltere Produkte, aber ziemlich wichtig fuer existierende.

Nein, du willst uns ja erzählen, das Apple bis auf die GPU annährend einen doppelt so großen Die benötigt als nVidia mit Tegra2 bzw. einen anscheinend noch größeren als Tegra3. Das klingt natürlich wesentlich glaubwürdiger. Woher soll eigentlich auf dem selben Prozeß die tolle Leistungssteigerung der GPU herkommen, wenn nicht aus einem wesentlich größeren Platzbedarf? Aber anscheinend kann IMGTech zaubern, indem sie für 9x mehr Leistung gerademal - was - 20% mehr Fläche benötigt?

Die 9x Mal Marketing-Zahl bezieht sich auf GFLOPs und fuer diese alleine braucht man keine Unmegen an die area. Ich hab den die area Unterschied bei gleicher Frequenz zwischen SGX535 und SGX543MP auf ca. 2.5x Mal so viel eingeschaetzt. Ich hab nie etwas so bescheidenes wie 20% nicht mal annaehernd angedeutet.

Solche Fragen: http://forum.beyond3d.com/showpost.php?p=1534834&postcount=169 werden wohl irgendwann schon beantwortet werden. Ich bin momentan fuer solche Einzelheiten selber ratlos.

Screemer
2011-03-14, 13:08:23
Und? Als ob der Unterschied für irgendwem von Bedeutung wäre. Das iPad 2 ist 2-4x schneller. Das ist bedeutend. Aber 0-20% ist sowas von egal.
du bist doch der der immer meint, dass der t2 im vergleich zum a5 schon so "alt" wäre (nicht verfügbar versteht sich) und hier siehst du wie einer wirklich "alter" sgx540 (das wave mit sgx540 kam im mai auf den mark und war verfügbar) diesem überlegen ist. er wollte sicher nur mal dein geheule in relation stellen. der t2 war auf gpu-seit schon vor 9 monaten "alt", als er auf den markt kam.

deekey777
2011-03-14, 13:13:55
Wen interessiert die Performance, wenn es schlussendlich auf die Software ankommt, die diese Performance auch nutzt?

iFanatiker
2011-03-14, 13:28:10
Nein, du willst uns ja erzählen, das Apple bis auf die GPU annährend einen doppelt so großen Die benötigt als nVidia mit Tegra2 bzw. einen anscheinend noch größeren als Tegra3. Das klingt natürlich wesentlich glaubwürdiger.

Nochmals: A4 und A5 kommen ausschließlich mit RAM auf dem SoC "Huckepack". Es gibt keine Angaben AFAIK wie groß der eigentliche SoC ist bzw. man designt hier natürlich anders wenn man nur PoP anbietet. Bei Tegra 2 ist PoP nur optional.

Auch: TSMC 40nm gegen Samsung 45nm.

Somit: Vergleich von Äpfel und Birnen.

LovesuckZ
2011-03-14, 15:38:23
Nochmals: A4 und A5 kommen ausschließlich mit RAM auf dem SoC "Huckepack". Es gibt keine Angaben AFAIK wie groß der eigentliche SoC ist bzw. man designt hier natürlich anders wenn man nur PoP anbietet. Bei Tegra 2 ist PoP nur optional.

Die Seite spricht klar von Die Size. Das können sie nur, wenn sie nicht das Package mit Speicher meinen. Spielt aber auch keine Rolle beim A4 -> A5 vergleich.


Auch: TSMC 40nm gegen Samsung 45nm.

Somit: Vergleich von Äpfel und Birnen.

Das beide nicht zu vergleichen sind, ist klar. Das aber ein A5 mehr als doppelt so groß sein würde als A4 kann man nicht auf hauptsächlich die DualCore-Implementierung zurückführen. Weil dann müsste TSMC eine wesentlich bessere Packdichte erreichen als Samsung.
Auch der Vergleich von T2 -> T3 ist hierbei interessant, wächst T3 nur um ca. 63% gegenüber T2 und es ist angestrebt mehr als die doppelte CPU Leistung (laut Rayfield soll der Takt pro Kern 1,5GHz betragen) und die 3x GPU-Leistung zu erreichen.

Ich bezweifel im Grunde die Angaben der Webseite. Es macht keinen Sinn, dass A5 so deutlich ansteigt, wo angeblich die ARM- und IMGTech Kerne so platzsparend wären.

deekey777
2011-03-14, 15:40:45
Sie haben weder eine Verbesserung angepriesen, noch die Daten auf der Seite überarbeitet. Daher bleibe ich bei der Aussage.
Das ist Apple.
Warum sollen sie die vollen Fähigkeiten anspreisen, wenn sie über iTunes 720p anbieten (bestimmt Base, wenn man sich die Profile aus Media Esspresso anschaut).
Ich kann den Spieß auch umdrehen:
http://www.anandtech.com/show/4144/lg-optimus-2x-nvidia-tegra-2-review-the-first-dual-core-smartphone/14
Tegra 2 can decode H.264 1080P baseline at a maximum of 20 Mbps.
Und mein iPhone kann High@4.0 mit mindestens 20 MBit/s samt CABAC dekodieren. Dreimal darfst du raten, was besser aussieht, wenn ein 1080p-Film 4 GB nicht überschreiten darf.

iFanatiker
2011-03-14, 17:04:59
D
Das beide nicht zu vergleichen sind, ist klar. Das aber ein A5 mehr als doppelt so groß sein würde als A4 kann man nicht auf hauptsächlich die DualCore-Implementierung zurückführen. Weil dann müsste TSMC eine wesentlich bessere Packdichte erreichen als Samsung.

Ich bezweifel im Grunde die Angaben der Webseite. Es macht keinen Sinn, dass A5 so deutlich ansteigt, wo angeblich die ARM- und IMGTech Kerne so platzsparend wären.

@Ailuros - beweg diesmal in den Apple SoC Thread bitte.

Chipworks schätzte augrund von Röntgen Aufnahmen die Size des A5.

A4 nutzt eine Cortex A8 IP, A5 nutzt eine Cortex A9 IP. Die A9 Architektur hat schon einen wesentlich höheren Transistor Count gegenüber der A8 IP. Sprich selbst ein A9 IP Kern an sich dürfte bei identische Fertigung größer werden als ein A8 Kern.

640 kb Second-Level Cache vs. 1 MB Second-Level Cache.

Power SGX 530 vs Power SGX543MP2 (auch hier abseits der Anzahl der Module gibt es einige Unterschiede in der Architektur pro Module).

und noch andere uns unbekannte Änderungen (z. B. scheint das Powermanagment wesentlich ausgereifter zu sein als beim A4). Eventuell nutzt diesmal auch den Power Medien DSP (habe den Namen vergessen). In iOS gibt es erste Spuren einer neuer Video API.

Also schon etliche Gründe die dafür sprechen, daß der DIE so gewachsen ist.

Und wer sagt, daß TSMC nicht eine höhere Packdichte schafft in ihrem Verfahren? TSMC, IBM und Intel sind nun mal "State-of-the-art" in der Produktion. Nicht umsonst bemührt sich wohl Apple um TSMC im Moment.

Und "ARM angeblich platzsparend". Was meinst du steckt wohl im Tegra 2? :freak:

Ailuros
2011-03-15, 00:33:34
http://www.dailytech.com/article.aspx?newsid=21121

White told Reuters that the iPad 2 could potentially have sold one million units in its first weekend, a feat that took 28 days for the original when it hit the market last year. Wedbush Securities analyst Scott Sutherland echoed White's prediction.

Apple is expected to retain 61 percent of the lucrative tablet market for 2011, according J.P. Morgan analyst Mark Moscowitz. According to Moscowitz, other companies will have trouble attracting customers the way Apple has.

The iPad 2 is set to launch worldwide on March 25.

steve.it
2011-03-15, 11:21:45
http://www.chipworks.com/media/wpmu/uploads/blogs.dir/2/files/2011/03/APL0498_APL0498E01_Backside-249x300.jpg (http://www.chipworks.com/media/wpmu/uploads/blogs.dir/2/files/2011/03/APL0498_APL0498E01_Backside.jpg)
http://www.chipworks.com/en/technical-competitive-analysis/resources/technology-blog/2011/03/apple-a5-vs-a4-floorplan-comparison/

Ailuros
2011-03-15, 15:35:27
http://www.chipworks.com/media/wpmu/uploads/blogs.dir/2/files/2011/03/APL0498_APL0498E01_Backside-249x300.jpg (http://www.chipworks.com/media/wpmu/uploads/blogs.dir/2/files/2011/03/APL0498_APL0498E01_Backside.jpg)
http://www.chipworks.com/en/technical-competitive-analysis/resources/technology-blog/2011/03/apple-a5-vs-a4-floorplan-comparison/

Einen Keks fuer denjenigen der den GPU block findet :wink:

Nakai
2011-03-15, 16:22:43
Einen Keks fuer denjenigen der den GPU block findet :wink:

Mhh, schwierig, da es kaum Dieshots von anderen solchen Chips gibt...und selbst da ist der PowerVR-Grafikkern nur selten markiert.

Isses des da?
http://img146.imageshack.us/i/sgx543.png/

Gleich mal Begründung:
Liegt nahe am Video-DAC. Sieht ähnlich zu dem Block aus, welcher auch beim A4 nahe am Video-DAC liegt. Ebenso sind wohl Funktionseinheiten doppelt, was zu MP2 passt.


mfg

mboeller
2011-03-15, 16:38:19
Einen Keks fuer denjenigen der den GPU block findet :wink:

IMHO:
Es können ja sowieso nur die mit "DATA-PATH 1" od. "DATA-PATH 2" bezeichneten Bereiche sein, da nur die doppelt vorhanden sind. Die mit DATA-PATH 2 bezeichneten Bereiche schauen beim A5 so aus wie der Bereich "Logic-core 4" im A4. Die mit DATA-PATH 1 bezeichneten Bereiche beim A5 schauen dafür ein wenig so aus, wie der Bereich "Logic core 1" im A4.

Anyway: Zw. 12% und 13,6% sind im A5 für die SGX 543 MP2 Cores reserviert. Größe damit: 14,6 - 16,6 mm² [Bei einer Größe von 122mm² für den A5]

=Floi=
2011-03-15, 23:14:34
wo kommen dann die 900mhz her, wenn apple 1ghz angibt?
gibt es spekulationen, dass das IP5 1gb ram haben wird, oder bleibt es hier bei 512mb?

was soll der quad core im T3 bringen? Dual core ist mir klar und das ist auch sinnvoll, aber für was braucheich da 4 cores. Da wäre doch eine breitere gpu oder mehr cpu-takt imho sinnvoller. Tegra hat auch das problem der mangelden softwareunterstützung und das mag am pc noch verkraftbar sein, aber in diesem bereich ist es imho tödlich.
wäre es nicht sinnvoller eher kleinere zusätzliche cores zu verbauen und es bei 2 großen zu belassen?!

IVN
2011-03-15, 23:19:20
wo kommen dann die 900mhz her, wenn apple 1ghz angibt?
gibt es spekulationen, dass das IP5 1gb ram haben wird, oder bleibt es hier bei 512mb?

was soll der quad core im T3 bringen? Dual core ist mir klar und das ist auch sinnvoll, aber für was braucheich da 4 cores. Da wäre doch eine breitere gpu oder mehr cpu-takt imho sinnvoller. Tegra hat auch das problem der mangelden softwareunterstützung und das mag am pc noch verkraftbar sein, aber in diesem bereich ist es imho tödlich.
wäre es nicht sinnvoller eher kleinere zusätzliche cores zu verbauen und es bei 2 großen zu belassen?!
Ists eh, von 1 auf 1,5 GHz.

Ailuros
2011-03-16, 07:17:50
IMHO:
Es können ja sowieso nur die mit "DATA-PATH 1" od. "DATA-PATH 2" bezeichneten Bereiche sein, da nur die doppelt vorhanden sind. Die mit DATA-PATH 2 bezeichneten Bereiche schauen beim A5 so aus wie der Bereich "Logic-core 4" im A4. Die mit DATA-PATH 1 bezeichneten Bereiche beim A5 schauen dafür ein wenig so aus, wie der Bereich "Logic core 1" im A4.

Anyway: Zw. 12% und 13,6% sind im A5 für die SGX 543 MP2 Cores reserviert. Größe damit: 14,6 - 16,6 mm² [Bei einer Größe von 122mm² für den A5]

Darauf dachte ich selber schon, aber ich bin leider mit solchen die shots wo nichts definiert wird ein totaler n00b (war ne ehrliche Frage).

wo kommen dann die 900mhz her, wenn apple 1ghz angibt?

Hab ich mich auch schon gefragt. Kann sein dass diverse Applikationen nur 894MHz auslesen aus weiss der Geier welchem Grund.

gibt es spekulationen, dass das IP5 1gb ram haben wird, oder bleibt es hier bei 512mb?

Noch keine Ahnung.

was soll der quad core im T3 bringen? Dual core ist mir klar und das ist auch sinnvoll, aber für was braucheich da 4 cores. Da wäre doch eine breitere gpu oder mehr cpu-takt imho sinnvoller. Tegra hat auch das problem der mangelden softwareunterstützung und das mag am pc noch verkraftbar sein, aber in diesem bereich ist es imho tödlich.
wäre es nicht sinnvoller eher kleinere zusätzliche cores zu verbauen und es bei 2 großen zu belassen?!

Sei so gut und halt Tegra Material im dementsprechenden Thread in Zukunft. Um die SoC Leistung weiter zu steigern und ueberhaupt unter anspruchsvollen multi-tasking Faellen, braucht man tatsaechlich mehr CPU cores. Die Frage ist dann eher was fuer verruecktes multi-tasking man heutzutage schon auf einem tablet genau braucht dass man gleich 8 threads dafuer brauchen wuerde, ist aber ein anderes Kapitel. Ich versteh jetzt Deinen Vorschlag mit kleineren cores jetzt nicht gerade, aber es macht auch keinen Sinn. Cortex A9 cores sind relativ klein; anstatt jetzt 2 auf Ueber-Frequenzen zu jagen um N Leistung zu erreichen, ist es selbstverstaendlich logischer auf 4 cores mit moderaterer Frequenz zu greifen.

T3 wird 4 A9 cores mit Frequenz fuer tablets bis zu 1.5GHz und 4 NEON cores kommen noch dazu.

LadyWhirlwind
2011-03-16, 13:13:09
Hab ich mich auch schon gefragt. Kann sein dass diverse Applikationen nur 894MHz auslesen aus weiss der Geier welchem Grund.


Soll angeblich ein Stromspar Feature sein, zumindest wenn man UBM Techinsights glaubt: http://www.ubmtechinsights.com/reports-and-subscriptions/investigative-analysis/apple-ipad-2/
Wäre soweit auch logisch weil Apple ja doch Wert auf lange Laufzeiten legt u d sie so halt sicher noch etwas rausholen können.

YfOrU
2011-03-16, 15:17:17
Solche Fragen: http://forum.beyond3d.com/showpost.php?p=1534834&postcount=169 werden wohl irgendwann schon beantwortet werden. Ich bin momentan fuer solche Einzelheiten selber ratlos.

Auch hier gilt wieder: Low Power lässt sich in erster Linie durch möglichst niedrige Spannung erreichen. Im Umkehrschluss führt dieser Ansatz aber auch zu vergleichsweise niedrigen (maximalen) Frequenzen.

Um die Bandbreite zu verdoppeln muss entweder die Frequenz oder der Bus verdoppelt werden.

Über die Frequenz ist das bei LP DRAM momentan kaum möglich denn hier gibt es immer nur marginale Steigerungen (166 - 200 Mhz etc). Bleibt also nur LP Stacks mit höherer Busbreite einzusetzen denn klassischer DRAM mit hohen Frequenzen ist um einiges ineffizienter.

Nicht vergessen darf man dabei auch folgendes: Die Geräte müssen extrem kompakt sein und damit unterliegt man beim (Signal) Routing ganz anderen Einschränkungen als auf herkömmlichen Mainboards. Je niedriger die Frequenzen (PCB), desto besser.

Was die Stacks angeht, man spart direkt Platz auf dem PCB und reduziert die Anzahl kritischer Datenleitungen. Was aber noch hinzu kommt sind extrem kurze Signalwege (bei moderaten Frequenzen). Auch damit lässt sich die Spannung wieder ein kleines Stück reduzieren.

Um noch kurz auf Pin/Power einzugehen: Im Gegenteil, durch die Stacks fallen Unmengen von Signalleitungen am eigentlichen SoC Pad weg (und können teilweise anderweitig genutzt werden). Im Vergleich dazu ist der zusätzliche Energiebedarf durch den DRAM (auf dem SoC) gerade zu harmlos.

btw hatte ich das PinOut Problem (für Stacks mit höherer Bandbreite) bei einer Größe wie Omap3 mal durchgerechnet und das wäre ziemlich knapp. Beim Format von Tegra 3 oder A5 sind 64Bit aber auf jeden Fall machbar.

Ailuros
2011-03-16, 17:45:16
Auch hier gilt wieder: Low Power lässt sich in erster Linie durch möglichst niedrige Spannung erreichen. Im Umkehrschluss führt dieser Ansatz aber auch zu vergleichsweise niedrigen (maximalen) Frequenzen.

Um die Bandbreite zu verdoppeln muss entweder die Frequenz oder der Bus verdoppelt werden.

Über die Frequenz ist das bei LP DRAM momentan kaum möglich denn hier gibt es immer nur marginale Steigerungen (166 - 200 Mhz etc). Bleibt also nur LP Stacks mit höherer Busbreite einzusetzen denn klassischer DRAM mit hohen Frequenzen ist um einiges ineffizienter.

Nicht vergessen darf man dabei auch folgendes: Die Geräte müssen extrem kompakt sein und damit unterliegt man beim (Signal) Routing ganz anderen Einschränkungen als auf herkömmlichen Mainboards. Je niedriger die Frequenzen (PCB), desto besser.

Was die Stacks angeht, man spart direkt Platz auf dem PCB und reduziert die Anzahl kritischer Datenleitungen. Was aber noch hinzu kommt sind extrem kurze Signalwege (bei moderaten Frequenzen). Auch damit lässt sich die Spannung wieder ein kleines Stück reduzieren.

Um noch kurz auf Pin/Power einzugehen: Im Gegenteil, durch die Stacks fallen Unmengen von Signalleitungen am eigentlichen SoC Pad weg (und können teilweise anderweitig genutzt werden). Im Vergleich dazu ist der zusätzliche Energiebedarf durch den DRAM (auf dem SoC) gerade zu harmlos.

btw hatte ich das PinOut Problem (für Stacks mit höherer Bandbreite) bei einer Größe wie Omap3 mal durchgerechnet und das wäre ziemlich knapp. Beim Format von Tegra 3 oder A5 sind 64Bit aber auf jeden Fall machbar.

Ich hab mir erhofft dass Du den die shot etwas entziffern kannst. Ich spiele schon mit dem Gedanken dass die Kerle bei chipworks irgend etwas merkwuerdig eingekritzelt haben, aber "Processor Data Path 1" und "Prozessor Data Path 2" koennte ein SGX543 rechteckiger core sein und die anderen zwei data paths nebenan der zweite.

Somit wuerde die GPU ungefaehr 1/4 des insgesamten dies einnehemen wie auch die CPUs mit ihrem drum und dran.

Mein einziges Problem ist dass data paths 2 & 2 mir komplette identisch aussehen, waehrend es ein paar kleine Unterschiede zwischen 1 & 1 gibt. Muessten die beiden GPU cores nicht voll identisch sein?

Coda
2011-03-16, 17:50:38
Was soll überhaupt ein "Processor Data Path" sein? Noch dazu wenn es den größten Teil des Chips einnimmt.

So ein Schwachsinn. Das sind die Grafikcores, wenn darunter die Prozessoren sind.

IVN
2011-03-16, 17:58:29
Wer hat überhaupt die Namen für die Bereiche gewählt? "Digital Logic Block", WTF? Wird bestimmt kein "Analog Logic Block" sein, auf einem Chip...

Und "Processor Data Path", trololol. Ich stelle mir vor, das irgendwas, was sich "Data Path" schimpft, extrem kleine ist, und nicht 20-30% des gesamten SoC einnehmen darf.

Ailuros
2011-03-16, 18:00:25
Was soll überhaupt ein "Processor Data Path" sein? Noch dazu wenn es den größten Teil des Chips einnimmt.

So ein Schwachsinn. Das sind die Grafikcores, wenn darunter die Prozessoren sind.

Ja aber muessten die beiden cores nicht identisch sein? Die beiden A9 cores sehen mir komplett identisch aus, genauso wie die zwei Vierecke die sie als data paths 2 und 2 bezeichnen.

Die zwei Vierecke darunter data paths 1 & 1 und ueber den CPUs sind nicht voll identisch.

Coda
2011-03-16, 18:20:12
Über was für eine SGX-Konfiguration reden wir überhaupt?

Nakai
2011-03-16, 19:06:10
SGX543MP2

Coda
2011-03-16, 19:39:30
Na also. Passt doch. Die "Data Path 1 + 2" ist jeweils ein SGX543.

Ailuros
2011-03-16, 21:09:21
Stimmt schon im Grund nachdem was mir metafor bei B3D gerade vermittelte, aber die "2-er" Bloecke scheinen grosszuegige caches zu sein. Die eigentliche GPU hw sind wohl die 1 data paths.

Aber da ich stets in solchen Faellen die caches dazuzaehle, ist der GPU block insgesamt 1/4 des dies wo auch irgendwo der CPU block liegt.

Coda
2011-03-16, 21:11:53
Das dürften die Tile-Caches sein. Und SRAM ist da auch nur der Bereich in der die 1 ist.

Ailuros
2011-03-16, 21:12:38
Das dürften die Tile-Caches sein.

PM lesen.

=Floi=
2011-03-16, 21:34:54
Sei so gut und halt Tegra Material im dementsprechenden Thread in Zukunft. Um die SoC Leistung weiter zu steigern und ueberhaupt unter anspruchsvollen multi-tasking Faellen, braucht man tatsaechlich mehr CPU cores. Die Frage ist dann eher was fuer verruecktes multi-tasking man heutzutage schon auf einem tablet genau braucht dass man gleich 8 threads dafuer brauchen wuerde, ist aber ein anderes Kapitel. Ich versteh jetzt Deinen Vorschlag mit kleineren cores jetzt nicht gerade, aber es macht auch keinen Sinn. Cortex A9 cores sind relativ klein; anstatt jetzt 2 auf Ueber-Frequenzen zu jagen um N Leistung zu erreichen, ist es selbstverstaendlich logischer auf 4 cores mit moderaterer Frequenz zu greifen.


für widgets und andere leistungsschwache sachen wären wohl abgespeckte kleine core sinnvoller imho. t2 hat do so etwas auch schon.

das mit den 4 core war eher allgemein gehalten und dazu muß eben auch die software passen, da ansonsten die mehrleistung brach liegt.

LovesuckZ
2011-03-17, 06:20:08
Ich lag also doch nicht so falsch, dass ein Großteil der zusätzlichen 70mm^2 von den Grafikkernen kommen. Immerhin reden wir hier von fast 1/3 der Fläche, also knapp 40mm^2. Tegra2 soll nur ganze 9mm^2 größer sein. Bei diesem Ausmaß ist es irgendwie verständlich, dass kein anderer solch eine GPU-Leistung verbauen werden wird. Apple kann es sich ja leisten, aber stellt euch mal vor, nVidia müsste ihre SoCs mit mehr als 100mm^2 an den Mann bringen...

Ailuros
2011-03-17, 07:37:10
Ich lag also doch nicht so falsch, dass ein Großteil der zusätzlichen 70mm^2 von den Grafikkernen kommen.Immerhin reden wir hier von fast 1/3 der Fläche, also knapp 40mm^2.

Eher 1/4 fuer GPUs und dedizierte caches.

Tegra2 soll nur ganze 9mm^2 größer sein. Bei diesem Ausmaß ist es irgendwie verständlich, dass kein anderer solch eine GPU-Leistung verbauen werden wird. Apple kann es sich ja leisten, aber stellt euch mal vor, nVidia müsste ihre SoCs mit mehr als 100mm^2 an den Mann bringen...

Bei der 28nm SoC Generation wird die Groesse der GPU Bloecke so oder so steigen und das nicht nur was IMG's IP betrifft. Im gleichen Bereich bewegt sich wo immer ARM T604, Vivante GPU IP benutzt wird und auch Qualcomm Adreno 3xx. Wie dem auch sei ich lass mal lieder bunte Bilder hier reden was die Analogie zwischen GPU Block und SoC Flaeche betrifft:

http://images.anandtech.com/reviews/gadgets/LG/Optimus2X/SoC.jpg

http://images.anandtech.com/reviews/gadgets/LG/Optimus2X/SoC.jpg

http://www.chipworks.com/media/wpmu/uploads/blogs.dir/2/files/2011/03/APL0498_APL0498E01_Backside.jpg

http://www.chipworks.com/media/wpmu/uploads/blogs.dir/2/files/2011/03/APL0498_APL0498E01_Backside.jpg

Sonst gilt nach wie vor dass sich Apple fuer andere Herstellungs-moeglichkeiten umsieht.

1. Die eigentlichen GPU Bloecke sind datapaths 2 & 2. Aber wie schon erwaehnt da ich stets zusaetzlichen Schnickschnack dazuzaehle (siehe auch ULP GF im obrigen T2 die shot) gehoeren alle 1 und 2 Bloecke dazugezaehlt. Keine weitere Details aber Apple wollte dass das Ganze so grosszuegig ausgelegt wird um Effizienz zu maximalisieren, sowohl auf Bandbreiten-Verbrauch Ebene als auch im Frequenz zu Stromverbrauch- Bereich.

2. Das letztere gilt auch fuer den gesamten SoC und natuerlich auch die ARM cores und dessen Peripherie (und dieser ist insgesamt ungefaehr auf gleichem Nivaeu als der insgesamte GPU block). Du hast in beiden Diagrammen 2*A9 (nur liegen im A5 noch NEON cores drin) bei 1GHz. Im Vergleich ist der CPU block beim A5 genauso bombastisch zum T2 GPU block (ohne NEON).

3. Den VXD konnte ich noch nicht identifizieren lassen, aber der VXE duerfte ziemlich aufgepumpt sein im Vergleich zu A4.

Zu guter letzt haette Apple den einen der beiden MP2 cores wegfallen lassen rein theoretisch. Was wuerde der SoC in solch einem Fall wiegen? 100-105mm2 schaetzungweise? Es waere nicht der Rede wert ueberhaupt da Apple generell ausserhalb 3D die GPU Resourcen so gut wie keiner ausnutzt.

LovesuckZ
2011-03-17, 08:05:17
Eher 1/4 fuer GPUs und dedizierte caches.

Es sind weitaus mehr als 1/4. Es geht viel mehr auf die 1/3 zu. Irgendwas zwischen 35-40mm^2.


Zu guter letzt haette Apple den einen der beiden MP2 cores wegfallen lassen rein theoretisch. Was wuerde der SoC in solch einem Fall wiegen? 100-105mm2 schaetzungweise? Es waere nicht der Rede wert ueberhaupt da Apple generell ausserhalb 3D die GPU Resourcen so gut wie keiner ausnutzt.

Natürlich ist es für Apple egal. Und logisch, dass man für annährend doppelte Leistung nur 10-20% mehr investieren würde. Aber es ändert nunmal nichts, dass die GPU bei Tegra2 maximal zwischen 1/5-1/4 (9,8-12,25mm^2) und bei Apple gleich 1/4-1/3 (30,5-40,6mm^2) ausmacht. Das relativiert dann auch wieder den Leistungsvorsprung.

Ailuros
2011-03-17, 09:06:20
Es sind weitaus mehr als 1/4. Es geht viel mehr auf die 1/3 zu. Irgendwas zwischen 35-40mm^2.

Dafuer muessten sich die 4 Bloecke noch um ein gutes Stueck von oben nach unten in die Laenge strecken.

Natürlich ist es für Apple egal. Und logisch, dass man für annährend doppelte Leistung nur 10-20% mehr investieren würde. Aber es ändert nunmal nichts, dass die GPU bei Tegra2 maximal zwischen 1/5-1/4 (9,8-12,25mm^2) und bei Apple gleich 1/4-1/3 (30,5-40,6mm^2) ausmacht. Das relativiert dann auch wieder den Leistungsvorsprung.

Es ist naeher an 1/5 fuer die ULP GF/T2 und naeher an 1/4 fuer den MP2/A5.

Ohne zu wissen wie der A5 auf TSMC's 40nm aussehen koennte, kann ich keine sinnvolle perf/mm2 Relativierung machen.

mboeller
2011-03-17, 09:26:18
Es sind weitaus mehr als 1/4. Es geht viel mehr auf die 1/3 zu. Irgendwas zwischen 35-40mm^2.


[ 586 x 508 - (318*47 + 2x 90*16)] / (961 x 1157) = 25,1%

Also nahezu exakt 1/4 wenn man die Pixel mit Irfanview auszählt

Ailuros
2011-03-17, 10:17:33
http://www.glbenchmark.com/compare.jsp?benchmark=glpro20&showhide=true&certified_only=1&D1=Apple%20iPad%202&D2=Malata%20Zpad&D3=Apple%20iPad

Noch genug Luftraum fuer weitere Optimierungen. Uebrigens liegen die Resultate um 1fps hoeher bei 45fps in Egypt. Sowohl hier als auch bei Anand's Resultaten kommt der Egypt MSAA score um einen winzigen Schnitt weiter oben an. Ich bezweifle dass es sich um einen Rundungsfehler handelt. PRO (um einiges weniger Geometrie als in Egypt und OGL_ES1.1) zeigt einen ~1% Verlust fuer MSAA.

Bin mir zwar nicht sicher, aber obwohl MSAA "free" sein sollte auf so einem Ding mit allem drun und dran, klingt mir das Ganze momentan etwas "zu free". Koennte sich bei einem Treiber-update durchaus aendern.

Fuell-rate diesmal bei 910MTexels/s gegen 890 die Anand gemessen hat. Der MP2 kann schwer unter 250MHz getaktet sein, wobei mich sogar 270MHz oder sogar mehr nicht ueberraschen wuerde. Das power und clock-gating ist ja so clever angelegt dass es kein Problem ist.

robbitop
2011-03-17, 16:38:02
Die Ergebnisse bei Anand sehen nicht danach aus, als wäre die GPU der einzige Bottleneck - das würde auch den geringen Drop von MSAA erklären.

Was mich ein wenig wundert: Ich habe eigentlich bedingt durch das lange KnowHow im Embedded Bereich und bedingt durch den TBDR Bonus eine wesentlich höhere Effizienz vom SGX als vom Tegra erwartet.

SGX540 und Tegra 2 nehmen sich kaum etwas in den Benchmarks.

SGX540:
2x TMUs und 4x Vec2 ALUs

Tegra 2:
2x TMUs und 1x Vec4 PS ALU und 1x Vec4 VS ALU.

Von der Rechenleistung sind beide theoretisch gleichwertig, wobei SGX hier sogar bedingt durch das USC-Konzept die bessere Effizienz erreichen müsste. Außerdem muss Tegra viele ROP Aufgaben durch die PS ALU erledigen lassen.
Von der Texelfüllrate her sind beide ebenfalls gleichwertig.

Wo bleibt der TBDR Bonus - wo bleibt der USC Bonus?

Serie 5XT ist ohne Frage wesentlich besser als Serie5 - nimmt aber weitaus mehr Fläche ein.
Der 543 MP2 erkauft sich die erdrückende Leistung ja durch eine erdrückende Fläche.

Bei gleicher Fläche scheint NVs IMR auf jeden Fall nicht unterdrückend unterlegen zu sein, wie ich es jahrelang erwartete. (was mich überrascht ist, dass viele andere embedded GPUs auch TBDRs sein sollen, wie z.B. der Adreno und der Mali)

loewe
2011-03-17, 17:02:22
Was mich ein wenig wundert: Ich habe eigentlich bedingt durch das lange KnowHow im Embedded Bereich und bedingt durch den TBDR Bonus eine wesentlich höhere Effizienz vom SGX als vom Tegra erwartet.

SGX540 und Tegra 2 nehmen sich kaum etwas in den Benchmarks.

SGX540:
2x TMUs und 4x Vec2 ALUs

Tegra 2:
2x TMUs und 1x Vec4 PS ALU und 1x Vec4 VS ALU.

Von der Rechenleistung sind beide theoretisch gleichwertig, wobei SGX hier sogar bedingt durch das USC-Konzept die bessere Effizienz erreichen müsste. Außerdem muss Tegra viele ROP Aufgaben durch die PS ALU erledigen lassen.
Von der Texelfüllrate her sind beide ebenfalls gleichwertig.

Wo bleibt der TBDR Bonus - wo bleibt der USC Bonus?

Das ist eine gute Frage!
Wie sagte AiL oben, "noch genug Raum für Optimierungen"!
Das was wir hier sehen hat mit TBDR Effizienz noch nicht viel zu tun. Keine Ahnung wo wir jetzt liegen bei der möglichen Leistung, sind es schon 66%?
Serie 5XT ist ohne Frage wesentlich besser als Serie5 - nimmt aber weitaus mehr Fläche ein.
Der 543 MP2 erkauft sich die erdrückende Leistung ja durch eine erdrückende Fläche.
Bei gleicher Fläche scheint NVs IMR auf jeden Fall nicht unterdrückend unterlegen zu sein, wie ich es jahrelang erwartete. (was mich überrascht ist, dass viele andere embedded GPUs auch TBDRs sein sollen, wie z.B. der Adreno und der Mali)
Die ALUs von Serie 5XT sind massiv aufgebohrt, das muss ja irgendwo liegen. :) Ansonsten gilt meine Aussage von oben auch für den SGX543MP2. Ich denke wir werden in absehbarer Zeit dort noch einen richtigen Sprung sehen.

AFAIK sind Adreno und Mali TBRs aber keine TBDRs.

Zum Adreno: http://developer.qualcomm.com/forum/android/graphics-optimization/1286

Ailuros
2011-03-17, 17:20:49
Bei gleicher Fläche scheint NVs IMR auf jeden Fall nicht unterdrückend unterlegen zu sein, wie ich es jahrelang erwartete. (was mich überrascht ist, dass viele andere embedded GPUs auch TBDRs sein sollen, wie z.B. der Adreno und der Mali)

Ich moechte auch steinreich sein als Beispiel, aber traeumen ist umsonst. Sonst siehe PM kleiner Padawan :P

Xmas
2011-03-17, 19:32:01
Außerdem muss Tegra viele ROP Aufgaben durch die PS ALU erledigen lassen.
Auch SGX erledigt Blending im Shader.

Der Eindruck dürfte sich recht bald schon ändern. Übrigens: alle bisher verfügbaren Benchmarks auf Tegra 2 benutzen 16-bit Farbe und Z.

Ailuros
2011-03-17, 20:32:33
Der Eindruck dürfte sich recht bald schon ändern.

*murmel murmel* :wink:

Übrigens: alle bisher verfügbaren Benchmarks auf Tegra 2 benutzen 16-bit Farbe und Z.

Macht die Presse darauf aufmerksam den zumindest 16bit Z Praezision ist bei weitem kein Einzelfall mit Tegra. Es ist eher die Minderwerdigkeite der embedded GPUs die den Anstand zu 24bit Z haben. Mehr als ofters sticht das z-fighting so stark ins Auge dass man kotzen koennte.

iFanatiker
2011-03-17, 22:46:10
Übrigens: alle bisher verfügbaren Benchmarks auf Tegra 2 benutzen 16-bit Farbe und Z.

Liegt es an der Architektur oder an Android bzw. den Treiber?

Überhaupt sollte man bisher recht vorsichtig sein mit den ganzen Benchmarks. Möchte man Hardware vergleichen sind Benchmarks unter unterschiedlichen Benchmarks immer ein bißchen unglücklich.

Ailuros
2011-03-18, 07:32:26
Liegt es an der Architektur oder an Android bzw. den Treiber?

Zumindest was die Z Praezision betrifft ist es Architektur-bedingt. Sonst wird halt gespart um Leistung dazuzugewinnen.

Überhaupt sollte man bisher recht vorsichtig sein mit den ganzen Benchmarks. Möchte man Hardware vergleichen sind Benchmarks unter unterschiedlichen Benchmarks immer ein bißchen unglücklich.

Video ganz unten: http://www.mobiletechworld.com/2010/12/18/opengl-es-2-0-benchmark-adreno-205-vs-sgx540-htc-desire-hd-vs-samsung-galaxy-s/#more-17339

Adreno 205 vs. SGX540

steve.it
2011-03-22, 13:54:53
"Apple added more chip experts to their in-house silicon team and poached veteran engineers from Samsung and ARM earlier this month."
http://www.9to5mac.com/57149/beefier-chips-as-apple-bolsters-in-house-silicon-wizards/#more-57149

Ailuros
2011-04-20, 10:54:56
http://www.dailytech.com/article.aspx?newsid=21415

Duerfte stimmen; auf SoC Basis erwarte ich keine besonderen Aenderungen ausser einem die shrink und nein dieser kann nicht bei TSMC hergestellt werden.

steve.it
2011-04-20, 11:25:06
Gibt es Hinweise zum Video-Decoder im A5? ("was geht"?)
Normalerweise finden sich Hinweise im Forum von Handbrake. Über das iPad2 konnte ich bisher aber nichts finden.

Beispiel:
"I can confirm that iPhone 4 can handle 13 reference frames and 16 B-frames on content with a storage resolution of 720x480 (I believe it's 11 reference frames for 720x576)."
https://forum.handbrake.fr/viewtopic.php?f=7&t=18266&start=150

Ailuros
2011-04-20, 13:37:47
Du meinst eher was Apple zulaesst.

Ailuros
2011-04-27, 13:17:26
http://semiaccurate.com/2011/04/26/lg-to-design-own-cortex-processors/

Sieht ziemlich haarig aus fuer Samsung's foundry business. Vielleicht sollte Apple tatsaechlich eine zweite Herstellungs-quelle besorgen. Der Vorteil waere dass Apple dann nicht mehr so abhaengig von einem einzigen Hersteller ist und der Nachteil (bei hypothetischer Herstellung bei 2 verschiedenen foundries) dass jeglicher SoC zwei Mal aufgelegt werden muss.

Ailuros
2011-05-03, 09:54:41
http://www.fudzilla.com/games/item/22591-is-apple-preparing-a-game-console?

AnarchX
2011-05-03, 12:47:10
Apple SoCs bald mit Intel Fertigung?
http://www.eetimes.com/electronics-news/4215650/Intel-vying-for-Apple-foundry-business-

Mit 22nm Anfang 2012 könnte man wohl den Mitbewerbern die Rücklichter zeigen.
Denkbar das man durch eine solchen Deal abwendet, dass Apple auf AMDs APUs in Zukunft setzt.

Ailuros
2011-05-03, 13:47:40
Apple SoCs bald mit Intel Fertigung?
http://www.eetimes.com/electronics-news/4215650/Intel-vying-for-Apple-foundry-business-

Macht mehr Sinn als TSMC, denn beim letzteren gibt es kein 32nm.

Mit 22nm Anfang 2012 könnte man wohl den Mitbewerbern die Rücklichter zeigen.

A5 ist vergleichsmaessig zu anderen 45nm SoC gigantisch jedoch ist Apple's BOM fuer die A5 Linie kleiner als mit A4. Ist ja alles nur hypothetisch denn bei Apple's Geheimnis-tuerei hat man selten einen Durchblick, aber es klingt eher danach als ob sie ihre gesamte Herstellung woanders hinschleppen wollen. Wenn's stimmt dann wird es noch heikler fuer Samsung, denn die Austin Texas foundry bauten sie ja auch nicht aus Zufall.

Denkbar das man durch eine solchen Deal abwendet, dass Apple auf AMDs APUs in Zukunft setzt.

Wenn AMD irgendwann mal wahre embedded SoCs entwickelt und diese auch im Vorteil liegen zur zeitigen PowerVR IP wuerde ich die Chance zwar nicht ausschliessen, aber weder Apple klingt mir danach als ob sie fertige SoCs kaufen wollen (was erstmal gegen Investitionen wie Intrisity spricht) noch AMD als sie irgendwelchen Bock haben irgendwelche IP zu verkaufen.

Ueberhalb von tablets ist es natuerlich ein ganz anderes Kapitel.

IMG's Rogue/Serie6 setzt eine ziemlich hohe perf/mm2 und perf/W Messlatte fuer die absehbare Zukunft. Auf Papier koennten GFLOPs seitens AMD ziemlich bunt aussehen (wobei zwischen Architekturen stets GFLOP != GFLOP), aber wenn es zum Bandbreiten- bzw. Speicher-verbrauch kommen sollte hab ich so manchen Zweifel dass sie mithalten koennten:

http://www.realworldtech.com/page.cfm?ArticleID=RWT042611035931&p=2

Crazy_Chris
2011-05-03, 14:21:15
Intel hat doch ein viel größeres Interesse ihre eigenen Designs zu verkaufen und keine Fremddesigns zu produzieren. Die schießen sich mit sowas doch langfristig ins eigene Bein.

LadyWhirlwind
2011-05-03, 14:58:38
Intel hat doch ein viel größeres Interesse ihre eigenen Designs zu verkaufen und keine Fremddesigns zu produzieren. Die schießen sich mit sowas doch langfristig ins eigene Bein.

Jein, da Apple ja eh seine eigenen ARM-Chips für die iphones/pads produziert, ist der Markt wohl für Intel verloren, wenn sie sich mit Apple in der Produktion zusammen tun, können sie die investitionen aufteilen, das ist für Intel allemal besser als wenn Apple sich entweder mit TSMC oder Global Foundries zusammen tut. Apple hat ja auch interesse an fortschritlicheren Fertikungsgrössen/techniken und ist möglicherweise auch bereit dafür Geld locker zu machen.

Wenn Apple in GF oder TSMC investiert, haben möglicherweise auch Intelkonkurenten was davon. Insbesondere wenn Apple in GF investiert und AMD dadurch schneller an kleinere Fertigungsgrössen kommt. Da ist es dann doch noch besser mit Apple zusammen zu arbeiten.

nomadhunter
2011-05-03, 15:05:08
Intel hat doch ein viel größeres Interesse ihre eigenen Designs zu verkaufen und keine Fremddesigns zu produzieren. Die schießen sich mit sowas doch langfristig ins eigene Bein.
Welche eigenen Designs denn? Atom ist zur Zeit keine Konkurrenz für ARM-SoCs. Also lieber ein Fremddesign fertigen, als gar nicht am Smartphone- und Tablet-Markt teilzuhaben.

=Floi=
2011-05-03, 15:25:23
apple will wohl von nv gar nichts mehr wissen...

Nightspider
2011-05-03, 15:55:14
Ein Apple A6 QuadCore mit bis zu 1,5 Ghz in 22nm Anfang 2012 von Intel für das iPad 3 wäre schon ein dickes Ding und genau richtig für ein mögliches Retina Display im iPad 3.

nomadhunter
2011-05-03, 22:15:46
Brauchen wir 2012 wirklich schon Quad-Core-Tablets? Bisher können die Anwendungen doch noch nicht mal mit 2 Kerne richtig umgehen. Dual-Core mit 2 GHz erscheint mir da sinnvoller und ist auch eine Verdoppelung gegenüber der aktuellen Generation.

basti333
2011-05-03, 22:35:36
Bedarf so etwas nicht mindestens 1-2 jahre vorlaufzeit? Immerhin hat Intel ja bisher praktisch nur x86 gefertigt. Außerdem hat Apple ja langfristige verträge mit samsung, also selbst wenn man zu intel geht, wird samsung noch eine zeit weiterhin Chips fertigen für Apple. Interessant halte ich noch das gedankenspiel mit GF, Apple tut sich ja gerne mit zulieferern zusammen um mit eigenen Kapital Fabriken zu bauen, bei GF würde man u.U. gleich ein paar % des Konzerns mit kaufen?! Wäre Doch für beide seiten eine lohnende Sache.

Nightspider
2011-05-03, 22:38:05
Nein nicht zwingend.
Aber falls Apple wirklich ein iPad mit vierfacher Auflösung rausbringen wird, muss zumindest die Grafikleistung nochmals gesteigert werden, damit aktuelle iPad 2 Apps auch in gleicher Qualität in hoher Auflösung laufen.

Aber höhere Taktraten kann man in jeder App gebrauchen. Wobei 4 Kerne für > echtes < Multitasking nicht schlecht wäre. Mich kotzt es zB auch an, das die Tabs nicht weiter laden, wenn man nen neuen Tab öffnet.

Zumal zukünftige Multitaskingn Gesten azch Leistung brauchen. Das elendige App und Tab gewechsle mit einem Finger nervt doch auch mit der Zeit.

nomadhunter
2011-05-03, 23:32:34
Bei nur 2 CPU-Kernen bleibt mehr Platz für eine größere GPU. Außerdem glaub ich nicht, dass für ein paar Gesten und Tabs, die im Hintergrund laden, ein Quad-Core nötig ist. 2012 werden die Dual-Core-SoCs wahrscheinlich 2 GHz durchbrechen. Damit ist man in Leistungsregionen angelangt, die bisher ausgewachsenen Notebooks (nicht Netbooks) vorbehalten waren. Und die schaffen auch mit 2 Kernen problemlos mehrere gleichzeitig ladende Tabs und Multi-Touch-Gesten.

4 Kerne sind natürlich der einfachere Weg, die Rohleistung zu steigern, aber bei den aktuellen Anwendungen wär das Verschwendung. Deswegen geh ich davon aus, dass in den nächsten 12 Monaten erstmal die Taktraten deutlich steigen (mind. 2 GHz) und erst danach der Ausbau in die Breite (4/8/16 Kerne) weitergeht.

Ailuros
2011-05-04, 09:05:17
Ein Apple A6 QuadCore mit bis zu 1,5 Ghz in 22nm Anfang 2012 von Intel für das iPad 3 wäre schon ein dickes Ding und genau richtig für ein mögliches Retina Display im iPad 3.

Eine Ziffer ist falsch in dem Herstellungsprozess :P

iFanatiker
2011-05-04, 09:08:36
Aber höhere Taktraten kann man in jeder App gebrauchen. Wobei 4 Kerne für > echtes < Multitasking nicht schlecht wäre. Mich kotzt es zB auch an, das die Tabs nicht weiter laden, wenn man nen neuen Tab öffnet.

Dies hat rein gar nichts mit der Anzahl der Kerne zu tun sondern mit dem verfügbaren RAM und Tabs laden beim iPhone 4 und iPad 2 im Hintergrund weiter wenn der freie RAM ausreicht.


Zumal zukünftige Multitaskingn Gesten azch Leistung brauchen. Das elendige App und Tab gewechsle mit einem Finger nervt doch auch mit der Zeit.

Auch dies hat gar nichts mit der CPU zu tun. Die Erkennung von Gesten erledigt der TS Controller um den Faktor 1000 effizienter.

Ailuros
2011-05-04, 09:21:53
Bei nur 2 CPU-Kernen bleibt mehr Platz für eine größere GPU. Außerdem glaub ich nicht, dass für ein paar Gesten und Tabs, die im Hintergrund laden, ein Quad-Core nötig ist. 2012 werden die Dual-Core-SoCs wahrscheinlich 2 GHz durchbrechen. Damit ist man in Leistungsregionen angelangt, die bisher ausgewachsenen Notebooks (nicht Netbooks) vorbehalten waren. Und die schaffen auch mit 2 Kernen problemlos mehrere gleichzeitig ladende Tabs und Multi-Touch-Gesten.

Kommt drauf an wann Apple auf Eagle bzw. A15 steigt; diese sind zwar toleranter fuer hoehere Frequenzen als A9 cores und sind auch Takt fuer Takt effizienter, nehmen aber auch um einiges mehr Platz ein.

A5 ist so gross ausgefallen weil Intrisity sich hauptsaechlich auf Stromverbrauch konzentriert hat und dieses wird sich bei A6 auch nicht aendern da genau in diesem Bereich (irrelevant zum Herstellungsprozess) sind beide SoCs ziemlich verwandt.

Was das jetzt genau fuer die Anzahl der CPU oder GPU Einheiten heissen koennte kann ich natuerlich nicht wissen, aber zumindest fuer die GPU waere IMHO eine =/>500MHz Frequenz angebrachter als MP4.

4 Kerne sind natürlich der einfachere Weg, die Rohleistung zu steigern, aber bei den aktuellen Anwendungen wär das Verschwendung. Deswegen geh ich davon aus, dass in den nächsten 12 Monaten erstmal die Taktraten deutlich steigen (mind. 2 GHz) und erst danach der Ausbau in die Breite (4/8/16 Kerne) weitergeht.

Egal wie viele A9 Kerne erwarte ich persoenlich nicht mehr als ~1.5GHz. Ausser natuerlich Apple ueberrascht mit A15 Kernen.

steve.it
2011-05-06, 12:07:37
Spekulation:

The short story is that Apple is moving the laptop line, and presumably desktops too, to ARM based chips as soon as possible.

It won’t be really soon, but we are told it is a done deal.
http://semiaccurate.com/2011/05/05/apple-dumps-intel-from-laptop-lines/

Nakai
2011-05-06, 12:29:11
Kein unerwartender Schritt, ihre "kleineren" Systeme sind seit langem performancetechnisch nicht der Bringer. Wird aber wohl erst mit CortexA15 passieren.


mfg

Tiamat
2011-05-06, 12:41:17
Spekulation:

The short story is that Apple is moving the laptop line, and presumably desktops too, to ARM based chips as soon as possible.

It won’t be really soon, but we are told it is a done deal.
http://semiaccurate.com/2011/05/05/apple-dumps-intel-from-laptop-lines/

Find ich gut

LovesuckZ
2011-05-06, 13:43:53
Brauchen wir 2012 wirklich schon Quad-Core-Tablets? Bisher können die Anwendungen doch noch nicht mal mit 2 Kerne richtig umgehen. Dual-Core mit 2 GHz erscheint mir da sinnvoller und ist auch eine Verdoppelung gegenüber der aktuellen Generation.

Natürlich brauchen wir es. Und wenn es nicht gebraucht wird, werden die Kerne abgeschaltet und ziehen kaum noch Strom. 4 Kerne sind der Sweetspot - siehe PC.

ESAD
2011-05-06, 15:09:28
Natürlich brauchen wir es. Und wenn es nicht gebraucht wird, werden die Kerne abgeschaltet und ziehen kaum noch Strom. 4 Kerne sind der Sweetspot - siehe PC.

man kann doch nicht einfach sagen dass 4 Kerne optimal sind, das ist eine fließende angelegenheit, beim pc wie bei allen anderen.

nomadhunter
2011-05-06, 19:55:50
Natürlich brauchen wir es. Und wenn es nicht gebraucht wird, werden die Kerne abgeschaltet und ziehen kaum noch Strom. 4 Kerne sind der Sweetspot - siehe PC.
Dass Chipfläche auch Geld kostet, ist dir entfallen? Und wieso soll bei Smartphones und Tablets der "sweet spot" bei 4 Kernen liegen? Bis jetzt kann die dazugehörige Software ja noch nicht mal den 2. Kern richtig ausnutzen.

Ailuros
2011-05-06, 22:18:33
Dass Chipfläche auch Geld kostet, ist dir entfallen? Und wieso soll bei Smartphones und Tablets der "sweet spot" bei 4 Kernen liegen? Bis jetzt kann die dazugehörige Software ja noch nicht mal den 2. Kern richtig ausnutzen.

Apple investiert aber im Gegensatz im A5 ziemlich viel chipflaeche auf den GPU block. Die eigentliche Antwort haette lauten sollen, dass mehr GPU Leistung ebenso der sweetspot sein und daher auch siehe PC oder noch genauer AMD Fusion oder fuer die weniger absehbare Zukunft willkommen Denver ab 2013.

NV hat erst nachtraeglich eingesehen dass NEON cores doch ihren Brauch haben auf SoCs ab Tegra3. Ich hoffe nur dass keiner glaubt dass Apple die FLOPs des GPU blocks im iPad2 ausserhalb von 3D nur dumm rumhocken laesst.

Tiamat
2011-05-06, 22:25:25
LovesuckZ hat recht.
Angekündigt sind die Dinger schon. 4 x 1,5Ghz im Winter.
Und man dazu sagen, Android bietet ne Plattform für komfortables Multithreading und Ios mit Grand Central Dispatch(hab ich auch mal verwendet) und der Cocoa API ebenso. OpenMP lässt sich ja auch verwenden.
Netzwerkangelegenheiten werden in Ios grundsätzlich async bearbeitet, von daher halt ich das fürn Gerücht, dass zwei Kerne heute bei weitem nicht ausgelastet werden. Ios macht regen Gebrauch davon.
Und das Iphone fühlt sich alles andere als reaktionsträge an.

Da macht man mit 4 Kernen eigentlich die Pforten für höhere Angelegenheiten frei und IOS und Android werden wohl zur Zeit die größten Verwender von ARM Chips sein.

Ailuros
2011-05-06, 22:41:03
LovesuckZ hat recht.
Angekündigt sind die Dinger schon. 4 x 1,5Ghz im Winter.
Und man dazu sagen, Android bietet ne Plattform für komfortables Multithreading und Ios mit Grand Central Dispatch(hab ich auch mal verwendet) und der Cocoa API ebenso. OpenMP lässt sich ja auch verwenden.
Netzwerkangelegenheiten werden in Ios grundsätzlich async bearbeitet, von daher halt ich das fürn Gerücht, dass zwei Kerne heute bei weitem nicht ausgelastet werden. Ios macht regen Gebrauch davon.
Und das Iphone fühlt sich alles andere als reaktionsträge an.

Da macht man mit 4 Kernen eigentlich die Pforten für höhere Angelegenheiten frei und IOS und Android werden wohl zur Zeit die größten Verwender von ARM Chips sein.

Wir brauchen effizientere hw und nicht mir nichts Dir nichts N Anzahl von Kernen. Eagle laesst gruessen.

Tiamat
2011-05-06, 23:01:55
Wer hat das behauptet, dass es nur auf Kerne akommt. So ist die Ankündigung nunmal von NV und das die CPU ggü. Tegra 2 verbessert wurde, davon kann man mal ausgehen. Vom Eagle gibt´s auch ne Quad-Core Version ;-)

Ailuros
2011-05-07, 10:37:08
Wer hat das behauptet, dass es nur auf Kerne akommt. So ist die Ankündigung nunmal von NV und das die CPU ggü. Tegra 2 verbessert wurde, davon kann man mal ausgehen. Vom Eagle gibt´s auch ne Quad-Core Version ;-)

Die ersten Eagle SoCs werden dual core sein und mit Frequenzen bis zu 2.5GHz, gerade zum Zeitpunkt wo Tegras immer noch mit quad-core A9 werkeln werden; ditto aber zu Apple's Plaenen. Bei einem hypothetischen Dilemma von 2*A15@1GHz und 4*A9@1.5GHz waere mir das erste lieber obwohl es wohl keine so niedrig getaktete Eagle cores geben wird.

Die Frage ist stets wie viele threads pro Takt wenn es schon zu multitasking kommen soll. Im Fall von Tegra entfaellt bis zu Denver wohl jeglicher hypothetischer Gebrauch von floating point GPU resourcen fuer general purpose Schnickschnack.

Tiamat
2011-05-07, 11:08:36
Ok klingt ja auch schon brutal (2*2,5Ghz). ^^
Für das erste Out-Of-Order Design(a9) ist das bisher schon mal echt fett, da kann man net meckern.

LovesuckZ
2011-05-07, 16:36:07
Dass Chipfläche auch Geld kostet, ist dir entfallen? Und wieso soll bei Smartphones und Tablets der "sweet spot" bei 4 Kernen liegen? Bis jetzt kann die dazugehörige Software ja noch nicht mal den 2. Kern richtig ausnutzen.

Tegra 3 wächst gerademal um 63% als kompletter SoC. Die zusätzlichen A9 Kerne nehmen dabei kaum Platz ein.
Siehe den PC. Für den normalen User sind 4 Kerne bzw. die Bearbeitung von 4 Threads das optimalste. Alles andere spricht nur noch einen kleinen Teil der Kundschaft an.
Außerdem schreibt heute wohl kaum einer ein Betriebssystem, dass kein vernünftiges Thread-Management hat. Und je eher Quadcores auf den Markt kommen, umso früher gibt es vernünftig angepasste Software.

Nakai
2011-05-07, 17:02:39
Tegra 3 wächst gerademal um 63% als kompletter SoC. Die zusätzlichen A9 Kerne nehmen dabei kaum Platz ein.
Siehe den PC. Für den normalen User sind 4 Kerne bzw. die Bearbeitung von 4 Threads das optimalste. Alles andere spricht nur noch einen kleinen Teil der Kundschaft an.
Außerdem schreibt heute wohl kaum einer ein Betriebssystem, dass kein vernünftiges Thread-Management hat. Und je eher Quadcores auf den Markt kommen, umso früher gibt es vernünftig angepasste Software.

Mal guckn wie effizient Nvidias neue Stromspartechnologien sind. Vier A9-Kerne klingen zwar nett, aber dank Verlustleistung sollte diese Konstellation eher in den höhere Gefilden wildern. In Smartphones werden wir wohl niemals die volle Leistung des Chips sehen. Wohlgemerkt sind A9 für maximal 1,5GHz ausgelegt, außer NV integriert irgendeine neue Fertigungstechnologie.


mfg

€: Ok klingt ja auch schon brutal (2*2,5Ghz). ^^

Im Vergleich zum A9 ist der A15 nochmal pro Takt etwa 40% schneller. Die 2,5GHz werden wir anfangs noch nicht sehen. Wir starten da wohl erst bei etwa 1,5GHz. Auf dem Papier ist der CortexA15 ziemlich heftig, man sollte sich aber nicht sooo sehr davon beeintrucken lassen. Siehe den Scorpion-Kern von Qualcomm. Das ist eher eine Mischung aus A8 und A9. 12 Stages Pipeline, OoO, 2 NeonFPUs und für MP ausgelegt und trotzdem kommt man meistens nur leicht oberhalb vom A8.

LovesuckZ
2011-05-07, 17:41:51
Mal guckn wie effizient Nvidias neue Stromspartechnologien sind. Vier A9-Kerne klingen zwar nett, aber dank Verlustleistung sollte diese Konstellation eher in den höhere Gefilden wildern. In Smartphones werden wir wohl niemals die volle Leistung des Chips sehen. Wohlgemerkt sind A9 für maximal 1,5GHz ausgelegt, außer NV integriert irgendeine neue Fertigungstechnologie.


Das Quadcores mehr verbrauchen werden, ist ja nur logisch: Man ist auch doppelt so schnell. Fakt ist jedoch auch, dass Quadcores den selben Vorteil bringen, wie der Schritt zu DualCores von SingleCores.

Ailuros
2011-05-08, 09:14:24
Mal guckn wie effizient Nvidias neue Stromspartechnologien sind. Vier A9-Kerne klingen zwar nett, aber dank Verlustleistung sollte diese Konstellation eher in den höhere Gefilden wildern. In Smartphones werden wir wohl niemals die volle Leistung des Chips sehen. Wohlgemerkt sind A9 für maximal 1,5GHz ausgelegt, außer NV integriert irgendeine neue Fertigungstechnologie.

Der wesentliche Unterschied ist dass bei T3 im Gegensatz zu T2 alle cores komplett unabhaengig takten. Angenommen man braucht nur zwei threads, theoretisch koennen 2 cores total ausgeschaltet bleiben und die anderen zwei takten je nach Bedarf dynamisch.


€:

Im Vergleich zum A9 ist der A15 nochmal pro Takt etwa 40% schneller. Die 2,5GHz werden wir anfangs noch nicht sehen. Wir starten da wohl erst bei etwa 1,5GHz. Auf dem Papier ist der CortexA15 ziemlich heftig, man sollte sich aber nicht sooo sehr davon beeintrucken lassen. Siehe den Scorpion-Kern von Qualcomm. Das ist eher eine Mischung aus A8 und A9. 12 Stages Pipeline, OoO, 2 NeonFPUs und für MP ausgelegt und trotzdem kommt man meistens nur leicht oberhalb vom A8.

Ich sagte "bis zu" 2.5GHz: http://www.stericsson.com/press_releases/NovaThor.jsp

The Nova A9600, built in 28nm, will deliver groundbreaking multimedia and graphics performance, featuring a dual-core ARM Cortex- A15-based processor running up to up to 2.5 GHz breaking the 20k DMIPS barrier

http://www.ti.com/ww/en/omap/omap5/omap5-OMAP5432.html

Two ARM Cortex-A15 MPCore processors capable of speeds up to 2 GHz each

OMAP5430 bzw. 5432 werden wohl nicht die einzigen OMAP5 SoCs sein. Je mehr 28nm in der Zukunft ausreift desto hoeher die Frequenzen.

OMAP4430 operiert heute bei 1GHz, waehrend 4460 schon auf 1.5GHz reicht und die Nachfolger 44x0 wurden noch nicht angekuendigt. Im 4430 Datenblatt steht auch "bis zu 1GHz" obwohl die CPU Kerne im LG Optimus 3D wie auch im Blackberry Playbook auf 1GHz takten.

Die eigentliche Frage ist ob Apple unter den lead-Partnern fuer Eagle steckt; fuer die 28nm Generation muss sich Apple sowieso eher ab ~2013 Sorgen machen ergo koennen sie sich wohl mit dem heutigen SoC auf einem kleinerem Prozess mit hoeheren Frequenzen immer noch halten.

Das Quadcores mehr verbrauchen werden, ist ja nur logisch: Man ist auch doppelt so schnell. Fakt ist jedoch auch, dass Quadcores den selben Vorteil bringen, wie der Schritt zu DualCores von SingleCores.

Im heutigen Normalverbrauch werden sie eben nicht mehr verbrauchen wenn eine Aufgabe nur 2 cores verlangt und nicht mehr als 1GHz. Bei voller Auslastung und in den seltenen Faellen wo diese vorkommen kann ja. Natuerlich kann sich jeder irgendwelche verrueckte scenarios ausdenken von wirklich verruecktem multi-tasking so oder so nicht realistisch sein wird, aber selbst da wird ein heutiger A5 wohl schwer so schnell schlapp machen. Und wenn es schon zu idiotischen nicht realistischen Faellen kommen soll, kann man eventuell auch zich 3D Applikationen hochladen ohne dass der SoC ein Auge zwinkert.

Man spielt weder mehrere Spiele parallel, noch laesst man videos im Hintergrund abspielen um zu browsen und das tablet unnoetig mit noch anderem Bloedsinn gleichzeitig zu quaelen. NV hat in T3 so einige Wehwechen beseitigt die es in T2 noch gab. Ob vier CPU cores den Tag retten werden? Keine Ahnung ich glotz eher in Richtung Honeycomb und frag mich wann Google endlich das Ding auf stabielere Beine stellt.

Bis vor einiger Zeit hatten wir ja intensive Ohrenmassagen von der Presse und der geehrten Anhaengerschaft wie gross Tegra2 angekommen ist und wie NV damit ueber-Millionen verkaufen wird; danach wurde gefragt wo die anderen dual core tablets sind und als ich sagte mit was A5 ankommen wird wollte es keiner so leicht glauben. Ihr habt jetzt eine dual core CPU von Apple und was nun? Mit den Spezifikationen und auf Papier Vorteilen haette das Motorola Xoom wirklich gut einschlagen sollen; was ist denn ploetzlich los? Die vielerwuenschte "Rettungsplanke" des hochangebeteten dual A9 auf T2 war wohl doch nicht genug um der Messias zu sein.

Ich bin immer noch die Meinung dass die Zukunft der tablets (falls diese ueberhaupt ueberleben werden) hauptsaechlich bei Apple/Samsung/SONY liegen werden, aber weder bei Samsung noch bei SONY ist jegliche Zukunft garantiert. Apple braucht tatsaechlich Konkurrenz und der einzige der danach klingt als ob er wirklich gefaehrlich werden koennte ist SONY. Ich wuerde aber SONY eher an Qualcomm "verschenken" als alles andere fuer die weniger absehbare Zukunft.

Ailuros
2011-05-12, 17:20:41
http://www.xbitlabs.com/news/other/display/20110510114421_Samsung_Is_Ready_to_Mass_Produce_28nm_32nm_Chips_Company.html

Ailuros
2011-05-22, 17:25:48
http://www.nouvoyance.com/news-051311.html

Screemer
2011-05-22, 18:00:50
und was hat das display jetzt mit apple socs zu tun?

Ailuros
2011-05-23, 18:53:43
und was hat das display jetzt mit apple socs zu tun?

Thread-titel angepasst. :P

Screemer
2011-05-24, 08:56:31
na dann :) gewölbtes display für das nächste iphone? -> http://www.engadget.com/2011/05/23/iphone-5-may-feature-curved-glass-screen-continue-ipod-nano-leg/

Ailuros
2011-05-24, 09:17:43
na dann :) gewölbtes display für das nächste iphone? -> http://www.engadget.com/2011/05/23/iphone-5-may-feature-curved-glass-screen-continue-ipod-nano-leg/

Keine Ahnung; auf jeden Fall geisterte das Geruecht ueber ein display mit sehr hohem dpi fuer iPad2 fuer eine Ewigkeit herum vor dessen launch. Samsung hat natuerlich auch ihre eigenen tablets, aber mir faellt es schwer zu glauben dass Apple nicht an einer hoeheren Aufloesung fuer zukuenftige pads arbeitet.

Nenn mich pingelig aber fuer mich persoenlich ist die 1024 Aufloesung des iPad2 die groesste Enttaeschung insgesamt. Wenn schon ein Luxus e-book Leser, dann bitte mit einer anstaendigeren Aufloesung.

san.salvador
2011-05-24, 09:21:12
Ein gutes Ebook braucht keine sehr hohen dpi. Kindle hat 167 und Schrift sieht dort Klassen besser aus als auf den 167dpi vom 3GS.

Ailuros
2011-05-24, 10:04:26
Ein gutes Ebook braucht keine sehr hohen dpi. Kindle hat 167 und Schrift sieht dort Klassen besser aus als auf den 167dpi vom 3GS.

167 ist trotz allem um ein gutes Stueck hoeher als auf iPad/iPad2 (132ppi).

san.salvador
2011-05-24, 12:24:18
167 ist trotz allem um ein gutes Stueck hoeher als auf iPad/iPad2 (132ppi).
Auch wahr. Ich hatte im Hinterkopf, dass das iPad die dpi der alten iPhones hat. aber 130dpi ist schon wiklich arm.
Dennoch, ich würde - was Schrift angeht - Kindle deutlich näher am iPhone 4 als am 3GS ansiedeln. Wenns um ebooks bzw. ums Lesen geht, dann sind dpi nicht alleine aussagekräftig.

€dit: Und unter der Sonne helfen auch 300+ dpi nix, da fährt E-Ink Schlitten mit der Konkurrenz. Und jetzt geb ich eine Ruh, bevors zu OT wird.

Xmas
2011-05-24, 12:45:43
Dennoch, ich würde - was Schrift angeht - Kindle deutlich näher am iPhone 4 als am 3GS ansiedeln. Wenns um ebooks bzw. ums Lesen geht, dann sind dpi nicht alleine aussagekräftig.
Das eigentlich größere Problem bei LCDs (und den meisten anderen Farbdisplays) ist der Fliegengittereffekt (http://de.wikipedia.org/wiki/Fliegengittereffekt). Selbst "einfarbige" Flächen wirken aus der Nähe nicht mehr homogen, man sieht die Subpixel bzw. die Lücken dazwischen als Streifen. Vor allem deswegen braucht man hier eine hohe (Sub-)Pixeldichte (und darum ist auch PenTile keine gute Idee).

E-Ink hat dieses Problem nicht, obwohl die Auflösung (bisher) nicht herausragend ist und die Schrift damit etwas unscharf wirkt.

san.salvador
2011-05-24, 12:49:10
Das eigentlich größere Problem bei LCDs (und den meisten anderen Farbdisplays) ist der Fliegengittereffekt (http://de.wikipedia.org/wiki/Fliegengittereffekt). Selbst "einfarbige" Flächen wirken aus der Nähe nicht mehr homogen, man sieht die Subpixel bzw. die Lücken dazwischen als Streifen. Vor allem deswegen braucht man hier eine hohe (Sub-)Pixeldichte (und darum ist auch PenTile keine gute Idee).

E-Ink hat dieses Problem nicht, obwohl die Auflösung (bisher) nicht herausragend ist und die Schrift damit etwas unscharf wirkt.
Zumindest die 320dpi des iPhone4 haben kein Fliegengitter mehr. Aber da ich sowohl ein 3G als auch ein iPhone4 und einen Kindle hier habe, kann ich die Lesbarkeit recht gut beurteilen. Kindle wirkt in geschlossenen Räumen wie Technik aus dem letzten Jahrzehnt, aber sobald man vor die Tür geht, dreht sich der Spieß um. IMHO wird das iPad, solange es auf hinterleuchteten LCD mit Glasoberfläche setzt, einem echten ebook-Reader nicht das Wasser reichen können. Auch bei vierstelligen dpi.

Xmas
2011-05-24, 13:01:18
Zumindest die 320dpi des iPhone4 haben kein Fliegengitter mehr.
Richtig, und deswegen (und natürlich auch für mehr Details) brauchen meiner Meinung nach fast alle (Farb-)Bildschirme die aus der Nähe betrachtet werden deutlich höhere Pixeldichten als heute üblich.

IMHO wird das iPad, solange es auf hinterleuchteten LCD mit Glasoberfläche setzt, einem echten ebook-Reader nicht das Wasser reichen können. Auch bei vierstelligen dpi.
Das sehe ich ähnlich, aber das liegt eher an Glas, Größe/Gewicht und Laufzeit denn am hintergrundbeleuchteten Panel. Nicht jeder legt viel Wert darauf, auch draußen lesen zu können.

san.salvador
2011-05-24, 21:59:23
Das sehe ich ähnlich, aber das liegt eher an Glas, Größe/Gewicht und Laufzeit denn am hintergrundbeleuchteten Panel.
Ich hab mich nur aufs Display beschränkt, aber ja, Gewicht und Akkulaufzeit sind IMHO auch ein gewaltiges Argument. Wenn ich mir vorstelle, dass mein Kindle auf einmal dreimal soviel wiegt... urks. :ugly:

Nicht jeder legt viel Wert darauf, auch draußen lesen zu können.
Das finde ich gewagt. Jemand, der sich ein Gerät anschafft, um darauf ebooks zu lesen, der wird wohl kaum auf Outdoortauglichkeit verzichten können. Kann ich mir einfach nicht vorstellen.

YfOrU
2011-05-24, 23:07:32
Hintergrundbeleuchtete Panels sind der mit Abstand größte Einzelposten zu Lasten der Akkulaufzeit. Trotzdem ist selbst die höchste Helligkeitsstufe bei mobilen Produkten selten wirklich ausreichend.

Unter ausreichend verstehe ich nicht die grundsätzliche Ablesbarkeit sondern eine ermüdungsfreie Nutzung bei intensiven Umgebungslicht. Darunter fällt nun mal selbst eine Fahrt im Zug bei Sonnenschein.
Damit haben bereits viele matte Panels aufgrund der niedrigen, maximalen Helligkeit zu kämpfen. Mit Glas oder sonstigen Glare Produkten ist das dann fast immer eine Zumutung. Selbst von der tollen Laufzeit eines iPads bleibt unter solchen Bedingungen kaum noch etwas übrig. An Terrasse, Balkon und ähnliches sollte man besser erst gar nicht denken.

Gibt inzwischen unter anderen genug Smartphones bei denen am See ohne Handtuch nicht mal die Uhr vernünftig abgelesen werden kann.

mboeller
2011-05-25, 07:30:01
deshalb wird ja auch so was entwickelt:

color eInk:
http://www.engadget.com/2010/11/09/e-ink-shows-off-triton-color-epaper-touts-faster-performance-r/
http://www.engadget.com/2011/05/19/ricohs-new-electronic-paper-promises-greater-brightness-enhanc/
http://www.engadget.com/2011/05/18/samsung-entices-with-elecrowetting-displays-at-sid-2011-coming/

Man sieht aber, das vor allem Liquavista noch ein ganzes Stück weit weg ist von einer Serientauglichkeit.

Das hier fand ich aber auch interessant. eInk + Software = Videotauglichkeit:
http://www.engadget.com/2011/05/21/bookeen-does-real-time-web-browsing-and-scrolling-on-standard-e/

Julius
2011-05-25, 10:24:00
Ich hab ein Ipad 2 und noch einen alten E-bookreader.
Nutze mein Ebookreader nur noch sehr selten. Grund für mich ist das ich nur ein 5" und nur am Blättern bin. Auch stört es mich das ich "nur" Bücher lesen kann. Ich nehm beim Raddeln immer nur das Ipad mit da ich hier einfach sehr viel mehr auswahl habe (Bücher, Filme, I-net etc.).
Auch ist die App Goodreader für das Ipad einfach super. PDFs lassen sich damit super zuschneiden und lesen.
Aber klar stört mich das spiegeln beim Ipad.

Würde ein 100,- E-Reader für 10" der leicht ist und PDFs so gut wie Goodreader daerstellt sofort kaufen.

Xmas
2011-05-25, 11:42:53
Das finde ich gewagt. Jemand, der sich ein Gerät anschafft, um darauf ebooks zu lesen, der wird wohl kaum auf Outdoortauglichkeit verzichten können. Kann ich mir einfach nicht vorstellen.
Gewagt? Es gibt eine Menge leute die z.B. auf einem Nook Color oder iPad E-Books lesen. Ich nutze mein Kindle zu 98% drinnen. Wenn ich dafür andere, deutliche Vorteile bekomme, könnte ich auf die 2% auch verzichten.

LadyWhirlwind
2011-05-25, 12:02:08
Ich lese recht viel mit meinem Ipad, einerseits zu Hause, anderer seits auch im Zug. Ausserdem besitze ich einen alten Sony-Reader, denn ich fast nicht mehr gebrauche. Sofern man nicht vor hat das Ebook-Lesegerät in der prallen Sonne zu benützen, taugt das iPad als solches durchaus. Wenn ich das iPad ins Restaurant oder in den Zug mitnehme, gucke ich halt wo ich mich hinsetze. E.g auf der Sonnenabgewandten Seite, bzw. einfach an einen Tisch mit Sonnenschirm. Für kleinere Dinge zum Nachgucken reicht es meistens das Ipad dicht am Körper zu halten und die Sonne im Rücken zu haben. Wer wirklich nur lesen will, ist natürlich mit einem eBook Reader besser bedient, wer allerdings gern ein Allround gerät hat - was extrem praktisch ist wenn man zur Arbeit 50min Zug fahren muss - wird sich mit dem Ipad arrangieren können.

Ailuros
2011-05-28, 11:41:07
http://www.xbitlabs.com/news/mobile/display/20110527125301_Apple_Tests_ARM_Based_Macbook_Air_Laptop_Rumours.html

Kann auch nur irgend ein merkwuerdiges Experiment seitens Apple sein, aber trotz allem interessant ;)

Pompos
2011-05-28, 11:53:01
http://www.xbitlabs.com/news/mobile/display/20110527125301_Apple_Tests_ARM_Based_Macbook_Air_Laptop_Rumours.html

Kann auch nur irgend ein merkwuerdiges Experiment seitens Apple sein, aber trotz allem interessant ;)
Kann ich dich auf diesen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=507531&page=7) Thread aufmerksam machen?!

Ailuros
2011-06-07, 10:35:16
http://www.dailytech.com/article.aspx?newsid=21821

http://www.dailytech.com/article.aspx?newsid=21820

steve.it
2011-06-09, 01:10:37
Apple to finally deliver 1080P video playback on iOS devices with iOS 5
http://www.9to5mac.com/71325/apple-to-finally-deliver-1080p-video-playback-on-ios-devices-with-ios-5/

Ailuros
2011-06-14, 15:06:51
http://www.fudzilla.com/mobiles/item/23057-apple-agrees-to-pay-nokia-royalties

OT aber die Geruechte dass Samsung an NOKIA interessiert waere, klingt mir persoenlich als Bloedsinn.

basti333
2011-06-14, 19:25:14
Ich glaube niemand ist an Nokia interessiert. Maximal die Patente dürften noch Interesse bei der Konkurrenz wecken..

Ailuros
2011-06-14, 19:30:23
Ich glaube niemand ist an Nokia interessiert. Maximal die Patente dürften noch Interesse bei der Konkurrenz wecken..

Wenn sie so weitermachen und die Firma weiterhin abkacken dann bleibt auch nicht mehr viel uebrig zum verkaufen. Wie dem auch sei momentan hat NOKIA immer noch ein verdammt grosses Verkaufsnetz weltweit.

Samsung braucht NOKIA nicht da sie ohnehin im naechsten Quartal NOKIA den 1. Platz stehlen werden und Apple geht von Platz 3 auf 2.

Ailuros
2011-06-23, 13:46:56
http://www.dailytech.com/article.aspx?newsid=21975

Ergo iPhone4GS (bisher als "iPhone5" bekannt, mit A5) September und ein billig iPhone4 (mit A4).

Fruehling 2012 koennte das iPhone5 (A6@32nm?) schon kommen und hoechstwahrscheinlich mit dem iPad3 (um einiges hoehere Aufloesung).

Das sie auch noch iOS betriebene TVs vorstellen wollen ist auch so ein Kapitel fuer sich.

Insgesamt muss sich Apple im Vergleich zu Google tatsaechlich wenden, denn die Schlacht wird alles andere als leicht sein.

Frozone
2011-06-23, 15:07:47
http://www.dailytech.com/article.aspx?newsid=21975

Ergo iPhone4GS (bisher als "iPhone5" bekannt, mit A5) September und ein billig iPhone4 (mit A4).

Fruehling 2012 koennte das iPhone5 (A6@32nm?) schon kommen und hoechstwahrscheinlich mit dem iPad3 (um einiges hoehere Aufloesung).

Das sie auch noch iOS betriebene TVs vorstellen wollen ist auch so ein Kapitel fuer sich.

Insgesamt muss sich Apple im Vergleich zu Google tatsaechlich wenden, denn die Schlacht wird alles andere als leicht sein.
Oh man, jeden tag schreibt irgend ein "Analyst" etwas dazu und alle Welt glaubts.

Edit: Meine Analyse: Es wird ein iPhone 4s werden. Aussehen gleich wie das iPhone 4 einfach bisschen mehr Leistung. Kein kleines, billiges iPhone. Auch wird es keines im nächsten Frühjahr geben. Erst wieder nächsten Sommer. (Produktzyklus)
So nun der nächste Analyst. ;) Irgendeiner von den vielen wird dann natürlich recht behalten und man glaubt dem dann bei den nächsten Produkten mehr als den anderen.

LovesuckZ
2011-06-23, 15:16:05
Apple ist sehr gut gefahren pro Jahr ein neues iPhone vorzustellen. Vorallem, da die Bindung an Verträge meistens 24 Monate beträgt, ist ein 1-Jahres-Zyklus für viele angenehmer. Innerhalb von 6 Monaten zwei "High-End" Geräte auf dem Markt zu bringen, schadet ihnen doch nur, weil niemand sich dann das erste Gerät kaufen würde.

deekey777
2011-06-23, 15:44:05
Da Apple Geräte selbst verkauft, ist es ihnen egal, wie die Vertragslaufzeiten sind. Auch wird das iPhone 4 von anderen ohne Vertrag angeboten.

xL|Sonic
2011-06-23, 16:23:53
Macht trotzdem absolut keinen Sinn oder siehst du das Apple alle 6 Monate neue iPods rausbringt? Die Abstände sind einfach viel zu gering.