PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - Qualcomm Snapdragon-SoCs


Seiten : [1] 2 3 4 5 6 7 8

Ailuros
2011-02-14, 07:39:26
Qualcomm verdient mit Sicherheit einen Thread.

Sony Playstation Phone:

http://www.dailytech.com/article.aspx?newsid=20899

Insgesamt 3 Sony Ericsson smart-phones mit Qualcomm SoCs angekuendigt.

=Floi=
2011-02-14, 07:43:41
bekommt das SPP auch den gleichen chip mit gleichen takt wie die PSP2?
ich frage mich die ganze zeit, wie die das machen wollen. wird das SPP nur eine aufgewärmte PSP1?

Ailuros
2011-02-14, 08:03:24
bekommt das SPP auch den gleichen chip mit gleichen takt wie die PSP2?
ich frage mich die ganze zeit, wie die das machen wollen. wird das SPP nur eine aufgewärmte PSP1?

Playstation Phone = Qualcomm Adreno 205 single core GPU

Sony PSP2 = SGX543 MP4+ quad core GPU

Ja das Playstation Phone wird fuer den Anfang fuer eine Art aufgewaermte PSP1 dienen. Was spaeter SONY + Qualcolmm vorhaben koennten steht noch in den Sternen und es ziemlich bewoelkt heute ;)

Ailuros
2011-02-14, 09:59:58
http://www.qualcomm.com/news/releases/2011/02/14/qualcomm-announces-next-generation-snapdragon-mobile-chipset-family

The new processor micro-architecture, code-named Krait, in the next-generation Snapdragon will redefine performance for the industry, offering speeds of up to 2.5GHz per core and delivering 150 percent higher overall performance, as well as 65 percent lower power than currently available ARM-based CPU cores. These chipsets will be available in single-, dual- and quad-core versions and include a new Adreno® GPU series with up to four 3D cores, and integrated multi-mode LTE modem.

Dass Qualcomm bis zu quad core CPUs skalieren wird ist nicht wirklich Neues bei den heutigen Markt-Trends. Interessant ist dass auch Qualcomm auf multi-core Adreno GPUs steigen wird. Neben ARM, IMG und Vivante jetzt auch Qualcomm, ergo 4 insgesamt MP Angebote im Markt.

At the high end, the Adreno 320 quad-core GPU will deliver up to 15 times the performance of the original Adreno to drive the latest games and S3D video on larger-screen devices. Adreno 320 delivers similar graphics performance to today’s latest game consoles, but for mobile devices. In addition, the chipset family will support 3D and S3D games, capture and playback of S3D photos and videos, and output in full HD to a 1080P flat panel display over HDMI.

Da Adreno (200) relativ schwach ist im Vergleich zu Adreno 205 oder sogar Adreno 220, ist dieses 15x Mal fuer einen quad-core Adreno 320 wohl keine Uebertreibung.


The dual-core MSM8960 is the world’s first dual-core solution with an integrated multi-mode 3G/LTE modem and was designed to meet the requirements of multi-tasking smartphones and tablets. It will include dual asynchronous CPU cores which can be independently controlled for maximum efficiency. The MSM8960 will also support dual-channel LP DDR memory and will feature the Adreno 225 GPU which delivers eight times the performance of the original Adreno.

The single-core MSM8930 is the world’s first single-chip solution with an integrated LTE modem designed to take LTE to mass market smartphones. It will include the new Adreno 305 GPU which delivers more than six times the performance of the original Adreno.

Dank an Lazy8 (B3D) der es bemerkt hat. Der Adreno225 (der noch offensichtlich zur 2xx Generation gehoert) ist ziemlich merkwuerdig in der Mitte der road-map. Aber da single und quad core 3xx fuer 2012 vorgesehen sind und dual core 225 fuer Q2 2011 ist es wohl keine besondere Ueberraschung.

Nakai
2011-02-14, 13:36:09
Ist schon interessant, den Aufstieg von Qualcomm zu begutachten.
Seit Januar 2009 gehts bei denen nur nach oben. Zufällig fällt dieser Zeitpunkt mit der Accquisition der ATI-Handysparte zusammen.
Seit Mitte 2010 geht der Aktiekurs nur noch nach oben.
Ein Schelm wer Böses denkt.;D
Wenigstens blieb man bei der Namensgebung doch noch etwas rot.
Adreno kann ja als Anagramm zu Radeon verstanden werden.:freak:

Dass Qualcomm bis zu quad core CPUs skalieren wird ist nicht wirklich Neues bei den heutigen Markt-Trends. Interessant ist dass auch Qualcomm auf multi-core Adreno GPUs steigen wird. Neben ARM, IMG und Vivante jetzt auch Qualcomm, ergo 4 insgesamt MP Angebote im Markt.

Adreno war doch eh schon von Anfang an auf Flexibilität ausgelegt. AFAIK sollte schon Adreno 200 die ALUs bis auf 6 hochskalieren(bei nur einer TMU).

Adreno 200 und Adreno 205 sollten doch auf den gleichen Kern basieren, nämlich den Z430.

Adreno 200 - Z430 - 1 ALU, 1 TMU, 133 MHz, 22MTri/s
Adreno 205(???) - Z430 - 1(2???) ALU, 1 TMU, 200MHz, 41MTri/s

Da machen aber die Zahlen wenig Sinn. Eine einfache Taktsteigerung kann die Erhöhung der Dreicksfüllrate niemals bewirken. Ich geh eher davon aus, dass hier zwei ALUs im Adreno 205 drin sind.

Adreno 220 und Adreno 225 basieren auf den Z460, welcher nochmal ein Stück in die Breite geht. Hier kann die Anzahl der Kerne skaliert werden.

Adreno 220 - Z460 - 1(2???) ALUs, 1 TMU, 2 Kerne, 233MHz, 88MTri/s
Adreno 225 - Z460 - Könnte eine Adreno 220 sein, nur mit mehr Takt

Alle Angaben sind ohne Gewähr, da es relativ schwer ist, genaue Daten zu den Adrenos zu finden. Da wird wohl vieles zusammengeworfen, wie auch hier beim mir.^^;D


mfg

Ailuros
2011-02-14, 13:54:54
Das mit den Triangle-raten ist meistens eine ziemlich laecherliche Geschichte. Wie dem auch sei Anand hat irgendwo in einem Artikel angegeben wie die offiziellen Fuellraten von Qualcomm fuer die jeweiligen Modelle aussehen ich kann aber das Zeug nicht mehr finden.

Ich bin mir nicht mehr sicher aber ich glaube 205 ist kein 1TMU core.

***edit: Eureka! The 220 should be a decent step above the 205, which itself was a huge jump over the anemic 200. Qualcomm’s specs indicate that the 220 is capable of pushing pixels a lot faster than the 205; they quote a 3D pixel fill rate of 532 million per second (205 was rated at 245M/s) and a triangle poly fill rate of 88M per second (205 was 41M/s).

http://www.anandtech.com/show/4085/asus-announces-eee-pad-and-eee-slate-tablets/2

Ergo wohl doch single TMU.

=Floi=
2011-02-14, 23:50:51
Playstation Phone = Qualcomm Adreno 205 single core GPU


ich blicke bei dem ganzen arm zeug eh nicht mehr durch. Arm A7 A8 A9
dual, quad core einmal die gpu und das andere mal die andere mit doppelt so vielen einheiten etc. Da ist alles total unübersichtlich. :mad: Einen richtigen leistungsvergleich gibt es auch nicht und wenn man pech hat, dann wird eh die kleinere version davon verbaut und die bezeichnung ändert sich nur um eine stelle. :eek:

dagegen hat amd ja ein übersichtliches angebot. :rolleyes:

Screemer
2011-03-18, 08:30:29
dazu könnte man noch das pyramid antreten lassen: http://www.computerbase.de/news/consumer-electronics/kommunikation/smartphones/2011/maerz/htc-pyramid-mit-dual-core-und-960-x-540-px/

jaja ich weiß, es ist nicht gerade quelle nr.1 wenns um handies geht ;)

Ailuros
2011-03-18, 08:50:22
dazu könnte man noch das pyramid antreten lassen: http://www.computerbase.de/news/consumer-electronics/kommunikation/smartphones/2011/maerz/htc-pyramid-mit-dual-core-und-960-x-540-px/

jaja ich weiß, es ist nicht gerade quelle nr.1 wenns um handies geht ;)

Es gibt einen Qualcomm Thread uebrigens ;) Sonst scheint auch Adreno220 von beschissenen Treibern momentan geplagt zu sein.

YfOrU
2011-03-31, 00:22:01
Dual Core Snapdragon GPU Performance Explored - 1.5 GHz MSM8660 and Adreno 220 Benchmarks

http://www.anandtech.com/show/4243/dual-core-snapdragon-gpu-performance-1-5-ghz-msm8660-adreno-220-benchmarks/2

Der Adreno 220 macht sich ganz ordentlich und im allgemeinen bin ich über v-sync Off Werte sehr erfreut. So lassen sich auch die Konkurrenzprodukte über die Benchmarks endlich besser einschätzen.

Ailuros
2011-03-31, 07:20:35
Dual Core Snapdragon GPU Performance Explored - 1.5 GHz MSM8660 and Adreno 220 Benchmarks

http://www.anandtech.com/show/4243/dual-core-snapdragon-gpu-performance-1-5-ghz-msm8660-adreno-220-benchmarks/2

Der Adreno 220 macht sich ganz ordentlich und im allgemeinen bin ich über v-sync Off Werte sehr erfreut. So lassen sich auch die Konkurrenzprodukte über die Benchmarks endlich besser einschätzen.

Sehr nett :) Am interessantesten ist dass vsync off gar nichts bringt in Egypt.

Hugo
2011-05-02, 21:49:39
hier mal nen video vom MSM8660 in Aktion
http://www.youtube.com/watch?v=Nnn5bthvq7M&feature=player_embedded

sieht mal nicht schlecht aus

btw: vor allem die gui gefällt mir ;)

Ailuros
2011-05-03, 08:47:28
HTC Sensation 960*540 / Adreno 220: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro20&D=HTC+Sensation&testgroup=overall

Ailuros
2011-06-07, 10:44:34
http://semiaccurate.com/2011/06/06/qualcomm-demos-msm82608660-and-more/

Merkwuerdiger twist aber Charlie erkennt NV an dass sie Feuer unter den Hintern von ihren Konkurrenten angelassen haben ;)

Nakai
2011-06-07, 14:41:15
Ich bin viel eher an den Krait-Core interessiert, als an irgendwelche strategischen Wechsel.
Technologisch war Scorpion schon eher ein CortexA9, als ein CortexA8, wobei man das in diesem Bereich eh schwer sagen kann. Zuviel Spekulatius.
Krait ist eben das nächste Große "?".


mfg

Ailuros
2011-06-07, 15:01:06
Ich bin viel eher an den Krait-Core interessiert, als an irgendwelche strategischen Wechsel.
Technologisch war Scorpion schon eher ein CortexA9, als ein CortexA8, wobei man das in diesem Bereich eh schwer sagen kann. Zuviel Spekulatius.
Krait ist eben das nächste Große "?".


mfg

Das gute mit Qualcomm ist dass ihre Behauptungen durchaus realistisch klingen. Ein strategischer Wechsel ist so langsam Notwendigkeit und es ist etwas an das sich grosse Spieler in diesem Markt gewoehnen sollten. Wenn die marketing-technischen Uebertreibungen ansteckend werden, dann wird es natuerlich auch hier kunterbunt aussehen.

robbitop
2011-06-08, 14:15:04
Scorpio ist ein in Order Kern mit 2x Int Pipelines. Das ähnelt eher dem A8. Allerdings hat der A8 keine Pipelined FPU - die hat erst der A9 und Scorpio.
Der eigentliche große ipc Sprung kommt erst mit OoO Execution. Und das tut erst der A9. A15 baut das durch die Erhöhung der Ausführungsressourcen und bessere Sprungvorhersage nochmals aus. Und der steht ja auch bereits vor der Tür.

Aber endlich kommt mal Schwung in den mobile SoC Markt!

Ailuros
2011-06-13, 15:51:47
http://www.xbitlabs.com/news/mobile/display/20110610160421_HP_TouchPad_to_Become_Available_in_July_to_Cost_Like_Apple_iPad.h tml

Nakai
2011-06-13, 16:08:41
Scorpio ist ein in Order Kern mit 2x Int Pipelines. Das ähnelt eher dem A8. Allerdings hat der A8 keine Pipelined FPU - die hat erst der A9 und Scorpio.
Der eigentliche große ipc Sprung kommt erst mit OoO Execution. Und das tut erst der A9. A15 baut das durch die Erhöhung der Ausführungsressourcen und bessere Sprungvorhersage nochmals aus. Und der steht ja auch bereits vor der Tür.

Aber endlich kommt mal Schwung in den mobile SoC Markt!

AFAIK macht der Scorpion-Kern schon eine Art OoO(nicht auf A9-Niveau). Außerdem hat er eine doppelt so breite NEON-Einheit.

http://www.qualcomm.de/documents/files/linley-report-dual-core-snapdragon.pdf

IMO ist der Scorpion-Kern sehr interessant. Technologisch deutlich über CortexA8, performancetechnisch leicht darüber.

robbitop
2011-06-16, 16:59:31
Das kann aber auf keinem hohen Niveau sein, da IPC in den Benches, die ich bisher vom Scorpio kenne -was Integer angeht!- kaum vom A8 unterscheidet.

Ronny145
2011-07-06, 15:03:24
http://www.androider.de/qualcomm-roadmap-leak/9218714/
http://www.mobiletechworld.com/2011/07/05/new-qualcomm-2011-2012-roadmap-and-soc-specifications/


Qualcomm Roadmap Leak.

Dural
2011-07-06, 15:55:36
Quad Core erst im 2013? DX techlevel bleibt auch konstanz gleich :)


na da wird NV ja leichtes spiel haben...

Ailuros
2011-07-06, 16:22:36
Quad Core erst im 2013? DX techlevel bleibt auch konstanz gleich :)


na da wird NV ja leichtes spiel haben...

Wer sagt dass Tegra3 quad core in Uebermengen in smart-phones integriert werden wird? AP30 ist entweder dual oder quad A9 fuer smart-phones, wobei wohl das erste bessere Chancen zur Integrierung hat ueberhaupt wenn man bedenkt dass bis jetzt Tegra keine mainstream smart-phone deals gelandet hat.

aylano
2011-07-06, 16:45:01
http://www.androider.de/qualcomm-roadmap-leak/9218714/
http://www.mobiletechworld.com/2011/07/05/new-qualcomm-2011-2012-roadmap-and-soc-specifications/


Qualcomm Roadmap Leak.

Hörst sich interessant an.

"First integrated LTE in Single-Core & Dual-Core"
Da wird die Konkurrenz etwas älter aussehen.

Sowie Shipping in den nächsten 6 Monaten.

Da fragt man sich, wer (GF oder TSMC) schon so "eine gute" 28nm-Fertigung hat, dass sogar Qualcomm (=hohe Stückzahl) bediehnt werden kann.

basti333
2011-07-06, 17:15:51
Was man will man momentan mit LTE im smartphone? Noch nicht mal telefonie wird damit unterstützt. Imo wird es nur für werbezwecke eingebaut, einen praktischen vorteil hat es nicht.

Ronny145
2011-07-06, 17:57:58
Was man will man momentan mit LTE im smartphone? Noch nicht mal telefonie wird damit unterstützt. Imo wird es nur für werbezwecke eingebaut, einen praktischen vorteil hat es nicht.


Auf der Roadmap ab Q4 2011. Mit ersten Geräten würde ich da nicht vor Mitte bis Ende 2012 rechnen. Irgendwann muss die Hardware dafür bereit ein, am besten schon vor einer flächendeckenden Netzabdeckung. Ob man es persönlich braucht, ist wieder eine andere Frage.

aylano
2011-07-06, 19:01:47
Was man will man momentan mit LTE im smartphone?
Öhm, was war noch mal der Sinn des Smarthphones und ihren vielen Apps?

LTE hat AFAIK einen besseren Bing (Rekationszeit) und die Daten-Übertragung steigt generell.

LTE kannst man AFAIK neben GSM auch/wird zur Ortbestimmung in der Stadt verwenden, was bei einigen Apps ziemlich nützlich ist.

Also, wenn ich mir so ein 500-600 Euro Gerät kaufe sowie teure Tarife, dann hätte ich schon gerne die beste Funktechnik.
Weil genau diese Technik ist im Vergleich zu CPU-Response & SSD-Response das langsamste Teil.


Noch nicht mal telefonie wird damit unterstützt. Imo wird es nur für werbezwecke eingebaut, einen praktischen vorteil hat es nicht.
Wenn ich es richtig verstanden habe, gibts schon Firmen in diversen Ländern, die die Telephonie über das Daten-Netz abwickeln, weil sie kein GSM-Netz haben bzw. übersprungen sind. (= Kostenersparnis, wenn man eh Daten anbietet.)

basti333
2011-07-06, 19:36:22
Es gibt keinen Internationalen standard für LTE telefonie, der kommt erst mit der nächsten LTE-generation (LTE advanced). Zur zeit benötig man weiterhin GSM bzw. UMTS zur sprachverbindung. Ich habe lieber ein bisschen weniger bandbreite mit HSDPA+, als das ich 2mbit mehr habe, mein akku aber dafür 4 stunden eher leergesaugt ist, wiel mein handy zwei verbindungen aufrecht halten muss. Es gibt noch ein paar andere workarounds, aber ohne komforteinbußen geht da vmtl. nichts.

Im moment kommen eh fast alle nutzer noch mit der HSDPA geschwindigkeit aus. Also besteht da keine akute not.

aylano
2011-07-06, 19:58:23
Ich habe lieber ein bisschen weniger bandbreite mit HSDPA+, als das ich 2mbit mehr habe, mein akku aber dafür 4 stunden eher leergesaugt ist, wiel mein handy zwei verbindungen aufrecht halten muss. Es gibt noch ein paar andere workarounds, aber ohne komforteinbußen geht da vmtl. nichts.

Na ja, aber dafür kommt der doch mit 28nm. So könnte er am Schluss auch noch etwas sparsamer sein, als der Vorgänger.

TheGoD
2011-07-07, 04:52:00
Was man will man momentan mit LTE im smartphone? Noch nicht mal telefonie wird damit unterstützt. Imo wird es nur für werbezwecke eingebaut, einen praktischen vorteil hat es nicht.Hierzulande vielleicht, in den USA sieht das schon wieder anders aus. Dort ist LTE bereits so weit verbreitet das es für potentielle Nutzer (gerade in den Ballungsräumen) durchaus einen Vorteil darstellt. Wobei sich dies auch wieder relativieren kann wenn Verizon seine Flatrate-Tarife auf Volumen-Tarife (max 10 gb, 5 gb bezahlbar) umstellt...

Ailuros
2011-09-03, 23:24:59
http://www.fudzilla.com/home/item/23952-all-nvidia-arms-in-windows-8-preparation

Bevor jemand fragt warum ich es nicht im Tegra Thread gepostet habe, NV hat keine win8 Treiber-entwicklungs Probleme.

dildo4u
2011-09-14, 13:49:57
Qualcomm doesn’t have DirectX 10, 11

http://www.fudzilla.com/graphics/item/24036-qualcomm-doesn%E2%80%99t-have-directx-10-11

Ist Qualcomm damit ab 2013 nicht in einer Sackgasse?Ab dann heißt es wohl nur noch Texas Instruments vs NV.

Ailuros
2011-09-14, 14:01:42
Qualcomm doesn’t have DirectX 10, 11

http://www.fudzilla.com/graphics/item/24036-qualcomm-doesn%E2%80%99t-have-directx-10-11

Ist Qualcomm damit ab 2013 nicht in einer Sackgasse?Ab dann heißt es wohl nur noch Texas Instruments vs NV.

Es gibt einen Qualcomm Thread und ich bitte dass dieser in Zukunft bedient wird; Qualcomm lag unter Verhandlungen fuer 3rd party GPU IP na mit wem wohl mit unbekannten Resultaten (Null IMHO). Tegra relevante Frage: wo hat NV fuer win8 genau DX10 oder sogar DX11 auf ihrer GPU roadmap?

Vorraussetzung fuer win8 (embedded) duerfte sowieso nicht ueber DX9 liegen.

Hugo
2011-09-14, 18:18:01
Qualcomm liefert quadcores ab Dezember aus
http://www.computerbase.de/news/2011-09/qualcomm-liefert-quad-core-socs-ab-dezember-aus/

sind Krait-Kerne Abstammungen vom A9 oder A15 Eagle?

LovesuckZ
2011-09-14, 18:36:40
Also die Orginalquelle ist sich überhaupt nicht sicher, wieviele Kerne die ersten SoCs haben werden:
http://www.pocket-lint.com/news/42053/qualcomm-snapdragon-getting-faster-now

Ansonsten sind die Spekulationen doch im Zeitplan: Auslieferung der ersten 28nm SoCs ende 2011, Produkte im 2. Halbjahr 2012.

Hugo
2011-09-14, 18:38:47
der plan is doch nich schlecht wenn es 28nm quads werden ;)

LovesuckZ
2011-09-14, 18:40:58
Klar, Konkurrenz ist immer gut.

Wird interessant, inwieweit Kraits sich von A9 abheben kann. Snapdragon ist z.B. deutlich langsamer mit Javascript - egal ob WebOS oder Android.

mboeller
2011-09-14, 18:50:25
Qualcomm liefert quadcores ab Dezember aus
http://www.computerbase.de/news/2011-09/qualcomm-liefert-quad-core-socs-ab-dezember-aus/

sind Krait-Kerne Abstammungen vom A9 oder A15 Eagle?

Angeblich sind die Krait-Kerne pro MHz sogar Leistungsfähiger als die A15-Kerne


Another set of Graphs produced say that Krait on 28nm LP technology will have
DMIPS
A9 - 100%
A15- 155%
Krt- 180%

And they expect Krt to have 47% lower power for the same MIPS compared to A15. With the following disclaimer **
** All A15 performance & power are based on published info as of Mar 2011.


Link: http://semiaccurate.com/forums/showthread.php?t=5399

Hugo
2011-09-14, 19:02:10
na da bin ich mal auf den Vergleich zu NV's T3 gespannt

Nakai
2011-09-14, 19:24:19
Angeblich sind die Krait-Kerne pro MHz sogar Leistungsfähiger als die A15-Kerne

Jop, Krait ist wirklich übel. Selbst Scorpion war ziemlich stark, vor allem bei Multimediaanwendungen. Leider bestehn SOCs aus mehr als nur den CPUs.

na da bin ich mal auf den Vergleich zu NV's T3 gespannt

Da gibts nicht viel zu vergleichen. Adreno 225 wird auf Adreno220 nochmal ein Stück drauflegen. Selbst Adreno 220 ist schon schneller als jeglicher SGX540 und Geforce ULP im T2. Die Geforce ULP im Tegra 3 wird aber auch nicht von schlechten Eltern sein. Man muss mindesten um den Faktor 1,5 schneller sein, dann würde man mit einem Adreno 220 gleichziehen.

Ich war nie Fan von Qualcomm, aber mit Krait und der Adreno-Serie könnten die es noch verdammt weit bringen. Der Witz an der Sache ist, dass Qualcomm fast nur SOCs herstellt und damit fast einen Umsatz von TI hinlegt...

Ailuros
2011-09-14, 20:11:30
Da gibts nicht viel zu vergleichen. Adreno 225 wird auf Adreno220 nochmal ein Stück drauflegen. Selbst Adreno 220 ist schon schneller als jeglicher SGX540 und Geforce ULP im T2. Die Geforce ULP im Tegra 3 wird aber auch nicht von schlechten Eltern sein. Man muss mindesten um den Faktor 1,5 schneller sein, dann würde man mit einem Adreno 220 gleichziehen.

Ich war nie Fan von Qualcomm, aber mit Krait und der Adreno-Serie könnten die es noch verdammt weit bringen. Der Witz an der Sache ist, dass Qualcomm fast nur SOCs herstellt und damit fast einen Umsatz von TI hinlegt...


http://www.glbenchmark.com/compare.jsp?benchmark=glpro21&showhide=true&certified_only=1&D1=T-Mobile%20myTouch%204G%20Slide&D2=LG%20P920%20Optimus%203D&D3=Samsung%20i9000%20Galaxy%20S

GalaxyS hat den 540-er sogar nur auf 200MHz getaktet. Ich sehe den 220 bis jetzt gar keinen SGX540 schlagen und nein Du kannst tablet mit smart-phone Resultaten eben nicht so leicht vermischen.

Die ersten sehr guten Resultate vom T3 sind schon draussen und dagegen wird ein 205 zwar konkurrenzfaehig sein aber zu irgend einem Gewinn fuer den zweiten sieht es nicht aus.

Nakai
2011-09-14, 20:25:14
http://www.mobiletechworld.com/2011/03/31/first-adreno-220-benchmarks-show-that-it-is-a-beast/

Adreno 220 ist ein doppelter Adreno 205 mit leicht höherem Takt. Die genauen Specs weiß ich ned, sollte sich aber bei 266MHz bei 2 TMUs einpendeln.

Keine Ahnung ob man den Benches trauen kann, aber ein Qualcomm MDP hat 800*480 Auflösung.

Ailuros
2011-09-14, 21:23:06
http://www.mobiletechworld.com/2011/03/31/first-adreno-220-benchmarks-show-that-it-is-a-beast/

Adreno 220 ist ein doppelter Adreno 205 mit leicht höherem Takt. Die genauen Specs weiß ich ned, sollte sich aber bei 266MHz bei 2 TMUs einpendeln.

Es ist kein dual core falls Du das meinen solltest; lediglich mehr Einheiten. Ein raster/ein trisetup und ja ich hab es mir auch sagen lassen denn bis zu einem Punkt hatte ich auch den falschen Eindruck.

Keine Ahnung ob man den Benches trauen kann, aber ein Qualcomm MDP hat 800*480 Auflösung.

Referenz/Dev Platform mit optimalster Frequenz wobei Stromverbrauch nicht beruecksichtigt wird.

Wenn dann muessten allen verglichenen Platformen dev Platformen sein und nicht eine dev Platform gegen finale Geraete.

Der vorige Link hatte nur finale Geraete im Vergleich.

Nakai
2011-09-14, 21:40:30
Es ist kein dual core falls Du das meinen solltest; lediglich mehr Einheiten. Ein raster/ein trisetup und ja ich hab es mir auch sagen lassen denn bis zu einem Punkt hatte ich auch den falschen Eindruck.


Ich hab mir mal sagen lassen, dass die Adreno-GPUs sehr flexibel sind. Die Skalierung der Einheiten sollte sehr gut funktionieren.
So oder so, Qualcomm bleibt beim GPU-Teil sehr bedeckt, genau wie beim CPU-Teil.
Hätte ich derzeit mehr Zeit für sowas, würde ich da mal intensiv recherchieren.

Referenz/Dev Platform mit optimalster Frequenz wobei Stromverbrauch nicht beruecksichtigt wird.

Wenn dann muessten allen verglichenen Platformen dev Platformen sein und nicht eine dev Platform gegen finale Geraete.

Der vorige Link hatte nur finale Geraete im Vergleich.

Keine Ahnung wie das Endresulat aussehen wird, die Benches sind ziemlich stark, selbst für maximale Taktraten.

Ailuros
2011-09-14, 22:01:01
Ich hab mir mal sagen lassen, dass die Adreno-GPUs sehr flexibel sind. Die Skalierung der Einheiten sollte sehr gut funktionieren.
So oder so, Qualcomm bleibt beim GPU-Teil sehr bedeckt, genau wie beim CPU-Teil.
Hätte ich derzeit mehr Zeit für sowas, würde ich da mal intensiv recherchieren.

Ist bei allen mobilen GPU so egal ob Mali, SGX, ULP GF, Vivante oder was noch.

Keine Ahnung wie das Endresulat aussehen wird, die Benches sind ziemlich stark, selbst für maximale Taktraten.

Asus EP71 Eee Pad 1280*736 (Adreno220)
Egypt standard = 22.7 fps
Pro standard = 35.1 fps

Asus Transformer TF201 1280*752 (Tegra3)
Egypt standard = 40.6 fps
Pro standard = 51.2 fps

Asus Transformer TF101 1280*752 (Tegra2)
Egypt standard = 21.9 fps
Pro standard = 32.6 fps

Ist ja alles nachschlagbar in der Kishonti Datenbank.

Wenn man bedenkt wie es zu Adreno200 Zeiten noch aussah, hat Qualcomm enorme Schritte vorwaerts gemacht bei extrem schnellen Wendezeiten. Aber das was auf Regalen verfuegbar ist ist zumindest von der GPU Leistung mehr oder weniger auf dem Nivaeu konkurriender Produkte. Qualcomm hat sehr viel in der Zwischenzeit aufgeholt.

LovesuckZ
2011-09-21, 00:14:38
VR-Zone hat mehr Informationen über die 28nm Chips: http://vr-zone.com/articles/qualcomm-reveals-future-plans-we-give-you-the-details/13581.html#ixzz1YKRGXQv1

Kurz: Dual-Core 2012, Quad-Core frühsten 2013.

Ailuros
2011-09-21, 09:25:42
http://news.techeye.net/chips/qualcomm-mulls-imagination-buy

LOL :biggrin:

Das mit den Treibern ist nichts Neues wie man oben sehen kann und ja es gibt anscheinend Verhandlungen seit einiger Zeit im Hintergrund. Im besten Fall ein IP licensing deal, weil sonst andere Interessen sofort dagegen sprechen werden.

THUNDERDOMER
2011-09-21, 09:39:13
Neuerdings ist meine neue Blackberry Bold 9900 auch mit Qualcomm-Prozessor verbaut. Normalerweise hat RIM nie mit Qualcomm zusammengearbeitet.

Seltsam? :confused:

Ailuros
2011-09-21, 10:04:41
Neuerdings ist meine neue Blackberry Bold 9900 auch mit Qualcomm-Prozessor verbaut. Normalerweise hat RIM nie mit Qualcomm zusammengearbeitet.

Seltsam? :confused:

OEMs bzw. Hersteller kaufen SoCs aus allen Richtungen ein; was soll daran merkwuerdig sein?

Dural
2011-09-21, 12:15:25
VR-Zone hat mehr Informationen über die 28nm Chips: http://vr-zone.com/articles/qualcomm-reveals-future-plans-we-give-you-the-details/13581.html#ixzz1YKRGXQv1

Kurz: Dual-Core 2012, Quad-Core frühsten 2013.


wo bleibt den der 45nm Quad Core?

Ailuros
2011-09-21, 12:27:07
wo bleibt den der 45nm Quad Core?

Entweder ich hab irgend etwas verpasst oder es war nie eine quad core CPU (Krait) unter 45nm geplant. Alle newsblurbs der Vergangenheit und auch Qualcomm's eigene Ankuendigungen sprechen von 28nm.

Dural
2011-09-21, 12:54:48
die überlassen NV für ein Jahr den Quad Core Markt?! na dann gute Nacht ;)


Edit:
http://www.computerbase.de/news/2011-09/qualcomm-liefert-quad-core-socs-ab-dezember-aus/

?!?

Ailuros
2011-09-21, 13:13:32
die überlassen NV für ein Jahr den Quad Core Markt?! na dann gute Nacht ;)

Wird nicht der einzige SoC Hersteller sein so wie es aussieht. Qualcomm konzentriert sich oder so hauptsaechlich auf smart-phones und AP30 wird wohl aus gutem Grund sowohl als dual als auch als quad core Variante ankommen. Wie viele design wins jetzt der AP30 quad core haben wird steht noch in den Sternen.

Sonst was tablet designs betrifft (in denen Qualcomm so oder so schwach ist) koennte ich mir durchaus vorstellen dass Apple fuer das naechste tab auf dual core bleibt mit hoeheren Frequenzen. Ob dieses genug sein wird Apple irgendwelchen tablet Markanteil abzuknacken, bleibt abzusehen aber momentan scheinen diverse Analysten anderer Meinung zu sein.

Wenn die diverse Geruechte ueber Qualcomm's GPU Treiber fuer die Zukunft stimmen (win8) dann haben sie eigentlich ein um einiges groesseres Problem als die Anzahl der CPU cores. Sonst wenn man dual A9 hoch genug taktet, bleibt die Frage wieviel quad core bei niedrigeren Faellen genau ausmachen kann.

***edit: was soll mir der nacheditierte Link genau sagen? Dass der Author den Unterschied zwischen Massenproduktion und finale Verfuegbarkeit von Geraeten nicht schnallt?

Auf einer Veranstaltung im türkischen Istanbul kündigte der Halbleiterhersteller an, dass die Massenproduktion der ersten Quad-Core-SoCs im vierten Quartal starten soll. Ab Dezember sollen dann die ersten Kunden beliefert werden.

T30 wurde in Q2 2011 zu Kunden ausgeliefert und AP30 in H2 2011.

Gipsel
2011-09-21, 13:19:29
die überlassen NV für ein Jahr den Quad Core Markt?! na dann gute Nacht ;)Du weißt aber schon, daß eine Dual-Krait oder auch ein Dual-A15 leistungstechnisch einem Quad-A9 voraus sein dürften, oder? :rolleyes:

Ailuros
2011-09-21, 13:22:00
Du weißt aber schon, daß eine Dual-Krait oder auch ein Dual-A15 leistungstechnisch mit einem Quad-A9 den Boden aufwischen dürften, oder? :rolleyes:

Momentchen ist Krait wirklich ein waschreiner A15 oder eher ein augebohrter A9? (ehrliche Frage denn ich hab mit der Krait CPU keinen klaren Durchblick).

AffenJack
2011-09-21, 13:22:09
die überlassen NV für ein Jahr den Quad Core Markt?! na dann gute Nacht ;)

Edit:
http://www.computerbase.de/news/2011-09/qualcomm-liefert-quad-core-socs-ab-dezember-aus/


Du weißt schon, dass Krait eher A15 IPC sein sollte? Ich glaube in zwei drittel aller Anwendungen dürfte der Dual-Core den A9 Quads überlegen sein.

Gipsel
2011-09-21, 13:28:41
Momentchen ist Krait wirklich ein waschreiner A15 oder eher ein augebohrter A9? (ehrliche Frage denn ich hab mit der Krait CPU keinen klaren Durchblick).
Qualcomm behauptet für Krait eine Leistung etwas oberhalb eines A15 (wahrscheinlich hauptsächlich durch etwas mehr Takt). Da Krait eine vollkommene Eigenentwicklung ist, läßt sich das von der Architektur nicht so gut einordnen. Von den benutzten Features ist es wohl recht A15-ähnlich (Scorpion ist featuretechnisch grob zwischen A8 und A9, von der Performance aber näher am A9).

Ailuros
2011-09-21, 13:31:45
Du weißt schon, dass Krait eher A15 IPC sein sollte? Ich glaube in zwei drittel aller Anwendungen dürfte der Dual-Core den A9 Quads überlegen sein.

Das "eher" generierte auch meine Frage oben; Qualcomm erwaehnt lediglich dass eine neue CPU Architektur sein wird und um X% schneller als die heute erhaeltlichen ARM CPUs. Ist zwar schoen und gut und Krait wird auch mit aller Wahrscheinlichkeit um ein gutes Prozentual schneller sein als A9 bzw. Snapdragon, aber da Qualcomm traditionell eigen angepasste CPUs auf ARM Basis integriert, bleibt die Frage ob es wirklich ein A15 im strengen Sinn sein wird.

Qualcomm behauptet für Krait eine Leistung etwas oberhalb eines A15 (wahrscheinlich hauptsächlich durch etwas mehr Takt). Da Krait eine vollkommene Eigenentwicklung ist, läßt sich das von der Architektur nicht so gut einordnen. Von den benutzten Features ist es wohl recht A15-ähnlich (Scorpion ist featuretechnisch grob zwischen A8 und A9, von der Performance aber näher am A9).

Eben genau aus dem Grund stelle ich mir auch vor dass Krait irgendwo zwischen A9 und A15 liegt. Die bis zu 2.5GHz fuer Krait (langfristig erreichbar) sind auch kein besonders hoher Pegel da z.B. ST Ericsson fuer Novathor A9600 2.5GHz fuer 2*A15 angekuendigt hat mit extrem hohen mips sogar die nur durch zusaetzliche lower level cores zu erreichen sind. Vor 2013 wuerde ich aber vom letzteren auch nichts erwarten.

Gipsel
2011-09-21, 13:33:06
Direkt von Qualcomm kommt dieser Vergleich zu A9 und A15:

http://www.abload.de/img/qualcomm-cortex-a9-arm3cwm.jpg

Ailuros
2011-09-21, 13:38:15
Direkt von Qualcomm kommt dieser Vergleich zu A9 und A15:

http://www.abload.de/img/qualcomm-cortex-a9-arm3cwm.jpg

Verdammt....was steht denn im feingedruckten ganz unten fuer den Stern? Novathor soll die 20k DMIPS Grenze sprengen.

Dural
2011-09-21, 13:41:06
ja termin für 2013 toll... da haben wir schon Tegra 4 mit A15 und Tegra 5 steht da schon bald vor der türe ;)


Qualcomm bietet NV für 2012 ja regelrecht eine freifahrt an :freak:

Ailuros
2011-09-21, 13:53:43
ja termin für 2013 toll... da haben wir schon Tegra 4 mit A15 und Tegra 5 steht da schon bald vor der türe ;)

Wo steht was von 2013? Wo steht was dass T4 schon A15 haben wird? Nach den vorigen Fehlern, sind wohl 2 mehr kein Grund zur Sorge oder?

Qualcomm bietet NV für 2012 ja regelrecht eine freifahrt an :freak:

Eine Freifahrt sehe ich bei weitem nicht. Dass der Konkurrenz-pegel konstant ansteigen wird ist nichts Neues.

Gipsel
2011-09-21, 14:00:14
Verdammt....was steht denn im feingedruckten ganz unten fuer den Stern? Novathor soll die 20k DMIPS Grenze sprengen.
Kann das nicht genau entziffern, aber aus meiner Erinnerung sage ich jetzt mal, das wurde mit den damals verfügbaren Informationen verglichen (2GHz A15 von TI?). Inzwischen gibt es ja auch die Ankündigung der 2.5GHz Dual-A15 im Novathor 9600, der dürfte dann grob Gleichstand haben.

Allerdings muß man bei Krait mal sehen, die ersten Versionen kommen wohl mit "nur" 1.7GHz zum Jahreswechsel 2011/12. Das wäre also dann der Gegner von Kal-El(+) bei Tablets. Auf die 2.5GHz muß man wohl noch bis Anfang 2013 warten (aber dann sogar als Quad).

Edit:
http://www.tech-blog.net/wp-content/uploads/2011/07/7-5-2011qualcommroadmap.jpg

Man beachte auch die Speicheranbindung ;)

Ailuros
2011-09-21, 14:28:35
Am Rand ist es noch nichtmal klar wie Novathor die >20DMIPS erreichen soll; wie gesagt eine These sind zusaetzliche lower level cores, welches aber man fuer andere SoCs nicht ausschliessen kann.

Wie dem auch sei ein Krait bzw. A15 ist Takt fuer Takt um einiges effizienter als ein A9, nehmen aber auch mehr die area ein deshalb werden wir auch nichts von Krait bzw. A15 vor 28nm sehen.

Hugo
2011-09-21, 16:45:32
Kann das nicht genau entziffern, aber aus meiner Erinnerung sage ich jetzt mal, das wurde mit den damals verfügbaren Informationen verglichen (2GHz A15 von TI?). Inzwischen gibt es ja auch die Ankündigung der 2.5GHz Dual-A15 im Novathor 9600, der dürfte dann grob Gleichstand haben.

Allerdings muß man bei Krait mal sehen, die ersten Versionen kommen wohl mit "nur" 1.7GHz zum Jahreswechsel 2011/12. Das wäre also dann der Gegner von Kal-El(+) bei Tablets. Auf die 2.5GHz muß man wohl noch bis Anfang 2013 warten (aber dann sogar als Quad).

Edit:
http://www.tech-blog.net/wp-content/uploads/2011/07/7-5-2011qualcommroadmap.jpg

Man beachte auch die Speicheranbindung ;)


ich sehe noch in dem Bild, dass Qualcomm bis 2013 keine DX10/11 GPU liefern wird

siehe auch hier
http://www.fudzilla.com/home/item/24135-qualcomm-roadmap-confirms-no-dx10-and-11-by-2013

Gipsel
2011-09-21, 17:36:35
ich sehe noch in dem Bild, dass Qualcomm bis 2013 keine DX10/11 GPU liefern wirdWer kann das eigentlich außer die SoCs mit IMG-IP?

Hugo
2011-09-21, 17:56:47
na die IMG'ler meinte ich auch damit ;)

Ailuros
2011-09-22, 08:45:06
Wer kann das eigentlich außer die SoCs mit IMG-IP?

Bis zu 2013 wird es auch von IMG IP keinen Rogue in SoCs geben (TI OMAP5 ist auch immer noch DX9 L3 und gleiches duerfte auch fuer Apple's ersten 28nm SoC gelten oder jeglichen anderen; lediglich Intel's integrierter SGX545 ist DX10.1 aber in Leistung um einiges schwaecher als OMAP5 z.B.). Wenn es dann keinen anderen Ausweg gibt muss sich Qualcomm tatsaechlich nach anderen Loesungen umsehen.

Neben IMG Rogue duerfte auch ARM Mali T6xx GPU IP auf fast oder auf DX11 Nivaeu liegen (native FP64 und atomic operations beim letzteren deuten eher in die Richtung). Sonst ist Vivante GPU IP auf maximal DX9 L3 und Broadcom duerfte auch irgendwo in der Region liegen mit ihrer road-map oder darunter.

Es will sich ja auch (ist verstaendlich) keiner ueber die Qualcomm-IMG Verhandlungs-Masche aeussern. Qualcomm hat keine Uebersumme fuer Imageon (inklusive dem mythischen Bitboys OY team) bezahlt; wenn jetzt Qualcomm rein hypothetisch ein Prozentual an Aktien bei IMG einkaufen wuerde mit aber dem Ziel ein Mitsagen bei operativen Entscheidungen bei IMG zu haben, dann wuerde wohl so mancher IMG Partner sofort darauf reagieren.

Ohne jegliche Garantie aber wird Qualcomm auch wohl nicht investieren wollen, denn ein solches Risiko geht Qualcomm typisch nicht ein. Sobald AMD irgendwann mal in der Zukunft SoCs fuer smart-phones entwickeln sollte, hat Qualcomm noch ein weiteres Problem.

Eine ziemlich haarige Affaere und ich weiss nicht wer die Katze aus dem Sack gelassen hat, aber zufrieden darueber wird weder Qualcomm noch IMG ueber solche Geruechte sein. Natuerlich fluestert sich einiges im Hintergrund schon seit einiger Zeit herum, aber die Mehrzahl haelt einfach dicht.

robbitop
2011-09-23, 07:40:58
Gipsel,

also laut Benchmarks ist Scorpio eher am A8 dran als am A9. Nur bei FPU Benchmarks ist er schneller.
Soweit ich mich erinnere hat der A9 eine doppelt so breite FPU wie der A8. Von letzterem ist die FPU IIRC auch nicht pipelined.
Scorpio hat eine ähnliche FPU zum A9.

Aber Scorpio und A8 sind beide in-order-execution CPU-Kerne und A9 out-of-order. Und in den typischen Benchmarks sieht man A8 und Scorpio (idR integerlastig) - wenn man den Takt gleichsetzt oder normiert - fast gleiche Leistung. A9 hat je nach Benchmark zwischen 20 - 40 % mehr Leistung.

Wird Krait denn auch ein 3x superskalares Design sein wie A15?

Ailuros
2011-09-23, 08:03:24
http://forum.beyond3d.com/showpost.php?p=1583620&postcount=34

ROFL aeusserst interessant :D

Gipsel
2011-09-23, 12:02:42
also laut Benchmarks ist Scorpio eher am A8 dran als am A9. Nur bei FPU Benchmarks ist er schneller.Ja.
Wird Krait denn auch ein 3x superskalares Design sein wie A15?Ich weiß nicht wie Qualcomm sonst auf die behauptete Performance kommen will. Auch taktbereinigt liegt man angeblich sehr nahe am A15.

mboeller
2011-10-08, 15:05:19
Krait Whitepaper + Artikel bei anandtech (Danke Arun für die Links. Quelle: http://forum.beyond3d.com/showthread.php?t=61025 ):

http://www.anandtech.com/show/4940/qualcomm-new-snapdragon-s4-msm8960-krait-architecture/

http://www.scribd.com/doc/67918290/EWoyke-S4-White-Paper-Rd2-LR


Adreno 225 Fully Supports Windows 8.

Relative to Adreno 220, Adreno 225 includes more features, primarily to support DirectX 9.3 for Windows 8. These new features include:

• Increased unifed shader fexibility and capability

• Improved texture engines with support for sRGB textures

• Enhanced rasterization hardware with support for multiple render targets, user clip planes, instancing and other advanced features improved blt and interrupt performance


Edit: @400MHz sollte der Adreno 225 dann 64GFlops haben. Auch nicht schlecht. ;)

AffenJack
2011-10-08, 16:56:58
Wichtige Aussage aus Anands Artikel ist auch, dass man selber ne DX11 GPU entwicklen wird und nicht IP lizensiert wie teils gerüchte aufkamen. Und Krait ist doch nicht so schnell wie auf der Folie auf der letzten Seite gezeigt, A15 könnte ihn bei der IPC schlagen und es würd auf die Taktfrequenz ankommen.

Gipsel
2011-10-08, 17:53:38
Und Krait ist doch nicht so schnell wie auf der Folie auf der letzten Seite gezeigt, A15 könnte ihn bei der IPC schlagen und es würd auf die Taktfrequenz ankommen.
Daß Qualcomm in dem Vergleich eine höhere Taktfrequenz angesetzt hat um vorbeizuziehen, steht auch schon auf der letzten Seite. ;)

Edit:
Zudem sind die DMIPS zum Vergleich der Performance bei fordernderen Anwendungen ziemlich ungeeignet.

Ailuros
2011-10-13, 15:00:58
http://www.anandtech.com/show/4940/qualcomm-new-snapdragon-s4-msm8960-krait-architecture/3

Anand hat die Fakten endlich richtig hingebogen. Waere jegliches vector lane in den ALUs ueber 2 MADDs/4 FLOPs faehig wuerde sie keiner vec4 nennen sondern vec8.

Dass die skalare "Zusatz-einheit" in jeglicher ALU keine zusaetzlichen FLOP bringt stimmt auch. Hat irgend jemand eine Ahnung wie diese genau operiert? Irgend eine "Uebersetzungs-einheit" fuer jegliche vec4 ALU wenn diese skalaren code behandeln muss?

Scalar ALU = special function & data conversion unit fuer transcedentals, einige integer OPs und FP-->INT Konversionen u.a. Ergo tatsaechlich keine FLOPs von diesen.

IMG hat uebrigens keine getrennte skalare Einheit in SGX543 und co. Es sind maximal pro ALU (vec4+1) pro Takt 9 FLOPs, welches entweder entweder einen zusaetzlichen ADD oder MUL pro vec4 bedeutet.

Shader compiler efficiency and data requirements to actually populate a Vec4+1 array are both unknowns, and I suspect both significantly gate overall Adreno performance. There's also the fact that the Adreno 22x family only has two TMUs compared to four in the 543MP2, limiting texturing performance. Combine that with the fact that most Adreno 220 GPUs have been designed into single-channel memory controller systems and you've got a recipe for tons of compute potential limited by other bottlenecks.

Besser so ;)

With Adreno 225 Qualcomm improves performance along two vectors, the first being clock speed. While Adreno 220 (used in the MSM8660) ran at 266MHz, Adreno 225 runs at 400MHz thanks to 28nm. Secondly, Qualcomm tells us Adreno 225 is accompanied by "significant driver improvements". Keeping in mind the sheer amount of compute potential of the Adreno 22x family, it only makes sense that driver improvements could unlock a lot of performance. Qualcomm expects the 225 to be 50% faster than the outgoing 220.

Da auch Qualcomm so manche shader compiler Probleme hat mit </=DX9 Applikationen und da ich bezweifle dass sie pro Generation einen neuen compiler bzw. Treiber entwickeln wird jegliche Treiber-relevante Leistungssteigerung wohl eher mehrere GPU Varianten mitreissen.

Ergo da 220@266MHz und 225@400MHz wird mit den neueren Treibern erstmal der 220 um bis zu 50% schneller und es kommt nochmal 50% dazu von der 400MHz Frequenz unter 28nm. Ergo wird Adreno225 im Vergleich zum heutigen Leistungspegel eines 220 um bis zu 100% schneller sein.

mboeller,

Ich wartete lediglich bis Anand das Zeug korrigiert. In diesem Fall sind es fuer Adreno225:

8 Vec4 = 64 FLOPs * 0.4 GHz = 25.6 GFLOPs

Wenn Du etwas unter der 40GFLOPs Grenze sehen willst dann brauchst Du wohl eher einen OMAP5 der aber erst in H2 12' erscheinen wird. Die FLOP Grenze wird so oder so aber in H1 erstmal Apple im iPad3 brechen.

Ailuros
2011-10-14, 15:49:07
http://www.fudzilla.com/mobiles/item/24467-qualcomm-kicks-intel-out-of-the-iphone

Qualcomm koennte vielleicht in Zukunft mit noch mehr chips in zukuenftige Apple SoCs eindringen; mehr wenn die Zeit dafuer reif ist.

robbitop
2011-10-15, 10:26:00
Schade, dass Qualcomm beim neuen Krait solche Luschi-GPU an Board hat. Zumindest verglichen mit einem aktuellen SGX543MP oder den kommenden 544MP. Schade nur, dass IMG nicht NVIDIA alike Treiber baut. Nichteinmal für iOS. Ansonsten hätten wohl im Moment alle übel das Nachsehen.
Ich persönlich würde als IMG CEO richtig Geld in die Hand nehmen und richtig gute und ein paar mehr Treiberleute aus der Branche anlocken.

LovesuckZ
2011-10-15, 12:49:58
Und was bringt es dir? Das Problem im SoC-Markt ist, dass die Spiele gekappt sind. Es gibt keine Einstellungen, es gibt kein Hinzuschalten von AA/AF etc. Deswegen sind diese GPU-Vergleiche auch in vielerlei Hinsicht lächerlich, weil man in starker Abhängigkeit vom Entwickler der Plattform steht.

robbitop
2011-10-15, 13:20:55
Und was bringt es dir? Das Problem im SoC-Markt ist, dass die Spiele gekappt sind. Es gibt keine Einstellungen, es gibt kein Hinzuschalten von AA/AF etc. Deswegen sind diese GPU-Vergleiche auch in vielerlei Hinsicht lächerlich, weil man in starker Abhängigkeit vom Entwickler der Plattform steht.
Bei fragmentierten Plattformen bringt es... nix :D
Bei weniger fragmentierten Plattformen wie iOS bringt es ... relativ guten Fortschritt bei Spielegrafik. Gibt bereits einige Spiele im App-Store, die großen Nutzen aus dem SGX543 2MP ziehen.
Ich kann mir nicht vorstellen, dass Apple das bremsen will mit einer Luschi-GPU, wenn sie mit dem 2MP schon so vorgelegt haben. Im A6 kommt dann der 4 MP und im A7 dann der Rogue.

LovesuckZ
2011-10-15, 13:24:18
Aber auch bei iOS muss der Entwickler wieder Hand anlegen. Oder gibt es Spiele, die vernünftige Einstellungen erlauben? Wieviele wirklich an A5 angepasste Spiele gibt es heutzutage?

Zur Zeit ist doch der größte Vorteil für Entwickler, dass sie nur eine Spezifikation einhalten müssen. Das verbilligt die Entwicklung.

robbitop
2011-10-15, 13:39:08
Aber auch bei iOS muss der Entwickler wieder Hand anlegen. Oder gibt es Spiele, die vernünftige Einstellungen erlauben? Wieviele wirklich an A5 angepasste Spiele gibt es heutzutage?

Zur Zeit ist doch der größte Vorteil für Entwickler, dass sie nur eine Spezifikation einhalten müssen. Das verbilligt die Entwicklung.
Der A5 wird automatisch erkannt und die Grafik ist dann besser. Mehr Geometrie und Texturdetail, bessere Shadereffekte.
Muss natürlich so vorgesehen sein. Habe aber im App-Store schon einige Spiele gesehen (z.B. Infinity Blade), die davon sichtlich profitieren.
Das war auch schon beim A4 so, dass die Spiele recht schnell in einer "HD-Version" als Update drauf kamen und dann besser aussahen. Plattformfragmentierung kann, wenn sie gering ist, schon was gutes sein.

Wieviele weiß ich nicht. Hab ich nicht gezählt. Aber man sieht es halt öfter im Appstore.

TheGoD
2011-10-15, 14:38:02
Für rooted Android-Geräte gibt es mit Chainfire3D ein Tool um MS-AA je Applikation erzwingen kann. Funktioniert mit den meisten spielen problemlos.

robbitop
2011-10-15, 15:27:05
Immerhin etwas. Wobei ich AA und AF auf Mobiltelefonen jetzt nicht sooo wichtig finde. Grafischer Fortschritt hinsichtlich Geometrie-, Textur- und Shaderdetail ist IMO viel nötiger.

Ailuros
2011-10-15, 21:50:42
Schade, dass Qualcomm beim neuen Krait solche Luschi-GPU an Board hat. Zumindest verglichen mit einem aktuellen SGX543MP oder den kommenden 544MP. Schade nur, dass IMG nicht NVIDIA alike Treiber baut. Nichteinmal für iOS. Ansonsten hätten wohl im Moment alle übel das Nachsehen.

Die OGL_ES Treiber fuer iOS sind mackellos oder so mackellos wie sie ueberhaupt sein koennten. Es fehlt IMG ebenso wie Qualcomm an erfahrenen windows sw engineers aber das eine hat nichts mit dem anderen zu tun. Wie oft muss man das Zeug wirklich wiederholen?

Und was soll krumm an Adreno 225 genau sein? Ausserhalb von Apple welches mit sich selber konkurriert, sind Adrenos in letzter Zeit voll konkurrenzfaehig mit SGX540, ULP GF/T2 und dergleichen.

Ich persönlich würde als IMG CEO richtig Geld in die Hand nehmen und richtig gute und ein paar mehr Treiberleute aus der Branche anlocken.

Sie stellen konstant Leute ein sonst wuerde die Firma auch nicht staendig dazuwachsen, aber wirklich erfahrene windows sw engineers sind nicht so leicht an die Leine zu bringen. Aber Du kannst Dich ja gerne in Kontakt mit ihm setzen und im erklaeren wie Du statt ihm ein pissat Firmchen dass vor Jahren nur ein paar hundert Mio wert war heute ueber 2 Mrd. wert ist, gebracht haettest.

Bei fragmentierten Plattformen bringt es... nix :D
Bei weniger fragmentierten Plattformen wie iOS bringt es ... relativ guten Fortschritt bei Spielegrafik. Gibt bereits einige Spiele im App-Store, die großen Nutzen aus dem SGX543 2MP ziehen.
Ich kann mir nicht vorstellen, dass Apple das bremsen will mit einer Luschi-GPU, wenn sie mit dem 2MP schon so vorgelegt haben. Im A6 kommt dann der 4 MP und im A7 dann der Rogue.

Nochmal ein 8 Vec4, 2 TMU chip bei 400MHz ist alles andere als lahmarschig. Sehr weit entfernt von dem MP2 im iPad2 wird das Ding Leistungsmaessig nicht liegen.

Apple's naechster SoC wird >MP2 sein aber auch nur fuer tablets; fuer smart-phones bleibt es bis zu Herbst 2012 hoechstwahrscheinlich der MP2@200MHz.

Adreno225@400MHz = 25.6 GFLOPs/s, 800 MTexels/s
SGX543MP2@200MHz = 14.4 GFLOPs/s, 800 MTexels/s

Das einzige was total irrsinnig seitens Qualcomm ist, ist dass die Bandbreite zu knapp sein wird fuer den ersten Krait SoC. Das ist dann aber eher eine Bums-Design-Entscheidung auf SoC und nicht auf GPU Nivaeu. Qualcomm's Kerngeschaeft sind smart-phones fuer SoCs und diesbezueglich ist es wurscht was ein "Aussenseiter" wie Apple Anfang 2012 in ihr iPad3 steckt.

In H2 2012 kann Qualcomm dann entweder mit einer staerkeren GPU nachruesten oder einfach auf die Frequenz druecken. NV ging auch fuer die ULP GF unter 40G von 333MHz T2 auf 500MHz T3. Wenn ein SoC Hersteller in letzter Zeit schlagartige execution ueber den Tisch legt dann ist es Qualcomm.

robbitop
2011-10-16, 08:26:54
Die OGL_ES Treiber fuer iOS sind mackellos oder so mackellos wie sie ueberhaupt sein koennten. Es fehlt IMG ebenso wie Qualcomm an erfahrenen windows sw engineers aber das eine hat nichts mit dem anderen zu tun. Wie oft muss man das Zeug wirklich wiederholen?
Mir geht es schon um iOS und Android Treiber. Die sind auch nicht bis auf's Letzte durchoptimiert. Ein 2MP würde Tegra und alle anderen GPUs windelweich hauen, wenn das so wäre. Auch ein SGX540 müsste Tegra noch ziemlich leicht versägen können. Zumindest von der HW her.
Da lässt IMG totsicher Performance liegen. Und wenn es keine Anwendungsspezifischen Optimierungen sind.
Mir geht es bei SoCs nicht um Windows.


aber wirklich erfahrene windows sw engineers sind nicht so leicht an die Leine zu bringen.
Ach iwo. Mit Geld sind alle Menschen zu bekommen. Weltweit - in jeder Branche. Hohe Gehälter und gute Headhunter und du bekommst jeden Mann, den du brauchst. Das mag zwar teuer klingen, aber es kann sich u.U. lohnen.



Adreno225@400MHz = 25.6 GFLOPs/s, 800 MTexels/s
SGX543MP2@200MHz = 14.4 GFLOPs/s, 800 MTexels/s



Zahlen sind Schall und Rauch. Das weißt du selbst. Beim 225 sieht es aus, als hätten sie nur das ALU-Array aufgeblasen. Was ist mit der Kontrolllogik, wurde die auch so stark aufgestockt? Klingt nach einem Schritt von R520 zu R580. Kostete kaum etwas, die Rechenleistung zu erhöhen, brachte auch etwas, aber lange nicht das, was durch die Zahlen sugeriert wurde.
2x TMUs - das ist nur 1/2 vom 2MP. Und bei der Rechenleistung sollte man schon ein wenig mehr Füllrate haben. So komplex sind die Shader im Handheldbereich noch nicht. Was ist mit den ROPs? Wurden die auch hochgezogen? Die Bandbreite? Hm...na dann - viel Erfolg damit Qualcomm. ;)


Achja: Und du bist dir sicher, dass Apple dieses Mal erstmalig unterschiedliche SoCs für iPhone und iPad ausliefern will? Klingt so gar nicht nach Apple...
Vieleicht deaktivieren sie aber 2x SGX Kerne, um Strom zu sparen. Wäre aber ein ziemlicher Fail, um iPhone 2012, wenn man mit der gleichen GPU Leistung wie aus dem Vorjahr antanzt. Das klingt auch nicht nach Apple. Dann müssten sie zumindest die Frequenz erhöhen (siehe 3GS und 4 beim SGX535).

mboeller
2011-10-16, 10:26:17
2x TMUs - das ist nur 1/2 vom 2MP.


Und wo ist jetzt der Unterschied bitte zw. 800MTexel beim Adreno225 und 800MTexel beim SGX543MP2 @ 200MHz, mal abgesehen vielleicht vom TBDR-Vorteil?

Die Bandbreite? Hm...na dann - viel Erfolg damit Qualcomm. ;)

Alt: 32bit; neu: 64bit -> doppelte Bandbreite. Theoretisch konnten auch die alten Qualcomm-SoC's bereits 64bit, wurde aber nie umgesetzt. Dazu kam noch ein seltsamer RAM-Mix zw. normalem RAM (mit 32bit Anbindung) und AFAIR eine Art onboard-RAM (mit 32bit Anbindung). Das wurde geändert. Jetzt gibt es nur noch das "normale" RAM mit 64bit Anbindung. Sollte im Anandtech-Artikel aber wesentlich besser erklärt sein.


Achja: Und du bist dir sicher, dass Apple dieses Mal erstmalig unterschiedliche SoCs für iPhone und iPad ausliefern will?


Nene..A5 bleibt uns bis Q3/2012 im iPhone erhalten. Was auch sonst? Das Tick-Tock-Prinzip von Apple ändert sich ja nicht. Zuerst kommt der neue Ax SoC im Tablet und wird dann (optimiert) ins iPhone übernommen. Soviel hast du dich mit dem ganzen noch nicht befasst, oder?

robbitop
2011-10-16, 10:37:51
Und wo ist jetzt der Unterschied bitte zw. 800MTexel beim Adreno225 und 800MTexel beim SGX543MP2 @ 200MHz, mal abgesehen vielleicht vom TBDR-Vorteil?
Das erreicht Adreno 225 aber nur durch die hohe Taktrate. Im A6 ist vermutlich ein 32 nm Prozess im Einsatz. Somit bleibt es keinesfalls bei 200 MHz. Eher als der A6 im iPad 3 kommt Krait vermutlich auch nicht.
Meine Äußerungen sind stets taktnormiert.

TBDR bringt im Durchschnitt immerhin eine Einsparung von Faktor 2,5. Zumindest laut IMG.



Alt: 32bit; neu: 64bit -> doppelte Bandbreite. Theoretisch konnten auch die alten Qualcomm-SoC's bereits 64bit, wurde aber nie umgesetzt.
Das stimmt wohl. Aber was ist mit den ROPs und der Kontrollogik?



Nene..A5 bleibt uns bis Q3/2012 im iPhone erhalten. Was auch sonst? Das Tick-Tock-Prinzip von Apple ändert sich ja nicht. Zuerst kommt der neue Ax SoC im Tablet und wird dann (optimiert) ins iPhone übernommen. Soviel hast du dich mit dem ganzen noch nicht befasst, oder?
Nana nun werd mal nicht überheblich. Ich kenne den SoC Markt zu genüge. Den Krait Artikel habe ich ausnahmsweise nur überflogen.

2012: iPad 3 und iPhone 5. Beides A6. Was denn sonst?

mboeller
2011-10-16, 13:03:25
Nana nun werd mal nicht überheblich. Ich kenne den SoC Markt zu genüge.

;) war auch nicht ernst gemeint.


2012: iPad 3 und iPhone 5. Beides A6. Was denn sonst?

iPad3 = Anfang 2012 (Feb. - April, wenn ich mich recht erinnere)
iPhone5 = Q3/Q4 2012

Also sehr wahrscheinlich wieder ein halbes Jahr od. gar mehr zw. iPad und iPhone...wie gesagt, Tick-Tock.

LovesuckZ
2011-10-16, 13:04:59
Es wird Anfang 2012 keinen neuen SoC geben. TSMC ist nichtmal in der Lage unkritische Produkte wie GPUs in 28nm in vernünftigen Massen zu produzieren, wie sollen die da Anfang 2012 in der Lage Millionen A6 Chips für Apple mit miserablen Yields zu produzieren?

Ich rechne mit 28nm SoCs von TSMC frühsten im 2. Halbjahr 2012. Das sind die Yields hoch genug, um auch vernünftige Massen fertigen zu können.

Bucklew
2011-10-16, 13:09:57
A6 wird zu 90% wieder von Samsung kommen, TSMC hat doch gar nicht die Kapazitäten mal eben so 28nm Millionen Chips für Apple zu bauen.

LovesuckZ
2011-10-16, 13:24:50
Wenn Samsung ihren 32nm in Bezug auf Packdichte nicht verbessert, kann ich mir vorstellen, dass Apple zu TSMC geht. Und TSMC kann auch einfach AMD vor die Tür setzen. :D

robbitop
2011-10-16, 19:29:41
Es wird Anfang 2012 keinen neuen SoC geben. TSMC ist nichtmal in der Lage unkritische Produkte wie GPUs in 28nm in vernünftigen Massen zu produzieren, wie sollen die da Anfang 2012 in der Lage Millionen A6 Chips für Apple mit miserablen Yields zu produzieren?

Ich rechne mit 28nm SoCs von TSMC frühsten im 2. Halbjahr 2012. Das sind die Yields hoch genug, um auch vernünftige Massen fertigen zu können.
Samsung 32 nm.

Wenn Samsung ihren 32nm in Bezug auf Packdichte nicht verbessert, kann ich mir vorstellen, dass Apple zu TSMC geht. Und TSMC kann auch einfach AMD vor die Tür setzen. :D
DIE-Size ist für Apple eher zweitrangig. Auf den Appleprodukten ist eh genug Gewinnspanne drauf. Die reine DIE-Size kostet eh kaum. Wichtig ist, dass das thermische (bzw die Leistungsaufnahme) Budget nicht überschritten wird. Ein paar sqm Silizium kosten ja bloß, wenn überhaupt, einige Dollar. Wahrscheinlich ist es eher im zweistelligen Cent Bereich, was eine höhere Packdichte bringen würde.

fondness
2011-10-16, 22:16:32
Wenn Samsung ihren 32nm in Bezug auf Packdichte nicht verbessert, kann ich mir vorstellen, dass Apple zu TSMC geht.

Verbessern? Samsung hat den IBM/GF 32nm Prozess, dank gate-first ist dieser industrieweit Referenz was die Packdichte unter 32nm betrifft. Jeder Wette das die Packdichte auch höher ist als bei TSMCs 28nm Prozess. Apple optimiert eben auf Perf/Watt, nicht auf Fläche. Dazu kommt natürlich auch das eine potentere GPU eben auch kostet.


Und TSMC kann auch einfach AMD vor die Tür setzen. :D

:confused:

Ailuros
2011-10-17, 12:05:03
Mir geht es schon um iOS und Android Treiber. Die sind auch nicht bis auf's Letzte durchoptimiert. Ein 2MP würde Tegra und alle anderen GPUs windelweich hauen, wenn das so wäre. Auch ein SGX540 müsste Tegra noch ziemlich leicht versägen können. Zumindest von der HW her.

Zwischen iOS4 und 5 ist die Grafik-leistung von ~25-70% gestiegen und nein jegliche hw ist nie durch Treiber voll ausgelastet. Der naechste Treiber wird nochmal ein aehnliches Prozentual dazulegen um volle Treiberstabilitaet zu garantieren. Sonst ist mit dem heutigen Treiber ein SGX540@200MHz in etwa auf Gleichstand mit ULP GFs@300MHz.

Da lässt IMG totsicher Performance liegen. Und wenn es keine Anwendungsspezifischen Optimierungen sind.
Mir geht es bei SoCs nicht um Windows.

Siehe oben; Du kannst keinen Treiberschub von durchschnittlich 50% Leistungssteigerung von egal wem erwarten ohne dass die Stabilitaet des Treibers beinflusst wird, ausser ein IHV verzoegert das gesamte Paket so lange bis er um einiges spaeter zuschlaegt. Schritt fuer Schritt Steigerungen sind stets besser und ausser T3 wird noch schneller beim finalen release als die ersten (zuruckgezogenen) Resultate (was man nie ausschliessen kann) ist der MP2 im iPad2 +/- 2x Mal schneller bei 250MHz als die ULP GF@500MHz mit dem naechsten Treiber.



Zahlen sind Schall und Rauch. Das weißt du selbst. Beim 225 sieht es aus, als hätten sie nur das ALU-Array aufgeblasen. Was ist mit der Kontrolllogik, wurde die auch so stark aufgestockt?

Zwischen 220 und 225 duerfte es von der hw her keine besonderen Aenderungen sein. Mehr Frequenz als alles andere. Da aber auch Qualcomm compiler Probleme hat die sich auch Schritt fuer Schritt ausbuegeln werden, wuerde ich diesbezueglich den 225 nicht unterschaetzen.

2x TMUs - das ist nur 1/2 vom 2MP. Und bei der Rechenleistung sollte man schon ein wenig mehr Füllrate haben. So komplex sind die Shader im Handheldbereich noch nicht. Was ist mit den ROPs? Wurden die auch hochgezogen? Die Bandbreite? Hm...na dann - viel Erfolg damit Qualcomm. ;)

Ab SGX554 ist die 4:1 ALU/TMU Relation normal und wird auch fuer Rogue und dergleichen gelten eben wie auch im desktop. 554 hat 8 Vec4+1 ALUs und immer noch 2 TMUs. Zugegeben 554 wird spaeter kommen aber Adreno 225 wird wohl ziemlich konkurrenzfaehig sein gegen OMAP4460/4470 und auch ULP GF T3.

Wenn ein Adreno220 mehr oder weniger auf SGX540@300MHz Nivaeu ist sehe ich nicht ein warum eine 400MHz Variante vom ersten nicht konkurrenzfaehig sein sollte gegen 540@384 oder 544@500MHz.


Achja: Und du bist dir sicher, dass Apple dieses Mal erstmalig unterschiedliche SoCs für iPhone und iPad ausliefern will? Klingt so gar nicht nach Apple...

Wieso was haben sie beim iPad2 genau gemacht? iPhone4 = A4, iPad2 = A5, iPhone4S = A5, iPad3 = A"next".

Vieleicht deaktivieren sie aber 2x SGX Kerne, um Strom zu sparen. Wäre aber ein ziemlicher Fail, um iPhone 2012, wenn man mit der gleichen GPU Leistung wie aus dem Vorjahr antanzt. Das klingt auch nicht nach Apple. Dann müssten sie zumindest die Frequenz erhöhen (siehe 3GS und 4 beim SGX535).

MP2 im iPad2 taktet maximal bei 250MHz, im iPhone4S maximal bei 200MHz.

Der naechste 32nm SoC fuer iPad3 wird womoeglich mehr Kerne haben mit hoeherer Frequenz. Alles nur auf Frequenz zu setzen waere um einiges billiger (was ich mir auch bis jetzt vorstellte) aber sie scheinen immer noch keinen rats ass ueber die area zu geben.

Wenn Samsung ihren 32nm in Bezug auf Packdichte nicht verbessert, kann ich mir vorstellen, dass Apple zu TSMC geht. Und TSMC kann auch einfach AMD vor die Tür setzen. :D

Siehe oben. Apple ist anscheinend die area scheissegal und nochmal A5 wurde so gross weil Apple's design teams es mit Absicht so grosszuegig ausgelegt haben. Apple scheint es gleichgueltig zu sein ob der naechste 32nm SoC gleich gross oder sogar groesser wird. Bei Apple's Volumen erreichen sie so oder so gute Herstellungspreise, ausser Du hast irgendwelche Indizien dass die iPad2 Herstellung rote Zahlen generierte.

basti333
2011-10-17, 12:44:50
A6 wird zu 90% wieder von Samsung kommen, TSMC hat doch gar nicht die Kapazitäten mal eben so 28nm Millionen Chips für Apple zu bauen.

Also Apple wird so viel wie möglich von TSMC nehmen denk ich mal.

Ailuros
2011-10-17, 13:04:44
Also Apple wird so viel wie möglich von TSMC nehmen denk ich mal.

Es gibt kein 32nm bei TSMC. Falls Apple zu dual sourcing fuer TSMC gehen sollte dann erst ab 28nm und nicht fuer SoCs/Produkte fuer 2012.

Ailuros
2011-10-31, 06:32:05
http://www.fudzilla.com/processors/item/24641-qualcomm-claims-first-28nm-part-to-market

Ailuros
2011-11-04, 15:43:08
http://www.fudzilla.com/mobiles/item/24726-qualcomm-s4-8960-28nm-17ghz-chip-sampled

S4 8960 beim sampling.

Ailuros
2011-11-07, 21:45:18
http://www.fudzilla.com/home/item/24748-qualcomm-shipped-594-million-msm-chips

http://www.brightsideofnews.com/news/2011/11/2/qualcomm-reports-record-fiscal-2011-and-4q-earnings-figures.aspx

deekey777
2011-11-09, 14:24:01
Nur so eine Frage: Die aktuellen und kommenden Adrenos basieren auf dem, was Qualcom von AMD 2008 gekauft hat, oder?

Ailuros
2011-11-09, 15:15:06
Nur so eine Frage: Die aktuellen und kommenden Adrenos basieren auf dem, was Qualcom von AMD 2008 gekauft hat, oder?

Ja. Es ist das vorige Imageon + vorige Bitboys team. Vom letzteren sind die founders ausgestiegen fuer eine neues eher langweiliges startup.

LovesuckZ
2011-11-17, 20:53:36
Laut Anandtech.com kommen die ersten Krait-Prozessoren nur mit 1,5GHz zum Start:
The MSM8960 is going to be first out of the gate. A high end SoC, the 8960 features two Krait cores running at up to 1.7GHz (initial debut will be at 1.5GHz).
http://www.anandtech.com/show/5118/qualcomm-announces-a-bunch-of-krait-based-snapdragon-s4-socs

Da Krait ca. 33% mehr Leistung pro MHz als A9 hat, wäre ab 3 Threads nur auf Niveau von T3 und bei 4 Threads sogar 25% langsamer.

Ailuros
2011-11-17, 21:12:51
Ich hoffe dass Du bei der Rechnung nichts verpasst hast, was insgesamt die Unterschiede der jeweiligen Architekturen betrifft.

Wie dem auch sei TI und NV sind momentan alles andere als zufrieden ueber das folgende: http://www.anandtech.com/show/5053/vellamo-benchmarking-on-six-android-phones

LovesuckZ
2011-11-17, 21:24:38
Das ist eine offizielle Leistungsangabe von Qualcomm gewesen. Die werden bestimmt nicht den Worst-Case herauspicken. Und mit der selben Maßeinheit vergleicht auch ARM die Prozessoren untereinander.

Schlussendlich sind die 1,5GHz weit unterdem, was man als Sicherheit zu einem Gleichstand benötigen würde.

Ailuros
2011-11-17, 21:45:10
Das ist eine offizielle Leistungsangabe von Qualcomm gewesen. Die werden bestimmt nicht den Worst-Case herauspicken. Und mit der selben Maßeinheit vergleicht auch ARM die Prozessoren untereinander.
Schlussendlich sind die 1,5GHz weit unterdem, was man als Sicherheit zu einem Gleichstand benötigen würde.

http://www.anandtech.com/show/4940/qualcomm-new-snapdragon-s4-msm8960-krait-architecture

Performance of ARM cores has always been characterized by DMIPS (Dhrystone Millions of Instructions per Second). An extremely old integer benchmark, Dhrystone was popular in the PC market when I was growing up but was abandoned long ago in favor of more representative benchmarks. You can get a general idea of performance improvements across similar architectures assuming there are no funny compiler tricks at play. The comparison of single-core DMIPS/MHz is below:

At 3.3, Krait should be around 30% faster than a Cortex A9 running at the same frequency. At launch Krait will run 25% faster than most A9s on the market today, a gap that will only grow as Qualcomm introduces subsequent versions of the core. It's not unreasonable to expect a 30 - 50% gain in performance over existing smartphone designs. ARM hasn't published DMIPS/MHz numbers for the Cortex A15, although rumors place its performance around 3.5 DMIPS/MHz.

Weder die nur die veralteten DMIPS Werte noch nur die Anzahl der threads definieren einer Architektur. Es steht uebrigens schon im obrigen Artikel drin wie es mit den Frequenzen aussehen wird. Sonst waere es angebracht den gesamten Artikel durchzulesen und ja leider macht selbst Anand stellenweise Fehler aber es ist nicht der eigentliche Punkt hier.

Man kann in Echtzeit nicht erwarten dass wenn man die Anzahl der A9 CPU cores verdoppelt, sich auch automatisch die Leistung verdoppelt, ausser man glaubt lediglich synthetischen benchmarks wo es kinderleicht ist alles auf 4 threads zu skalieren. Hauseigener spezifisch zurechtgebogener benchmark ist auch das obrige Vellamo Dingsda von Qualcomm.

A15 hat eine unified pipeline und eine weiter aufgepumpte NEON/VFP pipeline die sehr grosse Steigerungen in der Effizienz bedeuten ueberhaupt mit allem was floating point betrifft. Dass NEON auf Krait "zufaelligerweise" 128bit breit ist als einfaches Beispiel ist wohl eher unwichtig.

In rein theoretischen Faellen ist ein A15 um 50% effizienter als ein A9 bei gleicher Frequenz angenommen man waere fetch limitiert. Oder um 100% effizienter bei gleichem Takt bei NEON Instruktionen. Oder 100% effizienter bei gleichem Takt im Fall von dispatch-Limitierungen.

robbitop
2011-11-18, 09:22:51
Da Krait ca. 33% mehr Leistung pro MHz als A9 hat, wäre ab 3 Threads nur auf Niveau von T3 und bei 4 Threads sogar 25% langsamer.
Wie gut, dass alles perfekt parallelisierbar ist, 0 Overhead frisst und singlethread IPC so unwichtig ist...:freak:

Den A9 kannst du auch mit 10000000000 Cores gegen den A15 und den Krait mit 2x Cores vergessen. Außer vieleicht in irgendwelchen optimierten NV Techdemos mit Pseudophysikspielkram.

Ailuros
2011-12-27, 14:14:38
http://www.fudzilla.com/processors/item/25333-intel-considers-qualcomm-threat-no1

Kein Wunder; Qualcomm ist so manche Drohung fuer viele Semis dort draussen.

Tragische Ironie:

http://www.fudzilla.com/processors/item/25338-medfield-performance-leaked-looks-impressive

Bei dem heutigen Stromverbrauch bzw. Leistung gibt es wohl doch noch nichts besonderes zum feiern.

Ailuros
2012-01-04, 19:59:07
http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Asus+Eee+Pad+Transformer+Prime+TF202&testgroup=overall

Sieht nach dem gleichem Test-Dingsda aus mit Krait@1.5GHz diesmal und einem Adreno225.

Hugo
2012-01-30, 17:56:15
ein erster Bench eines MSM8960
http://score.nena.se/nenamark/view?version=2&device_id=1369

Dural
2012-02-15, 12:25:47
Statt wie geplant im ersten oder zweiten Quartal 2013 sollen die SoCs drei bis sechs Monate später auf den Markt kommen respektive den Handy- und Tablet-Herstellern zur Verfügung stehen.


http://www.computerbase.de/news/2012-02/fertigungsprobleme-bei-neuen-qualcomm-socs/



tja NV wirds freuen, die haben ihren ersten quad core ja schon seit letzem jahr auf dem markt...

Ailuros
2012-02-15, 14:21:09
http://www.computerbase.de/news/2012-02/fertigungsprobleme-bei-neuen-qualcomm-socs/



tja NV wirds freuen, die haben ihren ersten quad core ja schon seit letzem jahr auf dem markt...

Betroffen sind dem Bericht zufolge aber nur Modelle mit einer Taktrate von zwei oder mehr Gigahertz und vier CPU-Kernen, unter anderem den MSM8974 und APQ8094.

Hat Dir jemand erzaehlt dass dual core Kraits auf irgend einem Schlauch stehen? Wart erstmal die ersten Geraete ab die auf MSM8960 ab und Du wirst dann erst sehen was Du hier fuer einen Bloedsinn zusammenreimst. Aber klar nur weil quad A9 mehr cores bedeutet ist man wieder so naiv und ingnoriert total dass Krait zur naechsten ARM CPU Generation gehoert und nicht zur A9 Familie und daher ist die Anzahl der cores eher wurscht in diesem Fall.

YfOrU
2012-02-15, 15:30:59
Den schwachsinnigen Nvidia/TI Absatz hat CB in Eigenregie verzapft ;)

Screemer
2012-02-15, 15:52:26
snapdragon s4 wird cpu-seitig rocken. gpu-seitig bin ich mit adreno 225 noch nicht ganz sicher, adreno 220 hat auf dem papier auch richtig power. rauß kommen tut die aber nicht so wirklich. qc spricht im xbit-artikel aber von massiven treiberoptimierungen und das macht aber auf jeden fall optimistisch.

LovesuckZ
2012-02-15, 15:54:31
Ob Krait rocken wird, sollte man abwarten.

225 wird dagegen auf Niveau von Mali-400x2 liegen und somit 33% langsamer als Tegra 3.

Dural
2012-02-15, 16:05:01
Hat Dir jemand erzaehlt dass dual core Kraits auf irgend einem Schlauch stehen? Wart erstmal die ersten Geraete ab die auf MSM8960 ab und Du wirst dann erst sehen was Du hier fuer einen Bloedsinn zusammenreimst. Aber klar nur weil quad A9 mehr cores bedeutet ist man wieder so naiv und ingnoriert total dass Krait zur naechsten ARM CPU Generation gehoert und nicht zur A9 Familie und daher ist die Anzahl der cores eher wurscht in diesem Fall.


Ja und? was tut das zur sache? NV Quad gibt es im laden um die ecke zu kaufen... oder besser gesagt liegt bei mir auf dem tisch ;) die andern?

Qualcomm hat sich doch einfach schlicht mit ihren grosszügigen MHz angaben überschätzt, derzeit offensichtlich nicht herstellbar.
zudem wenn Qualcomm wirklich erst sommer 2013 ausliefern kann, haben wir auch schon einen Tegra 4 auf dem markt und der Tegra 5 winkt in der ferne schon wild um sich und da haben wir sicher 8 Core vs 4 core ;)

Screemer
2012-02-15, 16:22:16
du hast nicht überrissen was ail gesagt hat. ich habs so verstanden, dass krait in der dual-core-variante mit quadcore a9 den boden aufwischen könnte. obs so kommt wird man sehen.

wenn es einen interessiert kann er ja mal die prozentuale differenz in nanamark2, zwischen den ersten msm8960 bei 1024x600 und dem kal-el im prime bei 1280x752 ausrechnen: http://score.nena.se/nenamark/view?version=2

YfOrU
2012-02-15, 17:43:41
Qualcomm hat sich doch einfach schlicht mit ihren grosszügigen MHz angaben überschätzt, derzeit offensichtlich nicht herstellbar.
zudem wenn Qualcomm wirklich erst sommer 2013 ausliefern kann, haben wir auch schon einen Tegra 4 auf dem markt und der Tegra 5 winkt in der ferne schon wild um sich und da haben wir sicher 8 Core vs 4 core ;)

Der dual 28nm Krait ist kein A9 wie der 40nm Tegra 3 und kommt (in Produkten) auch nicht 2013 sondern 1H 2012. Übrigens inkl. LTE Integration on Chip.
Tegra 3 bekommt im Vergleich dazu in Smartphones wieder eine historische Randnotiz und das wars. Wobei es auch im Tablet Bereich dieses mal für Nvidia verdammt schwer werden wird denn man stellt weder die Referenzplattform (ICS: TI) da noch gibt es abseits der für das Marketing netten vier Kerne ein Alleinstellungsmerkmal. Stupide Kerne aneinander kleben reicht im SoC Bereich bei weitem nicht aus um Erfolg zu haben.

Ailuros
2012-02-15, 17:56:26
Ob Krait rocken wird, sollte man abwarten.

225 wird dagegen auf Niveau von Mali-400x2 liegen und somit 33% langsamer als Tegra 3.

Qualcomm's Mehrzahl an design wins sind smart-phone SoCs. 225 taktet auf 400MHz und AP30 nur 16MHz mehr oder besser 20% weniger als die GPU im T30. Weiss der Geier auch mit welcher SoC Bandbreite fuer AP30.

Ja und? was tut das zur sache? NV Quad gibt es im laden um die ecke zu kaufen... oder besser gesagt liegt bei mir auf dem tisch ;) die andern?

A9 und Krait gehoeren nicht zur gleichen CPU Generation. Wenn Du den Unterschied nicht verstehen kannst, dann kann ich nicht weiterhelfen.

Qualcomm hat sich doch einfach schlicht mit ihren grosszügigen MHz angaben überschätzt, derzeit offensichtlich nicht herstellbar.
zudem wenn Qualcomm wirklich erst sommer 2013 ausliefern kann, haben wir auch schon einen Tegra 4 auf dem markt und der Tegra 5 winkt in der ferne schon wild um sich und da haben wir sicher 8 Core vs 4 core ;)

Und wer versichert mich dass selbst dual core Krait@1.5GHz irgend ein Problem sein sollte in einem smart-phone SoC? Die Rede im verlinkten Artikel ist eben nicht fuer den MSM8960 sondern deren Nachfolger und wenn Qualcomm mit diesen Problemen haben sollte mit Frequenzen bzw. yields momentan und auch unter der Perspektive dass Qualcomm die bei weitem groesste Anzahl an 28LP Kapazitaeten bei TSMC haelt, darfst Du schoen und lange raten was anderen SoC Herstellern unter 28nm fuer vergleichbare Veroeffentlichungen passieren koennte.

Nein Tegra4 hat eine 16-core CPU und den letzten obrigen Mist kannst Du beruhigt wieder in die bullshit Schublade zurueckstecken. Nach den ersten dual A15 ARM CPU cores (H2 2012) fuer small form factor SoCs sind quad A15 an der Reihe (~H2 2013) und danach fuer 20nm/2014 weiss der Geier ob ARM nicht schon eine neue CPU Architektur auf dem Laufband haben wird. Qualcomm liegt bei den vorigen timeframes mit ihrem selbst-entwickeltem Krait um ca. ein Halbjahr den anderen voraus selbst mit einer moeglichen quad core Krait Verspaetung.

Es laeuft eben dummerweise nicht immer alles nach Plan in diesem Markt und dafuer ist gerade NVIDIA eben nicht eine Ausnahme. Wo sind denn die AP30/Tegra3 smart-phones die anfangs noch vor Weihnachten 2011 als Ziel hatten?

dildo4u
2012-02-15, 18:13:50
Es laeuft eben dummerweise nicht immer alles nach Plan in diesem Markt und dafuer ist gerade NVIDIA eben nicht eine Ausnahme. Wo sind denn die AP30/Tegra3 smart-phones die anfangs noch vor Weihnachten 2011 als Ziel hatten?
http://www.engadget.com/2012/02/15/lg-tegra-3-phone-specification-leak-tegra3-quadcore/

Tegra 3 Phones dürften für paar Monate ziehmlich Konkurrenzlos sein,im Gegensatz zu den 4.0 Tabs,die habens bald mit dem Ipad 3 zu tun.

Ailuros
2012-02-15, 18:20:12
http://www.engadget.com/2012/02/15/lg-tegra-3-phone-specification-leak-tegra3-quadcore/

Tegra 3 Phones dürften für paar Monate ziehmlich Konkurrenzlos sein,im Gegensatz zu den 4.0 Tabs,die habens bald mit dem Ipad 3 zu tun.

Der offensichtliche Punkt war dass Verspaetungen selbst in den besten Familien vorkommen koennen. Apropos iPad3: das Ding wird mit aller Wahrscheinlichkeit auch wohl einen quad A9 haben; was soll mir diese Einzelheit genau ueber das insgesamte Geraet aussagen oder noch schlimmer irgendwelche Verkaufszahlen?

LovesuckZ
2012-02-15, 18:25:45
Wobei es auch im Tablet Bereich dieses mal für Nvidia verdammt schwer werden wird denn man stellt weder die Referenzplattform (ICS: TI) da noch gibt es abseits der für das Marketing netten vier Kerne ein Alleinstellungsmerkmal. Stupide Kerne aneinander kleben reicht im SoC Bereich bei weitem nicht aus um Erfolg zu haben.

Ich kenn schon zwei offiziele nVidia-Geräte, die ICS erhalten haben. Wieviel sind es nochmal mit TI? Oh eins. :eek:

Stimmt mit dem "stupiden Kernen". Deswegen gibt es auch den NinjaCore, die deutlich schnellere GPU, der deutlich bessere Videoprozessor, die Kostenersparnis für die OEMs sowie die Überarbeitung des Shedulers...

Probiere es nächtes Mal bitte mit mehr Wissen statt Nonsens.

Ailuros
2012-02-15, 18:47:31
Probiere es nächtes Mal bitte mit mehr Wissen statt Nonsens.

Vorwarnung fuer den durchgestrichenen Satz. Beim naechsten Streich wird es keine weitere Vorwarnung geben. Gegen den Rest des Posts gibt es nichts einzuwenden.

Zurueck zum Thema.

Ailuros
2012-02-15, 21:37:21
http://pcper.com/news/Editorial/CTO-Eric-Demers-Leave-AMD

http://www.theverge.com/2012/2/14/2798495/amd-graphics-cto-eric-demers-departs

We're hearing rumors that Demers will actually show up for work at Qualcomm, an interesting choice indeed: the company purchased AMD's mobile graphics division and Imageon media processor back in 2009. You now know it as Qualcomm Adreno, and it's the graphics solution in all Snapdragon-powered tablets and phones.

Na ich dachte dass es laenger dauert bis die Katze aus dem Sack ist.

Screemer
2012-02-15, 22:47:09
so schnell kanns gehen. die buschtrommeln arbeiten laut und schnell.

p.s.: ich wars nicht ;)

YfOrU
2012-02-21, 10:15:47
Anandtech: Qualcomm Mobile Development Platform

Qualcomm Snapdragon S4 (Krait) Performance Preview - 1.5 GHz MSM8960 MDP and Adreno 225 Benchmarks (Dualcore)
http://www.anandtech.com/show/5559/qualcomm-snapdragon-s4-krait-performance-preview-msm8960-adreno-225-benchmarks

Wie erwartet Single-Threaded deutlich schneller als A9 und Multi damit im Bereich eines Quad A9. Die GPU Performance ist aufgrund der höheren Taktfrequenz ebenfalls ordentlich. Bleibt als Fragezeichen nur der Energiebedarf der integrierten LTE Lösung aber der sollte mit 28nm ebenfalls spürbar unproblematischer sein als bei den aktuellen Varianten.

Aufgrund der vergleichsweise frühen Verfügbarkeit, ordentlichen Performance und der integrierten Multi-Mode Baseband ist das für die Konkurrenz eine ziemlich harte Nuss.

Undertaker
2012-02-21, 12:38:26
Beeindruckend, was Qualcomm da abliefert. Aber: Es gilt abzuwarten, wann wir wirklich nennenswerte Stückzahlen in realen Geräten auf dem Markt sehen werden. Siehe den schon länger vorgestellten Tegra 3, gibt es da neben dem Transformer Prime überhaupt schon ein zweites Gerät?

Screemer
2012-02-21, 13:22:38
jetzt muss nur noch die auslieferung zügig von statten gehen. bin schon auf die kraits mit adreno 3xx gespannt. bis dahin dürfte es einige interessante bewegungen im mgpu-markt geben. rouge sollte bis dahin doch auch verfügbar sein, oder?

dildo4u
2012-02-21, 13:31:53
Beeindruckend, was Qualcomm da abliefert. Aber: Es gilt abzuwarten, wann wir wirklich nennenswerte Stückzahlen in realen Geräten auf dem Markt sehen werden. Siehe den schon länger vorgestellten Tegra 3, gibt es da neben dem Transformer Prime überhaupt schon ein zweites Gerät?
http://www.androidnext.de/news/asus-memo-370t-7-zoll-tegra-3-tablet-mit-ics-fur-249-dollar-ces-2012/

http://www.computerbase.de/news/2012-02/acer-a510-bereits-ab-maerz-verfuegbar/

YfOrU
2012-02-21, 14:32:33
Beeindruckend, was Qualcomm da abliefert. Aber: Es gilt abzuwarten, wann wir wirklich nennenswerte Stückzahlen in realen Geräten auf dem Markt sehen werden. Siehe den schon länger vorgestellten Tegra 3, gibt es da neben dem Transformer Prime überhaupt schon ein zweites Gerät?

Wie ich oben schon mal angeschnitten hatte beruht der Achtungserfolg den Nvidia mit Tegra 2 erzielt hat schlichtweg darauf das dieser die HC Referenzplattform darstellte. Eben diese hatte die Eigenheit das hier andere SoCs von Google nicht vorgesehen waren (Zur Erinnerung: Der Quellcode wurde zurückgehalten). Nvidia hatte damit bezogen auf Android Tabs für lange Zeit praktisch das Monopol denn diese basieren fast alle auf dem Referenzdesign. Für TI und Qualcomm blieben damit in dieser Phase nur RIM (Playbook) und HP (Touchpad). Das alte HTC Tab kann aufgrund der Stückzahlen direkt unter den Tisch fallen.

ICS dagegen entspricht wieder dem alten Schema und damit haben die Hersteller für neue Produkte zum einen die freie Wahl und können sich zum anderen durch die Adaptierung von Omap4 (TI=ICS Referenzplattform) auch einiges an Arbeit (Produktentwicklung und Support) sparen.

Mit Blick auf die Marktpositionierung des Unternehmens und dem Produkt selbst (Qualcomm, S4) stellt sich kaum ernsthaft die Frage was bei einer Neuentwicklung abseits des billig Segments optimaler Weise verbaut wird. Dagegen ist selbst TI nicht gerade überragend aufgestellt aber immerhin hat TI die Referenzplattform und sehr konkurrenzfähige Preise. Für Nvidia bleiben mit Tegra 3 kaum mehr als ein paar Tegra2 Refresh Produkte. Die mit Tegra 2 erreichten Stückzahlen sind erstmal Geschichte und werden mittelfristig kaum wieder zu erreichen sein solange nicht ein Abnehmer im Format von Amazon auftaucht.

Man sollte hier nicht vergessen das an Qualcomm praktisch kein Marktteilnehmer vorbeikommt denn deren Baseband Lösungen beherrschen den mobilen Markt. SoCs mit integrierter Multi-Mode Baseband inkl. LTE in 28nm sind für die Hersteller und Mobilfunkanbieter wie Weihnachten. Ganz dickes Verkaufsargument ;)

Ailuros
2012-02-21, 17:11:22
Beeindruckend, was Qualcomm da abliefert. Aber: Es gilt abzuwarten, wann wir wirklich nennenswerte Stückzahlen in realen Geräten auf dem Markt sehen werden. Siehe den schon länger vorgestellten Tegra 3, gibt es da neben dem Transformer Prime überhaupt schon ein zweites Gerät?

Ich weiss wirklich nicht mehr wieviel design wins Qualcomm im vorigen Jahr hatte, aber es waren mit Sicherheit ueber 300. Qualcomm hat die "bloede" Angewohnheit auch wenn versprochen zu liefern.

-------------------------------------------------------------------

Sonst sehe ich eine merkwuerdige Stille bei den ersten offiziellen CPU benchmarks und der Adreno225 als smart-phone GPU ist alles anderes als ein slouch. :rolleyes:

Tiamat
2012-02-22, 00:44:45
Nicht schlecht, die Ergebnisse des Kraits liegen quasi gleichauf mit den bisher veröffentlichten Ergebnissen des jüngst vorgestellten Medfields.

mboeller
2012-02-22, 12:44:15
noch ein Test, diesmal mit Omap4 und Tegra3 im Vergleich:

http://www.pcmag.com/article2/0,2817,2400409,00.asp

gefunden, wie üblich auf Beyond3D: http://forum.beyond3d.com/showpost.php?p=1622132&postcount=58

YfOrU
2012-02-23, 10:14:29
The Qualcomm Snapdragon S4 (Krait) Preview Part II
ebenfalls mit Tegra3 / ICS

http://www.anandtech.com/show/5563/qualcomms-snapdragon-s4-krait-vs-nvidias-tegra-3

mboeller
2012-02-23, 20:30:14
passt zwar nicht so ganz, aber ein OMAP5 ist anscheinend selbst mit nur 800MHz noch doppelt so schnell zu sein wie ein Tegra3 (zumindest beim Benchmark BrowsingBench):

http://www.engadget.com/2012/02/23/omap-5s-dual-a15-cores-wipe-the-floor-with-four-a9s/

Nakai
2012-02-23, 20:48:04
Cortex A9 gegen Krait und CortexA15 ist einfach nicht vergleichbar.:rolleyes:

Ailuros
2012-02-23, 21:03:47
passt zwar nicht so ganz, aber ein OMAP5 ist anscheinend selbst mit nur 800MHz noch doppelt so schnell zu sein wie ein Tegra3 (zumindest beim Benchmark BrowsingBench):

http://www.engadget.com/2012/02/23/omap-5s-dual-a15-cores-wipe-the-floor-with-four-a9s/

Zum Zeitpunkt wo OMAP5 in anstaendigen Anzahlen erscheint, wird es nicht allzu lange dauern bis Qualcomm mit ihren 2.0GHz Kraits bzw. quad core Kraits antanzt. Und ja natuerlich ist der Vergleich (wie oben erwaehnt) zwischen Krait und A15 etwas sinnlos, trotz allem technologisch gesehen interessant.

The Qualcomm Snapdragon S4 (Krait) Preview Part II
ebenfalls mit Tegra3 / ICS

http://www.anandtech.com/show/5563/qualcomms-snapdragon-s4-krait-vs-nvidias-tegra-3

Falls der MSM8960 auch in smartphones mit dem 225@400MHz (und nicht niedrigerem Takt) ankommen sollte, ist der GPU Vergleich erstmal wertlos. Denn die ULP im AP30 taktet bei 416MHz, waehrend im T30 bei 520MHz.

dildo4u
2012-02-23, 21:32:50
Zum Zeitpunkt wo OMAP5 in anstaendigen Anzahlen erscheint, wird es nicht allzu lange dauern bis Qualcomm mit ihren 2.0GHz Kraits bzw. quad core Kraits antanzt. Und ja natuerlich ist der Vergleich (wie oben erwaehnt) zwischen Krait und A15 etwas sinnlos, trotz allem technologisch gesehen interessant.



Falls der MSM8960 auch in smartphones mit dem 225@400MHz (und nicht niedrigerem Takt) ankommen sollte, ist der GPU Vergleich erstmal wertlos. Denn die ULP im AP30 taktet bei 416MHz, waehrend im T30 bei 520MHz.
Die Omap 4 Techpreiview lief wohl auch schneller als finale Produkte laut Anand.Von daher ist der Vergleich eh Sinnlos,da man noch nicht abschätzen kann wie viel untertaktet werden muss um auf Akkulaufzeit zu kommen.Die 2Ghz sind wohl eh erstmal Träumerei,imo ein 2013 Thema.

Ailuros
2012-02-23, 21:42:32
Die Omap 4 Techpreiview lief wohl auch schneller als finale Produkte laut Anand.Von daher ist der Vergleich eh Sinnlos,da man noch nicht abschätzen kann wie viel untertaktet werden muss um auf Akkulaufzeit zu kommen.Die 2Ghz sind wohl eh erstmal Träumerei,imo ein 2013 Thema.

2.0GHz Kraits waren NIE bevor 2013 geplant, ergo nix mit Traeumerei sondern wer immer glaubt dass es noch dieses Jahr erscheinen wird, war/ist einfach schlecht informiert.

mboeller
2012-02-23, 22:06:03
Die Omap 4 Techpreiview lief wohl auch schneller als finale Produkte laut Anand.Von daher ist der Vergleich eh Sinnlos,da man noch nicht abschätzen kann wie viel untertaktet werden muss um auf Akkulaufzeit zu kommen.Die 2Ghz sind wohl eh erstmal Träumerei,imo ein 2013 Thema.


Du hast aber schon mitbekommen, das der OMAP5 mit nur 800MHz lief, oder?
DAS ist schließlich der Knüller. :P

|MatMan|
2012-02-23, 23:47:09
ich find ja die knapp 1W für die GPU selbst beim surfen irgendwie recht viel - gibts da Vergleichswerte von anderen aktuellen SoCs?

Ailuros
2012-02-24, 17:07:38
ich find ja die knapp 1W für die GPU selbst beim surfen irgendwie recht viel - gibts da Vergleichswerte von anderen aktuellen SoCs?

Deshalb war auch dildo4u's Kommentar oben ueber die finalen Frequenzen in smartphones durchaus gerechtfertigt. Ich bezweifle ja auch dass sie diese einhalten werden koennen (oder es gibt vielleicht irgend einen bug den sie noch kurzfristig entfernen koennen); solche Vorzeige-engineering samples sollte man stets mit etwas Vorbehalte behandeln.

mboeller
2012-02-26, 16:58:55
Übrigens,

ARM selber schätzt 2 A15 Cores @ 1,5GHz ungefähr 50% höher ein als 4 A9 Cores @ 1,0GHz

Link: http://www.hotchips.org/archives/hc23/HC23-papers/HC23.18.2-zkeynote1/HC23.18.keynote1.Arm-Hot%20Chips%202011%20SS%20Final.pdf (siehe Seite 18) Das PDF hat übrigens 23MB!

Wenn man die GHz 1:1 rausrechnet (stimmt aber nicht ganz) entspricht 1 A15-Kern taktbereinigt 2 A9-Kernen

AnarchX
2012-02-26, 17:06:03
2x A9 1GHz ~40
2xA15 1,5GHz ~90

Ich sehe da taktbereinigt ~50% mehr Leistung pro Kern.

mboeller
2012-02-26, 19:40:22
stimmt,

ich hatte mich nur an den Quad-Core A9 orientiert.

dildo4u
2012-02-28, 23:10:17
MWC 2012 Interview

http://www.theverge.com/2012/2/28/2830719/the-verge-interview-raj-talluri-at-mwc-2012

Quadcore S4 Geräte sollen Ende 2012 kommen.

Ailuros
2012-02-29, 12:45:19
MWC 2012 Interview

http://www.theverge.com/2012/2/28/2830719/the-verge-interview-raj-talluri-at-mwc-2012

Quadcore S4 Geräte sollen Ende 2012 kommen.

Ich dachte die Dinger waren fuer Q1 13' geplant. Was verpass ich gerade?

mboeller
2012-02-29, 15:51:28
IMHO, nichts.

Quad-Core <-> Quad-Core;
einmal < 2GHz <-> einmal > 2GHz (über die GHz kann man sich streiten, ist nur eine Nummer);
einmal im LP-Process hergestellt <-> einmal im HPM-process herstellt.

Ailuros
2012-03-05, 20:25:58
http://glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=HTC+VLE_U&testgroup=overall

Adreno225 in einem finalen Geraet. Nacken an Nacken mit dem Renesas ODIN mit einem SGX543MP2 (smart-phone SoC).

mboeller
2012-03-10, 15:23:38
Qualcomm roadmap:

zB.: ein Adreno 320 soll die 3-fache Shaderleistung eines Adreno 225 haben:

http://www.notebookcheck.com/Qualcomm-Roadmap-fuer-die-Snapdragon-S4-Prozessoren.71190.0.html

runterscrollen, Präsentationsfolien anschauen ;)

Dural
2012-03-19, 15:52:08
So sei nach Ansicht eines weiteren Samsung-Managers Qualcomm gerade dabei, die Führungsrolle im Mobilfunkbereich zu verlieren. Zudem seien die Qualcomm-Produkte nicht mehr so zuverlässig wie man in der Vergangenheit immer wieder angenommen hat.

http://www.computerbase.de/news/2012-03/manager-bestaetigt-quad-core-soc-im-galaxy-siii/

basti333
2012-03-19, 21:50:20
Lizenzgebühren wird Qualcomm trotzdem genug kassieren.

Ailuros
2012-03-19, 23:01:56
Qualcomm roadmap:

zB.: ein Adreno 320 soll die 3-fache Shaderleistung eines Adreno 225 haben:

http://www.notebookcheck.com/Qualcomm-Roadmap-fuer-die-Snapdragon-S4-Prozessoren.71190.0.html

runterscrollen, Präsentationsfolien anschauen ;)

Wenn sich der der slide auch wirklich auf Shaderleistungs ausschliesslich bezieht, denn unter 3x times graphics processing capacity kann man vieles verstehen. 3x mal so viel FLOPs sind im Vergleich zu 225 knapp 77 GFLOPs. Wenn man die Einheiten mit der Zeit skaliert erreicht man schon die versprochene quasi PS3/Konsolen GPU Leistung.

Ailuros
2012-06-05, 13:53:49
Erste Adreno320 Resultate:

http://www.glbenchmark.com/phonedetails.jsp?D=LG+E970&benchmark=glpro21

Momentan auf Platz 2 unter Apple iPad3 und ueber allen Exynos 32nm SoC Geraeten.

Hugo78
2012-06-12, 18:21:13
HTC liefert One S auch mit älterem Prozessor aus
http://www.computerbase.de/news/2012-06/htc-liefert-one-s-auch-mit-aelterem-prozessor-aus/
Grund für den Rückgriff könnten Lieferschwierigkeiten von Seiten Qualcomms sein.

Ailuros
2012-06-13, 14:21:04
Uebrigens scheint Adreno320 4 TMUs zu haben (nach metafor@B3D). Da das Ding wohl auch Halti/OGL_ES3.0 sein wird, sieht es eher nach 64 "skalaren" SPs aus (4*SIMD16).

http://www.glbenchmark.com/phonedetails.jsp?D=LG+LS970&benchmark=glpro21

Leistung jetzt noch naeher an iPad3.

Egypt offscreen

Adreno320 = 125.40 fps
SGX543MP4 = 140.60 fps (iPad3 = tablet)
SGX543MP2/iPhone4S = 75.10 fps
Mali400MP4 = 102.60 fps

robbitop
2012-06-13, 16:08:45
Alter Schwede! Dass die Adrenos mal so schnell werden...
Wie hoch ist der denn getaktet? (die SGX sind ja leider bis dato alle sehr niedrig getaktet)

Ailuros
2012-06-13, 17:31:49
Alter Schwede! Dass die Adrenos mal so schnell werden...

Keine Ahnung aber ich wuerde an nicht mehr als sagen wir mal 300MHz denken; Adreno225 ist auf maximal 420MHz (je nach Implementierung). Dafuer duerfte 320 aber auch "skalare" ALUs haben. Groessere ALU utilization und natuerlich sind im Vergleich zu vector ALUs die relevanten compiler ein Kinderspiel vergleichsmaessig. Wenn der Takt jetzt um einiges hoeher als 300MHz sein sollte, dann spricht es natuerlich wieder gegen die eigentliche Effizienz vom 320. Alles Adreno 3xx duerfte Halti entsprechen und dementsprechend ~DX10 Nivaeu und gehoert natuerlich zur naechsten small form factor GPU Generation. Das eigentliche "hoppla" hier ist Qualcomm's execution. Kein Rogue, Wayne oder T6xx in Sichtweite fuer dieses Jahr. Das LG Geraet ist ja lediglich ein smartphone; wenn Qualcomm noch etwas am Takt drehen sollte auf Kosten des Stromverbrauchs fuer moegliche tablet deals, ist so mancher Konkurrent fuer einige Zeit ratlos und ueberhaupt wenn hoeher getaktete dual bzw. quad Krait CPU cores erscheinen sollten.

Ach ja es muss ja auch nur ein Zufall sein dass fast alle Beteiligten im Markt Qualcomm als ersten befuerchten und nicht alle andere ;)

Wie hoch ist der denn getaktet? (die SGX sind ja leider bis dato alle sehr niedrig getaktet)

Kann es sein dass rein zufaellig alle SGX cores an die Du denkst unter 45nm hergestellt wurden? Wenn Du Apple waerst wuerdest Du auch nicht einen SGX543 single core@500MHz bevorzugen gegen SGX543MP2@250 wie im A5 SoC, eben weil die erste Loesung zwar die area spart aber wohl nicht Strom.

Alle 28nm SGX cores die mir bewusst sind liegen zumindest auf 500MHz.

dildo4u
2012-06-29, 20:52:55
Qualcomm zeigt 4-Kern Snapdragon

Vs Tegra 3
http://www.multipic.de/images/2012/06/29/q0aeH.jpg

http://www.hartware.net/news_55221.html

Hugo78
2012-06-29, 22:07:58
Hmm...

CPU-seitig ist das erstmal alles im Bereich dessen, was man beim Wechsel von A9 auf A15 erwarten würde.
GPU-seitig, da könnte Qualcomm ggü. Tegra4 das nachsehen haben, das schaut jetzt nicht so beindruckend aus.

Wobei ich schon gespannt bin, was S4 Quad und Tegra4 unter Win8 als rein passiver HTPC und Fileserver taugen werden.
Aktuell hab ich dafür einen "alten" Reste-PC mit Core2 Duo E8200 + Radeon 6670.
Und das Gespann gönnt sich mehr Saft, als mein Gaming Rechner mit 1080p Last oder auch nur beim idlen. ;D

robbitop
2012-06-30, 01:13:09
Qualcom verwendete weder einen A9 noch werden sie einen A15 verbauen. Sie haben komplett eigene µ-Archs die lediglich den gleichen ARM v7 Befehlssatz verfügen. Das ist als wenn man einen Athlon einen Pentium nennen würde. :)
Der bisherige Qualcomm entspräche auch eher einem A8 Äquivalent (was FPU angeht eher Richtung A9), da In Order. Krait hingegen wäre ein A15 Äquivalent.

Hugo78
2012-06-30, 06:19:10
Krait hingegen wäre ein A15 Äquivalent.

Na ja, davon geh ich ja aus, dass es sich hier um ein A15 (based) S4 Quad + Adreno 320 handelt, oder nicht?!

robbitop
2012-06-30, 07:57:32
Na ja, davon geh ich ja aus, dass es sich hier um ein A15 (based) S4 Quad + Adreno 320 handelt, oder nicht?!
Nicht.
Ich habe es doch gerade erklärt. Qualcomm lizensiert keine ARM µ-Archs (Cortex Reihe) sondern nur deren Befehlssatz. Qualcomm entwickelt eigene. Das wäre als wenn du AMD und Intel vergleichst (allerdings nicht aus heutiger Sicht, wo Core alles wegdrückt sondern vieleicht in der Zeit als beide in etwa gleichstark waren).
Qualcomm hat halt den Snapdragon und den Krait. ARM hat den Cortex A8, den A9 und den A15.
Die sind schon anders. Das ist als wenn du einen Athlon einen Pentium nennen würdest.

Hugo78
2012-06-30, 13:44:22
Ok, habs gerafft.
Ich frag mich dann nur, wo sich ein Kraitkern ggü. einem A15 dann einordnet.

robbitop
2012-06-30, 13:55:34
Performancelevel ca:

A8 =/< Snapdragon << A9 << A15 = Krait

Zergra
2012-06-30, 19:01:34
Du redest von dem 4Kern Krait ? Der sollte sogar noch eine ecke über dem A15 liegen, wenn sich mal den DC schon anschaut...

robbitop
2012-06-30, 19:22:16
Du redest von dem 4Kern Krait ? Der sollte sogar noch eine ecke über dem A15 liegen, wenn sich mal den DC schon anschaut...
Pro Kern IPC natürlich. Und es gibt vom A15 AFAIK noch keine sehr verlässlichen Messwerte. Vom Krait nur einige wenige. Sie sollten am Ende auf eine sehr ähnliche IPC pro Kern kommen.

Ailuros
2012-07-02, 12:02:46
Krait ist zwar eine naechster Generation SFF CPU ist aber eben nicht A15 equivalent. Mein Bauchgefuehl sagt mir dass Krait gegenueber A15 sowohl Vor- als auch Nachteile haben koennte.

Qualcomm schliesst fuer die weniger vorhersehbare Zukunft nicht aus an eigene foundries zu denken:

http://www.xbitlabs.com/news/other/display/20120628234948_Qualcomm_Would_Not_Rule_Out_Building_Its_Own_Semiconductor_Fab.ht ml

robbitop
2012-07-03, 08:11:34
Und warum nicht A15 equivalent? Der angekündigte Performancesprung klingt ziemlich nach A15. Auch haben beide recht ähnliche Architekturgrunddaten:

3x Execution Pipelines
ähnlich lange Pipelines
ähnliche Cachegrößen
ähnliche Taktraten
Out of Order Execution
gleich breite Speicherinterfaces
pipelined FPUs
beide haben Vektor FPU Befehlserweiterungen

Was sagt dir, dass A15 und Krait nicht auf einer Stufe zu suchen sind? Und wer wird deiner Meinung nach schneller sein?

Eigene Foundry? Damit legen sie sich aber ein schönes Ei. Die Dinger haben erhebliche Fixkosten und man muss extrem viel hineinstecken, eh man dort ist, wo andere sind. Wenn man da überhaupt drankommt. Es ergibt viel mehr Sinn, wenn sie das Zeug bei mehreren Foundrys fertigen lassen.
Außerdem kann ich das Geheule wegen begrenzten 28 nm Kapazitäten nicht mehr hören. Jeder Fertiger - außer Intel - hat nunmal Probleme mit dem Prozess im Moment.

Nightspider
2012-07-05, 13:04:29
Laut diverser Quellen scheint Qualcomm nun auch bei Samsung und UMC zu produzieren.

Aber hat denn Samsung schon 28nm Fabriken?

Die aktuellsten Exynos SoCs von Samsung werden doch in einem 32nm Prozess gefertigt.

fondness
2012-07-05, 13:35:55
3x Execution Pipelines
ähnlich lange Pipelines
ähnliche Cachegrößen
ähnliche Taktraten
Out of Order Execution
gleich breite Speicherinterfaces
pipelined FPUs
beide haben Vektor FPU Befehlserweiterungen


Anhand solcher Daten kann man wohl kaum genauere Aussagen über die Performance tätigen. Mich würde es nicht wundern wenn ein Snapdragon höher einzustufen wäre als ein A15. Qualcomm hat einfach ganz andere Mittel zur Verfügung wie ARM. Es ist ja auch kein Zufall dass das Teil ein gutes Jahr vor dem A15 kommt.


Eigene Foundry? Damit legen sie sich aber ein schönes Ei. Die Dinger haben erhebliche Fixkosten und man muss extrem viel hineinstecken, eh man dort ist, wo andere sind. Wenn man da überhaupt drankommt. Es ergibt viel mehr Sinn, wenn sie das Zeug bei mehreren Foundrys fertigen lassen.
Außerdem kann ich das Geheule wegen begrenzten 28 nm Kapazitäten nicht mehr hören. Jeder Fertiger - außer Intel - hat nunmal Probleme mit dem Prozess im Moment.

Unterschätze die Größe von Qualcomm nicht, das ist ein ganz anderes Kaliber wie Nvidia oder AMD. Im Geschäftsjahr 2011 machte man bei ca. 15Mrd Umsatz 5Mrd Gewinn. Dazu kommen enorme Wachstumsraten (~30% pro Jahr!!). IMO dürfte Qualcomm bald eine Größenordnung erreichen wo es durchaus sinnvoll sein kann eine eigenen Foundry zu betreiben. Qualcomm dürfte jedenfalls sehr große Kapazitäten bei TSMC binden.

robbitop
2012-07-05, 13:51:48
Anhand solcher Daten kann man wohl kaum genauere Aussagen über die Performance tätigen. Mich würde es nicht wundern wenn ein Snapdragon höher einzustufen wäre als ein A15. Qualcomm hat einfach ganz andere Mittel zur Verfügung wie ARM. Es ist ja auch kein Zufall dass das Teil ein gutes Jahr vor dem A15 kommt.

Natürlich kann man es daran nicht genau abschätzen. Das ist klar. Aber es sind immerhin grobe Indizien. Mehr haben wir einfach nicht. Und solange nicht mehr vorhanden ist, gibt es keinen sinnvollen Grund, einen von beiden höher einzustufen.

Wo kommt Krait 1 Jahr vor A15? Es ist noch kein Krait in einem für Massen kaufbaren Mobiltelefon / Tablet. A15 steht auch kurz vor der Tür. Beide werden wenige Monate Abstand voneinander haben.



Unterschätze die Größe von Qualcomm nicht, das ist ein ganz anderen Kaliber wie Nvidia oder AMD. Im Geschäftsjahr 2011 machte man bei ca. 15Mrd Umsatz 5Mrd Gewinn. Dazu kommen enorme Wachstumsraten. IMO dürfte Qualcomm bald eine Größenordnung erreichen wo es durchaus sinnvoll sein kann eine eigenen Foundry zu betreiben. Qualcomm dürfte jedenfalls sehr große Kapazitäten bei TSMC binden.

Man machte keine 5 Mrd Gewinn sondern 1,915. Die 5 Mrd sind Net Income. Also vor Investitionen und vor Steuern.

Eine Fabrik kostet 5-10 Mrd Investition und muss alle 2 Jahre mit der gleichen Summe aufgerüstet werden. Betriebskosten liegen bei rund 500 Mio € / Jahr.
Das ließe sich vieleicht stämmen. Aber man müsste ersteinmal von 0 auf 100 an Fertigungsprozessen forschen. Man hat keine Patente - also muss man viele Patente dabei umgehen. Man hat kein Know How.
Das ist eine riesen Schwelle, die man nehmen muss.

Und diese Investitionen + höhere Fixkosten + HR muss sich ersteinmal durch eine eigene Fab wieder herausholen, damit es wirtschaftlich überhaupt Sinn ergibt!

Das heißt, dass man nicht nur mit TSMC preislich und technisch konkurrieren können muss sondern sogar noch besser sein muss! Wie lange dauert es, wenn man diesen Stand überhaupt erreicht, bis sich das lohnt? Wie groß ist der ROI?
Alles über ROI von 3 Jahren ist eine beschissene Investition.

Sowas lohnt sich nur, wenn es eh Core Know How ist und man quasi der Beste daran ist. Aber nicht in einem vollen Markt, bei dem man bei 0 anfangen müsste.

fondness
2012-07-05, 14:04:37
Wo kommt Krait 1 Jahr vor A15? Es ist noch kein Krait in einem für Massen kaufbaren Mobiltelefon / Tablet. A15 steht auch kurz vor der Tür. Beide werden wenige Monate Abstand voneinander haben.


Was hat das mit Massengeräten zu tun? Krait wird seit einiger Zeit in High-End-Geräten verbaut. Das diese nicht im Massenmarkt angeboten werden dürfte nicht zuletzt daran liegen das sich Qualcomm einen solchen Chip natürlich entsprechend bezahlen lässt bzw. an den knappen 28nm Kapazitäten. Was heißt A15 steht vor der Tür? Ich erwarte keine A15-Geräte im Retail-Markt vor 2013.


Eine Fabrik kostet 5-10 Mrd Investition und muss alle 2 Jahre mit der gleichen Summe aufgerüstet werden. Betriebskosten liegen bei rund 500 Mio € / Jahr.
Das ließe sich vieleicht stämmen. Aber man müsste ersteinmal von 0 auf 100 an Fertigungsprozessen forschen. Man hat keine Patente - also muss man viele Patente dabei umgehen. Man hat kein Know How.
Das ist eine riesen Schwelle, die man nehmen muss.


Know-How kann man sich einkaufen. Den Betriebskosten stehen ab einer gewissen Menge größere Einsparungen durch billigere Wafer gegenüber. Umsonst macht TSMC nicht beachtliche Gewinne.


Das heißt, dass man nicht nur mit TSMC preislich und technisch konkurrieren können muss sondern sogar noch besser sein muss! Wie lange dauert es, wenn man diesen Stand überhaupt erreicht, bis sich das lohnt? Wie groß ist der ROI?
Alles über ROI von 3 Jahren ist eine beschissene Investition.


Es geht nicht darum besser als TSMC zu sein, es geht darum exklusiv ausreichend Kapazitäten zur Verfügung zu haben bzw. den Prozess auch entsprechend auf die eigenen Bedürfnisse anpassen zu können.

robbitop
2012-07-05, 14:12:56
Was hat das mit Massengeräten zu tun? Krait wird seit einiger Zeit in High-End-Geräten verbaut. Das diese nicht im Massenmarkt angeboten werden dürfte nicht zuletzt daran liegen das sich Qualcomm einen solchen Chip natürlich entsprechend bezahlen lässt bzw. an den knappen 28nm Kapazitäten. Was heißt A15 steht vor der Tür? Ich erwarte keine A15-Geräte im Retail-Markt vor 2013.
In welchem Gerät ist ein Serien-Krait? Jetzt bitte keine Review / Engineering Samples. Engineering Samples vom A15 gibt es sicher auch schon seit geraumer Zeit.
Es zählt nur was kaufbar ist.



Know-How kann man sich einkaufen. Den Betriebskosten stehen ab einer gewissen Menge größere Einsparungen durch billigere Wafer gegenüber. Umsonst macht TSMC nicht beachtliche Gewinne.
Bei TSMC ist das aber auch Core-Know How. Das ist nunmal deren Steckenpferd. Seit Jahrzehnten. Jetzt anzufangen bei 0 und da hinzukommen ist eine ganz andere Nummer. Und die muss sich unter 3 Jahren finanziell lohnen - sonst ist es eine bescheuerte Entscheidung aus betriebswirtschaftlicher Sicht.
Ich will erstmal sehen, dass jemand von 0 dorthin kommt, ähnlich teuer/günstig wie TSMC zu fertigen. Da nochmal günstiger zu werden - dazu gehört sicher schon einiges.


Es geht nicht darum besser als TSMC zu sein, es geht darum exklusiv ausreichend Kapazitäten zur Verfügung zu haben bzw. den Prozess auch entsprechend auf die eigenen Bedürfnisse anpassen zu können.

Man muss erstmal auf die Performance vom TSMC Prozess kommen. Die ist offensichtlich nicht soo schlecht. Dann reden wir weiter. ;)
Mit 28 nm haben halt alle Fertiger Probleme. Das wäre bei Qualcomm nicht anders. TSMC haut AFAIK schon die größten Mengen an 28 nm raus.

Und nur weil dieses Mal der Prozess für eine Weile scheisse läuft, heißt es nicht, dass es immer so sein wird.
Wird man zum Fertiger ist das eine Entscheidung, die für Jahrzehnte binden kann. Das macht man nicht mal an einem schlechten Prozessanfang fest.

fondness
2012-07-05, 14:15:17
In welchem Gerät ist ein Serien-Krait? Jetzt bitte keine Review / Engineering Samples. Engineering Samples vom A15 gibt es sicher auch schon seit geraumer Zeit.
Es zählt nur was kaufbar ist.


zB: http://geizhals.at/eu/741553

Und die muss sich unter 3 Jahren finanziell lohnen - sonst ist es eine bescheuerte Entscheidung aus betriebswirtschaftlicher Sicht.


Wie ich diese pauschalen BWL-Erklärungen ohne Bezug zur Realität liebe. Dann dürfte auch Intel oder TSMC keine Fabriken bauen, denn in drei Jahren haben sich diese mit Sicherheit noch nicht finanziell geholt. Drei Jahre ab der Entscheidung eine Fabrik zu bauen beginnt vielleicht mal die Produktion.

dildo4u
2012-07-05, 14:31:58
Die neuen High-End Modelle in der US Version z.b das GS3 und HTC one X nutzen Dual-Core Kraits.Dort verzichtet man auf die Quads weil LTE Support wichtiger ist,Qualcomm fertigt wohl als einzigster auch das LTE Modem in 28nm.Quad+LTE würde wohl zu viel Strom verbrauchen und wird erst in 28nm eine Option.

Hier wurden alle High-End Chips gebencht.
http://www.theverge.com/2012/5/25/3042640/samsung-galaxy-s-iii-review

robbitop
2012-07-05, 14:33:09
zB: http://geizhals.at/eu/741553
Interessant. Und ich dachte bis dato Krait sei nicht kaufbar.
http://www.anandtech.com/show/5584/htcs-new-strategy-the-htc-one
Die Performance (ich sehe hier nur Browsermark und Sunspider) ist allerdings gemessen am A9 taktnormiert nicht besonders überragend.
Wenn ich das iPhone 4S mit 800 MHz Takt gegenüber dem MSM8260A mit 1,5-1,7 GHz vergleiche - naja aber vieleicht sind die beiden Benches auch nicht so geeignet für Vergleiche.


Wie ich diese pauschalen BWL-Erklärungen liebe. Dann dürfte auch Intel oder TSMC keine Fabriken bauen, denn in drei Jahren haben sich diese mit Sicherheit noch nicht finanziell geholt. Drei Jahre ab Baubeginn beginnt höchstens mal die Produktion.
Das kannst du doch gar nicht vergleichen. Das ist eine typische "Mache oder Kaufe" Entscheidung. Intel und TSMC wurden in diesem Markt Jahrzehnte lang groß. Das ist ja deren Kern Know How. Das ist nicht vergleichbar.
Der Markt ist nicht der gleiche wie zu Intels oder TSMCs einstieg. Und beide sind heute auf einem ganz anderen Level.

Das aufzuholen kostet einen sehr langen Atem und sehr viel Geld. Ob sich das rentiert ist eben die große Frage. Es geht ein recht hohes Risiko und recht hohe laufende Kosten damit einher.
Wenn jetzt natürlich eine Fertigung auslastbar wäre durch Qualcomm (und das mit garantierter Auslastung auf Lebenszeit der Anlagen) und man ganz klar voraussehen kann, dass man damit auch noch günstiger wird als die Auftragsfertiger - und zwar massiv günstiger - dann keine Frage!
Aber das sehe ich ehrlich gesagt nicht.
Ich sehe auch nicht, was sie bei 28 nm groß hätten anders machen können. GF ist bis heute noch nicht fertig mit 28 nm, UMC und Samsung kommen auch erst in den nächsten Monaten dahin. TSMC ist am längsten dort aber offensichtlich noch mit begrenztem Ausstoß.
Und da will ein Newcomer alles besser machen?

fondness
2012-07-05, 14:33:21
Die neuen High-End Modelle in der US Version z.b das GS3 und HTC one X nutzen Dual-Core Kraits.Dort verzichtet man auf die Quads weil LTE Support wichtiger ist,Qualcomm fertigt wohl als einzigster auch das LTE Modem in 28nm.Quad+LTE würde wohl zu viel Strom verbrauchen und wird erst in 28nm eine Option.

Ein Dual-Core-Krait ist auch so jeden A9 Quad-Core vorzuziehen. Das LTE-Modem ist im Snapdragon S4 AFAIK integriert.

fondness
2012-07-05, 14:35:12
Interessant. Und ich dachte bis dato Krait sei nicht kaufbar.
http://www.anandtech.com/show/5584/htcs-new-strategy-the-htc-one
Die Performance (ich sehe hier nur Browsermark und Sunspider) ist allerdings gemessen am A9 taktnormiert nicht besonders überragend.
Wenn ich das iPhone 4S mit 800 MHz Takt gegenüber dem MSM8260A mit 1,5-1,7 GHz vergleiche - naja aber vieleicht sind die beiden Benches auch nicht so geeignet für Vergleiche.


Dort wurde deutlich mehr getestet das auch die CPU fordert und nicht die GPU: http://www.anandtech.com/show/5559/

Vorallem die Single-Thread Werte sind beachtlich.

robbitop
2012-07-05, 14:36:04
Ein Dual-Core-Krait ist auch so jeden A9 Quad-Core vorzuziehen.
Das sehe ich auch so. Aber bislang habe ich leider noch keine Benchmarks mit CPU Limit gesehen, die zeigen, wieviel mehr Leistung das Ding taktnormiert bringt. Die Anandtechbenches sahen eher schlecht aus.

dildo4u
2012-07-05, 14:39:13
Ein Dual-Core-Krait ist auch so jeden A9 Quad-Core vorzuziehen. Das LTE-Modem ist im Snapdragon S4 AFAIK integriert.
Der Samsung SOC hat ne wesentlich bessere GPU daher kommt's auf die Nutzung an.

Benches
http://www.theverge.com/2012/5/25/3042640/samsung-galaxy-s-iii-review

robbitop
2012-07-05, 14:39:23
Dort wurde deutlich mehr getestet das auch die CPU fordert und nicht die GPU: http://www.anandtech.com/show/5559/

Vorallem die Single-Thread Werte sind beachtlich.
Ah das ist doch sehr nett.
linpack ist aber auffällig. Da muss irgendwas in der FPU unoptimiert im A9 sein bzw optimiert im Krait.
Ansonsten sehe ich 30 - 40 % IPC Plus. Das ist sehr sehr nett! Ich gehe davon aus, dass der A15 aber auf ähnliche Steigerungen kommen wird.

Schade, dass Qualcomm solche Gurken-GPUs verbaut. Ein großer PowerVR Rogue würde dem gut stehen...

Nightspider
2012-07-05, 16:09:47
Die Aussage Dual-A15 > Quad-A9 gilt aber auch nur wenn die GPUs gleich schnell sind.

Vor allem da Handys und Smartphones stärker abhängig von der GPU Leistung sind.

Man sieht ja wie schnell Apples SoCs sind, trotz lahmen A9 DualCore mit 1Ghz.

dildo4u
2012-07-05, 16:14:44
Man sieht ja wie schnell Apples SoCs sind, trotz lahmen A9 DualCore mit 1Ghz.
Das zeigt eher das iOS nicht aufwändiger geworden ist,das eigentliche UI hat sich die letzten 5 Jahre nicht geändert und war auf ein Single Core mit weniger als 1Ghz ausgelegt.Ich glaube IOS6 kommt ja sogar noch für das iphone 3GS.

robbitop
2012-07-05, 17:17:33
Die Aussage Dual-A15 > Quad-A9 gilt aber auch nur wenn die GPUs gleich schnell sind.

Vor allem da Handys und Smartphones stärker abhängig von der GPU Leistung sind.

Man sieht ja wie schnell Apples SoCs sind, trotz lahmen A9 DualCore mit 1Ghz.
Eigentlich sind Smartphones - außerhalb von Spielen - jetzt nicht so GPU abhängig. Das UI zu rendern ist eigentlich Kindergarten.
Beim Surfen z.B. ist die CPU und vieleicht das Speicherinterface (bei guter Internetverbindung!) der Flaschenhals.
Viele Anwendungen sind eben noch mit Seriellem Code (vieles ist prinzipbedingt auch nicht parallelisierbar) - somit sind 2x schnelle CPUs bei einem Smartphone mMn 4x nicht ganz so schnellen vorzuziehen.

Ein Krait mit einem SGX 543-4MP (siehe iPad) oder besser einem Rogue würde auch in den 3D Benchmarks alle Quadcores einfach nur versägen.
Die Qualcomm Grafik wird dann zum Flaschenhals. (aber ernsthafte 3D Spiele auf dem Handy sind meistens aufgrund des Bildschirms und der Spielsteuerung sowieso nichts wirklich Ernsthaftes - insofern ist es halb so schlimm)

In sofern freue ich mich schon auf die 2013er SoCs mit A15 + Rogue!

Nightspider
2012-07-05, 18:07:30
Im würde behaupten das die GPU im Moment ausschlaggebender für die Leistung beim Surfen ist als die CPU. Man hat ja bei den letzten beiden iPhone Generation gesehen, das bei kaum steigender CPU Leistung die GPU Leistung dramatisch besser geworden ist während sich gleiches bei der Surfgeschwindigkeit widergespiegelt hat.

Allerdings ist es durchaus möglich das wie bald im CPU Limit landen, bei den derart schnellen GPUs in den mobilen Geräten. Viel Spielraum dürfte selbst mit extremer GPU Beschleunigung nicht drin sein, wenn die CPU Leistung stagniert.

Allerdings dürfte ARMs neue Cortex A15 Architektur die gesamt Bedienung nochmal ein Stück schneller machen.

Allerdings dürfte 2013 der größte Sprung bevor stehen, wenn neben der ARM A15 Architektur auch die neuen Grafik-Architekturen in die SoCs von Samsung und Apple einzug halten.

Am meisten erwarte ich mir bis zum Ende des Jahres von Samsungs Exynos 5er Generation mit ARM A15 Cores und potenter Grafikeinheit. Gut möglich das Samsung die DualCore-Varianten mit bis zu 1,8 Ghz ausliefert. (Zum Vergleich: Der A9 DualCore im Galaxy Note wird auch mit 1,8Ghz betrieben und die A15 Architektur hat mehr Potential für höhere Taktraten)

dildo4u
2012-07-05, 18:18:48
Bessere Software macht den Unterschied beim surfen aus garantiert nicht die GPU.


Hier das Nexus mit 4.0 ist deutlich schneller als das Galaxy S2 mit 2.3.Das selbe mit Safari Ipad 3 ist z.b kaum schneller als ein 4S mit der selben Software,obwohl die GPU deutlich schneller ist.
http://images.anandtech.com/graphs/graph5770/45976.png

Nightspider
2012-07-05, 18:36:47
Die Software trägt ihren Teil dazu bei aber das iPad3 muss ja auch die 4fache Pixelzahl rendern/beschleunigen.

robbitop
2012-07-06, 09:14:05
Im würde behaupten das die GPU im Moment ausschlaggebender für die Leistung beim Surfen ist als die CPU. Man hat ja bei den letzten beiden iPhone Generation gesehen, das bei kaum steigender CPU Leistung die GPU Leistung dramatisch besser geworden ist während sich gleiches bei der Surfgeschwindigkeit widergespiegelt hat.

Die letzten beiden Generationen waren das 4er und das 4S. Das 4S hat eine massiv schnellere CPU. Out of order vs. In Order + Dual Core.

Wie gesagt: das einzige was die GPU tun kann, ist das UI rendern. Das ist Kindergeburtstag. Man hat quasi keine Geometrie, keine besonders aufwändigen Shader zu rechnen. Das sind quasi nur Texturen. Da wird im Gegensatz zu einem Spiel ein Pixel in einer sehr sehr geringen Anzahl von Takten fertig.

Wenn es noch andere Limits außer der CPU beim Surfen geben sollte, dann vieleicht der Browsercache oder die Netzwerkverbindung.


Allerdings ist es durchaus möglich das wie bald im CPU Limit landen, bei den derart schnellen GPUs in den mobilen Geräten. Viel Spielraum dürfte selbst mit extremer GPU Beschleunigung nicht drin sein, wenn die CPU Leistung stagniert.
Wie gesagt: die GPU kann beim Browsen nichts machen außer die UI zu rendern.



Allerdings dürfte 2013 der größte Sprung bevor stehen, wenn neben der ARM A15 Architektur auch die neuen Grafik-Architekturen in die SoCs von Samsung und Apple einzug halten.
In 3D oder Computeanwendungen ja. Das OS und der Browser werden jedoch nur durch die CPU schneller.
Was Android da bei der Beschleunigung des Interfaces seit Jahren macht, ist mir allerdings schleierhaft.
IOS und Win7 Mobile laufen mit 60 fps GPU beschleunigt und bei Android braucht man für flüssige Darstellung einen schnellen A9 Dualcore. Offensichtlich ist selbst bei Android 4 noch nicht alles richtig beschleunigt. Soll aber schon massiv besser geworden sein im Vergleich mit Version 2.x.

Am meisten erwarte ich mir bis zum Ende des Jahres von Samsungs Exynos 5er Generation mit ARM A15 Cores und potenter Grafikeinheit. Gut möglich das Samsung die DualCore-Varianten mit bis zu 1,8 Ghz ausliefert. (Zum Vergleich: Der A9 DualCore im Galaxy Note wird auch mit 1,8Ghz betrieben und die A15 Architektur hat mehr Potential für höhere Taktraten)
Der Exynos hat nur den blöden ARM Mali drin. Viel interessanter dürften die SoCs mit dem großen Rogue als GPU werden.

z.B. den hier:
http://www.itproportal.com/2011/02/16/st-ericsson-announces-25ghz-cortex-a15-rogue-gpu/

Ailuros
2012-07-06, 10:16:06
Eigentlich sind Smartphones - außerhalb von Spielen - jetzt nicht so GPU abhängig. Das UI zu rendern ist eigentlich Kindergarten.

Kommt drauf an was smart-phones genau machen muessen:

http://www.youtube.com/watch?v=B-RuuD2gR-c

Natuerlich handelt es sich um ein Marketing-video, aber ich wuerde an der Stelle eines SoC Hersteller Gesten und co. eben nicht auf die CPU schleussen.

Noch weiter: http://www.eetindia.co.in/ART_8800668818_1800012_NT_10322bab.HTM?click_from=8800095140,8629866839,2012-06-13,EEIOL,ARTICLE_ALERT

Dieses alberne Maerchen dass SFF GPUs nur UI und 3d bearbeiten werden sollte so langsam sterben. GPU Bloecke werden zunehmend wachsen ab 28nm fuer alle SoC Hersteller und GFLOPs werden auf den GPUs regelrecht explodieren und wohl mit Sicherheit nicht um nur UI und 3D zu rendern.

robbitop
2012-07-06, 10:25:39
Kommt drauf an was smart-phones genau machen muessen:

http://www.youtube.com/watch?v=B-RuuD2gR-c

Natuerlich handelt es sich um ein Marketing-video, aber ich wuerde an der Stelle eines SoC Hersteller Gesten und co. eben nicht auf die CPU schleussen.

Noch weiter: http://www.eetindia.co.in/ART_8800668818_1800012_NT_10322bab.HTM?click_from=8800095140,8629866839,2012-06-13,EEIOL,ARTICLE_ALERT

Dieses alberne Maerchen dass SFF GPUs nur UI und 3d bearbeiten werden sollte so langsam sterben. GPU Bloecke werden zunehmend wachsen ab 28nm fuer alle SoC Hersteller und GFLOPs werden auf den GPUs regelrecht explodieren und wohl mit Sicherheit nicht um nur UI und 3D zu rendern.
Mir ging es um den Browser und dessen Rendergeschwindigkeit und das allgemeine UI. Und das wird eben durch die GPU nur begrenzt beschleunigt. UI Rendering halt.

Das Video ist wirklich albern. Aber klar gibt es viele potenzielle Einsatzzwecke für Compute und 3D. Im Moment sind es mehrheitlich Spiele auf den Smartphones.

Ailuros
2012-07-06, 10:43:07
Wie gesagt: die GPU kann beim Browsen nichts machen außer die UI zu rendern.
In 3D oder Computeanwendungen ja. Das OS und der Browser werden jedoch nur durch die CPU schneller.

iOS oder andere mobile OSs sind wohl ueberhaupt nicht compute orientiert oder?

Was Android da bei der Beschleunigung des Interfaces seit Jahren macht, ist mir allerdings schleierhaft.

Bleibt die Frage dann woher genau die obrige Schlussfolgerung genau kommt.


Der Exynos hat nur den blöden ARM Mali drin. Viel interessanter dürften die SoCs mit dem großen Rogue als GPU werden.

Der "bloede" ARM Mali unter 32nm laeuft als MP4 auf 450MHz und bestueckt momentan die schnellsten smartphones (hauptsaechlich von Samsung) was 3D und co. betrifft.

http://www.glbenchmark.com/compare.jsp?benchmark=glpro21&showhide=true&certified_only=1&D1=Samsung%20GT-I9300%20Galaxy%20S%20III&D2=Apple%20iPad%202

Als smartphone sogar schneller als iPad2. So "bloed" :rolleyes:

z.B. den hier:
http://www.itproportal.com/2011/02/16/st-ericsson-announces-25ghz-cortex-a15-rogue-gpu/

Verfuegbar wohl nicht bevor H2 2013 in Geraeten, eben weil ST Micro stets ein zu volles Maul von Versprechungen hat und endlos herumw***ste bis sie endlich eine foundry fuer ihre SoCs finden konnten da ihre eigene foundries nur veralteten Mist herstellen. Davon abgesehen wird Rogue gegen ARM Mali T6xx antreten, NV Wayne, Adreno 3xx und dergleichen.

Momentan erhaeltlich ist lediglich Adreno320 von der neuen OGL_ES3.0 GPU Generation und es sollte uns schon etwas sagen was die execution von Qualcomm insgesamt gegen jegliche Konkurrenz betrifft. Nur einen kleinen Schnitt unter iPad3 Leistung:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro21&showhide=true&certified_only=1&D1=LG%20LS970&D2=Apple%20iPad%203

Wieder ein smartphone gegen ein tablet design.

Exynos 5xxx werden uebrigens dual A15 mit einem ARM Mali T604 kombinieren. Die Effizienz des letzteren ist zwar unbekannt aber die GPU gehoert zur naechsten Generation. Es wird wohl mit aller Wahrscheinlichkeit nicht das Wasser zu einem Rogue reichen koennen (ueberhaupt im floating point Feld), aber ich will das Ding erstmal getestet sehen in Echtzeit bevor ich irgendwelche vorzeitige Schlussvolgerungen ziehe.

Kurz: es ist um einiges waermer geworden im SFF GPU und ich erwarte auch dass das Thermometer der Konkurrenz insgesamt steigen wird. Der eigentliche Ball im Feld ueberhaupt was tablets betrifft ist immer noch Apple und das hauptsaechlich weil Apple mit ihren Volumen bzw. Strategie viel mehr Entwickler anziehen kann. In dem Bereich steht die insgesamte Konkurrenz (ausser Amazon die auch ein Kapitel fuer sich sind) wohl eher wirklich dumm da, denn hw alleine von sich selber ist eben nicht alles.

Mir ging es um den Browser und dessen Rendergeschwindigkeit und das allgemeine UI. Und das wird eben durch die GPU nur begrenzt beschleunigt. UI Rendering halt.

Ist eben nicht so; im Notfall frag mal ein bisschen herum was in mobilen OSs im Hintergrund wirklich genau vorlaeuft. iOS war von Anfang an compute orientiert.

Das Video ist wirklich albern. Aber klar gibt es viele potenzielle Einsatzzwecke für Compute und 3D. Im Moment sind es mehrheitlich Spiele auf den Smartphones.

Ob Du z.B. Gesten als albern empfindest ist hier nicht der Punkt. Es ist eine existierende Realitaet ueberhaupt fuer jeglichen i-Quark und es ist ein Trend der sich u.a. durchaus weiter-entwickeln wird. U.a. auch anderes Zeug wie recognition, voice oder egal welch anderen Humbug.

Da Du selber den ST Ericsson Novathor A9600 erwaehnt hast, erzaehl mal wieviele FLOPs ein 2*A15@2.5GHz erreichen wird und wieso die GPU in diesem ploetzlich mit >210GFLOPs ausgestattet ist.

http://withimagination.imgtec.com/?p=477

http://withimagination.imgtec.com/wp-content/uploads/2012/06/033_cpu_vs_gpu_GFLOPS.png

Die blaue Kurve sollte wohl helfen dass der Groschen faellt.

robbitop
2012-07-06, 11:04:28
iOS oder andere mobile OSs sind wohl ueberhaupt nicht compute orientiert oder?

Denke ich nicht. Nein. Jedenfalls nicht wesentlich. Für Pupskram vieleicht.



Bleibt die Frage dann woher genau die obrige Schlussfolgerung genau kommt.
Android ist einfach - zumindest bis vor kurzem - extrem lahm was die Oberflächenbeschleunigung angeht. Das ist jetzt mit roher Gewalt (Dual Core A9 > 1 GHz) und mehr GPU Beschleunigung (UI Rendern!) besser geworden.

Tut mir leid - aber das ist pure Logik. Was willst du da mit Compute machen?




Der "bloede" ARM Mali unter 32nm laeuft als MP4 auf 450MHz und bestueckt momentan die schnellsten smartphones (hauptsaechlich von Samsung) was 3D und co. betrifft.

http://www.glbenchmark.com/compare.jsp?benchmark=glpro21&showhide=true&certified_only=1&D1=Samsung%20GT-I9300%20Galaxy%20S%20III&D2=Apple%20iPad%202

Als smartphone sogar schneller als iPad2. So "bloed" :rolleyes:
Für 2011 wäre das vieleicht noch atemberaubend gewsen, für 2012 immernoch spitze. Aber 2013 kommt Rogue.
Die Konkurrenz hächelt IMG im Moment offenbar 1 Jahr hinterher. Der Mali 400 ist auch noch DX9 während Rogue mit DX11 antanzt.

"blöd" war natürlich übertrieben ausgedrückt.



Verfuegbar wohl nicht bevor H2 2013 in Geraeten, eben weil ST Micro stets ein zu volles Maul von Versprechungen hat und endlos herumw***ste bis sie endlich eine foundry fuer ihre SoCs finden konnten da ihre eigene foundries nur veralteten Mist herstellen. Davon abgesehen wird Rogue gegen ARM Mali T6xx antreten, NV Wayne, Adreno 3xx und dergleichen.
Schlechte Execution von ST. Gibt es keinen anderen SoC in 2013 mit Rogue?
Wenn man sich die Rechenleistungssteigerung vom großen Rogue anschaut und das Featureset, sieht auch die Nextgen Konkurrenz alt aus. (NV ist da noch eine große Unbekannte)

Momentan erhaeltlich ist lediglich Adreno320 von der neuen OGL_ES3.0 GPU Generation und es sollte uns schon etwas sagen was die execution von Qualcomm insgesamt gegen jegliche Konkurrenz betrifft. Nur einen kleinen Schnitt unter iPad3 Leistung:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro21&showhide=true&certified_only=1&D1=LG%20LS970&D2=Apple%20iPad%203
Naja aber iPad 3 ist halt Q1 2012. Und Adreno ist 2013. Da gelten andere Maßstäbe.



Ist eben nicht so; im Notfall frag mal ein bisschen herum was in mobilen OSs im Hintergrund wirklich genau vorlaeuft. iOS war von Anfang an compute orientiert.
Da wird mMn mehr getönt und gebrüllt als es wirklich bringt. Ein OS und ein Browser haben prinzipbedingt einen sehr sehr seriellen Code. Was willst du da mit Compute machen? Compute muss der Code massiv parallel, geordnet sein und Latenz muss egal sein.

Es ist so schwer, wirklich gute Anwendungen für Compute zu finden. Für Strömungsberechnungen, für 3D, für Simulationen etc ist das gut. Selbst für stark parallelisierbares Videoencoding ist Compute nur sehr sehr begrenzt nutzbar, wenn die Qualität nicht zum Teufel gehen soll.

Was willst du denn da bei einem OS machen oder bei einem Browser.
Sorry ich halte das für Hoax. Vieleicht kann sich ja ein Coda oder ein Demirug mal dazu äußern.



Ob Du z.B. Gesten als albern empfindest ist hier nicht der Punkt. Es ist eine existierende Realitaet ueberhaupt fuer jeglichen i-Quark und es ist ein Trend der sich u.a. durchaus weiter-entwickeln wird. U.a. auch anderes Zeug wie recognition, voice oder egal welch anderen Humbug.
Das ist ja gar nicht das Thema hier. Ich empfand den Spot als albern.

Da Du selber den ST Ericsson Novathor A9600 erwaehnt hast, erzaehl mal wieviele FLOPs ein 2*A15@2.5GHz erreichen wird und wieso die GPU in diesem ploetzlich mit >210GFLOPs ausgestattet ist.

Als wenn reine Rechenleistungsangaben irgendwo relevant wären...
GPUs sind gut im parallelen Code mit hohen Latenzen. Sie haben viel Ausführungseinheiten die für sich gesehen einfach und billig sind. Sie holen das Gesamtergebnis über Parallelität.
Das ist für bestimmte Aufgaben toll! Sonst gäbe es sie nicht. Bei eben allem, was in dieses Schema hereinpasst.

CPUs haben nur vergleichsweise wenig Rechenleistung, können aber super gut seriellen, unsortieren Code sehr schnell verarbeiten. Und das ist nunmal die harte Realität. Und zwar in den allermeisten Fällen.

Sonst wäre es Intel gar nicht so wichtig, so imense IPC Steigerungen zu bringen. Was das an Forschung kostet.
Das hat schon seinen Sinn.



http://withimagination.imgtec.com/?p=477

http://withimagination.imgtec.com/wp-content/uploads/2012/06/033_cpu_vs_gpu_GFLOPS.png

Die blaue Kurve sollte wohl helfen dass der Groschen faellt.

Wie gesagt: für typische Compute/3D Fälle ist das toll. Und davon werden auch immer mehr erscheinen. Deine blöden Gesten, immer mehr 3D lastiges, immer mehr rechenlastiges - was weiß ich.
Aber für Dinge wie eine UI oder einen Browser im Hier und Jetzt bringt das genau gar nichts. ;)

Tiamat
2012-07-06, 11:18:02
Ah das ist doch sehr nett.
linpack ist aber auffällig. Da muss irgendwas in der FPU unoptimiert im A9 sein bzw optimiert im Krait.
Ansonsten sehe ich 30 - 40 % IPC Plus. Das ist sehr sehr nett! Ich gehe davon aus, dass der A15 aber auf ähnliche Steigerungen kommen wird.

Schade, dass Qualcomm solche Gurken-GPUs verbaut. Ein großer PowerVR Rogue würde dem gut stehen...

Die Neon(SIMD) Einheiten sind in Krait einfach 128bit im Gegensatz zu 64bit beim A9. Krait kann somit also 2 64bit Befehle pro Takt ausführen. Das ist das ganze Geheimnis.

Ailuros
2012-07-06, 11:36:21
Denke ich nicht. Nein. Jedenfalls nicht wesentlich. Für Pupskram vieleicht.

Du "denkst" ist durchaus ueberzeugend.


Android ist einfach - zumindest bis vor kurzem - extrem lahm was die Oberflächenbeschleunigung angeht. Das ist jetzt mit roher Gewalt (Dual Core A9 > 1 GHz) und mehr GPU Beschleunigung (UI Rendern!) besser geworden.

Tut mir leid - aber das ist pure Logik. Was willst du da mit Compute machen?

Es gibt keine Logik so lange es keine Beweisse dafuer gibt. Ich behaupte auch nicht dass hier eine GPU alles oder vieles beschleunigt, aber es bleibt dabei dass mir Dein Bauchgefuehl eben nicht reicht dass GPUs ausserhalb UIs nur dumm herum hocken und Pullover stricken.


Für 2011 wäre das vieleicht noch atemberaubend gewsen, für 2012 immernoch spitze. Aber 2013 kommt Rogue.
Die Konkurrenz hächelt IMG im Moment offenbar 1 Jahr hinterher. Der Mali 400 ist auch noch DX9 während Rogue mit DX11 antanzt.

Mali400 ist Series5/5XT Konkurrenz welches in der Mehrzahl rein zufaellig auch "nur" DX9 ist. Rogue wird gegen T6xx antreten wobei beide DX11 sind. Zeig mir doch ein heutiges Geraet mit Rogue als GPU dass ich kaufen kann...

"blöd" war natürlich übertrieben ausgedrückt.

Siehe oben; wenn es nur die einzige Uebertreibung bzw. falsche Perspektive waere.

Schlechte Execution von ST. Gibt es keinen anderen SoC in 2013 mit Rogue?

Es wird mehrere geben. Hat aber nichts mit der Tatsache zu tun dass Rogue zeitlich gegen ARM Mali T6xx (bis zu DX11), NV Wayne antanzen wird und nicht frueher.

Wenn man sich die Rechenleistungssteigerung vom großen Rogue anschaut und das Featureset, sieht auch die Nextgen Konkurrenz alt aus. (NV ist da noch eine große Unbekannte).

Was ist der "grosse" Rogue genau? A9600 hat eine 4 cluster GPU, oder MP4 wenn's besser passt. Wenn Stromverbrauch egal ist geht es sogar ueber MP32 fuer zukuenftige Varianten. Aendert aber trotzdem nichts daran dass IMG's Konkurrenz nur einfach dumm herumhockt.

Und um es auf eine logischere Basis zu setzen: Mali T6xx hat "natives" FP64 welches wohl keine andere SFF GPU der Generation haben wird.

Naja aber iPad 3 ist halt Q1 2012. Und Adreno ist 2013. Da gelten andere Maßstäbe.

Wo ist Adreno320 ploetzlich 2013? Adreno320 wurde in einem realem Geraet gestest im obrigen Link.

Da wird mMn mehr getönt und gebrüllt als es wirklich bringt. Ein OS und ein Browser haben prinzipbedingt einen sehr sehr seriellen Code. Was willst du da mit Compute machen? Compute muss der Code massiv parallel, geordnet sein und Latenz muss egal sein.

Dann spinnt eben die insgesamte Industrie dass sie so viel die area fuer GPUs verplempern heute und noch mehr in der Zukunft.



Wie gesagt: für typische Compute/3D Fälle ist das toll. Und davon werden auch immer mehr erscheinen. Deine blöden Gesten, immer mehr 3D lastiges, immer mehr rechenlastiges - was weiß ich.
Aber für Dinge wie eine UI oder einen Browser im Hier und Jetzt bringt das genau gar nichts. ;)

Dann interessieren mich Deine bloeden Bauchgefuehle genau so wenig. Frag einen Entwickler es kostet nichts. Nochmal ich hab nie behauptet dass hier die GPU fett mitspielt, aber gar nichts ist eben nur Deine persoenliche Meinung ohne jeglichen Hintergrund.

fondness
2012-07-06, 11:45:30
Naja aber iPad 3 ist halt Q1 2012. Und Adreno ist 2013. Da gelten andere Maßstäbe.

Adreno 320 ist verfügbar. Das ist eben der Unterschied zu den andere, Qualcomm liefert auch ab. Die anderen liefern höchstens tolle Folien.

robbitop
2012-07-06, 12:09:41
Du "denkst" ist durchaus ueberzeugend.

...

Es gibt keine Logik so lange es keine Beweisse dafuer gibt. Ich behaupte auch nicht dass hier eine GPU alles oder vieles beschleunigt, aber es bleibt dabei dass mir Dein Bauchgefuehl eben nicht reicht dass GPUs ausserhalb UIs nur dumm herum hocken und Pullover stricken.

Das ist prinzipbedingt so. Was bitte ist dort an parallelem Code vorhanden? Quasi gar nichts. Außer das Rendering eben. Und genau das machen GPUs bei Win-Phone und iOS seit Ewigkeiten. Und genau deshalb rennt es dort so flüssig.




Mali400 ist Series5/5XT Konkurrenz welches in der Mehrzahl rein zufaellig auch "nur" DX9 ist. Rogue wird gegen T6xx antreten wobei beide DX11 sind. Zeig mir doch ein heutiges Geraet mit Rogue als GPU dass ich kaufen kann...
Ok - ich dachte da wäre nur der Mali400 drin. Wenn da der T6xx drin ist, ist es was anderes.



Und um es auf eine logischere Basis zu setzen: Mali T6xx hat "natives" FP64 welches wohl keine andere SFF GPU der Generation haben wird....
Und? Das braucht man selbst für Compute in nur wenigen Fällen. Das wird halt geloopt. Das ist, wenn man kein Problem damit hat, dass es nur ein n - tel der SP Leistung ist, nicht so teuer.



Wo ist Adreno320 ploetzlich 2013? Adreno320 wurde in einem realem Geraet gestest im obrigen Link.
Stimmt - Adreno 320 war noch DX9 Techlevel, right?



Dann spinnt eben die insgesamte Industrie dass sie so viel die area fuer GPUs verplempern heute und noch mehr in der Zukunft.
Das ist eben ein Henne-Ei Problem. Heute sind es halt Spiele und sonstige 3D Anwendungen wie Karten/Navigation in 3D. Wer weiß, was es morgen ist.

Fürs Browsen bringt es jedenfalls nix. Also wenn man das Rendern mal ausklammert. Das kann jede erhältliche SoC GPU technisch problemlos mit 60 fps - sofern kein CPU Limit vorliegt.




Dann interessieren mich Deine bloeden Bauchgefuehle genau so wenig. Frag einen Entwickler es kostet nichts. Nochmal ich hab nie behauptet dass hier die GPU fett mitspielt, aber gar nichts ist eben nur Deine persoenliche Meinung ohne jeglichen Hintergrund.
Das habe ich nicht gesagt! Außer Rendering kaum etwas habe ich gesagt. Also so, dass eine größere GPU beim Surfen keinen Vorteil bringt. Wenn ich das richtig sehe, meinen wir dann doch fast das gleiche, oder nicht?

Es ist einfach prinzipbedingt so. An nem Browser und einem OS ist fast nichts parallel.
Wenn Entwickler von GPU Beschleunigung reden, dann meinen sie hundertprozentig den Renderprozess. Und der ist für mobile GPUs nunmal Kindergeburtstag.
Sicher ist es besser als ohne - aber das ist definitiv kein Flaschenhals. Jedenfalls nicht so, dass man für diesen Zweck eine größere GPU bräuchte. Die sind dafür groß genug.
Größere GPUs brauchst du dann für aufwändigere Compute Tasks oder eben schickere 3D Spiele. Womit Wirbt Qualcomm im S4 pro Video? Ja mit einem Spiel. ;)

Adreno 320 ist verfügbar. Das ist eben der Unterschied zu den andere, Qualcomm liefert auch ab. Die anderen liefern höchstens tolle Folien.

Naja aber Adreno 320 ist nunmal nicht wirklich Nextgen. DX9 Techlevel und nicht schneller als iPad3.


Letztenendes explodiert der GPU SoC Markt einfach so sehr, weil es ein Wachstumsmarkt mit guten Margen ist, der seit Aufkommen des iPhones und des Tablets richtig aufgewacht ist. Dadurch gab es immer härtere Konkurrenz. Und womit setzt man sich am besten an die Spitze? Mit Leistung - völlig klar!

Ailuros
2012-07-06, 14:42:37
Das ist prinzipbedingt so. Was bitte ist dort an parallelem Code vorhanden? Quasi gar nichts. Außer das Rendering eben. Und genau das machen GPUs bei Win-Phone und iOS seit Ewigkeiten. Und genau deshalb rennt es dort so flüssig.

Frag nach. Auf jeden Fall faellt beim browsing nicht 100% nur auf die CPU.


Und? Das braucht man selbst für Compute in nur wenigen Fällen. Das wird halt geloopt. Das ist, wenn man kein Problem damit hat, dass es nur ein n - tel der SP Leistung ist, nicht so teuer.

Lediglich eines der vielen Indizien dass T6xx zur naechsten GPU Generation gehoert.

Stimmt - Adreno 320 war noch DX9 Techlevel, right?

Sagt wer? 3xx duerfte Halti compliant sein ergo wohl eher zumindest ~DX10.

Das ist eben ein Henne-Ei Problem. Heute sind es halt Spiele und sonstige 3D Anwendungen wie Karten/Navigation in 3D. Wer weiß, was es morgen ist.

Eben nicht; CPU cores koennen weder endlos in Anzahl skalieren, noch sind in solchen Faellen sehr extravagante Frequenzen moeglich. Damit Leistung zunehmend auf SFF SoCs in der Zukunft zunehmend skaliert, ist die GPU der einzig logische Ausweg.

Fürs Browsen bringt es jedenfalls nix. Also wenn man das Rendern mal ausklammert. Das kann jede erhältliche SoC GPU technisch problemlos mit 60 fps - sofern kein CPU Limit vorliegt.

Wie gesagt von mir aus bleib bei Deinem "nichts" wenn Du mir nichts Dir nichts mit dem Kopf durch die Wand rennen willst. Auf jeden Fall sind GPUs beim browsen nicht im totalen idle status.

Das habe ich nicht gesagt! Außer Rendering kaum etwas habe ich gesagt. Also so, dass eine größere GPU beim Surfen keinen Vorteil bringt. Wenn ich das richtig sehe, meinen wir dann doch fast das gleiche, oder nicht?

Browsing betrifft nicht nur text bzw. e-books oder?


Naja aber Adreno 320 ist nunmal nicht wirklich Nextgen. DX9 Techlevel und nicht schneller als iPad3.

Und wieder besteht Du auf einer vorzeitigen Schlussvolgerung die auf keinen Fakten basiert sondern Deinem Bauchgefuehl. Beweis es erstmal dass 320 nur DX9 ist.

Letztenendes explodiert der GPU SoC Markt einfach so sehr, weil es ein Wachstumsmarkt mit guten Margen ist, der seit Aufkommen des iPhones und des Tablets richtig aufgewacht ist. Dadurch gab es immer härtere Konkurrenz. Und womit setzt man sich am besten an die Spitze? Mit Leistung - völlig klar!

Ob Apple oder nicht, bleibt es eine Tatsache dass GPU ALUs um zich Mal einfacher und billiger sind zu skalieren in einem SoC als CPU cores und hohe CPU Frequenzen verbraten einfach zu viel Strom.

Als Apple mit dem i-Zeug angefangen hat, waeren die integrierten IMG GPU IPs alles andere als das neueste Kind auf dem Markt; es ging erst ab iPad2 los.

Ausserdem ist Apple nicht IMG's einziger Lizenznehmer und Apple hat einen langjaehrigen multi-Lizenz Vertrag mit IMG eben weil Apple ueber IMG's roadmap informiert wurde. Noch dazu kommt dass Apple's iOS wohl nicht unbedingt einen DX11.1 Rogue braucht. Anders die ganze Masche ist um einiges komplizierter als es einfach nur auf den Strich "Apple" zu bringen. DX11 in SFF GPUs ist eher eine win8 Initiative wobei eher Microsoft dahinter steckt.

robbitop
2012-07-06, 16:09:29
Frag nach. Auf jeden Fall faellt beim browsing nicht 100% nur auf die CPU.

Das (idlen) tut sie nicht, weil sie rendern muss.



Lediglich eines der vielen Indizien dass T6xx zur naechsten GPU Generation gehoert.
Unumstritten. T6xx ist NextGen.



Sagt wer? 3xx duerfte Halti compliant sein ergo wohl eher zumindest ~DX10.


Und wieder besteht Du auf einer vorzeitigen Schlussvolgerung die auf keinen Fakten basiert sondern Deinem Bauchgefuehl. Beweis es erstmal dass 320 nur DX9 ist.

Das hast du mir mal erzählt, als Qualcomm Eric Demers eingestellt hat - im Zusammenhang mit dem potenziellen IMG Deal. ;)

edit: ich habe mal nachgeschaut. Adreno 320 soll OGL ES 3.0 Taiti complaint sein. Das ist ~DX10 Techlevel. (ich glaube aber ohne Geometry Shader)



Eben nicht; CPU cores koennen weder endlos in Anzahl skalieren, noch sind in solchen Faellen sehr extravagante Frequenzen moeglich. Damit Leistung zunehmend auf SFF SoCs in der Zukunft zunehmend skaliert, ist die GPU der einzig logische Ausweg.
Heterogene Computing ist die Zukunft. AMD hat nicht umsonst diesen Weg mit den APUs gewählt. Das ist korrekt. Die Anwendungsfälle sind aber leider begrenzt. Nicht alles kann von Computing profitieren.



Wie gesagt von mir aus bleib bei Deinem "nichts" wenn Du mir nichts Dir nichts mit dem Kopf durch die Wand rennen willst. Auf jeden Fall sind GPUs beim browsen nicht im totalen idle status.
Siehe oben. Ich sage nicht "nichts". Die rendern halt. Aber sie sind auf keinen Fall der Flaschenhals. Das war meine Kernaussage. Eine schnellere CPU schlägt beim Browsen, sofern kein anderer Flaschenhals vorhanden, 1:1 in kürzere Ladezeiten durch. Eine größere GPU als eine heute verfügbare nicht.



Browsing betrifft nicht nur text bzw. e-books oder?
HTML. ;)



Ob Apple oder nicht, bleibt es eine Tatsache dass GPU ALUs um zich Mal einfacher und billiger sind zu skalieren in einem SoC als CPU cores und hohe CPU Frequenzen verbraten einfach zu viel Strom.

Als Apple mit dem i-Zeug angefangen hat, waeren die integrierten IMG GPU IPs alles andere als das neueste Kind auf dem Markt; es ging erst ab iPad2 los.

Mir ging es doch nicht um Apple. Natürlich gab es vorher schon 3D-GPUs in SoCs. Aber der Markt war eben ein viel viel kleinerer. Und wirklich viel ist damals -verglichen mit heute- nicht passiert.

Das iPhone und das iPad führten dazu, dass dieser Markt zum Massenmarkt wurde und exorbitant wuchs. Android und WP7 zogen nach und unterstützten und nutzten diesen Wachstum. Initiert wurde das von Apple.

Und dadurch dass dieser Markt einfach ein neuer war, der stark wuchs, zog er eben viele Mitspieler und viel Konkurrenz auf sich. Und damit startete dieser Innovationsschub bei ARM, Qualcomm, IMG, NV und Co erst so richtig. Sowohl bei CPUs als auch bei GPUs.

Ausserdem ist Apple nicht IMG's einziger Lizenznehmer und Apple hat einen langjaehrigen multi-Lizenz Vertrag mit IMG eben weil Apple ueber IMG's roadmap informiert wurde. Noch dazu kommt dass Apple's iOS wohl nicht unbedingt einen DX11.1 Rogue braucht. Anders die ganze Masche ist um einiges komplizierter als es einfach nur auf den Strich "Apple" zu bringen. DX11 in SFF GPUs ist eher eine win8 Initiative wobei eher Microsoft dahinter steckt.
Natürlich braucht DX11 auf dem Smartphone und Tablet per se keiner im Moment. Es ist, wie du schon sagst, durch Win8 angekurbelt und ist ein völlig natürlicher Fortschritt, dass neben Rechenleistung auch das Featureset in einem harten Konkurrenzkampf gesteigert wird.

----

Insgesamt hat Qualcomm natürlich, wie schon durch Fondness beschrieben, einige Vorteile im SoC Geschäft. Sie sind groß und sie designen nicht nur einzelne Teile des SoCs sondern den gesamten SoC inhouse.
Das spart sicher einiges an Time-to-Market.

Relic
2012-07-06, 16:56:59
Qualcomm spricht auf seiner Roadmap beim Adreno 3xx von DX 9.3 was auch immer das heißen mag, wobei sie für den Adreno 225 das selbe angeben, also bezweifel ich, dass sie DX10 erfüllen.

dildo4u
2012-07-06, 17:02:19
9.3 ist die Minspec für Win8 vermutlich damit die Hardwarebeschleunigung im OS funzt.

The Adreno 225 GPU in Snapdragon S4 SoCs adds support for DirectX 9.3 which makes it compatible with Microsoft Windows 8

http://en.wikipedia.org/wiki/Snapdragon_(system_on_chip)

Nightspider
2012-07-06, 17:15:01
Laut diverser Quellen scheint Qualcomm nun auch bei Samsung und UMC zu produzieren.

Aber hat denn Samsung schon 28nm Fabriken?

Die aktuellsten Exynos SoCs von Samsung werden doch in einem 32nm Prozess gefertigt.

Selfquote

Ailuros
2012-07-07, 09:15:51
Qualcomm spricht auf seiner Roadmap beim Adreno 3xx von DX 9.3 was auch immer das heißen mag, wobei sie für den Adreno 225 das selbe angeben, also bezweifel ich, dass sie DX10 erfüllen.

Haarspalterei DX9 Level3 (DX11 certified DX9). Halti duerfte schon irgendwo auf DX10 Nivaeu sein (deshalb auch mein ~DX10). Es reicht wenn ein kleiner Fetzen fuer DX10 fehlt dann ist man eben entweder DX10 oder nicht. Im gegebenen Fall ist es wurscht so lange die GPU die OGL_ES3.0/Halti Vorraussetzungen voll unterstuetzt.

Nightspider,

Ja natuerlich hat Samsung 28nm und kleiner.


Das hast du mir mal erzählt, als Qualcomm Eric Demers eingestellt hat - im Zusammenhang mit dem potenziellen IMG Deal. ;)

edit: ich habe mal nachgeschaut. Adreno 320 soll OGL ES 3.0 Taiti complaint sein. Das ist ~DX10 Techlevel. (ich glaube aber ohne Geometry Shader).

Wer pfeift denn auf GS unter Android? Offiziell war bis zu einem Punkt tatsaechlich DX9L3 only bekannt fuer 320, aber es war genauso mit der ULP GF in Tegra2 wo ich auch dummerweise nach dem was offiziell angegeben wurde (features exposed) glaubte dass das Ding kein L3 kann. Es wird u.a. eben klugerweise nur 16bpp Z eingeschaltet um Leistung zu sparen. Der L3 Schnickschnack existiert aber.

Heterogene Computing ist die Zukunft. AMD hat nicht umsonst diesen Weg mit den APUs gewählt. Das ist korrekt. Die Anwendungsfälle sind aber leider begrenzt. Nicht alles kann von Computing profitieren.

Weil AMD sehr grosses Gewicht auf SoCs legt und weil ihre groessere Staerke im Vergleich zu Intel auf der GPU Seite liegt haben sie auch ihre Strategie fuer ihre SoCs so angelegt und sind auch founding members der HSA foundation auf die ich oben verlinkt habe. SoCs sind die groessere Zukunft (rechne einfach mal smart-phones, Konsolen, tablets, low end notebooks/PCs zusammen und denk mal nach wie gross der Anteil des Kuchens genau sein wird in sagen wir mal 5 Jahren) und heterogeneous computing macht hier mehr Sinn als woanders. U.a. weil eben eine Unzahl von Einheiten sich die Haare gegenseitig ausreissen fuer die ein und dieselbe Bandbreite. Je besser Aufgaben verteilt werden und je mehr alle Einheiten ausgenutzt werden koennen wo immer es Sinn macht desto besser.

Siehe oben. Ich sage nicht "nichts". Die rendern halt. Aber sie sind auf keinen Fall der Flaschenhals. Das war meine Kernaussage. Eine schnellere CPU schlägt beim Browsen, sofern kein anderer Flaschenhals vorhanden, 1:1 in kürzere Ladezeiten durch. Eine größere GPU als eine heute verfügbare nicht.

Ergo bedeutete "nichts" doch nicht "nichts" sondern eher ein moechtegern "nichts" dass doch ein bisschen mehr als gar nichts beinhaltet. Also bitte.

Nebenbei ist browsing auf den Dingern (selbst auf dem schnellsten tablet) immer noch nicht in Reichweite selbst von einem heutigen low end PC. Wie sieht es dann fuer die Zukunft aus und in welche Richtung muesste sich sw genau orientieren?

Mir ging es doch nicht um Apple. Natürlich gab es vorher schon 3D-GPUs in SoCs. Aber der Markt war eben ein viel viel kleinerer. Und wirklich viel ist damals -verglichen mit heute- nicht passiert.

Quantitaeten sind zwar heute um zich Mal hoeher aber es passierte schon einiges zu der Zeit, es haben sich nur wenige damit beschaeftigt.

Das iPhone und das iPad führten dazu, dass dieser Markt zum Massenmarkt wurde und exorbitant wuchs. Android und WP7 zogen nach und unterstützten und nutzten diesen Wachstum. Initiert wurde das von Apple.

Es haette auch ohne Apple eine solche Explosion gegeben, vielleicht unter anderen Massstaeben aber das ist ziemlich wurscht. Apple hat lediglich mit einer sehr durchdachten Strategie eine grosse Gelegenheit geschnappt und im dem Feld investiert wo ihre Konkurrenten immer noch bloed nachglotzen muessen. Und es hat hauptsaechlich mehr mit application store, Inhalt, sw und co zu tun als mit Geraeten, hw und was noch. Amazon und Apple sind Einzelgaenger in ihren eigenen Kategorien; was genau macht jeden der beide so erfolgreich?

Und dadurch dass dieser Markt einfach ein neuer war, der stark wuchs, zog er eben viele Mitspieler und viel Konkurrenz auf sich. Und damit startete dieser Innovationsschub bei ARM, Qualcomm, IMG, NV und Co erst so richtig. Sowohl bei CPUs als auch bei GPUs.

Qualcomm war schon immer eines der Giganten in dem Feld; sie haben sie lediglich etwas "bemerkbarer" gemacht via marketing weil andere wie NV staendig in ihrem oeden Kaba ruehren.

Wer ausser Qualcomm entwickelt als SoC Hersteller bis jetzt seine eigenen ARM CPUs basierend auf dem instruction set only? Es ist um zich Male teurer aber waehrend Qualcomm schon seit Anfang 2012 ihre Kraits massenhaft verkauft wird es mit A15 von den anderen wohl wenig bis gar nichts innerhalb 2012 und es geht wohl erst ab 2013 so langsam los.


Natürlich braucht DX11 auf dem Smartphone und Tablet per se keiner im Moment. Es ist, wie du schon sagst, durch Win8 angekurbelt und ist ein völlig natürlicher Fortschritt, dass neben Rechenleistung auch das Featureset in einem harten Konkurrenzkampf gesteigert wird.

Diejenigen GPU Entwickler die fuer die naechste Generation DX11 anbieten werden, werden auch zwangsmaessig DX10 Varianten von diesen haben und dabei ist auch Rogue keine Aussnahme. Fuer Android/iOS ist DX11 eine brutale Transistoren-Verschwendung. OT aber ST Ericsson A9600 duerfte DX11.1 sein, eben weil das Ziel wohl Nokia/win8 sein wird.


Insgesamt hat Qualcomm natürlich, wie schon durch Fondness beschrieben, einige Vorteile im SoC Geschäft. Sie sind groß und sie designen nicht nur einzelne Teile des SoCs sondern den gesamten SoC inhouse.
Das spart sicher einiges an Time-to-Market.

Qualcomm lizenziert zunehmend mehr IP von IMG. Bis jetzt display IP und Ensigma; der zweite deal hat ein brutal grosses Potential wenn man Qualcomm's design wins bedenkt und auch natuerlich dass Qualcomm auch chips an Apple verkauft. Fuer ihre GPUs braucht Qualcomm lediglich einen besseren compiler denn der heutige fuer alles bis zu 2xx ist wohl eher zum kotzen ehlendig. 320 duerfte um einiges leichter sein da ich "skalare" ALUs vermute, aber wohl auch kein Kinderspiel.

Ich vermute 4*SIMD16 auf 320 mit 4 TMUs; selbst bei sagen wir mal 300-350MHz muesste so ein Ding selbst dem SGX543MP4@250MHz im iPad3 den Hintern versohlen, egal ob weniger FLOPs. Trotzdem verdient Qualcomm einen Applaus dass sie schon mit der naechsten CPU und GPU Generation fertig sind. Und es wird irgendwann schon besser werden mit ihren verkackten compilers ;)

robbitop
2012-07-09, 08:24:46
Ja für DX10 fehlt Geometry Shader und noch irgendwas anderes, was ich jetzt wieder vergessen habe. Offenbar genügt das aber für OGL 3.0 ES.

Der Geometry Shader war übrigens einer der großen Neuerungen in DX10. Also nichts soo Unwesentliches.


Weil AMD sehr grosses Gewicht auf SoCs legt und weil ihre groessere Staerke im Vergleich zu Intel auf der GPU Seite liegt haben sie auch ihre Strategie fuer ihre SoCs so angelegt und sind auch founding members der HSA foundation auf die ich oben verlinkt habe. SoCs sind die groessere Zukunft (rechne einfach mal smart-phones, Konsolen, tablets, low end notebooks/PCs zusammen und denk mal nach wie gross der Anteil des Kuchens genau sein wird in sagen wir mal 5 Jahren) und heterogeneous computing macht hier mehr Sinn als woanders. U.a. weil eben eine Unzahl von Einheiten sich die Haare gegenseitig ausreissen fuer die ein und dieselbe Bandbreite. Je besser Aufgaben verteilt werden und je mehr alle Einheiten ausgenutzt werden koennen wo immer es Sinn macht desto besser.
Letztenendes wollen SoCs - ob nun AMD, oder ARMs - in die gleiche Richtung. Dass die GPU Dinge abnimmt.



Ergo bedeutete "nichts" doch nicht "nichts" sondern eher ein moechtegern "nichts" dass doch ein bisschen mehr als gar nichts beinhaltet. Also bitte.

Nebenbei ist browsing auf den Dingern (selbst auf dem schnellsten tablet) immer noch nicht in Reichweite selbst von einem heutigen low end PC. Wie sieht es dann fuer die Zukunft aus und in welche Richtung muesste sich sw genau orientieren?
Es ist nunmal wie es ist. Ich finde selbst aktuelle Tablets beim Surfen - also der Seitenaufbau einer komplexeren Seite - noch sehr langsam. Im Vergleich zu einem Core 2 Notebook. Aber IIRC sogar zu einem Bobcat.
Da fehlt es den A9s halt noch an Bums. Der sollte mit A15 / Krait @2 GHz schon deutlich näher dran sein.
Vieleicht kann die GPU ja bei Animationen von HTML5/Flash noch ein bisschen helfen.



Quantitaeten sind zwar heute um zich Mal hoeher aber es passierte schon einiges zu der Zeit, es haben sich nur wenige damit beschaeftigt.
Ja. Absolut. Aber eben viel langsamer als heute. Im Moment erleben wir bei mobilen GPUs eine Explosion der Rechenleistung. Innerhalb eines Jahres oftmals > Faktor 2x. Also mehr als Moore erlauben würde (wahrscheinlich beuten sie noch die Reserven aus, die die die-size so eines SoCs erlaubt - die GPU wachsen ja unabhängig vom Herstellungsprozess so, wie die GPUs im PC Bereich bis zum GT200 gewachsen sind). Natürlich sind auch noch Effizienzpotenziale zu schöpfen ("skalare" ALUs etc). Irgendwann sind diese Dinge vermutlich soziemlich ausgeschöpft und es wird nur noch mit Moore bzw. dem Fertigungsprozess skaliert.



Es haette auch ohne Apple eine solche Explosion gegeben, vielleicht unter anderen Massstaeben aber das ist ziemlich wurscht. Apple hat lediglich mit einer sehr durchdachten Strategie eine grosse Gelegenheit geschnappt und im dem Feld investiert wo ihre Konkurrenten immer noch bloed nachglotzen muessen. Und es hat hauptsaechlich mehr mit application store, Inhalt, sw und co zu tun als mit Geraeten, hw und was noch. Amazon und Apple sind Einzelgaenger in ihren eigenen Kategorien; was genau macht jeden der beide so erfolgreich?
Das war doch gar nicht der Punkt. Der Punkt war die Historie in den Kontext zu setzen. ;)




Wer ausser Qualcomm entwickelt als SoC Hersteller bis jetzt seine eigenen ARM CPUs basierend auf dem instruction set only?
Ich glaube ein oder zwei gab es noch. Aber ziemlich unbedeutend im Markt.


Es ist um zich Male teurer aber waehrend Qualcomm schon seit Anfang 2012 ihre Kraits massenhaft verkauft wird es mit A15 von den anderen wohl wenig bis gar nichts innerhalb 2012 und es geht wohl erst ab 2013 so langsam los.
Das ist der Vorteil, wenn man alles inhouse hat und auch mehr Geld zur Verfügung hat. ARM ist viel kleiner als QC und macht ja auch nur Teile des SoCs.
ARM ist auf ihre Licensees angewiesen. Und sobald mehr als 1 Koch am Herd ist, dauert es länger bis das Essen fertig ist. ;)




Diejenigen GPU Entwickler die fuer die naechste Generation DX11 anbieten werden, werden auch zwangsmaessig DX10 Varianten von diesen haben und dabei ist auch Rogue keine Aussnahme. Fuer Android/iOS ist DX11 eine brutale Transistoren-Verschwendung. OT aber ST Ericsson A9600 duerfte DX11.1 sein, eben weil das Ziel wohl Nokia/win8 sein wird.



320 duerfte um einiges leichter sein da ich "skalare" ALUs vermute, aber wohl auch kein Kinderspiel.

Ich vermute 4*SIMD16 auf 320 mit 4 TMUs; selbst bei sagen wir mal 300-350MHz muesste so ein Ding selbst dem SGX543MP4@250MHz im iPad3 den Hintern versohlen, egal ob weniger FLOPs. Trotzdem verdient Qualcomm einen Applaus dass sie schon mit der naechsten CPU und GPU Generation fertig sind. Und es wird irgendwann schon besser werden mit ihren verkackten compilers ;)
Das wäre sehr nice. IMG hat ja auch lange amCompiler schrauben müssen. Ich denke mal, Rogue ist schon lange fertig. Angewiesen ist IMG leider auch an die Licensees. Sonst wäre das Ding vermutlich auch schon raus.

Außerdem haben IMGs GPUs den Vorteil, dass sie TBDRs sind. Das sollte sich zumindest beim Bandbreitenverbrauch bemerkbar machen. Overdraw ist ja im Zeitalter von DR-Shader Engines ein Vorteil, der ziemlich passé sein dürfte. (ich glaube aber diese Engines sind im Handy/Tablet Bereich noch nicht angekommen)

Ailuros
2012-07-10, 09:25:15
Ja für DX10 fehlt Geometry Shader und noch irgendwas anderes, was ich jetzt wieder vergessen habe. Offenbar genügt das aber für OGL 3.0 ES.

Der Geometry Shader war übrigens einer der großen Neuerungen in DX10. Also nichts soo Unwesentliches.

Im Vergleich zu SM3.0 definitiv nicht unwesentlich, aber im Vergleich zu dem was original fuer DX10 und Tessellation geplant war und was am Ende davon uebrig blieb, sind GS unter diesem Licht eher ehlendig. Die Frage ist wohl eher ob Entwickler je etwas davon benutzen werden.

Letztenendes wollen SoCs - ob nun AMD, oder ARMs - in die gleiche Richtung. Dass die GPU Dinge abnimmt.

Wo immer es Sinn macht durchaus.

Es ist nunmal wie es ist. Ich finde selbst aktuelle Tablets beim Surfen - also der Seitenaufbau einer komplexeren Seite - noch sehr langsam. Im Vergleich zu einem Core 2 Notebook. Aber IIRC sogar zu einem Bobcat.
Da fehlt es den A9s halt noch an Bums. Der sollte mit A15 / Krait @2 GHz schon deutlich näher dran sein.

Egal ob sagen wir mal quad A9, quad Krait oder quad A15 wie viele von den jeweiligen 4 cores und wie oft werden fuers browsing eingeschaltet?

Vieleicht kann die GPU ja bei Animationen von HTML5/Flash noch ein bisschen helfen.

Uhmm sie waeren schoen bloed wenn hier die GPU gar nichts beitraegt selbst momentan und genau um den Punkt geht es mir die ganze Zeit.

Ja. Absolut. Aber eben viel langsamer als heute. Im Moment erleben wir bei mobilen GPUs eine Explosion der Rechenleistung. Innerhalb eines Jahres oftmals > Faktor 2x. Also mehr als Moore erlauben würde (wahrscheinlich beuten sie noch die Reserven aus, die die die-size so eines SoCs erlaubt - die GPU wachsen ja unabhängig vom Herstellungsprozess so, wie die GPUs im PC Bereich bis zum GT200 gewachsen sind). Natürlich sind auch noch Effizienzpotenziale zu schöpfen ("skalare" ALUs etc). Irgendwann sind diese Dinge vermutlich soziemlich ausgeschöpft und es wird nur noch mit Moore bzw. dem Fertigungsprozess skaliert.

SFF (meine Abkuerzung fuer small form factor uebrigens) GPUs haben eine ziemlich lange Lebenszeit. Denk nach wie lange SGX schon existiert und wie es auch heute noch im S5XT refresh weiterleben wird. Unter ca. 5 Jahren wuerde ich keiner GPU Generation zuschreiben egal von welchem IHV; ist weder bei Adreno2xx noch bei ULP GF Tegra1 bis 3 auch nicht anders (mehr oder weniger).

SFF GPUs folgen ziemlich rapide die desktop GPU Entwicklung. Sobald DX12 erscheint (weiss der Geier wie unter diesem desktop GPUs aussehen werden) werden womoeglich nach ca. 2 Jahren auch relevante SFF GPU Architekturen erscheinen.

Theoretisch wenn Stromverbrauch bzw. form factor wurscht ist erreicht Rogue bei maximaler Latenz in der weiteren Zukunft etwas weniger als zweistellige TFLOPs.

Serie5 wurde mit 90nm (erste SGX535 bei knapp >100MHz) angekuendigt und wird wohl auch noch in 28nm erscheinen (OMAP5230/SGX544MP2@>500MHz). Die neue Generation die mit Adreno320@28nm angefangen hat wird genauso eine Kombination von effizienteren Architekturen sein (neue GPU Generation), kleinere Herstellungsprozesse und zunehmend hoehere Frequenzen. Wenn es hier zu einer theoretischen Leistungs-stagnation kommen sollte dann sind desktop GPU bzw. HPC GPU Architekturen genau so fuer die weniger absehbare Zukunft zur solchen verdammt.

Das war doch gar nicht der Punkt. Der Punkt war die Historie in den Kontext zu setzen. ;)

Schon nur bleibt es dabei dass IMHO Apple nicht einen Trend selber generiert hat sondern diesem mit einer erfolgreichen Strategie gefolgt ist. Sie haben lediglich die richtige Gelegenheit zur rechten Zeit ausgenutzt.


Das wäre sehr nice. IMG hat ja auch lange amCompiler schrauben müssen. Ich denke mal, Rogue ist schon lange fertig.

Fast alle GPU IHVs in diesem Markt haben/hatten compiler/Treiber Probleme. Qualcomm liegt leider immer noch an der Spitze des ueblen aber es wird auch bei ihnen in kleinen Schritten besser. ARM hat fuer den Mali vor kurzem mit ein paar neuen legitimen Extensionen zugeschlagen und die Leistung auf ihren Mali400 und co ist um bis zu 40% gestiegen.

Bisher haben alle Adrenos von dem was ich hoere einen ziemlich grossen Kopfschmerz mit sehr niedriger shader complexity (was auch mainstream in heutigen SFF Spielchen ist); sobald shader complexity nach oben steigt rasen die Dinger so langsam los.

Nebenbei ist "skalar" oder "vector" auch so eine Bezeichnung fuer sich. Ein Mali verhaelt sich im relevanten Sinn schon etwas naeher an einer "skalaren" ALU eben weil die Dinger dedizierte register files pro ALU haben.

Angewiesen ist IMG leider auch an die Licensees. Sonst wäre das Ding vermutlich auch schon raus.

Rogue wird nicht bei groesser als 28nm antanzen und IMHO keinesfalls mit kleineren Frequenzen als 500MHz welches ohnehin schon konservativ ist. Wie viele dual Krait oder A15 bei 2.0GHz oder quad cores dieser wird es dieses Jahr noch in Geraeten geben? Bei beschissenen yields bzw. Kapazitaeten unter 28nm kann wohl kein SoC Hersteller irgendwie zaubern. Qualcomm hat sich zusaetzliche Kapazitaeten fuer ihre SoCs bei Glofo gesichert, eben weil sie selber die Knappheit unter 28nm generell erleben.

Anders Rogue waere nicht schon raus, da IMHO alles vor Ende 2012/Anfang 2013 selbst unter den besten Vorraussetzungen zu optimistisch gewesen waere.

Außerdem haben IMGs GPUs den Vorteil, dass sie TBDRs sind. Das sollte sich zumindest beim Bandbreitenverbrauch bemerkbar machen. Overdraw ist ja im Zeitalter von DR-Shader Engines ein Vorteil, der ziemlich passé sein dürfte. (ich glaube aber diese Engines sind im Handy/Tablet Bereich noch nicht angekommen)

http://forum.beyond3d.com/showpost.php?p=1655204&postcount=781

I think the implication from a number of presentations was that at least some devs definitely were. One thing which can probably take a fair bit of bandwidth on the PS Vita is post-processing but framebuffer compression should help in Rogue.

50% framebuffer compression im Rogue ;)

Ailuros
2012-07-17, 11:36:39
http://www.anandtech.com/show/6095/qualcomm-shows-off-apq8064-quadcore-krait-and-adreno-320

Qualcomm zeigt quad Krait + Adreno320 vor.

Ailuros
2012-07-26, 10:03:29
http://www.anandtech.com/show/6112/qualcomms-quadcore-snapdragon-s4-apq8064adreno-320-performance-preview

http://images.anandtech.com/galleries/2186/Screen%20Shot%202012-07-24%20at%204.01.48%20PM_575px.png

http://images.anandtech.com/galleries/2186/Screen%20Shot%202012-07-24%20at%204.01.35%20PM_575px.png

http://images.anandtech.com/galleries/2186/Screen%20Shot%202012-07-24%20at%204.01.29%20PM_575px.png

Henroldus
2012-07-26, 10:46:44
die entsprechenden Performancewerte sind auch schon in den heutigen News verlinkt:
Snapdragon S4 Pro mit verblüffenden Benchmarks (http://winfuture.de/news,71051.html)

Ailuros
2012-07-26, 12:36:49
die entsprechenden Performancewerte sind auch schon in den heutigen News verlinkt:
Snapdragon S4 Pro mit verblüffenden Benchmarks (http://winfuture.de/news,71051.html)

Verblueffend ist relativ, denn S4 hat eine naechster Generation CPU und GPU. Das eigentliche Problem der Qualcomm Konkurrenz ist dass sie bis zu den ersten A15 SoCs (ab 2013) nichts wuerdiges als Antwort dagegen haben.

Dual core Krait + Adreno320 ist momentan nur einen Atem vom iPad3 in Egypt offscreen entfernt (134.5fps vs. 140.9fps). Unterhalb von Apple's iPad3 tablet gibt es dann einige Qualcomm smartphones und eine Unmenge von Samsung Exynos 4/32nm powered smartphones, wo hingegen Tegra3, jegliches OMAP4 und dergleichen ziemlich langweilig aussehen.

Qualcomm's eigentliches Problem momentan ist dass sie dank 28nm Knappheiten eben nicht so viel herstellen bzw. verkaufen koennen wie sie eigentlich geplant hatten; innerhalb dieser Grenzen haben sie aber schon eine relative "freie" Laufbahn S4 SoCs zu verkaufen bis die gesamte Konkurrenz mit ihren 28nm SoCs endlich antanzt. Die Mehrzahl dieser wird erst Anfang 2013 erscheinen und so wie es aussieht werden Rogue GPU basierende SoCs vielleicht doch nicht vor H2 2013 erscheinen.

Ailuros
2012-07-28, 11:13:45
Uebrigens Kishonti hat gerade einen neuen tab fuer GLBenchmark2.5 Resultate hinzugefuegt. Duerfte nicht zu lange dauern bis die ersten Resultate dafuer veroeffentlicht werden.

Endlich etwas anspruchsvolleres und dazu in 1080p.

GLBenchmark2.5:

http://www.glbenchmark.com/images/glbenchmark25_splash_tn.png

GLBenchmark2.1:

http://www.glbenchmark.com/images/glbenchmark2_splash_tn.png

Erste Resultate sind da: http://www.glbenchmark.com/result.jsp ...leider noch nichts von Adreno320, aber Exynos 32nm sieht unter der hoeheren benchmark-Komplexitaet ploetzlich nicht mehr so toll aus verglichen zu Tegra3.

Ailuros
2012-07-30, 14:36:38
GLBenchmark2.5 scheint ein ganz anderes Bild zu setzen, durch die um einiges hoehere shader und Geometrie Komplexitaet im Vergleich zu 2.1.

* Wie ich erwartet haette verhalten sich bis jetzt Qualcomm Adreno 2xx GPUs ausgezeichnet im Vergleich zu anderen GPUs der Konkurrenz die sie bisher in 2.1 ziemlich stark vermoebelt haben.

* iPad3 liegt wohl wie viele erwartet haetten an der momentanen Spitze der Resultate, gefolgt von iPad2.

* Den kuerzesten scheint ARM Mali400MP4 insgesamt zu ziehen, weil ihr Vorsprung gegen Tegra3, Adreno2xx u.a. ploetzlich um einiges geschrumpft ist. Zu hohe Geometrie fuer einen so schwachen vertex shader. Adreno225 ist ploetzlich schneller als der Mali400MP4@440MHz im 32nm Exynos.

* Tegra3 platziert sich nicht schlecht insgesamt, wird aber wohl entweder Nacken an Nacken mit dem OMAP4470 sein oder direkt dahinter und im letzteren steckt lediglich ein einzelner SGX544@384MHz. Adreno225 ist im angenehmen Vorsprung dagegen.

Bleibt abzusehen wie Adreno320 in 2.5 abschneidet, aber ich wuerde nicht weniger als nur einen Atem unter dem iPad3 wieder erwarten.

Zusaetzliches Lese-Material fuer diejenigen die interessiert sind:

http://forum.beyond3d.com/showpost.php?p=1658553&postcount=7

http://forum.beyond3d.com/showpost.php?p=1658566&postcount=11

Aus dem letzten Link ein interessanter Abschnitt was 320 betrifft:

But more importantly, the biggest problem with Adreno in my mind is that their performance drops off a cliff much more easily when the developer does something wrong. The early versions of GLBenchmark 2.5 did a few things wrong with their vertex buffers and framebufer objects and their relative performance was the worst of anyone before Kishonti fixed it. This is partially driver issues probably, but also their entire tiling architecture which is very fragile - I can imagine that's one of the reasons they added an IMR mode to Adreno 320. Even if it's faster for them, that doesn't necessarily mean IMR would be faster for anyone else.

Ailuros
2012-08-08, 09:25:28
Adreno320 erste 2.5 Resultate:

http://www.glbenchmark.com/phonedetails.jsp?D=LG+E971&benchmark=glpro25

Ich hab ehrlich gesagte mehr erwartet anhand der 2.1 Resultate, aber kann sein dass Qualcomm noch etwas am Treiber bzw. compiler fuchteln muss.

Ailuros
2012-08-15, 09:36:45
http://www.glbenchmark.com/phonedetails.jsp?D=LG+E970&benchmark=glpro25

LG E970 mit Adreno320 ein kleines Stueck vor dem iPad3. Jetzt sieht es um einiges besser aus und natuerlich platziert sich eine neue Generations-GPU eher im Bereich wo ich sie erwartet haette in einem so anspruchsvollem benchmark wie GLBenchmark2.5.

AffenJack
2012-08-15, 10:37:38
Was ist denn nach Adreno 320 in der Pipeline? Ist dazu schon was bekannt? Gibts noch weitere 3xx Chips oder dann erst die nächste Generation mit 4xx? In Smartphones seh ich zumindest kaum Luft mehr in 28nm über nen Quadkrait mit Adreno 320. Aber in Tablets könnte ja durchaus noch was größeres kommen.

Ailuros
2012-08-15, 10:51:57
Was ist denn nach Adreno 320 in der Pipeline? Ist dazu schon was bekannt? Gibts noch weitere 3xx Chips oder dann erst die nächste Generation mit 4xx? In Smartphones seh ich zumindest kaum Luft mehr in 28nm über nen Quadkrait mit Adreno 320. Aber in Tablets könnte ja durchaus noch was größeres kommen.

Adreno3xx ist wohl genauso skalierbar wie alle anderen GPUs von anderen IHVs. Momentan duerfte 320 aus 4*SIMD16, 4 TMUs bestehen bei 400MHz; ergo kann man zukuenftig sehr wohl die Anzahl der SIMDs skalieren und/oder die GPU Frequenz. Wenn ich mich nicht irre ist der Adreno305 ein einziger cluster mit einer TMU, wobei eben 320 = 4*305.

Nach Qualcomm soll die 3xx Familie bis zu XBox360/PS3 Leistung erreichen koennen, welches alles andere als unwahrscheinlich ist. Adreno2xx skalierte von 1Vec4 bis auf 8Vec4 mit dementsprechender Skalierung der Frequenz ueber die Jahre.

Gaestle
2012-08-15, 13:10:11
Nach Qualcomm soll die 3xx Familie bis zu XBox360/PS3 Leistung erreichen koennen, welches alles andere als unwahrscheinlich ist.

Wann hältst Du es für realistisch, dass es soweit sein könnte? In 3-4 Jahren, oder schon früher?
Adreno 200 startete ja anscheinend in 2008, die Serie hat also bereits jetzt eine Lebensdauer von 4 Jahren.

Wie ist eigentlich die ungefähre Relation von Adreno 320 zu PS3/XBox360?

Ailuros
2012-08-15, 14:11:33
Wann hältst Du es für realistisch, dass es soweit sein könnte? In 3-4 Jahren, oder schon früher?
Adreno 200 startete ja anscheinend in 2008, die Serie hat also bereits jetzt eine Lebensdauer von 4 Jahren.

Die Lebensdauer einer jeglichen GPU Generation im small form factor Bereich streckt sich tatsaechlich so um die 4-5 Jahre wenn nicht mehr denn es ist ja nicht so dass Adreno2xx ploetzlich verschwinden werden in absehbarer Zeit.

Wie ist eigentlich die ungefähre Relation von Adreno 320 zu PS3/XBox360?

In reinen GFLOPs (was aber von geringer Bedeutung ist da FLOPs != FLOPs zwischen verschiedenen Architekturen) und stets im Zusammenhang mit Marketing-Gelaber duerfte der heutige Adreno 320 irgendwo 1/4 der XBox360 GPU sein.

Um es auf eine andere Basis zu legen: momentan zeigt sich 320 um einen Schnitt schneller als der SGX543MP4@250MHz im iPad3. iPad3 gewinnt etwas an GPU Frequenz im Vergleich zum 543MP4@200MHz im PS Vita, verliert aber im Bereich CPU (dual A9 vs. quad A9) und low level API. Wenn ich mich nicht irre schaetzte Carmack den Unterschied zwischen PS Vita und XBox360 (insgesamt nicht nur GPU) irgendwo auf einen Faktor 10x ein. Erreichbar ist die heutige GPU Konsolen Leistung schon in ein paar Jahren, aber fuer die CPU Leistung hab ich so manchen Zweifel.

robbitop
2012-08-15, 14:29:16
Bei Handhelds scheint man konstant ca. 1 Generation zurückzuliegen (gemessen an Konsolenlebenszyklen). Das ist aber sehr gut wenn man bedenkt, mit wie wenig Leistungsaufnahme ein Handy/Tablet SoC auskommen muss.

In letzter Zeit war das Wachstum der GPUs in SoCs stärker als die Vorteile durch Shrinking waren. Das kennen wir vom PC GPU Markt. Zu GF2 Zeiten waren Enthusiastkarten 30 W, 128 bit SI, < 200 sqmm. Heute sind wir bei 250 W, 384...512 bit und < 500 sqmm. Dann war aber auch Ende.
Bei SoCs erwarte ich einen ähnlichen Verlauf. Also ein überproportionalen Leistungszuwachs (gemessen an der Fertigungstechnologie) bis man an diese Grenze stößt und danach ein wieder konstantes und langsameres Leistungswachstum mit der Fertigungstechnik. (man schaue mal die Entwicklung vom Winzigen SGX53x im iPhone 3GS zum SGX543 4MP im iPad 3 - und das in nur 1x Shrink)

Gaestle
2012-08-15, 14:59:01
Also ich interpretiere die Antworten jetzt mal so, dass man mit Adreno3xx in ca. 4 Jahren die (Grafik-/FLOP-)Leistung der PS3/XBox360 erreicht haben wird.

Ob das dann auch für ein vergleichbares Gamingerlebnis (z.B. per HDMI oder DLNA an den TV gestöpselt) reicht, ist natürlich auch vom drumherum (Bandbreiten, CPU) abhängig.

Und wahrscheinlich wird sich die Konkurrenz (Mali, SGX, etc.) in ähnlichen Regionen bewegen (grob, +/-).



Was macht man eigentlich mit der ganzen FLOP-Leistung außerhalb von Games? HTML5 beschleunigen... und weiter?

robbitop
2012-08-15, 15:02:52
Uh - schwierige Diskussion in diesem Thema. :D
IMO hat man im Moment wenige Anwendungen, die die arithmetische Leistung wirklich voll ausnutzen und brauchen. (mir fallen Videoencoding/Decoding ein - wobei hier sicher in Handy-SoCs sicher auch viel FF-Logik genutzt wird aus Stromspargründen). Viele Apps nutzen es sicher auch - aber gewiss nicht vollständig aus. Die Entwicklung geht aber in die Richtung (siehe GPGPU im PC Bereich). Dauert aber natürlich, weil maximale Parallelisierung nicht immer einfach oder möglich ist.
Aber das ist ein Henne-Ei Problem. Ohne HW keine SW. Die SW wird der HW vermutlich folgen. Insofern ist es gut, dass die arithmetische Leistung weiterhin steigt.

Rogue soll ja jetzt einen großen Rohleistungssprung erfahren und bald (schneller als 4 Jahre!!) im Fahrwasser der GFLOPs einer X360 liegen.

Ailuros
2012-08-15, 15:10:36
Rogue soll ja jetzt einen großen Rohleistungssprung erfahren und bald (schneller als 4 Jahre!!) im Fahrwasser der GFLOPs einer X360 liegen.

2013. Der ST E Novathor A9600 enthaelt wahrscheinlich einen >200GFLOPs 4 cluster GC64x0, wobei aber Rogue wie alle anderen SFF GPUs sowohl nach oben als auch nach unten skalieren kann. Ein GC64x0 mit 8 TMUs bei fast 700MHz liegt dann auch was Fuellrate und andere Aspekte betrifft naeher im realen XBox360 GPU Bereich und dazu mit mehr Faehigkeiten.

Gaestle
2012-08-15, 21:01:22
Danke für die Antworten :)

Ailuros
2012-08-25, 09:22:27
Adreno320 GLBechmark2.5 Leistung etwas ausfuehrlicher analysiert von Anandtech:

http://www.anandtech.com/show/6185/qualcomms-apq8064-and-glbenchmark-25-mdpt-results

Ailuros
2012-09-17, 14:46:20
Ist zwar nicht direkt Qualcomm mobile relativ, aber trotzdem:

http://www.fudzilla.com/home/item/28775-qualcomm-eyes-amd-graphics

Ist es nur mein Bauchgefuehl oder ist es wieder eines der vielen Bumsgeruechte die einfach nur so herumschwirren? Wenn etwas daran haengen wuerde dann ist der Titel des Artikels nur einfache Dummheit, denn Qualcomm wird wohl nicht ein Mordsumme investieren um AMD's GDP zu kaufen nur um ihre small form factor SoCs compiler/Treiber auf besseren Trab zu bekommen sondern in dem Fall haette Qualcomm um einiges ambitionsreichere Plaene und wuerde auch erklaeren warum Intel mehr Schiss von Qualcomm hat langfristig als AMD selber.

Coda
2012-09-17, 14:55:04
AMD wird niemals seine Grafik-Abteilung abgeben. Das wäre absoluter Selbstmord zu diesem Zeitpunkt.

Für Fusion brauchen sie wirkliche Zusammenarbeit, da tut es eine Lizensierung wie Fudzilla sie vorschlägt nicht.

YfOrU
2012-09-17, 16:41:29
...sondern in dem Fall haette Qualcomm um einiges ambitionsreichere Plaene und wuerde auch erklaeren warum Intel mehr Schiss von Qualcomm hat langfristig als AMD selber.

Mit dem Kauf von Infineon Wireless Solutions, der Priorisierung der Atom SoCs (sowie diversen Umstrukturierungen) hat Intel Qualcomm ziemlich eindeutig gezeigt welcher Weg in Zukunft beschritten werden soll.

Im Umkehrschluss wird man sich bei Qualcomm sehr genau überlegen müssen wie dieser mittelfristig mit Sicherheit starken Konkurrenz zu begegnen ist. IMHO sehe ich hier AMD bezogen auf IP und (Produkt) Portfolio als logische Ergänzung. Hinzu kommt das AMD inzwischen soweit unabhängig und flexibel geworden ist das eine Übernahme/Zusammenschluss etc. umsetzbar sein sollte.

robbitop
2012-09-17, 16:52:08
Die Frage ist, ob das so gut für den PC Markt wäre. Qualcomm hat ganz andere Kernthemen und könnte AMD so anders ausrichten, dass entweder die mobile, die Desktop oder die Serversparte dann dicht macht. Die Frage ist auch, ob AMD das überhaupt wollen würde.

YfOrU
2012-09-17, 16:59:27
Eigentlich muss Qualcomm genau in diese Richtung expandieren denn die Entwicklung eigener ARM SoCs kann sich heute fast jeder leisten und zusätzlich wird die Konkurrenz in diesem Segment durch Unternehmen wie Intel oder Nvidia nicht gerade schwächer.

Im Wireless Bereich (Baseband etc.) sieht es mittelfristig ähnlich aus (Samsung, Intel, Nvidia...). Qualcomm hat hier praktisch noch ein Monopol.

AMD hat etablierte Plattformen welche von x86 LP bis HPC skalieren. Dazu ARM und Wireless und es dürfte schwer werden ein Segment zu finden für welches kein passendes Produkt verfügbar wäre.

robbitop
2012-09-17, 17:12:39
Der x86 Markt ist aber nicht besonders ertragreich für AMD. Insofern keine gute Investition. Außerdem meine ich mal gelesen zu haben, dass die x86 Patente bei einem Aufkauf von AMD nicht so einfach übertragbar wären.

YfOrU
2012-09-17, 17:28:52
Der x86 Markt ist aber nicht besonders ertragreich für AMD. Insofern keine gute Investition.

Das ist eher eine Frage der Ressourcen und der Fokussierung. Ohne das finanzielle Desaster aufgrund der Fabs würde das heute besser aussehen. So muss man sich zwangsläufig unter Wert verkaufen um zu überleben.


Außerdem meine ich mal gelesen zu haben, dass die x86 Patente bei einem Aufkauf von AMD nicht so einfach übertragbar wären.

Daran dürfte es im Fall von Qualcomm kaum scheitern denn um deren IP kann auch Intel keinen Bogen machen. Was bleibt ist vor allen die Frage wo bei Qualcomm selbst die Zukunft in Relation zur Konkurrenz gesehen wird. Von Servern und Notebooks träumen ja sowieso alle ganz offen.

Ailuros
2012-09-21, 11:42:14
http://www.fudzilla.com/home/item/28839-intel-now-sees-qualcomm-as-main-competitor

Nichts Neues ;)

AnarchX
2012-09-27, 09:40:04
S4 Play Quadcore? (http://www.engadget.com/2012/09/26/qualcomm-reveals-quad-core-snapdragon-s4-play-processors/) 4x Cortex A5?

Ailuros
2012-10-03, 19:04:00
http://www.techpowerup.com/mobile/173133/HSA-Foundation-Announces-Qualcomm-as-Newest-Founder-Member.html

Qualcomm in der HSA Foundation.

Ailuros
2012-10-10, 08:36:03
http://www.fudzilla.com/home/item/29017-qualcomm-is-the-mobile-winner

Makes 48 percent of all the money spent on mobile chips.

Ailuros
2012-10-15, 09:56:47
http://www.tomshardware.com/reviews/snapdragon-s4-pro-apq8064-msm8960t,3291-5.html

Nichts was noch nicht schon bekannt ist.

Kishonti wird in etwa zeitgleich zum windows8 launch auch einen DX benchmark veroeffentlichen: http://www.dxbenchmark.com/

Von DXBenchmark2.7 wird es auch einen direkten Ableger fuer OGL_ES2.0 geben unter dem Namen GLBenchmark2.7: http://www.glbenchmark.com/benchmarks.jsp?benchmark=glb27

Wehe wer sich darunter etwas merkwuerdiges vorstellt :wink:

Ailuros
2012-11-09, 12:28:41
http://www.fudzilla.com/home/item/29395-qualcomm-globalfoundries-move-up-in-semi-sales-ranking

Qualcomm geht es im Vergleich zu anderen semis ziemlich gut, ueberhaupt wenn man bedenkt dass die 28nm Knappheiten nicht besonders geholfen haben.

Ailuros
2012-12-04, 19:47:23
http://www.fudzilla.com/home/item/29705-qualcomm-becomes-sharps-biggest-shareholder

Hugo78
2012-12-04, 22:10:14
http://www.fudzilla.com/home/item/29705-qualcomm-becomes-sharps-biggest-shareholder
Ergänzend dazu das CB Update:
http://www.computerbase.de/news/2012-12/sharp-und-qualcomm-vereinen-sich-fuer-lcd-entwicklung/
Mittlerweile haben Qualcomm und Sharp Pressemitteilungen zu dem Abkommen veröffentlicht. Daraus geht hervor,
dass Qualcomms Tochtergesellschaft Pixtronix seine MEMS-Displays zukünftig mit Sharps IGZO-Technik verknüpfen möchte.
So sollen Anzeigen mit einer hohen Farbgüte bei niedrigem Verbrauch realisiert werden.

Hugo78
2012-12-05, 20:29:52
Mittelklasse SoCs MSM8226 und MSM8626.
http://www.computerbase.de/news/2012-12/qualcomm-stellt-zwei-neue-snapdragon-s4-socs-vor/

Ailuros
2012-12-06, 09:00:26
Mittelklasse SoCs MSM8226 und MSM8626.
http://www.computerbase.de/news/2012-12/qualcomm-stellt-zwei-neue-snapdragon-s4-socs-vor/

http://www.anandtech.com/show/6498/qualcomm-announces-s4-play-msm8x26-and-wtr2605-quad-core-arm-cortex-a7

Quad core A7 mit einer Adreno305 GPU die auf Adreno225/Tegra3 GPU Nivaeu liegt.

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Sony+C2105&testgroup=overall

Henroldus
2013-01-08, 10:26:45
Qualcomm Snapdragon 800

75 Prozent schneller als der Snapdragon S4 im Nexus 4 (http://www.golem.de/news/qualcomm-snapdragon-800-75-prozent-schneller-als-der-snapdragon-s4-im-nexus-4-1301-96743.html)

Eggcake
2013-01-08, 10:42:37
Legga.

Insgesamt bin ich gespannt auf das Duell T4 vs S800.

Label
2013-01-08, 20:14:16
Best Story ever:

http://www.theverge.com/2013/1/8/3850056/qualcomms-insane-ces-2013-keynote-pictures-tweets

;D;D;D;D;D;D

YfOrU
2013-01-08, 23:31:23
Der schlafende Drache ist endgültig aufgewacht ;)

Wenn ich da im Vergleich an die Zeiten der MDA und XDA Produkte und deren Qualcomm SoCs zurückdenke..

Nightspider
2013-01-09, 00:01:21
Also die Schnitte aus StarTreck war das leckerste von der ganzen Präsentation. ;D

basti333
2013-01-09, 00:08:39
Best Story ever:

http://www.theverge.com/2013/1/8/3850056/qualcomms-insane-ces-2013-keynote-pictures-tweets

;D;D;D;D;D;D


Mein Gott, wie geil ist die show denn ;D:freak:;D:freak:

Mein persönlicher lieblingsteil ist als Gnom Ballmer auf die Bühne gehoppst kommt, sooo geil :ulol4::ulol5:



"or a CEO"

gen m

Knuddelbearli
2013-01-09, 01:00:07
Legga.

Insgesamt bin ich gespannt auf das Duell T4 vs S800.

das wird kein duell sondern eher ein fiasko für NV ... ^^

Nightspider
2013-01-09, 01:09:19
Hoffentlich kommen für die S800 Smartphones und Tablets dann die ersten PS360 Portierungen.^^

Mit Wireless Controllern könnte man dann bei Freunden mal ne gemütliche Runde am TV zocken.
[Edit: Bei Freunden die keine Konsole haben^^]

Hugo78
2013-01-09, 09:44:31
Keynote auf UStream.
http://www.ustream.tv/recorded/28319638

Ailuros
2013-01-22, 19:49:32
http://www.fudzilla.com/home/item/30206-qualcomm-claims-425%20-android-design-wins

Small wonder then that Qualcomm SoCs currently power more than 500 devices on the market. In a recent interview with Electronics Weekly, Qualcomm senior business development manager Julian Harris pointed out that the company has more than 425 design wins in the Android world alone.

Ailuros
2013-01-26, 17:51:51
http://www.xbitlabs.com/news/other/display/20130125153212_Qualcomm_Set_to_Develop_Server_ARM_Based_System_on_Chips.html

Qualcomm Set to Develop Server ARM-Based System-on-Chips.