PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PowerVR - GPU IP


Seiten : 1 2 3 [4] 5 6 7

robbitop
2012-06-04, 20:45:45
Vieleicht ist die Taktrate einfach viel höher. Die GPU im iPad 3 taktet ja nur mit niedrigen 200 MHz.

Ailuros
2012-06-05, 13:44:44
Vieleicht ist die Taktrate einfach viel höher. Die GPU im iPad 3 taktet ja nur mit niedrigen 200 MHz.

A5X/iPad3/SGX543MP4@250MHz (45nm); und ja OMAP5430 (28nm) mit SGX544MP2 wird ueber 500MHz takten (genaue Zahlen muessen ja so frueh noch nicht sein, aber man kann es sich anhand der Resultate schon vorstellen).

robbitop
2012-06-05, 14:25:49
Tja damit ist das Rätsel dann ja gelöst. Takt! :)
Ich denke mal im 28 nm Apple SoC im nächsten iPad wird dann ein doppelt so hoch getakteter 4MP verbaut sein oder vieleicht sogar schon ein Rogue? Letzteres wäre für Q1 2013 wohl noch zu früh.

Ist der 544 eigentlich pro Core wesentlich stärker als der 543?

Ailuros
2012-06-05, 14:57:03
Tja damit ist das Rätsel dann ja gelöst. Takt! :)
Ich denke mal im 28 nm Apple SoC im nächsten iPad wird dann ein doppelt so hoch getakteter 4MP verbaut sein oder vieleicht sogar schon ein Rogue? Letzteres wäre für Q1 2013 wohl noch zu früh.

Wenn Apple ihren GPU Vorsprung an ST Ericsson so einfach verschenken will, dann werden sie wohl immer noch auf einem Series5XT config brueten Anfang 2013. Ich persoenlich lege eher mein Geld auf einen A15+Rogue SoC von Apple und dazu die ersten Geraete in Massen Anfang 2013 mit Rogue. Apple ist trotzdem Apple.

Ist der 544 eigentlich pro Core wesentlich stärker als der 543?

Genau der gleiche Brei mit DX9 L3 (DX11 certified DX9); ergo hauptsaechlich zusaetzliche texturing Faehigkeiten u.a. fuer win8.

robbitop
2012-06-05, 16:03:20
Naja die Frage ist, ob Rogue frühzeitig produktionsbereit ist, so dass er Q1 2013 in Massen verkaufbar wäre.
Ist der Rogue im ST deutlich fixer als ein 543 4MP @ 500 MHz? Die reine aritmetische Rechenleistung soll ja viel höher sein, sagtest du ja mal...

iFanatiker
2012-06-05, 21:32:33
Genau der gleiche Brei mit DX9 L3 (DX11 certified DX9); ergo hauptsaechlich zusaetzliche texturing Faehigkeiten u.a. fuer win8.

Bißschen Offtopic:

Wenn wir schon mal bei Win 8 und PowerVR sind....

hast irgendwelche Infos ob irgendwas noch bei Intel passiert mit der Cerdar Trail IGP? Habe hier noch so ein Billig Asien Tablet mit einen Intel N2800 und wollte Win 8 installlieren......was an Metro Abstürzen durch den GPU Treiber scheiterte. Irgendeine Chance das Intel noch Treiber für GMA 500/3600/3650 zusammen geschustert bekommt?

Ailuros
2012-06-06, 12:46:45
Naja die Frage ist, ob Rogue frühzeitig produktionsbereit ist, so dass er Q1 2013 in Massen verkaufbar wäre.

Wieso sollte ST mehr Chancen haben als Apple als erste damit anzukommen? ST behauptete bei der originalen Ankuendigung sampling in spaet 2011 und projezierte Verfuegbarkeit H2 2012 und wer's glaubte damals war schoen bloed.

Zur Frage oben: wenn es Anfang 2013 Apple nicht schaffen sollte, wieso sollte ST mehr Chancen haben?

Ist der Rogue im ST deutlich fixer als ein 543 4MP @ 500 MHz? Die reine aritmetische Rechenleistung soll ja viel höher sein, sagtest du ja mal...

ST Novathor A9600
>210 GFLOPs
>5 GTexels/s texel fillrate (w/o overdraw)
>350 MTris/s
=/>DX10.1

SGX543MP4@500MHz (theoretisch)
72 GFLOPs
4 GTexels/s texel fillrate (w/o overdraw)
330 MTris/s
DX9

Rohe Zahlen sind aber ziemlich steril in solchen Faellen da der Vergleich zwischen Series5XT und Rogue irgendwo im Bereich G7x vs. G80 liegt (falls mit dem Vergleich der Groschen faellt).

Bißschen Offtopic:

Wenn wir schon mal bei Win 8 und PowerVR sind....

hast irgendwelche Infos ob irgendwas noch bei Intel passiert mit der Cerdar Trail IGP? Habe hier noch so ein Billig Asien Tablet mit einen Intel N2800 und wollte Win 8 installlieren......was an Metro Abstürzen durch den GPU Treiber scheiterte. Irgendeine Chance das Intel noch Treiber für GMA 500/3600/3650 zusammen geschustert bekommt?

Da PowerVR related ist es ueberhaupt nicht OT. Ich hab nicht die blasseste Ahnung was mit der Geschichte genau vorgeht und hab ehrlich auch keinen Bock mehr nachzufragen nur um irgend eine bloedsinnige Antwort zu erhalten. IMG haette DX10.1 certified Treiber schon seit einer Ewigkeit liefern sollen und nein dafuer gibt es keine einzige Entschuldigung.

iFanatiker
2012-06-06, 16:58:46
Da PowerVR related ist es ueberhaupt nicht OT. Ich hab nicht die blasseste Ahnung was mit der Geschichte genau vorgeht und hab ehrlich auch keinen Bock mehr nachzufragen nur um irgend eine bloedsinnige Antwort zu erhalten. IMG haette DX10.1 certified Treiber schon seit einer Ewigkeit liefern sollen und nein dafuer gibt es keine einzige Entschuldigung.

Jo. Dachte es gäbe was neues. Auf der Computex gab es ja auch Cerdar Trail Tablets mit Win8 wo Metro Anwendungen nicht direkt abschmierten. Leider passiert dies mit sämtlichen Treibern welche es zur Zeit für die Intel GMA 3600/3650 gibt. ;D;D Daher meine zarte Frage ob sich da was getan hat. Muss mal schauen ob meine Taiwan Connection bei den ganzen OEMs irgendwelche Infos haben. Meine...es MÜSSEN einfach irgendwelche Win8 Treiber vorhanden sein die vernünftig funktionieren unter Metro.

Und überhaupt....wären von dem Problem nicht auch andere Windows Arm SoC basierte System mit PowerVR IP nicht betroffen?

loewe
2012-06-06, 18:26:29
Was bei intel mit den Grafik Treibern für Cedar Trail läuft, kann ich nicht sagen. Sie haben aber kein großes Interesse, ansonsten würde es sicher anders aus sehen.
Bei PowerVR läuft da schon einiges. Sie haben definitiv Treiber für Win7 in 32 und 64 bit in arbeit und genauso sieht es aus mit Win8 Treibern.
AFAIK kommen die Treiber vollständig aus England und für beide BS bekommst Du einen Treiber, der sich als 32 oder 64 bit Version installiert, halt je nach BS. Solche Treiber liegen seit März 2012 bei PowerVR vor, über die Qualität kann ich nichts sagen, aber schon diese Version aus dem März war in der Versionsnummer weit vor dem was intel uns bisher gegeben hat.

Ansonsten denke ich nach wie vor, dass PowerVR seinen Treiber unter Windows nicht im Griff hat. Sie verschenken nach wie vor massiv Leistung unter DX und OpenGL ist noch lange nicht stabil.
Es ist ein Trauerspiel und wie AiL schon sagt, dafür gibt es keine Entschuldigung.

Ich wollte schon vor Monaten, ich habe seit Januar ein kleines D2700 System hier stehen als meinen Arbeitsrechner, über Cedar Trail schreiben, aber imgtec ist nicht bereit mir einen Treiber zu geben. So hab ich dann auch keine Lust. :(

iFanatiker
2012-06-06, 23:28:38
Danke für die Infos. Ist ja echt ein Trauerspiel nach nun fast sechs Monaten.

Mal schauen was ich aus Taiwan erfahre. Da gab es halt definitiv Win 8 Tablets und Netbooks mit Cerdar Trail Hardware welche NICHT bei Metro abgestürzt sind und dies passiert aktuell mit sämtlichen Treibern welche es im Netz zu finden gibt. Die einzige Ausnahme ist der Basic Video Adapter Treiber von Win 8 aber dieser bietet keine 1280*800/1368*768 Auflösung mit welcher die Geräte definitiv liefen. Ergo muss es irgendwelche Intel Treiber geben für Windows 8 die fortgeschrittener sind. Daneben war da wohl Aero an und es ruckelte nicht mehr so heftig wie mit den ganzen Treibern zur Zeit.

robbitop
2012-06-07, 08:41:09
Rohe Zahlen sind aber ziemlich steril in solchen Faellen da der Vergleich zwischen Series5XT und Rogue irgendwo im Bereich G7x vs. G80 liegt (falls mit dem Vergleich der Groschen faellt).
Wieso? Hat der Series5 irgendwelche Pipestalls? :)
Falls nein würde ich es eher sehen wie X1800 vs X1900. Letztere war anfangs nur 20% fixer und später 50...70 %.

Ailuros
2012-06-07, 10:33:07
Wieso? Hat der Series5 irgendwelche Pipestalls? :)
Falls nein würde ich es eher sehen wie X1800 vs X1900. Letztere war anfangs nur 20% fixer und später 50...70 %.

Schlechtes Beispiel, da R600 eher eine Banause war fuer 3D ueberhaupt im Vergleich zu R5x0.

Um Dir ein bisschen auf die Beine zu helfen: wieviele GFLOPs auf Papier hat eine G71 und wieviele G80? Weg vom Papier wie sieht es mit der Echtzeit-Effizienz direkt danach aus?

deekey777
2012-06-07, 10:43:06
Schlechtes Beispiel, da R600 eher eine Banause war fuer 3D ueberhaupt im Vergleich zu R5x0.

Um Dir ein bisschen auf die Beine zu helfen: wieviele GFLOPs auf Papier hat eine G71 und wieviele G80? Weg vom Papier wie sieht es mit der Echtzeit-Effizienz direkt danach aus?
R600 nahm aber auf einer HD2900 XT Platz. robbi meinte R520 vs. R580.

Ailuros
2012-06-07, 14:14:07
R600 nahm aber auf einer HD2900 XT Platz. robbi meinte R520 vs. R580.

Ich weiss schon was Robbi meinte; sein Beispiel war so oder so ausserhalb dem was ich meinte, denn GCN hat wohl einen wesentlichen Unterschied im Vergleich zu R600 und Nachfolger trotz USC ALUs.

Ronny145
2012-06-07, 18:32:02
Danke für die Infos. Ist ja echt ein Trauerspiel nach nun fast sechs Monaten.

Mal schauen was ich aus Taiwan erfahre. Da gab es halt definitiv Win 8 Tablets und Netbooks mit Cerdar Trail Hardware welche NICHT bei Metro abgestürzt sind und dies passiert aktuell mit sämtlichen Treibern welche es im Netz zu finden gibt. Die einzige Ausnahme ist der Basic Video Adapter Treiber von Win 8 aber dieser bietet keine 1280*800/1368*768 Auflösung mit welcher die Geräte definitiv liefen. Ergo muss es irgendwelche Intel Treiber geben für Windows 8 die fortgeschrittener sind. Daneben war da wohl Aero an und es ruckelte nicht mehr so heftig wie mit den ganzen Treibern zur Zeit.


Die Treiber für Windows 8 werden sich wohl im Alpha/Beta Status befinden. OEM Hersteller werden darauf sicherlich Zugriff haben. (Kommen die Treiber immer noch von Imagination?) In Q3 sollen die Treiber erhältlich sein laut Gerücht, was aber nicht viel heißen muss. Das hat sich beim Windows 7 Treiber ja auch ewig rausgezögert. Läuft bei dir Aero flüssig unter Windows 7? Anandtech (http://www.anandtech.com/show/5849/loigic-supply-lgx-ag150-fanless-system-review-cedar-trail-or-cedar-trial/3) berichtet von 1080p Aero "extremely slowly".

Ailuros
2012-06-13, 17:43:09
http://www.xbitlabs.com/news/other/display/20120612201632_AMD_ARM_Imagination_MediaTek_and_TI_Establish_Heterogeneous_Syste m_Architecture_Foundation.html

Ailuros
2012-06-15, 08:35:20
http://translate.google.gr/translate?hl=en&sl=ko&tl=en&u=http%3A%2F%2Fwww.acrofan.com%2Fko-kr%2Fcommerce%2Fcontent%2F%3Fmode%3Dview%26cate%3D0103%26wd%3D20120612%26ucode%3 D0001030001%26page%3D1%26keyfield%3D%26keyword%3D

G62xx/G4xx (Rogue) fast 20 SoCs:

4 taped out
2 in silicon

Vor 2013 ist aber nichts in Sicht was Geraete betrifft.

http://imgtec.com/News/Release/index.asp?NewsID=686

G6200 = 2 clusters
G6230 = 2 clusters
G6400 = 4 clusters
G6430 = 4 clusters

Imagination Meta processor delivers Dolby MS11 multistream for premium audio

http://imgtec.com/News/Release/index.asp?NewsID=685

Imagination Optimizes its IP Capabilities with TSMC on Latest Silicon Process Technologies

http://imgtec.com/News/Release/index.asp?NewsID=684

Imagination achieves Wi-Fi CERTIFIED Wi-Fi Direct™ certification for its Ensigma IP

http://imgtec.com/News/Release/index.asp?NewsID=682

Imagination announces new generation PowerVR D4500MP video decoder and E4500MP video encoder

http://imgtec.com/News/Release/index.asp?NewsID=683

Ailuros
2012-06-15, 10:26:46
TI OMAP4470 running windowsRT:

http://www.anandtech.com/show/6010/ti-demos-windows-rt-ui-performance-on-omap-4470

Ailuros
2012-06-21, 12:54:41
http://www.fudzilla.com/home/item/27610-foxconn-boss-claims-iphone-5-will-put-galaxy-s-iii-to-shame

Und bevor jetzt gleich an WTF kommt fuer die Relevanz mit dem thread hier:

Speaking at the company’s annual shareholders’ meeting, Gou confirmed that Hon Hai, or should we say Foxconn, struck entered an alliance with Sharp.

robbitop
2012-06-21, 13:09:26
Ich habe unter Google zwischen Sharp und IMG bis auf einen blöden Tuner der 2008 mit IMG entwickelt wurde nichts interessantes gefunden, was auf SGX/Rogue hinweisen kann.

Ailuros
2012-06-21, 13:18:34
Ich habe unter Google zwischen Sharp und IMG bis auf einen blöden Tuner der 2008 mit IMG entwickelt wurde nichts interessantes gefunden, was auf SGX/Rogue hinweisen kann.

Rogue hat fast 10 Lizenznehmer bis jetzt.

robbitop
2012-06-21, 13:45:40
Sag nicht der SoC kommt von Sharp... haben die überhaupt eine eigene Fertigung?

Ailuros
2012-06-21, 14:14:22
Sag nicht der SoC kommt von Sharp... haben die überhaupt eine eigene Fertigung?

Sharp zaehlt zu den langjaehrigen guten japanischen Partner von IMG. Bis jetzt hat sich bei Sharp was smartphones betrifft nichts besonderes bewegt. Eine enge Zusammenarbeit mit Foxconn, duerfte schon ein relevantes Ziel haben ueberhaupt wenn Foxconn grosskotzig angibt dass sie Samsung in 3-5 Jahren schlagen wollen.

Ailuros
2012-07-10, 15:37:17
http://withimagination.imgtec.com/?p=548

Nichts besonders Neues ausser dem typischen Marketing-Gewaesch, ausser in den Kommentaren:

We have not yet revealed details about the framebuffer algorithm implementation so unfortunately I cannot comment on that part of your question. At the system level you would indeed require compression to be supported for the complete display chain for optimal return on investment, however it should be noted that a large number of the render targets in applications today are not “on-screen” but are rendered to “off-screen” buffers and later blended to the final display buffer. This means that lossless compression can reduce the bandwidth usage for all those intermediate reads and writes even if the final write by the GPU and the final read by the display controller is not compressed. Some common usage cases that would benefit: UI compositing within Android, Shadowmaps and reflection maps in games.

Coda
2012-07-10, 15:53:25
Ist wohl das übliche was NVIDIA und AMD auch machen (Hier-Z, MSAA-Compression, etc.)

robbitop
2012-07-10, 16:44:06
Das wäre aber ein bisschen lächerlich oder? Ich meine, das gibt es schon seit > 10 Jahren. Meinst du, dass sie nicht bereits vorher eine Framebuffercompression hatten?
Falls es nur das ist, würde ich mich gar nicht trauen, damit zu werben...

Coda
2012-07-10, 23:45:30
Wüsste nicht was du sonst viel machen kannst in Hardware. Es muss auf jeden Fall auf Blöcken basieren, andernfalls geht das nicht mit den ROPs/Speichercontrollern etc. Man kann auch keine anderen Bildinformationen außerhalb dieses Blockes nutzen.

Was bleibt dann denn noch übrig? Farbe wiederholt sich gewöhnlich nicht in regelmäßigen Mustern (MSAA hat oft die gleiche Farbe für alle Subsamples), für den Rest haben NVIDIA & AMD schon so gut wie alles abgeschöpft.

Also ja, ich glaube, dass sie tatsächlich früher außerhalb des Chips keine Kompression gehabt haben, was wegen TBDR früher ja auch Sinn ergab. Durch das ganze deferred Rendering haben sich die Zeiten aber geändert.

robbitop
2012-07-11, 09:41:24
Das kann natürlich sein.

Ich habe so still und heimlich an Framebufferkompression mit Speicherplatzeinsparung gedacht. Das ist ja leider nicht so einfach möglich. War da nicht mal etwas mit virtualisiertem Speicher als Voraussetzung dafür?
So könnte man immerhin VRAM sparen.

Ailuros
2012-07-11, 09:44:57
Keine Ahnung ob es bis jetzt framebuffer compression gab, aber ich bezweifle es. Parameter compression und dergleichen fuer binning wohl schon, aber wie Coda auch schaetzt duerfte framebuffer compression neu sein. Wenn man sich das video im link oben anschaut, erklaert Kristof wieso u.a. es zu einer Notwendigkeit wurde. Rogue cores sollen je nach Fall verrueckt hohe Aufloesungen unterstuetzen. Uebrigens duerfte FC auch einen guten Anteil fuer bessere Effizienz fuer post processing gegenueber Serie5 beitragen.

Coda
2012-07-11, 10:19:56
Das kann natürlich sein.

Ich habe so still und heimlich an Framebufferkompression mit Speicherplatzeinsparung gedacht. Das ist ja leider nicht so einfach möglich. War da nicht mal etwas mit virtualisiertem Speicher als Voraussetzung dafür?
So könnte man immerhin VRAM sparen.
Nicht für den Framebuffer. Da könnte man was für Texturen machen mit Transcoding (ähnlich wie Megatexture).

Ailuros
2012-07-19, 10:23:48
http://www.fudzilla.com/home/item/27981-intel-ceo-confirms-140-ivy-ultrabooks-in-design-stage


Intel is also tracking more than 20 Windows 8 tablet designs based on the company’s Clover Trail architecture.

Clover Trail comes with Power VR SGX 544MP2 graphics in dual-core version and 533MHz clock and should end up shipping together with Windows 8.

robbitop
2012-07-19, 10:33:26
Ist Intel eigentlich mittlerweile mit den Windowstreibern von IMG zufrieden oder ist das noch ein großer Problemherd?
Werden IMGs GPUs in den mobilen Intel SoCs erhalten bleiben in Zukunft oder switcht Intel zu eigenen Lösungen?

Ailuros
2012-07-19, 10:46:18
Ist Intel eigentlich mittlerweile mit den Windowstreibern von IMG zufrieden oder ist das noch ein großer Problemherd?
Werden IMGs GPUs in den mobilen Intel SoCs erhalten bleiben in Zukunft oder switcht Intel zu eigenen Lösungen?

Keine Ahnung; aber wie schon erwaehnt da Clovertrail nicht die einzige Platform fuer win8 geplant ist, sitzt wohl IMG ziemlich tief in ihrer Pampe falls sie immer noch windows Treiber Probleme haben sollten und das nicht nur fuer Intel.

Inselbewohner
2012-07-19, 16:39:22
ist clover trail immer noch eine atom cpu? denn wenn das so ist, können die von mir aus die "20 designs" behalten. atom verbraucht einfach zu viel für die gebotene leistung. powervr gpu hin oder her...

AnarchX
2012-07-19, 17:09:08
So schlecht sieht der Smartphone-Atom nicht aus: http://www.anandtech.com/show/5770/lava-xolo-x900-review-the-first-intel-medfield-phone/1

Entsprechend wird sich wohl auch die Tablet-Version positionieren. Und 2013 soll es eine neue Atom Architektur geben, die wohl die Pro-MHz-Leistung um gute 50% steigern soll.

iFanatiker
2012-07-19, 18:35:46
Ist Intel eigentlich mittlerweile mit den Windowstreibern von IMG zufrieden oder ist das noch ein großer Problemherd?


Nach wie vor Katastrophe. Habe hier Cerdar Trail Tablet und so das neuste an Win 8 Treiber bisher und es ist einfach nur traurig.

Keine Ahnung; aber wie schon erwaehnt da Clovertrail nicht die einzige Platform fuer win8 geplant ist, sitzt wohl IMG ziemlich tief in ihrer Pampe falls sie immer noch windows Treiber Probleme haben sollten und das nicht nur fuer Intel.

Was meinst du wieso wohl Surface auf Tegra 3 setzt und MS bei WP8 als Referenzplattform wieder bei QM gelandet ist.
So wie die Situation ist wird bei Windows RT meiner Meinung nach nVidia der große Gewinner sein. Falls sie es schaffen pünktlich und in Stückzahlen ihr A15 Update zu bringen könnten sie als großer Gewinner dastehen.

loewe
2012-07-19, 19:51:46
Ich kann iFanatiker eigentlich nur zustimmen!

Von intel gibt es bis heute keine neueren Cedar Trail Treiber, als die vom Januar 2012, wohl gemerkt nur Window 7 und auch dort nur für 32 Bit.
Sicher wird man bei imgtec daran arbeiten, aber wohl eher erfolglos, ich kann mir nicht vorstellen, dass sie ansonsten nichts tun würden. AFAIK ist PowerVR das Problem, wenn es um die Qualität von Atom geht.

Es läuft immer noch das ION System meiner Frau weit besser, als mein D2700 System. Die Grafik des SGX 545 bei 640 MHz bringt etwa die doppelte Leistung gegenüber dem SGX535 bei 200 MHz und das bei mehr als dreifachem Takt und mehr als sechsfacher Shader-Leistung!
Wenn da nicht ein wunder geschieht, dann wird das nichts mit Atom.

Das es nicht an der Hardware liegt zeigt Apple.
Ich denke, PowerVR bekommt seine Treiberprobleme unter Windows nicht in den Griff! :(

Ronny145
2012-07-19, 20:48:17
Von intel gibt es bis heute keine neueren Cedar Trail Treiber, als die vom Januar 2012, wohl gemerkt nur Window 7 und auch dort nur für 32 Bit.



Windows XP: http://downloadcenter.intel.com/Detail_Desc.aspx?agr=Y&DwnldID=21551&ProdId=3383&lang=deu
Windows 7 April: http://downloadcenter.intel.com/Detail_Desc.aspx?agr=Y&DwnldID=21138&ProdId=3383&lang=deu
Windows 7 Juni OEM: http://de.computers.toshiba-europe.com/innovation/download_driver_details.jsp?service=DE&selCategory=2&selFamily=387&selSeries=242&selProduct=7449&selShortMod=3380&language=17&selOS=null&selType=null&yearupload=&monthupload=&dayupload=&useDate=null&mode=allMachines&search=&action=search&macId=&country=12&selectedLanguage=17&type=null&page=1&ID=82566&OSID=29&driverLanguage=42

loewe
2012-07-20, 10:52:49
Windows XP: http://downloadcenter.intel.com/Detail_Desc.aspx?agr=Y&DwnldID=21551&ProdId=3383&lang=deu
Windows 7 April: http://downloadcenter.intel.com/Detail_Desc.aspx?agr=Y&DwnldID=21138&ProdId=3383&lang=deu
Windows 7 Juni OEM: http://de.computers.toshiba-europe.com/innovation/download_driver_details.jsp?service=DE&selCategory=2&selFamily=387&selSeries=242&selProduct=7449&selShortMod=3380&language=17&selOS=null&selType=null&yearupload=&monthupload=&dayupload=&useDate=null&mode=allMachines&search=&action=search&macId=&country=12&selectedLanguage=17&type=null&page=1&ID=82566&OSID=29&driverLanguage=42

Der WXP "Treiber" ist nicht hardwareunterstützt für 2D, 3D und Video, das ist einfach nur ein alter EMGD Treiber vom Poulsbo System ohne Hardware Beschleunigung.

Alle Win7 Treiber verwenden immer noch die gleiche uralte Code-Basis, auch der Toshiba Treiber unterscheidet sich im OGL und D3D Treiber überhaupt nicht von den 1075 oder 1077 Treibern vom Februar.

PowerVR war schon im Februar/März wesentlich weiter mit den Treibern, was die Versionsnummern anbelangt, ob die Treiber besser sind, kann ich nicht sagen.

Es bleibt ein Fakt, die Atom Systeme von intel leiden massiv unter den schlechten Treibern, die nun mal irgendwie von PowerVR kommen. Der PowerVR Core im iPhone4S ist wesentlich leistungsfähiger als der PowerVR im Atom (Cedar Trail) und das sollte nicht so sein. Beide sollten etwa in der gleichen Liga spielen. Mag ja sein, das PowerVR schon bessere Treiber haben, aber wir als Kunden haben nichts davon.

Ronny145
2012-07-20, 11:08:56
Alle Win7 Treiber verwenden immer noch die gleiche uralte Code-Basis, auch der Toshiba Treiber unterscheidet sich im OGL und D3D Treiber überhaupt nicht von den 1075 oder 1077 Treibern vom Februar.

Welche dll/sys ist der d3d Treiber?


Es bleibt ein Fakt, die Atom Systeme von intel leiden massiv unter den schlechten Treibern, die nun mal irgendwie von PowerVR kommen.

Das stand nie in Frage. Vermutlich wird auch nicht mehr sonderlich viel passieren. Intel wechselt ja mit der nächsten Atom Generation auf eigene GPUs mit eigenen Treibern.

Ailuros
2012-07-20, 11:30:41
Was meinst du wieso wohl Surface auf Tegra 3 setzt und MS bei WP8 als Referenzplattform wieder bei QM gelandet ist.

Tegra3 war als SoC als erster verfuegbar fuer win8 als alle andere SoCs mit DX9 L3 GPUs.

So wie die Situation ist wird bei Windows RT meiner Meinung nach nVidia der große Gewinner sein. Falls sie es schaffen pünktlich und in Stückzahlen ihr A15 Update zu bringen könnten sie als großer Gewinner dastehen.

Natuerlich hat NVIDIA einen ziemlich grossen Vorteil wenn es zu Treiber/compiler Erfahrung und resourcen kommt. Sollte aber nicht heissen dass Konkurrenten wie Qualcomm unter vielen sich auf die Seite drehen werden und eine weisse Fahne wedeln.

Falls IMG wirklich nichts anstaendiges liefern kann was windows Treiber betrifft, dann ist die folgende Projektion der Muelltonne gewidmet:

http://www.imgtec.com/corporate/presentations/prelims12/22.jpg

Bis jetzt sind ihre Projektionen sogar leicht konservativ was ihre finale eigentlichen Resultate betrifft; ergo bleibt abzusehen ob und wie stark sie sich hier verkniffen haben.

Heutige insgesamte Marktanteile sehen so aus:

http://www.imgtec.com/corporate/presentations/prelims12/46.jpg

...und IMG fuehlt sich indirekt am meisten bedroht von Qualcomm genauso langfristig wie Intel was den SFF Markt betrifft und dieses obwohl Qualcomm bei weitem den miesesten compiler bzw. Treiber fuer ihre GPUs momentan hat.

Es aendert zwar nichts an NV's oben erwaehnten Vorteil, aber auch nicht an der Tatsache dass GPU IP ein viel groesseres Volumen insgesamt in solch einem Markt anspricht wo IP von einer Unzahl von NV's direkten Konkurrenten benutzt wird.

NV wird mit der Zeit konstant zulegen, aber der Weg zum Marktfuehrer fuer SFF ist noch verdammt lang.

loewe
2012-07-20, 12:36:51
Welche dll/sys ist der d3d Treiber?

igdumd32.dll, so nennt sie zumindest intel, bei PowerVR heißen sie AFAIK imghal32.dll, zumindest in der 32bit Version.
BTW, PowerVR hat zumindest schon seit beginn des Jahres sowohl 32bit als auch 64bit Treiber für Cedar Trail.

Ronny145
2012-07-20, 12:41:53
igdumd32.dll, so nennt sie zumindest intel, bei PowerVR heißen sie AFAIK imghal32.dll, zumindest in der 32bit Version.
BTW, PowerVR hat zumindest schon seit beginn des Jahres sowohl 32bit als auch 64bit Treiber für Cedar Trail.



Dann ist der neuere Treiber verschieden, größer. Hatte ich doch Recht gehabt. Die Bezeichnung imghal gab es bei den Beta Treibern für Cedar. Wenn die 64 Bit Treiber in dem gleichen Zustand sind, in dem die 32 Bit Treiber gewesen sind und es Ewigkeiten brauchte für ein WHQL Zertifikat, kann ich verstehen, dass es die für Cedar nicht gibt.

Ailuros
2012-07-23, 15:07:22
Eine These die ich immer noch nicht glauben schenken will, ist dass beim 545 es einfach doch nicht nur am Treiber bzw. sw hapert. Zumindest wuerde es die ganze Blamage etwas besser erklaeren. Afaik hat ja ausser Intel kein anderer IMG Partner SGX545 lizenziert.

Ronny145
2012-07-23, 15:27:06
Was ich komisch finde ist folgendes.

8.14.8.1077= offizieller Win 7 x32 auf der Intel Seite
8.15.8.1050= Win 7 beta Treiber August 2011 (war für kurze Zeit auf der Intel Seite verlinkt)


igdumd32.dll 1074 KB

imghal32.dll 1136 KB
imghal64.dll 1481 KB


Der d3d Treiber vom Beta Treiber war erstens größer und zweitens gab es diverse 64er Files, was wohl für 64 Bit spricht. Woher die Diskrepanz? Der Unterschied zwischen 14 und 15 lässt sich leicht erklären von der inf:

;8.14.xx.xxxx Win7 & later DX9
;8.15.xx.xxxx Win7 & DX10


Das macht Sinn. DX10 war bekanntlich geplant und wurde später verworfen. Cedar hatte lange Zeit Probleme ein WHQL Zertifkat bekommen, genaue Gründe wissen wir nicht. Hat Intel deswegen die Treiber teilweise umgeschrieben was vielleicht dadurch u.a. zum Wegfall von DX10 und 64 Bit führte? Kann ein Cedar Besitzer mit dem Beta Treiber austesten, ob DX10 unterstützt wird?

Ailuros
2012-08-22, 12:27:27
http://withimagination.imgtec.com/?p=650

----------------------------------------------------------------

Erste Resultate vom OMAP4470 (SGX544"MP1"@384MHz) in GLBenchmark2.5:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&certified_only=1&D1=Archos%20101G10&D2=Apple%20iPhone%204S&D3=Apple%20iPad%202

Im Vergleich zum iPhone4S (SGX543MP2@200MHz) und iPad2 (SGX543MP2@250MHz) skaliert das Ding ziemlich gut.

http://www.glbenchmark.com/result.jsp?benchmark=glpro25&advanced-filter=false&orderby=448&base=gpu&screen-group=true&screen-group-value=1&os=0&os=1&os=2&os=3&os=4&version=all&certified_only=1&brand=all&gpu=all&screen=4&screen=3&screen=2&screen=1&screen=0

Nicht allzu weit entfernt vom 32nm Mali400MP4@440MHz. Da Samsung und ST Ericsson (~600MHz) SoCs mit sehr hoch getakteten SGX544 single cores planen, platziert sich das Ding als single core Variante mit dem richtigen Takt ziemlich gut.

http://www.cnx-software.com/2012/07/15/st-ericsson-to-launch-2-3-ghz-novathor-l8580-dual-core-cortex-a9-processor/

Ailuros
2012-09-13, 14:52:08
Naechstes Lenovo LePad mit einem mainstream MediaTek SoC:

http://www.mediatek.com/en/News/news_content.php?sn=1077

Sigma mit einem SoC fuer smart-TVs:

http://www.sigmadesigns.com/uploads/library/press_releases/120902.pdf

Sonst:

http://www.rttnews.com/1964914/imagination-technologies-on-track-for-continued-progress-quick-facts.aspx?type=qf&utm_source=google&utm_campaign=sitemap

Uebrigens duerften die Lizenznehmer fuer Rogue GPU IP schon 10 sein. AGM am 14/09/12.

Ailuros
2012-09-18, 12:05:34
ST Microelectronics/ST Ericsson A9540 bei der PT Expo in Kina vorgestellt:

http://translate.googleusercontent.com/translate_c?depth=1&hl=en&ie=UTF8&prev=_t&rurl=translate.google.gr&sl=zh-CN&tl=en&u=http://www.cnii.com.cn/index/zt/2012txz/content/2012-09/18/content_1007918_2.htm&usg=ALkJrhhtOkqHUPgIt0VJHgZlvp7aHLUnWw

Mainstream SoC@28nm, LTE, dual A9@1.85GHz, SGX544@500MHz

http://withimagination.imgtec.com/index.php/hellosoft/voice-over-lte-the-sound-of-change

----------------------------------------------------------------

Motorola RAZR i mit Intel Atom@2GHz, SGX540@400MHz (Medfield):

http://www.anandtech.com/show/6307/motorola-hits-2ghz-with-intel-powered-razr-i

Ailuros
2012-09-19, 20:39:36
Kishonti hat mit GLBenchmark2.5 neue Messungen fuer die Batterie-Laufzeit eingefuehrt. Sehr viele Resultate gibt es bis jetzt noch nicht aber momentan liegt das iPad3 mit seiner bombastischen Batterie noch an der Spitze gefolgt vom Samsung GalaxySIII smartphone. Als Referenz nimmt Kishonti den Egypt HD test bei 100% brightness 30fps:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&certified_only=1&D1=Apple%20iPad%203&D2=Samsung%20GT-I9300%20Galaxy%20S%20III&D3=HTC%20One%20X%20(EndeavorU)&D4=Apple%20iPhone%204S

....und ich dachte dass die Batterie-Laufzeit unter 3D viel zu kurz ist auf dem iPhone4S. Wenn ich mir das erste Resultat vom HTC OneX EndeavorU (Tegra3) aber ansehe sieht es noch schlechter aus. Mal sehen wie das Bild aussehen wird wenn mehr Resultate zu Tage kommen denn die Batterie auf dem T3 OneX koennte auch miserabel klein sein z.B. Im jeglichen Gegenfall faellt der Mythos erstmal zum Fenster raus dass die MP GPUs in Apple's i-Gear brutal viel Strom verbrauchen und es bleibt wohl das uebliche bisherige Dilemma ob:

CPU-gpu oder GPU-cpu

Samsung muss man es aber lassen. Ausgezeichnete Leistung fuer das SIII selbst in diesem Stresstest. Tablet Batterielaufzeit auf einem smart-phone mit Tablet-Leistung.

Ailuros
2012-09-21, 11:38:17
Windows 8 auf Intel CloverTrail (Acer W510):

http://www.fudzilla.com/home/item/28840-intel-shows-us-clover-trail-performance-on-a-tablet

Ailuros
2012-09-24, 12:22:24
http://www.imgtec.com/powervr/insider/docs/PowerVR.Performance%20Recommendations.pdf

Devs koennen wohl ziemlich schnell erkennen was sich genau geaendert hat.

PowerVR SDK3.0 veroeffentlicht:

http://withimagination.imgtec.com/index.php/news/do-more-with-the-newly-released-powervr-graphics-sdk-v3-0

Ailuros
2012-10-05, 08:04:46
Connected home und digital TV (IFA & IBC roundup): http://withimagination.imgtec.com/index.php/events/ifa-and-ibc-event-roundup

Zum Thema connected home hat Anand einen ziemlich interessanten Artikel:

http://www.anandtech.com/show/6354/home-automation-and-the-internet-of-things

Loeschzwerg
2012-10-05, 17:08:52
http://www.computerbase.de/news/2012-10/treiberprobleme-bei-windows-8-tablets-mit-intel-clover-trail/

Hm... wäre schade wenn sich die Clover Trail Tablets verschieben würden.

Gespannt bin ich in jedem Fall wie Intel die Grafiktreiber hinbekommt, die für den GMA500 sind, im Hinblick auf die Leistung, eine Katastrophe. Zudem zerhagelt es die Aero Oberfläche (Win7 32Bit) ziemlich oft...

Gibt es eigentlich Info wann wir Series 6 in Aktion sehen werden? (Smartphone, Tablet o.ä.)

Ailuros
2012-10-05, 22:17:43
Naechstes Jahr.

Ailuros
2012-10-16, 12:25:56
http://www.xbitlabs.com/news/mobile/display/20121015215913_Imagination_Technologies_to_Tailor_PowerVR_Graphics_Cores_to_Foun dries.html

http://www.imgtec.com/News/Release/index.asp?NewsID=699

Wuerde wohl die Frage der Vergangenheit beantworten wieso sie ploetzlich Rogue mit so extravaganten Frequezen planen (trotz =/<28nm) im Vergleich zu den eher konservativen Frequenzen von Series5 und Series4.

Ailuros
2012-11-03, 10:52:13
Nebenbei mal eine Tabelle von Series5XT bzw. Series5 Spezifikationen der letzten Zeit.


SoC GPU ALU lanes Frequency FLOPs TMUs Gtexels Z/stencil Gpixels M Tris/s

Apple A6X SGX554MP4 128 280 71.68 8 2240 64 17920 186.20
Apple A6 SGX543MP3 48 325 31.20 6 1950 48 15600 162.10
Apple A5X SGX543MP4 64 250 32.00 8 2000 64 16000 166.25
Apple A5 SGX543MP2 32 250 16.00 4 1000 32 8000 83.13
TI OMAP4470 SGX544MP1 16 384 12.30 2 768 16 6144 67.20
Intel Medfield SGX540 8 400 6.40 2 800 8 3200 40.00
Intel Clovertrail SGX545 8 533 8.53 2 1066 16 8528 106.60

Felixxz2
2012-11-03, 15:49:46
Wieso hat die 544MP4 8x soviele ALU Lanes wie die MP1?

dildo4u
2012-11-03, 16:45:34
Die Bezeichnung stimmt nich Ipad 4 nutzt ein 554MP4.554MP1 hat 32 statt 16 SIMDs.(544MP1)

http://www.anandtech.com/show/6426/ipad-4-gpu-performance-analyzed-powervr-sgx-554mp4-under-the-hood

Felixxz2
2012-11-04, 18:08:18
Aso ok

Ailuros
2012-11-05, 06:56:08
Die Bezeichnung stimmt nich Ipad 4 nutzt ein 554MP4.554MP1 hat 32 statt 16 SIMDs.(544MP1)

http://www.anandtech.com/show/6426/ipad-4-gpu-performance-analyzed-powervr-sgx-554mp4-under-the-hood

Typo korrigiert; nebenbei dauerte es Wochen bis ich mit Anand im klaren war wie jeglicher layout genau aussieht und das nicht nur fuer SGX sondern auch fuer Mali's. Das gute mit ihm ist dass er gerne auf andere hoert, ein bisschen weiterforscht und dann wenn's stimmt koriggiert. Ich hab ihn auch schon informiert dass der angebliche "neunte" core (keine Ahnung was es ueberhaupt sein koennte) nichts mit den ALUs zu tun hat. Es sind nach wie vor 8 Vec4 ALUs/core und der theoretische neunte FLOP koennte von der SFU kommen wie auch bei Adrenos bzw. Mali T6xx. Deshalb hab ich ihn oben auch nicht mitberechnet.

Wieso hat die 544MP4 8x soviele ALU Lanes wie die MP1?

Offensichtlicher typo denn es sollte 554 heissen und nicht 544.

Pro core:

SGX543/544
4 Vec4 + SFU


SGX554
8 Vec4 + SFU

Ailuros
2012-11-07, 06:20:27
http://www.imgtec.com/corporate/newsdetail.asp?NewsID=700

Imagination acquires operating business, certain patent properties and license rights to other patent properties of MIPS Technologies Inc., a leading provider of CPU architectures and cores, for US$60 million

http://www.anandtech.com/show/6436/imagination-technologies-acquires-mips-technologies

Imagination Technologies (ImgTec) announced their intent to acquire Sunnyvale-based MIPS Technologies for $60 million in cash. This price includes the operating business as well as ownership of 82 patents relevant to the MIPS architecture. The 482 remaining patents in the MIPS portfolio have been sold for $350 million to Bridge Crossing LLC, but Imagination Tech retains a royalty-free, perpetual license to them. The acquisition is expected to close in Q1 2013.

While ImgTec and MIPS don't go into the details of the companies behind Bridge Crossing LLC, ARM has come out with a press release indicating that they are a leading member of the consortium. Out of the $350 million being shelled out, ARM is contributing $167.5 million. Bridge Crossing LLC expects to license out the patents to companies who aren't part of the consortium. The acquisition of the patents by a licensing authority is more of a defensive move to prevent valuable MIPS patents from being picked up by patent trolls. While we don't have the full list of companies behind the LLC, it appears that most of them are affiliated to the Allied Security Trust, whose members include Hewlett-Packard, IBM and Intel.

Ailuros
2012-11-13, 08:02:05
http://www.imgtec.com/News/Release/index.asp?NewsID=703

Ensigma Series4

http://www.4-traders.com/MEDIATEK-INC-6495333/news/MediaTek-Inc-MediaTek-s-Innovative-Mobile-Solutions-Help-Power-Smartphone-Adoption-in-Brazil-15502243/

MediaTek MT6577 in Brazilien.

Ailuros
2012-11-14, 08:34:36
http://www.imgtec.com/News/Release/index.asp?NewsID=706

6 cluster GC6630 Rogue Variante. Schaetzungsweise nach den vorigen Specs:

320 GFLOPs, 8 GTexels/s, 525M Tris/s, DX11.1

G6630 delivers advanced power scaling technologies including enabling USC cluster pairs to be shut down depending on the App load, allowing X2, X4 and X6 modes of operation to provide multiple power/performance operating points with the same on-chip GPU.

http://www.imgtec.com/News/Release/index.asp?NewsID=702

Imagination Technologies, a leading multimedia and communications technologies company, has shipped, via its partners, over 1 billion cumulative SoCs (systems on chip) containing its IP cores.

robbitop
2012-11-14, 08:46:16
Mit einem 16x Cluster Rogue und 8x ARM A15 @ 2GHz hätte man auch einen netten Konsolen SoC bauen können.
Der wäre zwar auch nicht mehr sparsam aber sicher noch unter 150 W.

Ailuros
2012-11-14, 09:17:08
Mit einem 16x Cluster Rogue und 8x ARM A15 @ 2GHz hätte man auch einen netten Konsolen SoC bauen können.
Der wäre zwar auch nicht mehr sparsam aber sicher noch unter 150 W.

Stromverbrauch kann keiner von uns momentan einschaetzen ohne zu wissen was eine jegliche Rogue Variante verbraucht. Haetten sie einen Konsolen-design gewonnen, haette es einen zusaetzlichen "halo effect" generiert und auch die royalty Margen pro Jahr um etwas erhoeht (bei FY Volumen schaetzungsweise ~35% hoehere Margen) und haetten somit etwas das Loch das die billigeren grossen chinesischen deals generieren bewaeltigt.

Wenn Apple irgendwelche ambitionsreiche Plaene mit smartTVs fuer Gelegenheits-spielchen ueber iOS haben sollte hat sich das Ganze aber dank um einiges hoeheren Volumen wieder geregelt.

mboeller
2012-11-14, 13:22:57
Mit einem 16x Cluster Rogue und 8x ARM A15 @ 2GHz hätte man auch einen netten Konsolen SoC bauen können.
Der wäre zwar auch nicht mehr sparsam aber sicher noch unter 150 W.

Naja mit so was lahmen würde ich mich nicht zufrieden geben ;)

4 SoC mit jeweils [ 4 ARM A15 @ 2,4GHz + 8 Series 6 GPU @ 800MHz + 1024MB 128bit-DDR5-RAM @ 1,6GHz on Top ] ;D

1 SoC = Handheld
2 SoC = Tablet
4 SoC = Spielekonsole

robbitop
2012-11-14, 13:42:48
Naja viel mehr wirst du in der XBOX 3 auch nicht bekommen. 8x Jaguar Cores sind wohl auch nicht so viel schneller als 8x A15. Und die GPU sollte auch nicht so viel fixer sein.
Sieh es ein - High End Konsolen sind eh ein Relikt der Vergangenheit.

Deinorius
2012-11-14, 14:04:50
Mit so einer Aussage wäre ich vorsichtig. Unter Cinebench hat ein um 200 MHz niedriger getakteter Bobcat sogar 60 % mehr IPC. Ein Jaguar Core soll ja noch mal 15 % IPC dazu bekommen. Im Vergleich zum Atom müsste ein Jaguar bei gleichem Takt zumindest 75 % mehr dazu bekommen.
Ein Cortex A15 ist jetzt je nach Benchmark sogar schneller als ein Atom, also wird der Vorsprung etwas niedriger. So nahe sehe ich den A15 nicht am Jaguar.

Ailuros
2012-11-15, 07:05:21
Naja mit so was lahmen würde ich mich nicht zufrieden geben ;)

4 SoC mit jeweils [ 4 ARM A15 @ 2,4GHz + 8 Series 6 GPU @ 800MHz + 1024MB 128bit-DDR5-RAM @ 1,6GHz on Top ] ;D

1 SoC = Handheld
2 SoC = Tablet
4 SoC = Spielekonsole

Von der CPU Perspektive hast Du leider schon recht; ueber die GPU Perspektive gibt es leider noch zu wenig oeffentlich bekannte Daten.

Miserabler Vergleich aber ein paar Indizien kann man schon daraus ziehen:

AMD Hondo ist ein 40nm design mit einem "alten" GPU block im Vergleich zu GCN und hat 80SPs@270+MHz. Unter GLBenchmark2.5 soll das Ding laut Anand in 1080p 36 fps erreichen und das ist bei weitem nichts besonderes wenn man bedenkt dass selbst die 45nm iPad3 GPU ungefaehr so viel mit dem neuesten Treiber erreichen kann. Hier liegt aber dann der grosse Haken dass die Hondo GPU DX11 ist gegen nur DX9 beim SGX543MP4 im iPad3.

Der SGX554MP4@280MHz unter 32nm wiedderrum erreicht 51.9fps in 1080p, ergo ca. 44% mehr als Hondo, hat aber um fair zu sein auch 128SPs gegen nur 64 im iPad3.

Das meiste obrige ist ziemlich nichtsaussagend aber sobald das Argument aufkommt dass GCN um einiges effizienter ist, kommt dann automatisch das Gegenargument zwischen Series5XT und Serie6.

Keine Ahnung natuerlich ob eine hypothetische 16 cluster Rogue GPU zu viel oder zu wenig gewesen waere fuer N power envelope innerhalb eines Konsolen SoCs. Schwach waere so ein Ding aber auf jeden Fall nicht und das mal abgesehen von den FLOP Papierfranzen die genau so bedeutungslos sind wie Dreiecksraten vor etlichen Jahren.

Mit so einer Aussage wäre ich vorsichtig. Unter Cinebench hat ein um 200 MHz niedriger getakteter Bobcat sogar 60 % mehr IPC. Ein Jaguar Core soll ja noch mal 15 % IPC dazu bekommen. Im Vergleich zum Atom müsste ein Jaguar bei gleichem Takt zumindest 75 % mehr dazu bekommen.
Ein Cortex A15 ist jetzt je nach Benchmark sogar schneller als ein Atom, also wird der Vorsprung etwas niedriger. So nahe sehe ich den A15 nicht am Jaguar.

Ja und nein. In einer jeglichen Konsole (ob handheld oder Konsole) zaehlt nach wie vor die insgesamte Leistung des SoCs. Hondo ist eigentlich der Nachfolger des originalen E50, wobei Hondo auf niedrigeren Stromverbrauch getrimmt wurde (4.9W TDP wenn ich mich nicht irre). Der PS Vita SoC hat eine quad A9 CPU bei 1GHz (wobei der eine Kern unter 3D nicht verfuegbar ist weil auf diesem das "OS" laeuft) und einen SGX543MP4+@200MHz. Nach Aussagen bei B3D womoeglich von Sony Kerlen war das Vita unter so manchen DX9 Applikationen um einiges schneller als E50 bei ca. halbem Stromverbrauch; nun gut Hondo verbraucht um einiges weniger als E50, aber da so manche tradeoffs gezogen wurden hat es wohl auch etwas die Endleistung beinflusst.

Zugegeben es sind alles miserable Vergleiche, aber so miserabel waere es nun auch wieder nicht gewesen insgesamt.

mboeller
2012-11-15, 08:39:55
AMD Hondo ist ein 40nm design mit einem "alten" GPU block im Vergleich zu GCN und hat 80SPs@270+MHz. Unter GLBenchmark2.5 soll das Ding laut Anand in 1080p 36 fps erreichen und das ist bei weitem nichts besonderes


Woher hast du die Hondo-Werte?

Ich habe auf Anandtech danach gesucht, hab aber nichts gefunden.

Ailuros
2012-11-15, 10:12:21
Woher hast du die Hondo-Werte?

Ich habe auf Anandtech danach gesucht, hab aber nichts gefunden.

Er hat es irgendwo in einem video dass er gepostet hat erwaehnt. Ich hab's bei B3D gelesen aber auch nicht selber gesehen. Ich hab aber keinen besonderen Zweifel dass zumindest momentan dem so ist; man sollte auch betonen dass Hondo nur 64bit ist gegen iPad3@128bit.

Die CPUs im Hondo takten auf 1GHz afaik, die GPU bei 276MHz (8 TMUs, 4 ROPs). Kein Wunder dass das Ding eher mit iPad3 vergleichbar ist.

AnarchX
2012-11-15, 10:25:02
Bei der Per-FLOP-Leistung sieht es aber nicht so gut aus für SGX554MP gegen die alte VLIW5-Architektur, wenn man hier nur 44% schneller ist bei ~70% Peak-FLOP-Unterschied.

Wird die Per-FLOP-Leistung bei Series6 zu- oder abnehmen?

Ailuros
2012-11-15, 10:55:42
Bei der Per-FLOP-Leistung sieht es aber nicht so gut aus für SGX554MP gegen die alte VLIW5-Architektur, wenn man hier nur 44% schneller ist bei ~70% Peak-FLOP-Unterschied.

iPad3 duerfte mit dem naechsten Treiber nur einen Hauch Abstand haben von Hondo in 1080p und das mit 32 gegen 44 GFLOPs. Series5XT haben auch nur vektor ALUs.

Wird die Per-FLOP-Leistung bei Series6 zu- oder abnehmen?

Was koennte passieren wenn man von vektor auf "skalare" SIMDs steigt? GLBenchmark2.5 ist zwar ziemlich ALU-bound was die Leistung betrifft, es sollte aber nicht heissen dass es der einzige Faktor ist der mitspielt. Wenn dem so waere muesste ein T604 zumindest Gleichstand zum 554MP4 aufweisen.

Deinorius
2012-11-15, 11:19:09
Ja und nein. In einer jeglichen Konsole (ob handheld oder Konsole) zaehlt nach wie vor die insgesamte Leistung des SoCs.


Ja, ich habe aber dennoch nur die CPU verglichen.

Zugegeben es sind alles miserable Vergleiche, aber so miserabel waere es nun auch wieder nicht gewesen insgesamt.


Ja, du hast recht. Miserabel.

Ailuros
2012-11-15, 12:37:39
Ja, ich habe aber dennoch nur die CPU verglichen.

Ist aber nur die Haelfte der Geschichte fuer einen Konsolen-SoC, da sich der Gebrauch einer Konsole hauptsaechlich auf 3D konzentriert.

Nur so nebenbei es wurde sowohl von Microsoft als auch von Sony die Option eines ARM basierenden SoC evaluiert. Der primaere Grund warum sich beide fuer "halbfertige" AMD SoCs entschieden haben war IMHO Zeitdruck; anders an der entgueltigen Entscheidung haette sich so oder so nichts geaendert selbst wenn ARM CPU IP zur Verfuegung gehabt haette die gleichauf oder sogar leicht schneller gewesen waere als Jaguar cores.

Deinorius
2012-11-15, 13:10:48
Es ist nur die Hälfte der Geschichte, aber wenn die CPU schneller ist, dann ist ein SoC insgesamt dennoch schneller. Das heißt zwar nicht, dass die CPU den größeren Part einnimmt, im Gegenteil, aber es hat seine Auswirkungen.

Ob ein ARM/IMGTec SoC schneller/sparsamer als ein x86/AMD SoC wäre, lasse ich außen vor, da man das, wie schon erwähnt, eh nur miserabel vergleichen könnte.

Ailuros
2012-11-15, 13:38:50
Es ist nur die Hälfte der Geschichte, aber wenn die CPU schneller ist, dann ist ein SoC insgesamt dennoch schneller. Das heißt zwar nicht, dass die CPU den größeren Part einnimmt, im Gegenteil, aber es hat seine Auswirkungen.

Ist zwar eine brutale Vereinfachung aber von der technischen Seite her ist Dir eine XBox360 oder eine PS3 lieber und warum?

Ob ein ARM/IMGTec SoC schneller/sparsamer als ein x86/AMD SoC wäre, lasse ich außen vor, da man das, wie schon erwähnt, eh nur miserabel vergleichen könnte.

Nur um es klar zu machen: wenn ich ARM SoC sage muss es nicht unbedingt in allen Faellen mit IMG GPU IP kombiniert gewesen sein. Ich hab auch bei den vorigen Vergleichen betont dass es lediglich halbgahre Indizien sind, aber genau in diesen Faellen und auf einer Konsole ist eben x86 nicht die absolute Rettungsplanke. Zu guter letzt wenn CPU Leistung wirklich mir nichts Dir nichts so wichtig gewesen waere haetten die Hersteller auch die bittere Pille schlucken koennen und sich fuer Intel SoCs entschieden.

Der Punkt liegt im gegebenen Fall woanders: IMHO braucht man fuer anstaendiges 3D eine Kombination von einer starken CPU und einer starken GPU. Da man aber eben leider nicht immer alles haben kann, wenn eines der beiden schwaecher sein sollte ist mir bei einem waschreinen 3D Geraet eine Kombination von einer staerkeren GPU mit einer schwaecheren CPU lieber als anders rum.

Und nein das hat jetzt nichts direkt mit Rogue zu tun, denn GCN ist alles andere als eine Kruecke, eher das Gegenteil. Sony und Microsoft wollten so schnell wie moeglich (dank Verzoegerungen ueber 2 IP Evaluierungen durch die Jahre) SoCs haben und diesbezueglich war das Dilemma nur wirklich AMD und Intel fuer unmittelbare Verfuegbarkeit und nicht Zeitverschwendung fuer eine von Grund auf neue SoC Entwicklung. Am Ende haben beide Hersteller mit AMD's custom SoCs den kuerzeren gezogen wenn es zu CPU Leistung kommt.

robbitop
2012-11-15, 15:58:46
Also der Jaguar Core ist jetzt nicht gerade der Renner. IPC ist Mittelstrahl und Taktbarkeit ist niedrig. Aber er ist winzig und man kann viele von ihnen verbauen.
Es existiert offenbar noch keine ARM CPU, die gleich schnell wie ein Jaguar ist. Ich bin mir aber sicher, dass sich sowas hätte problemlos machen lassen. Auch eine höher taktbare und IPC stärkere Version. Hätte halt gedauert und die wäre größer und hungriger geworden. ARM allein ist ja nur das Instructionset - die gleichen Prinzipien gelten ja für alle CPUs.
Bei AMD hätte man auch einen Steamroller haben können. Aber eben dann wieder auch mit Nachteilen.
Wenn man gut parallelisiert, dann fährt man mit 8x Jaguar vs 4x Steamroller oder 4x fiktive andere CPUs mit hohem Takt + hoher IPC gar nicht so schlecht.
Jaguar ist klein, nicht hungrig und (teil-) automatisierbar synthetisiert auf den Fertigungsprozess.

@Ailuros
Series 5XT hat noch Multi-Issue Vector ALUs oder? Wird Rogue auf 1D ALUs umschwenken?

Deinorius
2012-11-15, 16:28:08
Ist zwar eine brutale Vereinfachung aber von der technischen Seite her ist Dir eine XBox360 oder eine PS3 lieber und warum?


Mach es nicht unnötig kompliziert. Wenn man zwei SoCs hernimmt, die mit Ausnahme der CPU IP identisch sind, dann ist derjenige mit der schnelleren CPU einfach schneller. Ob sich die schnellere Variante für eine Konsole rentiert, ist eine andere Geschichte. Ich habe aber nicht über Jaguar vs. Steamroller geschrieben, sondern lediglich gesagt, dass der Jaguar leistungstechnisch schneller ist als ein Cortex A15 und der Unterschied größer ist als von robbitop dargestellt.
Ob jetzt ein auf das Leistungsniveau von Jaguar aufgeplusteter A15 mehr oder weniger verbraucht, war mir jetzt schnurz, da man das sowieso schwer vergleichen kann. Oder gibt es irgendwelche Zahlen, wieviel überhaupt ein Bobact CPU Core ohne den ganzen Rest an Strom verbraucht? 4,5 W TDP bei Hondo schön und gut, aber das ist ja zusammen mit GPU und MC gemeint.

Da man aber eben leider nicht immer alles haben kann, wenn eines der beiden schwaecher sein sollte ist mir bei einem waschreinen 3D Geraet eine Kombination von einer staerkeren GPU mit einer schwaecheren CPU lieber als anders rum.


Habe auch nie was anderes geschrieben. Immerhin habe ich nur von CPUs geschrieben und nicht von GPUs.
Aber es macht dennoch einen Unterschied aus, ob man zu einer leistungsfähigen GPU (welche ich jetzt als Ausgangspunkt hernehme) entweder eine sparsame CPU dazu baut... oder eine Krücke! (Ich schiele gerade zu Nintendos Wii U hinüber.)

Es existiert offenbar noch keine ARM CPU, die gleich schnell wie ein Jaguar ist. Ich bin mir aber sicher, dass sich sowas hätte problemlos machen lassen. Auch eine höher taktbare und IPC stärkere Version. Hätte halt gedauert und die wäre größer und hungriger geworden.


Das ist doch der Punkt. Wozu jetzt mit ARM etwas kostenintensiver entwickeln, wenn es schon bei AMD vorhanden ist? Und man dann noch nichtmal sicher sagen kann, ob es bei gleicher Leistungsfähigkeit von der DIE-Größe oder beim Stromverbrauch her irgendwelche Vorteile hätte.

robbitop
2012-11-15, 16:32:45
Also heutzutage ist der Anteil, den der Instructionset ausmacht offenbar so gering, dass es völlig Banane ist, ob die CPU jetzt PPC, x86 oder ARM ist. Ab den Decodern ist sowieso alles ähnlich aufgebaut, wenn man die gleichen Ziele erreichen will.
Insofern kann jeder mit guten Designteams gleich gute ARMs wie PPC wie auch x86 CPUs bauen. (nur an Intel kommt niemand ran :D)

Ailuros
2012-11-16, 07:01:24
@Ailuros
Series 5XT hat noch Multi-Issue Vector ALUs oder? Wird Rogue auf 1D ALUs umschwenken?

5XT ist dual issue (4*FP32 + SFU), wobei man wohl die register files etwas aufpumpte weil bei Series5 zwar unter Umstaenden 2*FP32 moeglich war aber stellenweise wohl schon an register files stockte (im Gegensatz zu 2*FP16). Nebenbei fuer jegliche Series5 ALU:

2*FP32
2*FP16
Vec3 oder Vec4 INT8

Der letzte Teil (lowp unter OGL_ES) ist bei Rogue weg.

Theoretisch bekommst Du aus jeder Series5 ALU maximal 4 FLOPs und aus jeder Series5XT ALU 9 FLOPs. Fuer Rogue hat IMG's Marketing-Material schon "skalare" SIMDs erwaehnt (wobei "skalar" vieles bedeuten kann; IMHO sind ALUs mit genug register files ausgestattet kann sich so manches zur besseren Effizienz aendern). Wenn Du von den bisher bekannten Daten rueckwaerts spekulativ rechnest bekommst Du pro cluster 80 FLOPs, wie sich das jetzt auf ALU lanes verteilen koennte wuerde ich selber gerne wissen, aber nach einer Dimension klingt mir das Ganze nicht ;)

Zwar nichts wert wenn man die Anzahl der ALU lanes nicht weiss, aber da jeder Rogue cluster auch wohl nur 2 TMUs hat sind es 2.2x Mal mehr FLOPs fuer jeden TMU block.

Mach es nicht unnötig kompliziert. Wenn man zwei SoCs hernimmt, die mit Ausnahme der CPU IP identisch sind, dann ist derjenige mit der schnelleren CPU einfach schneller. Ob sich die schnellere Variante für eine Konsole rentiert, ist eine andere Geschichte. Ich habe aber nicht über Jaguar vs. Steamroller geschrieben, sondern lediglich gesagt, dass der Jaguar leistungstechnisch schneller ist als ein Cortex A15 und der Unterschied größer ist als von robbitop dargestellt.
Ob jetzt ein auf das Leistungsniveau von Jaguar aufgeplusteter A15 mehr oder weniger verbraucht, war mir jetzt schnurz, da man das sowieso schwer vergleichen kann. Oder gibt es irgendwelche Zahlen, wieviel überhaupt ein Bobact CPU Core ohne den ganzen Rest an Strom verbraucht? 4,5 W TDP bei Hondo schön und gut, aber das ist ja zusammen mit GPU und MC gemeint.

Der Haken liegt eben im letzten Satz; denn bei einem SoC zaehlt die insgesamte Effizienz und nicht was nur ein theoretisch abgeschachtelter block von diesem theoretisch leistet. Ich hab nirgends behauptet dass Jaguar nicht effizienter auf Papier aussieht wie Eagle/A15 und ich hab auch keine Zweifel dass es auch in Echtzeit so sein wird; mein einziger Einwand ist dass die Unterschiede auch wohl wieder nicht so gross sein werden ueberhaupt in einer Konsolen-Umgebung.

Das Ganze duerfte von der insgesamten Implementierung abhaengen und wenn theoretisch der GPU block eventuell etwas weniger Strom verbraucht (eben weil er primaer fuer small form factor ausgelegt ist), koennte man den Gewinn an Watts woanders investieren. Nur so nebenbei nochmals: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9543956&postcount=813

Habe auch nie was anderes geschrieben. Immerhin habe ich nur von CPUs geschrieben und nicht von GPUs.
Aber es macht dennoch einen Unterschied aus, ob man zu einer leistungsfähigen GPU (welche ich jetzt als Ausgangspunkt hernehme) entweder eine sparsame CPU dazu baut... oder eine Krücke! (Ich schiele gerade zu Nintendos Wii U hinüber.)

Die endgueltige Balance bzw. Effizienz eines jeglichen SoCs ist was eigentlich am Ende zaehlt.

Das ist doch der Punkt. Wozu jetzt mit ARM etwas kostenintensiver entwickeln, wenn es schon bei AMD vorhanden ist? Und man dann noch nichtmal sicher sagen kann, ob es bei gleicher Leistungsfähigkeit von der DIE-Größe oder beim Stromverbrauch her irgendwelche Vorteile hätte.

Genau der letzte Satz ist der springende Punkt der eben die ARM These von Anfang an zwielichtig macht. Ergo einfacher ist eben nicht so einfach wie 1+1=2 sondern um einiges komplizierter.

Ailuros
2012-11-18, 17:54:43
Etwas mehr Marketing zum GC6630:

http://withimagination.imgtec.com/index.php/powervr/powervr-g6630-go-fast-or-go-home

All our ‘Rogue’ cores also include a robust power management mechanism. We’ve defined power islands which can be turned on or off dynamically to optimize power consumption. For example, the PowerVR G6630 enables each cluster pairs to be managed, allowing three modes of operations (X2, X4 and X6) which will help extend the ever-essential battery life of mobile and embedded computing systems.

Ergo wohl doch nicht nur G6630.

Additional features include advanced autonomous processing and enhanced, dedicated scheduling via a C programmable microkernel based on Imagination’s Meta CPU technology and a dedicated 2D processor to offload common duties from the shader cluster core such as block image transfers allowing the core to perform basic graphics management tasks.

Na wurde wohl auch Zeit.

Ronny145
2012-11-18, 18:01:53
Warum wird in der Grafik bei Rogue DX10 angegeben und nicht DX11 oder DX11.1?

Ailuros
2012-11-18, 18:09:03
Warum wird in der Grafik bei Rogue DX10 angegeben und nicht DX11 oder DX11.1?

Frag ich mich selber auch schon. Ich hatte den Eindruck dass bei den 6x30 Varianten mit "all out" DX11.1 gemeint ist. Wenn man schon mit dem Zeug immer wieder herumwirbt, waere es wohl nicht all zu schwer das Ganze etwas deutlicher zu machen. Gut wird haben bis jetzt angekuendigt:

G 6200 = 2 cluster
G 6400 = 4 cluster
G 6230 = 2 cluster
G 6430 = 4 cluster
G 6630 = 6 cluster

Wenn bei den 6x30 Varianten der Unterschied nicht dx11.1 sein sollte, dann was? Die erste Zahl (6) steht fuer Series6, die zweite Zahl fuer die Anzahl der clusters, die dritte (0 oder 3) fuer weiss der Geier wohl was.

Ronny145
2012-11-18, 18:19:07
Dann hätte man bei diesen Modellen DX11 hinschreiben können. Im Text ist von full WHQL-compliant DirectX10 und certain family members extending their capabilities to DirectX11.1 die Rede. Frei übersetzt klingt das für mich danach, als wenn nur DX10 "full WHQL-compliant" wäre und DX11/.1 nicht vollständig implementiert ist, es also nicht offiziell mit DX11 deklariert werden kann oder darf.

Ailuros
2012-11-18, 22:53:32
Dann hätte man bei diesen Modellen DX11 hinschreiben können. Im Text ist von full WHQL-compliant DirectX10 und certain family members extending their capabilities to DirectX11.1 die Rede. Frei übersetzt klingt das für mich danach, als wenn nur DX10 "full WHQL-compliant" wäre und DX11/.1 nicht vollständig implementiert ist, es also nicht offiziell mit DX11 deklariert werden kann oder darf.

Die hw wird von DX10 bis zu DX11.1 skalieren je nach Fall. Welche Modelle was sind weiss wohl noch keiner; entweder gibt es noch keine angekuendigte DX11.1 Variaten oder es sind die 6x30 cores und marketing spielt Kautz und Maus mit sich selber. Der wesentliche Unterschied zwischen DX10 und 11.1 cores ist der zusaetzliche Tessellations-Coprozessor fuer 11.1. Ich kann das Diagramm wo das letzte angezeigt wurde nur nicht mehr finden.

mboeller
2012-11-19, 14:37:09
Da Ailuros den Link hier noch nicht gepostet hat:

http://withimagination.imgtec.com/index.php/powervr/the-rise-of-gpu-compute

http://withimagination.imgtec.com/wp-content/uploads/2012/06/3_cpu_vs_gpu_GFLOPS_cmp.png
...da staunt selbst eine PC GPU (zumindest Lowend).

100Gflops für die G62x0 Version sind schon mal nicht schlecht.

Taktbereinigt bleien immer noch ~30% mehr Flops im Vergleich zu einem 543MP4 übrig.
die 30% sind aber ziemlich seltsam. Da ein MP4 128Flops pro Takt erreicht wären das dann hier ~166 Flops pro Takt bzw. ~83 Flops pro Takt und Cluster.


PS.: wie verkleinert man Bilder so dass sie den Thread nicht zerschießen?

Ailuros
2012-11-20, 15:54:42
Ich hab versucht das Bild richtig hinzubekommen aber es hat nichts geholfen. Auf jeden Fall wie Rys schon sagte auf B3D, ignorier das alberne Marketing-Zeug. Es ist nicht so dass es nicht stimmt, aber es ist und bleibt marketing.

Es gibt einen Link bei B3D zu der japanischen Seite die behaupten etwas mehr Details zu Rogue zu haben, aber von dem Maschinen-uebersetztem Kauderwelsch kann ich bei bestem Willen nicht voll verstehen was der Dichter sagen will und nein ich kann leider kein japanisch (wenn dann muesste ich eher chinesisch lernen welches wirklich die Sprache der Zukunft ist).

Ronny145,

Nach dem japanischen Kauderwelsch (was aber auch nicht sicher ist dass ich es aus der verkorksten Uebersetzung verstehe) wird womoeglich nirgends zwischen DX10.1 und DX11.1 momentan separiert weil die ersten cores mit DX10 WHQL Treibern erscheinen werden und spaeter sollen die DX11.1 Treiber nachgeladen werden. Ist aber auch irgendwie merkwuerdig denn die optionale Tessellations-Einheit ist eine Tatsache und wo immer sie NICHT existiert kann de facto >DX10.1 nicht moeglich sein. Auf jeden Fall wird so oder so wohl Apple als erste mit dem Zeug antanzen wobei alles >DX10 fuer iOS (und auch Android) sowieso Ueberfluss waere.

----------------------------------------------------------------

mboeller,

Nach den Japanern soll die "3" in 6x30 Codenamen fuer framebuffer compression logic stehen. Bleibt die Frage wieso jemand einen Rogue OHNE framebuffer compression ueberhaupt haben moechte, da der Zusatz an Logik eigentlich gering sein sollte.

Sonst wie auch bei B3D momentan kleinste Rogue Variante liegt bei 2 clusters (G6200/6230) mit jeweils 2 TMUs/cluster ergo eine quad TMU die von 2 clusters geteilt wird, sonst wuerden die Japaner auch nicht 4 texels/shared texture pipeline erwaehnen.

Eine low end standalone GPU die noch verkauft wird waere die 64bit/DX10.1 GeForce 210:
http://www.geforce.com/hardware/desktop-gpus/geforce-210/specifications

44.9 GFLOPs
2.356 GTexels/s
8 GB/s
30.5W TDP

Dahingegen ist eine 2 cluster G62x0 in allen moeglich metrics haushoch ueberlegen.

Ronny145
2012-11-20, 16:18:27
Ronny145,

Nach dem japanischen Kauderwelsch (was aber auch nicht sicher ist dass ich es aus der verkorksten Uebersetzung verstehe) wird womoeglich nirgends zwischen DX10.1 und DX11.1 momentan separiert weil die ersten cores mit DX10 WHQL Treibern erscheinen werden und spaeter sollen die DX11.1 Treiber nachgeladen werden.


Da werde ich hellhörig. Imagination ist vorbelastet mit ihren PowerVR Chips für Atom. Wenn ich lese "werden mit späteren Treiber nachgeliefert", läuten bei mir die die Alarmglocken.

Ailuros
2012-11-20, 16:30:37
Da werde ich hellhörig. Imagination ist vorbelastet mit ihren PowerVR Chips für Atom. Wenn ich lese "werden mit späteren Treiber nachgeliefert", läuten bei mir die die Alarmglocken.

Alarmglocken duerften erst lauten wenn ein jegliches zukuenftiges Produkt mit DX11.1 angekuendigt wird und dieses nicht mit entsprechenden WHQL Treibern ausgeliefert wird. Der einzige erste SoC Kandidat dafuer waere ST Ericsson's Novathor A9600 der vor Ende 2013 IMHO bei Partnern nicht ausgeliefert wird (abgesehen von den kunterbunten ST Behauptungen anfangs ueber sampling in 2011) und von Intel kommt fuer ueberhalb smartphones sowieso nichts mehr:

http://translate.google.gr/translate?sl=ja&tl=en&js=n&prev=_t&hl=el&ie=UTF-8&layout=2&eotf=1&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F144%2FG014402%2F20121118001%2F

By the way, I would have noticed in the figure shown on the road map, to 5 products PowerVR Series6, that there are brackets that "DX10/ES 3.0" in both cases. これは対応するグラフィックスAPI世代の表記で,DX10はDirectX 10,ES 3.0はOpenGL ES 3.0のことを指している。 Notation of the corresponding generation graphics API, which is DX10 10, ES 3.0 DirectX is refers to the OpenGL ES 3.0.

ここで問題になるのは,DirectX 10のほうだ,Harold氏は,2011年の来日時, PowerVR Series6がDirectX 11フル対応であると明言していた( 関連記事 )。 It would be more DirectX 10, upon arrival in Japan in 2011, the PowerVR Series6 had been declared to be a full DirectX 11 support The problem here is, Mr. Harold is ( related article ). これはいったいどういうことなのか。 This is exactly what it means.

会場で話を聞いたImaginationのMartin Ashton氏(Vice president Engineering, PowerVR IP, Imagination Technologies)はこの点について,「 ハードウェア的にはDirectX 11のテッセレーションステージにまで対応しているが,リリース当初はDirectX 10のジオメトリシェーダまでの対応とした 」と述べている。 In this regard, Mr. Martin Ashton of Imagination heard the story at the venue (Vice president Engineering, PowerVR IP, Imagination Technologies), but supports up to tessellation stage of DirectX 11 is a "hardware, initially released I said, "I and geometry shaders support up to DirectX 10.
その理由は「PowerVR Series6は当面の間,携帯機器や情報端末,カーナビゲーションシステムなどといった組み込み機器向けがメインとなる。つまり,テッセレーションステージを活用する場 面がない」(Ashton氏)ためだそうだ。 "In the meantime, for embedded devices and information terminals portable devices, such as car navigation systems is the main. That is, there is no scene to take advantage of the tessellation stage PowerVR Series6 is" (Mr. Ashton) The reason is likely because.

そのためImaginationは,Windowsプラットフォーム向けのドライバがWHQL準拠のDirectX 10対応版のみになるとしている。 Imagination is the driver for the Windows platform will be a version for only 10 DirectX compliant WHQL for it. 将来的に,Windows 8やそれ以降のWindowsで採用が進めば,DirectX 11にフル対応したドライバが出てくることになるのだろう。 Will be in the future, if the progress in the adoption and later Windows Windows 8, driver corresponding full DirectX 11 comes out.

4gamer.net ist so oder so IMHO nicht das zuverlaessigste ueberhaupt und ohne den originalen Text hilft mir das obrige weniger weiter. Wie gesagt dass ALLE cores DX11.1 erstmal unterstuetzen ist absoluter Bloedsinn. Man wird die Tessellations-Einheit fuer volles DX11.1 u.a. hauptsaechlich fuer =/>windows8 Platformen brauchen und sonst nirgends. Fuer iOS/Android/embedded oder weiss der Geier was noch wird wohl nirgends mehr als DX10 hw benutzt ausser der jeweilige Partner hat einen Dachschaden und will unnoetig Transistoren und Stromverbrauch verschwenden.

Es bleibt aber trotz allem dabei dass etwas an der Geschichte faul ist und sie wie bis jetzt einiges brav unter den Teppich kehren jedesmal wenn das Thema windows Treiber aufkommt.

Ronny145
2012-11-20, 16:46:19
Der Tessellator fehlt in der Grafik. DX11 kann es somit nicht geben.

mboeller
2012-11-20, 17:08:18
deine Übersetzung ist ja ein ziemlicher mischmasch aus Englisch und Chinesisch. Beim Umweg über Word ist es besser lesbar:


By the way, I would have noticed in the figure shown on the road map, to 5 products PowerVR Series6, that there are brackets that "DX10/ES 3.0" in both cases. Notation of the corresponding generation graphics API, which is DX10 10, ES 3.0 DirectX is refers to the OpenGL ES 3.0.

It would be more DirectX 10, upon arrival in Japan in 2011, the PowerVR Series6 had been declared to be a full DirectX 11 support The problem here is, Mr. Harold is ( related article ). This is exactly what it means.

In this regard, Mr. Martin Ashton of Imagination heard the story at the venue (Vice president Engineering, PowerVR IP, Imagination Technologies), but supports up to tessellation stage of DirectX 11 is a "hardware, initially released I said, "I and geometry shaders support up to DirectX 10.
"In the meantime, for embedded devices and information terminals portable devices, such as car navigation systems is the main. That is, there is no scene to take advantage of the tessellation stage PowerVR Series6 is" (Mr. Ashton) The reason is likely because.

Imagination is the driver for the Windows platform will be a version for only 10 DirectX compliant WHQL for it. Will be in the future, if the progress in the adoption and later Windows Windows 8, driver corresponding full DirectX 11 comes out.

Ronny145
2012-11-20, 17:16:54
"In the hardware supports up to DirectX 11 tessellation stage, initially support up to DirectX 10 ジオメトリシェーダ and the" Imagination heard at Martin Ashton (Vice president Engineering, PowerVR IP, Imagination Technologies) said in this regard.
That's why "built-in equipment for mobile devices and information appliances, car navigation systems, such as main with PowerVR Series6 of, for the time being. I.e. no occasions to take advantage of the tessellation stage "(Mr Ashton) looks for.

The Imagination is Windows platform for driver is WHQL compliant DirectX 10 only version going to be. Will come out in the future, adoption of advances in Windows 8 or later Windows, full support DirectX 11 driver.


Lässt sich gut rauslesen. Die Hardware unterstützt anfangs nur DX10. Für dx11 Support bräuchte es eine Hardware und Treiber Anpassung.

Ailuros
2012-11-20, 17:19:57
Der Tessellator fehlt in der Grafik. DX11 kann es somit nicht geben.

Wie gesagt das Diagramm mit dem Tessellator ist verschwunden und ich kann es bei bestem Willen nicht mehr auf IMG's Seiten finden. Ob und wo DX11 in den angekuendigten cores enthalten ist kann ich nicht wissen. Ueber den Novathor A9600 bin ich mir zumindest so sicher wie ich sein kann, da der SoC windows8 als Ziel hat afaik. Frag mich bloss nicht welchen angekuendigten core dieser enthaelt LOL.

Lässt sich gut rauslesen. Die Hardware unterstützt anfangs nur DX10. Für dx11 Support bräuchte es eine Hardware und Treiber Anpassung.

Es aendert sich nichts an den bisherigen offiziellen Ankuendigungen dass manche Varianten nur DX10 in hw unterstuetzen werden und andere bis zu DX11.1 in hw. Die Segmentierung kommt je nach Ziel-Markt, grob vereinfacht fuer windows8 oder hoeher wohl schon DX11 und fuer alles embedded, iOS, Android eben OGL_ES3.0/DX10. Das mit dem Treiber ist dann ein anderes Kapitel dass sich nur in der Zukunft entwickeln wird. Entweder hat ein core einen Tessellations-CoProzessor oder eben nicht.

Ronny145
2012-11-20, 17:25:08
Wie gesagt das Diagramm mit dem Tessellator ist verschwunden und ich kann es bei bestem Willen nicht mehr auf IMG's Seiten finden. Ob und wo DX11 in den angekuendigten cores enthalten ist kann ich nicht wissen. Ueber den Novathor A9600 bin ich mir zumindest so sicher wie ich sein kann, da der SoC windows8 als Ziel hat afaik. Frag mich bloss nicht welchen angekuendigten core dieser enthaelt LOL.


Dann hat man das wohl verworfen bzw. war Rogue anfangs mit vollem dx11.1 Support geplant. Vielleicht kommt der Rogue refresh mit dx11 Support.

Ailuros
2012-11-20, 17:32:42
Dann hat man das wohl verworfen bzw. war Rogue anfangs mit vollem dx11.1 Support geplant. Vielleicht kommt der Rogue refresh mit dx11 Support.

Eben NICHT. Es wurde von Anfang an angekuendigt dass Rogue Varianten von DX10 bis zu DX11 rangieren werden und eine andere Masche macht im small form factor eben keinen Sinn. Auch Serie5 war stets zwischen DX9 und DX10 je nach Zielmarkt. Da jeder Transistor Strom verbraucht und Stromverbrauch der wichtigste Faktor ueberhaupt ist wird kein SFF GPU IHV so bloed sein und Transistoren so brutal verschwenden in Maerkten wo man sie ueberhaupt nicht braucht.

Ailuros
2012-12-05, 16:55:00
Ein Allwinner SoC (A31) fuer tablets mit einer quad A7 CPU und einer SGX544MP2 GPU die hoechstwahrscheinlich auf 300MHz taktet:

http://www.jsxltech.com/blogs/allwinner-cpu-forum/6965856-the-worlds-first-allwinner-a31-quad-core-tablet-by-icoo

An Eight-Core GPU will target 3000M/S pixel filling rate,100M/S 3D rendering rate. The overall performance is 2 times faster as that of the Quad Core Tegra 3, 1.5 times faster than iPad 2,and rival that of the New iPad.

Wobei mit "new iPad" wohl iPad3 gemeint ist.

http://www.jsxltech.com/blogs/allwinner-cpu-forum/6966770-another-allwinner-a31-tablet-pc-designed-and-made-by-ployer

Ployer deployed the HD Video Decoding and Output for 4K on the tablets as well which was originally for TV. With the HD Video Decoding and Output for 4K,the resolution will reach 4096X2304 pixel,which is so wow. It's much more delicate than 1080P(1920X1080). It further supports playback of 3D video. In addition, Ployer's brand new Tablet PC supports pre-playback of up to 12 channels,playback of up to 4 channels simultaneously.

http://www.jsxltech.com/blogs/allwinner-cpu-forum/6966788-another-allwinner-a31-tablet-pc-designed-and-made-by-onda

Drei chinesische Hersteller stellen also tablets mit dem A31 her: ICCOO, Onda und Ployer.

Neosix
2012-12-05, 17:46:24
Wie kann man sich den A31 von der Performance denn als User am besten vorstellen? Bzw wo ist er zwischen A9 / S4 / A15 angesiedelt?

Ailuros
2012-12-05, 17:51:53
Wie kann man sich den A31 von der Performance denn als User am besten vorstellen? Bzw wo ist er zwischen A9 / S4 / A15 angesiedelt?

Irgendwo zwischen iPad2 und iPad3. Bleibt abzusehen wie viel die Dinger kosten werden und wie gut die sw auf den Dingern ausgelegt ist.

robbitop
2012-12-06, 09:05:09
Naja aber die CPU Performance wird mit dem A7 unter aller Kanone sein. Ca. Cortex A8 Level. Wenn überhaupt.

Ailuros
2012-12-06, 09:14:22
Naja aber die CPU Performance wird mit dem A7 unter aller Kanone sein. Ca. Cortex A8 Level. Wenn überhaupt.

Es ist ein "low cost" SoC. Schau in den Qualcomm thread rein was die gerade angekuendigt haben fuer mainstream SoCs. Sonst haengt die CPU Leistung auch von der Frequenz ab und natuerlich noch wichtiger wie gut die sw Integrierung der ganzen Affaere ist.

Das hier: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Alps+mt8389_tablet_s3&testgroup=system

..duerfte die erste Erscheinung von dem MediaTek SoC sein; quad A7@1.2GHz und ein 544MP1@320MHz. Schlagwort ist hier chinesischer Markt; bleibt abzusehen wie die Preise fuer die Dinger aussehen.

Relic
2012-12-06, 09:17:15
Würde mich wundern, wenn sie Cortex A8 IPC erreichen, bei 1/5 Die-Size vom A8. Sie geben zwar +50% Performance an im Vergleich zu A8, aber die A8 liefen ja alle auch nur auf ca. 1Ghz.

AnarchX
2012-12-06, 09:21:38
Würde mich wundern, wenn sie Cortex A8 IPC erreichen, bei 1/5 Die-Size vom A8. Sie geben zwar +50% Performance an im Vergleich zu A8, aber die A8 liefen ja alle auch nur auf ca. 1Ghz.
1/5 wohl aber bei A8@45nm vs A7@28nm. Taktbereinigt ist IPC laut ARM wohl 25% höher: http://www.anandtech.com/show/4991/arms-cortex-a7-bringing-cheaper-dualcore-more-power-efficient-highend-devices

Da gerade im Bezug der Speicherverwaltung wohl einige Fortschritte gemacht wurden, seit A8, könnte das wohl schon realistisch sein.

Aber ohne entsprechende Software sind diese A7-QCs eher Blender. Mit dieser könnte da wohl schon eine ziemlich hohe Pro-Watt-Leistung herauskommen.

Relic
2012-12-06, 09:24:27
1/5 wohl aber bei A8@45nm vs A7@28nm. Taktbereinigt ist IPC laut ARM wohl 25% höher

Ok das hört sich schon realistischer an. Im selben Fertigungsprozess 1/5 hätte ich mir schwer vorstellen können...

mboeller
2012-12-06, 13:58:48
http://www.jsxltech.com/blogs/allwinner-cpu-forum/6965856-the-worlds-first-allwinner-a31-quad-core-tablet-by-icoo



Wenn man bedenkt, das 1 A7 CPU incl FPU, Neon und L1-Cache laut ARM @ 28nm nur ~0,5mm² sein soll, dann muss das gesamte SoC ja winzig sein.
Wenn man mal 1mm² pro CPU als Basis nimmt kommt man auf ~43-44mm² für den ganzen SoC. Bei 0,5mm² als Basis ist man bei nur noch 21-22mm²!!Ziemlich billig in der Herstellung.

Und dabei erreicht ein A7 @ 1,2GHz die gleiche Leistung wie ein A9 @ 1GHz (laut ARM).

deekey777
2012-12-06, 14:05:59
Boah, ich dachte, ihr meint mit A7 einen vermeintlichen Nachfolger von Apples A6. X-D

Ailuros
2012-12-06, 15:21:56
Boah, ich dachte, ihr meint mit A7 einen vermeintlichen Nachfolger von Apples A6. X-D

Hmmm als A6 Nachfolger wohl nicht, aber wenn ich schon Qualcomm fuer mainstream mit quad A7 sehe, waere es fuer low cost SoCs selbst fuer Apple keine schlechte Idee.

Ailuros
2012-12-09, 19:40:17
http://gfxspeak.com/2012/12/06/caustic-introduces-ray-tracing-accelerator-boards/

Hat zwar nichts mit PowerVR bzw. GPU IP zu tun aber ich mach fuer das Zeug nicht noch extra einen neuen thread auf.

Ich stimme dem Author schon zu dass es nicht nach einem Projekt aussieht mit dem man erfolgreich verkaufen koennte:

Imagination is not the first company to offer a hardware ray-tracing accelerator. In the past UK-based ART VPS offered an accelerator board, and sold a few of them, but could not reach the sales level needed to sustain the R&D effort. A new company, Singapore-based Progeniq, is just coming out of stealth mode with a ray-tracing accelerator board, and will be some competition for Imagination, but as of now is under-funded. Nvidia offers a GPU/GPU-compute solution in software (Maximus) that is effective, but expensive.

Ailuros
2012-12-10, 15:44:56
Nach Texas Instruments die den SFF Markt aufgegeben haben und sich nur noch auf embedded konzentrierten, jetzt auch ST-Ericsson, wobei ST quasi aus dem Buendnis aussteigt in 2013:

http://www.eetimes.com/electronics-news/4403006/ST-to-exit-ST-Ericsson-in-2013

Ailuros
2012-12-12, 15:32:54
Halbjahr finanzieller Krampf von IMG mit einer paar interessanten Punkten:

Partner chip volume ist fuer dieses Halbjahr im Vergleich zum vorigen um 90% gestiegen (von 123Mio auf 237Mio Einheiten).
Neues Ziel fuer dieses finanzielle Jahr 500Mio Einheiten.
Neue und erweiterte Lizenzen mit existierenden Partnern inkl. Allwinner, Greenplug, Mediatek, Realtek, Renesas, TI und Toumaz.
Neue Lizenznehmer u.a. Entropic, Ineda und Socle.
Durschnittlich werden taeglich ~1.5Mio Geraete mit ihrem IP augeliefert.
Ziel bleibt bis 2016 1 Mrd. Einheiten pro Jahr zu erreichen.

It is appropriate to clarify two areas of partnerships. Firstly we continue to have a strong and on-going partnership with Intel Corp, who are also a significant shareholder. As is normal we cannot provide specific details on various projects but we can confirm that we have many existing and future projects on-going with Intel and expect this partnership to result in growing and significant volume shipment across many markets now and in the future.

Secondly it was announced by TI that they intend to focus their OMAP business on industrial, automotive and consumer segments and away from the mobile sector. We expect this transition to both take some time and for the partnership to strongly continue in the new areas of focus for TI which we believe will be of significant value to Imagination. Additionally our other many partners active in the mobile segment will no doubt extend their business to support the opportunities TI leaves open as it transitions its business.

TI hat uebrigens gestern angekuendigt dass Audi ihren Jacinto 5 prozessor fuer Audi A3 beauftragt hat.

Well over 100 devices, in development or in production, use PowerVR Series5 and Series5XT. The Group’s new generation technology, codenamed ‘Rogue’, has been acknowledged by many key partners as the market leader and has already secured around 20 committed SoCs. Several of our partners and our own prototype chips are now in silicon and are performing very well. We expect to see end-user products using this technology to begin shipping from next year.

Our complementary ray tracing technology, obtained through the Caustic acquisition, has made good progress. The first stage of deployment and development of the ecosystem was unveiled as we announced Caustic Professional R2100 and R2500 OpenRL acceleration boards, plus Visualizer plugin software using OpenRL for Autodesk® 3ds Max® and Maya® at a recent major event with promotion support from AMD, HP and Boxx. The feedback from this event has been extremely positive.

Camera Vision Processing – Vision processing is needed to get the best image from a camera sensor. This is an area that is important both for market opportunity and technology synergy reasons. Specifically it is clear that the deployment of camera functionality is relevant to many product categories and market segments. Furthermore careful and tight integration of camera vision processing, video encode and GPU cores can be used to achieve very important optimisations. We have been carrying out research and development in this area for some time. We also acquired a small company, Nethra, to complement and accelerate our work whilst also strengthening our patent portfolio in this area. We expect first IP product delivery in this area in early 2014.

http://www.imgtec.com/corporate/presentations/interim12/Half_Year_Results_Statement_12Dec2012.pdf

Ailuros
2012-12-14, 17:15:53
Hier mal eine roadmap fuer Series5XT und Series6 fuer die vorhersehbare Zukunft:

https://pbs.twimg.com/media/A-FHVSlCYAAdd1n.png:large

https://twitter.com/ImaginationPR/status/279583082955300865/photo/1

G6200/6400 haben eine sehr merkwuerdige zeitliche Platzierung in der roadmap da ich die ersten Geraete erst Mitte 2013 erwarten wuerde. Ist ja auch PR bzw. marketing ergo kann es vieles heissen.

AnarchX
2012-12-14, 17:21:09
IMGTech twittert eine PCWatch Roadmap?
http://pc.watch.impress.co.jp/docs/column/kaigai/20121214_578661.html

Was ist eigentlich die Basis für diese Leistungsfaktoren: http://pc.watch.impress.co.jp/img/pcw/docs/578/661/html/13.png.html

Ailuros
2012-12-14, 17:52:31
IMGTech twittert eine PCWatch Roadmap?
http://pc.watch.impress.co.jp/docs/column/kaigai/20121214_578661.html

Ich hasse maschinelle Uebersetzungen; etwas Neues steht in dem Ding nicht drin. Ausser dem Block Diagram:

http://pc.watch.impress.co.jp/video/pcw/docs/578/661/p14.pdf

....wo man auch klar sehen kann dass es sich um SIMD16 ALUs handelt und im Fall vom 6630 6 ALU clusters mit 3 quad TMUs.

Was ist eigentlich die Basis für diese Leistungsfaktoren: http://pc.watch.impress.co.jp/img/pcw/docs/578/661/html/13.png.html

Es soll irgendwelche Leistungs-Optimierungen gegeben haben, ergo werde ich wohl falsch liegen. Nach dem originalen A9600 Zeug duerfte die Vergleichsbasis hier ein SGX540@304MHz sein:

SGX540 =
4 Vec2 ALUs = 4*4 FLOPs * 0.304 GHz = 4.86 GFLOPs

G6230@600MHz = 96 GFLOPs / 4.86 = 19.75x
G6430@600MHz = 192 GFLOPs / 4.86 = 39.50x
G6630@600MHz = 288 GFLOPs / 4.86 = 59.25x

***edit: nebenbei auch die Halbjahr Praesentation: http://www.imgtec.com/corporate/presentations/Interim12/Imagination_Half_Year_Results_Presentation_12dec2012.pdf

irgendwo versteckt in einem slide steht dass ein grosser design win mit Samsung in der pipeline liegt.

Dural
2012-12-19, 16:05:26
wie so hat die PS Vita so bescheidene Grafik?

überall wird behauptet das der SGX 543 MP4+ echt gut sei, jedoch bin ich schon sehr entäuscht was die PS Vita da auf dem bildschirm abliefert.

da sieht zb. auf einem tablet doch einiges viel besser aus, gerade die anwendungen die auf Tegra optimiert wurden :confused:

Ailuros
2012-12-19, 16:30:45
wie so hat die PS Vita so bescheidene Grafik?

überall wird behauptet das der SGX 543 MP4+ echt gut sei, jedoch bin ich schon sehr entäuscht was die PS Vita da auf dem bildschirm abliefert.

da sieht zb. auf einem tablet doch einiges viel besser aus, gerade die anwendungen die auf Tegra optimiert wurden :confused:

Es gibt auf allen Platformen sehr imposante Spiele und auch 0815 Material ohne Aussnahme selbst fuer iPad3/4. Kommt drauf an was Du genau auf Vita gesehen hast.

Generell ist die Vita hw schon zwei tablet Generationen hinter dem aktuellsten Material. Es war lediglich eine Frage der Zeit da sich der SFF Markt ziemlich schnell bewegt. Anders wird es auch langfristig auch nicht mit Konsolen sein wenn im Lauf der Zeit generische home entertainment Systeme wie set top boxes oder smartTVs mit zunehmend Gelegenheits-spielchen ankommen.

Im guten Ganzen hat SONY Series5XT lizenziert als NV nur Tegra2 im Angebot hatte; haette sich je SONY an diesem interessiert und ihn integriert waere das Endresultat um zich Male bescheidener gewesen.

dildo4u
2012-12-19, 16:34:15
Uncharted steht imo ziemlich alleine da was Shader,(Wasser,Global Illumination z.b)Schattensimulation im Mobile Bereich angeht angeht.Kann sein du eher auf Texturen achtest dort hat man auf nem Tablet mit 1GB wohl mehr Luft.

Artikel dazu
http://www.eurogamer.net/articles/digitalfoundry-tech-analysis-uncharted-golden-abyss

Es gibt Kompromisse bei der Auflösung ist halt ein Launch Game dort wird sich noch einiges Tun mit der Zeit.Natürlich hat Vita keine Chance gegen Tablets, aufgrund der Größe der Akkus kann der Chip nich mit dem höst möglichen Takt laufen.Zusätzlich lässt Sony die besten Team's weiterhin an PS3 Games arbeiten,Uncharted für Vita wurde z.b nicht von Naughty Dog programmiert.

Ailuros
2012-12-19, 16:45:34
Natürlich hat Vita keine Chance gegen Tablets, aufgrund der Größe der Akkus kann der Chip nich mit dem höst möglichen Takt laufen.

In der Zukunft (mit SoC shrinks auf kleineren Prozessen) dank reduzierter Herstellungskosten koennte Sony theoretisch schon eine groessere Batterie integrieren (ob und inwiefern es sich lohnen wird bleibt abzusehen).

Eine so grosse Batterie wie im iPad3 wuerde ich natuerlich nicht erwarten, aber das ist alles ziemlich nebenwichtig im Anklang der naechsten GPU Generation in 2013. Gegen diese wird der 543MP4@200MHz im Vita ziemlich hoffnungslos verloren sein; dieses kombiniert mit der Tatsache dass smartphones/tablets durch iOS/Android/windows ziemlich gigantische Volumen bedeuten werden, ueberlaesst nicht besonders vieles was potentielle Entwickler anlotzen koennte.

dildo4u
2012-12-19, 16:47:37
In der Zukunft (mit SoC shrinks auf kleineren Prozessen) dank reduzierter Herstellungskosten koennte Sony theoretisch schon eine groessere Batterie integrieren (ob und inwiefern es sich lohnen wird bleibt abzusehen).
Spielt kein Rolle da die Specs festgelegt sind,die neue Rev wird einfach länger laufen.

Ailuros
2012-12-19, 16:54:59
Spielt kein Rolle da die Specs festgelegt sind,die neue Rev wird einfach länger laufen.

Wie lange laeuft eigentlich ein Vita unter vollem Verbrauch? Irgendwo 3 Stunden? Wenn ja laeufen heute tablets in der Mehrzahl der Faelle zwischen 4 und 6+ Stunden unter 3D. Erreichbar ist das schon mit einem die shrink; das dumme ist halt dass im Konsolen-Bereich nichtmal Frequenzen gesteigert werden, um etwas mehr Leben in die hw zu pusten.

Dural
2012-12-19, 19:04:45
was mich am meisten stört ist das ganze geflimmer und kein AA / viele kanten.

auf tablets haben zum teil die selbe anwendungen ein deutlich ruheriges bild und auch viel kleinere kanten.

und ja die texturen sind auch besser.

Ailuros
2012-12-19, 19:41:54
was mich am meisten stört ist das ganze geflimmer und kein AA / viele kanten.

auf tablets haben zum teil die selbe anwendungen ein deutlich ruheriges bild und auch viel kleinere kanten.

und ja die texturen sind auch besser.

Multisampling wird selten bis nie auf Konsolen generell eingesetzt, eben weil Entwickler meistens den letzten Fetzen an Leistung woanders investieren. Die ueblichen Schmiermodi sind eine Ausnahme.

Die GPU ist auf jeden Fall ueber 4xMSAA faehig und der Leistungsverlust ist relativ klein. Was jetzt die Entwickler in Spielen anrichten ist ein anderes Kapitel.

Es klingt aber nach der Beschreibung oben als ob entweder die benutzte Aufloesung, der display, beide oder noch etwas anderes an der Flimmerei schuld ist was mit der GPU per se nicht direkt verbunden ist.

Ailuros
2013-01-03, 10:15:27
Der Allwinner A31 Weihrauch ist wohl nichts Neues:

http://withimagination.imgtec.com/index.php/powervr/allwinner-a31-soc-with-powervr-graphics

Interessant ist lediglich das MP Diagramm fuer S5XT dass ich zum ersten Mal sehe:

http://withimagination.imgtec.com/wp-content/uploads/2013/01/PowerVR_SGX_Series5XT_54xMP_GPU.jpg

Dass jeder core dedizierte caches hat war mir in etwa klar; die crossbar sehe ich aber zum ersten Mal.

FelixPaul
2013-01-03, 19:50:02
Engadget hat heute ein Video über den "Rogue", ob was wirklich neues dabei ist kann ich leider nicht beurteilen. Die Series6 wäre aber hoffentlich ein Kandidat für kommende iPad mini Retina:

http://www.engadget.com/2013/01/03/powervr-series-6-test-chip/#continued

Ronny145
2013-01-03, 20:08:09
Bei Testchips sind die noch? Dann sind das aber düster aus um noch dieses Jahr Rogue in fertigen Smartphones oder Tablets unter die Lupe nehmen zu können.

Ailuros
2013-01-03, 20:18:26
Engadged hat heute ein Video über den "Rogue", ob was wirklich neues dabei ist kann ich leider nicht beurteilen. Die Series6 wäre aber hoffentlich ein Kandidat für kommende iPad mini Retina:

http://www.engadget.com/2013/01/03/powervr-series-6-test-chip/#continued

Ausser dass Alex (B3D) im video blubbert und Rogue 8xMSAA mit relativ kleinem Leistungsverlust unterstuetzt wohl nicht besonders Neues. Sonst fuer's naechste mini definitiv nein IMHO.

Bei Testchips sind die noch? Dann sind das aber düster aus um noch dieses Jahr Rogue in fertigen Smartphones oder Tablets unter die Lupe nehmen zu können.

Ich bin mir sicher dass Apple z.B. ihnen ein unveroeffentlichtes Geraet goennen wuerde um ihre GPU IP vorstellen zu koennen. Es gab schon mehrere tape outs von etlichen Partner SoCs mit Rogue schon vor Ausklang des Jahres und ja GPU IP provider praesentieren unter normalen Umstaenden in FPGAs in solchen Faellen.

***edit: erste Allwinner A31 SoC GLBenchmark2.5 Resultate:

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Onda+V812+Core4

Ailuros
2013-01-04, 13:52:33
http://www.imgtec.com/News/Release/index.asp?NewsID=716

PowerVR graphics (GPU) Series6, ‘Rogue’: Imagination’s partners will debut the first PowerVR Series6 products, including TVs, at CES 2013 while Imagination will demonstrate the family’s advanced OpenGL ES 3.0 and OpenCL capabilities.

AnarchX
2013-01-04, 15:50:01
Vielleicht im Upgrade-Kit für die Samsung Smart-TVs?

Ailuros
2013-01-06, 16:47:06
Vielleicht im Upgrade-Kit für die Samsung Smart-TVs?

Geduld noch 2-3 Tage.

Ailuros
2013-01-08, 19:05:14
ST Ericsson's erste FD-SOI SoCs:

http://www.electronicsweekly.com/Articles/08/01/2013/55320/st-ericsson-intros-first-fd-soi-smartphone-processor.htm

http://blog.stericsson.com/blog/2013/01/st-ericsson-general/world%E2%80%99s-fastest-coolest-lte-modap-platform-unveiled-by-st-ericsson/

Eine einzelne 544 GPU bei 600MHz; in etwa =/<2000 frames in GLBenchmark2.5. Nichts mehr besonderes im Vergleich zum Allwinner SoC das sogar billiger sein koennte.

Texas Instruments mit Plaenen fuer DLP und OMAP basierend Auto-infotainment Systemen (auch mit OMAP5 -Jacinto6):

http://www.engadget.com/2013/01/07/texas-instruments-dlp-car-infotainment-hud/

Imagination erweitert Series5XT mit Extensionen fuer gewisse OGL_ES3.0 Funktionalitaeten:

http://www.imgtec.com/News/Release/index.asp?NewsID=717

The API extensions provide features such as: multiple render targets; occlusion queries; seamless cube maps; sampler access from vertex shaders; floating point textures; GLSL full-precision floating point; R and RG textures; min/max blends; and multisample render buffers.

Ingenic (China) mit einem low end SoC mit einer MIPS CPU und einer Series5 GPU:

http://www.eetimes.com/electronics-news/4404305/Ingenic-combines-MIPS--Imagination-in-tablet-SoC

mboeller
2013-01-09, 09:45:29
LG erlaubt IMG eine Rogue GPU vorzuführen:

http://www.engadget.com/2013/01/08/imagination-technologies-powervr-series-6-series-5xt-mobile-gpu-demo/

Go Rogue Go.....;)

die PowerVR Roadmap scheint also doch zu stimmen.

Ailuros
2013-01-09, 19:43:57
LG erlaubt IMG eine Rogue GPU vorzuführen:

http://www.engadget.com/2013/01/08/imagination-technologies-powervr-series-6-series-5xt-mobile-gpu-demo/

Go Rogue Go.....;)

die PowerVR Roadmap scheint also doch zu stimmen.

http://www.lgblog.co.uk/2012/12/lg-unveils-smarter-more-refined-smart-tv-lineup-at-ces-2013/

Ich kann mir nicht vorstellen dass in dem SoC irgend eine grosse Rogue Variante stecken koennte. Womoeglich irgend ein G6200 bei relativ bescheidener Frequenz.

Ailuros
2013-01-13, 18:42:15
Mein Bauchgefuehl war wohl ziemlich gut:

http://www.anandtech.com/show/6644/imagination-demonstrates-powervr-series-6-rogue-on-lgs-h13-soc

We don't know too much about LG's H13 SoC at this point beyond that it likely isn't an ARM Cortex A15 based design, but does include a two-cluster Series 6 GPU (G6200?) at unspecified clocks.

I'm told that LG's H13 isn't necessarily the first production silicon with Rogue inside, but the first that's been shown and demoed in the wild.

Ailuros
2013-01-17, 20:26:50
http://cdn.eetimes.com/design/communications-design/4404880/Analyst-praises-Renesas-big-little-LTE-processor

Mal sehen ob Renesas endlich Android richtig hinbekommt; ihr voriger Versuch war zum kotzen enttaeuschend.

Gmax
2013-01-21, 21:01:39
Wußte gar nicht, daß die auch im Desktop Markt vertreten sind, mit ihren Renderkarten.

https://caustic.com/series2/index.html

http://www.youtube.com/watch?v=8aPoTfHozuI

Ailuros
2013-01-22, 17:22:49
Wußte gar nicht, daß die auch im Desktop Markt vertreten sind, mit ihren Renderkarten.

https://caustic.com/series2/index.html

http://www.youtube.com/watch?v=8aPoTfHozuI

"Desktop" ist wohl die falsche Beschreibung. Sie hatten Caustic vor einiger Zeit aufgekauft und da diese die Entwicklung von den chips schon fertig hatten, hat IMG sie veroeffentlicht. Es sind dedizierte ray tracing Co-Prozessoren (ergo man braucht auch eine GPU im System) fuer workstation Systeme wie im ersten Link auch drin steht.

IMG plant nach eigenen Aussagen ray tracing irgendwann mal in der Zukunft in ihr GPU IP zu integrieren, wobei ich mir schwer vorstellen was RT in einem smartphone bzw. tablet genau verloren hat.

Ailuros
2013-02-01, 19:11:22
http://www.imgtec.com/News/Release/index.asp?NewsID=723

Imagination submits PowerVR Series6 cores for OpenGL ES 3.0 conformance

http://www.androidpolice.com/2013/01/06/ces-2013-dacor-cooks-up-android-4-0-3-powered-wall-oven-with-7-display-google-play-7499-price-tag/

That's right – a (thirty inch) smart oven is on the way, and it's powered by a seven-inch device (called the Discovery IQ controller) with Android … ahem … baked in. And guess what – it runs the Play Store. Yes, you can finally play Angry Birds while cooking meatloaf.

ROFL :D

AnarchX
2013-02-06, 09:31:42
3DMark – Ice Storm
Atom Z2760, 1,8 GHz, PowerVR-Grafik 2.456
http://www.computerbase.de/artikel/software/2013/futuremark-3dmark/7/

Undertaker
2013-02-06, 09:51:40
Jetzt fehlt nur noch die Android/iOS-Version des Benches... Eigentlich kann man die Ergebnisse aber schon vorhersagen. Die SGX 540 des Z2760 ist letztlich nur eine etwas höher getaktete Version der GPU, die bspw. auch im nicht mehr ganz taufrischen Galaxy Nexus verbaut ist. ;)

AnarchX
2013-02-06, 09:57:38
Ein paar Unterschiede gibt es schon:
Architecturally the 545 is very similar to the PowerVR SGX 540 used in Intel’s Medfield smartphone platform, with a handful of additions. The shader array remains unchanged at four USSE pipes. The 545 adds four more 10-bit integer pipes, doubles the triangle setup rate and doubles the number of depth test units as well. DirectX 10 class texture hardware is also a part of the mix, as well as everything else needed to officially support DirectX 10 (D3D feature level 9_3).
http://www.anandtech.com/show/6522/the-clover-trail-atom-z2760-review-acers-w510-tested/5

Aber generell ordnet sich der SGX 545@533MHz des Z2760 dort ein wo man ihn mit seiner Rechenleistung und einem leichten TBDR-Vorteil erwarten kann.

Ailuros
2013-02-06, 10:17:15
Ein paar Unterschiede gibt es schon:

http://www.anandtech.com/show/6522/the-clover-trail-atom-z2760-review-acers-w510-tested/5

Aber generell ordnet sich der SGX 545@533MHz des Z2760 dort ein wo man ihn mit seiner Rechenleistung und einem leichten TBDR-Vorteil erwarten kann.

Ich hatte Anand darueber informiert, denn nach offiziellen Angaben zu suchen ist diesbezueglich verdammt schwer. Nur etwas verkorkst ausgedrueckt, denn die INT sind Anteile von den ALUs und obwohl 4 Vec2 ALUs auf 540 und 545, sind es eben <DX9 vs. DX10.1 ALUs. Schneller duerften (mit Ausnahme dem zusaetzlichen Vec4 INT) die 545 ALUs nicht sein, nur mit um einiges mehr Faehigkeiten.

SGX540@200MHz
4 Vec2 ALUs
2 TMUs
2048*2048 textures
8 z/stencil
20M Tris/s

SGX545@200MHz
4 Vec2 ALUs
2 TMUs
4096*4096 textures
16 z/stencil
40M Tris/s

Im Medfield taktet der 540 bei 400MHz. Einen so grossen Unterschied erwarte ich von den beiden zugegeben nicht.

***edit: ich dachte schon ich haette einen weiteren brainfart....Medfield duerfte dank fehlendem DX9L3 Ice Storm ueberhaupt nicht meistern.

Deinorius
2013-02-06, 13:30:52
http://www.computerbase.de/artikel/software/2013/futuremark-3dmark/7/


Bei einigen Resultaten muss man sich echt wundern, wenn eine GTX 460 eine GTX 580 schlagen kann! :freak:

Ailuros
2013-02-06, 17:41:48
http://www.autoblog.com/2012/01/17/we-cant-show-you-the-most-impressive-infotainment-system-at-ces/?a_dgi=aolshare_twitter

Ailuros
2013-02-08, 12:02:02
http://www.imgtec.com/News/Release/index.asp?NewsID=724

:smile:

Nebenbei soll es gegen Herbst das erste smartphone mit Ubuntu geben.

Ailuros
2013-02-20, 18:30:26
http://www.imgtec.com/News/Release/index.asp?NewsID=725

Imagination achieves OpenGL ES 3.0 conformance for PowerVR Series6 cores

Ailuros
2013-02-25, 15:51:11
http://www.imgtec.com/News/Release/index.asp?NewsID=730

http://withimagination.imgtec.com/index.php/powervr/powervr-g6100-small-is-powerful

Da ein single cluster core mit DX9L3/OGL_ES3.0 IMHO einen Adreno305 als Konkurrenz-Ziel hat und dieser wohl nicht frueher als zumindest 18 Monate in die Zukunft integriert wird, klingt mir das Ganze als verdammt verspaetet.

Ich bin mir auch nicht sicher, aber ich hab das Gefuehl dass der SGX520 den sie erwaehnen es nie zu Silizium geschafft hat, lass mich aber gerne eines besseren belehren.

------------------------------------------

Sonst Stromverbrauch:

http://www.imgtec.com/News/Release/index.asp?NewsID=729

------------------------------------------

ENDLICH neue demos: http://www.imgtec.com/demo_room/

Ailuros
2013-03-25, 09:53:30
http://www.imgtec.com/News/Release/index.asp?NewsID=741

16nm? Klingt schon fast wie nach morgen...:freak:

http://www.fudzilla.com/home/item/30860-tsmc-and-imagination-team-up-for-next-gen-process

TSMC VP Cliff Hou argued that the need for high performance mobile GPUs will drive silicon processes in the future, much in the same way CPU development pushed new processes in the nineties.

Na dann ist 16nm auch nicht so "frueh" am Ende. Ich will hoffen dass die Konkurrenz dabei auch schon am Ball sein wird.

Ailuros
2013-03-25, 19:47:50
Reneses R-Car H2:

http://www.renesas.com/press/news/2013/news20130325.jsp

big.LITTLE quad A15+A7, G6400 Rogue

http://car.watch.impress.co.jp/img/car/docs/593/054/07.jpg

http://car.watch.impress.co.jp/docs/news/20130325_593054.html

Wenn ihr voriger 543MP2 bei 250MHz taktete, duerfte der G6400 hier um die 160GFLOPs liefern. Massenproduktion Mitte 2014.

Ronny145
2013-03-25, 19:58:28
Also Smartphones mit Rogue kann man wohl knicken für dieses Jahr, oder wurden irgendwelche Smartphones damit schon angekündigt/geleakt?

Ailuros
2013-03-25, 20:05:03
Also Smartphones mit Rogue kann man wohl knicken für dieses Jahr, oder wurden irgendwelche Smartphones damit schon angekündigt/geleakt?

Woher kommt die Schlussfolgerung genau? Haetten wir Oktober z.b. und nicht Maerz koennte ich den Gedankenzug noch halbwegs verstehen aber sonst?

Ronny145
2013-03-25, 23:35:10
Weil das erfahrungsgemäß Ewigkeiten dauert bis zur tatsächlichen Verfügbarkeit im Handel.

dildo4u
2013-03-25, 23:46:16
Muss Apple nich Rouge einsetzen wenn sie die Leistung bei gleichem Verbauch um 2X steigern wollen?Ich gehe davon aus das Apple den Akku kaum größer machen kann,das Gehäuse bleibt ja vermutlich gleich.

robbitop
2013-03-26, 08:14:30
Bei Apple würde ich ganz stark von Rogue ausgehen im A7. Da dauert es bspw nach der Ankündigung nicht sehr lange, bis das Produkt kaufbar ist.

Ailuros
2013-03-26, 09:41:02
Weil das erfahrungsgemäß Ewigkeiten dauert bis zur tatsächlichen Verfügbarkeit im Handel.

Aussnahme Apple welches momentan immer noch der grosse Unbekannte ist.

Muss Apple nich Rouge einsetzen wenn sie die Leistung bei gleichem Verbauch um 2X steigern wollen?Ich gehe davon aus das Apple den Akku kaum größer machen kann,das Gehäuse bleibt ja vermutlich gleich.

Was heisst muss? Obwohl die Chance besteht wer weiss je mit Sicherheit was fruitco zu jeglichem Zeitpunkt kocht? Wenn sie einen theoritischen SGX554MP6@380MHz integrieren wuerden (rein erfundenes Beispiel) waere es unter Bedingungen stellenweise sogar effizienter als ein quad cluster Rogue bei gleicher Frequenz aber dann auch wieder auf Kosten von die area und Stromverbrauch.

Ailuros
2013-03-27, 08:54:28
http://venturebeat.com/2013/03/26/mobile-graphics/

As Pranckevičius concluded, “Problems with graphics tend to be solved by Moore’s Law, but problems with business models do not.”

:biggrin: 100% zustimm.

Und weil das Panel wohl "kein Schwein" interessierte: http://twitter.yfrog.com/odaccwjj :P

sth
2013-03-27, 11:18:37
As Pranckevičius concluded, “Problems with graphics tend to be solved by Moore’s Law, but problems with business models do not.”
:biggrin: 100% zustimm.
Wo er recht hat, hat er er recht. ;D

Ailuros
2013-03-28, 07:09:19
http://twitter.yfrog.com/moxt4tcj

Wenn man vom PC verwoehnt ist sieht es zwar nach nichts besonderem aus, aber 250k Polys/frame sind schon ein fetter Batzen fuer ein heutiges SFF mobiles Geraet.

Neosix
2013-03-28, 07:35:14
Nur stoßen moderne A15 Quad usw. SoCs bereits zum Teil fast in zweistellige TDP Bereiche und befinden sich damit gefährlich nah zu Intel ULV CPUs. Und dann erwarte ich auch ähnliche Leistung. Hat nicht Tegra 4 eine max TDP von 9,4? Müsste es nochmal suchen. Das ist vom verbrauch her schon fast ne Notebook CPU...

Ailuros
2013-03-28, 07:58:58
Nur stoßen moderne A15 Quad usw. SoCs bereits zum Teil fast in zweistellige TDP Bereiche und befinden sich damit gefährlich nah zu Intel ULV CPUs. Und dann erwarte ich auch ähnliche Leistung. Hat nicht Tegra 4 eine max TDP von 9,4? Müsste es nochmal suchen. Das ist vom verbrauch her schon fast ne Notebook CPU...

Relevanz zum Thema?

Neosix
2013-03-28, 08:01:12
Du hast doch den Vergleich mit deinen 250k Polys/frame angestoßen. Und da ist es für mich nur logisch darauf zu schauen mit welchem TDP sowas dann aktuell erreicht wird, bzw wohin die Reise geht. Und wenn man so viel schluckt wie eine Notebook CPU wieso soll ich mich dann über Leistung wundern?

Ailuros
2013-03-28, 08:07:01
Du hast doch den Vergleich mit deinen 250k Polys/frame angestoßen. Und da ist es für mich nur logisch darauf zu schauen mit welchem TDP sowas dann aktuell erreicht wird, bzw wohin die reise geht.

Wobei es hauptsaechlich mit der GPU zu tun hat und weniger mit der CPU; der von NV angegebene TDP fuer Tegra4 ist 5W welches wenn stimmt es dann auch heisst dass die CPU verdammt oft throttelt um sich in der Grenze einzuhalten. Die 9.4W sind ein rein theoretisches Maximum wenn man alle 4 A15 cores auf T4 bei 1.9GHz (ohne I/O, GPU oder sonst was) voll auslastet; wird in einem mobilen Spiel sowieso NIE vorkommen weil man fuer diese selbst mit 4*A7 bei 800MHz auskommt mit extrem seltenen peaks von 1GHz und danach ist es auch dann aus.

Ailuros
2013-03-29, 16:38:14
Wenn heiss noch heisser wird:

http://withimagination.imgtec.com/index.php/powervr/quad-core-allwinner-a31s-with-a-powervr-sgx544mp2-gpu-offers-a-complete-solution-for-phablets

http://withimagination.imgtec.com/wp-content/uploads/2013/03/PowerVR-SGX544-AllwinnerA31-vs-competition.jpg

http://translate.google.gr/translate?sl=ko&tl=en&js=n&prev=_t&hl=en&ie=UTF-8&eotf=1&u=http%3A%2F%2Fwww.playwares.com%2Fxe%2F25745383

Ailuros
2013-04-01, 08:37:46
http://www.anandtech.com/show/6872/the-great-equalizer-apple-android-windows-tablets-compared-using-gldxbenchmark-27

Je nach workload ist HD4000 3x bzw. 2x Mal schneller als ein iPad4.

Looking at the offscreen results, we finally get what we came here for. Intel's HD 4000 manages to deliver 3x the performance of the PowerVR SGX 554MP4, obviously at a much higher power consumption level as well. The Ivy Bridge CPU used in Surface Pro carries a 17W TDP, and it's likely that the A6X used in the iPad 4 is somewhere south of 5W.

The big question here is how quickly Intel can scale its power down vs. how quickly can the ARM guys scale their performance up. Claiming ARM (and its partners) can't build high performance hardware is just as inaccurate as saying that Intel can't build low power hardware.

Both camps simply chose different optimization points on the power/performance curve, and both are presently working towards building what they don't have. The real debate isn't whether or not each side is capable of being faster or lower power, but which side will get there first, reliably and with a good business model.

mboeller
2013-04-01, 13:19:32
dann warten wir mal auf die ersten Rogue-Benchmarks.

http://www.theverge.com/2012/1/10/2696934/powervr-series-6-mobile-gpu-announcement-ces-2012


Imagination claims the sixth generation of its graphics core can deliver "20x or more" the performance of current-gen hardware, while also being five times more efficient.

Label
2013-04-01, 13:40:03
http://www.anandtech.com/show/6872/the-great-equalizer-apple-android-windows-tablets-compared-using-gldxbenchmark-27

Je nach workload ist HD4000 3x bzw. 2x Mal schneller als ein iPad4.

Onscreen Surface Pro (1080p) mehr FPS als Razer Edge (768p) aber Offscreen wieder umgekehrt...
Bin mal gespannt, wie lange das so auf der Seite stehen bleibt...:rolleyes:

Nightspider
2013-04-01, 13:48:19
http://www.anandtech.com/show/6872/the-great-equalizer-apple-android-windows-tablets-compared-using-gldxbenchmark-27

Je nach workload ist HD4000 3x bzw. 2x Mal schneller als ein iPad4.

Das würde ja bedeuten, dass die GPU vom iPad4 schnell genug wäre für die PS360 Games !? Denn selbst eine HD3000 schafft diese Spiele locker bei Konsolenqualität.

Ronny145
2013-04-01, 14:57:01
Das würde ja bedeuten, dass die GPU vom iPad4 schnell genug wäre für die PS360 Games !? Denn selbst eine HD3000 schafft diese Spiele locker bei Konsolenqualität.


Ne rein von der Rechenleistung liegt die HD3000 schon noch deutlich drunter (105-125 gflops). Die ULV HD4000 wahrscheinlich auch noch ein wenig. Die ipad4 Grafik liegt deutlich unter einer HD3000 (bei 2x-3x Abstand zur HD4000 muss das so sein). Wie viel Strom zieht eigentlich die ipad4 Grafik?

Undertaker
2013-04-01, 15:25:37
Man sollte den Test wenn überhaupt als ganz, ganz groben Anhaltspunkt ansehen. Die HD 4000 ist in den dortigen Messungen z.B. viel zu nah an der GT 640M LE dran.

Edit: Wobei, T-Rex HD Offscreen sieht halbwegs passend aus...

Label
2013-04-01, 15:31:50
Man sollte den Test wenn überhaupt als ganz, ganz groben Anhaltspunkt ansehen. Die HD 4000 ist in den dortigen Messungen z.B. viel zu nah an der GT 640M LE dran.

Anand hat jetzt immerhin die ersten Werte angepasst. Bei T-Rex schafft die 640M LE jetzt Offscreen 2xFPS der HD4000.

Edit:
Zitat Anand:
Sorry guys - there was a problem with the Razer Edge numbers, they have since been corrected. Vivek still has the Edge and is in Korea right now so debugging funny results had to cross a few timezones :)

Ailuros
2013-04-01, 18:40:01
dann warten wir mal auf die ersten Rogue-Benchmarks.

http://www.theverge.com/2012/1/10/2696934/powervr-series-6-mobile-gpu-announcement-ces-2012

Marketing. Uebersetzung 20x Mal mehr GFLOPs unter Bedingungen und 5x Mal effizienter bei N Frequenz und X kleinerem Herstellungsprozess. Macht jeder IHV bzw. dessen marketing.

IMG will sich zwar selbst off the record noch nicht zum Thema aeussern, aber folge mal meiner Gedankenreihe:

Ein SGX554MP4 wie im iPad4 besteht aus 4 ganzen cores; es werden hier nicht cluster bzw. fragment cores wie auf konkurrierenden Loesungen skaliert sondern alles um Nx Mal fuer N cores. Der Nachteil ist hw Redundanz, der Vorteil: man hat hw resourcen zum herumschmeissen. Mag sein dass Du auf so einem Gestell nie mehr als 1 Tri/clock benutzen kannst, aber Du hast eben dummerweise 4 raster und 4 trisetup Einheiten u.a.

Nun "verspricht" zwar marketing indirekt dass die jeweiligen Einheiten in Rogue um zich Mal effizienter sind, aber dass z.B. der trisetup in einem quad cluster Rogue die 4 trisetups uebertreffen kann faellt mir momentan schwer zum schlucken.

Ja mit FLOPs schmeisst Rogue nur so um sich rum und eine so hohe FLOP/mm2 oder FLOP/W Rate gibt es nichtmal im desktop momentan, was aber mit dem Rest?

Das würde ja bedeuten, dass die GPU vom iPad4 schnell genug wäre für die PS360 Games !? Denn selbst eine HD3000 schafft diese Spiele locker bei Konsolenqualität.

Weder iPad4 noch HD3000 ist auf heutigem Konsolem-Nivaeu.

Ne rein von der Rechenleistung liegt die HD3000 schon noch deutlich drunter (105-125 gflops). Die ULV HD4000 wahrscheinlich auch noch ein wenig. Die ipad4 Grafik liegt deutlich unter einer HD3000 (bei 2x-3x Abstand zur HD4000 muss das so sein). Wie viel Strom zieht eigentlich die ipad4 Grafik?

Der ganze A6X zieht etwas weniger als 5W oder so viel wird bisher behauptet. Um in etwa XBox360 GPU Leistung zu erreichen musst man ungefaehr die 3x fache iPad4 GPU Leistung benutzen. Anders anstatt SGX554MP4@280MHz, dann eben SGX554MP12@280MHz. Waere aber auch eine ziemlich daemliche Idee da man bessere Effizienz mit einem 6 cluster G6630@500MHz erreichen wuerde bei um einiges weniger Stromverbrauch und auch die area.

Undertaker
2013-04-01, 19:19:37
5W unter Volllast? Dafür, dass das iPad 4 unter Last deutlich mehr Strom als das Nexus 10 mit höherer Auflösung und hellerem Display zieht - und den Energiehunger des Exynos kennen wir -, erscheint mir das wohl zu tief gegriffen.

mboeller
2013-04-02, 08:36:23
5W unter Volllast? Dafür, dass das iPad 4 unter Last deutlich mehr Strom als das Nexus 10 mit höherer Auflösung und hellerem Display zieht - und den Energiehunger des Exynos kennen wir -, erscheint mir das wohl zu tief gegriffen.

daran dürfte aber vor allem der Display Schuld sein, zumindest wenn man der Werbung von Mary Lou Jepson glauben will:

http://pixelqi.com/blog1/2012/04/21/next-generation-pixel-qi-screen-improves-over-ipad3-display/

Deinorius
2013-04-02, 10:51:32
Oh, Pixel Qi ist noch am Leben? Schön.

Nightspider
2013-04-02, 15:25:18
Wann kann man eigentlich mit den ersten 20nm Chips von TSMC rechnen? 4.Q 2013? Oder erst 1.H/2014?

Und erwartet ihr eine fallende Monotonie für das Geschwindigkeitswachstum bei SoCs,dh. wird die Entwicklung wie beim Desktop PC schon jetzt bei SoCs eintreten? Gerade Apples A6X ist ja zB. sehr groß.
Falls es Apple es tatsächlich schafft die GPU beim iPad5 wieder doppelt so schnell zu machen und damit fast an Intels HD3000 heran kommt wäre das schon sehr ""pervers"".
Ist zweifache iPad 4 GPU Power beim iPad 5 realistisch?

Immerhin habe ich mit der HD3000 eine Zeit lang sogar Battlefield 3 mit low und niedriger Auflösung gezockt. (Auch wenn die HD3000 etwas übertaktet war)

Ailuros
2013-04-02, 15:57:03
5W unter Volllast? Dafür, dass das iPad 4 unter Last deutlich mehr Strom als das Nexus 10 mit höherer Auflösung und hellerem Display zieht - und den Energiehunger des Exynos kennen wir -, erscheint mir das wohl zu tief gegriffen.

http://translate.google.gr/translate?hl=en&sl=ko&tl=en&u=http%3A%2F%2Fwww.playwares.com%2Fxe%2Fmaingame%2F25745404

Graph ganz unten unter 3D. Allein die T604 GPU zieht alleine fuer sich fast schon 4W peak. Der GPU block auf iPad4 nimmt zwar >70% mehr die area ein unter 32nm im Vergleich zu den 28nm des Exynos5250, aber dafuer hat die ipad4 GPU eine Frequenz von 280MHz gegen 533MHz beim T604. Warum so Energie-hungrig beim letzten? Frag mich nochmal wieso FP64 in hw schon jetzt eine Schnappsidee fuer SFF mobile sein koennte.

Batteriegroessen werden unter dem Graph auch erwaehnt.

YfOrU
2013-04-02, 16:10:08
Wann kann man eigentlich mit den ersten 20nm Chips von TSMC rechnen? 4.Q 2013? Oder erst 1.H/2014?

Endprodukte und Volumen -> eher Ende Q2/2014. Ansonsten würden die mittelfristigen Roadmaps von Qualcomm anders aussehen (TSMC, 28nm HPM). Vielleicht läuft es ausnahmsweise mal wirklich gut und es wird Q1/2014 aber das glaube ich erst wenn Produkte im Regal stehen. Bisher lag die Diskrepanz zwischen Traum und Realität bei ~6 Monaten.

Ailuros
2013-04-02, 16:24:46
Wann kann man eigentlich mit den ersten 20nm Chips von TSMC rechnen? 4.Q 2013? Oder erst 1.H/2014?

Wohl eher das zweite aber weiss der Geier in welchen Mengen.

Und erwartet ihr eine fallende Monotonie für das Geschwindigkeitswachstum bei SoCs,dh. wird die Entwicklung wie beim Desktop PC schon jetzt bei SoCs eintreten? Gerade Apples A6X ist ja zB. sehr groß.

SoCs werden genauso wie jegliches Stueck Silizium von Herstellungs-prozessen beinflusst. Man kann eben NICHT einen neuen kleineren Prozess jedes Jahr erwarten.


Falls es Apple es tatsächlich schafft die GPU beim iPad5 wieder doppelt so schnell zu machen und damit fast an Intels HD3000 heran kommt wäre das schon sehr ""pervers"".
Ist zweifache iPad 4 GPU Power beim iPad 5 realistisch?

Die Antwort waere einfach wenn ich mit Sicherheit wuesste was Apple genau plant. Bei einem G6400@600MHz/28nm ist die Antwort ja und mit weniger die area als im iPad4 normalisiert auf 28nm.

Immerhin habe ich mit der HD3000 eine Zeit lang sogar Battlefield 3 mit low und niedriger Auflösung gezockt. (Auch wenn die HD3000 etwas übertaktet war)

Keine Ahnung wie es sich zum HD3000 vergleicht, aber im obrigen Fall liegt die GPU zwar unter XBox360 Nivaeu, aber nicht mehr all zu weit entfernt. Ein stinknormaler refresh auf dem desktop beim gleichen Prozess wuerde den Unterschied wieder gutmachen.

Nightspider
2013-04-02, 16:50:18
Danke für die Antworten. Irgendwo hatte eine Newsseite nämlich vor kurzem wieder geschrieben das TSMC noch dieses Jahr 20nm in Produktion bringen will,wenn ich mich nicht irre. Hatte mich da auch schon gewundert.

Ailuros
2013-04-02, 16:54:32
Danke für die Antworten. Irgendwo hatte eine Newsseite nämlich vor kurzem wieder geschrieben das TSMC noch dieses Jahr 20nm in Produktion bringen will,wenn ich mich nicht irre. Hatte mich da auch schon gewundert.

Echt? Ich kann mich an aehrliche Marketing-Maerchen auch vor dem 28nm launch erinnern von TSMC. Natuerlich gab es ein paar verstreute 28nm chips bevor 2011 endete, nur interessierten diese wohl kein Schwein :D:freak:

Undertaker
2013-04-02, 19:01:00
http://translate.google.gr/translate?hl=en&sl=ko&tl=en&u=http%3A%2F%2Fwww.playwares.com%2Fxe%2Fmaingame%2F25745404

Graph ganz unten unter 3D. Allein die T604 GPU zieht alleine fuer sich fast schon 4W peak. Der GPU block auf iPad4 nimmt zwar >70% mehr die area ein unter 32nm im Vergleich zu den 28nm des Exynos5250, aber dafuer hat die ipad4 GPU eine Frequenz von 280MHz gegen 533MHz beim T604. Warum so Energie-hungrig beim letzten? Frag mich nochmal wieso FP64 in hw schon jetzt eine Schnappsidee fuer SFF mobile sein koennte.

Batteriegroessen werden unter dem Graph auch erwaehnt.

Alles korrekt; dort scheint der Unterschied der Akkukapazität etwa der Differenz der 3D-Laufzeit zu entsprechen, bei Notebookcheck (Nexus 10 (http://www.notebookcheck.com/Test-Google-Nexus-10-Tablet.85166.0.html), iPad 4 (http://www.notebookcheck.com/Test-Apple-iPad-4-Tablet.83847.0.html)) verbraucht das Nexus weniger Energie und läuft pro Wh sogar länger. Auch wenn wir optimistisch mal von gleicher Leistungsaufnahme der beiden Tablets ausgehen, endet der A6X für mich damit auf mindestens gleichem Niveau wie der Exynos 5250. Der Faktor Display spricht dabei eigentlich sogar für das iPad, da niedrigere Auflösung und Helligkeit.

Aus technischer Sicht stimme ich dir zu, dass das iPad durch die niedrigere Taktrate im Vorteil ist; allerdings ist die GPU insgesamt auch immernoch schneller und der Prozess wohl etwas schlechter. Naja, solange keiner mal präzise nachmisst, bleibt das ein Tappen im Dunkeln... ;)

Ailuros
2013-04-02, 19:31:23
Alles korrekt; dort scheint der Unterschied der Akkukapazität etwa der Differenz der 3D-Laufzeit zu entsprechen, bei Notebookcheck (Nexus 10 (http://www.notebookcheck.com/Test-Google-Nexus-10-Tablet.85166.0.html), iPad 4 (http://www.notebookcheck.com/Test-Apple-iPad-4-Tablet.83847.0.html)) verbraucht das Nexus weniger Energie und läuft pro Wh sogar länger. Auch wenn wir optimistisch mal von gleicher Leistungsaufnahme der beiden Tablets ausgehen, endet der A6X für mich damit auf mindestens gleichem Niveau wie der Exynos 5250. Der Faktor Display spricht dabei eigentlich sogar für das iPad, da niedrigere Auflösung und Helligkeit.

Aus technischer Sicht stimme ich dir zu, dass das iPad durch die niedrigere Taktrate im Vorteil ist; allerdings ist die GPU insgesamt auch immernoch schneller und der Prozess wohl etwas schlechter. Naja, solange keiner mal präzise nachmisst, bleibt das ein Tappen im Dunkeln... ;)

Es gibt keine Wundertueten selbst in solchen SoC, nur vorsichtig entwickelte Produkte vom alpha bis zum omega. Das Nexus10 duerfte auch keinen offiziellen TDP von 8W haben sondern um einiges weniger.

Das mit den Messungen kann auch immer wieder problematisch werden; um es erstmal am Kopf zu packen: wenn Du nicht mit einem akkuratem Messgeraet die Helligkeit auf allen getesten Geraeten auf gleichem Nivaeu einstellst sind so manche tests wenn es zu Batterie-Laufzeit kommt verdammt zweifelhaft.

Sonst nebenbei kann ich ernsthaft die Mali Kerle schwer verstehen wenn es zu GPU Entwicklung kommt; nun gut sie hatten die absolute Schnappsidee mit Mali4x0 bis zu 8 fragment cores mit nur einem pissat 1*Vec2 VS zu paaren, ergo haette ich erwartet dass sich der T604 ueberhaupt da er USC ALUs hat um zich Male staerker sein wird mit Geometrie. Adreno320 duerfte grob die gleiche Anzahl an SIMDs haben mit dem T604 und obwohl der erste mit 400MHz taktet und der zweite mit 533MHz, ist der Unterschied im Bereiche geometry througput fuer den zweiten immer noch merkwuerdig klein.

Ailuros
2013-04-04, 18:09:15
http://www.prweb.com/releases/trusight/imaginationtechnology/prweb10592441.htm

Ailuros
2013-04-09, 10:46:16
3D Transistoren fuer Rogue bei TSMC: http://www.cio.com/article/730707/Imagination_TSMC_collaborate_on_graphics_chips_with_3D_transistors

Ailuros
2013-04-16, 07:45:21
http://withimagination.imgtec.com/index.php/powervr/how-to-build-scalable-mobile-graphics-and-optimize-apps-for-powervr-gpus

Neben dem ueblichen marketing-Gewaesch:

The PowerVR Series6 ‘Rogue’ cores are based on our Unified Scalable Cluster (USC), with each cluster integrating up to 16 pipelines and each core scaling up to 8 clusters.

Cluster = SIMD16
Pro core = bis zu 8 cluster

ARM Mali T6xx skaliert im Gegensatz bis zu 4 clusters/core. Bei Rogue werden wohl auch MPs moeglich sein, wie es realisiert wird ist dann wohl weitere Frage.

robbitop
2013-04-16, 10:29:36
Bei 500 MHz hätte man also 128 GFlops/s pro Core. Mit 4 Kernen dann also 512 GFlops/s. Das zeug soll 2013/2014 in SFF? Nicht schlecht. Damit ist man im Bereich von R600! (wer sich noch erinnert wie laut und heiß das Ding war...)

Sunrise
2013-04-16, 11:18:46
Bei 500 MHz hätte man also 128 GFlops/s pro Core. Mit 4 Kernen dann also 512 GFlops/s. Das zeug soll 2013/2014 in SFF? Nicht schlecht. Damit ist man im Bereich von R600! (wer sich noch erinnert wie laut und heiß das Ding war...)
Es ist schon heftig, welche Sprünge hier im SFF gemacht werden. Durch die Konkurrenz von allen Seiten schießt man hier ja geradezu aus vollen Rohren. So ein Teil im iPad oder in anderen Devices und man könnte damit praktisch alles anstellen, wenn es die Plattform zulässt.

Gaestle
2013-04-16, 12:49:30
Es müssen ja auch 1080p-Displays befeuert werden.

robbitop
2013-04-16, 13:26:52
Was gerade bei Smartphones essenziell ist ... :rolleyes:

Ailuros
2013-04-16, 14:04:01
Bei 500 MHz hätte man also 128 GFlops/s pro Core.

Bei 500MHz sind es so viel fuer einen quad cluster core.

Mit 4 Kernen dann also 512 GFlops/s.

8 cluster bei 800MHz welches fuer 2015 kein besonderes Problem sein werden.

Das zeug soll 2013/2014 in SFF? Nicht schlecht. Damit ist man im Bereich von R600! (wer sich noch erinnert wie laut und heiß das Ding war...)

2014 liegt in etwa in der Mitte von den obrigen zwei mit einem relativ konservativ getaktetem G6630.

Was gerade bei Smartphones essenziell ist ... :rolleyes:

Was fuer eine Aufloesung hat denn das Samsung GalaxyS4 genau? Kann es sein dass es rein zufaellig das meistverkaufte high end smartphone dieses Jahr werden wird?

robbitop
2013-04-16, 16:18:37
Das macht aber die hohe Auflösung nicht weniger schwachsinnig. Aber einer gewissen Pixeldichte kann deine Netzhaut das gar nicht weiter auflösen. 300 dpi reichen. Wozu 400 oder 500 dpi? IMO völliger Dummfug und Energieverschwendung...

fondness
2013-04-16, 16:30:49
Bei 500 MHz hätte man also 128 GFlops/s pro Core. Mit 4 Kernen dann also 512 GFlops/s. Das zeug soll 2013/2014 in SFF? Nicht schlecht. Damit ist man im Bereich von R600! (wer sich noch erinnert wie laut und heiß das Ding war...)

Naja in 20nm(?) wäre ein R600 auch sparsam. ;)
Da sind immerhin vier full-node Shrinks dazwischen, dazu war R600 alles andere als Energiesparend - auch wegen dem suboptimalen 80nm Prozess.

robbitop
2013-04-16, 16:37:00
Das wären bei Halbierung der Leistungsaufnahme eines Fullnodeshrins immernoch fast 10 W. Und wie wir wissen, halbiert ein Fullnodeshrink die Leistungsaufnahmen nicht mal ansatzweise.
Die Shrinks sind sicherlich ein sehr wichtiger Teilaspekt. Aber es ist eben auch ein sehr effizientes Design (mit sicherlich dem einen oder anderen Kompromis).

Ailuros
2013-04-16, 17:39:27
Das macht aber die hohe Auflösung nicht weniger schwachsinnig. Aber einer gewissen Pixeldichte kann deine Netzhaut das gar nicht weiter auflösen. 300 dpi reichen. Wozu 400 oder 500 dpi? IMO völliger Dummfug und Energieverschwendung...

1080p auf fast 5" sind genauso idiotisch wie auch 2048*1536 bzw. 2560*1600 auf 10"; ich denke die Debatte brauchen wir nicht nochmal wiederholen. Wenn es keine 1080p smartphones geben wuerde, wuerde ich Dir sofort dazustimmen; da es die Dinger aber tatsaechlich gibt und sich diese auch wie warme Semmeln verkaufen werden, muessen wir wohl mit dieser Realitaet leben und es als Konstante mitberechnen.

Naja in 20nm(?) wäre ein R600 auch sparsam. ;)
Da sind immerhin vier full-node Shrinks dazwischen, dazu war R600 alles andere als Energiesparend - auch wegen dem suboptimalen 80nm Prozess.

R600 wuerde ziemlich daemlich gegen Rogue stehen was perf/W, perf/mm2 und ueberhaupt AAsamples/W bzw. Leistung betrifft. Technologie entwickelt sich weiter, Rogue Varianten haben bis zu 2.0x Mal so viele FLOPs per ALU lane selbst im Vergleich zu heutigen high end GPUs und es ist natuerlich auch nicht auf nur single cycle 2xMSAA sondern um 4x Mal so viel begrenzt.

Nightspider
2013-04-16, 17:45:02
2048 auf 10 Zoll sind idiotisch? Wohl kaum. 720p auf 5 Zoll ebenfalls sind aber 1080p sind übertrieben aber nimmt man gern.
Höhere Pixeldichte sichtbaren Grenze sinnvoll. Mehr als 2048 Pixel benötigt man aber auch nicht bei 10 Zoll.
Dementsprechend wären am Dekstop PC mit 24-27 Zoll 6K in Ordnung. 4K reicht aber erstmal und wird genug ausbremsen.

Aber 1080p auf 5Zoll mit 2048 (also auch fast 1080p) auf 10Zoll gleichzusetzen ist stark übertrieben.

Mich würde es aber nicht wundern wenn die 5,5 - 6,5 Zoll Smartphone Klasse auch bald 2560*1440 bekommt.

Ailuros
2013-04-16, 17:52:38
2048 auf 10 Zoll sind idiotisch? Wohl kaum. 720p auf 5 Zoll ebenfalls sind aber 1080p sind übertrieben aber nimmt man gern.
Höhere Pixeldichte sichtbaren Grenze sinnvoll. Mehr als 2048 Pixel benötigt man aber auch nicht bei 10 Zoll.
Dementsprechend wären am Dekstop PC mit 24-27 Zoll 6K in Ordnung. 4K reicht aber erstmal und wird genug ausbremsen.

Aber 1080p auf 5Zoll mit 2048 (also auch fast 1080p) auf 10Zoll gleichzusetzen ist stark übertrieben.

Mich würde es aber nicht wundern wenn die 5,5 - 6,5 Zoll Smartphone Klasse auch bald 2560*1440 bekommt.

Ich halte auf jeden Fall ein 5" smartphone und ein 10" tablet nicht im genau gleichen Abstand, was aber wohl niemand als Faktor zufaelligerweise einleuchten wuerde. Diesen "zu viel" bzw. "zu wenig" Scheiss mit den Aufloesungen hatten wir schon zich Male und es wird sich eben nichts daran aendern. Es gibt schon seit langem Redundanz in tablet und smartphone Aufloesungen, als ob es wirklich etwas Neues waere.

Und ja wenn's schon sein muss ich wuerde persoenlich NICHT nein sagen zu obszoen hohen Aufloesungen fuer bis zu 30" displays, als 4k ueber 80". Koennen wir jetzt zum Thema zurueckkommen?

Gaestle
2013-04-16, 22:35:13
Das macht aber die hohe Auflösung nicht weniger schwachsinnig. Aber einer gewissen Pixeldichte kann deine Netzhaut das gar nicht weiter auflösen. 300 dpi reichen. Wozu 400 oder 500 dpi? IMO völliger Dummfug und Energieverschwendung...


So war es gemeint.

/OT.

Ailuros
2013-04-18, 07:50:10
Rockchip RK3168 (@28nm) mit ~1W fuer video decoding 50% Helligkeit fuer low end tablets (dual A9 + Series5 GPU):

http://www.cnx-software.com/2013/04/14/rockchip-unveils-rk3168-dual-core-processor-showcases-10-miracast-adapter/

Nebenbei scheint MediaTek ihren MT6589 besser als sie selber erwartet haben zu verkaufen ueberhaupt bei white box vendors in China:

http://www.digitimes.com/news/a20130415PD217.html

Gaestle
2013-04-18, 10:47:03
Wie groß sind die Unterschiede eigentlich zwischen Rockchip, MediaTek und Qualcomm bei gleicher "Chipgeneration", gleicher Anzahl Cores und gleichem Takt?

Es gibt ja einige Hersteller, die diese Chips verbauen. Aber sind 1.5GHz DualCore dort auch mit 1.5GHz DualCore-Krait vergleichbar? Wie gleich oder verschieden sind die Architekturen, Caches etc.? Wie wirkt sich das aus?

Gibt es relevante Anpassungen in der Software, die berücksichtigt werden müssen (ähnlich Games, die mal der einen, mal der anderen Firma besser liegen)?

Ailuros
2013-04-18, 11:10:09
Wie groß sind die Unterschiede eigentlich zwischen Rockchip, MediaTek und Qualcomm bei gleicher "Chipgeneration", gleicher Anzahl Cores und gleichem Takt?

Zumindest Mediatek und Qualcomm haben beide mainstream smartphone SoCs im Angebot mit quad A7 CPUs bei 1.2GHz. Bei Qualcomm ist die GPU ein hauseigener Adreno305@400MHz bei Mediatek ein SGX544MP1@320MHz. Innerhalb logischen Grenzen duerften die beiden keine sehenswerte Leistungs-unterschiede haben.

Es gibt ja einige Hersteller, die diese Chips verbauen. Aber sind 1.5GHz DualCore dort auch mit 1.5GHz DualCore-Krait vergleichbar? Wie gleich oder verschieden sind die Architekturen, Caches etc.? Wie wirkt sich das aus?

Kommt drauf an was die dual core 1.5GHz genau ist. Bei 2*A9@1.5GHz gewinnt der dual core Krait. Sehr brutal vereinfacht gehoert Krait (da ein Qualcomm custom CPU core basierend auf ARM ISA) eher im Vergleich zur ARM Eagle bzw. A15 Generation als zum A9. Pro Takt duerfte ein jeglicher A15 etwas schneller sein als ein S4 PRO Krait; welches man theoretisch auch wieder beim letzteren mit hoeheren Frequenzen ausgleichen koennte.

Gibt es relevante Anpassungen in der Software, die berücksichtigt werden müssen (ähnlich Games, die mal der einen, mal der anderen Firma besser liegen)?

Anpassungen seitens des ISV bzw. Spiel-Entwicklers IMHO nein.

Gaestle
2013-04-18, 14:23:01
AFAIK soll Krait ca. 30% schneller sein als der Vorgänger mit A9 bei gleichem Takt.

Aus Deinen Zeilen lese ich, dass aktuelle MediaTek-CPUs (z.B. bei 1.5GHz) beim Output durchaus mit Krait-Qualcomm (ebenfalls 1.5GHz) vergleichbar sind?

Es ist also keine Ungleichheit pro Takt z.B. zwischen VIA x86-CPUs und INTEL x86-CPUs?

Ailuros
2013-04-18, 19:42:02
Aus Deinen Zeilen lese ich, dass aktuelle MediaTek-CPUs (z.B. bei 1.5GHz) beim Output durchaus mit Krait-Qualcomm (ebenfalls 1.5GHz) vergleichbar sind?

Nein fuer mainstream smartphones haben von jetzt ab sowohl Mediatek als auch Qualcomm quad A7 CPUs beide Seiten auf 1.2GHz getaktet. Qualcomm wird fuer billige smartphones in absehbarer Zukunft keine hauseigene Kraits benutzen sondern A7 CPU Kerne.

robbitop
2013-04-19, 09:44:46
A7 ohne Unterstützung? Dann hat man wieder die Performance aus dem Jahr 2010...

Ailuros
2013-04-19, 11:18:36
A7 ohne Unterstützung? Dann hat man wieder die Performance aus dem Jahr 2010...

Kannst Du das mal erlaeutern, denn ich versteh mal wieder Bahnhof.

robbitop
2013-04-19, 11:25:44
Cortex A7 ist eine lahme in Order Ente. Performance pro Takt dürfte in Cortex A8 Regionen (oder noch schlimmer) liegen.
Ich fürchte eher schlimmer, da wenige Transistoren (auch ggü A8) auch irgendwoher kommen müssen. "von nichts kommt nichts"

IMO sollte heute jedes noch so billige Smartphone mindestens eine CPU der A9 Klasse haben. Die Dinger kosten auf 28 nm sowieso kaum Fläche...

Ailuros
2013-04-19, 11:38:14
Cortex A7 ist eine lahme in Order Ente. Performance pro Takt dürfte in Cortex A8 Regionen (oder noch schlimmer) liegen.
Ich fürchte eher schlimmer, da wenige Transistoren (auch ggü A8) auch irgendwoher kommen müssen. "von nichts kommt nichts"

IMO sollte heute jedes noch so billige Smartphone mindestens eine CPU der A9 Klasse haben. Die Dinger kosten auf 28 nm sowieso kaum Fläche...

Es hat wohl auch keiner versprochen dass solche Loesungen in >budget Geraeten landen werden. Sonst neben den ueblichen Ubertreibungen ist ein quad A7@1.2GHz um einiges schneller als ein single A9 800-1000MHz von 2010. http://www.arm.com/products/processors/cortex-a/cortex-a7.php 0.45mm2@28nm heisst 1.8mm2 fuer quad A7.

robbitop
2013-04-19, 14:24:19
Ich habe jetzt mal recherchiert:

http://www.anandtech.com/show/4991/arms-cortex-a7-bringing-cheaper-dualcore-more-power-efficient-highend-devices

ARM claims a single Cortex A7 core will measure only 0.5mm2 on a 28nm process. On an equivalent process node ARM expects customers will be able to implement an A7 in 1/3 - 1/2 the die area of a Cortex A8.


http://books.google.de/books?id=DwXOaCQ2gXYC&pg=PA288&lpg=PA288&dq=cortex+A8+mm2&source=bl&ots=tN2Zd92xw1&sig=HVcEvPMu9pl6y95akSeFNwVmwPw&hl=de&sa=X&ei=6jVxUd7hJM2RswaOiYCQCQ&ved=0CEYQ6AEwAg#v=onepage&q=cortex%20A8%20mm2&f=false


A8 hat 5 sqmm @90 nm
-> ~0,5 sqmm @28nm.

http://de.slideshare.net/caulfield2600/tegra-4i-expands-the-market

Each Cortex-A9 r4 CPU measures just 1.15mm2 (28 nm)


Zusammenfassung:

Ein CortexA7 und ein CortexA8 haben also ungefähr das gleiche Transistorbudget. Ein A9r4 ist ~2,3x so groß wie ein A8/A7. Man bekommt also für einen A9 in etwa 2x in Order Kerne.

Ein ähnliches Leistungsniveau sollte also da sein. 1,2 GHz hatten auch manche Cortex A8 / Snapdragon (der hatte ähnliche IPC) in 2010.

Ok - der A7 SoC hätte mehrere Kerne. Sobald es aber um Singlethread IPC geht (eine Seite aufbauen, eine App starten etc), hat der SoC die Performance aus dem Jahr 2010.

Multithreading natürlich nicht. Allerdings zeigen bisherige Tests, dass offenbar in den meisten Fällen gerade mal 2 Kerne genutzt werden. Einen sinnvolleren SoC (auch für Budget Smartphones) hätte 2x A9 Kerne mit >/= 1,2 GHz enthalten. Und wenn es ein Tegra 2 @28nm ist. (das Ding sollte komplett in ~ 40 sqmm machbar sein)
Sollte nicht bedeutend größer sein aber in RL Cases schneller.

AnarchX
2013-04-19, 14:33:40
Quadcores lassen wohl besser vermarkten. Es gibt ja auch Gerüchte über SoCs mit 8x A7. :freak:

robbitop
2013-04-19, 14:44:58
Dieser Spezifikationsblödsinn wieder. Wie die blöden Fliegen geht die Masse leider darauf ab. FullHD Smartphonebildschirme, 8 Kerne, 5-6"!!!!111 :rolleyes:
Die Netzhaut kann aber nur ~300 dpi auflösen - alles darüber ist für die Katz. Programme nutzen größtenteils nur 2 Kerne...

Anstatt die Energie bzw den Bauraum sinnvoll zu nutzen:

- Kerne mit mehr Performance (pro Kern)
- schnellere Grafikeinheit
- mehr Features in die Grafikeinheit
- mehr Akkulaufzeit?
- dünnere Bauweise
...

Am Ende halten wir Phablets oder sogar Tablets an die Ohren (und das sieht echt lächerlich aus)..

Ailuros
2013-04-19, 15:40:54
Ich habe jetzt mal recherchiert:

http://www.anandtech.com/show/4991/arms-cortex-a7-bringing-cheaper-dualcore-more-power-efficient-highend-devices



http://books.google.de/books?id=DwXOaCQ2gXYC&pg=PA288&lpg=PA288&dq=cortex+A8+mm2&source=bl&ots=tN2Zd92xw1&sig=HVcEvPMu9pl6y95akSeFNwVmwPw&hl=de&sa=X&ei=6jVxUd7hJM2RswaOiYCQCQ&ved=0CEYQ6AEwAg#v=onepage&q=cortex%20A8%20mm2&f=false


A8 hat 5 sqmm @90 nm
-> ~0,5 sqmm @28nm.

http://de.slideshare.net/caulfield2600/tegra-4i-expands-the-market

Each Cortex-A9 r4 CPU measures just 1.15mm2 (28 nm)

Zu was der ganze Anand Humbug wenn ARM selber auf ihrer Hauptseite 0.45mm2@28nm angeben?

Zusammenfassung:

Ein CortexA7 und ein CortexA8 haben also ungefähr das gleiche Transistorbudget. Ein A9r4 ist ~2,3x so groß wie ein A8/A7. Man bekommt also für einen A9 in etwa 2x in Order Kerne.

Eher 2.5.

Ein ähnliches Leistungsniveau sollte also da sein. 1,2 GHz hatten auch manche Cortex A8 / Snapdragon (der hatte ähnliche IPC) in 2010.

Ja beim Ausklang von A8/Snapdragon schon. Da die A7 Kerne erst jetzt in die Startloecher kommen, werden sie wohl auch nicht bei 1.2GHz bleiben.

Ok - der A7 SoC hätte mehrere Kerne. Sobald es aber um Singlethread IPC geht (eine Seite aufbauen, eine App starten etc), hat der SoC die Performance aus dem Jahr 2010.

Multithreading natürlich nicht. Allerdings zeigen bisherige Tests, dass offenbar in den meisten Fällen gerade mal 2 Kerne genutzt werden. Einen sinnvolleren SoC (auch für Budget Smartphones) hätte 2x A9 Kerne mit >/= 1,2 GHz enthalten. Und wenn es ein Tegra 2 @28nm ist. (das Ding sollte komplett in ~ 40 sqmm machbar sein)
Sollte nicht bedeutend größer sein aber in RL Cases schneller.

Was hat jetzt Tegra genau mit Mediatek bzw. Qualcomm im gegebenen Fall zu tun? Mediatek ist innerhalb von Grenzen eines der grossen chinesischen "white box SoC Lieferanten". So billig kann eben NV noch nicht verkaufen selbst unter 40nm, denn einen 28nm shrink vom T2 gibt es natuerlich nicht. Im gegebenen Fall muesste Du eher nachsuchen was fuer einen Bums-SoC Mediatek als Vorgaenger unter 40nm verkauft hat.

robbitop
2013-04-19, 15:48:18
Zu was der ganze Anand Humbug wenn ARM selber auf ihrer Hauptseite 0.45mm2@28nm angeben?



Eher 2.5.
Erbsenzählerei. Es geht um Größenordnungen. Mit relativ wenig Mehrfläche ist ein im RL schnellerer Dual Core A9r4 drin statt einem Quadcore A7. Ersteres ist deutlich die bessere Wahl. A9r4 kann man auch ziemlich hoch takten.



Ja beim Ausklang von A8/Snapdragon schon. Da die A7 Kerne erst jetzt in die Startloecher kommen, werden sie wohl auch nicht bei 1.2GHz bleiben.

Das geht sicher. Ändert aber zumindest zum Start nichts an meiner Aussage.
Höhere Taktraten führen


Was hat jetzt Tegra genau mit Mediatek bzw. Qualcomm im gegebenen Fall zu tun? Mediatek ist innerhalb von Grenzen eines der grossen chinesischen "white box SoC Lieferanten". So billig kann eben NV noch nicht verkaufen selbst unter 40nm, denn einen 28nm shrink vom T2 gibt es natuerlich nicht. Im gegebenen Fall muesste Du eher nachsuchen was fuer einen Bums-SoC Mediatek als Vorgaenger unter 40nm verkauft hat.
Es war als Bezugsgröße gemeint. Irgendein schieß-mich-tot-DualCore A9-SoC mit GPU Performance von 2011/12 bekommt man in 28 nm in ~40 nm hin. Dazu braucht es keine A7 CPUs.

IMO ist eine reine in Order CPU im SFF nicht mehr zeitgemäß. Auch nicht für Low Cost. A7 ist eine tolle Hilfs CPU, um A15 tragbar zu machen.

Ailuros
2013-04-19, 16:11:21
Erbsenzählerei. Es geht um Größenordnungen. Mit relativ wenig Mehrfläche ist ein im RL schnellerer Dual Core A9r4 drin statt einem Quadcore A7. Ersteres ist deutlich die bessere Wahl. A9r4 kann man auch ziemlich hoch takten.

Und was verstehst Du unter billig bzw. budget Loesungen nochmal genau nicht? Was man bezahlt bekommt man auch. Uebrigens je hoeher die Frequenz desto hoeher der Verbrauch und die Notwendigkeit einer groesseren Batterie. Vielleicht noch nen heatsink oder fan noch dazu damit das Ding auch schoen dick wird? :freak:

***edit: SoC Hersteller geht zur Kreidetafel...was wollen wir als naechstes? Einen SoC fuer billig-smartphones. Der SoC muss so und so gross sein und darf nur N mW verbrauchen.

Das geht sicher. Ändert aber zumindest zum Start nichts an meiner Aussage.
Höhere Taktraten führen

Aendert auch nichts am Preis-/Leistungs Verhaeltnis.

Es war als Bezugsgröße gemeint. Irgendein schieß-mich-tot-DualCore A9-SoC mit GPU Performance von 2011/12 bekommt man in 28 nm in ~40 nm hin. Dazu braucht es keine A7 CPUs.

A9 kosten mehr ob es jetzt bei auf Anhieb einleuchtet oder ob wir das OT bis zum erbrechen weitertreiben.

IMO ist eine reine in Order CPU im SFF nicht mehr zeitgemäß. Auch nicht für Low Cost. A7 ist eine tolle Hilfs CPU, um A15 tragbar zu machen.

Wenn man bedenkt wie oft die A7 bzw. wie selten die A15 cores im Gegensatz bei big.LITTLE smartphones einschalten, ist ein quad A7 zwar schon im Prinzip die "hilfs-CPU" in einem big.LITTLE config aber auch wirklich der Anteil des SoCs der oefters zum schwitzen kommt.

robbitop
2013-04-19, 16:31:53
Und was verstehst Du unter billig bzw. budget Loesungen nochmal genau nicht? Was man bezahlt bekommt man auch. Uebrigens je hoeher die Frequenz desto hoeher der Verbrauch und die Notwendigkeit einer groesseren Batterie. Vielleicht noch nen heatsink oder fan noch dazu damit das Ding auch schoen dick wird? :freak:

***edit: SoC Hersteller geht zur Kreidetafel...was wollen wir als naechstes? Einen SoC fuer billig-smartphones. Der SoC muss so und so gross sein und darf nur N mW verbrauchen.



Aendert auch nichts am Preis-/Leistungs Verhaeltnis.

Das sollte mit 2x A9 ziemlich der gleiche Herstellungpreis sein und auch soziemlich die gleiche Energieaufnahme als TDP. 1,2 GHz @A9r2 ist doch kein Problem. Was willst du da mit Heatsinks? :|




A9 kosten mehr ob es jetzt bei auf Anhieb einleuchtet oder ob wir das OT bis zum erbrechen weitertreiben.
1/2* Cores für A9 kosten zumindest in der Herstellung nicht bedeutend mehr. Was die Lizenzgebühr angeht, weiß ich das nicht. Das sind, wenn überhaupt, aber auch nur Unterschiede in cents pro SoC.



Wenn man bedenkt wie oft die A7 bzw. wie selten die A15 cores im Gegensatz bei big.LITTLE smartphones einschalten, ist ein quad A7 zwar schon im Prinzip die "hilfs-CPU" in einem big.LITTLE config aber auch wirklich der Anteil des SoCs der oefters zum schwitzen kommt.
Außerhalb von Peaks reichen auch A7 CPUs aus. Aber die Reaktionszeit bei solchen Peaks (Start einer App, Aufbau einer Webseite etc) entscheidet ja, wie smooth sich das Gerät anfühlt. Und genau in diesem Punkt schaltet big.LITTLE (nicht ohne Grund) kurzzeitig die großen OoO CPUs ein. Und genau da wären A9 CPUs auch schneller.

ndrs
2013-04-19, 16:33:05
Ich hab jetzt nicht alles ganz genau gelesen. Was ist denn mit den Lizenzkosten? Die sind doch nicht gleich oder? Dann sollten die bei der Entscheidung zwischen A7 und A9 doch auch eine Rolle spielen.
Edit: Robbi hat's grad geschrieben ^^

Ailuros
2013-04-20, 21:06:43
Das sollte mit 2x A9 ziemlich der gleiche Herstellungpreis sein und auch soziemlich die gleiche Energieaufnahme als TDP. 1,2 GHz @A9r2 ist doch kein Problem. Was willst du da mit Heatsinks? :|

Wenn sich ein Hersteller brutal ausserhalb seinem TDP target betraegt wuerde er theoretisch einen heatsink brauchen. Wenn man einen quad core haben will eben nicht. Und Hersteller wollen eben leider quad cores einbauen weil diverse Bums-marketiers dem Publikum eingeredet haben dass es ein "Muss" heutzutage ist.

1/2* Cores für A9 kosten zumindest in der Herstellung nicht bedeutend mehr. Was die Lizenzgebühr angeht, weiß ich das nicht. Das sind, wenn überhaupt, aber auch nur Unterschiede in cents pro SoC.

Schon mal was von BOM gehoert? Wenn Du einen solchen SoC beispielsweise nur bei sagen wir mal $5 verkaufen willst, dann zaehlt jeglicher cent und nein es kein Hersteller Bock sich ueberhalb von jeglichem budget zu bewegen.

Wenn es Unterschiede bei Lizenzgebueren gibt dann gibt es auch Unterschiede bei royalties; einfacher eine billigere Loesung hat niedrigere Lizenzgebueren und niedrigere royalties. Zu guter letzt mit den Gewinnmargen die ARM momentan als quasi Monopol im CPU IP Markt hat, werden einem die Lizenzen bzw. royalties auch nicht gerade hinterhergeschmissen.

Außerhalb von Peaks reichen auch A7 CPUs aus. Aber die Reaktionszeit bei solchen Peaks (Start einer App, Aufbau einer Webseite etc) entscheidet ja, wie smooth sich das Gerät anfühlt. Und genau in diesem Punkt schaltet big.LITTLE (nicht ohne Grund) kurzzeitig die großen OoO CPUs ein. Und genau da wären A9 CPUs auch schneller.

Wenn ich ein billig-smartphone kaufe erwarte ich weder high end Leistung bzw. Reaktionszeit noch irgend eine extravagante Aufloesung. Selbst etwas wie 960*540 waere verhaeltnismaessig hoch fuer die Dinger. Gott im Himmel ein 100-150 Euro Handy reagiert beschissen im Vergleich zu einem >500 Euro Handy; wie bloed muss man genau sein um es NICHT zu erwarten?

Ailuros
2013-04-23, 07:11:25
Rys laesst endlich die Katze aus dem Sack was den Hydra core fuer S5XT MP configs betrifft:

http://forum.beyond3d.com/showthread.php?t=61267&page=21

Mir war seine Existenz durchaus schon lange bewusst, es ist eben nur dass die Geheimnistuerei bei IMG wirklich so langsam zum kotzen ist.

Hydra ist ein Zusatz-core den man optional sogar fuer single core 5XT configs benutzen kann, der unter anderem auch die Geometrie-Skalierung bis zu 95% fuer multi-core garantiert. Hydra taktet unabhaengig von der GPU, mal hoeher mal niedriger je nach Fall. Im Fall vom 5410 scheint nach Nebu's Angaben Hydra und der MP3 auf der gleichen Frequenz zu laufen.

----------------------------------------------------------------------------

Billig tablets in China fuer ueber 100Mio projeziert: http://www.digitimes.com/news/a20130418PD215.html

China-based component makers noted that total shipments of inexpensive tablets in China reached 60 million units in 2012 and the figure is likely to grow in 2013. Currently, prices of some 7-8 inch inexpensive tablets in China have fallen to US$70-80/unit, said component makers.

robbitop
2013-04-23, 09:04:02
Bedeutet das, dass Hydra die Geometrieberechnungen übernimmt und den Cores somit schon ein gerastertes Bild übergibt? Ist das Ding neu? Bzw: was genau ist Hydra? :)

edit

Hydra's a GPU block in multicore SGX configurations. It does a bunch of different things, but primarily it's there to help make the multiple cores appear as one to the rest of the system while still having them work independently.

Naja das ist noch ziemlich vage.

robbitop
2013-04-23, 09:19:51
Wenn sich ein Hersteller brutal ausserhalb seinem TDP target betraegt wuerde er theoretisch einen heatsink brauchen.
In obig beschrieben Fall würde er die TDP ja nicht überschreiten.


Wenn man einen quad core haben will eben nicht. Und Hersteller wollen eben leider quad cores einbauen weil diverse Bums-marketiers dem Publikum eingeredet haben dass es ein "Muss" heutzutage ist.
Hach ja - die blöde Masse. Ich sage nur, dass Exkremente schmecken müssen, Milliarden Fliegen können nicht irren... :rolleyes:
Ich kann's aber aus Herstellersicht verstehen - man muss sich leider nach den "Fliegen" richten.



Schon mal was von BOM gehoert? Wenn Du einen solchen SoC beispielsweise nur bei sagen wir mal $5 verkaufen willst, dann zaehlt jeglicher cent und nein es kein Hersteller Bock sich ueberhalb von jeglichem budget zu bewegen.
Dann macht man das Gerät halt um die paar Cent teurer. Das macht den Braten nicht fett. Ein paar cent merkt der Kunde sowieso nicht.
Aber gut - die Fliegen wollen ja unbedingt Quadcores... (bald schon 16 Cores...)

Wenn es Unterschiede bei Lizenzgebueren gibt dann gibt es auch Unterschiede bei royalties;
http://dict.leo.org/ende/index_de.html#/search=royalties&searchLoc=0&resultOrder=basic&multiwordShowSingle=on
Royalty = Lizenzgebühr ;)

Dass diese aufgestaffelt ist, ist klar. In einen Grundbetrag und pro gefertigtem Produkt.


Wenn ich ein billig-smartphone kaufe erwarte ich weder high end Leistung bzw. Reaktionszeit noch irgend eine extravagante Aufloesung. Selbst etwas wie 960*540 waere verhaeltnismaessig hoch fuer die Dinger. Gott im Himmel ein 100-150 Euro Handy reagiert beschissen im Vergleich zu einem >500 Euro Handy; wie bloed muss man genau sein um es NICHT zu erwarten?
2x A9 wäre keineswegs High End. Das ist ex-High End von 2011. Heute wäre es low cost. Ein bescheuerter Trend mit diesem Spezifikationsaufgegeile. Fühlbare RL Performance wäre wesentlich wichtiger...

Aber gut - im Endeffekt muss man liefern, was die Masse haben will. Und das ist eben der Quadcore!!1111 :freak:

Ailuros
2013-04-23, 13:45:38
Bedeutet das, dass Hydra die Geometrieberechnungen übernimmt und den Cores somit schon ein gerastertes Bild übergibt? Ist das Ding neu? Bzw: was genau ist Hydra? :)

edit


Naja das ist noch ziemlich vage.

http://forum.beyond3d.com/showpost.php?p=1729128&postcount=524

*seufz*

Ailuros
2013-04-23, 14:07:44
In obig beschrieben Fall würde er die TDP ja nicht überschreiten.

Doch pro core ist jeglicher A9 zwar effizienter, verbratet aber auch mehr Strom als ein A7.


Dann macht man das Gerät halt um die paar Cent teurer. Das macht den Braten nicht fett. Ein paar cent merkt der Kunde sowieso nicht.
Aber gut - die Fliegen wollen ja unbedingt Quadcores... (bald schon 16 Cores...)

Ein paar cents bei der Lizenzgebuehr, ein paar cents fuer royalty pro core, ein paar cents fuer ein bisschen mehr die area hier und da bei der Herstellung...man kann ja grosszuezig sein wenn man das Resultat in ein $70-80 tablet quetschen (siehe oben) und immer noch Gewinn machen will.


http://dict.leo.org/ende/index_de.html#/search=royalties&searchLoc=0&resultOrder=basic&multiwordShowSingle=on
Royalty = Lizenzgebühr ;)

Danke fuer die Lernstunde, aber ich hab mich genug durch die Jahre mit Lizenz-firmen beschaeftigt um zu wissen was genau was ist.

Dass diese aufgestaffelt ist, ist klar. In einen Grundbetrag und pro gefertigtem Produkt.

Mein voriger Satz gilt so wie er dasteht. Hat ein chip hoehere Lizenzgebueren ergo er ist generell teuer, werden auch royalties relativ hoch sein und genau umgekehrt. Was genau ist daran schwer zu verstehen? Je aelter die IP desto billiger sind die Lizenz-gebueren bzw. royalties dafuer unter normalen Umstaenden.

2x A9 wäre keineswegs High End. Das ist ex-High End von 2011. Heute wäre es low cost. Ein bescheuerter Trend mit diesem Spezifikationsaufgegeile. Fühlbare RL Performance wäre wesentlich wichtiger...

Aber gut - im Endeffekt muss man liefern, was die Masse haben will. Und das ist eben der Quadcore!!1111 :freak:

http://forum.beyond3d.com/showpost.php?p=1728530&postcount=505

FYI

robbitop
2013-04-23, 14:31:07
Doch pro core ist jeglicher A9 zwar effizienter, verbratet aber auch mehr Strom als ein A7.
Korrekt. Aber ein A9 verbrät sicherlich nicht wesentlich mehr Energie als zwei A7. (bzw 2x A9 statt 4x A7)
Natürlich unter Teillast hast du Recht, weil selten wirklich alle 4 Kerne hochpowern. Allerdings muss so ein SoC sicherlich mit einer gewissen TDP ausgelegt werden. Und die sollte von Volllast ausgehen. (wobei der erste Exynos 5 eher anders aussah *gg*)



Ein paar cents bei der Lizenzgebuehr, ein paar cents fuer royalty pro core, ein paar cents fuer ein bisschen mehr die area hier und da bei der Herstellung...man kann ja grosszuezig sein wenn man das Resultat in ein $70-80 tablet quetschen (siehe oben) und immer noch Gewinn machen will.

Klar addiert sich das. Am Ende ist es vieleicht 1 $. Und da eh alle Quadcores haben wollen, ist das vermutlich auch die richtige Entscheidung. Wären die Leute aber besser informiert, würden sie wohl lieben gern diesen einen $ mehr ausgeben, für 2xA9.



Danke fuer die Lernstunde, aber ich hab mich genug durch die Jahre mit Lizenz-firmen beschaeftigt um zu wissen was genau was ist.
Ich arbeite hauptberuflich im Lizenzgeschäft. Royalties sind einfach nur das englische Wort für Lizenzgebühren. Wie diese gestaffelt sind, ist die Nebenfrage. Ich vermute mit "Royalties" meinst du die Gebühren, die pro SoC anfallen und mit "Lizenzgebühr" meinst du offenbar den Grundbetrag, dass du die Technologie überhaupt bekommst. Im Endeffekt ist das aber nur die Staffelung im License Agreement.



Mein voriger Satz gilt so wie er dasteht. Hat ein chip hoehere Lizenzgebueren ergo er ist generell teuer, werden auch royalties relativ hoch sein und genau umgekehrt. Was genau ist daran schwer zu verstehen? Je aelter die IP desto billiger sind die Lizenz-gebueren bzw. royalties dafuer unter normalen Umstaenden.
Daran ist nichts schwer zu verstehen. Wir reden nur, wie so oft, an einander vorbei. ;)




*seufz*


(ich habe auch das Gefühl, dass dein "Diskussions-Ton" unnötig genervt ist in letzter Zeit)



http://forum.beyond3d.com/showpost.php?p=1728530&postcount=505

FYI
Ich habe den Thread gelesen.

Ailuros
2013-04-23, 20:19:59
Korrekt. Aber ein A9 verbrät sicherlich nicht wesentlich mehr Energie als zwei A7. (bzw 2x A9 statt 4x A7)
Natürlich unter Teillast hast du Recht, weil selten wirklich alle 4 Kerne hochpowern. Allerdings muss so ein SoC sicherlich mit einer gewissen TDP ausgelegt werden. Und die sollte von Volllast ausgehen. (wobei der erste Exynos 5 eher anders aussah *gg*)

Wesentlich ist relativ fuer SFF mobile wo jeder Fetzen an Stromvebrauch wertvoll ist. Echtzeit wird immer Teillast sein. Exynos5250 hat nur 2*A15 (ergo kein LITTLE) und Samsung hat mit dem Ding natuerlich auch dazugelernt welches man im 5410 auch ausserhalb von big.LITTLE gut sehen kann.

Klar addiert sich das. Am Ende ist es vieleicht 1 $. Und da eh alle Quadcores haben wollen, ist das vermutlich auch die richtige Entscheidung. Wären die Leute aber besser informiert, würden sie wohl lieben gern diesen einen $ mehr ausgeben, für 2xA9.

Wenn es nach der Logik ginge wuerde es im desktop nie z.B. ultra low end GPUs oder Smelleron CPUs geben weil sie eben zu lahmarschig fuer etwas anstaendiges ist. Nochmal was faellt Dir genau so schwer daran zu verstehen? Wenn ein tablet mit dem Ding mit bis $80 ankommen soll dann wird eben beim BOM und weiss der Geier was noch bis zum erbrechen gespart. Wer mehr haben will soll sich gefaelligst auch eine andere Geraet- bzw. Preis-Kategorie ansehen.

Daran ist nichts schwer zu verstehen. Wir reden nur, wie so oft, an einander vorbei. ;)

Ja weil es fast schon so klingt als ob Du Markt-Tendezen nicht verstehen koenntest oder gerade auf Planet Erde gelandet bist.

(ich habe auch das Gefühl, dass dein "Diskussions-Ton" unnötig genervt ist in letzter Zeit)

Lesen kannst Du wohl; wenn es nicht offensichtlich ist dass mir im gegebenen Fall die Geheimnistuerei von IMG zum Hals raushaengt muss ich es eben nochmal extra erlaeutern.

robbitop
2013-04-24, 09:31:40
Wesentlich ist relativ fuer SFF mobile wo jeder Fetzen an Stromvebrauch wertvoll ist. Echtzeit wird immer Teillast sein. Exynos5250 hat nur 2*A15 (ergo kein LITTLE) und Samsung hat mit dem Ding natuerlich auch dazugelernt welches man im 5410 auch ausserhalb von big.LITTLE gut sehen kann.
Dem stimme ich zu. Aber muss man nicht dennoch SoCs nach Volllast dimensionieren? Keine Intel CPU überschreitet in keinem Szenario ihre TDP. Selbst bei synthetischen Powerviren nicht. Throtteln muss sie auch nicht. Unter Teillast ist sie halt deutlich unter ihrem TDP. Gleiches erwarte ich auch bei einem SFF SoC.
In diesem Szenario hätten 2x A9 keinen Nachteil. Im wichtigen Teillastszenario hast du natürlich recht.



Wenn es nach der Logik ginge wuerde es im desktop nie z.B. ultra low end GPUs oder Smelleron CPUs geben weil sie eben zu lahmarschig fuer etwas anstaendiges ist.
Das ist kein passender Vergleich. Schaue dir mal dort die Preisdifferenzen an. Das ist nicht 1 $. Das sind hunderte. Klar, dass das nicht mehr kaschierbar ist. Aber 1 $? Kein Problem...

Nochmal was faellt Dir genau so schwer daran zu verstehen? Wenn ein tablet mit dem Ding mit bis $80 ankommen soll dann wird eben beim BOM und weiss der Geier was noch bis zum erbrechen gespart. Wer mehr haben will soll sich gefaelligst auch eine andere Geraet- bzw. Preis-Kategorie ansehen.
Ich habe nie gesagt, dass ich das nicht verstehe. Ich finde es lediglich affig, wenn es um einen läppischen Dollar geht. :rolleyes:


Ja weil es fast schon so klingt als ob Du Markt-Tendezen nicht verstehen koenntest oder gerade auf Planet Erde gelandet bist.
Ich verstehe sie - ich kann sie aber nicht gutheißen. Sobald die Lösung bei ähnlichem Budget schlechter ist als sie sein könnte, bin ich dagegen. ;) Das bringt der Ingenieursberuf so mit sich.



Lesen kannst Du wohl; wenn es nicht offensichtlich ist dass mir im gegebenen Fall die Geheimnistuerei von IMG zum Hals raushaengt muss ich es eben nochmal extra erlaeutern.
War IMG denn je anders? ;)

Ailuros
2013-04-24, 11:07:17
Dem stimme ich zu. Aber muss man nicht dennoch SoCs nach Volllast dimensionieren? Keine Intel CPU überschreitet in keinem Szenario ihre TDP. Selbst bei synthetischen Powerviren nicht. Throtteln muss sie auch nicht. Unter Teillast ist sie halt deutlich unter ihrem TDP. Gleiches erwarte ich auch bei einem SFF SoC.
In diesem Szenario hätten 2x A9 keinen Nachteil. Im wichtigen Teillastszenario hast du natürlich recht.

Und was passiert wenn ich irgendwo 4 threads bei 1GHz habe als Beispiel? Und da die Antwort mal wieder vorhersehbar ist wenn es zu quad cores kommt: mir geht es nicht wie oft man 4 threads brauchen wuerde sondern wie dringend man sie braucht wenn sie gebraucht werden.

Das ist kein passender Vergleich. Schaue dir mal dort die Preisdifferenzen an. Das ist nicht 1 $. Das sind hunderte. Klar, dass das nicht mehr kaschierbar ist. Aber 1 $? Kein Problem...

Kommt drauf an fuer was der eine Dollar genau steht. Und bei SFF SoCs wo es sich so oder so um winzige Summen handelt ist ein einziger Dollar schon eine sehenswerte Summe wenn es zu BOM kommt. Fuer $1 royalty bekommst Du Rogue GPU IP und nicht gerade die kleinste, waerend ein SGX540 core als Gegenbeispiel <20 cents liegen koennte.

Ich habe nie gesagt, dass ich das nicht verstehe. Ich finde es lediglich affig, wenn es um einen läppischen Dollar geht. :rolleyes:

Wenn der SoC Hersteller den SoC bei einer einstelligen $ Summe verkauft ist der "laeppische" $ wohl doch nicht so leicht zum uebersehen wie Du hier darstellen willst.

Ich verstehe sie - ich kann sie aber nicht gutheißen. Sobald die Lösung bei ähnlichem Budget schlechter ist als sie sein könnte, bin ich dagegen. ;) Das bringt der Ingenieursberuf so mit sich.

Dann sollten IHV hw und/oder IP um einiges billiger verkaufen und jeglicher Ingenieur der fuer die Entwicklung der hw verantwortlich ist sollte dann auch um einiges weniger als Lohn bekommen.

War IMG denn je anders? ;)

Es war NIE so schlimm wie in den letzten paar Jahren und es wird sogar zunehmend schlechter.

robbitop
2013-04-24, 11:14:19
Und was passiert wenn ich irgendwo 4 threads bei 1GHz habe als Beispiel? Und da die Antwort mal wieder vorhersehbar ist wenn es zu quad cores kommt: mir geht es nicht wie oft man 4 threads brauchen wuerde sondern wie dringend man sie braucht wenn sie gebraucht werden.
Bei voller Auslastung von 4 Threads würden die 4x A7 Kerne ähnlich viel verbrauchen, wie 2x A9. Bei gleichem Takt wären die 4x A7 Kerne dann auch etwas schneller.
Kommt aber, wie du schon gesagt hast, quasi nie vor.

Bedeutet, dass 2x A9 schneller wären in der Mehrzahl der Fälle, aber auch mehr verbrauchen würden.



Kommt drauf an fuer was der eine Dollar genau steht. Und bei SFF SoCs wo es sich so oder so um winzige Summen handelt ist ein einziger Dollar schon eine sehenswerte Summe wenn es zu BOM kommt. Fuer $1 royalty bekommst Du Rogue GPU IP und nicht gerade die kleinste, waerend ein SGX540 core als Gegenbeispiel <20 cents liegen koennte.



Wenn der SoC Hersteller den SoC bei einer einstelligen $ Summe verkauft ist der "laeppische" $ wohl doch nicht so leicht zum uebersehen wie Du hier darstellen willst.



Dann sollten IHV hw und/oder IP um einiges billiger verkaufen und jeglicher Ingenieur der fuer die Entwicklung der hw verantwortlich ist sollte dann auch um einiges weniger als Lohn bekommen.


Mir geht es nicht um den SoC Hersteller. Der soll ruhig seine eh schon viel zu kleinen Margen behalten. Mir geht es um den Gerätehersteller. Der soll den einen Dollar auf die BOM packen, den besseren SoC ordern und das Produkt ein paar $ teurer machen. (nochmal 2x A9 sind heute ebenfalls nur noch low cost)
Wäre die Käuferschaft gut informiert, würden sie liebend gern die paar Piepen mehr ausgeben. Wenn es überhaupt im $ Bereich ist...

Ich kann es aber verstehen. Quadcore klingt toll. A7 ist billig. Also mach einen A7 Quadcore. :freak:

Ailuros
2013-04-24, 11:36:59
Bei voller Auslastung von 4 Threads würden die 4x A7 Kerne ähnlich viel verbrauchen, wie 2x A9. Bei gleichem Takt wären die 4x A7 Kerne dann auch etwas schneller.
Kommt aber, wie du schon gesagt hast, quasi nie vor.

Bedeutet, dass 2x A9 schneller wären in der Mehrzahl der Fälle, aber auch mehr verbrauchen würden.

Dass musst Du mir mal vorrechnen wie ein dual core mit 4 threads genauso schnell sein wird mit einem quad core.

Mir geht es nicht um den SoC Hersteller. Der soll ruhig seine eh schon viel zu kleinen Margen behalten. Mir geht es um den Gerätehersteller. Der soll den einen Dollar auf die BOM packen, den besseren SoC ordern und das Produkt ein paar $ teurer machen. (nochmal 2x A9 sind heute ebenfalls nur noch low cost)
Wäre die Käuferschaft gut informiert, würden sie liebend gern die paar Piepen mehr ausgeben. Wenn es überhaupt im $ Bereich ist...

Ich kann es aber verstehen. Quadcore klingt toll. A7 ist billig. Also mach einen A7 Quadcore. :freak:

Der Bloedsinn wird wohl kein Ende nehmen; Gegenvorschlag:

low end = A5/A7 cores
mainstream = A9 cores, low clocked Krait
high end = Krait oder A15/A7

In keinem der 3 obrigen Faelle ist fuer heutige Verhaeltnisse ein dual-core wahrscheinlich. Eine der Aussnahmen war der A9 basierende e-quad im L8580 von ST Ericsson (welches eigentlich ein dual core war der in etwa im big.LITTLE Konzept arbeitete), aber ST-E hat wie bekannt alle Novathor SoCs storniert.

robbitop
2013-04-24, 12:01:10
Dass musst Du mir mal vorrechnen wie ein dual core mit 4 threads genauso schnell sein wird mit einem quad core.
Wo behaupte ich, dass sie in diesem (quasi nie vorkommenden Szenario), genauso schnell wären?

Bei voller Auslastung von 4 Threads ... Bei gleichem Takt wären die 4x A7 Kerne dann auch etwas schneller.




Der Bloedsinn wird wohl kein Ende nehmen;

Ich habe mehrfach gesagt, dass ich Hersteller und Markt nachvollziehen kann. Weil nunmal leider doch jeder halbe Cent umgedreht wird und die Masse unbedingt einen Quadcore haben will.
Ich persönlich empfinde das resultierende Produkt zum resultierenden Preis dennoch als suboptimal.

Ich finde es, ehrlich gesagt sehr schade, dass du meine Argumentation einfach als "Blödsinn" bezeichnest, nur weil sie nicht mit deiner Meinung konform geht.



Gegenvorschlag:

low end = A5/A7 cores
mainstream = A9 cores, low clocked Krait
high end = Krait oder A15/A7

In keinem der 3 obrigen Faelle ist fuer heutige Verhaeltnisse ein dual-core wahrscheinlich. Eine der Aussnahmen war der A9 basierende e-quad im L8580 von ST Ericsson (welches eigentlich ein dual core war der in etwa im big.LITTLE Konzept arbeitete), aber ST-E hat wie bekannt alle Novathor SoCs storniert.
Ich persönlich sehe die A7 Cores eher als Hilfskerne, die hervorragend im big.LITTLE Konzept aufgehen. Diese als Hauptkerne in einem SoC zu verbauen, macht nur Sinn, wenn man möglichst viele von ihnen haben will zu einem festen Budget (monetär und thermisch).
Dual Cores sind aus der Mode, das ist ein Hauptgrund für solche A7 Quadcores.

Ailuros
2013-04-24, 12:31:16
Wo behaupte ich, dass sie in diesem (quasi nie vorkommenden Szenario), genauso schnell wären?

Bei voller Auslastung von 4 Threads würden die 4x A7 Kerne ähnlich viel verbrauchen, wie 2x A9.

Wie soll ich das obrige verstehen wenn ich ueber ein case example von 4 threads@1GHz nachfrage? Der dual A9 wird loopen muessen wird eben NICHT aehnlich verbrauchen eben weil sie um einiges mehr Zeit dafuer brauchen werden.

Ich habe mehrfach gesagt, dass ich Hersteller und Markt nachvollziehen kann. Weil nunmal leider doch jeder halbe Cent umgedreht wird und die Masse unbedingt einen Quadcore haben will.
Ich persönlich empfinde das resultierende Produkt zum resultierenden Preis dennoch als suboptimal.

Ich finde es, ehrlich gesagt sehr schade, dass du meine Argumentation einfach als "Blödsinn" bezeichnest, nur weil sie nicht mit deiner Meinung konform geht.

Meine Meinung ist im gegebenen Fall scheissegal; es ist dann eben so dass Du nur weisst wo es langgehen sollte und Millarden schwere Semis wie Qualcomm bzw. Mediatek oder weiss der Geier wer noch sind einfach daemlich und wissen nicht wo es langgeht. Und ja unter dem Licht ist es Bloedsinn.


Ich persönlich sehe die A7 Cores eher als Hilfskerne, die hervorragend im big.LITTLE Konzept aufgehen. Diese als Hauptkerne in einem SoC zu verbauen, macht nur Sinn, wenn man möglichst viele von ihnen haben will zu einem festen Budget (monetär und thermisch).
Dual Cores sind aus der Mode, das ist ein Hauptgrund für solche A7 Quadcores.

Steht es irgendwo in ARM's Dokumentation dass A7 nur dafuer geeignet sind oder gibt es irgendwo wenigstens halbwegs eine "guideline" diese nur fuer big.LITTLE zu benutzen? Das was Du "Mode" nennst im Bezug zu quad core CPUs nenn ich als Laie Forschritt egal wie selten dieser heute noch einsetzbar ist.

Da ich nur ein Laie bin erklaer mir nochmal warum hoehere bzw. konstant steigende Frequenzen nicht die Loesung fuer SFF SoCs sein koennen.

robbitop
2013-04-24, 15:18:51
Wie soll ich das obrige verstehen wenn ich ueber ein case example von 4 threads@1GHz nachfrage? Der dual A9 wird loopen muessen wird eben NICHT aehnlich verbrauchen eben weil sie um einiges mehr Zeit dafuer brauchen werden.
So gesehen, könntest du Recht haben. Dazu müsste man aber Messungen vorliegen haben.



Meine Meinung ist im gegebenen Fall scheissegal; es ist dann eben so dass Du nur weisst wo es langgehen sollte und Millarden schwere Semis wie Qualcomm bzw. Mediatek oder weiss der Geier wer noch sind einfach daemlich und wissen nicht wo es langgeht. Und ja unter dem Licht ist es Bloedsinn.
Ich behaupte nicht, es besser zu wissen. Die Firmen tun, was der Markt verlangt. Und das ist das einzig richtige. Der Markt ist halt geprägt durch eine irre Jagt nach Spezifikationen. Und das ist nicht immer die beste Gesamtlösung.




Steht es irgendwo in ARM's Dokumentation dass A7 nur dafuer geeignet sind oder gibt es irgendwo wenigstens halbwegs eine "guideline" diese nur fuer big.LITTLE zu benutzen?.
Das steht nirgends direkt dort. Doch dafür hat ARM sie primär entworfen. Außerdem schreibe ich ganz klar, dass das meine persönliche Meinung ist. Ich stelle es nicht als allgemein geltenden Fakt dar.

Das was Du "Mode" nennst im Bezug zu quad core CPUs nenn ich als Laie Forschritt egal wie selten dieser heute noch einsetzbar ist.
Nichteinmal im Desktop werden 4 Kerne ständig ausgelastet. Hinzu kommt, dass die Kernapplikationen auf SFF Geräte oftmals völlig andere sind. Dort muss bspw eine App schnell geöffnet sein, eine App schnell installiert werden, eine Webseite schnell geladen werden etc.
Das braucht vor allem eines: eine hohe Singlethreadleistung.

Einfach immer Kerne einzubauen ist sicher nicht immer die richtige Lösung. Apple hat nicht grundlos nur 2x Swift eingebaut - auch in die High End SoCs.

Da ich nur ein Laie bin erklaer mir nochmal warum hoehere bzw. konstant steigende Frequenzen nicht die Loesung fuer SFF SoCs sein koennen.
Habe nie das Gegenteil behauptet. Immer höhere Frequenzen führen aber irgendwann zu immer höheren Verbräuchen. Irgendwann ist da einfach Schluss. Also macht man die Cores immer leistungsfähiger (ARM11 -> A8 -> A9 -> A15 -> A57...) und baut immer mehr von ihnen ein.

Allerdings gebe ich dir partiell Recht. Vieleicht ist die SFF Software in ein paar Jahren was Multithread angeht weiter. Dann hat das Gerät dabei geholfen (ohne selbst großartig profitiert zu haben - in ein paar Jahren sind 4xA7 einfach zu schlapp).

Ailuros
2013-04-25, 09:51:02
So gesehen, könntest du Recht haben. Dazu müsste man aber Messungen vorliegen haben.

MediaTek (Warnung: Chinesen bescheissen gerne) hatten anfangs eine >iPad3 Leistung angegeben. Realistisch wohl eher irgendwo zwischen iPad2 und 3 und hab bis jetzt nichts gesehen dass dagegen sprechen koennte. Wenn jemand dafuer bis zu $80 fuer ein 1024*768 tablet als Beispiel bezahlt gibt es auch nicht besonders viel auszusetzen.

Ich behaupte nicht, es besser zu wissen. Die Firmen tun, was der Markt verlangt. Und das ist das einzig richtige. Der Markt ist halt geprägt durch eine irre Jagt nach Spezifikationen. Und das ist nicht immer die beste Gesamtlösung.

Wenn Du von de facto quad cores in allen Kategorien ausgehst, dann spricht nichts gegen die Aufteilung von A5/7 low end, A9 mainstream und A15/Krait high end.

Das steht nirgends direkt dort. Doch dafür hat ARM sie primär entworfen. Außerdem schreibe ich ganz klar, dass das meine persönliche Meinung ist. Ich stelle es nicht als allgemein geltenden Fakt dar.

ARM hat sie eben nicht primaer fuer big.LITTLE entworfen sondern fuer beide Funktionen.

As a standalone processor, the Cortex-A7 will enable entry level smartphones at below $100 price point in the 2013-2014 timeframe that are equivalent to a $500 high-end smartphone in 2010. These entry-level smartphones will redefine connectivity and internet usage in the developing world.

http://www.arm.com/products/processors/cortex-a/cortex-a7.php

Nichteinmal im Desktop werden 4 Kerne ständig ausgelastet. Hinzu kommt, dass die Kernapplikationen auf SFF Geräte oftmals völlig andere sind. Dort muss bspw eine App schnell geöffnet sein, eine App schnell installiert werden, eine Webseite schnell geladen werden etc.
Das braucht vor allem eines: eine hohe Singlethreadleistung.

Wie hoch kann denn die single-thread Leistung ueberhaupt sein wenn ein heutiges high end smartphone bei einer Frequenz von 1.9GHz halt machen muss?

Einfach immer Kerne einzubauen ist sicher nicht immer die richtige Lösung. Apple hat nicht grundlos nur 2x Swift eingebaut - auch in die High End SoCs.

IHVs und Apple als erster setzen eben heutzutage hauptsaechlich auf konstant steigende GPU Leistung. Sonst wie viel Kerne werden denn dieses Jahr von Apple integriert werden? :rolleyes: eben....


Habe nie das Gegenteil behauptet. Immer höhere Frequenzen führen aber irgendwann zu immer höheren Verbräuchen. Irgendwann ist da einfach Schluss. Also macht man die Cores immer leistungsfähiger (ARM11 -> A8 -> A9 -> A15 -> A57...) und baut immer mehr von ihnen ein.

Allerdings gebe ich dir partiell Recht. Vieleicht ist die SFF Software in ein paar Jahren was Multithread angeht weiter. Dann hat das Gerät dabei geholfen (ohne selbst großartig profitiert zu haben - in ein paar Jahren sind 4xA7 einfach zu schlapp).

Nein wie ich schon seit langem behaupte wird das Ganze zunehmend in GPU Richtung gehen wo immer eine relativ hohe Anzahl an threads Sinn macht. Beim Ausklang von 28nm wird in SFF SoCs der GPU block mehr als 50% des insgesamten die estates einnehmen. Uebertreibung? I don't think so....

robbitop
2013-04-25, 10:09:15
MediaTek (Warnung: Chinesen bescheissen gerne) hatten anfangs eine >iPad3 Leistung angegeben. Realistisch wohl eher irgendwo zwischen iPad2 und 3 und hab bis jetzt nichts gesehen dass dagegen sprechen koennte.

Für den (äußerst seltenen) Fall, dass volle Auslastung aller 4x Threads vorhanden ist, jap. In 9x % der Fällen wird selbst das iPad 2 (2 Jahre alt!) das Ding überholen.



Wenn Du von de facto quad cores in allen Kategorien ausgehst, dann spricht nichts gegen die Aufteilung von A5/7 low end, A9 mainstream und A15/Krait high end.


ARM hat sie eben nicht primaer fuer big.LITTLE entworfen sondern fuer beide Funktionen.
Ok.


Wie hoch kann denn die single-thread Leistung ueberhaupt sein wenn ein heutiges high end smartphone bei einer Frequenz von 1.9GHz halt machen muss?
Deutlich höher als die der A7 Kerne.


IHVs und Apple als erster setzen eben heutzutage hauptsaechlich auf konstant steigende GPU Leistung. Sonst wie viel Kerne werden denn dieses Jahr von Apple integriert werden? :rolleyes: eben....

Ende 2013 bringt Apple eventuell (gesichtert ist nichts) die neusten SoCs mit 4 Kernen. Und das in teuren Geräten!
Bis dato hat man aber (trotz Quadcores der Konkurrenz seit März 2012!) auf Quadcores verzichtet, weil man wusste, dass es kaum was bringt. Lieber schnellere und weniger Cores verbauen und die gesparte Fläche in Grafikleistung setzen. Das nenne ich smart.
Das bescheuerte Hochziehen der Spezifikationen für wenig zugewonnenen Nutzwert ist doch irre. Wozu 4 Kerne, wenn ich sie nicht brauche? Das verballert Kernfläche und Wärme. Die nutze ich doch lieber für Akkulaufzeit oder Einheiten, die mir sofort mehr bringen (GPU bspw).
Oder Displays mit >>> 300 dpi. Was das an Energie verballert... Die Netzhaut kann das gar nicht mehr auflösen. Und irgendwann haben wir 4K Displays und dennoch ist kein Unterschied mehr zu erkennen, wenn man nicht mit der Nase auf dem Display klebt.



Nein wie ich schon seit langem behaupte wird das Ganze zunehmend in GPU Richtung gehen wo immer eine relativ hohe Anzahl an threads Sinn macht. Beim Ausklang von 28nm wird in SFF SoCs der GPU block mehr als 50% des insgesamten die estates einnehmen. Uebertreibung? I don't think so....
Das ergibt auch Sinn! Von der GPU habe ich sofort den erhöhten Nutzwert.

Ailuros
2013-04-25, 10:26:22
Für den (äußerst seltenen) Fall, dass volle Auslastung aller 4x Threads vorhanden ist, jap. In 9x % der Fällen wird selbst das iPad 2 (2 Jahre alt!) das Ding überholen.

Uhmm ja wenn man bedenkt dass der low end A7 SoC wohl nicht unter iOS laufen wird LOL :biggrin: 1.2GHz gegen 1.0GHz fuer die CPUs.

Deutlich höher als die der A7 Kerne.

Wenn man bedenkt dass 1.9 high end ist, ist 1.2GHz gut genug im Vergleich fuer low end.

Mediatek MT6589 = quad A7 @ 1.2GHz
Mediatek MT8125 = quad A9 @ 1.2GHz

...und ja es gibt darunter jeweils auch dual A7 und dual A9 aber eben nicht mit hoeheren Frequenzen :P

Bei den obrigen kommt halt eine 544 GPU mit und bei den dual cores ein SGX531.

Ende 2013 bringt Apple eventuell (gesichtert ist nichts) die neusten SoCs mit 4 Kernen. Und das in teuren Geräten!
Bis dato hat man aber (trotz Quadcores der Konkurrenz seit März 2012!) auf Quadcores verzichtet, weil man wusste, dass es kaum was bringt. Lieber schnellere und weniger Cores verbauen und die gesparte Fläche in Grafikleistung setzen. Das nenne ich smart.
Das bescheuerte Hochziehen der Spezifikationen für wenig zugewonnenen Nutzwert ist doch irre. Wozu 4 Kerne, wenn ich sie nicht brauche? Das verballert Kernfläche und Wärme. Die nutze ich doch lieber für Akkulaufzeit oder Einheiten, die mir sofort mehr bringen (GPU bspw).
Oder Displays mit >>> 300 dpi. Was das an Energie verballert... Die Netzhaut kann das gar nicht mehr auflösen. Und irgendwann haben wir 4K Displays und dennoch ist kein Unterschied mehr zu erkennen, wenn man nicht mit der Nase auf dem Display klebt.

Apple hat ihr eigenes iOS; mehr braucht man wirklich nicht dazu sagen. Anders hier hat Apple den Luxus ihre sw "Notwendigkeiten" der hw anzupassen und vice versa.

robbitop
2013-04-25, 15:52:03
Auch Android profitiert kaum (bis fast nie!) von Quadcore CPUs. Da macht das OS wenig Unterschied. Die Apps sind einfach noch nicht so weit. Vieles ist schwer bis kaum möglich unendlich zu parallelisieren. Sonst hätten wir heute alle Octacores in unseren Desktops... ;)

Ailuros
2013-04-26, 07:32:56
Auch Android profitiert kaum (bis fast nie!) von Quadcore CPUs. Da macht das OS wenig Unterschied. Die Apps sind einfach noch nicht so weit. Vieles ist schwer bis kaum möglich unendlich zu parallelisieren. Sonst hätten wir heute alle Octacores in unseren Desktops... ;)

Fast nie ist eine nette Beschreibung wenn man nach all dem Wirrwarr immer noch keinen Rueckzieher machen will. Es hat niemand nirgends behauptet dass quad threading eine bedeutende Anzahl in jeglichem code hat, aber nochmal backflash zu dem video von Samsung wo man den core-Einzatz in diversen Faellen genau sehen kann, wo oh Wunder hier und da eben doch mal quad threading auftrifft und eben NICHT nur in synthetischem Mist . Fakt ist dass Mediatek sowieso nur mittelmaessiges Zeug verkauft und sie gleichzeitig A9 als auch A7 Varianten jeweils im Angebot haben fuer diverse Preis-/Leistungs-Kategorien.

In der Zwischenzeit haben wir mal wieder ein paar Seiten verschwendet weil der low end Charakter/Nutzen eines A7 cores Dir irgendwie nicht sitzen will und ja in dem Fall interessiert die eigentliche Anzahl der cores weniger als das was jeglicher Hersteller insgesamt im Angebot hat und wie er dieses je nach Preis-/Leistung kategorisiert.

robbitop
2013-04-26, 08:56:24
Vieleicht laufen da mehrere Apps im Hintergrund und leaken Leistung oder es wird exzessiv Taskswitching betrieben. Nur weil ein Taskmanager Belastung zeigt, heißt es noch lange nicht, dass man davon profitiert.

Zum Rest: ich habe dir doch bereits mehr als einmal über den Sinn des Produktes im Markt zugestimmt. Was gewünscht wird, wird gebaut... :rolleyes:

Ailuros
2013-04-27, 18:10:43
Asus ist dabei ein 1080p tablet zu veroeffentlichen mit einem Intel Clovertrail+ (544MP2@533MHz). Im Vergleich zum Samsung GalaxyS4 (5410) smartphone:

http://gfxbench.com/compare.jsp?D1=Samsung+GT-I9500+Galaxy+S4&D2=Asus+ME302C&cols=2

Hoffentlich ist der Preis attraktiv genug, denn das Ding ist mit der Leistung gerade auf mainstream smartphone Nivaeu.

Ailuros
2013-05-07, 13:36:18
Neben der komischen Tatsache dass der Aktienwert von IMG brutal Anfang Mai gefallen ist, scheint alles andere normal auszusehen:

http://www.eetimes.com/design/eda-design/4413365/Synopsys-Imagination-make-gains-in-semi-IP-ranking

http://eetimes.com/ContentEETimes/Images/news/20130506pcGartnerIPrank792.jpg

http://www.imgtec.com/corporate/newsdetail.asp?NewsID=746

For the full year we expect unit shipment growth to continue to be very strong (annual shipments in excess of 500m units) driving significant year on year royalty revenue growth. The average royalty rate is expected to be maintained at a level similar to that achieved in the first half of the year. The overall H2 shipment unit volume reported to us so far is in line with management expectations and has continued to show significant growth, although we have not yet received all partner shipment reports for Q1 CY2013.

Ailuros
2013-05-10, 14:42:12
http://news.techeye.net/chips/chinese-chip-maker-sold-more-than-intel-and-qualcomm#ixzz2Snd3WJkO

Chinese chip vendor Allwinner Technologies might have sold more application processors for tablets in 2012 than Intel and Qualcomm put together.

Sravann Kundojjala, senior analyst with Strategy Analytics, pointed out that in China the top seller is dual-core ARM chips which sell for $4 or $5 and quad-cores at $8 or $9. This is less than half what Nvidia is selling its equivalent chips for and so probably the Chinese vendors, while significant in volume, do not yet have 10 percent of the market by value.

Nur mal so nebenbei weil manche NICHT schnallen konnte wie billig die Chinesen wirklich verkaufen.

EETimes claims that Allwinner, Rockchip and Amlogic are probably responsible for more than half the Chinese supply of tablet processors in 2012. Allwinner clearly has about 10 percent of the global supply by volume.

This would mean that it made more than Intel and Qualcomm who missed the tablet processor boat in 2012 and captured less than five percent volume share in the tablet applications processor market.

Na ein bisschen groesser wird Intel's tablet Marktanteil fuer 2013 schon sein mit der Welle von windows tablets.

----------------------------------------------------------------------------------

http://www.visionmobile.com/blog/2013/05/the-mediatek-phenomenon-the-new-smartphone-disruption/

Mediatek went from shipping 10 million smartphone reference designs in 2011 to 110 million in 2012, with 200 million projected for 2013. But a lot can still change here. Qualcomm looks set to give Mediatek a serious run for the money. More handset vendors, notably Huawei and Samsung, are looking to build their own silicon and may yet succeed. Nonetheless, Mediatek and the whole reference design model is still in early days of reshaping the mobile industry. And reshape it it will.

Ailuros
2013-05-20, 18:41:53
http://news.cnet.com/8301-13579_3-57584927-37/apple-graphics-chip-supplier-hints-at-future-ipad-q-a/

When can we expect Series6 Rogue silicon?

King-Smith: We've already got 10 licensees. Silicon is coming out in the second half. And you'll see some strong platforms coming out very shortly with Series5 with OpenGL and GPU compute too.

Ailuros
2013-06-12, 10:55:22
Toshiba lizenziert IP von IMG:

http://www.imgtec.com/corporate/newsdetail.asp?NewsID=749

Imagination Technologies (LSE: IMG.L), a leading multimedia, processor, communications and cloud technologies company, reports that it has signed a license agreement with Toshiba Corporation (TOKYO: 6502) for a range of technologies from Imagination’s Ensigma connectivity and PowerVR graphics and video families.

Toshiba will deploy the technologies in a range of connected SoC (system on chip) devices targeting several consumer electronics markets.

Ich hab auch schon bei B3D gefragt ob Toshiba schon immer SoCs hergestellt hat oder ob es sich um einen neuen Versuch handelt. Selbst wenn weiss der Geier fuer was genau.

***edit: besser spaet als nie; der Groschen hier heisst wohl smartTV and co. SoCs.

Ailuros
2013-06-20, 10:18:21
FY Finanz Quark fuer's letzte Jahr:

http://www.imgtec.com/corporate/presentations/190613/Imagination-Full-Year-Results-Presentation-June-2013.pdf

535Mio chips integriert von IMG, 165Mio chips von MIPS.
Royalty Margen sind dank chinesischen high volume deals gefallen.
MIPS mit Gewinn (die Dinger haben aber wohl ziemlich beschissene Margen).
Many new and extended agreements Allwinner, Greenplug, Intel, LG, MediaTek, Realtek, Renesas, Samsung, ST, ST-Ericsson, TI, Toumaz.
Series6XT kommt spaeter in diesem Jahr; womoeglich die Ankuendigung eines 8 cluster "G8630" den man dann auch eventuell auf multi-core MP2 oder mehr erweitern kann (theoretisch). Fuer =/>2015 bei 600MHz ~3/4 TFLOP.
Samsung Galaxy S4 erstes mainstream smartphone mit OpenCL.

mboeller
2013-06-20, 11:04:17
FY Finanz Quark fuer's letzte Jahr:

http://www.imgtec.com/corporate/presentations/190613/Imagination-Full-Year-Results-Presentation-June-2013.pdf

535Mio chips integriert von IMG, 165Mio chips von MIPS.
Royalty Margen sind dank chinesischen high volume deals gefallen.
MIPS mit Gewinn (die Dinger haben aber wohl ziemlich beschissene Margen).
Many new and extended agreements Allwinner, Greenplug, Intel, LG, MediaTek, Realtek, Renesas, Samsung, ST, ST-Ericsson, TI, Toumaz.
Series6XT kommt spaeter in diesem Jahr; womoeglich die Ankuendigung eines 8 cluster "G8630" den man dann auch eventuell auf multi-core MP2 oder mehr erweitern kann (theoretisch). Fuer =/>2015 bei 600MHz ~3/4 TFLOP.
Samsung Galaxy S4 erstes mainstream smartphone mit OpenCL.


MIPS Umsatz und Gewinn sind nur für < 3 Monate mit dabei. Trotzdem ziemlich wenig, aufs Jahr hochgerechnet nur ca. 33 mio Pfund.

Ailuros
2013-06-20, 11:12:56
MIPS Umsatz und Gewinn sind nur für < 3 Monate mit dabei. Trotzdem ziemlich wenig, aufs Jahr hochgerechnet nur ca. 33 mio Pfund.

8 Mio bei 165Mio chips deutet auf ultra miserable Margen. Weiss der Geier wieviel davon Lizenzgebueren und wieviel royalties; auf jeden Fall um einiges weniger als die 30 cents die IMG und/oder ARM im Durchschnitt royalty/core erreichen. Koennte sogar nur halb so viel sein.

ARM verdient uebrigens auch kein "Schweinegeld"; die groesste IP Firma ueberhaupt und fuer CPU IP fast ein Monopol = ein Umsatz von 500+Mio fuer 2013; anders halb so viel wie NV z.B. in einem Quartal verdient.

mboeller
2013-06-20, 14:01:04
wieso stand doch dabei


Technology revenue increased 28% to £125.7m (2012: £98.2m)

- Royalty revenue up 49% to £95.1m (2012: £63.8m) including £5.6m from MIPS*
- Licensing revenue of £29.1m (2012: £34.4m) including £2.6m from MIPS*

+

and 165m from MIPS in the 12 weeks since the business was acquired on 7 February 2013.



Also 8,2 Mio Pfund für 165 Mio CPU; also 5 pence pro CPU (royalities + licensing). Wirklich profitabel. :(


ARM verdient uebrigens auch kein "Schweinegeld"; die groesste IP Firma ueberhaupt und fuer CPU IP fast ein Monopol = ein Umsatz von 500+Mio fuer 2013; anders halb so viel wie NV z.B. in einem Quartal verdient.


Naja, deshalb will Nvidia ja in das Geschäft weil man da soviel verdienen kann. :P ;)

Ailuros
2013-06-20, 14:02:56
Gut dass Du den Gedankensporn sofort aufgeschnappt hast ROFL :biggrin:

Xmas
2013-06-20, 16:34:54
Umsatz ist nur Mittel zum Zweck.

Ailuros
2013-06-20, 19:41:35
...und der Zweck segnet das Mittel? :P

Nakai
2013-06-20, 19:59:11
Toshiba lizenziert IP von IMG:

http://www.imgtec.com/corporate/newsdetail.asp?NewsID=749



Ich hab auch schon bei B3D gefragt ob Toshiba schon immer SoCs hergestellt hat oder ob es sich um einen neuen Versuch handelt. Selbst wenn weiss der Geier fuer was genau.

***edit: besser spaet als nie; der Groschen hier heisst wohl smartTV and co. SoCs.

Um mal darauf zu antworten. Toshiba stellt schon seit längerer Zeit SOCs her. Die sind zwar nicht wirklich im ConsumerMarkt bekannt, im Automotive-Bereich desto mehr.

http://www.semicon.toshiba.co.jp/eng/product/assp/automotive/infotain/display_controller/#txPA972

Toshiba hat schon Erfahrung im SOC-Bereich, natürlich sind das wirklich kleine LowEnd-Dinger, wie im Automotive-Bereich üblich.

Ailuros
2013-06-20, 20:02:54
Um mal darauf zu antworten. Toshiba stellt schon seit längerer Zeit SOCs her. Die sind zwar nicht wirklich im ConsumerMarkt bekannt, im Automotive-Bereich desto mehr.

http://www.semicon.toshiba.co.jp/eng/product/assp/automotive/infotain/display_controller/#txPA972

Toshiba hat schon Erfahrung im SOC-Bereich, natürlich sind das wirklich kleine LowEnd-Dinger, wie im Automotive-Bereich üblich.

Je nachdem was sie genau lizenziert haben ist es entweder automotive infotainment oder smartTV; offensichtlich fuer automotive relativ alte GPU IP.

mboeller
2013-07-29, 10:52:29
doppel-Posting, aber hier passt es eigentlich besser hinein:

http://www.engadget.com/2013/07/29/mediatek-mt8135-biglittle-mp-powervr-series6-g6200/

Schade, keine GL2.7 Benchmarks.

Ailuros
2013-07-29, 14:47:10
Auf jeden Fall limitieren im Vergleich zu SGX erstmal nicht die ALUs ;)

***edit: uebrigens liegt in GLB2.5 ein GPU Leistungsunterschied zwischen MT8135 und MT6589 von 4.5x Mal mit relativ kleinem Unterschied in GPU Frequenz zwischen den beiden.

Ailuros
2013-08-01, 13:00:27
GLB2.5 ist mehr oder weniger auf 3dmark Nivaeu und leider haben wir noch keine GLB2.7 Resultate die natuerlich um einiges interessanter waeren.

Wie dem auch sei mal schnell ein paar Vergleiche nach der GFXbench database fuer offscreen 1080p GLB2.5 Resultate:

Adreno330 (450MHz - 86.40 GFLOPs ) = 68.3 fps
SGX554MP4 (280MHz - 71.68 GFLOPs) = 54.4 fps
ULP GeForce Tegra4 (605MHz -87.12 GFLOPs) = 51.3 fps
G6200 MT8135 (286MHz - 36.60 GFLOPs) = 46 fps (Resultat stets nach Mediatek's eigener Angabe)