PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PowerVR - GPU IP


Seiten : 1 2 3 4 [5] 6 7

robbitop
2013-08-01, 13:26:08
In einem hypotetischen Shrink des A6X @28 nm hätte man sicher auch nochmal an der Taktschraube drehen können. Die Taktfrequnzunterschiede sind ja enorm! Bei gleichem Takt würde der 554MP4 ja alle anderen böse verhauen!

Rogue ist gar nicht so schlecht, dafür dass es nur eine niedrig getaktete 2C Version ist. Im A7X kommt bestimmt die 4C Version mit ggf. mehr Takt. Da ist am Ende evtl. Faktor 3-4 ggü dem Ergebnis im MT8135 drin.

Ailuros
2013-08-01, 13:35:18
Es ging mir eher um perf/GFLOP; perf/mW kommt offensichtlich spaeter und nebenbei will ich zwar Mediatek's Behauptung guten Willens glauben aber die Koreaner bescheissen auch oefters gerne ;)

Ailuros
2013-08-02, 12:48:30
http://translate.google.gr/translate?sl=ja&tl=en&js=n&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F999%2FG999902%2F20130727006%2F

Uhmm ok der Glatzkopf ist unter OGL_ES3.0 ziemlich langweilig im Vergleich zu NV's Ira. Entweder man macht es richtig oder man laesst solchen Mist bleiben da wohl Vergleich nicht zu vermeiden sind :rolleyes:

Ailuros
2013-08-29, 10:32:31
http://www.imgtec.com/News/Release/index.asp?NewsID=797

MediaTek MT8135, HPM, HSA und anderer relevanter Weihrauch ;)

Ineda (indischer startup semi?) kombiniert MIPS mit PowerVR IP fuer WPU (wearable processing unit): http://www.imgtec.com/News/Release/index.asp?NewsID=795

***edit:

haette ich fast verpasst... http://www.imgtec.com/News/Release/index.asp?NewsID=794

Imagination R&D teams working with TSMC are developing highly-optimised IP libraries and fully characterised reference system designs for Imagination’s IP cores on TSMC’s advanced processes including 28HPM and 16nm FinFET technologies. This collaboration will enable mutual customers to achieve significant performance gains for next-generation applications. Leveraging extensive analysis of factors affecting performance, Imagination is taping out a highly optimised next-generation multi-core, multi-cluster PowerVR Series6 GPU design to characterise these performance improvements and plans to demonstrate a test chip later this year. The resulting reference flow and optimised libraries will enable SoC designers to significantly accelerate time-to-market and increase performance for similar implementations of PowerVR Series6 GPUs.

Ailuros
2013-08-30, 09:19:08
Ein weiterer thread fuer MIPS ist IMO ueberfluessig. MIPS auch bald im Angebot fuer servers:

http://www.pcworld.com/article/2047789/imagination-to-battle-arm-with-mips-server-chips.html

Ailuros
2013-08-31, 09:58:35
SIGGRAPH 2013: Low power ray tracing

https://sites.google.com/site/raytracingcourse/Low%20Power%20Raytracing.pdf?attredirects=1

deekey777
2013-09-10, 20:58:59
Apples A7 beherrscht OpenGL ES 3.0. Was kann das bloß bedeuten...

Sunrise
2013-09-10, 21:04:03
Apples A7 beherrscht OpenGL ES 3.0. Was kann das bloß bedeuten...
PowerVR Series 6 "Rogue"

Oder hast du da den Ironie-Smiley vergessen? :)

deekey777
2013-09-10, 21:06:41
PowerVR Series 6 "Rogue"

Oder hast du da den Ironie-Smiley vergessen? :)
... sollte doch reichen, oder? :biggrin:

Ailuros
2013-09-10, 22:34:56
PowerVR Series 6 "Rogue"

Oder hast du da den Ironie-Smiley vergessen? :)

Bei B3D beissen sie sich gerade die Fingernaegel aus ob es ein quad cluster G6400 bei ~270MHz. Ich geh mein eigenes Risiko ein und behaupte dual cluster G6200 bei >500MHz. In Infinity Blade III nach den Entwicklern bis zu 5x Mal effizienter als die iPhone5 GPU, aber die muessten eigentlich von IMG "bezahlt" werden fuer die Aussage (da es genau das ist was IMG fuer Rogue von Anfang an behauptet hat) :D

2x Mal schneller als 543MP3@325MHz duerfte schon gut angesetzt sein fuer einen Durschschnitt laut Apple wenn man natuerlich beide Augen fuer Fuellraten zudrueckt ;)

Nightspider
2013-09-10, 23:19:50
Und damit landet man dann wo gegenüber einem S800? +/-%?

Ailuros
2013-09-10, 23:48:15
Und damit landet man dann wo gegenüber einem S800? +/-%?

Ohne turbo Frequenzen und ohne herumthrottelei sollte es zwar zu Gunsten S800 warhscheinlich liegen aber mit keinem so hohen Anstand. Apple wuerde nie irgendwelchen throttle-Mist in ihren Geraeten erlauben noch wuerden sie je eine smartphone GPU stellenweise bis zu 4W ziehen lassen nur um benchmarks zu gewinnen.

Ist doch aber auch ziemlich scheissegal; Apple ist quasi ausgekapselt in ihrer eigenen Welt und rendert uebrigens immer noch selbst im iPhone5S bei 1136*640. Gegen die ueblichen 1920*1080 von S800 smartphones schon ein Unterschied wenn es zu perf/pixel kommt.

---------------------------------------------------------------------------------------------------------------

***edit: ich wunderte mich vorgestern wo sie die 4 SoC shipping mit Rogue sehen bei tomshardware.

LG H31
MT8135
A7
A7X

Ailuros
2013-09-11, 08:51:33
Scheint wohl doch ein 4 cluster G6400 im A7 zu stecken; wird wohl dann die ca. die halbe Frequenz zum A7X haben.

AnarchX
2013-09-11, 08:53:54
Wieviel GFLOPs/Tex/Z entspricht das?

Ailuros
2013-09-11, 09:07:34
Wieviel GFLOPs/Tex/Z entspricht das?

Duerfte bei ca. 70 GFLOPs liegen; 8 TMUs * ~270MHz

Ailuros
2013-09-11, 19:52:53
http://gfxbench.com/device.jsp?benchmark=gfx27&D=Apple+iPhone+5S&testgroup=overall

Scheint mir viel zu wenig :biggrin:

dildo4u
2013-09-11, 19:57:52
Der Offscreen Wert passt.

29.8fps IP5
http://gfxbench.com/device.jsp?D=Apple%20iPhone%205

Ailuros
2013-09-11, 20:01:56
Der Offscreen Wert passt.

29.8fps IP5
http://gfxbench.com/device.jsp?D=Apple%20iPhone%205

Nicht wirklich wenn ich es mit den MT8135 GLB2.5 offscreen Resultate vergleiche. Es handelt sich so oder so nur um ein einziges Resultat und dazu von einem Apple Angestellten.

Ailuros
2013-09-13, 13:53:03
MediaTek wird zum grossen Stammkunden bei IMG:

http://www.imgtec.com/News/Release/index.asp?NewsID=801

The multi-year agreement includes multiple cores from Imagination’s PowerVR Series6 ‘Rogue’ family and beyond.

smalM
2013-09-15, 14:23:08
Scheint wohl doch ein 4 cluster G6400 im A7 zu stecken; wird wohl dann die ca. die halbe Frequenz zum A7X haben.

Wenn Apple das weiterführt, was sie bei A5X und A6X gemacht haben, dann wird die A7X GPU mehr Cluster haben als der A7 und nicht einfach die doppelte Frequenz.

Coda
2013-09-15, 14:49:20
Kann Series 6 eigentlich mit virtuellem Speicher umgehen?

robbitop
2013-09-15, 18:02:55
Wenn Apple das weiterführt, was sie bei A5X und A6X gemacht haben, dann wird die A7X GPU mehr Cluster haben als der A7 und nicht einfach die doppelte Frequenz.
Es gibt aber keinen 8 Cluster Rogue. Verfuegbare Lizenzen sind 2 Cluster und 4 Cluster. Spaeter soll eine 6 C Version hinzukommen. Sie sind aber am Anfang eh noch im unteren Bereich des moeglichen Taktfrequenzspektrums und haben somit noch einiges an Reserve nach oben.

Ailuros
2013-09-15, 19:12:10
Wenn Apple das weiterführt, was sie bei A5X und A6X gemacht haben, dann wird die A7X GPU mehr Cluster haben als der A7 und nicht einfach die doppelte Frequenz.

Unter der Logik haetten sie auch einen dual cluster G6200 bei ~500MHz implementieren koennen; man sollte aber theoretisch mit einem G6400@250MHz mehr Strom sparen koennen weil man wohl in dem Fall jeweils zwei clusters via power gating total ausschalten kann. Ausserhalb von 3D reichen zwei clusters bei weitem aus.

Ich hab selber nachgegruebelt wieso Apple einen 6400 im iPhone haben wuerde; das einzige was mir eingeleuchtet ist ist das obrige. Und nein der 543MP3@325MHz (iPhone5/A6) ist im Vergleich zu einem 6400@250-270MHz auch nicht mehr sooo klein; drei volle cores gegen 4 cluster.

Kann Series 6 eigentlich mit virtuellem Speicher umgehen?

Keine Ahnung um ehrlich zu sein; marketing hat in blogs schon Erweiterungen auf bis zu 11.2 angedeutet, aber ich trau den Kerlen nicht mit all den Fehlern die sie stellenweise machen.

Es gibt aber keinen 8 Cluster Rogue. Verfuegbare Lizenzen sind 2 Cluster und 4 Cluster. Spaeter soll eine 6 C Version hinzukommen.

6 cluster G6630 ist schon seit einiger Zeit lizenzierbar: http://withimagination.imgtec.com/index.php/powervr/powervr-g6630-go-fast-or-go-home

Series6XT wird noch innerhalb des Jahres ankommen und obwohl Marketing eine Skalierung von 8 clusters in einem core angegeben hat (und dann multi-core) duerften es in Realitaet 12 sein.

Sie sind aber am Anfang eh noch im unteren Bereich des moeglichen Taktfrequenzspektrums und haben somit noch einiges an Reserve nach oben.

Rogue hat ganz andere Latenzen als SGX; 500MHz fressen die Dinger zum Fruehstueck ;)

Das jetzt nach Mediatek auch Apple nur einen Vorgeschmack von GLB2.5 und NICHT GLB2.7 gibt laesst mich uebles verdaechtigen fuer die 2.7 Leistung.

smalM
2013-09-15, 19:51:34
Und nein der 543MP3@325MHz (iPhone5/A6) ist im Vergleich zu einem 6400@250-270MHz auch nicht mehr sooo klein; drei volle cores gegen 4 cluster.

Jegliche Gegenwehr gleich im Keim erstickt :biggrin:

Ailuros
2013-09-15, 19:58:17
Jegliche Gegenwehr gleich im Keim erstickt :biggrin:

544 ist nur marginal groesser als 543; pro core unter Samsung 32nm etwas unter 6mm2. Fuer einen 554 braucht man schon knapp unter 9mm2. Mit der Anzahl der cores multiplizieren, den Hydra chip noch mitberechnen und die Rechnung ist auch nicht mehr sooo klein am Ende. Und ja ich weiss auch wie die naechste Frage gleich lauten wird aber ich weiss es noch nicht ;)

Zur Erinnerung unter Samsung 45nm im A5 wiegte der SGX543MP2 in diesem mit power islands und surrounding logic fast 30mm2. Apple legt ihre Transistoren-teig aber auch verdammt grosszuegig aus. Nach Geruechten sollten sie m-of-n encoding benutzen welches mit die area nur so herumschmeisst, aber auch grosse perf/mW Vorteile bringen soll.

Nightspider
2013-09-15, 20:12:08
m-of-n encoding

Was ist das?

Coda
2013-09-15, 20:37:57
Fehlerkorrekturcode. Wahrscheinlich können sie damit die Spannung weiter senken, weil es nichts ausmacht, wenn für eine Leitung die Übertragung nicht mehr funktioniert.

Ailuros
2013-09-16, 12:53:41
Fehlerkorrekturcode. Wahrscheinlich können sie damit die Spannung weiter senken, weil es nichts ausmacht, wenn für eine Leitung die Übertragung nicht mehr funktioniert.

Ein direkter Einfluss von den ex-Intrisity Herren ;)

Ailuros
2013-09-16, 20:10:37
MT8135
PowerVR Rogue G6200:

http://gfxbench.com/device.jsp?benchmark=gfx27&D=MediaTek+MT8135+%28PowerVR+Rogue+Han%29&testgroup=overall

Ohne Fuellrate kann ich die Frequenz nicht einschaetzen auf jeden Fall duerfte sie ziemlich niedrig sein (~220+MHz?). CPU taktet auch nur bis zu 1.2GHz. Auf jeden Fall wenn's stimmt liegt das iPhone5S ungefaehr auf Adreno330 Nivaeu fuer die GPU (nicht unbedingt den hoechsten Resultaten).

***edit:

SGX544MP3@480MHz vs. G6200@220MHz?

http://gfxbench.com/compare.jsp?D1=MediaTek+MT8135+%28PowerVR+Rogue+Han%29&D2=Samsung+SHV-E300+Galaxy+S4&cols=2

46 GFLOPs fuer's erste config, 28 fuer's zweite (wenn die Frequenz-Schaetzung stimmt).

Ailuros
2013-09-20, 12:46:37
Jetzt wo die GFXbench Resultate ausfuehrlicher sind fuer die Apple A7 GPU ein paar Einzelheiten auf "spekulativer" Basis:

http://gfxbench.com/device.jsp?benchmark=gfx27&D=Apple%20iPhone%205S

1. Die Leistung in GLB2.7 liegt tatsaechlich einen Schnitt unter Adreno330, aber wenn immer Apple sich mit den neuesten Treibern beschaeftigt geht die Leistung nochmal ein gutes Stueck hoch.

2. Hoechstwahrscheinlich steckt im A7 tatsaechlich ein quad cluster G6430 Rogue bei 433MHz (IMHO). Es ergibt zwar insgesamt fast 111 GFLOPs aber der G6200 (wie er sich auch im MT8135 zeigt) ist effizienter. Kein Wunder dass Apple nur 2x Mal GPU zwischen A7 und A6 angibt.

3. G6430 hat zwar 2x Mal so viele cluster als ein jeglicher G62x0, aber anhand der Resultate bezweifle ich ernsthaft dass alle Einheiiten im ersten auch wirklich doppelt so hoch sind. Es wuerde mich nicht wundern wenn trisetup gleich aufliegt als Beispiel und z/stencil bei gleicher Anzahl zwischen den beiden (wobei ich weniger als 32z fuer G62x0 als unmoeglich halte). Beim GLB2.5 benchmark limitiert hauptsaechlich Geometrie, waehrend beim GLB2.7 hauptsaechlich durch die Unmenge an alpha tests z/stencil limitieren.

4. Bleibt jetzt natuerlich die Frage was innerhalb der naechsten Wochen Apple fuer A7X als GPU auftischen wird. Entweder hauen sie ziemlich stark auf die Frequenz vom 6430 im A7, sagen wir mal 650MHz um zumindest 50% mehr Leistung zu erreichen oder wir sehen schon dieses Jahr einen 6 cluster G6630. Am wahrscheinlichsten klingt mir eher der erste Fall obwohl 650MHz schon ziemlich hoch ist.

5. Mein Verdacht dass einige Aspekte schon von dem Umschwung von multi-core auf multi-cluster leiden werden hat sich wohl bestaetigt. Nach den heutigen Geometrie-Resultaten schaetze ich die reale peak Leistung eines quad cluster G6430 bei 433MHz bei ~110M Tris/s ein gegen ~165M Tris/s von einem SGX554MP4@280MHz. Z/stencil ist schwieriger aber ich rate mal fuer die vorerwaehnten auf knapp 14 GPixels/s gegen knapp 18 GPixels/s.

robbitop
2013-09-20, 14:26:57
Kann man mit Rogue auch Multicore Umsetzungen lizensieren? Dann skaliert auch die Geometrie. Für den A7x schön ein G6430 2MP. Ansonsten rennt man mit Rogue schnell in's Front End Limit.

Ailuros
2013-09-20, 14:43:38
Kann man mit Rogue auch Multicore Umsetzungen lizensieren?s

Bei den momentanen Varianten nicht; in zukuenftigen dann schon.

Dann skaliert auch die Geometrie.

Geometrie skaliert eben nicht so einfach nur von sich selber. Fuer Series5XT muss fuer 95% Geometrie-Skalierung bei MPs noch ein Hydra core dazu der hoeher als der core taktet.

Rogue ist fuer hoehere Frequenzen ausgelegt und man kann einfach hoeher takten. Die geschaetzten 433MHz fuer die A7 GPU sind nicht gerade wenig fuer Apple's normale Verhaeltnisse, aber wiederrum auch keine extravagante Frequenz unter 28nm.

Für den A7x schön ein G6430 2MP. Ansonsten rennt man mit Rogue schnell in's Front End Limit.

Die ganze Sparsamkeit an mm2 hier und da hat auch ihre Kosten; eben deshalb ist um zich Male leichter geworden so leicht auf hunderte GFLOPs zu skalieren ohne dass der Stromverbrauch besonders beinflusst wird.

Geometrie-Raten sind uebrigens nicht schlechter als auf Samsung's 544MP3@480MHz. Apple wird durch zukuenftige Treiber schon etwas gut machen koennen nur dauert es bei denen immer eine unendliche Ewigkeit bis sie ihre Unmengen an Applikationen durchgekaemmt haben. Nichtdestominder die A7 GPU ist um >2x Mal schneller als die A6 GPU, ergo Ziel erreicht. Bleibt abzusehen wie das iPad5 im Vergleich zum 4 aussehen wird.

http://gfxbench.com/compare.jsp?D1=Apple+iPhone+5S&D2=Samsung+SHV-E300+Galaxy+S4&cols=2

Ailuros
2013-09-27, 09:19:32
http://www.fudzilla.com/home/item/32652-arm-qulacomm-boost-mobile-gpu-share

http://www.fudzilla.com/images/stories/2013/September/JPR-mobileGPU.png

Die Zahlen sprechen fuer sich selber; und der fudzilla Author hat womoeglich etwas uebersehen fuer 2014; Mediatek 6588/6592 sind Mali und nicht Rogue designs. Bis zu H2 14' wird es Rogue nur im MT8135 tablet applications processor geben aber von da ab dann wird es richtig losgehen und vielleicht haben wir auch eine ziemlich unerwartete Ueberraschung ;)

http://jonpeddie.com/publications/mobile-devices-and-the-gpus-inside/

Sunrise
2013-09-27, 15:00:33
Kann man mit Rogue auch Multicore Umsetzungen lizensieren? Dann skaliert auch die Geometrie. Für den A7x schön ein G6430 2MP. Ansonsten rennt man mit Rogue schnell in's Front End Limit.
Ja, nennt sich wohl Series 6 XT.

... und vielleicht haben wir auch eine ziemlich unerwartete Ueberraschung ;)
Hm?

lastshady
2013-09-27, 17:14:30
... und vielleicht haben wir auch eine ziemlich unerwartete Ueberraschung;)

wer a sagt muss auch b sagen,gell:biggrin:

AffenJack
2013-09-27, 18:28:51
[url]... vielleicht haben wir auch eine ziemlich unerwartete Ueberraschung ;)


Nvidia verkündet, dass sie ihre Gpu-Entwicklung aufgeben und nun Rogue in T6 einsetzen?;D

Ailuros
2013-09-27, 19:44:13
Nvidia verkündet, dass sie ihre Gpu-Entwicklung aufgeben und nun Rogue in T6 einsetzen?;D

Humor (und dazu gelungener) schadet nie, jedoch kann man wohl an etwas um einiges einfacheres und realistischeres denken oder?

AffenJack
2013-09-27, 20:47:35
Naja, wenn du von unerwarteter Überraschung sprichst würde mir nur Qualcomm einfallen, die auch noch Rogue lizensieren, aber das kann ich mir irgendwie noch nicht vorstellen. Nur wenn sie Probleme mit Adreno 400 und dem höheren featurlevel haben. Das Intel auf Rogue setzten wird ist nun nicht überraschend, höchstens noch dass Samsung Mali ganz fallen lässt und nun ganz auf IMG setzt, aber so unerwartet wäre das nun auch nicht. Ansonsten ist mein Latein zuende.

Ailuros
2013-09-27, 22:03:32
Adreno420 soll gut aussehen von dem was ich hoere (QCOM koennte aber trotz allem aufhoeren zu bescheissen um sich gegen NV's Scheiss zu behaupten). QCOM ist uebrigens ein Lizenznehmer bei IMG seit einiger Zeit aber fuer Ensigma communications IP.

Intel's zukuenftige smartphones haben Rogue GPUs.

Samsung bleibt bei Mali weil Samsung LSI so daemlich ist und keine Lizenzgebuehren zahlen will und weil es sich ARM bei einem bundled deal leisten kann es fallen zu lassen. Der Mali T628MP6@480MHz im Exynos 5420 sieht ziemlich gut aus; die area und Stromverbrauch ist etwas auf der hohen Seite aber Samsung hat sich wohl mit den Power-problemen bei diesen in der Zwischenzeit gewoehnt. Sie koennten wirklich die Logan GPU lizenzieren, auf jeden Fall wuerde es fuer ziemlich viel Furore im Markt sorgen.

:P

robbitop
2013-09-27, 22:17:15
Sind die "großen" Malis auch lizenzkostenfrei? ARM hat das ja mal gemacht, um die Marktdurchdringung zu verbessern - aber irgendwann muss man auch mal Geld damit verdienen, sonst kann man Mali gleich sein lassen.

Ailuros
2013-09-27, 22:20:02
Sind die "großen" Malis auch lizenzkostenfrei? ARM hat das ja mal gemacht, um die Marktdurchdringung zu verbessern - aber irgendwann muss man auch mal Geld damit verdienen, sonst kann man Mali gleich sein lassen.

Nur bei Samsung afaik; sonst bezahlt Samsung uebrigens normal royalties pro verkauftem chip.

Undertaker
2013-09-27, 22:26:30
Intel's zukuenftige smartphones haben Rogue GPUs.

Weshalb eigentlich? So übel sieht die eigene Lösung in der Tablet-Version gar nicht mal aus, etwas über Adreno 320 und vergleichbar zu Tegra 4 (bei deutlich weniger Verbrauch). Ein Jährchen bis zum Nachfolger (mit dem noch größeren Fertigungsvorteil) hätte man damit sicher überbrücken können. Selbst wenn die IMG-Lösung technisch überlegen ist, verwundert mich diese Entscheidung aus Sicht von Intel dann doch etwas – falls irgendwie möglich, setzt man doch eigentlich immer auf eigene Lösungen.

robbitop
2013-09-27, 22:32:35
Das eigene Design skaliert möglicherweise nicht genug nach unten. IdR Skalieren Designs innerhalb einer Größenordnung gut. Bei Intels Genx also von ~3 W ... 30 W. Darüber und darunter wird's dann ineffizient.

Ailuros
2013-09-29, 08:08:35
Weshalb eigentlich? So übel sieht die eigene Lösung in der Tablet-Version gar nicht mal aus, etwas über Adreno 320 und vergleichbar zu Tegra 4 (bei deutlich weniger Verbrauch). Ein Jährchen bis zum Nachfolger (mit dem noch größeren Fertigungsvorteil) hätte man damit sicher überbrücken können. Selbst wenn die IMG-Lösung technisch überlegen ist, verwundert mich diese Entscheidung aus Sicht von Intel dann doch etwas – falls irgendwie möglich, setzt man doch eigentlich immer auf eigene Lösungen.

Intel hat nie eine eigene Loesung entwickelt die so tief wie in den milliWatt Bereich effektiv skalieren kann. Moeglich ist es schon aber man muss dann schon den existieren design so anpassen dass man auch so wenig Strom verbraucht. Damit Intel dafuer noch zusaetzlich resourcen aufweisst muessten sie auch viel mehr von GPUs in SoCs halten unterhalb von PC/notebook SoCs.

Kann durchaus sein dass Intel selbst fuer tablets IMG nie rausgeschmissen haette wenn IMG zeitig windows Treiber ausgeliefert haette. Fuer Intel ist windows IMHO der eigentliche Verkaufspunkt; wenn ich fuer ein tablet oder hybrides Geraet windows haben will dann will ich offensichtlich nichts von iOS/Android wissen und umgekehrt wenn ich nicht mehr als iOS/Android fuer so ein Geraet brauche kann mir auch windows gestohlen bleiben.

Der wirklich interessante Vergleich wird wohl in absehbarer Zukunft zwischen Baytrail tablets und dem iPad5 in Echtzeit sein. Ich erwarte zwar nicht dass Apple die CPU in diesem besonders hoeher taktet als im A7, aber der Vergleich wird nach wie vor interessant sein. Die GPUs der beiden zu vergleichen halte ich fuer ueberfluessig; Du kannst beruhigt das Licht fuer GenX hier ausknipsen.

Ailuros
2013-10-15, 11:56:56
http://www.imgtec.com/News/Release/index.asp?NewsID=804

MIPS Warrior P-class CPU core:

Full 128-bit SIMD designed for high performance on data parallel operations such as DSP, imaging and media
Simple, flexible and complete hardware virtualization
Next-generation security to address modern media delivery requirements
Support for up to six cores per cluster with high-performance cache coherency
Advanced addressing:

- Enhanced Virtual Addressing (EVA) enables more flexible usage of virtual address space, allowing for easy and efficient use of memory for larger footprint Linux implementations

- Extended Physical Addressing (XPA) allows a 32-bit system to access physical memory beyond the 32-bit limit, up to 1 Terabyte (40-bits)

Ich hab zwar sehr begrenzte Ahnung wenn es zu CPUs kommt, aber es sieht auf ersten Blick nicht schlecht aus.

mboeller
2013-10-15, 12:49:57
http://www.imgtec.com/News/Release/index.asp?NewsID=804

MIPS Warrior P-class CPU core:

Ich hab zwar sehr begrenzte Ahnung wenn es zu CPUs kommt, aber es sieht auf ersten Blick nicht schlecht aus.

Du hast das hier vergessen:


MIPS P5600 by the numbers:

Achieves industry-leading high-end CPU IP performance exceeding 5 CoreMark/MHz with 3.5 DMIPS/MHz*
Provides 1.2x – 2x performance gains on a wide variety of system-oriented benchmarks, including SPECint2000, Linpack, and Javascript/Browser tests, and 2x – 3x higher data movement on widely-used routines such as MemCopy libraries*
Silicon footprint up to 30% smaller than competing IP cores**
Can implement to a very wide range of performance, power and area footprints spanning 1GHz to above 2GHz***

* Performance metrics based on preliminary P5600 core RTL as well as proAptiv core using gcc 4.9.0 compiler; comparisons based on publicly available information from ARM, CoreMark scores from EEMBC CoreMark website, and material available on the Internet

** Comparison based on publicly available information from Samsung’s ISSCC presentation on its Exynos 5 Octa

*** TSMC 28nm process


3,5DMips/Mhz ist doch so schnell wie ein A15, oder? 30% kleiner als die AFAIR 1,9mm² große A15 im 5410 wären nur noch ~1,5mm²

Ailuros
2013-10-15, 12:57:41
DMIPS sind ja sooooo aussagekraeftig heutzutage :rolleyes:

Sonst zur die area wuerde mich eher der Vergleich zu A5x cores interessieren als A15; noch besser eine anstaendige MIPS Implementierung in einem ULP SoC damit wir es auch gegen einen ARM SoC in Echtzeit vergleichen koennen und da waere es hauptsaechlich interessant zu sehen ob und wieviel das MIPS hw multithreading genau bringen kann.

***edit: hier auch mal Block Diagramme: http://withimagination.imgtec.com/index.php/mips-processors/mips-p5600-series5-warrior-cpu

smalM
2013-10-21, 02:45:05
Tatsächlich lastet der Dhrystone-Test moderne CPU-Cores derart wenig aus, daß ein Dualcore mit SMT fast agiert wie ein Quadcore; bspw. Intel Gulftown, 2 aktive Cores:
2 Instanzen = je 19,0 M Dhrystones/s
4 Instanzen = je 16,8 M Dhrystones/s

Ailuros
2013-10-21, 10:37:09
Tatsächlich lastet der Dhrystone-Test moderne CPU-Cores derart wenig aus, daß ein Dualcore mit SMT fast agiert wie ein Quadcore; bspw. Intel Gulftown, 2 aktive Cores:
2 Instanzen = je 19,0 M Dhrystones/s
4 Instanzen = je 16,8 M Dhrystones/s

Dass mal zur Seite Warrior CPUs scheinen eine einzigartige Kombination von CPU Kernen vorzustellen; es ist weder bei 6 cores im cluster big.LITTLE aehnlich noch etwas wie 4+1 wie es NV in Tegras hat. Irgendwo womoeglich etwas zwischendrin so in etwa (wenn ich es richtig verstanden habe) 4 cores die im Hochleistungsmodus laufen koennen und 2 fuer geringe Ansprueche aber sie koennen trotz allem anscheinend simultan laufen.

Interessant ist dass IMG behauptet dass sie auf cluster level bis zu 30% einsparen koennen (L2 cache inklusive) und auf core level bis zu 40% mit den P6500 cores im Vergleich zu den A15 cores im Exynos5410; der Haken liegt dann eben in 2 Tatsachen:

1. Alle 6 theoretischen MIPS P5600 cores sind gleich gross; A7 cores sind um einiges kleiner als die vorigen.

2. IMG womoeglich eine um einiges einfachere ISA als ARM benutzt welches natuerlich sowohl Vor- als auch Nachteile haben kann.

Der Vorteil liegt in (1) und der Nachteil ist dann eben dass es hoechstwahrscheinlich auf Kosten der Leistung gehen wird. Auf uarch level haben die MIPS cores z.B. eine Einzige Einheit fuer load/store, wobei ein A15 eine load und eine store unit haben.

Im letzten PR Link wurde einiges klarer (link in meinem vorigen Post) und ich hoffe auch dass das asynchrone Zeug oben auch wirklich stimmt.

relevantes Material: http://www.eejournal.com/archives/articles/20131023-mipswarrior#!

Ailuros
2013-10-24, 18:07:51
http://withimagination.imgtec.com/index.php/powervr/realtek-new-4k-capable-rtd2995-powervr-sgx

Realtek is one of our many lead licensees for PowerVR GPUs in smart TV platforms, using a multicore Series5XT to drive Ultra HD (4K) displays.

PowerVR Series5XT GPUs were designed to deliver the required fillrate for 1080p and 4K high-resolution displays; even more impressive, the new ‘Rogue’ architecture can comfortably scale up to 8K resolutions.

With design wins such as LG, MediaTek, MStar and now Realtek, PowerVR has become the most widely deployed graphics core in the smart TV space.

Ailuros
2013-11-19, 18:37:28
Raptor = image signal processing IP

http://www.eetimes.com/document.asp?doc_id=1320123&

http://www.imgtec.com/corporate/newsdetail.asp?NewsID=809

http://withimagination.imgtec.com/index.php/news/introducing-powervr-raptor-isp-architecture

Ensigma wifi/bluetooth/FM combo IP

http://www.imgtec.com/News/Release/index.asp?NewsID=810

Ailuros
2013-12-11, 08:08:10
Nichts wirklich Neues nur eine sehr interessante Applikation fuer diejenigen die ein ULP Geraet mit PowerVR GPU IP haben:

http://withimagination.imgtec.com/index.php/powervr/powervr-graphics-sdk-tools-explained-introducing-pvrmonitor

Ailuros
2013-12-16, 10:01:35
Der halfjahr finanzielle Mist von IMG ist schon seit einigen Tagen oeffentlich aber ich denke schon seither nach ob ich etwas sagen sollte oder nicht:

http://www.imgtec.com/corporate/presentations/Interim13/Imagination-Half-Year-Results-December-2013-presentation.pdf

Sieht ja auf ersten Blick alles "toll" aus, mit der einzelnen Kleinigkeit dass die IMG Aktie und der Marktwert der Firma so brutal gepurzelt sind in letzter Zeit dass es nichtmehr schoen ist:

http://www.londonstockexchange.com/exchange/prices-and-markets/stocks/summary/company-summary.html?fourWayKey=GB0009303123GBGBXSTMM

Was mal ueber 1200Mio Pfund war (market cap) ist heute bei einem ehlendigen drittel.

Ich hoffe dass das Ganze nur ein temporaeres Tief ist und IMG's obriges Management in der Zwischenzeit den Kopf aus ihrem Arsch rausholt, sonst wird aus IMG das gleiche irrelevante Firmchen dass es mal war. Hintergrund-Geschichten koennte man so manche erzaehlen, aber es wird wohl auch nicht so leicht jeder glauben.

Tatsache ist dass bei manchen ein rotes Licht einschalten muss; entweder dass oder die Hosen sind schneller runter als man zwinkern kann.

Hugo78
2013-12-16, 12:41:46
IMG ist doch in jedem zweiten Gerät, von Alcatel bis Apple, wo ist das Problem?
Zuviel Druck durch QCOM?

Ailuros
2013-12-16, 12:55:07
IMG ist doch in jedem zweiten Gerät, von Alcatel bis Apple, wo ist das Problem?
Zuviel Druck durch QCOM?

Sehr gut verkauft sich IMG's IP immer noch obwohl ihnen ARM und Vivante ihnen in der Zwischenzeit schon guten Marktanteil abgeknabbern haben.

Das heisst nicht dass die Direktoren keine Fehler machen; und die Geschichte ist natuerlich immer gleich. Engineers wissen schon wo es lang gehen sollte, management voegelt immer schoen das meiste ab.

Ich hab ein Auge zugedrueckt, zwei Augen, drei....und mir gehen so langsame die Augen aus :biggrin: Wenn man Markanteil langsam aber Schritt fuer Schritt verliert dann wird auch u.a. Scheiss gebaut. Waeren sie nicht so daemlich gewesen haetten sie z.B. dank beschissenen windows Treibern auch nicht Intel tablet SoC u.a. verloren.

Hugo78
2013-12-16, 13:03:09
Also kurzgesagt ist IMG technisch und softwareseitig, ARM und Vivante nur noch gleichwertig, nicht mehr voraus oder gibt es sogar für IMG schon Punkte die sie aufholen müssen?

Ailuros
2013-12-16, 15:38:24
Also kurzgesagt ist IMG technisch und softwareseitig, ARM und Vivante nur noch gleichwertig, nicht mehr voraus oder gibt es sogar für IMG schon Punkte die sie aufholen müssen?

Vivante's GPU IP ist im Bereich 3D Leistung zwar nichts besonderes, liefert aber verdammt viel GFLOPs/mm2. Wenn Du Dir einen Larabee fuer ULP SoC vorstellen willst, dann waere es ein Vivante. ARM hingegen hat nicht nur etwas aufgeholt sondern hat auch den Vorteil CPU und GPU IP als Paket zu verkaufen und da kann man u.a. auch eventuell einen besseren deal anbieten.

IMG's heutiger GPU IP Vorsprung basiert hauptsaechlich auf dem Apple deal. Sollte da irgendwann etwas schief gehen, sind sie ziemlich schnell auf Gleichstand mit ARM und Vivante.

Was sie jetzt brauchen um sich ueber Wasser langfristig zu halten ist die MIPS Geschichte in Gang zu bekommen mit zumindest einem grossen Android deal. Zumindest so werden sie direkter mit ARM konkurrieren koennen, wenn das letztere schon in IMG's Kerngeschaeft eingedrungen ist.

Ailuros
2013-12-28, 19:37:43
Nichts Neues lediglich eine Bestaetigung dass IMG GPU IP in Intel's smartphone SoCs geblieben ist:

http://www.fudzilla.com/home/item/33513-intel-salt-bay-android-phone-prototype-benched

Salt Bay is powered by a 2.1GHz Merrifield and it runs Android 4.3. It has a 4.3-inch 720p screen and there’s no shortage of GPU muscle. It features new PowerVR SGX 6 series graphics (Rogue) and it scores 56.7 to 58.4 frames per second in NenaMark 2.

Klingt eher nach G6200 IMHO und auch wieder eher ein mainstream Angebot.

Ailuros
2014-01-06, 16:19:17
http://www.imgtec.com/News/Release/index.asp?NewsID=821

Nichtsaussagender geht es in einem solchen PR wirklich nicht.

http://www.anandtech.com/show/7629/imagination-technologies-announces-powervr-series6xt-architecture-available-for-immediate-licensing

Wird mal wieder eine Ewigkeit dauern bis ich entziffern kann was fuer was genau steht.

Ein paar mehr Einzelheiten:

Low end DX9L3 Rogue Varianten:

http://withimagination.imgtec.com/index.php/powervr/powervr-series6xe-gpus-bring-opengl-es-3-0-graphics-everyone

Ein paar mehr Einzelheiten ueber Serie6XT:

http://withimagination.imgtec.com/index.php/powervr/new-powervr-series6xt-gpus-go-rogue-ces-2014

Immer noch nur DX10.0 :rolleyes:

deekey777
2014-01-08, 18:43:23
http://www.anandtech.com/show/7657/khronos-offers-a-quick-peek-at-the-next-version-of-opengl-es
Die Folie erklärt, warum nur 10.0. Entweder weil noch nicht nötig, oder OpenGL ES Next hat gerade wegen der eingeschränkten Hardware von IMG weder Tesselation noch Geometryshader

Ailuros
2014-01-08, 19:23:53
http://www.anandtech.com/show/7657/khronos-offers-a-quick-peek-at-the-next-version-of-opengl-es
Die Folie erklärt, warum 10.0. Entweder weil noch nicht nötig, oder OpenGL ES Next hat gerade wegen der eingeschränkten Hardware von IMG weder Tesselation noch Geometryshader

Es gibt geometry shader schon in DX10.0 und ja es wird in OGL_ES next bzw. keine Tessellation oder GS geben weil alle beteiligten IHVs bei der Khronos Gruppe in ihrer Mehrzahl dafuer abgestimmt haben. Ich hoffe Du bist nicht so naiv und denkst dass IMG irgendwelchen ausserorderntlichen Einfluss bei Khronos fuer ES Entscheidungen hat.

Der Praesident der Khronos Gruppe ist immer noch Neil Trevett (NVIDIA) wenn ich mich nicht irre ;)

deekey777
2014-01-08, 20:28:00
Dann ist es auch nicht nötig, auf dem DX11-Hardwarelevel zu sein. Es gibt keine neuen x86-CPUs mit PowerVR-Grafikeinheiten, Windows RT, wo ein DX11-HW-Level vielleicht irgendwann zwingend wäre, ist Geschichte. Wirklich ärgerlich wäre, wenn Windwos Phone so ein HW-Level verlangen würde.
So oder so: OpenCL kann es.

Ailuros
2014-01-08, 20:36:26
DX11 wird schon noch kommen (obwohl es wirklich ein ziemlich groesser hw Zusatz zu DX10 ist); sie haben aber andere Prioritaeten die noch innerhalb des Jahres angekuendigt werden.

Die grossen Rogues waeren um einiges "mehr" als DX10.1, aber sie rutschten mit Absicht auf DX10.0 weil sie improved rounding support in den ALUs weggelassen haben: http://withimagination.imgtec.com/index.php/powervr/powervr-gpu-the-mobile-architecture-for-compute

TMUs sind ohnehin schon in Rogues 16k*16k ergo das was hauptsaechlich fuer DX11 fehlt ist die zusaetzliche Tessellations-Einheit die aber verdammt viel Platz einnimmt und auch einen Haufen Strom verdonnert. Da wundert es mich nicht dass die Entscheidung in der Khronos Gruppe dafuer gefallen ist dass man die Tessellation weglaesst und ich bezweifle ehrlich dass es sogar in ES4.0 kommen wird.

Wenn Microsoft noch alle Tassen im Schrank hat wird sie windows phone in der vorhersehbaren Zukunft nicht DX11 auf den Hals als Pflicht wuergen.

Ailuros
2014-01-09, 12:53:05
Hier auch der IMG PR fuer OGL_ES Next:

http://withimagination.imgtec.com/index.php/powervr/powervr-rogue-gpus-set-deliver-next-gen-graphics-compute-new-opengl-es-next-api

Etwas deutlicher ausgedrueckt:

......to address this desire for faster and more feature-rich devices, the OpenGL ES Working Group devised OpenGL ES Next, a new API that combines the full OpenGL ES 3.0* standard with select extensions from OpenCL and OpenGL.

robbitop
2014-01-09, 13:29:30
Meinst du, dass A8 schon einen Serie 6XT haben könnte?

Ailuros
2014-01-09, 14:34:02
Meinst du, dass A8 schon einen Serie 6XT haben könnte?

Wunschdenken IMHO. Ausser natuerlich IMG macht Apple den Gefallen und kuendigt IP Monate spaeter an als es eigentlich lizenzierbar ist; ie sie sind mit XT schon ein ~Halbjahr fertig und Apple schafft es in mimimalsten 12 Monaten zu integrieren.

Sunrise
2014-01-09, 15:00:31
Wunschdenken IMHO. Ausser natuerlich IMG macht Apple den Gefallen und kuendigt IP Monate spaeter an als es eigentlich lizenzierbar ist; ie sie sind mit XT schon ein ~Halbjahr fertig und Apple schafft es in mimimalsten 12 Monaten zu integrieren.
Davon gehe ich auch aus. Das Hauptaugenmerk der neuen Features des iPhone 6 wird dieses Mal wohl woanders liegen, und mit zunehmender Gehäusegröße hat man etwas mehr Platz für den Akku, somit kann der A8 ein hochgezüchteter A7 werden. Der A7 war sowieso schon verdammt schnell. Wenn man das Ding noch etwas breiter macht, sollte das auch für Apple ausreichen und evtl. verbauen sie dieses Mal auch etwas mehr RAM, Platz wäre ja auch da.

Das würde jedenfalls wohl auch problemlos für die Konkurrenz reichen.

Der A9 sollte dann aber wieder brachial werden, in allen Bereichen, da erwarte ich ein neues Monster. Da kann man wohl an allen Ecken und Enden wieder Vollgas geben. Möglicherweise wagt man sich aufgrund des riesigen Area+Performance-Vorteils ja dann endlich an einen Quad-Core.

Noch ein Grund wäre, dass man ImgTec etwas mehr Zeit gibt. Denn wenn Apple die Schritte zu schnell macht, kommt ImgTec nichtmehr hinterher.

deekey777
2014-01-09, 15:15:38
Vielleicht kommt der A8 mit einer eigenen Grafiklösung aus Orlando (Florida). X-D

robbitop
2014-01-09, 15:18:48
Wunschdenken IMHO. Ausser natuerlich IMG macht Apple den Gefallen und kuendigt IP Monate spaeter an als es eigentlich lizenzierbar ist; ie sie sind mit XT schon ein ~Halbjahr fertig und Apple schafft es in mimimalsten 12 Monaten zu integrieren.
Apple ist immerhin ihr bester und größter Kunde. Warum nicht? :D (glaube aber auch nicht dran)
Andererseits hat Apple und mit Swift und Cyclone schon 2x hintereinander richtig überrascht!


Noch ein Grund wäre, dass man ImgTec etwas mehr Zeit gibt. Denn wenn Apple die Schritte zu schnell macht, kommt ImgTec nichtmehr hinterher.

Die Befürchtung ist mir auch schon desöfteren durch den Kopf gegangen. Wer weiß, ob Apple nicht irgendwann GPUs auch selbst entwickelt (für mobile).

deekey777
2014-01-09, 16:03:40
Wenn man bedenkt, dass dieses Jahr tatsächlich ein größeres iPad kommt (nennen wird es iPad Pro) und dieses auch eine höhere Auflösung haben wird, welche Optionen hätte Apple?

Terrarist
2014-01-09, 16:14:19
Ich rechne damit dass Apple den mobile Kram irgendwann auch auf Intel switcht.

robbitop
2014-01-09, 16:14:37
Ein größeres iPad hätte wiederum Spielraum für eine höhere TDP. Man könnte Rogue höher takten.

Wenn das iPad Pro erst zum Herbst kommt, könnte es einen A8 bekommen. Vielleicht gibt es beim A8 auch wieder eine A8x Version.

Alternativ wäre auch ein A7X mit einem 6C Rogue (und breiterem SI)möglich.

Ich rechne damit dass Apple den mobile Kram irgendwann auch auf Intel switcht.

Eher nicht. Dazu hat man nicht so große RnD Teams mühevoll aufgebaut. Man will Alleinstellungsmerkmale und die Margen für sich behalten. Das spräche völlig gegen diese Strategie.

Ailuros
2014-01-09, 16:53:54
Davon gehe ich auch aus. Das Hauptaugenmerk der neuen Features des iPhone 6 wird dieses Mal wohl woanders liegen, und mit zunehmender Gehäusegröße hat man etwas mehr Platz für den Akku, somit kann der A8 ein hochgezüchteter A7 werden. Der A7 war sowieso schon verdammt schnell. Wenn man das Ding noch etwas breiter macht, sollte das auch für Apple ausreichen und evtl. verbauen sie dieses Mal auch etwas mehr RAM, Platz wäre ja auch da.

Das würde jedenfalls wohl auch problemlos für die Konkurrenz reichen.

Der A9 sollte dann aber wieder brachial werden, in allen Bereichen, da erwarte ich ein neues Monster. Da kann man wohl an allen Ecken und Enden wieder Vollgas geben. Möglicherweise wagt man sich aufgrund des riesigen Area+Performance-Vorteils ja dann endlich an einen Quad-Core.

Noch ein Grund wäre, dass man ImgTec etwas mehr Zeit gibt. Denn wenn Apple die Schritte zu schnell macht, kommt ImgTec nichtmehr hinterher.

Mein Bauchgefuehl ist dass wir noch dieses Jahr getrennte RTU IP sehen werden.

http://www.imgtec.com/corporate/presentations/Interim13/Imagination-Half-Year-Results-December-2013-presentation.pdf

Seite 28. Schau Dir die Laenge pro Generationen an; Generationen werden in Zukunft um weniger Zeit aushalten, welches aber dann eben keine Generationen mehr sind sondern eher der refresh vom refresh. Serie5 und 5XT streckten sich ueber ungefaehr 4-5 Jahre wenn nicht mehr; zukuenftige "Generationen" ab S7 sind dann eine pro Jahr.

Cut throat ex-desktop roadmap cadence ;)

Vielleicht kommt der A8 mit einer eigenen Grafiklösung aus Orlando (Florida). X-D

Schon A7 wird von Apple als A7 GPU bezeichnet. Ausser Apple aendert ihre Meinung ueber Nacht wird es noch ziemlich viele Jahre GPU IP von IMG geben.

Ich rechne damit dass Apple den mobile Kram irgendwann auch auf Intel switcht.

Eher das brutale Gegenteil, hat aber mit dem Thema hier nichts zu tun.

Ein größeres iPad hätte wiederum Spielraum für eine höhere TDP. Man könnte Rogue höher takten.

Wenn das iPad Pro erst zum Herbst kommt, könnte es einen A8 bekommen. Vielleicht gibt es beim A8 auch wieder eine A8x Version.

Alternativ wäre auch ein A7X mit einem 6C Rogue (und breiterem SI)möglich.

Alles afaik (muss aber nicht stimmen):

* ~13"
* keine 4:3 Aufloesung
* A8@20SoC TSMC

Und ja ein G6630 mit ziemlich hoher Frequenz (=/>700MHz) duerfte es schon hinbekommen.

Ravenhearth
2014-01-09, 17:59:02
Wenn ich für das iPhone 6 raten müsste, dann würde ich mit sehr großer Sicherheit auf ein 4,5"-Display schätzen. Bei der exakt gleichen dpi wie seit dem 4 (~326 dpi) könnte Apple 1280x720 Pixel unterbringen. Oder sie erhöhen die dpi um 50% auf 489 und bieten 1080p@4,5".

Bei letzterem wäre die Skalierung auch nicht schwer, verglichen mit prä-Retina und allem ab dem 4 hätten sie Faktor 3 statt 1 oder 2.

Und für den SoC halte auch ich 20SoC bei TSMC für wahrscheinlich.

Terrarist
2014-01-09, 18:33:34
Eher nicht. Dazu hat man nicht so große RnD Teams mühevoll aufgebaut. Man will Alleinstellungsmerkmale und die Margen für sich behalten. Das spräche völlig gegen diese Strategie.

Kommt drauf an wie wichtig die Performance für produktive Tätigkeiten auf iPad & co. wird. Aktuell dient es ja eher als Ergänzung.

Es könnte durchaus sein dass es sich das eigene R&D in dem Bereich nicht mehr lohnt wenn intel den anderen davonzieht, zumal sie ja auch einiges aus der Intel X86 Plattform rausholen, was Stromsparfeatures betrifft, und wegen der engen Hardware/Software Bindung eh ein Alleinstellungsmerkmal haben.

Langfristig wird es wohl auf eine gemeinsame Codebasis von iOS/OSX hinauslaufen, da der Kunde es spätestens dann als standard Feature erwartet wenn die Konkurrenz Konvergenz erreicht hat.

Ailuros
2014-01-09, 18:58:32
Kommt drauf an wie wichtig die Performance für produktive Tätigkeiten auf iPad & co. wird. Aktuell dient es ja eher als Ergänzung.

Es könnte durchaus sein dass es sich das eigene R&D in dem Bereich nicht mehr lohnt wenn intel den anderen davonzieht, zumal sie ja auch einiges aus der Intel X86 Plattform rausholen, was Stromsparfeatures betrifft, und wegen der engen Hardware/Software Bindung eh ein Alleinstellungsmerkmal haben.

Langfristig wird es wohl auf eine gemeinsame Codebasis von iOS/OSX hinauslaufen, da der Kunde es spätestens dann als standard Feature erwartet wenn die Konkurrenz Konvergenz erreicht hat.

Es gibt eine relevante Debatte im Apple thread hier fuer das obrige: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=513454&page=62

Zum mittleren Paragraph: wenn Cyclone nicht so effizient ueberhaupt im Bereich perf/mW waere haette jemand vielleicht auch Grund es enger zu bedenken ueberhaupt fuer die so relativ kurze Entwicklungszeit die es hatte.

Es gibt natuerlich Gefluester im Hintergrund die Apple und Intel im gleichen Satz haben fuer die Zukunft aber es hat auch nichts mit dem obrigen zu tun.

Sonst sind wir tragisch OT fuer GPU IP; ich hatte auch so manche Zweifel vor einiger Zeit was das ex-Orlando team betrifft aber es wurde fuer anderes engagiert als das breite Publikum zu wissen will. Sonst hat momentan fuer Grafik Apple eine sehr spezifische Vision und sie wuerden wohl nicht bis zu einem Punkt die PowerVR roadmap beinflussen wenn sie einfach zu Intel wechseln wuerden. Wieso denn ueberhaupt? Liegt an Intel's GenX etwas besonderes? Apple ist nichtmal an NV's GK20A GPU IP interessiert eben weil sie ganz andere Prioritaeten fuer Grafik haben.

Und wenn ein Partner wie Apple zu IMG "jump" schreit ist die Antwort nur "wie hoch".

Ailuros
2014-01-13, 20:06:32
Texas Instruments Jacinto6 mit OMAP5:

https://twitter.com/KishontiI/status/421555839711731713/photo/1

smalM
2014-01-14, 00:48:35
Es gibt natuerlich Gefluester im Hintergrund die Apple und Intel im gleichen Satz haben fuer die Zukunft aber es hat auch nichts mit dem obrigen zu tun.

Das einzige, was ich mir beim Thema GPU mit Intel und Apple vorstellen kann: Apple übernimmt Intels Anteile an IMG :biggrin:

Ailuros
2014-01-14, 00:59:09
Das einzige, was ich mir beim Thema GPU mit Intel und Apple vorstellen kann: Apple übernimmt Intels Anteile an IMG :biggrin:

Wenn ich Apple waere wuerde ich eher bei Intel herstellen wollen. Wer scheisst denn auf die paar Aktien? :P

Ailuros
2014-01-14, 08:15:23
Vom relevanten B3D thread gestohlen:

Allwinner A80 mit "low cost" Rogue?

http://www.cnx-software.com/2014/01/10/a80-optimusboard-features-allwinner-octa-core-big-little-soc/

Microsoft soll nach Geruechten den A80 fuer ein billig winRT tablet benutzen?

http://www.gforgames.com/gadgets/microsoft-entry-level-windows-rt-tablet-39974/

winRT? :udown:

Ailuros
2014-01-29, 15:48:02
http://vr-zone.com/articles/trojan-horse-mips/70742.html

Zu viele hints in einem einzigen Artikel versteckt.

Ailuros
2014-02-11, 10:49:03
http://www.mediatek.com/_en/03_news/01-2_newsDetail.php?sn=1137

http://semiaccurate.com/2014/02/11/arm-announces-new-cortex-a17-32-bit-core/

Mediatek kuendigt am gleichen Tag an wie ARM? LOL :D

Wie dem auch sei ab H2 14' in Geraeten MT6595 mit 4*A17+4*A7 und einer PowerVR Rogue GPU fuer smartphones.

-/\-CruNcher-/\-
2014-02-11, 10:53:29
Rogue gepowered von low power x86 und ARM das wird interessant :)

Wie die "besten" Devices sich dort verhalten werden vor allem Preis/Leistung/Verbrauch, vor allem mit der aussicht das Windows 8.1 direkt auf den Smartphones laufen wird und das gegen solutions wie Ubuntu antretten tut auf ARM seite :)

Ailuros
2014-02-11, 10:59:42
Rogue gepowered von low power x86 und ARM das wird interessant :)

Was hat x86 jetzt mit dem obrigen zu tun?

Coda
2014-02-11, 11:00:00
Ich finde diese MIPS-Strategie nach wie vor fragwürdig. Ich mein auf Android haben sie wenigstens den Vorteil, dass vieles Prozessorneutral in Dalvik-Bytecode vorliegt, aber die ganzen Spiele mit native code werden nicht laufen.

Ailuros
2014-02-11, 11:08:47
Ich finde diese MIPS-Strategie nach wie vor fragwürdig. Ich mein auf Android haben sie wenigstens den Vorteil, dass vieles Prozessorneutral in Dalvik-Bytecode vorliegt, aber die ganzen Spiele mit native code werden nicht laufen.

Es gibt verdammt viele Markt-Sparten ausserhalb smartphones/tablets. Sonst damit ich nicht lange uebersetzen muss:

http://forum.beyond3d.com/showpost.php?p=1826422&postcount=38

http://forum.beyond3d.com/showpost.php?p=1826645&postcount=46

Just from a purely objective level it's not much of a stretch to think that all of the common sense reasons pretty much apply. MIPS customers might variously believe we're better at one or more of: PPA, support, integration, commercials...

The PPA reasons are increasingly true, and they're the most important. It's not that ARM have gaps in the segments they address, more that their products aren't unbeatable. At the very least the competition for ARM is good for the consumer.

PPA steht fuer Power, Performance, Area (fuer diejenigen die mitlesen und nicht wissen um was es sich handelt). Der letzte Satz ist der eigentlich wichtigste und mit Verlaub da sich schon jetzt ARM so beschissen verhaelt wie Intel in der Vergangenheit, wird es eine Eulogie sein wenn ihnen mal das hohe Ross etwas kuerzer gestalten wird. Noch besser je hoeher die Konkurrenz, desto bessere Produkte fuer uns alle.

Ein paar Posts weiter oben: erklaer mir mal weil Mediatek immer noch nicht einen A15 core in ein smartphone integriert hat. In Realitaet werden sie eben NIE so weit kommen.

-/\-CruNcher-/\-
2014-02-11, 11:09:16
Was hat x86 jetzt mit dem obrigen zu tun?

Das werden Intels contender oder nicht ?

wir werden X86 und ARM/MIPS devices powered by Rogue sehen ich find das äusserst spannend vor allem da das ARM/MIPS Ökosystem immernoch abgeschlagen ist im Vergleich zu Intel/AMD/Microsoft :)

Ailuros
2014-02-11, 11:56:37
Das werden Intels contender oder nicht ?

Dafuer braeuchte ich eine verdammt schiefe Perspektive um Intel mit Mediatek vergleichen zu koennen; erstens verkauft MTK mit so niedrigen Preisen dass jegliches Intel sehr schwer mit gleichen Preisen konkurrieren koennen und zweitens verkauft MTK schon ueber 200Mio SoCs/Jahr. Noch schlimmer was x86 in einem Imagination thread verloren?

wir werden X86 und ARM/MIPS devices powered by Rogue sehen ich find das äusserst spannend vor allem da das ARM/MIPS Ökosystem immernoch abgeschlagen ist im Vergleich zu Intel/AMD/Microsoft :)

Halt mal bloss nicht die Luft an dass Intel irgendwie eine Verkaufs-explosion sehen wird; leicht besser heisst bei geringem Markanteil gar nichts. Sonst gibt es Intel threads fuer das Zeug.

-/\-CruNcher-/\-
2014-02-11, 13:58:15
Ailuros davon bin ich überzeugt Intels Strategie ist clever und du hast nicht ganz recht immerhin nutzen sie auch "noch" Rogue in ihrer kommmenden Smartphone Platform die gegen MediaTek und co antreten wird,
sie haben ja auch schon den Angriff auf den Chinesischen Android Low Cost markt eingeläutet, also Angriff auf RockChip,Allwinner und Co wozu auch MediaTek teils gehört aber weil ich nicht wieder auf Ice liegen möchte nehme ich deinen Ratschlag dankend an :)

Ailuros
2014-02-11, 14:12:40
Ailuros davon bin ich überzeugt Intels Strategie ist clever und du hast nicht ganz recht immerhin nutzen sie auch "noch" Rogue in ihrer kommmenden Smartphone Platform die gegen Mediatek und co antreten wird,
sie haben ja auch schon den Angriff auf den Chinesischen Android Low Cost markt eingeläutet, also Angriff auf RockChip,Allwinner und Co wozu auch Mediatek gehört aber weil ich nicht wieder auf Ice liegen möchte nehme ich deinen Ratschlag dankend an :)

Weitere Erklaerungen via PM, aber nur so nebenbei Rockchip, Allwinner und co verkaufen tonnenweise tablet SoCs waehrend Mediatek hauptsaechlich smartphone SoCs verkauft. Ausser Intel liefert eine Riesen-Ueberraschung werden sie es wieder beim SoC Preis und feature-set versauen wie immer.

Ailuros
2014-02-13, 19:36:43
Broadcom hat die eigene GPU Entwicklung aufgegeben?

http://www.fonearena.com/blog/95603/broadcom-announces-new-dual-core-lte-chips-aimed-at-sub-300-lte-smartphones.html

Broadcom showed off the M320 chip at the CES 2014 last month. It has two ARM Cortex A9 CPUs and PowerVR 5XT GPU.

***edit: der SoC ist eine Entwicklung von Renesas; Renesas hat ja ihre Consumper sparte an Broadcom verkauft.

Ailuros
2014-02-24, 12:42:43
PowerVR Series6 ALUs in groesserem Detail:

http://www.anandtech.com/show/7793/imaginations-powervr-rogue-architecture-exposed

http://withimagination.imgtec.com/index.php/powervr/graphics-cores-trying-compare-apples-apples

http://withimagination.imgtec.com/index.php/powervr/powervr-gx6650-redefining-performance-mobile-192-cores

Ailuros
2014-02-24, 14:05:59
PowerVR V2500 imaging processor:

http://withimagination.imgtec.com/index.php/powervr-video/smartphone-cameras-get-major-revamp-new-powervr-v2500-imaging-processor-imagination

MIPS 5100 & 5150 M-class CPU IP:

http://withimagination.imgtec.com/index.php/mips-processors/new-mips-m5100-m5150-warrior-m-class-processors-offer-much-32-bit-mcu

Allwinner A80 mit G6230 GPU:

http://withimagination.imgtec.com/index.php/powervr/allwinner-ultraocta-a80-processor-packs-powervr-series6-gpu-64-cores

robbitop
2014-02-24, 16:54:59
Ab wann ist eigentlich mit den ersten SoCs mit Serie 6XT zu rechnen? Schon 2014? A8? :)

Ailuros
2014-02-24, 17:53:54
Ab wann ist eigentlich mit den ersten SoCs mit Serie 6XT zu rechnen? Schon 2014? A8? :)

Schoen waers aber verdammt schwer zu glauben. IMG ueberredet mich auch nicht dass ein 6650 im Vergleich zum 6630 nur ein paar oede extra FP16 ALUs dazugesteckt bekam.

Nakai
2014-02-25, 00:37:06
http://am.renesas.com/applications/automotive/cis/cis_highend/rcar_h2/index.jsp

Nur damit es auch hier ist. Soll ab 2015 im Automotive Bereich eingesetzt werden, ergo ziemlich bald gibts Devboards bzw. sind schon im Umlauf.

Aus anderem Thread:
Ist aber eher Material fuer den IMG thread; steht da irgendwo Frequenz? Ein 6400 hat auf jeden Fall 256 FP32 FLOPs/clock; jetzt muesste man die letzte Frequenz wissen und die vom GK20A im K1 automotive.

Beides ist definitiv erstmal ein Fragezeichen. Ich glaube nicht, dass beide mit vollen Taktraten kommen.

robbitop
2014-02-25, 14:54:34
Schoen waers aber verdammt schwer zu glauben. IMG ueberredet mich auch nicht dass ein 6650 im Vergleich zum 6630 nur ein paar oede extra FP16 ALUs dazugesteckt bekam.
Die Frage ist, wie sie für A8 sonst die Leistung verdoppeln können. Rogue 6C + 50 % Taktupgrade?

Sunrise
2014-02-25, 16:24:17
Die Frage ist, wie sie für A8 sonst die Leistung verdoppeln können. Rogue 6C + 50 % Taktupgrade?
Wie schon besprochen, gibt es da aktuell eigentlich nur die zwei Wege. Wobei bei Apple wundert mich garnichts mehr.

Wenn CLN20SOC aber ungefähr gleich gut ist wie CLN28HPM (hoher Takt, rel. wenig Leakage) und zusätzlich noch etwas mehr in die Breite gegangen werden kann, kommt das doch genau ihn.

Da das iPhone 6 wohl noch ein größeres Gehäuse spendiert bekommt, sollte die Akku-Laufzeit auch wieder passen.

Ailuros
2014-02-25, 16:47:12
Die Frage ist, wie sie für A8 sonst die Leistung verdoppeln können. Rogue 6C + 50 % Taktupgrade?

Siehst Du im 6650 etwas anderes im Vergleich zum 6630 als mehr FP16 ALUs im ersten? Ich will wetten dass sie in 6XT auch die z check unit Anzahl erhoeht haben und trisetups so umgemoebelt dass um einiges mehr Geometrie am anderen Ende herausschiesst.

Sonst ja ein 6630 bei zumindest 600MHz waere ein guter Kandidat fuer in etwa doppelte Leistung.

robbitop
2014-02-26, 09:55:11
In den Artikeln zu Serie 6XT habe ich btw. noch nichts über Multi-Core und eine Erhöhung der Geometrieleistung gelesen. Ist das auf der Strecke geblieben oder hat IMG dazu einfach den Mund gehalten?

Ailuros
2014-02-26, 10:42:59
In den Artikeln zu Serie 6XT habe ich btw. noch nichts über Multi-Core und eine Erhöhung der Geometrieleistung gelesen. Ist das auf der Strecke geblieben oder hat IMG dazu einfach den Mund gehalten?

Es gibt technisch gesehen keine wahre obere Grenze clusters in Anzahl sogar ueber 8 zu skalieren. Sie haben sich auf bis zu 6 cluster cores begrenzt weil es die hoechste logische Integrierung fuer die naechsten paar Jahre sein wird. Ja auf Papier koennte man etwas wie einen 32 cluster design glaenzen lassen aber wer zum Henker wuerde so etwas je haben wollen bis zu 16FF z.B. und fuer was genau?

Ueber die Erhoehung der Geometrie-Leistung verdaechtige ich dass sie einfach in 6XT ein paar hw-bugs entfernt haben und die Sache dort ist wo sie von Anfang an haette sein sollen. Diese daemliche Strategie problematische Flecken auf vorigen Architekturen NIE einzugestehen nervt ziemlich stark.

robbitop
2014-02-26, 10:50:42
Na ich meinte schon Cores und nicht Cluster. Also dass man mehrere Serie 6XT Cores (mit je X Clustern) skaliert, so wie es zu Serie 5XT der Fall war. Damit erhöht sich die Geometrieleistung natürlich automatisch. (ist andererseits aber auch mit Redundanz verbunden)

Ailuros
2014-02-26, 11:02:25
Na ich meinte schon Cores und nicht Cluster.

Dann haetten sie sich den multi-cluster Aufwand von Anfang an sparen koennen. Der Zweck fuer multi-cluster war die multi core Redundanz loszuwerden und Du weisst selber dass 5XT nur eine Notloesung gegen die Skalierung von Mali GPU IP damals war.

Also dass man mehrere Serie 6XT Cores (mit je X Clustern) skaliert, so wie es zu Serie 5XT der Fall war. Damit erhöht sich die Geometrieleistung natürlich automatisch. (ist andererseits aber auch mit Redundanz verbunden)

Nein tut sie nicht. Lies mal den Anand 6XT Artikel vorsichtig durch um zu sehen dass nicht alles auf den Dingern auf dem angegeben Takt taktet. Du bekommst wahre 95% Geometrie-Skalierung auf 5XT MPs nur mit einem zusaetzlichen core der auch hoeher taktet als die eigentlichen GPU cores. Man hat ergo erstmal die hw Redundanz durch die zu 100% Wiederholung von jeglichem core und auch noch den Hydra bridge chip noch dazu.

In Serie6 (ergo vor 6XT) hat einfach jemand bei der Entwicklung das Ganze so bloed wie moeglich abgevoegelt. Ich weiss schon was los war, aber so etwas erwaehnt man nicht so leicht in aller Oeffentlichkeit. Ich weiss es zwar nicht aber verdaechtige dass ein 6430 ca. den halben geometry throughput erreicht wie er eigentlich sollte. Etwas wird noch in Treibern eingeholt sobald Apple den Treiber endlich benutzt und der Rest kommt dann wohl erst in 6XT cores.

Ailuros
2014-02-26, 23:13:43
3dmark Cloud Gate endlich unter OGL_ES3.0 fuer Android und iOS:

http://www.imgtec.com/News/Release/index.asp?NewsID=846

OpenCL based VP9 decoder auf PowerVR Series6 Rogue:

http://www.imgtec.com/News/Release/index.asp?NewsID=844

Ailuros
2014-03-06, 16:12:33
http://withimagination.imgtec.com/index.php/news/ray-trace-steps-gdc-2014-imagination#sthash.ekv2jCIF.dpbs

Ray tracing at GDC 2014; ich hab den Verdacht dass sie von jetzt ab einfach durch die Rogue ALUs schleussen anstatt getrennte RTU IP zu verkaufen in der Zukunft koennte aber auch total falsch liegen.

Auf jeden Fall klingt mir der Schotte hier http://www.youtube.com/watch?v=QTuf3ed0Jo4&feature=youtu.be danach. Die eine Praesentation fuer GDC ist ja von ihm.

Ailuros
2014-03-07, 23:12:25
http://www.imgtec.com/corporate/newsdetail.asp?NewsID=849

http://www.fudzilla.com/home/item/34149-imagination-technologies-cuts-shipment-forecast

Ailuros
2014-03-17, 22:38:44
Soft Kitty OGL_ES3.0 demo:

http://www.youtube.com/watch?v=VtG0emfNAeU&list=PLnOXj03cuJjktGDM6vfmH63bisy_g0X5z&feature=share

http://blog.imgtec.com/powervr/soft-kitty-overview-latest-opengl-es-3-0-tech-demo-imagination

Ailuros
2014-03-18, 18:27:31
Ray tracing through Imagination Rogue:

http://blog.imgtec.com/powervr-developers/powervr-gr6500-ray-tracing

http://www.anandtech.com/show/7870/imagination-announces-powervr-wizard-gpu-family-rogue-learns-ray-tracing

Ailuros
2014-03-31, 21:54:14
http://www.imgtec.com/News/Release/index.asp?NewsID=858

Rogue OCL1.2 conformance blah blah blah...

smalM
2014-05-04, 13:29:43
Der Rogue OCL1.2 conformance blah blah blah ist jetzt hier gelandet (http://www.imgtec.com/news/detail.asp?ID=858)

Ailuros
2014-05-08, 18:27:50
http://www.linleygroup.com/newsletters/newsletter_detail.php?num=5156

Ailuros
2014-05-15, 21:56:14
http://blog.imgtec.com/powervr/powervr-rogue-gpus-now-shipping-64-bit-mobile-computing-platforms

Schoen und gut aber es wird Zeit fuer gute Android Angebote mit diesen.

Ailuros
2014-06-05, 18:15:51
http://www.mobilegeeks.com/intel-atom-z3580-moorefield-qualcomm-nvidia-apple/

Links Merrifield
G6400@533MHz
3dmark Ice Storm: 16407

Mitte Moorefield
G6430@533MHz (136.5 GFLOPs FP32)
3dmark Ice Storm: 20997

Rechts S801
Adreno330@578MHz (148 GFLOPs FP32)
3dmark Ice Storm: 18144

G6400 hat weder FP16 SPs in den ALUs noch framebuffer compression. Insgesamt im spezifischen benchmark macht es einen Unterschied von ~28% aus. ***edit: ich hab leider den graphics score zu spaet gesehen; der Unterschied ist nichtmal annaehernd so gross.

Ailuros
2014-06-06, 20:18:37
Fuer diejenige die sich wundern was zum Geier semis mit MIPS anstellen koennten:

http://www.marketwatch.com/story/mediatek-launches-socs-aimed-at-powering-smart-home-appliances-2014-06-03

Etwas mehr dazu: http://semiengineering.com/executive-insight-hossein-yassaie/

Uebrigens:

Now, even at 28nm, a full-blown MPEG decoder is 2 square millimeters.

2mm2@28nm fuer einen heutigen voll ausgestatteten video decoder fuer diejenigen die behaupteten dass so ein Ding "riesig" ist.

Zur Prozess-Technologien:

We believe 28nm will be around for a long, long time. The IoT will be at 40 and 65nm. But if you’re at the other end developing one of these applications processors that has to squeeze a huge amount of performance into a small footprint with as little power as possible, then the latest process is relevant to you. And the volume better be high. Still, Moore’s Law as we know it is gone. It’s no longer the price goes down as your area decreases 1.8 times. That’s gone. Area is still going down and power is going down, but the cost is going down. You pay more per square millimeter. But it’s okay because everything is integrated.



TI mit OMAP5 im Jacinto6 *schnarch*

http://newscenter.ti.com/2014-06-04-Texas-Instruments-drives-new-standard-of-infotainment-experiences-to-entry-to-mid-level-automobiles

N0Thing
2014-06-07, 11:09:01
Uebrigens:



2mm2@28nm fuer einen heutigen voll ausgestatteten video decoder fuer diejenigen die behaupteten dass so ein Ding "riesig" ist.


Sind 2mm² nur für einen MPEG Dekoder nicht relativ groß bei einem SoC?

Ailuros
2014-06-07, 14:31:54
Sind 2mm² nur für einen MPEG Dekoder nicht relativ groß bei einem SoC?

Schau Dir mal die Fähigkeiten des neusten high end PowerVR Decoder an.

AffenJack
2014-06-25, 19:27:48
Mal was aus dem Google IO Blog von Anandtech, was aber nur indirekt was mit PVR zutun hat:

09:46AM PDT - Now talking about Graphics in L
09:47AM PDT - Android Extension Pack defined with Google, Qualcomm, ARM and NVIDIA
09:47AM PDT - adds support for tessellation, geometry shaders, compute shaders and ASTC
09:47AM PDT - Unreal Engine 4 running on Android L with NVIDIA tablet hardware
09:47AM PDT - This sounds like Google's solution to the OpenGL/OpenGL ES gap

http://anandtech.com/show/8206/google-io-2014-keynote-live-blog

Schon merkwürdig, dass PVR nicht an der Entwicklung der Extensions beteiligt war und die Möglichkeit Tesselation damit auf Android zu nutzen könnte für PVR zum Problem werden.
Sieht irgendwie so aus, als wenn die 4 sich nicht damit abgeben wollten, dass PVR, Apple oder so bei Open GL ES einiges geblockt haben.

Ailuros
2014-06-25, 19:45:09
Es reichen nicht nur zwei Stimmen (IMG und Apple) um gegen N Faehigkeiten in OGL_ES abzustimmen. Sonst wird die DX11 Variante von Rogue wohl unter einer angeblichen "neuen" Generation vermarktet; wann sie das Zeug ankuendigen keine Ahnung.

Wieso jetzt Tessellation ein Problem fuer IMG werden sollte verstehe ich bei bestem Willen nicht. Ja sie unterstuetzen es noch nicht, aber es wird so oder so noch eine Ewigkeit dauern bis wir erstmal OGL_ES3.0 Spiele sehen werden von irgendwelcher Tessellation ganz zu schweigen.

Was ARM dabei "definiert" hat wuerde ich liebend gerne wissen denn ihr T7xx Zeug hat keine Tessellations-Einheit nur etwas nutzlose sw Unterstuetzung.

Sonst MIPS64 support auch in Android L was mich aber auch nicht ueberrascht.

AffenJack
2014-06-25, 20:00:00
Ist mir schon klar, dass es nicht nur PVR, Apple wohl waren, aber offensichtlich waren die anderen damit unzufrieden.

Das Wann ist die große Frage die für IMG zum Problem werden kann. Ich würde angesichts der Meldung T8xx mit Tesselation im Herbst erwarten. Wenn IMG nicht lange danach selber GPUs mit Tesselation bringt ist das kein Problem. Aber falls IMG dann nen Jahr länger braucht, könnte es dazu führen, dass z.B. Mediatek für ihre 16FF Generationen um 1 Strichlistenfeature mehr zu haben Mali statt PVR wählt.

Ailuros
2014-06-25, 20:07:24
Ist mir schon klar, dass es nicht nur PVR, Apple wohl waren, aber offensichtlich waren die anderen damit unzufrieden.

ARM wohl auf jeden Fall nicht.

Das Wann ist die große Frage die für IMG zum Problem werden kann. Ich würde angesichts der Meldung T8xx mit Tesselation im Herbst erwarten. Wenn IMG nicht lange danach selber GPUs mit Tesselation bringt ist das kein Problem.

Zwischen IP Ankuendigung und Verfuegbarkeit echter Geraete hat man im idealsten Fall heute 18 Monate; bei Apple um einiges weniger aber es schuften auch eine Unmenge an Leute an den Integrierungs-Rekorden. Dieses gilt genauso fuer ARM als auch fuer IMG oder jeglichen anderen.

Aber falls IMG dann nen Jahr länger braucht, könnte es dazu führen, dass Mediatek etc. für ihre 16FF Generationen um 1 Strichlistenfeature mehr zu haben für Mali statt PVR entscheiden.

Ueber Mediatek und die absehbare Zukunft wuerde ich mir mal ueberhaupt keine Sorgen machen, eher das brutale Gegenteil anhand der deals die im letzten Jahr mit IMG unterschrieben wurden.

robbitop
2014-06-26, 09:50:00
Tesselation gibt es auf dem PC nun schon sooo lange. Und selbst dort, wo um Größenordnungen mehr Leistung vorhanden ist als im SFF Bereich, wird das außerhalb von Synthies praktisch nicht benutzt. Checklistfeature: check. :D

deekey777
2014-06-26, 10:13:13
Tesselation gibt es auf dem PC nun schon sooo lange. Und selbst dort, wo um Größenordnungen mehr Leistung vorhanden ist als im SFF Bereich, wird das außerhalb von Synthies praktisch nicht benutzt. Checklistfeature: check. :D

AEP (als Gesamtpaket) gibt gerade Nvidia die Möglichkeit, dass Spieleentwickler für Tegra K1 Geräte (ggf. mit Unterstützung von Nvidia) exklusive Effekte in ihre Spiele einbauen, um so ein Ausnahmemerkmal für K1-Devices bieten zu können.

Es wird wohl so sein:
Größere Entwickler (und vielleicht auch kleinere Entwickler) werden auch ohne Apples finanzielle Unterstützung Metal nutzen (Epic zum Beispiel). Für Tegra-Geräte bekommt man Nvidias Unterstützung, um AEP zu nutzen, da werden wohl nur die im Boot sein, die bereits für Tegra-Geräte erweiterte Spiele im Angebot haben (Mad Fingers zum Beispiel).

Die wirklich großen Entwickler und Publisher wie Gameloft oder EA oder Ubisoft werden wohl weder Metal noch AEP noch sonstwas nutzen. Denn so können sie ohne Mehraufwand die meisten potenziellen Käufer erreichen, ohne dass sie Geld in irgendwas reinstecken, was ihnen keinen Nutzen bringt.

Um jetzt den Bogen zu Series6 hinzubekommen: Tessellation wäre in den nächsten 12 Monaten einfach Verschwendung von Transistoren, da die mögliche Nutzung den Aufwand nicht rechtfertigt.

Ailuros
2014-06-26, 10:14:14
Tesselation gibt es auf dem PC nun schon sooo lange. Und selbst dort, wo um Größenordnungen mehr Leistung vorhanden ist als im SFF Bereich, wird das außerhalb von Synthies praktisch nicht benutzt. Checklistfeature: check. :D

Ist zwar OT aber ich frage mich ob Microsoft und IHVs etwas fuer LOD angerichtet haben in DX12. Es wird wohl keinen schaden wenn Tessellation nutzvoller wird als momentan.

Ailuros
2014-06-26, 10:26:40
AEP (als Gesamtpaket) gibt gerade Nvidia die Möglichkeit, dass Spieleentwickler für Tegra K1 Geräte (ggf. mit Unterstützung von Nvidia) exklusive Effekte in ihre Spiele einbauen, um so ein Ausnahmemerkmal für K1-Devices bieten zu können.

Was wohl heisst dass ihnen ISVs entweder einen Gefallen schuldig sind oder es wird direkt oder indirekt finanziert fuer exclusive Effekte (die wir uebrigens auch schon fuer T3 gesehen haben).

Es wird wohl so sein:
Größere Entwickler (und vielleicht auch kleinere Entwickler) werden auch ohne Apples finanzielle Unterstützung Metal nutzen (Epic zum Beispiel). Für Tegra-Geräte bekommt man Nvidias Unterstützung, um AEP zu nutzen, da werden wohl nur die im Boot sein, die bereits für Tegra-Geräte erweiterte Spiele im Angebot haben (Mad Fingers zum Beispiel).

Die wirklich großen Entwickler und Publisher wie Gameloft oder EA oder Ubisoft werden wohl weder Metal noch AEP noch sonstwas nutzen. Denn so können sie ohne Mehraufwand die meisten potenziellen Käufer erreichen, ohne dass sie Geld in irgendwas reinstecken, was ihnen keinen Nutzen bringt.

Bis zum Zeitpunkt wo jegliche Loesung (ob diese jetzt K1, Bananarama oder Borgo Sphinxter heisst) keinen gesunden Marktanteil hat so etwas zu unterstuetzen kann man natuerlich vieles versuchen aber zu eigentlichen Resultaten kommt es nicht. Ausser jemand will mir die paar Android smartTVs und zwei handvoll Mio Nexus Geraete als sehenswertes Volumen eintragen.

Um jetzt den Bogen zu Series6 hinzubekommen: Tessellation wäre in den nächsten 12 Monaten einfach Verschwendung von Transistoren, da die mögliche Nutzung den Aufwand nicht rechtfertigt.

Ist es schon beim Adreno4xx leider mit primaeren smartphone Verkaufsziel. Was wir hier nicht erwaehnt haben ist dass jeglicher tiler (egal ob IMR oder DR) noch groesseren Aufwand fuer adaptive tessellation bedeutet als bei einem reinen IMR wie GK20A. Noch dazu kommt dass tilers generell unendlich herumpuffern wenn es zur Geometrie kommt.

robbitop
2014-06-26, 11:44:03
Um jetzt den Bogen zu Series6 hinzubekommen: Tessellation wäre in den nächsten 12 Monaten einfach Verschwendung von Transistoren, da die mögliche Nutzung den Aufwand nicht rechtfertigt.
Tesselation wird man auch so kaum verwenden. Es kostet einfach zu viel Leistung. Auf dem PC ist die Leistung massiv höher und die Verbreitung auch und es wird praktisch nicht benutzt. Ich würde es zum spätest möglichen Zeitpunkt verbauen, da es praktisch keine Relevanz hat. Es sei denn, die Designwins hängen davon ab.

Ist zwar OT aber ich frage mich ob Microsoft und IHVs etwas fuer LOD angerichtet haben in DX12. Es wird wohl keinen schaden wenn Tessellation nutzvoller wird als momentan.
Muss man dafür separat was einrichten in einer API? Wenn ich mich nicht irre, müßte das auch mit DX11 möglich sein. Aber es kostet halt Leistung. Tesselation ist teuer und bedeutet beim Content sicherlich auch Aufwand, damit es am Ende nicht komisch aussieht.

Ailuros
2014-06-26, 11:53:56
IHVs werden ueber Tessellation keinen Bogen machen koennen, ergo gibt es auch keinen Grund DX11 nicht zu unterstuetzen spaetestens ab 16FF.

Was mich wirklich persoenlich stoeren wuerde ist wenn resources auf ULP mobile fuer Tessellation verschwendet wuerden auf Kosten anderer Sachen nur um sinn- und nutzlos Geometrie im Ueberfluss zu generieren wie es oefters in demos und Spielen fuer den PC der Fall war.


Muss man dafür separat was einrichten in einer API? Wenn ich mich nicht irre, müßte das auch mit DX11 möglich sein. Aber es kostet halt Leistung. Tesselation ist teuer und bedeutet beim Content sicherlich auch Aufwand, damit es am Ende nicht komisch aussieht.

Ja aber womoeglich ohne grossen Aufwand:

http://forum.beyond3d.com/showpost.php?p=1834992&postcount=23

One of the biggest issues with Dx11 style tessellation is that LOD is not continuously variable across a patch, i.e any LOD difference between the edges of a patch is resolved at its edges. This means that in order to get better LOD management surfaces need to be pre-broken down into smaller patches, which means that it's entirely probable that in real use cases Dx11 style tessellation actually increases the amount of input geometry instead of reducing it.


Zur moeglichen Loesung:

http://forum.beyond3d.com/showpost.php?p=1835124&postcount=26

In theory it's just a change to the fixed function tessellato the rest of the pipeline could stay the same, although no one, including NV, has done this of their own backs yet.

The other thing that that I see as red flag against tessellation is that mobile space still doesn't really have compute capacity to spare running tesellation shaders i.e. tessellation will likely be to the detriment of higher quality pixel lighting.

PrefoX
2014-06-26, 12:09:41
Ich versteh gar nicht wozu man Tessellation (subdivision surface) nutzen sollte... es kostet immer viel zu viel Leistung für das, was es bringt.

Die Entwickler setzen doch lieber die Polys per Hand dahin, wo sie auch gebraucht werden und keine sau nutzt für 3D Modelle für Spiele am PC subdivision surface (ausser für normal maps etc.) weil es zuviel polygone verschwendet. Es ist einfach ein dummes feature.

Der einzige Vorteil wäre wirklich beim LOD, aber die Nachteile überwiegen einfach so dermaßen.

€dit: Aber es wäre ein gutes feature wenn tessellation Open subdiv nutzen könnte, da werden nur polys addiert, die auch etwas bringen. aber ich denke mal das die hardware einheiten fixed sind oder?
https://www.youtube.com/watch?v=xFZazwvYc5o

€dit: doch der typ von pixar sagt das es ein dx11 feature ist, also muss nur open subdiv genutzt werden, trotzdem wär es nicht optimal, handoptimierungen würden viel mehr bringen.

robbitop
2014-06-26, 14:14:53
LOD kann man IMO auch gut hinbekommen, in dem man die Grenze zur ersten Abstufung schön weit nach hinten legt und schön dezent Tiefenunschärfe verwendet. Somit sieht man die LoD Stufen nicht mehr und es ploppt nichts auf. Kostet natürlich richtig Leistung und hat mit Tesselation auch nichts zu tun. :D

Ailuros
2014-06-26, 15:02:21
LOD kann man IMO auch gut hinbekommen, in dem man die Grenze zur ersten Abstufung schön weit nach hinten legt und schön dezent Tiefenunschärfe verwendet. Somit sieht man die LoD Stufen nicht mehr und es ploppt nichts auf. Kostet natürlich richtig Leistung und hat mit Tesselation auch nichts zu tun. :D

Der springende Punkt hier ist dass zumindest nach John@IMG ist es durchaus moeglich mit einer relativ kleinen Aenderung in der ff tessellations-Einheit das Thema LOD auch zu loesen; deshalb frag ich wohl auch ob sich in DX12 etwas diesbezueglich getan hat.

Tessellation mit anstaendigem LOD sollte eben nicht so viel Leistung kosten.

Ailuros
2014-06-29, 19:53:07
http://forum.beyond3d.com/showthread.php?t=65375

Meinen Kommentar dort brauch ich wohl nicht wiederholen....eine Tessellations-Einheit macht keine neue "Generation" aus *schnarch* :rolleyes:

Full Year Results 2013-14 Praesentation: http://www.imgtec.com/investors/presentations/24062014/Imagination_Full_Year_Results_2014.pdf

Seite 30 & 31.

Ailuros
2014-07-16, 18:26:59
http://www.imgtec.com/news/detail.asp?ID=918

Wearables, IoT ultra mini GPU bei nur 0.55mm2@28nm. Auf 1GHz getaktet = 1 GFLOP ergo 4 FLOPs/clock und hoechstwahrscheinlich 1 Vec2 , 1 TMU.

http://blog.imgtec.com/powervr/powervr-gx5300-the-worlds-smallest-gpu-for-next-generation-wearables-and-iot

mboeller
2014-08-27, 14:12:28
von IMG gibt es ab sofort ein MIPS Developer-Board geschenkt:

http://www.engadget.com/2014/08/27/imagination-tech-mips-dev-board/

http://blog.imgtec.com/powervr-developers/new-mips-creator-ci20-development-board-for-linux-and-android-debuts


Engadget bezeichnet es als "Rasberry Pi on steroids"

specs:

MIPS Creator CI20 is a barebones board that's capable of running Linux distros like Debian 7, as well as Android 4.4, and measures 90.2mm by 95.3mm.

The hardware is packing a 1.2GHz MIPS32 CPU, 1 GB RAM and a PowerVR SGX540 GPU
dedicated video controllers that'll support 1080p at 60fps ,
There's also 8GB of on-board storage and a full-size SD card reader,
the usual Ethernet port,
Bluetooth 4.0 and
802.11 b/g/n WiFi as well as
two full USB ports and a HDMI-out port.


aus dem Engadget-Artikel zusammengestückelt

Und wie gesagt das ganze gibt es geschenkt. :)

edit:
http://www.ingenic.cn/en/en/proinfo.php?id=15&pid=782&fid=782

mboeller
2014-09-03, 09:55:22
IMG I6400 64bit MIPS CPU:

http://www.imgtec.com/news/detail.asp?ID=923

http://blog.imgtec.com/mips-processors/meet-mips-i6400-warrior-cpu-for-64-bit-computing-revolution

http://www.anandtech.com/show/8457/mips-strikes-back-64bit-warrior-i6400-architecture-arrives

Ailuros
2014-09-25, 09:40:48
IMG I6400 64bit MIPS CPU:

http://www.imgtec.com/news/detail.asp?ID=923

http://blog.imgtec.com/mips-processors/meet-mips-i6400-warrior-cpu-for-64-bit-computing-revolution

http://www.anandtech.com/show/8457/mips-strikes-back-64bit-warrior-i6400-architecture-arrives

Ich beschaeftige mich selten mit CPUs. Rein zufaellig hab ich heute das hier durchgelesen:

http://techent.tv/mips-i6400-just-another-64-bit-architecture-android/

Hardware wise the I6400 can offer manufacturers to set it up with the standard run of the mill multiple core construction. But this processor is more advanced, sophisticated, and flexible than that. What manufacturers can do is to build it in cluster formats instead of putting together cores as its construction. In multiple cluster configuration the I6400 can fit up to 64 clusters in one chip. If that sounds plenty enough already, each cluster can fit up to 6 cores. Say hello to 384 cores in your new processor. It is possible, but we do not think that they will go with that many cores due to cost.

With the kind of potential this CPU possess it is hard not to think about power consumption, especially with the cluster configuration fitting in so many cores into one processor. Actually there is nothing to worry about when it comes to that with the PowerGearing. It is a power management tool built into the I6400 itself to manage activities of each core. Manufacturers can in fact program the clock and voltage of each core as they see fit allowing clusters or cores that are not needed remain asleep.

CPUs und GPUs haben nach wie vor riesige Unterschiede, aber im gegebenen Fall erinnern die obrigen Grundlagen viel zu stark die PowerVR Rogue design-Philosophie.

Ich schnalle zwar nur Bahnhof von dem Zeug, aber wenn das PR Geblubber + Dokumentation interessiert wie man beim MIPS dynamic power um 50% reduziert hier:

http://blog.imgtec.com/mips-processors/how-to-reduce-dynamic-power-for-a-mips-cpu

http://www.synopsys.com/Solutions/EndSolutions/advanced-lowpower/pages/WhitePapers.aspx

mboeller
2014-09-25, 13:15:42
Ich beschaeftige mich selten mit CPUs. Rein zufaellig hab ich heute das hier durchgelesen:

http://techent.tv/mips-i6400-just-another-64-bit-architecture-android/



ist das hier nicht wirklich das überraschenste an dem Artikel:


They also mentioned that the earliest we will see a I6400 powered device will be at the end of this year. So it looks like there is a new player in the block and by the looks of it, it is going to be a very interesting year for Android next year on.


Ich hatte mit ersten SoC frühestens Mitte 2015 gerechnet. Und jetzt kommen die ersten Geräte, also nicht nur SoC bereits dieses Jahr auf den Markt. Für mich sehr überraschend

Ailuros
2014-09-25, 13:21:45
Nachdem Apple so schnell 6XT IP integrierte ueberrascht es mich wenig; gut Apple bekommt womoeglich auch einen Vorsprung, die Integrierungs-zeiten sind trotzdem imposant.

Interessant ist wohl hoechstens welcher IHV es ist und fuer welchen Markt.

Sunrise
2014-09-26, 21:16:20
Nachdem Apple so schnell 6XT IP integrierte ueberrascht es mich wenig; gut Apple bekommt womoeglich auch einen Vorsprung, die Integrierungs-zeiten sind trotzdem imposant.

Interessant ist wohl hoechstens welcher IHV es ist und fuer welchen Markt.
Wobei die 6XT sicher so nahe mit der 6er verwandt ist, dass Apple da ein relativ kurzer Vorlauf reicht. Die sind ja nicht nur irgendein Partner, da wird ImgTec schon auch daran gelegen sein mit Apple zusammen den Markt schnellstmöglich mit der IP zu bedienen.

Ich bin eher mal gespannt, wann Series 7 vorgestellt wird, gibt es dazu schon Infos/Schätzungen unter der Hand?

Da Apple als nächstes auf 14nm XM oder 16nm FF+ springen wird, würde mich mal rein rechnerisch interessieren, mit 100mm^2 als oberste Grenze, wieviel Spielraum die GPU da hat, da Apple scheinbar nicht gewillt ist, vom Dual-Core-Konzept abzurücken.

Ailuros
2014-09-27, 10:13:27
Wobei die 6XT sicher so nahe mit der 6er verwandt ist, dass Apple da ein relativ kurzer Vorlauf reicht. Die sind ja nicht nur irgendein Partner, da wird ImgTec schon auch daran gelegen sein mit Apple zusammen den Markt schnellstmöglich mit der IP zu bedienen.

Auf jeden Fall hat der Author im Artikel oben fuer den neuen MIPS core einen Fehler gemacht; es ist lediglich IP des I6400 ab 12/2014 erhaeltlich.

Ich bin eher mal gespannt, wann Series 7 vorgestellt wird, gibt es dazu schon Infos/Schätzungen unter der Hand?

Ich glaube noch innerhalb des Jahres, ausser sie haben ihre Meinung geaendert. Series7 IMHO = Rogue + Tessellations-Einheit + jeglichen Schnickschnack aus DX12 den sie als nutzvoll empfinden. Wie ueblich was zu viel kostet mit nur minimalen Unterschieden wird weggelassen.

Da Apple als nächstes auf 14nm XM oder 16nm FF+ springen wird, würde mich mal rein rechnerisch interessieren, mit 100mm^2 als oberste Grenze, wieviel Spielraum die GPU da hat, da Apple scheinbar nicht gewillt ist, vom Dual-Core-Konzept abzurücken.

Wenn die Geruechte fuer einen A8X stimmen dann laufen ihre SoCs gerechtfertigt schweischienig. Der heutige A8 ist fuer ein iPad Air2 durchaus noch ausreichend wenn man etwas mehr CPU und GPU Takt erlaubt; bei einem iPad Pro aber und 12.9" (wo man auch sicher nicht bei "nur" 2048*1536 bleiben wird ist dann ein definitiv staerkerer SoC schon eine Notwendigkeit.

Zu 100% Spekulation ohne jeglichen Hintergrund-hint:

H2 2014 = A8@20SoC TSMC (iPhone6, iPhone6 Plus - iPadAir2 H1 15')

H1 2015 = A8X@16FF TSMC iPad Pro

H2 2015 = A9@14nm Sammy/GloFo

mboeller
2014-10-10, 21:29:49
A consumer’s guide to graphics benchmarks:

http://blog.imgtec.com/powervr/consumer-guide-to-graphics-benchmarks


???

Ailuros
2014-11-10, 10:02:34
Series7XT mit DX11.1 wie erwartet: http://blog.imgtec.com/powervr/powervr-series7xt-gpus-push-graphics-and-compute-performance

http://www.imgtec.com/news/detail.asp?ID=933

Series7XT and Series7XE GPUs achieve up to a 60% architectural performance increase on the latest industry standard benchmarks compared to equivalent configurations of previous generation PowerVR Series6XT/6XE GPUs, maintaining and extending PowerVR’s reputation as the most efficient, highest performance, lowest power GPU. Application developers can take advantage of the significant parallel processing power in Series7 for both graphics and GPU compute tasks. Series7 architectural enhancements include:

· Instruction set enhancements including added co-issue capability, resulting in improved application performance and increased GPU efficiency

· New hierarchical layout structure that enables scalable polygon throughput and pixel fillrate improvements in addition to increased clock frequencies

· GPU compute setup and cache throughput improvements resulting in up to 300% better parallel processing performance.

Auf ARM Mali T7xx/T8xx gezielt:

PowerVR Series7XT GPUs support dedicated hardware that handles tessellation in fixed function logic which is far more power efficient than competitive solutions running excessive amounts of shader code.

Midgaard (ab T760) GPUs die feature level DX11.x unterstuetzen haben keine dedizierte ff Tessellations-Einheit sondern benutzen compute durch die ALUs; die extra Runde die sie nochmal ueber den Speicher ziehen muessen kostet dann schon an Effizienz fuer Tessellation.

Der Tessellations-Mist zur Seite, ich hab den Verdacht dass sie die +60% Zusatzleistung (7XT vs. 6XT) dadurch gewinnen, in dem sie das front end so aufgemoebelt haben dass zumindest eine Anzahl von FP32 & FP16 calls parallel ablaufen koennen.

mboeller
2014-11-10, 12:48:32
ich hab den Verdacht dass sie die +60% Zusatzleistung (7XT vs. 6XT) dadurch gewinnen, in dem sie das front end so aufgemoebelt haben dass zumindest eine Anzahl von FP32 & FP16 calls parallel ablaufen koennen.

...und anscheinend kann jetzt auch die SFU-Einheit parallel laufen. Also FP16+FP32+SFU gleichzeitig... zumindest wenn ich Rys richtig verstehe.

Ailuros
2014-11-10, 13:00:54
...und anscheinend kann jetzt auch die SFU-Einheit parallel laufen. Also FP16+FP32+SFU gleichzeitig... zumindest wenn ich Rys richtig verstehe.

Nein.
bis zu 6XT: FP32 oder FP16 oder SFU
Series7: FP32 + SFU oder FP16 + SFU

robbitop
2014-11-10, 13:28:15
Wundert mich nicht - ansonsten wäre Serie 6XT deutlich schneller.
Würde man so viel Kontrolllogik einbauen, um alle Units zu bedienen, würde es vielleicht mehr Sinn ergeben, einfach mehr FP32 ALUs zu verbauen.

Analog können NVs GPUs auch nicht FP64 und FP32 ALUs gleichzeitig laufen lassen.

deekey777
2014-11-10, 18:58:30
http://www.anandtech.com/show/8706/imagination-announces-powervr-series7-gpus-series7xt-series7xe

Looking at the overall architecture then (with an emphasis on 7XT), what we find is still very much Rogue in nature and is called as much by Imagination. While various blocks have been upgraded or overhauled in some manner, there is only a single new block. Available on the base configuration of the 7XT and as an option for the 7XE it is the Tessellation Co-Processor. Exactly as the name describes it, the Tessellation Co-Processor is hardware block responsible for and working in conjunction with the Vertex Data Master to implement full tessellation support. The tessellator itself is fixed function for power efficiency reasons, with hull and domain shading handled through shading hardware. The addition of tessellation hardware along with the standard inclusion of ASTC support are the major functional changes that enable Android Extension Pack support on the base Series7XT over the base Series6XT.

Ob Intel zur Vernunft kommt und Atome mit Series 7 ausstattet? :biggrin:

Ailuros
2014-11-10, 20:48:42
Ob Intel zur Vernunft kommt und Atome mit Series 7 ausstattet? :biggrin:

Intel ist sogar einen fetten Batzen an IMG Aktien losgeworden; es ist in Intel's bester Interesse wenn sie ihr eigenes GenX benutzen.

tdon
2014-11-10, 21:03:35
http://www.anandtech.com/show/8706/imagination-announces-powervr-series7-gpus-series7xt-series7xe



Ob Intel zur Vernunft kommt und Atome mit Series 7 ausstattet? :biggrin:


Damit sie uns wieder mit den grottigen Windows Treibern beglücken, die selbst unter 2D versagen oder weshalb?

Ailuros
2014-11-11, 06:23:16
Intel braucht keine Hilfe von dritten um in ULP generell zu versagen; das schaffen sie selber ziemlich ausgezeichnet. Der Punkt liegt eben gerade dort, dass ihr Versagen ihnen auch zu 100% zustehen sollte.

robbitop
2014-11-11, 15:29:33
Wobei die IGPs von Intel von Generation zu Generation deutlich besser werden. Kein Vergleich mehr zu alten GMA Zeiten. :)

Aufgebohrtes Front End und Co-Issue bringt schon ordentlich was. Mich würde interessieren, ob Serie 7 bereits TEX und ALU Instruktionen entkoppelt oder ob es schön CineFX mäßig zum Stallen kommt.

Ich frage mich, wo Serie 7 (ohne XT) bleibt. :D XT klingt besser - und wenn man jedes Jahr die Zahl um 1 erhöhen kann, klingt es nach mehr Fortschritt. :D

Ailuros
2014-11-11, 18:32:07
Wobei die IGPs von Intel von Generation zu Generation deutlich besser werden. Kein Vergleich mehr zu alten GMA Zeiten. :)

Welches aber ziemlich irrelevant ist mit ihrem bisherigen Erfolg im ULP Markt.

Aufgebohrtes Front End und Co-Issue bringt schon ordentlich was. Mich würde interessieren, ob Serie 7 bereits TEX und ALU Instruktionen entkoppelt oder ob es schön CineFX mäßig zum Stallen kommt.

Es wird immer eine gewisse Abhaengigkeit geben um Strom zu sparen.

Ich frage mich, wo Serie 7 (ohne XT) bleibt. :D XT klingt besser - und wenn man jedes Jahr die Zahl um 1 erhöhen kann, klingt es nach mehr Fortschritt. :D

Haette es heute Serie7 gegeben, haette womoeglich Series7XT als "refresh" oder mid-life kicker gefolgt. Dieses wird dann Serie8-wasauchimmer heissen. Marketing-bullshit ganz einfach.

Ailuros
2014-12-11, 19:19:22
Leistungssteigerungen von =/>20% fuer OGL_ES3.1 Treiber im Anmarsch.

mboeller
2014-12-28, 12:37:27
MIPS P5600; ganz schön schnell: http://blog.imgtec.com/mips-processors/mips-p5600-cpu-sets-new-performance-record


5.6 CoreMark/MHz per CPU [single Thread]


[edit:
Schade das es sich nur um eine 32bit CPU handelt... wo bleiben die Highend 64bit Versionen?

Ailuros
2014-12-28, 16:14:32
MIPS P5600; ganz schön schnell: http://blog.imgtec.com/mips-processors/mips-p5600-cpu-sets-new-performance-record



[edit:
Schade das es sich nur um eine 32bit CPU handelt... wo bleiben die Highend 64bit Versionen?

P5600 ist auch nicht wirklich "high end" aber es lizenziert auch bisher keiner ausserhalb vom embedded Markt. 64bit P-Class Warrior wird es wohl auch irgendwann bald geben.

Momentan baut sich MIPS eher in wearables/IoT langsam auf und wird von da ab versuchen nach weiter oben zu skalieren.

Wuerden die Idioten im obrigen Management sich weiterhin auf ihr Kerngeschaeft konzentrieren, wuerde ihr GPU IP Marktanteil auch nicht so nachlassen. Wenn die Hornochsen so weitermachen fallen sie schneller in die Bedeutungslosigkeit des vergangenen Jahrzehntes wieder zurueck, als dass sie in der Zwischenzeit gewachsen sind. Wenn man keine Balancen halten kann, kann es sehr schnell wackelig werden.

tdon
2014-12-28, 17:29:34
MIPS P5600; ganz schön schnell: http://blog.imgtec.com/mips-processors/mips-p5600-cpu-sets-new-performance-record



[edit:
Schade das es sich nur um eine 32bit CPU handelt... wo bleiben die Highend 64bit Versionen?


Das ist schnell? Mit was vergleichen die? Der Benchmark sieht extrem inkonstant aus, eine Aussagekraft ist nicht erkennbar.

mboeller
2014-12-29, 08:58:10
Das ist schnell? Mit was vergleichen die? Der Benchmark sieht extrem inkonstant aus, eine Aussagekraft ist nicht erkennbar.

die vergleichen natürlich mit ARM ohne es zu sagen. ;) Ein A15 schafft soweit ich gesehen habe ca. 5 - 5,2 Coremark/Thread/MHz.

Allerdings wäre damit, laut IMG ein ARM A15 bei diesem Benchmark pro MHz und pro Thread genauso schnell wie ein i7 ( i7-2640M; siehe link) ... und das ist definitiv nicht der Fall.

Hübie
2014-12-29, 09:52:41
P5600 ist auch nicht wirklich "high end" aber es lizenziert auch bisher keiner ausserhalb vom embedded Markt. 64bit P-Class Warrior wird es wohl auch irgendwann bald geben.

Momentan baut sich MIPS eher in wearables/IoT langsam auf und wird von da ab versuchen nach weiter oben zu skalieren.

Wuerden die Idioten im obrigen Management sich weiterhin auf ihr Kerngeschaeft konzentrieren, wuerde ihr GPU IP Marktanteil auch nicht so nachlassen. Wenn die Hornochsen so weitermachen fallen sie schneller in die Bedeutungslosigkeit des vergangenen Jahrzehntes wieder zurueck, als dass sie in der Zwischenzeit gewachsen sind. Wenn man keine Balancen halten kann, kann es sehr schnell wackelig werden.

Ist das IoT nicht nach web2.0 der nächste große Marketing-Zug auf den jedes hippe Unternehmen aufspringen möchte? Nachdem jede Bäckerei nun ein Facebook-Profil hat muss man ja irgendwie wieder Müll fabrizieren.
Hatte MIPS jetzt irgendwie gar nicht auf dem Schirm. Arme Programmierer X-D

tdon
2014-12-29, 13:38:16
Allerdings wäre damit, laut IMG ein ARM A15 bei diesem Benchmark pro MHz und pro Thread genauso schnell wie ein i7 ( i7-2640M; siehe link) ... und das ist definitiv nicht der Fall.


Das ist ja der Witz. Auf der eembc Seite gibt es einen gülligen Atom N330 mit 5.69 CoreMark/MHz, was schon besser wäre als die Vergleichs CPU von IMG mit Sandy Bridge. i3-3217UE mit 1,6 Ghz schafft 15.41 CoreMark/MHz. i5-2400 Ergebnisse gehen extrem weit auseinander. Haufen verschiedene Compiler kommen zum Einsatz, beim MIPS was ganz abweichendes. Schon deswegen lässt sich die tatsächliche Konkurrenzfähigkeit gar nicht abschätzen.

mboeller
2014-12-29, 14:56:28
ach so, das hat mich am Anfang auch irritiert.
Wenn du dir den Score richtig anschaust, siehst du:

CoreMark/MHz...5.69
CoreMark..........9106.94
CoreMark/Core...4553.47

Bei 1600MHz.... bei 2 Threads also 9106,94/1600 = 5,69 und bei einem Thread bzw. Core 4553,47/1600 = 2,85; also sehr viel weniger als der P5600 der 5,6 Punkte pro Thread schafft.

Ailuros
2014-12-29, 15:15:59
Gott muss die nutzlose Zahlenwerkelei wirklich sein? Wenn jemand wirklich "mahlen nach Zahlen" muss durch Marketing-bullshit dann gibt es auch solchen Mist: http://www.imgtec.com/investors/presentations/161214/IMG-Half-yearly-Presentation-2014.pdf

Ist das IoT nicht nach web2.0 der nächste große Marketing-Zug auf den jedes hippe Unternehmen aufspringen möchte? Nachdem jede Bäckerei nun ein Facebook-Profil hat muss man ja irgendwie wieder Müll fabrizieren.
Hatte MIPS jetzt irgendwie gar nicht auf dem Schirm. Arme Programmierer X-D

Wenn Du Zeit zum verschwenden hast, lies den obrigen Krampf durch. Neben dem ueblichen Marketing-Weihrauch stehen schon ein paar nutzvolle Schaetzungen drin. Wenn sie ihr Ziel tatsaechlich erreichen und kapitulieren langfristig 25% vom CPU IP Markt, dann stehen sie zwar nicht schlecht da nur sollten sie ihr Kerngeschaeft in der Zwischenzeit nicht zu stark vernachlaessigen.

Hübie
2014-12-29, 18:22:17
Ne dazu fehlt mir nun wirklich die Zeit ;D Ich habe Geduld, also warte ich einfach mal das fertige Produkt in freier Wildbahn ab. :naughty:
Wäre ja nicht zum ersten Mal dass es dann heißt: "Außer Spesen nix gewesen."
Wobei ich hier noch mehr Hoffnung habe dass etwas brauchbares in Punkto perf/W herauskommt.

Ailuros
2014-12-30, 09:55:07
Ne dazu fehlt mir nun wirklich die Zeit ;D Ich habe Geduld, also warte ich einfach mal das fertige Produkt in freier Wildbahn ab. :naughty:
Wäre ja nicht zum ersten Mal dass es dann heißt: "Außer Spesen nix gewesen."
Wobei ich hier noch mehr Hoffnung habe dass etwas brauchbares in Punkto perf/W herauskommt.

Mehr als es schon jetzt in Produkten von MIPS gibt (networking, wifi, embedded etc.) wirst Du in absehbarer Zukunft wohl nicht geben. Sind eben meistens die Faelle wo solche CPU IP drinstecken koennte in einem QCOM, Broadcom oder sonst wer chip und es einfach keiner weiss.

mboeller
2014-12-30, 11:54:32
Mehr als es schon jetzt in Produkten von MIPS gibt (networking, wifi, embedded etc.) wirst Du in absehbarer Zukunft wohl nicht geben. Sind eben meistens die Faelle wo solche CPU IP drinstecken koennte in einem QCOM, Broadcom oder sonst wer chip und es einfach keiner weiss.

Du glaubst also das IMG Zeit und Geld verschwendet wenn sie jetzt "Highend" MIPS Cores wie den P5600 oder Midrange Cores wie den I6400 entwickeln? Hört sich zumindest so an.

Ailuros
2014-12-30, 15:48:50
Du glaubst also das IMG Zeit und Geld verschwendet wenn sie jetzt "Highend" MIPS Cores wie den P5600 oder Midrange Cores wie den I6400 entwickeln? Hört sich zumindest so an.

Wo im consumer Bereich (tablets/smartphones) wird MIPS momentan eingesetzt bzw. ist Dir irgend ein Lizenznehmer bekannt der mir entgeht? Fuer embedded ist sogar ein 5600 bzw. 6400 zu viel.

In der obrigen Praesentation geben sie an dass sie zwei Warrior Lizenzen gelandet haben, welches aber auch nicht unbedingt dass es ueberhalb von embedded liegen muss. MIPS hat ihre traditionellen Kunden und auf diesen baut IMG auf; wenn Du Dir den Firlefanz durchliest kann man leicht sehen dass sie es selber einsehen.

Sonst wenn irgend jemand wirklich ein "Meer" von MIPS und Rogue cores in mini servers verschachteln will kann man von mir aus etliche Dutzend 6400-er MIPS mit etlichen 7900 Rogue cores in so einem Dingsbums verbauen. Fuer so etwas muss es erstmal einen Kunden geben, obwohl es nach Indizien wohl schon Interessenten gibt. Vom "Interesse" bis zur Lizenzierung ist dann wieder ein Abstand.

Am Rand warte ich immer noch wie es mit ray tracing IP weitergehen soll. Zuerst verkauften sie standalone RTUs die zwar imposant waren aber dank 90nm trotzdem zu wenig zu spaet, dann kam RT IP in GPU IP dass bis jetzt keiner haben wollte und was nun?

IMG prophezeit fuer sich selber ein relativ "flaches" Jahr fuer 2015, waehrend es bei ARM wieder ziemlich aufwaerts gehen wird. Drei Mal darfst Du raten wer von den beiden im gegebenen Fall mehr Scheiss baut ;)

mboeller
2014-12-31, 09:28:08
Hi;

ich habe mir jetzt die Halb-Jahres-Präsentation von IMG 2x durchgeschaut. Kurzfristig schaut es wirklich nicht toll aus. Die Marge ist massiv geschrumpft, der Verlust im Quartal ziemlich hoch und vor allem das das Volumen an (anscheinend) PowerVR-GPUs geschrumpft ist ist wirklich schlecht. Anscheinend knappert ARM mit den Mali vor allem bei den Lowend-GPUs massiv an PowerVR (Seite12). ;)

Der langfristige Ausblick ist dafür umso rosiger... hoffentlich trifft das auch zu!

Ich sehe in der Präsentation aber nicht, das der Kauf von MIPS jetzt geschadet hätte. Vielleicht bei der kurzfristigen Marge und beim Gewinn. Das Volumen und der Marktanteil von MIPS soll aber ziemlich stark steigen.

Und, die Probleme bei den GPUs hätten sie auch bekommen wenn sie MIPS nicht gekauft hätten. ARM hat die Mali-GPUs ja schon vor einigen Jahren eingekauft und verschleudert sie ja anscheinend mit jeder ARM-Lizenz umsonst. Das zieht soweit man das sagen kann. Jetzt mit den 760er Mali's scheint sogar die Effizienz zu passen. Das das bei IMG nicht ohne Blessuren bleiben kann ist klar.

Ich sehe aber nicht, was IMG hier hätte machen können um die Mali-GPUs zu stoppen, außer vielleicht ihr IP für Lowend-GPUs kostenlos zu verschleudern... nicht sehr realistisch.

edit: Ich hoffe mal die Folie 25 stimmt nicht. Da steht das der I6400 die Warrior-Familie komplettiert... damit wäre ein "Highend-MIPS" mit 64bit gestorben.

edit2: wie wollen sie eigentlich 1,5TFlops erreichen? Folie28 Ist das nicht ein wenig sehr hoch?

Ailuros
2014-12-31, 13:54:16
Der langfristige Ausblick ist dafür umso rosiger... hoffentlich trifft das auch zu!

Ich sehe in der Präsentation aber nicht, das der Kauf von MIPS jetzt geschadet hätte. Vielleicht bei der kurzfristigen Marge und beim Gewinn. Das Volumen und der Marktanteil von MIPS soll aber ziemlich stark steigen.

Und, die Probleme bei den GPUs hätten sie auch bekommen wenn sie MIPS nicht gekauft hätten. ARM hat die Mali-GPUs ja schon vor einigen Jahren eingekauft und verschleudert sie ja anscheinend mit jeder ARM-Lizenz umsonst. Das zieht soweit man das sagen kann. Jetzt mit den 760er Mali's scheint sogar die Effizienz zu passen. Das das bei IMG nicht ohne Blessuren bleiben kann ist klar.

Mali760 leistet genauso viel wie ein 6230; nur mit doppelt so vielen clusters eben und ein gutes Stueck hoehere Frequenz.

Sie haetten weniger Probleme mit GPU IP gehabt wenn sie es nicht so vernachlaessigt haetten. Wenn ein ARM auch u.a. bundle deals anbietet desto mehr muss man sich anstrengen sein Zeug zu verkaufen.

Ich sehe aber nicht, was IMG hier hätte machen können um die Mali-GPUs zu stoppen, außer vielleicht ihr IP für Lowend-GPUs kostenlos zu verschleudern... nicht sehr realistisch.

Siehe oben.

edit: Ich hoffe mal die Folie 25 stimmt nicht. Da steht das der I6400 die Warrior-Familie komplettiert... damit wäre ein "Highend-MIPS" mit 64bit gestorben.

Nochmal fuer was denn genau oder besser fuer welchen Partner genau? Egal ob es stimmt oder nicht, es gibt momentan kein Interesse an high end CPU IP fuer tablets/smartphones ausserhalb ARM.

edit2: wie wollen sie eigentlich 1,5TFlops erreichen? Folie28 Ist das nicht ein wenig sehr hoch?

FP16; 7900 hat 1024 SPs davon bei ~750MHz. Marketing bullshit pur. Der 7900 ist wohl sowieso nicht fuer ultra thin tablets gedacht. 16 clusters bzw. 32 TMUs sind viel zu viel fuer 2015. Spaeter? Da sorgt dann Marketing fuer "Serie8" :rolleyes:

mboeller
2015-01-05, 13:58:35
das CI20-Board wird jetzt auf der CES vorgestellt und soll Ende des Monats verfügbar sein. Kosten: 65,- Dollar; siehe: http://www.heise.de/newsticker/meldung/MIPS-Board-als-doppelte-Portion-Raspberry-Pi-2508163.html

Ailuros
2015-01-05, 14:14:24
Zu wenig, zu spaet, zu langweilig.

iFanatiker
2015-01-05, 15:08:22
Sag mal Ailuros...gibt es eigentlich Anzeichen, dass Samsung sich in Richtung PowerVR bewegt oder bleiben sie weiterhin bei ARM Mali?

Ailuros
2015-01-07, 17:10:28
Sag mal Ailuros...gibt es eigentlich Anzeichen, dass Samsung sich in Richtung PowerVR bewegt oder bleiben sie weiterhin bei ARM Mali?

Samsung bekommt GPU IP fast umsonst von ARM; wie bloed koennen sie genau sein es nicht zu erhalten. Es ist ja auch nicht so dass sie soooo Qualitaets-orientiert sind dass ihnen das etwa mehr Verbrauch von Malis im Nacken hockt oder dass sie eine "Unmenge" von Exynos SoCs herstellen. Ich weiss nicht mal wieso sie ueberhaupt die Exynos Bude noch am Leben erhalten.

Sonst wird sich in 2015 so manches schaukeln in diesem Markt. Ein grosser zumindest wird von einem anderen grossen geschluckt; ob's mehr als einer sein wird weiss ich noch nicht mit Sicherheit ;)

RLZ
2015-01-07, 20:17:37
Ein grosser zumindest wird von einem anderen grossen geschluckt; ob's mehr als einer sein wird weiss ich noch nicht mit Sicherheit ;)
Apple kauft Intel um die Bargeldreserven zu reduzieren? :freak:

iFanatiker
2015-01-08, 16:11:17
Samsung bekommt GPU IP fast umsonst von ARM; wie bloed koennen sie genau sein es nicht zu erhalten. Es ist ja auch nicht so dass sie soooo Qualitaets-orientiert sind dass ihnen das etwa mehr Verbrauch von Malis im Nacken hockt oder dass sie eine "Unmenge" von Exynos SoCs herstellen. Ich weiss nicht mal wieso sie ueberhaupt die Exynos Bude noch am Leben erhalten.

Sonst wird sich in 2015 so manches schaukeln in diesem Markt. Ein grosser zumindest wird von einem anderen grossen geschluckt; ob's mehr als einer sein wird weiss ich noch nicht mit Sicherheit ;)

Danke für die Infos. Jo, genau deswegen ja meine Frage. Samsung ist eben nicht gerade bekannt dafür Geschäftsfelder und Produkte ohne entsprechende Margen lange aufrechzuerhalten sondern entweder einen Turn Around durch verbesserte Produktpolitik usw. zu schaffen oder einfach das entsprechende Feld, Produkt usw. zu streichen. Irgendwie muss ja was bei den Exynos passieren und die Mali GPUs fand ich bisher echt enttäuschend an sich und da gab es doch diesen Versuch eigene GPU IP aufzubauen.....also dachte ich eventuell geben sie sich einen Ruck in Richtung PowerVR. :biggrin:

Hmmmm......Samsung vertickert Exynos Resterampe an nVidia und kauft dann dort ein in Zukunft? :biggrin::biggrin:

Ailuros
2015-01-08, 16:45:14
Apple kauft Intel um die Bargeldreserven zu reduzieren? :freak:

Bitte nicht. Dann waere es billiger ein neues Auto zu kaufen als eine neue CPU :P

Danke für die Infos. Jo, genau deswegen ja meine Frage. Samsung ist eben nicht gerade bekannt dafür Geschäftsfelder und Produkte ohne entsprechende Margen lange aufrechzuerhalten sondern entweder einen Turn Around durch verbesserte Produktpolitik usw. zu schaffen oder einfach das entsprechende Feld, Produkt usw. zu streichen. Irgendwie muss ja was bei den Exynos passieren und die Mali GPUs fand ich bisher echt enttäuschend an sich und da gab es doch diesen Versuch eigene GPU IP aufzubauen.....also dachte ich eventuell geben sie sich einen Ruck in Richtung PowerVR. :biggrin:

Samsung mobile (die Abteilung die eigentlich die smartphones baut und vermarktet) wollte schon immer bei IMG bleiben. Es ist Samsung LSI die sich weigern Gebueren zu bezahlen. Die einzige Aussnahme war der SGX544MP3 im Exynos 5410. Samsung hatte schon zum zweiten Mal Verbrauchs-Probleme mit Mali GPU IP und in einem Panikzug ruften sie in Grossbrittanien fuer ein "emergency meeting an". IMG legte den SGX544 auf den Tisch, betonte aber dass keine Aussnahmen machen werden was die Gebueren betrifft. Samsung lizenzierte ging aber direkt danach wieder zu Malis zurueck. Die Dinger throtteln immer noch und verbrauchen auch relativ zu viel (im Angesicht von den QCOM Adrenos auch kein Skandal mehr LOL...).

Tja nach all den Jahren kann man so manche background Geschichte erzaehlen...

Hmmmm......Samsung vertickert Exynos Resterampe an nVidia und kauft dann dort ein in Zukunft? :biggrin::biggrin:

That ain't an aquisition :P Sonst zum obrigen kein ja oder nein aber wunder Dich bloss nicht wenn Du aus purem Glueck recht hattest. Es ist eben nicht so dass QCOM es leicht hat alle ueber den "problemlosen" S810 zu ueberreden. Hat aber nichts mit meinem hint zu tun.

Mehr Futter dazu: http://blogs.barrons.com/asiastocks/2015/01/07/tsmc-jp-morgan-sees-little-downside-from-qualcomms-snapdragon-delay/?mod=google_news_blog

Ailuros
2015-01-26, 14:42:21
http://venturebeat.com/2015/01/25/why-future-tablets-wont-burn-your-lap-interview/view-all/

The framerate is the nice thing. We have a framerate counter here and a central processing unit (CPU) utilization counter here. Two things are going on. First of all, if you like, it’s a heterogeneous app. It’s running partially on the CPU, but the heavy lifting on the image processing is being done by the graphics processing unit (GPU). The underlying algorithms have been ported to OpenCL. It’s on Android, with an Intel Atom. It has a four-cluster Rogue 6-series GPU in it.

On Android, if you’re doing imaging of this type, you’re passing video buffers between the various hardware components. You import it from the camera, decode a bitstream, and that creates a buffer with the image data in it. Then you have to take that buffer and copy every frame into an area of memory owned by the GPU, in this case. It could be a video encoder, for videoconferencing, or a display controller if you’re just going to put it on the screen. But the point is that with every movement between the different hardware blocks in the SOC [system on chip], Android tries to make a copy of the data. That turns out to dominate performance on apps like this.

What the imaging framework does, we’ve extended some of the APIs in EGL, the buffer management in EGL, and we’ve added some utilities. It doesn’t completely eliminate buffer copies, but it minimizes them. Instead of having six or seven buffer copies, which is easily possible if you just use stock Android, it’ll go down to a single copy, which makes something like this possible on an embedded system on chip. You can get the framerate and you don’t overheat the device.

You’ve seen the Nvidia Tegras are big in autos, right? One of the reasons for that is because in a car, you can put a fan on top of the device. That’s the limitation in most cases: the power dissipation. In a form factor like this, without OpenCL and without the buffer — we call it Zero Copy technology — this would just go into thermal shutdown after just a few seconds. Instead, this will run indefinitely.

Screemer
2015-01-26, 15:00:47
Apple kauft Intel um die Bargeldreserven zu reduzieren? :freak:

Eher kauft qq o. SS AMD.

Ailuros
2015-01-28, 08:52:26
http://www.fudzilla.com/news/36846-texas-instruments-profit-rises-thanks-to-cars

LOL zum Bildchen :freak:

Zu TI's grossen Kunden zaehlen Ford und General Motors u.a.

Ailuros
2015-02-20, 07:06:50
Zum Thema warum es IMG etwas schwer dieses Jahr haben wird, nochmal der letzte finanzielle Firlefanz:

http://www.imgtec.com/investors/presentations/161214/IMG-Half-yearly-Report-2014.pdf

http://www.imgtec.com/investors/presentations/161214/IMG-Half-yearly-Presentation-2014.pdf

Zu hohe Ausgaben erstmal:

Hossein Yassaie
, Chief Executive, commented:
“I am pleased with our progress in the first half. During this transitional year for the Group we have seen continued progress in licensing, robust royalty revenues and disciplined cost control. As a result we remain confident of achieving our targets for the year. “Now that our product lines are complete and the heavy investment phase is over, we expect to see lower rates of operating cost growth going forward and increased focus on financial returns. Our market relevant and complementary technologies combined with our
increased scale enable us to take advantage of the natural leverage to improve the financial performance of our business. As a result we now expect to see significant expansion in operating margins in the medium-term.”

* MIPS Lizenzierung und royalties laufen besser als sie selber projeziert hatten.
* GPU IP Geschaeft ist zwar gesund aber ich sehe nirgends ein sehenswertes Wachstum innerhalb des Jahres, ausser vielleicht von Mediatek ab H2 2015.
* Intel hat ihren letzten Aktien-Anteil verkauft, liegt aber unter den neuen Lizenznehmern weiss der Geier fuer was (video IP?). Fazit: weil MIPS ein indirekter Konkurrent ist, ist es taboo in so etwas zu investieren :rolleyes:
* Nach Geruechten haette es schon im vergangenen Q4 eine ray tracing dev Platform geben sollen; ich sehe davon nichts, das "Gehirn" der RT Geschichte McCombe arbeitet afaik nicht mehr bei IMG etc etc. = alles zusammen gibt mir ein muerbes Bauchgefuehl....
* Unter den neuen Lizenznehmern liegt auch Loongson offensichtlich fuer MIPS, ergo finanziert die chinesische Regierung dieses relativ merkwuerdige Projekt weiter.
* Auch ein alter Bekannter Texas Instruments fuer embedded.

Insgesamt wird 2015 das Jahr fuer ARM sein. A72 scheint sehr schnell ein weiterer Erfolg zu werden und wenn Samsung alle Galaxy high end smartphones mit dem 7420 ausstattet koennte ARM locker den groessten GPU IP Marktanteil erreichen.

Ach ja dass ich es nicht vergesse: http://www.thisismoney.co.uk/money/markets/article-2946582/Imagination-Technologies-poaches-former-Sony-Ericsson-s-boss.html

Wobei ich weder bei Blackberry noch bei Sony/Ericsson irgend etwas nenneswertes gesehen habe. Klingt leider insgesamt nach einem weiteren dekorativem Lueckenfueller. "Sir" hin und her die Firma braucht einen neuen CEO. Ja ich verstehe und ehre dass solche Leute verdammt viel erreicht haben aber von einem Punkt aufwaerts muss neues und dynamischeres Blut in die Firma kommen, am liebsten mit weniger verrueckten Schnappsideen.

ARM's kommender Erfolg ist weder Zufall noch sind ihre brutal hohen Gewinn-margen so leicht zu uebersehen...

y33H@
2015-02-26, 13:46:25
Hier noch bissi was zu 7XT wie 800 MHz bei 16FF+

http://blog.imgtec.com/powervr/powervr-gt7900-redefining-performance-efficiency

Ailuros
2015-02-26, 16:19:22
Hier noch bissi was zu 7XT wie 800 MHz bei 16FF+

http://blog.imgtec.com/powervr/powervr-gt7900-redefining-performance-efficiency

Marketing Geblubber als Antwort auf ARM's T880 Zeug. 16 clusters sind viel zu viel fuer den ULP SoC Markt; eine 7900@800MHz koennte einer einfachen GTX750 locker die Brust zeigen.

robbitop
2015-02-26, 16:54:21
Haben will im iPad Air 3. :D

edit: Im Air 2 sind wegen des 8C Serie 6XT ja schon 256 SPs verbaut. 512 SPs wäre der logische Schritt nach vorn. Vermutlich aber deutlich niedriger getaktet (ca. 500 MHz?).

Ailuros
2015-02-26, 17:18:24
Haben will im iPad Air 3. :D

Vorsicht ich hab das Gefuehl dass die 7900 nur mit DX11.2 kommt; wieso wuerde Apple den overhead genau haben wollen fuer iOS und es nicht lieber in Leistung investieren?

edit: Im Air 2 sind wegen des 8C Serie 6XT ja schon 256 SPs verbaut. 512 SPs wäre der logische Schritt nach vorn. Vermutlich aber deutlich niedriger getaktet (ca. 500 MHz?).

7XT ist clock fuer clock, cluster fuer cluster laut marketing bei einem konservativem +60% angesetzt.

IMG's Behauptungen sind meistens so realistisch wie moeglich angesetzt. High end tablets werden beim 7600 erwaehnt (gilt wohl auch fuer den 7800):

http://blog.imgtec.com/wp-content/uploads/2015/02/PowerVR-Series7XT-GPUs.png

Hübie
2015-02-26, 17:20:29
Ich glaube kaum dass man 512 SPs bei 800 MHz noch als ULP bezeichnen kann. Ist dies eigentlich ein geschützter Begriff? :biggrin:
Beeindruckend welch Expertise da mittlerweile drin steckt. Das sollte etwa Fermi (GF116) sein... Abgesehen vom Verbrauch natürlich ;)

Ailuros
2015-02-26, 17:29:33
Ich glaube kaum dass man 512 SPs bei 800 MHz noch als ULP bezeichnen kann. Ist dies eigentlich ein geschützter Begriff? :biggrin:
Beeindruckend welch Expertise da mittlerweile drin steckt. Das sollte etwa Fermi (GF116) sein... Abgesehen vom Verbrauch natürlich ;)

Wenn ein diesbezueglicher SoC nicht an Bandbreite verhungert, wird das Ding schon einer einfachen GTX750 gefaehrlich. In Manhattan offscreen leistet diese 177+ fps.

8 cluster heute im A8X = 33 fps + 20% ES_GL3.1 = ~40 fps
16 cluster bei fast linearer Skalierung bei ~520MHz = ~70 fps

70 * 60% fuer 7XT = 112 fps immer noch ~520MHz; bei 800MHz sind es dann schon in etwa 170 fps (stets spekulative Milchmaedchen-rechnung)

Hübie
2015-02-26, 18:27:04
Krank. Das wäre Desktop vor 4 Jahren (~GTX 470). Mal sehen ob auch mal was anderes mit dem top dog als so ein dämliches Tablet. Ich hasse diese Dinger. Entweder Design-Enten oder Hardwaregurken. 90% ersteres.

deekey777
2015-02-26, 19:15:48
Hier noch bissi was zu 7XT wie 800 MHz bei 16FF+

http://blog.imgtec.com/powervr/powervr-gt7900-redefining-performance-efficiency
Der Zahlendreher wurde korrigiert. ;D

Ailuros
2015-02-26, 19:38:52
Krank. Das wäre Desktop vor 4 Jahren (~GTX 470). Mal sehen ob auch mal was anderes mit dem top dog als so ein dämliches Tablet. Ich hasse diese Dinger. Entweder Design-Enten oder Hardwaregurken. 90% ersteres.

Zwei Saetze aus dem PR Geblubber....fuer was?

However there is a new category of devices that can use these embedded GPUs: affordable game consoles.

....und wann?

I’m really excited to see how our partners will use these new high-performance parts in designs coming later next year.

H2 16'?

mboeller
2015-02-26, 19:47:26
Zwei Saetze aus dem PR Geblubber

....fuer was?
....und wann?

H2 16'?

Nintendo?

Ailuros
2015-02-26, 20:00:01
Nintendo?

Keine Ahnung, aber Nintendo als Idee begeistert mich nicht unbedingt.

Hübie
2015-02-27, 02:41:26
Ich denke eher diese Kleinst-Serien sind gemeint. Der Satz fiel mir auch auf nur kann man da zuviel interpretieren. Is jetzt nich mega spannend, jedoch erstaunlich zu beobachten wieviel know how die haben. Wenn die mal Geld verbrennen wollen sollen die ein paar Desktop Chips entwickeln X-D
Waren die damals nicht auch in den CPUs von Intel vertreten? Mir war so... :sneak:

Ailuros
2015-02-27, 06:38:20
Ich denke eher diese Kleinst-Serien sind gemeint. Der Satz fiel mir auch auf nur kann man da zuviel interpretieren. Is jetzt nich mega spannend, jedoch erstaunlich zu beobachten wieviel know how die haben. Wenn die mal Geld verbrennen wollen sollen die ein paar Desktop Chips entwickeln X-D
Waren die damals nicht auch in den CPUs von Intel vertreten? Mir war so... :sneak:

Ich waere sehr ueberrascht wenn Apple nichts von 7XT dieses Jahr integrieren wuerde; es ist aber auch dann wiederrum so dass sie laut Abmachung mit fruitco nirgends diese als Partner noch irgendwelche Integrierungs-Daten fuer ihre GPU IP in Apple's Produkt oeffentlich erwaehnen duerfen.

Persoenlich um ehrlich zu sein langweilt mich jegliches mini-Konsolen Geruecht (es gibt auch genug fuer NV Tegra in letzter Zeit fuer den 03.03 event...), eben weil ich nicht an dessen Erfolg glauben kann.

Sonst was heisst "know how"? Ja sie sind sehr gut mit GPU IP aber einen design von A bis M zu skalieren ist wirklich kein Ereignis; ARM's GPU IP skaliert auch bis zu 16 clusters; die Flexibilitaet sollte bei IP gegeben sein eben damit man so viele Maerkte wie moeglich bedienen kann. Die design Latenz macht auch nicht halt bei "nur" 16 clusters, es ist aber irgendwo auch Bloedsinn etwas zu entwickeln dass keiner je kaufen wird.

Und in genau die gleiche Kategorie (IP das niemand haben will) faellt dann auch IP fuer einen desktop chip. Sie habens mehrere Mal in der Vergangenheit versucht (und sogar zu Zeiten wo es zich Beteiligte im GPU Markt gab) und jedes Mal hat sich IP als suboptimal fuer desktop designs bewiesen. Sonst hat Intel vor Jahren in IMG etwas in Aktien investiert und sie benutzten IP fuer netbooks und spaeter fuer tablets und smartphones. Intel hat in der Zwischenzeit alle ihre Aktien verkauft und wird wohl in Zukunft den ULP SoC fast ausschliesslich mit eigenen GPUs bedienen. Effizienter ist es zwar nicht bei so niedrigem Stromverbrauch, ist aber auch ziemlich scheissegal wenn man so oder so den Markt nur mit subsidies bedient und SoCs regelrecht verschenkt. Ausserdem egal ob IMG und Intel fuer CPUs je auf gleicher Ebene konkurrieren werden, seitdem sie MIPS gekauft haben liegen sie fuer Intel unter ihren "Konkurrenten".

mboeller
2015-02-27, 07:19:52
Keine Ahnung, aber Nintendo als Idee begeistert mich nicht unbedingt.

Es war eine spontane Idee aufgrund der Zeitschiene... so richtig vorstellen kann ich es mir auch nicht... würde einfach zu viel Sinn machen...

Konsole: 8-core MIPS @ 3GHz + GT7900 @ 800MHz

Handheld: Dual-Core MIPS (2GHz) od. Quad-Core MIPS (1,6GHz) + GT 7600 @ 500MHz

... wäre einfach viel zu gut durchdacht ;) und damit nicht Nintendo-like.

robbitop
2015-02-27, 07:47:30
Der Sprung von der WiiU auf eine GT7900 wäre IMO zu klein. Für Faktor 2...3 baut man keine neue Konsole. Im Prinzip sollte fast eine Größenordnung drin sein. Wenigstens Faktor 8.

Wenn Apple GT7800 im A9X verbaut, ist man aber takt für Takt nur 60 % schneller als A8X. Für den üblichen Faktor 2 müßte man noch höher takten. Wäre es dann nicht effizienter (Leistungsaufnahme), mehr Cluster zu nehmen? (ein 10C/12C Zwischenschritt wäre ggf. interessant - vieleicht klebt ja Apple wieder 2x Kerne zusammen. 2x GT7600)

A9 - GT7600
A9X - 2x GT7600 / 1x GT7900


-------------------------
Wie schön wäre es, eine Art PSP mit GT7900 und A72 oder Cyclone zu haben - die aber noch massig AAA Titel bekäme. (reine Träumerei - dafür gibt es keinen relevanten Markt leider)



Und in genau die gleiche Kategorie (IP das niemand haben will) faellt dann auch IP fuer einen desktop chip. Sie habens mehrere Mal in der Vergangenheit versucht (und sogar zu Zeiten wo es zich Beteiligte im GPU Markt gab) und jedes Mal hat sich IP als suboptimal fuer desktop designs bewiesen.
An der IP lag es nicht IMO. Nur an der Umsetzung/Management/Finanzierung.

Es war damals schon lustig anzusehen, wie Kyro 2 mit deutlich weniger Transisotoren die GF2MX und andere IMRs behandelt hat. Ein hypothetisches High End Kyro Design hätte die Geforce 2 GTS vermöbelt. Aber offenbar hatte man nicht das Geld/Ruf/Mut dazu.

Ailuros
2015-02-27, 08:07:35
Es war eine spontane Idee aufgrund der Zeitschiene... so richtig vorstellen kann ich es mir auch nicht... würde einfach zu viel Sinn machen...

Konsole: 8-core MIPS @ 3GHz + GT7900 @ 800MHz

Handheld: Dual-Core MIPS (2GHz) od. Quad-Core MIPS (1,6GHz) + GT 7600 @ 500MHz

... wäre einfach viel zu gut durchdacht ;) und damit nicht Nintendo-like.

Nicht dass es irgendwie realistisch ist, aber die CPU configs oben sind wohl ziemlich merkwuerdig. Es sind bis zu 6 cores/cluster moeglich und der 64bit I6400 hat sogar DVFS auf core level, waehrend der "higher end" 32bit 5600 DVFS nur auf cluster level geht.

In TSMC 28HPM process technology, one fully configured I6400 base core1 fits in 1 mm2 and achieves 1 GHz (under worst case conditions and slow corner silicon) while delivering 3000 DMIPS and 5600 CoreMark2.

Unter 16FF+ rein hypothetisch wuerde ich bei einer so grossen GPU eher auf ein dual cluster 6 cores/cluster bei >2GHz gehen, stets natuerlich IMHO. Lieber in die Breite als Frequenz.

Der Sprung von der WiiU auf eine GT7900 wäre IMO zu klein. Für Faktor 2...3 baut man keine neue Konsole. Im Prinzip sollte fast eine Größenordnung drin sein. Wenigstens Faktor 8.

Wenn Apple GT7800 im A9X verbaut, ist man aber takt für Takt nur 60 % schneller als A8X. Für den üblichen Faktor 2 müßte man noch höher takten. Wäre es dann nicht effizienter (Leistungsaufnahme), mehr Cluster zu nehmen? (ein 10C/12C Zwischenschritt wäre ggf. interessant - vieleicht klebt ja Apple wieder 2x Kerne zusammen. 2x GT7600)

A9 - GT7600
A9X - 2x GT7600 / 1x GT7900

Daran hab ich auch schon gedacht. Nur rechnet keiner von Euch die zumindest +20% die der ES3.1 Treiber bringt mit obwohl es in allen bisherigen Android Geraeten genau den Leistungsunterschied macht; Apple braucht eben eine Ewigkeit bis sie etwas verifizieren. Wenn sie in etwa X1 GPU Leistung erreichen wollen dann reicht ein 7800 vollkommen aus und ist um einiges effizienter als einen 7600 zu spiegeln.


Wie schön wäre es, eine Art PSP mit GT7900 und A72 oder Cyclone zu haben - die aber noch massig AAA Titel bekäme. (reine Träumerei - dafür gibt es keinen relevanten Markt leider)

Als ob das VITA nicht schon ein ziemlich netter Flop ist/war....

An der IP lag es nicht IMO. Nur an der Umsetzung/Management/Finanzierung.

Stimmt.

Es war damals schon lustig anzusehen, wie Kyro 2 mit deutlich weniger Transisotoren die GF2MX und andere IMRs behandelt hat. Ein hypothetisches High End Kyro Design hätte die Geforce 2 GTS vermöbelt. Aber offenbar hatte man nicht das Geld/Ruf/Mut dazu.

STMicro war so bloed zu glauben dass sie ueber Nacht Gewinn mit GPUs machen wuerden und es fehlte verdammt viel an Investierungen. ST haette sich die gesamte hoeher getaktete Neuauflage der originalen KYRO sparen sollen und gleich auf den STG5500 (KYRO 3) steigen sollen. Doppelt so viele pipelines als KYRO, ein T&L Co-Prozessor und DDR MC. Von dem abgesehen Hercules wollte damals die Sparte von ST kaufen und haette es auch besser als diese geschafft nur war ihre finanzielle Situation schon damals zu schlecht fuer ein weiteres Risiko.

Und um gerecht zu sein: alles bis zu GF2 hatte kein early Z.

robbitop
2015-02-27, 10:32:32
Wenn sie in etwa X1 GPU Leistung erreichen wollen dann reicht ein 7800 vollkommen aus und ist um einiges effizienter als einen 7600 zu spiegeln.

Beim A8X wäre es auch effizienter gewesen (aus Skalierungssicht) einen 6C Series6XT zu verbauen. Apple ist eben Apple. :D

Sunrise
2015-02-27, 12:50:47
Gespiegelt wurde eben wegen der Leistung, nicht wegen der Effizienz. Man hatte wohl auch einfach den Platz. Und da es keine 8-Cluster-Konfiguration gab, hat man sich eben selbst eine gebaut.

Das hat auch IMGTec bemerkt und bei 7XT gibt es jetzt eben von Anfang an GT7800 (als auch GT7900). Und da das jetzt sogar von IMGTec auf den Folien den Gerätekategorien zugeordnen wird, weiß man auch ungefähr, wo die jeweiligen Konfigurationen eingebaut werden. Ich wüsste also ich nicht, warum man da weiterhin spiegeln sollte.

Entweder man geht auf die GT7900 mit konservativem Takt (was ich bezweifle, sowas erwarte ich entweder erst bei der zweiten Generation von 14nm, spätestens aber bei 10nm) oder man nimmt die 60% von GT7800 mit und erhöht den Takt etwas, der ja scheinbar sowieso höher bei 7XT liegt, und dann zusätzlich nicht vergessen, wir springen auf 14nm. Da sollte genug "Headroom" vorhanden sein.

robbitop
2015-02-27, 13:21:36
Wir springen von 20 nm auf 14 nm. A8X -> A9X. Das sind 15 % Flächenskalierung und 30 % Power.
Insofern kann man vermutlich nicht allzu viel hineinquetschen (thermisch gesehen - Fläche scheint bei Apple zweitrangig zu sein)
Aber Samsung tritt im Moment ja richtig auf's Gaspedal - vielleicht sehen wir Herbst 2016 ja A10X bereits in 10 nm FinFet.

Ailuros
2015-02-27, 21:21:03
Beim A8X wäre es auch effizienter gewesen (aus Skalierungssicht) einen 6C Series6XT zu verbauen. Apple ist eben Apple. :D

Apple benutzt bei A7/A8/A8X fast die gleiche GPU Frequenzen. Bei ~520MHz waere ein 6650 zu langsam gewesen.

Wir springen von 20 nm auf 14 nm. A8X -> A9X. Das sind 15 % Flächenskalierung und 30 % Power.
Insofern kann man vermutlich nicht allzu viel hineinquetschen (thermisch gesehen - Fläche scheint bei Apple zweitrangig zu sein)
Aber Samsung tritt im Moment ja richtig auf's Gaspedal - vielleicht sehen wir Herbst 2016 ja A10X bereits in 10 nm FinFet.

10FF in H2 16' von welcher foundry genau? Samsung? Ach ja und dann in 2017 7nm ja? ROFL :D

Ailuros
2015-03-02, 11:30:18
MWC 2015:

Rogue G6020

http://www.imgtec.com/news/detail.asp?ID=965
http://blog.imgtec.com/powervr/new-powervr-g6020-targets-ultra-affordable-mobile-and-iot-devices


* Performance: 400-500 Mpixels/second and 12.8-16 FP16 GFLOPS at 400-500 MHz
* Silicon area: 2.2 mm2 at 400-500 MHz (28 nm)
* APIs: OpenGL ES 2.0/3.0 (including new features like instancing for reduced CPU overhead)
* Operating systems: Android, Android Wear, Linux, RTOS (real time operating systems), etc.

....und neues video IP cores:

http://www.imgtec.com/news/detail.asp?ID=964
http://blog.imgtec.com/powervr-video/powervr-series5-video-encoders-scale-from-wearable-to-professional-markets

deekey777
2015-03-02, 12:19:35
SoC-Grafikprozessoren für Konsolen, H.265-Encoder für Smartphones (http://www.heise.de/newsticker/meldung/SoC-Grafikprozessoren-fuer-Konsolen-H-265-Encoder-fuer-Smartphones-2561387.html)

Die leistungsfähigste Grafikeinheit von Imagination übertrifft sogar die GPU in Nvidias Tegra X1.

Das ist wirklich eine Steilvorlage darauf einzuhämmern. Egal, in paar Monaten gibt es eine Präsentation eines "Tegra X2", der 100mal schneller ist.

Interessant finde ich das:

Imaginations neue High-End-GPU (16nm, FinFET+) ist kompatibel zur 3D-Mobilschnittstelle OpenGL ES 3.1 und zum Android Extension Pack. ... Laut Imagination sollen noch in diesem Jahr erste Geräte mit dem PowerVR GT7900 erscheinen.

Für Tablets ist das Ding zu viel des Guten. Aber welche Produkte sollen es werden, die in 16 nm FinFET+ gefertigt werden und von wem?

mczak
2015-03-02, 12:25:26
MWC 2015:

Rogue G6020
Silicon area: 2.2 mm2 at 400-500 MHz (28 nm)

Wie sieht das aus im Vergleich zum G6050? Mit dem halben Cluster war der ja auch schon ziemlich abgespeckt - aber eben im Gegensatz zum G6020 trotzdem full-featured.

Ailuros
2015-03-02, 12:36:41
Wie sieht das aus im Vergleich zum G6050? Mit dem halben Cluster war der ja auch schon ziemlich abgespeckt - aber eben im Gegensatz zum G6020 trotzdem full-featured.

Ich hab mich mit dem low end Zeug leider nie wirklich beschaeftigt um ehrlich zu sein; auf jeden Fall ist ein 6020 fuer sehr bescheidene Sachen wie IoT nicht schlecht angelegt. Die Frage ist dann eher ob irgend jemand das Zeug auch lizenziert hat oder in absehbarer Zeit lizenzieren wird.

Ailuros
2015-03-02, 12:42:32
SoC-Grafikprozessoren für Konsolen, H.265-Encoder für Smartphones (http://www.heise.de/newsticker/meldung/SoC-Grafikprozessoren-fuer-Konsolen-H-265-Encoder-fuer-Smartphones-2561387.html)



Das ist wirklich eine Steilvorlage darauf einzuhämmern. Egal, in paar Monaten gibt es eine Präsentation eines "Tegra X2", der 100mal schneller ist.

Interessant finde ich das:



Für Tablets ist das Ding zu viel des Guten. Aber welche Produkte sollen es werden, die in 16 nm FinFET+ gefertigt werden und von wem?

Wurde nicht nur hier sondern auch in anderen threads besprochen; es steht im ersten IMG slide von dem link drin fuer was die 7900 GPU IP gemeint ist. Wenn der IP provider selber angiebt dass es tatsaechlich NICHT fuer etwas wie ein ultra thin tablet geeignet ist sondern fuer Notebooks, microservers und Konsolen bestimmt ist, frage ich mich so langsam wer was und wieso nicht lesen kann. Erwaehnt und verlinkt wurde genug dafuer hier im Forum.

http://blog.imgtec.com/wp-content/uploads/2015/02/PowerVR-Series7XT-GPU.png

Sonst muss man wohl noch zusaetzlich erklaeren dass wenn man IP verkauft die Flexibilitaet sowohl zu low end als auch high end fuer jeden bedienten Markt um einige Lichtjahre hoeher ist als ein SoC Hersteller wie NVIDIA der sich nur einen einzigen SoC pro Jahr leisten kann.

smalM
2015-03-04, 11:46:52
War die Eigeneinschätzung bei IMG nicht, daß der 7900 wohl erst in 10nm realisiert werden wird?

Ailuros
2015-03-04, 17:47:21
War die Eigeneinschätzung bei IMG nicht, daß der 7900 wohl erst in 10nm realisiert werden wird?

Ja Voica hat es selber in seinem PR blog bei IMG angegeben dass wir solche GPUs erst ab 10nm oder kleiner erwarten sollten.

mboeller
2015-03-05, 10:54:23
IMG scheint sich auf glNext/Vulkan zu freuen:

http://blog.imgtec.com/powervr/trying-out-the-new-vulkan-graphics-api-on-powervr-gpus


PowerVR GPUs are first-class citizens

A key feature added to Vulkan is the render pass, which redefines how well an application can control our hardware, and reduces the amount of work we have to do implicitly without the application necessarily knowing about it.

A render pass consists of framebuffer state (other than actual render target addresses), and how render targets should be loaded in and out of the GPU at the start and end of each render. This structure is the key object that allows tiled architectures like PowerVR to run at extremely high efficiency.

Ailuros
2015-03-05, 11:04:20
Ich denke Du hast die Seite hier schon gelesen: https://forum.beyond3d.com/threads/powervr-rogue-architecture.56181/page-2

Nebenbei scheint es MIPS ziemlich gut zu gehen fuer low end Material: http://blog.imgtec.com/mips-processors/new-mips-based-chips-from-altair-sequans-and-blu-wireless-featured-at-mwc-2015

Ailuros
2015-03-07, 16:20:06
http://www.prnewswire.com/news-releases/moving-closer-to-automated-driving-mobileye-unveils-eyeq4-system-on-chip-with-its-first-design-win-for-2018-300045242.html

Mobileye ist eine israelische (?) Firma die SoCs fuer automotive entwickelt. Ich hab es nur dank MIPS als CPU hier gepostet. Das interessante ist dann eher:

The EyeQ4® will feature four CPU cores with four hardware threads each, coupled with six cores of Mobileye's innovative and well-proven Vector Microcode Processors (VMP) that has been running in the EyeQ2 and EyeQ3 generations. The EyeQ4® will also introduce novel accelerator types – two Multithreaded Processing Cluster (MPC) cores and two Programmable Macro Array (PMA) cores. MPC is more versatile than a GPU or any other OpenCL accelerator, and with higher efficiency than any CPU. PMA sports compute density nearing that of fixed-function hardware accelerators, and unachievable in the classic DSP architecture, without sacrificing programmability. All cores are fully programmable and support different types of algorithms. Using the right core for the right task saves both computational time and energy. This is critical as the EyeQ4® is required to provide "super-computer" capabilities of more than 2.5 teraflops within a low-power (approximately 3W) automotive grade system-on-chip.

Ob das obrige wirklich stimmt? Hat jemand genug Einblick um zu sehen ob es auch wirklich stimmt?

y33H@
2015-03-07, 17:20:23
Was sollen das für zwei MPCs sein?

Nakai
2015-03-07, 18:15:12
Würd mich auch interessieren.

Ansonsten 2,5Teraflops bei 3W ist ziemlich nett. Ich frage mich, wie diese Zahlen zustandekommen. Von den Mips-Kernen schonmal nicht, also eher von den Co-Prozessoren.

Ailuros
2015-03-07, 22:53:45
Würd mich auch interessieren.

Ansonsten 2,5Teraflops bei 3W ist ziemlich nett. Ich frage mich, wie diese Zahlen zustandekommen. Von den Mips-Kernen schonmal nicht, also eher von den Co-Prozessoren.

Mir ķlingt das Ganze too good to be true sonst wuerde ich auch nicht fragen.

Ailuros
2015-03-24, 20:44:21
Es hilft zwar nicht besonders weiter fuer die MPCs aber zumindest wird klarer was fuer CPUs genau der SoC hat:

http://blog.imgtec.com/powervr/firefox-os-now-running-on-a-mips-based-reference-tablet#disqus_thread

(ganz unten in den Kommentaren vom IMG PR Kerl)

However, one of the most exciting recent announcements (for me personally) is the new Mobileye EyeQ4 SoC. It includes four multi-threaded MIPS interAptiv CPUs and a MIPS M5150 CPU:

Ailuros
2015-04-02, 16:06:47
Rys macht sich mal die Muehe erstmal tile based rendering aus IMG's Perspektive zu erklaeren: http://blog.imgtec.com/powervr/a-look-at-the-powervr-graphics-architecture-tile-based-rendering

Eigentlich steht nichts wirklich Neues im Artikel, aber weil die Geschichte mit tiling mal wieder in aderen Debatten aufkam kann es sein dass jemand das theoretische Zeug interessiert.

Sonst wurde gestern die naechste Ueber-GPU vorgestellt die alle errr...in den Boden stampfen wird. Codename: VOGUE :P

http://blog.imgtec.com/powervr/powervr-vogue-gpu-finally-runs-crysis

Sunrise
2015-04-02, 16:11:08
Sonst wurde gestern die naechste Ueber-GPU vorgestellt die alle errr...in den Boden stampfen wird. Codename: VOGUE :P

http://blog.imgtec.com/powervr/powervr-vogue-gpu-finally-runs-crysis
Das Vogue-Diagramm ist voller interessanter Details, scheint die nächste bahnbrechende IP zu werden!

"We've made the font here larger for marketing reasons"

ROFL ;D:D

Ailuros
2015-04-02, 16:24:19
Das Vogue-Diagramm ist voller interessanter Details, scheint die nächste bahnbrechende IP zu werden!

"We've made the font here larger for marketing reasons"

ROFL ;D:D

Also die beste Einheit aller ist "this really doesn't do anything" :freak: voll nach meinem Geschmack. Ein tile based Faulenzer :D

Screemer
2015-04-02, 16:56:02
The bus from speed. I loled hard :lol:

robbitop
2015-04-02, 17:12:57
Rys' Abriss über TBDRs klingt ähnlich enthusiastisch, wie es damals alle zu Serie 3 Zeiten dachten. Aber IMRs und moderne Spieleengines haben sich massiv weiterentwickelt.
Zu Serie 3 Zeiten hätte ein TBDR bei normiertem Takt und normierten Ausführungseinheiten einen IMR verprügelt. Man stelle sich einen Kyro 2 mit 4x Pipelines a 2 TMUs, 200 MHz und 128 bit DDR Interface vor. Die arme Geforce 2 (Ultra).... Selbst eine Geforce 3 hätte wohl geweint.

Heute im embedded Sector scheint es aber nicht mehr so zu sein. Die wenigsten ULPs haben TBDRs. Die meisten sind IMRs. Manche als Tilebased-IMRs (mit modernen Verwerfungsmechanismen). Da scheint Einheiten- und Taktnormiert eher Gleichheit zu herrschen. (wenn man sich entsprechende Benchmarks anschaut).

Overdraw gibt es kaum noch dank DR Engines +Early Z und Bandbreitenprobleme haben die Tilebased IMRs offenbar auch keine (Tile Cache für den Framebuffer + Framebufferkompression).

Ich denke, er beschönigt das ganze etwas zu sehr. Ist vermutlich auch so gewollt, wenn es auf der IMG Hauptseite landet. :)

Ailuros
2015-04-03, 06:47:45
Rys' Abriss über TBDRs klingt ähnlich enthusiastisch, wie es damals alle zu Serie 3 Zeiten dachten. Aber IMRs und moderne Spieleengines haben sich massiv weiterentwickelt.
Zu Serie 3 Zeiten hätte ein TBDR bei normiertem Takt und normierten Ausführungseinheiten einen IMR verprügelt. Man stelle sich einen Kyro 2 mit 4x Pipelines a 2 TMUs, 200 MHz und 128 bit DDR Interface vor. Die arme Geforce 2 (Ultra).... Selbst eine Geforce 3 hätte wohl geweint.


Du redest Dir auch fuer den Zeitpunkt zu viel ein am Ende. Kyro3 schaffte es zwar nie auf Regale aber zum Zeitpunkt wo sie erschienen waere, waere sie weder so billig wie K2 gewesen noch haette sie wirklich irgendwelche Baeume ausgerissen (bei einer projezierten Frequenz von 250MHz fuer core & ram). Im allerbesten Fall haette K3 eine damalige 4200 schwer ins Schnaufen bringen koennen und das auch nur stellenweise.

Heute im embedded Sector scheint es aber nicht mehr so zu sein. Die wenigsten ULPs haben TBDRs. Die meisten sind IMRs. Manche als Tilebased-IMRs (mit modernen Verwerfungsmechanismen). Da scheint Einheiten- und Taktnormiert eher Gleichheit zu herrschen. (wenn man sich entsprechende Benchmarks anschaut).

Die brutale Mehrzahl ist tile based (PowerVR, Mali, Adreno); Du darfst mir gerne zeigen wo der erste gegenueber den anderen zwein nicht um einiges effizienter ist, wobei es bei Mali sich eher um beschissene design Entscheidungen und bei Adreno um beschissene compiler/Treiber handelt.

Sonst sind ein einstelliges Prozentual (Vivante und GeForce ULP) quasi non tile based.

Overdraw gibt es kaum noch dank DR Engines +Early Z und Bandbreitenprobleme haben die Tilebased IMRs offenbar auch keine (Tile Cache für den Framebuffer + Framebufferkompression).

Und wie viele deferred engines gibt es denn unter den mobilen Spielchen genau?

Ich denke, er beschönigt das ganze etwas zu sehr. Ist vermutlich auch so gewollt, wenn es auf der IMG Hauptseite landet. :)

Es sollte klar sein dass in einem reinen marketing blog einiges verschoenert wird. Nichtdestominder wird er dafuer bezahlt; es ist wohl eher das Pubklikum dass keine balancierte und realistische Schlussfolgerungen ueber das Zeug ziehen kann. Exotisch heisst nicht unbedingt automatisch leichter oder effizienter.

Ich kann Dir aber sagen dass wenn IMG engineers den "Luxus" haetten mit die area nur so herumzuschmeissen wie andere, wuerde es um einiges besser aussehen. Simon hatte PVR TC entwickelt und als er gefragt wurde warum ASTC doch besser ist am Ende war er ziemlich deutlich darueber dass ihm nur ein sehr begrenzter Transistoren-budget erlaubt war.

Hier mal etwas anderes:

https://forum.beyond3d.com/posts/1833855/

It's the biggest SoC in use in smartphones in this generation, by a long way (> 130mm2). A330 to A420 in the same technology (both 4 cluster designs with roughly the same on-paper perf), was > 50% more GPU area.

Ergo sind beide 4*SIMD32 und ich ueberlasse es Deiner Phantasie wie gross der Adreno430 als GPU genau ist unter 20SoC TSMC. Dass DX11 gegenueber allem >DX9.3 um einiges mehr als 50% in die area kostet hatte ich mal behauptet in fora; von den Faellen wo ich mal wieder als der lokale Vollidiot abgestempelt wurde. Mit allem drum und dran kostet es tatsaechlich so viel und deshalb hat IMG den DX11 Quark nur optional in 7XT angeboten und nicht weil ein solcher core unter dem Druck von angeblichem parameter bandwidth overload oder irgendwelchem anderem Stuss vollauft und die chips krepieren. Ich bezweifle um ehrlich zu sein dass ihre Tessellations-Implementierung so effizient ist wie bei NV seit Fermi, aber das liegt IMHO eher an der Implementierungs-Idee von NV selber als irgendwelchem DR vs. IMR Kaese.

Sonst als realistischer Anhang zum obrigen: http://gfxbench.com/compare.jsp?benchmark=gfx31&D1=Apple+iPhone+6+Plus&os1=iOS&api1=gl&D2=HTC+One+M9+%280PJA10%2C+6535LVW%29&cols=2

4 cluster gegen 4 cluster GPU; die eine ist DX10.0 und die andere DX11.x. Der 430 hat so viel mehr die area ausserhalb dem DX11 Zeug dass ein GX6450 eigentlich nicht so nahe ruecken duerfte und schon gar nicht wenn dieser bei 533MHz taktet und der 430 bei peak 600MHz. Das eventuelle throttling liegt bei -30% fuer 430 im TRex.

Wenn ich den gleichen Vergleich zu Malis mache wird es auch nicht besonders besser, ergo erzaehl mal wieso die anderen beiden TBRs mit eher fragwuerdigen Resultaten ankommen. Ich hab meine eigene Meinung oben darueber schon erwaehnt, aber es wundert mich nicht wirklich dass dann IMGs marketing ueber Gott weiss wer trommelt. Der eigentliche Grund ist wohl der Mehrzahl der Leser auch egal; Hauptsache sie verstehen dass X effizienter ist.

Ailuros
2015-04-22, 13:39:41
Etwas mehr ueber das israelische MobileEye Dingsbums:

http://blog.imgtec.com/mips-processors/new-eyeq4-adas-mobileye-mips-cpus

Ich sehe einen Audi A7 im video :P

AffenJack
2015-04-22, 14:08:29
Ich sehe einen Audi A7 im video :P

Daran ist nix neues, wurde ja schon länger mit dem zFas angekündigt, dass da Mobileye drauf ist.

Hübie
2015-04-22, 14:27:59
Ich suche noch Jensen im Video =)

Ailuros
2015-04-22, 16:16:01
Daran ist nix neues, wurde ja schon länger mit dem zFas angekündigt, dass da Mobileye drauf ist.

Mein eigentliches Interesse liegt woanders: hast Du irgend eine Idee was zum Henker diese VMPs auf dem Ding sind, dass sie (Mobileye) stur die Leistung eines 2.5 TFLOP Computers in nur 3W behaupten? Marketing-technischer Stuss oder ist die hw einfach so radikal spezialisiert dass es doch stimmen koennte?

Die CPUs egal wie viele cores sind ja alles mainstream ULP mobile Schnecken, ergo muss Mobileye wirklich etwas sehr effizientes fuer image processing u.a. integriert haben.

***edit: der PR Herr von IMG hat etwas darueber aufgeklaert:

When it comes to implementing an algorithm, there are usually two approaches one can take: have a dedicated (fast, low power) piece of hardware to do the job or rely on a (flexible) software implementation ; each has its own trade-offs. This is how for example we've moved from software-only graphics tasks running on a bulky CPU to having a dedicated GPU running an optimized API.

In the case of Mobileye, the ADAS functions described above are mainly handled by the VMPs while the main application processor (this is a separate chip in the example above) is freed up to run the operating system (UI, apps, etc.).

However, not all vendors have the capabilities (whether it's manufacturing cost or silicon area) to build/incorporate a dedicated ADAS processor. This is where a GPU compute approach is ideal since most - if not all - automotive application processors today already incorporate a graphics processor.

So if you don't have an ADAS chip on-board, you can take advantage of the hundreds of GFLOPS provided by a PowerVR Rogue GPU and implement those lane detect algorithms (and other ADAS functions) on the graphics engine. This is why we've created an ecosystem around GPU compute on PowerVR; here's the latest example from CES 2015:
http://www.luxoft.com/pr/luxoft-becomes-strategic-technology-partner-of-imagination-technologies/

http://www.koreaittimes.com/story/43908/imagination-announces-powervr-imaging-framework-android

At the end of the day, we provide a diverse portfolio of IP for many markets, including automotive. Our customers can then license that IP and work with us to decide what is the best choice for them.

Hope this helps, please let me know if you have further questions.

Ok jetzt sitzt es. Diese VMPs sind dedizierte (spezialisierte) Einheiten fuer Aufgaben die man nur fuer ADAS braucht. Mich wundert lediglich dass sich Mobileye den Aufwand einer solchen Entwicklung leisten kann und andere nicht?

Ailuros
2015-04-23, 18:09:58
Ist zwar OT aber es wird schon eine gute Lektuere fuer die meisten Leser sein:

http://techreport.com/review/28126/semiconductors-from-idea-to-product

AffenJack
2015-04-25, 11:41:15
Mein eigentliches Interesse liegt woanders: hast Du irgend eine Idee was zum Henker diese VMPs auf dem Ding sind, dass sie (Mobileye) stur die Leistung eines 2.5 TFLOP Computers in nur 3W behaupten? Marketing-technischer Stuss oder ist die hw einfach so radikal spezialisiert dass es doch stimmen koennte?

Die CPUs egal wie viele cores sind ja alles mainstream ULP mobile Schnecken, ergo muss Mobileye wirklich etwas sehr effizientes fuer image processing u.a. integriert haben.

***edit: der PR Herr von IMG hat etwas darueber aufgeklaert:

Ok jetzt sitzt es. Diese VMPs sind dedizierte (spezialisierte) Einheiten fuer Aufgaben die man nur fuer ADAS braucht. Mich wundert lediglich dass sich Mobileye den Aufwand einer solchen Entwicklung leisten kann und andere nicht?

Jo so spezialisierte Prozessoren haben ja immer eine deutlich bessere Energieeffizienz. Ich glaube nicht, dass es da soviel um die Entwicklung leisten können geht. Mobileye hat anscheinend gutes Knowhow da, hat den Markt schon gut besetzt und der Umsatz mag einfach begrenzt sein, so dass niemand wirklich Lust hat bisher in den Markt da einzusteigen. Aber sind auch nur Mutmaßungen meinerseits.

Ailuros
2015-04-27, 19:52:03
Jo so spezialisierte Prozessoren haben ja immer eine deutlich bessere Energieeffizienz. Ich glaube nicht, dass es da soviel um die Entwicklung leisten können geht. Mobileye hat anscheinend gutes Knowhow da, hat den Markt schon gut besetzt und der Umsatz mag einfach begrenzt sein, so dass niemand wirklich Lust hat bisher in den Markt da einzusteigen. Aber sind auch nur Mutmaßungen meinerseits.


Tja wenn es nicht allzu kompliziert sein sollte solche spezialisierte hw zu entwickeln frage ich mich ernsthaft wieso IP Schmieden wie ARM oder IMG keine solche fuer ADAS entwickeln.

Wie dem auch sei das hier klingt nach einem lobenswerten Schachzug: http://www.imgtec.com/news/detail.asp?ID=979

http://blog.imgtec.com/mips-processors/mipsfpga-opens-up-the-mips-architecture-to-universities-worldwide

Hübie
2015-04-27, 21:56:43
Das klingt sehr vielversprechend. Ich hoffe dass dann in den Tagen nach dem 14. Mai Ergebnisse des Workshops geblogt werden. Definitiv Wert im Auge behalten zu werden :) Danke Ailuros.

Ailuros
2015-05-19, 20:10:47
http://www.fudzilla.com/news/processors/37786-imagination-squaring-off-with-arm

Ja und nein aber es waere auch zu viel erwartet dass irgend jemand bei Fudzilla einen wirklich klaren Durchblick im ULP SoC Markt hat.

What it will have to do is come up with a decent pricing strategy to kill off the rivals once and for all.

Nein Du Trottel. Erstens ist es momentan wichtiger den embedded bzw. IoT Markt besser zu kapitulieren und zweitens hat ARM verrueckt hohe Margen als IP Verkaeufer. Auf welcher Ebene soll IMG ueberhaupt "konkurrieren". Aber wie gesagt wenn man sooo viel Ahnung hat.... :rolleyes:

MIPS IP verkauft sich nicht schlecht und dieses hauptsaechlich im low end CPU IP Markt. Von sich aus ist die insgesamte Strategie alles andere als falsch; es ist stets besser bescheiden anzufangen und wenn erfolgreich genug sich langsam nach oben aufruesten.

http://blog.imgtec.com/news/billboard-advertising-and-the-imagination-summit-2015-in-santa-clara

http://blog.imgtec.com/mips-processors/iot-focused-samsung-artik-1-chip-is-powered-by-two-mips-cpus

Ailuros
2015-05-20, 10:20:30
Imagination OmniShield:

http://www.anandtech.com/show/9273/imagination-announces-omnishield

Eigentlich eine Antwort fuer ARM's TrustZone. Fuer embedded wird es wohl schon gut laufen; einen sehenswerten deal fuer MIPS im smartphone/tablet ULP SoC sehe ich in absehbarer Zeit persoenlich noch nicht. Ingenic hatte irgendeinen low end tablet SoC mit MIPS wenn ich mich nicht irre, deshalb auch das obrige "sehenswerte" fuer eine jeglichen potentiellen deal fuer MIPS.

Ailuros
2015-06-09, 15:13:53
Weil IMG (direkt) relativ lass ich es auch hier im thread:

http://blog.imgtec.com/powervr/imagination-tsmc-collaborate-on-iot-subsystems

If you look at the semiconductor landscape today, the number of companies that have the ability to design advanced SoCs is shrinking rapidly. Industry consolidation/verticalization and rising manufacturing costs are creating an environment where true differentiation is difficult to achieve using generic solutions.

In addition, integrating high performance CPUs, GPUs, coherent fabrics and other hardware blocks requires deep expertise, increasing design cycles and amplifying associated costs.

http://blog.imgtec.com/wp-content/uploads/2015/06/Imagination-TSMC-IP-platforms-SoC-IP-5.png

Hübie
2015-06-10, 04:16:16
Danke wie immer für die Infos. Hab leider keine Zeit das zu lesen, aber irgendwann bin ich auch in Rente. Dann hol ich das nach X-D

mboeller
2015-07-22, 15:47:46
IMG versteckt so einen Tape-out doch glatt im Sommerloch ;)

Award-winning PowerVR GR6500 ray tracing GPU tapes out
http://blog.imgtec.com/multimedia/award-winning-powervr-gr6500-ray-tracing-gpu-tapes-out

edit: wie schnell sind eigentlich 300 Mio Rays/sec

Ailuros
2015-07-23, 13:44:53
IMG versteckt so einen Tape-out doch glatt im Sommerloch ;)

Award-winning PowerVR GR6500 ray tracing GPU tapes out
http://blog.imgtec.com/multimedia/award-winning-powervr-gr6500-ray-tracing-gpu-tapes-out

edit: wie schnell sind eigentlich 300 Mio Rays/sec

IMHO viel fuer einen ULP SoC und sonst nichts besonderes.

Ailuros
2015-07-27, 12:48:18
Das meiste ist das uebliche Schnarch-Geblubber wie in allen solchen relevanten Praesentationen. Interessant fuer generelle Markt-Projektionen sind Seite 14 bis 19 wer Lust hat es zu lesen:

https://imagination-technologies-cloudfront-assets.s3.amazonaws.com/presentations/30062015/Imagination%20Full%20Year%20Results%20FINAL%2030jun2015.pdf

Ailuros
2015-08-13, 11:42:39
Etwas Vulkan vs. OGL_ES Material. http://blog.imgtec.com/powervr/gnomes-per-second-in-vulkan-and-opengl-es

Wie schon im link oben erwaehnt wird ist es nicht ihr Ziel OGL_ES in ein schlechtes Licht zu stellen.

PR-Quark: http://imgtec.com/news/press-release/imagination-technologies-unveils-vulkan-demo-on-android-with-google-at-siggraph/

Ailuros
2015-09-04, 10:54:25
Mal wieder etwas dass vielleicht Skysnake aufrecht sitzen laesst denn er hat ja einen leichten "Koller" mit dem Loongsoon Zeug:

http://blog.imgtec.com/mips-processors/loongson-mips64-processors-performance-barrier

deekey777
2015-09-04, 11:14:29
Etwas Vulkan vs. OGL_ES Material. http://blog.imgtec.com/powervr/gnomes-per-second-in-vulkan-and-opengl-es


Irgendwie musste ich an die Froblins-Demo von AMD denken. X-D

Ailuros
2015-10-29, 20:34:57
IMG scheint dem TSMC Zeug zu viel PR zu widmen:

http://blog.imgtec.com/powervr/a-look-inside-the-collaboration-between-tsmc-and-imagination

http://blog.imgtec.com/powervr/tsmc-recognizes-imagination-with-prestigious-graphics-partner-of-the-year-award

Ok fuer den award (uhhhm who cares....) aber der einzige sehenswerte Fetzen ist wohl der hier:

To meet the needs of next generation’s most advanced SoCs, Imagination and TSMC teamed up to enhance the overall performance, power and area (PPA) achieved on Imagination’s PowerVR Series6XT GPU on TSMC’s 16nm FF process. The companies successfully created silicon-validated PPA reference points that exceeded the original target of 600MHz @ 2.5W, achieving 660MHz @ 2.35W.

mboeller
2015-10-30, 08:16:55
Ok fuer den award (uhhhm who cares....) aber der einzige sehenswerte Fetzen ist wohl der hier:

Der wichtigste Punkt fehlt aber auch hier. Welche Version hat "nur" 2,35W @ 660MHz benötigt? Also ein MP2, ein MP4 oder gar ein MP16 ;)

Ailuros
2015-10-30, 08:39:41
Der wichtigste Punkt fehlt aber auch hier. Welche Version hat "nur" 2,35W @ 660MHz benötigt? Also ein MP2, ein MP4 oder gar ein MP16 ;)

Rogue skaliert nicht in cores ergo nix mit MP und Series6XT geht offiziell bis zu 6 clusters: http://imgtec.com/powervr/graphics/series6xt/

Ailuros
2015-11-09, 21:33:24
https://imagination-technologies-cloudfront-assets.s3.amazonaws.com/events/us-summit-2015/Graphics-FromWearablesToServers.pdf

IMG erwaehnt wohl fuer das iPad PRO eine 7800+ GPU fuer high end tablet. Sonst fuer 2014 GX6650 high end automotive und fuer 2015 GT7800. Im naechsten Jahr haben wir dann Serie8 womoeglich ein refresh vom refresh der originalen Rogue Architektur, diesmal mit HSA Firlefanz.

Sonst fuer car chase und tessellation test in Gfxbench4.0:

https://forum.beyond3d.com/threads/kishonti-gfxbench.52944/page-4

Man braucht keine DX11 GPU fuer die beiden tests; Leistung ist dann natuerlich eine andere Geschichte wenn ich mir die Resultate vom Mali T860MP2 im link oben ansehe :rolleyes:

mboeller
2015-11-13, 21:46:29
neue 64bit-MIPS CPU:

http://blog.imgtec.com/mips-processors/extending-the-mips-warrior-cpu-family

Ailuros
2015-11-16, 13:02:19
neue 64bit-MIPS CPU:

http://blog.imgtec.com/mips-processors/extending-the-mips-warrior-cpu-family

Ein klein bisschen interessanter: http://imgtec.com/news/press-release/pezy-and-imagination-team-up-to-develop-next-generation-hpc-systems/

http://blog.imgtec.com/mips-processors/pezy-licenses-mips-for-green-supercomputing

Arnoldie
2015-11-29, 19:18:54
Ist eigentlich Intels PowerVR-Abenteuer zu Ende?

Ailuros
2015-11-29, 20:24:36
Ist eigentlich Intels PowerVR-Abenteuer zu Ende?

Ja. Intel wird wohl von jetzt ab nur eigene GPU IP benutzen.

Ailuros
2015-12-09, 11:17:28
http://www.renesas.eu/press/news/2015/news20151202.jsp

Renesas R-Car H3

To process large amounts of information accurately in real-time, the R-Car H3 is built around the ARM® Cortex®-A57/A53 cores, employing the newest 64-bit CPU core architecture from ARM. It achieves processing performance of 40,000 DMIPS (Dhrystone million instructions per second (Note 1)) for enhanced processing power. The R-Car H3 also features the PowerVR™ GX6650 as the 3-D graphics engine to deliver reliable information to drivers at the right timing. Based on the latest architecture from Imagination Technologies, it delivers approximately three times the shader calculation (Note 2) processing performance of the R-Car H2.

R-Car H2:
G6400@533MHz, 136 GFLOPs FP32 oder FP16
R-Car H3:
GX6650@533MHz, 409 GFLOPs FP16 oder 205 GFLOPs FP32

Samples of the R-Car H3 are available now. Mass production is scheduled to begin in March 2018 and is expected to reach a volume of 100,000 units per month in March 2019. (Availability is subject to change without notice.).

Sunrise
2015-12-09, 11:59:35
Eine GX6650@533MHz ist schon recht potent, damit sollte einiges möglich sein. Wenn ich allerdings wieder Massenproduktion für 2018 lese...das ist schon heftig, wie stark dort die Verzögerungen sind. Mit dem Progressive Semiconductor Program (PCSP), dem auch Samsung jetzt beigetreten ist (http://www.samsung.com/semiconductor/insights/news/24445), geht der Trend aber zu immer kürzeren Produktzyklen. Samsung und Audi wollen z.B. bereits LPDDR4 und eMMC einsetzen und auch 10nm-Produkte sind schon in der Pipe. Das katapultiert die in-Car Systeme dann direkt auf einen Stand wie jeweils immer die letzte Smartphone-Klasse, sofern hier die rechtlichen Dinge auch schnell genug geklärt werden können.

Schade, dass man dafür auch immer direkt ein neues Auto kaufen muss. Denn wenn man an die neue Technik will, muss man schon fast einen Neuwagen kaufen, ansonsten hat man gebraucht wieder nur relativ alte Hardware verbaut, außer man hat irgendwie Glück und erwischt einen Werkswagen o.ä.

Ailuros
2015-12-09, 12:22:58
https://imagination-technologies-cloudfront-assets.s3.amazonaws.com/events/us-summit-2015/Graphics-FromWearablesToServers.pdf

Seite 8

GX6650 war womoeglich eine 2014 Lizenz. Eine GT7800 wurde hingegen in diesem Jahr lizenziert laut dem pdf, wird aber wohl schwer Renesas sein. Koennte Texas Instruments sein, wird aber wohl auch hier eine noch groessere Ewigkeit dauern bis dieses zur Massenproduktion kommt.

***edit: damit jemand auch im lower end Durchblick behalten kann: Series7XE https://imgtec.com/powervr/graphics/series7xe/

mboeller
2015-12-10, 19:49:56
Quo Vadis PowerVR?

http://www.phonearena.com/news/Apple-is-allegedly-building-a-custom-mobile-GPU-architecture_id76536

Ailuros
2015-12-10, 20:01:32
Quo Vadis PowerVR?

http://www.phonearena.com/news/Apple-is-allegedly-building-a-custom-mobile-GPU-architecture_id76536

Wird schon seit 2 Seiten im Apple thread besprochen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=513454&page=136

z3ck3
2015-12-10, 22:42:37
Ich vermisse PowerVR seit ich damals die Kyro2 gegen eine GeForce 3 getauscht habe.

Wäre PowerVR heute eigentlich noch in der Lage aus den bestehenden Designs einen performance oder gar highend Chip herzustellen, bzw. herstellen zu lassen wie damals mit ST? Vielleicht müsste man ja auch nur eine Niesche besetzen, z.b. den Linuxmarkt und dort einen wirklich guten Chip mit offenen und schon von Anfang an guten Treibern zur Verfügung stellen. Was AMD und NV dort machen ist ja mehr halbes als ganzes. Noch.

Hübie
2015-12-11, 00:01:41
Ums kurz zu machen: Nein. Es ist einfach sauteuer und um eine schnelle Marktdurchdringung zu erreichen musst du viel investieren und wenig verlangen. Das macht nicht mal Intel - und die könnten dass aus der Portokasse finanzieren.
Ausserdem wachsen diese Ingis nicht auf Bäumen. ;)

Ailuros
2015-12-11, 08:18:48
Ich vermisse PowerVR seit ich damals die Kyro2 gegen eine GeForce 3 getauscht habe.

Ich hatte damals zwar auch eine K2, aber mit einer GF3 haette ich sie nie ausgetautscht.

Wäre PowerVR heute eigentlich noch in der Lage aus den bestehenden Designs einen performance oder gar highend Chip herzustellen, bzw. herstellen zu lassen wie damals mit ST? Vielleicht müsste man ja auch nur eine Niesche besetzen, z.b. den Linuxmarkt und dort einen wirklich guten Chip mit offenen und schon von Anfang an guten Treibern zur Verfügung stellen. Was AMD und NV dort machen ist ja mehr halbes als ganzes. Noch.

PowerVR bzw. IMG hat nie selber einen chip hergestellt, damit wir uns nicht falsch verstehen. Sie entwickeln stets nur IP und ja natuerlich koennten sie rein theoretisch IP fuer high end desktop entwickeln, nur wuerde es einfach keinen Kunden dafuer geben. Ihre heutige groesste IP Variante GT7900 kann schon heute low end GPUs die Brust zeigen; IMG muesste eigentlich nur etwas an den Latenzen schrauben um weiter nach oben skalieren. Fuer Papiertiger investiert heute aber kein IHV mehr irgendwelche resources.

z3ck3
2015-12-11, 08:49:09
AFAIK kam auch der Treiber von IMG. Das IMG nicht selbst herstellt war mir klar, darum habe icht ST genannt.

Ich selbst hab natürlich keine Ahnung welcher Aufwand in der Entwicklung einer GPU steckt. Ich stelle mir aber natürlich, so naiv wie ich bin, das ganze so vor das es modular aufgebaut ist, man also bestimmte Bereiche quasi unendlich in der Breite skalieren kann, einfach indem man diese multipliziert. Das Limit dabei nur die Chipfläche selbst ist. Wenn ich mir die Blockdiagramme von AMD und NV GPUs ansehe, aber auch von AMD und Intel CPUs, dann ähneln die unterschiedlich großen Chips sich ja mehr als nur ein wenig. Wenn man also einen Chip hat der alle Features mitbringt die nötig sind, dann sollte dieser ja in der Breite skalierbar sein. Was dann "nur" noch fehlt ist ein PCB Layout und alles was damit verbunden ist die Grafikkarte herzustellen. Wie Teuer wäre denn die erste Karte in der Klasse einer R9 380X? Sind das Milliarden $ oder eher doch nur ein paar Millionen? Und wie Teuer wäre die Entwicklung des Treibers?


Edit: Wegen der K2 und der GF3. Das war auch eher unfreiwillig, weil damals die Kripo meinen PC eingesammelt hatte... ^^