PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PowerVR - GPU IP


Seiten : [1] 2 3 4 5 6 7

Ailuros
2008-10-09, 12:09:32
http://www.theinquirer.net/gb/inquirer/news/2008/10/08/powervr-531

The upgraded PowerVR core features a wider 128-bit internal system bus, which will feed more data to the core to crunch as well as leaving some headroom for further improvements down the line (more cores?).

POWERVR SGX531 takes the already industry-leading capabilities of POWERVR SGX IP cores to another new level with an upgraded 128-bit internal bus architecture and related enhancements to maximise performance when integrated in the latest SoCs.

http://www.design-reuse.com/news/19256/graphics-ip-core.html

Nun da einige schon wissen was NINTENDO fuer ihre naechste handheld console lizenziert hat, bleibt abzusehen was SONY vorhat.

AMD hat den Markt aufgegeben nachdem sie die Preise bis zum geht nicht mehr reduziert haben um ueberhaupt ein paar Lizenzen zu schnappen und liess dann ihre Partner mit einem einzelnen (und eher verkorksten core der nichtmal OGL_1.1 Tests oder trilinear richtig bearbeiten kann) im Stich. Das andere "Ufer" versucht momentan aggressiv mit beschi***nem marketing und Luegen ein paar Deals zu bekommen, nur leider kommen sie mit dem Unsinn Gott sei Dank nicht besonders weit. Fuer die sich wundern um wen es sich handelt, groesster die size in diesem Markt und einiges wichtiges laeuft mal wieder nicht. Ein "Deal" finanziert alles andere ;)

Gast
2008-10-09, 12:48:44
das hier finde ich fast noch wichtiger:


Imagination Technologies-the leader in mobile and embedded graphics-announces that design wins have been achieved for all announced members of the POWERVR SGX family, comprising the SGX520, SGX530, SGX531, SGX535 and SGX540. The family now ranges from the world’s smallest OpenGL ES 2.0 IP core up to the most powerful shader-based embedded graphics engine.


Link: http://www.imgtec.com/News/Release/index.asp?NewsID=400 [ news vom 7.10.2008 ]

Ist das "most powerful.." incl. ATI's 3200IGP oder nicht? Würde zumindest erklären warum sie plötzlich(?) auch Laptop-grafik anbieten wollen.

Ailuros
2008-10-09, 13:13:32
das hier finde ich fast noch wichtiger:

Ist das "most powerful.." incl. ATI's 3200IGP oder nicht?

Da im Satz "bis zu" steht kann wohl jemand schwer einschaetzen welcher core damit gemeint ist. Ich schaetze da SGX555 nicht mehr erwaehnt wird, dass dieser storniert wurde, ergo wohl irgend etwas in der Art SGX54x. Wie weit so ein Ding reichen koennte keine Ahnung.

Würde zumindest erklären warum sie plötzlich(?) auch Laptop-grafik anbieten wollen.

Poulsbo (integriert in Intel ATOM) basiert auf SGX530 und dient hauptsaechlich fuer UMPCs. U.a. wird das Zeug und Moorestown auch in "mini-Schlepptops" auftauchen. Ob es damit noch aufwaerts gehen wird keine Ahnung. Zumindest SGX545 ist D3D10.1 kompliant und ich wuerde solche cores eher fuer Moorestown/2009 schaetzen.

http://www.imgtec.com/factsheets/intel/Intel_ce3100.pdf

Gast
2008-10-09, 13:18:45
Was hat Nintendo denn lizensiert?

Ailuros
2008-10-09, 13:22:06
Was hat Nintendo denn lizensiert?

Graphics IP fuer ihre naechste handheld console (aber eben nicht von IMG).

AnarchX
2008-10-09, 13:31:40
Was dann wohl NV-IP ein dürfte.
Aber warum sollte Sony dann auf IMG setzen, wenn sie doch schon in der PS3 eine NV-GPU haben und man so wohl Games etwas einfacher portieren/herunterskalieren könnte?

Ailuros
2008-10-09, 13:49:01
Was dann wohl NV-IP ein dürfte.

:eek:

Aber warum sollte Sony dann auf IMG setzen, wenn sie doch schon in der PS3 eine NV-GPU haben und man so wohl Games etwas einfacher portieren/herunterskalieren könnte?

Weil APX2500 erstmal weniger mit RSX gemeinsam hat als Du Dir vorstellen kannst, weil SONY auf ihren high end mobile Geraeten eben kein NV IP integriert hat und trotz allem "Playstation graphics auf handys" versprochen hat und weil SGX wegen seiner sehr hohen Flexibilitaet keine besondere Problem mit Portierungen hat: http://en.wikipedia.org/wiki/Pandora_(console) (siehe auch backwards compatbility to MBX) und natuerlich weil APX in keinem Fall so viel Effizienz pro Watt wie SGX vorzeigen kann.

Das Ding ist ein non unified design und das einzige lahme Argument dass NV momentan hat ist dass "tiling stinkt" (mal ganz frei uebertragen) ;)

VooDoo7mx
2008-10-09, 14:10:21
Gab es nicht schon irgendwann mal ne News das schon fest steht, dass NV das den 3D Chip für den Next Gen PSP macht?

Und hab ich das richtig verstanden, Ailuros, dass Intel Power VR Graphics nicht nur ind er nächsten MID Platform sondern auch bei den Netbooks einsetzt? Endlich fliegt der der alte GMA 950 Müll raus...

Ailuros
2008-10-09, 14:25:17
Gab es nicht schon irgendwann mal ne News das schon fest steht, dass NV das den 3D Chip für den Next Gen PSP macht?

Ich lege meine Hand ins Feuer dass NVIDIA den SONY Deal nicht hat. Und nein ich weiss leider nicht wer ihn hat oder ob SONY ueberhaupt dafuer lizenzieren will. Auf jeden Fall hat IMG die besten Chancen diesen gewonnen zu haben oder ihn noch zu gewinnen.

Und hab ich das richtig verstanden, Ailuros, dass Intel Power VR Graphics nicht nur ind er nächsten MID Platform sondern auch bei den Netbooks einsetzt? Endlich fliegt der der alte GMA 950 Müll raus...

Wenn Du Dich nach so einem Ding umsehen solltest, dann achte darauf dass Intel GMA 500 fuer den graphics core in den Spezifikationen steht. Die Treiber werden aber leider von Intel geliefert, denn aus ihrem eigenen bloeden Grund benutzen sie nicht PowerVR's Referenz-Treiber.

Nightspider
2008-10-09, 14:42:53
Graphics IP fuer ihre naechste handheld console (aber eben nicht von IMG).

Hast du dazu noch nen Link plz bzw. technische Daten (vllt auch im Vergleich zum NDS ?

Ailuros
2008-10-09, 14:58:17
Hast du dazu noch nen Link plz bzw. technische Daten (vllt auch im Vergleich zum NDS ?

Nein. Das Zeug duerfte noch unter NDA liegen.

loewe
2008-10-09, 20:49:25
das hier finde ich fast noch wichtiger:



Link: http://www.imgtec.com/News/Release/index.asp?NewsID=400 [ news vom 7.10.2008 ]

Ist das "most powerful.." incl. ATI's 3200IGP oder nicht? Würde zumindest erklären warum sie plötzlich(?) auch Laptop-grafik anbieten wollen.

Ist nicht so einfach zu beantworten. :)
Ich muss immer noch sagen, dass die Jungs (oder Damen *g*) von ImgTec bisher immer die Wahrheit gesagt haben. Wenn sie sagen "the most powerful...", dann gilt das sicher auch, galt zumindest zu dem Zeitpunkt.

ImgTec hat schon seit einiger Zeit PC immer wieder mit erwähnt, auch wenn wir hier nur von integrierter Grafik sprechen. Wie AiL schon sagt im Moment haben wir da nur Poulsbo, leider noch mit grottigen Intel Treibern, womit das alles noch ein wenig schwach ist.
Links:
http://www.umpcportal.com/2008/08/sx3-unboxing-quick-perf-test/
http://www.pocketables.net/2008/07/review-kohjinsh.html
http://www.pocketables.net/willcom-d4.html

Ich war am 18.9.08 in Kings Langley und habe dort mit einigen Leuten gesprochen und auch die hier aufgeführten Geräte gesehen und mit dem Willcom D4 ein wenig gespielt, dort waren aber die PowerVR Treiber drauf. Sobald ich noch ein paar weitere Antworten haben, kommt noch ein kleiner Artikel auf mitrax.

Nur so als Eindruck und ohne Beleg, PC wird wieder wichtiger werden bei PowerVR, was man auch immer darunter verstehen will. ;)

mekakic
2008-10-10, 08:09:58
Nur so als Eindruck und ohne Beleg, PC wird wieder wichtiger werden bei PowerVR, was man auch immer darunter verstehen will. ;) Das wäre interessant. :)

Gaestle
2008-10-10, 10:51:44
Naja, wenn Intel Larabee in den Markt drückt, wird sich ImgTec wohl nicht mit einem wichtigen Lizenznehmer anlegen. Außerdem dürfte der MArkt nach dem Intel-Eintritt noch heißer werden, als er jetzt schon zwischen NV und ATi ist. Zumal ImgTec das ja wahrscheinlich nicht nötig hat, da sie ja derzeit anscheinend ganz gut fahren und der Anteil integrierter Grafik am Markt ja größer ist als der Anteil der diskreten Grafik.

Gast
2008-10-10, 12:50:36
ich nochmal:

Newsmeldung vom 7.10.08 (siehe 2. posting)


Imagination's partners for POWERVR SGX include Intel, NEC, Renesas, Samsung, Sigma Designs and Texas Instruments as well as a major OEM. POWERVR SGX535 and SGX530 are sampling or in volume production. SGX540 is licensed to more than five partners, and has taped out this quarter in multiple SoCs, while SGX531 and SGX520 are in design with several licensees.


wie gut soll eigentlich der SGX540 sein und für welche "Spielzeuge" ist er gedacht? Schließlich ist der SGX530 doch wohl für alle Handys und PDAs bereits völlig ausreichend. 5 Lizenzen und mehrere Tape-outs in diesem Quartal sind schon bemerkenswert.

loewe
2008-10-10, 20:26:20
Naja, wenn Intel Larabee in den Markt drückt, wird sich ImgTec wohl nicht mit einem wichtigen Lizenznehmer anlegen.

Larabee und alles was ImgTec im Moment tut sind zwei Welten!

ImgTec ist sicher gut für höchste Leistung je Transistor je Watt, aber sicher nicht für Leistung um jeden Preis!

Intels Larabee ist eher letzteres!
Ein guter Bekannter von mir, kennt sich in der Scene ganz gut aus, sagte bzgl. Larabee vor kurzem:
Intel ist eine Firma die alles kann was sie will, wenn sie highend Grafik wollen, dann können sie es, ist nur eine Frage des Preises. Mit Larabee wollen sie es.

ImgTec wird eher dort bleiben wo man richtig viele Cores verkaufen kann, wie ich schon sagte, bestes Produkt bei Leistung je Transistor je Watt.

Ailuros
2008-10-10, 20:33:50
Uebrigens will ich "bezweifeln" dass sie selbst mit Serie6 hoehere Ambitionen haben werden. IMHLO werden sie versuchen den handheld Markt erstmal zu "knacken" und danach kommt der mittlere Schlepptop Markt.

Harold hat zwar die relevante Inquirer Frage elegant beantwortet, aber das Gefuehl dass ich von privaten Gespraechen selber habe ist dass sie sich Schritt fuer Schritt nach oben entwickeln moechten durch die Jahre und es ist auch gut so. Kleine Firmen haben den Luxus nicht grosse Risikos einzugehen und schon gar nicht bei der momentanen finanziellen Krise von der leider auch IMGTec nicht unbetroffen zu sein scheint. Deren Aktie ist ja in letzten Tagen auf 58 pennies gerutscht....

loewe
2008-10-10, 20:35:11
ich nochmal:

Ach Du wieder! :)
wie gut soll eigentlich der SGX540 sein und für welche "Spielzeuge" ist er gedacht? Schließlich ist der SGX530 doch wohl für alle Handys und PDAs bereits völlig ausreichend. 5 Lizenzen und mehrere Tape-outs in diesem Quartal sind schon bemerkenswert.
SGX 545 ist ein DX10.1 Core. SGX 54x ist auf jeden Fall 2xSGX535 in Hardware, wenn nicht mehr. Der Rest ist Takt, k. A. was SGX54x hier erreichen kann.
Ich werde mich in nächster Zeit zur SGX535 Leistung äußern, noch geht es nicht.

Ailuros
2008-10-10, 20:47:28
SGX530 wird wohl eher in high end Handies erscheinen. Das Ding ist ja auch im Pandora handheld integriert (@110MHz) und dafuer voellig ausreichend.

Wenn die ersten 65nm Varianten dann spaeter erscheinen, sollte 200MHz kein Problem sein.

Was ich eigentlich wissen moechte ist ob sie und in welchen Modellen "fast tri TMUs" eingebaut haben. Dinger wie 520 z.B. klingen eher nach "halbe TMU" a la MBX Lite.

Nightspider
2008-10-11, 01:40:02
Mal ne ganz andere Frage:

In wieviel nm wurden denn die NDS und PSP Chips gefertigt?

Vom DS gibts mit dem DSi dann schon den 2. Refresh, allerdings ließt man nicht (auch bei keinem anderen Refreh wie beim GBA zum Refresh) das die Chips in einem kleineren Fertigungsprozess gefertigt wurden.

Dadurch könnte man doch die Laufzeit stark verbessern oder?

Und wie siehts mit der Hintergrundbeleuchtung aus, ob wohl bei der nächsten Generation schon OLED, zumindest als Backlight genutzt wird?

Sry 4 Offtopic

Ailuros
2008-10-11, 09:39:04
Mal ne ganz andere Frage:

In wieviel nm wurden denn die NDS und PSP Chips gefertigt?

Vom DS gibts mit dem DSi dann schon den 2. Refresh, allerdings ließt man nicht (auch bei keinem anderen Refreh wie beim GBA zum Refresh) das die Chips in einem kleineren Fertigungsprozess gefertigt wurden.

Dadurch könnte man doch die Laufzeit stark verbessern oder?

Ich wuerde sagen dass fuer handhelds die gleichen "Regeln" gelten wie fuer Konsolen. Mit der Zeit kommen neue Revisionen der hardware was auch kleinere Herstellungsprozesse bedeuten kann, um die Herstellungskosten weiter zu reduzieren. Ich hab zwar keine Ahnung welche Prozesse fuer die Handhelds in Frage benutzt wurden, aber kleiner als 90nm momentan wuerde ich bezweifeln (kann aber auch total daneben liegen).

Und wie siehts mit der Hintergrundbeleuchtung aus, ob wohl bei der nächsten Generation schon OLED, zumindest als Backlight genutzt wird?


Da ich die ersten handhelds der naechsten Generation nicht vor H2 2009 erwarte, bestehen zwar Chancen fuer OLEDs, klingt aber trotzdem etwas frueh.

loewe
2008-10-11, 19:45:18
SGX530 wird wohl eher in high end Handies erscheinen. Das Ding ist ja auch im Pandora handheld integriert (@110MHz) und dafuer voellig ausreichend.

Wenn die ersten 65nm Varianten dann spaeter erscheinen, sollte 200MHz kein Problem sein.

Was ich eigentlich wissen moechte ist ob sie und in welchen Modellen "fast tri TMUs" eingebaut haben. Dinger wie 520 z.B. klingen eher nach "halbe TMU" a la MBX Lite.

Poulsbo ist ja noch in 90nm gefertigt, aber der dortige SGX535 läuft mit 200 MHz, zumindest in den beiden "großen" Varianten.

Nunja, SGX520 hat wohl eine TMU, aber eben wie der SGX530/535 eine TMU!
Das ist aber soweit erst einmal gegenstandslos, da OMAP3 ja den SGX530 verwendet und damit eigentlich klar ist, was die die high end Handies verwenden werden, eben doch eher den 530.
Leider ist der 535 mit nur einer TMU doch etwas schwach und kann somit in integrierter Grafik nicht wirklich viel bewirken, ich hoffe da auf 545 und die nächsten Produkte. :)

Ailuros
2008-10-12, 09:03:42
Nunja, SGX520 hat wohl eine TMU, aber eben wie der SGX530/535 eine TMU!

However it comes at a performance cost: Whenever two mipmap levels need to be blended together the texture unit needs an additional cycle to fetch and filter the required data. In the worst case, trilinear filtering achieves half the texturing performance compared to bilinear filtering. If you are using complex math-heavy shaders however, the texture unit may have cycles to spare and you can get trilinear filtering for a low bandwidth cost.

Dependent reads require two USSE cycles. SGX variants with an equal number of USSE and texture units may therefore be USSE limited when performing dependent reads. In this case the processing cost of trilinear filtering can be masked most of the time.

Ich hab das Gefuehl dass dieses eher fuer die kleinen SGX Modelle gilt, denn ich kann mir schwer vorstellen dass alle SGX Varianten praktisch 2Texels/clock. Es wird wohl eher so aussehen wie auf MBX vs. MBXLite (1Texel/clock vs. 2 Texels/clock).

Unter dem Sinn macht es womoeglich schon einen Unterschied zwischen 1 TMU@SGX520 und 1 TMU@SGX530.

Das ist aber soweit erst einmal gegenstandslos, da OMAP3 ja den SGX530 verwendet und damit eigentlich klar ist, was die die high end Handies verwenden werden, eben doch eher den 530.
Leider ist der 535 mit nur einer TMU doch etwas schwach und kann somit in integrierter Grafik nicht wirklich viel bewirken, ich hoffe da auf 545 und die nächsten Produkte. :)

Ich kann mir leicht vorstellen dass TI und andere noch mit einem kleineren SoC bzw. integrierter Grafik nachladen, da IMG offensichtlich mit der "Mitte" angefangen hat. An 520/531 wird gerade gearbeitet und es bleibt noch den wahren 555 Ersatz anzukuendigen ;)

loewe
2008-10-12, 18:57:39
Ich hab das Gefuehl dass dieses eher fuer die kleinen SGX Modelle gilt, denn ich kann mir schwer vorstellen dass alle SGX Varianten praktisch 2Texels/clock. Es wird wohl eher so aussehen wie auf MBX vs. MBXLite (1Texel/clock vs. 2 Texels/clock).
Unter dem Sinn macht es womoeglich schon einen Unterschied zwischen 1 TMU@SGX520 und 1 TMU@SGX530.
Ich kann bisher nicht beurteilen ob sich die TMUs der einzelnen SGX Varianten unterscheiden, es ist aber durchaus möglich und auch wahrscheinlich.
Es ändert aber nichts daran, das AFAIK der SGX353 nur eine einzige TMU besitzt und somit seine Texle-Füllrate nur 0.5x Pixel-Füllrate beträgt und das gilt AFAIK auch schon für bilinear gefilterte Texel.
Ich kann mir leicht vorstellen dass TI und andere noch mit einem kleineren SoC bzw. integrierter Grafik nachladen, da IMG offensichtlich mit der "Mitte" angefangen hat. An 520/531 wird gerade gearbeitet und es bleibt noch den wahren 555 Ersatz anzukuendigen ;)
Schon möglich das noch was kleineres kommt von TI und anderen, sicher bin ich da aber nicht. Es hört sich eher so an, als ob man mehr Leistung haben will als weniger, natürlich ohne höheren Verbrauch! :)
Bzgl. SGX555 sagen die Gerüchte das er wegen zu geringer Leistung eingestellt wurde. Wer auch immer eine Grafik auf höherem Niveau haben wollte, es sollte mehr als SGX555 werden. Ist aber nur ein Gerücht! :)

robbitop@work
2008-10-13, 10:48:02
@loewe

War Poulsbo nicht mit 130 nm gefertigt? Mir war auch so. als hätte SGX530 2x TMUs und SGX54x 4x TMUs und SGX555 8x TMUs.

@AiL
Die SoCs in der PSP-2000 (slim and light) sind m.W. in 65 nm gefertigt.

Für die PSP2 wäre ein SGX545 ein hervoragender Untersatz. Schließlich braucht es auch ein bisschen Grafikleistung, um einen ~800x480 px TFT (Vermutung) zu befeuern. Dazu würden sich 2x Cortex A9 hervorragend eignen. Zu 2011 wird diese ja vermutet. Bis dahin sollte irgendwas um 40 - 32 nm genutzt werden. Das sollte dann auch zu brauchbaren Taktraten und Akkulaufzeiten führen.

Theoretisch müsste das Teil dann rund 1 GTex/s, >20 GiB/s Framebufferbandbreite, > 5 GiB/s RAM Bandbreite, > 256 MiB RAM, 4.000 DMIPS/s.

Damit sollte grafisch, sofern ein Exklusivtitel mit anständiger hardwarenaher Optimierung, in etwa FarCry Niveau erreicht werden können.

loewe
2008-10-13, 12:48:45
@loewe

War Poulsbo nicht mit 130 nm gefertigt? Mir war auch so. als hätte SGX530 2x TMUs und SGX54x 4x TMUs und SGX555 8x TMUs.


Oh, mein Fehler, natürlich ist Poulsbo in 130nm gefertigt.

SGX53x hat zwei Pipes, SGX54x hat vier und SGX555 sollte 8 Pipes haben. Daraus kennst du nur die mögliche Füllrate, bzgl. den TMUs ist da nie etwas gesagt worden. Aber nun höre ich, dass der SGX535 nur eine TMU hat, was dann sicher auch für den SGX530 gelten wird, was bei SGX54x ist kann ich nicht sagen.

robbitop@work
2008-10-13, 14:38:51
Aber nun höre ich, dass der SGX535 nur eine TMU hat, was dann sicher auch für den SGX530 gelten wird, was bei SGX54x ist kann ich nicht sagen.
Ist das sicher? Für SGX520 hätte ich 1x TMU erwartet.
Ich schloss auf die TMU Anzahl von den Füllratenangaben. IMG hat irgendwo mal was von bis zu 1,2 GTex/s für die SGX Familie angegeben.

Ailuros
2008-10-13, 14:44:32
Bzgl. SGX555 sagen die Gerüchte das er wegen zu geringer Leistung eingestellt wurde. Wer auch immer eine Grafik auf höherem Niveau haben wollte, es sollte mehr als SGX555 werden. Ist aber nur ein Gerücht! :)

IMHO nicht unbedingt mehr Einheiten; hoehere Effizienz wie beim SGX531 vs. 530 dann vielleicht schon.


@AiL
Die SoCs in der PSP-2000 (slim and light) sind m.W. in 65 nm gefertigt.

Nicht schlecht; wundert mich aber auch besonders nicht da es sich ja nicht streng um eine "echte" Grafikeinheit handelt *hust*

Für die PSP2 wäre ein SGX545 ein hervoragender Untersatz. Schließlich braucht es auch ein bisschen Grafikleistung, um einen ~800x480 px TFT (Vermutung) zu befeuern. Dazu würden sich 2x Cortex A9 hervorragend eignen. Zu 2011 wird diese ja vermutet. Bis dahin sollte irgendwas um 40 - 32 nm genutzt werden. Das sollte dann auch zu brauchbaren Taktraten und Akkulaufzeiten führen.

Ein 545 waere zu wenig IMHLO wenn man die Konkurrenz tatsaechlich im Staub stehen lassen will. Ich wuerde eher an etwas kompetenteres denken. Handhelds muessen auch wie Konsolen etliche Jahre halten koennen; je kompetenter desto laenger haelt dann das Ding auch.

Ist das sicher? Für SGX520 hätte ich 1x TMU erwartet.

Wenn 520 vs. 53x die gleiche Logik wie MBX Lite vs. MBX verfolgt dann 520 = 2 Texels/clock vs. 53x = 1 Texel/clock.

Eine MBX@100MHz kann sich locker mit Dreamcast schlagen; ein MBX Lite dann eben nicht.

Ich schloss auf die TMU Anzahl von den Füllratenangaben. IMG hat irgendwo mal was von bis zu 1,2 GTex/s für die SGX Familie angegeben.

Da SGX555 ihre groesste Variante war, waere das Ding 20.3mm^2@65nm gewesen. Bei 200MHz soll dieses 100M Tris/s und 4.0 MTexels/s schaffen bei <50% shader load. Erstens ist die Dreieckrate verdammt realistisch hier angelegt da es sich wohl eher um einen 1 Tri/clock triangle setup handelt und zweitens ist die Fuellrate selbst mit 2.5x Overdraw ebenso konservativ angegeben.

Mir persoenlich ist aber wichtiger festzustellen ob sie "fast tri TMUs" fuer die groesseren Modelle benutzt haben oder nicht. Wenn ja kann man dann Gott sei Dank um einiges einfacher AF benutzen, denn selbst 2xAF stosst jeden MBX zum Selbstmord. Eigentlich sind ja IMHLO die TMUs auf MBX das einzige was es von Serie3 geerbt hat.

robbitop@work
2008-10-13, 15:32:16
Nicht schlecht; wundert mich aber auch besonders nicht da es sich ja nicht streng um eine "echte" Grafikeinheit handelt *hust*
Wieso keine echte Grafikeinheit? Das Ding hat eine TnL Unit, ein Trisetup, TMUs, Combiner und ROPs. Die TMUs sind aber glaube ich keine Bi-TMUs. Davon hat das Teil übrigens 4x.



Ein 545 waere zu wenig IMHLO wenn man die Konkurrenz tatsaechlich im Staub stehen lassen will. Ich wuerde eher an etwas kompetenteres denken. Handhelds muessen auch wie Konsolen etliche Jahre halten koennen; je kompetenter desto laenger haelt dann das Ding auch.
Ich weiß nicht, was genau unter der Haube von SGX545 steckt. Ich hätte auf 4x TMUs getippt und 8x von diesen USSEs. Was genau die pro Takt und Einheit schaffen, ist mir allerdings unklar.



Wenn 520 vs. 53x die gleiche Logik wie MBX Lite vs. MBX verfolgt dann 520 = 2 Texels/clock vs. 53x = 1 Texel/clock.
Du meinst SGX520 = 0,5 Tex/cl und SGX530 = 1 Tex/cl?



Da SGX555 ihre groesste Variante war, waere das Ding 20.3mm^2@65nm gewesen. Bei 200MHz soll dieses 100M Tris/s und 4.0 MTexels/s schaffen bei <50% shader load. Erstens ist die Dreieckrate verdammt realistisch hier angelegt da es sich wohl eher um einen 1 Tri/clock triangle setup handelt und zweitens ist die Fuellrate selbst mit 2.5x Overdraw ebenso konservativ angegeben.
Klingt nach 8 TMUs. Ich glaube das wäre selbst mit 32 nm fast zu viel für einen Handheld. Bei einem idealen Shrink wären es ~ 5 mm^2.

Mir persoenlich ist aber wichtiger festzustellen ob sie "fast tri TMUs" fuer die groesseren Modelle benutzt haben oder nicht. Wenn ja kann man dann Gott sei Dank um einiges einfacher AF benutzen, denn selbst 2xAF stosst jeden MBX zum Selbstmord. Eigentlich sind ja IMHLO die TMUs auf MBX das einzige was es von Serie3 geerbt hat.
Du meinst 2x Filtereinheiten pro Adressiereinheit? Wenn du an die Fast-TMUs vom DeltaChrome denkst, (das war ein Marketingterm) dann funktionieren die etwas anders. Die können auch wirklich nur Trilinear ohne AF in einem Takt arbeiten.
Ich glaube allerdings nicht, dass sie weder die eine noch die andere Umsetzung in eine Handheld-GPU einbauen. Für AF schmeisst man in so einem Gerät bestimmt nicht Millionen Transistoren raus.
AF wird also soviel kosten, wie es das fast immer tat. Allerdings würde ein "optimiertes" 2xbri-AF (evtl mit starker Winkelabhängigkeit) für einen Handheld
genügen. Spart ausserdem nochmal ordentlich Transistoren für die LoA Logik.

War denn im MBX eine quasi-winkelunabhängige AF-Implementation enthalten? Würde mich aus Gründen des Transistorbudgets jedenfalls wundern.

Ailuros
2008-10-13, 16:16:30
Ich weiß nicht, was genau unter der Haube von SGX545 steckt. Ich hätte auf 4x TMUs getippt und 8x von diesen USSEs. Was genau die pro Takt und Einheit schaffen, ist mir allerdings unklar.

Wenn ich genau wuesste fuer welche Maerkte SGX54x gedacht ist, waere es leichter die Anzahl der TMUs einzuschaetzen.



Du meinst SGX520 = 0,5 Tex/cl und SGX530 = 1 Tex/cl?

Warum nicht? Ist bei MBX Lite vs. MBX genauso.



Klingt nach 8 TMUs. Ich glaube das wäre selbst mit 32 nm fast zu viel für einen Handheld. Bei einem idealen Shrink wären es ~ 5 mm^2.

Ja 8 TMUs * 200MHz * 2.5x Overdraw. "Fast zu viel" in die Groesse aber es wuerde die Konkurrenz auch um "fast zu viel" aufraeumen LOL.

Spass beiseite wenn sie den 555-Ersatz ankuendigen finden wir vielleicht heraus um was es sich moeglicherweise handeln koennte. Ein hypothetischer 555 der 2009 fertig gewesen waere und die Integration dann irgendwo in 2010 stattgefunden haette ist selbst im Vergleich zu den 2010 IGPs ziemlich mager.


Du meinst 2x Filtereinheiten pro Adressiereinheit? Wenn du an die Fast-TMUs vom DeltaChrome denkst, (das war ein Marketingterm) dann funktionieren die etwas anders. Die können auch wirklich nur Trilinear ohne AF in einem Takt arbeiten.
Ich glaube allerdings nicht, dass sie weder die eine noch die andere Umsetzung in eine Handheld-GPU einbauen. Für AF schmeisst man in so einem Gerät bestimmt nicht Millionen Transistoren raus.

Q9: Is there any significant advancement in the texture filtering department of PowerVR SGX compared to PowerVR MBX? Although the latter supports anisotropic filtering, considering the limited die space I don't expect much in the way of performance from it; was the integration of a fast adaptive anisotropic filtering possible with this new architecture?

Indeed - off the top of my head I know that trilinear performance in PowerVR SGX is up to 2x MBX... Certainly the performance level makes the feature practical to use - otherwise we'd save the silicon area entirely and just leave it out!

http://web.archive.org/web/20060322153222/www.pvrgenerations.co.uk/cgi-bin/viewarticle.cgi?page=/articles/2005/pvrsgx/pvrsgx&printer=0&pagenum=2


AF wird also soviel kosten, wie es das fast immer tat. Allerdings würde ein "optimiertes" 2xbri-AF (evtl mit starker Winkelabhängigkeit) für einen Handheld
genügen. Spart ausserdem nochmal ordentlich Transistoren für die LoA Logik.

IMHLO =/>Serie4 (-MBX) fast trilinear a la KYRO von S3TC auf alle Textur-formate erweitert und nein das AF duerfte nicht winkel-abhaengig sein.

War denn im MBX eine quasi-winkelunabhängige AF-Implementation enthalten? Würde mich aus Gründen des Transistorbudgets jedenfalls wundern.

IMHLO das gleiche 2xAF wie auf KYRO. Auf KYRO frass es unheimlich in die Leistung. Es wuerde mehr Sinn machen auf MBX gleich 2x vertikales OGSS zu benutzen.

loewe
2008-10-13, 20:30:07
Ist das sicher? Für SGX520 hätte ich 1x TMU erwartet.
Ich schloss auf die TMU Anzahl von den Füllratenangaben. IMG hat irgendwo mal was von bis zu 1,2 GTex/s für die SGX Familie angegeben.

Was ist schon sicher? ;)
siehe 3DMark03 (http://www.pocketables.net/2008/07/review-kohjinsh.html)

Ich erwarte für SGX520 auch immer noch 1xTMU bei 2USSEs, bin da aber nicht sicher.

Ich hatte vor einiger Zeit einmal genau so einen Schluss über alle SGX Versionen versucht und dann darüber mit Leuten gesprochen, die es wissen müssen. :) Das erste was kam war der Hinweis, dass die Versionen nicht so einfach auf einander aufbauen. Es ist halt SGX53x nicht automatisch zweimal SGX520 usw.. Da gibt es durchaus weitere Unterschiede, je nach Einsatzgebiet. Somit kann SGX545 auch durchaus wesentlich leistungsfähiger sein, als z.B. 2x SGX535. Auch bzgl. der Chipfläche und somit Transistorzahl gibt es hier keinen einfachen Zusammenhang.

Wie auch immer, das wird sich alles bald klären.

robbitop
2008-10-13, 22:01:48
@Ail

das klingt in der Tat nach Tri-TMUs. Aber, ob diese auch 2xbiAF in einem Takt können, ist die andere Frage. Ich vermute eher DeltaChrome-artige TMUs.

Ailuros
2008-10-14, 09:34:02
@Ail

das klingt in der Tat nach Tri-TMUs. Aber, ob diese auch 2xbiAF in einem Takt können, ist die andere Frage. Ich vermute eher DeltaChrome-artige TMUs.

Fast tri TMUs duerften zwar nicht billiger sein als bi-TMUs, aber trotzdem um einiges billiger als tri-TMUs.

Jedoch wenn ich mich nicht irre kann MBX Lite nur 1/4 der Pixel (bei max Overdraw) bearbeiten als MBX und es kann durchaus sein dass sich die gleich Masche in low-end SGX Varianten wiederholt.

Loewe,

Die Resultate sind doch von dem miesen Intel Treiber oder nicht?

Uebrigens kann es eigentlich sein dass SGX530 1 TMU und 535 dann 2 TMUs hat? Wenn jegliche 53x nur eine TMU hat und 54x 4 haben sollte, ist der Unterschied zwischen den beiden ziemlich gross.

loewe
2008-10-14, 17:53:13
Loewe,

Die Resultate sind doch von dem miesen Intel Treiber oder nicht?

Ja, aber ...! ;)
Uebrigens kann es eigentlich sein dass SGX530 1 TMU und 535 dann 2 TMUs hat? Wenn jegliche 53x nur eine TMU hat und 54x 4 haben sollte, ist der Unterschied zwischen den beiden ziemlich gross.
Nein die Aussage bezog sich eindeutig auf ein Menlow System, also SGX535.

Das ist ja das was ich andeuten will, die Unterschiede zwischen den einzelnen SGX Versionen können durchaus wesentlich größer sein, also wir es angenommen haben. :)

Ailuros
2008-10-16, 09:56:33
Nun dann will ich hoffen dass SGX54x nicht nur 2 TMUs hat.

Gast
2008-11-15, 13:08:32
Lastly, the Inspiron Mini 12 uses the Intel SCH US15W chipset with Intel GMA 500 integrated graphics, which also seems to be a first for netbooks. The US15W chipset has a low system TDP of just 4.3-watts, however the chipset is limited to just 1 GB of RAM. For those hoping they could upgrade the amount of memory are out of luck it seems, which is rather disappointing considering that Windows Vista really likes as much memory as it can get. The Intel GMA 500 graphics solution uses the PowerVR SGX core licensed from Imagination Technologies and it will provide hardware video acceleration and Direct3D 10.1 support.
http://www.tomsguide.com/us/dell-inspiron-mini-12-netbook,news-2841.html

http://ark.intel.com/chipset.aspx?familyID=35443

mfg up

AnarchX
2008-11-15, 13:28:38
Poulsbo ist imo doch im Endeffekt ziemlich langweillig:
- Treiber kommen von Intel
- max. 1GiB RAM
- 4.3W TDP vs 5.5W beim 945GSE

Gast
2008-11-15, 14:44:40
wobei doch der GSE in 65nm (?) gefertigt ist?

loewe
2008-11-15, 19:09:27
Poulsbo ist imo doch im Endeffekt ziemlich langweillig:
- Treiber kommen von Intel
- max. 1GiB RAM
- 4.3W TDP vs 5.5W beim 945GSE

langweilig ist zwar weitgehend richtig, aber

1. Treiber kommen zwar von intel, können aber noch besser werden! :)
Ich hab ihn mit den PowerVR Treibern laufen sehen, das sieht da schon ganz anders aus.

2. max. 1 GiB RAM ist eine Falschaussage, er untertstützt 2 GiB RAM, guckst Du hier: http://download.intel.com/design/chipsets/embedded/specupdt/319538.pdf

3. intel gibt im oberen Dokument die TDP mit 2.3W an, siehe S.12 im oberen Dokument.

4. Der Poulsbo unterstützt nur DX9, was die DX10.1 Aussage soll ist mir hier auch nicht klar.

AnarchX
2008-11-15, 19:12:10
Wenn man Intels Chipset-Seite glaubt dann hat Poulsbo ja auch nur einen RAMDAC.

haifisch1896
2008-11-15, 19:28:10
4. Der Poulsbo unterstützt nur DX9, was die DX10.1 Aussage soll ist mir hier auch nicht klar.

Ob es möglich ist, bestimmte Shader über den Treiber in Software zu berechnen, um so ein höheres Tech-Level vorzugaukeln?

AnarchX
2008-11-15, 19:44:12
Ob es möglich ist, bestimmte Shader über den Treiber in Software zu berechnen, um so ein höheres Tech-Level vorzugaukeln?
Macht keinen Sinn, da man hier dann SPF hat.

Ailuros
2008-11-17, 10:42:18
Ob es möglich ist, bestimmte Shader über den Treiber in Software zu berechnen, um so ein höheres Tech-Level vorzugaukeln?

Es heisst lediglich dass es nicht nur eine Variante unter "Poulsbo" geben wird.

-----------------------------------------------------------------

Wen die ganze Tungsten Treiber Affaere interessiert, kann er sich diesen Thread durchlesen:

http://forum.beyond3d.com/showthread.php?t=50430

....und es hat natuerlich nichts mit dem obrigen zu tun. Es ist dennoch Tatsache dass die ATOM SGX cores gewaltig von den Tungsten Treibern an Leistung kastriert werden, weil die letzteren dummerweise nur sw vertex processing verwenden.

---------------------------------------------------------------

Generell obwohl es bis jetzt Zweifel gab, so schlecht entwickelt sich die ganze Geschichte um Apple's iPod nun auch wieder nicht. Es gibt tatsaechlich Interesse auch fuer Spiele auf diesen Geraeten was ich persoenlich zu diesem Mass nicht erwartet haette.

Nebenbei wird es wohl in naechster Zeit Ankuendigungen seitens IMG geben, die diesen Thread wieder richtig aufwaermen koennten. Ihr naechstes Ziel ist den wahren handheld gaming Markt zu knacken und dann wird im Laufe des naechsten Jahres auch fuer diverse Schlepptops mit groesseren Cores skaliert.

Die Anzahl der Lizenzen fuer SGX kann man heutzutage leicht mit der Masse von MBX vergleichen. Da anscheinend noch einige wichtige Lizenzen angekuendigt werden, wird man bald sagen koennen dass SGX mit sogar groesserem Aussmass den Kleinkram Markt wieder aufgeraeumt hat. AMD ist weg vom Fenster, ARM verschenkt mit jeder Prozessoren-Lizenz auch einen Mali damit sie die Dinger auch endlich loswerden und NVIDIA hat einen non-unified core der sich bestenfalls mit SGX530 messen koennte bei aber um einiges groesserem die-size.

Ailuros
2008-11-24, 14:11:11
http://www.imgtec.com/News/Release/index.asp?NewsID=412

Ich weiss zwar nicht mit Sicherheit wer es sein koennte, aber SONY klingt nach dem moeglichsten Kandidaten fuer den handheld gaming Markt.

Spasstiger
2008-11-24, 14:22:35
Gibt schon Benchmarks vom GMA 500 im Vergleich zum GMA 950?

Ailuros
2008-11-24, 15:15:30
Gibt schon Benchmarks vom GMA 500 im Vergleich zum GMA 950?

GMA950 gehoert doch zur PS2.0-no geometry processing unit Familie oder? Ab GMA X3100 bis zu X4x00 handelt es sich um D3D10 IGPs.

GMA 500 in seiner heutigen Form ist ohnehin zu schwach fuer ein normales Laptop z.B.

Spasstiger
2008-11-24, 15:29:34
GMA950 gehoert doch zur PS2.0-no geometry processing unit Familie oder? Ab GMA X3100 bis zu X4x00 handelt es sich um D3D10 IGPs.
Mir gehts nicht um DX10.
Mir gehts um einen Vergleich, wo ein Vergleich möglich ist, d.h. unter DX9 mit Shader Model 2.0.
Der GMA 500 hat zwar deutlich weniger Pixel- und Texelfüllrate, aber vielleicht geben ja die Hardware-Vertex-Shader-Einheiten den Ausschlag.

Es sieht ja momentan so aus, dass man Netbooks mit Poulsbo-Chipsatz und damit dem GMA 500 und Netbooks mit dem GMA 950 kaufen kann. Mal abgesehen von der vorhandenen Stromsparfunktion, der geringeren TDP und dem höheren Preis bei Poulsbo + Silverthorne könnte ja auch die Performance des onboard-Grafik ausschlaggebend für den Kauf sein.

Ailuros
2008-11-24, 15:45:29
Mir gehts nicht um DX10.
Mir gehts um einen Vergleich, wo ein Vergleich möglich ist, d.h. unter DX9 mit Shader Model 2.0.
Der GMA 500 hat zwar deutlich weniger Pixel- und Texelfüllrate, aber vielleicht geben ja die Hardware-Vertex-Shader-Einheiten den Ausschlag.

Es sieht ja momentan so aus, dass man Netbooks mit Poulsbo-Chipsatz und damit dem GMA 500 und Netbooks mit dem GMA 950 kaufen kann. Mal abgesehen von der vorhandenen Stromsparfunktion, der geringeren TDP und dem höheren Preis bei Poulsbo + Silverthorne könnte ja auch die Performance des onboard-Grafik ausschlaggebend für den Kauf sein.

Wie schon weiter oben erwaehnt, Tungsten graphics die die Treiber fuer Intel schreiben fuer GMA 500 haben daemlicherweise immer noch nicht richtig den core angesprochen und es wird momentan leider nur software vertex processing benutzt.

Aendert sich jetzt etwas in absehbarer Zukunft mit den Treibern sind es dann ungefaehr 10M Tris/s fuer GMA500 bei <50% shader load und alles >SM3.0 fuer pixel shader gegen PS2.0 und software geometry processing fuer GMA950.

loewe
2008-11-24, 19:47:07
Es sieht ja momentan so aus, dass man Netbooks mit Poulsbo-Chipsatz und damit dem GMA 500 und Netbooks mit dem GMA 950 kaufen kann. Mal abgesehen von der vorhandenen Stromsparfunktion, der geringeren TDP und dem höheren Preis bei Poulsbo + Silverthorne könnte ja auch die Performance des onboard-Grafik ausschlaggebend für den Kauf sein.

Wie AiL schon sagte, es gibt bisher keine verwendbaren Ergebnisse des GMA500. Alles was bisher auf dem Markt ist verwendet die völlig grottigen intel Treiber, welche bisher OGL in Hardware gar nicht und D3D so gut wie nicht unterstützen.
Ich habe im September in Kings Langley Geräte mit Poulsbo gesehen und ein wenig damit gespielt, dort war aber der PowerVR Treiber drauf.
Ich denke nach wie vor das der GMA500 dem GMA950 vor zu ziehen ist. Der Poulsbo verbraucht weniger, hat die bessere Grafik und die viel besseren Video Fähigkeiten.

robbitop@work
2008-11-27, 12:47:36
Hier wird der Deal mit Sony immerhin schon von einer anderen Quelle als AiL genannt:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10653&Itemid=1

Es wird offenbar ein SGX555 verbaut. Das Ding hat ordentlich bums. Dann können wir uns schonmal auf Far Cry ähnliches Grafikniveau bei der PSP2 einstellen, sofern man die Hardware ausnutzt. Natürlich etwas abgespeckt. Aber IMO ist das drin. Mein Tipp bleibt weiterhin der Cortex A9 als CPU in einer MPCore Version mit FPU und SIMD-ALU. Zumindest auf einem der beiden Kerne. Dazu sollten es IMO >= 256 MiB RAM werden.

loewe
2008-11-27, 14:26:08
Es wird offenbar ein SGX555 verbaut. Das Ding hat ordentlich bums. Dann können wir uns schonmal auf Far Cry ähnliches Grafikniveau bei der PSP2 einstellen, sofern man die Hardware ausnutzt. Natürlich etwas abgespeckt. Aber IMO ist das drin. Mein Tipp bleibt weiterhin der Cortex A9 als CPU in einer MPCore Version mit FPU und SIMD-ALU. Zumindest auf einem der beiden Kerne. Dazu sollten es IMO >= 256 MiB RAM werden.

Es wird dort kein SGX55x verbaut werden. Es wird den SGX55x so nicht geben, er ist nicht mehr in der Roadmap. Der größte SGX der fünfer Serie ist der 54x, ich denke aber nicht das das für eine PSP2 reichen wird, außerdem spricht imgtec ja selbst von einem neuen Chip. Damit kann es dann nur ein Chip der nächsten Generation sein, wie schon gesagt Serie 6. :)

Nakai
2008-11-27, 16:36:23
Mit welche Grafik wäre ein SGX545 oder 555 vergleichbar gewesen?
Ich kann mir bei dem Ding nichts vorstellen.


mfg Nakai

robbitop@work
2008-11-27, 17:03:00
Es wird dort kein SGX55x verbaut werden. Es wird den SGX55x so nicht geben, er ist nicht mehr in der Roadmap. Der größte SGX der fünfer Serie ist der 54x, ich denke aber nicht das das für eine PSP2 reichen wird, außerdem spricht imgtec ja selbst von einem neuen Chip. Damit kann es dann nur ein Chip der nächsten Generation sein, wie schon gesagt Serie 6. :)
Vieleicht nannte man den nur um? Oder es ist ist nicht direkt SGX555 sondern eine speziell skalierte SGX5x5 für Sony. Wer weiß das schon? SGX5x5 ist ja bereits auf D3D10.1 Level. Das ist mehr als ausreichend. SGX5x0 hätte sogar gereicht. Nun gilt es, die Funktionseinheiten zu skalieren, um auch ordentlich Leistung heraus zu bekommen. Alles andere als ein SGX5x5 würde mich stark wundern. Die Architektur ist fertig, ausgereift und nun mittlerweile auch seit kurzem in Geräten auf dem Markt sporadisch erhältlich. Nun könnte man die kommenden Shrinks (auf 32 nm bsw) nutzen, um eine Version mit 8x TMUs auf Handheldlevel zu bändigen. Ich sehe keinen Benefit von einer Serie 6 GPU. Mehr Features kosten bei gleicher Leistung nur mehr Transistoren.

robbitop@work
2008-11-27, 17:15:37
@loewe

bisher sprechen alle Indizien für SGX:


According to sources today's announcement by Imagination is for an upgrade to the Sony PSP2 and the SGX core is expected to be the SGX55x.
http://www.eetimes.com/news/latest/showArticle.jhtml?articleID=212200099


24.November 2008
...
Imagination Technologies Group plc (LSE: IMG; "Imagination") - a leader in System-on-Chip Intellectual Property ("SoC IP") - reports that it has signed a license agreement with a new partner, a major international consumer electronics company, for a high-performance forthcoming member of Imagination's POWERVR SGX graphics processor family.
http://www.imgtec.com/News/Release/index.asp?NewsID=412

Ailuros
2008-11-27, 17:37:42
Es wird dort kein SGX55x verbaut werden. Es wird den SGX55x so nicht geben, er ist nicht mehr in der Roadmap. Der größte SGX der fünfer Serie ist der 54x, ich denke aber nicht das das für eine PSP2 reichen wird, außerdem spricht imgtec ja selbst von einem neuen Chip. Damit kann es dann nur ein Chip der nächsten Generation sein, wie schon gesagt Serie 6. :)

Ich bin mir zwar nicht sicher, aber ich hab das Gefuehl dass SGX555 storniert und mit etwas anderem ersetzt wurde, der nach deren Angabe mehr Sinn fuer das was ihre Partner brauchten machen wuerde. Ich moechte ja gern positiv ueberrascht werden, aber es klang mir eher nach einem SGX55x.

***edit: steht doch eigentlich klar in der IMG Ankuendigung drin:

Imagination Technologies Group plc (LSE: IMG; "Imagination") - a leader in System-on-Chip Intellectual Property ("SoC IP") - reports that it has signed a license agreement with a new partner, a major international consumer electronics company, for a high-performance forthcoming member of Imagination's POWERVR SGX graphics processor family.

Serie6 wird wohl nicht "SGX" heissen und unter normalen Umstaenden machen sie auch keine Fehler bei so wichtigen Ankuendigungen. ***/edit.

Die eigentliche Frage ist ob das Resultat staerker oder schwaecher als 555 am Ende ist.

Mit welche Grafik wäre ein SGX545 oder 555 vergleichbar gewesen?
Ich kann mir bei dem Ding nichts vorstellen.

SGX555 war nach IMG's Angaben ein core der 20.3mm^2@65nm gross war und bei 200MHz und <50% satte 100M Tris/s und 4000MPixels/s (inkl. Overdraw) erreichen konnte.

robbi,

Vieleicht nannte man den nur um?

Nein. SGX555 wurde storniert. IMG hat mit Absicht noch nichts relevantes angekuendigt. Wie das Resultat aussehen koennte keine Ahnung.

Oder es ist ist nicht direkt SGX555 sondern eine speziell skalierte SGX5x5 für Sony. Wer weiß das schon?

So wie ich es verstanden habe handelt es sich tatsaechlich um einen angepassten core fuer handhelds.


SGX5x5 ist ja bereits auf D3D10.1 Level. Das ist mehr als ausreichend. SGX5x0 hätte sogar gereicht.

555 war >4.1.

Nun gilt es, die Funktionseinheiten zu skalieren, um auch ordentlich Leistung heraus zu bekommen. Alles andere als ein SGX5x5 würde mich stark wundern. Die Architektur ist fertig, ausgereift und nun mittlerweile auch seit kurzem in Geräten auf dem Markt sporadisch erhältlich. Nun könnte man die kommenden Shrinks (auf 32 nm bsw) nutzen, um eine Version mit 8x TMUs auf Handheldlevel zu bändigen.

Wo immer eine "0" am Ende ein 1:2 ALU:TMU Verhaeltnis und wo immer eine "5" ein 1:1 Verhaeltnis. Fall 1 ist ein balancierterer Design.

Wenn das Resultat irgendwo ab H2 2009 kommen sollte, dann waere 45nm sinnvoller. Wenn jetzt SONY nicht mehr "die area" fuer Grafik als im PSP verschwenden wird, schaetze ich dass sie sich vielleicht maximal um die 10 Quadratmillimeter bewegen koennten. Das Ding sollte uebrigens nicht endlos Strom verbrauchen und einige Zeit dem Spieler mit der Batterie bereitstellen koennen. Nimm aber bloss meine eigene laienhafte Schaetzungen nicht ernst.

Ich sehe keinen Benefit von einer Serie 6 GPU. Mehr Features kosten bei gleicher Leistung nur mehr Transistoren.

IMG gibt leider keine die Groessen fuer MBX mehr an, aber nur mal ganz schnell alles unter 65nm und 200MHz:

MBX=
3.4 - 7.4 M Tris/sec
270 - 600 M Pixels/sec

SGX=
7.0 - 40 M Tris/sec
250 - 1000 M Pixels/sec
2.6 - 12.5mm^2

Natuerlich duerfte der groesste MBX nicht so gross wie SGX545 (12.5mm^2) sein. Aber pro Quadratmillimeter steckt in SGX verdammt mehr Leistung drin.

Denk mal nach ob (wenn es moeglich gewesen waere) Du lieber eine G8x Variante im PS3 oder die langweilige G7x-RSX gehabt haettest ;)

loewe
2008-11-27, 20:33:24
Mit welche Grafik wäre ein SGX545 oder 555 vergleichbar gewesen?
Ich kann mir bei dem Ding nichts vorstellen.
mfg Nakai

Vorstellen ist schwer da bisher von keinem der existierenden Cores, außer den Angaben von PowerVR, irgendwelche brauchbaren Werte bekannt sind.

SGX520 1 USSE : 1 TMU
SGX530 2 USSE : 1 TMU
SGX535 2 USSE : 2 TMU
wir denken
SGX540 4 USSE : 2 TMU
SGX545 4 USSE : 4 TMU
SGX555 8 USSE : 8 TMU

alle Angaben ab SGX540 sind nicht ganz sicher.
Bzgl. der APIs ist nur gesichert das alle OGL2.0 und SM3.0 garantieren und SGX545 SM4.1 kompilant ist, bzgl. SGX555 hat es nie eine Aussage gegeben, wenn die Annahme SM4.1 sicher logisch wäre.

Auc hwenn der Vergleich hinkt, SGX535 sollte fast an die Leistung von KYROII heran kommen können, womit dann für SGX545 eine Verdopplung und für SGX555 ein Vervierfachung zu erwarten wäre.

loewe
2008-11-27, 20:41:47
Serie6 wird wohl nicht "SGX" heissen und unter normalen Umstaenden machen sie auch keine Fehler bei so wichtigen Ankuendigungen.

Warum sollte Serie 6 nicht SGX heißen, SGX6xx wäre doch logisch. :)

Wo immer eine "0" am Ende ein 1:2 ALU:TMU Verhaeltnis und wo immer eine "5" ein 1:1 Verhaeltnis. Fall 1 ist ein balancierterer Design.

Wenn Du USSE == ALU nennen willst doch eher "0" am Ende ein 2:1 ALU:TMU und "5" am Ende ein 1:1 Verhältnis!?

Ailuros
2008-11-28, 07:06:42
Warum sollte Serie 6 nicht SGX heißen, SGX6xx wäre doch logisch. :)

Marketing-technisch macht es keinen besonderen Sinn fuer mich, wenn es sich tatsaechlich um eine neue Generation handelt. Eigentlich haette ja Eurasia schon Serie6 heissen sollen, aber es war afaik eine Entscheidung von der Marketing Abteilung; in diesem Fall gab es sogar guten Grund Eurasia NICHT Serie5 zu nennen. Angenommen sie stecken nur ein paar Einzelheiten fuer D3D11 dazu, bleiben aber bei der gleichen SGX Basis-Architektur, dann macht es auch wiederrum keinen besonderen Sinn das Ganze "Serie6" zu nennen. Die Aenderungen waeren zu klein um es als neue Generation zu separieren.

Wenn Du USSE == ALU nennen willst doch eher "0" am Ende ein 2:1 ALU:TMU und "5" am Ende ein 1:1 Verhältnis!?

Tippfehler; ich haette 1:2 und nicht 2:1 schreiben sollen. Normalerweise nennen sie "USSE" im Alltag-Gebrauch "shader pipes", deshalb steht dann auch in whitepapers "dual pipeline" oder aehnliches drin. Ich sehe nichts falsches in ALU als Beschreibung da es sich so oder so um eine 'arithmetic logic unit' handelt. Ohne die Co-Prozessoren ist der USSE sowieso eine Art CPU oder?


Auc hwenn der Vergleich hinkt, SGX535 sollte fast an die Leistung von KYROII heran kommen können, womit dann für SGX545 eine Verdopplung und für SGX555 ein Vervierfachung zu erwarten wäre.

Der Vergleich hinkt natuerlich weil eine standalone GPU ein anderes Tier ist. 535 duerfte trotz allem um einiges weiter oben liegen als KYROII. Wenn man nur in einem synthetischen Benchmark Dreiecke durch den 535 jagt, haette man mit Sicherheit >8x mal so viel triangle throughput. Bandbreite ist irgendwo gleich wenn ich mich nicht irre, jetzt kommt eine unendliche Reihe an Optimierungen (wie waere es mit macro-tiling?) u.a. auch vertex bandwidth relevantes Zeug dazu und natuerlich auch rotated grid Multisampling.

SGX555 waere afaik in manchen Stellen um einiges effizienter gewesen als PMX590 (Du wirst schon wissen wofuer der Codename stand...) z.B. mit kleinen Dreiecken. Natuerlich gelten auch hier die Unterschiede zwischen small form factor und standalone GPU, da fuer die zweiten Latenz der groesste Kopfschmerz sein duerfte.

IMHLO um eine K2 zu schlagen duerfte ein >200MHz MBX+VGP schon vollkommen ausreichen; ein theoretischer Port von UT2003 fuer mobile wuerde dafuer schon aureichen.

robbitop@work
2008-11-28, 09:32:18
SGX555 waere afaik in manchen Stellen um einiges effizienter gewesen als PMX590 (Du wirst schon wissen wofuer der Codename stand...) z.B. mit kleinen Dreiecken. Natuerlich gelten auch hier die Unterschiede zwischen small form factor und standalone GPU, da fuer die zweiten Latenz der groesste Kopfschmerz sein duerfte.

Du meinst sicher das Serie5 Teil für den Desktop-PC, welches 2004 um Haaresbreite nicht veröffentlicht wurde?

Zum PSP2-Chip: Sony hat gesagt, dass die Lebenszeit der PSP an die der PS3 gekoppelt ist. Und die wird bis ~2011 wohl noch andauern. Bis dahin ist der 45-nm-Prozess veraltet. 32-nm sollten dann schon ziemlich mainstreamig sein, wenn nicht sogar schon der nächste Half-Node.

Ich gehe mindestens von SGX555-Leistung aus für die PSP2. Eben wegen des Realease-Datums und dem notwendigen Performance-Sprung.
Was Sony da zurechtskalieren lässt und welche Features sie raus oder reinnehmen, weiß natürlich keiner. Ich tippe aber auf 8x USSEs und 4-8 TMUs und mindestens 200 MHz. Mit den dann erhälltlichen Fertigungsprozessen sollte das drin sein.

Ailuros
2008-11-28, 17:33:13
Du meinst sicher das Serie5 Teil für den Desktop-PC, welches 2004 um Haaresbreite nicht veröffentlicht wurde?

Ja und es war die eigentliche "Serie5". SGX haette eigentlich Series6 heissen sollen.

Zum PSP2-Chip: Sony hat gesagt, dass die Lebenszeit der PSP an die der PS3 gekoppelt ist. Und die wird bis ~2011 wohl noch andauern. Bis dahin ist der 45-nm-Prozess veraltet. 32-nm sollten dann schon ziemlich mainstreamig sein, wenn nicht sogar schon der nächste Half-Node.

Ehrlich gesagt keine Ahnung. Ich wusste nur vor geraumer Zeit dass sowohl NINTENDO als auch SONY unter Verhandlungen mit diversen Grafik IHVs waren. Nintendo ging an die grossen Gruenen (weil ein japanischer Partner von IMG bloed genug war den Preis nicht weiter zu reduzieren) und bei SONY wurde man wohl agressiver und gewann den Deal. SONY ist der Kunde hier und sie haben wohl IMHLO das bestellt was sie brauchen oder genauer was sie glauben dass sie brauchen.

SONY mag vieles gesagt haben aber erstens ist es nicht besonders leicht PS3 Spiele auf den PSP zu portieren und zweitens spielt die Konkurrenz stets eine Rolle mit. Obwohl ich nichts genaues momentan habe, bezweifle ich dass NINTENDO erst in 2011 mit ihrem Ding ankommen werden.

Ich gehe mindestens von SGX555-Leistung aus für die PSP2. Eben wegen des Realease-Datums und dem notwendigen Performance-Sprung.

Wo steht irgendwo ein Release-Datum? IMG ist eine oeffentlich operierte Firma und sie sind laut Gesetz gezwungen jeden Scheiss eventuell mit einem Press-release anzugeben selbst wenn keine Namen genannt werden. Einen aehnliches namenloses PR gab es auch fuer den Apple Deal und in sehr kurzer Zeit kam das iPhone auf den Markt (zugegeben MBX aber Integration passiert nie innerhalb von ein paar Monaten). Der SGX der in das Ding kommen soll wurde noch nicht angekuendigt soviel stimmt; aber keiner weiss momentan ob er schon fertig ist oder nicht. Die alte roadmap hatte den SGX555 vor der Serie6 angelegt und wir wissen nicht wann der erste genau storniert wurde.


Welchem notwendigen Leistungssprung genau? Der NINTENDO grafik chip ist afaik irgendwo auf SGX530 Leistungsniveau mit um einem bemerkbar groesserem Die (non unified natuerlich). Nun gut Nintendo ist nicht gerade die Firma die besonders stark auf die hoechste Leistung ziehlt, sondern eher fuer den niedrigsten Preis, aber wenn meine vorigen Infos stimmen sollten gibt es genug Luftraum theoretisch selbst nicht auf's 555 Leistungs-Niveau zu steigen da der Unterschied ohnehin schon ziemlich gross sein wuerde.

Damit ich nicht falsch verstanden werde: SGX555 war der core der eigentlich fuer IGPs fuer Schlepptops und PCs bestimmt war. Als ich das letzte mal ein paar Fragen stellte, hiess es dass sie die roadmap ab 545 umgekrempelt haben und den 555 mit etwas erstetzt haben dass fuer die Ansprueche ihrer Partner besser passen sollte. Erstes Ziel war den handheld Markt zu knacken und das naechste wir dann der Laptop/PC Markt sein. Ob dieses jetzt mit einer oder zwei Varianten passieren soll keine Ahnung. Falls es aber ein core sein sollte dann wird seine Leistung tatsaechlich ziemlich hoch sein, denn von lowest end laptops war nie die Rede.


Was Sony da zurechtskalieren lässt und welche Features sie raus oder reinnehmen, weiß natürlich keiner. Ich tippe aber auf 8x USSEs und 4-8 TMUs und mindestens 200 MHz. Mit den dann erhälltlichen Fertigungsprozessen sollte das drin sein.

200MHz klingt mir zu konservativ fuer alles =/<45nm. Das erreicht problemlos schon 65nm. Wenn man mit der Frequenz gut skalieren kann, kann man auch locker einige Einheiten einsparen. Ich hab nur ein paar Vorbehaltungen weil ich SONY nicht besonders viel zutraue wenn es zu Grafik kommt.

Gast
2008-12-21, 14:26:26
http://www.heise.de/newsticker/Apple-und-Intel-investieren-in-3D-Grafik-Chip-Designhaus--/meldung/120811

Ailuros
2008-12-21, 16:08:14
http://www.heise.de/newsticker/Apple-und-Intel-investieren-in-3D-Grafik-Chip-Designhaus--/meldung/120811

Hier noch ein sehr interessanter Artikel mit einer anderen Perspektive:

http://www.appleinsider.com/articles/08/12/20/future_iphones_to_wield_opencl_acceleration.html

Imagination's interest in hiring OpenCL developers means the GPGPU (General-Purpose computation on GPUs) technology is already immediately relevant to mobile developers, as the company's PowerVR GPUs are currently used only in mobile devices, and the job postings make it clear that the OpenCL positions are related to embedded, mobile graphics. While the company has expressed interest in entering the laptop PC market, it faces foreboding, entrenched competition from GPU giants NVIDA and AMD's ATI.

Relevantes gibt es schon seit einiger Zeit in IMG's Praesentationen versteckt wie z.B.:

http://www.imgtec.com/corporate/presentations/InterimDec08/index.asp?DisplayPage=26&#ViewTop

Da man sich bei der Entwicklung von SGX sehr stark auf GPGPU konzentriert hat, macht es auch keinen Sinn etwas wie OpenCL nicht zu unterstuetzen.

Mike11
2008-12-22, 16:55:29
Nachdem ich jetzt beim iPhone live gesehen habe zu was nach nur 6 Monaten allein schon der alte MBX fähig ist (s.u.) bin ich schon sehr gespannt auf den SGX in den 2009er Smartphones. Da brechen echte goldene Zeiten an für Portable Gaming :)

Weiß jemand ob TI oder Qualcomm usw. in ihren Smartphone SoCs (OMAP3, Snapdragon etc) was höheres als SGX 530 verbauen?

Hero of Sparta:
http://www.youtube.com/watch?v=-pr-ZUZGCJQ

VooDoo7mx
2008-12-22, 17:01:31
Ich hab jetzt nochmal auf einer anderen Seite gelesen, dass sich so langsam die Gerüchte verhärten, dass im PSP Nachfolger der irgendwann 2010/2011 erscheint, tatsächlich PowerVR für die 3D Grafik sorgen wird.

Wenn das stimmt, dann ahben sich die Jungs einen guten Deal geangelt und einen Fuß im Konsolengeschäft.
Playstation 4 mit PowerVr klingt gar nicht mal so abwegig.

loewe
2008-12-22, 19:30:56
Weiß jemand ob TI oder Qualcomm usw. in ihren Smartphone SoCs (OMAP3, Snapdragon etc) was höheres als SGX 530 verbauen?
Gegenwärtig ist mir nicht bekannt, dass in irgendwelchen SoCs für den mobilen Bereich mehr als SGX530 bzw. SGX535 verbaut wird. Wozu auch? Verglichen mit dem MBX Light des iPhone erreichen wir hier, je nach Takt, eine zehnfache oder noch höhere Leistung. Über das Feature-Set wollen wir erst gar nicht reden.

@VooDoo7mx
Das mit SONY wird schon stimmen, keine Angst! ;)

Mike11
2008-12-22, 20:49:14
Gegenwärtig ist mir nicht bekannt, dass in irgendwelchen SoCs für den mobilen Bereich mehr als SGX530 bzw. SGX535 verbaut wird. Wozu auch? Verglichen mit dem MBX Light des iPhone erreichen wir hier, je nach Takt, eine zehnfache oder noch höhere Leistung. Über das Feature-Set wollen wir erst gar nicht reden.
Wer verbaut denn einen SGX535 im mobilen Bereich (Smartphones)? Ich habe mal ein bißchen nachgeforscht und was schnelleres als SGX530 erst beim noch weit entfernten OMAP4 gefunden (SGX540).

thacrazze
2008-12-22, 21:25:50
bleibt abzusehen was SONY vorhat.
soweit ich weiß hat sony für die psp2 auch einen powerVR lizenziert

edit: http://www.mydigitallife.info/2008/11/29/sony-psp2-potentially-powered-by-imaginations-powervr-sgx55x/

Fusion_Power
2008-12-22, 22:04:43
Wer verbaut denn einen SGX535 im mobilen Bereich (Smartphones)? Ich habe mal ein bißchen nachgeforscht und was schnelleres als SGX530 erst beim noch weit entfernten OMAP4 gefunden (SGX540).
Also der Pandora-Gandheld hat den OMAP3530 SOC und dort ist eine SGX530 Grafikeinheit verbaut. Das Ding ist schon sauschnell, ich weiß aber nicht, was beim 535 noch verändert wurde.
Diese "kleinen" Chips sind echt erstaunlich. Verbrauchen kaum Strom und können von der Technik (Shader, Effekte etc...) schon fast mit modernen PC Grafikkarten mithalten. :) Ich bin zwar auch für die Dicken Grakas im PC aber da ich mir auch eine Pandora vorbestellt habe, werd ich das Teil sicher ebenfalls ausgiebig nutzen. Es gibt nicht so viele Chipsätze, und Geräte, mit denen man z.B. Quake3 Mobil spielen kann, zumindest nicht 10 Stunden mit einer Akkuladung. (Pandora hat nen 4000mAh Akku) :D

Mike11
2008-12-23, 00:04:10
Weiß jemand ob TI oder Qualcomm usw. in ihren Smartphone SoCs (OMAP3, Snapdragon etc) was höheres als SGX 530 verbauen?
Ups, also Snapdragon verbaut überhaupt kein SGX, sondern AMD Mini-Xenos (Z4x0?) mit anscheinend nur der Hälfte der SGX530 Leistung. Wenn Qualcomm da mal nicht aufs falsche Pferd gesetzt hat (s. Apple, OpenCL, OMAP3 mit SGX530 etc.).

Die Qualcomm CPU (Scorpion, ARMv7 basierend) scheint zwar dem OMAP3 Cortex-A8 überlegen zu sein, aber SGX und Verfügbarkeit sprechen wiederum für OMAP3.

Ailuros
2008-12-23, 07:33:04
Also der Pandora-Gandheld hat den OMAP3530 SOC und dort ist eine SGX530 Grafikeinheit verbaut. Das Ding ist schon sauschnell, ich weiß aber nicht, was beim 535 noch verändert wurde.

Doppelt so viele TMUs beim zweiten.

soweit ich weiß hat sony für die psp2 auch einen powerVR lizenziert

Ich lege meine Hand ins Feuer dass es so ist ;) Zum Zeitpunkt als ich den zitierten Satz schrieb, war es lediglich ein hint meinerseits auf meine Erwartungen.

Es war so ein kleiner Vogel hatte mir vor einiger Zeit zugezwitschert dass sowohl NINTENDO als auch SONY unter Verhandlungen fuer Grafik IP liegen. Im ersten Fall fragte ich herum und meine Quellen waren sich sicher dass es nicht IMG ist, ergo war der einzig andere moegliche NVIDIA. Als ich hinter den Kulissen beim letzteren darueber fragte bekam ich ein nettes "grinsen" zurueck und eine Notiz dass sie auf jeden Fall nichts mit SONY gelandet haben. Seither war ich mir fast sicher dass SONY im Bett mit IMG liegt und es war nur eine Frage der Zeit bis der erste newsblurb darueber nach aussen knallte. Von dem Ding wird es aber tatsaechlich nichts in absehbarer Zukunft geben. Veroeffentlichung ist nicht fuer zumindest 2009 angelegt.

Ich hab jetzt nochmal auf einer anderen Seite gelesen, dass sich so langsam die Gerüchte verhärten, dass im PSP Nachfolger der irgendwann 2010/2011 erscheint, tatsächlich PowerVR für die 3D Grafik sorgen wird.

Wenn das stimmt, dann ahben sich die Jungs einen guten Deal geangelt und einen Fuß im Konsolengeschäft.
Playstation 4 mit PowerVr klingt gar nicht mal so abwegig.

VoodooMx,

Ja zum ersten (siehe oben) und mit gleicher Sicherheit nein zum zweiten. IMHLO ist IMG's naechstes Ziel den Schlepptop Markt zu knacken und der Weg bis zum wahren high end ist noch sehr lang.

Ups, also Snapdragon verbaut überhaupt kein SGX, sondern AMD Mini-Xenos (Z4x0?) mit anscheinend nur der Hälfte der SGX530 Leistung. Wenn Qualcomm da mal nicht aufs falsche Pferd gesetzt hat (s. Apple, OpenCL, OMAP3 mit SGX530 etc.).

Die Qualcomm CPU (Scorpion, ARMv7 basierend) scheint zwar dem OMAP3 Cortex-A8 überlegen zu sein, aber SGX und Verfügbarkeit sprechen wiederum für OMAP3.

Mike11,

Dieser angebliche "mini-Xenos" ist ertens ein non-unified design und duerfte nicht ueber OpenGL_ES2.0 in keinem Fall steigen, ergo hat das Ding in keinem Fall selbst das geringste mit Xenos gemeinsam.

Die Leistung des letzten Imageon ist miserabel balanciert und versagt an so manchen Stellen dass es eigentlich schnuppe ist ob das Ding jetzt selbst in OGL_ES1.x Tests versagt.

Wenn Qualcomm wirklich einen high end OGL_ES2.0 langfristig noetig haben wird, muessen sie sich so oder so entweder an NVIDIA oder an IMG wenden.

Qualcomm hat tatsaechlich aufs falsche Pferd gesetzt und daran ist eigentlich AMD schuld, die die Preise im Markt so stark kannibalisiert haben um 2 deals zu erreichen um am Ende das Ganze aufzugeben. Auch ARM gibt momentan fuer jede CPU Lizenz eine Mali mit umsonst wenn sich jemand daran interessieren sollte, aber viel bringt es bis jetzt auch nicht.

haifisch1896
2008-12-23, 08:09:01
VoodooMx,

Ja zum ersten (siehe oben) und mit gleicher Sicherheit nein zum zweiten. IMHLO ist IMG's naechstes Ziel den Schlepptop Markt zu knacken und der Weg bis zum wahren high end ist noch sehr lang.

Meinst Du denn nicht, dass man bei entsprechendem Erfolg vielleicht doch der Portierung und Optimierung wegen auf ein Multicore-Design geht?
In etwa so gestaltet wie die C2Q 2 oder mehr Kerne auf einen Träger?
Wäre doch ein super Geschäft für IMG und meiner Meinung nach gar nicht so abwegig...

Mike11
2008-12-23, 08:40:11
Dieser angebliche "mini-Xenos" ist ertens ein non-unified design und duerfte nicht ueber OpenGL_ES2.0 in keinem Fall steigen, ergo hat das Ding in keinem Fall selbst das geringste mit Xenos gemeinsam.

Die Leistung des letzten Imageon ist miserabel balanciert und versagt an so manchen Stellen dass es eigentlich schnuppe ist ob das Ding jetzt selbst in OGL_ES1.x Tests versagt.

Wenn Qualcomm wirklich einen high end OGL_ES2.0 langfristig noetig haben wird, muessen sie sich so oder so entweder an NVIDIA oder an IMG wenden.

Qualcomm hat tatsaechlich aufs falsche Pferd gesetzt und daran ist eigentlich AMD schuld, die die Preise im Markt so stark kannibalisiert haben um 2 deals zu erreichen um am Ende das Ganze aufzugeben. Auch ARM gibt momentan fuer jede CPU Lizenz eine Mali mit umsonst wenn sich jemand daran interessieren sollte, aber viel bringt es bis jetzt auch nicht.
Danke für die Info. Verstehe ich das richtig dass du bestätigst dass Snapdragon GPU-technisch wenig Chancen gegen OMAP3 mit SGX530 hat? Thx!

Gast
2008-12-23, 14:25:30
One day after Apple took a 3.6 percent stake in Imagination Technologies, the company that developed the technology used in the 3G iPhone's graphics chips, Intel responded by increasing its own stake in the company -- and said it would consider an outright acquisition of Imagination if another bid emerged.

http://tech.yahoo.com/news/pcworld/20081223/tc_pcworld/intelcountersapplestakeingraphicschipcompany


Schade, dass keine großen Spielefirmen für Pandora entwickeln.

Ailuros
2008-12-23, 19:29:11
Meinst Du denn nicht, dass man bei entsprechendem Erfolg vielleicht doch der Portierung und Optimierung wegen auf ein Multicore-Design geht?
In etwa so gestaltet wie die C2Q 2 oder mehr Kerne auf einen Träger?
Wäre doch ein super Geschäft für IMG und meiner Meinung nach gar nicht so abwegig...

Sie skalieren schon jetzt sowohl ALUs als auch TMUs je nach der erwuenschten Leistung fuer Zielmarkt A, B oder C. Der stornierte SGX555 war 20.3mm2@65nm und hatte 8 ALUs + 8 TMUs. Mit =/<40nm kann man sowohl weiter die Anzahl der Einheiten als auch die Frequenz skalieren. Warum sollen so bloed sein und zusaetzliche Redundanz hinzufuegen wenn jeglicher Quadratmillimeter fuer solche Geraete aeusserst wichtig ist?

ARM Mali hat ein Multi-chip Konzept. Die whitepapers kann man auf deren Hauptseite finden und es ist leicht zu sehen warum es eine ziemlich bloede Idee u.U. sein kann.

Danke für die Info. Verstehe ich das richtig dass du bestätigst dass Snapdragon GPU-technisch wenig Chancen gegen OMAP3 mit SGX530 hat? Thx!

Die bisher erhaetlichen Imageon Zxxx Dingsbumse koennen sich nicht mal anstaendig gegen einen einfachen MBX stellen:


http://www.glbenchmark.com/compare.jsp?benchmark=glpro&showhide=true&D1=Nokia N95&D2=LG KS20&D3=Nokia N93&D4=HTC P3700 Touch Diamond

haifisch1896
2008-12-24, 17:06:42
Na gut, da geht es wohl um den direkten Aufbau von solchen Chips.
Aber wenn jeder Chip einen einzelnen zusätzlich "Kanal nach außen hin" mehr hätte, ob das so groß ins Gewicht fällt?

Ailuros
2008-12-26, 08:23:41
Na gut, da geht es wohl um den direkten Aufbau von solchen Chips.
Aber wenn jeder Chip einen einzelnen zusätzlich "Kanal nach außen hin" mehr hätte, ob das so groß ins Gewicht fällt?

Ich weiss nicht was Du genau mit "Kanal nach aussen" genau meinst, aber so lange man problemlos bis zu Punkt X Einheiten skalieren kann ist es sinnlos ueberhaupt an multi-chip-wasauchimmer zu denken.

Vergiss nicht dass in einem SoC der wichtigste Kopfschmerz ist dass die CPU und GPU um die geringe Bandbreiten-Resourcen vom Speicher kaempfen muessen. Mit zwei grafik chips erhoeht man erstmals unnoetig die Redundanz und man wirft dann noch einen zusaetzlichen Konkurrenten fuer die magere Bandbreite in die Rechnung. Es handelt sich hier ohnehin um SoCs wo jeder Quadratmillimeter lebenswichtig sein kann.

Nimm als Gegenbeispiel eine 4870 gegen eine 4870X2; haette AMD einen einzelnen high end chip gebaut unter 55nm dann waere dieser wohl schwer groesser als sagen wir mal 350mm2 gewesen. Stattdessen hat man mit der X2 dank der 2 chips ganze 2*260= 520mm2 verpulvert was aber im high end desktop Markt ziemlich schnuppe ist, da ein PC keine Batterien hat. Fuer alles was auch mit Batterien operieren muss denkt man zweimal darueber nach was die die Groesse und den Stromverbrauch genau betrifft.

Uebrigens sind heutige high end GPU Architekturen eine reihe an SIMD clusters die miteinander mit MIMD Logik verbunden sind. Beim SGX ist es schon MIMD auf ALU Niveau.

haifisch1896
2008-12-26, 08:31:22
Mit dem Kanal nach außen meinte ich es in etwa so, wie AMD das bei den Opteronen mit den HT-Links gemacht hat.
Nur das diese nicht auf einen anderen Sockel zielen, um zusammen zu arbeiten, sondern die Chips wie bei der von Dir angesprochen 4870 "einfach zusammengepappt" werden.
Für eine normale PS dürfte das ja auch so ziemlich egal sein. Nur wie sich die zusätzlichen Transistoren im Stromverbrauch und der Wärmeentwicklung verhalten, wäre ja die Frage, was Mobilgeräte betrifft.
Sofern man es denn wirklich vorhätte, ein und den selben Chip für verschiedene Märkte zu nutzen.

Ich habe aber trotzdem das Gefühl, wir schreiben aneinander vorbei.

Ailuros
2008-12-26, 08:59:57
Mit dem Kanal nach außen meinte ich es in etwa so, wie AMD das bei den Opteronen mit den HT-Links gemacht hat.

Haette ich mir schon gedacht dass Du etwas aehnliches meinst. So wie der SGX ausgelegt ist, ist das Ganze Schwachsinn. Momentchen....

Nur das diese nicht auf einen anderen Sockel zielen, um zusammen zu arbeiten, sondern die Chips wie bei der von Dir angesprochen 4870 "einfach zusammengepappt" werden.
Für eine normale PS dürfte das ja auch so ziemlich egal sein. Nur wie sich die zusätzlichen Transistoren im Stromverbrauch und der Wärmeentwicklung verhalten, wäre ja die Frage, was Mobilgeräte betrifft.
Sofern man es denn wirklich vorhätte, ein und den selben Chip für verschiedene Märkte zu nutzen.

Ich habe aber trotzdem das Gefühl, wir schreiben aneinander vorbei.

Genau denn ich hab das Gefuehl dass Dir einige Einzelheiten ueber SGX fehlen. Nochmal ein schnelles Diagramm:

http://www.imgtec.com/images/blockdiagrams/powervr/large/POWERVR_SGX_lrg.gif

http://www.imgtec.com/powervr/sgx.asp

In der Mitte des chips hockt der "USSE" welcher aus einer Anzahl von multi-threaded Einheiten besteht und quasi fuer sich selber schon ein GP (general purpose) Prozessor ist. Die Dinger arbeiten in etwa genauso wie der META von IMG:

http://www.audiodesignline.com/showArticle.jhtml?articleID=183701195

Deshalb hab ich auch guten Grund zu glauben dass SGX rund um die GPGPU Faehigkeiten eines chips gebaut wurde. Man hat stets bei jeder Einheit multiple instructions multiple data ohne jegliche Unkosten fuer context switching u.a.

Jegliche shaper pipe oder ALU besteht aus mehreren solchen Einheiten und jede dieser ist ueber PS/VS/GS faehig. Geometrie-raten skalieren sogar mehr als jemand erwarten wuerde:

SGX540@200MHz@65nm = 40M Tris/s at <50% shader load

SGX555@200MHz@65nm = 100M Tris/s at <50% shader load

wobei
SGX545 = 4 ALUs + 4 TMUs @12.5mm2
SGX555 = 8 ALUs + 8 TMUs @20.3mm2

Fass jetzt alles zusammen und erklaer mir warum man unter =/<40nm mit mehr Einheiten und hoeheren Frequenzen jegliches Ziel nicht leichter und um einiges effizienter erreichen wuerde?

haifisch1896
2008-12-27, 14:56:48
Du wirst da schon Recht behalten, dass ich den Aufbau des Chips nicht genau kannte.
So ergibt es natürlich Sinn, den nicht für Multi-GPU-Systeme a la 4870 X2 zu nutzen.

Ailuros
2008-12-27, 22:26:52
Du wirst da schon Recht behalten, dass ich den Aufbau des Chips nicht genau kannte.
So ergibt es natürlich Sinn, den nicht für Multi-GPU-Systeme a la 4870 X2 zu nutzen.

Multi-chip/GPU configs bieten auch im high end PC Markt keine analoge Leistung zum Preis. Die teuerste Redundanz die der Verbraucher leider bezahlen muss ist der Speicher und er hat davon leider auf einer X2 stets nur 1GB pro chip/pro frame.

Mali kann man uebrigens bis zu 4 chips skalieren theoretisch; dummerweise skaliert aber die Geometrie nicht mit da nur die fragment processors skaliert werden. Demzufolge bleibt selbst mit 4 solchen Dingern das Ganze bei nur 18M Tris/s stecken. Haette man die VS Einheiten mitskaliert wuerde das Resultat viel zu viel die area verbrauchen und das Ganze nocht unpraktischer machen.

loewe
2009-01-04, 20:20:51
Mal ein bischen Werbung! :)

Ich habe einen kleinen Artikel zu SGX, PowerVR Grafik und Intel SCH online gestellt. Das past hier recht gut rein, denke ich!

http://www.mitrax.de/?cont=artikel&aid=35

Viel Spass beim Lesen und vielleicht ist ja doch für den einen oder anderen etwas Interessantes dabei. ;)

Coda
2009-01-04, 20:26:11
Durch das Superthreading erreichen diese Prozessoren eine Leistung von etwa 150%.
Das geht nicht.

loewe
2009-01-04, 20:46:01
Das geht nicht.
Geht nicht gibts nicht! :)

Ich verstehe Dich schon. Natürlich hast Du grundsätzlich Recht, man zahlt immer einen Preis.

Wir haben hier nur einen Kern in Hardware, auf dem mehrere Threads laufen. Diese nutzen aber jeweils eigene Register usw., so dass die multithread Lösung durchaus etwas höhere Leistung bringt, als eine single threaded Lösung in Hardware allein. Hier behaupten imgtec, diese Lösung bringt etwa 150% einer alleinigen Hardware-Lösung.

Da gibt es ein PDF bei imgtec im Download-Bereich, kommst Du da ran, geht nicht ohne Anmeldung?!

Gast
2009-01-04, 23:50:41
Der 3dcenter-Link geht nicht -> http://www.mitrax.de/?cont=artikel&aid=35&page=13

"und nicht zu vergessen, die beiden besten Technologieforen für Computergrafik
Beyond3D - vor allem das Forum
3DCenter - das deutsche 3D Techologie Forum"

Ailuros
2009-01-05, 07:01:12
Ausgezeichnet Loewe :)

Ich bin zwar normalerweise gegen jegliche Konspirations-Thesen aber so langsam neige ich schon zum Verdacht dass der ganze Treiber-Unsinn fuer Atom+SGX von Intel eher mit Absicht sein koennte.

Wuerde der 535 mit anstaendigen Treibern laufen wuerde der GMA500 automatisch ihre anderen netbook IGPs blamieren.

loewe
2009-01-05, 07:58:54
Der 3dcenter-Link geht nicht -> http://www.mitrax.de/?cont=artikel&aid=35&page=13

"und nicht zu vergessen, die beiden besten Technologieforen für Computergrafik
Beyond3D - vor allem das Forum
3DCenter - das deutsche 3D Techologie Forum"

Danke!
Geht jetzt.

Coda
2009-01-05, 18:47:58
Geht nicht gibts nicht! :)
Nein es geht wirklich nicht. Man kann maximal den theoretisch möglichen Durchsatz der ALUs erreichen und das ist 100%. 150% ergibt überhaupt keinen Sinn in dem Zusammenhang.

Wenn dann muss da stehen "gegenüber einer herkömmlichen Lösung".

loewe
2009-01-05, 22:21:30
Nein es geht wirklich nicht. Man kann maximal den theoretisch möglichen Durchsatz der ALUs erreichen und das ist 100%. 150% ergibt überhaupt keinen Sinn in dem Zusammenhang.

Sehe ich nicht ganz so, denn 100% sind mit einer "einfachen Hardwarelösung" nicht erreichbar! Da ergibt sich die Frage, wo ist die theoretische Grenze, die man mit solchen "Spielchen" erreichen kann, oder anders herum, wieviel Leistung "verschwende" ich ansonsten normaler Weise?

Ja ist mir klar, das ist wie mit der Heizung! Da können die Heizungsfritzen noch so oft von 110% sprechen, mehr als 100% geht nicht.
Wobei, wenn die Energie nicht aus diesem Universum ist, hat man sie eigentlich von Oben und somit extra! :biggrin:

Ich hab das geändert, hoffe es findet jetzt Deine Zustimmung! :)
Danke!

Gast
2009-01-07, 16:16:25
Mal ein bischen Werbung! :)

Ich habe einen kleinen Artikel zu SGX, PowerVR Grafik und Intel SCH online gestellt. Das past hier recht gut rein, denke ich!

http://www.mitrax.de/?cont=artikel&aid=35

Viel Spass beim Lesen und vielleicht ist ja doch für den einen oder anderen etwas Interessantes dabei. ;)

Tumps up!

Toller Artikel! Ich habe gar nicht gewusst das IMG immer noch mit infinite Planes arbeitet. Beim Neon250 hatte es mal geheißen das IMG jetzt einen normalen Z-Buffer für die Tiles verwendet. Für mich hatte sich das so angehört als ob sie insgesamt auf die infinite Planes verzichtet hätten.

grüsse

Manfred

loewe
2009-01-07, 23:00:27
Toller Artikel! Ich habe gar nicht gewusst das IMG immer noch mit infinite Planes arbeitet. Beim Neon250 hatte es mal geheißen das IMG jetzt einen normalen Z-Buffer für die Tiles verwendet. Für mich hatte sich das so angehört als ob sie insgesamt auf die infinite Planes verzichtet hätten.

AFAIK wird das von mir beschriebene Verfahren so erst seit der Neon250 oder eben Dreamcast angewendet. Die Umwandlung eines Dreiecks in die 4 Ebenen geht auf eine Erweiterung des originalen Patentes zurück, aber unendliche Flächen bleiben es. Wobei, wegen der senkrechten Projektion zur x-y-Ebene sind die Kanten-Ebenen eigentlich ja nur Geraden der x-y-Ebene, was die Sache sehr einfach hält.

Gast
2009-01-10, 12:04:52
Mal ein bischen Werbung! :)

Ich habe einen kleinen Artikel zu SGX, PowerVR Grafik und Intel SCH online gestellt. Das past hier recht gut rein, denke ich!

http://www.mitrax.de/?cont=artikel&aid=35

Viel Spass beim Lesen und vielleicht ist ja doch für den einen oder anderen etwas Interessantes dabei. ;)

Hi;

also wenn ich deinen Artikel auf Seite 12 richtig verstehe erwartest du das der SGX eigentlich so ca. 1200-2000 3DMark03 Punkte schaffen müsste wenn die Treiber von Intel nicht gar so schlecht wären.

Die Treiber von Intel unterstützen bisher OpenGL in Hardware überhaupt nicht, das was wir hier bei Crystalmark sehen ist eine Software-Emulation über den Atom Prozessor.

Die Treiber von Intel führen, soweit mir bekannt, die Vertex-Shader in Software aus, also auch über den Atom Prozessor.

Die Treiber von Intel lassen die Pixel Shader zwar über den SGX laufen, nutzen dort aber die entweder von Windows Vista bereitgestellten oder durch den Treiber für Windows XP erzeugten eigenen 32 Bit Float Shader für die 8 Bit Pixel Operationen! Damit läuft der Pixel Shader nur mit etwa 25% seiner möglichen Leistung.
Wie sagte ein Bekannter, dieser Wahnsinn muss aufhören und durch einen intelligenten Treiber rückgängig gemacht werden

Stimmt das so?

loewe
2009-01-10, 18:02:38
also wenn ich deinen Artikel auf Seite 12 richtig verstehe erwartest du das der SGX eigentlich so ca. 1200-2000 3DMark03 Punkte schaffen müsste wenn die Treiber von Intel nicht gar so schlecht wären.

Nein bzgl. 3DMark03 erwarte ich nicht so viel, aber eine Verdopplung von jetzt 400 Punkten sollte schon möglich sein. Die 3DMark Tests sind so eine Sache für diese kleinen Kerne, da spielen noch andere Dinge rein.



Die Treiber von Intel unterstützen bisher OpenGL in Hardware überhaupt nicht, das was wir hier bei Crystalmark sehen ist eine Software-Emulation über den Atom Prozessor.

Die Treiber von Intel führen, soweit mir bekannt, die Vertex-Shader in Software aus, also auch über den Atom Prozessor.

Die Treiber von Intel lassen die Pixel Shader zwar über den SGX laufen, nutzen dort aber die entweder von Windows Vista bereitgestellten oder durch den Treiber für Windows XP erzeugten eigenen 32 Bit Float Shader für die 8 Bit Pixel Operationen! Damit läuft der Pixel Shader nur mit etwa 25% seiner möglichen Leistung.

Stimmt das so?
Ja, soweit mir bekannt, stimmt das so. Das was jetzt bei ImgTec auf der CES gezeigt wird, Dell Mini12 mit Q3A usw., sind wieder PowerVR Treiber.

Ailuros
2009-01-11, 18:24:06
Ich muss mich uebrigens entschuldigen denn SGX543 ist tatsaechlich multi-core faehig. Ich wuerde denken dass keine Zeit fuer kompliziertere Entwicklungen hatten denn dual core vs. single core mit doppelt so viel Einheiten frisst immer noch einen gesunden Batzen mehr an die area.

Gast
2009-01-17, 06:55:37
Mal ne Frage zum IMG Referenz-Treiber: Dürfte Intel den theoretisch benutzen wenn sie wollten? Oder wären dafür extra Zahlungen/Lizensierungen etc. fällig?

Ailuros
2009-01-17, 07:18:46
Mal ne Frage zum IMG Referenz-Treiber: Dürfte Intel den theoretisch benutzen wenn sie wollten? Oder wären dafür extra Zahlungen/Lizensierungen etc. fällig?

IP wird stets mit relevantem software gekauft. SGX in Poulsbo hat ein spezifisches on chip firmware welches Tungsten sich weigert zu benutzen und bleibt daher letztenendes bei sw vertex processing u.a.

Da es wirklich nur sehr wenig Arbeit und Zeit braucht das Ganze richtig anzupassen, bleibe ich dabei dass es mit Absicht seitens Intel kommt um ihre IGPs nicht total zu blamieren.

Intel hat natuerlich Referenz-Treiber mitbekommen mit SGX.

Gast
2009-01-17, 07:48:15
IP wird stets mit relevantem software gekauft. SGX in Poulsbo hat ein spezifisches on chip firmware welches Tungsten sich weigert zu benutzen und bleibt daher letztenendes bei sw vertex processing u.a.

Da es wirklich nur sehr wenig Arbeit und Zeit braucht das Ganze richtig anzupassen, bleibe ich dabei dass es mit Absicht seitens Intel kommt um ihre IGPs nicht total zu blamieren.

Intel hat natuerlich Referenz-Treiber mitbekommen mit SGX.
Danke für die Info! Hätte ja auch sein können dass es irgendwelche rechtlichen Dinge gibt die Intel davon abhalten den Referenztreiber zu vertreiben (verrücktere Sachen sind schon passiert).

Abgesehen von einer Absicht Intels bleiben dann ja wirklich nicht mehr viele Gründe übrig warum Intel so einen (nachweislich) dermaßen schlechteren Treiber einsetzt. Ich hoffe der Druck von Nvidia (v.a. bzgl. Videodecoding) und der vermehrte Einsatz von Silverthorne Atoms (in Netbooks) machen dem bald ein Ende.

Gast
2009-02-04, 22:59:40
Ich frage mich warum der SGX535 im US15W in den Netbooks so abkackt.
Es sind ja nun so einige kleine Berichte zum Vaio P oder Dell Mini12 zu lesen. Und jedesmal ruckeln Flash-Videos oder DivX.
Und Vista ruckelt auch nur so vor sich hin.

Eigentlich sollte der SGX doch recht gut sein, klar Wunder kann man nicht erwarten wenn es um 3D geht. Aber mit dem VXD370 sollte er doch keine Probleme bei den Videos haben.

Liegt das nur an verpatze treiber?

Ailuros
2009-02-05, 14:45:25
Die Loesung fuer Vista heisst windows7 oder "vista done right" LOL :D

Spass beiseite ob es alleine am Treiber liegt kann ich nicht mit Sicherheit sagen, aber es klingt eher danach. Man liesst ja nur Beschwerden ueber jeden moeglichen Poulsbo Treiber auf dem Netz.

loewe
2009-02-05, 16:37:55
Ich frage mich warum der SGX535 im US15W in den Netbooks so abkackt.
Es sind ja nun so einige kleine Berichte zum Vaio P oder Dell Mini12 zu lesen. Und jedesmal ruckeln Flash-Videos oder DivX.
Und Vista ruckelt auch nur so vor sich hin.

Eigentlich sollte der SGX doch recht gut sein, klar Wunder kann man nicht erwarten wenn es um 3D geht. Aber mit dem VXD370 sollte er doch keine Probleme bei den Videos haben.

Liegt das nur an verpatze treiber?

Ob es jetzt nur am Treiber liegt, kann ich Dir auch nicht sagen.

Aber, das Treiberproblem ist ein Fakt!


Die Treiber von Intel unterstützen bisher OpenGL in Hardware überhaupt nicht, das was wir hier bei Crystalmark sehen ist eine Software-Emulation über den Atom Prozessor.
Die Treiber von Intel führen, soweit mir bekannt, die Vertex-Shader in Software aus, also auch über den Atom Prozessor.
Die Treiber von Intel lassen die Pixel Shader zwar über den SGX laufen, nutzen dort aber die entweder von Windows Vista bereitgestellten oder durch den Treiber für Windows XP erzeugten eigenen 32 Bit Float Shader für die 8 Bit Pixel Operationen! Damit läuft der Pixel Shader nur mit etwa 25% seiner möglichen Leistung.


guckst Du hier: http://www.mitrax.de/?cont=artikel&aid=35&page=12

Es gelingt PowerVR immer wieder egal wo sie sind sowohl die Video-Fähigkeiten als auch 3D unter OGL zu zeigen, z.B. hier:

http://www.mitrax.de/data/files/bilder/anandtech.jpg

Nach dem was ich gehört habe ist der SGX535 zwar wirklich sehr klein und schwach, aber schneller als Softwarelösungen ist er schon! ;)

Gaestle
2009-02-05, 16:44:58
Die Treiber von Intel unterstützen bisher OpenGL in Hardware überhaupt nicht, das was wir hier bei Crystalmark sehen ist eine Software-Emulation über den Atom Prozessor.
Die Treiber von Intel führen, soweit mir bekannt, die Vertex-Shader in Software aus, also auch über den Atom Prozessor.
Die Treiber von Intel lassen die Pixel Shader zwar über den SGX laufen, nutzen dort aber die entweder von Windows Vista bereitgestellten oder durch den Treiber für Windows XP erzeugten eigenen 32 Bit Float Shader für die 8 Bit Pixel Operationen! Damit läuft der Pixel Shader nur mit etwa 25% seiner möglichen Leistung.




Warum macht man sowas? Ich meine, sie haben die Hardware und sie haben die Referenztreiber von PowerVR. Warum bremsen die das Ding bewusst so dermaßen aus? Was ist der Hintergrund?

Coda
2009-02-05, 17:14:14
Die Treiber von Intel lassen die Pixel Shader zwar über den SGX laufen, nutzen dort aber die entweder von Windows Vista bereitgestellten oder durch den Treiber für Windows XP erzeugten eigenen 32 Bit Float Shader für die 8 Bit Pixel Operationen!
Das halte ich nach wie vor für völligen Blödsinn. Ein Fixed-Function-Emulationsshader ist niemals ALU-Limitiert. Auch nicht mit 32-Bit-Floats auf SGX.

loewe
2009-02-05, 17:16:41
Warum macht man sowas? Ich meine, sie haben die Hardware und sie haben die Referenztreiber von PowerVR. Warum bremsen die das Ding bewusst so dermaßen aus? Was ist der Hintergrund?
Wenn Du diese Frage beantworten kannst, bekommst Du den Preis! :)

Wir haben immer wieder alle versucht Gründe zu finden, es nicht wie Absicht aussehen zu lassen. Es wird wohl totale Unfähigkeit von Seiten Intel sein, sicher auch darin begründet, nichts tun zu müssen. Die Geräte verkaufen sich ja auch so.

loewe
2009-02-05, 17:19:26
Das halte ich nach wie vor für völligen Blödsinn. Ein Fixed-Function-Emulationsshader ist niemals ALU-Limitiert. Auch nicht mit 32-Bit-Floats auf SGX.

Sieh es wie Du willst, ich kenne da Leute die genau das so sehen und es für sehr wichtig halten.
(Und die Hardware sehe viel besser kennen als wir!)

Coda
2009-02-05, 17:34:34
Sieh es wie Du willst, ich kenne da Leute die genau das so sehen und es für sehr wichtig halten.
Ist es nicht. Der Leistungsverlust ist wenn dann äußerst minimal. Daran besteht gar kein Zweifel.

Fixed Function braucht pro Tex-Lookup eine ALU-Op, und ich kann mir beim besten willen nicht vorstellen, dass damit die ALUs auch nur ansatzweise ausgelastet werden. Egal in welchem Modus.

Es ergibt einfach keinen Sinn.

loewe
2009-02-05, 17:41:41
Ist es nicht. Der Leistungsverlust ist wenn dann äußerst minimal. Daran besteht gar kein Zweifel.

Fixed Function braucht pro Tex-Lookup eine ALU-Op, und ich kann mir beim besten willen nicht vorstellen, dass damit die ALUs auch nur ansatzweise ausgelastet werden. Egal in welchem Modus.

Es ergibt einfach keinen Sinn.

Wir wissen alle nicht genau wie leistungsfähig die ALUs sind, aber ich denke der SGX535 hat in jeder Pipe genau zwei ALUs in Hardware, die je vier Threads ihres Superthreading "gleichzeitig" laufen lassen kann, sich also wie etwa 2x1.5 ALUs verhalten, das hatten wir schon mal.
Das ist sehr wenig und wahrscheinlich zu wenig, wenn die Pixel OPs so uneffektiv abgearbeitet werden.

Coda
2009-02-05, 17:57:10
Das ist sehr wenig und wahrscheinlich zu wenig, wenn die Pixel OPs so uneffektiv abgearbeitet werden.
Halte ich immer noch für unsinnig. Man designed heute keinen Chip der nichtmal EINE ALU-Op hinter Tex verstecken kann. Das ist total unrealistisch.

Ab PS1.1 braucht man sowieso sofort >8 bit Präzision.

loewe
2009-02-05, 18:08:03
Halte ich immer noch für unsinnig. Man designed heute keinen Chip der nichtmal EINE ALU-Op hinter Tex verstecken kann. Das ist total unrealistisch.

Ab PS1.1 braucht man sowieso sofort >8 bit Präzision.

Haben wir eine Chance das irgendwie zu testen, wenn wir Hardware haben?

Coda
2009-02-05, 18:23:10
Natürlich. Multitexturing Füllratentest eines eines DX7-Benchmarks.

Wenn die Füllrate bei Dual-Texturing stärker einbricht als 50%, dann limitieren die ALUs. Ich verwette sonstwas dagegen.

loewe
2009-02-05, 19:36:59
Natürlich. Multitexturing Füllratentest eines eines DX7-Benchmarks.

Wenn die Füllrate bei Dual-Texturing stärker einbricht als 50%, dann limitieren die ALUs. Ich verwette sonstwas dagegen.

Ok, da haben wir im Moment folgende Ergebnisse:

3DMark2001 SE
Fillrate (Single-Texturing): 189.8 MTexel/sec
Fillrate (Multi-Texturing): 50.1 MTexel/sec

3DMark03
Fillrate (Single-Texturing): 176.3 MTexel/sec
Fillrate (Multi-Texturing): 40.2 MTexel/sec

und Füllratentest von MDolenc auf http://extreme.pcgameshardware.de/mobile-geraete/39683-powervr-schlaegt-zurueck-ip-intels-poulsbo-chipsatz-gma500-us15w.html


Fillrate Tester
--------------------------
Display adapter: Intel(R) Graphics Media Accelerator 500
Driver version: 7.14.10.1076
Display mode: 1024x768 A8R8G8B8 60Hz
Z-Buffer format: D24S8
--------------------------

FFP - Pure fillrate - 908.798889M pixels/sec
FFP - Z pixel rate - 116.273689M pixels/sec
FFP - Single texture - 911.354431M pixels/sec
FFP - Dual texture - 904.011108M pixels/sec
FFP - Triple texture - 567.760071M pixels/sec
FFP - Quad texture - 484.630585M pixels/sec
PS 1.1 - Simple - 834.505005M pixels/sec
PS 1.4 - Simple - 901.046936M pixels/sec
PS 2.0 - Simple - 833.524475M pixels/sec
PS 2.0 PP - Simple - 834.505615M pixels/sec
PS 2.0 - Longer - 509.720825M pixels/sec
PS 2.0 PP - Longer - 509.657562M pixels/sec
PS 2.0 - Longer 4 Registers - 454.897308M pixels/sec
PS 2.0 PP - Longer 4 Registers - 455.205139M pixels/sec
PS 2.0 - Per Pixel Lighting - 147.645874M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 147.734695M pixels/sec


Und nu? :)

Ailuros
2009-02-06, 07:31:29
Die 3DMark2001 Fuellraten sind vom SW T&L Test oder? Der High Polygon (8 Lights) Test und die MT Fuellrate ist hoeher in SW als in HW T&L.

Ich hab's jetzt erst bemerkt: wieso zum Teufel ist die Z-Fuellrate in MDolenc so unterirdirsch?

Es sind doch 8z/ALU, ergo 16z/Takt * Frequenz oder?

loewe
2009-02-06, 09:59:54
Die 3DMark2001 Fuellraten sind vom SW T&L Test oder? Der High Polygon (8 Lights) Test und die MT Fuellrate ist hoeher in SW als in HW T&L.
Ich hab's jetzt erst bemerkt: wieso zum Teufel ist die Z-Fuellrate in MDolenc so unterirdirsch?
Es sind doch 8z/ALU, ergo 16z/Takt * Frequenz oder?

Weil hier einfach ganz viel nicht in Ordnung ist!

Alles was an Zahlen im Moment zu bekommen ist, ist so widersprüchlich, dass man damit einfach nichts anfangen kann!

Es sind doch 8z/ALU, ergo 16z/Takt * Frequenz oder?

Ja, so soll es sein!

Ailuros
2009-02-06, 10:08:29
Z Fuellraten sind normalerweise stark abhaengig von der Bandbreite. Hier uebrigens MDolenc Resultate einer 9600PRO:

FFP - Pure fillrate - 1167.590454M pixels/sec
FFP - Z pixel rate - 1494.546997M pixels/sec
FFP - Single texture - 1156.886841M pixels/sec
FFP - Dual texture - 577.300598M pixels/sec
FFP - Triple texture - 393.923584M pixels/sec
FFP - Quad texture - 312.159546M pixels/sec
PS 1.1 - Simple - 781.752075M pixels/sec
PS 1.4 - Simple - 781.783997M pixels/sec
PS 2.0 - Simple - 781.801758M pixels/sec
PS 2.0 PP - Simple - 781.760559M pixels/sec
PS 2.0 - Longer - 394.298035M pixels/sec
PS 2.0 PP - Longer - 394.300842M pixels/sec
PS 2.0 - Longer 4 Registers - 394.304077M pixels/sec
PS 2.0 PP - Longer 4 Registers - 394.297424M pixels/sec
PS 2.0 - Per Pixel Lighting - 99.006615M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 99.006462M pixels/sec

Dass die Bandbreite auf Poulsbo sehr begrenzt ist, ist mir schon klar aber ~1/10 der theoretisch maximalen Z-Fuellrate macht keinen Sinn. Interessant waere wie die Z-Fuellrate in MDolenc auf Poulsbo mit 4xMSAA aussieht; kann man es ueberhaupt einschalten?

haifisch1896
2009-02-06, 14:52:56
Ich würde wetten, dazu bräuchte man einen ordentlichen Treiber und nicht die von Intel.

loewe
2009-02-06, 16:01:54
Interessant waere wie die Z-Fuellrate in MDolenc auf Poulsbo mit 4xMSAA aussieht; kann man es ueberhaupt einschalten?
Im Moment? Nein!

Coda
2009-02-06, 16:25:11
Und nu? :)
3DMark 2001 und 2003 sind nicht fixed function.

Aber laut dem hier:
FFP - Single texture - 911.354431M pixels/sec
FFP - Dual texture - 904.011108M pixels/sec

Sinkt die Füllrate gar nicht mit Dual-Texturing, also kann die ALU nicht limitieren. Q.e.d.

Fraglich ist wie das zustande kommt. Eigentlich sieht es so aus als hätten sie TMUs die zwei Texturen auf einmal bearbeiten.

loewe
2009-02-06, 18:21:14
3DMark 2001 und 2003 sind nicht fixed function.
Ok, hab ich nicht gewußt, aber die Füllrate ist trotzdem viel zu niedrig.

Aber laut dem hier:

Sinkt die Füllrate gar nicht mit Dual-Texturing, also kann die ALU nicht limitieren. Q.e.d.

Fraglich ist wie das zustande kommt. Eigentlich sieht es so aus als hätten sie TMUs die zwei Texturen auf einmal bearbeiten.

Mich wundert mehr die Füllrate überhaupt. Wie kann ein SGX535 bei zwei Pipes und 200 MHz und möglichen 1 Pixel ja Takt und Pipe mehr als 400 MPixel/sec haben?
Auch wenn sie von 1GPixel/sec sprechen, dass sind 400 MPixel/sec bei 2.5 Overdraw und nicht echte 900 MPixel/sec!
Da stimmt vieles noch nicht.

Coda
2009-02-06, 18:31:24
Ok, hab ich nicht gewußt, aber die Füllrate ist trotzdem viel zu niedrig.
Es ging hier aber um die Fixed Function Shader.

Mich wundert mehr die Füllrate überhaupt. Wie kann ein SGX535 bei zwei Pipes und 200 MHz und möglichen 1 Pixel ja Takt und Pipe mehr als 400 MPixel/sec haben?
Evtl. sind es Tri-TMUs die bei Bilinearer Filterung zwei Samples schaffen.

Demirug
2009-02-06, 19:06:51
Nur zur Information MDolenc benutzt einen 32fachen Overdraw und Point sampling bei den FFP Tests.

loewe
2009-02-06, 19:32:04
Dank an Euch beide!

Da entsteht langsam ein Bild.

Ja es sollen Tri-TMUs sein, das galt schon ganz ganz lange für die Nachfolger von Serie3, wenn diese dann bilineare oder point-sampled Pixel in doppelter Anzahl schaffen, warum nicht. :)

Ich brauche so ein Teil, immer nur über Zahlen von anderen reden ist Mist! Aber vor März wird das nichts, kostet alles Geld!

Ailuros
2009-02-07, 08:28:56
Loewe,

SGX (im Gegensatz zu den stornierten Serie4 & 5 GPUs) hat nur einfache bilineare TMUs.

Demi,

Nur zur Information MDolenc benutzt einen 32fachen Overdraw und Point sampling bei den FFP Tests.

Mal wieder etwas dazugelernt heh. Wieso zum Geier benutzt jemand einen so unrealistisch hohen Overdraw Wert?

Coda,

Die Tatsache dass MDolenc so hohe Overdraw Werte hat, erklaert erstmal warum im Gegensatz zu allen anderen Fuellraten Messungen auf SGX die Resultate um einiges mehr Sinn machen.

SGX muss durch seinen eigenen Treiber laufen damit er seine Peak-Werte erreichen kann, was bei Poulsbo nicht der Fall ist. Wie schonmal erwaehnt Tungsten ist bloed genug nicht das onboard firmware des chips anzusprechen und daher laeuft u.a. vertex processing in sw. Das Ganze hin und her hat keinen Sinn wenn die Treiber den chip nicht richtig ansprechen. Ausser Du willst mir einreden dass SGX so laecherliche Werte in PowerVR's eigenem Village- und Fable-Mark so miserabel abschlaegt. 13 fps im ersten und 3 fps im zweiten LOL.

Mal jetzt ganz naiv ausgerechnet ein SGX535@110MHz (16z*110MHz) duerfte ca. 1/3 Leistung einer Kyro2 (32z*175MHz) in Fablemark/1024*768 erreichen koennen; dabei erreichte die letztere garantiert nicht 9fps.

Mike11
2009-02-07, 09:13:16
Was ich in Sachen Treiber wirklich traurig finde ist dass die hochgelobte Ion Plattform von Nvidia es gerade mal so eben schafft ein Blu-ray Video abzuspielen mit 40%-100% CPU Auslastung während der schon lange erhältliche Atom Poulsbo Chipsatz es schafft ein Blu-ray Video abzuspielen plus gleichzeitig Quake III mit über 30fps (mit IMG Treiber unter Windows).

Nun gut, für 3D Games ist Nvidias Ion insgesamt besser geeignet, aber wer dafür ein Netbook benutzt ist selber schuld. Aber für das ganze Media Center Zeug für das der Ion Chipsatz jetzt im Gespräch ist bräuchte man den theoretisch gar nicht.

I got a quick demo of a Dell Inspiron Mini 12 decoding a 1080p H.264 Blu-ray rip (20 - 35Mbps) while running through a Quake III timedemo. The video clip didn’t drop any frames and the Quake III demo ran at above 30 fps. [...]
The Imagination Technologies staff also ran a dual stream video decode demo where they had a Atom/Poulsbo netbook playing one 8Mbps H.264 video and a 1080p H.264 video on an external display, simultaneously. Again, memory bandwidth is the only limitation here - the Atom never peaked above 29% CPU utilization.
http://www.anandtech.com/tradeshows/showdoc.aspx?i=3494&p=7

There were some scenes where the CPU utilization peaked to over 90%. While we didn’t see any dropped frames, keep in mind that we’ve already decrypted the disc, the CPU is actually doing less here than if we were playing a Blu-ray disc directly from a drive. I suspect that playing back encrypted content it is possible for the Ion platform to drop frames if CPU utilization jumps out of its comfortable 40 - 50% average.
http://anandtech.com/video/showdoc.aspx?i=3509&p=2

Gast
2009-02-07, 09:32:40
Hi,
bzgl. Intel <> PowerVR SGX Treiber hatte ich die Möglichkeit beide zu benchen.
Leider auf recht unterschiedlichen CPU Architekturen (Intel ATOM <-> ARM). Bei beiden ist die Applikation (OpenGL) aber extrem CPU limitiert. Interessanterweise auf einem Intel ATOM + GMA950 nicht (nur 40% CPU und deutliche bessere FPS)! Sprich aus der aktuellen Sicht sind beide SGX Treiber CPU Belastungstechnisch schlechter als der Intel GM950 Treiber. Von der FPS wollen wir da noch gar nicht reden die beim SGX deutlich niedriger ist...

Zugegeben sind beide SGX Systeme noch Alpha/Beta HW & SW daher wird & muß sich da noch einiges tun...

PowerVR User

Ailuros
2009-02-08, 08:55:30
ARM CPU auf welcher Platform?

SGX Gast
2009-02-13, 12:35:16
Verwendet wurde ein ARM MPCore (4 ARM11 Cores) auf 400 MHz mit on-Die SGX und damit Unified Memory Architecture.
Die ganze Demo lief aber nur auf einem Core, nicht Multithreaded. Soweit ich weiß ist der SGX Treiber per Default auch nicht Multithreading fähig (zumindest in der verwendeten Portierung).

robbitop@nonathome
2009-02-15, 12:10:39
http://www.mitrax.de/data/files/bilder/anandtech.jpg

Nach dem was ich gehört habe ist der SGX535 zwar wirklich sehr klein und schwach, aber schneller als Softwarelösungen ist er schon! ;)

Dann hat PVR also anscheinend einen anständigen Windows-Treiber. Warum verteilen sie ihn dann nicht? Zur Not "leakt" man das ganze mal aus Versehen über P2P. ^^

Ailuros
2009-02-16, 11:08:18
Dann hat PVR also anscheinend einen anständigen Windows-Treiber. Warum verteilen sie ihn dann nicht? Zur Not "leakt" man das ganze mal aus Versehen über P2P. ^^

Ich denke dass IMG darauf wartet dass Intel ueber Tungsten dieses ganze Schlammassel irgendwann korrigiert. Ich persoenlich wuerde auch nicht versuchen einer meiner groessten Kunden zu nerven.

robbitop@work
2009-02-16, 11:12:35
Ich denke dass IMG darauf wartet dass Intel ueber Tungsten dieses ganze Schlammassel irgendwann korrigiert. Ich persoenlich wuerde auch nicht versuchen einer meiner groessten Kunden zu nerven.
Für einen Leak kann doch kein Mensch etwas. Sowas passiert ;)

Ailuros
2009-02-16, 11:47:02
Für einen Leak kann doch kein Mensch etwas. Sowas passiert ;)

IMG ist nicht NVIDIA.

Ailuros
2009-02-17, 13:14:21
Dank MWC stroemt es nur so an neuen Ankuendigungen:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=12093&Itemid=1

http://focus.ti.com/pr/docs/preldetail.tsp?sectionId=594&prelId=sc09021

http://www.xbitlabs.com/news/mobile/display/20090216104233_Intel_and_LG_Electronics_Collaborate_on_Development_of_Future_Mob ile_Devices.html

http://www.imgtec.com/News/Release/index.asp?NewsID=444

http://www.imgtec.com/News/Release/index.asp?NewsID=442

:eek: (fuer's letzte)

Coda
2009-02-17, 13:23:09
Der OpenVG-Chip kann wirklich brutal viel für den Anwendungszweck.

robbitop@work
2009-02-17, 13:48:57
Der VGX bedient also offenbar eher Märkte, die vor allem GUIs, Flash und Videos etc. beschleunigt haben wollen. Ergibt ja auch Sinn. Wozu ein hoch flexibler 3D-ASIC, wenn er eh in 99% der Produkte/Fälle nur für so einen Zweck benötigt wird. Das bekommt man so ja transistoreffizienter hin.
Das Ding scheint aber dennoch aufgebaut zu sein, wie eine GPU. Da sie aber nur Blending erwähnen, scheint das Ding keine TMUs zu haben?

Coda
2009-02-17, 13:50:13
OpenVG verlangt eine Art von Textureinheiten. Ist aber nicht so komplex wie normal.

robbitop@work
2009-02-17, 13:56:33
OpenVG verlangt Textureinheiten.
Worin liegen denn die unterschiedlichen Anforderungen zw. OpenVG und OpenGL ES in etwa?
Klingt für mich als Laien jedenfalls so, als seien die Anforderungen für OpenVG schmaler als für OpenGL ES, so dass man kostengünstiger einen eigenen ASIC dafür macht. Natürlich könnte auch die Leistungsanforderung eine völlig andere sein. The right tool for the right job?

Der OMAP4 sieht ja richtig "übel" aus. *sabber*
Der hat einen Dual Core Cortex-A9 (mit OOO-Execution!) mit 1 GHz Taktfrequenz und einen SGX540! Alles im 45 nm Low Power Prozess. So ein Teil in der PSP2 und man hätte wirklich eine sehr leistungsfähige Handheldspielkonsole. Da diese jedoch erst > 2010 geplant ist, vermute ich dort sogar (zumindest was die GPU Seite angeht) fast noch etwas mehr Bums. Oder eben das gleiche nur sparsamer (Shrinks).

Coda
2009-02-17, 14:04:45
OpenVG kann nur ein Bild verzerrt auf den Bildschirm kleben (mit entsprechenden Blending-Operationen usw.). Das ist natürlich weitaus einfacher zu implementieren als TMUs die nur Screenspace-Derivate der Texturkoordinaten zur Verfügung haben.

Das ganze ist primär für 2D-Vektor-Beschleunigung gedacht, also Dinge wie Flash und SVG.

Ailuros
2009-02-17, 14:14:50
Worin liegen denn die unterschiedlichen Anforderungen zw. OpenVG und OpenGL ES in etwa?
Klingt für mich als Laien jedenfalls so, als seien die Anforderungen für OpenVG schmaler als für OpenGL ES, so dass man kostengünstiger einen eigenen ASIC dafür macht. Natürlich könnte auch die Leistungsanforderung eine völlig andere sein. The right tool for the right job?

Ein Vogel sagte mir gerade vorher dass VG um einiges anspruchsvoller waere als GL (wenn ich nichts falsch verstanden habe).

Der OMAP4 sieht ja richtig "übel" aus. *sabber*
Der hat einen Dual Core Cortex-A9 (mit OOO-Execution!) mit 1 GHz Taktfrequenz und einen SGX540! Alles im 45 nm Low Power Prozess. So ein Teil in der PSP2 und man hätte wirklich eine sehr leistungsfähige Handheldspielkonsole. Da diese jedoch erst > 2010 geplant ist, vermute ich dort sogar (zumindest was die GPU Seite angeht) fast noch etwas mehr Bums. Oder eben das gleiche nur sparsamer (Shrinks).

SGX540 = USSE1
SGX543 = USSE2

http://www.imgtec.com/News/Release/index.asp?NewsID=428

Die 40% mehr die sie angeben ist der schlimmste Fall den sie ueberhaupt benutzen konnten. Anderes tiling fuer 543 = weniger parameter bandwidth, 2x mal die z-check Einheiten usw.; ausser der Texel-fuellrate die gleich ist wie auf 540 kommt der 543 ziemlich mit doppelt so hohen Raten an und ist der einzige core der bis jetzt multi-core faehig ist. SGX543 wird wohl erst in etwa 2 Jahren in Geraeten erscheinen, ergo Vorsicht was Du Dir genau wuenscht. Und natuerlich wird der ganze Spass nicht in 45nm kommen. Eher =/< 32nm.

***edit: TI's dies sind uebrigens relativ gross unter 65nm; ich weiss jetzt zwar nicht wie es bei denen unter 45nm genau aussehen koennte, aber SONY waere IMHLO besser beraten sich nach einem anderen Hersteller umzusehen.

robbitop@work
2009-02-17, 14:49:24
Ein Vogel sagte mir gerade vorher dass VG um einiges anspruchsvoller waere als GL (wenn ich nichts falsch verstanden habe).
Da hat Coda was anderes gesagt.



SGX540 = USSE1
SGX543 = USSE2
Das Featureset von USSE1 reicht völlig für einen Gaming Handheld. Wichtig ist vor allem Performance.



Die 40% mehr die sie angeben ist der schlimmste Fall den sie ueberhaupt benutzen konnten. Anderes tiling fuer 543 = weniger parameter bandwidth, 2x mal die z-check Einheiten usw.; ausser der Texel-fuellrate die gleich ist wie auf 540 kommt der 543 ziemlich mit doppelt so hohen Raten an und ist der einzige core der bis jetzt multi-core faehig ist. SGX543 wird wohl erst in etwa 2 Jahren in Geraeten erscheinen, ergo Vorsicht was Du Dir genau wuenscht. Und natuerlich wird der ganze Spass nicht in 45nm kommen. Eher =/< 32nm.
Naja TMUs sind schon wichtig. Mir wäre ein SGX545 mit 4 TMUs schon lieber als eine GPU mit nur 2 TMUs (wäre ja ggü der PSP GPU ein Abstieg - taktnormalisiert!). Besser ein SGX555 oder soetwas. Aber es darf natürlich nicht das Transistorbudget sprengen. Also Wunschtraum.


***edit: TI's dies sind uebrigens relativ gross unter 65nm; ich weiss jetzt zwar nicht wie es bei denen unter 45nm genau aussehen koennte, aber SONY waere IMHLO besser beraten sich nach einem anderen Hersteller umzusehen.
Naja im OMAP3 steckte ja auch um einiges mehr drin als bei der Konkurrenz. Coretex A8, NEON, sehr guter DSP und SGX530. Wer bietet sowas noch?

Ailuros
2009-02-17, 15:02:50
Da hat Coda was anderes gesagt.

Es kommt anscheinend auf die Anzahl der "unter-Pfade" die jeder einzelner Pfad unter OpenVG enthaelt an. Hat jeder VG Pfad eine Unzahl an "sub-paths" ist das Resultat auch um einiges komplizierter als unter GL.

Das Featureset von USSE1 reicht völlig für einen Gaming Handheld. Wichtig ist vor allem Performance.

*seufz* SGX543 ist das Stueck IP fuer die naechste Generation handhelds.

Naja TMUs sind schon wichtig. Mir wäre ein SGX545 mit 4 TMUs schon lieber als eine GPU mit nur 2 TMUs (wäre ja ggü der PSP GPU ein Abstieg - taktnormalisiert!).

Ich sagte multi-core Faehigkeiten. Ein 2:1 ALU:TMU Verhaeltnis bedeutet uebrigens einen balancierteren Design fuer SGX. Mir persoenlich sind die hoeheren Z/stencil Raten und die doppelt so hohe MSAA Leistung auf 543 wichtiger als TMUs.

Besser ein SGX555 oder soetwas. Aber es darf natürlich nicht das Transistorbudget sprengen. Also Wunschtraum.

Es wird vielleicht noch einen 555-artigen chip geben; 20.3mm2 fuer einen SGX555 unter 65nm.

Naja im OMAP3 steckte ja auch um einiges mehr drin als bei der Konkurrenz. Coretex A8, NEON, sehr guter DSP und SGX530. Wer bietet sowas noch?

Ich meinte nicht den gesamten SoC sondern SGX ausschliesslich. Relevantes Lesematerial (Stromverbrauch) dazu:

http://www.beyond3d.com/content/news/711

***edit: ich bin uebrigens verdammt neugierig ob Sony Ericsson Idou eine GPU enthaelt und wenn ja welche, da das Ding auf Symbian basiert.

robbitop@work
2009-02-17, 17:05:38
*seufz* SGX543 ist das Stueck IP fuer die naechste Generation handhelds.
Wäre ich ein Handheldkonsolenhersteller, würde ich IP aus der jetzigen Generation nutzen und lieber die Transistoren in die Anzahl der Recheneinheiten stecken. Features kosten immer ersteinmal Transistoren.


Ich sagte multi-core Faehigkeiten. Ein 2:1 ALU:TMU Verhaeltnis bedeutet uebrigens einen balancierteren Design fuer SGX. Mir persoenlich sind die hoeheren Z/stencil Raten und die doppelt so hohe MSAA Leistung auf 543 wichtiger als TMUs.
Multicore bei GPUs? Bwah, lieber nicht. IMO ist das eine günstige Variante, Leistung zu skalieren, ohne einen extra ASIC zu designen und zu produzieren. Aber von der Effizienz (hinsichtlich Leistung, Wärmeaufnahme, Redundanz, Transistorbudget) eher die suboptimale Lösung. Schon gar im Handheldbereich, wo eh alles knapp ist.



Es wird vielleicht noch einen 555-artigen chip geben; 20.3mm2 fuer einen SGX555 unter 65nm.
Wie groß ist denn ein SGX530 im OMAP3? Auf ähnliche Regionen müßte man mit der GPU in der PSP2 im Jahr 2010/11 hinkommen. Dazu bräuchte man auf jeden Fall 32 nm Fertigungstechnik, damit das Teil nicht die Batterie in null-komma-nichts leersaugt. ;)



Ich meinte nicht den gesamten SoC sondern SGX ausschliesslich. Relevantes Lesematerial (Stromverbrauch) dazu:

http://www.beyond3d.com/content/news/711

Schon gelesen. Leistungsaufnahme der Gesamthardware eines Handhelds sollte bei knapp über 1 W (typical, nicht worst case) liegen. Mit Display. Der DS kommt da deutlich drunter, die PSP1 liegt in etwa dort. (kann man anhand der Laufzeit und der Akkukapazität leicht nachrechnen)


***edit: ich bin uebrigens verdammt neugierig ob Sony Ericsson Idou eine GPU enthaelt und wenn ja welche, da das Ding auf Symbian basiert.
Naja bei Non-Gaming Handhelds/Phones ist die GPU IMO eher unwichtig. Dort muss nur eine GUI, Flash und eventuell Videos beschleunigt werden. Da ist ein VGX und auch fast jede andere mobile GPU gut genug dafür.

Ein anständiger SoC sollte also in etwa bei ca 500 mW typischer, durchschnittlicher Leistungsaufnahme liegen. Vieleicht sogar einen Tick drunter.

Coda
2009-02-17, 17:18:24
Multicore bei GPUs? Bwah, lieber nicht.
Es ist kein AFR. Es ist eher eine einfache Verdopplung der Funktionseinheiten ohne das Chiplayout zu ändern. Man hängt einfach zwei SGX an einen Speicherbus. Die Tiles werden dann auf beide Chips dynamisch verteilt. Da beide damit implizit auch den gleichen Speicher verwenden ergibt sich auch kein Problem mit Offscreen-Surfaces.

War aber auch skeptisch ;)

robbitop@work
2009-02-17, 17:30:59
Es ist kein AFR. Es ist eher eine einfache Verdopplung der Funktionseinheiten ohne das Chiplayout zu ändern. Man hängt einfach zwei SGX an einen Speicherbus. Die Tiles werden dann auf beide Chips dynamisch verteilt. Da beide damit implizit auch den gleichen Speicher verwenden ergibt sich auch kein Problem mit Offscreen-Surfaces.

War aber auch skeptisch ;)
Gibts dazu ein Dokument, was man lesen kann?
Multi-Core ist für mich schon etwas anderes, als nur Recheneinheiten zu skalieren. Außerdem gibt es bei der Skalierung von Recheneinheiten dann auch neue Chipnamen. (SGX535, 545, 555, G94, G96, G92, RV630, RV670 usw usf)
Das verwirrt eben auch nochmal zusätzlich.

Coda
2009-02-17, 17:38:58
Gibts dazu ein Dokument, was man lesen kann?
Nein. Du musst mir da vertrauen...

Multi-Core ist für mich schon etwas anderes, als nur Recheneinheiten zu skalieren. Außerdem gibt es bei der Skalierung von Recheneinheiten dann auch neue Chipnamen. (SGX535, 545, 555, G94, G96, G92, RV630, RV670 usw usf)
Das verwirrt eben auch nochmal zusätzlich.
Es sind zwei vollwertige Cores nebeneinander auf dem Die, aber es ergibt zusammen praktisch einen größeren Chip. Das funktioniert bei einem TBDR wirklich sehr gut.

Gast
2009-02-17, 19:40:29
http://www.fudzilla.com/index.php?option=com_content&task=view&id=12093&Itemid=1



das hier ist aber auch nicht schlecht:


According to TI the OMAP 4 will deliver 10-times-faster Web page loading times, more than seven times higher computing performance, and 10 times better graphics performance than its current OMAP processors.


Der SGX540 im OMAP4 ist also angeblich 10x schneller als der 110MHz schnelle SGX530 im OMAP3. Wenn's stimmt wärs cool!

robbitop
2009-02-17, 22:10:40
In synthetischen Sonderfällen vieleicht. Die NV20 war laut NV auch bis zu 7x so schnell wie NV15.

@coda

Klingt interessant. Dann ist SGX543 in der Tat eine verdammt gute Basis für einen Gaminghandheld. Je nach verfügbarem Transistorcount kann man dann die GPU-Leistung schön skalieren. Da beide Cores auf einem DIE sind, gibts auch keine Bandbreitenengpässe zwischeneinander.

Ailuros
2009-02-17, 23:45:54
Wäre ich ein Handheldkonsolenhersteller, würde ich IP aus der jetzigen Generation nutzen und lieber die Transistoren in die Anzahl der Recheneinheiten stecken. Features kosten immer ersteinmal Transistoren.

Das Featureset von SGX geht weit ueber SM4.1 hinaus und das Ding hat MIMD Einheiten was es ideal fuer GPGPU Zeug macht. Dazu hast Du gleichzeitig die hoechstmoegliche Leistung mit dem kleinstmoeglichen Stromverbrauch im Markt. Glaubst Du SONY ist so bloed und hat IMG gewaehlt?

Der direkte Konkurrent ist NV's Tegra oder APX2500; kein USC, erreicht nur OGL_ES2.0 und danach aus damit und hat den groessten die im Markt. Maximal 5xCSAA (2x MSAA + 3x CSAA).

Multicore bei GPUs? Bwah, lieber nicht. IMO ist das eine günstige Variante, Leistung zu skalieren, ohne einen extra ASIC zu designen und zu produzieren. Aber von der Effizienz (hinsichtlich Leistung, Wärmeaufnahme, Redundanz, Transistorbudget) eher die suboptimale Lösung. Schon gar im Handheldbereich, wo eh alles knapp ist.

Wuerde es einen einzigen 8 pipe/4TMU 543 geben wuerde dieser <20% mehr in die area kosten.

Wie groß ist denn ein SGX530 im OMAP3?

Keine Ahnung, ist aber auch kein Massstab da wie schon erwaehnt TI's 65nm Prozess ziemlich unguenstig ist zu anderen Herstellern. Aber wenn's schon sein muss ein einziger SGX543 wuerde unter 45nm schaetzungsweise um die 8mm2 einnehmen.

Auf ähnliche Regionen müßte man mit der GPU in der PSP2 im Jahr 2010/11 hinkommen. Dazu bräuchte man auf jeden Fall 32 nm Fertigungstechnik, damit das Teil nicht die Batterie in null-komma-nichts leersaugt. ;)

Welcher Hersteller waere denn so bloed und wuerde in 2010 noch etwas > 32nm herstellen ueberhaupt? Die Leistung haengt direkt von dem ab was SONY genau haben will und nicht was ich oder Du uns vorstellen moechten. Schlag mal nach wieviel die area die heutige Grafikeinheit eines PSP einnimmt und wie gross die Batterie von dem Ding ist und erzaehl mir dann dass theoretisch 2*SGX543@32nm zu "gross" waeren. SGX530 ist mainstream Handy Material und keine handheld GPU.

Schon gelesen. Leistungsaufnahme der Gesamthardware eines Handhelds sollte bei knapp über 1 W (typical, nicht worst case) liegen. Mit Display. Der DS kommt da deutlich drunter, die PSP1 liegt in etwa dort. (kann man anhand der Laufzeit und der Akkukapazität leicht nachrechnen)

Ja und? Wer sagt dass man aehnliche Werte nicht auch nicht in der Zukunft einhalten wird? Nur fuer NINTENDO's Nachfolger hab ich einen kleinen Zweifel ueberhaupt wenn NVIDIA heftig auf die Frequenz drueckt.

Der SGX540 im OMAP4 ist also angeblich 10x schneller als der 110MHz schnelle SGX530 im OMAP3. Wenn's stimmt wärs cool!

SGX530 = 2 ALUs/1 TMU
SGX540 = 4 ALUs/2 TMUs

Waeren beide auf 110MHz getaktet, dann waere der 540 theoretisch um 2x Mal schneller als der 530. Bei 200MHz fuer 540 sind wir schon bei Faktor 4x. Jetzt werden ein paar zusaetzliche Optimierungen fuer den SoC mitberechnet und natuerlich die um einiges groessere CPU-Staerke auf OMAP4 und man erreicht zwar nicht unbedingt 10x mal so viel Leistung aber um einiges mehr schon.

Gibts dazu ein Dokument, was man lesen kann?

Nein das Patent wurde noch nicht veroeffentlicht.

Außerdem gibt es bei der Skalierung von Recheneinheiten dann auch neue Chipnamen. (SGX535, 545, 555, G94, G96, G92, RV630, RV670 usw usf)
Das verwirrt eben auch nochmal zusätzlich.

SGX520-545 = USSE1 = Series5
SGX543 = USSE2 = Series5XT

Klingt interessant. Dann ist SGX543 in der Tat eine verdammt gute Basis für einen Gaminghandheld.

555 wurde storniert oder vorruebergehend auf's Eis gelegt weil sie etwas entwickeln wollten dass den Anspruechen ihrer Partner besser passen wuerde. 543 erreicht das notwendigste eines 555 schon. Um Zeit zu gewinnen wurde 543 mit multi-core Faehigkeiten entwickelt.

Uebrigens hab ich das Gefuehl dass egal ob single oder multi-core alles ab 543 nicht mehr mit festen tile-Groessen arbeiten wird. Ich denke aber dass bei 2 cores eine display list a la Naomi2 ausreichen wuerde.

Gast
2009-02-19, 05:51:17
OMAP3 wird doch aber auch schon in 45nm hergestellt (3610, 3620, 3630, 3640), weiß jemand wie effizient da der TI Prozess ist?

Ailuros
2009-02-19, 09:04:52
OMAP3 wird doch aber auch schon in 45nm hergestellt (3610, 3620, 3630, 3640), weiß jemand wie effizient da der TI Prozess ist?

Stimmt; ich weiss zwar nicht wie 45nm bei TI aussieht, aber TI's Prozesse nehmen vergleichsmaessig mehr die area ein als bei anderen Herstellern.

Ailuros
2009-02-24, 09:36:18
IMG hat ein whitepaper fuer Series5XT (SGX543) hochgeladen. Neben der Kleinigkeit dass "GPGPU" oefters darin auftaucht, wurden noch ein paar Daten hinzugefuegt die sich auf 543 beziehen.

Erwaehnt werden SGX543 und SGX543MP, wobei das letztere ein multi-chip config ist. IMHLO 2 chips.

Wenn man das Series5 whitepaper nachschlaegt wird SGX545 (4 shader pipes, 4 TMUs) als groesster core angegeben.

Unter 65nm 200MHz und <50% shader load:

1000 MPixels/s (mit 2.5x Overdraw) und 40M Tris/s bei 12.5mm2.

SGX543 hat 4 (fettere) shader pipes, 2 TMUs und unter den gleichen Vorraussetzungen wie oben:

2000 MPixels/s und 70M Tris/s bei 16mm2.

Die 4000 MPixels/s, 140M Tris/s = 32mm2 sind fuer SGX543 MP. Woher jetzt die so hohen Fuellraten ploetzlich herkommen kann ich nicht wissen, ausser es sind trotz allem 4 TMUs und nicht 2 auf SGX543.

Xmas
2009-02-24, 12:58:39
Du gehst von falschen Annahmen aus.

PCGH_Carsten
2009-02-24, 13:32:27
Liegt die höhere, angegebene Füllrate nicht einfach an der höheren Z-Rejection-Rate, die PowerVR ebenfalls angibt? Immerhin ist der Overdraw doch ebenfalls mit in die Füllrate hineingerechnet.

Series5XT shader-driven TBDR architecture
Unique, patented tiling technology enables on-chip
processing of hidden surface removal (pixel perfect and
submission order independent) at double the rate of
POWERVR Series5.

Ailuros
2009-02-24, 13:48:36
Liegt die höhere, angegebene Füllrate nicht einfach an der höheren Z-Rejection-Rate, die PowerVR ebenfalls angibt? Immerhin ist der Overdraw doch ebenfalls mit in die Füllrate hineingerechnet.

SGX53x-54x duerften tatsaechlich 8z Einheiten haben, wobei es Sinn macht dass SGX543 stattdessen 16z Einheiten haben koennte. Dass hier die Z/stencil Fuellraten 2x Mal so hoch sein koennten werde ich nicht bezweifeln....aber....

http://forum.beyond3d.com/showthread.php?t=51601

Was die 543 Fuellrate betrifft war es bei weitem keine "Annahme" meinerseits. Wenn in der offiziellen Ankuendigung des cores drinsteht dass das Ding mit einem Overdraw von 2.5x 1GPixel Fuellrate bei 200MHz erreicht, dann weiss ich zwar nicht was fuer kreative Mathe der Herr der es zusammengekritzelt hat verwendet hat, aber bei mir kommen 2 TMUs hinten raus.

***edit: ok ich glaube eine private Debatte mit Arun hat geholfen das Zeug richtig hinzubiegen:

SGX543 duerfte 2 TMUs haben und die 32mm2@65nm stehen hoechstwahrscheinlich fuer SGX543MP welcher nur ein quad-core sein koennte. Ich glaube aber erst an so einen config in irgend einem Geraet wenn ich es sehe. Es wird ziemliche Anstrengung brauchen mich zu ueberzeugen dass man lineare Skalierung aus 4 cores herauspruegeln koennte. Schon gar nicht wenn ich dahinter dynamisches tiling unter einer Art SFR vermute.

PCGH_Carsten
2009-02-24, 14:08:37
Zwei Pixel pro Takt, nicht notwendigerweise TMUs - aber ja.

Ailuros
2009-02-24, 14:37:00
Zwei Pixel pro Takt, nicht notwendigerweise TMUs - aber ja.

Afaik

MBX Lite = 4 pixels @ max overdraw
MBX = 16 pixels @ max overdraw

robbitop
2009-02-24, 18:41:22
Bezüglich mobiler Grafik habe ich mal kurz nachgerechnet, was ein R300 in 32 nm bedeuten würde.
Ich kam bei idealen Shrinks auf ~10 mm^2. Allerdings bei einer linear skalierten Leistungsaufnahme von immernoch 1,8 W.
Ich frage mich, wie IMG es hinbekommt, mit ihren SGX im n*100 mW Bereich zu kommen. Die reine Die-Size ist IMO ggü R300@32nm nicht mehr so beeindruckend. Wobei SGX543MP@32nm immernoch drunter liegen würde (rund 8 mm^2).
Das heißt, dass ein SGX543MP in etwa 85 Mio Transistoren hat. Das sind weniger Transistoren bei mehr Features als R300. Aber vermutlich wurden etliche FF-Units gespart, die dann zu Einbußen in der Geschwindigkeit führen.

Pro SGX543 dürfte man dann (je nachdem ob IMG mit 543MP eine Quadcore oder Dualcore Version im Sinn hatte) zwischen 21 und 42 Mio Transistoren liegen.

Ich hoffe ja auf einen CortexA9MP + einen SGX543MP in obiger Ausführung für die PSP2. Natürlich gepaart mit mind. 256 MiB RAM und einem kleinen (8 MiB) on-Die eDRAM und halbwegs ordentlichem Display (640 oder mehr Spalten bitte!). Ein Touch-Display würde dabei nochmal die Möglichkeiten der Spielegenres drastisch erweitern.
Mit so einem Handheld wäre FarCry artige Grafik auf einem Handheld kein Wunschtraum mehr. *träum*

Ailuros
2009-02-25, 07:50:49
Bezüglich mobiler Grafik habe ich mal kurz nachgerechnet, was ein R300 in 32 nm bedeuten würde.
Ich kam bei idealen Shrinks auf ~10 mm^2. Allerdings bei einer linear skalierten Leistungsaufnahme von immernoch 1,8 W.

Wenn Du schon etwas als Basis-Element fuer solche Rechnungen nehmen willst liegt R300 so verdammt ausserhalb der Faehigkeiten eines SGX dass ich gleich auf R600 deuten wuerde und selbst dann waere die Rechnung verkorkst da der letztere keine MIMD Einheiten hat und der Tesselations-Anteil des R600 wohl nicht so programmierbar ist wie auf SGX.

Ich frage mich, wie IMG es hinbekommt, mit ihren SGX im n*100 mW Bereich zu kommen. Die reine Die-Size ist IMO ggü R300@32nm nicht mehr so beeindruckend. Wobei SGX543MP@32nm immernoch drunter liegen würde (rund 8 mm^2).

Unter den normalen verstreuten Spezifikationen des SGX wird meistens nur mal links und rechts etwas ueber procedural geometry oder sogar geometry compression erwaehnt. Etwas ausfuehrlicher wurde die Ankuendigung des low end OpenVG VGX cores: http://www.imgtec.com/News/Release/index.asp?NewsID=442

Kurz geschnitten such Dir was zumindest in der SM4.1 Richtung bevor Du ueberhaupt zum rechnen anfangst.

Das soll aber trotz allem nicht heissen dass ein jeglicher SGX am Ende staerker sein wuerde als eine GPU selbst wie R300. Abgesehen davon dass die cores fuer sehr kleine Aufloesungen zugeschnitten sind, fehlt es auch ziemlich krass an Bandbreite.


Ich hoffe ja auf einen CortexA9MP + einen SGX543MP in obiger Ausführung für die PSP2. Natürlich gepaart mit mind. 256 MiB RAM und einem kleinen (8 MiB) on-Die eDRAM und halbwegs ordentlichem Display (640 oder mehr Spalten bitte!). Ein Touch-Display würde dabei nochmal die Möglichkeiten der Spielegenres drastisch erweitern.
Mit so einem Handheld wäre FarCry artige Grafik auf einem Handheld kein Wunschtraum mehr. *träum*

Wieso eDRAM?

Gast
2009-02-25, 11:52:15
Ich hoffe ja auf einen CortexA9MP + einen SGX543MP in obiger Ausführung für die PSP2. Natürlich gepaart mit mind. 256 MiB RAM und einem kleinen (8 MiB) on-Die eDRAM und halbwegs ordentlichem Display (640 oder mehr Spalten bitte!). Ein Touch-Display würde dabei nochmal die Möglichkeiten der Spielegenres drastisch erweitern.
Mit so einem Handheld wäre FarCry artige Grafik auf einem Handheld kein Wunschtraum mehr. *träum*
Ich glaube nicht dass Sony wieder auf High-End/Grafikpower setzt wie bei der PSP. Eher in Richtung relativ günstig mit Touchscreen.

Ailuros
2009-02-25, 12:48:45
Ich glaube nicht dass Sony wieder auf High-End/Grafikpower setzt wie bei der PSP.

Wo ist denn die high end Grafik Leistung im PSP versteckt dass ich sie nicht sehen kann?

Eher in Richtung relativ günstig mit Touchscreen.

Was er erwaehnt (ausser dem eDRAM was eigentlich einem TBDR schon helfen koennte, aber im Grund ueberfluessig ist) liegt durchaus im Bereich der relativ guenstigen HW.

reunion
2009-02-25, 13:28:54
Bezüglich mobiler Grafik habe ich mal kurz nachgerechnet, was ein R300 in 32 nm bedeuten würde.
Ich kam bei idealen Shrinks auf ~10 mm^2. Allerdings bei einer linear skalierten Leistungsaufnahme von immernoch 1,8 W.
Ich frage mich, wie IMG es hinbekommt, mit ihren SGX im n*100 mW Bereich zu kommen. Die reine Die-Size ist IMO ggü R300@32nm nicht mehr so beeindruckend. Wobei SGX543MP@32nm immernoch drunter liegen würde (rund 8 mm^2).
Das heißt, dass ein SGX543MP in etwa 85 Mio Transistoren hat. Das sind weniger Transistoren bei mehr Features als R300. Aber vermutlich wurden etliche FF-Units gespart, die dann zu Einbußen in der Geschwindigkeit führen.


Nichts wird so heiß gegessen wie es gekocht wird. Ein R300 mit einem 256-bit SI und einer Technologie von vor etlichen Jahren ist hier sicher ein schlechter Vergleich. Wenn man FF-Units weitgehende streicht und von beginn an auf den Stromverbrauch achtet ist das sicherlich nichts besonderes. Die Frage ist halt dann wie es mit der Leistung aussieht.

Ailuros
2009-02-25, 14:15:17
Nichts wird so heiß gegessen wie es gekocht wird. Ein R300 mit einem 256-bit SI und einer Technologie von vor etlichen Jahren ist hier sicher ein schlechter Vergleich. Wenn man FF-Units weitgehende streicht und von beginn an auf den Stromverbrauch achtet ist das sicherlich nichts besonderes. Die Frage ist halt dann wie es mit der Leistung aussieht.

Waere es fuer ATi andererseits so leicht gewesen eine echten "mini-Xenos" zu bauen ohne das der Stromverbrauch aus der Decke schiesst, waeren sie auch nicht zu dem eher merkwuerdigen Imageon2 gekommen. Von USC darf beim letzteren keine Frage sein und insgesamt ist das Featureset und die dementsprechende Leistung nichts allzu ueberzeugend selbst im Vergleich zu MBX. Dabei liegt SGX (die Faehigkeiten mal zur Seite) in Sachen Leistung um einiges hoeher als MBX.

Qualcolmm wird die existierende Technologie sowieso nur fuer low end Geraete benutzen; es ist weder von high end Handys die Rede und schon gar nicht von anspruchsvolleren Geraeten wie netbooks oder sogar handheld Consolen, wobei man beim letzteren durchaus in der Zukunft noch mehr auf Platform-Basis dank GPGPU ziehen kann.

robbitop@work
2009-02-25, 14:29:45
Wenn Du schon etwas als Basis-Element fuer solche Rechnungen nehmen willst liegt R300 so verdammt ausserhalb der Faehigkeiten eines SGX dass ich gleich auf R600 deuten wuerde und selbst dann waere die Rechnung verkorkst da der letztere keine MIMD Einheiten hat und der Tesselations-Anteil des R600 wohl nicht so programmierbar ist wie auf SGX.
Kann man eh nicht vergleichen. SGX Features trotz geringem Transistorbudget wird mit dem Wegfall von ettlichen FF-Units bezahlt. Das kostet mit Sicherheit Performance.
Für einen Gaminghandheld sind alle Features >R300 zur Zeit IMO irrelevant. Lieber Transistoren in pure Rechenleistung pumpen oder lieber die Leistungsaufnahme der GPU senken.



Kurz geschnitten such Dir was zumindest in der SM4.1 Richtung bevor Du ueberhaupt zum rechnen anfangst.
Ich habe ja eingeworfen, dass R300 mitnichten auf Featureseite mithalten kann. Aber Rest siehe oben.



Das soll aber trotz allem nicht heissen dass ein jeglicher SGX am Ende staerker sein wuerde als eine GPU selbst wie R300. Abgesehen davon dass die cores fuer sehr kleine Aufloesungen zugeschnitten sind, fehlt es auch ziemlich krass an Bandbreite.
Bandbreite ist in einem Handheld wirklich beschränkt. Wenn man den Framebuffer/Backbuffer ect auf einem eDRAM hällt (siehe PSP1, Gamecube, X360), entlastet man die Bandbreite vom Unified RAM und entschärft das Problem drastisch.



Wieso eDRAM?
Siehe oben.



Ich glaube nicht dass Sony wieder auf High-End/Grafikpower setzt wie bei der PSP. Eher in Richtung relativ günstig mit Touchscreen.
Das fürchte ich auch. Ich hoffe aber, dass es nicht so kommt. Natürlich muss man auch am Spielkonzept arbeiten. Einfach nur Heim-Konsolen-Spiele auf einen Handheld zu porten und dabei die Randbedingungen eines Handhelds zu ignorieren, das kann nicht gut gehen. Die Spiele spielen sich dann verkrüppelt und steif. Richtig auf geht es nur, wenn man Spiele an die Randbedingung anpasst. Siehe Nintendo DS und siehe die Top 10 - 20 Spiele für die PSP. Die sind allesamt perfekt an diese Umgebung angepasst.
Dennoch will ich endlich Far Cry ähnliche Grafik im Handheldsektor sehen. Wozu entwickelt IMG eigentlich so gute mGPUs, wenn sie nur zum Beschleunigen von irgendwelchen GUIs herhalten müssen? ;)

Wo ist denn die high end Grafik Leistung im PSP versteckt dass ich sie nicht sehen kann?
Für 2004 und einen Handheld ist die GPU der PSP verdammt HighEnd. Das Ding hat Füllrate ohne Ende, dank eDRAM auch einiges an Bandbreite, brauchbare Combiner und sogar eine TnL Unit. Auch das optische Ergebnis ist für 2004 und eine Sony Inhouse Entwicklung klasse. Man schaue sich Monster Hunter 2, God of War CoO, Dexter, Secret Agent Clank, Ratchet and Clank - Size matters und und und an. Ich bin 2004 vom Hocker gefallen, als ich so eine Leistung auf einem Handheld sah. Gleiches will ich auch 2010/11 wieder erleben. ;)



Was er erwaehnt (ausser dem eDRAM was eigentlich einem TBDR schon helfen koennte, aber im Grund ueberfluessig ist) liegt durchaus im Bereich der relativ guenstigen HW.
eDRAM ist auch bezahlbar (siehe PSP1). Es hilft einem TBDR sicher nicht so sehr wie einem IMR. Aber das muss in Bandbreitensimulationen ermittelt werden. Evtl ist es ja auch nicht notwendig. Ansonsten kann man einen eDRAM auch als erweiterten Texture-Cache nutzen und vom Unified RAM relevante Texturen in den eDRAM streamen. Das bringt definitiv etwas.

Nichts wird so heiß gegessen wie es gekocht wird. Ein R300 mit einem 256-bit SI und einer Technologie von vor etlichen Jahren ist hier sicher ein schlechter Vergleich. Wenn man FF-Units weitgehende streicht und von beginn an auf den Stromverbrauch achtet ist das sicherlich nichts besonderes. Die Frage ist halt dann wie es mit der Leistung aussieht.
R300 war freakin awesome! (man entschuldige meine Begeisterung) Soetwas auf einem Handheld würde schon zu erstaunlich guten Ergebnissen führen.
Ich nahm ihn als Vergleich, da er von der Rohleistung in etwa die Messlatte für die PSP2 sein sollte. Vieleicht auch ein wenig drunter. Ein TBDR braucht ja nicht so viel Speicherbandbreite und einiges anderes kann man mit eDRAM auch noch abfangen.
Mehr Features als R300 halte ich für die mittlere Zukunft für einen Spielehandheld unnötig. Für mehr Features braucht es auch mehr Bums und dafür sind die Prozesse wieder nicht weit genug.

Ailuros
2009-02-25, 14:54:54
Kann man eh nicht vergleichen. SGX Features trotz geringem Transistorbudget wird mit dem Wegfall von ettlichen FF-Units bezahlt. Das kostet mit Sicherheit Performance.

Und woher kommt die Schlussfolgerung genau? SGX hat ebenso TMUs (die noch um einiges komplizierter sein koennen als auf MBX wenn man wie bei 545 auf 10.1 Komplianz reicht) und hat mal verdammt vereinfacht den MBX VGP (VS1.1) in der generellen "pipeline" eines SGX integriert. Da der VGP zwar ein gutes Stueck ueber einer DX7 T&L Einheit liegt, hat er noch genug Elemente um naeher an FF hardware zu liegen als jegliches =/>SM4.0. Wieviel Dreiecke schiessen denn bei gleicher die area von einem MBX und wieviel nochmal von einem SGX bei gleicher Frequenz und mit welcher Effizienz genau? Die wichtigen Elemente die SGX als TBDR (wie u.a. z check units) stecken noch drin und es wurde afaik nichts entbehrt dass weder Leistung noch Effizienz gekostet hat.

Für einen Gaminghandheld sind alle Features >R300 zur Zeit IMO irrelevant. Lieber Transistoren in pure Rechenleistung pumpen oder lieber die Leistungsaufnahme der GPU senken.

Dafuer gibt es SGX Varianten mit verschiedenen Faehigkeiten. Wenn alles so leicht waere mir nichts Dir nichts zu entfernen und wenn es auch ueberhaupt Sinn machen wuerde, haette ATi schon seit langem sich auch den Tesselator als Beispiel ersparen koennen.

Bandbreite ist in einem Handheld wirklich beschränkt. Wenn man den Framebuffer/Backbuffer ect auf einem eDRAM hällt (siehe PSP1, Gamecube, X360), entlastet man die Bandbreite vom Unified RAM und entschärft das Problem drastisch.

Wie oft verlassen denn Daten einen waschreinen TBDR wenn man es nicht wirklich uebertreibt? Wenn auf SGX der onboard Speicher nicht beschaeftigt sein sollte, passen alle Koordinaten fuer MRTs auf die on chip MRT buffers rein.

Wieso soll ich ueberhaupt an Xenos denken, wenn sein hauptsaechliches Problem ist dass er zwar tiling benutzt aber keine Geometrie verwerfen kann? Wie sicher bist Du dass die nicht gerade bescheidene Transistoren-Menge fuer ein eDRAM Modul nicht besser woanders verfrachten wuerdest?


Für 2004 und einen Handheld ist die GPU der PSP verdammt HighEnd. Das Ding hat Füllrate ohne Ende, dank eDRAM auch einiges an Bandbreite, brauchbare Combiner und sogar eine TnL Unit. Auch das optische Ergebnis ist für 2004 und eine Sony Inhouse Entwicklung klasse. Man schaue sich Monster Hunter 2, God of War CoO, Dexter, Secret Agent Clank, Ratchet and Clank - Size matters und und und an. Ich bin 2004 vom Hocker gefallen, als ich so eine Leistung auf einem Handheld sah. Gleiches will ich auch 2010/11 wieder erleben. ;)

Selbst Naomi2 hatte eine T&L Einheit vor etlichen Jahren. Es mag zwar merkwuerdig klingen aber wenn SONY wirklich so gut mit der Entwicklung von Grafik IP waere waeren sie schoen bloed wenn sie IP fuer handhelds als auch fuer Konsolen in letzten Jahren einkaufen.

eDRAM ist auch bezahlbar (siehe PSP1). Es hilft einem TBDR sicher nicht so sehr wie einem IMR. Aber das muss in Bandbreitensimulationen ermittelt werden. Evtl ist es ja auch nicht notwendig. Ansonsten kann man einen eDRAM auch als erweiterten Texture-Cache nutzen und vom Unified RAM relevante Texturen in den eDRAM streamen. Das bringt definitiv etwas.

PSP ist auch viel zu stark verwandt mit PS2.

Nakai
2009-02-25, 16:52:17
PSP ist auch viel zu stark verwandt mit PS2.

Naja, beurteilen können wir das nicht. Ich hab mal nach einem Datenblatt der PSP-Chips gesucht. Leider habe ich kaum Informationen gefunden. Wenn man den Chip grob betrachtet, dann kann man Gemeinsamkeiten finden, aber mich würden schon ein paar andere Daten interessieren. Weißt du da mehr?


mfg Nakai

haifisch1896
2009-02-25, 17:42:14
Rein von der Ausnutzung der vorhandenen Hardware würde ich die Verwandtschaft eher mit der PS1 sehen als der PS2.

robbitop
2009-02-25, 20:50:16
Die PSP ist schon eher zur PS2 verwandt als zur PS1. Aber auch nur in sehr abstrakter Form. Die GPU ist eine völlig andere. Die CPU verwendet immerhin den gleichen Befehlssatz (MIPS) und beide Konsolen haben eDRAM für die GPU. Das wars dann aber IMO schon.

Und woher kommt die Schlussfolgerung genau? SGX hat ebenso TMUs (die noch um einiges komplizierter sein koennen als auf MBX wenn man wie bei 545 auf 10.1 Komplianz reicht)
Nicht nur TMUs sind FF-Units in einer GPU. Auch das reine Rasterizing, das Blending, Stencilops, Downfiltering u.v.m. wird von FF-Units durchgeführt. Ich vermute, dass beim SGX einiges davon von den ALUs erledigt werden muss. Das schmälert natürlich die Leistung.

Dafuer gibt es SGX Varianten mit verschiedenen Faehigkeiten. Wenn alles so leicht waere mir nichts Dir nichts zu entfernen und wenn es auch ueberhaupt Sinn machen wuerde, haette ATi schon seit langem sich auch den Tesselator als Beispiel ersparen koennen.
Ich will SGX in keinster Weise schmälern. Das scheint eine hervorragende Architektur für ihren Einsatzzweck zu sein. Und der ist nunmal nicht primär zum Spielen gedacht.
Müßte ich eine Gaming Handheld GPU entwickeln, würde ich zuerst das Featureset klar umzäunen und wirklich nur das mithineinnehmen, was ich für Gaming im Zusammenhang mit der vorhandenen Leistung und dem vorhandenen Transistorbudget sinnvoll fände. Und das ist nunmal derzeit IMO SM2.0.



Wie oft verlassen denn Daten einen waschreinen TBDR wenn man es nicht wirklich uebertreibt? Wenn auf SGX der onboard Speicher nicht beschaeftigt sein sollte, passen alle Koordinaten fuer MRTs auf die on chip MRT buffers rein.

MRT und alle Buffer die notwendig für Fullscreeneffects sind müssen IMO als ganzes vorhanden sein. Da wird der Tilebuffer nicht zu gebrauchen sein. Die größte Sorge, was Bandbreite angeht, ist ja dank den Tilecaches schon ausgeräumt. Mit einem eDRAM als Texturecache kann man zusätzlich noch einiges abfangen. Wie gesagt: Das ist nur ein Vorschlag. Eine Simulation müsste zeigen, ob Bandbreitenengpässe auftreten und je nach dem müßte man einen eDRAM einbeziehen oder auch nicht. Ohne konkrete Daten ist das schwer zu sagen.

Wie sicher bist Du dass die nicht gerade bescheidene Transistoren-Menge fuer ein eDRAM Modul nicht besser woanders verfrachten wuerdest?
S.o. Bevor ich Transistoren für Rohleistung investiere, die dann durch Bandbreite enorm restriktiert wird, investiere ich Transistoren für eDRAM. Zumal die Transistoren ja eine ganz andere Packdichte und Leistungsaufnahme haben als Logiktransistoren.


Selbst Naomi2 hatte eine T&L Einheit vor etlichen Jahren. Es mag zwar merkwuerdig klingen aber wenn SONY wirklich so gut mit der Entwicklung von Grafik IP waere waeren sie schoen bloed wenn sie IP fuer handhelds als auch fuer Konsolen in letzten Jahren einkaufen.
Naomi2 war aber kein Handheldchipset. Fakt ist, dass es im Jahr 2004 keine bessere/leistungsfähigere Alternative gab. Auch MBX nicht. Vieleicht gleichwertig, wenn überhaupt. MBX fehlte es einfach an Füllrate. Das hätten seine TBDR Fähigkeiten kaum aufholen können. Zumal die GPU in der PSP nichteinmal der Flaschenhals ist. Das ist IMO eher der RAM (32 MiB) und die CPU.



PSP ist auch viel zu stark verwandt mit PS2.
Nunja, nur auf einem sehr abstraktem Level. S.o.

Xmas
2009-02-26, 00:21:53
Ich will SGX in keinster Weise schmälern. Das scheint eine hervorragende Architektur für ihren Einsatzzweck zu sein. Und der ist nunmal nicht primär zum Spielen gedacht.
Interessant...

robbitop@work
2009-02-26, 08:46:05
Interessant...
Dass er die Gamingfunktion besser ausfüllen würde als jeder andere verfügbare Chipset in dem Bereich, sollte ja allen klar sein. Aber ich nehme dir nicht ab, dass SGX primär für diese Rolle entwickelt worden ist.
Aber allein der Vergleich von Lizenzen Gaming Handhelds vs Smartphones, PDA und sonstwas zeigt, dass SGX hauptsächlich Verwendung in Non-Gaming-Devices findet.
Kannst mich gern korrigieren.

Ailuros
2009-02-26, 09:30:46
Nicht nur TMUs sind FF-Units in einer GPU. Auch das reine Rasterizing, das Blending, Stencilops, Downfiltering u.v.m. wird von FF-Units durchgeführt. Ich vermute, dass beim SGX einiges davon von den ALUs erledigt werden muss. Das schmälert natürlich die Leistung.

http://www.imgtec.com/images/blockdiagrams/powervr/large/POWERVR_MBX_lrg.gif

http://www.imgtec.com/images/blockdiagrams/powervr/large/POWERVR_SGXSeries5_lrg.gif

Ich will SGX in keinster Weise schmälern. Das scheint eine hervorragende Architektur für ihren Einsatzzweck zu sein. Und der ist nunmal nicht primär zum Spielen gedacht.

Das behauptest aber nur Du. SGX wurde IMHLO zur gleichen Zeit sowohl fuer Grafik-Leistung und rund um GPGPU entwickelt. Das eine schliesst das andere nicht aus weder vermindert des einen die Existenz die Effizienz des anderen. Die Praesentation vom VGX150 erwaehnt zum ersten Mal die META Philosophie seitens multi-threading (eigentlich superthreading wenn nicht gleich hyperthreading um ganz korrekt zu sein) die im Kern (USSE) eines jeden SGX steckt.

Uebrigens denk mal etwas schaerfer nach:

SGX543 = 4 USSE2 ALUs, 2 TMUs, 16z = 8mm2@65nm/200MHz
SGX545 = 4 USSE1 ALUs, 2 TMUs, 16z, D3D10.1 = 12.5mm2@65nm/200MHz

Müßte ich eine Gaming Handheld GPU entwickeln, würde ich zuerst das Featureset klar umzäunen und wirklich nur das mithineinnehmen, was ich für Gaming im Zusammenhang mit der vorhandenen Leistung und dem vorhandenen Transistorbudget sinnvoll fände. Und das ist nunmal derzeit IMO SM2.0.

Klingt nach NV's Marketingfurzen die behaupten dass tiling und USC bis zu DX9.0 nutzlos waeren. Hingegen hat NV den groessten die ueberhaupt im handheld Markt und die insgesamte Leistung laesst sowieso zu wuenschen uebrig bei einem ziemlich maessigen Featureset.

Wuerde SGX pro mm2 und X Stromverbrauch weiter hinten in Sachen Leistung als wenigstens ein OGL_ES2.0 core liegen, waere es schon genug zu sagen dass Du recht hast. So wie es aber momentan aussieht, wuerde ich an Deiner Stelle einige Aspekte besser ueberdenken.


MRT und alle Buffer die notwendig für Fullscreeneffects sind müssen IMO als ganzes vorhanden sein. Da wird der Tilebuffer nicht zu gebrauchen sein. Die größte Sorge, was Bandbreite angeht, ist ja dank den Tilecaches schon ausgeräumt. Mit einem eDRAM als Texturecache kann man zusätzlich noch einiges abfangen. Wie gesagt: Das ist nur ein Vorschlag. Eine Simulation müsste zeigen, ob Bandbreitenengpässe auftreten und je nach dem müßte man einen eDRAM einbeziehen oder auch nicht. Ohne konkrete Daten ist das schwer zu sagen.

Ich sehe keinen eDRAM auf PS3 deshalb auch meine bisherigen Zweifel.

Naomi2 war aber kein Handheldchipset.

Ja und? Eine stinknormale T&L Einheit ist schon seit Jahren nicht mehr "high end".

Fakt ist, dass es im Jahr 2004 keine bessere/leistungsfähigere Alternative gab. Auch MBX nicht. Vieleicht gleichwertig, wenn überhaupt. MBX fehlte es einfach an Füllrate. Das hätten seine TBDR Fähigkeiten kaum aufholen können. Zumal die GPU in der PSP nichteinmal der Flaschenhals ist. Das ist IMO eher der RAM (32 MiB) und die CPU.

Wieviel quadratmillimeter nimmt denn die GPU des PSP genau ein? Nimm die die Groesse bei dem demenstsprechendem Herstellungsprozess und rechne aus wie eine handheld Variante von MBX+VGP aussehen koennte. Mir einen chip fuer Handys mit einem handheld chip zu vergleichen ist genauso irrsinnig als ob Du SGX530 mit dem was in PSP2 enthalten sein wird vergleichst.

Es gab uebrigens vor Jahren einen geplanten MBX Pro der aber gestrichen wurde.

Nunja, nur auf einem sehr abstraktem Level. S.o.

Dann beantworte mir auf einem ebenso abstraktem Nivaeu warum die PS3 keinen eDRAM hat.

robbitop@work
2009-02-26, 10:38:54
Blockschemas
Bei SGX sehe ich keine FF-Units für o.g. Funktionen (Blending, Downfilter etc)


Das behauptest aber nur Du. SGX wurde IMHLO zur gleichen Zeit sowohl fuer Grafik-Leistung und rund um GPGPU entwickelt. Das eine schliesst das andere nicht aus weder vermindert des einen die Existenz die Effizienz des anderen.
Der Grad für Flexibilität und Programmierbarkeit kostet immer Transistoren. Die Frage ist, ob dieser Grad für Handheldspiele dieser Generation benötigt werden würde. Ich bin weiterhin der Meinung, dass ein IMG Design mit kleinerem Featureset bei gleicher Rohleistung weniger Transistoren kosten würde. Natürlich designt man nicht extra für einen so kleinen Markt eine extra Architektur, wenn man mit relativ geringen Kompromissen auch noch andere Märkte bedienen kann. Ist mir völlig klar.



Uebrigens denk mal etwas schaerfer nach:

SGX543 = 4 USSE2 ALUs, 2 TMUs, 16z = 8mm2@65nm/200MHz
SGX545 = 4 USSE1 ALUs, 2 TMUs, 16z, D3D10.1 = 12.5mm2@65nm/200MHz
Hat SGX545 nicht 4x TMUs? Die 8 mm2 für SGX543 stimmen auch nur, wenn in IMGs PDF mit SGX543MP ein QuadCore gemeint ist. Ist er das nicht, sondern nur ein Dualcore, dann nimmt SGX543 nämlich 16 mm2 ein. Ist das schon offiziell geklärt?



Klingt nach NV's Marketingfurzen die behaupten dass tiling und USC bis zu DX9.0 nutzlos waeren. Hingegen hat NV den groessten die ueberhaupt im handheld Markt und die insgesamte Leistung laesst sowieso zu wuenschen uebrig bei einem ziemlich maessigen Featureset.
NV saugt ja auch im embedded Markt. PVR baut mit Abstand die besten Designs für diesen Markt. PVR hätte eine SM2 Arch mit weniger Die-Space bei gleicher Rohleistung wie ein entsprechendes SGX Pendant bauen können. Dass sie das nicht tun, ist mir aus betriebswirtschaftlichen Gründen schon klar. Ich bin dennoch mehr als happy mit SGX543MP und das weißt du. ;)


Wuerde SGX pro mm2 und X Stromverbrauch weiter hinten in Sachen Leistung als wenigstens ein OGL_ES2.0 core liegen, waere es schon genug zu sagen dass Du recht hast. So wie es aber momentan aussieht, wuerde ich an Deiner Stelle einige Aspekte besser ueberdenken.
Ja weil es kein Konkurrenzdesign mit SM2.0 gibt von PVR. NV, ATI, Bitboys und wie sie alle heißen haben einfach keine vergleichbare Architektur und ihnen fehlt vergleichbares KnowHow. Und vor allem ist keiner ein TBDR. ;) Das sind enorme Nachteile.
Dass Features immer Transistoren kosten ist so logisch wie die Schwerkraft. *gg*


Ich sehe keinen eDRAM auf PS3 deshalb auch meine bisherigen Zweifel.
Was hat die PS3 denn damit zu tun? Einen Handheld würde ich auch in 10 Jahren nicht von der PS3 ableiten. Die Architektur ist eben ungünstig für so einen Anwendungsfall. Die PS3 nutzt eben 2x verschiedene Speichertypen statt einem Unified RAM. Deshalb braucht sie auch kein eDRAM. In einem Handheld ist das was anderes.


Ja und? Eine stinknormale T&L Einheit ist schon seit Jahren nicht mehr "high end".
Im Jahr 2004 in einem Handheld schon.



Wieviel quadratmillimeter nimmt denn die GPU des PSP genau ein? Nimm die die Groesse bei dem demenstsprechendem Herstellungsprozess und rechne aus wie eine handheld Variante von MBX+VGP aussehen koennte.
Mir ist die Die-Size der PSP-GPU unbekannt. Ergo kann ich da nichts rechnen. Hast du Zahlen für mich?


Mir einen chip fuer Handys mit einem handheld chip zu vergleichen ist genauso irrsinnig als ob Du SGX530 mit dem was in PSP2 enthalten sein wird vergleichst.
Da gebe ich dir Recht. PVR hätte mit der gleichen Die-Size wie der PSP GPU sicher mehr Features und Rechenleistung mit einem MBX-Derivat erreichen können. Man hat mehr Erfahrung ein einen TBDR, der gerade im Handheldbereich enorme Vorteile bietet.


Es gab uebrigens vor Jahren einen geplanten MBX Pro der aber gestrichen wurde.
I know, aber viel Füllrate hatte der auch nicht.


Dann beantworte mir auf einem ebenso abstraktem Nivaeu warum die PS3 keinen eDRAM hat.
S.o.

Ailuros
2009-02-26, 11:19:11
Bei SGX sehe ich keine FF-Units für o.g. Funktionen (Blending, Downfilter etc)

Siehst Du sie irgendwo im MBX Diagramm?
http://www.mitrax.de/?cont=artikel&aid=35&page=5


Hat SGX545 nicht 4x TMUs? Die 8 mm2 für SGX543 stimmen auch nur, wenn in IMGs PDF mit SGX543MP ein QuadCore gemeint ist. Ist er das nicht, sondern nur ein Dualcore, dann nimmt SGX543 nämlich 16 mm2 ein. Ist das schon offiziell geklärt?

Nein. Die aufgefuehrte MP im whitepaper ist ein quad-core cluster und ja ich lag selber auf dem falschen Pfad. Offiziell ist gar nichts geklaert, aber SGX545 duerfte tatsaechlich nur 2 TMUs haben (alles andere bis jetzt duerfte falsch sein und nur 535 duerfte ein 1:1 ALU:TMU Verhaeltnis haben) und 543 liegt mit allerhoechster Wahrscheinlichkeit wohl doch auf 8 qmm.

NV saugt ja auch im embedded Markt.

Haette NV aus Fahrlaessigkeit einer dritten Firma nicht den NINTENDO Deal gelandet, haetten sie das Ganze vielleicht gar nicht finanziert und es waere auf low end/multimedia Mist geblieben. Nintendo hat lediglich IP eingekauft.

Was soll diese miserable Entschuldigung ueberhaupt? Hat oder hat NVIDIA nicht einen G80 als high end GPU seit 2006 auf dem Markt? Der Grund warum man so etwas nicht in Kleinformat skaliert hat ist der enorme Stromverbrauch und jegliches andere Geschwaetz sind muede Ausreden.

PVR baut mit Abstand die besten Designs für diesen Markt. PVR hätte eine SM2 Arch mit weniger Die-Space bei gleicher Rohleistung wie ein entsprechendes SGX Pendant bauen können. Dass sie das nicht tun, ist mir aus betriebswirtschaftlichen Gründen schon klar. Ich bin dennoch mehr als happy mit SGX543MP und das weißt du. ;)

In 2010 wird das insgesamte Volumen vom multi-year multi-license Vertrag mit Apple etwas klarer sein. Warum ich jetzt gerade den Vater von OpenCL erwaehne wird wohl kein Zufall sein und es soll lediglich heissen dass IMG gute Hausaufgaben gemacht hat bevor sie sich erstmal vor die Kreidetafel vor vielen Jahren setzten. One design to capture them all, hiess das Motto.

Ja weil es kein Konkurrenzdesign mit SM2.0 gibt von PVR.

Die kleinsten cores sind sowieso nicht fuer mehr als SM3.0 zu gebrauchen und beim SGX520 schiessen immer noch 7M Tris/s raus bei 2.6mm2@65nm (200MHz). Was der Rest der Haarspalterei genau soll kann ich bei bestem Willen nicht verstehen.

NV, ATI, Bitboys und wie sie alle heißen haben einfach keine vergleichbare Architektur und ihnen fehlt vergleichbares KnowHow. Und vor allem ist keiner ein TBDR. ;) Das sind enorme Nachteile.
Dass Features immer Transistoren kosten ist so logisch wie die Schwerkraft. *gg*

...und wie ich Dir schon seit einigen Posts zeigen will werden brauchbare Features je nach Markt skaliert. Da es Dir hier um handhelds und deren Leistung geht: denk nochmal scharf nach wieso ein SGX543 mit fast doppelt so hohen Raten (ausser den Fuellraten) wie ein D3D10.1 545 um ueber 50% kleiner geraten ist.

Was hat die PS3 denn damit zu tun? Einen Handheld würde ich auch in 10 Jahren nicht von der PS3 ableiten. Die Architektur ist eben ungünstig für so einen Anwendungsfall. Die PS3 nutzt eben 2x verschiedene Speichertypen statt einem Unified RAM. Deshalb braucht sie auch kein eDRAM. In einem Handheld ist das was anderes.

Und was sagt Dir genau dass eDRAM auf einem zufuentigen handheld guenstiger sein koennte?

Im Jahr 2004 in einem Handheld schon.

LOL.

Mir ist die Die-Size der PSP-GPU unbekannt. Ergo kann ich da nichts rechnen. Hast du Zahlen für mich?

Ich kann mich an den Herstellungsprozess nicht mehr erinnern, aber ich glaube ohne sicher zu sein dass es irgendwo ueber die 40qmm sind.

I know, aber viel Füllrate hatte der auch nicht.

Theoretisch um die 2.5x so viel wie ein CLX2.

Ailuros
2009-02-26, 12:11:22
Wenn man's mit seinem handheld uebertreibt kann es auch so weit kommen:

http://www.theinquirer.net/inquirer/news/167/1051167/too-gaming-playstationitis

ROFL :biggrin:

....und etwas was gar nicht so OT sein koennte:

http://tech.yahoo.com/news/nm/20090225/tc_nm/us_nokia_ceo

(ich wuerde das was Nokia vielleicht im Hinterkopf haben koennte nicht unbedingt "notebook" nennen aber was soll's...)

http://www.theinquirer.net/inquirer/news/162/1051162/intel-mid-king

Xmas
2009-02-26, 15:48:35
Aber ich nehme dir nicht ab, dass SGX primär für diese Rolle entwickelt worden ist.
Was ist denn deiner Meinung nach der primäre Zweck?

robbitop@work
2009-02-26, 16:31:43
Siehst Du sie irgendwo im MBX Diagramm?
http://www.mitrax.de/?cont=artikel&aid=35&page=5
Ich sehe da zumindest einen Pixelblender. Allzu ausführlich wird das Diagramm nicht sein.



Nein. Die aufgefuehrte MP im whitepaper ist ein quad-core cluster und ja ich lag selber auf dem falschen Pfad.
Weil Arun das sagt? ;) Mal ehrlich, wie sicher bist du dir, dass es ein quad-core ist? Sofern es dir ein Vögelchen aus Großbritanien gezwitschert hat, glaube ich es dir gern. ;) Wenn es aber nur um Arun geht, bleibt es eine Vermutung.


Offiziell ist gar nichts geklaert, aber SGX545 duerfte tatsaechlich nur 2 TMUs haben (alles andere bis jetzt duerfte falsch sein und nur 535 duerfte ein 1:1 ALU:TMU Verhaeltnis haben) und 543 liegt mit allerhoechster Wahrscheinlichkeit wohl doch auf 8 qmm.
Und auch hier wüßte ich gern, wie zuverlässig diese Information ist. Mit dieser Information steht und fällt nämlich deine These.
Ich kenne leider keine Vögelchen aus Großbritanien und kann nur das darlegen, was im Desktopmarkt bisher passierte und dies eben auch auf embedded Chipsätze applizieren.
Möglicherweise hat man SGX ja auch entrümpeln können, so wie man R6xx zu RV770 entrümpeln konnte.


Was soll diese miserable Entschuldigung ueberhaupt? Hat oder hat NVIDIA nicht einen G80 als high end GPU seit 2006 auf dem Markt? Der Grund warum man so etwas nicht in Kleinformat skaliert hat ist der enorme Stromverbrauch und jegliches andere Geschwaetz sind muede Ausreden.
Nunja das GPU Team ist AFAIK ein völlig anderes als das embedded Team. Das ist doch nur so eine aufgekaufte Klitsche. Embedded GPUs haben völlig andere Randbedingungen. Das eine zu beherrschen heißt nicht, das andere auch zu beherrschen.


In 2010 wird das insgesamte Volumen vom multi-year multi-license Vertrag mit Apple etwas klarer sein. Warum ich jetzt gerade den Vater von OpenCL erwaehne wird wohl kein Zufall sein und es soll lediglich heissen dass IMG gute Hausaufgaben gemacht hat bevor sie sich erstmal vor die Kreidetafel vor vielen Jahren setzten. One design to capture them all, hiess das Motto.
Eben und genau das meinte ich. SGX ist unter vielen Gesichtspunkten entwickelt worden.

Die kleinsten cores sind sowieso nicht fuer mehr als SM3.0 zu gebrauchen und beim SGX520 schiessen immer noch 7M Tris/s raus bei 2.6mm2@65nm (200MHz). Was der Rest der Haarspalterei genau soll kann ich bei bestem Willen nicht verstehen.
Hey du hast mir doch in meinen Thesen widersprochen. ;)


...und wie ich Dir schon seit einigen Posts zeigen will werden brauchbare Features je nach Markt skaliert. Da es Dir hier um handhelds und deren Leistung geht: denk nochmal scharf nach wieso ein SGX543 mit fast doppelt so hohen Raten (ausser den Fuellraten) wie ein D3D10.1 545 um ueber 50% kleiner geraten ist.
Siehe oben. ;)



Und was sagt Dir genau dass eDRAM auf einem zufuentigen handheld guenstiger sein koennte?
Es ist nur ein Vorschlag, keine Behauptung. Wenn eine Designsimulation keinen Bandbreitenenpass bei der angedachten Rohleistung bei reinem Unified-RAM zeigt, verzichtet man natürlich auf eDRAM. Soviel Die-Space frisst der nicht.



LOL.
Welche vergleichbare Handheld-GPU gab es Ende 2004? Es gab keine gleichstarke Handheld-GPU seinerzeit. MBX mit zusätzlicher VGP hatte gerade mal eine TnL Unit. Wenn das nicht High End ist, weiß ich auch nicht.



Ich kann mich an den Herstellungsprozess nicht mehr erinnern, aber ich glaube ohne sicher zu sein dass es irgendwo ueber die 40qmm sind.
Ich finde dazu leider nichts. Über 40 sqmm für den ganzen SoC oder
90 nm in der Releaseversion und 65 nm in der PSP-2000/3000. In 65 nm wären es dann 20 sqmm. Wobei ich leider keine gesicherten Kerngrößen finde. Klar ist, dass ein entsprechend skalierter MBX mehr Punch pro sqmm gepackt hätte, falls du darauf hinaus willst.
Der existierte jedoch nicht.



Theoretisch um die 2.5x so viel wie ein CLX2.
CLX2?


Was ist denn deiner Meinung nach der primäre Zweck?
Du sitzt doch an der Quelle. Insofern wundern mich deine äußerst spärlichen Diskussionsbeiträge und Fragen sehr. ;)
Ich brauche nicht an der Quelle zu sitzen um zu zählen, wo SGX angewendet wird. Es gibt ettliche Geräte die SGX entweder einsetzen oder noch einsetzen werden. Prominentester SoC derzeit ist der OMAP3/4.
Wo wird SGX zum Spielen eingesetzt? Nirgends. Vieleicht mal in der PSP2 (I hope so!). Also ist das Teil offenbar für sehr viele Märkte entworfen worden. Derzeit ist der Spielebereich der allerkleinste vom SGX. Rein von der Gerätezahl zumindest. Und selbst wenn das Iphone3 irgendwann mal den SGX für Spiele nutzt, ist das nicht primär ein Gaminghandheld.
Primär ein Gaming Handheld ist die PSP und der Nintendo DS. Allzuviele gibt es ja derzeit nicht. Vieleicht noch ein paar Nischenprodukte hier und da.

Xmas
2009-02-27, 01:25:39
Ich brauche nicht an der Quelle zu sitzen um zu zählen, wo SGX angewendet wird. Es gibt ettliche Geräte die SGX entweder einsetzen oder noch einsetzen werden. Prominentester SoC derzeit ist der OMAP3/4.
Wo wird SGX zum Spielen eingesetzt? Nirgends. Vieleicht mal in der PSP2 (I hope so!). Also ist das Teil offenbar für sehr viele Märkte entworfen worden. Derzeit ist der Spielebereich der allerkleinste vom SGX. Rein von der Gerätezahl zumindest. Und selbst wenn das Iphone3 irgendwann mal den SGX für Spiele nutzt, ist das nicht primär ein Gaminghandheld.
Primär ein Gaming Handheld ist die PSP und der Nintendo DS. Allzuviele gibt es ja derzeit nicht. Vieleicht noch ein paar Nischenprodukte hier und da.
Dass ein Gerät primär für einen bestimmten Zweck gedacht ist heißt nicht dass alle Komponenten dies auch sind. Ein Videodekoder ist ja auch beispielsweise nicht primär zum Internet Surfen entwickelt worden nur weil er in einem MID drinsteckt.

Unified Shader dienen übrigens primär der Effizienzsteigerung.

Ailuros
2009-02-27, 07:48:54
Ich sehe da zumindest einen Pixelblender. Allzu ausführlich wird das Diagramm nicht sein.

Dann bezieh Dich auf Werner's Artikel; es gibt genug Ausschnitte aus Patenten.

Weil Arun das sagt? ;) Mal ehrlich, wie sicher bist du dir, dass es ein quad-core ist? Sofern es dir ein Vögelchen aus Großbritanien gezwitschert hat, glaube ich es dir gern. ;) Wenn es aber nur um Arun geht, bleibt es eine Vermutung.

Frag mich nicht solchen Mist in aller Oeffentlichkeit, ueberhaupt wenn ich privat noch ausfuehrlicher war.

Und auch hier wüßte ich gern, wie zuverlässig diese Information ist. Mit dieser Information steht und fällt nämlich deine These.
Ich kenne leider keine Vögelchen aus Großbritanien und kann nur das darlegen, was im Desktopmarkt bisher passierte und dies eben auch auf embedded Chipsätze applizieren.
Möglicherweise hat man SGX ja auch entrümpeln können, so wie man R6xx zu RV770 entrümpeln konnte.

Meine Theorie entfaellt ueberhaupt nicht; Imageon2 ist Lichtjahre von einem RV770 entfernt.

Nunja das GPU Team ist AFAIK ein völlig anderes als das embedded Team. Das ist doch nur so eine aufgekaufte Klitsche. Embedded GPUs haben völlig andere Randbedingungen. Das eine zu beherrschen heißt nicht, das andere auch zu beherrschen.

Gut dann beruhen wir nur auf das was momentan ueber Tegra bekannt ist; CSAA hat die "Klitsche" wohl in ihrem Gepaeck gehabt als sie aufgekauft wurde oder?

Eben und genau das meinte ich. SGX ist unter vielen Gesichtspunkten entwickelt worden.

Mit maximal moeglicher Effizienz fuer alle Anwendungsgebiete.

Hey du hast mir doch in meinen Thesen widersprochen. ;)

Echt? :|

Welche vergleichbare Handheld-GPU gab es Ende 2004? Es gab keine gleichstarke Handheld-GPU seinerzeit. MBX mit zusätzlicher VGP hatte gerade mal eine TnL Unit. Wenn das nicht High End ist, weiß ich auch nicht.

VGP ist VS1.1+ und hat mehr Faehigkeiten als der VS einer GF4.

Ich finde dazu leider nichts. Über 40 sqmm für den ganzen SoC oder
90 nm in der Releaseversion und 65 nm in der PSP-2000/3000. In 65 nm wären es dann 20 sqmm. Wobei ich leider keine gesicherten Kerngrößen finde. Klar ist, dass ein entsprechend skalierter MBX mehr Punch pro sqmm gepackt hätte, falls du darauf hinaus willst.
Der existierte jedoch nicht.

Weil es wohl zu dem Zeitpunkt kein Interesse fuer IP gab. Es hat sich aber wohl auch einiges im handheld Markt seither geaendert, sowohl Nintendo als auch SONY haben IP fuer die naechste Generation lizenziert.

CLX2?

Dreamcast GPU. MBX Pro haette mit allerhoechster Wahrscheinlichkeit 2 TMUs gehabt, gegen nur eine auf MBX.

Du sitzt doch an der Quelle. Insofern wundern mich deine äußerst spärlichen Diskussionsbeiträge und Fragen sehr. ;)

Du weisst bestimmt selber wie schwer es ist, wenn einen die Finger jucken man aber sehr wenig bis gar nichts sagen kann. Er nervt mich ab und zu auch wenn er mit einem trockenen "du liegst auf dem falschen Pfad" ankommt, aber es hilft mir dann schon meine eigenen Fehler zu entdecken.

Ich brauche nicht an der Quelle zu sitzen um zu zählen, wo SGX angewendet wird. Es gibt ettliche Geräte die SGX entweder einsetzen oder noch einsetzen werden. Prominentester SoC derzeit ist der OMAP3/4.
Wo wird SGX zum Spielen eingesetzt? Nirgends.

OMAP3 Handys sind erst beim ausrollen. iPhone ist zwar momentan nur MBXLite, aber Du solltest Dich mal im Netz umsehen wieviele Spiele es fuer das Ding schon gibt, obwohl es ziemlich jung im Vergleich zu N95 als Beispiel ist. Natuerlich und um ganz ehrlich zu sein, ist die Mehrzahl der Spiele nicht besonders anspruchsvoll, aber dass dann auch nur weil ISVs entweder auf den kleinsten denominator entwickeln oder portieren. Das heisst aber wiederrum nicht dass die Anzahl der Spiele die eine GPU vorraussetzen klein ist.

Vieleicht mal in der PSP2 (I hope so!). Also ist das Teil offenbar für sehr viele Märkte entworfen worden. Derzeit ist der Spielebereich der allerkleinste vom SGX. Rein von der Gerätezahl zumindest. Und selbst wenn das Iphone3 irgendwann mal den SGX für Spiele nutzt, ist das nicht primär ein Gaminghandheld.

Wieso iPhone3? Ich weiss zwar nicht was Apple genau vorhat, aber mir persoenlich klingt fuer die naechste Generation SGX530 am wahrscheinlichsten. Und ja natuerlich ist ein handheld ein ganz anderes Kapitel als ein Handy. JPR 's Projektionen fuer 2012 sprechen von ~40% chips mit 3D Faehigkeiten; ein ganz anderes Volumen.

Primär ein Gaming Handheld ist die PSP und der Nintendo DS. Allzuviele gibt es ja derzeit nicht. Vieleicht noch ein paar Nischenprodukte hier und da.

MIDs, netbooks und in absehbarer Zeit auch notebooks.

robbitop@work
2009-02-27, 09:43:06
Dass ein Gerät primär für einen bestimmten Zweck gedacht ist heißt nicht dass alle Komponenten dies auch sind. Ein Videodekoder ist ja auch beispielsweise nicht primär zum Internet Surfen entwickelt worden nur weil er in einem MID drinsteckt.
Wäre schon ein wenig seltsam, wenn SGX primär zum Spielen entworfen wurde und bis heute (und wohl auch mind noch die nächsten 2 Jahre) kein einziges Gerät auf dem Markt ist, was diesen nutzt.

Unified Shader dienen übrigens primär der Effizienzsteigerung.
Der Grad an geforderter Programmierbarkeit hingegen kostet.

Dann bezieh Dich auf Werner's Artikel; es gibt genug Ausschnitte aus Patenten.
Den Artikel muss ich erst noch lesen. ;)


Frag mich nicht solchen Mist in aller Oeffentlichkeit, ueberhaupt wenn ich privat noch ausfuehrlicher war.
Aber nicht in dem Punkt AFAIR. Da du dir aber so sicher bist, wirst du wohl deine Gründe haben, dir so sicher zu sein. ;)



Meine Theorie entfaellt ueberhaupt nicht;
Ok, ich hab's verstanden. ;)


Imageon2 ist Lichtjahre von einem RV770 entfernt.
Das stimmt. Ich habe eine Analogie genutzt. Mehr nicht.



Gut dann beruhen wir nur auf das was momentan ueber Tegra bekannt ist; CSAA hat die "Klitsche" wohl in ihrem Gepaeck gehabt als sie aufgekauft wurde oder?
Es gibt natürlich firmeninternen IP-Transfer. CSAA ist kein Hexenwerk und läßt sich auch auf andere Architekturen übertragen.



Mit maximal moeglicher Effizienz fuer alle Anwendungsgebiete.
Es gibt immer Tradeoffs.


Echt? :|
Jep. ;)


VGP ist VS1.1+ und hat mehr Faehigkeiten als der VS einer GF4.
I know.


Weil es wohl zu dem Zeitpunkt kein Interesse fuer IP gab. Es hat sich aber wohl auch einiges im handheld Markt seither geaendert, sowohl Nintendo als auch SONY haben IP fuer die naechste Generation lizenziert.
Hätte, hätte, Fahrradkette. ;) Ich bewerte keine konjunktiven Möglichkeiten sondern nur real vorhandenes Silizium zum damaligen Zeitpunkt. Möglichkeiten bessere Hardware zu verschiedenen Zeitpunkten der GPU und CPU Entwicklung hätte es einige gegeben gigantische HW zu bringen. Ich will gar nicht wissen, was mittels PVRs IP im GPU Sektor möglich gewesen wäre, wenn man ähnliche Ressourcen wie NV gehabt hätte. Oder vieleicht sogar Intels Ressourcen!


Dreamcast GPU. MBX Pro haette mit allerhoechster Wahrscheinlichkeit 2 TMUs gehabt, gegen nur eine auf MBX.
Ach das Series2 Ding. Ja MBX Pro wäre zu dem Zeitpunkt sicher nicht schlecht gewesen.


Du weisst bestimmt selber wie schwer es ist, wenn einen die Finger jucken man aber sehr wenig bis gar nichts sagen kann. Er nervt mich ab und zu auch wenn er mit einem trockenen "du liegst auf dem falschen Pfad" ankommt, aber es hilft mir dann schon meine eigenen Fehler zu entdecken.
Ja ich kenne das. ;)



OMAP3 Handys sind erst beim ausrollen. iPhone ist zwar momentan nur MBXLite, aber Du solltest Dich mal im Netz umsehen wieviele Spiele es fuer das Ding schon gibt, obwohl es ziemlich jung im Vergleich zu N95 als Beispiel ist. Natuerlich und um ganz ehrlich zu sein, ist die Mehrzahl der Spiele nicht besonders anspruchsvoll, aber dass dann auch nur weil ISVs entweder auf den kleinsten denominator entwickeln oder portieren. Das heisst aber wiederrum nicht dass die Anzahl der Spiele die eine GPU vorraussetzen klein ist.
Ja wie du schon sagst, es ist eben kein richtiger Gaminghandheld sondern man missbraucht ein Gerät, was für einen anderen Zweck gedacht ist. Die Qualität der Spiele zeigt das. Die Steuerungsmöglichkeiten sind eben bei solchen Geräten nicht da (wobei das Iphone nette Ansätze zeigt) und vermutlich auch die potenzielle Käuferschicht für diese Games ist wohl noch zu klein. Vieleicht erreicht das IPhone ja mal die kritische Masse, um richtige Games entwickeln zu lassen.



Wieso iPhone3? Ich weiss zwar nicht was Apple genau vorhat, aber mir persoenlich klingt fuer die naechste Generation SGX530 am wahrscheinlichsten. Und ja natuerlich ist ein handheld ein ganz anderes Kapitel als ein Handy. JPR 's Projektionen fuer 2012 sprechen von ~40% chips mit 3D Faehigkeiten; ein ganz anderes Volumen.
Ich erwarte einen OMAP3 ähnlichen Chip im IPhone.



MIDs, netbooks und in absehbarer Zeit auch notebooks.
Sind aber keine Gaminghandhelds. ;)

Ailuros
2009-02-27, 10:51:21
Der Grad an geforderter Programmierbarkeit hingegen kostet.

Ebenso die Effizienz eines USC mit einem non-USC zu erreichen.

http://www.anandtech.com/tradeshows/showdoc.aspx?i=3494&p=7

I got a quick demo of a Dell Inspiron Mini 12 decoding a 1080p H.264 Blu-ray rip (20 - 35Mbps) while running through a Quake III timedemo. The video clip didn’t drop any frames and the Quake III demo ran at above 30 fps. The engineers on hand indicated that a real concern in these sorts of situations isn’t the GPU horsepower, the PowerVR SGX core can easily handle the two tasks, but rather memory bandwidth. Poulsbo only supports a single channel of DDR2-533 memory, barely enough bandwidth by today’s standards.

http://forum.beyond3d.com/showpost.php?p=1267164&postcount=2

Wobei dieser APX wohl eher vergleichbar ist mit SGX540. Die wichtigste Frage ist wie es mit dem Stromverbrauch eines Geraets insgesamt aussieht wenn es zu derartigem multitasking kommt.

Den Artikel muss ich erst noch lesen. ;)

:rolleyes:

Das stimmt. Ich habe eine Analogie genutzt. Mehr nicht.

Darum geht es ja gar nicht; mein Punkt von Anfang an war dass wenn ATI's bzw. NVIDIA's USC Designs nach unten skalieren koennten ohne dass der Stromverbrauch zu hoch wird, waeren sie auch so weit gekommen. Beide haben mit high end Designs angefangen und bis zum moeglichen Punkt nach unten skaliert. Im Gegensatz glaube ich auch nicht dass IMG so leicht auf Basis des SGX zu einem =/> mainstream GPU Niveau steigen koennte ohne jegliche wichtige Aenderungen. Dein Arm reicht eben nur gerade so weit wie er reichen kann.

Es gibt natürlich firmeninternen IP-Transfer. CSAA ist kein Hexenwerk und läßt sich auch auf andere Architekturen übertragen.

Das Resultat ist mir persoenlich sooo "fremd" dass ich weiss dass es der chip durch einen respin gegangen ist weil manche Einzelheiten nicht richtig "wollen" wie z.B. render2texture. :wink:

Es gibt immer Tradeoffs.

Gut. Hier der Ausschnitt fuer Tegra von NVIDIA aus Arun's Post:

Early-Z and fragment caching
- These are big computation and bandwidth savers
Ultra Efficient 5x Coverage Sampling Anti-Aliasing Scheme
- Mobile version of CSAA technology from GeForce
Not a tiling architecture
- Tiling works reasonably well for DX7-style content
- For DX9-style content the increased vertex and state traffic was a net loss
Not a unified architecture
- Unified hardware is a win for DX10 and compute
- For DX9-style graphics, however, non-unified is more efficient

So und jetzt beweiss mir dass das fettgedruckte stimmt.

Hätte, hätte, Fahrradkette. ;) Ich bewerte keine konjunktiven Möglichkeiten sondern nur real vorhandenes Silizium zum damaligen Zeitpunkt. Möglichkeiten bessere Hardware zu verschiedenen Zeitpunkten der GPU und CPU Entwicklung hätte es einige gegeben gigantische HW zu bringen. Ich will gar nicht wissen, was mittels PVRs IP im GPU Sektor möglich gewesen wäre, wenn man ähnliche Ressourcen wie NV gehabt hätte. Oder vieleicht sogar Intels Ressourcen!

Es bleibt trotz allem dabei dass beide Hersteller fuer die naechste Generation IP lizenziert haben.

Ja wie du schon sagst, es ist eben kein richtiger Gaminghandheld sondern man missbraucht ein Gerät, was für einen anderen Zweck gedacht ist. Die Qualität der Spiele zeigt das. Die Steuerungsmöglichkeiten sind eben bei solchen Geräten nicht da (wobei das Iphone nette Ansätze zeigt) und vermutlich auch die potenzielle Käuferschicht für diese Games ist wohl noch zu klein. Vieleicht erreicht das IPhone ja mal die kritische Masse, um richtige Games entwickeln zu lassen.

http://www.appleinsider.com/articles/08/08/01/carmack_iphone_more_powerful_than_nintendo_ds_psp_combined.html

*zwitscher floet*

Zwar stimmt das meiste oben, aber es gibt auch eine gewisse "Verschmelzung" in der absehbaren Zukunft was Faehigkeiten bei gewissen Geraeten betrifft. PSP2 koennte sich unter diesem Licht so manche Faehigkeiten eines MID aneignen, obwohl trotz allem ein handheld ein handheld bleiben wird und ein MID ein MID.

iPhone ist und bleibt ein smartphone, kein Zweifel darueber. Aber es ist eine ziemlich gute "Basis" zukuenftige Spiele zu entwickeln oder zu portieren.

Ich erwarte einen OMAP3 ähnlichen Chip im IPhone.

Gegen das heutige iPhone (MBXLite + VGPLite) bedeutet dass (wenn der Frequenzunterschied nicht zu stark in Richtung OMAP3 ausfallen sollte) eine gewaltige Leistungssteigerung. MBXLite ist ziemlich kastriert was die Fuellrate betrifft (Effektivitaet einer "halben" TMU), 530 hat eine volle TMU und SGX hat ein paar wichtige Verfeinerungen die doppelt so hohe tri-Fuellrate als auf MBX erlauben; noch dazu dass die Dreieck-rate locker ueber 8x Mal hoeher sein duerfte. Muessen wohl die "trade-offs" sein die solche Leistungsskalierungen erlauben.

Sind aber keine Gaminghandhelds. ;)

Ein notebook mit Series5 IP muesste in ~2011 um einiges hoehere Leistung haben um ueberhaupt konkurrenzfaehig zu sein. Die Frage ist lediglich was Intel genau vorhat, denn die Integration von dem G45 Dingsbums in kommenden SoCs zeigt mir persoenlich nicht unbedignt dass Intel Plaene haben koennte IMG IP ausserhalb von netbooks zu benutzen und hoffentlich liege ich hier wieder auf dem total falschem Pfad.

robbitop@work
2009-02-27, 12:56:29
Ebenso die Effizienz eines USC mit einem non-USC zu erreichen.
Man kann auch einen SM2.0 USC bauen. Wozu brauche ich z.B. volle IEEE754 compliance in den ALUs, wenn ich aufgrund der Rohleistung diese eh nicht sinnvoll nutzen kann?


Wobei dieser APX wohl eher vergleichbar ist mit SGX540.
Doch so stark?


Darum geht es ja gar nicht; mein Punkt von Anfang an war dass wenn ATI's bzw. NVIDIA's USC Designs nach unten skalieren koennten ohne dass der Stromverbrauch zu hoch wird, waeren sie auch so weit gekommen. Beide haben mit high end Designs angefangen und bis zum moeglichen Punkt nach unten skaliert. Im Gegensatz glaube ich auch nicht dass IMG so leicht auf Basis des SGX zu einem =/> mainstream GPU Niveau steigen koennte ohne jegliche wichtige Aenderungen. Dein Arm reicht eben nur gerade so weit wie er reichen kann.
Da stimme ich dir schon zu. Denn mein Punkt war ein völlig anderer (und kollidiert mit diesem Punkt nicht). Ich bin nur der Meinung, dass das Featureset im SGX für reines Gaming etwas zu hoch ist.


Gut. Hier der Ausschnitt fuer Tegra von NVIDIA aus Arun's Post:

So und jetzt beweiss mir dass das fettgedruckte stimmt.

Wozu? Ich habe nie etwas zu Tegra behauptet. Dass das Design Mist ist, brauchst du mir nicht zu erzählen. Die sind eben nicht PVR. ;)


Es bleibt trotz allem dabei dass beide Hersteller fuer die naechste Generation IP lizenziert haben.
Eine Exzelente Entscheidung. Besonderss auf Seiten von Sony! Und ich hoffe, dass man SGX543MP verwendet. *sabber*


http://www.appleinsider.com/articles/08/08/01/carmack_iphone_more_powerful_than_nintendo_ds_psp_combined.html

Leistungstechnisch hat Carmark ja auch Recht. Aber das nützt nichts, wenn das Gerät nicht zum Spielen gedacht ist.


Zwar stimmt das meiste oben, aber es gibt auch eine gewisse "Verschmelzung" in der absehbaren Zukunft was Faehigkeiten bei gewissen Geraeten betrifft. PSP2 koennte sich unter diesem Licht so manche Faehigkeiten eines MID aneignen, obwohl trotz allem ein handheld ein handheld bleiben wird und ein MID ein MID.
Das hoffe ich! Die PSP2 braucht dringend ein neues/erweitertes Steuerungskonzept. Ein Touchscreen würde die Möglichkeiten der Spielegenres enorm erhöhen und auch das Browsen im Internet enorm erleichtern. Der Browser auf der PSP ist crap. Lahm und total inkompatibel und unterstützt nichteinmal Flash oder sonstige Videostreamformate.


iPhone ist und bleibt ein smartphone, kein Zweifel darueber. Aber es ist eine ziemlich gute "Basis" zukuenftige Spiele zu entwickeln oder zu portieren.
Maybe. Erstmal muss man eine breite HW-Basis schaffen. Also ettliche Millionen verkaufte Geräte. Und dann muss der Anteil an IPhonebesitzern, der gern spielt, auch noch hoch genug sein, damit man AAA-Titel entwerfen kann.
Das blöde ist, dass die Leute Mobiltelefone wechseln, wie die Unterwäsche. Alle 2 Jahre gibts mit einem neuen Vertrag (oder Verlängerung) eh ein neues Phone. Ein Gaminghandheld hingegen braucht mindestens eine Lebensdauer von 4-5 Jahren damit es sinnvoll wird.
Ich lasse mich gern überraschen. Persönlich finde ich das IPhone sehr gut. Aber zum Spielen...ich bin skeptisch.



Gegen das heutige iPhone (MBXLite + VGPLite) bedeutet dass (wenn der Frequenzunterschied nicht zu stark in Richtung OMAP3 ausfallen sollte) eine gewaltige Leistungssteigerung. MBXLite ist ziemlich kastriert was die Fuellrate betrifft (Effektivitaet einer "halben" TMU), 530 hat eine volle TMU und SGX hat ein paar wichtige Verfeinerungen die doppelt so hohe tri-Fuellrate als auf MBX erlauben; noch dazu dass die Dreieck-rate locker ueber 8x Mal hoeher sein duerfte. Muessen wohl die "trade-offs" sein die solche Leistungsskalierungen erlauben.
Dafür braucht man auch wieder deutlichst mehr an Transistoren. Die-Shrinks machen es möglich.



Ein notebook mit Series5 IP muesste in ~2011 um einiges hoehere Leistung haben um ueberhaupt konkurrenzfaehig zu sein. Die Frage ist lediglich was Intel genau vorhat, denn die Integration von dem G45 Dingsbums in kommenden SoCs zeigt mir persoenlich nicht unbedignt dass Intel Plaene haben koennte IMG IP ausserhalb von netbooks zu benutzen und hoffentlich liege ich hier wieder auf dem total falschem Pfad.
Für mich sieht es so aus, als will Intel PVR-IP nur in MIDs sehen.

Ailuros
2009-02-27, 13:33:25
Man kann auch einen SM2.0 USC bauen.

Nochmal SGX hat als theoretische "untere Basis" SM3.0. Damit sich so ein core zwischen DX9.0 und DX10.1 bewegen kann macht alles unter SM3.0 keinen besonderen Sinn.


Doch so stark?

APX2500. Der die ist aber auch ziemlich riesig.

Da stimme ich dir schon zu. Denn mein Punkt war ein völlig anderer (und kollidiert mit diesem Punkt nicht). Ich bin nur der Meinung, dass das Featureset im SGX für reines Gaming etwas zu hoch ist.

Solange sie das Featureset je nach Anwendungsgebiet bzw. Markt anpassen koennen, sehe ich kein Problem.

Wozu? Ich habe nie etwas zu Tegra behauptet. Dass das Design Mist ist, brauchst du mir nicht zu erzählen. Die sind eben nicht PVR. ;)

Weder PowerVR noch jeglicher andere hat einen Zauberstab. TBDR gibt Dir zwar enorme Vorteile was bandbreiten-bedingte Faelle betrifft, loest Dir aber auch nicht alles. Im Fall von NVIDIA waere es einfach verheerend wenn sie versucht haetten eine einzige G80-ALU nach unten zu skalieren; hier kommt NV zu Architektur-bedingten Limitierungen die auch niemand mitbedacht haette da sie eine high end Architektur entwickelt haben.

Tegra ist bei weitem kein Mist im generellen Sinn; Mist waere eigentlich Imageon2 um etwas objektiver zu sein, denn man bekommt keine balancierte Leistung von dem Ding selbst wenn man es auf den Kopf stellt. Ausser Nintendo's handheld wuerde es mich nicht wundern wenn Microsoft das Ding in ein multimedia Dingsbums a la iPod Touch integriert.


Leistungstechnisch hat Carmark ja auch Recht. Aber das nützt nichts, wenn das Gerät nicht zum Spielen gedacht ist.

Hallooooo ich hab den Link nur gepostet weil Du gesagt hast dass iPhone irgendwann mal X Volumen erreicht dass richtige Spiele dafuer entwickelt werden. Carmack/iD entwickeln aber schon fuer das Ding.


Maybe. Erstmal muss man eine breite HW-Basis schaffen. Also ettliche Millionen verkaufte Geräte. Und dann muss der Anteil an IPhonebesitzern, der gern spielt, auch noch hoch genug sein, damit man AAA-Titel entwerfen kann.
Das blöde ist, dass die Leute Mobiltelefone wechseln, wie die Unterwäsche. Alle 2 Jahre gibts mit einem neuen Vertrag (oder Verlängerung) eh ein neues Phone. Ein Gaminghandheld hingegen braucht mindestens eine Lebensdauer von 4-5 Jahren damit es sinnvoll wird.
Ich lasse mich gern überraschen. Persönlich finde ich das IPhone sehr gut. Aber zum Spielen...ich bin skeptisch.

iPhone ist nicht das einzige smartphone mit MBX-wasauchimmer: http://en.wikipedia.org/wiki/PowerVR

Ja natuerlich werden Handys normalerweise alle 2 Jahre ersetzt, aber umso staerker werden sie auch durch diese 2 Jahre. Es reicht wenn OMAP3 genauso oft wie OMAP2 integriert wird.

Dafür braucht man auch wieder deutlichst mehr an Transistoren. Die-Shrinks machen es möglich.

G80 ist auch ca. 3x Mal schneller als G71 hat aber auch 681M vs. 278M Transistoren obwohl beide auf 90nm hergestellt wurden.

Für mich sieht es so aus, als will Intel PVR-IP nur in MIDs sehen.

Wenn Intel nicht endlich dafuer sorgt dass die Treiber SGX so stark kastrieren, dann koennte mir das Zeug persoenlich auch gestohlen bleiben (obwohl natuerlich fuer IMG die dementsprechenden royalties lebenswichtig sind).

robbitop@work
2009-02-27, 14:21:24
Nochmal SGX hat als theoretische "untere Basis" SM3.0. Damit sich so ein core zwischen DX9.0 und DX10.1 bewegen kann macht alles unter SM3.0 keinen besonderen Sinn.
Beim SGX ist mir das klar.



Weder PowerVR noch jeglicher andere hat einen Zauberstab. TBDR gibt Dir zwar enorme Vorteile was bandbreiten-bedingte Faelle betrifft, loest Dir aber auch nicht alles.
PVR hat keinen Zauberstab. Aber TDBR hilft eben enorm. Außerdem haben sie ganz anderes Know How als die Konkurrenz in dem Markt. Das ist als würde man im High End Markt S3G gegen Nvidia stellen.


Hallooooo ich hab den Link nur gepostet weil Du gesagt hast dass iPhone irgendwann mal X Volumen erreicht dass richtige Spiele dafuer entwickelt werden. Carmack/iD entwickeln aber schon fuer das Ding.
Ist natürlich die Frage, was id da entwickelt. Ein AAA-Titel? Oder eher casual crap?



G80 ist auch ca. 3x Mal schneller als G71 hat aber auch 681M vs. 278M Transistoren obwohl beide auf 90nm hergestellt wurden.
Das sind zwei völlig verschiedene Designs. G71 war ein sehr ineffizientes Design, sofern es um hohe Shaderlast ging. R580 ist auf abstrakter Ebene deutlich näher an G80 als G71, R580 hat 384 Mio Transistoren. G80 ist je nach Setting vieleicht 1,8x so schnell.


Wenn Intel nicht endlich dafuer sorgt dass die Treiber SGX so stark kastrieren, dann koennte mir das Zeug persoenlich auch gestohlen bleiben (obwohl natuerlich fuer IMG die dementsprechenden royalties lebenswichtig sind).
Ich vermute, dass das pure Absicht ist. Ansonsten bräuchte man die PVR Treiber doch nur umzulabeln. Wozu ein eigener Treiber? ;)

robbitop@work
2009-02-27, 14:23:58
Passt zum Thema:


THE DARK SATANIC RUMOUR MILL has spun a new yarn about Sony's forthcoming, and much anticipated hand-held gaming system, the PSP 2.

David Perry, former COO of game developer Acclaim, has apparently tweeted that the beast is ready, noting, "I hear Sony FINALLY has the PSP 2. And thank goodness, they've removed the stupid battery-sucking UMD disc drive. I'm excited" .

Also, according to Perry, the PSP 2 will be a "fully digital online device". µ

http://www.theinquirer.net/inquirer/news/178/1051178/psp2-dropping-umd

Ist das Ding etwa schon fertig? :| Klingt ein wenig so.

Coda
2009-02-27, 14:32:51
Ist natürlich die Frage, was id da entwickelt. Ein AAA-Titel? Oder eher casual crap?
id sollte eher keinen "casual crap" entwickeln.

robbitop@work
2009-02-27, 14:45:51
id sollte eher keinen "casual crap" entwickeln.
Normalerweise nicht. Aber was anderes kann ich mir für das Iphone nicht vorstellen. Mangels Käuferbasis.

Xmas
2009-02-27, 15:28:11
Wäre schon ein wenig seltsam, wenn SGX primär zum Spielen entworfen wurde und bis heute (und wohl auch mind noch die nächsten 2 Jahre) kein einziges Gerät auf dem Markt ist, was diesen nutzt.
Wie kommst du darauf und woran machst du das überhaupt fest? Für was soll eine 3D-GPU denn sonst primär entwickelt worden sein wenn nicht für Echtzeit-Darstellung komplexer 3D-Szenen, was in 90% der Fälle eben Spiele bedeutet?

Der Grad an geforderter Programmierbarkeit hingegen kostet.
Bessere Programmierbarkeit hilft der effizienten Implementierung von Shadern.

Gast
2009-02-27, 15:57:04
id sollte eher keinen "casual crap" entwickeln.
quakelive.com?

Gast
2009-02-27, 15:58:26
Ebenso die Effizienz eines USC mit einem non-USC zu erreichen.

http://www.anandtech.com/tradeshows/showdoc.aspx?i=3494&p=7
Ich dachte, OpenGL und Poulsbo seien noch ein "no-go"

Carsten (das drüber war ich auch)

loewe
2009-02-27, 16:37:50
Ich dachte, OpenGL und Poulsbo seien noch ein "no-go"

Carsten (das drüber war ich auch)

Nur mit Intel Treibern, PowerVR kann das schon! ;)

Coda
2009-02-27, 16:57:03
quakelive.com?
Das ist vielleicht casual halte ich aber nicht für crap ;)

Gast
2009-02-27, 17:20:29
Nur mit Intel Treibern, PowerVR kann das schon! ;)
Dann hätte ich gern
[x] Einmal PowerVR-Treiber für Poulsbo
[ ] 100 Intel-Treiberversionen für Poulsbo
;)

Das ist vielleicht casual halte ich aber nicht für crap ;)
Okay, so gesehen...

Carsten

Ailuros
2009-02-28, 08:04:59
Beim SGX ist mir das klar.

Stures SM2.0 bedeutet aber auch nicht unbedignt anstaendiges branching.

PVR hat keinen Zauberstab. Aber TDBR hilft eben enorm. Außerdem haben sie ganz anderes Know How als die Konkurrenz in dem Markt. Das ist als würde man im High End Markt S3G gegen Nvidia stellen.

PowerVR hat ebenso von quasi Null angefangen als 3D im mobile/PDA erschien. Bis zu dem Punkt entwickelten sie Consolen/Arcade relevante HW, audio DSPs und ein paar verstreute GPUs.

Ist natürlich die Frage, was id da entwickelt. Ein AAA-Titel? Oder eher casual crap?

Carmack nimmt seine Arbeit ziemlich ernst IMO.

Das sind zwei völlig verschiedene Designs. G71 war ein sehr ineffizientes Design, sofern es um hohe Shaderlast ging. R580 ist auf abstrakter Ebene deutlich näher an G80 als G71, R580 hat 384 Mio Transistoren. G80 ist je nach Setting vieleicht 1,8x so schnell.

...und R600 hatte 720M Transistoren war aber nicht um 1.9x Mal schneller als R580 und schon drehen wir uns wieder im Kreis. Es nutzt nichts hier Haare zu spalten; X mehr Transistoren bringen unter normalen Umstaenden auch ca. X mehr Leistung und hab mit Absicht Architekturen vom gleichen IHV verglichen und dabei stets Leistung ohne AF Optimierungen (welches fuer R580 auch eine andere Relation bedeuten koennte). Wer sagte denn ueberhaupt dass MBX als Grund-design keine Stellen hatte wo man einiges besser machte auf SGX und das hat nichts im geringsten mit fixed function vs. programmable zu tun?

Bleiben wir beim Punkt und lass uns spekulieren was die insgesamten Vorteile sein koennten. PowerVR entwickelte vor einigen Jahren eine high end GPU fuer den desktop unter dem Codenamen PMX590 aka Series5. Durch bedingte Resourcen war es wohl ein ziemlich fettes internes Fiasko, da ich vermute dass die Verhandlungen mit Microsoft fuer XBox360 nicht besonders weit kamen, weil das Design zu dem Zeitpunkt nicht "fertig" war. Ich weiss lediglich (bin mir aber nicht sicher) dass es sich um einen single quad Design handelte (der unter Umstaenden 2 quads bearbeiten konnte) mit einem PPP; frag mich jetzt nicht ob das Ding ein USC war oder ob es SIMD oder MIMD Einheiten waren, solche Details wissen wohl nur die PVR Kerle selber und es ist auch egal bei vaporware.

Man hat nun die Erfahrung die sie mit diesem Ding gemacht haben gesammelt (und ja high end hat ganz andere Kopfschmerzen da erstmal Latenz am wichtigsten ist) und auf dieser Basis eine neue Generation entwickelt die dank Marketing Entscheidung auch "Serie5" genannt wurde. Man skalierte dieses Ding nicht nur nach unten, sondern schaffte es in kritischen Stellen (wie z.B. Behandlung von kleinen Dreiecken) noch mehr Saft aus der Architektur zu quetschen, der PPP blieb aber IMO stehen.

Jetzt denk mal nach wieviel Elemente PowerVR von der heutigen Serie5 aka Eurasia behalten kann fuer zukuenftige D3D11 Komplianz und wieviel sie genau noch hinzufuegen muessten auf rein theoretischer Basis und dabei vergiss auch nicht GPGPU. Wir haben heute einen Design der gegenueber MBX mit einem ziemlich grossen Grad skaliert (und da es sich in der Mehrzahl der Faelle es nie unter Faktor 2x sein wird, ist es fuer mich sinnlos an jegliche "aber" oder Alternativen zu denken) und man hat einen ziemlich grossen Luftraum mit zukuenftigen Herstellungsprozessen fuer Serie6 noch einmal heftig die Leistung zu skalieren ohne eine besonders grosse Investition fuer Features.

Das alles soll jetzt natuerlich nicht heissen dass ich glaube dass SGX "perfekt" oder nahezu perfekt sein sollte; ich bin mir sicher dass die naechste Generation eventuell zeigen durch weitere Optimierungen an welchen Stellen es noch effizienter geht. Das einzige was ich sagen will ist dass ich keine besonderen Fehler seitens PowerVR fuer ihre Design-entscheidungen insgesamt entdecken kann. Und neben dem unendlichen hin und her was Features betrifft, leg es mal momentan zur Seite und denk mal nach warum jeglicher konkurrierender chip es verdammt schwer hat ohne verrueckte Turnereien einen Deal zu erreichen.

Ich hoerte vor einiger Zeit dass ARM fuer diejenigen die sich auf 3D in einem SoC interessieren sollten, mit einer CPU Lizenz eine Mali Lizenz umsonst mit. ATi kanniballisierte die Preise und erreicht glaube ich nur zwei grosse Deals bevor sie die Abteilung verkauft haben und Nintendo gelang nur in NV's Haende weil ein japanischer Partner von IMG verschlafen hat und die Preise nicht rechtzeitig reduziert hat....

Die Opposition vom vorigen Paragraph wird Dir nur diverse Maerchen erzaehlen wie gut IMG's marketing Maschine bescheissen kann. Dabei muesst man sich hinsetzen und jegliche Marketing-relevante Behauptung derer Stueck fuer Stueck zerreissen und es wird ziemlich leicht zu sehen sein was fuer Unsinn, Luegen und Uebertreibungen hier die anderen versuchen anzudrehen. Der erste gute Eindruck den IMG machte bei den semiconductor Herstellern als sie mit MBX ankamen ist dass ihre Behauptungen so nahe wie moeglich an der Realitaet waren. Da koennen auf Papierfetzen etliche verrueckte Dreieck-raten stehen; wenn man sie nicht vorzeigen kann wird's wohl eher peinlich. Und da ich schon beim rambling bin: stell Dir bloss nicht vor dass die ganze Affaere nur weil es IP ist total unschuldig ist. Es ist ein genau gleicher Misthaufen wie im desktop GPU Markt.

http://www.hardocp.com/article.html?art=ODAyLDEsLGhlbnRodXNpYXN0

Nur ein paar Tage nach der Eurasia/SGX Ankuendigung veroeffentlicht. Erstens skaliert die Geometrie nicht mit mehreren cores auf dem Ding und zweitens und am wichtigsten fehlt es im finalen Design an einigen hier aufgefuehrten Features und dabei ist die reale die area mit reduzierten features um so viel groesser als hier angegeben wurde dass es nicht mehr schoen ist. 20GFLOPs in nur 3mm2@90nm? ROTFLMAO :D

http://forum.beyond3d.com/showpost.php?p=1271906&postcount=106

http://library.corporate-ir.net/library/19/197/197211/items/310754/Mike_Dimelow.pdf

~SM2.0+ und ein Tiler....

Im B3D Forum tanzte vor einiger Zeit ein gewisser Herr unter dem Namen "theArchitect" an. Es war durchaus interessant zu lesen was er zu sagen hatte und auch gleichzeitig zu wissen wer er ist, fuer wen er bis vor kurzem arbeitete und wo er heute arbeitet. Eine ziemlich goldige Schlammschlacht...


Ich vermute, dass das pure Absicht ist. Ansonsten bräuchte man die PVR Treiber doch nur umzulabeln. Wozu ein eigener Treiber? ;)

Lies gefaelligst endlich Werner's Artikel. Ein eigener Treiber ist lebenswichtig fuer SGX und der Grund steht im Artikel; wenn ich ihn Dir jetzt sage, liest Du das Ding wieder nicht LOL.

Ailuros
2009-03-13, 09:42:12
Am Montag faengt die Multicore Expo in Santa Clara an. Ein paar Einzelheiten sind noch dazu gekommen:

Multimedia is showing up almost everywhere especially in the consumer, mobile, and automotive markets. What types of performance characteristics are expected? What features are unique to each of these markets and which features are in common? What type of architectural features for graphics, video and communications IP cores are required to meet the demands of these markets? Tony will address each of these questions and more as he explains a scalable and hierarchical approach from hardware multi-threading to multi-processor scheduling. Furthermore, Tony will also delve into a discussionabout the industry standards and 3rd party collaborations to support the adoption of this multimedia technology, as well as what we can expect to see (literally) in the next generation products.

http://www.multicore-expo.com/common/session.php?expo_seq=9&track_seq=113&pres_seq=632

This engineering-level keynote will analyze some of the factors that determine whether a multicore architecture scales efficiently or consumes excessive overheads. Peter will describe some of Imagination’s experiences in implementing a scalable architecture, and reveal for the first time how Imagination has added multicore features in its latest generation of POWERVR SGX multi-processor graphics IP cores. He will explain the principles underlying the POWERVR SGX architecture, and how decisions were taken to ensure near linear scalability in performance from the lowest end core to the highest performance configuration, while maintaining one consistent software driver interface. The presentation will conclude with some examples of how these have been used by Imagination’s licensees to implement their own product roadmaps.

http://www.multicore-expo.com/common/session.php?expo_seq=9&track_seq=114&pres_seq=633

Relevante PRs hoffentlich naechste Woche.

loewe
2009-03-16, 20:00:13
http://www.imgtec.com/News/Release/index.asp?NewsID=449

Imagination Technologies, the multimedia chip technologies company, announces further details of the first POWERVR SGX graphics IP core with multi-processor (MP) core support. The technology, henceforth POWERVR SGX543MP, is being delivered to customers in SGXMP2 (two-core) to SGXMP16 (16-core) variants.

With the POWERVR SGX543MP family Imagination continues to extend its leadership of the embedded graphics acceleration market with blistering POWERVR solutions which address the rapidly growing demands for high performance graphics in a wide range of consumer electronics segments.

Imagination’s graphics IP cores now range from SGX520, the world’s smallest OpenGL™ ES 2.0 mobile core, to SGX543MP16 for high-performance console and computing devices.
At 200MHz core frequency an SGX543MP4 (four cores) will deliver 133 million polygons per second and fill rates in excess of 4Gpixels/sec**. Higher frequencies or a larger number of cores each deliver more performance. At 400MHz core frequency an SGX543MP8 (eight cores) will deliver 532 million polygons per second and fill rates in excess of 16Gpixels/sec.

** All fill rate figures stated assuming a scene depth complexity of x2.5



Also gleich 16 Core hatte ich nicht erwartet, aber warum nicht?! :)
Wo einordnen?
SGX535 als Grundlage erhalten wir in etwa
1 x SGX543 etwa 4xSGX535
2 x SGX543 etwa 8xSGX535
16x SGX543 etwa 64xSGX535
so als grober Leistungsvergleich.

AnarchX
2009-03-16, 20:17:55
Mit der 8 Core bzw. 16 Core Version sollte sich doch ein nettes, konkurrenzfähiges PC-Design auf die Beine stellen lassen. Immerhin hat ja letzere wohl ganze 32 TMUs. Wieviele GFLOPs schafft denn so ein SGX543 Core?

Gast
2009-03-17, 07:32:48
Mit der 8 Core bzw. 16 Core Version sollte sich doch ein nettes, konkurrenzfähiges PC-Design auf die Beine stellen lassen. Immerhin hat ja letzere wohl ganze 32 TMUs. Wieviele GFLOPs schafft denn so ein SGX543 Core?

Das habe ich mich auch schon gefragt.

16 Cores @ 8mm² wären 128mm²

Bei 400MHz wären das 12,8 GPixel/sec

aber soweit ich weiß hat ein SGX543 ja nur 4 Pixelshader mit je einem MAD, oder? Das wären dann soweit ich das sehe nur 400MHz x 16Cores x 4 = 25,6 GMAD's oder 51,2 GFlops. Also nicht wirklich konkurrenzfähig soweit ich das sehe.

Gast
2009-03-17, 07:42:47
das hier ist imho das beste am ganzen MP-System von PowerVR


POWERVR SGX543MP features:

- maintains the highest performance per mW of any embedded graphics core, a key benefit of POWERVR SGX
- highly linear scaling (over 95% efficiency) of performance in both geometry (vertex processing) and rasterisation (pixel/fragment processing)
- dynamic load balancing and on-demand task allocation at the pipeline level
- no fixed allocation of given pixels to specific cores, enabling maximum processing power to be allocated to the areas of highest on-screen action
- scalable GP-GPU compute power, which can be fully utilised through all Khronos APIs including OpenGL ES 2.x, OpenVG™ 1.x and OpenCL™
- use any number of cores from 2-16, even or odd
- no additional work for software developers; using one driver stack for all SGX cores means applications see a common SGX architecture via the standard APIs regardless of number of cores used
- no additional CPU load when using multiple cores or loss of performance



Klingt alles zusammen fasst ein wenig zu gut

Ailuros
2009-03-17, 07:58:17
Das habe ich mich auch schon gefragt.

16 Cores @ 8mm² wären 128mm²

Bei 400MHz wären das 12,8 GPixel/sec

aber soweit ich weiß hat ein SGX543 ja nur 4 Pixelshader mit je einem MAD, oder? Das wären dann soweit ich das sehe nur 400MHz x 16Cores x 4 = 25,6 GMAD's oder 51,2 GFlops. Also nicht wirklich konkurrenzfähig soweit ich das sehe.

543/USSE2 ist um ueber 2xMal so hohe Raten faehig als USSE1 cores. 2 FLOPs pro Takt sind viel zu wenig selbst fuer USSE1. Du kannst Dir gar nicht vorstellen um wieviele Male genau Du daneben liegst.

400MHz ist uebrigens viel zu hoch.

das hier ist imho das beste am ganzen MP-System von PowerVR

Ich denke wir sollten uns erstmal auf den Weg konzentrieren bevor wir an jeglichem Ziel ankommen:

no fixed allocation of given pixels to specific cores, enabling maximum processing power to be allocated to the areas of highest on-screen action

Klingt alles zusammen fasst ein wenig zu gut

Ich hab selber auch geraume Vorbehaltungen. Daten werden anscheinend dynamisch je nach Bedarf zwischen den cores verteilt. Obwohl ich mein muerbes Gefuehl nicht loswerden kann, haben DRs den Luxus stets einen Frame einem typischen IMR im Vorraus zu sein (wenn der letztere nicht zu Z-first greift). Das Ganze klingt mir nicht nach AFR, sonder eher eine Art SFR.

Loewe,

Ob es je zu mehr als 4MP kommt (wenn ueberhaupt), bleibt abzusehen. Ich denke eher dass sie mit Absicht durch PR versuchen den Wind aus den Segeln der Konkurrenz (siehe ARM) zu pusten versuchen. Das dumme ist dass ich nirgends das relevante Patent fuer MP finden kann. Sobald Du etwas neueres hast, lass es mich wissen ;)

Mit der 8 Core bzw. 16 Core Version sollte sich doch ein nettes, konkurrenzfähiges PC-Design auf die Beine stellen lassen. Immerhin hat ja letzere wohl ganze 32 TMUs. Wieviele GFLOPs schafft denn so ein SGX543 Core?

Theoretisch unter 32nm waere eine 8MP Variante ausgezeichnet fuer Intel's SoCs. Vorraussetzung das chipset Team hat nicht weiter entwickelt und wird langfristig dicht gemacht und Intel sorgt endlich fuer anstaendige Treiber.

Gast
2009-03-17, 08:25:11
543/USSE2 ist um ueber 2xMal so hohe Raten faehig als USSE1 cores. 2 FLOPs pro Takt sind viel zu wenig selbst fuer USSE1. Du kannst Dir gar nicht vorstellen um wieviele Male genau Du daneben liegst.

na dann erzähle mal wieviele MADs sie pro Pipeline und MHz wirklich haben.


400MHz ist uebrigens viel zu hoch.


die 400MHz stammen direkt aus dem Pressrelease von IMG für die 8-Core Variante.

Ailuros
2009-03-17, 08:55:53
na dann erzähle mal wieviele MADs sie pro Pipeline und MHz wirklich haben.

Oeffentlich garantiert nicht.

die 400MHz stammen direkt aus dem Pressrelease von IMG für die 8-Core Variante.

Ja und? PRs sind stets schoen und bunt, aber IMG ist letztendes kein Hersteller.

Gast
2009-03-17, 09:08:30
Ja und? PRs sind stets schoen und bunt, aber IMG ist letztendes kein Hersteller.
Dann ist die 16-Core Variante aber genauso unwahrscheinlich wie 400 MHz.

Gast
2009-03-17, 09:17:20
Oeffentlich garantiert nicht.



Wenn du willst dann können wir ja mal wieder auf Beyond3D "quatschen".

grüsse

Manfred

loewe
2009-03-17, 09:20:56
Wie AIL schon sagt, das ist ein PR und da schreiben sie rein, was sie sich gut möglich vorstellen können.
Wenn sich außer den bisher vorhanden Märkten MIDs, Netbooks, Handheld nichts weiteres auftut, wird jede Variante über SGX543MP2 nichts werden.

Aber wer sagt, das das so bleiben muss? Das was ich in London gehört habe, klang doch etwas anders! ;)

Ailuros
2009-03-17, 09:53:35
Dann ist die 16-Core Variante aber genauso unwahrscheinlich wie 400 MHz.

Ohne ein gewisses Angebot zu haben, kann man auch keine Partner bzw. Kunden heranlotzen. Alles was das PR sagt ist dass der SGX543 bis zu 16 cores skalieren laesst und theoretisch bis zu 400MHz unter unbekanntem Herstellungsprozess erreichen koennte (wobei ich persoenlich 32nm schaetzen wuerde).

Von da ab haengt es ab ob zumindest ein grosser Kunde einkauft, welchen Markt er genau anzielen moechte und mit wieviel Leistung. Die Frequenz wird zwar beim auslegen des Designs eingeschaetzt aber es ist und bleibt eine Einschaetzung des Herstellers und des Stromverbrauchs bei einem fertigen SoC.

IMG hat keineswegs einen chip als Hersteller angekuendigt; so etwas ist selbstverstaendlich fuer einen IHV der nur IP verkauft.

Gast
2009-03-17, 10:48:39
Ohne ein gewisses Angebot zu haben, kann man auch keine Partner bzw. Kunden heranlotzen. Alles was das PR sagt ist dass der SGX543 bis zu 16 cores skalieren laesst und theoretisch bis zu 400MHz unter unbekanntem Herstellungsprozess erreichen koennte (wobei ich persoenlich 32nm schaetzen wuerde).

Von da ab haengt es ab ob zumindest ein grosser Kunde einkauft, welchen Markt er genau anzielen moechte und mit wieviel Leistung. Die Frequenz wird zwar beim auslegen des Designs eingeschaetzt aber es ist und bleibt eine Einschaetzung des Herstellers und des Stromverbrauchs bei einem fertigen SoC.

IMG hat keineswegs einen chip als Hersteller angekuendigt; so etwas ist selbstverstaendlich fuer einen IHV der nur IP verkauft.
Schon klar, mir ging es nur darum dass man die 400 MHz nicht aus der Max Performance Diskussion ausschließen sollte nur weil sie ein theoretisches oberes Limit darstellen. Wenn man das tut dann kann man auch gleich andere höchstwahrscheinlich nur theoretisch relevante Maximalwerte aus der Pressemitteilung weglassen.

Ailuros
2009-03-17, 11:29:43
Schon klar, mir ging es nur darum dass man die 400 MHz nicht aus der Max Performance Diskussion ausschließen sollte nur weil sie ein theoretisches oberes Limit darstellen. Wenn man das tut dann kann man auch gleich andere höchstwahrscheinlich nur theoretisch relevante Maximalwerte aus der Pressemitteilung weglassen.

Man koennte theoretisch vieles. Aber wenn ARM fuer ihre Mali cores bis zu 380MHz fuer 45nm erwaehnt als einfaches Beispiel dann ist so eine Reaktion auch ziemlich normal. Dabei sind IMG's Einschaetzungen und Behauptungen was Frequenzen, die size u.a. betrifft um einige Male genauer und realitaetsnaher als die der Konkurrenz.

Ailuros
2009-03-20, 10:11:48
Uebrigens wird MP durch zusaetzliche Logik unterstuetzt:

An application running on a system that employs a member of the SGX543MP family will have no need to know how many cores the GPU employs - all core management duties will be performed by the driver software.

Without any intervention by the application - and, more importantly, without any intervention by the application's developer - the driver will pass data to an "MP code scheduler," which will in turn pass that data to one pipeline scheduler per core, which will then pass it to one thread scheduler per multi-threaded processing engine, which will then manage the threads through the engines as they process the graphics data.

In other words, the SGX543 can have any number of cores from two to sixteen with no change in the driver software or the application. All that complex data/pipeline/thread management is done in hardware. No muss, no fuss.

http://www.theregister.co.uk/2009/03/18/sgx543mp/

Ailuros
2009-04-28, 08:28:16
http://people.csail.mit.edu/kapu/EG_09_MGW/IMG_MP_GPGPU.pdf

mboeller
2009-05-01, 10:34:51
coole Präsentation.

Die Proportionen der Chips und des MP-Overheads die auf Seite 5 dargestellt werden scheinen sogar zu stimmen. Zumindest stimmt die Kurve mit den Flächen des MP-Overheads in den Chips oben drüber sehr gut überein:

Der MP-Overhead geht (wenn die Präsentation stimmt) von 25% auf 13,2% dann 9,3% auf zum Schluss 7,5% zurück.

Wenn die 7,5% der Overhead beim SGX543 sind dann wären das bei 8mm² nur 0,6mm² für den MP-Overhead. Das ist imho sehr gut.

Ailuros
2009-05-01, 22:52:54
Ja aber auch:

Balance point between efficiency and time to market determines the start of the Multicore Region.

Ailuros
2009-05-08, 09:13:29
http://www.imgtec.com/powervr/insider/demos/flower_power.asp

The FlowerPower demo uses shaders to render a procedural growing plant spawning high detailed flowers and particle systems. The whole scene is interactive and shows how touchscreen capabilities can be used to simulate a camera with physics properties such as inertia, as well as interacting with flowers and particles. Flowers with high polygon counts have been imported using the tools provided by the POWERVR SDK and are rendered at high framerates thanks to the processing power of SGX hardware. Good visual realism is achieved with reflections and specular lighting using OpenGL ES 2.0.

A simple and effective user interface makes use of the touchscreen support introduced in the SDK and allows to zoom in and out and to freely move the point of view of the scene.

Ailuros
2009-06-03, 18:43:01
Nichts besonders Neues aber VGX150 hat endlich seine eigene Seite bekommen:

http://www.imgtec.com/powervr/VGX150.asp

http://www.imgtec.com/images/blockdiagrams/powervr/large/POWERVR_VGX150_lrg.gif

loewe
2009-06-09, 20:51:40
Passt hier sicher ganz gut rein,
da sind zwei neue Patente online:

MULTI-CORE GEOMETRY PROCESSING IN A TILE BASED RENDERING SYSTEM (http://www.wipo.int/pctdb/en/fetch.jsp?LANG=ENG&DBSELECT=PCT&SERVER_TYPE=19-10&SORT=41266267-KEY&TYPE_FIELD=256&IDB=0&IDOC=1743004&C=10&ELEMENT_SET=B&RESULT=1&TOTAL=66&START=1&DISP=25&FORM=SEP-0/HITNUM,B-ENG,DP,MC,AN,PA,ABSUM-ENG&SEARCH_IA=GB2008003992&QUERY=(PA/imagination+AND+PA/technologies)+)
und
MULTI-CORE RASTERISATION IN A TILE BASED RENDERING SYSTEM (http://www.wipo.int/pctdb/en/fetch.jsp?LANG=ENG&DBSELECT=PCT&SERVER_TYPE=19-10&SORT=41266267-KEY&TYPE_FIELD=256&IDB=0&IDOC=1742986&C=10&ELEMENT_SET=B&RESULT=2&TOTAL=66&START=1&DISP=25&FORM=SEP-0/HITNUM,B-ENG,DP,MC,AN,PA,ABSUM-ENG&SEARCH_IA=GB2008003984&QUERY=(PA/imagination+AND+PA/technologies)+)

das ist sicher das was wir suchen, wenn es um SGX543MP geht.

Ailuros
2009-06-10, 08:56:33
Passt hier sicher ganz gut rein,
da sind zwei neue Patente online:

MULTI-CORE GEOMETRY PROCESSING IN A TILE BASED RENDERING SYSTEM (http://www.wipo.int/pctdb/en/fetch.jsp?LANG=ENG&DBSELECT=PCT&SERVER_TYPE=19-10&SORT=41266267-KEY&TYPE_FIELD=256&IDB=0&IDOC=1743004&C=10&ELEMENT_SET=B&RESULT=1&TOTAL=66&START=1&DISP=25&FORM=SEP-0/HITNUM,B-ENG,DP,MC,AN,PA,ABSUM-ENG&SEARCH_IA=GB2008003992&QUERY=(PA/imagination+AND+PA/technologies)+)
und
MULTI-CORE RASTERISATION IN A TILE BASED RENDERING SYSTEM (http://www.wipo.int/pctdb/en/fetch.jsp?LANG=ENG&DBSELECT=PCT&SERVER_TYPE=19-10&SORT=41266267-KEY&TYPE_FIELD=256&IDB=0&IDOC=1742986&C=10&ELEMENT_SET=B&RESULT=2&TOTAL=66&START=1&DISP=25&FORM=SEP-0/HITNUM,B-ENG,DP,MC,AN,PA,ABSUM-ENG&SEARCH_IA=GB2008003984&QUERY=(PA/imagination+AND+PA/technologies)+)

das ist sicher das was wir suchen, wenn es um SGX543MP geht.

Es wurde aber auch langsam Zeit; herzlichen Dank.

Ailuros
2009-06-10, 13:10:20
http://www.anandtech.com/gadgets/showdoc.aspx?i=3579

Enter the iPhone 3GS

Gmax
2009-06-10, 13:18:18
Ich hab die gegenwärtige Entwicklung völlig aus den Augen verloren.

Man kann von der Annahme ausgehen, daß PowerVR aktuell immer noch nichts für den Desktop plant, richtig?

Ailuros
2009-06-10, 13:40:51
Ich hab die gegenwärtige Entwicklung völlig aus den Augen verloren.

Man kann von der Annahme ausgehen, daß PowerVR aktuell immer noch nichts für den Desktop plant, richtig?

...und es wird wohl auch dabei bleiben. Ihre Architekturen sind lediglich fuer SoCs ergo eingebettetes Zeug vorgesehen.

loewe
2009-06-10, 15:07:58
Ein SGX543MP16 wäre sicher schon eine ganz ordentliche Grafikkarte, aber AFAIK erst einmal nur DX9, was im PC Bereich wohl nicht mehr ganz zeitgemäß ist.
Auf DX10.1 oder DX11 wäre das dann auch schon wesentlich größer und ob es dann noch effektiv wäre, weiß ich nicht.

Wie AIL schon sagt, es wird wohl noch lange wenn nicht für immer bei SOCs bleiben, aber warum nicht in integrierter Grafik, auch in PCs. ;)

Ailuros
2009-06-12, 12:59:30
Ein SGX543MP16 wäre sicher schon eine ganz ordentliche Grafikkarte, aber AFAIK erst einmal nur DX9, was im PC Bereich wohl nicht mehr ganz zeitgemäß ist.
Auf DX10.1 oder DX11 wäre das dann auch schon wesentlich größer und ob es dann noch effektiv wäre, weiß ich nicht.

Es waere eher ein SoC; angenommen Intel wuerde so weit gehen und so etwas in einen SoC integrieren unter 45nm waeren es immer noch schaetzungsweise =/<80mm2 allein fuer das MP. Erstens ist die die area viel zu gross und zweitens muesste Intel ihre chipset Abteilung dann auch dicht machen denn soviel Leistung erreichen ihre GMA950 Kacker nie in ihrem Leben.

Man sollte nicht vergessen dass Intel's chipset team momentan IMG's groesster Konkurrent ist; egal dass Intel fuer <IGP SoCs IMG IP benutzt.

Ailuros
2009-06-19, 14:52:45
http://www.xbitlabs.com/news/video/display/20090618134831_Intel_Becomes_Second_Largest_Shareholder_in_Graphics_Tech_Designe r_Imagination.html

14%? Wow... :eek:

Even though the company is now the second largest shareholder of Imagination, the world’s largest chipmaker said that it had no plans to propose an acquisition.

[fu]121Ah@work
2009-06-19, 15:18:25
http://www.xbitlabs.com/news/video/display/20090618134831_Intel_Becomes_Second_Largest_Shareholder_in_Graphics_Tech_Designe r_Imagination.html

14%? Wow... :eek:
ich dachte die hatten früher schon mehr... aber da hab ich mich wohl geirrt.

turboschlumpf
2009-06-19, 15:33:41
http://www.xbitlabs.com/news/video/display/20090618134831_Intel_Becomes_Second_Largest_Shareholder_in_Graphics_Tech_Designe r_Imagination.html

14%? Wow... :eek:
Würde es Intels Marktstellung nicht immens stärken wenn sie ImgTechn übernehmen würden?

Auch im Hinblick auf Intels Pläne mit Atom?

[fu]121ah@work
2009-06-19, 15:37:46
Würde es Intels Marktstellung nicht immens stärken wenn sie ImgTechn übernehmen würden?

Auch im Hinblick auf Intels Pläne mit Atom?
ja würde es - sofern sie die chips auch verwenden. aber da intel offensichtlich lieber ihren eigenen, alten crap verkauft...

turboschlumpf
2009-06-19, 15:50:45
Naja, ich gehe davon aus ImgTech verlangt Lizenzgebühren in nicht unerheblicher Höhe.

Ailuros
2009-06-19, 15:56:20
Naja, ich gehe davon aus ImgTech verlangt Lizenzgebühren in nicht unerheblicher Höhe.

Eine Lizenzgebuehr fuer jegliche Lizenz (irgendwo zwischen 1 und 2 Mio$ je nach Fall) wobei der Preis bei mehreren Lizenzen auf einem Schlag erheblich faellt. Danach eben "royalties per chip" ergo pro verkauftem chip eine winzige Summe. Wenn Du in Betracht nimmst dass die Konsolen-Hersteller fuer Xenos bzw. RSX IP pro verkaufter Konsole irgendwo unter $5 bezahlen, sind die Werte fuer so winzige chips eigentlich laecherlich klein.

Coda
2009-06-19, 15:56:33
Intel dürfte ImgTec wohl nicht übernehmen.

Ailuros
2009-06-19, 16:01:23
Stimmt auch.

Würde es Intels Marktstellung nicht immens stärken wenn sie ImgTechn übernehmen würden?

Auch im Hinblick auf Intels Pläne mit Atom?

Intel hat die Aktien IMHLO aufgekauft um IMG einen indirekten finanziellen Zuschuss fuer steigenden R&D Kosten zu geben. Gleiches passierte auch als Apple ihre Aktien kaufte und auch als Intel zum Anfang Serie5 als erstes Mal lizenzierte.

Dieser "Zuschuss" kann nur bedeuten dass Intel viel mehr IMG IP in der Zukunft in ihren SoCs benutzen wird.

Die Integration von SGX535 ist keine neue Geschichte; schau Dir die Liste unter GMA500 genau an:

http://en.wikipedia.org/wiki/PowerVR

Der naechste Schub kommt hoechstwahrscheinlich mit groesseren SGX Modellen an.

turboschlumpf
2009-06-19, 16:06:35
Die Marktkapitalisierung von ImgTech liegt aktuell bei 235 Mio. GBP (1 (http://www.londonstockexchange.com/exchange/prices-and-news/stocks/summary/company-summary.html?fourWayKey=GB0009303123GBGBXSSMM))? Oder doch eher bei 11 Mrd. USD (2 (http://www.xbitlabs.com/news/video/display/20090618134831_Intel_Becomes_Second_Largest_Shareholder_in_Graphics_Tech_Designe r_Imagination.html))?

Intel dürfte ImgTec wohl nicht übernehmen.Begründung?

turboschlumpf
2009-06-19, 16:14:10
Intel hat die Aktien IMHLO aufgekauft um IMG einen indirekten finanziellen Zuschuss fuer steigenden R&D Kosten zu geben. Gleiches passierte auch als Apple ihre Aktien kaufte und auch als Intel zum Anfang Serie5 als erstes Mal lizenzierte.ImgTech sieht von dem Geld mit dem Intel die Aktien gekauft hat doch überhaupt nichts. (Ich lese nirgends etwas von einer Kapitalerhöhung.)

Dieser "Zuschuss" kann nur bedeuten dass Intel viel mehr IMG IP in der Zukunft in ihren SoCs benutzen wird.Ich an Intels Stelle wollte mich in obigem Fall nicht massiv abhängig machen von ImgTech. Und schon gar keine Lizenzgebühren für Millionen abgesetzte Einheiten bezahlen.

Xmas
2009-06-19, 16:55:41
Die Marktkapitalisierung von ImgTech liegt aktuell bei 235 Mio. GBP (1 (http://www.londonstockexchange.com/exchange/prices-and-news/stocks/summary/company-summary.html?fourWayKey=GB0009303123GBGBXSSMM))? Oder doch eher bei 11 Mrd. USD (2 (http://www.xbitlabs.com/news/video/display/20090618134831_Intel_Becomes_Second_Largest_Shareholder_in_Graphics_Tech_Designe r_Imagination.html))?
Wie kommst du auf 11 Mrd. USD? In dem Artikel scheint mir allerdings ein "Millionen" zu fehlen, das soll wohl heißen dass Intels Anteil ~49,1 Millionen USD wert ist.

Coda
2009-06-19, 17:20:18
Begründung?
Der gleiche Grund warum sie NVIDIA oder ATI nicht übernehmen konnten.

Ailuros
2009-06-19, 17:21:52
ImgTech sieht von dem Geld mit dem Intel die Aktien gekauft hat doch überhaupt nichts. (Ich lese nirgends etwas von einer Kapitalerhöhung.)

IMG's Analysten Praesentation wird am 24.06. veroeffentlicht; da wird man schon sehen koennen ob die Kosten gestiegen sind oder nicht.

Ich an Intels Stelle wollte mich in obigem Fall nicht massiv abhängig machen von ImgTech. Und schon gar keine Lizenzgebühren für Millionen abgesetzte Einheiten bezahlen.

Momentan sagt Intel klipp und klar dass sie kein Interesse an einem Aufkauf von IMG haben. Anstatt Lizenzgebueren zu bezahlen koennten sie den lizenzierten IP selber entwickeln aber bis das Resultat dann marktreif ist dauert es in etwa 2-3 Jahre. Weder Intel's chipset team noch das LRB team ist momentan faehig analoge Designs (mit so viel Effizienz und so geringer die area und Stromverbrauch) zu entwickeln.

Die eigentliche Frage ist nicht was in der weniger absehbaren Zukunft entwickeln koennten, sondern ob sie heute eine Alternative haben.

Der gleiche Grund warum sie NVIDIA oder ATI nicht übernehmen konnten.

IMG wird sich so oder so IMHLO nach dem SONY Deal nicht so leicht verkaufen lassen. Je mehr Potential fuer Erweiterungen in mehreren Maerkten sich in der Zukunft aufweisst, desto weniger bestehen die Chancen dass das board der Investoren fuer so einen Fall uebereinstimmen wuerde, ausser der vorgeschlagene Preis pro Aktie waere einige Male ueber dem zeitlichen Marktwert.

Ihr naechstes Ziel ist afaik mainstream Schlepptops und bis jetzt haben sie die meisten wenn nicht gleich alle ihrer Ziele fuer SGX erreichen koennen. Es reicht wenn 1 oder 2 grosse Partner einen SGX543MP integrieren.

turboschlumpf
2009-06-19, 17:32:24
Wie kommst du auf 11 Mrd. USD? In dem Artikel scheint mir allerdings ein "Millionen" zu fehlen, das soll wohl heißen dass Intels Anteil ~49,1 Millionen USD wert ist.
Du hast selbstverständlich recht. Ich habe die Aussage fälschlicherweise so interpretiert, dass der aktuelle Aktienkurs bei 49 USD liegt. Aber das hatte ich ja eigentlich selbst schon durch den Link zur London Stock Exchange widerlegt.

350 Mio. USD, das würde Intel ja aus der Portokasse bezahlen...

Der gleiche Grund warum sie NVIDIA oder ATI nicht übernehmen konnten.Äpfel (http://www.bing.com/images/search?q=%C3%A4pfel&form=QB#) vs. Birnen (http://www.bing.com/images/search?q=birnen&form=QB#)?

IMG's Analysten Praesentation wird am 24.06. veroeffentlicht; da wird man schon sehen koennen ob die Kosten gestiegen sind oder nicht. Von einer Kapital-erhoehung war auch hier nicht die Rede:

http://www.imgtec.com/corporate/newsdetail.asp?NewsID=424
Um die Kosten geht es mir überhaupt nicht.

Aber wie soll ImgTech einen "indirekten finanziellen Zuschuss" erhalten, dadurch dass Intel ImgTech-Aktien kauft? Dazu müsste Intel die Aktien schon direkt von ImgTech kaufen oder ImgTech müsste neue Aktien ausgeben (=Kapitalerhöhung). Und diese Information lese ich aus den aktuellen Meldungen nicht heraus.

Anstatt Lizenzgebueren zu bezahlen koennten sie den lizenzierten IP selber entwickeln aber bis das Resultat dann marktreif ist dauert es in etwa 2-3 Jahre. Weder Intel's chipset team noch das LRB team ist momentan faehig analoge Designs (mit so viel Effizienz und so geringer die area und Stromverbrauch) zu entwickeln.

Die eigentliche Frage ist nicht was in der weniger absehbaren Zukunft entwickeln koennten, sondern ob sie heute eine Alternative haben.Genau deshalb sollte Intel ja ImgTech übernehmen!

Coda
2009-06-19, 17:33:24
Da geht's nicht um die Größe der aufzukaufenden Firmen. Intel darf seine Monopolstellung nicht ausnutzen um damit Mitbewerber einfach aufzukaufen.

"Einfach aufkaufen" is nich.

Ailuros
2009-06-19, 17:44:04
Um die Kosten geht es mir überhaupt nicht.

Aber wie soll ImgTech einen "indirekten finanziellen Zuschuss" erhalten, dadurch dass Intel ImgTech-Aktien kauft? Dazu müsste Intel die Aktien schon direkt von ImgTech kaufen oder ImgTech müsste neue Aktien ausgeben (=Kapitalerhöhung). Und diese Information lese ich aus den aktuellen Meldungen nicht heraus.

Ich hab ein bisschen herumgestoebert und irgend eine arabische Firma scheint Aktien loszuwerden; ergo nehme ich es zurueck.

Genau deshalb sollte Intel ja ImgTech übernehmen!

Weil Dir monopolistische Tendezen zustehen oder weil Intel bis jetzt irgendwelche berauschende Grafikcores entwickeln konnte? Und nein wenn sie IMG aufkaufen wuerden wuerde es sich auch beim letzteren auch nichts besonderes aendern.

Wie schon etliche Male erwaehnt Intel's Problem wenn es zu Grafik kommt ist dass sie einfach nicht die richtige Philosophie zum Thema haben. Selbst die heutigen Geraete mit Poulsbo laufen kastriert daher weil Intel zu bloed ist anstaendige Treiber auszuliefern wobei IMG Referenz-Treiber fuer den chipsatz hat der etliche Male mehr Leistung liefert.

Intel ist buerokratisch so verpflastert dass wenn sich etwas aendert es auch etliche Jahre dauern koennte falls sie sich auch langfristig mit eigen entwickelter Grafik beschaeftigen wollen. Wie sieht es mit LRB aus? Man sammelte eine Unzahl an SW und HW engineer Genies der Industrie (unter anderem auch die wichtigsten 3DLabs hw engineers) und das Resultat trottelt nur so vor sich hin ueber unendliche Verspaetungen bis zum Punkt der Veroeffentlichung wonach sich garantiert nicht mehr viele Koepfe drehen werden.

AMD hatte zumindest den Grips und gab dem GDP-ex ATI Team eine gewisse Freiheit dass vorzunehmen was sie am besten koennen; bei Intel sieht es momentan noch grau aus fuer solche Einsichten, schon gar nicht wenn man glaubt dass man als Intel dem Publikum alles andrehen kann.

Ailuros
2009-06-23, 08:17:18
http://www.xbitlabs.com/news/mobile/display/20090622115657_Apple_Sells_One_Million_iPhone_3GS_in_Three_Days.html

cha-chin$$$$$ :cool:

Ailuros
2009-06-23, 13:51:35
http://www.fudzilla.com/content/view/14347/1/

Interessant....;)

Gaestle
2009-06-23, 17:18:56
Intel verkauft SGX-inside unter dem INTEL-Deckmäntelchen an Nokia? Und PowerVRs -Kasse klingelt mit?

Ailuros
2009-06-23, 21:07:39
Intel verkauft SGX-inside unter dem INTEL-Deckmäntelchen an Nokia? Und PowerVRs -Kasse klingelt mit?

NOKIA war stets eine Firma die nicht nur von einem Semi abhaengig sein will; in der Vergangenheit hatten sie auch einen Deal mit den Bitboys und spaeter mit ATI abgeschlossen weil sie nicht nur ausschliesslich auf Texas Instruments angewiesen sein wollten.

Es kann durchaus sein dass sich NOKIA tatsaechlich an Intel's Moorestown interessiert fuer etwas groesseres als ein Handy und in dem Fall ist Intel nicht nur Texas Instrument ein gutes Stueck voraus was die Integrierung von groesseren SGX cores betrifft und NOKIA hat einen zweiten Spieler am Ball.

Der vorige Xbit Labs link war ueber die 1 Mio iPhone 3GS die in den ersten drei Tagen nach der Veroeffentlichung verkauft wurden. Alles zusammen duerfte IMG's Kasse in naechster Zeit ueberhaupt nicht mehr aufhoeren zu klingeln ;)

AnarchX
2009-06-23, 21:10:41
Eine finanzielle Basis um mal wieder die Architektur ausserhalb von SoCs anzubieten? ;)

Ailuros
2009-06-23, 21:37:52
Eine finanzielle Basis um mal wieder die Architektur ausserhalb von SoCs anzubieten? ;)

Will ich selbst bei Serie6 bezweifeln. Es wird nichtdestominder verdammt Zeit dass IMG endlich mal Gewinne abschreibt. Nach dem letzten high end GPU Fiasco werden sie sich wohl nicht so leicht in absehbarer Zeit ein aehnliches Risiko zutrauen.

Sobald sie es schaffen in notebooks einzudringen heisst es dass sie alle Ziele fuer Serie5 erreicht haben. Man muss bedenken dass sie zu KYRO Zeiten nur eigentlich den chip zum Verkauf hatten und audio IP. Heutzutage sieht es eher so aus:

http://www.imgtec.com/corporate/presentations/InterimDec08/36.jpg

Long term objective:

http://www.imgtec.com/corporate/presentations/InterimDec08/38.jpg

Im Juli soll uebrigens ein virtual demo room auf IMG's Seite erscheinen, mit Techdemos fuer PowerVR, Ensigma und META IP Demonstrationen.

Ailuros
2009-06-24, 13:39:13
Mobile Computing (MID, UMPC, Netbook devices) - Imagination’s partnership with Intel in the personal computing/UMPC and MID segment has progressed to plan with shipment of the Intel® Atom™ Z range of products that deploy Imagination’s graphics and video technologies. This solution
has already secured many OEM design wins with over 70 products shipping or announced. The partnership with Intel continues strong and with a wider co-operation scope with several significant projects underway.


http://www.imgtec.com/corporate/presentations/prelims09/Final%20Results-June-09.pdf

Gast
2009-06-26, 14:46:38
Apple now holds a 9.5 per cent stake in Imagination Technologies
http://www.macworld.co.uk/ipod-itunes/news/index.cfm?RSS&NewsID=26426

Ailuros
2009-06-26, 16:16:39
Apple now holds a 9.5 per cent stake in Imagination Technologies
http://www.macworld.co.uk/ipod-itunes/news/index.cfm?RSS&NewsID=26426

Yupp und zusammen mit Intel insgesamt 25%. Im Vergleich zur arabischen Firma die ziemlich stark zum Bankrott neigt in letzter Zeit sind die Aktien zumindest bei Intel und Apple um einiges besser aufgehoben.

Ailuros
2009-06-27, 08:04:03
Uebrigens scheint im iPhone3GS SGX535 (wie im Atom Z) integriert zu sein. Eine oeffentliche Entschuldigung denn ich dachte nach dem Anand Artikel dass es ein 520 ist.

Ailuros
2009-06-28, 15:21:44
http://www.imgtec.com/corporate/newsdetail.asp?NewsID=473

Apple Inc. is subscribing for 2,200,000 new shares of Imagination Technologies Group plc (LSE: IMG) at £ 1.4275 per share, the mid market close price on 25 June 2009, subject only to listing and admission of the new shares. Apple is a licensee of Imagination's technology. Following the share placement and recent share purchases that Apple has notified IMG that it has made in the open market, Apple will have an ownership interest of 9.5%.

Application for the new shares to be admitted to trading on the London Stock Exchange and the Official List of the UKLA is being made and it is expected that listing and admission of those shares will occur on Wednesday 1 July 2009.

robbitop@work
2009-06-29, 09:17:45
Dann hat das neue iPhone ja mächtig Grafikleistung. Etwas anderes als der SGX535 hätte mich auch verwundert. Schließlich ist der schon etliche Male gebaut worden (OMAP 3 und GMA500 sind wohl die prominentesten Bsp) und schon sehr lange fertig. Verbrauch und Kerngröße sind auch ok. Mir wird langsam der Mund wässrig, wenn ich an die Möglichkeiten für den DS und PSP Nachfolger denke. Mit etwas mehr (Cortex A9 und SGX543MP) wäre bei guter Optimierung schon die Optik von Far Cry drin - und das auf nem Handheld!! *sabber*

Ailuros
2009-06-29, 13:20:39
Ich weiss nicht wieso Apple den SGX535 genau gewaehlt hat; IMHLO wuerde fuer ein smartphone mit so "kleiner" Aufloesung ein single TMU SGX530 auch vollkommen ausreichen.

urpils
2009-06-29, 13:49:47
wahrscheinlihc muss diese Plattform für die nächsten 2 Jahre ausreichen.. und wenn Apple die Palette erweitern möchte (Tablet? :D) könnte sich der Leistungsspielraum bezahlt machen.. ist aber nur ne Theorie...

Ailuros
2009-06-29, 15:04:12
wahrscheinlihc muss diese Plattform für die nächsten 2 Jahre ausreichen.. und wenn Apple die Palette erweitern möchte (Tablet? :D) könnte sich der Leistungsspielraum bezahlt machen.. ist aber nur ne Theorie...

Ich dachte Apple will jaehrliche iPhone updates liefern.

robbitop@work
2009-06-29, 15:32:02
Ich weiss nicht wieso Apple den SGX535 genau gewaehlt hat; IMHLO wuerde fuer ein smartphone mit so "kleiner" Aufloesung ein single TMU SGX530 auch vollkommen ausreichen.
Das das iPhone als solches hätte sogar ein VGX gereicht oder ein SGX510/520. Aber man möchte wohl auch Geld mit Spielen machen. Wenn die Plattform 2 Jahre halten soll und was zu bieten haben soll, ist SGX535 schon sinnvoll.

mekakic
2009-06-29, 16:02:44
Man baut vielleicht schon etwas vorraus, um eine sehr leistungsfähige Spieleplattform sicherzustellen. Damit wird für die Entwickler beim nächsten Update der Sprung nicht so groß und man hat für die Entwicklung eine homogenere Plattform.

Ailuros
2009-06-29, 16:10:40
Das das iPhone als solches hätte sogar ein VGX gereicht oder ein SGX510/520. Aber man möchte wohl auch Geld mit Spielen machen. Wenn die Plattform 2 Jahre halten soll und was zu bieten haben soll, ist SGX535 schon sinnvoll.

Unter der Vorraussetzung dass alle mobilen Entwickler ausschliesslich fuer iPhone entwickeln wuerden vielleicht schon. Selbst die ISVs denen sich Apple fuer Entwicklung fuer die iPhones genaehert hat wie z.B. iD werden stets und hauptsaechlich mit dem originalen iPhone im Hinterkopf als lowest common denominator entwickeln.

Wenn man jetzt das Entwicklungsfeld fuer alle erhaeltlichen Handys mit 3D erweitert ist der lowest common denominator noch um einiges niedriger als iPhone 3G MBX Lite@60MHz.

Uebrigens ein kleines etwas zur Leistung aus dem B3D Forum:

http://forum.beyond3d.com/showpost.php?p=1307907&postcount=161

OK ... I ran some basic 2d fill rate test displaying simple alpha blended 32x32 quads (single batch + single texture atlas)
Compared to the old iPhone, I was able to display about 5 times more sprites.

This test is part of my small 2d demo and with the old one I was able to display 350 32x32 blended sprites ( in addition to some non-blended and UV animated background images) while maintaining around 30 fps.
With the new one I was able to push the number of quads to 1750.

Gast
2009-06-29, 17:02:38
Mal nebenbei zur GMA 500 bzw. US15W (neuerdings sehr verbreitet!)
In addition, on June the 20th, 2009, Intel released some new-and-improved drivers for GMA500-equipped computers.
http://yertech.blogspot.com/2008/12/update-gma500-isnt-that-boring.html

Ist da was bekannt, ob HD Video jetzt funzt?