PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - kommt eine GPU mit ARM Unterstützung?


Tarkin
2011-01-12, 08:46:27
http://www.digitimes.com/news/a20110111PD215.html

"AMD starting to develop display processors to support ARM"

fondness
2011-01-12, 10:04:31
Puh, das wäre natürlich schon ein dickes Ding und würde Intel ganz schön in Bedrängnis bringen. Den Sinn darin zuerst die mobile-Sparte zu verkaufen und dann einen neuen Chip auf ARM-Basis zu entwickeln sehe ich aber nicht wirklich. Zudem da AMD als einziger Hersteller alle wichtige x86-Lizenzen besitzt wäre man wohl besser beraten gemeinsam mit Intel gegen ARM anzutreten. Aber vielleicht sehen sie das als ihre Chance sich unabhängig vom übermächtigen Gegener Intel zu machen.

LovesuckZ
2011-01-12, 11:09:28
Welcher Schlag? Intel ist doch selbst dabei kleine, effziente x86 SoC zu produzieren und sind hier AMD Jahre voraus. Siehe dazu auch die CES.
AMD muss hier von Null anfangen. Und wie man an nVidia sieht, benötigt man Jahre um überhaupt groß in den Markt einsteigen zu können. Wenn AMD also erste Chips liefern kann, wird es wohl einfach zu spät.

Ailuros
2011-01-12, 13:53:17
Es ist nichts Neues dass AMD vorhat die Fusion APUs weiter nach unten zu skalieren in der Zukunft. Unterhalb von netbooks macht etwas anderes als ARM GPU IP nicht besonders viel Sinn.

davidzo
2011-01-12, 14:38:37
yay, dann kann man ja gleich mit seiner eigenen ehemaligen mobilsparte wieder in Konkurrenz treten.

ne im ernst, ich finde das ist eine sinnvolle entscheidung.
einerseits kann man ausgehend von den highendarchitekturen auf dem Desktop nach unten skalieren, andererseits gibt es synergien weil man sich mit energieffizienten grafikprozessorarchitekturen in Zukunft ohnehin vermehrt beschäftigen muss. mobile-designs binden aufgrund ihrer geringen komplexität so wenig manpower, dass das ein oder andere Entwicklerteam mehr oder weniger auch kein besonderes operatives risiko darstellt.

und was x86 angeht: wenn man da sowieso überwiegend nicht im rentablen bereich mitmischen kann, dann lohnt es sich auch nicht diesen Standpunkt zu verteidigen. AMD hat gute Chipingenieure, egal ob man nun CISC, VLIW oder RISC baut.

Coda
2011-01-12, 14:44:02
Es ist nichts Neues dass AMD vorhat die Fusion APUs weiter nach unten zu skalieren in der Zukunft. Unterhalb von netbooks macht etwas anderes als ARM GPU IP nicht besonders viel Sinn.
Seh ich anders. Bobat ist jetzt schon nicht viel größer und dennoch deutlich performanter als ein A9.

davidzo
2011-01-12, 14:48:47
Seh ich anders. Bobat ist jetzt schon nicht viel größer und dennoch deutlich performanter als ein A9.
naja, beim a9 geht es aber auch ein bisschen um power/watt.
ich würde gerne mal den client von nufront (2x 2ghz A9) mit bobcat vergleichen.
Was die Grafik angeht ist man allerdings auch auf einem völlig anderen niveau als ein mali oder SGX 540, sowohl leistungstechnisch, aber auch erst recht was den energieverbrauch angeht-

deekey777
2011-01-12, 15:21:42
Welcher Schlag? Intel ist doch selbst dabei kleine, effziente x86 SoC zu produzieren und sind hier AMD Jahre voraus. Siehe dazu auch die CES.
AMD muss hier von Null anfangen. Und wie man an nVidia sieht, benötigt man Jahre um überhaupt groß in den Markt einsteigen zu können. Wenn AMD also erste Chips liefern kann, wird es wohl einfach zu spät.
Wieso bei Null? Es ist ja nicht so, dass AMD keine Erfahrungen auf diesem Gebiet hat (Imageon, aber auch Xilleon).

Avalox
2011-01-12, 17:13:36
http://www.digitimes.com/news/a20110111PD215.html

"AMD starting to develop display processors to support ARM"


Fragt sich nur, ob die Jungs von AMD oder eher die Jungs von ATI dran sitzen werden. Tippe mal eher auf letzteres. Dann ist es eher sowas wie ein ATI Projekt.

Nicht vergessen, dass Intel, wie auch AMD ihre ARM based Schmieden vor Jahren abgestoßen haben.

Gipsel
2011-01-12, 19:40:40
naja, beim a9 geht es aber auch ein bisschen um power/watt.
ich würde gerne mal den client von nufront (2x 2ghz A9) mit bobcat vergleichen.Der hat sogar ein vergleichbares Speicherinterface (64bit DDR3-1066) verbaut ;)
Aber ich bin mir noch nicht wirklich sicher, ob der auch wirklich mit 2 GHz läuft. Die haben zwar offensichtlich das mit 2GHz beworbene hard macro von ARM eingekauft, allerdings schreibt die Pressemeldung im Text auch sowas:
By leveraging the multi-layer hybrid interconnection technology, multi-level fine grain power management technology and advanced 40nm manufacture process, NuSmart™ 2816 is very energy efficient consuming less than two watts when running at 1.6GHz.Und in einem Interview zum Chip (der in eine Art Nettop- bzw. HTPC-Gehäuse verbaut war, sah wie Mini-ITX aus) hat der Chef der Klitsche Wert darauf gelegt, daß es "up to 2GHz" (seine, nicht meine Betonung gekennzeichnet) sein können und es noch ein Prototyp sei. Das Netbook nufront Newton, was den Chip nutzt, soll laut einiger Quellen von vorherein nur mit den 1.6GHz kommen.
Einige Artikel erwähnen manchmal auch 4 Watt als Verbrauch, vielleicht ist das ja die Zahl für 2 GHz? Und/oder die inklusive der Grafik?
Allerdings stelle ich jetzt mal die verwegene These auf, daß die "16" am Ende der Typennummer (2816) für 1,6GHz stehen. :)
Was die Grafik angeht ist man allerdings auch auf einem völlig anderen niveau als ein mali oder SGX 540, sowohl leistungstechnisch, aber auch erst recht was den energieverbrauch angeht-Nun, um das Phrasenschwein mal wieder zu füttern: Von nix kommt nix. ;)
Ist allerdings nett, daß das Teil auch gleich SATA-, USB- und Ethernet-Controller integriert (ist eben ein richtiges SoC), da kann man sich dann den Großteil der anderen Käfer auf dem Board sparen.

Weiß irgendwer, wieviele GPU-Kerne von dem Mali400-MP-Zeugs die da integriert haben? Laut ARM geht ja alles zwischen 1 und 4.

Ailuros
2011-01-13, 08:31:48
naja, beim a9 geht es aber auch ein bisschen um power/watt.
ich würde gerne mal den client von nufront (2x 2ghz A9) mit bobcat vergleichen.
Was die Grafik angeht ist man allerdings auch auf einem völlig anderen niveau als ein mali oder SGX 540, sowohl leistungstechnisch, aber auch erst recht was den energieverbrauch angeht-

Bei heutigen low end Fusion APUs geht es immer noch um power/W. Embedded ist dann eine andere Geschichte da es eher um power/mW geht.

Nebenbei liegt oben noch ein wichtiger Punkt was die GPU betrifft. Um sinnvoll etwas wie DX11 in ein mW power portofolio unterbringen zu koennen reichen die heutigen Herstellungsprozesse nicht aus.

Wenn man DX11 zur Seite legt (was welche genau Relevanz oder Notwendigkeit HEUTE bei embedded devices hat?) kannst Du heute theoretisch einen SGX554 auf bis zu 16 cores skalieren bei DX9/L3. Jeder core hat 4 ALUs mit jeweils VLiW4/ALU. Wenn Du in SPs zaehlen wuerdest sind es 512SPs insgesamt. Wenn die Dinger DX11 waeren wuerden es um einiges weniger "SPs" werden dank zusaetzlicher Logik fuer X11 fuer bestimmte mm2 Werte, aber so radikal waere der Rueckgang nun auch wieder nicht.

So oder so ist es IMO billiger fuer AMD auf zukuenftige Herstellungsprozesse zu warten fuer die GPUs selber, als fuer heute DX9/10 embedded GPUs zu entwickeln.


Weiß irgendwer, wieviele GPU-Kerne von dem Mali400-MP-Zeugs die da integriert haben? Laut ARM geht ja alles zwischen 1 und 4.

Mali400 ist momentan maximal 4MP und obwohl es wohl nicht die maximale Latenz des Designs ist waeren mehr eine Schnappsidee. Egal ob single core, 2 oder 4MP es skalieren lediglich die fragment Prozessoren; selbst 4MP hat nur einen VS.

Erst bei der naechsten T60x Generation wo es USC ALUs gibt skaliert Geometrie mit, aber das Zeug ist noch nichtmal fertig egal was ARM behauptet.

Wie dem auch sei afaik ist der Mali400 4MP im Samsung Orion (dual A9, Ende 2011) auf 400MHz getaktet. Im reinen fragment Bereich wird das Ding ziemlich stark sein, aber von der Geometrie Seite her irgendwo auf SGX540 Nivaeu und ich bezweifel auch besondere Fuellraten werte. SGX540 hat 4 Vec2 ALUs und 2 TMUs; Mali400 sind single TMU afaik.

GalaxyS (1) A8@1GHz, SGX540@200MHz, 400MPixels/s, 20M Tris/s
GalaxyS (2) A8@1.2GHz, SGX540@250MHz, 500MPixels/s, 25M Tris/s

OMAP4440 dual A9@1.5GHz, SGX540@400MHz, 800MPixels/s, 40M Tris/s

Woher jetzt Samsung bei ihrem Werbescheiss auf 5x Mal so viel 3D Leistung kam fuer Orion gegen das heutige Zeug weiss wohl nur Samsung selber.

RavenTS
2011-01-15, 19:00:37
Warum denn nicht, wenn auch nVIDIA auf den ARM-Zug aufspringt, kann man da ja auch mal versuchen mitzufahren, für den Fall, daß ARM wirklich auch auf größeren Geräten Fuß in den Markt bekommt...

Ailuros
2011-01-16, 10:05:24
Warum denn nicht, wenn auch nVIDIA auf den ARM-Zug aufspringt, kann man da ja auch mal versuchen mitzufahren, für den Fall, daß ARM wirklich auch auf größeren Geräten Fuß in den Markt bekommt...

Coda hat in seinem Post oben da schon einen Punkt. Noch etwas dazu: http://www.xbitlabs.com/news/cpu/display/20110113124620_Performance_and_Power_Efficiency_of_ARM_and_x86_Will_Be_Equal_Ana lyst.html

The top four suppliers - Texas Instruments, Qualcomm, Samsung, and Marvell - were estimated to account for over 70% of total market revenues in 2010, and those revenues are forecast to double between 2010 and 2016.

Es steht zwar nichts von einem Anteil von jeglichem semi fuer die insgesamt 70% drin, aber TI, Qualcolmm und Samsung setzen bis jetzt auf ARM CPU IP (wobei ich bezweifle dass sich bald etwas aendern wird) waehrend Marvell auf MIPS setzt.

IMHO wird ARM zwar weiterhin zunehmend mehr IP verkaufen koennen je mehr sich der gesamte mobile Markt erweitert (und daher auch ihr Umsatz) aber ihr insgesamter Markt-anteil koennte durchaus etwas schrumpfen. Solche Phaenomaene sind normal wenn sich ein Markt erweitert und sich die Konkurrenz zur gleichen Zeit anheizt.

Dural
2011-01-16, 15:14:56
erst verkauft man das ARM zeugs und soblad NV damit ankommt muss man es auch wider haben :freak:


Die AMD Geschäftsleitung zeigt immer wider ihr talent... hoffentlich kommt jetzt mal einer der es kann!

Duplex
2011-01-16, 15:29:01
Das war leider wegen Finanzielle Probleme nötig, genauso wie Sie die Werke in Dresden verkaufen mussten, vorher gab es noch zuviele Probleme bei AMD, jetzt hat AMD endlich 3 CPU Designs für 2011 fertig und geht einen schritt weiter mit ARM, auch die GPU Abteillung wird im Q3 Jahr eine gute GPU Architektur in 28nm vorstellen können.

Trap
2011-01-16, 15:33:32
Die AMD Geschäftsleitung zeigt immer wider ihr talent... hoffentlich kommt jetzt mal einer der es kann!
Die haben zuerst die alte Geschäftsleitung gefeuert und dann die Entwicklung der GPU für ARM-Systeme angekündigt.

Das ist eine Entscheidung der neuen Geschäftsleitung und eventuell auch ein Grund für den Rausschmiss der alten.

VooDoo7mx
2011-01-16, 15:36:40
@Ailuros

Der SGX 540 hat doch 4 ALUs und müsste bei 200 oder 250MHz respektive 800 oder 1000Mpix Füllrate haben, oder verwechsel ich da jetzt was?

Und Orion ist ein Dual Core Cortex A9. Der 1,2Ghz ist immer noch ein Hummingbird und kommt auch nicht im Galaxy 2 zum Einsatz. Galaxy 2 wurde noch gar nicht vorgestellt, sondern Das Ding (http://androidandme.com/2011/01/phones/samsung-infuse-4g-sneak-peek/)

Ailuros
2011-01-16, 15:59:02
@Ailuros

Der SGX 540 hat doch 4 ALUs und müsste bei 200 oder 250MHz respektive 800 oder 1000Mpix Füllrate haben, oder verwechsel ich da jetzt was?

Wenn Du depth complexity auf einem TBDR ist dieses auch vollkommen gerechtfertigt aber 2 TMUs @200MHz sind bei mir 400MPixels/s. Mit 2.5x Overdraw dann natuerlich 1GPixels/s aber dann auch nur "effektive Fuellrate". ALUs != TMUs.

Und Orion ist ein Dual Core Cortex A9. Der 1,2Ghz ist immer noch ein Hummingbird und kommt auch nicht im Galaxy 2 zum Einsatz. Galaxy 2 wurde noch gar nicht vorgestellt, sondern Das Ding (http://androidandme.com/2011/01/phones/samsung-infuse-4g-sneak-peek/)

Deshalb auch die Klammern bei (1) und (2). Uebrigens steht bei meinem vorigen Text klipp und klar A8 drin und nicht A9. Das Samsung infuse 4G hat tatsaechlich die CPU auf 1.2GHz getaktet aber auch die GPU auf 250MHz. Was sonst soll ich darunter verstehen wenn Samsung selber angibt dass diese SoC Variante um 25% schnellere Grafik hat?