PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD+ATI planen unified GPU/CPU


Gmax
2006-07-24, 18:49:36
"Furthermore, AMD President Dirk Meyer also confirmed that in addition to multi-processor platforms, that "as we look towards ever finer manufacturing geometries we see opportunity to integrate CPU and GPU onto the same [die]." However, Meyer also went on to clarify that this sort of technology might be limited to specific customers first. A clever DailyTech reader recently pointed out that AMD just recently filed its first graphics-oriented patent a few weeks ago. The patent, titled "CPU and graphics unit with shared cache" seems to indicate that these pet projects at AMD are a little more than just pipe dreams."

>Link< (http://www.dailytech.com/article.aspx?newsid=3471)

Wow, jetzt wo die beiden verheiratet sind, legen sie richtig los.
Was da noch so auf uns zukommen mag? :rolleyes:

Gast
2006-07-24, 18:57:20
Gmax[/POST]']"Furthermore, AMD President Dirk Meyer also confirmed that in addition to multi-processor platforms, that "as we look towards ever finer manufacturing geometries we see opportunity to integrate CPU and GPU onto the same [die]." However, Meyer also went on to clarify that this sort of technology might be limited to specific customers first. A clever DailyTech reader recently pointed out that AMD just recently filed its first graphics-oriented patent a few weeks ago. The patent, titled "CPU and graphics unit with shared cache" seems to indicate that these pet projects at AMD are a little more than just pipe dreams."

>Link< (http://www.dailytech.com/article.aspx?newsid=3471)

Wow, jetzt wo die beiden verheiratet sind, legen sie richtig los.
Was da noch so auf uns zukpmmen mag? :rolleyes:

Habe ich immer gesagt, dass sowas kommt, wenn das teil noch dieses Jahr rauskommt und unter 500 Euro kostet und in benches Tombmans Conroe platt macht, dann wird gekauft.

Swp2000
2006-07-24, 18:58:39
Gmax[/POST]']"Furthermore, AMD President Dirk Meyer also confirmed that in addition to multi-processor platforms, that "as we look towards ever finer manufacturing geometries we see opportunity to integrate CPU and GPU onto the same [die]." However, Meyer also went on to clarify that this sort of technology might be limited to specific customers first. A clever DailyTech reader recently pointed out that AMD just recently filed its first graphics-oriented patent a few weeks ago. The patent, titled "CPU and graphics unit with shared cache" seems to indicate that these pet projects at AMD are a little more than just pipe dreams."

>Link< (http://www.dailytech.com/article.aspx?newsid=3471)

Wow, jetzt wo die beiden verheiratet sind, legen sie richtig los.
Was da noch so auf uns zukpmmen mag? :rolleyes:Wäre ja schon ne edle Sache jedoch wenn eine Leistung nicht mehr ausreicht, mußt man somit immer gleich beide Komponenten wechseln CPU und GPU. Geht ja dann nicht anders!

Gast
2006-07-24, 18:59:59
Und wer fragt mich ob ich das überhaupt will?

Was bringt mir eine integrierte Grafiklösung auf deinem Die? Das werden sowieso nur Low End Lösungen sein (sonst zu komplex/teuer/stromfressend).

Im Homeuserbereich sehe ich da auf lange Zeit keinen großen Sinn drin. Macht vielleicht bei Arbeitsrechnern sinn (obwohl da 3D Grafiken auch immer mehr an Bedeutung gewinnen), das ist aber auch schon alles.

Es hat nicht nur Vorteile. Die Nachteile müssten auch mal beleuchtet werden. Sowas lässt sich nicht aufrüsten, es ist da, selbst wenn man es nicht nutzt und es zahlt jeder Käufer mit, egal ob er es nun nutzt oder nicht.

Nunja, also ob DAS die Revolution ist, mag ich doch etwas zu bezweifeln..

deekey777
2006-07-24, 19:00:20
Das ist keine "unified" CPU/GPU-Kombo (gleiche Einheiten können als CPU oder GPU sein), sondern wie schon jetzt der Speichercontroller auf dem Athlon A64 sitzt, wird/soll auch ein "Grafikcontroller" drauf sein.
Intel bzw. die Jungs in Israel haben auch ähnliches entwickelt, was verworfen wurde, jetzt gibt's Gerüchte, dass sie wieder so etwas entwickeln.
Gründe: günstigere Office-Rechner.

StefanV
2006-07-24, 19:01:17
DK777[/POST]']Intel bzw. die Jungs in Israel haben auch ähnliches entwickelt, was verworfen wurde, jetzt gibt's Gerüchte, dass sie wieder so etwas entwickeln.
Gründe: günstigere Office-Rechner.Gruß an den Timna.

deekey777
2006-07-24, 19:03:46
StefanV[/POST]']Gruß an den Timna.

Genau, war zu faul, die aktuelle c't aufzuschlagen. :)
Da gibt es noch das: http://www.sis.com/products/sis55xfamily.htm

StefanV
2006-07-24, 19:10:50
Ja, wobei der Timna aus anderen Gründen eingestampft wurde...

Das Teil hatte nämlich 'nen RDRAM Speichercontroller drin...

saddevil
2006-07-24, 19:12:47
also im prinzip einen PCIe controller onDIE der für grafik zuständig ist

um latenzen CPU - RAM - GPU so klein wie möglich zu halten ...
und die kommuniklationsgeschwindigkeit zu erhöhen


was wiederum einen neuen sockel mit sich zieht

Gast
2006-07-24, 20:22:36
saddevil[/POST]']also im prinzip einen PCIe controller onDIE der für grafik zuständig ist

um latenzen CPU - RAM - GPU so klein wie möglich zu halten ...
und die kommuniklationsgeschwindigkeit zu erhöhen


was wiederum einen neuen sockel mit sich zieht

Äh nein, Geschwindigkeit ist da Nebensache ^^
Es geht darum Kosten bei der Produktion zu senken, muss man keine Onboard Grafikchip verbauen spart das, man brauch nur einen VGA Ausgang.
Das ist der einzige Grund, Leistung spielt bei Büro PCs und Business Laptops keine Rolle.

Oder glaubt ihr man will eine QuadCore CPU mit ner R600 verschmelzen *g
Highend auf engstem Raum kanns nicht geben bei dem Stromverbrauch...

blade04
2006-07-24, 21:39:57
Welche sparte davon noch viel mehr profitiert an die hie rnoch gar nicht egdacht wurde sind Barebones oder Multimedia-Wohnzimmer-PC´s. Die könne doch mit ner Kombo Lösung viel viel kleiner werden. Der perfecte TV und download PC.

Für High-End Bereich spielt das eh keine Rolle.

ShadowXX
2006-07-24, 21:46:41
Gast[/POST]']Äh nein, Geschwindigkeit ist da Nebensache ^^
Es geht darum Kosten bei der Produktion zu senken, muss man keine Onboard Grafikchip verbauen spart das, man brauch nur einen VGA Ausgang.
Das ist der einzige Grund, Leistung spielt bei Büro PCs und Business Laptops keine Rolle.

Ack!


Oder glaubt ihr man will eine QuadCore CPU mit ner R600 verschmelzen *g
Highend auf engstem Raum kanns nicht geben bei dem Stromverbrauch...
Wäre aber bestimmt ne "coole" Sache....speziell wenn man dann von der "CPU" aus auch die UnifiedShader der "GPU" als Streaming-CPUs für anderes mitbenutzen könnte (dann könnte jede SSE-Erweiterung von Intel einpacken). Cell lässt grüßen.

TheGoD
2006-07-24, 21:50:29
Hoffentlich planen die nicht wirklich in etwas fernerer Zukunft so etwas in Bezug auf Midrange oder Highend Geschwindigkeit für Sofort-PCs (zusätzlich zu weiter verkauften Karten). Ein X3600 xl würde so zum Beispiel wenn er in jeder AMD Desktop CPU ab 250 € drinn wäre ziemlich lange Standard sein...

Gummikuh
2006-07-24, 22:01:47
DK777[/POST]']
Intel bzw. die Jungs in Israel haben auch ähnliches entwickelt, was verworfen wurde, jetzt gibt's Gerüchte, dass sie wieder so etwas entwickeln.


Hmmm...ich glaube momentan sind die Jungs von Israel andersweitig beschäftigt :sneak:

Sowas erinnert irgendwie an den MediaGX von Cyrix...

Bis solche Teile mal in den High End Bereich kommen hat die Bundeswehr noch ein aktives Leopard Battalion und 20 Auslandseinsätze am Hintern :usweet:

Demirug
2006-07-24, 22:04:39
ShadowXX[/POST]']Wäre aber bestimmt ne "coole" Sache....speziell wenn man dann von der "CPU" aus auch die UnifiedShader der "GPU" als Streaming-CPUs für anderes mitbenutzen könnte (dann könnte jede SSE-Erweiterung von Intel einpacken). Cell lässt grüßen.

Diesen "GPU Core" würde man dann wohl via D3D10/OpenGL ansprechen.

stickedy
2006-07-24, 22:10:37
DK777[/POST]']
Da gibt es noch das: http://www.sis.com/products/sis55xfamily.htm
Na das ist doch aber richtig alt und lowest-end :)
Das ist mehr das entsprechende:
http://www.via.com.tw/en/products/processors/corefusion/mark/index.jsp
http://www.via.com.tw/en/products/processors/corefusion/luke/index.jsp

Gmax
2006-07-24, 22:12:58
Gummikuh[/POST]']Hmmm...ich glaube momentan sind die Jungs von Israel andersweitig beschäftigt :sneak:


Hehe! :biggrin:

Aber was spricht denn wirklich gegen eine High End Lösung
seitens AMD. Vielleicht in 45nm.
Ist doch sicher billiger herzustellen, als beides getrennt.

AnarchX
2006-07-24, 22:23:44
Gmax[/POST]']Hehe! :biggrin:

Aber was spricht denn wirklich gegen eine High End Lösung
seitens AMD. Vielleicht in 45nm.
Ist doch sicher billiger herzustellen, als beides getrennt.

Ich glaube kaum das man einfach eine HighEnd-CPU und GPU auf einem Die produzieren kann, fast 700Millionen Transistoren sind dann doch etwas anfällig und bringen keinen Gewinn mehr.

CPU und GPU in einem Chip lohnt sich wirklich eher nur wo Platz knapp ist und Leistung eher unwichtig.

malle
2006-07-25, 04:53:07
Mit eingebautem GDDR4 RAM? ;-)

saddevil
2006-07-25, 09:50:26
Gast[/POST]']Äh nein, Geschwindigkeit ist da Nebensache ^^
Es geht darum Kosten bei der Produktion zu senken, muss man keine Onboard Grafikchip verbauen spart das, man brauch nur einen VGA Ausgang.
Das ist der einzige Grund, Leistung spielt bei Büro PCs und Business Laptops keine Rolle....

na das wäre es doch

da wenn ein PCIe drin wäre also reiner controller
brauch man keine NB mehr
nur eine SB ....
und da gibts zig billige
da kommen dann 2-3 PCI / USB / IDE / SATA / Sound raus
eine NB ist dann für die füße

Bokill
2006-07-25, 10:33:13
saddevil[/POST]']na das wäre es doch

da wenn ein PCIe drin wäre also reiner controller
brauch man keine NB mehr
nur eine SB ....
und da gibts zig billige
da kommen dann 2-3 PCI / USB / IDE / SATA / Sound raus
eine NB ist dann für die füße Es gibt nicht nur PCI-Expess als internen Chipinterface.

Die Geode der GX und LX Linie nutzten den paketbasierten GX-Bus. Da AMD seit dem K8 einen eigenständigen sehr schnellen Chipinterconnect entwickelte, kann es durchaus sein, dass dafür auch HyperTransport genommen wird.

MFG Bobo(2006)

phil99
2006-07-25, 13:10:45
Ich kann mir schon vorstellen, dass eine Verschmelzung stattfindet.
Zumindest eine Mainstream 50 Watt Graka könnte man ja noch mitkühlen, und in ein paar Jahren ist das dann ganz normal, dass 16 Dies für die CPU und 8 für die Grafik arbeiten +
16 GB GDDR7 Ram.

Coda
2006-07-25, 14:22:34
Einheitenverschmelzung ist nicht drin. Grafik-Logik hat ganz andere Anforderungen als CPU-Logik (Durchsatz vs. Latenz).

Spasstiger
2006-07-25, 14:36:46
Coda[/POST]']Einheitenverschmelzung ist nicht drin. Grafik-Logik hat ganz andere Anforderungen als CPU-Logik (Durchsatz vs. Latenz).
Das unified im Threadtitel sorgt wohl für Verwirrung. Kleiner Übersetzungsfehler, der Platz für Spekulationen macht. ;)

Gast
2006-07-25, 15:10:04
Also ich weiß nicht recht, ob es sich lohnt soviel Zeit mit diesem Thema zu verbringen. Defakto wäre es doch so, daß man mit diesen aufgemotzten CPUs die Grafik nicht mehr separat nachrüsten könnte. Und wenn sich (so wie bisher) alle 6 Monate die Meßlatte für GPUs ein Stück nach oben schiebt, dann kann man nicht nur seine GPU, sondern seine CPU gleich mit in den Abfall schmeißen.
Ich glaube das ganze wird ein unbedeutendes Nischenprodukt, wie die Onboard-Grafikchips: Keiner der wirklich auf Leistung angewiesen ist, würde heute zu einem Board mit Onboard-Grafik greifen.
Auch technisch ist das CPU+GPU-Konzept mehr als fragwürdig. Wenn ich mir anschaue, wieviel Abwärme bei heutigen CPUs und GPUs unter Vollast entsteht, dann kann ich mir kaum vorstellen, wie man auf die Idee kommen kann, diese beiden "glühenden Kohlen" auch noch auf einen Sockel zu pappen. Es sei denn man plant bei AMD an der "heißesten" CPU des neuen Jahrhunderts. Sehr fraglich ist allerdings, ob man mit einem solchen Produkt einen Blumenpott gewinnen kann.

Spasstiger
2006-07-25, 15:25:53
Gast[/POST]']Ich glaube das ganze wird ein unbedeutendes Nischenprodukt, wie die Onboard-Grafikchips: Keiner der wirklich auf Leistung angewiesen ist, würde heute zu einem Board mit Onboard-Grafik greifen.
Es werden mindestens genauso viele Onboard-Grafikchips verkauft wie normale Grafikchips für dedizierte Grafikkarten. Man denke nur mal an den Notebookmarkt.
Gerade für ultraportable PCs ergeben sich neue Möglichkeiten, wenn man CPU und Grafikchip in einem Die hat. Und einen Grafikchip braucht nun mal jeder Rechner, an dem ein Bildschirm angeschlossen werden soll. Rudimentäre 3D-Fähigkeiten sind auch gefragt, nicht zuletzt durch Windows Vista.

StefanV
2006-07-25, 15:31:12
Spasstiger[/POST]']Es werden mindestens genauso viele Onboard-Grafikchips verkauft wie normale Grafikchips für dedizierte Grafikkarten. Man denke nur mal an den Notebookmarkt.
Gerade für ultraportable PCs ergeben sich neue Möglichkeiten, wenn man CPU und Grafikchip in einem Die hat. Und einen Grafikchip braucht nun mal jeder Rechner, an dem ein Bildschirm angeschlossen werden soll. Rudimentäre 3D-Fähigkeiten sind auch gefragt, nicht zuletzt durch Windows Vista.

Ja, aber dann sollte man auch gleich die ganze NB in die CPU packen und die SB etwas abspecken, so dass nur ein kleiner I/O Hub über bleibt...

TheCounter
2006-07-25, 15:56:11
Vielleicht ist die GPU ja nur als Ergänzung/extra beschleunigung gedacht. Ob das dann allerdings mit NVIDIA GPUs harmoniert ist eine andere Frage ;)

Liszca
2006-07-26, 01:48:26
Blöde an der sache finde ich nur dass der chip vorraussichtlich 3D tauglich wäre, wenn er das von vorne herrein nicht könnte wäre es eine feine sache, andernfalls werden sonst nur richtige 3d karten noch teuerer!

Gast
2006-07-26, 09:30:22
mal meine 2cent dazu:

AMD/ATi haben ja ausgesagt das es sich um eine Langfristige Sache handelt. die ersten Produkte kommen also frühestens 2008. Also mit der neuen CPU-Generation von AMD (behaupte ich jetzt einfach mal).

AMD wird wohl nicht einfach einen GPU mit auf das Die packen, das Ergebnis wäre nämlich nicht besser als bei den bisherigen embedded 3D-Chipsätzen. Dafür würde sich der ganze Aufwand also gar nicht lohnen.

Ich denke eher, das es in Richtung IRAM bzw. CRAM ( Intelligent RAM oder Computional RAM ) gehen wird. Die entsprechende L3-Technologie haben sie sich ja auch schon gekauft. Das ganze könnte IMHO darauf hinauslaufen das sie die ATi-Technologie für X86-CPU's mit 32MB IRAM (incl. massiv SIMD, 3D, etc..) nutzen werden.

Gast
2006-07-26, 12:02:17
Möglich wärs, ich schätze das die GPU mit der CPU besser zusammenarbeiten wird, also wird das wohl mit HT über den Chipsatz laufen.
Womöglich könnte dann noch extra 16 MB-IRAM aufm MB verbaut sein, welcher von CPU und GPU genutzt wird.

Simon Moon
2006-07-26, 18:12:58
Wieso eigentlich nur Grafik?

AMD könnte mit der Technologie doch nun eine Physik Beschleuniger Unit auf die CPU klatschen. Schaut man sich die Physx an, scheint diese ja nicht sonderlich auf Bandbreite angewiesen zu sein und gute latenzen bietet der Arbeitsspeicher ja.

Imo sollte man sich nicht auf festgefahrene Konzepte konzentrieren - die werden sich kaum ändern, aber bei der Physik, die erst am aufkommen ist in Spielen, seh ich momentan das grösste Potenzial. Wie das dann genau aussehen mag (Physik Chip für seperaten Sockel, Physik Unit auf CPU oder Physik via Grafikkarte) ist wohl noch ungewiss - aber es wird sich da in den nächsten jahren garantiert am meisten tun - darauf verwette ich meine Haare.

Gast
2006-07-27, 08:45:55
Simon Moon[/POST]']Wieso eigentlich nur Grafik?

AMD könnte mit der Technologie doch nun eine Physik Beschleuniger Unit auf die CPU klatschen. Schaut man sich die Physx an, scheint diese ja nicht sonderlich auf Bandbreite angewiesen zu sein und gute latenzen bietet der Arbeitsspeicher ja.


Ich halte eigentlich nichts von der Idee. Wenn man das weiterspinnt dann hat man irgendwann 4-8 oder mehr Spezialprozessoren ( Physik, Video, Vertex-Shader, Pixel-Shader, SSE, DSP, etc...) mit auf dem Die die nur für einige wenige Einsatzzwecke was bringen.

Deshalb eben die Idee mit dem L3-Cache-"Sea of Processors" System ala I-RAM oder C-RAM. Damit sollte man dann eben sehr schnell 3D (Vertex + Pixel-Shading), Video, Physik etc... machen können ohne gleich für jede neue Anwendung einen neuen Spezial-"Chip" mit auf dem Die zu brauchen.

ATi müsste für sowas ja eigentlich ein gutes Knowhow haben da die neuen GPUs ja bereits in diese Richtung ( viele ALUs, wenige TMUs) gehen und die einzelnen (DX9 bzw. Xenos) ALUs ja anscheinend auch nicht zu viele Transistoren brauchen.

Marodeur
2006-07-27, 11:17:34
Wenn man diese verschmelzung mit recht leistungsstarken Komponenten hinbekommt könnt ich mir das als recht interessant für den Konsolenmarkt vorstellen, oder etwa nicht?

Anarchy-HWLUXX
2006-07-27, 11:32:31
Simon Moon[/POST]']Wieso eigentlich nur Grafik?

AMD könnte mit der Technologie doch nun eine Physik Beschleuniger Unit auf die CPU klatschen. Schaut man sich die Physx an, scheint diese ja nicht sonderlich auf Bandbreite angewiesen zu sein und gute latenzen bietet der Arbeitsspeicher ja.

Was soll ein Office Rechner mit Physik beschläunigung ?

Also meinermeinung nach wird das eine 100% reine low-cost / Office Lösung ... maximal Midrange.

Eine High-End GraKa/CPU lösung würde unter last doch sicherlich 200W+ verballern - ohne WaKü geht da nix. Ausserdem muss man dann noch irgendwie den GraKa RAM anbinden de ja IMMER welten schneller ist als System RAM.

StefanV
2006-07-27, 13:25:23
Sollte so eine GPU nicht auch recht ordentlich für Grafik- und Soundbearbeitung sein??

Demirug
2006-07-27, 14:27:50
StefanV[/POST]']Sollte so eine GPU nicht auch recht ordentlich für Grafik- und Soundbearbeitung sein??

Ja, nicht umsonst gibt es in Vista eine API für Bildbearbeitung die eine SM 2 Grafikkarte nutzt.

Für die Musikverarbeitung gibt es auch ein Programm das eine 32 Bit FP Karte nutzt.

Monger
2006-07-27, 14:44:42
Demirug[/POST]']Ja, nicht umsonst gibt es in Vista eine API für Bildbearbeitung die eine SM 2 Grafikkarte nutzt.

Für die Musikverarbeitung gibt es auch ein Programm das eine 32 Bit FP Karte nutzt.

Das ist jetzt natürlich extrem zusammengesponnen, aber: hätte AMD die Kenntnisse, um eine integrierte Soundlösung zusammenzufriemeln?

Ich könnte mir da eine CPU vorstellen, die eben auch einen Grafikchip beherbergt, der dann über die Shaderpipelines mit dem richtigen Treiber auch Sound ablaufen lassen kann.

Dann hätte man einen Chip für Office Rechner, der so ziemlich alles kann, wenn auch nichts wirklich gut. Aber wenn man sich auf dem Board auch noch die paar Cent für einen Soundchip sparen könnte, könnte man vielleicht sogar noch billigere Office-Rechner anbieten...

Ikon
2006-07-27, 14:47:33
Ich verstehe nicht, dass gleich so viele nach High-End krähen. Wir sprechen hier höchstwahrscheinlich von einer gemütlichen Office-/Nicht-Zocker-Lösung.
Das Ding muss nur mittelmäßige Leistung liefern, der Grafikkern muss Vista möglichst mit Aero-Glass darstellen können und sollte mit den meisten Spielen kompatibel sein (damit Otto Normal Far Cry zumindest mal starten kann), die Leistung der Grafik ist durch Transistor-Count/Wärmeabgabe/Stromverbrauch sowieso limitiert.

Sehen wir uns mal die potenziellen Vorteile für die verschiedenen Spieler an:

AMD: fertigungstechnische Synergieeffekte, mehr Absatz durch den "zwei Komponenten aus einer Hand"-Ansatz.

System-Assemblierer: Grafik und CPU aus einer Hand, die wahrscheinlich auch preislich grünstiger sind; nur ein größerer Kühler für CPU+Grafik zusammen nötig; vereinfachtes Layout and damit günstigerer Preis der zugekauften Mainboards.

Nutzer: billigere Büro-Systeme/Laptops; neue Möglichkeiten für HTPCs; möglicherweise leistungsfördernde architektonische Synergieeffekte bei einer kombinierten CPU/GPU.

Ikon
2006-07-27, 14:51:53
Monger[/POST]']Das ist jetzt natürlich extrem zusammengesponnen, aber: hätte AMD die Kenntnisse, um eine integrierte Soundlösung zusammenzufriemeln?

Ich könnte mir da eine CPU vorstellen, die eben auch einen Grafikchip beherbergt, der dann über die Shaderpipelines mit dem richtigen Treiber auch Sound ablaufen lassen kann.

Dann hätte man einen Chip für Office Rechner, der so ziemlich alles kann, wenn auch nichts wirklich gut. Aber wenn man sich auf dem Board auch noch die paar Cent für einen Soundchip sparen könnte, könnte man vielleicht sogar noch billigere Office-Rechner anbieten...

Natürlich kann man noch mehr integrieren als nur die Grafik -> darum geht es bei System-on-a-chip. Da bei der K8-Plattform der Chip(satz) sowieso nur Peripherie-Controller ist, könnte man das ganze wohl relativ einfach in den Kern einbauen. Das Know-How für Chipsatz-Design (einschließlich der Sound-Einheit) hat man spätestens mit dem Zukauf von ATi bekommen.

Ich würde mich nicht wundern, wenn das Endprodukt so aussieht, MediaGX hat ähnliches prinzipiell schon vor langer Zeit ermöglicht.

saddevil
2006-07-27, 14:58:49
hmm wäre echt was...
dann nur noch ein board + diese CPU + RAM + netzteil und das ding läuft

und das ganze dürfte recht minimalistisch werden ...
kleine clients oder so

ähnlich ITX ...

Simon Moon
2006-07-28, 16:51:50
Anarchy-HOCP[/POST]']Was soll ein Office Rechner mit Physik beschläunigung ?

Also meinermeinung nach wird das eine 100% reine low-cost / Office Lösung ... maximal Midrange.

Eine High-End GraKa/CPU lösung würde unter last doch sicherlich 200W+ verballern - ohne WaKü geht da nix. Ausserdem muss man dann noch irgendwie den GraKa RAM anbinden de ja IMMER welten schneller ist als System RAM.

Nun momentan geht der Trend eindeutig richtig Multicore, in vier oder fünf Jahren werden wir wohl Octocores sehen, wenn die Entwicklung so weitergeht. Da kann es meiner Meinung nach schon sinnvoll sein quasi SSE noch zu erweitern und ihm einen eigenen Core spendieren. Dieser liesse sich wohl auch wieder, ähnlich wie bei Grafikkarten, in etliche Unterunits splitten und Physikberechnungen beschleunigen.

Aber die beiden werden ja erst noch fusionieren, vor 2010 erwarte ich da nichts, bestenfalls ein extra Chip über HT.

Iwan
2006-07-28, 16:58:35
saddevil[/POST]']hmm wäre echt was...
dann nur noch ein board + diese CPU + RAM + netzteil und das ding läuft

und das ganze dürfte recht minimalistisch werden ...
kleine clients oder so

ähnlich ITX ...

das ganze gibts auch schon mit onboard grafik ;) es ist nur abzuwarten wie sich eine on-die gpu auf performance (im vergleich zu onboard und extra karten) und preis auswirkt.

Simon Moon
2006-07-28, 17:11:56
Gast[/POST]']Ich halte eigentlich nichts von der Idee. Wenn man das weiterspinnt dann hat man irgendwann 4-8 oder mehr Spezialprozessoren ( Physik, Video, Vertex-Shader, Pixel-Shader, SSE, DSP, etc...) mit auf dem Die die nur für einige wenige Einsatzzwecke was bringen.

Deshalb eben die Idee mit dem L3-Cache-"Sea of Processors" System ala I-RAM oder C-RAM. Damit sollte man dann eben sehr schnell 3D (Vertex + Pixel-Shading), Video, Physik etc... machen können ohne gleich für jede neue Anwendung einen neuen Spezial-"Chip" mit auf dem Die zu brauchen.

ATi müsste für sowas ja eigentlich ein gutes Knowhow haben da die neuen GPUs ja bereits in diese Richtung ( viele ALUs, wenige TMUs) gehen und die einzelnen (DX9 bzw. Xenos) ALUs ja anscheinend auch nicht zu viele Transistoren brauchen.

Naja mit konventionellen CPUs bräuchte man wohl schon eine Menge simpler Cores um an die Rechenleistung einer GPU zu kommen. Da wird man zwangsläufig wohl nicht um eine Trennung nicht herum kommen. 3D Grafik, Physik und KI wohl auch lassen sich paralellisieren, sind also bei Vektorprozessoren wesentlich besser aufgehoben. Das Ganze wird einfach ein weiterer Schritt bei den CPUs, wie die Einführung einer Pipeline, integriertem Cache, MMX, SSE oder IMC. Nur wohl doch recht flexibel, bei dem know how den ATi da mitbringt.