PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple bald mit Cell CPUs!?


Gast
2005-05-26, 23:47:59
Ich hatte sowas schön vor ein paar Monaten in verdacht, als von Apples Seite der Cell so euphorisch gefeiert wurde. Und Apple und Sony haben ja auch einen Cooperationsvertrag, nur weiß man nichts über den genauen Inhalt.

Mich würde es jedenfalls nicht Wundern. Mit Cell als Basis könnte der Mac den PC quasi stehen lassen in Sachen Hardware und was was die Software angeht ist Apple ja sowieso spitze.

http://www.macworld.co.uk/news/index.cfm?NewsID=11682&Page=1&pagePos=6

Konsolenfreund

gisbern
2005-05-27, 00:14:38
Cell-Hype die 9. (-:

a) selbst wenn, AMD + Intel schlafen nich
b) zum Threadthema kann ich leider nix weiter zusteuern, mich überkam nur das Gefühl auch mal auf einen Cell-Hype-Thread antworten zu müssen.

Coda
2005-05-27, 00:52:04
Für normale Anwendungen ist Cell total ungeeignet. Ohne spezielle Vektorisierung wird der sicherlich von nem 1Ghz Athlon versägt.

1.) Kann man lange nicht alles vektorisieren. Das ist imho sogar die Minderheit der Algorithmen.
2.) Wie soll man den Apple Kunden erklären, dass ihre alten Apps auf einmal schnarchlahm sind?
3.) Cell ist Hype. Streamprozessoren gibt's schon Ewigkeiten und sie haben auch einen sehr hohen Peak Durchsatz. Um normale Skalarprozessoren zu ersetzen taugen sie trotzdem nicht.
4.) Die wenigsten Entwickler haben Bock sich mit sowas komplexem überhaupt auseinanderzusetzen. Das ganze erfordert komplettes Umdenken bei der Programmierung und vor allem auch Weitsicht bei der Applikationsplanung (Datenstrukturen etc.)

Wenn das ganze kommt dann so wie beim PC mit den AGEIA Physikchip. Das ist nämlich nichts anderes als ein Streamprozessor als Add-in-Karte...

Außer man flanscht die SPEs an eine oder mehrere "echte" Skalareinheiten dran, wie nen G5. Dann könnte das ganze sicherlich interessanter werden. Das wäre dann aber schon eine Art "Cell 2".

Huhamamba
2005-05-27, 03:03:09
Für normale Anwendungen ist Cell total ungeeignet. Ohne spezielle Vektorisierung wird der sicherlich von nem 1Ghz Athlon versägt.

3.) Cell ist Hype. Streamprozessoren gibt's schon Ewigkeiten und sie haben auch einen sehr hohen Peak Durchsatz. Um normale Skalarprozessoren zu ersetzen taugen sie trotzdem nicht.
4.) Die wenigsten Entwickler haben Bock sich mit sowas komplexem überhaupt auseinanderzusetzen. Das ganze erfordert komplettes Umdenken bei der Programmierung und vor allem auch Weitsicht bei der Applikationsplanung (Datenstrukturen etc.)

Junge, laber mal ned so 'nen Scheiß. Allein der Cell in der PS3 schaufelt mit seinen 3,2GHz über 200 GFlops. Das ist das schlappe Zwanzigfache einer jeden aktuellen High-End CPU am PC. Die acht SPEs (in der PS3 ist eines "deaktiviert") können allesamt auch Integer-Berechnungen vollführen und sind äußerst flexibel. Der Cell ist 'ne wahre Monsterhardware, nicht umsonst springen immer mehr Entwickler von der Xbox360, die immerhin schon 'nen stattlichen 3Core-PPC@je3,2GHz auf die Waage bringt, auf den PS3-Zug. Hideo Kojima bspw. lobt den Cell auch nicht ohne Weiteres in höchsten Tönen, und mit Kritik ist er nicht gerade zimperlich, wie er es bei der PS2 noch gezeigt hat. Er spricht von Welten, in der jeder Stein physikalisch korrekt simuliert wird. Das Ganze pakt die PS3 ohne PPU oder so 'nem unnötigem Schnickschnack, da wird einfach eine SPE des Cell für Physik abgerichtet und gut is. Der Rest geht für KI drauf - bei Bedarf kann man eine oder mehr SPEs auch für Grafikberechnungen einsetzen. Die Getaway-Techdemo von der Sony-Pressekonferenz auf der E3 wurde bspw. komplett(!) vom Cell in Echtzeit berechnet; die GPU hat sich währenddessen ein Nickerchen gegönnt.
Und da soll der Cell also - mit all seinen Perfektionierungen in der Architektur - von einem stinknormalen, lahmarschigen, mickrigen x86-er geflasht werden? :|
Sicherlich müsste sich für die Einführung in den PC-Markt einiges an derzeitigen Schnittstellen und weiteren "Standards" ändern, aber dieser Schritt ist imo auch dringend nötig, schließlich schleppt die Industrie seit zwanzig Jahren den ganzen Schrott der x86-er Architektur mit und das bremst ohne Ende.

BlackBirdSR
2005-05-27, 07:09:12
Junge, laber mal ned so 'nen Scheiß.

Ich glaube nicht, dass Coda es nötig hat, sich sowas anzuhören.
Würde sowas nur ungern wiederholt sehen.

@Topic:
Cell ist wahrscheinlich schon um Einiges schneller als ein 1GHz K7.
Allerdings bin ich immernoch der Meinung, dass der Aufwand momentan noch viel zu hoch ist, um ihn im Desktop einzusetzen.
Bei Hier bei PCs sowieso.

gisbern
2005-05-27, 07:40:48
Junge, laber mal ned so 'nen Scheiß.

Kindergewäsch ! einfach nich auf solche Threads eingehen, es lohnt nicht.
Zu viele Konsolenjünger scheint es Angstschweiß auf die Strin zu treiben, ihren allerheiligsten Cell-Chip nicht als Revolution betrachtet zu sehen. Ich lach mich jetzt schon schlapp wenn die ersten PS3 Games kommen.......(natürlich in 1920*1080, 8AA, 16AF, Grafik so als ob man wirklich dabei wäre)

Tatsache ist, daß Cell eine vollkommen andere Programmierweise bedingt. Du kannst ja mal nicht eben ein Tiger oder Longhorn auf einen Cell portieren, und der läuft dann sofort optimal. Da Prozessorleistung eh kein Kriterium mehr ist, einen PC zu kaufen wird Cell meiner Meinung nach nie auf die PC PLattform portiert werden. Wer braucht bei Office schon nen 8er Multicore der 12934819489 GFLOPS (natürlich reale Leistung ! :-) ) liefert.

Gast
2005-05-27, 08:50:52
Junge, laber mal ned so 'nen Scheiß.


Kommt mir vor wie bei Macuser.de

Da werden auch ständig Sprüche geklopft wie, x86 ist Steinzeit, PowerPC-Architektur ist 1000 mal besser, Cell ist die SuperCPU für den Mac usw.

stav0815
2005-05-27, 09:52:37
Ich glaube nicht, dass Coda es nötig hat, sich sowas anzuhören.
Würde sowas nur ungern wiederholt sehen.

@Topic:
Cell ist wahrscheinlich schon um Einiges schneller als ein 1GHz K7.
Allerdings bin ich immernoch der Meinung, dass der Aufwand momentan noch viel zu hoch ist, um ihn im Desktop einzusetzen.
Bei Hier bei PCs sowieso.
könnte man ihn ned einfach als Zweit CPU einsetzen? Wäre das ned möglcih?

Gast
2005-05-27, 10:11:07
Junge, laber mal ned so 'nen Scheiß. Allein der Cell in der PS3 schaufelt mit seinen 3,2GHz über 200 GFlops. Das ist das schlappe Zwanzigfache einer jeden aktuellen High-End CPU am PC. Die acht SPEs (in der PS3 ist eines "deaktiviert") können allesamt auch Integer-Berechnungen vollführen und sind äußerst flexibel. Der Cell ist 'ne wahre Monsterhardware, nicht umsonst springen immer mehr Entwickler von der Xbox360, die immerhin schon 'nen stattlichen 3Core-PPC@je3,2GHz auf die Waage bringt, auf den PS3-Zug. Hideo Kojima bspw. lobt den Cell auch nicht ohne Weiteres in höchsten Tönen, und mit Kritik ist er nicht gerade zimperlich, wie er es bei der PS2 noch gezeigt hat. Er spricht von Welten, in der jeder Stein physikalisch korrekt simuliert wird. Das Ganze pakt die PS3 ohne PPU oder so 'nem unnötigem Schnickschnack, da wird einfach eine SPE des Cell für Physik abgerichtet und gut is. Der Rest geht für KI drauf - bei Bedarf kann man eine oder mehr SPEs auch für Grafikberechnungen einsetzen. Die Getaway-Techdemo von der Sony-Pressekonferenz auf der E3 wurde bspw. komplett(!) vom Cell in Echtzeit berechnet; die GPU hat sich währenddessen ein Nickerchen gegönnt.
Und da soll der Cell also - mit all seinen Perfektionierungen in der Architektur - von einem stinknormalen, lahmarschigen, mickrigen x86-er geflasht werden? :|
Sicherlich müsste sich für die Einführung in den PC-Markt einiges an derzeitigen Schnittstellen und weiteren "Standards" ändern, aber dieser Schritt ist imo auch dringend nötig, schließlich schleppt die Industrie seit zwanzig Jahren den ganzen Schrott der x86-er Architektur mit und das bremst ohne Ende.
Jetzt laber du mal nicht rum.
Die 256 GFlops des Cells sind in Single Precision FP (32 bit). Mit Double Precision FP (64) sind es mickrige 26 GFlops. In Spielen kann man eher 32 bit einsetzen.
Der Cell ist insgesamt eine gute 2. CPU, wie damals die FPU. Die wurde auch assimiliert. Warum auch nicht den Cell in eine CPU integrieren.

GloomY
2005-05-27, 10:45:10
Vielleicht gibt's denn CELL ja als eine Art Co-Prozessor, der sich also um Streaming-Inhalten kümmert. Eine general-purpose CPU wird er aber sehr wahrscheinlich nicht ablösen (können).

stav0815
2005-05-27, 11:04:02
Warum auch nicht den Cell in eine CPU integrieren.
Transistorcount ?

DasToem
2005-05-27, 11:17:25
Seit wann baut Intel Cell-CPUs? (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=all&id=1117149239) ;)

BlackBirdSR
2005-05-27, 11:38:51
Vielleicht gibt's denn CELL ja als eine Art Co-Prozessor, der sich also um Streaming-Inhalten kümmert. Eine general-purpose CPU wird er aber sehr wahrscheinlich nicht ablösen (können).

man müsste halt mal sehen, wass die PPE zusammen mit den Skalareinheiten der SPEs so erreicht.
Für ein reines gp Design ist er wohl allerdings zu überdimensioniert. Da kann man mit weniger mehr erreichen denke ich,

Gast
2005-05-27, 11:49:46
Eigentlich war Cell ja mit zwei PPC Kernen angedacht und es wurde ja mehrmals gesagt, dass es Cell in vielen Variationen geben wird. Wieso also nicht für Apple ein Cell mit zwei PPC Kernen?

Konsolenfreund

Avalox
2005-05-27, 12:55:33
Heise schreibt grade was über einen IBM Blade Server mit CELL CPUs.

http://www.heise.de/newsticker/meldung/59969


Ein Blade für Spezial-Anwendungen?

DrumDub
2005-05-27, 13:07:38
Ein Blade für Spezial-Anwendungen? das dürften die entscheidenden sätze sein: Auch bei der erwähnten Linux-Implementierung läuft das Betriebssystem nur auf dem im Cell integrierten PowerPC-Kern; die eigentliche Rechenpower entfalten aber die mehrfach parallel vorhandenen Synergistic Processing Units (SPU). Diese könnten für Anwendungen über spezielle Software-Bibliotheken und Compiler nutzbar gemacht werden. http://www.heise.de/newsticker/meldung/59969

Coda
2005-05-27, 16:28:09
Cell ist wahrscheinlich schon um Einiges schneller als ein 1GHz K7.
Allerdings bin ich immernoch der Meinung, dass der Aufwand momentan noch viel zu hoch ist, um ihn im Desktop einzusetzen.
Bei Hier bei PCs sowieso.Ich meinte damit das PPE. Das ist ein In-Order Prozessor mit max. 2 Ops/Cycle (nur mit SMT, sonst nur 1Op/Cycle X-D). Das ist ineffizient bis zum geht nicht mehr. Ich bin mir wirklich nicht sicher, ob das Ding schneller als ein 1Ghz K7 ist.... (@3Ghz)

Und wie gesagt, die SPEs muss man erstmal nützen, was bei normalen schon bestehenden Mac Anwendungen einfach nicht gegeben ist.

Wieso also nicht für Apple ein Cell mit zwei PPC Kernen?Wieder das Problem mit der Applikationsbasis und dem parallelisieren. Nur weil es 2 Skalarprozessoren sind wird das nicht einfacher ;)

Wenn dann müsste man die SPEs wie gesagt an einen "echten" PowerPC wie den G5 ranflanschen. Wobei das derzeit von der DIE-Fläche kaum machbar wäre.

Vielleicht gibt's denn CELL ja als eine Art Co-Prozessor, der sich also um Streaming-Inhalten kümmert. Eine general-purpose CPU wird er aber sehr wahrscheinlich nicht ablösen (können).Meine Rede.

Man sollte die Leute die Cell hypen mal alle zusammen in ne Vorlesung über paralleles Rechnen setzen. Würde bestimmt Wunder wirken :D

Huhamamba
2005-05-27, 16:44:09
Kindergewäsch ! einfach nich auf solche Threads eingehen, es lohnt nicht.
Zu viele Konsolenjünger

Ebenso wie hier vorwiegend reine PC-Gammler unterwegs sind, die lieber verrecken würden als zu akzeptieren, dass die NextGen-Konsolen - speziell die PS3- alles rulen werden. Die Xbox(1) war bereits zum Launch auf dem Papier technisch dem PC sowas von unterlegen und dennoch waren die Xbox-Spiele gut bis ein Jahr nach dem Launch den PC-Spielen grafisch und technisch (Halo-KI und Streaming, anyone?) überlegen. Die kommende Generation wird dies noch viel weiter verschärfen, da allein die Hardware schon den PC "owned", wie's so schön heißt - und die besondere Optimierung an der Konsole wird ihr Übriges dazu beitragen. Aber lassen wir das, sonst kommen wir noch in Sphären, die deinen Horizont womöglich überschreiten würden.


Und wenn der Cell-Chip so schlecht sein soll, wie hier behauptet wird, wieso ist er dann - und das haben unabhängig Entwickler und Fachpresse bestätigt(!) - so viel stärker als die Xbox360-CPU? Und *diese* ist nun wirklich hauptsächlich eine PC-CPU mit altbekannter PPC-Architektur, nur eben stark aufgemotzt...
Hmm, kann mir das einer von euch Experten *hust* vielleicht erklären? ;D

Coda
2005-05-27, 16:48:13
Der Cell ist als Streamingprozessor wirklich stark, nur muss man dafür entsprechend programmieren ansonsten ist er ziemlich sicher langsamer als aktuelle PC Prozessoren.

Bei einer neuen Konsole ist das ein ganz anderes Thema als bei einer etablierten Platform, wo es sehr viele bestehende Applikationen gibt.

Ließt du denn überhaupt was ich schreibe, oder ignorierst du es nur konsequent?

die deinen Horizont womöglich überschreiten würden.Man soll nicht mit Steinen werfen wenn man im Glashaus sitzt :rolleyes:

so viel stärker als die Xbox360-CPU? Und *diese* ist nun wirklich hauptsächlich eine PC-CPU mit altbekannter PPC-Architektur, nur eben stark aufgemotzt...Stark aufgemotzt ist falsch. Eher stark abgemagert, dafür 3 davon.

HellHorse
2005-05-27, 17:44:03
Man sollte die Leute die Cell hypen mal alle zusammen in ne Vorlesung über paralleles Rechnen setzen. Würde bestimmt Wunder wirken :D
Lieber gleich für Cell programmieren lassen, und zwar SPUs. Dann wäre mal Ruhe.

Jesus
2005-05-27, 18:01:56
Ich meinte damit das PPE. Das ist ein In-Order Prozessor mit max. 2 Ops/Cycle (nur mit SMT, sonst nur 1Op/Cycle X-D). Das ist ineffizient bis zum geht nicht mehr. Ich bin mir wirklich nicht sicher, ob das Ding schneller als ein 1Ghz K7 ist.... (@3Ghz)

Das schlechte In-order design dass ja nur Nachteile hat. Schonmal nen Itanium gesehen? Der ist auch so brutal langsam da kommt mein C64 noch fast mit. :wink:

Naja aber alles was man nicht kennt oder versteht ist schlecht und taugt nichts, oder geht nicht... (Stichwort: GDDR als Hauptspeicher, HDR auf ner PS3 oder High-Definition Modus auf der PS2 :rolleyes: )

zeckensack
2005-05-27, 18:02:46
Eigentlich war Cell ja mit zwei PPC Kernen angedacht und es wurde ja mehrmals gesagt, dass es Cell in vielen Variationen geben wird. Wieso also nicht für Apple ein Cell mit zwei PPC Kernen?

KonsolenfreundWarum so hoch integrieren? Bei Konsolen macht das Sinn, bei "offenen", erweiterbaren Plattformen dagegen kostet jedes Teil das der Kunde nicht nutzt einfach nur Geld.
1)Dual-Core-PPC als CPU (@all: bitte nochmal über die Bedeutung dieses Begriffs nachdenken ... danke).
2)Stream-Schleuder optional als Coprozessor, zB über PCIe angebunden, auf 'ner Karte.

Und genau sowas ist doch als "PPU"-Karte bereits angekündigt.

Jetzt zehn Jahre weiterdenken.
*pausemach*

Sind Grafikprozessoren heutzutage üblicherweise in CPUs integriert? Nö. Warum sollte es mit Stream-Schleudern anders laufen?

Coda
2005-05-27, 18:10:20
Das schlechte In-order design dass ja nur Nachteile hat. Schonmal nen Itanium gesehen? Der ist auch so brutal langsam da kommt mein C64 noch fast mit.Schlechter Vergleich. Itanium ist ein VLIW Prozessor, da sucht der Compiler nach Parallelitäten. Außerdem hat der wohl kaum 2OP/Cycle maximalen Durchsatz X-D

Das mit HDR auf der PS3 ist mir immer noch ein Rätsel, kann aber daran liegen dass die schlechte NV40 Performance nicht vom Speicher kommt und das GDDR nicht als Speicher taugt habe ich wo gesagt?

Sind Grafikprozessoren heutzutage üblicherweise in CPUs integriert? Nö. Warum sollte es mit Stream-Schleudern anders laufen?Eben.

Demirug
2005-05-27, 18:17:43
Sind Grafikprozessoren heutzutage üblicherweise in CPUs integriert? Nö. Warum sollte es mit Stream-Schleudern anders laufen?

Aber warum nicht die Stream Schleuder in die GPU integrieren?

Coda
2005-05-27, 18:20:00
Oder anders gefragt, was unterscheidet eine zukünftige GPU von einer Streamschleuder?

Quasar
2005-05-27, 18:21:26
Was unterscheidet eine heutige GPU von einem parallelen Streamprozessor?

Coda
2005-05-27, 18:24:21
Sie sind mir schon noch ein wenig zu spezialisiert, aber im Prinzip hast du recht.

(Kein Integer/Boolean, ineffizientes Branching, TMUs in den Pixelshadern statt entkoppelt etc.)

Demirug
2005-05-27, 18:47:54
Sie sind mir schon noch ein wenig zu spezialisiert, aber im Prinzip hast du recht.

(Kein Integer/Boolean, ineffizientes Branching, TMUs in den Pixelshadern statt entkoppelt etc.)

Das mit dem Branching sehe ich nicht als Problem. Für Streamprozessoren reicht Predication völlig aus. Die Entkopplung des Speichers über die TMUs ist dagegen schon ein Problem.

Ich würde aber gerne noch einen kleinen GP-CPU Kern für die Koordination sehen. Jedesmal die "normale" CPU zu starten eines Kernels zu benutzen erscheint mir ineffektiv.

Ganon
2005-05-28, 10:50:08
1.) Kann man lange nicht alles vektorisieren. Das ist imho sogar die Minderheit der Algorithmen.

Aber so wenig ist es dann doch nicht:

http://www.ppczone.org/forums/viewforum.php?f=23

Die haben schon grundlegende libc-Funktionen vektorisiert, was für den Anfang nicht schlecht aussieht. Und da diese Funktionen am laufenden Band benutzt werden...

Jetzt nicht falsch verstehen. Ich will nur zeigen das es auch in wichtigen Funktionen geht.

Coda
2005-05-28, 10:51:34
Altivec ist nur lokale Parallelisierung, das ist kein Umwandlung in einen Streamkernel...

Gast
2005-05-28, 22:52:30
Ebenso wie hier vorwiegend reine PC-Gammler unterwegs sind, die lieber verrecken würden als zu akzeptieren, dass die NextGen-Konsolen - speziell die PS3- alles rulen werden. Die Xbox(1) war bereits zum Launch auf dem Papier technisch dem PC sowas von unterlegen und dennoch waren die Xbox-Spiele gut bis ein Jahr nach dem Launch den PC-Spielen grafisch und technisch (Halo-KI und Streaming, anyone?) überlegen. Die kommende Generation wird dies noch viel weiter verschärfen, da allein die Hardware schon den PC "owned", wie's so schön heißt - und die besondere Optimierung an der Konsole wird ihr Übriges dazu beitragen. Aber lassen wir das, sonst kommen wir noch in Sphären, die deinen Horizont womöglich überschreiten würden.

Und wenn der Cell-Chip so schlecht sein soll, wie hier behauptet wird, wieso ist er dann - und das haben unabhängig Entwickler und Fachpresse bestätigt(!) - so viel stärker als die Xbox360-CPU? Und *diese* ist nun wirklich hauptsächlich eine PC-CPU mit altbekannter PPC-Architektur, nur eben stark aufgemotzt...
Hmm, kann mir das einer von euch Experten *hust* vielleicht erklären? ;D
Dieses Forum ist in der Hinsicht deutlichst neutraler als die "Fachpresse". Die faseln das nach, was vorgekaut wird.
1. Der RSX ist noch nicht draußen. Frühestens im Herbst existiert der in Hardware -> End-Leistung unbekannt.
2. Wie weit man den Cell nutzen kann ist noch nicht klar, weil die passende Software (nicht Spiele) dafür fehlen.
Das schlechte In-order design dass ja nur Nachteile hat. Schonmal nen Itanium gesehen? Der ist auch so brutal langsam da kommt mein C64 noch fast mit. :wink:
Ja ist langsam, wenn der Itanium x86 Programme ausführen muss. So ungefähr P3 600-800 MHz Niveau. Aber bei reinen Programmen für den Itanium selbst sind aber schnell.
Warum so hoch integrieren? Bei Konsolen macht das Sinn, bei "offenen", erweiterbaren Plattformen dagegen kostet jedes Teil das der Kunde nicht nutzt einfach nur Geld.
1)Dual-Core-PPC als CPU (@all: bitte nochmal über die Bedeutung dieses Begriffs nachdenken ... danke).
2)Stream-Schleuder optional als Coprozessor, zB über PCIe angebunden, auf 'ner Karte.

Und genau sowas ist doch als "PPU"-Karte bereits angekündigt.

Jetzt zehn Jahre weiterdenken.
*pausemach*

Sind Grafikprozessoren heutzutage üblicherweise in CPUs integriert? Nö. Warum sollte es mit Stream-Schleudern anders laufen?
Deine Wörter in Ehren, aber MMX, SSE, SSE2, Altivec waren vom Prinzip! auch mal so Streaming-Erweiterungen! (laut Werbung ;))
Ansonsten hast du schon recht. Deswegen werden auch Multi-Cores mehr Gewicht haben, vielleicht auch mit Streaming-Prozessoren?

zeckensack
2005-05-30, 12:56:57
Aber warum nicht die Stream Schleuder in die GPU integrieren?Das hätte den Vorteil der geringeren Latenz wenn man die GPU dazu benutzt sich selbst anzufüttern ... und dafür braucht man eigentlich nichts mehr zu integrieren. Ist alles schon drin.
Oder anders gefragt, was unterscheidet eine zukünftige GPU von einer Streamschleuder?"Fixed function"-Ballast.
Multisampling, Texturfilter, Interpolatoren, Tri-Setup, Culling, Perspektivkorrektur, Z-Optimierungen, RAMDACs, wenn's nach Microsoft geht tausendfacher Gamma-Krempel ...

Ich hätte auch gerne ein flexibleres Modell für Speicherzugriffe, vollen Integer-Support und Kernel-Graphen.

zeckensack
2005-05-30, 13:08:07
Deine Wörter in Ehren, aber MMX, SSE, SSE2, Altivec waren vom Prinzip! auch mal so Streaming-Erweiterungen! (laut Werbung ;))
Ansonsten hast du schon recht. Deswegen werden auch Multi-Cores mehr Gewicht haben, vielleicht auch mit Streaming-Prozessoren?Mit diesen Erweiterungen kann man leidlich streamen, aber ein echter Stream-Prozessor kann es noch besser.
Indem du zB festlegst dass sich Lese- und Schreibzugriffe nicht überlappen können, und dass die Reihenfolge in der die Daten verarbeitet werden unbekannt/egal ist, werden schonmal sehr wüste Optimierungen möglich.

Demirug
2005-05-30, 13:19:09
Das hätte den Vorteil der geringeren Latenz wenn man die GPU dazu benutzt sich selbst anzufüttern ... und dafür braucht man eigentlich nichts mehr zu integrieren. Ist alles schon drin.

Über PCI Express könnte man auch gut wieder die CPU füttern.

Was mir bei den GPUs aber eben noch fehlt ist eine Ausführungssteuerung für Kernels. Da jedesmal die CPU ranzunehmen erscheint mir zu sehr mit einer Leistungsverschwendung verbunden zu sein.

Gast
2005-05-30, 14:29:11
Über PCI Express könnte man auch gut wieder die CPU füttern.

Was mir bei den GPUs aber eben noch fehlt ist eine Ausführungssteuerung für Kernels. Da jedesmal die CPU ranzunehmen erscheint mir zu sehr mit einer Leistungsverschwendung verbunden zu sein.
Und wie will man das ändern?

Konsolenfreund

Gast
2005-05-30, 16:11:11
Mit diesen Erweiterungen kann man leidlich streamen, aber ein echter Stream-Prozessor kann es noch besser.
Indem du zB festlegst dass sich Lese- und Schreibzugriffe nicht überlappen können, und dass die Reihenfolge in der die Daten verarbeitet werden unbekannt/egal ist, werden schonmal sehr wüste Optimierungen möglich.
Das hängt auch vom Stream-Prozessor selber ab, wie groß sein Befehlsvorrat ist. Deswegen bin ich auf die Befehlssatz der Cell-SPUs gespannt. Nur mit FP32-Werten von 256 GFlops können die eher Amateure beeindrucken.
Über PCI Express könnte man auch gut wieder die CPU füttern.

Was mir bei den GPUs aber eben noch fehlt ist eine Ausführungssteuerung für Kernels. Da jedesmal die CPU ranzunehmen erscheint mir zu sehr mit einer Leistungsverschwendung verbunden zu sein.
Dann wäre die GPU unabhängiger vom System. Vielleicht mit einem abgespeckten Mikro-Kern auf Basis von PPC oder x86?

Ich frage mich nun, in wie weit der RSX vom Cell in der PS3 und der ATI Chip vom 3-Kern-PPC-Prozessor in der XBOX 360 unabhängig sind?
Bei ATI weniger, aber wenn der RSX auf die SPUs des Cell zugreifen kann, bedeutet dies, dass der RSX eigenmächtig(er) handelt?

pF3NG
2005-06-09, 21:09:03
Tja Leute, so wie es Aussieht setzt Apple ÜBERHAUPT nicht mehr auf PPC Architektur (RISC):

1.
http://www.computerbase.de/news/hardware/komplettsysteme/apple/2005/juni/apple_macs_intel-prozessoren/

2.
http://www.3dcenter.org/news/2005/woche23.php Bei News des 6. nachlesen...

Gast
2005-06-11, 09:08:47
Och jetzt möcht ich gern nochmal die 14 Jährigen KonsolenKinder wie Humhamamba hören wie sehr x86 "geownt und geruuuhlt " wird.

Wenn man nicht mal das Wort Prozessor richtig aussprechen kann, sollte man
es lieber für sich behalten und weiter Sony-Fud als Tageslektüre zu sich nehmen...