Archiv verlassen und diese Seite im Standarddesign anzeigen : Schnellste Serien-CPU, der CELL?
Stimmt es, das in der PS3 die schnellste Serien-CPU eingebaut ist und INTEL/AMD nicht annähernd an dessen Leitsung herankommen?
san.salvador
2009-06-21, 22:09:05
Ich hol mal die Popcorn, der Thread hat echtes Potential. :popcorn:
Nein,
ertens wie definister du "Serien CPU", auch Server CPUs werden in Serie gefertigt.
Desweiterem ist der Cell nur unter bestimmten Bedingungen schnell.
Wenn du brauchbare Berechung durchführst (dp), ist sogar ein Dual-Core Pentium 4 schneller.
Ein Cell schafft so etwa 9,5 GFlops, ein Single Core P4 mit 3,6 GHz schafft 7,2 GFlops. (Ein Dual Core P4 mit 3,6 GHz in etwa 14 GFlops.)
mfg
Spasstiger
2009-06-21, 22:18:30
In Linpack ist ein Core 2 Duo mit 3,2 GHz ungefähr gleich schnell wie ein Cell mit 3,2 GHz. Die Rechenleistung in Linpack ist ausschlaggebend für den Rang eines Supercomputers bei www.top500.org (http://www.top500.org/).
Es gibt aber Anwendungen, in denen kein bisher in Serie gefertigter Intel-Prozessor den Cell schlagen kann. In solchen Anwendungen schlagen allerdings die Prozessoren von AMD/ATI und Nvidia den Cell.
Es gibt aber Anwendungen, in denen kein bisher in Serie gefertigter Intel-Prozessor den Cell schlagen kann.
Und wie wirkt sich das auf die Spiele aus, Vorteil Cell oder Intel/AMD?
In Linpack ist ein Core 2 Duo mit 3,2 GHz ungefähr gleich schnell wie ein Cell mit 3,2 GHz. Die Rechenleistung in Linpack ist ausschlaggebend für den Rang eines Supercomputers bei www.top500.org (http://www.top500.org/).
Es gibt aber Anwendungen, in denen kein bisher in Serie gefertigter Intel-Prozessor den Cell schlagen kann. In solchen Anwendungen schlagen allerdings die Prozessoren von AMD/ATI und Nvidia den Cell.
Hallo,
ob Linpack der Maßstab ist naja, aber das ein Core i7 einen Core 2 Duo schlägt, darüber brauchen wir uns nicht unterhalten. Somit muß der i7 schneller als der Cell sein.
Hier ein paar Werte vom i7 zu beachten 64 Bit, nicht wie bei vielen Benchmarks 32 Bit Code.
http://www.tecchannel.de/_misc/img/detail1000.cfm?pk=373936&fk=1775602&id=il-78759939369673440
Wer welche und vor allem brauchbare hat bitte einen Link posten.
Und wie wirkt sich das auf die Spiele aus, Vorteil Cell oder Intel/AMD?
Das ist ein unmöglicher Vergleich,
da es keine Prgramme (vor allem Spiele) gibt, bei denen der selbe Code auf beiden Systemen ausgeführt werden kann. Sobald der C Code portiert wird gewinnt der bessere Compiler.
Spasstiger
2009-06-21, 22:41:19
Und wie wirkt sich das auf die Spiele aus, Vorteil Cell oder Intel/AMD?
Das hängt von der Programmierung und von den Anforderungen ab. Vergleichbar sind die Aufgaben eines Core-Prozessors von Intel oder eines Phenom von AMD im Spiele-PC ohnehin nicht mit den Aufgaben des Cell in der Playstation 3.
Im PC hast du Grafikchips, die die fünf- bis sechsfache Rechenleistung eines Cells aufweisen. Allerdings werden die bislang hauptsächlich für Grafikberechnungen in Spielen genutzt, mit PhysX nun auch teilweise schon für Physikberechnungen. Mit OpenCL werden die "Grafik"chips dann auch zunehmend für allgemeine Computing-Zweck eingesetzt werden, vielleicht auch für die KI (AMD hat z.B. eine Techdemo dazu veröffentlicht).
Aber da ich selbst kein Spieleprogrammierer bin, kann ich mich nicht wirklich qualifiziert zum Thema äußern. Und wenn man irgendwas vergleichen wöllte, dann höchstens Spiele-PC vs. Playstation 3 und nicht irgendwelche einzelnen Komponenten, die unterschiedliche Aufgaben haben.
Hier ein paar Werte vom i7 zu beachten 64 Bit, nicht wie bei vielen Benchmarks 32 Bit Code.
http://www.tecchannel.de/_misc/img/detail1000.cfm?pk=373936&fk=1775602&id=il-78759939369673440
Wer welche und vor allem brauchbare hat bitte einen Link posten.
Laut IBM erreicht der Cell unter Verwendung aller 8 SPEs in der Spitze 14,63 GFlops bei Linpack:
http://www.ibm.com/developerworks/power/library/pa-cellperf/ (Tabelle 9)
Ganon
2009-06-21, 22:45:50
Und wenn auch, der CELL der in der PS3 verbaut ist, ist noch ein altes Modell ;) Gibt ja schon seit längerem den Nachfolger ;)
Laut IBM erreicht der Cell unter Verwendung aller 8 SPEs in der Spitze 14,63 GFlops bei Linpack:
http://www.ibm.com/developerworks/power/library/pa-cellperf/ (Tabelle 9)
Das ist doch ein Wort, wie gesagt ein DC P4 schaft knapp 14 GFlops und ein i7 in etwa 33. Ergo ein i7 ist doppelt so schnell.
san.salvador
2009-06-21, 22:51:33
Das ist doch ein Wort, wie gesagt ein DC P4 schaft knapp 14 GFlops und ein i7 in etwa 33. Ergo ein i7 ist doppelt so schnell.
Wobei?
BlackBirdSR
2009-06-21, 23:00:33
Wobei?
Ich glaube das ist die beste Frage im ganzen Thread. Es ist immer entscheidend, wobei man die CPU-Rechenleistung misst. Es gibt Gründe, warum kein K8 oder K10 in BluRay-Decodern stecken oder für den Earth-Simulator arbeiten. Genauso gibt es Gründe, warum kein NEC-Vektorprozessor oder eine Geforce GT200 als Hauptprozessor im PC arbeiten.
Die schnellste CPU kann man immer nur loakl für ein Problem bestimmen. Cell ist sicherlich schneller als mein Prozessor, wenn es um Video De/Encoding geht - aber was passiert, wenn ich beide ein größeres Projekt compellieren lasse? Was passiert, wenn mein Problem eher Latenz- als Durchsatzlimitiert ist?
Stimmt es, das in der PS3 die schnellste Serien-CPU eingebaut ist und INTEL/AMD nicht annähernd an dessen Leitsung herankommen?
Soviel ich wei[ss], ist der CELL nur mit einfacher Genauigkeit "gesegnet". Somit kann ein richtiger Vergleich nicht Statt finden[Core i7 Vs cell], denn von den theoretischen 200Gflops "Peak" einer CELL CPU bleiben am Ende keine 40-80 uebrig[wenn ueberhaupt].
Das einzig gute am CELL, ist die "Skalierbarkeit". Sony hatte ja mal verlauten lassen, die PS4 solle auf mehreren CELL[45nm] Chips basieren. Wirtschaftlich duerfte der Cell nach diesen Jahren auch sein bzw. das Verlustgeschaeft Cell haelt sich in Greznen.
Ob effizient oder nicht, das muessen andere bestaetigen.
Und wie sieht das mit der 3D Grafik aus? Das soll ja einer der stärken des Cell´s sein.
Als Rasterizer taugt das Ding jedenfalls nicht.
Und wie sieht das mit der 3D Grafik aus? Das soll ja einer der stärken des Cell´s sein.
Lol, schau mal nach was so ne aktuelle Mittelklasse GPU an Flops liefert ... ^^
Ansonsten hat das Ding keine speziellen Grafikfunktionen.
ciao
Alex
Und wie sieht das mit der 3D Grafik aus? Das soll ja einer der stärken des Cell´s sein.
Solange das Problem vektoroperationslastig und ein bisschen paralelleisierbar ist steht der Cell ganz gut da...
Sozusagen das was Intel mit Larrabee macht, nur ein bisschen anders. ;)
Bei Killzone 2 läuft das Post Processing z.B auf den SPU´s
deekey777
2009-06-21, 23:21:29
Bei Killzone 2 läuft das Post Processing z.B auf den SPUs
Auf ein Viertel von 720p heruntergerechnet. Aber das ist genau das, was der CELL richtig gut kann. Auch scheint Fixstars H.264-Encoder für die PS3 (CE-10) nicht nur schnell sein, sondern auch qualitativ gut.
Man kann den CELL (und seinen Nachfolger) recht schlecht mit CPUs vergleichen, da dieser eben über die SPEs verfügt.
Bei Killzone 2 läuft das Post Processing z.B auf den SPU´s
Das und die komplette Lichtberechnung des deferred shadings.
da dieser eben über die SPUs verfügt.
SPEs :P ;)
Man kann den CELL (und seinen Nachfolger) recht schlecht mit CPUs vergleichen, da dieser eben über die SPUs verfügt.
Warte mal auf Fusion, da gibts K10 plus viele, viele SPUs (Edit: nicht SPEs (in dem Fall) ^^) ;-)
ciao
Alex
Das und die komplette Lichtberechnung des deferred shadings.
SPEs :P ;)
man könnte also vermuten, wenn man clever programmiert, das man noch einiges aus der PS3 zaubern kann?
Wo genau liest du das da raus?
Wenn der cell mehr aufgaben übernehmen kann, werden doch wieder reserven frei für den rsx.
deekey777
2009-06-21, 23:42:58
Warte mal auf Fusion, da gibts K10 plus viele, viele SPUs (Edit: nicht SPEs (in dem Fall) ^^) ;-)
ciao
Alex
SPUs ist der neue Begriff, den AMD für den R700 hier und da nutzt. Und da ich im Halbschlaf bin, verwechsle ich SPE mit SPU.
Und was mit Sandy Bridge und Bulldozer?
Wenn der cell mehr aufgaben übernehmen kann, werden doch wieder reserven frei für den rsx.
RSX läuft bei Killzone auch so schon am Limit. Die Optik wird ja erst möglich weil sie Cell für die Lichtberechnung benutzen und eben nicht RSX.
SPUs ist der neue Begriff, den AMD für den R700 hier und da nutzt. Und da ich im Halbschlaf bin, verwechsle ich SPE mit SPU.
Ja kein Ding ;-)
Und was mit Sandy Bridge und Bulldozer?
Die haben erstmal keine SPUs.
Mittelfristig wird Intel aber wohl mal nen Larrabee integrieren, vielleicht bei 22nm, keine Ahnung.
Bei AMD genauso, die werden sicherlich irgendwann auch nen Bulldozer-Fusion rausbringen.
ciao
Alex
=Floi=
2009-06-22, 00:23:57
Warte mal auf Fusion, da gibts K10 plus viele, viele SPUs (Edit: nicht SPEs (in dem Fall) ^^) ;-)
ciao
Alex
das ist banane. bis dahin gibt es grafikkaren, die locker 40+ mal mehr einheiten haben und diese arbeit noch nebenbei machen. hinzu kommt deren sehr gute anbindung zum vram.
fusion ist für office pcs und nicht fürs highend gaming!
deekey777
2009-06-22, 00:35:42
Und die Daten von der CPU zur GPU werden dann über kleine Wurmlöcher transportiert?
das ist banane. bis dahin gibt es grafikkaren, die locker 40+ mal mehr einheiten haben und diese arbeit noch nebenbei machen. hinzu kommt deren sehr gute anbindung zum vram.
fusion ist für office pcs und nicht fürs highend gaming!
Wer hat denn was von Spielen gesagt ? Ich nicht ...
Aber da Du das Thema anschneidest ....
Schon mal überlegt, dass so ein Fusion Gerätchen auf den SPUs das berechnet wofür es bei nV CUDA gibt ?
Und eine "echte" Grafikkarte weiterhin fürs Bild zuständig ist ?
ciao
Alex
=Floi=
2009-06-22, 01:32:31
ich auch nicht?! ;D
rofl
selbst eine "kleine" 4770 hat 960 TFlop.
384TFlop für unter 40€:
http://geizhals.at/deutschland/a366800.html
es macht eben keinen sinn, sobald die software wirklich davon profitiert wird man selbst mit einer kleinen grafikkarte schneller sein und eher auf eine große grafikkarte setzen, welche nochmal viel schneller ist und die software beschleunigt. Mit OCL und DX11 dürfte es auch erheblich mehr software für GPGPU geben.
fusion wird nicht mal ansatzweise irgendwas wirklich beschleunigen, was eine grafikkarte nicht x-mal besser könnte! das wollte ich damit sagen.
Fusion wird die CPU unterstüzten und etlasten. Das ganze aber auf einem sehr niederen niveau.
ich auch nicht?! ;D
rofl
Lol ja, nur auf Englisch ;-)
es macht eben keinen sinn, sobald die software wirklich davon profitiert wird man selbst mit einer kleinen grafikkarte schneller sein und eher auf eine große grafikkarte setzen, welche nochmal viel schneller ist und die software beschleunigt. Mit OCL und DX11 dürfte es auch erheblich mehr software für GPGPU geben.
Mir scheint, Du hast das Fusion Konzept bei AMD noch nicht recht begriffen, der Grafikkern wird von der Marketingabteilung in APU umbennant. Das "A" steht für" beschleunigen", eben weil mal entweder Grafik rechnen lassen kann (für billige Einstiegsrechner), oder eben GPGPU Sachen.
fusion wird nicht mal ansatzweise irgendwas wirklich beschleunigen, was eine grafikkarte nicht x-mal besser könnte! das wollte ich damit sagen.
Fusion wird die CPU unterstüzten und etlasten. Das ganze aber auf einem sehr niederen niveau.
Hast Du schon mal geschaut, was CUDA für nen Leistungseinbruch verursacht ?
Das einzige Szenario, unter dem ich Deine vollmundige Aussage nachvollziehen könnte, wäre, wenn Du 2 GPUs im Rechner hast, eine für Grafik eine für GPGPU.
Aber Fusion + 1 GPU ist ja eigentlich nichts anderes ;-)
ciao
Alex
Crazy_Chris
2009-06-22, 13:28:02
ich auch nicht?! ;D
rofl
selbst eine "kleine" 4770 hat 960 TFlop.
384TFlop für unter 40€:
http://geizhals.at/deutschland/a366800.html
GFlop...nicht TFlop ;)
Ne Grafikkarte mit 960TFlop lässt bestimmt noch 20 Jahre auf sich warten.
ShadowXX
2009-06-22, 13:42:08
Aber Fusion + 1 GPU ist ja eigentlich nichts anderes ;-)
Du bist also der Meinung das AMD mit Fusion mal eben 1 TFlop (oder von mir aus auch nur 500 GFlop) Leistung nebenbei mittel Fusion bereitstellt?
Und das natürlich mit auf dem Die neben dem "normalen" Octacore?
Du bist also der Meinung das AMD mit Fusion mal eben 1 TFlop (oder von mir aus auch nur 500 GFlop) Leistung nebenbei mittel Fusion bereitstellt?
Und das natürlich mit auf dem Die neben dem "normalen" Octacore?
Das bezog sich auf:
..wenn Du 2 GPUs im Rechner hast, eine für Grafik eine für GPGPU.
und so ne 2te GPGPU Karte muss gar nicht vom aktuellem high-end Schlag sein, sieht man an den CUDA Tests.
Ausserdem gibts Anfangs nur nen Fusion-K10 Quad.
In 32nm sollte das dann platzmäßig kein Problem sein z.B. einen RV740 aufs DIE zu pflanzen.
Wie das dann mit der Speicherbandbreite ausschaut .. kA, wird man abwarten müssen. Vielleicht bringt AMD mit dem Fusion Sockel auch Triple Channel, wer weiss. Der neue Sockel ist wg. den Grafiksignalen so oder so fällig.
Nichtsdestoweniger ist die Speicherbandbreite für GPGPU aber nicht übermäßig wichtig. Wenn man bei den ATi F@H oder Milkyway-boinc Projekten den Speichertakt von 1GHz -> 500MHz absenkt verliert man sehr wenig Leistung, irgendwo um 1%.
SummaSummarum, beantworte ich mal Deine Frage mit "Ja", 500 GFLOPs sind drin ... Aber natürlich *Peak*
Das 1 TeraFlop der RV770er wird schon oftmals nur schlecht genützt, mal schauen, was das gemeinsame Speicherinterface den Fusionschips am Ende kostet.
Optimisten sehen vielleicht sogar Vorteile ;-)
ciao
Alex
deekey777
2009-06-22, 14:43:24
Du bist also der Meinung das AMD mit Fusion mal eben 1 TFlop (oder von mir aus auch nur 500 GFlop) Leistung nebenbei mittel Fusion bereitstellt?
Und das natürlich mit auf dem Die neben dem "normalen" Octacore?
Warum nicht?
Oder besser: Ist es wirklich so utopisch sich eine "CPU+APU-Kombination" vorzustellen, die auf dem Papier zwar deutlich weniger FLOPs zaubert, in der Realität einen Grafikboliden dort schlägt, wo dieser sich mit GPU-Problemen herumschlagen muss und dadurch deutlich weniger reale Leistung bringt?
Avalox/Gast
2009-06-22, 14:47:34
Stimmt es, das in der PS3 die schnellste Serien-CPU eingebaut ist und INTEL/AMD nicht annähernd an dessen Leitsung herankommen?
Na ja. Auf jeden Fall kann man guten Gewissens behaupten, dass in der PS3 nicht der schnellste CELL Prozessor steckt. Die PS3 nutzt einen abgespeckten CELL mit einer SPE weniger, als die entsprechende vollwertige CPU.
Dann existiert auch der Nachfolger zur Playstation CELL Variante schon einige Zeit auf dem Markt, der PowerXCell 8i. Dieser ist grade bei doppelter Genauigkeit deutlich schneller als die in der PS3 verbaute CPU.
Ich denke guten Gewissens kann man die sagen, nein in der PS3 steckt nicht die schnellste Serien-CPU. Selbst wenn man alle Vergleiche mit anderen CPUs weglässt, so gab es schon immer schnellere CELL Varianten selbst und inzwischen hat die CPU sogar einen Nachfolger.
Der ist nur in absoluten Ausnahmefällen doppelt so schnell. FMAC und DP kann man entweder nicht immer verwenden oder braucht man gar nicht.
Takt, grundsätzliche Architektur und Anzahl der SPEs hat sich da nicht geändert.
Irgendwie ist es aber um den Hype des Cells recht ruhig geworden.
War ja auch abzusehen, wenn man sich das Ding technisch mal nüchtern betrachtet hätte.
deekey777
2009-06-22, 17:24:12
Irgendwie ist es aber um den Hype des Cells recht ruhig geworden.
Der Hype kam wegen der PS3. An sich ist das Ding sehr interessant, leider ist die Verbreitung mangelhaft (eben PS3, Steckkarten für den PC und hier und da in Laptops oder DVD-Playern).
Aus Entwicklersicht ist man froh wenn man nichts damit zu tun haben muss.
HotSalsa
2009-06-22, 18:07:46
War ja auch abzusehen, wenn man sich das Ding technisch mal nüchtern betrachtet hätte.
Genau so siehts aus....
Eine tolle CPU für einige spezielle Szenarien... nur schade, dass die in games so gut wie nicht vorkommen.
Ich kenn mich mit programmierung nicht sooo gut aus, kann mir aber gut vorstellen, dass für den Cell zu programmieren ein "Pain in the ass" sein muss ;D
Desweiteren erinnere ich mal an die hype Zeit vor dem PS3 launch.
Einige hier hatten ihre neue Gott CPU - direkt aus Gottes Hand - Cell gefunden.
Lair, Warhawk, Heavenly Sword, etc... alles würde dank Cell in 1080p nativ @ full 60 fps inkl. AA + AF laufen.
Von diesen Threads gab es einige. Obwohl ich skeptisch war, hab ich dem Cell einiges zugetraut.
Dank einiger Leute hier mit gutem Fachwissen - ja an Codas Beiträge zB erinnere ich mich gut - kam ich auf den Boden zurück.
Alleine anhand von Funktionsbildern und techn. specs konnten Coda und einige andere die Leistung des Cell ziemlich realistisch einschätzen - in Bezug auf Durchschnitts Game Code.
Und was soll ich sagen - die Leistungseinschätzungen der 3dcentler Profis ;) haben fast zu 100% gestimmt. Davor ziehe ich meinen virtuellen Hut :tongue:
Bevor ich jemals wieder so nen scheiss Marketing hype Quatsch glaube, lese ich erst mal hier ...
Zusammengefasst ist Cell bei einigen Dingen ziemlich gut (en- re- bzw. decoding von videos zB) und bei nicht sequentiellem, hoch abhängigem gamecode mit vielen Sprüngen ziemlich mies :P
Spasstiger
2009-06-22, 18:17:16
Weiß eigentlich jemand, woher die 2 Teraflops kamen, mit denen Sony im Vorfeld für die PS3 geworben hat? Ich kann diesen Wert bis heute nicht nachvollziehen.
AnarchX
2009-06-22, 18:20:19
Weiß eigentlich jemand, woher die 2 Teraflops kamen, mit denen Sony im Vorfeld für die PS3 geworben hat? Ich kann diesen Wert bis heute nicht nachvollziehen.
Vielleicht noch ein paar Fixed-Function-Units wie die TMUs(~100GFLOPs/GTex) und ROPs des RSX in die dafür nötige FP-Leistung umgerechnet? :D
edit: Das hat man wohl offensichtlich getan: RSX = 1.8TFLOPs (http://uk.ps3.ign.com/articles/614/614682p1.html)
_DrillSarge]I[
2009-06-22, 18:29:52
die grundlegende architektur von rsx ist ja unlängst bekannt. selbst mit biegen und brechen kann ich mir da 1,8tflops nicht vorstellen. :confused:
€: aaahhh, ok. das sind "promo-specs" von 2005. :D
Alle Recheneinheiten des Chips zusammen kommen evtl. auf 1,8 TFLOPS. Aber das ist schon sehr geschönt.
Aus Entwicklersicht ist man froh wenn man nichts damit zu tun haben muss.
Solange man mit POD und einem kleinen fest definierten Datenset arbeiten kann ists doch ok. ;)
Allein schon das Design so auszulegen, dass das der Fall ist ist oft Arbeit genug.
Ganon
2009-06-22, 20:49:19
Damals wurde sogar mal irgendwo gesagt, das CELL einem Gehirn nahe kommt und der Prozessor sein eignes Bewusstsein entwickeln könnte xD
_DrillSarge]I[
2009-06-22, 21:03:03
Damals wurde sogar mal irgendwo gesagt, das CELL einem Gehirn nahe kommt und der Prozessor sein eignes Bewusstsein entwickeln könnte xD
den link hätte ich mal gerne ;D. lol. CELL-HAL 9000 oder wie? X-D
Der Cell ist halt dann besser bzw schneller als cpu und gpu, wenn die komplexität irgendwo in der mitte liegt, so dass ne cpu zu langsam ist, ne gpu das aber nicht gescheit ausführen kann weil sie dafür immer noch zu einfach gestrickt ist bzw trotz cuda und so nicht frei genug programmierbar ist
Alle Recheneinheiten des Chips zusammen kommen evtl. auf 1,8 TFLOPS. Aber das ist schon sehr geschönt.
und wieviel geschönte T-FLOPS hätte im Vergleich dazu eine moderne GPU in etwa?
san.salvador
2009-06-23, 00:32:51
Damals wurde sogar mal irgendwo gesagt, das CELL einem Gehirn nahe kommt und der Prozessor sein eignes Bewusstsein entwickeln könnte xD
Dem Gehirn eines Autisten vielleicht. :D
AnarchX
2009-06-23, 06:55:48
und wieviel geschönte T-FLOPS hätte im Vergleich dazu eine moderne GPU in etwa?
Eine GTX 285 könnte man bestimmt in 8-10TFLOPs transformieren.
Es gibt schon einen Grund warum Intel bei LRB noch TMUs verbaut und diese nicht über die ALUs virtualisiert.
Crazy_Chris
2009-06-23, 09:13:56
Eine GTX 285 könnte man bestimmt in 8-10TFLOPs transformieren.
Es gibt schon einen Grund warum Intel bei LRB noch TMUs verbaut und diese nicht über die ALUs virtualisiert.
Die "offiziellen" Angaben gehen doch aber in Richtung 1 TFlop. :confused:
Vielleicht noch ein paar Fixed-Function-Units wie die TMUs(~100GFLOPs/GTex) und ROPs des RSX in die dafür nötige FP-Leistung umgerechnet? :D
edit: Das hat man wohl offensichtlich getan: RSX = 1.8TFLOPs (http://uk.ps3.ign.com/articles/614/614682p1.html)
Schon intressant, dass Sony ihre Konsole als Supercomputer bezeichnet, nur weil eine GeForce7 drin steckt.
Crazy_Chris
2009-06-23, 09:48:52
Schon intressant, dass Sony ihre Konsole als Supercomputer bezeichnet, nur weil eine GeForce7 drin steckt.
Naja gegenüber einen C64 ist die Kiste ja auch ein Supercomputer. ;D Marketing halt...
Aber für ihr Alter und des eher mäßigen Grafikchips macht die Grafik einiges her.
Ganon
2009-06-23, 09:54:43
Schon intressant, dass Sony ihre Konsole als Supercomputer bezeichnet, nur weil eine GeForce7 drin steckt.
Das hat man doch schon bei der PS2 getan. Da kam sogar in den normalen Nachrichten, dass die PS2 doch so gefährlich ist, da damit Terrorristen Atomrakten steuern könnten, so Leistungsfähig ist die PS2 :ugly:
SimonX
2009-06-23, 11:19:57
Immerhin kann der Cell HD 1080p in Echtzeit encoden. Da gabs doch einen Artikel in Heise.de. Der Cell in der PS3 (die mit Linux läuft) bekommt die Daten über LAN und kann 29fps encoden (also grösser als 24fps des 1080p Formats) und sendet diese zurück.
Der 3.2GHz i7 z.B. hat (falls ich mich richtig erinnere) nur 17fps geschaft (also deutlich kleiner als die 24fps des 1080p Formats)
Ganon
2009-06-23, 11:37:54
Immerhin kann der Cell HD 1080p in Echtzeit encoden.
Nunja. Beim Encoding gibt es auch tausende Optionen ;)
Wenn ich eine DVD nach H.264 encodiere kann ich auf meinem Core2Duo 2Ghz die Einstellungen so wählen, dass er mit 40fps encodiert, ich kann die Einstellungen aber auch so wählen, dass er nur mit 0,3fps encodiert ;)
Wenn ich eine DVD nach H.264 encodiere kann ich auf meinem Core2Duo 2Ghz die Einstellungen so wählen, dass er mit 40fps encodiert, ich kann die Einstellungen aber auch so wählen, dass er nur mit 0,3fps encodiert ;)
Das ist richtig und daran habe ich ebenso gedacht, als ich das Posting gelesen habe. Qualitativ ist dieses PS3-Encoding AFAIK bisher auch nicht das Beste, was natürlich nur eine Software bzw. Einstellungsgeschichte ist.
Dürfte aber dennoch klar sein, dass das hier ein Gebiet ist, in dem ein Cell abgeht.
deekey777
2009-06-23, 11:50:31
SimonX meint den Fixstars-Encoder CE-10, damit kann man tatsächlich in Echtzeit Videos in H.264 umwandeln (sogar BD-kompatibel, was x264 nicht beherrscht). Wie schnell aber CE-100 oder CE-200 (das sind CELL-Steckkarten der zweiten Generation), ist nirgendwo zu finden, aber definitiv Echtzeit (mindestens).
Spätestens mit einem Core7 kommt man auch in den Bereich des Echtzeitencodings (Broadcasting-Qualität).
Das ist richtig und daran habe ich ebenso gedacht, als ich das Posting gelesen habe. Qualitativ ist dieses PS3-Encoding AFAIK bisher auch nicht das Beste, was natürlich nur eine Software bzw. Einstellungsgeschichte ist.
Dürfte aber dennoch klar sein, dass das hier ein Gebiet ist, in dem ein Cell abgeht.
Ach doch. Nicht dass du das mit der SpursEngine verwechselst, denn das ist eine ganz andere Baustelle, wo die SPEs nur für diverse Filter benutzt werden, das Encoding dagegen spezielle Einheiten übernehmen.
SimonX
2009-06-23, 13:03:00
Der Link:
http://www.heise.de/newsticker/PS3-beschleunigt-Kodierung-von-H-264-Videos--/meldung/138280
HotSalsa
2009-06-23, 18:22:17
Immerhin kann der Cell HD 1080p in Echtzeit encoden. Da gabs doch einen Artikel in Heise.de. Der Cell in der PS3 (die mit Linux läuft) bekommt die Daten über LAN und kann 29fps encoden (also grösser als 24fps des 1080p Formats) und sendet diese zurück.
Der 3.2GHz i7 z.B. hat (falls ich mich richtig erinnere) nur 17fps geschaft (also deutlich kleiner als die 24fps des 1080p Formats)
Ahhh ok.... ich will also auf der PS3 Videos encoden... :|
Wäre es nicht sinnvoll in einer SPIELEkonsole auch eine CPU zu verbauen, die besonders gut mit SPIELEcode umgehen kannn, anstatt mit Videocode? :tongue:
Flashpoint
2009-06-23, 18:32:35
Ahhh ok.... ich will also auf der PS3 Videos encoden... :|
Wäre es nicht sinnvoll in einer SPIELEkonsole auch eine CPU zu verbauen, die besonders gut mit SPIELEcode umgehen kannn, anstatt mit Videocode? :tongue:
Nein, weil sie gar nicht als Spielekonsole geplant war, sondern als Multimediakonsole. Also als HTPC-Ersatz geplant. Nur wäre der Umbruch viel zu groß gewesen und die Marketingabteilung wäre sowas von baden gegangen, die neue "Konsole" zu vermarkten.
Nein, weil sie gar nicht als Spielekonsole geplant war, sondern als Multimediakonsole. Also als HTPC-Ersatz geplant.
Dafür ist der Stromverbrauch aber deutlich zu hoch und softwareseitig sehr beschränkt, selbst bei h.264, wo die PS3 als größte Zicke gilt (z.B. im Handbrake-Forum).
Acid-Beatz
2009-06-23, 20:04:23
Mit Optimierung lässt sich überall noch einiges rausholen, man muss sich nur z.B mal anschauen, wie die PS2 Spiele am Anfang ausgesehen haben und was am Schluss möglich war!
Bei den PCs rentiert sichs hald einfach nicht weils x-Tausend verschiedene Hardwarekombinationen gibt was man wiederum durch die ständige Entwicklung ausgleicht!
Deswegen lässt sich die Frage wohl garnicht beantworten, höchstens wenn man sich auf ein ganz bestimmtes Programm festlegt.
In der C`t war mal ein Artikel drinnen wo die PS3 unter Linux mit Optimierung bei den Mandelbrot Männchen ziemlich abgegangen ist!
Botcruscher
2009-06-23, 21:30:59
Optimierungen sind immer der Strohhalm an dem sich die Konsoleros schon seit Jahren festhalten. Bei steigender Komplexität und Kostendruck/Multiplattform kommt da nicht mehr viel. Code für den Cell optimiert man nicht mal schnell von Hand. Der PS2 Vergleich hat weder Hand noch Fuß.
Optimierungen sind immer der Strohhalm an dem sich die Konsoleros schon seit Jahren festhalten. Bei steigender Komplexität und Kostendruck/Multiplattform kommt da nicht mehr viel. Code für den Cell optimiert man nicht mal schnell von Hand. Der PS2 Vergleich hat weder Hand noch Fuß.
Strohhalm würde ich es nicht grad nennen. Schliesslich gibt das letzte Jahrzehnt (und länger) den Konsoleros durchaus recht. Vor ALLEM die steigende Komplexität lässt den Raum für Optimierungen. Nur nutzt das nix, solang Multi das Gebot der Stunde ist und man nicht Marktführer ist.
Acid-Beatz
2009-06-23, 22:01:16
Wieso hat der PS2 Vergleich weder Hand noch Fuss ?
Ich wollte damit eigentlich nur sagen, dass je nach Optimierung mal die eine und mal die andere CPU schneller sein kann ( eben je nach Benchmark und je nach Optimierungsgrad )!
Die PS3 Compiler reifen auch erst mit der Zeit aber alles andere geht eben auch weiter und bleibt nicht stehen ;)
mekakic
2009-06-24, 09:30:52
Ohne mich jetzt mit PS3 Entwicklung auszukennen, hört sich alles was man vom Cell so hört bisher nicht danach an als das man nur auf bessere Compiler warten muß.
BlackBirdSR
2009-06-24, 09:47:00
Ohne mich jetzt mit PS3 Entwicklung auszukennen, hört sich alles was man vom Cell so hört bisher nicht danach an als das man nur auf bessere Compiler warten muß.
Kommt Zeit kommt Optimierung. Einiges an Potential der PS3 geht sicherlich durch fehlende Zeit und die Not dazu verloren. Wenn man in Zukunft des Öfteren an die Grenze des Fortschritts gegenüber früheren Spielen stößt, wird man wohl automatisch mehr Aufwand in die Detail-Optimierung stecken. Dann kommt dabei vielleicht auch mehr raus.
Man muss sich einfach in Publisher und Entwickler hineinversetzen: Warum mehr Potential freisetzen, als unbedingt nötig? Ärgerlich ist nur, wenn Spiele mangels Zeit/Optimierung nicht wirklich flüssig laufen.
mekakic
2009-06-24, 10:02:47
Optimierungspotential sehe ich auch, aber eher auf Seiten der Engine Entwickler als Wunder auf der Compiler Seite zu suchen. Dafür scheint mir oberflächlich betrachtet der Job die SPEs richtig auszulasten als zu komplex.
=Floi=
2009-06-26, 23:38:29
trotzdem ist es geradezu verschwendung nur für einen einzigen chip den code extremst zu optimieren und hier geld reinzustecken.
das ist auch definitiv die falsche richtung, den chip komplexer zu machen und dadurch die programmierung erheblich zu verteuern und erschweren.
deekey777
2009-06-27, 00:20:01
Man darf auf keinen Fall vergessen, warum der CELL überhaupt entwickelt wurde. Sein "Zielgebiet" ist nicht nur die PS3, sondern alles, wo er gebraucht werden kann (Fernsehgeräte, PCs, HPC usw). Das Ding sollte billig sein und schnell. Nur haben die Macher dies wohl irgendwie vergessen: Der CELL wird entweder auf der PS3 oder auf Steckkarten (CE-100/200) oder im HPC verwendet. Nur Toshiba hat es mit der SpursEngine die SPEs auch anderswo unterzubringen (Laptops sowie DVD-Player mit qualitativem Upscaling als Antwort auf die gescheiterte HD-DVD-Initiative).
Sony hat die Blu-ray-Abspieler, da wäre hochwertiges Upscaling für DVDs nur störend (die Verbraucher sollen BDs kaufen und keine DVDs).
Es gibt somit keine vernünftige Hardware für den Consumer-Bereich außer der PS3, da macht sich niemand die Finger dreckig, um den CELL überhaupt zu unterstützen. CE-10 ist zwar nett gemacht, aber die Semi-Profis haben meist die entsprechende CPU-Leistung und Software, um auf CE-10 verzichten zu können.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.