PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sammelthread Playstation 3 //TEIL2


Seiten : 1 2 3 4 [5]

Jesus
2006-03-26, 14:16:28
Was mich glücklich stimmt ist dass die UT Demo so wies aussieht wohl mit um die 60fps läuft, sieht jedenfalls schon verdammt flüssig aus und es ist noch sehr viel Zeit bis zum release (irgendwo gabs dazu auch ne Aussage von Mark Rein). Hoffe die PS3 hat da weniger Probleme als die Xbox 360.

Gohan
2006-03-26, 14:16:42
:eek:

Verwarnung wegen 1 Smily Post.

Eine Diskussion über die Warnung ist bitte nicht in diesem Thread zu führen. Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden. Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im "Diskussionen zu moderativen Entscheidungen - Forum" zu eröffnen. Siehe dazu auch: Regeln und Richtlinien für die Moderation

Jesus
2006-03-26, 14:29:55
GDC impressions blog:

Tech demos? Completely unexpected and yet still mostly underwhelming. I know this isn't an event for the press. If it was, we would have had booze IVs in our arms like 45 minutes before the show started. Still, you've read up about stuff, and I figure more perspectives aren't a bad thing, so I'll go game by game, with personal, no-BS stuff from a guy who's HAPPY to say he's a PlayStation ******.

-Heavenly Sword: I love me some ragdoll, and I enjoy watching bodies fly around, but I honestly hope I wasn't the only guy that thought that's the kind of stuff you SHOULD see in a next-gen system, physics-wise. Dropping a thousand or so guys into a scene and then dropping physics bombs around to make them go flying with awesome screams to match? Sweet, but not something that sold me on the PS3

-Microtransaction implementation: The skinned menus for buying stuff are rad, if only because it means the tools are there to keep it in-game and fiarly seamless. The SingStar-style interface for downloadable stuff done by the UK design guys? Pure ocular sex, and I only wish we had licensed tracks for music games -- particularly the ones where you sing.

-MotorStorm: Creating real, physics-based grooves and deformable terrain = yum. Particles that are no more than fattened brown blobs? Bad idea. I like how they translate directly into high-res bump- or normal-mapped textures (yes, I'm too stupid to know which is better or what I saw) when they're thrown on flat surfaces, it looked great, and I like how as the mud dries, it affects the suspension on cars on a per-wheel basis. Again, though, I feel these things are expected.

-WarHawk: FUCKING HOT SHIT. This game is going to be awesome, and not just because the water is both sexy as hell (I particularly enjoyed the random whitecaps and foam on random procedural (!) waves), but because the scale of the fights will really feel next-gen -- especially when we have terrain in there too.

-Resistance: The visuals were on par with what you'd expect from a fairly militaristic, urban FPS. Nothing too impressive, but then this is Insomniac, and the one area where the game will be cool -- weapons -- was represented here very, very nicely. I think most tend to tune out aliens in an FPS, but they did look and react well to things -- though there were only a few variants.

-Ratchet: RAD RAD RAD RAD RAD. The fact that they made it a really nice, slow build through a corridor of turning gears into something that you think is just going to be a basic high-res, high-geometry version of the Ratchet games and then zooms down in an homage to The Fifth Element means I just love it that much more. Nice, even use of HDR lights and tons of geometry mean the engine -- and I hope this is tech being shared with the guys at Naughty Dog again -- is already very, very sound and Ted Price made it clear they were just getting to know how to use the SPEs.

-The Sony Network Platform Interface: The OBVIOUS work-in-progress overlays that made it clear Sony was going to work the whole video/audio live chat was a nice touch, but they need the guys that did the SingStar promo to rock the interface for everything else. God, it was like XP MCE given the Sony design touch, and it was great.

Jesus
2006-03-26, 14:42:06
Und R&C pics, diesmal in gross :)

http://img.photobucket.com/albums/v610/gogogow/rc_gdc_2k6_03.jpg

http://img.photobucket.com/albums/v610/gogogow/rc_gdc_2k6_04.jpg

http://img.photobucket.com/albums/v610/gogogow/rc_gdc_2k6_05.jpg

http://img.photobucket.com/albums/v610/gogogow/rc_gdc_2k6_06.jpg

Dalai-lamer
2006-03-26, 15:41:14
Was ist das ?
Intro Sequenz ?
ich sehe da irendwie keine Figur die man spielen könnte ^^
sieht aber nice aus wenn es nicht pre rendered ist.

betasilie
2006-03-26, 15:47:22
Was ist das ?
Intro Sequenz ?
ich sehe da irendwie keine Figur die man spielen könnte ^^
sieht aber nice aus wenn es nicht pre rendered ist.
Dass auf der GDC nur Echtzeitstuff gezeigt wird, sollte selbstverständlich sein.

betasilie
2006-03-26, 15:50:42
afaik: die ps3 hat doch 256mb ram und 256mb grakaram (kein shared, sondern dedizierten speicher wie eine graka)
Genau, und da RSX beide nutzen kann, ist er folglich mit 256bit angeschlossen, nämlich an 2 128bit Speicherbusse.

Jesus
2006-03-26, 16:07:51
Was ist das ?
Intro Sequenz ?
ich sehe da irendwie keine Figur die man spielen könnte ^^
sieht aber nice aus wenn es nicht pre rendered ist.

Nö, das ist die Engine :)

Gast
2006-03-26, 16:47:51
Nö, das ist die Engine :)

Das ist doch vollkommen egal, es ist aber sicher kein Ingame.

xL|Sonic
2006-03-26, 17:06:38
Genau, und da RSX beide nutzen kann, ist er folglich mit 256bit angeschlossen, nämlich an 2 128bit Speicherbusse.

Das ist aber eine Milchmädchenrechnung, weil der Cell auch Speicher braucht und der GDDR3 langsamer ist als der XDR Rambus Speicher. So einfach kann man die nicht zusammen zählen.

John Williams
2006-03-26, 17:32:29
Also ich hab mir schon mal 500 Euro zur Seite gelegt und werde mir die PS3 zulegen.

Bei mir läuft alles darauf hinaus mir bis November einen Plasma zuzulegen und mir dann die PS3 zu kaufen, dann bin ich bereit für die Next Generation.

Auch wenn es am Anfang keine Grafik Highlights geben wird,
würde mich schon über ein Aufgebohrtes Ridge Racer 6 freuen!

Aber wer weiß vielleicht gibt es ja ein Überraschungstitel!

Gruß
John

thade
2006-03-26, 17:40:48
Was ist das ?
Intro Sequenz ?
ich sehe da irendwie keine Figur die man spielen könnte ^^
sieht aber nice aus wenn es nicht pre rendered ist.

Warum sollte das ein Intro sein? Wär doch total schlecht für ne Zwischensequenz im Jahre 2006. Sicher ist das Ingame, wieso auch nicht?

Also meine Prognose scheint sich zu bestätigen, es läuft alles auf einen totalen Sieg seitens Sony hinaus, arme Xbo360, was hast Du noch für Argumente. Selbst im Online Modus wirst Du voraussichtlich überrumpelt.

Fassen wir zusammen: Leicht bessere Grafik, beste Software, guter Preis, guter Online Modus, gigantische Fanbase. Tja M$ ist schon vor dem Kampf KO!

betasilie
2006-03-26, 17:42:06
Das ist aber eine Milchmädchenrechnung, weil der Cell auch Speicher braucht und der GDDR3 langsamer ist als der XDR Rambus Speicher. So einfach kann man die nicht zusammen zählen.
Natürlich ist das nicht einfach eine Addition, aber Cell nutzt sicher nur einen Bruchteil der Bandbreite des XDR. Nicht ohne Grund kann der Framebuffer sogar aufgesplittet werden auf GDDR3 und XDR, damit er 256bitig arbeitet.

Und der geringe Unterschied in der Datenrate ist egal. Es kommt drauf an was für eine Speichergeschwindigkeit RSX zur Verfügung hat und das sind GDDR3 + (XDR - Cell).

Gast
2006-03-26, 19:48:29
Dass auf der GDC nur Echtzeitstuff gezeigt wird, sollte selbstverständlich sein.
Na klar, wie es bisher auch alles Echtzeit war gerade du bist in alle Fettnäpfchen in Sachen Echtzeit, echte Grafik und Release reingetreten.

TheCounter
2006-03-26, 20:13:44
http://www.gfdata.de/archiv03-2006-gamefront/motor.jpg

Also doch deutlich schlechter als im E3 Rendervideo. Leider hats auch kein AF.

EDIT:

Two different PS3 prototypes were used in the demos; one was a slimmer box with dual HDMI outputs, while the other was a PC case with a video card in the back. Both devices were connected to identical Sony model television sets, which had HDMI ports.

All graphics demos were played on the slim boxes, while the audio demos were played on the larger PC-sized boxes. The graphics demo units were connected to the televisions via Sony's AV Multi-Out connector (black cable in photo), which is an analog connector that can split into S-Video or RCA connectors. The two HDMI ports right below the AV Multi-Out port were unused.

...

In the end, we do not know the real reason of avoiding HDMI in the GDC demonstrations. But it certainly highlighted that Sony has still work to do - not only to finalize the AACS spec, but also to accelerate the availability to HDMI 1.3 and to educate customers that they only can run HD video and audio if they have a HDMI 1.3 capable TV.

http://www.ps3scene.com/

betasilie
2006-03-26, 20:30:10
Na klar, wie es bisher auch alles Echtzeit war gerade du bist in alle Fettnäpfchen in Sachen Echtzeit, echte Grafik und Release reingetreten.
Wo denn Trollgast? :biggrin:

Gast
2006-03-26, 20:37:47
Genau, und da RSX beide nutzen kann, ist er folglich mit 256bit angeschlossen, nämlich an 2 128bit Speicherbusse.

Na ja, aber ob das dann für 1080p reicht.
Ich denke eher nicht.

Gast
2006-03-26, 20:44:35
Wo denn Trollgast? :biggrin:
Du sagtest, Heavenly sword wäre Echtzeit, war es aber nicht. Du hält die Grafik der Rendergrafik locker für möglich, die Presseleute auf der GDC (außer IGN, sind ja geschäftlich mit Sony verwickelt) sagen was anderes. Du glaubtest fest an einem baldigen Release im Frühjahr und einer jetztigen Massenproduktion der PS3, alles eine Finte.

Gast
2006-03-26, 20:44:52
Wo denn Trollgast? :biggrin:

Du hast doch die gerenderten Bilder vor dem DTM3-Release für ingame gehalten, selbst als dir vorgezeigt wurde, dass das niemals ingame sein kann.
Was jetzt draus geworden ist, wissen ja.

Jesus
2006-03-26, 20:56:07
http://www.gfdata.de/archiv03-2006-gamefront/motor.jpg

Also doch deutlich schlechter als im E3 Rendervideo. Leider hats auch kein AF.



Sieht auch noch nicht unbedingt fertig aus bei der kargen Landschaft. Das war nur eine Demo um die Matschspuren deutlich zu machen. Und wo du da kein AF siehst ist mir schleierhaft. Die Spuren sind Texturen und die sind selbst weit hinten noch gut sichtbar...

Anderer Gast
2006-03-26, 20:59:53
Genau, und da RSX beide nutzen kann, ist er folglich mit 256bit angeschlossen, nämlich an 2 128bit Speicherbusse.
Hui, würde Sony mal 4 Speicher mit je 128 Bit Anbindung und 128 MB verbauen. Dann wären es ja 512 Bit. Oder 8 Speicher = 1024 Bit. Oder 16 = 2048 Bit. Ungeahnte Möglichkeiten... aber leider stimmt da was nicht.

War die PS3 nicht zunächst ohne dedizierte GPU geplant, die Aufgabe sollte doch komplett der Cell übernehmen? Weil dieses aber nicht so wie erhofft funktionierte musste Sony wohl mal schnell alles umstricken und hat bei Nvidia ins Regal gegriffen. Das Resultat ist ziemlich zusammengeschustert.

Jesus
2006-03-26, 21:07:20
Hui, würde Sony mal 4 Speicher mit je 128 Bit Anbindung und 128 MB verbauen. Dann wären es ja 512 Bit. Oder 8 Speicher = 1024 Bit. Oder 16 = 2048 Bit. Ungeahnte Möglichkeiten... aber leider stimmt da was nicht.

Was soll da nicht stimmen, wenn der RSX auf alle 4 mit je 128bit zugreifen könnte (theoretisch) wärens auch 512 bit von der möglichen Übertragungsrate her gesehen... :rolleyes:

Coda
2006-03-26, 21:12:34
Genau, und da RSX beide nutzen kann, ist er folglich mit 256bit angeschlossen, nämlich an 2 128bit Speicherbusse.Das ist etwas anderes. Zumindest ist das Load-Balancing damit nicht möglich. Der Framebuffer kann ja in nur einem RAM liegen und nicht in beiden, genauso sieht es bei Texturen aus.

Außerdem dürfte das RSX-Interface 4-fach unterteilt sein, das vom Cell wohl nicht. Es ist also für Grafikaufgaben eher nicht so geeignet. Alles in allem finde ich es höchst gewagt bei RSX von "insgesamt" einem 256-bit-SI zu reden. Zumindest praktisch ist es weit davon entfernt.

Natürlich ist das nicht einfach eine Addition, aber Cell nutzt sicher nur einen Bruchteil der Bandbreite des XDR.Mit 8 Cores? Äh doch sollte er eigentlich schon. Vor allem weil die Dinger auf Durchsatz optimiert sind.

Nicht ohne Grund kann der Framebuffer sogar aufgesplittet werden auf GDDR3 und XDR, damit er 256bitig arbeitet.Dazu hätte ich gerne eine offizielle Quelle. Um das effektiv zu machen müsste man ja eine Art interleaving benützen, ich glaube kaum dass die ROPs dafür die Speicheraddressen generieren können :|

Aber ich lasse mich natürlich gerne etwas besserem belehren, nur macht eine Art Dual-Channel in dieser Konfiguration für den Framebuffer große technische Schwierigkeiten und ist deshalb unwahrscheinlich :tongue:

Jesus
2006-03-26, 21:33:14
Mit 8 Cores? Äh doch sollte er eigentlich schon. Vor allem weil die Dinger auf Durchsatz optimiert sind.

Naja wenn man ständig was aus dem Speicher per DMA streamt/zurückschreibt vielleicht. Ausgelegt sind sie ja eigentlich dafür in ihrem LS zu arbeiten, das berührt das XDR interface wenig, da sollte die 360 bspw. wesentlich höhere Bandbreiten verbraten da hier ständig im Hauptspeicher gearbeitet wird (mit 3 Cores).

Coda
2006-03-26, 21:36:55
Naja wenn man ständig was aus dem Speicher per DMA streamt/zurückschreibt vielleicht. Ausgelegt sind sie ja eigentlich dafür in ihrem LS zu arbeiten, das berührt das XDR interface wenig,Genau - Ich mache Datenverarbeitung mit 512KiB RAM... Gerade die Aufgaben für die die SPEs ausgelegt sind - nämlich massive Datenverarbeitung - hängen verdammt an der Speicherbandbreite.

Was glaubst du wofür man Cell so ein breites Speicherinterface gegeben hat? Zum Spaß oder was?

da sollte die 360 bspw. wesentlich höhere Bandbreiten verbraten da hier ständig im Hauptspeicher gearbeitet wird (mit 3 Cores).Blödsinn. Das Ding hat einen automatischen Cache, für mehr taugen die SPE local-storages auch nicht, außer das man die auch noch manuell verwalten muss.

Jules
2006-03-26, 21:50:34
Du sagtest, Heavenly sword wäre Echtzeit, war es aber nicht. Du hält die Grafik der Rendergrafik locker für möglich, die Presseleute auf der GDC (außer IGN, sind ja geschäftlich mit Sony verwickelt) sagen was anderes. Du glaubtest fest an einem baldigen Release im Frühjahr und einer jetztigen Massenproduktion der PS3, alles eine Finte.

wieso ist es nicht möglich?
warum?
nur weil die ersten demo bilder nicht danach aussehen ist es nicht möglich :|

in 2 jahren wirst du diese optik irgendwo im fernsehen genießen, BEI MM oder sonst wo.

wieso denkt jeder (paar ausnahmen) das was jetzt schon gezeigt worden ist nicht mehr zu übertreffen ist.

genau wie bei der 360
denkt ihr superman oder x-men sind grafikhighlights, das sind spiele wo praktikanten dran gearbeitet haben........oh man.

wartet erst mal auf die studios, die die jeweiligen konsolen beherrschen
factor 5, bungie, polyphony, rockstar und so weiter

Jesus
2006-03-26, 21:50:38
Blödsinn. Das Ding hat einen automatischen Cache, für mehr taugen die SPE local-storages auch nicht, außer das man die auch noch manuell verwalten muss.

Nur dass die LS kein Cache sind sondern dazu da sind ausführbaren Code (Programme) zu halten. Das müssen nicht unbedingt Daten aus dem XDR sein, es kann auch direkt ins GDDR gehen (FS oder Partikeleffekt, Physics ...)

Btw so weit weg halte ich Motorstorm jetzt nicht von den E3 Bildern, zumals auch nur ne Demonstration war (ohne umgebung etc...)

E3

http://img155.imageshack.us/img155/1957/e31ps.jpg

GDC

http://img116.imageshack.us/img116/2556/gdc9gd.jpg

TheCounter
2006-03-26, 22:12:23
Und wo du da kein AF siehst ist mir schleierhaft. Die Spuren sind Texturen und die sind selbst weit hinten noch gut sichtbar...

Ich rede nicht von den Spuren sondern von der Bodentextur. Diese wird in der Distanz immer unschärfer, ist doch ganz klar zu erkennen.

xL|Sonic
2006-03-26, 22:13:48
Nur dass die LS kein Cache sind sondern dazu da sind ausführbaren Code (Programme) zu halten. Das müssen nicht unbedingt Daten aus dem XDR sein, es kann auch direkt ins GDDR gehen (FS oder Partikeleffekt, Physics ...)

Btw so weit weg halte ich Motorstorm jetzt nicht von den E3 Bildern, zumals auch nur ne Demonstration war (ohne umgebung etc...)



Und das wird ja die große Frage sein. Ohne Zweifel war es nur eine Demonstration, diese ist aber sehr weit entfernt von der E3 Version.
Die Spuren im Schlamm find ich auch toll, aber das ist ja fast nur noch Nebensache, bei dem, was man auf der E3 sehen konnte.
Viel spannender wird sein, ob die enormen Partikeleffekte, die Plastizität, der Schmutz, der auf den Autos klebte, die Physik, die detailreiche Umgebung und die zerstörbaren Modelle all das einhalten, was man im Rendervideo gesehen hatte.
Von dem, was man da bis jetzt sieht von geil oder genial zu sprechen finde ich aberwitzig, weil man das imo auch auf einer Xbox, einem GC, DC oder PS2 darstellen könnte, wenn man die ganze Power nur aufs Auto und die Fahrspuren verwenden würde.
Von daher finde ich das ganze nicht sonderlich beeindruckend.
R&C find ich da schon beeindruckender.

DrFreaK666
2006-03-26, 22:14:04
...
Btw so weit weg halte ich Motorstorm jetzt nicht von den E3 Bildern, zumals auch nur ne Demonstration war (ohne umgebung etc...)

E3

http://img155.imageshack.us/img155/1957/e31ps.jpg

GDC

http://img116.imageshack.us/img116/2556/gdc9gd.jpg

Wenn man nur die Ersatzräder vergleicht dann sieht man schon einen deutlichen Unterschied

Allerdings sind beide Pics eher von bescheidener Bildqualität

Shaft
2006-03-26, 22:25:58
Wenn man nur die Ersatzräder vergleicht dann sieht man schon einen deutlichen Unterschied

Allerdings sind beide Pics eher von bescheidener Bildqualität


Und anderen Ansichtswinkel. Also ich seh da keinen Unterschied, vielleicht ist da ein minimaler, aber ich seh da nichts. Gut, Vegetation fehlt in dieser Szene, ebenso AF (oder schlechtes Lod).

Coda
2006-03-26, 22:32:58
Nur dass die LS kein Cache sind sondern dazu da sind ausführbaren Code (Programme) zu halten.Die Dinger sind dazu da sämtliche Daten zu halten die die SPEs brauchen (dazu gehört natürlich auch Code). Die SPEs haben keinerlei direkten Zugriff auf den Hauptspeicherraum (XDR und GDDR sind anscheinend zusammen linear addressierbar). Sie können aber wenigstens selber DMA-Transfers anstoßen soweit ich weiß.

Nochmal: Die SPEs sind nach außen was den Speicher angeht völlig autark, sie arbeiten in ihren eigenen mikrigen 512KiB Speicher (Code und Daten) und wenn sie was von außen brauchen muss entweder die PPU das ihnen zuschieben oder sie beschaffen es sich selber manuell per DMA, aber es gibt keine direkte Zugriffsmöglichkeit auf den Speicher.

Ein automatischer Cache ist in jedem Fall besser, da wurde wieder nur Arbeit den Programmierern zugeschoben. Ein Xenon erzeugt niemals die Speicherbandbreitenlast eines Cell. Wenn der auf den gleichen 512KiB Daten rumcruncht mit allen 3 Cores dann bleibt das genauso von ganz allein auch im Cache.

TheCounter
2006-03-26, 22:40:44
Sie können aber wenigstens selber DMA-Transfers anstoßen soweit ich weiß.

Also ein DMA request? Wenn jetzt 5 solcher requests kommen, müssen die dann nacheinander abgearbeitet werden? (Und damit liegen die SPEs für die Zeit erstmal brach?)

Oder hab ich da jetzt was verwurschtelt? :biggrin:

Coda
2006-03-26, 22:41:26
Genau so siehts aus. Der DMA-Request geht über den Ringbus zum DMA-Controller der dann schön gemütlich nacheinander alles abarbeitet.

Im Prinzip sind die 8 SPEs wie ein Cluster mit mikrigem lokalem RAM die über ne - zugegebenermaßen - fette Anbindung einen externen Massenspeicher ansprechen.

Das ganze gleicht eher einem Supercomputer von der Architektur als einer normalen CPU (nein ich will sie immer noch nicht programmieren müssen :tongue:)

TheCounter
2006-03-26, 22:43:16
Genau so siehts aus. Der DMA-Request geht über den Ringbus zum DMA-Controller der dann schön gemütlich nacheinander alles abarbeitet.

Danke, das wollte ich wissen.

dildo4u
2006-03-26, 22:44:27
Das ganze gleicht eher einem Supercomputer von der Architektur als einer normalen CPU (nein ich will sie immer noch nicht programmieren müssen :tongue:)
Ebend da hat Sony nicht zuviel versprochen Cell ist ein Supercomputer on a chip ;).

Jules
2006-03-26, 22:44:55
Genau so siehts aus. Der DMA-Request geht über den Ringbus zum DMA-Controller der dann schön gemütlich nacheinander alles abarbeitet.

Im Prinzip sind die 8 SPEs wie ein Cluster mit mikrigem lokalem RAM die über ne - zugegebenermaßen - fette Anbindung einen externen Massenspeicher ansprechen.

Das ganze gleicht eher einem Supercomputer von der Architektur als einer normalen CPU (nein ich will sie immer noch nicht programmieren müssen :tongue:)

oh man... nix mehr mit 7spe`s knackig benutzen!!! ;(

reunion
2006-03-26, 22:47:39
Nochmal: Die SPEs sind nach außen was den Speicher angeht völlig autark, sie arbeiten in ihren eigenen mikrigen 512KiB Speicher [...]

Es sind sogar nur 256KiB AFAIK.

Coda
2006-03-26, 22:50:45
Ebend da hat Sony nicht zuviel versprochen Cell ist ein Supercomputer on a chip ;).Für gewisse Anwendungen ist das bestimmt sogar sehr interessant, aber Cell ist eben kein Chip von dem man automatische Performancewunder erwarten sollte.

Von der Gamelogik erwarte ich bei PS3-Spielen nämlich lieber mal nicht so viel :tongue:

Es sind sogar nur 256KiB AFAIK.Hast recht. Wenn man überlegt, dass man da auch noch den Code mit reinquetschen soll X-D

Aber gleich kommt eh wieder die Sony-Horde mit den Mistgabeln...

Hydrogen_Snake
2006-03-26, 22:56:48
Btw so weit weg halte ich Motorstorm jetzt nicht von den E3 Bildern, zumals auch nur ne Demonstration war (ohne umgebung etc...)


ja stimme dir hier zu, habe ja selber schon geschrieben das motorstorm definitiv möglich ist! vor zig seiten. weil ich die implementierung von irgend nem rallyspiel zufällig mal gesehen hatte... also nichts dramatisches, und das die spuren eine textur ist dürfte klar sein, also nichts mit tollen physik spielereien in dieser hinsicht, zumindest für den moment!

micki
2006-03-26, 23:01:36
ich kann mir kaum was schönereres vorstellen, als meinen raytracers auf den SPUs laufen zu lassen *joy*

Coda
2006-03-26, 23:01:39
Ach so: Die Bilder die hier von der GDC gepostet wurden halte ich übrigens auch für echt.

ich kann mir kaum was schönereres vorstellen, als meinen raytracers auf den SPUs laufen zu lassen *joy*Hm wirklich? Ich weiß nicht ob es so lustig ist den Scene-Tree per DMA zu streamen... Die ganze Szene wirst du wohl kaum in 256KiB-sizeof(Code) halten können.

Von der Performance dürfte es aber wohl wirklich einigermaßen gut sein ;)

Woddy
2006-03-26, 23:10:38
Klasse endlich mal jemanden im Thread zu haben der richtig Ahnung hat.

Also ich hoffe wirklich, dass die PS3 das auf der E3 05 gezeigte auch schafft.
Zumindest wird sie sich daran messen müssen. Auf der E3 06 und ab Nov06 dann real.

Ich meine, keiner erwartet wirklich die Qualität der E3 05 Videos im Nov06, aber man sollte schon die Tendenz erkennen können.

Falls nicht, wird in den Foren für Sony die Hölle los sein.
Aber das werden wir dann ja im Mai sehen können. ^^

Jules
2006-03-26, 23:12:43
Klasse endlich mal jemanden im Thread zu haben der richtig Ahnung hat.

Also ich hoffe wirklich, dass die PS3 das auf der E3 05 gezeigte auch schafft.
Zumindest wird sie sich daran messen müssen. Auf der E3 06 und ab Nov06 dann real.

Ich meine, keiner erwartet wirklich die Qualität der E3 05 Videos im Nov06, aber man sollte schon die Tendenz erkennen können.

Falls nicht, wird in den Foren für Sony die Hölle los sein.
Aber das werden wir dann ja im Mai sehen können. ^^

stimm ich zu

Jesus
2006-03-26, 23:19:11
Ach so: Die Bilder die hier von der GDC gepostet wurden halte ich übrigens auch für echt.

Hm wirklich? Ich weiß nicht ob es so lustig ist den Scene-Tree per DMA zu streamen... Die ganze Szene wirst du wohl kaum in 256KiB-sizeof(Code) halten können.

Von der Performance dürfte es aber wohl wirklich einigermaßen gut sein ;)

Wurde hier mal gemacht

http://gametomorrow.com/blog/index.php/2006/03/24/cell-cant-texture/


Auch intressant:

Very encouraging work, by the way. Oh, and on Cell rendering, it might interest you to know that PS3 developers would appear to already be using Cell for rendering in tandem with the GPU - I saw at GDC, for example, that the makers of Warhawk are using a “software volumetric ray-tracer” on some SPUs to render the clouds in the game, mixing the software rendering on Cell with RSX’s hardware rendering. It’s exciting stuff!

LordDeath
2006-03-26, 23:19:22
Von der Gamelogik erwarte ich bei PS3-Spielen nämlich lieber mal nicht so viel :tongue:

ja, ganz viel große männliche dumme rohpower :)

ist denn jetzt das PPU das schwächste glied bei der ps3? die hat ja ein in-order design und muss 7 gierige SPUs füttern. was bleibt da noch für die nächsten 5 jahre übrig?

Coda
2006-03-26, 23:30:17
Wurde hier mal gemachtDas Ding hat keinen Scenetree, da gehts um ein einzelnes Objekt. Die Texturen wurden gestreamt.

Very encouraging work, by the way. Oh, and on Cell rendering, it might interest you to know that PS3 developers would appear to already be using Cell for rendering in tandem with the GPU - I saw at GDC, for example, that the makers of Warhawk are using a “software volumetric ray-tracer” on some SPUs to render the clouds in the game, mixing the software rendering on Cell with RSX’s hardware rendering. It’s exciting stuff!Dito. Das kannst du kaum mit einem "richtigen" KD-Tree-Scenegraph vergleichen.

Jesus
2006-03-27, 00:13:31
Dito. Das kannst du kaum mit einem "richtigen" KD-Tree-Scenegraph vergleichen.


Wollte ich auch gar nicht, fands nur intressant weils auch auf der Seite steht :)

mbee
2006-03-27, 00:14:23
Klasse endlich mal jemanden im Thread zu haben der richtig Ahnung hat.


Dem stimme ich mal vollstens zu! :up:

betasilie
2006-03-27, 00:38:55
Du hast doch die gerenderten Bilder vor dem DTM3-Release für ingame gehalten, selbst als dir vorgezeigt wurde, dass das niemals ingame sein kann.
Was jetzt draus geworden ist, wissen ja.
Tja, nur dumm, dass das nix mit den PS3 Videos zu tun hatte. :uclap:

Und log dich doch wieder ein. Es wird langsam echt lächerlich.

micki
2006-03-27, 01:41:23
Ach so: Die Bilder die hier von der GDC gepostet wurden halte ich übrigens auch für echt.

Hm wirklich? Ich weiß nicht ob es so lustig ist den Scene-Tree per DMA zu streamen... Die ganze Szene wirst du wohl kaum in 256KiB-sizeof(Code) halten können.

Von der Performance dürfte es aber wohl wirklich einigermaßen gut sein ;)
doch, mein bsp-tree ist zZ ca 256kb, wobei ich den eventuell noch sparsammer hinbekommen könnte... wenn es muss, dann passt sowat scho... aber nen cell mit 1mb speicher pro SPU wäre sehr traumhaft... vor allem weil keine zeit wegen OOO verschwendet wird wie bei den sonstigen CPUs *GRR* da kann nichtmal ein schief blancierter TREE wirklich helfen *abschweifungbemerkt...*

betasilie
2006-03-27, 01:46:23
Das ist etwas anderes. Zumindest ist das Load-Balancing damit nicht möglich. Der Framebuffer kann ja in nur einem RAM liegen und nicht in beiden, genauso sieht es bei Texturen aus.
Falsch. Der Framebuffer kann definitv aufgesplittet werden auf XDR und GDDR3, das wurde in einem Interview von offizieller Seite gesagt.

Außerdem dürfte das RSX-Interface 4-fach unterteilt sein, das vom Cell wohl nicht. Es ist also für Grafikaufgaben eher nicht so geeignet. Alles in allem finde ich es höchst gewagt bei RSX von "insgesamt" einem 256-bit-SI zu reden. Zumindest praktisch ist es weit davon entfernt.
Meinst Du oder weißt Du? Und niemand sagt, dass der XDR-Speicher ein Grafikspeicher ist. Nicht ohne Grund hat Sony zwei verschiedene Speichertypen verbaut, obwohl sie erst keinen GDDR3 geplant hatten und alles mit XDR laufen lassen wollten. Aber ebenfalls nicht ohne Grund hat Sony dem RSX die volle theoretische XDR Bandbreite gegeben und zusätzlich noch einen Bus für Cell<->RSX, damit die Bandbreite XDR<->RSX nicht ausgebremst wird. ;)

Mit 8 Cores? Äh doch sollte er eigentlich schon. Vor allem weil die Dinger auf Durchsatz optimiert sind.
Natürlich wird der Cell Speicherbandbreite verbauchen, aber wieviel, weiß man wohl erst nach viel praktischer Erfahrung und je nach Engine- und Spielekonzept. Aber auch hier ist es doch wieder klar, dass Sony nicht den Aufwand betreiben würde und drauf hinweisen, dass der FB ganz oder zum Teil im XDR liegen kann, wenn das nicht sinnvoll wäre.

Dazu hätte ich gerne eine offizielle Quelle. Um das effektiv zu machen müsste man ja eine Art interleaving benützen, ich glaube kaum dass die ROPs dafür die Speicheraddressen generieren können :|

Aber ich lasse mich natürlich gerne etwas besserem belehren, nur macht eine Art Dual-Channel in dieser Konfiguration für den Framebuffer große technische Schwierigkeiten und ist deshalb unwahrscheinlich :tongue:
Ok, ich suche ..............

Oh, man, ich finde das Interview leider nicht mehr, wo ausdrücklich gesagt wurde, dass der Framebuffer auf XDR und GDDR3 aufgesplitted werden kann. Ich habe das aber definitv in einem Interview gelesen.

Naja, das hier war ja klar:
For example, RSX is not a variant of nVIDIA's PC chip. CELL and RSX have close relationship and both can access the main memory and the VRAM transparently. CELL can access the VRAM just like the main memory, and RSX can use the main memory as a frame buffer. They are just separated for the main usage, and do not really have distinction.
http://psinext.e-mpire.com/index.php?categoryid=17&m_articles_articleid=36


Ebenso kann der Framebuffer direkt in den Cell geschrieben werden über den 35GB/s Bus Cell<->RSX, der keine Bandbreite des XDR Rams schluckt, was sicher auch nette, schnelle Möglichkeiten eröffnet. :)

Noch was von nAo, wie das möglicher Weise realisiert wird mit dem splitbaren Framebuffer:
One can use GDDR3 bandwith just for framebuffer read/write..but then what about the remaining 200 mb of memory? Wink
The best solution, imho, is to split even frame buffer bw between xdr and gddr ram: color buffer in one memory pool and zbuffer in the other one, or 2 channels color buffer in one memory pool and remaining 2 channels + zbuffer in the other memory pool)
Low bandwith requirements data would then be stored in vram.
Obviously I don't know if RSX can read/write from split color/zbuffer or even multi render targets, but from what we know this should be possible.
Developers will have to distribuite bandwith requirements between memory pools to achieve maximum performance and to use all the available memory.
http://www.beyond3d.com/forum/showthread.php?p=477752&highlight=framebuffer+read%2Fwrite#post477752

micki
2006-03-27, 01:47:01
Very encouraging work, by the way. Oh, and on Cell rendering, it might interest you to know that PS3 developers would appear to already be using Cell for rendering in tandem with the GPU - I saw at GDC, for example, that the makers of Warhawk are using a “software volumetric ray-tracer” on some SPUs to render the clouds in the game, mixing the software rendering on Cell with RSX’s hardware rendering. It’s exciting stuff!
naja, würde auf ne perlinnoise map tippen, die kann man "raytracen" so in der art wie man früher voxelspace durchgegangen ist, nur dass man noch zusätzlich eben mehrere perlin ebenen tracet, was den speicherverbrauch sehr weit runterschraubt... volumetrische texturen würden ansonsten wohl kaum in 256kb in ausreichendem masse passen...

betasilie
2006-03-27, 01:59:03
Klasse endlich mal jemanden im Thread zu haben der richtig Ahnung hat.
Ich würde aufpassen beim jubeln. Coda eckt oft in anderen Bereichen des Forums bzgl. seiner Meinung zum Cell an. Demirug oder Neomi z.B. teilen seine Meinung zum Cell überwiegend nicht. ... Coda ist eigentlich sowas wie der Cell-Untergangs-Prediger von der ersten Stunde an. :biggrin:

Wie auch immer, Coda hat schon was drauf, was nicht bedeutet, dass andere Leute mit mehr Erfahrung immer seiner Meinung sind. Von daher sicher toll, dass Coda hier postet, aber mehr Meinungen von guten Leuten wären sicher besser, als auf eine Meinung abzufahren.

Im B3D Forum gibt es massig Diskussionen zum RSX und der PS3. Und da gehen sicherlich nicht alle Leute konform mit ihren Meinungen, ebenso wie auch die diversen Entwicklerprofis durchaus unterschiedliche Ansichten zur PS3 haben, was auch insbesondere mit dem unterschiedlichem Wissensstand zusammenhängt.

Man kann sich keine wirkliche fachliche Meinung bilden, ohne an der PS3 selbst zu entwickeln und entsprechend von Sony mit Fachinfos ausgestattet zu sein. Das sollte wohl klar sein.

mbee
2006-03-27, 08:36:52
Man kann sich keine wirkliche fachliche Meinung bilden, ohne an der PS3 selbst zu entwickeln und entsprechend von Sony mit Fachinfos ausgestattet zu sein. Das sollte wohl klar sein.

Wenn es so ist, dann dürftest Du Deine Postings in dieser Richtung allerdings auch nicht so absolut formulieren, wie Du es jedesmal tust bzw. traue ich Coda in der Hinsicht doch ein wenig mehr Fachwissen als Dir zu (no pun intended).

Lost Boy
2006-03-27, 09:49:55
Hast recht. Wenn man überlegt, dass man da auch noch den Code mit reinquetschen soll X-D


Code wird nicht das problem sein.

Spectrum
2006-03-27, 10:40:05
... aber Cell ist eben kein Chip von dem man automatische Performancewunder erwarten sollte
Stimmt, eine ´die PS3 wird 1000 mal stärker als ein PC´ Ankündigung finde ich noch immer lustig. Der Cell ist für spezielle Anwendungen sinnvoll und leistungsstark, aber Spiele gehören nicht dazu.
Die SPUs besitzen jeweils nur 7 Millionen Transistoren für die Logik + 14 Millionen fürs SRAM. Diese Rechenknechte muss der Power PC Kern komplett verwalten [füttern, weiterleiten usw.]. Für wissenschaftliche Berechnungen eine feine Sache. Bei den sehr flexiblen Routinen von Spielen aber uneffektiv bis kaum nutzbar.

Man kann sich keine wirkliche fachliche Meinung bilden, ohne an der PS3 selbst zu entwickeln und entsprechend von Sony mit Fachinfos ausgestattet zu sein. Das sollte wohl klar sein.
Stimmt einerseits. Aber ich würde z.B. keinen 60PS Polo nehmen, um ein Formel 1 Rennen zu fahren. Mir wäre das Resultat vorher absehbar.
Sony wird für den Aufbau der PS3 einen Grund haben. Ich kann mir kaum vorstellen, wie die auf ein völlig falsches Pferd setzen. Aber bisher sehe ich die von Sony versprochene Leistung nicht. Mir ist auch völlig unklar, wo die je herkommen kann.

Jesus
2006-03-27, 12:27:17
Diese Rechenknechte muss der Power PC Kern komplett verwalten [füttern, weiterleiten usw.]. Für wissenschaftliche Berechnungen eine feine Sache. Bei den sehr flexiblen Routinen von Spielen aber uneffektiv bis kaum nutzbar. .

Nein muss er nicht. Jede SPU ist GP und kann eigentständig (via DMA) auf den Hauptspeicher zugreifen. Anfangs werden Spiele auch noch so programmiert werden dass der "Main Loop" im PPU läuft, man liest aber bereits dass Entwickler (Deano Calver z.b. siehe sein Blog) dahingehend entwickeln wollen dass der Hauptteil der Arbeit wirklich in den SPEs läuft und die PPU nur noch im Hintergrund für weniger wichtige Aufgaben benutzt wird um das maximum an Performance zu erreichen.

I’ll make a prediction for how PS3 games will evolve.
1st Gen: PPU used for most things with the SPUs just doing some heavy lifting
2nd Gen: PPU still dominant but SPUs doing a lot more tasks.
3rd Gen: SPU completely dominant with PPU now more of a game coprocessor.

I expect the third generation of PS3 titles will really shine, the first engine that is really SPU centric and just treats the PPU as a coprocessor is going to kick arse. The SPUs are fast like greased lightning but just require a different paradigm thats not going to be fully incorporated for a few generations…

Spectrum
2006-03-27, 12:53:27
Die Grundlagenartikel zum Cell sagen etwas anderes. Dort wird der PPC Kern immer als Kontrolleinheit bezeichnet, die den SPUs Aufgaben zuteilt und diese verwaltet.

Wie wäre ein Link zu einer Quelle jenseits eines Blogs, die die SPUs als autark arbeitende Prozessoren benennt? Und was soll eine SPU mit nur 7 Millionen Logiktransistoren als eigene Einheit leisten können?

Coda
2006-03-27, 13:37:59
Code wird nicht das problem sein.Jain. Es sind wohl so 5-20KiB die man auf einmal reinladen wird, aber dennoch zieht es nochmal etwas von den 256KiB ab.

Coda
2006-03-27, 13:44:53
Nein muss er nicht. Jede SPU ist GP und kann eigentständig (via DMA) auf den Hauptspeicher zugreifen. Anfangs werden Spiele auch noch so programmiert werden dass der "Main Loop" im PPU läuft, man liest aber bereits dass Entwickler (Deano Calver z.b. siehe sein Blog) dahingehend entwickeln wollen dass der Hauptteil der Arbeit wirklich in den SPEs läuft und die PPU nur noch im Hintergrund für weniger wichtige Aufgaben benutzt wird um das maximum an Performance zu erreichen.Die PPU muss sehr wohl den SPEs die Tasks geben.

http://www.kernel.org/git/?p=linux/kernel/git/torvalds/linux-2.6.git;a=blob;f=Documentation/filesystems/spufs.txt

The spu_run system call is used on PowerPC machines that implement the Cell Broadband Engine Architecture in order to access Synergistic Processor Units (SPUs). It uses the fd that was returned from spu_create(2) to address a specific SPU context. When the context gets scheduled to a physical SPU, it starts execution at the instruction pointer passed in npc.

Execution of SPU code happens synchronously, meaning that spu_run does not return while the SPU is still running. If there is a need to execute SPU code in parallel with other code on either the main CPU or other SPUs, you need to create a new thread of execution first, e.g. using the pthread_create(3) call.

When spu_run returns, the current value of the SPU instruction pointer is written back to npc, so you can call spu_run again without updating the pointers.Im Endeffekt sind die Teile wirklich so gebaut dass die PPU sie mit Tasks füttert.

Man könnte theoretisch wirklich nur einmal Code reinschmeißen und sie dann anwerfen, aber ich glaube kaum dass man die ganzen Interdependencies eines Gameloops auf 256KiB local storage runterbrechen kann das sich dann automatisch in Absprache mit den anderen den nächsten Code selbsständig holt etc. Das ist einfach unrealistisch und entspricht bestimmt nicht dem Konzept den die CPU-Designer im Sinn hatten.

Was der Typ in dem Interview meint ist, dass man immer mehr Tasks auf die SPUs verlegen wird. Logisch - sonst ist das Ding ja auch schweinelahm :tongue:

drmaniac
2006-03-27, 14:15:31
Ich dachte die PS3 wäre fertig.

Es sollte doch nur noch am Bluray Laufwerk liegen, die ganze Verspätung...

und jetzt, aua, kommt sowas von NVIDIA:

http://www.golem.de/0603/44277.html


Der Chip ist also "fast" fertig? :confused:

dildo4u
2006-03-27, 14:18:41
Ich dachte die PS3 wäre fertig.

Es sollte doch nur noch am Bluray Laufwerk liegen, die ganze Verspätung...

und jetzt, aua, kommt sowas von NVIDIA:

http://www.golem.de/0603/44277.html


Der Chip ist also "fast" fertig? :confused:
Is doch gut die Final DEv kits gibst erst im Juni bis dahin können sie doch den RSX weiter verbessern vieleicht haben sie noch so Optemierungen vorgenommen wie Nvidia am G71 weniger Stromverbrauch ect.

just4FunTA
2006-03-27, 14:23:14
Ich dachte die PS3 wäre fertig.

Es sollte doch nur noch am Bluray Laufwerk liegen, die ganze Verspätung...

und jetzt, aua, kommt sowas von NVIDIA:

http://www.golem.de/0603/44277.html


Der Chip ist also "fast" fertig? :confused:

Na zumindest ist damit nun die Diskussion vom Tisch ob es schon seit Anfang des Jahres Final RSX und Final Cell in den PS3devkits gibt. Wobei ich auch meine mich zu erinnern vor ner ganzen weile was von RSX Final Tapeout gelesen zu haben. :|

ShadowXX
2006-03-27, 14:48:48
Na zumindest ist damit nun die Diskussion vom Tisch ob es schon seit Anfang des Jahres Final RSX und Final Cell in den PS3devkits gibt. Wobei ich auch meine mich zu erinnern vor ner ganzen weile was von RSX Final Tapeout gelesen zu haben. :|

Dito.

Ich bin auch der Meinung schon vor längerer Zeit irgendwo gelesen zu haben, das der RSX fertig ist (kam auch von einem nV-Typen).

Irgendwie ist das bei Sony Meldungstechnisch momentan etwas konfus und teilweise widersprüchlich.

Spectrum
2006-03-27, 14:49:37
Logisch - sonst ist das Ding ja auch schweinelahm :tongue:
... und eben darin wird das Problem liegen, deshalb sieht man von der PS3 auch bislang kaum was echtes.

Vor längerer Zeit sagte die PS3 Gerüchteküche:
"A reliable source close to Sony's plans explained the way the Playstation3 works to the INQUIRER.
He said that the computers are made of cells, each one containing a CPU, which will probably be a PowerPC, and eight APUs (vectorial processors) each with 128K of memory.
It will run at 4GHz, producing a not inconsiderable 256Gflops, with the cells connected to the central 64MB memory through a switched 1024 bit bus.
It's still not clear how many of these "cells" will be used in the Playstation3, but Sony reckoned some time ago it could be as many as one teraflop, probably making it a four cell architecture."

Soweit die frühere Spekulation, die man öfters las. Anstatt 4 Cells mit 4Ghz gibt es jetzt nur einen Cell mit 3,2Ghz. Sollten die angegebenen Höchstleistungen stimmen, dann ist dieser eine Cell bei unter 200Gflops. Und dieses bei einer massiv parallelen Verarbeitung starrer Codes, die es bei Spielen nicht gibt. Die tatsächlich nutzbare Leistung bei Spielen ist nur ein sehr kleiner Bruchteil dieses Wertes.

Microsoft und Nintendo verbauen auch keine Rechenmonster, einer dieser Power PC Kerne ist gegen einen AMD/Intel Prozessor chancenlos. Aber mehrere nicht sonderlich starker aber wenigstens vollwertiger Kerne sind für eine Spielekonsole ein guter Weg. Mehr kann man auch nicht erwarten, sonst wird es zu teuer.

Und die Sache mit den PS3-Devkits: Die Hoffnung stirbt zuletzt, vielleicht dreht Sony noch stark was an der Spezifikation. Mehr Cells, bessere GPU, mehr Speicher - irgendwoher muss die bislang fehlende Leistung kommen.

Gast
2006-03-27, 15:00:37
Na zumindest ist damit nun die Diskussion vom Tisch ob es schon seit Anfang des Jahres Final RSX und Final Cell in den PS3devkits gibt. Wobei ich auch meine mich zu erinnern vor ner ganzen weile was von RSX Final Tapeout gelesen zu haben. :|

Das ist eben das Internet, man weiß nie was wahr ist und 90% sind reiner inhaltsloser Müll.
Wie mein Posting. ^^


Ich hoffe echt sie haben das Pad deutlich verändert.
So in Richtung 360 Pad wäre klasse.
Dann brauch ich mich nicht umgewöhnen. :)

Woddy
2006-03-27, 15:01:14
Das ist eben das Internet, man weiß nie was wahr ist und 90% sind reiner inhaltsloser Müll.
Wie mein Posting. ^^


Ich hoffe echt sie haben das Pad deutlich verändert.
So in Richtung 360 Pad wäre klasse.
Dann brauch ich mich nicht umgewöhnen. :)

Das war ich.
Sorry, war nicht eingeloggt.

dildo4u
2006-03-27, 15:03:38
Ich hoffe echt sie haben das Pad deutlich verändert.
So in Richtung 360 Pad wäre klasse.
Dann brauch ich mich nicht umgewöhnen. :)
Warum sollte man das beste Pad ever in richtung X-Box Pad verändern?

Lost Boy
2006-03-27, 15:05:50
irgendwoher muss die bislang fehlende Leistung kommen.


Momentan scheint es so, dass Sony die stärkste Hardware hat. Von fehlender leistung zu sprechen finde ich daher etwas übertrieben....

Woddy
2006-03-27, 15:07:45
Warum sollte man das beste Pad ever in richtung X-Box Pad verändern?

Weil das mein Lieblingpad ist.
Keine Ahnung wo dran es liegt.
Ich komme mit dem 360 Pad am besten klar und hoffe einfach das die anordnung der Sticks ähnlich wird.

Coda
2006-03-27, 15:31:20
Falsch. Der Framebuffer kann definitv aufgesplittet werden auf XDR und GDDR3, das wurde in einem Interview von offizieller Seite gesagt.


Meinst Du oder weißt Du? Und niemand sagt, dass der XDR-Speicher ein Grafikspeicher ist. Nicht ohne Grund hat Sony zwei verschiedene Speichertypen verbaut, obwohl sie erst keinen GDDR3 geplant hatten und alles mit XDR laufen lassen wollten. Aber ebenfalls nicht ohne Grund hat Sony dem RSX die volle theoretische XDR Bandbreite gegeben und zusätzlich noch einen Bus für Cell<->RSX, damit die Bandbreite XDR<->RSX nicht ausgebremst wird. ;)


Natürlich wird der Cell Speicherbandbreite verbauchen, aber wieviel, weiß man wohl erst nach viel praktischer Erfahrung und je nach Engine- und Spielekonzept. Aber auch hier ist es doch wieder klar, dass Sony nicht den Aufwand betreiben würde und drauf hinweisen, dass der FB ganz oder zum Teil im XDR liegen kann, wenn das nicht sinnvoll wäre.


Ok, ich suche ..............

Oh, man, ich finde das Interview leider nicht mehr, wo ausdrücklich gesagt wurde, dass der Framebuffer auf XDR und GDDR3 aufgesplitted werden kann. Ich habe das aber definitv in einem Interview gelesen.

Naja, das hier war ja klar:
For example, RSX is not a variant of nVIDIA's PC chip. CELL and RSX have close relationship and both can access the main memory and the VRAM transparently. CELL can access the VRAM just like the main memory, and RSX can use the main memory as a frame buffer. They are just separated for the main usage, and do not really have distinction.
http://psinext.e-mpire.com/index.php?categoryid=17&m_articles_articleid=36


Ebenso kann der Framebuffer direkt in den Cell geschrieben werden über den 35GB/s Bus Cell<->RSX, der keine Bandbreite des XDR Rams schluckt, was sicher auch nette, schnelle Möglichkeiten eröffnet. :)

Noch was von nAo, wie das möglicher Weise realisiert wird mit dem splitbaren Framebuffer:
One can use GDDR3 bandwith just for framebuffer read/write..but then what about the remaining 200 mb of memory? Wink
The best solution, imho, is to split even frame buffer bw between xdr and gddr ram: color buffer in one memory pool and zbuffer in the other one, or 2 channels color buffer in one memory pool and remaining 2 channels + zbuffer in the other memory pool)
Low bandwith requirements data would then be stored in vram.
Obviously I don't know if RSX can read/write from split color/zbuffer or even multi render targets, but from what we know this should be possible.
Developers will have to distribuite bandwith requirements between memory pools to achieve maximum performance and to use all the available memory.
http://www.beyond3d.com/forum/showthread.php?p=477752&highlight=framebuffer+read%2Fwrite#post477752Ich ging davon aus, dass Framebuffer=Color. Dass Z auf XDR gelegt werden kann ist natürlich möglich.

Ich rede nur davon dass ein Rendertarget/Buffer etc. sicher nicht auf beide Interfaces gelegt werden kann. Damit ist es garantiert nicht transparent möglich beide Interfaces für RSX zu benützen.

Und wie gesagt, das Interface über Cell/XDR ist nicht unterteilt und das ist für eine GPU ziemlich wichtig.

Demirug oder Neomi z.B. teilen seine Meinung zum Cell überwiegend nicht.Dann frag sie doch bitte mal. Du wirst dich wundern.

Ich antworte aber nicht mehr auf diese Posts, es hat eh keinen Zweck.

ShadowXX
2006-03-27, 15:39:23
... und eben darin wird das Problem liegen, deshalb sieht man von der PS3 auch bislang kaum was echtes.

Vor längerer Zeit sagte die PS3 Gerüchteküche:
"A reliable source close to Sony's plans explained the way the Playstation3 works to the INQUIRER.
He said that the computers are made of cells, each one containing a CPU, which will probably be a PowerPC, and eight APUs (vectorial processors) each with 128K of memory.
It will run at 4GHz, producing a not inconsiderable 256Gflops, with the cells connected to the central 64MB memory through a switched 1024 bit bus.
It's still not clear how many of these "cells" will be used in the Playstation3, but Sony reckoned some time ago it could be as many as one teraflop, probably making it a four cell architecture."

Soweit die frühere Spekulation, die man öfters las. Anstatt 4 Cells mit 4Ghz gibt es jetzt nur einen Cell mit 3,2Ghz. Sollten die angegebenen Höchstleistungen stimmen, dann ist dieser eine Cell bei unter 200Gflops. Und dieses bei einer massiv parallelen Verarbeitung starrer Codes, die es bei Spielen nicht gibt. Die tatsächlich nutzbare Leistung bei Spielen ist nur ein sehr kleiner Bruchteil dieses Wertes.

Jo...diese alten Specs kenne ich auch noch.
Sogar aus vertrauenswürdigeren Quellen als dem INQ.

Sony war damals (bzw. der/die Köpfe hinter der PS3) IMHO davon ausgegangen, das man keine seperate GPU brauchen wird, sondern das die (4) Cells alles alleine erledigen können.

Irgendwann hat dann wohl einer die Notbremse gezogen, als man merkte, das die Cells doch keine eierlegenden Wollmilchsäue sind, und nV wurde in Boot geholt.
Ab wann bei Sony umgedacht werden musste im Konzept der PS3 werden wir wohl nie erfahren.....aber IMO ist auch dies ein Grund, warum sich die PS3 verschob (BlueRay ist IMHO nur "der" Aufhänger nach aussen).

Jesus
2006-03-27, 16:01:23
Soweit die frühere Spekulation, die man öfters las. Anstatt 4 Cells mit 4Ghz gibt es jetzt nur einen Cell mit 3,2Ghz. Sollten die angegebenen Höchstleistungen stimmen, dann ist dieser eine Cell bei unter 200Gflops.

Nö ist er nicht. Es gibt schon längst Benchmarks für sowas, einfach mal googeln... :rolleyes:

Spectrum
2006-03-27, 16:22:03
Irgendwann hat dann wohl einer die Notbremse gezogen, als man merkte, das die Cells doch keine eierlegenden Wollmilchsäue sind, und nV wurde in Boot geholt.
Ab wann bei Sony umgedacht werden musste im Konzept der PS3 werden wir wohl nie erfahren.....aber IMO ist auch dies ein Grund, warum sich die PS3 verschob (BlueRay ist IMHO nur "der" Aufhänger nach aussen).
So sehe ich es auch. Vielleicht basieren die bekannten Rendervideos auch noch auf früheren 4 Cell Annahmen, dieses würde einiges erklären.

Jesus, wenn es aussagekräftige Leistungsangaben eines Cell gibt, immer her damit. Ich bin lernfähig. Aber bitte keine schöngerechneten Marketingbotschaften, die für die tatsächliche Spieleanwendung völlig irrelevant sind. Und hast Du eine fundierte Quelle gefunden, die deine Ansicht über den Einsatz der SPUs untermauert?

betasilie
2006-03-27, 16:33:35
So sehe ich es auch. Vielleicht basieren die bekannten Rendervideos auch noch auf früheren 4 Cell Annahmen, dieses würde einiges erklären.

Das Konzept Cell als Pixelschleuder ist schon vor Jahren aufgegeben worden.

Und wer sagt dir, dass die pre-Rendert Videos nicht ansatzweise erreicht werden? Motorstorm sieht nahezu genauso aus, wie in dem Video, was ich bisher gesehen habe. Jedenfalls was Partikelphysik, Fahrzeugmodell und Beleuchtung angeht. Nur ist es halt eine Techdemo und man sieht kein Rennen mit anderen Fahrzeugenund nur eine triste Demomap.

Überhaupt sollte man abwarten, bevor nicht mehr und hoheraufgelöstes Material zur Verfügungn steht. Im Mai wissen wir mehr.

Jesus
2006-03-27, 17:01:09
So sehe ich es auch. Vielleicht basieren die bekannten Rendervideos auch noch auf früheren 4 Cell Annahmen, dieses würde einiges erklären.

Jesus, wenn es aussagekräftige Leistungsangaben eines Cell gibt, immer her damit. Ich bin lernfähig. Aber bitte keine schöngerechneten Marketingbotschaften, die für die tatsächliche Spieleanwendung völlig irrelevant sind. Und hast Du eine fundierte Quelle gefunden, die deine Ansicht über den Einsatz der SPUs untermauert?

Hast du dich eigentlich nur zum bashen registriert? :rolleyes:

Aber naja bitte schön, die sind jetzt von IBM, es gibt aber auch "unabhängige". (jaja jetzt hör ich gleich wieder IBM macht ihre eigenen CPUs schlecht um ihre eigene CPU besser darstehen zu lassen ;) )

http://img360.imageshack.us/img360/3042/cellperf8ht.jpg

Der Performancevortiel kommt vorallem auch von der Speicheranbindung:

http://www.casesconference.org/cases2005/pdf/Cell-tutorial.pdf (85)

2.0 GHz Apple G5 0.6 frames/sec
• 40% of cycles spent waiting for Memory

3.2 GHz Cell 30.0 frames/sec
• 1% of cycles spent waiting for Memory

Cell has 50x advantage

Allerdings ist das auch der falsche Thread für technische Spekulation, daher EOD.

TheCounter
2006-03-27, 18:00:27
Neuer Lair Screenshot:

http://www.videospiele.com/images/screenshots/200603271715230.lair.jpg

Scheint die UE3 zu nutzen.

Coda
2006-03-27, 18:16:18
Scheint die UE3 zu nutzen.Machst du das an dem Screenshot fest? Wenn ja, dann sei dir gesagt, dass die meisten Next-Gen-Titel wohl so aussehen werden.

dildo4u
2006-03-27, 18:18:01
Neuer Lair Screenshot:

http://www.videospiele.com/images/screenshots/200603271715230.lair.jpg

Glaub ich kaum Factor 5 kann auch ganz gut allein eine sher gut aussehende Konsolen Engine Programmieren.

betasilie
2006-03-27, 18:20:58
Machst du das an dem Screenshot fest? Wenn ja, dann sei dir gesagt, dass die meisten Next-Gen-Titel wohl so aussehen werden.
Und überhaupt hängt die Optik primär vom Contentdesign ab und nicht von der Engine, zumal im Zeitalter von SM3.0 die Shader auch technisch extrem flexible optische Eindrücke zulassen.

Shaft
2006-03-27, 19:08:19
Glaub ich kaum Factor 5 kann auch ganz gut allein eine sher gut aussehende Konsolen Engine Programmieren.


Glaub ich auch das es eine Eigene Engine ist, aber kann man schlecht anhand eines Bild ausmachen. So siehts ganz nett aus.

TheCounter
2006-03-27, 19:28:56
Machst du das an dem Screenshot fest? Wenn ja, dann sei dir gesagt, dass die meisten Next-Gen-Titel wohl so aussehen werden.

Naja, sieht der UE3 halt extrem ähnlich. Zumindest wenn man sich Gears of War naguckt das ja genauso aussieht. Kann aber auch sein das es ne eigene Engine ist.

Jesus
2006-03-27, 20:08:53
So wies aussieht könnte der RSX doch etwas mehr sein als eine 7800. Zumindest gibts hier im OpenGL ES (PSGL Extension) Standard einige Extensions dies so nicht auf den bisherigen Nvidia Karten gibt.

http://www.khronos.org/developers/content/GDC_2006/GLESTutorial07-PlayStation_GL.ppt (Slides von der GDC)

Spectrum
2006-03-27, 20:09:40
Allerdings ist das auch der falsche Thread für technische Spekulation, daher EOD.
Stimmt, deshalb auch von mir hierzu letzte Anmerkungen.

Hast du dich eigentlich nur zum bashen registriert? :rolleyes:
Nein, zum diskutieren. Dazu gehört für mich der Austausch auch konträrer Argumente. Deinen Einsatz von Smileys verstehe ich übrigens nicht.

Die Performanceangaben überzeugen mich nicht, natürlich ist ein Cell z.B. bei einer Matrizenmultiplikation sehr schnell. Davon hat man bei Spielen nur nichts, aber natürlich pickt sich jeder immer die passenden Rosinen raus. Um mit Kaiser Franz zu sprechen, schaun mer mal - was am Ende wirklich dabei rauskommt.

Jesus
2006-03-27, 20:15:00
Die Performanceangaben überzeugen mich nicht, natürlich ist ein Cell z.B. bei einer Matrizenmultiplikation sehr schnell. Davon hat man bei Spielen nur nichts, aber natürlich pickt sich jeder immer die passenden Rosinen raus. Um mit Kaiser Franz zu sprechen, schaun mer mal - was am Ende wirklich dabei rauskommt.

Ne is klar. Sorry was soll ich dazu noch sagen? Sony hat sich ne CPU gebastelt für ihre Spielkonsole die aber leider nicht zum spielen taugt? Alles klar. :| (ich hoffe den smiley verstehst du wenigstens).

mbee
2006-03-27, 20:22:23
Der Cell ist ja ein "Multi-Purpose-Prozessor" und wurde nicht nur von Sony (und auch nicht ausschließlich federführend von ihnen) entwickelt. Dass er nicht für eine Konsole taugt, ist natürlich Quatsch, aber genau so wenig ist das Teil eine "exklusive" Konsolen-CPU und gewisse Kompromisse müssen bei so einer Architektur wohl von jeder Partei an die jeweils anderen beiden zugestanden werden.

betasilie
2006-03-27, 20:48:50
Naja, sieht der UE3 halt extrem ähnlich. Zumindest wenn man sich Gears of War naguckt das ja genauso aussieht. Kann aber auch sein das es ne eigene Engine ist.
Es sieht nicht der Engine ähnlich, sondern ggf. dem Spiel, was Du anführst. :rolleyes:

betasilie
2006-03-27, 20:50:05
Die Performanceangaben überzeugen mich nicht, natürlich ist ein Cell z.B. bei einer Matrizenmultiplikation sehr schnell. Davon hat man bei Spielen nur nichts, aber natürlich pickt sich jeder immer die passenden Rosinen raus. Um mit Kaiser Franz zu sprechen, schaun mer mal - was am Ende wirklich dabei rauskommt.
Achso, Du meinst also, dass Sony den Cell entwicklet hat, weil er für Gamecode nicht geeignet ist? :rolleyes:

Der Cell ist ja ein "Multi-Purpose-Prozessor" und wurde nicht nur von Sony (und auch nicht ausschließlich federführend von ihnen) entwickelt. Dass er nicht für eine Konsole taugt, ist natürlich Quatsch, aber genau so wenig ist das Teil eine "exklusive" Konsolen-CPU und gewisse Kompromisse müssen bei so einer Architektur wohl von jeder Partei an die jeweils anderen beiden zugestanden werden.
Sony hat den ganz großen Teil der Entwicklungskosten getragen, das Design bestimmt und dementsprechend wird Cell im großen Stil bisher nur für die PS3 eingesetzt. Cell ist ein Sony-Produkt für die PS3 und Toshiba und IBM müssen erstmal schauen, was sie so mit Cell anfangen können, oder mit Teilen dieser Technologie.

Nur weil andere Firmen sich zum Teil an der Entwicklung beteiligt haben, heißt das nicht, dass Cell nicht primär als ein reinrassiger Konsolenchip für die PS3 entwicklet wurde.

Gast
2006-03-27, 20:53:42
Achso, Du meinst also, dass Sony den Cell entwicklet hat, weil er für Gamecode nicht geeignet ist? :rolleyes:

Wie du vielleicht einige Post oben entnehmen konntest, ist der Cell eine Gemeinschaftsentwicklung und eben primär nicht für die PS3 gedacht gewesen.

betasilie
2006-03-27, 20:57:30
Wie du vielleicht einige Post oben entnehmen konntest, ist der Cell eine Gemeinschaftsentwicklung und eben primär nicht für die PS3 gedacht gewesen.
Und wie Du direkt über dir lesen kannst, stimmt das nicht. Die Cell Entwicklung wurde zu über 90% von SCE getragen, was wohl klar stellen sollte, wer den Chip maßgeblich entwickelt hat und in Hinblick auf welchen Einsatz.

Toshiba wird Teile des Cell ggf. für Videodekodierung einsetzen und IBM hofft darauf den Cell für Server zu etablieren, was scheinbar nicht allzu gut läuft ATM.

Die Idee vom Cellkonzept wurde von Sony entwickelt in Hinblick auf die PS3 schon vor vielen Jahren. Die Partner sind danach mit eingestiegen, wobei das bei Toshiba nicht verwundert, die schon die EE mitentwickelt haben.

Gast
2006-03-27, 20:59:51
Und wie Du direkt über dir lesen kannst, stimmt das nicht. Die Cell Entwicklung wurde zu über 90% von SCE getragen, was wohl klar stellen sollte, wer den Chip maßgeblich entwickelt hat und in Hinblick auf welchen Einsatz.

Toshiba wird Teile des Cell ggf. für Videodekodierung einsetzen und IBM hofft darauf den Cell für Server zu etablieren, was scheinbar nicht allzu gut läuft ATM.

Und das kannst du natürlich auch alles wieder mit Fakten und Quellen beweisen?

betasilie
2006-03-27, 21:05:11
Und das kannst du natürlich auch alles wieder mit Fakten und Quellen beweisen?
Mach dich nicht lächerlich. Als ob ich so einem Troll wie dir die Arbeit abnehme sich zu belesen. Die Wirtschaftsmeldungen, dass Sony durch die Entwicklung von Cell in den letzten Jahren hunderte von Millionen verpulvert hat, weil sie die Entwicklungskosten zu über 90% tragen, sollte wohl jeder gelesen haben, der sich ein bischen mit der Thematik beschäftigt. :rolleyes:

EOD mit Trollgast.

Gast
2006-03-27, 21:07:45
Mach dich nicht lächerlich. Als ob ich so einem Troll wie dir die Arbeit abnehme sich zu belesen. Die Wirtschaftsmeldungen, dass Sony durch die Entwicklung von Cell in den letzten Jahren hunderte von Millionen verpulvert hat, weil sie die Entwicklungskosten zu über 90% tragen, sollte wohl jeder gelesen haben, der sich ein bischen mit der Thematik beschäftigt. :rolleyes:

EOD mit Trollgast.

Statt Fakten kommen mal wieder nur persönliche Anfeindungen.

betasilie
2006-03-27, 21:08:49
Statt Fakten kommen mal wieder nur persönliche Anfeindungen.
Statt zu spamen solltest Du mal google anwerfen. :rolleyes:

Echt zum kotzen die "Gäste" hier. ;(

Lost Boy
2006-03-27, 21:37:19
Naja, sieht der UE3 halt extrem ähnlich. Zumindest wenn man sich Gears of War naguckt das ja genauso aussieht. Kann aber auch sein das es ne eigene Engine ist.



Maniac: Benutzt ihr überhaupt fertige Grafik-Engines oder programmiert ihr alles selbst?

Julian Eggebrecht: Wir haben noch nie Middleware-Engines benutzt, da sie uns im Endeffekt zu sehr einschränken würden. Es gibt nichts besseres als eine eigene Engine, wenn es darum geht Konsolen bis zur Grenze auszunutzen.

;)

Jesus
2006-03-27, 22:01:22
Spekulation: Lieferengpässe für Europa?

SCEE UK Chef Ray Maguire hat nun betont, dass mit einer fast sicheren Hardwareknappheit zu rechnen ist. "Of course the launch is important but we are looking at a long term business plan. It is impractical to believe you can fulfil every single order. But we are going to do the best job we can to deliver what we hope will be a world beating console."

xL|Sonic
2006-03-27, 22:12:08
Spekulation: Lieferengpässe für Europa?

Naja das ist ja auch abzusehen. Ein weltweit gleichzeitiger Launch ist nen Mammutprojekt, die Nachfrage wird man nie decken können, wenn man nicht schon nen halbes Jahr vorher die Produktion extrem anschmeisst und wartet, bis man ein ausreichendes Kontingent für alle Länder zur Verfügung hat.
Ich denke, der Launch wird ähnlich ablaufen wie bei der Xbox 360.
Wer sicher gehen will bestellt sie sich vor, die anderen müssen Glück am Launchtag haben und früh aufstehen.

Coda
2006-03-27, 22:45:23
Mach dich nicht lächerlich. Als ob ich so einem Troll wie dir die Arbeit abnehme sich zu belesen. Die Wirtschaftsmeldungen, dass Sony durch die Entwicklung von Cell in den letzten Jahren hunderte von Millionen verpulvert hat, weil sie die Entwicklungskosten zu über 90% tragen, sollte wohl jeder gelesen haben, der sich ein bischen mit der Thematik beschäftigt. :rolleyes:

EOD mit Trollgast.Ich würde mich auch gern über eine Quelle freuen. Wikipedia sagt nämlich auch etwas anderes.

In 2000, Sony Computer Entertainment Inc., Toshiba Corp., and IBM formed an alliance ("STI") to design and build the processor. The STI Design Center in Austin, Texas opened in March 2001. [1] The Cell was designed over a period of four years, using enhanced versions of the design tools for the POWER4 processor. Over 400 engineers from the three companies worked together in Austin, with critical support from eleven of IBM's design centers. [2]Das hört sich eher so an als hätte IBM da maßgeblich das sagen gehabt.

Ach btw. Ich glaube schon dass Cell etwas an den Spielen für die PS3 verändern wird, vor allem bei Dingen die auf Cell gut laufen (also irgendwelche massiven Physiksimulationen etc.), aber es wird eben an anderer Stelle mächtig hapern ;)