PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche Konsole hat welchen Grafikchip? ...


kahlchen
2007-09-04, 03:30:58
... Und wie ist dieser dann vom Design her mit den Desktop-GPU's zu vergleichen?

X-Box 360 -> Xenos -> vergleichbar 2900xt ?

Was ist mit PS3, ...

Danke im Voraus :)

=Floi=
2007-09-04, 04:02:30
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361906&highlight=konsolen+chips
suchst du sowas?

Spasstiger
2007-09-04, 04:13:42
Xbox 360:
Xenos, ist nicht zu vergleichen mit einem existierenden PC-Grafikchip, ein abgespeckter R600 (HD2900 XT) würde aber am Ehesten hinkommen. Die Shaderleistung des Xenos beträgt 240 GFlops, die des R600 bei der HD2900 XT dagegen 473 GFlops. Auch hinsichtlich der Füllrate hat der R600 durch den höheren Takt und die zusätzlichen 16 Point-Sampling-TMUs klare Vorteile.
Der positive Effekte des eDRAMs bei Xenos lässt sich schwer abschätzen, dafür steht dem R600 gegenüber Xenos die mindestens fünffache Bandbreite zum eigentlichen Grafikspeicher zur Verfügung. Geht man von portierten PC-Spielen aus, so kommt eine Radeon X1950 Pro am ehesten an die Leistung von Xenos ran. Eine Radeon HD2600 XT ist langsamer.

Playstation 3:
RSX, vergleichbar mit dem Nvidia G71 in Form einer GeForce 7950 GT (der RSX ist fast identisch zum G71). Die Pixelshaderleistung liegt bei theoretischen 211 GFlops (allerdings praktisch kaum nutzbar wegen Pipeline-Stalling bei Texturzugriffen). Zusammen mit der Vertexshaderleistung sind es theoretisch 255 GFlops.
Gegenüber einer GeForce 7950 GT steht dem RSX nur die halbe Speicherbandbreite zur Verfügung, was die Leistung doch sehr schmälern dürfte.

Insgesamt ist Xenos der fortschrittlichere Chip, die 3D-Leistung ist aber bei beiden Chips sehr ähnlich.

Gast
2007-09-04, 08:18:35
Auch hinsichtlich der Füllrate hat der R600 durch den höheren Takt und die zusätzlichen 16 Point-Sampling-TMUs klare Vorteile.


AFAIK hat auch Xenos die zusätzlichen Addressierungseinheiten und die Point Sampling Einheiten.

Gast
2007-09-04, 19:53:59
Dafür das die PS3 viel später kam ist das schon ein bisschen minder. Ich hätte gedacht die legen ein bisschen was vor.

StefanV
2007-09-04, 19:58:45
Ja, man hätte eher 'nen G80 Ableger statt der veralteten CineFX Architektur nehmen sollen.

Flipper bzw der Nachfolger (wie heißt der eigentlich??) ist auch noch etwas ganz ganz anderes als man in PCs vorfindet.

Sterem
2007-09-04, 20:00:44
Passt auf gleich kommt Thade.:cop:

Gast
2007-09-04, 20:02:09
Hollywood und so wahnsinnig anders sind die nicht.


Wie hätte man denn einen G80 da reinbekommen sollen Stefan? Der war zum Entwickler-Launch der PS3 noch gar nicht fertig.

Gast
2007-09-04, 20:11:27
Ja, man hätte eher 'nen G80 Ableger statt der veralteten CineFX Architektur nehmen sollen.

wie hätte das funktionieren sollen? die entwicklerkits sind ja auch so viel zu spät gekommen und stromverbrauch und herstellungskosten wären nochmals in die höhe geschossen.

G80 ist für so ein unterfangen viel zu teuer und die kleinen versionen viel zu schwach.

Gast
2007-09-04, 20:27:36
naja ich dachte das wären next Gen Consolen. Aber diesmal ist der Pc beim Launch schon schneller. Früher war die ps2 zum Launch allen PC´s haushoch überlegen. Ich glaub GF1-2 war damals Aktuell. Doch die würde GT3-4 niemals so schön auf den Schirm zaubern.

Gast
2007-09-04, 20:29:41
naja ich dachte das wären next Gen Consolen. Aber diesmal ist der Pc beim Launch schon schneller. Früher war die ps2 zum Launch allen PC´s haushoch überlegen. Ich glaub GF1-2 war damals Aktuell. Doch die würde GT3-4 niemals so schön auf den Schirm zaubern.
Die PS3 hat mehr als nur den RSX. Der Cell hat durchaus so seine Stärken, an die eine PC-CPU vermutlich auch nächstes Jahr nicht herankommt.

reunion
2007-09-04, 20:33:09
Die PS3 hat mehr als nur den RSX. Der Cell hat durchaus so seine Stärken, an die eine PC-CPU vermutlich auch nächstes Jahr nicht herankommt.

Zum streamen hat ein PC die Grafikkarte und sonst ist Cell einfach nur lahm.

Gast
2007-09-04, 20:34:52
Ich glaub GF1-2 war damals Aktuell. Doch die würde GT3-4 niemals so schön auf den Schirm zaubern.

GF1-2 sind der PS2 in allen belangen außer dem polygondurchsatz deutlich überlegen.

der hohe polygondurchsatz nutzt der PS2 aber fast nix, weil er für praktisch jeden effekt multipass braucht.

tokugawa
2007-09-04, 20:35:18
naja ich dachte das wären next Gen Consolen. Aber diesmal ist der Pc beim Launch schon schneller. Früher war die ps2 zum Launch allen PC´s haushoch überlegen. Ich glaub GF1-2 war damals Aktuell. Doch die würde GT3-4 niemals so schön auf den Schirm zaubern.

Du verwechselst hier schon einiges. Rein technisch, von den Specs, war auch die GeForce 2 dem Graphics Synthesizer überlegen (zumindest in einigen Teilspecs, die 4 MB des GS sind schon sehr mager im Vergleich zu den damals üblichen 32 MB bei der GeForce 2, der GS hatte dafür eine Wahnsinnsfüllrate). Aber der GS hat einige Spezialitäten (unter anderem den Rest der Konsole!), mit denen einige Dinge möglich waren mit denen die GeForce 2 nicht aufwarten konnte.

Und "Schönheit" hat in diesem Fall wenig mit der Hardwaretechnik zu tun, sondern mit talentierten Künstlern.

Ich seh keinen technischen Grund warum die GeForce 2 nicht auch ein Spiel wie GT3-4 rendern hätte können. Was hatte das denn schon für Effekte?

Gast
2007-09-04, 20:37:42
Zum streamen hat ein PC die Grafikkarte und sonst ist Cell einfach nur lahm.
Äh, ja. Da spricht wohl die jahrelange Erfahrung in Programmierung und Design von Mikroprozessoren.

reunion
2007-09-04, 20:40:46
Äh, ja. Da spricht wohl die jahrelange Erfahrung in Programmierung und Design von Mikroprozessoren.

Oh, das Todschlagargument schlechthin. Aber du hast deine Behauptungen über Cell mit Sicherheit durch "jahrelange Erfahrung in Programmierung und Design von Mikroprozessoren" erworben?! :rolleyes:
Man kann ja auch auf das Wissen anderer zurückgreifen, und da gibt es im Web wahrlich genug.

Gast
2007-09-04, 21:13:09
Du verwechselst hier schon einiges. Rein technisch, von den Specs, war auch die GeForce 2 dem Graphics Synthesizer überlegen (zumindest in einigen Teilspecs, die 4 MB des GS sind schon sehr mager im Vergleich zu den damals üblichen 32 MB bei der GeForce 2, der GS hatte dafür eine Wahnsinnsfüllrate). Aber der GS hat einige Spezialitäten (unter anderem den Rest der Konsole!), mit denen einige Dinge möglich waren mit denen die GeForce 2 nicht aufwarten konnte.

Und "Schönheit" hat in diesem Fall wenig mit der Hardwaretechnik zu tun, sondern mit talentierten Künstlern.

Ich seh keinen technischen Grund warum die GeForce 2 nicht auch ein Spiel wie GT3-4 rendern hätte können. Was hatte das denn schon für Effekte?


Spiel mal Gt4, sieht gar nicht so übel aus. Ich kenn kein Autorennen was auf der Gf2 gut aussieht. Bzw fällt mir kaum ein Spiel ein was auf der Gf2 so gut wie Gt4 aussieht. Gt4 ist nur ein Beispiel, vielleicht gibt es noch mehr Ps2 Spiele in der Qualität. Bin da nicht so der Spezialist, hab halt Ps2 für GT3-4 gekauft. Und ja ich weiß was Grafik ist, besitze eine X1900Xt auf nem 4Mb Core 2 Duo @ 3Ghz.

Gruß

Coda
2007-09-04, 21:14:54
Ja, das liegt aber primär im absoluten Ausquetschen der Hardware und guten Artists. Wie tokugawa schon sagte.

Ihm
2007-09-04, 21:35:58
Die PS3 hat mehr als nur den RSX. Der Cell hat durchaus so seine Stärken, an die eine PC-CPU vermutlich auch nächstes Jahr nicht herankommt.

Der Cell ist schnell, wenn die SPU's ausgelastet werden können. In Anwendungen, wo mehr PPU-Leistung notwendig wäre ist schnell Schluss.
Von daher müssen Entwickler versuchen, soviel wie möglich auf die SPU's zu verlagern. Da die SPU's aber keine vollwertigen Prozessoren sind, geht es manchmal einfach nicht.
Aber ja, es stimmt: Die Cell kann in bestimmten Anwendungen deutlich schneller sein, als eine CPU in einem PC. Nur gilt das auch genauso andersherum.

Für Spiele sehe ich QC-Prozessoren jedoch klar im Vorteil.
Gerade in Zukunft mit vier SSE4-Einheiten. Auch wenn wohl erstmal weiterhin auf SSE2 gesetzt werden muss. Logischerweise.

Aber eines darf man natürlich nicht verschweigen:
PS3 und XBox360 Spiele können jetzt schon ihre volle Leistung zeigen, wenn die Entwickler diese nutzen. Das ist halt der entscheidende Vorteil von Konsolen: Alle haben die gleiche Maschine zu Hause stehen. ;)

tokugawa
2007-09-04, 21:43:36
Spiel mal Gt4, sieht gar nicht so übel aus. Ich kenn kein Autorennen was auf der Gf2 gut aussieht. Bzw fällt mir kaum ein Spiel ein was auf der Gf2 so gut wie Gt4 aussieht. Gt4 ist nur ein Beispiel, vielleicht gibt es noch mehr Ps2 Spiele in der Qualität. Bin da nicht so der Spezialist, hab halt Ps2 für GT3-4 gekauft.


Das ist alles "examplarische" Indizenführung. In einer technischen Diskussion ist das eher unsachlich.

"Ich kenn kein" heißt nicht "es ist nicht möglich" auf der GF2.

Und wie gesagt: GT4 ist wohl eher ein Beispiel guten Contents als besonderer Technik. Falls du das Gegenteil behauptest, beweise es mit technischen Fakten: was macht GT4 was technisch so hochstehend ist dass es die GF2 nicht rendern könnte?


Und ja ich weiß was Grafik ist, besitze eine X1900Xt auf nem 4Mb Core 2 Duo @ 3Ghz.
Gruß

Der zweite Teil ist ebenfalls kein Beweis für den ersten Teil des Satzes.



Das ist halt der entscheidende Vorteil von Konsolen: Alle haben die gleiche Maschine zu Hause stehen. ;)

Den gibt's leider auch nicht mehr seitdem Sony bei Hardwarerevisionen (siehe PS2) auch durchaus mal die Hardware in einer Form ändert, dass es mit älterer Software zu Kompatibilitätsproblemen kommt (aktuelles Beispiel das mich betrifft: Übergang von PS2 Revision 70000 zu 75000). Zusätzlich ist es von den TRC-Richtlinien (Technical Requirements Check) nicht erlaubt in der Software verschiedene Revisionen der Hardware speziell zu behandeln.

Von da her ist der Vorteil bei manchen Konsolenherstellern nimmer sooo deutlich, das hab ich leider die letzten Wochen eben gerade bei der PS2 bitter erfahren müssen. Der QA-Aufwand dadurch steigt natürlich enorm.

Gast
2007-09-04, 21:52:26
Das ist alles "examplarische" Indizenführung. In einer technischen Diskussion ist das eher unsachlich.

"Ich kenn kein" heißt nicht "es ist nicht möglich" auf der GF2.

Und wie gesagt: GT4 ist wohl eher ein Beispiel guten Contents als besonderer Technik. Falls du das Gegenteil behauptest, beweise es mit technischen Fakten: was macht GT4 was technisch so hochstehend ist dass es die GF2 nicht rendern könnte?



Der zweite Teil ist ebenfalls kein Beweis für den ersten Teil des Satzes.




Den gibt's leider auch nicht mehr seitdem Sony bei Hardwarerevisionen (siehe PS2) auch durchaus mal die Hardware in einer Form ändert, dass es mit älterer Software zu Kompatibilitätsproblemen kommt (aktuelles Beispiel das mich betrifft: Übergang von PS2 Revision 70000 zu 75000). Zusätzlich ist es von den TRC-Richtlinien (Technical Requirements Check) nicht erlaubt in der Software verschiedene Revisionen der Hardware speziell zu behandeln.

Von da her ist der Vorteil bei manchen Konsolenherstellern nimmer sooo deutlich, das hab ich leider die letzten Wochen eben gerade bei der PS2 bitter erfahren müssen. Der QA-Aufwand dadurch steigt natürlich enorm.


Wenn die GF2 GT4 rendern kann, warum hat dann keiner sowas programmiert?

AnarchX
2007-09-04, 22:01:17
Wenn die GF2 GT4 rendern kann, warum hat dann keiner sowas programmiert?

Weil die IHVs neue Hardware verkaufen wollen und die ISVs bei dem breiten Spektrum an Hardware beim PC keine Möglichkeit haben so extrem auf eine Hardwarebasis zu optimieren.

Coda
2007-09-04, 22:01:23
Und weil's zu dem Zeitpunkt von GT4 schon viel schnellere GPUs für den PC gab. So eine extreme Optimierung gibt's einfach nur bei Konsolen.

Spasstiger
2007-09-04, 22:08:36
GTR dürfte in 640x480 noAA noAF auch auf einer GeForce 2 GTS ordentlich laufen.

Lightning
2007-09-04, 22:38:41
GTR dürfte in 640x480 noAA noAF auch auf einer GeForce 2 GTS ordentlich laufen.

Ließe sich natürlich nachprüfen. Wobei man "laufen" schon genauer spezifizieren muss. Wenn man mit GT3/4 vergleicht, sollte es schon mit guter Performance laufen, in dem Fall also konstanten 60 fps.
Wobei die Frage wäre, ob sich mit einer GeForce 2 Effekte wie die Umgebungsrexflexion auf den Wagen oder Sonnenlicht auf der Straße in GTR aktivieren lassen.

Und wie gesagt: GT4 ist wohl eher ein Beispiel guten Contents als besonderer Technik. Falls du das Gegenteil behauptest, beweise es mit technischen Fakten: was macht GT4 was technisch so hochstehend ist dass es die GF2 nicht rendern könnte?

Möglich wäre es vielleicht durchaus. Wenn man einzig den Grafikchip betrachtet gibt es wohl auch nichts dran zu rütteln, dass der GS featuremäßig weit zurückhinkt.
Dennoch, wenn man das Gesamtsystem betrachtet, halte ich es schon für fraglich, ob ein damaliger "GeForce 2 PC" Tonemapping, Motion Blur, Selfshadowing und Fur Shader in einem Spiel darstellen könnte (hierbei beziehe ich mich auf Shadow of the Colossus, nicht GT). Ganz zu schweigen von den Polygonzahlen.

Ich denke, so, wie die PS2-Architektur ihre Nachteile gegenüber dem PC hatte, auch schon zum Erscheinen, hatte sie doch auch ihre Vorteile, die Dinge ermöglichten, die sich mit einem PC aus dieser Zeit nicht erreichen ließen.

Gast
2007-09-04, 22:42:46
GTR dürfte in 640x480 noAA noAF auch auf einer GeForce 2 GTS ordentlich laufen.


das sieht aber mal richtig übel aus. Wohl kein Vergleich zu GT3 bzw. 4

Gast
2007-09-04, 22:45:34
Wobei die Frage wäre, ob sich mit einer GeForce 2 Effekte wie die Umgebungsrexflexion auf den Wagen oder Sonnenlicht auf der Straße in GTR aktivieren lassen.


colin mcrae in der damals aktuellen version konnte das ja auch.

tokugawa
2007-09-04, 23:51:20
Wenn die GF2 GT4 rendern kann, warum hat dann keiner sowas programmiert?

Wenn du Kinder zeugen kannst, wieso hast du noch nicht 102897 Kinder gezeugt?


Es passiert nicht immer alles, was theoretisch geht.



Wobei die Frage wäre, ob sich mit einer GeForce 2 Effekte wie die Umgebungsrexflexion auf den Wagen oder Sonnenlicht auf der Straße in GTR aktivieren lassen.


Warum denn nicht? Was konnte der Graphics Synthesizer in Hardware, was die GeForce 2 nicht konnte? Da gab's umgekehrt sehr viel mehr was die GeForce 2 konnte, wo man beim Graphics Synthesizer in die schrecklichste und häßlichste Trickkiste greifen muß die man sich programmiertechnisch vorstellen kann.

Render-to-Texture kann die GF2 auch flexibler als der GS. Aber der GS hatte eine massive Füllrate womit extrem viele Passes möglich werden (Stichwort 64-pass normalmapping).

Bei Vergleichen müsste man natürlich auch von derselben Auflösung ausgehen. Bei 640x480 hatte die GeForce 2 auch mächtig Power.


Möglich wäre es vielleicht durchaus. Wenn man einzig den Grafikchip betrachtet gibt es wohl auch nichts dran zu rütteln, dass der GS featuremäßig weit zurückhinkt.
Dennoch, wenn man das Gesamtsystem betrachtet, halte ich es schon für fraglich, ob ein damaliger "GeForce 2 PC" Tonemapping, Motion Blur, Selfshadowing und Fur Shader in einem Spiel darstellen könnte (hierbei beziehe ich mich auf Shadow of the Colossus, nicht GT). Ganz zu schweigen von den Polygonzahlen.


Tonemapping war gefakt bzw eine vereinfachte Variante. Motion Blur ist relativ einfach zu realisieren. Selfshadowing auch, grad mit den Shadow Volumes die Shadow of the Colossus hatte. Fur "Shader" in der Art wie es SotC konnte, konnte es die GeForce 2 auch. Ich hab ja diesen Artikel auch gelesen :)

Bei SotC haben die extrem getrickst, um Dinge zu bekommen (wie eben Shadow Volumes), die auf der GeForce 2 einfach und effizient gehen. Außerdem mußt du bedenken dass SotC ziemlich ruckelt (Drops bis zu 10-15 fps teilweise, und nie über 30 fps).

Ich tät auf der PS2 technisch eher in Richtung tri-ace schauen (http://research.tri-ace.com). Der Gotanda gilt in Japan als ziemlicher Programmiergott - kein Wunder, der hat schon auf dem Super Nintendo extreme Dinge gemacht.

Aber klar, bei der PS2 kommt das Gesamtsystem entgegen. Die Kombination aus extremer Fillrate sowie eine ungewöhnliche CPU mit den zwei Vector Units, sowie dem zusätzlichen IOP mit dem Dinge wie Sound Processing praktisch keine CPU-Zeit in Anspruch nimmt, macht in Summe ein System das sich - wenn man es ausreizen kann - auch viel kann.

Das hat sich bei der GeForce2 und einem PC einfach keiner angetan. Und das ist auch wirklich der einzige Grund warum es angeblich "keine Spiele auf GeForce 2 gab die so gut wie GT4 aussehen".


Ich denke, so, wie die PS2-Architektur ihre Nachteile gegenüber dem PC hatte, auch schon zum Erscheinen, hatte sie doch auch ihre Vorteile, die Dinge ermöglichten, die sich mit einem PC aus dieser Zeit nicht erreichen ließen.

Zu der Zeit mag das sein, dank der ziemlichen Parallelität der PS2. Aber das konnte zum Erscheinen der PS2 auch noch keiner wirklich nutzen, da das Know-How fehlte.

Und ich denke wenn man die GF2 und einen PC von damals wirklich ausgereizt hätte, und vor allem gute Artists gehabt hätte (ein sehr wesentlicher Punkt den man nicht ausklammern darf. Gute Artists machen 90% von guter Grafik aus, selbst bei altbackener Technik!), dann wär der GT4-Fan hier auch leichter zu überzeugen davon.

Ihm
2007-09-05, 00:16:20
Den gibt's leider auch nicht mehr seitdem Sony bei Hardwarerevisionen (siehe PS2) auch durchaus mal die Hardware in einer Form ändert, dass es mit älterer Software zu Kompatibilitätsproblemen kommt (aktuelles Beispiel das mich betrifft: Übergang von PS2 Revision 70000 zu 75000). Zusätzlich ist es von den TRC-Richtlinien (Technical Requirements Check) nicht erlaubt in der Software verschiedene Revisionen der Hardware speziell zu behandeln.

Von da her ist der Vorteil bei manchen Konsolenherstellern nimmer sooo deutlich, das hab ich leider die letzten Wochen eben gerade bei der PS2 bitter erfahren müssen. Der QA-Aufwand dadurch steigt natürlich enorm.

Kann sehr gut sein. Jedoch selbst dann noch kein Vergleich zum PC, wo das Spiel extrem dynamisch gestaltet werden muss. ;)
Das mit dem TRC ist natürlich die Sinnlosigkeit in ihrer reinsten Form. :crazy:

Mich würde interessieren welche Software die Probleme bereitet.

Lightning
2007-09-05, 00:36:58
Warum denn nicht? Was konnte der Graphics Synthesizer in Hardware, was die GeForce 2 nicht konnte? Da gab's umgekehrt sehr viel mehr was die GeForce 2 konnte, wo man beim Graphics Synthesizer in die schrecklichste und häßlichste Trickkiste greifen muß die man sich programmiertechnisch vorstellen kann.

Render-to-Texture kann die GF2 auch flexibler als der GS. Aber der GS hatte eine massive Füllrate womit extrem viele Passes möglich werden (Stichwort 64-pass normalmapping).

Natürlich kann der GS nicht mehr. Die Frage, die ich stellte war allerdings lediglich: Lassen sich in GTR mit einer GeForce 2 diese Effekte aktivieren oder nicht, letzteres z.B., weil es dort über Shader läuft.

Tonemapping war gefakt bzw eine vereinfachte Variante. Motion Blur ist relativ einfach zu realisieren. Selfshadowing auch, grad mit den Shadow Volumes die Shadow of the Colossus hatte. Fur "Shader" in der Art wie es SotC konnte, konnte es die GeForce 2 auch. Ich hab ja diesen Artikel auch gelesen :)

Bei SotC haben die extrem getrickst, um Dinge zu bekommen (wie eben Shadow Volumes), die auf der GeForce 2 einfach und effizient gehen. Außerdem mußt du bedenken dass SotC ziemlich ruckelt (Drops bis zu 10-15 fps teilweise, und nie über 30 fps).

Es ging mir darum, was im Endeffekt tatsächlich möglich ist, Tricks hin oder her. Wie gesagt: Ich glaube dass sich auf der PS2 in mancher Hinsicht letztendlich einfach mehr erreichen lässt als auf einem damaligen PC.

Zu der Zeit mag das sein, dank der ziemlichen Parallelität der PS2. Aber das konnte zum Erscheinen der PS2 auch noch keiner wirklich nutzen, da das Know-How fehlte.

Direkt zum Erscheinen nicht, aber schon GT3 sieht z.B. nur im Detail schlechter aus als GT4 - und erschien immerhin 2001.


Ansonsten bin ich auch der Meinung, dass für gute Grafik in erster Linie guter, stimmiger Content verantwortlich ist und weniger die zugrundeliegende Technik.

Ihm
2007-09-05, 01:10:24
Es ging mir darum, was im Endeffekt tatsächlich möglich ist, Tricks hin oder her. Wie gesagt: Ich glaube dass sich auf der PS2 in mancher Hinsicht letztendlich einfach mehr erreichen lässt als auf einem damaligen PC.


Dafür muss man wohl erstmal klären, was der damalige PC denn überhaupt war.
Willst du die PS2 mit den PC's vergleichen, die am Anfang der PS2-Entwicklung verfügbar waren? Willst du den durchschnittlichen PC im November 2000 vergleichen? Oder willst du einen Highend-PC im November 2000 oder kurz danach mit der PS2 vergleichen?

Letzteres, an der Grafikkarte ausgerichtet: Im Februar 2001 war der Highend-PC ein Pentium4 Willamette 1.5GHz/Athlon Thunderbird 1.2GHz mit einer Geforce3 64MB Grafikkarte. BS war Win98/ME mit DX8.

N0Thing
2007-09-05, 03:22:19
GTR dürfte in 640x480 noAA noAF auch auf einer GeForce 2 GTS ordentlich laufen.

das sieht aber mal richtig übel aus. Wohl kein Vergleich zu GT3 bzw. 4


Da ein normaler Röhrenfernseher auch nicht mehr als 768x576 (PAL) darstellen kann und bei der PS2 kein AA und AF eingesetzt werden, dürfte es eine fast vergleichbare Bildqualität sein. Näher dran wäre 800x600.

Spasstiger
2007-09-05, 04:05:43
Da ein normaler Röhrenfernseher auch nicht mehr als 768x576 (PAL) darstellen kann und bei der PS2 kein AA und AF eingesetzt werden, dürfte es eine fast vergleichbare Bildqualität sein. Näher dran wäre 800x600.
Wird GT4 nicht in 480p gerendert? Und GTR bietet einen ziemlich ähnlichen Detailgrad wie GT4, was Fahrzeuge und Strecken angeht.
Unter dem Aspekt "Schönheit" ist aber GT4 natürlich trotzdem vorzuziehen, GTR ist halt als Simulation ausgelegt. Spiele, die hübsch anzusehen sind, sind sowieso oft nicht die technisch anspruchsvollsten. Oft macht es die Farbkomposition und die Strukturiertheit einer Szene aus. Comiclook beispielsweise kommt mit niedrig aufgelösten Texturen und Low-Poly-Objekten aus, trotzdem wirkt es meist recht hübsch. Ein Spiel, das auf Fotorealismus abzielt, muss viel mehr investieren, um den gleichen "Hübschheitseffekt" zu erzielen.

Gast
2007-09-05, 08:53:12
Der Cell ist schnell, wenn die SPU's ausgelastet werden können. In Anwendungen, wo mehr PPU-Leistung notwendig wäre ist schnell Schluss.
Von daher müssen Entwickler versuchen, soviel wie möglich auf die SPU's zu verlagern. Da die SPU's aber keine vollwertigen Prozessoren sind, geht es manchmal einfach nicht.
Aber ja, es stimmt: Die Cell kann in bestimmten Anwendungen deutlich schneller sein, als eine CPU in einem PC. Nur gilt das auch genauso andersherum.

Für Spiele sehe ich QC-Prozessoren jedoch klar im Vorteil.
Gerade in Zukunft mit vier SSE4-Einheiten. Auch wenn wohl erstmal weiterhin auf SSE2 gesetzt werden muss. Logischerweise.

Aber eines darf man natürlich nicht verschweigen:
PS3 und XBox360 Spiele können jetzt schon ihre volle Leistung zeigen, wenn die Entwickler diese nutzen. Das ist halt der entscheidende Vorteil von Konsolen: Alle haben die gleiche Maschine zu Hause stehen. ;)

Absolut. Aber zu solch differenzierter Betrachtung scheint reunion ja nicht in der Lage zu sein ("lahm").

Gast
2007-09-05, 08:53:49
Oh, das Todschlagargument schlechthin. Aber du hast deine Behauptungen über Cell mit Sicherheit durch "jahrelange Erfahrung in Programmierung und Design von Mikroprozessoren" erworben?! :rolleyes:
Man kann ja auch auf das Wissen anderer zurückgreifen, und da gibt es im Web wahrlich genug.
Siehe oben. Oder willst du absichtlich trollen?

Lightning
2007-09-05, 11:06:36
Dafür muss man wohl erstmal klären, was der damalige PC denn überhaupt war.
Willst du die PS2 mit den PC's vergleichen, die am Anfang der PS2-Entwicklung verfügbar waren? Willst du den durchschnittlichen PC im November 2000 vergleichen? Oder willst du einen Highend-PC im November 2000 oder kurz danach mit der PS2 vergleichen?

Letzteres, an der Grafikkarte ausgerichtet: Im Februar 2001 war der Highend-PC ein Pentium4 Willamette 1.5GHz/Athlon Thunderbird 1.2GHz mit einer Geforce3 64MB Grafikkarte. BS war Win98/ME mit DX8.

Mit "damaligen PC" bzw. "GeForce 2 PC" meinte ich grob das, was in der zweiten Hälfte im Jahr 2000 High End war: Einen 1 GHz Athlon mit einer GeForce 2.

Wird GT4 nicht in 480p gerendert? Und GTR bietet einen ziemlich ähnlichen Detailgrad wie GT4, was Fahrzeuge und Strecken angeht.
Unter dem Aspekt "Schönheit" ist aber GT4 natürlich trotzdem vorzuziehen, GTR ist halt als Simulation ausgelegt. Spiele, die hübsch anzusehen sind, sind sowieso oft nicht die technisch anspruchsvollsten. Oft macht es die Farbkomposition und die Strukturiertheit einer Szene aus. Comiclook beispielsweise kommt mit niedrig aufgelösten Texturen und Low-Poly-Objekten aus, trotzdem wirkt es meist recht hübsch. Ein Spiel, das auf Fotorealismus abzielt, muss viel mehr investieren, um den gleichen "Hübschheitseffekt" zu erzielen.

GT4 dürfte in der NTSC-Version in 480p gerendert werden, in der PAL-Version jedoch nicht. Dafür läuft letztere mit 50 statt 60 fps (einen 60-Hz-Modus bietet das Spiel nicht). Zudem gibt es in der NTSC-Version noch einen 1080i-Modus, in dem zwar nicht diese Auflösung berechnet wird, anscheinend aber doch eine merklich höhere als 480p.

Ich stimme dir zu, dass es schwieriger ist, ein Spiel realistisch aussehen zu lassen, als wenn man z.B. im Comic-Look mit knalligeren Farben oder gar in einem rein ausgedachten Szenario arbeitet. Im Fall von GT und GTR muss ich allerdings sagen, dass beide Spiele realistisch aussehen wollen, GT dies vom Gesamteindruck jedoch besser schafft und natürlicher wirkt. Das ist aber natürlich ein subjketiver Eindruck.

Gast
2007-09-05, 11:08:41
Siehe oben. Oder willst du absichtlich trollen?

Ich frage mich wer hier trollen will. Ich habe weiter hinten versucht zu argumentieren, woraufhin von dir nicht mehr kam als ein abwertendes Kommentar ggü. meiner Person, das ich das nicht beurteilen können, um es mal freundlich auszudrücken. Und jetzt gehts ja schon wieder weiter mit den persöhnlichen Anschuldigungen. Wie schon gesagt: Die SPEs sind eben nur bei einem Stream gleicher Daten schnell, welche aber bei Spielen traditionell kaum vorkommen (außer Physik, Sound). Sprünge im Code sind eine Katastrophe für die Dinger. Und sonst gibt es eben nurnoch die PPU, die auch nicht gerade vor Kraft strotzt. Ich sehe nicht wo Cell in Spielen einer aktuellen CPU das Wasser abgraben sollte, wie von dir angedeutet. Für gewisse Serveranwendungen wäre das Ding natürlich toll, nur ist das nicht das Einsatzgebiet in der PS3.

reunion

Nakai
2007-09-05, 11:27:53
Playstation 3:
RSX, vergleichbar mit dem Nvidia G71 in Form einer GeForce 7950 GT (der RSX ist fast identisch zum G71). Die Pixelshaderleistung liegt bei theoretischen 211 GFlops (allerdings praktisch kaum nutzbar wegen Pipeline-Stalling bei Texturzugriffen). Zusammen mit der Vertexshaderleistung sind es theoretisch 255 GFlops.
Gegenüber einer GeForce 7950 GT steht dem RSX nur die halbe Speicherbandbreite zur Verfügung, was die Leistung doch sehr schmälern dürfte.


Der RSX hat mehr als man denkt. Er ist deutlich mehr als ein einfacher G71.

* 5 shader ALU operations per pipeline per cycle (2 vector4 and 2 scalar (dual/co-issue) and fog ALU)
* 27 FLOPS per pipeline per cycle



mfg Nakai

AnarchX
2007-09-05, 11:34:52
Fragt sich nur wie wahr diese Angaben sind und ob man hier vielleicht nicht nur irgendwelche SFU mitzählt, die man sonst nicht mitgezählt hat.

Aber so ist ja RSX mit seinen 240mm² doch schon größer als der G71(198mm²), wobei nicht klar ist ob RSX die Optimierungsmaßnahmen wie letzter erhalten hat (RSX = G70@65nm) bzw. ob man hier doch noch ein Redudanz-Quad hat für eine höhere Ausbeute oder ob es an den Fertigungsunterschieden zwischen TSCM und Sony liegt.

Gast
2007-09-05, 11:35:34
Ich frage mich wer hier trollen will. Ich habe weiter hinten versucht zu argumentieren, w
Dann entschuldige bitte, aber dein Argument: "[...] und sonst ist Cell einfach nur lahm." war nicht gerade sehr plausibel.

Cell ist nicht einfach nur lahm, da es im Gegensatz zur Grafikkarte ein kompletter Prozessor ist, das heisst in Sachen Streaming ist er extrem schnell, die verarbeitbaren Programme sind mit je 256 kiB deutlich größer als auf GPUs, wo lediglich 16-256 kiB Cache für alle SIMDs gemeinsam vorhanden sind, er ist DP-fähig (auch wenn er dabei einbricht - das tun CPUs auch). Branching ist auf dem Stream-Teil des klassischen PCs (wie du es unterteilst) auch grottenlahm, vergleicht man es mit der CPU.

Jetzt führe bitte dein nich-trollhaft gemeintes "und sonst ist Cell einfach nur lahm" etwas näher aus, damit ich es richtig verstehen kann, was mir in der Kurzform offenbar nicht gelungen ist.

Gast
2007-09-05, 11:36:54
Fragt sich nur wie wahr diese Angaben sind und ob man hier vielleicht nicht nur irgendwelche SFU mitzählt, die man sonst nicht mitgezählt hat.

Aber so ist ja RSX mit seinen 240mm² doch schon größer als der G71(198mm²), wobei nicht klar ist ob RSX die Optimierungsmaßnahmen wie letzter erhalten hat (RSX = G70@65nm) bzw. ob man hier doch noch ein Redudanz-Quad hat für eine höhere Ausbeute.
Die RSX-Angaben sind extrem schöngerechnet. BTW ist RSX noch nichtmal in 90nm, sondern in 110nm gefertigt, es sei denn, mittlerweile gibt es eine weitere Ausbaustufe der PS3.

AnarchX
2007-09-05, 11:42:58
RSX soll 110nm sein? Zu solch waghalsigen Behauptungen, aber bitte auch ein Quelle. ;)

AFAIK wird RSX definitiv in 90nm bei Sony gefertigt, etwas anderes macht bei der Die-Size auch nicht viel Sinn.

Nakai
2007-09-05, 12:12:37
Fragt sich nur wie wahr diese Angaben sind und ob man hier vielleicht nicht nur irgendwelche SFU mitzählt, die man sonst nicht mitgezählt hat.



Ich seh, darin weniger ein Problem, da bei Konsolen eh alles besser optimiert ist, soweit es jedenfalls geht.
Aber du hast schon recht, man weiß nicht, was alles mitgezählt wird.

Die RSX-Angaben sind extrem schöngerechnet.

1.8 Terraflops.^^;D

mfg Nakai

Gast
2007-09-05, 12:40:07
RSX soll 110nm sein? Zu solch waghalsigen Behauptungen, aber bitte auch ein Quelle. ;)

AFAIK wird RSX definitiv in 90nm bei Sony gefertigt, etwas anderes macht bei der Die-Size auch nicht viel Sinn.
Definitiv, weil es in Wikipedia steht? *SCNR* Ich könnte jetzt auch nach einer Quelle für diese Behauptung fragen ;)

Allerdings bin ich mir auch nicht sicher, nur meine ich mal gelesen zu haben, dass man die Taktfrequenz der Chips etwas senken musste, weil's mit 550 MHz zuviele Probleme gab. Aber möglicherweise haben du und die Wikipedia auch recht.

Spasstiger
2007-09-05, 14:32:55
Er ist deutlich mehr als ein einfacher G71.
[...]
mfg Nakai
Genau das bietet auch G71, wenn man die SFUs mit einrechnet.

http://img67.imageshack.us/img67/7874/img00132605km.gif

Gast
2007-09-05, 15:16:40
Allerdings bin ich mir auch nicht sicher, nur meine ich mal gelesen zu haben, dass man die Taktfrequenz der Chips etwas senken musste, weil's mit 550 MHz zuviele Probleme gab. Aber möglicherweise haben du und die Wikipedia auch recht.

Das ist ein schlechtes Gerücht mit dem RSX Downgrade. Genau wie damals das CELL Downgrage auf 2,8Ghz Gerücht, das wurde von PS3 Bashern gebracht.

Nakai
2007-09-05, 17:01:17
Genau das bietet auch G71, wenn man die SFUs mit einrechnet.

http://img67.imageshack.us/img67/7874/img00132605km.gif

Wirklich?
Ich wüsste gerne wie man zusätzlich 11 FLOPs auf 4 Einheiten verteilt.

mfg Nakai

Coda
2007-09-05, 17:11:49
auch wenn er dabei einbricht - das tun CPUs auch
Aber bei weitem nicht so stark.

Wirklich?
Ich wüsste gerne wie man zusätzlich 11 FLOPs auf 4 Einheiten verteilt.

mfg Nakai
Da wurde auch Fog usw. mit eingerechnet. G71 und RSX sind wirklich fast identisch.

Gast
2007-09-05, 17:12:50
Aber bei weitem nicht so stark.
Wenn wir von Peaks sprechen mindestens auf die Hälfte, ergo max. ~20-25 GFLOP/sek. Da dürfte CELL auch mit DP noch drüber liegen.

Gast
2007-09-05, 17:14:19
Da wurde auch Fog usw. mit eingerechnet. G71 und RSX sind wirklich fast identisch.
Was mir eben noch auffiel
RSX vs. G71:
-128 Bit beim SI
-8 ROPs
+XDR-Interface

Möglicherweise hat man auch noch einiges aus dem 2D/Video-Bereich herausgenommen sowie SLI-Zeugs.

Spasstiger
2007-09-05, 17:20:00
Wirklich?
Ich wüsste gerne wie man zusätzlich 11 FLOPs auf 4 Einheiten verteilt.

mfg Nakai
Vielleicht wird die Vektornormalisierung (NRM) und die TEX-Operation auch mit eingerechnet.
Dann hätte man 2 FLOPs von den SFUs, 2 FLOPs von den Mini-ALUs, 3 FLOPs (?) von der NRM und 4 FLOPs vom TEX.
Wobei NRM nur in fp16 erfolgt, der Rest in fp32.

EDIT: Wieviel Flops macht denn das Fog aus?

reunion
2007-09-05, 17:49:01
Dann entschuldige bitte, aber dein Argument: "[...] und sonst ist Cell einfach nur lahm." war nicht gerade sehr plausibel.


Noch immer wesentlich plausibler als deine Antwort.


Cell ist nicht einfach nur lahm, da es im Gegensatz zur Grafikkarte ein kompletter Prozessor ist, das heisst in Sachen Streaming ist er extrem schnell, die verarbeitbaren Programme sind mit je 256 kiB deutlich größer als auf GPUs, wo lediglich 16-256 kiB Cache für alle SIMDs gemeinsam vorhanden sind, er ist DP-fähig (auch wenn er dabei einbricht - das tun CPUs auch). Branching ist auf dem Stream-Teil des klassischen PCs (wie du es unterteilst) auch grottenlahm, vergleicht man es mit der CPU.

Jetzt führe bitte dein nich-trollhaft gemeintes "und sonst ist Cell einfach nur lahm" etwas näher aus, damit ich es richtig verstehen kann, was mir in der Kurzform offenbar nicht gelungen ist.

Das "und sonst ist Cell einfach nur lahm" war offensichtlich (oder auch nicht) auf die PPU bezogen, welche eben nicht viel mehr ist als ein Xbox360-Kern, und dieser ist einer aktuellen CPU um Größenordnungen unterlegen. Die SPEs mögen - wie schon gesagt - zwar gute "streamer" sein, für viele andere Dinge scheinen sie jedoch schlicht ungeeignet. So habe die Dinger keine Sprungvorhersage und ein falscher Sprung kostet immense 18(!) Takte.


Wenn wir von Peaks sprechen mindestens auf die Hälfte, ergo max. ~20-25 GFLOP/sek. Da dürfte CELL auch mit DP noch drüber liegen.

Selbst wenn - wen interessiert die Peak-Leistung? Einen Cell mit seine 7 (oder 8) SPEs mit typischen Spielecode auszulasten dürfte ein Ding der Unmöglichkeit sein.

Gast
2007-09-05, 17:53:07
Das "und sonst ist Cell einfach nur lahm" war offensichtlich (oder auch nicht) auf die PPU bezogen, welche eben nicht viel mehr ist als ein Xbox360-Kern, und dieser ist einer aktuellen CPU um Größenordnungen unterlegen. Die SPEs mögen - wie schon gesagt - zwar gute "streamer" sein, für viele andere Dinge scheinen sie jedoch schlicht ungeeignet. So habe die Dinger keine Sprungvorhersage und ein falscher Sprung kostet immense 18(!) Takte.

Selbst wenn - wen interessiert die Peak-Leistung? Einen Cell mit seine 7 (oder 8) SPEs mit typischen Spielecode auszulasten dürfte ein Ding der Unmöglichkeit sein.
Ja, nimm einfach das wichtigste Feature weg und kritisiere den Rest. CPUs sind auch arschlahm - ohne Caches. Toll - wie sinnvoll.

Die Peakleistung interessiert insofern, als dass u.a. du bisher keine Daten zur durchschnittlich erreichbaren Leistung mit ordentlich optimiertem Code aus dem entsprechenden Compiler gebracht hast.

Wenn du diese Daten weißt, können wir gern auf deren Grundlage weiterdiskutieren.

reunion
2007-09-05, 19:09:15
Ja, nimm einfach das wichtigste Feature weg und kritisiere den Rest. CPUs sind auch arschlahm - ohne Caches. Toll - wie sinnvoll.


Ich nahm nicht einfach das wichtigste Feature weg, sondern gab an dass Streamprozessoren bei einem PC normalerweise in der Grafikkarte sitzen. Cell mag für viel Dinge nahezu optimal sein, aber dazu zählen mit Sicherheit keine Spiele. Warum Sony so ein Ding in eine Spielekonsole steckt, bleibt fraglich. Aber träume ruhig weiter deinen Traum vom Wunderchip Cell, der aktuelle CPUs alt aussehn lässt. Im Endeffekt bleibt nicht viel mehr als ein extrem schwer auszulastender Chip, der auf viele Dinge äußerst allergisch reagiert, und dessen optimales Einsatzgebiet ganz wo anders liegt.


Die Peakleistung interessiert insofern, als dass u.a. du bisher keine Daten zur durchschnittlich erreichbaren Leistung mit ordentlich optimiertem Code aus dem entsprechenden Compiler gebracht hast.

Wenn du diese Daten weißt, können wir gern auf deren Grundlage weiterdiskutieren.

Du machst es dir ja einfach. Dass solche Daten nicht öffentlich zugänglich sind, weißt du vermutlich genauso gut wie ich. Zumal die "durchschnittlich erreichbaren Leistung mit ordentlich optimiertem [Spiele]Code aus dem entsprechenden Compiler" eine äußerst schwammige Formulierung ist.

Coda
2007-09-05, 19:26:24
Cell ist kein Streamprozessor. Auch wenn er das gut kann.

Ändert nichts daran, dass man die Peakleistung von dem Teil in der Praxis eh nicht sehen wird. Ich hab ein PDF über den Killzone-Renderer und da ist über die Zeit eines Frames wenn ich es richtig in Erinnerung habe maximal 50% der SPU-Zeit überhaupt im Einsatz - zudem nur 4 davon statt der 6 vorhandenen. Und die Effizienz des Codes der da ausgeführt wird wird auch nicht bei 100% liegen.

http://www.develop-conference.com/developconference/downloads/vwsection/Deferred%20Rendering%20in%20Killzone.pdf (Seite 52)

Und da Killzone sicher kein Titel ist bei dem nicht stark in Technik investiert wurde, glaube ich nicht, dass es anderorts viel besser aussieht.

The_Invisible
2007-09-05, 20:33:50
bei ps2 release hätte man ein GoW2 in der form auch nicht erwartet

also schön abwarten was man da rausquetschen kann

mfg

Coda
2007-09-05, 22:00:06
Das sind aber Ausnahmen und nicht die Regel. Zu der Zeit wo das der Fall sein wird gibt's schon lange 4Ghz Octacores für den PC und eine GPU bei der es RSX schlecht wird.

Es gibt bis heute keine Konsole die jemals zu einem Zeitpunkt einem PC irgendwie überlegen gewesen wäre. Und jedesmal wird wieder "das Ende des PCs als Spieleplatform" prognostiziert. Blafasel.

Ich hab vor dem Release der PS3 schon sehr viel über Cell gestritten. Und im Endeffekt hatte ich mal wieder recht, wenn ein kommender Blockbuster wie Killzone nach einem Jahr Cell nichtmal zur Hälfte ausnützt. Ja, die Hardware wird sich durch solche Architekturen die mächtig, aber schwer auszunützen sind länger halten, aber sie wird dem PC durch die unglaublichen GFlop-Zahlen nicht gefährlich werden. War bei der PS2 doch genauso.

Gast
2007-09-05, 22:16:10
Du machst es dir ja einfach. Dass solche Daten nicht öffentlich zugänglich sind, weißt du vermutlich genauso gut wie ich. Zumal die "durchschnittlich erreichbaren Leistung mit ordentlich optimiertem [Spiele]Code aus dem entsprechenden Compiler" eine äußerst schwammige Formulierung ist.
Peak wolltest du nicht - mach halt 'nen besseren Vorschlag.

HotSalsa
2007-09-06, 05:54:29
Das sind aber Ausnahmen und nicht die Regel. Zu der Zeit wo das der Fall sein wird gibt's schon lange 4Ghz Octacores für den PC und eine GPU bei der es RSX schlecht wird.

Es gibt bis heute keine Konsole die jemals zu einem Zeitpunkt einem PC irgendwie überlegen gewesen wäre. Und jedesmal wird wieder "das Ende des PCs als Spieleplatform" prognostiziert. Blafasel.

Ich hab vor dem Release der PS3 schon sehr viel über Cell gestritten. Und im Endeffekt hatte ich mal wieder recht, wenn ein kommender Blockbuster wie Killzone nach einem Jahr Cell nichtmal zur Hälfte ausnützt. Ja, die Hardware wird sich durch solche Architekturen die mächtig, aber schwer auszunützen sind länger halten, aber sie wird dem PC durch die unglaublichen GFlop-Zahlen nicht gefährlich werden. War bei der PS2 doch genauso.

Aus genau diesem Grunde halte ich die Xbox360 CPU für das bessere Konzept. Es ist zwar auch "nur" ein PPU Core @ 3,2 Ghz, dafür aber 3 mal vorhanden, was auch 3 mal SIMD Einheiten bedeutet. Dieser Prozessor dürfte imo leichter auszulasten sein, in einigen Spielen dem Cell überlegen sein und viel billiger in der Herstellung / Verkauf sein als bei der Sony Konkurenz.
Insgesamt für eine Konsole das "rundere" Gesamtkonzept.
Developer Stimmen und die Qualität (grafische) der erscheinenden Games scheinen meine Vermutung zu untermauern.

Die Xbox360 GPU liegt in einigen Szenarien wirklich auf 1950 pro Niveau. Afaik besitzt sie aber noch eine Tesselation Einheit (hat was mit dem geometry shader zu tun - bitte um Berichtigung / Ergänzung zu diesem Punkt) und halt den eDram, der für bestimmte Funktionen genutzt werden kann (afaik kann somit auch die Bandbreite des 128 bit Busses etwas abgefedert werden).

Laut verschiedener Internet Quellen (tech Seiten, Foren, etc) ist der RSX der PS3 wirklich fast identisch zu einer 7950 GT - nur halt mit 128 bit Bus.

Die UMA der Xbox360 ist imo auch nicht zu verachten. Die 512 Mb Speicher können nämlich so als ganzes angesprochen werden. Beispiel: Verlangt in einem Beat em Up zB eine Szene nur 150 MB Leveldaten, KI, Code und Sound, so kann der Rest leicht für bessere Texturen benutzt werden.

Bei der PS3 ist der Speicher in 256 MB für den RSX und 256 MB für Daten geteilt - afaik jede mit eigenem Bus. Für die Gesamtbandbreite der Konsole mag das ganz gut sein, ist aber die unflexiblere Lösung. Der Cell kann zwar wohl auch auf den Grafikspeicher und umgekehrt zugreifen, nur muss das extra, auf Umwegen durch die Hintertür programmiert werden :rolleyes:
Imho ist das einer der Gründe, weswegen Multiplattform Titel, ohne aufwändige Optimierungen, auf der Xbox360 oft schärfere Texturen bieten.


Mal zu PC <--> Konsole im Allgemeinen:
Ja die PCs waren schon immer etwas leistungsfähiger als die zur selben Zeit kaufbaren Konsolen. Nur kostet so ein PC auch immer mehr als die Konsole. Heute kann ich mir für den Preis EINER 2900xt gleich ne ganze Xbox360 Premium kaufen - dafür kosten dann die Spiele auf den Konsolen etwas mehr.
Aber mal nochwas zum Leistungsvergleich zwischen PC und Konsole. Leider hab ich im Netzt keine Infos darüber gefunden aber es würde mich echt mal interessieren. Klar auf der Konsole wird bei AAA Games mehr optimiert aber wieviel Leistung frisst beim PC eigentlich der ganze Ballast / overhead des Betriebssystems und von DirectX und dem Graka Treiber ??? Das sind ja schonmal mind. DREI Stationen wo der Gamecode durch muss. Dazu gibts nix zu lesen :confused:

Bei Vista zB merkt man deutlich den Unterschied ob ein DC oder SC Prozessor am Werk ist -- ergo muss das OS ne Menge im Hintergrund machen. Theoretisch sollte sich das OS ja dann beim starten des Spiels soweit minimieren wie möglich, Speicher freigeben, DLLs ausm Speicher kicken etc... nur wie ist es wirklich??
Kann es sein, dass neben mangelndener Codeoptimierung bei PC Spielen und Hintergrund Last durch OS, Treiber, etc. 30 - 40% des Potentials verbraten werden?? :|

Gast
2007-09-06, 08:23:14
Und im Endeffekt hatte ich mal wieder recht, wenn ein kommender Blockbuster wie Killzone nach einem Jahr Cell nichtmal zur Hälfte ausnützt.
In der von dir verlinkten Killzone-Präsentation geht's aber nur ums Rendering, welches vier SPUs nutzt, nicht um das gesamte Spiel.

Gast
2007-09-06, 08:43:01
In der von dir verlinkten Killzone-Präsentation geht's aber nur ums Rendering, welches vier SPUs nutzt, nicht um das gesamte Spiel.
In der von dir verlinkten Killzone-Präsentation geht's aber nur ums Rendering, welches vier SPUs nutzt, nicht um das gesamte Spiel.
Genau, die anderen kümmern sich um andere Dinge. Der KZ2-Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=375947
Wenn PC-Entwickler sich so viel Mühe machen würden wie die Entwickler von KZ2...

Gast
2007-09-06, 13:56:19
Imho ist das einer der Gründe, weswegen Multiplattform Titel, ohne aufwändige Optimierungen, auf der Xbox360 oft schärfere Texturen bieten.


in aller regel verwenden multiplattform-titel auf allen plattformen die selben texturen, selbst auf dem pc wo deutlich mehr platz wäre.



Theoretisch sollte sich das OS ja dann beim starten des Spiels soweit minimieren wie möglich, Speicher freigeben, DLLs ausm Speicher kicken etc... nur wie ist es wirklich??

warum, damit es nach dem beenden des spieles möglichst lange dauert bis man wieder den desktop zu gesicht bekommt?

Ihm
2007-09-06, 14:53:28
in aller regel verwenden multiplattform-titel auf allen plattformen die selben texturen, selbst auf dem pc wo deutlich mehr platz wäre.


Das es auch anders geht sieht man bei FIFA2008 für den PC. Da bediente man sich der PS2-Engine. :D
Ansonsten sollte man natürlich den kleinsten gemeinsamen Nenner neuer Plattformen suchen. Und der ist momentan die PS3.

Gast
2007-09-06, 16:12:48
Aus genau diesem Grunde halte ich die Xbox360 CPU für das bessere Konzept. Es ist zwar auch "nur" ein PPU Core @ 3,2 Ghz, dafür aber 3 mal vorhanden, was auch 3 mal SIMD Einheiten bedeutet. Dieser Prozessor dürfte imo leichter auszulasten sein, in einigen Spielen dem Cell überlegen sein und viel billiger in der Herstellung / Verkauf sein als bei der Sony Konkurenz.

Xenon ist eine äußerst schwache CPU, hat jetzt Vorteile, weil die DEVs nicht richtig mit dem CELL umgehen können. Der CELL hat bei optimaler Ausnutzung deutliche Vorteile, zudem kann CELL auch RSX unter die Arme greifen.


Insgesamt für eine Konsole das "rundere" Gesamtkonzept.
Developer Stimmen und die Qualität (grafische) der erscheinenden Games scheinen meine Vermutung zu untermauern.

Die 360 hat in Sachen Programmierbarkeit die Nase vorne. Schlechte Umsetzungen zu bewertung, das ist nicht sonderlich klug. Die 360 ist der PS3 unterlegen, aber nur leicht.


Die Xbox360 GPU liegt in einigen Szenarien wirklich auf 1950 pro Niveau.

Mit einem 128Bit Speicherinterface kann Xenos gar nicht auf X1950Pro Niveau liegen. Xenos ist deutlich unter dieser Karte anzusiedeln. Ein völlig überhypter Chip, wo viele meinen er entspricht dem D3D10-Standard (Computerbase ahoi), sei RSX deutlich überlegen. Alles Schachsinn³

Und der 10MB eDRam ist mal vollkommen für die Katz. MSAA for free wurde von einigen M$ Mitarbeitern propagiert, was ist, MSAA ist die Ausnahme und auch das Killerfeature schlechthin, FP16-HDRR + MSAA findet eigentlich nirgends Einsatz. Was für eine Ironie.



weswegen Multiplattform Titel, ohne aufwändige Optimierungen, auf der Xbox360 oft schärfere Texturen bieten.



Die 360 hat in Sachen Speicher keinen wirklich großen Vorteil. Welche Ports meinst du denn bitte, welche Port hat denn auf der 360 bessere Texturen?

robbitop@nyc
2007-09-06, 16:13:25
Xbox 360:
Auch hinsichtlich der Füllrate hat der R600 durch den höheren Takt und die zusätzlichen 16 Point-Sampling-TMUs klare Vorteile..
Die PointSampler bringen wohl eher recht selten klare Vorteile.


Die Pixelshaderleistung liegt bei theoretischen 211 GFlops (allerdings praktisch kaum nutzbar wegen Pipeline-Stalling bei Texturzugriffen). Zusammen mit der Vertexshaderleistung sind es theoretisch 255 GFlops.
Das kommt drauf an, wie man das TEX:ALU Verhaeltnis haellt. NV4x und G7x stallen richtig fies bei unguenstigen TEX:ALU verhaeltnissen (i.e. hohe Aritmetiklast und wenig TexOPs). Im Konsolenbereich kann man sicher deutlich besser fuer die CineFX Pipelines hinoptimieren (auch mittels entsprechendem Content) als das bei 0815 PC Spielen der Fall ist. Hinzu kommt das kostenlose NRM_PP. Ich denke unter entsprechender optimierten Umgebung ist der RSX so schlecht nicht.

robbitop@nyc
2007-09-06, 16:14:38
Dafür das die PS3 viel später kam ist das schon ein bisschen minder. Ich hätte gedacht die legen ein bisschen was vor.
Naja daran war wohl das BlueRay Laufwerk schuld. Erst seit ner Weile kann man die Dinger einigermassen erschwinglich in Massen produzieren.

reunion
2007-09-06, 16:22:19
Xenon ist eine äußerst schwache CPU, hat jetzt Vorteile, weil die DEVs nicht richtig mit dem CELL umgehen können. Der CELL hat bei optimaler Ausnutzung deutliche Vorteile,

Deine in Zement gemeißelten Behauptungen kannst du sicher alle irgendwie begründen?


zudem kann CELL auch RSX unter die Arme greifen.


Ach, wie das denn?
Rendert dann Cell das Bild und RSX dreht Däumchen?


Und der 10MB eDRam ist mal vollkommen für die Katz.


Deshalb wurde er ja auch verbaut, weil er vollkommen für die Katz ist.

reunion
2007-09-06, 16:25:46
Die PointSampler bringen wohl eher recht selten klare Vorteile.

Zudem hat Xenos diese AFAIK auch.



Das kommt drauf an, wie man das TEX:ALU Verhaeltnis haellt. NV4x und G7x stallen richtig fies bei unguenstigen TEX:ALU verhaeltnissen (i.e. hohe Aritmetiklast und wenig TexOPs). Im Konsolenbereich kann man sicher deutlich besser fuer die CineFX Pipelines hinoptimieren (auch mittels entsprechendem Content) als das bei 0815 PC Spielen der Fall ist. Hinzu kommt das kostenlose NRM_PP. Ich denke unter entsprechender optimierten Umgebung ist der RSX so schlecht nicht.

NV4x/G7x/Nv3x stallen immer, da man nur eine Pipeline für ALU- und TEX-Ops hat und diese nicht parallel ausführen kann. Umso mehr die Arithmetiklast steigt, umso mehr sinkt die TMU-Füllrate und umgekehrt.

robbitop@nyc
2007-09-06, 16:31:57
NV4x/G7x/Nv3x stallen immer, da man nur eine Pipeline für ALU- und TEX-Ops hat und diese nicht parallel ausführen kann. Umso mehr die Arithmetiklast steigt, umso mehr sinkt die Füllrate und umgekehrt.
Nicht wenn das Verhaeltnis 1:1 ist.
Man kann das Stallen zwar kaum verhindern, es aber in der Intensitaet kontrollieren, in dem man auf die TEX:ALU Rate achtet.

reunion
2007-09-06, 16:39:23
Nicht wenn das Verhaeltnis 1:1 ist.

Warum nicht?
Auch dann hat man IMO das selbe Problem, da man die TEX-Ops eben nicht hinter den ALU-Ops verstecken kann, sondern diese hintereinander abarbeiten muss.

Nv hat das selber sehr schön dargestellt:
http://img244.imageshack.us/img244/2171/332700ecih8.jpg (http://imageshack.us)


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/3/


Man kann das Stallen zwar kaum verhindern, es aber in der Intensitaet kontrollieren, in dem man auf die TEX:ALU Rate achtet.

Man kann IMO höchstens versuchen möglichst auf ALU- oder TEX-Ops zu verzichten um die Pipeline für eines der beiden freizuhalten, was ja nicht besonders viel Sinn macht.

Aquaschaf
2007-09-06, 16:41:47
In der von dir verlinkten Killzone-Präsentation geht's aber nur ums Rendering, welches vier SPUs nutzt, nicht um das gesamte Spiel.

In dem entsprechenden Diagramm der Präsentation wird die gesamte Arbeitsaufteilung dargestellt. Es sind 4 SPUs für alles, nicht nur fürs Rendering.

Coda
2007-09-06, 16:43:58
Ich bin mir nicht sicher, ob das VLIW von G7x parallel TEX und eine Op enthalten kann. Dann würde theoretisch bei einem bilinearen Sample nichts stallen. Kann ich aber mal nachschauen. Ansonsten stallt die Arithmetik bei jedem Tex und andersrum.

Dass nur ein bilineares Sample ziemlich unwahrscheinlich ist, ist aber auch klar ;)

Ihm
2007-09-06, 16:51:52
Na mit dir ist die Diskussion doch überflüssig, bist du doch der AMD Fanboy schlechthin, du kannst dir mit SefanV die Hand geben :)

Mir dir genauso wenig. Du behauptest irgendwelche Sachen Pro-Cell und kannst sie nichtmal irgendwie belegen oder erklären. Davon abgesehen kauen wir das jetzt schon zum 100mal durch und qualifizierte Leute wie Coda oder Demirug haben sich auch schon dazu geäussert.

Fakt ist, dass beide CPU's ihre Vorteile und Nachteile haben.
Die Vorteile für den Spielebereich sind dem Cell aber schwer zu entlocken (SPE's), da dieser Chip für einen völlig anderen Markt entwickelt worden ist.

Der Xenon hingegen ist wie eine normale CPU aufgebaut. Seine Gleitkommaleistung basiert in erster Linie auf den Altivec-Einheiten.
Das diese Leistung für Spiele zu reichen scheint, sieht man bei SSE.
Man hat also drei universell einsetzbare Kerne, welche jeweils zwei Threads bearbeiten können. Dafür steht beim Cell nur eine PPU mit zwei Threads zur Verfügung.

Je nachdem was man braucht, ist also der Cell oder der Xenon vorne.

Hier zwei Quellen zum Cell:
http://cell.scei.co.jp/index_e.html
http://www.tecchannel.de/server/prozessoren/444414/

Gast
2007-09-06, 17:14:02
Deine in Zement gemeißelten Behauptungen kannst du sicher alle irgendwie begründen?
Naja, dass Xenos eine schwache CPU ist, dürfte klar sein - auch wenn der Gast das sicherlich nicht meinte. IBMs Power6 ist ja auch eine schwache GPU. ;)


Ach, wie das denn?
Rendert dann Cell das Bild und RSX dreht Däumchen?

Schau dir Codas verlinkte Killzone-Präsentation an. Ich glaube, es steht auf der Seite, auf die er sich auch bezog (S.52).

Gast
2007-09-06, 17:23:03
In dem entsprechenden Diagramm der Präsentation wird die gesamte Arbeitsaufteilung dargestellt. Es sind 4 SPUs für alles, nicht nur fürs Rendering.
Schau dir die Präsentation (S.52) bitte nochmal an. Meinst du, Killzone läuft ohne Sound? Außerdem braucht's eine SPU doch angeblich noch für's Betriebssystem bzw. sog. "Sicherheitsfunktionen".

Coda
2007-09-06, 17:24:14
Cell erzeugt bei Killzone 2 nur die Displaylists. Das muss man bei jeglichem Grafikchip machen und hat nichts mit Unterstützen in dem Sinne zu tun, als das RSX dadurch schneller werden würde.

Schau dir die Präsentation (S.52) bitte nochmal an. Meinst du, Killzone läuft ohne Sound? Außerdem braucht's eine SPU doch angeblich noch für's Betriebssystem bzw. sog. "Sicherheitsfunktionen".
Es sind insgs. 7 (eine deaktiviert), eine wird für Sicherheit benützt. Bleiben 6 fürs Spiel.

Sound dürfte unter "Game" fallen. Wenn nur der Renderer aufgezeichnet wäre, würden AI und Physik nicht drinstehen. Zudem braucht Sound eh kaum Rechenleistung. Ich hab das Diagram schon richtig interpretiert.

Gast
2007-09-06, 17:28:52
Ich hab das Diagram schon richtig interpretiert.
Schön dass du so zufrieden mit dir bist. Ich sehe das halt anders.

Coda
2007-09-06, 17:30:53
Ach entschuldige, du hast natürlich recht. Sound wird die komplette restliche SPU-Zeit auffüllen :rolleyes:

Mein lieber Gast. Das ist keine Marketing-Präsentation, sondern eine technische Präsentation auf der Game Developer Conference. Es gibt keinen Grund dort nicht mit offenen Karten zu spielen. Außerdem würde ein Entwickler gerade dort eher damit prozzen wie toll sie die SPUs auslasten, weil das ziemlich schwierig ist und nicht absichtlich was weglassen.

Gast
2007-09-06, 17:31:35
Cell erzeugt bei Killzone 2 nur die Displaylists. Das muss man bei jeglichem Grafikchip machen und hat nichts mit Unterstützen in dem Sinne zu tun, als das RSX dadurch schneller werden würde.
In der Legende zu den Diagrammen stehen aber noch deutlich mehr Dinge drin, als nur die Displaylists.

Coda
2007-09-06, 17:34:14
Aber, aber, aber...

Das betrifft trotzdem nichts was Pixel auf den Bildschirm bringen würde sondern nur Geometrievorbereitungen fürs Rendering. Nichts ungewöhnliches, das macht jedes PC-Spiel auch.

Ich weiß von was ich rede.

Gast
2007-09-06, 18:01:49
Pixel bringt der Scanout vom Framebuffer auf den Bildschirm, von daher...

Coda
2007-09-06, 18:02:38
Von daher was?

Du weißt genau was ich gemeint hab. Cell schreibt nicht einen Pixel in den Framebuffer bei Killzone 2. Das eigentliche Rendering inkl. Postprocessing übernimmt RSX.

Gast
2007-09-06, 18:11:45
Von daher was?

Du weißt genau was ich gemeint hat. Cell schreibt nicht einen Pixel in den Framebuffer bei Killzone 2. Das eigentliche Rendering inkl. Postprocessing übernimmt RSX.
Rendering nicht, Grafikberechnungen schon. Klar, dass RSX ab der Fragment-Ebene übernimmt - sonst wär eine GPU ja auch ziemlich sinnlos.

Coda
2007-09-06, 18:43:20
Cell macht das Culling und erzeugt die rendernde Geometrie, Displaylists und Indexbuffer. Das macht jedes Spiel so. Das ist keine "Beschleunigung" sondern einfach nur eine Notwendigkeit.

Die GPU hat gar keine Möglichkeiten das selber zu machen und schon gar nicht RSX.

Gast
2007-09-06, 19:23:59
Das ganze technische Gefasel hin und her, bisher sehe ich keinen Unterschied in der Grafik der beiden Next Gen Konsolen. Die mini unterschiede bei einigen Games sind doch das selbe wie im PC Sektor, hier mal paar pixel weicher oder weggelassen, da mal zu hart an der grenze zum flimmern...

Und dann auch noch eine der beiden Architekturen als die "bessere, rundere, bla" hinzustellen halte ich für total fehl. Fanboy Alarm einfach sry...

Beide haben Vor- und Nachteile, aber es gibt definitiv nicht "das ist besser als das", dazu gibt es zuviele unterschiedliche Faktoren. Das ist bei CPUs, Graka, Festplatten, LCD TV usw. nicht anders...

Und wer dem Marketing geglaubt hat ist halt selbst dran schuld, abwarten bis ein Game zu Hause läuft, oder in eine Beta kommen, das is die Devise. Und die Kommentare zu z.b. die 10MB EDRAM sind für die Katz oder nicht kann uns doch hintenrum egal sein. Fakt is das kaum einer es nutzt, das selbe gilt sicher auch für Spezielle Feats beim Cell usw.

Crysis und UT3 stehen vor der Tür, wenn die Konsolen das jemals erreichen bravo und wenn nicht, dann lags halt an der Hardware die faktisch 2Jahre alt ist im Vergleich zum PC. Dafür direkter programmiert werden kann.

Spasstiger
2007-09-06, 19:27:47
Und die Kommentare zu z.b. die 10MB EDRAM sind für die Katz oder nicht kann uns doch hintenrum egal sein. Fakt is das kaum einer es nutzt [...]
Imo wird der eDRAM immer genutzt, wenn der Framebuffer klein genug ist (also 720p ohne AA oder 480p mit 4xAA).

reunion
2007-09-06, 19:29:52
Imo wird der eDRAM immer genutzt, wenn der Framebuffer klein genug ist (also 720p ohne AA oder 480p mit 4xAA).

... und sonst wird eben auf Tiling zurückgegriffen.

Gast
2007-09-06, 19:58:11
Crysis und UT3 stehen vor der Tür, wenn die Konsolen das jemals erreichen bravo und wenn nicht

UT3 kommt auch für PS3 und die 360, lol!

Ihm
2007-09-06, 20:07:47
DER Gast ist ein Troll. Weiss alles besser, hat aber bewiesen, dass er keine Ahnung hat.
Ergo: Don't feed the troll!

tokugawa
2007-09-06, 20:12:50
Kann sehr gut sein. Jedoch selbst dann noch kein Vergleich zum PC, wo das Spiel extrem dynamisch gestaltet werden muss. ;)


Statt 16 Modellen mit 2 wirklich sehr verschiedenen Hardware-Komponenten (PS2 ab Serie 75000 hat neue integrierte Chips für EE und GS und ändert speziell den IOP - geänderte Zyklenlängen für manche Instruktionen, anderer Cache-Size) und insgesamt 3 "großen" Serien auf denen man testen soll (30000, 50000 und 75000) hat man halt am PC ein paar Millionen potentielle Konfigurationen - also klar, mit dem PC isses kein Vergleich :)


Das mit dem TRC ist natürlich die Sinnlosigkeit in ihrer reinsten Form. :crazy:


So sinnlos ist das nicht, weil der TRC auch den Speicher- und Ladefluß und einige User Interface Guidelines (z.B. dass GUI-Elemente nicht zu sehr am Rand sein dürfen, es also eine "Safe Area" gibt) sowie die verwendeten Begriffe (für die diversen Tasten oder Komponenten wie z.b. "Memory Card (8MB) (für PlayStation(R)2)") regelt, um die Spiele untereinander konsistent zu halten und Usability-Wildwuchs zu vermeiden.


Mich würde interessieren welche Software die Probleme bereitet.

Es gibt eine Inkompatibilitätsliste für die 75000er-Serie:
http://www.us.playstation.com/News/ConsumerAlerts/softwareTitles_75001.html


Es ging mir darum, was im Endeffekt tatsächlich möglich ist, Tricks hin oder her. Wie gesagt: Ich glaube dass sich auf der PS2 in mancher Hinsicht letztendlich einfach mehr erreichen lässt als auf einem damaligen PC.


Ich wage da schon zu widersprechen, sowohl von technischer als auch von "schont bitte die Psyche des Programmierers"-Sicht. Die PS2-Architektur ist in einigen Belangen einfach nicht logisch :) (böse Zungen könnten auch sagen: sie ist in einigen Belangen einfach krank. Das fängt schon mit dem CD/DVD-Filesystem an).

Ich zähle jene Beispiele, wo die PS2 wirklich erstaunliches leistet zu den Ausnahmen; sprich, nur mit Tricks möglich (wie eben in SotC, oder in den tri-Ace-Spielen). Mit Tricks die auf einer GeForce 2 z.B. nicht nötig gewesen wären.

Umsomehr müssen natürlich jene Programmierer die so viel aus der PS2 rausholen, schon bewundert werden. Das tu ich auch.

Und jo, letztendlich macht's der Content.

Ihm
2007-09-06, 20:24:22
Es gibt eine Inkompatibilitätsliste für die 75000er-Serie:http://www.us.playstation.com/News/ConsumerAlerts/softwareTitles_75001.html


Krass. Das sind zwar nicht viele PS2 Titel (wenn man alle PS2 Titel berücksichtigt), aber da sind schon ein paar nette Spiele dabei.
Danke für den Link. ;)

P.S.: Sind das wirklich alle oder nur die, die Sony kennt?

Coda
2007-09-06, 22:00:12
Imo wird der eDRAM immer genutzt, wenn der Framebuffer klein genug ist (also 720p ohne AA oder 480p mit 4xAA).
Der eDRAM MUSS benützt werden. Da ist die ganze ROP-Logik mit drin.

... und sonst wird eben auf Tiling zurückgegriffen.
Das geht nur leider auch auf die CPU, zudem wird das Batching erschwert. Da verliert man locker viel Leistung damit leider.

tokugawa
2007-09-07, 13:04:30
Krass. Das sind zwar nicht viele PS2 Titel (wenn man alle PS2 Titel berücksichtigt), aber da sind schon ein paar nette Spiele dabei.
Danke für den Link. ;)

P.S.: Sind das wirklich alle oder nur die, die Sony kennt?

Da kein Spiel rauskommt, ohne dass es bei Sony landet, gibt's keine Spiele die Sony nicht kennt.

Allerdings werden das die Spiele sein bei denen Probleme entdeckt wurden. Ob es bei einigen (vielleicht noch unbekannteren) Spielen Probleme gibt, kann natürlich nicht ausgeschlossen werden.

StefanV
2007-09-07, 13:29:09
Wie hat So-Nie das eigentlich hinbekommen, das bei den Slims (bzw SCHP-75000) nicht geht??

robbitop@nyc
2007-09-07, 16:05:15
Warum nicht?
Auch dann hat man IMO das selbe Problem, da man die TEX-Ops eben nicht hinter den ALU-Ops verstecken kann, sondern diese hintereinander abarbeiten muss.

Nv hat das selber sehr schön dargestellt:
http://img244.imageshack.us/img244/2171/332700ecih8.jpg (http://imageshack.us)


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/3/



Man kann IMO höchstens versuchen möglichst auf ALU- oder TEX-Ops zu verzichten um die Pipeline für eines der beiden freizuhalten, was ja nicht besonders viel Sinn macht.
Nachtraeglich macht man die Vorgaengerchips natuerlich schlecht, damit der neue im Rampenlicht steht. Schau dir mal die Performance des G70 in Spielen des Jahre 2005 an und vergleiche sie mit der Performance von heute (relativ zum R5xx). Natuerlich macht die TEX:ALU Rate dort einen Unterschied.

robbitop@nyc
2007-09-07, 16:07:27
Naja, dass Xenos eine schwache CPU ist, dürfte klar sein - auch wenn der Gast das sicherlich nicht meinte. IBMs Power6 ist ja auch eine schwache GPU. ;)



Was hat der Xenos mit dem Power6 zu tun? Das sind voellig andere Archs. (mit einem gewaltigen IPC Unterschied)

Gast
2007-09-07, 16:48:08
Was hat der Xenos mit dem Power6 zu tun? Das sind voellig andere Archs. (mit einem gewaltigen IPC Unterschied)
Gar nichts. Es geht darum, dass eine GPU meist eine schlechte CPU und eine CPU meist eine schlechte GPU ist.

tokugawa
2007-09-07, 17:38:14
Wie hat So-Nie das eigentlich hinbekommen, das bei den Slims (bzw SCHP-75000) nicht geht??

Wie gesagt, in den 75000 und höher steckt ein redesignter Prozessor drin, wo sie die Idee hatten einige Integer-Arithmetik-Instruktionen schneller zu machen, dafür aber Speicher-Zugriffe langsamer (soweit ich weiß trifft das vor allem auf den IOP zu). Das allein reicht aus um einige weniger robust programmierte Titel ins Wanken zu bringen (wenn man sich z.B. auf gewisse Timings verlässt).

StefanV
2007-09-07, 17:43:09
Wie gesagt, in den 75000 und höher steckt ein redesignter Prozessor drin, wo sie die Idee hatten einige Integer-Arithmetik-Instruktionen schneller zu machen, dafür aber Speicher-Zugriffe langsamer (soweit ich weiß trifft das vor allem auf den IOP zu). Das allein reicht aus um einige weniger robust programmierte Titel ins Wanken zu bringen (wenn man sich z.B. auf gewisse Timings verlässt).
*aua*, das tut weh, was So-Nie gemacht hat...
Den Prozessor setzen sie doch nur in der Playstation2 ein, oder??

Da sollte doch der letzte *insertbadword* gemerkt haben, das man da keinerlei Änderungen am Design vornimmt...

Gast
2007-09-09, 22:58:09
http://www.abload.de/img/masterchiefkillzownedtaxilbq.gif (http://www.abload.de/image.php?img=masterchiefkillzownedtaxilbq.gif)

Gast
2007-09-10, 00:28:09
Passt auf gleich kommt Thade.:cop:
Er ist schon da ;)

Xenon ist eine äußerst schwache CPU, hat jetzt Vorteile, weil die DEVs nicht richtig mit dem CELL umgehen können. Der CELL hat bei optimaler Ausnutzung deutliche Vorteile, zudem kann CELL auch RSX unter die Arme greifen.



Die 360 hat in Sachen Programmierbarkeit die Nase vorne. Schlechte Umsetzungen zu bewertung, das ist nicht sonderlich klug. Die 360 ist der PS3 unterlegen, aber nur leicht.



Mit einem 128Bit Speicherinterface kann Xenos gar nicht auf X1950Pro Niveau liegen. Xenos ist deutlich unter dieser Karte anzusiedeln. Ein völlig überhypter Chip, wo viele meinen er entspricht dem D3D10-Standard (Computerbase ahoi), sei RSX deutlich überlegen. Alles Schachsinn³

Und der 10MB eDRam ist mal vollkommen für die Katz. MSAA for free wurde von einigen M$ Mitarbeitern propagiert, was ist, MSAA ist die Ausnahme und auch das Killerfeature schlechthin, FP16-HDRR + MSAA findet eigentlich nirgends Einsatz. Was für eine Ironie.





Die 360 hat in Sachen Speicher keinen wirklich großen Vorteil. Welche Ports meinst du denn bitte, welche Port hat denn auf der 360 bessere Texturen?

Lupf-mein-Stlumpf
2007-09-10, 16:51:46
Statt 16 Modellen mit 2 wirklich sehr verschiedenen Hardware-Komponenten (PS2 ab Serie 75000 hat neue integrierte Chips für EE und GS und ändert speziell den IOP - geänderte Zyklenlängen für manche Instruktionen, anderer Cache-Size) und insgesamt 3 "großen" Serien auf denen man testen soll (30000, 50000 und 75000) hat man halt am PC ein paar Millionen potentielle Konfigurationen - also klar, mit dem PC isses kein Vergleich :)

Ich wette, das auf den insgesamt 5+ Konsolenkonfigs mehr getestet wird als jemals auf dem PC. Und außerdem gibt es nicht Mio. Konfigs sondern nur eine verfickte DX9-MinimalStandardkonfig mit 3Ghz x86 Single (oder schon Dual?)core/Shader3/2GB die "komischerweise" genau dem Techlevel einer XBOX360 entspricht.

reunion
2007-09-10, 17:37:56
Nachtraeglich macht man die Vorgaengerchips natuerlich schlecht, damit der neue im Rampenlicht steht.

Das macht die Folie aber nicht unwahrer.


Schau dir mal die Performance des G70 in Spielen des Jahre 2005 an und vergleiche sie mit der Performance von heute (relativ zum R5xx). Natuerlich macht die TEX:ALU Rate dort einen Unterschied.

Natürlich macht sie einen Unterschied, denn wie schon gesagt: Umso höher die ALU-Last, umso niedriger die Füllrate. Solange die TEX-Rate, wie bei Spielen anno 2005 wohl der Fall stark überwiegt, stallt die Pipeline natürlich wesentlich weniger oft.

Gast
2007-09-10, 17:49:18
Natürlich macht sie einen Unterschied, denn wie schon gesagt: Umso höher die ALU-Last, umso niedriger die Füllrate. Solange die TEX-Rate, wie bei Spielen anno 2005 wohl der Fall stark überwiegt, stallt die Pipeline natürlich wesentlich weniger oft.

wenn ich es richtig verstehe ist CineFX doch die TEX:ALU-ratio ziemlich egal. die pipeline kann sowieso nur entweder oder, ob sie jetzt nun einen TEX-befehl oder einen arithmetikbefehl abarbeitet ist doch ziemlich egal.

tokugawa
2007-09-10, 18:56:46
Ich wette, das auf den insgesamt 5+ Konsolenkonfigs mehr getestet wird als jemals auf dem PC.


Aus Erfahrung kann ich da nur widersprechen. Das Spiel wird auf allen Plattformen in der gleichen Weise auf Herz und Nieren geprüft. Zumindest wenn man die QA so ernst nimmt wie die meisten Firmen (klar, Ausnahmen die meist terminbedingt sind, gibt's immer, wo dann meistens die QA zuerst eingespart wird). Interessanterweise gibt's, wenn man die Buganzahl in der Bugdatabase anschaut, bei PC-Spielen oft die meisten Bugs zu fixen - eben weil die QA einfach auf mehreren verschiedenen PCs testet, und dadurch verschiedene Konfigurationen hat.


Und außerdem gibt es nicht Mio. Konfigs sondern nur eine verfickte DX9-MinimalStandardkonfig mit 3Ghz x86 Single (oder schon Dual?)core/Shader3/2GB die "komischerweise" genau dem Techlevel einer XBOX360 entspricht.

Doch, es gibt Millionen an möglichen Variablen, die verschiedene Auswirkungen auf das Programm haben können.

Beispiel aus der Praxis: Videoplayback für Ingame-Videos in einem gewissen PC-Adventure das ich nicht näher nennen will. Das hat auf allen "MinimalStandardkonfigs" funktioniert. Nun kann man aber natürlich nicht damit rechnen dass Videocodecs oder gar das Windows Media Player Subsystem auf allen Windows-Rechnern gleich sind oder gar richtig installiert sind. Hier hast du dann gleich 5 weitere Konfigurationen.

Mit jeder neuen Variable multiplizieren sich die Varianten. Und das wächst dann schnell in eine Millionenanzahl an Konfigurationen (teilweise faktorielles Wachstum mit jeder neu hinzukommenden Variable).

Es ist also nicht vergleichbar mit "Ach, entspricht einer Xbox360". Wenn du das behauptest hast du noch nie für den PC entwickelt, und es zeugt auch von einem relativ geringen technischen Verständnis was die Variabilität von PCs angeht (oder zumindest eines bestimmten Spiele-Betriebssystems). Ziemlich naiv die Behauptung: du hast absolut keine Ahnung was alles den reibungslosen Ablauf einer PC-Grafikanwendung (noch dazu interaktiv, wie Spiele) behindern kann. Das fängt schon mit Treiberbugs ab (ach ja, jede Treiberversion und jeder Grafikkartenhersteller ist eine weitere Variable - total naiv zu glauben dass DirectX9 immer gleich funktioniert auf jeder Karte mit jedem Treiber).


Ich würde Leute wie dich bitten nicht Behauptungen der Form "ich wette es ist so!" aufzustellen ohne wirklich direkte Erfahrung in diesen Bereichen gemacht zu haben. Das führt nur zu Fehlinformationen.

Demirug
2007-09-10, 19:26:01
wenn ich es richtig verstehe ist CineFX doch die TEX:ALU-ratio ziemlich egal. die pipeline kann sowieso nur entweder oder, ob sie jetzt nun einen TEX-befehl oder einen arithmetikbefehl abarbeitet ist doch ziemlich egal.

Abhängig von der genauen Chip Variante können neben dem Texturbefehl noch x zusätzliche Rechenoperationen durchgeführt werden. Lediglich die ALU vor der TMU kann wenn ein Texturbefehl vorhanden ist nur eingeschränkt (Berechnung der Texturkoordinaten) genutzt werden.
Dadurch ergibt sich in Summe ein sehr kleines Tex:Alu Verhältnis.

Erschwerend kommt eben hinzu dass es sich beim Einsatz von AF nicht verändert.

fizzo
2007-09-10, 21:10:33
Das hat sich bei der GeForce2 und einem PC einfach keiner angetan. Und das ist auch wirklich der einzige Grund warum es angeblich "keine Spiele auf GeForce 2 gab die so gut wie GT4 aussehen".


Zu der Zeit mag das sein, dank der ziemlichen Parallelität der PS2. Aber das konnte zum Erscheinen der PS2 auch noch keiner wirklich nutzen, da das Know-How fehlte.

Und ich denke wenn man die GF2 und einen PC von damals wirklich ausgereizt hätte, und vor allem gute Artists gehabt hätte (ein sehr wesentlicher Punkt den man nicht ausklammern darf. Gute Artists machen 90% von guter Grafik aus, selbst bei altbackener Technik!), dann wär der GT4-Fan hier auch leichter zu überzeugen davon.

um nocheinmal darauf zurueck zu kommen, so bietet sich ja das beispiel der wii an. die technischen daten entsprechen meines wissens eines highend pc`s zur damaligen zeit. wenn man sich nun kommende games wie mp3 oder auch smg ansieht, so sieht man sehr schoen, was alles so moeglich gewesen waere.

aber wie tokugawa ja schon treffend festgestellt hat, ist primaer das artwork fuer den visuellen eindruck ausschlaggebend. gerade die genanten titel haben aufgrund ihrer langen, freizuegigen entwicklungsdauer davon profitier - 1st party auf einer konsole zu sein hat so seine vorzuege.

VivaLaHarry
2007-09-10, 22:12:39
highend pc`sHigh-End PCs
mp3 oder auch smg Entschuldigung. Möchte nicht gerne die Diskussion stören aber diese ganzen Abkürzungen sind mir ein Rätsel. MPEG Layer-3 und Spider Murphy Gang oder wovon sprechen wir hier? :redface:

MfG,
VivaLaHarry

tokugawa
2007-09-10, 22:25:46
High-End PCs
Entschuldigung. Möchte nicht gerne die Diskussion stören aber diese ganzen Abkürzungen sind mir ein Rätsel. MPEG Layer-3 und Spider Murphy Gang oder wovon sprechen wir hier? :redface:

MfG,
VivaLaHarry

MP3 wird für Metroid Prime 3 stehen und SMG für Super Mario Galaxy.

Und es stimmt, diese Spiele kochen auch nur mit Wasser, aber haben halt sehr gute Köche/Artists.

Coda
2007-09-10, 22:31:00
High-End PCs
High-End-PCs

Gast
2007-09-10, 22:36:36
um nocheinmal darauf zurueck zu kommen, so bietet sich ja das beispiel der wii an. die technischen daten entsprechen meines wissens eines highend pc`s zur damaligen zeit.

Wenn es das wäre, könnte der Wii auch in HDTV rendern. Und mp3 zeigt nun wirklich nichts, was es in der letzten Konsolengeneration nicht auch schon gab und ist dazu noch meilenweit von einem HL2/Doom3 entfernt.

fizzo
2007-09-10, 23:07:03
Wenn es das wäre, könnte der Wii auch in HDTV rendern. Und mp3 zeigt nun wirklich nichts, was es in der letzten Konsolengeneration nicht auch schon gab und ist dazu noch meilenweit von einem HL2/Doom3 entfernt.

sind wir einwenig pingelig - dir ist sehr wohl bewusst auf was ich hinsaus wollte. wenn man ign oder gametrailers trauen kann, so hebt sich der 3 teil sehr wohl von seinen vorgaengern ab - in dieser form waere dies imo auf der ps2 nicht moeglich. der hauptgrund warum ich diesen titel angefuehrt habe ist das grandiose artwork - wer lust hat kann ja die 1up Show (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5803971&postcount=139) anschaun. da wird das game recht kritisch beurteilt - man kann sich aber ein sehr schoenes bild ueber das meisterwerk von retro machen =)

tokugawa
2007-09-11, 01:03:18
Wenn es das wäre, könnte der Wii auch in HDTV rendern.


Soweit ich weiß ist die niedrigste HDTV-Auflösung ja möglich.


Und mp3 zeigt nun wirklich nichts, was es in der letzten Konsolengeneration nicht auch schon gab und ist dazu noch meilenweit von einem HL2/Doom3 entfernt.

HL2 ist auch von einem Doom 3 meilenweit entfernt. Und sowohl HL2 als auch Doom 3 sind ja nicht als Vergleich herangezogen worden, sondern eben ein High-End-PC aus "jener Zeit", also ein GeForce2-PC. Und das kommt tech-level-mäßig schon hin.

Mit anderen Worten: wenn jemand etwa eine tolle Grafik aufführt für die technische Überlegenheit des Systems ist das meistens eher gutes Artwork. Die Technik dahinter lässt sich mit Ästhetik nur bedingt beurteilen.

GBL
2007-09-11, 05:25:43
Wii kann kein HD, das beginnt ab 720p.

Gast
2007-09-11, 07:12:05
in dieser form waere dies imo auf der ps2 nicht moeglich.

BLACK war grafisch/technisch deutlich beeindruckender.

fizzo
2007-09-11, 08:25:34
BLACK war grafisch/technisch deutlich beeindruckender.

bei der texturqualitaet sowie dem lightning hebt sich mp3 sehr wohl von black ab - ueber details koennte man natuerlich streiten. wenn man jetzt aber in betracht zieht, dass letzteres mit slowdowns zu kaempfen hat wohingegen mp3 konstant mit 60fps laeuft, so hat sich die diskusion fuer mich erledigt.

Gast
2007-09-11, 08:36:08
^^ Bei der XBOX Version gab's keine Slowdowns. Außerdem hat BLACK beeindruckende Partikeleffekte, wovon MP3 nur träumen kann. Die Texturen sind bei MP3 auch nicht besser aufgelöst, sondern eben nur ein anderes Artwork. Hinzu kommt, dass Wii immer noch kein Dolby Digital 5.1 Sound bietet.

fizzo
2007-09-11, 09:02:55
^^ Bei der XBOX Version gab's keine Slowdowns. Außerdem hat BLACK beeindruckende Partikeleffekte, wovon MP3 nur träumen kann. Die Texturen sind bei MP3 auch nicht besser aufgelöst, sondern eben nur ein anderes Artwork. Hinzu kommt, dass Wii immer noch kein Dolby Digital 5.1 Sound bietet.

wer redet hier bitte von der xbox?

in dieser form waere dies imo auf der ps2 nicht moeglich

und was eine sonddiskusion hier zu suchen hat ist mir schleierhaft, legt jedoch deine intention nahe.

Gast
2007-09-11, 09:13:58
sowie dem lightning

Du meinst Lighting. Besseres Lighting? Als was? Im Vergleich zu den Vorgängern sicher, aber nicht im Vergl. zur ganzen letzten Konsolengeneration. Und auch hier sehe ich schöneres Lighting bei BLACK.

http://www.gamespot.com/video/920901/6144756/black-gameplay-movie-7
http://www.gametrailers.com/player/usermovies/1705.html
http://www.gametrailers.com/player/8706.html?type=mov

L.ED
2007-09-11, 10:50:36
Irgendwie ist aber keine K.I. so wirklich zusehen(?),:| also Grafisch ist das Tatsächlich beeindruckend (wenn das von ner alten X-Box oder gar PS2 stammen oder auf den Kisten dann auch so aussehen soll!?).

Spielerisch allerdings tut mich das ganz und gar nicht überzeugen! Sicherlich auch wegen der kaum erkennbaren oder nennenswerten K.I. aber auch wegen dieses ewiglich aufgewärmte Kriegs-scheiß (sry) (als Thema), nun ja aber das soll und ist hier ja nicht das Thema, von daher Hut ab. :cool:

Radeonator
2007-09-17, 17:56:29
Wie wäre es, wenn ihr mal irgendwas zum Threadthema sagt, anstatt euch wie bornierte Kleinstkinder darum zu streiten, wer den längeren hat :rolleyes:

xBox ~ GF4
gamecube ~ ATi R200-R300 ?
PS2 ~ ?
wii ~R300-R400 ?
xBox360 ~ 2900XT@1950Pro ?
PS3 ~ 7950GT ?

AnarchX
2007-09-17, 18:41:12
xBox ~ GF4
gamecube ~ ATi R200-R300 ?
PS2 ~ ?
wii ~R300-R400 ?
xBox360 ~ 2900XT@1950Pro ?
PS3 ~ 7950GT ?

Imo eher:
xBox ~ GF3 Ti-500
gamecube ~ GeForce 2 (MX) mit "Shaderfähigkeiten" (http://en.wikipedia.org/wiki/Nintendo_GameCube#Graphics_processing_unit_and_system_chipset), aber halt etwas ganz anderes als alle Desktop Designs
PS2 ~ Immerhin ~2.4GTex/Pix, aber eben keine besonderen Fähigkeiten und sehr wenig aber sehr schnellen RAM, im Endeffekt aber wohl auch nicht mehr als eine GeForce 3 bei der Leistung, die ja bei einigen Dingen deutlich weniger Passes brauch
wii ~Flipper@247MHz @ 90nm mit wohl nur kleineren Optimierungen, also wohl eher auch noch hinter einer GeForce4
xBox360 ~ hier (http://www.beyond3d.com/content/articles/4/) wird Xenos erlärt, aber X1950Pro mit den Vorteilen der USA und eben dem eDRAM dürfte wohl passen, aber auch noch einige Unterschiede zum R600 z.B. fettere ROPs (4 oder 8 Z-Tests) und nur 4D-MADD+skal. ADD, anstatt 5D MADD)
PS3 ~ 7950GT@128Bit, was sie dann wohl um einiges degradiert

tokugawa
2007-09-17, 18:58:32
Naja, selbst wenn man sich wieder dem Threadthema zuwendet, wäre ja ein Vergleich mit PC-Chips schon mal prinzipiell falsch oder?

Es ist ja die Frage welche Konsole welchen Grafikchip hat, und nein, eine PS3 hat eben keine GeForce 7950GT und die Xbox keine GeForce 3. Klar sind die Chips verwandt, aber es sind halt trotzdem andere.

Also die richtige Antwort wäre (ich weiß, wenig spektakulär):

PS2: Graphics Synthesizer
GC: Flipper
PS3: RSX
Xbox360: Xenos
usw.

Ich finde es relativ sinnlos gerade auf PS2, PS3 und Xbox360 (aufgrund der Gesamtarchitektur) und auch auf GC/Wii (aufgrund der vielen Spezialitäten die deren Grafikchip kann) deren Grafikchips "isoliert" zu betrachten und mit PC-Grafikchips zu vergleichen.

Die genannten Konsolen (und die anderen in gewisser Weise auch) sind schon von Grund auf als "Gesamtstück" entworfen worden und bieten ihre Leistung eben in der Kombination - da kann man den Grafikchip nicht herausnehmen und diesen separat vergleichen, da eben die anderen Komponenten damit noch mehr zusammenspielen als das beim PC der Fall ist.

Radeonator
2007-09-18, 11:10:18
Naja, selbst wenn man sich wieder dem Threadthema zuwendet, wäre ja ein Vergleich mit PC-Chips schon mal prinzipiell falsch oder?

Es ist ja die Frage welche Konsole welchen Grafikchip hat, und nein, eine PS3 hat eben keine GeForce 7950GT und die Xbox keine GeForce 3. Klar sind die Chips verwandt, aber es sind halt trotzdem andere.
.

Der Threadstarter hat folgendes gefragt:

Welche Konsole hat welchen Grafikchip? ...
... Und wie ist dieser dann vom Design her mit den Desktop-GPU's zu vergleichen?

wie du die Frage findest, hat er nicht gefragt... :wink:

Gast
2007-09-18, 18:50:08
Der NV2X den die XBox1 hat entspricht mehr dem NV25 als dem NV20, was ihn zu einer GF4 macht, Stichwort PS1.3 vs PS1.1 (soviele Unterschiede haben die Chips ja nicht, außer das die GF4 mehr Vertex Einheiten hat).

Den Grafik Synthesizer der PS2 kann man wohl mit keiner GPU des PCs vergleichen, aber durch seine eigene API ist er nicht so eingeengt wie PC GPUs. Man sah immer wieder Dinge auf der PS2 die niemand für möglich hielt. Sollte mal eine DX10 GPU in eine Konsole verbaut werden, wird man hoffentlich vergleichbare "Aha" Erlebnisse evtl. sehen.

Coda
2007-09-18, 19:22:26
Hat NV2A wirklich Shadermodell 1.3? Ich bin immer davon ausgegangen dass es 1.1 ist, aber mit 2 Vertexshadern.

Neomi
2007-09-18, 21:00:29
Hat NV2A wirklich Shadermodell 1.3? Ich bin immer davon ausgegangen dass es 1.1 ist, aber mit 2 Vertexshadern.

Die Shader beginnen zwar mit xps.1.1, sind aber eher 1.3 ähnlich mit zusätzlichen Vorteilen. Es gibt z.B. Multiply Multiply Add (xmma, ermöglichte ein Kreuzprodukt in nur einer Instruktion), was zumindest über die D3D-Runtime auf dem PC nie ansprechbar war. Auch der Final Combiner (xfc) war eine schöne Sache.

Coda
2007-09-18, 22:21:44
Also schon die NV20-Combiner, aber halt alle Features ansprechbar?

Neomi
2007-09-18, 23:43:14
Jep, alle Features ansprechbar (zumindest kann ich mich an keine fehlenden erinnern), während auf dem PC die Runtime ein paar wenige Sachen vorenthalten hat. War besonders nervig (auf dem PC, nicht der XBox), wenn ein Shader auf dem PC dank den "reduzierten" Shaderinstruktionen exakt einen Slot mehr benötigt hätte als das Limit hergab und deshalb eine 1:1-Umsetzung nicht ging.

Coda
2007-09-18, 23:47:28
Na also. Dann ist es von der Hardware eben doch ein NV20 mit zwei Vertexshadern und keine GeForce 4. Was die Software draus macht ist ja nochmal was anderes.

Neomi
2007-09-19, 00:19:16
Das kann ich weder bestätigen noch widerlegen, dazu habe ich mich schon zu lange nicht mehr mit dem NV2A beschäftigt. Ich habe in meinen Backups von den alten Shadern jedenfalls keine Befehle gefunden, die der Pixelshader 1.3 kann, 1.1 aber nicht. Nur welche, die schon 1.1 kann oder XBox-Extensions, mit denen sich der NV2A aber noch eine Ecke angenehmer programmieren ließ als der NV25.

Slipknot79
2007-09-30, 03:10:26
Also nachdem hier einige Checker unterwegs sind, wieso arbeitet ihr ned bei Nvidia oder ATI? Oo

Gast
2007-09-30, 03:51:28
Soweit ich weiß ist die niedrigste HDTV-Auflösung ja möglich.480p läuft unter "EDTV" (Enhanced Definition). Ansonsten Ack.

tokugawa
2007-09-30, 14:40:07
Also nachdem hier einige Checker unterwegs sind, wieso arbeitet ihr ned bei Nvidia oder ATI? Oo

Ja eh, wieso nicht. Bewerben hätte ich mich können. Da unser Computergrafik-Institut auch gute Kontakte zu NVIDIA hat, wär da sicher was möglich gewesen.

Allerdings hat mich dann doch die Spieleindustrie mehr interessiert; zumal ich derzeit etwas unflexibel bin was nach Übersee umziehen betrifft.


Wieso wird eigentlich immer wieder als Argument ins Spiel geworfen "wenn ihr so viel checkt, wieso arbeitet ihr nicht bei X?". Ist irgendwie ein ziemlich idiotisches Argument. Man muß ja nicht irgendwo arbeiten nur weil man dazu in der Lage ist - man sollte dort arbeiten wo man Freude an der Arbeit hat (und was sich halt den persönlichen Umständen anpasst. Nicht jeder hat die Flexibilität einfach alles aufzugeben und umzuziehen).

Dass es außerhalb von NVIDIA und ATI kompetente Leute in der Echtzeitcomputergrafik gibt, ist ja Faktum. Da gibt's ja noch die diversen Forschungsinstitute überall auf der Welt.

Slipknot79
2007-09-30, 14:51:31
Ja eh, wieso nicht. Bewerben hätte ich mich können. Da unser Computergrafik-Institut auch gute Kontakte zu NVIDIA hat, wär da sicher was möglich gewesen.

Allerdings hat mich dann doch die Spieleindustrie mehr interessiert; zumal ich derzeit etwas unflexibel bin was nach Übersee umziehen betrifft.


Wieso wird eigentlich immer wieder als Argument ins Spiel geworfen "wenn ihr so viel checkt, wieso arbeitet ihr nicht bei X?". Ist irgendwie ein ziemlich idiotisches Argument. Man muß ja nicht irgendwo arbeiten nur weil man dazu in der Lage ist - man sollte dort arbeiten wo man Freude an der Arbeit hat (und was sich halt den persönlichen Umständen anpasst. Nicht jeder hat die Flexibilität einfach alles aufzugeben und umzuziehen).

Dass es außerhalb von NVIDIA und ATI kompetente Leute in der Echtzeitcomputergrafik gibt, ist ja Faktum. Da gibt's ja noch die diversen Forschungsinstitute überall auf der Welt.


Eine idiotische Frage ist das sicher nicht gewesen, sonst hättest du nicht seriös (oder gar nicht) geantwortet.

mjs
2007-09-30, 16:44:52
Imo eher:
wii ~Flipper@247MHz @ 90nm mit wohl nur kleineren Optimierungen, also wohl eher auch noch hinter einer GeForce4

ATI Hollywood heißt das gute Stück in der Wii.
Der hat nicht nur mehr Takt, sondern auch die doppelte Anzahl Pixel-Pipelines!
3-5 Fache Leistung als die GameCube GPU und eine Füllrate von 1944 megapixels per second.


GC GPU (Flipper) to Wii GPU (Hollywood)

162 MHz Clk to.... 243 MHz Clk ( 50 % Increase in Clk Speed )

3 Megs embedded Ram Same ( Wii able to use A-Ram as Additional

GPU/CPU Ram )

18-Bit color Used to avoid Frame Drops to.... 32-Bit Color Used at all times
4 Pixel Pipelines to.... 8 Pixel Pipelines
4 Texture Pipe (16 Stages Each) to.... 8 Texture Pipelines (16 Stages Each)

Resolution is Restricted in the SDK not in the Hardware...

Those are the Basics...

You can see where this would be 3-5 Times more powerful then the Normal GC GPU..

Cool. So how fast is the 64MB of GDDR in the Wii and has the 24MB of 1t-sram seen an increase in speed as well?

That's interesting in itself... Some GameCube programs rely on the Clock to a a Certain Ratio... The Gamecube CPU is 3 times the Clock of the GPU... GPU Clk is = to the Front Side Bus... Memory is Clk 2 times the GPU Speed...486 CPU 364 RAM 162 GPUThe Wii would be as Follows...729 CPU 486 RAM 243 GPU (ARAM would be at 243 also)As you can tell it's a Formula that they use and it seems to work well

So what can you tell me about the TEV unit in the Wii? Does is it dramatically different from the TEV in the GC? Vertex shader support?

TEV is Basicly the Same... The GPU has twice the Pipelines now at 8... Tev makes up for this by allowing 16 Texturing Stages per Pipeline... Vectex Shader routines are handled by Tev just like Pixel Shader routines are.

So does the file disclose any of the GPU's performance numbers?Gflops? Polygons per second? Fill rate? Stuff like that?

Only in a round about way... It gives you test code to run and shows some optimizations that can be added...The Code is run via Debuggers Cable or Wireless Network (Wireless requires a Special Disc in the Wii)...

But you can do the math. 8 pipelines at 243mhz… that’s about 1944 megapixels per second. That’s a lot higher than the GC could handle and around twice what the xbox was dishing out.


Hmmm.. this must have been what Julian from Factor 5 meant when he said the Wii had an insane filtrate.. well compared to the Gamecube.

Exactly.


Quelle: http://wiinside.blogspot.com/2007/04/inside-wii.html

Coda
2007-09-30, 16:54:58
2 GTexel/s. Eine 8800GTX schafft ~18. Und das Trilinear.

"Füllratenmonster" ist also bissel arg daneben ;)

tokugawa
2007-09-30, 17:26:15
Eine idiotische Frage ist das sicher nicht gewesen, sonst hättest du nicht seriös (oder gar nicht) geantwortet.

Oh doch. Ich antworte selbst auf unsachliche oder gar dümmliche Fragen sachlich (zumindest versuche ich es). Meistens entlarvt man damit nämlich den Fragesteller.

2 GTexel/s. Eine 8800GTX schafft ~18. Und das Trilinear.

"Füllratenmonster" ist also bissel arg daneben ;)

Natürlich ist alles relativ :)

Aber ich glaube der Punkt ist dass man mit der Wii durchaus einiges anstellen kann. Das ist ja was primitivere Gamer nicht verstehen: dass ein guter Entwickler mit den Vorteilen der Wii gegenüber dem Gamecube schon was anfangen kann. Aber das braucht halt Zeit und logischerweise sind Launchtitel oder die Titel des ersten Jahres noch nicht so dass sie die Hardware ausreizen.

Slipknot79
2007-09-30, 18:14:10
Oh doch. Ich antworte selbst auf unsachliche oder gar dümmliche Fragen sachlich (zumindest versuche ich es). Meistens entlarvt man damit nämlich den Fragesteller.


Da ich mich nicht entlarvt fühle, liegst du zumindest in meinem Fall deutlichst daneben. Denn mit deiner Antwort hätte ich die Frage auch selbst so beantworten können. :rolleyes: "no na". Die Antwort liegt also im Detail.

Aquaschaf
2007-09-30, 18:23:18
sondern auch die doppelte Anzahl Pixel-Pipelines!

Das ist ein mit an Sicherheit grenzender Wahrscheinlichkeit falsches Gerücht.

tokugawa
2007-09-30, 21:43:10
Da ich mich nicht entlarvt fühle, liegst du zumindest in meinem Fall deutlichst daneben. Denn mit deiner Antwort hätte ich die Frage auch selbst so beantworten können. :rolleyes: "no na". Die Antwort liegt also im Detail.

Vielleicht hast du die Antwort auch nicht verstanden. Die Entlarvten müssen ja selbst nicht wissen dass sie entlarvt worden sind. Aber für die Öffentlichkeit wird's klar.

Aber vielleicht willst du deine Frage noch etwas elaborieren? Diese Chance sollte zumindest jeder haben.

Slipknot79
2007-09-30, 22:14:49
EOD meinerseits hier, ich hab dir gesagt wie's läuft, wenn du das ned glaubst und es versuchst anders hinzubiegen, dann ist es einfach sinnlos. Dann kann ich auch nix dafür.

tokugawa
2007-09-30, 22:56:20
EOD meinerseits hier, ich hab dir gesagt wie's läuft, wenn du das ned glaubst und es versuchst anders hinzubiegen, dann ist es einfach sinnlos. Dann kann ich auch nix dafür.

Hast du nicht. Du hast nur die Frage gestellt wieso wir nicht bei NVIDIA oder ATI arbeiten. Ich hab dir eine ehrliche Antwort gegeben.

Ich glaube du hast deine falschen Vorstellungen bezüglich "Checkern" und "wieso die nicht bei NVIDIA/ATI arbeiten" immer noch nicht abgelegt.

Slipknot79
2007-10-01, 00:04:53
Im Grunde genommen hast du mir 2 Antworten geliefert. Dich interessiert mehr die Spieleindustrie und du bist nicht bereit dich dauerhaft aus Wien/WU zu bewegen. Auf die erste Antwort wäre ich nicht gekommen. Daher kann meine Frage nicht blöd gewesen sein. Die zweite Antwort hätte ich mir selbst auch geben können (Sie lag in meinen Gedanken als ich die Frage niederschrieb), da meinte ich dass die Antwort im Detail liegen kann (Hobbys, Familie, Freunde, Haus,...) , also auch daher keine blöde Frage.

Da du offensichtlich an der TU Wien arbeitest, sollte dir geläufig sein was Professoren in den Lehrveranstaltungen von sich geben: Es gibt keine blöden Fragen, nur blöde Antworten.

Daher bleibt es bei deinem letzten Satz beim Glauben. Da ich selbst von der TU komme, ist mir klar dass das Berufsfeld des Informatikers (selbst wenn er sich auf Grafik spezialisiert) nicht gerade schmal ist.

Gast
2007-10-01, 00:10:53
man sollte auch mal bedenken wie wenig strom wii braucht!
leistung ist nicht immer alles.

Coda
2007-10-01, 00:45:47
Wenn man es auf die Leistungsfähigkeit umrechnet ist das gar nicht so toll.

HotSalsa
2007-10-01, 01:09:58
Das ist ein mit an Sicherheit grenzender Wahrscheinlichkeit falsches Gerücht.

Jup is ein Gerücht... Pipelines beim GC = Pipelines beim Wii

In der Dev Phase des GC wurden teilweise falsche Pipelinezahlen angegeben, die später korrigiert wurden.

Hab das nun schon 2 - 3 mal im Inet gelesen... sry, dass ich mich nicht an die Quelle erinnern kann.

tokugawa
2007-10-01, 01:13:01
Im Grunde genommen hast du mir 2 Antworten geliefert. Dich interessiert mehr die Spieleindustrie und du bist nicht bereit dich dauerhaft aus Wien/WU zu bewegen.


Doch, bin ich, jedoch nicht zum gegenwärtigen Zeitpunkt. Ich erwäge einen PhD auf der Universität von Osaka in Japan in etwa 3 Jahren.


Auf die erste Antwort wäre ich nicht gekommen. Daher kann meine Frage nicht blöd gewesen sein.


Ich sage jetzt nicht dass NVIDIA mich definitiv genommen hätte, aber erstens hat unser Institut einen guten Ruf bei NVIDIA, und zweitens kenn ich auch Leute dort. Beides nicht zu verachten für Jobchancen (auch wenn Können natürlich das Primärargument sein sollte, aber ich will hier ja nicht irgendwie posen).


Die zweite Antwort hätte ich mir selbst auch geben können (Sie lag in meinen Gedanken als ich die Frage niederschrieb), da meinte ich dass die Antwort im Detail liegen kann (Hobbys, Familie, Freunde, Haus,...) , also auch daher keine blöde Frage.

Da du offensichtlich an der TU Wien arbeitest, sollte dir geläufig sein was Professoren in den Lehrveranstaltungen von sich geben: Es gibt keine blöden Fragen, nur blöde Antworten.


Ich arbeite nicht auf der TU (außer einem Tutorenjob), aber meine Diplomarbeit entsteht in Zusammenarbeit mit dem Institut für Computergrafik als Teil eines EU-Projekts. Ich bin eigentlich sowas wie ein billiger Institutsmitarbeiter...

Arbeiten tu ich beim einzigen österreichischen Konsolenentwickler. So gesehen "interessiert mich" nicht nur die Spieleindustrie, sondern ich bin schon mittendrin.

Letztendlich hast du recht: Fragen können nicht blöd sein, das ist eigentlich auch mein Kredo. Jedoch klang deine Frage zu sehr nach klassischen Trollversuchen (und Fragen die eigentlich Trollversuche sind, sind halt... blöd. Allerdings würde ich diese dann nicht mehr als Fragen im klassischen Sinn definieren). Vielleicht hab ich mich einfach geirrt, wenn dem so ist, dann tut's mir leid.


Daher bleibt es bei deinem letzten Satz beim Glauben. Da ich selbst von der TU komme, ist mir klar dass das Berufsfeld des Informatikers (selbst wenn er sich auf Grafik spezialisiert) nicht gerade schmal ist.

Glauben? Was meinst du damit?

Wenn man es auf die Leistungsfähigkeit umrechnet ist das gar nicht so toll.

Naja. So schlecht ist es aber auch nicht. Leistungsfähiger und gleich viel/weniger Leistungsverbrauch ist schon im Bereich "ok".

Jup is ein Gerücht... Pipelines beim GC = Pipelines beim Wii

In der Dev Phase des GC wurden teilweise falsche Pipelinezahlen angegeben, die später korrigiert wurden.

Hab das nun schon 2 - 3 mal im Inet gelesen... sry, dass ich mich nicht an die Quelle erinnern kann.

Das Internet halte ich nicht für eine gute Quelle diesbezüglich, aber ich werde es diese Woche wohl selbst nachschauen :)

Slipknot79
2007-10-01, 01:22:18
Ich wollte nicht trollen, war nur ne Frage aus Neugier. Wenn ich das Zeug dazu hätte, würde mich schon eine große Firma wie Nvidia,... reizen. Ich könnte Taten setzen von denen möglichst viele Hardwarefans profitieren würden, vorallem geht es ums Hobby. Der Gedanke hat was.

>Glauben? Was meinst du damit?

Ich meinte damit, dass es nur bei einem Glauben ("Ich glaube du hast deine..") geblieben ist. Also bei einer falschen Vermutung.

Aquaschaf
2007-10-01, 01:34:42
Jup is ein Gerücht... Pipelines beim GC = Pipelines beim Wii

Pipelinezahlen kommen in keiner Quelle vor. Es hat noch irgendwer den Fehlschluss TEV = Pipeline dazwischen gemacht. Mehr TEV-Stufen hieße nur dass komplexere Effekte möglich wären, nicht mehr Rechenleistung.

tokugawa
2007-10-01, 19:41:52
Pipelinezahlen kommen in keiner Quelle vor. Es hat noch irgendwer den Fehlschluss TEV = Pipeline dazwischen gemacht. Mehr TEV-Stufen hieße nur dass komplexere Effekte möglich wären, nicht mehr Rechenleistung.

So, hab mich schlau gemacht (soweit es nach den offiziellen Dokumenten überhaupt geht - und soweit ich das überhaupt posten darf...)... 16 TEVs sind da, aber nur 8 davon kann man Texturen zuweisen (der Rest ist für Combiner-Gschichteln).

Es gibt allerdings doch einige Unterschiede zum Gamecube, die allesamt eher kleinerer Natur sind, aber dennoch "verschieden" genug dass man nicht vom selben Grafikchip reden kann (z.b. ein Swizzling-Operator, den der Gamecube noch nicht hatte). Das kann für bestimmte Effekte lebensrettend sein, oder auch nicht. Je nachdem was man anstellt :)

Jedenfalls ist das Ding trotzdem eine nette Kiste mit der man schon einiges anstellen kann, auch wenn die "Rohleistung" jetzt nicht mit der restlichen Nextgenkonkurrenz konkurrieren kann (logischerweise).

mjs
2007-10-03, 13:27:21
Das finde ich jetzt sehr interessant, erst mal vielen Dank für Eure Antworten zum Thema ATI Hollywood.

Leider ist im normalen Internet wirklich sehr wenig zu diesem Thema zu finden, ich finde es allerdings toll, das Ihr wenigstens ein bischen mehr dazu wisst.



Gruß mjs

mjs
2007-10-05, 09:26:23
Jetzt habe ich noch etwas gefunden, bzgl. der technischen Daten des ATI Hollywood:

http://blog.newsweek.com/blogs/levelup/archive/2007/09/24/is-wii-really-gamecube-one-point-five-yes-says-beyond3d.aspx

tokugawa
2007-10-06, 02:29:28
Die Analyse kommt zu dem Ergebnis 1.5x - ich sage aber 2x, weil die Analyse rein auf der Taktrate beruht aber nicht die Speicherarchitektur berücksichtigt.

Zu den "minor changes" wie dem Swizzling Operator sag ich jetzt mal nichts weil das sehr anwendungsabhängig ist wieviel man davon profitieren kann.

Fetza
2007-10-06, 09:23:03
Das ist ja was primitivere Gamer nicht verstehen: dass ein guter Entwickler mit den Vorteilen der Wii gegenüber dem Gamecube schon was anfangen kann. Aber das braucht halt Zeit und logischerweise sind Launchtitel oder die Titel des ersten Jahres noch nicht so dass sie die Hardware ausreizen.


Ich finde zwar auch, das einige es mit dem wii bashing übertreiben. Das entscheidende kriterium für mich noch keine wii zu besitzen, liegt in ihrer flimmergrafik durch fehlendes AA. Was hilft es mir, wenn die konsole ganz nette sachen spieletechnisch ermöglicht, dabei aber eine aus heutiger sicht völlig unzureichende grafikqualität liefert. Und ich meine hier nun wirklich nur das fehlende AA, was ja gerade bei der 480p auflösung angebracht wäre. Aus gamersicht ist das völlig unverständlich, und der spielspass der auch ohne AA aufkommt ist dabei kein argument, warum man es nicht in der gpu implementiert hat.

greetz

tokugawa
2007-10-06, 14:03:47
Ich finde zwar auch, das einige es mit dem wii bashing übertreiben. Das entscheidende kriterium für mich noch keine wii zu besitzen, liegt in ihrer flimmergrafik durch fehlendes AA. Was hilft es mir, wenn die konsole ganz nette sachen spieletechnisch ermöglicht, dabei aber eine aus heutiger sicht völlig unzureichende grafikqualität liefert. Und ich meine hier nun wirklich nur das fehlende AA, was ja gerade bei der 480p auflösung angebracht wäre. Aus gamersicht ist das völlig unverständlich, und der spielspass der auch ohne AA aufkommt ist dabei kein argument, warum man es nicht in der gpu implementiert hat.

greetz

Ich respektiere deine Meinung.

So viel Flimmern hab ich eigentlich gar nicht gesehen, andererseits sind die Fernseher an denen ich's gesehen hab vielleicht so scheiße dass man das Flimmern nicht sieht.

Wie auch immer, ich hab die Grafikqualität ausreichend gefunden, zumal ich eher auf künstlerische Grafikqualität achte statt auf technische - und das sag ich obwohl ich aus der technischen Richtung komme und ein Grafiktechniknazi sein müsste!

Aber wie gesagt, jedem das seine, und letztendlich ist es Geschmackssache.

Fetza
2007-10-06, 22:50:16
Ich respektiere deine Meinung.

So viel Flimmern hab ich eigentlich gar nicht gesehen, andererseits sind die Fernseher an denen ich's gesehen hab vielleicht so scheiße dass man das Flimmern nicht sieht.

Wie auch immer, ich hab die Grafikqualität ausreichend gefunden, zumal ich eher auf künstlerische Grafikqualität achte statt auf technische - und das sag ich obwohl ich aus der technischen Richtung komme und ein Grafiktechniknazi sein müsste!

Aber wie gesagt, jedem das seine, und letztendlich ist es Geschmackssache.


Ich habe mal gehört, das auf full-hd displays durch das downscaling eine art "aa for free" eindruck entsteht. Und wenn das downscaling des displays gut ist, soll das bild auch nur minimal bluren. Sollte das stimmen, werde ich es auf jedenfall testen. Denn von den steuerungsmöglichkeiten bin ich vollends überzeugt.

Eine andere möglichkeit bietet übrigends sony an, mit einem bravia full-hd lcd samt speziellen hd-reciever wird das 480p auf 1080p hochskaliert. Kostet leider nur dann auch über 2000 euro :-)

Gast
2007-10-07, 02:40:40
Wenn es das wäre, könnte der Wii auch in HDTV rendern. Und mp3 zeigt nun wirklich nichts, was es in der letzten Konsolengeneration nicht auch schon gab und ist dazu noch meilenweit von einem HL2/Doom3 entfernt.

solche selten dämliche aussagen bitte mit links belegen. DANKE.