PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R500 mit 10 MB EDRAM?


Telema
2004-04-26, 22:59:37
http://media.xboxyde.com/gallery/special/xbox2/xbox2_scheme_bg.gif


Fake oder realistisch?

Xbox2 soll ja schon Ende nächsten Jahres kommen

mfg Telema=)

Crazytype
2004-04-26, 23:09:17
Ich glaub, dass sich Microsoft eher nach Sony als nach Nintendo richtet, und ein Release im Jahre 2005 halte ich sehr unrealistisch für die PS 3.

Telema
2004-04-26, 23:13:05
Es geht ja auch um die xbox2. Und wie es bis jetzt ausschaut will man Sony woll zuvorkommen. Also wäre Ende 2005 realistisch. Es heisst ja auch das ATI mit der R500 scho recht weit ist, also denke ich das es machbar ist.


mfg Telema:)

Coda
2004-04-26, 23:23:08
3 CPUs ??????
Ich weiß ja nicht, aber dann wird dir Hardware ziemlich teuer

Ailuros
2004-04-26, 23:34:18
GPU Performance Overview:

48 ALU ops per cycle
16 bilinear texture fetches per cycle
16 PS input interpolates per cycle
VS and PS load balanced
Max throughput per cycle:
1 vertex
1 triangle
2 (2*2)pixel quads + Z/stencil

predictable streaming and multi-threading make the GPU a latency tolerant device

Uhhmmmm....*gaehn*?

TomPo
2004-04-27, 00:12:45
von 3 CPUs war aber schon früher die rede - passt also schon.

was mich ein wenig stutzig macht: der R500 soll doch sicherlich DirectX Next werden, was habt dann aber "VS and PS load balanced" dort zu suchen? steh ich auf der leitung?

das ganze sieht durchaus echt aus. der gute michael dougherty ist schon als microsoft mitarbeiter im internet erschienen, zum beispiel hier (PDF) (http://www.ce.chalmers.se/staff/tomasm/pubs/soft_gfxhw2003.pdf). gibts vielleicht einen link zu dem artikel, aus dem das bild kommt - konnte auf dem server nix dazu finden.

StefanV
2004-04-27, 00:20:56
Original geschrieben von TomPo
was mich ein wenig stutzig macht: der R500 soll doch sicherlich DirectX Next werden, was habt dann aber "VS and PS load balanced" dort zu suchen? steh ich auf der leitung?

Du stehst aufm Schlauch ;)

Es könnte ja z.B. sein, daß die R500 keine Vertex und Pixelshader mehr hat sondern nur noch Unified Shader, also Pipes, die man entweder als Pixelshader oder als Vertexshader nutzen kann, ähnlich dem P10 und P9 von 3DLabs.

Das ganze könnte man dann aber auhc noch so hinbiegen, daß man die Pipes dynamisch konfiguriert, also mit 4 Unified Pipes könnte man also folgend konfigurieren:
4/0 (untexturiert, Wireframe)
3 Vertex-/1 Pixel Pipe
2/2
1/3
0/4 (TnL übernimmt die CPU)

TomPo
2004-04-27, 00:27:36
jo danke. also vielleicht nur eine bezeichnung, um bekannte namen zu benutzen.

Gast
2004-04-27, 00:28:35
DX Next soll iirc erst für und vor allem ausschließlich für Longhorn kommen, also etwa Februar 2006. Bis dahin ist der R500 schon wieder Schnee von gestern.

ow
2004-04-27, 07:08:27
.

Ailuros
2004-04-27, 10:36:31
Es gibt schon mehrere Threads darueber bei B3D. Ehrlich gesagt blicke ich momentan ueberhaupt nicht durch mit den Codenamen und roadmap Aenderungen bei ATI.

Auf jeden Fall sieht mir dass was ich oben sehe viel zu wenig aus fuer eine naechster Generation Console und ueberhaupt wenn sie jetzt doch nicht auf R500 basieren soll.

Fuer was jetzt R500 steht hab ich jetzt auch keine Ahnung mehr.

Was den Grafik-Anteil betrifft, sieht mir das Diagramm eher nach einer Art "Test-" oder "Praesentations-VPU" aus was auch nicht unbedingt heissen muss dass sie von ATI stammt.

robbitop
2004-04-27, 14:06:10
hm vieleicht ein kleiner R500..(RV550??), mit 3 CPUs on DIE und so einem mächtigen VPU wirds wärmetechnisch sehr problematisch in so einem kleinen gehäuse und wozu zur Hölle braucht man 3 CPUs?
Die VPU wird doch eher immer wichtiger bei Games..

betasilie
2004-04-27, 14:14:03
Original geschrieben von Gast
DX Next soll iirc erst für und vor allem ausschließlich für Longhorn kommen, also etwa Februar 2006. Bis dahin ist der R500 schon wieder Schnee von gestern.
Du redest hier vom PC. ... Mit Sicherheit wird die XBoxII DXNext bzw. eine CustomAPI, die ganz ähnlich DXNext ist, nutzen, wenn M$ es so will.

Wann DXNext für den PC kommt, steht auf einem ganz anderen Blatt. ;)

Tigerchen
2004-04-27, 16:23:29
Original geschrieben von robbitop
hm vieleicht ein kleiner R500..(RV550??), mit 3 CPUs on DIE und so einem mächtigen VPU wirds wärmetechnisch sehr problematisch in so einem kleinen gehäuse und wozu zur Hölle braucht man 3 CPUs?
Die VPU wird doch eher immer wichtiger bei Games..

Folge dem Griechen!
Mit dem R500 hat das Ganze wohl nix zu tun.

robbitop
2004-04-27, 17:13:38
ich folge niemandem ;)
momentan kann man eh nur raten. Wer weiss, wie authentisch das Ganze ist...

Gil-galad
2004-04-27, 18:36:07
Also 10 MB Embedded D-RAM halte ich für höchst unwahrscheinlich. Ich weiss zwar nicht genau wieviele Transistoren man für 10 MB einrechnen muss (weiss es jemand?), aber es werden sicher nicht wenige sein.

10 MB E-D-RAM halte ich für den R600 für wahrscheinlicher, als für den R500.

robbitop
2004-04-27, 18:41:00
naja wenn man 1-T eDRAM nimmt ca 80Mio Transistoren.
Als Framebuffer würde das tatsächlich Sinn machen, aber bei unseren Auflösungen im PC Bereich bräuchte man eher 32MB und das wären ~200Mio Transistoren.
Aber für ne Console könnte das reichen..
vieleicht wird der VPU für die XBOX2 ein "bisschen" anders als der PC R500.
Denn dedizierte hochgetakteter GDDR ist sehr teuer und auch das PCB wird sehr teuer wenn man 256bit DDR wählt. Mit einem OnDIE Framebuffer könnte man etwas am speicher sparen.

ow
2004-04-27, 19:39:13
.

robbitop
2004-04-27, 19:44:10
danke für den Hinweis ow...nicht verrechnet, einfach mit den Gedanken wo anders gewesen ;)

Crazytype
2004-04-27, 21:06:11
Wobei im Xbox2 Gehäuse wohl genug Platz für ne gute Kühlung ist...

GRiNSER
2004-04-27, 21:30:36
woher weißt du wie das XBox 2 gehäuse aussieht? - hab ich da was verpasst? :)

DasToem
2004-04-27, 22:50:21
Ich gehe mal stark davon aus, dass Microsoft HDTV als Mainfeature bewerben will. Sind dafür 10MB EDRam als Framebuffer nicht etwas wenig?

hofmetzger
2004-04-27, 23:28:16
Original geschrieben von DasToem
Ich gehe mal stark davon aus, dass Microsoft HDTV als Mainfeature bewerben will. Sind dafür 10MB EDRam als Framebuffer nicht etwas wenig?

Ich weiss nicht wie es bei den jetzigen games aussieht, aber ich kann mir auch auf der xbox2 nicht vorstellen, dass die spiele in hdtv-auflösungen laufen. Siehe Doom3, welches doch wohl sehr abgespeckt auf die xbox1 kommen wird.

Für Konsolenspieler wird es wichtiger sein aktuelle pc-blockbuster flüssig aufs tv zu bekommen, als pong in hdtv zu spielen :)

Ailuros
2004-04-28, 00:26:04
Original geschrieben von robbitop
ich folge niemandem ;)
momentan kann man eh nur raten. Wer weiss, wie authentisch das Ganze ist...

Natuerlich hab ich geratet. Aber ich hab in der Zwischenzeit auch eine Antwort bekommen :P

Uebrigens was den Platz betrifft ist es eher ein multi-core CPU und nicht 3 verschiedene.

Ich sehe trotz allem nichts besonderes an dem Ding; nicht auf jeden Fall fuer eine Console die auch 4-5 Jahre sich halten sollte.

betasilie
2004-04-28, 00:26:27
Original geschrieben von hofmetzger
Ich weiss nicht wie es bei den jetzigen games aussieht, aber ich kann mir auch auf der xbox2 nicht vorstellen, dass die spiele in hdtv-auflösungen laufen. Siehe Doom3, welches doch wohl sehr abgespeckt auf die xbox1 kommen wird.

Für Konsolenspieler wird es wichtiger sein aktuelle pc-blockbuster flüssig aufs tv zu bekommen, als pong in hdtv zu spielen :)
:| Wie kommst Du zu deiner Aussage? Imo hast Du kein einizges Argument gebracht.

Für mich sehen die spekulativen Daten sehr deutlich danach aus, dass allermindestens 720p als Standart unterstützt wird.

robbitop
2004-04-28, 08:13:04
ich weiss, dass es ne MultiCore CPU sein soll, jedoch macht die sicher ordentlich Hitze mit so vielen Logiktransistoren.Dann noch eine "dicke" VPU. Wie woll man soviel Abwärme einigermaßen leise in so einem kleinen Gehäuse (Cosnole) abführen?
Zumal 3 ist eine ungerade Zahl, nicht gerade üblich bei multi CPUs ;)
Und wozu 3 CPUs? in Games limitieren doch eh die VPUs und man müsste die Games alle für Multithread programmieren.

ShadowXX
2004-04-28, 08:56:21
Original geschrieben von robbitop
ich weiss, dass es ne MultiCore CPU sein soll, jedoch macht die sicher ordentlich Hitze mit so vielen Logiktransistoren.Dann noch eine "dicke" VPU. Wie woll man soviel Abwärme einigermaßen leise in so einem kleinen Gehäuse (Cosnole) abführen?
Zumal 3 ist eine ungerade Zahl, nicht gerade üblich bei multi CPUs ;)
Und wozu 3 CPUs? in Games limitieren doch eh die VPUs und man müsste die Games alle für Multithread programmieren.

Und wenn diese MultiCore-CPU selbstständig die Aufgaben/Lastenverteilung vornimmt???

Also das man nicht extra selbst MultiThreaded schreiben muss, sondern die CPU (als ganzes gesehen) die Last der Aufgaben automatisch auf die 3 Dies umsetzt....

Es könnte auch sein, das die Ings bei M$ meinen, das eine MultiCoreLösung insgesamt Kühler ist als ein einziger riesiger Die...bei gleicher oder ähmlicher Performance...

Und zu MultiThreaded: sooooo kompliziert ist Multithreading gar nicht zu Programmieren...speziell, wenn einer der Thread z.B. nur Berechnungen durchführt und am Ende nur Meldet, das er fertig ist...und die Aufteilung auf die CPUs übernimmt das OS dabei automatisch...

Und die Konsolenprogger sind von sowieso einiges gewöhnt...man gucke nur mal in Richtung PS2...

robbitop
2004-04-28, 09:11:56
hm ich glaube nicht dass die PPC Architektur diese Lastenverteilung unterstützt.

Woher weisst, du wie schwer es ist, Multithreads zu programmieren?

hofmetzger
2004-04-28, 10:51:47
Original geschrieben von betareverse
:| Wie kommst Du zu deiner Aussage? Imo hast Du kein einizges Argument gebracht.

Für mich sehen die spekulativen Daten sehr deutlich danach aus, dass allermindestens 720p als Standart unterstützt wird.

stimmt argumente hab ich keine, ausser vielleicht die ein oder andere logische überlegung:

die xbox2 wird ohne zweifel mit vorsprung (vor dem pc) starten. Ich kann mir aber beim besten willen nicht vorstellen, dass die hardware reicht, um pc-ports auch noch jahre nach ihrer einführung in hohen auflösungen flüssig darzustellen. => es würde mich sehr wundern wenn 720p die mindestauflösung wäre.

Abhänging ist diese wage überlegung natürlich 1. von der verbreitung von hdtvgeräten, und 2. vom verhalten von sony und nintendo:

zu1: jemand der kein hd-tv hat, kann sich wohl kaum darüber freuen, dass leistung in auflösung gesteckt wird, die er nicht zu gesicht bekommt. heruntersampeln wäre eine lösung.

was aber, wenn (2.) die konkurenz die leistung statt in auflösung lieber in effekte und frames/s steckt? Das Schlagwort HDTV mag cool klingen und vielleicht auch ganz sinnvoll sein, ich bezweifle nur dass der markt darauf eher anspringt, als auf eyecandy.

ShadowXX
2004-04-28, 11:04:13
Original geschrieben von robbitop
hm ich glaube nicht dass die PPC Architektur diese Lastenverteilung unterstützt.

Woher weisst, du wie schwer es ist, Multithreads zu programmieren?

Weil ich es mache.....und nicht Hobbymässig, sondern als Progger in einer Firma...

Ailuros
2004-04-28, 11:40:09
Original geschrieben von robbitop
ich weiss, dass es ne MultiCore CPU sein soll, jedoch macht die sicher ordentlich Hitze mit so vielen Logiktransistoren.Dann noch eine "dicke" VPU. Wie woll man soviel Abwärme einigermaßen leise in so einem kleinen Gehäuse (Cosnole) abführen?
Zumal 3 ist eine ungerade Zahl, nicht gerade üblich bei multi CPUs ;)
Und wozu 3 CPUs? in Games limitieren doch eh die VPUs und man müsste die Games alle für Multithread programmieren.

Ungerade Zahlen waeren theoretisch kein Problem; der VS des NV3x ist ja auch 3-way.

Wieso ist die VPU dick? Die meisten Transistoren werden vom EDRAM wohl aufgefressen, ansonsten wenn man EDRAM mal weglaesst dann ist es nur eine (NV40+1/3).

Was ist so schlimm daran fuer multi-threading zu programmieren? Die Anzahl der cores ist uebrigens gerade und nicht ungerade AFAIK.

robbitop
2004-04-28, 12:28:54
@AiL
würdest du Letzteres ausführen?
Naja ein R500 wird mit Sicherheit ordendlich thermische Energie abgeben..wer weiss vieleicht mehr als 100W

@shadowXX
interessant, was programmiert ihr denn so?

Ailuros
2004-04-28, 12:30:17
Geduld ;) (ich brauch ne zweite Bestaetigung).

betasilie
2004-04-28, 12:58:05
Original geschrieben von hofmetzger
stimmt argumente hab ich keine, ausser vielleicht die ein oder andere logische überlegung:

die xbox2 wird ohne zweifel mit vorsprung (vor dem pc) starten. Ich kann mir aber beim besten willen nicht vorstellen, dass die hardware reicht, um pc-ports auch noch jahre nach ihrer einführung in hohen auflösungen flüssig darzustellen. => es würde mich sehr wundern wenn 720p die mindestauflösung wäre.

Abhänging ist diese wage überlegung natürlich 1. von der verbreitung von hdtvgeräten, und 2. vom verhalten von sony und nintendo:

zu1: jemand der kein hd-tv hat, kann sich wohl kaum darüber freuen, dass leistung in auflösung gesteckt wird, die er nicht zu gesicht bekommt. heruntersampeln wäre eine lösung.

was aber, wenn (2.) die konkurenz die leistung statt in auflösung lieber in effekte und frames/s steckt? Das Schlagwort HDTV mag cool klingen und vielleicht auch ganz sinnvoll sein, ich bezweifle nur dass der markt darauf eher anspringt, als auf eyecandy.
Also ich würde spekulieren, dass in den Pal und NTSC Auflösungen AA als Standard eingeführt wird und somit der 720er Mode ohne AA als besichert gelten sollte.

HDTV wird ab 2006 richtig boomen, daher muss M$ imho HDTV anbieten und in SPielen unterstützen.

ShadowXX
2004-04-28, 13:05:14
Original geschrieben von robbitop
@shadowXX
interessant, was programmiert ihr denn so?

Business-Software....also nichts fürs 3DC wirklich interesantes.

Zum grössten Teil ist unser Problem die gewaltige Datenmenge, die berechnet,überprüft,verglichen und Dargestellt werden muss.

Und damit das ganze "halbwegs" Flott läuft (zumindest den Anschein erwecken soll und dies auch auf den oft minderbemittelten PCs unserer Klientel) und auch nicht gleichzeitig den gesamten Rechner bzw. sich selbst blockieren soll, bin ich quasi gezwungen Multi-Threaded zu Programmieren...

Richtig ätzend wirds eigentlich erst, wenn mehrere Thread gegenseitig voneinander Abhängen....

Und glaub mir...wer meint, das heutige PCs schnell sind, der hat noch nicht wirklich versucht wirklich grosse Datenmengen zu analysieren....

x-dragon
2004-04-28, 13:29:25
Original geschrieben von ShadowXX
...
Und glaub mir...wer meint, das heutige PCs schnell sind, der hat noch nicht wirklich versucht wirklich grosse Datenmengen zu analysieren.... Was heißt denn bei dir "grosse Datenmengen"? In meinem Bereich ist eine 100 MB-Datenbank schon recht groß :).

ShadowXX
2004-04-28, 14:19:49
Original geschrieben von x-dragon
Was heißt denn bei dir "grosse Datenmengen"? In meinem Bereich ist eine 100 MB-Datenbank schon recht groß :).

Ist nen lacher....ich rede von Datenmengen über 500MB bis zu mehreren GB.

Und es ist ja auch mehr als die blosse Bereitstellung/"Archivierung" von Daten.

Diese Datenmengen sollen auch noch gegeneinander Analysiert werden....(Die meisten Daten innerhalb der Daten stellen mehere Möglichkeiten dar...ist vieles Binär Codiert, was dann später wieder lesbar für den User Auseinandergefriemelt werden muss...das ganze dann natürlich auch mit Filtern und sonstigen Schick-Schnack....wir haben mal versucht teile davon als Datenbankabfragen laufen zu lassen, mit dem Ergebniss, das es entweder 10 bis 100 mal so lang wie die Ausprogrammierte Version braucht oder die DB gleich die Fühler gestreckt hat...)

Ich wünsche mit als Grundausstattung einen PC mit mindestens 10GHz und 8GB Hauptspeicher...(und eine schnelle Anbindung an diesen).
Man glaubt gar nicht, wie schnell der Hauptspeicher von PCs voll ist, wenn man im Hintergrund mal kurz einen Report über das Berechtigungskonzept von Konzern X laufen lässt...

Um den Hauptspeicher der PCs nicht zu sehr zu belasten mussten wir uns schon einiger Tricks und Kniffe incl. selbstgeschiebener Caching-Routinen anwenden...

x-dragon
2004-04-28, 16:17:15
Original geschrieben von ShadowXX
Ist nen lacher....ich rede von Datenmengen über 500MB bis zu mehreren GB.

Und es ist ja auch mehr als die blosse Bereitstellung/"Archivierung" von Daten. ... Hab mir schon fast gedacht das es etwas mehr sein dürfte :). Meine letzte "große" DB mit ca. 100 MB und 230.000 Datensätze ließ sich ja auch schon innerhalb von 1 1/2 Min filtern, konvertieren und exportieren, da waren dann auch keine speziellen Optimierungen mehr notwendig.

Gast
2004-04-28, 19:45:49
http://www.beyond3d.com/forum/viewtopic.php?t=11797

TeeKay
2004-04-28, 21:46:47
"Naja ein R500 wird mit Sicherheit ordendlich thermische Energie abgeben..wer weiss vieleicht mehr als 100W"

Warum? Weil NV40 Karten ueber 100W emittieren? Dann lass dir gesagt sein, dass allein die 256MB Speicher gute 35W verbrauchen duerften. Dazu nochmal 4-5 der Luefter. Dann die Spannungswandler, die extra gekuehlt werden muessen. Fuer den eigentlichen Grafikchip bleiben da nicht vielmehr als 50 uebrig.

Knoskoloz
2004-04-28, 22:21:06
Original geschrieben von betareverse
Also ich würde spekulieren, dass in den Pal und NTSC Auflösungen AA als Standard eingeführt wird und somit der 720er Mode ohne AA als besichert gelten sollte.

HDTV wird ab 2006 richtig boomen, daher muss M$ imho HDTV anbieten und in SPielen unterstützen.
Nunja ob HDTV boomen wird kann man nicht vorraussagen. AA dürfte bei dem TV auch nicht so ins gewicht fallen allein schon wegen dem recht starken TV weichzeichner. Und wie hofmetzger schon sagte wären die die kein HDTV haben wohl nicht so begeißtert andererseits wäre es für die die es haben ein nettes feature(aber was kommt hängt letzdenendes vom markt ab). Und MS muss es nicht unterstützen sie können es.

Original geschrieben von hofmetzger
Für Konsolenspieler wird es wichtiger sein aktuelle pc-blockbuster flüssig aufs tv zu bekommen, als pong in hdtv zu spielen
Wer weiss PC-Ports sind ja meistens Ego-shooter und die sind auf Konsolen nunmal nicht so verbreitet da es eher ein PC genre ist und sich mit Pads nunmal nicht so gut steuen lassen.

robbitop
2004-04-28, 22:38:19
der Trend der Verlustleistung steigt nunmal.

HellHorse
2004-04-29, 13:48:26
@ShadowXX
Der von dir geschilderte Fall, lässt sich halt eben besonders gut parallelisieren.

Wenn du aus einem Datenstatz die Zahlen A, B und C berechnen musst, deren Berechnungen bloss lesend auf die Daten zugreiffen und die anderen Zahlen nicht braucht, geht das einfach.
Macht man einen Thread für A, B und C auf (oder berechnet eine im aktuellen) wartet bis alle fertig sind, und holt die Resultate.
Wenn B aber A braucht, und C B braucht, lässt sich das aber nicht mehr parallelisieren (falls sich die Berechnung der einzelnen Zahlen nicht parallelisieren lässt).
Schwer zu parallelisieren ist, wenn A den Datensatz verändert. Die Berechnung von B, erst auf der von A veränderten Daten erholgen kann, ebenso wie C, C allerdings die Datenbank selbst verändert. Dann müsste nachdem A fertig ist, der ganze Datensatz kopiert werden, damit B und C parallel laufen können (vorausgesetzt am hat keine isolierten Transaktionen).

Ich hoffe, ich habe mich halbwegs verständlich ausgedrückt.

Ailuros
2004-04-29, 14:27:11
Mehr oder weniger hab ich's schon verstanden. Wie aber genau willst Du das multi-threading ausfuehren. CPUs und die verschiedenen SIMD Kanaele der GPU sind multi-threading faehig. Frage ist hier ob Du Dich nur auf die CPUs beziehst oder auf eine Kombination von CPU/GPU.

Hier muesste wir aber auch wieder genau wissen, was genau jede Seite aufnehmen soll und wie. Ich hatte bisher den Eindruck dass bei der XBox2 hauptsaechlich AI und physics der/den CPU(-s) ueberlassen wird. Vorraussetzung ware aber dann ein progammierbarer primitiver Prozessor auf der GPU, von der ich aber nichts sehen kann (was aber seine Existenz auch nicht ausschliesst, da das Diagramm zu vereinfacht ist und auch nicht unbedingt echt sein muss).

robbitop
2004-04-29, 14:34:05
@AiL
meinst du ein Pionier PPP (also die erste Generation mit diesem Feature) ist bereits stark genug, um diesen stark zu nutzen?
Habe ich bisher von wenigen Features in VPUs gesehen. Meist führten die Pionierhardware das Feature ein und nutzbar wurde es erst ein paar Generationen später.

nur so ein Gedanke

Quasar
2004-04-29, 14:37:01
Original geschrieben von Ailuros
[...] Vorraussetzung ware aber dann ein progammierbarer primitiver Prozessor auf der GPU, von der ich aber nichts sehen kann [...]

Eingedeutscht klingt PPP aber nicht besonders vorteilhaft...

Mit einem „primitiven Prozessor” namens AMD386 DX40 begann auch meine PC-Karriere anno 1992 (?).

ShadowXX
2004-04-29, 14:37:25
Original geschrieben von HellHorse
@ShadowXX
Der von dir geschilderte Fall, lässt sich halt eben besonders gut parallelisieren lässt.

Wenn du aus einem Datenstatz die Zahlen A, B und C berechnen musst, deren Berechnungen bloss lesend auf die Daten zugreiffen und die anderen Zahlen nicht braucht, geht das einfach.
Macht man einen Thread für A, B und C auf (oder berechnet eine im aktuellen) wartet bis alle fertig sind, und holt die Resultate.
Wenn B aber A braucht, und C B braucht, lässt sich das aber nicht mehr parallelisieren (falls sich die Berechnung der einzelnen Zahlen nicht parallelisieren lässt).
Schwer zu parallelisieren ist, wenn A den Datensatz verändert. Die Berechnung von B, erst auf der von A veränderten Daten erholgen kann, ebenso wie C, C allerdings die Datenbank selbst verändert. Dann müsste nachdem A fertig ist, der ganze Datensatz kopiert werden, damit B und C parallel laufen können (vorausgesetzt am hat keine isolierten Transaktionen).

Ich hoffe, ich habe mich halbwegs verständlich ausgedrückt.

Jo...das ist sehr verständlich ausgedrückt....aber wofür diese Erklärung???

Falls du mir helfen wolltest, ist das sehr nett, aber ohne dir auf die Füsse treten zu wollen:
Das von dir erwähnte ist für mich Glasklar....und nix besonders neues...

Falls das eine nähere Erleuterung für andere Interessierte Leser sein sollte, gilt mein erster Satz, das du es sehr gut erklärt hast...

Es gibt bei uns allerdings auch noch ein paar andere Problematiken, die über blosse DB-Benutzung hinausgehen...die ist "nur" zu langsam und für die meisten Daten sind Abfragen leider völlig ungeeignet (fast keine atomaren Werte...schlimmer noch meistens gibt es zwischen den Werten auch noch CrossRefernz-Beziehungen oder Sie sind für Geschwindigkeitsoptimierungen in einem sehr "lustigen" (sprich eigenen) Format abgelegt)

Um zum Topic zurückzukommen:
Auch wenn ich selber keine Games programmiere, kann ich mir durchaus ein paar Sachen vorstellen, für die man gerade im Spielebereich mehr als eine CPU gleichzeitig gebrauchen kann....

Man denke nur mal an den Sound...wenn man sich (z.B. unter Mame oder Seiten die sich mit Automatenhardware beschäftigen) mal Ansieht wie oft Arcadesysteme eine Extra-CPU für den Sound benutzen, kann man sich schon ausmalen, wofür MS 3 CPUs benutzen will.

Beispiel:
CPU 1 macht Physik und Spielablauf
CPU 2 macht Soundsteuerung und sonstigen IO
CPU 3 macht die Grafiksteuerung

Klar...einfach ist das nicht zu Proggen...aber man muss MS eins lassen...ihre DeveloperWerkzeuge sind meist recht gut...trotzdem würde ich mich an sowas nur ransetzen wenn mir garantiert werden würde, dass ich dafür Geld bekommen, egal was rauskommt....

Quasar
2004-04-29, 14:41:33
Original geschrieben von ShadowXX
Beispiel:
CPU 1 macht Physik und Spielablauf
CPU 2 macht Soundsteuerung und sonstigen IO
CPU 3 macht die Grafiksteuerung


Amiga ahoi! ;)

Mal im Ernst: Wirklich Sinn macht das doch nur, wenn man unterschiedlich leistungsfähige CPUs dafür hernimmt. Aber warum man dann nicht dedizierte SPU dafür einsetzt?

robbitop
2004-04-29, 14:44:55
tja ich vermute, das lässt die Architektur nicht zu.
weder die "Mac" Architektur noch die PC Architektur und ich kann mir kaum vorstellen, dass die sich da was völlig neues einfallen lassen wie es die echten consolen Hersteller wie Sony tun.

ShadowXX
2004-04-29, 14:53:36
Original geschrieben von Quasar
Amiga ahoi! ;)

Mal im Ernst: Wirklich Sinn macht das doch nur, wenn man unterschiedlich leistungsfähige CPUs dafür hernimmt. Aber warum man dann nicht dedizierte SPU dafür einsetzt?

Naja...mit dem Amiga hat nicht so viel zu tun...der 68000er des Amigas musste ja alle Customchips steuern bzw. füttern.

Im Prinzip hast du recht...bei einem intelligenten Design würde man wohl unterschiedlich leistungsfähige CPUs benutzen...bzw. dedizierte Custom-Chips

Es könnte aber einfach billiger und unkomplizierter (damit ist jetzt der Gesamtaufbau des Systems gemeint) sein, wen man eine 3 in 1 Variante nimmt....
Ausserdem könnte man so "dümmere" Custom-Chips verwenden (ebenfalls billiger).

//edit:
@Robbitop: das kommt wohl noch hinzu...

stickedy
2004-04-29, 15:16:35
Warum soll der PowerPC nicht damit zurecht kommen?

Außerdem wäre diese Sache so flexibler: Wenn die CPU für Soudn nicht gebraucht wird, ließe sie sich ja z.B. zusätzlich für KI "mißbrauchen"

MS und IBM werden sich da jedenfalls schon was dabei gedacht haben...

HellHorse
2004-04-29, 16:35:18
@ShadowXX
Zweiteres ist der Fall ;)


CPU 1 macht Physik und Spielablauf
CPU 2 macht Soundsteuerung und sonstigen IO
CPU 3 macht die Grafiksteuerung

Schön und gut, bloss sollte alles etwa gleich aufwändig sein. Wenn eine Aufgabe viermal so viel zu rechnenn gibt wie die beiden anderen zusammen, bringen 3 CPU's nicht wirklich viel ausser höherem Stromverbrauch und Kosten.

ShadowXX
2004-04-29, 16:51:12
Original geschrieben von HellHorse
@ShadowXX
Zweiteres ist der Fall ;)


Schön und gut, bloss sollte alles etwa gleich aufwändig sein. Wenn eine Aufgabe viermal so viel zu rechnenn gibt wie die beiden anderen zusammen, bringen 3 CPU's nicht wirklich viel ausser höherem Stromverbrauch und Kosten.

Sieh es flexibler...so wie schon von stickedy angeführt.

Es muss ja nicht sein, das der jeweilige CPU etwas fest zugewiesen ist...

Es sollte mehr als Beispiel dienen, was man machen könnte...
Genausogut kann man auch 2 CPUs für KI und Physik benutzen (da in einem hyothetischen spiel sehr wichtig) und der andere macht dann sound und grafik zusammen.

Beim nächsten Games ist es dann genau andersherum....

stickedy
2004-04-29, 16:52:14
Soweit ich bis jetzt mitgekommen bin, sind das ja keine einzelnen CPUs sondern eine Multi-Core CPU. Das kommt dann wieder aufs selber raus, vermutlich ist die Produktion einfach günstiger. In Multi-Core CPUs liegt eh die Zukunft,siehe IBM, Sun, AMD und Intel...

robbitop
2004-04-29, 17:11:49
jap, die können ja dynamisch ihre Leistung einsetzen. Wieso feste Aufgaben? Gute Idee.

Multicore: also mehrere CPU Kerne auf einem DIE.
Aber nicht einzelne CPU Kerne oder Chipteile die zu einem Core zusammen"geklebt" werden. So einen Unsinn hab ich nämlich schon ein paar Mal gelesen.

Godmode
2004-04-29, 21:36:15
Original geschrieben von robbitop
jap, die können ja dynamisch ihre Leistung einsetzen. Wieso feste Aufgaben? Gute Idee.

Multicore: also mehrere CPU Kerne auf einem DIE.
Aber nicht einzelne CPU Kerne oder Chipteile die zu einem Core zusammen"geklebt" werden. So einen Unsinn hab ich nämlich schon ein paar Mal gelesen.

Kann man davon ausgehen, das in Zukunft für Games die CPU nur mehr für die KI zuständig ist? Wenn die ganzen Jobs auf die GPUs und APUs(Audio Processing Unit) verlegt werden?

robbitop
2004-04-29, 21:46:26
einen dedizierten Soundprozessor wird es im PC nicht geben. Das lässt die Architektur nicht zu.
Die CPU macht mehr als nur Sound und KI. Die Physik kommt dazu und die Berechnung der Eckdaten der Polygone, I/O Berechnungen und ich bin sicher, dass da noch mehr ist.
Wenn man Spiele multithreaded programmieren würde und mehere CPU Kerne hat, dann genügt das schon.
Ein thread für KI/Physik/I/O/Sound/Verticles...

Demirug
2004-04-29, 21:52:10
Nur mal so als Randbemerkung. Das Team welches für die Entwicklungsumgebung und die nächsten Compilerversionen zuständig ist beschäftigt sich gerade unter anderem mit OpenMP. Das ist ein Framework für das verteilen von Aufgaben auf mehrer Processorkerne in einem System mit gemeinsamen Speicher. Das ist natürlich auch für Serveranwendungen relevant aber MS nutzt ja gerne Synergieeffekte.

Demirug
2004-04-29, 21:58:35
Original geschrieben von robbitop
einen dedizierten Soundprozessor wird es im PC nicht geben. Das lässt die Architektur nicht zu.
Die CPU macht mehr als nur Sound und KI. Die Physik kommt dazu und die Berechnung der Eckdaten der Polygone, I/O Berechnungen und ich bin sicher, dass da noch mehr ist.
Wenn man Spiele multithreaded programmieren würde und mehere CPU Kerne hat, dann genügt das schon.
Ein thread für KI/Physik/I/O/Sound/Verticles...

Das geht so in die Hose. Habe da leider schon schlechte Erfahrungen gemacht. Mehr Threads als Prozessoren kosten Leistung. Eine Aussnahme gibt es nur wenn Threads auf externe Ereignisse warten müssen. Aber selbst da gibt es Möglichkeiten die Anzahl der Threads zu reduzieren.

Man braucht dafür eher sowas wie Fibers.

Ailuros
2004-04-29, 23:41:18
Original geschrieben von Quasar
Eingedeutscht klingt PPP aber nicht besonders vorteilhaft...

Mit einem „primitiven Prozessor” namens AMD386 DX40 begann auch meine PC-Karriere anno 1992 (?).

GPUs haben PPs; das dritte "P" fehlt einfach um unter anderen HOS um weites sinnvoller zu machen. Anders rum haettest Du was gegen dynamisches LOD auf der GPU?

Hoffentlich haben sie nicht vor das Ganze auf die CPUs zu verladen und es dann trotzdem in der Feature-liste zu erwaehnen *hust*.

betasilie
2004-04-29, 23:55:57
Original geschrieben von Quasar
Amiga ahoi! ;)

Mal im Ernst: Wirklich Sinn macht das doch nur, wenn man unterschiedlich leistungsfähige CPUs dafür hernimmt. Aber warum man dann nicht dedizierte SPU dafür einsetzt?
Ack. Wenn man schon zu so einer Customlayout kommt, dann sollte man auch Customchips einsetzen.

Original geschrieben von robbitop
tja ich vermute, das lässt die Architektur nicht zu.
weder die "Mac" Architektur noch die PC Architektur und ich kann mir kaum vorstellen, dass die sich da was völlig neues einfallen lassen wie es die echten consolen Hersteller wie Sony tun.
Full Ack.

][immy
2004-04-30, 00:43:37
ehrlichgesagt find ich das diese konstruktion noch ein wenig überholungsbedürftig ist
3 prozzies und dann nur 10GB/s bandbreite hin und zurück?
is das nicht ein wenig knapp bemessen
genauso wie auch das speicherinterface ein wenig knapp bemessen ist
22GB/s is nicht grad viel, wenn man bedenkt das daran 3 prozessoren (die allerdings auf 10Gb/s begrenzt sind) und der grafikchip hängt. wird dabei sicher schnell zu engpässen kommen
besonders wenn ein spielehersteller versucht soviel wie möglich aus der konsole rauszuholen. wenn man bedenkt das heutige high-end grafikkarten schon >20GB/s an einen eigenen speicher angebunden sind, das is das wirklich viel zu knapp bemessen.
zwar müssen konsolen wohl nicht mit großartigen auflösungen spielen, aber FSAA sollte wohl ein feature sein, das sich jetzt auch bei konsolen durchsetzt (nach langer zeit)


was mich aber auch die ganze zeit wundert, was soll das VPU bei den CPUs bedeuten?
VPU ist doch ansich die abkürzung für Visual Processing Unit



naja.. das ganze wäre wirklich schade für die technik wenn bessere effekte/grafik später zugunsten der bandbreite wegfallen müssen

ShadowXX
2004-04-30, 07:23:05
Original geschrieben von ][immy
was mich aber auch die ganze zeit wundert, was soll das VPU bei den CPUs bedeuten?
VPU ist doch ansich die abkürzung für Visual Processing Unit


Vector Processing Unit ?????

Ist zumindest das einzig halbwegs sinnvolle was mir gerade einfällt....im GC ist doch auch so eine spezielle AltiVec-Variante von IBM implementiert worden...vielleicht nennen Sie es deshalb jetzt gleich VPU...

robbitop
2004-04-30, 09:34:52
eine Vector Proccessing Unit ist einfach eine ALU, welche Vectorrechnungen in Hardware gegossen hat denke ich mal. Dadurch erspart man sich viele Umwege und wenn man tatsächlcih mit Vektoren zu tun hat, geht das ab wie Schmidts Katze =)

@Demi
gut zu wissen; was sind Fibres?

Demirug
2004-04-30, 10:11:56
Original geschrieben von robbitop
@Demi
gut zu wissen; was sind Fibres?

Fibers sind eine Spezialform von Threads. Der primäre Unterschied liegt darin das man Fibers immer explizit aktiviert und diese dann auch solange laufen bis man sie durch einen anderen Fiber ablösst. Da Fibers aber selbst wiederum in einem Thread laufen können sie natürlich nach wie vor unterbrochen werden. Da aber der Kern immer nur aktive Fibers sieht erfolgen in Summe viel weniger Switches.

Ich habe das Multi-CPU-Problem allerdings nicht mit Fiebers sondern mit Dependent Job Objects und einem Thread pro CPU gelösst.

StefanV
2004-04-30, 10:57:29
Original geschrieben von robbitop
tja ich vermute, das lässt die Architektur nicht zu.
weder die "Mac" Architektur noch die PC Architektur und ich kann mir kaum vorstellen, dass die sich da was völlig neues einfallen lassen wie es die echten consolen Hersteller wie Sony tun.

1. Sony ist kein 'echter' Konsolenhersteller, Sony ist ein Elektromik Konzern, spezialisiert auf Unterhaltungselektronik, jegleicher art.

2. der Cell Prozessor soll NICHT nur in der PS3 zum Einsatz kommen sondern in nahezu ALLEN Elektronikgeräten, die Prozessorleistung benötigen...

DVD Player, DVD Recorder, ev. Fernseher usw.

robbitop
2004-04-30, 11:01:40
danke fürs Haarspalten Stefan! ;)

btw ich hatte Cell eigentlich gar nicht im Sinn.

The_Fang
2004-05-01, 15:08:55
Hmmm...Ich habe da mal eine Frage.

Was zur Hölle ist EDRAM?

Ailuros
2004-05-01, 16:57:43
"Eingebetteter Speicher".

StefanV
2004-05-01, 18:03:35
Original geschrieben von Ailuros
"Eingebetteter Speicher".

nein, das ist eDRAM ;)

Original geschrieben von The_Fang
Hmmm...Ich habe da mal eine Frage.

Was zur Hölle ist EDRAM?

EDRAM ist Enhanced DRAM, kurz gesagt FPM-DRAM mit S-RAM Zellen.
Ist aber schon ziemlich alt (über 10 Jahre) und hat sich leider nicht durchgesetzt.


Es gibt allerdings auch noch eDRAM, welches embeddet DRAM bezeichnet, also D-RAM Speicher, der in Logik CHips untergebracht ist.
SRAM und Logik ist auch nicht wirklich ein Problem, siehe CPUs, DRAM und Logik hingegenschon, da für Logik eine Kapazitätenarme Fertigung vorteilhaft ist.

Bei DRAM ists aber umgekehrt, da braucht man die Kapazitätne (aka Kondensatoren), damit die DRAM Zellen überhaupt funktionuckeln...

Ailuros
2004-05-02, 02:28:57
Tatsaechlich...:bonk:

The_Fang
2004-05-03, 16:01:18
Hmmm... und 10 MB EDRAM können so 256 MB "normalen" RAM aufwiegen?

betasilie
2004-05-03, 16:06:34
Original geschrieben von Stefan Payne
nein, das ist eDRAM ;)



EDRAM ist Enhanced DRAM, kurz gesagt FPM-DRAM mit S-RAM Zellen.
Ist aber schon ziemlich alt (über 10 Jahre) und hat sich leider nicht durchgesetzt.


Es gibt allerdings auch noch eDRAM, welches embeddet DRAM bezeichnet, also D-RAM Speicher, der in Logik CHips untergebracht ist.
SRAM und Logik ist auch nicht wirklich ein Problem, siehe CPUs, DRAM und Logik hingegenschon, da für Logik eine Kapazitätenarme Fertigung vorteilhaft ist.

Bei DRAM ists aber umgekehrt, da braucht man die Kapazitätne (aka Kondensatoren), damit die DRAM Zellen überhaupt funktionuckeln...
Wie? :o

Es geht hier garnicht um embedded DRAM?

Hast Du mal ein Link zu EDRAM, weil so ganz habe ich noch nicht verstanden, um was es sich genau handelt.

betasilie
2004-05-03, 16:07:32
Original geschrieben von The_Fang
Hmmm... und 10 MB EDRAM können so 256 MB "normalen" RAM aufwiegen?
Nein, wie kommst Du dadrauf?

DrumDub
2004-05-03, 16:11:48
Original geschrieben von betareverse
Hast Du mal ein Link zu EDRAM, weil so ganz habe ich noch nicht verstanden, um was es sich genau handelt.

http://whatis.techtarget.com/definition/0,,sid9_gci213927,00.html

betasilie
2004-05-03, 16:28:35
Original geschrieben von DrumDub
http://whatis.techtarget.com/definition/0,,sid9_gci213927,00.html
Thanks, das erklärt es gut.

robbitop
2004-05-03, 19:54:38
die 10MB sind wohl für den Framebuffer da, haupsächlich für die Farbwerte.
Diejenigen hauen eben am Meisten in die Bandbreite rein. Somit kann man den externen 256bit DDR ordentlich entlasten und hat effektiv sehr viel mehr Bandbreite als vorher.
Irgendwann muss dieser Ansatz bei VPUs einfach kommen.
Aber für den PC sind 10MB bedeutend zu wenig. 32MB bräuchte man mindestens, damit es derzeit Sinn macht (hohe Auflösungen und hohe AA Werte), zukünftig sogar mehr.
Das Problem: 16MB eDRAM fressen ~100Mio Transistoren, die man woanders vieleicht besser gebrauchen kann. Für massiven eDRAM Einsatz ist es wohl noch etwas früh imo.

GloomY
2004-05-03, 23:05:59
Warum sollte man heutzutage noch EDRAM verwenden, welches als DRAM Speicher noch FastPage Mode besitzt? Wenn, dann bitte schön ESDRAM (http://home.cfl.rr.com/bjp/Esdram.htm), also mit SDRAM Speicher (plus dem üblichen Cache).

Gerade als Framebuffer ist es absolut notwendig, dass der Speicher eine gute lineare Lese- und Schreibrate hat (Burst). Wenn ich da an FPM Speicher denke, dann schaudert's mir, auch wenn da natürlich noch der SRAM Cache drinnen steckt. EDRAM ist schlichtweg veraltet.

Daher vermute ich mal, dass vielleicht doch eDRAM gemeint ist.

Im Übrigen verstehe ich den tieferen Sinn eines integrierten Framebuffer nicht so ganz. Man haut so viele Transistoren raus, nur um den externen Speicherbus schmal zu halten? Was hat man denn dann davon? :???:
Geld Sparen wird das mit Sicherheit nicht, und ob der Framebuffer nun wirklich der große Verbraucher von Speicherbandbreite ist, ist eine andere Frage (die ich nicht beantworten kann).

robbitop
2004-05-04, 00:42:23
Hi Gloomy
besonders die Farbwerte die über den Speicherbus müssen, machen aktuellen Grafikchips und deren Bandbreiten zu schaffen. zZ lohnt es sich nicht 100-200Mio Transistoren für eDRAM rauszuhauen, aber bei 90/65 oder erst bei 45nm wird es sich lohnen, denn PCBs mit 512bit DDR werden deutlich teurer und komplexer und hier kann man eben sparen und wer weiss ob ein int FB nicht sogar mehr brächte.

Ailuros
2004-05-04, 01:54:37
Also ich hatte ehrlich den Eindruck dass es sich um eDRAM handelt, aber das Bild erwaehnt deutlich EDRAM. Das Bild muss aber auch nicht echt sein.

Geld Sparen wird das mit Sicherheit nicht, und ob der Framebuffer nun wirklich der große Verbraucher von Speicherbandbreite ist, ist eine andere Frage (die ich nicht beantworten kann).

Bei hoher Praezision read/write (ob nun floating point oder 64bpp) werden die Bandbreitenbeduerfnisse in der absehbaren Zukunft ganz schoen gross sein. Noch schlimmer wenn dann noch antialiasing dazukommen muss.

robbitop
2004-05-24, 10:32:40
was sollte EDRAM denn Besonderes bringen?

Die Bandbreite der CPUs langt auch. 10GB hin und zurück. Dann sinds für jeden 3200MB/s hin und zurück. Ist wie DDR400, wo is das Problem?

del_4901
2004-05-24, 11:12:54
Original geschrieben von robbitop
was sollte EDRAM denn Besonderes bringen?

Die Bandbreite der CPUs langt auch. 10GB hin und zurück. Dann sinds für jeden 3200MB/s hin und zurück. Ist wie DDR400, wo is das Problem?

1024 bit Anbindung an den Chip, bei Full Clock Speed, ausrechnen kannste dir das selber, wenn wir mal annehmen der Chip hat 500Mhz sind 500M*1024(*2 (wenn DDR Prinzip greift)) Wenn unsre gute alte CPU diese Bandbreite hätte, oh Gott lebe sie seelig ;)

robbitop
2004-05-24, 11:39:13
Ist mir bekannt. Jedoch ich meinte nicht eDRAM, sondern den von AiL angesprochene EDRAM. Was sollte der bringen? So stehts zumindist auf der XBOX2 Skizze.

xL|Sonic
2004-05-24, 12:11:33
Was den ATI grafikchip angeht, glaube ich nicht, dass man sich so sehr an der PC Variante orientieren wird, hat man ja auch nicht afaik bei dem Flipper für den GC getan.
Ausserdem scheinen hier viele zu vergessen, dass der große Vorteil einer Konsole darin besteht, dass es nur EINE hardware gibt, weshalb die Spiele auf diese Hardware viel besser optimiert werden können und einiges an Leistung herausgeholt werden kann, was gar nicht für möglich gehalten wird. bestes Beispiel ist Doom3, was auf einer fast 4 Jahre alten Hardware erscheint. vergleicht das mal mit einem 4 Jahre alten PC...wenn man sich Spiele wie Gran Tourismo 4 oder Project Gotham Racing 2 anguckt, dann sehen diese noch weit besser aus, als vergleichbare Spiele auf dem PC.
Was die PC-ports angeht....nunja, soviele gibt es nicht und der Trend wird eh in Richtung Konsolen gehen, also dass immer mehr Hersteller auf die Konsolen-only umschwenken werden. Warum ? ganz einfach, sie bieten besseren Schutz was Raubkopien angeht und bieten den größeren Absatzmarkt. Ausserdem erobern sie die letzte Bastion der PC-gamer, das Onlinegaming und das sehr erfolgreich mit Riesenschritten.
Und das Egoshooter schlecht auf Konsolen spielbar sind, mag vielleicht stimmen, dass sie schwieriger zu steuern sind mitm Gamepad, aber gibt ja auch Maus und Tastatur für Konsolen :)

robbitop
2004-05-24, 12:21:42
da erzählst du hier nichts Neues.
Den Flipper VPU hat ArtX damals designed. Die hatten aber auch keine VPUs für den PC zu designen.
Bei ATi ist das anders, die müssen noch nebenbei den Nintendo5 VPU und PC VPUs designen. Und da man nur begrenzt an R&D verfügt, muss man die Chips sehr sehr ähnlich gestalten.

ice cool69
2004-05-24, 13:55:15
Glaubt ihr für den N5 von Nintendo wird ein eigener Grafikchip entwickelt, oder werden beide Konsolen den selben Chip benutzen?
Mal ehrlich glaubt ihr nicht dass 1 eigene GPU-Entwicklung für N5, eine eigene für XBOX2 und eine eigene für PC-Grafikkarten (bzw. eigentlich mindestens 2: die R und die RV-Reihe) ein bischen die Kapazitäten von ATI sprängen würde?
Außerdem wäre das rausgeschmissenes Geld.

Ich denke es läuft so ab: R600/XBOX2-GPU werden im Grunde das Selbe sein mit eher geringeren Abweichung ala NV20/25/NV2A.

Der N5 wird eine Eigenentwicklung bekommen ala Flipper, da Nintendo auch angekündigt hat nicht auf den Technikwahnsinn der Konkurrenz aufzuspringen sondern mit anderem glänzen wollen. Eine Mammut-GPU wie der R600 ist also völlig ungeeignet für Nintendos Plan.

Es wird sich wohl um einen deutlich günstiger herzustellenden Chip handeln der nicht ganz die Leistung einer XBOX2-GPU erreichen wird, dafür aber auch viel billiger herzustellen ist.

Edit: Vielleicht verwendet ATI für den N5 Notebook- und RV-Technik, dann können sie auch in Zukunft so kleine Würfel backen :D

xL|Sonic
2004-05-24, 14:23:26
Original geschrieben von robbitop
da erzählst du hier nichts Neues.
Den Flipper VPU hat ArtX damals designed. Die hatten aber auch keine VPUs für den PC zu designen.
Bei ATi ist das anders, die müssen noch nebenbei den Nintendo5 VPU und PC VPUs designen. Und da man nur begrenzt an R&D verfügt, muss man die Chips sehr sehr ähnlich gestalten.

Zu dem zeitpunkt war ArtX schon von ATI aufgekauft afaik, somit auch von ATI produziert und entwickelt. Der letzte Chip, der von ArtX in Eigenregie entwickelt wurde, war der für das Nintendo 64.

Und was den Gamecube 2 angeht. Du glaubst doch nicht wirklich, dass Nintendo eine Konsole abliefern will, die technisch gesehen nicht mit XBOX2 und PS3 mithalten können.
Alleine über den Preis können sie nicht punkten, wie sie schon beim GC gesehen haben. Von daher wird ATI mit Sicherheit einen ähnlich leistungsfähigen Grafikchip entwickeln.

robbitop
2004-05-24, 14:28:45
weisst du wie lange eine Entwicklung einer VPU dauert?
scheinbar nicht. Mindestens 24Monate. Als ATi ArtX gekauft hat, war Flipper bereits fertig. Soweit ich weiss haben sie nur noch Support und Vertrieb übernommen.

Was den GC2 angeht, weiss ich nicht was da reinkommt. Aber soweit ich weiss soll das Ding nicht so teuer werden. Das war schon immer Nintendos Stärke. Günstige Geräte die möglichst NICHT subventioniert werden müssen. Bei der XBOX2 siehts da anders aus. Ich denke der VPU des GC wird nicht so hoch integriert sein, aber insgesamt werden beide Konsolen R500/600 Derivate Abbekommen. Und je nach Wunsch wird da eben die Leistung skalliert.

xL|Sonic
2004-05-24, 14:31:52
Also ich bin der Meinun, dass zu dem Zeitpunkt ArtX schon aufgekauft war, aber ich lassem ich gerne eines besseren belehren :)

ravage
2004-05-24, 16:05:50
Könnte es vielleicht sein, dass der GC2 einen R500 Ableger bekommt und die xbox2 einen R600 Ableger?

Der GC2 soll ja schon 2005 erscheinen. Laut Analysten weit vor der Konkurrenz (hab ich mal irgendwo aufgeschnappt, müsst ich suchen wenn jemand die Quelle wissen will). Mit der xbox2 rechne ich nicht vor 2006.

DasToem
2004-05-24, 18:38:19
Original geschrieben von ice cool69
Glaubt ihr für den N5 von Nintendo wird ein eigener Grafikchip entwickelt, oder werden beide Konsolen den selben Chip benutzen?
Mal ehrlich glaubt ihr nicht dass 1 eigene GPU-Entwicklung für N5, eine eigene für XBOX2 und eine eigene für PC-Grafikkarten (bzw. eigentlich mindestens 2: die R und die RV-Reihe) ein bischen die Kapazitäten von ATI sprängen würde?
Außerdem wäre das rausgeschmissenes Geld.



Ich denke Nintendo wird wieder eine hochintegrierte Lösung ,wie der Flipper schon eine war, einsetzen.

Formica
2004-05-24, 19:15:45
vielleicht wirds nur ein hochgetackteter flipper :D

DasToem
2004-05-24, 19:29:02
Original geschrieben von Formica
vielleicht wirds nur ein hochgetackteter flipper :D

Legt Nintendo dann auch einen Tacker bei?

Formica
2004-05-24, 21:06:16
Original geschrieben von DasToem
Legt Nintendo dann auch einen Tacker bei?

ähm ich mein takt :D

CrazyIvan
2004-05-24, 21:24:46
Original geschrieben von Formica
vielleicht wirds nur ein hochgetackteter flipper :D

Na das wär doch 'n bissl arg wenig. IMHO wird man doch bei zukünftigen Konsolen mit akzeptablem AA rechnen dürfen. Denke, das würde bei der geringen Auflösung schon was bringen. Des weiteren will man ja auch, was die Effekte angeht, nicht vollständig ins Hintertreffen geraten. Zwar hat ja Flipper etwas, das man mit Pixel Shadern gleichsetzen könnte. Jedoch möchte ich stark bezweifeln, dass das auch nur annähernd an das mit SM3 (Xbox2) Machbare herankommt.

ice cool69
2004-05-24, 23:50:56
Flipper im N5? Blödsinn is das!!!

Mantikor
2004-05-25, 10:54:05
Nintedo selbst sagte, dass für den N5 (neuer Entwicklungsame : Nintedo Revolution) die Technischen Aspecte keine so große Rolle spielen werden, daher rechne ich auch wieder mit einer so genialen Lösung wie dem Flipper, der zwar theoretisch der XBOX unterlegen ist, aber in der Praxis meist Spiele sehr gut aussehen lassen kann.

AA wird doch schon benutzt soweit ich weiß, zumindest sehe ich bei Metroid Prime keine "Treppen" (oder so gut wie keine..):D

Mfg Der Mantikor

xL|Sonic
2004-05-25, 11:20:49
AA gibt es sei dem Dreamcast, nur auf der PS2 wird es afaik nicht genutzt, da es entweder nicht möglich ist oder zuviel Performance kostet.

bloodflash
2004-05-25, 12:25:17
AA/AF und hohe Auflösungen (720i/p, vielleicht sogar 1080i/p) werden für alle NextGen-Konsolen enorm wichtig! Ich verstehe nicht wieso immer auf den niedrigen Auflösungen für Konsolen bestanden wird.

Der Hauptabsatzmarkt sind immer noch die USA, und dort boomt HDTV schon. TFTs als Fernseher werden spätestens 2005 für die breite Masse preislich interessant und sich 2006/2007 endgültig durchsetzen, mit mindestens 720p. Beachten sollte man hier auch die Entwicklung des DVD-Nachfolgers.

Das ist genau der Zeitraum, in dem Xbox2 und PS3 auf den Markt kommen. Da wird sich doch ein "Early-Adaptor" bei hohen Einstiegspreisen wohl kaum mit 480i auf dem 30"-40"-HDTV-TFT zufriedengeben.

Da die Teile dann auch noch für DVD (oder Nachfolger), als Stereoanlage, Bildbetrachter und Onlineportal genutzt werden, glaube ich schon, dass sie zum Zocken auch den PC weitgehend ersetzen können. Das Manko mit der Auflösung und den Eingabegeräten wird dann mit Sicherheit Schnee von gestern sein.

robbitop
2004-05-25, 13:10:13
aber ob HDTV UND AA drin sind...das ist die Frage aber wenn man eine höhere Auflösung hat, ist das ganze auch nicht mehr soo dringend.

Frank
2004-05-25, 13:59:03
Original geschrieben von Ailuros
Also ich hatte ehrlich den Eindruck dass es sich um eDRAM handelt, aber das Bild erwaehnt deutlich EDRAM. Das Bild muss aber auch nicht echt sein.
Die damalige Neomagic MagicMedia Serie hatte wohl eSGRAM. Allerdings nicht unterirdisch schlecht angebunden, wie es ATI mit ihren eDRAM mobile Chips macht, sondern mit einem 256bit Speicherinterface, welches auch mit vollem Chiptakt lief. Das war Anfang 1998. Bis zu 6MB wurden integriert. Münze ich das auf heutige Verhältnisse um (6 Jahre sind vergangen), dann kann da schon Potential drinstecken - egal ob "e" oder "E".

bloodflash
2004-05-25, 14:52:00
Original geschrieben von robbitop
aber ob HDTV UND AA drin sind...das ist die Frage aber wenn man eine höhere Auflösung hat, ist das ganze auch nicht mehr soo dringend.

Vielleicht nicht bei 720p auf einem Notebook-TFT. Bei wonhzimmerkompatiblen Ausmassen des TFTs (30" aufwärts) sähe das aber sehr nach Klötzchengrafik aus.
Der eingebaute Weichzeichner eines Standard-CRT-Fernsehers fällt dann ja weg - und die Diagonalen steigen weiter, besonders bei der anvisierten Zielgruppe in den ersten Verkaufsmonaten.