PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xenon Docs Leaked?


Gast
2004-06-23, 08:05:26
QUOTE]
Basic Hardware Specifications
Xenon is powered by a 3.5+ GHz IBM PowerPC processor and a 500+ MHz ATI graphics processor. Xenon has 256+ MB of unified memory. Xenon runs a custom operating system based on Microsoft® Windows NT®, similar to the Xbox operating system. The graphics interface is a superset of Microsoft® Direct3D® version 9.0.

CPU
The Xenon CPU is a custom processor based on PowerPC technology. The CPU includes three independent processors (cores) on a single die. Each core runs at 3.5+ GHz. The Xenon CPU can issue two instructions per clock cycle per core. At peak performance, Xenon can issue 21 billion instructions per second.
The Xenon CPU was designed by IBM in close consultation with the Xbox team, leading to a number of revolutionary additions, including a dot product instruction for extremely fast vector math and custom security features built directly into the silicon to prevent piracy and hacking.
Each core has two symmetric hardware threads (SMT), for a total of six hardware threads available to games. Not only does the Xenon CPU include the standard set of PowerPC integer and floating-point registers (one set per hardware thread), the Xenon CPU also includes 128 vector (VMX) registers per hardware thread. This astounding number of registers can drastically improve the speed of common mathematical operations.
Each of the three cores includes a 32-KB L1 instruction cache and a 32-KB L1 data cache. The three cores share a 1-MB L2 cache. The L2 cache can be locked down in segments to improve performance. The L2 cache also has the very unusual feature of being directly readable from the GPU, which allows the GPU to consume geometry and texture data from L2 and main memory simultaneously.
Xenon CPU instructions are exposed to games through compiler intrinsics, allowing developers to access the power of the chip using C language notation.

GPU
The Xenon GPU is a custom 500+ MHz graphics processor from ATI. The shader core has 48 Arithmetic Logic Units (ALUs) that can execute 64 simultaneous threads on groups of 64 vertices or pixels. ALUs are automatically and dynamically assigned to either pixel or vertex processing depending on load. The ALUs can each perform one vector and one scalar operation per clock cycle, for a total of 96 shader operations per clock cycle. Texture loads can be done in parallel to ALU operations. At peak performance, the GPU can issue 48 billion shader operations per second.
The GPU has a peak pixel fill rate of 4+ gigapixels/sec (16 gigasamples/sec with 4× antialiasing). The peak vertex rate is 500+ million vertices/sec. The peak triangle rate is 500+ million triangles/sec. The interesting point about all of these values is that they’re not just theoretical—they are attainable with nontrivial shaders.
Xenon is designed for high-definition output. Included directly on the GPU die is 10+ MB of fast embedded dynamic RAM (EDRAM). A 720p frame buffer fits very nicely here. Larger frame buffers are also possible because of hardware-accelerated partitioning and predicated rendering that has little cost other than additional vertex processing. Along with the extremely fast EDRAM, the GPU also includes hardware instructions for alpha blending, z-test, and antialiasing.
The Xenon graphics architecture is a unique design that implements a superset of Direct3D version 9.0. It includes a number of important extensions, including additional compressed texture formats and a flexible tessellation engine. Xenon not only supports high-level shading language (HLSL) model 3.0 for vertex and pixel shaders but also includes advanced shader features well beyond model 3.0. For instance, shaders use 32-bit IEEE floating-point math throughout. Vertex shaders can fetch from textures, and pixel shaders can fetch from vertex streams. Xenon shaders also have the unique ability to directly access main memory, allowing techniques that have never before been possible.
As with Xbox, Xenon will support precompiled push buffers (“command buffers” in Xenon terminology), but to a much greater extent than the Xbox console does. The Xbox team is exposing and documenting the command buffer format so that games are able to harness the GPU much more effectively.
In addition to an extremely powerful GPU, Xenon also includes a very high-quality resize filter. This filter allows consumers to choose whatever output mode they desire. Xenon automatically scales the game’s output buffer to the consumer-chosen resolution.

Memory and Bandwidth
Xenon has 256+ MB of unified memory, equally accessible to both the GPU and CPU. The main memory controller resides on the GPU (the same as in the Xbox architecture). It has 22.4+ GB/sec aggregate bandwidth to RAM, distributed between reads and writes. Aggregate means that the bandwidth may be used for all reading or all writing or any combination of the two. Translated into game performance, the GPU can consume a 512×512×32-bpp texture in only 47 microseconds.
The front side bus (FSB) bandwidth peak is 10.8 GB/sec for reads and 10.8 GB/sec for writes, over 20 times faster than for Xbox. Note that the 22.4+ GB/sec main memory bandwidth is shared between the CPU and GPU. If, for example, the CPU is using 2 GB/sec for reading and 1 GB/sec for writing on the FSB, the GPU has 19.4+ GB/sec available for accessing RAM.
Eight pixels (where each pixel is color plus z = 8 bytes) can be sent to the EDRAM every GPU clock cycle, for an EDRAM write bandwidth of 32 GB/sec. Each of these pixels can be expanded through multisampling to 4 samples, for up to 32 multisampled pixel samples per clock cycle. With alpha blending, z-test, and z-write enabled, this is equivalent to having 256 GB/sec of effective bandwidth! The important thing is that frame buffer bandwidth will never slow down the Xenon GPU.

Audio
The Xenon CPU is a superb processor for audio, particularly with its massive mathematical horsepower and vector register set. The Xenon CPU can process and encode hundreds of audio channels with sophisticated per-voice and global effects, all while using a fraction of the power of a single CPU core.
The Xenon system south bridge also contains a key hardware component for audio—XMA decompression. XMA is the native Xenon compressed audio format, based on the WMA Pro architecture. XMA provides sound quality higher than ADPCM at even better compression ratios, typically 6:1–12:1. The south bridge contains a full silicon implementation of the XMA decompression algorithm, including support for multichannel XMA sources. XMA is processed by the south bridge into standard PCM format in RAM. All other sound processing (sample rate conversion, filtering, effects, mixing, and multispeaker encoding) happens on the Xenon CPU.
The lowest-level Xenon audio software layer is XAudio, a new API designed for optimal digital signal processing. The Xbox Audio Creation Tool (XACT) API from Xbox is also supported, along with new features such as conditional events, improved parameter control, and a more flexible 3D audio model.

Input/Output
As with Xbox, Xenon is designed to be a multiplayer console. It has built-in networking support including an Ethernet 10/100-BaseT port. It supports up to four controllers. From an audio/video standpoint, Xenon will support all the same formats as Xbox, including multiple high-definition formats up through 1080i, plus VGA output.
In order to provide greater flexibility and support a wider variety of attached devices, the Xenon console includes standard USB 2.0 ports. This feature allows the console to potentially host storage devices, cameras, microphones, and other devices.

Storage
The Xenon console is designed around a larger world view of storage than Xbox was. Games will have access to a variety of storage devices, including connected devices (memory units, USB storage) and remote devices (networked PCs, Xbox Live™). At the time of this writing, the decision to include a built-in hard disk in every Xenon console has not been made. If a hard disk is not included in every console, it will certainly be available as an integrated add-on component.
Xenon supports up to two attached memory units (MUs). MUs are connected directly to the console, not to controllers as on Xbox. The initial size of the MUs is 64 MB, although larger MUs may be available in the future. MU throughput is expected to be around 8 MB/sec for reads and 1 MB/sec for writes.
The Xenon game disc drive is a 12× DVD, with an expected outer edge throughput of 16+ MB/sec. Latency is expected to be in the neighborhood of 100 ms. The media format will be similar to Xbox, with approximately 6 GB of usable space on the disk. As on Xbox, media will be stored on a single side in two 3 GB layers.

Industrial Design
The Xenon industrial design process is well under way, but the final look of the box has not been determined. The Xenon console will be smaller than the Xbox console.
The standard Xenon controller will have a look and feel similar to the Xbox controller. The primary changes are the removal of the Black and White buttons and the addition of shoulder buttons. The triggers, thumbsticks, D-pad, and primary buttons are essentially unchanged. The controller will support vibration. [/QUOTE]

GastQ
2004-06-23, 08:44:41
Und wann soll dieses mit 10MB embedded DRAM ausgestattete Monster kommen?

2008?

Schroeder
2004-06-23, 08:47:13
Is das nicht das X-Box2-Ding? :kratz2:

ironMonkey
2004-06-23, 08:58:59
Könnte sein;D

Intressant ist der Teil mit der GPU.


Datum zum erscheinen der Box fliegen ja viele im Netz rum, Anfang 2005 wird man wohl langsam anfangen den Kasten zusammen zu bauen damit er ende 2005 mit etwas Glück Passend zum Weihnachts Geschäft oder paar Wochen davor in den Läden steht.


Gruß

ShadowXX
2004-06-23, 09:04:11
Die Tech-Specs hören sich IMHO zu gut an...

Besonders die 3-Core CPU die mit 3.5GHz laufen soll...IBM hat momentan grosse Probleme 2.5GHz Dual-Cores herzustellen.

Die GPU selbst könnte ich mir für das Jahr 2006 durchaus vorstellen...mit leichten abstrichen zumindest.

Insgesamt hört sich das mehr nach einem Design-Konzept (also in der Art: "so hätten wirs gerne, guckt mal was ihr davon umsetzen könnt") an...

Davon mal abgesehen...was soll das Ding mit den genannten Specs denn Kosten??? 1500Euro???

ironMonkey
2004-06-23, 09:16:52
Zugut hat sich so einiges in letzter zeit angehört, denk mal zurück an die Speku Threads vom R420 und NV40..."das wär zu schön um wahr zu sein" Zeit hat ATI mehr als genug zum basteln und testen und zu lange wollen die ja auch net auf dem R420 bleiben, länger als 1Jahr wird das Teil dem NV40 auch nicht standhalten können.


Bei der CPU währe währe ich mir da auch nicht sooo sicher das die nicht hinhaut, Konsole hat ja die höchste Priorität und sollte am Anfang alles in Grund und Boden stampfen.


Preis spielt weniger ne Rolle wie man schon an der 1sten Box sah.




Gruß

BlackBirdSR
2004-06-23, 10:03:35
Original geschrieben von ShadowXX
Die Tech-Specs hören sich IMHO zu gut an...

Besonders die 3-Core CPU die mit 3.5GHz laufen soll...IBM hat momentan grosse Probleme 2.5GHz Dual-Cores herzustellen.



Naja, hier wird es sich wohl nicht um ein Design wie den PPC970 oder Power4 handeln.

Die Specs reden von 2 Befehlen die pro Takt weitergegeben werden können. Normalerweise bezieht man sich dabei auf die Decoder.
Dann wird schon ersichtlich, dass es sich um kleinere, dafür schnelle Cores handelt.
Für P4 (Trace Cache) und G4e werden 3 Beehle pro Takt angegeben, wobei der P4 z.B 6 Befehle/Takt an die Ausführungseinheiten weitergeben kann.

AMD bezeichnet den K7 sogar als "nine-issue superscalar"
Der PPC970 kann 8IOPs/Takt an die Ausführungseinheiten schicken, und 5IOPs pro Befehlsgruppe durch den Core jagen.

Man sollte diese CPU vielleicht eher in die Richtung von SUNs neuem Konzept betrachten. Pro Core weniger Ausführungseinheiten, dafür aber mehr Cores mit starkem Anteil an Multithreding und höheren Taktraten.

ShadowXX
2004-06-23, 10:06:59
Original geschrieben von ironMonkey
Zugut hat sich so einiges in letzter zeit angehört, denk mal zurück an die Speku Threads vom R420 und NV40..."das wär zu schön um wahr zu sein" Zeit hat ATI mehr als genug zum basteln und testen und zu lange wollen die ja auch net auf dem R420 bleiben, länger als 1Jahr wird das Teil dem NV40 auch nicht standhalten können.


Ich finde die Specs der ATI nicht wirklich so dolle...habe zwar mit einem etwas anderen Design gerechnet, aber im grossen und ganzen entspricht der r420 so wie ich es mir vorgestellt habe.

Das gleiche gilt für nV...die einzige Überraschung (für mich) war 16x1 anstatt 8x2....

Und wie schon erwähnt...die "genannte" GPU könnte ich mir für 2006 durchaus vorstellen...nur wäre Sie dann etwas zu spät für die XBox2, falls M$ seinen Ende 2005-Launch einhalten möchte...



Bei der CPU währe währe ich mir da auch nicht sooo sicher das die nicht hinhaut, Konsole hat ja die höchste Priorität und sollte am Anfang alles in Grund und Boden stampfen.


Die CPU finde ich ehrlich gesagt unrealistischer als die GPU...

Wie schon gesagt...IBM hat wirklich ernsthafte Probs bei den Dual-Core PPC mit 2.5GHz für Apple...die Basteln da jetzt schon knapp 1/2-Jahr (oder sogar länger) dran rum das Ding so richtig in die Massenproduktion zu bekommen...



Preis spielt weniger ne Rolle wie man schon an der 1sten Box sah.


Klar, aber irgendwann lohnt sich selbst für M$ die Subventionen in Relation zu verkauften SW-Einheiten nicht mehr...


Insgesamt wirkt der Text auf mich wie der Text von jemanden, der sich das im I-Net rumfliegende Diagramm zur XBox2 angeguckt hat und sich dann zusammen mit den DX-Next Specs eine Konsole "zusammengebaut" hat.
Ist aber alles IMHO....

ShadowXX
2004-06-23, 10:11:04
Original geschrieben von BlackBirdSR
Naja, hier wird es sich wohl nicht um ein Design wie den PPC970 oder Power4 handeln.

Die Specs reden von 2 Befehlen die pro Takt weitergegeben werden können. Normalerweise bezieht man sich dabei auf die Decoder.
Dann wird schon ersichtlich, dass es sich um kleinere, dafür schnelle Cores handelt.
Für P4 (Trace Cache) und G4e werden 3 Beehle pro Takt angegeben, wobei der P4 z.B 6 Befehle/Takt an die Ausführungseinheiten weitergeben kann.

AMD bezeichnet den K7 sogar als "nine-issue superscalar"
Der PPC970 kann 8IOPs/Takt an die Ausführungseinheiten schicken, und 5IOPs pro Befehlsgruppe durch den Core jagen.

Man sollte diese CPU vielleicht eher in die Richtung von SUNs neuem Konzept betrachten. Pro Core weniger Ausführungseinheiten, dafür aber mehr Cores mit starkem Anteil an Multithreding und höheren Taktraten.

Mag sein....trotzdem will ich diese CPU erst mal laufen sehen...mit 3.5GHz (und das nächstes Jahr, damit M$ Veröffentlichungpläne hinkommen).

Ich lasse mich aber gerne Überraschen....wie schon erwähnt, für mich sieht das eher nach einem Design-Konzept aus, in dem erst mal alles aufgezählt wurde, was man gerne hätte.....
Was dann übrig bleibt wird man sehen...

Gast
2004-06-23, 13:02:22
glaube auch das es sich um Design Konzept handel.
steht ja auch überall + hinter

robbitop
2004-06-23, 17:17:37
folgende Kritik:

-4Gigapixel für 2006 im Zeitalter von HDTV??? naja
-48 ALUs in einem Unified Grid??? viel zu wenig
-10MiB eDRAM..wofür soll das reichen?? und es scheint sich nur um eine 512bittige Anbindung zu handeln
-kein eigenenr DSP?? der kostet nur ein paar $. Und spezielle Prozessoren sind für spezielle Aufgaben immer besser als generelle.


Für mich sieht das Ding ziemlich nach einer Fehlkonstruktion aus, in der man wohl Sony's Cell nacheifern wollte aber aus Kostengründen tiefschneidene Kompromisse eingehen musste. -gewollt und nicht gekonnt-

Ziemlich schlecht ausbalanciert, wo doch gerade die VPU die Spieleperformance ausbremst. Und das Ding soll mehrere Jahre halten??

Coda
2004-06-23, 18:39:23
-10MiB eDRAM..wofür soll das reichen?? und es scheint sich nur um eine 512bittige Anbindung zu handeln
Als Framebuffer. Woher hast du das mit den 512 bit?

-4Gigapixel für 2006 im Zeitalter von HDTV??? naja
Das ist auch unrealistisch. Die X800 XT hat ja über 8.

Demirug
2004-06-23, 18:51:36
Also an den 4 Gigapixel würde ich mich nicht stören solange es nicht auch nur 4 Gigatexel sind.

48 Grid ALUs sind eigentlich auch nicht schlecht. Das sind immerhin mehr als 2 mal so viele ALUs wie in einem R420. Und bei einem Grid ist die Effektivitär eigentlich höher.

Was ich allerdings merkwürdig finde ist diese 64 Threads mit 64 Pixel/Vertex Geschichte. Das einzige was da IMHO noch Sinn machen würde wäre wenn zu den 48 ALUs noch 16 TMUs kommen. Das ergäbe zusammen 64 Threads die laufen könnten.

xL|Sonic
2004-06-23, 19:37:31
Original geschrieben von ShadowXX
Klar, aber irgendwann lohnt sich selbst für M$ die Subventionen in Relation zu verkauften SW-Einheiten nicht mehr...


Nur musst du auch beachten, dass wir Ende 2005 ganz andere Vorausetzungen haben werden und sone Sachen dann bei weiten nicht mehr die Welt kosten werden, wenn ich mir so die Windows Longhorn System Requirements angucken.
Du musst immer davon ausgehen, dass das frühestens ersz im Winter 2005 raus kommt und nicht jetzt.

Ein Grund, warum der R420 nur so "schwach" geworden ist, ist vielleicht auch der, dass ATI nun wirklich viel am Hals hat mit der XBox2 und der NextGen Konsole von Nintendo und da man in dem Konsolensektor richtig viel Geld machen kann, stelle ich mir das gut vor, dass ATI lieber ein paar mehr Kapazitäten in diesen Sektor steckt und für den PC momentan nur das nötigste bringt, weil mehr auch gar nicht gebraucht wird, da nvidia nicht so wirklich herausfordernd gewesen ist in den letzten Jahren und auch diesmal mit dem nv40.
Was die Xenon Specs angeht, werden wir spätestens auf der E3 im nächsten Jahr sehen was Sache ist.

tokugawa
2004-06-23, 19:46:05
Original geschrieben von robbitop
folgende Kritik:

-4Gigapixel für 2006 im Zeitalter von HDTV??? naja
-48 ALUs in einem Unified Grid??? viel zu wenig
-10MiB eDRAM..wofür soll das reichen?? und es scheint sich nur um eine 512bittige Anbindung zu handeln


Würd völlig reichen für einen weiteren Level innerhalb der Cache-Hierarchie.

Original geschrieben von robbitop
-kein eigenenr DSP?? der kostet nur ein paar $. Und spezielle Prozessoren sind für spezielle Aufgaben immer besser als generelle.


Für mich sieht das Ding ziemlich nach einer Fehlkonstruktion aus, in der man wohl Sony's Cell nacheifern wollte aber aus Kostengründen tiefschneidene Kompromisse eingehen musste. -gewollt und nicht gekonnt-


Mal sehen wie weit Sony's Cell nicht selbst eine Fehlkonstruktion ist. Recht viel auf die Entwickler (die dann schließlich mit dem Gerät arbeiten und dafür programmieren müssen) hat Sony im Gegensatz zu Microsoft eigentlich nie geachtet (auch ein Grund warum die Xbox von vielen Entwicklern so euphorisch aufgenommen wurde auf der GameDevelopers Conference 2001. Oder war's 2002?).

Netter Artikel (Registrierung erforderlich):
http://www.gamasutra.com/features/20031022/adams_01.shtml

Original geschrieben von robbitop
Ziemlich schlecht ausbalanciert, wo doch gerade die VPU die Spieleperformance ausbremst. Und das Ding soll mehrere Jahre halten??

robbitop
2004-06-23, 20:25:21
@Demi
die R420 hat 32 ALUs wenn man die TexAlus mitzählt.
Wenn der XBOX2 VPU zu den 48ALUs noch zusätzliche TexALUs hat, will ich nichts gesagt haben ;)

Glaubst du, dass man ein X*2 Setup bringt?? Ich glaube eher nicht. Wäre nett, wenn man trilineare TMUs verwendet, denn 4Trilineare GPix/sek wären ok.
Wenn es 4GPix und 8GTex wären, stünde es sicher da


@tokugawa
"Würd völlig reichen für einen weiteren Level innerhalb der Cache-Hierarchie."

führst du das etwas näher aus bitte?

Demirug
2004-06-23, 20:44:14
Original geschrieben von robbitop
@Demi
die R420 hat 32 ALUs wenn man die TexAlus mitzählt.
Wenn der XBOX2 VPU zu den 48ALUs noch zusätzliche TexALUs hat, will ich nichts gesagt haben ;)

Glaubst du, dass man ein X*2 Setup bringt?? Ich glaube eher nicht. Wäre nett, wenn man trilineare TMUs verwendet, denn 4Trilineare GPix/sek wären ok.
Wenn es 4GPix und 8GTex wären, stünde es sicher da

IMHO kann man X*Y bei sowas entgültig nicht mehr benutzten. Wie gesagt vermute ich das wenn die Daten stimmen zu den 48 ALUs noch 16 TMUs kommen.

robbitop
2004-06-23, 21:34:33
und warum dann nur 4GPix?
Warum sollte man die Granularität verschlechtern?

was ist mit TexALUs?

Demirug
2004-06-23, 21:41:01
Original geschrieben von robbitop
und warum dann nur 4GPix?
Warum sollte man die Granularität verschlechtern?

was ist mit TexALUs?

Die Begründung für die 4GPix steht doch im Text. Die Speicherbandbreite reicht eben nur dafür.

Was soll eine TexALU sein?

robbitop
2004-06-23, 21:55:40
eine ALU die Texturdaten an die TMUs abstößt??
Siehe TexALU in der R300 Pipeline..

Demirug
2004-06-23, 21:59:45
Original geschrieben von robbitop
eine ALU die Texturdaten an die TMUs abstößt??
Siehe TexALU in der R300 Pipeline..

Die würde ich nicht als ALU bezeichnen.

robbitop
2004-06-23, 22:02:25
sondern?
sind also extra ja?
Beim NV40 blockiert das zumeist die SU1

Demirug
2004-06-23, 22:17:22
Original geschrieben von robbitop
sondern?
sind also extra ja?
Beim NV40 blockiert das zumeist die SU1

Das ganze ist im Prinzip nicht mehr als ein zusätzlicher Readport auf den Fragment-Speicher.

Das mit dem blockieren ist stark vereinfacht und nur die halbe Wahrheit. Eine Texturanweisung belegt einen der maximal 4 Anweisungsslots des NV40. Eine Texturanweisung beim NV40 kann aber zusätzlich auch noch bestimmte Berechnungen enthalten die dann 4free sind.

robbitop
2004-06-23, 22:27:33
"Eine Texturanweisung beim NV40 kann aber zusätzlich auch noch bestimmte Berechnungen enthalten die dann 4free sind."

Und kann das die TexALU in der R300 Pipeline auch?

Ailuros
2004-06-24, 03:57:01
Bin mir zwar nicht 100% sicher aber AFAIK sind es 48 ALUs + 16 bi TMUs.

Besonders die 3-Core CPU die mit 3.5GHz laufen soll...IBM hat momentan grosse Probleme 2.5GHz Dual-Cores herzustellen.

*hust*

Each core has two symmetric hardware threads (SMT), for a total of six hardware threads available to games.

Eigentlich nicht 3, sondern 3*2 in relativem Sinn.

Demirug
2004-06-24, 07:12:46
Original geschrieben von robbitop
"Eine Texturanweisung beim NV40 kann aber zusätzlich auch noch bestimmte Berechnungen enthalten die dann 4free sind."

Und kann das die TexALU in der R300 Pipeline auch?

Der Tex Pfad in einem R3XX Pixelprocessor sampelt nur.

robbitop
2004-06-24, 10:35:07
@AiL

Demi hat die 16bi TMUs erwähnt (welche ich bisher eigentlich auch mind erwartete). Warum dann nur 4GPix/sek? Könnte das ganze für MT angeordnet sein?

Demirug
2004-06-24, 10:59:26
Original geschrieben von robbitop
@AiL

Demi hat die 16bi TMUs erwähnt (welche ich bisher eigentlich auch mind erwartete). Warum dann nur 4GPix/sek? Könnte das ganze für MT angeordnet sein?

Indirekt. Wenn die Zahlen stimmen dann geht man davon aus das ein Pixel im Durchschnitt mindestens 2 Textursamples und 6 Rechenoperationen benötigen wird. Beides kann wiederum durch verteilung der Last auf Vertexaufgaben kleiner werden.

Die Frage ist eben ob es sich lohnt eine Speicheranbindung für 8 GPix/Sek zu bauen. Aufgrund der zu erwartenden Shader eher nicht.

robbitop
2004-06-24, 11:25:27
naja das ist doch aber normal oder nicht?
Welches Spiel hat schon nur eine Texturlage und wird obendrein nur bilinear gefiltert?
Theoretisch gibts, wenn man mind trilinear Filtert keinen Verschnitt durch schlechtere Granularität

Ailuros
2004-06-24, 11:48:57
Original geschrieben von Demirug
Indirekt. Wenn die Zahlen stimmen dann geht man davon aus das ein Pixel im Durchschnitt mindestens 2 Textursamples und 6 Rechenoperationen benötigen wird. Beides kann wiederum durch verteilung der Last auf Vertexaufgaben kleiner werden.

Die Frage ist eben ob es sich lohnt eine Speicheranbindung für 8 GPix/Sek zu bauen. Aufgrund der zu erwartenden Shader eher nicht.

Moment 4GPixels/sec als bi oder tri berechnet?

***edit: war wohl ne bloede Frage. Maximal 2 quads und/oder 8 pixels/Takt.

The GPU has a peak pixel fill rate of 4+ gigapixels/sec (16 gigasamples/sec with 4× antialiasing).

500MHz * 8 pixels/clock * 4 samples/pixel = 16Gsamples/sec

Maximal soll ja das Ding ueber 32xMSAA faehig sein; ich will ernsthaft hoffen dass es auch 2 wahre Z/stencil units pro SIMD heisst.

Ailuros
2004-06-24, 11:58:23
Ich hab eine andere (vielleicht sogar noch bloedere Frage):

The peak vertex rate is 500+ million vertices/sec. The peak triangle rate is 500+ million triangles/sec.

Also in meiner 3D Vorstellung braucht man drei vertices fuer ein Dreieck...was hat der Laie hier genau verpasst?

Demirug
2004-06-24, 12:08:49
Original geschrieben von Ailuros
Moment 4GPixels/sec als bi oder tri berechnet?

***edit: war wohl ne bloede Frage. Maximal 2 quads und/oder 8 pixels/Takt.

Ja wobei sich das auf die Ausgabe in richtung Speicher bezieht.

500MHz * 8 pixels/clock * 4 samples/pixel = 16Gsamples/sec

Maximal soll ja das Ding ueber 32xMSAA faehig sein; ich will ernsthaft hoffen dass es auch 2 wahre Z/stencil units pro SIMD heisst.

Wenn die 4 Samples pro Pixel stimmen dann müssten es ja 4 Z/Stencil pro Pixelausgabekanal sein.

Demirug
2004-06-24, 12:12:17
Original geschrieben von Ailuros
Ich hab eine andere (vielleicht sogar noch bloedere Frage):



Also in meiner 3D Vorstellung braucht man drei vertices fuer ein Dreieck...was hat der Laie hier genau verpasst?

Man kann Verticen mehrfach verwenden. Damit kann man dann sogar auf ein Verhältniss von weniger als einem Vertex pro Dreieck kommen. Da es einen kleinen Cache nach dem VS gibt kann man sich das mehrfache berechnen von Vertexdaten dann sparen.

Ailuros
2004-06-24, 12:15:35
Hmmmmm 2(2*2) pixel quads + Z/stencil und fuer eDRAM steht in dem Graph 4 Z/stencil only (read) und 2 Z/stencil only (write); dann sind es wohl doch 4.

Zu dem triangle/vertices Quark, hab ich gerade nochmal schnell das hier durchgelesen:

http://users.otenet.gr/~ailuros/trianglerate.jpg

robbitop
2004-06-24, 12:19:27
meinst du nicht 4x(2x2) Pixelquads?

Demirug
2004-06-24, 12:21:21
Original geschrieben von Ailuros
Zu dem triangle/vertices Quark, hab ich gerade nochmal schnell das hier durchgelesen:

Das hat damit aber nichts zu tun. Da geht es eher darum wie viel die CPU kann.

Ailuros
2004-06-24, 12:25:57
Original geschrieben von robbitop
meinst du nicht 4x(2x2) Pixelquads?

2 quads / 8 pixel pro Takt.

Das hat damit aber nichts zu tun. Da geht es eher darum wie viel die CPU kann.

:bonk:

robbitop
2004-06-24, 12:33:16
also 2x 4x2 ?

StefanV
2004-06-24, 12:39:45
Original geschrieben von robbitop
also 2x 4x2 ?

Robbi, schmeiß endlich deinen 'Pipe x TMU' Quark weg, das kannst bei neueren Generationen nicht mehr wirklich gebrauchen, da kommts auf andere Dinge an...

Schonmal dran gedacht, daß man die Pipes und TMUs über Shader 'emulieren' kann??

Ailuros
2004-06-24, 12:42:12
Original geschrieben von robbitop
also 2x 4x2 ?

Du hast doch die geleakte XBox2 Graph oder nicht? Wenn ja lies sie einfach nochmal durch (und ja da steht 2*(2*2) pixel quads + Z/stencil drin).

robbitop
2004-06-24, 12:45:38
2x2x2 sind für mich 8 TMUs aber nicht 16.
Sorry für meine Begriffsstutzigkeit.

Stefan ja ich weiss, dass Pipelines physikalischvariabel werden. Mir geht es um den logischen Aufbau.
Wenn du also was zur Begriffserklärung beitragen kannst, dann leg los :)

Ailuros
2004-06-24, 12:53:01
*aechz*

Das was hinten raus kommt sind 2 quads pro Takt ganz vereinfacht:

http://users.otenet.gr/~ailuros/xbox2_scheme_bg.gif

betasilie
2004-07-01, 17:09:33
Original geschrieben von Demirug
Das PC-Model war der NV20. Der NV25 ist fast baugleich mit dem NV2A.

Der besagte XBox II Chip hätte mit seinen 16 TMUs@500MHz nicht mal die Texelfillrate einer X800 XT PE. Und die 48 ALUs höhren sich erst mal gut an wenn man aber kreativ zählt hat man die schnell zusammen. Beim R420 kann ich locker 76 zählen wenn ich will.

Ist aber OT hier und wenn wir das näher erörtern wollen dann besser im passenden Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=150540
Nun, Du hast sicherlich recht, aber irgendwie werde ich das Gefühl nicht los, dass die Specs in diesem Thread, auf die Du dich beziehst, nicht mehr den aktuellen Stand wiedergeben. ;)

Edit:
Und der NV25 kam eine ganze zeitlang nach der X-Box.

Demirug
2004-07-01, 17:16:35
Original geschrieben von betareverse
Nun, Du hast sicherlich recht, aber irgendwie werde ich das Gefühl nicht los, dass die Specs in diesem Thread, auf die Du dich beziehst, nicht mehr den aktuellen Stand wiedergeben. ;)

Edit:
Und der NV25 kam eine ganze zeitlang nach der X-Box.

Also dieses Dokument wird derzeit als das XBox-II Dokument gehandelt. Was neueres gibt es nicht. Und eine Quelle die nicht genannt werden möchte bei der ich aber keine Aussagen über die verlässlichkeit machen kann meinte:

"Es steht dort nicht was im Wiederspruch zu dem steht was MS den XBox-II Entwicklern erzählt hat."

Ailuros
2004-07-01, 17:21:12
Mir wurde auch schon gesagt dass die geleakten Specs dem entsprechen was bis jetzt in vertraulichen Kreisen bekannt war.

Wieviel Chancen hat man fundamentale Aenderungen so spaet im Entwicklungs-zyklus vorzunehmen? Keine.

betasilie
2004-07-01, 17:29:08
Nun, wenn das wirklich die Specs von der XBII sind, dann gebe ich dir natürlich rech, Demirug.

Ich glaube das aber erst zu 100%, wenn es offiziell ist, denn das ganze kommt mir aus verschiedenen Gründen spanisch vor.

Edit:
Nach kurzem nachdenken muss ich eingestehen, dass es auch gute Gründe dafür gibt, dass die Specs hinkommen. :gruebel:

Ailuros
2004-07-01, 17:34:14
Original geschrieben von betareverse
Nun, wenn das wirklich die Specs von der XBII sind, dann gebe ich dir natürlich rech, Demirug.

Ich glaube das aber erst zu 100%, wenn es offiziell ist, denn das ganze kommt mir aus verschiedenen Gründen spanisch vor.

Xenon koennte ein Abschlag vom griechischen xenos=fremder sein ;D

robbitop
2004-07-01, 17:35:05
@Demirug

können den die HSR Units trotz aktivem 2xMS noch Pixel verwerfen? Der NV20 konnte das nicht.

Was ist mit Z-Fast Clear?

Ailuros
2004-07-01, 17:38:04
Und der NV25 kam eine ganze zeitlang nach der X-Box.

Beide sind aber ziemlich "verwandt". Es gibt Stellen wo der eine oder andere chip seine Vorteile hat. Auf jeden Fall hat AFAIK auch der NV2A zwei und nicht eine VS Einheit.

betasilie
2004-07-01, 17:38:23
*

Demirug
2004-07-01, 17:41:39
Original geschrieben von robbitop
@Demirug

können den die HSR Units trotz aktivem 2xMS noch Pixel verwerfen? Der NV20 konnte das nicht.

Was ist mit Z-Fast Clear?

So ins Detail gehende Infos habe ich leider nicht zur Hand.

robbitop
2004-07-01, 17:48:00
sind aber schon wichtige Details ;)
-dieses Detail trägt doch zum Großteil dazu bei dass 2xAA auf der GF4 brauchbar schnell war

Ailuros
2004-07-01, 17:56:21
Original geschrieben von robbitop
sind aber schon wichtige Details ;)
-dieses Detail trägt doch zum Großteil dazu bei dass 2xAA auf der GF4 brauchbar schnell war

Nicht nur; siehe "filter on scanout".

robbitop
2004-07-01, 18:14:50
ja und auch Fast Z Clear.
Aber hauptsächlich IMO war es o.g. Feature.

zeckensack
2004-07-01, 18:24:04
Mal so nebenbei:

10MB reichen für
a)720x576 mit 2xMultisampling
oder
b)1024x768 ohne Multisampling
(double buffered+Z/Stencil, 32bpp)

Wie war das noch gleich ... HDTV? ?(

StefanV
2004-07-01, 19:44:10
Original geschrieben von zeckensack
Mal so nebenbei:

10MB reichen für
a)720x576 mit 2xMultisampling
oder
b)1024x768 ohne Multisampling
(double buffered+Z/Stencil, 32bpp)

Wie war das noch gleich ... HDTV? ?(

Och, für das ganze nutzt man eine lossy Compression, dann passts scho, denke ich ;)

Oder aber man nutzt die 10MB irgendwie anders :|

micki
2004-07-02, 09:42:46
apple mußte ne wakü nehmen um die 2.5GHz zu erreichen (obwohl luftgekühlte 3GHz versprochen waren). und dann 3cores mit 3.5GHz?

selbst wenn MS diese hardware bereit wäre zu sponsorn, ich bezweifle ernstlich, dass das mit ausreichend leisen mitteln zu kühlen ist. Und niemand akzeptiert eine Konsole die so laut vor sich zischt wie die GF5800U.

Ich schätze, dass die Hardware an sich so stimmt, aber die genauen spezifikationen (z.b. taktung) selbst MS noch nicht genau weiß, weil ja zur entgültigen festlegung einiges an zeit ist. Es könnten einfach die Werte für den optimalen Fall sein damit entwickler ein sicheres Limit haben.

MfG
micki

robbitop
2004-07-02, 10:57:35
die CPU entspricht aber nicht dem PPC970 Design. Und Takt ist auch sehr designabhängig

@Stefan

eine verlustbehaftete Kompression im VPU Bereich?
Stehst du auf Kompressionsartefakte?

Gast
2004-07-02, 13:12:12
Original geschrieben von zeckensack
Mal so nebenbei:

10MB reichen für
a)720x576 mit 2xMultisampling
oder
b)1024x768 ohne Multisampling
(double buffered+Z/Stencil, 32bpp)

Wie war das noch gleich ... HDTV? ?(

die 10MB reichen aber auch für 1920x1080x 4xMSAA @ 32bit wenn man ein Frame in 9 Subframes oder Tile zerlegt.

640x360x4x32 x2(Backbuffer+Z-buffer)= 7200KB

Das Problem ist dann, das die CPU 4 (1280x720) bis 9 (1920x1080) Tile anstelle eines Frames berechnen muss. Das sollte aber mit entsprechend gesetzten Clipping-Planes funktionieren, oder?

Die CPU + VS(?) rechnet dann eben mit bis zu 540fps, anstelle von 60fps.

VS deshalb mit Fragezeichen, da ich mir nicht sicher bin ob viele XBox2-Spiele überhaupt die VS benutzen. Schließlich hat man 6 3.5GHz schnelle aufgemotzte AltiVec-Einheiten mit vielen Spezialfunktionen zur Verfügung (wenn die geleakten Spec's stimmen)

Gast
2004-07-02, 13:36:23
Original geschrieben von Gast
Das Problem ist dann, das die CPU 4 (1280x720) bis 9 (1920x1080) Tile anstelle eines Frames berechnen muss. Das sollte aber mit entsprechend gesetzten Clipping-Planes funktionieren, oder?



Ahhh..shit.

Ailuros hat mir noch gesagt worum es in dem posting von SA ging und ich habs doch vergessen :

SA:

Scaling the geometry processing using multliple GPU cards shouldn't be too difficult if the cards use screen partitioning (as opposed to scan line interleaving).

If the application's 3d engine uses efficient culling of geometry to the viewport (say using hierarchical bounding volumes) the scaling happens automatically since geometry outside a card's partition is efficiently culled before being processed.

If it was felt important to scale the geometry processing of applications that didn't bother to efficiently cull geometry it could be handled by having each card deterministically process half the vertices. A card would send any processed vertices it processed in the other card's viewport to the other card for rendering. As an possible optimization, you could minimize communications traffic by having each card track the vertices that were in its viewport on the last frame and render those first.


so funktioniert das ganze sehr wahrscheinlich, und dazu noch ohne (großen) Overhead.

Xmas
2004-07-02, 13:48:16
Ich würde SA hier widersprechen, oder er spricht einfach von einer anderen Art von "Geometry Processing". Ohne die transformierte Position eines Vertex zu kennen, kann man eben auch nicht wissen ob dieser im SIchtbereich liegt.

StefanV
2004-07-02, 13:57:55
Original geschrieben von robbitop
@Stefan

eine verlustbehaftete Kompression im VPU Bereich?
Stehst du auf Kompressionsartefakte?

Ich denke, daß man bei der Kompression so weit ist, daß man es so hinbiegen kann, daß man es nicht sehen kann...

Gast
2004-07-02, 14:20:13
Original geschrieben von Stefan Payne
Ich denke, daß man bei der Kompression so weit ist, daß man es so hinbiegen kann, daß man es nicht sehen kann...

Das denke ich nicht.

HellHorse
2004-07-02, 15:44:50
Original geschrieben von Gast
Das denke ich nicht.
JPEG z.B ist recht ok, findest du nicht?
Und wenn man noch einen "optimierten" Filter hat, ist's eh egal.

Demirug
2004-07-02, 18:19:39
Original geschrieben von Xmas
Ich würde SA hier widersprechen, oder er spricht einfach von einer anderen Art von "Geometry Processing". Ohne die transformierte Position eines Vertex zu kennen, kann man eben auch nicht wissen ob dieser im SIchtbereich liegt.

IMHO spricht SA hier von einer Multi GPU lösung bei der sich die Applikation darüber bewusst ist das sie zwei Chips mit Daten versorgen muss. Wenn nun jeder dieser Chips einen festgelegten Viewport hat kann die Applikation das Highlevel Objectculling für jeden dieser Viewports getrennt durchführen. Dadurch bekommt jeder Chip sein eigenes Set mit "möglicherweise sichtbaren" Objekten. Eine Lösung dieser Art braucht man ja auch wenn man bei Multiscreen Systemen für jeden Bildschirm einen eigegen Rendercontext hat.

Ich kann mir aber Multichip-Lösungen vorstellen bei denen die Applikations nichts davon wissen muss und trotzdem nicht jeder Chip die gesamte Geometrie durchrechnen muss.

Gast
2004-07-02, 20:59:21
Original geschrieben von Demirug
IMHO spricht SA hier von einer Multi GPU lösung bei der sich die Applikation darüber bewusst ist das sie zwei Chips mit Daten versorgen muss. Wenn nun jeder dieser Chips einen festgelegten Viewport hat kann die Applikation das Highlevel Objectculling für jeden dieser Viewports getrennt durchführen. Dadurch bekommt jeder Chip sein eigenes Set mit "möglicherweise sichtbaren" Objekten. Eine Lösung dieser Art braucht man ja auch wenn man bei Multiscreen Systemen für jeden Bildschirm einen eigegen Rendercontext hat.

Ich kann mir aber Multichip-Lösungen vorstellen bei denen die Applikations nichts davon wissen muss und trotzdem nicht jeder Chip die gesamte Geometrie durchrechnen muss.

Das glaubt SA übrigens auch (zumindest interpretiere ich sein Posting so):


BTW, in my opinion screen partitioning might prove to be a more efficient way of distributing processing across multiple pipelines on a single card as the number of pipelines continue to grow and the triangle sizes continue to shrink.

It allows large numbers of vertices and pixels to be processed independently in parallel without potential frame buffer or resource conflicts.

Sorry das ich beim ersten Posting den Link vergessen habe :
http://www.beyond3d.com/forum/viewtopic.php?t=13600&start=160&sid=49492018bd795b203453bf3ffb4d9d4d

Jetzt würde ich bloß gerne wissen wie das funktionieren soll? Schließlich wäre es dann ja möglich auch einen Chip mit 32 Pipelines (bzw. 8x4 oder so ;) ) herzustellen, der max. 8 Polygone parallel verarbeiten kann. Das würde die Effizienz imho bestimmt verbessern.

zeckensack
2004-07-02, 21:30:46
Entschuldige die harten Worte, aber ich denke dieser SA schreibt da momentan einen ziemlichen Quatsch zusammen ...

"
If the application's 3d engine uses efficient culling of geometry to the viewport (say using hierarchical bounding volumes) the scaling happens automatically since geometry outside a card's partition is efficiently culled before being processed.
"
*hup*
Nein, automatisch schonmal garnicht. Die Applikation müsste schon wissen, dass sie eine Dual-Lösung antreibt, sie müsste wissen wie der Bildschirm aufgeteilt wird, sie müsste das Viewport culling zweimal ausführen, und schlussendlich müsste sie die beiden Grafikchips getrennt ansteuern.

"
If it was felt important to scale the geometry processing of applications that didn't bother to efficiently cull geometry it could be handled by having each card deterministically process half the vertices. A card would send any processed vertices it processed in the other card's viewport to the other card for rendering.
"
*hup*
Einfacher wär's, gleich alles doppelt zu machen. Wäre nicht mal unbedingt langsamer, weil der Kommunikationsaufwand für "fehlgeleitete" vertices erheblich wäre.

"
As an possible optimization, you could minimize communications traffic by having each card track the vertices that were in its viewport on the last frame and render those first.
"
*hup*
Verts sind für den Grafikchip nur Bithaufen. Es ist schwierig, sie einem bestimmten Objekt zuzuordnen, und es ist geradezu unmöglich, dieses Objekt im nächsten Frame irgendwie wiederzuerkennen.


"
BTW, in my opinion screen partitioning might prove to be a more efficient way of distributing processing across multiple pipelines on a single card as the number of pipelines continue to grow and the triangle sizes continue to shrink.
"
*hup*
<zensiert>
*kopfschüttel*

Ailuros
2004-07-03, 01:11:49
Das dumme ist dass bis jetzt SA's Kommentare in der Mehrzahl selten von der Wahrheit entfernt waren in der Vergangenheit; so ne Art verkorkste "Hellseherei" was 3D betrifft. Ob er jetzt nur tatsaechlich getroffen raten kann oder ob das Ganze auf Tatsachen basiert kann ich natuerlich nicht wissen.

In der Vergangenheit brauchte ich einige Zeit zu verstehen was er damals zB. mit "application driven deferred rendering" meinte und ich kann mich auch noch daran erinnern dass damals so manche Zweifel zu hoeren waren als er sagte dass sich irgendwann PS und VS vereinigen werden.

So wie ich diese Kommentare oben verstehe, koennte es sein dass er auf die verwendete SuperTiling Methode von ATI (siehe R3xx oder auch Xenon) deutet.

Wäre nicht mal unbedingt langsamer, weil der Kommunikationsaufwand für "fehlgeleitete" vertices erheblich wäre.

Tatsaechlich. Das Fragezeichen in meinem Kopf ist aber hier wieso es in heutigen MIMD VS Einheiten fuer solche Faelle besser sein sollte. Bei "out of order vertices" muesste es gar nicht so schwer sein, dass mal ein vertice "fehlgeleitet" wird.

BTW, in my opinion screen partitioning might prove to be a more efficient way of distributing processing across multiple pipelines on a single card as the number of pipelines continue to grow and the triangle sizes continue to shrink.

Ich bin mir gar nicht so sicher ob dass eine so bloede Idee am Ende ist. Natuerlich lasse ich mich gerne um besseres belehren (ich verstehe ja sowieso nur eine Fraktion von dem Wirrwarr); aber mir sind zumindest 2 Architekturen momentan bekannt, wo Chancen bestehen dass eine solche oder aehnliche Methode angewendet wird.

Kleine Dreiecke haben wohl viele wenn nicht alle Architekturen unbedingt gern, wenn ich das richtig verstanden habe.

TheCounter
2005-01-06, 21:35:09
Mal wieder etwas neues, ein neues Patent:

http://news.teamxbox.com/xbox/7421/Xbox-2-Patent/

Kann jemand der nen bisschen mehr Ahnung hat dazu was genaueres sagen?

Demirug
2005-01-06, 21:48:05
Mal wieder etwas neues, ein neues Patent:

http://news.teamxbox.com/xbox/7421/Xbox-2-Patent/

Kann jemand der nen bisschen mehr Ahnung hat dazu was genaueres sagen?

Etwas neues steht da eigentlich nicht drin.

Es ist lediglich etwas verwunderlich das man in den Beispielen einen Teil der CPUs ständig mit Geometriearbeiten beschäftigt. Das könnte aber auch daher kommen das man geraden den Aspekt der CPU/GPU syncronisation im besonderen darstellen wollte.

Crushinator
2005-01-11, 10:52:22
Kennt jemand schon dieses Bild? :D

http://home.btconnect.com/hgi/xbox2/xbox2monsterL.jpg

Sorry, wenn es schon bekannt ist. Ich habe es gerade erst gefunden, als ich bei Beyond3d (http://www.beyond3d.com/forum/viewtopic.php?t=19447) stöberte.

ShadowXX
2005-01-11, 10:57:22
Kennt jemand schon dieses Bild? :D

http://home.btconnect.com/hgi/xbox2/xbox2monsterL.jpg

Sorry, wenn es schon bekannt ist. Ich habe es gerade erst gefunden, als ich bei Beyond3d (http://www.beyond3d.com/forum/viewtopic.php?t=19447) stöberte.

Kaffeemaschine??

Dieses Design ist extrem hässlich...wer stellt sich denn sowas ins Wohnzimmer?? Ich hoffe ernsthaft, das das im höchsten Falle eine Designstudie oder Fake ist (wovon ich ausgehe...sieht so aus, als wenn jemand in PS eine XBox in die Höhe gezogen hat.)

q@w
2005-01-11, 11:11:15
*zaunpfahl_rauskram*
Vielleicht musste man die XBox2 physisch etwas erhöhen, bei dem, was da so an Leistung reininterpretiert wird.
*zaunpfahl_wegsteck*

[/sarkasmus]
;)

Crushinator
2005-01-11, 11:38:45
(...) Ich hoffe ernsthaft, das das im höchsten Falle eine Designstudie oder Fake ist (wovon ich ausgehe...sieht so aus, als wenn jemand in PS eine XBox in die Höhe gezogen hat.) An der linken Seite (Abstufungen) und an der verschwommenen 2 kann man deutlich erkennen, daß es sich um ein leicht bearbeitetes Foto handelt. Den Beweis findet man spätestens bei einer drastigen Hellichkeitserhöhung und zwar oben und unten rechts durch den getrennten weißen Strich, und duch die zu smoothed gerenderte Fläche vorne, welche die Körnung der restlichen Flächen nicht aufweist. ;)

Meinen eigentlichen Eindruck hat Quasar sehr passend beschrieben. :D

HellHorse
2005-01-11, 12:32:48
*zaunpfahl_rauskram*
Vielleicht musste man die XBox2 physisch etwas erhöhen, bei dem, was da so an Leistung reininterpretiert wird.
*zaunpfahl_wegsteck*

[/sarkasmus]
;)
Dann muss ja die PS3 ein Zimmer füllen ;)

Crushinator
2005-01-11, 12:36:26
BTW: Muß das einem zu denken geben, was Bill Gates da (http://www.gizmodo.com/gadgets/home-entertainment/xbox/index.php#gates-interview-part-three-xbox-2-and-xbox-live-029382) von sich gibt? :D

There's no way portable gaming can come anywhere near the high-definition gaming that we'll offer in the console-based product. The amount of power and heat that we get to budget for that [console] is two orders of magnitude more than you can do with a portable device. Just to get, you know—we have to have fans, we have to have multiple fans. I mean, we're turning out hundreds of watts in that thing because the processor and the graphics are just total state-of-the-art incredible devices.

xL|Sonic
2005-01-11, 13:01:11
Die Konsole wird kleiner als die Xbox werden, dass wurde von Seiten von Microsoft schon mehrmals bestätigt. Ein Grund warum die Xbox nicht so erfolgreich gewesen ist, war auch die klobige Form und die Größe.

robbitop
2005-01-11, 13:04:10
Nunja da ist diesmal ein HighEnd Prozessor und eine HighEnd Grafikunit enthalten. Und da wir alle den Trend der Leistungsaufnahme der letzten Jahre kennen, sollte das niemanden überraschen.

HellHorse
2005-01-11, 14:17:02
BTW: Muß das einem zu denken geben, was Bill Gates da (http://www.gizmodo.com/gadgets/home-entertainment/xbox/index.php#gates-interview-part-three-xbox-2-and-xbox-live-029382) von sich gibt? :D

Obviously, we'll connect Xbox Love up to what we do with Messenger,

X-D

Crazy_Bon
2005-01-11, 14:25:06
Die Konsole wird kleiner als die Xbox werden, dass wurde von Seiten von Microsoft schon mehrmals bestätigt. Ein Grund warum die Xbox nicht so erfolgreich gewesen ist, war auch die klobige Form und die Größe.
Ich frage mich sowieso, warum MS einfach nicht ein neues Gehäuse für die Xbox1 entwickelt. Mit Komponenten eines Notebooks (HD- und DVD-Laufwerk) und einem externen Netzteils würde ein kleineres Gehäuse ohne weiteres möglich.

robbitop
2005-01-11, 14:57:55
Ich frage mich sowieso, warum MS einfach nicht ein neues Gehäuse für die Xbox1 entwickelt. Mit Komponenten eines Notebooks (HD- und DVD-Laufwerk) und einem externen Netzteils würde ein kleineres Gehäuse ohne weiteres möglich.

Notebookkomponenten sind teurer?

Crazy_Bon
2005-01-11, 15:34:53
Notebookkomponenten sind teurer?
Finde ich unrelevant, es sind ja nur 2 Komponenten. Konsolen sind eh subventioniert.

Relic
2005-01-11, 15:45:27
bei mainboardherstellern z. B. sind en paar cent für bessere kondensatoren auch nicht unrelevant... und hier gehts um erheblich größere beträge... meinst du die hersteller subventionieren gerne?

robbitop
2005-01-11, 15:53:07
bei mainboardherstellern z. B. sind en paar cent für bessere kondensatoren auch nicht unrelevant... und hier gehts um erheblich größere beträge... meinst du die hersteller subventionieren gerne?
genau auf den Punkt gebracht :up:

Crazy_Bon
2005-01-11, 15:55:57
Nein, aber je mehr Konsoleneinheiten man unters Volk mischen kann, desto mehr kann man an künftigen Softwareverkäufen verdienen. Wenn eine neue Optik und Grösse die Käuferschicht anspricht und akzeptiert, dann wird sie gekauft. Nicht ohne Grund ändern Sony und Nintendo die Farbe und Grösse ihrer Konsolen, ein silberner GBA SP spricht mich mehr an als der normale und klobige GBA, auch wenn dieser dafür billiger ist.

Hauwech
2005-01-11, 21:07:22
Notebookkomponenten sind teurer?

Das einzig teure ist eigentlich das Display. Vielleicht noch der Prozessor sofern ein echter Mobilprozessor eingesetzt wird. Der Rest ist, bis auf Grafik, da bin ich mir nicht so ganz sicher, Meterware.

TheCounter
2005-01-26, 13:30:15
http://www.theinquirer.net/?article=20919

Steht da was neues? Oder ist das auch schon bekannt?

TheCounter
2005-03-09, 02:07:08
So, mal was etwas interessantes. Und zwar die Specs von einer frühen Version des X-Box 2 Devkits:

CPU - Xenon's CPU has three 3.0 GHz PowerPC cores. Each core is capable of two instructions per cycle and has an L1 cache with 32 KB for data and 32 KB for instructions. The three cores share 1 MB of L2 cache. Alpha 2 developer kits currently have two cores instead of three.

GPU - Xenon's GPU is a generation beyond the ATI X800. Its clock speed is 500 MHz and it supports Shader 3.0. Developers are currently working with an alpha 2 GPU. Beta GPU units are expected by May and the final GPU is slated for a summer release. The final GPU will be more powerful than anything on the market today; in game terms, it would handle a game like Half-Life 2 with ease.

System Memory - Xenon will have 256 MB of system RAM. Keep in mind that this number should not be equated to typical PC RAM. The Xbox has 64 MB of system RAM and is a very capable machine.

Optical Drive - As many have speculated, Xenon will not use Blu-Ray or HD-DVD. Games will come on dual-layer DVD-9 discs. While the media is the same as that of the current Xbox, the usable space on each disc is up to 7 GB. The drive is slated to run at 12X.

Memory Units - Xenon will use 64 MB to 1,024 MB memory cards. 8 MB is reserved for system use, leaving a 56 MB to 1,016 MB for user data.

Hard Drive - As many have speculated, Xenon's hard drive is optional. 2 GB of the drive will be used as game cache. The final drive size is still being determined.

Camera - Xenon will have a USB 2.0 camera. It's capable of 1.2 megapixel still shots and VGA video. Photos can be used in-game and for gamer profiles. The camera can also be used for video chat. It's unknown if the Xenon camera will allow for EyeToy-like gameplay. Developers are currently using a simulated camera driver.

Sound Chip - Xenon does not have an audio chip in the traditional sense. Decompression is handled by hardware, while the rest of the chores are handled by software. DirectSound3D has been dropped in favor of X3DAudio. The former was deemed too inflexible.

http://xbox.gamespy.com/xbox/microsoft-xbox/594331p1.html

Klingt ganz gut, vor allem ne Triple Core CPU. Hab eigentlich mit 3 einzelnen CPU's gerechnet. Aber so is das ganze natürlich viel sparsamer in sachen Platz.

EDIT, auch interessant:

Developers are being instructed to plan their games for high-definition. The baseline is 720p at 1280x720 for gameplay and video clips, 16:9 aspect ratio, 5.1 Surround Sound, and anti-aliasing. These features are the current minimum requirement.

Coda
2005-03-09, 02:11:58
Dynamic Logik? Also in Supercomputern wurde früher ECL eingesetzt anstatt CMOS. Aber das braucht noch sehr viel mehr Strom als jetzt schon CMOS mit all seinen Problemen.

Also das ist ganz sicher auszuschließen.

Edit: Ach so. In einem älteren Artikel ist etwas von Fast 14 zu lesen. Falls das zutrifft, dann liegt die XBox 2 sicher nicht hinter der PS3, egal wie stark Cell gehypt wird :rolleyes:

Aber wieso Inquirer das mit Supercomputern in Verbindung bringt? :|
Naja Bildzeitungsniveau halt...

Neon3D
2005-03-09, 06:23:42
ist mir schnurz piep egal, ob die xbox2 leistungsmäßig mit der ps3 mithalten kann oder nicht.
wenn ich mir die games ansehe, liegt die xbox mit ihren titeln näher an einem pc als die ps2.

dementsprechend werden die ps3 titel wieder eine größere eingenständigkeit besitzen als die xbox2 => die ps3 bleibt mein favorit.

ps: ich wollte noch nie bei ibm arbeiten.

JETZT ERST RECHT NICHT.

der quälverein number 1.

:uexplode:

bluey
2005-03-09, 09:18:19
Hard Drive - As many have speculated, Xenon's hard drive is optional. 2 GB of the drive will be used as game cache. The final drive size is still being determined.

Was soll das heissen? Das Spiele ohne Extra Festplatte langsamer laufen? Memory Pack Ahoi!

TheCounter
2005-03-09, 09:38:38
Was soll das heissen? Das Spiele ohne Extra Festplatte langsamer laufen? Memory Pack Ahoi!

Ladezeiten dürften länger sein. Die Performance dürfte aber nicht schlechter sein.

ShadowXX
2005-03-09, 09:41:06
So, mal was etwas interessantes. Und zwar die Specs von einer frühen Version des X-Box 2 Devkits:

CPU - Xenon's CPU has three 3.0 GHz PowerPC cores. Each core is capable of two instructions per cycle and has an L1 cache with 32 KB for data and 32 KB for instructions. The three cores share 1 MB of L2 cache. Alpha 2 developer kits currently have two cores instead of three.


Das sind dann aber keine normalen PPC-Cores, sondern hören sich nach denen an, die auch als Basis für den Cell benutzt werden....nur eben ohne SPEs.

Aber warum auch nicht.....mit dieser PPC-Variante könnte man wohl tatsächlich ein 3Cores-On-Die Design mit 3GHz hinbekommen.


GPU - Xenon's GPU is a generation beyond the ATI X800. Its clock speed is 500 MHz and it supports Shader 3.0. Developers are currently working with an alpha 2 GPU. Beta GPU units are expected by May and the final GPU is slated for a summer release. The final GPU will be more powerful than anything on the market today; in game terms, it would handle a game like Half-Life 2 with ease.


Ich glaube diese AUssage bezieht sich mehr auf die Konsolenwelt.....HL2 wird ja auch jetzt schon von PC-Mainstreamkarten ohne Probleme dargestellt.


System Memory - Xenon will have 256 MB of system RAM. Keep in mind that this number should not be equated to typical PC RAM. The Xbox has 64 MB of system RAM and is a very capable machine.

Optical Drive - As many have speculated, Xenon will not use Blu-Ray or HD-DVD. Games will come on dual-layer DVD-9 discs. While the media is the same as that of the current Xbox, the usable space on each disc is up to 7 GB. The drive is slated to run at 12X.

Memory Units - Xenon will use 64 MB to 1,024 MB memory cards. 8 MB is reserved for system use, leaving a 56 MB to 1,016 MB for user data.

Hard Drive - As many have speculated, Xenon's hard drive is optional. 2 GB of the drive will be used as game cache. The final drive size is still being determined.

Camera - Xenon will have a USB 2.0 camera. It's capable of 1.2 megapixel still shots and VGA video. Photos can be used in-game and for gamer profiles. The camera can also be used for video chat. It's unknown if the Xenon camera will allow for EyeToy-like gameplay. Developers are currently using a simulated camera driver.

Sound Chip - Xenon does not have an audio chip in the traditional sense. Decompression is handled by hardware, while the rest of the chores are handled by software. DirectSound3D has been dropped in favor of X3DAudio. The former was deemed too inflexible.

http://xbox.gamespy.com/xbox/microsoft-xbox/594331p1.html

Klingt ganz gut, vor allem ne Triple Core CPU. Hab eigentlich mit 3 einzelnen CPU's gerechnet. Aber so is das ganze natürlich viel sparsamer in sachen Platz.


Den rest kannte ich irgendwie schon........das mit dem Soundchip halte ich eher für eine gute Ausrede als alles andere.
Wahrscheinlich war Ihnen ein Soundchip von einem namenhaften Hersteller zu teuer oder ATI konnte auf die schnelle keinen Entwickeln ;)


EDIT, auch interessant:

Developers are being instructed to plan their games for high-definition. The baseline is 720p at 1280x720 for gameplay and video clips, 16:9 aspect ratio, 5.1 Surround Sound, and anti-aliasing. These features are the current minimum requirement.

720p als Baseline ist wohl in Ordnung....liegt in dem Bereich, wo momentan standardmässig die unteren High-End-PC-Karten sich tummel.(GT bzw. Pro)

Gasssssttttttttttt
2005-03-09, 11:56:04
= CELL mit nur 3 Ghz und ohne SPUs :)

Damit ist die Schlacht bereits gewonnen (für die PS3)

btw. Fast14 ist nur ein Fertigungsprozess ;)

Coda
2005-03-09, 11:57:29
Cell's PPUs sind extrem ineffizient, die kommen wohl nichtmal auf die Leistung von nem 3Ghz P4.

Das sind dann aber keine normalen PPC-Cores, sondern hören sich nach denen an, die auch als Basis für den Cell benutzt werden....nur eben ohne SPEs.
Ganz sicher nicht. Das riecht definitiv nach Fake.

Demirug
2005-03-09, 12:02:08
btw. Fast14 ist nur ein Fertigungsprozess ;)

Falsch. Fast14 nutzt jeden beliebigen Prozess der zur Herstellung von CMOS Chips verwendenbar ist.

TheCounter
2005-03-09, 12:30:40
Das ganze stammt übrigens nicht von irgendwelchen dubiosen Leuten in Foren sondern von Entwicklern auf der GDC. Vlt. gibts ja heute mal direkt von MS Infos. MS hat ja schon gesagt das die Konsole über 1TFlop Rechenleistung haben soll (Wieder nur ein Theoretischer Wert), vielleicht kommt da heute noch mehr in der Microsoft Keynote.

TheCounter
2005-03-09, 12:39:20
Heute Abend um 20:30 Uhr gibts eine offizielle Pressemitteilung zur X-Box 2 von MS!

http://www.xboxfront.de/news-33-613.html

Dann dürften wir heute Abend wissen welche HW denn nun in die X-Box 2 kommt ;)

ShadowXX
2005-03-09, 12:42:32
= CELL mit nur 3 Ghz und ohne SPUs :)

Damit ist die Schlacht bereits gewonnen (für die PS3)

btw. Fast14 ist nur ein Fertigungsprozess ;)

Kommt ganz darauf an, was die PS3 mit Ihren SPEs macht...wenn Sie als Vertex/Geometrie-Shader dienen sollen und das bei der Xenon-GPU wiederum in deren HW verbaut ist, ist im Prinzip schon wieder Gleichstand....(nur eben eine andere Aufteilung)

Es sind dann nur andere Ansätze.

Wobei ich nicht glaube, das in der Xenon-GPU schon Geometrieshader enthalten sind.....

ShadowXX
2005-03-09, 12:48:30
Ganz sicher nicht. Das riecht definitiv nach Fake.

Warum nicht....IBM musste sowieso für die Cells einen "neuen" PPC-Core Entwickeln.

Warum diese Basis dann nicht (eben ohne SPEs, die ja das "besondere" darstellen) MS als Hauptprozessor anbieten.
(Speziell ist das billiger für IBM als wenn Sie für MS was völlig neues entwickeln)

Sie sind simpel aufgebaut und können deshalb wohl hoch getaktet werde, ohne zu heiss zu werden...ebenfalls sollte es mit diese abgespeckten Varianten auch eher möglich sein eine "triple-core" zu basteln.

Und die max. 2 Ops/Takt pro Core passen ganz gut zu dem was arstechnica zu den Cell-PPC-Cores geschrieben hat.

Coda
2005-03-09, 13:01:21
Weil die PPEs nur mit SMT auf 2 Ops/Cycle kommen ansonsten nur 1Op/Cycle.
Das ist viel zu ineffizient, wenn man keine APUs hat.

Warum sollte man so nen Ranz verbauen?

ShadowXX
2005-03-09, 13:51:01
Weil die PPEs nur mit SMT auf 2 Ops/Cycle kommen ansonsten nur 1Op/Cycle.
Das ist viel zu ineffizient, wenn man keine APUs hat.

Warum sollte man so nen Ranz verbauen?

Weil IBM sie billig anbietet und Sie dazu noch als Triple-Core-variante mit 3GHz bei annehmbarer Wärmeentwicklung zu takten sind?

Grosse Zahlen machen sich gut im Marketing........

Eine AltiVec-Einheit soll ja immerhin noch drinne sein.

Aber ich gebe dir recht...ich würde sowas auch nicht verbauen.
Es ging mir mehr darum, das es so durchaus machbar wäre....ob es denn so ist, werde wir es erst wissen, wenn MS mal etwas neues bekanntgibt.

robbitop
2005-03-09, 15:37:03
kann man SPUs überhaupt gescheit bei Spielen einbinden?
Ich kann mir vorstellen, dass die PS3 wieder horrorschwer zu programmieren sein wird.

ShadowXX
2005-03-09, 15:43:46
kann man SPUs überhaupt gescheit bei Spielen einbinden?
Ich kann mir vorstellen, dass die PS3 wieder horrorschwer zu programmieren sein wird.

Erstens könnte man Sie als VS benutzen...ausserdem hat Coda mich darauf hingewiesen, das man damit ja auch Geometrie erzeugen könnte.(=Geometrieshader)

Ich schätze das genau dafür die SPEs auch benutzt werden und die nV GPU dann keine VS und keinen GS hat.

Physik ginge vielleicht auch noch damit.....

Aber ich bin auch der Meinung, das es ein Horror sein wird, die PS3 richtig auszunutzen...aber das ist bei Sony ja scheinbar normal so.

Coda
2005-03-09, 16:15:03
Naja, du kannst halt alle Streamalgorithmen drauf laufen lassen. So schlecht ist das nicht. Z.B. werden PS3 Spiele wohl sehr geile Wassersimulationen haben, das seh ich schon kommen...

reunion
2005-03-09, 17:07:02
GPU - Xenon's GPU is a generation beyond the ATI X800. Its clock speed is 500 MHz and it supports Shader 3.0.


Hm, gilt das nur für die jetztige Alpha-Version oder wird R500 wirklich nur mit 500mhz getaktet?
IMO sollte durch die 90nm lowk fertigung mehr drin sein.

TheCounter
2005-03-09, 17:31:36
Hm, gilt das nur für die jetztige Alpha-Version oder wird R500 wirklich nur mit 500mhz getaktet?
IMO sollte durch die 90nm lowk fertigung mehr drin sein.

Die Entwickler beziehen sich aufs Devkit. Heute Abend werden wir dann wohl die finalen Taktraten wissen. 20:30 Uhr is Keynote, dürfte nicht lange dauern bis das ins Netz gelangt.

Gahui
2005-03-09, 18:02:10
Hm, gilt das nur für die jetztige Alpha-Version oder wird R500 wirklich nur mit 500mhz getaktet?
IMO sollte durch die 90nm lowk fertigung mehr drin sein.

Meine konfig für die Xbox2:

3ghz Cpu
1,5ghz Gpu
512MB ram
busbandwidth: ~50gbyte/s(25gb für CPu und 25 für Gpu)

robbitop
2005-03-09, 18:03:13
Naja man muss auch auf die Leistungsaufnahme in der Konsole achten. Das ist thermisch anders als in einem PC. Außerdem bringen erst die Prozessreifung und Optimierung der Masken mehr Takt. 500MHz für ein alpha Sample sind IMO recht gut. Ich kann mir vorstellen, dass das kein inkomplexes Design wird (16MiB eDRAM und ein beyond SM3 Design).

Tarkin
2005-03-09, 20:32:57
http://biz.yahoo.com/prnews/050309/sfw011a_1.html

SAN FRANCISCO, March 9 /PRNewswire-FirstCall/ -- Today at the annual Game Developers Conference (GDC), Microsoft Corp. (Nasdaq: MSFT - News) announced the first details of its next-generation Xbox® video game system platform, highlighting how hardware, software and services are being fused to power enhanced game and entertainment experiences.

Microsoft Corporate Vice President and Chief XNA(TM) Architect J Allard further outlined the company's vision for the future of entertainment, citing the emergence of an "HD Era" in video games that is fueled by consumer demand for experiences that are always connected, always personalized and always in high-definition.

"In the HD Era the platform is bigger than the processor," Allard said. "New technology and emerging consumer forces will come together to enable the rock stars of game development to shake up the old establishment and redefine entertainment as we know it."

Building on 10 years of innovation with the DirectX® API, the Microsoft® Windows® and Xbox platforms will enable ground-breaking game experiences in the HD Era. Illustrating what that means for gamers, Allard shared the first details about the next-generation Xbox guide. Persistent across all games and media experiences, the guide is an entertainment gateway that instantly connects players to their games, their friends and their digital media.

Features of the guide include these:

-- Gamer Cards. Gamer Cards provide gamers with a quick look at key Xbox Live(TM) information. They let players instantly connect with people who have similar skills, interests and lifestyles.

-- Marketplace. Browseable by game, by genre, and in a number of other ways, the Marketplace will provide a one-stop shop for consumers to acquire episodic content, new game levels, maps, weapons, vehicles, skins and new community-created content.

-- Micro-transactions. Breaking down barriers of small-ticket online commerce, micro-transactions will allow developers and the gaming community to charge as little as they like for content they create and publish on Marketplace. Imagine players slapping down $.99 to buy a one-of-a-kind, fully tricked-out racing car to be the envy of their buddies.

-- Custom playlists. This feature eliminates the need for developers to support custom music in games. The guide instantly connects players to their music so they can listen to their own tracks while playing all their favorite next-generation Xbox games.

Typifying the HD Era game experience, the guide requires hardware designed with software in mind. System-level features of the guide such as custom playlists, the Xbox Live Friends list and voice chat are enabled at the chip level, liberating developers to focus on creating games, not developing for technical certification requirements (TCRs).

To support consumer demands for the HD Era, the next-generation Xbox is designed around key principles that let developers maximize real performance, using concepts they are already familiar with.

The next-generation Xbox hardware design principles include the following:

-- A well-balanced system that will deliver more than a teraflop of targeted computing performance

-- A multicore processor architecture co-developed with IBM Corp. that provides developer "headroom" and flexibility for the HD Era

-- A custom-designed graphics processor co-developed with ATI Technologies Inc. designed for HD Era games and entertainment applications

In addition, familiar software technologies such as DirectX, PIX, XACT and the recently announced XNA Studio -- an integrated team-based development environment tailored for game production -- complement the new hardware to help game developers unlock increasingly powerful and complex silicon.

The HD Era gaming platform will strike an elegant balance of hardware, software and services to power the new experiences consumers demand. Games and entertainment features such as the next-generation Xbox guide represent a shift toward more immersive and integrated consumer experiences. This shift will be further illustrated by a significant leap to high-definition graphics, where character movements and expressions are intensely vibrant and nearly indiscernible from real life; by multichannel, positional audio fidelity so clear and precise that players will be able to hear the faintest enemy footsteps sneaking up behind them; by richer online communications; and by an abundance of on-demand content for game consoles.

To listen to a podcast or watch video of the keynote, go to http://www.xbox.com .

ShadowXX
2005-03-09, 20:53:20
http://biz.yahoo.com/prnews/050309/sfw011a_1.html

SAN FRANCISCO, March 9 /PRNewswire-FirstCall/ -- Today at the annual Game Developers Conference (GDC), Microsoft Corp. (Nasdaq: MSFT - News) announced the first details of its next-generation Xbox® video game system platform, highlighting how hardware, software and services are being fused to power enhanced game and entertainment experiences.

Microsoft Corporate Vice President and Chief XNA(TM) Architect J Allard further outlined the company's vision for the future of entertainment, citing the emergence of an "HD Era" in video games that is fueled by consumer demand for experiences that are always connected, always personalized and always in high-definition.

"In the HD Era the platform is bigger than the processor," Allard said. "New technology and emerging consumer forces will come together to enable the rock stars of game development to shake up the old establishment and redefine entertainment as we know it."

Building on 10 years of innovation with the DirectX® API, the Microsoft® Windows® and Xbox platforms will enable ground-breaking game experiences in the HD Era. Illustrating what that means for gamers, Allard shared the first details about the next-generation Xbox guide. Persistent across all games and media experiences, the guide is an entertainment gateway that instantly connects players to their games, their friends and their digital media.

Features of the guide include these:

-- Gamer Cards. Gamer Cards provide gamers with a quick look at key Xbox Live(TM) information. They let players instantly connect with people who have similar skills, interests and lifestyles.

-- Marketplace. Browseable by game, by genre, and in a number of other ways, the Marketplace will provide a one-stop shop for consumers to acquire episodic content, new game levels, maps, weapons, vehicles, skins and new community-created content.

-- Micro-transactions. Breaking down barriers of small-ticket online commerce, micro-transactions will allow developers and the gaming community to charge as little as they like for content they create and publish on Marketplace. Imagine players slapping down $.99 to buy a one-of-a-kind, fully tricked-out racing car to be the envy of their buddies.

-- Custom playlists. This feature eliminates the need for developers to support custom music in games. The guide instantly connects players to their music so they can listen to their own tracks while playing all their favorite next-generation Xbox games.

Typifying the HD Era game experience, the guide requires hardware designed with software in mind. System-level features of the guide such as custom playlists, the Xbox Live Friends list and voice chat are enabled at the chip level, liberating developers to focus on creating games, not developing for technical certification requirements (TCRs).

To support consumer demands for the HD Era, the next-generation Xbox is designed around key principles that let developers maximize real performance, using concepts they are already familiar with.

The next-generation Xbox hardware design principles include the following:

-- A well-balanced system that will deliver more than a teraflop of targeted computing performance

-- A multicore processor architecture co-developed with IBM Corp. that provides developer "headroom" and flexibility for the HD Era

-- A custom-designed graphics processor co-developed with ATI Technologies Inc. designed for HD Era games and entertainment applications

In addition, familiar software technologies such as DirectX, PIX, XACT and the recently announced XNA Studio -- an integrated team-based development environment tailored for game production -- complement the new hardware to help game developers unlock increasingly powerful and complex silicon.

The HD Era gaming platform will strike an elegant balance of hardware, software and services to power the new experiences consumers demand. Games and entertainment features such as the next-generation Xbox guide represent a shift toward more immersive and integrated consumer experiences. This shift will be further illustrated by a significant leap to high-definition graphics, where character movements and expressions are intensely vibrant and nearly indiscernible from real life; by multichannel, positional audio fidelity so clear and precise that players will be able to hear the faintest enemy footsteps sneaking up behind them; by richer online communications; and by an abundance of on-demand content for game consoles.

To listen to a podcast or watch video of the keynote, go to http://www.xbox.com .


War das jetzt die gesamte Keynote, oder kommt da noch was?

Falls das alles war, wissen wir jetzt genausoviel wie vorher.....nix.

Das was ich daraus allerdings daraus lese (bzw. eben nicht lese) ist, dass es wohl keine Abwärtskopatibilität geben wird. Das hätten Sie sonst bestimmt extra erwähnt.

Jesus
2005-03-09, 20:53:22
sehr aussagekräftig :)

Edit: Mist 2 Sekunden zu spät :)

Edit 2: Sollte heute nicht auch noch eine PS3 Präsentation sein ?

TheCounter
2005-03-09, 20:56:13
Hmm auf xbox.com find ich absolut nix zur Keynote, kein Video, keine Pressemitteilung, garnix :confused:

reunion
2005-03-09, 21:03:53
http://biz.yahoo.com/prnews/050309/sfw011a_1.html

SAN FRANCISCO, March 9 /PRNewswire-FirstCall/ -- Today at the annual Game Developers Conference (GDC), Microsoft Corp. (Nasdaq: MSFT - News) announced the first details of its next-generation Xbox® video game system platform, highlighting how hardware, software and services are being fused to power enhanced game and entertainment experiences.

Microsoft Corporate Vice President and Chief XNA(TM) Architect J Allard further outlined the company's vision for the future of entertainment, citing the emergence of an "HD Era" in video games that is fueled by consumer demand for experiences that are always connected, always personalized and always in high-definition.

"In the HD Era the platform is bigger than the processor," Allard said. "New technology and emerging consumer forces will come together to enable the rock stars of game development to shake up the old establishment and redefine entertainment as we know it."

Building on 10 years of innovation with the DirectX® API, the Microsoft® Windows® and Xbox platforms will enable ground-breaking game experiences in the HD Era. Illustrating what that means for gamers, Allard shared the first details about the next-generation Xbox guide. Persistent across all games and media experiences, the guide is an entertainment gateway that instantly connects players to their games, their friends and their digital media.

Features of the guide include these:

-- Gamer Cards. Gamer Cards provide gamers with a quick look at key Xbox Live(TM) information. They let players instantly connect with people who have similar skills, interests and lifestyles.

-- Marketplace. Browseable by game, by genre, and in a number of other ways, the Marketplace will provide a one-stop shop for consumers to acquire episodic content, new game levels, maps, weapons, vehicles, skins and new community-created content.

-- Micro-transactions. Breaking down barriers of small-ticket online commerce, micro-transactions will allow developers and the gaming community to charge as little as they like for content they create and publish on Marketplace. Imagine players slapping down $.99 to buy a one-of-a-kind, fully tricked-out racing car to be the envy of their buddies.

-- Custom playlists. This feature eliminates the need for developers to support custom music in games. The guide instantly connects players to their music so they can listen to their own tracks while playing all their favorite next-generation Xbox games.

Typifying the HD Era game experience, the guide requires hardware designed with software in mind. System-level features of the guide such as custom playlists, the Xbox Live Friends list and voice chat are enabled at the chip level, liberating developers to focus on creating games, not developing for technical certification requirements (TCRs).

To support consumer demands for the HD Era, the next-generation Xbox is designed around key principles that let developers maximize real performance, using concepts they are already familiar with.

The next-generation Xbox hardware design principles include the following:

-- A well-balanced system that will deliver more than a teraflop of targeted computing performance

-- A multicore processor architecture co-developed with IBM Corp. that provides developer "headroom" and flexibility for the HD Era

-- A custom-designed graphics processor co-developed with ATI Technologies Inc. designed for HD Era games and entertainment applications

In addition, familiar software technologies such as DirectX, PIX, XACT and the recently announced XNA Studio -- an integrated team-based development environment tailored for game production -- complement the new hardware to help game developers unlock increasingly powerful and complex silicon.

The HD Era gaming platform will strike an elegant balance of hardware, software and services to power the new experiences consumers demand. Games and entertainment features such as the next-generation Xbox guide represent a shift toward more immersive and integrated consumer experiences. This shift will be further illustrated by a significant leap to high-definition graphics, where character movements and expressions are intensely vibrant and nearly indiscernible from real life; by multichannel, positional audio fidelity so clear and precise that players will be able to hear the faintest enemy footsteps sneaking up behind them; by richer online communications; and by an abundance of on-demand content for game consoles.

To listen to a podcast or watch video of the keynote, go to http://www.xbox.com .


Scherz oder?

ShadowXX
2005-03-09, 21:04:35
Hmm auf xbox.com find ich absolut nix zur Keynote, kein Video, keine Pressemitteilung, garnix :confused:

Für diesen Marketingwisch-wasch der nur geblubber und ein paar uralte, extrem oberflächliche Techinfos enthält (ach ATI macht den XBox2-Chip, hätte ich jetzt wirklich nicht gewusst... :rolleyes: ) lohnt sich auch kein Artikel/Meldung......

@reunion
sowas in der Art habe ich zuerst auch gedacht....

Jesus
2005-03-09, 21:19:53
Weil die PPEs nur mit SMT auf 2 Ops/Cycle kommen ansonsten nur 1Op/Cycle.
Das ist viel zu ineffizient, wenn man keine APUs hat.

Warum sollte man so nen Ranz verbauen?

Xenon's CPU has three 3.0 GHz PowerPC cores. Each core is capable of two instructions per cycle

Ich tippe mal drauf das es sich um einen abgespeckten CELL handelt, mit auch 2 Instruktions bei SMT. Angesichts der "Tatsache" (?) das die Xbox 2 jetzt schon 3 Cores (90nm?) hat, ist das nicht mehr so unwahrscheinlich dass die PS3 die später erscheint 4 CELLS (65nm?) hat, wie ja schon öfter spekuliert wurde ;)

Vermutlich hat IBM die "Rechte" an den PPEs und kann die billig einzeln verscherbeln, während die SPUs bei Sony/Toshiba liegen (VU ähnlich) ;)

Nur mal so eine spekulation :rolleyes:

Crushinator
2005-03-09, 21:32:39
Scherz oder? Sieht (http://www.heise.de/newsticker/meldung/57267) nicht nach Scherz aus. :)

Coda
2005-03-09, 21:33:12
Warum sollte MS einen Chip verbauen der bekanntermaßen der PS3 so deutlich unterlegen ist?

Dumm wie Brot sind die glaub auch nicht.

ShadowXX
2005-03-09, 21:42:31
Ich tippe mal drauf das es sich um einen abgespeckten CELL handelt, mit auch 2 Instruktions bei SMT. Angesichts der "Tatsache" (?) das die Xbox 2 jetzt schon 3 Cores (90nm?) hat, ist das nicht mehr so unwahrscheinlich dass die PS3 die später erscheint 4 CELLS (65nm?) hat, wie ja schon öfter spekuliert wurde ;)

Vermutlich hat IBM die "Rechte" an den PPEs und kann die billig einzeln verscherbeln, während die SPUs bei Sony/Toshiba liegen (VU ähnlich) ;)

Nur mal so eine spekulation :rolleyes:

Genau das hatte ich auch schon geschrieben....wenigstens noch einer, der meinen Gedankengang teilt.

Es hört sich im Prinzip nach der logischten Lösung an...IBM braucht nicht extra noch einen Core entwickeln bzw. vorhandnen verändern und schlägt dadurch 2 Fliegen mit einer Klappe.

MS braucht deswegen wahrscheinlich auch nur "relativ" wenig für die Cores bezahlen und hat damit auch einen Vorteil.

ShadowXX
2005-03-09, 21:49:12
Warum sollte MS einen Chip verbauen der bekanntermaßen der PS3 so deutlich unterlegen ist?

Dumm wie Brot sind die glaub auch nicht.

Verschiedene Ansätze.

Ich gehe davon aus, dass Sony die SPEs hauptsächlich als VS und Geometrieshader "missbrauchen" will.
Die GPU von nV wird darauf abgestimmt sein und diese Anteile nicht besitzen und deshalb "billiger" für Sony sein (In Produktion und IP-Bezahlung).

ATI hat dagegen wohl all das mit in Ihre GPU gepackt, MS braucht dadurch weniger CPU-Power, da sie nichts brauchen, was VS oder einen Geometreishader ersetzt.
Ist eben mehr das klassische PC Konzept, nur eben jetzt auf PPC-Basis.
Ihnen reicht eine "grottige" aber möglichst billige CPU aus....und es sind ja immerhin wohl 3 Stück.

Coda
2005-03-09, 21:52:59
Ich glaub's trotzdem nicht. Das PPE Design hat ja auch spezielle Ansteuerung für die APUs etc.
Das wären ja grad mal 150 Mio Transistoren in 90nm. Da is weitaus mehr drin.

Jesus
2005-03-09, 22:18:56
Ich denke Shadow hat Recht. IBM würde sich ganz sicher nicht selbst ausbooten indem sie einfach noch einen unbekannten Superprozessor herstellen der mehr leistet wie CELL, für den sie aber nie Werbung gemacht haben, ganz im Gegensatz zum CELL, der ja auch softwaretechnisch (http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/56854&words=Cell) weiter von IBM vorrangetrieben wird.

Coda
2005-03-09, 22:28:58
Wieso denn Superprozessor? Die PPEs sind relativer Crap allein gesehen.

ShadowXX
2005-03-09, 22:57:46
Wieso denn Superprozessor? Die PPEs sind relativer Crap allein gesehen.

Er sprach von einem "weiteren unbekannten Superprozessor"....nicht von den PPEs.

Coda
2005-03-10, 00:26:51
Und wer sagt dass der Cell ein Superprozessor ist, außer Sony selbst? Streamprozessoren sind nichts neues.

Cell ohne APUs ist wertlos, das wird MS sicher nicht verbauen.

Es kommt ja auch darauf an wie man das 2Ops/Cycle auffast. Ist es der Durchschnitts- oder Maximalwert?

BlackBirdSR
2005-03-10, 01:39:26
Es kommt ja auch darauf an wie man das 2Ops/Cycle auffast. Ist es der Durchschnitts- oder Maximalwert?

Ein P4 kann effektiv 3µOps/Cycle aus dem Trace Cache losschicken,
Er kann 6µops/Cycle von den Schedulern an die FUs losschicken,
Und er ist in der Lage 3µops/Cycle aus dem Kern zu werfen.

Was ist nun der korrekte Wert?
Vielleicht die avrg. 0.7µOps/Cycle die der P4 bei SpecInt erreicht?

Das ist Alles sehr interpretationsfreudig und leicht zu "schönen"
Also nicht so darauf versteifen, was was zu sein scheint.

ShadowXX
2005-03-10, 09:24:25
Und wer sagt dass der Cell ein Superprozessor ist, außer Sony selbst? Streamprozessoren sind nichts neues.

Cell ohne APUs ist wertlos, das wird MS sicher nicht verbauen.

Es kommt ja auch darauf an wie man das 2Ops/Cycle auffast. Ist es der Durchschnitts- oder Maximalwert?

Nach dem hier ( http://www.hartware.de/news_37761.html , wobei ich nicht weiss, woher Sie das haben, da als quelle "eigene" angegeben wird), würde ich die 2Ops/Takt als max. Wert betrachten:


Die Technik
Die drei PowerPC Kerne sind mit je 3Ghz getaktet und jeder Kern kann zwei Instruktionen pro Cyclus ausführen. Damit fährt die Konsole eine Leistung von 18.000 MIPS aus. Der Vorgänger erbrachte zum Vergleich grade einmal 1.980 MIPS. Desweiteren besitzt jeder Kern einen eigenen L1 Cache mit insgesamt 64KB. Der 1MB große L2 Cache wird hingegen unter den drei Kernen aufgeteilt.

Ailuros
2005-03-10, 09:36:37
Hm, gilt das nur für die jetztige Alpha-Version oder wird R500 wirklich nur mit 500mhz getaktet?
IMO sollte durch die 90nm lowk fertigung mehr drin sein.

Basiere Deine Spekulationen nicht auf R520-Spekulations-Basis, da Xenon/R500 vereinte Einheiten haben wird.

Die finale Xenon koennte durchaus hoeher getaktet sein als "nur" 500MHz, aber die Taktraten einer R520 erwarte ich persoenlich nicht.

dildo4u
2005-03-10, 16:13:00
Die hardware an sich is ja ganz nett aber nur normale Dual DVDs als medium das ist doch nicht M$ ernst die Konsole soll ja 4-5jahre halten also 2010 stelle ich mir schon Games vor die locker 20-30GB haben.

reunion
2005-03-10, 16:54:04
Sieht (http://www.heise.de/newsticker/meldung/57267) nicht nach Scherz aus. :)

Kein Scherz ;(

Infos über R500 wären schon verdammt intressant gewesen.

3D-profi
2005-03-10, 18:06:32
Nach dem hier ( http://www.hartware.de/news_37761.html , wobei ich nicht weiss, woher Sie das haben, da als quelle "eigene" angegeben wird), würde ich die 2Ops/Takt als max. Wert betrachten:

Mit 18000Mips und ein 1Tflops(cpu+gpu) bietet die Xbox2 eine Leistung
die ihres gleichen sucht,kaum zu glauben das Sony das noch toppen kann.
Das Bussystem und dessen Bandbreite für gpu und cpu zusammen soll angeblich 50Gbyte/s betragen,256MB Ram sind nicht gerade viel,dafür aber recht effizient bei der genannten Bandbreite,effizienter als die 6,4Gbyte zu 64MB Ram bei der Xbox1,möchte mal gerne wissen welcher Ramtyp
dort verwendet wird,DDR2/DDR3,GDDR3/GDDR4,XDRam oder 1T-Sram mosys??

Jesus
2005-03-10, 19:58:56
Mit 18000Mips und ein 1Tflops(cpu+gpu) bietet die Xbox2 eine Leistung
die ihres gleichen sucht,kaum zu glauben das Sony das noch toppen kann.
Das Bussystem und dessen Bandbreite für gpu und cpu zusammen soll angeblich 50Gbyte/s betragen,256MB Ram sind nicht gerade viel,dafür aber recht effizient bei der genannten Bandbreite,effizienter als die 6,4Gbyte zu 64MB Ram bei der Xbox1,möchte mal gerne wissen welcher Ramtyp
dort verwendet wird,DDR2/DDR3,GDDR3/GDDR4,XDRam oder 1T-Sram mosys??

eh bin ich blind, oder wo stehen diese Werte auf der Seite ? :confused:

ShadowXX
2005-03-10, 20:01:14
Mit 18000Mips und ein 1Tflops(cpu+gpu) bietet die Xbox2 eine Leistung
die ihres gleichen sucht,kaum zu glauben das Sony das noch toppen kann.
Das Bussystem und dessen Bandbreite für gpu und cpu zusammen soll angeblich 50Gbyte/s betragen,256MB Ram sind nicht gerade viel,dafür aber recht effizient bei der genannten Bandbreite,effizienter als die 6,4Gbyte zu 64MB Ram bei der Xbox1,möchte mal gerne wissen welcher Ramtyp
dort verwendet wird,DDR2/DDR3,GDDR3/GDDR4,XDRam oder 1T-Sram mosys??

Ok...die 18000Mips sind definitiv ein Peakwert, da die CPUs bestimmt nicht in allen Lebenslagen 2 Ops/Takt packen und dazu auch nicht immer alle 3 gleichzeitig.

Gehen wir mal als durchschnitt von der Hälfte bei guter Ausnutzung aus....wenn überhaupt.
(IMHO werdens höchstens 5000-7000Mips als durchschnittswert sein).

Den Terraflop schlucke ich allerdings noch nicht ganz....so gut wird der r500 nicht sein (nein, auch nicht, wenn man die Flops der CPU mit dazuzählt).
Der Terraflop wird ein extrem theoretischer Wert sein, die in der Praxis nie erreicht wird....

ShadowXX
2005-03-10, 20:02:08
eh bin ich blind, oder wo stehen diese Werte auf der Seite ? :confused:

Relativ weit oben...ich hab den Absatz doch sogar gepostet.

Coda
2005-03-10, 20:02:55
Leistung anhand Flops zu vergleichen ist purer Schwachsinn, das sollte inzwischen doch klar sein :rolleyes:

Beispiel: Ich bau nen Chip der genau 10 Millionen Addierer und nen Speicherinterface hat der immer das gleiche macht nämlich 2 Streams zu addieren. GFlops!!!!!!!!!111111111111111111 :rolleyes:

Jesus
2005-03-10, 20:07:08
Relativ weit oben...ich hab den Absatz doch sogar gepostet.


Ah, zänk ju! :redface:

ShadowXX
2005-03-10, 20:10:15
Leistung anhand Flops zu vergleichen ist purer Schwachsinn, das sollte inzwischen doch klar sein :rolleyes:

Beispiel: Ich bau nen Chip der genau 10 Millionen Addierer und nen Speicherinterface hat der immer das gleiche macht nämlich 2 Streams zu addieren. GFlops!!!!!!!!!111111111111111111 :rolleyes:

Das ist auch der Grund warum ich auf die theoretische Flops-Leistung der Cells nicht allzuviel gebe...

Speziell da IBM/SONY/etc. bei der GFlop-Leistung des Cell immer einen Spezialfall angeben bzw. irgendetwas doppelt zählen.