PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV2a in der XBOX deutlich Leitungsfähiger als eine GForce3!!


3D-profi
2001-11-02, 00:44:42
Nachdem ja immer wieder gesagt wird, dass die Xbox auf Grund ihrer architektonischen Nähe zum PC sehr leicht auf selbigem zu emulieren sei und der NV2a gar nicht viel leistungsfähiger sei als die Gf3, gibt es jetzt erste Aussagen über die tatsächliche Leistungsfähigkeit der Xbox im Vergleich zu einem PC.

Als Benchmark diente die DirectX-Demo "Dolphin". Diese recht einfache Demo liegt dem DX-SDK (Software Development Kit) bei und soll einige Techniken der Vertex Shader demonstrieren.
Diese erreicht auf einem PC mit einem 1 Ghz AMD-Prozessor, 256 MB RAM und einer Geforce 3-Karte unter Ausreizung der Optimierungsmöglichkeiten:

780 Bilder/sec bei einer Auflösung von 400*300.

http://msdn.microsoft.com/library/en-us/dndrive/html/directx05212001-fig3.gif


Auch auf dem Debug-Kit der Xbox ist diese Demo enthalten. Hier läuft dieselbe Demo mit

1250 Bildern/Sekunde bei einer erhöhten Auflösung von 640*480 ab.

http://xboxmedia.ign.com/media/hardware/image/xboxdebug/xboxdolphin2.jpg

(Bildqualität ist auf Grund Aufnahme via Videokamera und anschließendem Screengab vom Video schlechter[Aufzeichnung der Videokamera erfolgt interlaced, der anschließende Screengrab ist ebenso interlaced])

Die Vorteile gegenüber der GF3 bei der NV2a sind:
- 2 Vertex Shader (statt einem bei der GF3) mit erweitertem Potential ("For instance, in DirectX8 the maximal size of vertex shader is 128 instructions and 96 constants, in case of XBOX these values enlarged to 136 and 192 accordingly"). Dadurch wird die Polygonrate mehr als verdoppelt. GF3: 57 Mio Polygone/sec (Maximalleistung mit 1 Punktlicht und einer Textur) NV2a: 125 Mio Polygone/sec (Maximalleistung mit 1 Punktlicht und einer Textur)
- Taktrate von 233 MHz statt 200 MHz
- integriertes Speichercontroll-Interface
-durch die UMA Technik der XBOX ist kein kompletter datenaustausch
der einzelnen Chips vonöten da nur die position der daten im speicher verändert wird,dadurch höhere verarbeitungsgeschwindigkeit als
bei PC-motherboards mit flaschenhals namens AGP
-Durch die Hypertransport(AMD) technologie erhöht sich der datenaustausch der Chips untereinander um ein Vielfaches.

Vollstrecker
2001-11-02, 02:05:34
a

Razor
2001-11-02, 06:05:43
@3d-profi

Leider hinkt der von Dir gezeigt Vergleich ein wenig...

In der von Dir gezeigten Scene werden sehr wenig Polygobe verwendet. Auch ist darin nicht berücksichtigt, daß ein PC durchaus in der Lage wäre, mit Hilfe der CPU einen kompletten Vertex-Shader zu emulieren. Man stelle sich Dual-Athlon Systeme mit 2 x 1,533GHz vor, bei dem schon mal eine davon komplett für Vertex-Berechnungen reserviert wird. Und selbst die übrig gebliebene CPU könnte noch einen großen Teil dieser Berechnungen vornehmen... Allerdings hast Du recht, daß es dort noch Flaschenhäle gbit, die aber gerade jetzt gelöst werden. So hätte also jede CPU die volle Bandbreite des Speicherzugriffs zur Verfügung und auch können diese dann direkt miteinander kommunizieren.

Somit wäre es dann abhängig davon, wie stark eine System-Plattform ist, inwieweit die Vertex-Shader-Leistung eines PC's mit einer gf3 den NV2A einholen, oder sogar überbieten kann.

Dazu notwendig, ist ledigliche eine dahingehende Optimierung des Treibers der Grafikkarte, welche es ermöglicht, Vertex-Shader-berechnungen auszulagern.

-

Das, was nicht emuliert werden kann, ist der Pixel-Shader. Und so weit ich informiert bin, hat auch der NV2A lediglich einen davon, ist also kapazitiv nicht besser ausgestattet, als eine gf3.

Die Taktrate des NV2A wird schon heute von meiner übertakteten gf3 übertroffen - 245/270DDR(540), was natürlich auch für die gerade erschienene Ti500 gilt...

Auch muß der NV2A sich die Gesamtmenge von 64MB Speicher sogar noch mit der Spielelogik, der KI und den andern Dingen teilen, während eine gf3 diese Menge an RAM exklusiv zur Verfügung hat.

nForce Mainbaords gibt es ebenfalls schon heute, die eine sehr ähnlich (hypertransport) Architektur, wie die XBox aufweisen.

Lediglich die UMA-Architektur gibt es heute bei PC's noch nicht.

-

Für mich bleibt immer noch abzuwarten, ob es nicht doch technisch möglich ist, eine XBox zu emulieren. Auch wäre das ja nicht einmal ein Verlust von M$, denn die Spiele gibt es ja bekanntlich auf DVD's, die heute noch nicht so ohne weiteres kopiert werden können und so auch der Kopierschutz gewährleistet wäre...

Und da M$ 'eh nur an den Spielen verdienen wird, wäre es sogar logisch, das Abspielen via PC möglich zu machen.

Ich sach nur eines: Abwaren !
;-)

In diesem Sinne

Razor

P.S.: Das ganze ist jetzt sicher nicht fachlich korrekt ausgedrückt worde, aber ich denke, daß die meisten verstehen werde, was ich damit sagen wollte...

HOT
2001-11-02, 13:03:48
Ausserdem fehlt dem XBox Chip die Speicherbandbreite.....

Korak
2001-11-02, 13:56:09
Dass die X-Box 2 Vertex-Einheiten hat ist schon länger bekannt. Deswegen bin ich auf die ersten Spiele bzw. die dort verwendeten Models gespannt. Ich hoffe, dass man mit dieser Leistung endlich mal weg von diesen klobigen Models, die heute in PC-Spielen vorkommen, weg kommt.

Ach nur mal so als Nebenfrage: Hat der NV2a eigentlich eine aktive Kühlung?

Razor
2001-11-02, 14:12:46
@HOT

Stimmt, das habe ich sogar noch vergessen !
;-)

Der Speicher der XBox ist 200MHzDDR (400MHz), was im Vergleich einer heute erhältlichen (nicht übertakteten) Ti200 entspricht.

Man vergleiche somit also die kompletten XGPU-Daten mit denen meiner (schon seit einem halb Jahr in meiner Rechner befindlichen) übertakteten gf3-GPU:

NV2A = 233/200DDR(400)
NV20 = 245/270DDR(540)

@Korak

AFAIK gibt es nocht keine Bilder von den Innereien einer XBox, was sich aber mit erscheinen der XBox in nicht mal mehr einer Woche ändern dürfte...
;-)

In diesem Sinne

Razor

Leonidas
2001-11-02, 14:38:53
Das Problem lösst sich mit dem Nachfolger der GF3, dem NV25.

Kai
2001-11-02, 15:19:44
Ausserdem ist eine Auflösung von 400x300 ziemlich CPU auslagernd. Auf 640x480 könnte der GF3 auf dem PC sogar theoretisch mehr Leistung bringen als auf 400x300 ... hab ich selber schon mit Q3A erlebt, das unter 512x XXX weniger FPS rausschaufelt als über.

Kosh
2001-11-02, 15:27:08
NVIDIA kann eine grafikkarte für die X-Box mit 2 Vertex Shader bauen,aber keine für den PC???

Glaubt das einer??

Oder hat Microsoft nicht einfach viel Geld bezahlt,das NVIDIA einfach erst nach Veröffentlichung eine identische Grafikkarte auf den Markt bringen darf?
Das halte ich für sehr plausibel,wird ja bei games genauso gemacht von Microsoft.

Razor
2001-11-02, 15:56:03
@Kosh

Das ist sogar mit Sicherheit der Fall !

Aber man sollte jetzt nicht unbedingt vermuten, daß nVidia nun groß bestochen werden mußte, um sich den 2. Vertex-Shader zu schenken.

AFAIK unterstützt DX8(.1) sowieso nur einen Vertex-Shader, während diese Xware beide unterstützt !

So kann man sich denn auch die Transistoren sparen und somit, wie nVidia und ATI, eben nur einen Vertex-Shader bieten... (dessen Ausreizung in diesem und dem nächsten Jahr sowieso in Frage gestellt werden dürfte)

In diesem Sinne

Razor

P.S.: Daß es M$ natürlich nicht recht ist, wenn schon heute Hardware verfügbar wäre, die in Punkto Leistungsfähigkeit ihre neue Wunder-Box schlagen könnte, ist mehr, als nur verständlich...
;-)

Joe
2001-11-03, 00:46:32
Öhm dezente frage: Ich hab ma gehört das der Vertex Chader scohn 2/3 vom chip einnimmt und das die GF3 deshalb so teuer ist weil der soooo kompliziert ist
Wie kann NVIVIA dann einen Chip mit 2 Der selbigen bauen und die XBox wir dann von M$ für 299$ verschachert da is doch was faul da müsste NVIVIA ja draufzahlen

Xmas
2001-11-03, 01:03:26
Die Vertex Shader-Einheit ist deutlich kleiner. Und den Preis der XBox legt nur Microsoft fest. NVidia macht mit Sicherheit Gewinn.

Rein technisch sind mehrere Vertex Shader parallel möglich, ohne dass die API überhaupt davon weiß. DX muss also nicht mehrere VS unterstützen.

Der NV2a mag ja bei der Geometrie schnell sein, die Renderleistung ist aber geringer, da die Bandbreite fehlt. UMA spart auch nur den AGP-Traffic. Andererseits passt das natürlich genau zur Ausrichtung des Chips/der Konsole: Viel Geometrie, geringe Auflösung. Diesem Unterschied hat NVidia bei der Entwicklung Rechnung getragen.

Razor
2001-11-03, 07:17:09
@NixWisser

Die XBox wird weit unter Wert verkauft...

Erst bei den Spielen (dir ja zwingend dazu gekauft werden müssen) wird richtig Kohle gemacht !
Auch bei den AddOn's...
Wenn man Das Ding z.Bsp. als DVD-Player nutzen will kostets nochmal 50€ (~100DM)...
(und das lediglich für'n Soft-DVD-Player ;-)

Überleg doch mal:
PIII733 + nForceBoard (na ja fast ;-) + gf3 (mit 2xVertexS) + Controller = 299$ ?
(wär ja schon richtig günstig, gell ?)
;-)

Man sollte aber bedenkne, daß dann jedes Game mit 70$ zuschlägt...
(und das dann sehr oft ;-)

Und nicht nVidia zahlt drauf, sondern M$...
(haben ein richtig großes Budegt dafür bereit gestellt !)
;-)

@Xmas

Der VertexShader braucht IMHO so 17mio Transis, was auch der Grund sein dürfte, warum der NV2A halt 'nen paar mehr davon drauf hat...

Und nein, DX8 muß (!) die mehrfachen VS unterstützen...
(daß dies theoretisch net sein müsste, ist klar ;-)
Unter OpenGL sieht's dann wahrscheinlich 'eh anders aus, aber schließlich hat M$ D3D fest in der Hand, könnte man sagen...
;-)

Und die XBox ist halt nur 'nen kasrierter PC und mehr net.
Hier und da 'nen bissel auf Grafik optimiert und das war's schon !

In diesem Sinne

Razor

Pengo
2001-11-03, 07:22:54
"PIII733 + nForceBoard (na ja fast ;-) + gf3 (mit 2xVertexS) + Controller = 299$ ?"

Du hast noch die Festplatte vergessen, mit der Hardware wird MS kräftig Verlust machen, aber mit Spielen noch kräftiger abkassieren. Angeblich soll jede XBOX DVD 2 Layer haben (unabhängig von der Datenmenge), so daß man diese nicht so einfach kopieren können wird.

Razor
2001-11-03, 07:36:53
Jep, Pengo !
Die HD hab' ich tatsächlich einfach unter den Tisch fallen lassen...
(und schon isse putt !)
;-)

Und klar, werden sie ordenlich Kasse mit den Spielen machen.
Und weil DVD 2-layer, wäre 'ne EMU auf 'nem PC ebenfalls 'ne richtig lohnende Sache für M$...
(vor allem, weil sie sich dann bei den PC-Spielern den Verlust bei der Box schenken könnten...)

Schaun' wir mal, was da noch so kommt, gell ?
;-)

In diesem Sinne

Razor

Joe
2001-11-03, 12:55:56
DVD Brenner werden wohl bald in großen stückzahlen produziert und Clone CD in ner neuen version rausgebracht ;)

Unregistered
2001-11-03, 13:11:44
Eine Frage: Wäre es total daneben gedacht, wenn man vemutete, dass die GF3 vielleicht schon zwei Shader hätte, die jedoch aus Marketing-Gründen nirgends erwähnt werden und man somit für fast die identische Karte in Zukunft wieder um einiges mehr verlangen könnte. Man hätte sich auch zwei Entwicklungslinien etc. gespart.

Nur mal so ein Gedanke.


Gruss P.

Kai
2001-11-03, 13:30:45
Originally posted by Unregistered
Eine Frage: Wäre es total daneben gedacht, wenn man vemutete, dass die GF3 vielleicht schon zwei Shader hätte, die jedoch aus Marketing-Gründen nirgends erwähnt werden und man somit für fast die identische Karte in Zukunft wieder um einiges mehr verlangen könnte. Man hätte sich auch zwei Entwicklungslinien etc. gespart.

Nur mal so ein Gedanke.


Gruss P.

Also das glaub' ich jetzt mal nicht ... das wär sicher teures Marketing.

syronth
2001-11-03, 13:39:46
Wenn, dann ist es aber sicher hardwareseitig ausgeknippst, um 100% zu vermeiden, daß es jemand herrausfindet. Denkbar, daß in dem GF3-Silizium der zweite VS "verrottet". Die PC-Variante mittels eines minimalen Eingriffes zu kastrieren (z.B. ein Beinchen hat kein Kontakt zum Silizium), ist produktionstechnisch doch billiger, als zwei Chips parallel zu fertigen.

Pengo
2001-11-03, 13:59:49
Originally posted by NixWisser
DVD Brenner werden wohl bald in großen stückzahlen produziert und Clone CD in ner neuen version rausgebracht ;)

Das Problem ist daß diese nur einen Layer pro Seite brennen können.

Korak
2001-11-03, 14:21:31
Jo :(
NOCH! :D

Das wird sich bestimmt auch bald ändern.

ow
2001-11-03, 16:49:05
Originally posted by syronth
Wenn, dann ist es aber sicher hardwareseitig ausgeknippst, um 100% zu vermeiden, daß es jemand herrausfindet. Denkbar, daß in dem GF3-Silizium der zweite VS "verrottet". Die PC-Variante mittels eines minimalen Eingriffes zu kastrieren (z.B. ein Beinchen hat kein Kontakt zum Silizium), ist produktionstechnisch doch billiger, als zwei Chips parallel zu fertigen.


Nein, ist es sicher nicht. Silizium-Verschwendung geht richtig ins Geld, weil eben weniger Chips pro Wafer machbar sind.

Xmas
2001-11-03, 17:22:39
Originally posted by Razor
Und nein, DX8 muß (!) die mehrfachen VS unterstützen...
Und das zweifle ich sehr stark an. DX hat keine Kontrolle darüber, was der darunterliegende Treiber macht. Wenn man z.B. das entsprechende DDK hätte, könnte man einen Treiber schreiben, der in jedem Spiel hervorragende Frameraten hätte, indem er einfach ohne Texturen in 640x480 rendert. Wenn der Treiber DX vorgaukelt, es wäre nur ein VS da, obwohl zwei da sind, stört das DX nicht im geringsten.
Das gilt natürlich nur für den Parallelbetrieb. Ich weiß nicht ob es irgendeinen Sinn macht, VS zu verschachteln bzw. in Reihe zu schalten (erhöht prinzipiell nur die mögliche Länge der Programme), aber dafür bräuchte man dann wirklich explizite Unterstützung.

Razor
2001-11-03, 18:02:55
@Xmas

Ich habe mal irgendwo (irgrendwas ;-) gelesen, daß dem so sein sollte, i.e. die Vertex-Shader eben nicht parallel genutzt werden können/sollen und es u.a. deswegen eine speziell angepaßte Version von DX8(.1), nämlich die Xware geben muß, die eben beide Vertex-Shader unterstützen muß, weil's DX8 nicht kann...

Leider hab ich keinen Link dazu, sonst würde ich das nochmal präzisieren (oder besser entwirren ;-).

Ich kann mir z.Zt. auch keinen Grund vorstellen, warum die Vertex-Shader nicht parallel genutzt werden sollten, außer dem vielleicht, daß es irgend einen Sinn macht, wenn die Applikation darüber entscheidet, welcher Vertex-Shader für was benutzt wird...

Wie dem auch sei, auf jeden fall soll es diese Xware ermöglichen, beide Vertex-Shader sparat anzusprechen.
(das weiß ich noch ziemlich genau ;-)

In diesem Sinne

Razor

Kosh
2001-11-03, 18:58:52
Ich hoffe ja das die Kyro3 bald erscheint und zwar so wie geplant :D

Dann gehört die X-Box nämlich zum alten Eisen bevor sie in Europa noch erschienen ist :D (jaja,ich träume ein bissel :D)

3D-profi
2001-11-03, 21:13:37
Hardwarepower auf engsten Raum:

http://forums.teamxbox.com/attachment.php?s=&postid=379143

Andre
2001-11-04, 00:14:51
Originally posted by Kosh
Ich hoffe ja das die Kyro3 bald erscheint und zwar so wie geplant :D

Dann gehört die X-Box nämlich zum alten Eisen bevor sie in Europa noch erschienen ist :D (jaja,ich träume ein bissel :D)

Das glaub ich auch :D

Pengo
2001-11-04, 01:12:35
Originally posted by Andre


Das glaub ich auch :D

Sowas gehört ins Spekulationsforum, wie war das - Kyro 2 Ultra in Q3 2001 oder am Donnerstag? Es kann durchaus sein daß es sowas wie Kyro 3 gar nicht in Entwicklung gibt, es sind alles nur Gerüchte, inklusive der Roadmaps die aufgetaucht sind.

Andre
2001-11-04, 01:14:45
Ich hab doch nur nen Spaß gemacht :(

nggalai
2001-11-04, 10:39:28
Xmas, Razor,Das gilt natürlich nur für den Parallelbetrieb. Ich weiß nicht ob es irgendeinen Sinn macht, VS zu verschachteln bzw. in Reihe zu schalten (erhöht prinzipiell nur die mögliche Länge der Programme), aber dafür bräuchte man dann wirklich explizite Unterstützung.Das ist korrekt und im Übrigen wie's bei der X-box IIRC funktioniert: VS in Serie. Zum parallelen Betrieb ist zu sagen, dass DX8 nur einen Vertex-Stream pro gerendertes Frame zulässt (jedenfalls offiziell, warscheinlich kann man da hacken, wenn man's drauf ankommen lässt); paralleles Benutzen mehrerer Vertex-Shader einheiten wird also eher schwierig umzusetzen sein--der Treiber müsste den einen Vertex-Stream, den DX8 durchlässt, automatisch verteilen. Wie das bei der recht freien Programmierbarkeit der Vertex-Shader (und der daraus resultierenden Abhängigkeit der Ergebnis-Ketten) funktionieren soll ist die interessante Frage ... Wäre doch schon noch cool--die GF3 rechnet einen Teil der VS, und die CPU auch nochn wenig ... :D

ta,
.rb

Matrix316
2001-11-04, 11:49:57
Originally posted by 3D-profi
Hardwarepower auf engsten Raum:

http://forums.teamxbox.com/attachment.php?s=&postid=379143



Cool. Die X-Box ist nur ein so dicker Kasten wegen dem Lüfter=)

Warum können die nichtmal eine Konsole bauen die schön Flach ist. So wie normale Notebooks eben. (Am besten noch mit Bildschirm und Tastatur.;)

Unregistered
2001-11-04, 15:27:57
Originally posted by Pengo


Sowas gehört ins Spekulationsforum, wie war das - Kyro 2 Ultra in Q3 2001 oder am Donnerstag? Es kann durchaus sein daß es sowas wie Kyro 3 gar nicht in Entwicklung gibt, es sind alles nur Gerüchte, inklusive der Roadmaps die aufgetaucht sind.

Da fängt wohl schon einer zu zittern an :D

Pengo
2001-11-05, 00:35:48
Originally posted by Unregistered


Da fängt wohl schon einer zu zittern an :D

Wenn etwas deutlich schnelleres als meine Ti200 für 600DM kommt, was meinst du wie schnell meine Ti200 draußen ist? Nur, ich glaube eher an einen Bitboys Chip als an einen Kyro 3, obwohl dieser in Q1 2002 eher unwahrscheinlich ist.

Haarmann
2001-11-05, 09:20:13
3D Profi, Dein Beweis hat ne ziemlichen Haken - Es is wohl auch einem Idioten klar, dass ein Vertex Shader von NVidia langsamer is als 2 gleiche Vertex Shader von NVidia...
Vergleich doch mal mit ner Radeon2 oder nem Dual Athlon oder Xeon Board...
Ein PC is nicht gleich NVidia GF3... Das wollte ich doch mal loswerden.

Razor
2001-11-05, 09:46:41
@nggalai

XBox (Xware)= 2 Vertex-Shader in Serie ?
DiectX8 = 1 Vertex-Stream = parallele VS-Nutzung unmöglich ?

Hab' ich das jetzt richtig verstanden ?
Oder wäre es möglich, daß die Xware auch beide VS separat ansprechen kann ?
Und wenn dem so wäre, gäbe es doch die Möglichkeit, daß einer von der CPU emuliert würde, oder ?

Sorry, nggalai, viele Fragen...
;-)

Aber ev weißt Du ja doch rat !

In diesem Sinne

Razor

nggalai
2001-11-05, 10:54:06
Hi Razor,

> XBox (Xware)= 2 Vertex-Shader in Serie ?

Man KANN bei der X-Box die VS in Serie verschachteln, um "tiefer" zu rechnen. Ob dies AUSSCHLIESSLICH so ist, kann ich nicht beantworten, kann es mir allerdings nicht vorstellen--parallel würde bedeutend mehr bringen, was polygon-throughoutput anbelangt. Andererseits ist dann die Frage, wie multithreaded ein VS programmiert werden KANN, um noch Sinn zu machen.

> DirectX8 = 1 Vertex-Stream = parallele VS-Nutzung unmöglich ?

parallele oder distribuierte VS-Nutzung ist in DX8.0 nicht VORGESEHEN. Höchstwarscheinlich lässt sich das hacken, aber das separieren von mehreren Vertex-Streams wird recht viel Kopfschmerzen verursachen, was aber Programmierer nur selten abgeschreckt hat. Man kann in D3D auch in eine Ausgangstextur rendern, obwohl Microsoft das nicht vorgesehen hat. ;)

> Oder wäre es möglich, daß die Xware auch beide VS separat ansprechen kann ?

Ich wäre erstaunt, wenn dem nicht so wäre. Die Xware-DX Version ist doch recht anders aufgebaut als DX8, und DX9 soll mehrere Vertex-Streams sauber unterstützen (also nicht nur Distribution eines multithreaded Vertex-Programms auf mehrere VS-Rendereinheiten).

> Und wenn dem so wäre, gäbe es doch die Möglichkeit, daß einer von der CPU emuliert würde, oder ?

Wäre doch noch geil, oder? :D

> Sorry, nggalai, viele Fragen... ;-)

Kein Problem. :)

ta,
-Sascha.rb

Razor
2001-11-05, 11:05:43
Thank's nggalai !
(ich wußte, daß Du das weißt ;-)

Aber dann hast Du mir die Frage beantwortet, die mir im Kopf herum gegangen ist:

Wenn es machbar wäre, die Xware auf einem abgespeckten Win2k zum laufen zu bringen, bräuchte man nur noch einen 'angepaßten' Treiber für die gf3, um den einen Vertex-Stream über den VS der gf3 und den zwieten Vertex-Stream dann über die CPU berechnen zu lassen.

Das wäre in der Tat Cool und würde eine XBox-EMU (mit entsprechend potenter CPU) bei fast gleicher Leistung ermöglichen. Theoretisch wäre es sogar möglich beide Vertex-Streams über die CPU (oder gar 2 ;-) berechnen zu lassen, nur gäbe es dann bei nicht gf3-Pixel-Shadern eher Probleme, aber die Leistung eines PC-Systems könnte dann sogar höher als die der XBox liegen !

Wie dem auch sei, ich bin immer zuversichtlicher, daß einer XBox-EMU auf nForce mit gf3-Basis durchaus in den Bereich des Möglichen rückt. Vielleicht das sogar das Ziel von nVidia und M$ ist, um eine weitere Verbreitung der (orginalen) XBox-Games auf PC-Basis zu ermöglichen. Zumal 2-layer DVD's noch den zur Zeit besten Kopierschutz darstellen...

Würde mich nicht wundern, wenn es demnächst eine EMU von M$ selber geben würde, um genau das zu ermöglichen !
;-)

In diesem Sinne und nochmals vielen Dank !
(gut, daß es hier Leute wie Dich gibt, die sich richtig mit der Materie auskennen ;-)

Razor

P.S.: Noch eines ist mir aufgefallen: Wenn zukünftig (DX9) soagr mehrere VS unterstützt werden, könnte ein Treiber-Update von nVidia für die jetzigen gf3's dafür sorgen, daß hier dann genauso verfahren wird. Was die Zukunftsfähigkeit einer gf3 erheblich steigern könnte, wenn man entsprechend potente CPU's voraus setzt... Bin mal echt gespannt, was die Zukunft noch so bringt, gell ?
;-)

Unregistered
2001-11-05, 15:18:29
Originally posted by Pengo


Wenn etwas deutlich schnelleres als meine Ti200 für 600DM kommt, was meinst du wie schnell meine Ti200 draußen ist? Nur, ich glaube eher an einen Bitboys Chip als an einen Kyro 3, obwohl dieser in Q1 2002 eher unwahrscheinlich ist.

http://www.paraknowya.com/articles/reviews/ECTS2001/index3.shtml#kyrotech

Tomp60311

nggalai
2001-11-05, 18:59:02
@ Razor,

nochmals, gern geschehen. Aber ich will auch das Wiederholen, was ich (in diesem?) X-Box-Thread schonmal sagte: ich lasse mich sehr gerne von Konsolen-Kennern korrigieren--ich kenne X-ware nicht sonderlich gut.

ta,
.rb

Razor
2001-11-05, 19:02:19
Ich fürchte, nggalai, die 'Konsolen-Kenner' werden diese Xware noch viel weniger 'kennen'...
;-)

Und nochmals Danke !

Razor

3D-profi
2001-11-05, 19:44:26
Originally posted by Razor
Thank's nggalai !
(ich wußte, daß Du das weißt ;-)

Aber dann hast Du mir die Frage beantwortet, die mir im Kopf herum gegangen ist:

Wenn es machbar wäre, die Xware auf einem abgespeckten Win2k zum laufen zu bringen, bräuchte man nur noch einen 'angepaßten' Treiber für die gf3, um den einen Vertex-Stream über den VS der gf3 und den zwieten Vertex-Stream dann über die CPU berechnen zu lassen.

Das wäre in der Tat Cool und würde eine XBox-EMU (mit entsprechend potenter CPU) bei fast gleicher Leistung ermöglichen. Theoretisch wäre es sogar möglich beide Vertex-Streams über die CPU (oder gar 2 ;-) berechnen zu lassen, nur gäbe es dann bei nicht gf3-Pixel-Shadern eher Probleme, aber die Leistung eines PC-Systems könnte dann sogar höher als die der XBox liegen !

Wie dem auch sei, ich bin immer zuversichtlicher, daß einer XBox-EMU auf nForce mit gf3-Basis durchaus in den Bereich des Möglichen rückt. Vielleicht das sogar das Ziel von nVidia und M$ ist, um eine weitere Verbreitung der (orginalen) XBox-Games auf PC-Basis zu ermöglichen. Zumal 2-layer DVD's noch den zur Zeit besten Kopierschutz darstellen...

Würde mich nicht wundern, wenn es demnächst eine EMU von M$ selber geben würde, um genau das zu ermöglichen !
;-)

In diesem Sinne und nochmals vielen Dank !
(gut, daß es hier Leute wie Dich gibt, die sich richtig mit der Materie auskennen ;-)

Razor

P.S.: Noch eines ist mir aufgefallen: Wenn zukünftig (DX9) soagr mehrere VS unterstützt werden, könnte ein Treiber-Update von nVidia für die jetzigen gf3's dafür sorgen, daß hier dann genauso verfahren wird. Was die Zukunftsfähigkeit einer gf3 erheblich steigern könnte, wenn man entsprechend potente CPU's voraus setzt... Bin mal echt gespannt, was die Zukunft noch so bringt, gell ?
;-)

XBOX auf PC emulieren,MUAAAAAAAH!.
Selbst den die 3 jahre alte dreamcast läßt sich nicht auf Aktuellen high end PC's emulieren wie soll das bitte bei der XBOX funktionieren?
Speziell wird das dann unmöglich wenn später die Xbox Spiele nicht mehr über die DirectX schnittstelle laufen und teile der Grafikroutinen und Programdaten in Assemblercode geschrieben werden
wo hier die Chipregister direkt angesprochen werden.

Und die Intel CPU'S sind einfach zu langsam für die Grafikberechnung ,da sie dafür nie ausgelegt wurden.MUAHHH und da
wollt ihr den 2 Vertexshader der XBOx von einer Intel CPU emulieren.

Also wirklich das ist doch nicht ernst gemeint???!!???

Xmas
2001-11-05, 20:36:48
3D-profi, dein Nick ist wirklich nicht besonders passend...

nggalai, ok, das in Serie schalten versteh ich noch, weil man damit die Anzahl der Instruktionen erhöhen kann. Aber parallel zwei verschiedene Vertex Streams verarbeiten, warum? Die Rendereinheit kann eh immer nur ein Dreieck auf einmal verarbeiten. Andererseits ist es problemlos möglich, dass sich zwei Einheiten parallel mit demselben Vertex Stream beschäftigen, um die Geschwindigkeit zu verdoppeln. Die Ausführung dauert ja auch immer gleich lange, Branches gibts keine und Abhängigkeiten von anderen Eckpunkten auch nicht Jeder Eckpunkt wird unabhängig von den anderen verarbeitet.

3D-profi
2001-11-05, 20:43:23
Originally posted by Xmas
3D-profi, dein Nick ist wirklich nicht besonders passend...

nggalai, ok, das in Serie schalten versteh ich noch, weil man damit die Anzahl der Instruktionen erhöhen kann. Aber parallel zwei verschiedene Vertex Streams verarbeiten, warum? Die Rendereinheit kann eh immer nur ein Dreieck auf einmal verarbeiten. Andererseits ist es problemlos möglich, dass sich zwei Einheiten parallel mit demselben Vertex Stream beschäftigen, um die Geschwindigkeit zu verdoppeln. Die Ausführung dauert ja auch immer gleich lange, Branches gibts keine und Abhängigkeiten von anderen Eckpunkten auch nicht Jeder Eckpunkt wird unabhängig von den anderen verarbeitet.

@Xmas,bevor ihr euch gedanken macht die XBOX zu emulieren,sollten
ihr bitte mal den Blick für die realität nicht verlieren.

Razor
2001-11-05, 20:51:09
@3D-profi (?)

Du solltest Dich wirklich besser informieren...
Klar ist es möglich, den VS zu emulieren, oder wo siehst Du da das Problem ?
(schon mal 3DMark2001 unter 'DX8-Software' ausgeführt ;-)

Auch läuft auf der XBox 'ne abgespeckte Win2k-Version, die es IMHO gar nicht zuläßt, die Hardware direkt anzusprechen (schon mal was von dem HAL, i.e. Hardware-Abstraction-Layer gehört ?).

Ich würde einfach mal sagen, daß wir da abwarten sollten. IMHO wäre es für M$ durchaus interessant, den PC als zusätzliche Plattform für die XBox-Games zu nutzen...

Und nein, Du machst Deinem Nick wirklich keine Ehre...
;-)

In diesem Sinne

Razor

3D-profi
2001-11-05, 21:07:42
Originally posted by Razor
@3D-profi (?)

Du solltest Dich wirklich besser informieren...
Klar ist es möglich, den VS zu emulieren, oder wo siehst Du da das Problem ?
(schon mal 3DMark2001 unter 'DX8-Software' ausgeführt ;-)

Auch läuft auf der XBox 'ne abgespeckte Win2k-Version, die es IMHO gar nicht zuläßt, die Hardware direkt anzusprechen (schon mal was von dem HAL, i.e. Hardware-Abstraction-Layer gehört ?).

Ich würde einfach mal sagen, daß wir da abwarten sollten. IMHO wäre es für M$ durchaus interessant, den PC als zusätzliche Plattform für die XBox-Games zu nutzen...

Und nein, Du machst Deinem Nick wirklich keine Ehre...
;-)

In diesem Sinne

Razor

Sicher kann man die Xbox direkt programieren,das haben die Spieleentwickler ja schon bestätigt,es ist sicherlich sehr teuer ein solch komplexen chip wie den NV2a(rund 65Mio transistoren) in der XBOX mit Assemblercode anzusprechen,aber nur so kann die Kiste richtig ausnutzen.

Und warum mach ich meinem Nick keine Ehre? weil ich euch schön vorgeführt habe ,das meine Argumente nicht zu widerlegen sind,
denn was nützt die teuerste PC hardware die nie ausgenutzt wird gegen einer Konsole,wo hier die spiele schön an die hardware optimiert und angepasst wird und zudem dadurch auch die spielqualität insgesamt
dadurch besser ist. Denn mal ehrlich,die damals als grafisch und spielerisch herausragenden angekündigten Pc-spiele wie Aquanox oder
Max Payne waren ja nun echt keine revolution.

Und grafikeffekte wie Bumpmapping sieht man heute öfters auf dem
Dreamcast als auf dem PC wo hier die Spieleentwickler den Leuten damals den Mund wässrig gemacht haben,aber man heute vergebens auf diese angekündigten features wartet und weiter mit den Worten vertröstet wird wie:"..aber auf der näcchsten grafikartengeneration
werden PC-spieler eine unglaubliche Grafik zugesicht bekommen",ZITat
vom Entwickklungschef von 3DFX-TEchnology

aths
2001-11-05, 21:16:57
"Und nein, Du machst Deinem Nick wirklich keine Ehre..."

Du hingegen schon.

3d-profi: Dreamcast verwendet deutlich andere HW als ein PC. Da die Xbox letztlich nur ein PC ist, ist sie damit auch deutlich leichter zu "emulieren" - da vieles gar nicht emuliert werden braucht, sondern direkt laufen kann.

3D-profi
2001-11-05, 22:11:54
Originally posted by aths
"Und nein, Du machst Deinem Nick wirklich keine Ehre..."

Du hingegen schon.

3d-profi: Dreamcast verwendet deutlich andere HW als ein PC. Da die Xbox letztlich nur ein PC ist, ist sie damit auch deutlich leichter zu "emulieren" - da vieles gar nicht emuliert werden braucht, sondern direkt laufen kann.

Ich weiß das der Dc keine richtige beleuchtungseinheit hat,hier haben die spiele meist nur eine echte lichtquellle die von der Hitachi CPU berechnet wird und alle anderen sind irgendwelche Fakes,da sind die GF Karten am Pc in diesem punkt leistungfähiger,nicht aber was reale polygonzahlen betrifft in der realen spielepraxis,irgendwelche PC-demos oder 3Dmarks gelten nicht.

Die XBOX ist defakto kein Pc,sie hat kein bremsenden AGP bus,
ZITAT von Toni T.,Nvidia:".you cannot render 125 MIO Polygons /s over the AGP Bus",die PIII CPU hat eine an die XBOX angepasste SSE einheit,durch die UMA architektur die aktuelle PC-Boards einfach
nicht haben ist der Datentranfer effektiver und schneller als beim klassichen PC zwischen CPU,Hauptspeicher, AGP Bus und Grafikkarte.
Die PIII CPU kommuniziert mit einem Direktbus mit NV2a Grafikchip.
Bei der UMA technik ist kein kompletter datenaustausch zwischen den komponeten nötig,da nur die Position der Daten im speicher vertauscht bzw. verändert wird.

Durch die Hypertransport technologie(von AMD) die der memorycontroller des NV2a Grafikchips inne hat,wird die Kommunikation zwischen MPX-Processor ,NV2a und CPU ,Ram um ein vielfaches beschleunigt.

Durch optimierung an das System und übergehung der DirektX Schnittstelle,erziehlen die Spieleentwickler hiermit eine höherer leistung als beim Programieren am PC,dadurch werden die XBOX spiele
einen ganz eigenen Charakter haben und sich deutlich von dem typisch sterilen PC-Look abheben.

Boris Schneider Johne,MS Deutschland"..spiele die speziell für die XBOX entwickelt werden ,lassen sich nicht 1:1 und ohne kompromisse
auf einem PC mit GF3 umsetzen" weiter"..es wird 2 bis 3 jahre dauern
bis ein Standard PC die Leistung der XBOX erreicht" und".die ersten Spiele werden noch über directX laufen,später aber können die Entwickler diese aber umgehen und die Konsole direktprogramieren".
Zitate aus diversen PC-Mags.

ow
2001-11-05, 22:34:50
Aha,

der 3D-Profi (?eher nicht?) erklärt uns bitte jetzt mal, wie hoch die FSB-Bandbreite einer P3 CPU ist und wie hoch die AGP4x Bandbreite ist.

Und wo da was bremsen soll.

3D-profi
2001-11-05, 22:38:57
Originally posted by ow
Aha,

der 3D-Profi (?eher nicht?) erklärt uns bitte jetzt mal, wie hoch die FSB-Bandbreite einer P3 CPU ist und wie hoch die AGP4x Bandbreite ist.

Und wo da was bremsen soll.

Warum haben SGI workstations UMA architektur und nicht die vom PC,wenn
diese nach euer meinung gleichwertig oder gar besser sein sollen?

Also UMA ist schon recht gut.

Razor
2001-11-05, 23:03:12
UMA ist nicht ganz neu...

Schau Dir doch mal diese Specs des nForce-Mobo's an:
Computex: NVidia steigt ins Chipsatz-Geschäft ein (http://www.heise.de/newsticker/data/odi-04.06.01-000/)
(die wird's noch diesen Monat im Handel geben ;-)

-North- und Southbridge sind ebenfalls über AMD's HyperTransport-Interface verbunden (max 800MB/s)
-Der Direkt-Bus zwischen CPU und Speicher, bzw. GPU und Speicher wird bei nVidia 'TwinBank' genannt (Dual-Memory Controller).
-UMA heißt nicht anderes als 'unified memory architecture' und meint, daß CPU und GPU auf den selben Speicher zugreifen (aber nicht auf gleiche Breiche)

Die Identitäten von nForce und XBox sind wirklich frapant...
(einfach mal anschaun' ;-)

In diesem Sinne

Razor

nggalai
2001-11-05, 23:12:23
Hi Xmas,
nggalai, ok, das in Serie schalten versteh ich noch, weil man damit die Anzahl der Instruktionen erhöhen kann. Aber parallel zwei verschiedene Vertex Streams verarbeiten, warum? Die Rendereinheit kann eh immer nur ein Dreieck auf einmal verarbeiten. Andererseits ist es problemlos möglich, dass sich zwei Einheiten parallel mit demselben Vertex Stream beschäftigen, um die Geschwindigkeit zu verdoppeln. Die Ausführung dauert ja auch immer gleich lange, Branches gibts keine und Abhängigkeiten von anderen Eckpunkten auch nicht Jeder Eckpunkt wird unabhängig von den anderen verarbeitet.Deine Ausführungen sind vollkommen korrekt. Ich habe mich leider nicht sehr klar ausgedrückt--meine Original-Post ging auf Razor's Vertex Stream / parallel Frage ein. Leider hab' ich dabei parallele Vertex-Streams und "paralleles Rendern" mit X-Box-VS zu nahe und unklar nebeneinander erwähnt. Sorry, falls das von einigen hier falsch verstanden wurde.

Allerdings muss ich sagen, dass ich mir das automatische Distribuieren eines Vertex-Streams auf mehrere Render-Einheiten als nicht gerade einfach vorstelle. Schlussendlich läuft das immer durch ein (1) Vertex Programm aufs mal, und in wiefern man da Threads verteilen kann ...

Hmm. Du kennst dich doch mit OpenGL aus--hast Du dich mal mit den NVIDIA-VS-Extentions beschäftigt? Kannst Du uns was dazu sagen, besonders wegen der Multi-threadbarkeit (uiuiui, ein Wort schon fast auf Computer Bild Niveau ;) )?

ta,
.rb

3D-profi
2001-11-05, 23:20:58
Originally posted by Razor
UMA ist nicht ganz neu...

Schau Dir doch mal diese Specs des nForce-Mobo's an:
Computex: NVidia steigt ins Chipsatz-Geschäft ein (http://www.heise.de/newsticker/data/odi-04.06.01-000/)
(die wird's noch diesen Monat im Handel geben ;-)

-North- und Southbridge sind ebenfalls über AMD's HyperTransport-Interface verbunden (max 800MB/s)
-Der Direkt-Bus zwischen CPU und Speicher, bzw. GPU und Speicher wird bei nVidia 'TwinBank' genannt (Dual-Memory Controller).
-UMA heißt nicht anderes als 'unified memory architecture' und meint, daß CPU und GPU auf den selben Speicher zugreifen (aber nicht auf gleiche Breiche)

Die Identitäten von nForce und XBox sind wirklich frapant...
(einfach mal anschaun' ;-)

In diesem Sinne

Razor
Äähm, entschuldige, wenn ich dir widerspreche, aber der UMA ist definitinv kein Flasschenhals. 6,4 GB/s Datentransfer-Rate mit Twinbank-Memory-Technologie (erlaubt parallele Zugriffe) ist definitiv unheimlich viel.

Man darf die früheren Erfahrungen mit UMA an PCs ( mit max 0,8 Gb/sec Bandbreite) nicht auf die UMA-Technologie der Xbox übertragen.
UMA (Unified Memory Architecture) und Integration der Speicherverwaltungslogik in den Grafikchip bringt deutliche Vorteile . So muss z.B. die CPU nicht mehr die komplette Vertexdatenliste in den Grafikspeicher schreiben, sondern stellt diese Daten in den UMA-Speicher und sagt dem Grafikchip, dass neue Daten für ihn an einer bestimmten Speicherposition für ihn bereit stehen.

Ceiser Söze
2001-11-05, 23:40:53
6,4Gbyte/sec (von denen etwa 1 Gbyte für die CPU draufgehen und daher effektiv 5,4Gbyte/sec für den Grafikchip übrigbleiben) ist wenig - sogar eine mittlerweile sehr günstige GeForce2 Pro hat mehr Bandbreite (6,4Gbyte/sec allein für den Grafikchip), sogar ein KyroII hat bei einem Overdraw von 3 mehr effektive Bandbreite usw.
Was ich bei der XBox zudem vermisse, ist ein Onboard-Frame/ZBuffer à la Gamecube (der Gamecube hat sowieso das "sauberste" und "ausgewogenste" Hardwaredesign von allen Konsolen - wobei die PS2 bei diesen Kriterien wohl am schlechtesten abschneiden würde *eg*)...

3D-profi
2001-11-06, 00:00:09
Originally posted by Ceiser Söze
6,4Gbyte/sec (von denen etwa 1 Gbyte für die CPU draufgehen und daher effektiv 5,4Gbyte/sec für den Grafikchip übrigbleiben) ist wenig - sogar eine mittlerweile sehr günstige GeForce2 Pro hat mehr Bandbreite (6,4Gbyte/sec allein für den Grafikchip), sogar ein KyroII hat bei einem Overdraw von 3 mehr effektive Bandbreite usw.
Was ich bei der XBox zudem vermisse, ist ein Onboard-Frame/ZBuffer à la Gamecube (der Gamecube hat sowieso das "sauberste" und "ausgewogenste" Hardwaredesign von allen Konsolen - wobei die PS2 bei diesen Kriterien wohl am schlechtesten abschneiden würde *eg*)...
Das stimmt nicht,die spieleentwickler können selber festlegen bzw. den memorycontroller des NV2a so programieren wie viel daten/s durch den Bus läuft. D.h. nur weil der BUs des PIII bis zu 1 Gbyte/s hat , heist das nicht das das spiel diese unbedingt nutz. Wenn die entwickler nur z.B 400MB/s für die PIII ansetzen wird auch nicht mehr beansprucht und nicht generell 1Gbyte/s. Das macht den Unterschied
zu den herkömmlichen PC-motherboards aus.

Razor
2001-11-06, 00:15:25
Wenn die CPU mehr bräuchte, bekommt sie das nicht ?
(oh mann-o-mann...)
???

Razor

3D-profi
2001-11-06, 01:20:10
Originally posted by Razor
Wenn die CPU mehr bräuchte, bekommt sie das nicht ?
(oh mann-o-mann...)
???

Razor

hier der alte post vom forum,T&l das nicht eingelöste versprechen,
die problematik die dort angesprochen wird, wird die XBOx bestimmt nicht haben:

http://www.3dcenter.de/artikel/t_und_l/

Pengo
2001-11-06, 04:27:11
Originally posted by aths
"Und nein, Du machst Deinem Nick wirklich keine Ehre..."

Du hingegen schon.

3d-profi: Dreamcast verwendet deutlich andere HW als ein PC. Da die Xbox letztlich nur ein PC ist, ist sie damit auch deutlich leichter zu "emulieren" - da vieles gar nicht emuliert werden braucht, sondern direkt laufen kann.

Ich rechne trotzdem mit 2 Jahren bis ein vernünftiger Emulator kommt, und dieser wird dann wohl NV25+ und eine CPU mit SSE Voraussetzen. Wie man das AGP Problem lösen könnte weiß nicht leider nicht.

Xmas
2001-11-06, 04:50:10
AGP-Problem? Welches AGP-Problem? 3D-profi hat zwar schon mehrfach davon gesprochen, aber bisher hat er noch nicht plausibel erklären können, was er denn damit jetzt eigentlich meint...

Pengo
2001-11-06, 10:19:03
Originally posted by Xmas
AGP-Problem? Welches AGP-Problem? 3D-profi hat zwar schon mehrfach davon gesprochen, aber bisher hat er noch nicht plausibel erklären können, was er denn damit jetzt eigentlich meint...

Ich kann mir nicht vorstellen das AGP mit der Anzahl der Vertices die einige XBOX Spiele verwenden werden zurecht kommt.

Haarmann
2001-11-06, 10:34:30
Also ich rechne mal so dumm wie ich bin ...
640*480 auf nem TV macht dann laut Adam Riese so ca 640*240*50/Sekunde Bildpunkte, die zu berechnen sind.
Unterm Strich also maximal 7.68 mio Punkte.
Mehr als 7.68 Dreiecke pro Sekunde wirds wohl auch kaum haben, resp wird man bestimmt nicht sehen ;-).
Ich denke mal, dass dies ein PC ziemlich locker schaft - nicht mit ner GF3 (die is sicher so langsam gebaut, dass die XBox besser dastehen kann), aber sicher mit ner Radeon2. Für diese paar Polys reicht dann auch der AGP und Texturen sind ja auch kein Problem, denn ne R2 hat ja gleichviel bis mehr Onboard Speicher denn ne XBox...

SGI is ja auch ne höchst profitable Firma und hat im Intel Segment mit ihren UMA Workstations für ziemlich viel Gelächter gesorgt...

Razor
2001-11-06, 10:34:33
Versteh ich nicht...

Wieviel Verticles sollen das sein, um die Übertragungskapazität eines AGP-Busses zu überlasten ?

AGP2x: 1GByte/s
AGP4x: 2GByte/s

Hmmm...

Razor

Razor
2001-11-06, 10:47:36
@Haarmann

Könntest Du das mal in Zahlen ausdrücken ?

Du sagst, daß 'ne gf3 keine knappe 8Mio Poly's schafft, aber 'nen R200 schon ?
Hmmm...

Links, specs ?

Also nach meinem 3DMark2001 Bench, bringt die gf3 zwischen 3mio und 16mio (1 - 8 Lights) Poly's zu stande. Auch hast Du mit 8mio Poly's einen theoretischen maximalwert angenommen...
Hmmm...

Bitte um Aufklärung !
;-)

Razor

nggalai
2001-11-06, 10:54:38
> Auch hast Du mit 8mio Poly's einen theoretischen maximalwert angenommen...

Das ist korrekt. Ich denke, wir sind noch weit vom single-pixel-Polygon in Spielen entfernt, auch wird das kaum nötig sein. Ein immernoch extremer theoretischer Wert wäre ein Drittel, i.e. 3 Pixel pro Polygon. Selbst das wird faktisch dank LOD-Systemen niemals erreicht werden.

ta,
.rb

Razor
2001-11-06, 11:08:03
Was dann auch ohne weiteres mit 'ne gf3 machbar wäre...

Thank's again nggalai !
;-)

Razor

Eviljoe
2001-11-06, 13:47:58
Wenn man sich das hier mal alles so durchliest, kann man eigentlich nur den Kopf schütteln. Ist das eigentlich nur mir piepegal, wieviel Shader und Vertexkrams die Xbox hat ?`Und das sie technisch gesehen nächstes Jahr zu Weihnachten mit Sicherheit schon wieder veraltet sein wird ?
Die Leute, die ein aufbauendes System wollen, sind doch grundlegend falsch bei Konsolen !
Die Leute, die sich Konsolen kaufen, haben meistens keinen Bock mehr, sich mit Treibern, Patches etc. rumzuärgern, sie wollen das Spiel einlegen und spielen...nichts weiter !!
Genau wie ich. Mich kotzt dieses Jetzt-schnell-das-Spiel-rausbringen-und-dann-gleich-Foren-durchsuchen-und-Patch-Nummer-1.001a Beta-raushauen dermassen an, ich kann das gar nicht mehr in Worte fassen.
Ich kriege meine Xbox in wenigen Tagen und ich freue mich sehr auf:
Halo
Oddworld
Dead or Alive 3
Dolby Digital 5.1 Surround Sound
Schlechtes Wetter draussen (bei schönem Wetter geh ich nämlich raus!)

und nicht auf:
UMA-Architektur
2 Vertex Shader
etc.

Gespannt bin ich auch auf LAN via Xbox, das würde mich sehr freuen, wenn ich nur noch die Xbox mitbringen müsste, anstatt meinem BigTower.

Also, wer die Xbox nicht mag, der kauft sich auch keine.
Wer PCs mag (ich auch!), der kauft sich auch weiterhin einen PC.

BTW, ich hatte hier gelesen, dass Xbox-Spiele für 70$ über den Tisch gehen sollen, ich bestelle mir meine für ca. 55 EUR in Canada.
Mit Versand und ohne Zoll versteht sich.

Razor
2001-11-06, 13:52:37
Eviljoe, Du hast Dir 'ne US-XBox geholt ?

Cool, dann werden wir ja bald nicht mehr irgendwelche Halbwahrheiten hören, sondern echte Erfahrungsbrichte...
Find' ich klasse, dann laß mal davon hören !
;-)

Und much fun with it !

Razor

Xmas
2001-11-07, 04:17:05
Originally posted by Razor
Versteh ich nicht...
AGP2x: 1GByte/s
AGP4x: 2GByte/s

Razor, ich werd langsam richtig besoffen...:D
AGP 2x: 533 MB/s (508 MiB/s)
AGP 4x: 1066 MB/s (1016 MiB/s)
:bier:

Razor
2001-11-07, 04:32:37
Originally posted by Xmas

Razor, ich werd langsam richtig besoffen...:D
AGP 2x: 533 MB/s (508 MiB/s)
AGP 4x: 1066 MB/s (1016 MiB/s)
:bier:
Und i est, Xmas... :rofl:

Schau Dir mal den achten von oben (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=6062) an...
(knapp vorbei is auch daneben ;-)
*rülps* Sorry !
;-)

Also noch eines
:bier:

Razor

Pengo
2001-11-07, 07:07:53
Originally posted by Xmas

Razor, ich werd langsam richtig besoffen...:D
AGP 2x: 533 MB/s (508 MiB/s)
AGP 4x: 1066 MB/s (1016 MiB/s)
:bier:

Sind es nicht 528/1056?

nggalai
2001-11-07, 09:28:50
Hmm, ein Relic-Mitarbeiter hat da was Interessantes zum Thema paralleles Verwenden von CPU & DX8-GPU geschrieben, was u.U. auch für unsere obige Diskussion über paralleles Benutzen von 2 VS-Einheiten unter DX8 gelten könnte:

"I've use a critical section around Dx8 to manage multiple thread access. [...] But it was MUCH faster than enabling the MULTITHREAD flag."

(Sorry, ich sollte nicht voll quoten.)

Im Laufe der Diskussion wurde erwähnt, dass D3D einen flag besitzt (D3DCREATE_MULTITHREADED), der eigentlich genau dafür gedacht ist--Programme für D3D (auch Vertex Shader Programme) durch die API multithreaded abzufahren (i.e. D3D geht in den "multithreaded-Mode" für einen bestimmten Teil einer Applikation). Wie aber nicht anders zu erwarten, scheint programmieren "von Hand" einiges effizienter zu sein.

Dies wird wohl im Besonderen für mehrere Vertex-Shader-Einheiten gelten--jeder VS hat seine eigenen Vertex- und instruction-Caches, was bei automatischer Distribution entweder zu massivem Verwaltungsaufwand oder jedoch zu Cache Misses am laufenden Band führen würde.

Xmas hat also Recht--die API ermöglicht es auf Verlangen einem Treiber, sich selbst und transparent um die Hardware-Resourcen zu kümmern. Allerdings scheint dieses automatische Verwalten offenbar nicht gerade sehr Performance-steigernd zu wirken.

Hmm. Wenn jetzt noch die Treiber darauf optimiert würden, und mehr D3D8-Applikationen multithreaded gebaut werden würden, könnte einem parallelen Verwenden von GF/R8500 VS und CPU echt nur noch wenig im Wege stehen. Aber das ist jetzt doch nur krasse Spekulation. :D

Kommentare und Korrekturen willkommen.

ta,
-Sascha.rb

aths
2001-11-07, 11:18:47
Wer die T&L-Kolumne gelesen hat, sollte die Bandbreite von 4x AGP kennen (scr)

nggalai: Sehe ich das richtig? Nach dem T&L-Boom willst du Geometrie-Leistung wieder auf die CPU zurück verlagern?? Oder habe ich da jetzt was falsch verstanden?

nggalai
2001-11-07, 11:24:49
aths,

Wenn Du die Diskussion in diesem Thread zwischen Razor, XMas und mir verfolgt hast, sollte sich deine Frage eigentlich schon beantwortet haben. :)

Kurz gesagt: nicht zurück auf die CPU, sondern verteilen. Utopisch, aber theoretisch scheinbar machbar.

Und dass ich nicht ein sonderlich grosser Befürworter von DX7-style TnL bin ist ja wohl auch hinlänglich bekannt. ;)

ta,
.rb

Kosh
2001-11-07, 14:39:43
Originally posted by 3D-profi


Boris Schneider Johne,MS Deutschland"..spiele die speziell für die XBOX entwickelt werden ,lassen sich nicht 1:1 und ohne kompromisse
auf einem PC mit GF3 umsetzen" weiter"..es wird 2 bis 3 jahre dauern
bis ein Standard PC die Leistung der XBOX erreicht" und".die ersten Spiele werden noch über directX laufen,später aber können die Entwickler diese aber umgehen und die Konsole direktprogramieren".
Zitate aus diversen PC-Mags.

Das muß er ja sagen.
Wie soll Microsoft viele Konsolen verkaufen wenn jeder HighEnd PC (den man schon für 2000 DM kaufen kann) dieselbe Leistung jetzt schon bringt?

Halo hat die Leute auf dem PC beeindruckt.Halo war für den PC geplant und würde ohne Microsoft auf dem PC mit gleicher Schönheit wahrscheinlich schon länsgt veröffentlich sein.

Razor
2001-11-07, 14:48:07
Originally posted by nggalai
Xmas hat also Recht--die API ermöglicht es auf Verlangen einem Treiber, sich selbst und transparent um die Hardware-Resourcen zu kümmern. Allerdings scheint dieses automatische Verwalten offenbar nicht gerade sehr Performance-steigernd zu wirken.

Hmm. Wenn jetzt noch die Treiber darauf optimiert würden, und mehr D3D8-Applikationen multithreaded gebaut werden würden, könnte einem parallelen Verwenden von GF/R8500 VS und CPU echt nur noch wenig im Wege stehen. Aber das ist jetzt doch nur krasse Spekulation. :D

Kommentare und Korrekturen willkommen.

ta,
-Sascha.rb
Genau das ist es, was mir vorschwebte...
Thank's nggalai !
:loveya:
;-)

Und wenn ich Dich richtig verstanden habe, dann müsste dies für XBox Games ohnehin schon gemacht werden, um überhaupt die 2 VS 'vernünftig' anzusprechen, bzw. effektiv zu nutzen. Dann nur noch ein passender Treiber für NV20/R200 und das war's (ganz vereinfacht ausgedrückt ;-) !

Cool !
Ich bin sehr zuversichtlich, daß wir so etwas demnächst sehen werden...
(DAS wäre doch mal 'nen Quantensprung in der Zukunftstauglichkeit von GraKa's -> Lastverteilung bei GPU/CPU !)

In diesem Sinne

Razor

Razor
2001-11-07, 14:56:39
Originally posted by Kosh

Das muß er ja sagen.
Wie soll Microsoft viele Konsolen verkaufen wenn jeder HighEnd PC (den man schon für 2000 DM kaufen kann) dieselbe Leistung jetzt schon bringt?
Warum sollte M$ Interesse daran haben, möglichst viele von den subentionierten Konsolen zu verkaufen ?

Es geht ihnen (wie auch ALLEN anderen Kobsolen-Herstellern) NUR um die Spiele.
Nur damit wird richtig Geld gemacht...

Und wenn es praktikable Möglichkeiten geben würde, diese Spiele auch auf einem PC zum laufen zu bringen, ohne dabei den Absatz zu gefährden, kann das nur im Interesse von M$ sein...

Ev ist das ja sogar der primäre Hintergrund, eine Konsole auf PC-Basis auf dem Markt zu bringen !
(= gewaltiger Absatzmarkt für Games)

Auch würde damit (wieder mal) die Hardware-Industrie unterstützt (was M$ ja schon immer gerne gemacht hat ;-), die sich dann über einen reißenden Absatz von High-End Hardware auf PC-Basis freuen dürfte...

In diesem Sinne

Razor

Quasar
2001-11-07, 17:16:24
Originally posted by Razor

(DAS wäre doch mal 'nen Quantensprung in der Zukunftstauglichkeit von GraKa's -> Lastverteilung bei GPU/CPU !)


Naja, für die einen mag es wie Zukunftsmusik klingen, für professionelle oGL Anwender ist es schon längst Realität....wenn die API von M$ das nicht auch irgendwann bieten kann, wird sie über kurz oder lang wohl hoffentlich wieder dahin verschwinden, wo sie hingehört.....

Razor
2001-11-07, 18:29:29
@Quasar

Was sicher nicht das Schlechteste wäre...
;-)

Aber wird wohl 'nen Traum bleiben.
Zumal man M$ ja zumindest bei der neuesten DX-Version Anerkennung zollen sollte...
Sie haben sich da echt Mühe gegeben, was ja selbst von den Entwicklern gelobt wurde !
(was vorher eher nicht der Fall war ;-)

M$ richtet sich nach dem Bedarf und ist ja auch sehr daran interessiert, neue Möglichkeiten mit einzubeziehen, um diese Schnittstelle zu dem absoluten Optimum zu machen (war sicher auch wirtschaftliche Hintergründe hat ;-). Das bindet die Kunden ja auch schließlich immer fester an ihr OS und alles andere damit verbundene. IMHO wird so etwas schnell kommen, wenn der Bedarf da ist. Und wenn man bedenkt, daß WinXP (im Vergleich zu den Vorgängern) weit weniger ein Mehr an CPU-Leistung benötigt, wird sich M$ wohl schon noch was einfallen lassen, damit die Leute fröhlich weiter Upgraden. Und Spiele, da wirst Du mir sicher recht geben, sind ein hervorragendes Mittel, um dies zu erreichen...

In diesem Sinne

Razor

Xmas
2001-11-07, 18:35:40
Ich komm im Moment irgendwie nicht ganz mit, was ihr mit "Multithreaded Rendering" meint... Einfach nur die Verteilung des Vertex Shaders auf CPU/GPU, oder wie?

Zwei unterschiedliche Vertex Streams gleichzeitig zu bearbeiten macht für mich irgendwie keinen Sinn. Die parallele Verarbeitung in zwei VS-Einheiten (in Hardware) ist aber völlig problemlos. Die erste schnappt sich die ungeraden Eckpunkte, die zweite die geraden. Beide arbeiten das gleiche Programm ab und sind somit auch gleichzeitig fertig. Effektiv eine Verdopplung der Arbeitsgeschwindigkeit, ohne den Takt verdoppeln zu müssen. Alles völlig transparent für die API möglich.

Razor
2001-11-07, 19:12:24
@Xmas

Die parallele Verarbeitung auf 2 (HW-)VS ist sicher das unproblematischte, aber wie nggalai ja schon zeigte, machen auch andere Ansätze durchaus Sinn, wenn die Software entsprechen ausgelegt ist (und nur dann). IMHO wäre sogar eine parallele Verarbeitung von einem HW-VS und einem SoftVS möglich (entsprechende CPU voraus gesetzt), wenn man es hinbekommt, dafür entsprechende Resourcen von der CPU zu reservieren. Insbesondere bei Mehr-CPU-Systemen könnte diese Art der 'Lastverteilung' zu erheblichen Performance-Gewinnen führen. Auch wäre es sogar möglich Hardware zu unterstützen, die überhaupt keinen HW-VS besitzt (2 SoftVS z.Bsp.).

Die Win9x-Reihe ist für so etwas natürlich völlig ungeeignet, weswegen M$ ja wohl auch auf Win2k gesetzt hat, weil dieses OS einfach besser zu skalieren ist...

In diesem Sinne

Razor

P.S.: Ist zwar noch 'graue' Theorie, aber IMHO durchaus realisierbar und ev arbeitet M$ sogar schon an so etwas...

Korak
2001-11-07, 19:27:36
Hmm :| ich bin mir jetzt nicht ganz sicher, aber konnte nicht die S2k gleichzeitig auf HW T&L udn SW T&L zurückgreifen. Hab da mal was gelesen.

Xmas
2001-11-07, 20:31:31
Konnte nicht die S2k überhaupt nicht auf Hardware T&L zugreifen? ;D;D

Ok, Razor, für die Verteilung zwischen CPU und GPU macht es vielleicht Sinn, allerdings ist es immer schwer vorauszuahnen, wieviel Zeit die CPU zur Verfügung haben wird. Um effektiv zu sein muss die Verteilung aber schon in gewissem Maße im Voraus feststehen. Wenn dann die CPU durch irgendwas "aufgehalten" wird, ist die Grafikkarte im Leerlauf. Dann könnte es sogar sein, dass die GPU alleine schneller wäre.

Razor
2001-11-07, 20:41:07
Nun ja, bei der XBox laufen doch die Games im Ring 0...

Man möge sich also eine ähnliche Konfiguration auf PC-Basis vorstellen (Dual-Boot für Winz-Win2k ;-). Dann könnte man die Auslastung der CPU (zu jeder Zeit) voraus 'ahnen'...

Auch sollte dadurch verhindert werden, daß die CPU durch irgend etwas 'aufgehalten' wird, was nicht vorher einkalkuliert wurde...

Könntest Du Dir eine solche Konstruktion vorstellen ?

IMHO wär's damit überhaupt kein Prob', aber schwierig wird's natürlich beim 'normalen' Betrieb, aber ev doch lösbar, wenn die Resourcen eines OS besser skalierbar wären, als es heute der Fall ist.
(obwohl Dual-CPU-Systeme da wohl weniger das Prob hätten ;-)

Razor

P.S.: S2k und HW T&L ? Konnte mir das Grinsen nicht verkneifen...
;-)

Xmas
2001-11-07, 20:56:19
Nun ja, Interrupts kann man auch nicht wirklich vorausahnen...vielleicht klappt die Arbeitsteilung ganz gut, aber das Zusammenführen scheint mir nicht so einfach zu sein.

Razor
2001-11-07, 21:32:44
Wäre es nicht lohnenswert, das trotzdem anzugehen ?
(wie's M$ mit der XBox ja uch gemacht hat ;-)

Razor

Xmas
2001-11-07, 22:10:04
Hm, wieso sollte die Xbox die Geometrielast auf CPU und GPU verteilen?
Die GPU hat doch noch genug reserven...

Razor
2001-11-07, 22:13:28
Sorry, da ist's daneben gegangen...
(rein geistige Fehltäuschung sozusagen ;-)
Isses schon wieder zu spät ? War wohl gestern zu lange...
;-)

Na denn, wieder 'nen froiliches
:bier:

Razor

P.S.: Und heute früher in die Falle, gell ?

Xmas
2001-11-07, 22:28:31
Na ja, ich bin gerade an meinem dritten...:D
:bier:

Razor
2001-11-07, 23:20:25
Das zweite Weizen is grad' wech...
Und ich bin's wohl auch gleich...
*gäääääähhhnnnnn*

Aber eins geht noch !
:bier:

Razor

Korak
2001-11-08, 17:31:55
Originally posted by Razor

P.S.: S2k und HW T&L ? Konnte mir das Grinsen nicht verkneifen...
;-)

Ich hätte das anders formulieren sollen.

Wenn bei der S2k HW T&L funktioniert hätte, hätte sie soweit ich weiß noch gleichzeitig auf die CPU zurückgreifen können. :D