PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X800 Pro doch erst am 5. Mai?


Gil-galad
2004-04-17, 14:28:12
Laut Inquirer soll der X800 Pro erst am 5. Mai auf der System Builder Summit vorgestellt werden. Am gleichen Tag sollen entsprechende Karten noch verschifft werden. Die X800 Pro Karten sollen mit 475 MHz Chip- und 900 MHz Speichertakt laufen.

The Inquirer (http://www.theinquirer.net/?article=15377)

LovesuckZ
2004-04-17, 14:29:27
"verschifft" -> Auslieferung an Großhandler?

Gast
2004-04-17, 14:47:13
900MHz Speicher? Dann sollte man bei der "Pro" wohl doch nur von 8 Pipes ausgehen, oder?

TheCounter
2004-04-17, 14:57:51
Original geschrieben von Gast
900MHz Speicher?

900MHz Effektiv, also 450 MHz real ;)

Gast
2004-04-17, 15:03:41
Original geschrieben von TheCounter
900MHz Effektiv, also 450 MHz real ;)

Natürlich. :eyes:
Was hast du denn gedacht, das ich gedacht habe? Wenn es reale 900MHz wären, dann hätten wir wohl alle nur ein bißchen müde gelächelt....

WEGA
2004-04-17, 15:05:16
Original geschrieben von Gast
900MHz Speicher? Dann sollte man bei der "Pro" wohl doch nur von 8 Pipes ausgehen, oder?
:crazy:

Gast
2004-04-17, 15:07:53
X800 PRO/R420 Pro


Chiptakt 474 MHz

Speichertakt 900 MHz :D

This card is meant to fight Geforce 6800 non Ultra - the one with 12 pipelines and should be in retail as soon as ATI launches it.

This means that you should be able to buy one on the 4th of May but let's wait and see if ATI can deliver on that day.


http://www.theinquirer.net/?article=15377


Everything is packed into 180 millions of transistors and the card has 12 pipelines as we suggested. The R420XT, Radeon X800XT will be higher clocked card with 16 pipelines which came as a huge surprise to us.


Faster Radeon X800XT will come just after E3, and soon after the 14th of May we are told. I cannot remember if I said this before, but the R420 is chip based on R300 marchitecture and you can clearly see this from its 96 bit precision support and lack of PS 3.0.


Die XT hat PS 3.0 wie geil

Demirug
2004-04-17, 15:10:37
Original geschrieben von Gast
Die XT hat PS 3.0 wie geil

Wo steht das?

Dort steht das der R420 keine PS 3.0 hat und für die X800XT wird auch ein R420 benutzt.

LovesuckZ
2004-04-17, 15:12:07
Original geschrieben von Demirug
Wo steht das?
Dort steht das der R420 keine PS 3.0 hat und für die X800XT wird auch ein R420 benutzt.

Dafür verfügt der Chip über VS3.0?

Desti
2004-04-17, 15:16:40
Original geschrieben von Gast
900MHz Speicher? Dann sollte man bei der "Pro" wohl doch nur von 8 Pipes ausgehen, oder?

Die X800 SE soll 8 Pipes haben, die Pro 12 und XT 16. :)

http://www.gzeasy.com/itnewsdetail.asp?nid=14961

TheCounter
2004-04-17, 15:17:07
Original geschrieben von Gast
Natürlich. :eyes:
Was hast du denn gedacht, das ich gedacht habe? Wenn es reale 900MHz wären, dann hätten wir wohl alle nur ein bißchen müde gelächelt....

Na weil du geschrieben hast:

Dann sollte man bei der "Pro" wohl doch nur von 8 Pipes ausgehen, oder?

Was aber doch eigentlich, wie soll ich sagen, unlogisch wäre, Nvidia hat ja auch 12 Pipes bei der nonultra, aber 550 MHz Speicher ;)

Wollte damit nur sagen das bei der Pro & XT genauso 12 bzw. 16 Pipes möglich sind :)

@Anderer Gast (oder der selbe? :D)

Soviel ich weis bedeutet "lack of PS3.0" soviel wie "fehlender Pixel Shader 3.0 Support".

LovesuckZ
2004-04-17, 15:18:02
Original geschrieben von TheCounter
Was aber doch eigentlich, wie soll ich sagen, unlogisch wäre, Nvidia hat ja auch 12 Pipes bei der nonultra, aber 550 MHz Speicher ;)


Nein, Nvidia hat nur 12 Pipes und 128MB bei der Non Ultra.

Demirug
2004-04-17, 15:19:25
Original geschrieben von LovesuckZ
Dafür verfügt der Chip über VS3.0?

Das ist noch eine grosse Unbekannte.

TheCounter
2004-04-17, 15:20:56
Original geschrieben von LovesuckZ
Nein, Nvidia hat nur 12 Pipes und 128MB bei der Non Ultra.

Ja das mit den 12 Pipes hab ich doch geschrieben (Das mit den 128 MB is mir auch klar), aber hieß es nicht auch das die Taktung gleich ist?

LovesuckZ
2004-04-17, 15:24:15
Original geschrieben von TheCounter
[...] aber hieß es nicht auch das die Taktung gleich ist?

Nein.

TheCounter
2004-04-17, 15:29:04
Original geschrieben von LovesuckZ
Nein.

Ah ich seh es gerade, also doch mein Fehler :)

Aber 900 MHz dürfte drinsein, mit DDRI Speicher. Najo bald wissen wir es :)

Gast
2004-04-17, 16:27:20
Original geschrieben von TheCounter
Ah ich seh es gerade, also doch mein Fehler :)

Aber 900 MHz dürfte drinsein, mit DDRI Speicher. Najo bald wissen wir es :)

Natürlich ist es "drin" - aber bei "nur" 12 Pipes sollte man lieber schnelleren Speicher nehmen, als wenn man 16 Pipes hat, die dann auf 12 Pipes ausgebremst werden. Wenn ich dann 12 Pipes mit ähnlich knapp bemessenem Speichertakt nehme, wie könnten die wohl ausgebremst werden?

Wenn wir nicht alle noch eine große Überraschung erleben, ist ATis technologischer Trumpf einzig und allein 6xMSAA. Und das braucht nunmal Bandbreite, Bandbreite und nochmal Bandbreite.

Da wäre IMO 450MHz RAM bei 475MHz Chiptakt und 12 Pipes (5700MPix/s) ein bissel zu knapp.

nVidia hat ja, "dank" den Hybrid-Modi in höheren AA-Stufen als 4x nur noch quasi die halbe Füllrate mit Bandbreite zu versorgen - da kann man sich's eher leisten, beim Speicher etwas zu knausern.

;Q

P.S.:
@ WEGA:
Toll artikuliert! :up:

Coda
2004-04-17, 16:35:52
VS 3.0 wäre geil. Damit hätte der Chip eigentlich alle Features die ich will

Branching im PS is wohl eh lahm...

Demirug
2004-04-17, 16:42:30
Original geschrieben von Coda
VS 3.0 wäre geil. Damit hätte der Chip eigentlich alle Features die ich will

Branching im PS is wohl eh lahm...

statische angeblich nicht und beim dynamische muss man mal abwarten. Ich denke mal solange man keine Pixel Schachbretter hat dürfte das ganz brauchbar laufen.

VS 3.0 sind ganz nett aber ohne Tesselationseinheit und Texturfilter für adaptives DM nicht zu gebrauchen. Und andere DM Spielereien würde ich mit nur FP24 im Pixelshader nicht unbedingt machen wollen.

LovesuckZ
2004-04-17, 16:47:57
Original geschrieben von Demirug
statische angeblich nicht und beim dynamische muss man mal abwarten.

Gibt es statisch erst im SM3.0?

VS 3.0 sind ganz nett aber ohne Tesselationseinheit und Texturfilter für adaptives DM nicht zu gebrauchen.

So wie ich das herauslese, verfügt der NV40 darüber nicht?!

Demirug
2004-04-17, 16:53:00
Original geschrieben von LovesuckZ
Gibt es statisch erst im SM3.0?

Bei den Vertexshadern ab 2.0 und bei den PS ab 2.X als Option.

Vertexshader (http://msdn.microsoft.com/library/en-us/directx9_c/directx/graphics/reference/assemblylanguageshaders/vertexshaders/vertexshaderdifferences.asp?frame=true)
Pixelshader (http://msdn.microsoft.com/library/en-us/directx9_c/directx/graphics/reference/assemblylanguageshaders/pixelshaders/pixelshaderdifferences.asp?frame=true)

So wie ich das herauslese, verfügt der NV40 darüber nicht?!

Ja, kann er beides nicht.

reunion
2004-04-17, 17:00:30
Original geschrieben von Demirug
Und andere DM Spielereien würde ich mit nur FP24 im Pixelshader nicht unbedingt machen wollen.

Ist das mit FP24 im PS schon fix?
(Du hast ja mal gesagt das man FP32 haben müsste für VS3.0)

BUG
2004-04-17, 17:05:40
VS ist doch schon immer FP32.

cu
BUG

Demirug
2004-04-17, 17:06:02
Original geschrieben von reunion
Ist das mit FP24 im PS schon fix?
(Du hast ja mal gesagt das man FP32 haben müsste für VS3.0)

Nicht zu 100%.

Vertexshader und auch schon HT&L arbeiten immer mit FP32. Es geht ja nur um die Pixelshader. Bei den Spielereien die ich meinte rendert man mit den Pixelshadern Daten in eine Textur welche dann von den Vertexshadern wieder ausgelesen wird.

Coda
2004-04-17, 19:11:41
Kann R300 eigentlich in nen Vertex Buffer rendern?

Demirug
2004-04-17, 19:20:27
Original geschrieben von Coda
Kann R300 eigentlich in nen Vertex Buffer rendern?

ATI hat damit nie geworben also wird es wohl auch nicht gehen.

Coda
2004-04-17, 19:25:21
Naja ich hab mal was über ne experimentelle "Uberbuffer" OpenGL Extension gelesen, die alle Hardwarebuffer generalisieren soll.

Ich denke schon das die Hardware es kann, ist ja nur ne andere Speicheraddresse im Prinzip.

Demirug
2004-04-17, 19:34:52
Original geschrieben von Coda
Naja ich hab mal was über ne experimentelle "Uberbuffer" OpenGL Extension gelesen, die alle Hardwarebuffer generalisieren soll.

Ich denke schon das die Hardware es kann, ist ja nur ne andere Speicheraddresse im Prinzip.

Bleibt aber noch die Frage in wie weit die Datenorganisation innerhalb der Buffer identisch ist. Zudem kommt ja noch das FP24 Problem zum tragen.

BodyLove
2004-04-18, 17:23:53
Original geschrieben von TheCounter
Ah ich seh es gerade, also doch mein Fehler :)

Aber 900 MHz dürfte drinsein, mit DDRI Speicher. Najo bald wissen wir es :)

Glaube eher nicht. Imho werden es wohl 400Mhz effektiv sein. Für höhergetaktete DDR1-Speicher müsste man mehr Geld investieren, was nicht dem Sinn des NonUltra / Non Pro verhalten entspricht. Sparen, koste es was es wolle heisst die Divise.;)

Gil-galad
2004-04-18, 18:03:20
Laut GzEasy soll GDDR-3 Speicher zum Einsatz kommen und nicht DDR-1. Und somit sind 450 MHz (effektiv) sicherlich einfach zu erreichen.

LovesuckZ
2004-04-18, 18:04:37
Original geschrieben von AiS|Gil-galad
Laut GzEasy soll GDDR-3 Speicher zum Einsatz kommen und nicht DDR-1. Und somit sind 450 MHz (effektiv) sicherlich einfach zu erreichen.

Auch mit mit normalen DDR Speicher sind 450MHz zu erreichen.

Gil-galad
2004-04-18, 18:30:36
Original geschrieben von LovesuckZ
Auch mit mit normalen DDR Speicher sind 450MHz zu erreichen.

Durchaus. Allerdings braucht GDDR-3 um einiges weniger Strom und somit produzieren die auch ein ganzes Stück weniger Wärme. Und das dürfte IMO der Punkt sein.

BodyLove
2004-04-18, 18:48:42
GDDR3? wirtschaftlich Sinnvoll? imho nein. Eher vielleicht für ein Refresh der 6800NU, aber nicht für die Startvariante.

WEGA
2004-04-18, 19:35:44
na was mit GDDRI kauf ich sicher nicht

Gil-galad
2004-04-18, 20:10:31
Original geschrieben von BodyLove
GDDR3? wirtschaftlich Sinnvoll?

Denke ich schon. Weniger Wärme = kleinerer und günstigerer Kühler

Und GDDR-3 Speicher sollte mit 450 MHz günstiger als GDDR-3 mit 600 MHz sein. Ich glaub nicht, dass der preisliche Unterschied zwischen DDR-1 und GDDR-3 so groß ist. Für mich spricht alles gegen den Einsatz von DDR-1.

LovesuckZ
2004-04-18, 20:12:38
Original geschrieben von AiS|Gil-galad
Und GDDR-3 Speicher sollte mit 450 MHz günstiger als GDDR-3 mit 600 MHz sein. Ich glaub nicht, dass der preisliche Unterschied zwischen DDR-1 und GDDR-3 so groß ist. Für mich spricht alles gegen den Einsatz von DDR-1.

Samsung führt GDDR-III Speicher erst ab 500MHz (2ns).
Wie sieht es bei Micron aus? Sollten sie ebenfalls erst bei 2ns anfangen, dann wird es wohl doch nur normaler Speicher sein. Denn jedes weitere MB Speicher ist bei den neuen next-Gen Karten willkommen...

Gil-galad
2004-04-18, 20:31:46
Das findet man bei Samsungs GDDR-1 Speicher:

"Maximum clock frequency up to 450MHz"

Bisher waren die RAMs aber immer höher ausgelegt bei High-End und Semi-High-End Karten. Von daher wären die GDDR-1 Speicher schon arg am Limit. Und ich glaube kaum, dass man so extrem ans Limit gehen wird. Von daher weiterhin: GDDR-3

BodyLove
2004-04-18, 20:33:44
Original geschrieben von AiS|Gil-galad
Denke ich schon. Weniger Wärme = kleinerer und günstigerer Kühler.

Ob es dann wirklich ein günstigerer Kühler eingebaut werden kann, bzw. ob der Gesamtpreis des NU mit GDDR3 unter dem mit der GDDR1 liegen wird, bezweifele ich stark. Zwar magst du mit deiner Aussage wohl Recht haben, aber selbst bei 350Mhz Chiptakt macht es anscheinend keinen Sinn, 500Mhz Speicher einzubauen. 350/450 klingt logischer. Und da der NV38 schon 475? Mhz benutzte, sehe ich hier auch keinerlei Probleme für NV.

Frage: Wie stark würde sich die Leistung eines 12Pipes Chips bei identischen Taktraten zu NV40 senken? Falls zu stark, bestünde die Möglichkeit, den Chiptakt sogar auf 450 - 500 Mhz zu erhöhen, um diesen hohen Leistungsunterschied zu kompensieren?

-error-
2004-04-18, 20:38:36
Wieviel wird die X800Pro kosten? Sind 300€ realistisch?

BodyLove
2004-04-18, 20:47:18
@PbA

imho hängt es sehr stark von der Leistung ab. Je nachdem wie nah der X800pro dem GF6800U ist, wird sich der Preis dahin orientieren. Sofern knapp langsamer, dann 450 - 500 Euro. Bei erheblich langsamer, 450 - 400 Euro. Günstiger als 400 Eu wird es auf jeden Fall nicht werden. 300 Eu sind völlig unrealistisch. Leider.:(

Gil-galad
2004-04-18, 21:00:59
Original geschrieben von BodyLove
@PbA

imho hängt es sehr stark von der Leistung ab. Je nachdem wie nah der X800pro dem GF6800U ist, wird sich der Preis dahin orientieren. Sofern knapp langsamer, dann 450 - 500 Euro. Bei erheblich langsamer, 450 - 400 Euro. Günstiger als 400 Eu wird es auf jeden Fall nicht werden. 300 Eu sind völlig unrealistisch. Leider.:(

Also die X800 Pro ist die Konkurrenz zur Geforce 6800. Beide haben 12 Pipes und sind sicherlich auch ähnlich getaktet (Differenz sollte nicht so groß sein). Von daher wird sich der Preis der X800 Pro wohl auch an der 6800 orientieren.

LovesuckZ
2004-04-18, 21:17:11
Original geschrieben von AiS|Gil-galad
Also die X800 Pro ist die Konkurrenz zur Geforce 6800. Beide haben 12 Pipes und sind sicherlich auch ähnlich getaktet (Differenz sollte nicht so groß sein). Von daher wird sich der Preis der X800 Pro wohl auch an der 6800 orientieren.

Nein, der X800 Pro ist nicht der Konkurent zur 6800nU. Diese wird für 299$ angeboten, die ATi karte für 399$.
Ausserdem kommt die 6800nU mit einen maximalen takt von 400Mhz und hat nur normalen DDR Speicher (wahrscheinlich irgendwas von 400-450) und in der Grundausstattung nur 128MB Ram.

kiss
2004-04-18, 21:19:52
Wenn die 6800nu wenigstens DDR3 hätte + 256Mb würde ich sie für ca 350 wahrscheinlich sofort kaufen!

Leider 128MB + DDR1 (Grundausstattung)

WEGA
2004-04-18, 21:23:16
die non-u wird eher sowas wie ne mainstream-karte. x800pro wird ganz sicher noch zu ultra-high-end zählen

Quasar
2004-04-18, 21:32:31
Original geschrieben von WEGA
die non-u wird eher sowas wie ne mainstream-karte. x800pro wird ganz sicher noch zu ultra-high-end zählen

Meinst du nicht, daß du einen Fehler begehst, wenn du die Situation R300 - nV30 verallgemeinerst?

DX9 steht jetzt fest und nV konnte sich daran orientieren.

WEGA
2004-04-18, 21:36:00
Original geschrieben von Quasar
Meinst du nicht, daß du einen Fehler begehst, wenn du die Situation R300 - nV30 verallgemeinerst?

DX9 steht jetzt fest und nV konnte sich daran orientieren.

versteh nicht, was du meinst

Gil-galad
2004-04-18, 21:36:12
Original geschrieben von LovesuckZ
Nein, der X800 Pro ist nicht der Konkurent zur 6800nU. Diese wird für 299$ angeboten, die ATi karte für 399$.
Ausserdem kommt die 6800nU mit einen maximalen takt von 400Mhz und hat nur normalen DDR Speicher (wahrscheinlich irgendwas von 400-450) und in der Grundausstattung nur 128MB Ram.

Doch ist er. Beide haben 12 Pipes. Die Taktraten der non-Ultra stehen auch noch nicht fest. NVidia wird sich da wohl am X800 Pro orientieren. Und zum Preis: Den Preis kann ATi immer noch ändern. Der ist genau so fest wie die Taktraten der non-Ultra ;)

WEGA
2004-04-18, 21:41:39
Original geschrieben von AiS|Gil-galad
Doch ist er. Beide haben 12 Pipes. Die Taktraten der non-Ultra stehen auch noch nicht fest. NVidia wird sich da wohl am X800 Pro orientieren. Und zum Preis: Den Preis kann ATi immer noch ändern. Der ist genau so fest wie die Taktraten der non-Ultra ;)

die non ultra hat aber nur 128mb ddr1 O_o

Gil-galad
2004-04-18, 21:47:46
Original geschrieben von WEGA
die non ultra hat aber nur 128mb ddr1 O_o

Vielleicht packt NVidia ja nochmal 128 MB dazu ;)

aths
2004-04-18, 21:48:51
Original geschrieben von Quasar
Meinst du nicht, daß du einen Fehler begehst, wenn du die Situation R300 - nV30 verallgemeinerst?

DX9 steht jetzt fest und nV konnte sich daran orientieren. SM 3.0 orientierte sich wohl eher an dem, was der NV40 kann :)

BodyLove
2004-04-18, 22:09:18
Original geschrieben von AiS|Gil-galad
Doch ist er. Beide haben 12 Pipes. Die Taktraten der non-Ultra stehen auch noch nicht fest. NVidia wird sich da wohl am X800 Pro orientieren. Und zum Preis: Den Preis kann ATi immer noch ändern. Der ist genau so fest wie die Taktraten der non-Ultra ;)

Mögliches Problem. der R420 mit 12Pipes war möglicheweise als Gegenstück für NV40 geplant. Da man aber nicht mit der Leistung mithalten konnte, hatte man die Alternative parat. Den R420 mit 16Pipes. Der N40NU ist imho so abgespeckt (laut der uns bekannten Spekus, denn ob sie stimmen wissen wir alle nicht), da wird ATI dies nicht so leicht gegen stellen wollen. Imho vielleicht zwischen der Ultra und NU. Deswegen meine ich, dass es kein Konkurrenzprodukt der NU-Version ist. Eher der Ultra version, bzw. eben dahinter.

ShadowXX
2004-04-19, 07:07:26
Original geschrieben von BodyLove
Mögliches Problem. der R420 mit 12Pipes war möglicheweise als Gegenstück für NV40 geplant. Da man aber nicht mit der Leistung mithalten konnte, hatte man die Alternative parat. Den R420 mit 16Pipes. Der N40NU ist imho so abgespeckt (laut der uns bekannten Spekus, denn ob sie stimmen wissen wir alle nicht), da wird ATI dies nicht so leicht gegen stellen wollen. Imho vielleicht zwischen der Ultra und NU. Deswegen meine ich, dass es kein Konkurrenzprodukt der NU-Version ist. Eher der Ultra version, bzw. eben dahinter.

Der r420 war immer als 16Pipe Version geplant, genauso wie der nv40 immer 222Mio Transitoren hatte...
Das ganze sind/waren verwirrtaktiken der IHVs....

Man schmeisst sein Chipdesign nicht mal kurz um und sagt: "...dann eben ein quad mehr..."

aths
2004-04-19, 08:43:23
Original geschrieben von ShadowXX
Man schmeisst sein Chipdesign nicht mal kurz um und sagt: "...dann eben ein quad mehr..." Die NV40-Architektur ist so skalierbar ausgelegt worden, dass vergleichsweise kurzfristig noch ein Quad draufgepappt wurde :) Allerdings muss die Maximalkonfiguration von 16 Pipes wohl schon von vornherein geplant gewesen sein.

Ailuros
2004-04-19, 08:55:00
Original geschrieben von aths
Die NV40-Architektur ist so skalierbar ausgelegt worden, dass vergleichsweise kurzfristig noch ein Quad draufgepappt wurde :) Allerdings muss die Maximalkonfiguration von 16 Pipes wohl schon von vornherein geplant gewesen sein.

Die beiden Saetze machen ein nettes Oxymoron.

Wie dem auch sei: auf welche genau Fakten basiert die quad-bonus Theorie?

ShadowXX
2004-04-19, 09:12:43
Original geschrieben von Ailuros
Die beiden Saetze machen ein nettes Oxymoron.

Wie dem auch sei: auf welche genau Fakten basiert die quad-bonus Theorie?

Das ist mir auch aufgefallen, ich hatte nur nicht ein so schönes Wort dafür wie du...

Es kommt wohl darauf an, was aths unter "vergleichsweise kurzfristig" versteht....

Was aber trotz allen dem zweiten Satz(teil) widerspricht....

BodyLove
2004-04-19, 10:09:35
nö muss nicht. Es kann von Anfang an für Maximal 16Pipes geplant gewesen sein, aber man ließe nur 12 Pipes aktiviert, sofern keine Konkurrenz besteht. Dann ein Refresh und man besäße einen "neuen" Chip mit 16Pipes.

Genau dasselbe, was imho sich ATI vorgestellt hat(te).

DrumDub
2004-04-19, 10:57:42
Original geschrieben von aths
SM 3.0 orientierte sich wohl eher an dem, was der NV40 kann :)

jupp. fp32 ist ja schon die mindestvoraussetzung. natürlich hat das aber auch mathematische gründe, denke ich.

pp@work
2004-04-19, 12:54:20
Bei HardOCP gesehe:

"Posted by Kyle 6:13 PM (CDT)
ATI X800 Pre-sell Dates:
Deep from the blue trenches comes word that Best Buy will have the upcoming R420 core video card, known as the "Radeon X800," available for pre-sale on May 5, 2004. Cinco de Mayo and X800 on the same day...coincidence? I think not. Whatever the hell that means."

Gast
2004-04-19, 13:06:35
Ist die Vorstellung am 26. und am 5 Mai kann man sie schon kaufen ???

Gil-galad
2004-04-19, 13:48:48
Original geschrieben von Gast
Ist die Vorstellung am 26. und am 5 Mai kann man sie schon kaufen ???

Die Vorstellung wird wohl am 4. oder 5. Mai sein. Und kurz danach soll man die Karten schon kaufen können.

Gast
2004-04-19, 20:03:33
Feature hin oder her, jahrelang hatte ATI die besseren Features, ich erinnere nur PS.1.6!!! und keinen hat es gejuckt! Es wird in diesem Level nur das schnellste gekauft.

Ich meine nicht 3DMark & co, ich meine die Geschwindigkeit mit hohen Details/ Auflösungen bei aktuellen Games!

Ob da jetzt im Hintergrund PS 3.0 werkelt oder VS3.0 ist zwar für einige sehr wichtig, aber nicht der Key zum Erfolg!

Gast
2004-04-19, 20:04:57
oder 1.2 ??*g* grübel,

Wer weiss das noch ???

Gil-galad
2004-04-19, 20:05:17
Original geschrieben von Gast
oder 1.2 ??*g* grübel,

Wer weiss das noch ???

PS1.4 ;)

Gast
2004-04-19, 20:06:51
Original geschrieben von AiS|Gil-galad
PS1.4 ;)

Stimmt! *g* und kannst du dich noch daran erinnern wie gut die NV's gelaufen sind, trotz fehlendem Feature zu Beginn?

Gil-galad
2004-04-19, 20:21:27
Ja kann ich wohl. Nicht immer sind Features alles.

Gast
2004-04-19, 20:30:47
Original geschrieben von AiS|Gil-galad
Ja kann ich wohl. Nicht immer sind Features alles.

So könnte im Fall einer schnelleren R420 und einer mit mehr Features bepackte NV40 das Rennen nicht machen!

Aquaschaf
2004-04-19, 20:39:22
Da ist aber ein kleiner Unterschied, die Features des NV40 können ihm Rechenarbeit ersparen und eine geringere Rohleistung eventuell wettmachen. SM3 lässt sich wohl ohne viel Arbeit in Spiele einbauen.
Das war beim R200 damals etwas anders.
Wer die schnelleren Karten hat weiß man aber trotzdem erst wenn der R420 vorgestellt wird ;)

Crazytype
2004-04-19, 20:47:26
Original geschrieben von Gast
X800 PRO/R420 Pro


Chiptakt 474 MHz

Speichertakt 900 MHz :D

This card is meant to fight Geforce 6800 non Ultra - the one with 12 pipelines and should be in retail as soon as ATI launches it.

This means that you should be able to buy one on the 4th of May but let's wait and see if ATI can deliver on that day.


http://www.theinquirer.net/?article=15377


Everything is packed into 180 millions of transistors and the card has 12 pipelines as we suggested. The R420XT, Radeon X800XT will be higher clocked card with 16 pipelines which came as a huge surprise to us.


Faster Radeon X800XT will come just after E3, and soon after the 14th of May we are told. I cannot remember if I said this before, but the R420 is chip based on R300 marchitecture and you can clearly see this from its 96 bit precision support and lack of PS 3.0.




Die XT hat PS 3.0 wie geil

lack= Mangel= nicht haben

Gast
2004-04-19, 21:53:08
Original geschrieben von Aquaschaf
Da ist aber ein kleiner Unterschied, die Features des NV40 können ihm Rechenarbeit ersparen und eine geringere Rohleistung eventuell wettmachen. SM3 lässt sich wohl ohne viel Arbeit in Spiele einbauen.
Das war beim R200 damals etwas anders.
Wer die schnelleren Karten hat weiß man aber trotzdem erst wenn der R420 vorgestellt wird ;)

Letztendlich ist es fraglich welchen Vorteil mann bei PS 3.0 hat!

BodyLove
2004-04-19, 21:55:17
Original geschrieben von Gast
Letztendlich ist es fraglich welchen Vorteil mann bei PS 3.0 hat!

Die Frage haben wir beantwortet bekommen. Einen Performencevorteil.;)

Gast
2004-04-20, 07:09:52
Original geschrieben von BodyLove
Die Frage haben wir beantwortet bekommen. Einen Performencevorteil.;)

Wo ? Möchte gerne den Nachweis sehen!

ShadowXX
2004-04-20, 08:25:40
Original geschrieben von BodyLove
Die Frage haben wir beantwortet bekommen. Einen Performencevorteil.;)

Beim nv40 wohl noch nicht...hab gerade in einem anderen Thread ein Post von Zeckensack gelesen, in dem Stand das Branching 9 Takte benötigt...
Es gibt in schon vorhandenen Spielen Shader, die weniger Takte brauchen....

Und wenn aths nv40 inside nochmal durchguckts, wirst du bemerken, dass auch er die nutzbarkeit von PS3.0 beim nv40 anzweifelt....

Gil-galad
2004-04-20, 08:38:40
Original geschrieben von BodyLove
Die Frage haben wir beantwortet bekommen. Einen Performencevorteil.;)

Solange wie die PS2.0 Leistung des X800 Pro auf dem Niveau der PS3.0 Leistung des NV40 liegt, solange sind Features nicht so wichtig. Denn schönere Effekte zaubern PS3.0 auch nicht ;)

aths
2004-04-20, 09:32:48
Original geschrieben von AiS|Gil-galad
Solange wie die PS2.0 Leistung des X800 Pro auf dem Niveau der PS3.0 Leistung des NV40 liegt, solange sind Features nicht so wichtig. Denn schönere Effekte zaubern PS3.0 auch nicht ;) Es ist durchaus möglich, schönere Effekte mit 3.0 zu rendern, schon alleine weil es FP32 gegen FP24 steht. Nur werden die Spieleentwickler auf die "Technologiebremse" ATI Rücksicht nehmen müssen (beim Pixelshader 1.4 vs. 1.3 führte sich NV als Technologiebremse auf).

BodyLove
2004-04-20, 11:14:42
Original geschrieben von ShadowXX
Beim nv40 wohl noch nicht...hab gerade in einem anderen Thread ein Post von Zeckensack gelesen, in dem Stand das Branching 9 Takte benötigt...
Es gibt in schon vorhandenen Spielen Shader, die weniger Takte brauchen....

Und wenn aths nv40 inside nochmal durchguckts, wirst du bemerken, dass auch er die nutzbarkeit von PS3.0 beim nv40 anzweifelt....

Echt jetzt? Den Artikel von Aths werde ich heute Abend in ruhe durchlesen. Klar, wenn es 9takte benötigt wird es nicht allzu schnell sein.

ow
2004-04-20, 11:36:32
.

Ailuros
2004-04-20, 11:46:44
Original geschrieben von Gast
Letztendlich ist es fraglich welchen Vorteil mann bei PS 3.0 hat!

Fuer Entwickler viele; fuer den Normal-Otto Verbraucher zwischen wenig bis gar nichts momentan.

Ich haette fuer's letzte Jahr praktisch auch ohne PS2.0 auf der zeitigen Karte leben koennen....

BodyLove
2004-04-20, 11:50:19
Original geschrieben von ow
Wieso bedienst du dich eigentlich irgendwelcher Vergleiche wo nichts zu vergleichen ist?

Gab es zu PS1.3/1.4 Zeiten schon HLSL?

möglicherweise um zu zeigen, dass dies kein Kavaliersdelikt von ATI ist, sondern auch NV dies mal gemacht hat.

ow
2004-04-20, 12:02:28
.

BodyLove
2004-04-20, 12:21:31
Original geschrieben von ow
Das ist zwar richtig aber dennoch sind die Gegebenheiten etwas anders gelagert.

Damals fuer PS1.4 zu proggen hiess: PS-Code komplett neu schreiben, heute PS3.0 zu nutzen bedeutet nur ein Compilerdurchlauf mit Zieltarget 3.0.

War aber dieserTatbestand damals nicht viel gravierender, als jetzt? Falls es so einfach ist und man mit PS3.0 mehr Power beim NV40 rausholen kann, kann man einen seperaten Weg für den NV40 einrichten. Wobei dies wohl ohne einen großen Mehraufwand durchgeführt werden kann, wohingegen damals man bei PS1.4 aus Kostengründen, keine Unterstützung für ATI-Karten mit PS1.4 hätte machen können, da NV nur PS1.3 ünterstützte.

Sonst hast du Recht. Imho hat Aths nur versucht, grob wiederzugeben, dass es normal ist.

Godmode
2004-04-20, 12:37:12
Original geschrieben von aths
Es ist durchaus möglich, schönere Effekte mit 3.0 zu rendern, schon alleine weil es FP32 gegen FP24 steht. Nur werden die Spieleentwickler auf die "Technologiebremse" ATI Rücksicht nehmen müssen (beim Pixelshader 1.4 vs. 1.3 führte sich NV als Technologiebremse auf).

Ich hab mir das mal so vorgestellt: Nvidia gibt den Entwicklern sicher ordentlich Geld, damit sie was tolles aus PS3.0 machen(sofern nutzbar). Und dann heißt es halt später: das Game ist mit allen Karten super spielbar! ABER wenn ihr diese Karte habt, könnt ihr

A: mehr Frames haben oder
B: die mehr Frames für bessere Effekte opfern

könnte das so eintreffen wie ich mir das vorstelle? oder glaubt ihr eher nicht daran?

BodyLove
2004-04-20, 12:43:15
Original geschrieben von bans3i
Ich hab mir das mal so vorgestellt: Nvidia gibt den Entwicklern sicher ordentlich Geld, damit sie was tolles aus PS3.0 machen(sofern nutzbar). Und dann heißt es halt später: das Game ist mit allen Karten super spielbar! ABER wenn ihr diese Karte habt, könnt ihr

A: mehr Frames haben oder
B: die mehr Frames für bessere Effekte opfern

könnte das so eintreffen wie ich mir das vorstelle? oder glaubt ihr eher nicht daran?

Wenm das Stimmt, was Zecke sagt, dass allein fürs Branching 9 Takte benötigt werden, können deine Vorstellungen nicht durchgesetzt werden, da:

A: nicht mehr Frames rauskommen,
B: darum auch die mehr Frames nicht ausgenutzt werden kann, um mehr Effekte zubringen, da mehr frames gar nicht vorhanden sind.

Godmode
2004-04-20, 12:49:54
Original geschrieben von BodyLove
Wenm das Stimmt, was Zecke sagt, dass allein fürs Branching 9 Takte benötigt werden, können deine Vorstellungen nicht durchgesetzt werden, da:

A: nicht mehr Frames rauskommen,
B: darum auch die mehr Frames nicht ausgenutzt werden kann, um mehr Effekte zubringen, da mehr frames gar nicht vorhanden sind.

Also wird Branching erst mit sehr langen Shadern interessant?

Ailuros
2004-04-20, 12:52:20
Ich bin jetzt zu faul danach zu suchen aber woher kommen die 9 Takte genau? Wenn es nur Spekulation ist, dann sag ich einfach dass es zu viel ist und man hier wohl nur die problematischen Faelle betrachtet.

Godmode
2004-04-20, 13:03:13
Original geschrieben von Ailuros
Ich bin jetzt zu faul danach zu suchen aber woher kommen die 9 Takte genau? Wenn es nur Spekulation ist, dann sag ich einfach dass es zu viel ist und man hier wohl nur die problematischen Faelle betrachtet.

http://www.hardware.fr/articles/491/page6.html

laut Zecki steht das ganz unten irgendwo

*Edit: habs schon:

"C´est le branchement le plus simple que nous pouvions réaliser. Il a nécessité pas moins de 9 passages dans le pipelines ce qui est énorme. Nous nous attendions à 2 passages en espérant que NVIDIA ait prévu son architecture pour que ça puisse se faire en un seul. Ce résultat nous a donc déçu, mais il est cependant possible qu’il ne soit attribuable qu´aux drivers peu avancés : l´avenir nous le dira !"

ow
2004-04-20, 13:06:25
.

BodyLove
2004-04-20, 13:09:37
@Ban3i

Ja, denke schon.

@Ail

Ob es stimmt, oder nur Speku ist weiss ich nicht. Nur hatte Zecki dies behauptet und eine Quelle dazugegeben.

geschrieben von ZeckiPS 2 erlaubt maximal 512 Instruktionen pro Pixel. Wenn das nicht langsam wird, dann weiss ich auch nicht.

PS3 hat Branching, ja, aber schau mal hier (ganz unten) (http://www.hardware.fr/articles/491/page6.html). 9 Takte gehen für den Branch drauf. So richtig doll "optimieren" kann man damit IMO nicht.

Mit 9 Takten pro Pixel kann man schon 'ne ganze Menge toller Sachen machen, wenn man nicht gerade Valve heisst.

Demirug
2004-04-20, 13:16:51
Original geschrieben von BodyLove
@Ban3i

Ja, denke schon.

@Ail

Ob es stimmt, oder nur Speku ist weiss ich nicht. Nur hatte Zecki dies behauptet und eine Quelle dazugegeben.

[/SIZE]

Ja, nur wurde der Test mit Beta-versionen gemacht und auch aufgrund der kurzen Testzeit nicht wirklich analysiert was da genau passiert ist. Was Branching angeht würde ich daher wie gesagt noch abwarten. Zumindestens bis DX9.0c Final ist.

BodyLove
2004-04-20, 13:26:43
Demi, du sagstest du, sofern ich mich richtig erinnere, dass PS3.0 min. so schnell sei, wie PS2.0. Nehmen wir an, diese Speku stimmt ansatzweise, woran könnte es liegen?

Demirug
2004-04-20, 13:34:31
Original geschrieben von BodyLove
Demi, du sagstest du, sofern ich mich richtig erinnere, dass PS3.0 min. so schnell sei, wie PS2.0. Nehmen wir an, diese Speku stimmt ansatzweise, woran könnte es liegen?

Eine gute PS 3.0 implementierung sollte nicht langsamer als die 2.0 Version eines Shaders sein. Wie gut die des NV40 muss sich ja noch zeigen.

Ich habe wie gesagt den genauen Test von Hardware.fr nicht gesehen ergo weiss ich auch nicht was das abgelaufen ist. Wenn mein bischen Französich mich nicht im Stich lässt dann hat man bei dem Test HLSL benutzt. Bei meinem letzten Versuch mit dem 3.0 Profil des Compilers (auch noch BETA) hat dieser sehr ineffektiven Code genaut. Das könnte also durchaus auch noch eine Rolle gespielt haben.

Ailuros
2004-04-20, 14:10:56
Demi,

Unterstuetzt der zeitige Treiber denn ueberhaupt PS3.0 (ja kann sein dass es ne bloede Frage ist)?

Wie sieht es uebrigens mit MRTs diesmal aus? Ich konnte bis jetzt nichts darueber lesen, deshalb die Frage.

IMHO und ja das ist reine Spekulation meinerseits, muesste man eine gewisse Anzahl von Takten (aber auf keinen Fall 9, um Gottes Willen) zwischen branching points benutzen dann wohl eher fuer sehr komplizierte Faelle. Fuer einfaches Zeug waere es Wahnsinn wenn man mehr als einen Takt brauchen wuerde (natuerlich offen zur Korrigierung).

Demirug
2004-04-20, 14:39:38
Original geschrieben von Ailuros
Demi,

Unterstuetzt der zeitige Treiber denn ueberhaupt PS3.0 (ja kann sein dass es ne bloede Frage ist)?

Ja, aber nur wenn man eine DX9.0c Runtime hat und die ist BETA.

Wie sieht es uebrigens mit MRTs diesmal aus? Ich konnte bis jetzt nichts darueber lesen, deshalb die Frage.

MRT ist jetzt scheinbar Plicht bei SM3. Auf jeden Fall kann es der NV40.

IMHO und ja das ist reine Spekulation meinerseits, muesste man eine gewisse Anzahl von Takten (aber auf keinen Fall 9, um Gottes Willen) zwischen branching points benutzen dann wohl eher fuer sehr komplizierte Faelle. Fuer einfaches Zeug waere es Wahnsinn wenn man mehr als einen Takt brauchen wuerde (natuerlich offen zur Korrigierung).

Da in der Pipe am Ende eine Sprungeinheit sitzt sollte man nach jedem Takt verzweigen können. Da in einem Takt aber mehr als eine Anweisung ausgeführt werden kann sollte man die Sprung Punkte nicht zu dicht im Programm setzten.

aths
2004-04-20, 14:39:42
Original geschrieben von BodyLove
Wenm das Stimmt, was Zecke sagt, dass allein fürs Branching 9 Takte benötigt werden, können deine Vorstellungen nicht durchgesetzt werden, da:

A: nicht mehr Frames rauskommen,
B: darum auch die mehr Frames nicht ausgenutzt werden kann, um mehr Effekte zubringen, da mehr frames gar nicht vorhanden sind. Nah. Selbst wenn jeder Branch 9 Takte kostet (hier bin ich nicht sicher) so könnte man dank Early-Out Performance herausholen, man muss lediglich mehr als 9 Takte damit sparen.

Was mal selten dämlich ist, mehrere unterschiedliche Dinge mit einem Shader bearbeiten zu wollen (à la Meerjungfrau) weil man dann immer branchen darf ohne Performance zu gewinnen.

aths
2004-04-20, 14:59:03
Original geschrieben von Ailuros
Wie sieht es uebrigens mit MRTs diesmal aus? Ich konnte bis jetzt nichts darueber lesen, deshalb die Frage. Bis zu 4 Targets sind möglich.

Godmode
2004-04-20, 17:02:47
Original geschrieben von aths
Nah. Selbst wenn jeder Branch 9 Takte kostet (hier bin ich nicht sicher) so könnte man dank Early-Out Performance herausholen, man muss lediglich mehr als 9 Takte damit sparen.

Was mal selten dämlich ist, mehrere unterschiedliche Dinge mit einem Shader bearbeiten zu wollen (à la Meerjungfrau) weil man dann immer branchen darf ohne Performance zu gewinnen.


Ja aber jetzt müsste man wissen, was schneller ist:

einzelne Shader von Hand wechseln,
oder in einen 3.0 Shader mehrere 2.0 Shader rein, die man per Branching wechseln kann.

Gast
2004-04-20, 17:55:47
mit Google übersetzt :


Pixel Shader 3.0

NVIDIA was definitely not lazy at the time to design its new pipelines. In addition to all the improvements intended to make them more effective, NVIDIA their added the support of the Pixel Shader 3.0. It should however be specified that the task was not quite complicated because GeForce FX were already close to the support of these Pixel Shader last version.

The large innovation introduced by the Pixel Shader 3.0 are the dynamic connections. They make it possible to carry out complex effects easily and to use one and even shader for different effects.

For example a pixel shader 3.0 could integrate various versions of an algorithm managing the effects of light. According to the pixel it would decide via a dynamic connection which effect light to apply. That could make it possible to avoid the changes of shader which are expensive but also to be able to avoid certain calculations. For example in the calculation of several sources of light which are added, the shader to test the pixel and to stop adding with the light if the pixel is already white. The possible uses are numerous and as each time the ideas of the developers wait.

However, all is not pink. The thing easiest to make with the dynamic connections is to ransack the performances! The connections in a GPU are very expensive. In addition to the normal cost of the connection, being given function it in SIMD of the quad engine (4 pixel pipelines), they cannot treat 2 different operations for 2 different pixels.

This means that if the connections give different results for the 4 adjacent pixels, the quad engine will not be able to treat any more but one pixel at the same time instead of 4! ¾ of the pixels pipelines will thus turn the inches. This would cause immediate to divide the performances into 4.

Then, without dynamic connection, the driver and/or the GPU know in advance what they will have to make. They can thus optimize certain things like masking necessary enormous latency by the texturing. With the dynamic connections, they can become unable to do it what would transform Ultra GeForce 6800 into snail. In short, the developers will have to be careful with the connections.

The PS 3.0 per hour of the test?

Drivers NVIDIA used for this test are very far from being ready with the level of the Pixel Shader 3.0. NVIDIA was not able to provide us a more advanced version of the drivers, which seems to indicate that it will still be necessary to have patience a moment before having a correct support of this new version of the Shader Pixel.

http://www.hardware.fr/medias/photos_news/00/07/IMG0007685.gif

These drivers support them despite everything, once DirectX 9.0c installed. This support is however very far from sticking to the documents provided by NVIDIA. Whereas NVIDIA announces capacity to carry out 65536 instructions (although the limit fixed by DirectX is 32168), the drivers fix it at 1024.

We wanted to know some more about the performances and possibilities of the Pixel Shader 3.0. The last patch of Far Cry supporting them, we had under the hand an ideal tool. Lastly, thought we it. Far Cry detects DirectX 9.0c well, just like the support of the Pixel and Vertex Shader 3.0 of Ultra GeForce 6800 but does not use them! Bug of the play? Anecdotic support? Bug of the drivers?

The team of development of PowerVR which badly did not work on the Pixel and Vertex Shader 3.0 (as well on the level software as hardware) published there are a few months several demonstrations calling upon the Pixel Shader 3.0. These demonstrations could turn only in software mode before. Do they turn correctly on GeForce 6800? Not.

They do not launch out besides even. They are in fact quite simply incompatible with DirectX 9.0c which introduced some limitations into the Pixel Shader 3.0. It is thus prohibited to use dependent textures and some other instructions inside a branch. This new limitation could not have been taken into account at the time of the realization of the demonstrations considering which it did not exist. Was this limitation introduced by Microsoft to stick to those of the hardware?

We thus had to solve us to test the Pixel Shader 3.0 via some small shaders written out of assembler by our care (since compiler HLSL does not manage yet the Pixel Shader 3.0). We however did not have time to test this in-depth point. We concentrated on the cost of the connections while avoiding ransacking the performances in advance. For example we carried out a connection carried out on a value which depends on the triangle. The 4 pipelines of each quad engine can thus function at the same time. We have of course to avoid any use of texture. This test resembled this:

Red yew
xxxx Screen
Else
green Screen
Endif

It is the simplest connection that we could realize. It required not less than 9 passages in the pipelines what is enormous. We expected 2 passages by hoping that NVIDIA envisaged its architecture so that that can be done in only one. This result thus disappointed us, but it is however possible that it is ascribable only to the not very advanced drivers: the future will say it to us!

=>

Assembler

sehr einfacher PS3.0 Shader

alle 4 Pixel des Quads nehmen den selben Pfad

nur Branching getestet, nichts sonst

9 Zyklen für diesen Shader

Gast
2004-04-20, 18:04:08
Original geschrieben von aths
Nah. Selbst wenn jeder Branch 9 Takte kostet (hier bin ich nicht sicher) so könnte man dank Early-Out Performance herausholen, man muss lediglich mehr als 9 Takte damit sparen.


Naja, zusätzlich sollte wohl auch noch das Befehls/Textur-Verhältnis bei mehr als 10:1 (?)liegen, da sonst die Pipeline einfach leer läuft, ähnlich wie beim NV3x wenn die Register nicht mehr ausreichen.
Da GPU's ziemlich lange Pipelines mit so (geschätzt) 50-200 Pipelinestufen haben, wenn man den entsprechenden Diskussionen auf Beyond3D glauben will und diese langen Pipelines notwendig sind um die Lade-Latenzen für die Texturen zu kaschieren hilft es dann nicht wirklich weiter, einfach einmal ein paar Befehle nicht auszuführen, die GPU muss dann trotzdem erst einmal warten bis die entsprechenden Texturen geladen werden (die ja durch das Branching nicht schon früher feststehen und damit vorab geladen werden können).

ShadowXX
2004-04-20, 19:02:54
Original geschrieben von Gast
mit Google übersetzt :



=>

Assembler

sehr einfacher PS3.0 Shader

alle 4 Pixel des Quads nehmen den selben Pfad

nur Branching getestet, nichts sonst

9 Zyklen für diesen Shader

Ich hoffe mal für nV, das das an ihren Beta-Treibern liegt.

Denn 9 Zyklen für diesen "Witz" sind doch allerhand....

Ailuros
2004-04-21, 00:47:32
Original geschrieben von Demirug
MRT ist jetzt scheinbar Plicht bei SM3. Auf jeden Fall kann es der NV40.

Schoen.

Da in der Pipe am Ende eine Sprungeinheit sitzt sollte man nach jedem Takt verzweigen können. Da in einem Takt aber mehr als eine Anweisung ausgeführt werden kann sollte man die Sprung Punkte nicht zu dicht im Programm setzten.

Ich weiss zwar nicht ob das ein generelles Phenomaen mit SIMD Architekturen ist, aber sooo berauschend klingt mir branching dann nun auch nicht unbedingt. Auf jeden Fall ist es besser branching zu unterstuetzen als gar nicht.

Ailuros
2004-04-21, 00:50:45
Original geschrieben von Gast
Naja, zusätzlich sollte wohl auch noch das Befehls/Textur-Verhältnis bei mehr als 10:1 (?)liegen, da sonst die Pipeline einfach leer läuft, ähnlich wie beim NV3x wenn die Register nicht mehr ausreichen.
Da GPU's ziemlich lange Pipelines mit so (geschätzt) 50-200 Pipelinestufen haben, wenn man den entsprechenden Diskussionen auf Beyond3D glauben will und diese langen Pipelines notwendig sind um die Lade-Latenzen für die Texturen zu kaschieren hilft es dann nicht wirklich weiter, einfach einmal ein paar Befehle nicht auszuführen, die GPU muss dann trotzdem erst einmal warten bis die entsprechenden Texturen geladen werden (die ja durch das Branching nicht schon früher feststehen und damit vorab geladen werden können).

Ich schiesse mir hier wahrscheinlich in den Fuss aber koennte man das Ganze nicht balancieren unter Vorraussetzungen, wenn man es mit vertex texturing im VS3.0 kombiniert?

pp@work
2004-04-21, 08:59:23
http://www.theinquirer.net/?article=15440

LovesuckZ
2004-04-21, 09:10:38
Original geschrieben von pp@work
http://www.theinquirer.net/?article=15440

Wenn dies stimmen sollte, dann bedeutet dies, dass die XT version, so wie sie jetzt wohl ist, nicht geplant war. Anscheinend hat man nvidia doch unterschaetzt...

seahawk
2004-04-21, 09:16:27
Original geschrieben von LovesuckZ
Wenn dies stimmen sollte, dann bedeutet dies, dass die XT version, so wie sie jetzt wohl ist, nicht geplant war. Anscheinend hat man nvidia doch unterschaetzt...

Geplant schon, aber nicht für Juni. Imho wäre die XT sonst der erste Refresh gewesen. Wobei man den Inq Artikel ja auch so lesen kann, dass der R420 grundsätzlich ein Problem hat 16 funktionierende Pipes zu besitzen. Die Ausbeute an solchen Chips ist wohl eher gering. Vielleicht haben sie noch nicht genug von diesen Chips gefertigt.

Imho sollte das Problem mit der Ausbeute bei 16 Pipes wahrscheinlich erst mit dem Refresh gefixt werden. Eine 16 Pipe Version des R420 war wahrscheinlich gar nicht geplant. Ich behaupte mal der X800XT wird selten und teuer. So eine Art von 5800Ultra bei ATI.

Odal
2004-04-21, 10:19:21
Original geschrieben von pp@work
http://www.theinquirer.net/?article=15440

:cop: FUAD :cop:

also ich denke der saugt sich mal wieder was aus den fingern....

so wie er schrieb versucht Ati seid letztem jahr ein "heiles" 16 pipes exemplar aus der produktion zu erwischen.....
wieso sollten denn immer 4 pipes bzw. eine oder mehrere aus nem quad kaputt sein?
und selbst wenn es so wäre produziert man doch n icht solange bis man zufällig mal nen 16pipe exemplar hat...

und falls diese absurd klingende storry stimmen sollte kann man sich ja die verfügbarkeit einer x800XT ausrechnen..

naja wir werden sehen

Sunrise
2004-04-21, 10:23:51
Original geschrieben von seahawk
Geplant schon, aber nicht für Juni. Imho wäre die XT sonst der erste Refresh gewesen. Wobei man den Inq Artikel ja auch so lesen kann, dass der R420 grundsätzlich ein Problem hat 16 funktionierende Pipes zu besitzen. Die Ausbeute an solchen Chips ist wohl eher gering. Vielleicht haben sie noch nicht genug von diesen Chips gefertigt.

Imho sollte das Problem mit der Ausbeute bei 16 Pipes wahrscheinlich erst mit dem Refresh gefixt werden. Eine 16 Pipe Version des R420 war wahrscheinlich gar nicht geplant. Ich behaupte mal der X800XT wird selten und teuer. So eine Art von 5800Ultra bei ATI.
Ich lese das generell anders.

FUAD mischt oft seine persönliche Eingebung mit teilweise bestätigten Fakten (seiner oft nicht vorhandenen Quellen), teilweise quotet er sogar direkt aus Foren.

[Spekulation]

Ich gehe davon aus, dass ATI bis ca. Juni wartet, um der XT deutlich besseren Speicher als der Pro-Variante spendieren zu können, und gleichzeitig die Chip-Ausbeute entweder zu verbessern (Fertigung), oder ATI hat vor ca. einem Monat nochmal einen Re-Spin gefahren, der möglicherweise bessere Yields bei 16 Pipes ermöglicht und/oder höhere Takte zulässt.

[Spekulation]

deekey777
2004-04-21, 10:41:21
Original geschrieben von pp@work
http://www.theinquirer.net/?article=15440

Bis zu der Meldung, dass die XT 2 Wochen nach dem X800Pro Launch kommt, war jedem bekannt, dass die XT gegen Ende Mai oder erst im Juni kommt. Was soll die Aufregung?

Gast
2004-04-21, 11:11:38
:cop:Odal:cop:

XT ist schon lange für Juni geplant !

Süß finde ich immer die Reaktionen der NV Fans ala "ATI hat wohl Nvidia unterschätzt" ;D

Tip: Jede Firma weiß sofort was die andere tut,es gibt immer Informaten.Keine Firma kann die andere überraschen !

BodyLove
2004-04-21, 12:00:27
Man hat natürlich infos vom Gegner. Nur kommen sie bestimmt nicht 1 Jahr vorm Release. Vielleicht 6 Monate? Danach hat man keine Chance sich darauf einzustellen. Man ist eben überrascht.

DrumDub
2004-04-21, 13:04:16
Original geschrieben von Sunrise
[Spekulation]

Ich gehe davon aus, dass ATI bis ca. Juni wartet, um der XT deutlich besseren Speicher als der Pro-Variante spendieren zu können, und gleichzeitig die Chip-Ausbeute entweder zu verbessern (Fertigung), oder ATI hat vor ca. einem Monat nochmal einen Re-Spin gefahren, der möglicherweise bessere Yields bei 16 Pipes ermöglicht und/oder höhere Takte zulässt.

[Spekulation]

das klingt imho sogar sehr sinnig. ich denke, die verfügbarkeit von schnellem speicher ist das hauptproblem neben den yields.

Ailuros
2004-04-21, 14:01:41
Bitte; nochmals R420 war von Anfang an fuer 4 quads ausgelegt und bei ATI hat man sich nie eine fruehere Veroefffentlichung als Mai/Juni 2004 schon im letzten Jahr erhofft.

Denkt mal ein Stueck zurueck was letztes Jahr geblubbert wurde; da trommelten NV fans schon dass NV40 um fast 6 Monate frueher antanzen will. Haetten wir einen November 2003 Release fuer NV40 gehabt, dann habt ihr schon die Teile zum Puzzle.

Das mit Unterschaetzungs-Zeug koennte man sich auch sparen, bis wir zumindest erste vergleichbare Leistungsnummern von der R4xx Linie sehen koennen.

Ailuros
2004-04-21, 14:05:16
Original geschrieben von DrumDub
das klingt imho sogar sehr sinnig. ich denke, die verfügbarkeit von schnellem speicher ist das hauptproblem neben den yields.

Ich glaube ich erwaehnte schon seit Sommer letzten Jahres dass die Verspaetungen dieser Generation chips fuer alle IHVs die folgenden Gruende (mehr oder weniger) hatten:

a) Microsoft's Verspaetung ganz ganz frueher SM3.0 festzulegen.

b) GDDR3 Speicher Verfuegbarkeit.

Und das natuerlich basierend auf die Aussagen eines Analysten bei Extremetech der normalerweise sehr getroffene Bemerkungen macht.

DrumDub
2004-04-21, 14:14:32
Original geschrieben von Ailuros
Ich glaube ich erwaehnte schon seit Sommer letzten Jahres dass die Verspaetungen dieser Generation chips fuer alle IHVs die folgenden Gruende (mehr oder weniger) hatten:

a) Microsoft's Verspaetung ganz ganz frueher SM3.0 festzulegen.

b) GDDR3 Speicher Verfuegbarkeit.

Und das natuerlich basierend auf die Aussagen eines Analysten bei Extremetech der normalerweise sehr getroffene Bemerkungen macht.

ok. damit ist punkt b) sicherlich der entscheidende für ati, da sm3.0 für sie keine bedeutung hat bis zum r500.

Ailuros
2004-04-21, 14:16:28
Original geschrieben von DrumDub
ok. damit ist punkt b) sicherlich der entscheidende für ati, da sm3.0 für sie keine bedeutung hat bis zum r500.

Teilweise schon, wenn man an den alten R400 denkt. Wenn eine gesamte roadmap sich aendert, dann hat das wohl Folgen fuer alle noch nicht veroeffentlichten Produkte.

aths
2004-04-21, 14:19:21
Original geschrieben von Gast
Tip: Jede Firma weiß sofort was die andere tut,es gibt immer Informaten.Keine Firma kann die andere überraschen ! Der R300 hat Nvidia überrascht.

Tipp: Vor Frage- und Ausrufezeichen bitte kein Leerzeichen lassen :)

deekey777
2004-04-21, 14:19:48
Original geschrieben von Odal
:cop: FUAD :cop:

also ich denke der saugt sich mal wieder was aus den fingern....

...

Gaynau!!! Vielleicht wird er nicht nach der Qualität seiner Artikel bezahlt, sondern nach deren Quantität.

AlfredENeumann
2004-04-21, 16:28:17
Original geschrieben von aths
Der R300 hat Nvidia überrascht.




... oder es war zu spät um grundlegende änderungen am NV30 zu vollziehen.

BodyLove
2004-04-21, 16:38:57
Original geschrieben von AlfredENeumann
... oder es war zu spät um grundlegende änderungen am NV30 zu vollziehen.

das nennt man Überraschen.;)

Gast
2004-04-21, 18:14:37
Finde den Zug von Ati verständlich. Wenn man den R420XT direkt nach der Pro bringt, so nimmt man der Pro doch sofort den Wind aus den Segeln. Und wer bereit ist 399.- Euro für ne Pro hinzulegen, den schrecken auch die 100.- Euronen Mehrpreis nicht. Denn vielleicht ist ja die XT performancetechnisch allen weit voraus, so daß dann in manchen Augen die R420Pro nur noch als Midrange anerkannt wird (naja eher nicht, aber wer weiß). Vielleicht auch, um einfach einen Gegenschlag seitens NV erneut kontern zu können.

BodyLove
2004-04-21, 18:22:22
Original geschrieben von Gast
Finde den Zug von Ati verständlich. Wenn man den R420XT direkt nach der Pro bringt, so nimmt man der Pro doch sofort den Wind aus den Segeln. Und wer bereit ist 399.- Euro für ne Pro hinzulegen, den schrecken auch die 100.- Euronen Mehrpreis nicht. Denn vielleicht ist ja die XT performancetechnisch allen weit voraus, so daß dann in manchen Augen die R420Pro nur noch als Midrange anerkannt wird (naja eher nicht, aber wer weiß). Vielleicht auch, um einfach einen Gegenschlag seitens NV erneut kontern zu können.


Ob die weiteren Pipes wirklich sehr vielmehr Leistung bringen? Aths sagt ja, dass man sich so langsam davon verabschieden sollte, die Pipes zur Leistungsvorhersage zu ratezuziehen. Auch ist es für mich schwer vorstellbar, dass die R420xt mehr Takt haben soll, als der R420pro. Weniger Transis bedeutet doch auch bessere Takteigenschaft, oder?

Deshalb gehe ich sogar davon aus, dass die PRO/XT dieselben Taktraten haben.

MechWOLLIer
2004-04-21, 18:39:02
Viel mehr Power werden die 4 zusätzlichen pipes imo nicht geben, da dazu wohl einfach die Speicherbandbreite fehlt. Mich wundert nur etwas die Taktik von nvidia. Erst den X800 Pro vorstellen und zwei Wochen später den X800 XT. Wenn man weiß, dass der X800XT erscheint, wer kauft da noch von den High- End Usern den X800Pro?

Gast
2004-04-21, 18:39:07
hmm - 4 Pipes mehr bei höherem Takt. Ich bin zwar nicht so firm, allerdings hört sich dies doch schon nach mehr Performance an (und vermutlich wird es beim hören nicht bleiben). Durch den Deal mit Micron sollten sie zudem einen Vorteil vs. NV eingeheimst haben (was imo auf einen etwas höheren Ramtakt hindeutet). Und vielleicht haben Sie im Bereich Kühlung/Wärmeabfuhr den Stein der Weisen entdeckt ?

BodyLove
2004-04-21, 19:19:42
Original geschrieben von MechWOLLIer
Viel mehr Power werden die 4 zusätzlichen pipes imo nicht geben, da dazu wohl einfach die Speicherbandbreite fehlt. Mich wundert nur etwas die Taktik von nvidia. Erst den X800 Pro vorstellen und zwei Wochen später den X800 XT. Wenn man weiß, dass der X800XT erscheint, wer kauft da noch von den High- End Usern den X800Pro?

Du meinst wohl ATI?;)

Ailuros
2004-04-21, 22:10:02
Original geschrieben von MechWOLLIer
Viel mehr Power werden die 4 zusätzlichen pipes imo nicht geben, da dazu wohl einfach die Speicherbandbreite fehlt. Mich wundert nur etwas die Taktik von nvidia. Erst den X800 Pro vorstellen und zwei Wochen später den X800 XT. Wenn man weiß, dass der X800XT erscheint, wer kauft da noch von den High- End Usern den X800Pro?

Ultra High end (400-500$): 1-2% der Kaeufer
High end (300-400): ~5% der Kaeufer.

Je niedriger der Preis, desto hoeher das Verkaufsvolumen oder siehst Du andere Tendenzen im Markt generell?

Gast
2004-04-21, 22:12:51
Original geschrieben von Ailuros
Ultra High end (400-500$): 1-2% der Kaeufer
High end (300-400): ~5% der Kaeufer.

Ja diese Keute bezahlen aber auch auch das doppelte,dreifache für ne Karte.

Ailuros
2004-04-22, 01:37:38
Ich sagte ja je hoeher der Preis desto hoeher das Verkaufsvolumen. Mainstream duerfte an die ~30% und Value an die 50+% liegen.

Ich hab auf den folgenden Satz geantwortet:

Wenn man weiß, dass der X800XT erscheint, wer kauft da noch von den High- End Usern den X800Pro?

X800PRO gehoert zum einfachen high end - im Gegensatz zur X800XT Ultra high end - ergo niedrigerer Preis und groesseres Verkaufsvolumen.

Gast
2004-04-22, 09:58:04
Original geschrieben von MechWOLLIer
Viel mehr Power werden die 4 zusätzlichen pipes imo nicht geben, da dazu wohl einfach die Speicherbandbreite fehlt. Mich wundert nur etwas die Taktik von ATi. Erst den X800 Pro vorstellen und zwei Wochen später den X800 XT. Wenn man weiß, dass der X800XT erscheint, wer kauft da noch von den High- End Usern den X800Pro?


Ich gehe eigentlich davon aus, das beide Chips gleichzeitig vorgestellt werden und nur zu unterschiedlichen Zeiten verfügbar sind. IMHO wurde deshalb der Vorstellungstermin um ein paar Tage nach hinten verschoben.

ATi würde sich imho wirklich ins eigene Bein schießen, wenn sie zuerst nur den X800Pro vorstellen und 2 Wochen später dann den X800XT. Die Präsenz in den Medien wäre zwar höher ( 2 Launches statt einem ) aber bei mir würde das schon einen bitteren Nachgeschmack hinterlassen.

MechWOLLIer
2004-04-22, 16:36:02
Original geschrieben von BodyLove
Du meinst wohl ATI?;)

Natürlich meinte ich ATI :)

X800PRO gehoert zum einfachen high end - im Gegensatz zur X800XT Ultra high end - ergo niedrigerer Preis und groesseres Verkaufsvolumen.

Denkst du nicht, dass ATI den X800Pro am Start auch für
~500€ rausschmeißenh wird und den preis senken wird, wenn der X800XT rauskommt? Imo das logischere. Die High-End user werden wohl eh ein paar Wochen warten, die Ultra Hig-End User kaufen halt sofort.

Ailuros
2004-04-22, 16:59:55
Denkst du nicht, dass ATI den X800Pro am Start auch für
~500€ rausschmeißenh wird und den preis senken wird, wenn der X800XT rauskommt? Imo das logischere. Die High-End user werden wohl eh ein paar Wochen warten, die Ultra Hig-End User kaufen halt sofort.

Nein. Nach der Ankuendigung kannst Du Dir die Spezifikationen wie Takrate/Speicher, Anzahl von SIMDs und den finalen Preis genauer anschauen.

Es gibt keinen Grund dass die X800PRO so viel kosten wuerde ganz im Gegensatz zur XT.

Ultra High end Kaeufer sind meistens am besten informiert und dass die XT fuer spaeter geplant ist, ist schon bekannt.

betasilie
2004-04-22, 17:07:28
Original geschrieben von Ailuros
Ich sagte ja je hoeher der Preis desto hoeher das Verkaufsvolumen.
Das meintest Du wohl anders. ;)

Ailuros
2004-04-23, 02:15:10
Arggghhhh ja.... je niedriger der Preis...:(

Gast
2004-04-23, 10:42:24
Original geschrieben von Gast
mit Google übersetzt :
....
=>
Assembler
sehr einfacher PS3.0 Shader
alle 4 Pixel des Quads nehmen den selben Pfad
nur Branching getestet, nichts sonst
9 Zyklen für diesen Shader


Tridam hat auf Beyond3D den Code für seinen Branching-Test veröffentlicht :


The answer is "No" at least with the current drivers (60.72). PS3.0 support isn't exposed until DX9.0c is installed. I've done some quick tests for our review. Branching is very costly. So costly that it looks like the drivers are buggy. 9 pipeline passes for the simplest branching I was able to think about :

ps_3_0

dcl vFace

def c0, 0, 0, 0, 0
def c1, 1, 0, 0, 0
def c2, 0, 1, 0, 0


if_ge vFace, c0.x
mov oC0, c1
else
mov oC0, c2
endif



Link : http://www.beyond3d.com/forum/viewtopic.php?t=11753&start=20&sid=a02aea2154e61c9a1ae691bd494b051e

ShadowXX
2004-04-23, 10:56:47
Original geschrieben von Gast
Tridam hat auf Beyond3D den Code für seinen Branching-Test veröffentlicht :



Link : http://www.beyond3d.com/forum/viewtopic.php?t=11753&start=20&sid=a02aea2154e61c9a1ae691bd494b051e

Hatte dieses Thema jetzt auch schon mehrfach in den nv40 Threads angesprochen.

Wenn es tatsächliche nicht an den Treibern liegen sollte, kann man die vorhandenen PS3.0 wohl nicht unbedingt zur Geschwindigkeitsoptimierung einsetzen...man sollte allerdings die Final-Treiber abwarten.

aths geht im durchschnitt eher von 5 Pipe-Zyklen aus...mal sehen was am ende rauskommt.

Aber im Endeffekt ist das SM3.0 des nv40 wohl eher für die Devs zu gebrauchen, als für jetzige bzw. in naher Zukunft erscheinende Games...

Ein Problem der nv40 Hardware bei Branch & Co scheint zu sein, das die Sprungpunkte wohl nicht zu dicht beieinander liegen dürfen...anders gesagt:
Gerade bei kurzen Shadern lohn es sich nicht wirklich...bei langen Shadern könnte es aber durchaus zu Geschwindigkeitsvorteilen kommen...

Dies soll übrigens keine kritik an nV oder dessen implementation sein...ich begrüsse es wirklich, das Sie den SM3.0 Support überhaupt anbieten...und es könnte für nV spätestens beim nv50 wirklich zum vorteil gereichen, da die Devs jetzt wohl wieder vermehrt nV-Hardware zum Entwickeln einstzen werden...

Demirug
2004-04-23, 11:09:04
Original geschrieben von Gast
Tridam hat auf Beyond3D den Code für seinen Branching-Test veröffentlicht :


ps_3_0

dcl vFace

def c0, 0, 0, 0, 0
def c1, 1, 0, 0, 0
def c2, 0, 1, 0, 0


if_ge vFace, c0.x
mov oC0, c1
else
mov oC0, c2
endif


Link : http://www.beyond3d.com/forum/viewtopic.php?t=11753&start=20&sid=a02aea2154e61c9a1ae691bd494b051e

sowas soll man ja laut nVidia eigentlich auch mit Predication machen. Zudem steht im SDK das man vFace nur mit >0 bzw <0 vergleichen soll. Also if_gt oder if_lt. Ein if_ge ist Blödsinn an dieser Stelle. Ich vermute aber mal stark das hat der HLSL Compiler da hingesetzt. Bei mir macht er öfter auch solche Scherze.

Gast
2004-04-25, 15:43:34
Original geschrieben von Gast
Ich gehe eigentlich davon aus, das beide Chips gleichzeitig vorgestellt werden und nur zu unterschiedlichen Zeiten verfügbar sind. IMHO wurde deshalb der Vorstellungstermin um ein paar Tage nach hinten verschoben.

ATi würde sich imho wirklich ins eigene Bein schießen, wenn sie zuerst nur den X800Pro vorstellen und 2 Wochen später dann den X800XT. Die Präsenz in den Medien wäre zwar höher ( 2 Launches statt einem ) aber bei mir würde das schon einen bitteren Nachgeschmack hinterlassen.

Bei mir nicht, bezüglich Nachgeschmack, bin ich mir doch ziemlich sicher das der Pro ziemlich abgehen wird und die NV-Kiste nicht mithalten kann.

BodyLove
2004-04-25, 16:17:36
Original geschrieben von Gast
Bei mir nicht, bezüglich Nachgeschmack, bin ich mir doch ziemlich sicher das der Pro ziemlich abgehen wird und die NV-Kiste nicht mithalten kann.

Tja, lieber Gast, mit der Aussage stehst du ziemlich alleine da. Daran glaubt keiner mehr.

Quasar
2004-04-25, 16:27:31
Original geschrieben von aths
Der R300 hat Nvidia überrascht.


Oder DirectX 9 hat nVidia überrascht! ;)

ram
2004-04-25, 18:58:29
Original geschrieben von Demirug
sowas soll man ja laut nVidia eigentlich auch mit Predication machen. Zudem steht im SDK das man vFace nur mit >0 bzw <0 vergleichen soll. Also if_gt oder if_lt. Ein if_ge ist Blödsinn an dieser Stelle.

Er hat es sowohl mit if_gt als auch if_ge probiert. Beides war gleich langsam.

Lemy
2004-04-26, 14:18:09
Original geschrieben von MechWOLLIer
Natürlich meinte ich ATI :)



Denkst du nicht, dass ATI den X800Pro am Start auch für
~500€ rausschmeißenh wird und den preis senken wird, wenn der X800XT rauskommt? Imo das logischere. Die High-End user werden wohl eh ein paar Wochen warten, die Ultra Hig-End User kaufen halt sofort.



ATi würde sich imho wirklich ins eigene Bein schießen, wenn sie zuerst nur den X800Pro vorstellen und 2 Wochen später dann den X800XT. Die Präsenz in den Medien wäre zwar höher ( 2 Launches statt einem ) aber bei mir würde das schon einen bitteren Nachgeschmack hinterlassen.


Ich bin Überzeugt, dass die Verzögerung daher kommt, dass ATI für die marketingtechnisch IRRE-MEGA-HYER-wichtigen ERSTEN direkten Vergleichstest zwischen ATI und NVIDIA - respektive R420 vs NV40 - die XT Variante verwendet sehen will ...




Nehmen wir mal an es würde die 800-Pro zuerst rauskommen ...

---> SÄMTLICHE Vergleichstest die du finden wirst, werden
dann erstmal NV40 gegen diese abgespeckte Pro Variante antreten lassen ....

Auch wenn die versierten Anwender wissen wieso der NV40 dann überlegen ist würde dies trotzdem für ATI ein negatives Marketing bei Otto-Normal-Verbraucher sein ...

Und das ist meiner Meinung nach der EINZIGE Grund für die Verschiebung .... Reines Marketing, damit die XT Version gegen den NV40 antreten kann bei den ersten direkten Vergleichstests ....



Jemand anderer Meinung ??? *g* /slap :p


Gruß

Lemy