PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce FX Pixelshader....


Liszca
2003-02-12, 21:18:00
Warum ist eigentlich der Pixelshader 2.0 so viel langsamer als bei ati? liegt das noch am treiber? Oder ist schwaecher, woran koennte das liegen.

Oder koennte es daran liegen das der pixelshader deshalb langsamer wird, weil er so viele instructionen kann?

BlackBirdSR
2003-02-13, 15:41:33
Originally posted by Liszca
Warum ist eigentlich der Pixelshader 2.0 so viel langsamer als bei ati? liegt das noch am treiber? Oder ist schwaecher, woran koennte das liegen.

Oder koennte es daran liegen das der pixelshader deshalb langsamer wird, weil er so viele instructionen kann?

PS 2.0 ist bei 128Bit genauigkeit nur halb so schnell wie bei 64Bit Genauigkeit.
Eventuell laufen sie momentan nur bei 128bit.
Allerdings bin ich mir nach dem Nvidia Event momentan nicht ganz sicher..

ich hoffe mal Beyond3d bringt da Licht in die Sache.

ToBi
2003-02-13, 19:53:17
Originally posted by BlackBirdSR
...Allerdings bin ich mir nach dem Nvidia Event momentan nicht ganz sicher...
Was genau meinnst du damit?...welches Evnt?

nggalai
2003-02-13, 20:06:39
Kurze, zweiteilige Antort:

1) Per default verwendet die GFFX fp32 für PS2.0. Radeon9700 weniger.

2) Treiber sind noch ziemlich Beta.

ta,
-Sascha.rb

[LOG]Skar
2003-02-13, 20:50:40
ich komme da zwar schnell mit den bit durcheinander aber ist nicht
der GF FX mit fp16 bei 64bit und mit fp32 bei 128bit?
und der ati mit immer fp24 ???bit (mehr als 64bit weniger als 128bit)

Demirug
2003-02-13, 20:55:27
Originally posted by [LOG]Skar
ich komme da zwar schnell mit den bit durcheinander aber ist nicht
der GF FX mit fp16 bei 64bit und mit fp32 bei 128bit?
und der ati mit immer fp24 ???bit (mehr als 64bit weniger als 128bit)

das fpxx gibt an mit wievielen Bits pro Farbe gerechnet wird. Da es 3 Farben (Rot, Grün und Blau) gibt und dazu noch ein Alphawert kommt muss man den Bitwert mit 4 multiplizieren um auf die Gesamtbitanzahl pro Pixel zu kommen. Also:

fp16 = 64 bit
fp24 = 96 bit
fp32 = 128 bit

Aquaschaf
2003-02-13, 22:30:38
Originally posted by nggalai
Kurze, zweiteilige Antort:

1) Per default verwendet die GFFX fp64 für PS2.0. Radeon9700 weniger.

2) Treiber sind noch ziemlich Beta.

ta,
-Sascha.rb
fp64 ?
hab ich was verpasst ?

nggalai
2003-02-13, 22:37:07
Originally posted by Aquaschaf

fp64 ?
hab ich was verpasst ? Ja, einen Vertipper. ;)

*korrigier*

ta,
-Sascha.rb

Unregistered
2003-02-15, 20:49:13
Originally posted by nggalai
Kurze, zweiteilige Antort:

1) Per default verwendet die GFFX fp32 für PS2.0. Radeon9700 weniger.



Na und?

Wenn ich die Diskussion auf Beyond3D richtig verstehe dann muss die GFFX fp32 benutzen um DX9.0 Compliant zu sein. Fp16 reicht dafür nicht aus, da DX9.0 fp24 als Minimum spezifiziert hat.


Die Diskussion um Fp16 / Fp24 und Fp32 ist also weitgehend nutzlos. Außer natürlich die Gerüchte, das die NV31 und NV24 Chips nur Fp16 beherrschen bestätigen sich. Dann sind diese Chips / Karten natürlich nicht DX9.0 Compliant!! Schlecht für Nvidia (da kein OEM die Karten anfassen wird, außer zu einem Sonderpreis) und gut für ATi.

Demirug
2003-02-15, 21:16:04
Originally posted by Unregistered


Na und?

Wenn ich die Diskussion auf Beyond3D richtig verstehe dann muss die GFFX fp32 benutzen um DX9.0 Compliant zu sein. Fp16 reicht dafür nicht aus, da DX9.0 fp24 als Minimum spezifiziert hat.


Die Diskussion um Fp16 / Fp24 und Fp32 ist also weitgehend nutzlos. Außer natürlich die Gerüchte, das die NV31 und NV24 Chips nur Fp16 beherrschen bestätigen sich. Dann sind diese Chips / Karten natürlich nicht DX9.0 Compliant!! Schlecht für Nvidia (da kein OEM die Karten anfassen wird, außer zu einem Sonderpreis) und gut für ATi.

Das ist so nicht ganz richtig.

DX9 schreibt vor das ein Chip die Möglichkeit bieten muss Texturkorrdinaten mit mindestens fp24 rechnen zu können. Neben einem >= fp24 Modus ist aber auch noch ein zweiter Modus mit >= fp16 erlaubt. Der Chip darf aber nicht eigenmächtig diese zweiten Modus benutzen sondern nur wenn im Shadercode ein entsprechender Vermerk (pp = Partial Precision) vorhanden ist. Und diesen Vermerk wird man in Spielen dann häufiger finden weil fp16 für Spiele reicht.

Sollten NV31 und NV34 allerdings die >= fp24 wirklich nicht haben hast du recht. Aber um ehrlich zu sein glaube ich das nicht so ganz. Da wird sicherlich an anderer Stelle gespart.

nggalai
2003-02-15, 21:29:33
Hi Unreg,
Originally posted by Unregistered
Na und?

Wenn ich die Diskussion auf Beyond3D richtig verstehe dann muss die GFFX fp32 benutzen um DX9.0 Compliant zu sein. Fp16 reicht dafür nicht aus, da DX9.0 fp24 als Minimum spezifiziert hat.

Die Diskussion um Fp16 / Fp24 und Fp32 ist also weitgehend nutzlos. Außer natürlich die Gerüchte, das die NV31 und NV24 Chips nur Fp16 beherrschen bestätigen sich. Dann sind diese Chips / Karten natürlich nicht DX9.0 Compliant!! Schlecht für Nvidia (da kein OEM die Karten anfassen wird, außer zu einem Sonderpreis) und gut für ATi. Bis zu deinem Posting war noch gar keine Diskussion zum Thema fp16 / 24 / 32 am laufen. ;) Meine Post ist genau so zu lesen wie sie da steht.

Frage: Weshalb sind PS2.0 auf GFFX soviel lahmer als auf Radeon9700?

Meine Einschätzung: höhere Renderprezision und Beta-Treiber.

ta,
-Sascha.rb

aths
2003-02-15, 21:45:54
Originally posted by nggalai
Hi Unreg,
Bis zu deinem Posting war noch gar keine Diskussion zum Thema fp15 / 24 / 32 am laufen. ;) Meine Post ist genau so zu lesen wie sie da steht. fp15? "genau so"?

SCNR :naughty:

tEd
2003-02-15, 21:49:14
Originally posted by nggalai
Hi Unreg,
Bis zu deinem Posting war noch gar keine Diskussion zum Thema fp15 / 24 / 32 am laufen. ;) Meine Post ist genau so zu lesen wie sie da steht.

Frage: Weshalb sind PS2.0 auf GFFX soviel lahmer als auf Radeon9700?

Meine Einschätzung: höhere Renderprezision und Beta-Treiber.

ta,
-Sascha.rb

Würde wenn der gffx 24bit fp präzision hätte schneller sein als 32bit fp? Ich glaube nicht.

aths
2003-02-15, 22:04:15
Originally posted by tEd
Würde wenn der gffx 24bit fp präzision hätte schneller sein als 32bit fp? Ich glaube nicht. Nun, das hängt davon ab. Die FX ist konstruiert, dass man 16 oder halt 32 Bit in halber Geschwindigkeit hat, während ATI immer sozusagen "single pass" (Ausdruck ist eigentlich unkorrekt) mit 24 Bit rechnet.

nggalai
2003-02-15, 22:08:45
Originally posted by aths
fp15? "genau so"?

SCNR :naughty: Jaja, immer dieser Alkohol am Steuer, err, PC . . . :D

ta,
-Sascha.rb

StefanV
2003-02-15, 22:13:31
Originally posted by nggalai

Meine Einschätzung: höhere Renderprezision und Beta-Treiber.

ta,
-Sascha.rb
Das es an der höheren Präzision liegt, das wage ich stark zu bezweifeln...

Es liegt eher an der internen Architektur der Chips, ist IMHO ähnlich wie bei 32bit Rentering bei TNT2 vs Rage128 PRO vs G400...

tEd
2003-02-15, 22:24:46
Originally posted by aths
Nun, das hängt davon ab. Die FX ist konstruiert, dass man 16 oder halt 32 Bit in halber Geschwindigkeit hat, während ATI immer sozusagen "single pass" (Ausdruck ist eigentlich unkorrekt) mit 24 Bit rechnet.

Mich würde doch sehr interessieren in wie weit sich die genauigkeit beim gffx auswirkt.

wieviel schneller ist man mit 12bit int zu 16bit fp

wieviel schneller ist man mit 16bit fp zu 32bit fp

Am besten wäre es wenn jemand ein grafik demo machen könnte wo man genau das testen könnte.

Unregistered
2003-02-16, 15:21:20
Originally posted by nggalai

Frage: Weshalb sind PS2.0 auf GFFX soviel lahmer als auf Radeon9700?

Meine Einschätzung: höhere Renderprezision und Beta-Treiber.

ta,
-Sascha.rb

Na, dann haben sie aber noch viel Arbeit vor sich, die Herren Treiberprogrammierer. Das GFFx-Review auf IXBT.com zeigt zumindest das bis jetzt fp16 und fp32 gleich schnell (oder soll man nicht besser "gleich langsam" sagen) sind.

guckst du hier : http://www.ixbt.com/video2/gffx-ref-p4.shtml

schaut auf jeden Fall nicht gut aus für Nvidia. Die Treiber sind entweder noch "Alpha" oder aber die GFFx ist Schrott (soweit es die Pixelshader betrifft, die ja für die "Zukunftsfähigkeit" notwendig sind).