PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV31 und NV34 3DMARK03 Werte !!!


Lorien
2003-02-28, 11:23:44
Wie auf http://www.the-inquirer.com/ zu lesen sind erste Benchmark werte der beiden Mainstream Nvidia Karten zu lesen die ja schon demnächst im Handel sein sollen.

Nun sollte jeder wissen weshalb Nvidia den 3DMARK03 so wehement einstampfen will.

Hier die Ergebnisse:

NV31 was ja die schnellere der beiden sein soll bringt maximal nur satte 2389 Punkte mehr ned !

NV34 hat sogar nur 879 !

Da bin ich echt mal gespannt wie das mit NVidia weitergehen soll.

Das wird ein hartes Jahr meiner Meinung nach.

Grüsse Lorien

x-dragon
2003-02-28, 12:03:42
Originally posted by Lorien
Wie auf Inquirer zu lesen sind erste Benchmark werte der beiden Mainstream Nvidia Karten zu lesen die ja schon demnächst im Handel sein sollen.

Nun sollte jeder wissen weshalb Nvidia den 3DMARK03 so wehement einstampfen will.

Hier die Ergebnisse:

NV31 was ja die schnellere der beiden sein soll bringt maximal nur satte 2389 Punkte mehr ned !

NV34 hat sogar nur 879 !

Da bin ich echt mal gespannt wie das mit NVidia weitergehen soll.

Das wird ein hartes Jahr meiner Meinung nach.

Grüsse Lorien Ein Link wäre nicht schlecht :). Stand da auch mit welchen Treibern das gestestet wurde?

Tiamat
2003-02-28, 12:11:29
Sieht ziemlich entäuschend aus.
Der Wert für den Nv34 finde ich sogar katastrophal.
Selbst auf meinem System (Thunderbird 1333 und G3ti200) komme ich auf den ca. den selben Wert.Also dürfte der Nv34 vielleicht das Produkt darstellen was man von der Mx200 oder TNTM64 gewohnt ist , ich schätze mal aus dem selben Grund (64bit Speicheranbindung).
Zum NV31 Ergebnis muss man halt erstmal sehen werden wieviel Vorteile der Pixelshader 1.4 ggü 1.3 bringt beim 3dMArk 2003.
Ich schätze mal ne ganze Menge ;).. was man ja bald konkret vergleichen kann sobald die ersten NV31 Karten erscheinen.
Gruß
Tiamat

Demirug
2003-02-28, 12:21:39
Ich Quote mich mal selbst aus einen anderen Thread:

Wenn die Gerüchte stimmen ist der NV34 schon ein DX9 Chip. Allerdings wurde dort angeblich bei den Vertexshader massiv gespart so das hier viel von der CPU gemacht werden muss. Das GF4MX Prinzip also. Beim 3DMark der ja sehr verschwenderisch mit Vertexshader power umgeht kann ich mir diesen Einbruch deshalb gut vorstellen.

Unregistered
2003-02-28, 12:27:14
Originally posted by Tiamat

Zum NV31 Ergebnis muss man halt erstmal sehen werden wieviel Vorteile der Pixelshader 1.4 ggü 1.3 bringt beim 3dMArk 2003.
Ich schätze mal ne ganze Menge
Tiamat

bringt genau 0,0. kann jeder mit einer Radeon8500/3danalyzer nachmessen.

zeckensack
2003-02-28, 12:33:33
Originally posted by Tiamat
Zum NV31 Ergebnis muss man halt erstmal sehen werden wieviel Vorteile der Pixelshader 1.4 ggü 1.3 bringt beim 3dMArk 2003.
Ich schätze mal ne ganze Menge ;).. was man ja bald konkret vergleichen kann sobald die ersten NV31 Karten erscheinen.
Gruß
Tiamat Wenn das Teil PS2.0 kann, dann kann es auch PS1.4.
Das ist nach DX-Standard sogar Pflicht, und davon abgesehen auch wirklich nicht zuviel verlangt.
Ich weiß also nicht, was PS1.3 vs PS1.4 mit NV3x zu tun haben soll :|

Pitchfork
2003-02-28, 12:38:08
Ganz einfach: nv3x Hardware berechnet ps_1_4 und ps_2_x mit der neuen fp Shading Einheit, während die ps_1_1 bis ps_1_3 Shader mit den alten Register Combinern durchlaufen werden und die sind anscheinend immer noch ein hübsches Stück schneller.

Unregistered
2003-02-28, 12:56:50
Originally posted by Pitchfork
Ganz einfach: nv3x Hardware berechnet ps_1_4 und ps_2_x mit der neuen fp Shading Einheit, während die ps_1_1 bis ps_1_3 Shader mit den alten Register Combinern durchlaufen werden und die sind anscheinend immer noch ein hübsches Stück schneller.

selber schuld von NV :)

2B-Mav.. auf der Arbeit... :(

zeckensack
2003-02-28, 13:00:54
Originally posted by Pitchfork
Ganz einfach: nv3x Hardware berechnet ps_1_4 und ps_2_x mit der neuen fp Shading Einheit, während die ps_1_1 bis ps_1_3 Shader mit den alten Register Combinern durchlaufen werden und die sind anscheinend immer noch ein hübsches Stück schneller. Gutes Argument :)

Auf die Gefahr hin, jetzt arg negativ zu klingen :D
Ich denke NV hätte die Register Combiner-HW endlich wegwerfen sollen. Seit der Geforce 1 schleppen sie das Zeug nun schon mit sich herum. Spätestens seit der Gf4Ti wäre es Zeit für etwas neues gewesen. IMO natürlich ;)

Demirug
2003-02-28, 13:10:34
Originally posted by zeckensack
Gutes Argument :)

Auf die Gefahr hin, jetzt arg negativ zu klingen :D
Ich denke NV hätte die Register Combiner-HW endlich wegwerfen sollen. Seit der Geforce 1 schleppen sie das Zeug nun schon mit sich herum. Spätestens seit der Gf4Ti wäre es Zeit für etwas neues gewesen. IMO natürlich ;)

Bei der GF4TI war da nichts zu machen. Bei einem Refresh-Chip baut man nicht gesamte Pipeline um. So schlecht sind die Reg-Combiner ja eigentlich auch gar nicht. Aber beim NV30 hätte man sich das wirklich sparen sollen. Aber NVIDIA braucht wohl immer einen übergangschip mit beiden Techniken. (s. GF3 HT&L und VS). Meine Vermutung ist also das beim NV35 die neuen ALUs auch die Aufgabe der Reg-Combiner übernehmen. Möglicherweise aber auch schon beim NV31 oder NV34 da man ja dort Transi sparen möchte.

Unregistered
2003-02-28, 13:15:07
Originally posted by zeckensack
Gutes Argument :)

Auf die Gefahr hin, jetzt arg negativ zu klingen :D
Ich denke NV hätte die Register Combiner-HW endlich wegwerfen sollen. Seit der Geforce 1 schleppen sie das Zeug nun schon mit sich herum. Spätestens seit der Gf4Ti wäre es Zeit für etwas neues gewesen. IMO natürlich ;)

<rant>

Yep, anscheinend ist ja wohl der R300 viel Revolutionärer als der NV30, da beim R300 alles mit den FP-Einheiten berechnet wird und damit das Design komplett auf die neuen Gegebenheiten umgestellt werden musste.

Beim NV30 handelt es sich ja anscheinend im einen NV25 mit "bolt-on" FP-units, die viel zu langsam laufen und ineffizient angebunden sind. Deshalb hat der NV30 auch 125Mio Transistoren, da ja 2 halbe Chips drin stecken.

R300 = effizientes elegantes Chip-Design
NV30 = Recycling veralteter Int-Units + schrottige FP-units; nichts halbes und nichts ganzes, typisch Nvidia eben.

<rant-off>

Demirug
2003-02-28, 13:34:46
Originally posted by Unregistered


<rant>

Yep, anscheinend ist ja wohl der R300 viel Revolutionärer als der NV30, da beim R300 alles mit den FP-Einheiten berechnet wird und damit das Design komplett auf die neuen Gegebenheiten umgestellt werden musste.

Beim NV30 handelt es sich ja anscheinend im einen NV25 mit "bolt-on" FP-units, die viel zu langsam laufen und ineffizient angebunden sind. Deshalb hat der NV30 auch 125Mio Transistoren, da ja 2 halbe Chips drin stecken.

R300 = effizientes elegantes Chip-Design
NV30 = Recycling veralteter Int-Units + schrottige FP-units; nichts halbes und nichts ganzes, typisch Nvidia eben.

<rant-off>

Das stimmt so nicht unbedingt.

Das Design des R300 ist bei weitem nicht so Revolutionärer wie man denken mag. Es Handelt sich dabei viel mehr um das R200 Design welches auf FP umgestellt wurde. Es wurden primär die Fixed Punkt ALUs gegen Fliesspunkt ALUs getauscht und die Loopback counts erhöht.

Den NV30 als aufgeborten NV25 zu sehen wird dem Chip nicht ganz gerecht. Der Vertexshader ist zum Beispiel komplett überarbeitet. Die FP ALUs der Pixelpipline sind rein vom Featureset gesehen sehr gut. Allerdings ist die Performances die sie zur Zeit an den Tag legen eher schwach. Und was das mit den alten Reg-Combiner soll habe ich auch nicht so ganz verstanden. Dabei handelt es sich wohl wirklich um eine NVIDIA Marotte erst mal das bewährte im Chip zu lassen bevor man es beim nächsten Chip durch die neue Einheit nachbilden läst.

ShadowXX
2003-02-28, 14:26:46
@Demirug

Ich finde es (nachdem ich diverse Threads über die GFFX vs. R300 gelesen habe) immer wieder interessant, dass unglaublich viele die technik der fx "schönreden" (ich nenne es mal so).
Selbst die ATI-Fans unter den 3D-Programmierern verteidigen die fx. Dies passiert sogar selbst dann wenn es eindeutige Nachteile der fx-Technologie sind.
Zum Beispiel der ARB2 Path bei Doom3.
Dies ist nicht der ATI-Path, das ARB hat auch mit ATI nix zu tun. Der ARB/ARB2-Path sind die Standardpfade (OGL Fragmentshader). Die R300 kommt mit den Standardpfaden wesentlich besser zurecht als die fx. Auf der fx muss der Standardpfad nämlich mit fp32 durchlaufen werden (was zu den berüchtigten 50% Leistungsverlust führt).
Die nv Karte dagegen braucht einen speziellen Pfad, welcher extra Programmiert werden muss und dort unter anderem dann auch nur fp16 einsetzt. D.h. die BQ ist bei Doom3 ist auf der r300 besser als auf der fx. Jetzt werden viele sagen: "Ach, ob nun 16 oder 24-Bit fp...sieht man ja gar nicht....". Das mag auf den ersten Blick (in diesem Fall auf den Bildschirm) tatsächlich so sein, aber ich habe in verschiedenen anderen Foren auch schon andere Stimmen gehört.
Davon mal ganz abgesehen muss der Programmierer für den nv30 auf jedenfall Extraschichten schieben und das Kostet Geld. Einem JC und ID mag das ja egal sein, da diese sowieso zum grössten Teil von den Lizenzgebühren für Ihre Engine leben, aber die anderen Programmierer bei anderen Firmen sehen dies vielleicht nicht genauso.

Davon mal ganz abgesehen...ist fp16 überhaupt dx9 konform????(ich war der Meinung das es fp24 sein muss, kann mich aber auch irren...)

Soweit ich mich erinnere hat nv mal gesagt das die alten integer-Einheiten für DX7 bzw. DX8 dringelassen wurden und das zumindest alle dx7 "sachen" über eben diese Laufen (und vielleicht auch mehr als wir denken bei dx8).
Könnte nicht auch daher die niedrigere Geschwindigkeit der Emulierten PS1.4 Shader kommen. Ich meine damit, dass die PS1.4 Shader Sachen gar nicht von den neuen fp-Einheiten Emuliert werden, sondern vielleicht von den alten Integereinheiten?? Dies würde auch erklären warum nv meint das viel zu wenig dx9 Effekte im 3dMurks2003 vorhanden sind. Wenn es viele reine dx9 Effekte geben würde würden diese (wenn meine Vermutung stimmt) von den neuen ps2.0+ Einheiten berechnet(=schnell), da Futuremark aber auch bei Mother Nature viel mit PS1.4,1.3 u. 1.1 macht wird die fx langsamer, da dies dann nur von den int-Einheiten gemacht wird.

Wie gesagt, letzteres ist nur eine Spekulation....

MfG
J.S.Shadow

Quasar
2003-02-28, 15:09:18
Der ARB2-Pfad ist sehr wohl mit dem R300-Pfad quasi-identisch, da die ATi-Fragment-Shader Extension IIRC 1:1 als ARB2 Fragment-Shader Extension übernommen wurde.
Das sollte ATi von der Performance her nicht zum Nachteil gereichen.

Was mich wundert ist der niedrige Transistor-Count des nV30, nach allem, was ihm so durch die Monate hindurch angedichtet wurde.
8xGF2-Register Combiner, 1xGF3-Shader, 1xGF4-Shader, 1xGF4MX-2D-Einheit, 1xGF4MX VPE/DVD-Einheit, 1xGF4MX HSR-Einheit, FP-Shader (womöglich separat für 16Bit und 32Bit) und dazu noch das berüchtige Cache-Wurmloch in der Mitte des Chips, das nVidia zur TNT-Zeit nachgesagt wird....das müsste doch schon bald eine halbe Milliarde Transistoren ergeben, oder? ;)

Demirug
2003-02-28, 15:10:18
Originally posted by ShadowXX
@Demirug

Ich finde es (nachdem ich diverse Threads über die GFFX vs. R300 gelesen habe) immer wieder interessant, dass unglaublich viele die technik der fx "schönreden" (ich nenne es mal so).
Selbst die ATI-Fans unter den 3D-Programmierern verteidigen die fx. Dies passiert sogar selbst dann wenn es eindeutige Nachteile der fx-Technologie sind.

Ich sehe das nicht als schönreden aber das ist wohl ansichtssache.

Zum Beispiel der ARB2 Path bei Doom3.
Dies ist nicht der ATI-Path, das ARB hat auch mit ATI nix zu tun. Der ARB/ARB2-Path sind die Standardpfade (OGL Fragmentshader). Die R300 kommt mit den Standardpfaden wesentlich besser zurecht als die fx. Auf der fx muss der Standardpfad nämlich mit fp32 durchlaufen werden (was zu den berüchtigten 50% Leistungsverlust führt).
Die nv Karte dagegen braucht einen speziellen Pfad, welcher extra Programmiert werden muss und dort unter anderem dann auch nur fp16 einsetzt. D.h. die BQ ist bei Doom3 ist auf der r300 besser als auf der fx. Jetzt werden viele sagen: "Ach, ob nun 16 oder 24-Bit fp...sieht man ja gar nicht....". Das mag auf den ersten Blick (in diesem Fall auf den Bildschirm) tatsächlich so sein, aber ich habe in verschiedenen anderen Foren auch schon andere Stimmen gehört..

Die ARB_fragment_program OpenGL Extension war ursprünglich die "ATI_fragment_program" (oder so ähnlich) Extension. Da die Hersteller aber immer wieder darum gebeten werden den Wildwuchs bei den Extensions einzudämen haben sich die IHV zusammengesetzt und sich auf die ATI Extension als kleinsten gemeinsamen Nenner geeinigt. Und so wurde aus einer ATI Extension eine ARB Extension. Da ATIs R300 nicht mehr kann als diese Extension vorsieht konnte ATI (im gegensatz zu NVIDIA) darauf verzichten noch eine eigene Extension zu schreiben.

Natürlich ist fp24 etwas besser als fp16. Der Visuele unterschied hängt aber sehr stark von den benutzten Shaderanweisungen und der Rheienfolge ab. Bei DOOM III ist diese Betrachtung aufgrund der Tatsache das man die Lichtquellen nur mit 8 Bit Genauigkeit addieren kann sowieso etwas komplizierter.

Davon mal ganz abgesehen muss der Programmierer für den nv30 auf jedenfall Extraschichten schieben und das Kostet Geld. Einem JC und ID mag das ja egal sein, da diese sowieso zum grössten Teil von den Lizenzgebühren für Ihre Engine leben, aber die anderen Programmierer bei anderen Firmen sehen dies vielleicht nicht genauso.

Wer möglichst wenig Extraschichten für unterschiedliche Grafikchips schieben will nimmt sowieso kein reines OpenGL (mit Vendor-Extensions)sondern DirectX und HLSL oder eben Cg.

Davon mal ganz abgesehen...ist fp16 überhaupt dx9 konform????(ich war der Meinung das es fp24 sein muss, kann mich aber auch irren...)

Es ist konform. Allerdings muss der Shadercode der Karte erlauben die geringe Genauigkeit zu nutzen.

Soweit ich mich erinnere hat nv mal gesagt das die alten integer-Einheiten für DX7 bzw. DX8 dringelassen wurden und das zumindest alle dx7 "sachen" über eben diese Laufen (und vielleicht auch mehr als wir denken bei dx8).

Offizel ist es nicht. Aber ich gehe im Moment davon aus. Wenn sie noch drin sind werden wohl alle Shader bis zum 1.3 auf der alten Einheit laufen. Mit Ausnahme des Textursamplings das man wohl etwas ändern musste weil die TMUs jetzt anders angebunden sind.

Könnte nicht auch daher die niedrigere Geschwindigkeit der Emulierten PS1.4 Shader kommen. Ich meine damit, dass die PS1.4 Shader Sachen gar nicht von den neuen fp-Einheiten Emuliert werden, sondern vielleicht von den alten Integereinheiten?? Dies würde auch erklären warum nv meint das viel zu wenig dx9 Effekte im 3dMurks2003 vorhanden sind. Wenn es viele reine dx9 Effekte geben würde würden diese (wenn meine Vermutung stimmt) von den neuen ps2.0+ Einheiten berechnet(=schnell), da Futuremark aber auch bei Mother Nature viel mit PS1.4,1.3 u. 1.1 macht wird die fx langsamer, da dies dann nur von den int-Einheiten gemacht wird.

Wie gesagt, letzteres ist nur eine Spekulation....

MfG
J.S.Shadow

Die alten Reg-Combiner sind technisch nicht in der Lage PS 1.4 Shader abzuarbeiten und die Änderungen dafür sind auch zu gross als das man das mal schnell macht (sonst könnte die GF4TI auch PS 1.4). Im Moment machen auch eher die FP-Shader (PS 1.4 gehört für die FX dazu) Probleme. Das der Test1 (DX7) so schlecht performt liegt daran das der FX Chip kein Single-Texturing mag.

ShadowXX
2003-02-28, 15:18:34
@Demirug

Danke für die Antworten...das mit ARB hatte ich etwas anders verstanden als ich den Text darüber gelsen habe, aber dafür sind Foren ja da, damit man was dazulernt (unter anderem).

Du musst allerdings zugeben das (meiner Meinung nach) nv sich damit durchaus eine Extra-Wurst brät.

Aber mal eine OT-Frage zu PS1.4 und GF4:
Hat die GF4 den PS1.4 nur über die Treiber Emuliert(=per SW)??? Der 3DMurks2001SE PS1.4 Test läuft ja....

MfG
J.S.Shadow

Xmas
2003-02-28, 15:29:01
Originally posted by Quasar
Was mich wundert ist der niedrige Transistor-Count des nV30,
Was mich wundert ist eher der hohe Transistor-Count im Vergleich zum R300 und dessen Fähigkeiten.

Aber zum "Schönreden" muss man sagen, dass es ganz unabhängig von der Geschwindigkeit klar ist, dass die GFFX deutlich fähigere Pixelpipelines als der R300 hat. Zum Programmieren hätte ich auf jeden Fall lieber eine GFFX als eine R9700.

Quasar
2003-02-28, 15:35:54
Originally posted by ShadowXX
Aber mal eine OT-Frage zu PS1.4 und GF4:
Hat die GF4 den PS1.4 nur über die Treiber Emuliert(=per SW)??? Der 3DMurks2001SE PS1.4 Test läuft ja....


Das ist der Advanced Pixel Shader Test, den du meinst, oder? Wenn ja, dann läuft er nur, weil er mit einem Fallback auf PS1.3 oder 1.1 arbeitet.
Keine nV<30 kann mit Pixelshader 1.4 etwas anfangen.

Demirug
2003-02-28, 15:36:27
Originally posted by ShadowXX
@Demirug

Danke für die Antworten...das mit ARB hatte ich etwas anders verstanden als ich den Text darüber gelsen habe, aber dafür sind Foren ja da, damit man was dazulernt (unter anderem).

Du musst allerdings zugeben das (meiner Meinung nach) nv sich damit durchaus eine Extra-Wurst brät.

Aber mal eine OT-Frage zu PS1.4 und GF4:
Hat die GF4 den PS1.4 nur über die Treiber Emuliert(=per SW)??? Der 3DMurks2001SE PS1.4 Test läuft ja....

MfG
J.S.Shadow

Bei OpenGL brät sich grundsätzlich jeder immer irgendwelche Extra-Würste. Und wenn ATI mehr könnte als die ARB_fragment_program Extension vorsieht dann hätte ATI auch ganz schnell noch eine ATI_fragment_program Extension gebaut.

Die GF4 kann keine PS 1.4 und wird sie auch nie können. Der Advanced Shader Test beim 3DMark2001SE kann entweder 1.4 oder auch 1.x (x = 2 oder 3. Ich bin mir da gerade nicht ganz sicher) benutzen.

Ailuros
2003-02-28, 16:06:51
Natürlich ist fp24 etwas besser als fp16. Der Visuele unterschied hängt aber sehr stark von den benutzten Shaderanweisungen und der Rheienfolge ab. Bei DOOM III ist diese Betrachtung aufgrund der Tatsache das man die Lichtquellen nur mit 8 Bit Genauigkeit addieren kann sowieso etwas komplizierter.

Das dass uralte bits per pixel Argument in einer anderen Form auftaucht wurde ja schon vorgesehen. Mit limitierter Anzahl von Texturen in Spielen (ja selbst in DoomIII), sehe ich als "layman" es schwer dass man Unterschiede zwischen FP16 und FP24 mit blossem Auge in real time auch wirklich sehen kann (mal die 8bittige Genauigkeit beiseite).

So wie ich das ganze sehe, wenn wahre dx9 Spiele zu Tage kommen mit multiple render targets, sind dann wohl weder NV30 oder R300 sowieso nicht mehr faehig fuer akzeptable Leistung (von hohen Aufloesungen und AA/aniso Kombinationen kann man wohl auch nicht mehr reden), und dabei ist dann wohl auch egal welche FP-Werte welche Karte benutzt.

Was ich damit sagen will, ist dass theoretisch all das toll klingt, aber es kann so manchen Laien zu Missverstaendnissen fuehren. Es ist zwar aeusserst wichtig fuer einen Entwickler, aber dem heutigen Kaeufer kann es trotzdem egal sein was welche theoretisch kann und mit welcher Leistung, zumindest fuer die durchschnittliche Lebenszeit der Karten.

Das Interesse sollte sich dann IMHO mehr auf die heute brauchbaren features konzentrieren. In diesem Sinn selbst wenn NV30 Verfuegbarkeit hoch waere, allein die Limitierung auf nur 2x Rotated Grid AA, spricht genug dagegen fuer den hardcore gamer der Qualitaet zu schaetzen vermag.

Ich entschuldige mich, dass ich das Ganze viel zu viel vereinfache....

Salvee
2003-02-28, 17:07:18
Originally posted by ShadowXX
...das mit ARB hatte ich etwas anders verstanden als ich den Text darüber gelsen habe, aber dafür sind Foren ja da, damit man was dazulernt (unter anderem).

Aber mal eine OT-Frage zu PS1.4 und GF4:
Hat die GF4 den PS1.4 nur über die Treiber Emuliert(=per SW)??? Der 3DMurks2001SE PS1.4 Test läuft ja....



Das im ARB auf den ATi-Extensions aufgebaut wird, liegt iirc auch oder hauptsaächlich daran, dass nV Lizenzgebühren für ihre Programme verlangen wollte, und sie damit beim ARB ziemlich abgeblitzt sind (sie sind kein ständiges Mitglied mehr, wenn ich mich richtig entsinne).

Der 3DM2k1 PS1.4 Test läuft auf NV20/25 in 2 passes (und das auf einer 4Ti schneller als auf einer R200 singlepass), wobei die rel. hohe Leistung von GF4 wohl am niedrigen Polycount des Tests liegt verbunden mit den starken VS von GF4.

Exxtreme
2003-02-28, 17:17:19
Originally posted by Demirug
Aber NVIDIA braucht wohl immer einen übergangschip mit beiden Techniken. (s. GF3 HT&L und VS).
Sicher?
Ich dachte immer, daß der NV20 1 VS hat und HW-T&L über den VS emuliert.

Demirug
2003-02-28, 18:23:20
Originally posted by Salvee


Das im ARB auf den ATi-Extensions aufgebaut wird, liegt iirc auch oder hauptsaächlich daran, dass nV Lizenzgebühren für ihre Programme verlangen wollte, und sie damit beim ARB ziemlich abgeblitzt sind (sie sind kein ständiges Mitglied mehr, wenn ich mich richtig entsinne).

NVIDIA war noch nie ständiges Mitglied. ARB wird aber nicht generel aus ATI-Extensions aufgebaut. Da sind auch Extensions drin die ursprünglich von anderen Firmen kommen. Die Vertex_Programm Extension kommt AFAIR von NVIDIA. Bei den FP-Fragment programmen konnte man ja nur die ATI-Extension nehmen oder was vollkommen neues schreiben. Und wenn die anderen IHV alle der Meinung waren das sie das was ATI da niedergelegt hat auch können warum dann etwas neues schreiben?

Demirug
2003-02-28, 18:28:12
Originally posted by Exxtreme

Sicher?
Ich dachte immer, daß der NV20 1 VS hat und HW-T&L über den VS emuliert.

Ob nun wirklich nochmal das komplette HW T&L aus der GF1/2 verbaut wurde kann ich jetzt auch nicht sagen. Aber im Optimizeguide für die GF3 stehen ein paar Dinge drin die zeigen das zumindestens noch Teile davon verbaut sind.


Vertex Operations

Vertex Program or Fixed Function Pipeline?

For operations that can be performed with the fixed
function pipeline, that should be used, because:
• it will be faster on GeForce3, if lighting-heavy

Fixed Function Pipeline Performance

GeForce3 fixed function pipeline performance will
scale in relation to NV1X in most cases

Two sided lighting is an exception – it is entirely
hardware accelerated in GeForce3

Performance penalty for two sided lighting vs. one
sided is dependent upon number of lights,
texgen, and other variables, but should be almost
free for “CAD lighting” (1 infinite light/viewer)

ow
2003-03-01, 11:45:32
Originally posted by Demirug

Der Advanced Shader Test beim 3DMark2001SE kann entweder 1.4 oder auch 1.x (x = 2 oder 3. Ich bin mir da gerade nicht ganz sicher) benutzen.


Er nutzt 1.4 oder 1.1. Kein 1.2/1.3.

aths
2003-03-01, 19:41:31
Originally posted by Demirug
Der Advanced Shader Test beim 3DMark2001SE kann entweder 1.4 oder auch 1.x (x = 2 oder 3. Ich bin mir da gerade nicht ganz sicher) benutzen. 1.4 oder 1.1 mit Dualpass.

LovesuckZ
2003-03-01, 19:47:47
Theinquirer (http://www.theinquirer.net/?article=8062)

As for performance, it appears that the 9600 Pro may only be between 20 per cent to 50 per cent ahead of the latest TI 4200 cards because of its inherent design.

The Radeon 9600 will have 64MB of 128-bit DDR memory, while the Radeon 9600 Pro will have higher clock speeds and quite possibly 128MB of memory.

Somit scheint die 9600 grad mal auf TI4200 Niveau zu liegen.
Das heißt aber auch, dass Nvidia mit dem NV31 noch alle Chancen gegen den RV350 hat!

/edit: Ist schon bekannt, wieviel Vertex Shader der NV31 haben wird?

The RV350 [...]uses two vertex pipes [...].

Salvee
2003-03-01, 20:01:44
Originally posted by LovesuckZ
Somit scheint die 9600 grad mal auf TI4200 Niveau zu liegen.
Das heißt aber auch, dass Nvidia mit dem NV31 noch alle Chancen gegen den RV350 hat!



Mal abgesehen davon, dass es der Inquirer ist, zwischen 20% und 50% (höchst präzise Angabe, btw.) schneller nennst du gleiches Niveau wie Ti4200?
Ti4600 würde da besser passen, imo.

LovesuckZ
2003-03-01, 20:33:38
Originally posted by Salvee
Ti4600 würde da besser passen, imo.

Ich meinte die normale 9600. Und das koennte schon hinhauen.

Salvee
2003-03-01, 21:06:31
Mein Fehler, sorry :)