PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DOOM 3 benchmarks NV35/R350


Seiten : [1] 2

nagus
2003-05-12, 15:22:56
http://www.hardocp.com/article.html?art=NDc0


heilige sch**** wieso bloß ist die 9800PRO 256MB hier so langsam??
treiber? spezielle nvidia optimierte version?

eigentlich nicht vorstellbar, sind doch die 9800PRO mit 256MB und die NV35ULTRA praktisch fast gleich schnell in anderen testes...


nachtrag:
"If you were saying to yourself that something is not right here, we would have to agree with you. It seems that ATI's latest Catalyst driver is broken when it comes to running DOOM 3."

... hab ich nirgendwie auch so das gefühl

Seraf
2003-05-12, 15:27:43
Hat Carmack nicht mal gesagt das die Nv3x in Arb2 langsamer aber mit eigenen Extensions schneller als ATI Grafikkarten sind? ?-)


Aber mal abwarten und Tee trinken.

Demirug
2003-05-12, 15:29:52
Wie sagt NVIDIA doch so schön

The NV35 was built to play DOOM.

Aber ernsthaft. Es könnte durchaus sein das der Treiber von NVIDIA schon besser auf DOOM abgestimmt ist.

Seraf
2003-05-12, 15:31:07
Originally posted by nagus
nachtrag:
"If you were saying to yourself that something is not right here, we would have to agree with you. It seems that ATI's latest Catalyst driver is broken when it comes to running DOOM 3."

... hab ich nirgendwie auch so das gefühl


Aber nur mit den neuen 3.4!

Unter den 3.2 siehts zwar besser. Gegen den Nv35 reichts aber trotzdem um längen nicht.


Schon cool wie ATI Treiber optimiert,,,,,

Exxtreme
2003-05-12, 15:31:51
Och kommt schon Mädelz,

Ein Test einer Alpha-Version sagt gar nichts aus. Das hatten wir schon so oft.

Liquaron
2003-05-12, 15:32:56
Originally posted by Seraf



Aber nur mit den neuen 3.4!

Unter den 3.2 siehts zwar besser. Gegen den Nv35 reichts aber trotzdem um längen nicht.


Schon cool wie ATI Treiber optimiert,,,,,

Naja Wayne interessierts wie die ATI Treiber jetzt auf Doom3 reagieren. Das Spiel ist halt noch längst nicht raus. Ati wird sich schon was einfallen lassen.

Ich würde doch auch nicht jetzt schon auf ein Game optimieren was erst in ein ein paar Monaten rauskommt.

Ati wird schon wissen was zu tun ist.

[dzp]Viper
2003-05-12, 15:32:59
ausserdem - nagus .. langsam reichts ... warum kannst du das nicht in dem 9800 thread mit posten .. - ausserdem wird da schon drüber diskutiert - und nicht erst sein 2 minuten ....

musst du für JEDEN scheiss einen thread aufmachen .. is ja schlimm ...

Demirug
2003-05-12, 15:33:16
Originally posted by Exxtreme
Och kommt schon Mädelz,

Ein Test einer Alpha-Version sagt gar nichts aus. Das hatten wir schon so oft.

nix Alpha Exxtreme. Der Test ist von id abgesegnet.

Carlo28
2003-05-12, 15:33:54
Jup! Nvidia strikes Back!

Exxtreme
2003-05-12, 15:34:29
Originally posted by Demirug


nix Alpha Exxtreme. Der Test ist von id abgesegnet.
Thx, wusste ich nicht.

Axel
2003-05-12, 15:35:22
Der Test geht dermaßen daneben, daß ich mich frage, warum haben sie den überhaupt veröffentlicht.
Die Limitierung der 9800 auf 10FPS sagt sogar einem Laien wie mir, daß entweder der ATi-Treiber oder bei D3 was nicht stimmt.

[dzp]Viper
2003-05-12, 15:36:47
finde ich auch - entweder bei dem ihrem system war etwas nicht in ordnung, oder es geht allgemein nicht, aber warum hat dann ID das abgesegnet ??? - dann müssten die das doch wissen ... komisch komisch ..

Unregistered
2003-05-12, 15:38:28
also ich find der test bei http://www.hardocp.com/ nich so schoen
NV hat guten chip gebracht
aber so mies ist der ATI r350 nich
warten wir mal bessere tester ab
die tests bei http://www.anandtech.com sind viel besser
und is von allem was dabei
nur is die seite hoffnungslos ueberlastet
kein wunder hehe

Seraf
2003-05-12, 15:38:40
Seit ihr alle blind??


John Carmack has described the demo we used as a random code drop from a recent build of DOOM 3 and he believes it to be representative of the final game in a performance sense.


Und dann noch die Benches mit dem 3.2 (die nicht so katastrophal sind wie die vom 3.4)

http://www.hardocp.com/article.html?art=NDc0LDI=

Demirug
2003-05-12, 15:39:18
Liest da überhaupt jemand den Text oder schaut ihr euch nur den ersten Graph an?

daflow
2003-05-12, 15:39:25
Originally posted by Axel
Der Test geht dermaßen daneben, daß ich mich frage, warum haben sie den überhaupt veröffentlicht.
Die Limitierung der 9800 auf 10FPS sagt sogar einem Laien wie mir, daß entweder der ATi-Treiber oder bei D3 was nicht stimmt.

lies mal weiter mit Test, das mit den durchgehend 10fps irgendwas mit dem Treiber net stimmt darüber braucht man nicht diskutieren. der Unterschied mit dem anderen d3-kompatiblen ATI-treiber ist nichtsdestotrotz recht krass

DrumDub
2003-05-12, 15:41:23
Originally posted by [dzp]Viper
finde ich auch - entweder bei dem ihrem system war etwas nicht in ordnung, oder es geht allgemein nicht, aber warum hat dann ID das abgesegnet ??? - dann müssten die das doch wissen ... komisch komisch ..

<mode=verschwörungstheorie>nvidia hat carmack nen neuen f50 gekauft und der hat was in den source von doom 3 reingepackt, das die r 9800 pro mit 256mb bei 10 fps capt...</mode=verschwörungstheorie>

*eg*

[dzp]Viper
2003-05-12, 15:41:38
also wie ich das verstanden habe, sind mit dem cata 3.4 durchgehend 10 fps gewesen .. mit dem cata 3.2 aber nicht, dafür is der aber nicht doom3 optimiert .. hmm ..

naja - doom 3 is noch SOOOO weit weg .. bis dahin, wird sich noch viel im grakamarkt bewegen - darum finde ich die benchmarks auch absolut sinnlos ..

seahawk
2003-05-12, 15:42:11
OH,Oh bei max. Quality kommt die 5600U fast an die 9800 pro ran.

Exxtreme
2003-05-12, 15:42:25
Originally posted by [dzp]Viper
also wie ich das verstanden habe, sind mit dem cata 3.4 durchgehend 10 fps gewesen .. mit dem cata 3.2 aber nicht, dafür is der aber nicht doom3 optimiert .. hmm ..

naja - doom 3 is noch SOOOO weit weg .. bis dahin, wird sich noch viel im grakamarkt bewegen - darum finde ich die benchmarks auch absolut sinnlos ..
Full Ack!

Das einzige, was mich interessiert, sind Benches der Final-Version.

Demirug
2003-05-12, 15:46:19
Originally posted by Exxtreme

Full Ack!

Das einzige, was mich interessiert, sind Benches der Final-Version.

Viel wird sich da aber wohl nicht mehr tun.

John Carmack has described the demo we used as a random code drop from a recent build of DOOM 3 and he believes it to be representative of the final game in a performance sense.

Exxtreme
2003-05-12, 15:47:13
Originally posted by Demirug


Viel wird sich da aber wohl nicht mehr tun.


Doch, ATi wird die Treiber verbessern. =)

tEd
2003-05-12, 15:51:43
ich würde mal sagen das der fx5900 nicht mit arb_fragment_program gebencht wird aber mit ihrer eigenen extension (12bit,16bit_fp) aber das ist nur eine vermutung.

wrdaniel
2003-05-12, 15:52:08
John Carmack has described the demo we used as a random code drop from a recent build of DOOM 3 and he believes it to be representative of the final game in a performance sense.

und wenn man nach den benches geht braucht man auch nicht unbedingt ne super high end karte da es sich ja eh um ein singleplayergame handelt.

Riptor
2003-05-12, 15:54:31
Originally posted by Exxtreme

Doch, ATi wird die Treiber verbessern. =)

Ach komm! Wir wissen doch, dass OpenGL-Spiele IMMER besser laufen mit nVidia-Karten. Und leider Gottes wird es ATI auch nicht in den Griff bekommen, dass Doom 3 so gut läuft, wie auf einer GFFX. Ich glaube jedenfalls nicht mehr an eine "Doom 3 Radeon" Version. Aber ich lasse mich GERN eines besseren belehren, noch ist ja lange hin, bis das Teil erscheint.

DrumDub
2003-05-12, 15:56:26
warten wirs ab... interessant ist ja dieser teil des artikels:

"An interesting tidbit of information to throw into the mix here is the fact that there is another R3XX card from ATI waiting in the wings. We are told that this VPU will show a significant performance increase over any chipsets on the market including NV35 as well as R350. Expect to see this new ATI card somewhere between mid to late summer if it stays on schedule.

Bottom line is this; whoever has the fatest video card with image quality to match when DOOM 3 hits retail shelves "wins"."

http://www.hardocp.com/article.html?art=NDc0LDI=

wir noch nen heisses rennen dieses jahr... :)

Crushinator
2003-05-12, 15:57:34
Cool, dann fällt D3 bei mir erst mal flach, weil ich nicht bereit bin ~600,- EUR für 'ne Karte auszugeben, die das Game dann auch "nur" mit 86 fps ohne AA/AF schafft. ;)

tEd
2003-05-12, 16:01:23
doom3 "the Battle"

naja...

Omnicron
2003-05-12, 16:03:40
Mal ne Frage, eine 4600 wäre doch bei nix AA/AF in 1024x768 auf dem Niveau einer 5600U zu sehen oder ?

[dzp]Viper
2003-05-12, 16:04:28
Originally posted by DrumDub
warten wirs ab... interessant ist ja dieser teil des artikels:

"An interesting tidbit of information to throw into the mix here is the fact that there is another R3XX card from ATI waiting in the wings. We are told that this VPU will show a significant performance increase over any chipsets on the market including NV35 as well as R350. Expect to see this new ATI card somewhere between mid to late summer if it stays on schedule.

Bottom line is this; whoever has the fatest video card with image quality to match when DOOM 3 hits retail shelves "wins"."

http://www.hardocp.com/article.html?art=NDc0LDI=

wir noch nen heisses rennen dieses jahr... :)

genau das habe ich gemeint .. bis doom 3 raus gekommen ist, werden noch viele grafikkarten den bach runtergegangen sein ;D

Carlo28
2003-05-12, 16:06:26
Glaube schon das Doom3 noch dieser Jahr zumindest als Demo auftauchen wird !

Exxtreme
2003-05-12, 16:07:29
Originally posted by Riptor


Ach komm! Wir wissen doch, dass OpenGL-Spiele IMMER besser laufen mit nVidia-Karten. Und leider Gottes wird es ATI auch nicht in den Griff bekommen, dass Doom 3 so gut läuft, wie auf einer GFFX. Ich glaube jedenfalls nicht mehr an eine "Doom 3 Radeon" Version. Aber ich lasse mich GERN eines besseren belehren, noch ist ja lange hin, bis das Teil erscheint.
Also an den OpenGL-Treibern gibt's normalerweise kaum was auszusetzen (vom CS-Prob im Cat 3.2 mal abgesehen). Und ich denke schon, daß mit optimierten Treibern da noch was geht.

Unregistered
2003-05-12, 16:07:35
Worin besteht der Unterschied zwischen Doom3 und Duke Nukem Forever.
Auf D3 warten wir erst 2+ Jahre und auf Duke Nukem Forever bereits 5+ Jahre.

DrFreaK666
2003-05-12, 16:09:05
Originally posted by Unregistered
Worin besteht der Unterschied zwischen Doom3 und Duke Nukem Forever.
Auf D3 warten wir erst 2+ Jahre und auf Duke Nukem Forever bereits 5+ Jahre.

;D (Achtung: Ironie)

Cadmus
2003-05-12, 16:10:22
Boah, is ja hart, wie die 9500 Pro abgeht.
46,6 fps in 1024x768 mit Cat 3.2 . Hätte ich der garnicht zugetraut. Wenn der Cat 3.4 noch einige Frames bringt, steht dem Metzelspaß nichts mehr im Weg.

Riptor
2003-05-12, 16:11:00
Unterschied? Duke Nukem macht Spaß, Doom 3 macht Angst. ;)

DrumDub
2003-05-12, 16:13:47
riptor

fullest ack... :)

[dzp]Viper
2003-05-12, 16:16:30
Originally posted by DrumDub
riptor

fullest ack... :)

woher wollt ihr das wissen - beide spiele gibts noch nicht :P

ow
2003-05-12, 16:18:13
Originally posted by Exxtreme

Also an den OpenGL-Treibern gibt's normalerweise kaum was auszusetzen (vom CS-Prob im Cat 3.2 mal abgesehen). Und ich denke schon, daß mit optimierten Treibern da noch was geht.

OpenGL ist seit jeher eine NV Domaene.
Die ATi Treiber bieten durchweg solide Leistung aber an NV kommen sie hier nicht heran.

Riptor
2003-05-12, 16:19:58
Originally posted by [dzp]Viper
woher wollt ihr das wissen - beide spiele gibts noch nicht :P

:D

Ich gehe von folgender Therorie aus: Duke Nukem 3D hat mir Spaß gemacht, Doom 1+2 Angst, und ich hoffe, das wird sich bei den Nachfolgern ähnlich verhalten... ;)

Gothmog
2003-05-12, 16:22:03
Originally posted by Strafer
Boah, is ja hart, wie die 9500 Pro abgeht.
46,6 fps in 1024x768 mit Cat 3.2 . Hätte ich der garnicht zugetraut. Wenn der Cat 3.4 noch einige Frames bringt, steht dem Metzelspaß nichts mehr im Weg.


Sieht net so übel aus die 9500PRO...obwohl ich mir aufgrund der letzten Tests & Benches doch irgendwie erhofft hab, dass die 9500PRO den Vorsprung gegenüber der FX5600 aus den tests hinüberrettet...

Aber wie man sieht is bei aktiviertem AA/AF die Welt für den ATI Fan wieder in ordnung;)

Das ganze wurde ja mit dem CATA 3.2 getestet wollte ATI nicht noch nen Renderingpfad im CATA 3.3 bzw jetzt 3.4 freischalten,der die Leistung nochmal um zumindest einige Prozentpunkte erhöht?

greetz
hellspawn

Riptor
2003-05-12, 16:22:05
Originally posted by ow
OpenGL ist seit jeher eine NV Domaene.
Die ATi Treiber bieten durchweg solide Leistung aber an NV kommen sie hier nicht heran.

Jop, vor allem wenn man sieht, wie eine R9500 Pro sich gegen eine GFFX 5600 Ultra geschlagen geben muss, AUCH mit AF/FSAA...

@ Gothmog: Dat bringt bei ner R9500 Pro vllt so 1-3%. ;)

[dzp]Viper
2003-05-12, 16:23:14
Originally posted by Riptor


:D

Ich gehe von folgender Therorie aus: Duke Nukem 3D hat mir Spaß gemacht, Doom 1+2 Angst, und ich hoffe, das wird sich bei den Nachfolgern ähnlich verhalten... ;)

doom 1 + 2 hat dir angst gemacht ?? ANGSTHASE

das war doch nur massenmonstermetzeln .. wo hast du da angst gehabt .. angst hatte ich bei Alien vs predator 1 und 2 :P

Riptor
2003-05-12, 16:27:01
Originally posted by [dzp]Viper
doom 1 + 2 hat dir angst gemacht ?? ANGSTHASE

Man stelle sich vor: Nebler im Zimmer, Full-Bass Boxen unterm Tisch voll aufgedreht, alles dunkel, AWE-32 Midi-Sound, dann Doom (1995, da war ich noch nicht GANZ so alt ;) ) gestartet und los ging der Horror... Hat MICH jedenfalls geschaudert, geiles Feeling. :) Doom SOLLTE Angst machen, aber heutzutage haut sowieso kaum mehr was irgend jemanden vom Hocker... Alle irgendwie so HART heute! :D

Thomas Gräf
2003-05-12, 16:31:41
Diese Sache hier könnte mehr
Bedeutung haben...in Hinblick
Single vs. Multiplayer Engines
in NAHER Zukunft ;)

http://www.hartware.de/news.html?id=32885


grs.
th.

[dzp]Viper
2003-05-12, 16:33:15
Originally posted by Thomas Gräf
Diese Sache hier könnte mehr
Bedeutung haben...in Hinblick
Single vs. Multiplayer Engines
in NAHER Zukunft ;)

http://www.hartware.de/news.html?id=32885


grs.
th.

*tuuut*
i verstehen nix ;D

Seraf
2003-05-12, 16:34:20
Originally posted by Thomas Gräf
Diese Sache hier könnte mehr
Bedeutung haben...in Hinblick
Single vs. Multiplayer Engines
in NAHER Zukunft ;)

http://www.hartware.de/news.html?id=32885


grs.
th.

Hl2 könnte mehr
Bedeutung haben...in Hinblick
Single vs. Multiplayer Engines
in NAHER Zukunft ;)

http://www.hartware.de/news.html?id=32885


grs.
th.




Hmm Hl2 soso ?!?

Versteh den Zusammenhang jetzt gerade nicht

Thomas Gräf
2003-05-12, 16:34:52
AHA...auf Durchgang geschaltet !

Seraf
2003-05-12, 16:37:17
Originally posted by Thomas Gräf
AHA...auf Durchgang geschaltet !


Also wenn jemand behauptet das Spiel XY auf Nv optimiert ist stellt es ATI auf der E3 vor ???


?-) :lol: ;D

Thomas Gräf
2003-05-12, 16:47:13
Genau das , und außerdem zweifle ich
die Bedeutung der Doom3 Engine für die
Online-Gamer an.
Somit is der Doom3 Benchmark für ATI nicht
so sehr wichtig.
Wichtig is doch das was online rennt..;)

geforce
2003-05-12, 16:54:23
Originally posted by nagus
nachtrag:
"If you were saying to yourself that something is not right here, we would have to agree with you. It seems that ATI's latest Catalyst driver is broken when it comes to running DOOM 3."

Oh nagus, nochmal Glück gehabt was? Schnell wieder vor den ATI-Schrein und eine Nvidia-Karte opfern sonst bestraft dich der ATI-Gott!

Nein, mal ehrlich, du versuchst du gerade ein Flamen auszulösen, oder sehe ich das falsch? ;)

Riptor
2003-05-12, 17:00:03
Die Doom 3 Engine wird aber sicherlich auch für weitere Spiele genutzt werden, wäre schade, wenn ATI da immer Probleme haben würde.

[dzp]Viper
2003-05-12, 17:05:49
Originally posted by Riptor
Die Doom 3 Engine wird aber sicherlich auch für weitere Spiele genutzt werden, wäre schade, wenn ATI da immer Probleme haben würde.

LEUTE ... hört doch mal auf .. doom 3 kommt zeitigstens spätherbst .. bis dahin gibts es sicher den r390 ... und an den treibern wird auch noch gearbeitet und gepushed ....

und bis spiele auf der doom3 engine rauskommen, vergeht locker noch ein 3/4 jahr oder ein jahr ...

und in einem jahr gibt es dann den nv40 + r 400 ... da könnt ihr dann doom 3 mit 150 fps spielen ...

:bonk:

ow
2003-05-12, 17:05:52
Originally posted by Riptor
Die Doom 3 Engine wird aber sicherlich auch für weitere Spiele genutzt werden, wäre schade, wenn ATI da immer Probleme haben würde.


Was verstehst du unter Problemen?
Laufen wird D3 auch fehlerfrei auf der Ati aber evtl. nicht mit der Performance wie sie eine GFFX bietet.

geforce
2003-05-12, 17:07:03
Originally posted by ow
Was verstehst du unter Problemen?
Laufen wird D3 auch fehlerfrei auf der Ati aber evtl. nicht mit der Performance wie sie eine GFFX bietet.

Nichteinmal da bin ich mir so sicher, durch Optimierungen kann man da sicher noch einiges rausholen seitens ATI! ;)

[dzp]Viper
2003-05-12, 17:08:29
ausserdem ist das völlig OFFTOPIC UND GEHÖRT INS SPEKUFORUM ....

das hat NIX rein GARNIX mit der realität zu tun !!!

Und die realtität ist, dass doom 3 erst in 5- 6 monaten zu haben sein wird ..

Unregistered
2003-05-12, 17:11:52
Das Review auf Anandtech sollten sich alle ATI Besitzer anschauen !!!

Ihr könnt einpacken _ ich finds so geil

NV hatte nur einen schlechten Start (NV 30)
NV bleibt die Nr1 - wie seit Jahren !!!

Demirug
2003-05-12, 17:13:56
Die Hoffnung stirbt zuletzt, oder?

ATI hat jetzt auf jeden Fall mal ein paar Hausaufgaben bekommen. Mal schauen was sie daraus machen werden.

Wobei die Sache schon witzig ist:

JC: DOOM III wird mit einer GF 256 laufen.

Ich frage mich wie lange der Publischer auf JC einreden musste damit er das sagt?

und hier dann kommentare nach dem Moto ATIs Highend Karte ist zu langsam für DOOM III die müssen was tun.

Mal schauen ob mit den nächsten Treiberständen auch wieder gebencht werden darf.

DrumDub
2003-05-12, 17:17:06
unreg

zwei threads mit solch qualifizierten aussagen vollzuspammen ist echt ne leistung... andere leute spammen wenigstens eingeloggt rum, du feiger hund... ;)

Lethargica
2003-05-12, 17:36:22
Stellt sich die Frage, inwiefern sich die fehlenden 128mb der Radeon bemerkbar machen.

edit : Wenn die TI4600 bei Doom in etwa so schnell ist, als die fx5600u, haben sie aber ganzschön an Leistung zugelegt. In der Alpha hatte die TI doch immer um die 30fps in 800*600

BiG OnE
2003-05-12, 17:49:53
@Demirug

Naja, er hat nit gesagt mit wieviel fps es auf der Geforce256 laufen wird. :rofl:

Riptor @ Work
2003-05-12, 17:53:49
Originally posted by ow
Was verstehst du unter Problemen?
Laufen wird D3 auch fehlerfrei auf der Ati aber evtl. nicht mit der Performance wie sie eine GFFX bietet.

Performance-Probleme meinte ich.

th3_h3r0
2003-05-12, 17:56:51
Originally posted by DrumDub
unreg

zwei threads mit solch qualifizierten aussagen vollzuspammen ist echt ne leistung... andere leute spammen wenigstens eingeloggt rum, du feiger hund... ;)

Gut gebrüllt Löwe...;)

perforierer
2003-05-12, 17:57:38
Originally posted by Omnicron
Mal ne Frage, eine 4600 wäre doch bei nix AA/AF in 1024x768 auf dem Niveau einer 5600U zu sehen oder ?

Mich würden auch Vergleichstests mit ner 4600er interessieren...
Wie wohl die 4Ti Reihe performancetechnisch dasteht?

Originally posted by Strafer
Boah, is ja hart, wie die 9500 Pro abgeht.
46,6 fps in 1024x768 mit Cat 3.2 . Hätte ich der garnicht zugetraut. Wenn der Cat 3.4 noch einige Frames bringt, steht dem Metzelspaß nichts mehr im Weg.

ich find auch, dass die 9500 Pro klasse dasteht, wenn man bedenkt, dass es die Karte schon ne Weile gibt...

Originally posted by Unregistered
Das Review auf Anandtech sollten sich alle ATI Besitzer anschauen !!!
Ihr könnt einpacken _ ich finds so geil
NV hatte nur einen schlechten Start (NV 30)NV bleibt die Nr1 - wie seit Jahren !!!

Blablablablubberblubber

Lethargica
2003-05-12, 18:06:29
Nur schade, dass wieder nicht die niedigsten Frames angegeben werden. Der Schnitt is mir eigentlich ziemlich schnuppe, solange es auf KONSTANTEN 40fps läuft.

Und ich glaube wir können uns alle freuen. Doom scheint ja hardwarefreundlicher zu werden, wie von mir angenommen. Bei 1024 scheinen ja alle Karten passable Ergebnisse abzuliefern.

Unregistered
2003-05-12, 18:07:52
Originally posted by Carlo28
Glaube schon das Doom3 noch dieser Jahr zumindest als Demo auftauchen wird !

Träumer! ;) Demo haben die nicht nötig!
Wann also Doom3? - Wahrscheinlich nächstes Jahr. :(
JC hätte 2001 die Füsse besser still gehalten...

nagus
2003-05-12, 18:08:41
Originally posted by ow


OpenGL ist seit jeher eine NV Domaene.
Die ATi Treiber bieten durchweg solide Leistung aber an NV kommen sie hier nicht heran.

stimmt unter gewissen bedingungen. RTCW läiuft z.b. auf ATI karten wesentlich besser als auch nvidia karten.

persönlich halte ich diese ominösen benchmarkergebnisse für einen geschickten schachzug von nvidia. aber ati läßt das mit sicherheit nicht auf sich sitzen. irgendwas stinkt da gewaltig.

perforierer
2003-05-12, 18:09:01
Tom hat auch ne Ti 4200 mit 128 MB am Start:
http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-11.html

Schlägt sich erträglich. Mit ner höheren taktung kann man da wohl noch ein paar Frames rausquetschen.
Wobei die Karte über den nv20er Pfad läuft und bissi schlechtere Renderquali bietet. Aber in der 1024 Auflösung find ich den Score noch ok...

Lethargica
2003-05-12, 18:10:21
Originally posted by Unregistered


Träumer! ;) Demo haben die nicht nötig!
Wann also Doom3? - Wahrscheinlich nächstes Jahr. :(
JC hätte 2001 die Füsse besser still gehalten...

Warum ? ...ne Beta ist noch immer die beste möglichkeit, fehlerquellen aufzudecken.

Von Q3 gabs ja schließlich auch schon vor dem Game ne Demo.

Godlike
2003-05-12, 18:13:15
I mag HardOCP echt net, die benchen beinhart auf Medium Quality und sagen dann, dass ATI schlecht is...

http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-12.html

Bei High Quality ist die Radeon schneller bzw. 1 fps langsamer und das mit Cat 3.2

Aber Hauptsach NVidia steigt auf Medium gut aus..

Lethargica
2003-05-12, 18:14:18
Originally posted by Godlike
I mag HardOCP echt net, die benchen beinhart auf Medium Quality und sagen dann, dass ATI schlecht is...

http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-12.html

Bei High Quality ist die Radeon schneller bzw. 1 fps langsamer und das mit Cat 3.2

Aber Hauptsach NVidia steigt auf Medium gut aus..

Hab mich auch gerade gewundert.

Auf einmal schauts ja ganz anders aus ;)

edit : mit FSAA tritt die FX aber wieder ganzschön Arsch

kmf
2003-05-12, 18:44:56
Zitat TomsHardware:
'Die Engine von DOOM III bietet verschiedene Rendermodi zur Auswahl. NVIDIAs GeForce FX und NV2x werden mit speziellen Optimierungen explizit unterstützt. Für ATI Karten steht R200 zur Verfügung. Es sind aber auch allgemeine Modi wie ARB2 vorhanden. ATis Radeon 9800/9700/9600/9500 Karten laufen in ARB2, die Radeon 9000 mit R200, NVIDIAs FX 5900/5800/5600/5200 unter "NV30". Die GeForce4 Ti4200 läuft unter "NV20", allerdings bei schlechterer Renderqualität.

ARB2 ist auf NVIDIAs DX9 Karten mit der Vorabversion des Detonator FX Treibers wegen eines Bugs noch nicht lauffähig. Nach Aussagen von NVIDIA soll die ARB2 Performance mit der NV30 Leistung im endgültigen Treiber aber identisch sein.'

Ati läuft im ARB2-Modus = allgemeiner Modus.

FX in einem speziell angepaßtem Modus.

Hier werden Äpfel mit Birnen verglichen. Der Test sagt eigentlich nur, daß die Engine super an nV angepaßt wurde. Ende.
Vieleicht läuft das demnächst als Gegenpol zu Ati/Valve in LA. ;D

LovesuckZ
2003-05-12, 18:50:50
Originally posted by kmf
Hier werden Äpfel mit Birnen verglichen. Der Test sagt eigentlich nur, daß die Engine super an nV angepaßt wurde. Ende.
Vieleicht läuft das demnächst als Gegenpol zu Ati/Valve in LA. ;D

Warum? denkst du jemand, der sich Doom3 kauft und eine FX besitz, wird auf den Standardpfad zugreifen bzw. wechselt auf diesen?

Cadmus
2003-05-12, 18:53:23
Ich versteh aber nicht, warum bei Tom im HQ-Benchmark die R9800 Pro mit 128 MB schneller ist als die mit 256 MB.

LovesuckZ
2003-05-12, 18:55:08
Originally posted by Strafer
Ich versteh aber nicht, warum bei Tom im HQ-Benchmark die R9800 Pro mit 128 MB schneller ist als die mit 256 MB.

In der Alpha war High Quality noch mit 8AF eingestellt. Vielleicht ist es in dieser Version genauso. Simit wuerde sich dies erklaeren.

Salvee
2003-05-12, 18:59:57
Originally posted by Strafer
Ich versteh aber nicht, warum bei Tom im HQ-Benchmark die R9800 Pro mit 128 MB schneller ist als die mit 256 MB.

Ich nehme an, es liegt am benutzten Catalyst 3.2, der die 256 MB der Karte nicht erkennt und nur 128 MB benutzt lt. Rage3D-Forum.

Fidel
2003-05-12, 19:02:16
Originally posted by Strafer
Ich versteh aber nicht, warum bei Tom im HQ-Benchmark die R9800 Pro mit 128 MB schneller ist als die mit 256 MB.

liegt angeblich am cat3.2 der nur 128mb verwalten kann, im gegensatz zum 3.4 (aussage steht irgendwoe im review bei hardocp), aber wie wir ja wissen stinkt der cat3.4 bei d3 ab und deswegen cat3.2.
sind also quasi die gleichen karten (ok 10mhz bei ram mehr bei 256mb) --> toleranz

Carlo28
2003-05-12, 19:03:01
Originally posted by Unregistered


Träumer! ;) Demo haben die nicht nötig!
Wann also Doom3? - Wahrscheinlich nächstes Jahr. :(
JC hätte 2001 die Füsse besser still gehalten...

Doom3 ist für das 4.Quartal 2003 angekündigt!
Warum wird wohl ID Software geladen haben ?

Fidel
2003-05-12, 19:03:28
*grr* wer ahnt das ihr hier so fix seit :)

Unregistered
2003-05-12, 19:05:19
Originally posted by Demirug
Wie sagt NVIDIA doch so schön



Aber ernsthaft. Es könnte durchaus sein das der Treiber von NVIDIA schon besser auf DOOM abgestimmt ist.

FP16 ???

Gruss Labberlippe

Sandman
2003-05-12, 19:48:39
Hat es nicht mal geheißen von Seiten Id Soft, dass in der Final Version auch ein spezieller Rendering Pfad für die R 9700/9800 gibt, oder hab ich mich da verlesen?

Demirug
2003-05-12, 19:51:43
Originally posted by Sandman
Hat es nicht mal geheißen von Seiten Id Soft, dass in der Final Version auch ein spezieller Rendering Pfad für die R 9700/9800 gibt, oder hab ich mich da verlesen?

Das hat sich erledigt da ATI keine speziellen Extensions dafür in den Treibern hat. ATI unterstützt nur die ARB2 Extensions für das Pixelprocessing.

Sandman
2003-05-12, 19:55:03
Das ist aber ziemlich blöd, aber mal nee dumme Frage ist es trotzdem nicht möglich durch eine spezielle Treiber anpassung den verlorenen Boden wieder gut zu machen.

Demirug
2003-05-12, 19:58:19
Originally posted by Sandman
Das ist aber ziemlich blöd, aber mal nee dumme Frage ist es trotzdem nicht möglich durch eine spezielle Treiber anpassung den verlorenen Boden wieder gut zu machen.

In wie weit man den Treiber noch optimieren kann wird dir nur ATI sagen können.

Das ATI aber keine spezielle Extension im Treiber hat hängt damit zusammen das die ARB2 recht gut für die R3xx Chips passt. NVIDIA kann einiges mehr als ARB2 fordert und hat deswegen zusätzlich eine eigene Extension im Treiber.

Sandman
2003-05-12, 20:02:42
Bleibt nur zu hoffen, denn ich glaube Doom wird wie kein anderes Spiel seit langem erwartet, und wenn Nvidia da die Nase deutlich vorn hat, dann ist die unausgereifte und verspätete Geforce 5800 schnell vergessen, und der dadurch eventuell gewonnen Marktanteil von ATI wieder weg.
Denn ich kenn viele die sich ihre zukünftige Grafikkarte nach den Benchmarks von Doom aussuchen. Leider

Sandman
2003-05-12, 20:05:12
Noch nee Frage zu den speziellen Extensions von Nvidia, bringen die nur mehr Leistung, steigt die Bildqulität oder sind bestimmte Efekkte dadurch schneller zu rendern?????

Crushinator
2003-05-12, 20:05:20
Originally posted by Demirug
Das ATI aber keine spezielle Extension im Treiber hat hängt damit zusammen das die ARB2 recht gut für die R3xx Chips passt. NVIDIA kann einiges mehr als ARB2 fordert und hat deswegen zusätzlich eine eigene Extension im Treiber. Hehehe....jetzt wird's also so dargestellt als würde ARB2 nicht das Wahre sein, nicht wahr Demi? ;) Warum erzählst Du ihm eigentlich nicht, daß Carmack u.A. deshalb den NV3X-Pfad nehmen MUSS, weil Dieser auf ARB2 nur ~halb soviel fps liefert?

*eg*

Riptor
2003-05-12, 20:07:59
Na klasse, also KEIN RX3XX-Only-Pfad... Oder wie?

mapel110
2003-05-12, 20:11:10
Originally posted by Riptor
Na klasse, also KEIN RX3XX-Only-Pfad... Oder wie?

wozu auch, wenn ati keine anderen funktionen/extensions anbietet als ARB2 ?!

Crushinator
2003-05-12, 20:12:40
Originally posted by Sandman
Noch nee Frage zu den speziellen Extensions von Nvidia, bringen die nur mehr Leistung, steigt die Bildqulität oder sind bestimmte Efekkte dadurch schneller zu rendern????? Es ist AFAIK hauptsächlich schneller. Es besteht auf alle Fälle die theoretische Möglichkeit, daß noch mehr Effekte mit dem NV3X-Pfad möglich sind. Ich bin mir aber nicht ganz sicher, ob Diese auch wirklich benutzt werden. Am Endeffekt wird man's sehen müssen. Ich denke, es wird keinen nennenswerten Quali-Unterschied zwischen den DX9-Karten geben, so gesehen ist es auch egal wie die jeweiligen Renderpfade implementiert sind. Demi möchte mich bitte korrigieren, falls ich daneben liege.

Unregistered
2003-05-12, 20:18:10
Originally posted by Carlo28


Doom3 ist für das 4.Quartal 2003 angekündigt!
Warum wird wohl ID Software geladen haben ?

Hey! Doom3 war schon letztes Jahr Thema bei der E3. JC dachte damals an ein Release in diesem Frühjahr und ich denke, wir sehen dieses Jahr genau nix, bei den üblichen Verspätungen ...

Das die geladen haben, hat nur absolut nichts mit dem Release-Termin zu tun. Warum sollte es?

Nun quatschen wir schon geschlagene 2 Jahre von Doom3 und nix passiert. Das ist einfach nur ... nicht Spitze ... sondern Schei*e.

ID läßt sich die Show von HL2 stehlen.
Doom3 ist kein Quantensprung mehr, wenn erst einmal HL2 draußen ist!

Crushinator
2003-05-12, 20:19:32
Originally posted by Riptor
Na klasse, also KEIN RX3XX-Only-Pfad... Oder wie? Genau das! Es ist aber auch vollkommen egal, weil es keinen Nachteil darstellt. Stell' Dir vor, ARB2 wäre DX9 mit PS/VS 2.0 und genau dies erfüllt der R300 bestens.

Sandman
2003-05-12, 20:20:20
Das stimmt mit HL 2 kommt auch noch ein Spiel, dass bestimmt ebenbürtig ist mit Doom.
Wird HL2 auch ein OpenGL Spiel sein oder doch Direct 3D?

Demirug
2003-05-12, 20:26:55
Originally posted by crushinator
Hehehe....jetzt wird's also so dargestellt als würde ARB2 nicht das Wahre sein, nicht wahr Demi? ;) Warum erzählst Du ihm eigentlich nicht, daß Carmack u.A. deshalb den NV3X-Pfad nehmen MUSS, weil Dieser auf ARB2 nur ~halb soviel fps liefert?

*eg*

so war das ehrlich nicht gemeint. In diesem Fall wollte ich wirklich nur erklären das es keine Unfähigkeit von ATI ist das sie keine eigene Extension haben sondern das man sie dort eben nicht braucht.

Das erzähle ich nicht weil ich nicht weiss ob das immer noch so ist. ;)

Lethargica
2003-05-12, 20:27:22
Originally posted by Unregistered


Hey! Doom3 war schon letztes Jahr Thema bei der E3. JC dachte damals an ein Release in diesem Frühjahr und ich denke, wir sehen dieses Jahr genau nix, bei den üblichen Verspätungen ...

Das die geladen haben, hat nur absolut nichts mit dem Release-Termin zu tun. Warum sollte es?

Nun quatschen wir schon geschlagene 2 Jahre von Doom3 und nix passiert. Das ist einfach nur ... nicht Spitze ... sondern Schei*e.

ID läßt sich die Show von HL2 stehlen.
Doom3 ist kein Quantensprung mehr, wenn erst einmal HL2 draußen ist!

Sorry Spamm, aber :
Darf ich deine Kristallkugel mal ausleihen ;D

Demirug
2003-05-12, 20:32:05
Originally posted by crushinator
Es ist AFAIK hauptsächlich schneller. Es besteht auf alle Fälle die theoretische Möglichkeit, daß noch mehr Effekte mit dem NV3X-Pfad möglich sind. Ich bin mir aber nicht ganz sicher, ob Diese auch wirklich benutzt werden. Am Endeffekt wird man's sehen müssen. Ich denke, es wird keinen nennenswerten Quali-Unterschied zwischen den DX9-Karten geben, so gesehen ist es auch egal wie die jeweiligen Renderpfade implementiert sind. Demi möchte mich bitte korrigieren, falls ich daneben liege.

Bezogen auf DOOM III stimmt das absolute. Bei DOOM II bitte immer darn denken das diese Spiel/Engine technologisch auf DX7 Level ist. Die Fähigkeiten von DX9 Karten werden lediglich dazu benutzt um Multipass zu vermeiden und das Bumpmapping etwas genauer zu machen.

Unregistered
2003-05-12, 20:33:37
Originally posted by J0hN|Cl4rK


Sorry Spamm, aber :
Darf ich deine Kristallkugel mal ausleihen ;D

Meinen Kopf kriegste nich. Da mußte schon selbst einmal in die Schule gehen!

Und nun zu dir, du Möchtegern-Wahrsager (wenn ich ein Spamm bin). Rück mal deine Beweise für den garantierten Release in diesem Jahr heraus. Außer Ankündigungen haste wohl nix. Dumm gelaufen. Spar dir deine Klugscheisserei, wenn du es selbst nicht besser kannst.

Das der offizielle Release-Termin überzogen wird, ist mehr als wahrscheinlich, denn die meisten Ankündigungen sind bisher nicht gehalten worden. Die Chancen stehen also gegen Doom3.

Demirug
2003-05-12, 20:36:27
Unreg: Das geht doch auch etwas freundlicher, oder?

Unregistered
2003-05-12, 20:40:00
Originally posted by Demirug
Unreg: Das geht doch auch etwas freundlicher, oder?

Das war sowas wien Spiegel. Wie er in den Wald hineinruft, schallts heraus. Tritt damit dem Verursacher in den Ar... nicht mir!

StefanV
2003-05-12, 20:42:39
@Unreg

Wenn andere dich anrempeln, tritst du demjenigen dann auch in den Allerwertesten??

So nach dem Motto: Auge um Auge, Zahn um Zahn??

Demirug
2003-05-12, 20:44:10
Originally posted by Unregistered


Das war sowas wien Spiegel. Wie er in den Wald hineinruft, schallts heraus. Tritt damit dem Verursacher in den Ar... nicht mir!

J0hN|Cl4rK wollte doch nur wissen ob er deine Kristalkugel haben darf und hat sich bei den anderen Nutzer des Forums für dem Spam (welcher diese Frage ja eigentlich darstellt) entschuldigt.

Deine Antwort auf die Kristalkugel ("Meinen Kopf kriegste nich") war ja auch völlig in Ordnung aber das mit der "Klugscheisserei" war eben nicht so schön.

Unregistered
2003-05-12, 20:49:36
Originally posted by Stefan Payne
@Unreg

Wenn andere dich anrempeln, tritst du demjenigen dann auch in den Allerwertesten??

So nach dem Motto: Auge um Auge, Zahn um Zahn??

Die Forenregeln habe ich gelesen und beachte sie.

kmf
2003-05-12, 20:50:26
Originally posted by Demirug


Bezogen auf DOOM III stimmt das absolute. Bei DOOM II bitte immer darn denken das diese Spiel/Engine technologisch auf DX7 Level ist. Die Fähigkeiten von DX9 Karten werden lediglich dazu benutzt um Multipass zu vermeiden und das Bumpmapping etwas genauer zu machen.

Dann läuft ja Doom III doch auf meiner alten GF2Ultra.

Quatsch beseite: Sicher, es ist DX7, aber ausgereizt bis ins letzte und gepaart mit massenhaft Polygonen.

Eigentlich müßten CAD-Karten wie WildCat das Spiel am besten bringen, die können heute schon eine Polygonflut bewältigen, davon träumen wir Radeon9xUser.

Crushinator
2003-05-12, 20:53:23
Originally posted by Demirug
Das erzähle ich nicht weil ich nicht weiss ob das immer noch so ist. ;) Da ich bisher davon ausgehe, daß nVidia unter ARB2 immer mit voller Präzision arbeiten muß (anders scheinbar nicht vorgesehen) schätze ich daß die Performance dabei immer noch wesentlich unter den R3XX liegt. Schade eigentlich, daß Keiner von den Reviewern spaßeshalber auch den ARB2-Pfad mitgetestet hat.

Unregistered
2003-05-12, 20:55:47
Originally posted by Demirug


J0hN|Cl4rK wollte doch nur wissen ob er deine Kristalkugel haben darf und hat sich bei den anderen Nutzer des Forums für dem Spam (welcher diese Frage ja eigentlich darstellt) entschuldigt.

Deine Antwort auf die Kristalkugel ("Meinen Kopf kriegste nich") war ja auch völlig in Ordnung aber das mit der "Klugscheisserei" war eben nicht so schön.

Komisch?! - Für mich ist Spamm nur ne "freundlich" Anrede. Beziehen wir uns vielleicht auf zwei unterschiedlich Posts? Ohne den "Spamm" wäre mir nach ner sachliche Antwort gewesen.

Von welcher Frage sprichst du?

Lethargica
2003-05-12, 20:57:46
Originally posted by Unregistered


Komisch?! - Für mich ist Spamm nur ne "freundlich" Anrede. Beziehen wir uns vielleicht auf zwei unterschiedlich Posts? Ohne den "Spamm" wäre mir nach ner sachliche Antwort gewesen.

Von welcher Frage sprichst du?

Noch mal, um es klar zu stellen.

Das mit der Kristallkugel bezog sich auf :

ID läßt sich die Show von HL2 stehlen.
Doom3 ist kein Quantensprung mehr, wenn erst einmal HL2 draußen ist!

Einfach, weil ich es verwunderlich finde, wie manche Personen anhand von ein Paar Pics und Infos schon jetzt entscheiden können, welches Spiel nun besser wird. Ein kleines "IMO" davor und schon hätte ich garnichts gesagt !

Achja...um Verwechslugen vorzubeugen, wäre es vieleicht nicht schlecht, wenn sich die "Unregs" Namen geben könnten.

Und nu bitte wieder über die Dinge diskutieren, für die der Bereich gedacht ist.

Crushinator
2003-05-12, 21:02:24
Originally posted by kmf
Eigentlich müßten CAD-Karten wie WildCat das Spiel am besten bringen, die können heute schon eine Polygonflut bewältigen, davon träumen wir Radeon9xUser. Tja, es gibt leider den gewissen Unterschied zwischen Theorie und der Praxis. Die meisten CAD-Karten waren bisher bei Spielen erheblich langsamer als ihre Consumer-Verwandten. Grund ist der verlagerte Schwerpunkt auf höchte Qualität der 3D-Berechnung/Darstellung in den Treibern, die auch noch auf die jeweilige Profi-Applikation einzeln zugeschnitten sind.

Demirug
2003-05-12, 21:03:22
Originally posted by kmf


Dann läuft ja Doom III doch auf meiner alten GF2Ultra.

Quatsch beseite: Sicher, es ist DX7, aber ausgereizt bis ins letzte und gepaart mit massenhaft Polygonen.

Eigentlich müßten CAD-Karten wie WildCat das Spiel am besten bringen, die können heute schon eine Polygonflut bewältigen, davon träumen wir Radeon9xUser.

Die Polyflut ist gar nicht so hoch. DOOM III braucht im wesentlichen Stencilfillrate und Shaderpower.

kmf
2003-05-12, 21:03:55
Originally posted by crushinator
Da ich bisher davon ausgehe, daß nVidia unter ARB2 immer mit voller Präzision arbeiten muß (anders scheinbar nicht vorgesehen) schätze ich daß die Performance dabei immer noch wesentlich unter den R3XX liegt. Schade eigentlich, daß Keiner von den Reviewern spaßeshalber auch den ARB2-Pfad mitgetestet hat.

Wollten sie doch. Nv hat aber einen Bug im Treiber, deswegen könnte man es nicht testen!
Riechts du den Braten ?

@Lovesuck

Das war heute Abend eigentlich der Sinn meines Postings.
(Äpfel mit Birnen....)

Crushinator
2003-05-12, 21:07:10
Originally posted by kmf
Riechts du den Braten ? Ja, will aber auf gar keinen Fall einen Flamewar riskieren. ;)

Demirug
2003-05-12, 21:07:20
Originally posted by crushinator
Da ich bisher davon ausgehe, daß nVidia unter ARB2 immer mit voller Präzision arbeiten muß (anders scheinbar nicht vorgesehen) schätze ich daß die Performance dabei immer noch wesentlich unter den R3XX liegt. Schade eigentlich, daß Keiner von den Reviewern spaßeshalber auch den ARB2-Pfad mitgetestet hat.

ARB2 sieht eine Möglichkeit vor zwischen Genauigkeit und Performance zu wählen. Als JC damals sein Statement abgegeben hat meinte er das der Performancemodus (welcher für DOOM III ausreicht) noch nicht funktionieren würde und der Treiber nur den Genauigkeits modus benutzt.

Unregistered
2003-05-12, 21:11:18
Originally posted by J0hN|Cl4rK


Noch mal, um es klar zu stellen.

Das mit der Kristallkugel bezog sich auf :



Einfach, weil ich es verwunderlich finde, wie manche Personen anhand von ein Paar Pics und Infos schon jetzt entscheiden können, welches Spiel nun besser wird. Ein kleines "IMO" davor und schon hätte ich garnichts gesagt !

Achja...um Verwechslugen vorzubeugen, wäre es vieleicht nicht schlecht, wenn sich die "Unregs" Namen geben könnten.

Und nu bitte wieder über die Dinge diskutieren, für die der Bereich gedacht ist.

Wenn du es bist jetzt noch nicht verstanden hast...
Bleib sachlich und ich bleibe auch sachlich. Kommst du mir "persönlich", dann überbiete ich dich dabei und komme auf den Kommunikationslevel herunter.

Ich bin schon der Unreg, den du als Reg mit "Spamm" angesprochen hast. Ein Reg zu sein, gibt dir nicht das Recht dazu.

HL2 wird eine Grafik mitbringen, die in mancher Hinsicht neue Maßstäbe setzen wird, schenkt man den ersten Previews vertrauen. Wenn HL2 als erstes erscheinen wird, muß Doom3 HL2 toppen. Das wird höchsten! ein kleiner Sprung, aber kein Quantensprung mehr werden.

Warum soll eigentlich nur JC "Wunder" vollbingen können? Es gibt noch mehr gute Entwickler!

kmf
2003-05-12, 21:11:43
Originally posted by crushinator
Tja, es gibt leider den gewissen Unterschied zwischen Theorie und der Praxis. Die meisten CAD-Karten waren bisher bei Spielen erheblich langsamer als ihre Consumer-Verwandten. Grund ist der verlagerte Schwerpunkt auf höchte Qualität der 3D-Berechnung/Darstellung in den Treibern, die auch noch auf die jeweilige Profi-Applikation einzeln zugeschnitten sind.

ja stimmt, ich arbeite ja mit dem Kram täglich. Wenn ich sehe, wie spielerisch 3D-Modelle von 3-400MB in Echtzeit berechnet werden, kommst du halt auf den Gedanken, wie muß das Teil erst in Games abgehen. Aber davor stehen, wie du richtig sagst, die Treiber. Und daß der auf ein spezielles Grafikprogramm hin portiert wurde.

Crushinator
2003-05-12, 21:12:38
@Demi

Das stimmt natürlich, trotzdem frage ich mich.....Ach, lassen wir das jetzt. Es ist noch soooo lange hin bis das Game Released wird und nach wie vor gilt ja auch noch: "there will be faster cards soon" =)

Lethargica
2003-05-12, 21:16:57
Ich bin schon der Unreg, den du als Reg mit "Spamm" angesprochen hast. Ein Reg zu sein, gibt dir nicht das Recht dazu.

Nochmal sorry, für Spam, aber ich kann den Unreg ja leider nicht PMen

Ich habe Dich/Sie NIE als SPamm bezeichnet -> siehe Demirug Erklährung oben.

edit : Wenn das Missverständnis geklährt ist, dann ein Mod die Beiträge ja löschen.

kmf
2003-05-12, 21:19:44
Originally posted by Demirug


ARB2 sieht eine Möglichkeit vor zwischen Genauigkeit und Performance zu wählen. Als JC damals sein Statement abgegeben hat meinte er das der Performancemodus (welcher für DOOM III ausreicht) noch nicht funktionieren würde und der Treiber nur den Genauigkeits modus benutzt.

Das ist ja alles ok. Warum dann die Aufregung heute abend, wegen des schlechten Abschneidens der 9800.

Mir geht der ganze Test irgendwo vorbei.

Daß nv was tun mußte, ist uns doch allen klar. Einen 2. Flopp können die ihren Aktionären nicht unterjubeln. Die haben halt jetzt mal einen Scheit dazu ins Feuer gelegt. Ich erwarte den Flächenbrand erst mit dem NV40. Und der kommt. (habe keine Kristallkugel)

ow
2003-05-12, 21:50:57
Originally posted by crushinator
Tja, es gibt leider den gewissen Unterschied zwischen Theorie und der Praxis. Die meisten CAD-Karten waren bisher bei Spielen erheblich langsamer als ihre Consumer-Verwandten. Grund ist der verlagerte Schwerpunkt auf höchte Qualität der 3D-Berechnung/Darstellung in den Treibern, die auch noch auf die jeweilige Profi-Applikation einzeln zugeschnitten sind.


Der eigentlich Grund liegt eher darin, dass die Füllrate für CAD-Anwendungen nur von sehr geringer Bedeutung ist. Und deshalb fehlt es oft massiv daran.

aths
2003-05-12, 22:36:54
Originally posted by Demirug
Aber ernsthaft. Es könnte durchaus sein das der Treiber von NVIDIA schon besser auf DOOM abgestimmt ist. Davon gehe ich auch aus. Sowohl HW (trotz nur 4 Pipes können 8 Z/Stencil-Werte pro Takt gerendert werden) als auch Treiber scheinen auf die Doom3-Engine optimiert.

aths
2003-05-12, 22:38:32
Originally posted by Exxtreme
Doch, ATi wird die Treiber verbessern. =) Da müsste man jetzt wissen, wie die Pipelines im Detail arbeiten, und welche Anforderungen die D3-Engine genau stellt.

aths
2003-05-12, 22:41:09
Originally posted by perforierer
Mich würden auch Vergleichstests mit ner 4600er interessieren...
Wie wohl die 4Ti Reihe performancetechnisch dasteht? NV behauptete erst, die reiche nicht mehr, es müsse schon eine FX sein (NV30), nun behaupten sie, man bräuchte schon einen NV35.

Ich behaupte, dass Doom3 in 800x600 mit 2x AA auf einer Ti 4600 brauchbar zu spielen sein wird.

Demirug
2003-05-12, 22:43:39
Originally posted by aths
Da müsste man jetzt wissen, wie die Pipelines im Detail arbeiten, und welche Anforderungen die D3-Engine genau stellt.

Die Arbeitsweise der R300 Pipeline ist bekannt (ausser das + bei HZ III) genauso die Anforderungen der D3 Engine (man muss nur JCs Aussagen genau lesen).

Nur zum NV35 wissen wir noch keine Details.

aths
2003-05-12, 22:46:53
Originally posted by Demirug
Die Arbeitsweise der R300 Pipeline ist bekannt (ausser das + bei HZ III) genauso die Anforderungen der D3 Engine (man muss nur JCs Aussagen genau lesen).

Nur zum NV35 wissen wir noch keine Details. Annahme: NV35-Pipe == NV30-Pipe.

Die Frage stellt sich dann: "Inwiefern könnte die NV30/NV35-Pipeline besser für die Doom3-Engine geeignet sein, als die R300/R350-Pipe?"

Gäbe es darauf konkrete Antworten, oder haben wir es hier mit einem Rätsel zu tun, z.B. dass die NV25-Architektur für Doom3 trotz Multipass besser zu sein scheint, als die R200-Architektur?

Crushinator
2003-05-12, 22:48:56
Originally posted by ow Der eigentlich Grund liegt eher darin, dass die Füllrate für CAD-Anwendungen nur von sehr geringer Bedeutung ist. Und deshalb fehlt es oft massiv daran. Ja, auch das ist vollkommen richtig. Ich sprach jedoch von CAD-Karten (darunter fällt auch eine Quadro-XYZ) und generell von Profi-Anwendungen, ohne mich auf CAD festzulegen.

Crushinator
2003-05-12, 22:56:17
Originally posted by aths
Gäbe es darauf konkrete Antworten, oder haben wir es hier mit einem Rätsel zu tun, z.B. dass die NV25-Architektur für Doom3 trotz Multipass besser zu sein scheint, als die R200-Architektur? Mag das nicht u.A. auch daran liegen, daß JC seine Engines zwangsläufig auf seiner "Lieblingshardware" entwickelt und dabei halt viel auf Diese auslegt?

aths
2003-05-12, 23:03:34
Originally posted by crushinator
Mag das nicht u.A. auch daran liegen, daß JC seine Engines zwangsläufig auf seiner "Lieblingshardware" entwickelt und dabei halt viel auf Diese auslegt? JC entwickelt, um sich neue Autos kaufen zu können. Dazu muss sein Produkt das beste bzw. eines der besten sein. Dazu muss es auf möglichst vielen Karten möglichst gut laufen.

Demirug
2003-05-12, 23:04:38
Originally posted by aths
Annahme: NV35-Pipe == NV30-Pipe.

Die Frage stellt sich dann: "Inwiefern könnte die NV30/NV35-Pipeline besser für die Doom3-Engine geeignet sein, als die R300/R350-Pipe?"

Gäbe es darauf konkrete Antworten, oder haben wir es hier mit einem Rätsel zu tun, z.B. dass die NV25-Architektur für Doom3 trotz Multipass besser zu sein scheint, als die R200-Architektur?

Die Annahme stimmt wohl nicht da man bei der NV35 wohl die Shaderpower massiv erhöht hat. Aber das ist vom Prinzip her wohl nicht ganz so wichtig.

Das dem NV25 das Multipass nichts ausmacht liegt im wesentlichen an den 2 Vertexshader.

Den Hauptgrund für das bessere Abschneiden der NVIDIA Chips sehe ich an der höhren Fillrate (DOOM III ist immer noch sehr Texturelastig) und dem EarlyZ Verfahren. Das HirZ (zumindestens bis R300) das ATI benutzt verträgt sich nicht mit den Stencilschatten von DOOM III. So kann ATI beim Rendern der Schatten höchstens 8 Pixel pro Takt überprüfen. NVIDIA prüft da 16 Pixel/Takt. NVIDIA hat hier also bei Schatten die verdeckt sind den Vorteil das sie pro Takt doppelt so viele Pixel abarbeiten und dann auch noch mehr Takte/Sekunde haben.

Bei den Lichtpasses dürften sich beide nicht viel geben. ATI kann zwar bei komplett verdeckten Objekten diese 4 mal so schnell verwerfen wie NVIDIA hat im Gegenzug aber bei Pixel die gerendert werden müssen weniger Füllrate.

Crushinator
2003-05-12, 23:18:41
Originally posted by aths
JC entwickelt, um sich neue Autos kaufen zu können. Dazu muss sein Produkt das beste bzw. eines der besten sein. Dazu muss es auf möglichst vielen Karten möglichst gut laufen. :D Ja, schon klar! Aber Du wolltest wissen, warum NV25 besser abschneidet und ich liefere die Antwort: Wenn er primär auf 'ner R200 entwickelt hätte, würde die Engine mit Sicherheit anders ausfallen, ohne dabei schlechtere Ergebnisse zu erzeugen. In dem man auf entsprechender Hardware entwickelt, neigt man förmlich dazu. Ähnliches ist in jeder Branche und beinahe jedem Produkt zu beobachten was nur die Normalität dieser Vorgehensweise darlegen und eben keine Verschwörungstherie aufstellen soll.

/edit: Demi hat es anhand der Stencil-Ops und dem HirZ super erklärt. Entweder ist die Engine an der (R300-)Hardware vorbei entwicklet oder andersrum.

aths
2003-05-12, 23:46:53
Originally posted by crushinator
/edit: Demi hat es anhand der Stencil-Ops und dem HirZ super erklärt. Entweder ist die Engine an der (R300-)Hardware vorbei entwicklet oder andersrum. Nee. Die Engine macht das, was JC für die Effekte braucht. Andererseits ist es imo fragwürdig, eine HW speziell für eine Engine zu entwickeln, ich möchte Alltagstauglichkeit und Allround-Leistung.
Originally posted by Demirug
Das dem NV25 das Multipass nichts ausmacht liegt im wesentlichen an den 2 Vertexshader.Ok.
Originally posted by Demirug
Die Annahme stimmt wohl nicht da man bei der NV35 wohl die Shaderpower massiv erhöht hat. Aber das ist vom Prinzip her wohl nicht ganz so wichtig.Ja, man hat quasi 2 NV31-Stages pro NV35-Pipe. (Oder würfele ich da wieder mal was durcheinander?)

Demirug
2003-05-12, 23:49:51
crushinator, nicht díe Stencil-Ops. Da können beide nur 8 Pixel pro Takt. Es geht um die Pixel bei denen aufgrund des Z-Tests die Stencil-Operation gar nicht ausgeführt werden muss.

JC hat bezüglich dem vergleich NV25 und R200 mal was geschrieben. Das Fazit war das man durch das Leveldesign bestimmen könnte welcher Chip besser abschneidet (AFAIR kommt der NV25 besser mit den Schatten zurecht und der R200 besser mit dem Licht). In der mehrzahl der Situationen wäre aber der NV25 im Vorteil.

Crushinator
2003-05-12, 23:59:28
Originally posted by Demirug
...
JC hat bezüglich dem vergleich NV25 und R200 mal was geschrieben. Das Fazit war das man durch das Leveldesign bestimmen könnte welcher Chip besser abschneidet (AFAIR kommt der NV25 besser mit den Schatten zurecht und der R200 besser mit dem Licht). In der mehrzahl der Situationen wäre aber der NV25 im Vorteil. OK, wir können bis in die nächsten Jahre auch das kleinste Haar spalten ;) Es geht mir darum aufzuzeigen, daß er sich durch die hauptsächliche Festlegung auf "Schattenspiele" als Totschlagargument eben für die NV-Hardware entschieden hat. Ich bin mir auch ziemlich sicher, daß seine nächste Entwicklung auf NVxyz meist schneller wäre, es sei denn er fängt die Arbeit damit auf Hardware eines anderen Herstellers an und legt seine Schwerpunkte dementsprechend.

P.S.: Stencil-Ops sollten in dem Falle nur als Abkürzung dienen, danke trotzdem für die Erklärung.

Crushinator
2003-05-13, 00:08:39
Originally posted by aths
Nee. Die Engine macht das, was JC für die Effekte braucht. War die Henne zuerst da oder das Ei? Sich darüber zu unterhalten macht glaub' ich denselben Sinn. ;)
Andererseits ist es imo fragwürdig, eine HW speziell für eine Engine zu entwickeln, ich möchte Alltagstauglichkeit und Allround-Leistung. Richtig, deshalb meine ich die ganze Zeit ja auch, daß nur die Engine und nicht die Hardware dafür verantwortlich sein kann.

Habt Ihr Euch eigentlich schon mal gefragt, warum es praktisch nur 1,5 Hersteller gibt? Ja, Richtig: Die Anderen sehen gar keinen Sinn darin für so teures Geld mögliche Super-Hardware zu entwicklen, die an Vorlieben vieler Entwickler einfach scheitern würde.

Birdman
2003-05-13, 00:09:04
Originally posted by crushinator
OK, wir können bis in die nächsten Jahre auch das kleinste Haar spalten ;) Es geht mir darum aufzuzeigen, daß er sich durch die hauptsächliche Festlegung auf "Schattenspiele" als Totschlagargument eben für die NV-Hardware entschieden hat. Ich bin mir auch ziemlich sicher, daß seine nächste Entwicklung auf NVxyz meist schneller wäre, es sei denn er fängt die Arbeit damit auf Hardware eines anderen Herstellers an und legt seine Schwerpunkte dementsprechend.

P.S.: Stencil-Ops sollten in dem Falle nur als Abkürzung dienen, danke trotzdem für die Erklärung.
hmm, schon komisch dass letztes jahr nach der E3 die Ati fans eher damit prahlten, dass Doom3 auf Radeon hardware abgestimmt wird, nur weil die Demo auf ner R300 gezeigt wurde. (damals laut J.C. die beste hardware dafür)
Irgendwie wäre das nun eine komische Berg und Talfahrt, welche ich mir so nicht vorstellen kann. Dann schon eher dass die neue NV hardware deutlich besser mit der Doom Engine zurechtkommt als die Kanadische Ware...aus welchen Gründen sei nun mal dahingestellt.

aths
2003-05-13, 00:10:36
Originally posted by crushinator
War die Henne zuerst da oder das Ei? Sich darüber zu unterhalten macht glaub' ich denselben Sinn. ;)Das ist in diesem Fall aber klar: JC orientiert sich bei den Effekten daran, was mit GeForce1 möglich ist.
Originally posted by crushinator
Richtig, deshalb meine ich die ganze Zeit ja auch, daß nur die Engine und nicht die Hardware dafür verantwortlich sein kann.Die Engine kann nichts dafür, wenn ATI das eine, Nvidia das andere besser unterstützt.

DrFreaK666
2003-05-13, 00:12:31
Hat ATI in dem R350 denn keine Stencil Schadows-omprimierung eingebaut (Sorry für mein Unwissen, aber ichr wisst bestimmt was ich meine :) ) oder war es nur ein marketing-gag??

Demirug
2003-05-13, 00:12:32
Originally posted by crushinator
OK, wir können bis in die nächsten Jahre auch das kleinste Haar spalten ;) Es geht mir darum aufzuzeigen, daß er sich durch die hauptsächliche Festlegung auf "Schattenspiele" als Totschlagargument eben für die NV-Hardware entschieden hat. Ich bin mir auch ziemlich sicher, daß seine nächste Entwicklung auf NVxyz meist schneller wäre, es sei denn er fängt die Arbeit damit auf Hardware eines anderen Herstellers an und legt seine Schwerpunkte dementsprechend.

Die Entscheidung Stencilschattenspiele zu benutzen kann primär nichts damit zu tun haben das NVIDIA da besonders gut ist. Denn als die Entscheidung getroffen wurde (GF1 Zeiten) gab es die ganzen Optimierungen die jetzt greifen noch gar nicht. JC wollte einfach ein besseres Licht und Schattenmodel und das einzige was im da genau genung war waren eben Stencilshadows.

Crushinator
2003-05-13, 00:12:42
Originally posted by Birdman
...
Dann schon eher dass die neue NV hardware deutlich besser mit der Doom Engine zurechtkommt als die Kanadische Ware...aus welchen Gründen sei nun mal dahingestellt. ARGH!!! :smash: Lies bitte nochmal die Postings zuvor. Es geht um NV25 und NICHT um gerade vorgestellte Hardware. ;)

Birdman
2003-05-13, 00:16:32
Originally posted by crushinator
ARGH!!! :smash: Lies bitte nochmal die Postings zuvor. Es geht um NV25 und NICHT um gerade vorgestellte Hardware. ;)
Lesen? für was gibbets denn heute Fernsehen? :D

Ausserdem hat J.C. ja schön öfters die Gründe erwähnt, wieso er primär mal auf Nv hardware entwickelt/testet - OpenGL Treiber.
Nicht das Ati heute noch weit hinter Nvidia zurück wäre, aber als er mit Doom3 begann, wuselten in ATi's treibercode noch Neandertaler rum welche die Nullen und Einsen umherschoben.

Demirug
2003-05-13, 00:18:20
Originally posted by DrFreaK666
Hat ATI in dem R350 denn keine Stencil Schadows-omprimierung eingebaut (Sorry für mein Unwissen, aber ichr wisst bestimmt was ich meine :) ) oder war es nur ein marketing-gag??

Das würde ich auch gerne mal wissen. Beim R300 geht aus den Entwickler unterlagen klar hervor warum Hir-Z mit den DOOM III Schatten nicht klar kommt. Nur für den R350 habe ich keine Unterlagen bekommen in denen steht wie man dieses Problem gelöst hat. Deswegen halte ich mich im Moment noch an die R300 Unterlagen.

Crushinator
2003-05-13, 00:30:59
Originally posted by Demirug
Die Entscheidung Stencilschattenspiele zu benutzen kann primär nichts damit zu tun haben das NVIDIA da besonders gut ist. Denn als die Entscheidung getroffen wurde (GF1 Zeiten) gab es die ganzen Optimierungen die jetzt greifen noch gar nicht. JC wollte einfach ein besseres Licht und Schattenmodel und das einzige was im da genau genung war waren eben Stencilshadows. Du meinst also, daß er wirklich GF1-Technik benutzt? :naughty: Oder doch eher, daß er im Laufe der Jahre mit der (NV-)Hardware gewachsen ist? Wie dem auch sei. In keinen gesunden Menschenverstand paßt die Vorstellung, daß der "naive" Junge JC nur was tolles namens "Stencilshadows" haben wollte und Diese nur von nVidia besonders gut unterstützt wird. Genau so verhält es sich praktisch mit jeder anderen Engine, die angeblich nur von nVidia so gut verstanden wird.

Fakt ist nur, daß praktisch alles primär auf nVidia-Hardware entwickelt wird und auch, daß alle anderen Hersteller eurer Meinung nach XYZ (ersetze hier Stencil-Berechung durch irgendetwas) schlechter können als nVidia. Realitätsnaher ist jedoch, daß die Anderen viele andere Sachen möglicherweise viel besser können als nVidia, aber völlig um sonst weil ihnen eh' keine Beachtung geschenkt wird.

Unregistered
2003-05-13, 00:34:32
afair hat doch JC gesagt das der ARB2 pfad eine bessere IQ hat als der NV30 (der ARB2 kam erst viel später dazu wie der NV30 pfad schon lange fertig war)

wenn ich mich da richtig erinnere dann is der test höchst unfair für die radeon weil diese pro frame dann mehr leisten muss

Crushinator
2003-05-13, 00:38:55
Originally posted by Unregistered
[...ATi auf ARB2]
wenn ich mich da richtig erinnere dann is der test höchst unfair für die radeon weil diese pro frame dann mehr leisten muss Ja, in der Tat. Aber auch ATi muß sich dann an die Nase fassen, da sie nicht mehr bieten als ARB2. :|

up
2003-05-13, 00:39:44
Wem ist die sensationelle Leistung der FX5200 noch aufgefallen?
Und wie erklärt man sich das?

aths
2003-05-13, 00:41:05
Originally posted by crushinator
Du meinst also, daß er wirklich GF1-Technik benutzt? :naughty: Oder doch eher, daß er im Laufe der Jahre mit der (NV-)Hardware gewachsen ist? Wie dem auch sei. In keinen gesunden Menschenverstand paßt die Vorstellung, daß der "naive" Junge JC nur was tolles namens "Stencilshadows" haben wollte und Diese nur von nVidia besonders gut unterstützt wird. Genau so verhält es sich praktisch mit jeder anderen Engine, die angeblich nur von nVidia so gut verstanden wird.

Fakt ist nur, daß praktisch alles primär auf nVidia-Hardware entwickelt wird und auch, daß alle anderen Hersteller eurer Meinung nach XYZ (ersetze hier Stencil-Berechung durch irgendetwas) schlechter können als nVidia. Realitätsnaher ist jedoch, daß die Anderen viele andere Sachen möglicherweise viel besser können als nVidia, aber völlig um sonst weil ihnen eh' keine Beachtung geschenkt wird. crushinator, was hat das jetzt mit Stencil Schatten zu tun? Was kann JC dafür, dass NV hier besseren Support anbietet als ATI? Soll er deswegen auf Stencil Schatten verzichten? Und ja, effektemäßig orientiert sich Doom3 daran, was (mit OpenGL) auf einer GeForce1 möglich ist.

perforierer
2003-05-13, 00:44:05
Originally posted by aths
NV behauptete erst, die reiche nicht mehr, es müsse schon eine FX sein (NV30), nun behaupten sie, man bräuchte schon einen NV35.
Ich behaupte, dass Doom3 in 800x600 mit 2x AA auf einer Ti 4600 brauchbar zu spielen sein wird.
Wobei ich persönlich mit 800x600 ohne AA in erträglicher Performance leben könnte. Denn für ein einziges Singleplayerspiel werde ich 100% keine neue Graka holen.

Unregistered
2003-05-13, 00:44:34
Originally posted by crushinator
Ja, in der Tat. Aber auch ATi muß sich dann an die Nase fassen, da sie nicht mehr bieten als ARB2. :|

ich meine jetzt nicht mehr arbeit in form von zB mehr passes, sondern einfach mehr aufwand weil die IQ höher ist

läuft die R300 mir dem R200 pfad is die IQ auch schlechter wodurch die performance einen sprung nach oben machen sollte

Crushinator
2003-05-13, 00:55:39
Originally posted by aths
crushinator, was hat das jetzt mit Stencil Schatten zu tun? Was kann JC dafür, dass NV hier besseren Support anbietet als ATI? Das kann man nur mit einer Gegenfrage beantworten: Was können Andere dafür, daß JC sich auf Stencilshadows festgeschossen hat? Ganz einfach -> Gar nichts! JC entwickelt nicht nur eine Engine sondern ganze Hardware für diese Engine, in meinen Augen leider viel zu einseitig.
Soll er deswegen auf Stencil Schatten verzichten? Und ja, effektemäßig orientiert sich Doom3 daran, was (mit OpenGL) auf einer GeForce1 möglich ist. Zu ersterem: Nein, er könnte sich aber mal auf 'ne andere Hardware einschiessen -> Zukunft. Zu Letzterem: Sorry, mir war entgangen daß die GF1 per OpenGL so lange Shaderinstruktionen unterstützt bzw. Stencilshadows per Hardware "beschleunigt". ;)

Crushinator
2003-05-13, 01:06:08
Originally posted by Unregistered
...
läuft die R300 mit dem R200 pfad is die IQ auch schlechter wodurch die performance einen sprung nach oben machen sollte Wenn JC behauptet, daß FP16 für die Engine ausreicht, dann muß man ihm das auch so glauben. Die R300 braucht auf dem R200-Pfad für viele Dinge mehere Passes, welche unter ARB2 in One-Pass durchgingen. Laut JC tut sich da performancemäßig nicht viel. Ich würde sagen: Abwarten und Tee rauchen bis das Game draußen ist oder sich das Sneak von ID vorher besorgen und auf dessen Basis beurteilen. ;)

perforierer
2003-05-13, 01:17:19
Originally posted by crushinator
Mag das nicht u.A. auch daran liegen, daß JC seine Engines zwangsläufig auf seiner "Lieblingshardware" entwickelt und dabei halt viel auf Diese auslegt?

Möglich wäre es, dass das die "Endperformance" beeinflusst. Wahrscheinlich aber nicht.
Heute gibt es zwei große Hersteller von 3D Chips, die beide sehr gute Produkte anbieten. Die Zeiten der Alleindominanz von 3dfx und später nVidia sind ja mittlerweile vorbei.


Originally posted by crushinator
Habt Ihr Euch eigentlich schon mal gefragt, warum es praktisch nur 1,5 Hersteller gibt? Ja, Richtig: Die Anderen sehen gar keinen Sinn darin für so teures Geld mögliche Super-Hardware zu entwicklen, die an Vorlieben vieler Entwickler einfach scheitern würde.

Könnte sein. ich glaube eher, dass kein anderer Hersteller bereit ist, sich in einen so kostspieligen Markt zu begeben, bei dem die Erfolgsaussichten aufgrund der Marktmacht der "großen 2" schlecht sind.

Cadmus
2003-05-13, 01:21:51
Könnte sein. ich glaube eher, dass kein anderer Hersteller bereit ist, sich in einen so kostspieligen Markt zu begeben, bei dem die Erfolgsaussichten aufgrund der Marktmacht der "großen 2" schlecht sind.
Wollen wir hoffen das PowerVR nicht auch so denkt, und endlich ein Testmuster oder wenigstens einige Benchmarks (oder überhaupt irgendwelche Daten :D) der Series 5 unter die Leute bringt.

Crushinator
2003-05-13, 01:26:49
Originally posted by perforierer
...
Die Zeiten der Alleindominanz von 3dfx und später nVidia sind ja mittlerweile vorbei.

...ich glaube eher, dass kein anderer Hersteller bereit ist, sich in einen so kostspieligen Markt zu begeben, bei dem die Erfolgsaussichten aufgrund der Marktmacht der "großen 2" schlecht sind. Hmmm...Laß mich mal überlegen....wenn nVidia angeblich noch 64% des Marktes für Standalone-Lösungen beherrscht, sehe ich keine großen 2 sondern nur einen großen und einen der es nicht mal schafft trotz überlegener Hardware und guten Treibern (wenn auch nicht besseren) innerhalb von fast 10 Monaten überhaupt Marktanteile (mehr als 1%) zu gewinnen -> Du könntest also recht haben. :(

aths
2003-05-13, 01:42:21
Originally posted by crushinator
Das kann man nur mit einer Gegenfrage beantworten: Was können Andere dafür, daß JC sich auf Stencilshadows festgeschossen hat? Ganz einfach -> Gar nichts! JC entwickelt nicht nur eine Engine sondern ganze Hardware für diese Engine, in meinen Augen leider viel zu einseitig.Das Wort "andere" wird klein geschrieben :)

Ich verstehe nicht, wie du JC einen Vorwurf machen willst, dass er sich auf Stencil Shadows "festgeschossen" hätte. Es gibt unterschiedliche Möglichkeiten, Schatten zu rendern. JC hat entschieden, dass für seine Engine Stencil Shadows das beste sind. Das hat er zu Zeiten entschienen (und stellte auch kein Geheimnis dar) als von Radeon 8500 oder GeForce3 noch längst nicht die Rede war. Nun sind wir nochmals eine volle Generation weiter: Radeon 9800 Pro, GeForce FX 5900. Ist NV jetzt irgendwie böse, weil sie dieses eine Feature besonders gut supporten?

Anders herum könnte man argumentieren, es sei fies von ATI, dass sie weiland TruForm entwickelt haben, was NV ja nun gleich gar nicht unterstützt... bzw. fiese Entwickler nutzen TruForm auch noch dort, wo es nützlich ist, und lassen die GeForce-User im Regen stehen...
Originally posted by crushinator
Zu ersterem: Nein, er könnte sich aber mal auf 'ne andere Hardware einschiessen -> Zukunft. Zu Letzterem: Sorry, mir war entgangen daß die GF1 per OpenGL so lange Shaderinstruktionen unterstützt bzw. Stencilshadows per Hardware "beschleunigt". ;) Die GF1 (und GF2) wird für viele Effekte 7 Passes benötigen. Aber weder auf dem NV35, noch auf der 9800 Pro wird man Effekte sehen, die eine GF1 nicht rendern könnte. Das liegt weniger daran, dass Radeon oder FX so schlecht wären, sondern wahrscheinlich eher an den unterschätzten Möglichkeiten der Register Combiner.

JC nutzt die Shader der R200 bzw. von NV20, bzw. von NV30 lediglich, um die GF1-Effekte zu beschleunigen. Die neuen Chips können ja mehr Texturen und mehr Operationen pro Pass verwenden, bzw. können mit weniger Operationen zum gleichen Ergebnis kommen. (Natürlich rendern die neuen Karten auch genauer, z.B. mit 16 Bit pro Kanal, statt nur mit 9, einige Effekte sind auf Genauigkeit angewiesen, damit sie gut aussehen.)

Stencil Schatten sind eine sehr gute Methode, um exakte Schattenwürfe zu rendern. Shadow Maps, oder Schatten via Shadow Buffer sind in der Regel schneller zu rendern, aber ungenauer. Es ist doch nicht schlimm, wenn JC für seine Engine möglichst gute Schatten haben will?

Crushinator
2003-05-13, 02:22:05
Originally posted by aths
Das Wort "andere" wird klein geschrieben :) Laß mir doch meine eigene Rechtsschreibreform. :)
Ich verstehe nicht, wie du JC einen Vorwurf machen willst, dass er sich auf Stencil Shadows "festgeschossen" hätte.
...
Es mag nach einem solchen Vorwurf klingen, das gebe ich ja zu. Der eigentliche Vorwurf gilt aber nicht der ausgewählten Technik selbst sondern NUR Folgen von Sätzen a la "I actually use an NV30 on my primary Machine..." wobei sich über die Jahre nur an der Zahl hinter NV was geändert hat. Das ist der Vorwurf und nichts anderes.
Es gibt unterschiedliche Möglichkeiten, Schatten zu rendern. JC hat entschieden, dass für seine Engine Stencil Shadows das beste sind. Das hat er zu Zeiten entschienen (und stellte auch kein Geheimnis dar) als von Radeon 8500 oder GeForce3 noch längst nicht die Rede war. ...sondern von der GF1, ich weiß -> Der Wahnsinn hat viel früher angefangen. :D
Nun sind wir schon eine volle Generation weiter: Radeon 9800 Pro, GeForce FX 5900. Ist NV jetzt irgendwie böse, weil sie dieses eine Feature besonders gut supporten? Nein, nicht NV sondern derjenige der trotz NV25-vernichtender Ergebnisse der R300 auf der letzjährigen E3 NICHT etwa behauptete, daß die R300 ein verdammt guter Chip ist. Nein, stattdessen wird dem Nächstbesten erzählt, daß die damlas imaginäre NV30 der Reisser schlechthin sein würde. :| Hat der in der Zwischenzeit eigentlich überhaupt ein Wort über den F-Buffer der R350 und dessen etwaigen Auswirkungen auf die Performance der Engine verloren? :lol:
Die GF1 (und GF2) wird für viele Effekte 7 Passes benötigen. Aber weder auf dem NV35, noch auf der 9800 Pro wird man Effekte sehen, die eine GF1 nicht rendern könnte. Dein Wort in wessen Ohr auch immer, das wird sich aber erst zeigen müssen, und ich lasse mich - wie immer - gerne eines besseren belehren.
Stencil Schatten sind eine sehr gute Methode, um exakte Schattenwürfe zu rendern. Shadow Maps, oder Schatten via Shadow Buffer sind in der Regel schneller zu rendern, aber ungenauer. Es ist doch nicht schlimm, wenn JC für seine Engine möglichst gute Schatten haben will? Nein mit Sicherheit nicht. Es würde aber wahrscheinlich nicht nur mich erfreuen, wenn auch er - in seiner Vorbildfunktion für eine ganze Branche - etwas mehr Herstellerneutralität zeigen und zum Bruch der entstandenen Monokultur etwas beitragen würde. (Wie auch immer er das anstellen mag)

In diesem Sinne,
Crushinator

Crushinator
2003-05-13, 02:44:12
Originally posted by aths
Anders herum könnte man argumentieren, es sei fies von ATI, dass sie weiland TruForm entwickelt haben, was NV ja nun gleich gar nicht unterstützt... bzw. fiese Entwickler nutzen TruForm auch noch dort, wo es nützlich ist, und lassen die GeForce-User im Regen stehen... :lol: Als ob das je passiert wäre. Das einzige, was passiert ist -> Man verteufelt ATi dafür, daß die R300 jetzt keine TrueForm mehr komplett in HW unterstützt und versucht gleichzeitig mit allen Mitteln zu verteidigen, warum nVidia PS 1.4 erst gar nicht bietet bzw. wenn überhaupt nur Ar***langsam. Wie dem auch sei, das Ganze ist eine ziemlich einseitige Geschichte zudem für nVidianer anscheinend nicht nachvollziehbar, und ich bin's auch satt gegen Windmühlen in Diskussionen zu ziehen.

aths
2003-05-13, 03:12:48
Originally posted by crushinator
:lol: Als ob das je passiert wäre. Das einzige, was passiert ist -> Man verteufelt ATi dafür, daß die R300 jetzt keine TrueForm mehr komplett in HW unterstützt und versucht gleichzeitig mit allen Mitteln zu verteidigen, warum nVidia PS 1.4 erst gar nicht bietet bzw. wenn überhaupt nur Ar***langsam. Wie dem auch sei, das Ganze ist eine ziemlich einseitige Geschichte zudem für nVidianer anscheinend nicht nachvollziehbar, und ich bin's auch satt gegen Windmühlen in Diskussionen zu ziehen. Was hat Stencil Shading jetzt mit PS.1.4 zu tun? Und - gerade JC gehört doch zu den wenigen Entwicklern, die die R200-Shader-Möglichkeiten überhaupt nutzen.

aths
2003-05-13, 03:13:22
Originally posted by crushinator
Der eigentliche Vorwurf gilt aber nicht der ausgewählten Technik selbst sondern NUR Folgen von Sätzen a la "I actually use an NV30 on my primary Machine..." wobei sich über die Jahre nur an der Zahl hinter NV was geändert hat. Das ist der Vorwurf und nichts anderes.Ich sehe mehrere Möglichkeiten, warum JC vorrangig auf NV-HW entwickeln könnte. Entweder, weil er NV einfach mag. Oder weil NV ihm bessere Treiber / besseren Support / bessere Einblicke in die Funktionsweise der HW bietet. Oder weil er von NV dafür Geld bekommt.

Ich denke, 3. ist unwahrscheinlich. Denn Geld bekommt er vorrangig durch die Lizensierung der Engine.

Aus 1. könnte man ihm einen Vorwurf drehen, dass er ATI-User einfach vernachlässige. Aber weil JC einerseits ein Mann ist, der von 3D ein bisschen Ahnung hat, und andererseits auf seinen nächsten Ferrari spart, denke ich dass persönliche Präferenzen, sofern er welche hat, bei ihm die untergeordnete Rolle spielen.

Bleibt 2.: Auf NV-HW zu entwickeln bringt ihm für sein Projekt irgendwelche Vorteile, die er bei ATI-HW nicht hätte.
Originally posted by crushinator
Nein, nicht NV sondern derjenige der trotz NV25-vernichtender Ergebnisse der R300 auf der letzjährigen E3 NICHT etwa behauptete, daß die R300 ein verdammt guter Chip ist. Nein, stattdessen wird dem Nächstbesten erzählt, daß die damlas imaginäre NV30 der Reisser schlechthin sein würde. :| Hat der in der Zwischenzeit eigentlich überhaupt ein Wort über den F-Buffer der R350 und dessen etwaigen Auswirkungen auf die Performance der Engine verloren? :lol:Würde der F-Buffer eine tolle Sache sein, also JCs Engine was bringen, und würde er außerdem per Extension in OpenGL verfügbar sein, hätte JC das in einem .plan wahrscheinlich angesprochen.

JC guckt nicht auf die HW und überlegt, wie er irgendwelche Features in die Engine unterkriegt, sondern er guckt auf seine Engine und überlegt, mit welchen Features man die notwendigen Effekte best- und schnellstmöglichst rendern kann.

Gegenüber NV25 ist der NV30 übrigens tatsächlich ein Reißer. Wenn NV-Fans den R300 runtergeredet haben, was hat das jetzt mit JCs Engine zu tun?
Originally posted by crushinator
Nein mit Sicherheit nicht. Es würde aber wahrscheinlich nicht nur mich erfreuen, wenn auch er - in seiner Vorbildfunktion für eine ganze Branche - etwas mehr Herstellerneutralität zeigen und zum Bruch der entstandenen Monokultur etwas beitragen würde. (Wie auch immer er das anstellen mag)Ich bin jetzt verwirrt, was das noch mit Stencil Shadows zu tun hat. Sollte JC, wenn er nun sieht, dass ATI diese Technik bislang nicht extra beschleunigt, eine andere Schattenberechnungsmethode anwenden, und somit auf einen elementaren Grundbaustein seiner Engine verzichten? Oder sollte er auf einer Karte entwickeln, auf der seine Engine im Moment langsamer läuft als seine aktuellen Entwicklungs-HW? Oder sollte er sich irgendwas von der Radeon aussuchen, was die FX nicht so toll unterstützt, und sich einen Effekt ausdenken der genau dieses Feature braucht?

Unregistered
2003-05-13, 03:19:11
Originally posted by Demirug


Bezogen auf DOOM III stimmt das absolute. Bei DOOM II bitte immer darn denken das diese Spiel/Engine technologisch auf DX7 Level ist. Die Fähigkeiten von DX9 Karten werden lediglich dazu benutzt um Multipass zu vermeiden und das Bumpmapping etwas genauer zu machen.

war doom3 nich directx 8.1?

Unregistered
2003-05-13, 03:20:49
Originally posted by kmf


Dann läuft ja Doom III doch auf meiner alten GF2Ultra.

Quatsch beseite: Sicher, es ist DX7, aber ausgereizt bis ins letzte und gepaart mit massenhaft Polygonen.

Eigentlich müßten CAD-Karten wie WildCat das Spiel am besten bringen, die können heute schon eine Polygonflut bewältigen, davon träumen wir Radeon9xUser.

lass mich mal so sagen! ich denke nich , tim!! du kannst damit zwar genauer rechnen, aber nich meh rpolygone erzeugen wie mit na radeon 9800 oder geforce fx

mapel110
2003-05-13, 03:22:30
imo sollte man sich darüber unterhalten, wenn das game erscheint.

ausserdem wirds doch nur speedunterschiede geben. mehr nicht. hat demirug doch schon gesagt.

mapel110
2003-05-13, 03:23:53
Originally posted by Unregistered


war doom3 nich directx 8.1?

opengl !!!!!!!!!!!!!!!!!1111111111111

auf techlevel von dx7 und mit speedoptimierungen für dx8 und dx9 grakas !

Unregistered
2003-05-13, 03:27:01
Originally posted by mapel110


opengl !!!!!!!!!!!!!!!!!1111111111111

auf techlevel von dx7 und mit speedoptimierungen für dx8 und dx9 grakas !

arrgg hit me! ne klar opengl!! sry, aber ich dachte eher an dx8 orientiert als wie an dx7 ..naja ich halt bessers maul :)

aths
2003-05-13, 04:03:07
Originally posted by Unregistered
war doom3 nich directx 8.1? Die Doom-Engine läuft unter OpenGL, nicht DirectX.

aths
2003-05-13, 04:04:07
Originally posted by mapel110
opengl !!!!!!!!!!!!!!!!!1111111111111

auf techlevel von dx7 und mit speedoptimierungen für dx8 und dx9 grakas ! Nö. Was man mit Register Combinern machen kann, kann man längst nicht mit jeder DX7-Karte machen.

Omnicron
2003-05-13, 07:35:13
Originally posted by aths
Die Doom-Engine läuft unter OpenGL, nicht DirectX.

Und wieso lief die A-Demo dann nicht mehr, wenn man DX 9.0 statt DX 8 installiert hatte ?

mapel110
2003-05-13, 07:37:01
Originally posted by Omnicron


Und wieso lief die A-Demo dann nicht mehr, wenn man DX 9.0 statt DX 8 installiert hatte ?

schreib nen bugreport an JC
absender nicht vergessen ;)

seahawk
2003-05-13, 08:24:49
Mir ist eine Idee gekommen.

Wir wissen, dass der Cat 3.2 läuft, der Cat 3.4 hingegen nicht.

Beim Cat 3.4 sollte ja durch Nutzung des Renderpfades der R350 Leistung gewonnen werden.

Ist es also denkbar, dass diese Änderungen zu den Problemen mit Doom 3 führen ??

Liquaron
2003-05-13, 08:27:37
Originally posted by seahawk
Mir ist eine Idee gekommen.

Wir wissen, dass der Cat 3.2 läuft, der Cat 3.4 hingegen nicht.

Beim Cat 3.4 sollte ja durch Nutzung des Renderpfades der R350 Leistung gewonnen werden.

Ist es also denkbar, dass diese Änderungen zu den Problemen mit Doom 3 führen ??


Mhh das ist schwer zu sagen. Der Treiber soll ja viele Neuerungen enthalten.

Welche davon jetzt dafür ausschlaggebend ist, ist zur Zeit imo aus unserer Sicht nicht zu bestimmen.

Demirug
2003-05-13, 08:31:03
Haut euch doch nicht die Köpfe ein.

Punkt 1: JC wollte dynamische Schatten.
-Als er das wollte war die GF1 das modernste Stück Consumerhardware
-Auf einer GF1 (und jeder anderen DX7-Karte) bekommt man korrekte Schatten nur mit den Stencilbuffer
-JC wählte also Stencilschatten weil es keine Alternativen gab.

Punkt 2: JC wollte dynamische Licht mit Bumpmapping
-Die einzige Methode dafür auf die die sich alle Hersteller wirklich einingen konnten war die Dot-Produkt methode
-Es war davon auszugehen das jede Karte die DOT3 und mindestens 2 Texturen pro Pass schafft auch die Lichteffekte darstellen kann. Bzw wurde die Engine genau auf diese Fall ausgelegt.

Punkt 3: JC wusste natürlich das es in Zukunft auch Karten mit mehr fähigkeiten geben wird und hat deswegen von Anfang an die möglichkeit vorgesehen aus vielen Passes mit jeweils 2 Texturen weniger Passes mit mehr Texturen zu erzeugen.

Punkt 4: JC und die IHVs unterhalten sich ja und JC erzählt ja auch öffentlich was er tut. Die IHVs wussten also schon recht früh was JCs genau plant. Da id Engines immer eine gewisse Richtung vorgeben denen anderen folgen ist es eigentlich nur logisch das sich die IHVs Gedanken darüber machen wie man die dort benutzten Techniken besser unterstützen kann.

Punkt 5: NVIDIA hat das eben erkannt und im Verlauf der Zeit die Hardware so weiterentwickelt das die DOOM III Engine davon profitieren kann. Diese Optimierungen helfen aber auch bei anderen Engines und NVIDIA erzählt den Entwickler ja auch immer was sie tun müssen um davon zu profitieren.

JC hat ja auch mal so schön gesagt das man den IHVs immer sagen muss was man haben will sonst machen die nichts. NVIDIA hat JC eben besser zugehört in den letzten jahren.

Unregistered
2003-05-13, 09:10:08
Originally posted by Demirug
Haut euch doch nicht die Köpfe ein.

Punkt 1: JC wollte dynamische Schatten.
-Als er das wollte war die GF1 das modernste Stück Consumerhardware
-Auf einer GF1 (und jeder anderen DX7-Karte) bekommt man korrekte Schatten nur mit den Stencilbuffer
-JC wählte also Stencilschatten weil es keine Alternativen gab.

Punkt 2: JC wollte dynamische Licht mit Bumpmapping
-Die einzige Methode dafür auf die die sich alle Hersteller wirklich einingen konnten war die Dot-Produkt methode
-Es war davon auszugehen das jede Karte die DOT3 und mindestens 2 Texturen pro Pass schafft auch die Lichteffekte darstellen kann. Bzw wurde die Engine genau auf diese Fall ausgelegt.

Punkt 3: JC wusste natürlich das es in Zukunft auch Karten mit mehr fähigkeiten geben wird und hat deswegen von Anfang an die möglichkeit vorgesehen aus vielen Passes mit jeweils 2 Texturen weniger Passes mit mehr Texturen zu erzeugen.

Punkt 4: JC und die IHVs unterhalten sich ja und JC erzählt ja auch öffentlich was er tut. Die IHVs wussten also schon recht früh was JCs genau plant. Da id Engines immer eine gewisse Richtung vorgeben denen anderen folgen ist es eigentlich nur logisch das sich die IHVs Gedanken darüber machen wie man die dort benutzten Techniken besser unterstützen kann.

Punkt 5: NVIDIA hat das eben erkannt und im Verlauf der Zeit die Hardware so weiterentwickelt das die DOOM III Engine davon profitieren kann. Diese Optimierungen helfen aber auch bei anderen Engines und NVIDIA erzählt den Entwickler ja auch immer was sie tun müssen um davon zu profitieren.

JC hat ja auch mal so schön gesagt das man den IHVs immer sagen muss was man haben will sonst machen die nichts. NVIDIA hat JC eben besser zugehört in den letzten jahren.

Das klingt ja alles so schon einfach und alle hanben sich eigentlich immer lieb..., aber mal ehrlich Demi, so naiv bist du doch nicht?!

perforierer
2003-05-13, 09:20:55
Ich fürchte, ich habe mittlerweile den Überblick über die Diskussion verloren...;D

WOHER kommt eigentlich die These, Doom3 würde mit nVidia Hardware überhaupt schneller laufen? Wir haben momentan doch nur eine Art Zwischenstand. Nach dem läuft die neueste nVidia Karte extrem gut mit Doom3, weil entweder Hardware oder Treiber oder beides extrem gut angepasst sind. Mehr lässt sich m.E. momentan nicht sagen. Aber bis D3 rauskommt, wird noch mindestens eine weitere Generation von Grafikkarten kommen.
Letztes Jahr um diese Zeit war ATI schneller auf Doom3, wer weiss, wie es in nem halben Jahr aussieht?

Dass die älteren Karten von nVidia, speziell nv25 erträglich performen muss auch nicht unbedingt heißen, dass J.C. nVidia bevorzugt. Kann einfach ein Architekturvorteil sein.

Dass J.C. einen nv30 Pfad einbauen musste ist für mich sonnenklar, wenn man bedenkt, dass der NV 30 im ARB2 Mode bis vor kurzem jedenfalls nur HALB so schnell war, wie im NV30 Modus. Vielleicht hat er für die R300+ Karten schlicht keinen anderen Pfad gebraucht, um gute Performance zu bekommen?

Riptor
2003-05-13, 09:27:52
Originally posted by perforierer
WOHER kommt eigentlich die These, Doom3 würde mit nVidia Hardware überhaupt schneller laufen? Wir haben momentan doch nur eine Art Zwischenstand. Nach dem läuft die neueste nVidia Karte extrem gut mit Doom3, weil entweder Hardware oder Treiber oder beides extrem gut angepasst sind. Mehr lässt sich m.E. momentan nicht sagen. Aber bis D3 rauskommt, wird noch mindestens eine weitere Generation von Grafikkarten kommen. Letztes Jahr um diese Zeit war ATI schneller auf Doom3, wer weiss, wie es in nem halben Jahr aussieht?

Nur wird sich so lieb man ATI haben kann sehr wenig nur noch passieren: OpenGL IST nVidia Domäne!

ow
2003-05-13, 09:32:07
Originally posted by perforierer
Ich fürchte, ich habe mittlerweile den Überblick über die Diskussion verloren...;D

WOHER kommt eigentlich die These, Doom3 würde mit nVidia Hardware überhaupt schneller laufen?


Woher kommt eigentlich die These ATi koennte unter OGL gegen NV anstinken?
Nur weil eine D3 alpha letztes Jahr auf ATi HW praesentiert wurde?

Demirug
2003-05-13, 09:52:38
Originally posted by Unregistered


Das klingt ja alles so schon einfach und alle hanben sich eigentlich immer lieb..., aber mal ehrlich Demi, so naiv bist du doch nicht?!

Was heist hier naiv? Glaubt hier wirklich ernsthaft jemand das es wie folgt abgelaufen ist?

NV: Hey John wir bauen in den nächsten Jahren in unserer Hardware ganz tollen support für Stencilbuffer operationen ein. Kannst du das nicht in deiner nächsten Engine richtig intensive benutzten damit wir gut darstehen?

JC: Ja natürlich für euch mache ich das doch gerne.

Das ganze ist eher so abgelaufen:

JC: Hey ich habe gerade mit Stencilschatten rumgespielt und das sieht auch ganz gut aus ist aber irgendwie nicht wirklich so richtig performat. Könnt ihr da mal was machen? Und wenn wir schon dabei sind ich könnte auch mehr Texturen pro Pass brauchen das mit den nur 2 ist ein bischen wenig. ...

NV: Mhm ja ok wir schauen mal was wir tun können.

Ich will ja gar nicht abstreiten das NVIDIA die guten Beziehungen zu JC genutzt hat um frühzeitig zu erfahren welche Features der Grafikkarte er insetzt und das dann auch entsprechende berücksichtigt haben.

perforierer
2003-05-13, 09:59:41
Originally posted by ow
Woher kommt eigentlich die These ATi koennte unter OGL gegen NV anstinken?
Nur weil eine D3 alpha letztes Jahr auf ATi HW praesentiert wurde?

Welche These? Von mir kommt die sicher nicht.
Fakt ist aber, dass letztes Jahr die Doom3 Alpha mit ATI Hardware am schnellsten war sonst wäre dass Spiel nicht darauf präsentiert worden.


Originally posted by Riptor Nur wird sich so lieb man ATI haben kann sehr wenig nur noch passieren: OpenGL IST nVidia Domäne!

Keine Ahnung. Wird man sehen. Kaffeesatzleserei liegt mir nicht :)
Es gibt denke ich kein naturgesetz, dass OGL unter ATI Karten langsamer laufen müsste. Alles eine Frage des Silliziums und der Treiber. :)

Unregistered
2003-05-13, 10:06:31
Um diese vollkommen nutzlose Diskussion um die Graka-Performance bei D3 zu beenden, mit dessen Verfügbarkeit FRÜHESTENS gegen Ende des Jahres zu rechnen ist, wäre eine automatische 10FPS-Begrenzung in allen nachfolgenden Cats ein durchaus sinnvolles Mittel. Somit müssen alle bis zum Release warten, bis der wirklich Sieger gekürt werden wird. Den Tron vor der Krönung beanspruchen, wird dann so lächerlich wirken, daß selbst hartnäckige Zeitgenossen davon ablassen werden!

Eine so offensichtlich leere Diskussion wäre doch eine schrecklich Vorstellung für euch. :)

ow
2003-05-13, 10:11:08
Originally posted by perforierer


Welche These? Von mir kommt die sicher nicht.
Fakt ist aber, dass letztes Jahr die Doom3 Alpha mit ATI Hardware am schnellsten war sonst wäre dass Spiel nicht darauf präsentiert worden.



Du fragtest nach der These bzgl. Doom3. Nun, dazu gibt es Benches, in denen sich die NV3x GPUs als sehr stark erweisen. Das ist als Anzeichen zu werden, dass D3 auf den NV Chips schneller laufen wird.


Keine Ahnung. Wird man sehen. Kaffeesatzleserei liegt mir nicht :)
Es gibt denke ich kein naturgesetz, dass OGL unter ATI Karten langsamer laufen müsste. Alles eine Frage des Silliziums und der Treiber. :)

Nein, ein Naturgesetz ist das nicht.;)
Aber die langjaehrige Erfarung zeigt, dass NV auf dem Gebiet OpenGL topfit ist, waehrend es bei ATi da noch etwas hapert, insbesondere bei der Performance.

Riptor
2003-05-13, 10:11:13
Originally posted by Unregistered
Eine so offensichtlich leere Diskussion wäre doch eine schrecklich Vorstellung für euch. :)

Ganz genau... Dann könnte man das Forum hier dicht machen. ;)

DrumDub
2003-05-13, 10:38:16
ow

das liegt aber vielleicht auch daran, dass nvidia so clever war seine eigenen extensions in opengl (GL_NV) zu intergrieren (was ati ja auch machen könnte!), während ati das meines wissens noch nicht gemacht hat und sich daher an den allgemeinen extensions (GL_ARB) bzw. denen, die von mehreren herstellern unterstützt werden (GL_EXT), orientiert.

das nvidia die eigene hardware natürlich auf die eigenen extensions optimiert, dürfte wohl jedem klar sein.

Quasar
2003-05-13, 10:41:21
DrumDub,

Die ARB2-Extension ist _sehr_ dicht an der ATi_Fragment_Shader-Extension dran, IIRC.

ATi hat durchaus eigene OpenGL-Extensionen, aber wenn eine "allgemeine " Extension bereits so dicht am Optimum ist (oder gar das Optimum darstellt, weil sie auf der Grundlage der herstellerspezifischen Extension ins Allgemeingut überführt wurde) besteht kein Grund für ATi, es den Entwicklern noch schwerer zu machen.

DrumDub
2003-05-13, 10:55:55
quasar

da haste recht. hab grad noch mal nachgesehen und es gibt tatsächlich eigene extensions von ati (http://www.opengl.org/developers/about/arb/notes/meeting_note_2003-03-11.html?ati#first_hit).

der punkt, den ich eigentlich meinte, ist der, dass nvidia mindestens seit drei jahren seine eigenen extensions für ogl vorschlägt, integrieren lässt, und daher m.e. nach einen zeitvorteil in der entwicklung der entsprechenden hardware hat. wenn ati die extensions von nvidia bei der entwicklung der hardware berücksichtigen würde, könnte das einen vorteil bedeuten. problem dabei ist nur, dass beide firmen im bezug auf die hardware unterschiedliche ansätze verfolgen.

vielleicht kann demirug sich ja dazu äußern, da er den technischen hintergrund wohl besser darlegen kann als ich... :)

ow
2003-05-13, 11:05:52
Originally posted by DrumDub
ow

das liegt aber vielleicht auch daran, dass nvidia so clever war seine eigenen extensions in opengl (GL_NV) zu intergrieren (was ati ja auch machen könnte!), während ati das meines wissens noch nicht gemacht hat und sich daher an den allgemeinen extensions (GL_ARB) bzw. denen, die von mehreren herstellern unterstützt werden (GL_EXT), orientiert.

das nvidia die eigene hardware natürlich auf die eigenen extensions optimiert, dürfte wohl jedem klar sein.

???

Von ATi gibt es ebenso eigene Extensions wie von NV, matrox, IBM, SGI,..... und diese Extensiosn sind NICHT in OpenGL integriert.

Wenn die HW von NV mehr kann als die ARB und EXT Extensiosn bieten, warum sollte man dann nicht eigene Extensions dafuer nutzen?
Macht ATi doch auch.

ow
2003-05-13, 11:06:47
Originally posted by Quasar
DrumDub,

Die ARB2-Extension ist _sehr_ dicht an der ATi_Fragment_Shader-Extension dran, IIRC.



AFAIK entspricht sie sogar der ARB Extension.

Indy
2003-05-13, 11:07:22
So, ich finde etwas wirklich komisch: Die 9500PRO ist langsamer als FX 5600ULTRA. Wie kann das sein? Ich will hier niemanden zum flamen bewegen, nur ich hab eben ne 9500PRO (bin kein Atifan oder so, sondern hab die karte gekauft, weil ihr preis-leistungs sau gut ist)und das gefühl, ´dass nicht alles so korrekt ist. Die 9500PRO ist hardwaretechnisch durch die 8x1 Arch. der 5600ULTRA klar überlegen, oder nicht? Wie kann sie dann langsamer sein? Vielleicht siehts ja auch so aus (nur REINE spekulation), dass nv über diesen benchmark (vielleicht speziell selektierter benchmark?) informiert war, dafür den treiber optimieren konnte und diesen als Sahnestück des NV35 Reviewgerölls bieten kann. Den überlegt mal, was hat man mit diesem bench erreicht? Richtig, die Leute sehen NV bzw. die FX Serie durch die besseren D3 ergebnisse als für die zukunft bewappneter an und somit wird wohl mehr geld durch die FXs in die nv kassen fließen.

Quasar
2003-05-13, 11:09:35
Originally posted by DrumDub
quasar

da haste recht. hab grad noch mal nachgesehen und es gibt tatsächlich eigene extensions von ati (http://www.opengl.org/developers/about/arb/notes/meeting_note_2003-03-11.html?ati#first_hit).

der punkt, den ich eigentlich meinte, ist der, dass nvidia mindestens seit drei jahren seine eigenen extensions für ogl vorschlägt, integrieren lässt, und daher m.e. nach einen zeitvorteil in der entwicklung der entsprechenden hardware hat. wenn ati die extensions von nvidia bei der entwicklung der hardware berücksichtigen würde, könnte das einen vorteil bedeuten. problem dabei ist nur, dass beide firmen im bezug auf die hardware unterschiedliche ansätze verfolgen.

vielleicht kann demirug sich ja dazu äußern, da er den technischen hintergrund wohl besser darlegen kann als ich... :)

Es gibt sogar einige nV-Extensionen, die von ATi unterstützt werden. Das ist immer dann sinnvoll, wenn die Implementation das gewünschte Resultat auch auf der eigenen Hardware erbringen kann und dabei nicht unnötig den Chip ausbremst.

ATi sitzt sogar im Vorstand des ARB-Komitees und hat ein entscheidenderes Wörtchen mitzureden, welche Extensionen wie standardisiert werden, als nV.

So kam, IIRC auch die integration der ARB2-Extension auf Wunsch von ATi und nicht nVidias zustande. Deren (nVs Version) war wohl zu stark auf deren Möglichkeiten zugeschnitten und ausserdem wollte man Lizenzgebühren kassieren.

Quasar
2003-05-13, 11:10:39
Originally posted by ow


AFAIK entspricht sie sogar der ARB Extension.

Ich meine auch, aber ich kann es nicht belegen (weder erklären, noch hab' ich 'nen Link).

DrumDub
2003-05-13, 11:18:09
nun gut. ich denke, dass meine spekualtionen da vielleicht in die falsche richtung gingen. die frage ist demnach, bezogen auf doom3, ob der arb2-pfad bezüglich der engine nicht so optimal ist, da die hardware von ati sich nicht so sehr an der engine orientiert. nvidia hat also in dieser hinsicht die hardware besser auf die speziellen erfordernisse der engine optimiert und kann diesen vorteil über einen eigenen renderpfad (momentan) besser ausnutzen.

meint ihr, dass ist so korrekt?

Demirug
2003-05-13, 11:22:08
Bisher war es immer so das die Hersteller für ihere neuen Sachen erst mal eine eigene Extension schreiben und sobald mehrer Hersteller sich da auf einen gemeinsamen stand einigen können gibt es eine entsprechenden allgemeine Extension.

Bei den Fragmentshadern des R300 hatte ATI eigentlich auch eine eigene Extension vorgesehen. Da NVIDIA aber gleich gesagt hat das sie das alles auch können hat man sich eben im Vorfeld zum wohle aller Entwickler gleich auf eine gemeinsame Extension geeinigt. ATI musste da aber noch ein paar Zugeständnisse machen da in der Extension mindestens eine kleine Sache enthalten ist die ATI direkt nicht unterstützt (swizzles).

Demirug
2003-05-13, 11:31:17
Originally posted by DrumDub
nun gut. ich denke, dass meine spekualtionen da vielleicht in die falsche richtung gingen. die frage ist demnach, bezogen auf doom3, ob der arb2-pfad bezüglich der engine nicht so optimal ist, da die hardware von ati sich nicht so sehr an der engine orientiert. nvidia hat also in dieser hinsicht die hardware besser auf die speziellen erfordernisse der engine optimiert und kann diesen vorteil über einen eigenen renderpfad (momentan) besser ausnutzen.

meint ihr, dass ist so korrekt?

Das liegt nicht am ARB2 Pfad der ist von der Engine Seite schon OK und solange JC die kleinen Fallen in Zusammenhang mit dem R300 vermieden hat gibt es da auch keinen Grund warum ATI da nicht die maximale Performances rausholen kann. ARB2 ist nur ein mittel zum Zweg und es liegt an den Treiberentwickler den ARB2 Code so gut wie möglich in die interne Struktur zu übersetzten.

Der ARB2 Renderpfad macht ja auch nur einen Teil des gesamten Renderprocesses aus. Und zwar den Lichtpass-Teil. Die Schattengeschichte hat zum Beispiel gar nichts mit ARB2 zu tun. Dafür gibt es andere Extension bzw sind das auch standard OpenGL Sachen.

Unregistered
2003-05-13, 11:37:36
"Abseits des schon erwarteten 256 Bit DDR1-Speicherinterfaces wird die CineFX-Architektur ein "2.0" abbekommen, was allerdings nur über ein einziges weiteres Feature begründet wird, die UltraShadow Technologie. Diese soll wesentliche Performance-Vorteile in Doom III bringen. Wenn dies so eintrifft, wäre es ein taktisch sehr cleverer Schachzug seitens nVidia, den Doom III wird natürlich ein Parade-Benchmark zur Leistungsbewertung von Grafikkarten ähnlich wie seinerzeit die verschiedenen Quake-Titel werden"

?

DrumDub
2003-05-13, 11:45:49
danke, demirug! ich gluab, jetzt ahb ichs soweit verstanden. bezüglich der schatten gehe ich mal aber davon aus, dass der nv pfad damit besser klar kommt... ich denke, dass dies hier dafür spricht:

On the R300 the Hierarchical-Z is disabled whenever the stencil buffer isn't cleared with the Z-buffer. This hurts performance. Is there any way around this?

Don't know.

(Note: ATI has since stated that they Hierarcial-Z buffer is not disabled, but seeing as there is no Hierarcical Stencil test it is just of no use during the actual stencil operation. It is, however, still enabled)

Your .plan indicates that the NV30-path that you use implements only 16-bits floating-point (FP), i.e. half precision FP, for most computation, which should be sufficient for most pixel shading. The ARB2-path does not have 16-bits FP, and so all computation are done with 32-bits FP on the NV30. With regards to the R300, there shouldn't be a difference since it is always 24-bits FP on the R300. According to your .plan, NV30 is twice as slow on 32-bits FP - that is why the NV30 is slower than the R300 on the ARB2-path, but faster on the NV30-path. The question is what sort of quality difference are we talking about (in DOOM3) for such a difference between FP formats?

There is no discernable quality difference, because everything is going into an 8 bit per component framebuffer. Few graphics calculations really need 32 bit accuracy. I would have been happy to have just 16 bit, but some texture calculations have already been done in 24 bit, so it would have been sort of a step back in some cases. Going to full 32 bit will allow sharing the functional units between the vertex and pixel hardware in future generations, which will be a good thing.

My interpretation from your .plan :

In terms of Performance :
NV30+NV30-path is faster than NV30+ARB2
NV30+NV30-path is faster than R300+ARB2
R300+ARB2 is faster than NV30+ARB2
R300+R200-path is faster than R300+ARB2

In terms of Quality :
NV30+ARB2 is better than NV30+NV30-path
NV30+ARB2 is better than R300+ARB2
R300+ARB2 is better than NV30+NV30-path
R300+ARB2 is better than R300+R200-path

Am I correct?

Correct.

Why is the ARB2 path so slow on NV30? Just the higher precision alone doesn't seem to account for NV30's performance given that it runs at a much higher clock speed versus the R300 and 96-bit vs 128-bit is but a 33% difference.

Apparently, the R300 architecture is a better target for a straightforward assembler / compiler, while the NV30 is twitchy enough to require more serious analysis and scheduling, which is why they expect significant improvements with later drivers.

What about the difference between NV30+NV30-path and R300+R200-path in terms of performance and quality?

Very close. The quality differences on the ARB2 path are really not all that significant, most people won't be able to tell the difference without having it pointed out to them.

Why do you have NV30-specific code paths and none for the R300?

There aren't any R300-specific fragment extensions, so I really can't make an R300-specific back end. I do support their two sided stencil extension (unfortunately, slightly different than NVIDIA's...), which is orthogonal to the back end selection.

In your opinion, why is it that the existing framebuffer content for a given pixel isn't a standard input to Pixel Shaders (which is a S3 DeltaChrome feature/advantage)?

All software developers want this, but the hardware developers insist that dedicated blenders vastly simplify the write ordering hazards.


http://www.beyond3d.com/interviews/jcnv30r300/index.php?p=2

Crushinator
2003-05-13, 11:51:36
Originally posted by aths
...
Ich bin jetzt verwirrt, was das noch mit Stencil Shadows zu tun hat. Sollte JC, wenn er nun sieht, dass ATI diese Technik bislang nicht extra beschleunigt, eine andere Schattenberechnungsmethode anwenden, und somit auf einen elementaren Grundbaustein seiner Engine verzichten? Oder sollte er auf einer Karte entwickeln, auf der seine Engine im Moment langsamer läuft als seine aktuellen Entwicklungs-HW? Oder sollte er sich irgendwas von der Radeon aussuchen, was die FX nicht so toll unterstützt, und sich einen Effekt ausdenken der genau dieses Feature braucht? Lieber aths, wir können natürlich jetzt wieder bis spät in die Nacht (vorsätzlich) an einander vorbei reden, oder Du versuchst wenigstens einmal einzusehen, daß es mir erstens nicht nur um ATi geht und daß ich an seiner Stelle auch mal eine andre Karte in meinem "primary machine" drin hätte, besonders dann wenn sie für eine relativ lange Zeit schneller/besser gewesen wäre als die Konkurrenz und das hat in der Tat wenig bis gar nichts mit Stencil Shadows selbst zu tun. Ich kritisiere nur das relativ subjektive Verhalten eines "Star Entwicklers" und wünsche mir für die Zukunft just in dem Punkt einfach nur Besserung.

Außerdem hat die Diskussion mit NV25 vs. R200 angefangen und ich war der Meinung, daß die R200 seine Stärken bezogen auf DooM3 nicht gerade gut ausspielen kann.

/edit: Ich versuche natürlich auch einzusehen, daß Du in vielen Dingen unbestreitbar richtig liegst. ;)

Crushinator
2003-05-13, 11:59:50
Originally posted by Demirug
Haut euch doch nicht die Köpfe ein. Haben wir doch nicht. Ich gebe allerdings zu, daß ich etwas zu weit abgeschweift bin. :embara:
JC hat ja auch mal so schön gesagt das man den IHVs immer sagen muss was man haben will sonst machen die nichts. NVIDIA hat JC eben besser zugehört in den letzten jahren. Zustimm....und mir wünsch', daß andere IHVs in Zukunft nachziehen.

Quasar
2003-05-13, 12:03:36
Originally posted by crushinator
Außerdem hat die Diskussion mit NV25 vs. R200 angefangen und ich war der Meinung, daß die R200 seine Stärken bezogen auf DooM3 nicht gerade gut ausspielen kann.

Hm, AFAIK benötigt er einen vollen Pass weniger pro Lichtquelle als der nV25.

Wenn das kein Vorteil ist, weiß ich auch nicht weiter...

ow
2003-05-13, 12:07:36
Originally posted by Quasar


Hm, AFAIK benötigt er einen vollen Pass weniger pro Lichtquelle als der nV25.

Wenn das kein Vorteil ist, weiß ich auch nicht weiter...

Der Vorteil ist schon da, aber der R200 eben zu langsam, um damit gegen eine NV20/25 glaenzen zu koennen.

Sieht man doch auch am 3DM03 (auch wenn der fuer sonst nix gut ist):

1 pass/light fuer PS1.4, 3 passes fuer PS1.1.

und dennoch liegt die GF4 deutlich vor einer 8500.

Crushinator
2003-05-13, 12:14:29
Originally posted by ow
Der Vorteil ist schon da, aber der R200 eben zu langsam, um damit gegen eine NV20/25 glaenzen zu koennen. Kommt das nicht auf die Taktung an? ???

ow
2003-05-13, 12:17:03
Originally posted by crushinator
Kommt das nicht auf die Taktung an? ???


inwiefern? was meinst du damit?

eine GF4ti4200 (250/250) ist in der Doom3 alpha wie im 3DM03 eine Radeon8500 (275/275) leistungsmaessig ueberlegen trotz des Nachteils der mehr Rendering-Passes.

Crushinator
2003-05-13, 12:25:06
Originally posted by ow
eine GF4ti4200 (250/250) ist in der Doom3 alpha wie im 3DM03 eine Radeon8500 (275/275) leistungsmaessig ueberlegen trotz des Nachteils der mehr Rendering-Passes. ups! Das wußte ich noch nicht. Das zeigt aber wieder mal, das dieses Spiel auf die entsprechende HW gut zugeschnitten ist bzw. andersrum. BTW: Wie hoch sind denn eigentlich die Unterschiede in fps?

/edit: Die R200 scheint aber auch selbst einwenig zu kränkeln, wenn es auch in 3DM2K3 so ist.

BUG
2003-05-13, 13:01:19
..liegen GeforceTI 4200 und ATI Radeon 8500 nich in etwa gleich auf im 3DM03?! ...habe doch beide Karten in etwa ~1600 Punkte wobei die Geforce4TI im ersten Bench etwas schneller ist und die ATI im Bench 2 & 3. :|

cu
BUG

MadMan2k
2003-05-13, 13:01:33
ist euch eigentlich schon aufgefallen, dass die benutzte Preview Version von DOOM III den Build 0.2 hat?
(siehe: http://www.hardocp.com/article.html?art=NDc0)
Dies ist IMO derselbe wie bei der geleakten Alpha...
...könnte es denn nicht sein, das Johnny einfach die Alpha nochmal verschickt hat umkein leaking Risiko einzugehen?
In gewiser Hinsicht ist die Alpha ja auch representativ für die finale Version, was Johnnys Aussage erklären dürfte - aber auch nur in gewisser... ;)
Zum R350 Renderpfad im C3.4:
es kann durchaus sein, dass dieser auf einer R300 zu Problemen mit D3 führen kann, aber die getestete karte war ja eine R350 und da sollte der Treiber ja funzen - aber vielleicht tut er das ja auch mit dem aktuellem Build und nicht mit der 0.2er...

ow
2003-05-13, 13:05:06
Originally posted by BUG
..liegen GeforceTI 4200 und ATI Radeon 8500 nich in etwa gleich auf im 3DM03?! ...habe doch beide Karten in etwa ~1600 Punkte wobei die Geforce4TI im ersten Bench etwas schneller ist und die ATI im Bench 2 & 3. :|

cu
BUG

bei welchen Takten?

der 3DM03 ist bekanntermassen kaum CPU-abhaengig.
mit der GF4 erreiche ich default ~1400 Punkte, mit meiner 8500 @ 4200-Takt noch keine 1200.

Crushinator
2003-05-13, 13:10:25
Originally posted by ow
mit der GF4 erreiche ich default ~1400 Punkte, mit meiner 8500 @ 4200-Takt noch keine 1200. Aha! Du böser böser ow! ;) Wieso hab' ich's mir nur genau so vorgestellt? Wer taktet schon eine Karte runter, um daraus einen realen Vergleich abzuleiten?

seahawk
2003-05-13, 13:12:26
Originally posted by BUG
..liegen GeforceTI 4200 und ATI Radeon 8500 nich in etwa gleich auf im 3DM03?! ...habe doch beide Karten in etwa ~1600 Punkte wobei die Geforce4TI im ersten Bench etwas schneller ist und die ATI im Bench 2 & 3. :|

cu
BUG

Wo der 3Mark2003 ja auch wirklich ein toller Benchmark ist um die reale LEistungsfähigkeit einer Graka zu messen.

Quasar
2003-05-13, 13:16:46
Originally posted by crushinator
Aha! Du böser böser ow! ;) Wieso hab' ich's mir nur genau so vorgestellt?

OMG, dann rechne doch die fehlenden 10% bei der Radeon8500 1:1 auf die Punkte drauf: 1200x1,1=1320
1320 < 1400

Böser, böser ow.... ;)

BUG
2003-05-13, 13:26:41
@seahawk
...war auf das vorherige Post von OW bezogen.

@OW
...3DM03 is schon CPU/System lastig, vorallem der erste (DirectX 7) Bech macht gewalltige Unterschiede zwichen 1500 MHz, 133FSB SD-RAM und 2500 MHz, 200FSB DDR-RAM. Bench 2, 3 & 4 sind eher Graka limitiert, wenn die Grakas aber mal "schnell genug" sind wird sich imho auch hier die CPU bzw System Leistung stark wiederspiegeln.

...also ich bin gerade zu Faul meine 8500 in den Rechner zu baun, aber ich bin mir ziemlich sicher, dass ich vor ca 4 Monaten um die 1500-1600 Punkte auf nem XP mit 2200 MHz (MSI 745Ultra) hatte.

cu
BUG

Crushinator
2003-05-13, 13:35:25
Originally posted by Quasar
OMG, dann rechne doch die fehlenden 10% bei der Radeon8500 1:1 auf die Punkte drauf: 1200x1,1=1320 1320 < 1400 :lol: Ja, man kann das Ganze wirklich seeeeeeeeeeeeeeeeeeehr subjektiv sehen und die GF4 in dem Punkt als "Überlegen" darstellen. Wenn es das ist, was ow hören möchte -> Bitte schön.

ow
2003-05-13, 15:15:43
Originally posted by crushinator
Aha! Du böser böser ow! ;) Wieso hab' ich's mir nur genau so vorgestellt? Wer taktet schon eine Karte runter, um daraus einen realen Vergleich abzuleiten?



Untertakten?
Default macht meine 8500 250/200, wo ist das was untertaktet bei 250/250? davon abgesehen reichen auch 275/275 auf der 8500 nicht, um die GF4ti4200 zu schlagen.

ow
2003-05-13, 15:17:44
Originally posted by crushinator
:lol: Ja, man kann das Ganze wirklich seeeeeeeeeeeeeeeeeeehr subjektiv sehen und die GF4 in dem Punkt als "Überlegen" darstellen. Wenn es das ist, was ow hören möchte -> Bitte schön.


jetet :lol: ich mal.

ist's schon wieder rum mit deiner argumentation?
echt armselig, dass du scheinbar zu keiner vernueftigen Diskussion faehig bist.

/edit: jeder der behauptet eine 8400 kaeme auf GF4 Leistung macht sich doch nur laecherlich.

Quasar
2003-05-13, 15:25:45
Originally posted by crushinator
:lol: Ja, man kann das Ganze wirklich seeeeeeeeeeeeeeeeeeehr subjektiv sehen und die GF4 in dem Punkt als "Überlegen" darstellen. Wenn es das ist, was ow hören möchte -> Bitte schön.

Was ist an simpler Punkt- und Strichrechnung subjektiv? AFAIK gibt es kaum etwas objektiveres als Mathematik, oder?

zeckensack
2003-05-13, 15:33:28
Originally posted by Quasar
DrumDub,

Die ARB2-Extension ist _sehr_ dicht an der ATi_Fragment_Shader-Extension dran, IIRC.

ATi hat durchaus eigene OpenGL-Extensionen, aber wenn eine "allgemeine " Extension bereits so dicht am Optimum ist (oder gar das Optimum darstellt, weil sie auf der Grundlage der herstellerspezifischen Extension ins Allgemeingut überführt wurde) besteht kein Grund für ATi, es den Entwicklern noch schwerer zu machen. ATI_fragment_shader ist die R200-Generation (identischer Funktionsumfang zu PS1.4).

ARB_fragment_program ist noch ein paar Ecken weiter, unterstützt floats, unbegrenzte Programmlängen, etc, aber noch kein flow control. Das würde ich auf den PS2.0-Level setzen, wenn du den Vergleich mit DX Graphics herstellen möchtest :)

Jedenfalls ist der Unterschied zwischen ATI_fs und ARB_fp recht drastisch, und letzteres ist IMO auch nicht wirklich auf ATI-Hardware zugeschnitten.

zeckensack
2003-05-13, 15:35:32
Originally posted by Omnicron


Und wieso lief die A-Demo dann nicht mehr, wenn man DX 9.0 statt DX 8 installiert hatte ? id-Engines nutzen seit jeher DirectSound und DirectInput (auf der Win32-Plattform ist das auch das bevorzugte Backend für OpenAL, SDL und wie sie alle heißen; es würde wenig Sinn machen, bei so simplen Dingen noch einen 'Vermittler' zwischenzuschalten).
Die Grafikausgabe ist aber bisher exklusiv OpenGL.

zeckensack
2003-05-13, 15:41:52
Originally posted by ow
Woher kommt eigentlich die These ATi koennte unter OGL gegen NV anstinken?
Nur weil eine D3 alpha letztes Jahr auf ATi HW praesentiert wurde? Ich wollt's auch erst nicht glauben, aber meine frisch eingetroffene Gf3Ti200 zieht von der reinen Effizienz* her allen meinen ATI-Karten die Hosen aus, in allen Bereichen. Der von modernen Spielen selten genutzte 'pixel path' ist mal eben zehnmal so schnell wie auf der Radeon 9500Pro.
Auch wenn man den nicht nutzt, bleiben in CPU/Treiber-limitierten Situationen immer noch ca 35% Vorsprung :|

*was ich da anspreche ist alles mögliche, aber nicht die Rohleistung der Karten. Auf dem Gebiet macht die R300 erwartungsgemäß die Geforce 3 so dermaßen platt ...

Quasar
2003-05-13, 15:49:56
Originally posted by zeckensack
ATI_fragment_shader ist die R200-Generation (identischer Funktionsumfang zu PS1.4).

ARB_fragment_program ist noch ein paar Ecken weiter, unterstützt floats, unbegrenzte Programmlängen, etc, aber noch kein flow control. Das würde ich auf den PS2.0-Level setzen, wenn du den Vergleich mit DX Graphics herstellen möchtest :)

Jedenfalls ist der Unterschied zwischen ATI_fs und ARB_fp recht drastisch, und letzteres ist IMO auch nicht wirklich auf ATI-Hardware zugeschnitten.

Hm, da hab' ich die beiden wohl irgendwie quergemust...

Was ich meinte, ist jedoch trotzdem noch verständlich?

zeckensack
2003-05-13, 15:59:03
Originally posted by Quasar
So kam, IIRC auch die integration der ARB2-Extension auf Wunsch von ATi und nicht nVidias zustande. Deren (nVs Version) war wohl zu stark auf deren Möglichkeiten zugeschnitten und ausserdem wollte man Lizenzgebühren kassieren. ARB2-Extensions gibt es (noch?) nicht.

Der entsprechende Renderpfad in der Doom3-Engine heißt ARB2, um sich von ARB (ohne 2 ;)) abzusetzen.

ARB2-Pfad: nutzt ARB_vertex_program und ARB_fragment_program
ARB-Pfad: nutzt (optional) ARB_vertex_program und 'normales' Multitexturing (via ARB_multitexture, ARB_texture_env_combine etc)

Daß die Nutzung von ARB_fragment_program in irgendeiner Art und Weise 'ungünstig' für NV3x sei, halte ich für FUD.

Die Präzisionsauswahl ist eine NV-Eigenart, und hätte sauber (mit einer von NV-Extension auf ARB_fp oben druff) integriert werden können. Ein zusätzlicher Opcode dafür wäre alles, was NV hätte spezifizieren müssen.

Flow control wird wahrscheinlich genauso laufen, nämlich in dem Sinne daß ARB_fp erweitert wird. Ungefähr so stelle ich mir das vor:

Treiber meldet "ARB_fragment_program"
-> kein flow control.
Treiber meldet "ARB_fragment_program" und "EXT_fragment_flow_control"
-> Aha, flow control.
Treiber meldet "ARB_fragment_program" und "NV_fragment_precision_hint" und "EXT_fragment_flow_control"
-> Aha, flow control und ein weiterer neuer Opcode für die Präzisionauswahl.

EXT_fragment_flow_control wäre dann eine 'freie' Extension, die man sofort liefern könnte. Das EXT-Präfix ist sinnvoll, weil das ganze kaum von IP oder Hardwareeigenheiten der einzelnen Hersteller abhängig ist (vgl NV_register_combiners/ATI_fragment_shader; EXT_xxx würde keinen Sinn machen, weil 'die anderen' es sowieso nicht umsetzen können).
Wenn die Extension von allgemeinen Interesse ist, kann das ARB sie später (zur Not mit kleineren Änderungen) zum ARB-Status 'erheben' ("promoted to ARB status on ...").

Das hätte IMO alle Parteien glücklich gemacht, NV ging leider wieder einen eigenen Weg.

zeckensack
2003-05-13, 16:03:44
Originally posted by Quasar


Hm, da hab' ich die beiden wohl irgendwie quergemust...

Was ich meinte, ist jedoch trotzdem noch verständlich? Entschuldige, aber was meintest du? :)
Wenn du das Theme "ARB_fp auf NV30" meinst, dazu habe ich gerade einen Schwall verfasst :)

Es wäre bei den Extensions ein (IMO besseres, saubereres) Design möglich gewesen, aber NV hat sich eben anders entschieden. Das ist übrigens auch ihr gutes Recht.

DrumDub
2003-05-13, 16:10:36
deshalb ist opengl ja auch nen offener standard...

Quasar
2003-05-13, 16:11:25
Ich meinte, kurz gefasst, dass ATi eben diesen kurzen, sauberen Weg gegangen ist, ohne noch eine extra-extra-wurst gebastelt haben zu wollen.
Und da sie sich für diese Option entschieden haben, ist es IMO naheliegend, dass die entsprechende Extension (ARB_fragment_program) ihre Hardware schon nahezu optimal auszunutzen (denn sonst hätten sie wohl, um keine Leistung zu verschenken, doch eine separate Extension gewählt).

zeckensack
2003-05-13, 16:33:54
Originally posted by Quasar
Ich meinte, kurz gefasst, dass ATi eben diesen kurzen, sauberen Weg gegangen ist, ohne noch eine extra-extra-wurst gebastelt haben zu wollen.
Und da sie sich für diese Option entschieden haben, ist es IMO naheliegend, dass die entsprechende Extension (ARB_fragment_program) ihre Hardware schon nahezu optimal auszunutzen (denn sonst hätten sie wohl, um keine Leistung zu verschenken, doch eine separate Extension gewählt). Das halte ich nicht für soo tragisch.
ARB_fp definiert ja 'nur' eine Programmiersprache. Diese muß auf jeden Fall auf die spezielle Hardware runterkompiliert werden. Das ist in allen Fällen eine nicht ganz einfache Angelegenheit, weil man dafür eben Compiler-know how braucht. Auch ATI-HW enthält mit Sicherheit keine dedizierten Einheiten für String-Parsing :)
Auch da muß Binärcode erzeugt werden, Ressourcenkonflikte gecheckt und umgangen werden, etc. (so gibt es zB auf ATI-HW die lustige Einschränkung, daß das Ergebnis eines dot product nicht einem Alpha-Kanal zugewiesen werden kann, wenn es nicht vorher in ein RGB-Register geschrieben wurde :|).

Einfach nur "String rein, Opcode raus" kann keiner der beiden Hersteller machen. So.
*hust*

Die 'Optimierung' der Shader auf die tatsächlich vorhandene Hardware braucht dabei nur ein einziges Mal zu erfolgen, nämlich wenn der Shader zuerst an die API übergeben wird. Später macht man dann irgendein glBindBlabla(shader_id);
Beim Optimieren des Programms kann sich der Treiber quasi alle Zeit der Welt lassen, das ist nicht performancekritisch. Wird der selbe Shader später wieder gebraucht, kann diese Vorarbeit komplett entfallen.

Kurzum: IMO hat NV auch mit ARB_fp die Möglichkeit, ihre Hardware bis an die Wand zu fahren, weil sie die Shader nach Gusto umsortieren können ohne dadurch nennenswert Leistung zu verlieren. Was an ARB_fp langsam ist, ist (schon wieder IMO) durch die relative 32bit FP-Schwäche des NV3x zu erklären.

Mad Max
2003-05-13, 16:53:43
ich hab da ne andere Frage
hab mir bisserl die Benches zu Q3 angeschaut
wenn scho die 400fps bei nem 3ghz P4 und der neuen FX fasst gebrochen wird
soll das heisen das dann bei ner 640er Auflösung und bisserl OC mal eben unsinnige 500fps möglich währen??

AlfredENeumann
2003-05-13, 19:44:36
Originally posted by seahawk


Beim Cat 3.4 sollte ja durch Nutzung des Renderpfades der R350 Leistung gewonnen werden.


es sollte ne Funktion drin sein die stencil-Schatten besser /schneller darstellt soweit ich weis. Also ist es meine Meinung nach nur ein Treiberbug. Aber trotzdem Peinlich für ATI.

McMaster
2003-05-13, 20:04:48
Originally posted by Seraf
Hat Carmack nicht mal gesagt das die Nv3x in Arb2 langsamer aber mit eigenen Extensions schneller als ATI Grafikkarten sind? ?-)


Aber mal abwarten und Tee trinken.



Da muss ich dir vollkommen zustimmen !!
Ich weis ich kann es ja auch nur vermuten ;) Aber ich denke, dass da auf jeden Fall der Hund begraben liegt !! Wieso hat Carmak eigentlich keinen Extensions für den R3xx gemacht?!! Ja ich weis es gibt R200 und die sollen das meiste abbdecken.Oder so ähnlich??? Aber warum nutzt die Radeon 9800 usw. dann nicht diese!?

Hat da zufällig grad jemand ne Antwort drauf?

Oder warum haben sie nicht auch beim NV3x die ARB2 genommen? Ja ich weis die sollen "noch nicht funktionieren" *g*
Ich denk mal dass kann sich jeder denken warum! Also ist mal wieder alles wie immer bzw. früher NV Karten performen durch Bevorzugen und andere haben das nachsehen!

Naja, vieleicht ändert sich da ja noch was!
Dies hoffe ich zwar, aber ich glaubs nicht!


Mfg Nico

Demirug
2003-05-13, 20:12:13
Originally posted by McMaster

Da muss ich dir vollkommen zustimmen !!
Ich weis ich kann es ja auch nur vermuten ;) Aber ich denke, dass da auf jeden Fall der Hund begraben liegt !! Wieso hat Carmak eigentlich keinen Extensions für den R3xx gemacht?!! Ja ich weis es gibt R200 und die sollen das meiste abbdecken.Oder so ähnlich??? Aber warum nutzt die Radeon 9800 usw. dann nicht diese!?

Hat da zufällig grad jemand ne Antwort drauf?

Ja die steht aber auch schon irgendwo im Thread. ;)

Der R300 ist mit dem R200 Pfad nur minimalschneller aber von der Qualität auch etwas schlechter.

JC kann keine Extensions schreiben er kann nur renderpfade schreiben welchen Extensions nutzen. Die Extensions müssen vom Chiphersteller kommen. ATI unterstützt nun aber für den R300 keine eigene Extension.

Oder warum haben sie nicht auch beim NV3x die ARB2 genommen? Ja ich weis die sollen "noch nicht funktionieren" *g*
Ich denk mal dass kann sich jeder denken warum! Also ist mal wieder alles wie immer bzw. früher NV Karten performen durch Bevorzugen und andere haben das nachsehen!

Naja, vieleicht ändert sich da ja noch was!
Dies hoffe ich zwar, aber ich glaubs nicht!


Mfg Nico

Wenn JC sich die mühe macht und einen Extra pfad für den NV30 schreibt kann man den ja auch benutzten. Das Game wird in am Ende ja auch benutzten. Wenn der R300 auch eine eigene Extension hätte würde JC dafür sicher auch einen eigenen Pfad schreiben da im das scheinbar durchaus spass macht.

in einem zukünftigen Treiber wird auch NVIDIA die ARB2 Extension unterstützen.

Anonym_001
2003-05-13, 20:19:22
Originally posted by Demirug
in einem zukünftigen Treiber wird auch NVIDIA die ARB2 Extension unterstützen.

Und je nach dem wie schnell die FX5900 damit ist, werden wieder D3 Benchmarks veröffentlicht oder auch nicht. ;)

McMaster
2003-05-13, 20:32:53
Danke mal für die Erklärungen! und schon weis man wieder ien bischen mehr ;)

Woher weist dudies?!

"Der R300 ist mit dem R200 Pfad nur minimalschneller aber von der Qualität auch etwas schlechter."



Mfg Nico

Demirug
2003-05-13, 20:44:21
Originally posted by McMaster
Danke mal für die Erklärungen! und schon weis man wieder ien bischen mehr ;)

Woher weist dudies?!

"Der R300 ist mit dem R200 Pfad nur minimalschneller aber von der Qualität auch etwas schlechter."



Mfg Nico

Hat JC in einem Plan File eintrag geschrieben und er muss es ja wissen.

Winter[Raven]
2003-05-13, 21:41:33
Hmmm ... also ich habe mir jetzt Zeit genommen und jeden Posting durchzulesen, und ich werde das Gefühl nicht los, das hier einige Leute John Carmack für einen Aroganten Arschloch halten.

Und wo hier jemand schon von Half Life 2 und Grafik redet. Ich gebe zu die sieht echt nett aus, aber an DOOM III kommt es nicht ran. Dafür fehlen so einige Effekte. Sicherlich wird HL 2 ein Hit, wie auch der erste Teil, aber ich glaube DOOM III mehr als nur ein Hit und sollte doch knapp gewinnen, schon durch die Exteme Athmosphäre.

Naja, Die Print Magazine ala Gamestar werden sicherlich HF 2 besser bewerten als DOOM III.

Wenn ich mich Richtig an den Test von ST: DS9: The Fallen Errinere, meinte Peter Steinlechner das SPIEL SEI ZU DUNKEL UND MAN DADRUCH DEN WEG NICHT finde. Nicht das DOOM III auch zustößt *gg*

MadMan2k
2003-05-13, 22:07:18
Originally posted by MadMan2k
ist euch eigentlich schon aufgefallen, dass die benutzte Preview Version von DOOM III den Build 0.2 hat?
(siehe: http://www.hardocp.com/article.html?art=NDc0)
Dies ist IMO derselbe wie bei der geleakten Alpha...
...könnte es denn nicht sein, das Johnny einfach die Alpha nochmal verschickt hat umkein leaking Risiko einzugehen?
In gewiser Hinsicht ist die Alpha ja auch representativ für die finale Version, was Johnnys Aussage erklären dürfte - aber auch nur in gewisser... ;)
Zum R350 Renderpfad im C3.4:
es kann durchaus sein, dass dieser auf einer R300 zu Problemen mit D3 führen kann, aber die getestete karte war ja eine R350 und da sollte der Treiber ja funzen - aber vielleicht tut er das ja auch mit dem aktuellem Build und nicht mit der 0.2er...
bin ich der einzige dem das aufgefallen ist??

Demirug
2003-05-13, 22:18:43
Originally posted by MadMan2k

bin ich der einzige dem das aufgefallen ist??

Nein, aber auf Versionnummern von noch nicht releaster Software gebe ich nichts (bin selber meistens zu faul die Versionsnummer zu ändern).

Die Alpha kann es eigentlich nicht sein weil der ARB2 Pfad in dieser AFAIK noch nicht enthalten war.

zeckensack
2003-05-13, 22:21:35
Originally posted by MadMan2k

bin ich der einzige dem das aufgefallen ist?? Die Alpha trägt die Versionsnummer 0.02.
Kleiner, aber wichtiger Unterschied ;)

ow
2003-05-13, 22:24:19
Originally posted by Demirug


Die Alpha kann es eigentlich nicht sein weil der ARB2 Pfad in dieser AFAIK noch nicht enthalten war.

Nach meinen logfiles würd ich da nicht drauf wetten.

---------- R_NV20_Init ----------
Not available.
---------- R_NV30_Init ----------
Not available.
----- R200_Init -----
GL_NUM_FRAGMENT_REGISTERS_ATI: 6
GL_NUM_FRAGMENT_CONSTANTS_ATI: 8
GL_NUM_PASSES_ATI: 2
GL_NUM_INSTRUCTIONS_PER_PASS_ATI: 8
GL_NUM_INSTRUCTIONS_TOTAL_ATI: 16
GL_COLOR_ALPHA_PAIRING_ATI: 1
GL_NUM_LOOPBACK_COMPONENTS_ATI: 3
GL_NUM_INPUT_INTERPOLATOR_COMPONENTS_ATI: 3
---------------------
----- Par_Init -----
---------------------
----- GL2_Init -----
Not available.

Quasar
2003-05-13, 22:30:00
Originally posted by zeckensack
Die Alpha trägt die Versionsnummer 0.02.
Kleiner, aber wichtiger Unterschied ;)

Er hat sich nur verschrieben, Zecki. Die Diagramme auf [H]ardOCP tragen tatsächlich "v0.02" im Titel.

perforierer
2003-05-13, 22:32:06
Originally posted by Shakiro
Und wo hier jemand schon von Half Life 2 und Grafik redet. Ich gebe zu die sieht echt nett aus, aber an DOOM III kommt es nicht ran. Dafür fehlen so einige Effekte. Sicherlich wird HL 2 ein Hit, wie auch der erste Teil, aber ich glaube DOOM III mehr als nur ein Hit und sollte doch knapp gewinnen, schon durch die Exteme Athmosphäre.

Sicher wird Doom3 besser aussehen. Welches Spiel besser ist, ist eine ganz andere Frage. Man wird sehen.

Demirug
2003-05-13, 22:33:24
Originally posted by ow


Nach meinen logfiles würd ich da nicht drauf wetten.

---------- R_NV20_Init ----------
Not available.
---------- R_NV30_Init ----------
Not available.
----- R200_Init -----
GL_NUM_FRAGMENT_REGISTERS_ATI: 6
GL_NUM_FRAGMENT_CONSTANTS_ATI: 8
GL_NUM_PASSES_ATI: 2
GL_NUM_INSTRUCTIONS_PER_PASS_ATI: 8
GL_NUM_INSTRUCTIONS_TOTAL_ATI: 16
GL_COLOR_ALPHA_PAIRING_ATI: 1
GL_NUM_LOOPBACK_COMPONENTS_ATI: 3
GL_NUM_INPUT_INTERPOLATOR_COMPONENTS_ATI: 3
---------------------
----- Par_Init -----
---------------------
----- GL2_Init -----
Not available.

Da sehe ich aber nichts was sich auf ARB2 bezieht.

Und in der Extension Dokumentation steht da auch noch:


Status

Complete. Approved by ARB on September 18, 2002

Salvee
2003-05-13, 22:43:25
Reichlich merwürdig finde ich die Tatsache, dass die FX5900 Ultra mit 4xAA doch tatsächlich schneller ist als ohne AA !
FSAA for free war gestern - heute gibts noch Leistung dazu ;)
Der Leistungseinbruch ist auch bei 1280 bzw. 1600 sehr gering (3,5 fps bzw. 5 fps).

Zu gering ?

Ohne FSAA (http://www6.tomshardware.com/graphic/20030512/geforce_fx_5900-12.html)
Mit FSAA (http://www6.tomshardware.com/graphic/20030512/geforce_fx_5900-13.html)

Crushinator
2003-05-13, 22:53:40
Originally posted by ow
jetet :lol: ich mal. Schön daß Du auch Deinen Spaß hast. :)
ist's schon wieder rum mit deiner argumentation?
echt armselig, dass du scheinbar zu keiner vernueftigen Diskussion faehig bist. ow, auch wenn ich der Meinung bin, daß Du den Witz nur nicht verstanden hast, obwohl ich Dir mathematisch recht gegeben habe und extra "Bitte schön" schrieb -> Ich bedauere sehr, wieder angefangen zu haben mit Dir überhaupt zu diskutieren, da ich dabei eh' nur irregeführt werde. Wie gut nur, daß ich weder auf Deine Irreführung angewiesen bin noch auf die Deinesgleichen. ;)
/edit: jeder der behauptet eine 8400 kaeme auf GF4 Leistung macht sich doch nur laecherlich. Nein ow, der Einzige der nichts anderes tut als sich lächerlich zu machen bist Du. Wer eine Ti4200 anhand des Unterschieds von 80 Punkten von 1400 (zu dem noch als Gesamtpunktezahl von 3DM2K3) zu einer "normalen" 8500 als "Überlegen" darstellt und eine anschließend ironisch formulierte Zustimmung mit so einem persönlichen Dünnsinn beantwortet, sollte sich wenigstens ein mal in seinem Leben an die Nase fassen. BTW: "Minimal schneller" würde IMHO eher zu ~7% Vorsprung passen.

In diesem Sinne,
Crushinator

Demirug
2003-05-13, 22:57:54
Originally posted by Salvee
Reichlich merwürdig finde ich die Tatsache, dass die FX5900 Ultra mit 4xAA doch tatsächlich schneller ist als ohne AA !
FSAA for free war gestern - heute gibts noch Leistung dazu ;)
Der Leistungseinbruch ist auch bei 1280 bzw. 1600 sehr gering (3,5 fps bzw. 5 fps).

Zu gering ?

Ohne FSAA (http://www6.tomshardware.com/graphic/20030512/geforce_fx_5900-12.html)
Mit FSAA (http://www6.tomshardware.com/graphic/20030512/geforce_fx_5900-13.html)

Ich frage mich auch was Borsti das gebencht hat. ???

Bei HardOCP ist diese Verhalten nicht erkennbar.

Crushinator
2003-05-13, 23:01:15
Originally posted by Quasar
Was ist an simpler Punkt- und Strichrechnung subjektiv? AFAIK gibt es kaum etwas objektiveres als Mathematik, oder? Ja, in der Tat. Nur sind ~7% Unterschied (1400 zu 1320) für mich als Realo ;) nicht "überlegen" sondern minimal schneller. Ich wüßte zumindest nicht, daß ich eine GraKa (egal von wem) nur deshalb aus dem PC bannen würde, weil sie in irgendeinem Game statt 56 fps in etwa 53 liefert. Ist ja auch egal, ich sehe jedenfalls keinen Sinn darin noch weiter Haare zu spalten.

egdusp
2003-05-13, 23:12:02
Originally posted by Salvee
Reichlich merwürdig finde ich die Tatsache, dass die FX5900 Ultra mit 4xAA doch tatsächlich schneller ist als ohne AA !
FSAA for free war gestern - heute gibts noch Leistung dazu ;)
Der Leistungseinbruch ist auch bei 1280 bzw. 1600 sehr gering (3,5 fps bzw. 5 fps).

Zu gering ?

Ohne FSAA (http://www6.tomshardware.com/graphic/20030512/geforce_fx_5900-12.html)
Mit FSAA (http://www6.tomshardware.com/graphic/20030512/geforce_fx_5900-13.html)

Anand hat AFAIR geschrieben, dass bei den High Quality Settings Doom3 automatisch AF dazuschaltet. Dieses AF scheint der 5900 aber nicht zu schmecken. Vielleicht weil sie dadurch keine Treiberoptimierungen anwenden können (Intellisample AF Texturanalyse)? Da wird NV oder id aber sicher noch nachbessern.

Vieleicht wird durch aktivieren von AA das AF deaktiviert oder wieder auf die optimierte Einstellung gesetzt.

mfg
egdusp

Salvee
2003-05-13, 23:28:33
Originally posted by egdusp


Anand hat AFAIR geschrieben, dass bei den High Quality Settings Doom3 automatisch AF dazuschaltet. Dieses AF scheint der 5900 aber nicht zu schmecken. Vielleicht weil sie dadurch keine Treiberoptimierungen anwenden können (Intellisample AF Texturanalyse)? Da wird NV oder id aber sicher noch nachbessern.

Vieleicht wird durch aktivieren von AA das AF deaktiviert oder wieder auf die optimierte Einstellung gesetzt.

mfg
egdusp

Also sind die ATi-Benches vielleicht mit AA und AF und die nV nur mit AA ???
Ist echt ein Joke, fast schon eine Frechheit, dieser 'Benchmark'
Auch sind die ermittelten Werte bei THG und [H] extrem unterscheidlich bei einer sehr vergleichbaren Systemumgebung:

THG-ATi 1024: 61 fps [H]-ATi 1024: 69,5 fps / Diff. 14 %
THG-NV 1024: 55 fps [H]-nV 1024: 86,1 fps / Diff. 57%

Korrigiert mich, wenn ich mich irre, aber irgendwie ist da etwas schief gelaufen.

egdusp
2003-05-13, 23:52:05
Originally posted by Salvee


Also sind die ATi-Benches vielleicht mit AA und AF und die nV nur mit AA ???
Ist echt ein Joke, fast schon eine Frechheit, dieser 'Benchmark'
Auch sind die ermittelten Werte bei THG und [H] extrem unterscheidlich bei einer sehr vergleichbaren Systemumgebung:

THG-ATi 1024: 61 fps [H]-ATi 1024: 69,5 fps / Diff. 14 %
THG-NV 1024: 55 fps [H]-nV 1024: 86,1 fps / Diff. 57%

Korrigiert mich, wenn ich mich irre, aber irgendwie ist da etwas schief gelaufen.

Nun, THG hat eine fast finale Version von Doom3 benutzt, H die geleakte Alpha.
Die Shadercodeoptimierungen des Treibers (DetoFX) oder die Ultra Shadow Buffer Optimierungen in Doom3 funtkionieren wohl auf der Alpha noch nicht.

mfg
egdusp

egdusp
2003-05-13, 23:57:03
Doom3 Video auf http://www.nvnews.net/ . Abgefilmt von einer E3 Präsentation.
Geil vor allem die Bewegungen.
Leider nur schlechte Qualität, dafür aber schön klein (2,3 MB).

mfg
egdusp

Salvee
2003-05-14, 00:00:03
Originally posted by egdusp


Nun, THG hat eine fast finale Version von Doom3 benutzt, H die geleakte Alpha.
Die Shadercodeoptimierungen des Treibers (DetoFX) oder die Ultra Shadow Buffer Optimierungen in Doom3 funtkionieren wohl auf der Alpha noch nicht.

mfg
egdusp

Nope. Die Demo von [H] ist mitnichten Version 0.02, auch wenn es drübersteht, zumindest nicht diesem Zitat nach (zu finden auf der Testseite bei OCP)

'John Carmack has described the demo we used as a random code drop from a recent build of DOOM 3 and he believes it to be representative of the final game in a performance sense.'

Evtl. sind es aber zwei verscheidene Demos, die bei THG und HardOCP gebencht wurden, oder die Tests sind für die Tonne, was weiss ich.

Edit: Kann auch irgendwie nicht so sein, da bei [H] die fps wie erwähnt deutlich höher ausfallen.

kmf
2003-05-14, 01:17:17
Hatte keine Lust, nachzusehen, ob's schon jemand gepostet hat.

War grad mal bei Anandtech um mir den Test anzusehen. Bilder von Benches kann ich leider keine mehr finden. Liegt's vielleicht an meinem Browser? ;D

hier klicken (http://www.anandtech.com/video/showdoc.html?i=1821&p=21)

Bitte löschen, fall's schon bekannt.

Quasar
2003-05-14, 01:25:09
Wie meinen? Bilder von den Benches?

Hab' grad nochmal dort vorbeigeschaut und es ist alles in bester Ordnung.

kmf
2003-05-14, 01:27:33
Originally posted by Quasar
Wie meinen? Bilder von den Benches?

Hab' grad nochmal dort vorbeigeschaut und es ist alles in bester Ordnung.

Ehrlich?

Bei mir erscheinen nur große leere weiße Lücken zwischen den Textspalten.

Sry, dann hab ich wohl doch ein Browserprob.

[edit]

hab gerade mal Java neu installiert, jetzt kann ich's auch sehen.:eyes:

Also bitte raus mit dem Müll. Nochmal Sorry.

BUG
2003-05-14, 01:40:36
http://www.rivastation.com/dcforum99/gaga/grafik/10824.html :|

cu
BUG

Salvee
2003-05-14, 02:55:59
Originally posted by BUG
http://www.rivastation.com/dcforum99/gaga/grafik/10824.html :|

cu
BUG

Irgendwie klingt das ganze ziemlich suspekt und unglaubwürdig, was der Gute da zum Besten gibt.

Egal, imo lohnt das Warten auf ein Review bei B3D (oder natürlich hier :) ), und zwar mit optimierten Treibern beider IHVs.
Im Gegensatz zu Borsti können die Jungs nämlich benchen, und die Ergebnisse gescheit interpretieren.
Wenn es dann heisst, NV35 pwn3d R350 gewaltigst in Doom3, dann glaube ich es auch.
Aber keine Sekunde früher.

mapel110
2003-05-14, 03:58:19
Originally posted by Salvee
Wenn es dann heisst, NV35 pwn3d R350 gewaltigst in Doom3, dann glaube ich es auch.
Aber keine Sekunde früher.

bevor nicht die final von doom3 auf meiner platte ist, glaube ich keinem

borstis text ist amüsant. das umschreibt es wohl am besten :)

MadManniMan
2003-05-14, 05:00:44
Originally posted by mapel110
bevor nicht die final von doom3 auf meiner platte ist, glaube ich keinem

*unterschreib*

Originally posted by mapel110
borstis text ist amüsant. das umschreibt es wohl am besten :)

tja, ich frag mich, wie man einerseits so naiv sein kann und andererseits das auch noch professionell zu betreiben. aber offenbar ist es einfach so wie bei vielen dingen: wer ärsche kriecht, der hats schön warm!

ow
2003-05-14, 16:30:53
Originally posted by Demirug


Da sehe ich aber nichts was sich auf ARB2 bezieht.

Und in der Extension Dokumentation steht da auch noch:





ich bezog mich auf das GL2_Init, das imo den ARB2 Pfad 'darstellt'.
Hab nur keine Karten die den ARB2 nutzt.

Par_Init ist afaik fuer die Parhelia.
Die andere Pfade erklaeren sich wohl von selbst (NV20, NV30, R200)

ow
2003-05-14, 16:33:52
Originally posted by crushinator
Ja, in der Tat. Nur sind ~7% Unterschied (1400 zu 1320) für mich als Realo ;) nicht "überlegen" sondern minimal schneller. Ich wüßte zumindest nicht, daß ich eine GraKa (egal von wem) nur deshalb aus dem PC bannen würde, weil sie in irgendeinem Game statt 56 fps in etwa 53 liefert. Ist ja auch egal, ich sehe jedenfalls keinen Sinn darin noch weiter Haare zu spalten.

Was faselst du da von 7%?

Mehr als 1100 3DMarks konnt ich aus meiner 8500 nicht rausquetschen. Mit der GF4 komm ich locker ueber 1400.

Nimm dir auch ruhig mal ein paar andere Benches vor.
Ich sage dir, die ti4200 leistet zwischen 10 und 30% mehr als eine 8500.

Demirug
2003-05-14, 16:59:40
Originally posted by ow



ich bezog mich auf das GL2_Init, das imo den ARB2 Pfad 'darstellt'.
Hab nur keine Karten die den ARB2 nutzt.

Par_Init ist afaik fuer die Parhelia.
Die andere Pfade erklaeren sich wohl von selbst (NV20, NV30, R200)

hehe falsch geraten ;)

GL2_Init ist ein Experimentalpfad für OpenGL 2.0 also für den P10/P9.