PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Carmack über P10, OpenGL2, DooM3-Engine, Cg, und Parhelia DM


nggalai
2002-06-28, 10:54:07
Hi there,

Link: http://www.gamefinger.com/plan.asp?userid=johnc&id=16040

More graphics card notes:

I need to apologize to Matrox -- their implementation of hardware displacement
mapping is NOT quad based. I was thinking about a certain other companies
proposed approach. Matrox's implementation actually looks quite good, so even
if we don't use it because of the geometry amplification issues, I think it
will serve the noble purpose of killing dead any proposal to implement a quad
based solution.

I got a 3Dlabs P10 card in last week, and yesterday I put it through its
paces. Because my time is fairly over committed, first impressions often
determine how much work I devote to a given card. I didn't speak to ATI for
months after they gave me a beta 8500 board last year with drivers that
rendered the console incorrectly. :-)

I was duly impressed when the P10 just popped right up with full functional
support for both the fallback ARB_ extension path (without specular
highlights), and the NV10 NVidia register combiners path. I only saw two
issues that were at all incorrect in any of our data, and one of them is
debatable. They don't support NV_vertex_program_1_1, which I use for the NV20
path, and when I hacked my programs back to 1.0 support for testing, an
issue did show up, but still, this is the best showing from a new board from
any company other than Nvidia.

It is too early to tell what the performance is going to be like, because they
don't yet support a vertex object extension, so the CPU is hand feeding all
the vertex data to the card at the moment. It was faster than I expected for
those circumstances.

Given the good first impression, I was willing to go ahead and write a new
back end that would let the card do the entire Doom interaction rendering in
a single pass. The most expedient sounding option was to just use the Nvidia
extensions that they implement, NV_vertex_program and NV_register_combiners,
with seven texture units instead of the four available on GF3/GF4. Instead, I
decided to try using the prototype OpenGL 2.0 extensions they provide.

The implementation went very smoothly, but I did run into the limits of their
current prototype compiler before the full feature set could be implemented.
I like it a lot. I am really looking forward to doing research work with this
programming model after the compiler matures a bit. While the shading
languages are the most critical aspects, and can be broken out as extensions
to current OpenGL, there are a lot of other subtle-but-important things that
are addressed in the full OpenGL 2.0 proposal.

I am now committed to supporting an OpenGL 2.0 renderer for Doom through all
the spec evolutions. If anything, I have been somewhat remiss in not pushing
the issues as hard as I could with all the vendors. Now really is the
critical time to start nailing things down, and the decisions may stay with
us for ten years.

A GL2 driver won't give any theoretical advantage over the current back ends
optimized for cards with 7+ texture capability, but future research work will
almost certainly be moving away from the lower level coding practices, and if
some new vendor pops up (say, Rendition back from the dead) with a next-gen
card, I would strongly urge them to implement GL2 instead of proprietary
extensions.

I have not done a detailed comparison with Cg. There are a half dozen C-like
graphics languages floating around, and honestly, I don't think there is a
hell of a lot of usability difference between them at the syntax level. They
are all a whole lot better than the current interfaces we are using, so I hope
syntax quibbles don't get too religious. It won't be too long before all real
work is done in one of these, and developers that stick with the lower level
interfaces will be regarded like people that write all-assembly PC
applications today. (I get some amusement from the all-assembly crowd, and it
can be impressive, but it is certainly not effective)

I do need to get up on a soapbox for a long discourse about why the upcoming
high level languages MUST NOT have fixed, queried resource limits if they are
going to reach their full potential. I will go into a lot of detail when I
get a chance, but drivers must have the right and responsibility to multipass
arbitrarily complex inputs to hardware with smaller limits. Get over it.


ta,
-Sascha.rb

nggalai
2002-06-28, 11:11:16
OpenGL2.0-Support in der Engine? Hört man doch gerne. Und die P10 scheint einen guten ersten Eindruck zu hinterlassen. Ich freu' mich besonders über die Sache mit der Treiberqualität, auch wenn das wohl nicht sonderlich erstaunlich ist. ;) Und in Sachen Performance scheint das Teil doch noch was auf dem Kasten zu haben.

ta,
-Sascha.rb

Xmas
2002-06-28, 11:30:38
Hört sich wirklich gut an für 3DLabs...


I do need to get up on a soapbox for a long discourse about why the upcoming high level languages MUST NOT have fixed, queried resource limits if they are going to reach their full potential. I will go into a lot of detail when I get a chance, but drivers must have the right and responsibility to multipass arbitrarily complex inputs to hardware with smaller limits. Get over it.
Volle Zustimmung. High Level Shader bringen nur dann wirklich was, wenn sie völlig hardwareunabhängig geschrieben werden können.

Demirug
2002-06-28, 11:51:26
3dlabs ist ja um Welten besser weggekommen als Matrox. Vorallem dürfte man sich dort freuen jetzt auch JC als mitstreiter für OpenGL 2.0 bekommen zu haben.

Was die High Level Shader angeht kann ich dem auch nur voll zustimmen. Die Arbeitserleichterung besteht im Moment im wesentlichen nur darin das man den Shadercode besser lesen kann und leichter auf neue Karten übernehmen kann. Trotzdem schreibt man noch zu viele Shader um die ganze multipasslösungen für den gleichen Effect bei unterschiedlichen Karten abzudecken.

Nur wird das mit dem DX9 und OpenGL 2.0 Ansatz mit den getrennten Vertex und Fragmentshader nicht möglich sein.

jedi
2002-06-28, 11:55:11
Zumindest in theoretischer Hinsicht gefällt Carmack der P10. Aber in puncto Performance hält er sich ja sehr diplomatisch zurück. ;)

Demirug
2002-06-28, 12:02:35
Originally posted by jedi
Zumindest in theoretischer Hinsicht gefällt Carmack der P10. Aber in puncto Performance hält er sich ja sehr diplomatisch zurück. ;)

Wenn es in den OpenGL Treibern noch keine vertex object extension gibt kann er ja auch nichts sagen. Das übergeben der Vertexdaten ohne Extension ist in OpenGL ein Performancegrab egal wer dafür die Treiber schreibt. Ich hätte mal gerne die Einzelergebnisse von 3dmark durchlauf der P10 Karte gesehen.

Ganon
2002-06-28, 12:38:15
Jetzt muss 3DLabs nur noch gute Linux-Treiber rausbringen! Dann wird ein Kauf in Betracht gezogen!

ow
2002-06-28, 13:11:38
Nein ganon, zunaechst muesen die erst mal Consumer-Karten rausbringen. Die Workstation Karten sind ja auch viel zu teuer zum Gamen.


btw. von 3dlabs erwarte ich nichts anderes als hervorragende Qualitaet der Treiber.

KiBa
2002-06-28, 14:56:54
Sehr interessant ist auch, dass der P10 NVidia-Extensions benutzen kann. Oder ist das nix besonderes?

nggalai
2002-06-28, 15:02:49
NV hatte vor einiger Zeit die wichtigsten extensions freigegeben, i.e. können von anderen IHV gratis verwendet werden. War wohl als Reaktion auf die ATi-extensions gedacht.

Ist das bei der Xabre nicht auch so, i.e. verwendet diese nicht auch NV_extensions?

ta,
-Sascha.rb

Demirug
2002-06-28, 15:11:08
Da ich mal davon ausgehe das in nächster Zeit nicht soviele leute mit einem P10 spielen werden (Preis) war es von 3d labs eine gute Idee eine vorhandehnen Extension Satz zu nehmen. Der von der R200 ging wahrscheinlich nicht also blieb nur der von NVidia übrig.

@nggalai:

Als ich mir die Treiber das letzte mal angeschaut habe war da noch gar nichts für die Fragmentshader unter OpenGL drin.

turboschlumpf
2002-06-28, 15:34:49
fuck,
welcher IDIOT kauft sich auch eine workstation karte zum gamen?
es wird EXTRA karten für gamer geben.
und die werden auch sicher nicht mehr wie ne r300 oder nv30 kosten.

jedi
2002-06-28, 15:38:03
Originally posted by turboschlumpf
fuck,
welcher IDIOT kauft sich auch eine workstation karte zum gamen?
es wird EXTRA karten für gamer geben.
und die werden auch sicher nicht mehr wie ne r300 oder nv30 kosten.

Es ist eben nur die Frage, wie schnell oder langsam diese Karten dann sind.

Demirug
2002-06-28, 15:43:58
Originally posted by turboschlumpf
fuck,
welcher IDIOT kauft sich auch eine workstation karte zum gamen?
es wird EXTRA karten für gamer geben.
und die werden auch sicher nicht mehr wie ne r300 oder nv30 kosten.

Wenn diese Karten aber auch auf dem P10 bassieren hat man schon mal einen Treiber mit einem Satz OpenGL extension zur Hand. Damit ist dann auch sichergestellt das Spiele die vor der veröffentlich der Karte programmiert wurden auch laufen werden. Und dann macht man den armen OpenGL programmieren das leben etwas leichter wenn man nicht schon wieder mit einem neuen Satz Extension kommt. Nicht jeder wird von jetzt auf sofort auf OpenGL 2.0 umsteigen.

HOT
2002-06-28, 15:53:22
Originally posted by turboschlumpf
fuck,
welcher IDIOT kauft sich auch eine workstation karte zum gamen?
es wird EXTRA karten für gamer geben.
und die werden auch sicher nicht mehr wie ne r300 oder nv30 kosten.

3DLabs odr besser gesagt Creative wollen den Chip im Winter dem Massenmarkt zur Verfügung stellen.

nggalai
2002-06-28, 15:57:51
Originally posted by turboschlumpf
fuck,
welcher IDIOT kauft sich auch eine workstation karte zum gamen?
es wird EXTRA karten für gamer geben.
und die werden auch sicher nicht mehr wie ne r300 oder nv30 kosten. Ja, sicher. Behauptet hier wer was anderes? ???

ta,
-Sascha.rb

P.S. ich kenne aber einige Leute, die sich die Wildcat VP vorbestellt haben, AUCH zum Spielen (aber nicht ausschliesslich). Als "Idioten" würde ich die nicht bezeichnen.rb

SamLombardo
2002-06-28, 15:58:08
Was bringt denn OpenGL2.0 (zB für Doom3) Mehr speed, oder heist das, dass das Game unter GL2.0 grafisch besser aussieht?

CU Sam

nggalai
2002-06-28, 16:02:51
Hi Sam,Originally posted by SamLombardo
Was bringt denn OpenGL2.0 (zB für Doom3) Mehr speed, oder heist das, dass das Game unter GL2.0 grafisch besser aussieht?

CU Sam Carmack hat's so gesagt, weiter oben:

"A GL2 driver won't give any theoretical advantage over the current back ends
optimized for cards with 7+ texture capability, but future research work will
almost certainly be moving away from the lower level coding practices, and if
some new vendor pops up (say, Rendition back from the dead) with a next-gen
card, I would strongly urge them to implement GL2 instead of proprietary
extensions."

i.e. keine Vorteile bei Grafik und Speed, aber flexibler und einfacher zu integrieren als mit GL1.

ta,
-Sascha.rb

SamLombardo
2002-06-28, 16:25:09
aha. Danke.


Sam

Unreal Soldier
2002-06-28, 16:45:47
Originally posted by nggalai
OpenGL2.0-Support in der Engine? Hört man doch gerne. Und die P10 scheint einen guten ersten Eindruck zu hinterlassen. Ich freu' mich besonders über die Sache mit der Treiberqualität, auch wenn das wohl nicht sonderlich erstaunlich ist. ;) Und in Sachen Performance scheint das Teil doch noch was auf dem Kasten zu haben.

ta,
-Sascha.rb

*vollzustimm

Sowas ist Musik in meinen Ohren.

MFG
Unreal Soldier

Radeonator
2002-06-28, 16:49:52
Ich würde mich dieses mal lieber mit Bewertungen noch nicht testbarer Hardware zurückhalten, auf dem Papier klingt alles Super in Wirklichkeit kann eben durch die Gerüchteküche ein "Rohrkrepierer" kommen...;)
Bin sehr gesapnnt was die jungs uns da basteln :)

Demirug
2002-06-28, 17:00:26
Nicht Testbar???

Es wurden doch schon Tests veröffentlicht.

Radeonator
2002-06-28, 17:31:42
Ich meine wenn es die Teile im direkten nicht theoretischem umlauf gibt und 2cnd gen driver vorhanden sind ;)

Demirug
2002-06-28, 17:43:36
Originally posted by Radeonator
Ich meine wenn es die Teile im direkten nicht theoretischem umlauf gibt und 2cnd gen driver vorhanden sind ;)

Du meinst also wenn auch Fritz und Franz den 3DMark anwerfen können. Bis sich mit den Treiber nichts mehr holen läst wird bei der P10 wohl lange dauern.