PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce FX und Nvidias wunderbare Welt des Treibercheatings...


nagus
2003-03-12, 20:44:47
3DMark03: warum erreicht die Geforce FX ULTRA bei manchen tests nur magere 3500 3dmarks und bei anderen über 5500 ?

deswegen: http://www.gzeasy.com/Ours/cho/compare-gt4.rar (5MB)

deutlich zu sehen sind die unterschiede zwischen nvidias 42.72 und 42.82er treiber (himmel) . nvidia benutzt hier ein ungenaueres (und schnellers) renderingverfahren und "stielt" sich so unfairerweise 2000 3dmarks.

Quelle: http://www.rage3d.com/board/showthread.php?threadid=33672222

robbitop
2003-03-12, 20:54:45
wobei du zugeben must NAgus, dass der 3DMark in keinster weise mehr die realität wiederspiegelt und als Bench imho für die Tonne ist...(in abgeschwächter Form war das schon mit dem 2001 so)

Richthofen
2003-03-12, 20:56:28
und um das zu zeigen gibts ja diese Treiber :)

Nvidia weisst ja selber darauf hin, und hat den Treiber extra für 3DMark verteilt um den Test lächerlich zu machen. Ich denke das dürfte ihnen gelingen.

LovesuckZ
2003-03-12, 21:00:58
-Sorry fuer Flame. Text falsch interpretiert...-

robbitop
2003-03-12, 21:02:50
wen sprichst du gerade an LS?

Labberlippe
2003-03-12, 21:04:20
Hi

jaja und wie man es dreht und wendet immer pro nVIDIA.

Gruss Labberlippe

M@trix
2003-03-12, 21:05:02
3Dmurks2003 ist für den Schrott gedacht! Genau wie der NV Fön :D

StefanV
2003-03-12, 21:05:09
Originally posted by Labberlippe
Hi

jaja und wie man es dreht und wendet immer pro nVIDIA.

Gruss Labberlippe

war was anderes zu erwarten ??

robbitop
2003-03-12, 21:06:52
@SP und Laberlippe

darum geht es in diesem Threat aber nicht, und es muss nich undbedingt wieder gebashed werden, irgendwie reicht es denk ich.

wie wäre es mit einigen threatbezogenen sachlichen Posts?

Labberlippe
2003-03-12, 21:09:17
Originally posted by robbitop
@SP und Laberlippe

darum geht es in diesem Threat aber nicht, und es muss nich undbedingt wieder gebashed werden, irgendwie reicht es denk ich.

wie wäre es mit einigen threatbezogenen sachlichen Posts?

Richthofen und LS haben mit den bashen angegefangen.
Wobei LS seinen Eintrag ja wieder editiert hat.

Mir perslönlich ist es Wurst wer wo im Treiber optimiert.
Klasse Reviews zeigen eh eindeutig die schwächen und stäkern der Karten auf.

Gruss Labberlippe

robbitop
2003-03-12, 21:12:34
@LL
ACK :D

wobei ich Richthofen hier teilweise zustimme, denn lächerlich ist 3Mark imho und das sollte auch endlich an die User weitergehen.

Ich bin ja für eine neue praxisrelevante (natürlich auch für zukünftige Effekte) Benchmarkssuite.

Pirx
2003-03-12, 21:44:10
Originally posted by robbitop
@LL
ACK :D

wobei ich Richthofen hier teilweise zustimme, denn lächerlich ist 3Mark imho und das sollte auch endlich an die User weitergehen.

Ich bin ja für eine neue praxisrelevante (natürlich auch für zukünftige Effekte) Benchmarkssuite.
Für zukünftige Effekte ist doch der 03 doch gar nicht so schlecht, vielleicht wird er ja noch praxisrelevanter. Für diese Suite könnte ja dann genauso gecheatet werden was genauso lächerlich wäre.

robbitop
2003-03-12, 21:54:11
dennoch sind die Gametests sehr unssinnig und schwach programmiert.

Bei 2001/SE war das noch wesendlich besser...

StefanV
2003-03-12, 21:58:15
Originally posted by robbitop
@LL
ACK :D

wobei ich Richthofen hier teilweise zustimme, denn lächerlich ist 3Mark imho und das sollte auch endlich an die User weitergehen.

Ich bin ja für eine neue praxisrelevante (natürlich auch für zukünftige Effekte) Benchmarkssuite.
ob der 3Dmark03 seine Berechtigung hat oder nicht ist ein anderes Thema, daß nicht in diesen Thread gehört, genausowenig solche sinnfreien Aussagen wie 'ATIMark03', der von einigen nV Fanboys anschenend öftermal benutzt wird (einerseits den 00 und 01 'in den Himmel loben', andererseits dem 03 die Berechtigung absprechen)...
Ist aber nicht das Thema...
Ganz ab davon, daß wir den 3Dmark03 momentan nicht wirklich beurteilen können, da es nur ATI 'DX9' Karten gibt...


Thema ist hier, ob NV beim 3DMark 03 bescheißt oder nicht...

Was mich wundert ist, daß ATI gleich des Cheatens beschuldigt wurde/wird, wenn die BQ mal 'fehlerhaft' ist, andererseits ists bei NV ein Fehler...

StefanV
2003-03-12, 22:01:33
Originally posted by robbitop
dennoch sind die Gametests sehr unssinnig und schwach programmiert.

Bei 2001/SE war das noch wesendlich besser...

SIehe voriges Posting...
Abwarten und Tee rauchen.

Beim 3Dmark 00/01 wurde ja immer kritisiert, daß die Tests recht stark CPU Abhängig sind, was Futuremark mit dem 03er ausgeräumt hat...

Wobei sie jetzt auch 'ne Schelte bekommen weil der 03 nahezu CPU unabhängig ist...

Irgendwie auch sinnfrei, erst meckern wir, dessen was wir meckern wird sich angenommen und jetzt meckern wir nochmehr...

Ich denke wir sollten uns vorher überlegen was wir wollen und wenn das, was 'wir' wollen umgesetzt wird, dann sollten wir nicht noch mehr meckern...

robbitop
2003-03-12, 22:05:07
@SP
" Aussagen wie 'ATIMark03', der von einigen nV Fanboys anschenend öftermal benutzt wird (einerseits den 00 und 01 'in den Himmel loben', andererseits dem 03 die Berechtigung absprechen"
kam nich von mir zumindist.

vieleicht cheatet NV, aber da das Teil eh unsinnig ist und man dies offiziell kundgetan hat und sogar offziell gesagt hat, wie man cheaten könne, ist das ganz klar wie Richthofen sagte ein schritt für die Lächerlichmachung dieser Suite.

Denn allein schon die Ergebnisse dürfte ja jedem zeigen (und die Entwicklung dieser durch die Treiber "WOW jetz is meine FX 2x so schnell!!!") dass es für die Tonne ist...vieleicht ist es ja beabsichtigt...

schön ist es nicht, wenn die eine oder andere Firma besch*isst.
In sachen Moral ist keiner besser als der andere (GF 4 MX = GF2 Advanced oder Radeon9000, oder die Treiberfreigabe von 3D Texturen oder von ATi die Vorenthaltung von Speed nur um den R9800 nach vorn zu holen...).

Aber trotzdem ist muss ich sagen der Post von Nagus irgendwie doch bereichernd, denn man kann nie genug Infos haben und diese BEreichern den Kenntnisstand des Forums hier.

Nur das gebashe kann und soll aufhören, denn keiner ist besser als der andere...

LovesuckZ
2003-03-12, 22:06:02
Originally posted by Stefan Payne
Beim 3Dmark 00/01 wurde ja immer kritisiert, daß die Tests recht stark CPU Abhängig sind, was Futuremark mit dem 03er ausgeräumt hat...


Es geht nicht nur um die nicht vorhandene CPU Abhaengigkeit, sondern auch um die DX8 benches, welche fuer r300 und dadrueber optimiert sind.

nagus
2003-03-12, 22:06:41
Originally posted by Richthofen
und um das zu zeigen gibts ja diese Treiber :)

Nvidia weisst ja selber darauf hin, und hat den Treiber extra für 3DMark verteilt um den Test lächerlich zu machen. Ich denke das dürfte ihnen gelingen.


ach so ist das. nvidia released beta-detonator treiber für die gffx test speziell für 3dmark03, nur um 3dmark03 lächerlich zu machen... und nebenbei ein plus von 2000 punkten zu erziehlen...

:bonk: sonst gehts dir aber schon noch gut, oder?

Demirug
2003-03-12, 22:07:33
Ja da ist Futuremark voll in die PS 1.4 Falle gelaufen in dem sie die bei der Entwicklung einzige PS 1.4 Implementierung (ATI) als Mass aller Dinge genommen haben. Leider gibt es bei den PS 1.4 eine dynamische Komponete die den Chip hersteller viel Spielraum läst aber sich direkt auf die Optik auswirkt.

Die Genauigkeit (sowohl Vor- wie auch Nachkommstellen) ist bei den PS 1.4 beliebig. Die Einzige Forderung ist das es im positiven wie im negativen Zahlenbreich keinen unterschied gibt. ATI rechnet beim R300 ja wie bekannt mit 24 Bit FP was einen sehr grossen Zahlenbereich ergibt. NVIDIA hat sich jetzt die Freiheit genommen den Zahlenbereich von -1 bis +1 unter verwendung von Festpunktberechnungen einzugrenzen. Damit sind natürlich alle Shader die auf einen grösseren Zahlenbereich vertrauen nicht mehr so wie von Programmier gedacht berechenbar.

Refrast rechnet übrigens auch mit FP Werten kann aber aufgrund der erlaubten variablen Genauigkeit der PS 1.4 Register hier nicht als Referenz benutzt werden wenn es um optische Bildvergleiche geht.

Aus diesem Grund benutzt man bei einen DX9 Test eben keine PS 1.4.

P.S.: Das Thema haben wir auch schon hier: http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=59610

Exxtreme
2003-03-12, 22:08:09
Originally posted by LovesuckZ


Es geht nicht nur um die nicht vorhandene CPU Abhaengigkeit, sondern auch um die DX8 benches, welche fuer r300 und dadrueber optimiert sind.
Hast du dafür irgendwelche Beweise?

LovesuckZ
2003-03-12, 22:15:13
Originally posted by Exxtreme
Hast du dafür irgendwelche Beweise?

Schau in den anderen Thread.

StefanV
2003-03-12, 22:16:00
Originally posted by LovesuckZ

Es geht nicht nur um die nicht vorhandene CPU Abhaengigkeit, sondern auch um die DX8 benches, welche fuer r300 und dadrueber optimiert sind.

1. kannst du das belegen ??

2. 'seltsam', bei den 00er und 03er hat man 'irgendwie' auf NV Hardware 'optimiert', hat das da jemanden interessiert ??

Ich denke nicht, daß Futuremark auf die R300 optimiert hat, ich denke eher, daß die R300 gegenüber der NV30 die 'etwas' besseren Shader hat.

Außerdem sagte ich oben was davon, daß wir das jetzt noch nicht beurteilen können, da es noch keine entsprechenden anderen Programme sowie Hardware gibt.

Erst wenn von 'allen' Herstellern 'DX9' Karten auf dem Markt sind können wir uns um die Aussagefähigkeit vom 3DMark 03 unterhalten, nicht eher...
(und auch wenns noch diverse andere 'DX9' Benches gibt).

Solange du nicht beweisen kannst, daß Futuremark auf ATI 'Optimiert' hat, solange ist davon auszugehen, daß die Shader der GF FX einfach Schrott sind.

BTW: war da nicht mal was mit Doom3 und dem ARB2 (aka OpenGL2) Pfad und der GF FX?? :)

Exxtreme
2003-03-12, 22:17:17
Originally posted by LovesuckZ


Schau in den anderen Thread.
Welchen anderen? Meinste den, den Demi gepostet hat? Den kenne ich schon. =)

LovesuckZ
2003-03-12, 22:19:01
Originally posted by Stefan Payne
Solange du nicht beweisen kannst, daß Futuremark auf ATI 'Optimiert' hat, solange ist davon auszugehen, daß die Shader der GF FX einfach Schrott sind.


Wer redet hier dauernd von der FX? Das eine 9500 eine TI4600 wegpfegt unter dem 3DMark2003 (DX8 Benches) ist dir bekannt? Das die selbe Karte im Naturetest unter den Standard PS1.0
deutlich unter ihr liegt auch?

LovesuckZ
2003-03-12, 22:19:41
Originally posted by Exxtreme
Welchen anderen? Meinste den, den Demi gepostet hat? Den kenne ich schon. =)

Nein, den, wo du mir gesagt hast, dass die r300 die 1.1 Shader mit dem PS 1.4 Shader emulieren muessen.

Edit von Golem.de . Ausschnitt auf dem Futuremark vs. Nvidia Duell
Auf den Vorwurf, dass man bei den DirectX-8-lastigen Tests nur 1.1er- und 1.4er-Pixelshader einsetze und die von Nvidia eingebrachten 1.3er-Pixelshader nicht unterstütze, entgegnete FutureMark, dass erst die 1.4er-Pixelshader Lichteffekte in einem Durchgang ("single pass per light rendering") ermöglichen würden. So könnten Pixel zweimal in einem Durchgang durch den Shader geschickt werden, während dies mit 1.3er- und darunter liegenden Pixelshadern nicht möglich wäre. Die Unterstützung von 1.3er-Pixelshadern hätte demnach keine bis kaum Vorteile gebracht, während sowohl ein Teil bestehender DirectX-8- als auch sämtliche DirectX-9-Hardware die 1.4er-Pixelshader unterstützen würde.

StefanV
2003-03-12, 22:19:48
[SIZE=1]Originally posted by Demirug
Ja da ist Futuremark voll in die PS 1.4 Falle gelaufen in dem sie die bei der Entwicklung einzige PS 1.4 Implementierung (ATI) als Mass aller Dinge genommen haben. Leider gibt es bei den PS 1.4 eine dynamische Komponete die den Chip hersteller viel Spielraum läst aber sich direkt auf die Optik auswirkt.


dann ist die Frage, warum sich NV nicht an ATI orientiert hat ??

'Früher' wars so, daß man sich bei der HW an denen orientiert haben, die zuerst da waren und 'seine' HW so designt, daß sie zu der anderen HW kompatibel ist...

Sicher ist es auch ein Fehler einen SPielraum zu lassen...

robbitop
2003-03-12, 22:21:41
@SP

"... ich denke eher, daß die R300 gegenüber der NV30 die 'etwas' besseren Shader hat. "

das kann man so pauschal gar nicht sagen, denn beim NV35 soll ohne grossartige Anderung plötzlich bis PS2.0 alles gleich schnell sein.
Ich denke dass da nur irgendetwas nicht effizient läuft.
Nebenbei heisst ja besser nicht nur schneller sondern auch von den features her und in diesem falle sind die von NV "besser".
Die gesamte pipeline architektur ist neu und läuft "noch" nicht effizient, aber innovativ ist sie ungemein...

StefanV
2003-03-12, 22:22:38
Originally posted by LovesuckZ

Wer redet hier dauernd von der FX? Das eine 9500 eine TI4600 wegpfegt unter dem 3DMark2003 (DX8 Benches) ist dir bekannt? Das die selbe Karte im Naturetest unter den Standard PS1.0
deutlich unter ihr liegt auch?

um es mal mit deinen Worten auszudrücken, ein 'paar Jahre' weiter Zurückligend:

Das eine Geforce eine Vooodoo5 wegfegt unter dem 3DMark 2000 (DX7 Benches) ist dir bekannt ?? Daß die Selbe Karte im Spiele Alltag unter den Standard Software TnL Spielen nicht weit entfernt ist auch?


Siehst du, was ich meine ??

LovesuckZ
2003-03-12, 22:22:52
Originally posted by Stefan Payne
dann ist die Frage, warum sich NV nicht an ATI orientiert hat ??
'Früher' wars so, daß man sich bei der HW an denen orientiert haben, die zuerst da waren und 'seine' HW so designt, daß sie zu der anderen HW kompatibel ist...
Sicher ist es auch ein Fehler einen SPielraum zu lassen...

... Weil ATI erst ein halbes Jahr spaeter DX8 Karten anbot?

Exxtreme
2003-03-12, 22:25:46
Originally posted by LovesuckZ


Nein, den, wo du mir gesagt hast, dass die r300 die 1.1 Shader mit dem PS 1.4 Shader emulieren muessen.

Edit von Golem.de . Ausschnitt auf dem Futuremark vs. Nvidia Duell
Auf den Vorwurf, dass man bei den DirectX-8-lastigen Tests nur 1.1er- und 1.4er-Pixelshader einsetze und die von Nvidia eingebrachten 1.3er-Pixelshader nicht unterstütze, entgegnete FutureMark, dass erst die 1.4er-Pixelshader Lichteffekte in einem Durchgang ("single pass per light rendering") ermöglichen würden. So könnten Pixel zweimal in einem Durchgang durch den Shader geschickt werden, während dies mit 1.3er- und darunter liegenden Pixelshadern nicht möglich wäre. Die Unterstützung von 1.3er-Pixelshadern hätte demnach keine bis kaum Vorteile gebracht, während sowohl ein Teil bestehender DirectX-8- als auch sämtliche DirectX-9-Hardware die 1.4er-Pixelshader unterstützen würde.
Und das soll ein "Beweis" sein? Futuremark hat hier einfach logisch gehandelt. Und was kann Futuremark dafür, daß NV die PS1.4 nicht richtig gebacken kriegt auf der GFFX?

LovesuckZ
2003-03-12, 22:25:55
Originally posted by Stefan Payne
Das eine Geforce eine Vooodoo5 wegfegt unter dem 3DMark 2000 (DX7 Benches) ist dir bekannt ?? Daß die Selbe Karte im Spiele Alltag unter den Standard Software TnL Spielen nicht weit entfernt ist auch?


KA, in der Zeit interessierte ich mich noch fuer die Schule:)

Hier ist die Sache aber ein bisschen anders: Denn die Engine der D8 benches von Futuremark werden wohl in den wenigsten Spielen zum einsatz kommen. Und wie war das noch mit den kleinsten gemeinsamen nenner?

StefanV
2003-03-12, 22:26:19
Originally posted by LovesuckZ
... Weil ATI erst ein halbes Jahr spaeter DX8 Karten anbot?

Wer redet hier denn von DX8 ??

Daß es in dem Posting um Pixelshader 1.4 ging, die ATI zuerst anbot, hast du aber verstanden, oder ??

StefanV
2003-03-12, 22:28:19
Originally posted by Exxtreme

Und das soll ein "Beweis" sein? Futuremark hat hier einfach logisch gehandelt. Und was kann Futuremark dafür, daß NV die PS1.4 nicht richtig gebacken kriegt auf der GFFX?

Richtig, so sehe ich das auch...

Wenn NV Probleme mit dem PS1.4 hatte, dann hätten sie sich 'ne Radeon 8500 kaufen können, das Plätchen runterreißen und das Teil unters Mikroskop legen und ein wengi Reverse Engeneering betreiben...

LovesuckZ
2003-03-12, 22:28:39
Originally posted by Exxtreme
Und das soll ein "Beweis" sein? Futuremark hat hier einfach logisch gehandelt. Und was kann Futuremark dafür, daß NV die PS1.4 nicht richtig gebacken kriegt auf der GFFX?

Weil Nvidia kein Grund sah, denn PS 1.4 richtig umzusetzen?
Genauso koennte man auch fragen, warum Future nicht die Standard PS verwendet.

Das Zitat beweist aber, dass Futuremark viel auf PS1.4 setzen und die nur die r200/300 Karten richtig beherrschen. Somit ist von vornerein kein richtiger Vergleich zwischen den DX8/9 Karten gegeben.

LovesuckZ
2003-03-12, 22:30:16
Originally posted by Stefan Payne
Wer redet hier denn von DX8 ??
Daß es in dem Posting um Pixelshader 1.4 ging, die ATI zuerst anbot, hast du aber verstanden, oder ??

'Früher' wars so, daß man sich bei der HW an denen orientiert haben, die zuerst da waren und 'seine' HW so designt, daß sie zu der anderen HW kompatibel ist...

StefanV
2003-03-12, 22:31:00
Originally posted by LovesuckZ


KA, in der Zeit interessierte ich mich noch fuer die Schule:)

Hier ist die Sache aber ein bisschen anders: Denn die Engine der D8 benches von Futuremark werden wohl in den wenigsten Spielen zum einsatz kommen. Und wie war das noch mit den kleinsten gemeinsamen nenner?

dann lies die Benches im Web nach.
'notfalls' kannst du dir die Benches zur Einführung vom 3Dmark 01 zu Gemüte führen...
Mit den ersten Treibern war die GF3 auch nicht schneller als eine GF2 ULTRA, im 3Dmark 01 schon.
Hats damals jemanden gestört ??
Ist es jetzt anders ??

Oder im 3Dmark 00, als NonTNL Karten benachteiligt wurden.
Hat DAS jemanden gestört ??

JETZT ist es genauso wie beidesmal davor, nur jetzt hat Futuremark scheiße gebaut, weils auf der Konkurenz besser läuft ??

Labberlippe
2003-03-12, 22:31:15
Originally posted by LovesuckZ


Weil Nvidia kein Grund sah, denn PS 1.4 richtig umzusetzen?
Genauso koennte man auch fragen, warum Future nicht die Standard PS verwendet.

Das Zitat beweist aber, dass Futuremark viel auf PS1.4 setzen und die nur die r200/300 Karten richtig beherrschen. Somit ist von vornerein kein richtiger Vergleich zwischen den DX8/9 Karten gegeben.

Somit war 3DMark noch nie ein richtiger Vergleich.
Da damals sehr stark die nV Karten bevorzugt waren.

Ehrlich gesagt wenn juckts, hier rumzudiskutieren wer welchen Standart hat ist falsch.
Was mich viel mehr juckt ist ob die PS2.0 Test gleichschnell laufen.

Das restlich werden wir ja sehen.
Ich hoffe nur das DOOM III mehr klären wird.

Gruss Labberlippe

Exxtreme
2003-03-12, 22:31:59
Originally posted by LovesuckZ


Weil Nvidia kein Grund sah, denn PS 1.4 richtig umzusetzen?
Genauso koennte man auch fragen, warum Future nicht die Standard PS verwendet.

Was kann Futuremark dafür, daß NV keinen Grund dafür sah, die Teile richtig umzusetzen? :D

Und JEDER PS ist Standard und nicht nur die, die NV gut beherrscht.
Originally posted by LovesuckZ
Das Zitat beweist aber, dass Futuremark viel auf PS1.4 setzen und die nur die r200/300 Karten richtig beherrschen. Somit ist von vornerein kein richtiger Vergleich zwischen den DX8/9 Karten gegeben.
Also die R200 zieht kaum Vorteile aus'm PS1.4. Den hat ATi seinerzeit nicht richtig optimiert. Und wie gesagt, an der PS1.4-Schwäche der GFFX ist NV einzig und alleine schuld.

LovesuckZ
2003-03-12, 22:32:27
Originally posted by Labberlippe
Somit war 3DMark noch nie ein richtiger Vergleich.
Da damals sehr stark die nV Karten bevorzugt waren.


War eine Radeon 8500 nicht schneller im 3DMark2001?

Demirug
2003-03-12, 22:32:44
Originally posted by Stefan Payne


dann ist die Frage, warum sich NV nicht an ATI orientiert hat ??

'Früher' wars so, daß man sich bei der HW an denen orientiert haben, die zuerst da waren und 'seine' HW so designt, daß sie zu der anderen HW kompatibel ist...

Sicher ist es auch ein Fehler einen SPielraum zu lassen...

Denn Spielraum hat sich sicher jemand in der DX 8.1 Spec vorsehen lassen ohne Grund baut MS keine neuen Caps ein und kompatibel zu der PS 1.4 Spezifikation ist ja das was NVIDIA da treibt.

NVIDIA sah und sieht PS 1.4 als totes Pferd an und tote Pferde reitet man nun mal nicht. Aus diesem Grund hat man sich dort eben dagegen entschlossen einen grosszügigen Support für PS 1.4 vorzusehen.

Labberlippe
2003-03-12, 22:33:56
Originally posted by LovesuckZ


War eine Radeon 8500 nicht schneller im 3DMark2001?

Teils Teils wobei die R8500 als Gegner eigentlich die normale GeForce hatte und nicht die TI500.
PS war schon langsamer, da emuliert durch PS1.4

Gruss Labberlippe

StefanV
2003-03-12, 22:34:18
Originally posted by LovesuckZ


Weil Nvidia kein Grund sah, denn PS 1.4 richtig umzusetzen?
Genauso koennte man auch fragen, warum Future nicht die Standard PS verwendet.

Das Zitat beweist aber, dass Futuremark viel auf PS1.4 setzen und die nur die r200/300 Karten richtig beherrschen. Somit ist von vornerein kein richtiger Vergleich zwischen den DX8/9 Karten gegeben.

1. PS1.4 ist Standard.
Sogar in DX8 enthalten, da ist nix proprietär

2. Futuremark setzen auf 1.4 weil auch alle PS2.0 alle darunter ausführen können müssen.
Die ATI Radeon 8500 war die erste Karte die PS1.4 beherrscht und die GF FX ist die erste NV Karte die das beherrscht.

Wenn NV keinen Grund sieht alle PS 'ordentlich' umzusetzen, dann ist das deren Problem...

Oder wie würde dann ein DX9 Proggie Reagieren, das 2 Renderpfade hat, ein PS1.1 und ein PS1.4 ??
Welchen Pfad würde es auf einer PS3.0 Karte wohl ausführen ?

Labberlippe
2003-03-12, 22:36:45
Originally posted by Stefan Payne


1. PS1.4 ist Standard.
Sogar in DX8 enthalten, da ist nix proprietär

2. Futuremark setzen auf 1.4 weil auch alle PS2.0 alle darunter ausführen können müssen.
Die ATI Radeon 8500 war die erste Karte die PS1.4 beherrscht und die GF FX ist die erste NV Karte die das beherrscht.

Wenn NV keinen Grund sieht alle PS 'ordentlich' umzusetzen, dann ist das deren Problem...

Oder wie würde dann ein DX9 Proggie Reagieren, das 2 Renderpfade hat, ein PS1.1 und ein PS1.4 ??
Welchen Pfad würde es auf einer PS3.0 Karte wohl ausführen ?

Schön nur darf man nicht vergessen das die Pipes nicht so ausgerichtet sind wie bei ATi.
Wobei bei nVIDIA hier wiedermal grosses Rätselraten herscht welches Design die Karte hat.

Gruss Labberlippe

nggalai
2003-03-12, 22:49:37
Hola,
Originally posted by Richthofen
und um das zu zeigen gibts ja diese Treiber :)

Nvidia weisst ja selber darauf hin, und hat den Treiber extra für 3DMark verteilt um den Test lächerlich zu machen. Ich denke das dürfte ihnen gelingen. Quelle? ???

93,
-Sascha.rb

Eusti
2003-03-12, 23:05:49
Originally posted by Exxtreme

Was kann Futuremark dafür, daß NV keinen Grund dafür sah, die Teile richtig umzusetzen? :D

Und JEDER PS ist Standard und nicht nur die, die NV gut beherrscht.Stimmt. Aber dadurch, das dieses Feture in DX Standard ist, ist es noch lange nicht praxisnah.

Bencht man Pixelshader 1.4, so bekommt man mit dem 3DMark2003 ein sehr gutes Bild über die tatsächliche Leistungsfähigkeit der Grafikkarten in dieser Disziplin. In der Praxis wird man aber niemals ein Spiel finden, welches so programiert wird. Das Ergebnis eines 3DMarks ist somit nicht praxisrelevant, obwohl es die Überlegenheit der ATI Chips bei PS1.4 korrekt wiedergibt.

Das gleiche mit den anderen Rendering-Methoden: Das die ATI-Chips Single Texturing deutlich besser beherschen, als die NVidia ist korrekt und wird auch korrekt vom Benchmark wiedergegeben. In der Praxis liegen diese Single Texturing Spiele aber schon 4 Jahre zurück. Neue Spiele wird man nicht mehr mit reinem Single Texturing finden.

Labberlippe
2003-03-12, 23:12:05
Originally posted by nggalai
Hola,
Quelle? ???

93,
-Sascha.rb
Finanzieller Gedanke seitens Richthofen.

Gruss Labberlippe

Exxtreme
2003-03-12, 23:25:05
Originally posted by Eusti
Stimmt. Aber dadurch, das dieses Feture in DX Standard ist, ist es noch lange nicht praxisnah.

Bencht man Pixelshader 1.4, so bekommt man mit dem 3DMark2003 ein sehr gutes Bild über die tatsächliche Leistungsfähigkeit der Grafikkarten in dieser Disziplin. In der Praxis wird man aber niemals ein Spiel finden, welches so programiert wird. Das Ergebnis eines 3DMarks ist somit nicht praxisrelevant, obwohl es die Überlegenheit der ATI Chips bei PS1.4 korrekt wiedergibt.

Klar ist 3DMark03 nicht praxisrelevant und im Endeffekt eine Techdemo, die ein Paar Zahlen ausspuckt. Nur das waren die Versionen 00 und 01 auch schon, denn diese benutzten auch eine Engine, die in keinem Spiel verwendet wurde (nein, auch nicht Max Payne). Der 3DMark taugt aber gut zum Stabilität eines Systems testen ;) und auch in vielen Fällen als ein theoretischer Benchmark, mit dem man die Fähigkeiten und Schwächen eines Grafikchips herausfinden kann.

Salvee
2003-03-12, 23:36:24
Der NV30 ist doch ein Silizium gewordener Cheat.
Nach aussen hin prahlt man von 8 Pipelines, 128Bit Genauigkeit und weiss der Teufel was noch.

In Wirklichkeit wird statt der 128Bit/32Bit FP Genauigkeit auf 16Bit FP oder 12Bit Fixed Point runtergeschaltet, weil das Ding sonst arschlangsam ist.

Ich hoffe, dass beim NV35 die tatsächliche Leistung überzeugt, der NV30 ist einfach nur teurer Schrott.

Ich will nicht wieder mit dem ausgelutschten Marketingthema anfangen, da gibts bei nV und ATi genug zu meckern, aber noch nie klaffte so eine Lücke wie zwischen dem Marketinggeblubber zum NV30 und dem tatsächlichen Chip.



Edit:Wut is verraucht, Posting bleibt

Quasar
2003-03-12, 23:46:24
Originally posted by Stefan Payne
1. PS1.4 ist Standard.
Sogar in DX8 enthalten, da ist nix proprietär
Die DX8-Spec zeig' mir mal...

Originally posted by Stefan Payne
2. Futuremark setzen auf 1.4 weil auch alle PS2.0 alle darunter ausführen können müssen.
Die ATI Radeon 8500 war die erste Karte die PS1.4 beherrscht und die GF FX ist die erste NV Karte die das beherrscht.
Die Logik leuchtet mir nicht ein, denn danach hätte man genausogut PS1.3, 1.2 oder 1.1 nehmen können, schließlich werden die auch von PS2.0 beherrscht.

Originally posted by Stefan Payne
Wenn NV keinen Grund sieht alle PS 'ordentlich' umzusetzen, dann ist das deren Problem...
[QUOTE][SIZE=1]Originally posted by Labberlippe
[...]PS war schon langsamer, da emuliert durch PS1.4
Gruss Labberlippe

Originally posted by Stefan Payne
Oder wie würde dann ein DX9 Proggie Reagieren, das 2 Renderpfade hat, ein PS1.1 und ein PS1.4 ??
Welchen Pfad würde es auf einer PS3.0 Karte wohl ausführen ?
Wozu sollte ein DX9-Proggie sich mit PS1.1 und PS1.4 abgeben? Da sollte man gleich auf PS2.0 gehen, oder? Sonst kann man das ja auch mit DX8.1 erledigen.

Quasar
2003-03-12, 23:48:19
nVidia ist nicht umsonst so wütend auf Futuremark. Da sollen noch ganz andere Dinge abgelaufen sein, als "nur" die "Bevorzugung" von PS1.4.

Was meint ihr, wie so ein Benchmark entwickelt wird? ;)

Exxtreme
2003-03-12, 23:50:40
Originally posted by Quasar
nVidia ist nicht umsonst so wütend auf Futuremark. Da sollen noch ganz andere Dinge abgelaufen sein, als "nur" die "Bevorzugung" von PS1.4.

Was meint ihr, wie so ein Benchmark entwickelt wird? ;)
Also wer 'a' sagt, der muss auch 'b' sagen. :D

StefanV
2003-03-12, 23:52:02
Originally posted by Quasar
Was meint ihr, wie so ein Benchmark entwickelt wird? ;)

Hm, wollte Futuremark die GF FX Testkarten nicht ?? ;)

Oder haben sie 'ganz einfach' auf den gesetzt, der als erster auf dem Markt ist ?? *eg*

Unregistered
2003-03-12, 23:55:23
JA, das würd ich jetz auch gern mal hören.

"Da sollen ja noch ganz andere Dinge abgelaufen sein...". IMHO macht sich nVidia zu Zeit immer mehr lächerlich. :lol: :lol: :lol:

Unregistered
2003-03-12, 23:56:58
Originally posted by Unregistered
JA, das würd ich jetz auch gern mal hören.

"Da sollen ja noch ganz andere Dinge abgelaufen sein...". IMHO macht sich nVidia zu Zeit immer mehr lächerlich. :lol: :lol: :lol:

Die arme Firma. Immer soooo rechtschaffend gewesen. Und die anderen sind so gemein. Da muss man ja cheaten, und wenns wir nicht tun, tuns doch die anderen. :bonk:

Quasar
2003-03-13, 00:14:47
Originally posted by Stefan Payne


Hm, wollte Futuremark die GF FX Testkarten nicht ?? ;)

Oder haben sie 'ganz einfach' auf den gesetzt, der als erster auf dem Markt ist ?? *eg*
Weder noch....

Originally posted by Exxtreme

Also wer 'a' sagt, der muss auch 'b' sagen. :D

b

mapel110
2003-03-13, 00:20:27
Originally posted by robbitop
wobei du zugeben must NAgus, dass der 3DMark in keinster weise mehr die realität wiederspiegelt und als Bench imho für die Tonne ist...(in abgeschwächter Form war das schon mit dem 2001 so)

wenn man den 3dmark2001 als test für dx7 karten sieht, so wie jetzt den 3dmark2003 als test für dx8 karten, dann war und ist er schon immer unbrauchbar gewesen.
auch wenn man bedenkt, dass sich dank ati jetzt dx9 karten schneller verbreiten als dx8 karten zur anfangszeit.

AlfredENeumann
2003-03-13, 00:41:32
Originally posted by LovesuckZ


Wer redet hier dauernd von der FX? Das eine 9500 eine TI4600 wegpfegt unter dem 3DMark2003 (DX8 Benches) ist dir bekannt? Das die selbe Karte im Naturetest unter den Standard PS1.0
deutlich unter ihr liegt auch?

Du bist ein LangSchwanzFetischist, oder ?

Wer vergleicht denn beim 3D MArk 2003 den Overallscore zweier Kartengenerationen miteinander ?

AlfredENeumann
2003-03-13, 00:44:42
Originally posted by LovesuckZ


Weil Nvidia kein Grund sah, denn PS 1.4 richtig umzusetzen?
Genauso koennte man auch fragen, warum Future nicht die Standard PS verwendet.

Das Zitat beweist aber, dass Futuremark viel auf PS1.4 setzen und die nur die r200/300 Karten richtig beherrschen. Somit ist von vornerein kein richtiger Vergleich zwischen den DX8/9 Karten gegeben.

ne PS2 Karte muß PS1.4 und kleiner beherschen, wo ist das Problem. Die Radeon 8500/9100/9200 muß doch auch PS <1.4 emulieren. Da beschwert sich auch keiner

Muh-sagt-die-Kuh
2003-03-13, 02:09:02
Originally posted by Quasar

Die DX8-Spec zeig' mir mal...Fällt dir nichts besseres ein als auf einem fehlenden Punkt und einer fehlenden 1 rumzureiten?Wozu sollte ein DX9-Proggie sich mit PS1.1 und PS1.4 abgeben? Da sollte man gleich auf PS2.0 gehen, oder? Sonst kann man das ja auch mit DX8.1 erledigen. Sagt dir der Begriff "Abwärtskompatibilität" etwas? Wieso sollte man PS 2.0 benutzen wenn der Shader die hohe FP-Präzision garnicht braucht? Durch das benutzen der alten Shaderversion kann man einen Großteil der Effekte auch auf DX 8.1 Hardware darstellen und gewinnt auf diesen Karten eine ganze Menge an Qualität.....setzt man dagegen nur PS 2.0 ein so müssen DX 8.1 Karten sich mit dem DX 7 Renderingpfad begnügen und das wäre nun wirklich nicht sinnvoll.

zeckensack
2003-03-13, 02:27:44
Originally posted by Quasar
Die Logik leuchtet mir nicht ein, denn danach hätte man genausogut PS1.3, 1.2 oder 1.1 nehmen können, schließlich werden die auch von PS2.0 beherrscht.PS <1.4 bieten nicht die benötigte Flexibilität. Ein klarer Fall von 'geht nicht'. PS1.4 ist deswegen das richtige Werkzeug für den Job, weil's alles kann was da gebraucht wird und die Integer-Präzision an diesen Stellen reicht.

Ich setze ja auch nicht PS2.0 voraus, nur um ein einfarbiges Dreieck auf den Bildschirm zu schmeißen. Daß der Chip Dreiecke zeichnen kann, das muß ich voraussetzen, mehr aber nicht.

Eusti
2003-03-13, 07:26:22
Originally posted by Quasar
nVidia ist nicht umsonst so wütend auf Futuremark. Da sollen noch ganz andere Dinge abgelaufen sein, als "nur" die "Bevorzugung" von PS1.4.

Was meint ihr, wie so ein Benchmark entwickelt wird? ;) Also zumindest nicht über Zahlungen von Geld, sonst würde alles auf NVidia optimiert sein.

Ich denk mal, es setzt sich jemand hin, schreibt eine Engine, dann macht einer die Grafik dazu, man denkt sich ein Bewertungsschema und fretig.

nggalai
2003-03-13, 08:30:22
Moin,
Originally posted by Quasar
Wozu sollte ein DX9-Proggie sich mit PS1.1 und PS1.4 abgeben? Da sollte man gleich auf PS2.0 gehen, oder? Sonst kann man das ja auch mit DX8.1 erledigen. Korrekt. Ist's nicht auffällig, dass beim Erscheinen des 3DMark2001 (damals noch) Madonion darauf pochte, dass es der perfekte, vorwärtsschauende DX8-Benchmark sei, und jetzt im Readme des 3DMark03 unter "Game Test 1" sinngemäss steht, dass man zum Testen der DX7-Performance den 3DMark2001 verwenden soll?

3DMark03 ist bestenfalls ein DX8.1 Benchmark mit etwas DX9 drin. Ein Shadertest und ein Gametest, welche PS2 voraussetzen, im Vergleich zu drei Gametests und einem ganzen Haufen Feature-Tests welche auch auf DX8(.1) Karten laufen . . . neee.

93,
-Sascha.rb

robbitop
2003-03-13, 09:08:43
@Exxtreme
"Klar ist 3DMark03 nicht praxisrelevant und im Endeffekt eine Techdemo, die ein Paar Zahlen ausspuckt. Nur das waren die Versionen 00 und 01 auch schon, denn diese benutzten auch eine Engine, die in keinem Spiel verwendet wurde (nein, auch nicht Max Payne). Der 3DMark taugt aber gut zum Stabilität eines Systems testen und auch in vielen Fällen als ein theoretischer Benchmark, mit dem man die Fähigkeiten und Schwächen eines Grafikchips herausfinden kann."

da kann ich noch voll mitgehen, ABER der 3DMark ist eigendlich seit der ersten Version dadurch, dass seine Ergebnisse eigendlich noch relativ nahe an den Praxisbenches (also das Verhalten von GPUs mit zuschalten von AA/AF/höhere Auflösung ect) lagen, zu einem ultimativem Bench geworden den nunmal die Masse nutzt, Und 2003 ist ja auch "besser" als 2001 denkt da so mancher...und wenn dort eine Karte nur 1/2 der Punkte als die andere hat, ist das schon sehr schlecht für den Verkauf der Karte, dennn du glaubst nicht wieviel Leute (nicht nur DAUs) darauf gucken.
Ich betone nur nochmal, dass ich aufgrund der Technologie viel vom NV30 halte, auch wenn dessen Effizienz noch nicht da ist.
Hier werden zB Transistoren gespart mit einer recht flexiblen Pipe.
Singletexturing, in alten Games ok, da reichen die 4Pipes allemale, aber NV hat klar für heutige 3D Engines entwickelt. Naja und ist dann so gestraft von diesem bench. Man baut doch nicht seine Karte extra für einen Bench. Was die NV30 Architektur kann, wird wohl leider erst der NV35 wohl zeigen können. Und diesen Weg wird ATi sicher auch gehen.

Ich finde es trotz praxisferne gut dass dieser bench PS1.4 Bencht aber dass Singletexturing dort so stark einfliesst finde ich nicht so prickelnd.

Und natürlich ist es nicht schön zu "cheaten", aber wenn es das einzige Mittel ist, um den Leuten, die denken ,3Dmark = Praxis, zu zeigen, dass das Produkt eben nicht so schlecht ist, wie es der sog Bench darstellt, dann ist es imho nicht so stark zu verurteilen.

Letztendlich haben alle Hersteller immer für 3DMark optimiert und wer weiss, wieviel Cheat dort schon dabeigewesen ist.

HOT
2003-03-13, 09:29:55
Also ich denke, dass die 3DMArk03 noch sehr praxisrelevant werden könnte. noch viel praxisrelevanter als es die 01 jemals war. Denn es sollen dieses Jahr mehrere DX9 Chips auf dem Markt kommen, bei denen bei dieser Bench Mogeleien bei Shadern entlarvt werden können ;)
Ich finde diesen Bench sogar äusserst wichtig, da er der einzzige seiner Art ist.

Und die Sache mit Pixelshader 1.4 ist doch eh nur für DX8 Karten interessant. Und auch hier zzeigt sich, dass die Radeon8500 trotz weniger Polygone pro Frame langsamer ist als eine Geforce4, also ist das "Problem" doch eh nur halb so wild. Wer das net auf DX9 Karten umgesetzt bekommt, verdient hier ehrlich gesagt kein Mitleid ;)
Das sollte doch voll abwärtskompatibel sein. Die PS2.0+ des GeforceFX sind zwar vielfältig aber leider langsam. Wir sollten uns an den Gedanken gewöhnen. NV beschwert sich doch nur über die 3DMark, weil die "Langsamkeit" der PS schon jetzt dadurch entlarvt wurde.
ATI hat hier ganz klar die effizientere Architektur, ich denke das sollte unumstritten sein.

robbitop
2003-03-13, 09:38:50
@Hot
"Die PS2.0+ des GeforceFX sind zwar vielfältig aber leider langsam"

soeine Pauschalaussage ist gefährlich.

Dies stimmt nur bedingt. Denn es stimmt nur für PS1.4-2.0 und stimmt nur momentan. Denn es könnte über einen neuen Treiber wieder ganz anders aussehen. Das alles hängt mit den ReisterCombinern zusammen.
Denn der Chip wurde so konstruiert dass er die Games die zu seiner Lebenszeit aktuell sind möglichst schnell spielt.
Das wäre max PS 1.3.

Das kann sich über den Treiber evl ändern.
Man sieht dass der NV35 ohne grossen aufwand mit den vermutlich gleichen shadern genauso schnell ist.

Der sinn? nur für den Bench imho und evl Techdemos...

Radeonator
2003-03-13, 09:59:51
NV Karten sollten ihre wirklichen Qualitäten auch eher unter OGL auspielen können. Da waren Sie bis jetzt immer sehr stark und da die Demos für die FX Karten in OGL gehalten wurden, spricht auch dafür. Die D3D Treiber sollten noch einiges an Potential haben. Diese 3dMurks Spezial Treiber sind natürlich net so gelungen, da NV sich hier wohl ein Eigentor geschossen hat. Aber erst die 2te-3te Treiber Generation nach Erhältlichkeit der Karten, wird das volle Potential unter D3D entfallten können.

Salvee
2003-03-13, 10:07:22
Originally posted by robbitop
@Hot
"Die PS2.0+ des GeforceFX sind zwar vielfältig aber leider langsam"

soeine Pauschalaussage ist gefährlich.

Dies stimmt nur bedingt. Denn es stimmt nur für PS1.4-2.0 und stimmt nur momentan. Denn es könnte über einen neuen Treiber wieder ganz anders aussehen.

Solange er mit erhältlichen Treibern bei den PS1.4 und PS2.0 vergleichsweise schlecht performt, ist es eine Tatsache.
Was etwaige zukünftige Wundertreiber zu leisten imstande sind, ist Spekulation und sollte nicht als Entschuldigung für heutige schlechte Performance herhalten.
Was nützt es mir, wenn ich heute viel Geld für den NV30 bezahle, aber erst der NV35 zeigen kann, was Sache ist?

BTW. Wo hat Singletexturing beim 3DM03 einen grossen Einfluss ?

Es gibt ja jetzt auch (zumindest ein) schönes Review, was gänzlich ohne den 3DMark jeglicher Couleur auskommt und heutige Spiele als Maßstab nimmt, und auch da ist das Fazit mehr oder weniger das gleiche.

Das alles soll nicht heissen, dass mit zukünftigen Treibern keine Besserung möglich ist, aber bis dahin heisst es 'Vorsicht beim Graka-Kauf'.

robbitop
2003-03-13, 10:09:50
aber wo bitte braucht man diese starke Performance von PS1.4-2.0?

Salvee
2003-03-13, 10:15:42
Originally posted by robbitop
aber wo bitte braucht man diese starke Performance von PS1.4-2.0?

Also nV hat deiner Meinung nach Transistoren eingespart bei PS1.4 und PS2.0, um die Leistung in heutigen Apps/Spielen die zu 'Lebzeiten der Karte' rauskommen zu optimieren.
Leider sehe ich nicht, wo das genau der Fall sein soll.
Beim AF? Beim AA? Bei der Füllrate? Mir fällt da momentan nichts ein.

robbitop
2003-03-13, 10:57:08
Also nV hat deiner Meinung nach Transistoren eingespart bei PS1.4 und PS2.0, um die Leistung in heutigen Apps/Spielen die zu 'Lebzeiten der Karte' rauskommen zu optimieren
@Salve

nein

du hast mich nicht richtig verstanden

Das hat erstmal gar nichts mit den Transistoren zu tun denn ich denke ma die 32Micro APUs werden schon viele transistoren schlucken.
Das hat mit den Register Combinern zu tun die bis PS 1.3 alles bearbeiten. Ein Rudiment der vorherigen generationen. Es liegt nicht direkt an den shadern (NV35 und NV34 sollen ja PS1.42.0 Code genauso schnell ausführen können).

Zum AA: dort hat NV zweifellos im Trisetup geschlampt und ich denke das wird so bleiben bis zum NV40. Also kein RG >2x.
Aber der Speed den der NV30 verliert ab 4x ist die Bandbreite, die er nunmal nicht so hat wie es bei einem 256bit interface möglich wäre.

Die Füllrate...tja darum streiten sich ja die Gemüter...ich schätze das die Pipestruktur so innovativ wie sie ist, einer Überarbeitung zugunste der Effizienz haben sollte. Davon betroffen sind NV34/35 (diese sind überarbeitet).

Zum Sparen an Transistoren. Hier meinte ich die Pipelinestruktur an sich. Dadurch dass sie so flexibel ist, müssen nicht ganze Pipeines mit all ihren ALUs/TMUs/AA Samplern dupliziert werden um die Leistung zuerhöhen, das kostet mächtig transistoren. MAn hat 32 Micro ALUs in diese Struktur eingearbeitet (Quelle Demirug, ist auch nicht komplett gesichert) und man nutzt nur 4xAA Sampler statt 8, da diese eh kaum ausgelastet sind. Man möchte also effizienter mit den Transistoren um gehen. Und dieser Ansatz ist nicht so blöde... ;-)

2B-Maverick
2003-03-13, 10:58:55
Originally posted by Quasar

Wozu sollte ein DX9-Proggie sich mit PS1.1 und PS1.4 abgeben? Da sollte man gleich auf PS2.0 gehen, oder? Sonst kann man das ja auch mit DX8.1 erledigen.

Nix da!
PS2.0 und PS1.4 sind sich SEHR ähnlich.
Ein kurzes PS2.0 Programm ist oft sogar identisch mit dem PS1.4 Programm für den selben Effekt!

Also einfach 1.4 für diesen Effekt nehmen, und damit gleichzeitig auch DX8.1 HW wie die massenhaft vorhandenen R8500/9000 unterstützen.
Klingt für mich vollkommen logisch.

NV hat mit dem "cheat"-Treiber wohl einfach die Genauigkeit zurückgefahren. Toll.... das so was durchgeht verstehe ich nicht.
Entweder man ist so genau, wie man sein muss, oder man LÄSST es!

Wie mieserabel der PS2.0 Teil der NV-Hardware (oder Treiber) zur Zeit ist, sieht man schön an den Shader-Mark Werten aus dem Beyond3d-Forum (die auch im HardOCP Test wieder auftauchen).
Da brechen die 5600er regelrecht ein gegenüber den ATI Karten.

Und da NV die 1.4er wohl über die 2.0er HW laufen lässt, hat NV eben MIST gebaut! Ganz einfach. NV ist eben auch nicht unfehlbar.
(ein schneller NV30 wäre mir AUCH lieber gewesen.. wollte mal wieder ne NV Karte haben.... )

robbitop
2003-03-13, 11:06:17
hast du sicher Recht Maverick.

Aber diese 1.4-2.0 Effekte bringen zu Lebzeiten eh nicht viel.
Aber natürlich sollte man das dadurch nicht vermindern, es ist einfach nicht gut als Hersteller die eigene Meinung vom Nutzen eines Chips dem Kunden aufzudrängen.

Wie auch immer, im NV34/35 isses gefixt.
Der Nv30 scheint innovativ vom design aber dort eben auch sehr übereilt, sehr beta eben...schade drum..

2B-Maverick
2003-03-13, 11:06:48
Und noch was: das ganze 3DMark03 Gebashe geht mir ziemlich auf den Keks.

NATÜRLICH ist das kein Bench für heutige Spiele. Aber er zeigt doch sehr schön auf, wo zukünftige Bottlenecks liegen KÖNNTEN.
(die Shader-Bottlenecks sind ja auch anderweitig bestätigt)

NV behauptet immer "cinematic" quality liefern zu können. GEHT aber momentan nur schwer bei der schlechten Leistung der PS2.0 Einheiten.

Das diesbezüglich der NV35 doppelt so schnell sein wird HOFFE ich doch sehr.

Das schöne dabei ist dann, das zukünftige DX9 Programme den NV35 als Maßstab nehmen werden, und meine R300 dies Spiele dann genauso schnell spielen können wird wie besagter NV35...

alles Speku natürlich......

Exxtreme
2003-03-13, 11:11:50
Originally posted by robbitop
Aber diese 1.4-2.0 Effekte bringen zu Lebzeiten eh nicht viel.

Das gleiche könnte man auf den 3DM01 ummünzen. Als dieser erschien, war dieser auch nicht praxisrelevant da es keine Spiele gab, die PS1.0/1.1 nutzten.

StefanV
2003-03-13, 12:30:43
Originally posted by Exxtreme

Das gleiche könnte man auf den 3DM01 ummünzen. Als dieser erschien, war dieser auch nicht praxisrelevant da es keine Spiele gab, die PS1.0/1.1 nutzten.

Eben, nur anscheinend 'vergessen' das einige...

Und warum ??
Nur weil NV in diesem Bench schlecht abschneidet ??
Nur weil NV gesagt hat, daß der 03er scheiße ist ??

Dummerweise sind die VOrgänger genauso scheiße, nur hats damals NV nicht gestört...

Labberlippe
2003-03-13, 12:41:51
Originally posted by robbitop
@Exxtreme
"Klar ist 3DMark03 nicht praxisrelevant und im Endeffekt eine Techdemo, die ein Paar Zahlen ausspuckt. Nur das waren die Versionen 00 und 01 auch schon, denn diese benutzten auch eine Engine, die in keinem Spiel verwendet wurde (nein, auch nicht Max Payne). Der 3DMark taugt aber gut zum Stabilität eines Systems testen und auch in vielen Fällen als ein theoretischer Benchmark, mit dem man die Fähigkeiten und Schwächen eines Grafikchips herausfinden kann."

da kann ich noch voll mitgehen, ABER der 3DMark ist eigendlich seit der ersten Version dadurch, dass seine Ergebnisse eigendlich noch relativ nahe an den Praxisbenches (also das Verhalten von GPUs mit zuschalten von AA/AF/höhere Auflösung ect) lagen, zu einem ultimativem Bench geworden den nunmal die Masse nutzt, Und 2003 ist ja auch "besser" als 2001 denkt da so mancher...und wenn dort eine Karte nur 1/2 der Punkte als die andere hat, ist das schon sehr schlecht für den Verkauf der Karte, dennn du glaubst nicht wieviel Leute (nicht nur DAUs) darauf gucken.
Ich betone nur nochmal, dass ich aufgrund der Technologie viel vom NV30 halte, auch wenn dessen Effizienz noch nicht da ist.
Hier werden zB Transistoren gespart mit einer recht flexiblen Pipe.
Singletexturing, in alten Games ok, da reichen die 4Pipes allemale, aber NV hat klar für heutige 3D Engines entwickelt. Naja und ist dann so gestraft von diesem bench. Man baut doch nicht seine Karte extra für einen Bench. Was die NV30 Architektur kann, wird wohl leider erst der NV35 wohl zeigen können. Und diesen Weg wird ATi sicher auch gehen.

Ich finde es trotz praxisferne gut dass dieser bench PS1.4 Bencht aber dass Singletexturing dort so stark einfliesst finde ich nicht so prickelnd.

Und natürlich ist es nicht schön zu "cheaten", aber wenn es das einzige Mittel ist, um den Leuten, die denken ,3Dmark = Praxis, zu zeigen, dass das Produkt eben nicht so schlecht ist, wie es der sog Bench darstellt, dann ist es imho nicht so stark zu verurteilen.

Letztendlich haben alle Hersteller immer für 3DMark optimiert und wer weiss, wieviel Cheat dort schon dabeigewesen ist.

Sorry aber ich sehe das die FX ein Rohrkrepierer ist.
Eine Karte mit 4000 Fillrate müsste jederzeit eine 9700 Pro versenken.
FSAA ist nicht mal anähnernd mit der von ATi zu vergleichen.
AF ist im Application Mode Top, keine Frage, bricht aber zuviel ein deshalb auch der Balanced Modus.
Unter Doom III muss FP16 angesprochen werden damit das Teil an den R300 Anschluss findet und unter FP32 hat das Teil doppelte Performance einbrüche.
Ok dafür hat ATi nur 24 allerdings das schneller als die nV Lösung.

Verdammt laut und dann noch mit div Windkanallösungen wo ich im Sommer dann im Rechner grillen(Holzkohle ersparniss) kann trotz der Revelutionären 0.13 mikron Fertigung.
Hmmm und wenn ich den Preis sehe dann kommt mir das Kotzen.


Ehrlich gesagt ist und bleibt die Karte mist, egal wie "flexibel" die Register Kombiner sind, wenn die nicht Performen und mit den Standardgames bei der Fillratte zu Recht dann ist der Chip untauglich und ein Schuss nach hinten.

Nachtrag: Ich habe das Word Standartgames in Standardgames abgeändert, sonst gibt es haue von aths. :D

Gruss Labberlippe

AlfredENeumann
2003-03-13, 13:27:48
Originally posted by robbitop
hast du sicher Recht Maverick.

Aber diese 1.4-2.0 Effekte bringen zu Lebzeiten eh nicht viel.
Aber natürlich sollte man das dadurch nicht vermindern, es ist einfach nicht gut als Hersteller die eigene Meinung vom Nutzen eines Chips dem Kunden aufzudrängen.



Reitet doch nicht immer auf diese PS1.4-2.0 effekte rum. Die komischen neuen Pixelshader der FX werden beim ebenfalls zu Lebzeiten nie genutzt werden. Auch nicht im NV35 und auch nicht im NV40. Aber die sollen so toll sein oder was ?

DrumDub
2003-03-13, 13:30:31
ich denke, das die quadro FX das bessere betätigungsfeld für den nv30 ist.

für spiele ist das chipdesgin des nv30 schon nen griff ins klo (außer die "wundertreiber" tauchen noch auf).

2B-Maverick
2003-03-13, 13:47:15
Originally posted by AlfredENeumann


Reitet doch nicht immer auf diese PS1.4-2.0 effekte rum. Die komischen neuen Pixelshader der FX werden beim ebenfalls zu Lebzeiten nie genutzt werden. Auch nicht im NV35 und auch nicht im NV40. Aber die sollen so toll sein oder was ?

hmmm.. also ich kenne einige Spiele, die die PS1.4 der 8500 nutzen und TROTZDEM auf der Karte spielbar sind....

aths
2003-03-13, 14:00:56
Originally posted by LovesuckZ
Weil Nvidia kein Grund sah, denn PS 1.4 richtig umzusetzen?
Genauso koennte man auch fragen, warum Future nicht die Standard PS verwendet. 1.4 ist genauso standardisiert wie 1.0 (Rampage), 1.1 (GeForce3), 1.2 (3DLabs P9 und 10 glaube ich), 1.3 (GeForce4 Ti, Parhelia) und 2.0 bzw. 2.0+.
Originally posted by LovesuckZ
Das Zitat beweist aber, dass Futuremark viel auf PS1.4 setzen und die nur die r200/300 Karten richtig beherrschen. Somit ist von vornerein kein richtiger Vergleich zwischen den DX8/9 Karten gegeben. Futuremark kann nichts dafür, wenn sich nVidia dem (brauchbaren) 1.4-er Support verweigert. Um einen bestimmten Effekt bestmöglich zu rendern ist es einerseits Unsinn, mit Kanonen auf Spatzen zu schießen (also gleich 2.0 zu nehmen) aber andererseits sollte man die Technologie nehmen, die da nicht unnötig Stolpersteine in den Weg legt. PS.1.3 und darunter brauchen für viele interessante Effekte leider zwei Passes und sind daher nur zweite Wahl.

aths
2003-03-13, 14:02:30
Originally posted by Labberlippe
Somit war 3DMark noch nie ein richtiger Vergleich.
Da damals sehr stark die nV Karten bevorzugt waren.

Ehrlich gesagt wenn juckts, hier rumzudiskutieren wer welchen Standart hat ist falsch.*Heul* Standard - mit d!
Originally posted by Labberlippe
Ich hoffe nur das DOOM III mehr klären wird.Doom3 ist natürlich kein Bench, d.h., JCs Paradigmen für seine Engine sind natürlich mit der 3DM03-Engine nicht vergleichbar. (Hoffentlich reicht der NV25 noch für Doom3, *hoff hoff*)

aths
2003-03-13, 14:05:49
Originally posted by Quasar
Die Logik leuchtet mir nicht ein, denn danach hätte man genausogut PS1.3, 1.2 oder 1.1 nehmen können, schließlich werden die auch von PS2.0 beherrscht.Versuch doch mal, den gegebenen Effekt single pass mit 1.3 zu realisieren... Imo ist es sinnig, den "kleinsten besten" Shader zu nehmen.
Originally posted by Quasar
Wozu sollte ein DX9-Proggie sich mit PS1.1 und PS1.4 abgeben? Da sollte man gleich auf PS2.0 gehen, oder? Sonst kann man das ja auch mit DX8.1 erledigen. Es sieht so aus, als ob es auf lange Sicht keine reinen DX9-Spiele geben wird, die Pixelshader 2.0 voraussetzen. Demzufolge ist es imo durchaus sinnig, Shader - soweit möglich - noch in 1.1 bzw. 1.4-er Version zu nutzen, dann brauchen diese für den Fallback DX8-Karten nicht noch mal neu geschrieben werden. Lediglich für die 2.0-er Shader wäre dann noch eine 1.1- bzw. 1.3-Multipasslösung erforderlich.

aths
2003-03-13, 14:08:41
Originally posted by robbitop
(NV35 und NV34 sollen ja PS1.42.0 Code genauso schnell ausführen können).IIRC, NV31 und NV35.

ow
2003-03-13, 15:20:05
Originally posted by 2B-Maverick


hmmm.. also ich kenne einige Spiele, die die PS1.4 der 8500 nutzen und TROTZDEM auf der Karte spielbar sind....

Welche Spiele sind das denn?

Labberlippe
2003-03-13, 15:22:48
[SIZE=1]Originally posted by aths
*Heul* Standard - mit d!


Verdammt wieder eines übersehen. :D

Gruss Labberlippe

2B-Maverick
2003-03-13, 15:28:41
Originally posted by ow


Welche Spiele sind das denn?

ich machs mir mal einfach:
im Forum suchen. Da gabs ne Liste mit Spielen, die PS1.4 unterstützen. Will nicht sagen, das da VIEL anders wird durch. Aber es wird supported.

Will nämlich an die Frische Luft... bissl Radl-Strampeln...

CU and let the sun shine in your heart (da war mir nach)

LovesuckZ
2003-03-13, 17:54:53
Originally posted by AlfredENeumann
Wer vergleicht denn beim 3D MArk 2003 den Overallscore zweier Kartengenerationen miteinander ?

Ich beziehe mich auf die beiden einzel Ergebnisse der DX8 Benches vom 3DMark2003. Nix Overallscore.

LovesuckZ
2003-03-13, 17:59:42
Originally posted by AlfredENeumann
Die Radeon 8500/9100/9200 muß doch auch PS <1.4 emulieren. Da beschwert sich auch keiner

Schade dass sich Stefan Payne dazu nicht aeußert, warum ATi sich nicht an Nvidia, bei der Hardwaregestaltung, orientiert hat.

LovesuckZ
2003-03-13, 18:01:23
Originally posted by aths
Futuremark kann nichts dafür, wenn sich nVidia dem (brauchbaren) 1.4-er Support verweigert. Um einen bestimmten Effekt bestmöglich zu rendern ist es einerseits Unsinn, mit Kanonen auf Spatzen zu schießen (also gleich 2.0 zu nehmen) aber andererseits sollte man die Technologie nehmen, die da nicht unnötig Stolpersteine in den Weg legt. PS.1.3 und darunter brauchen für viele interessante Effekte leider zwei Passes und sind daher nur zweite Wahl.

Nur ist die Frage, ob man in einen Benchmark (wie sich der 3DMark2003 betitelt) die Sache auch so umsetzen kann.

LovesuckZ
2003-03-13, 18:03:02
Originally posted by Exxtreme
Und das soll ein "Beweis" sein?

Na dann, zeige mir deine "Beweise", dass Futuremark einen vergleichbaren Benchmark programmiert hat.

LovesuckZ
2003-03-13, 18:05:19
Originally posted by Labberlippe
Teils Teils wobei die R8500 als Gegner eigentlich die normale GeForce hatte und nicht die TI500.
PS war schon langsamer, da emuliert durch PS1.4


Somit hat sich ja dieses '3DMark war frueher immer auf Nvidia optimiert' erledigt.

StefanV
2003-03-13, 18:06:45
Originally posted by LovesuckZ
Nur ist die Frage, ob man in einen Benchmark (wie sich der 3DMark2003 betitelt) die Sache auch so umsetzen kann.


Warum sollte man es bei einem Benchmark anders handhaben ??

Nur damit eie 'schlechtere' Hardware nicht benachteiligt wird ??

StefanV
2003-03-13, 18:07:13
Originally posted by LovesuckZ

Na dann, zeige mir deine "Beweise", dass Futuremark einen vergleichbaren Benchmark programmiert hat.

Jemand ist unschuldig, bis die Schuld bewiesen ist :-)

StefanV
2003-03-13, 18:08:44
Originally posted by LovesuckZ

Schade dass sich Stefan Payne dazu nicht aeußert, warum ATi sich nicht an Nvidia, bei der Hardwaregestaltung, orientiert hat.

Warum sollte sich ATI bei einem neuen/besseren Shader an NV halten ??

Wie du schon sicher gehört hast, ist PS1.4 dichter an PS2.0 dran als PS1.3 an PS1.4...

ATI hat also die Vorrausschauensten Shader während NV nur 'Aufgemotzte' Register Combiner hat...

LovesuckZ
2003-03-13, 18:09:15
Originally posted by Stefan Payne
Warum sollte man es bei einem Benchmark anders handhaben ??
Nur damit eie 'schlechtere' Hardware nicht benachteiligt wird ??

Das ein benchmark eine vergleichbare Basis haben soll, ist dir klar?

LovesuckZ
2003-03-13, 18:09:59
Originally posted by Stefan Payne
Jemand ist unschuldig, bis die Schuld bewiesen ist :-)

Futuremark hat es doch selbst zu gegeben, viele Effekte mit dem PS1.4 realisiert zu haben.

LovesuckZ
2003-03-13, 18:12:11
Originally posted by Stefan Payne
Warum sollte sich ATI bei einem neuen/besseren Shader an NV halten ??
Wie du schon sicher gehört hast, ist PS1.4 dichter an PS2.0 dran als PS1.3 an PS1.4...
ATI hat also die Vorrausschauensten Shader während NV nur 'Aufgemotzte' Register Combiner hat...

'Früher' wars so, daß man sich bei der HW an denen orientiert haben, die zuerst da waren und 'seine' HW so designt, daß sie zu der anderen HW kompatibel ist...

StefanV
2003-03-13, 18:13:50
Originally posted by LovesuckZ


'Früher' wars so, daß man sich bei der HW an denen orientiert haben, die zuerst da waren und 'seine' HW so designt, daß sie zu der anderen HW kompatibel ist...

Ist PS1.4 nicht zu 1.3 kompatibel ??
Sieht irgendwas, das für PS1.3 geschrieben wurde auf PS1.4 anders aus ??

StefanV
2003-03-13, 18:14:32
Originally posted by LovesuckZ

Futuremark hat es doch selbst zu gegeben, viele Effekte mit dem PS1.4 realisiert zu haben.

Ja und ??
Wozu gleich PS2.0 nehmen ??
Gibt schließlich auch 'nen Fallback für PS1.1, ich weiß nicht, wo dein Problem ist.

LovesuckZ
2003-03-13, 18:15:31
Zitat von dir, Stefan Payne, aus dem temepratur Thread:
Dennoch ist es völliger schwachsinn 2 CPUs mit unterschiedlichen Kühlern (die unterschiedlich groß sind und unterschiedliche Lüfter drauf haben) von der Temperatur her zu vergleichen.

LovesuckZ
2003-03-13, 18:16:46
Originally posted by Stefan Payne
Gibt schließlich auch 'nen Fallback für PS1.1, ich weiß nicht, wo dein Problem ist.

aha, ein 'Fallback' der wahrscheinlich auch deutlich langsamer laufen wuerde, ist ein 'fairer' vergleich?

LovesuckZ
2003-03-13, 18:18:23
Originally posted by Stefan Payne
Sieht irgendwas, das für PS1.3 geschrieben wurde auf PS1.4 anders aus ??

Nein, dass tut es nicht, nur es laeuft langsamer. Du willst aber jetzt bestimmt nicht sagen, weil es gleich aussieht, kann man es vergleichen?

StefanV
2003-03-13, 19:11:32
Originally posted by LovesuckZ
aha, ein 'Fallback' der wahrscheinlich auch deutlich langsamer laufen wuerde, ist ein 'fairer' vergleich?

Falls es dir nicht aufgefallen sein sollte:
Seit der GF3 ist kein Vergleich mehr fair da alle Hersteller unterschiedliche Dinge unterschiedlich implementiert haben.

Einfach mit dem Finger auf etwas zeigen und zu sagen 'bäh, das ist aber unfair' sollte man es lieber akzeptieren...

Denn ein FSAA Vergleich zwischen GF FX und Radeon 9700 ist auch unfair, da letztere ab 4x FSAA die deutlich bessere Bildqualität liefert...

StefanV
2003-03-13, 19:13:51
Originally posted by LovesuckZ

Nein, dass tut es nicht, nur es laeuft langsamer. Du willst aber jetzt bestimmt nicht sagen, weil es gleich aussieht, kann man es vergleichen?

1. siehst du, das meine ich...
Es kommt bei beiden das gleiche raus, das Resultat ist also identisch, somit kann man es vergleichen.

2. doch, das sagte ich...
Man kann nur gleiche/ähnliche Dinge vergleichen.
Man muss möglichst identische Verhältnisse schaffen, was ja seit einiger Zeit nicht mehr wirklich geht...

StefanV
2003-03-13, 19:15:17
Originally posted by LovesuckZ
Zitat von dir, Stefan Payne, aus dem temepratur Thread:
Dennoch ist es völliger schwachsinn 2 CPUs mit unterschiedlichen Kühlern (die unterschiedlich groß sind und unterschiedliche Lüfter drauf haben) von der Temperatur her zu vergleichen.


Kannst du bitte näher erläutern was du damit sagen willst??

Ganz nebenbei gehts hier nicht um Kühler (es gibt einige Kühler, die man sowohl für Intel S478 als auch SA nehmen kann)...

DrumDub
2003-03-13, 19:16:03
Originally posted by Stefan Payne
Denn ein FSAA Vergleich zwischen GF FX und Radeon 9700 ist auch unfair, da letztere ab 4x FSAA die deutlich bessere Bildqualität liefert...

korrekt. rotated grid super sampling rulez. da hat ati das beste von 3dfx abgeschaut... *g*

LovesuckZ
2003-03-13, 19:18:44
Originally posted by Stefan Payne
Kannst du bitte näher erläutern was du damit sagen willst??
Ganz nebenbei gehts hier nicht um Kühler (es gibt einige Kühler, die man sowohl für Intel S478 als auch SA nehmen kann)...

Das du den Vergleich zwischen den Proz- Temperaturen von Power widersprichst, jedoch beim 3DMark2003 als 'fairen' Vergleich ansiehst.

LovesuckZ
2003-03-13, 19:19:51
Originally posted by Stefan Payne
1. siehst du, das meine ich...
Es kommt bei beiden das gleiche raus, das Resultat ist also identisch, somit kann man es vergleichen.


Aha, dann weiß ich nicht, warum du den Proz-Temperaturvergleich von Power abgeneigt wars. Denn das Ergebnis ( die prozessoren zu kuehlen) haben sie ja gemeinsam...

Muh-sagt-die-Kuh
2003-03-13, 19:30:49
Originally posted by DrumDub


korrekt. rotated grid super sampling rulez. da hat ati das beste von 3dfx abgeschaut... *g* Es ist ein rotated Grid, was der R300 betreibt ist aber reinstes Multisampling und kein Supersampling.

LovesuckZ
2003-03-13, 19:47:38
Originally posted by Stefan Payne
Denn ein FSAA Vergleich zwischen GF FX und Radeon 9700 ist auch unfair, da letztere ab 4x FSAA die deutlich bessere Bildqualität liefert...

Warum sei ein Vergleich hierbei unfair? Beide benutzen Multisampling und haben 4 AA Samples (hoffe das nennt man so). Das nvidia nun ein OG- und ATi ein RG Raster verwendet, hat doch fuer den Vergleich der Leistung keine Bedeutung. Da ich meine, dass das RG nicht mehr Leistung benoetigt. Somit ist doch ein fairer Vergleich gegeben, der sich zu gunsten von ATI wegen der Bildqualitaet wendet. Anders waere es, wenn ATI ein Supersampling verfahren verwendet wuerde. Hier waere ein vergleich zwischen dem MS und SS einfach unfair. Auch wenn beide das selbe Endergebnis liefern - geglaettete Kanten.

Xcellerator
2003-03-13, 19:51:01
Originally posted by LovesuckZ


Aha, dann weiß ich nicht, warum du den Proz-Temperaturvergleich von Power abgeneigt wars. Denn das Ergebnis ( die prozessoren zu kuehlen) haben sie ja gemeinsam...


du verstehst es nicht:
der benchmark soll lediglich die performance verschiedener grafikkarten bei einer bestimmten "grafikpracht" testen/vergleichen.
um diese zu erreichen wurden nunmal ps1.4 benötigt...

StefanV
2003-03-13, 20:00:09
Originally posted by LovesuckZ

Das du den Vergleich zwischen den Proz- Temperaturen von Power widersprichst, jedoch beim 3DMark2003 als 'fairen' Vergleich ansiehst.

Dann überleg mal, bei welchen dieser 'Beispiele' die 'Umständen' beeinflussen können...
Bei Powers Test hat der 'Tester' allein die Auswahl der Umstände.

Beim 3DMark03 hat man hingegen nur die Wahl zwischen Starten und nicht starten...

Die Grafikchips sind, wie schon erwähnt, nicht wirklich mehr vergleichbar !!

StefanV
2003-03-13, 20:05:50
Originally posted by LovesuckZ
Warum sei ein Vergleich hierbei unfair? Beide benutzen Multisampling und haben 4 AA Samples (hoffe das nennt man so). Das nvidia nun ein OG- und ATi ein RG Raster verwendet, hat doch fuer den Vergleich der Leistung keine Bedeutung. Da ich meine, dass das RG nicht mehr Leistung benoetigt. Somit ist doch ein fairer Vergleich gegeben, der sich zu gunsten von ATI wegen der Bildqualitaet wendet. Anders waere es, wenn ATI ein Supersampling verfahren verwendet wuerde. Hier waere ein vergleich zwischen dem MS und SS einfach unfair. Auch wenn beide das selbe Endergebnis liefern - geglaettete Kanten.

1. dann schau dir mal die 4x FSAA Shots der Radeon und der GF FX mal an...

Wie du sicher weißt, hat die GF FX bei 4x FSAA ein Ordered Grid Muster während die R300 ein Rotaded Grid Muster hat.
Bei der GF FX schaut 4x AA auch nicht wirklich besser als 2x AA aus...

Ergo: der Vergleich ist 'unfair' weil das was raus kommt bei der Radeon 'etwas' besser aus.

Die Leistung mag ja bei der GF FX besser ausschauen, der Faktor Qualität/Leistung hingegen nicht, da die GF FX mehr auwenden muß um die gleiche BQ wie ATI zu erreichen.

2. SS vs. MS ist wie du schon sagtest auch nicht ganz fair.
Insbesondere da MS nur die Kanten glättet dafür aber schneller als MS ist, SS hingegen glättet auch die Texturen, kostet aber mehr Performance...

zeckensack
2003-03-13, 20:18:22
Originally posted by LovesuckZ


Warum sei ein Vergleich hierbei unfair? Beide benutzen Multisampling und haben 4 AA Samples (hoffe das nennt man so). Das nvidia nun ein OG- und ATi ein RG Raster verwendet, hat doch fuer den Vergleich der Leistung keine Bedeutung. Da ich meine, dass das RG nicht mehr Leistung benoetigt. Somit ist doch ein fairer Vergleich gegeben, der sich zu gunsten von ATI wegen der Bildqualitaet wendet. Anders waere es, wenn ATI ein Supersampling verfahren verwendet wuerde. Hier waere ein vergleich zwischen dem MS und SS einfach unfair. Auch wenn beide das selbe Endergebnis liefern - geglaettete Kanten. Sag mal, geht's noch?
Der Vergleich Supersampling gegen Multisampling ist nicht unfair. Beschäftige dich doch bitte mal sinnvoll, und suche mir ein Zitat von jemandem der behauptet daß dem so ist.
Daß Multisampling schneller ist, das wissen sowieso alle, dementsprechend hat die Gf4Ti meines Wissens auch alle Vergleichsbenchmarks gegen die Radeon8500 gewonnen. Zu recht. Und aus.

Labberlippe
2003-03-13, 21:18:47
Originally posted by LovesuckZ


aha, ein 'Fallback' der wahrscheinlich auch deutlich langsamer laufen wuerde, ist ein 'fairer' vergleich?

Wieso ???
ATI verwendet mit PS1.4 auch ein Fallback für 1.3 und siehe da, das Fallback ist sogar sehr gut gemacht, wenn nVIDIA keine Lust hat ein vernünftiges Fallback zumachen (wie seinerseits ATi mit 1.1 und 1.3) dann kann dennen auch nicht geholfen werden.

Futuremark hat einfach den letzten hohen PS Standard genommen und das war halt PS1.4.
Früher wurde halt PS1.3 genommen.
PS1.4 hat sehr wohl Vorteile wie Du hier schon gelesen hast, nur wurde dieses nicht von nVIDIA integriert weils einfach nicht von Ihnen kommt.

Jetzt wird gejammert..

Gruss Labberlippe

Demirug
2003-03-13, 21:26:03
Was mich mal ehrlich interesieren würde ist wie sich die FX mit dem Renderpfad für Karten ohne PS 1.4 schlägt.

LovesuckZ
2003-03-13, 21:26:33
Originally posted by Labberlippe
Wieso ???
ATI verwendet mit PS1.4 auch ein Fallback für 1.3 und siehe da, das Fallback ist sogar sehr gut gemacht, wenn nVIDIA keine Lust hat ein vernünftiges Fallback zumachen (wie seinerseits ATi mit 1.1 und 1.3) dann kann dennen auch nicht geholfen werden.


ATI's Fallback (r300) ist auch nicht besser als das was Nvidia anzubieten hat. Sieht man schoen am Naturetest (Test bei Digit-Life).

Labberlippe
2003-03-13, 21:28:26
Originally posted by LovesuckZ


ATI's Fallback (r300) ist auch nicht besser als das was Nvidia anzubieten hat. Sieht man schoen am Naturetest (Test bei Digit-Life).

Zeigen.

Die R8500 bringt übrigens die Nature Szene beim 01er mit dezenten 45fps,
240/250

Gruss Labberlippe

LovesuckZ
2003-03-13, 21:32:27
Originally posted by Labberlippe
Zeigen.


http://www.bigsmedia.de/3dm-g4.png

Digit-Life (http://www.digit-life.com/articles2/gffx/nv31-nv34.html#p1)

aths
2003-03-13, 23:40:56
Originally posted by LovesuckZ
Ich beziehe mich auf die beiden einzel Ergebnisse der DX8 Benches vom 3DMark2003. Nix Overallscore. Welche Aussagekraft haben solche Einzelbenches für Spiele?

aths
2003-03-13, 23:42:33
Originally posted by LovesuckZ
Futuremark hat es doch selbst zu gegeben, viele Effekte mit dem PS1.4 realisiert zu haben. ... weil 1.4 der beste Shader für die Effekte ist, die sie rendern wollten. Beim 1.1-er Shader sind (genau wie beim 1.3-er) gleich zwei Passes notwendig...

aths
2003-03-13, 23:43:15
Originally posted by LovesuckZ
aha, ein 'Fallback' der wahrscheinlich auch deutlich langsamer laufen wuerde, ist ein 'fairer' vergleich? Besser, als wenn es keinen Fallback gäbe und man gar keine Punkt kriegen würde, oder? 3DMark2003 zeigt nunmal sehr deutlich, wie hoch die Überlegenheit von Pixel Shader 1.4 gegenüber Version 1.3 ist. Dafür kann ATI doch auch nichts.

aths
2003-03-13, 23:45:53
Originally posted by LovesuckZ
Warum sei ein Vergleich hierbei unfair? Beide benutzen Multisampling und haben 4 AA Samples (hoffe das nennt man so). Das nvidia nun ein OG- und ATi ein RG Raster verwendet, hat doch fuer den Vergleich der Leistung keine Bedeutung. Denkfehler: Du vergleichst Aufwand, nicht die Leistung.

Die Leistung besteht darin, in kurzer Zeit so viele Bilder mit einer Qualität zu rendern, so hoch wie möglich. ATIs AA ist dem nV-AA nicht nur bezüglich der Samplemaske überlegen, sondern auch bezüglich der Gamma-Korrektur beim Downfiltering.

StefanV
2003-03-13, 23:57:31
Originally posted by LovesuckZ
http://www.bigsmedia.de/3dm-g4.png

Digit-Life (http://www.digit-life.com/articles2/gffx/nv31-nv34.html#p1)

Suckie, meinst du nicht, daß der Shot ein Griff ins Klo ist ??
Will sagen:
klasse Eigentor...


Die TI4800 ist 'irgendwie' die schnellste Karte, wird weder von 'ner ATI noch von einer anderen NV Karte überholt...

dead
2003-03-14, 00:58:23
Originally posted by Demirug

Die Genauigkeit (sowohl Vor- wie auch Nachkommstellen) ist bei den PS 1.4 beliebig.

Aus diesem Grund benutzt man bei einen DX9 Test eben keine PS 1.4.

[/url]

Ist die Genauigkeit bei PS 2.0 definiert?


gruß.

LovesuckZ
2003-03-14, 07:18:43
Originally posted by Stefan Payne
Suckie, meinst du nicht, daß der Shot ein Griff ins Klo ist ??
Will sagen:
klasse Eigentor...
Die TI4800 ist 'irgendwie' die schnellste Karte, wird weder von 'ner ATI noch von einer anderen NV Karte überholt...

Oehm, du hast meine Intention missverstanden

Demirug
2003-03-14, 07:33:12
Originally posted by dead


Ist die Genauigkeit bei PS 2.0 definiert?


gruß.

Es ist eine Mindestgenaugigkeit definiert. Da es sich aber bei den PS 2.0 und darüber um Fliesspunkt register handelt ist die abhängikeit ob bestimmte dinge funktionieren nicht so sehr von der Genauigkeit abhängig wie bei den PS 1.4 (und den anderen 1.x Shader eigentlich auch).

LovesuckZ
2003-03-14, 07:42:01
Originally posted by aths
... weil 1.4 der beste Shader für die Effekte ist, die sie rendern wollten. Beim 1.1-er Shader sind (genau wie beim 1.3-er) gleich zwei Passes notwendig...

Dann haette Futuremark einen 2. auf PS1.0-1.3 optimierten Renderpfad mit einer aehnlichen Qualitaet programmieren muessen. Zwar wuerde dieser wahrscheinlich schlechter aussehen, doch so haette man auch Nvidiakarten (<NV3X) eine vernuenftige Basis geben können.

LovesuckZ
2003-03-14, 07:44:04
Originally posted by aths
Welche Aussagekraft haben solche Einzelbenches für Spiele?

Inwieweit repräsentiv ist die Aussagekaft des Overallscores auf die Leistung in Spielen?

Salvee
2003-03-14, 08:23:09
Originally posted by LovesuckZ


Dann haette Futuremark einen 2. auf PS1.0-1.3 optimierten Renderpfad mit einer aehnlichen Qualitaet programmieren muessen. Zwar wuerde dieser wahrscheinlich schlechter aussehen, doch so haette man auch Nvidiakarten (<NV3X) eine vernuenftige Basis geben können.

Genau, und Glide hättens auch einbauen sollen, damit die Voodoos rocken können.
Und einen für Kyro, am besten mit reduziertem Polycount (ca. 1/10), weil die ja keine VS haben.
Würden auch nur ein bisschen schlechter aussehen :stareup:

PS1.4 sind ja nicht gerade technologisch der letzte Schrei.
Wenn 99,99% der nV Karten es bis heute gar nicht beherrschen, und der Rest nur halbherzig, dann tut es mir (nicht) leid.

Wahrscheinlich wäre das Geschrei nicht so gross, wenn beispielsweise
GT1->bis max. PS 1.3
GT2->bis max. PS 1.4
GT3->bis max. PS 2.0

Egal, sie haben es so gemacht, wie sie es gemacht haben, mit allen Vor-und Nachteilen.
Vielleicht ergreift ja eine andere Softwareschmiede die Gelegenheit und proggt einen Konkurrenzbenchmark, der nV besser dastehen lässt.

LovesuckZ
2003-03-14, 09:15:18
Originally posted by Salvee
Genau, und Glide hättens auch einbauen sollen, damit die Voodoos rocken können.
Und einen für Kyro, am besten mit reduziertem Polycount (ca. 1/10), weil die ja keine VS haben.
Würden auch nur ein bisschen schlechter aussehen :stareup:


Das waere richtig, wenn die Verbreitung von GF3/4 Karten deutlich unter dem von r300 Karten liegen wuerde...

Salvee
2003-03-14, 09:31:49
Originally posted by LovesuckZ


Das waere richtig, wenn die Verbreitung von GF3/4 Karten deutlich unter dem von r300 Karten liegen wuerde...

Nein. Es ist immer ausgemachter Schwachsinn ;) ->imo natürlich
War ja nur als Joke gedacht (siehe ' :stareup: ')
Eine DirectX Techdemo sollte sich nur um Technologie kümmern, und nicht nicht um den Verbreitungsgrad von Grafikkarten.
Sonst wären wohl die Fähigkeiten einer TNT oder des Intel-Integrated-Hastenichtgesehen (ich weiss gar nicht, wie der Chip heisst) massgeblich.

Diese Runde hat die eine Firma Pech, in der nächsten sieht's vielleicht wieder ganz anders aus.
Was soll's...:)

aths
2003-03-14, 09:33:26
Originally posted by LovesuckZ
Dann haette Futuremark einen 2. auf PS1.0-1.3 optimierten Renderpfad mit einer aehnlichen Qualitaet programmieren muessen. Zwar wuerde dieser wahrscheinlich schlechter aussehen, doch so haette man auch Nvidiakarten (<NV3X) eine vernuenftige Basis geben können. Genau das hat man doch getan. Nur, ohne zwei Passs bei 1.3 gegeüber ein Pass bei 1.4 geht es nunmal nicht, die dort dargestellten Effekte zu rendern.

aths
2003-03-14, 09:34:03
Originally posted by LovesuckZ
Inwieweit repräsentiv ist die Aussagekaft des Overallscores auf die Leistung in Spielen? Das beantwortet nicht meine Frage, inwieweit ein Einzelbench was über die Spielbarkeit aussagt :)

aths
2003-03-14, 09:35:18
Originally posted by LovesuckZ
Das waere richtig, wenn die Verbreitung von GF3/4 Karten deutlich unter dem von r300 Karten liegen wuerde... :|

Bei einem Benchmark gehts doch nicht darum, zu testen, welche Karte am weitesten verbreitet ist, sondern welche Karte die beste Leistung und beste Technik hat, nicht?

Labberlippe
2003-03-14, 10:17:19
Originally posted by LovesuckZ


Dann haette Futuremark einen 2. auf PS1.0-1.3 optimierten Renderpfad mit einer aehnlichen Qualitaet programmieren muessen. Zwar wuerde dieser wahrscheinlich schlechter aussehen, doch so haette man auch Nvidiakarten (<NV3X) eine vernuenftige Basis geben können.

Hi

Nochmal der PS1.4 hat mehr Effekte welche in einen Pass gehen wofür der PS1.3 2 benötigt.
Wenn Du Dir die Benches ansiehst dann ist eh alles ok.

GeForce3
R8500
GeForce4
GeForce FX
R9700

Dieses passt auch leistungsmässig zu den Karten.

Wie gesagt beim 01er wurde nur PS1.3 verwendet.
PS1.4 wurde dann nachgeschoben, diese zählte allerdings nicht zur Wertung.

Gruss Labberlippe

ow
2003-03-14, 12:26:06
Originally posted by Labberlippe

Wie gesagt beim 01er wurde nur PS1.3 verwendet.
PS1.4 wurde dann nachgeschoben, diese zählte allerdings nicht zur Wertung.

Gruss Labberlippe


Der original 2001er Mark verwendet max. PS1.1.

Labberlippe
2003-03-14, 12:43:05
Originally posted by ow



Der original 2001er Mark verwendet max. PS1.1.

Hi

Stimmt, ich tippe immer PS1.3 ein.
Ein Bug in meinen Kopf ??? :D

Gruss Labberlippe

LovesuckZ
2003-03-14, 15:53:06
Originally posted by Salvee
Eine DirectX Techdemo sollte sich nur um Technologie kümmern, und nicht nicht um den Verbreitungsgrad von Grafikkarten.


Da ist der Knackpunkt: wenn ich 3DMark2003 starte, steht 'The Gamer's Benchmark'. Es ist also keine Technologiedemo, wie von ATi, Nvidia oder einen Institut.

LovesuckZ
2003-03-14, 15:55:16
Originally posted by aths
Genau das hat man doch getan. Nur, ohne zwei Passs bei 1.3 gegeüber ein Pass bei 1.4 geht es nunmal nicht, die dort dargestellten Effekte zu rendern.

ich meinte, dass man die Effekte mit PS1.0-1.3 in einer aehnlichen Qualitaet dastellt. Somit die Gf3/4 keine zwei Pass mehr benoetigen.

LovesuckZ
2003-03-14, 15:57:09
Originally posted by aths
Das beantwortet nicht meine Frage, inwieweit ein Einzelbench was über die Spielbarkeit aussagt :)

Nix. Doch wie sollte man sonst eine TI4600 und eine 9500 im 3DMark2003 vergleichen? Wenn nicht durch die Einzeltest.

StefanV
2003-03-14, 15:59:51
Originally posted by LovesuckZ
ich meinte, dass man die Effekte mit PS1.0-1.3 in einer aehnlichen Qualitaet dastellt. Somit die Gf3/4 keine zwei Pass mehr benoetigen.

Wäre das nicht dann eine Bevorzugung von NV Karten ??

Wichtig ist, daß es auf allen Karten gleich ausschaut !!

LovesuckZ
2003-03-14, 16:00:04
Originally posted by Labberlippe
Wenn Du Dir die Benches ansiehst dann ist eh alles ok.
GeForce3
R8500
GeForce4
GeForce FX
R9700


Wo wuerdest du eine 9500pro, eine 9500 einordnen - Betrachtung der Rohpower ohne AA/AF im 3DMark2003.

StefanV
2003-03-14, 16:02:01
Originally posted by LovesuckZ


Nix. Doch wie sollte man sonst eine TI4600 und eine 9500 im 3DMark2003 vergleichen? Wenn nicht durch die Einzeltest.

Wie soll man eine Geforce2 Ultra mit einer GF3 im 3DMark 01 vergleichen ??

meine Meinung:

am besten garnicht, da die GF2 eine 'DX7 Karte' und die GF3 eine 'DX8 Karte' ist, dazu nimmt man am besten den 00er...

Abgesehen davon:

Man kann mit dem 03er nur 'DX9 Karten' miteinander vergleichen !!

Labberlippe
2003-03-14, 16:02:22
Originally posted by LovesuckZ


Wo wuerdest du eine 9500pro, eine 9500 einordnen - Betrachtung der Rohpower ohne AA/AF im 3DMark2003.

Wo würdest Du eine GeForce FX von der Rohpower im 2003 setzen, den die liegt auch höher als eine Ti 4200 und 4600.

Gruss Labberlippe

LovesuckZ
2003-03-14, 16:05:27
Originally posted by Stefan Payne
Man kann mit dem 03er nur 'DX9 Karten' miteinander vergleichen !!

Warum? Ich dachte bis jez, dass die PS1.4 noch zu DX8 gehoeren wuerden.

LovesuckZ
2003-03-14, 16:06:07
Originally posted by Labberlippe
Wo würdest Du eine GeForce FX von der Rohpower im 2003 setzen, den die liegt auch höher als eine Ti 4200 und 4600.
Gruss Labberlippe

Vor die TI4600, da sie da auch hingehoert. Nur gehoert eine 9500 vor eine TI4600?

AlfredENeumann
2003-03-14, 16:07:22
Originally posted by LovesuckZ


Da ist der Knackpunkt: wenn ich 3DMark2003 starte, steht 'The Gamer's Benchmark'. Es ist also keine Technologiedemo, wie von ATi, Nvidia oder einen Institut.

Du sagst es Gamer´s Benchmark und nicht GamesBenchmark.

AlfredENeumann
2003-03-14, 16:08:05
Originally posted by LovesuckZ


ich meinte, dass man die Effekte mit PS1.0-1.3 in einer aehnlichen Qualitaet dastellt. Somit die Gf3/4 keine zwei Pass mehr benoetigen.

Es geht nicht um ähnlich, sondern gleich. Damit man es vergleichen kann.

Salvee
2003-03-14, 16:19:49
Originally posted by AlfredENeumann


Du sagst es Gamer´s Benchmark und nicht GamesBenchmark.

So langsam passt eher Flamer's Benchmark.

LovesuckZ
2003-03-14, 16:21:25
Originally posted by AlfredENeumann
Es geht nicht um ähnlich, sondern gleich. Damit man es vergleichen kann.

Vergleichen kann man aber auch nur, wenn beide die Grundvorraussetzeungen haben. Und keiner einen Vorsprung hat!

LovesuckZ
2003-03-14, 16:21:45
Originally posted by Salvee
So langsam passt eher Flamer's Benchmark.

:)

Exxtreme
2003-03-14, 16:38:59
Originally posted by LovesuckZ


Vergleichen kann man aber auch nur, wenn beide die Grundvorraussetzeungen haben. Und keiner einen Vorsprung hat!
Also wenn keiner einen Vorsprung hat, dann kann man das Benchen ja lassen da beide Kontrahenten ja genauso leistungsfähig sind. :)

StefanV
2003-03-14, 16:46:14
Originally posted by LovesuckZ
Vergleichen kann man aber auch nur, wenn beide die Grundvorraussetzeungen haben. Und keiner einen Vorsprung hat!

Vergleichen kann man nur, wenn beide das gleiche Ergebnis liefern, es heißt ja auch vergleichen und nicht verähnlichen oder sonstwas...

LovesuckZ
2003-03-14, 16:47:21
Originally posted by Exxtreme
Also wenn keiner einen Vorsprung hat, dann kann man das Benchen ja lassen da beide Kontrahenten ja genauso leistungsfähig sind. :)
:D

Na, ich meine, dass mit dem Vorsprung, dass hier ein Vorteil auf der einen Seite vorhanden ist.

Da wir aber sowieso zu keine Loesung dieses sehr schwerwiegend Problem kommen werden, koennten wir auch ein Strich drunter ziehen und uns den eigentlich Thema wieder zu wenden.

aths
2003-03-14, 16:52:55
Originally posted by LovesuckZ
Da ist der Knackpunkt: wenn ich 3DMark2003 starte, steht 'The Gamer's Benchmark'. Es ist also keine Technologiedemo, wie von ATi, Nvidia oder einen Institut. Nicht Gamer's Benchmark, sondern Gamers' Benchmark :naughty:

aths
2003-03-14, 16:55:14
Originally posted by LovesuckZ
ich meinte, dass man die Effekte mit PS1.0-1.3 in einer aehnlichen Qualitaet dastellt. Somit die Gf3/4 keine zwei Pass mehr benoetigen. :eyes:

Mit dem PS.1.3 kann man pro Pass 4 Texturen verwenden. Mit dem PS.1.4 kann man 6 Texturen verwenden, und außerdem jede Textur gleich zwei mal samplen. Es ist nicht möglich, die Effekte um die es geht, mit einem PS.1.3 single pass zu rendern. Bevor zu weiter kluge Reden schwingst, zeige mir doch z.B. mal einen Shader der eine Doom3-mäßige Beleuchtung singlepass hinbekommt. Mit diesem Wissen könntest du sofort bei Futuremark als neuer Lead Programmer einsteigen, auch JC sucht noch dringend Programmierer mit solchen Fähigkeiten...

aths
2003-03-14, 16:56:16
Originally posted by LovesuckZ
Nix. Doch wie sollte man sonst eine TI4600 und eine 9500 im 3DMark2003 vergleichen? Wenn nicht durch die Einzeltest. Man vergleicht die beiden Karten, in dem man das Ergebnis vergleicht. Imo hattest du vorhin aber noch vom 3DM01 gesprochen?! Meine Frage war allerdings, was der Einzeltest über die Spiel-Performance aussagt. Die Antwort ist klar: Nix.

Unregistered
2003-03-14, 16:59:21
Originally posted by aths
:eyes:

Mit dem PS.1.3 kann man pro Pass 4 Texturen verwenden. Mit dem PS.1.4 kann man 6 Texturen verwenden, und außerdem jede Textur gleich zwei mal samplen. Es ist nicht möglich, die Effekte um die es geht, mit einem PS.1.3 single pass zu rendern. Bevor zu weiter kluge Reden schwingst, zeige mir doch z.B. mal einen Shader der eine Doom3-mäßige Beleuchtung singlepass hinbekommt. Mit diesem Wissen könntest du sofort bei Futuremark als neuer Lead Programmer einsteigen, auch JC sucht noch dringend Programmierer mit solchen Fähigkeiten...

in diesem fall dürfte die 9500 theoretisch auch in Doom3 schneller wie eine ti 4600 sein.

LovesuckZ
2003-03-14, 17:07:52
Originally posted by aths
Man vergleicht die beiden Karten, in dem man das Ergebnis vergleicht.

Durch die Einzeltestergebnisse laesst sich aber das Endergebniss verstehen...

aths
2003-03-14, 17:12:32
Originally posted by Unregistered
in diesem fall dürfte die 9500 theoretisch auch in Doom3 schneller wie eine ti 4600 sein. Schneller als, nicht schneller wie.

Sowohl Ti 4600 als auch Radeon 9500 sollten reichen, um Doom3 so lala spielen zu können. Um richtig was zu bereißen ist wohl auf jeden Fall eine Karte vom Kaliber R300/R350 anzuraten.

aths
2003-03-14, 17:13:53
Originally posted by LovesuckZ
Durch die Einzeltestergebnisse laesst sich aber das Endergebniss verstehen... Eine Grafik-Engine für Spiele ist weitaus komplexer, als dass die Leistung linear mit den Werten von Einzeltests skalieren würde.

Anonym_001
2003-03-14, 17:24:01
Originally posted by aths
Schneller als, nicht schneller wie.

Sowohl Ti 4600 als auch Radeon 9500 sollten reichen, um Doom3 so lala spielen zu können. Um richtig was zu bereißen ist wohl auf jeden Fall eine Karte vom Kaliber R300/R350 anzuraten.

Die 9500 hat einen R300. ;)

aths
2003-03-14, 18:54:38
Originally posted by Anonym_001
Die 9500 hat einen R300. ;) Stümmt, ich meinte natürlich einen "vollen" R300 mit 8 Pipelines, und 256 Bit Speicher-Interface.

zeckensack
2003-03-14, 19:35:02
LovesuckZ,

Laut Futuremark sind auch im Gametest 4 1.1er Shader am Werk.
Da, wo sie funktionieren, und höhere Versionen nicht benötigt werden.

Zieh doch einfach in Betracht, daß es unmöglich ist, gewisse Effekte mit PS1.1 darzustellen, ganz egal wieviele Passes man machen will/kann.

dead
2003-03-14, 21:52:54
Originally posted by Demirug


Es ist eine Mindestgenaugigkeit definiert. Da es sich aber bei den PS 2.0 und darüber um Fliesspunkt register handelt ist die abhängikeit ob bestimmte dinge funktionieren nicht so sehr von der Genauigkeit abhängig wie bei den PS 1.4 (und den anderen 1.x Shader eigentlich auch).

wie aus meiner Eingangsfrage sicher leicht abzuleiten, stecke ich nicht allzu tief in der Materie, mir scheint es aber als ob die PS1.4 eine klasse Sache sind, die Spezifikation allerdings einen 'Bug' enthällt.
Das hat, zusammen mit der unglaublichen Verbreitung von R200 basierenden Karten, sie ins Abseits gestellt.

Originally posted by Demirug

Damit sind natürlich alle Shader die auf einen grösseren Zahlenbereich vertrauen nicht mehr so wie von Programmier gedacht berechenbar.

richtig interpretiert? Oder sind PS1.1 + 1.3 auch derart zu 'missbrauchen'?


gruß.

aths
2003-03-15, 14:15:05
Originally posted by dead
richtig interpretiert? Oder sind PS1.1 + 1.3 auch derart zu 'missbrauchen'?Die verlangen einen Wertebereich von lediglich -1..+1.

Demirug
2003-03-15, 14:30:50
Originally posted by dead


wie aus meiner Eingangsfrage sicher leicht abzuleiten, stecke ich nicht allzu tief in der Materie, mir scheint es aber als ob die PS1.4 eine klasse Sache sind, die Spezifikation allerdings einen 'Bug' enthällt.
Das hat, zusammen mit der unglaublichen Verbreitung von R200 basierenden Karten, sie ins Abseits gestellt.

Die Spezifikation enthält keinen "Bug". Da es aber vor dem NV30 nur PS 1.4 fähige Chips von ATI gab konnte man leicht auf die Idee kommen davon auszugehen das jeder Chip welcher PS 1.4 unterstützt dieses auch mit einem grösseren Wertebereich als von -1 bis +1 tun wird.

Der Wertebereich ist aber nicht fest mit der PS 1.4 Spec verbunden sonder ein davon unabhängiges Feature das für alls 1.x Pixel-Shader gilt. Bei den 1.1 - 1.3 Shadern geht aber jeder davon aus das man nur von -1 bis +1 rechnen kann.

richtig interpretiert? Oder sind PS1.1 + 1.3 auch derart zu 'missbrauchen'?

gruß.

Ja man kan auch mit den PS 1.1 bis 1.3 Effekte bauen die einen grösseren Zahlenbereich brauchen. Man sollte es aber aus vorgenanten Gründen besser lassen.

Demirug
2003-03-15, 14:32:00
Originally posted by aths
Die verlangen einen Wertebereich von lediglich -1..+1.

Als minimum (genau wie 1.4) mehr darf es aber laut der Spec auch gerne sein.

dead
2003-03-15, 16:44:43
Originally posted by Demirug


Die Spezifikation enthält keinen "Bug". Da es aber vor dem NV30 nur PS 1.4 fähige Chips von ATI gab konnte man leicht auf die Idee kommen davon auszugehen das jeder Chip welcher PS 1.4 unterstützt dieses auch mit einem grösseren Wertebereich als von -1 bis +1 tun wird.

Der Wertebereich ist aber nicht fest mit der PS 1.4 Spec verbunden sonder ein davon unabhängiges Feature das für alls 1.x Pixel-Shader gilt.

Sprich, die Applikation legt den Wertebereich fest. Für brauchbare Ergebnise muß man sich also an die Hardware anpassen, hällt man sich an die Spezifikation (die die Hardware aber auch erfüllt, nur anders...) gibt es u.U. eine Überraschung.

Originally posted by Demirug
Bei den 1.1 - 1.3 Shadern geht aber jeder davon aus das man nur von -1 bis +1 rechnen kann.

lex NVidia?


Originally posted by Demirug
Ja man kan auch mit den PS 1.1 bis 1.3 Effekte bauen die einen grösseren Zahlenbereich brauchen. Man sollte es aber aus vorgenanten Gründen besser lassen.

Gibt es einen relevanten Grund für diese unsaubere 'buggi' Spezifikation, oder ist das der allgegenwärtige 'kleinst gemeinsame Nenner'?


dank+gruß.

Demirug
2003-03-15, 17:08:14
Originally posted by dead


Sprich, die Applikation legt den Wertebereich fest. Für brauchbare Ergebnise muß man sich also an die Hardware anpassen, hällt man sich an die Spezifikation (die die Hardware aber auch erfüllt, nur anders...) gibt es u.U. eine Überraschung.

Man muss sich immer an der Hardware ausrichten. Wenn man mehr will als die Hardware hergibt kann es halt Fehler geben.

lex NVidia?

Ganz unschuldig ist NVIDIA da nicht. Das Clamping bei 1 im Pixelbereich hat aber auch eine gewisse Tradition.

Gibt es einen relevanten Grund für diese unsaubere 'buggi' Spezifikation, oder ist das der allgegenwärtige 'kleinst gemeinsame Nenner'?


dank+gruß.

Immer an den stellen wo sich nicht alle IHV auf einen gemeinsamen Standpunkt einigen können gibt es entsprechende Caps. Wenn man sich einfach auf den kleinsten Nenner geeinigt hätte würden alle PS 1.x heute nur den Bereich von -1 bis +1 benutzten können. Die Spezifikation wie sie jetzt ist ist sicherlich ein Kompromiss. ATI bekamm die PS 1.4 musste dafür aber zugeständnisse machen was die Genauigkeit der Register angeht wenn andere IHVs die PS 1.4 implementieren.

aths
2003-03-15, 18:36:46
Originally posted by Demirug
Als minimum (genau wie 1.4) mehr darf es aber laut der Spec auch gerne sein. Kann man mit den Modifiern nicht Overbright Lighting (auf Kosten der Farbauflösung) quasi emulieren?

Labberlippe
2003-03-15, 18:37:21
Originally posted by LovesuckZ


Vor die TI4600, da sie da auch hingehoert. Nur gehoert eine 9500 vor eine TI4600?

Gehört eine FX 5600er vor die Ti 4200 aufwärts...

Gruss Labberlippe

MadMan2k
2003-03-15, 18:49:19
Originally posted by Stefan Payne
Wichtig ist, daß es auf allen Karten gleich ausschaut !!

eben!
will man die Leistung zweier Karten Vergleichen, muss man dafür sorgen, dass alle Anderen Faktoren gleich sind, also das gleiche System etc. und auch die gleiche Grafikqualität.
WIE die Grafikkarte nun zu dieser Leistung kommen (single /double Pass, Taktfrequenz) ist dabei irrelevant.
Dies sollte man auch bei FSAA-Tests beachten, also vor dem Vergleich einen Quotienten aus Leistung/Qualität bilden. Das Problem hierbei ist aber, dass man keine Einheitliche bewerung der Bildqualität hat.
Zum 3DMark03:
dieser Grafikkartentest ist nicht mehr und nicht weniger Aussagekräftig als z.B. UT2003(Flyby).
Denn beide sagen nur aus wie schnell die Grafikkarte die Effekte der Engine darstellen kann. Wie stark man nun das Ergebniss gewichtet ist die Sache des Einzelnen.

Demirug
2003-03-15, 19:19:03
Originally posted by aths
Kann man mit den Modifiern nicht Overbright Lighting (auf Kosten der Farbauflösung) quasi emulieren?

Im Prinzip ja. Aber man baut besser ein ordentliche Lightsetup das sowas wie Overbright Lighting nicht braucht.

Quasar
2003-03-17, 10:37:38
Originally posted by aths
Man vergleicht die beiden Karten, in dem man das Ergebnis vergleicht. Imo hattest du vorhin aber noch vom 3DM01 gesprochen?! Meine Frage war allerdings, was der Einzeltest über die Spiel-Performance aussagt. Die Antwort ist klar: Nix.
Bei zwei Karten, die nicht dieselbe Anzahl an Tests ausführen können und deshalb unterschiedlich gewertet werden, sagen die Einzeltests IMO mindestens genausoviel aus, wie der Gesamtscore.

Ein einziges, mickriges Framechen pro Sekunde im Nature-Test macht schon 38,7 Punkte aus, damit ist dieser Test der am zweithöchsten gewichtete im 3DMark03.

Das Gesamtresultat von ~2200 Punkten auf meinem Testsystem verspricht Leistung jenseits von dem, was eine GF4 Ti4200 zustande bringen kann.

Wenn ich mir hingegen mal die Einzelbenches anschaue, so sehe ich, dass einzig im Wings of Fury-Test eine Framerate (~85fpd] erreicht wird, die man in Games als erstrebenswert ansehen könnte. ALLE drei anderen Test bleiben unterhalb der 15fps-Grenze, unterhalb derer man kaum Echtzeit-Strategie oder Rollenspiele/Adventures geniessen kann.

Welche Karte taugt mehr? Ti4200 mit ~1600 Punkten oder R9500 mit ~2200 Punkten?

edit:
Was mir gerade noch einfiel: in 1600x1200 wollte die 9500-64MB im Mother Nature Test gar nicht mehr "DrawIndexedPrimitive failed - Out of Video Memory"...

aths
2003-03-17, 11:50:42
Originally posted by Quasar
Bei zwei Karten, die nicht dieselbe Anzahl an Tests ausführen können und deshalb unterschiedlich gewertet werden, sagen die Einzeltests IMO mindestens genausoviel aus, wie der Gesamtscore.

[...]

Welche Karte taugt mehr? Ti4200 mit ~1600 Punkten oder R9500 mit ~2200 Punkten?Gute Frage. Lt. Test müsste die Radeon 9500 zu bevorzugen sein. Ist dem nicht so?

Quasar
2003-03-17, 12:41:10
Nein, sie ist mitnichten 37,5% leistungsfähiger über die Mehrzahl der Apps gesehen, wie es der 3DM03 glauben machen könnte.

Die beiden älteren 3DMarks (2000 und 2001) sehen die beiden Karten meist direkt beieinander, oft mit leichtem Vorsprung für die Ti4200. Das legt IMO nahe, dass der Zuwachs an Punkten nur aus den neueren Tests resultiert, die aber allesamt, wie schon gesagt, weit unterhalb des spielbaren Bereiches liegen. Insofern ist ein praktischer Mehrnutzen IMO nicht gegeben.

Unter 2xFSAA liegen beide meist gleichauf (hier sieht die R9500 etwas besser aus, als in der Rohleistung) und für 4xFSAA sind beide Karten i.d.R. zu langsam.

LovesuckZ
2003-03-17, 17:29:34
Originally posted by Quasar
edit:
Was mir gerade noch einfiel: in 1600x1200 wollte die 9500-64MB im Mother Nature Test gar nicht mehr "DrawIndexedPrimitive failed - Out of Video Memory"...

Selbe Fehler, wenn man den Mother nature test mit 6 AA fahren will.

Quasar
2003-03-17, 17:33:20
...oder Max Payne in 1600 mit 2xFSAA.

Es scheint, als "rechneten" Treiber und/oder BIOS noch mit mehr als 64MB...

Unregistered
2003-03-17, 17:33:31
Originally posted by LovesuckZ


Selbe Fehler, wenn man den Mother nature test mit 6 AA fahren will.

6xAA geht ja auch auf einer 64MB-Karte nur bis 800x600.

LovesuckZ
2003-03-17, 17:34:50
Originally posted by Unregistered
6xAA geht ja auch auf einer 64MB-Karte nur bis 800x600.

Nein geht auch hoeher. Hab ungefaehr 1000 Punkte mehr, wenn ich statt 6AA und 16AFQ mit 4AA und 16AFQ benche.

Quasar
2003-03-17, 17:36:23
Originally posted by Unregistered


6xAA geht ja auch auf einer 64MB-Karte nur bis 800x600.
Das ist noch die Beschränkung der Radeon8500/9000/9100/9200. Gilt nicht für R300-basierende Karten.

dead
2003-03-18, 22:13:16
Originally posted by Demirug


Man muss sich immer an der Hardware ausrichten. Wenn man mehr will als die Hardware hergibt kann es halt Fehler geben.

Ich bin bisher davon ausgegangen das gerade unter DX das 'sich an der Hardware ausrichten (müssen)' sehr durch die einheitlichte Schnittstelle vermindert ist.


Originally posted by Demirug

Immer an den stellen wo sich nicht alle IHV auf einen gemeinsamen Standpunkt einigen können gibt es entsprechende Caps. Wenn man sich einfach auf den kleinsten Nenner geeinigt hätte würden alle PS 1.x heute nur den Bereich von -1 bis +1 benutzten können. Die Spezifikation wie sie jetzt ist ist sicherlich ein Kompromiss. ATI bekamm die PS 1.4 musste dafür aber zugeständnisse machen was die Genauigkeit der Register angeht wenn andere IHVs die PS 1.4 implementieren.

wieder was gelernt.
Ich hätte nicht gedacht das die DX Spezifikation so doch recht freizügig ist.
Auch auf die gefahr einer Fehlinterpretation hin, wären die PS 1.4 auf einen grösseren Wertebereich zu reglementieren?
Rechnet eine Graka die PS > 1.4 beherrscht mit +-1 (warum auch immer) werden PS 1.3 erzwungen?

Das Problem hört sich für mich immer noch nach einer 'poitisch' erkauften Schwäche der Spezifikation an.


dank+gruß.

Demirug
2003-03-19, 07:31:20
Originally posted by dead


Ich bin bisher davon ausgegangen das gerade unter DX das 'sich an der Hardware ausrichten (müssen)' sehr durch die einheitlichte Schnittstelle vermindert ist.

Leider nicht. DX enthält nur einen Satz von Funktionalitäten aus denen sich ein Hersteller aussuchen darf welche er unterstützen möchte. Wenn er es dann aber tut muss er es genau so tun wie es in der Spec vereinbart wurde.

Bei OpenGL ist das ähnlich gelöst. Dort gibt es auch einen Satz genormte Funktionalitäten die genau nach der Spezifikation erfüllt werden müssen. Was im gegensatz zu DX bei OpenGL erlaubt ist ist das hinzufügen von eigenen Funktionen und davon machen der Hersteller auch immer fleisig gebrauch.

Sowohl OpenGL und DX stellen aber durchaus einen Fortschritt dar im Vergleich zu der Zeit als noch jeder Hersteller seine komplett eigene API hatte.

wieder was gelernt.
Ich hätte nicht gedacht das die DX Spezifikation so doch recht freizügig ist.
Auch auf die gefahr einer Fehlinterpretation hin, wären die PS 1.4 auf einen grösseren Wertebereich zu reglementieren?
Rechnet eine Graka die PS > 1.4 beherrscht mit +-1 (warum auch immer) werden PS 1.3 erzwungen?

Das Problem hört sich für mich immer noch nach einer 'poitisch' erkauften Schwäche der Spezifikation an.


dank+gruß.

Jedes Capsbit/wert ist gewissermassen eine politische Sache.

Die PS > 1.4 sind ja Fliesspunkt Pixelshader und haben daher automatisch einen grösseren Wertbereich als +-1. Aus diesem Grund ergibt sich diese Situation gar nicht. Was die Shader angeht gibt es bei DX sowieso die Forderung das die Unterstützung einer bestimmten Version die Unterstützung aller kleineren Versionen mit einbezieht. Wenn dem nicht so währe hätte NVIDIA wahrscheinlich sehr gerne auf den PS 1.4 support in der NV3x Rheie verzichtet.

zeckensack
2003-03-19, 13:41:04
Ist IMO eine große Schwäche von DX ;)

Wenn's die Forderung nach Abwärtskompatibilität nicht gäbe, dann hätte NV viel coolere Pixel Shader in DX8 verfügbar machen können. Sie mußten das ganze zurückstutzen, weil ATI's PS1.4 obendrüber eingeordnet wurde (einigermaßen gerechtfertigt wg flexibleren dependant reads und mehr Texturen).

Radeonator
2003-03-19, 13:44:22
Wenn ich mir das hier so durchlese, frage ich wozu wohl das tech forum da ist...der einzige der direkt verständlich schreibt ist zeckensack.

Demirug
2003-03-19, 14:14:39
Originally posted by zeckensack
Ist IMO eine große Schwäche von DX ;)

Wenn's die Forderung nach Abwärtskompatibilität nicht gäbe, dann hätte NV viel coolere Pixel Shader in DX8 verfügbar machen können. Sie mußten das ganze zurückstutzen, weil ATI's PS1.4 obendrüber eingeordnet wurde (einigermaßen gerechtfertigt wg flexibleren dependant reads und mehr Texturen).

Die einzige Hardware die aber wohl richtig damit klarkommen würde ist die von NVIDIA. Sowas verrücktes wie die Reg-combiner hat bisher nur NVIDIA gebaut (wobei die Plannung von 3dfx da ja scheinbar auch recht heftig war). Ergebniss: Entweder tolle Pixelshader möglich aber keiner benutzt es weil es ja nur auf NVIDIA hardware läuft oder geile Effekte auf NVIDIA Karten und auf alle anderen sieht es bescheiden aus. Solange eben nicht mindestens 2 IHV sich zu so etwas generelem wie den PixelShader komiten macht es IMHO nicht viel Sinn es einzubauen.

NVIDIA hat aber auch im DX umfeld einen Weg gefunden die Reg-Combiner zu ihrem Vorteil zu nutzen. Es werden teilweise 2 oder sogar 3 PS-Ops in einen Combiner gepresst.

dead
2003-03-20, 18:34:11
Originally posted by Demirug

[...]


Jedes Capsbit/wert ist gewissermassen eine politische Sache.

Die PS > 1.4 sind ja Fliesspunkt Pixelshader und haben daher automatisch einen grösseren Wertbereich als +-1. Aus diesem Grund ergibt sich diese Situation gar nicht. Was die Shader angeht gibt es bei DX sowieso die Forderung das die Unterstützung einer bestimmten Version die Unterstützung aller kleineren Versionen mit einbezieht. Wenn dem nicht so währe hätte NVIDIA wahrscheinlich sehr gerne auf den PS 1.4 support in der NV3x Rheie verzichtet.

logisch, meine Frage ging in die Richtung: Warum darf ein Graka/Treiber bei einer bestimmten PS Version (1.4) einfach den Wertebereich unter das gewollte* einschränken?
Und hier ist dann doch das Problem in der Spezifikation?!
Falls nicht dann kann man nicht mehr von dx8 supprt der ensprechenden Graka/Treiber reden.

* gewollt, da die Spezifikation es ja erlaubt

gruß.

Demirug
2003-03-20, 18:52:20
Originally posted by dead


logisch, meine Frage ging in die Richtung: Warum darf ein Graka/Treiber bei einer bestimmten PS Version (1.4) einfach den Wertebereich unter das gewollte* einschränken?
Und hier ist dann doch das Problem in der Spezifikation?!
Falls nicht dann kann man nicht mehr von dx8 supprt der ensprechenden Graka/Treiber reden.

* gewollt, da die Spezifikation es ja erlaubt

gruß.

Es geht ja nicht nur um die PS 1.4 sondern um alle 1.x Shader. Der Wertebereich wird nicht für jede Shaderversion einzeln festgelegt sonder für alle zusammen. Würde NVIDIA also für die PS 1.4 einen grösseren Wertebereich anbieten wollen müssten sie das auch für alle Shader von 1.1 an tun. Das dumme ist dabei aber das die Integer-ALUs (aka Register combiner) wohl nach wie vor nur von -1 bis +1 rechnen können. Ergo grössere Zahlenbereich für 1.x Shader = alles muss über die FP ALUs laufen = der chip schläft bei allen DX8(.1) spielen ein. Die späte Rache der Regcombiner.

In wie fern kann man NVIDIA aber jetzt dewegen einen Vorwurf machen? Sie halten sich ja genau an das was die Spezifikation erlaubt. Sicherlich hat ATI mit dem grösseren Wertebereich da bestimmte erwrtungen erzeugt aber wer entgegen der Spezifikation bei den PS 1.4 fest auf einen grösseren Wertebereich als -1..+1 gebaut hat nun eben verloren.

zeckensack
2003-03-20, 19:05:24
Originally posted by Demirug


Die einzige Hardware die aber wohl richtig damit klarkommen würde ist die von NVIDIA. Sowas verrücktes wie die Reg-combiner hat bisher nur NVIDIA gebaut (wobei die Plannung von 3dfx da ja scheinbar auch recht heftig war). Ergebniss: Entweder tolle Pixelshader möglich aber keiner benutzt es weil es ja nur auf NVIDIA hardware läuft oder geile Effekte auf NVIDIA Karten und auf alle anderen sieht es bescheiden aus. Solange eben nicht mindestens 2 IHV sich zu so etwas generelem wie den PixelShader komiten macht es IMHO nicht viel Sinn es einzubauen.

NVIDIA hat aber auch im DX umfeld einen Weg gefunden die Reg-Combiner zu ihrem Vorteil zu nutzen. Es werden teilweise 2 oder sogar 3 PS-Ops in einen Combiner gepresst.
Das ist schon alles richtig, was du da schreibst, aber wäre das wirklich schlechter als die aktuelle Situation um DX8.x, wo die Hardware aus politischen Gründen brachliegt und unter DX8 überhaupt nicht ausnutzbar ist?

Die 'Pixel Shader' von R200 und NV20 sind einfach so grundlegend verschieden, daß es überhaupt keinen Sinn macht, diese in eine eindimensionale Ordnung bringen zu wollen (a>=b). Der kleinste gemeinsame Nenner existiert nunmal nur in der Theorie, und wird keiner der beiden Parteien gerecht.

Um meinen Post noch etwas konstruktiver zu machen, was hättest du hiervon gehalten:
PSVersion = 1.Generic | 1.NV20+ | 1.R200+ | ...

Der kleinste gemeinsame Nenner wäre dann 1.Generic. Wer als Entwickler auf Features und maximale Geschwindigkeit pfeift, wählt diesen.
Auch Firmen wie SiS und Trident, die evtl patentrechtlich garnicht in der Lage sind zB Register Combiners nachzubauen, dürfen sich einen eigenen Weg schaffen. Der Minimalsupport von 1.Generic ist Pflichtvoraussetzung für einen eigenen Weg, kann aber auch alleine stehen.

Die einzige Version, die von MS kontrolliert werden muß ist nunmal 1.Generic, aus dem anderen sollen die mal schön ihre Finger raushalten.

Version 2.Generic wird erst dann benötigt, wenn es zwischen mehreren 'besseren' Chips eine signifikante Schnittmenge in den Features gibt, ergo genau wie jetzt ab NV30/R300.

Software-Design war eben noch nie eine Stärke von MS ... *eg*

zeckensack
2003-03-20, 19:07:03
Originally posted by Radeonator
Wenn ich mir das hier so durchlese, frage ich wozu wohl das tech forum da ist...der einzige der direkt verständlich schreibt ist zeckensack. Thx, aber ich kann auch anders *eg*

dead
2003-03-20, 19:07:54
Originally posted by Demirug


Es geht ja nicht nur um die PS 1.4 sondern um alle 1.x Shader. Der Wertebereich wird nicht für jede Shaderversion einzeln festgelegt sonder für alle zusammen. Würde NVIDIA also für die PS 1.4 einen grösseren Wertebereich anbieten wollen müssten sie das auch für alle Shader von 1.1 an tun. Das dumme ist dabei aber das die Integer-ALUs (aka Register combiner) wohl nach wie vor nur von -1 bis +1 rechnen können. Ergo grössere Zahlenbereich für 1.x Shader = alles muss über die FP ALUs laufen = der chip schläft bei allen DX8(.1) spielen ein. Die späte Rache der Regcombiner.

Da ist es ja, das fehlende Puzzlestück!
Habe da durchaus Verständnis für nV.

Originally posted by Demirug

In wie fern kann man NVIDIA aber jetzt dewegen einen Vorwurf machen? Sie halten sich ja genau an das was die Spezifikation erlaubt. Sicherlich hat ATI mit dem grösseren Wertebereich da bestimmte erwrtungen erzeugt aber wer entgegen der Spezifikation bei den PS 1.4 fest auf einen grösseren Wertebereich als -1..+1 gebaut hat nun eben verloren.

geht mir nicht um 'who's to blame'

Ist ATis' erweiterter Wertebereich nach Spec. abgedeckt?


gruß.

Demirug
2003-03-20, 19:32:22
zeckensack, ich gebe dir da im Prinzip vollkommen recht und würde sogar noch ein wenig weiter gehen.

Wie du würde ich für jeden Shader level einen Standard zwingend vorschreiben und dort auch auf kompatibilität bestehen. Ansonsten würde ich den Herstellern gene freie Hand geben. Jeder dürfte also so viele Shadervarianten definieren wie er will. Bedingung ist allerdings das er auch für die Tools (Shader Assembler, Compiler) die nötigen Plugins zur Verfügung stellt und sich die Shader ansonsten in den normalen Framework (Input und Outputsemantik) einbinden. Wenn mehrer Hersteller sich einig sind dürfen diese dann natürlich auch gerne eine gemeinsame Shaderversion verabschieden welche dann aber unter der DX Flage segeln sollte.

Was ich auch noch gerne sehen würde ist eine Möglichkeit für die Hersteller eigene Extensions in Form von zusätzlichen Interfaces einzubauen welche über GUIDs abgefragt werden können.

Ich weiss das OpenGL diese Mechanismen enthält. Was mich bei OpenGL aber immer noch abschreckt ist das es immer lange dauert bis es einheitliche normen (Extensions) für bestimmte Features gibt. Oder es im Falle der Pixelshader von DX8 Karten wohl nicht mehr dazu kommen wird.

@dead:

Ja der erweiterter Wertebereich von R200 und R3xx ist durch die Spec abgedeckt.