PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Miserable Half-Life 2 Performance mit nVidia Karten?


Tarkin
2003-08-28, 16:28:21
http://www.3dgpu.com/modules/news/article.php?storyid=315

This isn't confirmed as 100% official, so keep that in mind. On the HalfLife2.net forums, a gamer emailed Gabe Newell of Valve Software, and asked him a question in regards to GeForce FX cards dismal performance in Tomb Raider using PS 2.0 brought up by the article on Beyond3D (see this post). Here's the question he asked Gabe:



"Is a ATi 9800pro card really alot better for HL2 then Nvidia's FX5900? Or is the difference not that big (quality & fps wise)?"

Here's the answer he got:


"I have been a long-time NVIDIA card user. Currently I have ATI 9800 Pro's in both my work and home machines."


The DX9 performance described by the Beyond3D article is consistent with what we've been seeing.

If the email really is from Gabe, then this just doesn't bode well for NVIDIA for their current line of cards...

Omnicron
2003-08-28, 16:33:54
Nichts genaues weiss man nicht - dazu kommt das ATi ja der offizielle HL2 "Sponsor" ist, könnte also nur Marketinggeblubber sein.
MOV Speku Forum, [THIS] ?

Keel
2003-08-28, 16:35:35
Alt, sehr alt.
Einigen Leuten wird dieses Thema mal wieder überhaupt nicht passen. "NV wird's schon richten". Ich habe nichts gegen einen gesunden Optimismus, aber der vergeht mir selbst langsam.

Tarkin, können wir uns darauf einigen, dass wir das wenigstens bis zum Release des Benches verschieben? Weil dieser Thread kann nur eins werden: Flamerei von vorn bis hinten.

Endorphine
2003-08-28, 16:36:02
Dafür performed Doom III auf NV3x Karten deutlich besser als auf Rx3xx-Karten. Ausgleichende Gerechtigkeit.

Gast
2003-08-28, 16:36:13
mal eine frage, wieso sind die fx karten in pixelshader und vertexshader so langsam? dabei nennen sich die teile doch 2.0+ also das "+" noch dahinter.

nggalai
2003-08-28, 16:36:28
"This isn't confirmed as 100% official" -> Spekuforum.

;)

93,
-Sascha.rb

Gast
2003-08-28, 16:38:31
Original geschrieben von Gast
mal eine frage, wieso sind die fx karten in pixelshader und vertexshader so langsam? dabei nennen sich die teile doch 2.0+ also das "+" noch dahinter.

und bei den radeon karten nur 2.0! was bedeutet dann das "+" noch dahinter?

Quasar
2003-08-28, 16:39:14
Das verwundert mich nicht. Man hat doch extra noch einen PS-2.0-Pass für's MSAA-Fixing hinterhergeschoben, während man anderer Hardware sogar die 3.0-Shader-tauglichen Centroid-Sampling-Methode aufbürdet!

Tarkin
2003-08-28, 16:39:17
Original geschrieben von Endorphine
Dafür performed Doom III auf NV3x Karten deutlich besser als auf Rx3xx-Karten. Ausgleichende Gerechtigkeit.

*pf* Doom 3 kommt ja auch erst 2004 ... . HL2 kommt schon in einem Monat. Und wenn Gabe Newell von Valve das wirklich gesagt bzw. geschrieben hat, dann wirds nicht lustig für nVidia (bzw. User die so eine Karte besitzen.)

just my 2 cents ;)

PCGH_Thilo
2003-08-28, 16:49:26
Original geschrieben von Tarkin
*pf* Doom 3 kommt ja auch erst 2004 ... . HL2 kommt schon in einem Monat. Und wenn Gabe Newell von Valve das wirklich gesagt bzw. geschrieben hat, dann wirds nicht lustig für nVidia (bzw. User die so eine Karte besitzen.)

just my 2 cents ;)

dass hl2 "in einem monat" kommt, ist mittlerweile eher unwahrscheinlich, btw. das spielchen bringt aber auch nix. jeder fx-käufer erwartet bei beiden spielen eine anständige performance. genau wie jeder radeon-käufer. bevor kein spiel oder ein benchmark da ist, bleibt das alles halbgar. vor 6 wochen lief kein anti-aliasing, plötzlich gings dann doch. wie glaubwürdig sind dann die aussagen des herrn newell?

Gast
2003-08-28, 16:49:30
die sollen einfach FP16 reinknallen dann passt es.

Gast
2003-08-28, 16:51:24
Original geschrieben von PCGH_Thilo
dass hl2 "in einem monat" kommt, ist mittlerweile eher unwahrscheinlich, btw. das spielchen bringt aber auch nix. jeder fx-käufer erwartet bei beiden spielen eine anständige performance. genau wie jeder radeon-käufer. bevor kein spiel oder ein benchmark da ist, bleibt das alles halbgar. vor 6 wochen lief kein anti-aliasing, plötzlich gings dann doch. wie glaubwürdig sind dann die aussagen des herrn newell?

wenig bis gar nicht zumal für AA eh alle Karten zu lahm sein dürften.
Also mit 100fps flutscht es dann sicher nicht.
Bis die wirklichen DX9 Kracher kommen sind sowohl R3xx als auch NV3xx veraltet und ausgelaufen.

betasilie
2003-08-28, 16:55:59
Original geschrieben von Endorphine
Dafür performed Doom III auf NV3x Karten deutlich besser als auf Rx3xx-Karten. Ausgleichende Gerechtigkeit.
:up: Und so wird es auch weitergehen bei den NextGen-Games. Einige werden auf NV-Karten besser laufen, andere auf ATI-Karten.

... Bis Doom3 kommt, werden aber schon die nächsten Generationen von GraKas auf dem Markt sein und dann könnte ATI bei Doom3 aufhohlen, genauso wie zukünftige NV-Karten bei HL2 besser aussehen können.

Winter[Raven]
2003-08-28, 16:57:19
@PCGH_Thilo

Jep, muss ich dir zustimmen, die ganze Half Life 2 Sache stinkt. Das Valve auf Ati optimiert ist und bleibt jedem knd klar. Man schau sich noch die Wassereffkte an, und kommen die nicht irgend wie bekannt vor ?, aus einer Ati-Techdemo ?

Und sollte der Fall sein das HL2 auf Nvidia schlechter läuft, so schneidet sich Valve selber ins Fleisch. Den kein User der vor kurzen sich eine FX 5900 gekauft hat, wird nochmal >350 € für eine Ati graka ausgeben.

Und wenn ihr mich Fragt, so wird Hl2 wirklich überhyped. Ich weiss ned was an dem Spiel toll sein soll, wo man das schon geshen hat.

Gil-galad
2003-08-28, 17:17:38
Und wenn ihr mich fragt, so wird Doom3 wirklich überhyped. Ich weiss ned was an dem Spiel toll sein soll, wo man das schon gesehen hat.

;)

PCGH_Thilo
2003-08-28, 17:34:05
Original geschrieben von AiS|Gil-galad
Und wenn ihr mich fragt, so wird Doom3 wirklich überhyped. Ich weiss ned was an dem Spiel toll sein soll, wo man das schon gesehen hat.

;)

das war jetzt irgendwie kindisch ;-)

Karümel
2003-08-28, 17:55:17
Auch wenn das zu HL2 nur Spekulationen sind:

Aber mal was generelles:

Mir geht diese ganze Engine (bitteNameneinsetzen) ist optimiert für Karte (aucheinenNameneinsetzen)“ tierisch auf den Senkel!
Wieso wird dieser Mumpitz eigentlich gemacht?
Ich meine wozu gibt es denn DirectX und OpenGL? Sind diese nicht den klar genug definiert das jede Engine noch für eine oder die Andere Engine optimiert wird.
Warum können sich die Hersteller nicht an diese „Vorgaben (oder wie man das auch immer nennen mag) halten . :(
Ich schätze mal es ist das leidige Thema Geld, oder?
GPU-Hersteller soundso gibt Engine-Hersteller blablabla Geld, damit die Engine für ihre Karten optimiert wird und man das „tolle Logo“ vom soundso im Vorspann sieht.

Tarkin
2003-08-28, 17:56:58
Original geschrieben von Winter[Raven]
@PCGH_Thilo

Jep, muss ich dir zustimmen, die ganze Half Life 2 Sache stinkt. Das Valve auf Ati optimiert ist und bleibt jedem knd klar. Man schau sich noch die Wassereffkte an, und kommen die nicht irgend wie bekannt vor ?, aus einer Ati-Techdemo ?



... das ist lächerlich. HL2 benutzt nunmal DX9 bis zum Abwinken ... und damit kommen eben die GeForce Karten absolut nicht klar. Siehe Tomb Raider AOD.

http://www.beyond3d.com/misc/traod_dx9perf/index.php?p=2

[dzp]Viper
2003-08-28, 17:57:24
Original geschrieben von Winter[Raven]
Jep, muss ich dir zustimmen, die ganze Half Life 2 Sache stinkt. Das Valve auf Ati optimiert ist und bleibt jedem knd klar. Man schau sich noch die Wassereffkte an, und kommen die nicht irgend wie bekannt vor ?, aus einer Ati-Techdemo ?


:troest2:

Glaubst du doch nicht wirklich oder ;)

*popcorn hol und flames erwart*

Demirug
2003-08-28, 18:07:18
Original geschrieben von Karümel
Auch wenn das zu HL2 nur Spekulationen sind:

Aber mal was generelles:

Mir geht diese ganze Engine (bitteNameneinsetzen) ist optimiert für Karte (aucheinenNameneinsetzen)“ tierisch auf den Senkel!
Wieso wird dieser Mumpitz eigentlich gemacht?
Ich meine wozu gibt es denn DirectX und OpenGL? Sind diese nicht den klar genug definiert das jede Engine noch für eine oder die Andere Engine optimiert wird.
Warum können sich die Hersteller nicht an diese „Vorgaben (oder wie man das auch immer nennen mag) halten . :(
Ich schätze mal es ist das leidige Thema Geld, oder?
GPU-Hersteller soundso gibt Engine-Hersteller blablabla Geld, damit die Engine für ihre Karten optimiert wird und man das „tolle Logo“ vom soundso im Vorspann sieht.

Bei OpenGL kann ja jeder Hersteller sich extension basteln die Ideal zu den eigenen Chips passen. Je mehr Gebrauch eine Engine dann von diesen Extensions macht desto stärker ist sie für diese Karte optimiert. Mann kann allerdings dabei auch auf mehr als eine Karte optimieren.

Bei DX gibt es erst mal die Möglichekeit zum bauen von eigenen Erweiterungen nicht aber trotzdem gibt es bestimmte Sachen die einem Chip mehr liegen als einem anderen. Die Grundsätzlichen Tips zum optimieren sind von allen IHVs mehr doer minder die gleichen. Aber im Detail gibt es immer wieder Dinge die sich teilweise wiedersprechen. Gerade bei den neuen Pixelshadern ist das zum Beispiel sehr extrem.

In allen Fällen kann man sagen das die 3d-APIs immer mehr als einen Weg haben ein Ziel zu erreichen und leider muss nicht jeder Weg für jeden Chip gleich gut sein.

Lolman
2003-08-28, 18:08:45
Original geschrieben von Endorphine
Dafür performed Doom III auf NV3x Karten deutlich besser als auf Rx3xx-Karten. Ausgleichende Gerechtigkeit.

Wieso schreibt denn jeder, dass DOOMIII auf NV Karten angeblich besser performed?

Nur im Medium Quality Mode (ohne TC/AF) war die FX schneller. Bei HQ war die Radeon 9800pro flotter. (Angeblich hatten NVs AF Optimierungen damals noch Probs mit D3)
Und diese Informationen kommen vom NV gesponorten THG...

Karümel
2003-08-28, 18:23:43
Original geschrieben von Lolman
Wieso schreibt denn jeder, dass DOOMIII auf NV Karten angeblich besser performed?


Hieß es nicht mal irgendwo Nvidia "optimiert" ihre Karten für DOOMIII?

PCGH_Thilo
2003-08-28, 18:31:09
Original geschrieben von Tarkin
... das ist lächerlich. HL2 benutzt nunmal DX9 bis zum Abwinken ... und damit kommen eben die GeForce Karten absolut nicht klar. Siehe Tomb Raider AOD.

http://www.beyond3d.com/misc/traod_dx9perf/index.php?p=2

so krass wie bei aod müssen die unterschiede aber nicht bei jedem kommenden dx9-spiel ausfallen. ich würde die kirche mal im dorf lassen. und überhaupt: hat schon jemand die verwendeten shader-versionen in hl2 analysiert? höre ich ein nein? bis dahin sind sätze wie "dx9 bis zum abwinken" reine speku - und unverschämt untechnisch dazu.

beim aquamark 3 (ja, richtig gelesen) liegen zwar auch die ati-karten vorne, aber nicht so krass und so richtig erst in extremen einstellungen. mehr dazu in der nächste woche erscheinenden pcgh. ;-)

Quasar
2003-08-28, 18:32:28
Wenn JC "ultra-shadow" in die Engine mit reinnimmt, könnte das einiges an Renderleistung für den nV35 sparen, da ja für jede Lichtquelle ein eigener Pass initialisiert werden muss, IIRC.

[dzp]Viper
2003-08-28, 18:33:41
Original geschrieben von PCGH_Thilo
beim aquamark 3 (ja, richtig gelesen) liegen zwar auch die ati-karten vorne, aber nicht so krass und so richtig erst in extremen einstellungen. mehr dazu in der nächste woche erscheinenden pcgh. ;-)

*liebguck*

wir es das auch für uns user geben oder wieder nur für zeitschriften und co ?

Sunrise
2003-08-28, 18:37:41
Wenn man sich die Benches bei AOD auf Beyond3D anschaut, dann haben hier die NV-Karten wirklich deutlich das Nachsehen. Da Half-Life2 auch auf ATI-Karten entwickelt wurde, wird das Ergebniss dann auch entsprechend aussehen, ich denke darüber sollten sich alle im Klaren sein.

Und noch etwas OT:

Wenn wir jetzt mal Marketing beiseite lassen, dann interessiert uns die DOOM3-Performance sowohl bei NV, als auch bei ATI herzlich wenig. Ich muss immer wieder lachen, wenn ich die Verpackung von Leadtek sehe (aktuelle 5900 Ultra), und dort schon vor ca. 1-2 Monaten die DOOM3-Benches von Tomshardware abgebildet waren.

Selbst wenn die Engine schon seit einer ganzen Weile fertig ist, dann interessiert mich als Gamer dieses Ergebniss erst dann, wenn ich das Spiel in den Händen halte, und ich es genüßlich spielen kann.

Wenn DOOM3 das Licht der Welt erblickt, und das ist garantiert nicht 2003, dann werden wir zwischenzeitlich NV40 und R420 in den Händen halten (Speku), und die Ergebnisse für die "alten" Karten interessieren keinen Hardcore-Gamer mehr wirklich.

Der wirklich einzige und einzigste Grund, der für diese D3-Benches spricht, sind Leute, die sich die Karte schon vorher kaufen wollen (Preis/Leistung), und in etwa dann die Performance bei D3 wissen wollen.

Das Argument: "Aber NVIDIA ist auf Doom3 deutlich schneller", ist deshalb absolut hinfällig.

PCGH_Thilo
2003-08-28, 18:42:43
Original geschrieben von Sunrise
Wenn man sich die Benches bei AOD auf Beyond3D anschaut, dann haben hier die NV-Karten wirklich deutlich das Nachsehen. Da Half-Life2 auch auf ATI-Karten entwickelt wurde, wird das Ergebniss dann auch entsprechend aussehen, ich denke darüber sollten sich alle im Klaren sein.

Und noch etwas OT:

Wenn wir jetzt mal Marketing beiseite lassen, dann interessiert uns die DOOM3-Performance sowohl bei NV, als auch bei ATI herzlich wenig. Ich muss immer wieder lachen, wenn ich die Verpackung von Leadtek sehe (aktuelle 5900 Ultra), und dort schon vor ca. 1-2 Monaten die DOOM3-Benches von Tomshardware abgebildet waren.

Selbst wenn die Engine schon seit einer ganzen Weile fertig ist, dann interessiert mich als Gamer dieses Ergebniss erst dann, wenn ich das Spiel in den Händen halte, und ich es genüßlich spielen kann.

Wenn DOOM3 das Licht der Welt erblickt, und das ist garantiert nicht 2003, dann werden wir zwischenzeitlich NV40 und R420 in den Händen halten (Speku), und die Ergebnisse für die "alten" Karten interessieren keinen Hardcore-Gamer mehr wirklich.

Der wirklich einzige und einzigste Grund, der für diese D3-Benches spricht, sind Leute, die sich die Karte schon vorher kaufen wollen (Preis/Leistung), und in etwa dann die Performance bei D3 wissen wollen.

Das Argument: "Aber NVIDIA ist auf Doom3 deutlich schneller", ist deshalb absolut hinfällig.

letzter satz full ack.

aber nix für ungut: Tomb Raider AOD ist dermaßen vermurkst, dass man dieses spiel beim besten willen zum maßstab für alle d3d-spiele erheben kann. man schaue nur mal in die AOD-threads im spieleforum und die probleme damit. peinlich natürlich für nvidia, dass AOD im entwicklerprogramm drin ist und selbst mit cg nix zu reißen ist. aber das ist OT.

PCGH_Thilo
2003-08-28, 18:43:23
Original geschrieben von [dzp]Viper
*liebguck*

wir es das auch für uns user geben oder wieder nur für zeitschriften und co ?

wie meinst du? ob es den benchmark auch offiziell gibt? jau, diesmal schon ;-=

aths
2003-08-28, 19:15:41
Original geschrieben von Gast
die sollen einfach FP16 reinknallen dann passt es. Das erhöht leider nicht die Anzahl der Arithmetikops pro Takt.

Demirug
2003-08-28, 19:23:05
Original geschrieben von aths
Das erhöht leider nicht die Anzahl der Arithmetikops pro Takt.

Verkleinert aber das Registerfile pro Pixel

Winter[Raven]
2003-08-28, 19:34:54
Original geschrieben von [dzp]Viper
:troest2:

Glaubst du doch nicht wirklich oder ;)

*popcorn hol und flames erwart*

Wieso ? also ich sehe das ganz anderes. Schau dir mal die HL2 Videos an und lass manl bei dir Ati Island 1.2 laufen und dann sehn wir weiter .. !

Hab gerade kein Besseren Screenshot aus HL2 da von der Wasserdarstellung:

http://www.planethalflife.com/half-life2/screenshots/17.jpg

http://www.sitepalace.com/winterraven/AtiSushi02.jpg

Sieht ja sehr ähnlich aus, oder ?

Da frag ich mich, ist das ein zufall ?

Pussycat
2003-08-28, 19:44:46
Naja. Es sieht halt aus wie Wasser. Eigentlich gleich wie in UT2k3 oder 3DMurks für micht. Wasser mit Wellen und Spiegelungen.

PCGH_Thilo
2003-08-28, 19:46:39
Original geschrieben von Pussycat
Naja. Es sieht halt aus wie Wasser. Eigentlich gleich wie in UT2k3 oder 3DMurks für micht. Wasser mit Wellen und Spiegelungen.

also gebrochenes wasser gibts in ut 2003 nicht wirklich ;-)

DrumDub
2003-08-28, 19:50:53
der link geht nicht... ;)

aber wie soll man wasser sonst machen mit pixelshadern? bei dem 3dmark03 in dem nature-teil sieht das wasser doch ganz genauso aus.

http://h34.dyndns.org/pic00250.jpg

zeckensack
2003-08-28, 19:54:28
Original geschrieben von PCGH_Thilo
also gebrochenes wasser gibts in ut 2003 nicht wirklich ;-) Hrhr :D

Schaut euch mal das Kleiners-Lab-Dingens an, die Traumsequenz am Anfang. Das ist viel besser als ATI-Island.

Da wird in Abhängigkeit zum Neigungswinkel zwischen gebrochener Untergrunddurchverschimmerung und Oberflächenspiegelung geblendet. 'Fresnel' oder so :bäh:

Gast
2003-08-28, 21:04:56
Original geschrieben von PCGH_Thilo
beim aquamark 3 (ja, richtig gelesen) liegen zwar auch die ati-karten vorne, aber nicht so krass und so richtig erst in extremen einstellungen. mehr dazu in der nächste woche erscheinenden pcgh. ;-)

Oh Mann...

So schlimm steht es also um die FX-Karten. Aquamark 3 wurde schließlich auf einer FX entwickelt und für die FX-Architektur optimiert. Und selbst dann sind die ATi-Karten schneller.

Seufz und Kopfschüttel..

Hoffentlich wird wenigstens der NV40 was, sonst sind die tot. :(

Exxtreme
2003-08-28, 21:17:47
Original geschrieben von Gast
Hoffentlich wird wenigstens der NV40 was, sonst sind die tot. :(
Halte ich für übertrieben. :)

Ich glaube nur, die GFFX-Serie ist shader-mässig nicht unbedingt das, was sich einige vorgestellt haben.

Und hätte ATi nicht solche Chips mit dieser Shader-Power vorgestellt, dann hätten viele die GFFX-Shader bejubelt.

Hauwech
2003-08-28, 22:15:15
So ein Bloedsinn. Als der NV30 kam haben auch schon alle geschrien das nVidia tot ist und was ist? Nix ist. So ganz bloed sind die bei nVidia auch nicht, immerhin haben sie schon beim NV35 eine Kohle nachgelegt und werden es beim NV40 auch wieder machen. So eine positive Ueberraschung wie den R300 erwarte ich allerdings von beiden Seiten nicht nochmal.

Nicht zu vergessen PS 3.0: Da kann es auch wieder anders aussehen.

aths
2003-08-28, 22:21:05
Original geschrieben von Exxtreme
Und hätte ATi nicht solche Chips mit dieser Shader-Power vorgestellt, dann hätten viele die GFFX-Shader bejubelt. Japp. Ohne ATIs erstaunliches Engagement wäre die bis dahin unbestrittene Vormachtstellung von NV nie aufgebrochen worden. Nun gibt es im HighEnd-Bereich schon ein wenig Konkurrenz.

Demirug
2003-08-28, 22:30:52
Original geschrieben von Hauwech
So ein Bloedsinn. Als der NV30 kam haben auch schon alle geschrien das nVidia tot ist und was ist? Nix ist. So ganz bloed sind die bei nVidia auch nicht, immerhin haben sie schon beim NV35 eine Kohle nachgelegt und werden es beim NV40 auch wieder machen. So eine positive Ueberraschung wie den R300 erwarte ich allerdings von beiden Seiten nicht nochmal.

Nicht zu vergessen PS 3.0: Da kann es auch wieder anders aussehen.

totgesagte leben länger. :)

Wann PS 3.0 mehr als nur ein Feature für die Checkboxes ist wird aber dadurch entschieden wenn alle (wichtigen) IHVs entsprechende Hardware haben. Aber wer zuerst kommt hat natürlich einen Vorteil.

Die ganzen NV3X Pixelshader sind so anders was das Verhalten angeht das es einem immer noch schwer fällt sie richtig einzuschätzen auch (oder gerade) wenn man über Detailinfos verfügt. Es gibt da einfach immer wieder Wiedersprüche zwischen Theorie und Praxsis.

Hauwech
2003-08-29, 00:38:13
PS 3.0 wird ja meines Wissens nach Anfang/Mitte 2004 zumindest bei ATI und nVidia eingefuehrt. Wie es bei dem Rest aussieht, vor allem bei integrierten Loesungen von Intel, weiss ich nicht, gehe aber davon aus, das es da noch wesentlich laenger dauert ( falls ATI da nicht die Finger im Spiel hat.. ;) ).

Kann mich noch an einen Thread erinnern, Nov 2002 oder so, wo ein Programmierer zitiert wurde der meinte, so langsam koennte man mal anfangen, ueber T&L nachzudenken.... Von daher denke ich, mehr als das eine oder andere Eyecandy, neben Passreduktion oder sowas in der Art, werden wir mit PS 3.0 im naechsten und vermutlich im uebernaechsten Jahr nicht sehen. Kennt oder hat jemand zufaellig aeltere und neuere Markstudien ueber Grafikchips? Waere interessant zu sehen wie sich das alles aendert.

@Demi
Widersprueche zwischen Theorie und Praxis anhand von in/offiziellen Detailinfos die du vorliegen hast oder anhand von zusaetzlichen eigenen abgeleiteten Ueberlegungen wie es sein sollte?

Demirug
2003-08-29, 00:52:45
Original geschrieben von Hauwech
PS 3.0 wird ja meines Wissens nach Anfang/Mitte 2004 zumindest bei ATI und nVidia eingefuehrt. Wie es bei dem Rest aussieht, vor allem bei integrierten Loesungen von Intel, weiss ich nicht, gehe aber davon aus, das es da noch wesentlich laenger dauert ( falls ATI da nicht die Finger im Spiel hat.. ;) ).

Ja das entspricht auch meinen Informationen die aber mehr auf Gerüchten den gesicherten Tatsachen aufbauen.

ATI und nVidia sind die wichtigen IHVs. Es geht ja erst mal darum den Eyecandy-Level hochzuheben. Der Einstiegslevel ist ja ein anderes Thema.

Kann mich noch an einen Thread erinnern, Nov 2002 oder so, wo ein Programmierer zitiert wurde der meinte, so langsam koennte man mal anfangen, ueber T&L nachzudenken.... Von daher denke ich, mehr als das eine oder andere Eyecandy, neben Passreduktion oder sowas in der Art, werden wir mit PS 3.0 im naechsten und vermutlich im uebernaechsten Jahr nicht sehen. Kennt oder hat jemand zufaellig aeltere und neuere Markstudien ueber Grafikchips? Waere interessant zu sehen wie sich das alles aendert.

Ja, ist ja jetzt mit PS 2.0 primär auch so. Für die Marktstudie wollen die im Moment zuviel Geld das ich derzeit dafür leider nicht übrig habe. :(

@Demi
Widersprueche zwischen Theorie und Praxis anhand von in/offiziellen Detailinfos die du vorliegen hast oder anhand von zusaetzlichen eigenen abgeleiteten Ueberlegungen wie es sein sollte?

offizielle Detailinfos von nVidia die aber nicht allgemein bekannt sind.

Nein, Ich habe keine NDA dafür unterschrieben.
Ja, ihr bekommt die Sachen auch noch.
Nein, nicht jetzt.
Frag mich bitte nicht wann.

Hauwech
2003-08-29, 01:13:02
Original geschrieben von Demirug
Ja, ist ja jetzt mit PS 2.0 primär auch so. Für die Marktstudie wollen die im Moment zuviel Geld das ich derzeit dafür leider nicht übrig habe. :(

Jaja, das liebe Geld. Musst ja nicht du sein :)


Original geschrieben von Demirug
offizielle Detailinfos von nVidia die aber nicht allgemein bekannt sind.

Nein, Ich habe keine NDA dafür unterschrieben.
Ja, ihr bekommt die Sachen auch noch.
Nein, nicht jetzt.
Frag mich bitte nicht wann.

LOL so genau wollte ich das gar nicht wissen. Aber mal im Ernst, ist die Doku die nVidia da rausgibt so schlecht/schlimm? Oder eher auf Zu-viele-Koeche-verderben-den-Brei-und-die-Linke-weiss-nicht-was-die-Rechte-tut zu schieben?

Demirug
2003-08-29, 01:43:54
Original geschrieben von Hauwech
LOL so genau wollte ich das gar nicht wissen. Aber mal im Ernst, ist die Doku die nVidia da rausgibt so schlecht/schlimm? Oder eher auf Zu-viele-Koeche-verderben-den-Brei-und-die-Linke-weiss-nicht-was-die-Rechte-tut zu schieben?

Nur das wir uns nicht missverstehen. Das Dokument ist zwar von nVidia geschrieben und auch ein offizielles nVidia Dokument. Allerdings gibt es nVidia selbst nicht an die Entwickler und wahrscheinlich wäre es nVidia auch lieber wenn ich das Teil nicht hätte. Aus diesem Grund darf man das ganze auch nicht als Schulungsunterlagen zum Thema: "Wie schreibe ich NV3X freundliche Shader" ansehen. Diese gibt es ganz offiziel von Entwicklersupport. Dort findet man aber nur angaben darüber wie man es machen soll. Das Dokument das sich in meinem Besitzt befindet beschreibt aber eher das Warum nur leider gibt es eben auch nicht auf alle Fragen eine direkte Antwort und man muss öfter um die Ecke denken um zu verstehen was sie nun damit meinen.

Mehrpack
2003-08-29, 01:55:00
Original geschrieben von Demirug
Nur das wir uns nicht missverstehen. Das Dokument ist zwar von nVidia geschrieben und auch ein offizielles nVidia Dokument. Allerdings gibt es nVidia selbst nicht an die Entwickler und wahrscheinlich wäre es nVidia auch lieber wenn ich das Teil nicht hätte. Aus diesem Grund darf man das ganze auch nicht als Schulungsunterlagen zum Thema: "Wie schreibe ich NV3X freundliche Shader" ansehen. Diese gibt es ganz offiziel von Entwicklersupport. Dort findet man aber nur angaben darüber wie man es machen soll. Das Dokument das sich in meinem Besitzt befindet beschreibt aber eher das Warum nur leider gibt es eben auch nicht auf alle Fragen eine direkte Antwort und man muss öfter um die Ecke denken um zu verstehen was sie nun damit meinen.

hi,
mhh das klingt eher wie ne bedingungsanleitung für nen videorekorder aus china.

aber am ende ist es doch eigentlich für NV kontraproduktiv wenn sie den entwicklern nicht genau erklären wie und warum.
oder wollen sie vielleicht damit erreichen das man als entwickler eher sagt, ok wir geben euch den code, optimiert mal; sprich mehr abhänigkeit von IHV???

Mehrpack

Hauwech
2003-08-29, 01:59:11
Und fuer wen denkst du soll das Dokument dann gedacht gewesen sein? Eigene Demoprogger? Oder Anleitung fuer Spieleprogger mit Hintertuer? Oder eher unvollstaendige Dokumentation aus einem 'fruehen' Entwicklungsstadium?

Penn0rnzeit fuer mich!!

Gute Nacht :)

Demirug
2003-08-29, 02:04:56
Original geschrieben von Mehrpack
hi,
mhh das klingt eher wie ne bedingungsanleitung für nen videorekorder aus china.

aber am ende ist es doch eigentlich für NV kontraproduktiv wenn sie den entwicklern nicht genau erklären wie und warum.
oder wollen sie vielleicht damit erreichen das man als entwickler eher sagt, ok wir geben euch den code, optimiert mal; sprich mehr abhänigkeit von IHV???

Mehrpack

Nicht wirklich. Das Problem ist wenn man zu sehr genau auf einen Chip optimiert passt das alles am Ende möglicherweise nicht mehr für die nächste Generation. Deswegen sollen die Entwickler ja möglichst hochsprachen benutzten weil man dann die Architektur darunter viel leichter ändern kann.

Demirug
2003-08-29, 02:06:05
Original geschrieben von Hauwech
Und fuer wen denkst du soll das Dokument dann gedacht gewesen sein? Eigene Demoprogger? Oder Anleitung fuer Spieleprogger mit Hintertuer? Oder eher unvollstaendige Dokumentation aus einem 'fruehen' Entwicklungsstadium?

Penn0rnzeit fuer mich!!

Gute Nacht :)

Das ganze sieht aus wie ein Teil der Designunterlagen zur NV3X Familie.

nggalai
2003-08-29, 09:04:17
Original geschrieben von Demirug Original geschrieben von aths Original geschrieben von Gast
die sollen einfach FP16 reinknallen dann passt es.
Das erhöht leider nicht die Anzahl der Arithmetikops pro Takt.
Verkleinert aber das Registerfile pro Pixel . . . und wird AFAIK eh bereits gemacht.

93,
-Sascha.rb

nggalai
2003-08-29, 09:17:22
Hi Thilo,
Original geschrieben von PCGH_Thilo
bevor kein spiel oder ein benchmark da ist, bleibt das alles halbgar. vor 6 wochen lief kein anti-aliasing, plötzlich gings dann doch. wie glaubwürdig sind dann die aussagen des herrn newell? Zum ersten Satz sag' ich mal "ACK", aber beim zweiten musst Du aufpassen. ;) Falls die PR-Abteilung von Valve resp. Sierra was taugt, dann stimmt das "plötzlich" da natürlich nicht.

Ein Statement in der Form wie bei "MSAA tut noch nicht, wir arbeiten an einer Lösung" wird grundsätzlich nur in zwei Fällen veröffentlicht:

1) Die Info ist bereits geleakt und entweder schon in der (Online-)Presse veröffentlicht worden, oder man hat eine Vorwarnung eines netten Webmasters erhalten, dass er am Tag XYZ "die Bombe platzen lassen wird". Das Statement wär' dann Schadensbegrenzung / Gesicht-wahren. Viele Firmen machen hier allerdings gar nix, schönes Beispiel wäre NV, die einfach keine Kommentare zu solchen "Gerüchten" abgeben.

2) Man hat das Problem bereits vor einigen Wochen bis Monaten erkannt und arbeitet schon diese Zeit lang an einer Lösung. Man steht relativ kurz vor der Lösung, und veröffentlicht dann die Info. Das wär' dann einerseits gut fürs Produkt-Marketing (HL2 ist wieder im Gespräch), andererseits wird die Partnerunterstützung gefördert ("Mit ATI-Karten lässt sich das Problem garantiert lösen") aber auch das Firmenmarketing profitiert ein wenig ("Wir rocken--Problem erkannt, und gleich Lösung präsentiert!").

So oder so--FALLS die Kommunikations-Abteilung von Valve/Sierra was taugt, dann wurde schon einiges länger an der Lösung des MSAA-Problems gearbeitet, als die Info, dass da überhaupt Probleme bestehen, rausgegangen ist, i.e. 2) trifft wohl zum grössten Teil zu. Und die Comm-Leute von Valve haben auf mich eigentlich immer einen sehr guten Eindruck gemacht. ;)

In der Hinsicht ist's auch nicht unbedingt eine Frage, wie glaubwürdig denn Gabe hier mit dieser Info ist. Gabe ist kein Idiot. Das Statement wurde bewusst etwas schwammig formuliert ("Die im Artikel beschriebenen DX9-Performancezahlen stimmen ziemlich mit dem überein, was wir hier sehen"--aber keine eigenen Zahlen und Vergleichswerte für die Öffentlichkeit), ist aber noch immer "klar" genug, dass die meisten Vorteile von Punkt 2) und auch 1) (für den Launch--"sorry, wir haben ja gesagt, dass das Spiel auf ATI besser läuft") zum Tragen kommen.

93,
-Sascha.rb

reunion
2003-08-29, 09:34:04
Original geschrieben von Quasar
Das verwundert mich nicht. Man hat doch extra noch einen PS-2.0-Pass für's MSAA-Fixing hinterhergeschoben, während man anderer Hardware sogar die 3.0-Shader-tauglichen Centroid-Sampling-Methode aufbürdet!

Ehrlich????
Ich dachte mir das sei nicht möglich weil man dafür PS3.0 benötigt...
Hast du dafür einen Beleg???

mfg
reu

reunion
2003-08-29, 09:37:44
Original geschrieben von PCGH_Thilo
beim aquamark 3 (ja, richtig gelesen) liegen zwar auch die ati-karten vorne, aber nicht so krass und so richtig erst in extremen einstellungen. mehr dazu in der nächste woche erscheinenden pcgh. ;-)

Kannst du auch ein paar Benchs posten?? :D
Und wurde Aquamark 3 nicht auf NV Karten optimiert?? (glaube da mal irgendetwas gelesenzu haben...)

mfg
reu

Tarkin
2003-08-29, 09:46:19
und weiter gehts ...

"Uttar" schreibt hier:

http://www.nvnews.net/vbulletin/showthread.php?s=&threadid=17136

"The NV3X is not only looking bad in HL2 and Tomb Raider.
It's also looking bad in another next generation engine making heavy use of PS2.0. technologies, probably at least as much as HL2. And no, I'm not talking about a game which has already been announced, but it IS obvious it is in development ( will be even more so soon )

The Det50s are scheduled to be released before HL2 though. So, if nVidia manages to deliver the goods this time, they might lose nowhere as dramatically as before, and this without any cheating. Although hoping they'd win extreme PS2.0. benchmarks would still be delusional IMO, but we'll see.


Uttar"


und noch ein sehr interessanter HL2 Performance-Thread :http://www.beyond3d.com/forum/viewtopic.php?t=7512

Razor@Work
2003-08-29, 11:44:00
Original geschrieben von reunion
Kannst du auch ein paar Benchs posten?? :D
Und wurde Aquamark 3 nicht auf NV Karten optimiert?? (glaube da mal irgendetwas gelesenzu haben...)
Wie soll denn das mit dem derzeitigen M$-Compiler gehen ?
???

Razor

PCGH_Thilo
2003-08-29, 12:17:51
Original geschrieben von reunion
Kannst du auch ein paar Benchs posten?? :D
Und wurde Aquamark 3 nicht auf NV Karten optimiert?? (glaube da mal irgendetwas gelesenzu haben...)

mfg
reu

ist noch zu früh ;-)
optimierung: nö, wieso?

Razor@Work
2003-08-29, 12:21:07
Original geschrieben von PCGH_Thilo
ist noch zu früh ;-)
optimierung: nö, wieso?
Und vor allen Dingen... wie ?
:D

Razor

P.S.: Klar, wenn die Shader per Hand in Assembler geproggt wurden... ;)

reunion
2003-08-29, 12:33:32
Original geschrieben von Razor@Work
Wie soll denn das mit dem derzeitigen M$-Compiler gehen ?
???

Razor

Sry, mein Fehler hab da was verwechselt...

Ailuros
2003-08-29, 12:35:39
Also mal ganz ehrlich wenn mir ein Spiel zu langweilig ist (ja ich versteh die relevanten Argumente schon) dann ist es mir auch egal welche Karte da besser abschneidet oder nicht. Und das gilt mehr oder weniger fuer jedes noch nicht veroeffentlichte Spiel.

In anderen Worten moechte ich jedes Spiel erstmal ausprobieren und wenn es mir was sagen kann und mich fuer Stunden an den PC fesseln kann, dann ist mir das Spiel auch wichtig. Leider werden derartige Spiele immer weniger oder ich bin zu pingelig durch die Jahre geworden.

Natuerlich wird vor der Veroeffentlichung immer dick geworben und gehypt, aber das hilft mir auch nichts. Am liebsten wuerde ich z.B. Unreal2 demjenigen der fuer die Idee verantwortlich ist auf den Kopf knallen (metaphorisch gemeint) und dabei geht es mir nicht um mein Geld, aber meine verschwendete Zeit dieses POS ueberhaupt zu spielen.

Ob HL2 mich mit dessen gameplay wirklich schaftt an den PC zu fesseln, moechte ich erst mal sehen...

Exxtreme
2003-08-29, 12:38:26
Ailuros,

darum geht's in diesem Thread aber nicht. ;)

Ailuros
2003-08-29, 12:47:12
Das ist mir schon klar, aber im Grunde sehe ich momentan nicht viel Grund fuer derartige Argumente, bevor man eigentlich selber herausstellen kann ob es der Rede wert ist. Das waere auch nicht besonders anders wenn es sich um andere, noch nicht veroeffentlichte, game engines handeln wuerde.

Wenn Du unbedingt einen relevanten Kommentar hoeren willst zu PS2.0 Leistung auf NV Karten, hier bitte: den einzigen Weg dass NV es schafft in PS2.0 Leistung die Konkurrenz klar zu uebertreffen, ist IMHO alle FX-en zurueckzurufen und diese mit fehlerlosen NV3x zu ersetzen, so wie die Architektur auf Papier von Anfang an ausgelegt war.

Und das natuerlich ist potentielles Material fuer einen neuen Flamewar *kicher*

TheCounter
2003-08-29, 13:32:56
Da lob ich mir doch CryTek, die optimieren ihr Game auf jede Hardware und bevorzugen keinen. Nichtnur deshalb wird FarCry für mich interessanter, ich finde die Grafik einfach besser und vor allem das Gameplay is hammer.

Ich hab mal gelesen das die Momentane NV3x Architektur CPU ähnlich ist und somit perfekt mit PS3/VS3 zusammenarbeitet, ATI müsste hier erst ihre Architektur umändern, stimmt das?

Bin ja mal gespannt was der Deto50 reißt, der 44.65 hat aufjedenfall gezeigt das man Shaderperformence ohne cheaten mehr als verdoppeln kann, war zwar nur in 3DMark03 aber immerhin :)

Lassen wir erstmal den HL2 Benchmark auf uns zukommen, der dürfte innerhalb der nächsten 2 Wochen kommen, da HL2 wie geplant am 30. September in der USA (Englisches Version) zu kaufen sein wird (Wurde gestern o. vorgestern erst wieder offiziell bestätigt), die Deutsche Version lässt noch ne Weile auf sich warten.

Ailuros
2003-08-29, 13:51:56
Da lob ich mir doch CryTek, die optimieren ihr Game auf jede Hardware und bevorzugen keinen. Nichtnur deshalb wird FarCry für mich interessanter, ich finde die Grafik einfach besser und vor allem das Gameplay is hammer.

Wieso ist HL2 weniger flexibler mit aelterer Hardware?

Farcry screenshots sehen gut aus, was das angebliche Gameplay betrifft, gibt es ein demo von dem Ding oder hab ich was verpasst?

Im reinen Spekulationsraum macht es genauso viel Sinn zu behaupten dass Farcry besseres Gameplay haben wird als HL2, oder anders rum.

TheCounter
2003-08-29, 13:54:37
Original geschrieben von Ailuros
Wieso ist HL2 weniger flexibler mit aelterer Hardware?

Farcry screenshots sehen gut aus, was das angebliche Gameplay betrifft, gibt es ein demo von dem Ding oder hab ich was verpasst?

Im reinen Spekulationsraum macht es genauso viel Sinn zu behaupten dass Farcry besseres Gameplay haben wird als HL2, oder anders rum.

Schonmal den Begriff "Games Convention" gehört? Die Spielemesse in Leipzig, dort konnte man FarCry spielen und sich vom exzellenten Gameplay (Auch durch die im Moment leistungsfähigste KI) überzeugen :)

Quasar
2003-08-29, 13:55:23
Original geschrieben von reunion
Ehrlich????
Ich dachte mir das sei nicht möglich weil man dafür PS3.0 benötigt...
Hast du dafür einen Beleg???

mfg
reu

Ein ATi-Mitarbeiter hat das gesagt, jeder Chip von ATi seit der R200 (? IIRC)könne das. Und wenn ATi und Gabe Newell schon so gut miteinander können, werden die das sicher auch zugänglich machen können (irgendwie... *murmel*applikatiosspezifische Erkennung*murmel)

roman
2003-08-29, 13:59:34
Original geschrieben von TheCounter
Schonmal den Begriff "Games Convention" gehört? Die Spielemesse in Leipzig, dort konnte man FarCry spielen und sich vom exzellenten Gameplay (Auch durch die im Moment leistungsfähigste KI) überzeugen :)

Und wie lässt sich daraus auf das schlechtere/bessere Gameplay von HL2 schließen?

TheCounter
2003-08-29, 14:01:41
Original geschrieben von Romanski
Und wie lässt sich daraus auf das schlechtere/bessere Gameplay von HL2 schließen?

Wo hab ich behauptet das das Gameplay bei HL2 besser/schlechter ist?

roman
2003-08-29, 14:06:08
Original geschrieben von TheCounter
Wo hab ich behauptet das das Gameplay bei HL2 besser/schlechter ist?

naja, indem du ailuros gequotet hast und deine antwort darauf bezogen hast. aber was solls, hier gehts um performance, nicht ums gameplay. ;)

TheCounter
2003-08-29, 14:09:17
Original geschrieben von Romanski
naja, indem du ailuros gequotet hast und deine antwort darauf bezogen hast. aber was solls, hier gehts um performance, nicht ums gameplay. ;)

Hehe siehst du, wenn dann hat er es behauptet, und nicht ich :)

Ich hab lediglich gesagt das Gameplay hammer ist, und nicht das es besser ist :)

Aber wie gesagt gehts hier im Performence, also lassen wir das OT.

ShadowXX
2003-08-29, 14:12:44
Original von TheCounter:
Da lob ich mir doch CryTek, die optimieren ihr Game auf jede Hardware und bevorzugen keinen. Nichtnur deshalb wird FarCry für mich interessanter, ich finde die Grafik einfach besser und vor allem das Gameplay is hammer.


So so...die optimieren also auf jede Hardware und bevorzugen keinen...hast du den Quellcode kurz duchgeschaut, oder woher weisst du das??

PR != volle Wahrheit (zumindest meistens!!!!!!!!!)

Und soweit ich mich an die "Hintergrundgeschichte" von FarCry erinnere ist die nicht so pralle......da bietet HL2 mehr.

J.S.Shadow

TheCounter
2003-08-29, 14:15:26
Original geschrieben von ShadowXX
So so...die optimieren also auf jede Hardware und bevorzugen keinen...hast du den Quellcode kurz duchgeschaut, oder woher weisst du das??

PR != volle Wahrheit (zumindest meistens!!!!!!!!!)

Und soweit ich mich an die "Hintergrundgeschichte" von FarCry erinnere ist die nicht so pralle......da bietet HL2 mehr.

J.S.Shadow

Die haben das selber gesagt, denen kann man glauben, die haben keinen Grund für einen zu optimieren wenn sie sowie für alle optimieren.

Also zur Hintergrundgeschichte von HL2 weis man auch nicht viel, lediglich das es nach BlackMesa spielen soll, also die langweilige alte Leier :)

nggalai
2003-08-29, 14:27:16
Hola,
Original geschrieben von ShadowXX
PR != volle Wahrheit (zumindest meistens!!!!!!!!!)Jupp, und danke für das "meistens". Aber bitte nicht mitm Marketing verwechseln. Mehr Infos zum Thema gibt's hier:

http://www.marketingblubber.ch/articles/20030306.htm

(sorry for the shameless plug ;))

93,
-Sascha.rb

ShadowXX
2003-08-29, 14:49:26
Original von TheCounter
Die haben das selber gesagt, denen kann man glauben, die haben keinen Grund für einen zu optimieren wenn sie sowie für alle optimieren.


Papier und Ohren sind geduldig....
Und wieso soll ich Ihnen 'mehr' glauben als anderen, nur weil Sie es mir selbst erzählt haben.


Also zur Hintergrundgeschichte von HL2 weis man auch nicht viel, lediglich das es nach BlackMesa spielen soll, also die langweilige alte Leier


Die Hintergrundgeschichte von HL2 ist selbst jetzt schon mit der Angabe:
"spielt nach Black Mesa + die Ausserirdischen greifen jetzt Städte an"
schon besser als:
"Kapitän strandet mit Schiff an einsamer Insel und rettet die Welt....."

Allein weil HL2 durch HL1 schon einen Background hat, der scheinbar auch weitergeführt wird...(nicht so wie bei U2 zu U1 hoffe ich.)

J.S.Shadow

Exxtreme
2003-08-29, 14:56:37
Original geschrieben von TheCounter
Bin ja mal gespannt was der Deto50 reißt, der 44.65 hat aufjedenfall gezeigt das man Shaderperformence ohne cheaten mehr als verdoppeln kann, war zwar nur in 3DMark03 aber immerhin :)

Nur in 3DMark?

Also das würde mich stutzig machen. Achso, stimmt... Shader-Austauschen ist kein Cheat mehr.

;)

TheCounter
2003-08-29, 15:01:02
Original geschrieben von Exxtreme
Nur in 3DMark?

Also das würde mich stutzig machen. Achso, stimmt... Shader-Austauschen ist kein Cheat mehr.

;)

Da in dem Test nur 3DMark03 benutzt wurde schließ ich mal darauf das es nur dort war, wissen tu ichs ned, war nur ne behauptung meinerseits :)

Shader austauschen is ja auch kein Cheat solang die Bildqualität gleich bleibt :)

Aquaschaf
2003-08-29, 15:06:13
Abgesehen davon ist mir HL2 schon deshalb sympathischer, weil dort (sollte das Spiel wirklich zwischen September und November herauskommen) mal im Vergleich zu Doom 3 oder Farcry recht spät mit dem "Hype" begonnen wurde.

TheCounter
2003-08-29, 15:43:56
Original geschrieben von Aquaschaf
Abgesehen davon ist mir HL2 schon deshalb sympathischer, weil dort (sollte das Spiel wirklich zwischen September und November herauskommen) mal im Vergleich zu Doom 3 oder Farcry recht spät mit dem "Hype" begonnen wurde.

Das will ich mal überhört haben, nach Doom3 wird um HL2 ein rießiger Hype gemacht, jeder HL Fan erwartet das beste Game der Welt und so schreiben die meisten das auch.

Um FarCry gibt es noch keinen Hype, da es noch eher unbekannt ist bis die Werbekampagne beginnt.

Exxtreme
2003-08-29, 15:49:25
Original geschrieben von TheCounter
Shader austauschen is ja auch kein Cheat solang die Bildqualität gleich bleibt :)
Jetzt nicht mehr... ;)

Obligaron
2003-08-29, 15:53:43
Original geschrieben von TheCounter
Das will ich mal überhört haben, nach Doom3 wird um HL2 ein rießiger Hype gemacht, jeder HL Fan erwartet das beste Game der Welt und so schreiben die meisten das auch.

Um FarCry gibt es noch keinen Hype, da es noch eher unbekannt ist bis die Werbekampagne beginnt.

Imho will er darauf hinaus das Valve nicht schon zwei Jahre vor erscheinen des Games gesagt haben: "Hier sind wir, schaut mal die screens an und feiert uns!" (etwas übertrieben ;)), sondern erst ein halbes Jahr vorher :D.

Aquaschaf
2003-08-29, 17:40:24
Original geschrieben von Obligaron
Imho will er darauf hinaus das Valve nicht schon zwei Jahre vor erscheinen des Games gesagt haben: "Hier sind wir, schaut mal die screens an und feiert uns!" (etwas übertrieben ;)), sondern erst ein halbes Jahr vorher :D.

Genau :)

TheCounter
2003-08-29, 18:19:02
Original geschrieben von Obligaron
Imho will er darauf hinaus das Valve nicht schon zwei Jahre vor erscheinen des Games gesagt haben: "Hier sind wir, schaut mal die screens an und feiert uns!" (etwas übertrieben ;)), sondern erst ein halbes Jahr vorher :D.

Ja, das is mir klar, ich hab ja auch vom jetzigen Hype gesprochen, und der ist extrem groß, auf Valve liegt ne rießen last, wenn die das Game nicht so hinbekommen das es den HL fans gefällt haben sie es "verschissen" :)

Druck is garnicht gut ..

Metzler
2003-08-29, 18:30:35
Original geschrieben von TheCounter
Die haben das selber gesagt, denen kann man glauben, die haben keinen Grund für einen zu optimieren wenn sie sowie für alle optimieren.


Hm ich kann mich entsinnen, als ich das erste mal ein paar Bilder von der Engine sah, das war Februar 2001. Und jetzt rate mal, wo ;) Genau, die waren von www.nvidia.com verlinkt. Ich hab mir damals mal die Techdemo runtergeladen : Jetzt rate mal, auf welchen Karten die Demo nicht lief ;D : Genau, auf allen Karten ausser denen mit NVidia Chipsatz :)
Soviel zum Thema Optimierung. Mag sein, dass sie inzwischen einiges daran geändert haben, aber es sollte auch mehr ein Denkanstoß sein...

P.S.: Ein Zitat aus dem Error-Log der Techdemo :
"Error: This software supposed to be used only with geforce and latest drivers."

Obligaron
2003-08-29, 18:44:38
Original geschrieben von TheCounter
Ja, das is mir klar, ich hab ja auch vom jetzigen Hype gesprochen, und der ist extrem groß, auf Valve liegt ne rießen last, wenn die das Game nicht so hinbekommen das es den HL fans gefällt haben sie es "verschissen" :)

Druck is garnicht gut ..
Naja verschissen... sie müssen halt (wie alle anderen auch) ein gutes Game hinkriegen und wenn es nicht der Stammkundschaft von Half-Life 1 nicht gefällt dann vll einer anderen Art von Zockern, z.B. mehr den Quake3 Fans.
Aber mit den Druck hast du schon recht, sowas belastet natürlich wenn jeder das sagt. Aber wenn sie schon sehr weit sind ist es vll mehr ein motivation :).
Gegen den Hype konnten sie aber nix machen oder willst du die Bilder/Movies extra schlecht machen? ;D
Außerdemw ollen die ja auch Geld verdienen und da ist es ganz gut wenn man ein bischen vor der Veröffentlichung schon etwas Werbung mit guten Screenshots und Movies macht und ich denke das ist ihnen auch ganz gut gelungen ;).

MfG,
Obligaron

aths
2003-08-30, 08:28:42
Original geschrieben von TheCounter
Shader austauschen is ja auch kein Cheat solang die Bildqualität gleich bleibt :) Falls nur eine bestimmte Anwendung davon profitiert, ist es lt. den neuen Nvidia-Kriterien keine zulässige Optimierung mehr. Und das ist auch gut so.

TheCounter
2003-08-30, 12:13:04
Original geschrieben von aths
Falls nur eine bestimmte Anwendung davon profitiert, ist es lt. den neuen Nvidia-Kriterien keine zulässige Optimierung mehr. Und das ist auch gut so.

Ja, aber solang es schneller läuft und die BQ nicht sichtlich verschlechtert wird kanns mir egal sein, hauptsache es läuft angenehm, man muss ja nicht immer alles von der Technischen Seite sehen, wenn ich spiele will ich Spass haben und ned über Technik nachdenken ;)

Razor
2003-08-30, 12:25:27
Original geschrieben von aths
Falls nur eine bestimmte Anwendung davon profitiert, ist es lt. den neuen Nvidia-Kriterien keine zulässige Optimierung mehr. Und das ist auch gut so.
Bist Du sicher, dass sie damit auch das Shader-Replacement gemeint haben ?
???

Razor

Razor
2003-08-30, 12:26:19
Original geschrieben von TheCounter
Ja, aber solang es schneller läuft und die BQ nicht sichtlich verschlechtert wird kanns mir egal sein, hauptsache es läuft angenehm, man muss ja nicht immer alles von der Technischen Seite sehen, wenn ich spiele will ich Spass haben und ned über Technik nachdenken ;)
Ich will Spaß haben UND über Technik nachdenken !
:D

Razor

Szilard
2003-08-31, 16:07:59
ich bin vorsichtig geworden, was (ANGEBLICH) ati optimiert ist! ich nenne da nur ravenshield und will rock:

will rock: Bild 1 (http://home.arcor.de/The-Burner/willrock1.jpg)

raven shield: Bild 1 (http://home.arcor.de/The-Burner/rs1.jpg)

in bewegung flimmern die texturen, von daher mein fazit: hl2 = ati optimiert = ? :( ?

und ich kann es auch beweisen, dass es mit hl2 nicht anders wird! Zieht euch mal das Half-Life 2 G-Man Movie (ftp://3dgamers.in-span.net/pub/3dgamers3/games/halflife2/hl2-g-man.exe) (68mb) runter und schaut mal auf g-man's hals, da sind doch ganz klar polygongaps (bekanntes problem bei ati, die sie nicht fixen werden bzw. können)!

So sehen polygongaps aus: unreal 2: Bild (http://home.arcor.de/The-Burner/unreal2_3.jpg) oder chaser: Bild (http://home.t-online.de/home/fatih_k/ChaserMultiplayerdemo.jpg)

Nun kann sich jeder seine eigene meinung dazu bilden! Ich habe mir schon immer die frage gestellt "was ist ati optimiert?" = nur die leistung ?!? Wenn es wirklich nur die bisschen mehrleistung gegenüber der fx karten ist, ist mir das egal. Ich will keine artefakte in den spielen haben und das ist mir wichtiger, als paar fps mehr zu haben (mit einer nvidia fx karte, hab ich bis heute keine polygongaps finden können)!

mfg

szilard

nagus
2003-09-07, 09:50:39
"
Update 09/06: We also emailed Gabe Newell from Valve Software about his experience with Pixel Shader Performance:

GD: We've started some initial DX9 Shader tests, and have seen, so far that NVIDIA NV3x hardware has a hard time.. Will it'll be similar w/ the HL2 Benchmark?

"Yep."

Gabe Newell


Update 09/05: We emailed id Software guru, John Carmack about his experience with NV3x hardware on Pixel Shading performance, and this was his reply:

GD: John, we've found that NVIDIA hardware seems to come to a crawl whenever Pixel Shader's are involved, namely PS 2.0..

Have you witnessed any of this while testing under the Doom3 environment?

"Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit."

John Carmack

"



http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/001.htm

Gast
2003-09-07, 10:22:00
Nvidia wird die Shader einfach ersetzten und damit hat sich der Fall.

Thowe
2003-09-07, 11:28:37
Original geschrieben von Gast
Nvidia wird die Shader einfach ersetzten und damit hat sich der Fall.

Bis nv eine Karte mit akzeptablen PS2 hat, ist Half-Life 2 lange draussen. Man kann es drehen und wenden wie man will, nv ist z.Z einfach hinter ATi und deshalb werden sie auch weiterhin Marktanteile verlieren.

Ich denke schon, das sie bei nv momentan mich hochtouren am next chip arbeiten, bloß wird er nicht mehr passend zu HL2 da sein.

LovesuckZ
2003-09-07, 11:29:37
Original geschrieben von Thowe
Bis nv eine Karte mit akzeptablen PS2 hat, ist Half-Life 2 lange draussen. .

Was ist mit dem NV35? Seine PS2 sind durchaus konkurenzfaehig.
Oder gibt es Half Life 2 schon :)

nagus
2003-09-07, 11:37:11
Original geschrieben von LovesuckZ
Was ist mit dem NV35? Seine PS2 sind durchaus konkurenzfaehig.
Oder gibt es Half Life 2 schon :)


ok, wenn du "halb so schnell" konkurenzfähig nennst, dann hast du natürlich recht.... und deine FX5800 ist die schnellste grafikkarte der welt ;)

StefanV
2003-09-07, 11:38:57
Original geschrieben von LovesuckZ
Was ist mit dem NV35? Seine PS2 sind durchaus konkurenzfaehig.
Oder gibt es Half Life 2 schon :)

:rofl:

Die Theoretische Leistungsfähigkeit der R300 Chips ist doch a bisserl höher als die der NV3x Chips.

Wie willst du mit 'nem Golf 'nen Porsche überholen??

Thowe
2003-09-07, 11:43:53
Original geschrieben von LovesuckZ
Was ist mit dem NV35? Seine PS2 sind durchaus konkurenzfaehig.
Oder gibt es Half Life 2 schon :)

Höchstens der NV40 und der kommt (hoffentlich) zum Jahresende, HL2 ist aber mit Erscheinungsdatum angekündigt. -> http://hl.gamigo.de/

LovesuckZ
2003-09-07, 11:43:53
Original geschrieben von nagus
ok, wenn du "halb so schnell" konkurenzfähig nennst, dann hast du natürlich recht.... und deine FX5800 ist die schnellste grafikkarte der welt ;)

Ach komm, du weißt, wie ich das gemeint habe.
Wenn nicht, solltest du dir umbedingt den Artikel zur CineFX von Demirug durchlesen.

Original geschrieben von Stefan Payne
Die Theoretische Leistungsfähigkeit der R300 Chips ist doch a bisserl höher als die der NV3x Chips.
Wie willst du mit 'nem Golf 'nen Porsche überholen??

ganze 12,6%. liegt die "Theoretische Leistungsfähigkeit der R300 Chips [...] höher als die der NV3[5] Chips."
Das bedeutet lange noch nicht, dass die Karten nicht mit den Konkurenzprodukt mithalten koennen.
Und von den NV3 (<5) war von mir nie dir rede...

LovesuckZ
2003-09-07, 11:55:23
Original geschrieben von Thowe
Höchstens der NV40 [...]

Berücksichtigen wir nun noch den im Vergleich zum NV35 größere Einbruch des R350 bei "dependent reads", kann man davon ausgehen, dass wir es beim NV35 und R350 mit gleichwertigen Konkurrenten zu tun haben, solange beide mit dem ihrer Architektur angemessenen Shadercode laufen können. (http://www.3dcenter.de/artikel/cinefx/index6.php)

Demirug
2003-09-07, 12:05:20
Original geschrieben von LovesuckZ
Berücksichtigen wir nun noch den im Vergleich zum NV35 größere Einbruch des R350 bei "dependent reads", kann man davon ausgehen, dass wir es beim NV35 und R350 mit gleichwertigen Konkurrenten zu tun haben, solange beide mit dem ihrer Architektur angemessenen Shadercode laufen können. (http://www.3dcenter.de/artikel/cinefx/index6.php)

Das setzt aber einen guten Shadercompiler im Treiber vorraus. Und der für NV35 wird sehr komplex weil die Liste mit den Randbedinungen sehr lang ist.

ATI hat da einfach die zugänglicher Hardware.

LovesuckZ
2003-09-07, 12:16:11
Original geschrieben von Demirug
Das setzt aber einen guten Shadercompiler im Treiber vorraus. Und der für NV35 wird sehr komplex weil die Liste mit den Randbedinungen sehr lang ist.


Das werden sie schon irgendwie schaffen :)

Thowe
2003-09-07, 12:18:37
Original geschrieben von Demirug
Das setzt aber einen guten Shadercompiler im Treiber vorraus. Und der für NV35 wird sehr komplex weil die Liste mit den Randbedinungen sehr lang ist.

ATI hat da einfach die zugänglicher Hardware.

Ich hoffe das nv es schafft, das zumindestens ein Treiber mit erhöhter Performance passend zum Release von HL2 da ist. Ich denke schon das sie schon lange eine Preversion haben und Optimierungen vornehmen werden, die Frage ist bloß ob es ausreicht.

Thowe
2003-09-07, 12:21:55
Original geschrieben von LovesuckZ
Das werden sie schon irgendwie schaffen :)

Das würde ich doch bezweifeln wollen, ich glaube auch nicht das es nötig ist. Die PS2 Leistung ausserhalb von HL2 sollte erst einmal reichen die Zeit bis zur intensiven Nutzung zu überbrücken, somal die Spielehersteller in Zukunft sicher darauf achten werden, das sie "NV konform" ihre Engine, bzw. deren Nutzung auslegen.

LovesuckZ
2003-09-07, 12:37:06
Original geschrieben von Thowe
Das würde ich doch bezweifeln wollen[...]

Warum sollten sie es nicht schaffen? Sie haben ausserdem keine andere Wahl, diesen Schritt nicht zu unternehmen.

Thowe
2003-09-07, 12:51:50
Original geschrieben von LovesuckZ
Warum sollten sie es nicht schaffen? Sie haben ausserdem keine andere Wahl, diesen Schritt nicht zu unternehmen.

Sie müssen nur Optimierungen z.Z. für HL2 vornehmen, alles andere wäre dann schon Resourcen-Verschwendung, wenn sie es sich leisten können, bitte, aber ich glaube das werden sie nicht. Das Einzige was dafür spricht, das wären die jetzigen HighEnd-Kunden und diese werden sich auch vermutlich einfach eine NV40 leisten, wenn es mal erforderlich werden sollte.

LovesuckZ
2003-09-07, 12:57:16
Original geschrieben von Thowe
Sie müssen nur Optimierungen z.Z. für HL2 vornehmen, alles andere wäre dann schon Resourcen-Verschwendung, wenn sie es sich leisten können, bitte, aber ich glaube das werden sie nicht.

Der Vorteil des "Shadercompiler im Treiber (Demirug)" besteht ja dadrin, dass man auch ohne Handanlegen eine bessere PS2 Leistung erreicht als wenn der Code nur 1:1 abgespult wird.
Natuerlich wird Nvidia für die ganz "besonderen" Spiele noch selbst Hand anlegen. Doch für den rest würde auch der Compiler schon für vernuenftige (also weniger katastrophale Ergebnisse) reichen.

Gast
2003-09-07, 13:10:28
Original geschrieben von Thowe
Ich hoffe das nv es schafft, das zumindestens ein Treiber mit erhöhter Performance passend zum Release von HL2 da ist. Ich denke schon das sie schon lange eine Preversion haben und Optimierungen vornehmen werden, die Frage ist bloß ob es ausreicht.


Das wird dann lustig werden. HL2 ist ja dank >STREAM< ein sehr bewegliches Ziel. Alle Benutzer von Nvidia-Karten müssen dann erst einmal ein paar Monate auf angepasste Treiber warten, nachdem Valve mal wieder ein HL2-Update per Stream zum Download angeboten hat.

Das gibt ein Monatelanges sehr intensives Fluchen, wenn das Spiel nach jedem Update wieder einmal _sehr_ langsam vor sich hin krabbelt, bzw die neuen tollen Features für die man dann bezahlt hat unspielbar langsam sind.

Ich wünsche allen NV3x-User eine Engelsgeduld.

Ailuros
2003-09-07, 13:25:32
Original geschrieben von LovesuckZ
Der Vorteil des "Shadercompiler im Treiber (Demirug)" besteht ja dadrin, dass man auch ohne Handanlegen eine bessere PS2 Leistung erreicht als wenn der Code nur 1:1 abgespult wird.
Natuerlich wird Nvidia für die ganz "besonderen" Spiele noch selbst Hand anlegen. Doch für den rest würde auch der Compiler schon für vernuenftige (also weniger katastrophale Ergebnisse) reichen.


Nach Demis Aussagen hier, sieht es aber eher nach einer Menge von Handanlegungen aus:

Es ist auf jeden Fall eine Menge arbeit für das Treiberteam die Leistung freizuschaufeln weil das Design wirklich sehr komplex ist und es massenhaft nebenbedingungen gibt. Wer immer den Shadercompiler für das Teil schreibt tut mir wirklich leid. Man sieht ja was sie im Moment machen. Shader gegen funktional gleichwertige tauschen die entweder von Hand geschrieben wurden oder was ich viel mehr glaube von einer der Serverfarmen durch Simulation erstellt wurde.


http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=92038

StefanV
2003-09-07, 13:31:49
Original geschrieben von LovesuckZ
Das werden sie schon irgendwie schaffen :)

Irgendwie hab ich das Gefühl, daß du nV mehr zutraust, als sie in der Lage sind :|

Also genau das Gegenteil von ATI...

Wie wäre es, wenn du den Tatsachen ins Auge siehst, welche wären, daß ATI die deutlich leistungsfähigere Pixelshader HW hat??

Die Radeons können ja auch eigentlich ein paar mehr Instrukionen/Takt verarbeiten als die NV Karten...

Die NV30 schafft in etwa das, was eine RV350 verarbeitet, wenn ATI die RV350 richtig hoch ziehen würde (so 500/500MHz), dann sähe es vermutlich nicht sehr gut für den NV30 aus *eg*

Gast
2003-09-07, 13:39:22
Original geschrieben von Gast
Das wird dann lustig werden. HL2 ist ja dank >STREAM< ein sehr bewegliches Ziel. Alle Benutzer von Nvidia-Karten müssen dann erst einmal ein paar Monate auf angepasste Treiber warten, nachdem Valve mal wieder ein HL2-Update per Stream zum Download angeboten hat.

Das gibt ein Monatelanges sehr intensives Fluchen, wenn das Spiel nach jedem Update wieder einmal _sehr_ langsam vor sich hin krabbelt, bzw die neuen tollen Features für die man dann bezahlt hat unspielbar langsam sind.

Ich wünsche allen NV3x-User eine Engelsgeduld.

Puh,

hat also noch keiner gemerkt. STEAM heißt das ganze nich Stream. :(

LovesuckZ
2003-09-07, 13:41:02
Original geschrieben von Ailuros
Nach Demis Aussagen hier, sieht es aber eher nach einer Menge von Handanlegungen aus:


Ja in den jezigen Treibern.

StefanV
2003-09-07, 13:45:23
Original geschrieben von LovesuckZ
Ja in den jezigen Treibern.

Und DU glaubst, daß das in künftigen anders wird?!?!

ICH nicht...

Gast
2003-09-07, 13:47:12
Nvidia braucht ja selbst bei Doom3 Shaderanpassungen !!

Und das bei OpenGL mit den für Nvidia optimalen NV_Extensions !!!!!!!!!


Dave Baumann :

As I said, I had a meeting at ECTS with a number of NVIDIA's dev rel guys. I was talking about the Doom3 paths and said "seeing as id will be using the NV fragement program extensions I assume you won't need to optimise the shaders yourselves" - their reply: "Oh, no, we've optimised them".


Außerdem soll Doom3 keinen Benchmark enthalten! Schaut so aus, als ob hier nur FRAPS weiterhilft.

Link: http://www.beyond3d.com/forum/viewtopic.php?t=7748&start=20&sid=2ee0ac3da35c0b453199d067f2d89682


Die Idee mit dem Compiler-Treiber kann man also gleich wieder vergessen, wenn selbst die NV_Extensions nicht "gut genug" sind für die FX-Karten. Nvidia hat sich hier wirklich selbst an die Mauer gefahren. Die FX-Karten sollte man also besser links liegen lassen.

Demirug
2003-09-07, 14:01:22
Original geschrieben von Gast
Nvidia braucht ja selbst bei Doom3 Shaderanpassungen !!

Und das bei OpenGL mit den für Nvidia optimalen NV_Extensions !!!!!!!!!



Außerdem soll Doom3 keinen Benchmark enthalten! Schaut so aus, als ob hier nur FRAPS weiterhilft.

Link: http://www.beyond3d.com/forum/viewtopic.php?t=7748&start=20&sid=2ee0ac3da35c0b453199d067f2d89682


Die Idee mit dem Compiler-Treiber kann man also gleich wieder vergessen, wenn selbst die NV_Extensions nicht "gut genug" sind für die FX-Karten. Nvidia hat sich hier wirklich selbst an die Mauer gefahren. Die FX-Karten sollte man also besser links liegen lassen.

Selbst mit den NV-Extension kann man ohne Problem eines absolute ineffektiven Shader schreiben zudem gibt es viele internas die auch über die Extension nicht erreichbar sind. Optimieren macht also durchaus noch Sinn und ein paar kleinigkeiten werden mit den aktuellen Treibern sogar schon automatisch optimiert.

TheCounter
2003-09-07, 16:33:31
Naja, also man sollte doch erstmal abwarten, HL2 ist noch nicht draußen, DX9 ist immernoch ATI-Optimiert und außerdem sind die Deto50 noch ned draußen.

Es kann am Schluss auch ganz anders kommen, also lieber mal abwarten und Cappucino trinken ;D

Szilard
2003-09-07, 17:03:59
Hab mal 3dmark 2003 build 330 getestet.

Radeon 9700Pro mit Cat 3.6 = Vertexshader 15fps, Pixelshader 45fps.
GeForce FX5800nu mit Deto 45.23 = Vertexshader 17fps, Pixelshader 35fps.

Wenn ich die FX5900nu hier habe, werde ich die auch mal unter die "Pixelshader 2.0" Lupe nehmen ;)

MfG

Szilard

LovesuckZ
2003-09-07, 17:10:50
Original geschrieben von Szilard
Wenn ich die FX5900nu hier habe, werde ich die auch mal unter die "Pixelshader 2.0" Lupe nehmen ;)


Brauchst du nicht, dass haben schon andere getan:


Pixel Shader 2.0 640x480 800x600 1024x768 1280x1024 1600x1200
V9950 56.3 49.0 40.4 31.9 26.1
V9950 Ultra 64.0 55.8 46.2 36.5 29.8

Beyond3d.com (http://www.beyond3d.com/reviews/asus/v9950/index.php?p=9)

Szilard
2003-09-07, 17:16:25
Original geschrieben von LovesuckZ
Brauchst du nicht, dass haben schon andere getan:


Pixel Shader 2.0 640x480 800x600 1024x768 1280x1024 1600x1200
V9950 56.3 49.0 40.4 31.9 26.1
V9950 Ultra 64.0 55.8 46.2 36.5 29.8

Beyond3d.com (http://www.beyond3d.com/reviews/asus/v9950/index.php?p=9)

Dann ist doch der Unterschied garnicht so hoch, wie manche behaupten oder ? Ich meine 5fps....

Radeon 9700Pro 45fps und die FX5900nu 40fps.

MfG

Szilard

Thowe
2003-09-07, 17:41:52
Original geschrieben von Szilard
Dann ist doch der Unterschied garnicht so hoch, wie manche behaupten oder ? Ich meine 5fps....

Radeon 9700Pro 45fps und die FX5900nu 40fps.

MfG

Szilard

Das sagt bloß leider absolut gar nichts darüber aus, wie die tatsächliche Performance in Spiel X sein wird.

StefanV
2003-09-07, 20:33:16
Original geschrieben von Szilard
Dann ist doch der Unterschied garnicht so hoch, wie manche behaupten oder ? Ich meine 5fps....

Radeon 9700Pro 45fps und die FX5900nu 40fps.

MfG

Szilard

Ja und wie sind die Shader aufgebaut??
Ist das eher 'ne einfache Szene oder eine komplexe??

Fakt ist, daß die R300 Serie momentan die DX9 Referenz darstellt, allein schon, weil nV gepennt hat und mit Testmustern nicht rechtzeitig fertig wurde...

Gast
2003-09-07, 20:33:42
Original geschrieben von Thowe
Das sagt bloß leider absolut gar nichts darüber aus, wie die tatsächliche Performance in Spiel X sein wird.

Yep;

außerdem ist es schon etwas zum kringeln, wie die angeblichen 3DMark03 - Hasser plötzlich wieder (getürkte? = FX12) Benchmarkwerte hervorzaubern, wo der 3DMark03 doch absolut nicht repräsentativ ist. ;D ;D ;D

Demirug
2003-09-07, 20:54:59
Original geschrieben von Stefan Payne
Fakt ist, daß die R300 Serie momentan die DX9 Referenz darstellt, allein schon, weil nV gepennt hat und mit Testmustern nicht rechtzeitig fertig wurde...

R300 ist die DX9 Basis weil ATI die technologisch schwächste DX9 Hardware hat. Hätte MS mehr gefordert hätte ATI gar keine DX9 Hardware. Das hat nichts mit Testmustern zu tun da die Specs zu einem Zeitpunkt geschrieben werden wo noch niemand Testmuster hat.

Wobei sowohl ATI wie auch nVidia nicht mit alle Vorstellungen durchgekommen sind. ATI wollte gerne noch das co-issue von PS 1.X auch in 2.0 sehen und nV wollte 3 Datenformate. Das fehlende co-issue kann ATI im Treiber umschiffen aber bei den Zahlenformate hat nv die Arschkarte gezogen.

Das der Compiler beim 2.0 Profil einen ATI Shader erzeugt ist auch klar. Es gibt sonst keine reine 2.0 Hardware und für alle anderen Chips sollten sowieso 2.X Shader benutzt werden. Dummerweise ist MS nicht mit dem Compiler dafür fertig geworden.