PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Doom3, wurde wer benachteiligt? (split aus HL2 FP16 vs. FP32)


Tjell
2004-12-02, 10:05:39
aber doom 3 war in ordnung oder wie... typischWird Deiner Meinung nach ATI-Hardware bei Doom3 durch unpassende Shader ausgebremst? Läuft ATI-DX9-Hardware im DX8-Modus bei Doom3? Ist dort auch ein Renderingpfad entfernt worden, der den ATI besser schmecken würde? Eher nein. Vielmehr hat NV "optimiert" (oder cheatet - je nach Auffassung) und weniger ID selbst.

Also Valve benachteiligt nunmehr erwiesenermaßen auf unnötige Weise ein Stück Hardware, das seine Schwächen hat, anstatt es so gut es eben geht, auf scheinbar einfachem Wege, wesentlich besser auszunutzen.

Formica
2004-12-02, 11:19:20
Also Valve benachteiligt nunmehr erwiesenermaßen auf unnötige Weise ein Stück Hardware, das seine Schwächen hat, anstatt es so gut es eben geht, auf scheinbar einfachem Wege, wesentlich besser auszunutzen.


tja das sind dann schlechten seiten des pc wesens, welche es bei konsolen nicht gibt.. aber wir driften ab...

BlackArchon
2004-12-02, 11:29:53
aber doom 3 war in ordnung oder wie... typisch
Zumindest wurden Ati-Karten in Doom 3 nicht vorsätzlich benachteiligt/verlangsamt.

Mr. Lolman
2004-12-02, 11:47:51
Zumindest wurden Ati-Karten in Doom 3 nicht vorsätzlich benachteiligt/verlangsamt.


AFAIK schon...

Tjell
2004-12-02, 11:54:51
AFAIK schon...Dann erzähl uns mal Dein "AFAIK", wir hören Dir gerne zu, wenn Du aus dem Nähkästchen plauderst und ganz andere Erkenntnisse als die hiesigen Gurus bezüglich ATI & Doom3 hast.

SamLombardo
2004-12-02, 12:06:08
Stimmt. Würde mich auch mal interessieren was Mr. Lolman damit meint. Die Situation von Doom 3 ist mit der von HL2 imo nicht zu vergleichen.

kmf
2004-12-02, 12:16:45
AFAIK schon...

Aha!

Dann schreib doch bitte mal ein paar Sätze zur Begründung. :biggrin:

Mr. Lolman
2004-12-02, 12:18:17
Stimmt. Würde mich auch mal interessieren was Mr. Lolman damit meint. Die Situation von Doom 3 ist mit der von HL2 imo nicht zu vergleichen.


JC bastelte die Shader so dass in seinen Augen ne, (für Doom3 alleine nicht notwendige) grössere Flexibiltät möglich ist. NV hat vorab mehrere D3 Testversionen erhalten - ATi nicht. Dementsprechend übel sah dann auch die Performance aus. Da alle Benchmarkergebnisse ne deutliche Sprache sprachen und keiner sich getraute JC eine einseitige IHV Bervozugung vorzuwerfen erschien dann auf 3DC ein Artikel der uns weiss machen wollte das D3 bestmöglich auf ATi optimiert wurde.

Das ging dann soweit,dass fleissig gegen den Humus Patch gewettert wurde, der jedoch nicht notwendig gewesen wäre, wenn ATi schon im vorhinein die Möglichkeit gehabt hätte, ihre Treiber auf D3 zu optmieren.

Imo kann die PP Flags in HL², die Demis Tool setzt, genauso NV mit einem Treiber hinbiegen (Ich bin mir relativ sicher, dass FC1.0 ohne Demis Tool auf FX Karten mittlerweile kaum schlechter rennt, als mit ihm)

Also kann man imo die Optimierungsgeschichte darauf reduzieren, dass allein die Möglichkeit einer vorzeitigen GraKatreiberanpassung an das Spiel, ausschlaggebend ist für die Performance. Bei Doom3 ist NV zum Zug gekommen, bei HL² wars halt ATi...

Coda
2004-12-02, 12:21:11
Auf NV40 ja, auf NV3x nicht, weil man da in Features beschnitten wird, wo es nicht nötig wäre.

Also kann man imo die Optimierungsgeschichte darauf reduzieren, dass allein die Möglichkeit einer vorzeitigen GraKatreiberanpassung an das Spiel, ausschlaggebend ist für die Performance. Bei Doom3 ist NV zum Zug gekommen, bei HL² wars halt ATi...
Ack. Da muss ich dir mal rechtgeben.
Auch wenn ich solches verhalten von den Entwicklern nicht verstehen kann.

Aber der Unterschied ist trotzdem, das Valve mit Absicht nVidia benachteiligt, oder nicht beachtet hat, das kann man JC wohl kaum vorwerfen.
Falls nVidia das mit dem Treiberzeuch nicht gemacht hätte, wäre er halt bei seinem NV_fragment_program Pfad mit völlig ausreichendem FX12 geblieben, das wohl genauso performt hätte wie der Replacement Shader aus dem Treiber.

SamLombardo
2004-12-02, 12:23:04
JC bastelte die Shader so dass in seinen Augen ne, (für Doom3 alleine nicht notwendige) grössere Flexibiltät möglich ist. NV hat vorab mehrere D3 Testversionen erhalten - ATi nicht. Dementsprechend übel sah dann auch die Performance aus. Da alle Benchmarkergebnisse ne deutliche Sprache sprachen und keiner sich getraute JC eine einseitige IHV Bervozugung vorzuwerfen erschien dann auf 3DC ein Artikel der uns weiss machen wollte das D3 bestmöglich auf ATi optimiert wurde.

Das ging dann soweit,dass fleissig gegen den Humus Patch gewettert wurde, der jedoch nicht notwendig gewesen wäre, wenn ATi schon im vorhinein die Möglichkeit gehabt hätte, ihre Treiber auf D3 zu optmieren.

Imo kann die PP Flags in HL², die Demis Tool setzt, genauso NV mit einem Treiber hinbiegen (Ich bin mir relativ sicher, dass FC1.0 ohne Demis Tool auf FX Karten mittlerweile kaum schlechter rennt, als mit ihm)

Also kann man imo die Optimierungsgeschichte darauf reduzieren, dass allein die Möglichkeit einer vorzeitigen GraKatreiberanpassung an das Spiel, ausschlaggebend ist für die Performance. Bei Doom3 ist NV zum Zug gekommen, bei HL² wars halt ATi...

Selbst wenn das so sein sollte: Atis Praktiken gehen da aber noch ein ganzes Stück weiter. Das wäre in etwa so, wie wenn Doom3 auf allen Karten die kein Ultra Shadow anbieten (Ati) keine Schatten darstellt, obwohl es technisch kein Problem wäre.

seahawk
2004-12-02, 12:25:54
Mr Lolman, das kann man so nicht stehen lassen. JC hat eine flexibele Lösung gewählt, die für DOOMIII durch eine hinreichend genaue Alternative ersetzt werden konnte. Allerdings wird die Engine nicht nur für DOOM III genutzt. Ob es in jedem Falle eine solche Anpassung gibt wird sich erst zeigen. Auf jeden Fall hat er dabei nicht bewußt eine Fähigkeit der ATI Karten ignoriert. Er hat nur nicht für diese optimal optimiert.

Valve hingegen hat absichtlich eine Fähigkeit der FX Karten ignoriert. Dabei muss man noch nicht mal Shader ersetzen, man muss nur für geeignete Shader PP zu lassen. Diese Hints benachteiligen keine andere Karte, da Karten die es nicht können sie ignorieren.

Das hat für mich eine andere Qualität.

Mr. Lolman
2004-12-02, 12:32:56
Selbst wenn das so sein sollte: Atis Praktiken gehen da aber noch ein ganzes Stück weiter. Das wäre in etwa so, wie wenn Doom3 auf allen Karten die kein Ultra Shadow anbieten (Ati) keine Schatten darstellt, obwohl es technisch kein Problem wäre.

Nein, dann würde Doom3 auf ATis ein ganzes Stück schlechter aussehen. Und Hl² schaut ja auf Fxen nicht wirklich schlecht aus. Dass die nur DX8 bekommen hat imo noch nen anderen Grund. Im DX9 Pfad ist ne FX5950 Ultra ca. halb so schnell wie ne 9600XT. Mit geforcter PP erhöht sich die Performance mal um 50%. Fehlen also immernoch 25% auf ne 9600XT, die man zwar höchstwahrscheinlich auch mit Treiberoptmierungen rausholen kann, aber trotzdem wär das Geschrei wohl enorm gewesen. Hl² ist nunmal ne Engine die NV Karten nicht so schmeckt. Genau wie ATi Karten die Doom3 nicht wirklich mögen . (Selbst wenn die neue Generation fast aufgeholt hat, rennt D³ auf R3x0 vglweise mies = Analogie zu HL²)

Crushinator
2004-12-02, 12:37:06
Selbst wenn das so sein sollte: Atis Praktiken gehen da aber noch ein ganzes Stück weiter. Das wäre in etwa so, wie wenn Doom3 auf allen Karten die kein Ultra Shadow anbieten (Ati) keine Schatten darstellt, obwohl es technisch kein Problem wäre. Warum sollen Entwickler nicht entscheiden dürfen, ob sie _pp hints einsetzen möchten oder nicht? Ähnlich ist's mit dem Vorwurf, warum id ihrem Hoflieferanten mehr Möglichkeiten bei der Entwicklung ihrer Spiele einräumen möchte. Man kann's am Endeffekt so drehen und wenden wie man möchte, es läuft fast immer darauf hinaus, daß einem immer irgendwas nicht paßt. Die einen sehen belspielsweise bei fehlenden _pp hints eine mutwillige Benachteiligung, und die anderen nehmen wiederum positives an der Performance wahr, wenn man die betroffenen Karten gleich im DX8-Modus laufen läßt.

Mr. Lolman
2004-12-02, 12:44:37
Mr Lolman, das kann man so nicht stehen lassen. JC hat eine flexibele Lösung gewählt, die für DOOMIII durch eine hinreichend genaue Alternative ersetzt werden konnte. Allerdings wird die Engine nicht nur für DOOM III genutzt. Ob es in jedem Falle eine solche Anpassung gibt wird sich erst zeigen. Auf jeden Fall hat er dabei nicht bewußt eine Fähigkeit der ATI Karten ignoriert. Er hat nur nicht für diese optimal optimiert.


Das Spiel was erschienen ist, ist Doom3. Und für D3 reicht auch ein hochoptimierter Humushader. Da braucht man keine Flexibilität. Und selbst wenn - keiner weiss, wie D3 auf NV Karten gelaufen wär, wenn die Treiber von anfang an nicht schon optimiert gewesen wären...


Valve hingegen hat absichtlich eine Fähigkeit der FX Karten ignoriert. Dabei muss man noch nicht mal Shader ersetzen, man muss nur für geeignete Shader PP zu lassen. Diese Hints benachteiligen keine andere Karte, da Karten die es nicht können sie ignorieren.

Das hat für mich eine andere Qualität.

Hat JC auch. Oder glaubt ihr wirklich, dass der Programmiergott schlechthin, zu blöd ist, zu checken, dass ATi Karten Specularlighting lieber arithmetisch vorgesetzt bekommen, als über eine Lookup Table.

Crushinator
2004-12-02, 12:55:35
(...) Hat JC auch. Oder glaubt ihr wirklich, dass der Programmiergott schlechthin, zu blöd ist, zu checken, dass ATi Karten Specularlighting lieber arithmetisch vorgesetzt bekommen, als über eine Lookup Table. Es war halt eine unglückliche Designentscheidung (http://www.beyond3d.com/interviews/carmack04/index.php?p=2).
The specular function in Doom isn't a power function, it is a series of clamped biases and squares that looks something like a power function, which is all that could be done on earlier hardware without fragment programs. Because all the artwork and levels had been done with that particular function, we thought it best to mimic it exactly when we got fragment program capable hardware. If I had known how much longer Doom was going to take to ship from that time, I might have considered differently. (...) The lookup table is constant in Doom, so there isn't any real strong argument against replacing it with code. The lookup table was faster than doing the exact sequence of math ops that the table encodes, but I can certainly believe that a single power function is faster than the table lookup.

Demirug
2004-12-02, 12:55:54
Hat JC auch. Oder glaubt ihr wirklich, dass der Programmiergott schlechthin, zu blöd ist, zu checken, dass ATi Karten Specularlighting lieber arithmetisch vorgesetzt bekommen, als über eine Lookup Table.

Das hat mit dem Specularlight nichts zu tun. Die Karten mögen einfach designbedingt dependet Reads nur begrenzt und viele Texturen in einem Pass sind auch nicht so das Lieblingskind. Da wird gerne der Texturecache getrascht.

Es könnte durchaus sein das dem NV40 es in diesem Fall auch besser schmeckt das ganze zu rechnen weil er das noch irgendwo in der Pipe auf freie Plätze schieben kann. Ich würde mal zu gerne die letze Version des entsprechenden Shaders aus dem NV30/NV40 Pfad sehen. Angeblich ist genau die von nVidia im Treiber hinterlegt.

Mr. Lolman
2004-12-02, 12:58:17
- nVidia darf im Treiber keine PP Flags mehr erzwingen. Der entsprechenden Abschnitt in der DX Spec der das erlaubt hätte wurde entfernt und durch einen anderen ersetzt. Deswegen steht in den Guides auch explizit das der Shadercompiler die Rechengenauigkeit nicht verändert.


Wann wurde das entfernt? Denn NV hat das ja tw. bei 3dmark gemacht. Warum solltens sies jetzt nicht auch machen? (BTW: ist das ja ohnehin ein Grauzone, dadurch dass ohnehin Shader handoptimiert werden, wenn der Compiler nicht das gewünschte Ergebnis bringt, ists ja wurscht ob man pp einfach setzen darf oder nicht)


- Die Source engine als solches hat eigentlich ein sehr flexibles Shadermanagement. Es ist also weniger die Engine den FXen nicht schmeckt sondern eher die Art wie sie von Valve konfiguriert wurde. Leider kann man diese Konfiguration von extern nicht so leicht ändern.


Hat Doom3 ja auch.


- Die PP Flags sind ja nur ein Quickhack. Ich gehe mal davon aus das an vielen Stellen ein 1.X Shader genau das gleiche Bild erzeugt hätte. Ich prüfe das allerdings noch mal nach.

Glaub ich dir gerne. Auf ner 8500 sieht HL² ja auch fast genauso aus, wie auf Dx9 Karten.

- Der D3 Patch von ATI ist so ziemlich das schlammpigste Stück arbeit das ich in diesem Bereich gesehen habe.

Warum? BTW: War der letzte humus Patch auch so schlampig (also die komplett neu geschriebene interaction.vfp) Und falls nicht: Warum rennt D³ mit schlampiger programmierung besser als mit ordentlicher?
Oder: Könntest du da vielleicht noch etwas drehen? Mehr D³ performance nehm ich gerne!

Mr. Lolman
2004-12-02, 12:59:51
Das hat mit dem Specularlight nichts zu tun. Die Karten mögen einfach designbedingt dependet Reads nur begrenzt und viele Texturen in einem Pass sind auch nicht so das Lieblingskind. Da wird gerne der Texturecache getrascht.


In dem Fall wars halt das Specularlight, dass über dependet Reads realisiert wurde. Oder lieg ich da falsch?


Ich würde mal zu gerne die letze Version des entsprechenden Shaders aus dem NV30/NV40 Pfad sehen. Angeblich ist genau die von nVidia im Treiber hinterlegt.

Hat schon jemand getestet. Die FXen verlieren damit Performance. Wenn du willst mail ich sie dir.

Gast
2004-12-02, 13:19:20
Nein, dann würde Doom3 auf ATis ein ganzes Stück schlechter aussehen. Und Hl² schaut ja auf Fxen nicht wirklich schlecht aus. Dass die nur DX8 bekommen hat imo noch nen anderen Grund. Im DX9 Pfad ist ne FX5950 Ultra ca. halb so schnell wie ne 9600XT. Mit geforcter PP erhöht sich die Performance mal um 50%. Fehlen also immernoch 25% auf ne 9600XT, die man zwar höchstwahrscheinlich auch mit Treiberoptmierungen rausholen kann, aber trotzdem wär das Geschrei wohl enorm gewesen. Hl² ist nunmal ne Engine die NV Karten nicht so schmeckt. Genau wie ATi Karten die Doom3 nicht wirklich mögen . (Selbst wenn die neue Generation fast aufgeholt hat, rennt D³ auf R3x0 vglweise mies = Analogie zu HL²)

Naja, das kann man auch anders sehen. Im Gegendsatz zu einigen hier im Forum, die die Situation imo ein bissel schön reden: Ich finde HL2 sieht auf den FXen DEUTLICH schlechter aus, als auf den Atis. Nicht nur das Wasser, auch die Bumpmap Reflexionen auf Figuren und Gegenständen: All das sieht auf der FX irgendwie aus wie von Gestern (Ich hab in einem Rechner ne 9800pro, auf der ich HL2 auch spiele, hab aber auch den Vergleich auf der FX gesehen)

Das Problem ist, dass die FXen sehrwohl in der Lage sind DX9 schnell zu rendern, wie man sieht (FP16). Die optischen Schmankerl werden den FXen einfach vorenthalten, weil Ati/Valve es so wollte. Und das obwohl es technisch überhaupt kein Problem gewesen wäre...
Deshalb finde ich meinen Vergleich mit Doom schon irgendwie passend.

Sam

Demirug
2004-12-02, 13:19:52
Wann wurde das entfernt? Denn NV hat das ja tw. bei 3dmark gemacht. Warum solltens sies jetzt nicht auch machen? (BTW: ist das ja ohnehin ein Grauzone, dadurch dass ohnehin Shader handoptimiert werden, wenn der Compiler nicht das gewünschte Ergebnis bringt, ists ja wurscht ob man pp einfach setzen darf oder nicht)

Irgendwann zwischen DX9.0 und DX9.0c. Kann ich jetzt im Nachhinein schwer nachvollziehen wann es genau war.

Was das Handoptimieren angeht ist nVidia inzwischen gründlich die Lust vergangen. Das sind einfach zu viele Shader.

Warum? BTW: War der letzte humus Patch auch so schlampig (also die komplett neu geschriebene interaction.vfp) Und falls nicht: Warum rennt D³ mit schlampiger programmierung besser als mit ordentlicher?
Oder: Könntest du da vielleicht noch etwas drehen? Mehr D³ performance nehm ich gerne!

Humus ist was ganz anderes da man da bewusst die Applikation verändert hat. ATI verändert aber das verhalten des Treibers. Das schlampig bezog sich nicht auf die Performances. Da kann schlampig sowieso oft schneller als sauer programmiert sein. Es geht eher darum das der Treiber massiv die OpenGL Norm durchbricht. Er hält es nämlich nicht mal für nötig zu prüfen ob die Texture überhaupt den richtigen Inhalt enthält.

SamLombardo
2004-12-02, 13:20:27
Der gast war ich, bin gerade bei nem anderen Rechner und hab vergessen mich anzumelden ;)

Demirug
2004-12-02, 13:21:46
Hat schon jemand getestet. Die FXen verlieren damit Performance. Wenn du willst mail ich sie dir.

Die Version die ich meine haben nur id und nVidia da diese niemals nach aussen gegeben wurde.

r@w
2004-12-02, 14:13:05
JC bastelte die Shader so dass in seinen Augen ne, (für Doom3 alleine nicht notwendige) grössere Flexibiltät möglich ist. NV hat vorab mehrere D3 Testversionen erhalten - ATi nicht. Dementsprechend übel sah dann auch die Performance aus. Da alle Benchmarkergebnisse ne deutliche Sprache sprachen und keiner sich getraute JC eine einseitige IHV Bervozugung vorzuwerfen erschien dann auf 3DC ein Artikel der uns weiss machen wollte das D3 bestmöglich auf ATi optimiert wurde.

Das ging dann soweit,dass fleissig gegen den Humus Patch gewettert wurde, der jedoch nicht notwendig gewesen wäre, wenn ATi schon im vorhinein die Möglichkeit gehabt hätte, ihre Treiber auf D3 zu optmieren. Meinst Du nicht, dass Du hier ein paar Tatsachen verdrehst?

AFAIK, sah' die Geschichte eher so aus, dass es ATI schaffte, eine gewisse Alpha lange vor Release in die Öffentlichkeit entwischen zu lassen. Dass JC darüber nicht sonderlich glücklich war und so etwas auf jeden Fall vermeiden wollte, dürfte eigentlich jedem klar gewesen sein... insofern ATI aus diesem Fehler einfach lernen und sicher stellen sollte, das so etwas zukünftig nicht mehr passiert.

Auch erwähntest Du die "zu" flexiblen Shader, die für Doom3 ja Deiner Meinung nach gar nicht nötig gewesen sein sollen... ich hoffe aber Du weißt, dass die ID-Engine nicht alleine D3 vorbehalten bleibt, sondern es wie damals bei Q3 wohl viele, viele Games geben wird, die auf dieser Engine basieren. Insofern sollten sich Entwickler einer solchen Engine (die richtig viel Geld für ID einbringen wird) schon Gedanken über die Flexibilität gewisser Strukturen machen... oder siehst Du das anders?

Imo kann die PP Flags in HL², die Demis Tool setzt, genauso NV mit einem Treiber hinbiegen (Ich bin mir relativ sicher, dass FC1.0 ohne Demis Tool auf FX Karten mittlerweile kaum schlechter rennt, als mit ihm)Könnest Du das jetzt nochmal präziser formulieren?
Irgendwie ist mir der Sinn dieses Absatzes nicht eingängig...

Oder meinst Du jetzt ernsthaft, dass nVidia die abertausenden Shader von Hand 'ersetzen' soll?
IMO dürfte DAS richtig für einen Aufschrei in der Community sorgen...

Also kann man imo die Optimierungsgeschichte darauf reduzieren, dass allein die Möglichkeit einer vorzeitigen GraKatreiberanpassung an das Spiel, ausschlaggebend ist für die Performance. Bei Doom3 ist NV zum Zug gekommen, bei HL² wars halt ATi...Machst Du es Dir da nicht etwas zu einfach?
Eine ganze Grafikkarten-Generation wird hier nicht nur benachteiligt, sondern gar denunziert.
Im Prinzip soll hier ausgesagt werden, dass ALLE FX'en im Prinzip keine DX9-Karten sind und deswegen auf DX8(.1) reduziert werden müssen.

IMO ist es genau das, was ATI erreichen wollte!

Oder wie ist es zu erklären, dass ein 'spezieller' NV3x-Pfad, der ja schon exisitierte und Valve ja soooooo viel Arbeit kostete, jetzt in der Retail-Version nicht mehr vorhanden ist? Wie ist es zu erklären, dass es ganz speziell für ATI einen sog. "Centroid-Hack" gibt, der ebenfalls pp-Hints ausschließlich für ATI-Karten - allerdings für die Vertex-Shader - setzt?

Mir sieht es sehr danach aus, dass hier ein IHV mehr als deutlich bevorteilt und ein anderer ganz bewußt extrem benachteiligt wurde. Und wenn man Demirug glauben kann (wovon ich jetzt einfach mal ausgehe), dann geht das Ganze sogar sehr viel weiter, als den FX'en 'nur' die pp-Hints vorzuenthalten... aber vielleicht kommt dieses Thema dann ja gleich mit auf den Tisch.

Razor

reunion
2004-12-02, 14:21:44
Mir sieht es sehr danach aus, dass hier ein IHV mehr als deutlich bevorteilt und ein anderer ganz bewußt extrem benachteiligt wurde. Und wenn man Demirug glauben kann (wovon ich jetzt einfach mal ausgehe), dann geht das Ganze sogar sehr viel weiter, als den FX'en 'nur' die pp-Hints vorzuenthalten... aber vielleicht kommt dieses Thema dann ja gleich mit auf den Tisch.

Razor

AFAIK bezweifelt das auch keiner, Valve hat von ATI 6mio Dollar kassiert und deshalb werden ATi Karten natürlich auch "besser" behandelt. War IMO schon vorher klar, oder hast du geglaubt das ATI freiwillig 6mio$ zahlt ohne einen nutzten daraus zu ziehen?

r@w
2004-12-02, 14:32:21
Das Spiel was erschienen ist, ist Doom3. Und für D3 reicht auch ein hochoptimierter Humushader. Da braucht man keine Flexibilität. Und selbst wenn - keiner weiss, wie D3 auf NV Karten gelaufen wär, wenn die Treiber von anfang an nicht schon optimiert gewesen wären...Aha... ein "hochoptimierter Humusshader".
Ein 'Super'-Shader sozusagen...

Oder wie ist es zu erklären, dass selbst eingefleischten Entwicklern nicht klar war, warum dieser Shader plötzlich so hocheffizient auf ATI-Karten lief? Wie ist es zu erklären, dass diese Methode, die dort angewendet wurde, in keinem Whitepaper oder in irgend einem Guideline zu finden war?

Dass Humus für ATI arbeitet, macht die ganze Sache dann noch ominöser...
...wie um gottes willen hätte JC davon wissen sollen?
Durch eine göttliche Eingebung?

Und noch einmal, an flexiblen Shadern ist eigentlich nichts auszusetzen... ganz im Gegenteil!

Hat JC auch. Oder glaubt ihr wirklich, dass der Programmiergott schlechthin, zu blöd ist, zu checken, dass ATi Karten Specularlighting lieber arithmetisch vorgesetzt bekommen, als über eine Lookup Table.Öhm... glaubst Du das wirklich?
:confused:

Razor

Mr. Lolman
2004-12-02, 14:37:07
Meinst Du nicht, dass Du hier ein paar Tatsachen verdrehst?

AFAIK, sah' die Geschichte eher so aus, dass es ATI schaffte, eine gewisse Alpha lange vor Release in die Öffentlichkeit entwischen zu lassen. Dass JC darüber nicht sonderlich glücklich war und so etwas auf jeden Fall vermeiden wollte, dürfte eigentlich jedem klar gewesen sein... insofern ATI aus diesem Fehler einfach lernen und sicher stellen sollte, das so etwas zukünftig nicht mehr passiert.
Geh das wieso und warum ist ja wurscht. ATi ist dafür ja ohnehin genug abgestraft worden. Wobei immernoch zu klären wäre, warum sich JC genau für diesen Weg entschieden hat. (Kennt du das interview von JC, wo er im nachhinein selbst die Realisierung des Specularlighting überdacht hatte?)
Auch erwähntest Du die "zu" flexiblen Shader, die für Doom3 ja Deiner Meinung nach gar nicht nötig gewesen sein sollen... ich hoffe aber Du weißt, dass die ID-Engine nicht alleine D3 vorbehalten bleibt, sondern es wie damals bei Q3 wohl viele, viele Games geben wird, die auf dieser Engine basieren. Insofern sollten sich Entwickler einer solchen Engine (die richtig viel Geld für ID einbringen wird) schon Gedanken über die Flexibilität gewisser Strukturen machen... oder siehst Du das anders?
Nönö. Aber man hätte ja D³ (ja genauso wie man es bei HL² auch hätte machen sollen) bestmöglich für beide IHVs optimieren können. Im Entwicklerpacket, hätte man ja immernoch den flexiblen Shader verwenden können.
Könnest Du das jetzt nochmal präziser formulieren?
Irgendwie ist mir der Sinn dieses Absatzes nicht eingängig...
Egal, mutwilliges PP setzen ist lt Demi ohnehin verboten. Also entweder Shadercompiler oder Handoptimierung.
Oder meinst Du jetzt ernsthaft, dass nVidia die abertausenden Shader von Hand 'ersetzen' soll?
IMO dürfte DAS richtig für einen Aufschrei in der Community sorgen...

Nicht von Hand. Der Shadercompiler ist ja (angeblich) mittlerweile ziemlich ausgereift, und den Rest lässt man durch die Rechenfarmen von NV laufen. Und das was imernoch nicht gscheit rennt, kann man ja wirklich von Hand optmieren.
Machst Du es Dir da nicht etwas zu einfach?
Eine ganze Grafikkarten-Generation wird hier nicht nur benachteiligt, sondern gar denunziert.
Im Prinzip soll hier ausgesagt werden, dass ALLE FX'en im Prinzip keine DX9-Karten sind und deswegen auf DX8(.1) reduziert werden müssen.

IMO ist es genau das, was ATI erreichen wollte!

Stimmt. Aber ATi hätte sich wohl genauso gefreut, wenn die 9600XT mit DX9 immernoch schneller als ne FX5950 wäre.
Oder wie ist es zu erklären, dass ein 'spezieller' NV3x-Pfad, der ja schon exisitierte und Valve ja soooooo viel Arbeit kostete, jetzt in der Retail-Version nicht mehr vorhanden ist? Wie ist es zu erklären, dass es ganz speziell für ATI einen sog. "Centroid-Hack" gibt, der ebenfalls pp-Hints ausschließlich für ATI-Karten - allerdings für die Vertex-Shader - setzt?

Marketing... ;(
Mir sieht es sehr danach aus, dass hier ein IHV mehr als deutlich bevorteilt und ein anderer ganz bewußt extrem benachteiligt wurde. Und wenn man Demirug glauben kann (wovon ich jetzt einfach mal ausgehe), dann geht das Ganze sogar sehr viel weiter, als den FX'en 'nur' die pp-Hints vorzuenthalten... aber vielleicht kommt dieses Thema dann ja gleich mit auf den Tisch.

Razor
Blöderweise gibts das immer irgendwo. Ich bin ja z.B. auch nicht über die EA/ATi Situation amused. Aber Spieleentwicklung kostet nunmal viel Geld. Da ists klar dass sich ein ISV freut, wenn er von nem IHV Kohle bekommt. Und dass die das nicht ganz uneigennützig machen ist ja (leider) auch klar.

Exxtreme
2004-12-02, 14:41:29
Aha... ein "hochoptimierter Humusshader".
Dass Humus für ATI arbeitet, macht die ganze Sache dann noch ominöser...
...wie um gottes willen hätte JC davon wissen sollen?
Durch eine göttliche Eingebung?

Razor
Vielleicht hätte J.C. Humus fragen sollen. :D

Mr. Lolman
2004-12-02, 14:45:37
Aha... ein "hochoptimierter Humusshader".
Ein 'Super'-Shader sozusagen...
gaynow :tongue:

Oder wie ist es zu erklären, dass selbst eingefleischten Entwicklern nicht klar war, warum dieser Shader plötzlich so hocheffizient auf ATI-Karten lief? Wie ist es zu erklären, dass diese Methode, die dort angewendet wurde, in keinem Whitepaper oder in irgend einem Guideline zu finden war?

Annahme, oder Tatsache?

Dass Humus für ATI arbeitet, macht die ganze Sache dann noch ominöser...
...wie um gottes willen hätte JC davon wissen sollen?
Durch eine göttliche Eingebung?

Nö, aber JC hat die GraKaentwicklung seit dem Anfang der 3dGrafikkarten massgeblich mitbestimmt. Wenns jemand ausser ATi selbst wissen konnte, dann er. Außerdem wars den Gurus vom 3DC auch ziemlich schnell klar wo das Problem liegt...

BTW: Humus hat auch schon bevor er bei ATi gearbeitet hat, wunderschön auf ATi zugeschnittenen GraKademos gebastelt. Glaubst du wirklich dass man erst bei nem IHV angestellt sein muss, um zu wissen, was der jew. HW schmeckt?


Und noch einmal, an flexiblen Shadern ist eigentlich nichts auszusetzen... ganz im Gegenteil!Logisch. Nur wenn man sich die (fürs Spiel selbst) nicht notwendige Flexibilität mit mieser Peformance erkauft, sollte man seine Prioritäten überdenken.
Öhm... glaubst Du das wirklich?
:confused:

Razor

Ich glaub, wenn man den ganzen Tag Engines proggt, kann man das durchaus wissen.

Aber bitte lassen wir die JC/Ati Diskussion jetzt gut sein. Wir kommen eh auf keinen grünen Punkt...

r@w
2004-12-02, 14:55:24
AFAIK bezweifelt das auch keiner, Valve hat von ATI 6mio Dollar kassiert und deshalb werden ATi Karten natürlich auch "besser" behandelt. War IMO schon vorher klar, oder hast du geglaubt das ATI freiwillig 6mio$ zahlt ohne einen nutzten daraus zu ziehen?Hey, dann sind wir uns ja mal einig!
Hätte ich ja fast nicht für möglich gehalten...
:up:

Offenbar wird dieser Fakt aber schon von einigen hier bezweifelt...
(und der Umstand, dass offenbar ATI höchstpersönlich die Shader schrieb und evtl. auch die Einstellung der Engine vornahm ;-)

Razor

aths
2004-12-02, 15:04:25
Nö, aber JC hat die GraKaentwicklung seit dem Anfang der 3dGrafikkarten massgeblich mitbestimmt. Wenns jemand ausser ATi selbst wissen konnte, dann er. Außerdem wars den Gurus vom 3DC auch ziemlich schnell klar wo das Problem liegt...

BTW: Humus hat auch schon bevor er bei ATi gearbeitet hat, wunderschön auf ATi zugeschnittenen GraKademos gebastelt. Glaubst du wirklich dass man erst bei nem IHV angestellt sein muss, um zu wissen, was der jew. HW schmeckt?Nah, so schnell klar war das auch den 3dc Foren-gurus nicht. Humus' Änderung widerspricht eigentlich jeder Regel. Dass das einen Speedup bringen kann, ist erstaunlich und nicht im vorhinein zu sehen. JCs "Generalshader" entspricht den Optimierungs-Guidelines, und hält für ATI-Karten keinen Fallstrick bereit. Dass es gerade auf der tendenziell texturierungsstarken Radeon lohnen kann, den einen Texture-Lookup durch eine mehrere Takte dauernde arithmetische Befehlsfolge zu ersetzen, weist eher auf ein seltsames Problem der HW oder des Treibers hin.

LovesuckZ
2004-12-02, 15:15:26
NV hat vorab mehrere D3 Testversionen erhalten - ATi nicht.

Beweis!

Das ging dann soweit,dass fleissig gegen den Humus Patch gewettert wurde, der jedoch nicht notwendig gewesen wäre, wenn ATi schon im vorhinein die Möglichkeit gehabt hätte, ihre Treiber auf D3 zu optmieren.

Beweise, dass sie keine Moeglichkeit gehabt haetten!

Imo kann die PP Flags in HL², die Demis Tool setzt, genauso NV mit einem Treiber hinbiegen (Ich bin mir relativ sicher, dass FC1.0 ohne Demis Tool auf FX Karten mittlerweile kaum schlechter rennt, als mit ihm)

Ist unter DX verboten und wie es scheint, haelt sich Nvidia an die Regeln.
FC1.0 lief auf FX Karten von vornerein sauber.

Also kann man imo die Optimierungsgeschichte darauf reduzieren, dass allein die Möglichkeit einer vorzeitigen GraKatreiberanpassung an das Spiel, ausschlaggebend ist für die Performance. Bei Doom3 ist NV zum Zug gekommen, bei HL² wars halt ATi...

1. In Doom3 wird keiner bevorzugt, da die Entwicklung von Doom3 offen war und id ATi nicht benachteiligt hatte. Warum auch, man hat sie sogar mit inoffiziellen treiber (1-2Monate spaeter erst verfuegbar) testen lassen.
2. NV (FX und NV40 Karten) werden von valve a) ausgebremst und B) man haelt ihnen Bildqualitaet vor, indem man sie vom laufenden r300 Pfad ausschließt (scheiß DeviceID Ausschlus).

Und bitte, belegt eure Aussagen mal mit Argumenten.

r@w
2004-12-02, 15:15:45
Vielleicht hätte J.C. Humus fragen sollen. :D:up:

reunion
2004-12-02, 15:20:50
Beweis!



Ach komm, Nv hatte einen auf Doom3 optimierten Treiber bevor dieses überhaupt verfügbar war, bei ATi dauerte das seltsamerweise noch mehrere Monate.

LovesuckZ
2004-12-02, 15:29:22
Ach komm, Nv hatte einen auf Doom3 optimierten Treiber bevor dieses überhaupt verfügbar war, bei ATi dauerte das seltsamerweise noch mehrere Monate.

Und das beweist was?
Carmack hat naemlich genau auf dieser grundlage den NV3x Pfad eingeschreddert und hat das sogar oeffentlich gesagt (naja so aehnlich).
Er selbst hat anscheinend nichts gegen Shaderreplacment, wenn ATi es nicht für noetig empfunden hat, die letzten 6-8% herauszukitzeln, dann ist es ihr Problem.
Hierraus aber eine "Carmack wollte ATi eins reinwürgen" abzuleiten, deutet darauf hin, dass der Verfasse nicht ganz neutral ist.
Und im gegensatz zu DX gibt es unter OpenGL keine so starke Kontrolleinheit.

reunion
2004-12-02, 15:38:14
Und das beweist was?


Das NV mehr zeit zum optimieren hatte.


Carmack hat naemlich genau auf dieser grundlage den NV3x Pfad eingeschreddert und hat das sogar oeffentlich gesagt (naja so aehnlich).


Carmack hat den NV3x Pfad entfernt weil dieser laut ihm keinen Vorteil mehr brachte da der Shadercompiler inzwischen schon weit genug entwickelt war.


Er selbst hat anscheinend nichts gegen Shaderreplacment, wenn ATi es nicht für noetig empfunden hat, die letzten 6-8% herauszukitzeln, dann ist es ihr Problem.

ATi hat ja durch Shaderreplacment die letzten Prozent herausgekitzelt, nur eben erst mit dem neuersten treiber, während NV das schon vor veröffentlichung des Spiel tat.


Hierraus aber eine "Carmack wollte ATi eins reinwürgen" abzuleiten, deutet darauf hin, dass der Verfasse nicht ganz neutral ist.


Seh ich nicht so.

aths
2004-12-02, 15:47:25
Carmack hat den NV3x Pfad entfernt weil dieser laut ihm keinen Vorteil mehr brachte da der Shadercompiler inzwischen schon weit genug entwickelt war.Auch der Shaderoptimizer kann die FP-Rechenwerke der GeForce FX nicht plötzlich auf die Geschwindigkeit bringen, die die FX12-Rechenwerke haben. Bei NV ist nicht nur einfaches Shaderreplacement im Spiel, sondern sogar situationsabhängiges Shaderreplacement. Auch auf Nachfrage wollte sich NV dazu leider nicht äußern.

ATI wird auch auf diesen den Trichter (mit der Situationsabhängigkeit) gekommen sein.

LovesuckZ
2004-12-02, 15:49:38
Das NV mehr zeit zum optimieren hatte.


Wodurch?
Ich moechte gerne einen beleg dafuer haben, dass ATi keine Doom3 Versionen erhielt bzw. nvidia eher!

Carmack hat den NV3x Pfad entfernt weil dieser laut ihm keinen Vorteil mehr brachte da der Shadercompiler inzwischen schon weit genug entwickelt war.

= Shaderreplacement.

ATi hat ja durch Shaderreplacment die letzten Prozent herausgekitzelt, nur eben erst mit dem neuersten treiber, während NV das schon vor veröffentlichung des Spiel tat.

Ist das wirklich so? ;)
Der bei hardocp.com verwendet treiber bei den ersten zahlen war der, welcher die Cheats schon intus hatte.
Das ATi diese erst zwei Monate spaeter veroeffentliche, ist doch deren Problem.

reunion
2004-12-02, 16:56:50
Auch der Shaderoptimizer kann die FP-Rechenwerke der GeForce FX nicht plötzlich auf die Geschwindigkeit bringen, die die FX12-Rechenwerke haben.


Sag das nicht mir, sag das J.C. :D
(offensichtlich ist die Geschwindigkeit der FP-Revhenwerke ausreichend, sonst hätte man den NV3x-Pfad wohl kaum entfernt)

Demirug
2004-12-02, 16:59:55
Sag das nicht mir, sag das J.C. :D
(offensichtlich ist die Geschwindigkeit der FP-Revhenwerke ausreichend, sonst hätte man den NV3x-Pfad wohl kaum entfernt)

Ich bin mir wie gesagt nicht sicher in wie weit dieser Pfad nun im Treiber ist.

reunion
2004-12-02, 17:06:01
Ich bin mir wie gesagt nicht sicher in wie weit dieser Pfad nun im Treiber ist.

*lol* also ist der Pfad nur vom Spiel in den Treiber gewandert? :ugly:
Warum wurde er dann von J.C. entfernt? Wohl kaum um den Programmcode zu kürzen. Oder hatte ATi wieder die Dollar ähh die hand im Spiel ;D

Demirug
2004-12-02, 17:14:35
*lol* also ist der Pfad nur vom Spiel in den Treiber gewandert? :ugly:
Warum wurde er dann von J.C. entfernt? Wohl kaum um den Programmcode zu kürzen. Oder hatte ATi wieder die Dollar ähh die hand im Spiel ;D

Wenn ich die ganzen Aussagen von J.C. dem entsprechenden nVidia mitarbeiter usw zusammenwerfen komme ich genau zu diesem Schluss.

J.C. wollte für die neuen Karten nur noch einen Pfad. Das ist aus kaufmänischer Sicht auch völlig logisch. Gegen Engines welche mit dem Shaderargument auffahren konnte D3 eigentlich nichts entgegensetzten. Darum wurde am Ende ja noch eine Option eingebaut das man bei ARB2 Karten "Shader" einsetzten kann. Ein eigener NV30/40 Pfad wäre da sehr störend gewesen. Entweder hätte er dann diese Option dort auch noch einbauen müssen und jeder Lizenznehmer hätte sich mit 2 Pfade rumschlagen müssen oder er hätte seine eigene neutrale Shadersprche entwerfen müssen. Da war das begrenzen auf einen Pfad viel billiger.

DrumDub
2004-12-02, 17:19:53
demi

hängt das vielleicht auch damit zusammen, dass nv sich mehr von cg versprochen hat, was die aktzeptanz bei den entwicklern angeht? daeüber hätte die shadersache in doom3 doch komfortabler gelöst werden können, oder?

Demirug
2004-12-02, 17:31:32
demi

hängt das vielleicht auch damit zusammen, dass nv sich mehr von cg versprochen hat, was die aktzeptanz bei den entwicklern angeht? daeüber hätte die shadersache in doom3 doch komfortabler gelöst werden können, oder?

Schwer zu sagen. Die meisten entwickeln ja unter DX und da ist HLSL einfach die bessere Wahl.

cg wäre sicherlich eine Lösung für D3 gewesen. Allerdings wäre da mit den R200 Chips eine Lücke geblieben. Zudem muss man auch noch den Entwicklungszeitraum von D3 berücksichtigen. Entscheidungen dieser Art trift man normalerweise nicht zum Ende der Entwicklung.

DrumDub
2004-12-02, 18:00:52
cg wäre sicherlich eine Lösung für D3 gewesen. Allerdings wäre da mit den R200 Chips eine Lücke geblieben. Zudem muss man auch noch den Entwicklungszeitraum von D3 berücksichtigen. Entscheidungen dieser Art trift man normalerweise nicht zum Ende der Entwicklung.

das ist natürlich nachvollziehbar. wobei cg ja schon ende 2002 veröffentlich wurde. jc hats sich also verdammt einfach gemacht bezüglich der shadersache in doom3.

ist der nv3x-pfad in den nv-treibern den auch funktionsfähig für neue spiele, die auf basis der doom3-engine veröffentlich werden und andere shader nutzen?

seahawk
2004-12-02, 18:43:26
Naja, trotzdem hätte J.C. den Dev-Support anmailen und mehr Infos anfordern können. Oder er hatte die Infos, hat sie aber nicht implementiert, wie auch immer.

Warum ? Das Orginal lief doch befiredigend auf den ATI AKrten. JC muss nicht zu sehen, dass ATI KArten auf seiner Engine besser oder zumindest gleich gut wie NVs laufen, wenn er alle ihm bekannten Möglichkeiten zur Optimierung ausnutzt.

Valve hingegen hat ja auf solche sehr bekannten Möglichkeiten verzichtet.

Mr. Lolman
2004-12-02, 18:52:11
Der bei hardocp.com verwendet treiber bei den ersten zahlen war der, welcher die Cheats schon intus hatte.
Das ATi diese erst zwei Monate spaeter veroeffentliche, ist doch deren Problem.

Jaja HardOP hat mit dem Cat 4.11 getestet :uhammer2:

Mr. Lolman
2004-12-02, 18:56:57
Warum ? Das Orginal lief doch befiredigend auf den ATI AKrten. JC muss nicht zu sehen, dass ATI KArten auf seiner Engine besser oder zumindest gleich gut wie NVs laufen, wenn er alle ihm bekannten Möglichkeiten zur Optimierung ausnutzt.

Lassen wird das. Keiner hier im Forum kann sich anmassen zu wissen, wovon JC Ahnung hat, und wovon nicht. Ich auch nicht. Wenn das bei den vorigen Posts einen anderen Eindruck erweckt hatte, dann tuts mir leid.

Auf jeden Fall ists bedenklich, dass es immer wieder Spiele gibt, mit denen IHVs Benchmarksschlachten veranstalten, während der Konkurrent, 1-2 Treiberrevisionen braucht, bis er den Großteil der fehlenden Leistung wieder gut gemacht hat.

Vergleichbar ists sowieso nicht. Denn Ati rechnet nur FP24 während man bei NV sowohl FP32 als auch FP16 bedenken muß. Also ist eigentlich ohnehin jeder Vergleich an den Haaren herbeigezogen...


Valve hingegen hat ja auf solche sehr bekannten Möglichkeiten verzichtet.

/edit: Wenn sies nicht getan hätten, wär wohl die Summe unterm Scheck wohl kaum so groß ausgefallen. Spieleentwicklungen wollen auch finanziert werden, auch wenn im Falle Valve so ein Drecksnebenprodukt wie Steam dabei herausgeschaut hat. Ich wart nur bis der erste schreit, dass ATi Schuld an dieser ganzen Steamsh1cerei ist.

LovesuckZ
2004-12-02, 19:04:13
Jaja HardOP hat mit dem Cat 4.11 getestet :uhammer2:

Wer so unhoeflich ist:
Erst informieren (http://www.computerbase.de/news/treiber/grafikkarten/ati/2004/august/catalyst_49_beta_doom_3-hotfix/) dann schreiben.
Und dieser Betatreiber wurde bei hardocp.com verwendet!

Mr. Lolman
2004-12-02, 19:18:42
Wer so unhoeflich ist:
Erst informieren (http://www.computerbase.de/news/treiber/grafikkarten/ati/2004/august/catalyst_49_beta_doom_3-hotfix/) dann schreiben.
Und dieser Betatreiber wurde bei hardocp.com verwendet!

Der Treiber machte noch nicht den Humuspatch überflüssig. Das war AFAIK erst mit dem 4.11b der Fall.

LovesuckZ
2004-12-02, 20:39:49
Der Treiber machte noch nicht den Humuspatch überflüssig. Das war AFAIK erst mit dem 4.11b der Fall.

Der Humuscheat beseitigt auch nur ein treiberbug (oder wo blieb die Leistung ohne App. AF?)...
Aber da die Diskussions sowieso auf Luftschloesser gebaut ist, denke ich mal, sollten wir sie beenden, da argumentiv nicht mehr viel kommen werde.
Gell ;)

Mr. Lolman
2004-12-02, 21:02:18
Der Humuscheat beseitigt auch nur ein treiberbug (oder wo blieb die Leistung ohne App. AF?)...



Enteder versteh ich dich falsch, oder du verdrehst da etwas... Denn erst mit dem Humus"cheat" war es möglich dass hohe triAF Stufen kaum ohne Performanceverlust machbar waren. (was ja eigentlich auch nicht der Normalfall ist) Der Treiberbug äusserte sich insofern, dass mit das AF mit D³ HQ Einstellung nur bilinear war. Du wirst jetzt hoffentlich auch nicht leugnen wollen, dass mit dem Humuszeug, auch ohne AF, tw. nette fps boosts drinnen waren, was wiederum gegen deine "nur Treiberbug"geschichte spricht.

LovesuckZ
2004-12-02, 21:20:21
Denn erst mit dem Humus"cheat" war es möglich dass hohe triAF Stufen kaum ohne Performanceverlust machbar waren. (was ja eigentlich auch nicht der Normalfall ist).

Er loeste nur ein treiberproblem.
Mit CP-AF sah es deutlich anders aus, siehe auch unten:

Du wirst jetzt hoffentlich auch nicht leugnen wollen, dass mit dem Humuszeug, auch ohne AF, tw. nette fps boosts drinnen waren, was wiederum gegen deine "nur Treiberbug"geschichte spricht.

Doch das tue ich, da ich 1,3fps max. Settings (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/august/neues_doom_3-hotfix_ati-karten/) nicht als "nette[n] FPS boost" ansehen kann.
nd wie man erkennt, bringt der CAT4.9 (dem Hardocp.com vor dem Launch von Doom3 verwendet hatte!) deutlich mehr.
So, damit ist dein gebashe gegen id bzw. carmack einfach mal entkraeftet und wir lassen das Thema, da keine these auch nur ansatzweisend argumentativ dargestellt wurde.

Mr. Lolman
2004-12-02, 21:25:46
Er loeste nur ein treiberproblem.
Mit CP-AF sah es deutlich anders aus, siehe auch unten:


Gut, lieber Sucki, dann einigen wir uns darauf, dass ATi einfach zu blöd ist, rechtzeitig vernünftige Treiber rauszubringen, obwohl sie sicher genug Möglichkeiten gehabt hätten, da ja JC überhaupt keine Konsequenzen aus dem D³ Klau ziehen wollte...

(Ich hätt jetzt noch von min und max fps und geringeren Schwankungen anfangen können, aber so ne Diskussion kann ja ohnehin nur mit Gebashe enden)

Demirug
2004-12-02, 21:28:32
Gut, lieber Sucki, dann einigen wir uns darauf, dass ATi einfach zu blöd ist, rechtzeitig vernünftige Treiber rauszubringen, obwohl sie sicher genug Möglichkeiten gehabt hätten, da ja JC überhaupt keine Konsequenzen aus dem D³ Klau ziehen wollte...

(Ich hätt jetzt noch von min und max fps und geringeren Schwankungen anfangen können, aber so ne Diskussion kann ja ohnehin nur mit Gebashe enden)

Den AF Bug hätten sie wirklich schon längst beseitigen können. Frag mal Zecki. ;)

Mr. Lolman
2004-12-02, 21:31:07
Den AF Bug hätten sie wirklich schon längst beseitigen können. Frag mal Zecki. ;)

IMO hätten sies wohl auch gemacht, wenn sie gewußt hätten, dass D³ so sh1ce aussehen würde.

Aber du hast recht. Dank JC gibts jetzt nen Bug weniger in den Ati Treibern...

LovesuckZ
2004-12-02, 21:31:40
Gut, lieber Sucki, dann einigen wir uns darauf, dass ATi einfach zu blöd ist, rechtzeitig vernünftige Treiber rauszubringen, obwohl sie sicher genug Möglichkeiten gehabt hätten, da ja JC keine Konsequenzen aus dem D³ Klau ziehen wollte...

Entkraefte doch einfach mal meine Argumente. Einmal bitte, nur einmal*

(Ich hätt jetzt noch von min und max fps und geringeren Schwankungen anfangen können, aber so ne diskussion kann ja ohnehin nur mit gebashe enden)

Aha, auch beim App. AF ;)

* ich habe da was falsch verstanden: ATi hatte einen App. AF bug, der nur bilinear erzwang. Mit dem Humuscheat wurde dann beim CP AF nur eine App. AF aehnliche Filterung vorgenommen bzw. "erzwungen".
Mit App. AF bringt der Humustweak gerade mal irgendwas um 8% (siehe CB.de).
Humus hatte einfach nur Glueck gehabt, dass der OpenGL Praktikant zum damaligen zeitpunkt eine Lusche war...

Weißt du, du versuchst hier Carmack etwas reinzuwürgen, was ins keinster Weise stimmt. Will man dann mal wirkliche Beweise sehen, wirst du ausfallend und aggressiv.
Schade, dass man das böse F - Wort nicht mehr sagen darf, aber es entspraeche jetzt der vollsten Wahrheit...

Mr. Lolman
2004-12-02, 21:48:13
* ich habe da was falsch verstanden: ATi hatte einen App. AF bug, der nur bilinear erzwang. Mit dem Humuscheat wurde dann beim CP AF nur eine App. AF aehnliche Filterung vorgenommen bzw. "erzwungen".

Anscheinend hast du definitiv was falsch verstanden. Der Humus"cheat" (cheat ist das nun wirklich keiner) hat beim CP AF keine App AF ähnliche Filtering vorgenommen, (wie soll denn das bitte funktionieren? Ich bin gespannt auf ne technische Erklärung), sondern ließ das specularlighting über math,mul berechnen, weil ATis ein kleines Problem mit über dependent Texturreads realisierte LUTs hat. Die freigewordene Performance konnte man wunderbar in CP TriAF investieren, um somit das AF Problem zu umgehen.

Mit App. AF bringt der Humustweak (genau tweak triffts besser)gerade mal irgendwas um 8% (siehe CB.de).

Aber die 8% bringt er, was deiner ausschliesslichen Treiberbuggeschichte auch widerspricht. Auch wirst du nicht leugnen wollen, dass die ATis trotz der schnell veröffentlichten Betatreiber enorm abgeschlagen* war, während die
es jetzt schon viel besser aussieht (http://www.3dcenter.org/artikel/ati_radeon_x850/index5.php). Glaubst du, dass ATi über 2 Jahre gebraucht hat, um ihre Treiber auf D³ zu optimieren, oder könnts tatsächlich daran liegen, dass ATi keine Testversion bekam?


Weißt du, du versuchst hier Carmack etwas reinzuwürgen, was ins keinster Weise stimmt. Will man dann mal wirkliche Beweise sehen, wirst du ausfallend und aggressiv.
Schade, dass man das böse F - Wort nicht mehr sagen darf, aber es entspraeche jetzt der vollsten Wahrheit...

Und du legst ne so häßlich impertinente Art an den Tag dass ich dir lieber nicht mal im RL begegnen würde...


* ich wart jetzt nicht, bisHardOCP vll. wiedermal funktioniert. jeder kennt die Benches.

LovesuckZ
2004-12-02, 22:17:46
Anscheinend hast du definitiv was falsch verstanden. Der Humus"cheat" (cheat ist das nun wirklich keiner) hat beim CP AF keine App AF ähnliche Filtering vorgenommen, (wie soll denn das bitte funktionieren? Ich bin gespannt auf ne technische Erklärung),

Hoffentlich darf ich Quasar mal zitieren:

Die Modifikation, die Humus an einem Doom3-Shader vorgenommen hat, brachte brachial Leistung [...] weil offenbar viele Leute den anisotropen Filter über das Control Panel erzwungen hatten.
Doom3 ist hier aber ein wenig schlauer als die meisten Treiberprogrammierer und so wurde bei Treiber-AF auch der dependant read aus der LookUp-Table/Texture voll anisotrop gefilert. Und das für jedes beleuchtete Pixel einmal pro Lichtquelle.
[...]
Ergo ist einleuchtend, daß der Verzicht auf wahnwitzig viele verschwendete anisotrop gefilterte Textursamples und das Inkaufnehmen von ein paar zusätzlichen Rechenanweisungen im Pixelshader deutliche Performancevorteile verspricht - aber eben nur, wenn man zuvor jegliche Optimierungsrichtlinie in den Wind schlug. ;)

CB.de -> Post #100 (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/august/neues_doom_3-hotfix_ati-karten/)
Durch Humus modifkation werden eben nicht mehr alle "dependant read aus der LookUp-Table/Texture voll anisotrop gefilert".

Aber die 8% bringt er, was deiner ausschliesslichen Treiberbuggeschichte auch widerspricht.

Zitat, dass ich ein leistungszuwachs durch den humuscheat als "nicht gegeben" ansehen würde.
Argumente, mein lieber, Argumente.

Auch wirst du nicht leugnen wollen, dass die ATis trotz der schnell veröffentlichten Betatreiber enorm abgeschlagen* war, während die
es jetzt schon viel besser aussieht (http://www.3dcenter.org/artikel/ati_radeon_x850/index5.php).

Ich weiß nicht, einen 58% Rueckstand zwischen Nvidia und ATi siehst du als "jetzt schon viel besser" an?
Nunja, ich nicht.

Glaubst du, dass ATi über 2 Jahre gebraucht hat, um ihre Treiber auf D³ zu optimieren, oder könnts tatsächlich daran liegen, dass ATi keine Testversion bekam?

Was ich glaube, ich vollkommen irrelevant.
das einzige was zaehlt, ist das, was ich belegen kann. Und im gegensatz zu dir ist das doch eine ganze Menge.
Oder glaubst du heute noch an die Welt als Scheibe? Immerhin haben dies frueher auch leute getan und das trotz Gegenbeweis :ugly:

Und du legst ne so häßlich impertinente Art an den Tag dass ich dir lieber nicht mal im RL begegnen würde...

Aggressiv und ausfallend.

Crushinator
2004-12-02, 22:56:11
(...) Weißt du, du versuchst hier Carmack etwas reinzuwürgen, was ins keinster Weise stimmt. Will man dann mal wirkliche Beweise sehen, wirst du ausfallend und aggressiv. (...) Verstehe ich das jetzt richtig, daß Du beweisen kannst, daß ATi die selben Möglichkeiten wie nV bekam, das Spiel auf Kompatibilität bzw. Performance zu testen bzw. daß ATi überhaupt Versionen zur Sicherstellung der Kompatibilität bekam?

[€dit]
Ist das Wort mit C jetzt wieder in Mode gekommen? Fällt erzwungenes _pp ohne Einverständnis des Entwicklers auch unter die Rubrik? Darf ich das ab sofort mit _pp cheat bezeichnen? :rolleyes:

Mr. Lolman
2004-12-02, 23:16:07
Lovesuckz: Es ist absolut sinnlos mit dir zu diskutieren. Denn du bist nicht nur krampfhaft rechthaberisch, sondern versuchst nur unnötig zu proivizieren.

Argumente argumente argumente. Schreib dir dein neues Lieblingswort doch in die Sig.





p.s: Sag du mir was Sache ist. Warum Ati am Anfang so langsam war und jetzt doch ordentlich aufgeholt hat (die 58% Rückstand hast du dir ja auch wieder schön rasugepickt) Ich merk nämlich nur, dass du durch irrwitzige Verdrehereien nur versucht mich zu entkräften, ohne dass du deinen eigenen Standpunkt klarstellst

*esbereudasichmichüberhauptaufsoeineidiotischediskussioneingelassenhab*

Quasar
2004-12-02, 23:20:31
[€dit]
Ist das Wort mit C jetzt wieder in Mode gekommen? Fällt erzwungendes _pp ohne Einverständnis des Entwicklers auch in die Rubrik? Darf ich das ab sofort mit _pp cheat bezeichnen? :rolleyes:
Von mir aus gern! :up:


edit:
@Lolli:
Wenn man diskutieren will, sollte man schon ein paar Argumente haben, nicht nur Vermutungen.

Mr. Lolman
2004-12-02, 23:28:56
Von mir aus gern! :up:


edit:
@Lolli:
Wenn man diskutieren will, sollte man schon ein paar Argumente haben, nicht nur Vermutungen.

Was wollt ihr für Argumente? Muß ich jetzt das Interview suchen, wo JC meinte, dass er zwar nicht den Support für ATis beschränken will, aber dass er sehr wohl seine Konsequenzen daraus zieht? Ich fürchte das find ich nicht mehr. Aber den Link zum andern Interview post ich gleich, (den razor wollte, ich aber dann vergessen hab, moment)

BTW: Was denkst du? Dass es ATi trotz verfügbarer D³ Testversionen nicht rechtzeitig geschafft hat auch einen vernünftige Performance zu gewährleisten?

/edit:
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2215638&postcount=192

Mr. Lolman
2004-12-02, 23:43:27
No, this was not leaked on purpose.

Yes, we are upset about it, and it will have some impact on how we deal with some companies in the future, but nothing drastic is going to change in terms of what support is going to be available.

Making any judgements from a snapshot intended for a non-interactive demo is ill advised.

John Carmack

http://slashdot.org/comments.pl?sid=44077&cid=4591655

IMO der Beweis dafür, dass JC keinen Bock mehr hatte, Ati mit weiteren Testversionen zu versorgen. (was mich auch garnicht wundert)

Coda
2004-12-03, 09:40:23
Hatte er dann im Gegensatz zu Valve nicht einen berechtigten Grund ;)

Gast
2004-12-03, 10:11:46
http://slashdot.org/comments.pl?sid=44077&cid=4591655

IMO der Beweis dafür, dass JC keinen Bock mehr hatte, Ati mit weiteren Testversionen zu versorgen. (was mich auch garnicht wundert)

Leider ist das weder ein Beweis noch ist "in the future" spezifiziert, kann sich also auch auf JCs nextgen engine beziehen.

r@w
2004-12-03, 10:45:31
http://slashdot.org/comments.pl?sid=44077&cid=4591655

IMO der Beweis dafür, dass JC keinen Bock mehr hatte, Ati mit weiteren Testversionen zu versorgen. (was mich auch garnicht wundert)Ja und?
Jeder vernünftige ISV würde das so handhaben.
Insofern hat ATI einfach Pech gehabt und musste für die eigene Dummheit bzw. Nachlässigkeit bezahlen. So mussten die eigenen Shader-Replacements eben nach Erscheinen der finalen Version einbaut werden.

Könntet Ihr jetzt bitte dieses OT-gequatsche beenden?
Oder ist hier immer noch jemand der Meinung, dass man das Geschehen um D3 mit dem von HL2 vergleichen kann?

Sorry, aber irgendwie...

Übrigens schön für Dich, dass Du es mal wieder geschafft hast, von der eigentlichen Diskussion abzulenken.
Hoffe, dass es ab hier wieder möglich ist, den ursprünglichen Diskussionsfaden aufzunehmen...

Danke.

Razor

Gast
2004-12-03, 10:52:37
http://slashdot.org/comments.pl?sid=44077&cid=4591655

IMO der Beweis dafür, dass JC keinen Bock mehr hatte, Ati mit weiteren Testversionen zu versorgen. (was mich auch garnicht wundert)

Daran ist aber ATI schuld nur ATI und ATI ganz alleine.
Was VALVE gemacht hat ist und bleibt eine Frechheit - BASTA.
Diskussion vollkommen überflüssig weils nicht zur Diskussion steht.

del_4901
2004-12-03, 10:55:36
http://slashdot.org/comments.pl?sid=44077&cid=4591655

IMO der Beweis dafür, dass JC keinen Bock mehr hatte, Ati mit weiteren Testversionen zu versorgen. (was mich auch garnicht wundert)

Das sagt genau das Gegenteil aus! Wenn english nicht so dein Ding ist, dann nimm mal ein Wöterbuch raus und übersetzt das nochmal.

r@w
2004-12-03, 10:56:38
Daran ist aber ATI schuld nur ATI und ATI ganz alleine.
Was VALVE gemacht hat ist und bleibt eine Frechheit - BASTA.
Diskussion vollkommen überflüssig weils nicht zur Diskussion steht.Danke.
Hoffentlich können wir nun das eigentliche Thema aufnehmen...

Razor

Mr. Lolman
2004-12-03, 11:24:27
Das sagt genau das Gegenteil aus! Wenn english nicht so dein Ding ist, dann nimm mal ein Wöterbuch raus und übersetzt das nochmal.

Leider gibts keine Wörterbücher die den Kontext mitübersetzen. Ich hab das so verstanden:

"Ja wir sind empört darüber, und es wird eine Auswirkung darauf haben, wie wir mit manchen Firmen in Zukunft umgehen, auch wenns sich der Support nicht drastisch verändern wird"


Daran ist aber ATI schuld nur ATI und ATI ganz alleine.


Sag ich ja. Und das HL² nunml besser auf ATI rennt ist auch ATis Schuld. Die haben halt ordentlich Kohle dafür abgedrückt. (Man könnte auch sagen, dass es NVs Schuld ist, weil sie nicht genug Kohle abgedrückt haben)

Komisch jetzt wo ich Argumente bring kommt ihr mir der OT Keule, und vorher hackt man 3 Seiten lang herum, weil man nich einsehen will, dass es das wahrscheinlichste ist, dass ATi keine D³ Testversionen bekam, weswegen D³ anfangs auch sh1ce lief.

Ich hab leider von den ewigen Zweiflern (grad denen die nach Argumente geplärrt haben) keine plausible Theorie gehört, warum ATi trotz der langen Entwicklungsphase zu blöd gewesen sein soll, rechtzeitig vernünftige Treiber rauszubringen.


Ich hatte das D³ Beispiel nur gebracht um zu zeigen, dass ein IHV mittels Treiber durchaus nette Performancezuwäche bringen kann. V.A. dann wenn das Spiel nicht gerade passend auf den jew. IHV zugeschnitten ist.
D.h. liebe NV User: Ja ich glaube, dass NV das mit ihrem Treiber wieder gut machen kann, was Valve verbockt hat.

Freut euch doch darüber. Warum ich deswegen ein Fanboy sein soll, kann mir wohl auch niemand erklären.

LovesuckZ
2004-12-03, 13:03:49
Lovesuckz: Es ist absolut sinnlos mit dir zu diskutieren. Denn du bist nicht nur krampfhaft rechthaberisch, sondern versuchst nur unnötig zu proivizieren.

Wer ohne argumente eine Diskussion führt, proviziert erst recht.

Argumente argumente argumente. Schreib dir dein neues Lieblingswort doch in die Sig.

Zu einer Diskussion gehoeren Argumente. Wenn du nicht in der Lage bist, deine behauptungen auch nur im entferntesten zu staerken, wie sollte man dann mit dir diskutieren?

p.s: Sag du mir was Sache ist. Warum Ati am Anfang so langsam war und jetzt doch ordentlich aufgeholt hat

Steht alles in meinen Postings, musst nur mal darauf eingehen ;)

(die 58% Rückstand hast du dir ja auch wieder schön rasugepickt)

Das ist der Abstand, den die X800pro zur GT im 3Dcenter.de Test hat und somit das wirkliche Leistungbild offenbart.
Oder sollte ich eine Paperkarte mit einer kaum verfuegbarwen vergleichen? dann hast du natuerlich recht, dass die 35% geringer getaktete Karte noch ca. 10% schneller.
Superleistung von ATi :up:

Ich merk nämlich nur, dass du durch irrwitzige Verdrehereien nur versucht mich zu entkräften, ohne dass du deinen eigenen Standpunkt klarstellst


Ich habe einen eigenen Standpunkt, der sollte hervorgegangen sein.
Da du meine Entkraeftigungen als "irrwitzige Verdrehereien" abstempelst, sollte es kein Problem sein Gegenargumente zu bringen (wo ist der Beweis, dass der Humustweak auch mit App. AF deutlich an Leistung gewinne?).


Verstehe ich das jetzt richtig, daß Du beweisen kannst, daß ATi die selben Möglichkeiten wie nV bekam, das Spiel auf Kompatibilität bzw. Performance zu testen bzw. daß ATi überhaupt Versionen zur Sicherstellung der Kompatibilität bekam?

Behaupte ich, dass ATi benachteiligt wurde?
These - Argument - Beispiel.

Crushinator
2004-12-03, 13:07:07
(...) Behaupte ich, dass ATi benachteiligt wurde?
These - Argument - Beispiel. Du behauptest, daß ATi nicht benachteiligt wurde, und scheinst Bewiese dafür zu haben.

LovesuckZ
2004-12-03, 13:18:52
Du behauptest, daß ATi nicht benachteiligt wurde, und scheinst Bewiese dafür zu haben.

Nope, ich habe sowas nicht behauptet, sondern stelle nur dar, dass es ATi erlaubt wurde, zum ersten Doom3 Vergleich bei hardocp.com einen Betatreiber zu vewenden, der dann als CAT4.9 zwei monate spaeter mit WHQL veroeffentlicht wurde.
Alleine aus dieser Tatsache heraus, muss ATi eine Vorversion von Doom3 mit endgueltigen Code erhalten haben.

Und hier mein Zitat, auf reunion's Aeusserung:

Der bei hardocp.com verwendet treiber bei den ersten zahlen war der, welcher die Cheats schon intus hatte.
Das ATi diese erst zwei Monate spaeter veroeffentliche, ist doch deren Problem.

Doch, den Beweis für (reunion) "Das NV mehr zeit zum optimieren hatte" oder (lolman) "NV hat vorab mehrere D3 Testversionen erhalten - ATi nicht" sind die Schreiber bsi jetzt schuldig geblieben.
Nun werter Moderator, vielleicht kannst du den beweis erbringen.

Jesus
2004-12-03, 14:03:45
Und hier mein Zitat, auf reunion's Aeusserung:

Der bei hardocp.com verwendet treiber bei den ersten zahlen war der, welcher die Cheats schon intus hatte.
Das ATi diese erst zwei Monate spaeter veroeffentliche, ist doch deren Problem.


Eh, afaik kamen die "Cheats" nicht mit dem 4.9b sondern erst mit dem 4.10er ;)

Der Humus/Demi Tweak entstand erst allmählich NACH diesem Test, davon war nix im Treiber. Das konnte man in den entsprechenden Foren (B3d, hier) schön mit angucken (immer wieder geänderte Versionen vom Humus tweak etc. )

LovesuckZ
2004-12-03, 14:22:29
Eh, afaik kamen die "Cheats" nicht mit dem 4.9b sondern erst mit dem 4.10er ;)

Schon die Veröffentlichung einer Beta-Version des Catalyst 4.9 brachte für die Besitzer von ATi-Grafikkarten einen ersehnten Performanceschub in Doom 3. (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/august/neues_doom_3-hotfix_ati-karten/)

Jesus
2004-12-03, 14:24:37
Schon die Veröffentlichung einer Beta-Version des Catalyst 4.9 brachte für die Besitzer von ATi-Grafikkarten einen ersehnten Performanceschub in Doom 3. (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/august/neues_doom_3-hotfix_ati-karten/)

Danke, damit hast du nochmal bestätigt was ich geschrieben hab ;)
rofl :biggrin:

sorry für OT

Crushinator
2004-12-03, 14:28:30
(...) Doch, den Beweis für (reunion) "Das NV mehr zeit zum optimieren hatte" oder (lolman) "NV hat vorab mehrere D3 Testversionen erhalten - ATi nicht" sind die Schreiber bsi jetzt schuldig geblieben. Nun werter Moderator, vielleicht kannst du den beweis erbringen. Soll ich dafür wirklich einen Beweis (http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-10.html#doom_iii_special_preview) erbringen, daß nVIDIA seit Beginn an in die Entwicklung von Doom3 eingebunden war und auch zuletzt (http://3dgpu.com/archives/2004/08/18/nvidia-on-doom-3-and-ultrashadow-ii/) zumindest Mehr Testversionen als ATi bekommen hat? Ich finde, es sollte aufgrund der traditionell sehr engen Beziehungen von id und nVIDIA mehr als nur ersichtlich (http://www.golem.de/0404/30816.html) sein.

Jesus
2004-12-03, 14:40:26
Soll ich dafür wirklich einen Beweis (http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-10.html#doom_iii_special_preview) erbringen, daß nVIDIA seit Beginn an in die Entwicklung von Doom3 eingebunden war und auch zuletzt (http://3dgpu.com/archives/2004/08/18/nvidia-on-doom-3-and-ultrashadow-ii/) zumindest Mehr Testversionen als ATi bekommen hat? Ich finde, es sollte aufgrund der traditionell sehr engen Beziehungen von id und nVIDIA mehr als nur ersichtlich (http://www.golem.de/0404/30816.html) sein.

lol Zunächst haben hier die ATI Karten die Nase vorne. Erst in 1600x1200 gewinnt die FX 5900 Ultra. Laut NVIDIA liegt hier aber noch ein Treiberproblem vor.

mangelndes Shaderreplacement ? ;)

LovesuckZ
2004-12-03, 14:44:42
Soll ich dafür wirklich einen Beweis (http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-10.html#doom_iii_special_preview) erbringen, daß nVIDIA seit Beginn an in die Entwicklung von Doom3 eingebunden war und auch zuletzt (http://3dgpu.com/archives/2004/08/18/nvidia-on-doom-3-and-ultrashadow-ii/) zumindest Mehr Testversionen als ATi bekommen hat? Ich finde, es sollte aufgrund der traditionell sehr engen Beziehungen von id und nVIDIA mehr als nur ersichtlich (http://www.golem.de/0404/30816.html) sein.

Und wo ist der Beweis, dass Nvidia mehr bzw. ATi keine Testversion von id erhalten haette?

LovesuckZ
2004-12-03, 14:48:16
Danke, damit hast du nochmal bestätigt was ich geschrieben hab

Catalyst 4.9 bringt Support für Doom 3 (http://www.computerbase.de/news/treiber/grafikkarten/ati/2004/august/catalyst_49_support_doom_3/)

Jesus
2004-12-03, 15:07:10
Catalyst 4.9 bringt Support für Doom 3 (http://www.computerbase.de/news/treiber/grafikkarten/ati/2004/august/catalyst_49_support_doom_3/)

jo super, wo steht da was von Cheat ? Es gab nur einen "cheat" und dass ist der Humus Tweak, den ATI so (ähnlich ) im Cat 4.10 verbaut hat, und nicht im 4.9er (der 4.9b hat u.a. Schattenbugs in Panzers, Thief 3 und Doom 3 gefixt)

Crushinator
2004-12-03, 15:38:58
Und wo ist der Beweis, dass Nvidia mehr bzw. ATi keine Testversion von id erhalten haette? Den Beweis kann Dir nur ATi liefern ohne in Schwierigkeiten zu kommen. Andersum gefragt: Kannst Du denn gegenteiliges beweisen? Wenn nicht, komme ich Kraft meines Amtes zu folgendem Fazit: Auch Du hast keinen einzigen Beweis für Deine Behauptungen und wir spammen gerade genau so diesen Thread zu, wie Du und Andere es gestern fast den ganzen Tag taten. Dieses Verhalten möchte Keiner tolerieren und wir hören jetzt schön auf damit!

LovesuckZ
2004-12-03, 16:08:24
Andersum gefragt: Kannst Du denn gegenteiliges beweisen? Wenn nicht, komme ich Kraft meines Amtes zu folgendem Fazit: Auch Du hast keinen einzige[...]

Behaupte ich, dass ATi gleichberechtiger Partner wie Nvidia waere?
Ein Beleg für diese These waere angebracht.
Du kannst die Antwort gerne in einen der anderen unzaehligen Threads zu diesem Thema posten, denn darauf bin ich echt gespannt.

Pirx
2004-12-03, 19:51:24
Du schreibst doch immer nur hätte und wäre, aber nie eine konkrete Aussage.
Was meinst du mit Paperlaunchkarte?

edit:
...
1. In Doom3 wird keiner bevorzugt, da die Entwicklung von Doom3 offen war und id ATi nicht benachteiligt hatte. Warum auch, man hat sie sogar mit inoffiziellen treiber (1-2Monate spaeter erst verfuegbar) testen lassen.
...
Und bitte, belegt eure Aussagen mal mit Argumenten.
:conf2:

Tesseract
2004-12-03, 19:54:26
Andersum gefragt: Kannst Du denn gegenteiliges beweisen?

kleine bemerkung am rande:
die beweislast liegt immer auf der seite des behauptenden, nie auf der des überprüfenden.

DrumDub
2004-12-03, 20:25:47
kleine bemerkung am rande:
die beweislast liegt immer auf der seite des behauptenden, nie auf der des überprüfenden.

das problem ist nur, das beide seiten etwas behaupten ohne es beweisen zu können. es gibt halt nur indizien, die interprtiert werden, ohne dabei eindeutig zu sein.

Mr. Lolman
2004-12-03, 20:34:21
kleine bemerkung am rande:
die beweislast liegt immer auf der seite des behauptenden, nie auf der des überprüfenden.

Das kann man auch drehen und wenden wie man will.

Außerdem gibts keine wirklichen Beweise. Die Hälfte der 3DC Artikel hätten wahrscheinlich nicht geschrieben werden dürfen, wenn man jede These auch beweisen hätte müssen.

Außerdem gibts genug Indizien:

Die Doom3 Entwicklung hat 4 Jahre gedauert. Nach 2 Jahren wars eigentlich das Grundgerüst der Engine sogut wie fertig (konnte jeder selbst an der Alpha beobachten) Damals kamen iirc (bash0rt mich nicht wenns nicht stimmt) auch Treiber raus, die u.A auch der Alpha einen kleinen Performanceschub brachten.

~2 Jahre später veröffentlicht id Software endlich Doom. ATi braucht dann noch weitere ~2 Monate bis die Treiber optimiert genug waren, um neben NV nicht völlig abzukacken. NVs Treiber brachten jedoch keine großen Sprünge mehr.

Gesetzt den Fall dass Ati wirklich auch regelmässig mit D³ Versionen versorgt wurde, müsste demnach ATi Treiberoptimierung aufwändiger sein, als Content Design? Denn die Engine war ja eigentlich schon lang fertig. Und dem Treiber ist der Content ja (wie schon von Demi bemängelt) wurscht.

Gut das sind jetzt auch alles nur Thesen, und hier im 3DC hat wohl niemand einen guten Kontakt zu ATi, ich habe aber schon mittels JC Statement über den D³ Alpha Leak versucht meine These zu untermauern.



Jetzt wärs mal nett zu hören, warum ihr denkt, dass es nicht so war. (Gerne auch ohne Beweise, ich würd nur mal gerne eure Thesen hören)

IVN
2004-12-03, 21:52:26
Das kann man auch drehen und wenden wie man will.

Außerdem gibts keine wirklichen Beweise. Die Hälfte der 3DC Artikel hätten wahrscheinlich nicht geschrieben werden dürfen, wenn man jede These auch beweisen hätte müssen.

Außerdem gibts genug Indizien:

Die Doom3 Entwicklung hat 4 Jahre gedauert. Nach 2 Jahren wars eigentlich das Grundgerüst der Engine sogut wie fertig (konnte jeder selbst an der Alpha beobachten) Damals kamen iirc (bash0rt mich nicht wenns nicht stimmt) auch Treiber raus, die u.A auch der Alpha einen kleinen Performanceschub brachten.

~2 Jahre später veröffentlicht id Software endlich Doom. ATi braucht dann noch weitere ~2 Monate bis die Treiber optimiert genug waren, um neben NV nicht völlig abzukacken. NVs Treiber brachten jedoch keine großen Sprünge mehr.

Gesetzt den Fall dass Ati wirklich auch regelmässig mit D³ Versionen versorgt wurde, müsste demnach ATi Treiberoptimierung aufwändiger sein, als Content Design? Denn die Engine war ja eigentlich schon lang fertig. Und dem Treiber ist der Content ja (wie schon von Demi bemängelt) wurscht.

Gut das sind jetzt auch alles nur Thesen, und hier im 3DC hat wohl niemand einen guten Kontakt zu ATi, ich habe aber schon mittels JC Statement über den D³ Alpha Leak versucht meine These zu untermauern.



Jetzt wärs mal nett zu hören, warum ihr denkt, dass es nicht so war. (Gerne auch ohne Beweise, ich würd nur mal gerne eure Thesen hören)


I think they optimized their driver for doom 3 long time before it(doom3 )was released.But they oversaw some bugs in their OGL driver part what made them really slow in those benchkmarks at the start.Maybe that is what they fixed in those drivers 2 months later.And nobody can say that ATI OGL driver was perfect in the past.They really had much work to do.Just remember all those games (OGL) that run slower on radeons.


P.S. It doesn't metters,thay still can't reach comparable nv cards in terms of performance,after the shader replacement they are still laging behind.
NV's arhitecture is just better in handling volume shadows,and z-bufer subsystem is more efficient.It has a lower peak performance,but it doesn't lose much when youn render back to front,with z fail.ATI's H z just dies whan you do that.ATI didn't make any changes when they designed r420 on their z subsystem,so what can you expect?JC didn't make the circumstances to ''hard'' for ATI.But valve did that by forcing fx cards run DX 8.1 path.And when they gave up from that highly optimized mix path.

This post should not be understood as spam!!!!

Jesus
2004-12-03, 22:08:36
P.S. It doesn't metters,thay still can't reach comparable nv cards in terms of performance,after the shader replacement they are still laging behind.
NV's arhitecture is just better in handling volume shadows,and z-bufer subsystem is more efficient.It has a lower peak performance,but it doesn't lose much when youn render back to front,with z fail.ATI's H z just dies whan you do that.ATI didn't make any changes when they designed r420 on their z subsystem,so what can you expect?JC didn't make the circumstances to ''hard'' for ATI.But valve did that by forcing fx cards run DX 8.1 path.And when they gave up from that highly optimized mix path.

This post should not be understood as spam!!!!

Der unterschied ist das NV situationsbedingt Shader replacet (und mehr). Was Schatten etc. betrifft, so gibt es keinen Beleg dafür dass es überhaupt was bringt. Das einzige was jemals gemessen wurde war afaik Tombmans NV40 der mit deaktivierten Schatten ungefähr gleich viel Performance gewann wie sein R420 (hat natürlich niemand geglaubt... aber es selbst zu nachtesten darauf kommt auch keiner ;) Stattdessen beruft man sich einfach auf die überlegene Technologie)

Die Unterschiede bei D3 sind mittlerweile sogar geringer als bei anderen OGL Games, wo ATI deutlich weiter zurückliegt, von daher können die Schatten gar nicht so schwer wiegen... :rolleyes:

LovesuckZ
2004-12-04, 10:14:34
Du schreibst doch immer nur hätte und wäre, aber nie eine konkrete Aussage.

keine "konkrete Aussagen"?
Liest du auch meine Postings?

Der Humuscheat beseitigt auch nur ein treiberbug (oder wo blieb die Leistung ohne App. AF?)...

Durch Humus modifkation werden eben nicht mehr alle "dependant read aus der LookUp-Table/Texture voll anisotrop gefilert".

etc.

beide Aussagen habe ich im Indikativ verfasst, ich benutze also keine Moeglichkeitsform.

:conf2:

ATi führte Doom3 als "GITG" Spiel auf, praesentierte es auf der E³ 2002 und hatte beim Test bei id einen Betatreiber verwendet.
Wo wurde also ATi von id (die im Link von Lolman selbst sagen, die Auswirkungen durch den leak seien nur minimal im bereich der Zusammenarbeit mit der Firma gewesen) benachteiligt?

LovesuckZ
2004-12-04, 10:25:18
Die Doom3 Entwicklung hat 4 Jahre gedauert. Nach 2 Jahren wars eigentlich das Grundgerüst der Engine sogut wie fertig (konnte jeder selbst an der Alpha beobachten) Damals kamen iirc (bash0rt mich nicht wenns nicht stimmt) auch Treiber raus, die u.A auch der Alpha einen kleinen Performanceschub brachten.

E³ 2002, id präsentierte Doom3 auf einem "prototypen" des r300.

~2 Jahre später veröffentlicht id Software endlich Doom. ATi braucht dann noch weitere ~2 Monate bis die Treiber optimiert genug waren, um neben NV nicht völlig abzukacken. NVs Treiber brachten jedoch keine großen Sprünge mehr.

20.Juli.2004, Hardocp.com (http://www.hardocp.com/article.html?art=NjQyLDE=) veröffentlicht in Zusammenarbeit mit id den ersten Doom3 Graka Vergleich mit "ATI's v8.05 driver". Dieser Treiber wurde am 4.8.2004 (http://www.computerbase.de/news/treiber/grafikkarten/ati/2004/august/catalyst_49_beta_doom_3-hotfix/)
, einen Tag nach dem relase von Doom3, auf der ATi Seite veröffentlicht. Mit einem WHQL Zertifikat jedoch erst fast zwei Monate spaeter.
Wie man erkennt, muessen die Optimierungen mindesten drei Wochen vor dem Verkaufsstart von Doom3 bei ATi vorgelegen haben und dies deutet darauf hin, dass id ihnen auch Vorversionen zu geschickt hat.

r@h
2004-12-04, 11:17:59
Ähmm... Leute!

Möglicherweise wurde ATI kurz vor Release (also bis zu 6 Monate vorher) nur mit wenigen, oder gar keinen Test-Versionen wegen dem Leak-Debakel 'versorgt'. Das mag so sein, oder auch nicht... letztendlich hat das nur dazu geführt, dass ATI erst 2 Monate später mit 'optimierten' Treibern kam.

Aber war DAS jetzt die ganze 'Benachteiligung'?

Wir können uns also darauf einigen, dass ATI nicht durch die Engine selbst, deren Shader oder dem Content benachteiligt wurde, sondern lediglich vor Release kaum die Möglichkeit hatte (warum auch immer), die eigenen Treiber auf D3 zu 'optimieren'?

Sehe ich das jetzt richtig?

Wenn dem so ist, dann hat sich die ganze Diskussion doch wohl erübrigt, oder?
Schließlich waren sie sie ja selbst schuld an der Miserie...
(wenn es denn wirklich 'Rache', oder Selbstschutz von ID wegen dem Leak war ;-)

Razor

P.S.: gut, dass dieses Thema aus dem anderen Thread geflogen ist. So scheint es doch, dass das eine nun überhaupt nichts mit dem anderen zu tun hat, gell?
:D

Jesus
2004-12-04, 12:31:07
Wie man erkennt, muessen die Optimierungen mindesten drei Wochen vor dem Verkaufsstart von Doom3 bei ATi vorgelegen haben und dies deutet darauf hin, dass id ihnen auch Vorversionen zu geschickt hat.

Der 4.9b war ein Treiber wie jeder andere, OHNE Shaderreplacement Optimierungen. Das Shaderreplacement war auch nicht im finalen 4.9 vorhanden. Sondern erst im darauf folgenden 4.10er.
Hätte der 4.9er schon Shaderreplacement enthalten (was er lt. CB wie du selbst so schön verlinkt hast nicht hat), hätte der Humus Tweak kaum positiven Einfluss auf die Performance haben dürfen ... :|

LovesuckZ
2004-12-04, 12:40:15
Das Shaderreplacement war auch nicht im finalen 4.9 vorhanden. Sondern erst im darauf folgenden 4.10er.

Aeh:

ATi geht in Bezug auf Doom 3 richtig in die Offensive. Haben wir vorgestern noch berichtet, dass der Catalyst Treiber 4.9 den ersehnten erweiterten Support für Doom 3 mit sich bringt[...]

So, unterstreiche bitte die Stelle, dass der veröffentliche Betatreiber ("hat man diesen Treiber nun kurzerhand zum Download freigegeben") keinen "Support" für Doom3 liefere...

Hätte der 4.9er schon Shaderreplacement enthalten (was er lt. CB wie du selbst so schön verlinkt hast nicht hat), hätte der Humus Tweak kaum positiven Einfluss auf die Performance haben dürfen ... :|

Stimmt, der Betatreiber bringe ja keine Leistung. (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/august/neues_doom_3-hotfix_ati-karten/)

Stammtischniveau ahoi.

Jesus
2004-12-04, 12:46:12
.

Jesus
2004-12-04, 12:46:35
Aeh:

ATi geht in Bezug auf Doom 3 richtig in die Offensive. Haben wir vorgestern noch berichtet, dass der Catalyst Treiber 4.9 den ersehnten erweiterten Support für Doom 3 mit sich bringt[...]

So, unterstreiche bitte die Stelle, dass der veröffentliche Betatreiber ("hat man diesen Treiber nun kurzerhand zum Download freigegeben") keinen "Support" für Doom3 liefere...



Stimmt, der Betatreiber bringe ja keine Leistung. (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/august/neues_doom_3-hotfix_ati-karten/)

Stammtischniveau ahoi.

Der Cat 4.9b hatte KEIN Shaderreplacement on board. Was du hier unterstellst ist dass er D3 optimiert ist, weil er schneller ist wie der 4.7 ? Das ist nicht dein ernst oder ? Neue Treiber haben es so ansich dass sie meist schneller sind als die vorherigen (vorallem wenn 2 Revisionen dazwischen sind ).
Er hatte diverese Schattenbugs gefixt, das stand auch in den Releasenotes (und stimmte). Diese Schatten bugs waren seltsamerweise nicht im darauffolgenden Cat 4.8 gefixt, erst wieder im offiziellen 4.9er. Daher ist der Cat 4.9b auch DER Doom3 Treiber gewesen.

Aber egal, ich sag mal "Sprich zu der Hand" von nun an :rolleyes:

IVN
2004-12-04, 12:47:18
Der unterschied ist das NV situationsbedingt Shader replacet (und mehr). Was Schatten etc. betrifft, so gibt es keinen Beleg dafür dass es überhaupt was bringt. Das einzige was jemals gemessen wurde war afaik Tombmans NV40 der mit deaktivierten Schatten ungefähr gleich viel Performance gewann wie sein R420 (hat natürlich niemand geglaubt... aber es selbst zu nachtesten darauf kommt auch keiner ;) Stattdessen beruft man sich einfach auf die überlegene Technologie)

Die Unterschiede bei D3 sind mittlerweile sogar geringer als bei anderen OGL Games, wo ATI deutlich weiter zurückliegt, von daher können die Schatten gar nicht so schwer wiegen... :rolleyes:

Well,if shader replacement brings more performance on nv 40 then on r420,that means it also has efficient PSs. :rolleyes:


P.S. When tombman deactivated the shadows,that doesn't mean he also deactivated the back to front rendering (where ATI much slower is ).And don't forget 6800 Ultras still have much higher min FPS. :D


If something what i said is wrong ,i beg the Gurus to correct me.

Jesus
2004-12-04, 12:55:37
P.S. When tombman deactivated the shadows,that doesn't mean he also deactivated the back to front rendering (where ATI much slower is ).And don't forget 6800 Ultras still have much higher min FPS. :D

Er hat die Schatten deaktiviert, beide sind deutlich (gleichermassen) schneller geworden. Ich glaube kaum dass man noch mehr deaktivieren kann und die Framerate ins Unendliche ansteigt (bei ATI dann ja mehr als bei NV, weil sie im back to front rendering deutlich langsamer sind/wären ... :rolleyes: )

Wenn man mal den allgemeinen OGL Faktor aufrechnet bleibt nicht mehr viel übrig vom Technologievorsprung :smile:

deekey777
2004-12-04, 12:59:03
Ähmm... Leute!

Möglicherweise wurde ATI kurz vor Release (also bis zu 6 Monate vorher) nur mit wenigen, oder gar keinen Test-Versionen wegen dem Leak-Debakel 'versorgt'. Das mag so sein, oder auch nicht... letztendlich hat das nur dazu geführt, dass ATI erst 2 Monate später mit 'optimierten' Treibern kam.

Aber war DAS jetzt die ganze 'Benachteiligung'?

Wir können uns also darauf einigen, dass ATI nicht durch die Engine selbst, deren Shader oder dem Content benachteiligt wurde, sondern lediglich vor Release kaum die Möglichkeit hatte (warum auch immer), die eigenen Treiber auf D3 zu 'optimieren'?

Sehe ich das jetzt richtig?

Wenn dem so ist, dann hat sich die ganze Diskussion doch wohl erübrigt, oder?
Schließlich waren sie sie ja selbst schuld an der Miserie...
(wenn es denn wirklich 'Rache', oder Selbstschutz von ID wegen dem Leak war ;-)

Razor

P.S.: gut, dass dieses Thema aus dem anderen Thread geflogen ist. So scheint es doch, dass das eine nun überhaupt nichts mit dem anderen zu tun hat, gell?
:D

Ich glaub, du siehst das richtig, denn irgdenwo in irgendeiner News auf irgendwelcher Seite von irgendjemandem vefasst stand, dass nVidia schon 6(?) Monate vor dem Release Zeit hatte, ihre Treiber auf Doom 3 zu optimieren.

LovesuckZ
2004-12-04, 13:03:41
Der Cat 4.9b hatte KEIN Shaderreplacement on board.

Behaupte ich auch nicht, dass er Shaderreplacement haette (nur im Zusammenhang mit Humus) in keinem posting bezueglich dem Betatreiber.
Cheats deuten ja nicht nur auf "Shaderreplacement" hin ;)

Was du hier unterstellst ist dass er D3 optimiert ist, weil er schneller ist wie der 4.7 ? Das ist nicht dein ernst oder ? Neue Treiber haben es so ansich dass sie meist schneller sind als die vorherigen (vorallem wenn 2 Revisionen dazwischen sind ).

Und nun, wie kann es diesen treiber schon so früh geben (20.Juli.2004), wenn ATi keine Vorversion je erhalten haette?*

*indirektes Zitat von Mr.Lolman, der Beweis ist immer noch schuldig.

IVN
2004-12-04, 13:04:01
Er hat die Schatten deaktiviert, beide sind deutlich (gleichermassen) schneller geworden. Ich glaube kaum dass man noch mehr deaktivieren kann und die Framerate ins Unendliche ansteigt (bei ATI dann ja mehr als bei NV, weil sie im back to front rendering deutlich langsamer sind/wären ... :rolleyes: )

Wenn man mal den allgemeinen OGL Faktor aufrechnet bleibt nicht mehr viel übrig vom Technologievorsprung :smile:

You really didn't understand what i wrote?Back to front isn't a feature or effect (like shadows),it's a way of rendering,and you can't deactivate it just like that.And if i can remember correctly,nv40 was still faster when tombman deactivated the shadows=nv40 is more efficient then r420 when rendering back to front.

Lolman
2004-12-04, 13:33:34
Wie auch immer. Der Leitungsvorsprung ist nicht mehr sooo groß, um sich jetzt noch Gedanken um die Rendertechnik machen muß, und warum das ATis vll. nicht so gut schmeckt, wie NV Karten...

IVN
2004-12-04, 13:41:12
Wie auch immer. Der Leitungsvorsprung ist nicht mehr sooo groß, um sich jetzt noch Gedanken um die Rendertechnik machen muß, und warum das ATis vll. nicht so gut schmeckt, wie NV Karten...

Well,maybe max fps are close,but min are surely not.

Jesus
2004-12-04, 13:42:24
You really didn't understand what i wrote?Back to front isn't a feature or effect (like shadows),it's a way of rendering,and you can't deactivate it just like that.And if i can remember correctly,nv40 was still faster when tombman deactivated the shadows=nv40 is more efficient then r420 when rendering back to front.

Ich habs verstanden keine Angst, es ist mir auch klar dass es kein "Effekt" ist. Aber du hast es als deaktivierbares "Feature" des NV40 beschrieben:

When tombman deactivated the shadows,that doesn't mean he also deactivated the back to front rendering (where ATI much slower is ).And don't forget 6800 Ultras still have much higher min FPS. :D


Und ja der NV40 war schneller (wie bei allen anderen OGL Games auch :rolleyes: ), aber darum gings auch nicht ,sondern darum wieviel durch die deaktvierten Schatten an Performance gewonnen werden konnte, und das war bei beiden prozentual etwa gleich viel (und nicht wenig).

Lolman
2004-12-04, 13:44:00
Well,maybe max fps are close,but min are surely not.

Benchmarks?

IVN
2004-12-04, 13:45:08
Ich habs verstanden keine Angst, es ist mir auch klar dass es kein "Effekt" ist. Aber du hast es als deaktivierbares "Feature" des NV40 beschrieben:




Und ja der NV40 war schneller (wie bei allen anderen OGL Games auch :rolleyes: ), aber darum gings auch nicht ,sondern darum wieviel durch die deaktvierten Schatten an Performance gewonnen werden konnte, und das war bei beiden prozentual etwa gleich viel (und nicht wenig).

O.K. :)

IVN
2004-12-04, 13:47:21
Benchmarks?

I can't give you any ,but i know it by comparing with some friends.
(i can't remember the correct resoults)

Pirx
2004-12-04, 13:56:04
Ähmm... Leute!

Möglicherweise wurde ATI kurz vor Release (also bis zu 6 Monate vorher) nur mit wenigen, oder gar keinen Test-Versionen wegen dem Leak-Debakel 'versorgt'. Das mag so sein, oder auch nicht... letztendlich hat das nur dazu geführt, dass ATI erst 2 Monate später mit 'optimierten' Treibern kam.

Aber war DAS jetzt die ganze 'Benachteiligung'?

Wir können uns also darauf einigen, dass ATI nicht durch die Engine selbst, deren Shader oder dem Content benachteiligt wurde, sondern lediglich vor Release kaum die Möglichkeit hatte (warum auch immer), die eigenen Treiber auf D3 zu 'optimieren'?

Sehe ich das jetzt richtig?

Wenn dem so ist, dann hat sich die ganze Diskussion doch wohl erübrigt, oder?
Schließlich waren sie sie ja selbst schuld an der Miserie...
(wenn es denn wirklich 'Rache', oder Selbstschutz von ID wegen dem Leak war ;-)

Razor

P.S.: gut, dass dieses Thema aus dem anderen Thread geflogen ist. So scheint es doch, dass das eine nun überhaupt nichts mit dem anderen zu tun hat, gell?
:D
Jo, ich glaube, das siehst du schon alles richtig.

betasilie
2004-12-04, 15:39:05
Wird Deiner Meinung nach ATI-Hardware bei Doom3 durch unpassende Shader ausgebremst? Läuft ATI-DX9-Hardware im DX8-Modus bei Doom3? Ist dort auch ein Renderingpfad entfernt worden, der den ATI besser schmecken würde? Eher nein. Vielmehr hat NV "optimiert" (oder cheatet - je nach Auffassung) und weniger ID selbst.

Also Valve benachteiligt nunmehr erwiesenermaßen auf unnötige Weise ein Stück Hardware, das seine Schwächen hat, anstatt es so gut es eben geht, auf scheinbar einfachem Wege, wesentlich besser auszunutzen.
IMo wurde ATI ganz klar benachteiligt. id Soft hat das Game von den Shadern völlig unoptimiert gelassen und mit NV zusammen Treiber entwickelt, die mit hoch optimierten Shaderreplacement arbeiten.

So kann jeder ISV Hardware eines IHVs ausbremsen. Einfach die Shader im Spiel völlig unoptimiert lassen und nur IHVs , die dafür zahlen, bekommen die richtigen Shader für das Shaderreplacement in deren Treibern.

Schon alleine, dass NVs Treiber schon Monate vor dem Release von Doom3 die Shader integriert hatten, zeigt ja, dass id Soft mit NV zusammen diesen Schachzug entwickelt haben.

r@h
2004-12-04, 17:54:37
Ich glaub, du siehst das richtig, denn irgdenwo in irgendeiner News auf irgendwelcher Seite von irgendjemandem vefasst stand, dass nVidia schon 6(?) Monate vor dem Release Zeit hatte, ihre Treiber auf Doom 3 zu optimieren.Jo.

Dann ist auch dieses rumgeeiere um Treiber und ob sie schon "Shaderreplacement" für D3 an Board hatten oder nicht auch ziemlich überflüssig. Viel wichtiger ist schließlich, ob die Engine selber oder ihr Verhalten anlaß dazu gibt, eine Vermututng der eindeutigen Bevorzugung eines IHVs durch die Engine zu erhärten.

Wenn ich das aber richtig sehe, fällt auch unseren Leutz hier nichts Vernünftiges dazu ein.
Ergo: es gibt NICHTS zu bemängeln...

Und wenn ATI nächstes mal aufpaßt, bruachen sie auch nicht bis Release schmollend in der Ecke sitzen, gell?
:D

Wie auch immer. Der Leitungsvorsprung ist nicht mehr sooo groß, um sich jetzt noch Gedanken um die Rendertechnik machen muß, und warum das ATis vll. nicht so gut schmeckt, wie NV Karten...Sehe ich auch so...

Ausser vielleicht:
Der erhebliche Takt-Vorteil von ATI, der hier ja offenbar nicht ausgespielt werden kann...
;)

@Beta

Ich hab' mir jetzt übrigens selber eines von diesen "Schrott-Teilen" zugelegt.
Und ich hab' Glück gehabt!
:D

Razor

LovesuckZ
2004-12-04, 17:55:06
Wie auch immer. Der Leitungsvorsprung ist nicht mehr sooo groß, [...]

Definiere "nicht mehr sooo groß", bitte.
Meinst du 58% zwischen pro und gt?
Oder die 10% zwischen der 35% niedriger getakteten 6800U und XT850PE?

Jesus
2004-12-04, 18:00:03
Definiere "nicht mehr sooo groß", bitte.
Meinst du 58% zwischen pro und gt?
Oder die 10% zwischen der 35% niedriger getakteten 6800U und XT850PE?

Oder die 20% in Quake 3, oder die 15% in Call of Duty ? ;)
Es ist nur noch OGL, nicht mehr und nicht weniger (imo).

LovesuckZ
2004-12-04, 18:25:01
Oder die 20% in Quake 3, oder die 15% in Call of Duty ? ;)


Was hat Quake3 und CoD mit den Doom 3 Ergebnissen zu tun?
Das ist genauso unsinnig, wie der Autovergleich vom gast.

tb
2004-12-04, 18:36:59
IMo wurde ATI ganz klar benachteiligt. id Soft hat das Game von den Shadern völlig unoptimiert gelassen und mit NV zusammen Treiber entwickelt, die mit hoch optimierten Shaderreplacement arbeiten.

So kann jeder ISV Hardware eines IHVs ausbremsen. Einfach die Shader im Spiel völlig unoptimiert lassen und nur IHVs , die dafür zahlen, bekommen die richtigen Shader für das Shaderreplacement in deren Treibern.

Schon alleine, dass NVs Treiber schon Monate vor dem Release von Doom3 die Shader integriert hatten, zeigt ja, dass id Soft mit NV zusammen diesen Schachzug entwickelt haben.

Anzumerken wäre hier vielleicht noch, das ATi bisher kein Entwicklertool zur Verfügung stellt, was die Shaderperformance auf verschiedenen Radeon GPU's ausspuckt. Einzig NVIDIA und XGI bieten solche Tools. Dies macht das Optimieren auf Radeon GPU's nicht gerade leichter, denn trial & error kosten verdammt viel Zeit...

Thomas

Jesus
2004-12-04, 18:37:33
Was hat Quake3 und CoD mit den Doom 3 Ergebnissen zu tun?
Das ist genauso unsinnig, wie der Autovergleich vom gast.

:up:

Schade es gibt keinen Smiley der eine vorgehaltene Hand zeigt. Naja stell dir einfach vor es wär einer ...

Mr. Lolman
2004-12-04, 18:38:42
Definiere "nicht mehr sooo groß", bitte.
Meinst du 58% zwischen pro und gt?
Oder die 10% zwischen der 35% niedriger getakteten 6800U und XT850PE?

Natürlich die 10%. Dass ne 12Pipe x800 wohl nie die D³ Performance ner 16Pipe 6800gt erreichen wird, war imo von Anfang an klar...

Außerdem brauchst du nicht mit der Taktkeule kommen. Die Karten die der Spieler kauft sind nun mal so getaktet und fertig. Was anderes wäre, wenn die GPU der 6800 Ultra ohne größerem Aufwand auf bis zu 600MHz übertaktbar wär.

LovesuckZ
2004-12-04, 19:34:15
Natürlich die 10%. Dass ne 12Pipe x800 wohl nie die D³ Performance ner 16Pipe 6800gt erreichen wird, war imo von Anfang an klar...
Außerdem brauchst du nicht mit der Taktkeule kommen. Die Karten die der Spieler kauft sind nun mal so getaktet und fertig. Was anderes wäre, wenn die GPU der 6800 Ultra ohne größerem Aufwand auf bis zu 600MHz übertaktbar wär.


Hm:

Außerdem brauchst du nicht mit der [Pipeline]keule kommen. Die Karten die der Spieler kauft sind nun mal so [gebaut] und fertig. Was anderes wäre, wenn die GPU der [X800pro] ohne größerem Aufwand auf [16 Pipelines freischaltbar] wär.

Warum vergleichst du also nur die beiden kaum erwerblichen zu erhalten High-End Karten?
Global betrachtet, ist es gefaehrlich, da so der Eindruck erweckt werde, dass durchgehend kaum ein unterschied zwischen den einzelnen Karten bestuende.

Mr. Lolman
2004-12-04, 19:47:23
Warum vergleichst du also nur die beiden kaum erwerblichen zu erhalten High-End Karten?

AFAIK reden wir immernoch vom 3DC Test. Und bei dem gehts eigentlich um ne x850xt. Und wies mit der Verfügbarkeit dieser Karte aussieht, wird sich bald zeigen...

Quasar
2004-12-04, 20:37:41
Natürlich die 10%. Dass ne 12Pipe x800 wohl nie die D³ Performance ner 16Pipe 6800gt erreichen wird, war imo von Anfang an klar...

Außerdem brauchst du nicht mit der Taktkeule kommen. Die Karten die der Spieler kauft sind nun mal so getaktet und fertig.
Und warum beschränkst du dann deinerseits den Vergleich rein auf die Anzahl der Pipelines?

Ist es so schwer, mal ein größeres Bild zu sehen?

reunion
2004-12-04, 23:36:24
Definiere "nicht mehr sooo groß", bitte.
Meinst du 58% zwischen pro und gt?
Oder die 10% zwischen der 35% niedriger getakteten 6800U und XT850PE?

Man muss nicht immer den für ATI schlechtestens vergleich auswählen, die X800XL zB kostet weniger als die PRO liegt aber deutlich näher an der 6800GT ;)

Und der Takt sowie die Pipes sind sowieso irrelevant ich verstehe nicht warum immer wieder diese kindische "der hat mehr takt" oder "die karte hat mehr pipes" Argumente benutzt werden. Es zählt das was hinten rauskommt. Karten die gleich viel kosten konkurrieren gegeneinander egal wieviel Pipes, Features usw. sie nun haben.

Quasar
2004-12-04, 23:41:27
Karten die gleich viel kosten konkurrieren gegeneinander egal wieviel Pipes, Features usw. sie nun haben.
Jawoll!
(Wollte das nur nochmal bekräftigt haben)

LovesuckZ
2004-12-05, 08:33:25
Man muss nicht immer den für ATI schlechtestens vergleich auswählen, die X800XL zB kostet weniger als die PRO liegt aber deutlich näher an der 6800GT ;)

Gib's ja noch nicht zu kaufen, daher wohl kaum vergleichbar.

Gast
2004-12-05, 10:56:46
IMo wurde ATI ganz klar benachteiligt. id Soft hat das Game von den Shadern völlig unoptimiert gelassen und mit NV zusammen Treiber entwickelt, die mit hoch optimierten Shaderreplacement arbeiten.

So kann jeder ISV Hardware eines IHVs ausbremsen. Einfach die Shader im Spiel völlig unoptimiert lassen und nur IHVs , die dafür zahlen, bekommen die richtigen Shader für das Shaderreplacement in deren Treibern.

Schon alleine, dass NVs Treiber schon Monate vor dem Release von Doom3 die Shader integriert hatten, zeigt ja, dass id Soft mit NV zusammen diesen Schachzug entwickelt haben.

Komisch, ich lese immer das ATI mit unoptimierten Shadern wesentlich besser zurechtkamen als NV und das eher NV optimieren muss bis der Arzt kommt. Liegt das vielleicht an OGL das ATI so abkackt oder sind sie nur unter DX so stark? ATI kann eher glücklich sein das id nicht auf einzelne Pfade gesetzt hat.

Wenn schon von JC selber ein Cheatvorwurf an NV ging, glaube ich nicht an die bequeme Verschwörungstheorie von Zusammenarbeit. Es sei denn sie wollten die "geheime Zusammenarbeit" mit solchen Sprüchen nur wieder tarnen.... ;) Und ist doch klar das _Kanadier_ bei JC im Gegensatz zu einem US Unternehmen benachteiligt wird. Patriotismus muss ja sein, gell? *LOL*

Den gleichen Mist von wegen unoptimiert etc bla blub kannste Valve genauso in die Schuhe schieben. Da ist es ja eher noch krasser weil da richtig Kohle geflossen ist.

storms18
2004-12-05, 11:07:53
Also ich seh eigentlich keine "behinderung" der performance.

Im gegensatz zu HL² in den so ziehmlich alles Gf karten ausgebremst werden.
Selbst eine GF4ti schaft DX9 reflexionen!
Und ne FX selbstverständlich auch. :wink:

r@h
2004-12-05, 11:10:50
Ähm... ich hoffe Du meinst: "Reflexionen, die wie DX9 aussehen"...
;)

Razor

P.S.: und ja, offenbar ist man hier in diesem Thread ja zu dem gleichen Schluß gekommen. Man streitet sich zwar hier und da noch um irgendwelche Treiberversionen, aber im Prinzip ist dazu mehr einfach nicht zu sagen...

Mr. Lolman
2004-12-05, 11:30:23
Also ich seh eigentlich keine "behinderung" der performance.

Im gegensatz zu HL² in den so ziehmlich alles Gf karten ausgebremst werden.


Naja. Für alles unter ner GF 5900XT hat der Dx9 Pfad imo keinen Sinn. Keiner spielt in 800x600 damit er ein paar schönere Shadereffekte geniessen kann. Und in DX8 ist ja Hl² rasent schnell. Auf der Gf4 eines Freundes rennt das Spiel mit höchster Detailstufe in 1024x768 4xAF (unoptimiert) wunderbar fllüssig...

storms18
2004-12-05, 11:53:17
Also ich spiel es mit dx9 reflexionen auf 1280x980 mit allers auf hoch nur die texturen auf mittel.
Und es geht wunderbar flüssig mit 30fps :wink:

Jesus
2004-12-05, 13:53:15
Also ich spiel es mit dx9 reflexionen auf 1280x980 mit allers auf hoch nur die texturen auf mittel.
Und es geht wunderbar flüssig mit 30fps :wink:

Das ist leider nicht möglich ;)

storms18
2004-12-05, 14:22:19
Doch ich habs.
Hier (http://img127.exs.cx/my.php?loc=img127&image=1f-Vorher-Nacher.jpg) ein vorher-nacher bild.

Jesus
2004-12-05, 14:48:07
Doch ich habs.
Hier (http://img127.exs.cx/my.php?loc=img127&image=1f-Vorher-Nacher.jpg) ein vorher-nacher bild.

Deine GF 4 ist nur eine DX 8.1 Karte ...

Black-Scorpion
2004-12-05, 15:56:17
Deine GF 4 ist nur eine DX 8.1 Karte ...
Seit wann kann die GF4 PS1.4?

StefanV
2004-12-05, 15:58:42
DX 8.1 -> ab PS1.3

Coda
2004-12-05, 16:03:04
In HL² bedeutet DX8.1 aber PS 1.4.

aths
2004-12-05, 16:03:07
DX 8.1 -> ab PS1.3Ab 1.2.

storms18
2004-12-05, 17:24:46
Kann sein hab aber reflexionen die so auschaun.

r@h
2004-12-05, 20:23:15
Öhm...
Hier geht's nicht um HL2, gell?
Oder seit Ihr einfach nur im Thread verrutscht?
:confused:

Razor

LovesuckZ
2004-12-08, 10:09:09
..in gewisser weise ist Doom3 durchaus auf NV Optimiert --> UltraShadow I & II (bzw die Stencil Shadow Technik der Doom3 Engine). ;) ..aber dafür gibt es einen anderen Thread, hier gehts um HL2 und FP16!

Die Engine von Doom3 stand vor dem NV30 fest, Nvidia guss einfach nur ein paar "Wünsche" von Carmack in die Hardware.
Das id diese nun in Doom3 einsetzt, freut Nvidiauser (FX und hoeher), ATiuser haben jedoch keinen Qualitaets- und Leistungsnachteil. Immerhin stand es ATi freu, ebenfalls diese Gimmicks zu "erwenden".

Aber das Doom3 auf NV optimiert waere, wird sich wohl als Urban Legend in den irgendwann mal erscheinenden dritten Teil von "Düstere Legenden" vorfinden :ugly:

Gast
2004-12-08, 10:12:50
Kann sein hab aber reflexionen die so auschaun.

du sagtest 30fps?

rofl, auf dem bild hast du 7 (!!) fps.
peinlich.

gruntzmaker
2004-12-08, 10:23:20
Bin mal gespannt, wann das Atiforum mal fragt wer bei HL2 benachteiligt wurde :D, also da hätten wir jetzt mal angefangen von den 68ern, die fxler und dann die gf4-Besitzer und dann wären da noch ....

edit: und ja der Preis ist das einzige wonach man Vergeliche schließen soll und darf darum X800Pro vs Gef Gt und nicht XT Pe Ultra Monster Exxtreme! gegen Gef 68 LE.

Mr. Lolman
2004-12-08, 13:32:44
Ich hab mal nen kleinen Catalyst Vergleich (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2529464&postcount=606) unter D³ gemacht, bei dem mansieht, dass der D³ Hotfix Treiber (4.9b) zumindest auf R3x0 Karten kaum was bringt.

Labberlippe
2004-12-09, 12:05:56
AFAIK bezweifelt das auch keiner, Valve hat von ATI 6mio Dollar kassiert und deshalb werden ATi Karten natürlich auch "besser" behandelt. War IMO schon vorher klar, oder hast du geglaubt das ATI freiwillig 6mio$ zahlt ohne einen nutzten daraus zu ziehen?

Hi

Klar die Weltverschwörung schlechthin.
Das richt mir auch nach einer linke und als Dankeschön hat Valve im Gegenzug zu den 6 Millionen Gratis Half Life2 Gutscheine gegeben.

Schlimm das Valve so etwas "gratis" Ati gibt.
@all
Ne Ihr glaubt da aber nicht wirklich alle was Ihr alle hier schreibt oder?
Valve möchte deren Games und Enigines auch verkaufen, die werden schon einen Grund gehabt habe, diese Entscheidung zu fällen.
Das hat nichts mit einer IHV Bevorzugung zu tun, die wollen auch Kohle machen.

Ist aber lustig zu sehen, das jeder über Steam meckert Half Life2 durch Steam einen Witz ansieht und man das Tool wegen ausspionieren nicht auf der platte haben, aber gleichzeitig bemängelt weil deren Karte in den Benches hinten ist.

Dann wartet halt ab, was die anderen Hersteller mit der Engine zusammen bringen.

Das gleiche gilt für die D3 Engine, da werden die anderen Hersteller auch das letzte rausholen was möglich ist.

Gruss Labberlippe

BUG
2004-12-09, 12:13:46
Die Engine von Doom3 stand vor dem NV30 fest, Nvidia guss einfach nur ein paar "Wünsche" von Carmack in die Hardware...kann man drehen und wenden wie man will letztendlich ist Doom3 dennoch auf die NV Hardware Optimiert, oder eben die NV Hardware auf Doom3. ;) ..HL2 ist dann halt auch auf ATI Hardware "optimiert", oder eben die ATI Hardware auf HL2. ;)

cu
BUG

Labberlippe
2004-12-09, 12:58:27
Wenn ich die ganzen Aussagen von J.C. dem entsprechenden nVidia mitarbeiter usw zusammenwerfen komme ich genau zu diesem Schluss.

J.C. wollte für die neuen Karten nur noch einen Pfad. Das ist aus kaufmänischer Sicht auch völlig logisch. Gegen Engines welche mit dem Shaderargument auffahren konnte D3 eigentlich nichts entgegensetzten. Darum wurde am Ende ja noch eine Option eingebaut das man bei ARB2 Karten "Shader" einsetzten kann. Ein eigener NV30/40 Pfad wäre da sehr störend gewesen. Entweder hätte er dann diese Option dort auch noch einbauen müssen und jeder Lizenznehmer hätte sich mit 2 Pfade rumschlagen müssen oder er hätte seine eigene neutrale Shadersprche entwerfen müssen. Da war das begrenzen auf einen Pfad viel billiger.

Hi

Sofern ich mich aber noch richtig erinnere hatte es ja unterschiedliche Pfade gegeben, sogar Matrox wurde bedacht.
Das geschäftlich gesehen ein Pfad besser ist keine Frage nur kommt es halt darauf an wie man diesen Pfad auslegt.
Die Frage ist, (die sich mir zumindest stellt) ob es nicht sinnvoller gewesen wäre die "alte" Linie beizubehalten.

Was mir auffällt ist das Valve/ID 2 Firmen sind die nicht den Druck haben wie andere Spielefirmen wo versucht wird auf gewalt zu pushen.

Das Valve/ID mit den IHVs enger zusammenarbeiten ist schon klar, natürlich haben die sicher auch deren Favouriten nur es kann sich weder Valve noch ID-Software es leisten eine Karte zu bevorteilen.
Die wollen ja deren Engine auch verkaufen.

Wenn ich es richtig verstanden habe, ist Dir das ganze ja aufgefallen durch die Entwicklung eures tools, auch hast Du gemeint das den Hersteller vielleicht gar nicht klar ist was die für einen bolzen gedreht haben.

Das es vielleicht nur eine solche "Kleinigkeit" sein könnte geht den meisten anscheinend hier beim diskutieren nicht ins Hirn.

@all

Vielleicht wäre es für einige hier sinnvoller selbst mal eine Engine zu schreiben.
Den nach dem was ich hier lese müssen die lieben Jungs von Valve ja komplette noobs sein und einige von euch ja die Grossen welche für jede Meinung beweise sehen wollen.

3DConcept lässt grüssen.

Gruss Labberlippe

Gast
2004-12-09, 13:16:40
..kann man drehen und wenden wie man will letztendlich ist Doom3 dennoch auf die NV Hardware Optimiert, oder eben die NV Hardware auf Doom3. ;) ..HL2 ist dann halt auch auf ATI Hardware "optimiert", oder eben die ATI Hardware auf HL2. ;)

cu
BUG


Doom3 nutzt explizit HW-Features der GFFX, HL2 nutzt HW-Features der GFFX explizit nicht. Siehst du da keinen Unterschied?

Gast
2004-12-09, 13:17:39
..kann man drehen und wenden wie man will letztendlich ist Doom3 dennoch auf die NV Hardware Optimiert, oder eben die NV Hardware auf Doom3. ;)

Was haette man denn noch bei der ATi hardware besser unterstuetzen koennen?
3dc? Wird als DXT5 von id fast unterstuetzt (sie nahmen speziellen Bezug auf ATi's Vorreiterrolle bezueglich der NM Komprimierung)

..HL2 ist dann halt auch auf ATI Hardware "optimiert", oder eben die ATI Hardware auf HL2. ;)


HL² nutzt keine Moeglichkeiten der NV3x/Nv4x Hardware aus. Genau wie Doom3 (OpenGL) sind die Mindeststandards der API (DX9, ARB2) auf die ATi Hardware abgestimmt.
Doom3 kann daher nicht auf Nvidia optimiert sein, wenn man sind a) an das Standard ARB haelt und b) hinausgehende Extension anderer Hersteller unterstuetzt.
HL2 dagegen nutzt die Moeglichkeit weiterere Hardware nicht aus, bremst sie daher aus. Dies kann man den Entwicklern nicht vorwerfen, da es ihr Produkt ist.
Valve versprach aber die zusaetzliche Ausnutzung der Nvidiahardware. Das ist kritikwürdig.

Gast
2004-12-09, 13:18:05
Über mir, war ich!

LovesuckZ

BUG
2004-12-09, 13:37:54
Doom3 nutzt explizit HW-Features der GFFX, HL2 nutzt HW-Features der GFFX explizit nicht. Siehst du da keinen Unterschied?HL2 nutzt dann eben explizit und im großen Umfang die Pixelshader Hardware der ATI Karten in der aktuellen und letzten Generation (weil die damit keine Probleme haben). Das der NV3x da Probleme hat ist ja nun auch nix neues.

Ihr könnt nicht der einen Software Schmiede vorwerfen zuviel (in eureren Augen) "unnötige genaue" 2.0 Pixelshader zu nutzen und den andren dafür zu loben jene ausgefeilte Schattentechnik im großen Umfang zu nutzen wenn sie der einen Hardwar mehr liegt als der anderen.

Und ja ich sehe da einen Unterschied, allerdings gibt es den mehr oder weniger bei beiden Games oder IHV's.

Was haette man denn noch bei der ATi hardware besser unterstuetzen koennen?
3dc? Wird als DXT5 von id fast unterstuetzt (sie nahmen speziellen Bezug auf ATi's Vorreiterrolle bezueglich der NM Komprimierung)..das weis ich doch nicht, aber es wäre sicher auch "irgednwie" anders gegangen. Ich will hier keinen von beiden verurteilen warum sie es so gemacht haben "wie sie es gemacht haben".


HL² nutzt keine Moeglichkeiten der NV3x/Nv4x Hardware aus. Genau wie Doom3 (OpenGL) sind die Mindeststandards der API (DX9, ARB2) auf die ATi Hardware abgestimmt...klar, Pixelshader 1.4 (fpr den NV3x) denn dafür sind sie ja "schnellgenug" (was auch immer das in den Augen von Valve heißen mag). NV40 kommt auch mit dem Pixel-Shader Code der letzten und aktuellen ATI Hardware gut zurecht.


Doom3 kann daher nicht auf Nvidia optimiert sein, wenn man sind a) an das Standard ARB haelt und b) hinausgehende Extension anderer Hersteller unterstuetzt.Valve oder Gabe hat sich auch an die DirectX 9 Richtlinien gehalten, ggf etwas zu streng was man am NV3x deutlich zu sehen bekommt.


HL2 dagegen nutzt die Moeglichkeit weiterere Hardware nicht aus, bremst sie daher aus. Dies kann man den Entwicklern nicht vorwerfen, da es ihr Produkt ist...ist bei D3 "vieleicht" auch so, oder warum muß ATI erst AI in den Treiber intigrieren um zu NV aufschließen zu können?!


Valve versprach aber die zusaetzliche Ausnutzung der Nvidiahardware. Das ist kritikwürdig...ja, das Versprechen haben sie wohl nicht gehalten oder nicht halten können, warum das so ist ist reine Spekulation, was handfestes wird man da wohl nicht bekommen.

cu
BUG

Gast
2004-12-09, 13:55:47
HL2 nutzt dann eben explizit und im großen Umfang die Pixelshader Hardware der ATI Karten in der aktuellen und letzten Generation (weil die damit keine Probleme haben).

Falsche Antwort, denn Doom3 nutzt ebenfalls alle Features der ATI-Hardware (-> Keine Benachteiligung ATIs).
HL2 nutzt aber nicht alle Features der GFFX Hardware (-> Benachteiligung NVidias).

Gast
2004-12-09, 13:56:36
..das weis ich doch nicht, aber es wäre sicher auch "irgednwie" anders gegangen.

Du sagtest, dass Doom3 auf Nvidia optimiert waere. Doom3 verwendet einen ARB2 Pfad, was im großen den Eigentschaften der ATi Hardware entspreche.
Wie kann also die Engine auf den NV40 optimiert sein, wenn ATi keine weiteren Moeglichkeiten gibt, die id verwenden konnte?

..klar, Pixelshader 1.4 (fpr den NV3x) denn dafür sind sie ja "schnellgenug" (was auch immer das in den Augen von Valve heißen mag). NV40 kommt auch mit dem Pixel-Shader Code der letzten und aktuellen ATI Hardware gut zurecht.

PS1.4 ist keine Errungenschaft des NV3x und der NV40 muss einen PS2.0 ausführen, im gegensatz zu ATi (x800) und PS2.a.
Nvidia muss mit einem normalen PS2.0 "gut zurecht" kommen, jedoch ist es vollkommen indiskutabel, wenn man dies, aufgrund von elektronischen Geldtransfer, ausnutzt.

Valve oder Gabe hat sich auch an die DirectX 9 Richtlinien gehalten, ggf etwas zu streng was man am NV3x deutlich zu sehen bekommt.

"DX9 Richtlinien"?
Du meinst eher ATi Guidelines und das vollkommende ignorieren der Richtlinien von Nvidia.

..ist bei D3 "vieleicht" auch so, oder warum muß ATI erst AI in den Treiber intigrieren um zu NV aufschließen zu können?!

Warum musste Nvidia Shaderreplacement und weitere "Optimierungen" im treiber vornehmen, wenn Doom3 doch auf den Nv40 optimiert waere?

Gast
2004-12-09, 14:18:41
Doom3 wurde für.......


Valve inzwischen den Wert der Engine und der Models für Mehrspieler-Partien erkannt. HL2 überholt damit bereits jetzt Doom 3, das bis auf das mit 30.000 US-Dollar dotierte CPL-Turnier in der kommenden Woche auf den Szene-Seiten für den Mehrspieler-Bereich bereits als tot erklärt wird.

http://www.golem.de/0412/35081.html

Die Diskussion bringt nix *g*

BUG
2004-12-09, 14:25:45
Falsche Antwort, denn Doom3 nutzt ebenfalls alle Features der ATI-Hardware (-> Keine Benachteiligung ATIs).
HL2 nutzt aber nicht alle Features der GFFX Hardware (-> Benachteiligung NVidias)...die NVs können in der letzten und aktuellen Generation immer etwas mehr als die ATIs. Damals hat sich auch keiner Aufgeregt, dass es nur Spiele mit Pixelshader 1.1 gab denn auf den R200 mit PS1.4 hat auch keiner Rücksicht genommen. Da wären wir auch wieder beim kleinsten gemeinsamen Nenner und der ist eben bei DX9 --> PS2.0 ohne PP.

Es gibt sicherlich auch in HL2 Shader die man mit PS 2.a hätte schneller/schönder/anders machen können, man macht es aber nicht also wurde quasi ATI neuste Hardwarwe auch benachteiligt? :ucrazy2: Man muß nicht immer alle Features unterstützen nur um ein Spiel auf den Markt zu bringen! Ich sehe da keine richtige Benachteiligung, allerhöchstens einen kleines Bonus für ATI und einen kleinen dämpfer für den NV3x. Selbst mit durchgängig PP ist das Abschneiden des NV3x alles andere als "super".


Du sagtest, dass Doom3 auf Nvidia optimiert waere. Doom3 verwendet einen ARB2 Pfad, was im großen den Eigentschaften der ATi Hardware entspreche.
Wie kann also die Engine auf den NV40 optimiert sein, wenn ATi keine weiteren Moeglichkeiten gibt, die id verwenden konnte?..durch die Schattentechnik? ..hätte ID nich auch drauf verzichten können? Klar is das jetzt an den Haaren herbei gezogen, aber HL2 hat auch nen ganz mormalen DX9 Pfad wie nahezu jedes andere DX9 Spiel auch. Vieleicht wäre ATI ohne die NV Optimierunen (sei es im Chip oder im Spiel) deutlich schneller gewesen so wie es bei HL2 der Fall ist?!


PS1.4 ist keine Errungenschaft des NV3x und der NV40 muss einen PS2.0 ausführen, im gegensatz zu ATi (x800) und PS2.a.
Nvidia muss mit einem normalen PS2.0 "gut zurecht" kommen, jedoch ist es vollkommen indiskutabel, wenn man dies, aufgrund von elektronischen Geldtransfer, ausnutzt...und schon sind wie wieder bei der Spekulation -->das Geld war schuld. Irgendwer hat immer Schuld, und wenn sich keiner findet dann wird solange gesucht bis ein indiz dafür spricht und es einem gerade so passt, ob es dann stimmt ist egal man hat ja was gefunden was passen "könnte".

"DX9 Richtlinien"?
Du meinst eher ATi Guidelines und das vollkommende ignorieren der Richtlinien von Nvidia...nach irgendwas muß man sich halt richten, JC nach den Optimirungsrichtlinen von NV und HL2 nach denen von ATI oder MS.

Warum musste Nvidia Shaderreplacement und weitere "Optimierungen" im treiber vornehmen, wenn Doom3 doch auf den Nv40 optimiert waere?..um trotz der ATI Optimierungen noch schneller zu sein?!

cu
BUG

Gast
2004-12-09, 14:49:50
..die NVs können in der letzten und aktuellen Generation immer etwas mehr als die ATIs. Damals hat sich auch keiner Aufgeregt, dass es nur Spiele mit Pixelshader 1.1 gab denn auf den R200 mit PS1.4 hat auch keiner Rücksicht genommen.

PS1.4 unterscheidet sich grundlegend von einem PS1.1.
Heute kann man durch HLSL das ganze automatisieren für PS2.x/3.0.
Früher war es kaum moeglich aus einem PS1.1 einen PS1.4 zu machen.

Da wären wir auch wieder beim kleinsten gemeinsamen Nenner und der ist eben bei DX9 --> PS2.0 ohne PP.´

Kleinster gemeinsamer Nenner ist ein PS2.0 mit _pp hint.

Es gibt sicherlich auch in HL2 Shader die man mit PS 2.a hätte schneller/schönder/anders machen können, man macht es aber nicht also wurde quasi ATI neuste Hardwarwe auch benachteiligt? :ucrazy2:

Den Sinn verstehe ich nicht...
ATi kann keine Pixelshader, die nach dem 2.a Profil compiliert wurden, ausführen.
Wie sollten sie also benachteiligt werden?!

Man muß nicht immer alle Features unterstützen nur um ein Spiel auf den Markt zu bringen!

Wie gesagt, jeder Entwickler hat das Recht, seine Engine nach belieben zu gestalten.
Valve unterscheidet sich nur von diesen, da sie []öffentlich[/b] einen Mixed Mode angepriesen haben.

..durch die Schattentechnik? ..hätte ID nich auch drauf verzichten können? Klar is das jetzt an den Haaren herbei gezogen, aber HL2 hat auch nen ganz mormalen DX9 Pfad wie nahezu jedes andere DX9 Spiel auch.
Vieleicht wäre ATI ohne die NV Optimierunen (sei es im Chip oder im Spiel) deutlich schneller gewesen so wie es bei HL2 der Fall ist?!

Super und wenn Valve keinen DX9 Pfad integriert haette, waere auch der NV30 schneller als eine 6800U...
Die Schattentechnik macht Doom3 aus und stand bevor es den NV40 oder überhaupt gab.

..nach irgendwas muß man sich halt richten, JC nach den Optimirungsrichtlinen von NV und HL2 nach denen von ATI oder MS.

Ms kann keine DX9 Richtlinien herausgeben, da DX9 aus zu vielen unterschiedlichen Wegen besteht.
Und an welche Guidelines von Nvidia hat sich Carmack gehalten?

..um trotz der ATI Optimierungen noch schneller zu sein?!


Aehm, du sagst, Doom3 waere für den Nv40 optimiert. Warum benoetigt dann Nvidia noch solche "Optimierungen"?

BUG
2004-12-09, 15:02:45
PS1.4 unterscheidet sich grundlegend von einem PS1.1.
Heute kann man durch HLSL das ganze automatisieren für PS2.x/3.0.
Früher war es kaum moeglich aus einem PS1.1 einen PS1.4 zu machen...alles nur eine Frage der "lust" und Experimentierfreudigkeit der Entwickler. Da der R200 aber nicht allzuweit verbreitet war hat man einfach keine Rücksicht genommen. Er wurde also quasi "benachteiligt" oder besser gesagt nicht beachtet.


Kleinster gemeinsamer Nenner ist ein PS2.0 mit _pp hint...wäre mir neu, PP ist erlaubt wennes aussreiched ist aber imho nicht der kleinse gemeinsamme nenner, der wurde imho von MS auf FP24 festgelegt.

Den Sinn verstehe ich nicht...
ATi kann keine Pixelshader, die nach dem 2.a Profil compiliert wurden, ausführen.
Wie sollten sie also benachteiligt werden?!..sorry Tippfehler, meinte natürlich 2.b.


Wie gesagt, jeder Entwickler hat das Recht, seine Engine nach belieben zu gestalten.
Valve unterscheidet sich nur von diesen, da sie öffentlich einen Mixed Mode angepriesen haben...ja aber eine offiziellen Grund warum das so ist gibt es bislang noch nicht. Es ist auch schade keine Frage, aber das alles immer gleich mit Geld und diversen Beziehungen in Verbindung zu bringen ist imho "übertrieben".

Super und wenn Valve keinen DX9 Pfad integriert haette, waere auch der NV30 schneller als eine 6800U...
Die Schattentechnik macht Doom3 aus und stand bevor es den NV40 oder überhaupt gab...jau genau so sehe ich das und schon wäre NV3x Gemeinde glücklich gewesen, den NV40 hätte man sich dann auch sparen können. :up: ;)

Man kann doch Valve nicht dafür verantwortlich machen, DX9 eingesetzt zu haben, genausowenig kann man ID dafür abstrafen solche Schattenspielchen eingebaut zu haben, es ist eben ein Bestandteil des Spiels/Engine.

Ms kann keine DX9 Richtlinien herausgeben, da DX9 aus zu vielen unterschiedlichen Wegen besteht.
Und an welche Guidelines von Nvidia hat sich Carmack gehalten?..frag ihn doch mal, an welche von ATI hat sich Valve gehalten?


Aehm, du sagst, Doom3 waere für den Nv40 optimiert. Warum benoetigt dann Nvidia noch solche "Optimierungen"?..die Frage hatte ich ja schon beantwortet (aus meiner beschränkten Sichtweise). ;)

Warum musste Nvidia Shaderreplacement und weitere "Optimierungen" im treiber vornehmen, wenn Doom3 doch auf den Nv40 optimiert waere?..um trotz der ATI Optimierungen noch schneller zu sein?!

cu
BUG

r@w
2004-12-09, 15:18:30
Ne Ihr glaubt da aber nicht wirklich alle was Ihr alle hier schreibt oder?Oh doch!

Schau' Dir einfach nur mal den anderen Thread dazu an und poste dort etwas, wenn Du dann noch etwas zu sagen hast. Ist nun wirklich nicht gegen Dich gerichtet, aber langsam läuft das Faß schlicht über...

Auch ist das "Valve"-Thema hier vollständig OT, oder was meinst Du, warum dieser Thread hier extra heraus gesplittet wurde?
:confused:

Razor

Gast
2004-12-09, 15:23:02
..alles nur eine Frage der "lust" und Experimentierfreudigkeit der Entwickler. Da der R200 aber nicht allzuweit verbreitet war hat man einfach keine Rücksicht genommen. Er wurde also quasi "benachteiligt" oder besser gesagt nicht beachtet.

"lust" und Experimentierfreudigkeit der Entwickler"?
Du meinst also, sie sollen einfach die Engine vollstaendig umschreiben?
Warum hat das wohl id nicht mit der Schattentechnik gemacht, muss ja wohl nicht so lange dauern...

..wäre mir neu, PP ist erlaubt wennes aussreiched ist aber imho nicht der kleinse gemeinsamme nenner, der wurde imho von MS auf FP24 festgelegt.

PP ist optional, muss vom Entwickler verlangt werden. Es kann durchgaengig eingesetzt werden, egal wie das Ergebnis ist. Daher ist es der kleinste gemeinsame Nenner.
Das was du meinst, sind die Mindestanforderung des SM2.0.

..sorry Tippfehler, meinte natürlich 2.b.

Ich bin der Meinung, dass HLSL alle drei Profile beim Compilieren verwendet und sie nicht trennbar sein sollten.

..ja aber eine offiziellen Grund warum das so ist gibt es bislang noch nicht. Es ist auch schade keine Frage, aber das alles immer gleich mit Geld und diversen Beziehungen in Verbindung zu bringen ist imho "übertrieben".

Nein, da der Pfad sehr weit fortgeschritten haette sein muessen (siehe Folien anderer Thread).
Das weglassen des Pfades hat keinen rationalen Grund, wenn man Sachen wie 6 Millionen $ und starke Verbindung mit ATi außen vorlaesst.

Man kann doch Valve nicht dafür verantwortlich machen, DX9 eingesetzt zu haben, genausowenig kann man ID dafür abstrafen solche Schattenspielchen eingebaut zu haben, es ist eben ein Bestandteil des Spiels/Engine.

Mache ich nicht, in keinster Weise. Ich kreide nur deren unsoziales Verhalten bezueglich der NV3x/NV4x User an.

..frag ihn doch mal,

Wie kannst du etwas behaupten, was du nicht mal mit Unwahrheiten stuetzen kannst?!

an welche von ATI hat sich Valve gehalten?

hoechstmoegliche Shadermodell, immer volle Genauigkeit, (keine unterschiedlichen Shaderprofile).

..die Frage hatte ich ja schon beantwortet (aus meiner beschränkten Sichtweise). ;)


Nein, da du suggerieren willst, dass die Doom3 Engine ATi hardware im Gegensatz zu Nvidia Hardware absichtlich ausbremsen würde.
Ich frage daher, warum müsste also nvidia Optimierungen im Treiber durchfuehren (vorallen Shaderreplacement), wenn diese doch dank der Engine bevorzugt werden?
Das sollte erstmal beantwortet werden.

BUG
2004-12-09, 15:36:57
Nein, da der Pfad sehr weit fortgeschritten haette sein muessen (siehe Folien anderer Thread). Das weglassen des Pfades hat keinen rationalen Grund, wenn man Sachen wie 6 Millionen $ und starke Verbindung mit ATi außen vorlaesst...dennoch Spekulation, du, ich, keiner weis sorecht wieso er weggelasen wurde, vieleicht hatte er noch Probleme oder Valve war letztendlich nicht vom Gesammtbild überzeugt (was auch immer das bedeuten mag).


Mache ich nicht, in keinster Weise. Ich kreide nur deren unsoziales Verhalten bezueglich der NV3x/NV4x User an...der NV40 kommt doch recht gut dabei weg, sorgen mache ich mir nur um den NV3x und der wurde aus Performance Gründen eben auf PS1.4 begrenzt.

Wie kannst du etwas behaupten, was du nicht mal mit Unwahrheiten stuetzen kannst?!..du behauptest doch auch das sich Valve an die ATI Richtlinen gehalten hat, einen Beweis bist du mir genausoschuldig. Schlißlich bringt AI ja bei HL2 auch noch ein paar %.

hoechstmoegliche Shadermodell, immer volle Genauigkeit.Das wird in zig anderen Spielen/Programmen mit PS2.0 genausogemacht (FarCry, Tron, TombRaider, 3DMark03, 3DMark05 usw...) Es ist halt der der "übliche" Weg.. Vieleicht wird es ja in Zukunft noch eine PS3.0 Pfad für HL2 geben, ggf mit dem R520?!

Nein, da du suggerieren willst, dass die Doom3 Engine ATi hardware im Gegensatz zu Nvidia Hardware absichtlich ausbremsen würde...nein mache ich nicht, ich sag nur, dass die NV Hardware besser zu Doom3 passt, jedenfals besser als die ATI Hardware und die ATI Hardware passt halt besser zu HL2.


Ich frage daher, warum müsste also nvidia Optimierungen im Treiber durchfuehren (vorallen Shaderreplacement), wenn diese doch dank der Engine bevorzugt werden?..um eben zu zeigen, dass man in diesem Spiel vor der Konkurrenz liegt. :up:

cu
BUG

Labberlippe
2004-12-09, 15:41:09
Oh doch!

Schau' Dir einfach nur mal den anderen Thread dazu an und poste dort etwas, wenn Du dann noch etwas zu sagen hast. Ist nun wirklich nicht gegen Dich gerichtet, aber langsam läuft das Faß schlicht über...

Auch ist das "Valve"-Thema hier vollständig OT, oder was meinst Du, warum dieser Thread hier extra heraus gesplittet wurde?
:confused:

Razor

Hi

Ich habe den Thread gelesen, dennoch ändert sich hier an der argumentationsweisen div. Member nichts da noch immer die gleichen punkte angesprochen werden, egal ob es jetzt anders formuliert wird.

Siehe die Postings ober mir.

@Razor Du hast aber mein Posting auch gelesen oder?
Oder willst Du nur meine Grundaussage nicht verstehen.


Gruss Labberlippe

betasilie
2004-12-09, 16:11:40
..du behauptest doch auch das sich Valve an die ATI Richtlinen gehalten hat, einen beweis bist du mir genausoschuldig. Schlißlich bringt AI ja bei HL2 auch noch ein paar %.
Ack. Außerdem hat ATI erst kurz vor dem Release einen extra optimierten beta Treiber gebracht. Wenn Valve sich so nach ATI gerichtet hätte, wäre so ein Treiber nicht nötig gewesen, bzw. wäre er vorher gekommen.

Bei Doom3 hingegen war der Treiber mit seinem Shaderreplacement schon Monate vor dem Doom3 Release verfügbar. Sowas nenne ich Bevorzugung und zeigt, dass NV einen gekauften Vorteil bei Doom3 hatte.

Mr. Lolman
2004-12-09, 17:47:52
Ack, ausserdem zeigt mein Benchmarkvergleich, dass die wirklichen Performancesprünge in D³ eh erst nach dem 4.9b kamen...

LovesuckZ
2004-12-09, 19:25:38
..dennoch Spekulation, du, ich, keiner weis sorecht wieso er weggelasen wurde, vieleicht hatte er noch Probleme oder Valve war letztendlich nicht vom Gesammtbild überzeugt (was auch immer das bedeuten mag).

Sie gingen damit hausieren. Ansonsten schaue dir bitte die folien zum Mixed Mode an und sage mir, warum nichts davon im fertigen Spiel enthalten ist.
Nein, lasse es. Da wird nichts kommen. Und solange bleibt die These "Das Geld Valve regiert" bestehen. Ihr bringt ja keine Entkraeftigung.

..der NV40 kommt doch recht gut dabei weg, [...]

Er waere aber noch schneller.
Aber ich hoffe, bald kommt ein Spiel, was nur Shader nach 2.a Profil unterstuetzt. Ich hoffe, ich sehe dann niemanden aus der roten fraktion heulen, der das jetzige Verhalten von Valve gut findet.

..du behauptest doch auch das sich Valve an die ATI Richtlinen gehalten hat, einen Beweis bist du mir genausoschuldig.

Erkundige dich, was ATi für Richtlinien zur FX Zeit bezueglich DX9 hatte.
Und entkraeftige verdammt nochmal meine Argumente.

Schlißlich bringt AI ja bei HL2 auch noch ein paar %.

Texturoptimierung. Wie in UT2003/4.

Das wird in zig anderen Spielen/Programmen mit PS2.0 genausogemacht (FarCry, Tron, TombRaider, 3DMark03, 3DMark05 usw...) Es ist halt der der "übliche" Weg..

Farcry nutzt seit 1.3 _pp hints, tron ist ein DX8 Game, TR keine Ahnung, wahrscheinlich sind aber auch __pp hints, 03 wurde mit Assembler geschrieben und 05 nutzt im Standardmodus _pp hints bei Nvidia.

..nein mache ich nicht, ich sag nur, dass die NV Hardware besser zu Doom3 passt, jedenfals besser als die ATI Hardware und die ATI Hardware passt halt besser zu HL2.


Nein?
"Doom3 dennoch auf die NV Hardware Optimiert[...]". Das danach spar ich mir, weil der erste Satz dann keinen Sinn ergibt, ebenfalls umgedreht.
Und bezueglich HL²: Wenn ich de Nvidiahardware absichtlich ausbremse, ist es klar, dass die ATi Hardware besser ist.
Irgendwie logisch, wie der taegliche Sonnenaufgang.

Aber danke, du beweist eindrucksvoll, wie in diesem Forum diskutiert wird:
Garnicht!

BUG
2004-12-09, 19:47:19
Sie gingen damit hausieren. Ansonsten schaue dir bitte die folien zum Mixed Mode an und sage mir, warum nichts davon im fertigen Spiel enthalten ist...frag doch Valve woher soll ich das wissen? Die werden dir schon eine mehr oder weniger passende Antwort geben, oder auch nicht.

Nein, lasse es. Da wird nichts kommen. Und solange bleibt die These "Das Geld Valve regiert" bestehen. Ihr bringt ja keine Entkraeftigung...aha, soviel also zum Thema diskutieren.

Er waere aber noch schneller.
Aber ich hoffe, bald kommt ein Spiel, was nur Shader nach 2.a Profil unterstuetzt. Ich hoffe, ich sehe dann niemanden aus der roten fraktion heulen, der das jetzige Verhalten von Valve gut findet...vieleicht wäre ATI auch "noch schneller" wenn ID andere Shader / Schatten oder was weis ich was eingesetzt hätte. Die Frage ist Sinnfrei, es ist eben so wie es ist.. Auf dein 2.a oder PS3.0 Only spiel wirst du wohl noch lange Zeit warten müssen, ich weis nicht was das hier jetzt zu suchen hat, HL2 läuft wunderprächig auf dem NV40 und auf dem NV3x mit ein paar Einschränkungen.


Erkundige dich, was ATi für Richtlinien zur FX Zeit bezueglich DX9 hatte. Und entkraeftige verdammt nochmal meine Argumente.Argumente .. wo? ..ich seh nur Vermutungen und Verschwörungs Theorien.


Farcry nutzt seit 1.3 _pp hints, tron ist ein DX8 Game, TR keine Ahnung, wahrscheinlich sind aber auch __pp hints, 03 wurde mit Assembler geschrieben und 05 nutzt im Standardmodus _pp hints bei Nvidia...vielcht kommt ja bei HL2 auch noch ein Patch der hier und da PP erlaubt?! ..aber mit vieleicht und warscheinlich kommen wir hier eh nicht weiter und das der 05 PP nutzt wäre mir neu. Selbt wenn es so wäre, dann ist es eine nette Geste von FM. =)

Nein?
"Doom3 dennoch auf die NV Hardware Optimiert[...]". Das danach spar ich mir, weil der erste Satz dann keinen Sinn ergibt, ebenfalls umgedreht.
Und bezueglich HL²: Wenn ich de Nvidiahardware absichtlich ausbremse, ist es klar, dass die ATi Hardware besser ist...dann hast du das wohl falsch verstanden, in Gewisser weise ist eine Möglichkeit Dinge schneller zu erledigen als andere eine "Optimierung" (Optimierung im Sinne es läuft auf A besser als auf B). HL2 bremmst jedefals NV Karten nicht "künstich aus" sie bekommen den selben Code wie auch die ATI Karten zu fressen (bis auf die "Bevormundung" der NV3x Generation). Bei der NV3x Generation war es halt eine Radikal-Kur da für FP24/FP32 zu langsam. Wenn man auf dem NV40 alles mit FP16 berechnet wird es ja nicht schneller sondern sogar langsamer! Aber da is natürlich wieder die Engine oder der Ungünstige / die Ungünstigen Shader schuld, nur komisch das dann der NV3x von FP16 profitiert nur der NV40 nicht.

Aber danke, du beweist eindrucksvoll, wie in diesem Forum diskutiert wird: Garnicht!..aha ja ne is klar, wieso schreib ich dann den ganzen scheiß hier?! :rolleyes:

cu
BUG

r@w
2004-12-10, 07:58:40
Hi auch...
Hi

Ich habe den Thread gelesen, dennoch ändert sich hier an der argumentationsweisen div. Member nichts da noch immer die gleichen punkte angesprochen werden, egal ob es jetzt anders formuliert wird.

Siehe die Postings ober mir.Ja leider...
'Verstehen' ist halt nicht jedermanns Sache.

@Razor Du hast aber mein Posting auch gelesen oder?
Oder willst Du nur meine Grundaussage nicht verstehen.Ich habe zumindest Deine Meinung aufgenommen, auch wenn ich sie nicht verstehen kann.

Valve scheint hier ganz klar massiv gegen gewisse Grundregeln verstoßen zu haben und das ist in dieser Form schlicht einmalig. Bei D3 ist hingegen nichts schief gegangen, lediglich der Leak von ATI höchstpersönlich hat sie selber ins Hintertreffen geraten lassen (vermutlich). Auf jeden Fall werden sie weder optisch noch Performance-seitig massiv benachteiligt, oder siehst Du das anders?

Das eine jetzt mit dem anderen zu vergleichen oder gar das eine mit dem anderen zu begründen ist schon harnebüchen und hilft der eigentlichen Diskussion auch nicht wirklich weiter.

Zu Doom3 gibt's ja offenbar nichts mehr zu sagen (wenn ich die Posts hier richtig verstanden habe), insofern man sich schon wieder an der Valve-Geschichte aufhängt, obwohl dies rein gar nichts mit dem hier angesprochenen Thema zu tun hat.

Und warum die Mods den Ursprungs-Thread gesplittet haben, scheinen hier ebenso die meisten nicht zu begreifen. Ist ja auch vielleicht zuviel verlangt...

Razor

Gast
2004-12-17, 19:10:31
Bei dem ganzen Gerede um angebl. NV Cheats bei diesem Spiel fällt mir auf, daß dies doch eigentlich keine Cheats sind.

Das ist doch eher genau das was, wofür NV die FX Serie entworfen hat.
Wenn überhaupt, könnte man sagen das ATi Hardware so schnell ist, das es dort nicht nötig wurde, auf FP16 und FX12 zurückzugreifen.

Das kann (und ist) ein Vorteil -gerade mit dem DX9 was Microsoft nun festgelegt hat.

Doom3 zeigt, das die FX durchaus mithalten kann. Selbst wenn es bei anderen Spielen mit mehr Shadern häufiger notwendiger werden sollte, auf FP24 und höher zurückzugreifen -dann wäre Sie wieder hinter den ATi´s

aber mit einer 9600er müsste man sich dann wohl nicht vergleichen!

Black-Scorpion
2004-12-17, 21:04:51
Bei dem ganzen Gerede um angebl. NV Cheats bei diesem Spiel fällt mir auf, daß dies doch eigentlich keine Cheats sind.

Das ist doch eher genau das was, wofür NV die FX Serie entworfen hat.
Sorry, aber das ist Blödsinn.
Ich empfehle mal diesen Beitrag zu lesen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157

Grestorn
2004-12-17, 23:11:04
Sorry, aber das ist Blödsinn.
Ich empfehle mal diesen Beitrag zu lesen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157Shaderreplacements sind keine Cheats. Ein Cheat ist, die Grafik anders zu erzeugen, als der Programmierer das gewollt hat (also mit einem anderen Algorithmus).

Der "Humus-Patch" ist ein Beispiel für einen Cheat (Berechnung statt Textur-Lookup). Ein Shaderreplacement, in welchem nur Kommandos umgestellt werden, aber die Semantik des Algorithmus erhalten bleibt, ist kein Cheat.

BUG
2004-12-17, 23:15:42
Shaderreplacements sind keine Cheats. Ein Cheat ist, die Grafik anders zu erzeugen, als der Programmierer das gewollt hat (also mit einem anderen Algorithmus).

Der "Humus-Patch" ist ein Beispiel für einen Cheat (Berechnung statt Textur-Lookup). Ein Shaderreplacement, in welchem nur Kommandos umgestellt werden, aber die Semantik des Algorithmus erhalten bleibt, ist kein Cheat.Schader-Replacement ist auch ein Cheat, nämlich genau dann wenn das Ergebnis nicht das gleiche ist wie vom Programierer erwünscht und unter Umständen Bildqualität geopfert wird.

cu
BUG

Gast
2004-12-18, 11:27:03
Sorry, aber das ist Blödsinn.
Ich empfehle mal diesen Beitrag zu lesen.

Ich habe mich in erster Linie mal auf Aussagen wie

das ist ja nur FP16/FX12, meine ATi macht das alles mit FP24, den Vergleich kannste knicken -die ATi muß ja wesentlich mehr Arbeiten...

oder

der NV30 Renderpfad in Doom3 rendert ja vieles mit Fixpoint = CHEAT

Nein, es ist nur logisch eine Hardware (FXen) dafür zu benutzen, wofür sie ursprünglich entworfen wurde.

Unlogisch und absolut blödsinnig ist es, 50% der vorhandenen Rechenpower liegen zu lassen.

Gast
2004-12-18, 11:39:57
@Anonym_001

Demi vermutet nur,

was haben wir denn normalerweise?

ATI = 8 Pipelines vs. NV = 4 Pipelines

Doom3:

ATI = 8 Piplines vs. NV = 8 (4) Pipelines (siehe NV30 inside Artikel)

Dazu kommt noch die Tatsache, das eine bisher nicht genutzte Technik-

ULTRA SHADOW

massiv zum Einsatz kommt. Oder warum glaubst du, das NV diese Technik eigentlich immer am Beispiel von Doom3 demonstriert hat?

Coda
2004-12-18, 11:45:12
der NV30 Renderpfad in Doom3 rendert ja vieles mit Fixpoint = CHEAT
Carmack hatte ursprünglich eh einen NV_fragment_program FX12 Pfad eingebaut, den er dann aber durch die "Treiberoptimierungen" von nVidia wieder entfernt hat.
Also würde ich das nicht als Cheat bezeichne, es wäre wohl nur besser gewesen wenn Carmack einfach den Pfad dringelassen hätte.
Visuelle Unterschiede sind eh nicht festzustellen bei den Doom 3 Shadern.

Jesus
2004-12-18, 12:30:11
Dazu kommt noch die Tatsache, das eine bisher nicht genutzte Technik-

ULTRA SHADOW

massiv zum Einsatz kommt. Oder warum glaubst du, das NV diese Technik eigentlich immer am Beispiel von Doom3 demonstriert hat?

Jo, und leider gibt es immer noch nichts dass darauf hindeuten würde dass diese Technik überhaupt etwas bringt, im Gegenteil.

Da fällt mir eigentlich nur (wieder mal ;) ) der Tombman´sche Schatten aus/an Vergleich ein bei dem klar wurde dass dieses Feature erstmal massiv NICHTS bringt (und das bei NV40 !)

(btw. ein R3xx ist bei D3 meist schneller als eine FX ;) (afaik [H] erste D3 Benchmarks...))

IVN
2004-12-18, 12:49:30
(btw. ein R3xx ist bei D3 meist schneller als eine FX ;) (afaik [H] erste D3 Benchmarks...))

Only with core/memory 700/700 MHz clock. :ulol:

Mantikor
2004-12-18, 13:09:26
(btw. ein R3xx ist bei D3 meist schneller als eine FX ;) (afaik [H] erste D3 Benchmarks...))

Falsch, 5950 und 98XT (4.9b) waren etwa auf gleichem Nivo, wie es jetzt aussieht kann ich nicht sagen;).

Jesus
2004-12-18, 13:29:33
Falsch, 5950 und 98XT (4.9b) waren etwa auf gleichem Nivo, wie es jetzt aussieht kann ich nicht sagen;).

stimmt so in etwa http://www2.hardocp.com/article.html?art=NjQyLDQ=
Allerdings dürfte das jetzt mit Shaderreplacement anders aussehen ;)

Only with core/memory 700/700 MHz clock. :ulol:

nicht witzig und völlig falsch, wie so oft.

Gast
2004-12-18, 14:17:54
Jo, und leider gibt es immer noch nichts dass darauf hindeuten würde dass diese Technik überhaupt etwas bringt, im Gegenteil.

Da fällt mir eigentlich nur (wieder mal ;) ) der Tombman´sche Schatten aus/an Vergleich ein bei dem klar wurde dass dieses Feature erstmal massiv NICHTS bringt (und das bei NV40 !)

(btw. ein R3xx ist bei D3 meist schneller als eine FX ;) (afaik [H] erste D3 Benchmarks...))

Nun ja, mit welcher Doom3 Version hat Tombman denn getestet?

Per Default war die funktion erst mit dem Patch aktiviert. Keiner von uns weiß doch genau wie die implementiert ist. Vielleicht kann man die gar nicht komplett abschalten.
Und wenn schon, die CineFX Engine hat wie oben immer erwähnt noch den 8 (4) Pipeline Vorteil, den sie sonst nicht hat.
Es bleibt wohl dabei, die für Carmack eingebauten Features wirken durchaus. Dennoch bleibt ebenfalls festzuhalten, das die ATi´s trotz schlechterer OpenGL Treiber und OHNE diese Features klarkommen.

reunion
2004-12-18, 14:18:22
Carmack hatte ursprünglich eh einen NV_fragment_program FX12 Pfad eingebaut, den er dann aber durch die "Treiberoptimierungen" von nVidia wieder entfernt hat.
Also würde ich das nicht als Cheat bezeichne, es wäre wohl nur besser gewesen wenn Carmack einfach den Pfad dringelassen hätte.
Visuelle Unterschiede sind eh nicht festzustellen bei den Doom 3 Shadern.

Der NV3x-Pfad ist einfach vom Spiel in der Treiber gewandert um die bevorzugung von NV bei Doom3 nicht ganz so offensichtlich zu machen.

Gast
2004-12-18, 14:31:58
Der NV3x-Pfad ist einfach vom Spiel in der Treiber gewandert um die bevorzugung von NV bei Doom3 nicht ganz so offensichtlich zu machen.

worin siehst du da eine bevorzugung? ist doch egal, ob der pfad in der engine oder im treiber ist.

Tigerchen
2004-12-18, 14:39:19
Ich habe mich in erster Linie mal auf Aussagen wie

das ist ja nur FP16/FX12, meine ATi macht das alles mit FP24, den Vergleich kannste knicken -die ATi muß ja wesentlich mehr Arbeiten...

oder

der NV30 Renderpfad in Doom3 rendert ja vieles mit Fixpoint = CHEAT

Nein, es ist nur logisch eine Hardware (FXen) dafür zu benutzen, wofür sie ursprünglich entworfen wurde.

Unlogisch und absolut blödsinnig ist es, 50% der vorhandenen Rechenpower liegen zu lassen.

Unlogisch und blödsinnig ist es für die paar verkaufen FX 5900/5950 einen Renderpfad weiter zu verfolgen wenn sich abzeichnet daß mit dem nV40 ein Nachfolger da ist der darauf nicht angewiesen ist. Zumal selbst dem laut Valve sehr arbeitsintensiven mixed mode die Renderleistung sehr bescheiden bleibt. Die FX'en sind und bleiben Gurken. Selbst unter Doom 3 mit der sehr exotischen und alle Systeme ausbremsenden Schattentechnik kann die FX sich kaum absetzen. Und du kannst wohl kaum erwarten daß jetzt alle Spiele so wie Doom 3 gemacht werden nur damit die FX mithalten kann. Wobei selbst dann die gesamte FX 5200/5600/5700/5800 Riege immer noch chancenlos ist.

Tigerchen
2004-12-18, 14:42:15
Nun ja, mit welcher Doom3 Version hat Tombman denn getestet?

Per Default war die funktion erst mit dem Patch aktiviert. Keiner von uns weiß doch genau wie die implementiert ist. Vielleicht kann man die gar nicht komplett abschalten.
Und wenn schon, die CineFX Engine hat wie oben immer erwähnt noch den 8 (4) Pipeline Vorteil, den sie sonst nicht hat.
Es bleibt wohl dabei, die für Carmack eingebauten Features wirken durchaus. Dennoch bleibt ebenfalls festzuhalten, das die ATi´s trotz schlechterer OpenGL Treiber und OHNE diese Features klarkommen.

ATI's OpenGL-Treiber sind nicht schlecht. Etwas langsamer sicher. Nur hebt sich daß auf sobald man das geniale Tripplebuffer-Feature aktiviert.

Gast
2004-12-18, 15:07:04
Unlogisch und blödsinnig ist es für die paar verkaufen FX 5900/5950 einen Renderpfad weiter zu verfolgen wenn sich abzeichnet daß mit dem nV40 ein Nachfolger da ist der darauf nicht angewiesen ist. Zumal selbst dem laut Valve sehr arbeitsintensiven mixed mode die Renderleistung sehr bescheiden bleibt. Die FX'en sind und bleiben Gurken. Selbst unter Doom 3 mit der sehr exotischen und alle Systeme ausbremsenden Schattentechnik kann die FX sich kaum absetzen. Und du kannst wohl kaum erwarten daß jetzt alle Spiele so wie Doom 3 gemacht werden nur damit die FX mithalten kann. Wobei selbst dann die gesamte FX 5200/5600/5700/5800 Riege immer noch chancenlos ist.


Käse, Half Life 2 sollte schon viel früher auf den Markt kommen -da war vom NV40 noch nichts zu sehen!
Außerdem ist HL2 nicht irgend ein Spiel, sondern ein langerwarteter Knaller -NVIDIA hätte sich sicherlich "gerne" die Mühe gemacht einige Leute bei Valve abzustellen um denen bei Shaderprogrammieren unter die Arme zu greifen.
Gehen wir mal davon aus, das es nicht erlaubt war (ATi).

FX Riege und chancenlos? (in Doom3)

ne 5600er überflügelt mal eben bei besserer Qualität eine Ti4200 !
ne 5700er ist schneller als ne 9600er Pro !
ne 5800er ist sogar ohne ULTRA SHADOW nahe an ner 5900er !

Ein NV30 Pfad hätte doch allen FX Chips geholfen!

Jesus
2004-12-18, 15:12:39
FX Riege und chancenlos? (in Doom3)

ne 5600er überflügelt mal eben bei besserer Qualität eine Ti4200 !
ne 5700er ist schneller als ne 9600er Pro !
ne 5800er ist sogar ohne ULTRA SHADOW nahe an ner 5900er !


5700 = Preissegment 9600XT und diese ist meist schneller (http://www.xbitlabs.com/articles/video/display/fx5700ultra-9600xt.html).

Gast
2004-12-18, 15:25:48
5700 = Preissegment 9600XT und diese ist meist schneller (http://www.xbitlabs.com/articles/video/display/fx5700ultra-9600xt.html).

Also wirklich, das ist die Karte mit der schlechtesten ATi Bildqualität!

Bei den Default Settings in Doom3 ist die 5700er schneller!

Warum hängst du nicht ein FarCry-Benchmark Pic an? -dort können alle "OT" sehen wie recht du hast :-)

Mr. Lolman
2004-12-18, 15:42:13
ne 5600er überflügelt mal eben bei besserer Qualität eine Ti4200 !
ne 5700er ist schneller als ne 9600er Pro !
ne 5800er ist sogar ohne ULTRA SHADOW nahe an ner 5900er !


Alles falsch. Woher hast du die Infos?

Nur die 5800er Geschichte mag stimmen, solange es sich um shaderlose Spiele handelt. Und kapiert doch endlich: Ultra Shadow ist zumindest bei D³ für die Katz.

Mr. Lolman
2004-12-18, 15:43:57
Also wirklich, das ist die Karte mit der schlechtesten ATi Bildqualität!

Bei den Default Settings in Doom3 ist die 5700er schneller!


Wobei das wohl das einzige Spiel sein wird, wo dies so ist.

Und deine Ati Karte mit der schlechtesten BQ hat immernoch ne bessere BQ als die FX5700, weil die genauso einen brilinearen Filterverwendet, TS Optimierungen hat, aber im Ggs zu Ati nur ein 4xOGMSAA beherrscht, welches außerdem noch nichtmal gammakorrigiert ist.

IVN
2004-12-18, 16:52:03
nicht witzig und völlig falsch, wie so oft.

Too bad.You are studying IT,and still have no idea about 3D gaphics. ;)




P.S. You always give some benchmarks hoping to be right,but you can give no explenation why the scores are as they are.

P.S.2 You trust Tombman and his benchmark scores to much.

Jesus
2004-12-18, 17:00:08
Too bad.You are studying IT,and still have no idea about 3D gaphics. ;)




P.S. You always give some benchmarks hoping to be right,but you can give no explenation why the scores are as they are.

P.S.2 You trust Tombman and his benchmark scores to much.

Danke, und wo sind jetzt die Argumente die irgendwas von dem widerlegen was ich auf der letzten Seite gepostet habe, oder was deine "These" mit den 700 Mhz bestätigen würde ? :rolleyes:

IVN
2004-12-18, 17:03:21
Alles falsch. Woher hast du die Infos?

Nur die 5800er Geschichte mag stimmen, solange es sich um shaderlose Spiele handelt. Und kapiert doch endlich: Ultra Shadow ist zumindest bei D³ für die Katz.

You could read a book like 3D Gems or Cg tutorial,and you would see that this feature can save much fillrate.


@Tigerchen

D3 shadow technique is one of the best at the moment.
The only thing that you don't like about it is ATI's lower performance,isn't it so? :confused:
Compared to HL2 shadows it's light years ahead.

Jesus
2004-12-18, 17:08:29
You could read a book like 3D Gems or Cg tutorial,and you would see that this feature can save much fillrate.

Theorie, Theorie ;)

Wieso hängt dann eine FX einen R350 nicht meilen weit ab? Sondern liegt auf selbem Level mit diesem, obwohl dieser kein Ultrashadow (usw.) hat (und weniger Takt :biggrin: , weniger treiberoptimiert etc.) ?

IVN
2004-12-18, 17:10:40
Danke, und wo sind jetzt die Argumente die irgendwas von dem widerlegen was ich auf der letzten Seite gepostet habe, oder was deine "These" mit den 700 Mhz bestätigen würde ? :rolleyes:

Take a look here (http://www.anandtech.com/video/showdoc.aspx?i=2146&p=4) ,or here (http://www.xbitlabs.com/articles/video/display/doom3_9.html) .




P.S. That with 700 mhz was just a joke. =)

IVN
2004-12-18, 17:12:49
Theorie, Theorie ;)

Wieso hängt dann eine FX einen R350 nicht meilen weit ab? Sondern liegt auf selbem Level mit diesem, obwohl dieser kein Ultrashadow (usw.) hat (und weniger Takt :biggrin: , weniger treiberoptimiert etc.) ?

Maybe D3 doesn't support UltraShadow.And i don't think you can give some proof that it does,can you? ;)

Mr. Lolman
2004-12-18, 17:22:38
Doch, Ultra Shadow wird von Doom³ unterstützt. Allerdings muß man es nachträglich aktivieren. Bringt iirc auch bis ~3% Performance...

IVN
2004-12-18, 17:27:23
Doch, Ultra Shadow wird von Doom³ unterstützt. Allerdings muß man es nachträglich aktivieren. Bringt iirc auch bis ~3% Performance...

And PS2++ is supported in Riddick. :hammer:

Uuups,that's just an OpenGL game. :ulol:


P.S. Not everything that is on the package is the truth.

Tigerchen
2004-12-18, 17:40:10
You could read a book like 3D Gems or Cg tutorial,and you would see that this feature can save much fillrate.


@Tigerchen

D3 shadow technique is one of the best at the moment.
The only thing that you don't like about it is ATI's lower performance,isn't it so? :confused:
Compared to HL2 shadows it's light years ahead.

Falsch Doom3 shadows gefallen mir nicht. Viel zu hart. Viel zu dunkel.
Unterstell mir bitte nicht ich würde die nicht gut finden weil ATI die nicht so schnell darstellen kann.

IVN
2004-12-18, 17:44:56
Falsch Doom3 shadows gefallen mir nicht. Viel zu hart. Viel zu dunkel.
Unterstell mir bitte nicht ich würde die nicht gut finden weil ATI die nicht so schnell darstellen kann.



O.K. i only asked.
I just wanted to know the reason.

Jesus
2004-12-18, 18:03:18
And PS2++ is supported in Riddick. :hammer:

Uuups,that's just an OpenGL game. :ulol:


P.S. Not everything that is on the package is the truth.

So what you imply now is that US is not used in D3 because it only gives you 3% performance ? :rolleyes:

IVN
2004-12-18, 18:30:46
So what you imply now is that US is not used in D3 because it only gives you 3% performance ? :rolleyes:

No,i just like to compare non existent features in games.Like PS2++ in Riddick and US in D3. =)

Gast
2004-12-18, 18:58:06
Alles falsch. Woher hast du die Infos?

Nur die 5800er Geschichte mag stimmen, solange es sich um shaderlose Spiele handelt. Und kapiert doch endlich: Ultra Shadow ist zumindest bei D³ für die Katz.

Ich spreche von Doom3, dort ist eine FX5600 schneller als eine Ti4200. Sonst nicht, da hast du recht, aber gerade deshalb ist es ja etwas besonderes!

Zum Thema Bildqualität und Kantenglättung:

Dafür sind eigentlich beide zu langsam! (ganz besonders in Doom3). Und wenn ich Doom3 mit den kleinen 5700er/9600er nur ohne Spielen kann, bleibt es dabei!

Richtig ist, das die ATi´s ab 4x AA bessere Qualität bieten, doch das ist für diese Karten ohnehin zuviel!

tb
2004-12-18, 19:48:30
So what you imply now is that US is not used in D3 because it only gives you 3% performance ? :rolleyes:

Ultra Shdow are two things:

- EXT_depth_bound_test
- the ability to render "stencil pixel" at a higher rate


Thomas

Coda
2004-12-18, 20:00:57
Falsch Doom3 shadows gefallen mir nicht. Viel zu hart. Viel zu dunkel.
Du meinst was anderes. Schatten sind immer dunkel, weil Schatten = kein Licht.

Was du willst ist Global Illumination in Realtime, davon sind wir aber noch paar Jährchen entfernt.

Es hat übrigens einer paar Levelchen mit HL² Content für D3 entworfen, das sieht nichtmal so schlecht aus...
Ich glaube das Hauptsächlich das Artwork bei D3 scheiße ist, nicht die Schatten ;)

r@h
2004-12-18, 20:09:35
Doch, Ultra Shadow wird von Doom³ unterstützt. Allerdings muß man es nachträglich aktivieren. Bringt iirc auch bis ~3% Performance...Der 'extra'-Schatten ist kein 'Performance'-Feature, wie Du ja hoffentlich weißt. Hast Du Dir das mal anzeigen lassen? Der Rechenaufwand steigt plötzlich exponential und bringt trotzdem noch ein bissel Performance auf den FX'en/6x00'er... ein eindeutiger Beweis für die Existenz von US1/2 auf desen Karten.

Razor

P.S.: um was geht's hier wieder eigentlich? ;)

r@w
2004-12-18, 20:19:27
Sorry, aber das ist Blödsinn.
Ich empfehle mal diesen Beitrag zu lesen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157Und das wäre?
Wenn es keinen optischen Unterschied gibt, ist alles "kein Cheat", oder siehst Du das anders?
:confused:

Wenn Du also der Meinung bist, dass nVidia hier BQ 'opfert', um Perfromance zu schinden, wäre dies ein berechtigter Mangel und sollte aufgezeigt werden. Etwas einfach zu behaupten, weil ja nicht sein kann, was nicht sein darf, ist ein bischen arm, finde ich.

Razor

Black-Scorpion
2004-12-18, 20:58:40
Und das wäre?
Wenn es keinen optischen Unterschied gibt, ist alles "kein Cheat", oder siehst Du das anders?
:confused:

Wenn Du also der Meinung bist, dass nVidia hier BQ 'opfert', um Perfromance zu schinden, wäre dies ein berechtigter Mangel und sollte aufgezeigt werden. Etwas einfach zu behaupten, weil ja nicht sein kann, was nicht sein darf, ist ein bischen arm, finde ich.

Razor
Das hatten wir doch schon mal.
Selbst wenn keine BQ geopfert wird ist es für mich ein Cheat.
Weil durch Shaderreplacement eine Leistung dargestellt wird die nur in dem einen Spiel zum tragen kommt.
Und ja, auch bei ATI ist es ein Cheat.
Wenn Spiele gebencht werden soll die Leistung der Hardware bewertet werden.
Und nicht die Fähigkeit der Programierer so viele Shader wie möglich gegen die eigenen auszutauschen.
Denn genau deswegen wird es gemacht, nur um den längsten Balken zu haben.
Den zum Spielen reicht die Leistung der Karten auch so.

PS. Normal könnte es mir vollkommen egal sein.
Ich habe weder D³ noch HL². ;)

Jesus
2004-12-18, 21:04:01
Der 'extra'-Schatten ist kein 'Performance'-Feature, wie Du ja hoffentlich weißt. Hast Du Dir das mal anzeigen lassen? Der Rechenaufwand steigt plötzlich exponential und bringt trotzdem noch ein bissel Performance auf den FX'en/6x00'er... ein eindeutiger Beweis für die Existenz von US1/2 auf desen Karten.

Razor

P.S.: um was geht's hier wieder eigentlich? ;)

Wovon redest du bitte ?

Seraf
2004-12-18, 21:26:47
Wovon redest du bitte ?

Spielt ihr eigentlich auch mal was? Seit ja öfters hier als anderswo :wink:

Razor meint wohl das UO mehr Rechenaufwand benötigt, sich dies aber nicht negativ auf die Performance auswirkt.

Jesus
2004-12-18, 21:44:59
Spielt ihr eigentlich auch mal was? Seit ja öfters hier als anderswo :wink:

Razor meint wohl das UO mehr Rechenaufwand benötigt, sich dies aber nicht negativ auf die Performance auswirkt.

Jo, an der Darstellung ändert sich aber nichts. US wird eigentlich dazu benutzt um weniger rechnen zu müssen.

Grestorn
2004-12-18, 22:20:51
Schader-Replacement ist auch ein Cheat, nämlich genau dann wenn das Ergebnis nicht das gleiche ist wie vom Programierer erwünscht und unter Umständen Bildqualität geopfert wird.

cu
BUGRichtig, wenn das Ergebnis nicht das gleiche ist.

Die allermeisten Shaderreplacements ändern aber am Ergebnis schlicht gar nichts. Shaderreplacement != Optimierung a la Brilinear und co.

Demirug
2004-12-18, 22:24:46
Richtig, wenn das Ergebnis nicht das gleiche ist.

Die allermeisten Shaderreplacements ändern aber am Ergebnis schlicht gar nichts. Shaderreplacement != Optimierung a la Brilinear und co.

Mit solchen Behauptungen wäre ich aber bei nVidia vorsichtig. Ich sage nur SHD und TEXTURESTAGEANISOCAP. Aber auch für ATI würde ich da nicht die Hand ins Feuer legen bei denen ist einfach nur noch kein entsprechendes Dokument abhanden gekommen.

Grestorn
2004-12-18, 22:31:16
Das hatten wir doch schon mal.
Selbst wenn keine BQ geopfert wird ist es für mich ein Cheat.
Weil durch Shaderreplacement eine Leistung dargestellt wird die nur in dem einen Spiel zum tragen kommt.
Und ja, auch bei ATI ist es ein Cheat.
Wenn Spiele gebencht werden soll die Leistung der Hardware bewertet werden.
Und nicht die Fähigkeit der Programierer so viele Shader wie möglich gegen die eigenen auszutauschen.
Denn genau deswegen wird es gemacht, nur um den längsten Balken zu haben.
Den zum Spielen reicht die Leistung der Karten auch so.

PS. Normal könnte es mir vollkommen egal sein.
Ich habe weder D³ noch HL². ;)Himmelhergott noch eins.

Ein ShaderPROGRAMM gibt einen Algorithmus vor, der von der Hardware auzuführen ist. Jeder bessere Compiler, in bestimmten Fällen sogar die Hardware selbst, stellen die Anweisungen um, um eine bessere Performance zu erhalten.

Wenn dabei die Semantik (Du weißt, was das bedeutet?) 1:1 erhalten bleibt, dann ist diese Umstellung LEGAL!!!!

Und es spielt dabei absolut keine Rolle, wie diese Optimierung zustande kommt. Wenn es ein allgemeingültiger Algorithmus im Treiber schafft, einen Shader zu optimieren, so ist das toll. Wenn das nicht geht, und der Treiber eine längere Shaderprogramm-Sequenz erkennt und vollständig durch eine optimalere (und semantisch identische) ersetzt, so ist das weniger optimal (da mehr Aufwand für den Treiberhersteller und nicht sofort für alle anderen Programme nützlich), aber es bleibt legal und ist weit von einem Cheat entfernt.

Grestorn
2004-12-18, 22:36:50
Mit solchen Behauptungen wäre ich aber bei nVidia vorsichtig. Ich sage nur SHD und TEXTURESTAGEANISOCAP. Aber auch für ATI würde ich da nicht die Hand ins Feuer legen bei denen ist einfach nur noch kein entsprechendes Dokument abhanden gekommen.Ich habe nie bestritten, dass es bei nVidia (und ATI) Optimierungen gibt, die die Bildqualität (negativ) beeinflussen.

Das gilt aber nicht für Shaderreplacements. Ich denke, nVidia würde sich ziemlichen Ärger mit dem Spielehersteller (und den Kunden) einhandeln, wenn ein ersetzter Shader den Algorithmus verändern würde. Eine korrekte Darstellung von neuen Leveln und Mods wäre dann nicht mehr gewährleistet, da eine Änderung des Algorithmus sich fast immer irgendwie im Ergebnis auswirkt.

Demirug
2004-12-18, 22:55:24
Ich habe nie bestritten, dass es bei nVidia (und ATI) Optimierungen gibt, die die Bildqualität (negativ) beeinflussen.

Das gilt aber nicht für Shaderreplacements. Ich denke, nVidia würde sich ziemlichen Ärger mit dem Spielehersteller (und den Kunden) einhandeln, wenn ein ersetzter Shader den Algorithmus verändern würde. Eine korrekte Darstellung von neuen Leveln und Mods wäre dann nicht mehr gewährleistet, da eine Änderung des Algorithmus sich fast immer irgendwie im Ergebnis auswirkt.

Dir ist das SHD Format nicht vertraut, oder?

nVidia kann Replacements auch auf einzelne Levels begrenzen wenn sie das wollen.

Offiziel wird das aber nur noch gemacht wenn die originalshader Fehler enthalten oder der Shadercompiler damit überhaupt nicht zurecht kommt.

Grestorn
2004-12-18, 23:01:38
Dir ist das SHD Format nicht vertraut, oder?

nVidia kann Replacements auch auf einzelne Levels begrenzen wenn sie das wollen.

Offiziel wird das aber nur noch gemacht wenn die originalshader Fehler enthalten oder der Shadercompiler damit überhaupt nicht zurecht kommt.Nein, SHD sagt mir nichts. Ich habe auch mal eben das Forum danach durchsucht, und habe erst einen einzigen Beitrag (von Dir, in diesem Beitrag (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2561058&highlight=SHD#post2561058)) gefunden, in dem das erwähnt wurde. Erleuchte mich!

Du bist also der Meinung, die Shader werden (nur bei nVidia?) durch andere Shader ersetzt, die sich semantisch vom Original unterscheiden? Hast Du dafür Belege?

Demirug
2004-12-18, 23:18:36
Nein, SHD sagt mir nichts. Ich habe auch mal eben das Forum danach durchsucht, und habe erst einen einzigen Beitrag (von Dir, in diesem Beitrag (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2561058&highlight=SHD#post2561058)) gefunden, in dem das erwähnt wurde. Erleuchte mich!

SHD ist das interne Shaderformat von nVidia. Neben der eigentlichen Shaderhardware kann man damit auch noch das Umfeld steuern. Eine Beschreibung (nicht ganz komplett) ist nVidia vor einiger Zeit abhanden gekommen.

Du bist also der Meinung, die Shader werden (nur bei nVidia?) durch andere Shader ersetzt, die sich semantisch vom Original unterscheiden? Hast Du dafür Belege?

Es gibt auf jeden Fall Replacementshader wie viele es allerdings sind ist schwer zu sagen ohne den Treiber komplett auseinader zu nehmen und die entsprechenden Stellen dabei auch zu finden.

Das Problem mit der Semantik ist das es da durchaus schwer ist die Grenze zu ziehen. Das verändern der Reihenfolge bei einer Multiplikationskette kann durchaus schon eine Änderung herbeiführen muss dies aber nicht tun.

Solange am Ende das richtige Ergebniss (soweit man bei einer GPU von richtig sprechen kann) im Framebuffer landet ist mir das aber sowieso weitgehend egal.

Grestorn
2004-12-18, 23:28:35
Das Problem mit der Semantik ist das es da durchaus schwer ist die Grenze zu ziehen. Das verändern der Reihenfolge bei einer Multiplikationskette kann durchaus schon eine Änderung herbeiführen muss dies aber nicht tun. Das stimmt nur dann, wenn die Berechnung numerisch instabil ist. Aber du hast schon recht: Auch wenn ein Replacement-Shader formal das selbe Ergebnis haben müsste, kann man noch einiges an Fehlern machen, weil alle Formate verlustbehaftet sind, was die Genauigkeit angeht. Das muss der Treiberentwickler natürlich berücksichtigen (und das gilt genauso für automatische, allgemeine Shaderoptimierungen im Compiler/Treiber).

Für mich geht es aber um eine Abgrenzung zwischen einem Shaderreplacement und einem Cheat. Auch ein Replacement kann handwerlich schlecht gemacht sein - ohne Frage. Generell finde ich es aber trotzdem als nicht angebracht, bei einem Replacement von einem Cheat zu sprechen.

Leider hat die unrühmliche Vergangenheit von nVidia mit 3DMark03 da einiges kaputt gemacht.

Tesseract
2004-12-18, 23:45:47
Ich habe nie bestritten, dass es bei nVidia (und ATI) Optimierungen gibt, die die Bildqualität (negativ) beeinflussen.

Das gilt aber nicht für Shaderreplacements.

shaderreplacement heißt doch nichts anderes als einen shader durch einen anderen zu ersetzen. das kann eine umordnung bedeuten, aber auch eine komplett andere abhandlung mit anderem ergebnis.

Das stimmt nur dann, wenn die Berechnung numerisch instabil ist.

was meinst du mit numerisch instabil? der von demi angesprochene effekt kann jedenfalls bei jeder gleitkommamultiplikation auftreten - ungünstige zahlen vorrausgesetzt.

Grestorn
2004-12-19, 00:08:43
shaderreplacement heißt doch nichts anderes als einen shader durch einen anderen zu ersetzen. das kann eine umordnung bedeuten, aber auch eine komplett andere abhandlung mit anderem ergebnis.Legales Shaderreplacement = "Umordnung", Cheat = "andere abhandlung mit anderem ergebnis" (wie z.B. der "Humus" Doom Patch). was meinst du mit numerisch instabil? der von demi angesprochene effekt kann jedenfalls bei jeder gleitkommamultiplikation auftreten - ungünstige zahlen vorrausgesetzt.Eine bestimmte Folge von mathematischen Operationen gelten immer für einen bestimmten Wertebereich als numerisch instabil, wenn sich Rundungsfehler in den Operationen aufschaukeln.

Es musst dem Shaderprogrammierer - egal ob dies der Programmierer eines Spiels ist, oder der Programmierer von einem IHV - klar sein, dass Rundungsfehler das Ergebnis verfälschen können. Das bedeutet natürlich nicht, dass jede Umstellung ein schlechteres Ergebnis liefern muss. Im Gegenteil, es kann auch besser werden.

Unterm Strich würde ich das jedoch nicht überbewerten. Im FP24 oder 32 Format kommt es nur in Ausnahmefällen zu solchen Phänomenen, wenn man nicht mutwillig ungünstig rechnet.

Die Umstellungen werden ja nicht gemacht, um das Ergebnis zu verfälschen, sondern weil eine bestimmte Reihenfolge an Operationen für die Hardware optimaler als eine andere ist. Wenn der Spieleprogrammierer nicht für jede Hardware einen eigenen Pfad vorsehen willl, wird er für seinen Shader eine Variante suchen, die auf möglichst allen Plattformen zufriedenstellend läuft.

Wenn ein einzelner IHV diesen Shader erkennt und für seine Hardware eine bessere Variante einsetzt, so ist das nur von Vorteil für alle Beteiligten. Ich kann gar nicht begreifen, wie man das angreifen kann (es sei denn, weil man dem "feindlichen" IHV den besseren Werte nicht gönnen will).

aths
2004-12-19, 02:34:29
Das Problem mit der Semantik ist das es da durchaus schwer ist die Grenze zu ziehen. Das verändern der Reihenfolge bei einer Multiplikationskette kann durchaus schon eine Änderung herbeiführen muss dies aber nicht tun.

Solange am Ende das richtige Ergebniss (soweit man bei einer GPU von richtig sprechen kann) im Framebuffer landet ist mir das aber sowieso weitgehend egal.Da das etwas kurz war, erlaube ich mir, das Posting um einige Bemerkungen zu ergänzen:

DX9-Pixelshader rechnen im Floating-Point-Format, und die Genauigkeit bezieht sich auf die (binären) Stellen insgesamt. Bei große Zahlen sind die Abstände zwischen den einzelnen darstellbaren Zahlen also größer. Deshalb kann eine unglückliche Umsortierung zu ungenauen Ergebnissen führen.

Auch wenn die FX mit FP32 rechnet, erfüllen die Rechenwerke nicht alle Anforderungen, die an eine CPU gestellt werden. Die Folge sind unter anderem möglicherweise unglückliche Rundungsfehler, vom schwierigen Umgang mit NaN und Inf mal abgesehen. Das Ergebnis eines GPU-Rasterizer wird vom DX Reference-Rasterizer, der auf der CPU ausgeführt wird, fast immer abweichen.

Zum Glück ist (pro Farbkomponente) am Ende nur eine 8-Bit-Genauigkeit gefragt.

r@h
2004-12-19, 09:21:27
Das hatten wir doch schon mal.
Selbst wenn keine BQ geopfert wird ist es für mich ein Cheat.
Weil durch Shaderreplacement eine Leistung dargestellt wird die nur in dem einen Spiel zum tragen kommt.
Und ja, auch bei ATI ist es ein Cheat.
Wenn Spiele gebencht werden soll die Leistung der Hardware bewertet werden.
Und nicht die Fähigkeit der Programierer so viele Shader wie möglich gegen die eigenen auszutauschen.
Denn genau deswegen wird es gemacht, nur um den längsten Balken zu haben.
Den zum Spielen reicht die Leistung der Karten auch so.Und wie willst Du verhindern, dass irgendein IHV genau das macht?
Insofern dürftest Du überhaupt nichts mehr vergleichen, oder?
:confused:

Und warum sollen Karten 'verglichen' werden, wenn nicht zum Spielen?
Denn dafür sind sie doch eigentlich gedacht...

Razor

r@h
2004-12-19, 09:41:38
Jo, an der Darstellung ändert sich aber nichts. US wird eigentlich dazu benutzt um weniger rechnen zu müssen.US ist der Hardware/Software Gegenpart, um dass, was bei Doom3 einen höheren Rechenaufwand verursacht, zu kompensieren.

US ist nicht in Doom3 implementiert, sondern "depth bound test" und "stencil shadow".
US soll hier lediglich in Hardware unterstützen, dieses auszuführen...
(und ob US2 wirklich bei D3 aktiviert ist, bzw. genutzt wird, sollte auch erst einmal geklärt werden ;-)

Razor

Black-Scorpion
2004-12-19, 12:24:10
Und wie willst Du verhindern, dass irgendein IHV genau das macht?
Insofern dürftest Du überhaupt nichts mehr vergleichen, oder?
:confused:

Und warum sollen Karten 'verglichen' werden, wenn nicht zum Spielen?
Denn dafür sind sie doch eigentlich gedacht...

Razor
Wenn z.B. solche Games benutzt werden die nicht ständig und überall gebencht werden.
Denn bei der Standardliste (Domm3, HL2 u.a.) werden die Treiber mit Sicherheit von den Herstellern auf äußerste optimiert.
Bei anderen Spielen lohnt sich der Aufwand nicht und die Karten zeigen dort ihr wahres Potenzial.
Eine wirkliche Vergleichbarkeit gibt es schon eine Weile nicht mehr.
Dafür sind die Karten in Hardware schon zu optimiert.
Das muß nicht noch durch Cheaterei in den Treibern für die Toptitel der Benchmarklisten weiter ausgebaut werden.
Was bringt es mir als Kunden eine Karte zu kaufen weil sie in allen Benchmarks vorne ist und in anderen Spielen ein ganz anderes Bild zeigt.
Wer sich die Ergebnisse der Domm3 Benches ansieht muß schon fast davon ausgehen das die ATI Karten schlechter als nVidia Karten sind.
Das gillt auch für HL2, nur dort sieht es für di nVidia Karten nicht gut aus.
Du darfst nicht von den Usern hier im Forum ausgehen, sondern von den Usern die nur dei Ergebnisse sehen und daraus ihre Schlüße ziehen.

Jesus
2004-12-19, 12:30:28
US ist der Hardware/Software Gegenpart, um dass, was bei Doom3 einen höheren Rechenaufwand verursacht, zu kompensieren.

US ist nicht in Doom3 implementiert, sondern "depth bound test" und "stencil shadow".
US soll hier lediglich in Hardware unterstützen, dieses auszuführen...
(und ob US2 wirklich bei D3 aktiviert ist, bzw. genutzt wird, sollte auch erst einmal geklärt werden ;-)

Razor

oder hier ;) http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/august/doom_3_mehr_fps_geforce_6800/

tb
2004-12-19, 19:25:26
US ist der Hardware/Software Gegenpart, um dass, was bei Doom3 einen höheren Rechenaufwand verursacht, zu kompensieren.

US ist nicht in Doom3 implementiert, sondern "depth bound test" und "stencil shadow".
US soll hier lediglich in Hardware unterstützen, dieses auszuführen...
(und ob US2 wirklich bei D3 aktiviert ist, bzw. genutzt wird, sollte auch erst einmal geklärt werden ;-)

Razor

Ultra Shadow 1 und 2 sind Marketingbezeichnungen für:

- schnelles Berechnen von "Stencil Pixeln"
- EXT_depth_bounds_test (NV35, NV36, NV4x in hw only)

Beides wird standardmässig auf meiner 5700Go von Doom 3 verwendet.

Doom 3 enthält jedoch noch weitere Optimierungen für die Berechnung der Schatten, wie zum Beispiel Scissor-Tests...

Thomas

Quasar
2004-12-19, 20:38:59
Ultra Shadow 1 und 2 sind Marketingbezeichnungen für:

- schnelles Berechnen von "Stencil Pixeln"
- EXT_depth_bounds_test (NV35, NV36, NV4x in hw only)

Beides wird standardmässig auf meiner 5700Go von Doom 3 verwendet.

Doom 3 enthält jedoch noch weitere Optimierungen für die Berechnung der Schatten, wie zum Beispiel Scissor-Tests...

Thomas

Mit Patch oder ohne? IIRC war auf meiner nV30 damals der depth_bounds Test von Doom3 aus nicht aktiv.

Gast
2004-12-19, 20:41:46
Mit Patch oder ohne? IIRC war auf meiner nV30 damals der depth_bounds Test von Doom3 aus nicht aktiv.

wie sollte er auch wenn nur nv35, 36, 4x das können.:D

Gast
2004-12-19, 21:18:40
Stimmt, das US Feature ist Bestandteil der CineFX II Engine. Diese ist nur im NV35 / NV36 / NV38 enthalten. US2 ist neu hinzugekommen in der CineFX III Engine -ist ab dem NV40 zu finden!

IVN
2004-12-20, 00:16:09
Stimmt, das US Feature ist Bestandteil der CineFX II Engine. Diese ist nur im NV35 / NV36 / NV38 enthalten. US2 ist neu hinzugekommen in der CineFX III Engine -ist ab dem NV40 zu finden!

Here is the link (http://www.nvidia.com/object/feature_ultrashadow.html).



P.S. @Quasar Could you make some tests,just to be sure nvidia isn't lying. =)

tb
2004-12-20, 07:18:49
Mit Patch oder ohne? IIRC war auf meiner nV30 damals der depth_bounds Test von Doom3 aus nicht aktiv.

Mit dem letzten Update...

r@h
2004-12-20, 07:29:22
Ja, mit dem letzten Update wird's defalut-seitig aktiviert.
(davor musste es manuell aktiviert werden)

Habe das mal 'kurz' in meiner Auflösung gecheckt:

demo1 'mit' 'ohne'
1024 @ 0xAA/0°AF 80,4 80,4
1024 @ 4°AA/8°AF 60,7 60,1 -0,1%Nicht gerade überwätigend, oder?
Aber immerhin reproduzierbar...
:D

Razor

MarcWessels
2004-12-20, 09:18:32
1%

r@h
2004-12-20, 09:24:03
Jo!
;D

Was die Sache aber auch nicht besser macht... ;)

Razor

IVN
2004-12-20, 16:16:19
Jo!
;D

Was die Sache aber auch nicht besser macht... ;)

Razor

There is more in 1600@,but this will be too slow with FX5900.

r@h
2004-12-22, 19:09:22
There is more in 1600@,but this will be too slow with FX5900.These values came from an 6800LE... and resoulutions at 1600 are not of interest for me!
And it's not a matter of performance... ;)

Razor