PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Carmack, HUMUS und Doom3 ;)


tombman
2004-08-24, 15:02:59
Ein kleiner Kurzbericht:

Ich hab mal die beiden Karten neu gebenched in Doom3 und dabei versucht die neuesten Treiber und Tweaks eintzuschalten, es hat sich einiges getan.
Bei Nvidia gibts jetzt wieder eine neue Optimierung nach ATI Methode, nämlich einen weiteren Punkt im Menu, der die Aniso SAMPLES optimiert. Dh, neben AF und Tri. Opt. gibts jetzt den neuen und damit schon 3 Optimierungen. AFAR sind des jetzt eh schon die gleichen die ATI auch standardmäßig auch benutzt und damit wird die Sache jetzt wirklich fair in Punkte Bildqualität.
Bei ATi kommt der neueste Humus tweak zum Einsatz der ein paar shader neu schreibt und damit ATI beschleunigt ohne BQ zu verlieren. Fyi, Humus war ein ehemaliger top-demo coder, der jetzt bei ATI arbeitet.
Da der humus tweak NV langsamer macht, ist er bei den NV Tests ausgeschalten, dafür war r_usedepthboundtest = 1 bei NV Karten.
Dieser cvar schaltet noch eine kleine Schattebeschleunigung bei NV ein.

Es wurden also die jeweil besten Einstellungen genommen um Doom3 richtig Dampf zu machen.

Doom3, HQ (=8xAF)

1600x1200, 4xAA, 8xAF

6800ultra, fw 66.00, im CP quality + alle Opt. ON, default clock: 41.6 fps

X800XTPE, cat 4.9b, im CP high qual (ATI opt ON), default clock: 36.1 fps

Man sieht also, daß die X800XTPE nur mehr maximal (je niedriger die settings desto kleiner der Abstand) 15% hinter der 6800ultra in Doom3 liegt, wobei man aber fairerweise sagen muß, daß die Minimum-fps bei nvidia sichtbar höher sind, was das timedemo ja nicht verrät. (am besten zu sehen in der letzten Szene wo das Monster auf einen langsam zukommt, wo ati nur ca 12-15fps hat während nvidia 17-23fps hat)

Ganz deutlich fällt aber auf, daß meine ersten benchmarks auf ATi nur 29.7 fps in den selben Einstellungen brachten, dar cat 4.9b aber vorallem der neue Humus twaek ATi ordentlich nach vorne pushte, und das nur mit minialem Aufwand- ganz einfach indem eine Datei geändert wurde.

Da kommt einem doch ganz klar in den Sinn, daß carmack da offenbar (absichlich?) was verpennt hat, indem er ATI nicht einen eigenen," humus-artigen" tweak verpaßt hatte.

Die Gurus werden wahrscheinlich anmerken, daß ja jetzt wahrscheinlich nicht mehr alles 100% pixelgenau ist (aber deswegen ned schlechter!), wo ich aber entgegnen kann, daß carmack dassicher das so hinbekommen kann, daß es wirklich unter dem Mikroskop gleich aussieht.

Naja, ich werfe carmack einfach vor, daß er nciht wirklich alles versucht hat ATI einen push zu geben....

aths
2004-08-24, 15:10:47
Technische Begründung:

Carmacks Bestreben war, mit möglichst wenig Pfaden möglichst gleiche Bildqualität zu erzeugen. Die Lösung über den Texture Lookup ist zudem flexibler.


"Begründung" mit bösartigen Unterstellungen:

Hätte ATI eine so tolle DevRel-Abteilung*, wäre denen das sicher aufgefallen. Eigentlich hätte denen auch der AF-Bug im Treiber auffallen können, so dass man nicht CP-AF nutzen muss. (Jedenfalls habe ich das so verstanden, dass man mit App-AF auf der Radeon teilweise Banding hat?) Soweit ich das verstanden habe, bringt der Tweak bei denen von Doom3 gedachten Settings (App-AA, App-AF) höchstens ein klein bisschen was, wenn überhaupt, opfert aber Vergleichbarkeit und erhöht die Zahl der Codepfade.

* Seitenhieb auf das Interview. Natürlich sind Antworten von anderen IHVs auch nicht seriöser. Allerdings schien ATI Doom3 in der Vergangenheit keine allzu große Bedeutung zugemessen zu haben.


Persönliche Meinung:

Imo kommt es bei Doom3 nicht auf das letzte Quentchen Speed an, so habe ich z. B. jede Texturfilter-Optimierung abgeschaltet – voll trilinear sieht es am besten aus. Für meinen Geschmack ist Doom3 (im Gegensatz zu Max Payne 2) besonders empfindlich bei derartigen "Optimierungen", die sich bei der X800 im CP leider nicht abschalten lassen. Ganz generell – während viele Wert darauf zu legen scheinen, Doom3 zu beschleunigen ohne brachial an Qualität einzubüßen versuche ich eher, die Grafik maximal zu verschönern ohne in den unspielbaren Bereich zu kommen.

Gast
2004-08-24, 15:11:49
Kanst du auch mal ohne AA testen vielleicht auch noch ein paar andere Auflösungen (1024 und 1280 vielleicht). Danke.

Ranzer
2004-08-24, 15:24:21
Ich habe bei 1600*1200*32 4xAA 8xAF 47.9FPS Mit dem gleichem Treiber und den gleichen Einstellungen. Ok die 68U läuft bei 470/1260 aber mit deinem CPU sollte eigetlich nen bissl mehr an fps rausspringen. Ich hab ja "nur" nen P4@3,75GHz und 512MB DDR 500er... Und Doom3 skaliert ja bekanntlicher weise ziemlich stark mit der Rechenpower der CPU.

seahawk
2004-08-24, 15:27:50
Das sind doch Werte wo AA + AF im CP gesetzt wurde - oder ??

betasilie
2004-08-24, 15:29:35
Man sieht also, daß die X800XTPE nur mehr maximal (je niedriger die settings desto kleiner der Abstand) 15% hinter der 6800ultra in Doom3 liegt, wobei man aber fairerweise sagen muß, daß die Minimum-fps bei nvidia sichtbar höher sind, was das timedemo ja nicht verrät.
Finde ich ehrlich, dass Du das festhälst, denn selbst bei annähernd gleichen Benchmarkwerten spielt sich Doom mit einer NV40 Karte noch um einiges smoother durch die höheren min. fps Werte, als mit einer R420 Karte. ... Das muss man wirklich festhalten.

Gast
2004-08-24, 15:30:34
Ich habe bei 1600*1200*32 4xAA 8xAF 47.9FPS Mit dem gleichem Treiber und den gleichen Einstellungen. Ok die 68U läuft bei 470/1260 aber mit deinem CPU sollte eigetlich nen bissl mehr an fps rausspringen. Ich hab ja "nur" nen P4@3,75GHz und 512MB DDR 500er... Und Doom3 skaliert ja bekanntlicher weise ziemlich stark mit der Rechenpower der CPU.

Scheint doch zu passen. Deine Ultra ist 17,5% über Normaltakt und läuft ca. 15% schneller.

Blaire
2004-08-24, 15:32:41
@Tombman: Deine Geforce 6800 Ultra Doom3 Werte habe ich schon locker mit Optimierungen aus überflügelt! Und das mit deutlich langsamerer CPU. Checke die Werte nochmal irgendwie kann das nicht hinkommen.
Teste mal mit "timedemo demo1 usecache 1" und lass 3 mal durchlaufen.

MfG

tombman
2004-08-24, 15:38:19
@Tombman: Deine Geforce 6800 Ultra Doom3 Werte habe ich schon locker mit Optimierungen aus überflügelt! Und das mit deutlich langsamerer CPU. Checke die Werte nochmal irgendwie kann das nicht hinkommen.
Teste mal mit "timedemo demo1 usecache 1" und lass 3 mal durchlaufen.

MfG

meine 6800ultra war bei diesen Tests auch NICHT übertaktet!!

tombman
2004-08-24, 15:39:37
Ich habe bei 1600*1200*32 4xAA 8xAF 47.9FPS Mit dem gleichem Treiber und den gleichen Einstellungen. Ok die 68U läuft bei 470/1260 aber mit deinem CPU sollte eigetlich nen bissl mehr an fps rausspringen. Ich hab ja "nur" nen P4@3,75GHz und 512MB DDR 500er... Und Doom3 skaliert ja bekanntlicher weise ziemlich stark mit der Rechenpower der CPU.

Bei dieser hohen AUflösung spielt die cpu keine Rolle mehr, und deine höheren Werte entsprechen deinem overclock der graka.
Also alles ok.

Das kannst du dir auch für die Zukunft merken: je weiter man mit der Auflösung und AA/AF kommt, desto mehr muß die cpu auf die Graka "warten" und kann daher nix tun, selbst wenn sie 100ghz speed hätte.
Deswegen teste ich Grakas auch immer in sehr hohen Einstellungen, damit die cpu nicht die Ergebnisse nach oben verfälscht.

Wenn du die CPU testen willst, mußt du in 640x480 testen und kein AA/AF nehmen, also die Graka so weit wie möglich ENTlasten, damit diese ja ned bremsen kann.

HTH

tombi

MechWOLLIer
2004-08-24, 15:40:31
Die Werte von tombman aus sich von Nvidia können wirklich nicht stimmen. Auf meiner 6800U auf STandardtakt mit einem A64 @ 2300Mhz hab ich 40,2FPS. Dabei habe ich 16xAF an und nicht 8xAF. Und wohlbemerkt waren dabei alle Optimierungen deaktivert.
Einfach einmal folgenden Befehl in die Kommandozeile eingeben. Einmal reicht.
"Timedemo demo1-"

edit: Hat deine Ultra 400/550 als Standardtakt oder 425/550?
Das könnte auch etwas erklären.

Blaire
2004-08-24, 15:40:47
meine 6800ultra war bei diesen Tests auch NICHT übertaktet!!

Na meine doch auch nicht. :) Doom3 hat die dumme Angewohnheit dauernd die doom3config.cfg zu ändern. Ich hab sie bei mir schreibgeschützt und alle Enstellungen bleiben so wie ich sie haben will.
Hast du vieleicht mit Ultra Details gebencht? Ich nehme grundsätzlich High Details.

MfG

Gast
2004-08-24, 15:44:24
Scheint doch zu passen. Deine Ultra ist 17,5% über Normaltakt und läuft ca. 15% schneller.


Er hat aber den wesentlich schnelleren CPU und das is bei Doom3 fast genauso wichtig wie ne schnelle Graka.

betasilie
2004-08-24, 15:45:52
Die Werte von tombman aus sich von Nvidia können wirklich nicht stimmen. Auf meiner 6800U auf STandardtakt mit einem A64 @ 2300Mhz hab ich 40,2FPS. Dabei habe ich 16xAF an und nicht 8xAF. Und wohlbemerkt waren dabei alle Optimierungen deaktivert.
Einfach einmal folgenden Befehl in die Kommandozeile eingeben. Einmal reicht.
"Timedemo demo1-"

edit: Hat deine Ultra 400/550 als Standardtakt oder 425/550?
Das könnte auch etwas erklären.
Und 4*AA hat Du auch an?

tombman
2004-08-24, 15:46:25
Er hat aber den wesentlich schnelleren CPU und das is bei Doom3 fast genauso wichtig wie ne schnelle Graka.

In dieser Auflösung NICHT!!!

MechWOLLIer
2004-08-24, 15:53:07
Und 4*AA hat Du auch an?

4xAA ist an.
Die genauen Settings sind
1600x1200, 4xAA/16xaf
AF ist im Spiel eingestellt.
In Doom3 ist High Quality eingestellt
Im Treiber ist ebenfalls High Quality eingestellt.

tombman
2004-08-24, 15:55:34
4xAA ist an.
Die genauen Settings sind
1600x1200, 4xAA/16xaf
AF ist im Spiel eingestellt.
In Doom3 ist High Quality eingestellt
Im Treiber ist ebenfalls High Quality eingestellt.

high quality in D3 erzeugt aber 8xAF, nicht 16xAF

Welcher Treiber und wieviel graka Takt?

MechWOLLIer
2004-08-24, 16:00:01
high quality in D3 erzeugt aber 8xAF, nicht 16xAF
Welcher Treiber und wieviel graka Takt?

Ich hab 16xAF in der Config zu Doom3 eingestellt.
Als Treiber 66.00(ist bei mir etwas langsamer als der 61.77 in D3 ~ 0,5FPS)
und mein Standardtakt ist 425/550.

tombman
2004-08-24, 16:06:48
und mein Standardtakt ist 425/550.

da haben wir ja schon den schuldigen ...

der OFFIZIELLE 6800ultra Standardtakt ist 400/550.

MechWOLLIer
2004-08-24, 16:09:30
da haben wir ja schon den schuldigen ...
der OFFIZIELLE 6800ultra Standardtakt ist 400/550.

Ich hab ja schon gesagt, dass das hier entscheident sein könnte.
Andersherum stellt sich die Frage:
Machen die 25Mhz Core wirklich alle Optimierungen und ein höerers AF level wet?

betasilie
2004-08-24, 16:16:42
4xAA ist an.
Die genauen Settings sind
1600x1200, 4xAA/16xaf
AF ist im Spiel eingestellt.
In Doom3 ist High Quality eingestellt
Im Treiber ist ebenfalls High Quality eingestellt.
Also wirklich beeindruckend dein Werte. Muss bei mir den FSB mal hoch schrauben. Ich glaube da ist das Nadelöhr bei meinem Rechner.

Blaire
2004-08-24, 16:25:41
http://img19.exs.cx/img19/5129/d3optoff.jpg

Hab schnell nen Screen gemacht das ist mit 1600x1200 4xFSAA 8xAF High Quality Settings Opt.off

Geforce6800 Ultra Standardtakt 400/550 P4 3,4Ghz

tombman
2004-08-24, 17:52:53
http://img19.exs.cx/img19/5129/d3optoff.jpg

Hab schnell nen Screen gemacht das ist mit 1600x1200 4xFSAA 8xAF High Quality Settings Opt.off

Geforce6800 Ultra Standardtakt 400/550 P4 3,4Ghz

Naja, du lockst deine cfg- nicht gerade eine normale Prozedur. Mach mal normal benchmarks bitte.

Tomcat70
2004-08-24, 18:22:33
Naja, ich werfe carmack einfach vor, daß er nciht wirklich alles versucht hat ATI einen push zu geben....

das kann man denke ich getrost so im raum stehen lassen.
ich hab von beginn an die formulierung mit der "glanzleistung hinsichtlich optimierung auf ati-karten" in dem 3dc-artikel kritisiert, und sehe mich durch die nachfolgenden ereignisse relativ bestätigt.
vor allem zu bedenken gibt der geringe aufwand der änderungen, die zwar von einigen gurus aber dennoch in sehr kurzer zeit erarbeitet wurden.


sehr interessanter bericht übrigens, danke tombman!

Blaire
2004-08-24, 18:47:27
Naja, du lockst deine cfg- nicht gerade eine normale Prozedur. Mach mal normal benchmarks bitte.

Also mit den Ergebnissen ändert sich dadurch nix. Nur werden einige Befehle wie Konsolenaufruf oder drawfps wieder nach Spielende gelöscht sonst nix.
An den Benchmarkergebnissen ändert sich dadurch nix. Wie auch in der doom3config.cfg steht doch auch alles drin so wie es sein muss.

MfG

tombman
2004-08-24, 18:49:42
Also mit den Ergebnissen ändert sich dadurch nix. Nur werden einige Befehle wie Konsolenaufruf oder drawfps wieder nach Spielende gelöscht sonst nix.
An den Benchmarkergebnissen ändert sich dadurch nix. Wie auch inn der doom3config.cfg steht doch auch alles drin so wie es sein muss.

MfG

dann sind die 2fps einfach "Systemunterschied" .. sowas gibts immer wieder.

Gast
2004-08-24, 19:06:47
Ein kleiner Kurzbericht

Naja, ich werfe carmack einfach vor, daß er nciht wirklich alles versucht hat ATI einen push zu geben....



ATi hat leider garnichts getan, ihre Chips auf Doom3 hin zu entwicklen obwohl bereits 2001 feststand, wie die engine funktionieren wird.

Black-Scorpion
2004-08-24, 19:17:58
ATi hat leider garnichts getan, ihre Chips auf Doom3 hin zu entwicklen obwohl bereits 2001 feststand, wie die engine funktionieren wird.
Es ist ja auch normal das Chips für ein Spiel gebaut werden.
Normal werde Spiele an die Hardware angepasst und nicht die Hardware an die Spiele.
Wenn das so weitergehen würde, hätten wir bald 20 Karten rumliegen.
Für jedes Spiel eine.

Gast
2004-08-24, 19:21:55
Es ist ja auch normal das Chips für ein Spiel gebaut werden.
Normal werde Spiele an die Hardware angepasst und nicht die Hardware an die Spiele.
Wenn das so weitergehen würde, hätten wir bald 20 Karten rumliegen.
Für jedes Spiel eine.


Nicht für ein Spiel.
Sondern mit nützlichen Funktionen, die Rechenleistung einsparen können.

Jetzt kann ATi doch nur hoffen, dasss nicht noch mehr engines eine D3-ähnliches Verfahren nutzen. NVidia kanns egal sein, die sind für alles gerüstet.

Gast
2004-08-24, 19:28:48
das kann man denke ich getrost so im raum stehen lassen.
ich hab von beginn an die formulierung mit der "glanzleistung hinsichtlich optimierung auf ati-karten" in dem 3dc-artikel kritisiert, und sehe mich durch die nachfolgenden ereignisse relativ bestätigt.
vor allem zu bedenken gibt der geringe aufwand der änderungen, die zwar von einigen gurus aber dennoch in sehr kurzer zeit erarbeitet wurden.


sehr interessanter bericht übrigens, danke tombman!
Dem kann ich mich nur anschließen. Obiges Zitat ist aus heutiger Sicht schlicht ein schlechter Scherz. Das von mir kritisierte, zu frühe Erscheinen des Artikels, dürfte sich im Nachhinein böse rächen. Sollten sich diese Tendenz erhärten, hatte tombman von Anfang an Recht und der carmack-pro-nvidia Faktor ist tatsächlich existent. Ziemlich peinlich für die Gläubigen, die all der Theorie in dem Artikel mit zu vielen Unbekannten blind folgten, und praktische Untersuchungen direkt an der Hardware für irrelevant hielten. Grau ist alle Theorie... und grün das 3dcenter ;)

[dzp]Viper
2004-08-24, 19:29:42
Nicht für ein Spiel.
Sondern mit nützlichen Funktionen, die Rechenleistung einsparen können.

Jetzt kann ATi doch nur hoffen, dasss nicht noch mehr engines eine D3-ähnliches Verfahren nutzen. NVidia kanns egal sein, die sind für alles gerüstet.


bis es spiele gibt welche die doom3 engine nutzen, vergehen mindestens noch 6-8 monate... bis dahin gibts von ATI (sollte es zumindestens) eine neue Generation - mal sehen was die dann im stande ist zu leisten ;)

und grün das 3dcenter ;)

garnicht - es ist orange X-D

Gast
2004-08-24, 19:32:25
Viper']bis es spiele gibt welche die doom3 engine nutzen, vergehen mindestens noch 6-8 monate... bis dahin gibts von ATI (sollte es zumindestens) eine neue Generation - mal sehen was die dann im stande ist zu leisten ;)


Das muss keine Doom3 engine sein.
Wo Licht ist ist auch Schatten;) und NVidias Technik ist ja universell einsetzbar.

svenska
2004-08-24, 19:33:15
Viper']bis es spiele gibt welche die doom3 engine nutzen, vergehen mindestens noch 6-8 monate... bis dahin gibts von ATI (sollte es zumindestens) eine neue Generation - mal sehen was die dann im stande ist zu leisten ;)

das glaube ich weniger, dass es bis dahin eine neue generation gibt. erstmal kommen refresh chips. eher wohl anfang 2006 würd icvh mal tippen wenn nicht dann noch später..

Black-Scorpion
2004-08-24, 19:38:35
Nicht für ein Spiel.
Sondern mit nützlichen Funktionen, die Rechenleistung einsparen können.

Jetzt kann ATi doch nur hoffen, dasss nicht noch mehr engines eine D3-ähnliches Verfahren nutzen. NVidia kanns egal sein, die sind für alles gerüstet.
Und genau darin sehe ich ein Problem.
Es kann nicht sein das ein Entwickler bei einem Hersteller seine Wünsche durchsetzt und ein anderer bei einem anderen Hersteller.
Wenn sich das durchsetzen würde, hätten wir wirklich bald zwei Lager.
Denn dann bräuchte jeder 2 Karten um ohne Einschränkungen Spielen zu können.

Gast
2004-08-24, 20:09:07
Naja hier wird aber kräftig übertrtieben, man kann mit einer ATI Graka Doom3 ohne große Einschrenkungen spielen und genauso wird man HL2 auf ein Nv Graka ohne große Einschrenkungen spielen können (außer Dx9 wird bei der 59xx reihe nicht benutzt was ja wohl eine Frechheit währe)

reunion
2004-08-24, 20:37:01
das glaube ich weniger, dass es bis dahin eine neue generation gibt. erstmal kommen refresh chips. eher wohl anfang 2006 würd icvh mal tippen wenn nicht dann noch später..

Laut offizieller Aussage von Dave Orton soll der R520 noch dieses Jahr sein Tape-Out in 90nm lowk haben:

"The Digitmes report also makes note that ATI are gearing up for the tape-out of their next generation parts later this year. They say that these will be based on the 90nm process, with production ramping in early 2005, which is somewhat fitting with our expectations based on our conversations with Dave Orton. "

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=145961&highlight=R520

Gast
2004-08-24, 21:06:18
Naja hier wird aber kräftig übertrtieben, man kann mit einer ATI Graka Doom3 ohne große Einschrenkungen spielen und genauso wird man HL2 auf ein Nv Graka ohne große Einschrenkungen spielen können (außer Dx9 wird bei der 59xx reihe nicht benutzt was ja wohl eine Frechheit währe)
Finde es eine groteske Vorstellung, daß ein Grafikkarten-Hersteller seine Karten auf einzelne Spiele optimiert. Eigentlich sollten die doch ihre Karten auf APIs optimieren. Diese Geschichte ist kein Ruhmesblatt für nVidia und id-Software. John Carmack hat zumindest bei mir spätestens jetzt seinen Ruf als unbestechliches Genie der Grafikwelt eingebüßt. Ich prophezeie jetzt mal, daß dieses Jahr noch einige Spiele erscheinen, die grafisch in der selben Liga spielen wie Doom 3 und die Doom 3-Engine nicht die Relevanz der Quake 3-Engine erreichen wird. Angesichts dieser engen Verstrickung von id und nVidia, kann man sich das wenigstens als Konsument von mehr als nur einem Spiel, bzw. von Spielen die nicht nur auf der Doom 3-Engine beruhen, nur wünschen.

aths
2004-08-24, 21:15:33
Dem kann ich mich nur anschließen. Obiges Zitat ist aus heutiger Sicht schlicht ein schlechter Scherz. Das von mir kritisierte, zu frühe Erscheinen des Artikels, dürfte sich im Nachhinein böse rächen.Das werden wir sehen. ATI liest unsere Artikel mit – bei wirklich falschen Behauptungen hätten die mich (oder Leo) schon kontaktiert.

Sollten sich diese Tendenz erhärten, hatte tombman von Anfang an Recht und der carmack-pro-nvidia Faktor ist tatsächlich existent. Dafür würde ich gerne Beweise sehen wollen – um anschließend einen Artikel zu schreiben und id software die Bevorzugung von NV vorwerfen. Das wäre nämlich ein schädliches Gebaren, welches unbedingt angeprangert gehört. Andererseits wäre es ziemlich dämlich, die Bevorzugung so zu gestalten, dass sie mit einfachsten Mitteln ausgeglichen werden kann.

Ziemlich peinlich für die Gläubigen, die all der Theorie in dem Artikel mit zu vielen Unbekannten blind folgten, und praktische Untersuchungen direkt an der Hardware für irrelevant hielten. Grau ist alle Theorie... und grün das 3dcenter ;) Derartige Vorwürfe sollte man begründen können, sonst wird es peinlich.

LovesuckZ
2004-08-24, 21:20:08
Finde es eine groteske Vorstellung, daß ein Grafikkarten-Hersteller seine Karten auf einzelne Spiele optimiert. Eigentlich sollten die doch ihre Karten auf APIs optimieren.

Stimmt, deswegen sollte man ATi auch mit dem Nichtkaufen bestrafen, da der NV40 auch unter D3D konkurenzfaehige Leistung bringt.

Diese Geschichte ist kein Ruhmesblatt für nVidia und id-Software.

Jap, aus Sicht eines Radeonuser der neueren Generation wuerde ich das auch sagen. Immerhin kann man ja nicht mehr den Grafikhersteller fuer das schlechte Abschneiden bestrafen, man gab ihn sein geld fuer eine "Steinzeitkarte". Der Begriff passt zu der Situation mit Doom3.

svenska
2004-08-24, 21:27:25
Laut offizieller Aussage von Dave Orton soll der R520 noch dieses Jahr sein Tape-Out in 90nm lowk haben:

"The Digitmes report also makes note that ATI are gearing up for the tape-out of their next generation parts later this year. They say that these will be based on the 90nm process, with production ramping in early 2005, which is somewhat fitting with our expectations based on our conversations with Dave Orton. "

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=145961&highlight=R520

ja gut nen tape-out.
ich würd mal sagen, so erste specs mit ein bissel klimbim. ATI hat ja noch nichtmal seine neu graka richtig gepusht, und dann schon das tape out für den RV520. ich weis nicht, halte ich strategisch für falsch (und wirschaftlich)

StefanV
2004-08-24, 21:28:27
Stimmt, deswegen sollte man ATi auch mit dem Nichtkaufen bestrafen, da der NV40 auch unter D3D konkurenzfaehige Leistung bringt.

Warum sollte man das?!
Die Radeon X800 bietet durchweg gute Leistungen, man sollte eher die nV40 nicht kaufen, unter anderem weil nV das AF verschlechtert hat...


Jap, aus Sicht eines Radeonuser der neueren Generation wuerde ich das auch sagen. Immerhin kann man ja nicht mehr den Grafikhersteller fuer das schlechte Abschneiden bestrafen, man gab ihn sein geld fuer eine "Steinzeitkarte". Der Begriff passt zu der Situation mit Doom3.
Hm, irgendwie könnte man das hier als Flame auffassen, was dazu führen könnte, daß du dafür verantwortlich wärest, daß du diesen Thread shreddern würdest.

Öhm, hast du das nicht letztens jemand anderem vorgeworfen?!

Gast
2004-08-24, 21:31:11
Das werden wir sehen. ATI liest unsere Artikel mit – bei wirklich falschen Behauptungen hätten die mich (oder Leo) schon kontaktiert.

Dafür würde ich gerne Beweise sehen wollen – um anschließend einen Artikel zu schreiben und id software die Bevorzugung von NV vorwerfen. Das wäre nämlich ein schädliches Gebaren, welches unbedingt angeprangert gehört. Andererseits wäre es ziemlich dämlich, die Bevorzugung so zu gestalten, dass sie mit einfachsten Mitteln ausgeglichen werden kann.

Derartige Vorwürfe sollte man begründen können, sonst wird es peinlich.
Alles zu finden in diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=159109)

mapel110
2004-08-24, 21:32:48
ja gut nen tape-out.
ich würd mal sagen, so erste specs mit ein bissel klimbim. ATI hat ja noch nichtmal seine neu graka richtig gepusht, und dann schon das tape out für den RV520. ich weis nicht, halte ich strategisch für falsch (und wirschaftlich)

sie haben aber immernoch nicht einen PS3.0-fähigen chip auf dem markt. beim 3dmark04(05) kann das eventuell sehr dumm aussehen. ;)

Gast
2004-08-24, 21:33:00
Stimmt, deswegen sollte man ATi auch mit dem Nichtkaufen bestrafen, da der NV40 auch unter D3D konkurenzfaehige Leistung bringt.

Jap, aus Sicht eines Radeonuser der neueren Generation wuerde ich das auch sagen. Immerhin kann man ja nicht mehr den Grafikhersteller fuer das schlechte Abschneiden bestrafen, man gab ihn sein geld fuer eine "Steinzeitkarte". Der Begriff passt zu der Situation mit Doom3.

Setz mal bitte deine NV-Dau-Kappe ab und schau auch mal in zwei Richtungen anstatt nur stur geradeaus zu schauen.. Nur weil NV nun endlich mal was neues auf den Markt gebracht hat muss man nicht in alle Richtungen bashen.. was ist wenns bei der nächsten Generation anders ist? sry, finds lächerlich

svenska
2004-08-24, 21:35:59
Warum sollte man das?!
Die Radeon X800 bietet durchweg gute Leistungen, man sollte eher die nV40 nicht kaufen, unter anderem weil nV das AF verschlechtert hat...



hmm, das ist im gegensatz zu den vorgänger der nv3x serie richtig, aber immernoch hält sich nich die wage an optimierungen, zumal sie auch mehr oder weniger abschaltbar ist.
allerdings stimme ich dir da zu wenn, es sich im laufe der nächsten treibereien
ergibt, dass man step-by-step im hintergrund an dem AF rumspielt. erste auswüchse sind ja schon im 65.xx FW sowei 66. FW beta.
allerdings macht diese optimierung auch in einigen spielen sinn. im opt. vgl. mit und ohne optimierungen sehen IMHO in nur wenigen spielen grosse nachteile.
aber trotzdem, teuer erkaufter AF

LovesuckZ
2004-08-24, 21:39:14
Lieber Gast,
wer hat oben gebasht? Doch der jenige, der sowas schreibt: "Diese Geschichte ist kein Ruhmesblatt für nVidia und id-Software".
Wenn ATi user die Doom3 Pleite nicht ATi sondern der Konkurenz, welche eben Transistoren fuer diese Engine und Spiel aufgewendet haben und dem Programmierer, welches gerade mal 2% fuer eine, wenn ich das richtig verstanden habe, flexiblere Methode hinterlassen hat, dann sollte man nicht andere "NV-Dau-Kappe" bezeichnen. Immerhin "kuemmerte" Nvidia sich um ihre Kunden.
ATi ist selbst SCHULD, dass dies passierte.

StefanV
2004-08-24, 21:45:18
ATi ist selbst SCHULD, dass dies passierte.
Tjo und Carmack hätte ev. noch einen schönen kleinen Pfad für die ATi Karten schreiben können, der die beschleunigt hätte.

Nur warum hat er das nicht getan?? :|

aths
2004-08-24, 21:45:23
Jap, aus Sicht eines Radeonuser der neueren Generation wuerde ich das auch sagen. Immerhin kann man ja nicht mehr den Grafikhersteller fuer das schlechte Abschneiden bestrafen, man gab ihn sein geld fuer eine "Steinzeitkarte". Hm? X800 ist sicher keine "Steinzeitkarte".

svenska
2004-08-24, 21:45:41
sie haben aber immernoch nicht einen PS3.0-fähigen chip auf dem markt. beim 3dmark04(05) kann das eventuell sehr dumm aussehen. ;)


...das ist korrekt. ATI wird sich aber erstmal mit dx9.0c zw. SM2.0b über wassen halten. das konzept hätten sie sich dann aber früher anders überlegen müssen.
aber egal, wir werden sehen. ggf muss ich mich revidieren, aber ich glaube, dass vorerst nichts bzw. kaum neues von ATI kommen wird :)


Hm? X800 ist sicher keine "Steinzeitkarte".

architektonisch würd ich mal sagen, dass die tendenz zum RV3xx gehalten wurde. aber "steinzeit" ist vll auch übertrieben. ich finde es überhaupt schwierig dafür ein wort zu finden.

die karte liegt irgendwo zwischen alt<-->neu. :D

aths
2004-08-24, 21:47:43
Warum sollte man das?!
Die Radeon X800 bietet durchweg gute Leistungen, man sollte eher die nV40 nicht kaufen, unter anderem weil nV das AF verschlechtert hat...Dennoch ist es (zumindest im HQ-Modus) noch immer besser als bei ATI.

Alles zu finden in diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=159109)Den Thread kenne ich.

LovesuckZ
2004-08-24, 21:48:14
Nur warum hat er das nicht getan?? :|

Warum hat er nicht auch USII aktiviert?
Oh mein gott, er steckt mit ATi unter einer Decke.

aths
2004-08-24, 21:48:17
Tjo und Carmack hätte ev. noch einen schönen kleinen Pfad für die ATi Karten schreiben können, der die beschleunigt hätte.

Nur warum hat er das nicht getan?? :|Der spezielle Pfad für NV30 ist auch nicht mehr drin ... warum nur?

StefanV
2004-08-24, 21:50:30
Dennoch ist es (zumindest im HQ-Modus) noch immer besser als bei ATI.
Ja, ein klein wenig, aber nicht viel...

tRpii
2004-08-24, 21:51:42
Lieber Gast,
wer hat oben gebasht? Doch der jenige, der sowas schreibt: "Diese Geschichte ist kein Ruhmesblatt für nVidia und id-Software".
Wenn ATi user die Doom3 Pleite nicht ATi sondern der Konkurenz, welche eben Transistoren fuer diese Engine und Spiel aufgewendet haben und dem Programmierer, welches gerade mal 2% fuer eine, wenn ich das richtig verstanden habe, flexiblere Methode hinterlassen hat, dann sollte man nicht andere "NV-Dau-Kappe" bezeichnen. Immerhin "kuemmerte" Nvidia sich um ihre Kunden.
ATi ist selbst SCHULD, dass dies passierte.

ich war dieser "Gast" (hab aufn link im irc geklickt und war net eingeloggt)..

jedenfalls finde ich es übertrieben bei Doom3 von einer ATi-Pleite zu reden.. denn dies ist ein Spiel und ehrlich gesagt ists eigentlich klar dass nicht jede Karte alle Benchmarks dominieren kann..

und NV kümmert sich um ihre Kunden? Wann gab es den letzten offiziellen Treiber? ATi bringt monatlich einen raus und das find ich ehrlich gesagt besser als ein spiel dass dank USII?/OpenGL mal etwas schneller läuft (signifikant)

Es ist echt "dumm" voreilig zu entscheiden und sich nur dank eines Games festzulegen bzw. lustig auf ATi zu bashen dass die karte uralt ist und dass ATi doch eh nix kann etc.

Es sind beide super Karten, ich persönlich habe mich erstmal für die X800'er Reihe entschieden da diese mir etwas mehr zusagt (u.a. wegen der Treiberunterstützung) aber das hätte auch anders aussehen können.

Ich finde Fanboy "gebashe" irgendwie lustig und ehrlich gesagt bist du auf meiner Fanboyliste ganz oben, da du dir einfach nichts sagen lässt auch wenn man mal recht hat.. bist eben Blind wenns um andere Meinungen geht..

das ist MEINE subjektive Meinung

aths
2004-08-24, 21:53:16
Ja, ein klein wenig, aber nicht viel...Der X800-Treiber bietet jedenfalls keine Option auf HQ, das muss man von Hand machen. Finde ich schon mal schlecht. X800 hat dem NV40 voraus: gamma-corrected downfiltering, 6x sparsed AA. Außerdem 3Dc. Und nicht zu vergessen der substanziell höhere Chiptakt, das auch noch bei vergleichsweise kleiner Kühlung. Was hat NV40 dem X800 alles voraus?

Tomcat70
2004-08-24, 22:00:34
Dafür würde ich gerne Beweise sehen wollen – um anschließend einen Artikel zu schreiben und id software die Bevorzugung von NV vorwerfen. Das wäre nämlich ein schädliches Gebaren, welches unbedingt angeprangert gehört. Andererseits wäre es ziemlich dämlich, die Bevorzugung so zu gestalten, dass sie mit einfachsten Mitteln ausgeglichen werden kann.



wie erklärst du dir eigentlich die mit sehr kurzem zeitaufwand gefundenen verbesserungen der performance von ati-karten des sogenannten humus-tweaks? simple (betreff zeitaufwand) optimierungen für den einen (in dem fall ati) nicht zu machen ist auch eine art bevorzugung des anderen (in dem fall nvidia), oder etwa nicht?

Quasar
2004-08-24, 22:01:48
Geht ja wieder mal gut ab hier - wer ohne Sünde ist, werfe den ersten Stein.
jedenfalls finde ich es übertrieben bei Doom3 von einer ATi-Pleite zu reden.. denn dies ist ein Spiel und ehrlich gesagt ists eigentlich klar dass nicht jede Karte alle Benchmarks dominieren kann..
Das finde ich auch ehrlich gesagt übertrieben. Allerdings kann es durchaus sein, daß ATi-Anhänger, die die längeren Balken gewohnt waren, die Ergebnisse in Doom3 als eine Art "Niederlage" empfanden - guter Nährboden für Verschwörungstheorien.
Ist es denn so abwegig, daß die in Doom3 sehr wichtige Z-/Stencilcullrate, von der nV nunmal mehr hat, hier vielleicht ebenso entscheidend ist, wie der 30% höhere Takt der XTPE in anderen Games?


und NV kümmert sich um ihre Kunden? Wann gab es den letzten offiziellen Treiber? ATi bringt monatlich einen raus und das find ich ehrlich gesagt besser als ein spiel dass dank USII?/OpenGL mal etwas schneller läuft (signifikant)

Der letzte offizielle ist nun gar nicht so lange her - aber im Prinzip hast du recht - ATi ist konstanter in Sachen Treiberveröffentlichung.
Das mag positiv oder negativ sein - je nachdem, wie man es sehen will. ;)

Gast
2004-08-24, 22:03:30
Lieber Gast,
wer hat oben gebasht? Doch der jenige, der sowas schreibt: "Diese Geschichte ist kein Ruhmesblatt für nVidia und id-Software".
Wenn ATi user die Doom3 Pleite nicht ATi sondern der Konkurenz, welche eben Transistoren fuer diese Engine und Spiel aufgewendet haben und dem Programmierer, welches gerade mal 2% fuer eine, wenn ich das richtig verstanden habe, flexiblere Methode hinterlassen hat, dann sollte man nicht andere "NV-Dau-Kappe" bezeichnen. Immerhin "kuemmerte" Nvidia sich um ihre Kunden.
ATi ist selbst SCHULD, dass dies passierte.
Kein Wunder, daß Du Probleme mit Gästen hast. Wer einfach einem Gast antwortet, und dazu einfach einen x-beliebigen anderen Gast zitiert, der zieht den Ärger an wie die Sch... die Fliegen.
Wie flexibel denkst Du, ist eine Engine, die nur auf der Hardware eines Herstellers vernünftig läuft?

Quasar
2004-08-24, 22:06:30
wie erklärst du dir eigentlich die mit sehr kurzem zeitaufwand gefundenen verbesserungen der performance von ati-karten des sogenannten humus-tweaks? simple (betreff zeitaufwand) optimierungen für den einen (in dem fall ati) nicht zu machen ist auch eine art bevorzugung des anderen (in dem fall nvidia), oder etwa nicht?

Darf ich mal, auch wenn es gewagt erscheint, dem entgegenhalten, daß nach deiner These nahezu alle DX9-Spiele des letzten Jahres ATi bevorzugen, da ein Shaderprofil 2.A zumeist nicht vorhanden ist, obwohl es ein einziger Compilerdurchlauf mit alternativem Zielprofil (eben 2.A) getan hätte?

Das, was der erste Far Cry v1.2-Patch tat, eine Passreduktion nur für SM3.0 zu nutzen, obwohl es auch mit 2.A, 2.B und zu großen Teilen mit 2.0 gegangen wäre - das ist IMO eine unfaire Bevorzugung.

tRpii
2004-08-24, 22:06:56
Das finde ich auch ehrlich gesagt übertrieben. Allerdings kann es durchaus sein, daß ATi-Anhänger, die die längeren Balken gewohnt waren, die Ergebnisse in Doom3 als eine Art "Niederlage" empfanden - guter Nährboden für Verschwörungstheorien.
Ist es denn so abwegig, daß die in Doom3 sehr wichtige Z-/Stencilcullrate, von der nV nunmal mehr hat, hier vielleicht ebenso entscheidend ist, wie der 30% höhere Takt der XTPE in anderen Games?


ne, es war ja eigentlich von vornherein klar dass D3 nicht ATi's sondern NV's Steckenpferd wird.. jedenfalls für mich persönlich

Ich finds nur affig dass man so nen Aufstand macht und das dann als Nährboden nimmt um seinen fanatischen Standpunkt zu vertreten.

Die ATi punktet da und die NV da.. soll eben der Kunde bzw. User selbst entscheiden wo er für sich die prioritäten setzt.. von daher muss da garnichts schlecht geredet werden.. aber so ein Fanboy-getue wie z.B. von XX (fällt eben jedesmal auf) ist absolut fehl am Platz

LovesuckZ
2004-08-24, 22:07:42
Ich werde einmal antwoerten. :)

jedenfalls finde ich es übertrieben bei Doom3 von einer ATi-Pleite zu reden.. denn dies ist ein Spiel und ehrlich gesagt ists eigentlich klar dass nicht jede Karte alle Benchmarks dominieren kann..

Warum schreibst du dann sowas "Diese Geschichte ist kein Ruhmesblatt für nVidia und id-Software"?
Warum regen sich ATi user so auf bezueglich der Shader, wenn es nur ein Spiel waere?

und NV kümmert sich um ihre Kunden? Wann gab es den letzten offiziellen Treiber? ATi bringt monatlich einen raus und das find ich ehrlich gesagt besser als ein spiel dass dank USII?/OpenGL mal etwas schneller läuft (signifikant)

Leider werde nicht jeden Monat jedes Problem geloest.
Ein ATi user muss noch auf den CAT4.9 warten, um Doom3 mit 100% Hardwareleistung zu spielen (sei es durch spezielle Anpassung, OpenGL Treiberneuschreibung usw.).
Somit konnten Nvidiauser mit dem 61.77 Farcry und Doom3 mit allen feastures genießen, ATi user mussten betatreiber verwenden, was man Nvidia immer vorgeworfen hat.
Bessere Treiberunterstuetzung? Mitnichten.

Es ist echt "dumm" voreilig zu entscheiden und sich nur dank eines Games festzulegen bzw. lustig auf ATi zu bashen dass die karte uralt ist und dass ATi doch eh nix kann etc.

Warum basht du dann auf Nvidia, wenn sie ihre Karten auf Doom3 optimieren? Vorallen, warum geht es gleichzeitig gegen id? Doch nur, weil ATi sich eben nicht die Muehe gemacht hat. Was hat dies aber mit Nvidia oder Carmack zu tun?
ATi hatte 2 Jahre Zeit den R420 auch auf Doom3 vorzubereiten. Sie taten es leicht, aber nicht wirklich konkurenzfaehig und hierbei ist es egal ob auf Hard- oder Softwarebasis.

Ich finde Fanboy "gebashe" irgendwie lustig und ehrlich gesagt bist du auf meiner Fanboyliste ganz oben, da du dir einfach nichts sagen lässt auch wenn man mal recht hat.. bist eben Blind wenns um andere Meinungen geht..


Ich weiß nicht, aber warum hast du recht?
Wenn du nicht willst, dass Leute auf deine "subjektive" Meinung antworten, dann solltest du sie nicht schreiben. Vorallen, wenn sie gegen die gerichteten Parteien vollkommen haltlos ist.
Statt ATi die Schuld fuer das Doom3 Dilemma zu geben, wird auf Nvidia und id rumgehackt. Als wenn Sie fuer das schlechte abschneiden zustaendig waeren...

aths
2004-08-24, 22:08:20
Wie flexibel denkst Du, ist eine Engine, die nur auf der Hardware eines Herstellers vernünftig läuft?Soweit ich das sehe läuft Doom3 auch auf Radeon-Karten vernünftig.

wie erklärst du dir eigentlich die mit sehr kurzem zeitaufwand gefundenen verbesserungen der performance von ati-karten des sogenannten humus-tweaks? simple (betreff zeitaufwand) optimierungen für den einen (in dem fall ati) nicht zu machen ist auch eine art bevorzugung des anderen (in dem fall nvidia), oder etwa nicht?Wie viel bringt der Tweak bei funktionierendem CP-AF?

Wie viel Flexibilität wird eingebüßt? JC will sich neue Ferraris kaufen, dazu muss er die Engine loswerden. Den Specular-Anteil (iirc, geht es darum) via Textur-Lookup zu holen erlaubt, das Specular Lighting flexibler anzupassen als wenn einfach nur am Exponenten gedreht wird.

tRpii
2004-08-24, 22:10:28
LS, bei dir ist echt alles Verloren.. sry, da lohnt es sich garnicht mehr zu antworten..

wenn du deine Augenklappen mal abgelegt hast dann können wir weiterreden, ansonsten bringt es nichts (könnt ich gleich gegen ne Wand reden was ich eh schon zu machen scheine)

Gast
2004-08-24, 22:11:30
Warum sollte man das?!
Die Radeon X800 bietet durchweg gute Leistungen, man sollte eher die nV40 nicht kaufen, unter anderem weil nV das AF verschlechtert hat...


jo sehr schade das das AF nichtmehr so gut ist
tja ,dank ATI und sein anhängern geht NV nun auch den weg


und NV kümmert sich um ihre Kunden? Wann gab es den letzten offiziellen Treiber? ATi bringt monatlich einen raus und das find ich ehrlich gesagt besser als ein spiel dass dank USII?/OpenGL mal etwas schneller läuft (signifikant)


dann überleg mal warum ATI monatlich wohl ein neuen bringt :)

Tomcat70
2004-08-24, 22:13:04
Darf ich mal, auch wenn es gewagt erscheint, dem entgegenhalten, daß nach deiner These nahezu alle DX9-Spiele des letzten Jahres ATi bevorzugen, da ein Shaderprofil 2.A zumeist nicht vorhanden ist, obwohl es ein einziger Compilerdurchlauf mit alternativem Zielprofil (eben 2.A) getan hätte?

Das, was der erste Far Cry v1.2-Patch tat, eine Passreduktion nur für SM3.0 zu nutzen, obwohl es auch mit 2.A, 2.B und zu großen Teilen mit 2.0 gegangen wäre - das ist IMO eine unfaire Bevorzugung.

OT: nur als antwort auf deine frage: falls das der wahrheit entspricht und dadurch nvidia nachweislich performance verloren hat (mir ist dazu kein fall bekannt, möglicherweise dir?), dann finde ich das genausowenig korrekt und nicht in ordnung. hier geht es allerdings im speziellen fall um id und einen konkret im raum stehenden vorwurf.

tRpii
2004-08-24, 22:13:08
ja @ gast, da nur ATi bugs hat die gefixt werden müssen :(

mapel110
2004-08-24, 22:19:14
Leider werde nicht jeden Monat jedes Problem geloest.
Ein ATi user muss noch auf den CAT4.9 warten, um Doom3 mit 100% Hardwareleistung zu spielen (sei es durch spezielle Anpassung, OpenGL Treiberneuschreibung usw.).
Somit konnten Nvidiauser mit dem 61.77 Farcry und Doom3 mit allen feastures genießen, ATi user mussten betatreiber verwenden, was man Nvidia immer vorgeworfen hat.
Bessere Treiberunterstuetzung? Mitnichten.



der 4.8er treiber beinhaltet schon den grössten teil der beschleunigung unter doom3. mit dem 4.9er sind weniger als 1% mehr drin.

der FW 56.XX bringt bei nvidia auch nochmal performance-gewinne bei doom3. so what?! der ist auch nicht offiziell für die nv40-reihe zu haben.

LovesuckZ
2004-08-24, 22:20:03
Wie flexibel denkst Du, ist eine Engine, die nur auf der Hardware eines Herstellers vernünftig läuft?

Liegt es an der Engine oder an der Hardware?
Immerhin liefen fast alle erscheinen Spiele mit SM2.0 unterstuetzung auf einer r3xx Karte schneller als auf einem NV3x.

StefanV
2004-08-24, 22:23:50
Immerhin liefen fast alle erscheinen Spiele mit SM2.0 unterstuetzung auf einer r3xx Karte schneller als auf einem NV3x.
Was auch auch aufgrund der technischen Daten so sein musste, da die R300 nunmal deutlich mehr Shaderpower als eine nV3x besitzt...

Selbst auf nV3x optimiert dürfte die R300 immer noch deutlich schneller gewesen sein...

LovesuckZ
2004-08-24, 22:25:36
der 4.8er treiber beinhaltet schon den grössten teil der beschleunigung unter doom3. mit dem 4.9er sind weniger als 1% mehr drin.

Wenn ich diesen (4.7) (http://www.computerbase.de/artikel/hardware/grafikkarten/grafikkartenperformance_doom_3/4/#1024x768_pixel) und diesen (4.8) (http://www.computerbase.de/artikel/hardware/grafikkarten/asus_radeon_ax_800_pro_xt/11/#doom_3) vergleiche, dann sind die Ergebnisse von beiden Treibern gleich.

der FW 56.XX bringt bei nvidia auch nochmal performance-gewinne bei doom3. so what?! der ist auch nicht offiziell für die nv40-reihe zu haben.

Leider nur in einem bereich, der wohl als letztes "Quentchen" bezeichnet werden kann.
Desweilen ging es darum, dass ATi jedem Monat Treiber veroeffentliche und dies besser waere als das, was Nvidia machen wuerde. Ich wollte damit nur aufzeigen, dass dies nicht immer stimmen muss.

Jesus
2004-08-24, 22:31:41
der 4.8er treiber beinhaltet schon den grössten teil der beschleunigung unter doom3. mit dem 4.9er sind weniger als 1% mehr drin.


kann ich bestätigen :cool:

bei mir läufts mit 4.8 sogar um 0.3 fps schneller als mit 4.9b :biggrin:
der 4.9b sollte auch imo kein FPS Booster sein, sondern schattenbugs fixen ( die jetzt mit dem 4.8 teilw. wieder da sind, z.b. in Panzers )

Der spezielle Pfad für NV30 ist auch nicht mehr drin ... warum nur?

das würde mich auch mal intressieren, schliesslich war die Leistung des NV3x iirc anfangs alles andere als gut und dann so ein fach auf nen universalpfad umgestellt + leistung erhöht ? ( Supertreiber ? :wink: )

Quasar
2004-08-24, 22:32:00
Wie flexibel denkst Du, ist eine Engine, die nur auf der Hardware eines Herstellers vernünftig läuft?
Welche Engine wäre das denn bitte?

Die ATi punktet da und die NV da.. soll eben der Kunde bzw. User selbst entscheiden wo er für sich die prioritäten setzt.. von daher muss da garnichts schlecht geredet werden..
Ack.

aths
2004-08-24, 22:37:33
Was auch auch aufgrund der technischen Daten so sein musste, da die R300 nunmal deutlich mehr Shaderpower als eine nV3x besitzt... Je nach dem wie man zählt, hat NV38 sogar mehr Shaderpower als R360.
Selbst auf nV3x optimiert dürfte die R300 immer noch deutlich schneller gewesen sein... Auf NV3x optimiert dürfte es auf einem R300 gar nicht laufen.


das würde mich auch mal intressieren, schliesslich war die Leistung des NV3x iirc anfangs alles andere als gut und dann so ein fach auf nen universalpfad umgestellt + leistung erhöht ? ( Supertreiber ? :wink: )Was möchstest du damit sagen?

StefanV
2004-08-24, 22:39:00
Je nach dem wie man zählt, hat NV38 sogar mehr Shaderpower als R360.
Aufm Papier möglicherweise, in der Praxis konnte man das bisher aber nicht 'erleben'...

Aber auf dem Papier sehen ja auch Volari und Parhelia ziemlich gut aus...

Lokadamus
2004-08-24, 22:41:31
mmm...

Schade, hätte ein netter Thread werden können, aber irgendwie ist es ab Seite 2 nur noch gebashe: "Die Vodoo 5500 kann es sogar flüssig darstellen und ohne Schatten."Gegenantwort:"Und meine Parhelia läuft so gut, die wird erst gar nicht mehr getestet :P" ... danach kommen die besten Totschlagargumente: ATI hat 10 Jahre Zeit gehabt, eine Karte für Doom3 zu entwickeln, die Engine ist seit 20 Jahren aufm Markt, NVidia ist da viel besser, die haben nur die 5900, naja, auf Doom 3 optimiert, warum alle anderen Spiele und Doom 3 darauf nicht schneller laufen, als auf einer 9800er muss daran liegen, dass der fiese Carmack Scheisse gebaut hat. Oder die Treiberentwickler von NVidia ... das vielleicht beide Firmen einen Kompromis zwischen "benötigt, dürfte aber in kastrierter Form ausreichen" und kostengünstig machen, darauf kommt eh keiner mehr. Teilweise artet dieses Gebashe in "Auf ATI kannste es gar nicht spielen, nänä" :hammer: aus ...

Gast versus Gast versus Lovesuckz
Man kann sich nicht ohne Grund registrieren, solange aber Gast als Name da steht, wird davon ausgegangen, dass es ein und dieselbe Person ist ...

tobman
Kannst du ansonsten die .cfg nicht einfach hier reinstellen und die Treibersettings werden per atuner bei ATI einfach auf AA = off und AF = off gesetzt, so hätte man wenigstens eine einheitliche Basis, Ergebnisse in niedriger Auflösung wären auch interessant, alleine, damit man selber besser vergleichen kann ...

Jesus
2004-08-24, 22:42:24
Was möchstest du damit sagen?

naja böse Zungen behaupten ja dass NV für die FX Palette mglw. Shaderreplacement betreibt und alles FP16 rechnet, und daher auch die kleinste Änderung am Shadercode schon zu extremen einbrüchen führt ( wie auch von JC so angedeutet ) weil die Replacements nicht mehr funzen :rolleyes:

böse Zungen, nicht ich :tongue:

Quasar
2004-08-24, 22:47:09
OT: nur als antwort auf deine frage: falls das der wahrheit entspricht und dadurch nvidia nachweislich performance verloren hat (mir ist dazu kein fall bekannt, möglicherweise dir?), dann finde ich das genausowenig korrekt und nicht in ordnung. hier geht es allerdings im speziellen fall um id und einen konkret im raum stehenden vorwurf.
Ja, aber sicher. Das Compilertarget 2.A läuft auf nV3x Chips schneller, u.a. durch mögliches Kombinieren von Instruktionen.
In Spielen ist das leider nicht immer so einfach nachweisbar, denn nachträglich wird kaum ein Game auf einen neuen Shaderpfad gepatcht - falls du darauf hinauswillst.

Nun aber genug OT - wenn's weiterhin interessant ist, machen wir gern einen neuen Thread auf.

aths
2004-08-24, 22:49:21
Aufm Papier möglicherweise, in der Praxis konnte man das bisher aber nicht 'erleben'...

Aber auf dem Papier sehen ja auch Volari und Parhelia ziemlich gut aus...Auf den zweiten Teil hast du jedoch nicht eingegangen :) NV3x hat in der Praxis eine ziemlich dürftige Pixelshader-Performance – jedoch deutlich bessere Pixel- (und Vertex-) Shader-Features. NV3x ist der Preis den NV zahlen musste, um bereits jetzt SM 3.0 anbieten zu können.

Quasar
2004-08-24, 22:51:56
naja böse Zungen behaupten ja dass NV für die FX Palette mglw. Shaderreplacement betreibt und alles FP16 rechnet, und daher auch die kleinste Änderung am Shadercode schon zu extremen einbrüchen führt ( wie auch von JC so angedeutet ) weil die Replacements nicht mehr funzen :rolleyes:

böse Zungen, nicht ich :tongue:

!!ARBfp1.0
OPTION ARB_precision_hint_fastest;

Fröhliches Artefakte-Suchen... ;)

edit:
BTW, ein auskommentieren der "pp-Anweisung" (ebenso wie ein komplettes Entfernen derselben) schadet der Performance nicht. Kaum verwunderlich, wenn man bedenkt, wie wenig Far Cry mit FP32 einbricht und da ist man noch viel dichter am Shader dran.

aths
2004-08-24, 22:52:42
naja böse Zungen behaupten ja dass NV für die FX Palette mglw. Shaderreplacement betreibt und alles FP16 rechnetAlles ganz sicher nicht, sonst sähen die Texturen fürchterlich aus. Es kann sein, dass für bestimmte Spiele bestimmte Shaderteile ersetzt bzw. für _PP markiert werden, obwohl der Entwickler das nicht vorsah. Bei Doom3 hoffe ich doch sehr, dass JC genügend Kenntnisse hatte, richtig zu optimieren. Er forderte ja für Doom3 64-Bit-Rendering (was da heißen soll, FP16 müsste völlig ausreichen, von Texturzugriffen mal abgesehen.)

, und daher auch die kleinste Änderung am Shadercode schon zu extremen einbrüchen führt ( wie auch von JC so angedeutet ) weil die Replacements nicht mehr funzen :rolleyes: Das wären ja mal dämliche Replacements. Soweit ich weiß, bringt z. B. der Humus-Tweak auf NV-Karten nur wenig Speed-Nachteile und keine "extremen Einbrüche".

StefanV
2004-08-24, 22:53:00
Auf den zweiten Teil hast du jedoch nicht eingegangen :) NV3x hat in der Praxis eine ziemlich dürftige Pixelshader-Performance – jedoch deutlich bessere Pixel- (und Vertex-) Shader-Features. NV3x ist der Preis den NV zahlen musste, um bereits jetzt SM 3.0 anbieten zu können.
1. schön, nur hab ich davon herzlich wenig gesehen in der Praxis und das ist, was zählt.
Sicher, eine Parhelia ist auch nicht schlecht, nur kann die es gerademal mit einer GF2 aufnehmen, obwohl eigentlich die GF4 TI4200 drin sein sollte...

2. ich meinte, wenn man die Shader nach den nV Optimierungen schreibt, aber noch so, daß sie auf ATi HW laufen...

aths
2004-08-24, 23:01:29
1. schön, nur hab ich davon herzlich wenig gesehen in der Praxis und das ist, was zählt.In deiner Praxis. Was ist "die" Praxis? Warum wurden so viele NV3x verkauft, warum griffen viele Spieler bewusst zu einer FX? Entweder weil NVs Marketing dermaßen gut ist, oder weil es mehr gibt als PS-Leistung auf R300-Featureniveau, oder weil die PS-Leistung der NV3x-Serie für diese Leute noch ausreichen ist, sie aber (aus welchen Gründen auch immer) die zusätzlichen Features haben wollen. Oder weil sie – warum auch immer – mehr als (Achtung, Topic :)) FP24 brauchen.

Dass die FX in Far Cry ziemlich übel performt wirft natürlich die Frage auf, wozu die tollen Features wenn die Leistung bei den DX9-Minimalfeatures deutlich unter der Leistung der Konkurrenz liegt. Andererseits halte ich es für wenig sinnvoll, alles an der PS-Leistung beim Einsatz der DX9-Minimalspec festzumachen.

2. ich meinte, wenn man die Shader nach den nV Optimierungen schreibt, aber noch so, daß sie auf ATi HW laufen... Welchen Sinn hätte das (zumal man dann nur einen Bruchteil der Optimierungsregeln anwenden könnte?)

SKYNET
2004-08-25, 01:42:59
Hm? X800 ist sicher keine "Steinzeitkarte".


im technischem direktvergleich mit NV40 schon.


Geht ja wieder mal gut ab hier - wer ohne Sünde ist, werfe den ersten Stein.

Der letzte offizielle ist nun gar nicht so lange her - aber im Prinzip hast du recht - ATi ist konstanter in Sachen Treiberveröffentlichung.
Das mag positiv oder negativ sein - je nachdem, wie man es sehen will. ;)

evtl. konstanter, dafür sind die offiziellen treiber von NV deutlich freundlicher in sachen spiele kompatibilität.

betasilie
2004-08-25, 03:29:38
Ist dieser Thread hier zu einem Fanboyscheiß geworden! :motz:

Und wer ist dafür verantwortlich? ... Die alten Bekannten natürlich, die ATI wieder vorwerfen id Software nicht unterstützen zu wollen, etc. Als ob es da kein Exklusivverträge zwischen NV und id gegeben hätte, wodurch ATI sicherlich keine großen Möglichkeiten mehr bekommen hat, bei der Optimierung und Entwicklung von D³ mitreden zu dürfen.

Diesen belämmerten NV-Fanboys werde ich dann erstmal bei HL² stecken, dass NV einen beschissenen Developersupport hat, und dass NV selber Schuld ist und sie hatten 2 Jahre Zeit den NV40 auch auf HL² vorzubereiten. Und statt NV die Schuld fuer das HL² Dilemma zu geben, wird auf ATI und Valve rumgehackt. Als wenn Sie fuer das schlechte abschneiden zustaendig waeren... :crazy2:

... Ist doch echt ein Witz was hier wieder für ein geistiger Dünnschiss von unseren leicht zurückgebliebenen Fanboys von sich gegeben wird. Und das sage ich mit meiner 6800GT, die imo die z.Zt. beste Karte am Markt ist.

Gast
2004-08-25, 04:29:31
Ist dieser Thread hier zu einem Fanboyscheiß geworden! :motz:

Und wer ist dafür verantwortlich? ... Die alten Bekannten natürlich, die ATI wieder vorwerfen id Software nicht unterstützen zu wollen, etc. Als ob es da kein Exklusivverträge zwischen NV und id gegeben hätte, wodurch ATI sicherlich keine großen Möglichkeiten mehr bekommen hat, bei der Optimierung und Entwicklung von D³ mitreden zu dürfen.

Diesen belämmerten NV-Fanboys werde ich dann erstmal bei HL² stecken, dass NV einen beschissenen Developersupport hat, und dass NV selber Schuld ist und sie hatten 2 Jahre Zeit den NV40 auch auf HL² vorzubereiten. Und statt NV die Schuld fuer das HL² Dilemma zu geben, wird auf ATI und Valve rumgehackt. Als wenn Sie fuer das schlechte abschneiden zustaendig waeren... :crazy2:

... Ist doch echt ein Witz was hier wieder für ein geistiger Dünnschiss von unseren leicht zurückgebliebenen Fanboys von sich gegeben wird. Und das sage ich mit meiner 6800GT, die imo die z.Zt. beste Karte am Markt ist.

Beta dafür bekommst du von mit ein 100%ig FULL ACK

es ist echt schon krank was hier abgeht.

close

Gast
2004-08-25, 04:34:07
Beta dafür bekommst du von mit ein 100%ig FULL ACK

es ist echt schon krank was hier abgeht.

close

arg sorry

das MIT ist ein MIR :)

Grestorn
2004-08-25, 08:01:59
Ist dieser Thread hier zu einem Fanboyscheiß geworden! :motz:.Korrekt.
Und wer ist dafür verantwortlich? ... Die alten Bekannten natürlich, die ATI wieder vorwerfen id Software nicht unterstützen zu wollen, etc. Entschuldigung? Lies noch mal den Anfang des Threads. Da wurde Carmack vorgeworfen, er würde nVidia bevorzugen. Daraus hat sich das Gebashe entwickelt, nicht andersrum. Es sollte doch nicht wundern, dass auf eine solche Aussage die entsprechende Antwort kommt.

An alle Fans, egal ob rot oder grün: Wenn ihr Euch über Fanboyitis aufregt solltet ihr immer erst mal einen Schritt zurückgehen und Euer eigenes Verhalten auf eben diese Fehler abklopfen.

Ansonsten geht es immer weiter so und die Lager bekriegen sich ohne Ende, ohne Sinn und Verstand.

Um auch noch etwas on topic beizutragen:

Ich spiel mal JC und entscheide mich für eine Shadervariante:

Voraussetzung: Der Treiber tut genau das, was ich will, also er filtert genau die Texturen anispotrop, die ich ihm vorschreibe. Außerdem will ich in meinem Code keine unterschiedlichen Pfade für verschiedene Hardware haben (sofern sie einen bestimmten Mindestumfang an Features unterstützt), d.h. ich muss eine Lösung finden, die möglichst universell gut funktioniert.

Variante 1 (Shader berechnet Wert, Humus Variante): Läuft auf auf einigen Plattformen (nVidia) etwas langsamer als ein Textur-Lookup. Insbesondere auf älterer Hardware (NV30) führt diese Methode zu ernsthaften Performance-Problemen.

Variante 2 (Shader holt berechneten Wert aus einer Lookup-Textur): Läuft auf allen Plattformen gleich schnell, so lange die LUT nicht gefiltert wird (also der Treiber meinen Vorgaben gehorcht).

Für welche Variante entscheide ich mich nun? Muss ich berücksichtigen, dass evtl. ein Treiber einen Bug haben könnte, der meine AF Vorgaben durcheinander bringt? Muss ich berücksichtigen, dass der Anwender im CP meine Vorgaben überlagert?

Ich weiß jedenfalls, wie ich diese Fragen beantworten würde. Aber eines ist sicher: Nur weil die Antwort so oder so ausfällt, heißt das noch lange nicht, dass man damit automatisch den einen oder anderen IHV bevorzugt.

MadManniMan
2004-08-25, 09:16:45
Bittebitte, Tombman - das ganze nochmal mit Ingame AF! (und auch mal ohne AA, wenns denn geht!)


@Topic:

Was hab ich immer über nVidioten gewettert... aber die Lager nehmen sich nichts.
Wenn man versucht, objektiv zu bleiben, dabei aber eigentlich einem Lager "angehört", kann man schon einpacken. Arm, echt arm ;(

Auf meinem Weg vom 3Dfx-Maniac, hin zum Kyroten, dann zum nV-Anthipitat... nV-Nichtmöger halt und letztendlich zu einem, der sich nicht mehr dafür interessiert, ob seine Karte rot, grün, gelb oder braun gepunktet ist, hab ich viele Emotionen durchgemacht und muß inzwischen sagen: das Ausmaß an persönlichen Anfeindungen erreicht Fankurvenniveau, wäre die Möglichkeit gegeben und nV und ATi würden gegeneinander Fußballspielen, die Fans von Halle 96 und Union Berlin wären fairer zueinander.

Ich halte meine eigene Meinung besser aus dem Thread raus, sonst werde ich wieder ein Fanboy. Aber laßt es mich so sagen: ich halte es wie jemand, dem ich in meine ATi-Sympathie Zeit kaum Luft zum Atmen gelassen hab.

*kopfschüttelnd* MMM

reunion
2004-08-25, 10:13:21
Dafür würde ich gerne Beweise sehen wollen – um anschließend einen Artikel zu schreiben und id software die Bevorzugung von NV vorwerfen.

Wieviel Beweise willst du denn noch?
Der HUMUS-tweak bringt bei mir beinahe +40% Leistung und das nur durch ändern einer einzigen Datei.

Demirug
2004-08-25, 10:30:46
Wieviel Beweise willst du denn noch?
Der HUMUS-tweak bringt bei mir beinahe +40% Leistung und das nur durch ändern einer einzigen Datei.

Mit CP-AF, oder?

CP-AF stellt ja eine von id unerwünschte Konfiguration dar. Ich weiss das App-AF unter OpenGL bei den Radeons aufgrund eines Treiberbugs nicht richtig funktioniert.

Das D3 Problem entsteht IMHO aus dem "One Path fits all" Anspruch. Da dieser Pfad auch noch star ist kann er logischerweise nicht für alle Chips/Settings Ideal sein. PCs sind nun mal keine Konsolen.

Von der Shadertheorie ist es richtig eine Berechnung durch eine LUT zu ersetzten wenn der Shader mehr Rechenanweisungen als Texturezugriffe enthält und man von Chips ausgeht die ausgeglichen sind (was ATI und nVidia ja im groben von iheren Chips behaupten). Aber Theorie ist nun mal Theorie. Im echten Einsatz sind die Flaschenhälse nicht immer dort wo sie sein sollte und verschieben sich zudem auch noch ständig.

Grestorn
2004-08-25, 10:35:17
Wieviel Beweise willst du denn noch?
Der HUMUS-tweak bringt bei mir beinahe +40% Leistung und das nur durch ändern einer einzigen Datei.Lesen - Verstehen - Schreiben.

Du hast verstanden, warum der Humus-Tweak 40% Leistung bringt? Nein? Dann lies diesen Thread nochmal. Kurzform: 40% gibts nur bei AF über CP, denn bei AF über CP wird auch unnötigerweise die LUT gefiltert, was die JC Methode unnötig ausbremst. Ohne AF über CP sind die Humus und die JC Varianten in etwa gleichwertig (im Schnitt über alle Plattformen, wogegen die Humus Variante auf die Vorteile von ATI optimiert ist).

Wenn Dir nicht klar ist, was ich damit meine oder welche Bedeutung das hat, dann schreib mir ne PM, ich werde Dir dann nochmal die Details erklären.

A.Wesker
2004-08-25, 10:51:57
im quality modus ist die dritte optimierung nicht von standard aus aktiviert. hast du diese manuell eingestellt?

MadManniMan
2004-08-25, 10:56:21
Ganz richtig, grestorn.

Aber ich quote mich gern nochmal selbst...

[QUOTE=MadManniMan]Um meinem Posting Sinn anerkennen zu können, muß Folgendes gegeben sein:

CP-AF und App-AF machen für euch nur vom Performancestandpunkt Unterschiede - die Optik erscheint euch gleich. Zumal es mir ungleich logischer erscheint, D³ über den AF-Grad entscheiden zu lassen.

Wer diesem nicht zustimmt, brauch meine Bemerkungen nicht beachten ... sicherlich ist es interessant, wie sich der ganze Kram bei CP-AF verhält, doch im Endeffekt sind IMHO nur folgende Ergebnisse von letztendlicher Relevanz, da wohl nur so wirklich verglichen werden kann:

*ATi* (R4XX)

- App-AF
- mit und ohne Humus-Tweak
- wenn möglich, mit richtigem Tri

*nV* (NV4X)

- App-AF
- mit "altem" offiziellen und mit neuem Treiber
- Bri aktiv - außer, es wird auch bei ATi deaktiviert
- verringerte LoD-Präzision, da ATi auch so arbeitet

...alles Andere führt zu Kram, der nicht wirklich was bringt.[QUOTE]

Jesus
2004-08-25, 11:57:15
CP-AF und App-AF machen für euch nur vom Performancestandpunkt Unterschiede - die Optik erscheint euch gleich. Zumal es mir ungleich logischer erscheint, D³ über den AF-Grad entscheiden zu lassen.

Die Optik erscheint mir nicht gleich. CP AF sieht ( aufgrund des Treiberbugs ) wesentlich besser aus als APP AF, und ist gleichzeitig ( dank Humus Tweak ) auch um einiges schneller.

( CP AF sieht im übrigen auch auf NV Karten besser aus als APP AF )

MadManniMan
2004-08-25, 12:17:30
Die Optik erscheint mir nicht gleich. CP AF sieht ( aufgrund des Treiberbugs ) wesentlich besser aus als APP AF, und ist gleichzeitig ( dank Humus Tweak ) auch um einiges schneller.

( CP AF sieht im übrigen auch auf NV Karten besser aus als APP AF )

Dann sieh meinen Post als nur eingeschränkt allgemeingültig an ;) Dennoch würden mich Ergebnisse mit App-AF mehr als nur interessieren - schließlich sollte das beim Gros der Spieler auch so aktiviert sein, da kaum jemand weiß, was AF ist, wohl aber, daß "High Details" besser ist, als "Medium" :D

Mr. Lolman
2004-08-25, 12:31:15
So, dann schreib ich nach 5 Seitens auch einmal was in den Thread, kthxsry

Erstmal: Danke Tombman für die Benchmarks. Lovesuckz: Wie würdest du argmentieren wenns in Doom kein App. AF geben würd, und die interaction.cfp nach Humus Style geschrieben worden wär...

Ganz richtig, grestorn.
*ATi* (R4XX)

- App-AF
- mit und ohne Humus-Tweak
- wenn möglich, mit richtigem Tri

*nV* (NV4X)

- App-AF
- mit "altem" offiziellen und mit neuem Treiber
- Bri aktiv - außer, es wird auch bei ATi deaktiviert
- verringerte LoD-Präzision, da ATi auch so arbeitet

...alles Andere führt zu Kram, der nicht wirklich was bringt.


Nicht unbedingt. Ich würde gerne folgendes sehen:
1280x1024x32, High oder Ultra, 4xAA, 8xAF

AT & NV:

-mit Humus und App. AF
-mit Humus und CP. AF
-ohne Humus und App. AF
-ohne Humus und CP. AF


Dann könnte man nämlich folgende 5 Punkte nicht nur theoretisch abhandeln:

1) Doom, wie wirs kennen, App AF:
NV ist z.T. signifikant schneller, schaut bei ATi mies aus, sobald AF aktiv ist

2) Doom mit beiden Techniken und App AF:
sieht bei aktivem AF auf ATi Karten mies aus, läuft aber schon ohne AF 6-8% schneller als es momentan der Fall ist

3) Doom, mit Humus Technik, aber App AF:
schaut auf ATi Karten bei aktiven AF mies aus, ist dafür aber auch flotter. (ATi Karten gewinnen schon ohne AF 6-8%, NV Karten verlieren deutlichst)

4) Doom mit beiden Techniken, ohne App AF:
Läuft auf beiden Karten gut, sieht auf beiden Karten auch mit AF gut aus. Performance sollte ausgeglichen sein, bei CP AF Speedvorteile für ATi Karten

5) Doom mit Humus Technik, ohne App AF:
Sieht auf beiden Karten gut aus. Läuft auf NV Karten langsamer. Mit aktiven CP AF dürfte ATi einen schönen Vorsprung haben.

Ich glaub, dass es zumindest eine Konfiguration gibt, die ATi vorne sein lassen würde (beide Humus, beide CP). Auch wenns sich vorallem NV Fanboys über die die Sinnhaftigkeit solcher Benchmarks wunrdern würde, könnte man damit zumindest ein für alle Mal konstatieren, dass nicht die gesamte Doom3 Technik für ATi KArten ein Debakel ist, und D3 nur soo toll läuft, weil NV ihre HW so eisern drauf optimiert hat, sondern, dass nur die Art der Berechnung für die Performance Unterschiede ausschlaggebend ist. Denn das Ergebnis bleibt auch mit Humus und CP AF gleich. Und falls ATi idF wirklich vorne wäre, müsste man auch den 3DC Artikel neu schreiben.
Nämlich an der Doom3 Technik ändert sich im Prinzip nichts, nur die Shaderberechnung wurde ausgetauscht, und App. AF hat sich ja auch noch nicht wirklich durchgesetzt. Zuviele Spiele gibts, wo AF immernoch übers CP gewählt wird, also von daher, bitte ich nochmal div. aufbrausende Forenmitglieder den Vergleich zuzulassen, wie Doom3 noch peformen könnte, ohne dass sich was an der Optik ändert*....


*mal abgesehen von ATis App. AF Bug, aber darum gehts ja jetzt nicht

Mr. Lolman
2004-08-25, 12:33:03
Dann sieh meinen Post als nur eingeschränkt allgemeingültig an ;) Dennoch würden mich Ergebnisse mit App-AF mehr als nur interessieren - schließlich sollte das beim Gros der Spieler auch so aktiviert sein, da kaum jemand weiß, was AF ist, wohl aber, daß "High Details" besser ist, als "Medium" :D

Hat tombman überhaupt bestätigt, dass nur CP AF verwendet wurde? Wenn ja, hab ich das überlesen...

tombman
2004-08-25, 13:23:10
ich hab bei allen Doom3 benchmarks IMMER APP-AF verwendet, im cp wars bei beiden immer aus.

LovesuckZ
2004-08-25, 13:31:52
AT & NV:
-mit Humus und App. AF
-mit Humus und CP. AF
-ohne Humus und App. AF
-ohne Humus und CP. AF

Warum sollte man bei Doom3 diesen tweak auf Nvidiakkarten verwenden?

Elitebastard.com (http://www.elitebastards.com/page.php?pageid=6201&head=1&comments=1) hat sich mit diesem Thema auch beschaeftigt. Und dort wird es bestaetigt, dass das Shaderreplacement gerade mal 7% schafft.

- When using Humus' Doom 3 code tweak in conjunction with in-game anisotropic filtering, only minor performance benefits can be gained - This tweak appears to be at its most useful in higher resolutions.
- Using Humus' tweak with control panel AF gives large performance boosts, to a large extent due to its removing filtering workload legitimately when it is set in this fashion.

Gast
2004-08-25, 13:53:29
Warum sollte man bei Doom3 diesen tweak auf Nvidiakkarten verwenden?

Elitebastard.com (http://www.elitebastards.com/page.php?pageid=6201&head=1&comments=1) hat sich mit diesem Thema auch beschaeftigt. Und dort wird es bestaetigt, dass das Shaderreplacement gerade mal 7% schafft.

- When using Humus' Doom 3 code tweak in conjunction with in-game anisotropic filtering, only minor performance benefits can be gained - This tweak appears to be at its most useful in higher resolutions.
- Using Humus' tweak with control panel AF gives large performance boosts, to a large extent due to its removing filtering workload legitimately when it is set in this fashion.

Na ja, 7 Prozent ist ja nun mal nicht so schlecht.

OT: Wann gibt es eigentlich mal eine 3DCenter Review (das erste war ja nicht ganz vollständig und wegen dem Testsetup sowie den Treiber-Optimierungen leider nur suboptimal) zur aktuellen GraKa-Generation - incl. Tests mit/ohne Optimierungen und natürlich Farcry, Doom3 usw.

VooDoo7mx
2004-08-25, 16:02:41
der 4.8er treiber beinhaltet schon den grössten teil der beschleunigung unter doom3. mit dem 4.9er sind weniger als 1% mehr drin.

Sorry, aber das ist falsch. Der 4.8 ist bei meiner X800 unter Doom³ 15% langsamer als der Beta Doom³ Hotfix Treiber.
Ich hab bei mir, den 4.8 mit dem OpenGL Teil des 4.9b installiert. Der OpenGL Treiber im 4.9b hat übrigens eine höhere Buildnummer als der des 4.8.


Diesen belämmerten NV-Fanboys werde ich dann erstmal bei HL² stecken, dass NV einen beschissenen Developersupport hat, und dass NV selber Schuld ist und sie hatten 2 Jahre Zeit den NV40 auch auf HL² vorzubereiten. Und statt NV die Schuld fuer das HL² Dilemma zu geben, wird auf ATI und Valve rumgehackt. Als wenn Sie fuer das schlechte abschneiden zustaendig waeren... :crazy2:


Meinst du nicht, dass du die Schuld, nicht etwas zu schnell, einigen Leuten in die Schuhe schiebst?
Es geht nicht um den dev Support von ATi und nVidia, welcher bei beiden Herstellern ausgezeichnet ist, sondern um an spezielle Anpassungen der Hardware an zukünftige Anforderungen.
ATi hat eben dies verpasst und war der Meinung, dass ein weiterer R300 Aufguss genügt.

Dass der R420 beim VST, dem NV40 mit 10% davon rennt, liegt nicht an der außergewöhnlichen Source-Engine und das NV Hardware nicht mit deren Anforderungen klar kommt, sondern schlicht und einfach daran, dass ein voll ausgebauter R420, 25% Mehrtakt beim Chip, als ein entsprechender NV40 hat. Die 10% liegen absolut im Rahmen und lässt sich auch bei genügend anderen Anwendungen beobachten.

Ich versteh auch das ganze rumgeheule nicht. ATi hat mit dem Hotfixtreiber doch schon einen klasse Doom³ Treiber rausgebracht, der die Performance deutlich steigert und für September sogar noch mehr versprochen.
Wieso schreien die Leute immer noch nach irgendwelchen zwielichtigen Tweaks? Das Spiel läuft doch super! Muss das denn immer so lange weitergehen, bis der rote Balken den grünen überholt?

Wieviele Renderpfade soll denn id eurer Meinung nach schreiben? Ich hätte schonmal 5 ARB2 Renderpfade im Angebot. (R300, NV3X , NV4X , Deltachrome , XG40).
Vielleicht sollten einige Volari-User anfangen, id zu unterstellen, dass sie pro ATi sind. :|
Wie Demirug schon gesagt hat, hat id eben den bestmöglichen Mittelweg gewählt. Wieso sollte man ihnen das übel nehmen?
Der Humus Tweak zeigt doch, dass NV4X Karten, mit ihm an Leistung verlieren.
Irgendein cleverer Programmierer könnte sich genausogut auch hinsetzen und die Shader so schreiben und sortieren, dass Doom³ auf NV4X Karten noch besser läuft. Verbunden ist dies mit einer schlechteren Performance bei ATi Hardware.

Ich für meinen Teil, brauche keine Tweaks von irgendwelchen semi-professionellen Programmieren. Ich will mein Doom³ so spielen, wie es sich Mr Carmack gedacht hat, da verzichte ich gerne mal auf 3fps.(Die bei Doom³ schon was ausmachen können)
Wenn jemand Hand anlegen soll, dann id oder ATi.

VoodooJack
2004-08-25, 16:05:58
Bei ATi kommt der neueste Humus tweak zum Einsatz der ein paar shader neu schreibt und damit ATI beschleunigt ohne BQ zu verlieren. Fyi, Humus war ein ehemaliger top-demo coder, der jetzt bei ATI arbeitet.
Da der humus tweak NV langsamer macht, ist er bei den NV Tests ausgeschalten, dafür war r_usedepthboundtest = 1 bei NV Karten.
Dieser cvar schaltet noch eine kleine Schattebeschleunigung bei NV ein.

Es wurden also die jeweil besten Einstellungen genommen um Doom3 richtig Dampf zu machen.

Doom3, HQ (=8xAF)

1600x1200, 4xAA, 8xAF

6800ultra, fw 66.00, im CP quality + alle Opt. ON, default clock: 41.6 fps

X800XTPE, cat 4.9b, im CP high qual (ATI opt ON), default clock: 36.1 fps

Man sieht also, daß die X800XTPE nur mehr maximal (je niedriger die settings desto kleiner der Abstand) 15% hinter der 6800ultra in Doom3 liegt, wobei man aber fairerweise sagen muß, daß die Minimum-fps bei nvidia sichtbar höher sind, was das timedemo ja nicht verrät. (am besten zu sehen in der letzten Szene wo das Monster auf einen langsam zukommt, wo ati nur ca 12-15fps hat während nvidia 17-23fps hat)

Ganz deutlich fällt aber auf, daß meine ersten benchmarks auf ATi nur 29.7 fps in den selben Einstellungen brachten, dar cat 4.9b aber vorallem der neue Humus twaek ATi ordentlich nach vorne pushte, und das nur mit minialem Aufwand- ganz einfach indem eine Datei geändert wurde.


Deine Erkenntnisse kann ich bestätigen. Innerhalb eines Monats hat die X800 XTPE dank Doom3-Hotfix (beta 4.9) und HumusTweak Nvidias Startvorsprung in Doom 3 halbiert. Von 30% auf 15%.

meine o/ced X800 XTPE
beta 4.9 + HumusTweak
High Quality im Control Panel
AA und AF im Spiel eingestellt

timedemo demo1

1600x1200/High Quality/8xAF/4xAA:
- avg 38.0 fps
- min 16 fps
- max über 100 fps

Dieses Leistungsvermögen hat vollauf genügt, um Doom 3 auf meinem P4EE-System in 1600x1200 zu spielen. Ich hab D3 zweimal durchgespielt. Einmal in 1600x1200/HQ/8xAF/2xAA: damit war es angenehm flüssig zu spielen. Einmal in 1600x1200/HQ/8xAF/noAA: damit war es butterweich zu spielen. Das Spiel Doom 3 an sich ist damit für mich passee. Weiteren Treiberverbesserungen in OGL steh ich aber durchaus aufgeschlossen gegenüber. :D

2B-Maverick
2004-08-25, 17:28:32
Hab meinen Treiber mal aktualisiert und war erfreut was sich getan hat:

http://www.markus-gayda.de/markus/Doom3 Bench.jpg

Wie man sieht haben sowohl der Cat4.9 als auch der Tweak von Humus das ganze gut spielbar in HQ und 2xAA gemacht auf meiner betagten 9700.
Wenn das mit HalfLife2 auch so gut passt kann ich noch 2 Jahre mit nem Upgrade warten :D

Man beachte das nun HQ mit 2xAA genauso schnell ist wie MQ OHNE AA vorher. *FREU*

Mr. Lolman
2004-08-25, 17:36:58
Warum sollte man bei Doom3 diesen tweak auf Nvidiakkarten verwenden?


Nur um herauszufinden, wie Doom laufen würde, wenn es nicht nach (von mir geposteter) Variante 1 geproggt worden wär, sondern 2-5.

Mr. Lolman
2004-08-25, 17:58:58
Sorry, aber das ist falsch. Der 4.8 ist bei meiner X800
Wie Demirug schon gesagt hat, hat id eben den bestmöglichen Mittelweg gewählt. Wieso sollte man ihnen das übel nehmen?
Der Humus Tweak zeigt doch, dass NV4X Karten, mit ihm an Leistung verlieren.

Ich glaube nicht, dass der Mittelweg, der bestmögliche war. Wo hat das Demi denn geschrieben? Ältere HW rechnet ohnehin nicht den ARB2 Pfad.


Irgendein cleverer Programmierer könnte sich genausogut auch hinsetzen und die Shader so schreiben und sortieren, dass Doom³ auf NV4X Karten noch besser läuft. Verbunden ist dies mit einer schlechteren Performance bei ATi Hardware.

Siehst du, und das ist der springende Punkt. Ich glaub nämlich auch nicht, dass mit Shaderreplacement bei NV HW noch viel Leistung zu holen ist. Und falls doch, muss sich JC die Frage gefallen lassen, warum er nicht beide optimierte Pfade verwendet hat, sondern nur einen allgemeinen. Und ich glaub, JC hat so einen Pfad schneller fertig, als irgendjemand anders hier im Forum. Und jeder der jetzt dagegen spricht, tut dies, weil er entweder zuviel Geld in der Tasche hat, oder nicht meiner Meinung sein will.

Bei einem Spiel mit 5 jähriger Entwicklungszeit kann man einfach erwarten, dass es optimal an die HW angepasst wurde. Alles andere ist verpuffende Leistung, und die Leidtragenden sind die HW Käufer, die finden das ihre Karte zu lahm ist. Es macht halt doch einen Unterschied ob man auf seiner 9700, Doom nur mi 1024 und Medium Quality spielen kann, oder ob man bei gleicher Leistung High Quality einstellen kann, und noch Luft für 2xAA hat.

BTW: Die 5 Jahre Entwicklungszeit belaufen sich hauptsächlich auf den content, nicht auf die Engine, denn die war vor 2 Jahren auch schon ziemlich fertig. Aber vielleicht ists nur unter JC Niveau sich um irgnedwelche HW Anpassungen zu kümmern. Er stellt die Engines, und die IHVs müssen zusehen wie ihre HW darauf läuft. So wars eigentlich immer. Dass er damit dann dem Spieler nicht unbedingt einen Gefallen tut ist nichtmal wirklich ihm anzulasten, sondern eher dem IHV, der es nicht gebacken bekommt, seine HW auf jedem Einsatzgebiet optimal laufen zu lassen.

Ich als ATi Nutzer seh halt nur, dass ATis schneller hätten können, es aber ihnen von der Engine nicht erlaubt wird (ohne Tweak) und das NV Nutzer dahinter Fanboygejammer erkennen versteh ich auch, denn bei denen passt ja alles. Aber es ist ja nicht so, dass sich NV Nutzer nicht freuen würden, wenn ein Doom Patch je nach Settting ihnen 6-40% Mehrleistung verschafft. Wundern würden sie sich wohl genauso, warum Programmiergott JC nicht gleich diesen Pfad eingebaut hat. Klar dann kann man immernoch mit dem optimalen Mittelweg argumentieren, der mit einem Pfad machbar ist. Aber kanns uns als Enduser nicht egal sein, ob das jetzt für JC optimal ist oder nicht. Ist doch so.

Ich glaub keiner würd auf so einen Patch verzichten, auch wenn er genau wüsste, das JC darüber nicht amused wär, und es garnicht in seinem Sinn war,da noch irgendwas zu optimieren, da sich s.E. ja eigentlich die HW optimal an Doom(/seinen Engines) orientieren sollte, und nicht umgekehrt.
Deswegen ist das Gejammere der ATi User m.E. absolut legitim, und ich wär der Letzte, der irgendeinen Patch schlechtmachen würde, der einer HW zu mehr Leistung bei gleicher BQ verhelfen kann.

Klar wenn das Patches sind, die nur in gewissen Timedemos mehr Performance bringen sollt man wieder stutzig werden. Aber der Humus Tweak hat ja bewiesen, dass ATi User durchaus einen reellen Mehrwert von diesem Tweak haben.

Demirug
2004-08-25, 17:59:28
Nur um herauszufinden, wie Doom laufen würde, wenn es nicht nach (von mir geposteter) Variante 1 geproggt worden wär, sondern 2-5.

Mhm, irgendwie steht da aber noch ein Treiber im Weg.

Demirug
2004-08-25, 18:05:07
Ich glaube nicht, dass der Mittelweg, der bestmögliche war. Wo hat das Demi denn geschrieben? Ältere HW rechnet ohnehin nicht den ARB2 Pfad..

Habe ich in der Form auch nicht gesagt. Aber möglicherweise war meine Aussage missverständlich. Was ich gesagt habe war das der Shader aus Sicht der aktuellen Shadertheorie optimal ist.

Ich als ATi Nutzer seh halt nur, dass ATis schneller hätten können, es aber ihnen von der Engine nicht erlaubt wird (ohne Tweak) und das NV Nutzer dahinter Fanboygejammer erkennen versteh ich auch, denn bei denen passt ja alles. Aber es ist ja nicht so, dass sich NV Nutzer nicht freuen würden, wenn ein Doom Patch je nach Settting ihnen 6-40% Mehrleistung verschafft. Wundern würden sie sich wohl genauso, warum Programmiergott JC nicht gleich diesen Pfad eingebaut hat. Klar dann kann man immernoch mit dem optimalen Mittelweg argumentieren, der mit einem Pfad machbar ist. Aber kanns uns als Enduser nicht egal sein, ob das jetzt für JC optimal ist oder nicht. Ist doch so.

Völlig richtig. Im Gegenzug dürfen dann aber auch die Besitzer von anderen Karten bei jedem Spiel jammern bei denen die Shader nicht auf ihere Karten angepasst wurden, oder?

Tomcat70
2004-08-25, 18:25:51
Im Gegenzug dürfen dann aber auch die Besitzer von anderen Karten bei jedem Spiel jammern bei denen die Shader nicht auf ihere Karten angepasst wurden, oder?

wenn sie jammern wollen, und es wege gab die eine spielefirma wissentlich nicht nutzte, steht ihnen das sicher zu.
der grosse unterschied ist wahrscheinlich der, das da ja auch nirgends behauptet wurde (kann mich zumindest an keinen derartigen artikel auf 3dc erinnern, man möge mich gerne berichtigen) das die jeweilige spielefirme eine glanzleistung vollbracht hat hinsichtlich optimierung auf nvidia hardware, obwohl dem nicht so war.

Fruli-Tier
2004-08-25, 18:37:32
Meinst du nicht, dass du die Schuld, nicht etwas zu schnell, einigen Leuten in die Schuhe schiebst?
Es geht nicht um den dev Support von ATi und nVidia, welcher bei beiden Herstellern ausgezeichnet ist, sondern um an spezielle Anpassungen der Hardware an zukünftige Anforderungen.
ATi hat eben dies verpasst und war der Meinung, dass ein weiterer R300 Aufguss genügt.


Vorsicht vor Ironie :wink: Manchmal beisst sie einen in Den Allerwertesten und man schnallts nich.

Der Quote bezieht sich auf die Prophezeiung, nVler würden gegen Ati und Valve wettern, weil HL² auf ATi Hardware wohl besser laufen wird. Das war glaub ich von betareverse

Ich verstehe aber auch nicht ganz, warum so gegen id gemeckert wird.

Ihr könnt Doom3 doch bestimmt mit eurer Radeon X800 Pro/XT/blabla Problemlos spielen? Wer jetzt das Gegenteil behauptet ist selbst Schuld!
Wo liegt dann das Problem?
Wer weiss den genau, warum JC die Shader nicht anders geschrieben hat?
Weiss eigentlich irgendjemand von euch, dass die Doom3 Schattenberechnung im Jahre 1999 von Creative erfunden und patentiert wurde? Und während der Entwicklung von Doom3 ist das eben aufgefallen (oder wars erst im nachhinein? Bin etz nich ganz sicher) und man brauchte eine Lösung, die niemanden schadet.

Es wäre gegangen:
- CreAtive is bockig und verlangt umcoden -> Keiner hat was davon
- CreAtive is bockig und will Geld -> macht einen schlechten Ruf
- CreAtvie und id einigen sich irgendwie, so dass jeder was davon hat.

Lösung:
id darf weiter lustig Schattieren, baut im Gegenzug aber - anders (oder zusätzlich zu dem schon vorhandenem) als geplant - CreAtives EAX Technologie in die Engine ein. CreAtive verkauft Soundkarten und id muss die Engine nicht umschreiben.

Mag es daran liegen? :wink:

Gast
2004-08-25, 19:04:36
Dieses ganze Gerede... Zzzz Am Ende bleibt doch eine Frage: Warum hat dieser geniale Mensch aus Texas den Humus-Patch nicht selbst geschrieben und in das fertige Spiel intigriert? Warum?

Gast
2004-08-25, 19:05:21
Selbst auf nV3x optimiert dürfte die R300 immer noch deutlich schneller gewesen sein...


sry, aber auf NV3x optimiert kann eine Radeon nicht darstellen.

Gast
2004-08-25, 19:17:44
Dieses ganze Gerede... Zzzz Am Ende bleibt doch eine Frage: Warum hat dieser geniale Mensch aus Texas den Humus-Patch nicht selbst geschrieben und in das fertige Spiel intigriert? Warum?


Die Frage hat demirug bereits weiter oben beantwortet.

aths
2004-08-25, 21:57:31
Dieses ganze Gerede... Zzzz Am Ende bleibt doch eine Frage: Warum hat dieser geniale Mensch aus Texas den Humus-Patch nicht selbst geschrieben und in das fertige Spiel intigriert? Warum?Wie wäre es damit: Weil es den Optimierungsregeln widerspricht, und bei einem besserem OpenGL-Treiber von ATI vielleicht (wie auch auf der NV3x-Serie) langsamer würde? Oder weil es weniger flexibel ist, mit Pow zu rechnen, als einen Texture Lookup zu nutzen? Oder weil er einfach nicht auf die Idee kam, einen 1-Takt-Befehl mit einem 3-Takt-Befehl zu ersetzen, und das der ATI-Dev-Support leider auch nicht rechtzeitig sah?

Coda
2004-08-25, 21:59:24
Mal ne Frage zum Thema: Rechnet der neuste Humus Patch eigentlich jetzt genau das gleiche wie der Texture Lookup? Wenn nicht erübrigt sich die Diskussion sowieso IMHO.

Gast
2004-08-25, 22:56:35
Mal ne Frage zum Thema: Rechnet der neuste Humus Patch eigentlich jetzt genau das gleiche wie der Texture Lookup? Wenn nicht erübrigt sich die Diskussion sowieso IMHO.

Nur wenn Doom3 selbst das AF steuert und es nicht durch den Treiber erzwungen wird glaube ich.

Demirug
2004-08-25, 22:58:31
Wie wäre es damit: Weil es den Optimierungsregeln widerspricht, und bei einem besserem OpenGL-Treiber von ATI vielleicht (wie auch auf der NV3x-Serie) langsamer würde? Oder weil es weniger flexibel ist, mit Pow zu rechnen, als einen Texture Lookup zu nutzen? Oder weil er einfach nicht auf die Idee kam, einen 1-Takt-Befehl mit einem 3-Takt-Befehl zu ersetzen, und das der ATI-Dev-Support leider auch nicht rechtzeitig sah?

Du bist nicht auf dem aktuellen Stand. Das POW wurde inzwischen längst durch etwas anders ersetzt. IIRC ist es ein MAD und ein MUL in der Skalar Pipe.

Demirug
2004-08-25, 22:59:53
Mal ne Frage zum Thema: Rechnet der neuste Humus Patch eigentlich jetzt genau das gleiche wie der Texture Lookup? Wenn nicht erübrigt sich die Diskussion sowieso IMHO.

Im Prinzip ja.

IVN
2004-08-25, 23:28:11
@Demirug

How did Humus came to this optimisation??

Did he use NVPerfHUD or some other analysing tool to find the bottlenecks in the pipeline??

I'm not sure,but i think that nvidia said that NVPerfHUD and FX composer can be used on ATI hardware?? :confused:

Demirug
2004-08-25, 23:45:52
@Demirug

How did Humus came to this optimisation??

Did he use NVPerfHUD or some other analysing tool to find the bottlenecks in the pipeline??

I'm not sure,but i think that nvidia said that NVPerfHUD and FX composer can be used on ATI hardware?? :confused:

Ich weiss nicht was in genau darauf gebracht hat. Er erwähnte mal das ihm die vielen Texturezugriffe suspekt vorgekommen sind. Vieleicht hat er ja auch noch Zugriff auf ein paar internen ATI-Tools.

nvPerfHUD läuft nur mit nVidia Hardware da es auf einen entsprechenden Treiber angewisen ist. FX Composer kann auch mit ATI Hardware benutzt werden allerdings funktionieren die Performance Test Funktionen dort dann ebenfalls nicht alle.

Gast4ever
2004-08-25, 23:53:04
vieleicht interessierts hier jemanden

hier noch ein paar vergleiche 12pipes VS. 16pipes VS pro-takt VS xt-takt VS ...

cpu: 3200+clawhammer@10x222=2220mhz
x800pro@XTPE=520/560+16pipes XT Bios

Doom3+Cat4.8+dx9c
Details: Ultra High
ingame alles auf max
aa nur ingame verstellt
cp default!
Format:34.9secs==61.5FPS
höchster fps wert aus durchlauf 2.-4.!


_________1024x768
_________475/450@12_______520/560@12_______475/450@16_______520/560@16
2xAA_____34.9_____61.5_____30.4_____70.7_____30.1_____71.3_____27.1_____79.4
4xAA_____49.3_____43.6_____42.0_____51.1_____38.7_____55.5_____33.1_____65.0

_________1280x1024
_________475/450@12_______520/560@12_______475/450@16_______520/560@16
2xAA_____50.9_____42.2_____43.6_____49.3_____42.8_____50.2_____36.0_____59.7
4xAA_____70.8_____30.3_____60.4_____35.6_____55.9_____38.5_____47.1_____45.6

_________1600x1200
_________475/450@12_______520/560@12_______475/450@16_______520/560@16
2xAA_____70.0_____30.7_____59.7_____36.0_____58.6_____36.7_____49.2_____43.6
4xAA_____97.0_____22.1_____82.6_____26.0_____76.3_____28.1_____64.6_____33.2
0xAA_____57.8_____37.2_____49.8_____43.1_____48.8_____44.0_____41.5_____51.7


seta g_showPlayerShadow "1" <--- sind eingeschaltet,w eis aber nicht ob einen unterschied macht für den benchmark möglich wärs

zum vergleich:
6xaa+16af 3dmark03 6633
default 3dmark03 12547

aths
2004-08-25, 23:57:39
Du bist nicht auf dem aktuellen Stand. Das POW wurde inzwischen längst durch etwas anders ersetzt. IIRC ist es ein MAD und ein MUL in der Skalar Pipe.Ok. Aber das müsste dann doch noch schneller sein als POW – warum blieb von den "+40%" so wenig übrig??

IVN
2004-08-26, 00:04:33
@Demirug

I didn't read all posts,but can you tell me what is the difference between your and Humuse's tweak?

tokugawa
2004-08-26, 01:52:07
Mit CP-AF, oder?

CP-AF stellt ja eine von id unerwünschte Konfiguration dar. Ich weiss das App-AF unter OpenGL bei den Radeons aufgrund eines Treiberbugs nicht richtig funktioniert.

Das D3 Problem entsteht IMHO aus dem "One Path fits all" Anspruch. Da dieser Pfad auch noch star ist kann er logischerweise nicht für alle Chips/Settings Ideal sein. PCs sind nun mal keine Konsolen.

Von der Shadertheorie ist es richtig eine Berechnung durch eine LUT zu ersetzten wenn der Shader mehr Rechenanweisungen als Texturezugriffe enthält und man von Chips ausgeht die ausgeglichen sind (was ATI und nVidia ja im groben von iheren Chips behaupten). Aber Theorie ist nun mal Theorie. Im echten Einsatz sind die Flaschenhälse nicht immer dort wo sie sein sollte und verschieben sich zudem auch noch ständig.

Ich finde jeder hier - Fanboys und auch jene die anderen attestieren, Fanboys zu sein, sollten sich das hier und auch die anderen Postings von Demirug durchlesen.

Ich glaube dass viele Leute, die unreflektiert anfangen zu bashen (egal ob rot, ob grün), vieles nicht aus der richtigen Perspektive sehen. Wären sie Entwickler, würden sie JC nicht gleich solche Verschwörungen vorwerfen.

Wären sie Entwickler, würden sie auch einsehen, dass eben der NV40 für die Algorithmen und Techniken, die Doom 3 bietet, wie geschaffen ist.

Vielleicht ist das auch der Fall mit ATI und Half-Life 2, aber das weiß man ja noch nicht. Wenn Half-Life 2 so Shader-intensiv wie Far Cry wird, kann das ja durchaus sein.

Und noch wissen wir ja nicht mal, wie es in der Realsituation HL2 ausschaut.

Also würd ich über HL2 jetzt noch nicht mal anfangen. Sehen wir, wie es ist, sobald HL2 rauskommt.

Im Übrigen bin ich die Shader-Geilheit auch etwas satt. Shader sind cool, keine Frage, aber ob ein Spiel jetzt exzessiv 2.0er Shader verwendet oder wie Doom 3 eher simplere Shader, ist für mich jetzt eine weniger relevante Frage als etwa die Schattentechnik von Doom 3.

IMO ist die Schattentechnik von Doom 3 (bzw ihre Performance) das, was mich beeindruckt (auch wenn die Technik altbekannt ist, und auch schon in Deus Ex 2 und Thief 3 eingesetzt wurde). Sowas gehört auch mal gewürdigt, und nicht nur Pixelshader-Wasser oder Pixelshader-was-auch-immer.

Ich will jetzt keine Diskussion anzetteln, welche Engine jetzt mehr "State-of-the-Art" ist (schon allein deswegen weil Doom 3 sich nicht in einen DirectX-Techlevel zwängen läßt, und das ist auch gut so), aber man muß halt damit leben, dass Doom 3 andere Stärken im Chip verlangt als Half Life 2 (ich glaube so viel kann man schon spekulieren).

Dass aber Doom 3 und NV40 sich so schön vertragen ist halt doch anerkennenswert, ein Zeichen, dass NVIDIA auch auf die Entwickler hört (Entwickler waren ja von der NV40 mehr begeistert als von der R420, auch wenn die R420 schneller ist).

Ich behaupte jetzt nicht, dass ATI schlechten Devsupport hätte (obwohl IMO er schon nicht so gut ist wie der von NVIDIA, das ist aber rein aus meiner eigenen Erfahrung), aber wird HL2 jetzt schnell auf der R420, weil der R420 darauf angepasst wurde? Oder wird HL2 deswegen schnell, weil es auf R420 hin entwickelt wurde? Dass der Humus-Tweak jetzt ATI Karten beschleunigt... ja, vielleicht kann man das JC anlasten. Laut Demirugs Posting aber eher nicht, oder?

Man könnte auch genauso gut es ATI anlasten, diesen Tweak (also den Optimierungstipp) nicht in ihren Papers angegeben zu haben (NVIDIA hat viele solcher Tipps). Ob man jetzt JC fehlendes Wissen oder gar eine NV-Verschwörung anlastet, oder ob man ATI jetzt schlechten Devsupport und schlechte Dokumentation anlastet, scheint sehr vom eigenem "Bias"/Fanboytum abzuhängen. Ich will da jetzt nicht sagen, dass es eins von den beiden ist - das weiß keiner von uns.

Aber jemand suche mir doch auf www.ati.com/developer/ ein Paper, das mir zeigt, dass ich eben mit der Art wie im Humus-Tweak Performance gewinnen kann. Meine persönliche Meinung tendiert daher zu: JC hat es nicht wissen können. Ihm ist aber keine Schuld zuzuschreiben. Hört mit JC-Bashing auf! Dieser Tweak basiert eher auf Insider-Informationen, und ein Entwickler muß jetzt kein Experte für jede Hardware sein! Das wäre illusorisch. Solange er es so programmiert, wie es "allgemeinwissensmäßig" passt, ist es in Ordnung. Wenn Insider doch eine Möglichkeit finden, die Performance auf bestimmter Hardware zu verbessern - toll! Dann tut das. Aber JC zu beschuldigen dass er deswegen von NV bestochen wurde, ist doch etwas weit hergeholt.

Ach ja, und wer weiß ob der fragliche Shader überhaupt von JC selbst programmiert worden ist. Er wird ja nicht der einzige Programmierer sein, und gerade Shader lassen sich schön "outsourcen".

Was IMO Doom 3 ausmacht, ist eben die Symbiose: Software und Hardware-Entwickler haben gut zusammengearbeitet, und zwar ohne Cheating. Wie das bei HL2 aussieht, müssen Analysen zeigen, sobald HL2 rauskommt.

Demirug
2004-08-26, 07:24:40
Ok. Aber das müsste dann doch noch schneller sein als POW – warum blieb von den "+40%" so wenig übrig??

Wie Humus auf die 40% gekommen ist kann ich auch nicht sagen. Es könnte durchaus sein das bei den Radeons die Skalar Pipe sowieso nicht ausgelastet war und so macht es keinen Unterschied ob man nun dort 3 Takte für pow oder 2 für einen MUL+MAD braucht.

Demirug
2004-08-26, 07:26:55
@Demirug

I didn't read all posts,but can you tell me what is the difference between your and Humuse's tweak?

His last version need one Operation less than my. We use only different ways to calculate the same values.

tombman
2004-08-26, 08:06:35
His last version need one Operation less than my. We use only different ways to calculate the same values.

ist humus schon tot?- kleiner scherz ;)

richtig wäre eher: "his latEST version needS one operation less than mINE. we only<->use different ways to calculate the same values."

DrFreaK666
2004-08-26, 12:15:35
ist humus schon tot?- kleiner scherz ;)

richtig wäre eher: "his latEST version needS one operation less than mINE. we only<->use different ways to calculate the same values."

Also das war mal echt unnötig...

Gast
2004-08-27, 13:25:19
... Ob man jetzt JC fehlendes Wissen oder gar eine NV-Verschwörung anlastet, oder ob man ATI jetzt schlechten Devsupport und schlechte Dokumentation anlastet, scheint sehr vom eigenem "Bias"/Fanboytum abzuhängen. Ich will da jetzt nicht sagen, dass es eins von den beiden ist - das weiß keiner von uns. ...
... Meine persönliche Meinung tendiert daher zu: JC hat es nicht wissen können. Ihm ist aber keine Schuld zuzuschreiben. Hört mit JC-Bashing auf! Dieser Tweak basiert eher auf Insider-Informationen ...
Darf man Dich jetzt offiziell Fanboy nennen? ;)
Kann man sich noch an die ersten Benchmarks auf THG erinnern? Spätestens da mußte sowohl ATi, als auch Carmack klar gewesen sein, daß ATi-Karten ein Problem mit Doom 3 haben.
Du glaubst doch wohl selbst nicht, daß ATi id-Software vorsetzlich Informationen vorenthält, damit später Doom 3 auf nVidias Karten schneller ist? Eine bessere Werbung kann es für nVidia doch fast nicht geben.
Für mich sprechen eindeutig mehr Hinweise dafür, daß dieser Rückstand entweder beabsichtigt war, oder dankend in Kauf genommen wurde, ohne zu versuchen, ATi-Hardware einen netten Schub zu verpassen.
Einige sollten vielleicht mal aufwachen, dann würden sie merken, daß wir nicht mehr in den Neunzigern leben. Kann sich noch jemand daran erinnern, als id damals ihre erste Engine nicht mehr einfach so zur Verfügung stellte, sondern richtig Geld dafür haben wollte? War das nicht bei Quake 1? Inzwischen fähren die langhaarigen Hippies von damals Porsche und Ferrari - guten Morgen... id ist in der Marktwirtschaft angekommen! Glaubst Du ernsthaft, daß nVidia für ihre fürsorgliche Betreuung nicht auch etwas haben wollte? Indirekt hat Herr Carmack sogar Einfluß auf das Design des 6800 genommen, denn die Karte war ja angeblich auf Doom optimiert. Daß bei so viel Aufwand, später ein nettes Plus für nVidia-Karten rausspringt, kann doch wirklich keinen vernünftigen denkenden Menschen erstaunen. Wer das nicht zugibt, der will es einfach nicht sehen, aber dann brauchen wir an dieser Stelle auch nicht mehr diskutieren - das würde zu nichts führen.

LovesuckZ
2004-08-27, 14:08:48
Indirekt hat Herr Carmack sogar Einfluß auf das Design des 6800 genommen, denn die Karte war ja angeblich auf Doom optimiert.

Kam man nun id Bevorzugung vorwerfen, wenn Nvidia ihren Wuenschen nach kommt?
Wohl nicht.

Daß bei so viel Aufwand, später ein nettes Plus für nVidia-Karten rausspringt, kann doch wirklich keinen vernünftigen denkenden Menschen erstaunen. Wer das nicht zugibt, der will es einfach nicht sehen, aber dann brauchen wir an dieser Stelle auch nicht mehr diskutieren - das würde zu nichts führen.

Das "nette Plus" liegt darin begruendet, dass Nvidia ihre Hardware auf die Doom3 Engine entwickelt abgestimmt haben.
Id hat damit nicht im geringsten etwas zu tun, da die Entwicklung von Doom3 mindesten Jahr vor dem des NV30 bekommen hat.

Gast
2004-08-27, 15:07:00
Kam man nun id Bevorzugung vorwerfen, wenn Nvidia ihren Wuenschen nach kommt?
Wohl nicht.



Das "nette Plus" liegt darin begruendet, dass Nvidia ihre Hardware auf die Doom3 Engine entwickelt abgestimmt haben.
Id hat damit nicht im geringsten etwas zu tun, da die Entwicklung von Doom3 mindesten Jahr vor dem des NV30 bekommen hat.
Soll keine Anmache sein, aber auf Dich trifft eindeutig der letzte Satz zu, also erwarte bitte keine ernsthafte Antwort von mir. :)

LovesuckZ
2004-08-27, 15:27:41
Soll keine Anmache sein, aber auf Dich trifft eindeutig der letzte Satz zu, also erwarte bitte keine ernsthafte Antwort von mir. :)

Brauchst du auch nicht, da du sowieso keine hast ;)
Ist schon schlimm, wenn Luegen immer und immer wieder verbreitet werden. Will man die Wahrheit wissen, kommen solche Aussagen. :(

Demirug
2004-08-27, 15:47:17
Brauchst du auch nicht, da du sowieso keine hast ;)
Ist schon schlimm, wenn Luegen immer und immer wieder verbreitet werden. Will man die Wahrheit wissen, kommen solche Aussagen. :(

Lass gut sein. Was da alles im Hintergrund gelaufen ist werden wir (wie bei allen anderen Spielen auch) sowieso nie erfahren.

Das ich die "One Shader fits all" Strategie nicht unbedingt gut finden habe ich ja schon gesagt. Aber aus Arbeitserleichterungssicht ist sie verständlich. Das es aufgrund dieser Strategie bei einem vernüpftigen Entwickler zu einem eher nV freundlichen Shader kommen musste ist eigentlich auch logisch.

mrdigital
2004-08-27, 17:02:51
Brauchst du auch nicht, da du sowieso keine hast ;)
Ist schon schlimm, wenn Luegen immer und immer wieder verbreitet werden. Will man die Wahrheit wissen, kommen solche Aussagen. :(
Wo liegt da dein Problem? Ich finde es vollkommen ok, wenn nV und id kooperieren und sich gegenseitig die Bälle zuspielen. Das ist Marktwirtschaft und das ist die ganze Wahrheit dahinter, so einfach, schöne grüne Dollarscheine. Das ist doch per se nichts übles...

betasilie
2004-08-27, 17:11:21
Wo liegt da dein Problem? Ich finde es vollkommen ok, wenn nV und id kooperieren und sich gegenseitig die Bälle zuspielen. Das ist Marktwirtschaft und das ist die ganze Wahrheit dahinter, so einfach, schöne grüne Dollarscheine. Das ist doch per se nichts übles...
Full Ack. Das wird immer wieder passieren und ist auch gut so. Konkurrenz belebt halt das geschäfft und insbesondere die Entwicklung.

LS will doch schlicht immer, dass NV die besten und die fairsten sind. Ganz wie sich das für ihn gehört. :rolleyes:

betasilie
2004-08-27, 17:13:26
Das ich die "One Shader fits all" Strategie nicht unbedingt gut finden habe ich ja schon gesagt. Aber aus Arbeitserleichterungssicht ist sie verständlich.
Für diese lange Entwicklungszeitz finde ich das ehrlich gesagt etwas lächerlich.

Auch wenn das jetzt kein qualitativer Vergleich sein soll, aber wieviel Shader setzt Doom ein und wieviel FarCry? ;)

Das es aufgrund dieser Strategie bei einem vernüpftigen Entwickler zu einem eher nV freundlichen Shader kommen musste ist eigentlich auch logisch.
Wieso?

LovesuckZ
2004-08-27, 17:23:05
Wo liegt da dein Problem? Ich finde es vollkommen ok, wenn nV und id kooperieren und sich gegenseitig die Bälle zuspielen. Das ist Marktwirtschaft und das ist die ganze Wahrheit dahinter, so einfach, schöne grüne Dollarscheine. Das ist doch per se nichts übles...

Vielleicht solltes du den Kommentar des Gastes nochmal lesen, der darauf hinausgeht, dass "dieser Rückstand entweder beabsichtigt war, oder dankend in Kauf genommen wurde, ohne zu versuchen, ATi-Hardware einen netten Schub zu verpassen".
Er beschuldigt id ATi karten ausgebremst zu haben. Und das nicht mit dem Shader, der gerade mal 7% bringt, sondern mit 50% an Leistung.
Leider will er ja nicht darauf eingehen und seine "eindeutigen Hinweiße" praesentieren.
Ich meine, warum geben wir Carmack nicht gleich die Schuld dafuer, dass Nvidia seine Wuensche angenommen haben? Immerhin ist er schuld, dass er Vorstellung von seinen Entwicklungskarten hat.

Demirug
2004-08-27, 17:28:01
Für diese lange Entwicklungszeitz finde ich das ehrlich gesagt etwas lächerlich.

Auch wenn das jetzt kein qualitativer Vergleich sein soll, aber wieviel Shader setzt Doom ein und wieviel FarCry? ;)

Farcry mit oder ohne Patch 1.2. Da sind es nämlich einige mehr geworden. Aber wenn du eine Zahl willst > Faktor 10 sollte es schon sein.

Wieso?

Wenn eine Technik für alles passen muss richtet man sich nach dem schwächsten Glied. Das dürfte wohl für den ARB2 Pfad eine FX 5200 sein, oder?

mrdigital
2004-08-27, 17:34:30
Vielleicht solltes du den Kommentar des Gastes nochmal lesen, der darauf hinausgeht, dass "dieser Rückstand entweder beabsichtigt war, oder dankend in Kauf genommen wurde, ohne zu versuchen, ATi-Hardware einen netten Schub zu verpassen".
Er beschuldigt id ATi karten ausgebremst zu haben. Und das nicht mit dem Shader, der gerade mal 7% bringt, sondern mit 50% an Leistung.
Leider will er ja nicht darauf eingehen und seine "eindeutigen Hinweiße" praesentieren.
Ich meine, warum geben wir Carmack nicht gleich die Schuld dafuer, dass Nvidia seine Wuensche angenommen haben? Immerhin ist er schuld, dass er Vorstellung von seinen Entwicklungskarten hat.
Und ich gebe Gast explizit recht, aber ich sehe das nicht als verwerflich an. id hat nunmal ATI Karten nicht mit aller "Leidenschaft" bedacht, so what? ATI, nV, id, Valve, wer auch immer, alles keine Pfadfinder, sondern knallhartes Business in dem Marktführer schnell Pleite gehen oder geschlukt werden. Da muss sich jeder seine Position sichern und das geschieht nunmal am besten, in dem man Hard und Software miteinander verheiratet. Hör doch mal auf nV oder id als Caritas zu sehen und ATI und Valve als Inkarnation des Bösen (das war polemisch überspitzt, ich weiss!). Die kämpfen alle mit harten Bandagen.

LovesuckZ
2004-08-27, 17:40:41
id hat nunmal ATI Karten nicht mit aller "Leidenschaft" bedacht, so what?

Was haette er noch machen koennen?
Die Frage steht seit einiger Zeit im Raum, und wurde von den "Verschwoerern", zu welchen ich nicht gehoere, noch nicht beantwortet.

Hör doch mal auf nV oder id als Caritas zu sehen und ATI und Valve als Inkarnation des Bösen (das war polemisch überspitzt, ich weiss!). Die kämpfen alle mit harten Bandagen.

Da sprichst du, leider, den falschen an. Bis jetzt habe ich mich nur bezueglich negativ gegen Valve geaeußert, dass sie den FX Karten nicht den DX9 Pfad zur Verfuegung stellen.

mrdigital
2004-08-27, 17:58:30
Was haette er noch machen koennen?
Die Frage steht seit einiger Zeit im Raum, und wurde von den "Verschwoerern", zu welchen ich nicht gehoere, noch nicht beantwortet.

Wieso nimmst du Carmack da in Schutz, bzw machst ihn zu einer Art "Halbheiligen"? Er ist ein Top Programmierer, ich freue mich über die Spiele die er macht, aber er ist auch ein Top Geschäftsmann, der weiß, wie man Geld in diesem Business verdienen kann.

Da sprichst du, leider, den falschen an. Bis jetzt habe ich mich nur bezueglich negativ gegen Valve geaeußert, dass sie den FX Karten nicht den DX9 Pfad zur Verfuegung stellen.
wieso bleibst nun an Valve hängen, das war nur ein Namensbeispiel.

LovesuckZ
2004-08-27, 18:01:26
Wieso nimmst du Carmack da in Schutz, bzw machst ihn zu einer Art "Halbheiligen"? Er ist ein Top Programmierer, ich freue mich über die Spiele die er macht, aber er ist auch ein Top Geschäftsmann, der weiß, wie man Geld in diesem Business verdienen kann.

Bitte beantworte doch einfach meine Frage.
Hier wird id doch Bevorzugung im großen "Maße" vorgeworfen.
Daher die Frage:
Was haette er machen koennen, um ATi Karten besser ausnutzen zu koennen?

wieso bleibst nun an Valve hängen, das war nur ein Namensbeispiel.

Weil mir Nvidia, solange wie ich keine Aktien habe, egal ist?

mrdigital
2004-08-27, 18:14:42
Bitte beantworte doch einfach meine Frage.
Hier wird id doch Bevorzugung im großen "Maße" vorgeworfen.
Daher die Frage:
Was haette er machen koennen, um ATi Karten besser ausnutzen zu koennen?

Ich werfe denen doch gar nichts vor, ich sehe nur deren Verhalten, wie ich schon sagte, was ist daran nun besonders schlimm? ATI Leutles können das Spiel ja wunderbar spielen, nV Leute können es halt einen Tick besser und das weiden die marketingtechnisch aus, damit es beiden schöne grüne Scheine bringt.

Das ATI Karten besser laufen könnten sieht man doch daran, dass es mit dem Humus-Patch flotter wird und ich denke, das id das auch wusste, dass man ATI ein wenig schneller hätte machen können, als man es getan hat, aber wieder, so what? Das ist nunmal das Geschäft.

Weil mir Nvidia, solange wie ich keine Aktien habe, egal ist?

Verzeihung aber dein Ruf als "nV-Fanboy" lässt mich diesen Satz nur schwer glauben.

LovesuckZ
2004-08-27, 18:25:40
Ich werfe denen doch gar nichts vor, ich sehe nur deren Verhalten, [...]

Behauptung:
id hat nunmal ATI Karten nicht mit aller "Leidenschaft" bedacht

Argument:
?

Oder hat id "nunmal [Nvidia] Karten nicht mit aller 'Leidenschaft' bedacht", weil USII nicht aktiviert war?

Das ATI Karten besser laufen könnten sieht man doch daran, dass es mit dem Humus-Patch flotter wird und ich denke, das id das auch wusste, dass man ATI ein wenig schneller hätte machen können,[...]


Auch den Nvidiakarten haette man noch "ein wenig schneller
machen können", haben sie aber nicht.
Wir reden hier von maximal 7% (siehe Elitebastard.com). Ansonsten liegt doch das Problem an der Einheitlichkeit, wie es Demirug schon erklaerte.

mrdigital
2004-08-27, 18:41:08
Behauptung:
id hat nunmal ATI Karten nicht mit aller "Leidenschaft" bedacht

Argument:
?

Liest du nicht meine Antowrten durch? Es gibt den Humus Patch der ja etwas bewirkt. Humus ist sicherlich schlau, aber ist er sooooo schlau, das id das nicht auch schon gewusst hätte? Daher sage ich, dass id ATI Karten nicht mit aller Leidernschaft unterstützt. Aber wie eine tibetanische Gebetsmühle, ich sehe darin kein Problem, das ist nunmal das Business

Oder hat id "nunmal [Nvidia] Karten nicht mit aller 'Leidenschaft' bedacht", weil USII nicht aktiviert war?

Auch den Nvidiakarten haette man noch "ein wenig schneller
machen können", haben sie aber nicht.
Wir reden hier von maximal 7% (siehe Elitebastard.com). Ansonsten liegt doch das Problem an der Einheitlichkeit, wie es Demirug schon erklaerte.
Das US2 Ding war hier nun nicht unser Thema, aber auch hier das sie das Feature nicht verwenden kann einen Haufen Gründe haben, vielleicht funktioniert das (noch) nicht einwandfrei (oder zumindest hat es zum Entwicklungszeitpunkt noch nicht einwandfrei funktioniert). Vielleicht ist es aber auch aus strategischen Gründen nicht aktiv, vielleicht will nV die Möglichkeit haben auf mögliche Verbesserungen von ATI zu kontern oder was auch immer, aber wieder ich sehe hier keine bösartige Verschwörung, ich sehe hier clevere Geschäftsleute, die sich ihre Möglichkeiten in der PR Schlacht offen halten.
Du siehst das ganze zu sehr in "Gut und Böse" und läßt dabei nicht zu, dass nV und id einfach gutes Business machen, nein sie müssen auch die "moralisch besseren Menschen" sein und das halte ich für quark.

zeckensack
2004-08-27, 18:45:16
Behauptung:
Auch den Nvidiakarten haette man noch "ein wenig schneller
machen können", haben sie aber nicht.
Wir reden hier von maximal 7% (siehe Elitebastard.com). Ansonsten liegt doch das Problem an der Einheitlichkeit, wie es Demirug schon erklaerte.Zustimmung. Mehr Arithmetik, oder mehr Texturlast, beides hätte eine der beiden Parteien begünstigt, und die andere benachteiligt.

Der aktuelle Code ist nunmal ein Kompromiss, aber er balanciert es IMO sehr gut aus. Problematisch seitens NVIDIA ist hier btw weniger die Geforce 6-Serie, sondern die Geforce FX.

Die Sache mit dem Texturlookup für die "specular highlights" wurde auch schon erklärt. Das ist es was die NV20/R200-Klasse machen muss. Das ganze jetzt auch für den ARB2-Pfad einzusetzen, führt einfach dazu, dass die Dinger garantiert überall gleich sind.

Nein, die arithmetische Ersetzung ist für mich nicht erkennbar anders. Man könnte sogar der Meinung sein, dass die Qualität dadurch, wenn sich überhaupt etwas ändert, erhöht wird (die Textur hat nur eine begrenzte Auflösung, und POW ist eben von der Theorie her um eine Größenordnung genauer). Trotzdem bilde ich mir ein, den Design-Standpunkt "überall möglichst genau das gleiche" zumindest im Ansatz verstehen zu können.

Demirug
2004-08-27, 18:53:26
Die Sache mit dem Texturlookup für die "specular highlights" wurde auch schon erklärt. Das ist es was die NV20/R200-Klasse machen muss. Das ganze jetzt auch für den ARB2-Pfad einzusetzen, führt einfach dazu, dass die Dinger garantiert überall gleich sind.


Wenn ich JC richtig verstanden habe dann wird der Specular Falloff bei den nicht ARB2 Karten berechnet.

Nein, die arithmetische Ersetzung ist für mich nicht erkennbar anders. Man könnte sogar der Meinung sein, dass die Qualität dadurch, wenn sich überhaupt etwas ändert, erhöht wird (die Textur hat nur eine begrenzte Auflösung, und POW ist eben von der Theorie her um eine Größenordnung genauer). Trotzdem bilde ich mir ein, den Design-Standpunkt "überall möglichst genau das gleiche" zumindest im Ansatz verstehen zu können.

Es ist doch gar kein POW sondern ein MAD+MUL. Aber genauer ist es natürlich schon wenn man rechnet.

LovesuckZ
2004-08-27, 18:58:30
Liest du nicht meine Antworten durch? Es gibt den Humus Patch der ja etwas bewirkt. Humus ist sicherlich schlau, aber ist er sooooo schlau, das id das nicht auch schon gewusst hätte?

Hast du dir auch die Kommentare von ebenfalls klugen Leuten durchgelesen?
Zum Beispiel Demirug:
Das ich die "One Shader fits all" Strategie nicht unbedingt gut finden habe ich ja schon gesagt. Aber aus Arbeitserleichterungssicht ist sie verständlich. Das es aufgrund dieser Strategie bei einem vernüpftigen Entwickler zu einem eher nV freundlichen Shader kommen musste ist eigentlich auch logisch.

Das ganze sei die Folge aus der Einheitlichkeit und Arbeitserleichterung seitens id, so verstehe ich es.
Vielleicht sah id auch die 7% in keinster Relation zum Aufwand und zur Auswirkung? Wer weiß das.
Aber daraus wird id ein Strick gemacht, der unverstaendlich ist.

Du siehst das ganze zu sehr in "Gut und Böse" und läßt dabei nicht zu, dass nV und id einfach gutes Business machen, nein sie müssen auch die "moralisch besseren Menschen" sein und das halte ich für quark.

Sry, aber hier gehts du zu weit.
Das, dass ganze Business sei, bestreite ich nicht.
Was ich aber sehe, ist dieses aufdringliche id- und Nvidiabashing. Und wenn man fragt, wie jemand auf diese Idee komme, werde man als Fanboy bezeichnet...
Warum bashen besitzer einer ATi karte (vornehmlich des R420) nicht gegen diese Firma? Immerhin muss man fuer perfekte Leistung einen Betatreiber verwenden und Shader veraendern. Kein gutes Bild fuer den Kundenservice und den Devsupport.

LovesuckZ
2004-08-27, 18:59:50
Es ist doch gar kein POW sondern ein MAD+MUL.

Ist es nicht moeglich, die Shader so zu veraendern, dass es auf den NV40 Karten zu keinen Leistungseinbruch kommt?

Demirug
2004-08-27, 19:14:20
Ist es nicht moeglich, die Shader so zu veraendern, dass es auf den NV40 Karten zu keinen Leistungseinbruch kommt?

Bisher hat noch niemand eine möglichkeit gefunden. Könnte aber daran liegen das der Shadercompiler im Treiber in Richtung der Standardshader von D3 optimiert ist.

tombman
2004-08-27, 19:14:47
Vielleicht sah id auch die 7% in keinster Relation zum Aufwand und zur Auswirkung? Wer weiß das.
Aber daraus wird id ein Strick gemacht, der unverstaendlich ist.





ja klar, daß verändern einer minidatei, wofür humus wahrscheinlich nur ein paar stunden gebraucht hat, war carmack zu aufwendig... :balla:

Gast
2004-08-27, 19:30:08
Woher willst du wissen das Humus dafür nur "ein paar Stunden" gebraucht hat, du kannst nicht -egal wie klein die änderung ausssehen mag- darauf Rückschlüsse ziehen wie lang er dafür gebraucht hat.
Ich denk eher, dass es etwas länger gedauert hat, weil es ja verschiedene Versionen des patches gab (gibt). Vielleicht ist der Performance Gewinn rein zufällig ohne konzept entstanden.

mrdigital
2004-08-27, 19:33:54
Hast du dir auch die Kommentare von ebenfalls klugen Leuten durchgelesen?
Zum Beispiel Demirug:
Das ich die "One Shader fits all" Strategie nicht unbedingt gut finden habe ich ja schon gesagt. Aber aus Arbeitserleichterungssicht ist sie verständlich. Das es aufgrund dieser Strategie bei einem vernüpftigen Entwickler zu einem eher nV freundlichen Shader kommen musste ist eigentlich auch logisch.

Das ganze sei die Folge aus der Einheitlichkeit und Arbeitserleichterung seitens id, so verstehe ich es.
Vielleicht sah id auch die 7% in keinster Relation zum Aufwand und zur Auswirkung? Wer weiß das.
Aber daraus wird id ein Strick gemacht, der unverstaendlich ist.

Ich drehe nV keinen Strick draus, ich grautlier ihnen dazu, dass sie ein gutes Markting betreiben und schlaue strategische Allianzen eingegangen sind!
Was nun wirklichder wahre Grund für nV freundliche Shader ist, werden wir nicht erfahren, aber Entscheidungen für bestimme technische Realisierungen lassen sich auch durch Geldvorteile erleichtern. Das ist kein Strick und kein Vorwurf, das ist vollkommen legitim von id. Wenn ich vor der Frage stehe, mir den doppelten Aufwand für X € zu machen oder für die selben X € nur den einfachen, na welche Wahl werde ich wohl treffen? Das diese Wahl dann auch ein wenig besser auf der Hardware eines befreundeten Unternehmens funktioniert, nennt man dann Win-Win Situation.

Sry, aber hier gehts du zu weit.
Das, dass ganze Business sei, bestreite ich nicht.
Was ich aber sehe, ist dieses aufdringliche id- und Nvidiabashing. Und wenn man fragt, wie jemand auf diese Idee komme, werde man als Fanboy bezeichnet...
Warum bashen besitzer einer ATi karte (vornehmlich des R420) nicht gegen diese Firma? Immerhin muss man fuer perfekte Leistung einen Betatreiber verwenden und Shader veraendern. Kein gutes Bild fuer den Kundenservice und den Devsupport.
Ich betreibe hier kein Bashing, wieso thematisiert du es dann? Den ATI Devsupport kann ich beim besten Willen nicht bewerten, aber das kannst du auch nicht. Wo ist der Kundenservice schlecht? Das Spiel funktioniert doch wunderbar mit den offiziellen Treiben. Das es da einen Beta Treiber gibt, der ein Tick schneller ist, macht doch den Support nicht schlechter, ich versteh deinen Punkt nicht. Das mit dem veränderten Shader ist doch ne private Initative von einem interessierten User und hat nichts mit ATI zu tun (oder empfielt ATI den Einsatz des HUMUS Patches?).
Aber wir drehen und hier im Kreis, so lange du so tust, als ob nV eine "reine Jungfrau" und alle anderen Teil des "evil Empires" wären (auch hier polemisch überspitzt, ich weiss!).

Gast
2004-08-27, 19:41:43
...

Warum bashen besitzer einer ATi karte (vornehmlich des R420) nicht gegen diese Firma? Immerhin muss man fuer perfekte Leistung einen Betatreiber verwenden und Shader veraendern. Kein gutes Bild fuer den Kundenservice und den Devsupport.

bin zwar ein nub ohne plan - aber so sehe ich das auch, weil ich ein besitzer
einer x800 bin um mich schon mal gerärgert habe über so einen dummen umstand :grrr:
um es mal vorsichtig auszudrücken, naja wär hl2 vorher rausgekommen wärs wohl umgekehrt ;)

zeckensack
2004-08-27, 19:53:34
Bisher hat noch niemand eine möglichkeit gefunden. Könnte aber daran liegen das der Shadercompiler im Treiber in Richtung der Standardshader von D3 optimiert ist.Genau. Theoretisch kann man da einiges machen, aber kleine Modifikationen am fragment-Teil der interaction.vfp, selbst wenn sie im Grunde der Architektur zuarbeiten, führen zu unerklärlichen*, enormen Leistungsverlusten ... allerdings fehlt mir die NV40-Karte. Von daher nur getestet auf 'ner FX5700 (FW 61.77).

*"unerklärlich" ist relativ, jeder möge sich bitte selbst überlegen, woran das wohl liegen mag

LovesuckZ
2004-08-27, 19:55:16
Ich drehe nV keinen Strick draus, [...]

Ja, weil ich id meine ;)

Was nun wirklichder wahre Grund für nV freundliche Shader ist, werden wir nicht erfahren, aber Entscheidungen für bestimme technische Realisierungen lassen sich auch durch Geldvorteile erleichtern.

Hm, wenn ich das zusammenfassen darf:
id verwendet also einen Shader, der einheitlich sei und die Arbeit erleichtere. Er laeufe auf der Nvidiahardware besser.
Was waere, wenn der Grund in der ueberlegenden Architektur laege, welche neben anderen Standards auch auf Doom hin optimiert geworden sei?
Hypothese:
id/Carmack bezahlte Nvidia, dass sie ihre Hardware an die Beduerfnisse von Carmack anpassen.

Ich betreibe hier kein Bashing, wieso thematisiert du es dann?

Soll ich darauf antworten wie du?
Da du eine Verschwoerung hinter der id/Nvidia Koorperation sehest, "aber Entscheidungen für bestimme technische Realisierungen lassen sich auch durch Geldvorteile erleichtern", bashest du unbegruendet mit nicht haltbaren Argumenten.
Denn das staendige Unterstellen zeigt, dass du auch meinst, dass die ATi Hardware absichtlich ausgebremst wuerde.

Den ATI Devsupport kann ich beim besten Willen nicht bewerten, aber das kannst du auch nicht.

Du kannst hinter den kulissen der id/Nvidia Koorperation blicken, warum auch nicht hier?
Vielleicht wusste id nicht, dass der rechnersiche Weg fuer ATi karten besser sei?
Vielleicht sandte er seine Shader an den Devsupport von ATi und sie gaben gruenes Licht?
Aber, nein, es ist doch eher die Schuld von id, weil diese sich Bestechen ließen.

Wo ist der Kundenservice schlecht? Das Spiel funktioniert doch wunderbar mit den offiziellen Treiben.

Doom3 erschien vor dem CAT4.8. Dieser enthielt nicht den Doom3 Hotfix im Betatreiber 4.9, der ebenfalls vorher erschien. Guter Kundenservice? Oder doch Absicht von Nvidia und id?

Das mit dem veränderten Shader ist doch ne private Initative von einem interessierten User und hat nichts mit ATI zu tun (oder empfielt ATI den Einsatz des HUMUS Patches?).

Empfehlen? Nicht wirklich... (http://www.nvnews.net/vbulletin/showpost.php?p=403767&postcount=1)
Dieser "private user" arbeitet rein zufaellig seit kurzem bei ATi und hat rein zufaellig an Demos gearbeitet, die alle Vorteile von Nvidia in der Luft verpuffern ließen.
Aber alles nur reinzufaellig :ugly:

Aber wir drehen und hier im Kreis, so lange du so tust, als ob nV eine "reine Jungfrau" und alle anderen Teil des "evil Empires" wären (auch hier polemisch überspitzt, ich weiss!).

Wenn ich das so sehen wuerde, warum sollte ich dann nicht Valve und ATi in einen anderen Thread bashen?
Ist es nicht verwunderlich, dass nicht ich mit dem Thema anfange? Ist es nicht erstaunlich, dass Aussagen von ATi Usern kommen (Doom3 haette so programmiert werden koennen, dass es keinen Leistungsunterscied zwischen dem NV40 und 420 gaebe), die nie belegt werden?
Und ist es nicht deiner These entwuerdigen zu behaupten, dass du mit der selben Einstellung an die Sache rangehst, die du mir vorwerfst?
Du sehest hinter Doom3 eine Verschwoerung, ich sehe, dass die Transistorsparlaune von ATi sich hier ins negative Bild wendet.

Fruli-Tier
2004-08-27, 20:02:45
bin zwar ein nub ohne plan - aber so sehe ich das auch, weil ich ein besitzer
einer x800 bin um mich schon mal gerärgert habe über so einen dummen umstand :grrr:
um es mal vorsichtig auszudrücken, naja wär hl2 vorher rausgekommen wärs wohl umgekehrt ;)

Du tust fast so, als wäre Doom 3 òhne Humus und Beta Cat. unspielbar :|
Ich würde eher sagen: Freue dich über diesen Umstand, freue dich, dass es den Humus Patch gibt, freue dich, dass ATi einen Beta Treiber rausgelassen hat, der Doom 3 beschleunigt, anstatt ihn bis zum Final verborgen zu halten?

@ Lovesuckz
Was glaubst du, was viele nVidia User hier machen. Die meisten spielen auch mit Beta Treibern, die die ein oder andere Verbesserung in diesem oder jenem Game/Benchmark bringen. Ich rechne sowas doch eher als Positiv an, wenn ein Beta Treiber veröffentlicht wird, um die Lücken bis zur Finalen Version zu überbrückenm die vielleicht - wegen geplanter grösserer Änderungen - länger braucht.
Was ist daran falsch?
Wieso ist sowas ein schlechter Support?

Was HL 2 angeht, gibt es bestimmt das gleiche Spiel und ganz sicher auch eine einfache Antwort, die auf den technischen Spezifikationen der Hardware beruht, oder der Entwickler die verwendetet Art und Weise (welche das auch immer sein wird) als besser nutzbar angesehen hat.

LovesuckZ
2004-08-27, 20:08:05
@ Lovesuckz
Ich rechne sowas doch eher als Positiv an, wenn ein Beta Treiber veröffentlicht wird, um die Lücken bis zur Finalen Version zu überbrückenm die vielleicht - wegen geplanter grösserer Änderungen - länger braucht.

Leider ist dies bei ATi nicht ganz der Fall.
Darum geht es aber nicht. Ich wollte nur aufzeigen, dass das schlechte Abschneiden von ATi bzw. den r420 Karten unter Doom3 nicht nur an id/Nvidia laege.
Statt von einer Verschwoerung zu sprechen koennte man behaupten, dass ATi einfach zu lange schlief.

Fruli-Tier
2004-08-27, 20:09:38
Wenn ich das so sehen wuerde, warum sollte ich dann nicht Valve und ATi in einen anderen Thread bashen?
Ist es nicht verwunderlich, dass nicht ich mit dem Thema anfange? Ist es nicht erstaunlich, dass Aussagen von ATi Usern kommen (Doom3 haette so programmiert werden koennen, dass es keinen Leistungsunterscied zwischen dem NV40 und 420 gaebe), die nie belegt werden?
Und ist es nicht deiner These entwuerdigen zu behaupten, dass du mit der selben Einstellung an die Sache rangehst, die du mir vorwerfst?
Du sehest hinter Doom3 eine Verschwoerung, ich sehe, dass die Transistorsparlaune von ATi sich hier ins negative Bild wendet.

Angefangen hat Tombman, in seinem ersten Posting (Threadersteller :D) und anderen Threads, soweit ich den Anfang hier noch im Kopp hab.

Tombman sieht dahinter eine Verschwörung, Mr.digital sieht dahinter Business.
Manch anderer sieht dahinter die bessere nV Architektur für dieses Spiel (Pixel verwerfen usw.), den besseren OpenGL Treiber.

Soweit meine Erkenntnis bis jetzt.

Fruli-Tier
2004-08-27, 20:11:37
Leider ist dies bei ATi nicht ganz der Fall.
Darum geht es aber nicht. Ich wollte nur aufzeigen, dass das schlechte Abschneiden von ATi bzw. den r420 Karten unter Doom3 nicht nur an id/Nvidia laege.
Statt von einer Verschwoerung zu sprechen koennte man behaupten, dass ATi einfach zu lange schlief.

Is schon klar, aber wieso sprichst du dann den Support als Negativ an, wenn Beschleunigende Beta Treiber released werden?

LovesuckZ
2004-08-27, 20:14:56
Is schon klar, aber wieso sprichst du dann den Support als Negativ an, wenn Beschleunigende Beta Treiber released werden?

Weil der Hotfix mindesten schon zum CAT4.7 fertig haette sein muessen,
es aber nichtmal in den am 16.08 veroeffentlichten offiziellen treiber schaffte, der 12 Tage nach dem Betatreiber erschien.

Jesus
2004-08-27, 20:16:22
Genau. Theoretisch kann man da einiges machen, aber kleine Modifikationen am fragment-Teil der interaction.vfp, selbst wenn sie im Grunde der Architektur zuarbeiten, führen zu unerklärlichen*, enormen Leistungsverlusten ... allerdings fehlt mir die NV40-Karte. Von daher nur getestet auf 'ner FX5700 (FW 61.77).

*"unerklärlich" ist relativ, jeder möge sich bitte selbst überlegen, woran das wohl liegen mag

vielleicht daran (http://www.beyond3d.com/forum/viewtopic.php?t=15443&postdays=0&postorder=asc&start=0) ?

bitte flamet´ mich jetzt nicht wieder zu tode (LS :biggrin: ) , aber testen könnte das doch mal jemand ...

Fruli-Tier
2004-08-27, 20:17:22
Weil der Hotfix mindesten schon zum CAT4.7 fertig haette sein muessen,
es aber nichtmal in den am 16.08 veroeffentlichten offiziellen treiber schaffte, der 12 Tage nach dem Betatreiber erschien.

Wieso müssen? Steht das irgendwo? Wusste man das zu der Zeit schon, dass Doom 3 einen Fix benötigt? Wenn ja, dann ist das ein schwacher Support.
ATi Treiber sind mir relativ egal, deswegen diese Unkenntnis =)

LovesuckZ
2004-08-27, 20:19:44
Wieso müssen? Steht das irgendwo? Wusste man das zu der Zeit schon, dass Doom 3 einen Fix benötigt? Wenn ja, dann ist das ein schwacher Support.


ATi kam mit den Betatreiber zum Hardocp.com (irgendwann Ende Juli) Test.
Und dann bedenke man, dass dieser Treiber erst zwei Monate veroeffentlich werden sollte.

mrdigital
2004-08-27, 20:19:46
Verschwörungen, dunkle Gassen, Regen prasselt auf einen Mann mit Schlapphut, die Kamera rückt näher und wir erkennen sein Gesicht - es ist wah nein das kann nicht sein - es ist JOHN CARMACK und was macht er da er nimmt ein Geldumschlag an,der ihm von einem Mann aus einer dunklen Limousine gereicht wird. Die Limo fährt durch den Regen davon, man sieht kurz das Nummernschild - nV is 2 FAST 4 U - der Mann steht alleine auf der Stasse und sieht der davonfahrenden Limo hinterher. Man hört ihn laut auflachen, es klingt schon fast dämonisch wie er lacht - HAHAHA ATI WILL NEVER BE WINNING A BENCHMARK IN MY GAME WAHAHAHAHAH.
Das ist eine Verschwörung. Ich sehe nirgends eine Verschwörung. nV hat ein schönes Stück Technik gebaut und Carmack mag Technik. Da haben sich einfach die richtigen gefunden und das ist doch gut wie oft soll ich das denn noch sagen? Dabei hat er das Ding so geschrieben, dass das neue schöne Stück Technik gut in Szene gesetzt wird und das im Moment nicht ganz so sexy aussehene ATI Teil halt "nur" gut funktioniert. Das hat nicht mit "Bestechung" zu tun. Thats it, keine Verschwörung, keine konspirativen Treffen, keine Männer mit Schlapphut und Trenchcoat.

LovesuckZ
2004-08-27, 20:23:08
Du errinnerst mich irgendwie an Thowe, wenn ihm die richtigen Argumente ausgehen.
Scheint wohl sone Art "Moderationvirus" zu sein... :|

Fruli-Tier
2004-08-27, 20:27:31
ATi kam mit den Betatreiber zum Hardocp.com (irgendwann Ende Juli) Test.
Und dann bedenke man, dass dieser Treiber erst zwei Monate veroeffentlich werden sollte.

Ahsou, alles Klar =)

@mrdigital
Nice Story :biggrin: Und dem Ende kann ich irgendwie nur zustimmen :cool:
Ich seh es nicht anders

mrdigital
2004-08-27, 20:35:04
Du errinnerst mich irgendwie an Thowe, wenn ihm die richtigen Argumente ausgehen.
Scheint wohl sone Art "Moderationvirus" zu sein... :|
Verzeih mal, aber wem gehen hier die Argumente aus? Les dir doch noch mal durch was ich gesagt habe? Ich habe weder die technisch tolle nV Karte runtergemacht, ich habe keine Verschwörung gesehen, ich habe nicht Pfui id geschrien und auch nicht ATI RUL0RT euch alle weg. Das dürften doch alles auch deine Positionen sein, oder habe ich dich da falsch verstanden?
Warum nun DOOM3 auf der nV40 schön läuft, das ist die Kombination aus guter Technik mit einer für diese Technik gut geeigneten Hardware. Das man das ganze aber auch hätte ein wenig anders machen können und das man dabei auf die selben Ergebnisse hätte kommen können, sieht man daran, dass es eben möglich ist mittels eines Patches und eines Betatreibers. So und nun wird die Frage aufgeworfen, wieso diese Erkentniss nicht von Anfang an von id in DOOM3 integriert wurde. Und da sage ich, zum wiederholten male, Carmack mag nunmal nV und er verwendet vielleicht ein bisschen mehr Aufwand darauf, seine Ideen auf dieser Hardware umzusetzten als auf der Hardware von ATI. Dass sich das auch noch marketingtechnisch von nV oder id ausnutzen lässt ist ein angenehmer Nebeneffekt. Das macht aus Carmack keinen schlechteren Programmierer, das macht aus id und nV auch keine Verschwörungsclique, das beweist nur, dass id nicht nur Top Spiele produzieren kann sondern auch sehr geschäftstüchtig ist.

zeckensack
2004-08-27, 20:35:45
Wieso müssen? Steht das irgendwo? Wusste man das zu der Zeit schon, dass Doom 3 einen Fix benötigt? Wenn ja, dann ist das ein schwacher Support.Die ATI-Treiber benötigen keinen "Doom 3-Fix" oä. Das Spiel läuft mindestens seit dem Catalyst 4.7 ordentlich (mit älteren Treibern hab ich's schlicht nicht ausprobiert), dh fehlerfrei und stabil.

Einige Leute träumen einfach nur von höherer Performance, das ist alles. Die einschlägigen Benchmarks werden dir verraten warum. Doom 3 läuft auf ATI-Hardware keineswegs inakzeptabel langsam. Es ist einfach nur so, dass es auf der Geforce 6-Serie schneller läuft.

Der "AF-Bug", der dazu führt dass viele Leute AF im Control Panel erzwingen müssen, was wiederum den Performance-Vorteil des "Humus-Tweaks" dramatisch erhöht, betrifft btw alle OpenGL-Applikationen (http://www.zeckensack.de/glide/readme.htm#news). Ich fänd's gut, wenn das endlich mal behoben wird, aber "Doom 3-Fix" würde ich das nicht nennen :)

Gast
2004-08-27, 20:40:40
Bitte werd nicht persönlich...

Gast
2004-08-27, 20:46:11
Bitte werd nicht persönlich...
WTF??????????????????????????????????????????

LovesuckZ drängt hier allen sein psychomacke in die Fresse und man darf das nichtmal kritisieren?

mrdigital
2004-08-27, 20:51:13
WTF??????????????????????????????????????????

LovesuckZ drängt hier allen sein psychomacke in die Fresse und man darf das nichtmal kritisieren?
Kritik ist gut, solange sie brauchbar ist. Wird Kritik auf ein persönlich beleidigendes Niveau gezogen, ist es keine Kritk mehr man kann es dann Flaming nennen und das ist keine brauchbare Kritik.

Fruli-Tier
2004-08-27, 20:58:19
Die ATI-Treiber benötigen keinen "Doom 3-Fix" oä. Das Spiel läuft mindestens seit dem Catalyst 4.7 ordentlich (mit älteren Treibern hab ich's schlicht nicht ausprobiert), dh fehlerfrei und stabil.

Einige Leute träumen einfach nur von höherer Performance, das ist alles. Die einschlägigen Benchmarks werden dir verraten warum. Doom 3 läuft auf ATI-Hardware keineswegs inakzeptabel langsam. Es ist einfach nur so, dass es auf der Geforce 6-Serie schneller läuft.

Der "AF-Bug", der dazu führt dass viele Leute AF im Control Panel erzwingen müssen, was wiederum den Performance-Vorteil des "Humus-Tweaks" dramatisch erhöht, betrifft btw alle OpenGL-Applikationen (http://www.zeckensack.de/glide/readme.htm#news). Ich fänd's gut, wenn das endlich mal behoben wird, aber "Doom 3-Fix" würde ich das nicht nennen :)

Das seh ich genauso! Das Spiel läuft auf jeder der neuen Karten! Das mit dem Fix blabla war eher als Kurzform gedacht und auf Lovesuckz Anprangerung des ATi Supports bezogen.
Ich hätte ja auch irgendwas von OpenGL Treiberverbesserungen/~optimierungen des Beta Catalyst, die Doom 3 beschleunigen sollen, schreiben können ;-P

Ich sehe das ganze wie mrdigital. Einfache Fakten, über die sich das ganze Diskutieren hier einfach nicht lohnt, scheinbar...

LovesuckZ
2004-08-27, 21:00:57
ich habe keine Verschwörung gesehen, [...]


Was nun wirklichder wahre Grund für nV freundliche Shader ist, werden wir nicht erfahren, aber Entscheidungen für bestimme technische Realisierungen lassen sich auch durch Geldvorteile erleichtern..

Das diese Wahl dann auch ein wenig besser auf der Hardware eines befreundeten Unternehmens funktioniert, nennt man dann Win-Win Situation.


Zwei Behauptungen, die nur durch die vorhandene Koorperation siehst. Aber beweisen? Nein, das kannst du nicht. Also schnuerst du eine Verschoerung, um den Vorteil der Nvidiahardware zu erklaeren.
Man kann Nvidia's Vorteil technisch erklaeren. Aber anscheinend muessen es immer Verschowerungen sein, ist wohl einfacher zu verstehen.

[quote]So und nun wird die Frage aufgeworfen, wieso diese Erkentniss nicht von Anfang an von id in DOOM3 integriert wurde. Und da sage ich, zum wiederholten male, Carmack mag nunmal nV und er verwendet vielleicht ein bisschen mehr Aufwand darauf, seine Ideen auf dieser Hardware umzusetzten als auf der Hardware von ATI.

Und du weißt, dass ATi nicht wusste, wie die endgueltigen Shader aussehen?
Du weißt, dass ATi nicht ihr okay gegeben haben?
Hier siehst du nur, dass Nvidia und id zusammenarbeiten, aber nicht, dass ATi auch ein Entwicklungshelfer war. Vielleicht liegt der Fehler in der Software (schlechter Compiler zum Beispiel).
Du behauptest, id haette nicht das Potential von den ATi Karten ausgenutzt, aber beweisen kannst du es nur mit Vermutungen und einen Shaderreplacement.
Aber lassen wir das, wir kommen mit unseren eingefestigen Meinungen nicht weiter.

betasilie
2004-08-27, 21:21:28
Farcry mit oder ohne Patch 1.2. Da sind es nämlich einige mehr geworden. Aber wenn du eine Zahl willst > Faktor 10 sollte es schon sein.

Ich hätte noch etwas mehr geschätzt, aber ist trotzdem viel.

Wenn eine Technik für alles passen muss richtet man sich nach dem schwächsten Glied. Das dürfte wohl für den ARB2 Pfad eine FX 5200 sein, oder?
Stimmt. ´War auch keine Fangfrage. ;)

Demirug
2004-08-27, 21:30:55
Ich hätte noch etwas mehr geschätzt, aber ist trotzdem viel.

Das Problem ist das Farcry mit dem neuen Patch nur noch die Shader anlegt die dann auch benutzt werden. Wenn man also nicht an allen Stellen in allen Leveln war ist es schwer zu sagen wie viele es wirklich sind. Theoretisch ssind im 1.2 Patch ein paar tausend enthalten.

betasilie
2004-08-27, 21:39:44
Das Problem ist das Farcry mit dem neuen Patch nur noch die Shader anlegt die dann auch benutzt werden. Wenn man also nicht an allen Stellen in allen Leveln war ist es schwer zu sagen wie viele es wirklich sind. Theoretisch ssind im 1.2 Patch ein paar tausend enthalten.
Wahnsinn. Wieso so viele? Ist das wirklich notwendig oder wie kommt es zu der großen Anzahl Shader?

mrdigital
2004-08-27, 22:15:02
LS du hast vollkommen Recht, nV triumfiert in DOOM3 durch seine unglaublich überlegene Hardware, ATI ist am Boden zerstört mit ihrer unverschämten Kundenverarschhardware und kann sich nur im Staub wenden und Carmack wird, so munkelt man, nächstes Jahr vom Papst seelig gesprochen. Jeder der diesen Umstand auch nur wagt anzuzweifeln ist ein Frevler und muss mit dem jüngsten Gericht rechnen.
Sag mal, raffst du das nicht? Ich habe nichts gegen nV, id oder ATI oder Valve, ich seh die einfach nur ein wenig nüchterner, als Firmen, die Profit machen möchten und dazu sind ihnen eigentlich (fast) alle Mittel recht, mal übertreibts der eine, mal der andere, aber die spielen alle in der selben Liga. Wieso unterstellst du mir permantet was von einer Verschwörung? Du bist der einzige hier, der von Verschwörungen schwafelt, man nennt es nicht Verschwörung, wenn sich zwei Firmen "mögen" und kooperieren (zum gegenseitigen Vorteil), das ist ein ganz normaler Geschäftsvorgang, damit wird keinem eine böse Absicht unterstellt, wieso willst das nicht einfach akzeptieren? Ich habe darüber hinaus auch nicht behauptet, dass id ATI Karten gezielt ausbremst, sie verwenden halt nicht all das, was möglich gewesen wäre, aber auch das ist kein Problem. Andere Entwickler haben andere Vorlieben und da sehen dann auch andere Karten wieder besser aus, ein einfaches Spielchen, heute gewinnt ATI morgen nV. Solange dabei gute Spiele rauskommen ist mir das recht, ich glaub das ganze nennt sich "Wettbewerb" und den hat die Brache bitter nötig.
Over and Out

Demirug
2004-08-27, 22:37:15
Wahnsinn. Wieso so viele? Ist das wirklich notwendig oder wie kommt es zu der großen Anzahl Shader?

Permutation. Gerade bei diesem Multilightshader sind sehr viele Varianten möglich und da aus jeder Variante ein Shader wird ergibt das so eine grosse Anzahl. Diesen Effekt wird man in Zukunft aber noch öfter haben.

Gast
2004-08-28, 01:38:49
Alle reden von ca +40% für ATI Karten durch den Humus Tweak. Ist ja alles schön und gut aber nach wie vor laufen ATI und NVidia auf einem gemeinsamen Pfad. Da der NV40 aber über 3.0er Fähigkeiten verfügt und es seitens NV aber mit Sicherheit neue Extensions für ihn gibt wäre es doch auch interessant zu erfahren was ein eigener Pfad an Mehr-Performance bringen könnte. Das gleiche gilt ja auch für R420 wobei ich persönlich durch einen eigenen Pfad an nicht soooo viel Potenzial mehr glaube da schon hinreichend geschrieben wurde da nicht wahnsinning viel Neues seitens ATI mit dem R420 gegenüber R3xx gibt.

Was meint ihr? Wird JC eigene Pfade für R420 und NV40 nachschieben und wenn ja, was meinen unsere Experten was da eventuell noch an Performance rausgeholt werden kann?

Performer
2004-08-28, 01:43:26
Alle reden von ca +40% für ATI Karten durch den Humus Tweak.
Naja, ohne AF sind es eher 4% aber mit AF bringt es schon ordentlich was. :up:

MadManniMan
2004-08-28, 09:54:18
Perlmatutati... öh? :|

Demi, verzeih mir meine Verunbildung, aber bitte einmal auf MMM-verständlich :o

tombman
2004-08-28, 10:20:23
Perlmatutati... öh? :|

Demi, verzeih mir meine Verunbildung, aber bitte einmal auf MMM-verständlich :o

hmm, permutare = umstellen

Lernt man in der Wahrscheinlichkeitsrechnung in Mathe ;)

Also wieviele Möglichkeiten es gibt Sachen "umzustellen".

Beispiel: wieviele Möglichkeiten gibt es die Ziffern 0 bis 9 auf 2 Stellen umzustellen? -> 100 ;) (00 bis 99)

Demirug
2004-08-28, 10:22:58
Perlmatutati... öh? :|

Demi, verzeih mir meine Verunbildung, aber bitte einmal auf MMM-verständlich :o

Die Permutationen machen sowieso eigentlich nur einen Teil davon aus ich hätte noch Variationen ergänzen sollen.

Aber beleuchten wir das ganze mal am Beispiel.

Der neue SM3 Pfad kann bis zu 4 Lichtquellen pro Pass. Jetzt unterstützt Farcry ja unterschiedliche Arten von Lichtquellen. IIRC sind es 3 Basistypen mit jeweils unterschiedlichen optinalen Ergänzungen.

Das alles wurde in einen HLSL Shader gepackt. In diesem Shader gibt es eine ganze Menge Stellen nach dem Moto: "Wenn die Option aktiv ist dann mache das" und "Bei dem Lichttyp tuhe dies". Diese Entscheidungen will man aber nun im Entgültigen Shader nicht mehr haben. Also muss man für jede mögliche (und auch unmögliche wenn man sie nicht aussortiert) Zusammenstellung von Optionen einen Shader erzeugen. Wenn wir jetzt mal angenommen 4 Optionen pro Lichtquelle hätten (genaue Zahlen habe ich gerade nicht zur Hand) macht das bei 4 Lichtquellen 16 Optionen in Summe. Jede Option kann nun genutzt werden oder auch nicht also entspricht eine Option einem Bit. Mit 16 Bit lassen sich nun 65536 unterschiedliche Fälle kodieren. Ergo kann man aus einem HLSL Shader mit 4 Lichtquellen und 4 Optionen pro Lichtquelle 65536 unterschiedliche Shader erzeugen. Beim 1.2 Patch von Farcry sind die neuen Shader für den 3.0 und 2.B Pfad in vorkompilierter Form dabei. Das sind ein paar MB auf der Platte. In Zukunft wird das alles aber noch viel interesanter.

MadManniMan
2004-08-28, 10:28:26
THX @Demi und tombi!

Was ist soviel besser an diesen spezialisierten Shadern? Wenige, dafür variablere wären langsamer? Und warum ist das so interessant ;)

Demirug
2004-08-28, 10:47:18
THX @Demi und tombi!

Was ist soviel besser an diesen spezialisierten Shadern? Wenige, dafür variablere wären langsamer? Und warum ist das so interessant ;)

Ja, spezialisierte Shader rechnen eben nur das was wirklich gebraucht wird. Man könnte zum Beispiel auch einen universalshader haben der grundätzlich alles kann aber auch alles berechnet. Man würde damit dann für jeden Pixel den Aufwand für die Umgebungsspiegelung bezahlen auch wenn das Objekt überhaupt nicht spiegelt.

Interesant wird das ganze aus dem Grund weil die Spezialisierung in Zukunft noch weiter gehen wird. Es gibt die Tendenz Shader just in Time aus Teilen zusammenzusetzten ganz so wie man sie gerade braucht. Das Thema habe ich schon vor sehr langer Zeit mal angesprochen. Damals bin ich aber weitgehend auf Unverständniss gestossen.

Im Gegenzug gibt es aber schon die nächste Strömung die allerdings erst dann richtig Einsetzten kann wenn es breitflächig Hardware mit guten Branchfähigkeiten gibt. Dann wird man universalshader mit Branchs schreiben bei denen von der Hardware dafür gesorgt wird das nur die benötigten teile ausgeführt werden. Dann geht die Spezialisierung indirekt bis auf Pixelebene. Wenn ein Pixel aufgrund einer berechnung nicht spigelt dann braucht man für diesen einen Pixel auch die Berechnung der Spiegelung nicht durchzuführen.

MadManniMan
2004-08-28, 10:56:24
Im Gegenzug gibt es aber schon die nächste Strömung die allerdings erst dann richtig Einsetzten kann wenn es breitflächig Hardware mit guten Branchfähigkeiten gibt. Dann wird man universalshader mit Branchs schreiben bei denen von der Hardware dafür gesorgt wird das nur die benötigten teile ausgeführt werden. Dann geht die Spezialisierung indirekt bis auf Pixelebene. Wenn ein Pixel aufgrund einer berechnung nicht spigelt dann braucht man für diesen einen Pixel auch die Berechnung der Spiegelung nicht durchzuführen.

Daran hatte ich auch die ganze Zeit gedacht, aber vergessen, daß die meiste aktuelle HW nicht branchen kann.

Also ist die langfristige Tendenz dann doch wieder allgemeinere Shader?

kizi81
2004-08-28, 11:15:08
ich weiss nicht wo das problem ist?!

es wird darüber gestritten ob eine verschwörung im gange ist oder nicht!
Doom3 läuft eben auf Nvidia Karten besser. Was wird wohl passieren, wenn HL2 auf ATI Karten besser laufen sollte?! Genau das selbe, nur das diesmal ATI der Initiator für eine Bestechungskampagne sein wird ;D

Auch ich als ATI besitzer gebe gerne zu, dass nvidia wohl seine hausaufgaben gemacht zu haben scheint. Aber was solls!? das spiel läuft mit ATI karten auch hervorzüglich (ich rede jetzt von der X800er reihe).....

also hört doch bitte euch wegen sowas zu streiten. :smile:

Demirug
2004-08-28, 11:22:08
Daran hatte ich auch die ganze Zeit gedacht, aber vergessen, daß die meiste aktuelle HW nicht branchen kann.

Also ist die langfristige Tendenz dann doch wieder allgemeinere Shader?

Ja wobei sich diese dann aus viele einzelnen teilen zusammensetzten werden.

Im Prinzip haben wir die Tendenz ja jetzt auch schon. Nur baut man eben erstmal den einen allgemeinen Shader zusammen und lässt sich dann daraus einen spezialisierten erzeugen. Wenn die 3d Engine gut ist versteckt sie diesen Schritt aber vor der überlagerten Ebene.

MadManniMan
2004-08-28, 11:23:29
Was ist daran "gut", wenn die einzelnen versteckt sind?

Demirug
2004-08-28, 11:30:35
Was ist daran "gut", wenn die einzelnen versteckt sind?

Auch wenn es inzwischen hoffnungsloss OT ist.

Wenn eine untere Ebene Details von der darüber liegenden versteckt kann die untere Eebene geändert werden ohne die darüber liegenden zu tangieren.

Man könnte also sehr leicht das Branching was im Moment die CPU durch bauen von spezialisierten Shader macht in die GPU verlagern ohne das man an den höheren Ebenen der Engine/Spiel etwas ändern muss.

MadManniMan
2004-08-28, 11:53:31
Auch wenn es inzwischen hoffnungsloss OT ist.

Ach, so würde ich das gar nicht sehen! Schließlich geht es mir um die Frage, warum Doom3 so wenige, dafür allgemeine Shader einsetzt.

Wenn eine untere Ebene Details von der darüber liegenden versteckt kann die untere Eebene geändert werden ohne die darüber liegenden zu tangieren.

Man könnte also sehr leicht das Branching was im Moment die CPU durch bauen von spezialisierten Shader macht in die GPU verlagern ohne das man an den höheren Ebenen der Engine/Spiel etwas ändern muss.

Also eher einfach durch Code-Änderung am Rendering, als durch Contentänderung?

Demirug
2004-08-28, 13:13:28
Ach, so würde ich das gar nicht sehen! Schließlich geht es mir um die Frage, warum Doom3 so wenige, dafür allgemeine Shader einsetzt.

Weil es bei D3 nur wenige Effekt gibt.

Der Shader der ja immer wieder im Gespräch ist besteht aus einem Diffuse, einem Spekularem Anteil sowie einer Vertexfarbe.

Man könnte nun sicherlich untersuchen ob sich für weiter spezialisierte Shader überhaupt ein Bedarf ergibt. Solche Fälle würden sich ergeben wenn man zum Beispiel Objekte im Spiel hat die auf Spekulares licht nicht ansprechen. Sobald man aber anfängt mit spezialisierten Shadern für den gleichen Effekt zu arbeiten wird die Engine auch gleich komplizierter. Bei HL2 wird da zum Beispiel einiges an Aufwand getrieben.

Also eher einfach durch Code-Änderung am Rendering, als durch Contentänderung?

Ja.

MikBach
2004-08-29, 13:46:43
Dann will ich auch meinen Senf dazu abgeben.

Ich habe JC immer als sehr objektiv gesehen. Das hat sich nun schlagartig geändert. Leider. Ich halte JC für einen Top-Programmierer. Wenn aber jemand(Humus) in kurzer Zeit etwas deutlich verbessern kann ohne die BQ zu opfern, ist das schon sehr verdächtig, weil Doom3 ja seit Jahren entwickelt wurde. Ich glaube nur JC kann sich so ein Mist leisten, nicht auf alle Top-Grakas zu optimieren. Wo soll denn bitte das Problem liegen 2 Shaderpfade(für NV und ATI) zu proggen? So dumm wird JC auch nicht sein, dass er es nicht schafft. :D

Ich sehe das so wie "mrdigital", einfach nur Marketing. Man könnte es auch Verarsche nennen.

mrdigital
2004-08-29, 14:52:40
Dann will ich auch meinen Senf dazu abgeben.
...
Ich sehe das so wie "mrdigital", einfach nur Marketing. Man könnte es auch Verarsche nennen.
Das ist nicht nur Marketing. Da IMHO sind da bestimmte technische Präferenzen. Carmack hat eine bestimmte Idee, wie er etwas umsetzten möchte. Die Hardware, die ihm das am einfachsen ermöglicht, wird auch am besten unterstützt. Das scheint nunmal die nV40 zu sein. Das sich dieser Umstand Marektingtechnisch gut nutzen läßt, ist ein nettes "extra". Für mach hat das aber keinen komischen Beigeschmack, man kann doch wunderbar mit ATI Karten D3 spielen. Das ist daher auch keine Verarsche.

MikBach
2004-08-29, 15:19:52
Das ist nicht nur Marketing. Da IMHO sind da bestimmte technische Präferenzen. Carmack hat eine bestimmte Idee, wie er etwas umsetzten möchte. Die Hardware, die ihm das am einfachsen ermöglicht, wird auch am besten unterstützt. Das scheint nunmal die nV40 zu sein. Das sich dieser Umstand Marektingtechnisch gut nutzen läßt, ist ein nettes "extra". Für mach hat das aber keinen komischen Beigeschmack, man kann doch wunderbar mit ATI Karten D3 spielen. Das ist daher auch keine Verarsche.
Muss ich zustimmen.

Ich bin halt ein wenig von JC enttäuscht, dass er nicht vernünftig optimiert hat. Wenn man sich schon soooo lange Zeit lässt, dann sollte man auch vernünftig optimieren(für beide Seiten), und alles aus der Hardware rausholen. Ist doch nicht so aufwändig. Deswegen ist es für mich Verarsche. Gilt für Valve ebenso.

Zum Thema "technische Präferenzen":
Eine Graka nur wegen einem Spiel zu designen ist recht dümmlich. Und wie gesagt, die Spieleprogrammierer sollten an die Grakas anpassen und nicht andersrum. Bald brauchen wir jeder 20 Grakas für verschiedene Spiele. ;D

Quasar
2004-08-29, 15:42:09
Muss ich zustimmen.

Ich bin halt ein wenig von JC enttäuscht, dass er nicht vernünftig optimiert hat. Wenn man sich schon soooo lange Zeit lässt, dann sollte man auch vernünftig optimieren(für beide Seiten), und alles aus der Hardware rausholen. Ist doch nicht so aufwändig. Deswegen ist es für mich Verarsche. Gilt für Valve ebenso.
Und für [füge quasi beliebige Spiele/Entwickler von bisherigen DX9-Titeln ein] ebenfalls?


Zum Thema "technische Präferenzen":
Eine Graka nur wegen einem Spiel zu designen ist recht dümmlich. Und wie gesagt, die Spieleprogrammierer sollten an die Grakas anpassen und nicht andersrum. Bald brauchen wir jeder 20 Grakas für verschiedene Spiele. ;D
Was hab' ich verpasst? Bisher lief jedes Game, das ich probierte, auch auf dem kleinsten GF6-Modell noch einwandfrei, soweit das VRAM reichte.

Quasar
2004-08-29, 16:36:17
Oh - und noch zu zwei dritteln+ On-Topic:

http://home.arcor.de/quasat/3DC-Pics/DSC05759_a.JPG
http://home.arcor.de/quasat/3DC-Pics/DSC05759.JPG

Carmack, Doom3 und ATi (Humus).
Irgendwas muss dann der Devsupport von ATi übersehen haben, wenn so ein "simpler" Tweak JC nicht plausibel begründet werden konnte.

MikBach
2004-08-29, 16:43:29
Und für [füge quasi beliebige Spiele/Entwickler von bisherigen DX9-Titeln ein] ebenfalls?
Nein. JC genoss in meinen Augen Gottstatus. Was andere(unfähige) Progger machen ist mir egal. Von JC habe ich einfach deutlich mehr erwartet, da er auch gesagt hat, dass er ALLES aus jeder Hardware rausholen wird.


Was hab' ich verpasst? Bisher lief jedes Game, das ich probierte, auch auf dem kleinsten GF6-Modell noch einwandfrei, soweit das VRAM reichte.
Nach mehrmaligen durchlesen meiner Aussage und deiner "Antwort" kann ich leider keinen logischen Bezug feststellen. Formuliere deine Antwort bitte anders.

Jesus
2004-08-29, 16:43:31
Oh - und noch zu zwei dritteln+ On-Topic:

http://home.arcor.de/quasat/3DC-Pics/DSC05759_a.JPG
http://home.arcor.de/quasat/3DC-Pics/DSC05759.JPG

Carmack, Doom3 und ATi (Humus).
Irgendwas muss dann der Devsupport von ATi übersehen haben, wenn so ein "simpler" Tweak JC nicht plausibel begründet werden konnte.

leicht veraltet das ganze ...

DevilX
2004-08-29, 17:08:49
also wenn ich das jetzt richtig verstanden habe, habe ich als Ati user keinerlei Nachteile davon wenn ich den Tweak von Humus oder Demirug verwende..
Theoretisch ist die Berechnung sogar genauer.

Außerdem hätte ich mit Tweak und CP AF (ich nutze Radlinker und habe da auf 8xForced gestellt) Das bestmögliche Bild bei hoher Leißtung.

Dann wäre noch die Frage welcher Tweak ist denn jetzt "besser" bzw. wo liegen überhaubt die Unterschiede.

und 3. ohne diese Ganzen bekloppten verwörungstheorien, und das gegenseitige Angeflame wäre der Thread bedeutend angenehmer zu lesen gewesen.

Quasar
2004-08-29, 17:40:06
Nein. JC genoss in meinen Augen Gottstatus. Was andere(unfähige) Progger machen ist mir egal. Von JC habe ich einfach deutlich mehr erwartet, da er auch gesagt hat, dass er ALLES aus jeder Hardware rausholen wird.
Ah ja, natürlich. :)
Ich erwarte das eigentlich von jedem Dev, dem ich 30-50 EUR meines sauer verdienten Geldes in den Rachen schmeisse.


Nach mehrmaligen durchlesen meiner Aussage und deiner "Antwort" kann ich leider keinen logischen Bezug feststellen. Formuliere deine Antwort bitte anders.

Aussage:
Zum Thema "technische Präferenzen":
Eine Graka nur wegen einem Spiel zu designen ist recht dümmlich. Und wie gesagt, die Spieleprogrammierer sollten an die Grakas anpassen und nicht andersrum. Bald brauchen wir jeder 20 Grakas für verschiedene Spiele. ;D

Antwort:
Was hab' ich verpasst? Bisher lief jedes Game, das ich probierte, auch auf dem kleinsten GF6-Modell noch einwandfrei, soweit das VRAM reichte.

Mögliche Bezugsebenen:
Die Grafikkarte wurde nicht für ein Spiel designed, man kann auch andere Spiele damit spielen - Doom3 nur eben besonders gut. Schränkt das irgendwie die Verwendbarkeit für andere Spiele ein, so daß man bsw. für Ultima IX eine andere Grafikkarte braucht, oder für Spiele auf der Source-Engine basierend?

Quasar
2004-08-29, 17:43:26
leicht veraltet das ganze ...
Ach so, klar. Direkt nach Erstellung der jeweiligen Folien wurde Doom3 von der Dev-Support-Liste abgeschossen, weil das Game ja niemanden interessiert.

Wenn ich jedoch sehe, wie D3 im Vorfeld als von ATi unterstützt beworben wurde und wie schnell jetzt der gute Humus einen Tweak gebastelt hat, kann ich mich als Alternative zum "gekauften JC" (hat der's noch nötig??) nicht des Gedankens erwehren, daß der Dev-Support von ATi kläglich versagt hat.
Ja, es gehört u.a. auch zu deren Aufgaben, Devs von der Sinnhaftigkeit solcher möglichen Tweaks oder Renderingpfade zu überzeugen.

Jesus
2004-08-29, 17:48:57
Ach so, klar. Direkt nach Erstellung der jeweiligen Folien wurde Doom3 von der Dev-Support-Liste abgeschossen, weil das Game ja niemanden interessiert.

Wenn ich jedoch sehe, wie D3 im Vorfeld als von ATi unterstützt beworben wurde und wie schnell jetzt der gute Humus einen Tweak gebastelt hat, kann ich mich als Alternative zum "gekauften JC" (hat der's noch nötig??) nicht des Gedankens erwehren, daß der Dev-Support von ATi kläglich versagt hat.
Ja, es gehört u.a. auch zu deren Aufgaben, Devs von der Sinnhaftigkeit solcher möglichen Tweaks oder Renderingpfade zu überzeugen.

schön das ist deine Meinung. Vielleicht hat der NV "Support" ($) auch JC einfach besser "überzeugt" ?

Quasar
2004-08-29, 18:16:35
Klar - keine Argumente -> Unterstellungen. ;)

MikBach
2004-08-29, 18:44:14
Klar - keine Argumente -> Unterstellungen. ;)
Alles klar. :rolleyes:
Du hast den Thread aber gelesen?
Hätte JC besser optimiert, müssten wir uns jetzt nicht die Köpfe einschlagen.
Warum sagt JC denn, dass er alles aus der Hardware rausholt, und dann kommt Humus und entlarvt seine Lügen?

Jesus
2004-08-29, 18:48:28
Klar - keine Argumente -> Unterstellungen. ;)

lol allerdings ist dein "Argument" von weiter oben auch nichts anderes :wink:

D3 wurde vor 5 Jahren von 3dfx bestimmt auch mal beworben und unterstützt ...

Quasar
2004-08-29, 18:53:32
Jesus,
Im Gegensatz zu "Boooh - Bestechung" habe ich ein paar Bildbelege für die Kooperation zwischen ATi und JC geliefert. =)


MikBach,
Wenn es so einfach ist, daß Herr Persson sich in seiner Freizeit kurz hinsetzt, am Shader rumpriemelt und dann mit (inzwischen relativierten) 40% Performancegewinn daherkommt: Wieso konnte der Dev-Support von ATi JC in den letzten zwei Jahren dann nicht davon überzeugen, diese Option mit einzubauen?

Obacht, _Unterstellung_ (!!!): Vielleicht waren die Dev-Support "Ressourcen" bereits komplett von Technology-Partner Gabe Newell aufgebraucht worden?

Mr. Lolman
2004-08-29, 18:54:12
Klar - keine Argumente -> Unterstellungen. ;)

Glaubst du echt, dass Carmack einen Dev. Support braucht? Das ist wie, wenn der Auspuffhersteller dem Ferrarikonstrukteur Tipps gibt, wie er sein Auto baun soll...

Quasar
2004-08-29, 18:55:18
Glaubst du echt, dass Carmack einen Dev. Support braucht?

Ja.

Jesus
2004-08-29, 18:57:25
MikBach,
Wenn es so einfach ist, daß Herr Persson sich in seiner Freizeit kurz hinsetzt, am Shader rumpriemelt und dann mit (inzwischen relativierten) 40% Performancegewinn daherkommt: Wieso konnte der Dev-Support von ATi JC in den letzten zwei Jahren dann nicht davon überzeugen, diese Option mit einzubauen?

Die Frage wurde doch schon mehrfach hier drin beantwortet ( Unterstellung ): weil er nicht wollte ?

Btw. demi hat das ganze auch in Null-Komma-Nichts hinbekommen, also wenn ein Wille dagewesen wäre seitens JC, dann hätte er es sicher geschafft ( es sei denn demirug ist viel schlauer als JC ? hmm... :biggrin: )

btw dev. support = geld.

Quasar
2004-08-29, 19:03:01
Die Frage wurde doch schon mehrfach hier drin beantwortet ( Unterstellung ): weil er nicht wollte ?
Eine Frage beantwortet man i.A. nicht mit Unterstellungen. Sollte man an der Uni gelernt haben.


( es sei denn demirug ist viel schlauer als JC ? hmm...
Wieso nicht?


btw dev. support = geld.
Nein, nicht nur. Das sind TWIMTBP und GITG-Marketingprogramme. Dev-Support sieht anders aus, wie mir Dev(s) verrieten.

r@h
2004-08-29, 19:37:23
Glaubst du echt, dass Carmack einen Dev. Support braucht? Klar... wie jeder andere Entwickler auch.

Das ist wie, wenn der Auspuffhersteller dem Ferrarikonstrukteur Tipps gibt, wie er sein Auto baun soll...Da wird wohl eher ungekehrt ein Schuh draus...
Schließlich baut nVidia das Auto und JC fährt damit.

Razor

MikBach
2004-08-29, 19:59:28
MikBach,
Wenn es so einfach ist, daß Herr Persson sich in seiner Freizeit kurz hinsetzt, am Shader rumpriemelt und dann mit (inzwischen relativierten) 40% Performancegewinn daherkommt: Wieso konnte der Dev-Support von ATi JC in den letzten zwei Jahren dann nicht davon überzeugen, diese Option mit einzubauen?
Das ist aber nicht dein Ernst?
Wo die Dollars fliessen ist Macht. Brauchst du noch bisschen tiefer gehende Argumente?

Mr. Lolman
2004-08-29, 20:10:10
Eine Frage beantwortet man i.A. nicht mit Unterstellungen. Nein, nicht nur. Das sind TWIMTBP und GITG-Marketingprogramme. Dev-Support sieht anders aus, wie mir Dev(s) verrieten.

Der Support ist zumindest schön flott wenn sie was zu sehen bekommen. Ich bin mit meinen UT2003 (Baum) Screenshots innerhalb von 1 Tag ins Dev. Programm gekommen. (2 daraufhinfolgende Anfragen blieben jedoch unbeantwortet, insgesamt also doch unzufriedenstellend :()

Aber JC weiß wie GraKas funktionieren.

Auf dein "Wieso nicht ?" als Antwort bez. Jesus Post über Demi und JC, könnte man sarkastischerweise antworten. "Ja das frag ich mich auch, nach dem Doom3 Debakel!"
Ich denke aber eher, dass JC sehr wohl wusste wie man auf beide Chips optimiert, nur lag das halt nicht in seinen Prioritäten. Optimal ist seine Engine. Und darauf haben die IHVs gefälligst zu optimieren. An seiner Postition würd ich dann auch, natürlich nur gegen eine kleine Aufwandsentschädigung, die Shader an die Wünsche/Vorschläge des Dev. Supports anpassen. An dieser Stelle kann man sich dann auch fragen wie gut jetzt der Dev. Support eigentlich ist. :biggrin:

Quasar
2004-08-29, 20:20:40
Das ist aber nicht dein Ernst?
Wo die Dollars fliessen ist Macht. Brauchst du noch bisschen tiefer gehende Argumente?
Nein, überhaupt irgendein Argument wäre für den Anfang schonmal ganz toll.

Quasar
2004-08-29, 20:24:26
Der Support ist zumindest schön flott wenn sie was zu sehen bekommen. Ich bin mit meinen UT2003 (Baum) Screenshots innerhalb von 1 Tag ins Dev. Programm gekommen. (2 daraufhinfolgende Anfragen blieben jedoch unbeantwortet, insgesamt also doch unzufriedenstellend :()

Aber JC weiß wie GraKas funktionieren.

Auf dein "Wieso nicht ?" als Antwort bez. Jesus Post über Demi und JC, könnte man sarkastischerweise antworten. "Ja das frag ich mich auch, nach dem Doom3 Debakel!"
Ich denke aber eher, dass JC sehr wohl wusste wie man auf beide Chips optimiert, nur lag das halt nicht in seinen Prioritäten. Optimal ist seine Engine. Und darauf haben die IHVs gefälligst zu optimieren. An seiner Postition würd ich dann auch, natürlich nur gegen eine kleine Aufwandsentschädigung, die Shader an die Wünsche/Vorschläge des Dev. Supports anpassen. An dieser Stelle kann man sich dann auch fragen wie gut jetzt der Dev. Support eigentlich ist. :biggrin:

Ebenso sarkastischerweise könnte man jetzt sagen, daß du wohl nicht genügend Dollars hast fliessen lassen, damit mehr als ein Eintrag auf der Dev-Mailingliste bei deinem Projekt heraussprang. :biggrin:

Und ja, Doom3 war wirklich ein ziemliches Debakel - sieht man ja gut an den Wellen, die es so schlägt. =)

Ansonsten: -> Unterstellung. ;)
Wie wäre es zu Abwechslung mal mit einem Beweis?

MikBach
2004-08-29, 20:28:06
Nein, überhaupt irgendein Argument wäre für den Anfang schonmal ganz toll.
Ist jetzt aber nicht dein Ernst?
Soll ich die ganze Scheisse neu aufrollen?

Quasar
2004-08-29, 20:36:22
Ist jetzt aber nicht dein Ernst?
Soll ich die ganze Scheisse neu aufrollen?

Nein, brauchst du nicht.... ;)
Aber ein stichhaltiges Argument wäre schonmal für den Anfang besser als aufgerollte Scheisse.

Gast
2004-08-29, 20:38:17
Alles klar. :rolleyes:
Du hast den Thread aber gelesen?
Hätte JC besser optimiert, müssten wir uns jetzt nicht die Köpfe einschlagen.
Warum sagt JC denn, dass er alles aus der Hardware rausholt, und dann kommt Humus und entlarvt seine Lügen?


JC hat alles aus der Hardware rausgeholt.

Gast
2004-08-29, 20:39:51
Glaubst du echt, dass Carmack einen Dev. Support braucht?

Natürlich.
Soll der etwa raten, wie die Hardware am besten funktioniert?

Tomcat70
2004-08-29, 20:43:46
OT: den thread kann man denke ich schliessen ;)
da kommt nix neues, sinnvolles mehr dazu.......

MikBach
2004-08-29, 21:19:14
JC hat alles aus der Hardware rausgeholt.
Richtig, deswegen hat Humus JC in die Tonne getreten!

Grestorn
2004-08-29, 21:24:17
Richtig, deswegen hat Humus JC in die Tonne getreten![ ] Du hast verstanden, was der Humus Tweak macht und welche Konsequenzen (Nachteile) er hat.

Jesus
2004-08-29, 21:35:21
[ ] Du hast verstanden, was der Humus Tweak macht und welche Konsequenzen (Nachteile) er hat.

ja er führt dazu das auch dort gefiltert wird wo eigentlich kein AF vorgesehen war da die LUT verwendet wird, wodurch sich die BQ verbessert* ( neben der Performance ).

( * auch wenn mans kaum sieht )

Demirug
2004-08-29, 21:45:53
ja er führt dazu das auch dort gefiltert wird wo eigentlich kein AF vorgesehen war da die LUT verwendet wird, wodurch sich die BQ verbessert* ( neben der Performance ).

( * auch wenn mans kaum sieht )

Nein, er tauscht die LUT gegen eine feste Berechnung. Die allerdings solange JC nicht auf die Idee kommt verschiedene LUTs zu verwenden passt. Bei LUTs ist AF sogar schlecht weil man damit das gewüschte Ergebniss zerstört.

Blaire
2004-08-29, 21:51:25
Nein, er tauscht die LUT gegen eine feste Berechnung. Die allerdings solange JC nicht auf die Idee kommt verschiedene LUTs zu verwenden passt. Bei LUTs ist AF sogar schlecht weil man damit das gewüschte Ergebniss zerstört.

Ich hätte da mal eine Frage an Dich. Kann es möglich sein das bei Ati die Belichtung der Levels in Doom3 nicht die selbe ist wie bei Nvidia? Irgendwie scheint die Belichtung z.B. der Gegner in einigen Levels nicht gleich zu sein. Kann das an den Tweaks von Humus bzw. Dir liegen?

Demirug
2004-08-29, 21:57:36
Ich hätte da mal eine Frage an Dich. Kann es möglich sein das bei Ati die Belichtung der Levels in Doom3 nicht die selbe ist wie bei Nvidia? Irgendwie scheint die Belichtung z.B. der Gegner in einigen Levels nicht gleich zu sein. Kann das an den Tweaks von Humus bzw. Dir liegen?

Daran kann es eigentlich nicht liegen aber es gibt ja noch andere Unterschiede (Texturefilter, Rechengenauigkeit, ...) zwischen ATI und nVidia die mal leicht zu abweichenden Ergebnissen führen können.

Blaire
2004-08-29, 22:03:31
Daran kann es eigentlich nicht liegen aber es gibt ja noch andere Unterschiede (Texturefilter, Rechengenauigkeit, ...) zwischen ATI und nVidia die mal leicht zu abweichenden Ergebnissen führen können.

Ja das ist mir schon aufgefallen. Nvidia liefert bei Doom3 das bessere Bild und man kann trotz der dunklen Levels irgendwie mehr Details erkennen. Das ist mir sofort aufgefallen. :frown: Gerade bei den Imps war bei meiner 6800 Ultra deutlich mehr Beleuchtung (hört sich lustig an ,aber es war so...)
Was auch ein Problem ist. Das Bild wirkt irgendwie zu dunkel. Spiel ich an der r_Gamma in der doom3config.cfg herum bekomm ich kein zufriedenstellendes Ergebniss. Dann wirkt alles zu grell. Kann man da die Objekte in den jeweiligen Levels mehr Licht bzw. Kontrast zuweisen??? Ist das irgendwie möglich?

tokugawa
2004-08-29, 22:07:23
Eine Frage beantwortet man i.A. nicht mit Unterstellungen. Sollte man an der Uni gelernt haben.


Wieso nicht?


Nein, nicht nur. Das sind TWIMTBP und GITG-Marketingprogramme. Dev-Support sieht anders aus, wie mir Dev(s) verrieten.

Korrekt, Developer Support ist viel mehr als diese dummen Marketingprogramme, aber viele verwechseln das. Zufälligerweise immer genau die, die von Spiele- und Grafikentwicklung keine Ahnung haben.

NVIDIA bietet fast alle Sachen (zumindest alle Dokumente und die meiste seiner Quellcodes und Libraries) gratis an. Siehe http://developer.nvidia.com. ATI auch, siehe http://www.ati.com/developer/.

Man muß nicht erst zahlen, um den Developer Support in Anspruch zu nehmen. Denn Developer Support beinhaltet:

A) Dokumentation und Papers
B) Quellcodes, Libraries, Tools
C) Bücher, Präsentationen, Messen
D) Zurverfügungstellen von Hardware

A bis B ist gratis, C teilweise (Bücher kosten halt was), und D ist hauptsächlich für Forschungseinrichtungen wie Universitäten aber auch kommerzielle Institute.

Man kann aber sagen, dass NVIDIA und ATI beide sehr guten Developer Support für alle bietet, wobei aus meiner Erfahrung NVIDIA etwas besser ist bzw. mehr bietet (an Tools, Quellcodes, Dokumentationen und Papers). Auch das NVIDIA-unterstützte Buch GPU Gems ist ziemlich gut.

Jene Urban Legend dass man reich sein muß wenn man entwickelt, bzw dass Entwickeln und der Support von seiten der IHVs immer mit Geld verbunden ist, sollte endlich der Vergangenheit angehören.

Warum JC das nicht so gemacht hat wie im Humus Tweak kann wohl nur er selbst beantworten. Aber hier gleich Verschwörung! zu rufen oder Bestechungen zu sehen, ist unsachlich. Meine persönliche Meinung ist, dass JC und Entwickler generell nicht immer alles über jede Hardware wissen müssen. Dass JC nicht so gut die ATI Hardware kennt und den Tweak nicht gleich eingebaut hat, macht ihn nicht zu einem schlechteren Developer, denn bei der Programmentwicklung gibt es viele Disziplinen. Ich schätze einfach mal, dass JC sich lieber mit höheren Levels an Algorithmen-Optimierung beschäftigt, als mit "hand-made asm" tweaks... kann ich gut verstehen. Wer weiß ob der Shader überhaupt von ihm stammt, immerhin sind Shader so schön modular dass der eine oder andere Shader sogar von einem anderen Programmierer bei id stammen könnte.

Viele verschiedene Aspekte... und keine definitive Antwort möglich. Soviel sollte zumindest jeder (egal zu welcher Meinung er/sie tendiert) zugeben können.

IVN
2004-08-29, 22:17:28
Korrekt, Developer Support ist viel mehr als diese dummen Marketingprogramme, aber viele verwechseln das. Zufälligerweise immer genau die, die von Spiele- und Grafikentwicklung keine Ahnung haben.

NVIDIA bietet fast alle Sachen (zumindest alle Dokumente und die meiste seiner Quellcodes und Libraries) gratis an. Siehe http://developer.nvidia.com. ATI auch, siehe http://www.ati.com/developer/.

Man muß nicht erst zahlen, um den Developer Support in Anspruch zu nehmen. Denn Developer Support beinhaltet:

A) Dokumentation und Papers
B) Quellcodes, Libraries, Tools
C) Bücher, Präsentationen, Messen
D) Zurverfügungstellen von Hardware

A bis B ist gratis, C teilweise (Bücher kosten halt was), und D ist hauptsächlich für Forschungseinrichtungen wie Universitäten aber auch kommerzielle Institute.

Man kann aber sagen, dass NVIDIA und ATI beide sehr guten Developer Support für alle bietet, wobei aus meiner Erfahrung NVIDIA etwas besser ist bzw. mehr bietet (an Tools, Quellcodes, Dokumentationen und Papers). Auch das NVIDIA-unterstützte Buch GPU Gems ist ziemlich gut.

Jene Urban Legend dass man reich sein muß wenn man entwickelt, bzw dass Entwickeln und der Support von seiten der IHVs immer mit Geld verbunden ist, sollte endlich der Vergangenheit angehören.

Warum JC das nicht so gemacht hat wie im Humus Tweak kann wohl nur er selbst beantworten. Aber hier gleich Verschwörung! zu rufen oder Bestechungen zu sehen, ist unsachlich. Meine persönliche Meinung ist, dass JC und Entwickler generell nicht immer alles über jede Hardware wissen müssen. Dass JC nicht so gut die ATI Hardware kennt und den Tweak nicht gleich eingebaut hat, macht ihn nicht zu einem schlechteren Developer, denn bei der Programmentwicklung gibt es viele Disziplinen. Ich schätze einfach mal, dass JC sich lieber mit höheren Levels an Algorithmen-Optimierung beschäftigt, als mit "hand-made asm" tweaks... kann ich gut verstehen. Wer weiß ob der Shader überhaupt von ihm stammt, immerhin sind Shader so schön modular dass der eine oder andere Shader sogar von einem anderen Programmierer bei id stammen könnte.

Viele verschiedene Aspekte... und keine definitive Antwort möglich. Soviel sollte zumindest jeder (egal zu welcher Meinung er/sie tendiert) zugeben können.


I also like those nvidia movies.And GPU Gems is really,really a good book.
I have an r9600xt,but i'm no Fanboy.I like nv Developer Support more. :D

MikBach
2004-08-29, 22:31:02
[ ] Du hast verstanden, was der Humus Tweak macht und welche Konsequenzen (Nachteile) er hat.
Nö.
Kannst du es mir erkären?
Also Nachteile habe ich bisher nicht gesehen, wenn du so schlau bist, bitte erklären, aber nichtt so ein Dünnpfiff.

Jesus
2004-08-29, 22:35:16
Ja das ist mir schon aufgefallen. Nvidia liefert bei Doom3 das bessere Bild und man kann trotz der dunklen Levels irgendwie mehr Details erkennen. Das ist mir sofort aufgefallen. :frown: Gerade bei den Imps war bei meiner 6800 Ultra deutlich mehr Beleuchtung (hört sich lustig an ,aber es war so...)
Was auch ein Problem ist. Das Bild wirkt irgendwie zu dunkel. Spiel ich an der r_Gamma in der doom3config.cfg herum bekomm ich kein zufriedenstellendes Ergebniss. Dann wirkt alles zu grell. Kann man da die Objekte in den jeweiligen Levels mehr Licht bzw. Kontrast zuweisen??? Ist das irgendwie möglich?

mach doch mal ein bild, oder zwei

Blaire
2004-08-29, 22:57:50
mach doch mal ein bild, oder zwei

Zunächst einmal folgendes: Ich möchte hier keine Diskussion entfachen die am Ende wieder zu keinem Ergebnis führt. Ich wollte lediglich wissen woran dies genau liegt und ob man dagegen bei der Ati Karte etwas tun kann. Ich kann guten Gewissens schreiben das mir das Bild auf der Nvidia 6800 Ultra persönlich besser gefällt weil es einfach mehr Details liefert. Ist meine persönliche Einschätzung nicht mehr und nicht weniger.
Sowas lässt sich auch auf Bildern sehr schlecht festhalten ich sags mal so man siehts nur wenn man es auf beiden Karten gezockt hat. Einer der jahrelang ne Ati karte drin hatte dem wird das garnicht auffallen.
Ich hab mal nen Screen mit der X800XTPE gemacht wo man sehen kann das dort nicht viel Belichtung der Gegner ist.
http://img70.exs.cx/img70/3526/doom3xtpe.jpg
Auf der Nvidia kamen viel mehr Details durch wo bei Ati alles dunkel ist. Wenn jemand einen Tip hat worang dies liegen könnte wäre ich sehr dankbar.

MfG

Jesus
2004-08-29, 23:12:31
http://img70.exs.cx/img70/3526/doom3xtpe.jpg
Auf der Nvidia kamen viel mehr Details durch wo bei Ati alles dunkel ist. Wenn jemand einen Tip hat worang dies liegen könnte wäre ich sehr dankbar.
MfG

viell. ist die Beleuchtung bei NV ja auch fehlerhaft (durch pp ?) :wink: ? oder es gibt keine Schatten auf dem Objekt aufgrund eines Treiberbugs ?

ich hatte eigentlich schon immer den Eindruck dass D3 ein sehr dunkles spiel ist :wink:

Allerdings gibt es meistens unterschiedliche Helligkeiten auf den beiden Karten ( siehe z.b. neueste HL2 shots )

Mr. Lolman
2004-08-30, 12:59:23
Ja das ist mir schon aufgefallen. Nvidia liefert bei Doom3 das bessere Bild und man kann trotz der dunklen Levels irgendwie mehr Details erkennen. Das ist mir sofort aufgefallen. :frown: Gerade bei den Imps war bei meiner 6800 Ultra deutlich mehr Beleuchtung (hört sich lustig an ,aber es war so...)
Was auch ein Problem ist. Das Bild wirkt irgendwie zu dunkel. Spiel ich an der r_Gamma in der doom3config.cfg herum bekomm ich kein zufriedenstellendes Ergebniss. Dann wirkt alles zu grell. Kann man da die Objekte in den jeweiligen Levels mehr Licht bzw. Kontrast zuweisen??? Ist das irgendwie möglich?


Mach mal ein Bild vom Startraum. Ich stells dann nach. Aber bitte keine Auflösung >1280x1024.

betasilie
2004-08-30, 13:33:58
Mach mal ein Bild vom Startraum. Ich stells dann nach. Aber bitte keine Auflösung >1280x1024.
Aber diesmal bitte ohne PS. ;)

Gast
2004-08-30, 14:09:47
Hier sind ja alle mal wieder richtig gut dabei. Bencht und diskutiert ihr nur, oder kommt ihr auch mal dazu Doom3 zu Zocken? Die meisten scheinen hier mehr Zeit mit dem Benchen und dem Diskutieren zu verbringen, als mit dem eigentlichen Spiel.

Mrs. Lolman
2004-08-30, 15:13:37
Aber diesmal bitte ohne PS. ;)

:D

arghh, seitdem es das Frauenforum gibt, ist andauernd meine Freundin angemeldet ;(

r@w
2004-08-30, 15:49:27
Auf der Nvidia kamen viel mehr Details durch wo bei Ati alles dunkel ist. Wenn jemand einen Tip hat worang dies liegen könnte wäre ich sehr dankbar.Liegt an dem zu niedrigen Default-Gamma der ATI...
Machen kann man da leider nicht viel, denn wenn man am Gamma schraubt, dann hat das gleich unangenehme Konsequenzen für das ('gammakorrekte') AntiAliasing...

Bleibt eigentlich nur, sich damit abzufinden oder ohne AA zu spielen (wie es Lolman ja tut ;-).

Vor allem sollte man nicht mit unterschiedlichen Karten spielen, denn dann braucht man demnächst für jedes Game eine andere Karte... und nicht nur einen anderen Treiber (ein Scherz und auf HL2 abgezielt ;-). Für Technologie-Betrachtungen ist das OK, nicht aber für's eigentliche Gamen...

Razor

zeckensack
2004-08-30, 16:02:29
Liegt an dem zu niedrigen Default-Gamma der ATI...Tatsache.
Allerdings verstehe ich nicht, warum sich einige mit dem Gamma in Doom 3 so schwer tun. Da kann man nicht nur ganze Zahlen einsetzen. Wenn man Gamma moderat erhöht, kriegt man auch keine "ausgewaschenen Farben" oä, wovon ja oft berichtet wird.

Um genauso hell zu sein wie eine NV-Karte, brauchen die "dunkleren" ATI-Chips (ab R300) lediglich Gamma 1,15. Doom 3 gespielt habe ich mit Gamma 1,5. Sah alles sehr lecker aus IMO :)

Eigentlich sollte beim Wechsel der Graka auch der Monitor neu kalibriert werden (Schwarzpunkt!), aber das mache ich ehrlich gesagt auch nicht. Dafür wechsle ich zu häufig :)
Machen kann man da leider nicht viel, denn wenn man am Gamma schraubt, dann hat das gleich unangenehme Konsequenzen für das ('gammakorrekte') AntiAliasing...Auch richtig. Allerdings schlägt das erst bei sehr hohen Gamma-Werten ins negative um.
Ich vermute dass der Referenzgammawert für die Kompensation auf 2,2 eingestellt ist. Dh die Kompensation wird mit Gamma >1,0 zunehmend weniger wirksam, bei Gamma~=1,48 (Wurzel aus 2,2) ist es so, als wäre überhaupt keine Gammakompensation vorhanden (Gleichstand zu NV bei Gamma 1,0, nur natürlich insgesamt heller), und erst bei noch höheren Gammawerten wird das AA schwächer als es ohne Kompensation wäre.

Gast
2004-08-30, 18:53:56
Nö.
Kannst du es mir erkären?
Also Nachteile habe ich bisher nicht gesehen, wenn du so schlau bist, bitte erklären, aber nichtt so ein Dünnpfiff.


Ich hoffe, dass sich die Moderatoren mal deiner annehmen, damit du mal Benehmen lernst.

MikBach
2004-08-31, 08:57:09
Ich hoffe, dass sich die Moderatoren mal deiner annehmen, damit du mal Benehmen lernst.

Hallo Gast.
Ich muss schon zugeben, dass meine Wortwahl nicht gerade zimperlich war.
War halt meine Antwort auf Grestorms Post:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2192505&postcount=223
Er behauptet, dass es Nachteile gibt. Die kann es geben, WENN man nicht richtig einstellt. Stellt man alles richtig ein, gibt es keine Nachteile.
Siehe auch hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2167609&postcount=31
An der BQ ändert sich nichts. Man hat Vorteile durch mehr Performance.
Eine IMO gute Erklärung liefert Lolman ab:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2167995&postcount=46

Es ist auch nicht unüblich zu schreiben, dass jemans Mist/Müll schreibt, WENN man Recht hat.
Siehe diesen Thread: (BTW ein sehr lustiger Thread):
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=165213