PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI und Nvidia streiten über Doom-3-Testergebnisse


Seiten : 1 [2]

Jesus
2004-09-07, 14:35:34
Außerdem: warum sollte JC das 100%ige Optimum aus dem NV40 geholt haben?

Muss er doch gar nicht ;) So wie´s jetzt aussieht ist das Aufgabe von NV´s Treiber "Optimierer" Team selbst :rolleyes:

MadManniMan
2004-09-07, 15:17:36
Im Vornherein: verzeih den harrschen Ton, aber unser beider Naturell ist eben eine hitzige Diskussion :popcorn:


Man, lese doch was ich geschrieben habe.
"Ist klar, dass wenn man voll auf eine Grafikkarte optimiert, die andere drunter leidet."
Bei nur einem Pfad(und gleichen Shadern) ist es einfach unmöglich aus 2 Karten mit so unterschiedlichen Architekturen das Optimum rauszuholen. Noch mehr, je näher man mit einer Karte am Optimum ist, desto mehr leidet die andere. Je unterschiedlicher die Architektur, desto mehr.
Jetzt gepeilt?

Ja ich gebe zu, ich begehe einen komplizierten Weg... Ich wollte abchecken, ob du bedacht hast, daß eben erstmal nur ein Pfad benutzt wird. :D Dabei denke ich selbst jedoch, daß JC nicht bewußt auf den NV40 hingearbeitet hat und daher den neuen ATis in den Arsch getreten hat, wenn eben grob über den Daumen 4 Chipreihen (NV3X, R3XX, NV4X, R4XX) mit dem Renderpfad klarkommen müssen. Der Mittelweg machts doch schließlich, gelle? Und ich denke nicht, daß bei NV3X und R3XX ein solcher relativer Gleichstand passierte, weil eben NV3X und NV4X so ähnlich wären, dabei aber der Hauptfokus auf dem NV4X lag, sondern einfach, weil auch der NV3X im Vergleich zum R3XX analog zum Duell der Neuen z.B. jenen Z-Füllratenvorteil bietet.
Also unter den gegebenen Vorraussetzungen... welche Chipreihe hat deiner Meinung nach den größten Optimierungspart abbekommen und wenn überhaupt eine, dann warum? Ich denke keine, warum auch?


Nichts anderes wollte ich mit meiner Aussage andeuten.

OK, dann Misverständnis. Ich nahm an, du wolltest aussagen, der NV40 hätte die volle "Hinprogrammierung" erhalten.

MadManniMan
2004-09-07, 15:19:14
Muss er doch gar nicht ;) So wie´s jetzt aussieht ist das Aufgabe von NV´s Treiber "Optimierer" Team selbst :rolleyes:

id spendierte allen "~DX9" Karten den schönen Renderpfad ARB2, nun liegt es an den IHVs, ihre Treiberteams an die vertretbare, letztendliche Feinoptimierung zu schicken - was ist daran so falsch?

MikBach
2004-09-07, 15:56:45
Also unter den gegebenen Vorraussetzungen... welche Chipreihe hat deiner Meinung nach den größten Optimierungspart abbekommen und wenn überhaupt eine, dann warum? Ich denke keine, warum auch?

Sehe das so wie mrdigital:
"nV hat ein schönes Stück Technik gebaut und Carmack mag Technik. Da haben sich einfach die richtigen gefunden und das ist doch gut wie oft soll ich das denn noch sagen?"
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2185999&postcount=164
Deswegen denke ich, dass JC "automatisch" in Richtung NV40 geproggt hat, obwohl er es vielleicht gar nicht wollte.

BTW mrdigital, nette Story. Ich konnte mir einen Lacher nicht verkneifen.

MadManniMan
2004-09-07, 16:31:11
Deswegen denke ich, dass JC "automatisch" in Richtung NV40 geproggt hat, obwohl er es vielleicht gar nicht wollte.

Warum kommt dann aber ein NV3X "untypisch" gut weg im Vergleich zu einem sonst überlegenen R3XX, wo doch der NV40 ein ganz neues Stückchen HW ist?

Ich persönlich sehe eher eine gleichgewichtige und anhand ihrer Eigenarten nicht untypische Performance bei R3XX, NV3X und R420, lediglich der NV40 macht einen Ausreißer nach oben - wobei ich mir die Vorteile durch die passende Architektur gut erklären kann :)

MikBach
2004-09-07, 16:44:01
Warum kommt dann aber ein NV3X "untypisch" gut weg im Vergleich zu einem sonst überlegenen R3XX, wo doch der NV40 ein ganz neues Stückchen HW ist?

Ähm, weil das 2.a-Profil näher an SM3.0 als an SM2.0 dran ist.
Genaueres kann wahrscheinlich nur JC berichten. ;)

MadManniMan
2004-09-07, 16:57:39
Ähm, weil das 2.a-Profil näher an SM3.0 als an SM2.0 dran ist.
Genaueres kann wahrscheinlich nur JC berichten. ;)

Hehe, nich rausreden :D Du mußt mir schon erklären, wie JC zum NV40 hin- und vom R420 wegprogrammieren kann, wenn sich dabei NV30 und R300 auch noch gut schlagen - und das trotz des selben Renderpfades.

Ich wiederhole gern meine Annahme: der NV40 ist regelrecht auf Doom³ und ähnliches hingebaut und rockt deshalb dort die Bude, andererseits sind die anderen Chips immernoch gut, ohne unverhältnismäßig schlecht zu sein.

Jesus
2004-09-07, 17:17:55
Warum kommt dann aber ein NV3X "untypisch" gut weg im Vergleich zu einem sonst überlegenen R3XX, wo doch der NV40 ein ganz neues Stückchen HW ist?

Shaderreplacement. Es war auch nicht immer so ...

Seraf
2004-09-07, 17:33:34
Shaderreplacement. Es war auch nicht immer so ...


Es kann "nur" Shaderreplacement sein... :ucoffee:
Schwache Argumentationskette.

Und selbst wenn. Aus zahlreichen Artikeln wissen wir doch das der Nv30 sehr sensibel gegenüber dem Aufbau der Shader ist und der R300 nicht. Ist es dann nicht legitim für den Hersteller die Programmierung auf den "optimalen Pfad" zu führen damit das Nv30 Baby auch die richtigen Happen bekommt?

MadManniMan
2004-09-07, 18:07:22
Shaderreplacement. Es war auch nicht immer so ...

:| Woher weißt du, daß das stimmt? Und woher weißt du - wenn es denn so ist -, daß die Gegenseite nicht äquivalent handelt?

Bitte poste doch ein wenig nachvollziehbarer, soll heißen präsentiere Fakten als solche, wenn es auch wirklich nachweisbare und nachgewiesene Dinge sind und/oder kennzeichne deine Meinung als solche. So einsilbig agierst du imho polarisierend.

Quasar
2004-09-07, 18:19:56
Ähm, weil das 2.a-Profil näher an SM3.0 als an SM2.0 dran ist.
Genaueres kann wahrscheinlich nur JC berichten. ;)

Meinst du wirklich, JC hat seine Shader mit dem HLSL-Compiler und verschiedenen DX-Zielprofilen erstellt?

Wenn ja: Wie kriegt seine OpenGL-Engine dann die DirectX-Shader verdaut?

MadManniMan
2004-09-07, 18:49:10
Meinst du wirklich, JC hat seine Shader mit dem HLSL-Compiler und verschiedenen DX-Zielprofilen erstellt?

Wenn ja: Wie kriegt seine OpenGL-Engine dann die DirectX-Shader verdaut?

;D Geil! :D

Also Mik, fällt dir nochwas dazu ein oder muß ich dich dazu zwingen, das so zu sehen wie ich: das Einzige, was man id vorwerfen man ist das Design des Spiels auf jene Grafikausgabe, sowie der Verzicht auf spezielle Renderpfade für ARB2-fähige Chips.

;)

Jesus
2004-09-07, 19:03:39
:| Woher weißt du, daß das stimmt? Und woher weißt du - wenn es denn so ist -, daß die Gegenseite nicht äquivalent handelt?

Bitte poste doch ein wenig nachvollziehbarer, soll heißen präsentiere Fakten als solche, wenn es auch wirklich nachweisbare und nachgewiesene Dinge sind und/oder kennzeichne deine Meinung als solche. So einsilbig agierst du imho polarisierend.

hm da muss ich überlegen, und ein paar Seiten zurück blättern:

- NV sagt sie tun es (wenns nötig ist)
- JC sagt sie tun es (vermutlich)

ihr dürft mir nicht glauben, aber den beiden sollte man in diesem Fall vertrauen können ;)

Obs die Gegenseite auch tut ( was sie ja wohl tut wenn man Humus in diesem Fall als Shaderreplacement ansieht, der wohl (u.a.) in den nächsten Treiber wandern wird ) ist mir egal.

MadManniMan
2004-09-07, 19:16:18
Und was führt bei dir jetzt davon zu dem Schluß, daß die NV3X "unrechtmäßig" eine gute Leistung erreichen?

Riipa
2004-09-07, 19:39:11
Sonst gäbe es ja nichts zu meckern und zu spekulieren an Nv. Und das wäre ja nun wirklich untragbar. Ergo muss es einfach so sein, dass sie etwas nicht legitimes machen. :)

So ungern ich den Focus mag, aber hier sollte man einigen Leuten mal ins Stammbuch schreiben: "Fakten, Fakten, Fakten - und immer an die Leser denken." Dieser Brei aus Interpretation, Halbwissen und Vorurteilen ist einfach nur nervig.

Quasar
2004-09-07, 19:52:06
hm da muss ich überlegen, und ein paar Seiten zurück blättern:
- NV sagt sie tun es (wenns nötig ist)
- JC sagt sie tun es (vermutlich)
Korrektur:
NV sagt sie würden es wieder tun, wenn ein weiterer Patch zum 3DMark03 erscheint, falls du auf dieses (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2213560&postcount=133) Posting anspielst.

JC sagt, sie tun es vielleicht. X-D Nicht "sie tun es (vielleicht)....


ihr dürft mir nicht glauben,[..]

Keine Sorge, tut sicherlich kaum jemand.
X-D
*SCNR*

Gast
2004-09-07, 20:20:28
Keine Sorge, tut sicherlich kaum jemand.
X-D
*SCNR*

Das ist auch besser so.
X-D

MikBach
2004-09-07, 20:50:12
Meinst du wirklich, JC hat seine Shader mit dem HLSL-Compiler und verschiedenen DX-Zielprofilen erstellt?

Wenn ja: Wie kriegt seine OpenGL-Engine dann die DirectX-Shader verdaut?
Da habe ich nicht das rübergebracht, was ich wollte(war kurz vor Feierabend und ich wollte noch mal schnell was hinklatschen).
Und Manni fährt natürlich drauf ab wie Schmitt´s Katze. Doch ein persönlicher Feldzug?
Ich meinte natürlich die Hardwareseite. Das heisst, das die Harware der FX, was die Möglichkeiten angeht, viel näher an den Möglichkeiten des NV40 als des R300 liegt.
Ich hab den Code ja nicht gesehen, aber wahrscheinlich werden NV-spezifische OGL_Extensions benutzt, welche bei der FX doch einiges an Speed bringen.(Vielleicht werden die FX12-Einheiten angesprochen)
Wenn ich ehrlich bin, habe ich mir noch keinen Kopf drüber gemacht, warum die FX in Doom3 relativ gut abschneidet. JC meinte ja schon vor einiger Zeit, dass die FX5900 und die R9800 in etwa gleich schnell sein werden. Das habe ich einfach so hingenommen.
Sollte ATI mit dem Shaderreplacement Erfolg haben und dann schneller sein als die FX, war die ganze Diskussion über die FX umsonst und ihr(Quasar und MMM) schaut dann dumm aus der Wäsche ;)

Quasar
2004-09-07, 20:57:42
Wieso sollte ich dann noch dümmer aus der Wäsche schauen, als jetzt?

edit:
BTW, was denkst du: Warum schimpft sich der genutzte Pfad "ARB2-Pfad"?

MadManniMan
2004-09-07, 21:40:24
Nö, dann hätte halt ATi durch Replacements perfekt was auf sich zugecodet* - ich würde mich für meine Radeon 9500 Pro freuen =) Und wie Q schon sagte: ARB2 = ARB2 weil nix ARB2 = NV40-Pfad + NV30-Pfad + R300-Pfad ... etc. etc. ;)

-> "Ich hab den Code ja nicht gesehen, aber wahrscheinlich werden NV-spezifische OGL_Extensions benutzt, welche bei der FX doch einiges an Speed bringen.(Vielleicht werden die FX12-Einheiten angesprochen)" ...errm, nay ;)

Und auch nay: kein Feldzug! Was würde mir das hier nützen? Ich nehme das ganze hier - als mein Hobby - viel zu wenig Ernst, um irgendjemandem in den Arsch treten zu wollen. Sie den Post da oben nicht als Bösartigkeit, sondern als kumpelhaft gemeinte Stichelei!

* wovon ich nicht ausgehe, da Carmack schon den NV30-Pfad gekippt hat, weil ARB2 gleichschnell war, zudem maß Carmack der Humus-Affäre nicht eine solche Gewichtung zu, er war eher überrascht über die Auswirkungen...

Gast
2004-09-07, 22:27:10
Es würde mich mal interessieren ob JC noch entsprechend angepasste Pfade nachliefert. Falls ja müssten da noch einige Chips volle Kanne abgehen und man könnte vor allem im Bezug auf die "SM3 ist nur ein nettes Feature was im Moment keiner braucht" Diskussion sehen was wirklich damit möglich ist falls die Engine es zulässt. DAS würde meiner Meinung nach einen positiven Schub in Richtung SM3-Benutzung bei anderen Spieleschmieden bringen. Was wünschenswert wäre wenn dadurch die User ATI auf den Pelz rücken so das der R520 'schneller' fertig wird :)

MadManniMan
2004-09-07, 22:31:52
Es würde mich mal interessieren ob JC noch entsprechend angepasste Pfade nachliefert. Falls ja müssten da noch einige Chips volle Kanne abgehen und man könnte vor allem im Bezug auf die "SM3 ist nur ein nettes Feature was im Moment keiner braucht" Diskussion sehen was wirklich damit möglich ist falls die Engine es zulässt. DAS würde meiner Meinung nach einen positiven Schub in Richtung SM3-Benutzung bei anderen Spieleschmieden bringen. Was wünschenswert wäre wenn dadurch die User ATI auf den Pelz rücken so das der R520 'schneller' fertig wird :)

Ganz davon ab, daß ich das persönlich nicht glaube, aber meine Spekulation möchte ich ja niemandem aufdrängen:

Vermenge OpenGL nicht mit irgendwelchen SMs! Wenn überhaupt verschiedene Pfade benützt würden, dann hätten diese herzlich wenig mit verschiedenen Shader Models tun :)

Gast
2004-09-07, 22:42:41
Ganz davon ab, daß ich das persönlich nicht glaube, aber meine Spekulation möchte ich ja niemandem aufdrängen:

Vermenge OpenGL nicht mit irgendwelchen SMs! Wenn überhaupt verschiedene Pfade benützt würden, dann hätten diese herzlich wenig mit verschiedenen Shader Models tun :)

Uhmm hast Recht, mache es aber der hmm "Einfachheit" halber da sich wahrscheinlich doch einige mehr unter SM3 vorstellen können als unter ARB2 und die entsprechenden Pfade. :)

Extensions schön und gut aber die Extensions gehen wahrscheinlich doch über das was DX9 verlangt hinaus?? Wenn ich falsch liege bitte korrigieren :)

Sorry

MadManniMan
2004-09-07, 22:49:39
Uhmm hast Recht, mache es aber der hmm "Einfachheit" halber da sich wahrscheinlich doch einige mehr unter SM3 vorstellen können als unter ARB2 und die entsprechenden Pfade. :)

Nasja, grundsätzlich neige ich schon genauso dazu, auch für OpenGL von SM3 zu reden - zur Not kann man noch "-Pendant" oder "-Äquivalent" hinten dran hängen, aber in diesem speziellen Fall gings ja um Doom3 und da sind die SMs arg unwichtig, da bei speziellen Pfaden eher Rücksicht auf architektonische Feinheiten gelegt würde. Ich bezweifle gar, daß SM>2.0 überhaupt was bringen würde - längere Instruktionen? Hm, Passreduktin bei den kurzen Shadern? GI? Dynamic Flow Control? ... Naja ;)


Extensions schön und gut aber die Extensions gehen wahrscheinlich doch über das was DX9 verlangt hinaus?? Wenn ich falsch liege bitte korrigieren :)

Sorry

Kein Grund, sich zu entschuldigen! Aber zu den Extensions fragen wir doch besser Leute wie Coda, zeckensack oder Simon... ;)

Jesus
2004-09-07, 23:18:04
Korrektur:
NV sagt sie würden es wieder tun, wenn ein weiterer Patch zum 3DMark03 erscheint, falls du auf dieses (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2213560&postcount=133) Posting anspielst.

ahja, sie haben also ein Team von Treiberoptimierern die sich ausschliesslich um Shaderreplacement beim 3dmark 03 kümmern ?

JC sagt, sie tun es vielleicht. X-D Nicht "sie tun es (vielleicht)....

ich seh da jetzt nicht wirklich einen Unterschied, aber egal. Toll wie du immer wieder vom Kern einer Aussage ablenken kannst, nur weil sie dir nicht passt.

Also nochmal, JC , der Gott für Nvidianer "glaubt" dass NV Shaderreplacement betreibt, begründet das auch völlig logisch, aber das ist noch lange kein Beweis ? Wer solls denn dann "beweisen" ? ich ? :rolleyes:


Keine Sorge, tut sicherlich kaum jemand.
X-D
*SCNR*

das zu kommentieren erspar ich mir mal, kann jemand anders machen.

aths
2004-09-07, 23:41:21
Ähm, weil das 2.a-Profil näher an SM3.0 als an SM2.0 dran ist.
Genaueres kann wahrscheinlich nur JC berichten. ;)Woanders liest man von dir, dass man von Shaderversionsnummern nicht auf die Performance schließen sollte. Dass die DX9/ARB2-Pixel/Fragmentshader-"Grundperformance" auf NV3x ziemlich schwach ist, steht außer Frage. Trotzdem liegt z. B. NV35 nicht hinter R350, eher vor ihm. Daraus folgere ich erst mal, dass bei Doom3 die Fragmentshader bei diesen Chips nicht den Flaschenhals darstellen.

Das heißt dann natürlich auch, Jesus, dass Shaderreplacement nur vergleichsweise wenig bringen kann. Humus' 40% sind ja bekanntlich eher ~ 15%. Die taktnormalisiert ca. 40% Vorteil für NV40 vs. R420 wird NV kaum durch Shaderreplacement erreichen können.

Riipa
2004-09-07, 23:56:01
@Jesus: Du solltest eventuell anfangen mit "denken". Ich weiss, am Anfang ist das schwer und kann auch zu schmerzhaften Effekten führen. Ich weiss auch , dass es furchtbar "out" ist und man ohne Nachdenken viel beschwingter durchs Leben kommt, aber wenn man in einem Forum posten möchte und anderen Menschen seine Meinung aufdrängen will, dann macht es sich doch manchmal ganz gut kein so offensichtlicher non-thinking-consumer zu sein.

Also nochmal, extra für die langsameren Mitleser: Es steht eine Behauptung im Raum, dass Shader ausgetauscht werden. Dies ist bei Nvidias Optimierungsstrategie nicht unwahrscheinlich, aber keiner kann genau sagen, ob die ersetzten Shader zu gleichwertigen Ergebnissen oder zu minderwertigen Ergebnissen (schlechtere BQ) führen. Das Ersetzen von Shadern an sich beweist erstmal garnichts, ausser dass Shader ersetzt werden. Ob damit gecheatet wird ist eben nicht durch irgendeine Aussage oder durch irgendwelche Fakten gegeben.

Dass JC der Gott der Nvidianer ist, halte ich für ein Gerücht. Er HAT mit Sicherheit Jünger, aber die haben imho nichts mit irgendwelchen Marken zu tun, sondern eher mit Spielen wie Hundefels3D, Doom, Quake und Quake 3 zu tun, denn mit diesen Engines hat der Mann die Darstellung in Computerspielen jeweils um Jahre vorangetrieben und für Jahre geprägt.
Er hat sich geäussert, dass sein Spiel auf einer bestimmten Hardware am besten läuft und welche Karte ihn persönlich aktuell beeindruckt und zum Leidwesen einiger Hardcorefans war es nicht _ihre_ Marke. Hat er für diese Aussage Kohle genommen? Hmm, möglich, aber ich glaube es nicht wirklich, denn die Summe, die man braucht um einen scheissreichen Typen wie JC zu kaufen wird wohl nicht mal Nv aufbringen wollen. Aber ehrlichgesagt ist das auch gar nicht so wichtig, denn Tatsache ist, dass alle hier im Forum anwesenden Coder keine Anzeichen auf besonders auf Nv-Hardware optimierte Programmierung oder gar absichtliches Ausbremsen von ATI-Hardware in den Shadern finden konnten und das ist das Wichtigste.

Seraf
2004-09-07, 23:57:14
ahja, sie haben also ein Team von Treiberoptimierern die sich ausschliesslich um Shaderreplacement beim 3dmark 03 kümmern ?


ich seh da jetzt nicht wirklich einen Unterschied, aber egal. Toll wie du immer wieder vom Kern einer Aussage ablenken kannst, nur weil sie dir nicht passt.

Also nochmal, JC , der Gott für Nvidianer "glaubt" dass NV Shaderreplacement betreibt, begründet das auch völlig logisch, aber das ist noch lange kein Beweis ? Wer solls denn dann "beweisen" ? ich ? :rolleyes:



das zu kommentieren erspar ich mir mal, kann jemand anders machen.


Worauf willst du eigentlich hinaus?
Hast du Vergleichsshots die aufzeigen das auf der NV30 schlechtere Bilder entstehen als auf der R300 oder was?
So wie ich das sehe würde sich die Mehrzahl freuen wenn der IHV sich darum kümmert das Spiele besser laufen. Und ob NV das wirklich macht kannst du nicht beweisen. JC vermutet es nur. JC vermutet aber auch das ATI Filtertricks anwendet wegen anderen Benchmarkwerten mit eingefärbten Mipmaps. Also sehr sehr schwammig was JC da abgibt.

FPSn00b
2004-09-08, 00:54:54
@Jesus


Korrektur:
NV sagt sie würden es wieder tun, wenn ein weiterer Patch zum 3DMark03 erscheint, falls du auf dieses Posting anspielst.

ahja, sie haben also ein Team von Treiberoptimierern die sich ausschliesslich um Shaderreplacement beim 3dmark 03 kümmern ?

Daß Shaderreplacements eingesetzt und daß die 3DMark03-Shader ersetzt werden, sind in dem von mir zitierten Text IMO nur zwei voneinander unabhängige, sich ergänzende Aussagen.
I also have text from an MSN converstaion with Derek Perez who openly stated that part of their compiler optimisers task is to "replace shaders where they feel they need to" (I wasn't going to get into a discussion with him about what a compiler actually is), and that they would keep replacing shaders in their drivers every time 3DMark issues another patch to defeat their detections.

JC sagt, sie tun es vielleicht. Nicht "sie tun es (vielleicht)....
ich seh da jetzt nicht wirklich einen Unterschied, aber egal. Toll wie du immer wieder vom Kern einer Aussage ablenken kannst, nur weil sie dir nicht passt.
Ack.
BTW "dictionary.reference.com" umschreibt JCs "probably" mit "Most likely; presumably", im Prinzip würde ich deshalb sogar "warscheinlich", oder "es ist anzunehmen/davon auszugehen" schreiben. (Vorrausgesetzt Du beziehst Dich auch dieses Zitat.) :)

@Rest
Wäre doch schon mal ein Fortschritt, wenn aufgrund der drückenden Beweislast (s. z.B. Derek Perez Aussage) allgemein akzeptiert werden würde, daß nVidia je nach Bedarf Shaderreplacements einsetzt. (Ob das bei Doom3 auch der Fall ist, ist dann zwar immer noch nicht sicher, aber zumindest _anzunehmen_. Ob die mutmaßlichen Ersatzshader bei Doom3, oder in anderen Fällen eine verringerte Bild-Qualität, als die originalen liefern, ist wohl auch unklar - deshalb: Keine Panik!)
Solange vorhandenes Shaderreplacent von einigen noch generell in Frage gestellt, oder eben nur in einem Fall (3DMark03) für stimmig befunden wird und der Thread weiter mit extremem "Guerilla-Posting" vermüllt wird (wovon ich mich auch nicht ausnehme), können wir hier IMO nicht weiterkommen und der Thread kann genausogut geschlossen werden.

FPSn00b
2004-09-08, 01:06:02
Oops, habe mich vertippt:
1. (Vorrausgesetzt Du beziehst Dich auch auf dieses Zitat.)
2. eine geringere Bild-Qualität, als die originalen liefern
3. "Guerilla-Posting" -> "Partisanen-Posting"
Könnte das bitte ein Mod für mich nachbessern?

Ice =A=
2004-09-13, 15:56:12
Von einem anderen Thread angeregt, möchte ich mal noch folgendes (als "Legitimation" des Austauschens von Shaderbefehlen) zitieren:

Ich halte es zumindest für möglich, daß die Grafikkarten von nVidia und ATI im Zuge der ständig und sehr schnell wachsenden Komplexität recht verschiedene Richtungen in der grundsätzlichen Design-Philosophie eingeschlagen haben. Dann wäre es sehr aufwändig für einen Spielehersteller, auf die verschiedenen Hardwarerezepte zu optimieren, hingegen sehr einfach, einen "Standardshaderbefehl" zu verwenden, den dann die Grafikkartenhersteller automatisch durch einen andern ersetzen können, den ihre jeweiligen Designs am schnellsten abarbeiten können. Es wäre also die Optimierung immer mehr auf die Seite der Grafikkartenhersteller verschoben, was eigentlich auch Sinnn macht, denn die kennen Ihre Hardware einfach am besten, oder?!?
P.S.:
Mit dem "Ersetzen" meine ich natürlich das Ersetzen durch einen mathematisch völlig (!) äquivalenten Shader!!!

P.P.S.:
Wegen dem Betrug von nVida damals mit dem 3DMark fühle ich mich trotzdem immer noch nicht ganz wohl mit Shaderreplacements... :frown:

aths
2004-09-13, 18:01:15
Von einem anderen Thread angeregt, möchte ich mal noch folgendes (als "Legitimation" des Austauschens von Shaderbefehlen) zitieren:

Ich halte es zumindest für möglich, daß die Grafikkarten von nVidia und ATI im Zuge der ständig und sehr schnell wachsenden Komplexität recht verschiedene Richtungen in der grundsätzlichen Design-Philosophie eingeschlagen haben. Dann wäre es sehr aufwändig für einen Spielehersteller, auf die verschiedenen Hardwarerezepte zu optimieren, hingegen sehr einfach, einen "Standardshaderbefehl" zu verwenden, den dann die Grafikkartenhersteller automatisch durch einen andern ersetzen können, den ihre jeweiligen Designs am schnellsten abarbeiten können. Es wäre also die Optimierung immer mehr auf die Seite der Grafikkartenhersteller verschoben, was eigentlich auch Sinnn macht, denn die kennen Ihre Hardware einfach am besten, oder?!?
P.S.:
Mit dem "Ersetzen" meine ich natürlich das Ersetzen durch einen mathematisch völlig (!) äquivalenten Shader!!!

P.P.S.:
Wegen dem Betrug von nVida damals mit dem 3DMark fühle ich mich trotzdem immer noch nicht ganz wohl mit Shaderreplacements... :frown:Imo muss die Frage moralisch gesehen werden.

Der Kunde profitiert ja beim Doom3 von handoptimiertem Shader-Replacement. Dennoch halte ich dies für verwerflich. Denn damit wird eine verzerrte Darstellung von der "echten" Leistung gegeben. Der Optizimizer (etwas mehr zum Thema in einem Artikel der bald erscheint) macht, was er kann. In Doom3 werden vielleicht noch andere Dinge genutzt, die ein Shader-Optimizer prinzipiell nicht sehen kann. Es ist aber nicht NVs Aufgabe, die Doom3-Performance durch Handoptimierung zu verbessern. Das ist die Aufgabe des Entwicklers.

ID will die Engine verkaufen. Also soll ID dafür sorgen, dass sie entsprechend das aus der Hardware rausholt, was drin ist. Wenn Kompromisse eingegangen werden, um nicht für jeden einzelnen HW-Chip einen Codepath zu haben ist das natürlich auch ok. Nicht ok ist es imo, wenn das durch Handoptimierung berichtigt wird. Die Folge: Massenspiele laufen schnell, die Performance bei weniger gut verkauften Spielen wird vernachlässigt.

Ein Treiber sollte immer genau das tun, was die Applikation verlangt. Generelle Shader-Optimierung ist immer ok. Handoptimierung ist imo schädlich für die Markttransparenz, und schädigt damit auch den Käufer (Stichwort Desinformation.)

zeckensack
2004-09-13, 18:24:42
Generelle Shader-Optimierung ist immer ok. Handoptimierung ist imo schädlich für die Markttransparenz, und schädigt damit auch den Käufer (Stichwort Desinformation.)Mein Standpunkt war und ist, dass wenn die Leute bei NVIDIA erfolgreich von Hand optimieren können, dann müssen sie ja wissen, welche Regeln dabei anzuwenden sind. Anstatt nun einzelne Titel spezifisch zu bearbeiten, sollten sie ihre Energie lieber darauf konzentrieren, dieses Optimierungsregelwerk formell zusammenzutragen, in Software zu übertragen, und dieses letztendlich in den Treiber einzubauen.

Davon würden alle Titel profitieren. In Einzelfällen mag die Handoptimierung höhere Leistung bringen, aber das wäre letztlich nur ein Anzeichen dafür, dass das Regelwerk noch nicht komplett ist, und weiter verfeinert werden kann.

Trotzdem ist es auf Dauer die sinnvollste und auch ökonomischste Lösung. Ich würde ein paar Prozent weniger Leistung in den "Toptiteln" dafür gerne in Kauf nehmen.

Jesus
2004-09-13, 18:59:30
Mein Standpunkt war und ist, dass wenn die Leute bei NVIDIA erfolgreich von Hand optimieren können, dann müssen sie ja wissen, welche Regeln dabei anzuwenden sind. Anstatt nun einzelne Titel spezifisch zu bearbeiten, sollten sie ihre Energie lieber darauf konzentrieren, dieses Optimierungsregelwerk formell zusammenzutragen, in Software zu übertragen, und dieses letztendlich in den Treiber einzubauen.

Davon würden alle Titel profitieren. In Einzelfällen mag die Handoptimierung höhere Leistung bringen, aber das wäre letztlich nur ein Anzeichen dafür, dass das Regelwerk noch nicht komplett ist, und weiter verfeinert werden kann.

Trotzdem ist es auf Dauer die sinnvollste und auch ökonomischste Lösung. Ich würde ein paar Prozent weniger Leistung in den "Toptiteln" dafür gerne in Kauf nehmen.

naja oder sie optimieren ganz einfach so wie man´s nicht sollte, nämlich durch detailreduzierung, einfachere Berechnungen etc. Das wär dann auch ne erklärung dafür wieso mans nicht öffentlich macht.

Die Frage ist nur ob man Unterschiede sieht und wo.

aths
2004-09-13, 19:04:56
naja oder sie optimieren ganz einfach so wie man´s nicht sollte, nämlich durch detailreduzierung, einfachere Berechnungen etc. Das wär dann auch ne erklärung dafür wieso mans nicht öffentlich macht.

Die Frage ist nur ob man Unterschiede sieht und wo. Soweit ich weiß, wird beim NV-Shaderreplacement in Doom3 das Endresultat nicht* verändert.

* ± 1 Bit sind prinzipiell "zulässig".

r@h
2004-09-13, 21:39:56
Ein Treiber sollte immer genau das tun, was die Applikation verlangt. Generelle Shader-Optimierung ist immer ok. Handoptimierung ist imo schädlich für die Markttransparenz, und schädigt damit auch den Käufer (Stichwort Desinformation.)Dem kann ich leider nicht so ganz zustimmen.

Ich finde diese Eigenart der 'Reviewer' sowieso eigenartig, die Performance in einem Game oder App gleich auf eine generelle Aussage hinaus laufen zu lassen. Die Performance in einem Game sagt genau das aus, was es auch sagt, die Performance in diesem Game... nicht mehr aber auch nicht weniger.

Genauso verhält es sich allerdings mit Dingen wie den Murksern oder diesbezüglichen Ablegern.
Ein Murks03-'Ergebnis' sagt ebenfalls nichts anderes aus... die Performance in dieser App.
(auch wenn FM uns gerne was anderes einreden möchte ;-)

-

Optimierungen, die die BQ nicht negativ beeinflussen, sind per se "gut"...
...weil sie dem Enduser einen Mehrwert geben.

Wenn Reviewer was anderes daraus machen, dann ist dieser 'Betrag' am Kunden aber ganz sicher nicht den IHV's zuzuschreiben... wenngleich diese aber selbstverständlich diesen Umstand für sich nutzen und in ihr Marketing integrieren. Sie wären ja auch "schön blöd", wenn sie es nicht tun würden...

Klar wäre es besser, überall eine gute bis sehr gute Performance zu erhalten, aber das kann - wie zeckensack ja schon sagt - nur über die Einzeilschritte kommen. Ein Regelwerk also, was ja erst erstellt werden kann, wenn man die unterschiedlichsten Ausprägungen der Basis 'kennt'. Insofern kann es also gut sein, dass irgendwann auch die Doom3-spezifischen Optimierungen weg fallen und durch generelle 'Regeln' ersetzt werden, wenn es eine Basis dafür gibt.

-

Ansonsten sind mir weitere Spiele auf Basis der Doom3-Engine gänzlich ungbekannt.
Oder habe ich da irgendetwas verpaßt?

Razor

aths
2004-09-13, 21:45:05
Optimierungen, die die BQ nicht negativ beeinflussen, sind per se "gut"...
...weil sie dem Enduser einen Mehrwert geben.Der größere Wert besteht in größerer Transparenz, sowie einem Treiber, der gleichmäßig gut ist. Das was NV in die Doom3-Optimierung steckt, fehlt woanders.

Optimierungen die die BQ nicht beeinflussen sind nicht grundsätzlich gut. Ansonsten wäre es ja legal, z. B. bei Shadermark-Screenshots einfach vorberechnete Bilder anzuzeigen statt das Bild tatsächlich zu rendern. NVs Vorgehen bei Doom3 ist nicht in Schutz zu nehmen.

Piffan
2004-09-13, 21:52:29
Ein Treiber sollte immer genau das tun, was die Applikation verlangt. Generelle Shader-Optimierung ist immer ok. Handoptimierung ist imo schädlich für die Markttransparenz, und schädigt damit auch den Käufer (Stichwort Desinformation.)

Ack!
Die Handoptimierung bringt Vorteile für ein bestimmtes Spiel, führt aber den Käufer aufs Glatteis.
Wenn ich ne neue Karte kaufe, dann kaufe ich die ja nicht für ein bestimmtes Spiel (Progamer bilden vielleicht ne Ausnahme).

Godmode
2004-09-13, 21:55:00
Doom3 ist halt für Nvidia das Prestigegame schlechthin, aber wie aths sagt fehlen diese Optimierungs Resourcen dann vielleicht bei anderen Games.

Piffan
2004-09-13, 21:58:51
Ich als Kunde würde lieber ne Karte haben, die anspruchslos bezgl der Shader ist. Eine, die alles futtert, was man ihr vorsetzt.
Wenn die Performance stark einbricht, wenn Spieleentwickler Shader austauschen, dann werde ich als Kund wach. Dann muss ich doch befürchten, dass manche Spiele auf dieser "sensiblen" Karte gar nicht so berühmt laufen. Schlimmer noch: Dass Kartenhersteller und Spielentwickler einen schmutzigen Deal abschließen, der die Karten der Konkurrenz mit einem großen Handicap belegt....

Wenn Ati durch Shaderraplacement bei Doom zu NV aufschließen oder überholen könnte, wäre es ein wirklich schwerer Schlag für NV.....

r@h
2004-09-13, 22:03:29
Wenn Ati durch Shaderraplacement bei Doom zu NV aufschließen oder überholen könnte, wäre es ein wirklich schwerer Schlag für NV.....Tun sie doch...
Offenbar aber nur mit mäßigem Erfolg.

Interessant fand' ich den Humus-'Patch' für Doom3, der bei nVidia-Karten (speziell meiner ;-) im unoptimiertien Scenario offenbar mehr Peroformance bringt, als bei den ATI's.

Razor

aths
2004-09-13, 22:05:49
Wenn Ati durch Shaderraplacement bei Doom zu NV aufschließen oder überholen könnte, wäre es ein wirklich schwerer Schlag für NV.....Taktnormalisiert ist der NV40 aufgrund seiner Leistungsmerkmale auf jeden Fall die bessere Doom3-Karte, als R420. Doch 25 - 30% Mehrtakt sind kein Pappenstiel. Ich glaube nicht, dass R420 den NV40 überholt, aber angesichts des Mehrtaktes kann R420 wahrscheinlich ziemlich gut aufschließen – wenn ATI einen Weg findet, den Treiber speziell für Doom anzupassen. Interessanter wird imo das Duell Radeon 9700/9800 vs. GeForce FX 5900. Setzt man voraus, dass für die FXen ebenfalls heftig optimiert wurde (man denke auch an das Potenzial, welches FX12-Berechnungen erlauben würden! ARB2 selbst gestattet FX12 nicht. Kümmert NV das? Wer weiß ...) könnte die Radeon die FX vielleicht in die Tasche stecken.

r@h
2004-09-13, 22:10:39
Der größere Wert besteht in größerer Transparenz, sowie einem Treiber, der gleichmäßig gut ist. Das was NV in die Doom3-Optimierung steckt, fehlt woanders.Und wo zum Beispiel?
Theoretisch mag das ja stimmen, aber wo ist der praktische Beleg?
:confused:

Über die Performance meiner guten alten FX5900 kann ich mich beim besten Willen nicht beschweren.
OK, ich bin auch reichlich anspruchslos...
...begnüge mich mit einer Auflösung von 1024 und mir reichen (derzeit ;-) 2xAA mit 4°AF.

Und ich muss ganz ehrlich sagen, dass ich es ausgesprochen gut finde, wie mein Kärtchen bei Doom3 performt, ganz egal ob es irgendwelche Dau-Käufer jetzt an der Nase herum führt, oder nicht. Richtig erschrocken war ich über die Performance, wie sie wohl ATI-User hinnehmen müssen, wenn sie den Humus-Patch nicht nutzen, denn offenbar behandelt JC ALLE Karten nicht gerade optimal und verschenkt so 'locker' 20%.

Wie dem auch sei, durch die nVidia-Optiomierungen habe ich persönlich satte 45% Mehrperformance.
Und das finde ich gut!

Razor

Gast
2004-09-13, 22:11:22
Der größere Wert besteht in größerer Transparenz, sowie einem Treiber, der gleichmäßig gut ist. Das was NV in die Doom3-Optimierung steckt, fehlt woanders.

Optimierungen die die BQ nicht beeinflussen sind nicht grundsätzlich gut. Ansonsten wäre es ja legal, z. B. bei Shadermark-Screenshots einfach vorberechnete Bilder anzuzeigen statt das Bild tatsächlich zu rendern. NVs Vorgehen bei Doom3 ist nicht in Schutz zu nehmen.
Ist ja wirklich toll, wie demonstrativ überparteilich Du jetzt nVidia kritisierst. ;)
Nur fehlt mir etwas die Selbstkritik, immerhin stammt von Dir ein Artikel, welcher die Technik der 6800 in den Himmel lobt, und jetzt das.
Übrigens wird nach Punkten innerhalb von Abkürzungen kein Leerzeichen eingefügt - Du plenkst!:D

r@h
2004-09-13, 22:13:52
Interessanter wird imo das Duell Radeon 9700/9800 vs. GeForce FX 5900. Setzt man voraus, dass für die FXen ebenfalls heftig optimiert wurde (man denke auch an das Potenzial, welches FX12-Berechnungen erlauben würden! ARB2 selbst gestattet FX12 nicht. Kümmert NV das? Wer weiß ...) könnte die Radeon die FX vielleicht in die Tasche stecken.Zumindest hat Humus bis dato dieses Ziel selbt mit absolut undokumentierten 'Kniffen' nicht erreicht.
Und ihm traue ich bei weitem mehr zu, als den ATI-Treiberproggern...

Razor

Jesus
2004-09-13, 22:38:20
Zumindest hat Humus bis dato dieses Ziel selbt mit absolut undokumentierten 'Kniffen' nicht erreicht.
Und ihm traue ich bei weitem mehr zu, als den ATI-Treiberproggern...

Razor

ich nicht ;) denn es ist "nur" ein Shader der hier (geringfügigst = 1 Zeile ) verändert wird, und kein an die Situation angepasstes Replacement wie es NV wohl schon seit längerem Betreibt.

Benchmarks und damit kaufentscheidende Argumente sind jetzt erstmal dahin, zumindest bis ATI was äquivalentes nachliefert. Aber selbst dann leidet die Vergleichbarkeit solange man nicht genau weiss was die Hersteller da vereinfachen bzw. optimieren.

Ich hoffe nur D3 ist das einzige Game, aber ich bezweifle es im Moment stark ( síehe FC TL-Lichtradius auf nv40 ...).

aths
2004-09-13, 22:43:38
Ist ja wirklich toll, wie demonstrativ überparteilich Du jetzt nVidia kritisierst. ;)
Nur fehlt mir etwas die Selbstkritik, immerhin stammt von Dir ein Artikel, welcher die Technik der 6800 in den Himmel lobt, und jetzt das.Die Technik ist, davon unberührt, sehr gut, und der R420-Technik überlegen. Aber die Doom3-Ergebnisse zeigen diese Vorteile weniger, als zunächst von mir angenommen. HL2 wird widersinnigerweise den R420 als besser (da schneller) dastehen lassen.

Übrigens wird nach Punkten innerhalb von Abkürzungen kein Leerzeichen eingefügtWo kann ich das nachlesen?

aths
2004-09-13, 22:46:59
Und wo zum Beispiel?
Theoretisch mag das ja stimmen, aber wo ist der praktische Beleg?Sag mir: Wie sollte ich beweisen können, dass ein gegebenens Spiel weniger Optimierungen abbekam, weil NV die Ressourcen lieber für Doom3 aufgewendet hat?

Der Gedankengang, dass bei dieser Konzentration auf einen Titel (bzw. auf wenige Top-Titel) der Rest leiden muss, ist doch nachvollziehbar, nicht?

Über die Performance meiner guten alten FX5900 kann ich mich beim besten Willen nicht beschweren.
OK, ich bin auch reichlich anspruchslos...Ich bin anspruchsvoll, aber mit der 5900 XT ebenfalls sehr zufrieden. Doch offensichtlich führt der Treiber nicht aus, was Doom verlangt, sondern was NV für richtig hält. Deinen privaten Vorteil bezüglich der Doom3-Performance in Ehren – ich versuche, das gesamte Bild zu sehen.

r@h
2004-09-13, 22:52:16
ich nicht ;) denn es ist "nur" ein Shader der hier (geringfügigst = 1 Zeile ) verändert wird, und kein an die Situation angepasstes Replacement wie es NV wohl schon seit längerem Betreibt.EINE Zeile?
Sag mal, wovon träumst Du denn?
:confused:

Quasar hat lediglich eine Zeile verändert (indem er 2 Zeichen hinzu fügte), aber Humus hat weit mehr getan, um die BQ nicht zum negativen zu verändern, wie es bei seinen ersten Verzuchen der Fall war...

Hier mal ein stark 'verkleinerter' Vergleich.
Man möge diesen selbst anstellen, wenn man sehen möchte, was genau sich da verändert hat!

http://mitglied.lycos.de/razor3dc/pics/Doom3_ShaderDiff_ATI.png
(links das original, rechts die letzte Version vom Humus-'Patch')

Benchmarks und damit kaufentscheidende Argumente sind jetzt erstmal dahin, zumindest bis ATI was äquivalentes nachliefert. Aber selbst dann leidet die Vergleichbarkeit solange man nicht genau weiss was die Hersteller da vereinfachen bzw. optimieren.Oh ja... und das gilt für alle IHV's!
Vielleicht bringt das die lieben 'Reviewer' ja endlich mal dazu, das eigene Vorgehen zu überdenken...

Razor

Jesus
2004-09-13, 22:53:59
hm dann war das wohl ne ältere Version die ich da im Hinterkopf hatte ;)

Allerdings bleibt mein Argument bestehen, denn das ist nur ein "dummes" Replacement, das an nichts angepasst wurde ausser an eine hardware spezifische Eigenschaft der ATI Karten.

r@h
2004-09-13, 23:05:42
hm dann war das wohl ne ältere Version die ich da im Hinterkopf hatte ;)Jup, das war die mir der miesen BQ!
:D

Razor

r@h
2004-09-13, 23:05:50
Sag mir: Wie sollte ich beweisen können, dass ein gegebenens Spiel weniger Optimierungen abbekam, weil NV die Ressourcen lieber für Doom3 aufgewendet hat?Das war der Grund, warum ich mich über Deine Aussage wunderte...

Der Gedankengang, dass bei dieser Konzentration auf einen Titel (bzw. auf wenige Top-Titel) der Rest leiden muss, ist doch nachvollziehbar, nicht?Nachvollziehbar... vielleicht.

Weißt Du, wieviel Zeit nVidia generell darauf verwendet, sich ein Spiel (oder einen Mechnaismus) "zur Brust" zu nehmen und diesen in ihr Regelwerk zu integrieren. War dies bei Doom3 jetzt mehr oder war dies ehger weniger? Ich bin mir sicher, dass Du diese Frage (wie auch) ebenfalls nicht beantworten können wirst.

Viel interessanter wäre doch, zu erfahren, wieviel 'Zeit' denn nun nVidia in die Optimierung von Doom3 gesteckt hat. War es nun 'viel' oder war es 'wenig'... wenn es z.Bsp. nur ein einziger Manntag gewesen war, dann erübrigt sich Deine Forderung, da dieser, global gesehen, sicher nicht ins Gewicht gefallen sein wird. Wurden hingegen 4 oder gar 8 Mannwochen hinein gesteckt, dann könntest Du mit Deiner Annahme bzw. Deiner Forderung recht haben.

Mir ging es eher um die Pauschalität Deiner Aussage...

Ich bin anspruchsvoll, aber mit der 5900 XT ebenfalls sehr zufrieden. Doch offensichtlich führt der Treiber nicht aus, was Doom verlangt, sondern was NV für richtig hält. Deinen privaten Vorteil bezüglich der Doom3-Performance in Ehren – ich versuche, das gesamte Bild zu sehen.Das Gesamtbild interessiert mich genau dann, wenn ich es betrachte, nicht aber wenn ich von einem Game sitze und es zu spielen versuche, denn dann bin ich schlicht egositisch.

Nenne es einfach auf der einen Seite eine subjektive auf der anderen eine objektive Sichtweise. Objektiv gesehen kann ich Dir nur 100%ig zustimme, subjektiv muss ich dem allerdings vehement wiedersprechen. Ein weing shitzophren... ich weiß.
:D

Ganz ehrlich... 45% Mehrperformance mit einer Karte, die heutzutage schon zum alten Eisen gehört?
DANKE nVidia!
:up:

Razor

P.S.: Ich hoffe nur, dass sich nVidia bei HL2 ähnlich kreativ zeigen wird... sonst wird's düster.

Quasar
2004-09-13, 23:06:48
hm dann war das wohl ne ältere Version die ich da im Hinterkopf hatte ;)

Auch die allererste Version veränderte mind. 5 Zeilen. ;)

Jesus
2004-09-13, 23:10:58
Ganz ehrlich... 45% Mehrperformance mit einer Karte, die heutzutage schon zum alten Eisen gehört?
DANKE nVidia!
:up:

Razor

P.S.: Ich hoffe nur, dass sich nVidia bei HL2 ähnlich kreativ zeigen wird... sonst wird's düster.

Ich würd trotzdem mal echte BQ Vergleiche sehen, am besten mit Quasars .x Version und der normalen optimierten. Denn "ich seh nix also ist da auch nix" ist für mich kein Argument mehr (dank euch :biggrin: ), vorallem bei so nem dunklen Game wie D3.

r@h
2004-09-13, 23:15:32
Allerdings bleibt mein Argument bestehen, denn das ist nur ein "dummes" Replacement, das an nichts angepasst wurde ausser an eine hardware spezifische Eigenschaft der ATI Karten.Die zudem für aussenstehende noch nicht einmal nachvollziehbar sind...
...oder weißt Du, warum diese Veränderungen ordentlich Performance bringen?

Und was sagt Dir, dass nVidia 'mehr' macht?
:confused:

Und komm mir jetzt bitte nicht mit Deinem 'Gefühl'...
;-)

Ich würd trotzdem mal echte BQ Vergleiche sehen, am besten mit Quasars .x Version und der normalen optimierten. Denn "ich seh nix also ist da auch nix" ist für mich kein Argument mehr (dank euch :biggrin: ), vorallem bei so nem dunklen Game wie D3.Also ich habe da mal so ein 'bissel' verglichen, aber ich wüsste nicht, wie ich zeigen sollte, dass sich nichts verändert hat (dazu ist mir meine Bandbreite zu schade ;-).

Einfach nur (identische) Sceenies zu posten bringts ja nun wirklich nicht.
Und by the way, auf den ATI's ist es sehr viel dunkler, als es eigentlich sein sollte...
:D

Razor

Jesus
2004-09-13, 23:21:30
Also ich habe da mal so ein 'bissel' verglichen, aber ich wüsste nicht, wie ich zeigen sollte, dass sich nichts verändert hat (dazu ist mir meine Bandbreite zu schade ;-).

Einfach nur (identische) Sceenies zu posten bringts ja nun wirklich nicht.
Und by the way, auf den ATI's ist es sehr viel dunkler, als es eigentlich sein sollte...
:D
Razor

jo genau das mein ich.

Btw. auf ATI sind generell andere Gamma Settings wie auf NV Karten. ( aber vielleicht ist das "original" ja dunkler `? wissen wir ja nicht genau ;D :| )

aths
2004-09-13, 23:38:34
Nachvollziehbar... vielleicht. ... vielleicht auch nicht? Da hätte ich gerne eine alternative Erklärung, die einsichtiger ist als mein Ansatz.

Weißt Du, wieviel Zeit nVidia generell darauf verwendet, sich ein Spiel (oder einen Mechnaismus) "zur Brust" zu nehmen und diesen in ihr Regelwerk zu integrieren. War dies bei Doom3 jetzt mehr oder war dies ehger weniger? Ich bin mir sicher, dass Du diese Frage (wie auch) ebenfalls nicht beantworten können wirst.Ich bin mir sicher, dass ich nicht alles wiedergebe, was mir bekannt ist. Das hat mit diesem speziellen Fall nur bedingt zu tun. Was ich weiß ist, dass Nvidia seit langem viele Ressourcen dafür verwendete, erst die FX und dann Serie 6 treiberseitig für Doom3 zu "optimieren" – und zwar auf eine unfeine Art. Zwar wird keine (oder fast keine) Bildqualität geopfert, aber letztlich handelt es sich darum, Codesequenzen durch handoptimierte Sequenzen zu ersetzen. Zu Q3-Zeiten führte das z. B. dazu, dass jeder dachte, die GF sei wegen ihrer T&L so schnell in Quake3. Stimmt aber nicht. Gleiches gilt für den 3DMark 2000. Und 2001.

Mir ging es eher um die Pauschalität Deiner Aussage...Was meinst du da konkret?

Ganz ehrlich... 45% Mehrperformance mit einer Karte, die heutzutage schon zum alten Eisen gehört?
DANKE nVidia!
:up:Nix, sondern :down: für Verarschung à la "The Doom 3 GPU". Zwar ist NV40 von der Technik her in der Tat für Doom3 deutlich besser als R420. Aber R420 ist deutlich höher getaktet als NV40.

Was NV3x angeht: Wenn das Spiel zu schlecht performt, ist es Aufgabe des Spieleentwicklers, rauszuholen was drin ist. Lässt dieser das bleiben, muss zur Strafe das Spiel boykottiert (oder der PC aufgerüstet) werden. Erst NV30, dann NV35: Immer diese Leier, schon jetzt diese GPU zu kaufen, wegen Doom3. Diese Chips haben natürlich spezielle Features für Doom3. Aber die SM2/ARB2-Grundperformance ist nicht gerade berauschend (weil die FX12-Rechenwerke nicht genutzt werden dürfen.)

P.S.: Ich hoffe nur, dass sich nVidia bei HL2 ähnlich kreativ zeigen wird... sonst wird's düster. Dem hat ATI, äh, Valve einen Riegel vorgeschoben.

Vorstehender Satz ist als Witz gedacht. HL2 ist wahrscheinlich texturfüllratenlimitiert – da muss R420 gewinnen. Und zwar deutlich. Die FX ist in HL2 auch nicht gerade langsam – dank DX8-Shaderset.

r@h
2004-09-13, 23:45:11
Btw. auf ATI sind generell andere Gamma Settings wie auf NV Karten. ( aber vielleicht ist das "original" ja dunkler `? wissen wir ja nicht genau ;D :| )Wohl war...
Im Prinzip ist's ja auch egal... wenn da nicht das Problem mit ATI's gammakorrektem AA wär.
Schließlich reagiert dieses ja recht empfindlich auf Gamma-Veränderungen...

Aber das ist hier völlig OT, insofern sollten wir das dann lieber beiseite lassen.

Razor

r@h
2004-09-13, 23:56:26
Ich bin mir sicher, dass ich nicht alles wiedergebe, was mir bekannt ist. Das hat mit diesem speziellen Fall nur bedingt zu tun. Was ich weiß ist, dass Nvidia seit langem viele Ressourcen dafür verwendete, erst die FX und dann Serie 6 treiberseitig für Doom3 zu "optimieren" – und zwar auf eine unfeine Art. Zwar wird keine (oder fast keine) Bildqualität geopfert, aber letztlich handelt es sich darum, Codesequenzen durch handoptimierte Sequenzen zu ersetzen. Zu Q3-Zeiten führte das z. B. dazu, dass jeder dachte, die GF sei wegen ihrer T&L so schnell in Quake3. Stimmt aber nicht. Gleiches gilt für den 3DMark 2000. Und 2001.Vermutlich auch 2003... wenn man sich da so die PS2.0-Performance anschaut.
Zur BQ von Doom3... hast Du da konkrete Beipiele für das "fast keine"?

Nix, sondern :down: für Verarschung à la "The Doom 3 GPU". Zwar ist NV40 in der Tat für Doom3 deutlich besser als R420. Aber R420 ist deutlich höher getaktet als NV40.Marketing...

Was NV3x angeht: Wenn das Spiel zu schlecht performt, ist es Aufgabe des Speileentwicklers, rauszuholen was drin ist. Lässt dieser das bleiben, muss zur Strafe das Spiel boykottiert (oder der PC aufgerüstet) werden. Erst NV30, dann NV35: Immer diese Leier, schon jetzt diese GPU zu kaufen, wegen Doom3. Diese Chips haben natürlich spezielle Features für Doom3. Aber die SM2/ARB2-Grundperformance ist nicht gerade berauschend (weil die FX12-Rechenwerke nicht genutzt werden dürfen.)Ist halt das Problem, wenn man 'universale' Recheneinheiten bauen wollte...
(oder dieses im besseren 'Glauben' getan hat ;-)

Nur das mit der 'Bestrafung' funktioniert nicht, wenn die DAU-Welt da draußen nach solchen Games schreit.
Bestrafen würde man mit so etwas eher sich selbst...

Dem hat ATI, äh, Valve einen Riegel vorgeschoben.

Vorstehender Satz ist als Witz gedacht. HL2 ist wahrscheinlich texturfüllratenlimitiert – da muss R420 gewinnen. Und zwar deutlich. Die FX ist in HL2 auch nicht gerade langsam – dank DX8-Shaderset.Jo, habe ich gemerkt (und auch 'dokumentiert' ;-).
Interessant ist auf jeden Fall, dass der BQ-Unterschied zwischen DX8(.1) und DX9-Pfad nicht gerade eindrucksvoll ist...

Razor

mapel110
2004-09-14, 00:10:24
Interessant ist auf jeden Fall, dass der BQ-Unterschied zwischen DX8(.1) und DX9-Pfad nicht gerade eindrucksvoll ist...

Razor

http://www.firingsquad.com/hardware/geforce_fx_half-life2/page5.asp
Jedenfalls bei den Radeons(und neueren Geforces) steht der Bildqualitätsgewinn in einem recht guten Verhältnis zum Performanceverlust. :)

aths
2004-09-14, 00:24:36
Vermutlich auch 2003... wenn man sich da so die PS2.0-Performance anschaut.
Zur BQ von Doom3... hast Du da konkrete Beipiele für das "fast keine"?Nein, aber die Überlegung, dass sich ein Unterschied von +- 2 schwerlich Anstoß erregen wird, die BQ bitgenau zu checken.

Marketing...... sollte von einem seriösen Medium kritisch betrachtet, und dem Konsumenten erklärt werden.

Ist halt das Problem, wenn man 'universale' Recheneinheiten bauen wollte...
(oder dieses im besseren 'Glauben' getan hat ;-)Wieso "universal"? ATI hat universelle (FP24-) Recheneinheiten.

Nur das mit der 'Bestrafung' funktioniert nicht, wenn die DAU-Welt da draußen nach solchen Games schreit.
Bestrafen würde man mit so etwas eher sich selbst...Du machst es dir zu einfach. Oder anders, deine Perspektive als Konsument ist nicht die eines Redakteurs mit Anspruch.

Der Konsument hat die Wahl, was er kauft. Da bestraft man nicht sich selbst. Man spielt seine Macht aus. Es ist nicht hinnehmbar, dass der Konsument derart manipuliert wird, wie das Nvidia (und ATI) versuchen.

r@h
2004-09-14, 00:27:23
http://www.firingsquad.com/hardware/geforce_fx_half-life2/page5.asp
Jedenfalls bei den Radeons(und neueren Geforces) steht der Bildqualitätsgewinn in einem recht guten Verhältnis zum Performanceverlust. :)Hmmm...
13% bei den 6800
16% bei den 9800
...leider keine Angaben zu den X800 und von den 'älteren' nVidias reden wir lieber nicht.

Nur wo soll jetzt der wahnsinnige BQ-Unterschied sein, der einen Verlust von rund 15% Performance rechtfertigt?
Auf Seite 2 habe ich dazu nicht allzuviel gefunden...
(ausser, dass zu dem implementierten PS2.A-Pfad offenbar die passenden Shader fehlen :ugly:)

Razor

Ice =A=
2004-09-14, 00:30:46
Was die Bildveränderungen durch nVidias Optimierungen angeht: Ich habe einen Test gelesen (finde ihn leider ums Verrecken nciht mehr), in dem es um einen Bug in ATI-Treibern bei Doom3 ging, nämlich daß sie nicht koorekt trilinear gefiltert haben (war z.B. in der 4.9Beta, in 4.9 behoben). Da wurden Bilder einmal auf nVidia- und einmal auf ATI-Karten gemacht gemacht und durch Differenzbildung verglichen. Ergebnis: Deutlich sichtbare Unterschiede. Nachdem der Bug bei ATI behoben war praktisch keine sichtbaren Unterschiede mehr. ALso muß nVida wirklich zumindest sehr nahe am (angeblich unveränderten ATI-) "Original" dran sein!

Zitat von zeckensack:
Mein Standpunkt war und ist, dass wenn die Leute bei NVIDIA erfolgreich von Hand optimieren können, dann müssen sie ja wissen, welche Regeln dabei anzuwenden sind. Anstatt nun einzelne Titel spezifisch zu bearbeiten, sollten sie ihre Energie lieber darauf konzentrieren, dieses Optimierungsregelwerk formell zusammenzutragen, in Software zu übertragen, und dieses letztendlich in den Treiber einzubauen.
Davon würden alle Titel profitieren.
Das dachte ich früher auch (bis ich nach Posts von aths nochmal drüber nachgedacht habe, kleines Dankeschön :)), aber leider kann die Optimierung eines Spiels für ein anderes Programm geradezu Gift sein. Auch ist es wohl mathematisch sehr schwer, zu beweisen, daß nicht nur alle existierenden, sondern alle theoretisch möglichen Spiele von einem festen Optimierungsalgorithmus profitieren oder zumindest nicht darunter leiden... :)

Zitat von aths:
Zitat von aths
Der Gedankengang, dass bei dieser Konzentration auf ein Spiel (bzw. auf wenige Top-Titel) der Rest leiden muss, ist doch nachvollziehbar, nicht?
Jein! Es kann doch sein, daß nVida einfach sehr viel mehr Leute an den Treiberoptimierungen einzelner Titel sitzen hat als ATI. Wenn also nVida einfach mehr manpower und Geld da reinsteckt, warum ist das so schlecht? Dann wäre auf alle Spiele etwa gleich gut optimiert wie bei ATI, und auf einige Spitzentitel eben wesentlich besser...

r@h
2004-09-14, 00:32:57
Wieso "universal"? ATI hat universelle (FP24-) Recheneinheiten."Universal" hinsichtlich der Anforderungen...
Würde ein Game auf INT12 setzen (was nach Änderung der DX-Spezifikationen für die Version 9 ja nun darunter nicht mehr möglich ist), wären die FP24-Einheiten ein ziemlicher Schuß in den Ofen gewesen.

Du machst es dir zu einfach. Oder anders, deine Perspektive als Konsument ist nicht die eines Redakteurs mit Anspruch.Wohl wahr...
Muss sie ja auch nicht sein, oder ?

Der Konsument hat die Wahl, was er kauft. Da bestraft man nicht sich selbst. Man spielt seine Macht aus.Diese Form der "Macht" ist schlicht eine Illusion.
Aber das würde an dieser Stelle wirklich zu weit führen...

Razor

aths
2004-09-14, 00:36:45
Jein! Es kann doch sein, daß nVida einfach sehr viel mehr Leute an den Treiberoptimierungen einzelner Titel sitzen hat als ATI. Wenn also nVida einfach mehr manpower und Geld da reinsteckt, warum ist das so schlecht? Dann wäre auf alle Spiele etwa gleich gut optimiert wie bei ATI, und auf einige Spitzentitel eben wesentlich besser...Das könnte sein. Wenn man Nvidia Lauterkeit unterstellt. Angesichts der Cheat-Skandale halte ich dies jedoch für nicht sinnvoll. Dass es auch Fortschritte gibt, siehe Texturqualität und Treiber-Optionen, worauf ist das zurückzuführen? Dass ATI diesbezüglich noch keine Regung erkennen lässt, wie erklärt sich das?

Einfache Kosten-Nutzen-Rechnung: Optimierung auf wenige Top-Titel bringt mehr Imagegewinn pro eingesetzter Arbeitsstunde, als breite Optimierung. Natürlich arbeitet NV (wie ATI) auch daran, allgemeine Optimierungen in den Treiber einfließen zu lassen. Doch dem sind Grenzen gesetzt, nach einigen Monaten gibt es kaum noch was rauszuholen. (Die Hardware kann, ist der Treiber noch so gut, nur ein endliches Pensum bewältigen.)

Für Doom3 wurde offenbar extrem "optimiert". Ein vernünftiger Dev-Support hätte darauf aufmerksam machen können, wenn tatsächlich viel Potenzial verschenkt würde. Stattdessen hielt man offenbar die Klappe und fälscht die Benchmarks mit der Handoptimierung.

aths
2004-09-14, 00:39:41
"Universal" hinsichtlich der Anforderungen...
Würde ein Game auf INT12 setzen (was nach Änderung der DX-Spezifikationen für die Version 9 ja nun darunter nicht mehr möglich ist), wären die FP24-Einheiten ein ziemlicher Schuß in den Ofen gewesen.Wie man bei der Radeon sieht, ist eine unverselle Einheit kein Schuss in den Ofen. Auf der Radeon ist alles sehr schnell, DX8 und DX9. FP24 ist in jedem Fall besser als FX12, man hat nur Vorteile (ob diese zur BQ beitragen oder nicht, ist eine andere Frage.) Wie man beim NV40 sieht, ist ein CineFX-Design auch dann hochperformant möglich, wenn man auf FX12-Einheiten verzichtet. Beim NV3x war die Übernahme der Register Combiner eine Lösung, die unter dem Aspekt der technischen Eleganz nicht die erste Wahl darstellt.

Diese Form der "Macht" ist schlicht eine Illusion.Der mündige Konsument hat Macht. Leider gibt es zu viele unmündige. Damit ist es ein leichtes, dass Firmen objektive Falschaussagen in die Welt setzen und damit Verwirrung stiften. Kürzlich habe ich von Huddy wieder mal abenteuerliche Storys gelesen. Wobei zwischen den Zeilen auch Wahres steht, aber nachgebetet werden nur die eingängigen Sprüche, die die Sachverhalte jedoch unzulässig verkürzt darstellen. Genau so sehe ich die Meinung, es würde nützlich sein wenn NV dermaßen, äh, "optimiert" hat.

Blaire
2004-09-14, 00:57:59
Da ihr gerade fleissig im Expertengespräch seid, hätte ich da doch mal ne Frage wegen Doom3.

Warum unterscheidet sich die Qualität trotz gleicher Settings so stark zwischen den einzelnen Karten X800XT und 6800Ultra?

X800XT: Catalyst 4.9 (HighQuality 1600x1200)
hxxp://img39.exs.cx/img39/8582/doom3prob2.jpg

6800 Ultra (HighQuality 1600x1200)
hxxp://img77.exs.cx/img77/8540/d3_6800.jpg

Das ist nur eine ausgesuchte Szene aber solche Sachen treten desöfteren im Game auf und ich finde solche Unterschiede schon sehr störend. Nvidia liefert das bessere Bild bei Doom3 ab Meine Meinung.

MfG

Jesus
2004-09-14, 01:17:41
sieht mir ganz einfach nach höherem Gamma auf der NV Karte aus. Das Bild ist deutlich blasser ( sieht man auch am HUD ).

Die Streifen sehe ich bei beiden Bildern ( mit meinem TFT ).

Blaire
2004-09-14, 01:20:38
Nein das liegt nicht an der Gamma. Ich hab auch einen TFT ;)

Jesus
2004-09-14, 01:21:51
Nein das liegt nicht an der Gamma. Ich hab auch einen TFT ;)

wie erkärst du dir dann die unterschiedliche helligkeit am HUD ?

Blaire
2004-09-14, 01:23:42
wie erkärst du dir dann die unterschiedliche helligkeit am HUD ?

Ich sagte ja die Settings sind identisch. Und selbst wenn man das Bild heller oder dunkler machen würde, sähe man die Unterschiede immer noch sehr deutlich.

MfG

Jesus
2004-09-14, 01:24:36
von welchen Unterschieden ausser der Helligkeit sprichst du genau ?

Blaire
2004-09-14, 01:26:56
von welchen Unterschieden ausser der Helligkeit sprichst du genau ?

Achte mal auf den linken schwarz eingekreisten Bereich im X800XT Bild. Solche Blöckchenbildungen sind auf der Nvidia definitiv nicht vorhanden und in Bewegung sind diese Unterschiede noch viel auffälliger. Woran liegts?

MfG

Jesus
2004-09-14, 01:44:21
Achte mal auf den linken schwarz eingekreisten Bereich im X800XT Bild. Solche Blöckchenbildungen sind auf der Nvidia definitiv nicht vorhanden und in Bewegung sind diese Unterschiede noch viel auffälliger. Woran liegts?

MfG

kannst du mir die Stelle und den Level mal ungefähr sagen ? würds gerne mal hier ansehen...

Benedikt
2004-09-14, 01:53:29
Nix, sondern :down: für Verarschung à la "The Doom 3 GPU". Zwar ist NV40 von der Technik her in der Tat für Doom3 deutlich besser als R420. Aber R420 ist deutlich höher getaktet als NV40.

Hi aths,

das lässt aber deinen Artikel über die Performance in Doom3 in einem völlig neuen Licht erscheinen.
Schon seltsam wie schnell's gehen kann, bis aus einer für Doom3 vom HW-Design optimal gestalteten Karte dank neuester Erkenntnisse eine Mega-Cheaterei wird... (soll nicht als Angriff gemeint sein, ich wundere mich nur). Ich warte jedenfalls gespannt auf Teil 2 des Artikels!

Lustig wird's, wenn man die Sache weiter spinnt, ich zitiere hier mal deine Aussage:

Für Doom3 wurde offenbar extrem "optimiert". Ein vernünftiger Dev-Support hätte darauf aufmerksam machen können, wenn tatsächlich viel Potenzial verschenkt würde. Stattdessen hielt man offenbar die Klappe und fälscht die Benchmarks mit der Handoptimierung.
Ein Schelm, wer böses dabei denkt. Hätte ja auch sein können, dass man durch eine allzu eifrige DevRel-Abteilung Performance-Vorteile an die Konkurrenz vergeben hätte, oder? Lieber "hinten rum" und eifrig im Treiber vereinfachen, als den offiziellen Weg gehen und quasi allen HW-Herstellern zu mehr Geschwindigkeit verhelfen.
Muss ja eine ganz schöne Gratwanderung für DevRel sein, die Spieleprogrammierer zu unterstützen und ja nicht zuviel zu verraten, um die Konkurrenz nicht zu stärken. Ist dann traurig, wenn der Unabhängige (der Spiele-Entwickler, also id) nicht selbst genügend auf alle Plattformen optimiert.

MFG,
B. W.

aths
2004-09-14, 02:14:59
Hi aths,

das lässt aber deinen Artikel über die Performance in Doom3 in einem völlig neuen Licht erscheinen.
Schon seltsam wie schnell's gehen kann, bis aus einer für Doom3 vom HW-Design optimal gestalteten Karte dank neuester Erkenntnisse eine Mega-Cheaterei wird... (soll nicht als Angriff gemeint sein, ich wundere mich nur). Ich warte jedenfalls gespannt auf Teil 2 des Artikels! Der ist nicht geplant. Am Artikel hängt der Abschnitt aus den News.

Der NV40 ist sehr gut für Doom3. Doch ein beachtlicher Teil des gebenchten Vorsprungs ist schlicht erschwindelt. Wenn der NV40 mit seiner realen Leistung antreten müsste, könnte R420 den deutlichen Taktvorteil entsprechend ausspielen. Dann sieht es für den NV40 nicht mehr so rosig aus.

Was passiert, wenn R420 dem NV40 zumindest nahe kommt? Oder gar übertrifft? Würde dann eine sachliche Diskussion über Texturfilterqualität beginnen? Imo besteht die Gefahr, dass sich eher die Spirale der "Optimierungen" weiter dreht. Das Arsenal ist ja noch lange nicht ausgeschöpft.

Ein Schelm, wer böses dabei denkt. Hätte ja auch sein können, dass man durch eine allzu eifrige DevRel-Abteilung Performance-Vorteile an die Konkurrenz vergeben hätte, oder? Lieber "hinten rum" und eifrig im Treiber vereinfachen, als den offiziellen Weg gehen und quasi allen HW-Herstellern zu mehr Geschwindigkeit verhelfen. So sollte das auch verstanden werden. Wenn NV erst mal den Erfolg ausgeschlachtet hat, kann ATI auch langsam nachziehen. NV hatte Monate Zeit ...

Muss ja eine ganz schöne Gratwanderung für DevRel sein, die Spieleprogrammierer zu unterstützen und ja nicht zuviel zu verraten, um die Konkurrenz nicht zu stärken. Ist dann traurig, wenn der Unabhängige (der Spiele-Entwickler, also id) nicht selbst genügend auf alle Plattformen optimiert.Warum flog der NV30-Pfad raus? Weil der Treiber plötzlich im ARB2-Pfad die gleiche Leistung bot. Ist doch aber komisch, wo der NV3x Fragmentshader im FP-Format immer langsamer ausführt, als im FX-Format.

Würde der Treiber diese merkwürdige Optimierung nicht enthalten, gäbe es vielleicht den NV30-Pfad in Doom3 noch.

Gast
2004-09-14, 08:04:20
Mal ein paar Fragen an unsere OGL Gurus:

Wie würde der NV40 performen wenn er einen eigenen Pfad bekommen hätte? Könnte es sein das Nvidia Teile vom ARB2 Pfad mit eigenen, dem NV40 offensichtlich "besser" schmeckenden, Extensions ausgetauscht hat? Sind eigentlich alle Extensions des NV40 bekannt oder werden von Nvidia auch welche nachgeschoben bzw können/dürfen nachgeschoben werden? Müssen alle Extensions offengelegt werden?

Mal ein paar allgemeine Fragen:
Da der NV3x anscheinend trotz schlechter FP Leistung entsprechend gut performt und der NV4x ebenso besser performt als er 'dürfte', ist es nicht legitim das eventuelle Optimierungen, sofern sie die BQ nicht beeinflussen, von Nvidia nicht offengelegt werden weil so was unter "Betriebsgeheimnisse" fallen könnte? Genauso wie zB der Humus Tweak der eventuell aber nun "leider" öffentlich wurde? Könnte es vielleicht nicht doch noch irgendwo im Chip Überraschungen geben die niemand außer NV kennt und dementsprechend auch nicht die Konkurrenz wissen soll?

Bitte mal meine Fragen nicht als Flame oder Fanboy BlaBla auffassen sondern, sofern möglich, objektiv beantworten.

MikBach
2004-09-14, 08:44:53
Der NV40 ist sehr gut für Doom3. Doch ein beachtlicher Teil des gebenchten Vorsprungs ist schlicht erschwindelt. Wenn der NV40 mit seiner realen Leistung antreten müsste, könnte R420 den deutlichen Taktvorteil entsprechend ausspielen. Dann sieht es für den NV40 nicht mehr so rosig aus.

Was passiert, wenn R420 dem NV40 zumindest nahe kommt? Oder gar übertrifft? Würde dann eine sachliche Diskussion über Texturfilterqualität beginnen? Imo besteht die Gefahr, dass sich eher die Spirale der "Optimierungen" weiter dreht. Das Arsenal ist ja noch lange nicht ausgeschöpft.

So sollte das auch verstanden werden. Wenn NV erst mal den Erfolg ausgeschlachtet hat, kann ATI auch langsam nachziehen. NV hatte Monate Zeit ...

Warum flog der NV30-Pfad raus? Weil der Treiber plötzlich im ARB2-Pfad die gleiche Leistung bot. Ist doch aber komisch, wo der NV3x Fragmentshader im FP-Format immer langsamer ausführt, als im FX-Format.

Würde der Treiber diese merkwürdige Optimierung nicht enthalten, gäbe es vielleicht den NV30-Pfad in Doom3 noch.
Also doch Shaderreplacement bei Doom3 seitens Nvidia. Das verstehe ich irgendwie nicht. Warum geht Nvidia nicht auf JC zu und sagt, dass es mit anderen(von der BQ nicht schlechteren Shadern) besser geht?
Da kann ich mit nur noch ein Szenario vorstellen.
Nvidia hat es heimlich gemacht, weil diese Shader, die Nvidia einsetzt, auch die Radeon-Karten beschleunigen würden und das wollte man natürlich nicht. Oder aber man macht noch verrücktere Sachen, von denen weder JC noch wir keinen blassen Schimmer haben.

Danke aths für diese Erklärung. :up:
Jetzt ist fast alles einleuchtend.

Demirug
2004-09-14, 08:59:45
Also doch Shaderreplacement bei Doom3 seitens Nvidia. Das verstehe ich irgendwie nicht. Warum geht Nvidia nicht auf JC zu und sagt, dass es mit anderen(von der BQ nicht schlechteren Shadern) besser geht?
Da kann ich mit nur noch ein Szenario vorstellen.
Nvidia hat es heimlich gemacht, weil diese Shader, die Nvidia einsetzt, auch die Radeon-Karten beschleunigen würden und das wollte man natürlich nicht. Oder aber man macht noch verrücktere Sachen, von denen weder JC noch wir keinen blassen Schimmer haben.

JC war offensichtlich nicht daran interresiert den Lichtpass des ARB2 Path überhaupt zu optimieren. Bei der langen Entwicklungszeit muss ich sagen das dies etwas enttäuschend ist. Details gibt es sobald ich herausgefunden habe wie viel Leistung hier von JC verschwendet wird.

Exxtreme
2004-09-14, 09:48:29
Ein Schelm, wer böses dabei denkt. Hätte ja auch sein können, dass man durch eine allzu eifrige DevRel-Abteilung Performance-Vorteile an die Konkurrenz vergeben hätte, oder? Lieber "hinten rum" und eifrig im Treiber vereinfachen, als den offiziellen Weg gehen und quasi allen HW-Herstellern zu mehr Geschwindigkeit verhelfen.
Muss ja eine ganz schöne Gratwanderung für DevRel sein, die Spieleprogrammierer zu unterstützen und ja nicht zuviel zu verraten, um die Konkurrenz nicht zu stärken. Ist dann traurig, wenn der Unabhängige (der Spiele-Entwickler, also id) nicht selbst genügend auf alle Plattformen optimiert.

MFG,
B. W.
Die DevRel-Abteilung ist auch u.A. ein verlängerter Arm der Marketing-Abteilung. =) Die PR-Abteilung soll die Konsumenten zum Kauf anregen während die DevRel-Abteilung die Entwickler beeinflussen soll für die eigene HW zu optimieren.

Und ja, viele Optimierungsmöglichkeiten funktionieren IHV-übergreifend.

Demirug
2004-09-14, 09:58:06
Die DevRel-Abteilung ist auch u.A. ein verlängerter Arm der Marketing-Abteilung. =) Die PR-Abteilung soll die Konsumenten zum Kauf anregen während die DevRel-Abteilung die Entwickler beeinflussen soll für die eigene HW zu optimieren.

Und ja, viele Optimierungsmöglichkeiten funktionieren IHV-übergreifend.

Das Optimieren auf die eigene HW ist erst das zweite Ziel. Primär versuchen DevRel Abteilungen die Entwickler davon zu überzeugen neue Features zu nutzen und alte nicht mehr zu supporten. Es geht ja darum überhaupt erst mal Bedarf für neue Hardware zu erzeugen.

Exxtreme
2004-09-14, 11:11:43
Das Optimieren auf die eigene HW ist erst das zweite Ziel. Primär versuchen DevRel Abteilungen die Entwickler davon zu überzeugen neue Features zu nutzen und alte nicht mehr zu supporten. Es geht ja darum überhaupt erst mal Bedarf für neue Hardware zu erzeugen.
Naja, aber ich denke, daß sich kaum ein Spielehersteller darauf einlassen wird. Denn dann gehen potenzielle Kunden verloren.


Und es wäre vielleicht auch ganz gut "unpopuläre" Spiele zu benchen. Denn wenn diese in die Gesamtwertung einfliessen dann fallen die ercheateten Sachen nicht mehr so ins Gewicht.

Demirug
2004-09-14, 11:14:03
Naja, aber ich denke, daß sich kaum ein Spielehersteller darauf einlassen wird. Denn dann gehen potenzielle Kunden verloren.

Steter Tropfen höhlt den Stein. Die haben immer schöne Marktstudien zur Hand. :D

Gast
2004-09-14, 14:22:21
Die Technik ist, davon unberührt, sehr gut, und der R420-Technik überlegen. Aber die Doom3-Ergebnisse zeigen diese Vorteile weniger, als zunächst von mir angenommen. HL2 wird widersinnigerweise den R420 als besser (da schneller) dastehen lassen.
Nach dem momentanen Stand der Dinge, scheint Doom 3 ungeeignet zu sein, auch nur irgendwas zu zeigen, im Zusammenhang mit der Beurteilung der Güte von Hardware. Aus dem Zitat oben (Hervorhebung) darf ich schließen, daß schneller gleich besser ist (Was meiner Meinung nach nicht wenig Sinn macht.)? Dann darf ich aber fragen, wo steht, daß die nV-Karte im Schnitt schneller ist?
Übrigens, taktbereinigte Leistungsvergleiche zwischen zwei verschiedene Chips sind völliger Nonsens. Ebenso könnte man nach der transistorbereingten Leistung fragen. Wichtig ist, was unterm Strich bleibt, und da zählt nur Leistung und z.B. Hitzeentwicklung. In beiden Punkten sehe ich die ATi-Architektur bis jetzt im Schnitt vorne.


Wo kann ich das nachlesen?
Hier (http://de.wikipedia.org/wiki/Abk%C3%BCrzung)
„Die Abkürzungsweise mit Punkten, aber ohne Leerzeichen, ist seit langem veraltet.“ Ich gebe zu, daß ich manchmal etwas altmodisch bin.
„Falls verfügbar, sollte ein schmalerer Zwischenraum als der zwischen normalen Wörtern verwendete gesetzt werden.“ Ich gebe zu, daß Du nur ein halber Plenker bist. ;)

Gast
2004-09-14, 15:12:20
kannst du mir die Stelle und den Level mal ungefähr sagen ? würds gerne mal hier ansehen...

Jetzt genau nicht. Aber solche Türen gibts ja desöfteren und sehn ziemlich identisch aus. Auch bei den Explosionen oder Nebel sieht man grobe Übergänge die es bei Nvidia nicht gibt.

MfG

Ice =A=
2004-09-14, 15:38:42
Das trägt jetzt nichts direkt zum Thema bei, aber ich kann es mir nicht verkneifen:
Angenommen (rein hypothetisch!), die schlechtere Grafikqualität von ATI wäre die "echte" und die bessere von nVidia wäre durch veränderte Shader und Co. entstanden, was würde das in der Diskussion pro/contra-Shaderreplacements bewirken?!? :)

betasilie
2004-09-14, 16:08:07
Das trägt jetzt nichts direkt zum Thema bei, aber ich kann es mir nicht verkneifen:
Angenommen (rein hypothetisch!), die schlechtere Grafikqualität von ATI wäre die "echte" und die bessere von nVidia wäre durch veränderte Shader und Co. entstanden, was würde das in der Diskussion pro/contra-Shaderreplacements bewirken?!? :)
Imo ne gute Frage. ;D

Exxtreme
2004-09-14, 16:22:23
Das trägt jetzt nichts direkt zum Thema bei, aber ich kann es mir nicht verkneifen:
Angenommen (rein hypothetisch!), die schlechtere Grafikqualität von ATI wäre die "echte" und die bessere von nVidia wäre durch veränderte Shader und Co. entstanden, was würde das in der Diskussion pro/contra-Shaderreplacements bewirken?!? :)
Bei mir ist das so, daß Massnahmen wie Brilineare Filterung & Co. immer ins CP gehören wo sie abschaltbar sind. =)

Jesus
2004-09-14, 18:01:39
also ich habs jetzt nochmal getestet bei mir ( mit Humus ) .

Die Übergänge die man sieht sind die Specular Maps, schaltest du die aus, siehst du sie nicht mehr.

Kann das am Humus liegen ? Hab leider den Originalshader nicht mehr da sonst könnte ich testen ;)

Blaire, was siehst du bei der 6800 wenn du ganz nah an ne Wand rangehst ( die beleuchtet wird ) und dich langsam bewegst ? Irgendwie sieht dein Anfangs geposteter Screenshot nämlich recht blass aus ( vorallem das graue Zeichen rechts ).

Demirug
2004-09-14, 18:07:05
also ich habs jetzt nochmal getestet bei mir ( mit Humus ) .

Die Übergänge die man sieht sind die Specular Maps, schaltest du die aus, siehst du sie nicht mehr.

Kann das am Humus liegen ? Hab leider den Originalshader nicht mehr da sonst könnte ich testen ;)

Blaire, was siehst du bei der 6800 wenn du ganz nah an ne Wand rangehst ( die beleuchtet wird ) und dich langsam bewegst ? Irgendwie sieht dein Anfangs geposteter Screenshot nämlich recht blass aus ( vorallem das graue Zeichen rechts ).

Der Humus Tweak verändert die Berechnung des Spekularen Lichtanteils.

Blaire
2004-09-14, 18:15:49
Blaire, was siehst du bei der 6800 wenn du ganz nah an ne Wand rangehst ( die beleuchtet wird ) und dich langsam bewegst ? Irgendwie sieht dein Anfangs geposteter Screenshot nämlich recht blass aus ( vorallem das graue Zeichen rechts ).


Was meinst du damit? Also man sieht dort keine groben "Artefakte" die mitwandern. Wenn du das meinst?
Und der Screenshot sieht nicht blass aus sondern stellts einfach klarer dar.
Ich hab ja schon vor kurzem die Belichtung bemängelt bei der X800 auf der 6800 ist irgendwie mehr Detail zu erkennen ist schwer zu beschreiben und schwierig auf Bildern festzuhalten. Ist aber echt so!

MfG

Jesus
2004-09-14, 18:18:23
Was meinst du damit? Also man sieht dort keine groben "Artefakte" die mitwandern. Wenn du das meinst?
Und der Screenshot sieht nicht blass aus sondern stellts einfach klarer dar.
Ich hab ja schon vor kurzem die Belichtung bemängelt bei der X800 auf der 6800 ist irgendwie mehr Detail zu erkennen ist schwer zu beschreiben und schwierig auf Bildern festzuhalten. Ist aber echt so!

MfG

naja wenn ich Specular Lights ausschalte siehts bei mir auch klarer aus. War nur so eine vermutung.

Ich teste grad noch den originalshader ...brb

So, es liegt am Humus ( version vom 10.8.) . Mit Humus sehen die Specular maps irgendwie wie 16 bit aus, gefällt mir gar nicht...

Ohne HUmus:

http://nemesis.rushers.net/not.png

Mit Humus:

http://nemesis.rushers.net/humus.png

Jesus
2004-09-14, 18:35:25
dieser Humus:


!!ARBvp1.0 OPTION ARB_position_invariant ;

# VPROG_INTERACTION
#
# input:
#
# attrib[8] TEX0 texture coordinates
# attrib[9] TEX1 normal
# attrib[10] TEX2 tangent[0]
# attrib[11] TEX3 tangent[1]
# COL vertex color
#
# c[4] localLightOrigin
# c[5] localViewOrigin
# c[6] lightProjection S
# c[7] lightProjection T
# c[8] lightProjection Q
# c[9] lightFalloff S
# c[10] bumpMatrix S
# c[11] bumpMatrix T
# c[12] diffuseMatrix S
# c[13] diffuseMatrix T
# c[14] specularMatrix S
# c[15] specularMatrix T
# c[16] vertex color modulate
# c[17] vertex color add
#
# output:
#
# texture 0 is the cube map
# texture 1 is the per-surface bump map
# texture 2 is the light falloff texture
# texture 3 is the light projection texture
# texture 4 is the per-surface diffuse map
# texture 5 is the per-surface specular map
# texture 6 is the specular lookup table

TEMP R0, R1, R2;

PARAM defaultTexCoord = { 0, 0.5, 0, 1 };


# calculate vector to light in R0
SUB R0, program.env[4], vertex.position;

# put into texture space for TEX0
DP3 result.texcoord[0].x, vertex.attrib[9], R0;
DP3 result.texcoord[0].y, vertex.attrib[10], R0;
DP3 result.texcoord[0].z, vertex.attrib[11], R0;

# textures 1 takes the base coordinates by the texture matrix
MOV result.texcoord[1], defaultTexCoord;
DP4 result.texcoord[1].x, vertex.attrib[8], program.env[10];
DP4 result.texcoord[1].y, vertex.attrib[8], program.env[11];

# texture 2 has one texgen
MOV result.texcoord[2], defaultTexCoord;
DP4 result.texcoord[2].x, vertex.position, program.env[9];

# texture 3 has three texgens
DP4 result.texcoord[3].x, vertex.position, program.env[6];
DP4 result.texcoord[3].y, vertex.position, program.env[7];
DP4 result.texcoord[3].w, vertex.position, program.env[8];

# textures 4 takes the base coordinates by the texture matrix
MOV result.texcoord[4], defaultTexCoord;
DP4 result.texcoord[4].x, vertex.attrib[8], program.env[12];
DP4 result.texcoord[4].y, vertex.attrib[8], program.env[13];

# textures 5 takes the base coordinates by the texture matrix
MOV result.texcoord[5], defaultTexCoord;
DP4 result.texcoord[5].x, vertex.attrib[8], program.env[14];
DP4 result.texcoord[5].y, vertex.attrib[8], program.env[15];

# texture 6's texcoords will be the halfangle in texture space

# calculate normalized vector to light in R0
SUB R0, program.env[4], vertex.position;
DP3 R1, R0, R0;
RSQ R1, R1.x;
MUL R0, R0, R1.x;

# calculate normalized vector to viewer in R1
SUB R1, program.env[5], vertex.position;
DP3 R2, R1, R1;
RSQ R2, R2.x;
MUL R1, R1, R2.x;

# add together to become the half angle vector in object space (non-normalized)
ADD R0, R0, R1;

# put into texture space
DP3 result.texcoord[6].x, vertex.attrib[9], R0;
DP3 result.texcoord[6].y, vertex.attrib[10], R0;
DP3 result.texcoord[6].z, vertex.attrib[11], R0;

# generate the vertex color, which can be 1.0, color, or 1.0 - color
# for 1.0 : env[16] = 0, env[17] = 1
# for color : env[16] = 1, env[17] = 0
# for 1.0-color : env[16] = -1, env[17] = 1
MAD result.color, vertex.color, program.env[16], program.env[17];

END


#======================================================================

!!ARBfp1.0
OPTION ARB_precision_hint_fastest;

# texture 0 is the cube map
# texture 1 is the per-surface bump map
# texture 2 is the light falloff texture
# texture 3 is the light projection texture
# texture 4 is the per-surface diffuse map
# texture 5 is the per-surface specular map
# texture 6 is the specular lookup table

# env[0] is the diffuse modifier
# env[1] is the specular modifier

TEMP light, color, R1, R2, localNormal, specular;

# load the specular half angle first, because
# the ATI shader gives a "too many indirections" error
# if this is done right before the texture indirection

#-----------------
TEX specular, fragment.texcoord[6], texture[0], CUBE;
MAD specular, specular, 2.0, -1.0;


# instead of using the normalization cube map, normalize with math
#DP3 specular, fragment.texcoord[6],fragment.texcoord[6];
#RSQ specular, specular.x;
#MUL specular, specular.x, fragment.texcoord[6];
#-----------------


#
# the amount of light contacting the fragment is the
# product of the two light projections and the surface
# bump mapping
#

# perform the diffuse bump mapping

#-----------------
TEX light, fragment.texcoord[0], texture[0], CUBE;
MAD light, light, 2.0, -1.0;

# instead of using the normalization cube map, normalize with math
#DP3 light, fragment.texcoord[0],fragment.texcoord[0];
#RSQ light, light.x;
#MUL light, light.x, fragment.texcoord[0];
#-----------------

TEX localNormal, fragment.texcoord[1], texture[1], 2D;
MOV localNormal.x, localNormal.a;
MAD localNormal, localNormal, 2.0, -1.0;
DP3 light, light, localNormal;

# modulate by the light projection
TXP R1, fragment.texcoord[3], texture[3], 2D;
MUL light, light, R1;

# modulate by the light falloff
TXP R1, fragment.texcoord[2], texture[2], 2D;
MUL light, light, R1;

#
# the light will be modulated by the diffuse and
# specular surface characteristics
#

# modulate by the diffuse map and constant diffuse factor
TEX R1, fragment.texcoord[4], texture[4], 2D;
MUL color, R1, program.env[0];

# perform the specular bump mapping
DP3 specular.w, specular, localNormal;

# perform a dependent table read for the specular falloff
# TEX R1, specular, texture[6], 2D;

#MAD_SAT R1, specular, 5.0, -4.0;
MAD_SAT R1.w, specular.w, 4.0, -3.0;
MUL R1.w, R1.w, R1.w;

# modulate by the constant specular factor
MUL R1, R1.w, program.env[1];

# modulate by the specular map * 2
TEX R2, fragment.texcoord[5], texture[5], 2D;
ADD R2, R2, R2;
MAD color, R1, R2, color;


MUL color, light, color;

# modify by the vertex color

MUL result.color, color, fragment.color;

# this should be better on future hardware, but current drivers make it slower
#MUL result.color.xyz, color, fragment.color;


END

Demirug
2004-09-14, 18:47:02
Jesus, ändere mal folgendes:

Dies

# load the specular half angle first, because
# the ATI shader gives a "too many indirections" error
# if this is done right before the texture indirection

#-----------------
TEX specular, fragment.texcoord[6], texture[0], CUBE;
MAD specular, specular, 2.0, -1.0;


# instead of using the normalization cube map, normalize with math
#DP3 specular, fragment.texcoord[6],fragment.texcoord[6];
#RSQ specular, specular.x;
#MUL specular, specular.x, fragment.texcoord[6];
#-----------------

zu

# load the specular half angle first, because
# the ATI shader gives a "too many indirections" error
# if this is done right before the texture indirection

#-----------------
#TEX specular, fragment.texcoord[6], texture[0], CUBE;
#MAD specular, specular, 2.0, -1.0;


# instead of using the normalization cube map, normalize with math
DP3 specular, fragment.texcoord[6],fragment.texcoord[6];
RSQ specular, specular.x;
MUL specular, specular.x, fragment.texcoord[6];
#-----------------

r@h
2004-09-14, 18:47:43
dieser Humus:Jo, ist der von Quasar verlinkte und damit letzte 'Patch' von Humus...
(den ich für den Vergleich zum Original heran gezogen habe ;-)

Also geht dabei doch noch ein (kleiner) Teil der BQ drauf...

Razor

Jesus
2004-09-14, 18:53:34
Jesus, ändere mal folgendes:

Dies

# load the specular half angle first, because
# the ATI shader gives a "too many indirections" error
# if this is done right before the texture indirection

#-----------------
TEX specular, fragment.texcoord[6], texture[0], CUBE;
MAD specular, specular, 2.0, -1.0;


# instead of using the normalization cube map, normalize with math
#DP3 specular, fragment.texcoord[6],fragment.texcoord[6];
#RSQ specular, specular.x;
#MUL specular, specular.x, fragment.texcoord[6];
#-----------------

zu

# load the specular half angle first, because
# the ATI shader gives a "too many indirections" error
# if this is done right before the texture indirection

#-----------------
#TEX specular, fragment.texcoord[6], texture[0], CUBE;
#MAD specular, specular, 2.0, -1.0;


# instead of using the normalization cube map, normalize with math
DP3 specular, fragment.texcoord[6],fragment.texcoord[6];
RSQ specular, specular.x;
MUL specular, specular.x, fragment.texcoord[6];
#-----------------

habs umkommentiert, jetzt siehts wieder aus wie das original.

r@h
2004-09-14, 18:57:02
habs umkommentiert, jetzt siehts wieder aus wie das original.Und wie verhält sich's mit der Performance?
:confused:

Razor

Jesus
2004-09-14, 18:59:14
Und wie verhält sich's mit der Performance?
:confused:

Razor

keine ahnung, ich muss jetzt erstmal essen :rolleyes:

Blaire
2004-09-14, 19:08:42
Kannst du mir mal ungefähr die Stelle sagen wo du diese 2 Pics geschossen hast? Danke.

MfG

Demirug
2004-09-14, 19:08:43
habs umkommentiert, jetzt siehts wieder aus wie das original.

Nicht ganz. Unten ist noch eine zweite Änderung bei Humus.

Jesus
2004-09-14, 19:14:13
Nicht ganz. Unten ist noch eine zweite Änderung bei Humus.

ich meine das Bild ;)

FPS mit Humus alt: 47.3
FPS mit Humus neu: 46.8

bei 1024x768 high+ app af

Aber wodurch kommt es jetzt zu diesem unschönen Effekt ?

Jesus
2004-09-14, 19:16:07
Kannst du mir mal ungefähr die Stelle sagen wo du diese 2 Pics geschossen hast? Danke.

MfG

delta labs 2a im aufzug einfach umdrehen ;)

r@h
2004-09-14, 19:22:40
keine ahnung, ich muss jetzt erstmal essen :rolleyes:Ich nicht...
:D

Hier mal der 'Vergleich' mit meiner guten alten FX5900:
(1024x768, 2xcpAA, 4°appAF, 66.31 WHQL)

noOpt (Quasar) 28,2fps
ATI (Humus/Demirug) 29,7fps + 5,3%
ATI (Humus) 34,8fps + 23,4%
nVidia (Treiber) 41,0fps + 45,4%Jo, diese kleine Änderung - oder besser Wiederherstellung, da die von Demirug vorgeschlagenen Veränderungen den Originalzustand wiederhergestellt haben - hat den Großteil des Performance-Gewinns eliminiert.

Ergo: Humus-Tweak = Performance zulasten der BQ!

Ja, die Stelle würd' mich auch mal interessieren (Save-Point ?), um hier vielleicht mal einen originalen und optimierten Screen der FX5900 anfertigen zu können. Allerdings ich bin mir ziemlich sicher, dass mir solcherart Artefakte definitiv aufgefallen wären...

Razor

Jesus
2004-09-14, 19:24:31
du kannst von einer FX aber nicht auf einen r3xx schliessen:

2xAA 8xqAF (im CP ) 1024x768 High Details, demo1:

Humus: 38,5 fps
Demi: 38,1 fps
original: 30,0 fps

Die stelle ist gleich am Anfang der Deltalabs 2a , du startest im Aufzug, und dann einfach umdrehen.

Edit: Werte vom Originalshader eingefügt

Gast
2004-09-14, 19:50:33
Zu Q3-Zeiten führte das z. B. dazu, dass jeder dachte, die GF sei wegen ihrer T&L so schnell in Quake3. Stimmt aber nicht. Gleiches gilt für den 3DMark 2000. Und 2001.



Und wie ist das mit all den anderen Spielen und Benchmarks in denen die GF der Konkurrenz davonzog? Auch nur unzulässige Optimierungen oder ist die GF nicht doch etwa so leistungsstark, wie Q3 und die 3Dmarks ermitteln?

r@h
2004-09-14, 20:05:37
du kannst von einer FX aber nicht auf einen r3xx schliessen:

2xAA 8xqAF (im CP ) 1024x768 High Details, demo1:
Humus: 38,5 fps
Demi: 38,1 fps

Die stelle ist gleich am Anfang der Deltalabs 2a , du startest im Aufzug, und dann einfach umdrehen.Sieht eigentlich eher nach 'ner Meßungenauigkeit aus...
Kann das nochmal jemand anderes checken?

Habe hier 'leider' nur einen Vergleich aus dem Fahrstuhl von "Alpha Labs Sector 2". Einfach umdrehen und das Crosshair auf das Teil an der Wand ausrichten (auf den Bildchen unten rechts ;-). Auflösung wie oben (1024) und Gamma auf 1.47, da die Shots wirklich reichlich dunkel werden (dunkler als in der 'Wirklichkeit' ;-).

Von links nach rechts: unoptimiert, Humus (original), nVidia
http://mitglied.lycos.de/razor3dc/pics/Doom3_Vergl_Gamma1-47.png
(bitte dieses Bild nicht als IMG, sondern als URL quoten, DANKE !)

Ich weiß, es ist nicht soooo deutlich, aber für ein geübtes Auge...
:D

Razor

Jesus
2004-09-14, 20:09:41
Sieht eigentlich eher nach 'ner Meßungenauigkeit aus...
Kann das nochmal jemand anderes checken?


nein ist reproduzierbar ;) der unterschied ist ca. 0.5 fps . Siehe auch weiter oben meine Benches von 1024 ohne AA und mit App. AF

r@h
2004-09-14, 20:16:26
nein ist reproduzierbar ;) der unterschied ist ca. 0.5 fps . Siehe auch weiter oben meine Benches von 1024 ohne AA und mit App. AFUnd Du bist sicher das nicht nur performance-seitig, sondern auch nochmal BQ-seitig verglichen zu haben?

Meine nämlich mal irgendwo gelesen zu haben (war das B3D?), dass genau diese Änderung (das 'Umkommentieren' ;-), den Großteil an Performance brachte und die restlichen Anpassungen lediglich der 'Glättung' der BQ dienten.

Check das bitte einfach nochmal.

Und diese 'Querstreifen' kommen tatsächlich von der Veränderung der Präzision?
Hmmm...

Razor

P.S.: So, JETZT geh' ich essen (mit meiner Freundin ;-) und morgen früh' (oder besser heute nacht *grmpf*) geht's für 'ne Woche in den Süüüüüddddeeeeennnnn!
*freu*

Exxtreme
2004-09-14, 20:57:59
Und wie ist das mit all den anderen Spielen und Benchmarks in denen die GF der Konkurrenz davonzog? Auch nur unzulässige Optimierungen oder ist die GF nicht doch etwa so leistungsstark, wie Q3 und die 3Dmarks ermitteln?
So mächtig war die GF2 damals auch wieder nicht. ATi's R100 konnte gut mithalten gegen die GF2GTS:
http://www.3dcenter.org/artikel/radeon64ddr/

Gast
2004-09-14, 21:07:21
So mächtig war die GF2 damals auch wieder nicht. ATi's R100 konnte gut mithalten gegen die GF2GTS:
http://www.3dcenter.org/artikel/radeon64ddr/


In bestimmten Fällen ja, aber in der Mehrheit eher nicht.

Jesus
2004-09-14, 21:42:55
Und Du bist sicher das nicht nur performance-seitig, sondern auch nochmal BQ-seitig verglichen zu haben?

100%

aths
2004-09-14, 21:45:51
Und wie ist das mit all den anderen Spielen und Benchmarks in denen die GF der Konkurrenz davonzog? Auch nur unzulässige Optimierungen oder ist die GF nicht doch etwa so leistungsstark, wie Q3 und die 3Dmarks ermitteln?Die GeForce 256 (vor allem mit DDR-RAM) und GeForce2 GTS waren zu ihrer Zeit sehr leistungsstarke Grafikkarten. Trotzdem waren die Benchmarkwerte in Q3 bzw. 3DMark zu hoch. Die ohnehin gute Leistung wurde durch exzessives "Optimieren" massiv geschönt (gilt auch für die TNT-Serie.)

Gast
2004-09-15, 11:00:47
Jetzt genau nicht. Aber solche Türen gibts ja desöfteren und sehn ziemlich identisch aus. Auch bei den Explosionen oder Nebel sieht man grobe Übergänge die es bei Nvidia nicht gibt.

MfG


http://www.beyond3d.com/interviews/jcnv30r300/index.php?p=2

beyond3d:
In terms of Quality :
NV30+ARB2 is better than NV30+NV30-path
NV30+ARB2 is better than R300+ARB2
R300+ARB2 is better than NV30+NV30-path
R300+ARB2 is better than R300+R200-path

JC:
Correct.

FPSn00b
2004-09-15, 12:14:28
Zitat von Gast
Jetzt genau nicht. Aber solche Türen gibts ja desöfteren und sehn ziemlich identisch aus. Auch bei den Explosionen oder Nebel sieht man grobe Übergänge die es bei Nvidia nicht gibt.
MfG http://www.beyond3d.com/interviews/...0/index.php?p=2
beyond3d:
In terms of Quality :
NV30+ARB2 is better than NV30+NV30-path
NV30+ARB2 is better than R300+ARB2
R300+ARB2 is better than NV30+NV30-path
R300+ARB2 is better than R300+R200-path
JC:
Correct.
32bFP>24bFP. - Allerdings halte ich es für mehr als unwarscheinlich, daß nVidia zu dem Zeitpunkt (6.2.03) schon Shaderersetzungen in Doom3 betrieben hat, was durch "In terms of Performance :[...]R300+ARB2 is faster than NV30+ARB2" gestützt wird.
Wie es heutzutage im Vergleich von der Grafikqualität her aussieht, läßt sich also IMO kaum von dieser Aussage ableiten.