PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI und Nvidia streiten über Doom-3-Testergebnisse


Seiten : [1] 2

Black-Scorpion
2004-09-02, 19:58:14
Selbst lesen.
http://www.heise.de/newsticker/meldung/50630

Soll sich jeder seine Meinung selbst bilden.
Mal sehen was die ct dazu schreibt.

stav0815
2004-09-02, 20:02:33
was denn daran schlimm solange sie die Bildquali ned beeinflussen? Ausserdem is des doch im Treiberintegrierten Shader-compiler so oder so drin oO :|

M@g
2004-09-02, 20:11:11
Nun der ct kann man in Sachen Grafikkarten ja nur wenig Kompetenz zusprechen, da sie sich immer wieder Schnitzer erlauben, die einfach von Unwissen zeugen. Deswegen würde ich auf deren Bewertung von "Shaderreplacement" nix geben.
Glaub da spreche ich für beide Lager: Solange mans nicht sieht (oder das gefühl hat es nicht zu sehen :cool:) isses ja Willkommen (wenns mehr FPS bringt). Optimierungen, egal in welcherlei Hinsicht, gibts ja schon sehr lange, wer da angefangen hat kann man nicht sagen, so Sachen gibts schon immer.
Denke nicht das das jemals aufhören wird, selbst wenn man ein(en) Benchmark/Spiel schreibt, das volle Tri/AF Filterung + unangetastete Shader verlangt, wird es immer jmd geben der das aushebeln kann. Spieleprogrammieren ist das glaube ich auch absolut egal, Haupstache die Software funktioniert auf möglichst vielen PC´s.
Gibt Sachen mit denen muss man sich abfinden, oder man hoft auf Tweaks die einem die Möglichkeit geben so etwas zu unterbinden, gibts ja schon für die Texturefilterungen. Ein Tweak der "Shaderreplacement" deaktiviert wär sicher auch nice.

Mark3Dfx
2004-09-02, 20:12:07
Lasset den Flamewar beginnen.
Klappe die 342 bitte.

LovesuckZ
2004-09-02, 20:14:05
Der Nvidia-Treiber würde die für die aufseheneregenden Licht- und Schatteneffekte verantwortlichen Miniprogramme durch einfachere Shader ersetzen, die mit weniger Instruktionen auskommen und dadurch schneller ablaufen.

Soviel dazu, dass id Doom3 Nvidiaoptimiert haette.

Jesus
2004-09-02, 20:14:31
was ist daran neu ? :rolleyes:

deekey777
2004-09-02, 20:18:27
Der Nvidia-Treiber würde die für die aufseheneregenden Licht- und Schatteneffekte verantwortlichen Miniprogramme durch einfachere Shader ersetzen, die mit weniger Instruktionen auskommen und dadurch schneller ablaufen.

Soviel dazu, dass id Doom3 Nvidiaoptimiert haette.


JC@[H]ardOCP:
"On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program, and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards."

Ein Tsunami in einem Kaffeebecher...

LovesuckZ
2004-09-02, 20:20:52
Ein Tsunami in einem Kaffeebecher...

Ja, aber nun kommt es auch von ATi, womit der Gott den Glaeubigern den Boden unter den Fueßen wegzieht.

deekey777
2004-09-02, 20:23:21
Ja, aber nun kommt es auch von ATi, womit der Gott den Glaeubigern den Boden unter den Fueßen wegzieht.


Wieso? Gerade die ATi-Gläubigen haben ein "neues" Thema zum Diskutieren.

LovesuckZ
2004-09-02, 20:25:19
Wieso? Gerade die ATi-Gläubigen haben ein "neues" Thema zum Diskutieren.

Mehr sage ich doch nicht.
Interessant auch,d ass ATi trotz Shaderreplacement nicht auf Nvidia aufschließen kann.
Scheint wohl nicht nur an den optimierten " Miniprogrammen" zu liegen.

deekey777
2004-09-02, 20:32:16
Mehr sage ich doch nicht.
Interessant auch,d ass ATi trotz Shaderreplacement nicht auf Nvidia aufschließen kann.
Scheint wohl nicht nur an den optimierten " Miniprogrammen" zu liegen.


Das Shader Replacement kommt ja noch. :biggrin:
"Ein neuer Treiber, der in wenigen Wochen erscheint, soll bei Doom 3 nun selbst Shader Replacement einsetzen, um Grafikkarten mit den Radeon-X800-Chips schneller zu machen. Es werde aber einen Schalter geben, mit dem der Anwender selbst entscheiden kann, ob Shader Replacement aktiv ist oder nicht."

Quasar
2004-09-02, 20:40:38
Dreimal könnt ihr raten, was das für ein Replacement Shader sein wird....
*hint* Es gibt ihn schon... */hint*

edit:
Allerdings glaube ich nicht, daß ATi sich dermaßen untreu wird, wo doch immer auf dem Standpunkt gestanden worden ist, das man keine Shaderreplacements praktiziere..

Jesus
2004-09-02, 20:44:09
Allerdings glaube ich nicht, daß ATi sich dermaßen untreu wird, wo doch immer auf dem Standpunkt gestanden worden ist, das man keine Shaderreplacements praktiziere.[/i].

naja sie lernen eben immer mehr Tricks von NV ;)

Quasar
2004-09-02, 20:46:04
naja sie lernen eben immer mehr Tricks von NV ;)

Wie meinst du das?

Jesus
2004-09-02, 20:48:54
Wie meinst du das?

du weisst wie ich es meine :rolleyes:

und ich werde es jetzt auch nicht weiter ausführen, sonst artet das wieder in nem flame thread aus ...

Quasar
2004-09-02, 20:50:21
du weisst wie ich es meine :rolleyes:

und ich werde es jetzt auch nicht weiter ausführen, sonst artet das wieder in nem flame thread aus ...

Ach so meinst du das.... schade, daß du es selbst schon wieder als Grundstein für einen Flame-Thread ansiehst.

Warum sparst du dir dann nicht solche Postings gleich? :down:

Jesus
2004-09-02, 21:01:02
naja ich weiss mittlerweile wie einige hier so auf Tatsachen die ihnen nicht gefallen reagieren :tongue:

allerdings schweift diese Diskussion schon wieder in OT- Gefilde ab...

back to topic, hier (http://www.beyond3d.com/forum/viewtopic.php?t=15359&view=next) steht was ähnliches, ist allerdings schon etwas älter:

Richard Huddy: There are several issues at play here, and it’s worth disentangling what’s going on.
Firstly the benchmark numbers which have been released used ATI drivers which have not been heavily tuned for Doom3. In contrast, NVIDIA’s drivers contain all sorts of optimisation for Doom3, including one that’s likely to get a lot of attention in the future.

John Carmack of ID software, the creators of Doom3, also noted that NVIDIA’s driver seems fast, but he also noticed that if he made small changes to his code then performance would fall dramatically. What this implies is that NVIDIA are performing “shader substitution” again. We saw them spend most of last year doing this for benchmarks, and the consequence looks like faster benchmark numbers but it’s important to understand that the NVIDIA driver isn’t running the same code as the ATI driver. The ATI driver does what it’s asked, and does it fast, and the NVIDIA driver does something that’s quite similar to what it’s asked to do – but which is only chosen because it’s faster.
That makes this benchmark a rather unfair and unrealistic comparison...


Glaube kaum das ATI es sich leisten kann NV für etwas zu beschuldigen was dann am Ende nicht stimmen sollte ... wird mal Zeit den 'Warum liegt die X800 in D3 Hinten' Artikel zu überarbeiten :rolleyes:

my2cents

r@h
2004-09-02, 21:03:01
naja sie lernen eben immer mehr Tricks von NVZuerst groß rumzutönen, dass man dieses [wie die Konkurrenz] NIEMALS machen würde... auch nicht nötig hätte... nun doch aber auch rein gar nichts anderes macht... es jetzt selbsterdend 'gut' ist?

Sorry, aber ATI furzt in letzter Zeit echt nur noch rum.

Razor

Quasar
2004-09-02, 21:05:21
naja ich weiss mittlerweile wie einige hier so auf Tatsachen die ihnen nicht gefallen reagieren :tongue:

Bis jetzt sehe ich noch keine Tatsachen - eher beidseitige Anschuldigungen von ATi an nVidia und von nVidia an ATi.

Aber interessant, wer sowas alles gleich als "Tatsache" aufgefasst sehen möchte.
:P

r@h
2004-09-02, 21:08:58
Glaube kaum das ATI es sich leisten kann NV für etwas zu beschuldigen was dann am Ende nicht stimmen sollte ... wird mal Zeit den 'Warum liegt die X800 in D3 Hinten' Artikel zu überarbeitenAlso mich würde jetzt echt mal interessieren, was eigentlich Deine Meinung zu dem Thema ist... oder hast Du etwa keine?
Ist ShaderReplacement nun 'gut' oder 'schlecht'?

Oder ist es etwa nur 'gut', wenn ATI es macht, aber 'schlecht' wenn's nVidia tut?
Jetzt mal Butter mit der Fische!

Ich will endlich ein Statement von Dir, um Dir Deine damaligen um die Ohren hauen zu können...

my2centsSteck' sie Dir sonstwo hin.

Razor

LovesuckZ
2004-09-02, 21:11:00
"Ein neuer Treiber, der in wenigen Wochen erscheint, soll bei Doom 3 nun selbst Shader Replacement einsetzen, um Grafikkarten mit den Radeon-X800-Chips schneller zu machen. Es werde aber einen Schalter geben, mit dem der Anwender selbst entscheiden kann, ob Shader Replacement aktiv ist oder nicht."

Neben Gi nun auch das.
Naja, aber einen Schalter fuer richtige Filterung waere dann doch zu kompliziert fuer den User :ugly:
Schade, aber ATi scheint echt sich auf das Niveau von Nvidia vom letzten Jahr zu begeben.
Werden einen immer unsympathischer. Mal sehen, vielleicht kommt ein dritter Hersteller mit einer vernuenftigen Karte, der es auch ohne Luegen, Unwahrheiten und suspekten Aussagen schafft zu ueberzeugen.

Jesus
2004-09-02, 21:13:48
Also mich würde jetzt echt mal interessieren, was eigentlich Deine Meinung zu dem Thema ist... oder hast Du etwa keine?
Ist ShaderReplacement nun 'gut' oder 'schlecht'?

Oder ist es etwa nur 'gut', wenn ATI es macht, aber 'schlecht' wenn's nVidia tut?
Jetzt mal Butter mit der Fische!

Ich will endlich ein Statement von Dir, um Dir Deine damaligen um die Ohren hauen zu können...

Steck' sie Dir sonstwo hin.

Razor

oh da hab ich wieder jemandem ans Bein gepinkelt ;D dein hirnloses geflame kannst du dir sparen, das zieht nicht

Shaderreplacement ist (in Spielen), genauso wie AF optimierungen, gut, wenn man nichts davon merkt (imho). Wenns nur einer macht ist es natürlich ein unfairer Vorteil, wenns dagegen beide machen ist es mir ziemlich egal...

Quasar
2004-09-02, 21:31:33
Ich glaube, es wäre in dieser Situation recht wichtig, das Original dieser Äußerungen zu haben, denn:
Nvidia habe die Szenen innerhalb des 3D-Shooters analysiert und die Shader so vereinfacht, dass nur noch die für die speziellen Situationen unbedingt notwendigen Berechnungen ausgeführt werden.das könnte man auch so formulieren:
Nvidia analysiere die Szenen innerhalb des 3D-Shooters und vereinfacht die Shader so, dass nur noch die für die speziellen Situationen unbedingt notwendigen Berechnungen ausgeführt werden.
und das wäre dann nichts anderes als eine Beschreibung für Ultra-Shadow II.

Hoffentlich hat nV hier ATi nicht eine ganz böse Falle gestellt und läßt sie jetzt ins offene Messer laufen.

edit:
"forumlieren" gibt's nicht, aber "formulieren"

Jesus
2004-09-02, 21:36:17
Ich glaube, es wäre in dieser Situation recht wichtig, das Original dieser Äußerungen zu haben, denn:
das könnte man auch so forumlieren:

und das wäre dann nichts anderes als eine Beschreibung für Ultra-Shadow II.

Hoffentlich hat nV hier ATi nicht eine ganz böse Falle gestellt und läßt sie jetzt ins offene Messer laufen.


jo das wäre natürlich auch möglich ( und ziemlich dumm für ATI )...

Aber wer weiss, vielleicht tauft ATI das neue Shaderreplacement ja ganz einfach Ultra Shadow III ? :biggrin:

deekey777
2004-09-02, 21:37:48
jo das wäre natürlich auch möglich ( und ziemlich dumm für ATI )...

Aber wer weiss, vielleicht tauft ATI das neue Shaderreplacement ja ganz einfach Ultra Shadow III ? :biggrin:


Wenn US, dann Ultra Shadow HD.

Piffan
2004-09-02, 22:01:12
Ich verstehe die Aufregung echt nicht. Wirkt eher etwas bemüht. Seit langen wissen wir doch, dass Standardbenches für die Tonne sind......

Da liegt es eher an den Testern, "alternative" Benches zu wählen.

Falls jemals die Treiber "intelligent" sind und die Shader selbst optimieren und das auch noch in Echtzeit, dann ist die ganze Debatte über Optimierungen vorbei......oder auch nicht, dann könnten die "Bösen" immer noch manuell vorarbeiten.

Falls die Treiber dynamisch die Shader austauschen könnten, dann geht der Hickhack über die Bildqualität in die nächste Runde. Zu den Filtertricks gesellen sich dann noch Verschlechterungen der BQ, die immer an der Schmerzschwelle bleiben und so leicht "übersehen" werden.....

Naja, solange die Hardwaretester und Magazine Awards vergeben, obwohl die Performanceunterschiede eher marginal sind, wird geschummelt auf Teufel komm raus. Beispiel die obskuren Kaufempfehlungen bei Mainboards, die auschließlich daraus resultieren, dass ein Hersteller per default leicht übertaktet.....

Radeonator
2004-09-02, 22:09:45
Naja, es ist nur nicht in Ordnung, etwas zu bashen wenns von Firma A kommt und wenn das gleiche bei Firma B gemacht wird zu biasen ;)

Nicht sichtbare Optimierungen (also nicht wie z.B.: v1.1 für FX in FC und humus für ATi in D3) wären in Ordnung, wenn man sie denn ausnahmsweise mal wirklich nicht sieht ;)

Gast
2004-09-02, 22:11:06
oh da hab ich wieder jemandem ans Bein gepinkelt ;D dein hirnloses geflame kannst du dir sparen, das zieht nicht

Shaderreplacement ist (in Spielen), genauso wie AF optimierungen, gut, wenn man nichts davon merkt (imho). Wenns nur einer macht ist es natürlich ein unfairer Vorteil, wenns dagegen beide machen ist es mir ziemlich egal...

Na wie gut dass viele und vor allem du in der Vergangenheit so auf Fairniss bedacht waren.
Wie lange cheatet ATI doch gleich schon bei ihren grotten miesen Filterung rum um Benchmarkperformance zu ergaunern?
Schon ziemlich lange.

Dieses Ganze Affentheater ist enfach lächerlich. An ATIs Aktionen in den letzten gut 6 Monaten merkt man, dass sie langsam nervös werden. Vorbei ists mit der Herrlichkeit, in der ATI sich alles leisten konnten ohne das sich auch nur ein fuck Reviewer daran gestört hat. Der Performancevorsprung ist weg und ist allenfalls in einen Rückstand umgewandelt worden. Die Konkurenz liefert mehr und bietet mehr und das fürs gleiche Geld. Zugegebener Maßen durch in Kauf nehmen eines geringeren Profits aber das ist mir als Kunde ja egal.
ATIs Lineup ist momentan schlicht und einfach nicht stark genug und viel zu unausgewogen und die Lieferschwierigkeiten machen mit jedem Tag mehr Leute sauer -> Finger auf die Vapoware X800XT-PE zeig.
Ist schon lustig wie schnell aus dem angeblichen "Saubermannsladen" zu Zeiten von R3xx eine ziemlich lamer Verein geworden ist. Mit einmal ist einem jedes Mittel recht und das in nur 6 Monaten.
Wie schnell sich das Blatt doch wenden kann. Für ATI hoffe ich, dass die 6600 und ihre Abkömmlinge ATIs Mainstreamprodukte zersägen. Das wäre für den Kunden die beste Lösung. Dann besinnen sie sich ganz schnell und kommen wieder runter von Ihrem Ross.
Mir ists wurscht welchen Mist die anderen in der Vergangenheit verzapft haben. Momentan liegen sie vorn und nur das juckt mich als potentieller Käufer. Ich will ja den größten Value für mein Geld. Was mit den beiden Firmen ist, is mir total egal. Deswegen ganz klar GF6800GT oder non Ultra. ATIs Angebote in dem Segment sind nicht überzeugend und das auch ohne Doom3.
Da müssen sie einfach mal mehr Geld investieren und aufhören sich auf vergangenen und vergessenen Erfolgen auszuruhen. Dafür interessiert sich niemand. Hier jetzt und heute zählt. Also mal besser nicht beleidigte Leberwurst spielen sondern endlich mal vernünftige und vor allem neue Technologie bringen so wie die Konkurenz.

MikBach
2004-09-02, 22:15:41
Also mich würde jetzt echt mal interessieren, was eigentlich Deine Meinung zu dem Thema ist... oder hast Du etwa keine?
Ist ShaderReplacement nun 'gut' oder 'schlecht'?

Oder ist es etwa nur 'gut', wenn ATI es macht, aber 'schlecht' wenn's nVidia tut?
Jetzt mal Butter mit der Fische!

Razor
Shaderreplacement ist bei Spielen eigentlich eine gute Sache, das habe ich aber auch schon früher, wo nur Nvidia es gemacht hat geschrieben. Bei theotetischen Benchmarks ist es aber unzulässig, weil andere Shader verwendet werden als der Progger es vorgesehen hat. Siehe das desaster bei der FX und 3dMurks03. ;)

Und lass die flames gegen Jeseus.

mirovb
2004-09-02, 22:18:36
@jesus : bin Deiner Meinung

Was dem einen IHV recht sein kann (Shader Replacement), muss dem anderen nur billig sein. Sprich: solange durch Shader Replacements -OHNE BILDQUALITÄTSVERLUST- die Performance steigt, ist mir das doch als Anwender Scheiß egal....im Gegenteil Ich begrüsse es dann doch, wenn die Qualität stimmt und die FPS Zahl steigt...

desweiteren habe Ich dann als Käufer einer Karte eine objektivere Bewertung der Leistung...man muss halt gegeneinander ZU GLEICHEN BEDINGUNGEN vergleichen...

es darf aber nicht sein, das EIN grosser Graka Hersteller alleine diesen Weg beschreitet (beschreiten darf)....die ShaderCodes und Möglichkeiten der Optimierung sollten somit allen Graka Treiber Programmierern zugänglich sein, um dann das beste aus dem Treiber herausholen zu können....

das betrifft nicht nur DOOM3, sondern alle zukünftigen Games, egal ob ATi oder NV seine Finger mit im Spiel hat

..auch wenn ATi immer gesagt hat , das Sie das nicht tun werden mit ShaderPeplacement im speziellen Fall, muss man seine Meinung halt ändern, wenn etwas nicht gerecht zugeht ! Und davon gehe Ich mal aus bzw. sehe Ich das nun einmal so !!!

auch wenn LS und Razor plötzlich ATi's "Image" und "Glaubwürdigkeit" davonschwimmen sehen o.ä....man kann und muss halt wohl immer mit der Formulierung übertreiben, das gibt manchen Leuten hier wohl den "letzten" Kick, endet aber meistens in einer Provokation ... :P

Jedenfalls, es kann nicht angehen das nur ein Graka Hersteller auf ein PC Spiel hin optimiert, das es nicht einmal zu kaufen gibt...das verzerrt den Wettbewerb der Graka Hersteller, weil dadurch ja evtl. die Meinung des Käufers irregulär beeinflusst wird...das müsste grundsätzlich geändert werden....sponsoring ist ja schön und gut (z.B. Verkauf einer Graka im Bundle mit Game), aber AUSSCHLIESSLICH einen IHV an einer Spielentwicklung teilhaben zu lassen, finde Ich nicht fair...

Da werden viele anderer Meinung sein, aber lasst uns mal die nächsten Tests mit neuen Treibern abwarten...

Ich habe mir auch eine GeForce 6800 GT gegönnt...aus gutem Grund (mit und) wegen der besseren Doom3 Performance...evtl. überlege Ich mir das ganze noch einmal...

warten wir einfach mal ab, was noch so dabei alles herauskommt....für Nvidia hat sich die Sache bis jetzt jedenfalls gelohnt, das ist mal sicher. Die 6800 ist der bringer, und das hat sehr viel mit der "DOOM 3" Leistung zu tun !!
:wink:

MikBach
2004-09-02, 22:20:55
Nicht sichtbare Optimierungen (also nicht wie z.B.: v1.1 für FX in FC und humus für ATi in D3) wären in Ordnung, wenn man sie denn ausnahmsweise mal wirklich nicht sieht ;)
Poste mal zwei Bilder mit Humus-Patch und ohne, damit ich dir folgen kann.
Ich habe da bisher keine Unterschiede gesehen, und einige, wo ich den Tweak installiert habe auch nicht.

mirovb
2004-09-02, 22:25:57
......Dieses Ganze Affentheater ist enfach lächerlich. An ATIs Aktionen in den letzten gut 6 Monaten merkt man, dass sie langsam nervös werden. Vorbei ists mit der Herrlichkeit, in der ATI sich alles leisten konnten ohne das sich Wie schnell sich das Blatt doch wenden kann. Für ATI hoffe ich, dass die 6600 und ihre Abkömmlinge ATIs Mainstreamprodukte zersägen. Das wäre für den Kunden die beste Lösung. Dann besinnen sie sich ganz schnell und kommen wieder runter von Ihrem Ross.
Mir ists wurscht welchen Mist die anderen in der Vergangenheit verzapft haben. Momentan liegen sie vorn und nur das juckt mich als potentieller Käufer. Ich will ja den größten Value für mein Geld. Was mit den beiden Firmen ist, is mir total egal. Deswegen ganz klar GF6800GT oder non Ultra. ATIs Angebote in dem Segment sind nicht überzeugend und das auch ohne Doom3.

Na ja, das zweite Absatz stimmt zum Teil , auch wenn der erste etwas reisserisch ist...ATI hat z.Z. der GF6800 GT nicht viel entgengen zu setzen, da haben Sie wirklich fehler gemacht und hätten die X800Pro lieber mit 16 Pipes ausstatten sollen...

aber das tut jetzt nicht zur Sache...Off Topic

StefanV
2004-09-02, 22:31:48
edit:
Allerdings glaube ich nicht, daß ATi sich dermaßen untreu wird, wo doch immer auf dem Standpunkt gestanden worden ist, das man keine Shaderreplacements praktiziere..
Hat ATi denn 'ne andere Wahl??
Bisher mussten sie es nicht machen, jetzt steht ihnen das Wasser bis zum Halse...

StefanV
2004-09-02, 22:36:20
Zuerst groß rumzutönen, dass man dieses [wie die Konkurrenz] NIEMALS machen würde... auch nicht nötig hätte... nun doch aber auch rein gar nichts anderes macht... es jetzt selbsterdend 'gut' ist?

Sorry, aber ATI furzt in letzter Zeit echt nur noch rum.

Razor
Wenn 'ne Meute 'wilder Leute' von hinten ankommt, links und rechts kannst nicht flüchten und die stehst vor einer Klippe, alleine, denn der andere ist ja schon unten.

Würdest du unter diesen Umständen nicht auch springen??
Oder würdest du dich lieber niedermetzeln lassen?!

MikBach
2004-09-02, 22:37:34
Na wie gut dass viele und vor allem du in der Vergangenheit so auf Fairniss bedacht waren.
Wie lange cheatet ATI doch gleich schon bei ihren grotten miesen Filterung rum um Benchmarkperformance zu ergaunern?
Schon ziemlich lange.

Dieses Ganze Affentheater ist enfach lächerlich. An ATIs Aktionen in den letzten gut 6 Monaten merkt man, dass sie langsam nervös werden. Vorbei ists mit der Herrlichkeit, in der ATI sich alles leisten konnten ohne das sich auch nur ein fuck Reviewer daran gestört hat. Der Performancevorsprung ist weg und ist allenfalls in einen Rückstand umgewandelt worden. Die Konkurenz liefert mehr und bietet mehr und das fürs gleiche Geld. Zugegebener Maßen durch in Kauf nehmen eines geringeren Profits aber das ist mir als Kunde ja egal.
ATIs Lineup ist momentan schlicht und einfach nicht stark genug und viel zu unausgewogen und die Lieferschwierigkeiten machen mit jedem Tag mehr Leute sauer -> Finger auf die Vapoware X800XT-PE zeig.
Ist schon lustig wie schnell aus dem angeblichen "Saubermannsladen" zu Zeiten von R3xx eine ziemlich lamer Verein geworden ist. Mit einmal ist einem jedes Mittel recht und das in nur 6 Monaten.
Wie schnell sich das Blatt doch wenden kann. Für ATI hoffe ich, dass die 6600 und ihre Abkömmlinge ATIs Mainstreamprodukte zersägen. Das wäre für den Kunden die beste Lösung. Dann besinnen sie sich ganz schnell und kommen wieder runter von Ihrem Ross.
Mir ists wurscht welchen Mist die anderen in der Vergangenheit verzapft haben. Momentan liegen sie vorn und nur das juckt mich als potentieller Käufer. Ich will ja den größten Value für mein Geld. Was mit den beiden Firmen ist, is mir total egal. Deswegen ganz klar GF6800GT oder non Ultra. ATIs Angebote in dem Segment sind nicht überzeugend und das auch ohne Doom3.
Da müssen sie einfach mal mehr Geld investieren und aufhören sich auf vergangenen und vergessenen Erfolgen auszuruhen. Dafür interessiert sich niemand. Hier jetzt und heute zählt. Also mal besser nicht beleidigte Leberwurst spielen sondern endlich mal vernünftige und vor allem neue Technologie bringen so wie die Konkurenz.
Einfach nur LOL.
Hast auch was vom TWIMTBP-Programm gehört?
Das war Kundenverarsche, wie es sie noch nicht gegeben hat.
In dieses Programm wurden Spiele aufgenommen, wo Nvidia mit ihrrer FX deutlich langsamer war als ATI mit der R(V)3XX-Serie. Hier wurde einfach dem Kunde vorgetäuscht, dass die FX so toll ist, obwohl es bei Games der letzte Dreck war/ist.
Hast du auch was vom Shaderreplacement beim 3dMurks03 gehört?
Na ja wahrscheinlich nicht, sonst müssten wir uns jetzt das Gelabber von dir nicht anhören.
Solche Aktionen hat ATI bisher nicht gebracht. Es wurden nur Spiele ins ATI-Programm aufgenommen, welche wirklich auf ATI besser laufen, also keine Verarsche wie bei Nvidia.

StefanV
2004-09-02, 22:38:10
Also mich würde jetzt echt mal interessieren, was eigentlich Deine Meinung zu dem Thema ist... oder hast Du etwa keine?
Ist ShaderReplacement nun 'gut' oder 'schlecht'?

Oder ist es etwa nur 'gut', wenn ATI es macht, aber 'schlecht' wenn's nVidia tut?
Jetzt mal Butter mit der Fische!
Shader Replacement ist scheiße...

Nur: wenn die eine Partei sich mit Shaderreplacement einen Vorteil erschummelt, dann muss auch die andere Seite reagieren, sonst steht denen bald das Wasser bis zum Halse.

Und ich denke nicht, daß ATI sonderlich erfreut ist, wegen dem Shader Replacement und das der Abstand so gewaltig ist...

mirovb
2004-09-02, 22:57:48
@payne

das habe Ich früher eigentlich genauso gesehen, das man nicht speziell optimieren sollte mittels ShaderReplacement, sondern allgemein. Es sollte eigentlich gerechter zugehen...aber da nun mal eine Seite mit diesen Mitteln arbeitet, bleibt der anderen nichts anderes übrig, als dies auch zu tun...das ist schon lange so der Fall und wird sich auch nicht mehr ändern !!

ATi hat es nur zu spät eingesehen, das es einfach keinen Zweck (mehr) hat, sich an "sinnvolle und vernünftige" Dinge zu klammern und jetzt wachen Sie langsam auf... :D

tja, wenn einer damit anfängt, muss der andere nachziehen...nicht zu vergessen: es geht um viele Benchmarkpunkte>viel Geld>Marktstellung...wer will da schon am nächsten Tag seine Märkte verlieren ???

jetzt darüber zu streiten, wer damit angefangen hat und wer den "längsten" hat, bringt gar nichts...in Zukunft muss sich was ändern..

wie Ich schon sagte: jedem IHV gleicher Zugriff auf gleiche Codes eines Games, schon ist alles in butter...jeder Graka Hersteller kann jetzt zeigen, was er kann und Optimieren....auch durch Shader Replacements...nur das hat was mit Gerechtigkeit zu tun ! Nicht zu vergessen: ALLES BEI GLEICHER BILDQUALITÄT !!!

deekey777
2004-09-02, 22:58:57
Zum "TWIMTBP"-Programm: Ein Spiel, welches das Logo trägt, muss nicht gleichzeitig/zwangsläufig auf der nVidia-HW auch schneller laufen, sondern nur, dass dieses Spiel auf NV-Grafikkarten läuft.

Das ist eh eine faule Ausrede mit dem Shader Replacement, da dies den wunden Punkt nVidias darstellt (siehe zB 3D2003). Andersrum sollte man sich fragen, ob Doom 3 ein Shader fressendes Monstrum?

Quasar
2004-09-02, 23:07:26
Hat ATi denn 'ne andere Wahl??
Bisher mussten sie es nicht machen, jetzt steht ihnen das Wasser bis zum Halse...

Ja, die Wahl, die auch nVidia gehabt hätte: Die "Niederlage" nicht noch durch Täuschungsversuche verschlimmern (Benchmarks verloren UND schlechte PR), sondern die Runde als verloren akzeptieren und für die next-gen einen Chip entwickeln, der durch Performance, nicht durch Cheats überzeugt.

Die Wahl hat eigentlich jeder.

Gast
2004-09-02, 23:11:32
Wieso? Gerade die ATi-Gläubigen haben ein "neues" Thema zum Diskutieren.

Ich danke Gott das mehr als 70% Gamer im Highend ATI verwenden und ich danke Gott weiterhin das nv nur in einem Spie! schneller ist als ATI und warum das so ist müßte jeder wissen der sich die Buchs niet mit der Kneifzange anzieht.

Hoffentlich verlieren die nvidia-Gläubigen nicht Ihren GLAUBEN!

Leonidas
2004-09-02, 23:11:54
Glaube kaum das ATI es sich leisten kann NV für etwas zu beschuldigen was dann am Ende nicht stimmen sollte ... wird mal Zeit den 'Warum liegt die X800 in D3 Hinten' Artikel zu überarbeiten :rolleyes:




Auf Grundlage von was? Vermutungen? Halbausgegorenen Aussagen einer der beiden Parteien?

Nö. Ich warte erstmal ab, was da in der c´t steht.

Gast
2004-09-02, 23:19:57
Eigentlich braucht man auf solche TOLLEN beiträge gar nicht zu antworten, aber nach 2 solcher dummen Beiträgen hält man es ja in der Rübe nicht mehr aus. Dein Niveau ist schon durch "Dumm 3" gekennzeichent genug, aber scheinbar verstehste nicht den Hintergrund von der ganzen Sache, den Doom3 ist nicht nur ein Game sondern auch eine Engine mit zukunftsweisenden Lightning-Effekten. Und ATI wird wahrscheinlich auch in anderen Spielen die diese Engine (oder die Technik, die dahinter steht) benutzen hinterhecheln, wenn sie jetzt nicht auf den "Shader-replacement" Zug aufspringen.

Hauwech
2004-09-02, 23:27:58
Also das Gast Posting mit den zukunftsweisenden Lighting-Effekten kann man stehen lassen.

Kann aber nicht mal jemand die anderen nur noch peinlichen Gast-Flameversuche löschen?

ARRAndy
2004-09-02, 23:44:16
zum einen kommen mir eher die ATI Leutz so vor in vergleich mit damaligen 3dfx zeiten. voodoo3 ist scheiße denn sie hat kein 32bit. jeder hackte auf der karte rum obwohl 32bit voll fürn sack war. aber was die medien den leuten reinhämmern tut das zieht und machte 3dfx kaputt. wwas ich damit sagen will: die alten ATI Karten waren gut und die neuen sind scheiße .Punkt. das was ati noch nie in den griff bekommen hat sind die treiber und so ists jetzt wieder. auch wenn die hardware passabel ist machen die rotz treiber einiges zunichte. man schau sich nur die FX serie am anfang an und mit fortentwickelten treibern. was fällt auf: irgendwann hangen die fxen garnicht mehr so weit hinter den radeon karten sondern waren im grunde genommen fast gleichwertig. was ich damit wiederrum sagen will. die leistung der ati karten (der aktuellen) wird wieder nicht viel besser werden. dei der 6x00er von nv wwird steigen was einfach nur heißt in 2 monaten ist der abstand zu den ati teilen noch größer :P

Tjell
2004-09-02, 23:51:19
[Gegenwart]
"NV nutzt Shaderreplacement bei Doom3, um Performance zu gewinnen."
"Uuhh, wie böse. Das dürfen die doch garnicht. UNFAIR!"

"ATI bereitet Shaderreplacement für Doom3 vor, um Performance zu gewinnen."
"Oi, jetzt machen se doch glatt NV nach. Und beschweren sich auch noch, daß das eigentlich nicht gut sei. Tststs..."


[Rückblende]
"ATI cheatet! Der trilineare AF-Filter ist garnicht wirklich voll trilinear. BETRUG!"
"Ist doch egal, hat doch bisher niemand den "Cheat" entdecken können, also liefert er genauso gute BQ. It's not a cheat - it's a feature!"


[Gegenwart]
Was lernen wir daraus? Beide Hersteller haben hinter den Vorhängen ihre Eisen im Feuer, auf die eine oder andere Art.

Wünschenswert wäre jedoch, immer im Vorwege über solche "Eisen" von den Herstellern selbst informiert zu werden, vielleicht würde man dann ja mehr auf Auswirkungen möglicher "Optimierungen" achten und, sofern die Option geboten wird, abgeschaltet?

Oder, da bisher kaum jemandem gravierende BQ-Nachteile in beiden Fällen, damals wie jetzt, aufgefallen sind, lehnen sich die Spieler zurück, lassen Optimierung Optimierung sein und tun das, was sie als Spieler sonst auch tun - spielen. editiert

Oder gibt es den goldenen Mittelweg? Who knows?

:ucatch:

Gast
2004-09-03, 00:02:19
Nun der ct kann man in Sachen Grafikkarten ja nur wenig Kompetenz zusprechen, da sie sich immer wieder Schnitzer erlauben, die einfach von Unwissen zeugen.

OT:

in der aktuellen c't steht im artikel zu doom III sinngemäss, dass doom III sehr viele polygone verwendet... aber genau das macht doch doom III afaik nicht (habe es selber noch nicht gesehen).

aber ot

Piffan
2004-09-03, 00:33:22
OT:

in der aktuellen c't steht im artikel zu doom III sinngemäss, dass doom III sehr viele polygone verwendet... aber genau das macht doch doom III afaik nicht (habe es selber noch nicht gesehen).

aber ot

Viele Polygone ist relativ! Es wird durch Bumps zwar mehr vorgegaukelt, als tatsächlich da ist, aber so wie ich das sehe, sind die Szenen nicht wirklich polygonarm.

Ohne dass ich weiß, wie die Schatten funktionieren, aber falls die auch auf Polygonbasis laufen, dann kann Doom gar nicht polygonarm sein.

Exxtreme
2004-09-03, 00:37:51
OT:

in der aktuellen c't steht im artikel zu doom III sinngemäss, dass doom III sehr viele polygone verwendet... aber genau das macht doch doom III afaik nicht (habe es selber noch nicht gesehen).

aber ot
Es werden schon viele Polygone verwendet... und auch nicht. :D

Doom 3 nimmt IIRC ein High-Poly-Modell, erzeugt aus diesem Modell eine Textur und trägt diese Textur auf ein Low-Poly-Modell auf. Man bekommt so eine gute Ausleuchtung des Modells, ohne daß die CPU bei der Schattenberechnung extrem in die Knie geht.

Gast
2004-09-03, 00:46:24
Shaderreplacement ist bei Spielen eigentlich eine gute Sache, das habe ich aber auch schon früher, wo nur Nvidia es gemacht hat geschrieben. Bei theotetischen Benchmarks ist es aber unzulässig, weil andere Shader verwendet werden als der Progger es vorgesehen hat. Siehe das desaster bei der FX und 3dMurks03. ;)

Und lass die flames gegen Jeseus.

Das könnte man auch anders auslegen.
Wenn der Progger eine Option für ein bestimmtes Setting z.b Trillinear On im Spiel anbietet, dann will er das hier zu 100% Trillinear gefiltert wird und genauso beim AF.
Dann will er keine Winkelabhängigkeit und schon gar nicht irgendwelche minderwertigen LOD Berechnungen und auch nicht ein permanent billinear bis man auf colored mip maps umstellt.
Das ist genauso Betrug. Und der wird von ATI schon seit der 8500 vollzogen. Nur komisch, dass es von den ganzen Leuten die jetzt ATI auch noch als die armen hinstellen wollen, dass irgendwie keiner so gesehen hat.
Naja hauptsache man dreht es sich zurecht wie man will.

Unterm Strich bleibt ATI liegt derzeit zurück und verhält sich wie ein kleines Kind genauso wie NV zu FX Zeiten. Sie sind nicht einen fuck mm besser als die anderen und bekommen in den nächsten Monaten die Quittung vom Kunden. Der interessiert sich nämlich einen Scheissdreck dafür welche tollen Konsolendeals ATI hat auf die sie sich konzentrieren müssen. Er will das maximale für sein geopfertes PC Geld. Für Einspaarungen an R&D wird und darf keiner Verständnis haben.
Heisst im Klartext der der weniger getan hat muss die Quittung bekommen. In dieser Runde ist das einfach ATI.
Kein SM3.0, miese Filterqualität, und zu wenig Leistung fürs Geld.

Jeder ist selbst schuld, wenn er sowas unterstützt, wenn es von der Konkurenz fürs gleiche Geld deutlich mehr gibt. Die Doom3 Schlappe liegt ganz allein an ATI und nicht an irgendwelchem Shaderreplacement und was weiss ich noch alles. Sonst fangen wir nämlich mal an und ziehen die durchschnittlich ergaunerten 10 bis 15% durch die miesen und unpräzisen Filter bei ATIs Produkten vor allem beim AF Einsatz auch ab.

Reines Damage Control bei denen derzeit nix anderes. Die beste Heilung wäre eine klare Niederlage im Mainstream. Das ist gut für den Kunden und mittelfristig schlecht für ATI. Aber nur so kommen sie wieder in die Spur genauso wie es Nvidia auch ergangen ist. Das ist die beste Medizin gegen zu viel Arroganz und Behebigkeit.

MadManniMan
2004-09-03, 02:02:39
Was viele immer wieder vergessen: die Shadercompiler. Wer weiß schon, wie so einer genau arbeitet? Mehr oder weniger hat man doch das selbe Ergebnis: eine andere, angepaßte, also effizientere Abarbeitung der Aufgabe. Unter der Vorraussetzung, daß ein spezielles Shaderreplacement die gleiche Ausgabe, wie der Originalcode liefert und ein Shadercompiler ja ebensolche Ergebnisse liefern soll, kann man meine Erachtens nicht das eine anprangern, ohne das andere zu erwähnen.

Ich bin mir nicht sicher mit der obigen Annahme, ich kann mich auch auf dem Holzweg befinden, aber dennoch bilde ich mir aus dem hier folgende Meinung: entweder Shadercompiler und -replacement* = $h1c3, oder keins von beiden.

*unter der Vorraussetzung, dass "Hinten" das Gleiche herauskommt*

tokugawa
2004-09-03, 03:45:48
Der Nvidia-Treiber würde die für die aufseheneregenden Licht- und Schatteneffekte verantwortlichen Miniprogramme durch einfachere Shader ersetzen, die mit weniger Instruktionen auskommen und dadurch schneller ablaufen.

Soviel dazu, dass id Doom3 Nvidiaoptimiert haette.

Übrigens, was haben Shadow Volumes jetzt konkret mit Shadern zu tun? Shadow Volumes ist doch generell eine Shader-lose Technik, wo man gewisse Teile (etwa das Silhouette-Extruding) durch Vertex Shader durchführen lassen kann.

Mal sehen was die c't über die Schattentechnik schreibt...

tokugawa
2004-09-03, 03:52:04
Einfach nur LOL.
Hast auch was vom TWIMTBP-Programm gehört?
Das war Kundenverarsche, wie es sie noch nicht gegeben hat.
In dieses Programm wurden Spiele aufgenommen, wo Nvidia mit ihrrer FX deutlich langsamer war als ATI mit der R(V)3XX-Serie. Hier wurde einfach dem Kunde vorgetäuscht, dass die FX so toll ist, obwohl es bei Games der letzte Dreck war/ist.
Hast du auch was vom Shaderreplacement beim 3dMurks03 gehört?
Na ja wahrscheinlich nicht, sonst müssten wir uns jetzt das Gelabber von dir nicht anhören.
Solche Aktionen hat ATI bisher nicht gebracht. Es wurden nur Spiele ins ATI-Programm aufgenommen, welche wirklich auf ATI besser laufen, also keine Verarsche wie bei Nvidia.

Henne-Ei. Wurde ein Spiel ins ATI-Programm aufgenommen, welche auf ATI besser laufen, oder wurde ein Spiel, das bereits ins ATI-Programm aufgenommen wurde, auf ATI besser-laufend gemacht.

Dieselbe Fragestellung natürlich für NVIDIA.

Die FX ist bei Games übrigens, zum hundertsten Mal, nicht der letzte Dreck. Sie mag in den meisten Spielen nicht so gut wie entsprechende ATI Karten sein, aber der letzte Dreck in Spielen ist sie deswegen noch lange nicht. Sie hinkt nur höchstens etwas zurück, aber ist noch sehr genießbar. Wenn du das anders siehst, probier mal eine XGI Volari (oder eine FX, die du ja offensichtlich nie verwendet hast).

tokugawa
2004-09-03, 03:57:55
Was viele immer wieder vergessen: die Shadercompiler. Wer weiß schon, wie so einer genau arbeitet? Mehr oder weniger hat man doch das selbe Ergebnis: eine andere, angepaßte, also effizientere Abarbeitung der Aufgabe. Unter der Vorraussetzung, daß ein spezielles Shaderreplacement die gleiche Ausgabe, wie der Originalcode liefert und ein Shadercompiler ja ebensolche Ergebnisse liefern soll, kann man meine Erachtens nicht das eine anprangern, ohne das andere zu erwähnen.

Ich bin mir nicht sicher mit der obigen Annahme, ich kann mich auch auf dem Holzweg befinden, aber dennoch bilde ich mir aus dem hier folgende Meinung: entweder Shadercompiler und -replacement* = $h1c3, oder keins von beiden.

*unter der Vorraussetzung, dass "Hinten" das Gleiche herauskommt*


Guter Post! Stimme zu.

Einen identen (low level)Shader für alle Chips zu haben, ist sowieso nicht mehr aktuell. Seit den Hochsprachen für Shader wird eine andere Form des "Shader-Replacement" praktiziert (oder zumindest empfohlen): nämlich die, dass der Shader-Compiler entsprechend auf die Chips optimierten Code ausspuckt. Das ist in gewissen Rahmen genau dasselbe wie Shader-Replacement, nur dass die Quelle eben ein High Level Language Shader ist, und nicht ein anderer Assembly Shader.

Selbst bei solchem "offiziellen" Shader-Replacement lassen sich gewisse funktionale Analysen treffen. Trotz Optimierung muß ein Shader funktional noch ident sein, also dieselbe Berechnung in derselben Flexibilität ausführen.

Hier stellt sich die Frage: sind NVIDIAs Shader-Replacements funktional ident mit den Originalen? Ist der Humus-Tweak funktional ident mit dem Originalshader? Diese Frage ist übrigens eine rein mathematisch/algebraisch-informatik-theoretische (und übrigens ein Nichttriviales. In der theoretischen Informatik gibt's ja auch immer wieder die Problemstellung ob zwei Programme funktional ident sind - war das nicht irgendsowas, was mit dem Hoare-Kalkül zu tun hatte? leider schon etwas länger her für mich...). Es reicht nicht, wenn ein replaceter Shader in einem Spiel dasselbe Ergebnis liefert, hier braucht man genaue theoretische Analysen.

tokugawa
2004-09-03, 04:03:43
Es werden schon viele Polygone verwendet... und auch nicht. :D

Doom 3 nimmt IIRC ein High-Poly-Modell, erzeugt aus diesem Modell eine Textur und trägt diese Textur auf ein Low-Poly-Modell auf. Man bekommt so eine gute Ausleuchtung des Modells, ohne daß die CPU bei der Schattenberechnung extrem in die Knie geht.

Dazu muß man aber noch sagen, dass es keine Diffuse-Texture ist, sondern eine Normalmap-Textur. Also eine Textur, die per Texel Normalen speichert, und womit man eine detailliertere Per-Pixel-Illumination bekommt.

Damals vor ein paar Jahren, als die ersten Screenshots zu Doom 3 auftauchten, hat id software noch ihr Normalmapping Tool als Neuheit gehypt, aber heutzutage bietet selbst NVIDIA gratis ein solches Tool an (MeLODy), das selbst das Low-Poly-Modell berechnet, und dazu die Normalmap.


PS: bin's nur ich oder findet das sonst wer noch ziemlich aufgebauscht? Aus Erfahrung meide ich ja gerade bei dieser Newsmeldung das heise-Forum (mal abgesehen davon dass da sowieso zur Hälfte nur Linux VS Windows VS Apple Flamewars und Trollversuche sind, egal bei was für einer Newsmeldung).

mirovb
2004-09-03, 04:47:50
http://www.tweakpc.de/?news_id=6544

Das ist auch genau meine Meinung, habe Ich ja schon vorher mit den gleichen Worten gepostet.

Nur muss es fair dabei zugehen, sprich jeder Graka Hersteller muss Zugang zu den Codes haben, damit jeder die Chance hat den Treiber darauf am besten einzustellen!

betasilie
2004-09-03, 05:31:25
Shaderreplacement ist doch eine feine Sache, solange es nicht auf Kosten der Qualität geht. Wo ist das Problem? NV hat´s schon getan, ATI wird's nachholen.

Unfair, wenn man es denn so nennen will, ist lediglich, dass NV monatelang Zeit hatte die Treiber auf DoomIII zu optimieren und Shaderreplacement zu betreiben. ATI wurde da benachteiligt, aber so ist das halt, wenn NV dafür hinblättert. Gelohnt hat sich diese Investition bestimmt, denn viele Leute werden in den Wochen seit dem D³ Release nach D³ Benchmarks gekauft haben und was das für ein Umsatzplus bedeutet sollte wohl klar sein. ;)

Piffan
2004-09-03, 07:43:46
Das könnte man auch anders auslegen.
Wenn der Progger eine Option für ein bestimmtes Setting z.b Trillinear On im Spiel anbietet, dann will er das hier zu 100% Trillinear gefiltert wird und genauso beim AF.
Dann will er keine Winkelabhängigkeit und schon gar nicht irgendwelche minderwertigen LOD Berechnungen und auch nicht ein permanent billinear bis man auf colored mip maps umstellt.
Das ist genauso Betrug. Und der wird von ATI schon seit der 8500 vollzogen. Nur komisch, dass es von den ganzen Leuten die jetzt ATI auch noch als die armen hinstellen wollen, dass irgendwie keiner so gesehen hat.
Naja hauptsache man dreht es sich zurecht wie man will.

Unterm Strich bleibt ATI liegt derzeit zurück und verhält sich wie ein kleines Kind genauso wie NV zu FX Zeiten. Sie sind nicht einen fuck mm besser als die anderen und bekommen in den nächsten Monaten die Quittung vom Kunden. Der interessiert sich nämlich einen Scheissdreck dafür welche tollen Konsolendeals ATI hat auf die sie sich konzentrieren müssen. Er will das maximale für sein geopfertes PC Geld. Für Einspaarungen an R&D wird und darf keiner Verständnis haben.
Heisst im Klartext der der weniger getan hat muss die Quittung bekommen. In dieser Runde ist das einfach ATI.
Kein SM3.0, miese Filterqualität, und zu wenig Leistung fürs Geld.

Jeder ist selbst schuld, wenn er sowas unterstützt, wenn es von der Konkurenz fürs gleiche Geld deutlich mehr gibt. Die Doom3 Schlappe liegt ganz allein an ATI und nicht an irgendwelchem Shaderreplacement und was weiss ich noch alles. Sonst fangen wir nämlich mal an und ziehen die durchschnittlich ergaunerten 10 bis 15% durch die miesen und unpräzisen Filter bei ATIs Produkten vor allem beim AF Einsatz auch ab.

Reines Damage Control bei denen derzeit nix anderes. Die beste Heilung wäre eine klare Niederlage im Mainstream. Das ist gut für den Kunden und mittelfristig schlecht für ATI. Aber nur so kommen sie wieder in die Spur genauso wie es Nvidia auch ergangen ist. Das ist die beste Medizin gegen zu viel Arroganz und Behebigkeit.


Ach komm schon. Sooo groß ist der Leistungsunterschied ja wohl nicht.

Als NV mit dem NV30 wirklich extrem hintenlag, da hätte man diese kraftvollen Töne anschlagen können......

Das Dilemma ist leider, dass Reviewer und Kunden auf läppische Leistungsunterschiede abgehen wie Schmidts Katze. Dein Post und das Verhalten vieler Kunden zeugt eindeutig von Hysterie. Und da ist kein Wunder, dass überall getrickst wird. Der Kunde braucht das.

Und dann wollen wir mal abwarten, was da für richtungsweisende Spiele mit der Doom- Engine da noch kommen werden. Doom ist nicht alles.....Wie wir ja gelesen haben, wird EA als wichtiger Publisher keinen Aufriss wegen SM 3 machen...

MikBach
2004-09-03, 08:52:27
Zum "TWIMTBP"-Programm: Ein Spiel, welches das Logo trägt, muss nicht gleichzeitig/zwangsläufig auf der nVidia-HW auch schneller laufen, sondern nur, dass dieses Spiel auf NV-Grafikkarten läuft.

Das sagst Du, das weiss ich und wahrscheinlich auch die meisten Member, die sich hier rumtreiben.
Bei den meisten Daus oder sagen wir mal Leuten, die sich mit der Materie nicht auskennen, sieht es jedoch anders aus.
Kurzer Wortwechsel(zu FarCry) mit einem Kumpel, der eine FX5900Ultra hat.
Ich:"läuft ja gar nicht mal so schlecht, wie ich gedacht habe, bei mir läuft das aber deutlich besser"
Er:"Willst du mich verarschen? DAS ist ein Nvidia-Spiel" ;D ;)
Da die breite Masse wahrscheinlich so wie er denkt, halte ich das Nvidia-Programm für Kundenverarsche.

MikBach
2004-09-03, 09:08:03
[Gegenwart]
"NV nutzt Shaderreplacement bei Doom3, um Performance zu gewinnen."
"Uuhh, wie böse. Das dürfen die doch garnicht. UNFAIR!"
Das macht Nvidia schon seeehr lange, nicht erst bei Doom3. Sogar bei synthetischen Benchmarks.

"ATI bereitet Shaderreplacement für Doom3 vor, um Performance zu gewinnen."
"Oi, jetzt machen se doch glatt NV nach. Und beschweren sich auch noch, daß das eigentlich nicht gut sei. Tststs..."
Schade das ATI erst jetzt damit anfängt, wäre gerechter, wenn sie schon früher damit begonnen hätten. ;)

[Rückblende]
"ATI cheatet! Der trilineare AF-Filter ist garnicht wirklich voll trilinear. BETRUG!"
"Ist doch egal, hat doch bisher niemand den "Cheat" entdecken können, also liefert er genauso gute BQ. It's not a cheat - it's a feature!"
Richtig, solange die meisten da nichts sehen ist es imo OK.

[Gegenwart]
Was lernen wir daraus? Beide Hersteller haben hinter den Vorhängen ihre Eisen im Feuer, auf die eine oder andere Art.
Nvidia deutlich mehr.


Oder, da bisher niemandem gravierende BQ-Nachteile in beiden Fällen, damals wie jetzt, aufgefallen sind, lehnen sich die Spieler zurück, lassen Optimierung Optimierung sein und tun das, was sie als Spieler sonst auch tun - spielen.
Richtig.
Ich denke die Diskussion zur BQ im Doom3-Thread hast du gelesen, weil:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2146682&postcount=110 ;)
Wenn du nicht zu Ende gelesen hast, dann schau dir bitte ab hier an:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=162627&page=8&pp=20
Besonders die Posts von Razor und mir.

:ucatch:

Tjell
2004-09-03, 09:27:09
Das macht Nvidia schon seeehr lange, nicht erst bei Doom3. Sogar bei synthetischen Benchmarks.

Schade das ATI erst jetzt damit anfängt, wäre gerechter, wenn sie schon früher damit begonnen hätten. ;)

Richtig, solange die meisten da nichts sehen ist es imo OK.

Nvidia deutlich mehr.


Richtig.
Ich denke die Diskussion zur BQ im Doom3-Thread hast du gelesen, weil:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2146682&postcount=110 ;)
Wenn du nicht zu Ende gelesen hast, dann schau dir bitte ab hier an:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=162627&page=8&pp=20
Besonders die Posts von Razor und mir.

:ucatch:
Deute meine Einfärbungen der Texte so, wie man sie "firmentechnisch" sehen kann, dann wirst du erkennen können, daß ich persönlich weiterhin auf dem Standpunkt stehe, den du auch als Link gepostet hast.

Daß bei nVidia nicht alles "im grünen Bereich" ( ;D ) liegt, was sie so getan haben, das ist klar, nur sollten manche Damen und Herren solcherlei Fehlverhalten auch ATI ankreiden und es nicht als "Ei des Kolumbus" feiern, wenn auf undokumentierte Weise Filtertricks angewendet werden, wenn man es wie geschehen später feststellt.

Optimierungen sehe ich dann als sinnvoll umgesetzt an, wenn sie bekannt und deaktivierbar sind, sollte man sie nicht brauchen oder wollen. Auch im nunmehr jüngsten Fall.

SamLombardo
2004-09-03, 09:49:08
Einfach nur LOL.
...dem Kunde vorgetäuscht, dass die FX so toll ist, obwohl es bei Games der letzte Dreck war/ist.


Na du must es ja wissen, hast sicher schon viele FX Karten gehabt :mad: . Die FX bietet immer noch gute Leistung in allen Games. Mit 160€ ist die 5900XT immer noch eine der Karten mit dem besten PL Verhältnis. Zum Teil ist sie sogar schneller als die 9800er (Open GL Games, auch Doom3), und sonst auch nur wenig langsamer. Und ist die einzighe Karte mit optimaler Filterqualität ohne die hässlichen Ati Optimierungen. Also erzähl hier nichts von "letzte Dreck" das ist einfach nur billiges Geflame.

MikBach
2004-09-03, 09:56:32
Henne-Ei. Wurde ein Spiel ins ATI-Programm aufgenommen, welche auf ATI besser laufen, oder wurde ein Spiel, das bereits ins ATI-Programm aufgenommen wurde, auf ATI besser-laufend gemacht.

Dieselbe Fragestellung natürlich für NVIDIA.
Hehe, woher wusste ich bloss, das Du auf mein Posting eingehst. ;)
Was ich sagen wollte ist, dass die Hersteller Spiele in ihre Programme aufnehmen solltem, wo man gleich oder schneller ist. Ob da jetzt Optimiert wird oder nicht, ist mir egal.
Nvidia hat einfach zu viele Spiele im Programm, die deutlich langsamer auf einem NV35 als R350 laufen. Bsp. FarCry, Thief3, DX2...
Das finde ich aus Kundensicht unfair, besonders bei denen, welche nicht mit der Materie vertraut sind. Weil die meisten Daus, die ein Nvidia-Loge sehen, vor allem mit dem Satz"The way it´s meant to be played" doch denken, das Nvidia hier der Massstab ist. ;)

Die FX ist bei Games übrigens, zum hundertsten Mal, nicht der letzte Dreck. Sie mag in den meisten Spielen nicht so gut wie entsprechende ATI Karten sein, aber der letzte Dreck in Spielen ist sie deswegen noch lange nicht. Sie hinkt nur höchstens etwas zurück, aber ist noch sehr genießbar. Wenn du das anders siehst, probier mal eine XGI Volari (oder eine FX, die du ja offensichtlich nie verwendet hast).
Also, wenn du 50% und mehr(siehe z.B. FC) als "etwas" bezeichnest, dann kann ich dir nicht folgen.
Deswegen zum hundertsten Mal, die FX ist für Gamer Dreck.

Und eine XGI werde ich mir mit Sicherheit nicht antun(auch wegen der BQ), das ist wirklich der allerletzte Dreck.

MikBach
2004-09-03, 10:04:32
Na du must es ja wissen, hast sicher schon viele FX Karten gehabt :mad: . Die FX bietet immer noch gute Leistung in allen Games. Mit 160€ ist die 5900XT immer noch eine der Karten mit dem besten PL Verhältnis. Zum Teil ist sie sogar schneller als die 9800er (Open GL Games, auch Doom3), und sonst auch nur wenig langsamer. Und ist die einzighe Karte mit optimaler Filterqualität ohne die hässlichen Ati Optimierungen. Also erzähl hier nichts von "letzte Dreck" das ist einfach nur billiges Geflame.
Ach hallo Sam. :)
Glaube mir, ich hab schon einige FX5900 verbaut und mit der 9800 verglichen.
OK. Dreck ist vielleicht das falsche Wort, aber eine 5900 ist im Schnitt aller Spiele gesehen doch deutlich langsamer als eine 9800.
Glaube mir, die 30€ Mehrpreis für eine 9800PRO lohnen sich wirklich.
Einige Kumpels von mir sind mit ihren FX5900 nicht mehr zufrieden, und fühlen sich bisschen verarscht, nachdem ich sie aufgeklärt habe(benchmarkbeläge).
Zu den Optimierungen habe ich mich schon weiter oben geäussert, bitte lesen. :)
Und der "Vorteil" OpenGL zieht nicht wirklich, bei einem Marktanteil unter 10%.

SamLombardo
2004-09-03, 10:34:29
Ach hallo Sam. :)
Glaube mir, ich hab schon einige FX5900 verbaut und mit der 9800 verglichen.
OK. Dreck ist vielleicht das falsche Wort, aber eine 5900 ist im Schnitt aller Spiele gesehen doch deutlich langsamer als eine 9800.
Glaube mir, die 30€ Mehrpreis für eine 9800PRO lohnen sich wirklich.
Einige Kumpels von mir sind mit ihren FX5900 nicht mehr zufrieden, und fühlen sich bisschen verarscht, nachdem ich sie aufgeklärt habe(benchmarkbeläge).
Zu den Optimierungen habe ich mich schon weiter oben geäussert, bitte lesen. :)
Und der "Vorteil" OpenGL zieht nicht wirklich, bei einem Marktanteil unter 10%.

Danke für die nette begrüßung :wink:
Nun, die 9800pro hat in der Tat ein super PL Verhältnis. Wahrscheinlich ist es heutzutage tatsächlich lohnenswert diese zu nehmen und 30€ mehr auszugeben als für die FX (was bei weitem nicht immer so war, lange war die 5900XT unangefochtener Preis Leistungs Sieger). Dennoch halte ich die FX für eine gute Karte und es ungerechtfertigt diese als Dreck zu bezeichnen, was doch sehr nach Flame klingt.
Sam

Gast
2004-09-03, 10:53:48
Shaderreplacement ist doch eine feine Sache, solange es nicht auf Kosten der Qualität geht. Wo ist das Problem? NV hat´s schon getan, ATI wird's nachholen.

Unfair, wenn man es denn so nennen will, ist lediglich, dass NV monatelang Zeit hatte die Treiber auf DoomIII zu optimieren und Shaderreplacement zu betreiben. ATI wurde da benachteiligt, aber so ist das halt, wenn NV dafür hinblättert. Gelohnt hat sich diese Investition bestimmt, denn viele Leute werden in den Wochen seit dem D³ Release nach D³ Benchmarks gekauft haben und was das für ein Umsatzplus bedeutet sollte wohl klar sein. ;)

Unfair, wenn man es denn so nennen will, ist lediglich, dass NV monatelang Zeit hatte die Treiber auf HalfLife2 zu optimieren und Shaderreplacement zu betreiben. NV wurde da benachteiligt, aber so ist das halt, wenn ATI dafür hinblättert. Gelohnt hat sich diese Investition bestimmt, denn viele Leute werden in den Wochen seit dem HL2 Release nach HL2 Benchmarks gekauft haben und was das für ein Umsatzplus bedeutet sollte wohl klar sein. ;)

Merkst du was?

Als wenn es nur an den Treibern und Shaderreplacement liegt das eine 6800GT eine X800XT-PE hinter sich laesst... Ist ja auch unfair wenn NV Carmack erhört und Sachen in die GPU einbaut die D3 schmecken. Tja, ATI hätte es ja auch machen können, haben sie aber nicht und jetzt willst du uns erzählen das sowas unfair ist? Hehe, lustig...

Gast
2004-09-03, 10:54:40
Shaderreplacement ist doch eine feine Sache, solange es nicht auf Kosten der Qualität geht. Wo ist das Problem? NV hat´s schon getan, ATI wird's nachholen.

Unfair, wenn man es denn so nennen will, ist lediglich, dass NV monatelang Zeit hatte die Treiber auf DoomIII zu optimieren und Shaderreplacement zu betreiben. ATI wurde da benachteiligt, aber so ist das halt, wenn NV dafür hinblättert. Gelohnt hat sich diese Investition bestimmt, denn viele Leute werden in den Wochen seit dem D³ Release nach D³ Benchmarks gekauft haben und was das für ein Umsatzplus bedeutet sollte wohl klar sein. ;)

Unfair, wenn man es denn so nennen will, ist lediglich, dass ATI monatelang Zeit hatte die Treiber auf HalfLife2 zu optimieren und Shaderreplacement zu betreiben. NV wurde da benachteiligt, aber so ist das halt, wenn ATI dafür hinblättert. Gelohnt hat sich diese Investition bestimmt, denn viele Leute werden in den Wochen seit dem HL2 Release nach HL2 Benchmarks gekauft haben und was das für ein Umsatzplus bedeutet sollte wohl klar sein. ;)

Merkst du was?

Als wenn es nur an den Treibern und Shaderreplacement liegt das eine 6800GT eine X800XT-PE hinter sich laesst... Ist ja auch unfair wenn NV Carmack erhört und Sachen in die GPU einbaut die D3 schmecken. Tja, ATI hätte es ja auch machen können, haben sie aber nicht und jetzt willst du uns erzählen das sowas unfair ist? Hehe, lustig...

deekey777
2004-09-03, 11:02:15
Wo und wann wurde nVidia bei HL2 benachteiligt? Indem sie keinen funktionierenden Treiber (kein Nebel) geliefert hatten oder für die FX-Serie extra ein "Mixed Mode"* programmiert wurde?

Und dieser "ATihatVALVebestochen"-Mist ist nicht mehr zu ertragen - ATi hat nVidia nur überboten!!!

*Hm, wo ist er denn?

Gast
2004-09-03, 11:08:39
Wo und wann wurde nVidia bei HL2 benachteiligt? Indem sie keinen funktionierenden Treiber (kein Nebel) geliefert hatten oder für die FX-Serie extra ein "Mixed Mode"* programmiert wurde?

Und dieser "ATihatVALVebestochen"-Mist ist nicht mehr zu ertragen - ATi hat nVidia nur überboten!!!

*Hm, wo ist er denn?

Zusammen mit dem Wasser verschwunden.

EDIT: Das war ich. Keks war weg. Demirug

Jesus
2004-09-03, 11:27:40
Als wenn es nur an den Treibern und Shaderreplacement liegt das eine 6800GT eine X800XT-PE hinter sich laesst... Ist ja auch unfair wenn NV Carmack erhört und Sachen in die GPU einbaut die D3 schmecken. Tja, ATI hätte es ja auch machen können, haben sie aber nicht und jetzt willst du uns erzählen das sowas unfair ist? Hehe, lustig...

Wofür es bis zum heutigen Tage keinen einzigen Beleg gibt ( ausser einem rein theoretischen 3dc Aritkel ). Das Gegenteil ( dass es wohl eher nichts ( bis kaum was ) gebracht haben dürfte ) wurde von einigen Benchmarkern schon "belegt" ( wobei man das wohl auch eher nochmal prüfen sollte ).

Nazar
2004-09-03, 12:24:50
Man man... so einige Fanboys machen sich echt lächerlich.... und es ist nun egal welches lager.

Einmal sind optimierungen ok, solange diese keine sichbaren qualieinbussen mit sich bringen, dann wieder sind sie zu verteufeln, weil die andere seite (die dunkelseite ;)) es nun auch macht.... rot stellt fest das blau optimiert.. wie böse... blau optimiert nun auch... noch böser... blau baut einen schalter ein und wird zur hellen seite der macht... rot macht das nicht und bekommt dafür magische würgekräfte...

Na welcher von euch pflaumenjedis wird demnächst bekehrt?

Einen mist den ihr allesamt schreibt.... aber das gras auf der nachbarweide war schon immer besser ;D ... und wenn ich davon nicht naschen darf ist halt bestimmt VIEL schlechter ;D

So ein paar von euch gehirnakrobaten sollten die fninger von den drogen lassen :biggrin:

aths
2004-09-03, 12:59:49
Einfach nur LOL.
Hast auch was vom TWIMTBP-Programm gehört?
Das war Kundenverarsche, wie es sie noch nicht gegeben hat.
In dieses Programm wurden Spiele aufgenommen, wo Nvidia mit ihrrer FX deutlich langsamer war als ATI mit der R(V)3XX-Serie. Hier wurde einfach dem Kunde vorgetäuscht, dass die FX so toll ist, obwohl es bei Games der letzte Dreck war/ist.Wo behauptet NV, dass Spiele aus dem TWIMTBP-Programm schneller laufen als auf Hardware der Konkurrenz?

Also, wenn du 50% und mehr(siehe z.B. FC) als "etwas" bezeichnest, dann kann ich dir nicht folgen.
Deswegen zum hundertsten Mal, die FX ist für Gamer Dreck.Far Cry ist natürlich der einzige Maßstab. Auch sonst zeichnen sich deine durchdachten Postings durch brilliante Argumente aus. Man spürt förmlich, wie viel Erfahrung du hast.

Einige Kumpels von mir sind mit ihren FX5900 nicht mehr zufrieden, und fühlen sich bisschen verarscht, nachdem ich sie aufgeklärt habe(benchmarkbeläge).Genau. Texturqualität zählt ja nicht. Sry.

aths
2004-09-03, 13:15:18
Wofür es bis zum heutigen Tage keinen einzigen Beleg gibt ( ausser einem rein theoretischen 3dc Aritkel ).... abgesehen von Füllratenmessungen. Und vom Wissen, wie HierZ funzt (entnommen aus ATIs Unterlagen.) Hätte der Artikel grobe Fehler (mindestens ein kleiner Fehler ist noch drin, der wird auch noch mal gefixt) hätte sich ATI bei 3DCenter vermutlich gemeldet.

betasilie
2004-09-03, 15:06:52
Unfair, wenn man es denn so nennen will, ist lediglich, dass NV monatelang Zeit hatte die Treiber auf HalfLife2 zu optimieren und Shaderreplacement zu betreiben. NV wurde da benachteiligt, aber so ist das halt, wenn ATI dafür hinblättert. Gelohnt hat sich diese Investition bestimmt, denn viele Leute werden in den Wochen seit dem HL2 Release nach HL2 Benchmarks gekauft haben und was das für ein Umsatzplus bedeutet sollte wohl klar sein. ;)

Merkst du was?

Als wenn es nur an den Treibern und Shaderreplacement liegt das eine 6800GT eine X800XT-PE hinter sich laesst... Ist ja auch unfair wenn NV Carmack erhört und Sachen in die GPU einbaut die D3 schmecken. Tja, ATI hätte es ja auch machen können, haben sie aber nicht und jetzt willst du uns erzählen das sowas unfair ist? Hehe, lustig...

Ja, ich merke was, nämlich dass ich nicht genau weiß, was Du mir neues sagen willst. :ratlos:

Quasar
2004-09-03, 15:22:11
Solche Aktionen hat ATI bisher nicht gebracht. Es wurden nur Spiele ins ATI-Programm aufgenommen, welche wirklich auf ATI besser laufen, also keine Verarsche wie bei Nvidia.

Doom3? X-D
http://home.arcor.de/quasat/3DC-Pics/DSC05759.JPG
http://home.arcor.de/quasat/3DC-Pics/DSC05759_a.JPG
(Oh, gleich kommt wieder das bekannte "aaaalt".... aber wieso _war_ Doom3 denn wohl mal im GITG-Programm?)

Einfach nur LOL.
[...]

edit:
Apropos "einfach nur LOL": Ich seh grade, daß Spellforce auch mit auf der Liste steht... ;)

Quasar
2004-09-03, 15:26:03
... abgesehen von Füllratenmessungen. Und vom Wissen, wie HierZ funzt (entnommen aus ATIs Unterlagen.) Hätte der Artikel grobe Fehler (mindestens ein kleiner Fehler ist noch drin, der wird auch noch mal gefixt) hätte sich ATI bei 3DCenter vermutlich gemeldet.
Es gibt noch einen Anscheins-Beleg, der im Zusammenhang mit der GF6600 aufgetaucht ist:

Da werden (zugegeben) unfairermaßen X600 XT und GF6600GT verglichen und es wird dargestellt, das wievielfache der Performance die "supertolle" 6600GT ggü. der "armen" Radeon erreicht.

Das interessante daran ist jedoch, daß sich der Faktor mit/ohne AA nicht nennenswert ändert. Und wenn man jetzt noch bedenkt, daß die X600 wie ihre Vorgängering R9600, über kein HierZ von Haus aus verfügt....

betasilie
2004-09-03, 15:29:48
http://home.arcor.de/quasat/3DC-Pics/DSC05759.JPG
Was steht denn da oben? ... Richtig, da steht eigentlich lediglich, dass diese Software auch mit 9700er Hardware läuft.

Richtig ist zwar auch, dass diese Liste etwas anderes suggerieren soll, aber auf sowas fällst Du doch nicht rein Quasar. :)

Dieses Thema hatten wir doch schon im ATI-Interview auf 3DC:
3DCenter: ATI und Electronic Arts - viele Spieler sind der Meinung, dass viele wenn nicht gar alle EA-Spiele schlechter auf ATI-Hardware laufen als auf der Hardware der Konkurrenz. Wie eng arbeitet ihr mit Electronic Arts zusammen? Oder liegen die angesprochenen Probleme wo anders?

Kevin: Diese Aussage stimmt so nicht, im Fall von Electronic Arts. ATI arbeitet eng mit den Teams der EA überall in der Welt zusammen, und wir haben eine hervorragende Erfolgsgeschichte in Sachen Kompatibilität. Ihre QA-Gruppe verwendet ATI-Hardware, um sicherzustellen, dass die Spiele gut auf unserer Hardware laufen, und viele der wichtigsten Titel nutzen ATI-Hardware hervorragend aus. Wir haben sogar Teams, welche bei den Entwicklern direkt an Spezial-Effekten und coolen Techniken gearbeitet haben und so dafür sorgen, dass die Spiele auf ATI-Hardware schneller und schöner laufen.

Neben dem Support für EAs interne Entwicklung und Kompatibilitäts-Tests unterstützen wir auch zahlreiche Entwickler, welche für EA arbeiten. So stellen wir sicher, dass ihre Programmierer und Kompatibilitäts-Labors eng mit ATI zusammen arbeiten. DICE, Lionhead, Visual Science und Argonaut sind nur einige wenige dieser Studios.

deekey777
2004-09-03, 15:34:25
Auf der E3 2002 machte JC eine Aussage, wonach die R300 die beste Grafikkarte für Doom 3 ist. Ob es ihm schon damals aufgefallen ist, dass es kleinere Problemchen mit der DX9-Radeons geben wird?

Quasar
2004-09-03, 15:37:08
Richtig ist zwar auch, dass diese Liste etwas anderes suggerieren soll, aber auf sowas fällst Du doch nicht rein Quasar. :)

Scheint ATi selbst drauf reinzufallen....
http://www.ati.com/gitg/gaming/gametitlesC-D.html

Wofür wohl das "gitg" in der url stehen mag...?

Gast
2004-09-03, 16:02:39
... abgesehen von Füllratenmessungen. Und vom Wissen, wie HierZ funzt (entnommen aus ATIs Unterlagen.) Hätte der Artikel grobe Fehler (mindestens ein kleiner Fehler ist noch drin, der wird auch noch mal gefixt) hätte sich ATI bei 3DCenter vermutlich gemeldet.

Warum sollte sich ATI bei euch wohl melden????

Mit grünen Fanboys diskutieren macht genauso viel Sinn wie seiner Frau versuchen zu erklären warum Bier so wichtig ist!

:-)))) Werdet mal wach!

Gast
2004-09-03, 16:08:02
Es gibt noch einen Anscheins-Beleg, der im Zusammenhang mit der GF6600 aufgetaucht ist:

Da werden (zugegeben) unfairermaßen X600 XT und GF6600GT verglichen und es wird dargestellt, das wievielfache der Performance die "supertolle" 6600GT ggü. der "armen" Radeon erreicht.

Das interessante daran ist jedoch, daß sich der Faktor mit/ohne AA nicht nennenswert ändert. Und wenn man jetzt noch bedenkt, daß die X600 wie ihre Vorgängering R9600, über kein HierZ von Haus aus verfügt....

Das macht doch nvidia seit FX so, hast du es nicht selbst gesehen?!

ATI nennt Ihre Highend-Serie XT und die grünen nennen Ihre langsamste Karte pro Serie XT und haben so angbelich gleiche Leistung*gggg* Die Presse plappert doch alles nach was GRÜN sagt, siehe 3DCenter vor Monaten, da war doch schon ein Thread!! *ggg*

Mit der 6600 wollte mann ganz klar die sich gegen X600 positionieren, was wohl jetzt nach hinten losgeht, da die X700 der NEUE Midrange-Chip ist!*ggg*

Da sieht die grüne 6600 eher bescheiden gegen aus!

Quasar
2004-09-03, 16:11:33
Das macht doch nvidia seit FX so, hast du es nicht selbst gesehen?!

ATI nennt Ihre Highend-Serie XT und die grünen nennen Ihre langsamste Karte pro Serie XT und haben so angbelich gleiche Leistung*gggg* Die Presse plappert doch alles nach was GRÜN sagt, siehe 3DCenter vor Monaten, da war doch schon ein Thread!! *ggg*

Mit der 6600 wollte mann ganz klar die sich gegen X600 positionieren, was wohl jetzt nach hinten losgeht, da die X700 der NEUE Midrange-Chip ist!*ggg*

Da sieht die grüne 6600 eher bescheiden gegen aus!
Du hast offenbar nichts von dem verstanden, was ich schrieb. Ich muss wohl an meinen Formulierungen arbeiten.

betasilie
2004-09-03, 16:16:29
Scheint ATi selbst drauf reinzufallen....
http://www.ati.com/gitg/gaming/gametitlesC-D.html

Wofür wohl das "gitg" in der url stehen mag...?
Klar, auf dem anderen Paper stand ja auch gitg drauf. Hat halt nix zu sagen, genau wie bei NV. Die einen Games werden nur auf in Bezug auf Kompatiblität unterstützt, die anderen auf technologische Ausnutzung/Vorteile.

DrumDub
2004-09-03, 16:16:54
Du hast offenbar nichts von dem verstanden, was ich schrieb. Ich muss wohl an meinen Formulierungen arbeiten.

richtig. das du überhaupt noch auf diese gäste eingehst... respekt. ich hätt schon längst das handtuch geworfen. die wollen nämlich nichts verstehen. ;(

SamLombardo
2004-09-03, 16:38:16
Warum sollte sich ATI bei euch wohl melden????

Mit grünen Fanboys diskutieren macht genauso viel Sinn wie seiner Frau versuchen zu erklären warum Bier so wichtig ist!

Das macht doch nvidia seit FX so, hast du es nicht selbst gesehen?!

ATI nennt Ihre Highend-Serie XT und die grünen nennen Ihre langsamste Karte pro Serie XT und haben so angbelich gleiche Leistung*gggg* Die Presse plappert doch alles nach was GRÜN sagt, siehe 3DCenter vor Monaten, da war doch schon ein Thread!! *ggg*

Mit der 6600 wollte mann ganz klar die sich gegen X600 positionieren, was wohl jetzt nach hinten losgeht, da die X700 der NEUE Midrange-Chip ist!*ggg*

Da sieht die grüne 6600 eher bescheiden gegen aus!


Schaut doch bitte mal nach wer der aggressive Gast ist. Erkennt man an der Schreibweise, dass es immer (seit Tagen/Wochen) der selbe flamende "Gast" ist, der hier Stunk macht. Irgendwie hab ich das Gefühl, es ist mal wieder ein ausgeloggter Reg. Könnt ich fast drauf wetten.

Sorry für OT

Gast
2004-09-03, 16:44:18
naja - nachschauen geht doch nicht so leicht, wenn er sich neu anmeldet im internet, nachdem er sich ausgeloggt hat... oder?

(es sei denn er hat feste ip)

Leonidas
2004-09-04, 05:55:38
Auf Grundlage von was? Vermutungen? Halbausgegorenen Aussagen einer der beiden Parteien?

Nö. Ich warte erstmal ab, was da in der c´t steht.


Update: Da steht leider mehr oder weniger gar nix neues drin.

Gast
2004-09-04, 07:50:15
Update: Da steht leider mehr oder weniger gar nix neues drin.

Das war mal wieder ein Gag um den Abverkauf der CT anzukurbeln!

:-)

MikBach
2004-09-04, 09:33:17
Wo behauptet NV, dass Spiele aus dem TWIMTBP-Programm schneller laufen als auf Hardware der Konkurrenz?
Die müssten ja dumm sein sowas zu behaupten. Damit würden sie sich selber köpfen. ;D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2208167&postcount=58
"Das finde ich aus Kundensicht unfair, besonders bei denen, welche nicht mit der Materie vertraut sind. Weil die meisten Daus, die ein Nvidia-Loge sehen, vor allem mit dem Satz"The way it´s meant to be played" doch denken, das Nvidia hier der Massstab ist."
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2208298&postcount=62


Far Cry ist natürlich der einzige Maßstab. Auch sonst zeichnen sich deine durchdachten Postings durch brilliante Argumente aus. Man spürt förmlich, wie viel Erfahrung du hast.
Wenn ich nur FarCry gemeint hätte, dann hätte ich bis zu 100% schneller hin geschrieben. ;D
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_18.html
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_19.html
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_20.html

Kommen wir zu den 50% ;)
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_16.html
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_31.html
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_35.html

BTW Seitenhiebe bitte lassen. ;)

Genau. Texturqualität zählt ja nicht. Sry.
Deja vu?
Ich dachte das sehr subjetive Thema BQ hätten wir ausdiskutiert. Für die Masse belanglos, da bei Beiden auf einem Niveau, wo man schon wissen muss, wo man hinschauen muss und eine hervorragende Wahrnehmungsfähigkeit besitzen muss um da Unterschiede zu sehen. Diese Fähigeiten besitzt die Breite Masse nicht.

Seraf
2004-09-04, 09:44:11
Deja vu?
Ich dachte das sehr subjetive Thema BQ hätten wir ausdiskutiert. Für die Masse belanglos, da bei Beiden auf einem Niveau, wo man schon wissen muss, wo man hinschauen muss und eine hervorragende Wahrnehmungsfähigkeit besitzen muss um da Unterschiede zu sehen. Diese Fähigeiten besitzt die Breite Masse nicht.


Ich frag mich auch manchmal warum ATI nicht beim Bi-AF der R200Serie geblieben ist. Fällt auch fast nie auf und hätte Transistoren gespart.
Wer ATIs Tricks toleriert muß sich nicht wundern wenn bald noch schlechtere Filteralgos kommen.

MikBach
2004-09-04, 09:52:56
Mit der 6600 wollte mann ganz klar die sich gegen X600 positionieren, was wohl jetzt nach hinten losgeht, da die X700 der NEUE Midrange-Chip ist!*ggg*

Da sieht die grüne 6600 eher bescheiden gegen aus!
Wie soll man das verstehen?
An was genau sieht man das?
Je nach Einstellungen sollte mal die eine Karte mal die andere vorne liegen.
In hohen Auflösungen mit AA wird die X700XT natürlich vorn liegen. Mehr kann man zur Zeit nicht sagen.

MikBach
2004-09-04, 09:58:10
Ich frag mich auch manchmal warum ATI nicht beim Bi-AF der R200Serie geblieben ist. Fällt auch fast nie auf und hätte Transistoren gespart.
Wer ATIs Tricks toleriert muß sich nicht wundern wenn bald noch schlechtere Filteralgos kommen.
Das ist jetzt aber nicht dein Ernst?
Das bi-af des R200 war einfach nur Dreck(nicht in allen Spielen). Schon mal Gothic2 mit bi-af aufm R200 gespielt? Eine wahre Freude. ;D
Und das Klosterdach hat den Vogel abgeschossen. Schlimmer als die Bildfehler beim TV(auch Häuserdächer).
Zwischen dem AF des R200 und R300 liegen WELTEN.

pco
2004-09-04, 10:08:13
Bevor ichs nochmal schreib
http://www.orthy.de/modules.php?name=News&file=article&sid=1068&mode=&order=0&thold=0


Bye

PCO

MikBach
2004-09-04, 10:19:52
Bevor ichs nochmal schreib
http://www.orthy.de/modules.php?name=News&file=article&sid=1068&mode=&order=0&thold=0


Bye

PCO

Full Ack! :up:

"NVidia sagt klar: "Überlegene Shadertechnologie. ATIs X800 ist veraltet. Go Home ATI. Piss off and goodbye!"
(Man stelle sich zwei Spieler vor: "Schau mal da" - "Wo?" - "Na dort, an der Lampe dort!" - "Ja und?" - "Na siehst Du denn nicht die überlegene Shadertechnologie?" - "Nö!")"

Meine Rede. ;D
Das erlebe ich immer wieder, wenn ich jemandem die "schlechte" BQ von ATI´s AF beweisen will. :biggrin:

Gast
2004-09-04, 10:46:32
Die müssten ja dumm sein sowas zu behaupten. Damit würden sie sich selber köpfen. ;D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2208167&postcount=58
"Das finde ich aus Kundensicht unfair, besonders bei denen, welche nicht mit der Materie vertraut sind. Weil die meisten Daus, die ein Nvidia-Loge sehen, vor allem mit dem Satz"The way it´s meant to be played" doch denken, das Nvidia hier der Massstab ist."
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2208298&postcount=62


Wenn ich nur FarCry gemeint hätte, dann hätte ich bis zu 100% schneller hin geschrieben. ;D
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_18.html
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_19.html
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_20.html

Kommen wir zu den 50% ;)
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_16.html
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_31.html
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_35.html

BTW Seitenhiebe bitte lassen. ;)

Deja vu?
Ich dachte das sehr subjetive Thema BQ hätten wir ausdiskutiert. Für die Masse belanglos, da bei Beiden auf einem Niveau, wo man schon wissen muss, wo man hinschauen muss und eine hervorragende Wahrnehmungsfähigkeit besitzen muss um da Unterschiede zu sehen. Diese Fähigeiten besitzt die Breite Masse nicht.

Sehr gute Beispiele!

An ATHS,

Das Logo wirbt für sich und ist die letzte Verarschung!

Hätte nv das Logo auf Ihre Midrange und Highend-Serie NUR verwiesen würde sich NIEMAND aufregen, weil das ja bekanntlich sehr gut klappt!

Performance-Mässig!

Aber, eine FX5300 oder FX5200 als Spielelösung zu verkaufen mit Grafiken wie im Kino ist schon ziemlich bescheuert gewesen!

Gast
2004-09-04, 11:24:05
NV hat die 5200 nie als Gamerkarte angepriesen. Sie ist fähig DX9 auszuführen, mehr nicht und mehr sagt NV auch nicht.

Jesus
2004-09-04, 12:18:37
Bevor ichs nochmal schreib
http://www.orthy.de/modules.php?name=News&file=article&sid=1068&mode=&order=0&thold=0


Bye

PCO

eh, ist ATI´s "Shaderreplacement" bisher nicht der Humus Tweak ? Oder hab ich da was verpasst ? :|

Dann hätten wir schon 2 mal Shaderreplacement ;)

Gast
2004-09-04, 13:43:09
Die müssten ja dumm sein sowas zu behaupten. Damit würden sie sich selber köpfen. ;D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2208167&postcount=58
"Das finde ich aus Kundensicht unfair, besonders bei denen, welche nicht mit der Materie vertraut sind. Weil die meisten Daus, die ein Nvidia-Loge sehen, vor allem mit dem Satz"The way it´s meant to be played" doch denken, das Nvidia hier der Massstab ist."
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2208298&postcount=62


Daran ist auch aus Kundensicht nichts unfair. Das ist Marketing. Genauso wie Kellogs behauptet ihre Kornflakes sind knuspriger so setzen ATI oder Nvidia oder auch Intel und AMD jeweils ihre Logos irgendwo hin. Wenn der Kunde so bescheuert ist und das als Begründung für einen Kauf sieht, dann wird er das Problem bei jedem Produkt haben ob es nun der Joghurt, die Butter oder das Auto ist.
Dazu gibt es ja Magazine und das Web und man kann auch im Freundeskreis sich umhören. Wer sich informiert der fällt auch kaum rein. Das war schon immer so.
Es steht ATI ja frei genauso zu werben, was sie im übrigen ja auch tun.
Unfair ist daran gar nix.

Gast
2004-09-04, 13:44:49
NV hat die 5200 nie als Gamerkarte angepriesen. Sie ist fähig DX9 auszuführen, mehr nicht und mehr sagt NV auch nicht.
und damit besser gewesen als alles was die Konkurenz in dem Preissegment an neuen Produkte anzubieten hatte.
Nur das zählt als Vergleich. Da brauch sich Nvidia überhaupt nicht rechtfertigen. Die Konkurenz hatte nur schlechteres zu bieten.

Majestic
2004-09-04, 15:14:40
Das macht doch nvidia seit FX so, hast du es nicht selbst gesehen?!

Mit der 6600 wollte mann ganz klar die sich gegen X600 positionieren, was wohl jetzt nach hinten losgeht, da die X700 der NEUE Midrange-Chip ist!*ggg*

Da sieht die grüne 6600 eher bescheiden gegen aus!

Wenn die X700XT wirklich ein 256Bit Interface bekommt, wird die GF6600 wohl wirklich das Nachsehen haben. Aber ich denke daß die GF6800LE wohl auch auf dem Retailmarkt erscheinen wird (Siehe MSI NX6800-LE). Und gegen diese hat es die X700XT schon schwerer. Preislich wie leistungsmäßig ist die LE auch interassanter.

mirovb
2004-09-04, 15:38:45
Daran ist auch aus Kundensicht nichts unfair. Das ist Marketing. Genauso wie Kellogs behauptet ihre Kornflakes sind knuspriger so setzen ATI oder Nvidia oder auch Intel und AMD jeweils ihre Logos irgendwo hin. Wenn der Kunde so bescheuert ist und das als Begründung für einen Kauf sieht, dann wird er das Problem bei jedem Produkt haben ob es nun der Joghurt, die Butter oder das Auto ist.
Dazu gibt es ja Magazine und das Web und man kann auch im Freundeskreis sich umhören. Wer sich informiert der fällt auch kaum rein. Das war schon immer so.
Es steht ATI ja frei genauso zu werben, was sie im übrigen ja auch tun.
Unfair ist daran gar nix.

schlechtes Beispiel....Geschmack ist bekanntlich relativ, wie z.B. Deinen Kornflakes Vergleich oder Joghurt...der eine Kunde wird sagen: stimmt, was auf der Verpackung steht...der andere spuckt's wieder aus und meckert. Das läßt sich leider nicht messen!!

Bei Grafikkarten kann man anhand von Messwerten eindeutig belegen, welche Karte bei gleicher Bildqualität besser ist, und dementsprechend entscheidet man sich, auch weil es um's Preis/Leistungsverhältnis geht...für mich ist es also Kundenverarsche, wenn es sich im Nachhinein anders herausstellt, weil es vorher unfair zugegangen ist, und AUSSCHLIESSLICH ein Hersteller die Gelegenheit hatte, auf eine Software (Spiel) zu optimieren . Für mich als Käufer und meinem Verständis von Gleichheit ist das "Beschiss".

Ob Ich mich jetzt mit Hardware auskenne oder nicht, hat das nichts zu tun. Im Gengenteil....

wenn Dir als Erfahrener User Objektivität suggeriert wird, und Du siehst nachher, das Du Deine Kaufentscheidung doch falsch getroffen hast, Was soll dann der arme PC Neuling dann sagen ????

Für mich sind das unfaire Mittel....für mich sind die Schuldigen aber in erster Linie die Software Entwickler, und nicht die Hardware Hersteller, um bei Thema Spiele zu bleiben....denn JEDER IHV muss die Chance haben, GLEICHE Einsicht in den Spiele Codec zu haben, wie der andere....darauf kann man dann den Treiber optimieren....und nicht, wenn das Wasser schon den Rhein runtergeflossen ist...dann hat der eine IHV schon Jahrelang (kommt auf die Entwicklungszeit) den Treiber auf best. Spiele optimiert, und der andere hat das Nachsehen...


Und da best. Spiele mit der FPS Zahl werben und somit das wiederum Einfluss auf den Hardwarekauf ist, finde Ich das Unfair.

Dein Vergleich jedenfalls hinkt.

Nicht verwechseln, gegen Werbung und Sponsoring habe Ich nichts. Wenn z.B. Marlboro Ferrari sponsort, dann Werben die doch nur mit dem Namen...warum soll das auch nicht bei PC Hardware gehen ??? Derjenige, der mehr zahlt, steht mit dem Logo auf der "Packung"....aber andere Hersteller bei der Entwicklung außenvor zu lassen, ist nicht mein Verständnis von Gleichheit...

wir kaufen nun mal Hardware -als Zocker jedenfalls- z.g.T. nach Benchmarks/Tests...

Alles meine bescheidene Meinung, also bitte nicht persönlich nehmen...

Im übrigen gilt das für JEDEN Hersteller und Softwareentwickler.

Ausserdem sollten Spiele und Treiber auf Harwdare optimiert werden, und nicht die Hardware für Spiele "gebaut" werden, ist auch meine Meinung..

tokugawa
2004-09-04, 16:49:02
Deja vu?
Ich dachte das sehr subjetive Thema BQ hätten wir ausdiskutiert. Für die Masse belanglos, da bei Beiden auf einem Niveau, wo man schon wissen muss, wo man hinschauen muss und eine hervorragende Wahrnehmungsfähigkeit besitzen muss um da Unterschiede zu sehen. Diese Fähigeiten besitzt die Breite Masse nicht.

Und wieso zählt die breite Masse für mich (oder jeden anderen Technikinteressierten) was?

Sorgen darum, ob die "breite Masse" jetzt den einen oder anderen Hersteller mag, wegen welcher Vorteile oder was auch immer, machen sich ja nur Marketing- und PR-Leute. Und natürlich Fanboys :)

tokugawa
2004-09-04, 16:51:46
Bevor ichs nochmal schreib
http://www.orthy.de/modules.php?name=News&file=article&sid=1068&mode=&order=0&thold=0


Bye

PCO

"NVidia sagt klar: "Überlegene Shadertechnologie. ATIs X800 ist veraltet. Go Home ATI. Piss off and goodbye!"
(Man stelle sich zwei Spieler vor: "Schau mal da" - "Wo?" - "Na dort, an der Lampe dort!" - "Ja und?" - "Na siehst Du denn nicht die überlegene Shadertechnologie?" - "Nö!")"

Erstens sagt es NVIDIA nicht so, das legst du denen in den Mund.

Zweitens hast du wohl nicht die geringste Ahnung, was man alles mit SM 3.0 machen kann (oder auch schon mit SM 2.0A).

Das wär schon etwas mehr als deine schnöde Lampe.

tokugawa
2004-09-04, 17:02:29
Für mich sind das unfaire Mittel....für mich sind die Schuldigen aber in erster Linie die Software Entwickler, und nicht die Hardware Hersteller, um bei Thema Spiele zu bleiben....denn JEDER IHV muss die Chance haben, GLEICHE Einsicht in den Spiele Codec zu haben, wie der andere....darauf kann man dann den Treiber optimieren....und nicht, wenn das Wasser schon den Rhein runtergeflossen ist...dann hat der eine IHV schon Jahrelang (kommt auf die Entwicklungszeit) den Treiber auf best. Spiele optimiert, und der andere hat das Nachsehen...

Und da best. Spiele mit der FPS Zahl werben und somit das wiederum Einfluss auf den Hardwarekauf ist, finde Ich das Unfair.


Welches Spiel wirbt mit der FPS-Zahl? Hätt noch auf keiner Packung gelesen "Wow! 100 fps!". Da müsste ja Half-Life 1 ziemlich gut dastehen. Könnten die jetzt nochmal verkaufen mit der Werbung "Wow! 200 fps!". Wenn nicht sogar noch mehr.


Dein Vergleich jedenfalls hinkt.

Nicht verwechseln, gegen Werbung und Sponsoring habe Ich nichts. Wenn z.B. Marlboro Ferrari sponsort, dann Werben die doch nur mit dem Namen...warum soll das auch nicht bei PC Hardware gehen ??? Derjenige, der mehr zahlt, steht mit dem Logo auf der "Packung"....aber andere Hersteller bei der Entwicklung außenvor zu lassen, ist nicht mein Verständnis von Gleichheit...


Get in the Game, und The Way it's meant to be played sind nichts anderes als Sponsoring-Verträge. Genauso wie wenn Marlboro auf dem Ferrari-Anzug klebt. Fährt der Ferrari-Fahrer besser weil er Marlboro raucht? Ich denke nicht.

Mit der konkreten PROGRAMMIERUNG hat Get in the Game und The Way it's meant to be played NICHTS zu tun. Werd erst Entwickler bevor du solchen Blödsinn versprühst. Glaubst du erst wenn man kräftig zahlt bekommt man die Geheimtipps von ATI und NVIDIA, wie man auf deren Hardware optimiert, oder Techniken implementiert? Die bekommt man schon vorher, siehe http://developer.nvidia.com und http://www.ati.com/developer/. Übrigens GRATIS.


wir kaufen nun mal Hardware -als Zocker jedenfalls- z.g.T. nach Benchmarks/Tests...

Alles meine bescheidene Meinung, also bitte nicht persönlich nehmen...

Im übrigen gilt das für JEDEN Hersteller und Softwareentwickler.


Ja, und reine Spieler haben leider in Bezug auf Spieleentwicklung und Entwicklung generell eine etwas verzerrte Ansichtsweise. Es würde sich für jeden auszahlen, einmal in die Entwicklerseite hineinzuschauen. Das würde viel Blödsinn was über Entwickler geschrieben wird (wie etwa "JC hat rein und extrem auf NVIDIA optimiert" was so absolut nicht stimmt) schlichtweg entkräften.


Ausserdem sollten Spiele und Treiber auf Harwdare optimiert werden, und nicht die Hardware für Spiele "gebaut" werden, ist auch meine Meinung..

Das ist auch nicht ganz richtig.

Hardware soll auf moderne Algorithmen hin optimiert werden. NV40 ist ja nicht für rein Doom 3 optimiert, sondern eben für die Algorithmen, die Doom 3 einsetzt (etwa die Depth-Fail-Technik bei den Schattenvolumen).

Eine Hardware sollte modernen Software-Algorithmen unter die Arme greifen, oder neue Software-Algorithmen ermöglichen. Genau das tut NV40 mehr als es der X800 tut.

Von daher ist es absolut richtig, dass der NV40 der modernere Chip ist, während der X800 eben der mit der älteren Technologie ist. Wobei "modern" völlig wertfrei gesehen werden muß - nicht alles was modern ist, ist gut. Aber auch nicht alles, was modern ist, ist schlecht.

PS: der nächste, der "Algorithmen" falsch schreibt, etwa wie "Algorythmen" oder "Algorhythmen", kriegt einen Fisch von mir :P

Gast
2004-09-04, 17:14:50
Wenn für einige SM3 bzw SM2a schon sooooo schlecht ist und man es nicht braucht da man mit SM2b auch schon alles machen kann dann frage ich mich warum ATI dann DX9 und somit auch SM3 mit beschlossen bzw entwickelt hat und mit dem R520 höchst wahrscheinlich ihren SM3-Chip vorstellen wird. Wozu die Transistorverschwendung dann wenn SM2b so toll ist und man damit eh alles machen kann?

Aber wie immer, was man selbst nicht hat wird schlecht gemacht. Sobald der R520 da ist werden die gleichen Leute hier wieder SM3 in den Himmel loben weil es ATI dann ja auch hat und man es unbedingt haben muss. Schon lustig sowas...

Hauwech
2004-09-04, 17:20:03
*snip*

PS: der nächste, der "Algorithmen" falsch schreibt, etwa wie "Algorythmen" oder "Algorhythmen", kriegt einen Fisch von mir :P[/QUOTE]

Algorhytmen Algorythmen Algorütmen

Kriege ich jetzt einen Fisch? Sorry for Spam aber ich mag Fisch :biggrin: :tongue: :D

Riipa
2004-09-04, 17:59:01
@OffTopic:
Dass Entwickler nicht unterstützt werden, ist ja so nicht ganz richtig, falsch ist aber eben, dass Entwickler (Logo hin oder her) nur in eine Richtung optimieren. Das Beispiel EA sagt da ja eigentlich alles.

Unfug wie "Das Spiel hat das Logo und muss auch auf dieser Hardware schneller sein" braucht man ja eigentlich kaum zu kommentieren, aber ein kurzer Satz sei dennoch erlaubt: GITG und TWIMTBP heissen (neben dem primären Werbeeffekt) nur, dass das entsprechende Spiel mit der entsprechenden Hardware fehlerfrei und und spielbar dargestellt wird - ohne Angabe irgendwelcher FPS.

Die Diskussion um die FX 5200 ist immer wieder lächerlich, denn wer eine Karte im Preissegment unter hundert Euro (also circa die Hälfte des Mainstreamsegmentes) zum "ernsthaften" Spielen anschafft, der hat mit neuen Spielen prinzipiell ein Problem. Egal ob Ti 4200, FX 5200 oder Radeon 9200 draufsteht. Es der Firma zum Vorwurf zu machen Technologien wie DX9-Kompatibilität top-to-bottom anzubieten ist schon mehr als schräg.

@Ontopic:
Gib es irgendwo einen ernstzunehmenden Bericht, der auf das eventuelle Shaderreplacement zurückzuführende Qualitätsunterschiede nachweist? Gibt es aussen den Aussagen von ATI überhaupt irgendwelche Beweise für ein Shaderreplacement?

p.s. Der Nächste, der behauptet, man wisse nicht mehr, wer mit Cheaten angefangen hat, der bekommt von MIR die Forelle.
p.p.s. Es war ATI. Bei Quake3.

MikBach
2004-09-04, 20:26:11
Daran ist auch aus Kundensicht nichts unfair. Das ist Marketing. Genauso wie Kellogs behauptet ihre Kornflakes sind knuspriger so setzen ATI oder Nvidia oder auch Intel und AMD jeweils ihre Logos irgendwo hin. Wenn der Kunde so bescheuert ist und das als Begründung für einen Kauf sieht, dann wird er das Problem bei jedem Produkt haben ob es nun der Joghurt, die Butter oder das Auto ist.
Es geht mir nicht um das Logo, das juckt mich nicht. Es geht um den berühmten Satz:"The way it´s meant to be played"
Soll ich es auf Deutsch übersetzen? ;)
Hier wird einfach sugeriert, dass Nvidia der Massstab ist. Und so "viel" Englisch kann in Deutschland jeder.
Siehe auch die Reaktion eines Halbdaus:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2208167&postcount=58
Da es einige noch nicht begriffen haben, muss ich die nächsten zwei Sätze schreiben.
Ich"Was meinst du mit Nvidia-Spiel?"
Er:"Ist doch klar, der Satz:"The way it´s meant to be played" sagt doch alles. Es läuft auf Nvidia besser, sonst würden sie ja nicht schreiben "meant to be played". no comment. ;)
Und Oberdau ist er sicherlich nicht, er kann schon AA und AF in den Treibern einstellen und Profile anlegen. ;)

Dazu gibt es ja Magazine und das Web und man kann auch im Freundeskreis sich umhören. Wer sich informiert der fällt auch kaum rein. Das war schon immer so.
Es steht ATI ja frei genauso zu werben, was sie im übrigen ja auch tun.
Unfair ist daran gar nix.
Wenn du wüsstest....
Wenn ich vor Ende letzten Jahres nicht den meisten zu einer 9800PRO geraten hätte, hätten sicherlich 80-90% eine FX5900 gekauft.

MikBach
2004-09-04, 20:32:44
Und wieso zählt die breite Masse für mich (oder jeden anderen Technikinteressierten) was?

Sorgen darum, ob die "breite Masse" jetzt den einen oder anderen Hersteller mag, wegen welcher Vorteile oder was auch immer, machen sich ja nur Marketing- und PR-Leute. Und natürlich Fanboys :)
Die Meinung der breiten Masse zählt am meisten, weil sie die meisten Karten kaufen(jetzt auf die subjektive BQ bezogen).
Was gibt es daran nicht zu verstehen?

MikBach
2004-09-04, 20:50:12
Die Diskussion um die FX 5200 ist immer wieder lächerlich, denn wer eine Karte im Preissegment unter hundert Euro (also circa die Hälfte des Mainstreamsegmentes) zum "ernsthaften" Spielen anschafft, der hat mit neuen Spielen prinzipiell ein Problem. Egal ob Ti 4200, FX 5200 oder Radeon 9200 draufsteht. Es der Firma zum Vorwurf zu machen Technologien wie DX9-Kompatibilität top-to-bottom anzubieten ist schon mehr als schräg.
Falsch. Unter 100€ bekommt/bekam man eine 9600np, die bietet zu dem Preis eine deutlich bessere Leistung als die FX5200 in modernen Spielen.

@Ontopic:
Gib es irgendwo einen ernstzunehmenden Bericht, der auf das eventuelle Shaderreplacement zurückzuführende Qualitätsunterschiede nachweist? Gibt es aussen den Aussagen von ATI überhaupt irgendwelche Beweise für ein Shaderreplacement?
3dMurks03 ist bestes Beispiel von Nvidia für Shaderreplacement, WO man es nicht machen sollte. Bei Spielen sehe ich es nicht so eng, bei einem sythetischem Benchmark ist das nur Mist.
Zur Qualität: Siehe FarCry Patch 1.1 auf der FX. ;)

p.s. Der Nächste, der behauptet, man wisse nicht mehr, wer mit Cheaten angefangen hat, der bekommt von MIR die Forelle.
p.p.s. Es war ATI. Bei Quake3.
Das kannst du gar nicht wissen, ob Nvidia nicht schon früher gecheatet hat.

Gast
2004-09-04, 21:02:56
Boah diese ewigen sinn- und nutzlosen Diskussionen ..... Gerade weil die Leistung der NextGen Karten so ähnlich sind. Die ATI ist hier ein wenig schneller die Nvidia dort. Und das jetzt ATI dagegen protestiert, daß Nvidia angeblich beim Doom3 Benchmark gecheated hat, ist nach ihrer eigenen verschwiegenen und und Treiber nicht deaktivierbaren "Optimierung" mehr als fragwürdig. Beide schummel was das Zeug hält und nutzen das dann Marketingtechnisch aus. Eigendlich sind beiden Unternehmen ihre Kunden gleich es geht nur darum den längeren Balken bei offiziellen Benchmarks zu haben....:(

Wenn du wüsstest....
Wenn ich vor Ende letzten Jahres nicht den meisten zu einer 9800PRO geraten hätte, hätten sicherlich 80-90% eine FX5900 gekauft.


Hehe! Das ist schon sowas von Lächerlich das ich mir nen Kommentar verkneife..... :lol:

MikBach
2004-09-04, 21:05:38
Mit der konkreten PROGRAMMIERUNG hat Get in the Game und The Way it's meant to be played NICHTS zu tun. Werd erst Entwickler bevor du solchen Blödsinn versprühst. Glaubst du erst wenn man kräftig zahlt bekommt man die Geheimtipps von ATI und NVIDIA, wie man auf deren Hardware optimiert, oder Techniken implementiert? Die bekommt man schon vorher, siehe http://developer.nvidia.com und http://www.ati.com/developer/. Übrigens GRATIS.

:confused:
Und?
Ich weiss, dass du Entwickler bist. Meinst du das macht Eindruck auf mich?
Nicht wirklich.
Ich hab schon so viel Mist von Spieleentwicklern gesehen, dass wenn jemand sagt, dass er Etnwickler ist, es für mich viel und gar nichts bedeutet.
Verstehe mich nicht falsch. :)
Wenn du was praxisnahes über SM3.0 bringen kannst, ich höre es mir sehr gerne an.

Hardware soll auf moderne Algorithmen hin optimiert werden. NV40 ist ja nicht für rein Doom 3 optimiert, sondern eben für die Algorithmen, die Doom 3 einsetzt (etwa die Depth-Fail-Technik bei den Schattenvolumen).

Ansichtsache. Warum ist JC nicht auf die Idee gekommen die Shader für die X800 "kleiner" zu machen, wie es Humus tut? Er muss es doch gewusst haben, dass der R420 ein Ableger des R300 ist, und welche Shaderlänge dem X800 liegen müsste. Er hat einfach zu viel mit dem NV40 rum gespielt und den R420 leider vergessen. Das ist meine Meinung.

MikBach
2004-09-04, 21:14:16
Boah diese ewigen sinn- und nutzlosen Diskussionen .....
:rolleyes:
So ein Unsinn. Diskussionen sind sehr sinnvoll, weil man manchmal zu Erkenntnissen kommt, die für einen selber verwunderlich sind.



Hehe! Das ist schon sowas von Lächerlich das ich mir nen Kommentar verkneife..... :lol:
:lol:
Was meinst du damit?
Die meisten aus meinem Freundes-/Bekanntenkreis hatten davor eine GF4(die ich denen empfohlen habe ;) ) und waren sehr zufrieden. Deswegen sollte ihre nächste Karte eine Nvidia FX5900 sein. Das wäre aber ein Reinfall gewesen(verglichen mit einer 9800PRO). Und sie sind jetzt froh, dass ich sie überredet hatte.

mirovb
2004-09-04, 21:22:14
Welches Spiel wirbt mit der FPS-Zahl? Hätt noch auf keiner Packung gelesen "Wow! 100 fps!". Da müsste ja Half-Life 1 ziemlich gut dastehen. Könnten die jetzt nochmal verkaufen mit der Werbung "Wow! 200 fps!". Wenn nicht sogar noch mehr.

Sorry, aber nicht die Spiele werben mit der FPS Zahl, sondern meist der Graka Hersteller....was soll der unsinnige Vergleich mit Half-Life 1 ??? Wir reden hier jetzt von AKTUELLEN GRAFIK KRACHERN...und neuen ENGINES. Darauf werden viele neue Games basieren. Und wo lebst Du denn ?? Im Internet kursieren doch überall Benchmarks, auf fast jeder Homepage die etwas mit PC zu tun hat...das muss doch auf keiner Verpackung stehen...VW klebt ja auch keine KM/H Schilder auf Ihre Auto's


Get in the Game, und The Way it's meant to be played sind nichts anderes als Sponsoring-Verträge. Genauso wie wenn Marlboro auf dem Ferrari-Anzug klebt.

Das überzeugt mich aber wirklich nicht, kann aber auch nicht ganz das Gegenteil beweisen. Du aber auch ganz bestimmt nicht...

Mit der konkreten PROGRAMMIERUNG hat Get in the Game und The Way it's meant to be played NICHTS zu tun. Werd erst Entwickler bevor du solchen Blödsinn versprühst. Glaubst du erst wenn man kräftig zahlt bekommt man die Geheimtipps von ATI und NVIDIA, wie man auf deren Hardware optimiert, oder Techniken implementiert?

Mag sein, das Du Entwickler bist. Ich arbeite in der Chemie...meinst Du deshalb weiß Ich , was in einer anderen Chemie Firma passiert ?? Und Wo habe Ich behauptet, das dieses Sponsoring mit der Direkten Programmierung etwas zu tun hat ?...und ja, Ich glaube 100% das die IHV's (wer auch immer) bevorzugt werden, die die Millionenverträge abschliessen !

Ja, das glaube Ich. Das klingt doch realistisch. Geld regiert die Welt. Vielleicht bist Du Entwickler, aber auch in einer Grösseren Schmiede wie bei "Half Life 2" oder "Doom 3" ??? Dann kannst Du doch gar nicht sagen, was da läuft , wenn es um Millionen geht...und das werden die Entwickler Dir auch nicht auf Auge drücken...Vielleicht habe Ich alle Software Entwickler in einen Hut geworfen. Das habe Ich so nicht gemeint und verallgemeinere so etwas nicht...aber i.d.R. geht nur bei solchen Großprojekten um viel mehr, als Du glauben magst...


Die bekommt man schon vorher, siehe http://developer.nvidia.com und http://www.ati.com/developer/. Übrigens GRATIS.

Und was sagen diese Links aus ??? Nur , das die genannten Spiele auch auf den entsprechenden Hardware Hersteller bei erscheinen laufen werden, mehr nicht. Oder sagt das Irgend etwas über Bevorzugung eines IHV's ??

Ja, und reine Spieler haben leider in Bezug auf Spieleentwicklung und Entwicklung generell eine etwas verzerrte Ansichtsweise. Es würde sich für jeden auszahlen, einmal in die Entwicklerseite hineinzuschauen. Das würde viel Blödsinn was über Entwickler geschrieben wird (wie etwa "JC hat rein und extrem auf NVIDIA optimiert" was so absolut nicht stimmt) schlichtweg entkräften.

Woher weißt Du das ?? Es geht um Millionen...das betrifft nicht nur JC oder ID....das gilt für alle NExtGen Spiele, die richtungsweisend sind....nur Fakten zählen...



Hardware soll auf moderne Algorithmen hin optimiert werden. NV40 ist ja nicht für rein Doom 3 optimiert, sondern eben für die Algorithmen, die Doom 3 einsetzt (etwa die Depth-Fail-Technik bei den Schattenvolumen).

Eine Hardware sollte modernen Software-Algorithmen unter die Arme greifen, oder neue Software-Algorithmen ermöglichen. Genau das tut NV40 mehr als es der X800 tut.

Alles schön und gut, Du nennst hier die Vorzüge von NV, dann musst Du auch die von ATi nennen....mehr verstehe Ich darunter nicht. Ich bezog mich lediglich Allg. auf alle Hersteller....aber offensichtlich hast Du nichts von meinem Post verstanden. Ich wollte über keinen IHV herziehen oder irgend wen bevorzugen...aber Du hast das wohl durcheinander gebracht...Sorry, wenn das evtl. von mir falsch rüberkam...für mich gilt das doch für alle Seiten...

Von daher ist es absolut richtig, dass der NV40 der modernere Chip ist, während der X800 eben der mit der älteren Technologie ist. Wobei "modern" völlig wertfrei gesehen werden muß - nicht alles was modern ist, ist gut. Aber auch nicht alles, was modern ist, ist schlecht.

Habe Ich auch nie behauptet !!! Aber: Ja ja....Rühr die Werbetrommel ruhig weiter.Hat in erster Linie trotzdem mit "Meinem?" Problem nicht viel zu tun. Ich bin jedenfalls neutral. .... :wink:

PS: der nächste, der "Algorithmen" falsch schreibt, etwa wie "Algorythmen" oder "Algorhythmen", kriegt einen Fisch von mir :P

Nix verstenn ! :D

Im übrigen, wenn Du fortwährend postet's, das alles Blödsinn ist, was Ich schreibe, kannst Du trotzdem nicht das Gegenteil beweisen...Ich weiß ja nicht , wo Du als Entwickler arbeitetst...aber bestimmt nicht bei ID oder Valve...und da geht es um Millionen...und die haben Dir bestimmt nicht geflüstert, was da läuft...

aber nicht alles persönlich nehmen, habe das ja nicht auf jeden Spiele Entwickler bezogen (s.o.)

so Long . WE naht !!!!! ;D

Ice =A=
2004-09-04, 21:53:47
Um mal etwas Ruhe in die Sache zu bringen möchte ich mal ein paar grundsätsliche Dinge erwähnen:

1. Es gibt "Optimierungen", die nicht das komplette Spiel schneller machen, sondern nur eine fest aufgezeichnete Benchmark-Demo. Das ist natürlich eine Katastrophe und Verarschung am Kunden, ich würde es sogar Betrug nennen.
Dies hat bis jetzt (anscheinend) nur nVidia im alten 3D-Mark gemacht, und das werde ich nie vergessen!!!

2. Es gibt zwei Arten von mehr oder weniger ehrlichen Treiberoptimierungen: Solche, die das Endergebnis auf dem Bildschirm ändern und solche, die es nicht tun. Dabei können durchaus gravierende Änderungen in den Berechnungsalgorithmen zum mathematisch gleichen Ergebnis führen (d.h. zum gleichen Bild) und kleine Änderungen zu einem verfälschten Ergebnis.
Zu letzterem gehört z.B. das modifizierte Filtering von ATI.

3. Ob nVidia Shader in Doom3 wirklich durch andere ersetzt hat, wissen wir noch nicht sicher. Wenn ja so wissen wir nicht, ob das Ergebnis mathematisch äquivalent ist. Im Moment sieht es aber so aus, als wäre es das. Allerdings muß man solche speziellen Optimierungen auch realistisch sehen: Im nächsten Spiel mit Doom3-Engine könnte ATI schon schneller sein, weil die nVidia-Optimierungen sehr spezifisch sind (im Gegensatz z.B. zu ATIs Filtering-Verfahren).

Ob nun jemand mathematisch äquivalenten Ersetzungen gut findet oder nicht, muß wohl jeder selbst mit sich ausmachen. Ich neige dazu "Optimierungen", die das Bild auch nur minimal verändern, nicht in Ordnung zu finden. "Optimierungen", die das Bild nicht verändern, finde ich ziemlich ok.
ATIs Ansatz, solche Optimierungen abschaltbar zu machen, ist sicher optimal! (Und damit mir keiner Parteilichkeit vorwirft: Ich habe grade 'ne 6800GT gekauft!)

P.S.:
Der eine oder andere wird's schon gemerkt haben: Um eine Optimierung als mathematisch äquivalent zu bezeichnen, muß man erstmal wissen, welches Bild denn das "wahre" ist. Und das ist auch garnichtmal so einfach, wenn man bedenkt, daß Grafikwerte immer gerundet werden müssen... (Nachtrag: Es gibt z.B. einen Referenz-Rasterizer (oder so ähnlich) von Microschrott.)

MikBach
2004-09-04, 22:02:58
2. Es gibt zwei Arten von mehr oder weniger ehrlichen Treiberoptimierungen: Solche, die das Endergebnis auf dem Bildschirm ändern und solche, die es nicht tun. Dabei können durchaus gravierende Änderungen in den Berechnungsalgorithmen zum mathematisch gleichen Ergebnis führen (d.h. zum gleichen Bild) und kleine Änderungen zu einem verfälschten Ergebnis.
Zu letzterem gehört z.B. das modifizierte Filtering von ATI.

Und der Patch 1.1 bei FarCry bei Nvidia und FX. ;D


3. Ob nVidia Shader wirklich durch andere ersetzt hat, wissen wir noch nicht sicher. Wenn ja so wissen wir nicht, ob das Ergebnis mathematisch äquivalent ist.
Ob nun jemand solche mathematisch äquivalenten Ersetzungen gut findet oder nicht, muß wohl jeder selbst mit sich ausmahen. Ich neige dazu, es in Ordnung zu finden.
Doch das wissen wir, siehe 3dmark2003. ;)
Es geht nicht um methematisches Äquivalent, sondern ums Prinzip. Da Nvidia in dieser Richtung schon lange Verarsche betreibt, ist es nur logisch, dass ATI sich nicht verarschen lässt und mitmacht. :)

Riipa
2004-09-04, 22:06:21
Falsch. Unter 100€ bekommt/bekam man eine 9600np, die bietet zu dem Preis eine deutlich bessere Leistung als die FX5200 in modernen Spielen.


Jetzt. Wenn Du es besonders aktuell magst, dann kann ich natürlich schnell noch eine Preiserhebung für 5200 und 9600 bei allen relevanten Versendern machen und dann eine beliebige andere Zahl hinschreiben. Von mir aus 75 oder 85 oder was auch immer so eine stinknormale 5200 128 Mb heute kostet. Auf jeden Fall gehe ich davon aus, dass der Preisunterschied zur 9600 zwar gesunken ist, aber immer noch circa 10-15% beträgt.


3dMurks03 ist bestes Beispiel von Nvidia für Shaderreplacement, WO man es nicht machen sollte. Bei Spielen sehe ich es nicht so eng, bei einem sythetischem Benchmark ist das nur Mist.
Zur Qualität: Siehe FarCry Patch 1.1 auf der FX. ;)


Ich meinte das eigentlich aufs Topic (Doom3) bezogen. Da gibt es imho bisher weder den beweis, dass Shader ersetzt werden, noch dass das zu schlechteren Ergebnissen als bei ATI führt. Da ich mir aber nicht sicher bin, habe ich es als Frage formuliert.


Das kannst du gar nicht wissen, ob Nvidia nicht schon früher gecheatet hat.


Und Du kannst gar nicht wissen, ob die Erde rund und Zyankali wirklich giftig ist. Etwas weniger polemisch könnte man auch sagen, dass die Experten in Sachen BQ bisher so vielen Sachen auf die Spur gekommen sind, dass ein nicht erkannter Cheat in der frühen Zeit der 3D-Beschleuniger eher unwahrscheinlich ist. Wenn ich mich recht erinnere hat ATI ja damals Texturen nur mit 16 bit Farbtiefe dargestellt und das hat man sehr schnell gesehen. Etwas ähnliches von Nv wäre wohl aufgefallen.


Zur Qualität: Siehe FarCry Patch 1.1 auf der FX.


Was genau hatte der Patch mit Nv zu tun? Sieht der nur auf bestimmten Treibern verkümmert aus? Oder war es vielleicht doch Crytek, die etwas falsch gemacht haben bzw. übers Ziel hinausgeschossen sind und das dann mit 1.2 auch wieder geändert haben?


Es geht mir nicht um das Logo, das juckt mich nicht. Es geht um den berühmten Satz:"The way it´s meant to be played"
Soll ich es auf Deutsch übersetzen?
Hier wird einfach sugeriert, dass Nvidia der Massstab ist. Und so "viel" Englisch kann in Deutschland jeder.


Übersetzen vielleicht, verstehen offenbar nicht. Ein optimales Spielerlebnis hängt nicht davon ab, ob 90, 100 oder sogar "nur" 75 fps anliegen. Das Spiel muss ausreichend schnell und vor allem fehlerfrei ablaufen, dann ist es aus grafischer Sicht optimal, eben so wie es sich der Programmierer vorstellt. Ob das auf einem Konkurrenzprodukt auch der Fall ist oder ob es da schneller oder langsamer läuft, ist eben NICHT Inhalt des Satzes.

Ice =A=
2004-09-04, 22:08:09
@ MikBach:
Sorry, Punkt 3 sollte auf Doom3 bezogen sein, ich habe das oben nachträglich geändert! (Daß ich das Verhalten nVidias beim 3DMark zutiefst verabscheue, kann man garnicht oft genug sagen!)
Daß das Gebaren von nVidia und ATI bescheuert ist, da wird ja wohl keiner widersprechen!!! Daß aber eine mathematisch äquivalente Shaderersetzung vernünftig sein kann, das ist Geschmackssache.

Inzwischen sehe ich das so:
Ein Programm gibt seine 3D-Befehle ja nciht direkt an die Grafikkarte, sondern an Direct3D oder OpenGL. Das gibt es dann an die Grafiktreiber und die in möglichst optimaler Form an die Hardware. So gesehen könnte man also mathematisch äquivalente (!) Shaderersetzungen fast als reguläre Arbeitsweise sehen... Leider spiegelen sie dann -wie gesagt- nciht unbedingt die allgemeine Leistung der Hardware wieder...

Ach ja, das mit FarCry finde ich übrigens auch 'ne Sauerei von nVidia, zumal man da die minderwertige Qualität von nVidia sogar gut sieht!!! (Ich habe es daher bei mir mit 'nem kleinen Progrämmchen auf dem Radeon-Pfad laufen, und es ist immernoch verdammt schnell auf den neuen nVidia-Karten...)

Hauwech
2004-09-04, 22:16:01
Falsch. Unter 100€ bekommt/bekam man eine 9600np, die bietet zu dem Preis eine deutlich bessere Leistung als die FX5200 in modernen Spielen.

3dMurks03 ist bestes Beispiel von Nvidia für Shaderreplacement, WO man es nicht machen sollte. Bei Spielen sehe ich es nicht so eng, bei einem sythetischem Benchmark ist das nur Mist.
Zur Qualität: Siehe FarCry Patch 1.1 auf der FX. ;)

Das kannst du gar nicht wissen, ob Nvidia nicht schon früher gecheatet hat.

Wann kam die 5200er raus und wann die 9600np? Was haben die 5200er und die 9600np zu Anfang gekostet? Wie lange hat es gedauert bis die 9600np unter die "magische" 100 Euro Grenze fiel?

3dMurks03 ist genau das: Murks

Weisst du denn ob Nvidia schon früher gecheatet hat? Oder ATI?

MikBach
2004-09-04, 22:22:23
Jetzt. Wenn Du es besonders aktuell magst, dann kann ich natürlich schnell noch eine Preiserhebung für 5200 und 9600 bei allen relevanten Versendern machen und dann eine beliebige andere Zahl hinschreiben. Von mir aus 75 oder 85 oder was auch immer so eine stinknormale 5200 128 Mb heute kostet. Auf jeden Fall gehe ich davon aus, dass der Preisunterschied zur 9600 zwar gesunken ist, aber immer noch circa 10-15% beträgt.
Echt? nur noch 10-15%?
Dann kann man die FX5200 wirklich nicht mehr empfehlen. Die ist in modernen Games deutlich langsamer.

Ich meinte das eigentlich aufs Topic (Doom3) bezogen. Da gibt es imho bisher weder den beweis, dass Shader ersetzt werden, noch dass das zu schlechteren Ergebnissen als bei ATI führt. Da ich mir aber nicht sicher bin, habe ich es als Frage formuliert.

Also bei Doom3 hat JC die Shader für NV so optimiert, dass ein Shaderreplacement nichts mehr bringen würde. Bei ATI bringt das Shaderreplacement was, deswegen auch mein Vorwurf an JC, dass er nicht vernünftig auf ATI otimiert hat. Das hat er nur bei NV gemacht. ;)

Seraf
2004-09-04, 22:24:10
Und der Patch 1.1 bei FarCry bei Nvidia und FX. ;D


Doch das wissen wir, siehe 3dmark2003. ;)
Es geht nicht um methematisches Äquivalent, sondern ums Prinzip. Da Nvidia in dieser Richtung schon lange Verarsche betreibt, ist es nur logisch, dass ATI sich nicht verarschen lässt und mitmacht. :)

[spam]
Du freust dich ja anscheinend schon richtig darauf von ATI auch verarscht zu werden :eek: ;D :D .
Demnächst heißt es noch von ATI Fanboys das ATI besser verarscht als NV...
[\spam]


Übrigens wo sind wir in dieser Diskussion schonwieder?
Anscheinend in der Sackgasse. ATI Fanboys wollen den 3DCenter Artikel nicht wahrhaben und schlagen sich mit lachenden NV Fanboys und anderen qualifizierten Members um die Wette.

Das ATI schon immer zu Faul war für bestimmte Spiele zu optimieren und nur aus Eigennutz und Ressourcenschonung behauptete das sich App spezifisch optimieren nicht wollen wollen unsere Fanboys auch nicht wahrhaben. Noch schlimmer. Anscheinend wirkt noch immer das letzte Jahr nach in dem ATI den schwarzen Peter "zu Recht!" in die NV Ecke geschoben hat. Das sich das Blatt gewendet hat scheint noch nicht wahrgenommen worden zu sein.

Ich finde aths hat schon alles in seinem Artikel gesagt und ATI will mit Diffamierungen nur um jeden Preis verhindern das ihnen die Felle wegschwimmen.

Als Mod würde ich den Thread langsam dichtmachen.

MikBach
2004-09-04, 22:26:47
Weisst du denn ob Nvidia schon früher gecheatet hat? Oder ATI?
Ne, da will meine Glasskugel nichts mehr rausrücken. ;)
Wer da nun angefangen hat juckt mich wirklich nicht. In der letzten Zeit ist Nvidia mit dem Shaderreplacement aufgefallen. Mehr nicht.

MikBach
2004-09-04, 22:47:55
[spam]
Du freust dich ja anscheinend schon richtig darauf von ATI auch verarscht zu werden :eek: ;D :D .
Demnächst heißt es noch von ATI Fanboys das ATI besser verarscht als NV...
[\spam]
Ne du, ATi will dieses Shaderreplacement erst bei Doom3 machen, weil sie sich bestimmt verarscht vorkommen. Wenn sich Humus paar Stündchen hinsetzt und deutlich bessere Ergebnisse hinbekommt.
NV macht es schon lange Zeit. Hat es dich bei NV auch so gestört? ;D
BTW als Spam würde ich das nicht auffassen. ;)
Aber mit dem Wort "Fanboy" solltest du vorsichtig umgehen. Beta hat dafür gerade einen Punkt kassiert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2213122&postcount=45
Das sehen die Moderatoren gar nicht gerne. Das haben sie schon oft zu Ausdruck gebracht, also freue dich auf deine Punkte. :)

Übrigens wo sind wir in dieser Diskussion schonwieder?
Anscheinend in der Sackgasse. ATI Fanboys wollen den 3DCenter Artikel nicht wahrhaben und schlagen sich mit lachenden NV Fanboys und anderen qualifizierten Members um die Wette.

Was mienst du mit lachenden?
Ich würde eher sagen weinenden.
OT
Eine Frage noch, siehst du mich als einen ATI-Fanboy an?
Wenn ja, kann ich dir ein paar Quotes bringen, die das Gegenteil beweisen. /OT
:biggrin:

SamLombardo
2004-09-04, 23:14:34
Was mienst du mit lachenden?
Ich würde eher sagen weinenden.
OT
Eine Frage noch, siehst du mich als einen ATI-Fanboy an?

:biggrin:

Weinenden? Kaum. NV hat IN DIESER GRAKA GENERATION eindeutig die besseren Produkte, das wird von der Mehrheit so gesehen. (Auch wenn es hartneckige Ati Fans nicht wahrhaben wollen) Etwaige Schwächen der FX Reihe sind ausgebügelt, die geschwindigkeit ist gleich der X800er, BQ ist besser und dazu kommt der technologische Vorsprung.

Zu deiner Frage; War zwar ned an mich gerichtet aber : irgendwie Ja! :) Du lässt keinen Anlass aus um Atis offensichtliche Schwächen schönzureden und über NV herzuziehen.

Nix für Ungut, So long :wink:

Sam

Riipa
2004-09-04, 23:16:04
Nun entscheide Dich doch mal. Ist Nv ein böser Cheaterverein, weil sie - wie ATI behauptet - bei Doom3 Shader ersetzen ohne dabei notwnedigerweise eine schlechtere BQ zu erzeugen, oder ist JC ein böser Junge, weil er seine Engine angeblich auf den Nv40 optimiert hat?

Tatsache ist, dass das erste bisher nur behauptet und nicht nachgewiesen wurde und das zweite schon mehrfach hier im Forum von jenen Leuten diskutiert und für unsinnig befunden wurde, die sich mit sowas auskennen.

Noch mal was zur Frage der "Optimierung" auf ATI- oder NV-Hardware von Doom3:
Der letzte Stand, an den ich mich beim Humus-Shadereplacement erinnere ist, dass die Variante von JC eben doch die kompatibelste und somit beste Variante ist. Auch wenn Humus Variante mit bestimmten Karten und bestimmten Treibern tendenziell etwas schneller ist, führt sie auf anderen Systemen zu Bildfehlern.
So einfach ist es eben nicht, mal eben daherzukommen und jemandem wie JC schlampige Arbeit nachzuweisen.


Eine Frage noch, siehst du mich als einen ATI-Fanboy an?
Wenn ja, kann ich dir ein paar Quotes bringen, die das Gegenteil beweisen.


Du benimmst Dich derzeit wie einer. Eventuelle Zitate als Nv-Fanboy würden also lediglich auf eine gespaltene Persönlichkeit (oder auch gar keine) schließen lassen. ;D

Gast
2004-09-04, 23:33:54
Weinenden? Kaum. NV hat IN DIESER GRAKA GENERATION eindeutig die besseren Produkte, das wird von der Mehrheit so gesehen. (Auch wenn es hartneckige Ati Fans nicht wahrhaben wollen) Etwaige Schwächen der FX Reihe sind ausgebügelt, die geschwindigkeit ist gleich der X800er, BQ ist besser und dazu kommt der technologische Vorsprung.
Falsch.
Es gibt Faktoren, die mehr interessieren als nur das was du angesprochen hast. Viele miener Kumpels interessiert mehr die Verlustleistung und Lautstärke. ;)
Und komm mit nicht mehr mit der BQ. Das Thema ist schon so ausdiskutiert, dass jemand, der es erwähnt sich langsam lächerlich macht.
Zum technichen Vorsprung: :lol:
Zeig mir die Beispiele, wo der technische Vorsprung gegenüber der X800-Reihe in Mehrleistung resultiert.

Zu deiner Frage; War zwar ned an mich gerichtet aber : irgendwie Ja! :) Du lässt keinen Anlass aus um Atis offensichtliche Schwächen schönzureden und über NV herzuziehen.

Nix für Ungut, So long :wink:

Sam
Ja. ;D
deswegen habe ich auch diesen Post verfasst:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2136620&postcount=24

Jesus
2004-09-04, 23:34:03
Der letzte Stand, an den ich mich beim Humus-Shadereplacement erinnere ist, dass die Variante von JC eben doch die kompatibelste und somit beste Variante ist. Auch wenn Humus Variante mit bestimmten Karten und bestimmten Treibern tendenziell etwas schneller ist, führt sie auf anderen Systemen zu Bildfehlern.
So einfach ist es eben nicht, mal eben daherzukommen und jemandem wie JC schlampige Arbeit nachzuweisen.

und das letzte an was ich mich erinnere ist das JC selbst gesagt hat dass selbst geringste Änderungen am Shadercode bei NV Karten gewaltige Performanceeinbrüche zur Folge haben ... :tongue:

Wofür spricht das jetzt ?

MikBach
2004-09-04, 23:36:47
Der Gast war ich:)

MikBach
2004-09-04, 23:43:18
Du benimmst Dich derzeit wie einer. Eventuelle Zitate als Nv-Fanboy würden also lediglich auf eine gespaltene Persönlichkeit (oder auch gar keine) schließen lassen. ;DNix gespaltene Persönlichkeit. Einfach nur Objektivität. :P
Noch ein Post von mir, wo ich einen ATI-Gast aufgeklärt habe:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2138777&postcount=40
:P
Zeig mir mal Postings von dir, die das Gegenteil bewiesen, dass du ein NV-Fanboy bist, dann reden wir mal weiter. ;)

tokugawa
2004-09-04, 23:44:27
Es geht mir nicht um das Logo, das juckt mich nicht. Es geht um den berühmten Satz:"The way it´s meant to be played"
Soll ich es auf Deutsch übersetzen? ;)
Hier wird einfach sugeriert, dass Nvidia der Massstab ist. Und so "viel" Englisch kann in Deutschland jeder.


Also, mit viel Willen kann man BEIDE Sprüche von ATI und NV jeweils auf diese Art wie du es einseitig mit NVIDIA tust, so auffassen.

Ich schalt mal in MikBach-Modus:
<MikBachModus>
"Get in the Game!" - also nur mit ATI kann man wirklich in ein Spiel eintauchen? Das heißt dass ein Spiel keinen Spaß macht mit NVIDIA?
Hier wird einfach sugeriert, dass ATI der Massstab ist. Und so "viel" Englisch kann in Deutschland jeder.
</MikBacHModus>

Siehst du? Wenn man selbst voreingenommen ist, sieht man halt Geister und Negativität nur beim "Feind" (NVIDIA), und nie beim "Freund" (ATI).

Für mich sind beide Kampagnen und beide Sprüche gleich schlimm. Zu diskutieren, welcher Marketing-Spruch schlimmer ist, hat nichts mit der Technik zu tun, sondern nur mit Marketing-Gewäsch und ist daher belanglos.


Siehe auch die Reaktion eines Halbdaus:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2208167&postcount=58
Da es einige noch nicht begriffen haben, muss ich die nächsten zwei Sätze schreiben.
Ich"Was meinst du mit Nvidia-Spiel?"
Er:"Ist doch klar, der Satz:"The way it´s meant to be played" sagt doch alles. Es läuft auf Nvidia besser, sonst würden sie ja nicht schreiben "meant to be played". no comment. ;)
Und Oberdau ist er sicherlich nicht, er kann schon AA und AF in den Treibern einstellen und Profile anlegen. ;)

Wenn du wüsstest....
Wenn ich vor Ende letzten Jahres nicht den meisten zu einer 9800PRO geraten hätte, hätten sicherlich 80-90% eine FX5900 gekauft.

Ich hab bereites eine Radeon 9500 Pro in einem Rechner. Und für den anderen hab ich mir eine FX 5900 gekauft. Die Entscheidung war eine gute, denn jede der Karten hat andere Stärken.

Dein Kreuzzug gegen die FX 5900 ist absolut unverständlich, denn schlecht sind die Karten nicht (hast du schon mal eine Volari Duo probiert? DAS ist schlecht), auch wenn die 9800 Pro in den meisten Fällen eine bessere Entscheidung ist. Aber wie du schon woanders schreibst, es gibt verschiedene Faktoren außer Performance - Bildqualität, Lautstärke. Von daher kann die FX 5900 für einen persönlich - je nach persönlicher Vorliebe und persönlichen Prioritäten - auch mal die bessere Entscheidung sein.

tokugawa
2004-09-04, 23:47:17
und das letzte an was ich mich erinnere ist das JC selbst gesagt hat dass selbst geringste Änderungen am Shadercode bei NV Karten gewaltige Performanceeinbrüche zur Folge haben ... :tongue:

Wofür spricht das jetzt ?

Das gilt für alle Karten, je nach Shader. Man kann immer Beispiele auf Karten finden, wo man von einem schnellen Shader durch geringe Änderungen auf einen langsamen Shader kommt. Je nachdem was man macht.

Aus dem Zusammenhang gerissen ist die Aussage jedenfalls trivial und relativ sinnfrei.

Jesus
2004-09-04, 23:49:31
Das gilt für alle Karten, je nach Shader. Man kann immer Beispiele auf Karten finden, wo man von einem schnellen Shader durch geringe Änderungen auf einen langsamen Shader kommt. Je nachdem was man macht.

Aus dem Zusammenhang gerissen ist die Aussage jedenfalls trivial und relativ sinnfrei.

Falsch. Diese Aussage ist auch nicht aus irgendeinem Zusammenhang gerissen, sondern genauso von JC gemacht worden und nur auf FX Karten bezogen.

Gast
2004-09-05, 00:08:47
Da hast du es doch: Aus den Zusammenhang gerissen, den du hast erstmal NICHT gesagt, dass sich das nur auf die FXen bezieht, so wie man das liest besonders das hier: "bei NV Karten" heißt das für jedermann, das ALLE Nv karten Performance einbrüche haben. Ja ja hier werden ganz plötzlich sachen zitiert, die JC nie gesagt haben wird.

Sowieso wird JC von irgendwelchen ATI-Fnbz wegen der Sache mit den Humus-Patch als unfähig dargestellt. Aber woher wollt ihr wissen wie lange der Herr Humus drangearbeitet hat? Vielleicht ist diese Performance-Verbesserung nur zufällig entstanden....(was ja dadurch gestütz wird, dass es mehrere Patches gab mit nicht alzu zufriedenstellenden Ergebnissen und VIELEN Fehldastellungen

FPSn00b
2004-09-05, 00:16:28
[...]Nvidia probably IS "cheating" to some degree, recognizing the Doom shaders and substituting optimized ones, because I have found that making some innocuous changes causes the performance to drop all the way back down to the levels it used to run at. I do set the precision hint to allow them to use 16 bit floating point for everything, which gets them back in the ballpark of the R300 cards, but generally still a bit lower.
[...][...]I also have text from an MSN converstaion with Derek Perez who openly stated that part of their compiler optimisers task is to "replace shaders where they feel they need to" (I wasn't going to get into a discussion with him about what a compiler actually is), and that they would keep replacing shaders in their drivers every time 3DMark issues another patch to defeat their detections. We also have the case where we found in the intial 5900 drivers merely renaming UT would offer full trilinear. ATI have also openly stated to me that they have some detections in R200 drivers - there are thing like vertex buffers that get reassigned in order to better suit how they handle the vertex shaders. [...](Hervorhebungen von mir.)

Hört sich für mich wie eine ziemlich klare Sache an.
(Bin natürlich jetzt mal gespannt, wer von den versammelten Experten und professionellen Devs, nun diese Aussagen öffentlich anzweifeln, oder herunterspielen wird. - Lovesuckz, razor, Quasar, tokugawa, oder irgendein "Gast"? - Ich bin gespannt. :))

Übrigens: um die vollständigen Statements zu finden eignet sich die Suchfunktion im B3D-Forum ausgezeichnet, ich habe aber extra mehr als nötig zitiert, um den Eindruck zu vermeiden, daß hier Aussagen aus dem Kontext gerissen werden.

Riipa
2004-09-05, 00:21:55
und das letzte an was ich mich erinnere ist das JC selbst gesagt hat dass selbst geringste Änderungen am Shadercode bei NV Karten gewaltige Performanceeinbrüche zur Folge haben ... :tongue:

Wofür spricht das jetzt ?

Ähm was genau willst Du damit sagen? Dass die Nv-Treiber irgendwo auf D3 hin optimiert wurden? Jo, soweit so klar, auch das Shader ersetzt werden scheint offensichtlich, aber die Frage bleibt trotzdem: Ist dabei etwas unerlaubtes bzw. unerwünschtes passiert (=führt es zu Unterschieden in der Ausgabe)? Keine Ahnung. Die hast Du nicht, die habe ich nicht und zum jetzigen Zeitpunkt wage ich die These aufzustellen, dass das derzeit keiner hier im Board wirklich beantworten kann. Es gibt eine Aussage von ATI, die angesichts des großen Rückstandes der ATI-karten nicht anders zu erwarten war. Warten wir doch einfach mal ab, ob sich irgendwann herausstellt, dass ATI ein Wespennest angestochen oder vielleicht nur eine tote Biene gefunden hat.

Oder willst Du Dich doch auf das schmale Brett wagen und aus dieser Aussage herauslesen, dass JC D3 so gemacht hat, weil es anders nicht auf Nv-karten rulen würde.


Und komm mit nicht mehr mit der BQ. Das Thema ist schon so ausdiskutiert, dass jemand, der es erwähnt sich langsam lächerlich macht.


Hrhrhr, es schmerzt den gemeinen Fanatic, dass die kanadischen Jediritter fiese, kleine Cheater sind. Jede Menge nicht abschaltbare "Optimierungen". Am besten ignorieren, wenn ich mir ganz fest einbilde, dass es ein Non-Issue ist, dann wird es schon einer werden. *Ohren zuhalt und laut "lalala" sing*


Zeig mir mal Postings von dir, die das Gegenteil bewiesen, dass du ein NV-Fanboy bist, dann reden wir mal weiter.


Alle meine aktuellen Rechner haben ATI-karten (eine 9700 PRO, eine 9800 PRO und eine 9800 XT) - nicht sehr fanboyig, oder? Vielleicht geht mir einfach nur diese verfickte Schwarz-Weiss-Malerei auf die Nerven, die eine Firma, die genau wie deren Konkurrenz nur unser Geld will, zu einem Hort der Glücksseligkeit verklärt und mit ihren Rechtfertigungen für fast jede "Optimierung" den Boden für die Nächste bereitet. Dass Nv nun auch standardmäßig winkelabhängiges AF durchführt, ist so eine Folge, die mich wirklich extrem ankotzt, denn gerade das stört mich bei meinen ATI-Karten erheblich.

Vielleicht ist es ja auch die Scheinheiligkeit, mit der die betreffende Firma (die auch noch als erste Firma überhaupt gecheatet hat, was ich mir genauso gut merken werde, wie die Benchmarkcheats der Konkurrenz) ihre Kunden und die Tester verarscht und gleichzeitig noch mit dem Finger auf die Konkurrenz zeigt. (Wir erinnern uns an diese schöne Benchmarkguide "Macht alle Optimierungen bei Nv aus, nur so ist es fair...").

Irgendwie KANN man oft genug gar nicht anders, als den Leuten Feuer zu geben, die in ihrer mit Gerüchten und Halbwissen verblendeten Welt herumsitzen und sich alles schönreden, was von ATI kommt, weil es eben die Marke der Stunde ist und weil Nv so furchtbar unschick geworden ist. Wenn Nv eine neue Cheatrunde einläuten sollte (oder eingeläutet hat), dann macht mich das mindestens genauso sauer, wie bei ATI, aber etwas dazu sagen braucht man dann wohl kaum, der entsprechende Aufschrei würde im Gegensatz zu den bisher bekannt gewordenen Sachen bei ATI ohnehin durch die versammelte Fanboylandschaft und Journalie gehen.

/me Riipa

tokugawa
2004-09-05, 00:28:36
Falsch. Diese Aussage ist auch nicht aus irgendeinem Zusammenhang gerissen, sondern genauso von JC gemacht worden und nur auf FX Karten bezogen.

Ja, nur die Aussage allein gilt halt logischerweise für alle Karten. Es heißt also nicht viel, wenn gerade die Shader, die DOom 3 verwendet, diese EIgenschaft haben.

Naja, die FX Karten sind ja auch ziemlich pingelig, was Shadercode angeht, das stimmt. Aber das heißt natürlich nicht, dass bei anderen Karten nicht die Performance einbricht, wenn man mal irgendwas "falsches" ändert. Es gibt halt mehr "No-No"s bei den FXen.

MikBach
2004-09-05, 00:31:05
Also, mit viel Willen kann man BEIDE Sprüche von ATI und NV jeweils auf diese Art wie du es einseitig mit NVIDIA tust, so auffassen.
Ich schalt mal in MikBach-Modus:
<MikBachModus>
"Get in the Game!" - also nur mit ATI kann man wirklich in ein Spiel eintauchen? Das heißt dass ein Spiel keinen Spaß macht mit NVIDIA?
Hier wird einfach sugeriert, dass ATI der Massstab ist. Und so "viel" Englisch kann in Deutschland jeder.
</MikBacHModus>
LoL.
Liess meine Postings noch mal.
Der Satz "Get in the Game" ist gaaaanz anders als "The way it´s meant to be played. Liesst du auch die anderen Postings, oder nur die du angreifen kannst?


Siehst du? Wenn man selbst voreingenommen ist, sieht man halt Geister und Negativität nur beim "Feind" (NVIDIA), und nie beim "Freund" (ATI).
Zeig mir mal Postings, wo du pro ATI argumentierst, dann sehen wir mal weiter. :freak:
Ich habe 2 Postings, wo ich für NV argumentiere gezeigt, jetzt bist du dran.
Los. Wo sind sie? Für ATI.
Ich habe dich noch kein mal sagen hören, dass ATI vielleicht besser sein könnte. ;) Hast du die Karten von NV bekommen und musst jetzt sowas erzählen, oder was ist mit dir los?


Dein Kreuzzug gegen die FX 5900 ist absolut unverständlich, denn schlecht sind die Karten nicht , auch wenn die 9800 Pro in den meisten Fällen eine bessere Entscheidung ist.
Megalol.
Die FX ist für Gamer einfach nichts. Wer glaubt eine FX wäre gut für Gamer, der glaubt auch an den Weihnachtsmann und Osterhasen-

tokugawa
2004-09-05, 00:40:29
LoL.
Liess meine Postings noch mal.
Der Satz "Get in the Game" ist gaaaanz anders als "The way it´s meant to be played. Liesst du auch die anderen Postings, oder nur die du angreifen kannst?


Gaaaaanz anders ist er nicht. Er ist genauso Marketingmüll, und hat mit Technik nichts zu tun. Und man kann eben auch "Get in the Game" auf dieselbe Weise interpretieren.

Genauso wie "Für das beste im Mann".


Zeig mir mal Postings, wo du pro ATI argumentierst, dann sehen wir mal weiter. :freak:
Ich habe 2 Postings, wo ich für NV argumentiere gezeigt, jetzt bist du dran.
Los. Wo sind sie? Für ATI.
Ich habe dich noch kein mal sagen hören, dass ATI vielleicht besser sein könnte. ;) Hast du die Karten von NV bekommen und musst jetzt sowas erzählen, oder was ist mit dir los?


Hallo? Ich hab eine Radeon 9500 Pro.

Außerdem hab ich gerade im vorigen Posting gesagt, dass die Radeon 9800 Pro in den meisten Fällen (aber nicht in allen) besser ist als die FX 59xx. Beweist also dass du wirklich nur das liest was du lesen willst.


Megalol.
Die FX ist für Gamer einfach nichts. Wer glaubt eine FX wäre gut für Gamer, der glaubt auch an den Weihnachtsmann und Osterhasen-

Haltlose Behauptung. Deswegen hast du schon mal einen Punkt bekommen.

Was ist an dieser Aussage bitte falsch:
Die FX 5900 ist auch gut für Gamer, aber vielleicht für die meisten (vor allen aktuellen) Spiele nicht so schnell wie die Radeon 9800 Pro. Dafür ist sie vor allem für ältere Spiele besser als die 9800 Pro dank einiger Bildqualitätsfeatures (Supersampling, Doublescan), und einige mögen die Winkelabhängigkeit bei ATI Karten und beim NV40 nicht. Was bleibt dann, wenn man gutes AF haben will? S3 Deltachrome oder FX 59xx. Welche der beiden ist schneller?

Ach ja: du selbst hast gesagt, dass es viel mehr Eigenschaften einer Karte gibt als reine Performance. Auch Lautstärke, Bildqualität, und vieles mehr.

Nun ist es mal Faktum dass jeder von uns ein Individuum ist, und jedem von uns andere Dinge wichtig sind.

Ist es so schwer für dich zu verstehen, dass für jemanden auch möglich ist, dass die FX 5900 für ihn, für seine persönlichen Prioritäten besser ist?

Ich habe Far Cry gespielt. Ich mochte es nicht besonders. Ich würd's nicht nochmal spielen. Auch nicht auf der Radeon 9500 Pro. Aber es rannte ordentlich auf beiden Karten.

Ich mochte Thief 3. Das lief super auf beiden meinen Karten.

Ich mag viele alte Spiele, z.B. Deus Ex, oder System Shock 2. Hier hat eine FX mehr zu bieten dank SSAA und anderen Features.

Ich bin trotzdem ein Gamer, auch wenn ich nicht jeden neuen Actionknaller mag. Ich mag Doom 3 auch nicht besonders bis auf die tolle Atmosphäre (die allerdings IMO von System Shock 2 "kopiert" worden ist, aber das sehr gut).

Für manche Gamer mit so speziellen Wünschen wie ich ist die FX 5900 halt eben nicht schlechter als entsprechende ATI Karten.

MikBach
2004-09-05, 00:41:08
Oder willst Du Dich doch auf das schmale Brett wagen und aus dieser Aussage herauslesen, dass JC D3 so gemacht hat, weil es anders nicht auf Nv-karten rulen würde.
Oh man du hast es voll erfasst. Gratuliere. ;)

tokugawa
2004-09-05, 00:42:37
Oh man du hast es voll erfasst. Gratuliere. ;)

Nein. Er hat es so gemacht, weil es der Straight-forwardeste Weg ist.


Du bist kein Entwickler. Von daher kannst DU diesbezüglich nicht wirklich viel behaupten, was Wert hat.

Riipa
2004-09-05, 00:42:50
LoL.
Megalol.
Die FX ist für Gamer einfach nichts. Wer glaubt eine FX wäre gut für Gamer, der glaubt auch an den Weihnachtsmann und Osterhasen-

Eigentlich wollte ich dazu nix sagen, aber da Du offensichtlich das Brett vorm Kopf einfach nicht loswerden WILLST:

Die 5900 XT war nie als Gegner der 9800 PRO gedacht, dass sie gegen diese oft genug in Benches verliert war klar. Dafür gab es ja die 5900 Ultra und die 5950 Ultra. Die 5900 XT sollte das obere Mainstreamsegment (150-200 Euro, 9600 XT - max. 9800 non PRO) abschöpfen. Zum Zeitpunkt der Veröffentlichung trennten die beiden Karten 100 Euro und mehr. Als ATI gemerkt hat, mit den 9600 XT nicht wirklich eine Alternative zur 5900 XT zu haben, wurde kurzerhande der gesamte Markt umgekrempelt und die 9800 PRO ins Segment 200-230 Euro versetzt. Das ist legitim und falls ATI unter dem Strich dabei auch noch ein paar Euro an den Chips verdient durchaus auch clever, tough luck Nv. Aber einer Mainstreamkarte vorzuwerfen, dass sie nicht immer mit einer eilig aus dem Enthusiast-Markt herbeigerufenen Karte gleichziehen kann, ist irgendwie sinnbefreit, ich finde es eher erstaunlich, dass sie mit dieser Karte durchaus mithalten kann und für bestimmte Zwecke durchaus die bessere Lösung sein kann.

tokugawa
2004-09-05, 00:44:59
Eigentlich wollte ich dazu nix sagen, aber da Du offensichtlich das Brett vorm Kopf einfach nicht loswerden WILLST:

Die 5900 XT war nie als Gegner der 9800 PRO gedacht, dass sie gegen diese oft genug in Benches verliert war klar. Dafür gab es ja die 5900 Ultra und die 5950 Ultra. Die 5900 XT sollte das obere Mainstreamsegment (150-200 Euro, 9600 XT - max. 9800 non PRO) abschöpfen. Zum Zeitpunkt der Veröffentlichung trennten die beiden Karten 100 Euro und mehr. Als ATI gemerkt hat, mit den 9600 XT nicht wirklich eine Alternative zur 5900 XT zu haben, wurde kurzerhande der gesamte Markt umgekrempelt und die 9800 PRO ins Segment 200-230 Euro versetzt. Das ist legitim und falls ATI unter dem Strich dabei auch noch ein paar Euro an den Chips verdient durchaus auch clever, tough luck Nv. Aber einer Mainstreamkarte vorzuwerfen, dass sie nicht immer mit einer eilig aus dem Enthusiast-Markt herbeigerufenen Karte gleichziehen kann, ist irgendwie sinnbefreit, ich finde es eher erstaunlich, dass sie mit dieser Karte durchaus mithalten kann und für bestimmte Zwecke durchaus die bessere Lösung sein kann.

Für MikBach scheint die FX 5900XT ja auch schlechter zu sein als eine Radeon 9600SE.

Dass man auch mit mittleren Settings statt den High-End Settings Spaß haben kann, oder - Gott bewahre - sogar ältere Spiele spaßig findet, und man trotzdem Gamer ist, ist noch nicht zu ihm durchgedrungen.

Unknown
2004-09-05, 00:48:56
Zitat von John Carmack
[...]Nvidia probably IS "cheating" to some degree, recognizing the Doom shaders and substituting optimized ones, because I have found that making some innocuous changes causes the performance to drop all the way back down to the levels it used to run at. I do set the precision hint to allow them to use 16 bit floating point for everything, which gets them back in the ballpark of the R300 cards, but generally still a bit lower.
[...]


JC sagt hier, dass er Nv erlaubt 16 bit zu benutzen. Ist das nicht schneller als 32 bit aber auch ungenauer als 24 bit?

tokugawa
2004-09-05, 00:52:40
JC sagt hier, dass er Nv erlaubt 16 bit zu benutzen. Ist das nicht schneller als 32 bit aber auch ungenauer als 24 bit?

Das bezieht sich ja auf die NV3x, oder?

Jedenfallst ist 16-bit natürlich ungenauer als 24-bit, und auch schneller. Und gerade deswegen sollte man 16-bit wann immer möglich (ohne Bildqualitätsverlust) auch einsetzen. Ist ja allgemeines Programmierwissen. Man rendert ja auch möglichst keine Polygone, die nicht sichtbar sind. Präzisionsoverkill ist genauso schlimm wie Polygonoverkill.

Hätte ATI mehr zu bieten als nur 24-bit, würde ATI dieselbe Empfehlung aussprechen (Ausnahme wär wohl, wenn sie 24-bit und 32-bit so implementiert haben, dass 24-bit intern genauso wie 32-bit gehandhabt wird).

Gast
2004-09-05, 00:52:47
Für MikBach scheint die FX 5900XT ja auch schlechter zu sein als eine Radeon 9600SE.

Das hat MikeBack so nicht gesagt, bitte etwas genauer lesen und nicht den Leuten das Wort im Mund herumdrehen...

Riipa
2004-09-05, 00:53:26
Es soll auf den Nv40 keinen wirklichen Geschwindigkeitsunterschied zwischen 16 bit und 32 bit geben. Zusammen mit der Aussage "causes the performance to drop all the way back down to the levels it used to run" klingt mir das sehr nach Nv30. Haben die FX eigentlich einen gesonderten Renderpfad oder fiel der noch weg? *versuch sich zu erinnern*

tokugawa
2004-09-05, 00:55:56
Das hat MikeBack so nicht gesagt, bitte etwas genauer lesen und nicht den Leuten das Wort im Mund herumdrehen...

Hah, das sagst du eigentlich dem falschen.

Selbst eine Radeon 9600 non-Pro ist "gut für Gamer". Von daher ist es auch eine FX 59xx. Das ist es, was ich zeigen wollte.

Eine FX 5900 ist nicht schlecht. Sie ist nur im Allgemeinen nicht so gut wie eine Radeon 9800 Pro. Aber das macht die FX 5900 nicht zu einer "schlechten", sondern nur zu einer "schlechteren" Lösung (es sei denn, man hat gerade einen Nutzen für jene Bereiche, bei denen die FX glänzt, also etwa SSAA für ältere Spiele, oder wenn man grad die Spiele eher mag, bei der die FX besser dasteht).

tokugawa
2004-09-05, 00:56:37
Es soll auf den Nv40 keinen wirklichen Geschwindigkeitsunterschied zwischen 16 bit und 32 bit geben. Zusammen mit der Aussage "causes the performance to drop all the way back down to the levels it used to run" klingt mir das sehr nach Nv30. Haben die FX eigentlich einen gesonderten Renderpfad oder fiel der noch weg? *versuch sich zu erinnern*

Der fiel weg, soweit ich weiß. Der "Top-Pfad" ist einfach der ARB2 Pfad.

mirovb
2004-09-05, 00:59:05
Das bezieht sich ja auf die NV3x, oder?

Jedenfallst ist 16-bit natürlich ungenauer als 24-bit, und auch schneller. Und gerade deswegen sollte man 16-bit wann immer möglich (ohne Bildqualitätsverlust) auch einsetzen. Ist ja allgemeines Programmierwissen. Man rendert ja auch möglichst keine Polygone, die nicht sichtbar sind. Präzisionsoverkill ist genauso schlimm wie Polygonoverkill.

Hätte ATI mehr zu bieten als nur 24-bit, würde ATI dieselbe Empfehlung aussprechen (Ausnahme wär wohl, wenn sie 24-bit und 32-bit so implementiert haben, dass 24-bit intern genauso wie 32-bit gehandhabt wird).

???? hääää ???? die Logik dieses letzten Absatzes nehme Ich mal jetzt mit ins Reich der Träume....

Im übrigen: lasst doch endlich beide mal eure NV und ATi Kreuzzüge beiseite, das geht doch an der Diskussion vorbei...Gute Nacht !!!

tokugawa
2004-09-05, 01:04:59
???? hääää ???? die Logik dieses letzten Absatzes nehme Ich mal jetzt mit ins Reich der Träume....


Sorry, war vielleicht etwas schwammig formuliert.


Hätte ATI mehr zu bieten als nur 24-bit, würde ATI dieselbe Empfehlung aussprechen (Ausnahme wär wohl, wenn sie 24-bit und 32-bit so implementiert haben, dass 24-bit intern genauso wie 32-bit gehandhabt wird).


Damit meinte ich, würde ATI ebenfalls 32-bit und 16-bit Präzision anbieten, oder von mir aus auch 32-bit und 24-bit, wäre es auch wahrscheinlich, dass die geringere Präzision schneller wäre. Das ist ja meistens so, außer für den Fall 24-bit/32-bit, wo ja manchmal 24-bit einfach DWORD-alignt wird, und daher eigentlich genauso gehandhabt wird wie 32-bit und von daher genauso schnell ist.

Egal, mein Punkt war, in den meisten Fällen ist es eine Programmierperformanceregel, nur so viel Resourcen zu fordern wie unbedingt notwendig. Hat man die Wahl zwischen 16-bit und 32-bit, bei gleichem Ergebnis (weil eine Berechnung nicht mehr erfordert), wählt man in der Regel die niedrigere Präzision. Hängt natürlich auch von der Berechnung ab, und inwiefern sich ein eventueller Fehler sich fortpflanzt. Aber wenn es für einen Fall reicht ohne Nachteile, sollte man die niedrigere Präzision verwenden.

Der letzte Satz sollte nur ausdrücken, dass auch ATI, wenn sie mehrere Präzisionsmodi anbieten würden, dasselbe empfehlen würde, da es eine allgemeine Programmierregel ist.

Die Ausnahme ist halt, wie gesagt, wenn etwa die niedrigere Präzision aus welchen technischen Gründen auch immer (DWORD-Align, oder was auch immer) auch nur so schnell ist wie die höhere.


Im übrigen: lasst doch endlich beide mal eure NV und ATi Kreuzzüge beiseite, das geht doch an der Diskussion vorbei...Gute Nacht !!!

Dem stimme ich allerdings zu.

Riipa
2004-09-05, 01:05:54
Ah ok, wusste es ned mehr. Danke tokugawa.

@DirkBach & Friends: Das einzige was mir zu der ganzen Geschichte noch einfällt, ist dass es schon erschütternd ist, wie gut ihr es immer wieder schafft, grundsätzliche Aussagen zum Thema Fanboytum zu ignorieren und mit Eurer Ignoranz einfach nur das wahrnehmt, was in Euer kleines, festgefügtes Schwarz-Weiss-Weltbild passt. (vgl. Posts 134 und 138)
Natürlich, das Leben ist so viel einfacher, aber die Rechnung dafür wird Euch und leider auch der selbst denkenden Minderheit der Bevölkerung in allen Lebensbereichen genauso unweigerlich präsentiert werden, wie sie als "Optimierung" bei den Grafikkarten schon längst vorgelegt wurde.

Ice =A=
2004-09-05, 01:19:53
Mensch, laßt es doch mal sein, den jeweils anderen "Fanboy-tum" vorzuwerfen! Dieser Thread geht um Doom3, um nVidia und ATI und deren Treiber im Bezug auf Doom3, nicht mehr und nicht weniger!
Übrigens auch nicht über die Nutzlosigkeit von 5200er Karten oder so...

Hm, da fällt mir was auf:
Die älteren nVidia-Karten sind in Doom3 wirklich nicht auffallend schnell, im Gegensatz zu den neuen!
Ich denke, damit gibt es drei Möglichkeiten:
1. nVidia hat die Treiber für die älteren Karten aus marketingtechnischen Gründen nicht extrem optimiert. Dagegen spricht, daß die alten Karten durchaus noch in den Regalen liegen und die neuen grade erst richtig lieferbar sind (und gute Publicity kann nVidia grade in letzter Zeit auch gut brauchen).
2. nVida hat die Treiber nicht überdurchschnittlich optimiert, dagegen spricht aber JC's Aussage mit den kleinen Änderungen an Doom3...
3. Die Optimierungen setzen auf 3.0-Shadern auf.
Wenn also nVidia z.B. mehrere kurze Shaderbefehle zu einem langen 3,0-Shaderbefehl zusammenfassen würde, den die neuen Karten in einem Durchgang berechnen können, so könnte die Ausgabe gleich bleiben und die Geschwindigkeit erhöht werden!
Ich finde, es wäre doch auch schade, diese Fähigkeiten der nVidia-Karten (die diese nun mal haben und ATI nicht) brachliegen zu lassen (wenn das ausgegebene Bild unverändert bleibt)!!! Oder nicht?!

tokugawa
2004-09-05, 01:30:28
Mensch, laßt es doch mal sein, den jeweils anderen "Fanboy-tum" vorzuwerfen! Dieser Thread geht um Doom3, um nVidia und ATI und deren Treiber im Bezug auf Doom3, nicht mehr und nicht weniger!
Übrigens auch nicht über die Nutzlosigkeit von 5200er Karten oder so...

Hm, da fällt mir was auf:
Die älteren nVidia-Karten sind in Doom3 wirklich nicht auffallend schnell, im Gegensatz zu den neuen!
Ich denke, damit gibt es drei Möglichkeiten:
1. nVidia hat die Treiber für die älteren Karten aus marketingtechnischen Gründen nicht extrem optimiert. Dagegen spricht, daß die alten Karten durchaus noch in den Regalen liegen und die neuen grade erst richtig lieferbar sind (und gute Publicity kann nVidia grade in letzter Zeit auch gut brauchen).
2. nVida hat die Treiber nicht überdurchschnittlich optimiert, dagegen spricht aber JC's Aussage mit den kleinen Änderungen an Doom3...
3. Die Optimierungen setzen auf 3.0-Shadern auf.
Wenn also nVidia z.B. mehrere kurze Shaderbefehle zu einem langen 3,0-Shaderbefehl zusammenfassen würde, den die neuen Karten in einem Durchgang berechnen können, so könnte die Ausgabe gleich bleiben und die Geschwindigkeit erhöht werden!
Ich finde, es wäre doch auch schade, diese Fähigkeiten der nVidia-Karten (die diese nun mal haben und ATI nicht) brachliegen zu lassen (wenn das ausgegebene Bild unverändert bleibt)!!! Oder nicht?!

Oder die FX-Karten sind bereits so optimiert, dass sie gleichziehen können mit ihren R3xx Konkurrenten und das ist das Maximum was man bei Doom 3 aus den FXen holen kann. Ursprünglich hätte die NV30 ja auch langsamer im ARB2 Pfad sein sollen.

Lange Shader sind übrigens auf der FX auch nicht besonders Geschwindigkeitsfördernd (gilt allerdings prinzipiell für alle Karten). Höchstens mit Early-Out bei SM 3.0 (und auch das nur in einigen Fällen), aber das hat die FX ja nicht.

FPSn00b
2004-09-05, 02:06:28
@ICE =A=
ACK

Ich frage mich nach wie vor, wie bei zumindest eben jenen älteren nVIDIA-Karten der von JC implizierte massive Leistungsgewinn durch das treiberseitige Ersetzen von Shadern kommen kann und ob dieser durch BQ-Einsparungen, bzw. Übersimplifizierungen entsteht, denn ich kann mir wirklich nur schwerlich vorstellen, daß JC inkompetent auf diesem Gebiet sein sollte und vielversprechende Optimierungs-Ansätze übersehen haben könnte.
Auch fällt es mir schwer zu glauben, daß die von tokugawa erwähnte "Pingeligkeit" der FXen im Hinblick auf Shader dafür verantwortlich sein könnte, weil JC dann doch sicherlich auch davon wissen würde und er sich dann wohl vorsichtiger ausgedrückt hätte, als zu sagen daß _warscheinlich_ Shaderreplacements stattfinden.

Und jup, diese ganzen unnötigen Stellvertreter-Diskussionen nerven - weder nVIDIA, noch ATI haben es nötig, daß jemand für sie in die Bresche springt und das bei vielen vorhandene Mißtrauen ihnen gegenüber haben sich beide IMO selbst zuzuschreiben.

Ice =A=
2004-09-05, 02:25:09
@tokugawa:
Was Du sagst fällt doch genau unter meinen Fall 3. :)
Und daß 3er Shader nicht prinzipiell geschwindigkeitsfördernd sind, ist klar, aber sie können eben längere Berechnungen durchführen, und wenn man Glück hat, sind zwei "normale" Berechnungen kurz genug, um daraus eine 3er zu machen...
(Zumindest stelle ich mir das so vor, tiefere Kenntnisse in die Richtung habe ich nämlich nicht...)

@FPSn00b:
Daß die alten nVidia-Karten schlechtere Bildqualität zu Gunsten der Geschwindigkeit fahren, davon hat man bis jetzt noch nichts gehört. Aber man sollte das im Auge behalten!
Übrigens hat JC NICHT gesagt, daß die 6800er Shader-Replacements durchführen, lediglich, daß die Karten sich auf einem relativ schmalen "Optimationspfad" bewegen (wie das genau geht, davon weiß er vielleciht selbst nichts).
Ich glaube sogar, daß er das nur auf die neuen Karten bezogen hat...

FPSn00b
2004-09-05, 04:00:23
Übrigens hat JC NICHT gesagt, daß die 6800er Shader-Replacements durchführen, lediglich, daß die Karten sich auf einem relativ schmalen "Optimationspfad" bewegen (wie das genau geht, davon weiß er vielleciht selbst nichts).
Ich glaube sogar, daß er das nur auf die neuen Karten bezogen hat...
Mmh, ehrlich gesagt weiß ich nicht, woher Du das alles hast :O, das einzige was JC AFAIK im "Optimierungs"-Kontext geschrieben hat ist, daß die 6800er alles sehr schnell verarbeiten. Ob ihm bei diesen Karten ein anteilsmäßig vergleichbarer Leistungseinbruch aufgefallen ist, weiß ich nicht, aber da er IIRC primär mit einer solchen Doom3 entwickelt hat, hätte ihm eigentlich etwas auffallen müssen.

Mal abwarten, ob er sich nochmal zu diesem Thema äußert, denn die zitierte Aussage ist auch nicht mehr ganz frisch, inzwischen gab es ja genug neue Treiber-Versionen, die all das auch aus der Welt geschafft haben könnten -oder auch nicht- wäre schön, wenn mal einer der hiesigen Experten die Treiber an sich auseinanderfriemelt und schaut, was sie genau machen, wenn Doom3 erkannt wird (vielleicht läßt sich auf diese Weise ja auch rekonstruieren, wie die endgültigen Shader genau aussehen, mit denen die jeweiligen Karten dann arbeiten). :)

ot:
(Ich warte ja sowieso noch auf Treiberhacks, die zumindest ein paar der treiberseitigen "Optimierungen" bei z.B. ATI deaktivieren - es sollte auf 3DC doch noch genug Freaks geben, die einer solchen Aufgabe technisch gewachsen wären und den zu erwartenden Ruhm für eine solche Modifikation gebrauchen könnten!? - Diverse andere Patches im Zusammenhang mit Übertaktung und Softmods waren ja schließlich auch möglich, aber beispielsweise dem D3D- und OGL-Treiber vorzuspiegeln, daß er es immer mit eingefärbten Mipmaps zu tun hat um ihn dazu zu bringen volles trilinear zu filtern ist zu viel?...)

Gast
2004-09-05, 07:21:55
Ich dachte das sehr subjetive Thema BQ hätten wir ausdiskutiert. Für die Masse belanglos, da bei Beiden auf einem Niveau, wo man schon wissen muss, wo man hinschauen muss und eine hervorragende Wahrnehmungsfähigkeit besitzen muss um da Unterschiede zu sehen. Diese Fähigeiten besitzt die Breite Masse nicht.

"hervorragende Wahrnehmungsfähigkeit" ... rofl ... DER Brüller! Sonntag, Du bist gerettet!


Zum Thema: Sollen sich ATI und NVIDIA doch streiten, die fallenden Hardwarepreise als Randeffekt ihrer Konkurrenz sind wesentlich wichtiger.

pco
2004-09-05, 08:36:40
Alt aber immernoch zutreffend:
"Das NVidia-Männchen"
http://www.orthy.de/modules.php?name=News&file=article&sid=705

Bye

PCO

Ice =A=
2004-09-05, 09:55:44
Hört mir bloß auf mit dem Thema "Bildqualität für breite Mase irrelevant"!!! Ich kann's nicht mehr hören, diese Selbstberuhigung von Leuten, die langsame Hardware haben... :)


Um mal Nägel mit köpfen zu machen, hier das Zitat von JC:

The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering. This has been a chronic issue for years, and almost all vendors have been guilty of it at one time or another. I hate the idea of drivers analyzing texture data and changing parameters, but it doesn't visibly impact the quality of the game unless you know exactly what to look for on a specific texture. On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program, and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards.

Was ich bisher ziemlich überlesen habe ist, daß die neuen, so schnellen Karten anscheinend weniger (!) Treiberoptimiert sind, als die älteren! Find' ich, der ich 'ne neuere hab, natürlich schön! :)

Danke für die Hilfe zu den Zitat-Rahmen?!? :)

LovesuckZ
2004-09-05, 10:02:39
P.S.:
Wie kriege ich diesen schönen Zitat-Rahmen?!?

Diesen?


The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on,
but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering.
this has been a chronic issue for years, and almost all vendors have been guilty of it at one time or another.
I hate the idea of drivers analyzing texture data and changing parameters, but it doesn't visibly impact the quality of the game unless you know exactly what to look for on a specific texture.
On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program, and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards.

Machst du mit "Code einfuegen (#)" in der Menueleiste

Quasar
2004-09-05, 10:14:04
Von wann sind denn diese beiden Aussagen aus dem B3D-Forum, lieber Gast - klingen beide irgendwie etwas älter - vielleicht 12 oder 18 Monate?

Und wenn du hier mal die Suchfunktion bemühst, wirst du feststellen, daß ich bereits vor Wochen auf die performánce extraorinaire einer QuadroFX mit 44.90-Detonatoren in Doom3 hinwies. ;)

Jesus
2004-09-05, 11:22:46
JC sagt hier, dass er Nv erlaubt 16 bit zu benutzen. Ist das nicht schneller als 32 bit aber auch ungenauer als 24 bit?

ui den kannte ich noch gar nicht ;)

Damit ist eigentlich alles klar oder ? Nvidia macht Shader Replacement bereits, ATI wills jetzt auch und alle sind glücklich.

Thread bitte schliessen :rolleyes:

Quasar
2004-09-05, 11:27:52
Eigentlich ist damit genausoviel klar, wie bereits am Anfang des Threads: Jeder schmeisst mit einer Handvoll Schlamm auf den anderen.

Erklär' doch mal, wieso aus der Tatsache, das GL_precision_hint_fastest vom Programmierer genutzt wird, folgt, daß nV Shaderreplacement betreibt?

Jesus
2004-09-05, 11:39:48
Eigentlich ist damit genausoviel klar, wie bereits am Anfang des Threads: Jeder schmeisst mit einer Handvoll Schlamm auf den anderen.

Erklär' doch mal, wieso aus der Tatsache, das GL_precision_hint_fastest vom Programmierer genutzt wird, folgt, daß nV Shaderreplacement betreibt?

weiss ich nicht, frag doch JC, der wirds wohl wissen ;)

Quasar
2004-09-05, 11:54:43
weiss ich nicht, frag doch JC, der wirds wohl wissen ;)
Wie, du weisst's nicht? Oben schreibst du doch, daß nV bereits Shaderreplacement macht - irgendwas muss dich an der von dir zitierten Aussage doch zu dieser Überzeugung geführt haben?

:confused:

Jesus
2004-09-05, 12:03:42
eh 2 Aussagen von JC selbst ? Eine Direkte ( wohl schon etwas älter ) und eine indirekte ( neueren Datums, in der nochmal dasselbe Angesprochen wird ):

#1
Nvidia probably IS "cheating" to some degree, recognizing the Doom shaders and substituting optimized ones, because I have found that making some innocuous changes causes the performance to drop all the way back down to the levels it used to run at.

#2
On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program, and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards.

Quasar
2004-09-05, 12:11:00
In deinem Posting oben wird das leider nicht deutlich - dort zitierst du lediglich den Teil, in dem JC ausführt, daß er pp zuläßt, so daß deine Argumentation auf den Post bezogen ziemlich brüchig ausschaut. =)

Vielleicht solltest du in Zukunft etwas deutlich schreiben, was du meinst und wie du das zu belegen gedenkst, man könnte sonst auf die abwegige Idee kommen, daß du entweder nicht weißt wovon du sprichst (bei einem Diplom-Informatiker kaum vorstellbar) oder daß du absichtlich Informationen oder Zitate in einem falschen oder unvollständigen Kontext widergibst (ebenso schwer vorstellbar bei einem wissenschaftlich geschulten Menschen).

Mr. Lolman
2004-09-05, 12:17:48
Du bist kein Entwickler. Von daher kannst DU diesbezüglich nicht wirklich viel behaupten, was Wert hat.

Findest du's nicht arm, mit deinem "Entwicklerwissen" zu protzen, und dabei gleich alle anderen die nicht so gebildet sind, wie du, zu denunzieren?

An dieser Stelle errinnerst du mich sehr an Vedek Bareil, der auch meint, die Weissheit mit Löffeln gefressen zu haben, und dabei der demütigen 3Dcenter Clique seine veralteten Weissheiten aufdrückt (Überlichtgeschwindigkeit - LOL)
Nur weiss hier im Forum es niemand besser, und deswegen kann er sich austoben, und legt gleichzeitig eine unausstehliche Art an den Tag.

Da ist so ein NV/ATi Fanboy noch harmloser als jemand, der durch sein Wissen eine Art Status im Forum geniesst, und dann haltlose Aussagen postet, und bei Gegenargumenten sofort auf die intellektuelle Unzulänglichkeit seiner Forenkollegas hinweisen muss.

Wieviel davon du jetzt auf dich beziehst sei ganz dir überlassen, aber nimm diesen Post bitte als Anstoss, deine Postings etwas zu überdenken. Denn,von einem ausgeflippten Fanboy erwartet man keine plausiblen Begründungen, aber jemand der in seiner Sig, Links zur TU wien hat, und kaum eine Gelegenheit auslässt mit seinem Entwicklerwissen zu protzen, sollte m.E. gleich diese nutzen, eine technische Begründung, seiner Sichtweise zu liefern, anstatt den Platz mit irgendwelchen Diffamierungen zu verschwenden.

Jesus
2004-09-05, 12:22:02
In deinem Posting oben wird das leider nicht deutlich - dort zitierst du lediglich den Teil, in dem JC ausführt, daß er pp zuläßt, so daß deine Argumentation auf den Post bezogen ziemlich brüchig ausschaut. =)

Vielleicht solltest du in Zukunft etwas deutlich schreiben, was du meinst und wie du das zu belegen gedenkst, man könnte sonst auf die abwegige Idee kommen, daß du entweder nicht weißt wovon du sprichst (bei einem Diplom-Informatiker kaum vorstellbar) oder daß du absichtlich Informationen oder Zitate in einem falschen oder unvollständigen Kontext widergibst (ebenso schwer vorstellbar bei einem wissenschaftlich geschulten Menschen).

oh sorry, ich dachte das gequotete wird nochmal mitgequotet ;) hab garnicht darauf geachtet was in den quotes stand :rolleyes:

MadManniMan
2004-09-05, 12:35:41
Megalol.
Die FX ist für Gamer einfach nichts. Wer glaubt eine FX wäre gut für Gamer, der glaubt auch an den Weihnachtsmann und Osterhasen-

ATOMROFLMAON4P :O

Gut zu wissen, daß ich die beiden doch noch nicht verdrängt habe :up: Meine FX5800 war für 90€ zusammen mit der Voodoo3 2000 vor 5 Jahren das günstigste, was je in meinem AGP-Slot Einzug hielt und macht wesentlich mehr Spaß, als meine 9500Pro für 180€ ein Jahr zuvor. Aber ich bin wahrscheinlich kein Gamer, oder? :|

Nochwas: woher willst du wissen, daß ein simples Shaderreplacement a la Humus nicht auch die FXen und/oder NV40s noch weiter brächte?

Mr. Lolman
2004-09-05, 12:38:11
ATOMROFLMAON4P :O

Gut zu wissen, daß ich die beiden doch noch nicht verdrängt habe :up: Meine FX5800 war für 90€ zusammen mit der Voodoo3 2000 vor 5 Jahren das günstigste, was je in meinem AGP-Slot Einzug hielt und macht wesentlich mehr Spaß, als meine 9500Pro für 180€ ein Jahr zuvor. Aber ich bin wahrscheinlich kein Gamer, oder? :|

Nochwas: woher willst du wissen, daß ein simples Shaderreplacement a la Humus nicht auch die FXen und/oder NV40s noch weiter brächte?


Überleg dir mal warum die FX so günstig war (Ja für 90€ hätt ich auch Freude an dem Teil). Zumindest das Humusshaderreplacement, macht die Nv40 langsamer als normalerweise sind. Ob bei DoomIII tatsächlich noch Optmierungspotential für NV Karten besteht, hab ich mich allerdings auch schon gefragt...


/edit: Klar sind die FXen für den Gamer brauchbar. Aber Atis sind eindeutig nutzbarer. (Was hab ich von schönem SSAA/AF wenn aktuelle Spiele dafür zu langsam sind)

Es wirkt im Nachhinein nur etwas lächerlich, wenn man sich die ganzen Aussagen über das versteckte, noch brachliegende, aber mit neueren Treibern sicher besser genutzte Leistungspotential der FX Karten, zurück ins Gedächtnis ruft. Denn irgendwie hatten die FX Karten zu ihrem Erscheinungszeitpunkt doch einen deutlich besseren Ruf als jetzt. Und diverse Aussagen (auch vom 3DC) hätten eher erwarten lassen, dass sich dieser noch weiter bessert, anstatt verschlechtert...

Vielleicht ists einfach das, was so manchen übel aufstösst. Dass von einem IHV haltlose Dinge (wie Wundertrieber) propagiert werden, diverse Onlinemags drauf anspringen, und als dann die Realität plötzlich doch anders aussieht, ists schon wieder wurscht, weil eh keine mehr über die alte Generation redet.

Also schlecht sind die FX Karten keineswegs, aber bei weitem nicht so überlegen, wie es in diversen Reviews nachzulesen war. Aber technische Magazine kann man halt eher mit moderner Technik blenden, anstatt mit brachialer Leistung. Deswegen wird auch in Zukunft nur das technische (möglicherweise zu Lebzeiten brachliegende) Potential der 3d Grafikkarten darüber entscheiden wie gut eine GraKa bei den elitären HW Mags wegkommt. Denn für schnöde Benchmarkbetrachtungen gibts ja auch Chip und Computerbild ;)

MadManniMan
2004-09-05, 12:47:05
Überleg dir mal warum die FX so günstig war (Ja für 90€ hätt ich auch Freude an dem Teil).

Weil ich ein guter Geschäftsmann bin :ugly: Nun, ich versteh deinen Wink schon, aber ganz ehrlich - die wäre mir auch locker 120,- Wert gewesen.
Was ich aber sagen wollte: die FXen sind allesamt wunderbare Gamerkarten - trotz des Verlusts von 4*RGMSAA habe ich z.B. BF42 nie so genießen können, wie ichs dank des nicht winkelabhängigen AFs jetzt tu.
Daß die FXen eine ganze Zeit lang viel zu teuer waren, habe ich ja bereits mit meinem "Heureka, 90 OYs!" angedeutet - aber überhaupt irgend zu behaupten, FXen seien keine vernünftigen Gamerkarten... :crazy2:


Zumindest das Humusshaderreplacement, macht die Nv40 langsamer als normalerweise sind. Ob bei DoomIII tatsächlich noch Optmierungspotential für NV Karten besteht, hab ich mich allerdings auch schon gefragt...

Ich würde gern wissen, warum er die 40er langsamer macht, dafür fehlt mir im Moment die Proggerahnung. Aber ich gehe fest davon aus, daß auch für diese noch Optimierungspotential besteht - das wir in den nächsten Treiberrevisionen erfahren werden ;)

Mr. Lolman
2004-09-05, 12:55:47
Weil ich ein guter Geschäftsmann bin :ugly: Nun, ich versteh deinen Wink schon, aber ganz ehrlich - die wäre mir auch locker 120,- Wert gewesen.
Was ich aber sagen wollte: die FXen sind allesamt wunderbare Gamerkarten - trotz des Verlusts von 4*RGMSAA habe ich z.B. BF42 nie so genießen können, wie ichs dank des nicht winkelabhängigen AFs jetzt tu.
Daß die FXen eine ganze Zeit lang viel zu teuer waren, habe ich ja bereits mit meinem "Heureka, 90 OYs!" angedeutet - aber überhaupt irgend zu behaupten, FXen seien keine vernünftigen Gamerkarten... :crazy2:



Bei 120€ würd ich mirs fast schon wieder überlegen. Aber, die eine Frage sei mir gestattet, mit welchen Eisntellungen spielst du BF42? Denn das ist von Hausaus auf ATis schon deutlich flotter. Mit aktiviertem AF baut sich der Performancevorteil eher noch aus, als das NV Karten aufschliesssen könnten. Deswegen interessierts mich.

Logischerweise hab ich lieber auch tolle BQ und 50fps als ertragbare BQ und 100fps. Aber bei 25 zu 50fps könnte sich das Verhältnis schon wieder umkehren...

MadManniMan
2004-09-05, 13:03:48
Dereinst spielte ich mit 4*/16* auf meiner 9500Pro - 1024 ahoi. Nun aber fand mein 17" TFT Einzug in mein Haus und 1280 ward meine Standardeinstellung. 4*AA war nicht mehr drin mit der 9500Pro, also 2* = Standard. Nun war ich gespannt, ob die FX denn trotz des naturgemäßen ATi-Vorteils hier in performante Regionen schaffen würde - und zu meiner Überraschung schaffte sie das nicht nur überhaupt, sie ward auch in 2*/8* stets ein µ schneller, als meine Radeon - und BF ist ein Paradebeispiel für den BQ-Vorteil vom NV-AF ... auch gegenüber dem 16* des R300 ;)

FPSn00b
2004-09-05, 14:24:04
@Quasar
Von wann sind denn diese beiden Aussagen aus dem B3D-Forum, lieber Gast - klingen beide irgendwie etwas älter - vielleicht 12 oder 18 Monate?Hochverehrtes "Insane Member", ;)
laut Suchfunktion des Beyond3D-Forums wird diese Aussage von JC das erste mal am 28.4.04 von "Zeross" erwähnt, der vorgab sie auf Nachfrage direkt von JC bekommen zu haben. Da offensichtlich regelmäßige Kontakte zwischen den Organisatoren von Beyond3D und JC bestehen (z.B. durch "Reverend"), halte ich "Zeross"s Zitat für echt, da diesem sicher widersprochen worden wäre, wenn dem Beyond3D-Team inhaltliche Unstimmigkeiten, oder anderes aufgefallen wäre.
Außerdem bleibt zu sagen, daß "Zeross"s Mail-Austausch mit JC in einem bestimmtem Kontext stattgefunden zu haben scheint (s. B3D-Suchfunktion), was nahelegt, daß die originale Mail nicht viel älter als das erste Zitat sein wird.

"DaveBaumann"s Statement stammt vom 3.9.04. Wann genau er den besagten MSN-Chat mit Derek Perez abgehalten hat, fragst Du ihn am besten selbst - in Deiner Funktion als Online-Redakteur z.B..

Insgesamt hört sich also "12 oder 18 Monate" mehr als hoch gegriffen an.

Und wenn du hier mal die Suchfunktion bemühst, wirst du feststellen, daß ich bereits vor Wochen auf die performánce extraorinaire einer QuadroFX mit 44.90-Detonatoren in Doom3 hinwies. Nein, den von Dir erwähnten Artikel habe ich bisher noch nicht gelesen, werde ich aber bei Gelegenheit nachholen, sofern er nicht vollständig auf französisch ist... ;)

MikBach
2004-09-05, 15:57:14
Nein. Er hat es so gemacht, weil es der Straight-forwardeste Weg ist.


Du bist kein Entwickler. Von daher kannst DU diesbezüglich nicht wirklich viel behaupten, was Wert hat.
Ja der einfachste Weg um auf Nvidia volle Power zu bekommen. Full Ack!
Hätte er "ausgeglichener" geproggt, wäre Nvidia und ATI nicht weit auseinander. ;)
Und bitte, zum letzten Mal. Hör auf mit deinem Entwicklerscheiss. Ich kann es nicht mehr hören. Ich habe dir doch schon geschreiben, dass es mich gar nicht interessiert was du machst. In einer Diskussion zählen Argumente. Ob man jetzt Entwickler, Putzfrau oder sonst was ist, ist einfach scheiss egal.

tokugawa
2004-09-05, 15:58:29
ui den kannte ich noch gar nicht ;)

Damit ist eigentlich alles klar oder ? Nvidia macht Shader Replacement bereits, ATI wills jetzt auch und alle sind glücklich.

Thread bitte schliessen :rolleyes:

Weißt du eigentlich was "Precision-Hints" sind? Wenn JC es per Hints erlaubt (Hints sind in OpenGL gang und gebe), ist es kein "Shader-Replacement", wenn die NVIDIA OpenGL Implementation dann diese Hints befolgt.

Such mal im OpenGL Red Book nach "Hints", da siehst du die Hint-Philosophie von OpenGL (die's auch in vielen anderen Bereichen gibt).

tokugawa
2004-09-05, 16:01:05
Ja der einfachste Weg um auf Nvidia volle Power zu bekommen. Full Ack!
Hätte er "ausgeglichener" geproggt, wäre Nvidia und ATI nicht weit auseinander. ;)


Ich hab doch gesagt, dass er ausgeglichen programmiert hat. Nämlich genau so, wie man es normalerweise programmieren würde - ohne Rücksichtnahme auf irgendwelche all zu Hardware-spezifischen "Optimierungstricks".

Und du hast mir noch immer nicht gezeigt, wo auf http://www.ati.com/developer der im Humus-Tweak angewandte "Trick" beschrieben ist. Zeig mir ein Paper aus dem man diesen Tweak direkt ableiten kann!

JC ist auch kein Wahrsager - er kann auch nur das implementieren, was dokumentiert ist.

Dass Humus, ein ATI Mitarbeiter, sich mit ATI Hardware so detailliert auskennt, ist IMO kein Wunder. Und das Wissen von Demirug z.B. bewundere ich einfach, das ist aber einfach schon überdurchschnittlich gut. Man kann auch guter Entwickler sein ohne das enorme Detailwissen von Demirug zu besitzen.


Und bitte, zum letzten Mal. Hör auf mit deinem Entwicklerscheiss. Ich kann es nicht mehr hören. Ich habe dir doch schon geschreiben, dass es mich gar nicht interessiert was du machst. In einer Diskussion zählen Argumente. Ob man jetzt Entwickler, Putzfrau oder sonst was ist, ist einfach scheiss egal.

Ist egal, wenn jene Personen kompetent genug sind. Du bist nicht kompetent genug, dir fehlt eindeutig der Horizont speziell in die Entwickler-Ebene.

Limitierter Horizont bedingt viele falsche Aussagen.

MikBach
2004-09-05, 16:05:27
Für MikBach scheint die FX 5900XT ja auch schlechter zu sein als eine Radeon 9600SE.

Dass man auch mit mittleren Settings statt den High-End Settings Spaß haben kann, oder - Gott bewahre - sogar ältere Spiele spaßig findet, und man trotzdem Gamer ist, ist noch nicht zu ihm durchgedrungen.
Lass die Sprüche!
Man muss von dem Preisgefüge ausgehen. Klar ist eine 9600SE deutlich schlechter als eine FX5900. Dafür kostet sie aber auch nur ein Viertel einer FX5900!
Sag mal, kannst du auch vernünftige Vergleiche bringen, oder ist man durchs Entwickeln so verblendet, dass man die blanke Realität vergisst?
Wenn du etwas vergleichst muss du immer den Preis mit einbeziehen, oder vergleichst du einen C3 mit einem A64?

Du hast echt keine Ahnung.

betasilie
2004-09-05, 16:11:38
und BF ist ein Paradebeispiel für den BQ-Vorteil vom NV-AF ... auch gegenüber dem 16* des R300 ;)
Stimmt, aber imo auch das einizge Spiel, wo man den unterschied deutlich wahrnimmt.

MikBach
2004-09-05, 16:13:45
Hah, das sagst du eigentlich dem falschen.

Selbst eine Radeon 9600 non-Pro ist "gut für Gamer". Von daher ist es auch eine FX 59xx. Das ist es, was ich zeigen wollte.

Eine FX 5900 ist nicht schlecht. Sie ist nur im Allgemeinen nicht so gut wie eine Radeon 9800 Pro. Aber das macht die FX 5900 nicht zu einer "schlechten", sondern nur zu einer "schlechteren" Lösung (es sei denn, man hat gerade einen Nutzen für jene Bereiche, bei denen die FX glänzt, also etwa SSAA für ältere Spiele, oder wenn man grad die Spiele eher mag, bei der die FX besser dasteht).
Du willst es nicht verstehen, oder?
Ja, die 9600np ist zu dem Preis eine gute Gamer-Karte.
Willst du es nicht begreifen, dass die letzte Generation VOLL an ATI geht, ohne wenn und aber.
Bei der neuen Generation ist das nicht mehr der Fall. Bei der letzten hat Nvidia einfach nur dicke "verloren". Amen.

tokugawa
2004-09-05, 16:14:39
Lass die Sprüche!
Man muss von dem Preisgefüge ausgehen. Klar ist eine 9600SE deutlich schlechter als eine FX5900. Dafür kostet sie aber auch nur ein Viertel einer FX5900!
Sag mal, kannst du auch vernünftige Vergleiche bringen, oder ist man durchs Entwickeln so verblendet, dass man die blanke Realität vergisst?
Wenn du etwas vergleichst muss du immer den Preis mit einbeziehen, oder vergleichst du einen C3 mit einem A64?

Du hast echt keine Ahnung.

GeForce FX 5900 XT - 170 Euro
Radeon 9600 XT - 140 Euro
Radeon 9600 SE - 70 Euro.

Ein Viertel? Lern Mathematik.

Natürlich sind die "High-End" 300+ Euro FX 5900 Monster überteuert für ihre Leistung.

Die FX 5900 XT ist es aber nicht. Sie hat ein exzellentes Preis-Leistungsverhältnis. Und ist gut für Gamer.

Und wenn man den Preis ausser acht lässt, sind auch die teureren FXen "gut für Gamer" (halt nicht gut für den Geldbeutel bzw geradezu dümmlich im P/L-Verhältnis - im Allgemeinen gilt das aber fast immer für die High-End-Karten).

Du behauptest ja, dass die FX 5900 Serie (dazu gehört halt auch die XT) absolut nichts für Gamer ist. Diese Aussage ist, so wie sie steht eindeutig falsch.

Du hättest eher sagen sollen "Die FX 5900 Ultra und 5950 Ultra haben ein miserables Preis-Leistungs-Verhältnis".

Du bist viel zu unpräzise in deinen Aussagen, und versuchst geradezu, mit deinen Aussagen zu polarisieren und provozieren. Unterlass das. Wir sind hier nicht in der Politik. Ich erwarte mir in einem technischen Forum sachlichere, technischere, und vor allem aussagenlogisch korrektere Statements.

Also zusammenfassend: die FX 5900 XT hat ein gutes Preis-Leistungs-Verhältnis. Und mit der FX 5900 Serie kann man auch in Spielen genauso seinen Spaß haben wie mit einer 9800 Pro oder XT. Und unter Umständen (etwa wenn man auch alte Spiele mag), ist die FX 5900 (XT) sogar die bessere Lösung - je nach persönlichen Vorlieben. Die Aussage "Alle FXen sind nichts für Gamer" ist eindeutig falsch und nichts anderes.

Mrs. Lolman
2004-09-05, 16:18:18
@tokugawa:

Demi ist sicher auch kein Hellseher, und Humus durfte erst aufgrund seiner netten Proggis bei ATi arbeiten. Also hat er deiner Aussagen nach, auch Hellseherqualitäten, genauso, wie sie Demi auch haben müsste ;)

tokugawa
2004-09-05, 16:20:16
Du willst es nicht verstehen, oder?
Ja, die 9600np ist zu dem Preis eine gute Gamer-Karte.
Willst du es nicht begreifen, dass die letzte Generation VOLL an ATI geht, ohne wenn und aber.


Das hab ich schon gesagt, dass ATI in der letzten Generation meistens vorne liegt. Aber der Unterschied ist nicht allzu dramatisch.

Und es ist möglich dass die FX Serie für einen eine bessere Wahl ist im Vergleich zu einer gleichpreisigen ATI R3xx Karte. Warum? Weil jeder anders ist, und jeder andere Vorlieben hat. Wenn jemand ältere Spiele mag, wenn jemand das winkelabhängige AF wahrnimmt, dann ist er mit einer FX 5900 XT besser beraten als mit einer Radeon 9800 Pro. DAS ist es, was du begreifen solltest. Die FXen haben ihre eigenen Stärken, und die R3xx haben auch ihre Schwächen.

Es ist nicht so als ob die R3xx entsprechende FXen in allen Disziplinen schlagen würde. Das stimmt so einfach nicht. Das willst du einfach nicht wahrhaben, weil du jene Disziplinen ignorierst (SSAA, gutes AF), die zwar für dich nicht wichtig sein mögen - aber möglicherweise für andere Leute wichtig sind. Erinnere dich: wir sind alle verschieden!.

Akzeptiere endlich, dass deine Vorlieben keine Allgemeingültigkeit hat, sondern einfach dein Geschmack ist, den ich genauso respektiere wie die Vorlieben jener, für die dann eine FX aufgrund von SSAA und gutem AF die bessere Wahl ist.


Bei der neuen Generation ist das nicht mehr der Fall. Bei der letzten hat Nvidia einfach nur dicke "verloren". Amen.

"Dicke verloren" ist relativ. Sie hat verloren, ja. Aber nicht "dicke". Nvidia lag etwas zurück, mal mehr mal weniger. Aber es gab auch gute Aspekte der FX Generation (SSAA, gutes AF). Das darfst du nicht ignorieren, auch wenn's für dich persönlich nicht wichtig ist. Für andere ist es möglicherweise wichtig.

Wenn Nvidia "dicke verloren" hat, was hat dann XGI? :P

MikBach
2004-09-05, 16:25:26
Die FX 5900 XT ist es aber nicht. Sie hat ein exzellentes Preis-Leistungsverhältnis. Und ist gut für Gamer.

Du behauptest ja, dass die FX 5900 Serie (dazu gehört halt auch die XT) absolut nichts für Gamer ist. Diese Aussage ist, so wie sie steht eindeutig falsch.

Nein, die 5900XT hat kein gutes P/L-Verhätniss. Eine 9800PRO bekommt man schon für 30€ mehr. Das ist nicht viel. Man bekommt in modernen Spielen aber einfach deutlich mehr Leistung. Das ist Fakt und nicht abzustreiten.
Siehe auch mein Posting:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2211192&postcount=88
Reichen die Beispiele nicht? 50-100% mehr Leistung für 20% mehr Knete. Na, wenn das kein Argument ist, dann weiss ich nicht.
Und ich wette, dass bei (shaderlastigen) Spielen, die noch kommen werden eine FX Richtung 100% weniger Leistung gehen wird.
Wetten wir? :wink:
Nenn den Einsatz.

tokugawa
2004-09-05, 16:25:57
@tokugawa:

Demi ist sicher auch kein Hellseher, und Humus durfte erst aufgrund seiner netten Proggis bei ATi arbeiten. Also hat er deiner Aussagen nach, auch Hellseherqualitäten, genauso, wie sie Demi auch haben müsste ;)

Ja, das ist es ja, was mich beeindruckt.

Ich kenne die Humus-Demos schon von früher. Er hat schon immer eine leichte ATI Tendenz gezeigt (weil er auf ATI programmiert hat). Also wundert es mich nicht sooo, dass er sich gerade mit ATI Karten exzellent auskennt (und jetzt noch besser auf noch low-leveliger Ebene).

Was Demirug angeht, weiß ich nicht, wie er zu so viel Wissen gekommen ist, aber es beeindruckt mich trotzdem. Ist wie gesagt außergewöhnlich.

Aber man sollte nicht von jedem Entwickler erwarten, dass er die low level details jedes einzelnen Chips kennt. Es gibt nichts in diesem Doom 3 Shader, das jetzt "ungewöhnlich" wäre, also in einer Form programmiert worden wäre, die NVIDIA besonders schmeckt. Es ist ziemlich direkt so programmiert worden, dass man das bekommt, was man will.

Beim Humus-Tweak ist es allerdings schon so, dass man einen etwas ungewöhnlicheren Weg wählt. Also einen Weg, der jetzt algorithmisch gesehen nicht so offensichtlich ist, wenn man nicht die Hardware in- und auswendig kennt.

Ich hoff du verstehst was ich meine: JC ist ein guter Algorithmiker. Er versteht es, gute Algorithmen zu entwickeln. Der fragliche Shader wurde algorithmisch so programmiert, wie man es "normal" programmieren würde. Auf low-level Details der Hardware zu optimieren wie beim Humus-Tweak dagegen ist eher ungewöhnlich und nicht der "straight-forwardeste Weg". Ein guter Tweak, aber jemand, der Algorithmiker ist und nicht Hardware-Ingenieur bei ATI muß diesen Tweak nicht wissen. Das wäre von den meisten Entwicklern zu viel verlangt (und Demirug ist, wie ich bereits erwähnte, IMO eine Ausnahmeerscheinung).

tokugawa
2004-09-05, 16:31:26
Nein, die 5900XT hat kein gutes P/L-Verhätniss. Eine 9800PRO bekommt man schon für 30€ mehr. Das ist nicht viel. Man bekommt in modernen Spielen aber einfach deutlich mehr Leistung. Das ist Fakt und nicht abzustreiten.
Siehe auch mein Posting:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2211192&postcount=88
Reichen die Beispiele nicht? 50-100% mehr Leistung für 20% mehr Knete. Na, wenn das kein Argument ist, dann weiss ich nicht.
Und ich wette, dass bei (shaderlastigen) Spielen, die noch kommen werden eine FX Richtung 100% weniger Leistung gehen wird.
Wetten wir? :wink:
Nenn den Einsatz.

Lern Mathematik. "100% mehr Leistung" ist in EINIGEN SPIELEN. Aber nicht ALLEN SPIELEN.

Und "X hat 100% weniger Leistung als Y" würde semantischerweise (also wenn die 100%, wie grammatikalisch impliziert, mit Y als Basis genommen werden) bedeuten, dass X 0 fps bieten würde (also ned einmal Standbilder).

Egal. Die FX 5900 XT hat ein gutes Preis-Leistungs-Verhältnis, das steht außer Frage. Denn es gibt nicht nur jene "50-100%" Spiele. Es gibt nicht nur jene "50-100%" Situationen (sicher, wenn man 8xS einschaltet bei der FX, dann kann schon so eine blöde Situation passieren, speziell bei neuen Spielen).

Bring endlich in deinen Schädel, dass die FX 5900XT für manche Leute auch eine gute Wahl sein kann.

Denn nicht jeder spielt jene Spiele, wo die FX 5900XT abkackt. Manche spielen auch mal ältere Spiele!

Außerdem kann man mit der FX 5900XT - auch wenn sie meistens langsamer ist als eine 9800 Pro - ebenfalls genießbare und spielbare Settings fahren. Sie ist also auch was für Gamer. Denn sie bietet genügend Leistung für Spielspaß.

Dass man in neuen Spielen, und Spielen die noch kommen, nicht die maximalen Settings fahren kann, ist ja wohl eine Binsenweisheit. Dass die FX 5900 XT meistens nicht die Settings wie die Radeon 9800 Pro fahren kann, ist nicht so schlimm für manche.

Wie wär's wenn du nicht von dir aus als das Maß aller Dinge ausgehen würdest, und endlich akzeptieren würdest, dass die FX 5900 XT für manche Dinge doch wirklich gut ist (ältere Spiele z.B.). Und im Allgemeinen nicht so viel der 9800 Pro zurückhinkt.

FAZIT: wenn man mit der niedrigeren Leistung gegenüber der 9800 Pro leben kann, aber dafür die Stärken der FX 5900 XT gegenüber der 9800 Pro mag (SSAA, gutes AF), dann ist die FX 5900 XT auch eine gute Wahl.

Im Übrigen behaupte ich ja nicht, dass die 9800 Pro schlecht ist. Ich behaupte nur, dass die FX 5900XT einen guten zweiten Platz in diesem Preissegment behauptet.

Jesus
2004-09-05, 16:31:56
Weißt du eigentlich was "Precision-Hints" sind? Wenn JC es per Hints erlaubt (Hints sind in OpenGL gang und gebe), ist es kein "Shader-Replacement", wenn die NVIDIA OpenGL Implementation dann diese Hints befolgt.

Such mal im OpenGL Red Book nach "Hints", da siehst du die Hint-Philosophie von OpenGL (die's auch in vielen anderen Bereichen gibt).

Du solltest mal das ganze Statement von JC lesen, er spricht direkt von Shaderreplacement( das heisst Shader werden ausgetauscht und durch andere ersetzt), nicht nur einfach PP verwendet ( dann hätten wir auch nicht die Leistungseinbrüche von denen JC spricht wenn der Code geringfügig geändert wird )

MikBach
2004-09-05, 16:34:09
Das hab ich schon gesagt, dass ATI in der letzten Generation meistens vorne liegt. Aber der Unterschied ist nicht allzu dramatisch.
"Dicke verloren" ist relativ. Sie hat verloren, ja. Aber nicht "dicke". Nvidia lag etwas zurück, mal mehr mal weniger. Aber es gab auch gute Aspekte der FX Generation (SSAA, gutes AF). Das darfst du nicht ignorieren, auch wenn's für dich persönlich nicht wichtig ist. Für andere ist es möglicherweise wichtig.

Wenn Nvidia "dicke verloren" hat, was hat dann XGI? :P

50-100% langsamer ist also nicht "dicke" und der Unterschied ist nicht dramatisch?
:ulol5:

Ich glaube es macht keinen Sinn sich mit dir zu unterhalten. Du bist so resistent gegen Fakten. Das ist echt der Hammer!

tokugawa
2004-09-05, 16:37:54
50-100% langsamer ist also nicht "dicke" und der Unterschied ist nicht dramatisch?
:ulol5:

Ich glaube es macht keinen Sinn sich mit dir zu unterhalten. Du bist so resistent gegen Fakten. Das ist echt der Hammer!

50-100% ist nicht in allen Spielen und Settings.

Es gibt nicht nur Far Cry und deine erwähnten "50%" Spiele! Außerdem verlinkst du nur eine einzige Seite. Das ist reichlich "einseitig". Das sind noch keine Fakten.

Und selbst Far Cry und die anderen Spiele sind spielbar und genießbar. Ich hab selbst Far Cry auf meiner FX 5900 XT gespielt. War schön und spielbar. Wenn auch nicht so schnell (bzw nicht mit so hohen Settings fahrbar) wie auf einer 9800 Pro.

ABER SCHNELL GENUG FÜR SPIELSPASS.

Wenn ich noch zusätzlich alte Spiele spielen will, dann ist die FX 5900XT sehr wohl gut!

Was du nicht verstehen willst, ist dass deine eigene Meinung und dein Geschmack nicht auf alle zutrifft. Manche spielen halt auch alte Spiele.

Wieso glaubst du, dass nur die Spiele, die du immer betonst zählen? Reichlich einseitig.

Bitte beantworte das folgende:
[ ] Die FX 5900 XT hat ihre Stärken, die für manche Gamer gut sind (SSAA, gutes AF).

[ ] Für manche kann es sein, dass diese Stärken die geringere Leistung in neueren Spielen aufwiegen.

MikBach
2004-09-05, 16:38:17
Bring endlich in deinen Schädel, dass die FX 5900XT für manche Leute auch eine gute Wahl sein kann.

Richtig. Für sehr wenige. Linux ist ein Argument. Sonst fällt mir atm nichts ein.

tokugawa
2004-09-05, 16:40:22
Richtig. Für sehr wenige. Linux ist ein Argument. Sonst fällt mir atm nichts ein.

Bitte beantworte das folgende:
[ ] Die FX 5900 XT hat ihre Stärken, die für manche Gamer gut sind (SSAA, gutes AF).

[ ] Für manche kann es sein, dass diese Stärken die geringere Leistung in neueren Spielen aufwiegen.



"Wenige" sind auch Leute, die eben nicht unter den Tisch gefallen lassen werden dürfen.

Wenn du sagst "die FX 5900XT ist immer schlechter als eine 9800 Pro", so ist das schlichtweg eine falsche Aussage.

Sei sehr vorsichtig mit prädikatenlogischen Aussagen wie "alle" und "immer".

Generalisierung ist nämlich ein Tool, mit dem man teilweise richtige Aussagen zu eindeutig falschen Aussagen machen kann.

Mr. Lolman
2004-09-05, 16:41:31
Ich erwarte mir in einem technischen Forum sachlichere, technischere, und vor allem aussagenlogisch korrektere Statements

Hm, immer wieder nur damit zu argumetieren, dass Humus bei Ati arbeitet, und das er deswegen wusste wo er anzusetzen hat, und dass Demi sowieso genial ist, und es deswegen auch wusste, aber ein JC ohne dementprechenden Hints beim Dev. Support (hast du selbst eigentlich nachgesehen?) keine Chance gehabt hätte, das Ganze, anstatt über einen Lookup Table, arithmetisch zu realisieren , zeugt auch nicht unbedingt von von einem grösserem thematischen Verständnis, als es der Grossteil, der anderen Poster hier, aufbringt, aber das mal nur so nebenbei ;)

P.S.: JC Meinung dazu:

The specular function in Doom isn't a power function, it is a series of clamped biases and squares that looks something like a power function, which is all that could be done on earlier hardware without fragment programs. Because all the artwork and levels had been done with that particular function, we thought it best to mimic it exactly when we got fragment program capable hardware. If I had known how much longer Doom was going to take to ship from that time, I might have considered differently.

It should be noted that a power function is a strictly empirical approximation of a surface's specular response, so other specular approximations shouldn't be looked at as just approximating a power function. For instance, especially for broad highlights, it is nice to have a finite cutoff angle, rather than the power limit approach.

The lookup table is constant in Doom, so there isn't any real strong argument against replacing it with code. The lookup table was faster than doing the exact sequence of math ops that the table encodes, but I can certainly believe that a single power function is faster than the table lookup.


(Quelle) (http://www.beyond3d.com/interviews/carmack04/)


BTW: Hier sei noch anzumerken, dass sich JC nur auf den ersten Humus Tweak beziehen konnte, da die komplett neu geschriebene interaction.vfp zu dem Zeitpunkt des Interviews noch nicht fertig war. Und der erste Tweak war in der Tat nur eine ungefährere Annäherung an das gewünschte Ergebnis. Also müsste man JC für ein korrektes Statement zu dem aktuellen Tweak eigentlich nochmal interviewen...

Gast
2004-09-05, 16:41:54
Könnt ihr Pfeifen nun lansgam mal zurück zum Topic kommen?

reichlich OT hier oder nich?

MikBach
2004-09-05, 16:43:39
ABER SCHNELL GENUG FÜR SPIELSPASS.

Wenn ich noch zusätzlich alte Spiele spielen will, dann ist die FX 5900XT sehr wohl gut!

Ja, da gebe ich dir Recht. Schnell genug für Spielspass ist sie schon. Aber warum sollte ich auf bessere Settings(Auflösung,höcheres AA+AF) verzichten, wenn ich nur einen geringen Mehrpreis dafür zahlen muss? :confused:
Oder was wolltest du jetzt mit deiner Aussage andeuten? ;)

Und hör bitte auf mit den älteren Spielen. Das Argument ist einfach sinnlos, da man ältere Spiele auf solchen Karten bei ATI und Nvidia ohne Kompromisse zocken kann.

tokugawa
2004-09-05, 16:51:19
Hm, immer wieder nur damit zu argumetieren, dass Humus bei Ati arbeitet, und das er deswegen wusste wo er anzusetzen hat, und dass Demi sowieso genial ist, und es deswegen auch wusste, aber ein JC ohne dementprechenden Hints beim Dev. Support (hast du selbst eigentlich nachgesehen?) keine Chance gehabt hätte, das Ganze, anstatt über einen Lookup Table, arithmetisch zu realisieren , zeugt auch nicht unbedingt von von einem grösserem thematischen Verständnis, als es der Grossteil der anderen Poster hier, aufbringt, aber das mal nur so nebenbei ;)


Ich hab mich unklar ausgedrückt. Ich bin mir sicher dass Humus sehr viel über ATI Hardware schon vorher wusste (sagte ich doch!). Aber bei ATI hat er definitiv noch mehr dazugelernt.

Demi kenn ich nicht wirklich, aber sein Wissen beeindruckt mich. Mehr kann ich dazu nicht sagen, weil ich ihn eben nicht kenne.

Carmack ist ein guter Algorithmiker. Algorithmiker haben die Tendenz, eher auf algorithmischer Ebene zu denken, als auf Low-Level Hardware Ebene. Dein JC Quote dazu kommentiere ich mit "ähm. ok.". Er hat sich eben zu dem einen entschieden. Was nicht wirklich "falsch" ist.

Die Frage, ob JC gewußt hat, dass man mit den Tweaks von Humus Doom 3 auch auf ATI Karten schneller machen kann, ist damit allerdings nicht beantwortet. Für mich macht es den Eindruck als würde Carmack die Einstellung haben "Aha, das wusste ich nicht, dass ATI bei so einer Modifikation so viel Performance gewinnt. Hätt ich nicht gedacht.".

Und genau das meine ich: er hat es halt nicht gewußt. Na und? Entwickler sind keine Propheten und ich bin mir sicher auch Humus und Demirug wissen einige Dinge nicht, vielleicht in anderen Bereichen der Grafikprogrammierung (ich will jetzt nichts unterstellen). Entwickler sind nun mal keine Götter. Und ein fehlendes Wissen in Bezug auf die ATI Shader-Pipeline ist nun mal kein Argument, dass der Entwickler "einseitig" war, wenn der eigentliche Shader auf die Weise, wie er implementiert wurde, eigentlich nur dem Algorithmus folgt. Es gibt ja keine Anzeichen dass er sich ein Bein ausgerissen hat um den Shader auf NVIDIA zu optimieren (obwohl vielleicht NVIDIA das treiberseitig macht, wer weiß).

Und ja, ich schau regelmäßig auf die Entwicklerseiten. Aber da ich auch nur ein Mensch bin, wollte ich eben wissen, ob irgendwer vielleicht diese Eigenschaft der ATI Karten, die beim Humus Tweak genutzt wurde, bereits in einem Paper dort gelesen hat. Ich hätte eigentlich nichts diesbezüglich gefunden. Aber ich lasse mich gerne aufklären falls ich das übersehen habe.

MikBach
2004-09-05, 16:51:39
Bitte beantworte das folgende:
[ ] Die FX 5900 XT hat ihre Stärken, die für manche Gamer gut sind (SSAA, gutes AF).
Ja, auf wenige(Gamer) wird das wohl zutreffen.

[ ] Für manche kann es sein, dass diese Stärken die geringere Leistung in neueren Spielen aufwiegen.
Ja, auf wenige(Gamer) wird das wohl zutreffen.


Wenn du sagst "die FX 5900XT ist immer schlechter als eine 9800 Pro", so ist das schlichtweg eine falsche Aussage.

Sei sehr vorsichtig mit prädikatenlogischen Aussagen wie "alle" und "immer".

Generalisierung ist nämlich ein Tool, mit dem man teilweise richtige Aussagen zu eindeutig falschen Aussagen machen kann.
Hä?
Wo habe ich "immer" oder "alle" geschrieben?
Zeig mir bitte diese Posts!
Ich schreibe "meistens" oder etwas in der Richtung.
Siehe auch mein Argument mit Linux!

edit:
Ich hab mich unklar ausgedrückt.
Das ist der Punkt. Du drückst dich öfters sehr verwirrend aus. Absicht will ich dir jetzt nicht unterstellen. Aber es ist schon seltsam, dass jemand der von sich meint, dass er so toll ist, weil er entwickelt, sich nicht mal korrekt ausdrücken kann. ;)

tokugawa
2004-09-05, 16:57:36
Ja, da gebe ich dir Recht. Schnell genug für Spielspass ist sie schon. Aber warum sollte ich auf bessere Settings(Auflösung,höcheres AA+AF) verzichten, wenn ich nur einen geringen Mehrpreis dafür zahlen muss? :confused:
Oder was wolltest du jetzt mit deiner Aussage andeuten? ;)


Mit meiner Aussage wollte ich andeuten, dass jeder andere Prioritäten hat. Für manche mag SSAA und besseres AF den Performance-Nachteil aufwiegen.

Aber das ist eine Frage jeder Einzelperson und kann nicht allgemein - wie du es getan hast - beantwortet werden. Das ist eine Frage des Geschmacks, den man respektieren muß.

Wenn du sagst "Jeder der eine FX 5900XT zum Spielen kauft, glaubt auch an den Osterhasen" (was du ja eindeutig gesagt hast), beleidigst du damit jene Spieler, die sich eine FX 5900 XT wegen ihrer Stärken gekauft haben und meinen, dass diese die Schwächen aufwiegen.

Damit gehst du einfach nur respektlos mit der Meinung eben dieser Menschen um. Und das kann ich nicht ausstehen, das ist einfach intolerant und inakzeptabel. Gut, wenigstens hast du dafür schon mal Punkte bekommen.


Und hör bitte auf mit den älteren Spielen. Das Argument ist einfach sinnlos, da man ältere Spiele auf solchen Karten bei ATI und Nvidia ohne Kompromisse zocken kann.

ATI hat kein SSAA (außer auf Apple) und das schlechtere AF, sowie Doublescan bei nur bei niedrigeren Auflösungen als bei NVIDIA. Und ja, das ist subjektiv (davon red ich ja die ganze Zeit! Manche sehen's, manche nicht. Jene die's sehen werden der FX 5900XT sicher weniger skeptisch entgegentreten). Für manche ist es das wert.

Für dich nicht. Das respektiere ich auch. Deswegen respektiere du auch jene Meinungen und Leute, für die diese (wenigen) Stärken der FX 5900XT die geringere Performance aufwiegen. Solange man auch in neueren Spielen Spielspaß haben kann, was man ja eindeutig auch kann (bei der Volari V8 Duo wär das z.B. eventuell aufgrund von schweren Treiberfehlern gefährdet - bei der FX 5900XT nicht. Die ist einfach nur etwas - oder auch mal um einiges in manchen Spielen - langsamer).

Was ich von dir will? Differenziertere Aussagen, die nicht so klingen als kämen sie von einem 0/1 Schwarz/Weiß Menschen, der keine Graustufen kennt. Du bist zweifelslos in der Lage dazu, denn dumm bist du nicht, glaube ich.

tokugawa
2004-09-05, 17:00:11
Ja, auf wenige(Gamer) wird das wohl zutreffen.

Ja, auf wenige(Gamer) wird das wohl zutreffen.


Hä?
Wo habe ich "immer" oder "alle" geschrieben?
Zeig mir bitte diese Posts!
Ich schreibe "meistens" oder etwas in der Richtung.
Siehe auch mein Argument mit Linux!


Wenn du sagst "Wer sich eine FX kauft, glaubt auch an den Osterhasen" oder "Die FX ist einfach nichts für Gamer", dann implizierst du grammatikalisch einen ALL-Quantor. Außerdem wurden gerade jene Postings gelöscht, und du hast Punkte dafür gekriegt.

Ich glaube eher du drückst dich unklar aus. Du hast nämlich "meistens" erst verwendet, nachdem ich dich ausdrücklich darauf hingewiesen habe. Vorher hast du es absichtlich vermeidet (wohl um zu provozieren oder zu polarisieren).


edit:

Das ist der Punkt. Du drückst dich öfters sehr verwirrend aus. Absicht will ich dir jetzt nicht unterstellen. Aber es ist schon seltsam, dass jemand der von sich meint, dass er so toll ist, weil er entwickelt, sich nicht mal korrekt ausdrücken kann. ;)

Wer im Glashaus sitzt...

Ich lass mir das nicht von jemanden sagen, der nicht mal Quantoren richtig benutzen kann.

Quasar
2004-09-05, 17:30:42
@Quasar
Hochverehrtes "Insane Member", ;)
laut Suchfunktion des Beyond3D-Forums wird diese Aussage von JC das erste mal am 28.4.04 von "Zeross" erwähnt, der vorgab sie auf Nachfrage direkt von JC bekommen zu haben. Da offensichtlich regelmäßige Kontakte zwischen den Organisatoren von Beyond3D und JC bestehen (z.B. durch "Reverend"), halte ich "Zeross"s Zitat für echt, da diesem sicher widersprochen worden wäre, wenn dem Beyond3D-Team inhaltliche Unstimmigkeiten, oder anderes aufgefallen wäre.
Außerdem bleibt zu sagen, daß "Zeross"s Mail-Austausch mit JC in einem bestimmtem Kontext stattgefunden zu haben scheint (s. B3D-Suchfunktion), was nahelegt, daß die originale Mail nicht viel älter als das erste Zitat sein wird.

"DaveBaumann"s Statement stammt vom 3.9.04. Wann genau er den besagten MSN-Chat mit Derek Perez abgehalten hat, fragst Du ihn am besten selbst - in Deiner Funktion als Online-Redakteur z.B..

Insgesamt hört sich also "12 oder 18 Monate" mehr als hoch gegriffen an.

Nein, den von Dir erwähnten Artikel habe ich bisher noch nicht gelesen, werde ich aber bei Gelegenheit nachholen, sofern er nicht vollständig auf französisch ist... ;)

Schade, lieber Gast, daß du lediglich auf die B3D-Suchfunktion verweisen magst - ohne die Schlüsselworte, die du benutzt haben magst, kann das eine lange Suche werden. Es wäre hilfreich, wenn du die entsprechenden Postings direkt verlinken könntest. :)

Zu Herrn Baumanns Statement passt aufgrund des Kontext tatsächlich eher der Zeitraum, als noch um den 3DMark03 gestritten wurde, ansonsten hätte er sicherlich kaum explizit erwähnt, daß nV auf "weitere Patches von FM für den 3DMark03 reagieren würde" - wann kam der letzte Patch 3.40 für den 3DMark03 noch gleich heraus?

BrandyFly
2004-09-05, 17:39:53
NVIDIA GeForce 6800 mit SLI schlägt alle rekorde !
IN Benchmarks sowie in in Stabilität hat siese Karte weit die nase vorn !

Quasar
2004-09-05, 17:51:10
Du solltest mal das ganze Statement von JC lesen, er spricht direkt von Shaderreplacement( das heisst Shader werden ausgetauscht und durch andere ersetzt), nicht nur einfach PP verwendet ( dann hätten wir auch nicht die Leistungseinbrüche von denen JC spricht wenn der Code geringfügig geändert wird )

Eigentlich verwendet er dabei das Wort "probably".... www.dictionary.com :biggrin:
Und die Tatsache, daß er nV bescheinigt, durch FP16 in den Bereich der R300 zu kommen, deutet nochmals darauf hin, daß dieses Statement 'etwas' älter ist (wer weiß, vielleicht verlinkt unser Gast FPSn00b ja noch die entsprechenden Postings aus dem B3D-Forum), da aktuell ja eher die nV4x den R420 atpyischerweise deutlich abhängt.

BTW,
es gibt da noch das Statement von JC bei [H]:

The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering. This has been a chronic issue for years, and almost all vendors have been guilty of it at one time or another. I hate the idea of drivers analyzing texture data and changing parameters, but it doesn't visibly impact the quality of the game unless you know exactly what to look for on a specific texture. On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program, and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards.
[Quelle: http://www2.hardocp.com/article.html?art=NjQy ]

Das liest sich ein wenig anders, besonders mit Rücksicht auf die Texturfilterung. Wer ohne Sünde ist, werfe den ersten Stein.

Quasar
2004-09-05, 17:58:12
NVIDIA GeForce 6800 mit SLI schlägt alle rekorde !
IN Benchmarks sowie in in Stabilität hat siese Karte weit die nase vorn !
Ähhh.... toll - und?
(selbst wenn's wirklich so wäre, was es sicherlich nicht ist)

Jesus
2004-09-05, 18:07:04
Eigentlich verwendet er dabei das Wort "probably".... www.dictionary.com BTW,
es gibt da noch das Statement von JC bei [H]:

[Quelle: http://www2.hardocp.com/article.html?art=NjQy ]

Das liest sich ein wenig anders, besonders mit Rücksicht auf die Texturfilterung. Wer ohne Sünde ist, werfe den ersten Stein.

versteh zwar nicht wieso du das jetzt nochmal postest aber es ist in dem Licht betrachtet eigentlich nochmal eine Verstärkung des Shaderreplacement "Arguments" - ATI (u.a.) benutzt Filtertricks, und NV "on the other hand" ( www.dictionary.com ) dagegen benutzt wohl Shaderreplacements.

Gast
2004-09-05, 18:11:51
versteh zwar nicht wieso du das jetzt nochmal postest aber es ist in dem Licht betrachtet eigentlich nochmal eine Verstärkung des Shaderreplacement "Arguments" - ATI (u.a.) benutzt Filtertricks, und NV "on the other hand" ( www.dictionary.com ) dagegen benutzt wohl Shaderreplacements.


Erinnert mich an Quake 3.
NV optimiert den Treiber auf Q3 ohne Qualitätsverlust.
ATI optimiert beim ersten oder zweiten Treiber für die R200 die Filterqualität und setzt auf 16bit Texturen und verminderte Detaileinstellungen :|

Das war mal ne verarsche.

Quasar
2004-09-05, 18:22:13
versteh zwar nicht wieso du das jetzt nochmal postest aber es ist in dem Licht betrachtet eigentlich nochmal eine Verstärkung des Shaderreplacement "Arguments" - ATI (u.a.) benutzt Filtertricks, und NV "on the other hand" ( www.dictionary.com ) dagegen benutzt wohl Shaderreplacements.

Dann will ich dir mal auf die Sprünge helfen: Zwischen "jetzt ist eigentlich alles klar", "er spricht direkt von Shaderreplacement" auf der einen und "probably" und "benutzt wohl Shaderreplacements" auf der anderen Seite gibt es einen ziemlichen Unterschied. =)

Jesus
2004-09-05, 18:37:48
Dann will ich dir mal auf die Sprünge helfen: Zwischen "jetzt ist eigentlich alles klar", "er spricht direkt von Shaderreplacement" auf der einen und "probably" und "benutzt wohl Shaderreplacements" auf der anderen Seite gibt es einen ziemlichen Unterschied. =)

Also nochmal von vorne:

Nvidia probably IS "cheating" to some degree, recognizing the Doom shaders and substituting optimized ones, because I have found that making some innocuous changes causes the performance to drop all the way back down to the levels it used to run at.

"probably", bezieht sich auf "cheating to some degree", nicht auf recognizing oder substituting. Alles klar ? ok. Das ist eine Redewendung, bzw. in diesem fall wohl als eine Abschwächung des Wortes "cheating" gedacht ( in Zusammenhang mit "to some degree" ).

Das was ich oben fett markiert habe ist eine Umschreibung für Shaderreplacement.

Desweiteren stellt er noch fest dass selbst kleinste Codeänderungen Leistungseinbrüche zur Folge haben und es dann wieder so schnell läuft wie vorher ( wann eigentlich, vor den "Wundertreibern" ? Erinnert sich eigentlich noch einer daran dass die FXen mal sehr langsam waren in D3 ? ).

Für mich ist diese Aussage ziemlich klar, zumal sie auch nicht von irgendjemande gemacht wurde, und in einer ähnlichen Form ( wohl sehr viel später ) von derselben Person wiederholt wurde. :rolleyes:

Quasar
2004-09-05, 18:44:18
"probably", bezieht sich auf "cheating to some degree", nicht auf recognizing oder substituting. Alles klar ? ok.
Ok. ;)


Das ist eine Redewendung, bzw. in diesem fall wohl als eine Abschwächung des Wortes "cheating" gedacht ( in Zusammenhang mit "to some degree" ).
Ok? Nein, eher nicht. Deine Interpretation - nicht mehr und nicht weniger.

Gast
2004-09-05, 18:44:52
Um mal auf Humus zurückzukommen. Was viele hier nicht wissen ist, dass er sich zuerst bei Nvidia beworben hatte. Die hatten ihn auch zu einem Gespräch eingeladen nach Santa Clara. Aber irgendwie wollten sie ihn dann doch nicht.
Dass nun seine Tendenz in die andere Richtung geht ist doch klar und jetzt wo er bei ATI arbeitet sowieso. Deswegen alles was er sagt nehme ich mit einem grain of salt genauso wie seine Demos etc...

Gast
2004-09-05, 19:25:02
Um mal auf Humus zurückzukommen. Was viele hier nicht wissen ist, dass er sich zuerst bei Nvidia beworben hatte. Die hatten ihn auch zu einem Gespräch eingeladen nach Santa Clara. Aber irgendwie wollten sie ihn dann doch nicht.

Wo kann man das nachlesen?
Oder bist du ein Mitarbeiter bei Nvidia, dass du das weißt?

Ice =A=
2004-09-05, 19:26:30
MODERAAAAAATOOOR!!!!!!!
Kann nicht jemand dafür sorgen, daß MikBach und v.a. tokugawa endlich mal diesen Thread nicht weiter zersetzen?!?
Das ist nicht böse gemeint, aber der Thread geht nun mal NICHT darum, ob die 5900 eine gute onder nutzlose Karte war/ist, lest doch mal den Titel dieses Threads!!! Macht doch einfach einen neuen Thread auf!!!!!!!!!!

@Jesus:
Woher ist obiges JC-Zitat, in dem er direkt über shader-replacements spricht?!? Das habe ich noch nie gehört, ich glaube fast, daß das nicht authentisch ist...

Was die 16bit angeht, die nVidia stellenweise in Doom3 benutzen darf, ist das nur bei den alten oder auch den neuen 6800er Karten der Fall? Woher stammt dieses Zitat?

Quasar
2004-09-05, 19:48:32
Letzteres darf jede Karte, die das kann. Es ist Bestandteil der Shader.

FPSn00b
2004-09-05, 22:01:17
@Quasar
Schade, lieber Gast, daß du lediglich auf die B3D-Suchfunktion verweisen magst - ohne die Schlüsselworte, die du benutzt haben magst, kann das eine lange Suche werden. Es wäre hilfreich, wenn du die entsprechenden Postings direkt verlinken könntest. :)Nun, ich muß zugeben, daß auch ich ein wenig enttäuscht bin, sehr verehrtes "Insane Member", ein wenig mehr Selbstständigkeit hätte ich schon von Dir erwartet. :(

Aber gut, für die Zukunft:
-Kopiere ein paar der etwas weniger gebräuchlichen Wörter aus einem der Zitate, also in dem Zusammenhang (beim ersten Zitat) z.B. "Nvidia", "cheating", "substituting" und "innocuous" - in das Feld "Search for Keywords" (wobei wohl auch ein, oder zwei dieser Wörter ausreichen würden)
-Wähle "Search for all terms" aus (wichtig!)
-Füge in die "Search for author"-Box den jeweiligen Namen ein, hier z.B. "Zeross"
-Klicke auf "Search" (ganz unten) und durchsuche den/die gefundenen Threads manuell nach dem Namen des Authors.

So, aber um Dir das in diesem Zusammenhang zu ersparen, hier sind die Links: :)
John Carmack zu den Shaderreplacments bei nVidia (http://www.beyond3d.com/forum/viewtopic.php?p=268713)
Dave Baumann zu den Shaderreplacements bei nVidia (http://www.beyond3d.com/forum/viewtopic.php?p=361734)

Zu Herrn Baumanns Statement passt aufgrund des Kontext tatsächlich eher der Zeitraum, als noch um den 3DMark03 gestritten wurde, ansonsten hätte er sicherlich kaum explizit erwähnt, daß nV auf "weitere Patches von FM für den 3DMark03 reagieren würde" - wann kam der letzte Patch 3.40 für den 3DMark03 noch gleich heraus?Das mag sein, letztlich macht Derek Perez Aussage aber klar, daß generell Shaderreplacements eingesetzt werden und das immer dann, wenn nVidia es für nötig hält. (Was auch immer man unter "nötig" verstehen mag.)

Zur Erinnerung:
[...]Derek Perez who openly stated that part of their compiler optimisers task is to "replace shaders where they feel they need to"[...][...]BTW,
es gibt da noch das Statement von JC bei [H]:
[Quelle: http://www2.hardocp.com/article.html?art=NjQy ]
[...]Das liest sich ein wenig anders, besonders mit Rücksicht auf die Texturfilterung. Wer ohne Sünde ist, werfe den ersten Stein.Wie außerordentlich überraschend. ;) - Nein, wirklich - ich finde es überraschend, daß _Du_ vergessen zu haben scheinst, daß die X800er-Karten teilweise auch brilinear filtern und das eben das durch eingefärbte Mipmaps unterbunden werden kann... - Bist Du nicht sogar derjenige von computerbase, der einen Artikel darüber geschrieben hat, oder bringe ich da etwas durcheinander? - Aber wie auch immer, laß doch bitte dieses Schlammgewerfe ohne etwas neues zum Thema beizutragen, oder mach einen neuen Thread dafür auf :), daß bei ATI und nVidia auch bei der Texturfilterung geschummelt wird, ist nicht gerade eine Neuigkeit.

PS: Was hieltest Du davon, wenn wir uns mit unseren Nicks und nicht unseren "Titeln" ansprechen würden? - Ich persönlich fände das jedenfalls wesentlich angenehmer. :)

Gast
2004-09-06, 00:27:12
Wo kann man das nachlesen?
Oder bist du ein Mitarbeiter bei Nvidia, dass du das weißt?
such bei Beyond3d im Forum. Sowas weiss man auch ohne Mitarbeiter bei Nvidia zu sein. Er hatte damals nämlich seinen bevorstehenden Flug zum Bewerbungsgespräch bei Nvidia im Beyond3d Forum angekündigt.

Gast
2004-09-06, 01:32:29
[QUOTE=MikBach]100% langsamer ist also nicht "dicke" und der Unterschied ist nicht dramatisch?
:ulol5:

QUOTE]

100% langsamer LOL

MikBach
2004-09-06, 07:17:23
[QUOTE=MikBach]100% langsamer ist also nicht "dicke" und der Unterschied ist nicht dramatisch?
:ulol5:

QUOTE]

100% langsamer LOL
OMG. Was hab ich denn da für ein Schwachsinn geschrieben. Wäre ja Stillstand-0 fps. Sollte natürlich heissen, dass eine 9800PRO bei FC 100% schneller ist als eine 5900.

Aber Ice =A= hat schon Recht.
Also back to topic.

mirovb
2004-09-06, 08:58:08
Lern Mathematik. "100% mehr Leistung" ist in EINIGEN SPIELEN. Aber nicht ALLEN SPIELEN.

Und "X hat 100% weniger Leistung als Y" würde semantischerweise (also wenn die 100%, wie grammatikalisch impliziert, mit Y als Basis genommen werden) bedeuten, dass X 0 fps bieten würde (also ned einmal Standbilder).


Wie ?? Also, Ich bin kein Genie in Mathematik, aber 100 % schneller als 0 bleibt Null....und was ist ein Anstieg von 25 FPS auf 50 FPS ??? Für mich sind das 100%, oder für Dich etwa nicht ?? :wink:

Entwickelst Du wirklich ?? :D (Nur Spass)

EDit: OK, wenn man natürlich von 25 FPS als 100% ausgeht, und dann runterrechnet, hast Du schon recht....

Labberlippe
2004-09-06, 11:41:00
Shader Replacement ist scheiße...

Nur: wenn die eine Partei sich mit Shaderreplacement einen Vorteil erschummelt, dann muss auch die andere Seite reagieren, sonst steht denen bald das Wasser bis zum Halse.

Und ich denke nicht, daß ATI sonderlich erfreut ist, wegen dem Shader Replacement und das der Abstand so gewaltig ist...


Hi

Wieso ist Shader Replacment scheice ???
Wenn ein Hersteller einen besseren Weg findet, damit die Games besser ablaufen bei gleichbleibender Bildqualität dann ist es in Ordnung.

Ich sehe das eher so, die Software Hersteller versuchen sollten die Grakas besser auszunützen und nicht einfach alles lieblos zu implementieren.

Gruss Labberlippe

Labberlippe
2004-09-06, 11:50:41
@OffTopic:
Dass Entwickler nicht unterstützt werden, ist ja so nicht ganz richtig, falsch ist aber eben, dass Entwickler (Logo hin oder her) nur in eine Richtung optimieren. Das Beispiel EA sagt da ja eigentlich alles.

Unfug wie "Das Spiel hat das Logo und muss auch auf dieser Hardware schneller sein" braucht man ja eigentlich kaum zu kommentieren, aber ein kurzer Satz sei dennoch erlaubt: GITG und TWIMTBP heissen (neben dem primären Werbeeffekt) nur, dass das entsprechende Spiel mit der entsprechenden Hardware fehlerfrei und und spielbar dargestellt wird - ohne Angabe irgendwelcher FPS.

Die Diskussion um die FX 5200 ist immer wieder lächerlich, denn wer eine Karte im Preissegment unter hundert Euro (also circa die Hälfte des Mainstreamsegmentes) zum "ernsthaften" Spielen anschafft, der hat mit neuen Spielen prinzipiell ein Problem. Egal ob Ti 4200, FX 5200 oder Radeon 9200 draufsteht. Es der Firma zum Vorwurf zu machen Technologien wie DX9-Kompatibilität top-to-bottom anzubieten ist schon mehr als schräg.

@Ontopic:
Gib es irgendwo einen ernstzunehmenden Bericht, der auf das eventuelle Shaderreplacement zurückzuführende Qualitätsunterschiede nachweist? Gibt es aussen den Aussagen von ATI überhaupt irgendwelche Beweise für ein Shaderreplacement?

p.s. Der Nächste, der behauptet, man wisse nicht mehr, wer mit Cheaten angefangen hat, der bekommt von MIR die Forelle.
p.p.s. Es war ATI. Bei Quake3.


Hi

Cheaten war von nVIDIA und ATi schon bei Final Reality.....

Übrigens zum Quake3 Cheat, das dürfte eher ein Bug gewesen sein, den ansonsten wäre nicht ein Treiber gekommen der die gleiche Performance hatte mit der besseren Bildqualität.

Das sind alles alte Geschichten die keine S´.. mehr interresiert.

Gruss Labberlippe

Demirug
2004-09-06, 11:56:06
Wenn ein IHV seine ganze Optimierungsstrategie auf Shaderreplacments aufbaut ergibt sich daraus ein grosses Problem. Man muss immer warten bis das Spiel das man spielen möchte in einem neuen Treiber berücksichtigt wird.

Sicherlich um auch noch das letzte aus einer Karte herauszuholen sind sie nicht schlecht allerdings sollte der Treiber für alle Shader für die er kein passendes Replacement hat einen guten Optimizier haben. Ziel muss es ganz klar seinen diesen Optimizier immer weiter zu verbessern und damit Replacements überflüssig zu machen.

Labberlippe
2004-09-06, 12:06:07
Erinnert mich an Quake 3.
NV optimiert den Treiber auf Q3 ohne Qualitätsverlust.
ATI optimiert beim ersten oder zweiten Treiber für die R200 die Filterqualität und setzt auf 16bit Texturen und verminderte Detaileinstellungen :|

Das war mal ne verarsche.



Hi

Welche verarsche???

Wenn man zu dämlich ist, ins CP zu gehen und den Schalter für Convert 32Bit zu 16 texuren nicht wegklickt dann ist das ja nicht wohl ATis schuld.

Gerade die diversen Tester die am meisten darüber rumgejammert haben, sollten sich mal an der Nase fassen.
Es kann nicht angehen das etwas getestet wird und dann nicht einmal ins CP die Einstellungen genauer betrachtet.

Ich kann nicht von Cheat reden, wenn es deutlich im CP eingetragen ist.

Freilich kann man sagen das ATi das damals standardmässig aktiviert hat aber jeder konnte das ohne Probleme deaktiveren.

(Wobei ich persönlich sagen, muss das ich keinen Unterschied gesehen habe bei Quake3.)

Gruss Labberlippe

Labberlippe
2004-09-06, 12:09:46
Hi

gelöscht.

(Falsch formuliert)

Gruss Labberlippe

Gast
2004-09-06, 12:16:23
Wenn ein IHV seine ganze Optimierungsstrategie auf Shaderreplacments aufbaut ergibt sich daraus ein grosses Problem. Man muss immer warten bis das Spiel das man spielen möchte in einem neuen Treiber berücksichtigt wird.
Full Ack.

Sicherlich um auch noch das letzte aus einer Karte herauszuholen sind sie nicht schlecht allerdings sollte der Treiber für alle Shader für die er kein passendes Replacement hat einen guten Optimizier haben. Ziel muss es ganz klar seinen diesen Optimizier immer weiter zu verbessern und damit Replacements überflüssig zu machen.
Der Optimiser betreibt doch auch Shaderreplacement, nur halt automatisch.
Oder er teilt die Shader auf bzw verändert diese.
Oder irre ich?
Wenn das so ist, dann wäre ein guter Optimiser im Treiber wirklich sehr sinnvoll.

Seraf
2004-09-06, 12:48:17
Hi

Cheaten war von nVIDIA und ATi schon bei Final Reality.....

Übrigens zum Quake3 Cheat, das dürfte eher ein Bug gewesen sein, den ansonsten wäre nicht ein Treiber gekommen der die gleiche Performance hatte mit der besseren Bildqualität.

Das sind alles alte Geschichten die keine S´.. mehr interresiert.

Gruss Labberlippe

Zur Erinnerung!
Das Statement könnte auch von heute für die neuen Optimierungen sein.
Oder z.B. für den angeblichen Treiberfehler im OpenGL Teil ;)
http://www.tech-report.com/etc/2001q4/radeon-q3/index.x?pg=1


Most of our optimizations for Quake 3 and other applications have no impact at all on image quality, and therefore it would be pointless to allow users disable them. The current RADEON 8500 driver revision has an issue that prevents it from correctly interpreting the texture quality slider setting in Quake 3. This issue will be corrected in the next driver release.


Für einen Bug auch seltsam das beim umbenennen der Quake3.exe wieder alles richtig lief. Würde mich aber nicht wundern wenn ATI jetzt wieder auf unfaire Tricks zurückgreift bis ihr OpenGL Treiber soweit ausgereift ist bis er auch auf normalem Wege die selbe Performance schafft.

Weitere Quellen:
http://www.3dcenter.de/artikel/2001/10-24_a.php
http://www.golem.de/0110/16567.html
http://www.tech-report.com/columns/damage/2001q4/ati/

Demirug
2004-09-06, 12:50:45
Full Ack.

Der Optimiser betreibt doch auch Shaderreplacement, nur halt automatisch.
Oder er teilt die Shader auf bzw verändert diese.
Oder irre ich?
Wenn das so ist, dann wäre ein guter Optimiser im Treiber wirklich sehr sinnvoll.

Ein Optimiser nimmt den Shadercode und passt in ohne den darin enthalten mathematischen Ausdruck zu verändern an die gegebenheiten des Chips an. Also zum Beispiel wann und in welcher Reihenfolge Texturen ausgelesen werden. Oder beim R3XX/NV4X sehr wichtig welche Vector3 Operationen mit welchen Skalar Ops zusammen ausgeführt werden können und sollen.

Bei einem Replacement kann man ja noch weiter gehen und auch den mathematische Ausdruck im Shader gegen einen mehr oder minder gleichwertigen ersetzten.

MikBach
2004-09-06, 12:58:23
Ein Optimiser nimmt den Shadercode und passt in ohne den darin enthalten mathematischen Ausdruck zu verändern an die gegebenheiten des Chips an. Also zum Beispiel wann und in welcher Reihenfolge Texturen ausgelesen werden. Oder beim R3XX/NV4X sehr wichtig welche Vector3 Operationen mit welchen Skalar Ops zusammen ausgeführt werden können und sollen.

Bei einem Replacement kann man ja noch weiter gehen und auch den mathematische Ausdruck im Shader gegen einen mehr oder minder gleichwertigen ersetzten.
Danke. :)
Der gast war ich.

Also ist an ein "automatisches" Shaderreplacement, wo auch der mathematische Ausdruck verändert wird zur Zeit nicht zu denken?
Das wäre wohl dann zu viel "Intelligenz" vom Treiber verlangt. ;)

Labberlippe
2004-09-06, 13:09:14
Zur Erinnerung!
Das Statement könnte auch von heute für die neuen Optimierungen sein.
Oder z.B. für den angeblichen Treiberfehler im OpenGL Teil ;)
http://www.tech-report.com/etc/2001q4/radeon-q3/index.x?pg=1



Für einen Bug auch seltsam das beim umbenennen der Quake3.exe wieder alles richtig lief. Würde mich aber nicht wundern wenn ATI jetzt wieder auf unfaire Tricks zurückgreift bis ihr OpenGL Treiber soweit ausgereift ist bis er auch auf normalem Wege die selbe Performance schafft.

Weitere Quellen:
http://www.3dcenter.de/artikel/2001/10-24_a.php
http://www.golem.de/0110/16567.html
http://www.tech-report.com/columns/damage/2001q4/ati/

Hi

Zur Erinnerung.
Wenn man will dann kann das Statement auch die nächsten Jahre nehmen.
Man wird immer etwas finden, was man gerne so auslegt das es in den Kram passt.

Zu Quake3.
Exe Abfragen haben beide Hersteller gemacht und nicht nur einer.
Es hat sich aber danach gezeigt das ATI gleich darauf ein Treiber präsentiert hat der die gleiche Performance bei besserer Bildqualität hatte, egal ob mit oder ohne EXE.
Also haben die vielleicht doch einen Fehler gehabt, denn Wunder können die ATi progger auch nicht vollbringen.
Wie dem auch sei, das Problem wurde gelöst und die Sache ist Geschichte, es hat keinen Sinn das ganze wieder auszugraben.

Mir geht es darum, das man nicht bei einem Hersteller von Optimierung sprechen und bei einen anderen Herstellern Cheating unterstellt nur weil es einen gerade so in den Kram passt.

Mir ist das persönlich wurst ob ein Hersteller im Treiber die EXE abruft und mit "mir egal was der Hersteller macht ersetzt" wenn das Ding die Performance steigert und die Bildqualität erhalten bleibt.

Freilich hat Demirug schon im gewissen sinne und Recht das man nicht darauf los optimieren sollte und x Replacment machen sollte, den ansonsten kann es passieren das sich wirklich keiner mehr auskennt was jetzt "lehrbuchmässig" ist.

Nur sollte man nicht vergessen das auch die HW Hersteller Ihre Karten erst im späteren verlauf durch Treiber optimaler ausnutzen können, eben weil im Nachhinein mehr Erfahrung gesammelt wird.
Und wenn dann erkannt wird das gewisse Effekte einfacher gehen als komplizierter dann spricht nichts gegen ein Replacement. (In meine Augen)

Allerdings bin ich der Meinung das dieses dann aber auch übernommen werden sollte um dieses dann mit den Entwicklern abzustimmen.


Gruss Labberlippe

Demirug
2004-09-06, 13:18:11
Danke. :)
Der gast war ich.

Also ist an ein "automatisches" Shaderreplacement, wo auch der mathematische Ausdruck verändert wird zur Zeit nicht zu denken?
Das wäre wohl dann zu viel "Intelligenz" vom Treiber verlangt. ;)

In gewissen Grenzen können die Treiber das schon. Allerdings nur bei gleichwertigen Ausdrücken.

So macht zum Beispiel ATI aus einem A+A gerne ein A*2. Der Grund dafür ist das die Mini-FPUs *2 ausführen können für eine Addition braucht man aber die normale FPU. nVidia hat ähnliches im Programm.

Allerdings längere Formeln umzuändern übersteigt derzeit die Fähigkeiten der Treiber.

Seraf
2004-09-06, 13:34:00
In gewissen Grenzen können die Treiber das schon. Allerdings nur bei gleichwertigen Ausdrücken.

So macht zum Beispiel ATI aus einem A+A gerne ein A*2. Der Grund dafür ist das die Mini-FPUs *2 ausführen können für eine Addition braucht man aber die normale FPU. nVidia hat ähnliches im Programm.

Allerdings längere Formeln umzuändern übersteigt derzeit die Fähigkeiten der Treiber.

Ein bisschen OT. Aber wirkt sich eine Shaderkontrolle über den Treiber bei vielen Shadern nicht negativ auf die CPU aus? Für jeden gesparten Takt der GPU fallen mehrere Takte der CPU weg oder?
(Ausser alles wird vorher schon abgeändert im Speicher abgespeichert ... :confused: )

Demirug
2004-09-06, 16:29:36
Ein bisschen OT. Aber wirkt sich eine Shaderkontrolle über den Treiber bei vielen Shadern nicht negativ auf die CPU aus? Für jeden gesparten Takt der GPU fallen mehrere Takte der CPU weg oder?
(Ausser alles wird vorher schon abgeändert im Speicher abgespeichert ... :confused: )


Shader werden nur einmal bei anlegen übersetzt. Dabei bekommen sie eine Nummer zugewiesen. Wenn man den Shader dann benutzen möchte wird nur noch die Nummer benutzt.

aths
2004-09-06, 17:49:43
Um mal auf Humus zurückzukommen. Was viele hier nicht wissen ist, dass er sich zuerst bei Nvidia beworben hatte. Die hatten ihn auch zu einem Gespräch eingeladen nach Santa Clara. Aber irgendwie wollten sie ihn dann doch nicht.
Dass nun seine Tendenz in die andere Richtung geht ist doch klar und jetzt wo er bei ATI arbeitet sowieso. Deswegen alles was er sagt nehme ich mit einem grain of salt genauso wie seine Demos etc...Humus wurde von NV (auf NVs Kosten, inkl. Flug und Hotel) zum Vorstellungsgespräch eingeladen. NV begründete später die Ablehnung mit nebulösen Ausführungen, dass es Kommunikationsschwierigkeiten gäbe. Wahrscheinlich war Humus nicht bereit, zur Nvidia-Religion zu konvertieren. ATI trat offenbar nicht ganz so vereinnahmend auf, so dass sich Humus bei denen wohler fühlt.

MikBach
2004-09-06, 18:32:24
Humus wurde von NV (auf NVs Kosten, inkl. Flug und Hotel) zum Vorstellungsgespräch eingeladen. NV begründete später die Ablehnung mit nebulösen Ausführungen, dass es Kommunikationsschwierigkeiten gäbe. Wahrscheinlich war Humus nicht bereit, zur Nvidia-Religion zu konvertieren. ATI trat offenbar nicht ganz so vereinnahmend auf, so dass sich Humus bei denen wohler fühlt.
Starker Tobak.
Was willst du damit andeuten?
Ich habe da schon so eine Idee, die werde ich aber (noch) nicht preisgeben. ;)

LovesuckZ
2004-09-06, 19:08:03
Starker Tobak.
Was willst du damit andeuten?

Das er nicht mehr in oeffentlichen Foren postet, zum Beispiel.

Ich habe da schon so eine Idee, die werde ich aber (noch) nicht preisgeben. ;)

Also nichts. ;)

Gast
2004-09-06, 19:18:57
Humus wurde von NV (auf NVs Kosten, inkl. Flug und Hotel) zum Vorstellungsgespräch eingeladen. NV begründete später die Ablehnung mit nebulösen Ausführungen, dass es Kommunikationsschwierigkeiten gäbe. Wahrscheinlich war Humus nicht bereit, zur Nvidia-Religion zu konvertieren. ATI trat offenbar nicht ganz so vereinnahmend auf, so dass sich Humus bei denen wohler fühlt.

Denkst du wirklich es macht einen Unterschied, ob man zur NVidia-Religion oder ATi-Religion konvertiert?

Riipa
2004-09-06, 19:24:38
Für Humus offenbar schon. Deswegen ist er ja zu ATI gegangen.

Die vorgenannten "Kommunikationsstörungen" könnten sich btw durchaus auch auf das Gehalt oder ähnliches bezogen haben, da finden sich ja auch immer schöne Formulierungen, um nicht offen zu sagen, dass der Bewerber ein Raffzahn oder die Firma eine Truppe von Ausbeutern ist. Vielleicht sollte er bei Nv an Sachen arbeiten, die er nicht als spannend genug empfunden hätte. Oder vielleicht hatte Nv die falschen Softdrinks kostenlos in der Firma.
Ohne genaues Hintergrundwissen, was das wirklich passiert ist, würde ich da nicht zuviel hineininterpretieren, das ist einfach nur eine mehr oder minder übliche Floskel.

Ich denke allerdings, dass es für das Niveau einen Unterschied macht, ob man Leute wie Chef-MadeImApfel-Sucher DirkBach hier posten lässt. Das nervt langsam aber sicher echt.

MikBach
2004-09-06, 19:37:41
Das er nicht mehr in oeffentlichen Foren postet, zum Beispiel.
OT
Echt?
Wieso das denn? Ist er tod? Oder wird es sein, wenn er weiterhin in öffentlichen Foren postet? ;)

Also nichts. ;)
Doch. ;)

Endorphine
2004-09-06, 19:42:40
<ot> :kicher:
Irgendwann wird aths auch nichts mehr posten und für nVidia arbeiten. ;)
</ot>

Gast
2004-09-06, 19:45:39
Ich denke allerdings, dass es für das Niveau einen Unterschied macht, ob man Leute wie Chef-MadeImApfel-Sucher DirkBach hier posten lässt. Das nervt langsam aber sicher echt. DirkBach ist doch nur ein Nebenaccount von tombman. :)

MikBach
2004-09-06, 19:53:56
DirkBach ist doch nur ein Nebenaccount von tombman. :)
Es gibt keinen DirkBach-User im 3dCenter-forum. ;)
Und falls du mich mich meinst, dann kann ich dir versichern, dass ich tombman noch nicht mal kenne.
BTW nenn mich bei meinem richtigen Nickname. Oder hast du dich mit Riipa abgeprochen? ;)

@Mods, ich möchte mit meinem richigen Nick angesprochen werden, DirkBach empfinde ich als Verarschung. Kann man was dagegen tun?

LovesuckZ
2004-09-06, 19:58:39
@Mods, ich möchte mit meinem richigen Nick angesprochen werden, DirkBach empfinde ich als Verarschung. Kann man was dagegen tun?

Nein, laut Thowe.

MikBach
2004-09-06, 20:05:31
Nein, laut Thowe.
;(
Das ist aber schade.
Wenn ich also Winter[Raven] als "Winterreifen" bezeichne ist das in Ordnung?

Riipa
2004-09-07, 09:46:56
Das wäre (imho) sogar cool, zumindest ich würde mich ob diese Verballhornung nicht angegriffen fühlen.

Aber zu Deinem Nick: Wenn Du Dir mal durchliest, was Du in diesem Thread für Posts verzapft hast, dann wirst Du feststellen, dass diese teilweise schon an jene (unfreiwillige) Komik erinnern, die Dirk Bach versprüht. Imho hast Du Dir den Ehrennamen "Dirk" in diesem Thread redlich verdient - oder mit anderen Worten: Wer genug mit Schmutz wirft, der wird sich am Ende selbst treffen.

MadManniMan
2004-09-07, 10:46:35
2 Cents von mir: ich hab mich immer gefreut, lustigerweise verballhornt zu werden... MadMamiMan, MudMoppelMopp und ähnliches ist jederzeit erquickend. Auch wenn es eigentlich wirklich böse gemeint war - seht die Komik hinter solchen Äußerungen und nehmt nicht alles so schwer ;)

MikBach
2004-09-07, 10:52:54
2 Cents von mir: ich hab mich immer gefreut, lustigerweise verballhornt zu werden... MadMamiMan, MudMoppelMopp und ähnliches ist jederzeit erquickend. Auch wenn es eigentlich wirklich böse gemeint war - seht die Komik hinter solchen Äußerungen und nehmt nicht alles so schwer ;)

Ja, Manni, hast echt Recht. Wer zu solchen Mitteln greift, dem sind wahrscheinlich die Argumente ausgegangen. ;)
Aber nun genug OT.
Back to Topic.

Riipa
2004-09-07, 11:16:15
Oder das Gegenüber hat bewiesen, dass es ausreichend argumentationsresistent ist, um einen normalen Austausch von Meinungen und Fakten sinnlos werden zu lassen.

Hier etwas ontopic zu schreiben fällt schwer, denn die Faktenlage ist 13 Seiten nach dem Beginn immer noch die gleiche. Es steht eine Behauptung im Raum, dass Shader ausgetauscht werden. Dies ist bei Nvidias Optimierungsstrategie nicht unwahrscheinlich. Keiner kann genau sagen, ob die ersetzten Shader zu gleichwertigen Ergebnissen oder zu minderwertigen Ergebnissen (schlechtere BQ) führen. Da das dderzeit keiner kann, wird sich in Vermutungen ergangen.

Gast
2004-09-07, 12:15:23
Humus wurde von NV (auf NVs Kosten, inkl. Flug und Hotel) zum Vorstellungsgespräch eingeladen. NV begründete später die Ablehnung mit nebulösen Ausführungen, dass es Kommunikationsschwierigkeiten gäbe. Wahrscheinlich war Humus nicht bereit, zur Nvidia-Religion zu konvertieren. ATI trat offenbar nicht ganz so vereinnahmend auf, so dass sich Humus bei denen wohler fühlt.

Ist doch vollkommen egal warum wieso weshalb er nicht zu Nvidia ist. Und deine Ausführungen zu irgendwelchen Relegionskonvertierungen sind am Thema vorbei.
Die ATI Relegion ist keinen Deut besser genauso wenig wie die anderer Firmen. Jede Firma arbeitet nur für sich und nur in ihrem Interesse und niemanden sonst.
Fakt ist nur dass er bei Nvidia war und nun bei ATI ist. Seine Ankündigung eines Vorstellungsgesprächs bei Nvidia in einem Forum halte ich für sehr unprofessionell - Freude hin oder her.
Anyway was ich sagen will ist, er ist jetzt bei ATI und alles was von ihm jetzt an Aussagen und Demos kommt hat für mich keine Neutralität mehr. Angestellte einer Firma sind nicht neutral - deswegen nehm ich alles mit einem grain of salt zur Kenntniss und das wars.

MikBach
2004-09-07, 12:16:44
Es steht eine Behauptung im Raum, dass Shader ausgetauscht werden. Dies ist bei Nvidias Optimierungsstrategie nicht unwahrscheinlich. Keiner kann genau sagen, ob die ersetzten Shader zu gleichwertigen Ergebnissen oder zu minderwertigen Ergebnissen (schlechtere BQ) führen. Da das dderzeit keiner kann, wird sich in Vermutungen ergangen.
Gut dass wir back to Topic sind. ;)
Also ich glaube kaum, dass die Firma Nvidia bei Doom3 Shaderreplacement im Treiber betreibt. Warum auch? JC hat hier sicher(vielleicht in Zusammenarbeit mit Nvidia) das Optimum aus dem NV40 rausgeholt.
Wenn jemand glaubt, dass Nvidia Shaderreplacement in Doom3 betreibt, der glaubt auch, dass ATI in HL2 die Shader austauscht. :hammer:

Den Standpunkt von ATI kann ich aber Verstehen. Ist klar, dass wenn man voll auf eine Grafikkarte optimiert, die andere drunter leidet.
Sehe ich etwa wie die FX-Situation bei HL2.
Ausserdem ist Shaderreplacement bei Nvidia nicht seit gestern eine Möglichkeit um Speed zu gewinnen ohne die BQ zu senken.
Deswegen finde ich es nur legitim, dass ATI das in Doom3 machen will.

MadManniMan
2004-09-07, 12:49:02
Gut dass wir back to Topic sind. ;)
Also ich glaube kaum, dass die Firma Nvidia bei Doom3 Shaderreplacement im Treiber betreibt. Warum auch? JC hat hier sicher(vielleicht in Zusammenarbeit mit Nvidia) das Optimum aus dem NV40 rausgeholt.
Wenn jemand glaubt, dass Nvidia Shaderreplacement in Doom3 betreibt, der glaubt auch, dass ATI in HL2 die Shader austauscht. :hammer:

Du widersprichst dir. Erst freust du dich diebisch darüber, daß nV scheinbar direkt von JC des Replacements überführt wurde("Jede kleinste Codeänderung führte zu derben Performanceeinbrüchen."), nun behauptest du das - entscheide dich mal!

Außerdem: warum sollte JC das 100%ige Optimum aus dem NV40 geholt haben?

MikBach
2004-09-07, 13:46:45
Erst freust du dich diebisch darüber, daß nV scheinbar direkt von JC des Replacements überführt wurde.
Wo darf ich das nachlesen, was du hier behauptest?

Außerdem: warum sollte JC das 100%ige Optimum aus dem NV40 geholt haben?
Wenn du(oder jemand anders) mir das Gegenteil beweisst dann glaub ich das, sonst versuche mal den Satz "Jede kleinste Codeänderung führte zu derben Performanceeinbrüchen." damit in Verbindung zu bringen.
Und von 100% will ich erstmal gar nicht reden. Ich weiss nicht, ob man das 100%ige-Optimum überhaupt jemals erreichen kann.

MadManniMan
2004-09-07, 14:04:09
Wo darf ich das nachlesen, was du hier behauptest?

Es gab elendig lange Diskussionen zwischen dir und anderen Usern über JC und Doom3 - jetzt das zu leugnen rückt dich nur in ein schlechteres Licht. Ich weiß, was ich gelesen habe und das reicht mir :) Sei ehrlich zu dir selbst, sieh alles ein wenig entspannter und komm später nochmal darauf zurück.


Wenn du(oder jemand anders) mir das Gegenteil beweisst dann glaub ich das, sonst versuche mal den Satz "Jede kleinste Codeänderung führte zu derben Performanceeinbrüchen." damit in Verbindung zu bringen.

A) Wie soll ich das beweisen? Bin ich Progger? Genauso wenig, wie du :) Es gab da mal so ein Sprichwort... errm, wie heißt es doch gleich? Achja, in dubio pro reo - selbst wenn JC inzwischen tatsächlich das machbare Optimum aus dem NV40 geholt hat, wäre es doch prinzipiell nur löblich. Oder möchtest du ihm vorwerfen, mit vollster Absicht Radeons verzögert zu haben? Und wer sagt eigentlich, daß das Optimum immer die höchste Framezahl darstellt ;)

B) Der von dir nochmals zitierte Satz stinkt nach Shaderreplacements - allein das implementiert für mich schon, daß nV Potential verborgen sah, das JC nicht ausschöpfen "wollte" -> kein "Optimum" aus dem NV40 gehol0rt.

Und von 100% will ich erstmal gar nicht reden. Ich weiss nicht, ob man das 100%ige-Optimum überhaupt jemals erreichen kann.[/QUOTE]

MikBach
2004-09-07, 14:28:23
Es gab elendig lange Diskussionen zwischen dir und anderen Usern über JC und Doom3 - jetzt das zu leugnen rückt dich nur in ein schlechteres Licht. Ich weiß, was ich gelesen habe und das reicht mir :) Sei ehrlich zu dir selbst, sieh alles ein wenig entspannter und komm später nochmal darauf zurück.
Unsinn. Ich habe mich mit Sicherheit nicht diebisch gefreut. Zeige mir echt den Post von mir, der das sugerriert. Sonst ist deine Argumentation einfach nur haltlos.

A) selbst wenn JC inzwischen tatsächlich das machbare Optimum aus dem NV40 geholt hat, wäre es doch prinzipiell nur löblich. Oder möchtest du ihm vorwerfen, mit vollster Absicht Radeons verzögert zu haben?
Man, lese doch was ich geschrieben habe.
"Ist klar, dass wenn man voll auf eine Grafikkarte optimiert, die andere drunter leidet."
Bei nur einem Pfad(und gleichen Shadern) ist es einfach unmöglich aus 2 Karten mit so unterschiedlichen Architekturen das Optimum rauszuholen. Noch mehr, je näher man mit einer Karte am Optimum ist, desto mehr leidet die andere. Je unterschiedlicher die Architektur, desto mehr.
Jetzt gepeilt?

Und wer sagt eigentlich, daß das Optimum immer die höchste Framezahl darstellt ;)

Und von 100% will ich erstmal gar nicht reden. Ich weiss nicht, ob man das 100%ige-Optimum überhaupt jemals erreichen kann.
Nichts anderes wollte ich mit meiner Aussage andeuten.