Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Carmack: "ATI schummelt bei der Bildqualität in Doom3-Benchmarks"


DoomDoom
2004-07-25, 12:05:24
Ist es nicht erstaunlich, dass hier bei der Diskussion über die Domm3-Benchmarks von [H] weitgehend ignoriert wird, was John Carmack selber zur Manipulierung der Bildqualität von ATI sagt?

"The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering. This has been a chronic issue for years, and almost all vendors have been guilty of it at one time or another."

http://www2.hardocp.com/article.html?art=NjQy

"fudge" bedeutet übrigens "frisieren, schummeln, verfälschen":

http://dict.leo.org/?search=fudge&searchLoc=0&relink=on&spellToler=standard&sectHdr=on&tableBorder=1&cmpType=relaxed&lang=en

... und trotz der Schummelei kommt ATI nicht gegen die 6800 an? Traurig.

LovesuckZ
2004-07-25, 12:07:14
Ja, sie cheaten bei der Bildqualitaet. Ist aber bekannt.
Unfair gegenueber Nvidia? Nein, denn "default" Einstellungen geben unter OpenGL den selben Mist wie man ihn von ATi angeboten bekommt.
Der Unterschied zwischen beiden ist, dass man es bei nvidia im CP ausstellen kann!

q@e
2004-07-25, 12:12:52
... und laut Kyle von [H] sind bei beiden Kandidaten die Treiber-Default-Einstellungen verwendet worden. Das einzige, was da noch anzumerken wäre, ist, daß AFAIK bei nV per default die Aniso-Optimierung im Treiber ausgeschaltet ist - zumindest war das bei mir so.

Wenn AF allerdings über die Applikation angefordert wird, so, wie es laut Kyle geschah, dann sollten beide Pappenheimer hier mit brilinearer Filterung über alle Texturstufen angetreten sein - hoffentlich und leider.

Gast
2004-07-25, 13:30:01
NV cheatet genau so also was solls

mit AA/AF hat ATI immernoch die bessere Bildquali

deekey777
2004-07-25, 13:44:32
Original geschrieben von DoomDoom
Ist es nicht erstaunlich, dass hier bei der Diskussion über die Domm3-Benchmarks von [H] weitgehend ignoriert wird, was John Carmack selber zur Manipulierung der Bildqualität von ATI sagt?

"The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering. This has been a chronic issue for years, and almost all vendors have been guilty of it at one time or another."

http://www2.hardocp.com/article.html?art=NjQy

"fudge" bedeutet übrigens "frisieren, schummeln, verfälschen":

http://dict.leo.org/?search=fudge&searchLoc=0&relink=on&spellToler=standard&sectHdr=on&tableBorder=1&cmpType=relaxed&lang=en

... und trotz der Schummelei kommt ATI nicht gegen die 6800 an? Traurig.

Warum zitierst du denn nicht weiter und schreibst, was Carmack über die nVidia Treiber geschrieben hat? Wenn du schon den Fox Mulder spielen willst, dann solltest du dir auch die Frage stellen, wieviel die auf Doom 3 "tuned" Treiber bringen.

Jesus
2004-07-25, 14:49:27
mach ich ;)

I hate the idea of drivers analyzing texture data and changing parameters, but it doesn't visibly impact the quality of the game unless you know exactly what to look for on a specific texture. On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program, and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards.

kommentar spar ich mir mal

BB
2004-07-26, 00:22:26
nVidida sagt selbet (und macht keine Hehl daraus), dass deren Karten (und nicht Treiber allein) auf DOOM 3 frisiert wurden.
(Fillrate ladies ...)

ATI hat sich nie groß um OpenGL geschehrt und ich hoffe die bekommen auch mal richtig eins auf die Fresse für so mieses prog'en. Denn wer nur seinen eigenes Süppchen kocht ist selbst schuld (heißt nur für DX9 entwickeln ). Nvidia ist nicht viel besser aber immerhin in der Hinsicht tolerant, das die sich auch um DX9 kümmern.

tombman
2004-07-26, 00:50:21
kann man den thread nicht einfach ersatzlos killen?

beide cheaten und optimieren...

Gast
2004-07-26, 01:09:41
ja echt!da kommen wieder die fanboys aus ihren troll-höhlen!
ist echt meine entscheidung welche karte ich mir kaufe und da brauch ich keine blöden kommentare von kiddies die glauben das ihre favoriten automatisch die favoriten anderer sein müssen.

beide hersteller sind meiner meinung nach gleich gut oder schlecht also was solls!

Blumentopf
2004-07-26, 07:36:00
Ich hab mich letztendlich für Nvidia entschieden nur weil sie 40EUR günstiger war, nicht wegen irgendwelcher Benchmarks.
Wäre ATI günstiger gewesen hätte ich die genommen.
And D3 hab ich beim Kauf nicht gedacht. Hätte auch nichts geändert.

Trap
2004-07-26, 12:41:09
Warum soll man im Treiber nicht eine Datenbank von bekannten Shader-Programmen mit bestmöglichen Implementierungen derselben anlegen? Der Compiler für Shaderprogramme wird nie so gut sein wie eine Handoptimierung.

Ich empfinde das nicht als Schummeln, die Hardware muss das Programm ja immernoch ausführen, nur ist es halt optimal implementiert. Ist für den Grafikkartenhersteller besser und billiger als nur den Compiler zu optimieren. Für Spieler genauso, nur für Entwickler ist es etwas unpraktisch.

ow
2004-07-26, 13:31:28
Original geschrieben von Trap
Warum soll man im Treiber nicht eine Datenbank von bekannten Shader-Programmen mit bestmöglichen Implementierungen derselben anlegen?

Wie gross haettest du denn die Treiberdateien gerne? Reicht 1GB oder darf's auch etwas mehr sein?

;)

q@w
2004-07-26, 13:34:16
Wenn's danach geht, hätte ich gern einen max. 5MB großen Treibercore und optionale Module für diverse Games. :)

x-dragon
2004-07-26, 15:18:36
Original geschrieben von q@w
Wenn's danach geht, hätte ich gern einen max. 5MB großen Treibercore und optionale Module für diverse Games. :) Hört sich interessant an :). Aber die Vergleichbarkeit der Spiele was Bildqualität und Leistung angeht dürfte dann ganz schön schwierig werden ...

q@w
2004-07-26, 15:58:41
Kein Problem, dann gibt's wie bei der Spec einen Base und einen Peak Wert für die Balkenlängen und jeweils ein Bildchen (und ggf. ein unkomprimiertes 1600x1200x32 Video |Achtung, Ironie) dazu =)