PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Schlechtere IQ bei neuen ATI-Treibern ?


Razor
2001-11-19, 11:24:18
Hi there,

habe gerade auf meinem heutigen Web-Ride etwas sehr interessantes gefunden...

Es geht dabei maßgeblich um die 3D-ImageQuality der neuen Radein8500-Treiber für die Radeon8500 (bei 3DMurks2001).
(7191/7206 bei Radeon8500 und 12.00/21.83 bei gf3)

Viele haben ja berichtet, daß der Zwiemelmurks ordentlich zugelegt hat, was womölich auf eine Herabsetzung der IQ zurück zu führen ist (das hatten wird doch schon mal ;-)

Also, hier der Link:
http://www.geocities.com/legion88/index.html

Kann das irgend jemand nachvollziehen ?
Denn das Fazit würde sein, daß die IQ der Radeon um einiges schlechter ist, als die einer gf3...
(aber die Radeon zumindest schneller ist ;-)

In diesem Sinne

Razor

P.S.: Leo, Du hast doch 'ne Radeon8500, oder ? Kannst Du das bestätigen ?

Haarmann
2001-11-19, 11:45:45
Vor ner Woche gackerten alle die GF3 "cheate" bei Zwiebelmark... nun is die Radeon2 wieder dran...

Whos next?

Exxtreme
2001-11-19, 11:46:01
Hallo Razor.
Ich weiss leider nicht wie brauchbar die Funktion von Zwiebelmurks 2001 [TM] wirklich ist. Zumindest bei 3DMark 99 gab es bei mir gewaltige Unterschiede zwischen den gerenderten Bildern in den Demos und anschliessend in denen bei der IQ-Comparison. Während die Demos korrekt gerendert wurden, waren beim IQ-Vergleich plötzlich alle Texturen weg. Deswegen misstraue ich dieser Funktion.

Gruß
Alex

Marar
2001-11-19, 12:44:02
Ob man IQ wirklich so messen kann ?
Die hier:
http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=1390

haben so ihre Zweifel.

Unregistered
2001-11-19, 13:02:42
Originally posted by Razor
Hi there,

habe gerade auf meinem heutigen Web-Ride etwas sehr interessantes gefunden...

Es geht dabei maßgeblich um die 3D-ImageQuality der neuen Radein8500-Treiber für die Radeon8500 (bei 3DMurks2001).
(7191/7206 bei Radeon8500 und 12.00/21.83 bei gf3)

Viele haben ja berichtet, daß der Zwiemelmurks ordentlich zugelegt hat, was womölich auf eine Herabsetzung der IQ zurück zu führen ist (das hatten wird doch schon mal ;-)

Also, hier der Link:
http://www.geocities.com/legion88/index.html

Kann das irgend jemand nachvollziehen ?
Denn das Fazit würde sein, daß die IQ der Radeon um einiges schlechter ist, als die einer gf3...
(aber die Radeon zumindest schneller ist ;-)

In diesem Sinne

Razor

P.S.: Leo, Du hast doch 'ne Radeon8500, oder ? Kannst Du das bestätigen ?


Ich halte selber auch nix von diesem Imagevergleichen. Es kommt ja immer darauf an, was man als Refernz nimmt. Das Original muß ja zwangsläufig von irgendeiner Karte gerendert worden sein. Und wenn ich eine Karte zum Test heranziehe, die technisch dem Original entspricht, oder annähernd, kann ich doch davon ausgehen das so ein vergleich in dem sinne fürn Arsch ist. Oder sehe ich da was falsch ?

nggalai
2001-11-19, 13:04:01
Der von Marar gepostete Thread aufm Beyond3D-Forum ist recht interessant, besonders was "Missverständnisse" anbelangt. Einge haben Legion88 nicht ganz verstanden--die Wiedergabe gemäss Referenz-Rasterizer soll nicht als alleiniges IQ-Kriterium herhalten, sondern weiteren Input zur IQ-Frage geben. Ausserdem gilt für die Frage der Wiedergabetreue wirklich ganz einfach: entweder das Bild wird "korrekt" wiedergegeben, oder halt eben nicht. Viel zu diskutieren sollte es da nicht geben. Der MO-IQ Test ist ein "fidelity-"Test, und nichts weiter.

Was allerdings sehr wohl diskussionswürdig wäre ist die Frage, in wiefern Bildqualität mit "korrekter Wiedergabe" zusammenhängt. Ich denke, dass dies zum Teil in eine IQ-Analyse gehört, aber diese Meinung hat (wie ich auch auf b3d postete) wohl auch mit meinem Hi-end Audio Hintergrund zu tun. Schlussendlich muss jeder für sich selber entscheiden, welche Gesamt-Bildqualität für ihn/sie stimmt.

ta,
-Sascha.rb

Razor
2001-11-20, 03:04:17
@Haarmann

"Gleiches Recht für alle !"
;-)

@Exxtreme

Inwieweit man dieser Funktionen trauen kann ?
Keine Ahnung !
;-)

@Marar

Die Frage ist, wie man überhaupt die IQ messen kann...
(Der Link war wirklich sehr interessant !)

@Unreg.

Jep !
Da 'siehst' Du was falsch...
;-)

Die Referenzbilder kann man auch sehr gut mit Software-Rendering erzeugen.
(da braucht's gar keine Hardware, dauert dann halt etwas länger ;-)

@nggalai

;-)

***

Ich wollte hiermit nicht sagen, daß es nun Fakt ist, daß ATI nun auf Kosten der Qualität 'optimiert'...

Hier noch mal das Fazit von Legion88:
Moreover, I do not see any evidence to support the common myth that NVIDIA enhanced the performance scores in 3DMark2001 by degrading the image quality, by making the images "blurrier". On the contrary, not only did NVIDIA keep the level of detail the same but they also fixed graphical anomalies. In two of the four image quality tests, the deviation from the reference image actually went down. This means that the image quality actually improved in two of the four tests.

ATi, on the other hand, went on a different route. The deviation from the reference images went up with the latest drivers while at the same time improved its performance. There is a degradation in image quality in all four of the image quality tests. There maybe a correlation between the performance gains of ATi's latest drivers and the degradation in image quality. This correlation is just speculation at this point. I'll just let the alleged "experts" discuss that issue. I already know what they are going to say anyway: the image quality problems are due to bugs and it is not interpreting 3DMark2001 images correctly.
Erst einmal ist es reine Spekulation !!!

Die Frage aber ist, wie man die 3D-ImageQuality überhaupt messen kann.
Ist es überhaupt 'legtim', das zu tun ?

Es scheint immer schwieriger zu werden, überhaupt 'Vergleiche' von Grafikkarten anzustellen, wenn man nicht weiß, wie die Treiber-Entwickler 'optimieren'. So wäre es doch langsam Zeit, (unabhängige) Verfahren zu entwickeln, die hier Klarheit schaffen...

Es wurde doch schon oft danach gerufen, Benchmarks generell abzuschaffen.
Wenn man dieses aber tut, wie soll man dann sonst vergleichen ?
Gar nicht mehr ?
Hmmm...

Mich würde echt interessieren, was dabei heraus kommt.

In diesem Sinne

Razor