PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bildqualität. Das unbekannte Wesen?


Demirug
2004-07-07, 15:11:09
„Was gleich heißt muss auch gleich aussehen“ war und ist das Motto bei vielen Vergleichstests die man derzeit für Grafikkarten findet. Dieser Sachverhalt ist natürlich auch den Chipherstellern nicht verborgen geblieben. So ist es nicht verwunderlich das von Zeit zu Zeit mit einem neuen Treiber oder bei der Einführung eines neuen Chips ein bekannter Modus plötzlich etwas anderes tut. Vorzugsweise natürlich etwas das zu einer höheren FPS-Zahl in den allseits beliebten Benchmarks führt.

Damit rückt nun ein Problem in die Betrachtung das man eigentlich schon länger hätte auf die Tagesordnung setzen müssen. Die Vergleichbarkeit von unterschiedlichen Techniken bei bildverbessernden Maßnahmen. Leistungsvergleiche ohne diese Maßnahmen sind heute gerade bei den Highend Karten in der Regel sinnlos geworden. Die Karten haben einfach zu viel Leistung für die CPUs mit denen sie zusammenarbeiten müssen. Mit diesen Maßnamen leidet aber die Vergleichbarkeit da nicht in alle Verfahren den gleiche Aufwand zur Sicherung der Bildqualität betreiben. Eine Zwickmühle aus der man natürlich leicht entkommen kann wenn man den unterschiedlichen Verfahren aufgrund einiger Screenshots als identisch in der Qualität deklariert. Damit hat meine eine der Variablen ausgeschaltet und kann sich wieder auf das bekannte Benchmarken begrenzen. Wirklich verurteilen kann man diese Vorgehensweise auch nicht den es gibt keinen allgemein gültigen Maßstab für die Bildqualität. Aus diesem Grund darf sich auch jeder zur Autorität erklären und per unbegründetem Beschluss visuell unterschiedlichen Bildern eine identische Bildqualität bescheinigen. In einer Welt in der man versucht FPS auf Kommastellen genau zu bestimmen mutet das beurteilen der Bildqualität per Augenmass trotzdem etwas seltsam an.

Um aus dieser Ecke heraus zu kommen präsentierte man den Ansatz bei dem das Bild welches eine Karte produziert mit einer Referenz verglichen wird. Ein solcher optischer Bildvergleich ist nachvollziehbar und vor allem völlig objektiv reproduzierbar. Man kann sich nun natürlich noch über die Art der Gewichtung der Bildunterschiede streiten. Allerdings entsteht das wirkliche Problem bereits früher. Als Quelle für die Referenz stehen nur die zu untersuchenden Chips und wenige reine Softwareimplementierungen der entsprechenden APIs zur Verfügung. Unter DirectX wird ja bevorzugt auf den sogenannten Referenz Rasterierer (kurz Refrast) als Quelle zurückgegriffen. Dieser erzeugt auch ein korrektes Bild. Korrekt bedeutet hier allerdings nur das es den Ansprüchen der Spezifikation genügt. Im Bezug auf die Filterqualität ist DirectX sehr großzügig. Entsprechend nutzt der Refrast auch keine hochqualitativen Filterfunktionen. Als Referenz für hochwertige Bildqualität ist er damit leider nicht zu gebrauchen. So scheitert derzeit ein Referenzvergleich an einer hochwertigen Referenz die man als Maßstab betrachten könnte.

So bleibt die Bildqualität ein unbekanntes Wesen das sich einer objektiven Betrachtung auch weiterhin erfolgreich entziehen kann.

Die Aufgabe dieses Threads soll es nun nicht sein der Diskussion über die Bildqualität einzelner Lösungen eine neue Plattform zu bieten. Vielmehr soll er dazu einladen eine Lösung zu finden wie man die Bildqualität so beurteilen kann das eine Mehrheit das Verfahren mitträgt und das Ergebnis, wie es dann auch immer aussehen mag, anerkennt.

tombman
2004-07-07, 15:29:49
ALso mir fallen da 2 Methoden ein.


1.) Man läßt einfach sehr viele Leute die BQ anhand von reinem Augenmaß beurteilen und bildet dann den Durchschnitt aller Meinungen.

Upps, des wird ja schon gemacht...

2.) Hmm, wie wärs mit der Methode zur Qualitätsbestimmung:

Man bestimmt aus einer Gruppe von Leuten Gurus oder Spezialisten, die genau mit der BQ-Technik der Chips vertraut sind. Dann läßt man diese eine Meinung bilden und diese den anderen kundtun.

Als Beweis für die beste BQ kann man ja dann auf die Meinung und technische Erklärung der Gurus zurückgreifen.

Aber irgendwie scheint diese Methode auch nicht alle zu befriedigen, oder?

MeLLe
2004-07-07, 15:30:27
Ein schöner Denkanstoß, Demi.

Die Idee mit dem RefRast finde ich persönlich nicht sooo schlecht. Auf Basis dessen könnte man doch einen RefRast schreiben, der eben ein Bild korrekt mit allem Filtering etc. pp. "wie aus'm Schulbuch" rendert, also quasi eine GPU "so wie sie eigentlich sein sollte", simuliert.
Dann hätte man mittels Differenzbildern zumindest eine erste, objektive Möglichkeit des BQ-Vergleichens.

MadMan2k
2004-07-07, 15:35:01
statt des Refrastes könnte man auch eine Referenzkarte festlegen, bei der (weitesgehend) sichergestellt werden kann, dass sie ein korrektes Bild liefert.
In Frage kommen für mich Profi-Karten wie z.B. eine 3DLabs WildCat, da in diesem Segment die Bildqualität vorrangig ist.

Alternativ könnte sich auch jemand einen ordentlichen Refrast schreiben - den Grundstein hast du ja schon durch das Aufzeichnen der vom Programm angeforderten Daten gelegt.

Jedenfalls ist eine objektive Beurteilung mMn nur durch einen Vergleich zu einem Referenzbild möglich.

DanMan
2004-07-07, 15:49:48
Hat OpenGL keinen "RefRast"?

Wenn man doch nur eine Szene in einem Spiel raytracen könnte... :D

Der Vorschlag mit der Profikarte klingt auch nett. Bringt aber nix, wenn der verwendete Treiber der gleiche (ähnliche) ist, wie bei den nV Karten IMO.

RLZ
2004-07-07, 16:06:16
Naja viele Möglichkeiten gibts da nicht.
Meine Vorgehensweise wars bis jetzt immer Leute, die von Computergrafik eigentlich keinen Plan haben, mehrere Bilder vorzusetzen und die urteilen zu lassen was besser aussieht. Sie sind weniger voreingenommen und versuchen nicht zwanghaft irgendwas zu erkennen.

Original geschrieben von DanMan
Wenn man doch nur eine Szene in einem Spiel raytracen könnte... :D


Das dürfte weniger das Problem sein.Aber man hat dort das Filterproblem genauso.
Bildqualität ist nunmal subjektiv und von Mensch zu Mensch verschieden. Da kann man kein Maximum definieren...

reunion
2004-07-07, 16:18:54
Bildqualiät ist subjektiv, das ist so und wird auch immer so bleiben. Die beste Lösung ist AFAIK noch immer so wie es 3dc auch macht sowohl technisch als auch subjektiv möglichst ähnlich Verfahren gegeneinanderzubenchen. 100%ige vergleichbarkeit wird man sowieso nie bekommen...

just me, just reu

Tjell
2004-07-07, 16:29:33
Schönes OT-Beispiel:

Mein Chef schaut bei jedem Digicam-Bild auf Bildrauschen, Farbsäume etc. pp. Der schaut fast garnicht mehr auf das letztendliche Motiv. Während ich ein gut gemachtes Foto betrachte sucht er ständig nach "technischen Dingen".

Was will ich damit sagen? Sachlich und fachlich hat er den Durchblick, kann durch dieses Wissen allerdings nur noch sagen, woran es hapert.

Übertragen auf die Bildqualität der Grafikkarten bedeutet das, daß Leute mit solchem Insiderwissen ruhig auf noch so kleine Unterschiede hinweisen dürfen und es auch sollten.

Ob man dann auch zu einem "Haar-in-der-Suppe"-Klauber mutiert oder man weiterhin nur ein ungetrübtes flüssiges Spielvergnügen genießen will, ist jedem selbst hinterlassen.

Also: Fakten auf den Tisch - Meinung bitte jedem selbst überlassen.



P.S. Ich weiß nun bei Fotos auch, wohin ich schauen muß, um Stärken oder Schwächen der Digicam zu entdecken, dennoch kann ich genauso unbeschwert einfach nur "Bilder anschauen".

Corrail
2004-07-07, 16:31:29
Original geschrieben von DanMan
Hat OpenGL keinen "RefRast"?

Nein, aber es gibt Mesa3D. Das ist ein Software OpenGL Treiber. Nur hat der leider nicht alle Features. z.B. fehlt Anisotrope Filterung, ...


Dann hätte man mittels Differenzbildern zumindest eine erste, objektive Möglichkeit des BQ-Vergleichens.


Das Problem bei Differenzbilder ist meiner Meinung nach dass es bestimmte Qualitätsunterschiede gibt, wo zwar größere Abweichungen vom Referenzbild vorhanden sind, aber die subjektiv doch besser ausschauen. IMHO reicht ein reiner Differenzbild-Vergleich nicht aus um die Bildqualität zu bestimmen.
Ein kurzes Beispiel dazu:
Angenommen ein Grafikchip (ist eine Annahme, nicht Realität ;)) hat eine guten Filter implementiert, der in verschiedensten Situationen sehr gute Filterleistungen hervorbringt, dafür aber die Textur ein wenig verzerrt (geringfügig, so dass es mit dem Auge schwer erkennbar ist).
Ist das dann im Endeffekt ein guter Filter? Wenn ja, wie will man das mit dem Differenzbild zeigen?

Es mag zwar ein blödes Beispiel sein, aber es zeigt gut die Schwächen von einem direkten (pixel-genauem) Differenzbild.
Eine Lösung wäre da eine intellegente Software über die Bider laufen zu lassen, die Muster erkennt und die Differenz nach diesen Mustern bestimmt.

Aquaschaf
2004-07-07, 17:55:01
Ich denke man muss beim BQ-Vergleich auch irgendwie von Standbildern wegkommen. Das LOD beim R420 sieht auf einem Standbild gut aus, in Bewegung stört es.

Tigerchen
2004-07-07, 18:19:22
Original geschrieben von Demirug
„Was gleich heißt muss auch gleich aussehen“ war und ist das Motto bei vielen Vergleichstests die man derzeit für Grafikkarten findet. Dieser Sachverhalt ist natürlich auch den Chipherstellern nicht verborgen geblieben. So ist es nicht verwunderlich das von Zeit zu Zeit mit einem neuen Treiber oder bei der Einführung eines neuen Chips ein bekannter Modus plötzlich etwas anderes tut. Vorzugsweise natürlich etwas das zu einer höheren FPS-Zahl in den allseits beliebten Benchmarks führt.

Damit rückt nun ein Problem in die Betrachtung das man eigentlich schon länger hätte auf die Tagesordnung setzen müssen. Die Vergleichbarkeit von unterschiedlichen Techniken bei bildverbessernden Maßnahmen. Leistungsvergleiche ohne diese Maßnahmen sind heute gerade bei den Highend Karten in der Regel sinnlos geworden. Die Karten haben einfach zu viel Leistung für die CPUs mit denen sie zusammenarbeiten müssen. Mit diesen Maßnamen leidet aber die Vergleichbarkeit da nicht in alle Verfahren den gleiche Aufwand zur Sicherung der Bildqualität betreiben. Eine Zwickmühle aus der man natürlich leicht entkommen kann wenn man den unterschiedlichen Verfahren aufgrund einiger Screenshots als identisch in der Qualität deklariert. Damit hat meine eine der Variablen ausgeschaltet und kann sich wieder auf das bekannte Benchmarken begrenzen. Wirklich verurteilen kann man diese Vorgehensweise auch nicht den es gibt keinen allgemein gültigen Maßstab für die Bildqualität. Aus diesem Grund darf sich auch jeder zur Autorität erklären und per unbegründetem Beschluss visuell unterschiedlichen Bildern eine identische Bildqualität bescheinigen. In einer Welt in der man versucht FPS auf Kommastellen genau zu bestimmen mutet das beurteilen der Bildqualität per Augenmass trotzdem etwas seltsam an.

Um aus dieser Ecke heraus zu kommen präsentierte man den Ansatz bei dem das Bild welches eine Karte produziert mit einer Referenz verglichen wird. Ein solcher optischer Bildvergleich ist nachvollziehbar und vor allem völlig objektiv reproduzierbar. Man kann sich nun natürlich noch über die Art der Gewichtung der Bildunterschiede streiten. Allerdings entsteht das wirkliche Problem bereits früher. Als Quelle für die Referenz stehen nur die zu untersuchenden Chips und wenige reine Softwareimplementierungen der entsprechenden APIs zur Verfügung. Unter DirectX wird ja bevorzugt auf den sogenannten Referenz Rasterierer (kurz Refrast) als Quelle zurückgegriffen. Dieser erzeugt auch ein korrektes Bild. Korrekt bedeutet hier allerdings nur das es den Ansprüchen der Spezifikation genügt. Im Bezug auf die Filterqualität ist DirectX sehr großzügig. Entsprechend nutzt der Refrast auch keine hochqualitativen Filterfunktionen. Als Referenz für hochwertige Bildqualität ist er damit leider nicht zu gebrauchen. So scheitert derzeit ein Referenzvergleich an einer hochwertigen Referenz die man als Maßstab betrachten könnte.

So bleibt die Bildqualität ein unbekanntes Wesen das sich einer objektiven Betrachtung auch weiterhin erfolgreich entziehen kann.

Die Aufgabe dieses Threads soll es nun nicht sein der Diskussion über die Bildqualität einzelner Lösungen eine neue Plattform zu bieten. Vielmehr soll er dazu einladen eine Lösung zu finden wie man die Bildqualität so beurteilen kann das eine Mehrheit das Verfahren mitträgt und das Ergebnis, wie es dann auch immer aussehen mag, anerkennt.

Wenn verschiedene Weine, Kaffee's, Praline's oder sogar einfache Mineralwässer getestet werden verheimlicht man den Testpersonen was sie da verkosten. Man setzt ihnen was vor und sie können dann bewerten was sie da essen. Sowas kann man natürlich auch mit Grafikkarten machen. 4 gleiche Rechner mit 4 unterschiedlichen Grafikkarten und identischen Demos. Die Probanden wechseln von Rechner zu Rechner und bewerten was sie da sehen. Nur so kann man subjektives Empfinden einigermassen objektiv bewerten.

Tjell
2004-07-07, 18:24:48
Original geschrieben von Tigerchen

Wenn verschiedene Weine, Kaffee's, Praline's oder sogar einfache Mineralwässer getestet werden verheimlicht man den Testpersonen was sie da verkosten. Man setzt ihnen was vor und sie können dann bewerten was sie da essen. Sowas kann man natürlich auch mit Grafikkarten machen. 4 gleiche Rechner mit 4 unterschiedlichen Grafikkarten und identischen Demos. Die Probanden wechseln von Rechner zu Rechner und bewerten was sie da sehen. Nur so kann man subjektives Empfinden einigermassen objektiv bewerten.


Ich würde glatt ne Kiste Bier verwetten, daß solche Probanden nach der BQ gefragt in 90 % der Fälle diese als gut bezeichnen würden.

Wie ich an anderer Stelle bereits sagte, ich kenne einige altgediente Zocker aus meinem Freundeskreis - ob AA und AF an oder aus ist, bekommen die garnicht mit. Geschweige denn, daß sie überhaupt wüßten, was das ist. Und dann sollen solche Leute ihr Empfinden mitteilen, wie sie die BQ beurteilen würden? Ne, eher sinnlos.


P.S. Ich meinte "Probanden", nicht "PObanden".

Ranz0r
2004-07-07, 18:40:49
Original geschrieben von Tjell
Ich würde glatt ne Kiste Bier verwetten, daß solche Pobanden nach der BQ gefragt in 90 % der Fälle diese als gut bezeichnen würden.

Wie ich an anderer Stelle bereits sagte, ich kenne einige altgediente Zocker aus meinem Freundeskreis - ob AA und AF an oder aus ist, bekommen die garnicht mit. Geschweige denn, daß sie überhaupt wüßten, was das ist. Und dann sollen solche Leute ihr Empfinden mitteilen, wie sie die BQ beurteilen würden? Ne, eher sinnlos.


Setzt Profis an die Rechner und sagt ihnen nicht, womit sie es zu tun haben. Wenn man wirklich etwas sehen kann, dann wird es ihnen auffallen.

Tjell
2004-07-07, 18:45:01
Das wäre einen Versuch wert.

Tigerchen
2004-07-07, 19:54:56
Original geschrieben von Tjell
Ich würde glatt ne Kiste Bier verwetten, daß solche Probanden nach der BQ gefragt in 90 % der Fälle diese als gut bezeichnen würden.

Wie ich an anderer Stelle bereits sagte, ich kenne einige altgediente Zocker aus meinem Freundeskreis - ob AA und AF an oder aus ist, bekommen die garnicht mit. Geschweige denn, daß sie überhaupt wüßten, was das ist. Und dann sollen solche Leute ihr Empfinden mitteilen, wie sie die BQ beurteilen würden? Ne, eher sinnlos.


P.S. Ich meinte "Probanden", nicht "PObanden".

Du kannst ruhig Leute wie aths, ow, Lovesuckz oder Richthofen nehmen. Entscheidend ist das die Leute nicht wissen von welchem Hersteller die Grafikkarte kommt die da das Bild vor ihnen erzeugt.

Tjell
2004-07-07, 19:59:53
Ich unterstellte dummerweise, daß es dann so ablaufen solle, wie bei sonstigen Produkttests, wo dann "Otto-Normalverbraucher" auf die Testobjekte losgelassen werden. ;)

Xmas
2004-07-07, 20:14:13
Original geschrieben von tombman
1.) Man läßt einfach sehr viele Leute die BQ anhand von reinem Augenmaß beurteilen und bildet dann den Durchschnitt aller Meinungen.

Upps, des wird ja schon gemacht...
In einer Form die statistisch korrekt ausgewertet werden kann? Wo? Oder meinst du gesammelte Meinungsäußerungen in Foren? Diese eignen sich IMO nicht.
Ein solches Verfahren finde ich aber sinnvoller als der RefRast-Vergleich.

Original geschrieben von MadMan2k
statt des Refrastes könnte man auch eine Referenzkarte festlegen, bei der (weitesgehend) sichergestellt werden kann, dass sie ein korrektes Bild liefert.
In Frage kommen für mich Profi-Karten wie z.B. eine 3DLabs WildCat, da in diesem Segment die Bildqualität vorrangig ist.
3DLabs hat zwar ein wunderbares AA, beim Texturfilter würde ich die WildCat-Karten aber keineswegs als Referenz sehen.

Es gibt aber deutliche Probleme mit dem "RefRast-Ansatz", schon allein bei der Auswertung. Mit welchem Verfahren soll man denn die Differenzen messen?

Radeonator
2004-07-07, 21:02:35
Also ich würde mit diversen Tools testen, um erstmal grundsätzlich mal "Optimierungen" etc. sichtbar zu machen.

Danach das ganze in Praxis testen.

Als Messung, gelten für mich quasi "Selbstverständlichkeiten".

FSAA , soll "jaggies" und "pixilation" bestmöglich unterbinden, um dem Auge möglichst glatte, saubere und moiré freie BQ liefern.

AF soll "entfernte" texturen über alle Mips "clean" filtern. Am besten noch komplett und ohne Winkel "spielereien".

Das beste Bild zeigen IMO vorgerenderte "Kulissen". Gestochen scharf, optimal geglättet.

Man müsste nur noch abstufen, ab wann das EHRLICHE Optimum für die Mehrheit erreicht ist. Ich meine kein "da kann ich mit leben, das merkt man kaum" , sondern objectives Optimum (soweit es geht).

Dazu ist glaube ich jeder dann in der Lage, wenn er Bilder unabhängig betrachten würde. Also einfach Szenen zeigen, OHNE die rendernde GPU kenntlich zu machen. Nach einer ganzen Reihe von Bildern bekommt man dann vielleicht einen Ansatz davon, was die Mehrheit wirklich als, relativ objectiv, optimal ansieht :)

Piffan
2004-07-07, 23:51:52
Und ich sage schon seit Wochen, wenn nicht Monaten schon das Selbe: Lasst Blindtests machen. Einer macht die Einstellungen, der andere weiß weder, welche Karte er hat, noch welche Einstellungen getätigt wurden. Es sollten aber geübte Spieler testen, keine Anfänger.....
Den gleichen Lack hab ich im Nachbarthread auch gepostet. Wer sucht, findet auch einen Post, der schon 1 Monat alt ist. "Gähn"

Eigentlich triviales Thema, aber warum zum Teufel wurde es nie mit Grakas gemacht? Bei Lautsprechern, Kameras, Lebensmitteln, überall praktisch.....
Vielleicht weil manche schon mit den Tests in der CB zufrieden sind?

aths
2004-07-08, 02:38:59
Original geschrieben von Tigerchen
[COLOR="#000088"]
Wenn verschiedene Weine, Kaffee's, Praline's Hab doch Erbarmen! Kaffees und Pralinen, bitte. (Bzw. Pralinés.)
Original geschrieben von Demirug
Vielmehr soll er dazu einladen eine Lösung zu finden wie man die Bildqualität so beurteilen kann das eine Mehrheit das Verfahren mitträgt und das Ergebnis, wie es dann auch immer aussehen mag, anerkennt. Ein Ansatz wäre, einen SW-Renderer zu haben, der möglichst exakt rendert. Alles mit FP64 und so. Anschließend wird diese Referenz pixelweise mit dem Screenshot verglichen, und eine gewichtete Differenz-Summe gibt die Abweichung an. (1 Bit Unterschied wird nicht gezählt, 2 Bit schon, 3 Bit sind schon schlimm etc.)

Natürlich ist der Ansatz impraktikabel, zumal schon ganz leichte Geometrie-Unterschiede an den Rändern zu erheblichen Abweichungen führen können. Außerdem müsste man, um das "echte" Bild zu haben, mit Extrem-Antialiasing rendern.

Imo wäre es praktikabler, zu zeigen, wie sich die Filter bzw. Antialiasing-Maßnahmen in normalen und in schwierigen Fällen schlagen, und prüfen, ob die gleichen Verfahren auch in tatsächlichen Spielen zum Einsatz kommen.

Ist eine gewisse Grundqualität erreicht, bringt selbst erhebliche Präzisionssteigerung fast kein Qualitätsplus mehr. Bei jedem ist die erforderliche Grundqualität eine andere, weshalb es wohl kaum möglich sein wird, breit akzeptierte Kriterien zu schaffen.

Tigerchen
2004-07-08, 06:10:58
Original geschrieben von Tjell
Ich unterstellte dummerweise, daß es dann so ablaufen solle, wie bei sonstigen Produkttests, wo dann "Otto-Normalverbraucher" auf die Testobjekte losgelassen werden. ;)

In der Industrie werden bei Einführung neuer Produkte immer erst Profis genommen. Vor allem bei Lebensmitteln. Gibts sogar Lehrgänge für. Denn auch Geschmack muß man lernen. Später dürfen dann die normalen Leute ran.

Tigerchen
2004-07-08, 06:28:02
Original geschrieben von aths

Ein Ansatz wäre, einen SW-Renderer zu haben, der möglichst exakt rendert. Alles mit FP64 und so. Anschließend wird diese Referenz pixelweise mit dem Screenshot verglichen, und eine gewichtete Differenz-Summe gibt die Abweichung an. (1 Bit Unterschied wird nicht gezählt, 2 Bit schon, 3 Bit sind schon schlimm etc.)

Natürlich ist der Ansatz impraktikabel, zumal schon ganz leichte Geometrie-Unterschiede an den Rändern zu erheblichen Abweichungen führen können. Außerdem müsste man, um das "echte" Bild zu haben, mit Extrem-Antialiasing rendern.

Imo wäre es praktikabler, zu zeigen, wie sich die Filter bzw. Antialiasing-Maßnahmen in normalen und in schwierigen Fällen schlagen, und prüfen, ob die gleichen Verfahren auch in tatsächlichen Spielen zum Einsatz kommen.

Ist eine gewisse Grundqualität erreicht, bringt selbst erhebliche Präzisionssteigerung fast kein Qualitätsplus mehr. Bei jedem ist die erforderliche Grundqualität eine andere, weshalb es wohl kaum möglich sein wird, breit akzeptierte Kriterien zu schaffen.

Daß bei so Dingen wie dem Sehen rein technische Definitionen nicht weiter führen sollte allmählich klar sein. Dann könnte es nämlich passieren daß du Bilder erzeugst die laut technischer Definition ganz toll sind aber beim Anwender nicht so wahrgenommen werden. Das hatten wir auch schon mal. Voodoo-Karten hatten so einen ganz eigenartigen, verwaschenen Voodoo-look. Nach der reinen Lehre inakzeptabel. Aber für viele Fans einfach nur genial!

Gast
2004-07-08, 07:57:41
Original geschrieben von Tigerchen

Daß bei so Dingen wie dem Sehen rein technische Definitionen nicht weiter führen sollte allmählich klar sein. Dann könnte es nämlich passieren daß du Bilder erzeugst die laut technischer Definition ganz toll sind aber beim Anwender nicht so wahrgenommen werden. Das hatten wir auch schon mal. Voodoo-Karten hatten so einen ganz eigenartigen, verwaschenen Voodoo-look. Nach der reinen Lehre inakzeptabel. Aber für viele Fans einfach nur genial!


Ack.

Bei Voodoo war es halt genial, diese krümmelige, mosaikhafte Verpixelung nicht mehr sehen zu müssen, sondern relativ glatte FLächen :)

Theoretisierung bringt bei echter BQ am aller wenigsten. Fehler bzw Optimierungen die ich durch spezielle Tools sichtbar machen muss, sind keine Fehler. Wer sowas macht hat wohl ein anders geartetes Prob, als das er wirklich BQ maximieren will. Es geht hier um in der Praxis !!!wahrnehmbare!!! Werte. Ein Bild wird halt, wie in anderen Threads auch schon angesprochen, dadurch nicht schlechter, weil man in der x-ten Stelle hinter dem Komma oder im 200x Zoom Fehler entdeckt.

q@e
2004-07-08, 08:03:29
Original geschrieben von Tigerchen
[COLOR="#000088"]
Voodoo-Karten hatten so einen ganz eigenartigen, verwaschenen Voodoo-look. Nach der reinen Lehre inakzeptabel. Aber für viele Fans einfach nur genial!
(meine Hervorhebung)

Erstens sprichst du es selbst an: für FANS war es in deren Augen genial und zweitens verstehe in diesem Sinne nicht, wodurch sich dann das Bedürfnis nach anisotroper Texturfilterung bsw. ergeben hat.

Im Grunde genommen entfernt diese ja den "genialen, verwaschenen Voodoo-Look".

Oder kann es einfach sein, daß man einerseits vor der Voodoo-Ära nur Software-Rendering kannte und zweitens, wie du sicher weißt, Voodoos damals einfach mal als Maßstab gegolten haben, egal, ob ihr Verfahren technisch ok war oder einfach nur eine Spar-Approximation?

Oder anders: Saures stört nicht, wenn man kein Süßes kennt.

HOT
2004-07-08, 08:03:46
Ganz verwegene Idee:
Mir fällt da ein BQ Tester wie der in der 3DWinbench2000 ein :D
Der hat eigentlich immer angezeigt, wenn ihm was net gepasst hat und man hat relativ easy rausgefunden, was Sache ist.
Desweiteren könnte man ja einen Refrast für Ogl und DX schreiben, der alle Extensions mit einbindet die möglich sind und Vergleiche anstellt.
Ich bin mir ziemlich sicher, dass so einige Unterschiede durchaus messbar und interprätierbar sind.

mictasm
2004-07-08, 09:07:28
Original geschrieben von q@e
[...]
Oder anders: Saures stört nicht, wenn man kein Süßes kennt.

Das war damals mit Sicherheit so. Gerade am Anfang.

@HOT: So verwegen ist die Idee gar nicht mal. Damals wusste man ja dann genau, was abgebildet werden sollte. Ob das heute allerdings bei manchen Filtern überhaupt möglich ist, sei mal dahingestellt.

Gruß,

MIC

Demirug
2004-07-08, 09:11:38
Dem Refrast ordentliches Texturfiltern beizubringen wäre eigentlich ja nicht so schwer. Allerdings wird das ohne den Quellcode schwer. Seit DX8 gibt MS den leider nicht mehr allgemein heraus.

HOT
2004-07-08, 09:17:06
Original geschrieben von mictasm
Das war damals mit Sicherheit so. Gerade am Anfang.

@HOT: So verwegen ist die Idee gar nicht mal. Damals wusste man ja dann genau, was abgebildet werden sollte. Ob das heute allerdings bei manchen Filtern überhaupt möglich ist, sei mal dahingestellt.

Gruß,

MIC

Warum denn nicht? Die Winbench kann gerade Filter gut untersuchen.

Radeonator
2004-07-08, 09:18:52
Was bringen dir theoretische Werte, BQ ist in Praxis wichtig, nicht in theorie...wie ich oben bereitsch schrieb : Dinge die ich erst unter 200x zoom oder mittels spezieller Software sichtbar machen muss, sind in der Praxis irrelevant!!!

Ein refrast ist nicht schlecht, aber kann man darüber die BQ bestimmen, ehrlich gesagt, ich denke nicht.

*edit -> Satz ins deutsche übersetzt ;) *

Zum einen weil viele Effekte vielleicht nicht durch Standard Vorgaben, sondern Abweichungen derer entstehen und wenn sie dann nicht ins refrast passen, heisst das nicht zwangsweise das die BQ leidet.

seahawk
2004-07-08, 09:33:01
Vielleicht sollte man sich auch einigen, dass es keine absolute BQ gibt.
Nur, wenn man deutliche Unterschiede sieht bzw. Artefakte auftreten, dann sollte man die BQ schlechter nennen.
Wenn sich z.B. die BQ im Vergleich zur Vorgängergeneration egativ verändert, dann kann man von einer Verlust an BQ sprechen.
So etwas zu bewerten ist imho, allerdings schwierig da dabei wieder die subjektive Wahrnehmung entscheidet. Wichtig ist nur die Karten bei vergleichbaren Settings zu testen.

anorakker
2004-07-08, 10:00:23
imho können eigentlich nur die entwickler selber ein klares urteil zur bildqualität abgeben, schliesslich sollten die ja wissen, wie es im idealfall auszusehen hat. ob die aber auch ein objektives statement, losgelöst von allen vertraglichen zwängen, in der öffentlichkeit abgeben, steht auf einem anderen blatt.

die allgemeinheit zur bq zu befragen macht imho auch keinen sinn, dass weiss man doch spätestens nach den komplett auseinandergehenden meinungen zu den fps. der eine findet es "flüssig", der andere behauptet es wäre unspielbar wg. diashow...

den ansatz mit dem "blindtest" finde ich aber auch einigermassen gut, wäre interressant zu sehen, was dabei herauskommt (am besten halt mit entwicklern ;)

MeLLe
2004-07-08, 10:11:31
Original geschrieben von Demirug
Dem Refrast ordentliches Texturfiltern beizubringen wäre eigentlich ja nicht so schwer. Allerdings wird das ohne den Quellcode schwer. Seit DX8 gibt MS den leider nicht mehr allgemein heraus.
Du sprichst von "nicht allgemein" ... und speziell? ;)
Gibt es einen Weg, die Sources zum RefRast von MS zu bekommen?

Für OpenGL könnte man ja mit MESA as Ausgangsbasis auch einiges tun, wie einige schon angedeutet haben.

Zumindest wäre es ein Anfang. Ob es auch ein gangbarer Weg wäre, kann eh nur zeigen, wenn man es überhaupt erst versucht!

Demirug
2004-07-08, 11:02:00
Den absoluten Texturefilter gibt es schon. Allerdings ist der dermassen aufwendig das man das nicht mal zum Erzeugen von Referenzbilder im grossen Still wirklich nutzen kann. Es macht ja keinen Sinn jetzt nur ein paar wenige Bilder zu vergleichen.

@MeLLe, wenn man selbst Grafikchips entwickelt und eine NDA unterschreibt bekommt man den Sourcecode des Refrast.

seahawk: "Wichtig ist nur die Karten bei vergleichbaren Settings zu testen."

Ich denke genau da liegt das Problem. In wie weit ist 8xAF von IHV A mit 8xAF von IHV B als vergleichbar zu sehen. Bildqualität ist ja leider keine lineare Angelegenheit sondern eher expotenial. Je näher man dem Ideal kommen will desto grösser wird der Aufwand den man treiben muss. Das bringt uns dann zur Frage was tun wenn man keine vergleichbaren Settings findet? In diesem Fall müsste man IMHO den unterschied zwischen den Settings irgendwie quantifizieren. Das kann auch durchaus Sinn machen im Bezug auf die unterschiedlichen Modies der selben Karte. Also um wie viel besser wird das Bild bei Setting X gegenüber Setting Y und wie viel muss man dafür in Form von FPS verlust zahlen?

seahawk
2004-07-08, 11:48:32
Demi,

ich kann mir vorstellen welches Problem das ist. Imho wird die BQ nie die Wichtigkeit erhalten, die ihr zusteht. Der Käufer will Speed und nur Speed. Man sieht es hier im Forum, die Balkenlänge zählt.
Im Zweifelsfall muss man bei Test eben alle BQ hebenden Mittel (AA+AF) abschalten und bencht dann ohne alles. Wird zwar auch sinnlos, aber was will man machen? Irgendwann testet man dann no AA+AF mit BiFiliterung in 2048 oder mehr. Der Praxisbezug geht dann wahrscheinlich flöten.
Ich persönlich denke, dass die Erklärung der theoretischen Funktionsweise der Algorythmen ein Weg ist. Wenn man so nachweißt, dass eine Lösung schlechter als die andere ist, dann sollte das schlüssig sein. Leider beweisen hier genug Threads, das dem nicht so ist.
Eine Patentlösung hat wohl momentan niemand.

HOT
2004-07-08, 11:51:57
Original geschrieben von seahawk
Demi,

ich kann mir vorstellen welches Problem das ist. Imho wird die BQ nie die Wichtigkeit erhalten, die ihr zusteht. Der Käufer will Speed und nur Speed. Man sieht es hier im Forum, die Balkenlänge zählt.
Im Zweifelsfall muss man bei Test eben alle BQ hebenden Mittel (AA+AF) abschalten und bencht dann ohne alles. Wird zwar auch sinnlos, aber was will man machen? Irgendwann testet man dann no AA+AF mit BiFiliterung in 2048 oder mehr. Der Praxisbezug geht dann wahrscheinlich flöten.
Ich persönlich denke, dass die Erklärung der theoretischen Funktionsweise der Algorythmen ein Weg ist. Wenn man so nachweißt, dass eine Lösung schlechter als die andere ist, dann sollte das schlüssig sein. Leider beweisen hier genug Threads, das dem nicht so ist.
Eine Patentlösung hat wohl momentan niemand.

Das war bisher so. Aber gerade diese Diskussion zeigt doch, dass es Leute gibt, die sich dafür eben doch interessieren. Und der 61.34 zeigt doch, dass es sogar ankommt bei den Herstellern (na ja bei einem :D).
Die BQ wird in Zukunft immer mehr ne Rolle spielen, weil man eben nurnoch mit Bildqualitätsteigernden Massnahmen vernünftige Vergleichsergebnisse erzielen kann.

MeLLe
2004-07-08, 12:37:54
Original geschrieben von Demirug
@MeLLe, wenn man selbst Grafikchips entwickelt und eine NDA unterschreibt bekommt man den Sourcecode des Refrast.
Und wenn man ihn "einfach so" haben möchte - als Softwareentwickler zu Beispiel? Nix zu machen? Auch nicht per NDA?

Wolltest du nicht mal nen Grafikchip zu Papier bringen? :D

LovesuckZ
2004-07-08, 13:24:34
Original geschrieben von HOT
Die BQ wird in Zukunft immer mehr ne Rolle spielen, weil man eben nurnoch mit Bildqualitätsteigernden Massnahmen vernünftige Vergleichsergebnisse erzielen kann.

Eine GF3 ist 3 Jahre alt und filtert im Defaultzustand, vorallem beim AF deutlich besser als die heutigen 500€ Karten. Man sieht, dass trotz steigender Rohleistung die AF Qualitaet zurueckgedreht wurde (bei Nvidia ab FX).
Ati dagegen hat doch nie richtiges AF angeboten. Seit dem r100 war es immer stark winkelabhaengig und dazu noch limitiert auf "Bilinear". Und nach einen kleinen Anflug von Wahn, anders kann man "trilinear" und geringere Winkelabhaengigkeit beim r300 nicht bezeichnen, geht man doch dahin zurueck: Weniger Qualitaet fuer den "blinden" ATi user, der sowieso nur Speed sieht.
Achja, und solange wie ein Grafikchiphersteller die schlechtere Karte hat, werden wir mit solchen Massnahmen leben muessen.

Demirug
2004-07-08, 13:27:03
Original geschrieben von MeLLe
Und wenn man ihn "einfach so" haben möchte - als Softwareentwickler zu Beispiel? Nix zu machen? Auch nicht per NDA?

Wolltest du nicht mal nen Grafikchip zu Papier bringen? :D

Das habe schon andere versucht. MS rückt den Code nicht mehr raus.

HOT
2004-07-08, 13:39:56
Original geschrieben von LovesuckZ
Eine GF3 ist 3 Jahre alt und filtert im Defaultzustand, vorallem beim AF deutlich besser als die heutigen 500€ Karten. Man sieht, dass trotz steigender Rohleistung die AF Qualitaet zurueckgedreht wurde (bei Nvidia ab FX).
Ati dagegen hat doch nie richtiges AF angeboten. Seit dem r100 war es immer stark winkelabhaengig und dazu noch limitiert auf "Bilinear". Und nach einen kleinen Anflug von Wahn, anders kann man "trilinear" und geringere Winkelabhaengigkeit beim r300 nicht bezeichnen, geht man doch dahin zurueck: Weniger Qualitaet fuer den "blinden" ATi user, der sowieso nur Speed sieht.
Achja, und solange wie ein Grafikchiphersteller die schlechtere Karte hat, werden wir mit solchen Massnahmen leben muessen.

Ist doch aufgefallen oder net? Also? Es wird also sehr wohl auf die Bildqualität geguckt. An sonsten würden wir ja wohl kaum diese Diskussion hier führen.

Desti
2004-07-08, 13:51:25
Um Bildqualität zu prüfen, darf es kein bestimmtes Programm geben, die Grafikchiphersteller werden sonst die Chips um das Programm herum designen, bzw. Wege finden, es per Treiber zu überlisten.

ironMonkey
2004-07-08, 14:12:56
Winkelabhängigkeit kann man nicht umgehen.


Gruß

MeLLe
2004-07-08, 14:29:24
Original geschrieben von Desti
Um Bildqualität zu prüfen, darf es kein bestimmtes Programm geben, die Grafikchiphersteller werden sonst die Chips um das Programm herum designen, bzw. Wege finden, es per Treiber zu überlisten.
Das wäre denke ich das kleinste Übel, da kann man geeignet gegensteuern.

Xmas
2004-07-08, 15:22:46
Original geschrieben von Demirug
Den absoluten Texturefilter gibt es schon.
Wirklich? ;)
Müsste es dafür nicht erst einmal eine allgemein gültige und akzeptierte Definition davon geben, was die "richtigen" Zwischenwerte sind?
Ist ein Texel ein Punkt oder ein Quadrat?

Gast
2004-07-08, 15:33:55
Original geschrieben von Xmas
Wirklich? ;)
Müsste es dafür nicht erst einmal eine allgemein gültige und akzeptierte Definition davon geben, was die "richtigen" Zwischenwerte sind?
Ist ein Texel ein Punkt oder ein Quadrat?

Oder ein Kreis?;)

Demirug
2004-07-08, 15:34:58
Original geschrieben von Xmas
Wirklich? ;)
Müsste es dafür nicht erst einmal eine allgemein gültige und akzeptierte Definition davon geben, was die "richtigen" Zwischenwerte sind?
Ist ein Texel ein Punkt oder ein Quadrat?

sinc(x) ist allgemein als der optimale Rekonstruktionsfilter anerkannt.

Gast
2004-07-08, 15:37:57
Und was verbirgt sich hinter sinc(x)? (mathematisch)

Xmas
2004-07-08, 15:41:25
sinc(x) = sin(x)/x, auch Spaltfunktion genannt.

Trifft IMO aber auf viele Texturinhalte gar nicht zu, weil sie nicht im signaltheoretischen Sinne gesampelt wurden.

Piffan
2004-07-08, 19:57:58
Tja, was nützt mir der theoretische oder messbare Vorsprung eines Verfahrens, wenn er nicht oder kaum wahrnehmbar ist? Wichtiger als die absolute Präzision ist auch noch der Deal zwischen Performance und BQ!

Darum wäre ja ein Blindtest (bei der die Jury weder Hersteller noch Filterverfahren kennt) gut geeignet, um vergleichbare BQs zu ermitteln. Im zweiten Schritt kann dann die "Rangfolge" aufgrund des Performancedrops erstellt werden...

Jesus
2004-07-08, 20:15:33
Original geschrieben von Piffan
Tja, was nützt mir der theoretische oder messbare Vorsprung eines Verfahrens, wenn er nicht oder kaum wahrnehmbar ist? Wichtiger als die absolute Präzision ist auch noch der Deal zwischen Performance und BQ!

Darum wäre ja ein Blindtest (bei der die Jury weder Hersteller noch Filterverfahren kennt) gut geeignet, um vergleichbare BQs zu ermitteln. Im zweiten Schritt kann dann die "Rangfolge" aufgrund des Performancedrops erstellt werden...

full ack.

aths
2004-07-08, 20:49:05
Original geschrieben von Piffan
Darum wäre ja ein Blindtest (bei der die Jury weder Hersteller noch Filterverfahren kennt) gut geeignet, um vergleichbare BQs zu ermitteln. Im zweiten Schritt kann dann die "Rangfolge" aufgrund des Performancedrops erstellt werden... Mich interessiert der Performance-Drop nicht, sondern die Performance bei bestimmten BQ-Settings. Ob dafür viel oder wenig Leistung zu opfern ist, ist mir egal, interessant ist eher "was hinten rauskommt".

Piffan
2004-07-08, 21:30:09
Original geschrieben von aths
Mich interessiert der Performance-Drop nicht, sondern die Performance bei bestimmten BQ-Settings. Ob dafür viel oder wenig Leistung zu opfern ist, ist mir egal, interessant ist eher "was hinten rauskommt".

Verstehe nicht ganz den Inhalt :kratz:

Verstehe ich es richtig, dass die Qualität Vorrang vor allem hat? Und am Ende die absolute Performance interessiert, egal wie hoch der Einbruch ist?

Naja, ist ja schön. Aber wenn ich ein Rating aufstellen will, dann halte ich den vorausgehenden Blindtest für sinnvoll. Denn mich interessieren nicht die nominal- Settings oder die Techniken hinter den Settings, sondern die tatsächliche BQ.
Weil die BQ aber recht subjektiv ist, der Blindtest....Ein echter Teufelskreis, harhar....

q@e
2004-07-08, 22:14:50
Nein, der "Drop" ist irrelevant - also, wieviel Leistung verloren geht. Wichtig ist, was danach noch übrig bleibt.

MadMan2k
2004-07-08, 22:22:52
ein Blindtest ist imo ungeeignet, da die Testpersonen, besonders die Unerfahrenen, die wahrgenommeme Bildqualität nicht fein genug Rastern können um selbst bei kleinsten Unterscheiden den Sieger küren zu können.

Ein Differentialbild kann das. :D
Natürlich darf auch hier nicht stur nach Abweichung in % kategorisiert werden - es muss noch überprüft werden, was sie zur Folge haben.

Tigerchen
2004-07-09, 07:21:08
Original geschrieben von q@e
(meine Hervorhebung)

Erstens sprichst du es selbst an: für FANS war es in deren Augen genial und zweitens verstehe in diesem Sinne nicht, wodurch sich dann das Bedürfnis nach anisotroper Texturfilterung bsw. ergeben hat.

Im Grunde genommen entfernt diese ja den "genialen, verwaschenen Voodoo-Look".

Oder kann es einfach sein, daß man einerseits vor der Voodoo-Ära nur Software-Rendering kannte und zweitens, wie du sicher weißt, Voodoos damals einfach mal als Maßstab gegolten haben, egal, ob ihr Verfahren technisch ok war oder einfach nur eine Spar-Approximation?

Oder anders: Saures stört nicht, wenn man kein Süßes kennt.

Machs dir doch nicht so schwer. Voodoo war nur ein Beispiel. Damals gabs ja noch kein AF. Ich wollte damit nur verdeutlichen daß das Empfinden der Leute sich eben nicht auf die Frage des technischen Hintergrundes reduzieren läßt mit dem ein Bild gerendert wird.

Was in den Bereichen sehen, schmecken, hören und riechen fällt läßt sich nicht allgemeingültig aus einer Formel ableiten. Dafür gibts Blindtests.

Tigerchen
2004-07-09, 07:29:11
Original geschrieben von MadMan2k
ein Blindtest ist imo ungeeignet, da die Testpersonen, besonders die Unerfahrenen, die wahrgenommeme Bildqualität nicht fein genug Rastern können um selbst bei kleinsten Unterscheiden den Sieger küren zu können.

Ein Differentialbild kann das. :D
Natürlich darf auch hier nicht stur nach Abweichung in % kategorisiert werden - es muss noch überprüft werden, was sie zur Folge haben.

Zu technisch.
Es geht ja auch nicht darum nun irgendeinen Deppen von der Straße testen zu lassen. Dem wird ja auch nicht zugemutet verschiedene Pralinen zu testen und zu bewerten. Dafür gibts schon Leute die durchaus in der Lage sind blind Unterschiede rauszuschmecken.

Wenn Unterschiede ohnehin nur mit besonderen Verfahren zu erkennen sind dann ist die BQ-Qualitätsdiskussion überflüssig. Das interessiert vielleicht einen kleinen Zirkel, aber für die Mehrheit ist dies einfach nur verrückt.

Gohan
2004-07-09, 11:51:27
Leute, on Topic bitte!

aths
2004-07-09, 12:27:29
Original geschrieben von Xmas
Wirklich? ;)
Müsste es dafür nicht erst einmal eine allgemein gültige und akzeptierte Definition davon geben, was die "richtigen" Zwischenwerte sind?
Ist ein Texel ein Punkt oder ein Quadrat? Liefert bilinear nicht für beide Annahmen ein zulässiges Ergebnis?

ShadowXX
2004-07-09, 12:33:42
Original geschrieben von q@e
Das _ist_ On-Topic, Gohan:

"Vielleicht wird das "Empfinden" der Leute aber auch durch Lektüre entsprechender Publikationen beeinflusst, oder dadurch, daß man eben unzureichende Ahnung von der Materie hat, sei es durch Desinteresse oder durch bewußtes Vorenthalten von Information."

...

Genau..ich finde es auch On-Topic...

Wodurch entstehen den die (ich sage das jetzt mal absichtlich) teilweise verzerrten Testergebnisse der verschiedenen Review-Sites???

Wodurch entstehen Meinungen wie 8xAF ist überall gleich (also auf allen Grakas gleichwertig)??

Es sind gegenseitige Beeinflussungen und der Wunsch von vielen nV ans Bein zu Pinkeln...
Viele Reviewer gehen gleich schon mit der Meinung "nV ist sowieso böse" an die Tests ran....und wenn der ATI-Balken dann auch gleich noch 30% länger ist wird sich diebisch gefreut...aber nach dem warum, fragt niemand...hauptsache ATI hat gewonnen...eagl wie.

Es ist dann egal wie die BQ aussieht....und da viele Reviewer keine Ahnung haben kommen dann solche sachen wie...die BQ ist gleich...denn die Einstellungen sind ja gleich.
Und sowas wird von denen, die ATI (aus welchen Grund auch immer) die Stange halten, dann gierig aufgesogen, als absolute Wahrheit ins Gehirn eingebrannt und jeder, der was anderes sagt lügt dann...

Guck dir doch mal die Tests von GameStar und Co. an....ATIs Balken war länger, damit ist Sie automatsich die bessere Karte...die BQ vergleiche waren lächerlich und extrem oberflächlich..aber solche Magazine Bilden die Meinung, den wenn GS sagt die nV ist schei**e, dann muss das ja wohl stimmen...

Deshalb stimmt die Überschrift diese Topic wie die Faust aufs Auge...BQ ist das unbekannte Wesen, mehr noch..es ist das Wesen, was am schwierigsten zu bewerten ist und deshalb meistens erst gar nicht bewertet wird...
speziell, da viele Reviwer mit begriffen wie AF/Bi/Tri/Bri und teilweise sogar AA nicht wirklich was anfangen können bzw. wissen wofür es da ist.
("ehhh das kostet ja Punkte bei 3DMurks wenn ich AF auf 16 stelle...dann mal wieder lieber auf 0", das das Bild mit 1xAF viel schlechter aussieht, darauf achtet dann aber keiner...)

Schw....ähhh Balkenlängen machen sich doch viel schöner im Heft oder der Website...und werden dazu auch noch von jedem Depp (entschuldigung) verstanden.

(Bevor hier falsche Meinungen und solche sachen wie...ach der ist eh ein nV-Fanboy kommen...ich habe eine 9800Pro und bin im Prinzip sehr zufrieden damit..)

Gast
2004-07-09, 12:34:24
Original geschrieben von aths
Liefert bilinear nicht für beide Annahmen ein zulässiges Ergebnis?

Was ist denn ein zulaessiges Ergebnis?

zeckensack
2004-07-09, 12:35:30
Texel sind Punkte. Pixel sind Rechtecke.

edit:
http://www.beyond3d.com/forum/viewtopic.php?p=290057#290057

tombman
2004-07-09, 12:35:36
Original geschrieben von Gohan
Leute, on Topic bitte!

100% agree!

*Ich werde meine Meinung der Moderation in etwas sachlicherer Form beipflichten und davon Abstand nehmen Threadschließungen zu provozieren, denn sie kosten mich Punkte, Amen.*

Ich würde die mods dringend bitte alle Posts die ATI vs Nvidia berteffen in DIESEM thread sofort zu killen.
Es geht hier imo um Bildqualität allgemein!!!

ON-T:

ALso Blindtests finde ich gar ned schlecht. Sowas könnte ich sogar machen. Ich poste einfach screenshots und dann muß bewertet werden was euch besser gefällt in einem Poll.
(besser/schlechter/gleich)

Und am Ende kommt dann von mir die Auflösung was jetzt Karte A, und was Karte B war ;)

Wär doch geil, oder?

zeckensack
2004-07-09, 13:15:37
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=153877

Crushinator
2004-07-09, 13:58:07
Diskussionen über Meinungs- oder Empfindensbeeinflussung mit Beispielen aus der Formel Q bitte dort (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=153880) weiterführen.

Matrix316
2004-07-09, 15:37:42
Man müsste ein Programm schreiben, was zwei Bilder Pixel für Pixel (oder Texel für Texel ;), whatauchimmer) vergleicht (Kontrast, Farbe etc.).

Je höher die Übereinstimmung, desto ähnlicher ist die BQ.

ShadowXX
2004-07-09, 16:12:09
Original geschrieben von Matrix316
Man müsste ein Programm schreiben, was zwei Bilder Pixel für Pixel (oder Texel für Texel ;), whatauchimmer) vergleicht (Kontrast, Farbe etc.).

Je höher die Übereinstimmung, desto ähnlicher ist die BQ.

Sowas wird ja von der "Das Auge zählt"-Fraktion abgelehnt, da deren Meinung nach zu technisch (und bis zu einem gewissen Grad kann ich das sogar nachvollziehen...)

DrumDub
2004-07-09, 16:17:00
Original geschrieben von Matrix316
Man müsste ein Programm schreiben, was zwei Bilder Pixel für Pixel (oder Texel für Texel ;), whatauchimmer) vergleicht (Kontrast, Farbe etc.).

Je höher die Übereinstimmung, desto ähnlicher ist die BQ.

gibts doch schon längst, aber texturshimmering kannste damit nicht feststellen. das siehste nur in bewegung...

Xmas
2004-07-09, 17:22:03
Original geschrieben von zeckensack
Texel sind Punkte. Pixel sind Rechtecke.

edit:
http://www.beyond3d.com/forum/viewtopic.php?p=290057#290057
Das würde ich so generell nicht akzeptieren. Schon gar nicht bei am Rechner gemalten Bildern.

aths
2004-07-09, 18:42:59
Original geschrieben von zeckensack
Texel sind Punkte. Pixel sind Rechtecke.Zustimmung beim Pixel. Dass Texel Punkte sind, ist aus meiner Sicht eine mögliche Betrachtungsweise. Zumindest sehe ich nichts was dagegen spricht, ein Texel als Fläche zu interpretieren (bzw. als Integral über eine gewisse Fläche.)

Tigerchen
2004-07-10, 07:02:59
Original geschrieben von ShadowXX
Sowas wird ja von der "Das Auge zählt"-Fraktion abgelehnt, da deren Meinung nach zu technisch (und bis zu einem gewissen Grad kann ich das sogar nachvollziehen...)

Kann es sein daß die Technikelite, oder die die meinen dazu zu gehören, meint solch schwerwiegende Dinge sollten besser nicht vom Volk entschieden werden?

ShadowXX
2004-07-10, 09:55:53
Original geschrieben von Tigerchen

Kann es sein daß die Technikelite, oder die die meinen dazu zu gehören, meint solch schwerwiegende Dinge sollten besser nicht vom Volk entschieden werden?



Wie ich schon erwähnte, kann ich durchaus nachvollziehen, wenn vielen dieser Ansatz zu technisch ist...

IMHO sollten solche Bit-Vergleichstests aber zumindest mit zur Beurteilung hinzugezogen werden, aber natürlich auch nicht überbewertet oder als einziges Kriterium genommen werden.

Das mit dem "Auge" ist aber auch so eine sache.
Es gibt zu viele, den bestimmte Sachen einfach nicht auffallen, weil Sie es entweder nicht anders gewohnt sind oder Sie es einfach nicht bemerken (wollen/können).

Blindtest wären da IMHO durchaus eine gute Sache...aber man sollte das nicht an Standbildern, sondern im Gameverlauf machen (unter anderem, da man auf Standbildern nicht alle defiziete erkennen kann (Texturshimmering als Beispiel)).

Und diese Blindtests sollte IMHO (und ich weiss das ich mich mit dieser Meinung in die Nesseln setze) nicht von "Jedermann", sondern durchaus von (ich nenne Sie mal) Profis durchgeführt werden.

Vielleicht sollten 3 Blindtests gemacht werden...einmal mit Profis, einmal "Jedermann" und dann noch einmal Profis mit "Jedermann" zusammen.
Beim letzteren sollten dann die Profis dem "Jedermann" zeigen, was Sie zu entdecken glauben und der "Jedermann" sollte dann einen Kommentar dazu abgeben können.

Das alles zusammen wäre vielleicht halbwegs objektiv....aber leider auch mit viel zu viel Aufwand verbunden...ein normaler Qualtity-Test würde sich dann über Tage oder sogar Wochen hinziehen...

Gerade weil auch ich nicht gerade Superman im Entdecken von Filterproblemen bin, verlasse ich persönlich mich lieber auf den technischen Aspekt (bzw. auch die Meinung von Leuten, die bei sowas empfindlicher sind).

Warum?? Tja, ich habe mehr als einmal schon bemerkt, das ich gewisse Dinge durchaus sehe, diese aber falsch eingeordnet habe ("wird schon so richtig sein"), nachdem ich dann wusste was es war, störte es mich dann ungemein...
Und solche Entdeckungen im Nachhinein stören mich doch sehr, also beuge ich lieber vor...

kuh
2004-07-10, 11:13:41
wo wollt ihr denn test machen , hier ? das wäre das ergebnis schon klar, da hier sowieso 3/4 der Moderatoren und sogenannten "3d-Gurus" von vornherein pro - Nvidia sind.

Sieht man ja schon wenn man sich nur mal die News Seite betrachtet. Eigentlich immer wird dort alles pro-Nvidia dargestellt, aktuellstes Beispiel ist gerade drauf: Der Test von Anandtech:

Während die Seite oftmals hier verteufelt wurde weil sie so schlecht und unprofessionell testen ( allerdings nur wenn Nvidia hinten liegt, ansonsten wird alles für bare Münze genommen ) wird jetzt schon dazu übergegangen ein eigenes falsches Fazit aus dem Test zu ziehen das lautet die 6800UEE sei im schnitt 2,5% schneller. Während das Fazit von Anand lautet jeder muss schauen welches Spiel er mag und welche Karte dort besser ist, denn ist ist bei knapp 50% unterschiedlich. ( die 2,5% kommen übrigens nur dadurch zu stande dass die 6800 bei EINEM spiel nämlich Jedi Knight 2 einen riesenvorsprung von 30 fps hat, aber das ist ja unwichtig und braucht nicht erwähnt zu werden... ).

soviel dazu.

ShadowXX
2004-07-10, 11:33:45
Original geschrieben von kuh
wo wollt ihr denn test machen , hier ? das wäre das ergebnis schon klar, da hier sowieso 3/4 der Moderatoren und sogenannten "3d-Gurus" von vornherein pro - Nvidia sind.

Sieht man ja schon wenn man sich nur mal die News Seite betrachtet. Eigentlich immer wird dort alles pro-Nvidia dargestellt, aktuellstes Beispiel ist gerade drauf: Der Test von Anandtech:

Während die Seite oftmals hier verteufelt wurde weil sie so schlecht und unprofessionell testen ( allerdings nur wenn Nvidia hinten liegt, ansonsten wird alles für bare Münze genommen ) wird jetzt schon dazu übergegangen ein eigenes falsches Fazit aus dem Test zu ziehen das lautet die 6800UEE sei im schnitt 2,5% schneller. Während das Fazit von Anand lautet jeder muss schauen welches Spiel er mag und welche Karte dort besser ist, denn ist ist bei knapp 50% unterschiedlich. ( die 2,5% kommen übrigens nur dadurch zu stande dass die 6800 bei EINEM spiel nämlich Jedi Knight 2 einen riesenvorsprung von 30 fps hat, aber das ist ja unwichtig und braucht nicht erwähnt zu werden... ).

soviel dazu.

Hmmmm...ist schon lustig.
Vor knapp einem halben Jahr hiess es noch, dass 3DC viel zu ATI-Positiv ist und man es auch gleich ATI-Center hätte nennen können...

Jetzt ist 3DC plötzlich zu nV-Positiv....

Ihr solltet euch mal entscheiden.

LovesuckZ
2004-07-10, 11:38:58
Original geschrieben von kuh
wo wollt ihr denn test machen , hier ? das wäre das ergebnis schon klar, da hier sowieso 3/4 der Moderatoren und sogenannten "3d-Gurus" von vornherein pro - Nvidia sind.


ich wusste es doch, dass Exxtreme "vornherein pro - Nvidia" ist *eg*.
Ich vertraue einen aths mehr als einen Hardocp Mitarbeiter, der sich nichtmal die Frage stellt, woher der Leistungsanstieg der neuen Forcewaretreiber kommt...

MadManniMan
2004-07-10, 13:50:54
OT: ;D laßt das Gastposting als Abschreckung stehen - außerdem find ich es urkomisch. Meiner Meinung Anyone? ;)

OnT: ich persönlich empfinde es als wichtig, daß "wir Geeks" weiter Terror machen, soviel BQ wie möglich freischalten können zu dürfen - der gemeine Grakakäufer wird sich einen feuchten Kericht drum scheren!

Ich sehs an meinem RL-Freund CannedCaptain. Der Bub spielt wie ich seit 1994 PC-Spiele, aber trotz seiner seit langer Zeit AA/AF-kompatiblen HW (feature- und performancemäßigerweise) hat er IIRC das letzte Mal anno '99 Edge Antialiasing seiner V² bei Tomb Raider benützt.

Heute setzt man ihm eine Szene vor und er beurteilt den Style, das Design ... unabhängig vom Texturmatsch und dem Kettengesäge an den Polykanten bildet er sich das primäre Urteil. Will heißen: entweder, du bist Gamer, der sich dafür interessiert, was AA/AF so anstellen, oder du bist es nicht. Dazwischen liegen Welten.

Ich selbst habe mir immer alle möglichen Infos zusammengesucht, die faktischerweise ermöglichten, meinen persönlichen Quali-/Leistungskonsens zu finden.
Alles, was diese dafür nötige Informationsflut in einem Artikel zusammenfassen wollte, würde den gemeinen User regelrecht erschlagen - dem Extraordinären würde kaum Neues präsentiert.

Also: Let's weiter Zunder unter the Arsch of the IHVs machen, damit alle was davon haben ;)

tombman
2004-07-10, 15:58:31
Original geschrieben von kuh
wo wollt ihr denn test machen , hier ? das wäre das ergebnis schon klar, da hier sowieso 3/4 der Moderatoren und sogenannten "3d-Gurus" von vornherein pro - Nvidia sind.

Sieht man ja schon wenn man sich nur mal die News Seite betrachtet. Eigentlich immer wird dort alles pro-Nvidia dargestellt, aktuellstes Beispiel ist gerade drauf: Der Test von Anandtech:

Während die Seite oftmals hier verteufelt wurde weil sie so schlecht und unprofessionell testen ( allerdings nur wenn Nvidia hinten liegt, ansonsten wird alles für bare Münze genommen ) wird jetzt schon dazu übergegangen ein eigenes falsches Fazit aus dem Test zu ziehen das lautet die 6800UEE sei im schnitt 2,5% schneller. Während das Fazit von Anand lautet jeder muss schauen welches Spiel er mag und welche Karte dort besser ist, denn ist ist bei knapp 50% unterschiedlich. ( die 2,5% kommen übrigens nur dadurch zu stande dass die 6800 bei EINEM spiel nämlich Jedi Knight 2 einen riesenvorsprung von 30 fps hat, aber das ist ja unwichtig und braucht nicht erwähnt zu werden... ).

soviel dazu.

Bingo! Du hast es erfaßt. Beim 3dc Fazit hab ich auch kräftig lachen müssen. Weiters is schlimm, daß anandtech nicht mal cat 4.7 genommen hat, dann hätte nicht mal die nicht existierende UE eine Chance ;)

Ich halte daher auch nix davon den Test hier zu machen.

Wallman
2004-07-10, 16:31:45
Also ich fand die 3DC Hauptseite immer sehr objektiv.
Ein paar Fehler kann man sich doch erlauben...

Blaire
2004-07-10, 16:36:53
Original geschrieben von tombman
Bingo! Du hast es erfaßt. Beim 3dc Fazit hab ich auch kräftig lachen müssen. Weiters is schlimm, daß anandtech nicht mal cat 4.7 genommen hat, dann hätte nicht mal die nicht existierende UE eine Chance ;)

Ich halte daher auch nix davon den Test hier zu machen.

Was ist daran schlimm? Der 4.7er soll doch nicht viel mehr bringen oder doch? Beim 3D Mark 03 vieleicht aber wer spielt sowas. ;)

MfG

tombman
2004-07-10, 16:43:17
Original geschrieben von Blaire
Was ist daran schlimm? Der 4.7er soll doch nicht viel mehr bringen oder doch? Beim 3D Mark 03 vieleicht aber wer spielt sowas. ;)

MfG

meiner Erfahrung nach bringt er genau bei hoher Last wie bei zuschalten von AA/AF viel...dh, für 1600x1200 4xAA/16xAF sollte er schon merklichen boost bringen..

Blaire
2004-07-10, 16:49:41
Original geschrieben von tombman
meiner Erfahrung nach bringt er genau bei hoher Last wie bei zuschalten von AA/AF viel...dh, für 1600x1200 4xAA/16xAF sollte er schon merklichen boost bringen..

Du weisst ja selber , jeder testet anders.
Ich hab bisher nur diesen Test http://www.dark-tweaker.com/Catalyst-4.7-3.htm gesehn und dort bringts leider nicht soviel. Allerdings sind auch die Tests die dort durchgeführt worden sehr zweifelhaft.

tombman
2004-07-10, 16:53:40
Original geschrieben von Blaire
Du weisst ja selber , jeder testet anders.
Ich hab bisher nur diesen Test http://www.dark-tweaker.com/Catalyst-4.7-3.htm gesehn und dort bringts leider nicht soviel. Allerdings sind auch die Tests die dort durchgeführt worden sehr zweifelhaft.

schau: du kannst glauben wem du willst. Meine Aussage kennst ja jetzt.

Xmas
2004-07-10, 16:58:17
Original geschrieben von Blaire
Du weisst ja selber , jeder testet anders.
Ich hab bisher nur diesen Test http://www.dark-tweaker.com/Catalyst-4.7-3.htm gesehn und dort bringts leider nicht soviel. Allerdings sind auch die Tests die dort durchgeführt worden sehr zweifelhaft.
Kein besonders toller Vergleich, und Diagramme von 46,2 bis 47,2 fps gehören verboten.
Rage3D.de (http://www.rage3d.de/catalyst_vergleich_p1.php) kommt allerdings auch nicht zu einem eindeutigen Fazit, wenn auch wieder nur ein paar Standardbenchmarks dran sind. Ob bei 1600x1200 ein Unterschied vorhanden ist, sei mal dahingestellt.

MadManniMan
2004-07-10, 17:03:43
Original geschrieben von tombman
schau: du kannst glauben wem du willst. Meine Aussage kennst ja jetzt.

Bedenke: wie lange braucht man für ein Review? Und wie lange ist der 4.7 draußen?

Tjell
2004-07-10, 17:06:13
Es geht Euch hier scheinbar nur noch um eine Sache:

Jeder von Euch will unbedingt derjenige sein, der Recht hat.
Bestimmte Leute wollen hier mit allen Mitteln ATI nicht vom High-End-Thron gestürzt sehen, während andere genauso versuchen unbedingt NVidia zum 3D-Herrscher zu krönen.

Ständig verliert Ihr das einzig wirklich wichtige Ziel aus den Augen, nämlich schlicht sachlich darzustellen, welche Chips unter welchen Einstellungen gute Leistung abliefern.

Das Verhalten von gewissen Membern, wie ich schon sagte, scheint hier stattdessen von persönlicher Geltungssucht gefärbt zu sein. :down:

tombman
2004-07-10, 17:06:44
Original geschrieben von MadManniMan
Bedenke: wie lange braucht man für ein Review? Und wie lange ist der 4.7 draußen?

die beta is genauso lang im Netz wie der 61.45er BETA von nv.

tombman
2004-07-10, 17:09:14
Original geschrieben von Tjell
... nämlich schlicht sachlich darzustellen, welche Chips unter welchen Einstellungen gute Leistung abliefern.



Habe ich getan, siehe meine ut2004 und far cry screenshots.

MadCat
2004-07-10, 21:20:30
Hi,

abgesehen davon, das die Pauschalurteile wie 'meiner ist aber besser als deiner' und das Herstellerbashing im allgemeinen sehr niveaulos ist, bringt es normalerweise wenig, das über reine Polemik zu versuchen...

Aber lieber zum Thema:

Wie empfindet man 'Bildqualität'?

Davon ausgehend, das die Welt um einen herum immernoch analog ist, empfinde ich für mich ein pixeliges Bild als qulitativ minderwertig.
Also sind solche technischen Funktionen wie AA ein Muss. Auch empfinde ich es als störend, wenn durch eine Szene abhängig von der dargestellten Szene (langer Gang, der sich in der Ferne verliert) waagerechte Qualitätsumbrüche der Textur ergeben. Um dieses zu beseitigen hat man AFAIK ja dann das Mipmapping eingeführt.
Sprich, für mich ist es also wichtig, das der Inhalt der gezeigten Szene dem Original (Umwelt) im Bereich Kanten- und Oberflächenverhalten so nahe kommt wie möglich.

Dazu nehme ich dann auch unter anderem eine niedrigere Auflösung und auch geringere FPS in kauf. Ok, damit stelle ich mich dann fast gegen meine eigenen Vorgaben - aber man kann ja nicht alles haben! ;-)

Hinzu kommt, das mir eine Karte auch von der Bildaufbereitung ein einwandfreies Bild liefern sollte, sprich das die Signalqualität hochwertig sein muss.

Als Beispiel seien hier Schatten von dunkler Schrift auf hellem Grund genannt.
Folgendes Fallbeispiel aus dem Bekanntenkreis und eigener Erfahrung:

Ich, Nutzer einer Matrox G400 mache mich auf die Suche nach einer guten 3D-Lösung mit mehr 3D-Leistung und guter Signalqualität.
Kumpel hat zu dem Zeitpunkt eine nVidia GeForce3 (Asus, Modell leider nicht mehr im Kopf) und fährt auf seinem 19"-Monitor (Eizo T68) sein Windows mit 1280x1024.

Ich dagegen mit meiner Matrox auf gleichem Modell 1600x1200.
Bei Ihm Schatten neben der Schrift - bei mir nicht.

Ich kaufte mir, durch diverse Berichte als Karte mit gutem Signal getestet, eine Ati Radeon 8500 BBA (Build By Ati). Bildqualität vergleichbar mit meiner zuvor eingesetzten Matrox. Ich darauf zufrieden - sowohl mit dem 2D, wie auch mit dem 3D-Betrieb.

Nächste Karte, bedingt durch die guten Erfahrungen mit der 1. Ati, eine Radeon 9500pro von Hercules als Nachfolger gekauft. Auch hier die erhofft gute Bild-/Signalqualität. Einzig das Problem der Wellen im 3D-Betrieb bei HDD-Zugriff fiel negativ auf - aber auch hier überwiegt der positive Eindruck. (wurde bei diversen 9500er und 9700er Karten festgestellt)

Parallel ein Shuttle SN41G2 (nVidia nForce2) bekommen. Ok, hier vergleiche ich Äpfel (GraKa-Chips) mit Birnen (Chipsetgrafik) - aber passt zu den Erfahrungen oben:
Das nVidia-Chipset zeigt wieder diese Schatten. Nur gut, das die 8500er da ist. Diese wird alleine schon aus Leistungsgründen eingebaut.

Wobei man diese Signalqualitätsmängel normalerweise nicht direkt am Chipset festmachen darf - die Peripheriebausteine des GraKa-Chipset sind da mehr die Ursache.

Der oben genannte Bekannte wollte dann seine Grafikkarte aufrüsten und kannte auch meine Erfahrungen mit meinen Karten und trauerte auch der Qualität der vor der Asus eingesetzten Matrox G400max nach. Ich riet ihm zu einer Ati. Er erwarb dann eine Radeon 9800XT und war von dem klaren Bild überrascht.

Das sind allerdings nur Erfahrungen von mir und meinem Bekannten und erheben keinen Anspruch auf Allgemeingültigkeit.

Das also nur am Rande zum Thema 'Bildqualität' - denn nicht nur die Grafikaufbereitung ist wichtig - auch wie diese dann auf dem Bildschirm dargestellt wird.

Qualität ist das, wie wir es empfinden...

Piffan
2004-07-10, 22:32:35
Tja, auch ne Art, die Sache anzugehen. Wobei hier eigentlich totaler Konsens herrscht; denn es geht hier um die Signalqualität. Und wie schon gesagt, diese hat nicht wirklich was mit den Chips zu tun, sondern mit der Peripherie. Falls hier bei einem Chip öfter mal schlechtere Signale abgeliefert werden, dann KÖNNTE das am Referenzdesign des Chipentwicklers liegen. Glaube ich aber nicht, liegt eher am Kartenhersteller.

Im 3d- Forum gayt es aber eigentlich um die Qulität unter 3D. Und da herrschen wohl unterschiedliche Ansichten.

Tigerchen
2004-07-11, 07:53:58
Original geschrieben von Piffan
Tja, auch ne Art, die Sache anzugehen. Wobei hier eigentlich totaler Konsens herrscht; denn es geht hier um die Signalqualität. Und wie schon gesagt, diese hat nicht wirklich was mit den Chips zu tun, sondern mit der Peripherie. Falls hier bei einem Chip öfter mal schlechtere Signale abgeliefert werden, dann KÖNNTE das am Referenzdesign des Chipentwicklers liegen. Glaube ich aber nicht, liegt eher am Kartenhersteller.

Im 3d- Forum gayt es aber eigentlich um die Qulität unter 3D. Und da herrschen wohl unterschiedliche Ansichten.

Obwohl die Signalqualität unter 3D auch nicht unwichtig ist.

aths
2004-07-11, 12:32:35
Original geschrieben von kuh
wo wollt ihr denn test machen , hier ? das wäre das ergebnis schon klar, da hier sowieso 3/4 der Moderatoren und sogenannten "3d-Gurus" von vornherein pro - Nvidia sind.Da würde ich gerne einige Beispiele hören.
Original geschrieben von kuh
Während die Seite oftmals hier verteufelt wurde weil sie so schlecht und unprofessionell testenIn welcher News steht sowas?
Original geschrieben von kuh
( allerdings nur wenn Nvidia hinten liegt, ansonsten wird alles für bare Münze genommen )Das ist mir noch nicht aufgefallen – kannst du Beispiele bringen?

Mordred
2004-07-11, 13:20:55
Madcat: Wenn es dich beruhigt das scheint ein Assus Problem zu sein. ICh hab ier eine ti 4600 von PNY die hat in sämtlichen auflösungen gestochen scharfes bild ohne jegliche veerminderung der qualität :)

Axel
2004-07-11, 13:25:25
Original geschrieben von MadCat
Hi,

abgesehen davon, das die Pauschalurteile wie 'meiner ist aber besser als deiner' und das Herstellerbashing im allgemeinen sehr niveaulos ist, bringt es normalerweise wenig, das über reine Polemik zu versuchen...

Aber lieber zum Thema:

Wie empfindet man 'Bildqualität'?

...

Das also nur am Rande zum Thema 'Bildqualität' - denn nicht nur die Grafikaufbereitung ist wichtig - auch wie diese dann auf dem Bildschirm dargestellt wird.

Qualität ist das, wie wir es empfinden...

Ich muss deine Erfahrung bestätigen und bin ebenfalls der Überzeugung das die Bildqualität insgesamt betrachtet werden muss.
Was nützt mir perfektes AF, wenn die Signalqualität ein verwaschenes Bild liefert?

Ich bin auch von der G400 auf 8500 und 9500 gewechselt, mit jeweils akzeptabler Bildqualität. Eine Geforce1 von Asus, die ich zu G400-Zeiten in Aktion gesehen hatten, hatte ein dermaßen schlechtes Bild, daß ich erst dachte die Karte wäre defekt.
Die Signalqualität meines shuttle MN31N mit nforce2 ist ebenfalls unter aller Sau, die onboard-Grafik nicht zu gebrauchen.
Die Ausgabequalität der 5900XT, die ich kurzzeitig hatte, war dagegen gut.
Die Bildqualität hatte bei der Bewertung einer Grafikkarte in der Vergangenheit nie eine Rolle gespielt. Es war immer die Leistung entscheidend. Kein Wunder das ATi die Leistung der eigenen Grafikkarten in den Vordergrund stellt. Genauso wie es nv in der Vergangenheit tat und damit groß geworden ist.

tombman
2004-07-11, 15:40:41
Also ich kann nur sagen, daß die 2D Signalqualität bei den neuen Karten sehr gut ist. Besser als auf den alten.
Is aber auch kein Wunder, schließlich wissen ati und nvidia ja, daß man mit diesem Karten sehr hohe Auflösungen spielt...

OBrian
2004-07-11, 21:22:07
Signalqualität ist natürlich wieder ein anderes Problem, was nicht nur vom Chip abhängt, sondern auch vom Kartenhersteller, nebenbei gibt es auch noch eine gewisse Streuung in der Produktion.

Übrigens, mit DVI dürfte sich das Problem der miesen Signalqualität doch aufgelöst haben, oder?

Jedenfalls sollte/kann man nur Screenshots bzw. ähnlich aufgenommene Videos (z.B. als Screenshot-Sequenz) zum Vergleich heranziehen. Wobei ja auch das problematisch werden kann; in einer dunklen Ecke meines Hirns schwebt eine Erinnerung an einen Screenshot, auf dem aber nicht alle BQ-Elemente des tatsächlichen Bildes zu sehen waren, imho im Zusammenhang mit SS-AA (?).

Wirklich "optimal" wird die BQ ja in nächster Zeit nicht. Allein das AF ist ja nur eine Verbesserung von Mipmapping, was aber an sich ein Performancetuning auf Kosten der BQ ist, immerhin könnte man ja auch die Stufe0-Textur ausschließlich benutzen (wenn einen der Speed von 3 fps nicht stört und man 2GB Framebuffer hat...).

Deswegen sollte man aber trotzdem ein optimales Bild/Szene als Referenz hernehmen (wie bereits oben irgendwo erwähnt mit einem Extrem-Overkill-High-Quality-Softwarerenderer), damit man die Abweichung messen kann, z.B. Chip xy mit Treiber Version 1.1 hat -40%, mit Treiber 1.2 dann -41,3% (aber vielleicht 10fps mehr). Denn Minuswerte wird es immer geben, nur eine Verschlechterung ggü. dem Vorgänger wollen wir ja eigentlich nicht sehen.


noch was anderes: Schade finde ich, daß man zunehmend auf AA verzichten muß, weil die Fullscreeneffekte das nicht erlauben (z.B. in den neueren Eidos-Spielen). Es kann doch auch nicht der Weisheit letzter Schluß sein, daß man von 1024x768 auf 2048x1536 hoch muß (statt 4xAA) und dafür vielleicht nen neuen Monitor braucht, oder eben mit Treppen leben soll (und dafür 400€ ausgegeben hat).

Klar, ist zwar hier etwas OT; aber wenn AA schon gar nicht mehr funktioniert, dann fällt ein leicht schlechteres AF kaum noch ins Gewicht, oder? ;)