PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AF-Qualität auf CB untersucht


mapel110
2009-09-01, 22:08:49
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_die_qualitaet_filters/
Bin selbst noch am Lesen!

(sry, Schlammsau, ich war schneller :P ^^ )

y33H@
2009-09-01, 22:14:37
Für mich klingt das nach:

HQ pwned all
Q = AI-def
AI-off sucks

derguru
2009-09-01, 22:16:21
schade,hätten die doch die paar tage noch warten können und gleich die 5er serie mit einbezogen.

reunion
2009-09-01, 22:17:51
Ja, der Artikel kommt etwas sehr spät. Ansonsten wenig neues.

Coda
2009-09-01, 22:22:20
High Quality kann durchaus als „gut“ bezeichnet werden, obwohl die Implementierung noch nicht optimal ist.
Finde ich etwas verwegen sowas zu behaupten. Die Implementierung von was?

Nach OpenGL-AF-Spezifikation filtert NVIDIA bereits optimal. was D3D spezifiziert ist nicht bekannt.

y33H@
2009-09-01, 22:23:25
CB hat sich aber nur drei D3D-Titel angeschaut. btw optimal = perfekt?

Coda
2009-09-01, 22:28:01
Die GPUs filtern unter D3D und OpenGL ja gleich, was spielt das dann für eine Rolle?

Der Satz klingt für mich so würde CB ankreiden, dass NVIDIA immer noch zu viel "spart". Dem ist nicht so. Der Grundalgorithmus neigt eben noch etwas zum flimmern.

y33H@
2009-09-01, 22:34:21
Unter OGL aber nur, wenn man alle Optimierungen deaktiviert, right?

http://www.abload.de/thumb/oglnhx3.png (http://www.abload.de/image.php?img=oglnhx3.png)

Coda
2009-09-01, 22:38:53
Ich gehe jetzt gerade immer von HQ aus.

Die NVIDIA-Mac-Treiber haben übrigens immer alle Optimierungen deaktiviert.

Sonyfreak
2009-09-01, 22:40:30
Ich finde es gut, dass Computerbase mal so einen Test veröffentlicht. Vielleicht überdenken jetzt einige Leute im dortigen Forum mal ihre dummen Sprüche. :rolleyes:
Die NVIDIA-Mac-Treiber haben übrigens immer alle Optimierungen deaktiviert.Es spricht ja auch nichts dafür, diese aktiviert zu lassen.

mfg.

Sonyfreak

y33H@
2009-09-01, 22:44:56
@ Coda

Das ist HQ ;) Nur - laut RT - sind seit Jahren nicht alle Optimierungen aus. Sieht man auch.

LovesuckZ
2009-09-01, 22:46:33
Ich finde es gut, dass Computerbase mal so einen Test veröffentlicht. Vielleicht überdenken jetzt einige Leute im dortigen Forum mal ihre dummen Sprüche. :rolleyes:


Und er kommt einfach zu spät. Man hätte spätesten bei der 8800GTX endlich einen Schlussstrich unter den Optimierungen ziehen müssen.
Aber jetzt sind sowieso schon alle Karten auf dem Tisch, alle Kaufberatungen getätigt. Eine neue Runde steht an und somit auch neue Vorzeichen.

Sonyfreak
2009-09-01, 22:48:37
Und er kommt einfach zu spät. Man hätte spätesten bei der 8800GTX endlich einen Schlussstrich unter den Optimierungen ziehen müssen. Aber jetzt sind sowieso schon alle Karten auf dem Tisch, alle Kaufberatungen getätigt. Eine neue Runde steht an und somit auch neue Vorzeichen.Da hast du natürlich recht, aber besser spät als nie finde ich.

mfg.

Sonyfreak

Schlammsau
2009-09-01, 22:52:21
(sry, Schlammsau, ich war schneller :P ^^ )
willst du dir jetzt darauf einen von der Palme wedeln? Was soll der Kommentar?


Nach unseren vielfältigen Analysen bleiben wir bei unser in der Vergangenheit vertretenen Meinung, dass die Standardeinstellungen von ATi und Nvidia in etwa vergleichbar sind. Je nach Spiel kann mal die eine und mal die andere Einstellung besser aussehen, einen eindeutigen Gewinner gibt es nicht.

Eine eindeutige Entscheidung gibt es hingegen bei der maximal möglichen Qualität. In dem Fall heißt der Gewinner Nvidia mitsamt dem High-Quality-Modus, der ein gutes Ergebnis erzeugt. Die Texturen flimmern nur gering und der Spieler sieht keine Bugwellen – nicht optimal, aber gut. ATi muss in diesem Punkt Federn lassen und erst A.I. Off kann mit Quality ohne Optimierungen mithalten. Ein Pendant zu High Quality existiert bei den Kanadiern nicht.
Sehr schön, ich hab nie etwas anderes behauptet! Danke CB! :)

y33H@
2009-09-01, 22:56:36
Soll ich dir die entsprechenden Post raussuchen? ;D ;)

Gast
2009-09-01, 22:56:58
Schlammsau sei still du kannst garnicht mitreden.

Schlammsau
2009-09-01, 22:57:04
Soll ich dir die entsprechenden Post raussuchen? ;D ;)

Ich bitte darum!!!!!!!

Ich habe immer gesagt A.I. Default und Q ist vergleichbar.....viel Spass beim suchen. ;D

y33H@
2009-09-01, 23:05:28
War ja n Scherz. Man könnte dir nur das hier zur Last legen *g*Was die maximale Bildqualität angeht, dann hat nVidia 90% und ATi 85% erreicht

Coda
2009-09-01, 23:13:42
@ Coda

Das ist HQ ;) Nur - laut RT - sind seit Jahren nicht alle Optimierungen aus. Sieht man auch.
NVIDIA HQ ist optimierungsfrei. Das kann dir Raff bestätigen, der weiß auf was ich mich beziehe.

y33H@
2009-09-01, 23:23:41
OK - ich frage ihn morgen =)

Popeljoe
2009-09-01, 23:51:24
willst du dir jetzt darauf einen von der Palme wedeln? Was soll der Kommentar?
Wolltet ihr demnächst ins Powi wechseln oder wie darf ich den Tonfall hier deuten? :mad:
Hört auf mit den Anmachereien! Kindergarten ftw, oder was wird das?

(del)
2009-09-02, 00:20:38
Bei der Auflösung :| wundern oder stören mich nicht die Unterschiede auf den 4xAF und 16xAF Bildern auch in verschiedenen Qualistufen, sondern die Unterschiede in den FPS. Hab ich jetzt einen "signifikanteren" Test (Spiel) verpaßt da oder sind die Unterschiede prozentual kaum der Rede wert?? :freak:

Die Vergleichsbilder sind was für den Allerwertesten. Wie superduper die hinterste Baumkrone und der entfernteste Kiesel ist interessiert nur wenige Freaks. Bis auf 1xAF merkt man das beim Zocken nicht, ABER das Geflimmer und die hart wandernden Bugwellen merkt jeder. Es wäre wesentlich interessanter, wenn es dazu Videos gegeben hätte und nicht paar Bilder. Die Bilder geben das auch beim Zocken Unschöne/Störende garnicht wieder.

Gast
2009-09-02, 01:12:32
Da fällt mir ein: Wollte Coda nicht auch schon einen Filterartikel vor 2 Jahren bringen?

=Floi=
2009-09-02, 01:59:54
coda will das eben qualitativ hochwertig und wasserdicht machen! Er wollte ja auch testprogramme schreiben, um spezalfälle zu erzeugen.

---
was aber wenn, nv bei den neuen karten die qualität des filters extrem herabsetzt und ati den filter über nv G80 niveau hebt? dann müssen wir wieder 4 jahren für einen test warten?! (bei CB und coda ;) )
völlig unnütz das ganze jetzt noch zu machen, zumal wieder ein generationswechsel ansteht.
die benchmarks interessieren mich auch nicht, weil ich immer mit X16 spiele. etwas anderes habe ich schon jahre nicht mehr eingestellt. Dort spare ich sicherlich nicht.

Schlammsau
2009-09-02, 07:15:53
War ja n Scherz. Man könnte dir nur das hier zur Last legen *g*

Das hab ich ja auch damals wieder zurückgenommen.

desert
2009-09-02, 09:07:59
Wenn ich mir die kommentare dort teilweise wieder durchlesen, das z.b. eine 9700/9800 eine bessere af-qualität als eine geforcefx hatte. Es war schnell aber hässlich.

Ich hatte beide, bin dann aber bei der fx wegen ssaa hängengeblieben.

PCGH_Raffael
2009-09-02, 09:36:50
Sehr schön, ich hab nie etwas anderes behauptet! Danke CB! :)

Das Fazit stimmt IMO nicht. Mit jedem neuen Spiel, das halbwegs hochauflösende Texturen oder fiese Shader auffährt, flimmert schon Q + "Optis" weniger als A.I. Standard. Das sehe ich tagtäglich bei den Grafikkartentests. Die wenigen Fälle, wo Nvidias Filter "versagt", wiegen das nicht auf. Vor 2 Jahren hätte ich dieses Fazit gelten lassen, aber jetzt nicht mehr.

MfG,
Raff

Mr. Lolman
2009-09-02, 09:45:18
Mit der Bugwelle habens aber trotzdem recht (sieht man auch an den Filterblumen, dass NV bei default ne reduziertere Trilinearität aufwartet als ATi).

Ist wohl Geschmackssache ob einem Grundflimmrigkeit, oder Bugwellenflimmrigkeit mehr stört. Außerdem gibts ja immerwieder das ein oder andere Rennspiel, wo ATis AF tatsächlich sichtbar besser aussieht (default vs. default)

Gast
2009-09-02, 09:52:11
Ist wohl Geschmackssache ob einem Grundflimmrigkeit, oder Bugwellenflimmrigkeit mehr stört. Außerdem gibts ja immerwieder das ein oder andere Rennspiel, wo ATis AF tatsächlich sichtbar besser aussieht (default vs. default)
Mag sein, wo's mit der Geschmackssache aber aufhört ist halt die Option es abzuschalten, die man hüben hat, drüben vermisst.

Gast
2009-09-02, 09:52:29
Das Fazit stimmt IMO nicht. Mit jedem neuen Spiel, das halbwegs hochauflösende Texturen oder fiese Shader auffährt, flimmert schon Q + "Optis" weniger als A.I. Standard.
Und was haben jetzt Shader mit AF zu tun?
Shaderflimmern kann man imo nur sinnvoll mit SSAA bekämpfen (oder halt höhere Auflösung).

MechWOLLIer@IE
2009-09-02, 10:05:12
Das Fazit stimmt IMO nicht. Mit jedem neuen Spiel, das halbwegs hochauflösende Texturen oder fiese Shader auffährt, flimmert schon Q + "Optis" weniger als A.I. Standard. Das sehe ich tagtäglich bei den Grafikkartentests. Die wenigen Fälle, wo Nvidias Filter "versagt", wiegen das nicht auf. Vor 2 Jahren hätte ich dieses Fazit gelten lassen, aber jetzt nicht mehr.
MfG,
Raff

Meiner Meinung nach gilt das schon (gut, ich habs auch geschrieben:D).
Was ich bei euch immer vermisse ist das nichtg vorhandensein von AF-Schwächen abseits des Flimmern. Da meint man dauernd, das gibts nicht. Ich mag auch keine Bugwellen, die es bei Nvidia-Default definitiv gibt. Und zwar auch in neuen Spielen. Die stören genauso wie das Textur-Flimmern bei ATi.

Coda
2009-09-02, 12:37:10
Und was haben jetzt Shader mit AF zu tun?
Shader verwenden als Eingabe Texturen und verstärken das Flimmern dann oft exponentiell (specular lighting)

Klingone mit Klampfe
2009-09-02, 13:28:21
Wer ist eigentlich auf die äußerst verwirrende Idee gekommen, "Quality ohne Optimierungen" im Fließtext als "High Quality" zu bezeichnen und "HQ" als "Very High"? Man hätte doch einfach bei den ursprünglichen Bezeichnungen bleiben können, die neuen sind nicht deskriptiver oder kürzer. Unter den Bildern stehen doch auch die ursprünglichen Bezeichnungen.

Spasstiger
2009-09-02, 14:40:31
(oder halt höhere Auflösung).
Nur, wenn du anschließend auf eine geringere Auflösung runterinterpolierst, oder bei sehr hoher Winkelauflösung.
Die elementare Komponente von Antialiasing ist ein Tiefpass-Filter. Und da auch Texturflimmern ein Aliasingeffekt ist, bekommt es nur durch Tiefpassfilterung weg. Diese Tiefpassfilterung kann entweder durch Downsampling erfolgen oder sich bei sehr hohen Winkelauflösung von selbst im Auge ergeben.
Eine einfache Variante, um das Flimmern zu beseitigen, ist übrigens ein positives LOD-Bias. Macht zwar die Texturen matschiger, aber man bekommt dann wenigstens eine "ehrliche" Bildqualität. Von 16:1 AF bleibt dann natürlich nichts mehr übrig. ;)

reunion
2009-09-02, 15:31:16
Meiner Meinung nach gilt das schon (gut, ich habs auch geschrieben:D).
Was ich bei euch immer vermisse ist das nichtg vorhandensein von AF-Schwächen abseits des Flimmern. Da meint man dauernd, das gibts nicht. Ich mag auch keine Bugwellen, die es bei Nvidia-Default definitiv gibt. Und zwar auch in neuen Spielen. Die stören genauso wie das Textur-Flimmern bei ATi.

Ja, schön dass das hier bzw. im Artikel auch mal erwähnt wird. Wenn man in diesem Forum auch nur behauptet das die jeweiligen Standardeinstellungen gut vergleichbar sind wird man ja schon von diversen selbst ernannten IQ-Experten an die Wand gestellt.

LovesuckZ
2009-09-02, 15:40:58
Immer diese Standardeinstellung. Ist es nicht ironisch, dass Standard bei Q und A.I Default aufhört? Wenn Standard, dann bitte richtig: App. AF/AA und Standardeinstellung der Anwendung. Keine Verstellung der Auflösung, der Details, des AA und AF. Wenn Standard, dann Standard.

Coda
2009-09-02, 15:43:13
Ja, schön dass das hier bzw. im Artikel auch mal erwähnt wird. Wenn man in diesem Forum auch nur behauptet das die jeweiligen Standardeinstellungen gut vergleichbar sind wird man ja schon von diversen selbst ernannten IQ-Experten an die Wand gestellt.
Könnte wohl daran liegen:

Das Fazit stimmt IMO nicht. Mit jedem neuen Spiel, das halbwegs hochauflösende Texturen oder fiese Shader auffährt, flimmert schon Q + "Optis" weniger als A.I. Standard. Das sehe ich tagtäglich bei den Grafikkartentests. Die wenigen Fälle, wo Nvidias Filter "versagt", wiegen das nicht auf. Vor 2 Jahren hätte ich dieses Fazit gelten lassen, aber jetzt nicht mehr.

Spasstiger
2009-09-02, 16:18:15
Computerbase schreibt ja auch, dass "quality" bei den GeForces weniger flimmert als "Cat. AI default" bei den Radeons. Dafür sollen die GeForces bei "quality" stärker zur Bildung von Bugwellen neigen wegen des trilinearen Filters.
Aber wenn man sich anschaut, wie minimal die Performanceverluste bei NV's "high quality" sind, lohnt es sich gar nicht, nur "quality" zu nutzen.

reunion
2009-09-02, 17:01:16
Könnte wohl daran liegen:

Du hast schon gelesen was ich zitiert hatte?

Was ich bei euch immer vermisse ist das nichtg vorhandensein von AF-Schwächen abseits des Flimmern. Da meint man dauernd, das gibts nicht. Ich mag auch keine Bugwellen, die es bei Nvidia-Default definitiv gibt. Und zwar auch in neuen Spielen. Die stören genauso wie das Textur-Flimmern bei ATi.

Gast
2009-09-03, 01:03:15
Das Fazit stimmt IMO nicht. Mit jedem neuen Spiel, das halbwegs hochauflösende Texturen oder fiese Shader auffährt, flimmert schon Q + "Optis" weniger als A.I. Standard. Das sehe ich tagtäglich bei den Grafikkartentests. Die wenigen Fälle, wo Nvidias Filter "versagt", wiegen das nicht auf. Vor 2 Jahren hätte ich dieses Fazit gelten lassen, aber jetzt nicht mehr.

MfG,
Raff


Warum macht ihr nicht einen Test welche maximale Bildquali welche Graka bei aktuellen Spielen grad noch drin ist. Das Crysis FullHD nicht grad in 4x4 SSAA läuft ist klar, aber zb HL 2 oder selbst was neues wie World in Conflict wäre ganz interessant.

Weil 8xMSAA zu fahren und dann bei AF und TSSAA zu sparen ist doch shizophren.

Macht mal so einen Test mit Bildquali in Stufen. Wenn ATI nicht mehr mitkann weil es die Optionen nicht gibt oder die Performance einbricht dann halt NVIDIA only und vice versa falls die NVs bei 8xAA eingehen.

Vorschlag: 16x AF NV-Q VS ATI AI-Def. bis max. 4xAA

Darüber MUSS dann einfach besseres AF und TSAA etc her. NV-HQ vs ATI AI-off TSAA und 8xAA wäre dann mein Mittel zu wahl. (und bitte betonen das NV HQ AF besser aussieht, aber wir wollen ja das beste von beiden auffahren)

Und im Abschluss noch "spezial-Modi" wie zB Edge-Det bei ATI und Hybs. bzw. SSAA bei NV.

mapel110
2009-09-03, 01:11:18
Problem bei der Geschichte: Du bekommst keine Balkendiagramme mehr hin.

Aber davon sollte man sich wirklich trennen. Ich kann mir gut vorstellen, dass es mit der nächsten Generation gar kein vergleichbares Setting mehr gibt.

Dann sollte man wirklich das maximal spielbare Setting beider Grafikkarten austesten, Frameverläufe dazu packen, Beurteilung der Bildqualität in Textform und fertig. HardOCP machts vor.
Es ist dann halt deutlich mehr zu lesen und es wird sehr subjektiv, aber anders dürfte es im nächsten Jahr nicht mehr gehen.

Gast
2009-09-03, 01:27:09
Problem bei der Geschichte: Du bekommst keine Balkendiagramme mehr hin.



Gut den die interessieren mich wirklich als gröbster Richtwert aber sicher nicht als Basis für irgendein Fazit. An Balken irgendwas festzumachen ist Blödsinn. Alleine schon die Ich habe 1005 fps und Graka b nur 95 Mentalität. Das interessiert mich nicht. Überleistung wird bei mir in BQ umgemünzt; und ich bin allerhöchstens Pfuscher und Amateur der auch nur ab und an Zeit hat hier und auch anderswo zu lesen .



Aber davon sollte man sich wirklich trennen. Ich kann mir gut vorstellen, dass es mit der nächsten Generation gar kein vergleichbares Setting mehr gibt.


Du sagst es. Wünschenwert wäre es auf jedenfall. Ich kriege bei "aktuellen" Spielen sowiso einen Hals wenn die tearen ende nie, matschtexturen zeigen oder wei GTA auflösungsunabhängige hardwarefressende und AA befreite Kantenhölle sind die ich höchstens noch auf Sehfehler unscharf stellen kann.



Dann sollte man wirklich das maximal spielbare Setting beider Grafikkarten austesten, Frameverläufe dazu packen, Beurteilung der Bildqualität in Textform und fertig. HardOCP machts vor.
Es ist dann halt deutlich mehr zu lesen und es wird sehr subjektiv, aber anders dürfte es im nächsten Jahr nicht mehr gehen.

Mein Reden. Irgendwie kommen mir aktuelle Test vor wie Crysis 800x600auf nem 24"er vor - aber hauptsache es ist es VH. Genauso 8xAA mit billig AF und keinem TSAA?

Frameverläufe sind auch wichtig. VERLÄUFE nicht EIN min.fps wert der für sich alleine gar nix aussagt.

Hard OCP sind die hier? http://www.hardocp.com/ Kenne ich nicht. Mal schaun.

Coda
2009-09-03, 02:56:02
Problem bei der Geschichte: Du bekommst keine Balkendiagramme mehr hin.

Aber davon sollte man sich wirklich trennen. Ich kann mir gut vorstellen, dass es mit der nächsten Generation gar kein vergleichbares Setting mehr gibt.

Dann sollte man wirklich das maximal spielbare Setting beider Grafikkarten austesten, Frameverläufe dazu packen, Beurteilung der Bildqualität in Textform und fertig. HardOCP machts vor.
Es ist dann halt deutlich mehr zu lesen und es wird sehr subjektiv, aber anders dürfte es im nächsten Jahr nicht mehr gehen.
Eigentlich werden die Anforderungen immer straffer spezifiziert. Ich behaupte für die Zukunft das Gegenteil.

=Floi=
2009-09-03, 03:36:09
die hersteller sind doch froh, wenn sie wo sparen können und nebenbei wird es ja auch immer schwieriger SSAA zu ermöglichen. Die user werden auch immer anspruchsloser.
wenn es nach der BQ geht, dann muß man eh zu NV gehen, weil die mit 8XSAA und TSAA schon eine sehr gute BQ bieten ohne dabei die fps zu weit zu senken.

reunion
2009-09-03, 07:53:23
Immer diese Standardeinstellung. Ist es nicht ironisch, dass Standard bei Q und A.I Default aufhört? Wenn Standard, dann bitte richtig: App. AF/AA und Standardeinstellung der Anwendung. Keine Verstellung der Auflösung, der Details, des AA und AF. Wenn Standard, dann Standard.

Aja und warum genau? Was vergleichbar ist sollte man auch vergleichen. Dazu zählt auf jeden Fall die Auflösung, die Details, das MSAA. Einzig beim AF ist es schwer hundertprozentige Gerechtigkeit herzustellen. Aber angesichts dessen was da in der Vergangenheit verglichen wurde finde ich es geradezu lächerlich sich jetzt darüber aufzuregen. Zumal die Treiber Defaults hier wirklich nicht weit auseinanderliegen.

Schlammsau
2009-09-03, 08:00:27
Aja und warum genau? Was vergleichbar ist sollte man auch vergleichen. Dazu zählt auf jeden Fall die Auflösung, die Details, das MSAA. Einzig beim AF ist es schwer hundertprozentige Gerechtigkeit herzustellen. Aber angesichts dessen was da in der Vergangenheit verglichen wurde finde ich es geradezu lächerlich sich jetzt darüber aufzuregen. Zumal die Treiber Defaults hier wirklich nicht weit auseinanderliegen.

Lass es bleiben, du wirst es in diesem Leben nicht mehr schaffen LZ und diverse andere, davon zu überzeugen.

Grestorn
2009-09-03, 08:01:20
Es *ist* halt nicht vergleichbar. Vergleichbar wäre identisch, nicht "mal der eine besser, mal der andere". Und selbst das ist eher subjektiv.

reunion
2009-09-03, 08:10:46
Es *ist* halt nicht vergleichbar. Vergleichbar wäre identisch, nicht "mal der eine besser, mal der andere". Und selbst das ist eher subjektiv.

Eine hundertprozentige Vergleichbarkeit gibt es nicht mal im Labor. Überall gibt es eine Vergleichspräzision X. Aber bei Grafikkarten darf man nur mehr vergleichen wenn jedes Pixel identisch ist? Gerade wo noch vor wenigen Jahren zum Teil wirklich Kraut und Rüben verglichen wurden? Ich finde die Diskussion lächerlich.

Grestorn
2009-09-03, 08:54:55
Da sich die Algorithmen und die Ergebnisse stark unterscheiden (lassen wir das ruhig mal so stehen, beim einen flimmerts beim anderen gibt's Bugwellen) kann man die Framerate halt nicht vergleichen.

Das wäre als würde man die VMax von einem 7er BMW und nem Sprinter vergleichen und darauf auf die Motorleistung schließen. Geht nicht, ist nicht sinnvoll. Wenn dann muss man beide Motoren das wirklich selbe arbeiten lassen.

Du würdest ja auch nicht auf die Idee kommen, zwei verschiedene Spielszenen (für jede Karte eine andere) zu nehmen und in einem Balkendiagramm zu vergleichen. Aber genauso aussagekräftig ist ein Vergleich, wenn sich die Alogorthmen zu stark unterscheiden, zumindest wenn man eine Aussage zur Leistung der Chips haben will.

/edit: Bessere Analogie: Wenn der Output keine so große Rolle spielt, wieso lässt Du die ATI nicht gleich auf 8xAF rendern und die nVidia auf 16xAF? Oder umgekehrt? In den meisten Szenen würde man noch nicht mal einen Unterschied wahrnehmen können. Evtl. ist die ATI mit 8x AF sogar weniger flimmrig...

IVN
2009-09-03, 09:58:25
Da sich die Algorithmen und die Ergebnisse stark unterscheiden (lassen wir das ruhig mal so stehen, beim einen flimmerts beim anderen gibt's Bugwellen) kann man die Framerate halt nicht vergleichen.

Das wäre als würde man die VMax von einem 7er BMW und nem Sprinter vergleichen und darauf auf die Motorleistung schließen. Geht nicht, ist nicht sinnvoll. Wenn dann muss man beide Motoren das wirklich selbe arbeiten lassen.

Du würdest ja auch nicht auf die Idee kommen, zwei verschiedene Spielszenen (für jede Karte eine andere) zu nehmen und in einem Balkendiagramm zu vergleichen. Aber genauso aussagekräftig ist ein Vergleich, wenn sich die Alogorthmen zu stark unterscheiden, zumindest wenn man eine Aussage zur Leistung der Chips haben will.

/edit: Bessere Analogie: Wenn der Output keine so große Rolle spielt, wieso lässt Du die ATI nicht gleich auf 8xAF rendern und die nVidia auf 16xAF? Oder umgekehrt? In den meisten Szenen würde man noch nicht mal einen Unterschied wahrnehmen können. Evtl. ist die ATI mit 8x AF sogar weniger flimmrig...
Das ist praktisch jetzt schon der Fall...

Gast
2009-09-03, 10:12:07
Das ist praktisch jetzt schon der Fall...
Hat AMD 16xAF eigentlich bereits bei R600 "abgeschafft'" oder erst nach dem Debakel, um RV670 besser in die Spur zu bringen?

reunion
2009-09-03, 10:16:38
Da sich die Algorithmen und die Ergebnisse stark unterscheiden (lassen wir das ruhig mal so stehen, beim einen flimmerts beim anderen gibt's Bugwellen) kann man die Framerate halt nicht vergleichen.

Das wäre als würde man die VMax von einem 7er BMW und nem Sprinter vergleichen und darauf auf die Motorleistung schließen. Geht nicht, ist nicht sinnvoll. Wenn dann muss man beide Motoren das wirklich selbe arbeiten lassen.

Du würdest ja auch nicht auf die Idee kommen, zwei verschiedene Spielszenen (für jede Karte eine andere) zu nehmen und in einem Balkendiagramm zu vergleichen. Aber genauso aussagekräftig ist ein Vergleich, wenn sich die Alogorthmen zu stark unterscheiden, zumindest wenn man eine Aussage zur Leistung der Chips haben will.

/edit: Bessere Analogie: Wenn der Output keine so große Rolle spielt, wieso lässt Du die ATI nicht gleich auf 8xAF rendern und die nVidia auf 16xAF? Oder umgekehrt? In den meisten Szenen würde man noch nicht mal einen Unterschied wahrnehmen können. Evtl. ist die ATI mit 8x AF sogar weniger flimmrig...

Sorry, aber du kommst mit 7er BMW vs. Sprinter, unterschiedlichen Spielsezenen oder 8xAF vs. 16xAF weil bei NV das bi-Band geringfügig größer ist und beim anderen etwas mehr Samples eingespart werden. Du sprichst davon das sich die Algorithmen und die Ergebnisse stark unterscheiden. Ich halte das für eine vollkommen überzogenen Darstellung. Die Unterschiede muss man in Anwendungen mit der Lupe suchen. Vor allem frage ich mich wo dein Aufschrei vor der G80-Ära war, als die Unterschiede teils noch deutlich ausgeprägter waren? Wenn man deine Meinung vertritt darf man prinzipiell kaum etwas vergleichen. Denn es wird nirgends, in keinem Bereich, egal ob in den Naturwissenschaften oder im technischen Bereich bei unterschiedlichen Produkten unterschiedlicher "Hersteller" absolute Gleichheit geben. Jeder Vergleich ist ein Kompromiss.

Das ist praktisch jetzt schon der Fall...

Nein.

LovesuckZ
2009-09-03, 10:22:59
Eine hundertprozentige Vergleichbarkeit gibt es nicht mal im Labor. Überall gibt es eine Vergleichspräzision X. Aber bei Grafikkarten darf man nur mehr vergleichen wenn jedes Pixel identisch ist? Gerade wo noch vor wenigen Jahren zum Teil wirklich Kraut und Rüben verglichen wurden? Ich finde die Diskussion lächerlich.

Du kannst gerne alles vergleichen - nur dann bitte keine Aussagen treffen. Wie bewertet man, denn es bei nVidia Downsampling, HQ-AF, CSAA, freiwählbares AAA, SS und CSAA gibt und bei AMD nur Wide/Tent und Edge-Detection?
Fakt ist, dass die Einstellungen vergleichbar sind, aber nicht aussagekräftig. AMD ist bei 8xMSAA schneller? Das ist schön, aber was bringt es mir, wenn ich mich schon mit CSAA zufrieden gebe? Oder wenn mir die Filterqualität eben nicht reicht und ich mehr will? Solle Gedanken spielen keine Rolle. Es wird ein Fazit auf Basis von fragwürdigen Einstellungen getroffen, die einen IHV bevorzugen. Die klaren Vorteile des anderen Teilnehmers fallen komplett unter dem Tisch und werden nichtmal erwähnt. Das findest du toll? :confused:

Grestorn
2009-09-03, 10:28:01
Sorry, aber du kommst mit 7er BMW vs. Sprinter, unterschiedlichen Spielsezenen oder 8xAF vs. 16xAF weil bei NV das bi-Band geringfügig größer ist und beim anderen etwas mehr Samples eingespart werden. Du sprichst davon das sich die Algorithmen und die Ergebnisse stark unterscheiden. Ich halte das für eine vollkommen überzogenen Darstellung. Die Unterschiede muss man in Anwendungen mit der Lupe suchen. Vor allem frage ich mich wo dein Aufschrei vor der G80-Ära war, als die Unterschiede teils noch deutlich ausgeprägter waren? Wenn man deine Meinung vertritt darf man prinzipiell kaum etwas vergleichen. Denn es wird nirgends, in keinem Bereich, egal ob in den Naturwissenschaften oder im technischen Bereich bei unterschiedlichen Produkten unterschiedlicher "Hersteller" absolute Gleichheit geben. Jeder Vergleich ist ein Kompromiss.

Das Geschrei WAR damals bei den 7x00 so groß, bzw. viel größer! Nur mit umgekehrten Vorzeichen. Ich sag nur: Artikel im 3DC und Verlinkung aus Geizhals.

"Etwas mehr Samples einsparen" ist doch das gleiche wie "ein paar Kilo mehr beschleunigen" oder "etwas mehr Windwiderstand". Oder siehst Du da einen prinzipiell Unterschied, und wenn ja, warum?

IVN
2009-09-03, 10:28:25
Nein.
Ohne massive Einsparungen könnte ATi, mit der current gen, nicht mal in die Nähe der Geforces kommen.

puntarenas
2009-09-03, 10:28:40
Ich halte das für eine vollkommen überzogenen Darstellung. Die Unterschiede muss man in Anwendungen mit der Lupe suchen.
Nein, aber man muss wissen, worauf man im Screenshot achten muss oder man braucht eben ein Video. Das kann man IMHO auch dem Computerbase-Artikel anlasten, denn zum einen beschäftigt man sich viel zu ausführlich mit dem Vergleich der beiden unzureichenden Modi (A.I Standard vs Q) und zum anderen spickt man einen Artikel zum AF mit einer Reihe Screenshots (bei Nvidia fehlt bei HL2 sogar das TAA, so dass vor allem der Unterschied am Zaun ins Auge sticht).

Screenshots führen bei dem Thema komplett in die Irre, wie man auch (und nicht zum ersten Mal) den Kommentaren zum Artikel entnehmen kann. Dazu das Rumgeeiere mit Nvidia Q, ab heute gilt (trotz des verhaltenen Lobs von HQ im Fazit): ATI knackig scharf, Nvidia mit Bugwelle. :(

Gast
2009-09-03, 10:31:12
Mit der Bugwelle habens aber trotzdem recht (sieht man auch an den Filterblumen, dass NV bei default ne reduziertere Trilinearität aufwartet als ATi).

Lustig vor allem, dass brilinear bei ATI angeblich keine nebenwirkungen zeigt, dabei trägt brilinear nicht gerade unerheblich zum flimmern bei.

reunion
2009-09-03, 10:32:18
Du kannst gerne alles vergleichen - nur dann bitte keine Aussagen treffen. Wie bewertet man, denn es bei nVidia Downsampling, HQ-AF, CSAA, freiwählbares AAA, SS und CSAA gibt und bei AMD nur Wide/Tent und Edge-Detection?
Fakt ist, dass die Einstellungen vergleichbar sind, aber nicht aussagekräftig. AMD ist bei 8xMSAA schneller? Das ist schön, aber was bringt es mir, wenn ich mich schon mit CSAA zufrieden gebe? Oder wenn mir die Filterqualität eben nicht reicht und ich mehr will? Solle Gedanken spielen keine Rolle. Es wird ein Fazit auf Basis von fragwürdigen Einstellungen getroffen, die einen IHV bevorzugen. Die klaren Vorteile des anderen Teilnehmers fallen komplett unter dem Tisch und werden nichtmal erwähnt. Das findest du toll? :confused:

Wo fallen denn Vorteile eines Teilnehmers komplett unter den Tisch? Zählt nur mehr das was in den Balken steht? Ist man nicht mehr in der Lage den Text zu lesen oder zumindest das Fazit, welches mittlerweile eh schon meist auf ein paar Pros und Cons zusammengestutzt wird? Ja, dann fällt wirklich alles unter den Tisch. Aber das ist IMO aktuell nicht der Fall. Wären solche Vorteile irrelevant würde NV nicht nach wie vor 2/3 der Marktes halten.

Ohne massive Einsparungen könnte ATi, mit der current gen, nicht mal in die Nähe der Geforces kommen.

Du hast dir den Artikel zumindest angesehen? Offensichtlich nicht.

LovesuckZ
2009-09-03, 10:39:35
Wo fallen denn Vorteile eines Teilnehmers komplett unter den Tisch? Zählt nur mehr das was in den Balken steht? Ist man nicht mehr in der Lage den Text zu lesen oder zumindest das Fazit, welches mittlerweile eh schon meist auf ein paar Pros und Cons zusammengestutzt wird? Ja, dann fällt wirklich alles unter den Tisch. Aber das ist IMO aktuell nicht der Fall.


Wenn die Vorteile nicht in einem Balken dargestellt werden können, dann kann aufgrund diesem Balken kein Fazit gebildet werden.
Aus dem Balken geht nicht hervor, wie CSAA/WiTeEd zu den MSAA Verfahren sich verhalten, noch wie es bei HQ/A.I Off zu Q/Default aussieht.
Ich brauche keine Balken, wenn sie nicht die Wirklichkeit widerspiegeln. Man hat Geforce Karten in ein Anwendungsfall gesteckt, der unrealistisch war. Und darauf wurden Fazits und Kaufberatungen ausgesprochen...

reunion
2009-09-03, 10:40:41
"Etwas mehr Samples einsparen" ist doch das gleiche wie "ein paar Kilo mehr beschleunigen" oder "etwas mehr Windwiderstand". Oder siehst Du da einen prinzipiell Unterschied, und wenn ja, warum?

Nein, es gibt keinen prinzipiellen Unterschied. Du sprachst aber in deinem Post von 7er BMW gegen Sprinter, etc. Trotzdem wird es weiter Vergleiche mit etwas mehr Windwiderstand oder Grafikkarten mit etwas weniger Samples geben. Außerdem wird die höhere Sampleanzahl bei NV ja durch das breitere bi-Band wieder relativiert. Man will Vergleiche, man braucht Vergleiche, deswegen müssen solche Unterschiede ja nicht unter den Tisch fallen.

IVN
2009-09-03, 10:42:53
Du hast dir den Artikel zumindest angesehen? Offensichtlich nicht.
Tjo, schau dir mal die Werte, wo von AION zu AIOFF Leistung nicht verloren wird, wo aber beim Zuschalten von x16 (AIOFF) ATis einbrechen. (was so viel bedeutet, das Bugfixes nicht betroffen sind) Z.B. Stalker (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_die_qualitaet_filters/12/). Oder World in Conflict (gleiche Seite).


Und schon AIOFF ist dem HQ unterlegen...da wird auch weniger berechnet. Fazit: Müssten die heutigen ATIs die gleiche BQ berechnen wie die Geforces bei HQ, wären sie um eiiiiiiiiniges langsamer. Ist auch logisch, bei der erbärmlich niedrigen TMU-Anzahl.

Grestorn
2009-09-03, 11:08:03
Nein, es gibt keinen prinzipiellen Unterschied. Du sprachst aber in deinem Post von 7er BMW gegen Sprinter, etc.Ganz genau. Und was unterscheiden diese Fahrzeuge, wenn man das VMax der Motoren vergleichen möchte? Genau: Form und Gewicht.

Trotzdem wird es weiter Vergleiche mit etwas mehr Windwiderstand oder Grafikkarten mit etwas weniger Samples geben. Außerdem wird die höhere Sampleanzahl bei NV ja durch das breitere bi-Band wieder relativiert. Man will Vergleiche, man braucht Vergleiche, deswegen müssen solche Unterschiede ja nicht unter den Tisch fallen.Ich könnte ja jetzt sagen, dass das Vorhandensein des Bi-Bandes gar nichts mit Q zu tun hat (da es eine extra Option ist), und auch gar nicht per Default an ist (nur wenn man AF per Treiber erzwingt, nicht aber wenn das Spiel das selbst macht), aber ich lass das mal...

Gast
2009-09-03, 11:08:34
Tjo, schau dir mal die Werte, wo von AION zu AIOFF Leistung nicht verloren wird, wo aber beim Zuschalten von x16 (AIOFF) ATis einbrechen. (was so viel bedeutet, das Bugfixes nicht betroffen sind) Z.B. Stalker (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_die_qualitaet_filters/12/). Oder World in Conflict (gleiche Seite).


Und schon AIOFF ist dem HQ unterlegen...da wird auch weniger berechnet. Fazit: Müssten die heutigen ATIs die gleiche BQ berechnen wie die Geforces bei HQ, wären sie um eiiiiiiiiniges langsamer. Ist auch logisch, bei der erbärmlich niedrigen TMU-Anzahl.

Performance-Verlust durch AI OFF

ANNO 1404 3 fps
Battle Forge 2 fps
Bioshock 1 fps
Cryostasis 2 fps (allerdings unspielbares Setting, auch mit AI)
Crysis Warhead 2 fps (auch unspielbares Setting)
H.A.W.X. 1 fps
Stalker Clear Sky 3 fps (unspielbares Setting)
World in Conflict: SA 6 fps


Man brechen die ein,wenn man die Bugfixe und sinnvollen Optis noch abzieht bleibt richtig was :rolleyes:

LovesuckZ
2009-09-03, 11:11:31
Was deine 1-6 Frames sind, entsprechen einen relativen Einbruch von ca. 10% bei schlechterer Filterung zu HQ.

reunion
2009-09-03, 11:20:13
Ganz genau. Und was unterscheiden diese Fahrzeuge, wenn man das VMax der Motoren vergleichen möchte? Genau: Form und Gewicht.

Ich habe schon im ersten Quote geschrieben das ich das für eine vollkommen überzogenen Darstellung hielt, nicht, dass es prinzipiell falsch sei. Sinnerfassend Lesen.


Ich könnte ja jetzt sagen, dass das Vorhandensein des Bi-Bandes gar nichts mit Q zu tun hat (da es eine extra Option ist), und auch gar nicht per Default an ist (nur wenn man AF per Treiber erzwingt, nicht aber wenn das Spiel das selbst macht), aber ich lass das mal...

Na dann brauche ich ja auch nicht zu sagen dass es darum gar nicht geht. Es geht um möglichst gute Vergleichbarkeit. Ob das default an ist oder nicht ist vollkommen gleichgültig. Wenn es nicht an ist muss man es eben anschalten.

reunion
2009-09-03, 11:22:23
Wenn die Vorteile nicht in einem Balken dargestellt werden kann, dann kann aufgrund diesem Balken kein Fazit gebildet werden.
Aus dem Balken geht nicht hervor, wie CSAA/WiTeEd zu den MSAA Verfahren sich verhalten, noch wie es bei HQ/A.I Off zu Q/Default aussieht.
Ich brauche keine Balken, wenn sie nicht die Wirklichkeit widerspiegeln. Man hat Geforce Karten in ein Anwendungsfall gesteckt, der unrealistisch war. Und darauf wurden Fazits und Kaufberatungen ausgesprochen...

Das solche Benchs mit nicht direkt mit dem Konkurrenten vergleichbaren Settings auch wichtig wären habe ich nie bestritten. Ganz im Gegenteil, das wäre neben den reinen IQ-Vergleichen mit solchen Features sicherlich eben so wichtig, denn ein Feature welches zwar gut ist aber übermäßig Leistung kostet nützt kaum jemanden etwas.

LovesuckZ
2009-09-03, 11:29:25
Das solche Benchs mit nicht direkt mit den Konkurrenten vergleichbaren Settings auch wichtig wären habe ich nie bestritten. Ganz im Gegenteil, das wäre neben den reinen IQ-Vergleichen mit solchen Features sicherlich eben so wichtig, denn ein Feature welches zwar gut ist aber übermäßig Leistung kostet nützt kaum jemanden etwas.

Falsch, den es ist der einzige Vergleich, der zählt. Man kann nicht Vorteile einfach wegfallen lassen, weil der Konkurrent sie nicht anbietet. Ich kann keine Karte empfehlen, weil sie in "vergleichbaren Einstellungen" schneller ist, aber im Gesamtbild weniger Möglichkeiten offenbart. So ist es aber in den letzten Jahren gelaufen. Q und Default sind suboptimal - nur nVidia bietet einen deutlich besseren Modus zu Q an. Wie kann es also sein, dass AMD dann empfohlen wird? Es spielt keine Rolle, dass AMD mit Default schneller ist, wenn man jedoch in bestimmten Situationen eine bessere Qualität haben will.

Raff
2009-09-03, 11:32:40
Es spielt keine Rolle, dass AMD mit Default schneller ist, wenn man jedoch in bestimmten Situationen eine bessere Qualität haben will.

Tut es leider schon, da es wohl 95 Prozent aller spielenden Individuen Wurstsalat ist, wie korrekt der Filter zu Werke geht. Ruckeln sieht hingegen fast jeder. Man darf nicht immer alles aus der Sicht eines BQ-Fanatikers sehen, denn das ist realitätsfremd. Es ist richtig und mag für die BQ-Junkies gelten, nicht aber für die meisten Leute, die sich einen PC kaufen.

MfG,
Raff

mapel110
2009-09-03, 11:36:50
Tut es leider schon, da es wohl 95 Prozent aller spielenden Individuen Wurstsalat ist, wie korrekt der Filter zu Werke geht. Ruckeln sieht hingegen fast jeder. Man darf nicht immer alles aus der Sicht eines BQ-Fanatikers sehen, denn das ist realitätsfremd. Es ist richtig und mag für die BQ-Junkies gelten, nicht aber für die meisten Leute, die sich einen PC kaufen.

MfG,
Raff
Kannst du mal ein Beispiel nennen, wo AI ON und OFF den Unterschied zwischen Ruckeln und nicht Ruckeln ausmacht?

puntarenas
2009-09-03, 11:39:44
Kannst du mal ein Beispiel nennen, wo AI ON und OFF den Unterschied zwischen Ruckeln und nicht Ruckeln ausmacht?
Falscher Ansatz, es geht doch eher um ATI-Karte X gegen Nvidia-Karte Y bei gleichem Preis. Stumpfe FPS liefert ATI oft billiger.

LovesuckZ
2009-09-03, 11:45:36
Tut es leider schon, da es wohl 95 Prozent aller spielenden Individuen Wurstsalat ist, wie korrekt der Filter zu Werke geht. Ruckeln sieht hingegen fast jeder. Man darf nicht immer alles aus der Sicht eines BQ-Fanatikers sehen, denn das ist realitätsfremd. Es ist richtig und mag für die BQ-Junkies gelten, nicht aber für die meisten Leute, die sich einen PC kaufen.

MfG,
Raff

Dann vergleicht bitte nicht Grafikkarten unterschiedlicher IHVs miteinander. :rolleyes:
Oder anders: Wie kann man es rechtfertigen 8xMSAA zu testen, wenn 95% eurer Leserschaft keinen Wert darauflegen als "BQ-Fanatiker" angesehen zu werden?

Schlammsau
2009-09-03, 11:47:46
Ich hab kein Problem damit, wenn 8xAA weggelassen werden würde. Spiele in 99,9% aller Fälle mit 4xAA und 16xAF. Zur Not geht ab und an mal runter auf 8xAF.....

reunion
2009-09-03, 11:48:34
Falsch, den es ist der einzige Vergleich, der zählt. Man kann nicht Vorteile einfach wegfallen lassen, weil der Konkurrent sie nicht anbietet. Ich kann keine Karte empfehlen, weil sie in "vergleichbaren Einstellungen" schneller ist, aber im Gesamtbild weniger Möglichkeiten offenbart. So ist es aber in den letzten Jahren gelaufen. Q und Default sind suboptimal - nur nVidia bietet einen deutlich besseren Modus zu Q an. Wie kann es also sein, dass AMD dann empfohlen wird? Es spielt keine Rolle, dass AMD mit Default schneller ist, wenn man jedoch in bestimmten Situationen eine bessere Qualität haben will.

Ich sehe nicht wo der Vorteil deswegen wegfällt. Jeder weiß das NV aktuell diese Vorteile bietet, und wem das wichtig ist der wird das sicherlich berücksichtigen. Man braucht nunmal vergleichbare Einstellungen um zu vergleichen. Als R5xx damals winkelunabhängiges AF anbot und G7x nicht wurden die AMD-Karten genau so auf winkelabhängiges AF gezwungen um Vergleichbarkeit herzustellen. Obwohl natürlich kein R5xx-User auf die Idee gekommen wäre mit winkelabhängigem-AF zu spielen. Der Vorteil war dennoch vorhanden und jeder wusste das, wem das wichtig war, der kaufte einen R5xx. So einfach ist das.

LovesuckZ
2009-09-03, 11:51:01
Ich sehe nicht wo der Vorteil deswegen wegfällt. Jeder weiß das NV aktuell diese Vorteile bieten, und wem das wichtig ist der wird das sicherlich berücksichtigen. Man braucht nunmal vergleichbare Einstellungen um zu vergleichen. Als R5xx damals winkelunabhängiges AF anbot und G7x nicht wurde die AMD-Karten genau so auf winkelabhängiges AF gezwungen um Vergleichbarkeit herzustellen. Obwohl natürlich kein R5xx-User auf die Idee gekommen wäre mit WA-AF zu spielen. Der Vorteil war dennoch vorhanden und jeder wusste das, wem das wichtig war, der kaufte einen R5xx. So einfach ist das.

Gleichzeitig gab es Artikel über Artikel über die Filterung der G70/G71 Karten und sie wurden auf HQ gezwungen.
Ich muss die letzten drei Jahre wohl was verpasst haben, wenn man diese Situation mit der heutigen vergleichen will...

reunion
2009-09-03, 11:53:54
Gleichzeitig gab es Artikel über Artikel über die Filterung der G70/G71 Karten und sie wurden auf HQ gezwungen.
Ich muss die letzten drei Jahre wohl was verpasst haben, wenn man diese Situation mit der heutigen vergleichen will...

Artikel gab es darüber das Q eben nicht vergleichbar mit AI_def ist wie ursprünglich von vielen angenommen und wie auch lange gebencht wurde. Aber selbst zum Schluss benchten abgesehen von der deutschen Presse noch immer die meisten mit Q. Und es gab auch keine/kaum Benchs mit WU-AF bei R5xx, genau das was du gerade kritisierst.

LovesuckZ
2009-09-03, 12:01:04
Und es gab auch keine/kaum Benchs mit WU-AF bei R5xx, genau das was du gerade kritisierst.

Tja, muss dich ja nicht gestört. Ich habe in den Jahren gelernt, dass Reviewer ziemlich unfähig sind. Du dagegen akzeptierst ihre Unfähigkeit mit offenen Händen - sonst würdest du nicht weiterhin "vergleichbare Einstellung" ausrufen.

reunion
2009-09-03, 12:08:03
Tja, muss dich ja nicht gestört. Ich habe in den Jahren gelernt, dass Reviewer ziemlich unfähig sind. Du dagegen akzeptierst ihre Unfähigkeit mit offenen Händen - sonst würdest du nicht weiterhin "vergleichbare Einstellung" ausrufen.

Es hat nichts mit Unfähigkeit zu tun vergleichbare Einstellungen zu verwenden, es ist eine Notwendigkeit um vergleichen zu können.

LovesuckZ
2009-09-03, 12:14:08
Es hat nichts mit Unfähigkeit zu tun vergleichbare Einstellungen zu verwenden, es ist eine Notwendigkeit um vergleichen zu können.

Nein, es ist die Unfähigkeit der Reviewer "vergleichbare Einstellungen" finden zu müssen. Hätte sie sich weiterentwickelnt, hätten sie feststellen müssen, dass die Karten soviele Optionen ermöglichen, die "vergleichbare Einstellung" zu unrealistischen Einstellungen herabstufen. HQ ist eine Option, die man nur bei nVidia hat. Es gibt nichts vergleichbares bei AMD. Wie kann man also AMD Karten anhand von Q und Default empfehlen, wenn nVidia eine bessere Filterungsqualität liefern kann? Wie kann man AMD Karten aufgrund ihrer Leistung mit 8xMSAA gegenüber nVidia empfehlen, wenn beim AF diese Herangehensweise nicht existiert? Du nennst "Notwendigkeit", ich nenne es Unfähigkeit der Reviewer nicht zu sehen, dass 8xMSAA bei nVidia wie HQ eine Option ist - und im Gegensatz zu AMD man davon sehr viele bietet.
AMD wird empfehlen und hat gleichzeitig den geringeren Optionsumfang. Ein sehr interessantes Paradoxon.

Gast
2009-09-03, 12:14:12
Ich habe in den Jahren gelernt, dass Reviewer ziemlich unfähig sind.

Es muss ein großartiges Gefühl sein, die unantastbare, unangreifbare Avantgarde zu sein. Man ist ja auch schon viel zu erhaben, um der breiten Masse ordinäre, eigene Artikel vorzusetzen, die es geradezu perfekt und jedem recht machen.

Enden hier eigentlich alle Diskussionen so?

Gast
2009-09-03, 12:16:26
Tut es leider schon, da es wohl 95 Prozent aller spielenden Individuen Wurstsalat ist, wie korrekt der Filter zu Werke geht. Ruckeln sieht hingegen fast jeder. Man darf nicht immer alles aus der Sicht eines BQ-Fanatikers sehen, denn das ist realitätsfremd. Es ist richtig und mag für die BQ-Junkies gelten, nicht aber für die meisten Leute, die sich einen PC kaufen.

MfG,
Raff
Ganz genau, und ich will das Ganze noch etwas krasser ausdrücken:

Ich hoffe ihr seid euch klar, dass diese ganze ewige Diskussion sowas von 'nerdig' ist.

Da streitet ihr euch bei jeder Gelegenheit über die ATI vs. NVidia BQ-Problematik und fordert dass endlich ein BQ-Vergleichstest hermüsste.
Nun hat CB genau das gemacht, mit dem Ergebnis das die BQ in der DEFAULT-Einstellung IN ETWA vergleichbar ist (mit Aussschlägen in die ein oder andere Richtung. Wie reunion schrieb wird man nie eine exakte Gleichheit herstellen können), und dem Hinweis, dass NVidia aber in HQ Einstellungen eine bessere BQ bietet als ATI.
Wenn man dies so in Graka-Tests macht (und so wird es ja auch meistens gemacht), dann ist es doch ok. Ich weiß jetzt nicht genau wo jetzt das Problem liegt...

Glaubt ihr wirklich dass den durchschnittlichen Spieler irgendwelche speziellen BQ-Modi interessieren? Glaubt ihr wirklich, dass der durchschnittliche Spieler die BQ in Laborbedingungen mit der Lupe untersucht?
Nein das tut er nicht. Und ihr müsst euch nunmal damit abfinden, dass Graka- Reviews für die breite Masse geschrieben werden und es keine 3dcenter-BQ-Fanatiker-Club Edition geben wird. ;)

@LS: ich finde es ziemlich paranoid, dass du da anscheinend andauernd Angst hast, dass NVidia Grakas zu schlecht in Tests abschneiden, und ja *angeblich* andauernd Empfehlungen für ATI abgegeben werden. 1.) ist dies nicht der Fall und 2.) Wie bereits gesagt: was ist daran falsch, AI default gegen Q zu testen, und dann darauf hinzuweisen, dass NVidia aber bessere BQ liefern kann?

Coda
2009-09-03, 12:17:53
Nein.
Was die Sampleanzahl angeht, geht das schon sehr in Richtung 8x. Vor allem filtert 8x bei ATI tatsächlich viele Stellen besser als 16x.

LovesuckZ
2009-09-03, 12:17:56
Es muss ein großartiges Gefühl sein, die unantastbare, unangreifbare Avantgarde zu sein. Man ist ja auch schon viel zu erhaben, um der breiten Masse ordinäre, eigene Artikel vorzusetzen, die es geradezu perfekt und jedem recht machen.

Enden hier eigentlich alle Diskussionen so?

Weiterentwicklung ist Bestandteil des Lebens. Die Unfähigkeit seine eigene Arbeit zu hinterfragen offenbart mehr über Reviewer als über den Leser, der die Heransgehenweise für indiskutabe hält

_DrillSarge]I[
2009-09-03, 12:19:52
Eigentlich werden die Anforderungen immer straffer spezifiziert. Ich behaupte für die Zukunft das Gegenteil.
zwischen können und dies dann in der praxis umsetzen, ist auch ein unterschied.

Gast
2009-09-03, 12:21:31
Weiterentwicklung ist Bestandteil des Lebens. Die Unfähigkeit seine eigene Arbeit zu hinterfragen offenbart mehr über Reviewer als über den Leser, der die Heransgehenweise für indiskutabe hält

Die Eitelkeit, die eigenen Maximen als absolut anzusehen, als gäbe es nichts anderes, offenbart gleichzeitig die Ignoranz desjenigen, die Herangehensweise für indiskutabel hält.

N0Thing
2009-09-03, 12:23:37
Enden hier eigentlich alle Diskussionen so?


Nein, die drehen sich immer weiter im Kreis. :D

LovesuckZ
2009-09-03, 12:24:11
@LS: ich finde es ziemlich paranoid, dass du da anscheinend andauernd Angst hast, dass NVidia Grakas zu schlecht in Tests abschneiden, und ja *angeblich* andauernd Empfehlungen für ATI abgegeben werden. 1.) ist dies nicht der Fall und 2.) Wie bereits gesagt: was ist daran falsch, AI default gegen Q zu testen, und dann darauf hinzuweisen, dass NVidia aber bessere BQ liefern kann?

"Was ist daran falsch, [4xMSAA] gegen [4xMSAA] zu testen und dann darauf hinzuweisen, dass [AMD] aber [schnelleres 8xMSAA liefert]"?
Ja lieber Gast - warum eigentlich? Wieso wird komischerweise 8xMSAA getestet? Aber bei der Filterung dagegen plötzlich sich nur mit der "Hälfte" an Bildqualität zufrieden gegeben?

Die Eitelkeit, die eigenen Maximen als absolut anzusehen, als gäbe es nichts anderes, offenbart gleichzeitig die Ignoranz desjenigen, die Herangehensweise für indiskutabel hält.

Meine Maxime zeigt, dass die heutige Herangehenweise ein Paradoxon darstellt, wenn Qualität nur mit Kantenglättung gleichgesetzt wird.

Gast
2009-09-03, 12:26:05
Nein, die drehen sich immer weiter im Kreis. :D

Wieso wird komischerweise 8xMSAA getestet? Aber bei der Filterung dagegen plötzlich sich nur mit der "Hälfte" an Bildqualität zufrieden gegeben?

q.e.d. :D

Sonyfreak
2009-09-03, 12:35:52
Wieso wird komischerweise 8xMSAA getestet?Beide Hersteller bieten einen absolut vergleichbaren 8xMSAA Modus an. Warum sollte man den nicht vergleichen? :confused:

mfg.

Sonyfreak

LovesuckZ
2009-09-03, 12:58:02
Beide Hersteller bieten einen absolut vergleichbaren 8xMSAA Modus an. Warum sollte man den nicht vergleichen? :confused:

mfg.

Sonyfreak

Weil es sich nicht um einen AA Vergleich handelt. Wieso sollte man beide mit 8xMSAA testen, wenn sie auch über 2xMSAA und 4xMSAA verfügen und der Test keinen Vergleich der einzelnen AA Modi darstellen soll?
Ich finde es sehr verwirrend, dass die einzige Qualitätsverbesserung nach 4xMSAA/16xLQAF nur 8xMSAA ist. Andere Möglichkeiten werden komplett außen vorgelassen, spiegeln nicht die wirkliche Realität wider und dienen einzig nur der Anzeige des 8xMSAA Geschwindigkeitverlustes. Im Grunde brauchen wir nicht 2+ "vergleichbare Einstellungen" - denn mit denen wird der Abstand zur tatsächlichen Welt einfach nur größer. 4xMSAA und 16xLQAF reichen doch komplett aus.

Sonyfreak
2009-09-03, 13:19:37
Wieso sollte man beide mit 8xMSAA testen, wenn sie auch über 2xMSAA und 4xMSAA verfügen und der Test keinen Vergleich der einzelnen AA Modi darstellen soll?Weil es vermutlich auch Leute gibt, die diesen Modus gerne nutzen. Ich gehöre zwar nicht zu dieser Gruppe, sehe allerdings auch keinen Grund 8xMSAA nicht in einen Test aufzunehmen. Die Qualitätsstufen abseits des reinen MSAA sind halt leider nicht vergleichbar. Wie willst du zb. CSAA gegen Widetent-AA aufrechnen? Geht nicht, da Geschmack rein subjektiv ist.

Man könnte höchstens Bildvergleiche machen, und diese kommentiert in den Raum stellen. Nur werden solche Vergleichstests ohnehin für die breite Masse und nicht für "uns" geschrieben. Ich gehe mal davon aus, dass der durchschnittlich interessierte User der 3DC-Diskussionsforen eh weiß welche Vor- und Nachteile welche Karten haben. Der normale, uninformierte Grafikkartenkäufer will harte Fakten bei den Tests geliefert bekommen. Grafikkarten G um 120€ liefert bei Spiel X 87fps, die konkurrierende Karte R hingegen 90fps ums selbe Geld. Dem ist es dreimal egal, dass der anisotrope Filter von AMD nicht auf dem selben Niveau ist.

Hmm, vielleicht hab ich jetzt etwas an deinem Posting vorbei geschrieben. ;(

mfg.

Sonyfreak

puntarenas
2009-09-03, 13:26:05
Weil es vermutlich auch Leute gibt, die diesen Modus gerne nutzen.
Wenn es diese Leute gibt, dann doch sicher nur, weil sie von massenhaften Benchmarkvergleichen mit 8xMSAA, 16xLQAF und ohne AAA/TAA sturmreif geschossen wurden, sicher nicht weil dieser Modus in irgendeiner Weise empfehlenswert wäre.

Computerbase hat jetzt ja immerhin festgestellt, dass für Nvidia-Karten der High Quality Modus empfehlenswert ist, ich will garnicht wissen wie viele Leute mit Quality spielen, weil die Benchmarkreviews diesen Modus implizit nahelegen. Wenn man Artikel für Idioten schreibt (plakativ), dann sollte man sie auch an der Hand nehmen und in die richtige Richtung lenken.

desert
2009-09-03, 13:28:22
Weil es vermutlich auch Leute gibt, die diesen Modus gerne nutzen.


mfg.

Sonyfreak

Es soll sogar leute geben die das beste AF gerne benutzen wollen, nur wird da nicht darauf hingewiesen das da die atis unter diesen einstellungen teilweise ganz schön einbrechen.

Denn es wird überhaupt nicht getestet.

Wieso wird dann aber immer 8aa getestet aber nie hq af? Da wird doch ati massiv bevorzugt. Über nvidia wird berichtet das sie eine 8aa schwäche haben, das ati nicht mal im ansatz mit den hq af von nivida mithalten kann, findet nirgends im netz eine erwähnung. Es wurde/wird einfach totgeschwiegen und als max bq wird immer schön 8aa/16 lq-af benutzen und das wird dann als höchste bildqualität bezeichnet.

LovesuckZ
2009-09-03, 13:32:32
Weil es vermutlich auch Leute gibt, die diesen Modus gerne nutzen. Ich gehöre zwar nicht zu dieser Gruppe, sehe allerdings auch keinen Grund 8xMSAA nicht in einen Test aufzunehmen.

8xMSAA gehört wie HQ, A.I Off, CSAA, WiTeEd, AAA, SS etc. in einen Test. Aber ich kann doch nicht von 4xMSAA/16xLQAF -> 8xMSAA/16xLQAF gehen und das dann "High Quality" nennen. Das verzehrt die Wirklichkeit, weil Spieler unterschiedliche Einstellungen vornehmen. Wir kaufen uns Grafikkarten, weil wir mit individuellen Einstellungen spielen wollen. Würde ich mit nur auf 8xMSAA/16xLQAF beschränken, könnte ich einiges garnicht erleben bzw. sehen.

Die Qualitätsstufen abseits des reinen MSAA sind halt leider nicht vergleichbar. Wie willst du zb. CSAA gegen Widetent-AA aufrechnen? Geht nicht, da Geschmack rein subjektiv ist.

Und da Geschmack verschieden ist, suchen wir uns Settings, die zwar vergleichbar sind, aber beim Geschmack einer Käufergrunde fast komplett vorbeigehen?
Geschmack lässt sich entwickeln, wenn man die Erfahrung gemacht hat. Wenn nur zwei Einstellungenen verwendet werden, wie soll sich dann Geschmack entwickeln? Und wie soll jemand wissen, dass etwas existiert, wenn niemand darüber berichtet?


Man könnte höchstens Bildvergleiche machen, und diese kommentiert in den Raum stellen. Nur werden solche Vergleichstests ohnehin für die breite Masse und nicht für "uns" geschrieben.

Die breite Masse will natürlich ausführlich informiert werden. Es ist ein Trugschluss z.B HQ als Modus für "BQ-Fanatiker" abzustempeln, wenn man der Masse nichtmal die Möglichkeit gibt ihn kennenzulernen. Warum sollte sich jemand für fast 0 Leistungsverlust nicht für den HQ statt den Q Modus entscheiden? Die Masse würde sich auch einen 110PS statt 100PS Motor nehmen, wenn es nichts zusätzliches kostet und keinen höhreren Benzinverbrauch hat.
Wenn ich der Masse etwas verheimliche, kann ich nichts zur Bildung beitragen und mich auch nicht über die Masse beschweren, weil sie es nicht weiß oder eben schlussendlich nicht akzeptiert.

Sonyfreak
2009-09-03, 13:59:19
Wenn man Artikel für Idioten schreibt (plakativ), dann sollte man sie auch an der Hand nehmen und in die richtige Richtung lenken.Ob es Hans Huber wohl interessiert, dass er statt mit Q auch auf HQ spielen könnte?
Wieso wird dann aber immer 8aa getestet aber nie hq af?Weil AMD keinen vergleichbaren HQ-AF Modus bietet. Wie willst du etwas vergleichen, was nicht vorhanden ist. Man kann darauf hinweisen, aber mehr ist nunmal nicht möglich.
8xMSAA gehört wie HQ, A.I Off, CSAA, WiTeEd, AAA, SS etc. in einen Test. Aber ich kann doch nicht von 4xMSAA/16xLQAF -> 8xMSAA/16xLQAF gehen und das dann "High Quality" nennen. Das verzehrt die Wirklichkeit, weil Spieler unterschiedliche Einstellungen vornehmen. Wir kaufen uns Grafikkarten, weil wir mit individuellen Einstellungen spielen wollen. Würde ich mit nur auf 8xMSAA/16xLQAF beschränken, könnte ich einiges garnicht erleben bzw. sehen.Klar, mehr Einstellungen wären interessant. Nur ist das halt Zusatzarbeit für die Reviewer. Und die machen nicht mehr, als unbedingt notwendig ist. Seitenaufrufe statt Qualität, so schauts oft aus.
Und da Geschmack verschieden ist, suchen wir uns Settings, die zwar vergleichbar sind, aber beim Geschmack einer Käufergrunde fast komplett vorbeigehen?
Geschmack lässt sich entwickeln, wenn man die Erfahrung gemacht hat. Wenn nur zwei Einstellungenen verwendet werden, wie soll sich dann Geschmack entwickeln? Und wie soll jemand wissen, dass etwas existiert, wenn niemand darüber berichtet?

Die breite Masse will natürlich ausführlich informiert werden. Es ist ein Trugschluss z.B HQ als Modus für "BQ-Fanatiker" abzustempeln, wenn man der Masse nichtmal die Möglichkeit gibt ihn kennenzulernen. Warum sollte sich jemand für fast 0 Leistungsverlust nicht für den HQ statt den Q Modus entscheiden? Die Masse würde sich auch einen 110PS statt 100PS Motor nehmen, wenn es nichts zusätzliches kostet und keinen höhreren Benzinverbrauch hat.
Wenn ich der Masse etwas verheimliche, kann ich nichts zur Bildung beitragen und mich auch nicht über die Masse beschweren, weil sie es nicht weiß oder eben schlussendlich nicht akzeptiert.Ich hab diverse Bekannte und Freude (und ich rede nicht von PC-DAUs) mehrmals auf das Vorhandensein und die Nützlichkeit von AA und AF hingewiesen. Nützen tun sies aber meistens trotzdem nicht. Warum? - Weil sich die meisten Leute nunmal nicht für Bildqualität interessieren. Das ist zumindest meine Erfahrung.

Es kann sich nunmal nicht jeder Mensch für alles im Alltag interessieren. Ich hab hier Kopfhörer die ich gerne nutze, die einem audiophilen Menschen aber vermutlich die Tränen in die Augen treiben. Mein Fahrrad hab ich mir nach kurzer Beratung im Geschäft gekauft. Meiner Mutter/Großmutter/Cousine ist es auch egal wieviele PS ihr Auto hat. Genau so gehen andere Leute beim Grafikkartenkauf vor: Sie überfliegen - wenn überhaupt - ein oder zwei Tests im Internet und schlagen dann zu. Ich lese mir diese Artikeln einfach aus Interesse durch und nicht weil ich Kaufabsichten hege. Die hab ich nämlich schon lange nicht mehr von solchen Reviews abhängig gemacht.

Ihr seid einfach zu optimistisch was das Interesse an der Materie des durchschnittlichen Kunden anbelangt. :wink:

mfg.

Sonyfreak

Tesseract
2009-09-03, 14:05:47
Beide Hersteller bieten einen absolut vergleichbaren 8xMSAA Modus an. Warum sollte man den nicht vergleichen? :confused:
warum vergleicht man überhaupt einzelne modi? am ende bekommt man doch sowieso ein einziges großes gesamtbild in dem alle faktoren vereint sind.
warum hält man überhaupt am paradigma fest, dass man zwanghaft gleiche bildqualität herstellen muss um dann bis auf 5 stellen hinter dem komma die FPS zu vergleichen?

dann doch lieber bei beiden herstellern die einstellungen verwenden, die jeweils das beste tradeoff bieten, und darauf ein fazit aufbauen.
AMD und nvidia haben andere prioritäten gesetzt. anstatt jetzt zu versuchen diese zwanghaft auszugleichen und stur FPS zu messen sollte man einfach drauf eingehen.
welche der prioritäten ist wichtiger? AA oder filterung? ab einem EER von 4x4 meiner meinung nach eindeutig filterung weil die einen absoluten großteil des bildes und der störenden artefakte beeinflusst.
und genau sowas sollte im fazit stehen.
und selbst unter diesen bedingungen ist ein FPS-vergleich imho immer noch sinnvoller als einstellungen wie 8xAA oder AI-off zu verwenden die in der praxis meist eh total sinnlos sind nur um einen pseudo-fairen vergleich aufstellen- und sein gewissen mit angeblicher objektivität beruhigen zu können.

Gast
2009-09-03, 15:38:42
Es ist interessant hier zu lesen wie oft breite Masse und Vergleichbarkeit fällt.

Was müsste NV den tun um auch in den Genuss dieser Vergelichbarkeit zu kommen.

Schritt 1: Alle AF Modi außer HQ AF ohne Opt. werden gestrichen und zwar so dass auch mit Tool nichts anderes geht. Die Einzige Vergelichbare Einstellung ist dann AI.Off. vs HQ. Schade das Crossfire dann nicht geht aber immerhin ist es vergleichbar obwohl NV hier sogar noch besser filtert.

Schritt 2: 8xMSAA wird durch CSAA ersetzt. Was anderes Auswählen geht selbstverständlich nicht. Ist aber der vergleichbarste Modus zu 8xMSAA.


Ich bin eher ATI-Fan, aber ich möchte gern maximale BQ haben die man sich leistungsmäßig noch erlauben kann; und da sind die letzten 3 ATI Generation Müll. GF 7 war auch totaler Müll, aber ATI Karten werden regelrecht kaputtgemacht indem sie für ihr Vorgehen auch noch Lob einheimsen.


Und was die "breite Masse" angeht: Schaut euch GTA IV an, DAS ist breite Masse. Schwammig und unscharf, dazu noch Kanten (ich hab noch nie solche Kanten bei 1900x1440 gesehn!) und Flimmerhölle. Wollt ihr solche zustände auf eurem PC?

Straputsky
2009-09-06, 14:18:43
Naja, will ich halt auch mal meinen Senf dazugeben (Ich bin einer dieser Grafikkarten-DAUs):

Wo ich recht gebe ist, dass bei jedem Artikel deutlicher darauf hingewiesen werden sollte, dass nVidia in Punkto Bildqualität deutlich mehr kann als ATI.

Generell muss ich aber dazu sagen, dass dieser Punkt vielen bekannt ist (aus meinem Freundeskreis). Aber die, wie ich, haben nun mal kein großes Interesse daran. Für den einen ist die ganze Materie viel zu kompliziert und er hat schlicht kein Interesse daran in den Einstellungen "herumzupfuschen" und den anderen (dazu gehöre wohl ich) ist es relativ egal. Ich habe vor einem halben Jahr mal von ATI zu nVidia gewechselt, weil es mit nVidia-Karten möglich war AA in Gothic 3 zu aktivieren. Ansonsten interessiert mich die BQ herzlich wenig. Bei Hearts of Iron oder Bridge Builder interessiert Grafik nun mal nicht und meinen Kumpels kommt es eher auf den Spielgedanken ansich an, als auf irgendwelche zusätzlichen Optimierungen und die spielen immerhin Rennspiele oder Shooter, wo es vielleicht wirklich was bringen würde.

Wozu also soll derart überdeutlich auf die maximale Bildqualität eingegangen werden, wenn dies bei uns als Käufern vielleicht 10% der Kaufentscheidung ausmacht? Und ich möchte wetten, meine Freunde und ich sind hierbei nicht die Ausnahme. Trotzdem ich sicherlich intelligent genug wäre, um die entsprechenden Einstellungen vorzunehmen, läuft meine immer noch auf Standardmodus. Dabei hätte meine 260er (war ja immerhin vor ein paar Monaten auch mal obere Liga...) auf meinem 19"er wohl genügend Reserven.

Ein funktionierender Stromsparmodus und die Lautstärke des Lüfters sind in der Kaufentscheidung höher gewichtet als die maximal mögliche Bildqualität. nVidia bietet hier also aus unserer Sicht einen netten Bonus, welcher auch entsprechend berücksichtigt werden sollte - aber eben auch nicht mehr.

Das TWIMTBP-Programm wäre für mich sogar eher ein Kaufgrund als die hier angeprangerte Vergleichbarkeit und Optionsvielfalt der verschiedenen Bildmodi.

Dies mal aus der Sicht eines DAUs, der wenig von eurer Fachsimpelei versteht, aber durchaus mal aufklären kann, wieso viele Reviews nicht tiefer in die Materie gehen (sollten?).

Der breite Erfolg der Wii sollte hier auch mal zu denken geben. Viele dieser Käufer besitzen durchaus einen Spiele-PC. BQ alleine ist eben für viele kein zwingender Kaufgrund, ja nicht mal sonderlich kaufentscheidend. Warum also sollte es dann in einem Review derart übergebührend berücksichtigt werden?

boxleitnerb
2009-09-06, 14:47:39
Einerseits verstehe ich, dass man keine Zeit bzw. Lust hat, sich damit auseinanderzusetzen.
Aber wie man mit einer 260 ohne AA/AF spielen kann (Standardeinstellungen), das verstehe ich beim besten Willen nicht. Entschuldigung, wenn du das nicht so gemeint hast.

Und ansonsten sehe ich es gar nicht ein, warum der qualitätsbewusste Spieler nicht gut infomiert werden soll. Wen es nicht interessiert, der soll solche Artikel gar nicht lesen und sich halt irgendeine Karte kaufen, die für seinen Geldbeutel passt.
Wenn ATI aufgrund solcher Artikel mit NV bzgl. BQ gleichziehen würde und ich und viele andere dann endlich auch wieder zu ATI greifen könnten (günstiger und so), dann hat der Artikel sein Ziel nicht verfehlt.

Und es ist wohl klar, dass solche Artikel NICHT für DAUs wie dich geschrieben sind ;)
Wenn man mit der BQ von ATI zufrieden ist, einfach nicht einmischen, das wäre imho die beste Option. Als DAU erst recht, weils einen ja eh nicht interessiert.
Wenn von Leuten wie dir und deinen Freunden dann verstärkt kommt: "Juckt mich nicht", kann das u.U. negative Auswirkungen für "BQ-Fetischisten" wie mich haben, wenn die Hersteller wieder zu sparen anfangen (NV) oder gar nicht erst die BQ wie die Konkurrenz bieten wollen (AMD).

Das ist natürlich nur Spekulatius, aber es ist möglich. Niemand weiß, was NV und AMD machen werden, deshalb ist es doch besser, mehr Druck zu machen als weniger. Ich zahle für die Produkte, da hab ich auch mit den Millionen an Käufern ein paar Stimmen, wo es hingehen soll und ich darf sagen ob ich zufrieden bin oder nicht (auch wenn nur ein Bruchteil wirklich den Mund aufmacht).
Und da NV es schonmal gemacht hat (G70) (bei AMD hab ich grad nicht im Kopf, mit welcher Serie sie bisher am besten/flimmerärmsten gefiltert haben), traue ich ihnen nicht ganz.

Edit:
Das ist wie mit Leuten, die sagen, die aktuelle Generation habe genug Leistung. Sie sagen vielleicht, sie spielen kein Crysis und co und alles läuft noch prima.
Dazu sage ich dann: Schön für euch, aber gibt vielleicht noch andere, die die Leistung für SSAA, Downsampling oder was weiß ich was brauchen. Einfach nicht von sich selbst auf andere schließen...auch wenn man in der klaren Mehrheit ist, gibt es eben immer noch Leute, die höhere Ansprüche haben als man selbst. Und das ist auch gut so, sonst würde sich nämlich gar nix ändern.

Gast
2009-09-07, 00:26:52
Wenn von Leuten wie dir und deinen Freunden dann verstärkt kommt: "Juckt mich nicht", kann das u.U. negative Auswirkungen für "BQ-Fetischisten" wie mich haben, wenn die Hersteller wieder zu sparen anfangen (NV) oder gar nicht erst die BQ wie die Konkurrenz bieten wollen (AMD)
Und da NV es schonmal gemacht hat (G70) (bei AMD hab ich grad nicht im Kopf, mit welcher Serie sie bisher am besten/flimmerärmsten gefiltert haben), traue ich ihnen nicht ganz.

AMDs Glanzzeit gab es nach Beginn des Tiefpunktes bei Nvidia. R520. Afaik nicht defaultmäßig, aber per HQ Option.

Insofern kann man sagen, das die Presse etwas erreicht hat. AMD hat die HQ Option bereit gestellt, Nvidia hat sie verbessert und das Defaultniveau angehoben. Keinen hats mehr gejuckt, AMD konnte locker lässig wieder optimieren, was bei dem Design auch nötig ist und war, um mithalten zu können.

So gesehen hat die Presse einmal alles richtig gemacht, was R520 und G80 zur Folge hatte.
Davor und vor allem danach hat die Presse versagt.

sloth9
2009-09-07, 12:16:44
Ganz genau. Und was unterscheiden diese Fahrzeuge, wenn man das VMax der Motoren vergleichen möchte? Genau: Form und Gewicht.

Ich könnte ja jetzt sagen, dass das Vorhandensein des Bi-Bandes gar nichts mit Q zu tun hat (da es eine extra Option ist), und auch gar nicht per Default an ist (nur wenn man AF per Treiber erzwingt, nicht aber wenn das Spiel das selbst macht), aber ich lass das mal...

Auch bei HQ?
Wenn das Spiel also keine eigene Option für AF bietet, ist diese Optimierung immer an?

Gast
2009-09-08, 09:09:53
Auch bei HQ?
Wenn das Spiel also keine eigene Option für AF bietet, ist diese Optimierung immer an?
Natürlich nicht. Wer sagt es Computerbase, das Fazit ist ungültig und der Test muss wiederholt werden. :devil:

Mr. Lolman
2009-09-08, 09:57:29
Ich könnte ja jetzt sagen, dass das Vorhandensein des Bi-Bandes gar nichts mit Q zu tun hat (da es eine extra Option ist), und auch gar nicht per Default an ist (nur wenn man AF per Treiber erzwingt, nicht aber wenn das Spiel das selbst macht), aber ich lass das mal...

Beim 190.38 ist die TriOpt standardmäßig aktiv...


EDIT: Ich schau mal, wies beim 185.85 war...
EDIT2: Ist beim 185.85 auch standardmäßig aktiv

boxleitnerb
2009-09-08, 10:02:04
Wenn man alle Optimierungen aber manuell per nHancer ausschaltet, ist es egal, ob AF applikationsgesteuert oder treiberseitig eingestellt wird, richtig? Dann hat man immer noch bestmögliche BQ?

In dem Zusammenhang eine Frage:
Spricht etwas dagegen, AF immer treiberseitig zu forcen?

Mr. Lolman
2009-09-08, 10:06:09
In dem Zusammenhang eine Frage:
Spricht etwas dagegen, AF immer treiberseitig zu forcen?

Jo. Manche Spiele legen LUTs auf gewisse Texturestages, die dann nicht anisotrop gefiltert werden sollten. Andere sind wiederum der Meinung, dass manche TS keine Filterung benötigen. Im Zweifelsfall hat man mit App.AF die bessere Performance (zumindest ist das bei Ati-Karten so).

Grestorn
2009-09-08, 11:37:26
Beim 190.38 ist die TriOpt standardmäßig aktiv...


EDIT: Ich schau mal, wies beim 185.85 war...
EDIT2: Ist beim 185.85 auch standardmäßig aktiv

Wie testest Du das?

Bei mir geht TriOpt immer erst dann an, wenn ich vorher im CP einen AF Modus auswaehle, wenn ich vor der Installation eines neuen Treibers wirklich alle Einstellungen geloescht habe.

Mr. Lolman
2009-09-08, 12:12:46
Ich klick auf Restore und installier danach den Treiber und schau wie die Optionen aussehen. Vll. ists bei XP und Vista unterschiedlich. Bei XP ist die 'trilineare Optimierung' jedenfalls standardmäßig aktiv - und der Restore Button funktioniert offensichtlich auch.


EDIT: Ist aber erst mit neueren Treibern so. Ich kann mich erinnern, dass sich ältere Treiber so verhalten haben, wie du beschreibst.

Grestorn
2009-09-08, 12:14:15
Was heisst "Du klickst auf Restore"?

Mr. Lolman
2009-09-08, 12:20:10
Was heisst "Du klickst auf Restore"?

'Restore' ist eine Option im Control Panel (wird wohl auf D wiederherstellen heissen. Hab aber das englische Panel installiert), die die Defaulteinstellungen wiederherstellt. Mal abgesehen davon, dass nach ner Treiberneuinstallation ohnehin immer die Standardeinstellungen aktiv sind.

Aber wie schon gesagt: Was ältere Treiber betrifft hast du recht. Die hatten die 'trilineare Optimierung' erst aktiviert, wenn man AF übers Panel eingestellt hat.

Grestorn
2009-09-08, 12:30:06
Dieses Restore dachte ich mir schon :) Nun, das stellt ja nur das ein, was das CONTROL PANEL fuer Default haelt. Und das unterscheidet sich manchmal von dem was der Treiber so "denkt" :)

Deswegen ist der einzig zuverlaessige Weg: Treiber deinstallieren, Registry putzen (unter System/Control/Video/<UID des Displays>, wird u.a. von nHancer angezeigt der Pfad) und dann neu installieren. Und dann testen ohne das Control Panel je zu starten.

Mr. Lolman
2009-09-08, 12:50:22
Hm, ich installier den Treiber wohl so wie jeder andere auch und nutz das CP für die Settings, so wie wohl 95% aller NV-Nutzer es auch tun. Wenn das CP nun der Meinung ist, dass genannte Einstellungen Treiberdefault sind, betrifft das mich genauso, wie alle anderen CP-Nutzer. Das CP verhält sich bei neuen Treibern hinsichtlich der TRiopt in der Tat anders als bei älteren Versionen.

Aber insofern passt der Vergleich bei CB, denn offensichtlich ist beim 185.85 die TriOpt auch aktiv, wenn man App.AF verwendet...


Dass sich die BQ-Optionen hinsichtlich der Qualität/Defaulteinstellung anders Verhalten, wenn man nicht das CP nutzt ist auch ein alter Hut. (man erinnere sich an HQ+aktive Optimierungen bzw. notwendiger richtiger Reihenfolge zum Ausschalten der Optimierungen, damit sie dann auch wirklich deaktiviert sind. Dazu hats von mir auch mal nen 3DC-Artikel gegeben. )

JoergH
2009-09-08, 13:11:27
In dem verlinkten Artikel ist ja von "High-Quality-Modus" die rede...

Kann mir mal jemand verraten wo/wie ich den einschalten kann?

Danke!

kmf
2009-09-08, 15:09:23
In dem verlinkten Artikel ist ja von "High-Quality-Modus" die rede...

Kann mir mal jemand verraten wo/wie ich den einschalten kann?

Danke!Im CP unter 3D Einstellungen verwalten. Normalerweise steht bei dem betreffenden Eintrag Quality. Wenn du mit der Maus draufklickst, kannst du High Quality einchecken. Dann noch bei negatives LOD zulassen Clamp einchecken.

Sonyfreak
2009-09-08, 17:58:17
Hier schaltet man von Quality auf High-Quality:
http://www.bilderkiste.org/show/thumbnail/51a3f15b18476f5822dcff95f54d37e0/Zwischenablage-1.png (http://www.bilderkiste.org/show/details/51a3f15b18476f5822dcff95f54d37e0/Zwischenablage-1.png.html)

Und so sollte es im Endeffekt aussehen: (VSync und Triple Buffering nach Geschmack)
http://www.bilderkiste.org/show/thumbnail/40161b7431ce51ccd6fe19d92539e1a3/2.png (http://www.bilderkiste.org/show/details/40161b7431ce51ccd6fe19d92539e1a3/2.png.html)

mfg.

Sonyfreak