PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV vs. Ati, AA, AF, Grieseln -> die aktuelle Filterdiskussion


Seiten : 1 2 3 4 5 [6] 7

reunion
2009-05-27, 11:23:58
jo und statt trilinear gibt es nur noch brilinear bei ATI. Immer weiter so ati, irgendwann gibt es wohl garkeine Filterung mehr.

...Die „AF-Blume“ im AF-Tester ist auf dem Catalyst 9.5 nicht mehr trilinear, sondern nur noch brilinear, unabhängig davon, welche AF-Stufe man verwendet...


...Darüber hinaus macht es den Anschein, als hätte ATi das LOD-Bias vom AF leicht ins Negative verschoben. Dadurch würden die AF-Stufen länger eingesetzt, was zur Folge hätte, dass Standbilder zwar schärfer wirken, die Texturen in Bewegung aber mehr zum Flimmern neigen würden – und das ist bereits jetzt ein Problem vom anisotropen Filter bei ATi...

Also immer das was loli wollte, lod gleich ins minus, dann wirkt es immer schön knackig.

Du hast leider nichts verstanden. Wenn du nicht gerade AF-Tester spielst hat sich mit an Sicherheit grenzender Wahrscheinlichkeit nichts geändert. Jetzt sieht man halt auch am AF-Tester die Wahrheit. Vorher hatte der ATI-Treiber die App wohl erkannt und dort immer vorbildlich gefiltert.

Gast
2009-05-27, 11:26:55
Jetzt sieht man halt auch am AF-Tester die Wahrheit. Vorher hatte der ATI-Treiber die App wohl erkannt und dort immer vorbildlich gefiltert.
Schmeißen die bei AMD eigentlich auch Stühle oder gleich den Mitarbeiter aus dem Fenster, schlimme Panne sowas!

LovesuckZ
2009-05-27, 11:28:08
Sie haben nicht die Application erkannt, sondern eingefärbte Mipmaps. Das machen sie seit 2004 so - als sie die Öffentlichkeit eiskalt belogen und in Vergleichen mit nVidia betrogen haben.

Gast
2009-05-27, 11:32:03
Dabei muss man jedoch eine Eigenart des Catalyst-Treibers erwähnen: Wenn dieser erkennt, dass eingefärbte MipMap-Stufen eingesetzt werden, filtert der Optimierungsalgorithmus automatisch trilinear, obwohl in der Praxis primär brilinear angewendet wird. In einem Spiel bekommt man auf einer ATi-GPU also sowieso nur selten einen trilinearen anisotropen Filter zu Gesicht. Dementsprechend verwundert es uns, warum der Catalyst 9.5 zumindest im AF-Tester brilinear filtert, obwohl dieser eingefärbte MipMaps anzeigt.

So wat?

Der AF Tester ist ja kein Spiel :)

Mr. Lolman
2009-05-27, 11:32:47
Außerdem ist das LOD imo gleich. Wirkt nur durch bri leicht negativ. (genauso aber auch stw. leicht positiv, eben das was bri macht). BTW: Falls es wer vergessen haben sollte - so sieht NVs Brilinearität im Vergleich aus:
NV - ATi
http://www.abload.de/thumb/4xaf-q-brid2a2.png (http://www.abload.de/image.php?img=4xaf-q-brid2a2.png) http://www.abload.de/thumb/9r214.png (http://www.abload.de/image.php?img=9r214.png)

LovesuckZ
2009-05-27, 11:36:37
So wat?

Der AF Tester ist ja kein Spiel :)

Richtig, denn in "Spielen" filtern sie seit 2004 so, wie sie es mit dem Cat 9.5 nun auch im Tester anzeigen. ;D
Abgesehen davon hat Computerbase.de ihre Meldung auf Berichtigung im Forum geändert. Aus


Unschuldig ist dabei in der Vergangenheit keiner geblieben: Sowohl ATi als auch Nvidia haben den anisotropen Filter mehr als nur einmal „optimiert“. In letzter Zeit ist jedoch glücklicherweise Stabilität in die Geschichte gekommen. Der anisotrope Filter wurde zwar nicht besser, jedoch immerhin genauso wenig schlechter. Zumindest bis vor kurzem.

wurde


Das ganze hat aber einen Preis, da diese „Optimierungen“ auf Kosten der Bildqualität gehen. Unschuldig ist dabei in der Vergangenheit keiner geblieben: Sowohl ATi als auch Nvidia haben den anisotropen Filter mehr als nur einmal „optimiert“. In letzter Zeit ist jedoch glücklicherweise auf hohem (Nvidia) und recht hohem (ATi) Niveau Stabilität in die Geschichte gekommen.

Journalistische Qualität hat man mit Quasar im Bereich Grafikkarten wohl komplett verloren. Diese Veränderung entbehrt jeder Logik und ist einfach nur falsch.

deekey777
2009-05-27, 11:38:26
Richtig, denn in "Spielen", filtern sie seit 2004 so wie sie es mit dem Cat 9.5 nun auch im Tester anzeigen. ;D

.
Schön wär's.

Mr. Lolman
2009-05-27, 11:39:09
Schön wär's.

Glaubst nicht?


Journalistische Qualität hat man mit Quasar im Bereich Grafikkarten wohl komplett verloren. Diese Veränderung entbehrt jeder Logik und ist einfach nur falsch.

Dann kauf dir einfach PCGH und gut is ;)

desert
2009-05-27, 11:40:40
Außerdem ist das LOD imo gleich. Wirkt nur durch bri leicht negativ. (genauso aber auch stw. leicht positiv, eben das was bri macht). BTW: Falls es wer vergessen haben sollte - so sieht NVs Brilinearität im Vergleich aus:
NV - ATi
http://www.abload.de/thumb/4xaf-q-brid2a2.png (http://www.abload.de/image.php?img=4xaf-q-brid2a2.png) http://www.abload.de/thumb/9r214.png (http://www.abload.de/image.php?img=9r214.png)

Nur ich kann bei nvidia wählen, bei ati nicht. Da bleibt mit nur noch brilinear übrig. Wie man sowas noch verteidigen kann ist mir unverständlich. Die müssen endlich mal einen HQ modus anbieten ohne irgendwelche tricksereien.

deekey777
2009-05-27, 11:47:10
Glaubst nicht?
Ich bin von einer X1950GT im August 2008 auf eine HD3850 umgestiegen, so ich weiß schon, wo es gewaltig hakt (gerade HL2).

Aber was in STALKER SoC los war (habe vor einigen Wochen gespielt), weiß ich nicht, aber das war definitiv nicht bloß eine böse Optimierung, sondern was kaputt. Mit der X1950GT ließ sich dieses Unding damals damit umgehen, indem die Filterung über das CCC geregelt wurde, nicht aber mit der HD3850 (heute!), da stimmt wirklich was nicht.
Dass es mit Radeons lustige Filterprobleme gab, ist nichts Neues: In Painkiller hatte man vernünftige Texturenfilterung auch erst dann, wenn man diese über das CCC regelte.

Mr. Lolman
2009-05-27, 11:53:26
Ich bin von einer X1950GT im August 2008 auf eine HD3850 umgestiegen, so ich weiß schon, wo es gewaltig hakt (gerade HL2).

Aber was in STALKER SoC los war (habe vor einigen Wochen gespielt), weiß ich nicht, aber das war definitiv nicht bloß eine böse Optimierung, sondern was kaputt. Mit der X1950GT ließ sich dieses Unding damals damit umgehen, indem die Filterung über das CCC geregelt wurde, nicht aber mit der HD3850 (heute!), da stimmt wirklich was nicht.
Dass es mit Radeons lustige Filterprobleme gab, ist nichts Neues: In Painkiller hatte man vernünftige Texturenfilterung auch erst dann, wenn man diese über das CCC regelte.

Das liegt aber daran, dass manche ISV den Mipmapfilter beim AppAF nicht auf linear setzen. Fällt wohl nicht auf, wenn man auf NV-Karten entwickelt. Denn NV macht das automatisch (wohl wegen LOD-Stress wenn selbiges negativ wird), ATi machts im Prinzip so wie es sich gehört. (Wie auch bei Fear zB). Irgendwann merken sie dann den Pfusch der App und bauen einen appspezifischen Workaround.

Gast
2009-05-27, 11:55:49
Nur ich kann bei nvidia wählen, bei ati nicht. Da bleibt mit nur noch brilinear übrig. Wie man sowas noch verteidigen kann ist mir unverständlich. Die müssen endlich mal einen HQ modus anbieten ohne irgendwelche tricksereien.

Da du denn 9.5 Treiber offenbar nicht nutzt,oder doch *g* kann dir das doch Schei0egal sein

Gast
2009-05-27, 12:19:30
Das ganze hat aber einen Preis, da diese „Optimierungen“ auf Kosten der Bildqualität gehen. Unschuldig ist dabei in der Vergangenheit keiner geblieben: Sowohl ATi als auch Nvidia haben den anisotropen Filter mehr als nur einmal „optimiert“. In letzter Zeit ist jedoch glücklicherweise auf hohem (Nvidia) und recht hohem (ATi) Niveau Stabilität in die Geschichte gekommen.
Journalistische Qualität hat man mit Quasar im Bereich Grafikkarten wohl komplett verloren. Diese Veränderung entbehrt jeder Logik und ist einfach nur falsch.
Kommt darauf an, wie man es liest. allerdings ist das typisch ComputerBase und ich denke, das hat nichts mit Unterwürfigkeit gegenüber ATI zu tun, sondern mit Stromlinienförmigkeit insgesamt. "Recht hohes Niveau" ist ein typischer Euphemismus, wenn man nicht völlig unglaubwürdig daherkommen, es sich aber auch nicht mit einem Hardwarehersteller verscherzen will, immerhin braucht man sowohl die Leserschaft, als auch Testsamples und gute Hertstellerkontakte. Kann man ComputerBase nicht verdenken, "Wes' Brot ich ess..."

Gast
2009-05-27, 13:00:33
Du hast leider nichts verstanden. Wenn du nicht gerade AF-Tester spielst hat sich mit an Sicherheit grenzender Wahrscheinlichkeit nichts geändert.

Genau es bleibt quasi weiter auf unterirdischen Niveau.

Schrotti
2009-05-27, 13:07:06
Nur ich kann bei nvidia wählen, bei ati nicht. Da bleibt mit nur noch brilinear übrig. Wie man sowas noch verteidigen kann ist mir unverständlich. Die müssen endlich mal einen HQ modus anbieten ohne irgendwelche tricksereien.

Das geht nicht denn dann wären die Benchbalken erheblich kürzer.

DrFreaK666
2009-05-27, 13:10:57
Das geht nicht denn dann wären die Benchbalken erheblich kürzer.

Gehen würde es trotzdem :biggrin:

Gast
2009-05-27, 13:20:18
Zuerst will ich mal die restlichen Vergleichsvideos gesehen. Bisher hab ich nur gehört, dass der Unterschied häufig vernachlässigbar gering ist. Nix im Vergleich zu damals jedenfalls. (entsprechende gifs hab ich schon gepostet)


Nein DU WILLST ES NICHT SEHEN! Versuch doch nicht immer um den heißen Brei herumzureden es nervt einfach.

DrFreaK666
2009-05-27, 13:28:38
Nein DU WILLST ES NICHT SEHEN! Versuch doch nicht immer um den heißen Brei herumzureden es nervt einfach.

Nur weil jemand keine 120%ige Sehstärke heisst bedeutet es nicht, dass er Details in der Ferne einfach nciht sehen will sondern nicht sehen kann.
Genauso könnte es in diesem Fall sein, oder es ist einem einfach egal.
Ich kann z.B. mit dem leichten Flimmern gut leben (habe real aber auch nur eine 50%ige Sehstärke (ohne Hilfe))

LovesuckZ
2009-05-27, 13:34:32
Es geht hier nicht darum, wer mit was leben kann. Ich kann auch mit 4AA in 1680x1050 leben - trotzdem streite ich nicht ab, dass 8xMSAA noch mal ein Zacken besser aussieht.
Es geht darum, dass endlich die Benachteiligung von nVidia aufhört und das die Leser der Test das komplette Bild erhalten. HQ, A.I Off, 16xCSAA gehören ebenfalls mitgetestet. Man kann nVidia nicht dafür bestrafen, dass der Konkurrent nicht die selben Möglichkeiten offentbart. nVidia bietet einen 8xMSAA Modus an, AMD dagegen keinen vergleichbaren HQ. Wieso der 8xMSAA Modus verglichen werden darf, aber HQ und A.I Off keine Verwendung finden, ist eine Frage, die wohl kein Tester auf dieser Welt beantworten können ohne ihr Gesicht zu verlieren.
Objektivität bedeutet auch unbequeme Dinge zu sagen und zu zeigen. Wer aber seine Objektivität für Hits, Werbematerial und zahlende Kundschaft opfert, sollte dies auch so in den Test als Anfangsbemerkung streiben. Immerhin haben dann Fazits und Benchmarks keinen Einfluss mehr auf den Meinungsbildungsprozeß.

derguru
2009-05-27, 13:44:19
nVidia bietet einen 8xMSAA Modus an, AMD dagegen keinen vergleichbaren HQ. Wieso der 8xMSAA Modus verglichen werden darf, aber HQ und A.I Off keine Verwendung finden, ist eine Frage, die wohl kein Tester auf dieser Welt beantworten können ohne ihr Gesicht zu verlieren.
Objektivität bedeutet auch unbequeme Dinge zu sagen und zu zeigen. Wer aber seine Objektivität für Hits, Werbematerial und zahlende Kundschaft opfert, sollte dies auch so in den Test als Anfangsbemerkung streiben. Immerhin haben dann Fazits und Benchmarks keinen Einfluss mehr auf den Meinungsbildungsprozeß.

du beantwortest dir ja die frage schon selbst,irgendwie willst du es nicht verstehen.:rolleyes:

Gast
2009-05-27, 13:46:19
du beantwortest dir ja die frage schon selbst,irgendwie willst du es nicht verstehen.:rolleyes:

Und warum wird dieser Umstand, wenn er doch so klar ist, nicht immer wieder in Reviews angeprangert und sogar von den Fanboys hier bis zum bitteren Ende verteidigt?

LovesuckZ
2009-05-27, 13:49:32
du beantwortest dir ja die frage schon selbst,irgendwie willst du es nicht verstehen.:rolleyes:

Lass mich überlegen: Weil AMD keinen optisch vergleichbaren HQ AF Modus anbietet, ist es fair, einen nicht vergleichbaren 8xMSAA (Leistungsverlustbetrachtung von 4 -> 8) zu vergleichen? Ja, das kann ich irgendwie nicht verstehen. :confused:
Ich will die Sache aber ein bisschen interessanter gestalten: Könnte man AMD's 8xMSAA Modus mit einem nVidia Modus unter 8xMSAA (16QxCSAA) vergleichen, wenn nVidia offiziell nur 4xMSAA und 16xCSAA Modus anbieten würde?
Es kann nicht zu nVidia's Nachteil sein, wenn AMD nicht die selben Möglichkeiten offenbart.

derguru
2009-05-27, 14:12:50
Und warum wird dieser Umstand, wenn er doch so klar ist, nicht immer wieder in Reviews angeprangert und sogar von den Fanboys hier bis zum bitteren Ende verteidigt?

es wird doch gesagt das af bei nv ein zacken sauberer ist.(jedenfalls bei pcgh)was willst du denn noch,Maoam?
Lass mich überlegen: Weil AMD keinen optisch vergleichbaren HQ AF Modus anbietet, ist es fair, einen nicht vergleichbaren 8xMSAA (Leistungsverlustbetrachtung von 4 -> 8) zu vergleichen? Ja, das kann ich irgendwie nicht verstehen. :confused:
Ich will die Sache aber ein bisschen interessanter gestalten: Könnte man AMD's 8xMSAA Modus mit einem nVidia Modus unter 8xMSAA (16QxCSAA) vergleichen, wenn nVidia offiziell nur 4xMSAA und 16xCSAA Modus anbieten würde?
Es kann nicht zu nVidia's Nachteil sein, wenn AMD nicht die selben Möglichkeiten offenbart.

warum ist der 8aa modus nicht vergleichbar?nur weil prozentual nv karten dort mehr einbrechen?:rolleyes:
sagen wir mal nv würde kein 8msaa anbieten,dann würde es auch keine vergleichsbenchmarks geben,wie auch.
ist genau dasselbe bei af.
um einigermaßen objektive zutesten bleibt nur AF A.I. standard vs. AF Q

LovesuckZ
2009-05-27, 14:27:48
wird es doch,es wird doch gesagt das af bei nv ein zacken sauberer ist.(jedenfalls bei pcgh)was willst du denn noch,Maoam?

Gleiche Behandlung beim 8xMSAA Modus - keine Zahlenvergleiche, sondern reine Textform.


warum ist der 8aa modus nicht vergleichbar?nur weil prozentual nv karten dort mehr einbrechen?:rolleyes:

Warum sollte Bildqualität die einzige Vergleichsbarkeitkonstante sein? :confused:
Und wenn wir Karten anhand ihrer Bildqualität vergleichen, wie kann ich andere Karten loben oder sogar empfehlen, die in globaler Betrachtung nicht die Bildqualität der Konkurrenzkarte erreichen können? Aus dieser Betrachtung macht die "vergleichbare" Bildqualität keinen Sinn, da sie keine globale Bewertung zulässt.


sagen wir mal nv würde kein 8msaa anbieten,dann würde es auch keine vergleichsbenchmarks geben,wie auch.
ist genau dasselbe bei af.
um einigermaßen objektive zutesten bleibt nur AF A.I. standard vs. AF Q

Dann sollten wir uns über die Gutmütigkeit von nVidia freuen, dass sie 8xMSAA und 16QxCSAA frei ohne regliche Regelmentierung den User zur Verfügung stellen und sie nicht dafür bestrafen, dass AMD ihre Käufer als Menschen ansieht, die unfähig sind mehr als Knöpfe zu drücken.
Und "objektives testen" impliziert die zur Verfügungstellung aller Informationen - dazu gehört auch HQ, A.I Off, CSAA. Es gibt kein objektives Testen, wenn Informationen vorenthalten werden. Das nennt man auch Propaganda.

Gast
2009-05-27, 14:35:48
Ich bin der Gast der in Post #1221 die Videos hochgeladen hat. Die verwendeten Einstellungen sind die in denen ich üblicherweise spiele. Um für mich selbst vergleichen zu können habe ich eben besagte Videos erstellt -> nur habe ich kaum einen Unterschied gesehen. Ich habe auch mit Nvidia-Karten noch nie auf HQ gespielt, von daher jetzt meine Frage an die Allgemeinheit:

Gibt es Spiele (und wenn ja welche), in denen auch bei Default-Einstellungen deutliche Unterschiede zwischen ATI und Nvidia zu erkennen sind (fehlerhafte Darstellung o.ä.)?

Da ich mich bei jedem Kartenkauf neu zwischen ATI und Nvidia entscheide, kann dieser Unterschied beim nächsten Mal durchaus eine Rolle spielen.

Schlammsau
2009-05-27, 14:41:59
Ich bin der Gast der in Post #1221 die Videos hochgeladen hat. Die verwendeten Einstellungen sind die in denen ich üblicherweise spiele. Um für mich selbst vergleichen zu können habe ich eben besagte Videos erstellt -> nur habe ich kaum einen Unterschied gesehen. Ich habe auch mit Nvidia-Karten noch nie auf HQ gespielt, von daher jetzt meine Frage an die Allgemeinheit:

Gibt es Spiele (und wenn ja welche), in denen auch bei Default-Einstellungen deutliche Unterschiede zwischen ATI und Nvidia zu erkennen sind (fehlerhafte Darstellung o.ä.)?

Da ich mich bei jedem Kartenkauf neu zwischen ATI und Nvidia entscheide, kann dieser Unterschied beim nächsten Mal durchaus eine Rolle spielen.

Bei ATi und nVidia sind zwischen den Default Einstellungen kaum Unterschiede.
Es ist aber ein leichter Vorteil in Richtung nVidia zu erkennen, der aber für normal sterbliche und ohne Lupe kaum auszumachen ist.

Am besten hats CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4770/4/#abschnitt_testsystem) beschrieben:
Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, dass die Qualität der Texturfilterung auf aktuellen ATi- und Nvidia-Grafikkarten in der Standard-Einstellung in etwa vergleichbar sind (mit leichten Vorteilen für die GeForce-Produkte)

MartinRiggs
2009-05-27, 14:44:57
Bei ATi und nVidia sind zwischen den Default Einstellungen kaum Unterschiede.
Es ist aber ein leichter Vorteil in Richtung nVidia zu erkennen, der aber für normal sterbliche und ohne Lupe kaum auszumachen sind.

Am besten hats CB beschrieben:

Naja die AF-Bugwelle in Spielen mit Source-Engine ist wohl kaum zu übersehen.
Das es teilweise im Getümmel nicht stört ist die eine Sache, das ATI massiv spart ist aber absolut nicht zu leugnen.

y33H@
2009-05-27, 14:44:59
Q sieht in Crysis Warhead [siehe Signatur] klar besser aus als AI-def. Und nein, keine Lupe.

LovesuckZ
2009-05-27, 14:45:33
Ja und deswegen müssten sie auch mit Q und A.I off benchen, wenn man "Vergleichbarkeit" erreichen wollte.

Schlammsau
2009-05-27, 14:46:45
Ich hab mir die Videos angeschaut und ich sehe kaum einen Unterschied zwischen Q und A.I. Standard.

Was ist eigentlich der Unterschied zwischen A.I. Standard und A.I. Advanced?

LovesuckZ
2009-05-27, 14:49:34
Schön für dich. :rolleyes:
Immer noch nicht verstanden, dass deine subjektive Meinung hier keine Rolle spielt?

Schlammsau
2009-05-27, 14:51:03
Was ist eigentlich der Unterschied zwischen A.I. Standard und A.I. Advanced?

Jake Dunn
2009-05-27, 15:42:37
Bei ATi und nVidia sind zwischen den Default Einstellungen kaum Unterschiede.

So ist es und auch bei NV wird bei Default nicht rein Tri Gefilter ;) da ist immer schön der Bi bei der bei NV auch noch recht bes.... ist ^^

Schlammsau
2009-05-27, 15:43:03
Ich war mal so frei und hab mal alle 3 Modis mit Crysis 1.21 und 0AA/16xAF durchgebencht.
Mit einem verblüffendem Ergebniss!

Windows Vista x64 SP2 // HD4870/512MB@Standard // Catalyst 9.5

A.I. Standard
Run #1- DX10 1680x1050 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 2308,5


A.I. Advanced
Run #1- DX10 1680x1050 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 2117,5


A.I. Off
Run #1- DX10 1680x1050 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 2261

Wie erwartet hab ich mit A.I. Standard, die höchsten FPS....ABER mit A.I. Advanced die niedrigsten!
Heisst das das Advanced die Bildqualität verbessert?



hier noch der Catalyst Help me:
Setting ATI Catalyst™ A.I. Settings

Click the control slider and move the selector to the left to increase processing performance, or to the right to increase image quality.

y33H@
2009-05-27, 15:52:54
Wenn AI-off so wenig kostet, sollte man damit benchen ;D

Jake Dunn
2009-05-27, 15:55:34
Ich war mal so frei und hab mal alle 3 Modis mit Crysis 1.21 und 0AA/16xAF durchgebencht.
Mit einem verblüffendem Ergebniss!

Windows Vista x64 SP2 // HD4870/512MB@800/1000 // Catalyst 9.5

A.I. Standard



A.I. Advanced



A.I. Off


Wie erwartet hab ich mit A.I. Standard, die höchsten FPS....ABER mit A.I. Advanced die niedrigsten!
Heisst das das Advanced die Bildqualität verbessert?



hier noch der Catalyst Help me:

Hab ich auch schon getestet und AI Adv. hat nichts an Performance gebracht, bei AI off sind es mal 1-2FPS also nicht der Rede wert bei der aktuellen HD4K.
Bei alten Karten gab es aber z.b. unter OpenGL starke Performanceverluste bei AI off.

Jake Dunn
2009-05-27, 15:56:53
Wenn AI-off so wenig kostet, sollte man damit benchen ;D
Nur schlecht bei CF ;D

deekey777
2009-05-27, 17:07:37
Was ist eigentlich der Unterschied zwischen A.I. Standard und A.I. Advanced?
Es kompirimiert zB die Texturen, die es nicht komprimieren darf (Doom 3 auf Ultra).

Jake Dunn
2009-05-27, 17:14:56
Es kompirimiert zB die Texturen, die es nicht komprimieren darf (Doom 3 auf Ultra).

Spart das Vram?

IC3M@N FX
2009-05-27, 17:15:37
Pass mal lieber auf das du dich nicht verschluckst. ;)

Naja da hat der schon irgendwie recht ich hab am anfang auch nicht geglaubt das da unterschied gibt. Ich dachte man muß mit der Lupe schauen aber die Videos von HL2 und The Wichter hier im diesen Thread haben mich einen besseren belehrt.

deekey777
2009-05-27, 17:20:01
Spart das Vram?
Das wäre möglich, nur spielt man mit Ultra gerade, um unkomprimierte Texturen zu sehen.

Schlammsau
2009-05-27, 17:24:47
Naja da hat der schon irgendwie recht ich hab am anfang auch nicht geglaubt das da unterschied gibt. Ich dachte man muß mit der Lupe schauen aber die Videos von HL2 und The Wichter hier im diesen Thread haben mich einen besseren belehrt.

Nicht verwechseln, ich rede hier von den Default Einstellungen und nicht HQ vs. A.I. Default!

Edit:
Hier noch ein paar Benchmarks mit HL² Lost Coast@Max, 1650x1050, 24xEDAA/16xAF, AAA@Performance
A.I. Standard = 109fps
A.I. Advanced = 109fps
A.I. Off = 95fps (Bildfehler)

crux2005
2009-05-27, 17:47:56
was für Bildfelher? kannst du screenshots machen?

Schlammsau
2009-05-27, 17:55:14
was für Bildfelher? kannst du screenshots machen?


Jo.......

http://www.abload.de/img/hl22009-05-2717-50-48-39zp.png

Raff
2009-05-27, 17:59:32
Er meint den Distanznebel, der per Treiber/A.I. beseitigt wird.

MfG,
Raff

Mr. Lolman
2009-05-27, 18:12:08
Nein DU WILLST ES NICHT SEHEN! Versuch doch nicht immer um den heißen Brei herumzureden es nervt einfach.

Ich hab deutlich >100% Sehstärke und hab noch keine anderen Videos von Marc gesehen, einfach WEIL ER NOCH KEINE WEITEREN GEPOSTET HAT. Außerdem hat er gemeint, dass man den Unterschied zB bei COD4 garnicht sehen kann. :rolleyes:

y33H@
2009-05-27, 18:18:43
Gar nicht habe ich nicht gesagt, ich sagte schwer. Wenn du mich zitierst, dann bitte korrekt.

Mr. Lolman
2009-05-27, 18:28:41
Gar nicht habe ich nicht gesagt, ich sagte schwer. Wenn du mich zitierst, dann bitte korrekt.

Nö, du sagtest verdammt schwer. Das klingt so wie überhaupt nicht. Aber post einfach mal die Videos, dann können wir uns selbst ein Bild davon machen. Solang nur gerade das Game postet, wo man wirklich nen Unterschied sieht, bestärkst eher die Gäste in ihrer Herumstänkerei. Denn div. Umstände werden einfach so ausgeblendet, wie:

x) dass es offensichtlich einen qualitativen Unterschied machen kann, ob man bei NV-Karten mit Fraps, oder mit der Drucktaste screenshottet.
x) Dass UltimaIX entgegen aller Unkenrufe mit max Qualität auf ner Ati deutlichst besser aussieht
x) dass in Spielen wo TRAAA nicht geht, der ATi User ASBT einschalten kann
x) dass der Unterschied zum damaligen NV40 default und dem heutigen ATi default entgegen aller verklärten Erinnerungen enorm ist.
x) dass inoffizielle Betatreiber anscheinend ruhig ne schlechtere Defaultqualität haben dürfen
usw usf....


Ich muss mal schauen wie ich das mache. Aktuell sinds pro Video halt 100-250 MiB, da Fraps AVIs macht. Am liebsten gar nicht komprimieren, da gerade das Flimmern sonst schnell "zerdampft" wird ... und ich tue mir jez schon teils schwer, Unterschiede glasklar zu erkennen. Crysis etwa sieht man 1A nen Unterschied, CoD4 ists verdammt schwer.

Wie gesagt mal schauen, an Tools sollte es nicht mangeln.

Schlammsau
2009-05-27, 18:41:29
Nö, du sagtest verdammt schwer. Das klingt so wie überhaupt nicht. Aber post einfach mal die Videos, dann können wir uns selbst ein Bild davon machen. Solang nur gerade das Game postet, wo man wirklich nen Unterschied sieht, bestärkst eher die Gäste in ihrer Herumstänkerei. Denn div. Umstände werden einfach so ausgeblendet, wie:

x) dass es offensichtlich einen qualitativen Unterschied machen kann, ob man bei NV-Karten mit Fraps, oder mit der Drucktaste screenshottet.
x) Dass UltimaIX entgegen aller Unkenrufe mit max Qualität auf ner Ati deutlichst besser aussieht
x) dass in Spielen wo TRAAA nicht geht, der ATi User ASBT einschalten kann
x) dass der Unterschied zum damaligen NV40 default und dem heutigen ATi default entgegen aller verklärten Erinnerungen enorm ist.
x) dass inoffizielle Betatreiber anscheinend ruhig ne schlechtere Defaultqualität haben dürfen
usw usf....

Und mit diesem Posting würde ich einen neuen Thread starten!
Am besten noch mit deinen erstellten Gif´s, damit jeder sieht was du meinst.

Raff
2009-05-27, 19:03:25
x) dass es offensichtlich einen qualitativen Unterschied machen kann, ob man bei NV-Karten mit Fraps, oder mit der Drucktaste screenshottet.

Eh? Man sollte es tunlichst vermeiden, JPG zu wählen. Wo sollen andere Unterschiede herkommen?

x) Dass UltimaIX entgegen aller Unkenrufe mit max Qualität auf ner Ati deutlichst besser aussieht

Sicher? 32xS + TSSAA + HQ-AF vs. 24x ED-CFAA + ASBT-AAA dürfte sich wenig nehmen. Bessere Texturen bei Nvidia, mehr Alpha-Übergänge bei Ati.

x) dass in Spielen wo TRAAA nicht geht, der ATi User ASBT einschalten kann

Ich hab' das vorhin unter Vista x64 probiert und nirgends tat sich was. ;( Wo hast du es erfolgreich getestet?

x) dass der Unterschied zum damaligen NV40 default und dem heutigen ATi default entgegen aller verklärten Erinnerungen enorm ist.

Definitiv. Aber auch oft wird HQ schlechter gemacht als es ist.

x) dass inoffizielle Betatreiber anscheinend ruhig ne schlechtere Defaultqualität haben dürfen
usw usf....

WTF?

MfG,
Raff

Mr. Lolman
2009-05-27, 19:12:31
Eh? Man sollte es tunlichst vermeiden, JPG zu wählen. Wo sollen andere Unterschiede herkommen?

Frag ich mich auch. Jedenfalls gibts bei UltimaIX ein Problem mit dem AF. Je nach Mausbewegung hat man mal 16xAF und mal garkeins. Wenn man mit der Drucktaste screenshottet siehts einwandfrei aus. Fraps hingegen zeigt das, was auch am Screenshot zu sehen ist. Hab ich aber eh schon geschrieben. Siehe dazu auch meine letzten Screenshots.


Sicher? 32xS + TSSAA + HQ-AF vs. 24x ED-CFAA + ASBT-AAA dürfte sich wenig nehmen. Bessere Texturen bei Nvidia, mehr Alpha-Übergänge bei Ati.

TSSAA geht nicht. 4x4SSAA glättet die Alphatests mit nem 4x4EER. Ohne Mipmaps flimmerts trotz 4x4SSAA+16xHQ AF deutlichst mehr als auf ATi ohne Mipmaps mit 16xdefault AF, und ohne SSAA. und zwar so stark, dass man die Unterschiede hinsichtlich Brösligkeit schon auch auf den Screenshots sehen kann. Mit Mipmaps hat man AF-Probleme. Auch mit dem aktuellem WHQL von der NV-Page.

Ich hab' das vorhin unter Vista x64 probiert und nirgends tat sich was. ;( Wo hast du es erfolgreich getestet?

UT2004, Strikeforce, UltimaIX

Aber auch oft wird HQ schlechter gemacht als es ist.

Ach? Von wem denn?

WTF?

Jo. Beim 177.98 waren defaultmässig alle Optimierungen aktiv, sobald man AF aktiviert hat. Im Forum wurde ich dann darauf hingewiesen, dass das ja ein inoffizieller Betatreiber sei, und dass man den tunlichst nicht testen sollte. ;)

Dabei wars eigentlich Zufall, dass ich den installiert hatte, weil er eben im Forum verlinkt war und von tollen Performancesteigerungen berichtet wurde.

Schlammsau
2009-05-27, 19:23:20
Hab mal 3 Videos von Crysis gemacht.
Dort sieht man sehr gut, was sich bei den 3 Modis (A.I. Standard, Advanced und Off) verändert.
Ein Vergleich mit ner Geforce (Q und HQ) wäre schön. Am besten von mehreren Usern.

Crysis@High@DX9 // 1280x720 // 0xAA/16xAF

A.I. Standard (http://www.speedshare.org/download.php?id=0F3CA72D3)
A.I. Advanced (http://www.speedshare.org/download.php?id=C410B71B13)
A.I. Off

Savegame (http://www.speedshare.org/download.php?id=54FEEB883)

Raff
2009-05-27, 19:24:53
TSSAA geht nicht. 4x4SSAA glättet die Alphatests mit nem 4x4EER. Ohne Mipmaps flimmerts trotz 4x4SSAA+16xHQ AF deutlichst mehr als auf ATi ohne Mipmaps mit 16xdefault AF, und ohne SSAA. und zwar so stark, dass man die Unterschiede hinsichtlich Brösligkeit schon auch auf den Screenshots sehen kann. Mit Mipmaps hat man AF-Probleme. Auch mit dem aktuellem WHQL von der NV-Page.

Toll. XP, Vista oder 7? Ich hasse es, wenn alte Spiele plötzlich buggy werden.

UT2004, Strikeforce, UltimaIX

Ok, also alte Schinken. Wie schaut's mit dem einstigen ASBT-Killertest 3DMark 2001 SE aus? Oder CoD 5? Da tat sich bei mir unter Vista x64 SP1 + Katalysator 9.5 nichts.

Ach? Von wem denn?

Siehe einen der 65 BQ-Threads der letzten Monate. ;)

Jo. Beim 177.98 waren defaultmässig alle Optimierungen aktiv, sobald man AF aktiviert hat. Im Forum wurde ich dann darauf hingewiesen, dass das ja ein inoffizieller Betatreiber sei, und dass man den tunlichst nicht testen sollte. ;)

Warum reitest du auf Zitaten von Fanboys herum? ;) Mal ab davon: Leak-Treiber sollten nicht als Maßstab gelten, sondern nur offizielle Betas, "Hotfixed" oder WHQLs.

Hab mal 3 Videos von Crysis gemacht.
Dort sieht man sehr gut, was sich bei den 3 Modis (A.I. Standard, Advanced und Off) verändert.
Ein Vergleich mit ner Geforce (Q und HQ) wäre schön. Am besten von mehreren Usern.

Crysis@High@DX9 // 1280x720 // 0xAA/16xAF

A.I. Standard (http://www.speedshare.org/download.php?id=0F3CA72D3)
die anderen Files inklusive Savegame folgen.

Lass mich raten: A.I. Standard und Advanced sind "schön scharf", gerade beim POM, während Off dort Matsch produziert. Und was ist die Referenz – A.I. Standard oder das suggestiv unoptimierte A.I. Off? Ein Tipp: Letzteres bietet Geforce-HQ-Niveau.

MfG,
Raff

Schlammsau
2009-05-27, 19:26:50
Siehe einen der 65 BQ-Threads der letzten Monate. ;)


Sorry aber ich habe hier im Forum, nicht einmal was abfälliges über nVidia HQ lesen dürfen.


Lass mich raten: A.I. Standard und Advanced sind "schön scharf", gerade beim POM, während Off dort Matsch produziert. Und was ist die Referenz – A.I. Standard oder das suggestiv unoptimierte A.I. Off? Ein Tipp: Letzteres bietet Geforce-HQ-Niveau.
Soll ich ehrlich sein?
Ich sehe kaum einen Unterschied. *indeckungeh*

derguru
2009-05-27, 19:26:50
Ich war mal so frei und hab mal alle 3 Modis mit Crysis 1.21 und 0AA/16xAF durchgebencht.
Mit einem verblüffendem Ergebniss!


bei bioshock sieht es genauso aus,mickrige performance unterschiede,eher messtoleranzen.

1920*1200 16AF

A.I. Off 38fps
A.I. default39fps
A.I. Advanced38fps

größte performance unterschiede hab ich bei H2 gemessen von ca. 20% zu off aber das liegt definitive nicht am af.

Raff
2009-05-27, 19:27:31
Sorry aber ich habe hier nicht einmal was abfälliges über nVidia NQ lesen dürfen.

Ich meine NV40/G7x-HQ.

MfG,
Raff

Schlammsau
2009-05-27, 19:38:48
Ich meine NV40/G7x-HQ.

MfG,
Raff

Das war ja auch xtremst bescheiden bei denen und absolut nicht zu vergleichen mit A.I. On heute.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7290566#post7290566

y33H@
2009-05-27, 19:42:39
Holy shit, dein Crysis-Vid flimmert ja asozial ;D AI FTW!

Ich hätte gerne mal das Save, dann schau ich mal, was meine Geforce da so macht.

Raff
2009-05-27, 19:44:22
Soll ich ehrlich sein?
Ich sehe kaum einen Unterschied. *indeckungeh*

Dann möchte ich auch mal ehrlich sein: Halte dich bitte aus BQ-Diskussionen heraus. :) Ehrlich, das erspart viel Diskutiererei und Nervenabrieb. Und es gilt gewiss für alle anderen, die nichts sehen.

MfG,
Raff

Schlammsau
2009-05-27, 19:50:31
Holy shit, dein Crysis-Vid flimmert ja asozial ;D AI FTW!

Ich hätte gerne mal das Save, dann schau ich mal, was meine Geforce da so macht.
Schon da. :)


Hab mal 3 Videos von Crysis gemacht.
Dort sieht man sehr gut, was sich bei den 3 Modis (A.I. Standard, Advanced und Off) verändert.
Ein Vergleich mit ner Geforce (Q und HQ) wäre schön. Am besten von mehreren Usern.

Crysis@High@DX9 // 1280x720 // 0xAA/16xAF

A.I. Standard (http://www.speedshare.org/download.php?id=0F3CA72D3)
A.I. Advanced (http://www.speedshare.org/download.php?id=C410B71B13)
A.I. Off

Savegame (http://www.speedshare.org/download.php?id=54FEEB883)

y33H@
2009-05-27, 19:52:37
Ich mach flott ein Video. Bist du geduckt und schleichst?

Sonyfreak
2009-05-27, 19:53:46
Soll ich ehrlich sein? Ich sehe kaum einen Unterschied. *indeckungeh*
Du hast in einem anderen Thread schon einmal gesagt, dass du keinen großen Wert auf hohe Bildqualität legst.
Du erkennst deinen Aussagen nach kaum BQ-Unterschiede zwischen AMD AIon und Nvidia HQ.

Wäre es dann nicht einfacher, wenn du dich aus diesen Diskussionen heraushältst? Dich interessiert scheinbar weder das Thema, noch erkennst du überhaupt worum es hier geht. Manche wären sicherlich froh, wenn sie dein Wahrnehmungsvermögen hätten.

mfg.

Sonyfreak

Schlammsau
2009-05-27, 19:57:56
Ich mach flott ein Video. Bist du geduckt und schleichst?
Nur geduckt.


Du hast in einem anderen Thread schon einmal gesagt, dass du keinen großen Wert auf hohe Bildqualität legst.
Du erkennst deinen Aussagen nach kaum BQ-Unterschiede zwischen AMD AIon und Nvidia HQ.

Wäre es dann nicht einfacher, wenn du dich aus diesen Diskussionen heraushältst? Dich interessiert scheinbar weder das Thema, noch erkennst du überhaupt worum es hier geht. Manche wären sicherlich froh, wenn sie dein Wahrnehmungsvermögen hätten.

mfg.

Sonyfreak

Ich hab mich mit dieser Aussage nur auf die 3 A.I. Modis bezogen!
Und wie oft soll ich es den noch sagen!? Ich erkenne kaum einen Unterschied zwischen Q und A.I. Standard! :mad:

Jake Dunn
2009-05-27, 19:58:37
Dann möchte ich auch mal ehrlich sein: Halte dich bitte aus BQ-Diskussionen heraus. :) Ehrlich, das erspart viel Diskutiererei und Nervenabrieb. Und es gilt gewiss für alle anderen, die nichts sehen.

MfG,
Raff

Wer sich mit DVDs bei Filmen zufrieden gibt ist auch nicht gerade für BQ-Diskussion predisteniert ^^

Gast
2009-05-27, 20:06:31
Du hast in einem anderen Thread schon einmal gesagt, dass du keinen großen Wert auf hohe Bildqualität legst.
Du erkennst deinen Aussagen nach kaum BQ-Unterschiede zwischen AMD AIon und Nvidia HQ.

Wäre es dann nicht einfacher, wenn du dich aus diesen Diskussionen heraushältst? Dich interessiert scheinbar weder das Thema, noch erkennst du überhaupt worum es hier geht. Manche wären sicherlich froh, wenn sie dein Wahrnehmungsvermögen hätten.

mfg.

Sonyfreak


Woher nimmst Du Dir das Recht, hier großmündig Leute aus dem Thread verbannen zu wollen? Geht's eigentlich noch? Selbiges gilt auch für den PCGH-Mann.

Als NV-User würde mich die BQ von ATI keinen Dreck interessieren (außer man weiß mit seiner Zeit nichts besseres anzufangen, was allerdings reichlich einfältig ist).

Der Firma geht's nach wie vor dreckig, eventuell erledigt sich "euer Problem" von ganz alleine. Dann könnt Ihr mit stolzgeschwellter Brust lauthals verkünden: "Endlich alleine."

y33H@
2009-05-27, 20:08:30
Ich als NV-User interessiere mich sehr wohl für die Konkurrenz. Wer das nicht tut, ist - sorry - dumm und engstirnig. Letzteres ist in allen Lebenslagen wenig hilfreich. B2T.

LovesuckZ
2009-05-27, 20:09:42
Woher nimmst Du Dir das Recht, hier großmündig Leute aus dem Thread verbannen zu wollen? Geht's eigentlich noch? Selbiges gilt auch für den PCGH-Mann.

Als NV-User würde mich die BQ von ATI keinen Dreck interessieren (außer man weiß mit seiner Zeit nichts besseres anzufangen, was allerdings reichlich einfältig ist).

Der Firma geht's nach wie vor dreckig, eventuell erledigt sich "euer Problem" von ganz alleine. Dann könnt Ihr mit stolzgeschwellter Brust lauthals verkünden: "Endlich alleine."

Großartig in einem Thread, bei dem es um die Unterschiede in der BQ geht, zu schreiben, was einem die Unterschiede bei unterschiedlichen Herstellern anginge.
;D

Jake Dunn
2009-05-27, 20:10:35
Ich als NV-User interessiere mich sehr wohl für die Konkurrenz. Wer das nicht tut, ist - sorry - dumm und engstirnig. Letzteres ist in allen Lebenslagen wenig hilfreich. B2T.

Dem stimme ich zu :D kommt da noch ein Video?

y33H@
2009-05-27, 20:15:48
Das HQ- und das Q-Vid mit Schlammsaus-Save sind grade beim uploaden. Wie zu erwarten ist HQ drastisch besser als AI-def, Q ist ebenfalls sichtlich besser als AI-def. Schöne Stelle hat der Gute da gefunden ;D

Schlammsau
2009-05-27, 20:17:27
Das HQ- und das Q-Vid mit Schlammsaus-Save sind grade beim uploaden. Wie zu erwarten ist HQ drastisch besser als AI-def, Q ist ebenfalls sichtlich besser als AI-def. Schöne Stelle hat der Gute da gefunden ;D

Da bin ich aber mal gespannt. :biggrin:

Aber wie gesagt, andere nVidia besitzer sollen auch mal ein Video machen.

Jake Dunn
2009-05-27, 20:19:19
Q ist ebenfalls sichtlich besser als AI-def.

Default?

Ich sehe gerade nur High-Settings :|

y33H@
2009-05-27, 20:20:51
Q = default + 16:1 aktiviert.

EDIT
Das HQ-Vid:

http://www.megaupload.com/?d=7HZ0WECDIch sehe gerade nur High-SettingsWas zur Hölle willst du? Im Treiber default, dann 16:1 dazu. Crysis in 720p @ High @ DX9 ... was sonst?!

Schlammsau
2009-05-27, 20:34:24
Hab mal 3 Videos von Crysis gemacht.
Dort sieht man sehr gut, was sich bei den 3 Modis (A.I. Standard, Advanced und Off) verändert.
Ein Vergleich mit ner Geforce (Q und HQ) wäre schön. Am besten von mehreren Usern.

Crysis@High@DX9 // 1280x720 // 0xAA/16xAF

A.I. Standard (http://www.speedshare.org/download.php?id=0F3CA72D3)
A.I. Advanced (http://www.speedshare.org/download.php?id=C410B71B13)
A.I. Off (http://www.speedshare.org/download.php?id=24A4D98711)

Savegame (http://www.speedshare.org/download.php?id=54FEEB883)

Alles Online.

LovesuckZ
2009-05-27, 20:46:41
A.I Off scheint offline zu sein.

mapel110
2009-05-27, 20:51:40
A.I Off scheint offline zu sein.
Nö, hab ich eben einwandfrei geladen. Sieht kaum besser aus als AI low. O_O Speziell die Bodentextur rechts ist ja richtig fies. Aber sieht dennoch bei nvidia-HQ deutlich ruhiger aus.

Schlammsau
2009-05-27, 20:57:01
Nö, hab ich eben einwandfrei geladen. Sieht kaum besser aus als AI low. O_O Speziell die Bodentextur rechts ist ja richtig fies. Aber sieht dennoch bei nvidia-HQ deutlich ruhiger aus.

Aber HQ flimmert trotzdem noch.

Jake Dunn
2009-05-27, 21:00:25
Was zur Hölle willst du? Im Treiber default, dann 16:1 dazu. Crysis in 720p @ High @ DX9 ... was sonst?!


Hab es gerade Live gesehen bei Very High flimmert es (fast) garnich :D

Very High DX10 1xAA/16xAF (AI Def)
http://www.abload.de/thumb/crysis2009-05-2720-52-xecj.png (http://www.abload.de/image.php?img=crysis2009-05-2720-52-xecj.png)

Coda
2009-05-27, 21:56:20
Aber HQ flimmert trotzdem noch.
HQ erreicht die maximal mögliche Texturqualität mit rein anisotroper Filterung. Das ist ein Null-Argument.

Da werden wohl primär die Shader verantwortlich sein.

Schlammsau
2009-05-27, 22:04:50
HQ erreicht die maximal mögliche Texturqualität mit rein anisotroper Filterung. Das ist ein Null-Argument.

Da werden wohl primär die Shader verantwortlich sein.

Ja und jetzt erklär mal einem Laien, das sind in etwa 90% der Zocker, was der Unterschied zwischen Shaderflimmern und Texturflimmern ist.
Und wie man eindeutig sagen kann, ob es am IHV oder Gamecontent liegt.

puntarenas
2009-05-27, 22:06:02
Neulich beim Optiker

Wie bitte? Das sieht doch ein Blinder!

Ach was, ATI filtert völlig ausreichend, die Unterschiede sehen nur absolute Bildqualitätsfetischisten mit der Lupe.

Bei 3DCenter.org (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7325844#post7325844) gibt es Videos, die das Gegenteil zeigen, zum Beispiel das The Witcher Vergleichsvideo (http://www.megaupload.com/?d=WAVI3QYN).

Okay, aber die Sparmaßnahmen sind ja nicht die einzige Unart in modernen Spielen, Shaderflimmern und Alpha-Tests kommen ja noch dazu.

Stimmt, für Alpha-Tests gibt es aber Transparenz-Anti-Aliasing, gegen Shaderflimmern hilft dagegen im Moment nur SuperSampling und das macht bei aktuellen Spielen das Bild oft unscharf oder kostet zu viel Leistung. Unglücklicherweise bietet ATI das außerdem nicht an, aber im Grunde sollte man auch die Spielehersteller in die Pflicht nehmen.
Das ändert aber nichts am schlechten Filterniveau bei ATI, diese Unzulänglichkeiten werden durch andere Störfaktoren nicht überdeckt, sie kommen als Sahnehäubchen obendrauf.

Leistung hat meine ATI-Karte oft mehr als genug, wie kann ich die Sparmaßnahmen denn dann deaktivieren?

Leider gar nicht, schaltest du A.I. im Treiber aus, filtern die Karten oft ein wenig besser, aber du verlierst spielspezifische Optimierungen und Bugfixes sowie die Crossfire-Unterstützung.

Das ist blöd!

ATI denkt, du bist blöd. Sie behaupten du wärst von Wahlmöglichkeiten im Treiber überfordert.

So ein Unsinn, wozu gibt es denn dann den Expertenmodus im Catalyst Control Center? Ich kann sehr gut selbst entscheiden, ob ich maximale Frameraten oder lieber höhere Bildqualität möchte.

Beschwer dich bei ATI!

Wie kann ich ATI denn erreichen?

ATI sammelt alle Rückmeldungen und Kundenkommentare zunächst über mehrere Monate. Einmal im Quartal setzten sie sich dann gründlich damit auseinander. Das ganze nennt sich Unternehmensbilanz und wird meist sogar recht hübsch aufbereitet. Du kannst ihnen natürlich auch schreiben, aber was sie von dir halten, das weißt du ja schon und erwarte nicht, dass jemand die Post von Idioten liest.


Das Thema kommt ja immer wieder und wir wollten schonmal Videos sammeln, was dann aber im Sand verlaufen ist. Von damals habe ich noch ein kleines Script auf der Platte, das Splitscreen-Videos zur besseren Verdeutlichung bastelt, dieses habe ich mal mit den Crysis-Videos von y33H@ gefüttert.

Das Script decodiert die Videos in Einzelbilder (verlustfrei im PNG-Format), schneidet sie, fügt einen Rand hinzu, beschriftet sie, fügt sie zusammen und kodiert am Ende ein Video im verlustfreien FF video codec 1 (http://en.wikipedia.org/wiki/FFV1). Unglücklicherweise spielt der Windows Media Player diesen (und andere freie Codecs) nicht ab, man benötigt daher beispielsweise den freien SMplayer (VLC sollte auch gehen). Man sollte die Videos unbedingt in Originalgröße betrachten und nicht hochskalieren, außerdem erlaubt SMplayer ein Video als Loop abzuspielen, dann kann man den Blick gemütlich von einer Bildqualitätvariante zur nächsten schweifen lassen.

MPlayer SVN Windows with SMPlayer GUI (recommended):
http://www.mplayerhq.hu/design7/dload.html


The Witcher (Gast-Videos)

Hier die vollständige Szene, von der ausgehend die Splitscreen-Videos erstellt wurden:
http://img3.imagebanana.com/img/xmq0dy/thumb/The_WitcherAFOriginal.png (http://img3.imagebanana.com/view/xmq0dy/The_WitcherAFOriginal.png)

Ein Splitscreen-Video mit einem Ausschnitt von 400x350 Bildpunkten (29MB):
http://img3.imagebanana.com/img/88ck0ds/thumb/The_WitcherAFsplit02ffv1.png (http://img3.imagebanana.com/view/88ck0ds/The_WitcherAFsplit02ffv1.png)
http://www.megaupload.com/?d=WAVI3QYN

Die Witcher-Videos des Gastes eignen sich sehr schön für einen Vergleich, außerdem ist erstaunlich wie wenig die Holzwand mit A.I. Off im Gegensatz zu A.I. Default flimmert, da kann ATI schon fast mit Nvidia mithalten. :)


Crysis (y33h@-Videos)

Hier die vollständige Szene, von der ausgehend die Splitscreen-Videos erstellt wurden:
http://img3.imagebanana.com/img/0wmixaaz/thumb/CrysisAFOriginal.png (http://img3.imagebanana.com/view/0wmixaaz/CrysisAFOriginal.png)

Ein Splitscreen-Video mit einem Ausschnitt von 600x280 Bildpunkten (135MB):
http://img3.imagebanana.com/img/4azuvu7h/thumb/CrysisAFsplit01ffv1.png (http://img3.imagebanana.com/view/4azuvu7h/CrysisAFsplit01ffv1.png)
http://www.megaupload.com/?d=IOCLI4TC

Auf die Spitze getrieben, ein Splitscreen-Video mit einem Bildausschnitt von nur 120x60 Bildpunkten (6,5MB):
http://img3.imagebanana.com/img/qs9bf9e1/thumb/CrysisAFsplit02ffv1.png (http://img3.imagebanana.com/view/qs9bf9e1/CrysisAFsplit02ffv1.png)
http://www.megaupload.com/?d=QVWK5LNU

Crysis (Schlammsau-Save)

Hier die vollständige Szene, von der ausgehend die Splitscreen-Videos erstellt wurden:
http://img3.imagebanana.com/img/blmzgtw/thumb/CrysisAFSchlammsauSaveOriginal.png (http://img3.imagebanana.com/view/blmzgtw/CrysisAFSchlammsauSaveOriginal.png)

Ein vertikales Splitscreen-Video mit einem Ausschnitt von 300x420 Bildpunkten (47MB):
http://img3.imagebanana.com/img/3syd6l/thumb/CrysisAFSchlammsauSavesplit02ffv1.png (http://img3.imagebanana.com/view/3syd6l/CrysisAFSchlammsauSavesplit02ffv1.png)
http://www.megaupload.com/?d=761Y01OT

Ein No-Brainer, weil der Fokus ausschließlich auf die AF-Bugwelle gerichtet ist. A.I. Off ist deutlich besser als A.I. Default, kommt aber nicht ganz an Nvidia Q heran, von Nvidia HQ ganz zu schweigen. :)

Ein Splitscreen-Video mit einem Ausschnitt von 600x460 Bildpunkten (66MB):
http://img3.imagebanana.com/img/0jrnoktj/thumb/CrysisAFSchlammsauSavesplit01ffv1.png (http://img3.imagebanana.com/view/0jrnoktj/CrysisAFSchlammsauSavesplit01ffv1.png)
http://www.megaupload.com/?d=XV7LTVAE

Leider sind Schlammsau und y33h@ nicht exakt gleichzeitig losgelaufen und im Gegensatz zu obigem Video ist die Korrektur nicht ganz so gut gelungen. Schlammsau bekam 0.2s Vorsprung, hat sich in einem seiner Videos aber selbst überholt und da wollte ich ihn nicht gewaltsam ausbremsen. Trotzdem sieht man natürlich sehr schön die Bugwelle im Ausschnitt, das übrige Crysis-Geflimmer lenkt aber vom AF ab.

Vielen Dank an alle Videomacher, das kostet sicher Zeit und Nerven, aber was man zu sehen bekommt ist sehr aufschlußreich. :up:

Update #1: The Witcher Videos
Update #2: Crysis Schlammsau-Save
Update #3: Crysis Schlammsau-Save Vertikal-Split
Update #4: Anekdote "Neulich beim Optiker" und Witcher nach oben

Schlammsau
2009-05-27, 22:09:10
Das Thema kommt ja immer wieder und wir wollten schonmal Videos sammeln, was dann aber im Sand verlaufen ist. Von damals habe ich noch ein kleines Script auf der Platte, das Splitscreen-Videos zur besseren Verdeutlichung bastelt, dieses habe ich mal mit den Crysis-Videos von y33H@ gefüttert.

Das Script decodiert die Videos in Einzelbilder (verlustfrei im PNG-Format), schneidet sie, fügt einen Rand hinzu, beschriftet sie, fügt sie zusammen und kodiert am Ende ein Video im verlustfreien FF video codec 1 (http://en.wikipedia.org/wiki/FFV1). Unglücklicherweise spielt der Windows Media Player diesen (und andere freie Codecs) nicht ab, man benötigt daher beispielsweise den freien SMplayer (VLC sollte auch gehen). Man sollte die Videos unbedingt in Originalgröße betrachten und nicht hochskalieren, außerdem erlaubt SMplayer ein Video als Loop abzuspielen, dann kann man den Blick gemütlich von einer Bildqualitätvariante zur nächsten schweifen lassen.

MPlayer SVN Windows with SMPlayer GUI (recommended):
http://www.mplayerhq.hu/design7/dload.html

Hier die vollständige Szene, von der ausgehend die Splitscreen-Videos erstellt wurden:
http://img3.imagebanana.com/img/0wmixaaz/thumb/CrysisAFOriginal.png (http://img3.imagebanana.com/view/0wmixaaz/CrysisAFOriginal.png)

Ein Splitscreen-Video mit einem Ausschnitt von 600x280 Bildpunkten (135MB):
http://img3.imagebanana.com/img/4azuvu7h/thumb/CrysisAFsplit01ffv1.png (http://img3.imagebanana.com/view/4azuvu7h/CrysisAFsplit01ffv1.png)
http://www.megaupload.com/?d=IOCLI4TC

Auf die Spitze getrieben, ein Splitscreen-Video mit einem Bildausschnitt von nur 120x60 Bildpunkten (6,5MB):
http://img3.imagebanana.com/img/qs9bf9e1/thumb/CrysisAFsplit02ffv1.png (http://img3.imagebanana.com/view/qs9bf9e1/CrysisAFsplit02ffv1.png)
http://www.megaupload.com/?d=QVWK5LNU


Leider taugen die Witcher-Videos des Gastes nicht so recht für Splitscreen-Basteleien, weil er unglücklicherweise unterschiedliche Videoformate für Nvidia und ATI verwendet hat und daher die Frameraten nicht zusammenpassen. Ich lade das Ergebnis trotzdem mal hoch, sobald Megaupload mich lässt und vielleicht jage ich später noch die neuen Videos von Schlammsau und y33H@ durchs Script, diesmal dann eventuell nur als horizontalen Split von 2 Videos.
Vielen Dank an die Videomacher, das kostet sicher Zeit und Nerven, aber was man zu sehen bekommt ist sehr aufschlußreich. :up:


Sehr feine Sache! :up:

Jake Dunn
2009-05-27, 22:18:05
Kommt das NV Q Video nu noch :|

Coda
2009-05-27, 22:19:59
Ja und jetzt erklär mal einem Laien, das sind in etwa 90% der Zocker, was der Unterschied zwischen Shaderflimmern und Texturflimmern ist.
Brauch ich doch gar nicht. Ein flimmriger Texturfilter verschlimmert das Problem grunsätzlich, dazu braucht man nicht wissen was zusätzlich noch flimmern könnte.

Jake Dunn
2009-05-27, 22:25:55
Brauch ich doch gar nicht. Ein flimmriger Texturfilter verschlimmert das Problem grunsätzlich, dazu braucht man nicht wissen was zusätzlich noch flimmern könnte.

Das Shaderflimmern bei CRYSIS stört mich mehr, besonders die Vegetation (da ich nicht nur nach unten schaue) ;) 2x2SSAA ist schon eine richtige Wohltat :D

Schlammsau
2009-05-27, 22:27:08
Brauch ich doch gar nicht. Ein flimmriger Texturfilter verschlimmert das Problem grunsätzlich, dazu braucht man nicht wissen was zusätzlich noch flimmern könnte.

Machs dir nicht so einfach.
Wo dieser Thread hinführt ist nur, dass jegliche Art von flimmern ATi in die Schuhe geschoben wird. Hier muss klar differenziert werden.

Sonyfreak
2009-05-27, 22:28:53
@ puntarenas: Danke für die Vergleichsvideos. Werd ich mir gleich mal anschauen.:)

mfg.

Sonyfreak

y33H@
2009-05-27, 22:29:15
Bevor Du andere Leute als dumm bezeichnest, solltest Du Dich eventuell vorher fragen, was der ganze Krempel hier eigentlich mit unserem echten Leben zu tun hat.Ich bezeichne die als dumm, die mit Scheuklappen bzw. engstirnig durchs Leben laufen. In weit die BQ [welche du abwertend als Krempel bezeichnest] etwas mit dem echten Leben zu tun hat, ist hierbei gar nicht von Relevanz. Du fühlst dich ja offenbar betroffen bzw. angegriffen oder warum sonst meinst du mich mit meinem vollen RealLife-Namen anzuschreiben zu müssen? - das macht keinen guten Eindruck. Nur mal so am Rande ... die Intension ist mir schon klar, keine Angst. Aber als Gast kann man freilich aus der Anonymität bashen. Machts Spaß? Schön - go on.

@ Jake Dunn

War grade im Kickboxen, nu bin ich aber wieder da ;DWo dieser Thread hinführt ist nur, dass jegliche Art von flimmern ATi in die Schuhe geschoben wird.Das POM hat nichts mit dem AF zu tun - daher habe ich es auch deaktiviert, da es überlagert. Dass jegliches Flimmern AMD in die Schuhe geschoben wird, ist deine Erfindung - versuche nicht, in die militante Fanboy-Ecke abzudriften ;)

LovesuckZ
2009-05-27, 22:31:53
Machs dir nicht so einfach.
Wo dieser Thread hinführt ist nur, dass jegliche Art von flimmern ATi in die Schuhe geschoben wird. Hier muss klar differenziert werden.

Guck dir doch einfach das HQ Video an. Dann siehst, was IHV unabhängiges Flimmern ist und welches durch einen optimierten Filter verSTÄRKT wird. :rolleyes:

puntarenas
2009-05-27, 22:34:46
@ puntarenas: Danke für die Vergleichsvideos. Werd ich mir gleich mal anschauen.:)

Sehr gern, das Witcher-Video habe ich nochmal neu gemacht, ist jetzt auch Online. :)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7325844#post7325844

y33H@
2009-05-27, 22:53:53
Crysis [Schlammsau-Save] mit Q:

http://www.megaupload.com/?d=Q10UA4U9

Crysis [Schlammsau-Save] mit HQ:

http://www.megaupload.com/?d=7HZ0WECD

Crysis [Schlammsau-Save] mit AI-def:

http://www.speedshare.org/download.php?id=0F3CA72D3

Crysis [Schlammsau-Save] mit AI-off:

http://www.speedshare.org/download.php?id=24A4D98711

@ puntarenas

Würdest du das bitte auch als 4rer bauen [Q, HQ, AI-off, AI-def]? =)

puntarenas
2009-05-27, 23:01:00
@ puntarenas

Würdest du das bitte auch als 4rer bauen [Q, HQ, AI-off, AI-def]? =)
Na klar, in der Reihenfolge (von oben links nach unten rechts -> Nvidia oben nebeneinander)?

y33H@
2009-05-27, 23:02:12
AI-def ..... Q
AI-off..... HQ

=)

puntarenas
2009-05-27, 23:09:27
Wie gehabt also, gut. :)

Wenn du wünsche zum Bildausschnitt hast, musst du es sagen, sonst schnippel ich nach Gutdünken. Ich versuche allerdings, bei der Gesamtbreite nicht über 1050px zu gehen, damit die meisten User es auf ihren Monitoren 1:1 ansehen können. Die maximale Ausschnittbreite Ausschnitthöhe wäre also 525px (-> 1680x1050), allerdings wäre etwas kleiner besser, IMHO irritiert es ohne Rahmen.

http://img3.imagebanana.com/img/drwe2snd/thumb/CrysisAFSchlammsauSaveOriginal.png (http://img3.imagebanana.com/view/drwe2snd/CrysisAFSchlammsauSaveOriginal.png)

y33H@
2009-05-27, 23:13:14
Du solltest dich eher auf die Mitte und den rechten Teil beschränken, eben da wo das Flimmern und das Banding am deutlichsten ist. Aber bisher hast du das ja auch super hinbekommen - ich zweifle ergo nicht.

Sowas hier etwa - leider passt nicht alles drauf.

http://www.abload.de/thumb/crysisafschlammsausave2vhf.png (http://www.abload.de/image.php?img=crysisafschlammsausave2vhf.png)

Dr. Cox
2009-05-27, 23:15:43
Der Thread lebt ja wieder... :ujump2:


Auf Computerbase hat man nun auch endlich herausgefunden, dass die aktuellen ATI-Karten nicht so perfekt filtern ;D

deekey777
2009-05-28, 00:25:08
Hier herrscht aber ein freundlicher Ton... :uup:

puntarenas
2009-05-28, 01:19:19
Das neue Crysis Splitscreenvideo aus den Schlammsau-Saves ist Online. :)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7325844#post7325844

Update: Ich habe aus den Crysis-Videos nochmal einen No-Brainer mit Fokus auf die AF-Bugwellen geschnitten, nachdem im ComputerBase-Thread deutlich wurde, dass es Vielen nicht gelingt den Blick vor lauter Shaderflimmern und Schattengeflacker auf den Anisotropen Filter zu konzentrieren. Von Crysis habe ich persönlich jetzt die Nase voll, gibt es noch andere Spiele? ;)

Gute Nacht...

derguru
2009-05-28, 03:07:01
nimm half life 2,da fällt es jedem blinden auf;)

obwohl,wozu noch beweisen wenn es fakt ist.(und schon 3000 mal durchgekaut wurde)

desert
2009-05-28, 08:40:02
nimm half life 2,da fällt es jedem blinden auf;)

obwohl,wozu noch beweisen wenn es fakt ist.(und schon 3000 mal durchgekaut wurde)

weil immer noch behauptet wird das das nicht so ist, und kein unterschied zu sehen ist. Kannst ja mal schlammsau fragen, der sieht keinen unterschied.

Botcruscher
2009-05-28, 09:00:00
dass es Vielen nicht gelingt den Blick vor lauter Shaderflimmern und Schattengeflacker auf den Anisotropen Filter zu konzentrieren.

Und genau da liegt für mich der Hund begraben. Eines der letzten Spiele wo sich AF richtig gelohnt hat war UT2004. Selbst bei HL2 fängt es schon teilweise mit extremen Shadergeflimmer an.

Shaderflimmern ist die Seuche aktueller Spiele. Eine Besserung ist leider nicht zu erwarten. Eher im Gegenteil...

Mr. Lolman
2009-05-28, 09:14:16
y33H@ ich würd trotzdem mal deine COD-Videos sehen. Oder gehts dir hier nur darum zu zeigen, wie schlecht ATis AI sein kann?

Schlammsau
2009-05-28, 09:27:39
Hab jetzt mal ein Video gemacht, mit einer typischen Crysis Kampfszene.
Das Video ist im Originalzustand über 1GB gross, deshalb hab ich es mit x264 auf 200MB komprimiert. Sieht aber immernoch nahezu wie das Original aus!
Link folgt......
Will damit nur zeigen, dass das AF flimmern, nur auffällt wenn man geziehlt darauf achtet und im Spielgeschehen (von mir und vielen anderen) nicht wahrgenommen wird.

Und zu allerletzten mal: Mir persönlich fällt kein signifikanter Unterschied zwischen nVidia´s Q und ATi´s A.I. Default auf! Es sind kleinere Unterschiede zu erkennen, aber mir fällt es schwer zu entscheiden ob nun die Radeon oder die Geforce besser filtert!
Bei nVidia´s HQ vs. ATi´s A.I., sind durchaus Vorteile für die Geforce zu erkennen.

y33H@
2009-05-28, 09:37:51
Du siehst das doppelte Banding, welches bei AI stärker ist als bei Q, nicht?y33H@ ich würd trotzdem mal deine COD-Videos sehen. Oder gehts dir hier nur darum zu zeigen, wie schlecht ATis AI sein kann?Sie kommen, wenn ich Zeit dazu habe. Ich aber habe einen Job und ein Privatleben. Wenn ich sage, sie kommen, dann kommen sie auch. Punkt. Und mir gehts nicht darum, zu zeigen ob oder wie schlecht AMD ist - das sieht jeder selbst im Vergleich

Schlammsau
2009-05-28, 09:44:23
Du siehst das doppelte Banding, welches bei AI stärker ist als bei Q, nicht?

Du meinst das Banding auf der Strasse!?
Ich seh kaum einen Unterschied..... Tut mir leid, ist so.

Ich habe noch 100% Sehstärke aber vielleicht liegts am TFT!?

LovesuckZ
2009-05-28, 09:46:47
Und zu allerletzten mal: Mir persönlich fällt kein signifikanter Unterschied zwischen nVidia´s Q und ATi´s A.I. Default auf! Es sind kleinere Unterschiede zu erkennen, aber mir fällt es schwer zu entscheiden ob nun die Radeon oder die Geforce besser filtert!
Bei nVidia´s HQ vs. ATi´s A.I., sind durchaus Vorteile für die Geforce zu
erkennen.[/B]

Hast du es noch nicht mitbekommen, dass deine subjektive Meinung bei diesem Thema hier keinen interessiert?
Abgesehen davon: Wer den Unterschied zwischen Q und A.I Standard nicht sieht, ist entweder blind oder voreingenommen. Und der jenige sollte sich in Zukunft zu jeglichen Bildqualitätsvergleichen, Bildqualitätsdiskussionen einfach auch nicht mehr äußern. :rolleyes:

MartinRiggs
2009-05-28, 09:55:32
Hast du es noch nicht mitbekommen, dass deine subjektive Meinung bei diesem Thema hier keinen interessiert?
Abgesehen davon: Wer den Unterschied zwischen Q und A.I Standard nicht sieht, ist entweder blind oder voreingenommen. Und der jenige sollte sich in Zukunft zu jeglichen Bildqualitätsvergleichen, Bildqualitätsdiskussionen einfach auch nicht mehr äußern. :rolleyes:

Nicht jeder ist super empfindlich und deine Meinung kann auch kaum noch einer hören, denn du bist supergrün egal was NV auf den Markt bringt:rolleyes:

Soviel Selbstgefälligkeit und Ignoranz ist einfach nur....

Raff
2009-05-28, 10:03:53
"Ich sehe keinen/kaum einen Unterschied" ist auch eine Meinung. Vermutlich ist es sogar im Direktvergleich die Meinung der Mehrheit. Leider. Das ist das Problem. Hier streiten sich Haarspalter und Grobsensoriker vor verschiedenen Ausgabegeräten, um das mal extrem auszudrücken. ;)

Die (oft nicht mehr matte) Mattscheibe, auf dem sich die Filter zu erkennen geben, ist ein nicht zu unterschätzender Faktor. An meinem CRT zuhause sieht A.I. vollkommen ausreichend aus, da das Flimmern größtenteils verschluckt wird. An einem gescheiten LCD sieht man das aber. Immer. Behaupte ich anhand meiner Beobachtungen auf unterschiedlichen Flachmännern. Einem billigen TN-Panel traue ich jedoch zu, dass es ebenfalls Informationen unterschlägt.

MfG,
Raff

Schlammsau
2009-05-28, 10:07:11
Einem billigen TN-Panel traue ich jedoch zu, dass es ebenfalls Informationen unterschlägt.

MfG,
Raff

Danke :)
So einen billigen Flachmann scheine ich zu haben.

Mr. Lolman
2009-05-28, 10:25:48
Einem billigen TN-Panel traue ich jedoch zu, dass es ebenfalls Informationen unterschlägt.

MfG,
Raff

Glaub ich nichtmal. Wahrscheinlich scheiterts, wenn überhaupt, dann an den Reaktionszeiten. Aber Blickwinkel und Ausleuchtung kanns schonmal nicht sein (und die sind bei guten TN-Panels auch nicht mehr viel schlechter, als zB bei einem von der Fachpresse hochgelobten NEC mit A-MVA Panel).

Du siehst das doppelte Banding, welches bei AI stärker ist als bei Q, nicht?Sie kommen, wenn ich Zeit dazu habe. Ich aber habe einen Job und ein Privatleben. Wenn ich sage, sie kommen, dann kommen sie auch. Punkt. Und mir gehts nicht darum, zu zeigen ob oder wie schlecht AMD ist - das sieht jeder selbst im Vergleich

Mich wunderts halt, dass du für unzählige Crysis Videos anscheinend locker Zeit hast, aber deine COD-Videos auf der Platte herumgammeln. Aber egal, lassen wir das.

Raff
2009-05-28, 10:29:05
Kannst du deine Kiste eigentlich uneingeschränkt empfehlen? :) Also ich war bei allen TNs bisher von der miesen Qualität bei seitlichem Draufblick enttäuscht.

Hm, ob Overdrive Aliasing-Effekte verstärkt?

Mich wunderts halt, dass du für unzählige Crysis Videos anscheinend locker Zeit hast, aber deine COD-Videos auf der Platte herumgammeln. Aber egal, lassen wir das.

In CoD4 werden kaum so deutliche Unterschiede herauskommen.

MfG,
Raff

Schlammsau
2009-05-28, 10:29:08
Hab jetzt mal ein Video gemacht, mit einer typischen Crysis Kampfszene.
Das Video ist im Originalzustand über 1GB gross, deshalb hab ich es mit x264 auf 200MB komprimiert. Sieht aber immernoch nahezu wie das Original aus!
Crysis@High@DX9 - 16xAF - A.I. Standard (http://www.speedshare.org/download.php?id=03B0E85D11)
Will damit nur zeigen, dass das AF flimmern, nur auffällt wenn man geziehlt darauf achtet und im Spielgeschehen (von mir und vielen anderen) nicht wahrgenommen wird.


Video ist Online.
Und jetzt möchte ich wissen ob irgendeiner irgendwelches (AF) flimmern wahrgenommen hat.

Dr. Cox
2009-05-28, 10:55:39
Update: Ich habe aus den Crysis-Videos nochmal einen No-Brainer mit Fokus auf die AF-Bugwellen geschnitten, nachdem im ComputerBase-Thread deutlich wurde, dass es Vielen nicht gelingt den Blick vor lauter Shaderflimmern und Schattengeflacker auf den Anisotropen Filter zu konzentrieren. Von Crysis habe ich persönlich jetzt die Nase voll, gibt es noch andere Spiele? ;)


Nimm doch Gothic 3, Stalker und HL2. gerade in Gothic 3 fallen flimmernde Texturen an Häusern und Wänden extrem auf ;)

y33H@
2009-05-28, 11:13:32
CoD4 / 1.280 x 720 / max. Details / 4x ingame-MSAA + 16:1 driver-AF:

CoD4 @ Q/Default (http://www.megaupload.com/?d=410F1O81)
CoD4 @ HQ ohne "Optimierungen" (http://www.megaupload.com/?d=H0MHDTAI)

puntarenas
2009-05-28, 11:39:22
Und genau da liegt für mich der Hund begraben. Eines der letzten Spiele wo sich AF richtig gelohnt hat war UT2004. Selbst bei HL2 fängt es schon teilweise mit extremen Shadergeflimmer an.
Sehe ich nicht so, es ist ja nicht so, dass sich die Sünden überlagern würden und man nur den jeweils gröbsten Murks sieht. Der Filter ist eine Baustelle und Gegenstand dieses Threads.

Shaderflimmern ist die Seuche aktueller Spiele. Eine Besserung ist leider nicht zu erwarten. Eher im Gegenteil...
Ja. :frown:
Besonders blöd ist, dass man nichtmal mehr mit der SuperSampling-Keule drüber kann, weil bei neuen Spielen dann das Bild oft matschig wird. Allerdings ist von den Hardware- und Spieleherstellern hier kaum mehr Engagement und Rücksicht zu erwarten, wenn wir sogar Sparfilter anstandslos schlucken.

In Schlammsaus Action-Szene würde ich im Spielverlauf vor lauter Atemnot natürlich auch nichts vom Sparfilter sehen. Die Argumentation ist aber IMHO nicht zielführend, denn unter der Prämisse bräuchte ich auch kein Anti-Aliasing mehr oder sonstwas. Leider ist es ja aber nicht so, dass ATI mit "A.I. my ass" hochintelligent und adaptiv auf einen Qualitätsmodus umschaltet, wenn es in einem Spiel ruhiger zugeht. Ich als alter Rollenspieler schlendere mehr, als dass ich hetze und da trifft mich jede Sünde richtig hart und ärgert mich dann einfach, auch schon bei Nvidia wenn ich aus irgendeinem Grund nicht noch mit SuperSampling gegenhalten kann.

Nimm doch Gothic 3, Stalker und HL2. gerade in Gothic 3 fallen flimmernde Texturen an Häusern und Wänden extrem auf ;)
Eine HalfLive-Szene hatten wir ja schonmal, leider sind die Videos komprimiert und der Header des RV670-Videos ist im Arsch, manuell will ich das nicht nacharbeiten. Vielleicht erbarmt sich ja jemand und stellt das nochmal unkomprimiert nach, ist IMHO eine schöne Szene für einen vertikalen Vergleich von zwei Einstellungen nebeneinander (A.I. Default vs NV HQ).
http://img3.imagebanana.com/img/wli271jb/thumb/HL2.png (http://img3.imagebanana.com/view/wli271jb/HL2.png)

Gothic-Videos wären natürlich auch interessant, ich habe aber weder das Spiel noch ATI-Hardware. Ich bin hier um zu konsumieren, nicht um zu arbeiten. :D

@Lolman
Ich weiß nicht, was die anderen vorhaben, aber ich würde mich durchaus auch für Szenen interessieren, wo ATI konkurrenzfähige Qualität liefert. Das Crysis-Video des Gastes ist dafür ein schönes Beipiel wie ich finde, mit A.I. Off könnte ich da gut leben.

LovesuckZ
2009-05-28, 11:39:43
Nicht jeder ist super empfindlich und deine Meinung kann auch kaum noch einer hören, denn du bist supergrün egal was NV auf den Markt bringt:rolleyes:

Soviel Selbstgefälligkeit und Ignoranz ist einfach nur....

Achso: Die objektiven bewiesenen Unterschiede bei der Filterung sind natürlich vorhanden, nur weil ich "supergrün" bin? Das ist ein super Argument.
Nur weil viele hier von Propaganda bei ihrem Kauf geleitet worden sind, bedeutet das nicht, dass diese Informationszuverfügungstellung auch alle möglichen waren.
Fakt ist, es gibt qualitative Unterschiede zwischen Q und A.I Standard, die eine Vergleichbarkeit bezüglich "gleicher Bildqualität" nicht gewährleisten. Es muss also zukünftig mit A.I off gebencht werden.
Und wenn nur noch Ausflüchte als einziges Gegenargument funktionieren, dann ist es klar, dass alle Reviews bis heute ein falsches Bild dargestellt haben.

Mr. Lolman
2009-05-28, 11:46:53
Kannst du deine Kiste eigentlich uneingeschränkt empfehlen? :) Also ich war bei allen TNs bisher von der miesen Qualität bei seitlichem Draufblick enttäuscht.

Meinen NEC? Uneingeschränkt? Nö! Ich fürchte, das kann ich bei keinem Monitor.

+kräftige Farben
+nach Kalibration sehr hohe Farbtreue
+unzählige Einstellungsmodi
+MP-Modi (mit Backlight Scanning und Black Frame Insertion -> Lesbarkeitstest bis Stufe 27!)
+hohe Maxhelligkeit (gut für MP-Modi)
+sehr geringes, bis nicht vorhandenes Lag (überhaupt mit aktiviertem Through-Modus)
+toller Support

-Blickwinkelabhängigkeit (seitlich vgl zu TNs sehr gut, dafür aber schon bei leichten frontalen Bewegungen tw. minimalste Farbverfälschungen sichtbar)
-Neigung zu Pixelfehler
-Ausleuchtung tw. nicht 100% homogen (insgesamt sehr regelmässig ausgeleuchtet, ohne Lichthöfe, aber bei meinem Modell ist eine Röhre ~1% dunkler als die anderen)
-zu sanftes Overdrive (eher leichte Schatten, anstatt Overdrive Artefakte zu sehen - Einstellungsmöglichkeit wär wünschenswert)
-Brummneigung bei manchen Monitoren (meiner nicht)



Hm, ob Overdrive Aliasing-Effekte verstärkt?

Kann schon sein.

Achso: Die objektiven bewiesenen Unterschiede bei der Filterung sind natürlich vorhanden, nur weil ich "supergrün" bin? Das ist ein super Argument.

Beim "HighEnd-Chip G70: Nur noch mit flimmernder Grafik?" - Thread hast du genau 2 Post abgelassen. Und die haben das Problem auch noch relativiert. Und jetzt?



EDIT - Nochmal: Damals war G70 HQ dank 'buggy' Treiber schlechter als NV40-Q. Und wie NV40-Q ausgesehen hat, hab ich in dem Thread mittels meiner gifs schon gezeigt. Deswegen find ich ja die aktuelle Hexenjagd fast schon irgendwie lustig. :rolleyes:

mapel110
2009-05-28, 11:51:28
CoD4 / 1.280 x 720 / max. Details / 4x ingame-MSAA + 16:1 driver-AF:

CoD4 @ Q/Default (http://www.megaupload.com/?d=410F1O81)
CoD4 @ HQ ohne "Optimierungen" (http://www.megaupload.com/?d=H0MHDTAI)
Hhmhm, vielleicht bin ich noch zu müde, aber ich seh da nur schwer einen Unterschied. Für mich sieht da beides gut aus. Mal nachher nochmal anschauen...

y33H@
2009-05-28, 11:53:49
Joa, ich sagte ja - verdammt schwer. Bei gutem Content [Crysis] sieht man, dass AI spart, bei den verwaschenen Texturen eines Konsolen-Ports eben kaum. Fanboy mag dies als Argument dienen ...

puntarenas
2009-05-28, 11:55:31
Joa, ich sagte ja - verdammt schwer. Bei gutem Content [Crysis] sieht man, dass AI spart, bei den verwaschenen Texturen eines Konsolen-Ports eben kaum
Gibt es zu der CoD-Szene auch schon ATI-Videos? Ich habe ein paar Seiten zurückgeschaut, aber nichts gefunden.

Dr. Cox
2009-05-28, 11:58:20
Gothic-Videos wären natürlich auch interessant, ich habe aber weder das Spiel noch ATI-Hardware. Ich bin hier um zu konsumieren, nicht um zu arbeiten. :D


Das ist ja auch die Aufgabe der verschiedenen Hardwareredakteure, welche die Sparfilter aufdecken und aufzeigen sollen, entsprechende Videos anzufertigen ;)

Und Gothic 3 eignet sich meiner Meinung nach bestens dazu selbst den "Blinden" hier - welche angeblich keine Unterschiede erkennen wischen "AI" und HQ wollen - die Unterschiede deutlichst aufzuzeigen ;)

Mr. Lolman
2009-05-28, 11:59:59
Joa, ich sagte ja - verdammt schwer. Bei gutem Content [Crysis] sieht man, dass AI spart, bei den verwaschenen Texturen eines Konsolen-Ports eben kaum. Fanboy mag dies als Argument dienen ...

COD4 ist doch kein Konsolen-Port. Und verwaschen sind die Texturen imo auch nicht. :|



EDIT: Außerdem würd ich nicht Content automatisch als gut bezeichnen, der Sparfilter offensichtlich macht.

Jake Dunn
2009-05-28, 12:06:24
Und Gothic 3 eignet sich meiner Meinung nach bestens dazu selbst den "Blinden" hier - welche angeblich keine Unterschiede erkennen wischen "AI" und HQ wollen - die Unterschiede deutlichst aufzuzeigen ;)

Wer sagt denn das es keine unterschiede zwischen AI und HQ gibt, das wurde doch schon vor langer Zeit hier geklärt :rolleyes:

y33H@
2009-05-28, 12:07:14
Ok, es ist ein Cross-Plattform-Titel - machts das dann für dich leichter? Und wenn ich mir ein Crysis ansehe, ein Clear Sky oder gar Texturmods, dann sind die Texturen von CoD4 definitiv verwaschen.

Danilo
2009-05-28, 12:07:54
Ich sagte es schon: Wenn man es (angeblich) nicht vergleichen kann, dann lasst es eben sein. Unterteilt die Hefte (NV / ATI) oder macht separate Kästen mit dem Vermerk, dass die getesteten Szenen unter keinen Umständen miteinander vergleichbar sind. Zieht es durch und Ihr habt meinen Respekt. Nur in Foren Propaganda zu machen ist eher ein Zeichen von Schwäche und zeigt, dass es den Meisten nur darum geht, die persönliche Präferenz lobpreisen zu können. Bei Kindern ist das noch niedlich, aber spätestens ab 20 ist das dann doch eher peinlich.

Man Vergleicht auch nicht einen Porsche mit einem Pistenbully, obwohl beide mit Motoren ausgestattet sind und fahren können.

LovesuckZ
2009-05-28, 12:10:59
Beim "HighEnd-Chip G70: Nur noch mit flimmernder Grafik?" - Thread hast du genau 2 Post abgelassen, die das Problem auch noch relativiert haben. Und jetzt?

Du meinst dieses Posting:



Wer jetzt beim G70 die Augen zudrückt, bestärkt nvidias Entwicklungstendenz.

Lächerlich². Diese Entwicklung liegt schon so weit zurueck, dass der G70 nur ein Produkt aus den vielen Faktoren ist.
Ich hoffe nur für dich, dass du dir nie eine Karte mit winkelabhaengigen AF gekauft hast. Denn dadurch traegst du an dieser Situation auch die Mitschuld!

Tja, ersetze G70 durch "r6/7xx" und du hast exakt selbe Situation. Komisch, dass sich an der Aussage seit 4 Jahren nichts geändert hat. Jeder der sich Karten mit "optimierten AF" kauft, trag an der vergangenen, trägt heutigen und zukünftigen ihren Teil dazu bei.


EDIT - Nochmal: Damals war G70 HQ dank 'buggy' Treiber schlechter als NV40-Q. Und wie NV40-Q ausgesehen hat, hab ich in dem Thread mittels meiner gifs schon gezeigt. Deswegen find ich ja die aktuelle Hexenjagd fast schon irgendwie lustig. :rolleyes:

Stimmt, es ist immer gut ein Vergehen mit einem anderen Vergehen aufzuwiegen. Blöd nur, dass heute niemand mehr mit einem NV40 oder G70 spielen muss - außer vielleicht du. Und das auch noch mit Spielen aus dem letzten Jahrtausend. Mein Tipp an dich: Entwickle dich einfach weiter und sehe es ein, dass sich wenigsten bei nVidia etwas in den letzten 5 Jahren schlussendlich getan hat.

Mr. Lolman
2009-05-28, 12:12:38
Ok, es ist ein Cross-Plattform-Titel - machts das dann für dich leichter? Und wenn ich mir ein Crysis ansehe, ein Clear Sky oder gar Texturmods, dann sind die Texturen von CoD4 definitiv verwaschen.

Eher ists so, dass bei vielen Texturmods die Texturen überschärft sind. (Mal abgesehen davon, dass sie ohnehin entweder die Originalstimmung durch andere Farbgebung/Inhalte zunichte machen, oder das Spiel unrealistisch, weil man einfach überall die gleiche Detailtextur drüberzieht).

Aber ehrlich: Dass COD4 verwaschene Texturen haben soll, hör ich das erste Mal ;D


Stimmt, es ist immer gut ein Vergehen mit einem anderen Vergehen aufzuwiegen. Blöd nur, dass heute niemand mehr mit einem NV40 oder G70 spielen muss - außer vielleicht du. Und das auch noch mit Spielen aus dem letzten Jahrtausend. Mein Tipp an dich: Entwickle dich einfach weiter und sehe es ein, dass sich wenigsten bei nVidia etwas in den letzten 5 Jahren schlussendlich getan hat.

Hm, du hast dich ja offensichtlich enorm weiterentwickelt. War dir damals die BQ anscheinend noch ziemlich wurscht, bist du jetzt plötzlich ein eisener Verfechter von AIoff vs Q vergleichen geworden. Respekt. :up:

Nakai
2009-05-28, 12:13:40
Naja mit Dargos Downscaling am Bildschirm-Idee sollte das Flimmern sogar gemindert werden können.

Fakt ist, es gibt qualitative Unterschiede zwischen Q und A.I Standard, die eine Vergleichbarkeit bezüglich "gleicher Bildqualität" nicht gewährleisten. Es muss also zukünftig mit A.I off gebencht werden.
Und wenn nur noch Ausflüchte als einziges Gegenargument funktionieren, dann ist es klar, dass alle Reviews bis heute ein falsches Bild dargestellt haben.

Ich würde mich echt fragen, was du sagen würdest, wenn NV der Schwarze Peter wär. ;D

Wie dem auch sei, die BQ-Unterschiede sind auf jeden Fall deutlich bemerkbar. Wem sie stören is was anderes. ATI muss AI entgültig öffnen. Ich will mir nicht alles vorschreiben lassen. Wer mal mit einem Nhancer die Funktionalitäten einer NV-GPU ausgetestet hat, der will das eigentlich nicht mehr missen.


mfg Nakai

LovesuckZ
2009-05-28, 12:19:01
Ich würde mich echt fragen, was du sagen würdest, wenn NV der Schwarze Peter wär. ;D


Lese meine Postings zum Thema 8xMSAA. ;)
Das schöne ist, ich als GT200 User habe die Wahl - ich kann mit einem qualitätsähnlichen AMD 8xMSAA spielen, oder ich nehme mir eine Alternative.
Ich sage auch, dass 8xMSAA natürlich besser aussieht als 16xCSAA.
Was ich hier aber nicht sage ist, dass man die Unterschiede nicht wahrnehme würde beim Spielen und es deswegen natürlich nur vollkommen fair ist, dass man 16xCSAA mit 8xMSAA vergleichen sollte.


Hm, du hast dich ja offensichtlich enorm weiterentwickelt. War dir damals die BQ anscheinend noch ziemlich wurscht, bist du jetzt plötzlich ein eisener Verfechter von AIoff vs Q vergleichen geworden. Respekt. :up:

Wenn du meinst, dass sich ein Mensch nicht innerhalb von vier Jahren weiterentwickelt und anderen Prioritäten setzen kann, dass scheinst du wesentlich beschränkter in deiner Entwicklung gewesen zu sein als andere.
Wenn dann noch vergessen wird, dass ich bis zum Juli 2006 sogar einen r520 hatt - huhu, dann solltest du dich hinterfragen, wieso du dich nicht weiterentwickelt hast. Ich jedenfalls muss meine Kauferrungenschaften nicht mehr mit Vergehen von anderen Firmen abwiegen.

Jake Dunn
2009-05-28, 12:21:08
Video ist Online.
Und jetzt möchte ich wissen ob irgendeiner irgendwelches (AF) flimmern wahrgenommen hat.

Sieht man garnichts vom (AF) Flimmern. Wie auch? Das Shaderflimmer der Vegetation und die Geometrie Kanten sind um ein vielfaches stärker, zu dem es bei VeryHigh etws besser ist, da CRYTEK versucht hat die Sachen zu "verdecken/verstecken" ;)

Mr. Lolman
2009-05-28, 12:30:46
Wenn du meinst, dass sich ein Mensch nicht innerhalb von vier Jahren weiterentwickelt und anderen Prioritäten setzen kann, dass scheinst du wesentlich beschränkter in deiner Entwicklung gewesen zu sein als andere.
Wenn dann noch vergessen wird, dass ich bis zum Juli 2006 sogar einen r520 hatt - huhu, dann solltest du dich hinterfragen, wieso du dich nicht weiterentwickelt hast. Ich jedenfalls muss meine Kauferrungenschaften nicht mehr mit Vergehen von anderen Firmen abwiegen.

Wir hören uns nochmal, wenn ATi bessere AF-Qualität als NV anbietet. Aber dann findest dus wahrscheinlich wieder kindisch, sich über solche Lächerlichkeiten wie AF-BQ stundenlang auszulassen. :rolleyes:

EDIT: Meinen RV770 hab ich damals gekauft, weil er deutlich günstiger war, als eine GTX192. Dank ATis starker Konkurrenz hat NV mit den Preisen gleichziehen müssen und jetzt hat jeder die Möglichkeit beim Kauf einer günstige GraKa gleichermaßen zw. ATi und NV wählen zu können.

EDIT2: Vll. hab ich mich weiterentwickelt, aber wechsle meine Meinung nicht so häufig wie meine Unterhose. Immerhin kann ich von mir behaupten, dass ich immernoch zu dem steh was ich vor ein paar Jahren behauptet hab - was meine Posts insgesamt auch aufwertet. Denn was hab ich davon, wenn ich den Leuten jetzt meine Meinung aufs Aug drück, und sie gleichzeitig in dem Wissen niederschreibe, dass ich die ganze Sache in ein paar Jahren ohnehin wieder komplett anders seh. Ein solcher Umstand untergräbt nämlich ein wenig die Wertigkeit der aktuellen Aussage, meinst du nicht?

Dr. Cox
2009-05-28, 12:35:58
Wer sagt denn das es keine unterschiede zwischen AI und HQ gibt, das wurde doch schon vor langer Zeit hier geklärt :rolleyes:

Wenn ich hier so einige Postings lese, insbesondere deine, dann wage ich dies allerdings zu bezweifeln.

LovesuckZ
2009-05-28, 12:38:14
Wir hören uns nochmal, wenn ATi bessere AF-Qualität als NV anbietet. Aber dann findest dus wahrscheinlich wieder kindisch, sich über solche Lächerlichkeiten wie AF-BQ stundenlang auszulassen. :rolleyes:

Ich sage, du scheinst dich nicht weiterentwickelt zu haben. Lebst immer noch in deiner niedlichen "Alles-Gute-ATi-Welt".
Ach und ich werde dann die Menschen kindisch finden, die plötzlich wieder Wert auf "astreine" AF Qualität legen. Also genau die Menschen, denen 15 Watt mehrverbrauch beim Idlen schlagartig egal waren. ;)



EDIT: Meinen RV770 hab ich damals gekauft, weil er deutlich günstiger war, als eine GTX192. Dank ATis starker Konkurrenz hat NV mit den Preisen gleichziehen müssen und jetzt hat jeder die Möglichkeit beim Kauf einer günstige GraKa gleichermaßen zw. ATi und NV wählen zu können.

Und wo ist der Bezug zu Diskussion um die Bildqualität - vorallem beim AF? :confused:

Mr. Lolman
2009-05-28, 12:43:32
Ich sage, du scheinst dich nicht weiterentwickelt zu haben. Lebst immer noch in deiner niedlichen "Alles-Gute-ATi-Welt".
Link plz.

Ach und ich werde dann die Menschen kindisch finden, die plötzlich wieder Wert auf "astreine" AF Qualität legen.

Wieso? Die müssten dann ja genau deine Entwicklung durchgemacht haben. Oder findest du dich selbst auch kindisch?


Also genau die Menschen, denen 15 Watt mehrverbrauch beim Idlen schlagartig egal waren. ;)

Und wo ist der Bezug zu Diskussion um die Bildqualität - vorallem beim AF? :confused:


...mal abgesehen davon, dass meine 4870 mit 150/200 idled und dabei keine 40°C warm wird.

DrFreaK666
2009-05-28, 12:50:31
Ich habe mir jetzt auch mal die Crysis-Videos angesehen.
Also Q sieht schon besser aus als AIoff.
Zum Glück spiel ich Crysis nicht :smile:

Jake Dunn
2009-05-28, 12:50:32
Entwarnung: AF bei ATi nicht schlechter geworden

So haben wir den Catalyst 9.4 sowie den Catalyst 9.5 in einigen Spielen verglichen (inklusive diverser selbst angefertigter Videos) und konnten nirgendwo eine schlechtere Qualität feststellen. Die Ergebnisse sind durchgängig identisch.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/mai/entwarnung_af_ati/

LovesuckZ
2009-05-28, 12:53:47
Letzte Posting hierzu - ich habe keine Zeit mich mit jemanden zu unterhalten, der noch im Jahre 2005 lebt. Und das aus diesem Grund:

B2T please!!!

Link plz.

Dieser Thread. Wer vor 4 Jahren anscheinend ein wahres Interesse im Aufzeigung der Problematik hatte, der sollte heute doch nicht die Verniedlichungstour fahren. Vielleicht waren deine noblen Ansichten vor 4 Jahren doch nicht so noble - wohl eher mehr voreingenommen.


Wieso? Die müssten dann ja genau deine Entwicklung durchgemacht haben. Oder findest du dich selbst auch kindisch?

Wer 8 Monate lang den IDLE Verbrauch als wichtig hinstellt und dann schlagartig seine Meinung wechselt, weil seine Lieblingsfirma plötzlich andere Prioritäten setzt, der hat wohl kaum seine Meinung weiterentwickelt.


Und wo ist der Bezug zu Diskussion um die Bildqualität - vorallem beim AF? :confused:

Hat dir Mama nicht verboten zusammenhängende Sätzen auseinander zu zerren? :rolleyes:

DrFreaK666
2009-05-28, 12:55:53
B2T please!!!

Jake Dunn
2009-05-28, 12:56:59
Ich habe mir jetzt auch mal die Crysis-Videos angesehen.
Also Q sieht schon besser aus als AIoff.
Zum Glück spiel ich Crysis nicht :smile:


Ich SPIEL es viel und beim SPIELEN fällt da sowieso nichts störend auf :D

puntarenas
2009-05-28, 12:57:04
Entwarnung: AF bei ATi nicht schlechter geworden

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/mai/entwarnung_af_ati/
Sowohl ATi als auch Nvidia haben den anisotropen Filter mehr als nur einmal „optimiert“. In letzter Zeit ist jedoch glücklicherweise auf hohem (Nvidia) und recht hohem (ATi) Niveau Stabilität in die Geschichte gekommen.
Quelle: ComputerBase-Artikel (http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/mai/qualitaet_filters_ati/)

Zurücklehnen und den letzten Filterschritt im Kopf selbst vollziehen, das nenne ich interaktiv. ;D

Spaß beiseite, natürlich kann man mit der Filterqualität von A.I. Default zufrieden sein und sie als "recht hohes Niveau" empfinden, man kann ja niemandem seine Qualitätsansprüche vorschreiben und Wahrnehmung ist immer höchst subjektiv.

reunion
2009-05-28, 12:58:32
Entwarnung: AF bei ATi nicht schlechter geworden



http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/mai/entwarnung_af_ati/

War ohnehin klar.

DrFreaK666
2009-05-28, 12:59:48
Wie groß ist die Chance, dass die BQ bei den nächsten Radeons besser wird?
Schliesslich dürften sie schneller sein als heutige HD48xxs

Mr. Lolman
2009-05-28, 13:00:13
Letzte Posting hierzu - ich habe keine Zeit mich mit jemanden zu unterhalten, der noch im Jahre 2005 lebt.

Gut so. Dann wird der Thread nichtmehr weiter zugemüllt.



Dieser Thread. Wer vor 4 Jahren anscheinend ein wahres Interesse im Aufzeigung der Problematik hatte, der sollte heute doch nicht die Verniedlichungstour fahren.

Das liegt eben daran, dass der Unterschied heutzutage vlg zu damals minimal ist, und die default BQ gleichzeitig relativ vergleichbar ist.


Wer 8 Monate lang den IDLE Verbrauch als wichtig hinstellt und dann schlagartig seine Meinung wechselt, weil seine Lieblingsfirma plötzlich andere Prioritäten setzt, der hat wohl kaum seine Meinung weiterentwickelt.

Ich glaub du verwechselst mich mit jemandem.


Hat dir Mama nicht verboten zusammenhängende Sätzen auseinander zu zerren? :rolleyes:

Nö. Ich kenn deine Mama nicht.

puntarenas
2009-05-28, 13:00:54
War ohnehin klar.
Fragt sich bloß, ob sie den alten Zustand wiederherstellen und die Blume brav aufhübschen, wir werden es im nächsten Hotfix oder Release erfahren.

Mr. Lolman
2009-05-28, 13:03:26
Wie groß ist die Chance, dass die BQ bei den nächsten Radeons besser wird?
Schliesslich dürften sie schneller sein als heutige HD48xxs

Wohl nicht besonders groß. Weil sich afaik das TEX:ALU Verhältnis auch nicht ändern wird.

DrFreaK666
2009-05-28, 13:04:40
Also in dem "Kampf-Video" fällt das flimmrige AF nicht auf, dafür die flimmernde Vegetation :smile:

DrFreaK666
2009-05-28, 13:10:25
Wohl nicht besonders groß. Weil sich afaik das TEX:ALU Verhältnis auch nicht ändern wird.

Naja, meine 4870 (gerade zurückgeschickt wegen Grafikfehler) muss noch ne Weile halten.
Gehe bald wieder in die Schule, da kann (will) ich mir keine Graka leisten.
Sollte Diablo3 nicht flüssig darauf laufen dann muss wohl oder übel doch eine neue angeschafft werden.
Wird sich dann zeigen wer da das bessere Angebot hat (NV oder AMD).

LovesuckZ
2009-05-28, 13:10:32
Also in dem "Kampf-Video" fällt das flimmrige AF nicht auf, dafür die flimmernde Vegetation :smile:

In dem Kampf Video fällt auch auf, dass es kein AA gibt. Und das scheint Schlammsau ebenfalls nicht zu stören.
Ist dann wohl ein Argument dafür, dass 8xMSAA gegen 8xMSAA Vergleiche komplett hinfällig sind, weil man ja auch ohne toll spielen kann. ;D

Schlammsau
2009-05-28, 13:10:58
Also in dem "Kampf-Video" fällt das flimmrige AF nicht auf, dafür die flimmernde Vegetation :smile:

Jo, aber genau das wird auch auf Geforces unter HQ flimmern.

In dem Kampf Video fällt auch auf, dass es kein AA gibt. Und das scheint Schlammsau ebenfalls nicht zu stören.
Ist dann wohl ein Argument dafür, dass 8xMSAA gegen 8xMSAA Vergleiche komplett hinfällig sind, weil man ja auch ohne toll spielen kann. ;D

Bitte? :|
Ich hab AA nur deaktiviert, damit ich bei der Aufzeichnung (Fraps) noch einigermassen spielbare Frames habe. Ansonsten ist AA immer aktiv! ;)

PS: Vergiss nicht, du wolltest nichts mehr in diesem Thread posten.

Sonyfreak
2009-05-28, 13:14:08
Eine HalfLive-Szene hatten wir ja schonmal, leider sind die Videos komprimiert und der Header des RV670-Videos ist im Arsch, manuell will ich das nicht nacharbeiten. Vielleicht erbarmt sich ja jemand und stellt das nochmal unkomprimiert nach, ist IMHO eine schöne Szene für einen vertikalen Vergleich von zwei Einstellungen nebeneinander (A.I. Default vs NV HQ).Das Video kam damals von mir. Leider hab ich im Moment keine aktuelle Radeon im Haus, sonst würde ich gerne einen neuen Vergleich machen.

mfg.

Sonyfreak

Gast
2009-05-28, 14:29:30
stanardmäßig hat doch nvidia im treiber Q + trilineare optimierung an oder nicht?
wieso ist es dann unfair von cb und anderen hardware-seiten , mit den default settings ai standard vs Q+optimerungen on zu benchen ?
ich finds ok dass ati kritisiert wird , weil sie kein HQ-modus bieten aber jetzt auch noch zu behaupten , dass nvidia bei besserer BQ genau so schnell ist wie ati , ist einfach absurd .
zumindest kann man das hier von manchen comments rauslesen .
zb. ist die 4890 der gtx 285 die ganze zeit auf den fersen aber es wird so getan , als ob nvidia so viel mehr bietet dass den aufpreis rechtfertigt.
außerdem sind die nvidiatreiber auch nicht das gelbe vom ei.
ich hab ne 8800gtx von msi und oft bildfehler in cs:s gehabt nach neuen treiber installationen und refresh hz bug .
die kisten wurden auf einmal silbrig und der boden so komisch lila , man konnte das nur fixen , wenn man auf q gestellt hat .
refres hz bug dagegen , kam meistens nur in den beta treibern vor

LovesuckZ
2009-05-28, 14:36:55
wieso ist es dann unfair von cb und anderen hardware-seiten , mit den default settings ai standard vs Q+optimerungen on zu benchen ?


Zuerst ist zu erwähnen, dass default auch App. AF und AF und mir ist kein Spiel bekannt, dass per Default-Einstellung auch AA und AF einstellt. Ich gehe also davon aus, dass du nicht nur Default-Einstellungen vergleichen willst.
Dazu hat sich jetzt ergeben, dass die Unterschiede zwischen Q und A.I Standard größer sind als erwartet und A.I Off eher der Qualität von Q entspricht. Das heißt also, dass für die Leute, die die Bildqualität als einzige Vergleichsbarkeitkonstante ansehen, nur der Vergleich zwischen Q und A.I Off als einzig mögliche Einstellungen zu verwenden ist.
Und sollte ein Reviewer in der Lage sein auch nur irgendeine Einstellungen - sei es im Spiel oder im Treiber - zu verändern, dann ist er auch in der Lage mit HQ, CSAA und A.I Off zu testen.

MountWalker
2009-05-28, 14:37:24
Wie schaut die texturfilterung von ATI eigentlich auf Mac OS X aus? Ein paar Spiele für OS X gibts ja - könnt vielleicht mal jemand nachschauen? Auf meinem iBook G4 1,33 GHz mit Radeon 9550 läuft nichtmal Doom 3 auf niedrigen Einstellungen flüssig, aber vielleicht hat jemand anderes einen potenteren ATI-Mac?

Gast
2009-05-28, 14:42:46
Zuerst ist zu erwähnen, dass default auch App. AF und AF und mir ist kein Spiel bekannt, dass per Default-Einstellung auch AA und AF einstellt. Ich gehe also davon aus, dass du nicht nur Default-Einstellungen vergleichen willst.
Dazu hat sich jetzt ergeben, dass die Unterschiede zwischen Q und A.I Standard größer sind als erwartet und A.I Off eher der Qualität von Q entspricht. Das heißt also, dass für die Leute, die die Bildqualität als einzige Vergleichsbarkeitkonstante ansehen, nur der Vergleich zwischen Q und A.I Off als einzig mögliche Einstellungen zu verwenden ist.
Und sollte ein Reviewer in der Lage auch nur irgendeine Einstellungen - sei es im Spiel oder im Treiber zu verändern, dann ist er auch in der Lage mit HQ, CSAA und A.I Off zu testen.


dann gründe doch selbst ne community ( anhänger scheinst du hier viele zu haben ) und benchmarke mit den settings , die dir passen.

y33H@
2009-05-28, 14:48:20
Außerdem würd ich nicht Content automatisch als gut bezeichnen, der Sparfilter offensichtlich macht.Tue ich nicht .... ich benenne den Content in Crysis nur als guten Content und den in CoD4 als weniger gut.mir ist kein Spiel bekannt, dass per Default-Einstellung auch AA und AF einstellt.HL2 stellt auf meiner 280 4x MSAA und 8:1 AF ein, iirc.

derguru
2009-05-28, 14:53:24
Zuerst ist zu erwähnen, dass default auch App. AF und AF und mir ist kein Spiel bekannt, dass per Default-Einstellung auch AA und AF einstellt. Ich gehe also davon aus, dass du nicht nur Default-Einstellungen vergleichen willst.
mir ist auch kein spiel bekannt wo ich HQAF oder A.I.Off im spiel aktivieren kann.:biggrin:

Und sollte ein Reviewer in der Lage sein auch nur irgendeine Einstellungen - sei es im Spiel oder im Treiber - zu verändern, dann ist er auch in der Lage mit HQ, CSAA und A.I Off zu testen.
durch a.i. off ist der einbruch nicht viel größer als bei HQ,muss dich leider entäuschen falls du dir da große hoffnungen machst.:wink:

Jake Dunn
2009-05-28, 15:14:30
Dazu hat sich jetzt ergeben, dass die Unterschiede zwischen Q und A.I Standard größer sind als erwartet und A.I Off eher der Qualität von Q entspricht. Das heißt also, dass für die Leute, die die Bildqualität als einzige Vergleichsbarkeitkonstante ansehen, nur der Vergleich zwischen Q und A.I Off als einzig mögliche Einstellungen zu verwenden ist.
Und sollte ein Reviewer in der Lage sein auch nur irgendeine Einstellungen - sei es im Spiel oder im Treiber - zu verändern, dann ist er auch in der Lage mit HQ, CSAA und A.I Off zu testen.

Immer nur Copy Paste :rolleyes:

Wenn du Gerechtigkeit willst kümmer dich doch um die Emanzipation der Frauen :ulol:

MartinRiggs
2009-05-28, 15:15:25
Immer nur Copy Paste :rolleyes:

Wenn du Gerechtigkeit willst kümmer dich doch um die Emanzipation der Frauen :ulol:

Made my Day!:up:

LovesuckZ
2009-05-28, 15:17:56
mir ist auch kein spiel bekannt wo ich HQAF oder A.I.Off im spiel aktivieren kann.:biggrin:

Schön, dass du mich bestätigst. ;)


durch a.i. off ist der einbruch nicht viel größer als bei HQ,muss dich leider entäuschen falls du dir da große hoffnungen machst.:wink:

Es geht hier doch nicht um den Leistungseinbruch, sondern erstmal, dass alle Einstellungen getestet werden. Und ob A.I Off stärker einbricht oder nicht, können auch nur Test mit einer Vielzahl von Spielen beweisen.

Immer nur Copy Paste :rolleyes:

Wenn du Gerechtigkeit willst kümmer dich doch um die Emanzipation der Frauen :ulol:

Ach ist das schön, wenn man einfach recht hat. Und noch schöner ist es, wenn Leute dann noch vom Thema ablenken müssen, weil sie wissen, dass der andere recht hat. Das ändert zwar alles nichts an der Wahrheit, aber das Gefühl recht zu haben, ist schon toll.

puntarenas
2009-05-28, 15:19:46
Kleine Anekdote "Neulich beim Optiker" hinzugefügt:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7325844#post7325844

:tongue:

Grestorn
2009-05-28, 15:28:26
Kleine Anekdote "Neulich beim Optiker" hinzugefügt:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7325844#post7325844

:tongue:

Nett zu lesen! :)

Jake Dunn
2009-05-28, 15:31:47
Ach ist das schön, wenn man einfach recht hat. Und noch schöner ist es, wenn Leute dann noch vom Thema ablenken müssen, weil sie wissen, dass der andere recht hat. Das ändert zwar alles nichts an der Wahrheit, aber das Gefühl recht zu haben, ist schon toll.

Welche Warheit? Das HQ besser ist als AI off ist bekannt und das am vergleichbarste Setting ist 4xAA/16xAF (jeweils Q Def. und AI Def.) in Reviews genommen werden sollte, wird auch (fast) immer getan :)

LovesuckZ
2009-05-28, 16:01:38
Welche Warheit? Das HQ besser ist als AI off ist bekannt und das am vergleichbarste Setting ist 4xAA/16xAF (jeweils Q Def. und AI Def.) in Reviews genommen werden sollte, wird auch (fast) immer getan :)

Ja, da bin ich auch komplett der selben Meinung. =)

Mr. Lolman
2009-05-28, 16:13:59
Hm, dann sind wir anscheinend gegenseitig ein paar Missverständnissen aufgesessen - Ich bin nämlich auch der gleichen Meinung. =)

Gast
2009-05-28, 16:21:26
Welche Warheit? Das HQ besser ist als AI off ist bekannt und das am vergleichbarste Setting ist 4xAA/16xAF (jeweils Q Def. und AI Def.) in Reviews genommen werden sollte, wird auch (fast) immer getan :)

Das stimmt nicht. Die am besten vergleichbare Einstellung ist no AA/no AF.

Nakai
2009-05-28, 16:35:08
Das stimmt nicht. Die am besten vergleichbare Einstellung ist no AA/no AF.

Man könnte auch so argumentieren, dass, wenn man schon eine Art von Settings testet, alle anderen auch getestet werden müssen. Dann hat der Leser genug Infos und kann sich alles raussuchen. Ebenso macht es keinen schlechten Eindruck, wenn man sieht, dass gewisse Settings von einer bestimmten Hardwarebasis nicht ünterstützt werden. Aber leider ist der Testaufwand enorm, viel zu viel um in normalen Reviews dranzukommen.


mfg Nakai

derguru
2009-05-28, 16:50:42
es geht aber um die vergleichbarkeit und da ist numal 4xAA/16xAF (jeweils Q Def. und AI Def.) am besten geeignet,8AA würde auch gehen bloß dann gibts wieder tränen bei einigen.:biggrin:
interessant bei benchmarks wäre auch mal nur mit af zu benchen um zu sehen wie stark die einbrüche jeweils sind da ich sowas leider noch nie gesehen habe bei reviews.

Coda
2009-05-28, 16:56:19
Das stimmt nicht. Die am besten vergleichbare Einstellung ist no AA/no AF.
Also 4x oder 8x MSAA ist eigentlich von der Qualität wirklich ohne weiteres vergleichbar. Vor allem kann man da nicht bescheißen.

Jake Dunn
2009-05-28, 16:58:01
interessant bei benchmarks wäre auch mal nur mit af zu benchen um zu sehen wie stark die einbrüche jeweils sind da ich sowas leider noch nie gesehen habe bei reviews.

Ein paar wenige Games gibt es ja die kein AA bieten ;)

Nakai
2009-05-28, 17:03:24
es geht aber um die vergleichbarkeit und da ist numal 4xAA/16xAF (jeweils Q Def. und AI Def.) am besten geeignet,8AA würde auch gehen bloß dann gibts wieder tränen bei einigen.:biggrin:
interessant bei benchmarks wäre auch mal nur mit af zu benchen um zu sehen wie stark die einbrüche jeweils sind da ich sowas leider noch nie gesehen habe bei reviews.

Es ist doch vergleichbar, wenn man alle Modi bencht. Der geneigte Leser kann dann alles miteinander vergleichen. Am besten noch ein paar Videos und Screenshots von den Spielen mit bestimmten Modi. Damit wäre alles getan.
Klar, der Aufwand ist nicht gleichzukommen, aber damit wäre das beste Ergebnis erreicht.


mfg Nakai

derguru
2009-05-28, 17:37:19
Ein paar wenige Games gibt es ja die kein AA bieten ;)
ja die unreal engine games z.b.
Es ist doch vergleichbar, wenn man alle Modi bencht. Der geneigte Leser kann dann alles miteinander vergleichen. Am besten noch ein paar Videos und Screenshots von den Spielen mit bestimmten Modi. Damit wäre alles getan.
Klar, der Aufwand ist nicht gleichzukommen, aber damit wäre das beste Ergebnis erreicht.


mfg Nakai
jo aber der aufwand ist zu extrem,hybrid modis,ssaa,tssa,tmsaa,edge,wide tent usw.das dauert ja jahre bis dann mal ein test durch ist.;D

Jake Dunn
2009-05-28, 17:38:06
Es ist doch vergleichbar, wenn man alle Modi bencht. Der geneigte Leser kann dann alles miteinander vergleichen. Am besten noch ein paar Videos und Screenshots von den Spielen mit bestimmten Modi. Damit wäre alles getan.
Klar, der Aufwand ist nicht gleichzukommen, aber damit wäre das beste Ergebnis erreicht.


mfg Nakai

Falls jemand die nötige Manpower aufbringen könnte, würde die dennoch durch die verschiedenen Ausgabegeräte (hat Raff vorn schon angemerkt) beeinflußt werden, selbst unterschiedliche Player liefern nicht daselbe Ergebniss.


ja die unreal engine games z.b.



Da gehts ja mit einem Hack noch ^^

Ich meinte eher DS oder GTA4 sowie Timeshift ;)

derguru
2009-05-28, 17:41:04
man kann auch aa ausschalten,dann gehts überall.:D

Lawmachine79
2009-05-28, 19:14:46
Welche Warheit? Das HQ besser ist als AI off ist bekannt und das am vergleichbarste Setting ist 4xAA/16xAF (jeweils Q Def. und AI Def.) in Reviews genommen werden sollte, wird auch (fast) immer getan :)
Da ja alles auf Default bleiben soll, sollen auch die spielspezifischen Einstellungen auf Default belassen werden? Wenn nein, warum nicht?
Präventivkommentar: "Das haben wir schon immer so gemacht" ist keine Begründung.

Schlammsau
2009-05-28, 19:18:23
Da ja alles auf Default bleiben soll, sollen auch die spielspezifischen Einstellungen auf Default belassen werden? Wenn nein, warum nicht?
Präventivkommentar: "Das haben wir schon immer so gemacht" ist keine Begründung.

Du meinst die BQ- Einstellungen im jeweiligen Spiel?

Lawmachine79
2009-05-28, 19:22:03
Du meinst die BQ- Einstellungen im jeweiligen Spiel?
Ganz recht. Wir gehen ja die ganze Zeit von DAUs und LowEnd-Grafikkarten aus, denen nicht zumutbar ist, auf HQ umzuschalten und denen ATI auch ersparen möchte, einen wirklichen Expertenmodus im Catalyst versehentlich anzuklicken. Wer das nicht hinkriegt, ist auch mit dem "Options"-Menü der Spiele überfordert.

mapel110
2009-05-28, 19:24:11
Also 4x oder 8x MSAA ist eigentlich von der Qualität wirklich ohne weiteres vergleichbar. Vor allem kann man da nicht bescheißen.
Könnte man nicht beispielsweise beim AA sagen, wir lassen jede 3. oder 4. Polygonkante aus um Performance rauszuholen?! Ginge das nicht theoretisch?

reunion
2009-05-28, 19:27:26
--

Coda
2009-05-28, 19:30:37
Da braucht man nichts erkennen.

Man könnte schon Multisampling für einzelne Dreiecke abschalten, nur würde einem das regelrecht ins Gesicht springen, vor allem da es von Frame zu Frame auch noch zu Änderungen kommen würde.

Aquaschaf
2009-05-28, 19:34:09
Könnte man nicht beispielsweise beim AA sagen, wir lassen jede 3. oder 4. Polygonkante aus um Performance rauszuholen?! Ginge das nicht theoretisch?

Das sähe schlimmer aus als auf AA ganz zu verzichten..

mapel110
2009-05-28, 19:36:44
Das sähe schlimmer aus als auf AA ganz zu verzichten..
Wieso? Beim AF stören sich die User offenbar auch nicht an springenden Pixeln. Auch wenn dort nur ein bestimmter Bereich betroffen ist. Durchs sonstige Flimmern im Spiel könnte das durchaus "homogen" wirken. :ugly:

Mr. Lolman
2009-05-28, 20:06:21
Das sähe schlimmer aus als auf AA ganz zu verzichten..

1.5x1.5 SSAA glättet nur jede 2. Pixeltreppe. Sieht manchemal ziemlich schräg aus. Gabs eine Zeit bei NV Karten zur Auswahl.

Gast
2009-05-28, 20:09:49
1.5x1.5 SSAA glättet nur jede 2. Pixeltreppe. Sieht manchemal ziemlich schräg aus. Gabs eine Zeit bei NV Karten zur Auswahl.

Kann man auch per Downsampling nachstellen, sieht aber wirklich nicht gut aus :(

Raff
2009-05-28, 20:59:27
Kann man auch per Downsampling nachstellen, sieht aber wirklich nicht gut aus :(

Das sieht bei Spielen, die sonst keine AA-Unterstützung bieten, toll aus. Besser als nichts – es handelt sich immerhin um SSAA. :)

MfG,
Raff

=Floi=
2009-05-28, 21:07:57
warum funktioniert eigentlich nicht mehr SSAA bei postscreeneffekten, aber bei richtigem downsampling funktioniert es noch? könnte man hier nicht einfach einen anderen algorythmus einsetzen und diese sache mal überarbeiten?

Frank1974
2009-05-29, 04:21:01
EDIT - Nochmal: Damals war G70 HQ dank 'buggy' Treiber schlechter als NV40-Q. Und wie NV40-Q ausgesehen hat, hab ich in dem Thread mittels meiner gifs schon gezeigt. Deswegen find ich ja die aktuelle Hexenjagd fast schon irgendwie lustig. :rolleyes:

Ich habe mich damals nur wegen der beschissenen Filterung meiner 7800GTX hier angemeldet, ich habe Videos gemacht um zu zeigen wie schlecht die 7800GTX ist, wo die 1900XT kam bin ich sofort umgestiegen, da war es zwar auch nicht perfekt, aber besser als bei der 7800GTX, man kann nur mit solcher Hexenjagd was ereichen und bei ATI ist es nicht nur das AF, man hat ja nur die Kontrolle AA/AF einzustellen, beim Rest darf der User ja nicht mehr mitbestimmen.

Wenn Nvidia wieder so einen scheiß abziehen würde mit dem AF, oder etwas anderes was mich stört, würde ich die wieder schlecht machen, aber das bringt ihr ATI-User nicht fertig, man muss sich beschweren, das gilt auch für alles andere im Leben, ohne ändert sich nix.

ATI-User springt mal über euren Schatten und spielt die Probleme nicht immer runter.

Ich bin kein Fanboy, bei NVidia ist auch nicht alles perfekt, wenn die einen größeren Fehler machen und ATI ihre etwas reduzieren, dann habe ich kein problem zu wechseln.

mfg
Frank

Dr. Cox
2009-05-29, 11:39:35
Ganz recht. Wir gehen ja die ganze Zeit von DAUs und LowEnd-Grafikkarten aus, denen nicht zumutbar ist, auf HQ umzuschalten und denen ATI auch ersparen möchte, einen wirklichen Expertenmodus im Catalyst versehentlich anzuklicken. Wer das nicht hinkriegt, ist auch mit dem "Options"-Menü der Spiele überfordert.

Von diesen DAUs, welche weder mit den Einstellungen im Grafikkartentreiber, noch mit den Einstellungen im Spiel zurechtkommen, gibt es halt leider viel zu viele, auch in meinem Freundeskreis. Ich finde es einfach nur extrem lächerlich, wenn ich z.B. sehe wie einige meiner Freunde, obwohl die Grafikleistung mehr als ausreichend ist, mit den vorgegebenen Einstellungen einiger Spiele zufrieden sind. Dabei wäre meist bei über 100 Frames eine höhere Einstellung sowie AA und AF möglich. Auch Fraps wird entgegen meiner Empfehlungen bei den meisten nicht genutzt, um die Einstellungen von Spiele entsprechend der Leistung einzupassen. Da wird dann lieber mit weit über 100 Frames, unscharfen Texturen und üblem Aliasing gespielt, unglaublich aber wahr...:rolleyes:


Ich habe mich damals nur wegen der beschissenen Filterung meiner 7800GTX hier angemeldet, ich habe Videos gemacht um zu zeigen wie schlecht die 7800GTX ist, wo die 1900XT kam bin ich sofort umgestiegen, da war es zwar auch nicht perfekt, aber besser als bei der 7800GTX, man kann nur mit solcher Hexenjagd was ereichen und bei ATI ist es nicht nur das AF, man hat ja nur die Kontrolle AA/AF einzustellen, beim Rest darf der User ja nicht mehr mitbestimmen.

Wenn Nvidia wieder so einen scheiß abziehen würde mit dem AF, oder etwas anderes was mich stört, würde ich die wieder schlecht machen, aber das bringt ihr ATI-User nicht fertig, man muss sich beschweren, das gilt auch für alles andere im Leben, ohne ändert sich nix.

ATI-User springt mal über euren Schatten und spielt die Probleme nicht immer runter.

Ich bin kein Fanboy, bei NVidia ist auch nicht alles perfekt, wenn die einen größeren Fehler machen und ATI ihre etwas reduzieren, dann habe ich kein problem zu wechseln.


Gut gesprochen :up:

derguru
2009-05-29, 11:56:47
ATI-User springt mal über euren Schatten und spielt die Probleme nicht immer runter.


was stellst du dir denn vor?sollen ati user kopfstand machen oder was,abgesehen davon hat es wohl fast jeder begriffen das ati´s af flimmeranfälliger ist.was gibt es da noch zu beweisen?
den einen störts mehr den anderen weniger.

Lawmachine79
2009-05-29, 12:33:30
EDIT - Nochmal: Damals war G70 HQ dank 'buggy' Treiber schlechter als NV40-Q. Und wie NV40-Q ausgesehen hat, hab ich in dem Thread mittels meiner gifs schon gezeigt. Deswegen find ich ja die aktuelle Hexenjagd fast schon irgendwie lustig. :rolleyes:
Und wenn der G70 auf HQ schlechter ausgesehen hätte als Tetris auf dem Gameboy - das rechtfertigt nicht die BQ- und Treiberpolitik, die ATI derzeit betreibt. Und wieso Hexenjagd? Welche Hexenjagd? Einen Artikel über die miese BQ vom G70 gibt es - mehr als einen und zwar 1) zurecht und 2) hatten sie den gewünschten Effekt, fast 3 Jahre hat NV mit deutlichem Abstand die BQ-Krone. Wo ist der Artikel über den RV770, der sich mit der Problematik auseinandersetzt um ATI zu "helfen", die Eigenmotivation für Produktverbesserungen aufzubringen?

Viele haben einfach nicht verstanden wie das hier funkioniert und erinnern mich mach Besoffene, die laut "Schalkeeee" gröhlen. Nur ist das kein Fußballclub wo Herzblut drinhängt, hier geht es um das, was ihr für euer erarbeitetes Geld bekommt.

Es geht um Druck. Nur wenn man Druck auf einen Hersteller ausübt, ändert er was. Es muss Druck in Foren erzeugt werden, der sich auf Websiten und Reviews überträgt. Oder hat hier jemand die G70 --> G80-Lektion nicht gelernt? Druck kommt, was so etwas angeht, von unten. Daher kann ich gerade die fanatischen ATI-Fans nicht verstehen, die sich ein minderwertigeres Produkt kaufen und dann auch noch damit im Forum prahlen. Ich habe auch eine 4850 und ich beschwere mich, damit mein Produkt, für das ich bezahlt habe, besser wird. Man stelle sich vor, man kauft ein Auto was deutliche Probleme hat und man lobt ständig dieses Auto, nur um den eigenen Kauf zu rechtfertigen und sich insgeheim über die Unzulänglichkeiten aufzuregen.
Wer das nicht versteht, soll ruhig weiter mit dem schlechteren Produkt leben - ich gönne es ihm (falls jetzt jemand mit der Stirn runzelt: die 4850 ist im Zweitrechner; der braucht keine BQ, der muss nur billig mit FPS versorgt werden).

Dr. Cox
2009-05-29, 12:33:41
was stellst du dir denn vor?sollen ati user kopfstand machen oder was,abgesehen davon hat es wohl fast jeder begriffen das ati´s af flimmeranfälliger ist.was gibt es da noch zu beweisen?
den einen störts mehr den anderen weniger.

Es ist doch offenkundig so, dass leider sehr viele ATI-User, die AF-Optimierungen immer noch verteidigen und für gut heißen. Dieses Verhalten seitens einiger ATI-User ist absolut indiskutabel und entbehrt jeglicher Sachlichkeit und Objektivität!


@warmachine79: Du kannst doch gerne mal einen entsprechenden Artikel, welcher die AF-Optimierung ATIs aufzeigt und kritisiert verfassen und auf dieser Seite veröffentlichen. Ich bin mir ziemlich sicher, dass PCGH und Computerbase nachziehen werden ;)

reunion
2009-05-29, 14:21:17
Mittlerweile hat es sogar CB verstanden:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/mai/ati_mipmap-erkennung_cat_95/

Coda
2009-05-29, 15:06:00
Das komische ist: In D3D10 bekomme ich in meinen eigenen Applikationen nie einen brilinearen Filter vorgesetzt, aber bei Crysis ist er definitiv zu sehen.

pest
2009-05-29, 15:39:47
mir stellt sich die Frage wie weit Q+Trilinieare Optimierung von ATIs brilinearer entfernt ist.

und, Klingone mit Klampfe hatte es schon angesprochen, ob es überhaupt noch einen wesentlichen Unterschied zwischen Q und HQ gibt

Oder anders gefragt, was kann man bei einem anisotropen Filter denn eig. einsparen (außer Bi/Bri/Tri), was indirekt obige Frage beantworten würde.

mapel110
2009-05-29, 15:53:19
Pest, schau dir die Videos an. Da sieht man die Unterschiede ganz gut. Bilde dir selbst eine Meinung!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7325981&postcount=1340

Gast
2009-05-29, 16:06:51
Ich finde es einfach nur extrem lächerlich, wenn ich z.B. sehe wie einige meiner Freunde, obwohl die Grafikleistung mehr als ausreichend ist, mit den vorgegebenen Einstellungen einiger Spiele zufrieden sind.Es gibt auch Spiele, die recht sinnvolle Vorschläge für die Detailstufe als Standardeinstellung haben. GTA 4 ist imho ein solches Beispiel.Auch Fraps wird entgegen meiner Empfehlungen bei den meisten nicht genutzt, um die Einstellungen von Spiele entsprechend der Leistung einzupassen.Wozu auch? Ich brauche doch nicht noch mehr zusätzliche 3rd-Party-Software, um die für mich optimalen Qualitätseinstellungen zu tätigen. Der Nhancer reicht für meine Bedürfnisse aus und ich schenke dem Autor insoweit mein Vertrauen, dass ich seine Software bei mir auf dem Rechner ausführe. Inwiefern macht derartiges Verhalten einen zu einem Dau? ;) Was würde Fraps überhaupt in dieser Hinsicht bringen? Ob ein Spiel ausreichend flüssig läuft oder nicht, kann ich auch ohne gelben FPS-Counter beurteilen.Da wird dann lieber mit weit über 100 Frames, unscharfen Texturen und üblem Aliasing gespielt, unglaublich aber wahr...:rolleyes:Das hingegen ist sebstverständlich nicht sonderlich sinnvoll. Was will ich mit > 100 FPS, gerade auf einem LC-Display.

Verstehe mein Posting bitte nicht falsch. Ich liebe es, viele Möglichkeiten zu haben, um mein System für mich möglichst optimal zu konfigurieren. Einzig die Tatsache, dass du zum Beispiel anhand der (Nicht-)Nutzung von Fraps auf die technischen Kentnisse einer anderen Person schließen willst, kam mir ein wenig komisch vor. Generell die unter Windows-Nutzern sehr weit verbreitete Angewohnheit selbst für die simpelsten Sachen möglichst irgendein 3rd-Party-Produkt zu nutzen, obwohl die Boardmittel des OS einem die gleichen Möglichkeiten geben und man durch die Benutzung dieser auch oft noch mitbekommt, was man eigentlich gerade einstellt.

Beispiel: Das Freischalten einer Zusatzfunktion einer Software durch Setzen eines Wertes in der Registry. Es werden haufenweise .reg-Dateien und teils sogar Softwarekompilate (.exe) verteilt, die einem das Setzen eines einzigen Werts abnehmen sollen. Der User lädt die Datei runter und führt sie mit Administratorrechten aus. Ohne zu wissen, was genau er da überhaupt macht. Ohne den Autor der Software auch nur ansatzweise bestimmen zu können, da die Dateien oft einfach nur bei Rapidshare hochgeladen oder in Foren verteilt werden. Im Falle von .exe-Dateien fehlt auch jegliche Möglichkeit zur Überprüfung, was diese Software überhaupt macht. Trotzdem führt man sie mit Admin-Rechten aus, ohne auch nur 1 Sekunde nachzudenken.

In regelmäßigen Abständen hat man sich dann die Seuche auf den Rechenr geholt und meckert über Microsoft und deren ach so unsichere Betriebssysteme. Dass das nicht der Fall ist und die Betriebssysteme der Windows-Reihe (zumindest was die neueren Abkömmlinge betrifft) auch sicherheitstechnisch ganz oben mitspielen, brauche ich wohl kaum zu erklären.

Mr. Lolman
2009-05-29, 16:35:51
Oder anders gefragt, was kann man bei einem anisotropen Filter denn eig. einsparen (außer Bi/Bri/Tri), was indirekt obige Frage beantworten würde.

Die Anzahl der Samples. Wenn es einen Unterschied zw. Q und HQ gibt, dann kann der nur davon kommen, dass bei Q weniger Textursamples berechnet werden...

MountWalker
2009-05-29, 18:42:24
Wie schaut die texturfilterung von ATI eigentlich auf Mac OS X aus? Ein paar Spiele für OS X gibts ja - könnt vielleicht mal jemand nachschauen? Auf meinem iBook G4 1,33 GHz mit Radeon 9550 läuft nichtmal Doom 3 auf niedrigen Einstellungen flüssig, aber vielleicht hat jemand anderes einen potenteren ATI-Mac?
Würde mich immernoch interessieren, ein hackintosh geht ja vielleicht auch zum Prüfen - kann ich bei mir nicht ma chen, weil 1. keine aktuelle ATI-Karte und 2. ist das UEFI meines Boards mit keiner Hackintosh-version kompatibel. (da gibts wohl irgendwie Probleme zwischen dem MSI UEFI und dem Sektor der Platte, in dem OS X seinen Kernel gerne plattzieren möchte oä.)

Coda
2009-05-29, 18:46:18
und, Klingone mit Klampfe hatte es schon angesprochen, ob es überhaupt noch einen wesentlichen Unterschied zwischen Q und HQ gibt
Q ist primär brilinear. Die Sampleoptimierung spart wohl ein paar zusätzliche Samples ein.

Oder anders gefragt, was kann man bei einem anisotropen Filter denn eig. einsparen (außer Bi/Bri/Tri), was indirekt obige Frage beantworten würde.
Man kann z.B. bei 16x Tri-AF auf der niedriger aufgelösten Mip nur 8 Samples nehmen und auf der andere 16 und solche Späße. Man kann erstaunlich viel Samples sparen bei den meisten Texturen ohne dass es wesentlich auffällt.

=Floi=
2009-05-29, 19:11:54
ich finde die stromversorgung bei ati schlimmer wie die filterung. Die karten sollten einwandfrei über jahre funktionieren und das ist bei einem solch überfahrenem design nicht so sicher und auch bei den lüftern sollte ati mal etwas machen. diese punkte finde ich wesentlich wichtiger wie alles andere.

Jake Dunn
2009-05-29, 19:19:41
ich finde die stromversorgung bei ati schlimmer wie die filterung. Die karten sollten einwandfrei über jahre funktionieren und das ist bei einem solch überfahrenem design nicht so sicher und auch bei den lüftern sollte ati mal etwas machen. diese punkte finde ich wesentlich wichtiger wie alles andere.
Was ist mit der Stromversorgung? Was ist mit dem Lüfter? (die Karten sind die Leisesten die es gibt, schau mal bei CB)

Die Karten fiepen nicht wie der NV Crap :tongue:

Aber du spielst bestimmt immer FUR ;D

Gast
2009-05-29, 19:27:20
ich finde die stromversorgung bei ati schlimmer wie die filterung.
Andere Leiche, anderer Keller! Bitte nicht schon wieder in weitem Bogen weg vom Thema.

BTW, wenn schon "schlimmer wie", dann formvollendet "schlimmer als wie"! ::weg:

y33H@
2009-05-29, 19:27:48
Die Karten fiepen nicht wie der NV CrapWeniger, aber sie fiepen.

Jake Dunn
2009-05-29, 19:32:42
Weniger, aber sie fiepen.

Naja ein Hersteller nimmt sich dem Thema bei NV jetzt an ;) http://www.hartware.de/news_46994.html

LovesuckZ
2009-05-29, 19:40:33
Könnten wir wieder zum Thema kommen und die Ausflüchte in andere Bereich sein lassen?

y33H@
2009-05-29, 19:54:03
Welche CM-Version war das mit der ganz ganz pöhsen Kieselsteintextur neben den Schienen? CM7?

Dr. Cox
2009-05-29, 20:18:36
Es gibt auch Spiele, die recht sinnvolle Vorschläge für die Detailstufe als Standardeinstellung haben. GTA 4 ist imho ein solches Beispiel.

Mag vielleicht sein, das einige wenige Spiele eine gute Grundeinstellung treffen, bei den meisten Spielen ist dies jedoch nicht der Fall ;)


Wozu auch? Ich brauche doch nicht noch mehr zusätzliche 3rd-Party-Software, um die für mich optimalen Qualitätseinstellungen zu tätigen. Der Nhancer reicht für meine Bedürfnisse aus und ich schenke dem Autor insoweit mein Vertrauen, dass ich seine Software bei mir auf dem Rechner ausführe. Inwiefern macht derartiges Verhalten einen zu einem Dau? ;) Was würde Fraps überhaupt in dieser Hinsicht bringen? Ob ein Spiel ausreichend flüssig läuft oder nicht, kann ich auch ohne gelben FPS-Counter beurteilen.Das hingegen ist sebstverständlich nicht sonderlich sinnvoll. Was will ich mit > 100 FPS, gerade auf einem LC-Display.

Fraps ist ein sehr gutes Programm, welches sich in der Vergangenheit bewährt hat, ich wüsste nicht, was dagegen spricht Fraps zu nutzen. Wenn man sich die Frames anzeigen lässt, ist es einfacher eine homogene Einstellung zwischen Details und Spielbarkeit eines Spiels zu gewährleisten ;)


Verstehe mein Posting bitte nicht falsch. Ich liebe es, viele Möglichkeiten zu haben, um mein System für mich möglichst optimal zu konfigurieren. Einzig die Tatsache, dass du zum Beispiel anhand der (Nicht-)Nutzung von Fraps auf die technischen Kentnisse einer anderen Person schließen willst, kam mir ein wenig komisch vor.


Also ich bitte dich, leg mir doch keine Dinge in den Mund, die ich weder so gesagt, noch gemeint habe! Man muss nicht immer alles mögliche hineininterpretieren, was gar nicht vorhanden ist ;)



Was ist mit der Stromversorgung? Was ist mit dem Lüfter? (die Karten sind die Leisesten die es gibt, schau mal bei CB)

Wir wollen doch hier mal bei der Wahrheit bleiben! Die HD4890 ist aktuell eine der lautesten Grafikkarten, sie ist sogar lauter als die HD2900!

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/24/#abschnitt_lautstaerke

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/33/#abschnitt_lautstaerke


Die Karten fiepen nicht wie der NV Crap :tongue:

Dann erklär mir mal weshalb meine HD4870 dann auch bei über 100 Frames fiept und unter Last sogar unabhängig von den Frames in manchen Spielen laut "knattert"!

Ich habe die erste HD4870 wegen des "knatterns" der Spanungswandler eingeschickt und wieder eine HD4870 erhalten, welche auch "knattert"!

IC3M@N FX
2009-05-29, 20:29:42
Ich weiß nicht der Thread hat sich kein Meter gebessert. Ich meine in sachen einsicht das ATI shice filtert bzw. das es für einige nicht so schlimm ist oder nicht wahrnehmen. Tut euch selbst ein gefallen und lasst den Thread durchrushen es bringt nix. Das meine ich nicht böse oder so. Ich will auch nicht den sinn dieses Theards schlecht machen, aber das wird eine never Ending Story.

Dr. Cox
2009-05-29, 20:34:46
Ich kann ja noch einmal versuchen mit meinem Ausruf aus dem Computerbase-Forum am Verstand einiger Leute hier zu appellieren:

Das ist echt unglaublich was sich hier abspielt, bewiesene Fakten werden hier bewusst heruntergespielt, ja sogar noch schön geredet!
Alles schön reden, bloß niemals etwas in Frage stellen! Das ist die Mentalität der Deutschen! Und genau diese Mentalität hat uns den zweiten Weltkrieg und die Wirtschaftskrise gebracht, weil zu viele Deutsche grundsätzlich nicht in der Lage sind, Fakten Objektiv zu betrachten und zu bewerten, traurig aber wahr!

Leute, macht endlich mal die Augen auf und bewertet die Bildqualität verdammt nochmal neutral! Nur dann wird sich diesbezüglich etwas ändern und auch ATI-User bekommen dann vielleicht endlich die Möglichkeit, eine zu Nvidia gleichwertige, vielleicht sogar bessere Bildqualität im Catalyst-Treiber selbst anzuwählen!

Quelle: http://www.computerbase.de/forum/showpost.php?p=6113397&postcount=109

=Floi=
2009-05-29, 20:38:49
man sollte aber erst einmal die wirklichen probleme beseitigen und dann die schönheitsfehler! Eine lange lebensdauer halte ICH für wesentlich wichtiger und eine leise karte finde ich einfach angenehm. Da wohl die architektur so designed worden ist wird sich in dem bereich der BQ nicht mehr viel bessern bei dieser und der nächsten generation. Ebenso wird auch bald der einfluss von amd bei ati sichtbar werden und uu bewegen sich die wieder in eine bessere richtung.

Schlammsau
2009-05-29, 20:39:27
Ein Trauerspiel hier, jetzt wird die Filterproblematik schon mit dem 2. Weltkrieg und der Wirtschaftkrise verglichen. Unglaublich......

Schrotti
2009-05-29, 20:45:27
Ich kann ja noch einmal versuchen mit meinem Ausruf aus dem Computerbase-Forum am verstand einiger Leute hier zu appellieren:



Quelle: http://www.computerbase.de/forum/showpost.php?p=6113397&postcount=109

Hast du von CB was anderes erwartet?

Ich lese da schon lange keine Reviews mehr weil eh alle gekauft sind.

Botcruscher
2009-05-29, 20:49:14
Ein Trauerspiel hier, jetzt wird die Filterproblematik schon mit dem 2. Weltkrieg und der Wirtschaftkrise verglichen. Unglaublich......

Da kann man ja nur noch die Endlösung der Filterfrage fordern.;D

Wenn es nur soviel Einsatz bei echten Problemen wie Energieverbrauch und Lautstärke gäbe...

Dr. Cox
2009-05-29, 21:01:00
Ein Trauerspiel hier, jetzt wird die Filterproblematik schon mit dem 2. Weltkrieg und der Wirtschaftkrise verglichen. Unglaublich......

Ein Trauerspiel den Sinn und die eigentliche Aussage des Postings nicht zu verstehen...


Wenn es nur soviel Einsatz bei echten Problemen wie Energieverbrauch und Lautstärke gäbe...

Mach einen Thread auf und du kannst dir meiner Unterstützung sicher sein ;)


Ebenso wird auch bald der einfluss von amd bei ati sichtbar werden und uu bewegen sich die wieder in eine bessere richtung.

Das wäre in unser aller Interesse wünschenswert.

y33H@
2009-05-29, 21:03:54
Die Splittung von AI und das Kicken der Optimierungen ist imo weitaus weniger.

Dr. Cox
2009-05-29, 21:11:25
Hast du von CB was anderes erwartet?

Von vielen Usern kann man leider nichts anderes erwarten, weder hier, noch bei PCGH oder Computerbase. Viele User stolpern halt mit ihrer gefärbten Brille durch die Foren und müssen dann die Hooligans für ihre Lieblingsfirma spielen. Einfach nur lächerlich solch ein Verhalten!


Ich lese da schon lange keine Reviews mehr weil eh alle gekauft sind.

Das würde ich so nicht sagen, die meisten Seiten sind neutraler als ihr vermeintlicher Ruf ;)

Botcruscher
2009-05-29, 21:18:08
Die Splittung von AI und das Kicken der Optimierungen ist imo weitaus weniger.

Wünschenswert ja, wird es aber bei der Generation definitiv nicht geben. Und bei der nächsten Generation müsste es dafür mal etwas mehr als nur arithmetik Leistung geben.

Solange AMD im kostenoptimierten Midrange bleibt kann man das vergessen.

kruemelmonster
2009-05-30, 15:13:40
Nur scheint die Mehrheit der R600+ Besitzer daran überhaupt kein Interesse zu haben. Mir kam bei meinem NV40 so die Galle hoch dass ich auf R420 wechselte. Wo ist der wütende Mob an R600+ Besitzern, die zumindest eine Entkoppelung von "Optimierungen" und Bugfixes fordern oder gleich auf NV wechseln.
Anderes Beispiel: AMD-CPU Sympathisanten haben wohl kein Problem anzuerkennen, dass Intel die absolut gesehen schnelleren CPUs fertigt, und wären bestimmt auch nicht traurig wenn AMD die gleiche Geschwindigkeit wie Intel bieten würde.
Diese innere Einstellung sehe ich nicht bei den AMD-GPU Sympathisanten; da wird sich um Kopf und Kragen argumentiert nur um seine eigene Kaufentscheidung und IHV-Sympathie nicht hinterfragen zu müssen. Ist die Mehrheit an R600+ Besitzern, speziell nach y33H@'s Videos, wirklich zufrieden mit der gebotenen Qualität? Will denn niemand aus diesem Personenkreis, dass seine HD filtern könnte wie eine GF auf HQ?

Und bitte keine Ausflüchte Konterargumente à la NV fiept, 8xAA langsam, kein 10.1, egal wie wahr oder unwahr, darum gehts hier schlichtweg nicht.

p.s.: leidenschaftliche Verteidigung der ATI-Politik erinnert mich aktuell an die Signatur eines 3dc-Mitglieds: Freudig und mit unserem Segen lassen wir uns in Ketten legen.
;)

Nakai
2009-05-30, 15:23:33
Diese innere Einstellung sehe ich nicht bei den AMD-GPU Sympathisanten; da wird sich um Kopf und Kragen argumentiert nur um seine eigene Kaufentscheidung und IHV-Sympathie nicht hinterfragen zu müssen. Ist die Mehrheit an R600+ Besitzern, speziell nach y33H@'s Videos, wirklich zufrieden mit der gebotenen Qualität? Will denn niemand aus diesem Personenkreis, dass seine HD filtern könnte wie eine GF auf HQ?

Ganz einfach. ATI hat das schlauer gemacht. Das ging eher stufenweise, man hat sich langsam auf einer sicheren Stufe vorangetastet.
Ebenso lieferte ATI eine gute Performance für relativ wenig Geld.

Derzeit liefern weder ATI noch NV ein überzeugendes Konzept ab, vor allem wenn da DX11 nicht mehr soweit entfernt ist. Wer das bessere Konzept liefert, dem kaufe ich bei der nächsten Generation ne Karte ab.


mfg Nakai

Dr. Cox
2009-05-30, 15:23:33
Nur scheint die Mehrheit der R600+ Besitzer daran überhaupt kein Interesse zu haben. Mir kam bei meinem NV40 so die Galle hoch dass ich auf R420 wechselte. Wo ist der wütende Mob an R600+ Besitzern, die zumindest eine Entkoppelung von "Optimierungen" und Bugfixes fordern oder gleich auf NV wechseln.


Ich bin von einer HD4870 wegen des Texturflimmerns auf eine GTX280 gewechselt ;)

derguru
2009-05-30, 16:14:06
bist du nicht weil du nicht mal wußtest das es ein problem damit gab,hast deine 280 gtx damals günstig erworben und das wars auch schon mit der begründung;)

Dr. Cox
2009-05-30, 19:04:39
Ich habe damals bereits schon nach einer günstigen GTX260 ausschau gehalten und als ich dann die GTX280 sogar günstiger bekommen habe, habe ich logischerweise die genommen ;)

Ich habe auch meine HD4870/1024MB wegen dem echt nervigem Geflimmer gegen eine GTX280 eingetauscht und ich muss euch sagen, das ist ein Unterscheid wie Tag und Nacht!

Quelle: http://extreme.pcgameshardware.de/blogs/pcgh_raff/149-appell-qualitaet-anstatt-quantitaet-page3.html?page=3#comments

kruemelmonster
2009-05-30, 20:33:16
Ganz einfach. ATI hat das schlauer gemacht. Das ging eher stufenweise, man hat sich langsam auf einer sicheren Stufe vorangetastet.
Ebenso lieferte ATI eine gute Performance für relativ wenig Geld.

...und auch für viel Geld keinerlei Möglichkeit den Bugwellen der Flimmerhölle Herr zu werden.
Davon ab erneut meine Frage: wo ist jetzt, nach den Beweisvideos, der wütende Mob welcher nach Entkoppelung schreit? Wenn sich hier im 3dc schon keiner bildet, dann nirgends.


Derzeit liefern weder ATI noch NV ein überzeugendes Konzept ab, vor allem wenn da DX11 nicht mehr soweit entfernt ist. Wer das bessere Konzept liefert, dem kaufe ich bei der nächsten Generation ne Karte ab.


mfg Nakai

Dito. Gebunden an die Vorraussetzung dass die BQ G80-Niveau nicht unterschreitet. Also wirds wahrscheinlich wieder NV. :biggrin:
Schlimm genug dass die Spiele flimmern, da muss die Karte nicht auch noch mitmachen.

reunion
2009-05-30, 21:07:50
...und auch für viel Geld keinerlei Möglichkeit den Bugwellen Herr zu werden.


Die Bugwelle ist vollkommen belanglos, und das wird auch kaum jemand zu Gesicht bekommen. Das Problem sind die eingesparten Samples. Da hilft leider auch AI_off kaum. Maximal mit dem Tent-Filter könnte man das bei AMD abschwächen.

y33H@
2009-05-30, 21:15:08
Wer mit Narrow- oder Wide-Tent zockt, dem fällt das schlechtere AF tatsächlich weniger auf, da dieses zum Teil "weggeblurt" wird. Ergo nutzt man hier die zusätzlichen ALUs, die man einbauen konnte, weil man viele TMUs gespart hat (?), um das was man aufgrund der geringen TMU-Anzahl nicht erreichen kann, mit den durch die Einsparungen an den TMUs ins Chipdesign gekommenen zusätzlichen ALUs per Blurhammer pseudoauszugleichen. Oder so ähnlich :ucrazy3:

Deinorius
2009-05-31, 11:45:04
Eines würde ich noch gerne wissen. Zuletzt hab ich mal nebenbei bei The Witcher versucht, etwas zu erkennen. Beim R770-Video wars ja eindeutig. Bei mir hab ich absolut gar nix gesehen.
Ist die BQ also seit R600 so gravierend schlechter geworden?

reunion
2009-05-31, 11:54:56
Nein, R600 ist absolut ident zu den heutigen Chips. Das Problem ist das solche Videos nicht selten das Problem erheblich Verschärfen. Das musste ich jetzt schon einige male feststellen.

Deinorius
2009-05-31, 12:06:59
Ups sorry. War nicht eindeutig genug. Ich hab eine X1950 Pro in meinem Rechner. Deswegen meine Frage hinsichtlich des Generationswechsels.

Gast
2009-05-31, 12:12:21
Ups sorry. War nicht eindeutig genug. Ich hab eine X1950 Pro in meinem Rechner. Deswegen meine Frage hinsichtlich des Generationswechsels.
Spielst du mit A.I. Standard oder A.I. aus? die X1950 filtert in jedem Fall besser als die neuen Karten, bei A.I. aus aber bedeutend besser. :)

Deinorius
2009-05-31, 12:16:13
Standard

Ich will mir jetzt zwar keine neue Karte kaufen, aber mit CUDA (speziell wegen DGAVCDec :uup: ) niedrigerem Idle-Verbrauch (Last-Verbrauch sekundär) und jetzt wohl auch noch diese ganze Sache mit der BQ, würde mich wohl eher zur GTS 250 treiben.
Wie gesagt, die BQ ist für mich nur ein weiterer Grund. Ich hab mir immer die bessere Wahl gekauft und das waren die letzten beiden Male ATI-Karten (9800 SE, X1950 Pro - davor GF4 Ti 4200).

Gast
2009-06-02, 12:44:25
Wo bleibt denn nun die Petition die von 3dcenter+PCGH+CB und Co ins Leben gerufen wird? Kann doch nicht so schwer für eine Seite wie 3dcenter sein, sich mit den jeweiligen Verantwortlichen der anderen Medien auseinander zusetzen um gemeinsam bei AMD/ATI anzuklopfen.

Gast
2009-06-02, 13:50:03
Es wird keine Petition geben.
AMD hat alles Richtig gemacht:
- Dank G80 sind die Stimmen leise geworden.
- Aber der eigentliche Grund ist AI, ein solche geniale Einführung, die immer häppchenweise schlimmer wird.

Ich hoffe in den Bezug eh vor allem auf Größen wie Coda.
Ich freue mich in der Hinsicht vor allem auf RV870, das ich einen fiesen Artikel lesen darf. :)

tam tam
2009-06-02, 17:10:34
Ich habe mir nicht alles durchgelesen, aber in bezug zu entferntem Flimmern will ich mich auch äußern. Ich habe aktuell eine alte ATI 3850'er agp eingebaut, vorher eine Nvidea 7800'er. Ich spiele je nach Zeit primär EVE-Online. Wer das Spiel kennt wird sich schon denken, worauf ich jetzt hinaus will. Ich habe in keinem anderen Spiel jemals so starkes Kantenflimmern beobachtet wie in EVE-Online. Das Spiel selber bietet noch nicht einmal die Optionen wie die Zuschaltung von AA oder AF. Solche in meinen Augen wichtigen BQ-Verbesserungen kann man da nur über die Treiber erzwingen, wenn man sich dahingehend auch anderswo vorher eingelesen hat. Letztendlich bleibt trotzdem dieses unschöne Kantenflimmern in der Ferne und an allen 3D-Modellen inklusive Stationen, und das ist für mich nicht mehr ertragbar. Mittlerweil bin ich nun soweit, daß ich in naher Zukunft wegen genau diesem Dilemma mir einen neuen Rechner zulegen werde, um eine neue Nvidea-Karte(eventl. 260GTX v. Gainward) beanspruchen zu können, obwohl ich es von der Performance her noch lange nicht müßte.

Für mich spielt immer in erster Linie die Bildqualität eine Rolle, und nicht die FPS.

Jake Dunn
2009-06-02, 17:18:13
Was hat das Kantenflimmern jetzt mit dem AF zu tun über das hier gesprochen wird :confused:

Schlammsau
2009-06-02, 17:20:49
Ich habe mir nicht alles durchgelesen, aber in bezug zu entferntem Flimmern will ich mich auch äußern. Ich habe aktuell eine alte ATI 3850'er agp eingebaut, vorher eine Nvidea 7800'er. Ich spiele je nach Zeit primär EVE-Online. Wer das Spiel kennt wird sich schon denken, worauf ich jetzt hinaus will. Ich habe in keinem anderen Spiel jemals so starkes Kantenflimmern beobachtet wie in EVE-Online. Das Spiel selber bietet noch nicht einmal die Optionen wie die Zuschaltung von AA oder AF. Solche in meinen Augen wichtigen BQ-Verbesserungen kann man da nur über die Treiber erzwingen, wenn man sich dahingehend auch anderswo vorher eingelesen hat. Letztendlich bleibt trotzdem dieses unschöne Kantenflimmern in der Ferne und an allen 3D-Modellen inklusive Stationen, und das ist für mich nicht mehr ertragbar. Mittlerweil bin ich nun soweit, daß ich in naher Zukunft wegen genau diesem Dilemma mir einen neuen Rechner zulegen werde, um eine neue Nvidea-Karte(eventl. 260GTX v. Gainward) beanspruchen zu können, obwohl ich es von der Performance her noch lange nicht müßte.

Für mich spielt immer in erster Linie die Bildqualität eine Rolle, und nicht die FPS.

Ähm....wenn du "Kantenflimmern" hast, würdest du das auch weiterhin bei einer Geforce haben. Hier geht es um das AF flimmern, was was ganz anderes ist.
Oder hast du dich falsch ausgedrückt?

[edit] Ich sehs schon kommen, jede Art von flimmern wird jetzt ATi in die Schuhe geschoben. :mad:

Deinorius
2009-06-02, 17:27:21
Der Schritt wäre an sich dennoch nicht verkehrt, wenn das Kantenflimmern (falls korrekt) durch SSAA behandelt werden kann. Und das können derzeit nur nvidia Karten

Hat aber dennoch nix mit dem Thema zu tun.

Gast
2009-06-02, 17:27:55
Ähm....wenn du "Kantenflimmern" hast, würdest du das auch weiterhin bei einer Geforce haben. Hier geht es um das AF flimmern, was was ganz anderes ist.
Oder hast du dich falsch ausgedrückt?
Was hat das Kantenflimmern jetzt mit dem AF zu tun über das hier gesprochen wird :confused:
Fredtitel:

NV vs. Ati, AA, AF, Grieseln -> die aktuelle Filterdiskussion

:rolleyes:

Gast
2009-06-02, 17:36:06
Was hat das Kantenflimmern jetzt mit dem AF zu tun über das hier gesprochen wird :confused:

Bei ATI-Karten funktioniert die Kantenglättung auch nicht immer richtig! Das will er damit sagen, und dem kann ich mich auch nur anschließen.

Jake Dunn
2009-06-02, 17:44:40
Bei ATI-Karten funktioniert die Kantenglättung auch nicht immer richtig! Das will er damit sagen, und dem kann ich mich auch nur anschließen.

Wenn man keine Ahnung hat soll man ein Konsole kaufen gehn :P

Hier geht SSAA bei der CE2 z.b. :)

Gast
2009-06-02, 17:50:37
Wenn man keine Ahnung hat soll man ein Konsole kaufen gehn :P
Stimmt AMD hat die AA Unterstützung für UT3 ratz fatz rausgebracht. :rolleyes:

Gast
2009-06-02, 17:50:59
Ich habe auf jeden fall mehr Ahnung als du. Ich kaufe nämlich keine ATI-Karten, du schon^^

Gast
2009-06-02, 17:52:11
Jake, der rote smiley ist dein lieblingssmiley, oder?

Jake Dunn
2009-06-02, 17:54:56
Ich habe auf jeden fall mehr Ahnung als du. Ich kaufe nämlich keine ATI-Karten, du schon^^

Gäste kommen wieder schön auf die IL :P

Hab kein Bock auf ausgeloggte Member und gebannte Ex-Member :rolleyes:

Gast
2009-06-02, 17:56:43
Gäste kommen wieder schön auf die IL :P

Hab kein Bock auf ausgeloggte Member und gebannte Ex-Member :rolleyes:Fakten tun weh, wie die Tatsache des Fretitels oder das AMD nicht immer für schnellen AA Support wie im Falle Bioshock sorgt.

Dr. Cox
2009-06-02, 17:58:21
Ich hoffe in den Bezug eh vor allem auf Größen wie Coda.
Ich freue mich in der Hinsicht vor allem auf RV870, das ich einen fiesen Artikel lesen darf. :)

Was meinst du mit fies, etwa extreme Kritik an ATIs AF-Optimierungen? Dies würde ich mir allerdings auch wünschen, damit ich irgendwann auch mal wieder eine ATI-Karte kaufen kann, ohne dass mir das Geflimmer der Texturen auf die Nerven geht ;)

Gast
2009-06-02, 18:12:46
Was meinst du mit fies, etwa extreme Kritik an ATIs AF-Optimierungen? Dies würde ich mir allerdings auch wünschen, damit ich irgendwann auch mal wieder eine ATI-Karte kaufen kann, ohne dass mir das Geflimmer der Texturen auf die Nerven geht ;)
Denke fiese Artikel werden keine Wirkung zeigen. Amd ist sich bewusst, dass sie beim Filter sparen müssen, um bei Benchmarks mithalten zu können oder besser zu sein. Wenn sie jetzt die Optimierungen optional machen, dann werden die Magazine ohne diese testen. Dann stehen die Karten performancemäßig dumm da und sie werden Dau-Käufer, die von der AF-Problematik nichts verstehen und auch das Geflimmer nicht wahrnehmen bzw. nicht stört, evtl. verlieren.
Denen, den es auf gute AF-Qualität ankommt, werden weiter bei nV bleiben, weil diese aktuell das rundere Gesamtpaket anbieten.
Also wird alles so bleiben wie es ist. Es sei denn, Amd entwickelt ihren neuen zukünftigen GPus so, dass sie keine Optimierungen mehr nötig haben. Glaube ich allerdings auch nicht, jedenfalls nicht in absehbarer Zeit, denn mit dem bisherigen Kurs sind sie sehr gut gefahren.

InsaneDruid
2009-06-02, 18:16:21
Ja eben. Es geht bei "fiesen Artikeln", also solchen die die Wahrheit schreiben nicht darum das FIRMA X ihre aktuellen Produkte ändert (das wird sie eh nicht machen) sondern darum bei ihrem nächsten Produkt auf solche Spielereien zu verzichten. Und natürlich ist sich AMD "im Klaren", es ist ja eine gewollte Designentscheidung. Die User da draußen müssen sich im klaren sein. Darum geht es. Damit zukünftige AMD Karten nicht TMUs durch AI ersetzen.

Dr. Cox
2009-06-02, 18:23:49
Ich denke unter diesen Umständen werde ich auch in Zukunft keine ATI-Karte mehr kaufen, jedenfalls nicht für meinen Spiele-PC.

tam tam
2009-06-02, 20:17:53
Ähm....wenn du "Kantenflimmern" hast, würdest du das auch weiterhin bei einer Geforce haben. Hier geht es um das AF flimmern, was was ganz anderes ist.
Oder hast du dich falsch ausgedrückt?


Ich bin mir da nicht ganz sicher. Es könnte genauso gut ein negativer Effekt vom AA sein, z.B. bei den Schiffmodellen im besagten EVE-Online. Befindet sich da das Schiffsmodell bei ruhiger Lage in Schwebe, bewegt es sich dabei nur ein wenig auf und ab. Dabei kann man sehr gut an jeder vorhanden geraden Schiffskante wandernde Wellen in eine Richtung erkennen, je nach Lage des Schiffes. Da solche 3D-Modelle nat. sehr viele solche Ecken und Kanten haben fällt dies sehr stark auf. Stelle ich nun das AA komplett ab wird es sogar noch verstärkt. Erzwinge ich jetzt z.B. über ATI Tray Tool bei Standart-Feineinstellungen den Mip-Map-Filter erkennt man dann vor lauter Flimmerei schon keine Modell-Details mehr wie z.B. an den Schiffen oder Stationen. Ich weiß nicht, was die Ursache dafür ist. Ich habe dann mal probeweise im Gamemenü die ShaderQualität auf medium und minimum gestellt. Bei minimum flachen alle Details weitesgehend ab und dabei verschwinden auch viele dieser hervorgehobenen Kanten. Sie wirken dann nur noch wie gezeichnet. Und die Kantenflimmerei ist dann auch fast vollständig weg. Ich hab als Anhang 3 Bilder eingebunden, um somit Euch viell. ein wenig zu veranschaulichen, was ich meine.


hier ist alles auf Anwendungsgesteuert eingestellt:

http://s7b.directupload.net/images/user/090602/temp/g64ifmrv.png (http://s7b.directupload.net/file/u/14344/g64ifmrv_png.htm)


hier ist alles auf beste BQ plus zugeschalteten MipMapFilter:

http://s1b.directupload.net/images/user/090602/temp/jicqmwg2.png (http://s1b.directupload.net/file/u/14344/jicqmwg2_png.htm)


und hier alles auf BQ ohne zugeschalteten MipMapFilter:

http://s10.directupload.net/images/user/090602/temp/3c9wwybz.png (http://s10.directupload.net/file/u/14344/3c9wwybz_png.htm)


Beim ersteren Bild erkennt man auch gut die Dreiecke mangels AA. Beim zweiten sind kaum Details aufgrund massiger Flimmerei zu erkennen. Und beim letzten bzw. 3. Bild kann man trotz zugeschalteten AA kann man noch immer das Flimmern bzw. diese wandernden Wellen auf allen geraden Linien oder Kanten sehen, nur dann weniger stark auffallend. Im Game erkennt man das aber weitaus besser. Hier ist es leider nur auf jeweils ein Bild festgehalten.

Ich hab zum Abschluss nochma ein Bild mit BQ und mit niedriger Shaderqualität reingestellt. Die Kanten flimmern nun weniger bzw. fällt es nicht mehr so stark ins Auge. Interessanterweis hab ich da plötzlich besonders in Richtung Station starke Performanceeinbrüche, was ich mir nur so erklären kann, daß dann auf einmal alle Linien oder Kanten geglättet werden, was bei einer erhöhten Shaderqualität nicht der Fall ist? Würde es bedeuten, daß man da das AA stark einschränkt?


hier nochmal mit BQ und die Shaderqualität auf niedrig:

http://s4b.directupload.net/images/user/090602/temp/u6kclecg.png (http://s4b.directupload.net/file/u/14344/u6kclecg_png.htm)


Mit der Nvidea-Karte(7800'er AGP) bekomme ich noch nicht einmal das AA und AF eingestellt. Auch nicht erzwungen über die Treiber mit Hilfe von z.B. nHancer.

no6ody
2009-06-02, 20:58:35
Ich denke in dem Fall haengt das mit dem Content zusammen. Da viele Texturen gerade Linien enthalten, bei denen das MSAA nicht greift, flimmert eben alles. Da hilft nur SSAA. ;)

Schlammsau
2009-06-02, 22:11:17
Ich denke in dem Fall haengt das mit dem Content zusammen. Da viele Texturen gerade Linien enthalten, bei denen das MSAA nicht greift, flimmert eben alles. Da hilft nur SSAA. ;)
oder evtl auch 24xEDAA + AAA :)

Jake Dunn
2009-06-02, 22:16:55
oder evtl auch 24xEDAA + AAA :)

Mit einer 3850er AGP :ulol: