PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GPU-Filterqualität - Zusammenhang zwischen Flimmerneiung und Display-Panel?


Schlammsau
2010-06-04, 16:56:51
Ist euch eigentlich mal in den Sinn gekommen, dass dieser ganze Flimmer Quatsch an euren Monitoren liegt!?

Coda
2010-06-04, 17:12:35
Ist euch eigentlich mal in den Sinn gekommen, dass dieser ganze Flimmer Quatsch an euren Monitoren liegt!?
Wenn dein TN-Panel alles verblurt heißt das noch lange nicht, dass unsere Monitore "schlecht" seien.

Schlammsau
2010-06-04, 17:50:20
Wenn dein TN-Panel alles verblurt heißt das noch lange nicht, dass unsere Monitore "schlecht" seien.

Hab ich was von schlecht geschrieben?

Ich finde es trotzdem erwähnenswert, dass dieses Flimmern in den meisten Fällen, wenn dann nur auf höherpreisigen TFTs zu beobachten ist.
Oder meinst du nicht?

Ja ich habe einen günstigen, für mich völlig ausreichenden TN+ Panel TFT. Wie wahrscheinlich 90% der anderen Gamer auch.

Ist auf jeden Fall eine gute Erklärung dafür, dass vielen das AF bzw Shaderflimmern kaum bis gar nicht auffällt.

Coda
2010-06-04, 18:20:39
Glaube ich kaum. Viel eher sehen sie es einfach nicht.

Mr. Lolman
2010-06-04, 18:23:10
Glaube ich kaum. Viel eher sehen sie es einfach nicht.

Der muss nicht zwangsläufig blurren. Wenn der Monitor langsam ist, flimmerts extremer. Ist mir bei meinem alten V7 19" PVA in Q3a aufgefallen.

Coda
2010-06-04, 20:43:47
Wenn der Monitor langsam ist, flimmerts extremer.
Das ergibt überhaupt keinen Sinn.

Durch die Trägkeit der Kristalle wird das Flimmern vielleicht vermindert, aber ganz bestimmt nicht verstärkt.

PulsarS
2010-06-04, 21:04:29
Durch die Trägkeit der Kristalle wird das Flimmern vielleicht vermindert, aber ganz bestimmt nicht verstärkt.
Sehe ich auch so.

es könnte aber passieren, dass sich die Frequenz vom Flimmern und die Frequenz vom LCD überlagern, dann könnte es bei einem lahmen LCD schlechter aussehen.

Savay
2010-06-04, 21:13:23
es könnte aber passieren, dass sich die Frequenz vom Flimmern und die Frequenz vom LCD überlagern, dann könnte es bei einem lahmen LCD schlechter aussehen.

würde ich auch sagen...besser aussehen kann es meiner ansicht nach aber auf keinen fall.

die trägheit der kristalle führt nur dazu das es temporal "unregelmäßiger" flimmert als bei einem schnelleren monitor, halt je nachdem wie die frequenz der kristalle mit dem inhalt interferiert....wobei: bei ganz extrem langsamen monitoren hat man dann natürlich irgendwann matsch aber solche bildschirme dürften phantombilder zeigen die nicht mehr feierlich sind ;D


Achte mal links auf den Boden...das flimmert in Bewegung und das ist nur ein Beispiel. Ohne negatives LOD ist das deutlich besser, das Bild ruhiger.

naja...ich glaube fast kaum das man das ohne massiven detailverlust wesentlich flimmerfreier hinbekommen könnte ausser man steigert die DPI des monitors bei den heute üblichen diagonalen deutlich.

irgendwo hat die rastergrafik auch ihre physikalische limitierung.

ich muss mit 8xSGSSAA in ME2 die nase nun wirklich aufs panel drücken um dort "störendes" flimmern ausmachen zu können :wink:

PulsarS
2010-06-04, 21:34:01
die trägheit der kristalle führt nur dazu das es temporal "unregelmäßiger" flimmert als bei einem schnelleren monitor...
Und genau das sieht dann schlechter aus, weil "matschiger".
Kann man irgendwie schlecht beschreiben, hehe.

Mr. Lolman
2010-06-04, 22:52:41
Das ergibt überhaupt keinen Sinn.

Durch die Trägkeit der Kristalle wird das Flimmern vielleicht vermindert, aber ganz bestimmt nicht verstärkt.

Doch Sinn. Nich die Trägheit (=Falltime), sondern der Aufbau (Risetime) war furchtabr zäh. Dementsprechend hat man nie die echten 125fps gesehen, sondern nur einen Bruchteil dessen. Dementsprechend höher war auch die Differenz zwischen den einzelnen Bildinhalten, was zu stärkerer Flimmerneigung führte. Auch beim NEC 24WMGX³ sind die Kristalle relativ zäh im Aufbau. Die Falltime ist ok und das typische TFT-Schlieren bekommt man zwar mit Black-Frame-Insertion schön in den Griff, aber damit wirkt sich die relativ langsame Rise-time optisch umso stärker aus. (=ist ja eigentlich ganz logisch => Je mehr fps tatsächlich dargestellt werden können, desto geringer ist der zeitliche Unterschied zwischen den einzelnen fps und desto geringer ist die Flimmerneigung. Und die meisten fps können nun mal (leider) TN-Panels darstellen => was Schlammsaus Theorie indirekt bestätigt.

Schlammsau
2010-06-06, 12:02:26
Nochmal zum Flimmern......ich wäre ganz stark dafür, dass bei der nächsten "ATi flimmert like as hell" Diskussion, diese Abhängigkeit zum verwendeten Monitor angebeben werden muss!

Wenn es wirklich so ist, dass das schlechtere AF wenn dann nur mit einem sehr teuren TFT wahrgenommen wird, bzw. derart ausgeprägt ist, ist es ein muss die Leute daruf hinzuweisen! Und nicht allgemein zu sagen, auf ATi sieht AF schlechter aus.
Wieviele Gamer haben den ein IPS, MVA oder PVA Panel?

PS: vielleicht könnte ein Mod, nen neuen Thread erstellen?

Gast
2010-06-06, 12:09:43
Trotzdem bleibt es ein Fail von AMDs Seite, dass der Enhusiast auf seinem hochwertigen Anzeigegerät und mit einem Setup mit bis zu 240 TMUs mit minderwertiger Filterqualität spielen muss, damit AMD nicht in Gefahr läuft in Benchmarks ein paar FPS zu verlieren, wenn der Reviewer den HQ-Schalter finden würde. :down:

Schlammsau
2010-06-06, 12:15:56
Dann soll ein "Enthusiast" zu nVidia greifen oder sich nicht unnötigerweise einen sündhaftteuren TFT in die Bude klatschen. Ich wüsste nicht, warum man zum zocken was anderes al ein TN-Panel verwenden müsste.

Aber nochmal zum Thema, ich finde es wirklich ungeheuerlich, dass man pauschal sagt, ATi´s AF flimmert grundsätzlich mehr als nVidia´s. Das einem dieses Flimmern aber gar nicht auffallen wird bzw kann, weil er ja nur einen normalen TFT hat, wird gänzlich verschwiegen!

ehrlich gesagt glaub ich das nicht.das muss erst mal bewiesen werden,das riecht nach wunschdenken.
Meinst du mich?

derguru
2010-06-06, 12:31:13
Wie soll man das beweisen?

Einziger Anhaltspunkt ist nur, dass die allermeisten das AF flimmern kaum bis gar nicht wahrnehmen. Jetzt wäre nur interessant, wer von denen welches Panel in seinem TFT besitzt.
das können redakteure beweisen,die haben ja wohl mehr als nur einen monitor zur verfügung.

Schlammsau
2010-06-06, 12:34:53
das können redakteure beweisen,die haben ja wohl mehr als nur einen monitor zur verfügung.

Ja klar aber meistens sau teure Dinger.

Meinst du man könnte Raff, der mich im übrigen vor einiger Zeit auf die Idee gebracht hat, mal zu einem Test bewegen?
Die PCGH ist ja eigentlich die Seite, die am meisten auf dem AF Flimmern herumreitet.

derguru
2010-06-06, 12:38:20
na sicher das bietet sich doch an,soll er demnächst mal machen wenn er lust hat.ist eigentlich auch relative einfach zu checken,beide monitore anschließen und unter anzeige duplizieren,crysis oder was der geier starten,fetig.bleib natürlich eine subjektive meinung aber raff ist vertrauenswürdig und hat ja ein auge für sowas,hoff ich mal.:tongue:

y33H@
2010-06-06, 13:28:08
Aber nochmal zum Thema, ich finde es wirklich ungeheuerlich, dass man pauschal sagt, ATi´s AF flimmert grundsätzlich mehr als nVidia´s. Das einem dieses Flimmern aber gar nicht auffallen wird bzw kann, weil er ja nur einen normalen TFT hat, wird gänzlich verschwiegen!Klasse Argumentation! Ich habe einen ****** TFT, also lasst das Flimmern beginnen - ich sehe es ja eh nicht. Wirklich genial auf was für Ideen du manchmal kommst :ulol: Im Übrigen was ist ein "normaler" TFT? Auf praktisch jedem aktuellen TN-Panel das ich kenne, sieht man die Flimmer-Differenzen ... welche Monitore sollen ergo herhalten? Ein 4 Jahre alter 19er mit 1280 in Kombination mit einer HD5k? Eine HD5k ist ja auch nicht schei0e, nur weil sie unter WinXP kein DX11 kann ;D
Der miese Filter fällt auf einem grottigen Monitor vielleicht nicht so auf, aber das ändert doch nichts an den SparmaßnahmenRichtig.

Gast
2010-06-06, 14:39:21
Ist auf jeden Fall eine gute Erklärung dafür, dass vielen das AF bzw Shaderflimmern kaum bis gar nicht auffällt.

Es ist eher umgekehrt. Durch die schnelleren Schaltzeiten müssten TNs eher mehr flimmern zeigen. Das temporale Dithering der TNs könnte unter Umständen sich mit dem Flimmern überlagern und es damit subjektiv verstärken.

Gast
2010-06-06, 14:45:07
Nochmal zum Flimmern......ich wäre ganz stark dafür, dass bei der nächsten "ATi flimmert like as hell" Diskussion, diese Abhängigkeit zum verwendeten Monitor angebeben werden muss!

Es flimmert auf einem CRT genauso.

Gast
2010-06-06, 14:52:13
Die Antwort ist ganz einfach:
1) Qualitätsanspruch
oder
2) Finanzielle Ressourcen

Ein TN Nutzer hat nicht unbedingt den Anspruch tollste Qualität genießen zu wollen, sonst hätte er ja nicht den TN.
Besonders arg außgeprägt bei denen, die sich nicht Standardgrößen hinstellen, sondern z.b. 28"er mit der Auflösung eines 24"er.

Diese Theorie passt eigentlich perfekt, bis auf einen Schönheitsfehler. Manch ein TN Nutzer gibt zig 100€ für Grafikkarten aus und das oft.
Diesen Punkt kann man sich nicht so leicht erklären, aber ansonsten ist die Threadfrage für mich keine Frage.
Entweder Schlammsaus Frage ist hiermit geklärt oder ich habe bedenken, das es ihm in Wirklichkeit, siehe Post11 um AMD geht, das sie schlecht wegkommen in den Threads. Naja, das ist mal Kinderkacke, das Forum ist voller AMD Bots, wir brauchen nicht noch ein Wattetuch für AMD.

Bucklew
2010-06-06, 15:26:53
Nochmal zum Flimmern......ich wäre ganz stark dafür, dass bei der nächsten "ATi flimmert like as hell" Diskussion, diese Abhängigkeit zum verwendeten Monitor angebeben werden muss!
Warum sollte etwas angegeben werden, das nichts weiter ist als estorik-angehauchte Verschwörungstheorie? Ich kann dir auch gern einen Spezialfilter für 1000€ verkaufen, der begrenzt das ATI-Geflimmere auch :rolleyes:

Raff
2010-06-06, 15:32:57
Nochmal zum Flimmern......ich wäre ganz stark dafür, dass bei der nächsten "ATi flimmert like as hell" Diskussion, diese Abhängigkeit zum verwendeten Monitor angebeben werden muss!

Wenn es wirklich so ist, dass das schlechtere AF wenn dann nur mit einem sehr teuren TFT wahrgenommen wird, bzw. derart ausgeprägt ist, ist es ein muss die Leute daruf hinzuweisen! Und nicht allgemein zu sagen, auf ATi sieht AF schlechter aus.
Wieviele Gamer haben den ein IPS, MVA oder PVA Panel?

PS: vielleicht könnte ein Mod, nen neuen Thread erstellen?

Eigenartige Logik. Das AF ist schlechter, ergo sollte man darauf hinweisen. Nur weil das Flimmern – bislang auf theoretischer Basis – auch mit dem Monitor zu tun hat, soll dieser eindeutige Kritikpunkt kleingeredet werden? Ich werd's nie verstehen, dass man Missstände so gut es geht verdrängt und den Urheber der Scheiße in Schutz nimmt. So ändert sich nie etwas! Diverse Entwicklungen hin zu guter Bildqualität (SGSSAA, schon mal gehört? ;)) haben gezeigt, dass die IHVs doch auf uns hören, wenn gescheit gemeckert wird. Und ich wette, dass du einer der Ersten sein wirst, die das Ati-AF hochloben werden, wenn es in einer Folgegeneration endlich besser wird.

Ich sitze in meiner Heimat an einem matschigen 19-Zoll-CRT, dessen Maske ich gerne mal überfahre. Dort ist das Flimmern besonders unauffällig. Dennoch sehe ich diverse Entgleisungen ...

na sicher das bietet sich doch an,soll er demnächst mal machen wenn er lust hat.ist eigentlich auch relative einfach zu checken,beide monitore anschließen und unter anzeige duplizieren,crysis oder was der geier starten,fetig.bleib natürlich eine subjektive meinung aber raff ist vertrauenswürdig und hat ja ein auge für sowas,hoff ich mal.:tongue:

Mal sehen, ob sich ein kleiner Artikel machen lässt ...

MfG,
Raff

san.salvador
2010-06-06, 15:39:16
Setzen wir doch einfach Schlammsaus absurden Vorschlag um - als Gegenzug wird aber nur noch mit AI off getestet, wie es sich gehört.

Raff
2010-06-06, 15:40:07
Wenn A.I. Off das Flimmern wie zu R5x0-Zeiten wirklich beseitigen würde, wäre das eine tolle Lösung. Dumm nur, dass A.I. Off eine Farce ist, die weiterflimmert.

MfG,
Raff

Tesseract
2010-06-06, 16:00:36
Wenn es wirklich so ist, dass das schlechtere AF wenn dann nur mit einem sehr teuren TFT wahrgenommen wird, bzw. derart ausgeprägt ist, ist es ein muss die Leute daruf hinzuweisen!
ist es nicht. das ist vollkommener unsinn. technisch ist TN trotz seiner vielen mängel immer noch der schnellste paneltyp. sprich: am flimmeranfälligsten.

und sinn macht es trotzdem keinen das flimmern irgendwie mit der responsetime in verbindung zu bringen.
schlieren erzeugen unschärfe. unschärfe zerstört information. ja, bei diesen informationen ist AF-flimmern auch dabei, genau so wie jede andere bildinformation.
mit der selben argumentation könntest du auch sagen: "das AF flimmert überhaupt nicht wenn man es ausschaltet". thank you captain obvious!
wenn du einen 3-pixel-radius blurfilter über das bild klatscht siehst du auch kein flimmern mehr. leider auch fast nix anderes.

hurra, problem gelöst... nicht.

mapel110
2010-06-06, 16:35:59
Völlig sinnlose Diskussion. Das Flimmern sieht man auch auf ältesten, schlechtesten Monitoren.

Was imo aber etwas Abhilfe schafft, ist eine höhere Pixeldichte. Bin neulich umgestiegen von einem 22" 1680x1050 Monitor auf einen 21,5" 1920x1080. Auf dem neuen wirkt sich Alpha Test Flimmern nicht ganz so stark aus wie auf dem alten.

Gast
2010-06-06, 16:45:04
Völlig sinnlose Diskussion. Das Flimmern sieht man auch auf ältesten, schlechtesten Monitoren.

Was imo aber etwas Abhilfe schafft, ist eine höhere Pixeldichte. Bin neulich umgestiegen von einem 22" 1680x1050 Monitor auf einen 21,5" 1920x1080. Auf dem neuen wirkt Alpha Test Flimmern nicht ganz so stark aus wie auf dem alten.
Dann aber nur Flimmermilderung durch reduziertes Aliasing? Denn das AF-Flimmern inkl. Wellenfront erkenne ich sogar auf meinem BenQ-TN 20" @ 1920x1080 lupenrein -leider.

boxleitnerb
2010-06-06, 16:57:40
Nochmal zum Flimmern......ich wäre ganz stark dafür, dass bei der nächsten "ATi flimmert like as hell" Diskussion, diese Abhängigkeit zum verwendeten Monitor angebeben werden muss!

Wenn es wirklich so ist, dass das schlechtere AF wenn dann nur mit einem sehr teuren TFT wahrgenommen wird, bzw. derart ausgeprägt ist, ist es ein muss die Leute daruf hinzuweisen! Und nicht allgemein zu sagen, auf ATi sieht AF schlechter aus.
Wieviele Gamer haben den ein IPS, MVA oder PVA Panel?

PS: vielleicht könnte ein Mod, nen neuen Thread erstellen?

Du willst nicht in die Fanboykiste gesteckt werden und willst jetzt die klare Limitierung/Cheat beim Filtern dem Monitor in die Schuhe schieben? Gehts noch?
Du versuchst auch echt mit allen Mitteln, AMDs Vorgehen zu verteidigen - unter aller (Schlamm)Sau! Ihr "begeisterten Nichtkritiker" sorgt jedesmal dafür, dass AMD rein gar nichts verbessert :down: :down: :down: !!!

Da die eigene Kundschaft ja offenbar Null Anspruch hat, muss eben die Konkurrenz als Innovationsmotor herhalten und die Latte hoch setzen, damit die Qualität nicht zu kurz kommt (AF, SSAA, GPU-Physik...). Wäre NV bzw. qualitätsbewusste Spieler, käme von AMD da überhaupt nix!

Tesseract
2010-06-06, 17:14:50
Was imo aber etwas Abhilfe schafft, ist eine höhere Pixeldichte.
das auf jedenfall. ebenso hilft es enorm sich einen großen monitor (diagonale+auflösung) zu nehmen und entsprechend weiter weg zu sitzen.

wenn die DPI so höch wären wie bei aktuellen smartphones würden sich so einige probleme ganz von selbst lösen.

Gast
2010-06-06, 17:35:05
Krass, 10% gespart dank Cheat-AF überdeckt durch x-fache Arbeit durch höhere Auflösung/SSAA.

Schlammsau
2010-06-06, 17:58:46
Seit ihr alle noch ganz sauber?

Es ist doch völlig legitim zu sagen, auf dem oder dem Monitortyp, fällt einem das flimmern mehr auf als auf anderen. Was ist daran auszusetzten?
Das würde schon vielen helfen und viele fragen sich dann nicht mehr warum sie das schlechtere AF nicht oder kaum sehen.
So wie ich.....ich lese hier immer von krassen Unterschieden, aber sie sind mir nach wie vor noch nicht wirklich ins Auge gesprungen.
Also liegt wohl an meinem Moni!
Ich kenne privat so viele Leute, die haben noch nie einen Unterschied zwischen dem nVidia und ATi AF gesehen.

Ich glaub ich steh im Wald! :mad:

Du willst nicht in die Fanboykiste gesteckt werden und willst jetzt die klare Limitierung/Cheat beim Filtern dem Monitor in die Schuhe schieben? Gehts noch?
Du versuchst auch echt mit allen Mitteln, AMDs Vorgehen zu verteidigen - unter aller (Schlamm)Sau! Ihr "begeisterten Nichtkritiker" sorgt jedesmal dafür, dass AMD rein gar nichts verbessert :down: :down: :down: !!!

Da die eigene Kundschaft ja offenbar Null Anspruch hat, muss eben die Konkurrenz als Innovationsmotor herhalten und die Latte hoch setzen, damit die Qualität nicht zu kurz kommt (AF, SSAA, GPU-Physik...). Wäre NV bzw. qualitätsbewusste Spieler, käme von AMD da überhaupt nix!

Halt mal den Ball flach!

Wer hat SGSSAA, die Custom AA Filter, DX10.1, DX11 (Tesselation) und EyeFinity eingeführt bzw. früher auf den Markt gebracht?
Wennst es weisst, bekommst nen Keks. ;)

Captain Future
2010-06-06, 18:29:50
Also SGSSAA hat m.W. 3dfx auf den Consumer-Markt gebracht. Blurfilter-AA gab's schon als Quincunx und von XGI, viele Monitore gibt's u.a. von Matrox.

Schlammsau
2010-06-06, 18:37:21
Also SGSSAA hat m.W. 3dfx auf den Consumer-Markt gebracht. Blurfilter-AA gab's schon als Quincunx und von XGI, viele Monitore gibt's u.a. von Matrox.

Ahhhh.....und warum wird dann nVidia als Innovator genannt?
Im Prinzip bauen doch alle irgendwie nur nach!

Gast
2010-06-06, 18:46:07
Es ist doch völlig legitim zu sagen, auf dem oder dem Monitortyp, fällt einem das flimmern mehr auf als auf anderen. Was ist daran auszusetzten?
Allerdings, mit dem richtigen Monitor sieht man auch nicht den Unterschied zwischen deinem 4x und 8xMSAA.
Ok, noch deutlicher ausgedrückt, man sieht nicht den Unterschied zwischen 50€ HD5 und 400€ HD5.


Ich kenne privat so viele Leute, die haben noch nie einen Unterschied zwischen dem nVidia und ATi AF gesehen.

Ich kenne so viele Leute, die haben noch nie einen Unterschied zwischen 5770 und 5870 gesehen.
Ganz toll.


Wer hat SGSSAA, die Custom AA Filter, DX10.1, DX11 (Tesselation) und EyeFinity eingeführt bzw. früher auf den Markt gebracht?
Wennst es weisst, bekommst nen Keks. ;)
Ich dachte Tesselation sei unwichtig?
Najagut, so unwichtig wie SSAA vor der HD5, bzw jetzt in D3D10/11.

Schlammsau, sag doch einfach was du willst.
Die Frage ob es einen Zusammenhang gibt wurde geklärt. Schnelle Monitore verstärken das Flimmern, unscharfe (CRT) vermatschen das Bild ergo auch das Flimmern.
Was du erreichen wolltest wirst du nicht erreichen, das jemand das ganze noch weiter schönredet, aufgrund dieser Tatsachen.

Don-Roland
2010-06-06, 18:51:38
@ Post #1

Negativer LOD Bias auf "Clamp" stellen...

Gast
2010-06-06, 18:52:15
Ahhhh.....und warum wird dann nVidia als Innovator genannt?
Im Prinzip bauen doch alle irgendwie nur nach!
nVidia ist der Entwickler von GPUs, der seit Jahren seinen Kunden umfassende Möglichkeiten zur Bildqualitätssteigerungen gibt.
Sei es seit Jahren OGSSAA-Hybride, neuerdings SGSSAA in allen APIs, PhysX, AA-Kombatibilität, HQ-Schalter, 3D Stereo, TSSAA, SLI, Profile.
Das sind alles Dinge, wo man als Kunde profitiert, teils sogar hinterher.

Verwerflich finde ich das ich es dir persöhnlich anlasten kann, das nVidia in der aktuellen Generation auf weniger TMU Leistung setzt.
Das ist dein persöhnlicher Erfolg.
Ich wollte schon lange mal mich dafür bedanken, ich denke jetzt ist ein guter Augenblick.
Wenn du nicht ständig AMDs Filter loben würdest, gäbe es gar keinen Grund für nVidia diese Texturleistung zu vernächlässigen.
Ich bin sehr froh, das nVidia trotz deinem Einflussen den HQ Schalter unangetastet gelassen hat, ferner noch SGSSAA anbietet.

Captain Future
2010-06-06, 18:52:47
Ahhhh.....und warum wird dann nVidia als Innovator genannt?
Mich musst' nicht fragen.

Tesseract
2010-06-06, 19:13:31
Es ist doch völlig legitim zu sagen, auf dem oder dem Monitortyp, fällt einem das flimmern mehr auf als auf anderen.

nicht in der weise wie du es darstellen willst.

gleichzeitig müsstest du dann auch erwähnen, dass man generell kaum texturdetails sehen kann und - wenn man als beispiel die ganz langsamen panel hernimmt - in bewegung nichtmal zwischen voller und halbierter auflösung unterscheiden kann.

das hat absolut nichts mit dem flimmern zutun. wenn du mit unschärfe gegen flimmern vorgehen willst schalte AF einfach aus und spiel mit normalem trilinearen filter. dann flimmert in der entfernung auch nix mehr.

Also liegt wohl an meinem Moni!
in den meisten fällen liegt es einfach am user.

Schlammsau
2010-06-06, 19:16:59
Ich seh schon, dass führt zu nichts.

Bis jetzt haben sich nur nVidia Fans zu Wort gemeldet.

Ich bin raus hier....viel Spass noch! ;)

boxleitnerb
2010-06-06, 19:27:09
Seit ihr alle noch ganz sauber?
Halt mal den Ball flach!

Wer hat SGSSAA, die Custom AA Filter, DX10.1, DX11 (Tesselation) und EyeFinity eingeführt bzw. früher auf den Markt gebracht?
Wennst es weisst, bekommst nen Keks. ;)

Du bist der, der nicht ganz sauber ist. Wenn du wieder mal einen "AMD ist ja gar nicht Schuld, mimimi" Thread bringst, brauchst du dich gar nicht wundern!

SGSSAA:
Zwar besser als OGSSAA, aber das hatte NV schon 3 Jahre früher. Du glaubst doch im Traum nicht daran, dass es AMD überhaupt gebracht hätte, hätte es von Nvidia kein SSAA gegeben.

Custom AA Filter:
Schön

DX10.1:
War ja auch soooo erfolgreich ;D

DX11:
Das ist nix Besonderes, bietet jede aktuelle Grafikkarte. In dem Zusammenhang Quatschargument. Fermi wäre auch ohne HD5000 DX11 gewesen, die Entwicklung geht voran.

Tessellation:
Halbherzig at best. Momentan ausreichend, das wars aber auch schon.

Eyefinity:
Nett

Dieser Thread ist so unnütz, das gibts ja gar nicht. Warum so umständlich, wenns auch einfach geht? Gescheit filtern, FERTIG. Dann hat auch niemand mehr Grund, sich zu beschweren und musst mit keinen fadenscheinigen Entschuldigungen deine Lieblingsfirma verteidigen.

Ich seh schon, dass führt zu nichts.

Bis jetzt haben sich nur nVidia Fans zu Wort gemeldet.

Ich bin raus hier....viel Spass noch! ;)

Warum führt ein sinnloser Thread wohl zu nichts? Hm...er führt wohl nur dann zu etwas, wenn alle hier "einsehen", dass du Recht hast. Äh, nö.

Tesseract
2010-06-06, 19:56:38
SGSSAA:
Zwar besser als OGSSAA, aber das hatte NV schon 3 Jahre früher. Du glaubst doch im Traum nicht daran, dass es AMD überhaupt gebracht hätte, hätte es von Nvidia kein SSAA gegeben.

SSAA gab es sowohl bei ATI als auch bei nvidia schon weit länger. geriet nur wegen MS seit der GF3 eher in vergessenheit.
ich denke nicht, dass die entscheidung etwas mit nvidias inoffiziellen modi zutun hat. eher damit, dass die 5xxx füllrate zum saufüttern hat die man bei vielen spielen so ggf. auch sinnvoll nutzen kann.

Captain Future
2010-06-06, 20:56:04
Die 4800er hatten die Füllrate auch schon. Viele Spiele ist immer eine Frage des Alters: Es gibt viele Spiele, die mit SSAA besser aussehen und die so anspruchslos sind, dass auch heutige <100-Euro-Karten genug Leistung haben. Das allein ist IMO kein Argument. Die Hardware stand jedenfalls auch schon mit HD3xxx bereit.

Gast
2010-06-06, 21:27:04
Setzen wir doch einfach Schlammsaus absurden Vorschlag um - als Gegenzug wird aber nur noch mit AI off getestet, wie es sich gehört.

Nein, in Zukunft wird ATI ausnahmslos mit SSAA getestet, mal sehen wie lange es dauert bis ein Treiber kommt der ordentliches AF ermöglicht, ich tippe mal auf unter 1 Monat.

Gast
2010-06-06, 21:43:02
Nein, in Zukunft wird ATI ausnahmslos mit SSAA getestet, mal sehen wie lange es dauert bis ein Treiber kommt der ordentliches AF ermöglicht, ich tippe mal auf unter 1 Monat.
Klingt fair, damit ist dem Geflimmer ja beizukommen. Natürlich ist die Bildqualität dann insgesamt etwas höher als bei Nvidia, aber das war bisher umgekehrt ja auch kein Problem. Blöd ist halt, dass ATI-Karten damit ihre DX10/11-Fähigkeit verlieren, aber man könnte das als wohlwollendes Hardwaremagazin für PC-Gamer ja einschränken:

"ATI-Karten sind derzeit leider nur für DX9-Spiele zu empfehlen. Alternativ können Sie versuchen, bei eBay für DX10/11-Spiele auf ihrer Radeon einen möglichst heruntergekommenen TFT-Monitor zu erwerben. Sie müssen darauf achten, dass der gewählte Bildschirm die Darstellung gründlich vermatscht, eine altersschwache Hintergrundbeleuchtung kann ebenfalls zweckdienlich sein."

Schlammsau made my day! ;D

Gast
2010-06-06, 22:02:00
Was imo aber etwas Abhilfe schafft, ist eine höhere Pixeldichte. Bin neulich umgestiegen von einem 22" 1680x1050 Monitor auf einen 21,5" 1920x1080. Auf dem neuen wirkt sich Alpha Test Flimmern nicht ganz so stark aus wie auf dem alten.

Natürlich, je kleiner die Pixel, desto weniger Fallen einzelne Fehler auf.

y33H@
2010-06-06, 22:21:49
Die Pixel werden nicht kleiner, sie kleben nur enger aufeinander? Daher ja auch Pixeldichte.

Gast
2010-06-06, 22:23:19
Klingt fair, damit ist dem Geflimmer ja beizukommen. Natürlich ist die Bildqualität dann insgesamt etwas höher als bei Nvidia, aber das war bisher umgekehrt ja auch kein Problem.


Mit ein bisschen Anpassung wäre der Vergleich aus Sicht der Bildqualität sogar wesentlich fairer, als es heute mit den Standardeinstellungen der Treiber ist.

Kanten werden von MSAA und SSAA gleichermaßen geglättet, allerdings führt SSAA zu besserer Texturschärfe, weshalb man fairerweise bei Nvidia einen AF-Grad höher wählen sollte.

Um den Vergleich Fair zu gestalten wird bei Nvidia noch TRSSAA aktiviert, dort kann man das ja dankenswerterweise machen wenn man möchte. Damit ist auch die AT-Qualität identisch.

Die endgültige Bildqualität dürfte mit diesen Settings sehr gut vergleichbar sein, auf jeden Fall deutlich besser als mit den heute verwendeten Einstellungen.

Braucht es nur ein paar große Magazine die da mitmachen und es wird nicht lange dauern, dann darf endlich auch bei ATI der User entscheiden welche Qualität er möchte.

Zumindest einen Kunden hätte ATI damit schon mehr, denn die Fermi-Geration kann mich bis jetzt nicht überzeugen und die ATIs kommen nicht in Frage, so lange ich als User nicht entscheiden kann welche Filterqualität ich haben will. Also liebe Hardwaremagazine, tut was gutes für ATI und die User.

Gast
2010-06-06, 22:24:28
Die Pixel werden nicht kleiner, sie kleben nur enger aufeinander? Daher ja auch Pixeldichte.

Natürlich werden sie kleiner, Pixel sind immer nebeneinander und nicht aufeinander (bei einer überfahrenen CRT-Maske könnte man wohl von aufeinander sprechen)

y33H@
2010-06-06, 22:27:07
OK :usad:

Bucklew
2010-06-06, 23:34:44
Es ist doch völlig legitim zu sagen, auf dem oder dem Monitortyp, fällt einem das flimmern mehr auf als auf anderen. Was ist daran auszusetzten?
Sagt wer? Du? Alles klar ;D;D

Ok, was hälst du davon:

Sag mir deine Adresse und ich komm vorbei. Und dann zeigst du mir zwei IDENTISCHE system mit einer HD5870, mit IDENTISCHEN settings und unterschiedlichen TFTs, die jeweils das Flimmern zeigen und die es nicht zeigen. Und dann glaube ich dir. Ich denke, dass ich meine Zeit und den Sprit investiere ist schon mehr als genug Geduld mit dir und deinen estroischen ATI-Erklärungsversuchen ;)

btw: Wenn du endlich mal aufhören würdest diese ganzen Verarschungsaktionen deiner rosaroten Liebliglingsfirma schön zu reden und anstelle mal angfängst dich zu beschweren ist es durchaus möglich, dass es in Zukunft vllt nicht mehr nötig ist sich solche völlig bescheuerten Theorien auszudenken sondern stattdessen flimmerfrei zu zocken!

Spasstiger
2010-06-06, 23:39:42
Besitzer hochwertiger Monitore achten verstärkt auf die Bildqualität, deshalb fallen ihnen auch flimmernde Texturen schneller auf. Der Anspruch ist einfach höher.
GTA IV flimmert auch auf meinem 19"-CRT in 1920x1200 mit Balken oben und unten munter vor sich hin, obwohl im Windows die Schriften dann nur noch Matsch sind. Es sieht zwar wesentlich besser aus als auf dem 24"-LCD in gleicher Auflösung, aber das Flimmern verschwindet nicht gänzlich, nur weil es ein CRT ist und das Bild Briefmarkenformat hat. Sonst wäre Antialiasing auf einem CRT ja auch völlig für die Katz.

Gast
2010-06-06, 23:42:15
Auf meinem 5" flimmert nix...

=Floi=
2010-06-07, 00:05:14
sich nicht unnötigerweise einen sündhaftteuren TFT in die Bude klatschen
du bist doch echt so panne. :facepalm:
aber wenn es umgedreht wäre...:P (eigentlich sollte der smilie nv-grün sein ;) )


da darf ich gar nichts mehr dazuschreiben... ;( totaler epic fail


---
könnte man das thread thema nicht mit vsync umgehen?! imho hätte man dann immer 60 frames und die sollte der monitor problemlos schaffen und man hat die monitorkomponente ausgeschaltet und bekommt nur noch das echte flimmern zu sehen.

Gast
2010-06-07, 00:42:03
Alternativ kann man auch auf einige Farben verzichten.
Wozu braucht der geneigte G4m0r 16 Millionen Farben. Bei 256 Farben flimmert es oft nicht mehr.

Sentionline
2010-06-07, 01:26:45
Man kann auch auf umwegen Probleme umschreiben. Auch wenn die Leute zuhause kein HighEnd haben werdens die Tester in den Redaktionen haben. Oder meinst du @Schlammsau, das HT4U auf einem 80€ Monitor die Qualität der Signalausgabe bewertet? Abgesehn davon sind Videos erstellt und Released, die mit dem Monitor gar nix zu tun haben und die "Fehler" der ATi Chips trotzdem ersichtlich ist.

Auch wenn du jetzt nach Rom fahren willst, in Moscowa wirst du trotzdem ankommen!

Ich glaube der Begriff "Qualität" ist bei dir nicht richtig angekommen. Maximale Qualität bedeutet:

...Der Preis oder ein persönliches Urteil sind also nicht Bestandteil der Qualität. Durch die Definition einer Zielgruppe und Meinungsumfragen kann das subjektive Empfinden dieser Zielgruppe ermittelt, ein inhärentes Merkmal definiert und damit „messbar“ und Bestandteil der Qualität werden...
Qualität ist die Übereinstimmung von Ist und Soll, also die Erfüllung von Spezifikationen oder Vorgaben (Fulfilment of a specification) im Gegensatz zu der Erfüllung von Erwartungen und Zielen als dem übergreifenden Qualitätsanspruch (Fitness for Purpose).
Quelle (http://de.wikipedia.org/wiki/Qualit%C3%A4t)

Für mich plausibel und Verständlich. Denn "Soll = Ist" ist bei AMD nicht gegeben. Als Maßstab für Bildqualität wird nach wie vor 3Dfx herangezogen und auch der nächste Bewerber in der Runde einbezogen: Dein erzfeind Nvidia, der besser abschneidet. Zu behaupten: "...das liegt an der optischen Darstellung diverser am Computer angeschlossenen Geräte..." oder "...eure optische Wahrnehmung ist villeicht gestört..." bringt da nix. Man hat Referenzen, mit denen man vergleichen kann. Es gibt geschulte Augen und diverse Messgeräte. Alle sagen: "Ati liefert nicht die maximal Qualität, denn wir sehen abweichungen in richtung negativ...". Das tun nicht eine Handvoll "Meister" sondern auch viele Konsumenten. Sollen jetzt alle zum Augenarzt gehen und den Monitor tauschen, nur um dein Wahrnehmungslevel versuchen zu erreichen, damit auf der selben Wellenlänge diskutiert werden kann?

Passt zwar nicht ganz, aber der 2. Weltkrieg hat so angefangen...:wink:

mfg

Gast
2010-06-07, 04:18:16
Joa wie wurde Nvidia damals zu G70 Zeiten kritisiert....

bei geizhals stehts immer noch drin:

http://geizhals.at/deutschland/a264612.html

Was passiert bei ATI? garnix

Sentionline
2010-06-07, 06:11:25
Das ganze ist dem taugenix R600 geschuldet das sie da nix machen können. Solange sich dieser hier und da Patchen und verkaufen lässt, why not? Der Chipkann nicht mehr Qualität raushauen, weil dann die Performance mehr oder weniger stark einbricht.

Jetzt trampelt ATi auf Nvidia rum, was sie denn machen da mit ihrem Fermi und wieviel Strom sie konsumiere. Man wird sehen welch Geniestreich der nächste "echt neuer" ATi Chip wird. Bestimmt meldet Nvidia dann Konkurs an.

Ist wie bei Toilettenpapier. Günstig, rauh und erfüllt seinen Zweck, oder weich teuer und etwas schwerer. Wie hätten sie es denn gern?

Simon Moon
2010-06-07, 06:14:29
Naja, die Aussage stimmt ja - auf schlechten Monitoren sieht man das Flimmern schlechter (aber auch alle anderen Details). Die Schlussfolgerung driftet nur in die falsche Richtung. Statt den Fokus darauf auslegen zu wollen, dass man auf billigen Monitoren den Unterschied eh nicht sieht, sollte man es so sagen, dass man um die Unterschiede zu sehen, eben nicht an einem Glied der Kette sparen darf.

Zumindest die Beobachtung, dass der Monitor von vielen Gamern oft vernachlässigt wird, hab ich auch gemacht. Dabei ist der Monitor (und die Tastatur & Maus) doch imo etwas vom Wichtigsten am PC - das sind die Schnittstellen, mit denen ich direkt Kontakt hab. Wenn das nicht stimmt, kann der Computer noch so toll sein, ich hab nicht wirklich was davon. Ich mein, 120fps aber ein beschissenes Aiming wegen Funkmaus ... oder eine GF480 per VGA an nen 19" TFT... oder eine Uni-Arbeit auf einer Traveltastatur... ist alles imo nicht soweit hergeholt.

Man sollte also bei den Artikeln vielleicht eher darauf eingehen, dass das die Ausgewogenheit des Systems ansich eine Rolle spielt und eben nicht nur die Grafikkarte. Wenn das Budget also begrenzt ist, lohnt es sich u.U. eben mehr statt alles in die High-End Karte zu buttern, bei der Grafikkarte eben Abstriche zu machen, dafür einen besseren Monitor zu kaufen. Im Endeffekt ist es einerlei, ob ich nun ohne AF auf einer HD5650 oder mit AF auf einem MatschMonitor und einer HD5870 zocke.

Haarmann
2010-06-07, 08:21:26
Simon Moon

Der Bessere Monitor ist oft doch der Moitor, der zur Verwendung passt...

Mir ist der Farbraum sowas von egal...

Bin ich Grafiker? Nein...

Mir ist Blickwinkel auch egal...

Weil ich vor dem Monitor sitze und nicht 4m links und 3m zu weit unten ;).

Schaltzeit ohne Overdrive und Maximalkontrast sind für mich wichtig, denn dann hab ich möglichst dunkles schwarz und kriege auch möglichst aktuelle Daten vom Spiel aufm Monitor dargestellt werden.

Und gerade teure Monitore versagen bei der Kombo auf der ganzen Linie.

Schlammsau

Muss mal mein Q3A hervorkramen - mir fällt das Flimmern auch nicht wirklich mehr auf - ob das daran liegt, dass ich TN hab und nie AA nutze, weil das kein Bild verbessert imho?

airbag
2010-06-07, 09:28:15
könnte man das thread thema nicht mit vsync umgehen?! imho hätte man dann immer 60 frames und die sollte der monitor problemlos schaffen und man hat die monitorkomponente ausgeschaltet und bekommt nur noch das echte flimmern zu sehen.
Naja Vsync wird da nicht viel bringen. Zumal man Tearing und AF Flimmern eigentlich leicht unterscheiden kann.

Schlammsau
2010-06-07, 09:32:35
Ihr seit echt witzig... :rolleyes:

Da schreibt man was von günstigen Monitoren und ihr kommt mit 100 Jahre alten 80€ TFTs.
Ich habe normale TN+ Panel TFTs gemeint, die nunmal die günstigsten Monitore sind, und wohl auch 90% aller Gamer haben. Was ist daran so schwer zu verstehen?

Aber ihr ganzen grünen Fanboys versucht meine Theorie, mit haltlosen Aussagen ins lächerliche zu ziehen.

Aber es passt schon, ich hab sowas von keinen Bock mehr darüber zu diskutieren!

Mir fällt das Flimmern kaum bis gar nicht auf, auf meinem TN+ TFT *Punkt*

airbag
2010-06-07, 09:34:43
Dann sei doch froh, wenn es dir nicht auffälllt.;)

Sentionline
2010-06-07, 09:46:44
Ich glaube so langsam, das du nicht lesen kannst. Die Beweise das es flimmert wurde unabhängig vom Monitor geliefert. Schreib die NV Fanboys auf HT4U an, warum sie sich bestechen lassen und die ATI-IT-Welt verändern.

Nur weil deine Wahrnehmung gestört ist, sind alle NV FANBOYS? Ich glaub eher ich steh im Wald.

MartinRiggs
2010-06-07, 09:53:02
Ihr seit echt witzig... :rolleyes:

Da schreibt man was von günstigen Monitoren und ihr kommt mit 100 Jahre alten 80€ TFTs.
Ich habe normale TN+ Panel TFTs gemeint, die nunmal die günstigsten Monitore sind, und wohl auch 90% aller Gamer haben. Was ist daran so schwer zu verstehen?

Aber ihr ganzen grünen Fanboys versucht meine Theorie, mit haltlosen Aussagen ins lächerliche zu ziehen.

Aber es passt schon, ich hab sowas von keinen Bock mehr darüber zu diskutieren!

Mir fällt das Flimmern kaum bis gar nicht auf, auf meinem TN+ TFT *Punkt*

Dann sei doch froh wenn es dir nicht auffällt, Fakt ist aber nunmal das die ATI-Karten beim AF zum Flimmern neigen und es kaum bis wenig mit dem Monitor zu tun hat.
Ich habe auch nur einen TN-Panel TFT in 22 Zoll und mir fallen die diversen Entgleisungen meiner HD4870 auf und ja eine GTX260 die ich auch mal hatte konnte das wesentlich besser.
Nur weil du blind bist, ist nicht jeder blind, peil das doch endlich mal und ich hoffe es wird solange auf ATI eingedroschen bis sie endlich peilen das ihr AF scheisse ist.

Hier sind keine grünen Fanboys sondern Leute die auf Qualität stehen aber das wirst du dunkelroter Oberfanboy nie verstehen!

Raff
2010-06-07, 09:56:19
Also SGSSAA hat m.W. 3dfx auf den Consumer-Markt gebracht.

Exakt. Das war Mitte 2000, vor 10 Jahren.

Ich seh schon, dass führt zu nichts.

Bis jetzt haben sich nur nVidia Fans zu Wort gemeldet.

Ich bin raus hier....viel Spass noch! ;)

Ich denke eher, bisher haben sich nur Leute zu Wort gemeldet, die Wert auf gutes AF legen; gleichgültig, welcher Hersteller es anbietet.

Der Monitor kann die vorhandene Grütze nur verstärken, ergo ist die Schuld natürlich beim AF bzw. Spiel-Inhalt (Textur-Content) zu suchen.

Mir fällt das Flimmern kaum bis gar nicht auf, auf meinem TN+ TFT *Punkt*

Hast du dir wirklich mal die Mühe gemacht, dir das AF dort anzusehen, wo es gemäß der Kritiker besonders schlimm ist? Ich glaube nicht, denn das hat bisher jeder gesehen, dem ich es vorgeführt habe. Besonders stechend wird es im Direktvergleich mit einer GeForce @ HQ. Dazu müsstest du aber mehr tun, als alibimäßig für 3 Tage eine GeForce in den Rechner zu stecken. Du müsstest dich mal richtig damit befassen.

Was ich nicht verstehe: Du siehst ja auch den BQ-Segen durch Zuhilfenahme von SGSSAA, warum also nicht das AF-Flimmern (das mit SGSSAA mehr oder minder weg geht)?

MfG,
Raff

Aquaschaf
2010-06-07, 10:04:50
Den Monitor der so ein schlechtes Bild liefert dass man AF-Flimmern nicht mehr erkennt will ich echt mal sehen.

Gast
2010-06-07, 10:09:29
Dann sei doch froh wenn es dir nicht auffällt, Fakt ist aber nunmal das die ATI-Karten beim AF zum Flimmern neigen und es kaum bis wenig mit dem Monitor zu tun hat.
Es hat überhaupt nichts mit dem Monitor zu tun. Die maximale Filterqualität einer Radeon ist nicht zufriedenstellend, die Konkurrenz bietet seit fast 4 Jahren deutlich höhere Qualität. Das ist völlig unabhängig davon, ob auf dem Weg vom Grafikkartenausgang zum Auge des Betrachters weitere Qualitätsmängel gegeben sind.


bei Analogausgabe können schlecht abgeschirmte Kabel das Bild vermatschen

altersschwache Röhren- und TFT-Monitore können die Darstelung des Bildsignals ruinieren

bei beschlagener Brille oder einem Augenleiden fällt schlechte Filterung auch nicht weiter ins Gewicht

unter einer Burka hat man andere Sorgen


Schlammsaus Relativierungsversuch ist lächerlich, auch wenn er geschickt in die Kerbe "ein Mann des Volkes" schlägt. 90% erklärt er mal eben für nicht betroffen, eine Radeon wird damit zur Volksgrafikkarte. Gute Preise, gute Besserung.


Muss mal mein Q3A hervorkramen - mir fällt das Flimmern auch nicht wirklich mehr auf - ob das daran liegt, dass ich TN hab und nie AA nutze, weil das kein Bild verbessert imho?
Es liegt daran, dass du sehr geringe Qualitätsansprüche mitbringst. :facepalm:

Haarmann
2010-06-07, 10:40:36
Gast

Es liegt eben mehr daran, dass ich weder die Nase am Monitor platt drücke, noch Adleraugen besitze in meinem Alter. Ich sähe die einzelnen "Pixel" des Monitors schon noch, wenn ich die Nase näher zum Monitor hin bewegte, aber ich sehe die nimmer, wenn ich "normal" davor sitze. Daraus resultiert eben auch, dass ich die "Treppen" nicht sehe...

Es würde mich nebenher auch mal interessieren, was für ein Gesichtsfeld die Leute haben und wieviel davon der Monitor dann abdeckt etc.

Sogar bei Strategietiteln, bei Shootern bleibt ja noch der Ton für die Orientierung, merke ich sehr oft, dass die Leute nicht in der Lage sind das Geschehen des gesammten Monitors im Auge zu behalten.

Damit der in Shootern gängige FOV von 90 Grad passte, müsste ich die Nase rund 26cm vor dem Monitor haben - Fakt ist jedoch, dass ich die Augen etwa 85cm weit weg hab.
Das wird nicht jeder so haben und entsprechend wird er wohl AA als ein Segen ansehen, aber wieso sollte ich was korrigieren wollen, was ich eh nicht hab?

Bucklew
2010-06-07, 10:48:05
Mir fällt das Flimmern kaum bis gar nicht auf, auf meinem TN+ TFT *Punkt*
Ist das jetzt, weil du es nicht sehen KANNST, oder weil du es nicht sehen WILLST? Ich denke ja eher das letztere...

Aber schön das es noch Leute wie dich gibt, die den Müll auch noch verteidigen, den ATI produziert! Vielleicht solltest du dich mal bewerben, Huddy alleine reicht sicher nicht aus als Propagandaminister Senior Manager?!

Gast
2010-06-07, 10:48:58
Daraus resultiert eben auch, dass ich die "Treppen" nicht sehe...

Du verwechselst Anti-Aliasing (Kantenglättung) mit Anisotroper Filterung (Texturfilter).

Sentionline
2010-06-07, 11:03:36
Also auf meinem Fernseher (32" LCD) sehe ich den Unterschied zwischen 2xAA und 4xAA, obwohl ich 2 Meter weg sitze. Die Kanten springen mir nicht ins Gesicht, aber in Shootern nevt es doch sehr, weil die verfransungen auch abstrakte Bewegungen erzeugen in verbindung der Mausbewegung. Daraus resultiert eben das ich einen Gegner in der Entfernung vermute :freak: Ich fall da innerhalb einer Stunde Shooter Session bestimmt recht oft drauf rein. So schlimm ist es aber nicht wenn ich 4xAA an hab.

Zum Thema AF. Ich klebe nicht am Bildschirm, ich sitze ~1,75 Meter weg. Dieses flimmern des AF fällt doch recht deutlich auf. Auch die Texturfilterung ist teilweise grausam auf ATi, weils eben wie eine Brühe vor mir liegt. Referenzen hab ich dadurch, das ich schon eine Nvidia drin hatte, da isses nicht nicht so schlimm.

Ich glaube wir sollten hier eine petition Gründen: "ATis nicht Schlammsau flimmern, rettet die Wale..."

Schlammsau
2010-06-07, 11:18:46
Das ist echt die Härte hier..... :rolleyes:

Haarmann
2010-06-07, 11:19:17
Gast

Nö, aber ich gebe zu bedenken, dass nicht jeder das Bild gleich mag. Das hängt wohl einerseits von seinen Sehfähigkeiten ab, von seiner Sitzposition und andererseits auch von persönlichen Vorlieben - nur weil einer AA nicht mag, mag er nicht automatisch ein schlechtes Bild...

Das Flimmern ist mir bei meinen Spielen und Settings bisher jedenfalls nicht begegnet. Früher sah man das ganz oft, besonders bei Shootern mit "körnigem" Untergrund ala Schotterstrasse, obschon im ATI Treiber ein 16x AF fest eingestellt ist.

Ich kann mir bestens vorstellen, dass ein Monitor, der die vollen Schattierungen, Grüsse an die 18 Bit TFTs, ohnehin nur per "Flimmern" erreicht, in so nem Falle noch nen weit grässlicheres Bild hinlegt. Es gibt auch so seltsame Monitore, die beim Herunterfahrenschirm von XP, unerträglich herumflimmerten.
Auch ein zu "langsamer" Monitor könnte hier einen Einfluss haben oder Overdrive, wenn der übers Ziel rausschiesst und so "Kontrast" erzeugt, wo keiner sein sollt...

Gast
2010-06-07, 11:31:58
Das ist echt die Härte hier..... :rolleyes:

Weil andere deine Meinung nicht teilen? Yeah right...
Sag mal, verstehst du nicht, dass es

1. sinnvoller ist, die Ursache eines Problems/Cheats zu bekämpfen und die Symptome desselbigen nicht durch anderweitige Methoden zu kaschieren. Dass AMD unterfiltert, ist nunmal Fakt, so leid es mir ja tut. Dort muss angegangen werden, nicht irgendwo in der Wahrnehmungskette. Sonst könnte ich ja auch sagen, mach die Augen zu, dann flimmerts auch nicht mehr. Es ist völlig unverständlich, warum so ein Umweg gewählt werden soll. "Schlechte" Monitore mögen ja die Mehrheit darstellen, aber nicht jeder ist damit zufrieden. Das wäre die Lösung nur für Leute, denen Bildqualität nichts bedeutet - wenn du dazugehörst, gerne, ansonsten siehe 4.

2. Leute gibt, denen es eben auffällt - störend. Das mag nicht in dein Weltbild passen, aber es ist nunmal so. DU bist nur einer, wenn es DICH nicht stört bzw. DU es nicht bemerkst, freu dich, aber versuche bitte nicht, ANDEREN deine persönliche Meinung aufzudrücken.

3. Kritik idR zu Verbesserungen führt, von denen du später auch mal was hast?

4. offensichtlich ist, mit welcher Intention dieser Thread erstellt wurde? Du hast doch schon mehrmals gesagt, das Flimmern fällt dir nicht auf. Belasse es doch dabei und respektiere wie ein vernünftiger Mensch die Meinung anderer und halte dich einfach heraus, was das AF-Thema angeht. Die Diskussion darüber sollte objektiver Natur sein. "Ich seh das aber nicht" ist subjektiv und hat da Nullkommagarnix verloren.

Sentionline
2010-06-07, 11:39:28
Leute, Schlammsau ist "Die Krone" der Wahrnehmung.

Ich sag ja, der 3. Weltkrieg steht an :freak:

boxleitnerb
2010-06-07, 11:46:30
Dieser Thread provoziert absichtlich, ist als Feldzug gegen bildqualitätsbewusste Spieler erkennbar und darüber hinaus noch ziemlich sinnlos, weil es einen AF-Diskussionssammelthread gibt.

Ich wäre dafür, diesem Thread Genüge zu tun und das einzige zu machen, was er verdient: Ihn zu schließen. Wer ist noch dafür?

Raff
2010-06-07, 11:51:21
Ich bin dagegen – aber nur, wenn jemand mal seine Bildschirme filmt ...... nein, ich habe aktuell genug anderes zu tun. ;)

MfG,
Raff

Schlammsau
2010-06-07, 11:59:12
1. hier wird keinem meine Meinung aufgezwungen!

2. es ist nur eine Theorie von mir!

3. Gibt es nicht nur mich, dem das AF-Flimmern kaum bis gar nicht auffällt!

Schlammsau
2010-06-07, 12:00:01
4. Habe nicht ich diesen Thread aufgemacht, sondern ein Mod!

Ihr seid es doch...ihr wollt doch allen anderen eure Meinung aufdrücken!


Fakt ist, dass viele das Flimmern nicht wahrnehmen.
Und ich wollte ergründen warum das so ist!
Ich habe mit keinem Wort geschrieben, dass das Flimmern nicht vorhanden ist.

Das ist so lächerlich!

Tesseract
2010-06-07, 12:03:18
Ich habe normale TN+ Panel TFTs gemeint, die nunmal die günstigsten Monitore sind, und wohl auch 90% aller Gamer haben. Was ist daran so schwer zu verstehen?

ich kann mich nur nochmal wiederholen: TN sind (von einigen sonderfällen mal abgesehen) im schnitt schneller als die ansonsten besseren PVA/etc.
d.h. das flimmern müsste auf billigen monitoren im schnitt stärker sichtbar sein als auf teureren. deshalb macht deine ganze argumentation nicht wirklich sinn.

Schlammsau
2010-06-07, 12:04:55
ich kann mich nur nochmal wiederholen: TN sind (von einigen sonderfällen mal abgesehen) im schnitt schneller als die ansonsten besseren PVA/etc.
d.h. das flimmern müsste auf billigen monitoren im schnitt stärker sichtbar sein als auf teureren. deshalb macht deine ganze argumentation nicht wirklich sinn.

Dagegen steht diese Aussage von Lolman:
Doch Sinn. Nich die Trägheit (=Falltime), sondern der Aufbau (Risetime) war furchtabr zäh. Dementsprechend hat man nie die echten 125fps gesehen, sondern nur einen Bruchteil dessen. Dementsprechend höher war auch die Differenz zwischen den einzelnen Bildinhalten, was zu stärkerer Flimmerneigung führte. Auch beim NEC 24WMGX³ sind die Kristalle relativ zäh im Aufbau. Die Falltime ist ok und das typische TFT-Schlieren bekommt man zwar mit Black-Frame-Insertion schön in den Griff, aber damit wirkt sich die relativ langsame Rise-time optisch umso stärker aus. (=ist ja eigentlich ganz logisch => Je mehr fps tatsächlich dargestellt werden können, desto geringer ist der zeitliche Unterschied zwischen den einzelnen fps und desto geringer ist die Flimmerneigung. Und die meisten fps können nun mal (leider) TN-Panels darstellen => was Schlammsaus Theorie indirekt bestätigt.

Es sit wie gesagt eine Theorie bzw ein Erklärungsversuch, warum viele das Flimmern nicht auffällt! Was anderes sollte dieser Thread nicht sein!

Sentionline
2010-06-07, 12:10:26
3. Gibt es nicht nur mich, dem das AF-Flimmern kaum bis gar nicht auffällt!
Ja, und jetzt?

Glas Halbvoll? :upara: Halbleer?

Schlammsau
2010-06-07, 12:14:09
Tu mir einen Gefallen und behalte deine unqualifizierten Sprüche für dich! ;)

Vertigo
2010-06-07, 12:23:33
3. Gibt es nicht nur mich, dem das AF-Flimmern kaum bis gar nicht auffällt!
Also mit 'ner Sehstärke im zweistelligen Prozentbereich sieht das jeder, dem man es zeigt. Vor allem im Vergleich mit Nvidias HQ-AF. Entweder kennt man den Unterschied nicht, weil man bislang nie darauf geachtet hat, oder man stört sich einfach nicht daran. Damit hat der Monitor überhaupt nichts zu tun.

Nochmal zu deiner Theorie:
Ist euch eigentlich mal in den Sinn gekommen, dass dieser ganze Flimmer Quatsch an euren Monitoren liegt!?
Nein, das liegt am ungenügenden Filtering von ATI. Dass es besser geht zeigt - so Leid es mir auch tut - Nvidia. Das fällt hier im Forum allen ATI-Usern mit Ausnahme von dir auf. Ich denke da z. Bsp. an Raff und Spasstiger, die ich btw. für sehr integer und glaubwürdig halte. Das fällt auch rund um den Globus den allermeisten Testern und Forenusern auf. Ich wäre ziemlich überrascht, wenn diese Leute alle den gleichen Monitor benutzen würden. Davon abgesehen sind Screenshots und In-Game-Videos objektiv, da sie unabhängig vom Ausgabegerät sind. Schaut man sich diese Medien nun auf verschiedenen Monitoren an, erkennt man immer wieder die gleichen Mängel.

Sentionline
2010-06-07, 12:29:20
Tu mir einen Gefallen und behalte deine unqualifizierten Sprüche für dich! ;)
Und du deine unqualifizierten Ansprüche für dich. Genau wie deine vermeindlichen 90% der Anhängerschaft (wo sind die überhaupt?) für dich!

Und überspring Beiträge nicht die dir nicht zusagen, das AF Flimmern und auch die qualitätsreduzierte Texturfilterung ist mit zuhilfenahme der Referenzen (Nvidia/3Dfx) eindeutig nachzuweisen. Sei es nun Optisch per Monitor oder per Messgeräte. Auf den Videos von HT4U sieht man das ganz deutlich das man das auf "ALLEN" Monitoren darstellen kann, das hier gepfuscht wird. Auf Nvidia wurde (wie hier schon erwähnt) auch eingedroschen und der/die Fehler wurden behoben. Selbst als Ati Fan(-boy) muss man da zum anderen/besseren/höherwertigen Lager wechseln oder ein Lob aussprechen, was du natürlich nicht willst.

Unqualifiziert ist es, die ganze Thematik auf Theoretische Basis auseinander zu fummeln. Was kommt als nächstes? Das die Signalausgabe von Netzteilen schwankt und weil die Platinenhersteller minderwertige Kondensatoren nehmen und sich das auf die Bildausgabe auswirkt? Oder die Stromlieferanten ein ATi feindliches Signal aussenden?

Absurd das du allen eine optische gestörtheit unterstellst.

Exxtreme
2010-06-07, 12:30:09
Die persönliche Anmache hört JETZT auf!

Tesseract
2010-06-07, 12:41:10
Dagegen steht diese Aussage von Lolman:
die ich irgendwie nicht ganz nachvollziehen kann.
zieh mal das bild (in 1:1 größe) einmal schnell (große änderungen pro frame) und einmal ganz langsam (kleine änderungen pro frame) über den desktop.

http://img689.imageshack.us/img689/4661/schachbrett.th.png (http://img689.imageshack.us/i/schachbrett.png/)

Uploaded with ImageShack.us (http://imageshack.us)

Gast
2010-06-07, 13:27:59
Und du deine unqualifizierten Ansprüche für dich. Genau wie deine vermeindlichen 90% der Anhängerschaft (wo sind die überhaupt?) für dich!

Und überspring Beiträge nicht die dir nicht zusagen, das AF Flimmern und auch die qualitätsreduzierte Texturfilterung ist mit zuhilfenahme der Referenzen (Nvidia/3Dfx) eindeutig nachzuweisen. Sei es nun Optisch per Monitor oder per Messgeräte. Auf den Videos von HT4U sieht man das ganz deutlich das man das auf "ALLEN" Monitoren darstellen kann, das hier gepfuscht wird. Auf Nvidia wurde (wie hier schon erwähnt) auch eingedroschen und der/die Fehler wurden behoben. Selbst als Ati Fan(-boy) muss man da zum anderen/besseren/höherwertigen Lager wechseln oder ein Lob aussprechen, was du natürlich nicht willst.

Unqualifiziert ist es, die ganze Thematik auf Theoretische Basis auseinander zu fummeln. Was kommt als nächstes? Das die Signalausgabe von Netzteilen schwankt und weil die Platinenhersteller minderwertige Kondensatoren nehmen und sich das auf die Bildausgabe auswirkt? Oder die Stromlieferanten ein ATi feindliches Signal aussenden?

Absurd das du allen eine optische gestörtheit unterstellst.


Was denn nicht ROT und GROSS !
Ich fall vom glauben ab.

Vorallem bei dir der bei ATI zu blöd ist ,den Treiber zu installieren. Aber immer wieder gerne BASHT !

Sentionline
2010-06-07, 13:36:08
Ich bashe hier gar nichts. Das Thema hatten wir schonmal und ich lass mich auf die Diskusion hier nicht ein, das ich bei Problemen mit der Ati Karte das System neu aufsetzen soll. Wäre ja so das ich mir ein neues Auto kaufen soll wenn das alte nicht fährt...

Im übrigen hab ich vor nicht allzu langer Zeit genauso auf Nvidia eingedroschen. Es ging um das katastrophale MSAA.

Quelle (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6174037#post6174037)
GeForce 6800 Ultra alias NV40
Nitro Stunt Racing
Treiber: ForceWare 169.28 WHQL

AF-Filterung: Anwendungsgesteuert
AA-Transparenz: Aus
AA-Einstellung: Annwendungsgesteuert
AF-MIP-Filter Optimierung: Ein
Nagative LOD Bias: Zulassen
Optimierung von AF Mustern:Ein
Trilineare Optimierung: Ein
Texturfilterqualität: Qualität
http://www.abload.de/thumb/quality-zulassen-6ev.png (http://www.abload.de/image.php?img=quality-zulassen-6ev.png)

AF-Filterung: Anwendungsgesteuert
AA-Transparenz: Aus
AA-Einstellung: Annwendungsgesteuert
AF-MIP-Filter Optimierung: Aus
Nagative LOD Bias: Clamp
Optimierung von AF Mustern:Aus
Trilineare Optimierung: Aus
Texturfilterqualität: Hohe Qualität
http://www.abload.de/thumb/highquality-clamb51t.png (http://www.abload.de/image.php?img=highquality-clamb51t.png)


AF-Filterung: 8x
AA-Transparenz: Multisampling
AA-Einstellung: 4x
AF-MIP-Filter Optimierung: Aus
Nagative LOD Bias: Clamp
Optimierung von AF Mustern:Aus
Trilineare Optimierung: Aus
Texturfilterqualität: Hohe Qualität
http://www.abload.de/thumb/highquality-clamb-mskug.png (http://www.abload.de/image.php?img=highquality-clamb-mskug.png)

AF-Filterung: 16x
AA-Transparenz: Supersampling
AA-Einstellung: 8x
AF-MIP-Filter Optimierung: Aus
Nagative LOD Bias: Clamp
Optimierung von AF Mustern:Aus
Trilineare Optimierung: Aus
Texturfilterqualität: Hohe Qualität
http://www.abload.de/thumb/highquality-clamb-ssrrl.png (http://www.abload.de/image.php?img=highquality-clamb-ssrrl.png)

In bewegung sieht das mit den Mustern richtig pervers aus. Das die Frameraten weder bei 4xSSAA noch bei 8xSSAA sich im spielbaren Bereich bewegen, sollte hier mal klar gesagt werden meinerseits.

Wär ich ein reiner NV Anhänger hätt ich keine ATi Karte.

So, und jetzt wieder Ontopic zur Theorie diskusion ATi => Filter ½ => Monitor schuld

airbag
2010-06-07, 16:52:20
3. Gibt es nicht nur mich, dem das AF-Flimmern kaum bis gar nicht auffällt!
Trifft sicherlich zu, wird im 3dc aber nie akzeptiert werden.
Wenn man mal Umfragen in anderen Foren (hier wohl niemals)startet, bestätigt sich die Aussage sicher. Vor allem wenn man mal ins Luxx guckt, wo die HD4870 lange der heilige Gral war.

Schlammsau
2010-06-07, 17:01:06
die ich irgendwie nicht ganz nachvollziehen kann.
zieh mal das bild (in 1:1 größe) einmal schnell (große änderungen pro frame) und einmal ganz langsam (kleine änderungen pro frame) über den desktop.

http://img689.imageshack.us/img689/4661/schachbrett.th.png (http://img689.imageshack.us/i/schachbrett.png/)

Uploaded with ImageShack.us (http://imageshack.us)
flimmert bei mir beide male extremst!

@Sentio
ich habe hier niemanden irgendwas unterstellt!
Mir ging es nur darum, die Problematik des AF-Flimmerns zu hinterfragen, weil es eben nicht jeder sieht bzw jedem ins Auge sticht !Ich habe niemals gesagt, dass es nicht flimmert!
Und da ist es ja wohl naheliegend, nicht die Schuld dem Monitor zu geben, sondern die Frage in den Raum zu stellen, ob verschiedene Panels nicht zu einem unterschiedlichem Flimmern neigen.
Es gibt hier x Leute, auch die von nVidia umgestiegen sind, denen kein Augenkrebs erzeugendes Flimmern auffällt. Das ist einfach so!

Ist das so schwer zu verstehen?

Coda
2010-06-07, 17:13:08
Schön. Und falls es so wäre was ist dann deine Quintessenz?

Freifahrtschein für ATI? Und alle haben gefälligst darunter zu leiden? Anstatt dass sie einfach mal einen HQ-Schalter einbauen und alle sind zufrieden.

Meine Fresse bekomm das doch einfach in deine Birne. Jegliche Ausreden sind irrelevant wenn sich das Problem so einfach lösen würde. Es gibt keine Entschuldigung dafür.

Mr. Lolman
2010-06-07, 17:46:51
die ich irgendwie nicht ganz nachvollziehen kann.
zieh mal das bild (in 1:1 größe) einmal schnell (große änderungen pro frame) und einmal ganz langsam (kleine änderungen pro frame) über den desktop.

http://img689.imageshack.us/img689/4661/schachbrett.th.png (http://img689.imageshack.us/i/schachbrett.png/)

Uploaded with ImageShack.us (http://imageshack.us)

Anderes Beispiel: Je schneller der Monitor ist, desto weniger flimmerts beim Scrollen, oder?

http://www.abload.de/thumb/streifenyp67.gif (http://www.abload.de/image.php?img=streifenyp67.gif)

Gast
2010-06-07, 17:55:09
Und alle haben gefälligst darunter zu leiden?
Wer soll das denn sein, dein "alle"?

Laut Schlammsau besitzen höchstens 10% der User einen Monitor, bei dem man das Flimmern überhaupt sehen könnte. Dem Stimmungsbild im Luxx-Zufolge nehmen sogar deutlich weniger Leute das Flimmern als störend wahr, die waren schon mit dem Filter der HD4000er sehr zufrieden und haben das Preis-Leistungsverhältnis genossen. Jetzt filtert ATI sogar noch besser, dazu gibt es konkurrenzloses Anti-Aliasing und sehr sparsamen Stromverbrauch.

Was wäre dir denn lieber? Höhere Preise oder dass ATI weiterhin einen erstklassiges Gesamtpaket liefert. A.I. im Treiber gewährleistet genau das, die Treiberentwickler wissen schließlich am Besten, was für welches Spiel die besten Einstellungen sind.

san.salvador
2010-06-07, 17:58:48
Wer soll das denn sein, dein "alle"?

Laut Schlammsau besitzen höchstens 10% der User einen Monitor, bei dem man das Flimmern überhaupt sehen könnte. Dem Stimmungsbild im Luxx-Zufolge nehmen sogar deutlich weniger Leute das Flimmern als störend wahr, die waren schon mit dem Filter der HD4000er sehr zufrieden und haben das Preis-Leistungsverhältnis genossen. Jetzt filtert ATI sogar noch besser, dazu gibt es konkurrenzloses Anti-Aliasing und sehr sparsamen Stromverbrauch.

Was wäre dir denn lieber? Höhere Preise oder dass ATI weiterhin einen erstklassiges Gesamtpaket liefert. A.I. im Treiber gewährleistet genau das, die Treiberentwickler wissen schließlich am Besten, was für welches Spiel die besten Einstellungen sind.
Es wäre nett, wenn ihr AMD-Mitarbeiter euch auch als solche zu erkennen geben würdet. Sonst nimmt am Ende noch jemand diese Werbung ernst. :ugly:

Bucklew
2010-06-07, 17:59:54
2. es ist nur eine Theorie von mir!!
Aha?
Nochmal zum Flimmern......ich wäre ganz stark dafür, dass bei der nächsten "ATi flimmert like as hell" Diskussion, diese Abhängigkeit zum verwendeten Monitor angebeben werden muss!
Das war gestern, so klingt bei dir also eine Theorie? Aja :eek:

3. Gibt es nicht nur mich, dem das AF-Flimmern kaum bis gar nicht auffällt!
Schön, was hat das mit dem Thema zu tun?

Tesseract
2010-06-07, 17:59:58
flimmert bei mir beide male extremst!

mir fällt gerade auf, dass das bild eigentlich garnicht demonstriert was ich zeigen wollte.

wenn man in einem spiel mit framelimiter fähigkeiten etwas rumprobiert und die flimmrigen stellen mit z.B. 60, 30, 15,... fps abgeht sieht man aber recht deutlich, dass das flimmern keinen direkten zusammenhang mit der framerate hat sondern sich sich mehr oder weniger zufällig - je nach content - abschwächt oder verstärkt. je nach dem wie man die samples gerade trifft und wie groß der unterschied der helligkeit der einzelnen pixel von frame zu frame dann ist.
wenn man andererseits z.B. das overdrive des monitors ausstellt und so die schaltzeit extrem verlängert nimmt das flimmern durch den verwaschungseffekt deutlich ab.

das fazit bleibt, dass schnelle TN mehr zum flimmern neigen müssten als verhältnismäßig langsamere andere panel.

Anderes Beispiel: Je schneller der Monitor ist, desto weniger flimmerts beim Scrollen, oder?

nein, desto mehr. ist der monitor langsam verschmiert das ding beim scrollen zu grau. je schneller das panel schaltet, desto größer sind die unterschiede und damit das flimmern.

die Treiberentwickler wissen schließlich am Besten, was für welches Spiel die besten Einstellungen sind.

wissen würden sie das sicher. allerdings ist nicht ihr ziel die für den kunden besten einstellungen zu verwenden sondern die, die die am papier längsten balken bringen.

und was die "meisten leute" sehen spielt absolut keine rolle. den meisten leuten kannst du heimlich AF im treiber komplett abdrehen und sie würden es vielleicht wochen später merken - wenn überhaupt.
abgesehen davon sieht man die unterschiede auf JEDEM monitor. selbst auf den urgestein der TFT-geschichte mit dreistelligen schaltzeiten.

Mr. Lolman
2010-06-07, 18:15:01
nein, desto mehr. ist der monitor langsam verschmiert das ding beim scrollen zu grau.

Zu pauschal. Ist das Panel bei t-fall langsam, schlierts. Ists bei t-rise langsam, flimmerts. (Ein CRT ist immernoch am Schnellsten und da flimmert garnix)

san.salvador
2010-06-07, 18:35:48
Zu pauschal. Ist das Panel bei t-fall langsam, schlierts. Ists bei t-rise langsam, flimmerts. (Ein CRT ist immernoch am Schnellsten und da flimmert garnix)
Ein CRT flimmert immer. ;)

Tesseract
2010-06-07, 19:00:07
Zu pauschal. Ist das Panel bei t-fall langsam, schlierts. Ists bei t-rise langsam, flimmerts. (Ein CRT ist immernoch am Schnellsten und da flimmert garnix)

also entweder stehe ich auf der leitung oder du wirfst da gerade verschiedene dinge auf einen haufen, die nicht zusammen gehören.

1) das flimmern von atis texturfilterung ist am TFT und am CRT nahezu identisch. unterschiede ergeben sich primär aus aus der unschärfe des CRT. daher hab ich auch geschrieben die bilder zeigen das problem der filterung eigentlich nicht auf.

2) der CRT flimmert mit niedrigen Hz genau aus dem selben grund, aus dem diese rasterbilder flimmern: weil sich helle und dunkle pixel abwechseln. je nach trägheit des phosphors werden diese dunklen phasen am CRT dann von der latenz geschluckt und es flimmert nichtmehr.
der CRT kann diese raster außerdem nichtmal ordentlich darstellen. die raster sind an sich schon mehr oder weniger grau bedingt durch die maske des CRT. was soll da groß flimmern?

3) hängt das flimmern dieser raster am TFT vom unterschied zwischen rise und fall ab. ist fall zu langsam, flimmert es ins weiße, ist der rise zu langsam flimmert es ins schwarze. sind beide gleich lang behält das bild seine helligkeit.
und zusätzlich kommt dann noch der punkt dazu, dass zu lange gesamtschaltzeiten das bild zu grau verschmieren wenn man wirklich jeden frame alteriert.

=Floi=
2010-06-07, 20:14:15
3. Gibt es nicht nur mich, dem das AF-Flimmern kaum bis gar nicht auffällt!


es ist aber existent! wenn du es nicht siehst, dann sei froh und damit glücklich. deshalb brauchst du aber nicht am vorhandesein zweifeln. es gibt auch genug leute die mit dem konsolen glücklich sind und mir das aliasing geradezu ins gesicht springt.

ein wenig toleranter und ruhiger könntest du bei dem thema schon sein und solche allegeingültigen aussagen provozieren auch extrem.

Schlammsau
2010-06-07, 20:21:03
*Piep* mich doch am Allerwertesten...ich hab niemals geschrieben, dass es nicht vorhanden ist! Niemals!!!!!!!!!!!!!!

Aber jetzt reichts mir entgültig, ihr lest nur was ihr wollt!

Das war mein letzter Post zu dem Thema!

Gast
2010-06-07, 21:12:40
Anderes Beispiel: Je schneller der Monitor ist, desto weniger flimmerts beim Scrollen, oder?


Genau umgekehrt, ich habe hier einen schnellen TN neben einem vergleichsweise langsamen PVA. An letzterem flimmert es kaum beim scrollen, am TN dagegen verdammt stark.

Gast
2010-06-07, 21:14:37
(Ein CRT ist immernoch am Schnellsten und da flimmert garnix)

Ein CRT matscht generell, klar dass es dann auch weniger flimmert.

Gast
2010-06-07, 21:51:53
Schön. Und falls es so wäre was ist dann deine Quintessenz?

Freifahrtschein für ATI? Und alle haben gefälligst darunter zu leiden? Anstatt dass sie einfach mal einen HQ-Schalter einbauen und alle sind zufrieden.

Meine Fresse bekomm das doch einfach in deine Birne. Jegliche Ausreden sind irrelevant wenn sich das Problem so einfach lösen würde. Es gibt keine Entschuldigung dafür.Worauf will er denn hinaus?
Hat er bedenken um AMD, deshalb diese Worte

Wenn es wirklich so ist, dass das schlechtere AF wenn dann nur mit einem sehr teuren TFT wahrgenommen wird, bzw. derart ausgeprägt ist, ist es ein muss die Leute daruf hinzuweisen! Und nicht allgemein zu sagen, auf ATi sieht AF schlechter aus.
oder will er anderen nur den Tag vermiesen. Ok, das wär noch nicht so schlimm, effektiv sorgt er ja dafür das der HQ Schalter nicht einzug erhält mit seinem Feldzug.

Angenommen er wäre objektiv, dann kann nur noch Punkt 2 zutreffen, er will anderen persöhnlich schaden, indem er sich vor den HQ Schalter wirft.

mapel110
2010-06-07, 22:22:45
Ein CRT matscht generell, klar dass es dann auch weniger flimmert.
Aber so unwesentlich, dass man auch auf dem übelsten, kleinsten CRT noch die AF-Optimierungen mühelos erkennen kann. Wer die nicht sieht, weiß entweder nicht, wo er hingucken muss, oder er ist blind, egal bei welchem Ausgabegerät.

y33H@
2010-06-07, 22:37:24
[...] dazu gibt es konkurrenzloses Anti-Aliasing [...]Wenngleich OT: Falsch!

NV bietet SGSSAA in allen APIs, OGSSAA bis DX9 und Hybrid-Modi bis DX9 bzw. DX11 sowie frei wählbares TSSAA bzw. TMSAA. Das einzige konkurrenzlose AA aufseiten AMDs ist 24x ED-CFAA. Dem gegenüber steht die fette NV-Palette, welche das - zugegeben - sehr geile 24x ED-CFAA locker überkompensiert.

_DrillSarge]I[
2010-06-08, 05:25:32
hmmm...ich kann keinen unterschied beim af flimmern feststellen. syncmaster 226bw (TN), eizo s2433wh (s-pva) und sony fw900 (röhre). wobei die röhre bei kantenflimmern sogar besser ist, da man auf ~22zoll 2048x1536@85Hz fahren kann :D.