PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD oder Nvidia - wer liefert das schärfere Bild?


boxleitnerb
2010-12-22, 07:15:17
Eins vorab, auch an die Mods:

Ich weiß, solche Threads können sehr schnell in Flamewars ausarten. Das will ich nicht! Ich will hier NICHT Diskussionen über das AF, irgendwelche Tricks oder sonstwas haben.

Wenn sowas anfängt, würde ich die Mods bitten, die entsprechenden Beiträge zu entsorgen.

Ich möchte einfach nur eure subjektive Meinung zur Schärfe in Spielen/3D-Anwendungen wissen. Und das bevorzugt von Leuten, die selbst (!) sowohl AMD als auch Nvidia verbaut haben/hatten. Und zwar am besten in der näheren Vergangenheit. Also keine Vergleiche über längere Zeiträume ziehen, denn wer weiß, was sich da geändert hat (Treiber, neuer Monitor, neue Brille etc.). Ich will hier nicht willkürlich einen Zeitraum festlegen - was "kürzlich" bedeutet, sei eurem Urteil überlassen. Ihr könnt ja posten und dazuschreiben, wann ein evtl. Wechsel vollzogen wurde.

Andere dürfen natürlich gerne trotzdem abstimmen, aber das macht in meinen Augen nicht wirklich Sinn, weil Screenshots und Videos das Ganze immer etwas verfälscht wiedergeben. Eigene Erfahrungen sind immer besser.

Bitte lest euch die Optionen genau durch.
Die ersten drei Optionen sind für die gedacht, die beide Karten haben oder kürzlich gewechselt haben.
Die letzten drei Optionen sind für alle anderen.

Ihr könnt gerne noch einen kurzen Kommentar zu eurer Auswahl abgeben, aber nochmal die Bitte: Seid sachlich, schweift nicht ab, fangt keine persönlichen Diskussionen an.

Danke :)

MadManniMan
2010-12-22, 08:53:22
Welchen "Schärfe"-Begriff betrachten wir hier?

boxleitnerb
2010-12-22, 09:11:07
Den Gesamteindruck. Es gibt ja immer wieder Diskussionen, ob z.B. AMDs AF schärfer ist bzw. Nvidias verwaschener. Es gibt auch Leute, die generell sagen, sie finden das Bild des einen schärfer als das des anderen ohne auf spezifische Aspekte einzugehen.
Da meist AA und AF gleichzeitig an sind, ist es zudem sehr schwierig, hier getrennt auf die Auswirkungen der einzelnen Einstellungen einzugehen. Eine Umfrage mit 50 Antwortmöglichkeiten wollte ich nicht haben.

Ich möchte diese "Mythen" (man bemerke die Anführungszeichen - ich will hier keinen beeinflussen) einfach mal in einen Poll fassen. Es sollte aber auch klar sein, dass bei vergleichbaren Settings verglichen werden soll. Also nicht irgendwelche Hybriden, die nachweislich blurren gegen was anderes stellen.

Raff
2010-12-22, 09:56:49
[x] AMD

"Schärfer" ist mir hier etwas zu positiv belegt. Die höhere Schärfe, gerade gegenüber Nvidia-HQ, kommt teils durch Unterfilterung zustande, was keineswegs gut ist.

MfG,
Raff

boxleitnerb
2010-12-22, 10:11:35
Ich habe nirgendwo auch nur die geringste Wertung der Schärfe vorgenommen. Es geht mir nur um den Eindruck, nicht ob man schärfer gut findet oder schlecht.

y33H@
2010-12-22, 10:17:30
Wer liefert im Treiberstandard das schärfere Bild?

Das Gesamtbild ist bei Treiberstand ( = ohne AA/AF!) identisch. Ergo:

[X] Kein Unterschied - habe/hatte kürzlich AMD und NV

airbag
2010-12-22, 10:28:08
Kein Unterschied - habe/hatte kürzlich AMD und NV

Wenn man kürzlich auf ein paar Monate dehnen kann, dann ja.
Schärfeunterschied gibt es nicht. Bei NV kann man es per LOD an AMD angleichen.:D

Kalmar
2010-12-22, 11:37:51
finde amd schärfer als nv ..

DrFreaK666
2010-12-22, 14:12:42
Ich enthalte mich. Meine GTX260² ist schon über ein Jahr her...

Exxtreme
2010-12-22, 14:15:21
Ich konnte keinen Unterschied erkennen. Habe sowohl eine Radeon 3870 wie auch eine GTX 460.

Iruwen
2010-12-22, 14:16:47
Imo kein Unterschied den man ohne Direktvergleich wahrnehmen würde und dann halt nur beim schon erwähnten AF. Karte raus, andere Karte rein, gucken: no way.

/e: GTX 295 vs HD 5870.

Ronny145
2010-12-22, 14:30:57
[x]Kein Unterschied

Das ist mein (Gesamt)Ergebnis nach vielen Vergleichen in den Standardsettings 4x/8xMSAA und 16xAF. Die Unterschiede sind mir einfach zu gering, zumal es zwischen der Generation wechselt. HD5 etwas unschärfer als Nvidia und HD6 wiederum minimal schärfer. Das wird aber nahezu niemand im Spiel wahrnehmen und nur in Bildvergleichen auffallen. Insgesamt verteile ich daher keinen "Sieger". Außer ich ziehe ältere R520/R580 Karten in den Vergleich oder vergleiche Spezialsettings (SSAA ohne Lod Anpassung bei Nvidia).

Quaker
2010-12-22, 14:33:25
Ich enthalte mich da auch mal.
Habe nur direkte Vergleiche zu meinen GF6xxx Karten und da ist die Radeon 9600 sowohl auch die 3870 deutlich schärfer.
War auch ein Gund dass ich damals die 9600er für Office Betrieb brauchte.

ENKORE
2010-12-22, 14:50:03
Ich fand meine HD 2600 irgendwie immer besser von der BQ her als meine 8800, die 2600 war nur zu langsam ;)

MadManniMan
2010-12-22, 14:59:09
Das Gesamtbild ist bei Treiberstand ( = ohne AA/AF!) identisch. Ergo:

[X] Kein Unterschied - habe/hatte kürzlich AMD und NV

Trotz Treiberstandard kannst Du aber App-AF einstellen. So hatte ich Left 4 Dead gespielt - und ich definieren Schärfe nicht als Geflimmer, sondern als maximalmögliche Detailhöhe pro Pixel ohne Flimmersalat.

[x] nV

Langenscheiss
2010-12-22, 15:17:36
@boxleitnerb
Sorry, aber eine Diskussion über Bildschärfe ist aktuell zu eng verwoben mit der Frage, ob der Texturfilter unterfiltert oder nicht. Auch wenn du das nicht willst, aber sowas kann man nicht unabhängig von AF oder AA diskutieren. Habe deshalb (natürlich) für AMD gevoted, aber wie Raff sagte,der Begriff Schärfe ist hier zu positiv besetzt. Und Treiber-Standard heißt auch heute längst nicht mehr "kein AA/AF".
Ich persönlich besitzte in Form eines MacBook Pros den G80 und in meinem Desktop-Rechner den Cypress. Und das Argument von verschiedenen Monitoren lasse ich in meinem Fall nicht gelten.

Ronny145
2010-12-22, 15:40:25
Habe deshalb (natürlich) für AMD gevoted, aber wie Raff sagte,der Begriff Schärfe ist hier zu positiv besetzt. Und Treiber-Standard heißt auch heute längst nicht mehr "kein AA/AF".
Ich persönlich besitzte in Form eines MacBook Pros den G80 und in meinem Desktop-Rechner den Cypress. Und das Argument von verschiedenen Monitoren lasse ich in meinem Fall nicht gelten.


Ich wäre dir dankbar wenn du die (angeblich) größere Schärfe von Cypress gegenüber dem G80 im AF Thread anhand screenshots zeigen könntest. Ich konnte das nicht feststellen in den Standard Qualitätssettings mit MSAA und AF.

y33H@
2010-12-22, 15:54:11
Wenn ich solche Kommentare sehe:

http://www.computerbase.de/forum/showpost.php?p=9034275&postcount=20
http://www.computerbase.de/forum/showpost.php?p=9034295&postcount=21
http://www.computerbase.de/forum/showpost.php?p=9034548&postcount=24

Das ist vollkommener Müll! :mad: "ruhigere und farbintensivere Bild" oder "ATI liefert das deutlich schärfere Bild auch die Farben der 5870 empfinde ich als viel harmonischer" oder BC2 sei nur auf einer Radeon "schon bei 8x MSAA Knackscharf". Subjektivität in allen Ehren, aber jeder der so etwas schreibt und behauptet, er hätte den direkten Vergleich, muss etwas an den Augen haben. Oder vor den Augen eine Fboi-Brille.
Ich wäre dir dankbar wenn du die (angeblich) größere Schärfe von Cypress gegenüber dem G80 im AF Thread anhand screenshots zeigen könntest. Ich konnte das nicht feststellen in den Standard Qualitätssettings mit MSAA und AF.Siehe *hier (http://www.pcgameshardware.de/aid,670216/Radeon-gegen-Geforce-Vergleich-der-Bildqualitaet-in-9-Spielen/Grafikkarte/Test/)* ist allerdings RV770 vs. GT200:

http://www.abload.de/thumb/catalystvsgeforce_05wu1w.png (http://www.abload.de/image.php?img=catalystvsgeforce_05wu1w.png) http://www.abload.de/thumb/catalystvsgeforce_06mnvd.png (http://www.abload.de/image.php?img=catalystvsgeforce_06mnvd.png)

HanSolo78
2010-12-22, 16:01:59
Also ich bin vor ca 10 Wochen von gtx280 auf HD6870 gewechselt und ich spiele nicht sonderlich oft, aber bei dem Spiel, was ich mal hin und wieder Spiele (SH3) konnte ich die etwas schlechtere Bildquali schon auf der Ati feststellen. Es lässt sich als ein flimmriger Hintergrund beschreiben. Alle Objekte in der Nähe sind scharf.. hinten sind wellenförmige Strömungen, sowie schlechtes AA zu erkennen.
Überlege daher momentan intensiv wieder nach NVidia zu wechseln.
Achja.. und ich bin kein Fanboy oder so.. ich kaufe das bessere Produkt.
Hatte bisher in naher Vergangenheit: AtiX800xt, X1800xt, X1900xt, NV 8800gt, gtx280.

Ronny145
2010-12-22, 16:03:44
Siehe *hier (http://www.pcgameshardware.de/aid,670216/Radeon-gegen-Geforce-Vergleich-der-Bildqualitaet-in-9-Spielen/Grafikkarte/Test/)* ist allerdings RV770 vs. GT200:



Da läuft aber imho was schief bei dem großen Unterschied. Klar könnte man mit Rosinenpickerei etwas beweisen, aber eben in beide Richtungen. Wenn der Unterschied generell so wäre, müsste sich das in vielen Spielen zeigen. Selber ist mir noch keines untergekommen. Es sei denn, RV770 war hier schärfer als der Nachfolger. Oder mit Clamp in einem Spiel mit negativen Lod.

y33H@
2010-12-22, 16:06:55
Crysis ist ein Worst-Case. Du fragest nach der "größeren Schärfe", ich habe sie geliefert ;)

Ronny145
2010-12-22, 16:08:36
Crysis ist ein Worst-Case. Du fragest nach der "größeren Schärfe", ich habe sie geliefert ;)


Aber doch mit mehreren Beispielen. Rosinenpickerei bringt nicht viel.

uweskw
2010-12-22, 16:10:14
[x] AMD

Bin vor 8 Wochen von einer HD4850 auf eine GTX 460 umgestiegen. Monitor nicht gewechselt und Brille brauch ich nicht.
Mein subjektiver Eindruck ist: Bei NV etwas verwaschen auch die Farben wirken in standard Einstellung blasser.
Besonders ist es mir bei Gothic und Masseffect aufgefallen. Mitlerweile habe ich mich aber daran gewöhnt.

y33H@
2010-12-22, 16:10:28
@ Ronny145

Daher der Link auf den Artikel mit weiteren Spielen - Crysis ist halt "totoptimiert". Bei den anderen Titeln tut sich eher wenig, bei FC2 und F3 sieht man jedoch ebenfalls, dass das AMD-AF etwas schärfer (flimmriger) ist. Bei Titel wie CoD W@W oder L4D sieht man's imo nicht.

@ uweskw

Mach mal einen pixelgenauen Bildvergleich, da ist nichts blasser (die Farben).

Langenscheiss
2010-12-22, 16:20:19
Ich wäre dir dankbar wenn du die (angeblich) größere Schärfe von Cypress gegenüber dem G80 im AF Thread anhand screenshots zeigen könntest. Ich konnte das nicht feststellen in den Standard Qualitätssettings mit MSAA und AF.
Abgesehen von den vielen Videos im AF-Thread, welche alle dieses Bild zeigen, kann ich das gerne nochmal machen. EDIT: Allerdings nur mit etwas älteren Spielen!

Außerdem hat niemand von "Großen" Schärfen gesprochen.

uweskw
2010-12-22, 16:20:42
.....

@ uweskw

Mach mal einen pixelgenauen Bildvergleich, da ist nichts blasser (die Farben).

Warum schwingst Du dich schon wieder ungefragt zum Verteidiger der NV Karten auf?

Die Frage lautete:
Ich möchte einfach nur eure subjektive Meinung zur Schärfe in Spielen/3D-Anwendungen wissen.

Das ist mein Eindruck. Nach dem Wechsel hab ich deswegen sogar überlegt wieder aun ATI zurück zu gehen. Bin aber mittlerweile zufrieden, dank der Hilfe hier im Forum.

y33H@
2010-12-22, 16:22:58
Wo schwinge ich mich? Und warum trollst du mich an? :rolleyes:

Ich bat einzig um einen Vergleich, denn irgendwo her muss der subjektive Eindruck (der dem objektiven widerspricht) ja kommen - und wenn man sich nur die neu gekaufte Grafikkarte "farbiger" reden möchte.

Ronny145
2010-12-22, 16:31:19
Abgesehen von den vielen Videos im AF-Thread, welche alle dieses Bild zeigen, kann ich das gerne nochmal machen. EDIT: Allerdings nur mit etwas älteren Spielen!



Hast du zufällig Links? Und mit den Videos ist das so eine Sache bei der Schärfebeurteilung. Dazu braucht es eigentlich screenhots. Und mit "alle" Videos kannst du meine Videos nicht gemeint haben, da ist nichts schärfer. Aber das ist jetzt eine Sache für den AF Thread und nicht hier.

Langenscheiss
2010-12-22, 16:42:28
Hast du zufällig Links? Und mit den Videos ist das so eine Sache bei der Schärfebeurteilung. Dazu braucht es eigentlich screenhots. Und mit "alle" Videos kannst du meine Videos nicht gemeint haben, da ist nichts schärfer. Aber das ist jetzt eine Sache für den AF Thread und nicht hier.
Bei dem Oblivion oder Drakensang Video sah das für mich schon schärfer aus (auch ohne Clamp). Aber naja, das waren ja streng genommen keine Treiber-Standards, insofern...
Ansonsten schau dir nochmal die shots aus dem guru review zum barts an. Oder den guru Artikel zur Filterqualität. Da hat man das imo schon gesehen. Klar, alles shots mit af, aber trilinear ist doch heute sowieso uninteressant.
Aber wie gesagt, ich kann auch gerne noch selbst shots machen, ich hätte Crysis, Assasins Creed, Stalker:Shadows of Chernobyl, TM (keine Angst, diesmal verwende ich eine andere Textur), Prey. Allerdings muss dazu beachtet werden, dass man bei Crysis nur mit Forcierung von AF per Teiber und bei Betrachtung von Texturen ohne POM wirklich erkennen kann, was schärfer ist.

Blaire
2010-12-22, 16:47:44
Das ist eh so eine Sache mit der Schärfe, da muss man unterscheiden zwischen den verschiedenen Generationen, das lässt sich pauschal nicht beantworten.

Langenscheiss
2010-12-22, 16:48:11
Jupp, NV vs. AMD ist definitiv zu grob!

Ronny145
2010-12-22, 16:54:11
Bei dem Oblivion oder Drakensang Video sah das für mich schon schärfer aus (auch ohne Clamp). Aber naja, das waren ja streng genommen keine Treiber-Standards, insofern...

Ne ist nicht schärfer würde ich sagen. Und hier eignen sich doch die screens dieser Szene, dafür sind sie da.

Nvidia GF100 4xMSAA 16xAF HQ (Clamp Off)
http://www.abload.de/img/drakensang_gf100_hqtuuj.png

HD5000 4xMSAA 16xAF AI Off
http://h-2.abload.de/img/hd5770_drakensang_aiof7xop.png

Nvidia 8xMSAA 16xAF
http://www.abload.de/img/ggr2010-12-0118-41-27-esyh.png

HD5000 8xMSAA 16xAF
http://www.abload.de/img/oblivion_hd5770_8xmsaai5tt.png

Nvidia sieht für mich eher ein bisschen schärfer aus. In Drakensang sieht man es links an der schärferen Hausmauer und auch die Bodentextur weiter hinten ist minimal schärfer. Im Oblivion Bild sieht das Schild und auch die Treppe links minimalst schärfer aus. Muss man aber schon sehr genau hinschauen. Im Spiel raus wird das wohl niemand unterscheiden können.


Ansonsten schau dir nochmal die shots aus dem guru review zum barts an. Oder den guru Artikel zur Filterqualität. Da hat man das imo schon gesehen.

Barts ist etwas schärfer, klar. Es ging mir explizit um HD5 weil du das im Kontext mit Cypress erwähnt hattest.

Langenscheiss
2010-12-22, 17:09:09
Ne ist nicht schärfer würde ich sagen. Und hier eignen sich doch die screens dieser Szene, dafür sind sie da.

Nvidia GF100 4xMSAA 16xAF HQ (Clamp Off)
http://www.abload.de/img/drakensang_gf100_hqtuuj.png

HD5000 4xMSAA 16xAF AI Off
http://h-2.abload.de/img/hd5770_drakensang_aiof7xop.png

Nvidia 8xMSAA 16xAF
http://www.abload.de/img/ggr2010-12-0118-41-27-esyh.png

HD5000 8xMSAA 16xAF
http://www.abload.de/img/oblivion_hd5770_8xmsaai5tt.png

Nvidia sieht für mich eher ein bisschen schärfer aus. In Drakensang sieht man es links an der schärferen Hausmauer und auch die Bodentextur weiter hinten ist minimal schärfer. Im Oblivion Bild sieht das Schild und auch die Treppe links minimalst schärfer aus. Muss man aber schon sehr genau hinschauen. Im Spiel raus wird das wohl niemand unterscheiden können.



Barts ist etwas schärfer, klar. Es ging mir explizit um HD5 weil du das im Kontext mit Cypress erwähnt hattest.
Okay, auf den Screens sieht es zugegebener Maßen schon ziemlich identisch aus(das an der Hauswand ist vermutlich das banding!), abe geflimmert hats subjektiv trotzdem mehr. Aber ich persönlich finde das Bild auch auf meiner HD5K insgesamt einfach schärfer, ich gebe allerdings zu, dass es stark vom Spiel abhängt, und da ich nun mal viel Crysis und TM spiele bzw. gespielt habe, war ich vielleicht etwas "gebiased" in meiner Beurteilung. Andererseits war ja auch genau danach gefragt, also eine Meinung, und primär ging es mir auch nur darum, dass man die Frage der Schärfe nicht unabhängig vom AF diskutieren kann.
Ergo: Erst Recht Motivation, das nochmal genauer unter die Lupe zu nehmen ;)

derguru
2010-12-22, 17:12:08
[x] AMD

aber kaum noch ersichtlich im gegensatz zur alten r520, da sieht man es zu jeder zeit.

Ronny145
2010-12-22, 17:15:58
Okay, auf den Screens sieht es zugegebener Maßen schon ziemlich identisch aus

Nicht nur in den screens. Kannst gerne noch ein paar mehr haben.

Nvidia GF100 4xMSAA 16xAF HQ
http://h-4.abload.de/img/hl22010-11-0822-10-39-msgc.png

HD5000 4xMSAA 16xAF AI Off (Cat 10.9)
http://h-4.abload.de/img/hd5770_30r2q.png

Nvidia GF100 16xAF
http://www.abload.de/img/filtertester2010-11-05myak.png

HD5000 16xAF
http://www.abload.de/img/filtertester16xafaioff0ggx.png

Nvidia GF100 4xMSAA 16xAF HQ
http://www.abload.de/img/witcher2010-11-0219-15wcla.png

HD5000 4xMSAA 16xAF AI Off
http://h-4.abload.de/img/12fpuy.png

Nvidia 8xMSAA 16xAF
http://www.abload.de/img/tmforever2010-12-1018-olhd.png

HD5000 8xMSAA 16xAF
http://www.abload.de/img/tmforever8xmsaa16xafhqxmxj.png

Aber ich persönlich finde das Bild auch auf meiner HD5K insgesamt einfach schärfer

Naja und das wollte ich erfragen. Müsste sich dann in screens zeigen lassen, oder? Gerne auch Demos wo man es leicht nachstellen könnte.

kmf
2010-12-22, 17:21:45
Ich kann's nicht beurteilen. Hab schon länger keine AMD mehr im Rechner gehabt. Aber mich interessiert das ganze Thema auch relativ wenig, ich hab an der Bildqualität meiner derzeitigen Grakas wenig bis nix auszusetzen.

Früher, zu Zeiten der HD47xx/48xx-Reihe hatte ich den Eindruck, dass diese Radeons ein etwas schärferes Bild lieferten, dafür aber auch etwas mehr flimmerten. Eine HD4770 hätte ich zwar noch hier liegen, aber um einen Vergleichsaufbau zu machen, ist mir das doch zu viel Arbeit. ;(

Langenscheiss
2010-12-22, 17:24:12
Nicht nur in den screens. Kannst gerne noch ein paar mehr haben.

Nvidia GF100 4xMSAA 16xAF HQ
http://h-4.abload.de/img/hl22010-11-0822-10-39-msgc.png

HD5000 4xMSAA 16xAF AI Off (Cat 10.9)
http://h-4.abload.de/img/hd5770_30r2q.png

Nvidia GF100 16xAF
http://www.abload.de/img/filtertester2010-11-05myak.png

HD5000 16xAF
http://www.abload.de/img/filtertester16xafaioff0ggx.png

Nvidia GF100 4xMSAA 16xAF HQ
http://www.abload.de/img/witcher2010-11-0219-15wcla.png

HD5000 4xMSAA 16xAF AI Off
http://h-4.abload.de/img/12fpuy.png

Nvidia 8xMSAA 16xAF
http://www.abload.de/img/tmforever2010-12-1018-olhd.png

HD5000 8xMSAA 16xAF
http://www.abload.de/img/tmforever8xmsaa16xafhqxmxj.png



Naja und das wollte ich erfragen. Müsste sich dann in screens zeigen lassen, oder? Gerne auch Demos wo man es leicht nachstellen könnte.

Nun, bei Crysis und TM wird das wohl funktionieren, aber wie ja ich ja bereits gesagt habe, gebe ich zu, dass es wohl stark vom Spiel abhängt. Bei den meisten games sieht man nämlich auf den Screens mit Cypress nur das banding, aber ansonsten gleiche Schärfe.

ENKORE
2010-12-22, 17:43:55
Wenn ich solche Kommentare sehe:

http://www.computerbase.de/forum/showpost.php?p=9034275&postcount=20
http://www.computerbase.de/forum/showpost.php?p=9034295&postcount=21
http://www.computerbase.de/forum/showpost.php?p=9034548&postcount=24

Das ist vollkommener Müll! :mad: "ruhigere und farbintensivere Bild" oder "ATI liefert das deutlich schärfere Bild auch die Farben der 5870 empfinde ich als viel harmonischer" oder BC2 sei nur auf einer Radeon "schon bei 8x MSAA Knackscharf". Subjektivität in allen Ehren, aber jeder der so etwas schreibt und behauptet, er hätte den direkten Vergleich, muss etwas an den Augen haben. Oder vor den Augen eine Fboi-Brille.
Siehe *hier (http://www.pcgameshardware.de/aid,670216/Radeon-gegen-Geforce-Vergleich-der-Bildqualitaet-in-9-Spielen/Grafikkarte/Test/)* ist allerdings RV770 vs. GT200:

http://www.abload.de/thumb/catalystvsgeforce_05wu1w.png (http://www.abload.de/image.php?img=catalystvsgeforce_05wu1w.png) http://www.abload.de/thumb/catalystvsgeforce_06mnvd.png (http://www.abload.de/image.php?img=catalystvsgeforce_06mnvd.png)
Ist bei mir was falsch oder warum sehe ich fast keinen Unterschied bei den Bildern? Nur in 2-4 Metern Entfernung im Bild auf dem Boden sehe ich einen recht geringen Unterschied. Aber wut, darüber kloppen sich hier die ganze Zeit alle? Das is ja mal heftig o_O Die Bilderchen von Ronny sehen auch nach nahezu Pixelexakten Repliken aus... oh man

Langenscheiss
2010-12-22, 17:49:03
Ist bei mir was falsch oder warum sehe ich fast keinen Unterschied bei den Bildern? Nur in 2-4 Metern Entfernung im Bild auf dem Boden sehe ich einen recht geringen Unterschied. Aber wut, darüber kloppen sich hier die ganze Zeit alle? Das is ja mal heftig o_O Die Bilderchen von Ronny sehen auch nach nahezu Pixelexakten Repliken aus... oh man

Es sind wahrscheinlich einige, so leider auch ich, ein wenig beeinflusst von der Schärfe in Ausnahmefällen wie Crysis. Der Rest entsteht dann schlicht durch selektive Wahrnehmung! Auf den Screens ist abgesehen vom banding wirklich nichts zu sehen. Aber es gibt ja genug Leute mit Barts, und Barts ist definitiv schärfer.

Blaire
2010-12-22, 17:57:49
Aber es gibt ja genug Leute mit Barts, und Barts ist definitiv schärfer.

Es gibt auch Beispiele wo dem nicht so ist:

SplinterCell:
RV870:
http://www.computerbase.de/bildstrecke/31423/61/

NV Quality:
http://www.computerbase.de/bildstrecke/31423/62/

Botcruscher
2010-12-22, 17:58:22
Irgendjemand meinte hier mal das durch die AF Unterfilterung das Bild bei Ati schärfer ist. Eben das typische "kross" wie im crysis-shot zu sehn.

Ronny145
2010-12-22, 17:58:38
Also bei dem Crysis Bild ist in der Tat ein großer Unterschied sichtbar. Ich würde aber behaupten wollen, dass es alles andere als die Regel ist. Sonst könnte ich auch anhand des verblurrten HL2 Bildes die HD5 allgemein als viel unschärfer bezeichnen, was so aber falsch wäre weil es zur Ausnahme und nicht zur Regel gehört.

Armaq
2010-12-22, 18:58:12
Das ist übrigens eine Tatsache die mir ebenfalls bei BFBC2 auffiel. Auf der alten 4870 sehen die Farben besser aus, ich hab sie extra dafür noch einmal eingebaut und getestet.

Blaire
2010-12-22, 19:36:16
Nicht nur die schärfe ist zum teil klar schlechter !
Bin von einer HD5870 auf GTX570 umgestiegen , erhoffte mir ein besseres Bild.
Tja fehlanzeige, blass bzw leuchtarm, Texturen vernebelt, deutlich weniger Tiefe, grauschleier.

Warum nur glaube ich dir nicht!? Irgendwelche Bilder zu verlinken ohne Treibersettingangabe ist ohnehin für die Tonne.

y33H@
2010-12-22, 19:39:13
@ Armaq

Hast du Vergleichsbilder? Mich macht so was einfach stutzig. Ich sitze täglich mit x Grafikkarten vor x Spielen und wenn es nach delicatess oder in deinem Fall BC2 geht, müssten da klare Unterschiede bei Farben und Co. sein. Davon sehe ich aber nichts. Die einzige Ausnahme die ich im Kopf habe, ist eine X19x0 in HL2 und Crysis, die lieferte de facto ganz andere Farben als eine aktuelle Karte.

Langenscheiss
2010-12-22, 19:58:24
Das mit den Farben glaub ich erst, wenn es Screens mit Settings gibt. Bei den unzähligen Reviews, die in den letzten Jahren rausgekommen sind, muss es doch irgendjemandem, und wenns auch User in den comments sind, aufgefallen sein, dass da was nicht stimmt. So wars doch im Prinzip mit dem Flimmern beim barts, dem banding beim cypress, und dem Flimmern bei den alten NV-Karten. Ich weiß nicht, ob die Farben quasi nachträglich von Treibern noch verändert werden (können), aber so bin ich erst mal skeptisch.
Das mit dem Grauschleier seh ich auf den Bildern nicht wirklich. Das, was mir auffällt, ist diese Turmspitze (aus HL2 vermute ich jetzt), und da das lighting in HL2 (zumindest vanilla, auf alter engine, welche mittlerweile ausgetauscht wurde) statisch ist, also schon beim map building berechnet wird, kann es auch nicht an unterschiedliche Shader liegen (die source engine bzw. die verwendete shader machen an wenigen Stellen ne Hardware-Abfrage per Präprozessor). Wie das allerdings mit einer HDR-Szene aussieht, weiß ich nicht. Es könnte ja daran liegen, dass das eine Bild heller ist.
Und fürs AA gibt es bestimmt genug Beispiele, wo es wieder genau anders aussieht. Zugegeben, das Radeon AA sieht in source schon ziemlich genial aus.

Armaq
2010-12-22, 20:03:17
@ Armaq

Hast du Vergleichsbilder? Mich macht so was einfach stutzig. Ich sitze täglich mit x Grafikkarten vor x Spielen und wenn es nach delicatess oder in deinem Fall BC2 geht, müssten da klare Unterschiede bei Farben und Co. sein. Davon sehe ich aber nichts. Die einzige Ausnahme die ich im Kopf habe, ist eine X19x0 in HL2 und Crysis, die lieferte de facto ganz andere Farben als eine aktuelle Karte.
Ich kann zwischen den Feiertagen sowas mal machen. BFBC2 ist mit der Nvidia-Karte etwas "farbärmer". Grauschleier trifft es nicht ganz, es ist eher zu wenig Farbkontrast.

Ronny145
2010-12-22, 20:03:41
Bezüglich der Farb/Kontrastunterschiede wird das wohl in screenshots nicht unbedingt zu dokumentieren sein. GF6 bot mir damals ein fürchterliches Bild auf meinem TFT. Mit der GF7 war alles in Ordnung, subjektive Unterschiede zur X1800XT Unterschiede konnte ich keine feststellen (also nur auf 2D Qualität bezogen).

MadManniMan
2010-12-22, 20:06:29
Euch ist schon klar, dass delicatess mit seiner heutigen Registrierung kurz vor Weihnachten noch einmal das Geschäft in eine gewisse Richtung pushen möchte?

uweskw
2010-12-22, 20:12:01
Zitat von delicatess http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/viewpost.gif (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8463670#post8463670)
Nicht nur die schärfe ist zum teil klar schlechter !
Bin von einer HD5870 auf GTX570 umgestiegen , erhoffte mir ein besseres Bild.
Tja fehlanzeige, blass bzw leuchtarm, Texturen vernebelt, deutlich weniger Tiefe, grauschleier.
Blasphemie!!
wie kannst du es wagen...:rolleyes:

....
Und fürs AA gibt es bestimmt genug Beispiele, wo es wieder genau anders aussieht........

Das ist mit auch mit meiner GTX 460 aufgefallen. Es gibt immer wieder Teile des Bildes die vom AA nicht erfasst werden. Besonders ist mir dass bei Mass effect2 aufgefallen. Da ich meine ATI nicht mehr habe kann ich allerdings nicht beschwören ob diese Stellen von der HD4850 erfasst wurden.

Botcruscher
2010-12-22, 20:13:18
Euch ist schon klar, dass delicatess mit seiner heutigen Registrierung kurz vor Weihnachten noch einmal das Geschäft in eine gewisse Richtung pushen möchte?
Möglich. Bei Usern unterhalb der 100P Marke sollte man immer vorsichtig sein. Ich werde mal sehen ob es unterschieden zwischen einer 4850 und einer 570 gibt wenn die morgen ankommt.

Popeljoe
2010-12-22, 20:13:34
Euch ist schon klar, dass delicatess mit seiner heutigen Registrierung kurz vor Weihnachten noch einmal das Geschäft in eine gewisse Richtung pushen möchte?
Oh, welch böswillige Unterstellung.... :rolleyes: :biggrin:


Naja, ein Schelm, der Böses bei diesen Postings von delicatess denkt. ;)

Armaq
2010-12-22, 20:16:32
Seht ihr den Unterschied auf den verlinkten Bildern nicht selbst?

Blaire
2010-12-22, 20:20:35
http://www.guru3d.com/article/call-of-duty-world-at-war-vga-graphics-performance-test/2

Ob du GURU3D, hardwarecanucks oder mir glaubst ist mir ehrlich gesagt banane.
Je nach Spiel und szene sind die Unterschiede nunmal gravierend.
Vergleiche wenn du die möglichkeit hast die Schnee und Eis-texturen in MAFIA 2 mit 16xAA und es geht ein lichtlein bei dir auf. :rolleyes:

Ich denke du hast die GTX570? Dann wäre es doch ein Klacks für dich, dies mit eigenen Screenshots zu untermauern,möglichst mit Savegame, damit man es nachstellen kann.

boxleitnerb
2010-12-22, 20:24:09
Keine Chance. Delicatess ist nakatom oder so ähnlich ausm CB-Forum, wo er auch schon ziemlich off-topic rumgeflamed hat. Einfach nicht beachten. Natürlich hat er keine 570, das glaub ich ihm erst, wenn er einen Screen der OVP mitsamt einem Zettel postet, auf dem das heutige Datum steht. Dürfte ja ein Klacks für ihn sein.

Armaq
2010-12-22, 20:24:42
Wer beide karten zufälllig daheim hat, sollte sich dieses Flatout Level mal geben:

http://www.youtube.com/watch?v=IWhIzn6HGwo

Was NVIDIA hier abzieht im gegensatz zu ATI ist eine katastrophe.
Das war kein schwarz wie bei ATI sondern reines grau.
Nachdem ich das Spiel beendete, habe ich meinen Retourschein zu ende ausgefüllt.
Ok, Troll. :)

Armaq
2010-12-22, 20:35:19
Wenn ich davon Screenshots mache, gibt es dann Unterschiede die auch ohne meine Monitorkalibrierung sichtbar sind?

AwesomeSauce
2010-12-22, 20:35:33
In b4 ban. FUD verbreitender Troll halt. Irgendwelche Screens zu posten, ohne jegliche Vergleichbarkeit bezüglich Settings und Treibereinstellungen, ist nicht gerade förderlich für eine zielführende Diskussion.

Was wir brauchen, sind pixelgenaue Vergleichbilder bei kontrollierbaren BQ-Einstellungen. Evtl. hilft es sogar, etwas am Gamma-Regler zu drehen.

Ronny145
2010-12-22, 20:37:27
Seht ihr den Unterschied auf den verlinkten Bildern nicht selbst?


Klar, aber mal sehen was damit anzufangen ist. BFC2 ist zugegeben ein Spiel was ich demnächst gerne vergleichen würde. Der erste Vergleich ist sinnlos, erstens Spezialsettings und zweitens noch nichtmal richtig identische. Gut möglich das T-SSAA ein wenig blurrt. Man sieht doch die bessere Glättung. Das gleiche müsste man ohne T-AA/A-AA bringen. HL2 keine Schärfeunterschiede sichtbar, davon abgesehen ging es in dem Bild wohl um AA Vergleiche. Da müsste man mehr vom Bild sehen. HL2 hatte ich auch schon verglichen, HD5 blurrt hier mehr als Nvidia. Ist natürlich auch die Frage was sich seit 2008 geändert hat. Zur HD4 fehlen mir die Vergleiche. Und der CoD Vergleich ist wohl aufgrund der Dynamik schwer zu treffen. Sieht so aus als ob einfach mehr Nebel im Bild ist.

This scene has a lot of volumetric fog consistently moving from the right to left, which is the cause of that color tone difference.

boxleitnerb
2010-12-22, 20:39:01
Ein moment, kommt gleich ! :tongue:
Gott wie peinlich du doch bist.
Die NVIDIA fanboys, zum totlachen ;D

Ja, wir warten...

boxleitnerb
2010-12-22, 20:45:11
Zugegeben, ich bin überrascht. Das ändert jedoch nichts daran, dass deine Ausführungen reisserisch, überzeichnet und wenig glaubhaft in der Form, in der du sie tätigst, sind.

ENKORE
2010-12-22, 21:07:35
Also bei dem Crysis Bild ist in der Tat ein großer Unterschied sichtbar. Ich würde aber behaupten wollen, dass es alles andere als die Regel ist. Sonst könnte ich auch anhand des verblurrten HL2 Bildes die HD5 allgemein als viel unschärfer bezeichnen, was so aber falsch wäre weil es zur Ausnahme und nicht zur Regel gehört.
Also tut mir ja leid, wenn ich jetzt irgendwie hier den Spielverderber spiele, aber: Lol WUT? Gerade die Crysisbilderchen gleichen sich geradezu aufs Haar, wenn man von 2 oder 3 hellen Pixeln beim GF-Chip absieht.
Und bei den SC:C Bilderchen sehe ich ehrlichgesagt gar keinen Unterschied. Okay vielleicht ist mein fotografisches Auge auch einfach nur für vernünftig hochaufgelöste 100 %-Ansichten geeignet, aber ich sehe da definitiv keinen Unterschied. Ich finds irgendwie auch toll, dass hier einige Leute mit verkleinerten Versionen von eh schon niedrig aufgelöstem Material irgendwelche angeblich vorhandenen Unterschiede zwischen ATI und NV aufdecken wollen... Just my 2 cents...

MadManniMan
2010-12-22, 21:08:07
Fallali und fallala - Unterschiede zwischen nV und AMD bei den Farben sind dann anzutreffen, wenn dieser Farb-Booster bei nV eingesetzt wird (furchtbares Zeug) oder aber andere Anweisungen zur Karte kommen. Wenn hier und da Shader ausgetauscht sein sollten, könnten Unterschiede festzustellen sein - aber ist das die Regel?

Seine Posts sind eigentlich keine Beachtung Wert, aber ich bitte euch inständig mal an die technische "Machbarkeit" von so einem Quatsch zu denken.

Ronny145
2010-12-22, 21:12:51
Also tut mir ja leid, wenn ich jetzt irgendwie hier den Spielverderber spiele, aber: Lol WUT? Gerade die Crysisbilderchen gleichen sich geradezu aufs Haar, wenn man von 2 oder 3 hellen Pixeln beim GF-Chip absieht.



Nur um sicherszustellen, du meinst diese?

http://h-1.abload.de/img/catalystvsgeforce_05wu1w.png
http://h-1.abload.de/img/catalystvsgeforce_06mnvd.png


Also tut mir Leid, selbst in den kleinen Bildern sehe ich einen deutlichen Unterschied. Am besten sieht man es vorne auf dem kleinen Stück Wiese. Dafür sieht dann dieses Wellblech rechts im Bild auf Nvidia schärfer aus mit allerdings mehr Aliasing. Sehr inkonsistent imho.

Armaq
2010-12-22, 21:16:24
Ich habe hier mal zwei Testbilder verlinkt:

http://www.abload.de/image.php?img=testbild1yi73.png

http://www.abload.de/image.php?img=testbild2pgn5.png

Wie man sehen kann, habe ich das Farbformat geändert. Bild 1 wirkt wesentlich farbdynamischer als Bild 2 (ycbcr444 wirkt dynamischer als rgb).
Kann man den Unterschied auf eurem System sehen?

Edit: Falls das nicht der Fall ist, brauche ich mit Screenshots nicht zu vergleichen. Wer den Unterschied live sehen möchte, der kann gerne vorbei kommen (Berlin). Mit ycbcr444 wirkt das Bild fast wie bei AMD, mit rgb einfach etwas schlaffer.

Ronny145
2010-12-22, 21:19:30
Ich habe hier mal zwei Testbilder verlinkt:

http://www.abload.de/image.php?img=testbild1yi73.png

http://www.abload.de/image.php?img=testbild2pgn5.png

Wie man sehen kann, habe ich das Farbformat geändert. Bild 1 wirkt wesentlich farbdynamischer als Bild 2 (ycbcr444 wirkt dynamischer als rgb).
Kann man den Unterschied auf eurem System sehen?



Keine Unterschiede bei mir. Das lässt sich eigentlich in screenshots nicht einfangen. Siehst du auf den Bildern Unterschiede?

Armaq
2010-12-22, 21:24:07
Keine Unterschiede bei mir. Das lässt sich eigentlich in screenshots nicht einfangen. Siehst du auf den Bildern Unterschiede?
Der Unterschied ist enorm. Wenn ich RGB einstelle, hat das Bild einen "Grauschleier", bei ycrc444 ist es wesentlich besser. Das Problem mit dem Schwarzton habe ich auch nicht mehr, sehr deutlich im SC2-Hauptmenü. Das ist keine ausgedachte Schwindelei, man kann es sofort sehen. Testet es doch einfach mal selbst, oder ist ycrc etwas von meinem Monitor?

Edit: delicatess, stell doch mal um. :)

AwesomeSauce
2010-12-22, 21:25:56
@Armaq
Ich denke, er wollte wissen, ob du auf deinen heraufgeladenen Bildern Unterschiede siehst.

Armaq
2010-12-22, 21:27:15
@Armaq
Ich denke, er wollte wissen, ob du auf deinen heraufgeladenen Bildern Unterschiede siehst.
Natürlich nicht. Solange die Einstellung unverändert ist, seh ich auf den Bildern auch nichts. Daher ja die Frage. Ich denke man kann es auf Screenshots nicht einfangen, aber jeder Nutzer kann es testen.

y33H@
2010-12-22, 21:28:01
Die hochgeladenen Bilder sind auch bei mir identisch.

ENKORE
2010-12-22, 21:34:01
Nur um sicherszustellen, du meinst diese?

http://h-1.abload.de/img/catalystvsgeforce_05wu1w.png
http://h-1.abload.de/img/catalystvsgeforce_06mnvd.png


Also tut mir Leid, selbst in den kleinen Bildern sehe ich einen deutlichen Unterschied. Am besten sieht man es vorne auf dem kleinen Stück Wiese. Dafür sieht dann dieses Wellblech rechts im Bild auf Nvidia schärfer aus mit allerdings mehr Aliasing. Sehr inkonsistent imho.
Ja ok das Gras lasse ich mir aufschwatzen, man kanns erahnen. Das Wellblech, okay da hatte ich nicht hingesehen. Aber mal ehrlich, damit haltet ihr euch beim Spielen auf? Das da irgendwo ein Stückchen Wellblech im Schatten etwas schärfer ist?

boxleitnerb
2010-12-22, 21:36:52
Der Boden ist auf der Radeon deutlich schärfer. Nicht durchgängig, aber an den meisten Stellen. Das sollte eigentlich jeder sehen. Ob das aber der Regelfall ist? Ich bezweifle es, siehe Vergleichsbilder bei CB zum Bleistift.

ENKORE
2010-12-22, 21:55:56
Kurz mal ein Programm gefrickelt, dass zwei Bilddateien Pixel für Pixel auf Gleichheit prüft, sind die Bilder ungleich, wird das Pixel rotgefärbt:
Crysis:
http://dl.enkore.de/crysis_nvvsati.png
Splinter Cell / Conviction:
http://dl.enkore.de/scc_nvvsati.png

Was sehen wir?
Also bei Crysis sehen wir schonmal, dass in keinem Bildpunkt beide Karten das exakt gleiche Resultat liefern.
Bei SC:C sehen wir auch noch, dass die JPG-Komprimierung zu geringsten Farbabweichungen führt.
So Augenblick bitte, Prüfung mit Toleranz in Progress ;)

Langenscheiss
2010-12-22, 21:58:13
Ja ok das Gras lasse ich mir aufschwatzen, man kanns erahnen. Das Wellblech, okay da hatte ich nicht hingesehen. Aber mal ehrlich, damit haltet ihr euch beim Spielen auf? Das da irgendwo ein Stückchen Wellblech im Schatten etwas schärfer ist?

Wenns einfach nur scharf wäre, wie auf dem shot, dann würde es mich nicht weiter stören. Aber genau diese "scharfen" Stellen produzieren in Bewegung Flimmern, und das fällt einem nun mal auf, ob man nun will oder nicht. Klar, bei jedem ist die Wahrnehmungsschwelle da n bissl anders, aber wenn man einmal sensibilisiert worden ist, kann mans nicht mehr verhindern. Ist zumindest meine Erfahrung.
Aber Crysis ist für alle Generationen außer Cayman oder Barts eher die Ausnahme, als die Regel, wobei das beim Cypress unter anderem auch eine Folge des bandings sein kann.
Und könnten wir mal diese bescheuerte Graustich-Sache lassen. Auf dem "poste ziellos irgendwelche youtube videos" niveau waren wir doch schon lange nicht mehr. Wenn ihr was dazu habt, bitte, aber präsentiert das vernünftig (und nicht in diesem Thead).

ENKORE
2010-12-22, 22:05:05
So hab mal die Toleranz mit 20 % vom Farbwert (pro Farbkanal!) angesetzt:
http://dl.enkore.de/scc_nvvsati_tol=20.png
http://dl.enkore.de/crysis_nvvsati_tol=20.png

Werde gleich mal mit nem Kantendetektor rangehen (Der gute alte Sobelfilter =D)

Langenscheiss
2010-12-22, 22:06:40
Wie sehen denn die Szenen so aus? Gehts dir jetzt wieder um den Graustich? Pixelgenau gleiche Ergebnisse wirst du nicht erhalten. Poste also am besten mal die Bilder als .png, dann kann man auch einfach mit Photoshop n Differenz-Bild machen.

ENKORE
2010-12-22, 22:13:00
Bei dem stupiden Pixelvergleich gings mir eher darum den Leuten hier zu zeigen, dass es schlichtweg keine Karten gibt, die die gleichen Resultate liefern. Nichtmal annähernd.

Aber für die Interessierten, habe ich hier mal mit einem modifizierten Sobelfilter aus dem Crysisscreenshot die Kanten herausgearbeitet:

ATI
http://dl.enkore.de/crysis_ati_kanten.png
NV
http://dl.enkore.de/crysis_nv_kanten.png

Langenscheiss
2010-12-22, 22:17:21
Achso, naja, dann wundert mich das nicht. Pixelgenau gleich ist das nie. Aber den Schärfeunterschied in dem Kantenfilter-Bild sieht man schon.
@Armaq:
Bei mir sind die Bilder exakt gleich (bis auf die Änderung des Farbformates). Habs mit Photoshop überprüft!

ENKORE
2010-12-22, 22:19:52
So und hier habe ich jetzt mal mit etwas mehr Postprocessing den Schärfeunterschied der Bilder exaggregiert. Zuerst mit einem sehr starken Sobelfilter drüber, dann den Kontrast in die Höhe katapultiert und letzendlich die Farbtiefe auf 4 BPP (aka 16 Graustufen) reduziert; Die schwarzen Bereich sind die Bereiche, in denen beide Karten ziemlich exakt die gleiche Schärfe vorweisen:
http://dl.enkore.de/crysis_nvvsati_kanten_4bpp.png

ANMERKUNG: Bei den Vergleichen ist immer die nVidia-Karte die Referenz. Schwarz ist also das, was die ATI-Karte genauso wie die NV-Karte macht

Hier habe ich es mal umgedreht, man sieht hier sehr schön den Grasbereich, in dem ATI etwas schärfer ist:
http://dl.enkore.de/crysis_ativsnv_kanten_4bpp.png

Und hier die Differenz der beiden obigen:
http://dl.enkore.de/crysis_nvvsati-ativsnv_kanten_4bpp_combined.png

Den Quelltext gibts hier: http://www.freebasic-portal.de/porticula/bildervergleicher-1182.html Aber Achtung, beware: Ist ein wirklich eklig geschriebenes Q'n'D programm... und auch noch in der sprache die ich am schlechtesten kann^^

airbag
2010-12-22, 22:28:20
Ne ist nicht schärfer würde ich sagen. Und hier eignen sich doch die screens dieser Szene, dafür sind sie da.

[SPOILER]Nvidia GF100 4xMSAA 16xAF HQ (Clamp Off)
http://www.abload.de/img/drakensang_gf100_hqtuuj.png

HD5000 4xMSAA 16xAF AI Off
http://h-2.abload.de/img/hd5770_drakensang_aiof7xop.png

Nvidia 8xMSAA 16xAF
http://www.abload.de/img/ggr2010-12-0118-41-27-esyh.png

HD5000 8xMSAA 16xAF
http://www.abload.de/img/oblivion_hd5770_8xmsaai5tt.png

.

Das GF 100 Bild ist schärfer. Siehe Wand links. --> Sehe es selber aber nur sofort auf den Screenshots. Beim Spielen eher zu vernachlässigen (hab den Vergleich mit RV770 und Gt200)
Auf den Oblivionshot sehe ich auch keine nennenswerten Unterschiede-

Langenscheiss
2010-12-22, 22:43:34
Das GF 100 Bild ist schärfer. Siehe Wand links. --> Sehe es selber aber nur sofort auf den Screenshots. Beim Spielen eher zu vernachlässigen (hab den Vergleich mit RV770 und Gt200)
Auf den Oblivionshot sehe ich auch keine nennenswerten Unterschiede-

Das mit der Wand kann ich mir nur durchs banding erklären (man bräuchte hier den barts shot). Wenn du nämlich genau hinschaust, wirst du vielleicht sehen, das nur der vorderste Teil der Wand schärfer ist! Außerdem war das auch auf den Serious Sam shots zu sehen.
Aber ansonsten gibt es da keine Unterschiede, die mir aufgefallen wären.

Ronny145
2010-12-22, 22:49:03
Das mit der Wand kann ich mir nur durchs banding erklären (man bräuchte hier den barts shot). Wenn du nämlich genau hinschaust, wirst du vielleicht sehen, das nur der vorderste Teil der Wand schärfer ist! Außerdem war das auch auf den Serious Sam shots zu sehen.
Aber ansonsten gibt es da keine Unterschiede, die mir aufgefallen wären.


Barts: http://www.abload.de/img/drakensang16xafhqhd685pzat.png

Wegen dem Banding könntest du leicht checken. Save game gab es im AF-Thread und die Demo kannst du dir laden.

Armaq
2010-12-22, 22:51:32
Achso, naja, dann wundert mich das nicht. Pixelgenau gleich ist das nie. Aber den Schärfeunterschied in dem Kantenfilter-Bild sieht man schon.
@Armaq:
Bei mir sind die Bilder exakt gleich (bis auf die Änderung des Farbformates). Habs mit Photoshop überprüft!
Genau, das wollte ich hören. Am Monitor ist das überhaupt nicht gleich, sondern der Unterschied von toll zu naja.

airbag
2010-12-22, 22:55:04
Das mit der Wand kann ich mir nur durchs banding erklären (man bräuchte hier den barts shot). Wenn du nämlich genau hinschaust, wirst du vielleicht sehen, das nur der vorderste Teil der Wand schärfer ist! Außerdem war das auch auf den Serious Sam shots zu sehen.
Aber ansonsten gibt es da keine Unterschiede, die mir aufgefallen wären.
Könntes sein. Wenn man die Barts und GF100 vergleicht ist die linke Wand gleich scharf. Auf Distanz ist Barts insgesamt dann schärfer (Boden )
Cypress ist dann bis auf die auf Wand ähnlich scharf wie GF100, wenn ich mich nicht irre (ist mit den Netbook so schwer einzuschätzen :frown:)

Langenscheiss
2010-12-22, 22:57:56
Barts: http://www.abload.de/img/drakensang16xafhqhd685pzat.png

Wegen dem Banding könntest du leicht checken. Save game gab es im AF-Thread und die Demo kannst du dir laden.
Danke, Barts sieht auf dem Shot genauso aus, wie die Geforce (zumindest die kritischen Stellen), was schon darauf schließen lässt, dass das an der Wand da vom banding kommt, habs mit Photoshop geprüft. Allerdings ist das Flimmern subjektiv bei Barts noch stärker gewesen. Kannst du nochmal genau sagen, auf welcher Seite im Thread das zu finden war?

Stechpalme
2010-12-22, 23:03:28
[X]Kein Unterschied - habe/hatte kürzlich AMD und NV

Also ich habe nVidia Karten ud ATI Karten hier. Subjektiv und beim Spielen fällt mir eigentlich nichts auf. Ja das schlechtere AF bei ATI kommt hier ud da mal durch. Gerade wenn man z.B: in einem Shooter schleicht und man sich eben langsam bewegt, dann kann man das hier und da schon erkennen. ISt aber derart selten das micr das egal ist. Bei Strategiespielen seh ich gar keinen Unterschied, auch nicht wenn ich genau hinschaue, aber da ist das Bid ja direkt von oben (meistens) und daher wird man da auch nichts sehen.

Im Gegenzug gefällt mir das normale MSAA, was mir wichtiger ist, bei ATI besser. Subjekti sehen die "Kanten" hier und da besser aus.

Alles in allem, sofern man einfach ur spielt und nicht genau hinsieht, sind die Unterschiede marginal und fallen kaum bis gar nicht auf. Daher..... viel heiße Luft um nichts in meinen Augen.

Ronny145
2010-12-22, 23:08:29
Kannst du nochmal genau sagen, auf welcher Seite im Thread das zu finden war?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8383575#post8383575

Barts eben noch hinzugefügt.

Langenscheiss
2010-12-22, 23:31:34
Hmm, gabs da nicht noch irgendwo n clamp allow video? Das Video ist doch mit clamp off entstanden, da flimmert doch nichts auf der Geforce. Moment, habs gefunden, war von airbag.

myMind
2010-12-26, 11:14:27
[x] kein Unterschied- habe/hatte kürzlich AMD und NV

Die Schärfe und auch die Bildqualität ist aus meiner Sicht auf einem so hohen Niveau, dass sie als Kaufkriterium für mich überhaupt keine Rolle mehr spielt. Da kann man bei der Monitorauswahl bedeutend mehr falsch machen.

Bei der Grafikkarte sind mir wichtig:
+ Treiber die in allen Bereichen (3D, Video, Desktop, Standby,...) fehlerfrei sind
+ Leise und sparsam im Desktop-Betrieb
+ Flüssige und lagfreie Spielwiedergabe ohne Tearing

Nach meiner Meinung liegt typischerweise beim ersten Punkt nVidia vorne, bei den anderen beiden ATi. Vielleicht wären Umfragen mit diesen Punkten mal sinnig. Ich schätze da hat jeder so seine Erfahrungen gemacht.

Mr.Magic
2010-12-26, 11:30:21
[x]+ Leise und sparsam im Desktop-Betrieb

An sich eine gute Idee, aber bitte leise von sparsam trennen. Meine GTX480 ist praktisch unhörbar, und der Verbrauch juckt mich nicht wirklich.

Dural
2010-12-26, 11:48:42
http://guru3d.com/imageview.php?image=16857[/URL]

http://guru3d.com/imageview.php?image=15552


lol...

erstens sind es nicht mal die exakt gleichen Bilder... und zweitens sieht es auf beiden karten exakt gleich aus, es gibt faktisch auf den bildern keine unterschide!!!

Der "nebel" ist bei NV nur besser zu sehen weil das bild viel weiter rechts als bei der AMD ist...

Der Jet antrieb hat einen variabeln farbton, ich wette der sieht auf beiden Karten zum selben Zeit Punkt auch exakt gleich aus


Ich würde mal vorschlagen das du mal neue "beweise" bringst und nicht so ein blödsinn wie eben, das dumme ist nur das du keine finden wirst...




[x] AMD - habe/hatte kürzlich AMD und NV

bei AF ganz klar, die gründe wurden schon längst genannt! (unterfilterung aka flimmern)



[x] Kein Unterschied - habe/hatte kürzlich AMD und NV

ohne AF / AA gibt es keinen unterschid, weder in der schärfe noch im farbton!

SchranzZzGesteuert
2010-12-26, 14:03:44
eieiei leute.....ich lese ja schon seit monaten als unregestrierter user in eurem forum.

ihr seid klasse, gar keine frage.....nur seid ihr auch klasse darin einfachste, banale sachen zu zerdiskutieren!

Ich möchte einfach nur eure subjektive Meinung zur Schärfe in Spielen/3D-Anwendungen wissen

ganz einfach darum geht es hier, um nix anderes....und dann sieht man hier wieder "beweise" durch irgendwelche tools aufgenommen. Was man durch irgendwelche tools herausfindet oder sieht, darum geht es hier doch gar nicht ;)

nicht immer so kompliziert denken, nicht immer alles beweisen wollen und sich nicht immer rechtfertigen müssen (besonders wenn es um subjektive meinung geht) ;)

Labberlippe
2010-12-26, 14:22:59
Hi

Also ich muss sagen das ich das Bild von AMD um einen Tick schärfer empfinde.
Ich bin einer der wenigen die die Unterfilterung nicht stört.

Ich hatte vor kurzem eine 8800er eingebaut und muss zugeben das alleine im Desktop Bereich mir das Bild von der 8800er Gainward unschärfer war.
Ist sogar meiner Freundin auf Anhieb aufgefallen.
Einfach Karte eingebaut und Treiber installiert.
Ich hatte nix am Schriftbild verändert.

Natürlich kann man das ganze einstellen, keine Frage, nur im Default Zustand wirkt die AMD doch schärfer.

Ich hatte eigentlich mit dem Gedanken gespielt die nVIDIA zu behalten, da gerade bei Emulationen ala PJ64 die nVIDIA Treiber die stabileren sind.
Auch das Uralt Spiel Shadow of the Empire funktionerte sang und klanglos, was nach gefühlten 100 Jahren noch immer nicht bei AMD geht.

Hat mir leider nur wenig geholfen da bei NVIDIA der herkömmliche TV Out und noch immmer Macken hat und nicht zufriedendstellend funktioniert.
Entweder findet er den TV nicht oder wirft Ihn nach Lust und Laune raus und ich kann zuerst alles umschliessen damit das Teil wieder geht.
Das ist einfach inakzeptabel.
Übrigens das Problem hatte ich mit meheren nVIDIA Karten, Treibern und Fernsehern.

Meine persönliche Meinung ist, das durch den TV Out und die leicht bessere Schärfe mir AMD besser zusagt.
Bis auf PJ 64 und Shadows of the Empire habe ich überhaupt keine Probleme mit Spielen also kann ich gut damit Leben.

Gruss Labberlippe

tam tam
2010-12-26, 16:01:06
[x] ATI/AMD

Wenn Ihr ma wirklich gute Bild-Vergleiche von Verschleierung, Treppeneffekten, Kantenflimmer! und Schärfenkonturen bei Objekten und Schriften haben wollt, dann nehmt dazu EVE-Online oder X³ von Egosoft. War nämlich bei mir der Hauptgrund, NVidea aufzugeben. Nach dem Wechsel zu ATI ist mir auch noch zusätzlich die bessere Bildschärfe unter 2D und eine bessere Bildqualität bei Filmen aufgefallen. Der Nachteil jedoch dabei ist, daß man nach Treiberaktualisierung ewig braucht, bis alle Einstellungen widda passen(ü. ATI Tray Tool), und manchmal spinnt es dann trotzdem rum(z.B. bei Filmwiedergabe dann plötzlich in Bildmitte waagerechte Streifen, die das Bild zerschneiden, und erst nach Neustart oder unter Einstellungen bei Deinterlacing auf Default setzen, weg sind).

ChaosTM
2010-12-26, 17:57:34
3D - [x] leichte Vorteile für AMD bei der Schärfe bzw. den Details(darum sollte es eigentlich gehen!), dafür gelegentliches Flimmern..

2D/Filme - [x] geht ganz klar AMD. Bei Nvidia fehlen schlichtweg die feinen Details. Das Bild wirkt immer so, als wäre es durch einen leichten DNR Filter geschleift worden. Das fällt aber nur auf größeren Diagonalen wirklich ungut auf.

Warum kann ich das sagen? Weil ich momentan eine 6850 UND eine 460er (meistens deaktiviert da zum PhysicX Sklaven degradiert..) im Rechner habe.

klutob
2010-12-26, 18:25:21
[x] ATI

Besonders gut erkennbar im 2D-Betrieb. Tolle Farbauflösung/dynamik, gute Tiefenstaffelung dank der ggü. Nvidia überlegenen Bildschärfe und konstantem Gamma-Wert mit jedem Treiber.
Allerdings muss die gesamte Ausgabekette optimiert sein, um ungeschmälert in den Genuss dieser überragenden Bildqualität zu kommen. Ein gutes Kabel (http://www.yourhifi.de/index.php?page=product&info=3809) ist dabei ein Muss.

:biggrin:

Blaire
2010-12-26, 18:29:02
Ich hab derzeit ne AMD und Nvidia Karten am Laufen, bei 2D seh ich keinen Unterschied. Vermutlich sind verschieden gesetzte Farb und Kontrastwerte der einzelnen Kartenhersteller dafür verantwortlich, anders lässt sich das kaum erklären.

Tesseract
2010-12-26, 18:38:40
3D - [x] leichte Vorteile für AMD bei der Schärfe bzw. den Details(darum sollte es eigentlich gehen!), dafür gelegentliches Flimmern..

unterabtastung/flimmern ist das genaue gegenteil von schärfe. dadurch hast du weniger echte details und damit auch weniger schärfe.
das einzige, von dem man bei unterabtastung mehr hat ist kontrast.

Black-Scorpion
2010-12-26, 19:33:41
Bei der Grafikkarte sind mir wichtig:
+ Treiber die in allen Bereichen (3D, Video, Desktop, Standby,...) fehlerfrei sind

Wenn dir das wichtig ist verkaufe deinen PC. Es gibt und wird auch nie fehlerfreie Software und damit Treiber geben.

myMind
2010-12-26, 20:17:34
Bei der Grafikkarte sind mir wichtig:
+ Treiber die in allen Bereichen (3D, Video, Desktop, Standby,...) fehlerfrei sind
Wenn dir das wichtig ist verkaufe deinen PC. Es gibt und wird auch nie fehlerfreie Software und damit Treiber geben.
Rüüchtüüg. Man muss es aber schon sehr darauf anlegen, wenn man die Aussage so verstehen will, dass der Schreiber nur eine Grafikkarte mit 100% fehlerfreien Treibern kaufen würde. Nein, es ist natürlich so zu verstehen, dass weniger Treiberfehler ein wichtiges Kaufargument darstellen.

Hingegen ist die Schärfe aus meiner Sicht in beiden Lagern sehr gut und als Differenzierungsmerkmal vernachlässigbar.

Sailor Moon
2010-12-26, 20:52:21
Der Unterschied ist enorm. Wenn ich RGB einstelle, hat das Bild einen "Grauschleier", bei ycrc444 ist es wesentlich besser. Das Problem mit dem Schwarzton habe ich auch nicht mehr, sehr deutlich im SC2-Hauptmenü.
Was hast du denn für einen Bildschirm angeschlossen? Hört sich zunächst (s.u.) nach einem typischen Signallevel-Mismatch an. In YCbCr sollte die Grafikkarte spezfikationsgemäß in Videoleveln ausgeben. RGB dann in PC-Leveln. Durch die Kompression verlierst du im ersten Fall natürlich Tonwerte.

Die Beschreibung deutet für deine RGB-Zuspielung eigentlich auf Videolevel in der Ausgabe und erwartete PC-Level beim Wiedergabegerät hin. Das sollte die Grafikkarte so aber eigentlich in RGB nicht ausgeben (nur für das Overlay gäbe es hier die Möglichkeit zur unveränderten oder gespreizten Ausgabe).

Gruß

Denis

Raff
2010-12-26, 21:29:42
[x] ATI

Besonders gut erkennbar im 2D-Betrieb. Tolle Farbauflösung/dynamik, gute Tiefenstaffelung dank der ggü. Nvidia überlegenen Bildschärfe und konstantem Gamma-Wert mit jedem Treiber.
Allerdings muss die gesamte Ausgabekette optimiert sein, um ungeschmälert in den Genuss dieser überragenden Bildqualität zu kommen. Ein gutes Kabel (http://www.yourhifi.de/index.php?page=product&info=3809) ist dabei ein Muss.

:biggrin:

Nice! :D

Du hast das Phänomen "Placebo" zwar exzellent zusammengefasst, aber nicht aufgeklärt, warum viele Menschen diese Gespenster sehen. Dieser Blödfug mit schwankenden 2D-Einstellungen wird wohl nie sterben. Ich sage ja nichts, wenn einer etwas steinzeitlich mit Matrox-Grafikkarten argumentiert, die definitiv ein besseres Analog-Signal ausgeben als vergleichbare Konkurrenzkarten um die Jahrtausendwende. Das Kopfkino bei aktuellen Grafikkarten hat nur leider gar nichts mit diesen Fakten zu tun.

Die überlegene 2D-Qualität (m)einer Radeon bestaune ich seit einigen Monaten, bei denen der Catalyst die Farben falsch einstellt, sobald die EDID des Monitors ausgelesen wird. :ulol:

MfG,
Raff

Samtener Untergrund
2010-12-27, 00:33:12
Oh, das Placebo-Argument kann ich widerlegen. Als ich von einer Radeon 1950Pro auf eine 8800GT gewechselt bin, ist mir das bei einem ganz popeligen 2D-Spiel aufgefallen. Das war in 800x600, was ich dann jeweils genau auf 1600x1200 im Vollbild vergrößert habe. Bei der Radeon war es vollkommen egal, ob ich dies per Grafikkarte oder durch den Monitor gemacht habe, der Auswahlschirm sah immer exakt gleich aus. Bei der GeForce hingegen war die Interpolation durch die Karte absolut inakzeptabel und durch den Vergleich mit der Übernahme durch den Monitor auch jederzeit nachvollziehbar. Stellt sich die Frage, ob dies bei aktuellen Modellen ebenso ist. Ich kann das auch nur von dem Spiel berichten, da es kaum Spiele gibt, die man so genau hochziehen kann und die man immer wieder mal für 5 Minuten zockt. Möglicherweise ein Problem der Interpolation des G92 und mehr nicht, zumindest ist es mir bei höher aufgelöstem 2D-Material nicht aufgefallen. Ich habe danach nicht mehr darauf geachtet, sondern dies einfach dem Monitor überlassen.

Malabolge
2010-12-27, 00:48:35
Nice! :D

Du hast das Phänomen "Placebo" zwar exzellent zusammengefasst, aber nicht aufgeklärt, warum viele Menschen diese Gespenster sehen. Dieser Blödfug mit schwankenden 2D-Einstellungen wird wohl nie sterben. Ich sage ja nichts, wenn einer etwas steinzeitlich mit Matrox-Grafikkarten argumentiert, die definitiv ein besseres Analog-Signal ausgeben als vergleichbare Konkurrenzkarten um die Jahrtausendwende. Das Kopfkino bei aktuellen Grafikkarten hat nur leider gar nichts mit diesen Fakten zu tun.

Die überlegene 2D-Qualität (m)einer Radeon bestaune ich seit einigen Monaten, bei denen der Catalyst die Farben falsch einstellt, sobald die EDID des Monitors ausgelesen wird. :ulol:

MfG,
Raff
Keine Angst - Er geht ja schon freiwillig zum Augenarzt:wink: Muss doch schon Blind sein , der Arme.

Es darf eben nicht sein , was nicht sein darf. Basta ! Auch ein "subjektiver" eindruck hat gefälligst die Nvidia Karte als besser zu "sehen"
"Strunz - was erlauben"


Wo kämen wir den dahin wenn jetzt danach genau so "hart,jounalistisch korrekt und unerweichlich" geprüft würde wie beim "Flimmer"-AF.
Es kann kein "Schärfeunterschied" bestehen. Auf gar keinen FALL

klutob
2010-12-27, 02:20:55
Komisch, wenn ich mein olles T40p mit einer FireGl 9000 mit der GTX 260 des Desktops und einem Eizo-Monitor-Testbild vergleiche, kommt genau 0-Differenz (abgesehen von den unterschiedlichen Cleartype-Einstellungen) zu Tage.
Da muss ATI wohl einen magischen Schärfefilter in den LVDS-Transmitter eingebaut haben.
Merke:
Nvidia-Nutzer müssen immer Pfefferspray beim Photoshoppen bereithalten, sonst könnten sie nie den pikanten Bildeindruck der roten Chips zu Gesicht bekommen.

Malabolge
2010-12-27, 12:45:36
Komisch, wenn ich mein olles T40p mit einer FireGl 9000 mit der GTX 260 des Desktops und einem Eizo-Monitor-Testbild vergleiche, kommt genau 0-Differenz (abgesehen von den unterschiedlichen Cleartype-Einstellungen) zu Tage.
Da muss ATI wohl einen magischen Schärfefilter in den LVDS-Transmitter eingebaut haben.
Merke:
Nvidia-Nutzer müssen immer Pfefferspray beim Photoshoppen bereithalten, sonst könnten sie nie den pikanten Bildeindruck der roten Chips zu Gesicht bekommen.

solltest es vieleicht mal mit sowas versuchen ::smile::wink:
http://australian-kanguru-watchers.de/wp-content/uploads/2009/11/fcPrints_Testbild_100ppi.jpg
http://australian-kanguru-watchers.de/wp-content/uploads/2009/11/dnet24-testbild.jpg

http://www.wati.at/images/hwx200mod/big/testbild1360x7680nn.gif
http://www.michael-hess.net/sonstiges/Testbild.jpg

http://www.simposwelt.de/DIY%20Beamer/Testbild1.jpg
http://www.clik2.de/monitor-test-rgb-300dpi.jpg

BTW: das dürfte helfen das Pfefferspray aus den Augen zu kriegen :
(Frag in Stuttgart nach , die haben Erfahrung mit sowas )

wasser (http://www.bildarchiv-hamburg.de/sammel/ansicht/099_antinazi_demonstration_hamburg/011_17488_einsatz_wasserwerfer.jpg)

Und vielleicht soger den "grünen" Schleier wegspülen ;-)

Gib also die Hoffnung nicht auf, sowas lässt sich heilen.

dayo21
2011-01-01, 13:24:20
Hallo!

Hatte kürzlich eine nvidia GTS250 und habe auf eine HD5870 gewechselt (Dez./10).

Ich zocke meist alte Games wie UT 2004, Unreal, Doom 3, UT3. Daher beziehen sich meine vergleiche auf diese Spiele.

Per nvidia CP hatte ich stets HQ AF forciert und auf der neuen Radeon spiele ich mit HQ Mipmapping sowie A.I. off (Catalyst 10.12).

Ich hatte auch mal das nvida SSAA Tool ausprobiert und bei älteren Games wie Q3 genutzt.

Mein Eindruck: die nvidia Treiber machen den ausgereifteren Eindruck, die Bildqualität ist leicht besser und ich hatte (fast) nie Treiberprobleme.

Wenn ich auf der Radeon 4x SGSSAA wähle ist die Bildqualität des AF zu dem HQ nvidia Modus (ohne SSAA) gleichwertig, mit MSAA klar darunter. Unter Doom 3 stört mich das Banding sehr, auch hilft SSAA kaum gegen das Flimmern, was an einigen Stellen auftritt. Dafür ist die Texturqualität toll.

UT2004 ist für mich der AF Tester schlechthin. Ich habe hier via .ini das LOD Bias auf 0.0 festgestellt, um das AF zu vergleichen. Mit 4x SGSSAA ist es auf beiden Karten optisch gleich hübsch, jedoch lässt sich diese Qualität auf nvidia bereits OHNE SSAA mit HQ AF erreichen.

Crysis funzt nur mit A.I. an richtig. daher schlechtere BQ auf der Radeon, dafür tolle Performance.

Mein Fazit: Da ich alle meine Games mit SGSSAA auf meiner Radeon zocken kann, ist die BQ insgesamt besser, als auf der alten nvidia, jedoch kann ich für alle BQ Fetischisten NUR nvidia empfehlen, ich werde den Markt genau beobachten, aber derzeit tendiere ich für meine nächste Grafikkarte eher zu nvdia!

Hellspinder
2011-02-26, 06:46:29
Bin gerade von der Hd4870 auf die Geforce GTX470 gewechselt (siehe http://www.forum-3dcenter.org/vbulletin/showthread.php?t=503385) und ich kann das Bestätigen.

Ich habe hier mal zwei Testbilder verlinkt:

http://www.abload.de/image.php?img=testbild1yi73.png

http://www.abload.de/image.php?img=testbild2pgn5.png

Wie man sehen kann, habe ich das Farbformat geändert. Bild 1 wirkt wesentlich farbdynamischer als Bild 2 (ycbcr444 wirkt dynamischer als rgb).
Kann man den Unterschied auf eurem System sehen?

Edit: Falls das nicht der Fall ist, brauche ich mit Screenshots nicht zu vergleichen. Wer den Unterschied live sehen möchte, der kann gerne vorbei kommen (Berlin). Mit ycbcr444 wirkt das Bild fast wie bei AMD, mit rgb einfach etwas schlaffer.

Auch ich finde das Bild der Nvidia irgendwie "schlaffer". Allerdings gibt es bei mir am PC Monitor keine Option auf ycbr umzuschalten. Die erscheint nur beim TV am HDMI Ausgang.

Was kann man da machen ? Gibt es irgendwelche Tipps wie die Farbeinstellungen auf Ati-Niveau zu bringen sind ?

Klingone mit Klampfe
2011-02-26, 10:03:47
[x] Bei 1:1 Pixel-Mapping im 2D-Betrieb gleich scharf, sollt eigentlich logisch sein. Bei polygonalen Inhalten kann man eh nicht pauschal von "Schärfe" sprechen.

Schnäppchenjäger
2011-02-26, 10:27:25
Die überlegene 2D-Qualität (m)einer Radeon bestaune ich seit einigen Monaten, bei denen der Catalyst die Farben falsch einstellt, sobald die EDID des Monitors ausgelesen wird. :ulol:

MfG,
Raff

empfiehlst du die EDID generell komplett ausgeschaltet zu lassen???

Raff
2011-02-26, 10:31:12
Sofern deine Grafikkarte denselben Schlonz mit deinem Monitor veranstaltet: yep. Zumindest ist das der Workaround. Das tritt aber (anscheinend) nur bei wenigen Kombinationen auf.

MfG,
Raff