PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI vs. Nvidia - Bildqualität


Martin15
2004-12-16, 14:44:09
Hi
also gut, hier wird immer über Performance und dergleichen diskutiert. So nun will ich mal ein anderes Thema ansprechen und zwar die Bilqualität! Jedoch wird nur die Qualität der neuen Highend-Karten angesprochen: 6800 GT/Ultra gegen X800 Pro/XT. Da man sonst zu viel berücksichtigen müsste wie z.B. fehlender Speicher, andere Architektur etc.

Hier geht es um:
"ATI - Get off the Game" gegen "Nvidia - The Way it's meant to be benchmarked"


Immer wieder wird die Performance durch Treiberoptimierungen verbessert und wieder kommen Kritiken wie Filteroptimierungen, die die Bildqualität ins Bodenlose treibt(daher das Wort Treiber :D).
So ich hoffe das es hier viele Leute gibt, die schon beide Seiten ausprobiert haben und berichten können wie die Bildqualität beider Hersteller ist. Klar liegt in der Leistung die X800 XT meist vorne aber liefert sie auch wirklich die selbe Qualität wie die 6800 GT/Ultra?? Oder ist Nvidia in der Qualität doch weiter hinten.
Sind bestimmte Effekte auf der 6800 oder auf X800 Serie besser? Wer bringt mehr Qualität bei der anisotropischen Filterung und wer das bessere Anti-Aliasing. Wer zaubert mehr details bei OpenGL und Direct3D auf die Matt-Scheibe(damit ist der Monitor bzw. TFT gemeint ;)) und wer verliert dadurch die meiste Leistung?
Zu klären wäre auch ob neue Treiber eine besser Bildqualität versprechen oder doch mehr Leistung durch optimierungen bringen die allerdings an der Qualität zerren?

So dann lasst die Spiele beginnen :)

Martin

reunion
2004-12-16, 14:57:07
Im grunde nehmen sich die neuen Karten recht wenig was die Bildqualität angeht. Nv bietet mit dem NV40 das leicht bessere AF, ATI das leicht bessere AA. In der realität sollte man allerdings kaum einen Unterschied ausmachen können. Inzwischen kann man bei beiden die filteroptimierungen abschalten. Die 2D Bildqualität sollte sich ebenfalls kaum bis gar nicht unterscheiden.

san.salvador
2004-12-16, 14:57:15
Hi
also gut, hier wird immer über Performance und dergleichen diskutiert. So nun will ich mal ein anderes Thema ansprechen und zwar die Bilqualität! Jedoch wird nur die Qualität der neuen Highend-Karten angesprochen: 6800 GT/Ultra gegen X800 Pro/XT. Da man sonst zu viel berücksichtigen müsste wie z.B. fehlender Speicher, andere Architektur etc.

Hier geht es um:
"ATI - Get off the Game" gegen "Nvidia - The Way it's meant to be benchmarked"


Immer wieder wird die Performance durch Treiberoptimierungen verbessert und wieder kommen Kritiken wie Filteroptimierungen, die die Bildqualität ins Bodenlose treibt(daher das Wort Treiber :D).
So ich hoffe das es hier viele Leute gibt, die schon beide Seiten ausprobiert haben und berichten können wie die Bildqualität beider Hersteller ist. Klar liegt in der Leistung die X800 XT meist vorne aber liefert sie auch wirklich die selbe Qualität wie die 6800 GT/Ultra?? Oder ist Nvidia in der Qualität doch weiter hinten.
Sind bestimmte Effekte auf der 6800 oder auf X800 Serie besser? Wer bringt mehr Qualität bei der anisotropischen Filterung und wer das bessere Anti-Aliasing. Wer zaubert mehr details bei OpenGL und Direct3D auf die Matt-Scheibe(damit ist der Monitor bzw. TFT gemeint ;)) und wer verliert dadurch die meiste Leistung?
Zu klären wäre auch ob neue Treiber eine besser Bildqualität versprechen oder doch mehr Leistung durch optimierungen bringen die allerdings an der Qualität zerren?

So dann lasst die Spiele beginnen :)

Martin
Soweit ich mich erinnern kann gibt es in diesem Forum schon zig Threads mit genau diesem Thema, such mal danach.

TobiWahnKenobi
2004-12-20, 14:58:55
vergleicht mal lieber die signalqualitäten.

gerade dort herrschen starke defizite. allerdings in beiden lagern. auf karten der 200€ klasse kann man sich nur einlassen, wenn man nicht vor hat, das 2. display mit mehr als 1280pixeln zu belasten. bei den meisten karten sollte man sogar noch eine auflösungsstufe darunter bleiben. TV-IN-OUT ist auf NV karten generell besser, als auf ATIs. in etwa so : matrox 5mhz, nvidia 4mhz und ATI 2mhz..

da ich meine TFTs notgedrungen halb digital und halb analog anschliessen muss, fallen unterschiede der signale sofort ins auge. erst recht, wenn man beide anschlüsse (testweise) per adapter auf analog zwingt. der zweite anschluss ist immer grottiger. deshalb, und nur deshalb bin ich damals auf die 400€ klasse umgestiegen. da bekommt man einfach bessere signale geboten. schade dass matrox so miese performance hat; dort kann man nur von traumhafter bildqualität sprechen. ATI ist mir persönlich zu schlecht konfigurierbar und in spielen zu matschig.

bei spielen finde ich übrigens, dass auf NV karten die bilder homogener aussehen. oft klarer und das AF gefällt ebenfalls. meine messungen haben übrigens ergeben, dass auf meiner karte, das AA kaum leistung frisst. 40fps ohne AA, 39 mit 2fach, 38fps mit 4fach.. also echt zu vernachlässigen. und zwar mit nahezu jedem game, das ich testen konnte.

mfg
tobi

Carlo28
2004-12-20, 15:02:44
Unsinn hab beide Karten und beide nehmen sich garnix.

Funky Bob
2004-12-20, 15:07:56
Soo, ich hatte BEIDE Karten schon in meiner Kiste und ich kann nur sagen, dass

nV meiner Meinung nach, wesentlich bessere Texturen abgeliefert hat (wie es mit aktuellen Treibern aussieht kann ich nicht sagen). An manchen Stellen meiner X800XTPE sehen die Texturen leicht matschig aus oder eher "komisch". Das war bei nV so hatte ich den Eindruck nicht so der Fall.

Allerdings war ich vom 6xAA der ATI-Karte überrascht. Bei meinen Freunden mit ihren 9800Pros sahs nicht so sher nach einem Unterschied aus, allerdings so selbst in Action sieht es tatsächlichg noch ein wenig besser aus. Ich hätte allerdings auch nciht gedacht, das mir (als langjähriger nVNutzer) an einigen Stellen (nur bei den wenigsten) doch schon ein krasser Textureunterschied auffällt. Dabei muss es nocht nichteinmal schlechter aussehen, nur ich empfinde es subjektiv als leicht "komisch".

MadManniMan
2004-12-20, 16:23:48
Hm, welche Optimierungen beim AF haben wir denn jetzt eigentlich auf den beiden Seiten?

nV hat Bri, AF-Unterfilterung und Stageoptimierung. ATi hat Bri, AF-Unterfilterung ... und was noch? Und inwieweit kann man über A.I. den Mist abstellen?

Das Auge
2004-12-20, 16:34:21
Also ich kann jetzt nur über meinen damaligen Wechsel von der 9500pro hin zur FX5900 berichten, und da gab es gewaltige Unterschiede was die Farbgebung, also gewissermaßen den "Buntheitsgrad" anbelangt, Und ehrlich gesagt gefiel mir rein von der Farbgebung (nicht von der Filterung) die 9500pro besser. Besonders schön war dieser Effekt bei eben sehr bunten Spielen wie den Simpsons zu sehen, die sahen mit der FX auf einmal "blasser" aus, aber man gewöhnt sich dran ;)
Nunja, wie´s mit X800 vs. 6800 aussieht kann ich nicht sagen, ich hab nur die 6800 und bei der bleib ich auch, bin seit dem FW 66.81 hochzufrieden, sowohl mit Performance als auch mit der BQ :D

MechWOLLIer
2004-12-20, 16:59:47
Hm, welche Optimierungen beim AF haben wir denn jetzt eigentlich auf den beiden Seiten?
nV hat Bri, AF-Unterfilterung und Stageoptimierung. ATi hat Bri, AF-Unterfilterung ... und was noch? Und inwieweit kann man über A.I. den Mist abstellen?
Imo haben mittlerweile beide die selben Optimerungen im Treiber, sprich Bri, leichte Verschiebung des LOD und die Stageoptimierung.
Angeblich kann man über AI alle Optimierungen wie auch bei NV deaktiveren. Der Nachteil ist allerdings, dass man auch alle Optimierungen deaktivert, welche nichts mit dem AF zu tuen haben.
Mich wundert es allerdings, dass dies noch keiner richtig und aufwändig untersucht hat.

crane
2004-12-20, 18:03:53
Mich wundert es allerdings, dass dies noch keiner richtig und aufwändig untersucht hat.
Genau meine Meinung.
WENN man schon die Karten nach Ihrer Schnelligkeit beurteilt (Balkenlänge), dann muß natürlich auch der Rechenaufwand/Bildqualität ziemlich genau gleich sein.
Ansonsten können wir uns ein Urteil darüber, welche Karte schneller ist eigentlich sparen.

Vermisse auch irgendwie etwas den Enthusiasmus und das Engagement der Leute mit Kompetenz, die auch in der Vergangenheit das ein oder andere recherchiert und aufgedeckt haben - kein Vorwurf, nur eine Feststellung.

Interessant wäre z.B.Darstellung/Auswirkungen der Optimierungen, Wege zum deaktivieren (Tools, Treiber, Registry), Überprüfung dieser (vorgeschlagenen) Deaktiverung, fps-Differenz.

Grüße

Spasstiger
2004-12-20, 19:01:53
Das Multisampling AntiAliasing von ATI ist definitiv schöner.
Bei der GeForce 6800 komm ich bei Bewegungen oft ins Grübeln, ob AA wirklich an ist (wenn dann mach ich 4xAA an) und das trotz der eigentlich recht hohen Auflösung von 1280x1024, weil Treppeneffekte immer noch deutlich sichtbar sind (und ich meine hier Treppeneffekte an Polygonkanten).

Bei meiner Radeon 9700 seh ich es sofort, wenn ich AA an habe. Schon das 4xAA von ATI ist Nvidia deutlich überlegen, von 6xAA brauchen wir gar nicht erst reden.

Ich finde den AA Unterschiede zwischen Nvidia und ATI krasser als man es auf unbewegten Screenshots sieht. Vielleicht hat auch der TFT, der an der GeForce 6800 betrieben wird, etwas damit zu tun!?

Das Auge
2004-12-20, 20:10:08
Bei der GeForce 6800 komm ich bei Bewegungen oft ins Grübeln, ob AA wirklich an ist (wenn dann mach ich 4xAA an) und das trotz der eigentlich recht hohen Auflösung von 1280x1024, weil Treppeneffekte immer noch deutlich sichtbar sind (und ich meine hier Treppeneffekte an Polygonkanten).

Hmmh, also das kann ich nicht bestätigen, bei 4xAA sind in 1280x1024 und 1600x1200 eigentlich überhaupt keine Kanten mehr zu sehen :|

Mir persönlich sagt aber sowieso der 2xQ-Modus mittlerweile am ehesten zu: der sieht wirklich nur minimal bis überhaupt nicht schlechter aus als 4x ist aber viel performanter (selbst Far Cry 1.3 läuft mit dem in 1600x1200 + 8xAF mit max. Details gut). In meiner Lieblingsauflösung 1600x1200 mit 2xQ-AA seh ich wirklich nur noch wenn ich genau hinschau an bestimmten Stellen Kanten, beim zocken selber fällt das dann eh gar nicht mehr auf.

Ich will mich jetzt aber auch nicht drüber streiten, wer das schönere AA zu bieten hat (ich hör die Fanboys schon die Hufen scharren), sondern wollte nur zum Ausdruck bringen, daß der 2xQ-Modus von NV bei hohen Auflösungen ein super Kompromiss aus BQ und Performance ist ;)

Spasstiger
2004-12-20, 20:29:09
Hmmh, also das kann ich nicht bestätigen, bei 4xAA sind in 1280x1024 und 1600x1200 eigentlich überhaupt keine Kanten mehr zu sehen :|

Mir persönlich sagt aber sowieso der 2xQ-Modus mittlerweile am ehesten zu: der sieht wirklich nur minimal bis überhaupt nicht schlechter aus als 4x ist aber viel performanter (selbst Far Cry 1.3 läuft mit dem in 1600x1200 + 8xAF mit max. Details gut). In meiner Lieblingsauflösung 1600x1200 mit 2xQ-AA seh ich wirklich nur noch wenn ich genau hinschau an bestimmten Stellen Kanten, beim zocken selber fällt das dann eh gar nicht mehr auf.

Ich will mich jetzt aber auch nicht drüber streiten, wer das schönere AA zu bieten hat (ich hör die Fanboys schon die Hufen scharren), sondern wollte nur zum Ausdruck bringen, daß der 2xQ-Modus von NV bei hohen Auflösungen ein super Kompromiss aus BQ und Performance ist ;)

Ist 2xQ nicht dieser total verschwommene Modus? Wenn ja, dann find ich den Schrott. 4xAA auf ATI halte ich für den besten Kompromiss aus Leistung und Bildquali.

LovesuckZ
2004-12-20, 20:29:45
Also zu den AF Optimierungen kann ich nur sagen: Baeh.
Wenn man CS:S spielt, zum Beispiel Aztek, dann sieht das nicht mehr sonderlich schoen aus.
Da hilft echt nur noch HQ bei nvidia. Gott segne diesen Button.

LovesuckZ
2004-12-20, 20:30:49
4xAA auf ATI halte ich für den besten Kompromiss aus Leistung und Bildquali.

Das trifft auch auf den des NV4x zu.
Der Unterschied ist nur, dass Nvidia keine Gammakorrektur hat.

Jesus
2004-12-20, 20:32:31
einen netten, aber etwas älteren AA und AF Vergleich gibts hier http://zdnet.de/enterprise/client/0,39023248,39125640-11,00.htm

Das Auge
2004-12-20, 20:34:09
Ist 2xQ nicht dieser total verschwommene Modus? Wenn ja, dann find ich den Schrott. 4xAA auf ATI halte ich für den besten Kompromiss aus Leistung und Bildquali.

Nö, auf der meiner FX (oder wars auf der Ti4200?) war der Modus wirklich höchst Augenkrebs fördernd, auf der 6800 kann man da eigentlich nicht mehr von unscharf sprechen, der ist echt ganz gut geworden (die Treiberentwicklung geht ja auch weiter ;) )

Tesseract
2004-12-20, 20:36:29
Mir persönlich sagt aber sowieso der 2xQ-Modus mittlerweile am ehesten zu: der sieht wirklich nur minimal bis überhaupt nicht schlechter aus als 4x ist aber viel performanter

ähm... wahrnehmungsstörung? ;D
quincunx kostet performance, zerstört aber mehr bildquallität als es bringt.
(vorallem in kombination mit 8xAF absolut kontraproduktiv weil es die information vom aufwändig errechneten 8xAF einfach vernichtet)
normales 2xAA mit 4xAF kostet weniger und bringt ein besseres ergebnis.


Das Multisampling AntiAliasing von ATI ist definitiv schöner.

ersetze "definitiv" durch "häufig" und die aussage stimmt für die meisten ausgabegeräte. pauschal besser ist es allerdings nicht, es gibt genauso situationen in denen nvidias AA viel besser aussieht. bedingt dadurch das atis methode nicht "besser", sondern einfach "anders" ist. unter dem strich würde ich es als etwas überlegen bezeichnen.

vergleicht mal lieber die signalqualitäten.

wenn ich meine 6800GT(aopen) mit meiner 9700pro(sapphire) vergleiche, hat die GT sowohl am VGA ausgang, als auch am TV-out das um klassen bessere bild. die faben sind stimmiger und die schärfe ist viel besser. ich würde sie subjektiv ca. auf die selbe stufe stellen wie eine G550.
allerdings hatte auch die 8500 davor eine bessere SQ als die 9700pro.

Tesseract
2004-12-20, 20:44:11
auf der 6800 kann man da eigentlich nicht mehr von unscharf sprechen, der ist echt ganz gut geworden

dazu von mir aus ein definitives nein. Q macht das bild zu matsch, auch mit der 6800 serie. (hat sich überhaupt was geändert an der maske?)

imho der unnötigste AA modus, der je eingeführt wurde

Tesseract
2004-12-20, 20:45:07
Da hilft echt nur noch HQ bei nvidia. Gott segne diesen Button.

indeed :massa:

Das Auge
2004-12-20, 20:50:28
So, so, dann vergleich doch mal selber:

1600x1200, 2xQAA, 8xAF

http://img72.exs.cx/img72/191/fo2xqaa1rr.jpg

1600x1200, 4xAA, 8xAF

http://img72.exs.cx/img72/2355/fo4xaa0gf.jpg

Wo bitteschön ist denn der 2xQ jetzt matschiger?? Wie gesagt früher war der Modus nicht zu gebrauchen, mittlerweile ist er eine echte (schnelle) Atlernative.

aths
2004-12-20, 20:58:19
Das trifft auch auf den des NV4x zu.
Der Unterschied ist nur, dass Nvidia keine Gammakorrektur hat.Doch. Jede GeForce bietet Gamma-Korrektur. Auch ganz ohne Antialiasing, natürlich auch mit Antialiasing.

Der NV40 bietet kein für den Gamma-Wert 2,2 korrektes Downfiltering, aber natürlich Gamma-Korrektur.

Tesseract
2004-12-20, 21:01:24
@Adahn: also primär seh ich da mal jede menge jpg artefakte ;)

gibts das ganze als png?

tombman
2004-12-20, 21:06:31
ALso in der BQ sind beide ziemlich gleich...

Und was das SIGNAL angeht kommt es auf den Hersteller der Graka an un dessen eingesetzte Filter aber ned auf die chips von ATI oder Nvidia.

Und beide Firmen schummeln sich so durch die Gegend auf Kosten der BQ.

MadManniMan
2004-12-20, 21:21:02
Jup, mach mal bitte nochmal nen unkomprimierten Shot - und wenns nur ein Ausschnitt ist.
Und vor allem: fällt dir bei deiner Benennung was auf? :D

Thema Gamma-Anpassung: auf meinem 17" CRT sieht das 2* von ATi besser aus, denn das von nV. Auf meinen beiden TFTs jedoch (Beliniea 101555 und Acer AL1721) sieht die Glättung zwar je anders, aber nirgends besser oder schlechter aus.
Da ich nur eine 9500Pro und eine FX5800 habe, kann ich zu 4* keine Aussage machen.

Und zum AF: 1337 ist sowieso nur das HQ-Button im Treibermenü meiner FX5800 ;)

Tesseract
2004-12-20, 21:21:50
@Adahn:
würdest du sagen diese beiden bilder sind gleich scharf?

http://img57.exs.cx/img57/9537/2x9mx.th.png (http://img57.exs.cx/img57/9537/2x9mx.png)
http://img57.exs.cx/img57/5962/2xq5gc.th.png (http://img57.exs.cx/img57/5962/2xq5gc.png)

Gast
2004-12-20, 21:25:35
Wo bitteschön ist denn der 2xQ jetzt matschiger?? Wie gesagt früher war der Modus nicht zu gebrauchen, mittlerweile ist er eine echte (schnelle) Atlernative.


Früher war dwer Modus nicht zu gebrauchen, aber jetzt, wo man sich schon an schlechte BQ gewöhnt hat, ist er ne echte (schnelle) Alternative?
Mit so stark komprimierten JPGs kann man übrigens garnix beweisen.

mfg
Lolman

Das Auge
2004-12-20, 21:51:06
@Adahn: also primär seh ich da mal jede menge jpg artefakte

gibts das ganze als png?

sry, ich hab das ganze mit Hausmitteln gemacht, also Fraps (das in der unregistrierten Version leider nur 5MB große .bmp´s fabriziert) und dann per Paint (nicht hauen) als .jpg gespeichert. Ich schau mal das ichs besser hinkrieg ;)

Jup, mach mal bitte nochmal nen unkomprimierten Shot - und wenns nur ein Ausschnitt ist.
Und vor allem: fällt dir bei deiner Benennung was auf?

Das untere Bild sollte natürlich 4xAA heißen.

Btw.: die Image-Settings sind per Treiber auf high quality gestellt

Gast
2004-12-20, 21:59:21
Hier geht es um:
"ATI - Get off the Game" gegen "Nvidia - The Way it's meant to be benchmarked"
Martin

Ich kenne nur "ATI-Get IN the Game", aber vielleicht bin ich ja auch von vorgestern.

Lightning
2004-12-20, 22:05:51
Ich kenne nur "ATI-Get IN the Game", aber vielleicht bin ich ja auch von vorgestern.

Nein, du bist nicht von vorgestern, du hast lediglich den "Witz" übersehen. Der Spruch wurde absichtlich falsch geschrieben, ebenso wie der von nVidia. Ist zum einen imho ganz witzig, zum anderen steckt gleich etwas Kritik mit drin.

Das Auge
2004-12-20, 22:09:51
So, also hier nochmal ein Bildauschnitt als unkomprimiertes .bmp. Man sieht zwar in der Nahaufnahme schön, daß die Treppchenbildung bei 2xQAA nicht ganz so gut wie bei 4xAA ist, aber wenn man (wie im Normalfall) etwa einen 1/2 meter vom Bildschirm entfernt sitzt, fällt das echt nicht mehr auf.

Wie gesagt, matschig wird da eigentlich nix mehr:

2xQAA

http://img28.exs.cx/img28/1213/focut2xqaa1pn.png

4xAA

http://img28.exs.cx/img28/2488/focut4xaa7qh.png

Tesseract
2004-12-20, 22:14:18
thx

also ich sehe da sowohl eine deutliche unschärfe, als auch einen deutlichen quallitätsnachteil gegenüber 4xAA bzgl. der kanten.

wo der vorteil gegenüber dem normalen 2x sein soll ist mir noch immer ein rätsel

Gast
2004-12-20, 22:18:30
Warum hat der 4xAA png Shot jpg Artefakte?

Lightning
2004-12-20, 22:22:00
Warum hat der 4xAA png Shot jpg Artefakte?

Das hab ich mich auch gerade gefragt.
Man sieht zwar eindeutig, dass der 4xAA Shot die wesentlich besser geglätteten Kanten hat (wer das nicht sieht, der brauch imo auch kein AA), aber er ist auch qualitativ schlechter. Da kann man absolut nicht sagen, ob das schärfer sein soll, in dem Zustand ist er eher unscharf.

Das Auge
2004-12-20, 22:26:11
Es ist ein bmp, das mit Fraps geschossen wurde (steht auch oben irgendwo). Wenn ihr ne bessere Idee habt, dann seid doch so nett und sagt es mir ;)

Lightning
2004-12-20, 22:28:42
Es ist ein bmp, das mit Fraps geschossen wurde (steht auch oben irgendwo). Wenn ihr ne bessere Idee habt, dann seid doch so nett und sagt es mir ;)

Das seltsame ist ja, dass der eine Shot (der mit 2xQAA) die richtige Qualität aufweist. Kann es vielleicht sein, dass du den anderen Shot aus Versehen mal in jpg konvertiert hattest und dann wieder zurück nach png?

Tesseract
2004-12-20, 22:39:34
stimmt, der 4xAA shot ist der unschärfere. durch das schnelle hin- und herschalten ist mir das garnicht aufgefallen weil ich die texturschärfe unabhängig von den kanten verglichen hab - blöder fehler eigentlich :D
(bin davon ausgegagen das der unschärfere Q ist)

da ist definitiv was faul

Tesseract
2004-12-20, 22:45:29
Es ist ein bmp, das mit Fraps geschossen wurde (steht auch oben irgendwo). Wenn ihr ne bessere Idee habt, dann seid doch so nett und sagt es mir ;)

im spiel mit "druck" den screen in den ram; mit strg+V im bildbearbeitungsprogramm einfügen

Das Auge
2004-12-20, 22:51:45
Nein, ich habe die Bitmaps von Fraps genommen und versucht einen möglichst gleichen Bildausschnitt auszuschneiden. Um sicher zu gehen, hab ich mir die Mühe nochmal gemacht, hier:

http://img84.exs.cx/img84/6291/fo4xaasmaller8hc.png


aaargh, 1,2kb/s upload zu imageshack *schnorch*

@Tesseract

Den Qualitätsnachteil bzgl. AA streite ich ja nicht ab, nur fällt der eben im Spielealltag nicht auf. Jedenfalls kleb ich nicht mit der Nase 1cm vorm Monitor. Das mit der deutlichen Unschärfe kann ich daher nicht bestätigen, wenn die auch evtl vorhanden sein mag (nur wo???).

btw. deine Gothic2-Bildchen beweisen ja auch viel 1.) zockt in der Auflösung kein Mensch und 2.) sehen die Bilder beide so sche**e aus, daß man das vllt nicht unbedingt als BQ-Beispiel nehmen sollte und 3.) fehlen sämtliche Angaben zur verwendeten Hardware, Software usw.

Tesseract
2004-12-20, 23:01:48
Den Qualitätsnachteil bzgl. AA streite ich ja nicht ab, nur fällt der eben im Spielealltag nicht auf. Jedenfalls kleb ich nicht mit der Nase 1cm vorm Monitor. Das mit der deutlichen Unschärfe kann ich daher nicht bestätigen, wenn die auch evtl vorhanden sein mag (nur wo???).

aber den "vorteil" von 2x zu 2xQ siehst du schon? :|

die unschärfe sehe ich immer und überall, genauso wie den vorteil von 4x gegenüber 2x. in bewegung ist 2xQ imho noch viel schlimmer als am screenshot.


btw. deine Gothic2-Bildchen beweisen ja auch viel 1.) zockt in der Auflösung kein Mensch und 2.) sehen die Bilder beide so sche**e aus, daß man das vllt nicht unbedingt als BQ-Beispiel nehmen sollte und 3.) fehlen sämtliche Angaben zur verwendeten Hardware, Software usw.

1) es ist ein bildausschnitt, den ich vergrößert habe (pixel horizontal und vertikal verdoppelt - natürlich ohne interpolation)
2) was ändert das am vergleich? die relation bleibt erhalten.
3) 6800GT; gothic 2; 2xQ bzw. 2x; alles mit 8xAF; res war 1280*1024, was aber egal ist da ich sowieso nur einen ausschnitt davon genommen habe.

wenn ich heute noch zeit habe mach ich einen größeren vergleich

Das Auge
2004-12-20, 23:09:53
Jep, tu das, würde mich auch mal interessieren, vllt sind meine Augen ja schlechter geworden ;D

Ich hoffe mal das Imagespack nicht weiter rumzickt, jetzt hab ich den Ausschnitt gerade so hinbekommen, daß er 1015kb groß ist, und IS closed trotzdem die connection :mad:

Tesseract
2004-12-20, 23:33:41
http://img55.exs.cx/img55/9743/2x4x3mk.th.png (http://img55.exs.cx/img55/9743/2x4x3mk.png)http://img55.exs.cx/img55/5144/2x8x7vn.th.png (http://img55.exs.cx/img55/5144/2x8x7vn.png)http://img55.exs.cx/img55/3380/2xq8x4av.th.png (http://img55.exs.cx/img55/3380/2xq8x4av.png)

2xAA 4xAF | 2xAA 8xAF | 2xQAA 8xAF

was auffällt:

- am kabel (oben) sieht man, dass 2xQ keinen signifikanten vorteil gegenüber 2x bietet was farbzwischenstufen etc. angeht.
die zwischenstufen sind durch den bluranteil etwas heller - das könnte man ev. als leichten vorteil ansehen weil es farblich mehr in richtung ATIs gammakorrektur geht

- bei beiden 8xAF shots (#2 und #3) ist der 2xQ shot deutlich unschärfer

- vergleicht man 4xAA ohne Q mit 8xAA mit Q (#1 und #3) sieht man, dass 8xAF zwar in der entfernung besser filtert, jedoch ist die schärfe beim 4xAF shot bis ca. zum ersten zebrastreifen besser ist.

Das Auge
2004-12-20, 23:34:33
Auf ein paar Sachen muß ich jetzt doch noch eingehen:

aber den "vorteil" von 2x zu 2xQ siehst du schon?

Ja, einige Treppchen die man mit 2x sieht, sind mit 2xQ weg. Ob das jetzt an deiner beschworenen Unschärfe liegt weiß ich auch nicht, jedenfalls sind die Kanten von meiner Wahrnehmung aus eben weg ohne daß es jetzt wahnsinnig unscharf wird.

die unschärfe sehe ich immer und überall, genauso wie den vorteil von 4x gegenüber 2x. in bewegung ist 2xQ imho noch viel schlimmer als am screenshot.

Komisch, ich eben nicht. Gut, damals als der 2xQ-Modus neu war hab ich das auch gesehen (war ja auch wirklich nicht zu übersehen) aber mittlerweile hat sich der gemausert. imho.

2) was ändert das am vergleich? die relation bleibt erhalten.

Stimmt zwar, aber das ist eben wieder wie mit der Lupe den Bildschirm abzusuchen. Ich gehe eigentlich von der real-Situation aus, also so wie das Bild in voller Auflösung aus ca. einem 1/2m vorm Monitor ausschaut. Alles andere ist doch theoretisches Geplänkel.

3) 6800GT; gothic 2; 2xQ bzw. 2x; alles mit 8xAF; res war 1280*1024, was aber egal ist da ich sowieso nur einen ausschnitt davon genommen habe.

s.o..

Das Auge
2004-12-20, 23:39:29
Hmmh, netter Vergleich, gut gemacht :up:

Welche Auflösung war das denn? 1280x1024?

Tesseract
2004-12-20, 23:42:55
Welche Auflösung war das denn? 1280x1024?

ja, vor der "beschneidung" schon. hab versucht alles wichtige im bild zu lassen ohne dass es zu groß für imageshack wird.

pixel sind diesmal 1:1, also originale dpi

Das Auge
2004-12-20, 23:57:06
Na gut, in Sachen unschärfe hast du mich überzeugt, allerdings kann das in älteren Spielen mit häßlichen Texturen ja auch ein Vorteil sein :uup:

Bei der Treppenglättung finde ich den 2xQ in 1600x1200 aber immer noch etwas besser als den reinen 2x-Modus, also bleibt er weiterhin eine Alternative bei Spielen mit nicht so hochaufgelösten Texturen, die 4xAA zu sehr bremst (D3 z.B., da ist es eh so dunkel ;D).

Und obwohl du mit deiner Argumentation vollkommen recht hast :uking:, muß ich doch drüber lachen, daß ich seit ca. 1x Monat mit dem 2xQ-Modus zocke und absolut zufrieden war. Oder anders gesagt: Scheiß auf die Grafik, Hauptsache die Spiele sind gut und machen Laune, vllt hab ichs ja deswegen nicht gemerkt :uconf:

Wobei man auch sagen muß, daß der Unterschied so riesig nun auch nicht mehr ist, im Gegensatz zu den Quindings-Anfangzeiten...

Coda
2004-12-21, 00:00:38
allerdings kann das in älteren Spielen mit häßlichen Texturen ja auch ein Vorteil sein
Nein. Blur verschlechtert generell das Bild, weil es Informationen wegrechnet und nicht dazu.
Selbst blurrige Texturen werden dadurch noch schlechter. Also ich halte den Modus für große Verarsche.

Tesseract
2004-12-21, 00:11:05
Bei der Treppenglättung finde ich den 2xQ in 1600x1200 aber immer noch etwas besser als den reinen 2x-Modus

was hast du für einen monitor? vielleicht ist es ein teil, dass besonders von hellen farbzwischenstufen profitiert.

ist diese glättung wesentlich besser...
http://img86.exs.cx/img86/8517/mitg0jg.png

als diese da?
http://img86.exs.cx/img86/9414/ohneg9uy.png

Gast
2004-12-21, 00:20:54
Nein, du bist nicht von vorgestern, du hast lediglich den "Witz" übersehen. Der Spruch wurde absichtlich falsch geschrieben, ebenso wie der von nVidia. Ist zum einen imho ganz witzig, zum anderen steckt gleich etwas Kritik mit drin.

Hm, stimmt. Bin daher wohl doch von vorgestern :(

tombman
2004-12-21, 01:01:56
was hast du für einen monitor? vielleicht ist es ein teil, dass besonders von hellen farbzwischenstufen profitiert.

ist diese glättung wesentlich besser...
http://img86.exs.cx/img86/8517/mitg0jg.png

als diese da?
http://img86.exs.cx/img86/9414/ohneg9uy.png

also rein vom ansehen würde ich sagen; Ja.

san.salvador
2004-12-21, 01:19:58
Hätte ich jetzt auch gesagt.

aths
2004-12-21, 02:27:03
Wie gesagt, matschig wird da eigentlich nix mehr:Weil der Bluranteil offenbar nicht in den Screenshot gelangte, dort sieht man nur reines 2x RGMSAA.

Spasstiger
2004-12-21, 14:45:59
was hast du für einen monitor? vielleicht ist es ein teil, dass besonders von hellen farbzwischenstufen profitiert.

ist diese glättung wesentlich besser...
http://img86.exs.cx/img86/8517/mitg0jg.png

als diese da?
http://img86.exs.cx/img86/9414/ohneg9uy.png

Die Glättung im oberen Bild ist auf jeden Fall deutlich besser.

MechWOLLIer
2004-12-21, 14:53:38
Der obere Screenshot sollte 4xAA sein und der untere 2xAA, falls ich mich jetzt nicht komplett verguckt habe(passiert öfters:D)
Ist nur die Frage: QC, oder nicht?

Das Auge
2004-12-21, 16:38:53
was hast du für einen monitor? vielleicht ist es ein teil, dass besonders von hellen farbzwischenstufen profitiert.

ka, es ist ein Belinea 108080 21"-CRT, der zwar mittlerweile 3 Jahre auf dem Buckel hat, aber (z.B. vom Windows-Desktop ausgehend) immer noch ein scharfes Bild liefert, also noch keine Altersunschärfe aufweist.

Ach ja, das obere Bild ist wesentlich besser...

MadManniMan
2004-12-21, 18:39:51
Nun, hier an meinem Belinea 101555 (15"TFT) sehen die 4*RGMS Verfahren von ATi und nV zwar je anders aus, aber besser ist keine von beiden.

Die Gamma-veränderung seit ATis R300 ist eben auf CRTs optimiert.

Tesseract
2004-12-21, 20:51:21
Der obere Screenshot sollte 4xAA sein und der untere 2xAA, falls ich mich jetzt nicht komplett verguckt habe

du hast dich ziemlich verguckt. das obere ist 4xRG gammakorrigiert und das untere reines 4xRG.
d.h. der obere sollte, bis auf die gespiegelte maske, dem von ati entsprechen.

MechWOLLIer
2004-12-21, 20:55:20
du hast dich ziemlich verguckt. das obere ist 4xRG gammakorrigiert und das untere reines 4xRG.
d.h. der obere sollte, bis auf die gespiegelte maske, dem von ati entsprechen.
Oha, das hätte ich jetzt aber nicht gedacht.
Allerdings isind beim gammakorrigiertem Bild imo die Kanten deutlich besser geglättet, was ja eigentlich nicht hätte sein dürfen.

Tesseract
2004-12-21, 20:57:44
Oha, das hätte ich jetzt aber nicht gedacht.
Allerdings isind beim gammakorrigiertem Bild imo die Kanten deutlich besser geglättet, was ja eigentlich nicht hätte sein dürfen.

schau dir mal die anzahl der farbzwischenstufen an. 2xRG ist da nochmal DEUTLICH schlechter.

man muss aber dazusagen das dies die so ziemlich extremste situation ist, die es für gammakorrektur gibt. (fast schwarz auf grau) es gibt auch welche, da dreht sich das szenario genau um.

Xmas
2004-12-21, 21:40:35
Oha, das hätte ich jetzt aber nicht gedacht.
Allerdings isind beim gammakorrigiertem Bild imo die Kanten deutlich besser geglättet, was ja eigentlich nicht hätte sein dürfen.
Wieso hätte das nicht sein dürfen?

Übrigens, auf meinem Samsung 181T ist das obere Bild bis zu einem im CP eingestellten Gamma-Wert von 1,2 besser (Standard-2D-Einstellung: 0,88), auf dem Notebook-Display bis 1,35 (Standard: 1,0). Darüber schadet die Gamma-Anpassung mehr als sie nutzt.

Grestorn
2004-12-22, 07:09:01
Wieso hätte das nicht sein dürfen?

Übrigens, auf meinem Samsung 181T ist das obere Bild bis zu einem im CP eingestellten Gamma-Wert von 1,2 besser (Standard-2D-Einstellung: 0,88), auf dem Notebook-Display bis 1,35 (Standard: 1,0). Darüber schadet die Gamma-Anpassung mehr als sie nutzt.Die Gamma-Korrektur kann doch nur die Farbverteilung der Zwischenstufen beeinflussen, nicht die Zahl der Zwischenstufen selbst.

Ich kann deshalb nicht glauben, dass der einzige Unterschied zwischen den beiden Shots die Gamma-Korrektur ist.

jagger
2004-12-22, 07:16:58
Also ich bin auch von ATI9700 Pro auf NV6800 GT umgestiegen und was mir als erstes aufgefallen ist die brillianteren, helleren Texturen der NV gegenüber der ATI. Mir gefällt die Quali der NV besser.

Radeonator
2004-12-22, 08:58:59
Also ich bin auch von ATI9700 Pro auf NV6800 GT umgestiegen und was mir als erstes aufgefallen ist die brillianteren, helleren Texturen der NV gegenüber der ATI. Mir gefällt die Quali der NV besser.

Dito hier! Allerdings hatte ich eine 9800SE im Einsatz und zum Vergleich vorher noch eine 9500Pro.
Vor allem 2D hat sich seit der FX sehr viel getan. Vorher hatte ATi immer ein um längen besseres Bild im 2D Bereich, jetzt sind Sie in etwa gleichwertig aber einen Tick besser sehe ich da nV, das Bild wirkt wirklich deutlicher und kräftiger!Bitte keinen Flamwar ist ein Subjektiver wenn auch mehrfach deutlich sichtbarer und bestätiger Eindruck ;)

(Habe mit gleichen Monitor und Grundeinstellungen Verglichen, also ohne DV womit es natürlich nochmal besser ausschaut :cool: !)

r@h
2004-12-22, 09:17:24
Die 2D-Quali ist vom Hersteller abhängig, nicht vom IHV.
Ist nun wirklich kein Geheimnis...

Razor

Gast
2004-12-22, 10:37:12
ein CRT ist da wohl kaum repräsentativ.

schliesse beide karten an TFTs an und probier das nochmal..

Mr. Lolman
2004-12-22, 12:15:52
Die Gamma-Korrektur kann doch nur die Farbverteilung der Zwischenstufen beeinflussen, nicht die Zahl der Zwischenstufen selbst.

Ich kann deshalb nicht glauben, dass der einzige Unterschied zwischen den beiden Shots die Gamma-Korrektur ist.


Sind eh gleich viel Zwischenstufen. zähl nochmal nach... :|

MechWOLLIer
2004-12-22, 16:31:21
Wieso hätte das nicht sein dürfen?

Oh, sorry, ich habe mich etwas verguckt.
Das gammakorrigierte AA sieht in dem Shot wirklich drastisch anders aus und ich habe mich deswegen schon bei den Stufen verzählt, deshalb bin ich von 2xAA ausgegangen.
Hätte nicht gedacht, dass das soviel Unterschied macht.

hmx
2004-12-22, 16:39:28
ein CRT ist da wohl kaum repräsentativ.

schliesse beide karten an TFTs an und probier das nochmal..

Also am DVI Eingang dürfte kaum ein Unterschied vorhanden sein, dank digitaler Übertragung.
Ich wüsste nicht was am TFT wo doch jedes Pixel Digital übertragen wird unscharf werden sollte.
Die Signalqualität ist doch eher ein Kriterium für die Analogausgänge.

r@h
2004-12-22, 18:53:57
Sind eh gleich viel Zwischenstufen. zähl nochmal nach... :|Nein, nicht auf dem Beipsiel von tesseract.
Der obere Shot zeit 3 "Zwischenstufen", der untere hingegen nur derer 2.

Razor

r@h
2004-12-22, 18:58:45
Und nein, mit Gammakorrektur hat das rein gar nichts zu tun... das soll nur dafür sorgen, dass die Helligkeit der Zwischenstufen 'nachjustiert' wird, was aber spätestens dann schief geht, wenn man als Nutzer den Default-Gamma verändert und die Gamma-Korrektur der Radeons darauf nicht reagiert, bzw. nicht reagieren kann. Wenn man dann noch den zu dunklen Default-Gamma der Catalysts in Betracht zieht, macht's das Fature schon fast unbrauchbar...

Razor

MechWOLLIer
2004-12-22, 19:04:41
Nein, nicht auf dem Beipsiel von tesseract.
Der obere Shot zeit 3 "Zwischenstufen", der untere hingegen nur derer 2.
Razor
Ich habe beide Shots mal vergrößert und beide haben definitiv 3 Zwischenstufen, wie es für 4xAA auch so sein sollte.

Falls das wirklich an das wirklich an der Gammakorrektur liegt, was wäre dann ein Negativbeispiel dafür?

TobiWahnKenobi
2004-12-22, 19:09:45
Also am DVI Eingang dürfte kaum ein Unterschied vorhanden sein, dank digitaler Übertragung.
Ich wüsste nicht was am TFT wo doch jedes Pixel Digital übertragen wird unscharf werden sollte.
Die Signalqualität ist doch eher ein Kriterium für die Analogausgänge.

da hast du natürlich recht. aber mein linkes TFT (DVI) ist eine gute referenz für mein rechtes TFT (dsub) --> da würden mir unterschiedlich gute oder schlechte 2D bildqualitäten ganz sicher schneller auffallen, als jedem anderen.

das bild bleibt aber selbst im span-betrieb homogen. mag aber auch an den displays oder der graka liegen; es ist ja bisher immer so gewesen, dass vollpreis-karten die bessere bildqualität gegenüber den preisoptimierten modellen zu bieten hatten.

greets
tobi

r@h
2004-12-22, 19:26:54
Ich habe beide Shots mal vergrößert und beide haben definitiv 3 Zwischenstufen, wie es für 4xAA auch so sein sollte.Auch ich habe sie vergrößert...
Vor einer Gammakorrektur erkenne ich hier allerdings nichts...

mitg0jg.png (definitiv 3 "Zwischenstufen")
http://mitglied.lycos.de/razor3dc/hl2/mitg0jg_1600.png (http://mitglied.lycos.de/razor3dc/hl2/mitg0jg.png)

ohneg9uy.png (und ebenso definitiv 2 "Zwischenstufen")
http://mitglied.lycos.de/razor3dc/hl2/ohneg9uy_1600.png (http://mitglied.lycos.de/razor3dc/hl2/ohneg9uy.png)

Falls das wirklich an das wirklich an der Gammakorrektur liegt, was wäre dann ein Negativbeispiel dafür?Wie jetzt?
:confused:

Razor

MechWOLLIer
2004-12-22, 19:32:40
Entweder gucke ich falsch, oder ich bin zu blöd, oder was weiß ich.... auf beiden vergrößerten Bildern gibt es doch drei Zwischenstufen:D

Die Frage habe ich auf einen vorherigen Post bezogen, in dem gesaht wurde, dass dies der optimalste Fall für eine Gammakorrektur wäre.

hmx
2004-12-22, 19:34:13
Also beim 2. Bild erkenne ich auch zwei zwischenstufen.

MechWOLLIer
2004-12-22, 19:39:56
Ich zweifle langsam an meiner Intelligenz......
Ich habe jetzt mal den zweiten Shot genommen und dort mal eingezeichnet, was ich mit Zwischenstufen meine. Vielleicht könnt ihr mir dann besser sagen, wo ich da falsch gucke.
http://www.mechwollier.de/3dc/aa1.PNG

Mr. Lolman
2004-12-22, 19:52:04
Ich zweifle langsam an meiner Intelligenz......
Ich habe jetzt mal den zweiten Shot genommen und dort mal eingezeichnet, was ich mit Zwischenstufen meine. Vielleicht könnt ihr mir dann besser sagen, wo ich da falsch gucke.

LOL, da haben wohl einige einen schlecht eingestellten Monitor :D *wink@razor*

hmx
2004-12-22, 19:55:22
Hehe. Das erinnert mich irgendwie an "stellen sie ihren Monitor so ein, dass sie gerade noch 3 Zwischenstufen erkennen können" :D

r@h
2004-12-22, 20:10:03
Ich zweifle langsam an meiner Intelligenz......
Ich habe jetzt mal den zweiten Shot genommen und dort mal eingezeichnet, was ich mit Zwischenstufen meine. Vielleicht könnt ihr mir dann besser sagen, wo ich da falsch gucke.
http://www.mechwollier.de/3dc/aa1.PNGSchwarz ist keine Zwischenstufe, mann...
:D

OK, ist kein schwarz... nur 'fast'.
RGB 39/39/39 statt 1/1/1...

Hast aber ganz hervorragende Augen, mechi!

Ich musste mir das Ganze mit einer 48-fachen Vergrößerung anschaun', damit ich den Unterschied zwischen schwarz und 'fast' schwarz ausmachen konnte. Nur wundert mich halt, dass bei 4xRGMS auf der 6800 die 3 Zwischenstufen auch ohne Gammakorrektur auszumachen sind... hmmm...

Da wär doch mal ein Save-Game interessant, um dies an Tesseracts Beispiel nachzuvollziehen zu können.

Razor

MechWOLLIer
2004-12-22, 20:16:01
Hast aber ganz hervorragende Augen, mechi!
Ich musste mir das Ganze mit einer 48-fachen Vergrößerung anschaun', damit ich den Unterschied zwischen schwarz und 'fast' schwarz ausmachen konnte. Nur wundert mich halt, dass bei 4xRGMS auf der 6800 die 3 Zwischenstufen auch ohne Gammakorrektur auszumachen sind... hmmm...
Da wär doch mal ein Save-Game interessant, um dies an Tesseracts Beispiel nachzuvollziehen zu können.
Razor
Puh, und ich dachte schon, ich werd bescheuert:D
Naja, wenn du meine Brillenstärke kennen würdest, würdest du das mit den Augen schnell wieder zurücknehmen^^

Also ich konnte das "fast schwarz" bereits in der Größe des Bildes erkennen, dass du geposted hast. Vielleicht liegt es auch am Monitor, bzw. Gammaeinstellung.

Warum sollten die 3 Zwischenstufen ohne Gammakorrektur nicht mehr sichtbar sein? Nur die Farbe ändert sich doch.

r@h
2004-12-22, 20:16:42
LOL, da haben wohl einige einen schlecht eingestellten Monitor :D *wink@razor*Nö... der Moni tut genauso, wie er soll.
Ist halt kein TFT...
;)

Stell ich den übrigens auf 'kalt' (mit voll aufgedrehtem Kontrast ;-) kann man es schon eher erkennen, nur sollten Leute mit einer solchen Einstellung lieber ganz schnell zum Augenarzt!
:D

Razor

Mr. Lolman
2004-12-22, 20:20:55
Schwarz ist keine Zwischenstufe, mann...
:D

OK, ist kein schwarz... nur 'fast'.
RGB 39/39/39 statt 1/1/1...

Mann, das ist schon 25% Helligkeit. Praktisch 1/4 des ganzen Helligkeitspektrums entgeht dir, lieber razor.

Black-Scorpion
2004-12-22, 20:22:08
Nö... der Moni tut genauso, wie er soll.
Ist halt kein TFT...
;)

Stell ich den übrigens auf 'kalt' (mit voll aufgedrehtem Kontrast ;-) kann man es schon eher erkennen, nur sollten Leute mit einer solchen Einstellung lieber ganz schnell zum Augenarzt!
:D

Razor
Bist du dir sicher das dein Monitor richtig eingestellt ist?
Denn die Abstufung erkenne ich sogar ohne Brille.

r@h
2004-12-22, 20:37:03
Warum sollten die 3 Zwischenstufen ohne Gammakorrektur nicht mehr sichtbar sein? Nur die Farbe ändert sich doch.Das ist ja der 'Trick' an der Sache... ;)
So hatte die Gammakorrektur bei Tesseract wohl folgende Wirkung:

ohne mit

Ausgang: 001/001/001 001/001/001 (schwarz)
Stufe 1: 039/039/039 080/081/080
Stufe 2: 078/079/078 112/113/112
Stufe 3: 117/118/117 136/138/136
Ziel: 148/153/155 148/153/155 ('himmel')Wie man also gut sehen kann, hat die Gammakorrektur quasi die erste Stufe eliminiert (weil zu 'dunkel' ;-) und oben dann wieder eine neue eingefügt.

Das Problem mit der Gammakorrektur ist jetzt nur, dass wenn der Default-Gamma nun verändert wird, dann bleibt 'schwarz' noch immer 'schwarz', das Ziel (der Himmel also) wird aber heller oder dunkler, nur ändert das an der Gammakorrektur nichts. Im besten Fall verschwindet nur wieder eine Stufe (nur diesmal 'oben' ;-), im schlechtesten Fall ist der Himmel dann dunkler, als die 3. Stufe und das sieht sogar regelrecht unschön aus...

Aber gottlob ist ja eine Verringerung des Gamma bei den Radeons eher selten vonnöten...
:D

Razor

r@h
2004-12-22, 20:44:25
Mann, das ist schon 25% Helligkeit. Praktisch 1/4 des ganzen Helligkeitspektrums entgeht dir, lieber razor.Sind nur 15% und damit ein sechseinhalbtel...
:D

Und... in der original-Auflösung (also 1600x1200) überhaupt nicht zu erkennen... auch nicht auf einem TFT.

Bist du dir sicher das dein Monitor richtig eingestellt ist?
Denn die Abstufung erkenne ich sogar ohne Brille.Also mit 'ner Brille hat das schon mal gar nichts zu tun... und... ich war ja nicht einmal der einzige.
Was lernen wir also daraus?

Einige leben hier eindeutig mit einem übersteuertem Ausgabegerät (vermutlich die Radeon-Nutzer ;-). Denn schließlich ist ja selbst die Gammakorrektur 'intelligent' genug, die erste (zu 'dunkle') Stufe zu verwerfen, was ja dann wohl (von ALLEN bestätigt!) in einer sehr viel besseren Optik resultierte...

Selbst auf Deinem Ausgabeteil und dem von Lolman...
;D

Aber vermutlich werdet Ihr mir gleich gerzählen, dass die Gammakorrektur ja gar nicht notwendig sei, weil Ihr ja auch 'ohne' schon glatte Kanten wahr genommen habt, gell? Also echt...

Razor

Xmas
2004-12-22, 20:48:55
Und nein, mit Gammakorrektur hat das rein gar nichts zu tun... das soll nur dafür sorgen, dass die Helligkeit der Zwischenstufen 'nachjustiert' wird, was aber spätestens dann schief geht, wenn man als Nutzer den Default-Gamma verändert und die Gamma-Korrektur der Radeons darauf nicht reagiert, bzw. nicht reagieren kann. Wenn man dann noch den zu dunklen Default-Gamma der Catalysts in Betracht zieht, macht's das Fature schon fast unbrauchbar...

Razor
Ach, was soll man davon halten? Selbst den Monitor völlig falsch eingestellt, aber dann über "den zu dunklen Default-Gamma der Catalysts" lästern - auch noch zu unrecht, denn Default-Gamma ist bei allen Grafikkarten 1,0. Vielleicht meinst du auch was anderes...

Um keinen Unterschied mehr zwischen den beiden Zwischenstufen zu sehen, muss ich auf Gamma 0,5 runterregeln. Wer hier wohl mal zum Augenarzt sollte...

Mike
2004-12-22, 21:03:01
:D
Also ich habe den Unterschied erst auch nicht gesehen, aber mit ein bisschen mehr Helligkeit des TFTs gings dann :)

Ich betribe aber meine Monitore generell mit wenig Helligkeit, da mir sonst weiß ziemlich grell ist und das meinen Augen auf dauer nicht gefällt :|

Mr. Lolman
2004-12-22, 21:14:06
Sind nur 15% und damit ein sechseinhalbtel...
:D

Wie auch immer :redface:


Und... in der original-Auflösung (also 1600x1200) überhaupt nicht zu erkennen... auch nicht auf einem TFT.

Bei mir sind kleine Pixel (in 1280x1024) erst ab 10% Helligkeit nicht mehr erkennbar Und der Unterschied bei Vergrößerung sollte zumindest über 5% Helligkeit sein, damits leicht unterscheidbar ist.
Einige leben hier eindeutig mit einem übersteuertem Ausgabegerät (vermutlich die Radeon-Nutzer ;-). Denn schließlich ist ja selbst die Gammakorrektur 'intelligent' genug, die erste (zu 'dunkle') Stufe zu verwerfen, was ja dann wohl (von ALLEN bestätigt!) in einer sehr viel besseren Optik resultierte...

Wie kommst du auf übersteuert. Weiss ist weiss und schwarz ist schwarz. Anscheinend gibts bei den Radeonnutzern nur mehr Zwischenstufen, (wenn du das echt auf einen IHV Fight reduzieren willst. Imo liegts wirklich an deinem Ausgabegerät (ohne dir ne Sehschwäche attestieren zu wollen=


Aber vermutlich werdet Ihr mir gleich gerzählen, dass die Gammakorrektur ja gar nicht notwendig sei, weil Ihr ja auch 'ohne' schon glatte Kanten wahr genommen habt, gell? Also echt...

Hä? Ich frag mich was du uns erzählen willst. Der obere Shot hat gammakorrigiertes (=ATI) AA und ist besser. Der untere Shot hat kein gammakorrigiertes AA (=NV) und wirkt qualitativ schlechter. Und die Gammakorrektur wirft auch keine zu dunklen Zwischenstufen weg, und fügt irgendwo neue dazu, sondern hellt generell alle Zwischenstufen auf (was allerdings auch nur bis zu einem bestimmten Gammawert sinnvoll ist)

BTW: Weisst du schon warum du das 8xS optisch besser findest als 16xSS? :P

Xmas
2004-12-22, 21:18:23
Wie man also gut sehen kann, hat die Gammakorrektur quasi die erste Stufe eliminiert (weil zu 'dunkel' ;-) und oben dann wieder eine neue eingefügt.

Das Problem mit der Gammakorrektur ist jetzt nur, dass wenn der Default-Gamma nun verändert wird, dann bleibt 'schwarz' noch immer 'schwarz', das Ziel (der Himmel also) wird aber heller oder dunkler, nur ändert das an der Gammakorrektur nichts. Im besten Fall verschwindet nur wieder eine Stufe (nur diesmal 'oben' ;-), im schlechtesten Fall ist der Himmel dann dunkler, als die 3. Stufe und das sieht sogar regelrecht unschön aus...

Aber gottlob ist ja eine Verringerung des Gamma bei den Radeons eher selten vonnöten...
:D
Wenn du dich doch bitte mal informieren würdest statt deine falschen Vorstellungen als Fakt hinzustellen, wäre damit den Leuten in diesem Forum eher gedient.

Black-Scorpion
2004-12-22, 21:19:29
Also mit 'ner Brille hat das schon mal gar nichts zu tun... und... ich war ja nicht einmal der einzige.
Was lernen wir also daraus?

Einige leben hier eindeutig mit einem übersteuertem Ausgabegerät (vermutlich die Radeon-Nutzer ;-). Denn schließlich ist ja selbst die Gammakorrektur 'intelligent' genug, die erste (zu 'dunkle') Stufe zu verwerfen, was ja dann wohl (von ALLEN bestätigt!) in einer sehr viel besseren Optik resultierte...

Selbst auf Deinem Ausgabeteil und dem von Lolman...
;D

Razor
Testbilder zum einstellen des Monitors gibt es bestimmt nicht aus langeweile.
Und wenn du es nicht schaffst deinen Monitor richtig einzustellen, dann ist das dein Problem und nicht meins.
Und deinen Seitenhieb kannst du dir auch sparen.

Radeonator
2004-12-22, 21:45:29
ein CRT ist da wohl kaum repräsentativ.

schliesse beide karten an TFTs an und probier das nochmal..

lol? Ich glaub der smiley wurde vergessen, oder???
Digital ist egal ;) , da ist sogar das Bild von Onboard müll egal...

Den Unterschied sieht man über Analog!

Gast
2004-12-23, 06:08:22
Ach, was soll man davon halten? Selbst den Monitor völlig falsch eingestellt, aber dann über "den zu dunklen Default-Gamma der Catalysts" lästern - auch noch zu unrecht, denn Default-Gamma ist bei allen Grafikkarten 1,0. Vielleicht meinst du auch was anderes...Dass der Default-Gamma (das ist das, was man als einen Gamma vom 1.0 bezeichnet) bei den Radeons grundsätzlich (bei nVidia ebenfalls mit diversen Treibern!) zu dunkel ist, ist kein Geheimnis oder nun eine 'besondere' Feststellung von mir... ich hab's halt nur nochmal erwähnt.

Und nein, mein Moni ist NICHT falsch eingestellt.

Um keinen Unterschied mehr zwischen den beiden Zwischenstufen zu sehen, muss ich auf Gamma 0,5 runterregeln. Wer hier wohl mal zum Augenarzt sollte...Darf ich mal fragen, was für eine Ausgabe-Einheit Du benutzt?
Es ein Unterschied, ob man einen CRT oder einen Kontrastreichen bzw. lichtstarken TFT (ab 400:1) benutzt.

Zum Augenarzt müssten nur diejenigen, mit einem entsprechend eingestellten CRT.
(oder ebenso falsch eingestellten, lichtschwächeren TFT ;-)

Wenn du dich doch bitte mal informieren würdest statt deine falschen Vorstellungen als Fakt hinzustellen, wäre damit den Leuten in diesem Forum eher gedient.Schau' Dir die Werte an (das ist das, was Du nicht mit gequotet hast) und erzähl mir dann, wie die Gammakorrektur (in diesem Fall) sonst arbeiten sollte. Dass ich keinen Magister in Grafik-Design habe, sollte Dir hinlänglichst bekannt sein. Ich beobachte und berichte... nicht mehr und auch nicht weniger.

Und damit auch Du das nicht ausser acht läßt: ich habe hier derzeit sowohl eine R9800p, also auch eine 6800LE (wenn ich will auch noch einen Satz anderer Karten) hier rum liegen. Und da ich durchweg auch mit Bildschirm-Justierungs-Programmen umgehen kann, darf ich wohl davon ausgehen, dass das so richtig eingestellt ist, wie ich es tat. Und ja, meine Augen sind OK... mit Brille sogar besser, als die mancher 'sehenden'... ;)

Nur: der Default-Gamma (also nochmal: das, was ATI unter Gamma 1.0 'versteht') ist auf den Radeons grundsätzlich (also IMMER, nicht nur manchmal wie bei nVidia) zu dunkel. Deswegen 'sagt' auch das Proggi, dass der Bildschirm (wahlweise auch der parallel angeschlossene TFT ;-) etwas heller eingestellt werden müsste. Meine Kalibrierungskarte (eine Matrox Millenium II ;-) zeigt deutlich, dass die Grundeinstellung von nVidia (also mit den Treibern 67.02/67.03/71.20 z.Bsp.) hier richtig liegt. Insofern die unterschiedliche Wahrnehmung durchaus auf unterschiedliche Einstellungen der Ausgabeeinheiten zurück zu führen sein dürfte.

Razor

P.S.: ohne Kolorimeter versteht sowieso jeder etwas anderes unter einer "richtigen" Einstellung... insofern es auch durchaus ratsam sein kann, sein eigenes Empfinden mit einem solchen Tool abzustimmen... manche hier wären sicher erstaunt... :)

r@h
2004-12-23, 06:22:06
Wie auch immer :redface:

Bei mir sind kleine Pixel (in 1280x1024) erst ab 10% Helligkeit nicht mehr erkennbar Und der Unterschied bei Vergrößerung sollte zumindest über 5% Helligkeit sein, damits leicht unterscheidbar ist. Und Du meinst, dass eine Helligkeit von 10% bei 1280 mit einer Helligkeit von 15% bei 1600 und Detailstufen gleicher Auflösung (hier wohl 1600x1200 mit 16-facher Vergrößerung) nicht vergleichbar wäre?
:confused:

Wie kommst du auf übersteuert. Weiss ist weiss und schwarz ist schwarz. Anscheinend gibts bei den Radeonnutzern nur mehr Zwischenstufen, (wenn du das echt auf einen IHV Fight reduzieren willst. Imo liegts wirklich an deinem Ausgabegerät (ohne dir ne Sehschwäche attestieren zu wollen=Eher nicht...
Siehe auch mein Kommentar zu Xmas Posts.

Hä? Ich frag mich was du uns erzählen willst. Der obere Shot hat gammakorrigiertes (=ATI) AA und ist besser. Der untere Shot hat kein gammakorrigiertes AA (=NV) und wirkt qualitativ schlechter. Das hatte ich jetzt anders verstanden...
Aber um dies selber verifizieren zu können, wäre ich noch immer für ein Save-Game dieser Stelle dankbar.

Und die Gammakorrektur wirft auch keine zu dunklen Zwischenstufen weg, und fügt irgendwo neue dazu, sondern hellt generell alle Zwischenstufen auf (was allerdings auch nur bis zu einem bestimmten Gammawert sinnvoll ist) Was meinst Du eigentlich, warum ich die RGB-Werte mitgepostet habe...
Fällt Dir Da etwas auf?

Razor

MadManniMan
2004-12-23, 07:06:17
Warum gehst du nicht auf Xmas Post und Aussage direkt ein, anstatt wie so oft vom Thema abzulenken?
Fällt es dir sooo schwer, selbstkritisch zu sein? Fehler einzugestehen? Du hattest das Prinzip der Gammaanpassung fehlinterpretiert, wo ist das Problem?

r@h
2004-12-23, 07:20:25
Warum gehst du nicht auf Xmas Post und Aussage direkt ein, anstatt wie so oft vom Thema abzulenken?
Fällt es dir sooo schwer, selbstkritisch zu sein? Fehler einzugestehen? Du hattest das Prinzip der Gammaanpassung fehlinterpretiert, wo ist das Problem?Ich bin direkt auf seinen Post eingegangen... soweit dies möglich war, denn er hat ja offenbar die von mir 'gemessenen' Werte ignoriert und ist auch nicht darauf eingegangen. Wie hätte ich denn sonst auf dieser Basis reagieren sollen?

Und nein, ich werde jetzt ganz sicher nicht irgendetwas 'studieren', um Xmas zu gefallen.
Klar könnte ich jedes mal dazu schreiben "sieht aus wie" oder "stellt sich mir dar wie", aber das Thema hatte ich schon zur Genüge und ich bin zu dem Fazit gekommen, dass ich weiterhin so schreibe, wie mir der Schnabel gewachsen ist... auch wenn das einigen hier zu 'unpräzise' erscheint.

Wer damit nicht klar kommt, hat eben Pech gehabt.
So einfach ist das...

Razor

P.S.: hast Du Dir schon mal die RGB-Werte angeschaut?
Ist wirklich interessant, wie die Gammakorrektur die Zwischenstufen in den optisch wahnehmbareren Bereich 'verschiebt'...
;)

MadManniMan
2004-12-23, 07:22:55
Razorl, Xmas gings doch einfach nur darum, daß dir bewußt werden soll, daß die Gammagedöhnsung einfach die Zwischenstufen heller macht - und nicht irgendwas "erzeugt".

Dir will doch keiner was Böses :)

pock
2004-12-23, 10:39:21
....ohne euren Disput unterbrechen zu wollen, was meint die Fachwelt eigentlich zu Ati's temporal AA ?? Ein Kumpel von mir schwärmt mir ständig davon vor und subjektiv gesehen ist die BQ auch wirklich gut. Aber wie schauts mit aktuellen, hardwarefressenden Games aus bei denen die fps unter die Bildwiederholfrequenz des Monis sinken??
Erstaunlicherweise wird temporal FSAA (auch in diesem Forum) kaum besprochen.

pock

Labberlippe
2004-12-23, 11:07:29
Dass der Default-Gamma (das ist das, was man als einen Gamma vom 1.0 bezeichnet) bei den Radeons grundsätzlich (bei nVidia ebenfalls mit diversen Treibern!) zu dunkel ist, ist kein Geheimnis oder nun eine 'besondere' Feststellung von mir... ich hab's halt nur nochmal erwähnt.

Und nein, mein Moni ist NICHT falsch eingestellt.
Das Problem liegt hier aber meisten eher am Monitor, als an der Graka.
Gerade wenn die Monitore nicht richtige erkannt werden, warum?
Ausnahmsweise muss ich mal Schulterzucken.

In der Praxis hat das so ausgesehen.

Siemens 17" Kein Problem mit der Gama Bild, ok
Philips 19" Kein Problem mit der Gama Bild, ok.
Macom 17" Monitor im Desktop Betrieb Bild ok, aber sobald ne 3D Anwendungen gestartet wurde, dann war das Bild bei weiten zu Dunkel.

Ich habe dann ne andere inf geladen, Feineinstellungen am Monitor gemacht und schwupss ging wieder.


Darf ich mal fragen, was für eine Ausgabe-Einheit Du benutzt?
Es ein Unterschied, ob man einen CRT oder einen Kontrastreichen bzw. lichtstarken TFT (ab 400:1) benutzt.
Leg Dich bei einen TFT nicht nur am Kontrastverhältniss fest.
Du wärst überrascht was TFT mit 400: bringen können.

Ich weiss Du meinst zwar nicht mich aber, ich nutze nen 19" Philips Monitor.

Zum Augenarzt müssten nur diejenigen, mit einem entsprechend eingestellten CRT.
(oder ebenso falsch eingestellten, lichtschwächeren TFT ;-)



P.S.: ohne Kolorimeter versteht sowieso jeder etwas anderes unter einer "richtigen" Einstellung... insofern es auch durchaus ratsam sein kann, sein eigenes Empfinden mit einem solchen Tool abzustimmen... manche hier wären sicher erstaunt... :)

Heheh wenn die meisten schon so die Zwischenbstufungen nicht sehen, wie soll das dann mit einen Tool klappen. *stichel stichel*
(Scherzal, Razor ich mag Dich ja aber der musste sein gg)

Solche Tools sind im allgemeine ne feine Sache um das Bild einzustellen, allerdings sieht auch gerne konvergenzfehler und die kann man damit super beheben als auf der normeln Windows oberfläche.

Wobei ich das Gefühl habe das hier 2 verschiedene Sachen diskutiert werden.


gruss Labberlippe

Gast
2004-12-23, 11:22:34
Das hatte ich jetzt anders verstanden...
Aber um dies selber verifizieren zu können, wäre ich noch immer für ein Save-Game dieser Stelle dankbar.

...
Razor

DAS war mir irgendwie völlig klar. Btw. dir ist klar das Xmas ne NV Karte hat oder ?

JEsus!
2004-12-23, 11:32:12
Auch ich habe sie vergrößert...
Vor einer Gammakorrektur erkenne ich hier allerdings nichts...

mitg0jg.png (definitiv 3 "Zwischenstufen")


ohneg9uy.png (und ebenso definitiv 2 "Zwischenstufen")


Wie jetzt?
:confused:

Razor

Ehm, beide haben "definitiv" 3 Zwischenstufen der Vorteil der Gammakorrektur ist in dem Fall aber dass sie die Stufen weiter aufspreizt wodurch ein glatterer Übergang entsteht. Das was du bei der nicht korrigierten als "schwarz" bezeichnest ist alles andere als das, deutlich Grau, ich würde mal deinen Monitor heller stellen.

aths
2004-12-23, 11:59:18
DAS war mir irgendwie völlig klar. Btw. dir ist klar das Xmas ne NV Karte hat oder ?Das wäre mir neu, dass er sich von seiner 9800 getrennt hätte.

Und wenn ich das auch noch sagen darf – vor Fragezeichen bitte kein Leerzeichen lassen :)

aths
2004-12-23, 12:00:58
Ehm, beide haben "definitiv" 3 Zwischenstufen der Vorteil der Gammakorrektur ist in dem Fall aber dass sie die Stufen weiter aufspreizt wodurch ein glatterer Übergang entsteht. Das was du bei der nicht korrigierten als "schwarz" bezeichnest ist alles andere als das, deutlich Grau, ich würde mal deinen Monitor heller stellen.Gamma-Korrektur wird bei Nvidia-Karten auch gemacht – auf die finalen Pixel, natürlich. Das heißt konkret, würde man mit Gamma 2,2 spielen, hätte man exakt die gleichen Kanten, jedoch (in der Regel) viel zu helle Texturen.

ATIs AA-Downfilterung geht davon aus,

- dass der Monitor eine Gamma-Charakteristik von ungefähr 2,2 hat

- dass der Anwender die Gamma-Korrektur bei 1,0 belässt.

Trifft beides zu, ist ATIs Bild korrekt.

aths
2004-12-23, 12:11:46
....ohne euren Disput unterbrechen zu wollen, was meint die Fachwelt eigentlich zu Ati's temporal AA ?? Ein Kumpel von mir schwärmt mir ständig davon vor und subjektiv gesehen ist die BQ auch wirklich gut. Aber wie schauts mit aktuellen, hardwarefressenden Games aus bei denen die fps unter die Bildwiederholfrequenz des Monis sinken??
Erstaunlicherweise wird temporal FSAA (auch in diesem Forum) kaum besprochen.Es funktioniert nur, wenn VSync aktiv ist, und man trotzdem eine (sehr) hohe Framerate hat.

aths
2004-12-23, 12:31:06
Wie kommst du auf übersteuert. Weiss ist weiss und schwarz ist schwarz.Weiß ist weiß, weißt du? (Nach langem Vokal und nach Diphthong, also au, eu, ei immer ß.)


Anscheinend gibts bei den Radeonnutzern nur mehr Zwischenstufen, (wenn du das echt auf einen IHV Fight reduzieren willst. Imo liegts wirklich an deinem Ausgabegerät (ohne dir ne Sehschwäche attestieren zu wollen=IHV-Fight (mit Bindestrich, bitte :)) hin oder her – bei 4x AA hat man je nach Winkel natürlich immer bis zu drei Zwischenstufen.

Bei NV entsprechen die Stufen einer linearen Skalierung, also 25%, 50%, 75%. Bei ATI müssten es der Theorie nach 53%, 73% und 88% sein. Bei einer Monitor-Gammacharakteristik von 2,2 sehen 53% Helligkeit ungefähr so aus wie 25%, 73% wie 50% und 88% wie 75%.

Hä? Ich frag mich was du uns erzählen willst. Der obere Shot hat gammakorrigiertes (=ATI) AA und ist besser. Der untere Shot hat kein gammakorrigiertes AA (=NV) und wirkt qualitativ schlechter. Und die Gammakorrektur wirft auch keine zu dunklen Zwischenstufen weg, und fügt irgendwo neue dazu, sondern hellt generell alle Zwischenstufen auf (was allerdings auch nur bis zu einem bestimmten Gammawert sinnvoll ist) Je nach Parameter der Gamma-Funktion können die Helligkeiten auch nach unten geschraubt werden. Meistens nutzt man die Gamma-Korrektur allerdings zum Aufhellen, wobei 0% auch 0% bleibt und 100% 100%, nur die Mitteltöne werden (nichtlinear) geändert.

aths
2004-12-23, 12:34:44
:D
Also ich habe den Unterschied erst auch nicht gesehen, aber mit ein bisschen mehr Helligkeit des TFTs gings dann :)

Ich betribe aber meine Monitore generell mit wenig Helligkeit, da mir sonst weiß ziemlich grell ist und das meinen Augen auf dauer nicht gefällt :|Bei mir genauso – um "in den Schatten" noch was zu sehen, nutze ich dann die Gamma-Korrektur.

aths
2004-12-23, 12:39:25
Dass der Default-Gamma (das ist das, was man als einen Gamma vom 1.0 bezeichnet) bei den Radeons grundsätzlich (bei nVidia ebenfalls mit diversen Treibern!) zu dunkel ist, ist kein Geheimnis oder nun eine 'besondere' Feststellung von mir... ich hab's halt nur nochmal erwähnt.Gamma 1,0 heißt, die Monitorausgabe nicht zu modifzieren.

Und nein, mein Moni ist NICHT falsch eingestellt.Offenbar schon, denn Windows impliziert (wie auch der sRGB-Standard) eine Gamma-Charakteristik von 2,2. Normale Monitore bewegen sich im Bereich zwischen 1,7 und 2,5, meistens mehr oder weniger um 2,2 herum.

Ich beobachte und berichte... nicht mehr und auch nicht weniger.Das gute bei der Gamma-Funktion ist, dass man sie ausrechnen kann. Zunächst normalisiert man die 8-Bit-RGB-Werte auf den Bereich [0..1], indem man den RGB-Werte komponentenweise durch 255 teilt. Dann rechnet man

Neuer Wert = alter Wert ^ (Gamma-Paramter),

und re-normalisiert auf 8 Bit zurück in dem man den neuen Wert mit 255 multipliziert (und dann rundet.) Die Gamma-Regler im Control-Panel zeigen allerdings den reziproken Gamma-Wert an, um also eine Korrektur mit dem angezeigten Wert 2,2 zu berechnen, nimmt man als tatsächlichen Gamma-Parameter 1/2,2 = 0,454545...

Die Monitor-Ausgabe prinzipiell zu linearisieren ist aber gar nicht immer wünschenswert, denn in den dunklen Bereichen erkennt das Auge feinere Helligkeitsunterschiede, als in hellen Bereichen. Übliche Monitore mit einer Gamma-Charakteristik um 2,2 herum spiegeln die Helligkeitsempfindlichkeit des Auge schon ganz gut wieder.

Nvidia filtert die AA-Samples jedoch so zusammen, als würde das Ausgabegerät eine lineare Helligkeits-Kennlinie aufweisen. Würden die Texturen entsprechend umgerechnet und gefiltert, wäre das kein Problem, wozu gibt es schließlich die finale Gamma-Korrektur? ATIs Ansatz ist prinzipiell kundenfreundlicher: Ohne dass sich der Anwender weiter kümmern muss, werden die AA-Zwischenstufen für die meisten Geräte passend modifiziert, ohne dass dabei die Textur-Helligkeiten angefasst werden.

r@h
2004-12-23, 15:02:35
Razorl, Xmas gings doch einfach nur darum, daß dir bewußt werden soll, daß die Gammagedöhnsung einfach die Zwischenstufen heller macht - und nicht irgendwas "erzeugt".Das ist mir klar, stell Dir vor.

Und Du hast hoffentlich mein
"sieht aus wie" oder "stellt sich mir dar wie"
wahrgenommen... oder etwa nicht?

Selbstverständlich wird da nix gelöscht und erzeugt, aber die 'Verschiebung' hatte genau diese Wirkung!
Mehr sag' ich echt nicht dazu.
Mann, mann, mann...

Razor

P.S.: auch ich will Dir nix böses :)
Aber ich habe Dir doch wirklich ausführlich geantwortet und Du hast es ignoriert... OK, mißverstanden.
Langsam solltest Du Dich doch wirklich an meinen Schreibstil gewöhnt haben...

r@h
2004-12-23, 15:11:30
Ich weiss Du meinst zwar nicht mich aber, ich nutze nen 19" Philips Monitor.Me too... 'nen 109S ;)
Und... na ja... 'nen DELL UltraSharp 17"-TFT (16ms, 1000:1).
(allerdings nicht zum Gamen... war halt grad' in der Firma übrig ;-)

Wobei ich das Gefühl habe das hier 2 verschiedene Sachen diskutiert werden.Das Gefühl habe ich hier auch langsam...

Razor

P.S.: den Rest habe ich absichtlich nicht gequotet...
a) kenn ich und b) ich stimme Dir ja auch zu 100% zu :)

r@h
2004-12-23, 15:26:04
Gamma 1,0 heißt, die Monitorausgabe nicht zu modifzieren.Jo... das bezeichne ich als "Default-Gamma".
(auch wenn's sachlich inkorrekt sein sollte)

Offenbar schon, denn Windows impliziert (wie auch der sRGB-Standard) eine Gamma-Charakteristik von 2,2. Normale Monitore bewegen sich im Bereich zwischen 1,7 und 2,5, meistens mehr oder weniger um 2,2 herum.Was hat die Moni-Einstellung mit Windows am Hut?
Primär hab' ich dafür ein schönes Dos-Proggerl...

Unter Windoof stell' ich den Desktop so ein, wie ich's als angenem empfinde, wenn das zugeordnete Farbprofil nicht die gewünschte Wirkung hat. Erstaunlicher weise empfinde ich die 3D-Darstellung der von mir genannten Treiber (als Beispiel) so wie sie sind, als sehr angenehm (hell genug ;-)...

Das gute bei der Gamma-Funktion ist, dass man sie ausrechnen kann. Zunächst normalisiert man die 8-Bit-RGB-Werte auf den Bereich [0..1], indem man den RGB-Werte komponentenweise durch 255 teilt. Dann rechnet man

Neuer Wert = alter Wert ^ (Gamma-Paramter),

und re-normalisiert auf 8 Bit zurück in dem man den neuen Wert mit 255 multipliziert (und dann rundet.) Die Gamma-Regler im Control-Panel zeigen allerdings den reziproken Gamma-Wert an, um also eine Korrektur mit dem angezeigten Wert 2,2 zu berechnen, nimmt man als tatsächlichen Gamma-Parameter 1/2,2 = 0,454545...

Die Monitor-Ausgabe prinzipiell zu linearisieren ist aber gar nicht immer wünschenswert, denn in den dunklen Bereichen erkennt das Auge feinere Helligkeitsunterschiede, als in hellen Bereichen. Übliche Monitore mit einer Gamma-Charakteristik um 2,2 herum spiegeln die Helligkeitsempfindlichkeit des Auge schon ganz gut wieder.

Nvidia filtert die AA-Samples jedoch so zusammen, als würde das Ausgabegerät eine lineare Helligkeits-Kennlinie aufweisen. Würden die Texturen entsprechend umgerechnet und gefiltert, wäre das kein Problem, wozu gibt es schließlich die finale Gamma-Korrektur? ATIs Ansatz ist prinzipiell kundenfreundlicher: Ohne dass sich der Anwender weiter kümmern muss, werden die AA-Zwischenstufen für die meisten Geräte passend modifiziert, ohne dass dabei die Textur-Helligkeiten angefasst werden.Vielen Dank für diese Erklärung aths.

Razor

MadManniMan
2004-12-23, 15:56:21
P.S.: auch ich will Dir nix böses :)
Aber ich habe Dir doch wirklich ausführlich geantwortet und Du hast es ignoriert... OK, mißverstanden.
Langsam solltest Du Dich doch wirklich an meinen Schreibstil gewöhnt haben...

Bwah ... wenn ich blödä geschriem ham sollte, verzeih! Hatte grad HL² durch und war dementsprechend desorientiert. Zudem hat mir meine 2monatige 3DCF-Pause temporär das Textverständnis genommen ;)
Und ja, deinen Schreibstil kenn ich gut und ich werde mich natürlich genauso immer darüber freuen, mich über ihn aufregen zu können, wie wir nie auf einen genauen gemeinsamen Nenner kommen werden, hehe :D

Das ist mir klar, stell Dir vor.

Und Du hast hoffentlich mein
"sieht aus wie" oder "stellt sich mir dar wie"
wahrgenommen... oder etwa nicht?

Selbstverständlich wird da nix gelöscht und erzeugt, aber die 'Verschiebung' hatte genau diese Wirkung!
Mehr sag' ich echt nicht dazu.
Mann, mann, mann...

Razor

Ich habe das gelesen, aber nicht in Gänze verstanden - naja, ich habe mich zumindest nich in eine solche Situation versetzen können, als daß ich dem Dings hätte nachfühlen können.
Fakt ist: du weißt, wie die Gammaverschiebung funktioniert. Deshalb paßt das "scheint wie" irgendwie nich. Der Effekt ist doch logisch - und visuell nachvollziehbar.

r@h
2004-12-23, 16:26:18
Bwah ... wenn ich blödä geschriem ham sollte, verzeih! Hatte grad HL² durch und war dementsprechend desorientiert. Zudem hat mir meine 2monatige 3DCF-Pause temporär das Textverständnis genommen ;)
Und ja, deinen Schreibstil kenn ich gut und ich werde mich natürlich genauso immer darüber freuen, mich über ihn aufregen zu können, wie wir nie auf einen genauen gemeinsamen Nenner kommen werden, hehe :D:up:

Ich habe das gelesen, aber nicht in Gänze verstanden - naja, ich habe mich zumindest nich in eine solche Situation versetzen können, als daß ich dem Dings hätte nachfühlen können.
Fakt ist: du weißt, wie die Gammaverschiebung funktioniert. Deshalb paßt das "scheint wie" irgendwie nich. Der Effekt ist doch logisch - und visuell nachvollziehbar.Hast Du Dir denn mal meine kleine 'Tabelle' angeschaut?
Hier nochmal für Dich:

ohne mit

Ausgang: 001/001/001 001/001/001 (schwarz)
Stufe 1: 039/039/039 080/081/080
Stufe 2: 078/079/078 112/113/112
Stufe 3: 117/118/117 136/138/136
Ziel: 148/153/155 148/153/155 ('himmel')Stufe2 'ohne' entspricht in etwa Stufe1 'mit'. Stufe3 'ohne' wiederum fast Stufe2 'mit'. Stufe1 'ohne' ist kaum zu sehen (deswegen ja auch nix Gamma-Korrektur = nix gut ;-) und Stufe3 'mit' hingegen schon (desegen Gamma-Korrektur = guuuuut ;-).

Jetzt verstanden?

Wenn nicht:
"Für mich sieht es so aus, als ob die Gamma-Korrektur einfach die erste Stufe weg gelassen hat, weil sie viel zu dunkel erschien, die 2. als 1. und die 3. als 2. und anstelle der weggelassenen 1. eine 3. einfügte, und dieser dann einen logischen HGelligkeitswert zu wies. Dass dies selbstredend nicht so ist und nur die Helligkeitswerte so angepaßt wurden, dass dieser Effekt erzielt wird, ist mir selbstverständlich völlig klar und bedarf auch keiner weiteren Erklärung."

Diese 'Konstruktion' ist zwar auch nicht sehr viel sinnreicher, hätte aber vielleicht eine Verwirrung bei Xmas und Dir vermieden. Trotzdem werde ich mich ganz sicher auch zukünftig nicht dazu hinreißen lassen, solch einen Müll zu posten...
:D

Aths kann das sehr viel besser (beschreiben, nicht "Müll posten" ;-) und vor allem wissenschaftlich korrekt!

Razor

MadManniMan
2004-12-23, 17:10:33
Aaaaaaah! Erkenntnis!

Ich verstehe nur nicht, wie man etwas wahrnehmen kann, von dem man weiß, daß es nicht so ist, außer man will es. OK, bei Frauen kann ich das verstehen, oder wenn grad "irgendwas" knallt :naughty:

Aber wie dem auch sei, ich hatte schon an deiner Erkenntnisfähigkeit gezweifelt - danke für die Auflösung :D

r@h
2004-12-23, 17:41:46
Ich verstehe nur nicht, wie man etwas wahrnehmen kann, von dem man weiß, daß es nicht so ist, außer man will es. OK, bei Frauen kann ich das verstehen, oder wenn grad "irgendwas" knallt :naughty:Ich 'sehe', wir verstehen uns...
Auch wenn ich mir (ziemlich ;-) sicher bin, dass da nichts bei mir "geknallt" hat!
:D

Razor

r@h
2004-12-23, 17:48:29
Noch etwas:
(nur, um aths Ausführungen zu ergänzen ;-)

ohne mit

Ausgang: 001/001/001 001/001/001 (schwarz)
Stufe 1: 039/039/039 25% 080/081/080 53%
Stufe 2: 078/079/078 51% 112/113/112 74%
Stufe 3: 117/118/117 77% 136/138/136 90%
Ziel: 148/153/155 100% 148/153/155 100% ('himmel')Razor

Xmas
2004-12-23, 19:39:46
Dass der Default-Gamma (das ist das, was man als einen Gamma vom 1.0 bezeichnet) bei den Radeons grundsätzlich (bei nVidia ebenfalls mit diversen Treibern!) zu dunkel ist, ist kein Geheimnis oder nun eine 'besondere' Feststellung von mir... ich hab's halt nur nochmal erwähnt.
Was dir aths mit den Worten "Gamma 1,0 heißt, die Monitorausgabe nicht zu modifzieren." klar machen wollte, war dass ein evtl. vorhandener Unterschied nichts mit einem "zu dunklen Default-Gamma" zu tun haben kann. Vielleicht erreicht deine ATI-Karte nicht die standardisierten 700mV Maximalpegel. Oder vielleicht passt Labberlippes Erklärung.

Und nein, mein Moni ist NICHT falsch eingestellt.
Wenn du 48fache Vergrößerung brauchst, um 0,4% Grau von 15,3% Grau zu unterscheiden, ist dein Monitor falsch eingestellt. Da ist jede Diskussion überflüssig.

Darf ich mal fragen, was für eine Ausgabe-Einheit Du benutzt?
Es ein Unterschied, ob man einen CRT oder einen Kontrastreichen bzw. lichtstarken TFT (ab 400:1) benutzt.
Samsung SyncMaster 181T
Dell Inspiron eingebautes WSXGA+ Display

Schau' Dir die Werte an (das ist das, was Du nicht mit gequotet hast) und erzähl mir dann, wie die Gammakorrektur (in diesem Fall) sonst arbeiten sollte. Dass ich keinen Magister in Grafik-Design habe, sollte Dir hinlänglichst bekannt sein. Ich beobachte und berichte... nicht mehr und auch nicht weniger.
Die Erklärung hat aths ja nun schon übernommen.
Du beobachtest und berichtest nicht nur, du interpretierst auch und spekulierst über eine Erklärung. Gerade weil du keinen Magister in Grafik-Irgendwas hast, solltest du das etwas zurückhaltender tun.


DAS war mir irgendwie völlig klar. Btw. dir ist klar das Xmas ne NV Karte hat oder ?
Nein, nachdem vor zwei Wochen auch die GeForce2 GTS im Drittrechner den Geist aufgegeben hat, habe ich keine NVidia-Karte mehr.


Was hat die Moni-Einstellung mit Windows am Hut?
Primär hab' ich dafür ein schönes Dos-Proggerl...
Windows-Programmen wird empfohlen, von einem Monitor mit Gamma 2,2 auszugehen. Weicht der Monitor davon ab, sollte man das über Farbprofil und Control Panel so justieren, dass die Ausgabe wie auf einem Monitor mit Gamma 2,2 erscheint.


Nvidia filtert die AA-Samples jedoch so zusammen, als würde das Ausgabegerät eine lineare Helligkeits-Kennlinie aufweisen. Würden die Texturen entsprechend umgerechnet und gefiltert, wäre das kein Problem, wozu gibt es schließlich die finale Gamma-Korrektur? ATIs Ansatz ist prinzipiell kundenfreundlicher: Ohne dass sich der Anwender weiter kümmern muss, werden die AA-Zwischenstufen für die meisten Geräte passend modifiziert, ohne dass dabei die Textur-Helligkeiten angefasst werden.
Das setzt natürlich voraus, dass es sich um sRGB-Texturen handelt (wovon man aber meist ausgehen kann). Leider ist die Gamma-Anpassung von ATI nicht ganz zu Ende gedacht, so sind Shader und Blending ja trotzdem noch linear. Es gibt zwar optional sRGB Texture Reads und Framebuffer Writes, aber die werden kaum verwendet und das AA behandelt den Framebuffer ja immer als sRGB.

Jesus
2004-12-23, 20:45:30
Wenn du 48fache Vergrößerung brauchst, um 0,4% Grau von 15,3% Grau zu unterscheiden, ist dein Monitor falsch eingestellt. Da ist jede Diskussion überflüssig.


Jo, aber volle Kanne ! Ich hab das Bildchen jetzt auf 3 verschiedenen TFTs, meiner einer, Samsung 193T und Dell irgendwas 17", sowie einem Tschibo billig 17" CRT angeschaut und überall sieht man DEUTLICHST die 3 Übergänge...

r@h
2004-12-24, 10:43:39
Was dir aths mit den Worten "Gamma 1,0 heißt, die Monitorausgabe nicht zu modifzieren." klar machen wollte, war dass ein evtl. vorhandener Unterschied nichts mit einem "zu dunklen Default-Gamma" zu tun haben kann. Vielleicht erreicht deine ATI-Karte nicht die standardisierten 700mV Maximalpegel. Oder vielleicht passt Labberlippes Erklärung.Nein.
Die Ausgabe ist einfach "zu dunkel"... wie die einiger nVidia-Treiber auch.
Ist wohl kein Hardware-'Problem', sondern eher eines der Software.

...wie man im Falle von nVidia nachvollziehen kann, i.e. Treiber X ist bei Gamma 1.0 dunkler, als Treiber Y.
Und erzähl mir jetzt nicht, dass dies was mit meiner Hardware zu tun hat.

Deswegen benutze ich auch den Begriff "Default-Gamma"!
(und werde mich auch nicht davon abbringen lassen ;-)

Wenn du 48fache Vergrößerung brauchst, um 0,4% Grau von 15,3% Grau zu unterscheiden, ist dein Monitor falsch eingestellt. Da ist jede Diskussion überflüssig.Wenn Du meinst.
Du brauchst ja nicht weiter zu diskutieren...

Samsung SyncMaster 181T
Dell Inspiron eingebautes WSXGA+ DisplayUnd?
Ist 'nen bissel schlechter, als das 1905 Display, welches ich hier grad' rum stehen hab'.
Wenn ich nur wüsste... ;)

Die Erklärung hat aths ja nun schon übernommen.
Du beobachtest und berichtest nicht nur, du interpretierst auch und spekulierst über eine Erklärung. Gerade weil du keinen Magister in Grafik-Irgendwas hast, solltest du das etwas zurückhaltender tun.Warum sollte ich?
Oder sind wir jetzt tatsächlich im Technologie-Forum gelandet?
:confused:

Windows-Programmen wird empfohlen, von einem Monitor mit Gamma 2,2 auszugehen. Weicht der Monitor davon ab, sollte man das über Farbprofil und Control Panel so justieren, dass die Ausgabe wie auf einem Monitor mit Gamma 2,2 erscheint.Schön, dass wir uns zumindest in diesem Punkt einig sind.

Razor

r@h
2004-12-24, 10:49:43
Jo, aber volle Kanne ! Ich hab das Bildchen jetzt auf 3 verschiedenen TFTs, meiner einer, Samsung 193T und Dell irgendwas 17", sowie einem Tschibo billig 17" CRT angeschaut und überall sieht man DEUTLICHST die 3 Übergänge...Auf meinem Inspiron 510m sehe ich unter 2D keinen Unterschied (nix verändert, Default-Installation). Auf meinem Phillips CRT sehe ich unter 2D keinen, unter 3D sehr wohl einen Unterschied (liegt an der Helligkeit dessen unter 2D ;-). Und auf dem Dell TFT sehe ich den Unterschied auch unter 2D... verwende diesen derzeit aber 'eh nur zum Video-Schaun'.

Offenbar ist bei Deinen 3 'Versuchen' aber immer eines gleich geblieben... Du und auch Deine Radeon. Insofern man davon ausgehen darf, dass Du die TFT's sowieso grundsätzlich zu hell einstellst.

Razor

Jesus
2004-12-24, 11:05:05
Offenbar ist bei Deinen 3 'Versuchen' aber immer eines gleich geblieben... Du und auch Deine Radeon. Insofern man davon ausgehen darf, dass Du die TFT's sowieso grundsätzlich zu hell einstellst.

Razor

Leider völlig falsch ;)

Der 17" Dell war ne NV onboard Gfx (keine ahnung was, in der Arbeit , nicht von mir eingestellt ) der 193T (in der Arbeit, nicht von mir eingestellt) war an einem Laptop mit onboard grafik (intel irgendwas) und die anderen waren Radeons (9800,9500 und auch 9200 (HP NX7000), stimmt ;) Allerdings ohne Veränderungen am Desktop Bild oder D3D Bild, ich lass das Grundsätzlich auf default.
Mein Sony SDM S71R TFT benutzt das default Farbprofil von Sony (l93) ohne irgendwelche Veränderungen. Und auch alle anderen hier scheinen die Übergänge zu sehen, aber liegen wohl alle falsch.

Vielleicht solltest Du doch mal nen Augenarzt aufsuchen :biggrin:

Oder geben deine NV Karten vielleicht ein zu dunkles Bild wieder ? ;)

Edit: der S71R ist auf 9300k eingestellt, selbst wenn ich ihn auf 6500k stelle, also dunkler sehe ich es noch ganz deutlich.

Xmas
2004-12-24, 11:25:01
Nein.
Die Ausgabe ist einfach "zu dunkel"... wie die einiger nVidia-Treiber auch.
Ist wohl kein Hardware-'Problem', sondern eher eines der Software.

...wie man im Falle von nVidia nachvollziehen kann, i.e. Treiber X ist bei Gamma 1.0 dunkler, als Treiber Y.
Und erzähl mir jetzt nicht, dass dies was mit meiner Hardware zu tun hat.

Deswegen benutze ich auch den Begriff "Default-Gamma"!
(und werde mich auch nicht davon abbringen lassen ;-)
Und wo ist da jetzt der Zusammenhang mit Gamma? Helligkeit != Gamma. Wie schon so oft, denkst du dir irgendeine Erklärung für etwas aus und versteifst dich dann darauf. Statt mal in Betracht zu ziehen dass du falsch liegen könntest und die Zusammenhänge nicht kennst.

Wenn Du meinst.
Du brauchst ja nicht weiter zu diskutieren...
Genau. Aber ich werde dich weiterhin korrigieren, wenn du behauptest jemand hätte seinen Monitor zu hell eingestellt, weil er den Unterschied zwischen 1/1/1 und 39/39/39 sehen kann.

Und?
Ist 'nen bissel schlechter, als das 1905 Display, welches ich hier grad' rum stehen hab'.
In der Auflösung nicht ;)
Und in der Farbwiedergabe auch nur, wenn jenes Display richtig eingestellt ist.


Warum sollte ich?
Oder sind wir jetzt tatsächlich im Technologie-Forum gelandet?
:confused:
Nein, dies ist aber auch nicht das Spekulationsforum.

r@h
2004-12-24, 12:43:04
Und wo ist da jetzt der Zusammenhang mit Gamma? Helligkeit != Gamma.Mag sein... oder auch nicht.
Wenn ich den Gamma-Wert InGame erhöhe, siehts aus, wie es soll.
Insofern scheint mein "zu dunkel" (merke in 'Anführungszeichen' ;-) vielleicht ein wenig unpräzise sein...
...was mich persönlich aber nicht weiter stört.
;)

Razor

r@h
2004-12-24, 12:48:49
Und auch alle anderen hier scheinen die Übergänge zu sehen, aber liegen wohl alle falsch.a) Du scheinst ein Problem mit dem Lesen zu haben
(oder auch: siehe vorherige Posts ;-)
b) es steht 4:3... 3 meinen es auf 'anhieb' gesehen zu haben (2 allerdings erst nach der Feststellung anderer) -> nicht gerade überwältigend eindeutig, oder?
:D

Razor

StefanV
2004-12-24, 12:58:18
(...) ich würde mal deinen Monitor heller stellen.

Oder entsorgen und neuen kaufen, da es sein kann, das der Schirm in den ganzen Jahren an Leuchtkraft eingebüßt hat und nur noch sehr schwach leuchtet.

Fällt natürlich nicht auf, das der Schirm dunkler wird, wenn man jeden Tag davor sitzt ;)

Coda
2004-12-24, 13:01:59
Wo wir grad beim Thema Monitore sind. 90% aller Monitore sind eh deutlich zu hell eingestellt...

r@h
2004-12-24, 13:04:40
Wo wir grad beim Thema Monitore sind. 90% aller Monitore sind eh deutlich zu hell eingestellt...Wohl wahr...
Hinsichtlich der Ergonomie ein Unding.

Razor

ShadowXX
2004-12-24, 21:21:36
a) Du scheinst ein Problem mit dem Lesen zu haben
(oder auch: siehe vorherige Posts ;-)
b) es steht 4:3... 3 meinen es auf 'anhieb' gesehen zu haben (2 allerdings erst nach der Feststellung anderer) -> nicht gerade überwältigend eindeutig, oder?
:D

Razor

5 zu 3....ich habs auf meinem I-Net Rechner auch nicht sehen können...und bei seinem "grossen Bruder" (aka. Arbeits/Zock-Rechner) hab ichs auch erst gesehen, als ich die Helligkeit unnatürlich hoch gezogen hab (zumindest in meinem Empfinden unnatürlich)....

Und der Moni am grossen Rechner ist ein 21" Samsung 1100DF, per BNC und mittels SW Farb-Kalibriert...

@Jesus
auf 9300k würde ich vor Helligkeit Blind werden....ach ja...und herzlichen Glückwunsch zum Geburtstag ;D

MadManniMan
2004-12-25, 00:30:57
6:3 - auch wenn ich weder nV noch ATi auf meinem Moni hier nen Vorteil attestieren konnte, waren die 3 Zwischenstufen doch bei beiden gut zu erkennen :)

aths
2004-12-25, 10:45:20
Mag sein... oder auch nicht.Wenn Xmas sagt, Gamma != Helligkeit, kannst du davon ausgehen dass es nicht nur sein kann, sondern auch so ist. Xmas studiert Multimediatechnik im 7. Semester, hat einen Notendurchschnitt nahe der Eins, und schreibt seinen Großen Beleg im Fach "Grafische Oberflächen / Bildverarbeitung".

Dass er ein bisschen Ahnung hat von dem was er schreibt, merkt man schon alleine durch das Lesen seiner Postings. Da ist ein "Mag sein ... oder auch nicht" ohne weiteres Argument absolut fehl am Platz.

ShadowXX
2004-12-25, 12:53:43
6:3 - auch wenn ich weder nV noch ATi auf meinem Moni hier nen Vorteil attestieren konnte, waren die 3 Zwischenstufen doch bei beiden gut zu erkennen :)

Eher 5 zu 4.....wenn ich den Post von Razor nicht missverstandenhaben, konnten es vor mir 4 nicht erkennen und 3 erkennen...

Ich konnte es nicht erkenne...also 5 zu 3.....du konntest es erkennen...also 5 zu 4...

Ist aber auch egal.....man kann dadurch aber ganz gut sehn, das es eben nicht ganz eindeutig ist...

Mr. Lolman
2004-12-25, 13:15:21
Oder das viele falsche Helligkeitseinstellungen haben. Ich mein 39/39/39 ist ja schon ein ganzes Stück weit weg von 0/0/0. Da wunderts mich nicht, dass viele bei Doom3 nur schwarz gesehen haben ;D ;D ;D

StefanV
2004-12-25, 13:48:27
Oder das viele falsche Helligkeitseinstellungen haben. Ich mein 39/39/39 ist ja schon ein ganzes Stück weit weg von 0/0/0. Da wunderts mich nicht, dass viele bei Doom3 nur schwarz gesehen haben ;D ;D ;D
Stimme zu, mit meinem 'alten' Eizo TFT hab ichs auch sofort gesehen, den Unterschied zwischen den Stufen und mich auch stark bis ganz stark gewundert, das ihn einige nicht gesehen haben :|

Ok, Star Trek Elite Force (erster Versuch) ist auf meinem etwas älteren Iiyama auch recht dunkel, obwohl der Schirm fast voll aufgedreht ist...

Entweder ist da was falsch eingestellt oder aber sonstwas klemmt...
Ev. ist auch der Schirm zu alt...

Coda
2004-12-25, 13:58:54
Das Fazit der Sache ist doch, dass ATi zwar Gammakorrektur eingeführt hat für's AA, aber wie immer wieder wo sparen musste und es deshalb auf 2,2 fixiert hat.
Löbliche Sache, nur leider nicht ganz zuende geführt.

Mir reicht das 4xRGMSAA vom NV40 aber auch sehr gut.

MadManniMan
2004-12-25, 15:20:52
Eher 5 zu 4.....wenn ich den Post von Razor nicht missverstandenhaben, konnten es vor mir 4 nicht erkennen und 3 erkennen...

Fein, dann hab ich ihn misverstanden :D Jaja, der Junge nimmt sich halt keine Zeit... wie dem auch sei: ich kann verstehen, daß nicht jeder die Stufen sofort sieht - hatte aber auch keine Probleme damit.

aths
2004-12-25, 15:38:45
Das Fazit der Sache ist doch, dass ATi zwar Gammakorrektur eingeführt hat für's AA,Nein, nein, nein. In dem Punkt bleibe ich hart.

Gamma-Korrektur, egal ob mit oder ohne AA, können Radeon- wie GeForce-Karten, wie eigentlich alle Grafikkarten.

Was ATI hat ist für den Gammawert 2,2 korrektes Downfiltering. Das ist nicht "Gammakorrektur fürs AA".

MarcWessels
2004-12-25, 16:56:38
Fein, dann hab ich ihn misverstanden :D Jaja, der Junge nimmt sich halt keine Zeit... wie dem auch sei: ich kann verstehen, daß nicht jeder die Stufen sofort sieht - hatte aber auch keine Probleme damit.

Me too. :)

Tesseract
2004-12-28, 15:57:20
Ich musste mir das Ganze mit einer 48-fachen Vergrößerung anschaun', damit ich den Unterschied zwischen schwarz und 'fast' schwarz ausmachen konnte. Nur wundert mich halt, dass bei 4xRGMS auf der 6800 die 3 Zwischenstufen auch ohne Gammakorrektur auszumachen sind... hmmm...

ich sehe es am CRT auf beiden bildern mehr als überdeutlich mit einer normalen helligkeitseinstellung. zB ist, wenn der monitor ein schwarzes bild anzeigt und in einem dunklen raum steht, dieses bild kaum heller als die umgebung (= fast reinschwarz)

hab allerdings einen sony G420 der im 19"-CRT bereich ziemliches optimum dastellt (zusammen mit ein paar anderen) was helligkeits-/farbdarstellung angeht.
da fürfte bei dir etwas faul sein, entweder hardware oder softwarebedingt.

Da wär doch mal ein Save-Game interessant, um dies an Tesseracts Beispiel nachzuvollziehen zu können.

ist ganz am anfang am platz. ich schau mal ob ich es noch habe

PS: sry fürs ausgraben, war die letzen tage nicht zuhause
PPS: wo kann ich auf die schnelle eine datei (<400kb) uploaden?

Mr. Lolman
2004-12-29, 12:17:30
PPS: wo kann ich auf die schnelle eine datei (<400kb) uploaden?

Häng ne jpg Endung dran und lads auf www.imageshack.us

Tesseract
2004-12-29, 13:31:56
unkonventionell, aber es funzt. :D
er hat sich nicht mal darüber aufgeregt das er keine thumbnail dazu machen kann.

"save as" und in .zip anhängen

http://img148.exs.cx/img148/4217/aatestsaveszip0id.png

Coda
2004-12-29, 15:23:52
Was ATI hat ist für den Gammawert 2,2 korrektes Downfiltering. Das ist nicht "Gammakorrektur fürs AA".
Uhm. Das meinte ich mit "Gammakorrektur für's AA"...

r@h
2004-12-29, 19:28:42
Ist aber auch egal.....man kann dadurch aber ganz gut sehn, das es eben nicht ganz eindeutig ist...Exakt.
Und darauf wollte ich hinaus...

Razor

r@h
2004-12-29, 19:29:33
Da ist ein "Mag sein ... oder auch nicht" ohne weiteres Argument absolut fehl am Platz.Hättest Du den Rest mitgequotet, dann hättest Du auch Dein Argument.

Razor

r@h
2004-12-29, 19:48:17
ich sehe es am CRT auf beiden bildern mehr als überdeutlich mit einer normalen helligkeitseinstellung. zB ist, wenn der monitor ein schwarzes bild anzeigt und in einem dunklen raum steht, dieses bild kaum heller als die umgebung (= fast reinschwarz)

hab allerdings einen sony G420 der im 19"-CRT bereich ziemliches optimum dastellt (zusammen mit ein paar anderen) was helligkeits-/farbdarstellung angeht.
da fürfte bei dir etwas faul sein, entweder hardware oder softwarebedingt.Hatten wir doch schon alles...
Offenbar haben hier die Leutz unter 2D (!), also dem Desktop teilweise andere Vorstellungen von einer 'guten', augenschonenden Einstellung, als unter 3D. InGame ist es sehr gut zu erkennen, auf den Screenies nicht auf den ersten Blick.

ist ganz am anfang am platz. ich schau mal ob ich es noch habe

PS: sry fürs ausgraben, war die letzen tage nicht zuhause
PPS: wo kann ich auf die schnelle eine datei (<400kb) uploaden?unkonventionell, aber es funzt. :D
er hat sich nicht mal darüber aufgeregt das er keine thumbnail dazu machen kann.

"save as" und in .zip anhängen

http://img148.exs.cx/img148/4217/aatestsaveszip0id.pngThx alot, Tesseract.
Hat genau das bestätigt, was ich oben schon erwähnte...

Unter 3D kein Problem (selbstredend ohne 'Vergrößerung ;-), unter 2D scheinen mir 15% Helligkeit abzugehen (Lolman geht's wohl erst ab 10% ab ;-). Und damit kann ich äusserst gut leben! Schließlich sind mir das meine Augen wert... ;)

Und nein, ich stelle mitnichten, extra an der Helligkeit des Moni's herum. Dieser ist kalibriert und tut so, wie er soll. Unter 2D ist er 'angenehm' und augenfreundlich und unter 3D genau so, wie er soll... dank der letzten nVidia-Treiber, die gottlob doch wieder zu einem sehr guten "Default-Gamma" (bitte hier die Anfühungszeichen beachten ;-) zurück fanden.

Aber schon interessant, mit welchen Moni-Einstellungen hier scheinbar einige Leutz leben (müssen)... ;)

Razor

Selle
2004-12-29, 21:00:10
Also ich kann jetzt nur über meinen damaligen Wechsel von der 9500pro hin zur FX5900 berichten, und da gab es gewaltige Unterschiede was die Farbgebung, also gewissermaßen den "Buntheitsgrad" anbelangt, Und ehrlich gesagt gefiel mir rein von der Farbgebung (nicht von der Filterung) die 9500pro besser. Besonders schön war dieser Effekt bei eben sehr bunten Spielen wie den Simpsons zu sehen, die sahen mit der FX auf einmal "blasser" aus, aber man gewöhnt sich dran ;)
Nunja, wie´s mit X800 vs. 6800 aussieht kann ich nicht sagen, ich hab nur die 6800 und bei der bleib ich auch, bin seit dem FW 66.81 hochzufrieden, sowohl mit Performance als auch mit der BQ :D


Dafür hat nVidia die "DigitalVibranceControl" im Treiber (bei Farbkorrecktur). Ist's zu blass a bissel höher stellen bis es schön ist :smile:

http://img65.exs.cx/img65/246/zwischenablage1pm.png

Gast
2004-12-30, 00:18:19
Und? Wo sind se denn nu', die Vergleiche zw. NVIDIA und ATI? Na? Ick seh nix, nur seitenlanges Gelaber...

MadManniMan
2004-12-30, 00:23:07
Dafür hat nVidia die "DigitalVibranceControl" im Treiber (bei Farbkorrecktur). Ist's zu blass a bissel höher stellen bis es schön ist :smile:

Bn ich eigentlich der einzige Mensch auf dieser Welt, der sich einen Regler in die andere Richtung wünscht? :???:

StefanV
2004-12-30, 00:25:46
Bn ich eigentlich der einzige Mensch auf dieser Welt, der sich einen Regler in die andere Richtung wünscht? :???:
Ich denke eher nicht.

Die Andere Richtung wäre ev. auch nicht verkehrt, auf jeden Fall ist diese Regelung momentan nicht so sinnig...

aths
2004-12-30, 12:38:45
Hättest Du den Rest mitgequotet, dann hättest Du auch Dein Argument.Das "Argument" zeigt nur, dass dein Monitor falsch eingestellt ist – und meine Erklärung zum Thema Gamma offensichtlich nicht verständlich genug war.

(del676)
2004-12-30, 12:51:31
thx

also ich sehe da sowohl eine deutliche unschärfe, als auch einen deutlichen quallitätsnachteil gegenüber 4xAA bzgl. der kanten.

wo der vorteil gegenüber dem normalen 2x sein soll ist mir noch immer ein rätsel

er """glättet""" alphatests
ich habe Kotor deshalb mit 2xQ gespielt weil mit 2x oder 4x das Gras noch gleich flimmert, SS aber vielzuviel Performance gefressen hat

aths
2004-12-30, 12:56:05
er """glättet""" alphatests
ich habe Kotor deshalb mit 2xQ gespielt weil mit 2x oder 4x das Gras noch gleich flimmert, SS aber vielzuviel Performance gefressen hatQuincunx blurrt das gesamte Bild. Quincunx verhindert das Auftreten hoher Frequenzen und nimmt dem ganzen Bild den knackigen Eindruck, da auch Texturen und Schriften unscharf werden. Echte Glättung hätte man mit Supersampling, bei Gras empfiehlt sich insbesondere 2x1 Supersampling (für D3D z. B. im aTuner wählbar.)

(del676)
2004-12-30, 13:02:33
ich hoffe du hast gelesen?
1. ich habe "glättet" in 2x3 " gestellt
2. habe ich gesagt das SS zu langsam war

aths
2004-12-30, 13:03:54
ich hoffe du hast gelesen?Nein, ich habe es gegessen.

2. habe ich gesagt das SS zu langsam warFüllraten-Hunger lässt sich über die Auflösung skalieren.

(del676)
2004-12-30, 13:05:13
tja, nur sehe ich nicht ein warum ich 1024 mit 2x1 spielen soll wenns 1600 mit 2xQ auch geht?

edit: wobei wir genau diese diskussion schomal hatten und du mehrmals ins offene messer gelaufen bist ...

benutz 4xS -> hallo opengl
benutz 8xS -> hallo in 800x600 dann 10 fps
usw :p

aths
2004-12-30, 15:33:27
tja, nur sehe ich nicht ein warum ich 1024 mit 2x1 spielen soll wenns 1600 mit 2xQ auch geht?Spiel halt in 1280x960 :)

edit: wobei wir genau diese diskussion schomal hatten und du mehrmals ins offene messer gelaufen bist ...Das habe ich anders in Erinnerung.

MadManniMan
2004-12-30, 15:35:21
aths, schon bei der ersten Diskussion vor ner ganzen Weile hast du nicht einsehen wollen, daß unter bestimmten Bedingungen auch Quinblurrx einen subjektiv vernünftigen Eindruck machen kann.

Es ging AFAIR um Jedi Acedemy - und da Ulukay IIRC immer in mindestens 1600*1200 spielt, kann ich mir gut vorstellen, daß aller Theorie zum Trotze der praktische Eindruck vorzüglich war ;)

MadManniMan
2004-12-30, 15:38:32
Spiel halt in 1280x960 :)

Und wenn es in 1600*1200 mit Blurrx besser aussieht, als mit nem Hybridmodus in 1280? :| Außerdem: ein "Sx4"-Modus, der für Gras ja günstig wäre - wie du selbst vorgeschlagen hast - existiert nicht.

Warum um alles in der Welt willst du ihm vorschreiben, was er besser findet? :|


Das habe ich anders in Erinnerung.

Keine Ahnung, an was du dich erinnerst, aber du warst seeehr verbohrt und intolerant gegenüber denen, die 2xQ einen Nutzen zusprechen. Nicht, daß ich persönlich das Empfinden für mich rekonstruieren könnte, aber ich kann mir denken, daß andere Leute anders empfinden als ich.

Dänk ma drüb0r nuch...

Mr. Lolman
2004-12-30, 15:47:03
Keine Ahnung, an was du dich erinnerst, aber du warst seeehr verbohrt und intolerant gegenüber denen, die 2xQ einen Nutzen zusprechen. Nicht, daß ich persönlich das Empfinden für mich rekonstruieren könnte, aber ich kann mir denken, daß andere Leute anders empfinden als ich.

Dänk ma drüb0r nuch...

Duz Problem ist, dass 2xQuinbLurrxx auch mit einem hinreichend unscharfen Monitor zu realisieren ist, was irgendwie gegen den Sinn eines BQ verbessernden Features spricht.

Aber ich kann mir gut vorstellen, dass manche Leute unscharfe Monitore den scharfen welchen beim Spielen vorziehen :frown:

(del676)
2004-12-30, 15:54:21
Spiel halt in 1280x960 :)

lol wieder einer deiner tollen theoretischen vorschläge die mir in der praxis absolut NICHTS bringen ...
aber darauf bist du ja spezialisiert ... :rolleyes:

1. gibt es keinen 2x1 modus in Opengl, 2. auch keinen 4xS, 3. ist 1280 mit 8xS zu langsam, so sieht die REALITÄT aus
mit welchen tollen theorie wirst du nun kontern?


Das habe ich anders in Erinnerung.
dann lies nochmal nach und ess mehr knoblauch

MadManniMan
2004-12-30, 16:04:29
Duz Problem ist, dass 2xQuinbLurrxx auch mit einem hinreichend unscharfen Monitor zu realisieren ist, was irgendwie gegen den Sinn eines BQ verbessernden Features spricht.

Aber ich kann mir gut vorstellen, dass manche Leute unscharfe Monitore den scharfen welchen beim Spielen vorziehen :frown:

Es ist doch egal, wie der Effekt zu Stande kommt - Ulukay sagt ja auch nicht, daß es bei allen Spielen Sinn macht. Ich persönlich kann aber einfach nur nachvollziehen, daß es Szenarien gibt, in denen ein unschärferes Bild mehr hermacht.

aths
2004-12-30, 16:20:30
lol wieder einer deiner tollen theoretischen vorschläge die mir in der praxis absolut NICHTS bringen ...
aber darauf bist du ja spezialisiert ... :rolleyes:Genau, deshalb studiere ich auch an einer Fachhochschule :rolleyes:

1. gibt es keinen 2x1 modus in Opengl, 2. auch keinen 4xS, 3. ist 1280 mit 8xS zu langsam, so sieht die REALITÄT aus
mit welchen tollen theorie wirst du nun kontern?Ich will gar nichts kontern – aber anzweifeln, dass Quincunx die Bildqualität verbessert.

dann lies nochmal nach und ess mehr knoblauchDer Imperativ von "essen" lautet "iss!"

Mr. Lolman
2004-12-30, 16:21:47
@MMM:

Das mag schon sein. Das Ärgerliche ist halt nur, dass bei Quincunx keine neuen Informationen ins Bild kommen. Das heisst. Bei Quincunxglättung von Alphatesttexturen wird um die vorhandenen Pixel ein Unschärfeschleier gelegt. Die Pixel wandern mit genau den gleichen Sprüngen wie bei deaktiviertem AA, mit dem Unterschied, dass manche pixelgroße Linien ausgebleicht und auf die doppelte Breite vergößert werden. (was imo - auf Alphatestlinien bezogen - mit SSAA in ein Viertel der Auflösung nicht anders aussehen dürfte)

Andererseits könnte man mit Quincunx super optimiertes, flimmriges AF bekämpfen. Wieviel % Leistung kostet Quincunx eigentlich vgl. mit normalem 2xAA

aths
2004-12-30, 16:26:20
Es ist doch egal, wie der Effekt zu Stande kommt - Ulukay sagt ja auch nicht, daß es bei allen Spielen Sinn macht. Ich persönlich kann aber einfach nur nachvollziehen, daß es Szenarien gibt, in denen ein unschärferes Bild mehr hermacht.Quincunx wirkt sich weniger deaströs aus, wenn man die Lochmaske überfährt. Wie ein unscharfes Bild "mehr hermachen" soll, kann ich mir allerdings nicht vorstellen.

StefanV
2004-12-30, 16:29:01
kann ich mir allerdings nicht vorstellen.
Sollst du ja auch nicht, es langt, wenn du einsiehst, das manchen 2xQ besser gefällt als 2x bzw garnix.

aths
2004-12-30, 16:29:46
Andererseits könnte man mit Quincunx super optimiertes, flimmriges AF bekämpfen. Wieviel % Leistung kostet Quincunx eigentlich vgl. mit normalem 2xAAUndersampling wird durch Blurring nicht verbessert. Flimmer-AF entsteht, weil zu wenig Informationen in das Pixel einfließen (bzw. die Abstände zwischen den Samples zu groß sind.) Dabei handelt es sich um einen Aliasing-Effekt. Könnte man Aliasing nachträglich einfach wegrechnen, gäbe es nicht die ganzen Probleme. Leider kann man das nicht.

aths
2004-12-30, 16:33:29
Sollst du ja auch nicht, es langt, wenn du einsiehst, das manchen 2xQ besser gefällt als 2x bzw garnix.Was einigen Leuten besser gefällt erlaubt noch keine objektive Aussage. Dass ein Bild mit Quincunx schlechter ist als mit 2x RGMSAA ohne Quinunx ist objektivierbar.

Mr. Lolman
2004-12-30, 16:39:25
Dabei handelt es sich um einen Aliasing-Effekt. Könnte man Aliasing nachträglich einfach wegrechnen, gäbe es nicht die ganzen Probleme. Leider kann man das nicht.

Das Blurring wirkt sich ja aufs ganz Bild aus. Ich kann mir vorstellen, dass es ca. in dem Bereich besser werden müsste, wie auch der V5 22bit Postfilter sich ums Mipmapdithering kümmern kann.

Dass das immernoch in keinem Vergleich zu SSAA und ordentlichem AF steht ist mir klar. Der imo einzig offensichtliche Vorteil von Quincunx AA ist, dass flimmrige Grafik weniger flimmrig erscheint. Dass das ganze mit der Holzhammermethode geschieht, und dass ein unscharfer Monitor ähnliches bewirken kann steht ja wieder in einem anderen Licht.

Auch der Postfilter vergleich mit der V5 ist eigentlich überzogen, da dieser nur auf stark flimmrige Bereiche (Dithering) wirkt, während Quincunx das ganze Bild blurrt.

aths
2004-12-30, 16:48:04
Das Blurring wirkt sich ja aufs ganz Bild aus. Ich kann mir vorstellen, dass es ca. in dem Bereich besser werden müsste, wie auch der V5 22bit Postfilter sich ums Mipmapdithering kümmern kann. Dieser Filter treibt den Teufel mit dem Beelzebub aus: Feine Texturstrukturen werden verwischt, allerdings bleiben scharfe Kanten erhalten.


Dass das immernoch in keinem Vergleich zu SSAA und ordentlichem AF steht ist mir klar. Der imo einzig offensichtliche Vorteil von Quincunx AA ist, dass flimmrige Grafik weniger flimmrig erscheint. Dass das ganze mit der Holzhammermethode geschieht, und dass ein unscharfer Monitor ähnliches bewirken kann steht ja wieder in einem anderen Licht.

Auch der Postfilter vergleich mit der V5 ist eigentlich überzogen, da dieser nur auf stark flimmrige Bereiche (Dithering) wirkt, während Quincunx das ganze Bild blurrt.Der Postfilter wirkt nur auf schwach "flimmrige" Bereiche. Wir haben es aber mit unterschiedlichen Dingen zu tun.

16-Bit-Dithering tauscht räumliche Auflösung gegen Farbauflösung ein. Die Rekonstruktion auf 22-Bit-Farbe geht zulasten der Schärfe (also der räumlichen Auflösung.)

Alphatestkantenflimmern oder Texturflimmern durch "optimierte" AF-Versionen sind klassische Aliasing-Effekte. Durch die Samplingrate ist die maximal rekonstruierbare Frequenz begrenzt. Aliasing zu haben heißt einfach gesagt, dass man auch noch unterhalb der Maximalfrequenz Fehler bekommt. Diese kann man prinzipiell nicht wegrechnen.

Blurring verhindert nun dass sich Pixelkontraste räumlich gesehen stark unterscheiden – man vernichtet Lokalitätsinformation. Die räumliche Auflösung sinkt. Blurring kann auch nicht (mit Ausnahme von Spezialfällen) zurückgerechnet werden. Lange Rede, kurzer Sinn: Es gilt, Aliasing zu vermeiden.

Der Blur-Filter ist nicht ein Übel per se :) für gewisse Bildnachbearbeitung und bestimmte Anwendungen, auch in der Signaltechnik allgemein, braucht man das. Tiefpassfilterung wird fast überall verwendet. Doch das heißt nicht automatisch, dass das Signal besser wird, das hängt immer davon ab, wie das Signal beschaffen ist.

Mr. Lolman
2004-12-30, 17:00:56
Dieser Filter treibt den Teufel mit dem Beelzebub aus: Feine Texturstrukturen werden verwischt, allerdings bleiben scharfe Kanten erhalten.

Der Postfilter wirkt nur auf schwach "flimmrige" Bereiche. Wir haben es aber mit unterschiedlichen Dingen zu tun.

16-Bit-Dithering tauscht räumliche Auflösung gegen Farbauflösung ein. Die Rekonstruktion auf 22-Bit-Farbe geht zulasten der Schärfe (also der räumlichen Auflösung.)

Wobei 3dfx so ziemlich das Optimum aus den Möglichkeiten geholt hat (und durch das fehlende AF war verringerte Schärfe nicht wieter auffällig. Mit negativem LOD wurde es wieder flimmrig, was der Postfilter tw. kaschierte)

Bspw: Klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2579733&postcount=230) (LOD-1)

Hier mehrere Bilder mit LOD @ -1.5: Klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2579970&postcount=235)

Ich hätt den 3dfx filter nicht in die Diskussion mit einbeziehen soll. Denn bei dem überwiegt der Nutzen ganz offensichtlich dem Schaden. Wo ich mir bei Quincunx eher nicht so sicher bin. Allerdings, um wieder einen Zusammenhang herzustellen, müsste Quincunx ja auch positiv auf 16bit Dithering wirken (mal
ungeachtet der verringerten räumlichen Auflösung)


Lange Rede, kurzer Sinn: Es gilt, Aliasing zu vermeiden.

Sag das mal den Alphatestknechten in der Spieleindustrie :|

MadManniMan
2004-12-30, 17:06:42
Lolman: seit NV25 kostet der Blur-Anteil von Quinblurrx nix mehr.

aths: na bitte! Es geht doch um Gottes Willen nicht immer nur um Objektivierbarkeit - gut, daß du da tolerant sein kannst, wenn du dich nur dazu durchprügelst ;)

Mr. Lolman
2004-12-30, 17:11:42
Lolman: seit NV25 kostet der Blur-Anteil von Quinblurrx nix mehr.


:up: Na immerhin. Ich finds toll, dass einem die Möglichkeit geboten wird. Auch wenn der Nutzen für viele fraglich ist.

Wo wir schon bei den Möglichkeiten sind. Ich hätte auch gerne forcierbare Texturkompression, frei wählbare SSAA Modi, einen Mipmapdithering Modus, sowie eine Möglichkeit Filteroptimierungen unabhängig von sonstigen Optimierungen zu deaktivieren. (Warum schaffens unsere Toolbastler nicht, mal schnell 3 Registry Keys einzubauen :|)

So Sachen wie, automatische Profile oder 3D Stereosupport wären dann noch wohl der Uberluxus schlechthin.

(del676)
2004-12-30, 18:07:48
Genau, deshalb studiere ich auch an einer Fachhochschule :rolleyes:

arrogantes geprolle ...


Ich will gar nichts kontern – aber anzweifeln, dass Quincunx die Bildqualität verbessert.


ich kann mich nicht erinner dass das irgendjemand behauptet hat :rolleyes:


Der Imperativ von "essen" lautet "iss!"

arrogant wie immer, wenn man mal wieder keine argumente hat ...
btw. nicht jeder ist deutscher und lebt in deutschland :rolleyes:

Jesus
2004-12-30, 18:33:09
Genau, deshalb studiere ich auch an einer Fachhochschule :rolleyes:

Ich will gar nichts kontern – aber anzweifeln, dass Quincunx die Bildqualität verbessert.

Der Imperativ von "essen" lautet "iss!"

Re OT:

lol, berichtigst du eigentlich deinen Professor auch immer wenn er einen Fehler macht ? :rolleyes:

Da kannte ich auch mal jemanden ...

q@h
2004-12-30, 19:14:19
(Warum schaffens unsere Toolbastler nicht, mal schnell 3 Registry Keys einzubauen :|)

Ich denke, diese Registry-Einträge sind seit einigen Treiber nicht länger wirksam. Ich kann mir nicht vorstellen, man möchte eine wirkliche Unterscheidbarkeit zwischen abgeschalteter Texturfilterreduzierung und abgeschalteten "app-spezifischen" Optimierungen erkennbar machen.

ATi versucht dies durch "Komplettabschaltung" zu erreichen, nVidia läßt gegenteilig nur die Filterreduktion abschalten.

Gast
2004-12-30, 19:15:51
Re OT:

lol, berichtigst du eigentlich deinen Professor auch immer wenn er einen Fehler macht ? :rolleyes:

Da kannte ich auch mal jemanden ...

Rere OT:
Warum sollte man Profs unkorrigiert lassen? Jeder macht Fehler und wenn sie nicht korrigiert werden, werden sie irgendwann zur subjektiven Wahrheit.

So, wie du's erzählst, klingt es so, als wäre der betreffende Prof da nicht begeistert drüber gewesen. Muss ganz schön eingebildet gewesen sein, der Typ.

q@h
2004-12-30, 19:16:11
^^ duz war ich auch.

Demirug
2004-12-30, 19:18:56
Sag das mal den Alphatestknechten in der Spieleindustrie :|

Die wissen das schon aber der Alphatest ist eben immer noch der beste Kompromiss für das Problem.

Jesus
2004-12-30, 19:22:05
Rere OT:
Warum sollte man Profs unkorrigiert lassen? Jeder macht Fehler und wenn sie nicht korrigiert werden, werden sie irgendwann zur subjektiven Wahrheit.

So, wie du's erzählst, klingt es so, als wäre der betreffende Prof da nicht begeistert drüber gewesen. Muss ganz schön eingebildet gewesen sein, der Typ.

Rerere: Klar sollte man das machen, kommt halt drauf an obs immer derselbe tut, oder obs alle machen ;)

Eingebildet war allerdings eher der Typ, ders immer (meist allein) gemacht hat, da er sich eingebildet hat alles am besten zu wissen (tut er heute noch - arbeitslos ;) ) :biggrin:

EoOT.

(del676)
2004-12-30, 19:25:56
Die wissen das schon aber der Alphatest ist eben immer noch der beste Kompromiss für das Problem.

ähem, auch wenn ich nur ein laie bin und nicht viel von 3d engines verstehe, aber Alphatests sind ein Problem, ein Problem der Anwender. d.h. das Problem der Progger wird mit Alphatests dann zum Problem der Anwender ;)

es muss doch eine Alternative zu Alphatests geben?
wenn ich mir das gras beim Codecreatures Bench ansehe flimmters ja auch ned wie sau

Grestorn
2004-12-30, 19:48:50
es muss doch eine Alternative zu Alphatests geben?
wenn ich mir das gras beim Codecreatures Bench ansehe flimmters ja auch ned wie sauJa, die Alternative heißt: x-fach mehr Polygone.

Selbst wenn die neusten GraKas damit evtl. klarkämen, so ist das Spiel dann nicht mehr auf älteren Modell spielbar. Und leider ist der Aufwand, z.B. für ein Gitter zwei Varianten anzubieten, eines mit echten Polygongittern und eine mit einer Alphatextur-Fläche zu viel Aufwand, um es in der Praxis umzusetzen. Also begnügen sich die meisten Entwickler mit dem Alphatextur-Gitter.

Tesseract
2004-12-30, 20:30:41
Ja, die Alternative heißt: x-fach mehr Polygone.

es gibt ja auch eine alphatextur variante mit weichem übergang. wird zB auch in CSS eingesetzt. also warum nicht in HL2 auch?

Grestorn
2004-12-30, 23:59:30
es gibt ja auch eine alphatextur variante mit weichem übergang. wird zB auch in CSS eingesetzt. also warum nicht in HL2 auch?Die gibt es? Hab ich ja noch nie von gehört. Wie soll das gehen?

Demirug
2004-12-31, 00:05:18
Die gibt es? Hab ich ja noch nie von gehört. Wie soll das gehen?

Alphableding ist eine Alternative da muss man aber vorsortieren was schlecht für die CPU ist und zudem leicht probleme beim Schatten machen kann.

Oder schau dir das mal an: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2592982&postcount=25

Grestorn
2004-12-31, 00:14:35
Alphableding ist eine Alternative da muss man aber vorsortieren was schlecht für die CPU ist und zudem leicht probleme beim Schatten machen kann.

Oder schau dir das mal an: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2592982&postcount=25HÖCHST interessanter Shader, den Du da gemacht hast! Schade, dass der in dem Thread nicht weiter diskutiert wird!

Wirst Du den weiterentwickeln? Gibt's auch auf nicht-Radeon Karten die Möglichkeit, einen festen Postprocessing Shader einzubinden?

Note to self: Auch Threads lesen, die dich eigentlich nicht interessieren...

Demirug
2004-12-31, 00:27:09
HÖCHST interessanter Shader, den Du da gemacht hast! Schade, dass der in dem Thread nicht weiter diskutiert wird!

Wirst Du den weiterentwickeln? Gibt's auch auf nicht-Radeon Karten die Möglichkeit, einen festen Postprocessing Shader einzubinden?

Note to self: Auch Threads lesen, die dich eigentlich nicht interessieren...

Das ist kein Postprocessing sondern ich greife da direkt denn Alphatest an. Es funktioniert mit jeder Karte bei der das MS maskierbar ist. Also auf jeden Fall bei Radeons und Geforce Karten. Bei den Exoten habe ich die Caps in diese Richtung nicht überprüft.

Eigentlich habe ich das für die Engine an der ich arbeite entwickelt. Jetzt gibt es das ganze aber auch als Plugin für den DX-Tweaker so das man es mit jedem DX9 Spiel (und teilweise mit DX8 Titeln) einsetzen kann

Banshee18
2004-12-31, 01:30:11
Jetzt gibt es das ganze aber auch als Plugin für den DX-Tweaker so das man es mit jedem DX9 Spiel (und teilweise mit DX8 Titeln) einsetzen kann

Wo gibts denn jetzt diesen ominösen DX-Tweaker? Ich war mal auf der Homepage, wenn ich diese richtig interpretiere, gibt es ihn noch nicht offiziell (oder bin ich blind?). Du redest aber davon, als könnte man ihn und die Plugins schon bekommen.

mfg

Banshee

aths
2004-12-31, 12:59:29
Re OT:

lol, berichtigst du eigentlich deinen Professor auch immer wenn er einen Fehler macht ? :rolleyes: OT: Nicht immer, aber manchmal :) Denen ist das eigentlich recht, wenn ihre Studenten mitdenken.

arrogantes geprolle ...

arrogant wie immer, wenn man mal wieder keine argumente hat ...
btw. nicht jeder ist deutscher und lebt in deutschland :rolleyes:Das mit der FH ist nicht arrogant, sondern weist auf den Unterschied zur (anspruchsvolleren, aber auch mehr theoretisch ausgerichteten) Universität hin. Aussage ist also: Für Uni reichts bei mir nicht.

Wenn mir jemand empfiehlt, mehr Knoblauch zu essen und das falsch schreibt, nehme ich mir heraus, auf den falschen Imperativ hinzuweisen.

ich kann mich nicht erinner dass das irgendjemand behauptet hat :rolleyes:Da du es nutzt musst du da die Gesamtqualität besser finden. Obwohl sie technisch schlechter ist. Quinunx erkauft ein "ruhigeres Bild" mit heftigem Informationsverlust.

aths
2004-12-31, 13:27:54
Wobei 3dfx so ziemlich das Optimum aus den Möglichkeiten geholt hat (und durch das fehlende AF war verringerte Schärfe nicht wieter auffällig. Mit negativem LOD wurde es wieder flimmrig, was der Postfilter tw. kaschierte)

Bspw: Klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2579733&postcount=230) (LOD-1)

Hier mehrere Bilder mit LOD @ -1.5: Sofern das Bias von 0 wirklich 0 entspricht, muss ein LOD-Bias von -1,5 zu Flimmern führen. Da ändert auch der Postfilter nichts dran. Der Postfilter nimmt subtile Dithering-Artefakte weg. Quake3 sah insgesamt auch mit Postfilter nicht besonders toll aus. Es gibt Stellen, wo auch 32-Bit-Rendering zu wenig ist, um Colorbanding zu vermeiden.

Sag das mal den Alphatestknechten in der Spieleindustrie :|Zumal es schon länger die Geometriepower gibt, statische Objekte sehr fein aufzulösen.

aths
2004-12-31, 13:29:09
Wo wir schon bei den Möglichkeiten sind. Ich hätte auch gerne forcierbare Texturkompression, frei wählbare SSAA Modi, einen Mipmapdithering Modus, sowie eine Möglichkeit Filteroptimierungen unabhängig von sonstigen Optimierungen zu deaktivieren. (Warum schaffens unsere Toolbastler nicht, mal schnell 3 Registry Keys einzubauen :|)Die Toolbastler können nur das einfügen, was der Treiber vorsieht. Ob die Settings die gewünschten Wirkungen zeigen liegt außerhalb der Macht der Toolbastler.

So Sachen wie, automatische Profile oder 3D Stereosupport wären dann noch wohl der Uberluxus schlechthin.Automatische Profile gibts beim Forceware schon länger.

(del676)
2004-12-31, 13:29:58
zeit mir mal wo ich gesagt habe das die Gesamtqualität besser ist?
ich habe nur gesagt 1600x1200 mit 2xQ gefällt mir bei kotor besser als 1600x1200 mit 2xAA weil das gras nicht mehr flimmert

und alle anderen modi sind entweder zu langsam oder ich müsste die Auflösung runtersetzen

wenn du weiter rumtheoretisieren willst bitte, wenn du die subjektive meinung andere nicht akzeptieren willst weil nur deine meinung die einzig richtige ist bitte
solch eine arroganz muss ich mir nicht antun


da fällt mir ein, spielst du auch mit Lod -3 weil Lod 0 die bildqualität senkt und das bild "zerstört" :rolleyes: :rotfl:

Demirug
2004-12-31, 14:21:05
Wo gibts denn jetzt diesen ominösen DX-Tweaker? Ich war mal auf der Homepage, wenn ich diese richtig interpretiere, gibt es ihn noch nicht offiziell (oder bin ich blind?). Du redest aber davon, als könnte man ihn und die Plugins schon bekommen.

mfg

Banshee

Derzeit haben nur ein paar Leute Beta Versionen. Demnächst gibt es wohl eine public Beta.

aths
2004-12-31, 15:10:29
zeit mir mal wo ich gesagt habe das die Gesamtqualität besser ist?
ich habe nur gesagt 1600x1200 mit 2xQ gefällt mir bei kotor besser als 1600x1200 mit 2xAA weil das gras nicht mehr flimmertWo ist da der Widerspruch?

da fällt mir ein, spielst du auch mit Lod -3 weil Lod 0 die bildqualität senkt und das bild "zerstört" :rolleyes: :rotfl:??? Man sollte immer mit LOD-Bias 0 spielen, was ich natürlich auch tu.

(del676)
2004-12-31, 15:15:23
Wo ist da der Widerspruch?

ich habe gesagt es gefällt mir besser, nicht die Qualität ist besser


??? Man sollte immer mit LOD-Bias 0 spielen, was ich natürlich auch tu.

wenn man nach deinen theorien geht muss man mit Lod -3 spielen
da bei Lod -3 ja mehr Bildinformationen verfügbar sind - bei Lod 0 wirds hinten verschwommener, das ist eine zerstörung der Bildinformation also kann es theoretisch ja garnicht gut sein oder?

aths
2004-12-31, 15:29:32
wenn man nach deinen theorien geht muss man mit Lod -3 spielen
da bei Lod -3 ja mehr Bildinformationen verfügbar sind - bei Lod 0 wirds hinten verschwommener, das ist eine zerstörung der Bildinformation also kann es theoretisch ja garnicht gut sein oder?Bei LOD -3 hat kann man aufgrund von Aliasing die Information nicht mehr rekonstruieren. Das ist also schlechter.

Xmas
2004-12-31, 15:34:18
Das ist kein Postprocessing sondern ich greife da direkt denn Alphatest an. Es funktioniert mit jeder Karte bei der das MS maskierbar ist. Also auf jeden Fall bei Radeons und Geforce Karten. Bei den Exoten habe ich die Caps in diese Richtung nicht überprüft.

Eigentlich habe ich das für die Engine an der ich arbeite entwickelt. Jetzt gibt es das ganze aber auch als Plugin für den DX-Tweaker so das man es mit jedem DX9 Spiel (und teilweise mit DX8 Titeln) einsetzen kann
D.h. du renderst bei aktiviertem Alpha-Test die polygone mehrmals, einmal pro Sample? Wie ist der Performance-Einbruch dabei?
Vor einiger Zeit hatte ich mal auf B3D eine Diskussion (http://www.beyond3d.com/forum/viewtopic.php?t=13859&postdays=0&postorder=asc&start=40) mit OpenGL guy von ATI darüber, wobei er meinte es wäre den Performance-Verlust nicht wert, das im Treiber zu implementieren.

Demirug
2004-12-31, 15:50:46
D.h. du renderst bei aktiviertem Alpha-Test die polygone mehrmals, einmal pro Sample? Wie ist der Performance-Einbruch dabei?
Vor einiger Zeit hatte ich mal auf B3D eine Diskussion (http://www.beyond3d.com/forum/viewtopic.php?t=13859&postdays=0&postorder=asc&start=40) mit OpenGL guy von ATI darüber, wobei er meinte es wäre den Performance-Verlust nicht wert, das im Treiber zu implementieren.

Ja, ich benutzte die Maskingmethode ohne Positionsveränderung. Die Performance habe ich jetzt noch nicht geprüft werde das aber nachholen.

EDIT:

Mit einer Demo in der man fast immer ein Stückchen Zaun sieht fällt es von 52 FPS auf 50 FPS.

An einer anderen Stelle bei der ich einen Zaun vollflächig auf dem Bildschirm habe ist der Einbruch von etwa (der Counter ist sehr unruhig) 150 auf 110 FPS. Hinter dem Zaun ist allerdings auch noch ein grosses Stück von einem zweiten Zaun zu sehen.

Xmas
2005-01-02, 00:52:47
Mit einer Demo in der man fast immer ein Stückchen Zaun sieht fällt es von 52 FPS auf 50 FPS.

An einer anderen Stelle bei der ich einen Zaun vollflächig auf dem Bildschirm habe ist der Einbruch von etwa (der Counter ist sehr unruhig) 150 auf 110 FPS. Hinter dem Zaun ist allerdings auch noch ein grosses Stück von einem zweiten Zaun zu sehen.
Das klingt ja noch einigermaßen brauchbar. Mit welcher Karte (Samplezahl?) hast du getestet? NV40?

Wie lange ist es denn noch hin bis zu einer fertigen DXTweaker-Version? Und wird man auch selbst Plugins schreiben können?

Mr. Lolman
2005-01-02, 01:14:12
Wie lange ist es denn noch hin bis zu einer fertigen DXTweaker-Version?

AFAIK recht bald. 14 Tage, oder so...

Demirug
2005-01-02, 01:49:10
Das klingt ja noch einigermaßen brauchbar. Mit welcher Karte (Samplezahl?) hast du getestet? NV40?

War eine 6800GT (die X800 läuft ja nicht in dem Board das ich im Moment habe) bei 4xAA. Entsprechend wurden die Alphatest Bereiche auch 4 mal gerendert. Ich baue da aber vielleicht noch eine Option ein das man die Alphatest samples auf die hälfte reduzieren kann.

Wie lange ist es denn noch hin bis zu einer fertigen DXTweaker-Version? Und wird man auch selbst Plugins schreiben können?

Ich hoffe in den nächsten 14 Tage einen internen Zero Bug Bounce zu haben und dann aus dem was wir haben eine Public Beta zu machen. Der Recorder/Player Teil bleibt da allerdings auf jeden Fall noch drausen.

Ob und wann wir das SDK (OK SDK ist für die eine Headerdatei und das TXT file vielleicht etwas hochgestochen) veröffentlichen steht noch nicht fest.

SKYNET
2005-01-06, 08:51:02
Hi
also gut, hier wird immer über Performance und dergleichen diskutiert. So nun will ich mal ein anderes Thema ansprechen und zwar die Bilqualität! Jedoch wird nur die Qualität der neuen Highend-Karten angesprochen: 6800 GT/Ultra gegen X800 Pro/XT. Da man sonst zu viel berücksichtigen müsste wie z.B. fehlender Speicher, andere Architektur etc.

Hier geht es um:
"ATI - Get off the Game" gegen "Nvidia - The Way it's meant to be benchmarked"


Immer wieder wird die Performance durch Treiberoptimierungen verbessert und wieder kommen Kritiken wie Filteroptimierungen, die die Bildqualität ins Bodenlose treibt(daher das Wort Treiber :D).
So ich hoffe das es hier viele Leute gibt, die schon beide Seiten ausprobiert haben und berichten können wie die Bildqualität beider Hersteller ist. Klar liegt in der Leistung die X800 XT meist vorne aber liefert sie auch wirklich die selbe Qualität wie die 6800 GT/Ultra?? Oder ist Nvidia in der Qualität doch weiter hinten.
Sind bestimmte Effekte auf der 6800 oder auf X800 Serie besser? Wer bringt mehr Qualität bei der anisotropischen Filterung und wer das bessere Anti-Aliasing. Wer zaubert mehr details bei OpenGL und Direct3D auf die Matt-Scheibe(damit ist der Monitor bzw. TFT gemeint ;)) und wer verliert dadurch die meiste Leistung?
Zu klären wäre auch ob neue Treiber eine besser Bildqualität versprechen oder doch mehr Leistung durch optimierungen bringen die allerdings an der Qualität zerren?

So dann lasst die Spiele beginnen :)

Martin


Unnötiger Flame entfernt.

MixItBaby
2005-01-06, 12:22:40
Ich hab mir den gesamten Thread nicht durchgelesen, sondern beziehe mich mal auf den Titel: Bildqualität. Das ist für mich das, was ich wahrnehme - nicht, was mir irgendwelche Benchies liefern. Ich kann hier nur von zwei Spielen sprechen: Counterstrike (jaaaa, schlagt mich *gg* - grafisch hoch anspruchsvoll und detailreich...) und "Die Sims 2". Nur diese beiden habe ich sowohl auf meinem in der Sig angegebenen Desktop als auch auf meinem Notebook (das vom Lidl, ca. 9 Monate alt, mit einer ATI 9600 GraKa).

Beide Spiele sehen für mich bei annähernd gleichen Einstellungen in den Treibern (AF, AA und der ganze Krempel) auf dem Notebook einfach besser aus. Die Farben wirken satter, das ganze Bild irgendwie harmonischer. Wenn ich nun bedenke, daß der Bildschirm des Notebooks sicherlich nicht die Qualität des BenQ hat, dann ärgere ich mich schon ein wenig, daß ich meine alte 8k5 gegen die FX5900XT getauscht habe.

Hätte ich den Vergleich mit den beiden genannten Spielen nicht direkt nebeneinander gesehen, wäre mir die "reduzierte" Qualität der GF nicht aufgefallen.
Alles wie gesagt meine Eindrücke, festgestellt mit meinen krummen, bald 37 Jahre alten Augen. ;)

Grestorn
2005-01-06, 13:11:29
Hätte ich den Vergleich mit den beiden genannten Spielen nicht direkt nebeneinander gesehen, wäre mir die "reduzierte" Qualität der GF nicht aufgefallen.
Alles wie gesagt meine Eindrücke, festgestellt mit meinen krummen, bald 37 Jahre alten Augen. ;)Was Du beschreibst sind Unterschiede in Helligkeit, Kontrast und Gamma und haben nichts ursächliches mit der Grafikkarte zu tun.

Es ist ganz natürlich, dass sich unterschiedliche Monitore immer leicht unterscheiden. Spiel ein wenig mit diesen Einstellungen rum, dann bekommst Du leicht auf beiden Rechnern die selbe, subjektive Qualität.

MixItBaby
2005-01-06, 13:18:52
Was Du beschreibst sind Unterschiede in Helligkeit, Kontrast und Gamma und haben nichts ursächliches mit der Grafikkarte zu tun.

Es ist ganz natürlich, dass sich unterschiedliche Monitore immer leicht unterscheiden. Spiel ein wenig mit diesen Einstellungen rum, dann bekommst Du leicht auf beiden Rechnern die selbe, subjektive Qualität.

Nope - die Einstellungen waren, wie ich schon schrieb, weitestgehend identisch. Es ist mir trotz vieler und langwieriger Versuche nicht gelungen, auch nur annähernd ein ähnlich "schönes" Bild auf meinem Desktop zu zaubern. Ich werde aber heute abend mal fix auf beiden Rechnern die Grafikeinstellungen auf Treiber-Default stellen und beide an den BenQ klemmen, um Monitor-Einflüße auszuschließen.
Mein erster Eindruck beim Start von CS auf dem Notebook war "Booaahh!" :eek: - und da hatte ich noch gar nichts verändert. Ich überlege, ob ich nicht auch noch FC auf das Notebook rüberschubse, das wäre für einen Grafikvergleich sicherlich gut geeignet ;-).

Tjell
2005-01-06, 13:23:56
@MixItBaby

Hast Du die Möglichkeit Deinen normalen Monitor noch ans Notebook anzuschließen? Erst dann ließe sich ein BQ-Vergleich zwischen 5900XT und M10 (M9?) herstellen, bei zwei verschiedenen Displays ist Dein "Vergleich" für den Kater.

MixItBaby
2005-01-06, 13:26:07
@MixItBaby

Hast Du die Möglichkeit Deinen normalen Monitor noch ans Notebook anzuschließen? Erst dann ließe sich ein BQ-Vergleich zwischen 5900XT und M10 (M9?) herstellen, bei zwei verschiedenen Displays ist Dein "Vergleich" für den Kater.

Gucksu mein Post direkt vor Deinem... ;)

Tjell
2005-01-06, 13:34:36
...Ich werde aber heute abend mal fix auf beiden Rechnern die Grafikeinstellungen auf Treiber-Default stellen und beide an den BenQ klemmen, um Monitor-Einflüße auszuschließen. ...
Achso, so war das gemeint. :redface:

MixItBaby
2005-01-06, 13:36:35
Achso, so war das gemeint. :redface:

Oops, da ist mir glatt ein "de" verloren gegangen - schon geändert, thx ;)

(del676)
2005-01-06, 13:37:47
mir kommt jedesmal das Grausen wenn ich etwas ohne Digital Vibrance sehe :)

Jesus
2005-01-06, 13:59:46
mir kommt jedesmal das Grausen wenn ich etwas ohne Digital Vibrance sehe :)

und dann wundern wenn man Farbübergänge gar nicht mehr sieht :biggrin:

Coda
2005-01-06, 23:01:11
Jo, Digital Vibrance ist wirklich ne Verschlimmbesserung.

Gast
2005-01-06, 23:22:42
...

Beide Spiele sehen für mich bei annähernd gleichen Einstellungen in den Treibern (AF, AA und der ganze Krempel) auf dem Notebook einfach besser aus. Die Farben wirken satter, das ganze Bild irgendwie harmonischer. Wenn ich nun bedenke, daß der Bildschirm des Notebooks sicherlich nicht die Qualität des BenQ hat, dann ärgere ich mich schon ein wenig, daß ich meine alte 8k5 gegen die FX5900XT getauscht habe.
...


Weil du es beim letzten mal bnicht einsehen konnntest, mache ich mal noch einen Versuch dir das zu erklähren:

Jeder Monitor hat anderes Kontrastverhalten, andere Ausleuchtung, andere Schwarzwerte und so weiter und so fort, wenn du die Grafikkarten im ausgegebenen Bild mit Farbsättigung und sowas vergleichen willst dann bitte auch nur an ein und dem selben Monitor, alles andere ist hochgradig unsinnig. Schließe bitte deinen Laptop an deinen Desktop-Monitor an und gebe das Spielbild vom Laptop auf den Desktop-Monitor aus und dann vergleiche dass mit dem Bild des Desktops auf diesem Monitor. ;)

Gast
2005-01-07, 08:28:36
Mal meine Eindrücke der letzten Jahre: Als ich von Geforce 3Ti200 auf Geforce Ti4200 fand ich das sich die Bildquali verschlechter hat ... Also Gforce 3 bessere Quali als 4 .... Als ich dann auf Ati 9700 wechselte fand ich die Bildquali deutlich besser als die der Gforce 4. Beim wechsel von der 9700 zur 9800pro empfand ich wieder eine Verschlechterung wärend mir das Bild der 6800 GT nun wieder um eingies besser gefällt als das der 9800 pro. Also ein stetiges auf und ab wobei die 9700er und die 6800 GT die Highlights in sachen Bildquali waren nach meines subjektiven Eindrücken.

Gast
2005-01-07, 15:54:00
Im grunde nehmen sich die neuen Karten recht wenig was die Bildqualität angeht. Nv bietet mit dem NV40 das leicht bessere AF, ATI das leicht bessere AA. In der realität sollte man allerdings kaum einen Unterschied ausmachen können. Inzwischen kann man bei beiden die filteroptimierungen abschalten. Die 2D Bildqualität sollte sich ebenfalls kaum bis gar nicht unterscheiden.

Sagmal REUNION,

was für einen Film schaust du gerade???
nvidia-Werbespot???

Das nv das bessere AF hat ist gelogen!
In der REALITÄT flimmert es bei meinem Kumple mit 6800'er und bei mir nicht!

Das ATI immer schon das bessere Bild aus Sand gemacht hat ist wohl umumstritten!

a!
2005-01-07, 16:04:37
Die GeForce 4 Ti Reihe hatte und hat das bestet AF meines wissens nach.Das AA war von der Quali ähnlich der von ATI.Somit hatte NVIDIA eigentlich auch die beste Bildquali.Wie das jetzt aussieht: Ka.Mir fehtl auch die Zeit und das Interesse da jetzt nachzuschauen...

Jedenfalls bemerkte ich eine schlechtere Qualität beim AF als ich von meiner GF Ti 4800 auf die R 9800 Pro umgestiegen bing.Wenn ich bei der GeForce 4 8xAF eingeschaltet hab,was leider nicht oft möglich war,sah das wirklich deutlich besser aus als jetzt 8xAF bei der 9800 Pro und ich glaube sogar 16xAF kommt da irgendwie nicht ran.

Tjell
2005-01-07, 16:21:39
...
Das nv das bessere AF hat ist gelogen!
In der REALITÄT flimmert es bei meinem Kumple mit 6800'er und bei mir nicht!Seit der Beta-FW 67.02 sitzt das Problem vor dem PC...

StefanV
2005-01-07, 16:47:15
Seit der Beta-FW 67.02 sitzt das Problem vor dem PC...
Dafür handelt man sich andere Probleme ein usw...

Z.B. gibts starke Probleme mit Riddick und Ravenshield, ebenso mit OMF: BG...

Meinereiner hatte Probleme mit dem Haupmenü bei Crimson Skies mit der 5900 weshalb ich 'nen 45er ausgegraben und istalliert hab...

Xmas
2005-01-07, 16:52:36
Sagmal REUNION,

was für einen Film schaust du gerade???
nvidia-Werbespot???

Das nv das bessere AF hat ist gelogen!
In der REALITÄT flimmert es bei meinem Kumple mit 6800'er und bei mir nicht!

Das ATI immer schon das bessere Bild aus Sand gemacht hat ist wohl umumstritten!
Mäßige bitte deinen Ton, oder du läufst Gefahr dass deine weiteren Beiträge kommentarlos gelöscht werden.

Xmas
2005-01-07, 16:54:24
Das ATI immer schon das bessere Bild aus Sand gemacht hat ist wohl umumstritten!
Das ist offensichtlich nicht unumstritten, wie hunderte Threads in diesem Forum beweisen.

Mr. Lolman
2005-01-07, 16:55:03
wobei die 9700er und die 6800 GT die Highlights in sachen Bildquali waren nach meines subjektiven Eindrücken.

Was wahrscheinlich zu einem großen Teil an der tw. recht unterschiedlichen Signalqualität liegt. Denn filtertechnisch arbeiten 9700 und 9800 genau gleich...

Tjell
2005-01-07, 16:56:47
...
Z.B. gibts starke Probleme mit Riddick und Ravenshield, ebenso mit OMF: BG...Hm, das kann ich nicht nachprüfen. Mit ner 6800er meinst Du?

...
Meinereiner hatte Probleme mit dem Haupmenü bei Crimson Skies mit der 5900 weshalb ich 'nen 45er ausgegraben und istalliert hab...Das kann ich nicht bestätigen. Ich habe Crimson Skies definitiv erst letztes Jahr mit nem 50er-Treiber auf der FX5900 gezockt.

StefanV
2005-01-07, 16:59:20
Hm, das kann ich nicht nachprüfen. Mit ner 6800er meinst Du?
Jap, 6800GT

Das kann ich nicht bestätigen. Ich habe Crimson Skies definitiv erst letztes Jahr mit nem 50er-Treiber auf der FX5900 gezockt.
Schön für dich, welche Treiber sind gerad aktuell?!

Tjell
2005-01-07, 17:04:53
Schön für dich, welche Treiber sind gerad aktuell?!Schriebst Du nicht, daß Du für Crimson Skies auf einen 45er zurückgegangen bist?

Und was hat das mit aktuellen FW zu tun? Ich habe keine FX5900 mehr, kann also nicht sagen, was sich für diese Karte treibermäßig verschlechtert haben mag.

Banshee18
2005-01-08, 04:28:16
Ich möchte auch mal meine Meinung dazu kundtun, da ich neulich erst von R300 nach nV40 gewechselt habe.
In Sachen AA sind sich beide Chips doch recht ähnlich, den Vorteil des gammakorrigierten AA bei Ati sieht man nur selten, wenn, dann aber recht deutlich. Dafür entschädigen mich die verschiedenen Hybridmodi und SSAA in alten Spielen und teils auch in neueren, z.B. NFS:U.
Die Filterqualität bei nVidia ist jedoch ziemlich bescheiden: Texturen flimmern in den meisten Spielen sehr stark, egal, was man einstellt. Wenn sie mal nicht flimmern, erkennt man imho keinen Unterschied, zumindest nicht, wenn man keinen direkten Vergleich hat.
Treiber ist übrigens der 66.93

mfg

Banshee

PS: für mich ist Kantenglättung sehr wichtig im Gegensatz zu AF. Außer dem brilinearen Filter kann ich mit allen Optimierungen gut leben und habe deshalb wahrscheinlich auch nicht so ein geschultes Auge dafür.So, jetzt könnt ihr mich hauen.... ;D

Edit: AF ist natürlich auch wichtig, allerdings reicht mir das Optimierte.

MechWOLLIer
2005-01-08, 09:31:17
Installiere z.B. mal den ForceWare 71.20 und stelle den LOD Schalter mal auf Clamp.
Damit verbietest du ein negatives LOD und die Texturen sollten bei AF auch nicht mehr flimmern:)

Jesus
2005-01-08, 11:53:05
Installiere z.B. mal den ForceWare 71.20 und stelle den LOD Schalter mal auf Clamp.
Damit verbietest du ein negatives LOD und die Texturen sollten bei AF auch nicht mehr flimmern:)

Dafür werden sie oft unschärfer und es funktioniert nicht bei jedem Game (HL2 z.b., lt. jemandem in NV Forum ;) ).

Gast
2005-01-08, 12:07:27
Nope, das resultat "Clamp" Schalter ist das selbe wie wenn man per Atuner den LOD manuell anpasst um das flimmern wegzubekommen. Funst eigentlich immer, und wenn nicht kann mans LOD noch n bissl raufdrehn und man sollte highquality im treiber anwählen, trilinear erzwingen ist sicher angebracht.

Wenns nicht flimmert wirds unschärfer, is das nicht genau das was LOD immer bewirkt...

MechWOLLIer
2005-01-08, 13:20:01
Dafür werden sie oft unschärfer und es funktioniert nicht bei jedem Game (HL2 z.b., lt. jemandem in NV Forum ;) ).
Der Schalter funktioniert eigentlich immer, bei mir auch bei HL2 einwandfrei und vom Gegenteil habe ich bis jetzt noch nichts gehöhrt.
Und unschärfer wird eigentlich sogut wie nichts und wenn doch, liegt es dann auf ATI Niveau.

Banshee18
2005-01-08, 16:05:42
Im 66.93 gibt es auch eine Option "Übereinstimmende Texture-Clamp". Ist das nicht das gleiche? Was bewirkt es?

Tesseract
2005-01-08, 16:11:51
Dafür werden sie oft unschärfer

wenn sie unschärfer wird ist das ein zeichen dafür, dass sie vorher eben zu scharf war. das LOD hat auf 0,0 zu sein. alles andere ist einfach "falsch".

Im 66.93 gibt es auch eine Option "Übereinstimmende Texture-Clamp". Ist das nicht das gleiche? Was bewirkt es?

nope das ist was ganz anderes. clamp heißt in dem zusammenhang einfach "fixieren" aber das hat mit dem LOD nix zu tun.

Mr. Lolman
2005-01-08, 16:12:22
Der Schalter funktioniert eigentlich immer, bei mir auch bei HL2 einwandfrei und vom Gegenteil habe ich bis jetzt noch nichts gehöhrt.
Und unschärfer wird eigentlich sogut wie nichts und wenn doch, liegt es dann auf ATI Niveau.

Hat man ATi nicht immer nach gesagt dass sie überscharf filtern? Und jetzt sind sie plötzlich der Maßstab für unscharfe Grafik?

/edit:
Angeblich macht LOD Clamp bei Battlefield Probleme. Stimmt das?

aths
2005-01-08, 17:49:20
Hat man ATi nicht immer nach gesagt dass sie überscharf filtern? Und jetzt sind sie plötzlich der Maßstab für unscharfe Grafik?ATI-AF filtert mal überscharf, und mal zu unscharf.

Tjell
2005-01-08, 18:00:15
Hat man ATi nicht immer nach gesagt dass sie überscharf filtern? Und jetzt sind sie plötzlich der Maßstab für unscharfe Grafik?...ATI ist seit langem für mich mehr oder weniger weicher als NV bei AF.

...
/edit:
Angeblich macht LOD Clamp bei Battlefield Probleme. Stimmt das?Nein.

Gast
2005-01-08, 19:08:08
Dafür werden sie oft unschärfer und es funktioniert nicht bei jedem Game (HL2 z.b., lt. jemandem in NV Forum ;) ).

Du solltest nicht immer spekulieren vor allem dann nicht wenn du noch nie eine solche Karte besessen hast. Wenn Unschärfe dann wohl bei ATi...

Gast
2005-01-08, 19:23:01
Hi
Ich hatte vor meiner jetzigen 6800 16/6 ne 9600 PRO drinne.

Ich spiel sehr oft Call od Duty und muss sagen das auf meiner alten 9600 Pro weitaus besser aussah als mit meiner jetzigen 6800 ;(

BEide mit 4aa und 8AF getestet

Gast
2005-01-08, 19:29:28
Mann muss mall jetzt langsam über die AA und AF qualität reden da ist ATI das mass der dinge!Wieso bricht eine NV Karte immer so schnell ein darüber mussten wir glaub ich mall reden.Benutz Nv eine andere Filtertechnick

MechWOLLIer
2005-01-08, 22:35:44
Hat man ATi nicht immer nach gesagt dass sie überscharf filtern? Und jetzt sind sie plötzlich der Maßstab für unscharfe Grafik?
/edit:
Angeblich macht LOD Clamp bei Battlefield Probleme. Stimmt das?
Ich habe nie gesagt, das ATI zu überscharf filtern würde. Ich hatte vor einem Jahr selber noch eine ATI und fande das Maß der Filterung immer gelungen(nicht die Qualität).
Genauso ist es jetzt bei Nvidia.

Ob Battlefiled Probleme macht weiß ich nicht.

Gast
2005-01-09, 05:32:54
Hi
Ich hatte vor meiner jetzigen 6800 16/6 ne 9600 PRO drinne.

Ich spiel sehr oft Call od Duty und muss sagen das auf meiner alten 9600 Pro weitaus besser aussah als mit meiner jetzigen 6800 ;(

BEide mit 4aa und 8AF getestet

kann ich mir net vorstellen.
vllt. eine einstellungs sache? Treiber etc.

Mantikor
2005-01-09, 12:08:42
Funktioniert LOD Clamp auch bei den FXen? Battlefield sieht irgendwie extrem überscharf aus, wenn ich AF benutze..

Razor
2005-01-09, 12:53:16
Im 66.93 gibt es auch eine Option "Übereinstimmende Texture-Clamp". Ist das nicht das gleiche? Was bewirkt es?Nein.
Ist eine OpenGL-Kompatibilitätseinstellung, die per Profil sogar für einige Games erzwungen wird.
Soll wohl verhindern, dass 'Lücken' zwischen zwei Texturen entstehen...

Das was hier gemeint ist, nennt sich "negative LOD bias" und kann 'allow' annehmen oder 'clamp'.
allow = negatives LOD wird unter D3D zugelassen
clamp = negatives LOD wird unter D3D nicht zugelassen und mit '0' interpretiert

Ist mit 67.02/03, 71.20/24 verfügbar und auch mit dem 67.65 via Registery-'Hack'.

Hi
Ich hatte vor meiner jetzigen 6800 16/6 ne 9600 PRO drinne.
Ich spiel sehr oft Call od Duty und muss sagen das auf meiner alten 9600 Pro weitaus besser aussah als mit meiner jetzigen 6800 ;(
BEide mit 4aa und 8AF getestetIch selber habe das mal mit 'ner R9800p nachgestellt... und kann es NICHT nachvollziehen. Kann es sein, dass Du die Aniso-Optimierungen im Treiber nicht deaktiviert hast?

Funktioniert LOD Clamp auch bei den FXen? Battlefield sieht irgendwie extrem überscharf aus, wenn ich AF benutze..Gute Frage...
Die FX'en haben unter D3D eigentlich keinerlei Probleme mit der Darstellung bei negativem LOD.

Auch hier (wie auch für den Gast darüber) :
- welcher Treiber?
- welche Einstellungen in Treiber-Panel?

Razor

P.S.: und nein, BF macht keinerlei Probleme... ganz im Gegenteil!

Mantikor
2005-01-09, 12:57:48
- welcher Treiber?
- welche Einstellungen in Treiber-Panel?


Trieber ist der 66.81. Optimierungen sind bis auf die Trilineare abgeschalten.
Benutze 4xQAF.

MechWOLLIer
2005-01-09, 14:04:59
Gute Frage...
Die FX'en haben unter D3D eigentlich keinerlei Probleme mit der Darstellung bei negativem LOD.

Exact, da bei der GeforceFX nicht so am LOD beim AF herumgespielt wurde, flimmert da nichts und dementsprechend ist auch keine Funktion nötig, die ein negatives LOD verhindert. Dazu sollte es imo auf einer GeforceFX nicht kommen, es sei, die Applikation fordert es an.