PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 2D Qualität


stevens
2005-02-24, 18:00:26
Es scheint ziemliche Unterschiede in der 2D Qualität zwischen nvidia und ATI zu geben.
Habe mal eine Radeon 9200 mit einer GF4 und einer GFFX verglichen.
Wenn ich in Photoshop einen S/W-Verlauf mache und den Gammawert per Treiber (oder wie in meinem Falle per Kalibrierungssoftware, die ja genauso auf die Video-LUT zugreift) verändere, bilden die nvidias Streifen, während die ATI immer noch einen völlig streifenfreien Verlauf zeigt.
Gewaltiger Unterschied! Und wahrscheinlich ist eine GF 6 da auch nicht anders als eine GFFX.
ATI arbeitet wohl mit einer höheren Bittiefe in der Video -LUT.
Die Gamer wirds nicht interessieren, aber jeder, der seinen Monitor mit entsprechender Hardware/Software kalibrieren will, wird den Unterschied sehen.
Leider wird in den Graka-Foren nur über Spiele gequatscht, deshalb legen die Hersteller nur noch darauf Wert. Schade.
Stevens

stevens
2005-02-25, 15:46:47
Schade , dass so elementare Dinge wie Bildqualität niemanden mehr zu interessieren scheinen.
Hauptsache die Spiele laufen.
stevens

Esther Mofet
2005-02-25, 15:57:28
Nee nee ..da wird schon drüber Diskutiert..
Und das die BQ bei ATI deutlich besser iss(auch manchmal im 3D) mag mann halt nedd so gerne Wahrhaben im NV Lager...
Ich hab diese Unterschiede auch schon oft festgestellt..
Mfg Th Q
PS soll aber von Hersteller zu Hersteller doch Unterschiede geben..
wobei ich dann wohl immer die schlechten erwisch...Albatron,MSI

rdhgdfh
2005-02-25, 16:01:33
bei korrekter darstellung muss ein schwarz-weiß-verlauf streifen zeigen.

da es nur 256 graustufen gibt ist eine einzelne stufe bei 1024x768 pixeln immerhin 4 pixel breit, bei 1280 sogar 5, um mal in gängigen auflösungen zu bleiben. bei einer auflösung von 1600 wären es sogar schon im schnitt 6,25 pixel pro graustufe.

diese auflösung ist auf jeden fall zu wenig um ein wirklich streifenfreies bild zu erhalten.

wenn du bei einer grafikkarte keine streifen erhälst liegt dass eher daran dass der DAC die farbübergänge verschmiert, was unter umständen zwar zu einem subjektiv besseren bild führen kann, im endeffekt aber "falscher" ist, und auch in der maximal möglichen bildschärfe zu abstrichen führt.

Mr. Lolman
2005-02-25, 16:13:25
bei korrekter darstellung muss ein schwarz-weiß-verlauf streifen zeigen.

da es nur 256 graustufen gibt ist eine einzelne stufe bei 1024x768 pixeln immerhin 4 pixel breit, bei 1280 sogar 5, um mal in gängigen auflösungen zu bleiben. bei einer auflösung von 1600 wären es sogar schon im schnitt 6,25 pixel pro graustufe.


Dafür sind die Farbunterschiede so gering dass man die Streifen normalerweise nicht wahrnimmt. (auf TFTs ist das wieder ein ganz eigenes Kapitel ;))

nordic_pegasus
2005-02-25, 16:27:49
Dafür sind die Farbunterschiede so gering dass man die Streifen normalerweise nicht wahrnimmt. (auf TFTs ist das wieder ein ganz eigenes Kapitel ;))

dann frag ich mal ganz dumm: hat die 2D Qualitätsaspekt vom Threadstarter nur was mit analogen Signalen zu tun oder ist das auch bei TFT+DVI zu erkennen? Ich hab jetzt Nvidia, ATI, Matrox und Intel per DVI an meinem TFT gehabt und unter 2D nie einen Unteschied bemerkt.

Mr. Lolman
2005-02-25, 16:36:46
Imo gibts keine TFTs die wirklich 32bit Farben darstellen.


Ich habs jetzt aber selbst überprüft und konnte es kaum glauben. Bei meiner 6800GT sieht man eindeutig Streifen, bei meiner 64MB 9500@pro nicht. :|


/edit: Das komische ist, dass es in den Streifen selbst noch Farbverläufe gibt, wo lt. Photoshopinfofenster keine sein sollten (Farbunterschiede trotz ghleichem Farbwert), und zwar entgegengesetzt zum eigentlichem Farbverlauf, was die Streifen noch deutlicher macht. Ich müsste das jedoch nochmal mit nem anderem Monitor gegenchecken...

/edit2: Ok der Unterschied dürfte hauptsächlich von den 2 unterschiedlichen TFT Modellen kommen, wo ich mich erdreistet habe, da einfach zu behaupten, dass die GraKas an der unterschiedlichen Qualität schuld sind. Ich nehm alles zurück :D

nordic_pegasus
2005-02-25, 16:46:24
Imo gibts keine TFTs die wirklich 32bit Farben darstellen.


Ich habs jetzt aber selbst überprüft und konnte es kaum glauben. Bei meiner 6800GT sieht man eindeutig Streifen, bei meiner 64MB 9500@pro nicht. :|

Tut das denn irgendein anderer Monitor-Typ? Man redet bei 32bit doch immer von 16.7Mio Farben... 16.7Mio sind aber 2^24 also 24bit.

Mit was für nem Tool kann ich das denn auch mal testen, Photoshop hab ich nicht.

Mr. Lolman
2005-02-25, 16:48:15
Tut das denn irgendein anderer Monitor-Typ? Man redet bei 32bit doch immer von 16.7Mio Farben... 16.7Mio sind aber 2^24 also 24bit.


Iirc haben viele auch mit 24bit ein Problem...


Ansonsten: Probier mal den Paintshop pro, oder ne Trial vom Photoshop.

sadf
2005-02-25, 16:58:26
Dafür sind die Farbunterschiede so gering dass man die Streifen normalerweise nicht wahrnimmt. (auf TFTs ist das wieder ein ganz eigenes Kapitel ;))

der mensch kann zwar nicht 16mill farben wirklich wahrnehmen (die 24bit-darstellung erlaubt) allerdings deutlich mehr als 256 helligkeitsstufen.

von daher muss man einen unterschied zwischen den einzelnen helligkeitsstufen sehen können, wenn man das ganze spektrum zwischen ganz weiß und komplett schwarz abdecken will (zumindest zwischen gewissen helligkeitsstufen).
vor allem im mittleren bereich bei rund 50% grau sieht man so, wenn man genau schaut deutliche unterschiede. je größer der monitor und damit natürlich die einzelnen farbstufen, desto deutlicher wird das ganze.

wenn man dann zusätzlich an den kontrast- und gammaregler herumspielt wird das ganze natürlich noch schlimmer.

vor allem analoge crt-monitore können dies in verbindung mit einer schlechten signalqualität noch etwas verschleiern, bei einem digital angeschlossenen tft ist das jedoch unmöglich.

dann frag ich mal ganz dumm: hat die 2D Qualitätsaspekt vom Threadstarter nur was mit analogen Signalen zu tun oder ist das auch bei TFT+DVI zu erkennen? Ich hab jetzt Nvidia, ATI, Matrox und Intel per DVI an meinem TFT gehabt und unter 2D nie einen Unteschied bemerkt.

die meisten tft-monitore stellen die farben mit 24bit farbtiefe dar. das reicht nicht aus um bei einem derartigen farbverlauf ein 100% bandingfreies bild zu erzeugen. allerdings sollte es bei der dvi-anbindung egal sein welche grafikkarte man verwendet da die signale digital übertragen werden.

RoKo
2005-02-25, 18:46:54
/edit: Das komische ist, dass es in den Streifen selbst noch Farbverläufe gibt, wo lt. Photoshopinfofenster keine sein sollten (Farbunterschiede trotz ghleichem Farbwert), und zwar entgegengesetzt zum eigentlichem Farbverlauf, was die Streifen noch deutlicher macht. Ich müsste das jedoch nochmal mit nem anderem Monitor gegenchecken...
Das dürfte eine optische Täuschung sein.

stevens
2005-02-25, 18:52:41
Letztlich ist es egal, ob man einen TFT hat, der prinzipiell nur 24 bit Farbtiefe hat, oder einen CRT, der eine fast unbegrenzte Farbtiefe hat, da er analog arbeitet.
Fakt ist doch, dass die Graka nur 24 bit ausgibt...auch im 32 bit Modus, in dem die restlichen 8 bit für den Alpha-Kanal verwendet werden.
Bei einem Grauverlauf reichen 24 bit "fast" aus, um einen streifenfreien Verlauf zu erhalten.
Diese 24 bit (also 8 bit bei einem S/W-Bild) ergeben 256 Graustufen. Aber nur solange man nicht die Video-LUT verändert (via Kalibrierung oder gamma im Treiber).
Arbeitet die Video - LUT nämlich auch nur mit 8 bit/Kanal, bleiben eben keine 256 Stufen mehr übrig, sondern weniger. Und dann gibts Streifen. Bei ATI arbeitet die LUT anscheinend mit 10 oder mehr bit/Kanal und deshalb bleiben immer 256 Stufen übrig, egal wie sehr man die LUT verändert. Das zeigt zumindest mein Test.
Mich hätte nur einfach interessiert, ob mir das jemand bestätigen kann, dass die LUTs von nvidia ind ATI mit unterschiedlicher Bit-Tiefe arbeiten.
stevens

sdaff
2005-02-25, 20:03:36
Letztlich ist es egal, ob man einen TFT hat, der prinzipiell nur 24 bit Farbtiefe hat, oder einen CRT, der eine fast unbegrenzte Farbtiefe hat, da er analog arbeitet.


nicht ganz.
das analoge signal muss ja erst mal von einem DAC erstellt werden. dieses wird zwar aus einem digitalen signal mit endlich vielen stufen erstellt, hat aber letztendlich unendlich viele stufen.
letztendlich hängt dann das analoge signal in wirklichkeit nicht nur vom digitalen wert des aktuellen pixels ab sondern auch von den umgebenden pixeln und anderen umwelteinflüssen.

wenn der DAC beispielsweise ein weißes pixel erzeugt und gleich darauf ein schwarzes braucht das signal eine gewisse zeit um von der höchsten spannung auf die niedrigste zu kommen. normalerweise sollte das geschehen solange der strahl der röhre zwischen den einzelnen löchern der maske ist. in der realität ist es aber so dass man nicht genau vorhersehen kann wie lange das signal dafür braucht.

deswegen fließt in der realität in den tatsächlichen farbwert eines pixels auch der farbwert der umliegenden pixel mit ein. bei starker helligkeit kann es noch auftreten dass sich umliegende pixel überstrahlen.

durch diese, großteils dynamischen und damit praktisch nicht vorhersebaren störgrößen kommen tatsächlich eine größere anzahl an farben am monitor an als das digitale bild enthält.

beim (analog angeschlossenen) tft bringt das natürlich nichts, da dieser wieder ein digitales signal erstellt, somit entsteht bei zu starken farbabweichungen am ehesten noch ein rauschen, wenn das signal gut genug ist werden die signalspannungen die zwischen 2 tatsächlichen farbwerten liegen nicht mehr sichtbar (es wird der farbwert genommen der dem signal am nähesten kommt).
bei crt´s dagegen wird jede farbe auch wirklich dargestellt, darunter auch die, die digital nicht existieren.

dass bei zu starker gamma- oder kontrast-korrektor im ergebnis weniger farbzwischenstufen zustande kommen ist auch logisch, selbst wenn intern eine höhere auflösung verwendet wird, so lange die wieder auf 24-bit gerundet werden. siehe auch dass gamma-problem beim forceware 75.90 mit FSAA. auch dort wird die richtige anzahl an zwischenstufen erzeugt, aufgrund der geringen farbunterschiede sind sie praktisch nicht mehr sichtbar.

und 256 helligkeitsstufen reichen niemals, der mensch kann wesentlich mehr wahrnehmen.

ShadowXX
2005-02-25, 20:28:12
Letztlich ist es egal, ob man einen TFT hat, der prinzipiell nur 24 bit Farbtiefe hat, oder einen CRT, der eine fast unbegrenzte Farbtiefe hat, da er analog arbeitet.
Fakt ist doch, dass die Graka nur 24 bit ausgibt...auch im 32 bit Modus, in dem die restlichen 8 bit für den Alpha-Kanal verwendet werden.
Bei einem Grauverlauf reichen 24 bit "fast" aus, um einen streifenfreien Verlauf zu erhalten.
Diese 24 bit (also 8 bit bei einem S/W-Bild) ergeben 256 Graustufen. Aber nur solange man nicht die Video-LUT verändert (via Kalibrierung oder gamma im Treiber).
Arbeitet die Video - LUT nämlich auch nur mit 8 bit/Kanal, bleiben eben keine 256 Stufen mehr übrig, sondern weniger. Und dann gibts Streifen. Bei ATI arbeitet die LUT anscheinend mit 10 oder mehr bit/Kanal und deshalb bleiben immer 256 Stufen übrig, egal wie sehr man die LUT verändert. Das zeigt zumindest mein Test.
Mich hätte nur einfach interessiert, ob mir das jemand bestätigen kann, dass die LUTs von nvidia ind ATI mit unterschiedlicher Bit-Tiefe arbeiten.
stevens


Soweit ich weiss, hat eigentlich nV die tiefere interne Auflösung....(bin mir aber nicht sicher)

Ich kann auf meiner 6800Ultra den von dir beschriebenen Effekt auch nicht nachvollziehen (was nicht heissen soll, das ich dir nicht glaube, das dieser Effekt bei dir Auftritt).

Die Karte ist eine Pine XFX und der Monitor ein Samsung CRT (SyncMaster 1100DF, 21", 0,2 Lochmaske (nein, da fehlt keine zweite Zahl hinter der 2)).

Probiert habe ich es auf 1600x1200, 1270x1024 und noch mal 1024x768.
Benutzt habe ich eine Trail von Photoshop 7.

Gegengetestet habe ich dann mit einer 9800Pro.....sah genauso aus (obwohl "nur" von Club3D).

dfggh
2005-02-25, 20:36:13
du brauchst übrigens nurmal probieren im photoshop nach dem erstellen des farbverlaufs den kontrast zu verändern. es passiert das gleiche wie im treiber, die bandings werden je nach einstellung mehr oder weniger sichtbar, und da kann die graka nichts verpfuschen.

stevens
2005-02-25, 21:28:18
Shadow XX:
Was bite ist eine "Trail" von Photoshop7? Meinst Du eine Trial-Version?
Du hast also einen S/W-Verlauf und änderst das gamma im Treiber und hast nach wie vor keinerlei Streifen?
Das würde darauf hindeuten, dass die GF 6 sich anders verhält als die GFFX und GF4.
Wichtig: Wenn Du die Datei (Verlauf) ansiehst, wähle unter "Farbproof" "Monitor RGB" aus! Nur so kannst Du das Monitorprofil umgehen, das seinerseits nochmals "banding" produzieren könnte. Als Profil für den Verlauf kannst Du z.B. sRGB o. ADOBE RGB o.ä. verwenden.

dfgg:was Du schreibst stimmt schon.Wenn Du nur mit einer 24-bit Datei arbeitest und daran rumschraubst, hast Du letztlich nicht mal 256 Stufen pro Farbe und damit banding. Bei einer 48-bit Datei hast Du auch dann noch tausende von Stufen pro Farbe.
Das hat aber nichts mit meinem Thema zu tun.
Es geht einfach darum, dass man z.B. eine Datei hat, die an sich noch keinerlei banding hat, weil entweder noch nichts manipuliert wurde oder aber mit einer 48 bit - Datei bearbeitet wurde, die in der Praxis auch nach heftigsten Eingriffen kein banding zeigt.
Es geht eiinfach darum, zu vermeiden, dass die Graka selbst banding produziert, sobald man vom Standard-gamma abweicht. Und das tut meine GF4 und GFFX, eine ATI aber nicht.
Stevens

Quasar
2005-02-25, 21:51:56
http://www.3dcenter.de/artikel/nv40_technik/index4.php

10 Bit pro Kanal sollten's laut obigem sein.

dfgg
2005-02-25, 21:54:01
Shadow XX:

dfgg:was Du schreibst stimmt schon.Wenn Du nur mit einer 24-bit Datei arbeitest und daran rumschraubst, hast Du letztlich nicht mal 256 Stufen pro Farbe und damit banding. Bei einer 48-bit Datei hast Du auch dann noch tausende von Stufen pro Farbe.
Das hat aber nichts mit meinem Thema zu tun.
Es geht einfach darum, dass man z.B. eine Datei hat, die an sich noch keinerlei banding hat, weil entweder noch nichts manipuliert wurde oder aber mit einer 48 bit - Datei bearbeitet wurde, die in der Praxis auch nach heftigsten Eingriffen kein banding zeigt.
Es geht eiinfach darum, zu vermeiden, dass die Graka selbst banding produziert, sobald man vom Standard-gamma abweicht. Und das tut meine GF4 und GFFX, eine ATI aber nicht.
Stevens

dann nimm halt photoshop acht, dann kannst du mit 16bit pro farbkanal arbeiten, was immerhin 65xxx zwischenstufen erlaubt. trotzdem wirst du, wenn du in photoshop am kontrast genügend veränderst banding sehen, weil die 24bit-ausgabe einfach nicht mehr zulässt in einem einfarbigem farbverlauf.

da kannst du intern so genau wie du willst rechnen. so lange du intern nur 1x etwas veränderst werden sich auch keine fehler aufsummieren.
wenn du in photoshop beispielsweise beim farbverlauf +50 kontrast, dann -50 und dann nochmal +50 wählst wirst du bei jedem durchgang mehr banding sehen. wenn du 16-bit/farbkanal wählst wird der unterschied noch lange unter der wahrnehmungsgrenze liegen.

bei einer einfachen veränderung des kontrastes wirst du aber praktisch keinen unterschied merken und auch mit softwaremäßigen 16bit/kanal banding bemerken, da kann die graka nicht reinpfuschen.

es gibt nur 2 möglichkeiten warum das bei der radeon nicht so ist:

1. das ausgangssignal ist schlecht, so dass die farbübergänge vermatschen.

2. die radeon erzeugt wirklich aus einem höher aufgelösten digitalsignal das analoge ohne es vorher wieder auf 8bit/kanal herunterzurechnen. allerdings haben auch dann nur crt-nutzer was davon, für die immer größer werdende anzahl an tft-monitoren wäre das ganze nutzlos

stevens
2005-02-25, 22:22:34
Ich habe PS CS (8). Natürlich kann man da sehr lange die Tonwerte verändern in 48 bit bevor das Banding die Wahrnehmbarkeitsgrenze erreicht. Das hat aber nichts mit dem Banding zu tun, das die Graka erzeugt.
Das musst Du mal ganz getrennt sehen. Lass mal jede Bildmanipulation weg. Du machst ganz einfach einen Grauverlauf mit 256 Graustufen. Da siehst Du letztlich leichte aber gleichmässige Stufen. Um die auch noch zu unterbinden, mach den Verlauf mit Dithering. Jetzt siehst Du absolut keine Stufen / Banding mehr. Wenn Du jetzt aber das gamma des Treibers verstellst, sehe ich bei meinen nvidia - Karten banding. Das hat nichts mit Photoshop zu tun. Das erzeugt einzig und allein die Graka, weil sie jetzt keine 256 Stufen (also 8 volle bit /Kanal) mehr ausgibt, sondern wesentlich weniger.
Fakt ist, dass die Radeon das nicht macht. Und es ist ganz klar zu erkennen, dass das Signal nicht schlecht und unscharf ist. Bin mir sicher, dass schlicht und ergreifend die Video-LUT mit höherer Bittiefe arbeitet und damit immer 256 Stufen pro Kanal am Ausgang übrigbleiben, egal wie Du das gamma verstellst.
steven

stevens
2005-02-25, 22:28:52
Wieso sollte das für TFT Monitore nichts mehr bringen?
Die Graka gibt sowieso nur 24 bit (8bit/Kanal) aus.
Auch an CRTs gibt sie nicht mehr aus, obwohl die mehr darstellen könnten.
Der Punkt ist der, dass die Radeon auch dann noch 256 Farben/Kanal ausgibt, wenn das gamma in der Karte verstellt wurde, während die nvidia (zumindest bis GFFX)
nach einer gamma-Verstellung eben keine 256 Farben / Kanal mehr ausgibt.
Da man inder professionellen Bildbearbeitung aber mit Monitorkalibrierung arbeitet, wird immer die Video-LUT der Graka verändert und damit hast Du bei nvidia schon gleich weniger als echte 256Farben/Kanal.
stevens

stevens
2005-02-25, 22:45:27
Und warum ist das Ganze so wichtig?
Ganz einfach: Du hast eine Datei in PS offen und die zeigt Banding/Streifen. Aber Du weisst nicht, woher das Banding kommt. Von der Bearbeitung und der Datei/Bild an sich oder ist die Datei perfekt und das Banding kommt von der Graka? Das kann man so nicht sagen.
In solch einem Fall bleibt mir immer nur noch die Möglichkeit, die Kalibrierung auszuschalten und damit die Video-LUT auf Standard zu stellen.
Wenn dann immer noch Banding zu sehen ist, liegt es an der Datei. Wenn es weg ist, war die Graka schuld.
stevens

etert
2005-02-25, 23:17:52
wenn der DAC von einer 8bit/kanal-quelle das signal erzeugt muss es in derartigen spezialfällen, wo sich nur eine farbkomponente (oder alle 3 gleich) ändert banding geben.

es stehen dann genau 256 farben zur verfügung.

wenn ich mal von der 1024er auflösung meines monitors ausgehe ist dann im normalfall eine farbe genau 4 pixel breit.
wenn du nun irgendwas an den einstellungen, sei es kontrast oder gamma änderst, dann muss sich das bild ändern. (ist ja logisch ;) )

die dazu zur verfügung stehenden farben sind aber noch immer die gleichen 256 stück. (in den oben genannten spezialfällen)

das einzige was sich also ändern kann ist dass ein farbstreifen breiter und ein anderer im gegenzug schmaler werden kann. wenn du nun die werte so einstellst dass die besonders sichtbaren farbstreifen im mittleren graustufenbereich breiter werden und die am rand befindlichen hellen bzw. dunklen farbstreifen schmaler werden ist es nur logisch dass du mehr banding siehst.

wenn du das ganze mit den einstellungen weit genug treibst dass einige zwischenstufen unter 1 pixel breit werden, werden diese nun verschluckt. ob dies nun beim herunterrechnen auf 8bit oder schon vorher passiert ist (bei einer einzigen operation erstmal egal). da es im ramdac meherere derartiger operationen gibt rechnen imo sowohl nvidia, ati als auch matrox mit intern 10bit pro farbkanal (nvidia imo seit der gf4).
das ist natürlich schön intern eine höhere präzision zu haben und bei mehreren angewanden operationen auch sinnvoll. trotzdem gehen die zusätzlichen, intern vorhandenen zusätzlichen farbstufen beim herunterrechnen auf 8bit verloren. es ist höchstens möglich dass sich die bandinglinie um 1 pixel verschiebt.

um derart auftretendes banding zu vermeiden MUSS der DAC das höherwertige digitale signal in das analoge umwandeln. ob das eine der grafikkarten tut ist mir nicht bekannt.
wenn das digitale signal irgendwo wieder auf 8-bit heruntergerechnet wird, gehen die zusätzlichen informationen verloren, denn es sind dann immer noch max 256 farbabstufungen, die ohne die gamma-verstellung ideal verteilt sind, und danach eben nicht mehr.

es gibt imo einige teure tft´s die das analoge signal mit 36bit interpolieren, die könnten davon natürlich auch profitieren, ein "gewöhnlicher" tft mit 24-bit farbdarstellung hat davon aber rein garnichts.

Die Graka gibt sowieso nur 24 bit (8bit/Kanal) aus.

ein analoges signal hat zwischen einem minimum und einem maximum grundsätzlich unendlich viele zustände, egal aus welchem endlichen digitalsignal die quelle stammt.


und wie gesagt: versuche mal mit photoshop die grafikeinstellungen in photoshop im 16-bit-modus (was garantiert genauer ist als der ramdac jeder aktueller grafikkarte) gleich zu verändern wie im treiber der grafikkarte, du wirst auch da banding bemerken.
mathematisch gesehen ist es das gleiche ob du die bildveränderung in hardware oder in software vornimmst (mit dem unterschied dass die software genauer ist und trotzdem banding erzeugt).


grundsätzlich kostet jede digitale veränderung an einem bild informationen, egal ob das nun digital vibrance, helligkeit, kontrast, gamma, bildschärfung oder was auch immer ist. glücklicherweise liegt diese normalerweise nicht im wahrnehmbaren bereich, außer in derartigen spezialfällen.

Lass mal jede Bildmanipulation weg. Du machst ganz einfach einen Grauverlauf mit 256 Graustufen. Da siehst Du letztlich leichte aber gleichmässige Stufen. Um die auch noch zu unterbinden, mach den Verlauf mit Dithering.
mit dithering ist bei mir auch auf der gf6 mit tft und gammaverstellung praktisch kein banding sichtbar (es gibt halt kein band, der übergang ist mehr oder weniger zufällig verteilt)

stevens
2005-02-25, 23:36:18
"mit dithering ist bei mir auch auf der gf6 mit tft und gammaverstellung praktisch kein banding sichtbar (es gibt halt kein band, der übergang ist mehr oder weniger zufällig verteilt)"

Bei meiner GF4 und GFFX gibt es dabei ganz klares banding, sobald ich das gamma der Graka verändere.
Das sind dann einfach verschieden breite deutliche Streifen. Allerdings wesentlich weniger als noch bei meiner GF2.
Bei ATI (und anscheinend auch GF6 ) sieht ein geditherter Verlauf auch nach gamma-Verstellung der Garka perfekt aus.
stevens