PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Hohe Auflösungen und CRT-Bildschirme (war "Vorerst kein SM3.0 Support von EA")


mrdigital
2004-09-05, 21:07:50
Das es für mein 1600*1200 Statement Prügel gibt war klar, aber auch ein 19" ist zu klein für diese Auflösung. Nur weil der Schirm es technisch darstellen kann, heisst es nicht, dass diese Auflöung auch sinnvoll ist. Auf einem 19" kann man eigentlich nur die 1280*960 sinnvoll nutzen, alles andere ist zu viel. Ich rechne das auch gerne mal ne Runde vor, aber das ist ein anderes Thema wie gesagt ;).
edit: DAS ist hier nun das Thema ;)

MadManniMan
2004-09-06, 09:50:52
Das für mein 1600*1200 Statement Prügel gibt war klar, aber auch ein 19" ist zu klein für diese Auflösung. Nur weil der Schirm es technisch darstellen kann, heisst es nicht, dass diese Auflöung auch sinnvoll ist. Auf einem 19" kann man eifentlich nur die 1280*960 sinnvoll nutzen, alles andere ist zu viel. Ich rechne das auch gerne mal ne Runde vor, aber das ist ein anderes Thema wie gesagt ;).

Sogar auf dem 17" CRT von meinem besten Freund sieht 1600*1200 nochmal ordentlich besser aus, als 1280*1024, obwohl schon 1024*768 eigentlich die beste Auflösung für einen solchen Monitor darstellt.
Warum stellst du dich dermaßen quer? :|

Ich stimme auch zu. Full Ack!
Sehe ich genauso.

:o Sei mir nicht böse, aber dieses Statement schreit geradezu danach, dich für einen Wendehals zu halten zu müssen :ugly2:

edit by mrdigital: der 2. Quote bezieht sich auf den Ursprungsthred - Split

mrdigital
2004-09-06, 11:08:02
Sogar auf dem 17" CRT von meinem besten Freund sieht 1600*1200 nochmal ordentlich besser aus, als 1280*1024, obwohl schon 1024*768 eigentlich die beste Auflösung für einen solchen Monitor darstellt.
Warum stellst du dich dermaßen quer? :|

Nun denn, dann machen wir diese Exursion:
Da brauch ich mich nicht quer stellen, eine 17" Röhre kann physisch keine 1600 * 1200 Punkte darstellen. D.h. Das Bild kann nicht gut sein. Mach mal ein Testbild drauf und schau dir das genau an. Versuch mal eine ein Pixel Breite Linie da noch zu erkennen.
Mal ein Rechenbeispiel an einem guten 17" Monitor (http://www.iiyama.de/default.asp?SID=&NAV=236&DOC=0&PAGE=0&PARAMS=DATASHEET&PARAMS2=0&PCAT=1&PTUBE=&PROD=639&SPCAREA=):
Der Hersteller gibt eine Arbeitsfläche von 324 * 243 mm an. Ein dotpitch von 0,25mm, d.h. auf einem Millimeter sind 4 Bildpunkte untergebracht. Man kann also MAXIMAL 324 * 4 = 1296 Bildpunkte in der Breite und 243 * 4 = 972 Bildpunkte in der Höhe darstellen. Mehr geht nicht. Nun kann ein Röhrenmonitor nicht so exakt jedes Pünktchen in der Lochmaske mit seinem Elektronenstrahl treffen, so dass man ein bisschen Luft zugeben sollte, d.h. 25%. Und welch eine Überraschung, 1024 * 1,25 = 1280. Ob der Hersteller sich wohl das selbe gedacht hat und diesen Schirm für eine Auflösung von 1024 * 768 konstruiert hat? Wenn nun dein Freund 1600 * 1200 auf nem 17" Schrim toll findet, dann sieht er ein verwaschenes Bild (sozusagen ein Hardcore AA ;)), allerdings braucht er dir dann auch nichts über die Qualität von Texturfiltern oder Antialiasing zu erzählen, denn er kann es eh nicht beurteilen.
Rechenbeispiel mit einem guten 19" Monitor (http://www.iiyama.de/default.asp?SID=&NAV=236&DOC=0&PAGE=0&PARAMS=DATASHEET&PARAMS2=0&PCAT=1&PTUBE=&PROD=639&SPCAREA=) :
Arbeitsfläche nach Hersteller : 366 * 274 mm. dotpitch von 0,26mm
366 / 0,26 = 1407 Bildpunkte in der Breite und 274 / 0,26 = 1072 (also auch auf einem 19" Monitor ist es technisch UNMÖGLICH 1600 * 1200 sauber darzustellen).
Rechenbeispiel an einem 21" Mointor (http://www.iiyama.de/default.asp?SID=&NAV=236&DOC=0&PAGE=0&PARAMS=DATASHEET&PARAMS2=0&PCAT=1&PTUBE=&PROD=639&SPCAREA=) :
Arbeitsfläche 405 * 305 mm, 0,25 dotpitch
405 / 0,25 = 1620 Bildpunkte in der Breite, 1220 in der Höhe. Das ist also die erste Bildschirmgrösse, die überhaupt in der Lage ist 1600 Bildpunkte darzustellen, und das gerade mal so, da ist kein bisschen Luft und "Sicherheitsreserve" drin.
Nun frage ich dich MMM, warum stellst du dich so dermaßen quer :|

MadManniMan
2004-09-06, 11:34:14
Nun frage ich dich MMM, warum stellst du dich so dermaßen quer :|

Weil du dich in die Theorie versteifst ;) Du hast ja Recht - 1600 und auch 1280 bieten keine Schärfe mehr, wie sie noch 1024 liefern kann - aber dennoch wird das Bild dadurch besser, wenn auch verwaschen, da gebe ich dir Recht.
Sein 96kHz 17"er schafft noch 75Hz, seltsamerweise stört das Geflimmer mit dieser Konfiguration nicht sonderlich, wenn ich auch die 1280 auf meinem 17" TFT als angenehmer empfinde, was das Dauerzocken angeht.

Ich muß sagen, daß nicht er mir mit AA und AF in dieser Auflösung gekommen ist, sondern ich noch zusätzlich dieses draufgeschaltet habe. OK, es ging um CS:Condition Zero, aber gerade bei diesem Spiel sieht man BQ++ Features noch recht deutlich.

Was soll ich also noch sagen: natürlich kommt da physikalisch wie theoretisch nichts wirklich Sinniges mehr bei raus, aber praktisch liegen zwischen 1600 und 1280 nicht nur 46% Füllratenmehrbedarf, sondern auch nochmal ein gutes Quentchen Mehrqualität.

mrdigital
2004-09-06, 11:42:37
Weil du dich in die Theorie versteifst ;) Du hast ja Recht - 1600 und auch 1280 bieten keine Schärfe mehr, wie sie noch 1024 liefern kann - aber dennoch wird das Bild dadurch besser, wenn auch verwaschen, da gebe ich dir Recht.
Sein 96kHz 17"er schafft noch 75Hz, seltsamerweise stört das Geflimmer mit dieser Konfiguration nicht sonderlich, wenn ich auch die 1280 auf meinem 17" TFT als angenehmer empfinde, was das Dauerzocken angeht.

Ich muß sagen, daß nicht er mir mit AA und AF in dieser Auflösung gekommen ist, sondern ich noch zusätzlich dieses draufgeschaltet habe. OK, es ging um CS:Condition Zero, aber gerade bei diesem Spiel sieht man BQ++ Features noch recht deutlich.

Was soll ich also noch sagen: natürlich kommt da physikalisch wie theoretisch nichts wirklich Sinniges mehr bei raus, aber praktisch liegen zwischen 1600 und 1280 nicht nur 46% Füllratenmehrbedarf, sondern auch nochmal ein gutes Quentchen Mehrqualität.

Welches Qäntchen Mehrqualität meinst du? Dass du über ein Drittel der berechneten Bildpunkte nicht darstellen kannst? Wo ist da bitte eine Qualitätssteigerung? Wie wärs mit 1024 und einem hohen AA Level, statt dieser sinnlos hohen Auflösung für diesen Monitor?

mrdigital
2004-09-06, 12:34:58
Sorry, aber dann muss ich zu dem Schluss kommen, das du entweder eine kaputte Optik hast oder grundlegendes der Darstellungstechnik nich begriffen hast. Hier steht nicht meine Meinung gegen deine, sondern ein technischer Fakt gegen deine schiefe Optik ;) (das klingt nun alles ein bissi bös, meine ich nicht so!).
Darstellungsqualität heisst, dass der Bildschirm das darstellt, was sich im Speicher der Grafikkarte befindet. Je exakter der Bildschirm das wiedergeben kann umso höher ist seine Qualität. Mag sein, dass du das verwaschene Bild als gefällig empfindest aber mit Qualität hat das nichts zu tun. Ich muss dann aber auch sagen, dass du zum Thema AA oder AF nicht viel beitragen kannst, denn offensichtlich unterscheidet sich dein Qualitätsbegriff grundlegend von den technischen Fakten. (Klingt wieder bös, mein ich nicht so, ich will nur mal anregen, dass du dir über diesen Punkt Gedanken machst. Was für einen Sinn hat es eine so hohe Auflösung zu wählen, wenn der Bildschirm dir diese Infromation nicht zeigen kann? Ein Bild mit maximaler Information (uhh das ist Informationstheoretisch falsch, ich weiss, aber ich will hier auf was anderes hinaus ;)) wäre eine Abfolge von weissen und schwarzen Pixeln, ein grosses Schachbrett also. Wenn du jedes weisse und jedes schwarze Pixel als solches erkennen kannst, dann ist es gut. Mit den von dir gewählten Einstellungen wirst du aber eine graue Fäche sehen und das ist nunmal etwas ganz anderes, als im Grafikkartenspeicher abgelegt ist.

betasilie
2004-09-06, 13:29:54
Sorry, aber dann muss ich zu dem Schluss kommen, das du entweder eine kaputte Optik hast oder grundlegendes der Darstellungstechnik nich begriffen hast. Hier steht nicht meine Meinung gegen deine, sondern ein technischer Fakt gegen deine schiefe Optik ;) (das klingt nun alles ein bissi bös, meine ich nicht so!).
Darstellungsqualität heisst, dass der Bildschirm das darstellt, was sich im Speicher der Grafikkarte befindet. Je exakter der Bildschirm das wiedergeben kann umso höher ist seine Qualität. Mag sein, dass du das verwaschene Bild als gefällig empfindest aber mit Qualität hat das nichts zu tun. Ich muss dann aber auch sagen, dass du zum Thema AA oder AF nicht viel beitragen kannst, denn offensichtlich unterscheidet sich dein Qualitätsbegriff grundlegend von den technischen Fakten. (Klingt wieder bös, mein ich nicht so, ich will nur mal anregen, dass du dir über diesen Punkt Gedanken machst. Was für einen Sinn hat es eine so hohe Auflösung zu wählen, wenn der Bildschirm dir diese Infromation nicht zeigen kann? Ein Bild mit maximaler Information (uhh das ist Informationstheoretisch falsch, ich weiss, aber ich will hier auf was anderes hinaus ;)) wäre eine Abfolge von weissen und schwarzen Pixeln, ein grosses Schachbrett also. Wenn du jedes weisse und jedes schwarze Pixel als solches erkennen kannst, dann ist es gut. Mit den von dir gewählten Einstellungen wirst du aber eine graue Fäche sehen und das ist nunmal etwas ganz anderes, als im Grafikkartenspeicher abgelegt ist.
Manni, da muss ich mrdigital wirklich Recht geben. Einer meiner Freunde fährt ebenfalls oft mit seinem Monitor 1600*1200 @ 72hz, weil es seine 6800Ultra kann. Ich finde es einfach nur lächerlich, weil sein Monitor, insbesondere seine Lochmaske, nicht mehr hergibt und er faselt dan etwas von geiler Qaulität.

Der Monitor muss das gesendete Signal schon ordentlich auflösen können, ansonsten sind solche Auflösungen mehr als witzlos.

MadManniMan
2004-09-06, 13:52:37
Viel, viel böses Zeugs.

Ach Leute kommt mir nicht mir Logik :D Ich persönlich schätze die unheimliche Schärfe meines TFT @DVI - aber ich verleugne nicht, was ich sehe!

Natürlich würde 1600 auf einem entsprechenden Monitor besser aussehen, aber denkt ihr, denn gegenüber 1280 verpufft die höhere Auflösung im Nichts? Das imaginäre Schachbrettmuster kommt so natürlich nicht mehr sinnig rüber, aber dennoch ist dieses quasi-Quincunx besser anzusehen, als ein Äquivalent niedriger Auflösung - führt euch einfach mal Folgendes vor Augen: was ist besser? 1280 @2*AA oder 1600 @Quincunx?

mrdigital
2004-09-06, 14:24:16
auf einem 17" Monitor verpufft diese höhere Auflösung nicht nur, es ist kontraproduktiv, denn du hast keinerlei Einfluß mehr darauf, wie der Monitor dir das Bild "verwäscht" wohinigegen du beim AA das kontrolieren kannst. Es ist nie gut eine zu hohe Auflösung zu fahren, denn du kannst diese feineren Strukuren nicht mehr erkennen, es führt nur zu einem Matsch-Bild. Wie gesagt, das mag im ersten Moment gefälliger aussehen, ist aber definitv schlechter. Auflösung runter AA hoch! Genau dafür wurde AA "erfunden" ;)

betasilie
2004-09-06, 14:33:03
Ach Leute kommt mir nicht mir Logik :D Ich persönlich schätze die unheimliche Schärfe meines TFT @DVI - aber ich verleugne nicht, was ich sehe!

Natürlich würde 1600 auf einem entsprechenden Monitor besser aussehen, aber denkt ihr, denn gegenüber 1280 verpufft die höhere Auflösung im Nichts? Das imaginäre Schachbrettmuster kommt so natürlich nicht mehr sinnig rüber, aber dennoch ist dieses quasi-Quincunx besser anzusehen, als ein Äquivalent niedriger Auflösung - führt euch einfach mal Folgendes vor Augen: was ist besser? 1280 @2*AA oder 1600 @Quincunx?
Du hast natürlich sachlich betrachtet Recht, aber ich persönlich mag diesen Wischwasch nicht, wenn auf einem CRT 160o*1200 gefahren wird, obwohl er es nicht kann. Imho sieht das einfach nur schlecht aus.

mrdigital
2004-09-06, 14:43:15
Nein er hat sachlich betrachte nicht recht! Er hat nur recht, wenn man das auf einem Anzeigemedium vergleicht, dass diese 1600 Bildpunkte auch darstellen kann! Das kleinste noch darstellbare ist da eine ein Pixel breite Linie. Wenn ich die nicht mehr sehen kann, sinkt meine effektive Auflösung und es fürn Arsch was ich mehr berechnet habe.

PrefoX
2004-09-06, 14:55:31
naja es gibt aber auch schon monitore mit nem dotpitch von 0.22 oder heutzutage vllt schon noch besser

Brillus
2004-09-06, 14:59:49
Mein 19 Zoller kann 1600 * 1200 noch korrekt darstellen. hat aber auch einen kleinern dotpich wie mit dem du gerechnet hast nämlich 0.22

Edit. scheiss Tastatur

MikBach
2004-09-06, 15:02:47
Nun denn, dann machen wir diese Exursion:
Da brauch ich mich nicht quer stellen, eine 17" Röhre kann physisch keine 1600 * 1200 Punkte darstellen. D.h. Das Bild kann nicht gut sein. Mach mal ein Testbild drauf und schau dir das genau an. Versuch mal eine ein Pixel Breite Linie da noch zu erkennen.
Mal ein Rechenbeispiel an einem guten 17" Monitor (http://www.iiyama.de/default.asp?SID=&NAV=236&DOC=0&PAGE=0&PARAMS=DATASHEET&PARAMS2=0&PCAT=1&PTUBE=&PROD=639&SPCAREA=):
Der Hersteller gibt eine Arbeitsfläche von 324 * 243 mm an. Ein dotpitch von 0,25mm, d.h. auf einem Millimeter sind 4 Bildpunkte untergebracht. Man kann also MAXIMAL 324 * 4 = 1296 Bildpunkte in der Breite und 243 * 4 = 972 Bildpunkte in der Höhe darstellen. Mehr geht nicht. Nun kann ein Röhrenmonitor nicht so exakt jedes Pünktchen in der Lochmaske mit seinem Elektronenstrahl treffen, so dass man ein bisschen Luft zugeben sollte, d.h. 25%. Und welch eine Überraschung, 1024 * 1,25 = 1280. Ob der Hersteller sich wohl das selbe gedacht hat und diesen Schirm für eine Auflösung von 1024 * 768 konstruiert hat? Wenn nun dein Freund 1600 * 1200 auf nem 17" Schrim toll findet, dann sieht er ein verwaschenes Bild (sozusagen ein Hardcore AA ;)), allerdings braucht er dir dann auch nichts über die Qualität von Texturfiltern oder Antialiasing zu erzählen, denn er kann es eh nicht beurteilen.
Rechenbeispiel mit einem guten 19" Monitor (http://www.iiyama.de/default.asp?SID=&NAV=236&DOC=0&PAGE=0&PARAMS=DATASHEET&PARAMS2=0&PCAT=1&PTUBE=&PROD=639&SPCAREA=) :
Arbeitsfläche nach Hersteller : 366 * 274 mm. dotpitch von 0,26mm
366 / 0,26 = 1407 Bildpunkte in der Breite und 274 / 0,26 = 1072 (also auch auf einem 19" Monitor ist es technisch UNMÖGLICH 1600 * 1200 sauber darzustellen).
Rechenbeispiel an einem 21" Mointor (http://www.iiyama.de/default.asp?SID=&NAV=236&DOC=0&PAGE=0&PARAMS=DATASHEET&PARAMS2=0&PCAT=1&PTUBE=&PROD=639&SPCAREA=) :
Arbeitsfläche 405 * 305 mm, 0,25 dotpitch
405 / 0,25 = 1620 Bildpunkte in der Breite, 1220 in der Höhe. Das ist also die erste Bildschirmgrösse, die überhaupt in der Lage ist 1600 Bildpunkte darzustellen, und das gerade mal so, da ist kein bisschen Luft und "Sicherheitsreserve" drin.
Nun frage ich dich MMM, warum stellst du dich so dermaßen quer :|
mrdigital
egal auf welchen Monitor ich klicke(17", 19", 21"), ich sehe immer den SM103DT, also 21".
Da ist wohl was schief gelaufen. ;)

mrdigital
2004-09-06, 15:08:05
mist, ist ne Frame Seite :( naja ich hab den "besten" 17er genommen und den "besten" 19er und den "besten" 21er vom IIyama)

mrdigital
2004-09-06, 15:10:12
Mein 10 Zoller kann 1600 * 1200 noch korrekt darstellen. hat aber auch einen kleinern dotpich wie mit dem du gerechnet hast nämlich 0.22
*räusper* 10" in Worten zehn Zoll soll 1600 auf 1200 korrekt darstellen können? Sorry, aber das ist absoluter quark. Rechne doch mal nach, wie viel du bei einer 0,22 dotpicht auf einen 10" bringen kannst...

betasilie
2004-09-06, 15:12:12
Nein er hat sachlich betrachte nicht recht! Er hat nur recht, wenn man das auf einem Anzeigemedium vergleicht, dass diese 1600 Bildpunkte auch darstellen kann! Das kleinste noch darstellbare ist da eine ein Pixel breite Linie. Wenn ich die nicht mehr sehen kann, sinkt meine effektive Auflösung und es fürn Arsch was ich mehr berechnet habe.
Klar, ich sage ja auch, dass mir das Bild nicht gefällt, aber man hat auf diese Weise halt ein Bild, was quasi weichgefiltert wurde. Wem´s gefällt. :ratlos:

Trap
2004-09-06, 15:14:49
Man hat bei zu hoher Auflösung eine Art von supersampling anti-aliasing.

mrdigital
2004-09-06, 15:14:54
naja es gibt aber auch schon monitore mit nem dotpitch von 0.22 oder heutzutage vllt schon noch besser
es gibt Schirme mit feinerem dotpitch, aber rechne es doch mal durch, was dir dein 0,22 dotpitch bringt. Das sind knappe 14% mehr, dementsprechend kannst du 14% mehr Bildpunkte hinbekommen. Das macht noch keine 1600 auf 1200 bei einem 17er und auch nicht auf einem 19er. Um das hinzubekommen bräuchtest du ein dotpitch von (17er Monitor) 0,19 und das ist Unterkante ohne Luft. Monitorhersteller "schwindeln" aber bei ihren dotpitch-Angaben, die geben teilweise die Abstände zwischen den "Subpixeln" an oder solche Spässe.

mrdigital
2004-09-06, 15:17:30
Man hat bei zu hoher Auflösung eine Art von supersampling anti-aliasing.

Von Hyundai gibt es Röhren mit 0,2 mm dotpitch.
ja eine Art AA aber was für eins? Man verliert Auflösung, man kann keine ein-Pixel Linien mehr erkennen. Das ist einfach verschwendung von Rechenleistung mit gleichzeitiger Verschlechterung der Bildqualität. Und ich habe es auch nicht angezweifelt, dass es Röhren gibt mit 0,2er dotpitch.

Trap
2004-09-06, 15:19:57
Welche Grafikkarte bietet im Controlpanel ein bessere SSAA an? ;)

mrdigital
2004-09-06, 15:23:04
Auf die Gefahr hin, dass ich mich wiederhole. Auf einem 17er ist 1600 kontraproduktiv. Du Kannst keine ein-Pixel breite Strukturen mehr erkennen. Das ist effektiver Auflösungsverlust. Mit 1024 und AA kann man noch ein Pixel breite Strukturen wiedergeben. Also ist egal welches AA besser bei 1024 als irgendwas mit 1600.

betasilie
2004-09-06, 15:31:42
Auf die Gefahr hin, dass ich mich wiederhole. Auf einem 17er ist 1600 kontraproduktiv. Du Kannst keine ein-Pixel breite Strukturen mehr erkennen. Das ist effektiver Auflösungsverlust. Mit 1024 und AA kann man noch ein Pixel breite Strukturen wiedergeben. Also ist egal welches AA besser bei 1024 als irgendwas mit 1600.
Ok, Du hast schon Recht. Es gehen Informationen verloren und das ist schlecht.

Mir auch egal, denn mein 21"er stellt mit 0,24mm g-pitch die 1600*1200 sauber dar. ;)

Blade345
2004-09-06, 15:43:10
Wie sieht es eigentlich mit 1280x1024 bzw. 1280x960 auf einem 17 Zoll CRT-Monitor mit einer 0.25 mm Lochmaske aus, ich kann bei diesen Aufösungen keine sichtbaren Bildqualitätsverlust auf dem Monitor sehen. ( ist ein EIZO F520 FlexScan)

Matrix316
2004-09-06, 15:44:21
Das Ziel ist doch, dass man möglichst keine kleine Strukturen mehr in Spielen sieht. Man will kein Schachbrettmuster haben sondern grau! Deswegen wird ja gefiltert und AA für die Kanten etc. Deswegen sind IMO auch höhere Auflösungen als ideale gut in Spielen. Wobei selbst auf dem Desktop können die besten CRTs noch höhere Auflösungen gut darstellen. Besser höher als niedriger, denn z.B. 1024*768 sieht IMO auf einem guten 19"er scheiße aus...

DrumDub
2004-09-06, 15:47:45
Das Ziel ist doch, dass man möglichst keine kleine Strukturen mehr in Spielen sieht. Man will kein Schachbrettmuster haben sondern grau! Deswegen wird ja gefiltert und AA für die Kanten etc. Deswegen sind IMO auch höhere Auflösungen als ideale gut in Spielen. Wobei selbst auf dem Desktop können die besten CRTs noch höhere Auflösungen gut darstellen. Besser höher als niedriger, denn z.B. 1024*768 sieht IMO auf einem guten 19"er scheiße aus...

jupp. nur wenn die auflösung zu hoch für tatsächlich darstellbare auflösung des monitors ist, dann haste nur noch matsch... darum gings mrdigital eigentlich... das ganze ist dann halt wie nen blurfilter bzw. quincux aa, dh es gehen bildinformationen verloren.

Muh-sagt-die-Kuh
2004-09-06, 15:54:22
Das für mein 1600*1200 Statement Prügel gibt war klar, aber auch ein 19" ist zu klein für diese Auflösung. Nur weil der Schirm es technisch darstellen kann, heisst es nicht, dass diese Auflöung auch sinnvoll ist. Auf einem 19" kann man eigentlich nur die 1280*960 sinnvoll nutzen, alles andere ist zu viel. Ich rechne das auch gerne mal ne Runde vor, aber das ist ein anderes Thema wie gesagt ;).Von mir gibts dafür sicherlich keine Prügel....nur ein "ACK" :D

mrdigital
2004-09-06, 15:55:33
Wie sieht es eigentlich mit 1280x1024 bzw. 1280x960 auf einem 17 Zoll CRT-Monitor mit einer 0.25 mm Lochmaske aus, ich kann bei diesen Aufösungen keine sichtbaren Bildqualitätsverlust auf dem Monitor sehen. ( ist ein EIZO F520 FlexScan)
zuviel. Bei einer 0,25 Maske ist das zu hoch. Du kannst evtl noch die 1152 *800irgendwas machen, aber die ist an der Grenze.

mrdigital
2004-09-06, 15:57:40
Das Ziel ist doch, dass man möglichst keine kleine Strukturen mehr in Spielen sieht. Man will kein Schachbrettmuster haben sondern grau! Deswegen wird ja gefiltert und AA für die Kanten etc. Deswegen sind IMO auch höhere Auflösungen als ideale gut in Spielen. Wobei selbst auf dem Desktop können die besten CRTs noch höhere Auflösungen gut darstellen. Besser höher als niedriger, denn z.B. 1024*768 sieht IMO auf einem guten 19"er scheiße aus...
Ziel ist es möglichst viel Information auf den Schirm zu bekommen. Und wenn sich der Spieleprogrammier denkt, dass er ein schwarz - weiss Schachbrett auf den Schirm zabern will, aber nur eine graue Sosse auf dem Schirm ist, dann ist das doch was anderes, meinst nicht?

mrdigital
2004-09-06, 16:37:17
Nun kann man noch ketzerischer werden ;)
Wer also keinen 21Zoll Monitor besitzt, der braucht weder eine X800 oder 6800 Karte, denn diese Karten können sich leistungstechnisch erst in der 1600 Auflösung deutlich von ihren Vorgängermodellen absetzten, in der häufigsten Auflösung 1024 ist der Vorsprung je nach Spiel zwischen 10% und bestenfalls 50% (ich hab mir hier die 9800XT und x800pro angesehen). Ja dafür gibts natürlich noch mehr Prügel, aber das stelle ich mal so als Überlegung in den Raum, sozusagen als provokante These zum diskutieren ;)

Ailuros
2004-09-06, 16:45:16
Natuerlich geben die Hersteller meistens sehr optimistische Daten an, aber irgendwie sitzen mir die Berechnungen oben irgendwie komisch wobei ich mich auch noch wundere warum meistens auch der horizontale dot pitch angegeben wird (Bildschirme mit "unipitch" sind wohl eine Ausnahme). Ausserdem wurde komischerweise die maximale Bildflaeche berechnet und nicht die eigentliche. Der Iiyama oben hat eine wahre Bildflaeche von 395*295mm, was wohl doch nicht die erhofften "idealeren" theoretische Werte bringen wird.

Meistens stimmen selbst die angegebenen maximalen Wiederholraten von den Herstellern auch nicht; es wird zwar die Bandbreite angegeben aber der Verbraucher weiss leider selten dass diese dann doch nicht ausreicht und man die angegebene Wiederholrate XY doch am Ende nicht erreichen kann weil derselbe Hersteller diese dann auch durch den Treiber begrenzt.

Bildschirme und deren Spezifikationen sind so unterschieden dass man eher vorsichtig sein sollte mit generellen Regeln. Dementsprechend hab ich mich schon vor 19" gesetzt bei denen 16*12 durchaus akzeptabel aussah und auch 21" wo man selbst mit "befriedigend" noch grosszuegig sein sollte. Zu viele Faktoren ganz einfach.

Der oben angegebene Iiyama erscheint mir uebrigens viel zu teuer fuer eine Lochmaske und seinen Spezifikationen und ueberhaupt seiner Bandbreite. Ich bin mir gar nicht sicher ob die letztere erstmal fuer die angegebenen 88Hz ausreicht.

Gegenbeispiel:

http://monitor.samsung.de/article.asp?artid=869FFA74-D1F0-4522-B5CD-9B608B834905&show=specs

(fuer 489 Euronen)

Aeltere reviews ueber sehr grosse CRT Bildschirme:

http://graphics.tomshardware.com/display/20020805/index.html

http://www.anandtech.com/displays/showdoc.aspx?i=1612&p=1

http://www.anandtech.com/displays/showdoc.aspx?i=1648&p=1

IMHO: Selber ansehen was je nach Modell und dessen Qualitaet akzeptabel aussieht und was nicht. Theoretisches Rechengewarkel kann leicht in eine Sackgasse fuehren.

Das ist einfach verschwendung von Rechenleistung mit gleichzeitiger Verschlechterung der Bildqualität.

Mit Supersampling? Ich will hoffen dass es sich nur um einen Scherz handelt. Rechenleistung ist mir zwar klar, aber nein von Verschlechterung der Bildqualitaet kann ueberhaupt keine Rede sein, nicht frueher, nicht heute und nicht in der Zukunft. Der groesste Anteil der Filmindustrie muesste dann ja effektiv verrueckt sein.

Muss man denn wirklich so uebertreiben nur um einen Punkt zu unterstuetzen?

Ailuros
2004-09-06, 16:47:33
Nun kann man noch ketzerischer werden ;)
Wer also keinen 21Zoll Monitor besitzt, der braucht weder eine X800 oder 6800 Karte, denn diese Karten können sich leistungstechnisch erst in der 1600 Auflösung deutlich von ihren Vorgängermodellen absetzten, in der häufigsten Auflösung 1024 ist der Vorsprung je nach Spiel zwischen 10% und bestenfalls 50% (ich hab mir hier die 9800XT und x800pro angesehen). Ja dafür gibts natürlich noch mehr Prügel, aber das stelle ich mal so als Überlegung in den Raum, sozusagen als provokante These zum diskutieren ;)

Huh? Ganz im Gegenteil. Solche GPUs sind fuer =/>1280*960 eher ein Muss fuer neue Spiele, weil eben 1024*768 als Gegenbespiel zu bekloppt aussieht auf einem 21".

mrdigital
2004-09-06, 16:49:03
...
Mit Supersampling? Ich will hoffen dass es sich nur um einen Scherz handelt. Rechenleistung ist mir zwar klar, aber nein von Verschlechterung der Bildqualitaet kann ueberhaupt keine Rede sein, nicht frueher, nicht heute und nicht in der Zukunft. Der groesste Anteil der Filmindustrie muesste dann ja effektiv verrueckt sein.

Muss man denn wirklich so uebertreiben nur um einen Punkt zu unterstuetzen?
Da zitierst mich falsch. Meine Aussage war, dass es auf einem 17er kontraproduktiv ist 1600 auf 1200 zu fahren, das ist Verschwendung von Rechenleistung, nicht Supersampling an sich. Denn genau das sage ich ja, Auflösung runter (auf das, was der Schrim gut darstellen kann) und AA hoch, dann bekommt man die bestmögliche Bildqualität, bei gleichzeig sinnvollem Einsatz der vorhanden Rechenleistung.

mrdigital
2004-09-06, 16:50:03
Huh? Ganz im Gegenteil. Solche GPUs sind fuer =/>1280*960 eher ein Muss fuer neue Spiele, weil eben 1024*768 als Gegenbespiel zu bekloppt aussieht auf einem 21".
Liest du meine Postings nicht durch?
Diese Aussage bezog sich auf Leute die KEINEN 21" Monitor besitzen

Ailuros
2004-09-06, 16:52:49
Da zitierst mich falsch. Meine Aussage war, dass es auf einem 17er kontraproduktiv ist 1600 auf 1200 zu fahren, das ist Verschwendung von Rechenleistung, nicht Supersampling an sich. Denn genau das sage ich ja, Auflösung runter (auf das, was der Schrim gut darstellen kann) und AA hoch, dann bekommt man die bestmögliche Bildqualität, bei gleichzeig sinnvollem Einsatz der vorhanden Rechenleistung.

Kein Einwand dann (es las sich aber merkwuerdig).

Auf einem 17" ist ein FPS Spiel z.B. in 1600 sowieso aus anderen Gruenden uebertrieben; ausser man klebt natuerlich seine Nase auf die Roehre um die Gegner in weiter Sichtweite auch sehen zu koennen.

Wiederholraten lass ich mal lieber weg.

mrdigital
2004-09-06, 16:56:11
nein man kann Gegner nicht mehr vom Hintergrund unterscheiden, denn es ist zu verwaschen ;)

Ailuros
2004-09-06, 16:57:15
Liest du meine Postings nicht durch?
Diese Aussage bezog sich auf Leute die KEINEN 21" Monitor besitzen

(Verdammt muss mich mehr konzentrieren....was ein oedes "k" - keinen/einen - alles anrichten kann).

Ich entschuldige mich.

Birdman
2004-09-06, 17:44:32
ja eine Art AA aber was für eins? Man verliert Auflösung, man kann keine ein-Pixel Linien mehr erkennen.
Dir ist aber bewusst, dass man diese ein-Pixel Linie in einer tieferen Auflösung aber sowieso nicht sehen würde?
Die Chance das man sehr feine Strukturen sieht, ist bei der zu hohen Auflösung welche auf die "physikalische" des CRT runtergerechnet wurde grösser, als jede dass man sie auf der tieferen, aber passenden Auflösung, zu Gesicht bekommt.

Brillus
2004-09-06, 17:52:02
^^hab mich korrikiert. und man sieht die Pixel auch noch in 1600*1200 genau daher kann man mit meinen sehr wohl sohoch fahren.

zeckensack
2004-09-06, 17:53:20
Welches Qäntchen Mehrqualität meinst du? Dass du über ein Drittel der berechneten Bildpunkte nicht darstellen kannst? Wo ist da bitte eine Qualitätssteigerung? Wie wärs mit 1024 und einem hohen AA Level, statt dieser sinnlos hohen Auflösung für diesen Monitor?Der Effekt beim Überfahren der Lochmaskenauflösung entspricht weitgehend Supersampling ... :|

mrdigital
2004-09-06, 17:56:44
Dir ist aber bewusst, dass man diese ein-Pixel Linie in einer tieferen Auflösung aber sowieso nicht sehen würde?
Die Chance das man sehr feine Strukturen sieht, ist bei der zu hohen Auflösung welche auf die "physikalische" des CRT runtergerechnet wurde grösser, als jede dass man sie auf der tieferen, aber passenden Auflösung, zu Gesicht bekommt.
Vorab, ich gehe von einem 17er aus.
Nein, du bekommst keine Chance was von dieser ein Pixel Line zu erkennen. Alles was passiert ist, dass die Information dieser Linie mit Informationen der Nachbarbildpunkte irgendwie vermischt wird. Ich kann dann nicht mehr unterscheiden, ob da eine Line ist oder ob die benachbarten Bildpunkte eine dunklere / hellere Färbung haben. Wieder das Beispiel mit dem Schachbrettmuster. Der Schirm zeigt dir nur noch graue Sosse, aber die wollte ich nicht, ich wollte ein Schachbrett. Die Auflösungsgrenze liegt bei einem 17er wie anfangs gezeigt bei ~1200 * ~950 Bildpunkten, aber das könnte nur ein Schirm darstellen, der jedes Loch in der Maske exakt treffen kann. Diesen Schirm gibts aber nicht ;)
Das man eine so fein aufgelöste Linie in 800 * 600 nicht darstellen kann ist klar aber darum gehts ja nicht.

DrumDub
2004-09-06, 17:58:48
Der Effekt beim Überfahren der Lochmaskenauflösung entspricht weitgehend Supersampling ... :|

also doch? wieso wird das bild dann so matschig, wenn der monitor die hohe auflösung nicht packt?

mrdigital
2004-09-06, 18:01:18
Der Effekt beim Überfahren der Lochmaskenauflösung entspricht weitgehend Supersampling ... :|
Nein, ich kann beim Überfahren keine feinen Stukturen mehr darstellen und ich kann keinen Einfluss mehr auf die Art wie das Zusammenführen der Bildpunkte geschieht nehmen. Es wird beispielsweise jeder physische Bildpunkt "überbelichtet".

zeckensack
2004-09-06, 18:04:28
also doch? wieso wird das bild dann so matschig, wenn der monitor die hohe auflösung nicht packt?"Matschig" ist subjektiv. Die Kanten können eben nicht mehr exakt dargestellt werden. Da vermischen sich einzelne Bildpunkte direkt auf der Phosphorschicht. Für feinste Schriften, die noch dazu in konstanter Pixelgröße (!=konstante Bildfläche) dargestellt werden, ist das zweifellos von Nachteil.

Es gibt auch Spiele, in denen bei aktiviertem Supersampling die Schrift unscharf wird. Das ist genau das gleiche Problem.

Für texturierte Polygongrafik sollten die Vorteile allerdings überwiegen.

mrdigital
2004-09-06, 18:07:32
"Matschig" ist subjektiv. Die Kanten können eben nicht mehr exakt dargestellt werden. Da vermischen sich einzelne Bildpunkte direkt auf der Phosphorschicht. Für feinste Schriften, die noch dazu in konstanter Pixelgröße (!=konstante Bildfläche) dargestellt werden, ist das zweifellos von Nachteil.

Es gibt auch Spiele, in denen bei aktiviertem Supersampling die Schrift unscharf wird. Das ist genau das gleiche Problem.

Für texturierte Polygongrafik sollten die Vorteile allerdings überwiegen.
Aber du wirst doch nun keinem ernsthaft empfehlen, die Lochmaske zu überfahren, weil das ähnlich wie ein AA wirkt?!?

Trap
2004-09-06, 18:11:44
Mit einer höheren Auflösung haben die feinen Details die für eine scharfe Darstellung notwendig sind eine höhere Frequenz. SSAA ist dazu da Frequenzen zu entfernen die über der maximal darstellbaren Frequenz liegen.


Aber du wirst doch nun keinem ernsthaft empfehlen, die Lochmaske zu überfahren, weil das ähnlich wie ein AA wirkt?!?
Was ist denn die bessere Alternative dazu?

zeckensack
2004-09-06, 18:13:39
Nein, ich kann beim Überfahren keine feinen Stukturen mehr darstellen und ich kann keinen Einfluss mehr auf die Art wie das Zusammenführen der Bildpunkte geschieht nehmen. Es wird beispielsweise jeder physische Bildpunkt "überbelichtet".Wenn zwei Zeilen auf eine "vorgesehene" Zeile fallen, dann wird um Faktor 2 überbelichtet, ja.
a)ist 2x schon viel. Mehr als 1,5x dürfte man kaum erreichen
b)kannst du gegenregeln, indem du den "Kontrast" reduzierst.
c)möchte ich darauf hinweisen, dass die Spalten unkritisch sind. Der Strahl wird zwar konstant "brennend" über die Zeile geführt, aber die Monitorelektronik regelt das sowieso aus. Sonst wäre zB die 1280er Auflösung von Hause aus "doppelt so hell" wie die 640er Auflösung, und das ist wohl auf den wenigsten vernünftigen Geräten der Fall.

Du musst die Mischung nicht steuern können. Jede Öffnung in der Maske hat eben ihren eigenen "Fangbereich", und da kommen sowieso nur (anteilig) die Pixel durch, die in der Nähe liegen.

MikBach
2004-09-06, 18:14:56
Der Effekt beim Überfahren der Lochmaskenauflösung entspricht weitgehend Supersampling ... :|
Nein, ich würde DrumDub zustimmen. Sieht eher nach Quincux oder einem Blurfilter(aka XGI) aus. Dieser Effekt ist beim Überfahren der Lochmaske aber schwächer.
Man muss auch einen sehr guten(scharfen) Monitor haben, um die Unterschiede zu sehen.
Deswegen ein Full Ack an mrdigital.

zeckensack
2004-09-06, 18:15:04
Aber du wirst doch nun keinem ernsthaft empfehlen, die Lochmaske zu überfahren, weil das ähnlich wie ein AA wirkt?!?Nein.
Aber ich werde mich auch nicht hinstellen und behaupten, dass das überhaupt nicht besser aussehen kann als eine für die Maskenparameter exakt passende Auflösung. IMO kann es das durchaus.

MikBach
2004-09-06, 18:25:21
Mit einer höheren Auflösung haben die feinen Details die für eine scharfe Darstellung notwendig sind eine höhere Frequenz. SSAA ist dazu da Frequenzen zu entfernen die über der maximal darstellbaren Frequenz liegen.

Was hast du mit dem SSAA?
Wenn überhaupt, dann ist das Überfahren der Lochmaske mit MSAA vergleichbar. Wenn man einen Monitor hat, der für 1600x1200 bei weitem nicht geeignet ist, sieht es nach Blurfilter aus.
BTW SSAA verbessert ein bisschen die Schärfe, wir sprechen hier aber von einer Verschlechterung.
Ich glaube aber kaum dass du viele Spiele aus den letzten 2 Jahren finden wirst, wo man in 1600x1200 SSAA anschmeissen kann.

edit: Unsinn beseitigt.

mrdigital
2004-09-06, 18:30:57
Wenn zwei Zeilen auf eine "vorgesehene" Zeile fallen, dann wird um Faktor 2 überbelichtet, ja.
a)ist 2x schon viel. Mehr als 1,5x dürfte man kaum erreichen
b)kannst du gegenregeln, indem du den "Kontrast" reduzierst.
c)möchte ich darauf hinweisen, dass die Spalten unkritisch sind. Der Strahl wird zwar konstant "brennend" über die Zeile geführt, aber die Monitorelektronik regelt das sowieso aus. Sonst wäre zB die 1280er Auflösung von Hause aus "doppelt so hell" wie die 640er Auflösung, und das ist wohl auf den wenigsten vernünftigen Geräten der Fall.

Du musst die Mischung nicht steuern können. Jede Öffnung in der Maske hat eben ihren eigenen "Fangbereich", und da kommen sowieso nur (anteilig) die Pixel durch, die in der Nähe liegen.
Uff also, es wird Überbelichtet. Das liegt daran, dass du in der Phosphorschicht nur noch additiv Mischen kannst, du kannst einen Bildpunkt nicht mehr dunkler machen, sondern nur noch heller. Bei einem AA Algo könnte ich das aber schon.
Das die 640 nicht dunkler ist liegt doch einfach daran, dass immer die gleiche Anzahl von physischen Bildpunkten leuchtet, unabhängig von der Auflösung, es werden eben mehere physische Bildpunkte mit der selben Information angeregt.
Durch das Reduzieren des Kontrastes nehm ich mir künstlich Dynamikumfang aus dem Bild, warum sollte ich das tun?
Daher ist es nicht sinnvoll, die Maske zu überfahren.
Dass es Situationen geben kann, in denen dieses primitiv AA besser aussieht ist denkbar, aber nicht wirklich sinnvoll, denn ich verliere ja wie gesagt meine Feinstrukuren.
Daher die "richtige" Auflösung für eine Maske wählen und ein "richtiges" AA, d.h. eins das aus der GraKa kommt, verwenden, da hab ich doch dann alles auf einmal und gut is ;)

Trap
2004-09-06, 18:33:36
Was ist der Unterschied zwischen MSAA und SSAA und welches von beidem entspricht dem was bei Monitor passiert?

Man muss außerdem sehr zwischen 3d und Windowsanwendungen unterschieden, das was bei 3d dargestellt wird ist unabhängig von der eingestellten Auflösung, bei Windows kommen bei höheren Auflösungen zusätzliche Details hinzu.

mrdigital
2004-09-06, 18:39:17
Was ist der Unterschied zwischen MSAA und SSAA und welches von beidem entspricht dem was bei Monitor passiert?

Man muss außerdem sehr zwischen 3d und Windowsanwendungen unterschieden, das was bei 3d dargestellt wird ist unabhängig von der eingestellten Auflösung, bei Windows kommen bei höheren Auflösungen zusätzliche Details hinzu.
Das was beim Überfahren der Maske geschieht ist eine "Art" Supersampling. Aber auch in einer 3D Anwendung wird nicht unabhängig von der Auflösung dargestellt, denn meine kleinste noch darstellbare Geometrie verändert sich mit der Auflösung.

MikBach
2004-09-06, 18:41:00
Was ist der Unterschied zwischen MSAA und SSAA und welches von beidem entspricht dem was bei Monitor passiert?


Ich sehe doch was am Monitor ankommt. Auch wenn technisch eine Ähnlichkeit zwischen SSAA und überfahren der Lochmaske besteht, in der Praxis ist genau das Gegenteil der Fall.

zeckensack
2004-09-06, 18:42:37
Uff also, es wird Überbelichtet. Das liegt daran, dass du in der Phosphorschicht nur noch additiv Mischen kannst, du kannst einen Bildpunkt nicht mehr dunkler machen, sondern nur noch heller. Bei einem AA Algo könnte ich das aber schon.:|
Ein AA-Downfilter funktioniert genauso additiv. Die Gewichtung der einzelnen Samples wird dabei verringert, das ist alles. Siehe "Kontrast".
Das die 640 nicht dunkler ist liegt doch einfach daran, dass immer die gleiche Anzahl von physischen Bildpunkten leuchtet, unabhängig von der Auflösung, es werden eben mehere physische Bildpunkte mit der selben Information angeregt.Nö.
Der Strahl schießt nicht "einmal pro Maskenöffnung", sondern er ist innerhalb einer Zeile konstant an. In höheren (y-)Auflösungen bewegt er sich langsamer über die Zeile, ergo mehr Energie pro Zeiteinheit, ergo höhere Anregung, wenn es keine Kompensation dafür gäbe.
Durch das Reduzieren des Kontrastes nehm ich mir künstlich Dynamikumfang aus dem Bild, warum sollte ich das tun?Um die "Überbelichtung" auszugleichen, evtl? Und für's Pseudo-Supersampling willst du ja auch die Gewichtung der "Samples" reduzieren. Das hatten wir schon weiter oben.
Wenn du nur ausregelst was du nicht haben willst (zu hohe Intensität), dann verlierst du auch keinen Dynamikumfang. "Kontrast" ist einfach eine "Gain"-Regelung in der Monitorelektrik, mehr nicht.
Daher ist es nicht sinnvoll, die Maske zu überfahren.Sinnlos ist es aber auch nicht.
Dass es Situationen geben kann, in denen dieses primitiv AA besser aussieht ist denkbar, aber nicht wirklich sinnvoll, denn ich verliere ja wie gesagt meine Feinstrukuren.
Daher die "richtige" Auflösung für eine Maske wählen und ein "richtiges" AA, d.h. eins das aus der GraKa kommt, verwenden, da hab ich doch dann alles auf einmal und gut is ;)Und wenn du dann immer noch 500 fps kriegst, was fängst du dann damit an? :ugly:

Trap
2004-09-06, 18:51:07
Ich sehe doch was am Monitor ankommt. Auch wenn technisch eine Ähnlichkeit zwischen SSAA und überfahren der Lochmaske besteht, in der Praxis ist genau das Gegenteil der Fall.
Die Praxis ist das Gegenteil der Theorie? Dann hat man etwas noch nicht beachtet (was?) oder die Theorie falsch verstanden.

MikBach
2004-09-06, 18:55:19
Die Praxis ist das Gegenteil der Theorie? Dann hat man etwas noch nicht beachtet (was?) oder die Theorie falsch verstanden.
Lol.
Das sich die Theorie nicht immer in Praxis ummünzen lässt habe ich schon zu genüge erlebt.
Und hier haben wir ein super Beispiel dafür. ;)

Xmas
2004-09-06, 18:59:59
Das "Überbeanspruchen" der Lochmaske ist in der Tat eine Art Supersampling, bei dem das Mischen der Samples automatisch geschieht (man könnte auch behaupten, das sei bei CRTs permanent der Fall, weil es kein 1:1 Mapping Pixel zu Punkte gibt). Es gibt allerdings zwei bedeutende Nachteile zum "echten" Supersampling. Zum einen gibt es keinen ganzzahligen Skalierungsfaktor, wodurch einzelne Samples mehrere Bildpunkte beeinflussen (das ist es was viele als "unscharf" empfinden). Und zum anderen ist die Maske im Weg, es wird also ein Teil der Samples ignoriert oder zumindest untergewichtet.

Trap
2004-09-06, 19:06:36
Lol.
Das sich die Theorie nicht immer in Praxis ummünzen lässt habe ich schon zu genüge erlebt.
Und hier haben wir ein super Beispiel dafür. ;)
Kannst du für die Mehrzahl dieser Fälle ausschließen, dass du einen wichtigen Faktor in deiner theoretischen Betrachtung ignoriert hast?
Xmas hat ja davon einige in unserem Fall gefunden.

mrdigital
2004-09-06, 19:15:20
:|
Ein AA-Downfilter funktioniert genauso additiv. Die Gewichtung der einzelnen Samples wird dabei verringert, das ist alles. Siehe "Kontrast".

Auf genau diese Gewichtung kann ich beim Überfahren nicht mehr Einfluss nehmen, ich hab nur noch den alles oder nichts Regler Kontrast.

Nö.
Der Strahl schießt nicht "einmal pro Maskenöffnung", sondern er ist innerhalb einer Zeile konstant an. In höheren (y-)Auflösungen bewegt er sich langsamer über die Zeile, ergo mehr Energie pro Zeiteinheit, ergo höhere Anregung, wenn es keine Kompensation dafür gäbe.

Klar ist der Strahl in einer Zeile Konstant an. Die Energie, die auf die Phosphorschicht geworfen wird muss aber nicht in Abhängigkeit der Auflösung sondern in Abhängigkeit der Bildwiederholrate angepasst werden, damit ich im zeitlichen Mittel immer die selbe Energie auf die Röhre werfe. Der Strahl wandert ja in jeder Auflösung immer über die selbe Fläche, es ist ja nicht so, dass in 640 jede zweite Zeile leer gelassen wird und deswegen die Nachbarzeilen doppelt so hell leuchten müssten.

Um die "Überbelichtung" auszugleichen, evtl? Und für's Pseudo-Supersampling willst du ja auch die Gewichtung der "Samples" reduzieren. Das hatten wir schon weiter oben.
Wenn du nur ausregelst was du nicht haben willst (zu hohe Intensität), dann verlierst du auch keinen Dynamikumfang. "Kontrast" ist einfach eine "Gain"-Regelung in der Monitorelektrik, mehr nicht.

Hmm ok da muss ich mal drüber nachdenken, wie geanu das Zusammenspiel aus Helligkeit und Kontrast in der Monitorelektronik abläuft.

Sinnlos ist es aber auch nicht.

Nur weil es nicht vollkommen sinnlos erscheint, wird es nicht sinnvoll. Wie gesagt, man ist doch eindeutig besser bedient, wenn man die richtige Auflösung wählt und dann mit AA hochfährt. Nochmal ich kann mir keine Situation vorstellen, in der dieses Primitiv AA durch Überfahren der Maske einer niedrigeren Auflösung mit echtem AA überlegen oder auch nur gleichwertig wäre.

Und wenn du dann immer noch 500 fps kriegst, was fängst du dann damit an? :ugly:
Dann kauf ich mir einen grösseren Schirm, auf dem ich mehr darstellen kann, aber ich mach mir doch nicht mein Bild absichtlich zu Matsch. :D

MikBach
2004-09-06, 19:22:07
Kannst du für die Mehrzahl dieser Fälle ausschließen, dass du einen wichtigen Faktor in deiner theoretischen Betrachtung ignoriert hast?

Ich brauche doch keine theoretische Betrachtung, um zu sehen, dass es unscharf wird. Es kann aber noch von weiteren Faktoren anhängig sein.
1. Der Monitor fährt am Anschlag, was meistens zu einer Unschärfe führt.
2. Die Graka bietet eine schlechte Signalqualität. Siehe auch das Posting von Lochfrass:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2195925&postcount=1

Trap
2004-09-06, 19:29:06
Wenn du einen 1600x1200-Desktop als Textur mit 1024*768 und von mir aus 4xSSAA anzeigst ist das auch unscharf.

Inquisitor
2004-09-06, 19:54:57
bei 1600er Auflösungen werden die Nvidia und ATI Karten eh alle unscharf (zumindest alle, welche ich bis jetzt hatte). Von daher ists eh egal. Ich reg mich da schon gar nicht mehr drüber auf. Mein Monitor würde die 1600*1200 locker korrekt darstellen können, aber aus den Karten kommen nur unscharfe Bilder.

Edit: Zocken tu ich trotzdem in 1600*1200. Ist immer noch mehr Bildinformation leicht geblurrt, als wenn ich ne niedrigere Auflösung scharf darstellen lasse.

MikBach
2004-09-06, 19:59:38
Wenn du einen 1600x1200-Desktop als Textur mit 1024*768 und von mir aus 4xSSAA anzeigst ist das auch unscharf.
Richtig. Damit hast du sogar bewiesen dass bei einer Lochmaske, die 1600x1200 nicht physikalisch korrekt packt, eine Unschärfe existieren muss. ;)
Mit AA hat das nichts zu tun. ;)

mrdigital
2004-09-06, 20:23:02
bei 1600er Auflösungen werden die Nvidia und ATI Karten eh alle unscharf (zumindest alle, welche ich bis jetzt hatte). Von daher ists eh egal. Ich reg mich da schon gar nicht mehr drüber auf. Mein Monitor würde die 1600*1200 locker korrekt darstellen können, aber aus den Karten kommen nur unscharfe Bilder.

Edit: Zocken tu ich trotzdem in 1600*1200. Ist immer noch mehr Bildinformation leicht geblurrt, als wenn ich ne niedrigere Auflösung scharf darstellen lasse.
Naja das Problem bekommt man ja mit DVI wieder in Griff ;)

Inquisitor
2004-09-06, 20:32:23
Naja das Problem bekommt man ja mit DVI wieder in Griff ;)

Wenn Du mir verrätst, wo es nen Adapter gibt, der mir aus dem digitalen DVI-Signal der Karte ein qualitativ gutes Analogsignal für meinen CRT macht!?! :)

mrdigital
2004-09-06, 20:43:14
Wenn Du mir verrätst, wo es nen Adapter gibt, der mir aus dem digitalen DVI-Signal der Karte ein qualitativ gutes Analogsignal für meinen CRT macht!?! :)
Ja das mit der Verfügbarkeit, aber es soll ja irgendwo auch CRTs mit DVI Eingang geben ;)

Inquisitor
2004-09-06, 22:06:42
Ja das mit der Verfügbarkeit, aber es soll ja irgendwo auch CRTs mit DVI Eingang geben ;)

Sind das digitale oder analoge Eingänge? Wenn Digital, dann brauchts im Innern der Gerätes ja doch noch einen A/D Wandler, oder? Hab ehrlich gesagt bis heute noch von keinem CRT mit DVI gehört gehabt.

mrdigital
2004-09-06, 22:31:06
Sind das digitale oder analoge Eingänge? Wenn Digital, dann brauchts im Innern der Gerätes ja doch noch einen A/D Wandler, oder? Hab ehrlich gesagt bis heute noch von keinem CRT mit DVI gehört gehabt.
Ja es soll CRTs mit einem digitalen Eingang geben, die dann einen A/D Wandler drin haben. Ich kann dir aber leider kein Monitor nennen, der das Feature hat. Ich glaub aber auch nicht, dass diese Geräte je in Mengen am Markt auftauchen, dazu sinken selbst große TFTs zu schnell im Preis.

KEFFER
2004-09-06, 23:33:07
Mein 21er CRT hat nen DVI Eingang aber ob der digital und ein a/d Wandler im Monitor ist weiß ich nicht.
Macht es Sinn diesen zu benutzen?

winter
2004-09-06, 23:46:21
keffer: Qualitativ schon, weil dann zwei Störfaktoren, nähmlich Graka D/A Wandler und Kabelverluste wegfallen. Ich halte es allerdings für unwahrscheinlich, dass ein CRT dieser Größenordnung voll Digital angesteuert wird, wenn er noch einen VGA D-SUB Eingang hat. Dann wird er interne D/A Wandler für den DVI-Eingang haben.

mrdigital
2004-09-07, 00:02:54
keffer: Qualitativ schon, weil dann zwei Störfaktoren, nähmlich Graka D/A Wandler und Kabelverluste wegfallen. Ich halte es allerdings für unwahrscheinlich, dass ein CRT dieser Größenordnung voll Digital angesteuert wird, wenn er noch einen VGA D-SUB Eingang hat. Dann wird er interne D/A Wandler für den DVI-Eingang haben.
Das stimmt so nicht ganz, jeder Röhrenmonitor arbeitet analog. Wenn man einen Röhrenmonitor digital anbindet, findet die Signalwandlung nicht mehr in der Grafikkarte statt, sondern im Monitor. Die Übertragung per DVI hat eine Fehlerkorrektur (10 zu 8 codierung der Signale), die analoge hat das nicht. Dadurch kann man die Störungen, die bei der Übertragung des analogen Signals durch das lange Kabel von der GraKa zum Monitor auftreten vermeiden. Ausserdem ist der Analogwandler, wenn er im Monitor ist, besser an die Röhreneletronik angepasst, als wenn er auf der Grafikkarte sitzt.

KEFFER
2004-09-07, 00:27:39
Also ich habe hier ein recht gut geschiermtes Vga Kabel und ein ziemlich dünnes DVI Kabel.Dies sollte aber durch die Fehlerkrorrektur egal sein wenn ich das richtig verstehe.
Benutzen tue ich derzeit das vga Kabel meint ihr es wäre empfehlenswert denn DVI Anschluss zu benutzen?

Piffan
2004-09-07, 00:29:02
Auch wenn es sich anhört, als wenn jetzt ein Idiot schreibt: Ich glaube einfach nicht, dass das Überfahren der Lochmaske zu Unschärfen bzw. zu einem Blur führt.
Das Beispiel mit dem Schachbrett ist falsch. Wenn ich die Abtastung eines gegebenen Bildes erhöhe, werden ja auch nicht die Strukturen des Bildes feiner. Ein Schachbrett mit einer Feldgröße von nur einem Pixel gibts als Vorlage schlicht nicht, durch erhöhen der Auflösung wird ein reales Schachbrett ja auch nicht "verkleinert". Wenn ich denn schon Strukturen von der Größe von Pixeln abtaste, dann habe ich astreines Flimmern.....

Also bitte nicht Auflösung der Abtastung mit der Größe der Strukturen des Motivs verwechseln, die letzte bleibt ja gleich.

Der einzige Blur- Effekt bei zu hohen Auflösungen liegt an Begrenzung der Videofrequenzen. Da spielt der Ausgang der Graka bzw. das Kabel die wohl entscheidende Rolle. Beweis: WEnn ich mit der Bildwiederholrate runtergehe auf 60 Hz, dann ist das Bild plötzlich scharf.

Gute Kabel, guter Ausgang der Graka und gute Elektronik des Monitors vorausgesetzt, bringt das Überfahren einen astreinen Supersamplingeffekt....Manni hat imho recht.

Übrigens habe ich dieses Post auf einem 17er in 1600x1200 geschrieben. Bei 60 Hz Bildrate bekomme ich die Krise vom Flimmern, aber geblurrt ist hier nix! ;)

Gast
2004-09-07, 00:47:26
Das Ziel ist doch, dass man möglichst keine kleine Strukturen mehr in Spielen sieht. Man will kein Schachbrettmuster haben sondern grau! Deswegen wird ja gefiltert und AA für die Kanten etc. Deswegen sind IMO auch höhere Auflösungen als ideale gut in Spielen. Wobei selbst auf dem Desktop können die besten CRTs noch höhere Auflösungen gut darstellen. Besser höher als niedriger, denn z.B. 1024*768 sieht IMO auf einem guten 19"er scheiße aus...

also ich finde nichtd as es scheiße aussieht,... 1024 is genau die richtieg auflösung.. jedenfalls für meinen hyundai p910+ :) alles andre is mir dann zu klein

Coda
2004-09-07, 00:54:35
DVI überträgt auch ein analoges Signal. Es gibt sehr wahrscheinlich keinen CRT mit eingebautem DAC.
Wenn der Stecker ein "Kreuz" statt einem "Schlitz" hat ist das sogar sicher.

x-dragon
2004-09-07, 00:56:11
Mein 21er CRT hat nen DVI Eingang aber ob der digital und ein a/d Wandler im Monitor ist weiß ich nicht.
Macht es Sinn diesen zu benutzen? Ist das zufällig ein gewisser Monitor von IBM? Wenn ja, dann hat er auf jeden Fall nur einen analogen DVI-Eingang. Und da ich selbst einen P260 nutze (mit 1600er Auflösung) wüßte ich nicht was man da noch an der Bildqualität verbessern sollte :).

Gissmo
2004-09-07, 01:01:45
Mal mein Senf dazu :biggrin:

Sicherlich kann 1600*1200 auf einem ungeeigneten CRT nachteilig sein.. aber andere Leute finden einen solchen Blureffekt vllt auch angenehm.

Also versucht doch einfach mal euren Streit bei zu legen.. wer auf seinem 17"CRT 1600*1200 fahren möchte und damit zufrieden ist.. wunderbar..

Wer lieber 800*600 und dafür 32x SSAA fährt ;-) auch recht..

Aber bekriegt euch doch nicht so, nur weil ihr unterschiedliche Meinungen habt, von denen keiner die jeweils andere Seite überzeugen kann..

Viel Spaß noch

Michael

KEFFER
2004-09-07, 01:02:42
Ja es is ein P260 und die qualli is auch nicht verbesserungswürdig aber wenn mann schon beide Kabel rumliegen hat.

tombman
2004-09-07, 01:18:59
Also ich muß da mrdigital Recht geben.

Unter einem 21" machen die neuen Karten wenig Sinn und 17" is sowieso nur mehr ein Witz...

Ich hab nen 24" 16:10 Sony und fahre mit der empfohlenen Auflösung von 1920x1200, was die breite Variante des 1600x1200 Mudos für 21-Zöller ist- damit ist mein Bild am besten. (2304x1440 geht aber auch noch ;))

Da die neuen Karten sich in 1600x1200 am wohlsten fühlen warte ich persönlich auf SLI, damit ich 1920x1200 in 4xAA auch in neuesten games mit >60fps zocken kann ;)

Tesseract
2004-09-07, 01:50:45
auf meinem 19" sony (G420) ist die 1280x1024er res. am homogensten. (bzgl. lesbarkeit von kleiner schrift etc.) allerdings bringt 1600x1200 noch einen deutlichen bildquallitätsvorteil. die maximale grenze der maske würde ich hier pi mal daumen auf ungefähr 1400*1050 schätzen. in games macht 1600x1200 jedenfalls noch eindeutig sinn ohne dabei unschärfe zu erzeugen - abgesehen von der, die entsteht, wenn auflösung und maskenraster zufällig einem einem schlechten verhältnis stehen, das passiert aber auf jeder auflösung.

Inquisitor
2004-09-07, 11:18:56
Also ich muß da mrdigital Recht geben.

Unter einem 21" machen die neuen Karten wenig Sinn und 17" is sowieso nur mehr ein Witz...

Ich hab nen 24" 16:10 Sony und fahre mit der empfohlenen Auflösung von 1920x1200, was die breite Variante des 1600x1200 Mudos für 21-Zöller ist- damit ist mein Bild am besten. (2304x1440 geht aber auch noch ;))

Da die neuen Karten sich in 1600x1200 am wohlsten fühlen warte ich persönlich auf SLI, damit ich 1920x1200 in 4xAA auch in neuesten games mit >60fps zocken kann ;)

Sind denn die neuen Karte endlich dazu in der Lage nen scharfes analoges Signal bei 1600*1200@100Hz zu produzieren? Das wäre ja zu schön um wahr zu sein.

mrdigital
2004-09-07, 11:45:43
Sind denn die neuen Karte endlich dazu in der Lage nen scharfes analoges Signal bei 1600*1200@100Hz zu produzieren? Das wäre ja zu schön um wahr zu sein.
In der neuen c´t wurden die getestet und gerade mal 3 Karten haben in 1600*1200@85Hz ein + bekommen, Asus X800PE, MSI X800pro und eine Leadtek 6800GT, bei allen anderen hat es gerade mal für ein Durchschnittlich gereicht. Auf dem zweiten VGA Ausgang sieht es bei allen Karten schlecht aus, hier kommt keine Karte über ein Durchschnittlich hinaus.

Coda
2004-09-07, 13:04:10
Das müsste aber von Karte zu Karte unterschiedlich sein, weil eigentlich sind ja alles Referenzboards.

x-dragon
2004-09-07, 13:18:05
Ja es is ein P260 und die qualli is auch nicht verbesserungswürdig aber wenn mann schon beide Kabel rumliegen hat. Dann könntest du es ja eigentlich mal ausprobieren :). Wollte mir zuerst auch ein DVI-Kabel dafür holen, aber wurde mir von abgeraten da es nichts bringen sollte. Andererseits soll DVI ja auch eine eigene Fehlerkorrektur haben ...

Piffan
2004-09-07, 13:19:30
In der neuen c´t wurden die getestet und gerade mal 3 Karten haben in 1600*1200@85Hz ein + bekommen, Asus X800PE, MSI X800pro und eine Leadtek 6800GT, bei allen anderen hat es gerade mal für ein Durchschnittlich gereicht. Auf dem zweiten VGA Ausgang sieht es bei allen Karten schlecht aus, hier kommt keine Karte über ein Durchschnittlich hinaus.

Wenn die Leadtek nen vernünftigen Kühler hätte, wäre sie was für mich......Was anderes als ein Exhauster käme nicht in den Rechner. Und da gibts leider nur die Ice-Cube oder die Galaxy......
Wie es aussieht, muss man sich immer für das kleinere Übel entscheiden.

Sorry für OT, kam mir aber gerade so....

(del676)
2004-09-07, 13:37:25
jaja, die einsamen Kämpfer die irgendwas theoretisch behaupten und immer recht haben müssen, wer was anderes sagt liegt falsch (auch wenn ers mit eigenen augen sieht, es ist theoretisch unmöglich also basta)

:rolleyes:

*derwo 1920x1440 auf dem 22"er für Games als besser empfindet als 1600x1200*

stav0815
2004-09-07, 16:36:31
also ich hab mir gestern nen HP P930 gekauft weil mein alter kaputt ging und muss sagen:
19" CRT is doch bei 1280x1024 was feines ;) vorallem wenn er auf 100hz bis 1600x1200 geht :D nur eins isser:
schwer wie die sau :P

Matrix316
2004-09-07, 17:52:48
Ziel ist es möglichst viel Information auf den Schirm zu bekommen. Und wenn sich der Spieleprogrammier denkt, dass er ein schwarz - weiss Schachbrett auf den Schirm zabern will, aber nur eine graue Sosse auf dem Schirm ist, dann ist das doch was anderes, meinst nicht?

Aber wie klein müsste das Schachbrettmuster sein, damit es grau wird? Das wäre in der idealen Auflösung auch nicht unbedingt besser.

tombman
2004-09-07, 18:27:25
Sind denn die neuen Karte endlich dazu in der Lage nen scharfes analoges Signal bei 1600*1200@100Hz zu produzieren? Das wäre ja zu schön um wahr zu sein.

Also da muß man natürlich auch einen Monitor haben der nicht limitiert um da was sagen zu können.

Mein 1920x1200@ 90hz rennt absolut scharf auf dem FW900.

Ich hab aber auch ein BNC Kabel genommen ;)

btw, auf C`T Tests würde ich nicht vertrauen, nur eigenes Auge zählt mit dem Monitor seiner Wahl vor der Nase... (wie in anderen Bereichen auch ;) )

Asmodeus
2004-09-07, 18:32:15
Also da muß man natürlich auch einen Monitor haben der nicht limitiert um da was sagen zu können.

Mein 1920x1200@ 90hz rennt absolut scharf auf dem FW900.

Ich hab aber auch ein BNC Kabel genommen ;)

btw, auf C`T Tests würde ich nicht vertrauen, nur eigenes Auge zählt mit dem Monitor seiner Wahl vor der Nase... (wie in anderen Bereichen auch ;) )

Naja, ist vielleicht auch immer die Frage, was man als Vergleich heranzieht. Wenn man als Tester bewusst oder unbewusst die Quali von TFTs bei hohen Auflösungen im Hinterkopf hat, dann haben es die CRTs natürlich schwer.

Gruss, Carsten.

MadManniMan
2004-09-07, 18:34:20
Ja Ulukay ;) Ich mußte auch grad lachen, als ich deinen Nick las. Du hast doch immer Quincunx als subjektiv angenehmer in gewissen Apps beschrieben, aber viele - inklusive meiner Wenigkeit - kamen mit Theorie und Gedöns. Du hattest wohl Recht :)

Wie gesagt: 1600*1200 sieht auch auf einem 17"er besser aus, als 1280*1024 oder das "ideale" 1024*768. Wer es nicht glaubt, oder besser "weiß", der schaue es sich an und verlasse sich dabei auf seinen subjektiven Eindruck. Wenn man einer Meinung sein will, wird man auch nur ein schlechteres Bild sehen.

Und das Beispiel mit der 1-Pixel breiten Linie greift in der Spielepraxis nicht, da man solch scharfe Kontraste doch eher vermeiden will, um nicht übermäßiges Flimmern zu erreichen. Letztendlich setzt sich ein Bild in 1600*1200 aus mehr Informationen zusammen, als eines in 1280*1024, wenn auch durch die Lochmaske nicht mehr jedes einzelne Pixel darsgestellt wird. Daß mit 1280*1024 und höheres Antialiasing ein Bild mit mehr Informationen dargestellt wird, als eines in 1600*1200 und einem entsprechend niedrigeren, bestreitet nicht nur Niemand, sondern darum geht es auch nicht ;)

Was zählt ist die Praxis, nicht die Theorie. =)

Gast
2004-09-07, 19:22:32
Bevor ihr hier spekuliert, das die Lochmaske daran schuld wäre, dass es grau aussieht, der sollte mal nen Augenarzt fragen...
Der wird einem nur bestätigen das das Auge nicht in der Lage ist so kleine Informationen zu sehen/verarbeiten folglich wird der Mittelwert aus den zu nahe beieinander liegenden Farben genommen (hier sinds halt schwarz + weiss = grau).
Wenn man das Schachbrettmuster als grau sieht, heisst das nur, das du auf dem Bildschirm so kleine Punkte verwendest, das du sie nicht unbedingt auseinanderhalten kannst, nicht aber das dadurch Information verloren geht... Eher im Gegenteil. Mehr Information kann man nicht unterbringen. Und nen grober Klotz von Pixel (sry aber so ist es nunmal auf nem 19") wird niemals mehr Details darstellen können als ein nur ein paar drittel so große Klötze.
Im schlimmstenfalls sieht das Auge ja nur die Information von dem groben Pixel, eben das gemischte (Obwohl der Detailgrad aufgrund von saubereren bzw. feineren Kanten auch schon zunimmt.)

Piffan
2004-09-07, 19:51:28
Hallo! Bitte nicht immer die Auflösung mit dem Detailgrad der Vorlage/Motiv verwechseln!

@Manni: Selbstredent sieht es bei hohen Auflösungen besser aus. Auch in der Therie!

Es sei denn......die Technik lahmt (Kabel, Grakaausgang, Elektronik des Monis.)

Wenn man über das Raster der Lochmaske hinausgeht, passiert nix schlimmes, außer so was wie ein "natürliches" AA.....

Die Geschichte von den ungünstigen Verhältnissen von Maskenraster und gewählter Auflösung ist auch Käse. Ist bei CRT völlig schnurz. Spielt nur bei TFTs ne Rolle.

tombman
2004-09-07, 20:48:29
Naja, ist vielleicht auch immer die Frage, was man als Vergleich heranzieht. Wenn man als Tester bewusst oder unbewusst die Quali von TFTs bei hohen Auflösungen im Hinterkopf hat, dann haben es die CRTs natürlich schwer.

Gruss, Carsten.

klar sind TFTs eindeutig schärfer, haben aber auch haufenweise Nachteile- vorallem für gamer.

Es reicht ja, wenn der CRT scharf genug ist, und das ist mein FW900 auf alle Fälle ;)

MadManniMan
2004-09-07, 21:25:59
klar sind TFTs eindeutig schärfer, haben aber auch haufenweise Nachteile- vorallem für gamer.

Hm, jo der Blickwinkel ist manchmal noch merklich doof und Schlieren sieht man auch dann noch, wenn sie nicht stören. Man kann nicht schlechter spielen und es sieht auch nicht wirklich schlechter aus - also auf einem Gamer-TFT wie meinem Acer AL1721 -, aber ein anderes Feeling ist es schon noch, bin da mal gespannt, was die kommenden 8ms LCDs so bieten.


Es reicht ja, wenn der CRT scharf genug ist, und das ist mein FW900 auf alle Fälle ;)

Allerdings* =) Ich selbst vermisse die Unkompliziertheit meines CRT manchmal schon noch, wenn auch ein TFT von Natur aus mehr Komfort bietet, wie z.B. die automatische Auflösungsausrichtung an das Display.
Aber irgendwie will ich das geringe Gewicht, die ungeheure ... errm ... Flachheit und den geringen Stromverbrauch nicht mehr missen.

So, genug OT! Ich will nicht die X-te CRT vs. TFT Diskussion lostreten :rolleyes:

*ich muß dennoch anmerken, daß "scharf genug" mir nicht mehr ausreicht und ich selbst das D-SUB LCD-Feeling auf meinem (2.)15" TFT als ein wenig matschig empfinde, alles unter DVI-TFT mag ich nimmer so richig...

mrdigital
2004-09-07, 21:27:10
Aber wie klein müsste das Schachbrettmuster sein, damit es grau wird? Das wäre in der idealen Auflösung auch nicht unbedingt besser.
Das Schachbrett besteht aus einem weissen und einem schwarzen Pixel abwechelnd. Das muss jeder Monitor abbilden können. Wenn er das nicht kann, dann taugt er nix oder man überfährt die Lochmaske und es gibt ein grauen Matsch. Dass das menschliche Auge dieses Muster auf Distanz das als 50% Grau wahrnimmt, steht hierbei nicht zur Debatte. Wenn man nah genug an den Bildschirm geht, muss man das Muster wiedererkennen können. Ziel einer jeden Grafikkarten-Bildschirmkombination ist es, das, was im Grafikkartenspeicher steht exakt auf dem Bildschirm wiederzugeben. Das hat nichts mit subjektiven Empfinden oder sonstwas zu tun. Auch Piffans einwand ist in diesem Kontext Quark, denn mein Motiv ist so hoch aufgelöst, ich will es ja nicht noch mal abtasten (mein Motiv ist hier das schwarz weiss Muster, jeweils ein Pixel breit). Wenn man nun die Lochmaske überfährt, kann man dieses Muster nicht mehr so wiedergeben, wie es im Grafikkartenspeicher steht. Das ist dann definitv ein Qualitätsverlust. Es mag ssein, dass man diesen als angenehm wahrnimmt, weil es diesen AA Effekt dadurch gibt. Das liegt daran, dass die meissten Objekte in 3D Games (bzw die Texturen) ohnehin wesentlich niedriger Aufgelöst sind (hier gilt Piffans Einwand!), daher ist der verlust nicht sichtbar. Aber wenn man nun mal folgendes Gedankenspiel mitmacht, wirds vielleicht deutlicher:
ein 3D Obejt hat, wenn man es auf dem Bildschirm darstellt, mindestens ein Pixel an "Grösse". Das Spiel weiss, dass der User 1600 als Auflösung gewählt hat, also weiss das Spiel, ab welcher Distanz ein Objekt dargestellt werden kann, so dass es ein (oder wenige) Pixel gross wird. Wenn nun der Bildschirm dieses Kleine Objekt nicht mehr darstellen kann, dann ist das ein Verlust, der nicht ausgeglichen werden kann.
Noch deutlicher wird das ganze bei einem Windows Desktop, man kann die teilweise sehr feinen Elemente nicht mehr klar und scharf erkennen.
Wenn man also diesen Effekt durch das Überfahren der LM mag, dann ist man immer besser bedient, die richtige Auflösung zu wählen (i.d.R kann man da auch eine höhere Bildwiederholrate wählen, und die Signalqualität der Graka ist besser und die Dämpfung durch das Kabel ist niedriger) und ein richtiges AA auf der Grafikkarte dazuschalten.

Trap
2004-09-07, 21:30:53
Hallo! Bitte nicht immer die Auflösung mit dem Detailgrad der Vorlage/Motiv verwechseln!
Im 2d-Betrieb steigt bei höhere Auflösung auch der Detailgrad, bei Spielen ist der Detailgrad auflösungsunabhängig. Daher ist das überfahren der Maske im Windowsbetrieb kritischer.

Der wird einem nur bestätigen das das Auge nicht in der Lage ist so kleine Informationen zu sehen/verarbeiten folglich wird der Mittelwert aus den zu nahe beieinander liegenden Farben genommen (hier sinds halt schwarz + weiss = grau).
Ja, das Auge hat eine begrenzte Winkelauflösung. Ich hab 0,017° als Zahlenwert gefunden. Daraus eine maximale sinnvolle Auflösung zu errechnen halte ich allerdings für Unsinn.

MadManniMan
2004-09-07, 21:33:44
mrdigital, 2 Sachen:

A) Sie es dir an. Sie es dir in der Spielepraxis an und urteile "uns" dann nochmal ab ;)

B) 2D-Desktop und 3D-App sind etwas gänzlich unterschiedliches: in einer 3D-App sind Dinge nicht nur nicht so hoch aufgelöst - sie sollen es auch gar nicht! ...da hier dann Flimmern auftreten würde, hier setzen LoD-Verfahren an.
Zudem wird ein "1-Pixel-großes" Objekt bei per Pixel Abtastung bei Bewegung pixelweise durch die Gegend poppen, während Überabtastung - sei es durch richtiges oder pseudo Oversampling - feinere Abstufungen, feinere Bewegungen erlaubt.

mrdigital
2004-09-07, 22:10:38
mrdigital, 2 Sachen:

A) Sie es dir an. Sie es dir in der Spielepraxis an und urteile "uns" dann nochmal ab ;)

B) 2D-Desktop und 3D-App sind etwas gänzlich unterschiedliches: in einer 3D-App sind Dinge nicht nur nicht so hoch aufgelöst - sie sollen es auch gar nicht! ...da hier dann Flimmern auftreten würde, hier setzen LoD-Verfahren an.
Zudem wird ein "1-Pixel-großes" Objekt bei per Pixel Abtastung bei Bewegung pixelweise durch die Gegend poppen, während Überabtastung - sei es durch richtiges oder pseudo Oversampling - feinere Abstufungen, feinere Bewegungen erlaubt.
zu A) Ich hab mir das oft genug angesehen, ich hab viele Jahre Bildschirme verkauft. Es sieht mit richtigem AA wesentlich besser aus. Ehrlich. Versuchs mal ;)
zu B)warum wählst du dann eine so hohe Bildschirmauflösung, wenn deine Objekte gar nicht so hoch aufgelöst sind? Wo ist dann dein Qualitätsgewinn in der höheren Auflösung?
Nein, das ist dann keine feinere Auflösung, das ist Informationsverlust. Nochmal Echtes AA ist diesem primitv AA in jeder Situation klar überlegen. Die Anwendung weiss, wie groß das kleinste noch darstellbare Objekt sein kann. Die Anwendung kann eine anständige AA Filterung durchführen, an genau den Stellen wo sie es für nötig hält. Man hat immer noch die Möglichkeit ein Pixel Objekte / Schriften darzustellen.
Ich sehe hier nur Vorteile und beim Überfahren der Maske sehe ich leider keinen. Ich kann nur den Kopf schütteln, wenn du statt 1024 und AA dann auf 1600 und kein AA gehst.

MadManniMan
2004-09-07, 22:22:19
zu A) Ich hab mir das oft genug angesehen, ich hab viele Jahre Bildschirme verkauft. Es sieht mit richtigem AA wesentlich besser aus. Ehrlich. Versuchs mal ;)

Ich weiß, daß echtes AA besser aussieht, bestreite ich das irgendwo? Nur ist 1600 + 4*/16* z.B. besser denn 1280 + 4*/16* - auch mir SchmierFix(tm) durch die Lochmaske ;)


zu B)warum wählst du dann eine so hohe Bildschirmauflösung, wenn deine Objekte gar nicht so hoch aufgelöst sind? Wo ist dann dein Qualitätsgewinn in der höheren Auflösung?

:|

Bei 1280 würde ich die Objekte vielleicht gar nicht mehr wahrnehmen, bei 1600 @SchmierFix(tm) nehme ich sie wenigstens noch als grauschleier war, habe zudem bessere Texturen.


Nein, das ist dann keine feinere Auflösung, das ist Informationsverlust. Nochmal Echtes AA ist diesem primitv AA in jeder Situation klar überlegen. Die Anwendung weiss, wie groß das kleinste noch darstellbare Objekt sein kann. Die Anwendung kann eine anständige AA Filterung durchführen, an genau den Stellen wo sie es für nötig hält. Man hat immer noch die Möglichkeit ein Pixel Objekte / Schriften darzustellen.
Ich sehe hier nur Vorteile und beim Überfahren der Maske sehe ich leider keinen. Ich kann nur den Kopf schütteln, wenn du statt 1024 und AA dann auf 1600 und kein AA gehst.

:|

Seit wann ist AA schlau? AA macht entweder *ich-streck-hier-halt-mal-alles-um-dies-und-jenes-und-quetsch-danach-wieder* auf die ganze Szene, oder nur Kanten.
Aber merke: AA ist blöd. AA selbst ist genauso dumm, wie SchmierFix(tm).

BTW: Ich selbst fahre hier einen TFT per DVI, weil ich allgemein ein maximalst scharfes Bild haben will ;)

Trap
2004-09-07, 22:47:12
Die Position von 3d-Objekten ist viel genauer bekannt als nur mit Bildschirmauflösung. Bei jeder aktuell möglichen Bildschirmauflösung. Daher sind sie höher aufgelöst, nicht niedriger.

Eine bessere Lösung wäre im Treiber besseres AA wählbar zu machen, bei den aktuellen Grenzen (in welchem Treiber kann man SSAA wählen?) kann Maske überfahren durchaus noch was bringen.

tombman
2004-09-07, 23:36:36
Hm, jo der Blickwinkel ist manchmal noch merklich doof und Schlieren sieht man auch dann noch, wenn sie nicht stören. Man kann nicht schlechter spielen und es sieht auch nicht wirklich schlechter aus - also auf einem Gamer-TFT wie meinem Acer AL1721 -, aber ein anderes Feeling ist es schon noch, bin da mal gespannt, was die kommenden 8ms LCDs so bieten.



naja, aber 17" ist für mich Briefmarkengröße wennst die "Prärielandschaft" eines "24 Breitwänders" gewöhnt bist ;)

Und große und schnelle TFTs gibts schon mal gar ned ....

MadManniMan
2004-09-08, 00:40:00
naja, aber 17" ist für mich Briefmarkengröße wennst die "Prärielandschaft" eines "24 Breitwänders" gewöhnt bist ;)

Bäh, da wär mir mein Schreibtisch und meine Stromrechnung zu schade für, ernsthaft :D

Und große und schnelle TFTs gibts schon mal gar ned ....

Dafür hat ja auch kaum jemand Geld - ok, für dich kein Argument, vergiß das aber nicht völlig. Und im Laufe des nächsten Jahres kommen gewiß auch für dich ausreichend ... errm ... "kleine" TFTs auf den Markt, mit denen man spielen kann, so 20" langsam ausreichend?

Gast
2004-09-08, 01:24:25
naja, aber 17" ist für mich Briefmarkengröße wennst die "Prärielandschaft" eines "24 Breitwänders" gewöhnt bist ;)Angeber ;)

Ailuros
2004-09-08, 11:25:13
Bäh, da wär mir mein Schreibtisch und meine Stromrechnung zu schade für, ernsthaft

Das mit dem Platz kann ich zwar verstehen aber der Stromverbrauch bei einem einfachen Benutzer (und keiner grossen Firma mit unzaehligen Monitoren) ist das bloedeste Argument ueberhaupt.

Vergleichbare Bildschirmgroessen:

SyncMaster 1100DF:

120W
=/< 2W standby

SyncMaster 213T:

75W
< 2W standby

Ja und das vom gleichen Vendor mit Absicht und nur ein Beispiel. Wenn Dir im den Fall die schaebigen 45W wirklich den Geldbeutel verbrennen zu scheinen (was bei einer Stromrechnung einen laecherlichen Unterschied macht), dann kauf Dir eventuell diese Spargluehbirnen fuer die Schreibtisch-lampe als Beispiel.

Dass der Preis-Unterschied im gegebenen Fall zwischen 489 und 1299 Euros liegt, sollte man auch nicht uebersehen. Mit den extra >700 euro Unterschied kannst Du die Stromrechnungs-differenzen von den 45W jahrelang ausgleichen.

Jedem bitteschoen das seine, aber wie gesagt Stromverbrauch ist fuer mich als Einzelverbraucher nicht ein einziger Gedanke. Wenn es 500 gegen 50W waeren dann natuerlich schon.

MadManniMan
2004-09-08, 12:17:51
Ich muß sagen, der relativ niedrige Mehrverbrauch der Übergroßen beeindruckt mich!

Dennoch: Auch 17"CRTs verbrauchen noch im Schnitt 70W, 19"er 90W.
Für TFTs hast du dir einen echten Stromfresser angeschaut: ein nomineller 19"er liegt bei >40W, ein üblicher 17"er bei 30 bis 35W.
Aber ich habe grad nochmal nachgeschaut: alle TFTs über 19" fressen ordentlich Strom, zwar noch nicht äquivalent einem ähnlich großen CRT, doch aber soviel wie ein 17" CRT. Die Pixelanzahl geht wohl ziemlich linear in die Leistung.

Bei den wirklich großen Monitoren ist somit der Stromverbrauch nicht mehr wirklich relevant, das stimm - vor allem bei DEN Anschaffungspreisen. Bei 17"ern und 19"ern jedoch ... naja, ist Einstellungssache, hauptsächlich sind mir die Teile zu klobig :D

mrdigital
2004-09-08, 13:07:40
Ich muß sagen, der relativ niedrige Mehrverbrauch der Übergroßen beeindruckt mich!

Dennoch: Auch 17"CRTs verbrauchen noch im Schnitt 70W, 19"er 90W.
Für TFTs hast du dir einen echten Stromfresser angeschaut: ein nomineller 19"er liegt bei >40W, ein üblicher 17"er bei 30 bis 35W.
Aber ich habe grad nochmal nachgeschaut: alle TFTs über 19" fressen ordentlich Strom, zwar noch nicht äquivalent einem ähnlich großen CRT, doch aber soviel wie ein 17" CRT. Die Pixelanzahl geht wohl ziemlich linear in die Leistung.

Bei den wirklich großen Monitoren ist somit der Stromverbrauch nicht mehr wirklich relevant, das stimm - vor allem bei DEN Anschaffungspreisen. Bei 17"ern und 19"ern jedoch ... naja, ist Einstellungssache, hauptsächlich sind mir die Teile zu klobig :D

Die Pixelanzahl ist ziemlich wurscht für den Stromverbrauch. Es ist im wesentlichen nur die Bildschirmfläche, die ausgeleuchtet werden muss, die den Energiebedarf bestimmt.

MadManniMan
2004-09-08, 13:54:40
Die Pixelanzahl ist ziemlich wurscht für den Stromverbrauch. Es ist im wesentlichen nur die Bildschirmfläche, die ausgeleuchtet werden muss, die den Energiebedarf bestimmt.

Seltsam... schau dich mal ein bisschen bei den TFT-Herstellern um: von 17 auf 19(ja auch wirklich sichtbare) Zoll steigt der Energieverbrauch unwesentlich, ab 20/21 Zoll sinds gleich ordentlich viele Watt mehr :conf:

mrdigital
2004-09-08, 14:03:04
Ich hab nie was von einem linearen Zusammenhang zwischen Fläche und Energie erzählt, aber was ist denn mit hochauflösenden Notebookdisplays? :|

MadManniMan
2004-09-08, 14:34:03
Ich hab nie was von einem linearen Zusammenhang zwischen Fläche und Energie erzählt, aber was ist denn mit hochauflösenden Notebookdisplays? :|

Achso, naja das stimmt auch wieder... aber wenn ich bedenke, wie klein oft NB-Displays sind und daß deren Ausleuchtung oft nur minderwertig(tm) erscheint(zumindest mir)... Aber Rumraten bringt nichts, wissen wäre schöner ;)

Ailuros
2004-09-09, 05:08:46
Ich muß sagen, der relativ niedrige Mehrverbrauch der Übergroßen beeindruckt mich!

Dennoch: Auch 17"CRTs verbrauchen noch im Schnitt 70W, 19"er 90W.
Für TFTs hast du dir einen echten Stromfresser angeschaut: ein nomineller 19"er liegt bei >40W, ein üblicher 17"er bei 30 bis 35W.
Aber ich habe grad nochmal nachgeschaut: alle TFTs über 19" fressen ordentlich Strom, zwar noch nicht äquivalent einem ähnlich großen CRT, doch aber soviel wie ein 17" CRT. Die Pixelanzahl geht wohl ziemlich linear in die Leistung.

Bei den wirklich großen Monitoren ist somit der Stromverbrauch nicht mehr wirklich relevant, das stimm - vor allem bei DEN Anschaffungspreisen. Bei 17"ern und 19"ern jedoch ... naja, ist Einstellungssache, hauptsächlich sind mir die Teile zu klobig :D

Ich hab nur vergleichbare Bildschirmgroessen verglichen aus verstaendlichen Gruenden.

Die Preisunterschiede sind trotz allem da; nochmal gleicher Vendor:

910T = 38W = 689 euro
997DF = 100W = 249 euro

710T = 34W = 519 euro
797DF = 80W = 179 euro

Und das aendert wirklich trotz allem nichts nennenswertes an einer normalen Stromrechnung eines Haushalts. Um wieviel denkst Du spart man wenn man sagen wir mal eine ganzes Jahr lang irgend eine Beleuchtungsquelle mit einer 60W Gluebirne nicht anschaltet? Es handelt sich nicht um ein Buegeleisen, einen Kochherd oder eine Waschmaschine.

Du kannst ja gerne zu einem Kalkulator greifen und es versuchen mich zu ueberzeugen, dass man fuer die Lebenszeit dieser Bildschirme =/>350 euro in extra Strom verplempern wird mit einem CRT. Selbst wenn jeglicher Bildschirm 24 Stunden am Tag und ueber das ganze Jahr ununterbrochen eingeschaltet ist, wird er doch die Mehrzahl der Stunden in standby verbrauchen.

Was genau soll sich da bei 17/19" vergleichbaren Bildschirmen genau aendern?

Wie gesagt jedem das seine, aber ich sehe den Stromverbrauch fuer den Einzelverbraucher nicht als standhaften Punkt an.

Tigerchen
2004-09-09, 06:29:58
Der Effekt beim Überfahren der Lochmaskenauflösung entspricht weitgehend Supersampling ... :|


Den Rest erledigt die meist nicht befriedigende Signalqualität die alle Grafikkkarten bei 1600x1200 abliefern. Ich versteh nicht wie man sowas schön finden kann.
:confused:

q@w
2004-09-09, 13:54:37
Mit einer Grafikkarte, die eben doch ein ausreichend gutes Bild auch noch bei 1600x1200 liefert und einem Monitor, der 1600x1200@85Hz so gut darstellen kann, daß sich die meisten 17"-CRTs unter 1024x768@85Hz davon noch eine Scheibe abschneiden können?

:)

stav0815
2004-09-09, 19:12:56
Mit einer Grafikkarte, die eben doch ein ausreichend gutes Bild auch noch bei 1600x1200 liefert und einem Monitor, der 1600x1200@85Hz so gut darstellen kann, daß sich die meisten 17"-CRTs unter 1024x768@85Hz davon noch eine Scheibe abschneiden können?

:)

gibts für dich nur 17" CRTs ?! Was ist denn mit 19" CRTs ?!
ich hab mir montag einen gekauft, der is um WELTEN besser als den 19" TFT (Acer AL1921ms) den ich zuvor Testweise hatte.
Es ist eben nicht alles Gold was glänzt...

Quasar
2004-09-09, 19:39:00
Nein, natürlich gibt es auch 9", 14", 15" und 19" CRTs - allerdings bin ich nicht sicher, ob das Bild meines CRT in 1600x1200@85Hz wirklich besser ist, als das eines durchschnittlichen 19"-CRT, deswegen schrieb ich 17", weil da die BQ i.d.R. etwas niedriger ist.

Tesseract
2004-09-09, 21:07:59
Und große und schnelle TFTs gibts schon mal gar ned ....

es gibt nichtmal kleine schnelle. und schon garkeine, die auch noch gute sichtwinkel haben. ich hoffe mal das OLEDs einen prinzipbedingten vorteil haben, denn TFTs werden meine bedürfnisse vermutlich noch die nächsten jahre nicht befriedigen können wies aussieht - ausser vielleicht als zweitschirm für 2d

Piffan
2004-09-09, 21:13:28
Sehe ich auch so. Habe einen TFT mal testhalber zum Spielen benutzt und bin kuriert. Fürs ernsthafte Arbeiten ok, aber für Multimedia eher nicht so dolle.

Die LED- Schirme werden wohl verzögerungsfrei arbeiten. Wäre Klasse für echtes 3D mit Shutterbrille. Wer weiß, vielleicht werde ich eines Tages meine schöne 3D- Brille wieder auspacken....

mbee
2004-09-09, 21:24:15
naja, aber 17" ist für mich Briefmarkengröße wennst die "Prärielandschaft" eines "24 Breitwänders" gewöhnt bist ;)

Und große und schnelle TFTs gibts schon mal gar ned ....

Falsch: Schau Dir mal einen NEC 2080UX+ an (1600x1200). Ist in meinem Augen ausreichend groß und ich würde ihn um nichts in der Welt wieder gegen meinem 21 Zoll Sony austauschen.
Gut, Dein CRT spielt natürlich schon wieder in einer höheren Liga, was die Auflösung betrifft. Aber 1600x1200 sind IMHO noch "verschmerzbar".
Leider taugen die neuen Cinema-Displays von Apple nichts zum Zocken (Schaltzeiten).

Tesseract
2004-09-09, 21:54:29
Ist in meinem Augen ausreichend groß und ich würde ihn um nichts in der Welt wieder gegen meinem 21 Zoll Sony austauschen.

das ist zwar schön für dich, ändert aber nichts an der richtigkeit seiner aussage.
TFTs sind prinzipbedingt für schnelle schaltzeiten einfach ungeeignet. und selbst nach jahrelangem optimieren wird man noch immer nicht dort sein, wo CRTs schon seit jahren sind. das hat auch nichts mir dem hersteller oder der generation zu tun, das ist einfach die prinzipielle funktionsweise eines TFT panels.

ob es dich stört oder nicht ist wieder eine ganz andere geschichte. für mich persönlich ist die geschwindigkeit (neben den grottenschlechten sichtwinkeln) DAS argument, wieso ich keinen besitze - obwohl ein TFT auch viele vorteile hätte.

MadManniMan
2004-09-09, 22:03:40
Jup, drei Hauptnachteile von TFTs:

Mäßige Blickwinkel, fragliche Spieletauglichkeit, Mondpreise. Dennoch bin ich stolzer besitzer von zweien - ich sitze eh nicht in spitzem Winkel beim Zocken, Surfen und Filmschauen, kann mich mit dem gewissermaßen anderen Feeling beim Spielen abfinden(wirklich stören tun mich die leichten Schlieren bei meinem - zugegebenermaßen hab ich meinen Monitor wegen guter Reaktionszeiten ausgesucht) und die einmaligen 400? kann ich auch noch langfristig verkraften ;)

mbee
2004-09-09, 22:05:24
das ist zwar schön für dich, ändert aber nichts an der richtigkeit seiner aussage.
TFTs sind prinzipbedingt für schnelle schaltzeiten einfach ungeeignet. und selbst nach jahrelangem optimieren wird man noch immer nicht dort sein, wo CRTs schon seit jahren sind. das hat auch nichts mir dem hersteller oder der generation zu tun, das ist einfach die prinzipielle funktionsweise eines TFT panels.

ob es dich stört oder nicht ist wieder eine ganz andere geschichte. für mich persönlich ist die geschwindigkeit (neben den grottenschlechten sichtwinkeln) DAS argument, wieso ich keinen besitze - obwohl ein TFT auch viele vorteile hätte.

Ich will hier auch keine Diskussion TFT<->CRT lostreten, aber was vor allem den Sichtwinkel betrifft, liegst du absolut falsch oder hast Dir die TFTs der neuesten Generation (IPS-Panel) noch nicht angesehen. Die Schaltzeiten (Geisterbilder) an sich sind auch kein Problem mehr. Manche empfinden lediglich noch die unvermeidbare Bewegungsunschärfe als ein Manko.

Die Aussage (nicht schnell genug) ist übrigens in dieser Richtung genau so "subjektiv". Für viele sind TFTs durchaus schnell genug, auch wenn CRTs natürlich in dieser Hinsicht schneller sind.

Tesseract
2004-09-09, 22:20:17
aber was vor allem den Sichtwinkel betrifft, liegst du absolut falsch oder hast Dir die TFTs der neuesten Generation (IPS-Panel) noch nicht angesehen.

seit wann haben IPS gute sichtwinkel?

meine momentane referenz in der kathegorie ist der samsung 173p mit PVA panel und 178°/178°
den würde ich zumindest schon als verwendbar einstufen weil beim geraden davorsitzen oben und unten zumindest annähernd der gleiche farbwert ist - aber von optimal kann da auch noch lange keine rede sein.
dafür ist er wieder ziemlich langsam, aber mir bis jetzt noch das angehemste modell - für 2d

Die Aussage (nicht schnell genug) ist übrigens in dieser Richtung genau so "subjektiv". Für viele sind TFTs durchaus schnell genug, auch wenn CRTs natürlich in dieser Hinsicht schneller sind.

schnell genug ist natürlich, wie gesagt, subjektiv. aber wenn du schaltzeiten von allen optischen ausgabegeräten auf einer skala aufträgst, siehts für TFTs alles andere als rosig aus.

mbee
2004-09-09, 22:35:54
Sorry, ich meinte natürlich S-IPS.
Der NEC hat übrigens 176°/176° und das mit "subjektiv" gesehen mehr als ausreichenden Schaltzeiten. Ich habe mir den Wechsel von einem sehr guten CRT auf TFT auch recht lange überlegt, aber als ich mir das Teil angesehen hatte, war ich überzeugt.

tombman
2004-09-09, 23:56:57
Sorry, ich meinte natürlich S-IPS.
Der NEC hat übrigens 176°/176° und das mit "subjektiv" gesehen mehr als ausreichenden Schaltzeiten. Ich habe mir den Wechsel von einem sehr guten CRT auf TFT auch recht lange überlegt, aber als ich mir das Teil angesehen hatte, war ich überzeugt.

hmm, naja, aber dann mußt du ja noch die Sache mit der Interpolation berücksichtigen?

Ist dein NEC immer noch "schnell" wenn du mal nicht die native Auflösung spielst?

Außerdem: schon mal auf 2304x1440 gespielt? :D :D

Aber wenn du in Wien wohnst kannst mich mit deinem NEC mal besuchen und ihn mir vorführen --> ich würde mich gerne überzeugen lassen, daß es große und schnelle TFTs überhaupt gibt ;)

mbee
2004-09-10, 00:07:31
hmm, naja, aber dann mußt du ja noch die Sache mit der Interpolation berücksichtigen?

Ist dein NEC immer noch "schnell" wenn du mal nicht die native Auflösung spielst?

Außerdem: schon mal auf 2304x1440 gespielt? :D :D

Aber wenn du in Wien wohnst kannst mich mit deinem NEC mal besuchen und ihn mir vorführen --> ich würde mich gerne überzeugen lassen, daß es große und schnelle TFTs überhaupt gibt ;)

Die Interpolation übernimmt (IMHO) bei DVI-D eh die Grafikkarte (dafür gibt es eine Option in den ATI-Treibern bei den Display-Settings). Eine Verlangsamung bzw. eine Schlierenbildung ist dabei nicht zu sehen. Die Interpolation arbeitet auf dem Teil zumindest bei 1024x768 und 1152x864 ausgezeichnet. Ist sogar wie eine Art AA umsonst.

Seit ich die XT800 PE habe, spiele ich aber eh nur noch auf 1600x1200 :D

Wohne leider nicht in Wien sondern in Köln :D Deinen CRT habe ich lediglich einmal auf einer Messe in Aktion gesehen, das war aber auch schon recht beeindruckend.

tombman
2004-09-10, 00:11:36
Seit ich die XT800 PE habe, spiele ich aber eh nur noch auf 1600x1200 :D



hehe, selbe Wellenlänge wie ich offenbar: große Monitore, fette Grakas -> so gehört sich das :D

Was glaubst du wie geil ich schon auf NV45 SLI bin: far cry @ 2304x1440 und >60fps :D

Tesseract
2004-09-10, 00:28:36
Die Interpolation arbeitet auf dem Teil zumindest bei 1024x768 und 1152x864 ausgezeichnet. Ist sogar wie eine Art AA umsonst.

interpolation wie eine art AA? für diese aussage gehörst du geteert und gefedert ;D

mbee
2004-09-10, 00:43:29
Mir ist schon klar, dass AA technisch anders als eine Interpolation abläuft :D

Der "Interpolationseffekt" bzw. das optische Ergebnis hält sich jedoch was ein "verwaschenes" Bild angeht sehr gut in Grenzen im Vergleich zu vielen anderen TFTs.

LOCHFRASS
2004-09-10, 05:17:27
Den Rest erledigt die meist nicht befriedigende Signalqualität die alle Grafikkkarten bei 1600x1200 abliefern. Ich versteh nicht wie man sowas schön finden kann.
:confused:

Loetkolben raus und weg mit dem Low-Pass Filter. ;)

Sailor Moon
2004-09-12, 18:04:30
Den FW-900 hab ich selber eine ganze Zeit gehabt, natürlich ein schönes Gerät, wobei 1920x1200 in den Randbereichen schon über dem liegen, was physikalisch auf dem Gerät eigentlich darzustellen ist (variable Schlitzmaske). Mehr konnte ich dem Gerät nicht zumuten, dann wurde es doch zu schwammig, trotz guter BNC Verbindung und Grafikkarten mit gutem 2D Signal (testweise sogar mit einer V3-3000, welche ja mit das beste 2D Signal hatte).
Zum zocken natürlich prima geeignet, aber den Umstieg auf den 240T Anfang 2003 habe ich keine einzige Sekunde auch nur ansatzweise bereut.
Dabei handelt es sich ja hier immerhin um einen TFT, der von der Technik her schon seit 2000 auf dem Markt ist (die Entwicklung ist seitdem ja nicht stehengeblieben). Mit PVA Panel und 25ms auf gar keinen Fall ein "Sprinter", dafür aber in der Farbdarstellung nicht wesentlich schlechter als der FW-900; Farbraum ist auch brauchbar, wobei dieses Argument in Sachen Bildbearbeitung ja auch nie wirklich gezogen hat (TFT= kleinerer Farbraum). Ohne Kalibrierung ist ein CRT auch nicht genauer als ein TFT. Und die "Großen Anbieter", sprich z.B. Heidelbergs ColorOpen Subset ViewOpen, kalibriert mit der richtigen Hardware inzwischen auch problemlos TFTs.
Und natürlich, ja das Teil schliert, aber hier ist es eine ganz subjektive Sache, ob einen das wirklich stört oder nicht. Deswegen werden diese "Galubenskriege" auch nie ein Ende finden. Was für den Einen prima ist, ist für den Anderen schlicht unbrauchbar - und beide können recht haben. Ich bin da sehr resistent, ein PVA Panel mag sicher nicht jeder zum Zocken, aber für die Leute gibt es ja TN und S-IPS Geräte. Immer geben wird es Menschen, die mit TFTs grundsätzlich nicht zurechtkommen, denn auch mit noch so geringer Reaktionszeit wird es bei TFTs immer den "Sampling-and-Hold"-Effekt geben.
Insgesamt sind TFTs aber schon lange "Massentauglich", und ich zocke auch schnelle Shooter mit meinem trägen PVA Teil.
Die Vorteile wie: Schärfe, Konvergenz, Größe (hatte die Teile mal hier (http://mywebpage.netscape.com/TsukinoB/zimmer3.jpg) nebeneinanderstehen, die 2" mehr sichtbare Fläche machen schon was aus) sind für mich einfach entscheidend.
Die typischen Probleme, die mit digitaler Ansteuerung und hohen Auflösungen anfangs auftauchten, sind bei aktuellen Geräten kein Thema mehr. Muß ich mit meinem Samsung 1600x1200 und 1920x1200 noch mit 52Hz ansteuern (was aber kein großes Problem ist), braucht man sich darum dank reduced Blanking heute gar keine Gedanken mehr machen.
Für noch höhere -und meiner Meinung nach auch sehr sinnvolle- Auflösungen, muß dann eben DualLink DVI ran. Mittelfristig wird das wohl jede Consumerkarte bieten. Und damit stechen TFTs dann auch die großen CRTs aus, rein von der schieren Sichtfläche, ohne CRT typische Probleme. So hoffe ich, dass mein 240T im 30" Cinema HD einen würdigen Nachfolger findet, und sehe für CRTs nur noch einen sehr kleinen Markt. Rein preislich werden ja auch die großen TFTs immer günstiger - und irgendwann werden sich wohl auch diejenigen, welche den Sampling-and-Hold Effekt bemänglen, dazu durchringen müssen, einen TFT zu kaufen, weil CRTs dann wirklich nur mehr Nischenprodukt sind. Das will ich gar nicht schönreden, wird aber mittelfristig wohl so kommen.

Gruß

Denis

Kinman
2004-11-30, 16:11:49
Ihr redets immer von Lochmaske. Wie schauts bei Streifenmaske aus? Philips 107P User ;)
Bis 1600 merk ich keinen Schärfenverlust wenn ich mir die nase am Monitor plattdrück, jedoch kann ich aus meiner normalen entfernung eine 1PX schwarze Linie auf weiß nicht mehr scharf sehen.

Bei Spielen ist dies aber hinfällig, weil es natürlicher ist...

Ich bin nur auf die Bildwiederholrate und Farbbrillianz aus.. unter 85Hz ist es für mich eine Quälerei.

mfg Kinman

MarcWessels
2004-11-30, 18:09:41
Ich bin nur auf die Bildwiederholrate und Farbbrillianz aus.. unter 85Hz ist es für mich eine Quälerei.

Und für mich ÜBER 60hz... ;)

urbi
2004-11-30, 22:10:44
Ich finde alles über 1152x864 auf einem 19 Zoll auf Dauer irgendwie anstrengend. Aber wahrscheinlich bin ich einfach der einzige 13373 Typ hier der durchschnittlich 10 Stunden am Tag am PC sitzt... *stichel* :D

DrumDub
2004-11-30, 23:38:12
Und für mich ÜBER 60hz... ;)

das ist nicht dein ernst? :|

MarcWessels
2004-11-30, 23:52:44
das ist nicht dein ernst? :|

Doch, klar. *fg* Weil ich Wert darauf lege, daß die Framerate = der Bildwiederholfrequenz ist und es ist für mein Sys nunmal einfacher, 60fps zu halten, als 75, 85 oder gar 100fps. ;)