PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wann 2048*1538*64@8xSSAA&16xAF in Spielen Standard?


Gast
2004-12-19, 17:28:57
Also, etz bin ich aber gespannt. :D

[dzp]Viper
2004-12-19, 17:30:00
hm
einfache antwort... "nie"....

Backet
2004-12-19, 17:30:56
2008:hammer: :crazy: :ulol3:

looking glass
2004-12-19, 17:42:04
nope 2048, meine Vorhersage :-)

Modificator
2004-12-19, 17:50:37
Viper']hm
einfache antwort... "nie"....


warum wenn ich fragen darf ?

2008 vllt. außerdem was sollen solche dummen Fragen immer ???

Liquaron
2004-12-19, 17:53:19
Kommt doch ganz auf die Spieleentwickler an.

Wenn sie immer die neuste Hardware voll ausreitzen wollen, wird das nie passieren.
Imo ist es sehr schwer mit seiner Hardware soweit vorrauszusein.

Aber man weiß ja nie.
"Nichts ist unmöglich!" wie Herr Toyota immer sagt ;)

Trap
2004-12-19, 17:58:20
Die Auflösung ist zu niedrig, es gibt schon einige Jahre Displays mit 3840x2400 z.B.
http://www5.pc.ibm.com/de/products.nsf/$wwwPartNumLookup/_T3DG5EU?OpenDocument

seahawk
2004-12-19, 18:00:01
Also, etz bin ich aber gespannt. :D

Wenn entsprechene TFTs mit entsprechender Reaktionszeit bezahlbar werden.

[dzp]Viper
2004-12-19, 18:02:21
warum wenn ich fragen darf ?

2008 vllt. außerdem was sollen solche dummen Fragen immer ???

das liegt daran, dass wir grafisch nicht auf dem heutigen stand bleiben werden und die grafikkartenentwicklung immer langsamer vorwärts geht...

Wenn es wirklich mal eine grafikkarte gibt, die die HEUTIGEN spiele in dieser auflösung + diesen AA/AF stufen richtig darstellen kann, dann sind die Spieleentwickler schon lange so weit, dass wir die 5 fache Polygonmenge haben werden und effekte die noch hardwarefressender sein...

Was ist dir denn lieber? eine so hohe auflösung und dafür wenig details oder lieber 1280x1024 mit 4 AA und 8AF und dafür ca. 5 mal so viele Details wie heute?

Was bringt uns denn eine auflösung von 2048x irgendwas? Rein garnichts... ich bezweifle, dass TFT´s in den nächsten 5 jahren so günstig werden, dass sich otto normalverbraucher 30 Zoll TFTs oder plasmabildschirme leisten können ;)

Spasstiger
2004-12-19, 18:03:39
Seit ca. 1999 ist 1024x768 Standardauflösung, davor waren 640x480 und 800x600 gebräuchlich (wegen Voodoo 1 und Voodoo 2). Zur Zeit entwickelt sich 1280x1024 wegen der Flut an günstigen 17 Zoll und 19 Zoll TFTs zur Standardauflösung. Solange aber nicht 95% aller unter Spielern verbreiteten Bildschirme diese Auflösung packen (man denke an die vielen 15" TFT), wird 1024x768 auch weiter die Standardauflösung bleiben. 2008 kann man vielleicht 1280x1024 als Standard ansehen, aber nie im Leben 2048 (welcher Spieler hat schon einen Monitor mit dieser Auflösung? Maximal 1%).

Gast
2004-12-19, 18:17:06
Seit ca. 1999 ist 1024x768 Standardauflösung, davor waren 640x480 und 800x600 gebräuchlich (wegen Voodoo 1 und Voodoo 2). Zur Zeit entwickelt sich 1280x1024 wegen der Flut an günstigen 17 Zoll und 19 Zoll TFTs zur Standardauflösung. Solange aber nicht 95% aller unter Spielern verbreiteten Bildschirme diese Auflösung packen (man denke an die vielen 15" TFT), wird 1024x768 auch weiter die Standardauflösung bleiben. 2008 kann man vielleicht 1280x1024 als Standard ansehen, aber nie im Leben 2048 (welcher Spieler hat schon einen Monitor mit dieser Auflösung? Maximal 1%).

Jupp, genua das habe ich gemeint, @[dzp]Viper
Klar wird die Hardware vorrangig für neuere, bessere Verfahren zur Darstellung noch schönerer, realistischerer Effekte und Unmengen an Details verbrutzelt (und das ist auch gut so ;)), aber dennoch kann man in den letzten Jahren einen mehr oder weniger konstant ansteigenden Anspruch der Spielerschaft in Sachen Auflösung erkennen. Wer will sich heutzutage schon noch ein Spiel unter 1024*768 "antun"? Viele können sogar ohne aktiviertem AA nicht mehr vernünftig schlafen, von den Hardcore-Zockern mal ganz zu schweigen (ok, die gehören auch eher in die High-End-Sparte, die bekanntlich vom "Standard" weit entfernt sind...). Außerdem arbeiten ATi und nV ja auch immer zielstrebiger daran, AA und AF quasi "verlustfrei" integrierbar zu machen. Daher sehe ich dies weit weniger utopisch als manch anderer. Gut, zugegeben: die 64Bit Farbtiefe waren vielleicht etwas hochgegriffen. Aber zum Rest kann man nur sagen, es werden eines Tages schon solche Einstellungen zum "guten Ton" gehören - die Frage ist eben nur Wann... ;)

q@h
2004-12-19, 19:10:33
Viper']Was bringt uns denn eine auflösung von 2048x irgendwas? Rein garnichts...
Das kann eigentlich nur jemand sagen, der so eine Auflösung noch nicht live gesehen hat.

Hohe Auflösungen haben immer und per se den Vorteil, daß es ihnen einfacher gelingt, Auge und Hirn zu täuschen - bei ansonsten gleichem Content.

Das nimmt erst ab, wenn man sich der optischen Auflösung des Auges nähert.

Plasmafusion
2004-12-19, 19:30:43
Wenn die Leute wüßten wie toll HDTV ist :love2: komma würde der Absatz von "Big-Screens" viel schneller gehen. (Kostet ein HDTV-Dekoder heute nur noch knapp 50€)

Oder anders gesagt ist HDTV ein gutes Verkaufs-Argument welches Spiele-Auflösungen mitziehen kann und auch werden wird.

Anderer Gast
2004-12-19, 19:35:02
@threadstarter
erstens: das wäre 2048x1536, und nicht 2048*1538
zweitens: selbst von den heute üblichen 32bit werden nur 24bit für farbe benutzt, und selbst das ist für die ausgabe auf den bildschirm mehr als ausreichend, da es 2^24, also 16777216 verschiede farben ermöglicht; wenn du mal kurz nachdenkst, schafft kein heutiges display so viele pixel; wenn man die vollen 32bit für farbe nutzt, ergibt das fast 4.3 milliarden farben.
drittens: wieso du ausgerechnet auf 8xSSAA kommst, ist mir ein rätsel. der sinn von AA liegt in der effizienten und qualitativen beseitigung von aliasing effekten an kanten, nicht von alphatexturen (welches nur ein netter nebeneffekt ist). SSAA ist sehr ineffizient, und wird wohl nie mehr ein comeback feiern (zumindest nicht offiziel unterstützt), und schon gar nicht als 8xSSAA - wo bitte soll in der zukunft der sinn von z.b. 2x4 SSAA liegen, wenn 6x sparsed MSAA schon lange hier ist, und genau das mit 8 samples warscheinlich auch problemlos realisierbar wäre wenn heutige hardware so etwas implementiert hätte ?

alles in allem ne ziemlich dumme frage, wo ohne nachzudenken ein haufen zahlen zusammengewürfelt wurden, nach dem motto "mehr wird schon besser sein". ich könnte jetzt in einem forum wo es um autos geht das gleiche tun und fragen wann wir den autos haben werden die in 2 sekunden auf 300km/h beschleunigen, mit schallgeschwindigkeit fliegen können, aber gleichzeitig spottbillig sind und mit wasser laufen.

[dzp]Viper
2004-12-19, 19:58:09
Jupp, genua das habe ich gemeint, @[dzp]Viper
Klar wird die Hardware vorrangig für neuere, bessere Verfahren zur Darstellung noch schönerer, realistischerer Effekte und Unmengen an Details verbrutzelt (und das ist auch gut so ;)), aber dennoch kann man in den letzten Jahren einen mehr oder weniger konstant ansteigenden Anspruch der Spielerschaft in Sachen Auflösung erkennen. Wer will sich heutzutage schon noch ein Spiel unter 1024*768 "antun"? Viele können sogar ohne aktiviertem AA nicht mehr vernünftig schlafen, von den Hardcore-Zockern mal ganz zu schweigen (ok, die gehören auch eher in die High-End-Sparte, die bekanntlich vom "Standard" weit entfernt sind...). Außerdem arbeiten ATi und nV ja auch immer zielstrebiger daran, AA und AF quasi "verlustfrei" integrierbar zu machen. Daher sehe ich dies weit weniger utopisch als manch anderer. Gut, zugegeben: die 64Bit Farbtiefe waren vielleicht etwas hochgegriffen. Aber zum Rest kann man nur sagen, es werden eines Tages schon solche Einstellungen zum "guten Ton" gehören - die Frage ist eben nur Wann... ;)

schon mal eine umfrage gesehen, wo gefragt wurde mit welchen einstellungen die leute spielen?

1024x768 ohne AA und AF ist da normal die meist benutzte auflösung...
die große mehrheit der "spieler" weiß nicht mal was AA/AF ist....

AA und AF verlustfrei? Nein - das wird niemals verlustfrei sein (höchstens in alten spielen)

64bit farbtiefe ist auch absoluter schwachsinn. Vielleicht für freaks interessant um bestimmte effekte zu machen aber für die große mehrheit der spieler (>90%) ist sowas garnicht relevant...

Langsam setzt sich die 1280x1024 durch... aber auch nur wegen den TFT´s....

dann wird es wohl nochmal eine ganze weile dauern bis sich 1600x1200 durchsetzt (geht dabei IMMER von den otto normal spielern aus - niemals von "freaks" wie manche auch hier im forum rumrennen -> ist nicht bös gemeint :))

Und wenn man bedenkt, dass die entwicklung von grafikkarten immer langsamer vorran gehen, dann sollte man eigentlich erkennen, dass es noch ein langer langer weg bis dahin ist...
Ich sage nicht, dass wir nicht irgendwann mit solchen auflösungen und solchen AA/AF stufen spielen/arbeiten werden, aber in den nächsten 10 Jahren sicher nicht :D

@ q@w -> ja ich gebe zu so eine auflösung noch nicht in aktion gesehen zu haben.. wie auch? Die Bildschirme dafür sind VIEL zu teuer und der sinn für sowas in Spielen steht auch eher in den sternen....

[dzp]Viper
2004-12-19, 19:59:57
Wenn die Leute wüßten wie toll HDTV ist :love2: komma würde der Absatz von "Big-Screens" viel schneller gehen.

guck auf den preis - dann weißt du warum "big screens" sich nicht wirklich gut verkaufen ;)

otto normal spieler geben maximal 300-400€ für einen monitor (tft) aus.. und bis die big screens bei diesem preisniveau angekommen sind, wird noch viel zeit vergehen...

Quasar
2004-12-19, 20:13:23
Viper']@ q@w -> ja ich gebe zu so eine auflösung noch nicht in aktion gesehen zu haben.. wie auch? Die Bildschirme dafür sind VIEL zu teuer und der sinn für sowas in Spielen steht auch eher in den sternen....
Und wieso denkst du dann, daß diese Auflösung uns "rein gar nichts" bringen wird?

Als die 3D-Beschleuniger laufen lernten, war 320x240 die übliche Auflösung in gängigen DOS-Spielen - mit der VG dann 640x480.

Wo sind wir heute? Hat uns das auch rein gar nichts gebracht?

Formica
2004-12-19, 20:28:22
ich denk mal wenn ps3 so alte ist wie die ps2 jetzt

Godmode
2004-12-19, 20:29:26
Ich denke auch, warum sollten wir irgenwann nicht diese Auflösung erreichen, oder noch höhere? Es wird immer alles gesteigert! Vor ein paar Jährchen hätte auch niemand gedacht dass man mal in 1600*1200 flüssig spielen kann!

Es ist halt alles nur eine Frage der Zeit! :wink:

[dzp]Viper
2004-12-19, 20:29:59
Und wieso denkst du dann, daß diese Auflösung uns "rein gar nichts" bringen wird?

Als die 3D-Beschleuniger laufen lernten, war 320x240 die übliche Auflösung in gängigen DOS-Spielen - mit der VG dann 640x480.

Wo sind wir heute? Hat uns das auch rein gar nichts gebracht?

och komm schon

zwischen 320x240 und z.b. 640x480 ist ein sehr deutlich sehbarer unterschied

aber setz mal eine otto normal spieler vor 2 CRTs..

1. CRT -> 1280x1024 mit 4 AA und 8 AF
2. CRT -> 1600x1200 mit 4 AA und 8 AF

Solange keine symbole zu sehen sind, wird die person keinen unterschied feststellen (solange er nicht 10 cm vor dem monitor sitzt)


Das meine ich halt damit... Wir werden immer stärkere hardware bekommen und auch irgendwann bei den einstellungen sein die der threadstarter uns gesagt hat, aber die schritte in sachen bildqualität werden immer kleiner... so klein, dass ein otto normal user diese garnicht mehr wahrnimmt.

Und du quasar bist nun mal kein otto normal user... ;)

Das ist doch genauso bei z.b. Lautsprechern... Es wird immer "freaks" geben, die einen unterschied zwischen einen 2000€ und einem 4000€ lautsprecher hören.. aber die mehrheit sind eben keine "freaks" ;)

Die Entwicklung wird immer weiter gehen - keine frage - aber es wird sich nicht so schnell entwickeln früher (liegt z.b. schon nur daran, dass ATI und NV nun maximal einen neuen grafikchip aller 1 1/2 jahre bringen.. früher war das viel kürzer und die performancesprünge viel höher)

Quasar
2004-12-19, 20:41:26
In beiden Fällen (320 -> 640 und 1024 -> 2048) ist eine Verdoppelung der Auflösung auf beiden Achsen vorhanden. Ich glaube nicht, daß wir schon so dicht an der Wahrnehmungsschwelle auch des Durchschnittsgamers sind, als daß da kein deutlich wahrnehmbarer Unterschied mehr vorhanden ist.

[dzp]Viper
2004-12-19, 21:05:43
In beiden Fällen (320 -> 640 und 1024 -> 2048) ist eine Verdoppelung der Auflösung auf beiden Achsen vorhanden. Ich glaube nicht, daß wir schon so dicht an der Wahrnehmungsschwelle auch des Durchschnittsgamers sind, als daß da kein deutlich wahrnehmbarer Unterschied mehr vorhanden ist.

ahh ;D genau das meine ich...

wie lange hat es von 320 -> auf 640 gebraucht? 2 jahre?

wie lange wird es von 1024- > 2048 brauchen wenn der übergang von 1024x768 auf 1280x1024 schon ca. 3-4 jahre braucht? ;) (ist ja noch nicht einmal abgeschlossen...)

oder der übergang von 1280x1024 auf 1600x1200 als "standardauflösung"... nochmal 3-4 jahre?

da sind wir ganz schnell bei 10 jahren ;)

Wie gesagt - irgendwann werden wir dort ankommen, aber bis dahin wird noch sehr viel zeit vergehen - vor allem, wenn dann noch 8 AA und irgendeine hohe stufe von AF hinzukommen soll...

/edit: in 10 jahren sind dann vielleicht auch 30-35 zoll Bildschirme so günstig, dass man sie kaufen kann :D

Gast
2004-12-19, 21:10:56
Viper']schon mal eine umfrage gesehen, wo gefragt wurde mit welchen einstellungen die leute spielen?

1024x768 ohne AA und AF ist da normal die meist benutzte auflösung...
die große mehrheit der "spieler" weiß nicht mal was AA/AF ist....

AA und AF verlustfrei? Nein - das wird niemals verlustfrei sein (höchstens in alten spielen)

64bit farbtiefe ist auch absoluter schwachsinn. Vielleicht für freaks interessant um bestimmte effekte zu machen aber für die große mehrheit der spieler (>90%) ist sowas garnicht relevant...

Langsam setzt sich die 1280x1024 durch... aber auch nur wegen den TFT´s....

dann wird es wohl nochmal eine ganze weile dauern bis sich 1600x1200 durchsetzt (geht dabei IMMER von den otto normal spielern aus - niemals von "freaks" wie manche auch hier im forum rumrennen -> ist nicht bös gemeint :))

Und wenn man bedenkt, dass die entwicklung von grafikkarten immer langsamer vorran gehen, dann sollte man eigentlich erkennen, dass es noch ein langer langer weg bis dahin ist...
Ich sage nicht, dass wir nicht irgendwann mit solchen auflösungen und solchen AA/AF stufen spielen/arbeiten werden, aber in den nächsten 10 Jahren sicher nicht :D

@ q@w -> ja ich gebe zu so eine auflösung noch nicht in aktion gesehen zu haben.. wie auch? Die Bildschirme dafür sind VIEL zu teuer und der sinn für sowas in Spielen steht auch eher in den sternen....

Und, wo liegt konkret das Problem? Ich spreche hierbei ja nicht von einem Zeitraum von 3-4 Jahren, sondern eher von 20... Hab nur gedacht, es gebe hier jemanden, der es bissl genauer einschätzen könnte (sprich grob 2015, 2020, etc. ;)).

Und zu unserem anderen Gast: Denkst du allen Ernstes, mich kümmmert's auch nur im Geringsten, wie effizient diese Einstellungen wären - speziell bezüglich des guten alten SSAAs, der seine Arbeit von allen anderen Anwärtern noch immer am besten (=! effizientestem) verrichtet?! Mir geht's rein um die Bildqualität, und imo wäre das oben genannte Setting schon mal auf einem guten Weg in Richtung Fotorealismus*. Natürlich müssen dazu erstmal die Großen im GPU-Gewerbe ihre Pfusche aka "Optimierungen" á la winkelabhängigem brilliniarem Filter sein lassen...


*ja, und daran führt imo auch kein Weg an 64Bit Farbtiefe vorbei. Eines Tages, wenn hollywoodreife, bildschirmfüllende Effekte Einzug in Computerspiele gefunden haben, werdet ihr's der großen Farbpalette zu würdigen wissen.^^

[dzp]Viper
2004-12-19, 21:31:26
Und, wo liegt konkret das Problem? Ich spreche hierbei ja nicht von einem Zeitraum von 3-4 Jahren, sondern eher von 20... Hab nur gedacht, es gebe hier jemanden, der es bissl genauer einschätzen könnte (sprich grob 2015, 2020, etc. ;)).



ok ich gebe zu, dass das "nie" in meinem ersten post falsch war :massa:

:D

tombman
2004-12-19, 21:50:01
Man sollte hohe res niemals unterschätzen, denn wie bei Butter gilt: "ist durch nix zu ersetzen" :D

Wer in Wien wohnt kann mich ja mal besuchen, dann mache ich Vorführungen in 2304x1440 in games und HDTV in 1920x1080 :D:D

[ncp]EasyChiller
2004-12-20, 00:09:51
rein von den displays betrachtet:

vor ca. 10 jahren waren 640*480 Standard...
ich rechne mit 1280*1024 das diese Auflösung in ca. 2 Jahren als Standard anzusehen ist ... in den Gamerkreisen in denen ich so verkehre haben schon SEHR VIELE ein 17'er oder 19'er TFT. (und fahren diese logischerweise in der nativen Auflösung) :biggrin:

also sagen wir einfach ca. 12 Jahre von 640 zu 1280 ... einfach linear extrapoliert kommt ma so auf ca. 14 Jahre bis ma über 2xxx*1xxx haben wird.

Wobei auch die verfügbaren Techniken eine übergeordnete Rolle spielen.

Falls es z.b. in den nächsten 10 Jahren einen Durchbruch ber der Herstellung von großflöchigen OLEDs geben sollte .. und auch noch dazu die HALTBARKEIT / Halbwertszeit von OLEDs (liegen IMHO im moment ca. bei grün 100.000h, rot 50.000h und blau bei 10.000h bis es zu einer Reduzierung der maximalen Helligkeit auf 75% kommt) ... und aufgrund der unterschiedlichen "Halbwertszeiten" für die verschiedenfarbigen Pixel kommt es bei längerem Gebrauch von OLEDs momentan immer noch zu Farbverschiebungen .. ein älterer OLED sollte somit theoretisch grünstichig und blauschwach sein! :frown:

Aber ich denke mal dieser Technik gehört die Zukunft .. und mit dieser werden sich auch 19 oder 20-zoll Displays herstellen lassen, welche neben traumhauften Reaktionszeiten und Blickwinkeln sowie Energieeffizienz und Kontrast als auch Leuchtstärke (OLED übertreffen herkömmliche TFTs da in allen Belangen um einiges!) in höheren Auflösungen realisieren! :cool:

Ailuros
2004-12-20, 00:56:46
1. IMHO brauchen wir eher erstmal mehr AA samples pro Pixel mit der heutigen 2xMSAA Leistung, bevor man an so obszoen hohe Aufloesungen ueberhaupt denkt.

2. Ich werde auch persoenlich auesserst froh sein wenn TFT/LCD Bildschirme von fortschrittlicher Technologie ersetzt werden. Ausgezeichnet fuer Buero-gebrauch, fuer Spiele konnte mich bis jetzt noch kein einziger TFT aus den Socken reissen. Von der abscheulichen Bildqualitaet auf TFT/LCDs will ich schon gar nichts sehen oder hoeren.

3. Ihr habt wohl alles moegliche zusammengeschmissen in diesem Thread nur sah ich nirgends wenigstens einen Gedanken woher die benoetigte Fuellrate und/oder Bandbreite auf den GPUs genau kommen soll. Noch schlimmer da Geometrie in den naechsten Jahren wahrscheinlich schneller skalieren koennte als je zuvor.

Ja die XBox2 ist eine Console und daher von Grund auf der render target auesserst begrenzt; sie ist aber immer noch nicht erhaeltlich und sollte nach der Veroeffentlichung ca. 4-5 Jahre aushalten. Komischerweise ist diese Architektur nun auch wieder - wie jeder andere high end PC chip seit der NV20 - auf nur 2xMSAA/cycle optimiert.

Der Threadstarter kann sich ruhig krank lachen; er fragte naehmlich ueber 2048 mit 64bpp Farbtiefe und dazu noch 8x Supersampling + 16xAF. Hat sich in der Zwischenzeit jemand hingesetzt und die benoetigte Fuellrate fuer so eine Situation ausgerechnet? Ein netter Scherz eigentlich und nichts weiteres.

Ailuros
2004-12-20, 01:07:31
aber setz mal eine otto normal spieler vor 2 CRTs..

1. CRT -> 1280x1024 mit 4 AA und 8 AF
2. CRT -> 1600x1200 mit 4 AA und 8 AF

Solange keine symbole zu sehen sind, wird die person keinen unterschied feststellen (solange er nicht 10 cm vor dem monitor sitzt)

In dem Fall wuerde ich jeglichem Herrn Otto erstmal einen Besuch beim Augenarzt empfehlen. Zwei identische Bildschirme Seite an Seite mit solchem Abstand was die Aufloesungen betrifft und selbst ein total ignoranter Beobachter wird einen Unterschied sehen (selbst wenn er es nicht genau beschreiben kann).

1. Weil 1280*1024 keine 4:3 Aufloesung ist.
2. Weil der Unterschied zwischen 1280 und 1600 zu gross ist. Waere das Beispiel ueber 1024*768 und 1152*864, dann ja sind die Chancen extrem gross dass man keinen oder schwer einen Unterschied sehen kann, sollte man Herr Otto heissen.

[dzp]Viper
2004-12-20, 01:58:25
In dem Fall wuerde ich jeglichem Herrn Otto erstmal einen Besuch beim Augenarzt empfehlen. Zwei identische Bildschirme Seite an Seite mit solchem Abstand was die Aufloesungen betrifft und selbst ein total ignoranter Beobachter wird einen Unterschied sehen (selbst wenn er es nicht genau beschreiben kann).

1. Weil 1280*1024 keine 4:3 Aufloesung ist.
2. Weil der Unterschied zwischen 1280 und 1600 zu gross ist. Waere das Beispiel ueber 1024*768 und 1152*864, dann ja sind die Chancen extrem gross dass man keinen oder schwer einen Unterschied sehen kann, sollte man Herr Otto heissen.

Du - ob du mir das jetzt glaubst oder nicht.. ich hab das schon auf einer lan getestet und was dabei rausgekommen ist, kannst du dir sicher denken -> ne ganze menge müssten zum augenarzt :D

1. IMHO brauchen wir eher erstmal mehr AA samples pro Pixel mit der heutigen 2xMSAA Leistung, bevor man an so obszoen hohe Aufloesungen ueberhaupt denkt.

2. Ich werde auch persoenlich auesserst froh sein wenn TFT/LCD Bildschirme von fortschrittlicher Technologie ersetzt werden. Ausgezeichnet fuer Buero-gebrauch, fuer Spiele konnte mich bis jetzt noch kein einziger TFT aus den Socken reissen. Von der abscheulichen Bildqualitaet auf TFT/LCDs will ich schon gar nichts sehen oder hoeren.

3. Ihr habt wohl alles moegliche zusammengeschmissen in diesem Thread nur sah ich nirgends wenigstens einen Gedanken woher die benoetigte Fuellrate und/oder Bandbreite auf den GPUs genau kommen soll. Noch schlimmer da Geometrie in den naechsten Jahren wahrscheinlich schneller skalieren koennte als je zuvor.

Ja die XBox2 ist eine Console und daher von Grund auf der render target auesserst begrenzt; sie ist aber immer noch nicht erhaeltlich und sollte nach der Veroeffentlichung ca. 4-5 Jahre aushalten. Komischerweise ist diese Architektur nun auch wieder - wie jeder andere high end PC chip seit der NV20 - auf nur 2xMSAA/cycle optimiert.

Der Threadstarter kann sich ruhig krank lachen; er fragte naehmlich ueber 2048 mit 64bpp Farbtiefe und dazu noch 8x Supersampling + 16xAF. Hat sich in der Zwischenzeit jemand hingesetzt und die benoetigte Fuellrate fuer so eine Situation ausgerechnet? Ein netter Scherz eigentlich und nichts weiteres.

das thema hatte ich angeschnitten, wusste aber nicht genau, wie ich es formulieren sollte :)

mapel110
2004-12-20, 02:16:48
Der Threadstarter kann sich ruhig krank lachen; er fragte naehmlich ueber 2048 mit 64bpp Farbtiefe und dazu noch 8x Supersampling + 16xAF. Hat sich in der Zwischenzeit jemand hingesetzt und die benoetigte Fuellrate fuer so eine Situation ausgerechnet? Ein netter Scherz eigentlich und nichts weiteres.

2048*1536*50(fps)*64(Farbtiefe)=10.066.329.600

dann noch 8xSSAA verachtfacht(?!) den Bedarf.
80.530.636.800

Radeon X800 XT PE hat 8.3 GigaPixel == 8.300.000.000

nurnoch 9x so schnell?! Haben wir doch bald. :)
oder ist meine Rechnung falsch?!

Xmas
2004-12-20, 02:59:58
zweitens: selbst von den heute üblichen 32bit werden nur 24bit für farbe benutzt, und selbst das ist für die ausgabe auf den bildschirm mehr als ausreichend, da es 2^24, also 16777216 verschiede farben ermöglicht; wenn du mal kurz nachdenkst, schafft kein heutiges display so viele pixel; wenn man die vollen 32bit für farbe nutzt, ergibt das fast 4.3 milliarden farben.
Die Anzahl der Pixel ist irrelevant.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=192276


drittens: wieso du ausgerechnet auf 8xSSAA kommst, ist mir ein rätsel. der sinn von AA liegt in der effizienten und qualitativen beseitigung von aliasing effekten an kanten, nicht von alphatexturen (welches nur ein netter nebeneffekt ist). SSAA ist sehr ineffizient, und wird wohl nie mehr ein comeback feiern (zumindest nicht offiziel unterstützt), und schon gar nicht als 8xSSAA - wo bitte soll in der zukunft der sinn von z.b. 2x4 SSAA liegen, wenn 6x sparsed MSAA schon lange hier ist, und genau das mit 8 samples warscheinlich auch problemlos realisierbar wäre wenn heutige hardware so etwas implementiert hätte ?
Der Sinn von Antialiasing liegt in der Beseitigung bzw. Minderung von Aliasing. Egal wo. Natürlich gibt es auch spezialisierte AA-Formen, aber das Glätten von Alpha-Test-Kanten ist kein "netter Nebeneffekt", sondern genau so gewünscht.
Wieso nimmst du zum Vergleich zudem Ordered Grid Supersampling heran, wenn man genauso wie bei Multisampling auch 8x sparse (nicht sparsed, sparse ist ein Adjektiv, kein Verb) Supersamping realisieren kann?


2048*1536*50(fps)*64(Farbtiefe)=10.066.329.600

dann noch 8xSSAA verachtfacht(?!) den Bedarf.
80.530.636.800

Radeon X800 XT PE hat 8.3 GigaPixel == 8.300.000.000

nurnoch 9x so schnell?! Haben wir doch bald. :)
oder ist meine Rechnung falsch?!
Mein Physiklehrer hat mir eingebläut, immer mit Einheiten zu rechnen, auch wenn es nur im Kopf ist. Hast du schon mal eine Füllratenangabe in Bit pro Sekunde gesehen? ;)

Aber es gibt ja auch noch Overdraw, Shader die mehr als einen Takt brauchen und Ineffizienzen. Hier (http://www.beyond3d.com/reviews/ati/r480/index.php?p=7) (ff.) mal realistische In-Game-Füllraten. In jedem Fall unter 180 MPixel/s, und das bei theoretischen ~9 GPixel/s...

mapel110
2004-12-20, 03:05:41
Aber es gibt ja auch noch Overdraw, Shader die mehr als einen Takt brauchen und Ineffizienzen. Hier (http://www.beyond3d.com/reviews/ati/r480/index.php?p=7) (ff.) mal realistische In-Game-Füllraten. In jedem Fall unter 180 MPixel/s, und das bei theoretischen ~9 GPixel/s...

*Verwirrtbin*
mach doch mal ne kleine Beispielrechnung, auch wenn ich mir jetzt doch schon die wirklichen Grössenverhältnisse halbwegs vorstellen kann.
Dauert wohl noch paar hundert Jahre, bis wir genügend Fillrate haben?!

Mein Physiklehrer hat mir eingebläut, immer mit Einheiten zu rechnen, auch wenn es nur im Kopf ist.

Jaaaaaaaaaaa doch, meiner auch. Aber habs mir dennoch nie angewöhnt. ;(

Radeonator
2004-12-20, 06:43:37
Wozu ? Erst wenns nen >30" Monitor hat. in sehr hohen Auflösungen braucht man aber dann definitiv kein 8xSSAA/FSAA/MSAA mehr...16xAF kann man jetzt so ziemlich in jedem Spiel ohne Probs anmachen...in der genannten Auflösung spielt jedoch eh keiner heutzutage ;D

StefanV
2004-12-20, 07:16:55
Als die 3D-Beschleuniger laufen lernten, war 320x240 die übliche Auflösung in gängigen DOS-Spielen - mit der VG dann 640x480.
Nein, damals war schon 640x480 Standard.

PS: wars nicht eher 320x200?! :)

Radeonator
2004-12-20, 08:13:57
Nein, damals war schon 640x480 Standard.

PS: wars nicht eher 320x200?! :)


Tjo, Doom spielte man in DOS auf 320x2x0 ab DukeNukem kamen auf guten PCs 640x480 oder auf Highend Boliden sogar in dreistem SVGA 800x600...das waren noch Zeiten ;)

SentinelBorg
2004-12-20, 09:46:43
In beiden Fällen (320 -> 640 und 1024 -> 2048) ist eine Verdoppelung der Auflösung auf beiden Achsen vorhanden. Ich glaube nicht, daß wir schon so dicht an der Wahrnehmungsschwelle auch des Durchschnittsgamers sind, als daß da kein deutlich wahrnehmbarer Unterschied mehr vorhanden ist.
Teilweise schon. Das Stichwort lautet DPI. Ab rund 100 DPI können die meisten Menschen die Pixel auf dem Monitor nicht mehr separieren. Und ziemlich genau bei diesem Wert, liegen 17" TFTs mit 1280x1024.

Sentinel

Ailuros
2004-12-20, 10:16:22
Viper']Du - ob du mir das jetzt glaubst oder nicht.. ich hab das schon auf einer lan getestet und was dabei rausgekommen ist, kannst du dir sicher denken -> ne ganze menge müssten zum augenarzt :D

100% identische CRTs?

Ailuros
2004-12-20, 10:27:13
2048*1536*50(fps)*64(Farbtiefe)=10.066.329.600

dann noch 8xSSAA verachtfacht(?!) den Bedarf.
80.530.636.800

Radeon X800 XT PE hat 8.3 GigaPixel == 8.300.000.000

nurnoch 9x so schnell?! Haben wir doch bald. :)
oder ist meine Rechnung falsch?!

XMas hat schon ausreichend darauf geantwortet; ich moechte nur noch dazufuegen dass ich auf der 6800nonU@350MHz/16p eine maximale theoretische Fuellrate von (350*16 = ) 5600MPixels/sec habe. Archmark gibt mir mit "quality" 2xAF nur noch 1317MPixels/sec mit trilinearem quad texturing und bei "high quality" 2xAF "ganze" 705MPixels/sec. Der Test rennt uebrigens in:

Texturing
Mode RGBA5650 Z0 S0

Ich lass mal die 64bpp weg, willst Du die obrigen wahren Fuellraten durch 8 dividieren fuer 8xSSAA (und selbst dann laeuft Archmark immer noch in 1024*768)?

***edit:

mit 16xSSAA/16x "quality" AF liegt die trilineare quad texturing Fuellrate bei ~88 MPixels/sec in Archmark.

[ncp]EasyChiller
2004-12-20, 10:42:42
In dem Fall wuerde ich jeglichem Herrn Otto erstmal einen Besuch beim Augenarzt empfehlen. Zwei identische Bildschirme Seite an Seite mit solchem Abstand was die Aufloesungen betrifft und selbst ein total ignoranter Beobachter wird einen Unterschied sehen (selbst wenn er es nicht genau beschreiben kann).

1. Weil 1280*1024 keine 4:3 Aufloesung ist.
2. Weil der Unterschied zwischen 1280 und 1600 zu gross ist. Waere das Beispiel ueber 1024*768 und 1152*864, dann ja sind die Chancen extrem gross dass man keinen oder schwer einen Unterschied sehen kann, sollte man Herr Otto heissen.


das ist doch Unsinn ... um da nen Unterschied zu sehen benötigt mann doch schon einen top 21-zoll CRT oder mehr! ;D Und das ganz einfach aus dem Grund, das bei 1600'er Auflösung auf nem 19'er einfach keine echten Triplets mehr benutzt werden, sondern sich benachbarte Pixel einen Farbanteil teilen müssen. Dieser Effekt führt übrigens auch zu Unschärfen. Konnte ich sogar auf meinem Yjijama 454-Pro damals auch schön beobachten! :rolleyes:

Ich lache auch immer wieder über die Leute welche auf einem 19'er CRT 1600'er Auflösungen fahren oder sogar noch mehr.

Und das TFTs ein grottiges Bild bringen ist doch wirklich übertrieben ... schon allein die geraden Kanten als auch die gestochen scharfe Schrift etc. etc. hab ich auf JEDEM CRT den ich bisher hatte vermisst! Einen wirklich optimalen TFT gibbs leider noch nicht. Die ganzen TN-Displays mit ihren besseren Reaktionszeiten (auch noch nicht optimal) aber dafür sehr eingeschränkten Blickwinkeln und den vom 256k auf 16,2M per Dithering aufgeblasenen Farben ... auf der anderen Seite die ...VA-Disps mit geilen Blickwinkeln und recht hoher Farbtreue bei veränderung des selben als auch hohen Kontrasten etc. ... und was wohl alle gemeinsam haben .. ist eine Schwäche bei der Differnzierung dunkler Farben. :redface:

Ailuros
2004-12-20, 11:10:57
EasyChiller']das ist doch Unsinn ... um da nen Unterschied zu sehen benötigt mann doch schon einen top 21-zoll CRT oder mehr! ;D Und das ganz einfach aus dem Grund, das bei 1600'er Auflösung auf nem 19'er einfach keine echten Triplets mehr benutzt werden, sondern sich benachbarte Pixel einen Farbanteil teilen müssen. Dieser Effekt führt übrigens auch zu Unschärfen. Konnte ich sogar auf meinem Yjijama 454-Pro damals auch schön beobachten! :rolleyes:

Logischerweise hatte ich nie einen 14" Bildschirm im Hinterkopf. Wieviele 17" CRTs sind ueberhaupt ueber 1600 faehig?

Das du die Unschaerfen bei 1600 fuer =/<19" CRTs erwaehnst ist ja eigentlich nett, aber unterstuetzt dann wohl eher dass ein Unterschied noch leichter zu sehen sein wird zwischen 1280 und 1600. Das Thema ist ja sowieso Quatsch, denn die Chancen dass man auf einer LAN-party 100% identische CRTs muss ja der grandiose Zufall sein. Und nein ein Iiyama gegen eine "michkenntnurderverkauefer"-Marke zaehlt hier auch nicht.

Ich lache auch immer wieder über die Leute welche auf einem 19'er CRT 1600'er Auflösungen fahren oder sogar noch mehr.

Zwar ueberhaupt nicht relevant zum Thema aber ich weiss wohl wieso der zeitige 21" hier eine Bandbreite von maximal 340MHz hat.

Und das TFTs ein grottiges Bild bringen ist doch wirklich übertrieben ... schon allein die geraden Kanten als auch die gestochen scharfe Schrift etc. etc. hab ich auf JEDEM CRT den ich bisher hatte vermisst! Einen wirklich optimalen TFT gibbs leider noch nicht. Die ganzen TN-Displays mit ihren besseren Reaktionszeiten (auch noch nicht optimal) aber dafür sehr eingeschränkten Blickwinkeln und den vom 256k auf 16,2M per Dithering aufgeblasenen Farben ... auf der anderen Seite die ...VA-Disps mit geilen Blickwinkeln und recht hoher Farbtreue bei veränderung des selben als auch hohen Kontrasten etc. ... und was wohl alle gemeinsam haben .. ist eine Schwäche bei der Differnzierung dunkler Farben. :redface:

Ich sagte ja nur fuer Buero-gebrauch oder wenn's Dir leichter faellt 2D. Fuer 3D (und ich hab es auch ausdruecklich betont in meinem vorigen Post) konnte mich bis jetzt kein TFT/LCD ueberreden. TFT/LCD TVs (und ja im letzten Satz meines vorigen Posts fehlt "TVs" deshalb auch das Missverstaendnis) bringen ein abscheuliches Bild, aber auch nur nach meinem Geschmack.

Gast
2004-12-20, 11:43:16
Der Threadstarter kann sich ruhig krank lachen; er fragte naehmlich ueber 2048 mit 64bpp Farbtiefe und dazu noch 8x Supersampling + 16xAF. Hat sich in der Zwischenzeit jemand hingesetzt und die benoetigte Fuellrate fuer so eine Situation ausgerechnet? Ein netter Scherz eigentlich und nichts weiteres.

Nein, das war von meiner Seite aus wirklich nicht als Verarsche gemeint. ;)
Es hieß vor gar nicht allzu langer Zeit mal von jemandem hier, der Ahnung hat (glaube aths oder Demirug war's), dass der "perfekte" Fotorealismus in Spielen in etwa 20 Jahren rein technisch möglich wäre (bis dann die Spiele in Sachen Detailmenge und Einsetzen der Effekte wie Tiefenunschärfe etc absolut realitätsgetreu nachziehen, wird's vermutlich noch deutlich länger dauern...
Aber da wie gesagt rein technisch - na, sin mia mal großzügig - 2025 bereits täuschend echte RT-Bildschirmgraphiken möglich sein sollten, wozu imo schon eher eine Auflösung im 5stelligen Achsenbereich und XXxAA nötig wären, sollten 2048*1536 da doch wohl kein wirkliches Problem darstellen.

Und wie gesagt, über Effizienzen und benötigte Füllraten habe ich dabei bewusst außen vor gelassen, da ich ziemlich fest davon überzeugt bin, dass _irgendwann_ ähnlich bei den CPUs mit der Nanotechnologie und den paar Millionen GHz auch im GPU-Bereich der Durchbruch gelingen wird und solche aus heutiger Sicht astronomischen Settings kein Thema mehr darstellen.^^
Hat denn wirklich keiner 'ne Idee, wann "meine" Prophezeiungen *g* eintreffen könnten?


btw waren bei der Auflösung nicht Desktoparbeiten gemeint, wofür ein entsprechend hochzolliger Bildschirm notwendig wäre, sondern auch hier rein bezogen auf Spiele. Und da kann man imo selbst auf einem 15" er (theoretisch ;)) 2000er-Auflösungen auffahren, oder dass das Spiel aufgrund zu kleiner Schrift oder whatever unspielbar sein müsste...

[ncp]EasyChiller
2004-12-20, 11:50:35
"Von der abscheulichen Bildqualitaet auf TFT/LCDs will ich schon gar nichts sehen oder hoeren." dann hab ich das eben falsch aufgefasst! :tongue:

Nunja .. was mich auf nem CRT immer am meisten gestört hatte waren, das die Kanten nich absolut grade warn .. okok .. bin vielleicht etwas penibel ...

.. aber TV sieht auf nem guten TFT schon ordentlich aus! ... das kann ich also nicht nachvollziehen.


zum Thema: das mit der Graka-Füllrate stimmt natürlich ... aber da bin ich nich bewandert also hab ich da auch nich so viel zu geschrieben. Ich hab mich mal rein auf die Displays bezogen .. und dort erwarte ich mit Marktreife von grossen OLED's, das solche Auflösungen Standard werden werden. :rolleyes:

Bei den Grakas .. nunja .. de 10-fache Leistung von heutigen TOP-Modellen wäre ja ca. nötig ... ich denke mal mit dem 90nm könnte ma mit viel Liebe das doppelte an Rohleistung erreichen. Also für solche Regionen bräuche ma IMHO sowas wie nen 45nm Prozess für GPUs .. und der wird wohl noch länger als 12 Jährchen auf sich warten lassen oder?

Hmm oder aber es wird SLI-ähnliche Systeme mit mehr als 2 Karten geben .. aber das wäre dann immer noch High-End und bei weitem nicht STANDARD .. im Moment sieht es doch so aus das High-End GPUs ca. die Doppelte Rohleistung haben wie die Mid-Range-Karten ... und diese stellen immer noch lange nicht die weitest verbreitetend (Standard) Modelle dar. :( Die Leistung eines High-End-Modelles von vor ca. 3 Jahren ist wohl heut eher der gängige Standard .. welcher von Sieleentwicklern als Mindestmaß vorrausgesetzt wird.

In sofern rechne ich damit das die propagierten Settings (wobei ich wirklich nicht an 64-bit-Rendering glaube .. zumindest nicht auf der Visualisierungsseite .. dort wird es IMHO noch ewig bei 16,7 M Farben bleiben!!!) von HEUTIGEN Games erst so in 12 bis 15 Jahren möglich sein werden ....

Dazu kommt noch das die Games aber nich Hardware-anspruchsloser werden. :wink:

Ich tendiere ehr dazu zu sagen das sich 8xSSAA in den nächsten 50 Jahren niemals als ein Standardsetting durchsetzten wird. 16xAF könnte da schon eher realistisch sein.

so gesehen würd ich sagen: 2048*1538*32 (oder höher) mit NoAA und 16xAF könnte in 15 Jährchen oder so als Standard-Gamersetting durchgehen

drmaniac
2004-12-20, 14:59:33
Wieso meckert jeder rum das die BIG Screens so teuer sind ;)

siehe mein Posting :

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=185904
70cm TFT TV/Monitor 799,-- Euro.
81cm 32"TFT TV/Monitor 1450,-- Euro

und bei ebay bekommt man einen 30er schon unter 1000 euro...

ok, die haben "nur" 1280x768 aber das ist total fett damit zu zocken ;)


Und wegen der Ultrahohen Aufloesung : Apples neues 30" hat genau diese Aufloesung... ;)

[ncp]EasyChiller
2004-12-20, 15:25:58
drmaniac: weil einfach ma nen display für über 1000,- nicht "Standard" ist! ;D

Und was du heute da bekommst .. wer zockt denn schon gern mit unter 55 Hz (HTDV über single DVI)?! ... Ich hab gern etwas mehr bilder (nicht wegen flimmern, sondern um smother aimen zu können ... mag jeder anders empfinden, aber ich finds von der Steuerung besser wenn ich mehr fps hab) =)

Apples Disp ist da schon mit Dual-DVI ne bessere Lösung ... aber der Preis! :P

Ailuros
2004-12-20, 16:13:02
so gesehen würd ich sagen: 2048*1538*32 (oder höher) mit NoAA und 16xAF könnte in 15 Jährchen oder so als Standard-Gamersetting durchgehen

Dass wuerde heissen dass man von einem gewissen Punkt ab auf antialiasing verzichtet.

1. Um aliasing zu entgehen braucht man eben antialiasing. Bei sehr hohen Aufloesungen werden zwar die "jaggies" kleiner, aber sie verschwinden auf jeden Fall nicht. Ich sehe nicht ein warum jeder Art von Bild-wiedergabe/-aufnahme antialiasing weiterhin benutzen wird (und dazu sogar mit steigender Tendenz) und es im PC-gaming Bereich ploetzlich verschwinden soll. Von welchem genau "Photo-realismus" reden wir eigentlich?

2. Nochmal je hoeher Geometrie und interne Genauigkeit skalieren wird, desto kritischer werden Fuellraten und Bandbreiten-Verbrauch werden.

Natuerlich kann ich heute auf dem Ding hier Quake3 in 2048*1536*32@75Hz mit 16xAF ueberfluessig zocken, von einem neuerem Spiel kann hier gar nicht die Rede sein. Und nein 2048*1536 ohne AA im Vergleich zu 1600*1200 + 4xAA sieht auf keinem Fall besser aus bei 21". Und ja ich bestehe darauf dass 1280*960 mit 8x sparced AA noch besser als die anderen Beiden aussehen wuerde.

und bei ebay bekommt man einen 30er schon unter 1000 euro...

ok, die haben "nur" 1280x768 aber das ist total fett damit zu zocken

Ausgezeichnet. In dem Fall sind die Pixel so gross dass ich sie mit etwas Geduld auf dem Bildschirm zaehlen kann.... :|

[ncp]EasyChiller
2004-12-20, 16:32:41
nunja .. ich sehe AA im moment auch nicht als Standard an .. die wenigsten Gamer die ich kenne zocken mit AA! =)

Und wenn die Displays irgendwann mal so eine native Auflösung haben werden .. rechne ich damit das die Grakas der limmitierende Faktor sein werden .. und dann steht md wie heute bei nem TFT (sorry, aber Röhre ist für mich in der Zukunft fast tot). Entweder in der Nativen Auflösung zocken .. und auf AA verzichten, weil es einfach de Graka bei aktuellen Shootern nicht wirklich flüssig sinnvoll schaft, oder halt Auflösung runter und AA an ... aber Auflösung runter und dafür auf de native Auflösung verzichten ist doch wohl nen total fauler Kompromiss oder? :confused:

Und zu großen Pixeln .. diese sind doch wirklich kein Problem .. mussde den Monitor dafür eben nen stück weiter wegstellen! ;D (was natürlich den Vorteil der Größe des Gerätes wieder relativiert *rofl* )

Ailuros
2004-12-20, 17:12:01
EasyChiller']nunja .. ich sehe AA im moment auch nicht als Standard an .. die wenigsten Gamer die ich kenne zocken mit AA! =)

Nur sind die Chancen groesser dass sich AA standardisiert als uebergrosse Bildschirme mit verrueckt hohen Aufloesungen. Der Unterschied wird eben von low auf high end in der Anzahl der samples liegen.

Wenn ich die Anzahl der Gamer die kein AA benutzen mit der durchschnittlichen Groesse der Mehrzahl der Bildschirme vergleiche, dann spricht Deine These wohl auch nicht gerade dafuer; eher dagegen.

Und wenn die Displays irgendwann mal so eine native Auflösung haben werden .. rechne ich damit das die Grakas der limmitierende Faktor sein werden

Neue Grakas unterstuetzen heute in der Mehrzahl bis zu 2048*1536*32. Heutzutage unterstuetzen aber selten Bildschirme solche Aufloesungen ausser =/>21" CRTs in der Mehrzahl. Schau Dir mal an was fuer eine maximale Aufloesung auf der Realizm800 moeglich ist und zeig mir dann wieso Grakas nicht auch weiterhin in dieser Abteilung skalieren werden und dass stets einige Schritte den Bildschirmen voraus, hauptsaechlich fuer den Profi-Markt.

.. und dann steht md wie heute bei nem TFT (sorry, aber Röhre ist für mich in der Zukunft fast tot).

Dann sind einige grosse Semis einfach verrueckt, dass sie mit "duennen" CRTs zeitlich experimentieren.

Entweder in der Nativen Auflösung zocken .. und auf AA verzichten, weil es einfach de Graka bei aktuellen Shootern nicht wirklich flüssig sinnvoll schaft, oder halt Auflösung runter und AA an ... aber Auflösung runter und dafür auf de native Auflösung verzichten ist doch wohl nen total fauler Kompromiss oder? :confused:

Zu was ich 2048*1536 brauche fuer Spiele hat mir noch keiner bis jetzt erklaeren koennen. Dreamworks oder Pixar haben sicher einen Hammer dass sie mit ihren Monster-Clusters nicht in 4096 oder hoeher entwickeln. Hohe Aufloesungen ohne AA sind ja die Loesung in dem Fall.....

Und zu großen Pixeln .. diese sind doch wirklich kein Problem .. mussde den Monitor dafür eben nen stück weiter wegstellen! ;D (was natürlich den Vorteil der Größe des Gerätes wieder relativiert *rofl* )

Wie waere es mit dem Zimmer nebenan? :D

1280*720 auf 30" sieht bekloppt aus; rennt in ein Geschaeft und probiert entweder 2D oder 3D aus wenn moeglich. Genauso bekloppt wie 800*600 auf diesem 21" und komm mir jetzt um Himmels Willen keiner mit "doublescan" oder aehnlichem Quark.

MadManniMan
2004-12-20, 18:13:28
Hm, vergess0rt nicht, daß wir hier von der Spiele-Leistung und den dazugehörigen Auflösungen reden. Die Displays haben gar schon dereinst stets höhere Auflösungen Spaß machen lassen, nur fehlte es halt an Output.

Als ich noch in 320 zockte, hättens locker 800 sein können. Zu meiner 640-Zeit waren 1024 möglich und 800/1024(war meine entweder HiRes- oder 2*SS-Zeit) hatten nen 1280er Moni im Rücken.

Letztendlich findet 1280 in sich selbst seinen Meister - mein(ja, ich schwimm anscheinend mit dem Strom... steinigt mich!) 17"er TFT mag halt nicht mehr.
Und wenn ich den Mist richtig einschätze, siehts mit der Unterstützung höherer Res seitens der Display-Mach0r etwas mau aus.

Meine Spekulation: bedingt durch diesen Umstand werden sich die die ISVs auf eine Optimierung ihrer Apps auf diese Res versteifen.


Ergo: scheiß TFTs. Trotzdem finde ich sie mehr als nur alltagstauglich, AiL :P

Aber wie gesagt: über Gestreit läßt sich schmecken ;)

drmaniac
2004-12-20, 18:36:37
Ausgezeichnet. In dem Fall sind die Pixel so gross dass ich sie mit etwas Geduld auf dem Bildschirm zaehlen kann.... :|

ich sehe du hast sowas noch nie live gesehen, wirklich schade.

Ich kann dir versichern, dass du keine Pixel zaehlen wirst/kannst :D

nochmal : gamen auf einem 30" Display mit 1280 x 768 ist ein Genuss. Und HDTV Filme darauf sehen auch bombastisch aus ;)

[dzp]Viper
2004-12-20, 18:38:25
/edit... schwachsinn *muss mal mehr denken vorm posten :D*

Relic
2004-12-20, 20:12:41
ich sehe du hast sowas noch nie live gesehen, wirklich schade.

Ich kann dir versichern, dass du keine Pixel zaehlen wirst/kannst :D

nochmal : gamen auf einem 30" Display mit 1280 x 768 ist ein Genuss. Und HDTV Filme darauf sehen auch bombastisch aus ;)

Ja aber nur wenn man nicht wie bei einem monitor normal 50cm davorsitzt....

[ncp]EasyChiller
2004-12-20, 21:10:12
das sich AA eher als STandard durchsetzten wird als hohe Auflösungen ist gerade der Punkt den ich nicht so recht glauben mag ... wie lang gibt es AA nu schon? Und doch ist es seither immer ein Gimmic jener geblieben, die Top-Hardware haben. Also eher etwas wo ma überschüssige Graka-Leistung hinpacken kann ... was aber Jederzeit (bisher) für den Mainstream wohl so nicht zutrifft. ... (immer auf aktuelle Games und die meiste Hardware-Verbreitung bezogen)

1280 bzw. später evtl. 1600 wird solange die Standardauflösung bleiben (wenn sie es erstmal geworden sind) solange DVI nicht abgelöst wird. :redface:

Und doch werden früher oder später (vielleicht nicht mehr mit TFTs) die Displayhersteller auf höhere Auflösungen setzten (diesen Trend kann ma ja schon - meiner meinung nach noch unsinnigerweise - bei den heutigen Notebook-displays sehen).

Displays mit höheren Auflösungen lassen sich eben besser an den Ottonormalverbraucher verkaufen. :biggrin:

Ailuros
2004-12-21, 00:03:14
ich sehe du hast sowas noch nie live gesehen, wirklich schade.

Ich kann dir versichern, dass du keine Pixel zaehlen wirst/kannst :D

nochmal : gamen auf einem 30" Display mit 1280 x 768 ist ein Genuss. Und HDTV Filme darauf sehen auch bombastisch aus ;)

Du siehst und weisst wohl sowieso nicht besonders viel. HDTV playback ist ein total anderes Kapitel als 3D Spiele, aber ich hab schon genug Zeit mit dem Quark verplempert.

Ailuros
2004-12-21, 00:32:26
EasyChiller']das sich AA eher als STandard durchsetzten wird als hohe Auflösungen ist gerade der Punkt den ich nicht so recht glauben mag ... wie lang gibt es AA nu schon?

Schon seit den ersten Schwarz-weiss Filmen. Fruehe AA-Forschung begann im Audio-Bereich.

Aufloesungen skalieren in der letzten Jahren zwar auch, aber die AA-Faehigkeiten der GPUs um einiges mehr. Fuer den PC gibt es Supersampling seit der Neon250, gefolgt von Voodoo5; Multisampling seit der NV20 - was einen sehr grossen Leistungssprung mit sich brachte und die Leistung hat sich heutzutage so verbessert dass es fast keinen Sinn mehr heute macht 2xAA ueberhaupt noch abzuschalten. Der Leistungsverlust einer V5 in 1024*768*16bpp mit 2xRGSS war um einiges groesser als heutzutage 4xRGMS+AF selbst in 1600*1200.

Es gab schon zu GF2 Zeiten "hohe Aufloesungen-Fans" die schwoerten dass 1600 ohne AA viel besser aussehen wuerde als niedrigere Aufloesungen mit AA. Nur ist eben heutzutage jede Karte ueber etwas AA faehig.

Natuerlich ist AA eine Geschmacksache, aber ohne AA zu zocken heisst dann auch quasi dass man Moneten fuer high end Karten heutzutage fast unnoetig verplempert. Wo liegt die Konzentration der Benchmarks heutzutage oder lebe ich auf einem anderen Planet?

Und doch ist es seither immer ein Gimmic jener geblieben, die Top-Hardware haben. Also eher etwas wo ma überschüssige Graka-Leistung hinpacken kann ... was aber Jederzeit (bisher) für den Mainstream wohl so nicht zutrifft. ... (immer auf aktuelle Games und die meiste Hardware-Verbreitung bezogen)

Zeiten aendern sich; 4 Jahre sind zu wenig. AA ist kein Gimmick fuer high end Besitzer, sondern eher ein Feature fuer User die bessere Bildqualitaet moechten und ja die kann man eventuell auch im low end Bereich heute bekommen.

1280 bzw. später evtl. 1600 wird solange die Standardauflösung bleiben (wenn sie es erstmal geworden sind) solange DVI nicht abgelöst wird. :redface:

Spricht nicht dagegen zu dem was ich behaupte. 2048*1536 ist wohl meilenweit entfernt von diesen. Es gibt einen Unterschied wenn man Sachen in logischen Verhaeltnissen haelt und wenn man doch etwas zu viel uebertreibt.

Und doch werden früher oder später (vielleicht nicht mehr mit TFTs) die Displayhersteller auf höhere Auflösungen setzten (diesen Trend kann ma ja schon - meiner meinung nach noch unsinnigerweise - bei den heutigen Notebook-displays sehen).

Displays mit höheren Auflösungen lassen sich eben besser an den Ottonormalverbraucher verkaufen. :biggrin:

Der letzte Satz ist ein nettes Oxymoron. In dem Sinn muessten die Verbraucher sich eher nach CRTs umsehen und nicht anders rum.

Mal anders rum: TFT/LCDs setzten sich primaer durch wegen ihre kleineren Groesse und deren kleineren Stromverbrauchs (grosse Firmen mit unendlich vielen User-Terminalen), was wohl eher auf Office-Gebrauch deutet.

Auf einem 21" kann man in 1600 schon Text eigentlich schwer lesen und fuer ein einfaches Firmen-Buero sind 21" schon zu gross. Jetzt zeig mir mal wie gross schaetzungsweise ein TFT sein muesste damit bei 2048*1536 man kinderleicht Text auf diesem Bildschirm lesen kann und erklaer mir nochmal genau den Sinn der Platzsparung und genereller Ergonomie der mit Office-Verbrauch verbunden ist, denn irgendwo hab ich das Gefuehl dass wir aneinander vorbei reden.

Nur der Gedanke dass ich in 10 Jahren in eine Bank laufe und ein Angestellter vor einem =/>36" Bildschirm hockt, klingt mir persoenlich laecherlich. Und ja Office-Verbrauch ist in dieser Abteilung der treibende Faktor und natuerlich die damit verbundene Ergonomie.

JFZ
2004-12-21, 09:06:25
Nur sind die Chancen groesser dass sich AA standardisiert als uebergrosse Bildschirme mit verrueckt hohen Aufloesungen.

Naja, ich denke mal, daß im Laufe der nächsten fünf Jahre zumindenstens eine 1920er Auflösung bei vielen TFT die native Auflösung sein wird. Einfach, weil sich auch gut mit dem Argument "volle HDTV-Auflösung" auf den Displays werben lasen wird. Wenn irgendwann die HD-DVDs und Blue-rays rauskommen, wird HDTV sicherlich einen gewaltigen Schub bekommen, und die TFT-Herstellen werden auf den Trend reagieren.

Ok...2048 wird so schnell nicht erreicht, aber ich denke mal, daß in den nächsten Jahren die 1280er Auflösung als Otto-Normaluserauflösung durchaus durch eine höhere abgelöst wird.

Und egal, was die persönlichen Präferenzen in Hinblick auf AA sind, die Standardauflösung wird bei den meisten doch durch die native Auflösung des TFTs bestimmt.

Ailuros
2004-12-21, 10:05:55
Naja, ich denke mal, daß im Laufe der nächsten fünf Jahre zumindenstens eine 1920er Auflösung bei vielen TFT die native Auflösung sein wird. Einfach, weil sich auch gut mit dem Argument "volle HDTV-Auflösung" auf den Displays werben lasen wird. Wenn irgendwann die HD-DVDs und Blue-rays rauskommen, wird HDTV sicherlich einen gewaltigen Schub bekommen, und die TFT-Herstellen werden auf den Trend reagieren.

Ok...2048 wird so schnell nicht erreicht, aber ich denke mal, daß in den nächsten Jahren die 1280er Auflösung als Otto-Normaluserauflösung durchaus durch eine höhere abgelöst wird.

Und egal, was die persönlichen Präferenzen in Hinblick auf AA sind, die Standardauflösung wird bei den meisten doch durch die native Auflösung des TFTs bestimmt.

Die Konzentration auf Neben-Maerkte oder extra Funktionalitaeten wie HDTV playback bringt aber trotzdem nicht viel. Nochmal wo und wieso werden die Mehrzahl der Bildschirme weltweit verkauft? Ich rede hier weder von jeglichem high-end Enthusiast oder vom Otto-Normalverbraucher, sondern von grossen Verkaufsvolumen verbunden mit praktischer Ergonomie und Brauchbarkeit.

Fuer Office-Verbrauch braucht man um Himmels Willen keine uebergrosse Bildschirme und auch keine Ultra-hohen Aufloesungen. Nochmal man kann in 1600*1200 Text schwer lesen auf einem 21" Bildschirm. Eine native Aufloesung von 1600 auf 21" ist genauso unpraktisch wie groessere als 21" Bildschirme fuer ein jegliches Buero.

Was jetzt nun AA betrifft, hier mal eine kleine Erinnerung wie unwichtig es ueberhaupt ist:

With Windows XP, ClearType delivers improved font display quality over traditional forms of font smoothing or anti-aliasing. ClearType improves readability on color LCD displays with a digital interface, such as those in laptops and high-quality flat panel displays. Readability on CRT screens can also be somewhat improved.

http://www.microsoft.com/typography/cleartype/tuner/1.htm

Noch dazu will ich mal genauer LONGHORN (WGF1.0/2.0) genauer erklaert bekommen und die minimalen Vorraussetzungen fuer WGF1.0/dx9.0L Komplianz, ueberhaupt was das GUI betrifft.

[ncp]EasyChiller
2004-12-21, 11:19:06
Das mit der Ergonomie ist (leider) korrekt. Ich selber nutzte z.b. ein 19'er TFT mit 1280'er (natürlich). .. und ich finde diese Auflösung ist ideal für einen 19'er (heutzutage) .. 1280 auf nem 17'er TFT finde ich im moment zu klein .. und ich hatte selber schon einen 21,3" TFT mit 1600'er .. und fand das 21,3" für ne 1600 um damit zu arbeiten das Minimum sind! :mad:

Ich wart immer noch auf die Funktion im Browser wo ma getrennt von der Text-Scalierung eine Bilder vegrößerung um exact Faktor 2 oder so anwählen kann (siple Pixelverdopplung).. dann würde auch 1600 oder mehr auf nem kleinen Display top aussehen und solchen utopischen auflösungen wie 1440'er auf nem 15'er TFT wie es sie in Notebooks gibt würde das denke auch sehr entgegen kommen!

Aber nicht wegen TEXT .. text kann ma doch immer schön scalieren .. alles kein problem .. das wirkliche Problem sind eher Bilder! Bilder wie sie auf Webseiten hinterlegt sind, welche im Gros noch für 800*600 oder auch 1024'er "optimiert" sind. Bilder die scheisse aussehen (welchen Graphikfilter ma auch anwendet ... ich mag weder Bell noch Lanzos, obwohl das IMHO die geeignetesten sind, und welche ja von den Browsern nich ma angeboten werden) wenn ma die resized.

Ich hoff aber mal das sich auch dort was in den nächsten 10 jahren ändert, wenn erstmal ne 1600'er Auflösung ne grössere Marktdurchdringung erreicht.


Zu AA: wie du siehst gibbs das ja schon ewig ;-) ... und doch ist es heute kein Standard-setting oder? Ich denk mal wenn es von den Grossen Anbietern von Graka-Hardware im Treiber per default aktiviert wäre (2xAA oder so) dann könnte es innerhalb von einem Jahr locker ein Standard-Setting werden. :biggrin:

Ja und auch Font-AA hab selbst ich deaktiviert. :P


ma kurz was OT: zu OLEDs auf grossen Schirmen hab ich lang nichts mehr gelesen im WWW. Wees ener da was aktuelles was die Haltbarkeit von OLEDs oder auch die Fortschritte bei den Prozessen von OLED-Beschichtung von Polymeren etc. betrifft? Täte mich nämlich ma brennend interessieren! :confused:

Ailuros
2004-12-21, 11:30:27
Zu AA: wie du siehst gibbs das ja schon ewig ;-) ... und doch ist es heute kein Standard-setting oder? Ich denk mal wenn es von den Grossen Anbietern von Graka-Hardware im Treiber per default aktiviert wäre (2xAA oder so) dann könnte es innerhalb von einem Jahr locker ein Standard-Setting werden.

In allem anderem ausser dem PC. Was glaubst Du genau macht eine einfache Photo- oder Video-Camera genau? Was wird bei TV oder Filmen genau benutzt? Deshalb fragte ich ja auch was fuer einen Photo-realismus ihr Euch genau vorstellt.

WGF1.0 setzt uebrigens 4xAA Unterstuetzung in HW fuer's GUI voraus. Ich fragte auch mit Absicht ueber LONGHORN. Wenn's schon Vorraussetzung fuer die volle Feature-pracht eines OS geht, dann geht wohl die Sache so langsam in eine gewisse Richtung oder?

Ja und auch Font-AA hab selbst ich deaktiviert.

Pfui Teufel; mir stehen die Haare was non-clear-type Text auf TFTs betrifft. Man kann den Fusel ja auch anpassen; aber klar es ist Geschmacksache.

Ailuros
2004-12-21, 11:44:47
Nein, das war von meiner Seite aus wirklich nicht als Verarsche gemeint. ;)
Es hieß vor gar nicht allzu langer Zeit mal von jemandem hier, der Ahnung hat (glaube aths oder Demirug war's), dass der "perfekte" Fotorealismus in Spielen in etwa 20 Jahren rein technisch möglich wäre (bis dann die Spiele in Sachen Detailmenge und Einsetzen der Effekte wie Tiefenunschärfe etc absolut realitätsgetreu nachziehen, wird's vermutlich noch deutlich länger dauern...
Aber da wie gesagt rein technisch - na, sin mia mal großzügig - 2025 bereits täuschend echte RT-Bildschirmgraphiken möglich sein sollten, wozu imo schon eher eine Auflösung im 5stelligen Achsenbereich und XXxAA nötig wären, sollten 2048*1536 da doch wohl kein wirkliches Problem darstellen.

Und wie gesagt, über Effizienzen und benötigte Füllraten habe ich dabei bewusst außen vor gelassen, da ich ziemlich fest davon überzeugt bin, dass _irgendwann_ ähnlich bei den CPUs mit der Nanotechnologie und den paar Millionen GHz auch im GPU-Bereich der Durchbruch gelingen wird und solche aus heutiger Sicht astronomischen Settings kein Thema mehr darstellen.^^
Hat denn wirklich keiner 'ne Idee, wann "meine" Prophezeiungen *g* eintreffen könnten?


btw waren bei der Auflösung nicht Desktoparbeiten gemeint, wofür ein entsprechend hochzolliger Bildschirm notwendig wäre, sondern auch hier rein bezogen auf Spiele. Und da kann man imo selbst auf einem 15" er (theoretisch ;)) 2000er-Auflösungen auffahren, oder dass das Spiel aufgrund zu kleiner Schrift oder whatever unspielbar sein müsste...

Man kann generell schlecht ueber ein halbes Jahrzehnt vorraussehen, ueberhaupt in so einem Markt wo sich Technologie blitzartig weiterentwickelt. Warten wir erstmal auf Longhorn/WGF2.0 dass sowieso fuer 4-5 Jahre durchhalten soll, genauso wie dx9.0 und dann sehen wir mal langsam wie es von da ab weitergehen koennte (moegliche Vorstellung 2006/7 + 5 Jahre = maximal 2011/2).

2048*1536 auf einem 15"? ROFL :D Bei der Bildschirmgroesse ist selbst schon 1024*768 eine "hohe" Aufloesung.

Pixar hat z.B. AFAIK einen hauseigenen 64x sample stochastischen Algorithmus fuer FSAA und motion blur. Und ehrlich gesagt wird es noch mehr als nur ein paar Jahre dauern bis ein einfacher PC "Finding Nemo" in Echtzeit rendern koennte.

drmaniac
2004-12-21, 12:04:41
Du siehst und weisst wohl sowieso nicht besonders viel. HDTV playback ist ein total anderes Kapitel als 3D Spiele, aber ich hab schon genug Zeit mit dem Quark verplempert.


wenn du meinst ;D

vielleicht sollte ich dir noch als tip geben, dass ich die hdtv movies per VLC schaue... oder wenn ausnahmsweise mal wmv9 dann per mediaplayer...

und wo ist jetzt der tolle Unterschied dass man bei dem einen die Pixel sehen soll aber bei dem anderen es ja ein gaaanz anderes Kapitel ist...

ich denke wir reden aneinander vorbei.

Meine Aussage bleibt : man bekommt heute schon verdammt billig riesen Screens mit 27-32" und mit der Aufloesung von 1280x768 sind sie fuer Games hammer geeignet ebenso fuer hdtv movies. (-< punkt ;D )

[ncp]EasyChiller
2004-12-21, 12:21:20
ok .. ich köntte ja etwas entgegenkommen 4x msaa oder sowas könnte ich mir ja in ca. 10 jahren noch als Standard vorstellen .. aber das 8xSSAA selbst in 20 Jahren nicht!

Dahingegen könnt ich mir die Auflösugn von 2048, oder zumindest eine die stark in die nähe kommt (forciert durch hdtv und evtl. dann neue Techniken) auch in ca. 15 jahren mit einer breiten marktdurchdringung vorstellen.

Was ich aber nicht glaube das in 10 oder 15 jahren die Grafikkarten die nötige Rohpower haben werden, um ne 2048'er mit 4xAA bei DANN aktuellen Games flüssig darzustellen. (und ich rede dann nicht von den dann derzeitigen high-end-vorzeige-nicht-lieferbar-GraKas, sondern von denene welche dann die breiteste Marktdurchdringung haben werden) :redface:

Das begründe ich einfach damit, das ich davon ausgehe das zuküftige Graphik-Engines noch wesentlich Resourcen-lastiger werden, als es heute de D3-Eng. schon ist. Ich mutmaße das man als Game-Entwickler eher zu mehr Effekten und mehr Polygonen neigen wird, als eine höhere Auflösung als z.B. 1600'er wirklich in Betracht zu ziehen.

Asmodeus
2004-12-21, 13:42:23
Das größte Problem mit hohen Auflösungen ist, dass es eben nicht nur einfach ein Skalierungsproblem ist. Ich kann es immer nur wieder wiederholen, beim aktuellen DVI-Standard beträgt die Videobandbreite des Anschlusses und des Kabels 165MHz. Das Ergebnis dessen kann ich jederzeit an unserem 3840x2400 Display sehen, mit Single Link Anschluss habe ich 12/13 Hz Bildwiederholfrequenz, mit Dual Link Anschluss habe ich 25/26 Hz. Also alles Werte die sehr weit von Spieletauglichkeit und Massentauglichkeit entfernt sind (und zwar auch preislich). Sicher, es gibt Leute, die sagen, was stört mich die Videobandbreite des Kabels, mein Moni hat eine viel höhere. Das ist richtig, nur wenn man monitorseitig die Bildwiederholfrequenz höher setzt als das, was das Kabel laut Standard liefern kann, dann leidet einfach die Bildqualität stark darunter.
Und wenn man jetzt etwas verfolgt, welche Maßnahmen ergriffen werden sollen, um die Bildwiederholfrequenzen unter hohen Auflösungen zu steigern, dann liest man meistens von so Sachen wie partiellem Refreshing, was nix anderes bedeutet, man will dazu übergehen, nicht immer stur das gesamte Monitorbild refreshen zu müssen, sonder nur die Teile, welche sich gerade ändern. Ist ne kluge Idee, aber zwischen den Zeilen ist meiner Meinung nach zu lesen, wir müssen in Zukunft zu diesen "Tricks" greifen, da einfach ein weiteres simples Skalieren technisch nicht möglich ist. Um 2048x1536 mit 100Hz darstellen zu können bräuchte man schon mindestens 330Mhz Videobandbreite auf dem Kabel, anstatt der heutigen 165Mhz. Intern schaffen das Monitore auch heute schon locker. Aber fragt einfach mal jemanden, der mehr Ahnung von der Materie hat als ich, was man da für einen Anschluss und was für ein Kabel mit was für einer Abschirmung bräuchte, um die Sache über 1.5m oder länger zu übertragen. Und genau dort liegt nämlich das eigentlich Problem, meiner Meinung nach.

Gruss, Carsten.

Godmode
2004-12-21, 15:28:28
Wie schaut des bei normalen Kabeln aus, wieviel Hz schaffen die?

Asmodeus
2004-12-21, 16:05:10
Wie schaut des bei normalen Kabeln aus, wieviel Hz schaffen die?

Die einfachste Rechnung ist, Du nimmst die Videobandbreite und teilst sie durch die Anzahl der Pixel. Da erhälst Du nen guten Richtwert, wieviel Hz für eine ergonomische, qualitative Anzeige möglich sind. Der tatsächliche Wert liegt immer etwas darunter, da man eigentlich noch paar Prozent "Sicherheit" und Overhead mit reinrechnen sollte.

Beispiel:

Videobandbreite des DVI-Standards (Single Link): 165 MHz
Auflösung: 1600x1200

165.000.000 Hz / (1600 * 1200) = 85,9375 Hz

EDIT: (Fehler meinerseits)

Es muss doch streng zwischen analoger und digitaler Anschlusstechnik unterschieden werden. Hab das leider zu ungenau dargestellt. Bei einem DVI-D Anschluss ist bei obigem Beispiel also maximal eine Bildwiederholfrequenz von 80 Hz drin. In dem Bereich ist es natürlich eher uninteressant, da standardmäßig die meisten TFTs da eh nur mit 60 Hz laufen. Es wirkt sich also nur auf Auflösungen aus, bei denen dem DVI-D Standard entsprechend dann keine 60Hz mehr erreicht werden.

Bei einem reinen analogen Anschluss (VGA Sub-D, oder eben analoge Teil von DVI-I) sieht die Sache etwas anders aus. Dort sind auch auf dem Kabel höhere Videobandbreiten möglich, und somit auch höhere Auflösungen mit höheren Wiederholraten. Trotzdem leidet die Bildqualität bei hohen Auflösungen und hohen Bildwiederholraten (auch wenn die Gründe dafür andere sind).

In Hinblick auf die Zukunft und die Verdrängung der analogen Technik (CRTs) stellt sich aber dann genau die Problematik, wie ich sie geschildert habe.

Gruss, Carsten.

Asmodeus
2004-12-21, 16:14:22
Die ganzen Ausführungen beziehen sich auf eine Single Link Lösung. Natürlich bietet Dual Link die doppelte Videobandbreite. Aber nicht umsonst beherrschen nur "Profi"-Garfikkarten den Dual Link Modus zu entsprechenden Preisen. Und beim Monitor sieht bei unserem IBM die Dual Link Lösung auch nicht sehr massenmarkttauglich aus. Man hat eine zusätzliche Konverterbox, dort wird die Dual Link fähige Grafikkarte angeschlossen. Aus der Box kommt dann ein monströses, vielleicht 1m langes Kabel, das an den Monitor angeschlossen wird. Was genau in der Box passiert, entzieht sich meinem technischen Wissen. Aber allein diese Box und das Spezialkabel sind sicher nicht umsonst. Und in absehbarer Zeit wird es sicher nicht Standard, dass jeder User sich gern diese Mehrkosten von sicher gut 1000 Euro (Dual Link fähige Grafikkarte + Dual Link fähiger Monitor) aufhalsen möchte.

EDIT:
Und mit CRTs ist meiner Meinung nach (rein spekulativ) Dual Link sowieso nicht möglich, da es meines Wissens nach gar keinen Dual Link DVI-A Standard gibt.

Gruss, Carsten.

Gast
2004-12-21, 16:19:16
Seit ca. 1999 ist 1024x768 Standardauflösung, davor waren 640x480 und 800x600 gebräuchlich (wegen Voodoo 1 und Voodoo 2). Zur Zeit entwickelt sich 1280x1024 wegen der Flut an günstigen 17 Zoll und 19 Zoll TFTs zur Standardauflösung. Solange aber nicht 95% aller unter Spielern verbreiteten Bildschirme diese Auflösung packen (man denke an die vielen 15" TFT), wird 1024x768 auch weiter die Standardauflösung bleiben. 2008 kann man vielleicht 1280x1024 als Standard ansehen, aber nie im Leben 2048 (welcher Spieler hat schon einen Monitor mit dieser Auflösung? Maximal 1%).

Cool .. dann gehöre ich zu den 1% :)

LeChuck
2004-12-21, 16:19:58
Was me ......

Asmodeus
2004-12-21, 17:33:40
Was mir gerade noch auffällt: 2048x1538 mit 64 Bit dürften noch aus einem anderen Grund nur sehr aufwendig umsetzbar sein. Beim jetzigen DVI-D Standard werden pro Farbkanal 8 Bit an Informationen übertragen. Zusammen sind das also 24 Bit. Bei 165 MHz Pixeltakt entspricht das also einer realen Frequenz von 8 x 165 Mhz = 1320 MHz. Für Kupferleitungen ist das meines Wissens nach schon nahe am Grenzbereich, was man ohne aufwendige Zusatzspielereien und Abschirmungen über so eine Strecke noch übertragen kann. Würde die Informationsbreite nun von 8 Bit pro Kanal auf 16 Bit pro Kanal verdoppelt werden gäbe es ja nur zwei Möglichkeiten. Entweder, man erhöht die Frequenz auf 16 x 165 MHz = 2640 MHz oder man bräuchte pro Farbe zwei Kanäle. Beide Lösungen würden ne Menge Extrakosten verursachen.

EDIT:
Interessant ist diese Überlegung auch in Hinblick auf eine zukünftige, durchgehende HDR-"Pipeline", von der Grafikkarte bis zum Monitor. Im Grunde wäre es ja vielleicht möglich, das Dual Link Feature dafür zu nutzen über 2x8 Bit 16 Bit HDR(MDR) Farbinformationen zu übertragen. Dafür müsste natürlich ein neuer Modi in den DVI Standard aufgenommen werden, und sowohl Grafikkarten als auch TFTs müssten diesen neuen Modus auch erzeugen und verarbeiten können. Und von der Auflösung her wäre man dann eben auch etwas eingeschränkt. Aber 1600 x 1200 mit 60Hz und HDR(MDR) wären so noch realisierbar.

Gruss, Carsten.

Ailuros
2004-12-21, 20:09:01
wenn du meinst ;D

vielleicht sollte ich dir noch als tip geben, dass ich die hdtv movies per VLC schaue... oder wenn ausnahmsweise mal wmv9 dann per mediaplayer...

und wo ist jetzt der tolle Unterschied dass man bei dem einen die Pixel sehen soll aber bei dem anderen es ja ein gaaanz anderes Kapitel ist...

ich denke wir reden aneinander vorbei.

Meine Aussage bleibt : man bekommt heute schon verdammt billig riesen Screens mit 27-32" und mit der Aufloesung von 1280x768 sind sie fuer Games hammer geeignet ebenso fuer hdtv movies. (-< punkt ;D )

Der Thread fragt ueber Spiele nach; gegen HDTV playback gibt es da nichts einzuwenden.

Gegen Spiele auf sehr grossen Bildschirmen mit nur 1280*768 dann eventuell schon. Wenn Du schon rein technisch nicht die Analogie zwischen nutzbarer Bildflaeche und Aufloesung verstehst, gibt es sowieso keinen Grund zur weiteren Debatte. Gott sei Dank entwickeln die richtigen Leute immer noch Hardware........

Ailuros
2004-12-21, 20:25:58
Asmodeus,

330MHz fuer 100Hz@2048 scheinen mir zu wenig. Dieser 21" CRT hier mit einer Videobandbreite von 340MHz schafft maximal 2048*1536*32@75Hz.

Interessant ist diese Überlegung auch in Hinblick auf eine zukünftige, durchgehende HDR-"Pipeline", von der Grafikkarte bis zum Monitor. Im Grunde wäre es ja vielleicht möglich, das Dual Link Feature dafür zu nutzen über 2x8 Bit 16 Bit HDR(MDR) Farbinformationen zu übertragen. Dafür müsste natürlich ein neuer Modi in den DVI Standard aufgenommen werden, und sowohl Grafikkarten als auch TFTs müssten diesen neuen Modus auch erzeugen und verarbeiten können. Und von der Auflösung her wäre man dann eben auch etwas eingeschränkt. Aber 1600 x 1200 mit 60Hz und HDR(MDR) wären so noch realisierbar.

Ich wandle hier zwar im Dunkeln, aber ich kann mir nicht vorstellen dass jegliche hoehere interne Praezision auch analoge Wiedergabe-Faehigkeiten auf einem Bildschirm benoetigen. Jedesmal wenn ich ueber =/>64bpp HDR (auch fuer moegliche zukuenftige Realisierungen) lese, wird irgendwo auch ein non-DACable Format angehaengt.

Hauwech
2004-12-21, 21:08:38
Asmodeus,

330MHz fuer 100Hz@2048 scheinen mir zu wenig. Dieser 21" CRT hier mit einer Videobandbreite von 340MHz schafft maximal 2048*1536*32@75Hz.



Ich wandle hier zwar im Dunkeln, aber ich kann mir nicht vorstellen dass jegliche hoehere interne Praezision auch analoge Wiedergabe-Faehigkeiten auf einem Bildschirm benoetigen. Jedesmal wenn ich ueber =/>64bpp HDR (auch fuer moegliche zukuenftige Realisierungen) lese, wird irgendwo auch ein non-DACable Format angehaengt.

Ich glaube Asmodeus meint eher das das normale analoge Kabel bei solchen Aufloesungen mit entsprechender Refreshrate nicht mehr so gut aussieht. Dein Monitor kann das ohne Probleme darstellen, doch je nach Kabel kann es wahrscheinlich ziemlich matschig aussehen.

Oder liege ich falsch?

Ailuros
2004-12-21, 21:47:58
Ich glaube Asmodeus meint eher das das normale analoge Kabel bei solchen Aufloesungen mit entsprechender Refreshrate nicht mehr so gut aussieht. Dein Monitor kann das ohne Probleme darstellen, doch je nach Kabel kann es wahrscheinlich ziemlich matschig aussehen.

Oder liege ich falsch?


Der Hersteller gibt eine maximale Bildflaeche von 406*305mm und 0.20mm horizontalen dot pitch (AG) an (wobei das letztere nicht unbedingt stimmen muss).

Angenommen die dot pitch Zahl stimmt:

406 / 0.2 = 2030
305 / 0.2 (?) = 1525

Falls aber z.B. der vertikale dotpitch bei sagen wir mal 0.22 liegt, aendert sich das Ganze um einiges. Das Kabel wird nicht in dem Bereich helfen. Die leichte Truebheit kommt sowieso schon als integriertes Feature mit. Ist aber auch sehr schwer zu bemerken; Text kann man ja sowieso nicht mehr lesen.

Gast
2004-12-21, 22:39:35
Hmm, hat sich eigentlich die Qualität der Monitorkabel in den letzten Jahren geändert, sprich verbessert worden oder sind es, wie dieses zB von Nvidia seit den FXen eingeführte Programm, "nur" bessere Bauelemente auf den Grakas?

LeChuck
2004-12-21, 23:02:07
Hmm, hat sich eigentlich die Qualität der Monitorkabel in den letzten Jahren geändert, sprich verbessert worden oder sind es, wie dieses zB von Nvidia seit den FXen eingeführte Programm, "nur" bessere Bauelemente auf den Grakas?

Also kann keine direkte Antwort geben .. aber wenn man einen Monitor mit BNC Anschluss hat sollte man diesen am betsen auch benutzen ... hat bei mir echt viel bessere Ergebnisse gebracht als der normale VGA Anschluss.

[ncp]EasyChiller
2004-12-21, 23:06:20
bei analogen Kabeln gibbs Unterschiede wie Tag und Nacht .. ma kann billige kaufen .. oder auch mehrfacht geschirmte etwas über 100,- Euro teure, nicht ganz so flexible (weil auch nicht grad dünne) Teile hab ich schon ma gesehen! :biggrin:

und zu DVI: die Übertragungsfrequenz ist nur 165 MHz!!!! nicht 8*165! Es gibt laut den DVI-Whitepapers 10 bit / 10 Datenadern. 8 davon für die Farbinformationen und 2 sind glaube Fehlerkorrekturdaten .. muss ich nochmal nachlesen - hab da grad keine Lust zu! ;)

Bei Dual-Link hat ma also 16 bit mit 165 Mhz. und 165 MHz sind noch nicht unbedingt das maximum was über Kupferkabel möglich sein sollte. Auch bei DVI-Kabeln gibbs verschiedene Qualitäten... es kann passieren wenn ma nen schlechtes hat, das ma schon bei 1600*1200 mit über 50Hz Probleme bekommt!

Xmas
2004-12-22, 01:23:55
165 MHz ist die maximale Pixelfrequenz von Single-Link DVI bei 24Bit/Pixel.
Pro Link gibt es drei Encoder/Serializer, die pro Takt jeweils entweder 8 Bit an Farbdaten oder 2 Bit Steuerdaten zu einem 10 Bit TMDS-Character codieren. Diese Daten werden dann seriell über 3 Kanäle übertragen. Auf dem Kabel hat man also eine Bitrate von 1650MHz. Dazu gibt es noch einen Kanal für den Takt. Bei Dual-Link gibt es also 6 Encoder/Serializer und 6 Daten-Kanäle, aber auch nur einen Takt-Kanal.

Im DVI 1.0 Standard sind bereits 48 Bit pro Pixel vorgesehen, wobei die höherwertigen Bits pro Farbkanal auf den ersten Link und die niederwertigen Bits auf den zweiten Link gehen.
Nur gibt es AFAIK noch keine Hardware, die das unterstützt.

del_4901
2004-12-22, 05:35:02
Irgendwann gibt es sicherlich "DVI mit Glassfasern" dann ist wieder ein bissel Luft. Die fangen ja jetzt schon an so langsam alles auf Glasfasern "umzustellen".

Asmodeus
2004-12-22, 10:02:49
...
Im DVI 1.0 Standard sind bereits 48 Bit pro Pixel vorgesehen, wobei die höherwertigen Bits pro Farbkanal auf den ersten Link und die niederwertigen Bits auf den zweiten Link gehen.
Nur gibt es AFAIK noch keine Hardware, die das unterstützt.

EDIT:

Meinst Du damit jetzt die normale Dual Link Fähigkeit, wo pro Pixel 2x24 Bit auf 6 Kanäle aufgeteilt (also 6x8 Bit) übertagen werden? Dort werden dann ja aber über jeweils 2 Kanäle die selben Daten übertragen. Oder meinst Du ein Format, bei dem über je 2 Kanäle dann insgesamt wirklich 16 Bit übertragen werden, die in jeweils 8 Bit HI und 8 Bit LO aufgeteilt sind? Und falls ja würde mich interessieren, wie groß der schaltungstechnische Mehraufwand auf Seiten der Grafikkarte und auf Seite des Monitors wäre um so ein Format verarbeiten zu können.

Gruss, Carsten.

Xmas
2004-12-22, 15:41:43
EDIT:

Meinst Du damit jetzt die normale Dual Link Fähigkeit, wo pro Pixel 2x24 Bit auf 6 Kanäle aufgeteilt (also 6x8 Bit) übertagen werden? Dort werden dann ja aber über jeweils 2 Kanäle die selben Daten übertragen. Oder meinst Du ein Format, bei dem über je 2 Kanäle dann insgesamt wirklich 16 Bit übertragen werden, die in jeweils 8 Bit HI und 8 Bit LO aufgeteilt sind? Und falls ja würde mich interessieren, wie groß der schaltungstechnische Mehraufwand auf Seiten der Grafikkarte und auf Seite des Monitors wäre um so ein Format verarbeiten zu können.

Gruss, Carsten.
Was meinst du mit "die selben Daten übertragen"?
Beim normalen Dual-Link überträgt der erste Link (Kanal 0 bis 2 -> BGR) die ungeraden Pixel, der zweite Link (Kanal 3 bis 5) die geraden Pixel einer Zeile.

Beim High Color Depth Modus überträgt der erste Link das höherwertige Byte pro Kanal, der zweite das niederwertige Byte. Der schaltungstechnische Mehraufwand gegenüber normalem Dual-Link ist eigentlich recht gering, Transmitter und Receiver müssen nur dafür ausgelegt sein, sprich sich darauf einigen können dass die Kommunikation jetzt 48bpp vorsieht. Ob die Daten die vom Grafikchip kommen dann zwei Pixel mit je 24 Bit oder einen mit 48 Bit darstellen, ist für die Übertragung ja egal. Auf der Seite des Monitors sieht es natürlich anders aus, hier müssen ja die D/A-Wandler breiter angebunden und von höherer Qualität sein.

[ncp]EasyChiller
2004-12-22, 16:00:17
na da hatte ich ma wieder was durcheinander gehaun :tongue:

habs nochma nachgelesen: http://www.leunig.de/_pro/downloads/DVI_WhitePaper.pdf

... eens iss mir unklar .. wozu zum henker hat der dvi-stecker nu die ganzen poole wenn bloss

Wenn ich mir nu de Stecker-belegung vom DVI angugge: http://www.hifi-regler.de/dvi/dvi-belegung.php

dann tun sich mir doch nen paar Fragen auf. Erstma könnte ma die ganzen Schirmungs-pole nicht auf einen legen?! Die wern doch garantiert eh dann alle auf Masse/Erde gelegt.
Wiso gibbs da TMDS-Daten 0 bis 5, wo doch eigentlich imho nur 3 da sind?

Theoretisch hätte ma ja da nu 6 Datenbit-kanäle .. mit welcher wirklichen maximalfrequenz wird denn nu übertragen?! :confused:

Asmodeus
2004-12-22, 20:12:57
Was meinst du mit "die selben Daten übertragen"?
Beim normalen Dual-Link überträgt der erste Link (Kanal 0 bis 2 -> BGR) die ungeraden Pixel, der zweite Link (Kanal 3 bis 5) die geraden Pixel einer Zeile.


Ja, ungenaue Formulierung meinerseits. Ich meinte damit, dass jeweils auf beiden Kanälen die selbe "Semantik" (8 Bit Farbinformation) übertragen wird, während bei dem High Color Depth Modus ja auf einem Kanal die HI-Bytes und auf dem anderen die LO-Bytes übertragen werden, die nur zusammengesetzt wieder einen verwertbaren Wert ergeben.


Beim High Color Depth Modus überträgt der erste Link das höherwertige Byte pro Kanal, der zweite das niederwertige Byte. Der schaltungstechnische Mehraufwand gegenüber normalem Dual-Link ist eigentlich recht gering, Transmitter und Receiver müssen nur dafür ausgelegt sein, sprich sich darauf einigen können dass die Kommunikation jetzt 48bpp vorsieht. Ob die Daten die vom Grafikchip kommen dann zwei Pixel mit je 24 Bit oder einen mit 48 Bit darstellen, ist für die Übertragung ja egal. Auf der Seite des Monitors sieht es natürlich anders aus, hier müssen ja die D/A-Wandler breiter angebunden und von höherer Qualität sein.

Danke, das beantwortet meine Frage.

Gruss, Carsten.

Asmodeus
2004-12-22, 20:27:53
EasyChiller']na da hatte ich ma wieder was durcheinander gehaun :tongue:

habs nochma nachgelesen: http://www.leunig.de/_pro/downloads/DVI_WhitePaper.pdf

... eens iss mir unklar .. wozu zum henker hat der dvi-stecker nu die ganzen poole wenn bloss

Wenn ich mir nu de Stecker-belegung vom DVI angugge: http://www.hifi-regler.de/dvi/dvi-belegung.php

dann tun sich mir doch nen paar Fragen auf. Erstma könnte ma die ganzen Schirmungs-pole nicht auf einen legen?! Die wern doch garantiert eh dann alle auf Masse/Erde gelegt.
Wiso gibbs da TMDS-Daten 0 bis 5, wo doch eigentlich imho nur 3 da sind?

Theoretisch hätte ma ja da nu 6 Datenbit-kanäle .. mit welcher wirklichen maximalfrequenz wird denn nu übertragen?! :confused:

In dem von Dir verlinkten WhitePaper find ich die Sache irgendwie auch "komisch" erklärt. Ich bin bisher immer davon ausgegangen, dass beim Single Link die Kanäle 0,1 und 2 eines Kabels für die Übertragung genutzt werden und beim Dual Link dann eben die Kanäle 0 und 3, 1 und 4, 2 und 5 eines Kabels für die Übertragung genutzt werden. In der Beschreibung steht aber immer wieder, dass für Dual Link physisch 2 Kabel nötig wären? Nur meiner Meinung nach macht das eben nur wenig Sinn, zumal sie selbst das dabei auftretende Problem nennen, dass theoretisch 2 genau identische Kabel nötig wären, was praktisch nur schwer realisierbar ist.
Und praktisch ist es bei unserem IBM Display auch so, für Single Link wird 1 DVI Kabel benötigt und für Dual Link aber genauso nur 1 DVI Kabel, auch wenn man natürlich die Möglichkeit hat bis zu 4 Kabel an das Display anzuschliessen.

Gruss, Carsten.

[ncp]EasyChiller
2004-12-22, 21:11:44
zu dem IBM-Display .. isses da möglich mehrere DVI-Kabel/Eingänge so zu benutze, das diese nur ein Bildschirmviertel oder so ansteuern?

Gast
2004-12-22, 21:41:41
Was ist eigentlich mit diesen 13W3 Kabel? An meinem alten Eizo ist eins dran, hat das irgendwelche besseren Eigenschaften als Sub-D? Oder ist das nur ein "alter" Standard aus grauer Vorzeit der zu teuer, zu gross, zu unflexibel für die heutige Zeit ist?

Xmas
2004-12-22, 23:36:58
In dem von Dir verlinkten WhitePaper find ich die Sache irgendwie auch "komisch" erklärt. Ich bin bisher immer davon ausgegangen, dass beim Single Link die Kanäle 0,1 und 2 eines Kabels für die Übertragung genutzt werden und beim Dual Link dann eben die Kanäle 0 und 3, 1 und 4, 2 und 5 eines Kabels für die Übertragung genutzt werden. In der Beschreibung steht aber immer wieder, dass für Dual Link physisch 2 Kabel nötig wären? Nur meiner Meinung nach macht das eben nur wenig Sinn, zumal sie selbst das dabei auftretende Problem nennen, dass theoretisch 2 genau identische Kabel nötig wären, was praktisch nur schwer realisierbar ist.
Und praktisch ist es bei unserem IBM Display auch so, für Single Link wird 1 DVI Kabel benötigt und für Dual Link aber genauso nur 1 DVI Kabel, auch wenn man natürlich die Möglichkeit hat bis zu 4 Kabel an das Display anzuschliessen.

Gruss, Carsten.
Die Dual-Link Beschreibung in dem PDF ist einfach falsch. Es gibt zwar auch Monitore, an die man zwei oder gar vier DVI-Kabel anschließen kann, nur sind das dann eben zwei oder vier Single-Links, die jeweils einen bestimmten Bildbereich ansteuern. Aber eben kein "Dual-Link" nach DVI-Standard.

Tjell
2004-12-23, 13:04:12
EasyChiller']...
In sofern rechne ich damit das die propagierten Settings (wobei ich wirklich nicht an 64-bit-Rendering glaube .. zumindest nicht auf der Visualisierungsseite .. dort wird es IMHO noch ewig bei 16,7 M Farben bleiben!!!) von HEUTIGEN Games erst so in 12 bis 15 Jahren möglich sein werden ....Das ist der Punkt. Wer kennt denn ein Ausgabegerät, welches in absehbarer Zeit 64 Bit Farbtiefe darstellen können wird!? Und das zudem in vom Themenbeginner angefragten hohen Auflösung!?

Meine Meinung: Zumindest die 64 Bit Farbtiefe wird noch lange auf sich warten lassen (wenn überhaupt).

Asmodeus
2004-12-23, 13:50:04
EasyChiller']zu dem IBM-Display .. isses da möglich mehrere DVI-Kabel/Eingänge so zu benutze, das diese nur ein Bildschirmviertel oder so ansteuern?

Ja, das ist möglich. Bei dem älteren 3er Modell ist die Sache meiner Meinung nach aber kaum real richtig gut nutzbar, dort werden nur folgende Modi unterstützt:

3840 x 2400 (960 x 2400 x 4 / 40,9 Hz) (Ch1, Ch2, Ch3, Ch4)
3840 x 2400 (1920 x 2400 x 2 / 20 Hz) (Ch1, Ch2)
... und niedrigere Auflösungen.

Sind halt alles eher "krumme" Auflösungen die da pro Kanal angelegt werden müssen.

Bei dem neueren 5er Modell ist die Sache zum Glück besser handhabbar mit folgenden Modi:

3840 x 2400 (Single Screen über Single Link mit 12/13Hz) (ein Anschluss)
3840 x 2400 (Single Screen über Dual Link mit 25/26 Hz) (ein Anschluss)
3840 x 2400 (1920 x 1200 x 4 / 40,9 Hz) (Ch1, Ch2, Ch3, Ch4)
3840 x 2400 (960 x 2400 x 4 / 40,9 Hz) (Ch1, Ch2, Ch3, Ch4)
3840 x 2400 (1920 x 2400 x 2 / 20 Hz) (Ch1, Ch2)
... und niedrigere Auflösungen.

Die Single Screen Auflösung von 3840 x 2400 als Single Link lässt sich sogar schon mit älteren GeforceFX 5800 und Radeon 9800 Karten ohne Probleme ansteuern.

Gruss, Carsten

[ncp]EasyChiller
2004-12-23, 14:11:10
3840 x 2400 (1920 x 1200 x 4 / 40,9 Hz) (Ch1, Ch2, Ch3, Ch4)

Hö? wiso wesshalb warum da nur knapp 40 Hz? nicht an die 50? :confused:

Theoretisch müsste es doch - wenn es entsprechende Treiber geben würde - mit 2 Grakas in einem System und je 2 DVI-Ausgängen auf jeder Karte möglich sein so einen Monitor mit 40 Hz anzusteuern. *g* (zumindest im Windows betrieb über virtuelle Desktops sollte das doch schon jetzt irgendwie gehn oder?! ) im 3d-Betrieb stell ich mir das komplizierter - mit momentaner Hardware eher unmöglich vor.

Ich glaube mich aber zu erinnern das diese hochauflösenden IBM-Spezial-TFTs nicht grad die schnellsten waren. Kann mich ganz dunkel an um die 50ms angegebende Schaltzeit entsinnen. .. also würde es auf so einem Displ. sowieso nich dolle viel bringen auf 50 Hz zu gehen. =)


Ich hoffe aber ganz stark das in den nächsten Monaten mal Wide-TFTs mit HTDV-Auflösung (1920*1200'er am besten) und Dual-Link-DVI auf den Markt kommen. Die derzeitigen mit unter 50 Hz find ich nicht gerade atraktiv (wenn dann möcht ich nen TFT, womit ich auch mal gamen kann.

Bin eh grad nen bissl depri .. mit dem omega-treiber hier weigert sich mein 19'er TFT 1280*1024 mit 85 Hz darzustellen ... geht immer wieder auf 75 Hz. (ok ist offiziell nicht unterstützt - aber mit nem älteren standard-ATI-Treiber ging das ohne Probleme).

Asmodeus
2004-12-23, 14:23:06
EasyChiller']3840 x 2400 (1920 x 1200 x 4 / 40,9 Hz) (Ch1, Ch2, Ch3, Ch4)

Hö? wiso wesshalb warum da nur knapp 40 Hz? nicht an die 50? :confused:

Theoretisch müsste es doch - wenn es entsprechende Treiber geben würde - mit 2 Grakas in einem System und je 2 DVI-Ausgängen auf jeder Karte möglich sein so einen Monitor mit 40 Hz anzusteuern. *g* (zumindest im Windows betrieb über virtuelle Desktops sollte das doch schon jetzt irgendwie gehn oder?! ) im 3d-Betrieb stell ich mir das komplizierter - mit momentaner Hardware eher unmöglich vor.

Da hast Du eigentlich recht. Und ich muss gestehen, bisher haben wir diese Möglichkeiten gar nicht mal alle durchprobiert. Ist halt schön bequem, wenn man die maximale Auflösung auch über eine Grafikkarte und ein Kabel realisieren kann und weiter keine Arbeit hat :wink:
Aber es stimmt, es wäre es Wert, da mal noch bissel rumzuspielen.

Gruss, Carsten.