PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Farbtiefe - GPU vs. DisplayPort vs. HDMI vs. DVI vs. Monitor


BigKid
2010-12-14, 13:16:02
Hallo allerseits,

DVI ist ja bekanntermassen auf 8 Bit pro Farbkanal limitiert - also 24 Bit Farbtiefe - und das wo TrueColor vs. HighColor mal 3dfx das Genick gebrochen hat ;) und die GPUs eigentlich immernoch in 32 Bit rendern...

HMDI kann mehr - und DVI auch.

Die "besseren" Displays unterstützen ja höhere Farbtiefen auch wieder (und sei es nur was die LookUp Tables betrifft).

Nu is meine Frage wie bekomme ich das eigentlich von der GPU auf den Monitor ?

Mein NecPA241 bietet meines Wissens nach nur Display Port - die meisten Grakas DVI oder HDMI. Habe ich eine Chance die 32 Bit (oder zumindest mehr als 24) an den Monitor zu bekommen ?
Muss ich dazu z.B. bei einem Adapter HDMI auf DisplayPort auf etwas achten ?
Oder kann ich es eh knicken, weil die aktuellen Grakas nur 24 Bit ausgeben - egal an welchem Port ?

puntarenas
2010-12-14, 13:26:02
Kaufberatung war sicherlich das falsche Forum, eher irgendwas zwischen Diskussions- und Hilfethema. Ich habe deinen Beitrag nach "sonstige Hardware und allgemeine IT-News" verschoben. :)

BigKid
2010-12-14, 13:30:30
Kaufberatung war sicherlich das falsche Forum, eher irgendwas zwischen Diskussions- und Hilfethema. Ich habe deinen Beitrag nach "sonstige Hardware und allgemeine IT-News" verschoben. :)

Naja die Frage zielte schon Richtung "was kaufen" damit es klappt ;) ...
Aber ok... Erst mal die Grundsatzfragen klären - danke...

Mr.Magic
2010-12-14, 13:35:45
DVI ist ja bekanntermassen auf 8 Bit pro Farbkanal limitiert - also 24 Bit Farbtiefe - und die GPUs eigentlich immernoch in 32 Bit rendern...

24bit für die Farben, und 8bit für 256 Transparenzstufen. Wo liegt also dein Problem bei DVI?

ps: Ein 2560x1600 Display hat 4096000 bemalbare Pixel...

BigKid
2010-12-14, 13:42:50
24bit für die Farben, und 8bit für 256 Transparenzstufen. Wo liegt also dein Problem bei DVI?

ps: Ein 2560x1600 Display hat 4096000 bemalbare Pixel...

Hmm - darin dass Alpha einen Monitor (und somit das Ausgangssignal einer Graka) überhaupt nicht interessiert - ich bin mir nicht mal sicher, dass es übertragen wird... Zu was bitte soll er den Transparenzinfos nutzen ? Transparent zu was ?
http://de.wikipedia.org/wiki/True_Color
Was du beschreibst mag für Bildateien zutreffen - sofern diese Transparenzinformationen enthalten - was vom Format abhängen dürfte.

Dein PS kann ich nicht deuten... Falls du damit ANDEUTEN willst, dass man den Unterschied eh nicht sieht wiederspreche ich - den sieht man bei bestimmten Szenarien sehr wohl... Nämlich dann wenn Banding auftritt WEIL eben doch Abstufungen fehlen um einen fliessenden Übergang hin zu bekommen...
Wenn du also z.B. einen Blauen Horizont hast, dann hast du da im RL so feine Farbübergänge dass du kein Banding siehst - auf nem Monitor sieht das dann schon anders aus - da hast du dann Sprünge weil nämlich für BLAU gar nicht so viele Farben da sind - streng genommen nämlich 255 ... Plus ein paar Streuungen in andere Farben...
Da sind dann 4096000 bemalbare Pixel plötzlich ne ganze Menge ;)

Mr.Magic
2010-12-14, 13:56:36
Grafikkarten rechnen intern mit 32bit, wovon 8bit für die Transparenz genutzt werden. Schonmal in einem Spiel aus dem Fenster geguckt?
Bei HDR wird teilweise sogar mit 128bit (AFAIR) gerechnet, die Ausgabe erfolgt trotzdem mit 24bit Farbtiefe.

BigKid
2010-12-14, 14:16:49
Grafikkarten rechnen intern mit 32bit, wovon 8bit für die Transparenz genutzt werden. Schonmal in einem Spiel aus dem Fenster geguckt?
Bei HDR wird teilweise sogar mit 128bit (AFAIR) gerechnet, die Ausgabe erfolgt trotzdem mit 24bit Farbtiefe.

Das kann so nicht stimmen...
Wenn das Bild erstmal gerendert ist macht es KEINEN SINN noch Transparenzinformationen zu halten... Wir reden hier von Ausgabeformaten.

Eher Sinn macht das hier:
http://de.wikipedia.org/wiki/Framebuffer
Die Frage ist also ob nun FP32 oder nicht...

DerRob
2010-12-14, 14:23:38
Hmm - darin dass Alpha einen Monitor (und somit das Ausgangssignal einer Graka) überhaupt nicht interessiert - ich bin mir nicht mal sicher, dass es übertragen wird...
Nö, wird es auch nicht. Über DVI bekommt der Monitor 24 bit pro Pixel geliefert (bzw. über DualLink sind auch 48 bit möglich, wenn es denn Grafikkarte und Monitor können).

nymand
2010-12-14, 14:26:08
Das kann so nicht stimmen...
Wenn das Bild erstmal gerendert ist macht es KEINEN SINN noch Transparenzinformationen zu halten... Wir reden hier von Ausgabeformaten.

Eher Sinn macht das hier:
http://de.wikipedia.org/wiki/Framebuffer
Die Frage ist also ob nun FP32 oder nicht...

Die andere Frage ist ja auch, selbst wenn du 32bit an den monitor schicken kannst, wandelt er es dann nicht doch nur in 24bit um ;)

Sailor Moon
2010-12-14, 14:30:17
DVI ist ja bekanntermassen auf 8 Bit pro Farbkanal limitiert - also 24 Bit Farbtiefe - und das wo TrueColor vs. HighColor mal 3dfx das Genick gebrochen hat und die GPUs eigentlich immernoch in 32 Bit rendern...

Eine Ausgabe ist auch mit >8bit pro Kanal möglich. Eizos CG303W unterstützt 10bit pro Kanal per DualLinK DVI, wenn auch nativ nur noch @30Hz.

Die andere Frage ist ja auch, selbst wenn du 32bit an den monitor schicken kannst, wandelt er es dann nicht doch nur in 24bit um
Ein "vernünftiger" Bildschirm arbeitet (aus guten Gründen) intern mit deutlich höherer Genauigkeit als das Eingangssignal. Panelseitig sind echte 10bit Ausführungen dagegen sehr selten (z.B. HP LP2480zx und LG W2420R), auch wenn die Werbung gerne anderes suggeriert. Das bedeutet allerdings nicht, dass man bei Geräten mit dem üblichen 8bit Panel nicht von einer Zuspielung in 10bit pro Kanal profitieren würde. Eine FRC-Schaltung ist i.d.R. implementiert und macht (siehe erster Satz) sowohl bei Zuspielung in 8bit als auch >8bit pro Kanal Sinn.

Gruß

Denis

BigKid
2010-12-14, 14:30:51
Die andere Frage ist ja auch, selbst wenn du 32bit an den monitor schicken kannst, wandelt er es dann nicht doch nur in 24bit um ;)

Tut er unter Umständen, aber recht spät was schon Vorteile bringen kann...
Offiziell bietet er (Nec PA241W) jedenfalls ein 10-Bit P-IPS Display (also immerhin 30 Bit), 14 Bit LUTs und 16 Bit interne Rechengenaugikeit...

Für mich bleibt also die Frage: Kann ich aus einer NV GTX Karte die 32 Bit irgendwie rauskitzeln oder bleibt es bei 8 Bit pro Kanal (+ imho nutzloser Transparenz).

san.salvador
2010-12-14, 14:31:09
Die andere Frage ist ja auch, selbst wenn du 32bit an den monitor schicken kannst, wandelt er es dann nicht doch nur in 24bit um ;)
Er wird wohl einfach die Transparenzinformationen wegschmeißen. ;)

BigKid
2010-12-14, 14:32:32
Eine Ausgabe ist z.B. auch mit 10bit pro Kanal möglich. Eizos CG303W unterstützt das per DualLinK DVI, wenn auch nativ nur noch @30Hz.

Gruß

Denis

Was passiert wenn ich über einen hdmi zu DP Adapter gehe ?
HDMI kann (zumindest in der Theorie) auch höhere Farbtiefen...
Kann das die Graka ?

Sailor Moon
2010-12-14, 14:38:35
Offiziell bietet er (Nec PA241W) jedenfalls ein 10-Bit P-IPS Display (also immerhin 30 Bit), 14 Bit LUTs und 16 Bit interne Rechengenaugikeit...

Es ist ein 8bit Panel mit panelinternem FRC. Zusammen mit der Möglichkeit extern in 10bit pro Kanal zuzuspielen, wird daraus in der Werbung schnell ein 10bit Panel.

Kann das die Graka ?
Im Consumerbereich ist mir derzeit keine Karte bekannt, die wirklich eine Zuspielung in 10bit pro Kanal erlauben würde, auch wenn da oft gegenteilige Vermutungen, aufgrund wiederum schwammiger Werbeaussagen, kursieren.

Gruß

Denis

BigKid
2010-12-14, 14:40:35
Er wird wohl einfach die Transparenzinformationen wegschmeißen. ;)
Ihr seid mir echt Scherzkekse ;) ...

Also für die ungläubigen...
Ne GTX460 z.B. untertstützt laut NV hdmi 1.4a inklusive deep color (30Bit) und xvYCC Color (http://en.wikipedia.org/wiki/XvYCC).

BigKid
2010-12-14, 14:42:33
Es ist ein 8bit Panel mit panelinternem FRC. Zusammen mit der Möglichkeit extern in 10bit pro Kanal zuzuspielen, wird daraus in der Werbung schnell ein 10bit Panel.

Gruß

Denis
Ja... Drumm schrieb ich "offiziell" ...
Trotzdem denke ich dass es einen Unterschied macht ob ich 10 Bit zuspiele und dann die interne Dithering Stufe übernimmt, oder ob ich nur 8 Bit zuspiele...
Dazu kommt dann eventuell noch eine größerer Spielraum für eine eventuelle Softwarekalibration - oder ?

Die Frage ob es überhaupt Grakas im Bezahlbaren Range gibt, die das wirklich können ist schon interessanter... Siehe mein Einwurf zu HDMI 1.4a.

Sailor Moon
2010-12-14, 14:44:03
Trotzdem denke ich dass es einen Unterschied macht ob ich 10 Bit zuspiele und dann die interne Dithering Stufe übernimmt, oder ob ich nur 8 Bit zuspiele...
Dazu kommt dann eventuell noch eine größerer Spielraum für eine eventuelle Softwarekalibration - odaer ?
Ja, das ist richtig. Profitieren würdest du von einer entsprechenden Zuspielung schon.

Gruß

Denis

nymand
2010-12-14, 14:49:25
Ja, das ist richtig. Profitieren würdest du von einer entsprechenden Zuspielung schon.

Gruß

Denis
Ob der Monitor die Umwandlung von 10bit in 8 bit übernimmt (für das 8bit-Panel) oder die Grafikkarte, sollte doch "egal" sein. Vorrausgesetzt, die Algorithmen sind gleichwertig. Wo also der Vorteil?

BigKid
2010-12-14, 14:50:54
Ja, das ist richtig. Profitieren würdest du von einer entsprechenden Zuspielung schon.

Gruß

Denis

Also bleibt die Frage ob ich mit einem hdmi zu dp adapter da rannkomme, denn schliesslich verspricht NV schon bei der GTX460 vollmundig:
http://www.nvidia.com/object/product-geforce-gtx-460-us.html
Fully integrated support for HDMI 1.4a including GPU accelerated Blu-ray 3D4 support, xvYCC, deep color, and 7.1 digital surround sound including Dolby TrueHD and DTS-HD. Upgrade your GPU to full 3D capability with NVIDIA 3DTV Play software, enabling 3D gaming, picture viewing and 3D web video streaming. See www.nvidia.com/3dtv for more details.


Im Consumerbereich ist mir derzeit keine Karte bekannt, die wirklich eine Zuspielung in 10bit pro Kanal erlauben würde, auch wenn da oft gegenteilige Vermutungen, aufgrund wiederum schwammiger Werbeaussagen, kursieren.

Da scheint mir Aufklärung von Nöten :-). xvYCC und Deep Color gibts seit hdmi 1.3 - also nicht erst seit gestern... Wäre schön wenn da mal ein "Profi" versuchen könnte ne Aussage zu zu bekommen - habe mal die Foren durchsucht - es gibt nix definitives... Aber mit der Listung von DeepColor und xvYCC sollte man sie IMHO ggF festnageln können (fehlen einer zugesicherten Eigenschaft).

BigKid
2010-12-14, 15:31:09
Ob der Monitor die Umwandlung von 10bit in 8 bit übernimmt (für das 8bit-Panel) oder die Grafikkarte, sollte doch "egal" sein. Vorrausgesetzt, die Algorithmen sind gleichwertig. Wo also der Vorteil?

Doch... Weil der Monitor seine eigenen Kenngrößen kennt - im Gegensatz zur Grafikkarte. Es ist also besser wenn der Monitor ein 10Bit Signal nimmt, in seiner Lookup Table nachsieht welcher SEINER Farben das entspricht und dann ggF noch dithered. Als wenn die Graka das in Unkenntnis der Monitorspezifikas tut... Vorrausgesetzt der Monitor hat eine entsprechende Genauigkeit zur Verfügung (wie eben z.B. der Nec PA241W)
(Vereinfacht mit meinem gefährlichen Halbwissen wiedergegeben.)

Sailor Moon
2010-12-14, 16:22:19
Da scheint mir Aufklärung von Nöten :-). xvYCC und Deep Color gibts seit hdmi 1.3 - also nicht erst seit gestern.
Völlig richtig. Das sagt aber noch gar nichts darüber aus, was du wirklich heraus bekommst. Ich kenne in der Realität geglückte Zuspielungen vom Rechner aus (bei entsprechender Unterstützung durch die Anwendung) bislang eben nur von den non Consumer Karten (Quadro, FireGL). Die blumigen Werbeaussagen der Hersteller helfen da leider erstmal nicht weiter. Anderes Beispiel: HDMI 1.3 würde ja grundsätzlich auch für eine native Ansteuerung der WQXGA Panels reichen. Die vorhandenen Geräte (trotz HDMI 1.3 Support auf beiden Seiten) lassen sich hier aber dennoch max. in 1080p60 ansteuern.

Ob der Monitor die Umwandlung von 10bit in 8 bit übernimmt (für das 8bit-Panel) oder die Grafikkarte, sollte doch "egal" sein. Vorrausgesetzt, die Algorithmen sind gleichwertig. Wo also der Vorteil?
Ich kenne kein FRC am Grafikkartenausgang. Das müßte man ja auch irgendwie explizit aktivieren können, so dass es transparent auf OS Ebene bleibt.

Gruß

Denis

nymand
2010-12-15, 00:33:18
Doch... Weil der Monitor seine eigenen Kenngrößen kennt - im Gegensatz zur Grafikkarte. Es ist also besser wenn der Monitor ein 10Bit Signal nimmt, in seiner Lookup Table nachsieht welcher SEINER Farben das entspricht und dann ggF noch dithered. Als wenn die Graka das in Unkenntnis der Monitorspezifikas tut... Vorrausgesetzt der Monitor hat eine entsprechende Genauigkeit zur Verfügung (wie eben z.B. der Nec PA241W)
(Vereinfacht mit meinem gefährlichen Halbwissen wiedergegeben.)

Ok, ist ein argument :)

FeuerHoden
2010-12-15, 00:58:22
Ein 10bit Panel macht auch bei 8bit Zuspielung durchaus Sinn. Denn sobald man an den Reglern für Kontrast und Farbtemperatur dreht kann es sein dass mal ein Pixel in einem Bereich landet der in 8bit nicht darstellbar wäre. Wieviel Sinn das hingegen für den Einzelnen macht muss jeder für sich selbst ausmachen.

Sailor Moon
2010-12-15, 01:07:05
Ein 10bit Panel macht auch bei 8bit Zuspielung durchaus Sinn. Denn sobald man an den Reglern für Kontrast und Farbtemperatur dreht kann es sein dass mal ein Pixel in einem Bereich landet der in 8bit nicht darstellbar wäre. Wieviel Sinn das hingegen für den Einzelnen macht muss jeder für sich selbst ausmachen.
Wie gesagt, auch die High-Ender haben i.d.R. ein 8bit Panel. Die Tonwertverluste im Rahmen der Signalverarbeitung werden durch eine entsprechend breite Elekronik vermieden. Damit dann in der eigentlichen Panelansteuerung nicht doch einfach abgeschnitten werden muß, setzt das erwähnte FRC-Dithering auf. Heute oft direkt im Panel beheimatet. Das umgeht man in einem 8bit Workflow auch mit einem echten 10bit Panel nicht. Der HP LP2480zx zeigte hier sogar leichtes spatiales Dithering.

http://www.eizo.de/pool/files/de/EIZO_LCD_Kalibration_Teil3.pdf

Gruß

Denis

BigKid
2010-12-15, 08:26:04
Tja - dann müsste sich jetzt nur noch jemand Berufen fühlen, der Sache mal Nachzugehen. 3DCenter hat sich doch BQ ein wenig auf die Fahnen geschrieben - wäre das nicht ein Thema ?
Ich meine gerade wer ein bisschen mehr für seinen Monitor ausgiebt, der möchte diese Features doch auch nutzen können !

Wer DeepColor oder xvYCC sagt - der muss auch 32 Bit sagen :-)

PatkIllA
2010-12-19, 13:16:56
Im Consumerbereich ist mir derzeit keine Karte bekannt, die wirklich eine Zuspielung in 10bit pro Kanal erlauben würde, auch wenn da oft gegenteilige Vermutungen, aufgrund wiederum schwammiger Werbeaussagen, kursieren. Mein Beamer bestätigt mir 10 bzw 12 Bit Farbtiefe bei meiner 5870. Was da zwischen Framebuffer und Transmitter passiert weiß ich allerdings nicht.