PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 8Bit <-> 10Bit Farbtiefe


gedi
2017-08-08, 22:12:07
Mir ist bereits vor längerem aufgefallen, dass ein Unterschied bez. der Performance bei 8Bit <-> 10Bit Farbtiefe besteht. Bei 10Bit verliere ich in etwa 10%. Kann mir jemand erklären warum dies so ist.

aufkrawall
2017-08-08, 22:38:27
Ist das nur mit Nvidia so?

gedi
2017-08-08, 23:14:20
Weiß ich nicht. Der PC ist halt an einem 4k 10-Bit HDR-TV angeschlossen. Nun viel mir auf, dass die Performance im Vgl. einiger Reviews bei mir Crap ist. Schuld war/ist die Farbtiefe.

Rente
2017-08-08, 23:20:31
Wie ist der PC angeschlossen und welche Einstellungen für die Farbunterabtastung/chroma subsampling sind aktiv gewesen?

Radeonfreak
2017-08-08, 23:27:47
Also hier an meinem Monitor gibt es keinerlei Performanceunterschiede zwischen 8bit und 10bit.

Rente
2017-08-08, 23:46:34
Also hier an meinem Monitor gibt es keinerlei Performanceunterschiede zwischen 8bit und 10bit.
Über DP oder über HDMI? Darüber hinaus, dein Monitor hat nur 1440p, oder?

Radeonfreak
2017-08-08, 23:47:37
Ja. DP.

gedi
2017-08-08, 23:56:25
Wie ist der PC angeschlossen und welche Einstellungen für die Farbunterabtastung/chroma subsampling sind aktiv gewesen?

Angeschlossen ist der PC via HDMI am TV mit einem 4:2:2-Setting (zwecks HDR). Ob jetzt allerdings 4:2:2 oder aber 4:4:4 macht performancetechnisch keinen Unterschied.

Firestrike GPU-Score: 26.8k <-> 29.5k
FS Ultra 6.9k <-> 7.3k
FS Timespy 9.3k <-> 10.4k
F1 2016 72FPS <-> 81FPS
Witcher 3 ~71FPS <-> 82FPS
Horizon lags in der Stadt <-> sorgenfreie Performance

Rente
2017-08-09, 00:01:43
Interessant, eine technische Erklärung dürfte es dafür eigentlich eher nicht geben, eventuell ein Bug des Nvidia-Treibers. Kannst du deswegen ggf. mal bei Blaire anfragen?

P.S.: Wenn das Blaire liest - kannst du das klären?

fulgore1101
2017-08-09, 11:06:14
Ich stelle dazu mal unbedarft eine Frage: Wenn mehr Bildinformationen berechnet werden müssen, warum sollte sich das nicht negativ auf die FPS auswirken?

w0mbat
2017-08-09, 11:48:05
Überlegung: color compression bringt mehr Bandbreite, als auch mehr Leistung. Wenn man 10Bit nutzt kann man vielleicht nicht so viel komprimieren?

gedi
2017-08-09, 12:43:39
Am schlimmsten ist es in Metro LL: Hier sind es 35FPS <-> 68FPS :freak:

Was mir noch auffiel: Ich habe am Notebook meist wesentlich höhere Werte mit meiner 1070, als dass was so im 3dk-Benchthread gepostet wird (ca. 19.7k). Anmerken möchte ich dazu, dass die GPU durchgehend lediglich mit 1.73G läuft, das Panel allerdings nur mit 6-Bit auflöst.

CD-LABS
2017-08-09, 18:39:34
Ich stelle dazu mal unbedarft eine Frage: Wenn mehr Bildinformationen berechnet werden müssen, warum sollte sich das nicht negativ auf die FPS auswirken?
Weil die meisten Farbberechungen in viel höherer Genauigkeit durchgeführt und dann bloß unterschiedlich weit runtergerechnet werden.


Extrembeispiel: Du berechnest ein Bild und wandelst es danach in SchwarzWeiß um (sprich alles über X% Helligkeit wird weiß, alles drunter wird schwarz) vs. du "rechnest" es auf halb so viele Farben runter sollte letzteres höchstens mehr Speicher fressen, aber nicht mehr Leistung fressen.

Heimscheißer
2017-08-13, 16:55:26
Gibts hier was neues? Ist/war es ein Bug oder ne Einstellung? Würde mich auch sehr interessieren....

TheAntitheist
2017-08-13, 18:07:10
Wie ist der PC angeschlossen und welche Einstellungen für die Farbunterabtastung/chroma subsampling sind aktiv gewesen?
das gibts nur bei Videos/Bildern...:rolleyes:

Wenn der PC rendert geht das über RGB und nicht YCbCr

wiki sagt das auch: Farbunterabtastungen finden sich in der Videotechnik, bei digitalen Bildformaten wie JPEG und im Bereich der Farbfernsehtechnik.
Das alles geschieht also nachdem die frames gerendert wurden.

Ja 10bit kostet mehr Leistung:

http://www.pcgameshardware.de/screenshots/original/2017/02/HDR-frisst-Frames-pcgh.jpg

aufkrawall
2017-08-13, 18:08:13
Das gibts auch fürs Bildsignal.

TheAntitheist
2017-08-13, 18:30:52
Das gibts auch fürs Bildsignal.
ist aber erstens nicht nötig und zweitens warum sollte das die Grafikkarte belasten? darum ging es doch...

aufkrawall
2017-08-13, 18:41:18
1. für manche TVs mitunter schon, oder wenn man Bandbreite für eine höhere Refreshrate sparen will, und 2. kann sein.

Rente
2017-08-13, 20:49:20
ist aber erstens nicht nötig und zweitens warum sollte das die Grafikkarte belasten? darum ging es doch...
Natürlich ist es nötig, versuch mal RGB + HDR bei 10 Bit (oder mehr) über ein HDMI-Kabel zu bekommen.
Darüber hinaus könnte diese Anpassung durchaus Leistung kosten, allerdings nicht in diesem Ausmaß.

gedi
2017-08-13, 20:57:42
Natürlich ist es nötig, versuch mal RGB + HDR bei 10 Bit (oder mehr) über ein HDMI-Kabel zu bekommen.
Darüber hinaus könnte diese Anpassung durchaus Leistung kosten, allerdings nicht in diesem Ausmaß.

Dumme Frage, aber könnte ein besseres Kabel das Problem lindern? BTW. vielen Dank, dass sich hier dem Thema angenommen wird :up:

TheAntitheist
2017-08-13, 21:07:57
Dumme Frage, aber könnte ein besseres Kabel das Problem lindern? BTW. vielen Dank, dass sich hier dem Thema angenommen wird :up:


https://upload.wikimedia.org/wikipedia/commons/6/63/Displayport.svg

Hübie
2017-08-14, 00:14:46
Sorry, aber ich verstehe den Graphen nicht. Mein Zweitmonitor hat z.B. 3840 x 2160 Pixel und dem Bild zufolge reicht ein DP Kabel mit vier Links (2,7 GHz) nicht aus? :confused:

Lowkey
2017-08-14, 00:47:41
Die Grafik ist alt.

Irgendwer hat doch mal erklärt, warum wir 8bit + FRC statt 10bit haben, auch wenn die Panels 10bit können? Offensichtlich schafft DP 1.2 3440x1440 mit 8bit + FRC bis 100hz, aber für mehr ist kein Platz.

Gast
2017-08-25, 17:49:50
Ist das nur mit Nvidia so?

Würde mich auch interessieren.
Für die Zukunft bedeutet es ja -10% Abschlag an Performace Nvidia's Karten zugunsten der Bildqualität.

http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/HDR-Youtuber-entdeckte-dass-Nvidia-bei-Monitorvergleich-trickste-1229790/

Gast
2017-08-26, 01:38:26
http://www.gamestar.de/artikel/der_technik_trend_2016,3271227,seite2.html

HDR kostet Nvidias Karten bis 12% Leistung. AMD verliert 2-3%.

gedi
2017-09-01, 23:30:16
Ich möchte mich doch nochmals einklinken denn wirklich heftig wird's mit 12Bit - 25% weniger, wobei die Darstellung grandios ist! Was ich nicht verstehe: Was zeigen mir RTSS, der 3dk Score, usw. an? Die Frames bis zum Port, oder bis zum Endgerät - sprich TV? Wenn Vsync nicht aktiv ist, dann sollte es doch bis zum Port sein, was oben nett gemeinte Grafik ad absurdum führt.

Ach ja noch ewtas: In PUBG hänge ich mit 12-Bit immer bei 330W Verbrauch, sprich Vbios-Limit. Mit 8-Bit sind es ~300W und ebend kein Limit. Kann mir diesen Scheiß mal einer erklären?

Sailor Moon
2017-09-02, 00:14:18
Irgendwer hat doch mal erklärt, warum wir 8bit + FRC statt 10bit haben, auch wenn die Panels 10bit können?
Das ist nur eine Sache der Paneltreiber (FRC panelintern 10bit => 8bit). Nach außen hin gibt es für den Scaler keinen Unterschied, es handelt sich in beiden Fällen um LVDS-Links mit 10bit Nutzdatenfarbtiefe.

Gast
2017-09-12, 14:56:55
@gedi
Kannst du deine -25% Aussage bei 12bit mit ein paar Zahlen untermauern? Das ist höchst interessant, weil alle Benches ihre Validität bei HDR komplett verlieren würden.

Ich vermute, dass die "effiziente" Color-Compression bei Nvidia unter 8bit nicht weiter auffällig ist. Aber bei 10/12bit kann man nicht mehr "optimieren" weil der HDR Effekt dann weg wäre.

Wenn sich das bestätigt, ist das ein Desaster für Nvidia Besitzer, weil AMD Karten wahrscheinlich keine solche Schwäche zeigen, da intern ohne starke Kompression gerechnet wird.