Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD macht "High Dynamic Range" (HDR) zum Thema der Radeon R400 Serie
Leonidas
2015-12-08, 19:14:27
Link zur News:
http://www.3dcenter.org/news/amd-macht-high-dynamic-range-hdr-zum-thema-der-radeon-r400-serie
7michel7
2015-12-08, 19:45:43
"Die maximalen 10.000 cd/m²..., das Jahr 201 soll hier gerade einmal den Sprung von ..."
sollte 2016 sein, oder?
Mal sehen, was draus wird.
OBrian
2015-12-08, 20:24:16
das scheint aber keine AMD-Erfindung zu sein, sondern einfach etwas, das von Hollywood ausgeht und wo AMD aufspringt, was sich anbietet, da ihre Hardware es ja schon seit Jahren kann.
Naja aber AMD macht sich die Mühe HDR für die User verfügbar zu machen.
Ob der Aufwand groß oder klein ist spielt keine Rolle, sondern das AMD Karten HDR bereitstellen solange ein passendes Display angeschlossen ist und die Spiele es unterstützen.
Das es sich im einen offenen Standard handelt sollten insbesondere besitzer von nVidia Karten begrüßen. Wenn denn nVidia und Intel bereit sind HDR auch für ihre Kunden verfügbar zu machen, haben alle mehr davon weil so wesentlich mehr kompatible Displays auf den Markt kommen.
Als Hobby-Fotograf fände ich einen deutlich erweiterten Farbraum am PC sehr interessant, wobei ich mich erstmal in die Details einlesen muss...
Jene sollen allerdings noch nicht die maximale für HDR sinnvolle Leuchtdichte bieten: Die maximalen 10.000 cd/m² wird es wohl erst in einigen Jahren geben, das Jahr 201 soll hier gerade einmal den Sprung von derzeit 1000 cd/m² auf dann 2000 cd/m² bringen.
Viel mehr ist da aktuell auch nicht sinnvoll (wobei derzeit 1000cd/m² deutlich zu hoch gegriffen sind, mehr als 300-500cd/m² sind es real kaum) der Sprung von 8 auf 10bit pro Kanal erhöht die Luminanzauflösung gerade mal auf das 4-Fache.
Technisch gelöst wird dies über eine Bildberechung und dann Bildausgabe in einem größeren Farbraum, welcher von 8 Bit auf 10 Bit pro Farbkanal ansteigt – wenn man wollte, könnte man eingedenk der zu Anfang der 3D-Zeiten geführten Auseinandersetzung um "16 Bit Farbtiefe vs. 32 Bit Farbtiefe" bei (diesem) HDR ergo von einer "40 Bit Farbtiefe" sprechen.
Nicht wirklich bei der Ausgabe sind es 24bit vs. 30bit, der Alphakanal wurde noch nie zum Ausgabegerät übertragen.
Wobei auch fraglich ist was davon überhaupt sinnvoll für HDR verwendet werden kann/soll. Gerade im Blaukanal sind die Abstufungen mit nur 8 bit ziemlich grob, da sollte man die 10bit eher dafür verwenden das zu verfeinern.
Auch bedeutet HDR nicht nur hohe Helligkeit, sondern vor allem auch hohen Kontrast. Mit LCDs ist der nicht wirklich erreichbar und OLED ist doch noch immer einiges vom Massenmarkt entfernt.
Flusher
2015-12-08, 22:41:44
Mit LCDs ist der nicht wirklich erreichbar und OLED ist doch noch immer einiges vom Massenmarkt entfernt.
Quatsch - hier gibt es ein OLED Display mit HDR
http://geizhals.de/panasonic-tx-65czw954-a1319606.html?hloc=at&hloc=de
Absolutes Schnäppchen :biggrin:
Leonidas
2015-12-09, 03:25:41
Nicht wirklich bei der Ausgabe sind es 24bit vs. 30bit, der Alphakanal wurde noch nie zum Ausgabegerät übertragen.
Richtig natürlich. Aber bei 30-Bit denkt der Grafikjünger "weniger als 32 Bit" ... deswegen hab ich das in ein verständlicheres Schema umgerechnet.
"Die maximalen 10.000 cd/m²..., das Jahr 201 soll hier gerade einmal den Sprung von ..."
sollte 2016 sein, oder?
Yep. Gefixt.
Milchkanne
2015-12-09, 08:49:10
Da wird aber auch einges durcheinander gewürfelt, insbesondere vom Marketing. Da wird SDR ein Konstrast von 2000:1 zugesprochen und HDR ein Kontrast von 20Mio. Die Farbauflösung steigt aber nur um den Faktor 4 (von 8 auf 10 Bit). Bei heutigem Kontrastumfang reichen ja aber schon 8 Bit (256 Abstufungen) nicht aus. Mit HDR (im Sinne von mehr Kontrastumfang) sollte man eher gleich auf 14 oder 16 Bit gehen. Dafür bleibe ich auch gerne erstmal bei FullHD.
Ich bin mal gespannt, worauf es hinausläuft.
Das gute ist das zumindest bei DP 1.3 AMD nicht viel machen muss den das werden auch die Pascals bekommen.
Beim Monitorsupport mache ich mir da auch keine Sorgen das hier DP 1.3 2016 nicht einzug finden wird, bildet es auch einen guten Verkaufsgrund für die Monitorhersteller.
Eher ist es wie immer die Software die hier das Nadelöhr darstellt.
Das beste an der ganzen Sache ist das DP 1.3 endlich kommt was auch Vorteile bringt wenn man kein HDR nutzt.
Der Panasonic mag zwar neben einem LG 1080 p für 2000€ Oled sehr teuer wirken, dafür ist es aber auch der erste OLED der die Krankheiten der bisherigen OLEDS auch sonys oder Samsungs sehr gut ausbügelt.
Daher ist der Panasonic halt nun so etwas wie Pioneer damals . Teuer aber für Heimkinofans das Geld Wert.
Der einzige Schachpunkt ist das der Pana fürs gamen nicht geeignet ist da das ausbügeln der bisherigen Schwachstellen von OLED massiv Rechenleistung schluckt und die LAtenz fürn "ARSCH" ist.
Ausserdem gabs da noch viel teuere TVs damals um 100k von einer Luxusfirma mit Pana Panel zb. daher wenn hier die Leute von "teuer" sprechen wissen sie nicht das die Grenze nach oben sehr weit offen ist wenn man das beste will und es sich leisen kann :biggrin:.
NeoTiger
2015-12-09, 09:25:38
Als Hobby-Fotograf fände ich einen deutlich erweiterten Farbraum am PC sehr interessant, wobei ich mich erstmal in die Details einlesen muss...
Mit HDR Bildern kann doch mittlerweile jedes gute Bildbearbeitungsprogramm arbeiten. Die Frage ist doch, ob du einen erweiterten Farbraum auch am Monitor brauchst. Möchtest du wirklich Bilder von der Sonne in originalgetreuer Helligkeit am Monitor betrachten? Versuch da mal den Mauszeiger noch zu erkennen.
MrSpadge
2015-12-09, 12:04:25
Das es sich im einen offenen Standard handelt sollten insbesondere besitzer von nVidia Karten begrüßen. Wenn denn nVidia und Intel bereit sind HDR auch für ihre Kunden verfügbar zu machen, haben alle mehr davon weil so wesentlich mehr kompatible Displays auf den Markt kommen.
Ich seh schon nVidia demnächst mit propritärem "NDR" kontern, und irgendwas ominös besser machen (z.B. 11 Bit pro Kanal statt 10). Das standardmäßige HDR unterstützen sie dann nur halbherzig mit 9 Bit, um die Vorteile ihrer Technologie zu zeigen (ähnlich wie bei CUDA vs. OpenCL). Und Intel schaut zu und hält erstmal für ein paar Jahre die Füße still.
(bin mit meiner GTX970 sehr zufrieden, hätte aber schon gerne FreeSync, und sei es nur über die Intel GPU)
MrS
Denn geht es 2016 ja richtig rund, mit Mantle, True Audio und HDR Gaming.
Oder es gesellt sich gleich zu den pile of shame der missverstandenen AMD standards.
Richtig natürlich. Aber bei 30-Bit denkt der Grafikjünger "weniger als 32 Bit" ... deswegen hab ich das in ein verständlicheres Schema umgerechnet.
Stimmt trotzdem nicht, der Framebuffer ist immer noch 32bit, eben 3x 10 bit fr die Farben und nur mehr 2 bit für alpha.
Auch der Vergleich mit 16bit ist nicht wirklich zielführend, da dort in der Regel gar kein alpha-kanal existiert.
Zielführend sind höchstens vergleiche ohne Alpha-Kanal und da sind es eben 16, 24 und jetzt 30 bit.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.