PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie 3 HDR Monitore an RX Vega 64 anschließen?


Geldmann3
2018-12-18, 21:34:09
Hallo, wie in der Überschrift zu lesen frage ich mich, wie ich am besten 3 HDR Monitore mit meiner Vega 64 im Zweitrechner verbinde. Ich werde bald 3 HDR10 4k Monitore hier stehen haben und bisher habe ich nur Erfahrungen mit HDR über HDMI. (Die Monitore haben auch nur HDMI Anschlüsse) Leider hat meine Karte (https://www.notebooksbilliger.de/asus+rog+strix+radeon+rx+vega+64+oc+gaming+8gb+hbm2+grafikkarte) nur zwei HDMI Anschlüsse, wie würde ich dann den dritten Monitor anschließen? Ich würde die Monitore gerne zu einem Eyefinity Setup zusammenschließen um ein paar Games in HDR zu zocken. Wahrscheinlich natürlich meist nicht in nativer Auflösung. Geht HDR über Display-Port oder DVI überhaupt? Also wird dann alles korrekt erkannt? Oder ist das gar nicht möglich?

Oh und was für einen Adapter hätte ich da nötig?

Edit: Nach einiger Recherche habe ich diesen Adapter gefunden, der das können soll https://www.amazon.de/Club-3D-CAC-1080-DisplayPort-Aktiver/dp/B077JB28KM gleichzeitig soll es aber auch große Probleme damit geben. Sodass er nicht alle Modi korrekt überträgt.

Sollte ich vielleicht eine zweite, günstige Grafikkarte neben meine Vega packen, um einen weiteren HDR fähigen HDMI Anschluss zu bekommen?

T86
2018-12-18, 23:07:03
Der Adapter sollte passen

Die einfachen hdmi Adapter für 8€ sind nur für hdmi 1.4
Das geht nur für Full hd vernünftig

Geldmann3
2018-12-19, 00:31:44
Um ehrlich zu sein denke ich, Du stellst Dir das zu einfach vor, da DP ja kein HDR unterstützt scheint dieser Adapter eine Spezialanfertigung zu sein, die laut den Kommentaren auf Amazon allerdings lange nicht perfekt funktioniert. Soll zum Beispiel kein YCbCr 4:2:2 unterstützen, was HDR in Videos problematisch machen soll. Außerdem bezweifle ich, dass das Kabel auch HDCP 2.2 unterstützt, weshalb Netflix in 4k damit nicht möglich sein sollte und auch einige andere Anwendungen den Dienst versagen können.

biohaufen
2018-12-19, 00:54:39
DisplayPort 1.4 unterstützt auf jeden Fall HDR10 und die Vega kann auch DP 1.4 :D
Von dem Adapter scheint es einen Nachfolger mit HDMI 2.0b zu geben (https://www.club-3d.com/de/detail/2442/displayport_1.4_auf_hdmi_2.0b_hdr_aktiver_adapter/)
Aber tatsächlich sieht es so aus als ob am Ende nur YCbCr raus kommt?

Geldmann3
2018-12-19, 01:11:30
Folgender Amazon Kommentar, scheint auf Probleme hinzuweisen. https://www.amazon.de/gp/customer-reviews/R2ISTQELXZCKCS/ref=cm_cr_dp_d_rvw_ttl?ie=UTF8&ASIN=B077JB28KM

Doch ich kann was er schreibt nicht wirklich deuten. Denn einerseits schreibt er, HDR würde funktionieren, doch andererseits auch, dass sich HDR Videos damit nicht anschauen lassen sollen.

Colin MacLaren
2018-12-19, 07:02:04
Wie kommst Du darauf, das Displayport kein HDR unterstützt?

HisN
2018-12-19, 07:55:52
4K "Monitor" nur mit HDMI?
Hört sich für mich nach Fernseher an. Monitore würden mit DP kommen.

Savay
2018-12-19, 10:15:09
Hallo, wie in der Überschrift zu lesen frage ich mich, wie ich am besten 3 HDR Monitore mit meiner Vega 64 im Zweitrechner verbinde.

Ganze einfach...zwei direkt an die DPs und einen an einen der HDMIs.
Die Ausgänge der Vega können prinzipiell alle HDR und HDCP2.2...der Monitor/Display muss es nur unterstützen!

Diese DP -> HDMI Adapter sind davon abgesehen so oder so immer eine Frickelei, da würde ich immer davon ausgehen das im Zweifel immer mal bestimmte Funktionen auf der Strecke bleiben.

(Die Monitore haben auch nur HDMI Anschlüsse)

Tja...Augen auf beim Monitorkauf. :wink:

bnoob
2018-12-19, 10:32:49
Der Adapter macht nur 4:2:2, und afaik auch nur RGB

Quelle: Habe einen

(Ich kann heute Abend nochmal genauer schauen, falls es dir hilft)

Geldmann3
2018-12-19, 18:44:31
Der Adapter macht nur 4:2:2, und afaik auch nur RGB

Quelle: Habe einen

(Ich kann heute Abend nochmal genauer schauen, falls es dir hilft)

Wie würde es denn aussehen, wenn ich mich auf Full HD beschränken würde? Könnte ich dann ein HDR Signal ohne Farbunterabtastung mit dem Adapter durchkriegen? Denn in Games würde ich mit 3 Monitoren nie mehr als FullHD pro Monitor fahren. Und den mittleren Monitor auf dem ich dann z.b. Netflix schaue, würde ich einfach ohne Adapter anschließen.

bnoob
2018-12-19, 22:09:30
Nein, der Adapter gibt *IMMER* 4K aus, egal was du zuspielst

Die Anzeige im Adrenalin ist folgende, Enhanced HDMI Mode am Endgerät, das aber afaik kein HDR von extern kann. Ich kann direkt mit HDMI aber 10 Bit einstellen, nur mit dem Adapter nicht.

https://i.imgur.com/8DlcNDh.png

Geldmann3
2018-12-20, 01:09:41
Danke

Wenn ich das richtig verstehe, gibt der Adapter immer die Zielauflösung aus? Rechnet der also z.b. intern ein 1080p Bild auf 4k hoch? Dann müsste ja ein Scaler verbaut sein. Der Adapter ist etwas günstig dafür, oder?

Und was, wenn das Endgerät wirklich nur ein 1080p, HDR Monitor ist, wie dieser: https://www.amazon.de/dp/B074Z4CNFX
Könnte ich über den Adapter dann 4:4:4 mit HDR zuspielen? Dann kann der Adapter ja kein 4k ausgeben und hätte vielleicht ?Bandbreite? für 4:4:4 frei.

HisN
2018-12-20, 08:00:38
Warum klammerst Du Dich so an HDMI?
Monitore mit DP und HDMI anschaffen und Adapter vergessen.

bnoob
2018-12-20, 13:21:50
Das ist ein aktiver Adapter der gut heiß wird. Und ja, ich glaube an einen Scaler. BILLIG sind die 30€ beileibe für einen Adapter nicht, einen normalen DP 1.2 auf HDMI 1.4 Adapter gibt es für unter 5€.

Ansonsten das was HisN sagt, ich habe den Adapter auch nur, weil mit meiner alten 290X kein HDMI 2.0 ging und der 43" Fernseher einfach deutlich günstiger als ein 40" Monitor war.

Die nächste Frage ist, warum du so sehr dreimal HDR brauchst, dass du für einen sogar auf 1080p gehen würdest. Das müssen ja im Prinzip 3 OLED Displays sein, alles andere ist pure Augenwischerei.

Savay
2018-12-20, 14:25:52
Der Adapter ist etwas günstig dafür, oder?


Es gibt bisher ausschließlich aktive Adapter von DP auf HDMI 2.0.
Ab DP1.3 ist zwar theoretisch auch optional der passive DualMode auf HDMI 2.0 vorgesehen, aber in der Praxis gibt es die Adapter dafür bisher nur bis zu DualMode 1.1 aka HDMI 1.4.

Da der USB-C DisplayPort Alternate-Mode diesen HDMI Dual-Mode übrigens garnicht vorsieht und man dafür dann eh immer aktive Adapter braucht, glaube ich auch nicht das wir die noch sehen werden!
Da wo solche Adapter mit am häufigsten gebraucht werden (Handhelds und Laptops), wird in Zukunft ja klar USB-C dominieren. Sieht man ja jetzt schon, das es bei Neugeräten immer häufiger wird.

Die sind dort übrigens sogar noch günstiger als der genannte oben. (Ich hab hier einen USB-C "DP1.3/1.4" auf HDMI2.0 für 15€...der an sich auch wunderbar funktioniert für UHD@60Hz aber weder HDR noch was anderes als ein 8bit 4:4:4 Signal übertragen will)

Du könntest es höchstens mit so nem passiven Adapter auf "HDMI1.4" ja mal probieren, weil dieser Dual-Mode eigentlich nur den Physical Layer definiert und nicht das drüber liegende Protokoll!
Für HDMI2.0 ist meines Wissens sogar grundsätzlich ein entsprechender Modus vorgesehen, der mit reduzierter Bandbreite von HDMI1.4 arbeitet aber alle sonstigen Erweiterungen der neuen HDMI Versionen nutzt.
Es könnte also ggf. sein das darüber ein "HDMI 2.0a" kompatibles Signal ankommt, aber halt nur mit 9Gbps statt 18...das sollte bei FHD natürlich keine Rolle spielen.
Das hängt aber vielleicht auch davon ab wie sich der Adapter zu erkennen gibt.

Garantien, dass es so dann wirklich funktionieren könnte gibt es m.W. aber nicht...deshalb würde ich der Einfachheit halber wirklich einfach Monitore mit DP1.4 und HDMI2.0a nehmen!

Geldmann3
2018-12-20, 15:25:33
Wenn ich das richtig verstehe, meint ihr, dass ich einen Full HD HDR Monitor über den Adapter nicht in rgb 4:4:4 betreiben könnte? Warum nicht, wenn ich fragen darf? An was fehlt es dem Adapter? Und muss ich ihn überhaupt in 4:4:4 betreiben um z.b HDR Filme und Games zocken zu können? Könnte ich nicht ein Eyefinity Setup mit 4:2:2 erstellen?

Ich frage mich das, wegen dem Zitat aus dem Amazon Kommentar:
HDR funktioniert zwar, was den Adapter einzigartig macht, AAABER:

Nicht in YCbCr 4:2:2 (Desktop ja, HDR Videos nein), weder 10 noch 12bit( 23-60Hz), ebenso wenig wie 4:2:0 10bit (23-60Hz). Und das sind alles zuässige Auflösungen für HDMI 2.0
Warum HDR Video nein? Wo ist der Unterschied zwischen einem Video und dem Desktop?

Also gibt der Adapter nur rgb und nicht YCbCr aus? Wo ist da das Problem?

Wenn ich die selbe Auflösung am PC ausgebe (1080p) wie die native Auflösung des Monitors, sollte der Adapter theoretisch doch nicht heiß werden, weil der Scaler nichts zu tun hat...

Savay
2018-12-20, 15:35:52
HDMI und DP haben einen ganz anderen Phyiscal Layer und das Protokoll ist auch nicht identisch...

Die aktiven Adapter müssen entsprechend von LVDS auf TMDS wandeln und auch die Spannungspegel anpassen etc. pp. und darüber hinaus das komplette Protokoll wandeln!
So ein Adapter hat also immer "was zu tun"! Der reicht in keinem einzigem Fall das Signal einfach so durch ohne es zu verändern...und deswegen gibt es dort immer stärkere Einschränkungen was Farbtiefe angeht etc. pp.
Da hängt es dann davon ab was der Adapter annimmt und auf welches Signal er das wandelt...die meisten können bisher wohl nur 8bit 4:4:4 verarbeiten (egal ob RGB oder YCbCr) unabhängig davon ob aufgrund der Auflösung auch 10bpc ginge oder 4:2:2 oder 4:2:0 möglich wäre usw.
Manche wandeln wohl auch auf eine fixe Auflösung...und das einzige wo diese relativ flexibel sind, sind die Eingangs Auflösungen...zumal damit auch die volle HDMI2.0 Bandbreite machbar ist!

Passive Adapter im Dual-Mode schalten die Treiber des DP (sofern der das kann!) auf eine HDMI Emulation um...das Protokoll und auch der Physikal Layer sind also 1:1 das gleiche wie bei HDMI, die Adapter müssen nur noch eine Spannungswandlung vornehmen soweit ich weiß. (DP Treiber mit 3,3V -> HDMI Pegel mit 5V) Dort ist man dann was die Ausgabe angeht aber genauso flexibel wie mit einem nativen HDMI Anschluss. Ergo alle Farbtiefen etc. pp funktionieren theoretisch wie an einem normalen HDMI Anschluss.
Diese passiven Adapter gibt es aber nur bis HDMI 1.4 womit halt theoretisch a) die Bandbreite fehlt und b) je nachdem wie sich der Adapter meldet halt ein HDMI 1.4 Signal ausgegeben wird...da fehlen dann natürlich alle Erweiterungen wie HDR, CEC, HDCP2.2 usw....die kamen nämlich erst mit HDMI 2.0x dazu!


Warum HDR Video nein?

Wie gesagt...das mit den Adaptern ist am Ende der Tage ein einziges Gefrickel! Darum würde ich in deinem Fall einen großen Bogen machen.

Die taugen durchaus was aber nur wenn man eine Minimalanforderungen an diese hat...aber nicht bei sowas exotischem wie HDR Ausgabe mit ununterbrochener HDCP2.2 Kette!

Zum mal eben was mit dem Beamer an die Wand werfen -> Top.
Als Highend Lösung für eine stationäre Lösung -> Flop.

Geldmann3
2018-12-20, 15:55:15
Da hängt es dann davon ab was der Adapter annimmt und auf welches Signal er das wandelt...die meisten können bisher wohl nur 8bit 4:4:4 verarbeiten (egal ob RGB oder YCbCr) unabhängig davon ob aufgrund der Auflösung auch 10bpc ginge oder 4:2:2 oder 4:2:0 möglich wäre usw.
Manche wandeln wohl auch auf eine fixe Auflösung...und das einzige wo diese relativ flexibel sind, sind die Eingangs Auflösungen...zumal damit auch die volle HDMI2.0 Bandbreite mach

Danke für die Infos!

Wobei der von mir verlinkte Adapter ja explizit mit HDR wirbt, also würde ich doch schon davon ausgehen, dass er es in gewisser Form übertragen kann, oder?

Netflix könnte ich ja auf einen Monitor schauen, der ohne Adapter angeschlossen ist und Spiele sollte es im Eyefinity Setup doch (theoretisch) nicht stören, wenn bei einem Monitor HDCP fehlt.


Vielleicht sollte ich ja doch einfach auf HDR verzichten. Ich muss halt sagen, dass ich im Saturn einige HDR Monitore gesehen habe, die angeblich nur eine Peak-Brightness von 350cd/m - 400cd/m haben, also eigentlich kein richtiges HDR. Doch trotzdem hatte es so einen krassen Pop, ich weiß nicht ob das nur die Software war, aber ich habe mich irgendwie in diesen Look verliebt. Natürlich hatten die darauf mit der PS4 Pro (God of War) wahrscheinlich auch das optimale Material abgespielt. Doch es sah schon sehr lebendig aus, gegen die ohne HDR. (Oder ist es am Ende doch alles nur Einbildung von meiner Seite oder Einstellungssache?) Viele behaupten ja, HDR braucht 600 oder 1000nits. Doch PC Monitore sind ja auch kleiner als TVs. Ich weiß es nicht, sah halt nur überraschend gut aus...

Savay
2018-12-20, 16:02:25
Wobei der von mir verlinkte Adapter ja explizit mit HDR wirbt, also würde ich doch schon davon ausgehen, dass er es in gewisser Form übertragen kann, oder?

Tut er laut dem verlinkten Bericht ja wohl auch...aber scheinbar nur mit bestimmten Kombinationen, was das Eingangs und Ausgangssignal angeht.
Ich hab ihn mangels Bedarf noch nicht getestet und es wohl auch nicht vor...insofern kann ich da im Detail nichts zu sagen. ;)


Netflix könnte ich ja auf einen Monitor schauen, der ohne Adapter angeschlossen ist und Spiele sollte es im Eyefinity Setup doch (theoretisch) nicht stören, wenn bei einem Monitor HDCP fehlt.

Die Frage ist ob die HDCP Kette nicht schon gebrochen ist, wenn nur eines der angeschlossenen Geräte das nicht erfüllt.
Ich hab in diesem speziellen Fall noch keine Erfahrung. (Eyefinity + NF + HDCP 2.2)

Wenn du experimentieren willst...nur zu! :tongue:

Ich verstehe nur nicht wo das Problem ist ein Monitormodell mit DP1.4 UND HDMI2.0a zu nehmen....damit wärst du wohl am flexibelsten.

Geldmann3
2018-12-20, 16:11:31
Ich verstehe nur nicht wo das Problem ist ein Monitormodell mit DP1.4 UND HDMI2.0a zu nehmen....damit wärst du wohl am flexibelsten.
Werde ich vielleicht auch tun^^

Die Frage ist ob die HDCP Kette nicht schon gebrochen ist, wenn nur eines der angeschlossenen Geräte das nicht erfüllt.
Ich hab in diesem speziellen Fall noch keine Erfahrung. (Eyefinity + NF + HDCP 2.2)
Uhh, das ist eine interessante Frage. Stimmt, denn man könnte ja auch den Edge Browser mit Netflix beispielsweise einfach auf das ungeschützte Display ziehen und capturen^^

Wobei die Frage natürlich auch wäre, ob der Adapter HDCP kann.
Auf der Seite von Club 3D steht: • HDCP-Unterstützung

Laut Club 3d soll der wohl generell so ziemlich alles können...

- RGB / YCbCr 4:4:4/4:2:2/4:2:0 Pixel-Format

Savay
2018-12-20, 16:15:02
Doch es sah schon sehr lebendig aus, gegen die ohne HDR. (

Also der Farbraum macht auch schon einiges aus! Das wird oft unterschätzt.

Ansonsten ist eher der absolute Panelkontrast entscheidend...die Peak-Helligkeit ist da (in grenzen!) eher sekundär.
Bestimmte Effekte machen aber noch mehr her, wenn sie ordentlich "blenden".

Geldmann3
2018-12-20, 16:19:21
Ich erinnere mich an so eine Szene mit Sonnenuntergang bei rotem Himmel. Als ich das sah, dachte ich, das so noch auf keinem non-HDR Monitor ansatzweise gesehen zu haben. Trotz nur 350cd/m. - Aber die Wahrnehmung ist sehr subjektiv^^ Müsste ich mir im Prinzip daheim, nebeneinander mal anschauen um sicher zu sein.

Savay
2018-12-20, 16:22:19
Ja, Rot gesättigte Bildanteile gewinnen prinzipiell schon sehr mit DCI-P3 Abdeckung ggü. sRGB/Rec.709...und damit auch div. Abstufungen über Orange bis Gelb und auch gesättigtes Violett usw.!

Das ist auch in div. NF Produktionen sehr auffällig... ;)
Wenn die Displays die du da angesehen hast alle einen erweiterten Farbraum hatten, war das sicher keine Einbildung.

bnoob
2018-12-20, 16:32:33
Ich hab dir doch oben extra alle verfügbaren Optionen aufgelistet...

Er kann aber mit einer Vega 64 kein 10-Bit, und mein Fernseher KANN 10-Bit per HDMI 2.0 empfangen, daran liegt es nicht.

Geldmann3
2018-12-20, 16:46:32
In dem Bild, welches Du gepostet hast, standen doch alle Modi zur Verfügung, ich nehme an, das geht nur mit 8 bit Farbtiefe. Geht unter 10Bit, was denke ich HDR 10 entspricht, nicht wenigstens 4:2:0? Was ja für Netflix oder den gelegentlichen Spielegenuss reichen sollte?

Mein QLED schafft im HDR Modus auch nicht die volle Farbabtastung und sind Videos nicht sowieso mit Farbunterabtastung komprimiert?

bnoob
2018-12-20, 17:50:32
Nein, 10-Bit ist schlicht nicht anwählbar.

Ob es an sich geht weiß ich nicht, aber mit einer Vega 64 mit aktuellem Adrenalin schonmal nicht.

Geldmann3
2018-12-20, 19:25:28
Ich würde den Adapter gerne mal genauer untersuchen. Kann mir jemand sagen, bei welchem deutschen Händler ich die neueste Iteration davon erwerben kann? :biggrin: Finde auf Amazon leider nur die alte auf HDMI 2.0a, doch es sollte schon eine geben, die auf HDMI 2.0b übersetzt.

Mich interessiert es, was passiert, wenn der Zielmonitor nur 1080p ist? Funktioniert der Adapter dann vielleicht gar nicht? Rechnet der immer mit einem 4k Monitor?

bnoob
2018-12-21, 00:46:07
Solange der TV kein b kann bringt dir das auch nichts

Geldmann3
2019-01-12, 09:17:40
Also ich habe den Club-3D Adapter jetzt im Triple-Monitor Betrieb mit HDR Monitoren getestet, ich bekomme mit der Vega64 alle Optionen geboten, welche ich auch bekomme, wenn ich den Monitor direkt anschließe. Selbst 12 Bit Farben lassen sich auswählen und der Sound funktioniert.

Zudem gibt der Adapter bei mir nicht wie unten von bnoob beschrieben immer 4k aus. Wenn ich am PC 1080p einstelle, gibt er auch definitiv 1080p aus.

Heißt nicht, dass ich den anderen Berichten nicht glaube, irgendetwas scheint mit in der Hardwarekonfiguration anders bei mir zu sein.

Bedenken hatte ich ja auch beim Input-Lag, weil es ein aktiver Adapter ist. Doch selbst wenn ich das Bild mit 120FPS filme, kann ich keine Verzögerung messen. Der zusätzliche Input Lag ist folglich nicht vorhanden oder kleiner als 8,33ms.

Doch einen Bug habe ich scheinbar am Adapter gefunden. Etwa einmal am Tag schaltet er sich aus, dann bekommt der entsprechende Monitor nur noch ein schwarzes Bild. Dann hilft es nur das HDMI-Kabel neu anzustecken, manchmal hilft auch ein aus- und einschalten des Monitors weiter. Ich hoffe jetzt das Ding geht nicht, wie in manchen Berichten erwähnt, innerhalb von kurzer Zeit kaputt. Habe gerade mal gefühlt wie warm der Adapter wird und nein, sehr warm ist er bei mir nicht. So 38°C vielleicht.

T86
2019-01-12, 09:26:42
Wo hast du denn jetzt bestellt?

Geldmann3
2019-01-12, 10:32:23
Habe es auf Amazon (https://www.amazon.de/gp/product/B077JB28KM/ref=ppx_yo_dt_b_asin_title_o00__o00_s01?ie=UTF8&psc=1) bestellt. Ist allerdings leider nicht die neueste Iteration mit dem B.

Uhh, no, just in diesem Moment ist der Adapter wieder aus gegangen. :confused: Dieses Verhalten gefällt mir gar nicht. Einmal die Auflösung zu ändern hilft auch um den Adapter wieder zum Leben zu erwecken. Als wäre er in einer Art Schlafmodus. Er sendet dann auch weiterhin ein Bild an den Monitor, allerdings eben ein rein Schwarzes und der PC merkt nicht mal dass er weg ist.