PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 17. November 2016


Leonidas
2016-11-18, 11:42:31
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-17-november-2016

AMD-Gast
2016-11-18, 12:11:51
@Leo

Da hast Du dich etwas verfranzt, es gibt HDMI 2.0a/b Chips die bis zu 18Gbit/s schaffen. Da muss man nichts reduzieren. Die Farbraumwerte müssen nur bei 'normalen' HDMI Chips mit bis zu 10,2Gbit/s unter UHD@60hz (4:2:0 oder 4:2:2) reduziert werden.

Der Standard gibt also deutlich mehr her. Die Industrie rund um die Fernsehgeräte (Flat-TV) setzt auch auf Chips mit höherem Durchsatz. Warum man so was nicht in die PS4 Pro verbaut, fragt man sich, wenn man das Feature schon bewirbt. Wahrscheinlich kann es die Hardware nicht, siehe Outputlines von P10.

Gast
2016-11-18, 12:27:03
Also wenn der 8C Zen wie bei WCCFT im Zusammenhang gemeldet die 3.5 Turbo packt und Basis 3.3 und für typisches OC 4.2 dann wäre das eine echte Hausnummer.
Wenn man dann sagt, man ist gleich schnell wie ein 6C Intel mit 3.6 Basistakt und 3.8 Turbo, dann wird wohl beim Gaming ohne DX12/Vulkan bzw. DX11 der intel Clock4Clock schneller sein, aber mit Skalierung über Threads wäre wohl der AMD gleichgut, allemal viel billiger.

Erinnert an die PhenmomX6, die fast alle gerne 4GHz erreicht haben und auch von gut programmierter Software - echtes Multithreading - abhängig waren.

Bei allen Fortschritten die AMD gemacht hat ist wohl die wichtigste Frage ob das Multithreading der Konsolen mit 8C sich auf der PC-Software gleichermassen auswirkt.
Ohne DX12 und Vulkan sehe ich da schwarz, es wird spannend ob sich im Timing für 2017 endlich entsprechende Erfolge schon in den "kommerziellen" Lauch-Reviews der PC-Spiele zeigen.....

Cyphermaster
2016-11-18, 13:16:42
Bei "Vogel-Schiss kühlt Arktis [Scinexx]" geht der Link fehlerhaft auf www.3dcenter.org.

Redirion
2016-11-18, 14:46:29
wo es hier mal wieder um die Unzulänglichkeiten von HDMI geht: Es gibt ja sowieso die anhaltenen Gerüchte, dass man bei einem PC-Monitor niemals HDMi verwenden sollte, weil z.B. Nvidia-Karten (früher?) den PC-Monitor dann auch immer nur mit 4-2-2 ansprechen würden, auch bei Auflösungen unter 4k. Offiziell würde der PC-Monitor dann auch als Fernseher geführt. Weiß nicht, ob das noch bei Nvidia aktuell ist.

Meine Grafikkarte unterstützt beispielsweise HDMI 1.4a (R9 290). Mein Monitor bietet nur HDMI und DVI als Anschlüsse. FullHD@60Hz. Sollte ich nun Dual-Link DVI-D bevorzugen gegenüber HDMI?

raumfahrer
2016-11-18, 21:12:40
@Leo

Da hast Du dich etwas verfranzt, es gibt HDMI 2.0a/b Chips die bis zu 18Gbit/s schaffen. Da muss man nichts reduzieren. Die Farbraumwerte müssen nur bei 'normalen' HDMI Chips mit bis zu 10,2Gbit/s unter UHD@60hz (4:2:0 oder 4:2:2) reduziert werden.

Der Standard gibt also deutlich mehr her. Die Industrie rund um die Fernsehgeräte (Flat-TV) setzt auch auf Chips mit höherem Durchsatz. Warum man so was nicht in die PS4 Pro verbaut, fragt man sich, wenn man das Feature schon bewirbt. Wahrscheinlich kann es die Hardware nicht, siehe Outputlines von P10.

Die HDMI 2.0 Spezifikationen versprechen in der Tat bis zu 18 Gbps [1].
Allerdings nutzt HDMI 8b10b [2], überträgt pro "echtem" Byte also 10 Bits. Das
kann auf zwei Wegen berücksichtigt werden. a) nur 80% der Bandbreite sind
effektiv verfügbar (nur 8 von 10 Bits tragen Information), also 14.4 Gbps, oder
b) zwar steht die volle Bandbreite zur Verfügung, jedoch muss auf den Payload
25% aufgeschlagen werden (für 8 Bits Information müssen 10 übertragen werden).

Das führt dann zu der beschriebenen Situation. Übrigens korrekt angegeben in
der offiziellen FAQ [3].

[1] http://www.hdmi.org/manufacturer/hdmi_2_0/
[2] https://de.wikipedia.org/wiki/8b10b-Code
[3] http://www.hdmi.org/manufacturer/hdmi_2_0/hdmi_2_0_faq.aspx#146