PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Performance-Verlust mit HDR-Monitoren?


Seiten : 1 [2]

Drunk Master
2018-07-20, 16:18:01
Natürlich kann man das durch den Treiber fixen. Da dieser ja für den "Verlust" an Frames verantwortlich ist.

Technisch gesehen kostet HDR ja nichts. Warum wurde hier ja schon mehrmals geschrieben.
Daher kann man sagen , AMD´s Treiber sind in diesem Fall (HDR)einfach besser.

vinacis_vivids
2018-07-20, 17:50:11
Natürlich kann man das durch den Treiber fixen. Da dieser ja für den "Verlust" an Frames verantwortlich ist.

Anscheinend sind die Leute hier im Forum schlauer als Nvidia. Der HDR Treiber kommt bestimmt gleichzeitig mit dem DX12 Treiber :tongue:

hmmm
2018-07-20, 18:18:45
https://abload.de/img/unbenanntf3d4q.png
4*FP16? oder 1*32 Geraffel? ;)

Digidi
2018-07-20, 18:40:31
Wenn ihr euch so sicher seid, dass es eine Hardware-Sache ist, wo kommen dann die Unterschiede zwischen den Spielen und auch Karten her?
Vielleicht geben manche Spiele kein HDR aus?

Birdman
2018-07-20, 20:26:27
Anscheinend sind die Leute hier im Forum schlauer als Nvidia. Der HDR Treiber kommt bestimmt gleichzeitig mit dem DX12 Treiber :tongue:
Gerüchte besagen er kommt gleichzeitig mit Horn's Wundertreiber für Radeons

TGKlaus
2018-07-21, 12:47:26
Tja, da sind wir also jetzt (wieder) soweit, wie vor einem Jahr.

Bloss wurde damals jeder, selbst wenn der das Ganze mit eigenen Messungen untermauerte, massiv angegangen.

Hätte sich damals(tm) die "Fachpresse" diesem Thema angenommen, hätten wir längst einem Patch von Nvidia (falls per Patch möglich).

Bloss steht ja dummerweise Nvidia unter Artenschutz. Und die "IT-Fachpresse" ist eher ein Comedyverein.

hmmm
2018-07-21, 13:49:48
Absturz für Nvidia! Und dabei wurde die BQ noch nicht einmal berücksichtigt denn da hat sich bei Nvidia auch nichts getan. Eigentlich eine Frechheit.

OT:
Bei dem Test wurde der Asus PG27UQ benutzt und der kann wirklich nur 4:2:2? Ich meine das Teil Kostet ca 2500€ und kann wirklich kein DSC? Kann doch nicht sein oder gibt es limitierungen wegen dem GSync Modul?

Darkman.X
2018-07-21, 14:55:03
4:2:2 wird genutzt, wenn man HDR mit 120/144 Hz möchte. 4:4:4 bekommt man nur bis 98 Hz. Mehr gibt DP 1.4 einfach nicht her. Und DSC? Die Frage wurde schon häufig gestellt, keine Ahnung wieso es nicht eingesetzt wird. Hätte es den Monitor noch teurer gemacht? Oder kostet das Komprimieren / Dekomprimieren Zeit, was (beim Gaming) zu Inputlag führt?

=Floi=
2018-07-21, 18:38:30
Dachte es liegt bei NV an der besser optimierten normalen farbkompression und zB bei HDR muss nochmal ein loop gemacht werden und verliert dann performance?!

Also nicht fixbar imho.
Gsync und HDR sind aktuell sowieso noch unbezahlbar.


Ich war der meinung, die 64er ist zum großteil schneller wie die normale 1080er?!

Sven77
2018-07-21, 18:50:30
Das wurde alles schon in diesem Thread geklärt, einfach von vorne lesen und auch Codas Eingaben dazu beachten.

Darkman.X
2018-07-21, 20:08:46
Noch etwas zum Thema HDR bei Nvidia:
Nicht nur World of Warcraft

sondern auch in HDR Spielen kackt NVIDIA ab bin total enttäuscht. 10-20% Leistungsverlust. SOWAS darf nicht sein.

https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/2/
Tät mich nicht wundern, wenn Windows 10 v1803 wieder Ärger macht oder die spezifischen HDR-Settings die je nach Game mal die Windows-HDR Settings nutzen oder jene welche NVIDIA anbietet vorzieht, das ist je nach Game unterschiedlich. Mass Effect Andromeda z.b. nutzt NVIDIA eigene


Das ist aus dem Nvidia-Treiber-Thread. MEA (ein Gameworks-Titel) ist ja auch das einzige Spiel, wo Nvidia mit HDR nicht verliert. Bei den anderen Titeln weiß ich nicht ob die auch Gameworks nutzen. Was ich auch nicht weiß: Warum klappt HDR mit Gameworks besser?

N0Thing
2018-07-21, 20:25:46
Und warum hat AMD weniger Probleme mit dem problematischen Windows 10 v1803?

Linmoum
2018-07-21, 20:35:49
Die Gamestar hat Ende 2016 sicherlich nicht mit v1803 gebencht und schon zu diesem Zeitpunkt war auffällig, dass die Performance mit HDR bei Nvidia deutlich stärker einbricht.

Insofern keine Ahnung, warum man das jetzt auf 1803 schieben sollte.

SKYNET
2018-07-21, 21:39:37
Die Gamestar hat Ende 2016 sicherlich nicht mit v1803 gebencht und schon zu diesem Zeitpunkt war auffällig, dass die Performance mit HDR bei Nvidia deutlich stärker einbricht.

Insofern keine Ahnung, warum man das jetzt auf 1803 schieben sollte.

weil NV immer die schuld bei anderen sucht, nur nie bei sich selber... man ist ja so perfekt und unfehlbar... :rolleyes:


die zeiten als NV noch fehler eingestanden hat, sind ab/seit der FX 5800 vorbei X-D

BlacKi
2018-07-21, 21:42:31
jeder einzelne der HDR nutzt und die geringere performance bemängelt hat recht. NV fix it!

ein glück bin ich davon nicht betroffen...

unl34shed
2018-07-21, 23:05:03
weil NV immer die schuld bei anderen sucht, nur nie bei sich selber... man ist ja so perfekt und unfehlbar... :rolleyes:

Wenn es wie bei Maxwell Async Compute läuft, gibt es in ein Paar Tagen ein Pressemeldung, das es einen Treiber fix geben wird.... und dann passiert nichts.

Mit der nächsten Generation wird es dann etwas besser implementiert sein. Die Meute wird es ja fressen.

Zur not ist ja immer noch die Fanbase da, die das ganze klein redet.

Linmoum
2018-07-22, 00:27:39
jeder einzelne der HDR nutzt und die geringere performance bemängelt hat recht. NV fix it!

ein glück bin ich davon nicht betroffen...
Wie gesagt, dass ist ja nicht erst seit dem aktuellen CB-Test "bekannt" und deswegen bezweifle ich, dass das durch 'nen simplen Fix via Treiber mal eben behoben wird/werden kann. Immerhin gab's die ersten Andeutungen hinsichtlich schlechterer HDR-Performance bereits 2016. Jetzt kommt es halt nur etwas größer an die Öffentlichkeit.

Ist aber natürlich ein wenig blöd. Groß mit UHD, 144Hz, G-Sync und HDR werben und dann brechen die Karten bei letzterem teilweise massiv ein. Wahrscheinlich wird's mit Turing gefixt sein, damit jeder interessierte brav upgraden darf. ;)

SKYNET
2018-07-22, 14:50:36
Wie gesagt, dass ist ja nicht erst seit dem aktuellen CB-Test "bekannt" und deswegen bezweifle ich, dass das durch 'nen simplen Fix via Treiber mal eben behoben wird/werden kann. Immerhin gab's die ersten Andeutungen hinsichtlich schlechterer HDR-Performance bereits 2016. Jetzt kommt es halt nur etwas größer an die Öffentlichkeit.

Ist aber natürlich ein wenig blöd. Groß mit UHD, 144Hz, G-Sync und HDR werben und dann brechen die Karten bei letzterem teilweise massiv ein. Wahrscheinlich wird's mit Turing gefixt sein, damit jeder interessierte brav upgraden darf. ;)

war doch damals schon so... mit DX9 geworben, und absolut unbrauchbar gewesen im gegensatz zu (damals noch) ATI ;D

tEd
2018-08-18, 17:24:43
https://www.youtube.com/watch?v=9q6f8I0cRHg

Noch ein HDR , SDR Test

Interessant Vergleiche zwischen SDR , HDR , Gsync HDR

y33H@
2018-08-25, 20:10:21
Grade mit aktuellem Treiber mal Assassin's Creed Origins mit der GTX 1080 Ti auf Ultra in 1440p mit SDR und HDR laufen lassen - identische Performance. Ich mache nachher mit CoD WW2 und Shadow of War weiter ...

vinacis_vivids
2018-08-28, 09:00:28
Grade mit aktuellem Treiber mal Assassin's Creed Origins mit der GTX 1080 Ti auf Ultra in 1440p mit SDR und HDR laufen lassen - identische Performance. Ich mache nachher mit CoD WW2 und Shadow of War weiter ...

Welche Einstellung hast du denn genau vorgenommen?

Ich hoffe "RGB 4:4:4"...
Und bitte mit Screenshots (abfotographiert) wäre super.

Schnoesel
2018-08-28, 09:34:43
Warum sollten sie das fixen? Nvidia wird sagen ist gefixt im Form neuer Hardware in Turing. Bitte kaufen! Danke!

dildo4u
2018-08-28, 09:48:51
Die meisten Vergleiche waren mit der 1080.Möglich das die 1080 Ti genug Bandbreite hat um das Aufzufangen.Könnte mit ein Grund sein warum diesmal sogar die 2070 fast 500GB/Sec hat.

vinacis_vivids
2018-09-06, 15:17:24
Grade mit aktuellem Treiber mal Assassin's Creed Origins mit der GTX 1080 Ti auf Ultra in 1440p mit SDR und HDR laufen lassen - identische Performance. Ich mache nachher mit CoD WW2 und Shadow of War weiter ...

und weiter gehts...

HXbY7zAHZjk

GTX1080 + Asus Swift PG27AO (non HDR)
GTX1080 + Sony X9400E TV (True 4k HDR, 1000)

Ergebnisse: 2160p - high settings - HDR enhanced

Game|SDR avg|HDR avg|SDR min|HDR min|perf avg|perf min
AC: Origins|58fps|52fps|42fps|34fps|-10%|-19%
Mass Effect Andromeda|56fps|47fps|41fps|39fps|-16%|-5%
Destiny 2|74fps|66fps|69fps|53fps|-11%|-23%
Star Wars BF2|61fps|47fps|54fps|40fps|-23%|-26%
FC5 - Lost on Mars|54fps|46fps|42fps|34fps|-15%|-19%
Shadow of War|47fps|40fps|42fps|35fps|-15%|-17%
Forza Motor 7|93fps|85fps|86fps|71fps|-9%|-17%
Resident Evil 7|82fps|77fps|77fps|69fps|-6%|-10%
Battlefield 1|95fps|87fps|84fps|77fps|-8%|-8%
COD WW2|107fps|99fps|92fps|85fps|-7%|-8%
Hitman|66fps|54fps|54fps|47fps|-18%|-13%
Final Fantasy XV|60fps|47fps|53fps|44fps|-22%|-17%
Summe 12 Games|---|---|---|---|-13%|-15%

Screemer
2018-09-06, 16:45:03
das zeigt dann auf jeden fall, dass die ti wohl durch die höhere bandbreite nicht betroffen ist. alle darunter sind gearscht :D

vinacis_vivids
2018-09-06, 17:04:38
das zeigt dann auf jeden fall, dass die ti wohl durch die höhere bandbreite nicht betroffen ist. alle darunter sind gearscht :D

Über die Karte wurde verschiedenes berichtet, wobei ich die Aussage von y33H@ für fehlerhaft halte Aufgrund von fehlenden Angaben zur Testmethodik.
Auch die 1080Ti verliert wie alle Pascals performance im HDR, nicht (nur) wegen fehlender Bandbreite, sondern Architekturbedingt, color compression und so... :wink:

Sven77
2018-09-06, 17:08:57
wegen fehlender Bandbreite, sondern Architekturbedingt, color compression und so... :wink:

ich raste aus mit dir.. das alles hat nix mit HDR zu tun

dildo4u
2018-09-06, 18:07:35
Wie gesagt, dass ist ja nicht erst seit dem aktuellen CB-Test "bekannt" und deswegen bezweifle ich, dass das durch 'nen simplen Fix via Treiber mal eben behoben wird/werden kann. Immerhin gab's die ersten Andeutungen hinsichtlich schlechterer HDR-Performance bereits 2016. Jetzt kommt es halt nur etwas größer an die Öffentlichkeit.

Ist aber natürlich ein wenig blöd. Groß mit UHD, 144Hz, G-Sync und HDR werben und dann brechen die Karten bei letzterem teilweise massiv ein. Wahrscheinlich wird's mit Turing gefixt sein, damit jeder interessierte brav upgraden darf. ;)

Als wenn Pascal schnell genug wäre um diesen Monitor vernünftig zu nutzen.

gravitationsfeld
2018-09-06, 18:15:13
Über die Karte wurde verschiedenes berichtet, wobei ich die Aussage von y33H@ für fehlerhaft halte Aufgrund von fehlenden Angaben zur Testmethodik.
Auch die 1080Ti verliert wie alle Pascals performance im HDR, nicht (nur) wegen fehlender Bandbreite, sondern Architekturbedingt, color compression und so... :wink:
Nein.

vinacis_vivids
2018-09-06, 18:34:33
Hat alles sehr wohl mit HDR, also Farbuntertastung zu tun und man sieht das banding bei Nvidia stärker als bei AMD. Die secret soße "4th Gen Delta Color Compression" steht hier zur Debatte:

https://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/8
"As a reminder, delta color compression is a per-buffer/per-frame compression method that breaks down a frame into tiles, and then looks at the differences between neighboring pixels – their deltas."

New to Pascal is a mix of improved compression modes and new compression modes. 2:1 compression mode, the only delta compression mode available up through the 3rd generation, has been enhanced with the addition of more patterns to cover more scenarios, meaning NVIDIA is able to 2:1 compress blocks more often.

Meanwhile, new to delta color compression with Pascal is 4:1 and 8:1 compression modes, joining the aforementioned 2:1 mode. Unlike 2:1 mode, the higher compression modes are a little less straightforward, as there’s a bit more involved than simply the pattern of the pixels. 4:1 compression is in essence a special case of 2:1 compression, where NVIDIA can achieve better compression when the deltas between pixels are very small, allowing those differences to be described in fewer bits. 8:1 is more radical still; rather an operating on individual pixels, it operates on multiple 2x2 blocks. Specifically, after NVIDIA’s constant color compressor does its job – finding 2x2 blocks of identical pixels and compressing them to a single sample – the 8:1 delta mode then applies 2:1 delta compression to the already compressed blocks, achieving the titular 8:1 effective compression ratio.

https://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/3
Delta color compression is essentially focused on pattern compression instead of region compression, compressing based on the differences (delta) between pixels rather than how they’re identical; if you can describe how the pixels will differ from one-another, then you can save space describing the delta instead of the individual pixel. Delta color compression works off of the same blocks and essentially applies different delta patterns to them, attempting to find the best pattern for the block.

The importance of color compression cannot be understated. The impact of 3rd generation delta color compression is enough to reduce NVIDIA’s bandwidth requirements by 25% over Kepler, and again this comes just from having more delta patterns to choose from. In fact color compression is so important that NVIDIA will actually spend multiple cycles trying different compression ratios, simply because the memory bandwidth is more important than the computational time.

btw:
egal wie oft ihr dies wiederholt, eure Theorie wird in der Praxis einfach nicht besser. Banding und miese fps bleiben.

https://www.realworldtech.com/tile-based-rasterization-nvidia-gpus/

Ich denke, dass der "tiled based immediate-mode rasterizer"-TBR in Verbindung mit DCC keine sauberen frames hinbekommt, weshalb bei HDR wieder auf den "full-screen immediate-mode rasterizer" (wie gewöhnlich bei AMD) umgestellt wird. Der Bandbreitenersparnis geht dadurch verloren und Pascal bricht ein.

Banding:
Stärkeres Banding mit HDR bei Nvidia und hinten am Turm keine Details, nicht LOD, sondern eher falsche delta.
https://abload.de/thumb/hdr-himmel-2-nv-rgb-8m4exq.jpg (https://abload.de/image.php?img=hdr-himmel-2-nv-rgb-8m4exq.jpg)
Bei AMD sieht man mehr Details hinten/unten rechts am Turm/Berg, Himmel zeigt kaum banding.
https://abload.de/thumb/hdr-himmel-4-amd-8-bi89cij.jpg (https://abload.de/image.php?img=hdr-himmel-4-amd-8-bi89cij.jpg)

Iscaran
2018-09-06, 20:22:09
Ich weiss nicht inwiefern das hilft - aber scheinbar hilft Rapid Packed Math bei der HDR-Darstellung auch etwas:
https://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf
"For applications that can leverage this capability, Rapid Packed Math can provide a substantial improvement in compute throughput and energy eciency."
...
Modern games, for example, use a wide range of data types in addition to the standard FP32. Normal/direction vectors, lighting values, HDR color values, and blend factors are some examples of where 16-bit operations can be used.
With mixed-precision support, “Vega” can accelerate the operations that don’t benefit from higher precision while maintaining full precision for the ones that do. Thus, the resulting performance increases need not come at the expense of image quality.


Das würde allerdings bedeuten dass es z.B. auch einen Unterschied bei HDR zwischen Vega/Fury und älteren GCN-Archs geben dürfte. Was AFAIK eher nicht den Messwerten entspricht.
Wobei Polaris womöglich was HDR betrifft das auch gut kann.
(DENN: http://gaming.radeon.com/wp-content/uploads/sites/7/2016/08/Polaris-Architecture-Whitepaper-Final-08042016.pdf
Siehe Figure 13 !) Auch Polaris kann für HDR 32bit fixed- und 64bit FP nutzen.
Also ein Indiz dass AMD hier FP64 nutzen kann um effizienter HDR zu rendern.

Wenn das zutrifft würde nVidia nicht wirklich Performance "verlieren" mit HDR - nur AMD wäre "effizienter im HDR-Rendering" und hätte damit wieder weniger Probleme damit die Rohperformance auf die Strasse zu bringen (z.T. brauchen die AMD GPUs ja 20-30% mehr Gflops für dieselben FPS wie Geforce Pendants, wenn man so will könnte man sagen AMD hat aktuell ein "IPC"-Problem ähnlich wie es Bulldozer vs Core hatte).
Mit HDR könnte das dann wieder abgemildert sein ?

Vielleicht könnt ihr mit den Info-Schnipseln noch mehr anfangen.

dildo4u
2018-09-06, 20:28:24
PCGH hat wieder neue HDR Tests im Heft,dort gibt es ein vernichtendes Fazit nur ein Game fühlt sich nicht deutlich träger mit HDR an.Far Cry 5 mit Freesync 2.Bis dieses allgemeine Problem nicht gelöst wurde ist das Ringen um ob eine Karte nun 5 oder 10% verliert nebensächlich.

Ex3cut3r
2018-09-06, 20:34:21
OK mag ja sein, aber wie viele PC User benutzen denn schon HDR? Dürfte eine einstellige Prozentzahl sein. Wie viele Games am PC mit Windows sehen damit auch wirklich besser aus? Reshade + VA Panel mit 2500-4000:1 Hallo?

Ein Video von einem Youtuber mit russischen Akzent in English, bescheinigt auch Windows 10 eklatante Fehler in der Darstellung z.B im Desktop. Dazu kommt noch, dieses "Fake" HDR mit diversen IPS Panels von LG. Das ist doch alles richtig Fett Beta. Bis das wirklich mal die Masse erreicht mit richtigen OLED Monitoren vergehen im PC Bereich noch etliche Jahre, bis dahin ist Pascal und auch Turing schon wieder alter Schinken.

Fazit: Viel Lärm um nichts.

Monsta
2018-09-06, 21:19:06
OK mag ja sein, aber wie viele PC User benutzen denn schon HDR? Dürfte eine einstellige Prozentzahl sein. Wie viele Games am PC mit Windows sehen damit auch wirklich besser aus? Reshade + VA Panel mit 2500-4000:1 Hallo?

Ein Video von einem Youtuber mit russischen Akzent in English, bescheinigt auch Windows 10 eklatante Fehler in der Darstellung z.B im Desktop. Dazu kommt noch, dieses "Fake" HDR mit diversen IPS Panels von LG. Das ist doch alles richtig Fett Beta. Bis das wirklich mal die Masse erreicht mit richtigen OLED Monitoren vergehen im PC Bereich noch etliche Jahre, bis dahin ist Pascal und auch Turing schon wieder alter Schinken.

Fazit: Viel Lärm um nichts.

Schwachsinn, viele neue Fernseher können das, und die kann man super am PC betreiben.
Und wir sind hier bei 3dcenter , hier habe Leute max Hardware und Fernseher.

Screemer
2018-09-06, 21:28:03
Da sollte man noch anmerken, dass er als Enthusiast sich natürlich ne 2080ti bestellt hat. Ziel ist natürlich nicht bestmögliche Bildqualität wie bei anderen.

MadCat
2018-09-06, 21:43:43
OK mag ja sein, aber wie viele PC User benutzen denn schon HDR? ...

Wenn der Hersteller eben dieser Karten Benchmarks mit HDR und ggf. auch noch mit G-Sync auf der Vorgängerserie nutzt - wissend, das die FPS einbrechen - um sein neues Produkt besser dastehen zu lassen, dann hat das schon ein gewisses Geschmäckle...

woodsdog
2018-09-06, 21:49:37
Beta ist bei HDR gar nix mehr. Das Zeug steht bei Otto-Normal-verdient-etwas-über-Durchschnitt im Wohnzimmer. Nur weil die Industrie es nicht geschissen bekommt für uns PC-Randgruppe passende Bildschirme zu liefern, bedeutet das nicht, es würde noch nicht angekommen sein...

Die Bilder von vinacis_vivids lassen zumindest mich mal aufhorchen. Lässt Pascal hier Qualität ungefragt liegen? Wenn ja, ist es cheating in meinen Augen...
Wie relevant das Thema bei einem 2 Jahre altem Chip dann in der Praxis tatsächlich ist, sei mal dahingestellt. Aufklärung schadet sicher nicht.

Disclaimer: ich bin 570, 1080 und PS4 Pro + HDR TV Besitzer

N0Thing
2018-09-06, 23:50:50
Die Bilder von vinacis_vivids lassen zumindest mich mal aufhorchen. Lässt Pascal hier Qualität ungefragt liegen? Wenn ja, ist es cheating in meinen Augen...

Die Bilder sind wertlos, da nicht der gleiche Bildinhalt zu sehen ist. Ob die Unterschiede am HDR liegen, oder an der Wolke, die evtl. die Beleuchtung verändert kann man nicht sicher sagen.


Das würde allerdings bedeuten dass es z.B. auch einen Unterschied bei HDR zwischen Vega/Fury und älteren GCN-Archs geben dürfte. Was AFAIK eher nicht den Messwerten entspricht.

RPM sollte keine Rolle spielen, weil das extra vom Entwickler angesprochen werden muss und es bisher nur Far Cry 5 und Wolfenstein: New Colossus eingesetzt wird.

Iscaran
2018-09-07, 09:45:21
Aber die "RPM"- Transistoren/Einheiten können eben auch für fixed 32 und FP64 genutzt werden.
Die sind wohl "flexible" einsetzbar. Was bei HDR eben was bringt. So versteh ich das.

N0Thing
2018-09-07, 10:47:12
Vega10 hat keine dedizierten RPM-Einheiten. Es werden weiterhin FP32 ALUs genutzt, diese können aber bei passendem Format zwei FP16 Berechnungen gleichzeitig durchführen. FP64 kann Vega10 nur mit 1/16 der Rate der FP32 Berechnungen, aus der Richtung kann man auch keine Beschleunigung erwarten.
FP16 könnte etwa bei HDR color values benutzt werden, das bedeutet aber nicht, dass es dafür genutzt wird. Intern in der Engine wird nach Entwicklerangaben eh schon mit HDR gerechnet, d.h. ob das Spiel von Haus aus FP16 nutzt oder nicht, macht bei der HDR-Ausgabe keinen Unterschied.

y33H@
2018-09-07, 11:45:47
Ich habe intern momentan wegen den Geforce RTX auch SDR vs HDR am laufen ... den Performance Verlust von Computerbase kann ich keinesfalls bestätigen, in nahezu allen Spielen verringert sich die Bildrate einer Geforce GTX 1080 (Ti) um nur etwa 5 Prozent, bei einer Vega 64 ein bisschen weniger.

hmmm
2018-09-07, 12:15:15
Computerbase hat keine TI getestet sondern "nur" eine normale 1080 vs Vega64. Es war ja davon auszugehen, dass eine TI wegen der Speicherbandbreite eben weniger einbricht. Von der desaströsen Qualität bei Nvidia reden wir lieber nicht. Da sieht HDR 10Bit 4:4:4 schlimmer aus als bei amd HDR 8Bit 4:2:2.

N0Thing
2018-09-07, 12:16:45
Ist denn das Setup ähnlich wie bei Computerbase? Also gleicher Monitor für SDR und HDR, Auflösung 3.840 × 2.160 und auch die folgenden Einstellungen im Treiber?

"In SDR-Spielen nutzt der Monitor den RGB-Farbraum bei 8 Bit, in HDR YCbCr mit einer Farbunterabtastung von 4:2:2 bei 10 Bit. Die AMD- und die Nvidia-Grafikkarte wurden entsprechend im Treiber konfiguriert."

y33H@
2018-09-07, 13:25:48
Auf dem 4K 55er LG OLED sind nur 8 Bit RGB möglich, auf dem Samsung C27HG70 aber 10 Bit RGB in 1440p ... Performance Verlust ist identisch.
Von der desaströsen Qualität bei Nvidia reden wir lieber nicht. Da sieht HDR 10Bit 4:4:4 schlimmer aus als bei AMD mit HDR 8Bit 4:2:2.Ah ja, Quelle?

pilzsammler2002
2018-09-07, 14:23:37
Ah ja, Quelle?
Glaube bei Gamestar gab es damals derbe Unterschiede in der Optik :wink:

y33H@
2018-09-07, 14:33:17
Nicht glauben, nachlesen ... klang damals bei Shadow Warrior harmlos:
AMD hat aber gleichzeitig leichte Vorteile bei der Darstellung des Himmels [...] Während bei der Nvidia-GPU meist leichte Farbsäume zu sehen sind, stellt die AMD-Grafikkarte die Übergänge weicher dar [...] In Sachen Bildqualität hat AMD die Nase also insgesamt leicht vornhttps://www.gamestar.de/artikel/was-ist-high-dynamic-range-hdr-auf-dem-pc-ausprobiert,3271227,seite2.html

pilzsammler2002
2018-09-07, 14:58:13
Nicht glauben, nachlesen ... klang damals bei Shadow Warrior harmlos:
https://www.gamestar.de/artikel/was-ist-high-dynamic-range-hdr-auf-dem-pc-ausprobiert,3271227,seite2.html

Ok das "derbe" kann ich noch retten weil es auf der Nvidia Grafikbugs gab (Ärmel z.B.) :freak:

aufkrawall
2018-09-07, 15:02:46
Das lässt wohl eher auf ein allgemeines Problem zum damaligen Zeitpunkt mit dem Spiel und Nvidia (+HDR) schließen.

pilzsammler2002
2018-09-07, 15:09:20
Das lässt wohl eher auf ein allgemeines Problem zum damaligen Zeitpunkt mit dem Spiel und Nvidia (+HDR) schließen.
Bis auf den Grafik-glitch war es in allen nachfolgenden Test immernoch so das die Probleme (performance) gleich blieben.

y33H@ ist jetzt der erste der es testet und sagt das es nur geringe Unterschiede gibt...
Dagegen stehen mehrere Test wie z.B. Computerbase, Gamestar, Gamernexus (oder war es Hardware unboxed?) und Erfahrungsberichte von Gedi z.B. :biggrin:

y33H@
2018-09-07, 15:12:10
Es liegt offenbar an 4K mit 120 Hz wie dem Asus-Monitor ... mit einem 4K60-TV oder einem 1440p144-Bildschirm brechen die Geforces nicht bzw nur minimal ein.

pilzsammler2002
2018-09-07, 15:23:20
Es liegt offenbar an 4K mit 120 Hz wie dem Asus-Monitor ... mit einem 4K60-TV oder einem 1440p144-Bildschirm brechen die Geforces nicht bzw nur minimal ein.
Gamestar hat nur in "Full HD, Detailstufe »Ultra«, RGB, 8 Bit" getestet...

y33H@
2018-09-07, 15:26:04
Ich wäre beim damaligen frühen HDR-Stadium vorsichtig und würde nur aktuelle Werte zur Einschätzung heranziehen.

Ex3cut3r
2018-09-07, 15:35:32
Ja, aber HDR ist doch keine Beta mehr laut "woodsdog" :rolleyes:

Welcher 1440p144 HDR Bildschirm ist das eigentlich? Mit IPS...sieht das bestimmt ganz toll aus mit "HDR"

Ich bleibe dabei, ohne OLED im Monitorbereich, kannst du HDR doch vergessen. Und bis das im PC Bereich endlich mal kommt, vergehen noch weitere 5 Jahre. Bis dahin ist Turing oder Pascal Steinzeit Hardware. Mir tuen solchen Leute wie y33H@ leid, er muss für 1% der Weltweiten HDR User am PC, jetzt das Haar in der Suppe finden.

Savay
2018-09-07, 15:40:03
Es hindert dich doch niemand dran nen OLED TV an den PC zu klemmen! :freak:

Ex3cut3r
2018-09-07, 15:41:26
Es hindert dich doch niemand dran den OLED TV an den PC zu klemmen! :freak:

Und was hat man dann davon außer Input Lag des Grauens?

Ergibt für keinen Sinn. Wer einen OLED 55" hat, der wird auch eine PS4 Pro drunter haben. Stattdessen willst du mit dem Bughaufen Windows 10 beschäftigen? Aktivier mal HDR in den Optionen mit einem LG IPS Monitor -> Plötzlich ein Pinkstich in allen Farben. Microsofts Verständnis von HDR. :freak:

Savay
2018-09-07, 15:42:12
Und was hat man dann davon außer Input Lag des Grauens?

Selbst wenn: Wo ist der Unterschied zu ner Konsole?! :facepalm:
Davon abgesehen...für div. Single Player Spiele reicht der Inputlag (LG bspw.) bei einigen Modellen durchaus locker aus...zumindest alles was eh nen Konsolenport ist und was man bequem mit nem Controller zocken kann/will ist es ja wohl total wurscht.


Wer einen OLED 55" hat, der wird auch eine PS4 Pro drunter haben.

Nö! :P

Das einzige woran HDR@PC krankt ist die Softwareunterstützung...das Problem ist aber eher ein Spiele- und Contentseitiges.

Sven77
2018-09-07, 15:44:45
er muss für 1% der Weltweiten HDR User am PC, jetzt das Haar in der Suppe finden.

Bist du nicht 21:9 user?

y33H@
2018-09-07, 15:47:22
Welcher 1440p144 HDR Bildschirm ist das eigentlich? Mit IPS ... sieht das bestimmt ganz toll aus mit "HDR" ...Samsung C27HG70

Savay
2018-09-07, 15:49:07
Also nix mit IPS.

Zumal mir eh nicht klar ist, was die Geräte (TV/Monitor; VA/IPS/OLED) überhaupt mit dem eigentlichen Thema zu tun haben!
Entweder die GPU wird mit HDR Ausgabe langsamer oder eben nicht...die Schnittstelle, der Gerätetyp oder gar das eingesetzte Panel ist da doch komplett wurscht.

Kleine Ausnahme: FreeSync 2 HDR mit passendem Spiel. Wenn schon vor der Übertragung passend getonemapped wird, spart es im zweifel halt ein paar ms an Latenz...auf die Performance sollte aber auch das im Idealfall keinen Einfluss haben.

N0Thing
2018-09-07, 16:59:21
Auf dem 4K 55er LG OLED sind nur 8 Bit RGB möglich, auf dem Samsung C27HG70 aber 10 Bit RGB in 1440p ... Performance Verlust ist identisch.

Hast du beide Monitore mit der gleichen Schnittstelle getestet? Also vermutlich HDMI? Und warum überhaupt zwei unterschiedliche Geräte, man hätte doch SDR und HDR am C27HG70 testen können, oder nicht?
Ich frage nur nach, weil mich der Grund für die Unterschiede interessiert, nicht um dich zu nerven. ;)

y33H@
2018-09-07, 17:46:41
Nein, der Samsung läuft per Displayport weil ich HDMI für das Oculus Rift brauche und der 4K OLED per HDMI weil der kein DP hat ^^ ich habe einfach beides ausprobiert eben um zu sehen ob es sich anders verhält, gerade auch bezüglich 10 Bit und RGB/YCbCr.

vinacis_vivids
2018-09-07, 18:28:57
@Iscaran:


https://www.cl.cam.ac.uk/~rkm38/pdfs/mantiuk15hdri.pdf

https://abload.de/img/screenshot_2018-09-075eepp.png

fp16 spart gegenüber fp32 die hälfte an Speicherbedarf ein bei gleicher Flexibilität(Qualität). Polaris uArch (1/1 fp16) spart also bei HDR Bandbreite ein und Vega uArch (2/1 fp16) spart ebenfalls ein bei beschleunigter Berechnung, die aber verpufft, da fp16 Anteil in Games sehr gering ist. Wichtig: Qualität bleibt gleich.

Bei Pascal sind es 1/64 fp16, also praktisch nutzlos bei HDR, womit wieder auf fp32 zurückgegriffen werden muss. Da der Speicherbedarf für HDR hier doppelt so hoch wird, gehen sowohl Speicher,- als auch fp32-Rechenleistung verloren.

1080: 1733Mhz, 8,873Tflops, 320GB/s -> 36GB/Tflops
1080Ti:1582Mhz, 11,340Tflops, 484GB/s -> 42,7GB/Tflops

Mit fp64 double precision hat es aber direkt nichts zu tun.

Leider hat y33H@ nur mit 1440p getestet, wo die 1080Ti noch stärker in CPU-Lastige Szenen läuft und hat daher keine Aussagekraft für die Höhe der Performanceverluste unter HDR@2160p.

Iscaran
2018-09-07, 23:22:59
Naja aber das passt ja dann mit dem was ich oben verlinked hatte.

AMD kann sehr flexibel ihre Shader schalten zwischen FP16, FP32, FP64...da AMD eh ein PRoblem mit der Auslastung der Shader hat - haut das HDR hier nicht so rein weil man nun "endlich" die 20% Unterauslastung der Shader in Nutzen umwandeln kann.

Sieht man ja gut an den GFLops / FPS zahlen wenn man die AMD/nVidia Archs direkt vergleicht.
Eine 1080 hat mit ca 9 GFlops dieselbe "FPS-Leistung" wie eine Vega 64 mit ca 12 GFlops.

Mit HDR aber das "mehr GFlops" braucht als SDR-Rendering...sinken die FPS bei nVidia leicht (um den Mehrbedarf - da die Shader ja eh schon auf 100% laufen) während AMD nun die 3GFlops "ungenutzte Reserve", die bislang verpufft sind (da Shader ja nur zu 70-80% ausgelastet wurden), endlich wieder mitnutzen kann.

Ergo AMD gewinnt an "Effizienz" und verringert dadurch den Abstand zu nVidia.

Eigentlich brauchen aber BEIDE mehr GFlops / Frame um HDR zu rechnen.

Sven77
2018-09-07, 23:33:13
Eigentlich brauchen aber BEIDE mehr GFlops / Frame um HDR zu rechnen.

Ah sie rechnen schon seit Ewigkeiten HDR!!

vinacis_vivids
2018-09-08, 14:28:57
Vom HDR-Rechnen allein kommt noch kein HDR Bild, dazwischen gibs, insbesondere bei NV noch einige zu beachtende "Zwischenschritte".

Sven77
2018-09-08, 14:31:29
Vom HDR-Rechnen allein kommt noch kein HDR Bild, dazwischen gibs, insbesondere bei NV noch einige zu beachtende "Zwischenschritte".

Ja dann hau mal raus

vinacis_vivids
2018-09-08, 14:47:53
HDR RENDERING ON NVIDIA GPUS
http://on-demand.gputechconf.com/gtc/2017/presentation/s7394-tom-true-programming-for-high-dynamic-range.pdf

gravitationsfeld
2018-09-08, 20:33:56
Hat alles sehr wohl mit HDR, also Farbuntertastung zu tun und man sieht das banding bei Nvidia stärker als bei AMD.
Nein.

Auf deinen sonstigen Bullshit geh ich erst gar nicht ein. Es gibt keine verlustbehaftete Kompression fuer Frame-Buffer-Daten. Auf keiner Karte.

pilzsammler2002
2018-09-08, 22:11:16
Mich würde dann trotzdem der performance Verlust interessieren. Es wird/wurde dauernd gesagt das HDR keine Performance kostet, aber das ist ja anscheinend (bzw nachweisbar) nicht der Fall :freak:
Also das warum...

gravitationsfeld
2018-09-09, 21:40:27
Ich weiss es nicht, aber es liegt nicht an der Render-Pipeline. HDR-Buffer sind seit Jahren ueberall staendig im Einsatz und nein, NVIDIA hat da keine Performance-Probleme damit.

pilzsammler2002
2018-09-10, 08:49:42
Ich weiss es nicht, aber es liegt nicht an der Render-Pipeline. HDR-Buffer sind seit Jahren ueberall staendig im Einsatz und nein, NVIDIA hat da keine Performance-Probleme damit.

Dann wäre natürlich die Frage wo es sonst haken kann? :biggrin:
An meinem HDR hatte ich bisher immer nur den Ryzen 2400G :freak:

hmmm
2018-09-10, 09:25:06
Dann wäre natürlich die Frage wo es sonst haken kann? :biggrin:
An meinem HDR hatte ich bisher immer nur den Ryzen 2400G :freak:
Irgendwo muss es ja herkommen, das vorallem 10 Bit HDR 4:4:4 gegenüber 8 Bit 4:4:4 (oder gar 4:2:2) so einbricht, trotz relativ schlechter HDR Qualität (Banding). Offensichtlich greift eine Optimierung hier nicht mehr. Wird etwa schon vor dem rendern auf die "Ausgabe Konnektivität" optimiert? :O

gravitationsfeld
2018-09-11, 03:26:36
Ich glaube es klemmt irgendwie beim Scanout. Was wirklich komisch ist, aber sonst faellt mir nichts ein.

pilzsammler2002
2018-09-11, 08:12:48
Ich glaube es klemmt irgendwie beim Scanout. Was wirklich komisch ist, aber sonst faellt mir nichts ein.

Kann man das nicht nachschauen wo er am Ende hängt?
Bei AMD gibt es ja den GPU Profiler von gpuopen, gibt es sowas auch für Nvidia (als Entwickler)? ;)

gravitationsfeld
2018-09-12, 05:48:11
Man braucht nicht mal Vendor-Tools, GPUView luegt nicht. Ist nur bisschen arg kryptisch.

pilzsammler2002
2018-09-12, 09:03:24
Oh interessant dass es dort was "neutrales" gibt :)

Kann man damit halbwegs fix solche Probleme untersuchen, oder benötigt man viel Einarbeitungszeit?

Iscaran
2018-09-12, 09:24:47
https://graphics.stanford.edu/~mdfisher/GPUView.html

Ist allerdings glaub ich nicht so gaaaanz einfach damit zu arbeiten.

Iscaran
2018-09-12, 13:53:54
Hmmm - wurde das schon verlinked ?
https://www.guru3d.com/news-story/hdr-benchmarks-perf-impact-on-amd-(-2)-vs-nvidia-(-10)-12-games-at-4k-hdr.html

The performance loss is likely due to the way NVIDIA converts RGB to reduced chroma YCbCr 4:2:2 in HDR (we discussed that previously here) which was used for HDR testing. If they used 4:4:4 or RGB, the performance would be the same as SDR. Considering GSYNC Ultra HD monitors bog down to 4:2:2, this looks the be the most plausible explanation.


Inwiefern deckt sich das ggf. mit den neuen Tests bei PCGH ? Hatte CB evtl. G-Sync an oder sowas ?
Dann wäre der Perf. Drop aber nur wegen des G-Syncs bei nVidia ?

Die Ursache für die Color Compression scheint eher die Bandbreite der Anschlüße zu sein:
https://www.guru3d.com/news-story/asus-and-acer-uhd-g-sync-hdr-monitors-forced-to-use-color-compression-at-120144-hz.html

Allerdings schreibt CB dass sie in Ihrem Test folgendes eingestellt hatten und zwar für BEIDE gleich:

Sämtliche Spiele wurden in der nativen Auflösung des Asus PG27UQ getestet, sprich in 3.840 × 2.160. Entsprechend wurden die Grafikdetails für höhere Frameraten reduziert – Näheres zeigt die Tabelle weiter unten. Die Bildwiederholfrequenz ist auf 120 Hertz gesetzt, G-Sync ist auf einer Nvidia-Grafikkarte für eine bessere Vergleichbarkeit abgeschaltet. In SDR-Spielen nutzt der Monitor den RGB-Farbraum bei 8 Bit, in HDR YCbCr mit einer Farbunterabtastung von 4:2:2 bei 10 Bit. Die AMD- und die Nvidia-Grafikkarte wurden entsprechend im Treiber konfiguriert.


Der Monitor bei CB ist einer aus dieser Acer/Asus Reihe AFAIK ?
https://www.guru3d.com/news-story/asus-and-acer-uhd-g-sync-hdr-monitors-forced-to-use-color-compression-at-120144-hz.html

Damit
To bypass that, the screen monitor signal reverts to 4:2:2 chroma subsampling. basically your brightness information will remain intact, however, the color information will be based on half the resolution, 1920 x 2160 pixels. All is good up to 98 Hz, after that, it's 4:2:2 chroma subsampling


Wobei CB ja angeblich genau DAS (4:2:2:) auch eingestellt hatte ?!? Also ein "Einstellungs"-Fehler seitens CB ? Oder evtl. ein Treiberbug, das 4:2:2 aufwendiger berechent wird, weil erst ein 4:4:4: Bild ggemacht wird was dann in 4:2:2 runterskaliert wird.
Allerdings verwunderlich dass dieser Schritt ca 10% Performance kosten sollte.

Finde diese ganze HDR-Geschichte immer noch seltsam.

Kriton
2018-09-12, 16:35:54
Wird die Konvertierung denn vom G-Sync-Modul und nicht von der Grafikkarte/Treiber vorgenommen?

hmmm
2018-09-12, 18:18:28
Wird die Konvertierung denn vom G-Sync-Modul und nicht von der Grafikkarte/Treiber vorgenommen?
Nein, das gsync Modul hat damit nichts zu tun. Gsync und HDR gleichzeitig geht (außer auf Machbarkeitsstudien aller 2000€+) eh nicht.

Nvidia scheint bei SDR 8Bit zu optimieren, was ihnen bei 10Bit und dann vorallem mit HDR auf die Füsse fällt. Entweder sieht es schlecht aus, oder die FPS brechen ein. Machmal aber auch beides. :O
Erstaunlich ist auch das sich Nvidia bei chroma subsampling 4:4:4 zu 4:2:2 nicht so sehr unterscheidet wie AMD, nur ist AMD mit 4:4:4 deutlich besser.

Kriton
2018-09-12, 19:26:49
Dann verstehe ich Iscarans Post/Annahme nicht.

dildo4u
2018-09-20, 13:31:40
HDR Benchmarks mit Turing:


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11805434&postcount=444

PHuV
2018-09-20, 14:15:49
Also kann mal sagen, daß HDR ungefähr 2-5 FPS gegenüber SDR kostet.

Iscaran
2018-09-20, 15:09:46
Interessant ist das bei CB die Pascals immer noch deutlich Performance verlieren in HDR:
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/6/#abschnitt_hdrbenchmarks_zeigen_eine_ueberraschung

ACO:
2080 Ti: 1.1% @60/144Hz
2080: 1.6% @60/144Hz
ABER
1080 Ti: 4.3% @60Hz und 8.7% @144Hz
1080: 5.6% @60Hz und 9.9% @144Hz

Vega 64: 1.2% @60/144Hz

COD
2080 Ti: 2.3% @60/144Hz

ABER
1080 Ti: 5.3% @60Hz und 13.2% @144Hz
1080: 5.6% @60Hz und 13.7% @144Hz

Vega 64: 3.3% @60/144Hz

Destiny2:
2080 Ti: 6.1% @60 6.7% @144Hz

ABER
1080 Ti: 8.5% @60Hz und 15.6% @144Hz

Vega 64: 9.2% @60 9.8% @144Hz

SWBF2:
2080 Ti 0% / 0%
1080 Ti: 2.2% / 8.6%
Vega 64: 1.2% / 1.2 %

Interessant oder ? Bis auf Destiny 2 verliert AMD bei keinem der Games hier signifikant Leistung. Ebensowenig wie turing. Jedoch Pascal eigentlich in JEDEM Beispiel und teils im 2-stelligen Prozentbereich.

y33H@
2018-09-20, 17:03:00
Bei Golem auch: https://www.golem.de/news/geforce-rtx-2080-ti-im-test-nvidias-turing-grafikkarten-sind-konkurrenzlos-1809-136185-5.html

aufkrawall
2018-09-20, 17:11:34
Das ist 4:2:2 10 Bit Output vs. 4:4:4 8 Bit + Dithering Output?

Iscaran
2018-09-20, 21:28:09
Und einige "Ideen" warum Pascal nun schlechter ist in HDR...vor allem Dingen oft 10% schlechter als beispielsweise Vega ?

EDIT: Und wieso spielt es offenbar bei nVidia eine Rolle ob 4:2:2:10bit oder 4:4:4:8bit+Dither benutzt wird und bei AMD nicht ?!?. (oder doch auch ?)
Oder ist es ggf. eher eine Frage von DP vs HDMI ?

dildo4u
2018-09-24, 14:13:22
ce84bFUUT_A

MikePayne
2018-09-24, 18:22:22
http://youtu.be/ce84bFUUT_A

Das mit den Videos droppen mit Hinweis & Beschreibung, worum es geht (in diesem Fall sieht man es bei der Videovorschau), wer das ist usw. kriegst nicht hin, oder?
Ich weiss nicht wie oft Screemer und Co Dich drauf hingewiesen haben. Habe es mal gemeldet.

VooDoo7mx
2018-09-24, 20:29:20
Und einige "Ideen" warum Pascal nun schlechter ist in HDR...vor allem Dingen oft 10% schlechter als beispielsweise Vega ?

EDIT: Und wieso spielt es offenbar bei nVidia eine Rolle ob 4:2:2:10bit oder 4:4:4:8bit+Dither benutzt wird und bei AMD nicht ?!?. (oder doch auch ?)
Oder ist es ggf. eher eine Frage von DP vs HDMI ?

AMD PC Grafikkarten geben bei HDR ausschließlich 4:4:4 mit 8 Bit Dithering aus. Klar das der performanceeinbrauch geringer ist wenn man sich fast 1 Milliarde Farben spart.
Bei beiden Konsolen geben die AMD APUs hingegen auch 4:2:2 mit 10 Bit Farbtiefe aus. Also können tun dies auch AMD GPUs problemlos.

hmmm
2018-09-24, 20:47:46
AMD PC Grafikkarten geben bei HDR ausschließlich 4:4:4 mit 8 Bit Dithering aus.
Das ist schlicht einfach nur Stuss.

aufkrawall
2018-09-24, 20:57:31
Das ist schlicht einfach nur Stuss.
Das hat AMD für Polaris aber selbst so gesagt. Gibt es einen Nachweis, dass es mit Vega anders ist?

hmmm
2018-09-24, 21:12:22
Man schreib doch nicht so ein Stuss. Es ging dabei lediglich um HDMI 2, reicht die Bandbreite nicht dann sieht 8bit 4:4:4 immer noch besser aus als 10bit 4:2:2 oder noch schlimmeres. Tests gaben AMD ja auch recht.
PS: es gibt sogar bezahlbare 10bit HDR freesync Monitore. Wie sieht es da mit gsync aus?

PHuV
2018-09-24, 21:58:57
Nenn mir bitte einen echte 10bit-Monitor. Die sind fast alle nur 8bit+FRC.

hilo
2018-09-24, 23:10:42
Wie wäre es damit:

https://geizhals.de/?cat=monlcd19wide&xf=11959_10bit+(10bit+ohne+FRC)~11992_Adaptive+Sync%2FAMD+FreeSync~13219_LFC-Support

Ist nur einer, aber Du wolltest ja nur einen ;D

wolik
2018-09-24, 23:18:11
Man schreib doch nicht so ein Stuss. Es ging dabei lediglich um HDMI 2, reicht die Bandbreite nicht dann sieht 8bit 4:4:4 immer noch besser aus als 10bit 4:2:2 oder noch schlimmeres. Tests gaben AMD ja auch recht.
PS: es gibt sogar bezahlbare 10bit HDR freesync Monitore. Wie sieht es da mit gsync aus?
Wo kann ich das mit Samsung 4K UE65KS9500 feststellen ? Ich habe "fast" alle Spiele mit HDR support.

Iscaran
2018-09-25, 00:46:55
AMD PC Grafikkarten geben bei HDR ausschließlich 4:4:4 mit 8 Bit Dithering aus.


Woher stammt diese Info ? Wäre mir auch neu. Dass AMD bei HDMI wegen der Bandbreite dies so ausgibt ist aber bekannt. Bei Display Port 1.4 kommt afaik völlig normales HDR 444-10b.
(EDIT: nVidia wird hier auch nichts anderes über HDMI schieben können, einfach wegen des Bandbreitenlimits des Ports).

Und ebenso keine Performance-Einbußen (nennenswerte jedenfalls).

aufkrawall
2018-09-25, 00:59:00
Man schreib doch nicht so ein Stuss.

Schreib deine einfallslosen Anmachen bitte wenigstens richtig...


Es ging dabei lediglich um HDMI 2, reicht die Bandbreite nicht dann sieht 8bit 4:4:4 immer noch besser aus als 10bit 4:2:2 oder noch schlimmeres. Tests gaben AMD ja auch recht.

Ich hab nicht bestritten, dass die AMD-Variante besser ist.


PS: es gibt sogar bezahlbare 10bit HDR freesync Monitore. Wie sieht es da mit gsync aus?
Niemand, der bei HDR Bildqualität will, kauft sich die Dimming-Schrotthaufen.

Kriton
2018-09-25, 15:51:11
Inhaltlich hat er aber recht gehabt. Denn die Aussage von VooDoo7mx bezog sich nicht auf die Limitierung von HDMI, sondern explizit auf AMD, als wäre das deren Thema zumal er dies im Kontext der Behauptung gestellt hat, dass sie dabei schlechter als Nvidia wären.

Und insofern war Deine Aussage im Kontext der vorherigen Argumentation ebenfalls irreführend bis falsch.

Im Übrigen hast Du oft ebenfalls Antworten im Stil seiner "einfallslosen Anmache" :wink:

Also lasst uns mal wieder inhaltlich werden.

aufkrawall
2018-09-25, 16:44:42
Inhaltlich hat er aber recht gehabt. Denn die Aussage von VooDoo7mx bezog sich nicht auf die Limitierung von HDMI, sondern explizit auf AMD, als wäre das deren Thema zumal er dies im Kontext der Behauptung gestellt hat, dass sie dabei schlechter als Nvidia wären.

Ja, ok...


Und insofern war Deine Aussage im Kontext der vorherigen Argumentation ebenfalls irreführend bis falsch.

Irreführend bis falsch waren auch die Slides von AMD dahingehend...

PHuV
2018-09-26, 11:44:53
Wie wäre es damit:

https://geizhals.de/?cat=monlcd19wide&xf=11959_10bit+(10bit+ohne+FRC)~11992_Adaptive+Sync%2FAMD+FreeSync~13219_LFC-Support

Ist nur einer, aber Du wolltest ja nur einen ;D
Sieh an, hätte ich jetzt nicht gedacht. :tongue: Aber nur einer mit FreeSync.

DrumDub
2018-09-26, 13:30:04
Sieh an, hätte ich jetzt nicht gedacht. :tongue: Aber nur einer mit FreeSync. mit g-sync gibt es auch welche, aber eben auch wesentlich teurer und ohne lfc-support: https://geizhals.de/?cat=monlcd19wide&xf=11959_10bit+(10bit+ohne+FRC)%7E11992_NVIDIA+G-Sync

aufkrawall
2018-09-26, 13:41:58
Wie kommst du zu der Aussage bez. LFC-Support?

hmmm
2018-09-26, 13:44:08
Im "gsync Modus" haben sie nur 8bit. :O

DrumDub
2018-09-26, 15:25:39
Wie kommst du zu der Aussage bez. LFC-Support? weil die eigenschaft nicht vorhanden ist.

Im "gsync Modus" haben sie nur 8bit. :O haha .. stimmt. das habe ich ganz übersehen. also kann g-snyc bisher gar keine echten 10 bit.

aufkrawall
2018-09-26, 15:27:00
weil die eigenschaft nicht vorhanden ist.

Jetzt hast du die Aussage wiederholt, mir ging es um so etwas wie eine Quelle. ;)

DrumDub
2018-09-26, 15:43:26
Jetzt hast du die Aussage wiederholt, mir ging es um so etwas wie eine Quelle. ;) die quelle ist amd (https://www.amd.com/en/products/freesync-monitors). lfc-support gibts nur bei freesync monitoren. it's a feature. ;)

Savay
2018-09-26, 15:50:32
Häh? Nein! LFC ist bei G-Sync obligatorisch und wird vom Modul gemanaged! (Die Wiederholrate, die über die Schnittstelle läuft muss nicht dem entsprechen, was das Panel draus macht.)
Bei den Beispielen nimmt das Display über den DP 30-60Hz an...intern könnten aber u.U. auch sowas wie 33-66Hz draus werden...ohne das auszumessen weiß man das einfach nicht. (Der Faktor 2 reicht formal für LFC...wenn es auch nicht perfekt ist)

Bei AMD wird LFC sowieso nur deshalb explizit erwähnt, da es vom Treiber gesteuert wird und die Schnittstelle bzw. Scaler das auch hergeben müssen.

DrumDub
2018-09-27, 10:34:27
Häh? Nein! LFC ist bei G-Sync obligatorisch und wird vom Modul gemanaged! (Die Wiederholrate die, die über die Schnittstelle läuft muss nicht dem entsprechen, was das Panel draus macht.)
Bei den Beispielen nimmt das Display über den DP 30-60Hz an...intern könnten aber u.U. auch sowas wie 33-66Hz draus werden...ohne das auszumessen weiß man das einfach nicht. (Der Faktor 2 reicht formal für LFC...wenn es auch nicht perfekt ist)

Bei AMD wird LFC sowieso nur deshalb explizit erwähnt, da es vom Treiber gesteuert wird und die Schnittstelle bzw. Scaler das auch hergeben müssen. das mag so sein, aber ich habe keine monitorliste gefunden wie bei amd.

iuno
2018-09-27, 10:50:03
Wirst du auch nicht. Brauchst du auch nicht. Die Funktionalität ist mit dem G-Sync Modul implizit immer dabei.

Birdman
2018-09-27, 12:02:21
Wirst du auch nicht. Brauchst du auch nicht. Die Funktionalität ist mit dem G-Sync Modul implizit immer dabei.
Das ist auch der grosse Vorteil von G-Sync als Brand.
Dieser taugt was, bzw. bei einem G-Sync Gerät erhält der unbedarfte User auch wirklich das was er allenfalls mal in einer Werbung oder einem Test/Bericht gelesen hat.
Bei "Freesync" ist das nicht der Fall, da sind 90% aller damit erhältlichen Monitore quasi ungeeignet für das was man sich als Benefit hinter dieser Technologie erhofft.

Hier wäre AMD gut beraten gewesen, striktere Richtlinien zu erlassen, was die Vergabe des "Freesync" (und "Freesnyc2") Prädikats bei Monitoren anbelangt.

Die ganzen Crap-Displays könnten die Hersteller ja immer noch mit einem "Adaptive-Sync" Aufkleber weiterlaufen lassen und AMD kann werben dass deren Karten eben beides können, "Adaptive-Sync" sowie "Freesync", letzteres allerdings empfohlen wird, weil besser und so.

Savay
2018-09-27, 12:22:35
Hier wäre AMD gut beraten gewesen, striktere Richtlinien zu erlassen, was die Vergabe des "Freesync" (und "Freesnyc2") Prädikats bei Monitoren anbelangt.


Bei Freesync 2 (HDR) ist LFC nun allerdings genauso Pflicht! :freak:

Davon abgesehen hängt es extrem von der unteren Range ab ob das fehlen von LFC wirklich "problematisch" ist oder nicht.
Wenn der Monitor nach unten hin (gerne auch mit INF Tweak) weniger als 40-35Hz macht, ist das weit weniger tragisch bis praktisch absolut irrelevant, als wenn er als minimum irgendwas um 50-60 hat aber trotzdem kein LFC beherrscht.

Davon abgesehen ist das eh OT. :wink:

hmmm
2018-09-27, 12:29:24
Naja, ist es wirklich von Vorteil den Herstellern quasi zu verbieten die eigentliche Panelfrequenz anzugeben? Oder 10 Bit Monitore die dann im gsync Modus nur 8 Bit sind?
Also mit high quality gaming hat dies sicher nichts zu tun. Bei freesync kaufst du eben genau das was draufsteht, ist ja eigentlich auch marktüblich.

aufkrawall
2018-09-27, 12:41:10
Natives 10 Bit hat bei hohen Pixeldichten keine nennenswerten Vorteile, weil man bei 8 Bit + Dithering dieses garantiert nicht sehen kann.

hmmm
2018-09-27, 13:41:45
Natives 10 Bit hat bei hohen Pixeldichten keine nennenswerten Vorteile, weil man bei 8 Bit + Dithering dieses garantiert nicht sehen kann.
Sehe ich ähnlich, 8bit + frc is verdammt nahe an "true" 10 bit.
Allerdings gibt es bei Nvidia im gsync Modus wirklich nur die 8 Bit. Nix mit 8bit+ frc.

iuno
2018-09-27, 13:51:31
Gibt es das ueberhaupt, dass das Dithering oder FRC schon auf GPU-Seite passiert?
Dachte immer da gehen 10 Bit raus und der Monitor mit 8 Bit Panel akzeptiert die 10 Bit und macht dann halt den Rest. Bzw. das G-Sync Modul koennte es ja auch machen, vorausgesetzt bei dem kommen ueberhaupt erst 10 Bit an.

aufkrawall
2018-09-27, 13:52:03
Allerdings gibt es bei Nvidia im gsync Modus wirklich nur die 8 Bit. Nix mit 8bit+ frc.
Wo entnimmst du das? Es ist ein Leichtes für den Treiber, vor dem Output die 10 Bit nach 8 Bit + Dithering zu konvertieren. Bzw. geschieht das im Vollbild-Modus sogar automatisch, wenn der Monitor nur 8 Bit unterstützt (selbst getestet mit madVR und Gradienten).

hmmm
2018-09-27, 19:09:37
Gibt es das ueberhaupt, dass das Dithering oder FRC schon auf GPU-Seite passiert?
Dachte immer da gehen 10 Bit raus und der Monitor mit 8 Bit Panel akzeptiert die 10 Bit und macht dann halt den Rest. Bzw. das G-Sync Modul koennte es ja auch machen, vorausgesetzt bei dem kommen ueberhaupt erst 10 Bit an.
Natürlich werden bei einem 10 Bit / 8 Bit + frc Monitor auch 10 Bit "übertragen". AMDs "HDMI HDR dithering" hatte nichts mit frc zu tun und war/ist wirklich "nur" 8 Bit dies allerdings mit 4:4:4 man "spielte" schlicht nur an der Gammakurve rum.
Grundsätzlich sagt HDR ja auch mehr Dynamik und nicht zwangsweise mehr Farben.

vinacis_vivids
2018-10-26, 20:39:42
Ich lasse das mal zur weiteren Diskussion hier (Nvidia-Turing)
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf
"Turing’s new display engine supports HDR processing natively in the display pipeline. Tone
mapping has also been added to the HDR pipeline. Tone mapping is a technique used to
approximate the look of high dynamic range images on standard dynamic range displays. Turing
supports the tone mapping formula defined by the ITU-R Recommendation BT.2100 standard to
avoid color shift on different HDR displays."

https://abload.de/img/video-01sm8uik5.jpg

Weiterhin steht die Aussage, dass bei Nvidia's Pascal architekturbedingt (dazu gehört color compression) irgendwie von bzw. in der rendering pipeline zur Display-engine/pipeline massive Bandbreitenverluste erlebt, die per Treiber nicht behoben werden können.

vinacis_vivids
2020-12-12, 20:24:48
Aus aktuellem Anlass, Anno 2020/2021 hole ich diesen Thread wieder hoch um Infos bezüglich der HDR-Performance von RDNA2 und Ampere zu aktualisieren.

Hier seien auch die professionellen Tester und Reviewer animiert mehr Licht und Farbe ins Dunkle zu bringen.

Ich wäre sehr dankbar für klare Ergebnisse und einige andere User, die Technisch in der Lage sind, sich dran zu beteiligen. Qualität ist ist HDR-10bit dem SDR-8 bit klar überlegen in jeder Situation.

Wie es sich mit dem Leistungsverlustes, insbesondere bei Nvidia sich verhält, ist derzeit unklar und bei dem derzeitigen Teststand sehr sehr interessant zu erfahren.