PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Performance-Verlust mit HDR-Monitoren?


Seiten : [1] 2

vinacis_vivids
2017-09-16, 23:43:22
Ich bin auf die HDR Benches gespannt. Vor allem 12 bit. Nvidia's Kartenbesitzer winken minus 25% Leistung während Vega da keine nennenswerte Schwächen zeigt. Dieses Szenario ist nicht mehr weit entfernt.
Hier sind die Leute gefordert, die lauthals schreien und ständig sich auf die Schulter klopfen beide Karten im Besitz zu haben ;)
Tendenziell ist die Bildqualität wieder pro AMD. Meine Vermutung ist, dass AMD einfach sauberer bzw. näher an der Hardware rechnet statt wie Nvidia über dunkle Pfade im Treiber.

akuji13
2017-09-16, 23:47:29
Ich bin auf die HDR Benches gespannt. Vor allem 12 bit. Nvidia's Kartenbesitzer winken minus 25% Leistung während Vega da keine nennenswerte Schwächen zeigt. Dieses Szenario ist nicht mehr weit entfernt.

Du träumst schon wieder.

Wir haben noch nicht mal anständige 10 Bit für Spieler am Markt und du bist schon bei 12.

vinacis_vivids
2017-09-16, 23:50:05
Warum lenkst du schon wieder ab? HDR wird jetzt forciert, ob es dir schmeckt oder nicht ist irrelevant.

Resident Evil zeigt Unterschiede wie Tag und Nacht.

akuji13
2017-09-16, 23:51:00
OLED wird auch seit Jahren forciert. :D
Und DX12 und low level.

Wo sind sie denn deine Monitore?
Zeig her.

scully1234
2017-09-16, 23:51:25
Ich bin auf die HDR Benches gespannt. Vor allem 12 bit. Nvidia's Kartenbesitzer winken minus 25% Leistung während Vega da keine nennenswerte Schwächen zeigt. .

Du weisst schon was HDR bedeutet :eek:


:uban:

Dieses Fake News Geraspel ist ja zum Davonrennen

Ex3cut3r
2017-09-16, 23:52:22
Leute, geht doch nicht darauf ein, er ist heute in Höchstform, ein :facepalm: Beitrag nach den anderen, gibt ihm doch keine Bühne, am ende glaubt er den Stuss ja noch selbst.

akuji13
2017-09-16, 23:53:15
Man muss sich auch um Randgruppen kümmern. :D

vinacis_vivids
2017-09-16, 23:58:33
OLED wird auch seit Jahren forciert. :D
Und DX12 und low level.

Wo sind sie denn deine Monitore?
Zeig her.

Was haben die minus 25% Leistung bei Nvidia mit mir zu tun?
Das ist einfach ein weiterer Faktor, der sich langsam aber stetig zeigt wohin es mit Pascal geht.
Der nächste Vulkan Titel wird Wolfenstein 2, ein absoluter Blockbuster der auf Vega flutschen wird. Technisch Top notch und nicht verhunzt wie GTA5.

scully1234
2017-09-17, 00:03:56
am ende glaubt er den Stuss ja noch selbst.

Man muss sich auch um Randgruppen kümmern. :D

am Ende glauben wir den Mist noch, wenn er so weiter indoktriniert, das gilt es zu verhindern...:tongue:

das mit dem erweiterten Farbraum und 25% Leistungsverlust war aber schon eines der absoluten Highlights

gedi
2017-09-17, 00:31:43
am Ende glauben wir den Mist noch, wenn er so weiter indoktriniert, das gilt es zu verhindern...:tongue:

das mit dem erweiterten Farbraum und 25% Leistungsverlust war aber schon eines der absoluten Highlights

Vermutlich kannst du aufgrund fehlender Monitorkonfiguration das Szenario nicht darstellen - ich kann es und muss v_v beiplichten!

scully1234
2017-09-17, 00:35:57
Vermutlich kannst du aufgrund fehlender Monitorkonfiguration das Szenario nicht darstellen -

Das wird es sein

Und das HDR vor allem Bandbreite braucht ,statt Rechenleistung, hab ich dann wohl auch geträumt

gedi
2017-09-17, 00:56:39
Ich habe nichts anderes behauptet - außer dass mit 10-Bit HDR eine 1080ti unter 4k massig an Performance verliert - ist leider so :(

hmmm
2017-09-17, 07:26:34
Ich habe nichts anderes behauptet - außer dass mit 10-Bit HDR eine 1080ti unter 4k massig an Performance verliert - ist leider so :(
Wieviel % bedeutet "massig Performance"?
Gibt es schon Benchmarks mit HDR?

gedi
2017-09-17, 12:23:42
Wieviel % bedeutet "massig Performance"?
Gibt es schon Benchmarks mit HDR?

so um die 20% mit 10-Bit. 12-Bit (oder was immer das auch sein soll, die Option gibt es allerdings im Treiber) habe ich nur kurz getestet, sieht allerdings für meinen Geschmack zu "bunt" aus :D

Eigentlich finde ich Vega sehr spannend, allerdings fehlen für den Moment 20% an Performance und noch ein zusätzlicher HDMI_Port, so dass das Teil wirklich relevant für eine Anschaffung wäre.

dildo4u
2017-09-17, 13:25:17
so um die 20% mit 10-Bit. 12-Bit (oder was immer das auch sein soll, die Option gibt es allerdings im Treiber) habe ich nur kurz getestet, sieht allerdings für meinen Geschmack zu "bunt" aus :D

Eigentlich finde ich Vega sehr spannend, allerdings fehlen für den Moment 20% an Performance und noch ein zusätzlicher HDMI_Port, so dass das Teil wirklich relevant für eine Anschaffung wäre.
Da stimmt was nicht selbst die alte PS4 von 2013 hat HDR bekommen und es hat dort Null Einfluss auf die Performance,ich denke eher das HDR allgemein auf dem PC eine einzige Bastel Bude ist und erst mit dem nästen großen Win 10 Update angegangen wird.

VooDoo7mx
2017-09-17, 15:18:48
Wenn ich schon wieder lese was hier für Bullshit verbreitet wird.
Ich hab am PC aktuell nur 2 HDR Spiele, Mass Effect Andromeda und Redout, allzu viele gibt es ja nicht.
Und bei beiden ist die Performance mit oder ohne HDR in etwa gleich.

Hier blubbern ein paar Leute was von 20% Performanceverlust und nennen nicht mal den entsprechenden Titel. Danach wird es dan sofort auf alle anderen HDR Spiele übertragen.
Es ist ja schließlich absolut unmöglich, dass dies ja ein Softwarefehler, Treiberbug, Windowsfehler oder eine Kombination von all denen ist, was nur einen einzigen Titel betrifft.
Aber klar, die 1080Ti verliert 20% Performance bei HDR. :rolleyes: Jeder Mensch der auch nur ein wenig Sachverstand mit diesen Thema hat und zu mindestens noch teilweise klar im Kopf ist, sollte wissen das die technisch unmöglich ist.

Und ja HDR am PC ist eine einzige Baustelle. Seit den Creators Update funktioniert es z.B. bei Mass Effect Andromeda nicht mehr richtig. Gibt nen ewig langen Thread im Bioware Forum. Mit der Beta Version vom Fall Creators Update was im Oktober kommen soll, scheint es wieder zu funktionieren.

aufkrawall
2017-09-17, 15:37:00
Also kannst du keinen nennenswerten Performance-Unterschied abhängig davon feststellen, ob du unter Windows 8 oder 10/12 Bit Ausgabe auswählst?

hlynska
2017-09-17, 15:59:03
Wenn es denn wirklich Verluste durch einen größeren Farbraum geben sollte, dann liegt es maximal an der Engine, aber nicht dem Umstand an sich, dass jetzt die höhere Farbtiefe massig Leistung kosten würde. Das kann man im Workstation-Bereich beobachten, wo bessere Bildschirme mit 10-Bit auch keine Performance kosten. 20% wären wirklich albern.

vinacis_vivids
2017-09-17, 16:48:08
Da stimmt was nicht selbst die alte PS4 von 2013 hat HDR bekommen und es hat dort Null Einfluss auf die Performance,ich denke eher das HDR allgemein auf dem PC eine einzige Bastel Bude ist und erst mit dem nästen großen Win 10 Update angegangen wird.

PS4 hat GCN-uArch und damit bei HDR keine nennenswerten Verluste im Gegensatz zu Nvidia.

GCN zeichnet sich durch hardwarenahe und verlustfreie Codeausführungen aus. Pascal hingegen ist treiberlastig *optimiert*. Und wenn man nun durch HDR die color compression unterbindet, verliert Nvidia massiv an Bandbreite(Einsparung) und dropt heftig in der Leistung.

Falls jemand mal Vega mit HDR testen könnte.... bisher hat es keiner von den großen Seiten gemacht....

24p
2017-09-17, 16:54:15
Beweise für diese Behauptungen gibt es natürlich wieder einmal nicht.

vinacis_vivids
2017-09-17, 17:00:04
Die Sache ist auch relativ frisch, aber Pascal 10bit -> minus ~20% Leistung ist bereits bestätigt. 12bit sogar 25% oder mehr Verlust.
These:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11454348&postcount=11

Messung:
http://www.gamestar.de/artikel/der_technik_trend_2016,3271227,seite2.html

Bildqualität und Farbübergänge hängen unmittelbar mit der color compression zusammen ;)

24p
2017-09-17, 17:28:47
Die Sache ist auch relativ frisch, aber Pascal 10bit -> minus ~20% Leistung ist bereits bestätigt. 12bit sogar 25% oder mehr Verlust.
These:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11454348&postcount=11

Messung:
http://www.gamestar.de/artikel/der_technik_trend_2016,3271227,seite2.html

Bildqualität und Farbübergänge hängen unmittelbar mit der color compression zusammen ;)

Beweis? Ich sehe da nur 8 bit bei AMD und bei dem derzeitigen Umsetzungsstand von HDR auf dem PC sind da keine Schlüsse zu ziehen.

vinacis_vivids
2017-09-17, 18:19:58
Beweis? Ich sehe da nur 8 bit bei AMD und bei dem derzeitigen Umsetzungsstand von HDR auf dem PC sind da keine Schlüsse zu ziehen.

CGN zeigt keine nennenswerte Leistungsverluste bei besserer Bildqualität. Ergo werden die Farbcodes verlustfrei auf dem Bildschirm gezaubert. Was gibs da zu beweisen?

Nvidia hat durch die im Treiber *optimierte* color compression einen krasseren Leistungsverlust, bereits mehrfach bestätigt, gemessen.

Hier der *Bandbreitenzauber*:
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/8

Etwas logisches Denkvermögen wird schon benötigt.

Zu Vega habe ich bereits geschrieben, dass Erfahrung und Werte im HDR fehlen. CGN zeigt aber konsistentes Verhalten über die Genereationen hinweg.
http://gpuopen.com/dcc-overview/

dildo4u
2017-09-17, 18:58:29
Nur Pech das die 1060 bei Gamestar immer noch schneller ist,selbst mit HDR.Man kann es auch so sehen das AMD's Kompression nutzlos ist,und es deshalb kein Gewinn ohne HDR gibt .Normal sollte die 480 die 1060 verspeisen wenn die Bandbreite/Flops vergleicht.

gedi
2017-09-17, 19:04:40
Wenn es denn wirklich Verluste durch einen größeren Farbraum geben sollte, dann liegt es maximal an der Engine, aber nicht dem Umstand an sich, dass jetzt die höhere Farbtiefe massig Leistung kosten würde. Das kann man im Workstation-Bereich beobachten, wo bessere Bildschirme mit 10-Bit auch keine Performance kosten. 20% wären wirklich albern.

Blödsinn! Auf meinem Panel sind es im Schnitt 20% - Punkt. Man nehme z.B. den blöden Firestrike, wo man mit 10-Bit eine Ti@2.025G auf einen Grafikscore von 27k runterknüppelt - unter 8-Bit sind es 30k. Wirklich bitter wird es z.B. in PUBG, oder noch schlimmer Metro LL.

VooDoo7mx
2017-09-17, 19:23:49
Blödsinn! Auf meinem Panel sind es im Schnitt 20% - Punkt. Man nehme z.B. den blöden Firestrike, wo man mit 10-Bit eine Ti@2.025G auf einen Grafikscore von 27k runterknüppelt - unter 8-Bit sind es 30k. Wirklich bitter wird es z.B. in PUBG, oder noch schlimmer Metro LL.

Häh? Firestrike, PUBG und Metro haben gar keine HDR Unterstützung.

Haben jetzt alle hier ihr restliches bisschen Verstand verloren?
Es kommt mir vor, wir spielen hier Bullshit Bingo, wo irgendwelche Leute denken, dass sie von irgendwas Ahnung haben, aber nur wirr alle möglichen Sachen durcheinander werfen. Nicht einmal einfache Prozentrechnung wird beherrscht.
Ich bin echt schockiert.

hlynska
2017-09-17, 19:29:12
...Ich bin echt schockiert.
Ich auch.

Gegentest: Quadro + Eizo Monitor. Egal ob 10-Bit oder nicht, sowohl unter DX11/12, also auch im OpenGL-Overlay messe ich keine signifikanten Unterschiede, sehen kann man sie optisch aber sehr wohl (Ausgabequalität). Was die Treiber stellenweise in Games als HDR ausrotzen ist doch eh nichts Belastbares. :)

Ex3cut3r
2017-09-17, 19:35:11
CGN zeigt keine nennenswerte Leistungsverluste bei besserer Bildqualität. Ergo werden die Farbcodes verlustfrei auf dem Bildschirm gezaubert. Was gibs da zu beweisen?

Nvidia hat durch die im Treiber *optimierte* color compression einen krasseren Leistungsverlust, bereits mehrfach bestätigt, gemessen.

Hier der *Bandbreitenzauber*:
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/8

Etwas logisches Denkvermögen wird schon benötigt.

Zu Vega habe ich bereits geschrieben, dass Erfahrung und Werte im HDR fehlen. CGN zeigt aber konsistentes Verhalten über die Genereationen hinweg.
http://gpuopen.com/dcc-overview/

Junge Junge, was reibst du dir für einen Schwachsinn zusammen? Meine Fresse, das ist an Dummheit kaum zu überbieten. Da geht es um Bandbreite sparen und daduch Performance zu gewinnen, nicht zu verlieren. Und das hat mit HDR nichts zu tun. Gedi trägt leider auch mit seltsamen Sätzen und Aussagen dazu bei, das sich sich Leute wie du dann auch noch bestätigt fühlen.

Kriton
2017-09-17, 20:11:12
Junge Junge, was reibst du dir für einen Schwachsinn zusammen? Meine Fresse, das ist an Dummheit kaum zu überbieten. Da geht es um Bandbreite sparen und daduch Performance zu gewinnen, nicht zu verlieren. Und das hat mit HDR nichts zu tun. Gedi trägt leider auch mit seltsamen Sätzen und Aussagen dazu bei, das sich sich Leute wie du dann auch noch bestätigt fühlen.

Im Kontext seiner Argumentation ist das auch genau das, was er aussagen wollte. Das Argument ist ja, dass die Kompression nicht mehr so gut greifen soll bei HDR, und deswegen der von dir bemerkte Performancegewinn wegfällt, so dass Du damit einen Verlust hast.

Weniger geifern und mehr Inhalt wäre schön. Zumal ich aktuell nicht ersehen kann was Tatsache ist, weil gefühlt nur geschrien wird anstatt inhaltlich (und sachlich) zu argumentieren.

Die Gamestar hat in dem Link jedenfalls 10% Performanceverlust mit HDR bei Nvidia gemessen.

Nur Pech das die 1060 bei Gamestar immer noch schneller ist,selbst mit HDR.Man kann es auch so sehen das AMD's Kompression nutzlos ist,und es deshalb kein Gewinn ohne HDR gibt .Normal sollte die 480 die 1060 verspeisen wenn die Bandbreite/Flops vergleicht.

Sind wir schon wieder bei der Deutungshoheit, ja? :rolleyes: Können wir erst einmal die Fakten klären?

Nicht einmal einfache Prozentrechnung wird beherrscht.
Ich bin echt schockiert.

Die Prozentangabe war als "Schnitt" angegeben und nicht auf das einzelne Zahlenbeispiel gemünzt.

Die "Diskussion" hier ist schon wieder unter aller Sau.

hmmm
2017-09-17, 20:12:38
Las ihn halt.
Laut ihn läuft DX12 ja auf Nvidia beschissen und Vega übertrifft sogar eine 1080 TI. Der nimmt einfach die falschen Pilze.
Naja, DX12 läuft auf Nvidia ja auch beschissen und das ist noch milde ausgedrückt. Wenn man Asynchronous Compute als DX12 inherent sieht, dann läuft es auf Nvidia quasi gar nicht.
Wenn man nicht an AAA Titel arbeitet und deswegen auch keine 5 Nvidia Typen an der Tür Klingeln, möchte man DX12 auf Nvidia am liebsten deaktivieren.

Und das mit Nvidias color compression scheint mir, zuzmindest auf den ersten Blick, auch schlüssig.
Man kann es sehen wie man will, Nvidia scheint einige % zu verlieren.

Nur Pech das die 1060 bei Gamestar immer noch schneller ist,selbst mit HDR.Man kann es auch so sehen das AMD's Kompression nutzlos ist,und es deshalb kein Gewinn ohne HDR gibt .Normal sollte die 480 die 1060 verspeisen wenn die Bandbreite/Flops vergleicht.
Sorry aber das ist doch albern, denn darum geht es doch nicht.
Wenn es darum geht, dann rechne mal das minus von: DSR vs VSR ; Schadowplay vs ReLive usw dabei, dann würde die 1060 ja nicht mehr in der RX 480/580 liga spielen sondern in der RX 470 liga. ;)

VooDoo7mx
2017-09-17, 20:54:30
Besonders da es sowieso vollkommen egal ist, was man im Control Panel einstellt, wenn ein Spiel das Bild in HDR10 oder Dolby Vision ausgibt, werden diese Einstellungen sowieso überschrieben, da für eine echte HDR Ausgabe überhaupt nicht relevant. Deswegen funktioniert auch HDR nur im exklusiven Vollbildmodus.
Und nur weil man im Control Panel an der Farbausgabe rumspielt hat man doch kein HDR. Wie kann man auf so einen Bullshit nur kommen?
Zumal es sowieso nutzlos ist, da es im Consumer Bereich quasi gar keine echten 10bit Panel, geschweige denn 12Bit Panel gibt. Und nur weil man ein 8bit FRC hat man noch lange kein 10 Bit oder gar HDR.
Und selbst wenn, was bringt es denn für einen Vorteil wenn der Content,also Spiele, überhaupt nicht in den entsprechenden Farbformat vorliegt?

Und wer sagt denn genau, dass wenn ich Farbformat A bei Grafikkarte von Hersteller X im Control Panel genau das selbe bewirkt wie bei Hersteller Y? Gibt es da eine verlässliche Methode um überhaupt zu prüfen, dass bei beiden das selbe ausgegeben wird? Und wenn jetzt jemand denkt, dass diese Frage nicht gerechtfrtigt wäre, soll nurmal die HDR10 Ausgabe zwischen AMD und nVidia vergleichen. Bei nVidia wird ein echtes 10 Bit Bild ausgegeben, während AMD da nur 8Bit mit Dithering ausgibt, was nicht mal den Standard entsprecht. Da hat AMD also noch ganz andere Baustellen.
Und alleine da herrscht schon keine Parität. An diesen simplen Fakt, sieht man dass man da nicht einfach mal so irgendwas miteinander vergleichen kann, ohne zu überprüfen was am Ende genau rauskommt.

Achja bevor ich es vergessen. Ich hab mal Interessehalber Redout kurz überprüft, also ein Spiel was eine echte HDR 10 Ausgabe hat.
3840x2160 Epische Settings/Preset, Strecke Drehene Röhre auf Europa, Zeitrennen ohne AI, keinen Millimeter den Gleiter bewegt.
Ohne HDR: 118 FPS
mit HDR 10: 112 FPS
Also reden wir in diesen Spiel von einen Verlust von 5% Leistung.
Und hier haben wir es, eine tatsächliche Messung und nicht nur irgendeine Bullshit Behauptung.

scully1234
2017-09-17, 21:19:22
Im Kontext seiner Argumentation ist das auch genau das, was er aussagen wollte. Das Argument ist ja, dass die Kompression nicht mehr so gut greifen soll bei HDR, .

Und das ist gelinde gesagt Blödsinn, vor allem diese astronomischen 25% Verlust, von denen er da fabuliert

Wenn dann auch noch mit Spielen/Benchmarks "getestet" wird, die nicht einmal ein HDR Profil inne haben(gedi), wirds noch lächerlicher

@Gedi

bevor wieder was von nicht kompatiblen Displays kommt, ich hab sowohl einen HDR fähigen Beamer(Sony VPL VW550), als auch einen Monitor der 10bit liefert mit erweiterten Farbraum

Bei keinen hab ich ,wie Voodoo7mx ebenfalls schon sagte, bei kompatiblen Spielen irgendwas derartiges gesehen

hmmm
2017-09-17, 21:35:43
...
Achja bevor ich es vergessen. Ich hab mal Interessehalber Redout kurz überprüft, also ein Spiel was eine echte HDR 10 Ausgabe hat.
3840x2160 Epische Settings/Preset, Strecke Drehene Röhre auf Europa, Zeitrennen ohne AI, keinen Millimeter den Gleiter bewegt.
Ohne HDR: 118 FPS
mit HDR 10: 112 FPS
Also reden wir in diesen Spiel von einen Verlust von 5% Leistung.
Und hier haben wir es, eine tatsächliche Messung und nicht nur irgendeine Bullshit Behauptung.
Du solltest den Gleiter vielleicht doch mal bewegen, nutze die Bandbreite. ;)

Kriton
2017-09-17, 21:53:10
Und das ist gelinde gesagt Blödsinn, vor allem diese astronomischen 25% Verlust, von denen er da fabuliert

Wenn dann auch noch mit Spielen/Benchmarks "getestet" wird, die nicht einmal ein HDR Profil inne haben(gedi), wirds noch lächerlicher


Jetzt wechselst Du wieder die Argumentationsebene. Das macht es echt nicht einfach. Geht es Dir jetzt nur noch um die Höhe (und nicht mehr um die Frage ob es einen Verlust gibt)? Ich bin da agnostisch - momentan geht es mir tatsächlich nur darum die Argumente nachvollziehen zu können.

vinacis_vivids
2017-09-17, 21:59:18
Mal was altes rausgekramt, und es ist keine Überraschung:
http://www.tomshardware.com/reviews/vga-charts-viii,1184-19.html
X1800XT@48,0GB/s: 105fps -> 90,5fps (-14%)
GTX7800@38,4GB/s: 107fps -> 76,7fps (-30%)

Dient zur Abwehr von Verschwörungsesoterikern.

vinacis_vivids
2017-09-17, 22:23:26
Es geht im Kern um Bandreite und color compression im internen Renderingmodus. Nvidia spart durch verlustbehaftete Kompression viel Bandbreite zu ungunsten der Bildqualität und haut daher mehr fps raus. Wird nun die maximale/volle Farbbandbreite erzwungen, bricht die Performance ein, bzw. die reale Bandbreite schlägt mehr durch. Beide Hersteller verlieren Performance.


Diese Diskussion erinnert mich an 16bit vs 32bit von vor >15 Jahren.

Loeschzwerg
2017-09-17, 22:39:31
...zu ungunsten der Bildqualität...

Bildbeweis... ansonsten kannst dich so langsam mal schleichen mit deinem Mist hier. Mach dazu ein eigenes Thema auf wenn es dir so wichtig ist.

vinacis_vivids
2017-09-17, 22:53:47
Bildbeweis... ansonsten kannst dich so langsam mal schleichen mit deinem Mist hier. Mach dazu ein eigenes Thema auf wenn es dir so wichtig ist.

Guck mal in den Link von Gamestar. Das color banding ist bei Nvidia ausgeprägter inlkusive größererm Leistungsverlust. Die Farben sind bei AMD dagegen perfekt.

Für Leute die HDR und höherer Auflösung in Betracht ziehen, ist Vega "the way to go" würde ich sagen ;) Qualität spricht für sich selbst.

Und das ist nur ein Punkt. Das ganze zieht dann wieder den Bogen zu DX12 und Vulkan, LL-API und *saubere* Implementierung. Was gibs bei NV? Wieder Leistungsverlust.

Loeschzwerg
2017-09-17, 23:09:32
Es ist auch nicht auszuschließen, dass das Problem an einer Stelle unseres Setups liegt, sei es beim Fernseher, bei der Grafikkarte oder beim Treiber (wobei wir auf verschiedenen Test-PCs identisch Ergebnisse erzielt haben). Außerdem könnte HDR in Shadow Warrior 2 auch einfach nicht sonderlich gut umgesetzt worden sein. Hier werden wohl erst weitere Tests mit anderen TV-Geräten und in kommenden HDR-Spielen etwas Licht ins Dunkel bringen können.

Muss man dazu noch was sagen? Denke eher nicht... Zu viele ungeklärte Faktoren die da reinspielen können um auch nur ansatzweise eine endgültige Aussage von wegen "Qualität spricht für sich selbst." treffen zu können. Edit: Toll... saubere Implementierung... blabla bla... "Warum hatte AMD nie den DX11 Treiber im Griff?" Solche Dinge kann ich dir da auch an den Kopf werfen. Interessiert in diesem Thema nur nicht. Praxiserfahrung und Berichte zu Vega, nur darum sollte es hier gehen.

Das Thema hier nimmt schon wieder extrem grausame Züge an.

TGKlaus
2017-09-17, 23:21:13
Ist ja mittlerweile Standard hier; sprechen Fakten gegen Nvidia werden diese ignoriert.

Loeschzwerg
2017-09-17, 23:29:36
Das könnt ihr alles gerne in einem eigenen Thema beleuchten.

vinacis_vivids
2017-09-17, 23:41:21
@Loeschzwerg

Wir sind hier im Vega Thread um u.a. auch die Vorzüge und Besonderheiten aufzuzeigen (gegenüber der Konkurrenz)

Vulkan&DX12&HDR Titel werden nicht weniger sondern mit der Zeit immer mehr. Ob du es willst oder nicht. In Gameworks-Titeln hat Vega nun auch gut aufgeholt, das vergessen/ignorieren viele, die AMD permanent unterschwellig bashen.

Es dient außerdem als Aufruf die HDR-Performance genauer zu durchleuchten für jetzige und zukünftige Tests um ein noch umfassenderes Leistungsbild zu bekommen.

24p
2017-09-18, 07:00:02
@Loeschzwerg

Wir sind hier im Vega Thread um u.a. auch die Vorzüge und Besonderheiten aufzuzeigen (gegenüber der Konkurrenz)

Vulkan&DX12&HDR Titel werden nicht weniger sondern mit der Zeit immer mehr. Ob du es willst oder nicht. In Gameworks-Titeln hat Vega nun auch gut aufgeholt, das vergessen/ignorieren viele, die AMD permanent unterschwellig bashen.

Es dient außerdem als Aufruf die HDR-Performance genauer zu durchleuchten für jetzige und zukünftige Tests um ein noch umfassenderes Leistungsbild zu bekommen.

Deine einseitigen Beiträge, die nichts anderes tun als das Internet (vmtl. aus Langeweile) nach Spiele zu scannen, in den Vega mal etwas besser als im Schnitt ggü NV aussieht ist vieles aber ganz sicher kein umfassendes Bild.

=Floi=
2017-09-18, 17:06:20
Mal was altes rausgekramt, und es ist keine Überraschung:
http://www.tomshardware.com/reviews/vga-charts-viii,1184-19.html
X1800XT@48,0GB/s: 105fps -> 90,5fps (-14%)
GTX7800@38,4GB/s: 107fps -> 76,7fps (-30%)

Dient zur Abwehr von Verschwörungsesoterikern.

das lag an shader model 3.0 und hat mit dem aktuellen HDR nichts zu tun!
Der G70 hatte einfach zu wenig shaderleistung eine im vergleich alte architektur.

vinacis_vivids
2017-09-18, 18:00:22
das lag an shader model 3.0 und hat mit dem aktuellen HDR nichts zu tun!
Der G70 hatte einfach zu wenig shaderleistung eine im vergleich alte architektur.

Falsch, HDR hat nichts mit SM 3.0 zu tun sondern kam zufällig zur gleichen Zeit.

Gipsel
2017-09-19, 21:42:15
Mal in einen neuen Thread verschoben. Aber ich schicke auch gleich eine Warnung hinterher: Wenn die Diskussion so fanboylastig und trollig weitergehen sollte, hagelt es Sperren.

24p
2017-09-19, 21:50:39
Falsch, HDR hat nichts mit SM 3.0 zu tun sondern kam zufällig zur gleichen Zeit.

Nö, es hatte mit der Architektur damals zu tun und den TMUs die fp16 filtern mussten. Nv konnte damals auch ken hdr und aa gleichzeitig. Das hat mit dem heutigen hdr nichts viel zu tun. Intern wird schon ewig hdr gerendert, hier geht es nur um die Ausgabe und solange nicht klar ist, was man vergleicht braucht man da keine Hypothesen aufstellen.

gravitationsfeld
2017-09-19, 21:56:29
Es geht im Kern um Bandreite und color compression im internen Renderingmodus. Nvidia spart durch verlustbehaftete Kompression viel Bandbreite zu ungunsten der Bildqualität und haut daher mehr fps raus. Wird nun die maximale/volle Farbbandbreite erzwungen, bricht die Performance ein, bzw. die reale Bandbreite schlägt mehr durch. Beide Hersteller verlieren Performance.


Diese Diskussion erinnert mich an 16bit vs 32bit von vor >15 Jahren.
Nichts an NVIDIAs Kompression ist "verlustbehaftet". Hoer auf offensichtlichen Schwachsinn zu verbreiten!

vinacis_vivids
2017-09-19, 23:19:34
Die Kompression in 12bit und 10bit ist anscheinend nicht so *effizient*. Wenn der Algorithmus mehr banding verursacht, ist das qualitativ als auch leistungsmäßig verlustbehaftet.
Das ist der große Unterschied zu AMD, deren Treiber tiefer in die Hardware eintaucht und mit höherer Präzision rechnet. Egal wie man es dreht oder wendet, mehr Farben kosten mehr Bandbreite.

Tflops und bandbreitenmäßig ist ist Nvidia unterlegen in gleicher Preisklasse. Da muss eben mehr komprimiert werden. Und Nvidia ist in der Vergangenheit schon mit diversen Speichertricks und Treibertricks aufgefallen.

gravitationsfeld
2017-09-19, 23:26:10
Nein. Es gibt keinen Unterschied. Die Praezission ist identisch und komplett von den APIs erzwungen spezifiziert.

Wenn ueberhaupt hat AMD in den Treibern in der Vergangenheit an Formaten von Spielen rumgepfuscht (R11FG11FB10F statt FP16 als "Optimierung").

vinacis_vivids
2017-09-19, 23:29:44
Ja klar, der gemessene Leistungsverlust und sichtbares banding ist grüner VooDoo. Als nächstes kommt bestimmt Microsoft und sonst was sind schuld.

gravitationsfeld
2017-09-19, 23:31:58
Dir ist schon klar, dass alle Spiele intern seit Jahren HDR-Formate verwenden? Alles was sich mit HDR-Display-Output aendert ist das schreiben in den finalen Backbuffer.

Nichts was wirklich Performance kostet ist davon betroffen.

gedi
2017-09-19, 23:32:57
Könnte mal bitte jemand mit einer 1070@~1.85G und Skylake oder Kaby Lake @3.9G den Firestrike in 8-Bit testen? Mir geht es primär um den Grafikscore.

vinacis_vivids
2017-09-19, 23:33:19
Ja klar, und der Algorithmus von Nvidia ist perfekt, ohne verluste und so :D

aufkrawall
2017-09-19, 23:33:42
Es gibt APIs zur HDR-Ausgabe von MS, AMD & NV. Soll alles sehr wackelig sein, sich da an einem Ergebnis der Gamestar hochzuziehen ist völlig hirnrissig.

gravitationsfeld
2017-09-19, 23:34:36
Was fuer ein "Algorithmus? Jegliche Komprimierung die eine GPU macht ist IMMER verlustlos. Das ist ein Fakt. Hoer auf hier wilde Verschwoerungstheorien zu verbreiten. Es geht nicht anders, exakte Werte sind keine "nice to have"-Sache, etliche Sachen wuerden einfach komplett kaputt gehen wenn die GPU daran wild rumpfuschen koennte.

Wenn es derzeit Performance-Probleme mit HDR gibt ist das eher ein Problem in der Ausgabekette mit irgendwelchen wilden Synchronisierungsproblemen. Das Zeug ist in den Kinderschuhen.

aufkrawall
2017-09-19, 23:37:17
Könnte mal bitte jemand mit einer 1070@~1.85G und Skylake oder Kaby Lake @3.9G den Firestrike in 8-Bit testen? Mir geht es primär um den Grafikscore.
Wo gibt es überhaupt die Bestätigung, dass 3D-Programme automatisch >8 Bit arbeiten, nur wenn man das im Treiber für die Ausgabe auswählt?

gravitationsfeld
2017-09-19, 23:38:30
Tun sie nicht. Das Backbuffer-Format muss ausgewaehlt werden (DX: https://msdn.microsoft.com/en-us/library/windows/desktop/hh972627(v=vs.85).aspx) und praktisch alle Apps die es bisher gibt werden 8-Bit nehmen. Der Scanout-Teil der GPU macht dann zwei bits nullen hinter jeden Wert und das war's.

aufkrawall
2017-09-19, 23:42:20
Thx. Also wahrscheinlich viel Placebo-BS, was man dahingehend für Spiele mit SDR-Output liest. :freak:

gravitationsfeld
2017-09-19, 23:42:59
Oh ja. Gamma guuuuut.

vinacis_vivids
2017-09-19, 23:45:38
Bis die nächsten Verluste gemeldet werden. Wir warten auf weitere Messungen.

gedi
2017-09-19, 23:46:02
Wo gibt es überhaupt die Bestätigung, dass 3D-Programme automatisch >8 Bit arbeiten, nur wenn man das im Treiber für die Ausgabe auswählt?

Des sieht unter 10-Bit halt alles a bissle besser, sprich farbenfroher aus. Trotzdem wäre ich sehr dankbar für einen kurzen Firestrike-Bench mit oben angegebenem Setting.

gravitationsfeld
2017-09-19, 23:46:53
Nein, tut es nicht. Ausser das Display ist faelschlicherweisse auf Wide-Gammut gestellt und interpretiert das Input-Signal nicht als sRGB.

gedi
2017-09-19, 23:56:59
Nein, tut es nicht. Ausser das Display ist faelschlicherweisse auf Wide-Gammut gestellt und interpretiert das Input-Signal nicht als sRGB.

Also so wahnsinnig viel falsch machen kann man da nicht. Monitor->Setting->Input>PC. Dann kann man noch die Ports 2+3 als HDR konfigurieren und das war es eigentlich. Ich habe mir kürzlich für ~15€ RE7 bei Steam gegönnt und finde den HDR-Effekt schon ziemlich nice.

scully1234
2017-09-20, 00:06:41
Nein, tut es nicht. Ausser das Display ist faelschlicherweisse auf Wide-Gammut gestellt und interpretiert das Input-Signal nicht als sRGB.


Wenn der Content nicht BT2020 vorgibt ,ist das doch sowieso Placebo

"Das HDR" was alle jetzt so dringend wollen mit 10bit Abstufung ,ist nicht unterm antiquierten RGB beheimatet =)

Wir warten auf weitere Messungen.

Wer ist "wir"?

Es wurde bereits alles gesagt, imaginäre Interessensgruppen nützen da nicht viel:freak:

gravitationsfeld
2017-09-20, 00:29:49
Also so wahnsinnig viel falsch machen kann man da nicht. Monitor->Setting->Input>PC. Dann kann man noch die Ports 2+3 als HDR konfigurieren und das war es eigentlich. Ich habe mir kürzlich für ~15€ RE7 bei Steam gegönnt und finde den HDR-Effekt schon ziemlich nice.
Ich dachte du meinst Nicht-HDR-Spiele. Wenn HDR unterstuetzt wird ist es natuerlich was anderes.

gedi
2017-09-20, 00:31:50
Wenn der Content nicht BT2020 vorgibt ,ist das doch sowieso Placebo





also 4k (bzw. 8k). Von nichts anderem rede ich hier.

@Gravitationsfeld

Natürlich rede ich von Spielen (gibt ja leider nicht sehr viele), welche HDR unterstützen. Das Fake-HDR sieht scheiße aus, keine Frage und hier interessiert es mich auch nicht die Bohne ob und warum eine Grafikkarte an Performance verliert, da imo kein Mehrwert gegeben ist.

scully1234
2017-09-20, 00:36:33
Die Auflösung bei Spielen gibt dir aber nicht den Farbraum vor, es sei denn es ist eine genormte UHD

gedi
2017-09-20, 00:39:21
Die Auflösung bei Spielen gibt dir aber nicht den Farbraum vor, es sei denn es ist eine genormte UHD

Eigentlich dachte ich BT2020 = min. 4k bei min. 10-Bit im Seitenverhältnis 16:9

24p
2017-09-20, 07:19:35
Die Kompression in 12bit und 10bit ist anscheinend nicht so *effizient*. Wenn der Algorithmus mehr banding verursacht, ist das qualitativ als auch leistungsmäßig verlustbehaftet.
Das ist der große Unterschied zu AMD, deren Treiber tiefer in die Hardware eintaucht und mit höherer Präzision rechnet. Egal wie man es dreht oder wendet, mehr Farben kosten mehr Bandbreite.

Tflops und bandbreitenmäßig ist ist Nvidia unterlegen in gleicher Preisklasse. Da muss eben mehr komprimiert werden. Und Nvidia ist in der Vergangenheit schon mit diversen Speichertricks und Treibertricks aufgefallen.


Falsch. Banding gab es nur bei 8 bit, da AMDs FakeHDR offenbar besser funktioniert. HDR auf dem PC funktioniert eben noch nicht richtig und keiner weiss, was die Spiele da machen. Ich sehe hier auch keine Relevanz. Wer sich nicht einmal den Aufpreis zur 1080Ti leisten kann wird erst recht keinen HDR TV zu Hause rumstehen haben. ;)

x-force
2017-09-20, 17:19:06
niemand hier mit shadow warrior und passendem monitor?
ich denke die benchs von gamestar kommen hin.
die größeren daten werden nicht for free übertragen.

gravitationsfeld
2017-09-20, 17:43:16
Groan.

Welche "Uebertragung? Zum Display? Das ist Scanout und immer "umsonst".

x-force
2017-09-20, 17:53:16
Groan.

Welche "Uebertragung? Zum Display?

davor natürlich


Half16 doubles the size of all color buffers in the rendering pipeline, needs more bandwidth during rendering. Half16 doubles the precision of their intermediate color buffers. It’s not going to make a difference on standard displays. And there’s a perf hit with Half16, so not really a good choice for 99% [of users]

https://www.gamersnexus.net/game-bench/2859-mass-effect-andromeda-gpu-benchmark-fps-frametimes

gravitationsfeld
2017-09-20, 17:59:39
Jedes Spiel mit einer halbwegs aktuellen Engine benutzt seit Jahren HDR-Buffer. float16 ist auch nicht ein besonderer Fall der auf NVIDIA irgendwie aussergewoehnlich langsam ist. Das ist voellig normales Rendertarget-Format. Technik aus DX9-Zeit.

GerryB
2017-11-20, 18:29:46
Also ich kann Gedi nur bestätigen !!!
Wenn ich vom SDR-Monitor auf den HDR wechsele steigt irgendwie die Belastung der GPU.
Ich brauch dann mehr vcore . (RX56 Ref. UV 0,95-->1,02V)
Getestet mit TimeSpy.
Habt Ihr denn alle keinen HDR-TV im Wohnzimmer (wo Ihr Konsole spielt mit HDR).
Mit dem Samsung und DP1.4 ist vielleicht sogar noch mehr Last als mit HDMI 2.0.
@Raff
Ihr habt doch gerade erst den Samsung getestet!?
Ich würde wirklich gern mal die Temps von jemand Anderem sehen wollen bei einer
Referenzkarte SDR vs. HDR.
OT
600Cd sind im HDR-Mode enough. TimeSpy großartiges Lichtspiel.

dargo
2017-11-20, 18:33:12
Habt Ihr denn alle keinen HDR-TV (Konsolen haben schon ewig HDR).

Konsolen haben schon einen intergrierten HDR-TV? :D Meine Graka kann auch HDR. ;) Nichts weiter ist die Konsole... ein Ausgabegerät. Frag dich mal wieviele Konsolenspieler einen HDR-Bildschirm haben. ;)

Ex3cut3r
2017-11-20, 18:37:39
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11556191&postcount=6154

GerryB
2017-11-20, 18:47:23
@Dargo
HDR fähigen Fernseher, den mußt Du zusätzlich zu der Konsole /Graka kaufen und mind. mit DP1.2+ bzw. HDMI 2.0 anschliessen.
@blaidd
FS2 kommt erst später als API in die Spiele.
Bei NV+AMD weiterhin Tonmapping im Moni. erf..
Mehr Info:
https://www.hardwareluxx.de/community/f111/samsung-bringt-die-ersten-freesync-2-monitore-auf-den-markt-1165955-2.html

GerryB
2017-11-20, 18:55:52
@blaidd
Dell Ultrasharp ist ne lahme Krücke.(Inputlag)
Der Samsung ist viel schneller.
Ich staune eigentlich wie Gedi zurechtkommt.
Da müßte auch mehr Lag sein.

GerryB
2017-11-20, 19:07:09
@Gedi
Hat Destiny 2 nun eigentlich am PC HDR oder kommt das nur für Konsolen ? (ACO =fail)
Wenn ja da mal Benchmark SDR vs. HDR ?

Igor TH
2017-11-20, 19:08:32
Ich kanns nur mit der Workstation und Profi-Karten testen, aber am Eizo-Monitor liegt bei 10 Bit Farbtiefe der Einbruch am OpenGL-Overlay bei exakt Nullkommanichts und bei DirectX ebenfalls. Leichte Abweichungen liegen natürlich im Toleranzbereich. Wobei 10-Bit Farbtiefe Farbtiefe und HDR natürlich nicht das Gleiche sind. Selbst kleine Display-Karten von AMD können das im Profibereich seit Jahren, sogar mit mehreren Monitoren.

dargo
2017-11-20, 19:10:09
@Dargo
HDR fähigen Fernseher, den mußt Du zusätzlich zu der Konsole /Graka kaufen und mind. mit DP1.2+ bzw. HDMI 2.0 anschliessen.

Echt? :eek: :wink:

btw.
Das Forum hat eine Editierfunktion.

GerryB
2017-11-20, 19:26:12
Echt? :eek: :wink:

btw.
Das Forum hat eine Editierfunktion.

Lieber Dargo,
Was möchtest Du gerne editiert haben?
Ich könnte 5 Smileys anbieten.
(ansonsten finde ich Deine Beiträge Spitze)
Ich wollte nur sagen "learning by doing".
Gruß
Ich habs extra für Dich nochmal umgetextet.
Have a nice day.

GerryB
2017-11-20, 19:48:35
@blaidd
http://www.tftcentral.co.uk/reviews/samsung_c32hg70.htm
Da findest Du auch den DELL.(Lag Classification RED!!!)

Ex3cut3r
2017-11-20, 20:06:19
Gedi spielt glaube ich auf einen HDR OLED TV. Aber er ist ja nicht mal fähig sein Smartphone rauszuholen und mal ein kleines "Beweiß Video" zu filmen. Einfach die Geforce rein, Einmal mit 10-Bit wie er sagt kurz die FPS abfilmen, dann ohne die CAM auszuschalten auf 8-Bit umzuschalten und wieder die FPS filmen. Das gleiche dann mit der Vega.

Erst ist ja damals auch angeblich von der 1080 auf die RX 480 gewechselt, angeblich war die RX480 schneller. ;D

GerryB
2017-11-20, 20:12:29
Dann geh doch zu nem Kumpel der nen HDR TV hat und mach den BF1 Benchmark.
Mir gehts wie Gedi . Ich spiele keine Shooter.
Was aber jeder schauen kann mit HDR Moni/TV ist die Temp bei TimeSpy.
Da ist definitiv mehr Last. Deswegen hat Gedi ja zuerst den Kühler bei seiner Ti umgebaut.
Bei der LFC merkt er wahrscheinlich gar nichts, weil alles gut weggekühlt wird.
Deswegen dann die Annahme "for free".

Ex3cut3r
2017-11-20, 20:17:33
Dann geh doch zu nem Kumpel der nen HDR TV hat und mach den BF1 Benchmark.
Mir gehts wie Gedi . Ich spiele keine Shooter.
Was aber jeder schauen kann mit HDR Moni/TV ist die Temp bei TimeSpy.
Da ist definitiv mehr Last. Deswegen hat Gedi ja zuerst den Kühler bei seiner Ti umgebaut.

Nö, ich warte auf die PCGH, oder Gedi macht ein Video.

Und nichts für ungut, aber GerryB - Gedi ziemlich ähnlich, bist du nicht die selbe Person? :biggrin:

GerryB
2017-11-20, 20:31:53
Oder wir machen einen HDR Owners Thread auf.
btw
Blaidd könnte ja mal damit dienen.
Sorry,
ich bin nicht Gedi sondern siehe Sig.
Der Samsung war im Cashback bei Alternate und seit dem interessiere ich mich natürlich für HDR.
Ich staune das hier Keiner (ausser Gedi) Interesse am technischen Fortschritt hat.
Ich könnte mich maßlos aufregen, wenn nur für die Konsolen HDR in einige Games kommt.
@PCGH
"Für Frühjahr 2018 ist das HDR Special geplant."
Wie lange gibt es die PS4Pro ? Und mein Pc kann wohl weniger?
Der Monitor-Beitrag war auch dünn.
So lange konnte und wollte ich nicht warten.
Ich will Weihnachten max. HDR-Fun.

N0Thing
2017-11-20, 20:53:53
Ich staune das hier Keiner (ausser Gedi) Interesse am technischen Fortschritt hat.

Das Interesse besteht sicherlich bei vielen, die Auswahl an Spielen mit HDR ist aber noch sehr übersichtlich und die Auswahl an Monitoren mit HDR ist ebenfalls sehr klein.

dargo
2017-11-20, 20:59:50
Lieber Dargo,
Was möchtest Du gerne editiert haben?

Du musst nicht jeden Beitrag einzeln schreiben, dafür gibt es eine Editierfunktion.

M4xw0lf
2017-11-20, 21:00:00
Da der Thread absolut unlesbar ist: gibt es hierzu irgendwelche belastbaren Daten?
Ja / Nein genügt.

GerryB
2017-11-20, 21:05:37
Das Interesse besteht sicherlich bei vielen, die Auswahl an Spielen mit HDR ist aber noch sehr übersichtlich und die Auswahl an Monitoren mit HDR ist ebenfalls sehr klein.

Da ich schon ein bisschen älter bin reicht mir für Weihnachten eigentlich ein Kracher.
ACO wärs gewesen aber da hat wohl wer was dagegen, um seinen Geldbeutel zu füllen.
Liste gabs bei PCGH + Wiki.
Wie siehts eigentlich bei Thief + DEM+Prey mit HDR aus ?

Ex3cut3r
2017-11-20, 21:07:09
Oder wir machen einen HDR Owners Thread auf.
btw
Blaidd könnte ja mal damit dienen.
Sorry,
ich bin nicht Gedi sondern siehe Sig.
Der Samsung war im Cashback bei Alternate und seit dem interessiere ich mich natürlich für HDR.
Ich staune das hier Keiner (ausser Gedi) Interesse am technischen Fortschritt hat.
Ich könnte mich maßlos aufregen, wenn nur für die Konsolen HDR in einige Games kommt.
@PCGH
"Für Frühjahr 2018 ist das HDR Special geplant."
Wie lange gibt es die PS4Pro ? Und mein Pc kann wohl weniger?
Der Monitor-Beitrag war auch dünn.
So lange konnte und wollte ich nicht warten.
Ich will Weihnachten max. HDR-Fun.

Dann entschuldige ich mich, HDR interessiert am PC eher weniger, weil wir keine OLED Monitore haben, HDR nutzt imo nix, kombiniert mit schwachen IPS Panels wo der Kontrast ein Witz ist und dazu noch eine schlechte Ausleuchtung und jeweils Glow dazukommt. Im TV Sektor bekommt du ja schon für 1500€ ein 55" 4K OLED von LG. Im PC Bereich kannst du von solchen Preisen erstmal träumen.

GerryB
2017-11-20, 21:25:20
OT
Dann schau bitte in den Link den ich für Blaidd angehangen habe.
Bis 100Hz ist bei dem Samsung HDR i.O.
Kann ich bei TimeSpy bestätigen. (meine HDR Einstellung auf 100Hz gesetzt).
Aktuell ist der Samsung für mich ein guter Kompromiss.
Wer mehr Dimmingzonen will mit DELL hat dafür schlechtere Timings.
Und aus meiner Sicht sind in TimeSpy die 600Cd ausreichend.(kein Bedarf für OLED mit noch schlechteren Timings)
Mit nem SDR Monitor kein Vgl..
Wer was schreiben will sollte den Moni drehen(Pivot) falls er sich an Curved stört.
Ich persönlich finde die Immersion gut.
OT2
@Gravitationsfeld
Wann bringt eigentlich Vulkan das für Herbst versprochene mGpU?
Ist für W2 HDR in Arbeit für den PC ?
IT
Wie bringt die GPU eigentlich die Daten zum Moni - Ausgang? (Quadrat yxz auf dem Chip)
Wird dieser Bereich bei HDR wärmer ? Aber bitte nicht mit einfach 10Bit (fc) vgl. sondern
funktionsfähigem HDR in Game. (fc sagte ja schon das man das nicht vgl. kann.)
Also bei mir schaltet der Monitor in TimeSpy extra von Displayport auf Displayport HDR um.

Mal schauen was bei Blaidd rauskommt.
Gucke dann Morgen wieder rein.
Vorab vielen Dank für die Auskünfte.

Loeschzwerg
2017-11-21, 07:36:53
@GerryB: Habe eine LG C7 und eine Vega 64 Air. Was möchtest du jetzt genau wissen?

An die Schaltzeiten von OLEDs kommt zudem so schnell nichts hin, versauen tut es wenn dann die Steuerung der bescheuerten "Smart"-TVs.

GerryB
2017-11-21, 10:50:42
Hast Du zufälligerweise noch einen normalen Monitor ?
Am besten einfach TimeSpy einmal am HDR und einmal am SDR laufen lassen.
GPU-Z dürfte dann Unterschiede zeigen.(Temps+Max.Watt) Score ohne großen Unterschied.
Also ich mußte mein UV etwas anheben, da am HDR mehr Temp. sprich Absturz bei Ende Test 2.
Ich glaube:
Der DP 1.4 bei mir zieht mehr Strom mit HDR.(Kabelqualität wird ganz wichtig)
Auch schon der Sprung von FHD auf 4k wirkt sich aus.(siehe PCGH-Forum Vega UV/OC da auch von Usern
festgestellt, das 4k mehr Stabilität braucht)
Daher wundert es mich nicht das bei Gedi die Ti wärmer geworden ist. Die RX64LC kühlt das wahrscheinlich
besser weg.
Wow:
Dein TV ist leider nicht in meinem Budget. Vllt. nächstes Jahr. Wie ist eigentlich der Inputlag ?
Dachte immer bei TV min. 20ms erreichbar. Das wäre ca. wie bei Blaidd mit dem Dell.
Deswegen bei mir lieber die eierlegende Wollmilchsau.
Wenn Du noch einen Bekannten mit NV-Karte hast wäre das schön. Ansonsten warten wir auf Blaidd.
(z.Bsp. Hitman Benchmark HDR vs. SDR).

Loeschzwerg
2017-11-21, 17:01:47
Primär wird ein EIZO FS2735 via DP @ 144Hz angesteuert. Werde dann beizeiten mal mit dem LG testen.

Input-Lag ist sehr gering im Game-Mode und für mich nicht wahrnehmbar, aber ich habe da auch noch nie Quake o.ä. mit dem PC gezockt, sonder ausschließlich an der Konsole. Schau dir mal den Test zum LG C7 von digitalfernsehen.de (@ Youtube) an.

GerryB
2017-11-21, 18:30:25
Hab den LG mal gegoogelt.
Inputlag : bei 4k @ 60Hz @ 4:4:4 + 8 bit FRC HDR 21.3 ms (über HDMI)
120Hz Panel ist top.
Für 90% der Games ausreichend.
Ich überlege gerade Destiny 2 an Weihnachten anzuschaffen da ist sicherlich bei schnellen
Drehungen meiner etwas besser geeignet. (6,5ms; der Dell von Blaidd 20,3/4,95ms)
Dafür hat Dein Oled natürlich etwas mehr Bums = 7xxCd. Da sieht TimeSpy sicher geil aus.
Und die Mutti freut sich bei Netflix HDR.
Im Voraus Danke für Deine Mühe.
Da weiß ich dann wenigstens ob das Problem Allgemein oder nur bei mir ist.
Ich werde mir auf jeden Fall mal noch ein anderes Kabel kommen lassen.

Cubitus
2017-11-21, 18:53:07
Ganz ehrlich ich finde HDR shice..
Für mich ist der Effekt total gehypt egal ob jetzt im Film oder im Game..
Viel zu knallige Farben und verwaschen zu helle Bereiche.

Ich mag LowDR und bin es gewohnt ;D

SCNR: Trollpost

GerryB
2017-11-21, 19:30:26
Da mußte eben auch einen guten TV/Monitor haben.(nicht sparen, vorher schlau machen)
Bei TimeSpy Szene 2 wenn der Drachen durchs Fenster kommt siehst bei ordentlichem HDR eben
super Kontraste. Verschwommenes Licht deutet eher auf Billig-TV/Monitor.
Am SDR ist alles viel zu milchig.

Ex3cut3r
2017-11-21, 19:40:50
Wie man es nimmt, HDR ist für mich vorallem am PC oft noch "Fake" Und außerdem läuft bei mir fast in jedem Game Custom Reshade mit. Ich lass das lieber noch ruhen, und warte auf OLED Monitore mit HDR2?! und 5160x2160 21:9 bitte, einmal 21:9, niemals 16:9.

T88FipvuDvM

Cubitus
2017-11-21, 19:50:21
Da mußte eben auch einen guten TV/Monitor haben.(nicht sparen, vorher schlau machen)
Bei TimeSpy Szene 2 wenn der Drachen durchs Fenster kommt siehst bei ordentlichem HDR eben
super Kontraste. Verschommenes Licht deutet eher auf Billig-TV/Monitor.
Am SDR ist alles viel zu milchig.

Ich hab das an einem Löwe Bild 7 gesehen ;)
Genügt das!? :D

In meiner engeren Verwandschaft gibts so ein kaputten TV-NerD :freak:

Das liegt aber weniger an dem Gerät sondern daran das mir der Effekt einfach nicht gefällt.
Im Movie sind es die viel zu knalligen Farben und beim Spiel der Helligkeitswert..

Also ein schönes Schwarz habe ich eher mit SD als wie mit HD und vielleicht ist es auch gut wenn man nicht alles in einer dunklen Ecke sehen muss ;)

Ich lass das lieber noch ruhen, und warte auf OLED Monitore mit HDR2?! und 5160x2160 21:9 bitte, einmal 21:9, niemals 16:9.

http://youtu.be/T88FipvuDvM

21:9 OLED, bezahlbar wäre geil

blaidd
2017-11-21, 19:57:03
Hab's grad mit 5 Spielen durchgemessen. Einen Performanceverlust gibt es. Aber in den getesteten Fällen ist der minimal. AMD leicht bevorteilt, aber "umsonst" ist HDR auch da nicht (effektiv ist es bei beiden kein großer Unterschied, zumindest Highend/4K). PCGH 01/2017 ;)

Viel schlimmer ist der zusätzliche Lag - der ist außerdem generell und sogar bei 144 Hz/Freesync 2 ein Faktor.

dildo4u
2017-11-21, 19:57:38
Ich hab das an einem Löwe Bild 7 gesehen ;)
Genügt das!? :D

In meiner engeren Verwandschaft gibts so ein kaputten TV-NerD :freak:

Das liegt aber weniger an dem Gerät sondern daran das mir der Effekt einfach nicht gefällt.
Im Movie sind es die viel zu knalligen Farben und beim Spiel der Helligkeitswert..

Also ein schönes Schwarz habe ich eher mit SD als wie mit HD und vielleicht ist es auch gut wenn man nicht alles in einer dunklen Ecke sehen muss ;)

21:9 OLED, bezahlbar wäre geil

Die meisten HDR Filme und Serien sind extrem Dunkel Ausnahmen sind vieleicht Pixar Filme,da scheinste noch nicht viel gesehen zu haben.Hier wird gut erklärt was das Ziel von HDR ist.

Ebf2Oi23Pw0

Cubitus
2017-11-21, 20:12:00
Ein gut eingestelltes SDR Bild ist mir lieber und entspricht eher meinen Präferenzen als ein vorgegebenes "festgelegtes" HDR Bild.

Mag sein das die jeweiligen "Macher" sich das gerne anders vorstellen, aber ich muss ja schließlich in den Kasten reinschauen..
Und in meinen Augen ist ein HDR Bild z.B nicht natürlich.. Sieht vielleicht nuttig aus, teilweise schön kontrastreich oder jeweils hell oder enstprechend dunkel.. Aber das es in mir nen WOW Effekt auslöst meh..
Da fand ich den Sprung zu 4K allgemein doch besser.

Also ich halte fest, Games zu hell, Beim TV zu Kontrastreich oder zu hell der zu dunkel..

GerryB
2017-11-21, 20:13:05
Löwe Bild 7 ist Modell 2016.
Auf der Website nichts zum Panel.(verdächtig)
Da wäre mir der LG mit 120Hz Panel lieber.
Der TV steht und fällt mit der Quelle.(aufgehübschtes HDTV ist Müll)
Löwe hat nicht mal Netflix-App.
Aber
zum Glück gibt es tausend Geschmäcker sonst könnten nicht so viel unterschiedliche
Marken existieren.
Ansonsten ist das immmer noch der HDR Thread und nicht der NICHT HDR Thread.

Cubitus
2017-11-21, 20:30:05
Löwe Bild 7 ist Modell 2016.
Auf der Website nichts zum Panel.(verdächtig)
Da wäre mir der LG mit 120Hz Panel lieber.
Der TV steht und fällt mit der Quelle.(aufgehübschtes HDTV ist Müll)
Löwe hat nicht mal Netflix-App.
Aber
zum Glück gibt es tausend Geschmäcker sonst könnten nicht so viel unterschiedliche
Marken existieren.
Ansonsten ist das immmer noch der HDR Thread und nicht der NICHT HDR Thread.

Die Bildqualität passt schon ;)
Glaub mir, dass Bild ist besser als bei nem LG, obwohl LG das Panel stellt ;)

Und ja Netflix gibts beim Löwe noch nicht, das geht atm über den internen Browser.. Soll aber ein Update folgen..

Dafür geht z.b Chromcast 4K als HDR.
Und du kannst als Zuspieler Dolby HDR oder HDR10 nutzen.

Wie gesagt mir gefällt der Effekt einfach nicht..
Gerne lasse ich mich in einem Kinosaal davon überzeugen, aber sogar die Kinolobby ist skeptisch, ich frage mich warum!?

GerryB
2017-11-21, 20:37:02
Netflix HDR Content soll momentan Maß der Dinge sein.
Aber hier gehts es um das Gamen.
Mit 20.000 :1 Kontrast und Blackverbesserer ist nunmal
mehr zu sehen. = Leben oder Tod.

Ex3cut3r
2017-11-21, 20:38:07
Hab's grad mit 5 Spielen durchgemessen. Einen Performanceverlust gibt es. Aber in den getesteten Fällen ist der minimal. AMD leicht bevorteilt, aber "umsonst" ist HDR auch da nicht (effektiv ist es bei beiden kein großer Unterschied, zumindest Highend/4K). PCGH 01/2017 ;)

Viel schlimmer ist der zusätzliche Lag - der ist außerdem generell und sogar bei 144 Hz/Freesync 2 ein Faktor.

Danke. Damit wäre ein weiterer Mythos bei Seite gelegt, sehr schön.

GerryB
2017-11-21, 20:44:15
PCGH 01/2017 ?
http://www.pcgameshardware.de/screenshots/430x/2017/02/HDR-frisst-Frames-pcgh.jpg
Uraltes Zeug mit ner 1070?
http://www.pcgameshardware.de/Fernseher-Hardware-134500/Specials/HDR-Hitman-Shadow-Warrior-Resident-Evil-7-1219723/
Wie sind denn die Temps+Watt?
Das kann bei Océn dann schon ganz schön was ändern.
Lag 2d nicht bei mir.
Lag im Spiel hab ich noch nichts gehört bei VEGA.
Hmm - wären da nicht die Konsolen betroffen ?
Bei dem oben verlinkten Artikel hatten User mit HISIENSE keine Probleme.
zur Erinnerung:
Fs2 muss erst noch per Patch im Spiel und per Treiber aktiviert werden.
Aktuell noch nicht verfügbar. Also Tonmapping im Monitor bei Beiden.
Da ist Pascal wohl AKTUELL irgendwie vom Treiber falsch gesteuert.
Frag doch mal bitte den Kollegen ob das damals gelagt hat.
Er schreibt ja nur was von TEARING.(Moni ?+Graka rel. schwach)
Ist denn das Problem mit AB immer noch da?

VooDoo7mx
2017-11-21, 21:40:50
Und dabei hat der 3D Mark Timespy nicht mal eine HDR Ausgabe.
Deine Monitor scheint ja so unglaublich gut zu sein wenn der das so einfach so herzaubern kann.
:facepalm:

Ex3cut3r
2017-11-21, 21:52:10
GerryB arbeite bitte mal an deinem Satzbau sowie richtiger Punkt und Komma Setzung, deine Texte sind furchtbar schwer zu lesen.

Danke.

GerryB
2017-11-21, 22:00:34
Und dabei hat der 3D Mark Timespy nicht mal eine HDR Ausgabe.
Deine Monitor scheint ja so unglaublich gut zu sein wenn der das so einfach so herzaubern kann.
:facepalm:
http://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/PCMark-10-und-Updates-fuer-VRMark-und-3DMark-1218595/
Mein Monitor läuft auf dem Desktop im HDR Mode.
Wenn er umschaltet, z. Bsp. bei Firestrike zeigt er Mode Displayport an.
Bei Timespy bleibt HDR Mode on.
Aufgrund der Feststellung von Blaidd, daß NV laggt sollten sich bitte alle Zweifler bei GEDI entschuldigen,
zumindestens Diejenigen mit Kinderstube.
Das die 1070 bereits im ersten Monitortest über 8% bei Hitman verloren hat dürfte wohl eindeutig sein.
Warum sollte sich auch gegenüber dem PC Games Review auf einmal Alles ändern und bei NV jetzt for free sein ?

Moreover, changes made to HDR in Windows 10 via the Creator’s Update caused problems with HDR on systems using Nvidia graphics cards, which only the latest drivers seem to be clearing up. It’s a mess.
http://www.pcgamer.com/what-hdr-means-for-pc-gaming/
Wurde das von NV inzwischen behoben ?

gedi
2017-11-22, 01:13:01
Hab's grad mit 5 Spielen durchgemessen. Einen Performanceverlust gibt es. Aber in den getesteten Fällen ist der minimal. AMD leicht bevorteilt, aber "umsonst" ist HDR auch da nicht (effektiv ist es bei beiden kein großer Unterschied, zumindest Highend/4K). PCGH 01/2017 ;)

Viel schlimmer ist der zusätzliche Lag - der ist außerdem generell und sogar bei 144 Hz/Freesync 2 ein Faktor.

Doch - völlig umsonst :) Ob ich jetzt mit oder ohne HDR spiele ist schnuppe. S.h. die Benchmarks befinden sich innerhalb der Messtoleranzen. Du könntest mir aber einen Gefallen tun: Schließe mal bitte den Monitor über HDMI an und benche nochmals.

BTW. finde ich es äußerst amüsant, dass hier Leute über HDR 10 urteilen, ohne es jemals im Einsatz gesehen, bzw. gehandelt zu haben. Ein Destiniy 2 ohne HDR sieht im Vergleich Mega-Scheiße aus. Gleiches gilt z.B. für F1 2017.

GerryB
2017-11-22, 02:28:18
Ich wünsche Dir eine Gute Nacht und bin gespannt was Morgen Löschzwerg berichtet.

Ex3cut3r
2017-11-22, 14:58:25
Doch - völlig umsonst :) Ob ich jetzt mit oder ohne HDR spiele ist schnuppe. S.h. die Benchmarks befinden sich innerhalb der Messtoleranzen. Du könntest mir aber einen Gefallen tun: Schließe mal bitte den Monitor über HDMI an und benche nochmals.

Nimm mal dein Smarthphone zur Hand und Blende die FPS mit Afterburner oder sonst was ein, dann deaktivier HDR und zeig uns wieder die FPS. Am besten so, dass keine Schnitte drin sind und man sieht das du nur HDR aktivierst/deaktivierst und nix an den Grafikeinstellungen änderst. Und das ganze dann nochmal mit einer GeForce wenn möglich.

aufkrawall
2017-11-22, 15:14:35
gedi wollte mir auch erzählen, eine 1070 taugt nicht viel im Vergleich zu Polaris. Just saying...

GerryB
2017-11-22, 15:56:05
gedi wollte mir auch erzählen, eine 1070 taugt nicht viel im Vergleich zu Polaris. Just saying...
Testbericht mit RX480 - siehe lnk im Txt.
https://www.gamecrate.com/samsung-chg70-32-inch-hdr-gaming-monitor-overview/16348
Und wie schon gesagt war das mit der 1070 irgendwie bescheiden.
http://www.pcgameshardware.de/Fernseher-Hardware-134500/Specials/HDR-Hitman-Shadow-Warrior-Resident-Evil-7-1219723/
Ich kann Dir gern mal ne RX480 zum Vgl. Lag ausborgen.
Was hast Du eigentlich für einen HDR-TV ?

Bitte in Zukunft nur noch Beiträge von HDR-Ownern.

Loeschzwerg
2017-11-22, 17:47:36
Ich wünsche Dir eine Gute Nacht und bin gespannt was Morgen Löschzwerg berichtet.

Wochenende, vorher wird es nichts, sorry.

GerryB
2017-11-22, 17:54:09
Wochenende, vorher wird es nichts, sorry.
Schönen Feiertag

scully1234
2017-11-22, 17:57:51
BTW. finde ich es äußerst amüsant, dass hier Leute über HDR 10 urteilen, ohne es jemals im Einsatz gesehen, bzw. gehandelt zu haben. Ein Destiniy 2 ohne HDR sieht im Vergleich Mega-Scheiße aus. Gleiches gilt z.B. für F1 2017.

Es haben dir auch Leute mit HDR Setup erzählt, das das aus den Reich der Fabeln ist mit deinem Performance Gap

Nun hast du es von offizieller Seite nochmals bestätigt, das HDR nix signifikantes kostet, weder bei dem einen noch dem anderen Vendor.

Können wir das jetzt ad acta legen, oder geht die Tour weiter?

GerryB
2017-11-22, 18:09:14
Nun hast du es von offizieller Seite nochmals bestätigt, das HDR nix signifikantes kostet, weder bei dem einen noch dem anderen Vendor.

Können wir das jetzt ad acta legen, oder geht die Tour weiter?

Was hast Du für eine HDR Hardware ?
Wer ist offiziell ?
Blaidd hat am Ende nix Neues erzählt.
Verweis auf PCGH 01/2017 ?!
buggy Treiber und Lags = Das reicht ? nope

Ex3cut3r
2017-11-22, 18:12:25
Hab's grad mit 5 Spielen durchgemessen. Einen Performanceverlust gibt es. Aber in den getesteten Fällen ist der minimal. AMD leicht bevorteilt, aber "umsonst" ist HDR auch da nicht (effektiv ist es bei beiden kein großer Unterschied, zumindest Highend/4K). PCGH 01/2017 ;)

Viel schlimmer ist der zusätzliche Lag - der ist außerdem generell und sogar bei 144 Hz/Freesync 2 ein Faktor.

Hier nochmal. ;)

scully1234
2017-11-22, 18:16:21
Wie gesagt mir gefällt der Effekt einfach nicht..
Gerne lasse ich mich in einem Kinosaal davon überzeugen, aber sogar die Kinolobby ist skeptisch, ich frage mich warum!?

Wenn der Monitor ,Projektor, auf das Nits Preset der passenden UHD abgestimmt ist, dann ist das schon ein ordentlicher Aha Effekt und nicht nur bei den Highlights sondern auch in dunklen Szenen

Sitzt die Gamma Kurve aber nicht korrekt , saufen dir die Details im unteren Bereich ab(das was viele bemängeln Bild ist zu dunkel bei der UHD ist ein Kalibrierungsfehler), und du stehst dich mit erweitertem BT2020 schlechter, wie mit der ordinären Bluray

HDR10 so wie es auf die Verbraucher losgelassen wird u wurde, ist ohne Zutun einfach unreif/undurchdacht

Und wenn UHDs kommen, die mit über 2000 Nits und mehr gemastert sind,(Standardisierung ist ja leider Fehlanzeige), steht der Kunde wieder da und muss nachkallibrieren

GerryB
2017-11-22, 18:23:25
Sorry,
wenn hier nur Nichtbesitzer nen Labberthread draus machen ist mir meine Zeit zu schade.
Alle Interessierten können gerne die Owner im LUXX weiter verfolgen.
Da kommt wahrscheinlich mehr Erfahrungsaustausch.
https://www.hardwareluxx.de/community/f111/samsung-bringt-die-ersten-freesync-2-monitore-auf-den-markt-1165955-2.html

scully1234
2017-11-22, 18:29:32
Was redest du von Nichtbesitzern

Hier das ist das Equipment

http://www.beamer-discount.de/beamer/sony/vpl-vw550-es-cine4home-hdr-edition-schwarz-p-50631.html

reicht das für dich zusammen mit ner Titan X um sich ein Bild zu machen von der HDR Funktionalität?

Ex3cut3r
2017-11-22, 18:32:15
Sorry,
wenn hier nur Nichtbesitzer nen Labberthread draus machen ist mir meine Zeit zu schade.
Alle Interessierten können gerne die Owner im LUXX weiter verfolgen.
Da kommt wahrscheinlich mehr Erfahrungsaustausch.
https://www.hardwareluxx.de/community/f111/samsung-bringt-die-ersten-freesync-2-monitore-auf-den-markt-1165955-2.html
Ich glaube du hast die Überschrift nicht gelesen, das hier ist kein HDR Owners Thread, sondern es geht darum ob NVIDIA drastisch mehr FPS verliert bei HDR als AMD oder umgekehrt.

Naja war ja klar, wenn man keine Agumente mehr hat (die hattest sowieso nie, wenn ich denn deinen Kauderwelsch richtig entschlüsselt hatte) dann flüchtet man eben. Viel Spaß im Luxx.

GerryB
2017-11-22, 18:33:38
Was redest du von Nichtbesitzern

Hier das ist das Equipment

http://www.beamer-discount.de/beamer/sony/vpl-vw550-es-cine4home-hdr-edition-schwarz-p-50631.html

reicht das für dich zusammen mit ner Titan X um sich ein Bild zu machen von der HDR Funktionalität?

Seite nicht gefunden. Sinnlos hier.
Bye

VooDoo7mx
2017-11-23, 11:33:48
Ich glaube du hast die Überschrift nicht gelesen, das hier ist kein HDR Owners Thread, sondern es geht darum ob NVIDIA drastisch mehr FPS verliert bei HDR als AMD oder umgekehrt.

Naja war ja klar, wenn man keine Agumente mehr hat (die hattest sowieso nie, wenn ich denn deinen Kauderwelsch richtig entschlüsselt hatte) dann flüchtet man eben. Viel Spaß im Luxx.

Auch Gedi hatte keinerlei Argumente, einfach irgendeinen Mist behaupten ohne das dies in irgendeiner weise belegt werden kann. Und noch ein paar andere AMD Fanboys springen darauf an und nehmen es als alternativen Fakt. Passt ja schließlich in die eigene Filterblase.

Dann haben wir Benchmarks von PcGameshardware die tatsächlich an Hand von 4 Spielen einen Performanceverlust von durchschnittlich 4,64% bei einer GTX1070 gemessen haben. Das ist ein Fakt.

Dann haben wir hier im Forum das Mitglied blaidd, ebenfalls Redakteur PCGameshardware, der mit mehreren Spielen auch den Verlust bei AMD und nVidia neu nachgemessen hat. Blaidd meint dass beide ein wenig Performance verlieren, nVidia etwas mehr. Aber nirgendwo die Rede von 20%. Alles mit einer Ankündigung für einen Artikel in Ausgabe 01/2017.
Auch Fakt.

Desweiteren darf man nicht vergessen, dass bei der HDR 10 Ausgabe, AMD Karten nur im 8Bit farbformatformat mit Dithering ausgeben, wo und nVidia 10 Bit ausgibt mit reduzierten Chroma Subsampling weil einfach der HDMI 2.0 nicht von der Bandbreite mehr her gibt.
Siehe dazu den Heise Artikel "AMD Radeon RX 400: HDR-Gaming über HDMI nur mit 8 statt 10 Bit" (https://www.heise.de/newsticker/meldung/AMD-Radeon-RX-400-HDR-Gaming-ueber-HDMI-nur-mit-8-statt-10-Bit-3488970.html) Die PS4 Pro und X-Box One S und X geben das Bild übrigens auch genauso wie die nVidia Karten aus. Liegt also nicht an der Hardware, sondern ist bewusst so eingestellt. Dies könnte auch erklären warum nVidia Karten etwas mehr Performance verlieren.
Auch dieser Unterschied bei der HDR Ausgabe zwischen den beiden ist ein Fakt.

Ich hab auf meinen PC nur 2 HDR Spiele. Mass Effect Andromeda und Redout. Bei ersteren bekomme, ich seit den Win 10 Creators Update kein HDR mehr zum laufen und bei Redout habe ich bei vollkommen identischer Szene in 3840x2160 Max Details ~5% Performanceverlust gemessen auf meiner übertakteten Titan X. Deckt sich also auch mit der PCGamesHardware Messung. Auch das ist ein Fakt.

So jetzt haben wir Fakten und Messergebnisse gesammelt, die die krude Theorie ohne Belege von gedi komplett wiederlegen.

Da hilft auch kein neues Mitglied nichts der irgendwelche wirren Posts verfasst und sich HDR Ausgabe bei Benchmarks einbildet wo gar kein HDR da ist und sich damit selbst jede Qualifikation selbst nimmt, um überhaupt über das Thema zu sprechen.
Natürlich hat auch dieses neues Mitglied auch keinerlei Belege und Messungen zu bieten.

blaidd
2017-11-23, 12:41:53
Ich hab in Ultra HD gemessen, mit einer RX Vega 64 und einer GTX 1080.

In zwei von 5 Spielen ist die Performance mit und ohne HDR quasi identisch, HDR ist minimal (~2 %) langsamer. In Call of Duty WW2 und Destiny 2 ist der Performance-Verlust am größten (aber immer noch unter 10 %). Tendenziell ist AMD tatsächlich ein bisschen schneller, aber es sind halt -7 % Performance (Nvidia) und -2% (AMD) oder so, nichts, weshalb man meines Erachtens ein großes Aufheben darum machen müsste...

Via Displayport (10 Bit), Windows, Treiber, Spiele, allesamt so aktuell, wie's grad ging (bis Gestern, aktuell also ziemlich aktuell :wink:).

Ex3cut3r
2017-11-23, 12:52:22
@Voodoo Sehr schön auf den Punkt gebracht.
@Blaidd Nochmal Danke für die Arbeit.

Achill
2017-11-23, 13:34:18
Ich hab in Ultra HD gemessen, mit einer RX Vega 64 und einer GTX 1080.

In zwei von 5 Spielen ist die Performance mit und ohne HDR quasi identisch, HDR ist minimal (~2 %) langsamer. In Call of Duty WW2 und Destiny 2 ist der Performance-Verlust am größten (aber immer noch unter 10 %). Tendenziell ist AMD tatsächlich ein bisschen schneller, aber es sind halt -7 % Performance (Nvidia) und -2% (AMD) oder so, nichts, weshalb man meines Erachtens ein großes Aufheben darum machen müsste...

Via Displayport (10 Bit), Windows, Treiber, Spiele, allesamt so aktuell, wie's grad ging (bis Gestern, aktuell also ziemlich aktuell :wink:).

Hallo blaidd, danke schon einmal für die Arbeit. Hast du auch eine Auflösung kleiner als 4k getestet - wenigstens als Stichprobe? Bei 4k würde ich das Risiko, in ein anderen Flaschenhals zu laufen, als hoch einschätzen. Das Ergebnis könnte natürlich auch sein, das 4k der Worst-Case für HDR ist - auch das wäre eine interessante Info.

Davon ist die Aussage, welchen Einfluss HDR mit 10Bit unter 4k hat, natürlich unberührt.

vinacis_vivids
2017-11-23, 14:30:44
HDR Performanceverlust haben nun alle bestätigt. Der Verlust ist also wie von mir vorhergesagt bei Nvidia (7-10%) deutlich höher als bei AMD (1-2%).

Im worst case ist der Verlust bei Nvidia sogar massivst (12bit, bestimmte Games, -20% oder mehr). Man bräuchte noch mehr Daten.

aufkrawall
2017-11-23, 14:31:41
Schade, gerade wurde es hier aufschlussreich...

VooDoo7mx
2017-11-23, 14:51:34
Davon ist die Aussage, welchen Einfluss HDR mit 10Bit unter 4k hat, natürlich unberührt.

Was soll denn bitteschön HDR mit 10 Bit sein?
Es gibt auf den PC 2 HDR Formate HDR10 und Dolbyvision. Ob AMD Karten überhaupt Dolbyvision können weiß ich nicht aber HDR 10 ist immer 10 Bit Farbtiefe, dass ist schließlich im Namen enthalten.
Die Frage ist aber was die Grafikkarte rechnet wenn ein Spiel mit HDR 10 läuft.
Aktuell ist es so:

AMD PC: 8 Bit mit Dithering 4:4:4
nVidia PC: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht
PS4 Pro: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht
X-Box One S/X: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht.

Siehe den im letzten Beitrag von mir verlinkten Heise Artikel. Das gab es auch schon mal als News hier im 3DCenter.
Und Wenn AMD bei der Farbberechnung spart, ist es kein Wunder dass nVidia Karten ein paar Prozent mehr verlieren.

und ich nochmal: ich hab es in diesen Thema schon mindestens 5 mal geschrieben: Wenn man im Control Panel in der Farbtiefe rumspielt hat das rein gar nichts mit HDR zu tun und beeinflusst auch nicht die HDR Ausgabe.

Pirx
2017-11-23, 14:56:37
...
Die Frage ist aber was die Grafikkarte rechnet wenn ein Spiel mit HDR 10 läuft.
Aktuell ist es so:

AMD PC: 8 Bit mit Dithering 4:4:4
nVidia PC: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht
PS4 Pro: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht
X-Box One S/X: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht...
für HDMI könnte das stimmen...

vinacis_vivids
2017-11-23, 14:56:53
@VooDoo7mx

Ändert irgendwie alles nichts an den Verlusten bei Nvidia.

Zu Vega und HDR aus dem whitepaper:

For applications that can leverage this capability, Rapid
Packed Math can provide a substantial improvement in
compute throughput and energy effciency. In the case of
specialized applications like machine learning and training,
video processing, and computer vision, 16-bit data types are
a natural fit, but there are benefits to be had for more
traditional rendering operations, as well. Modern games,
for example, use a wide range of data types in addition to
the standard FP32. Normal/direction vectors, lighting
values, HDR color values, and blend factors are some
examples of where 16-bit operations can be used.

"HDR color values" brauchen definitiv FP32 Leistung, die bei Vega aber auch im 2xFP16 betrieben werden können. Deshalb wohl der minimale Verlust während Pascal o.ä. mehr frames verliert.

Grendizer
2017-11-23, 15:00:52
Hat es Auswirkungen auf die Qualität :

AMD PC: 8 Bit mit Dithering 4:4:4

vs

nVidia PC: 10 Bit 4:2:2 mit Chroma Subsampling ?


Und im Moment sind wir von immer 20% auf max. 20% und im Endeffekt einem 5-7% Performanceunterschiede zugunsten der Vega.

Ich glaube wir müssen uns dem nächsten Thema zuwenden um zu zeigen wie brachial Vega gegenüber nVidia performt:

http://www.gamestar.de/artikel/amd-radeon-rx-vega-sehr-stark-in-vr-unter-directx-12,3322602.html

Ex3cut3r
2017-11-23, 15:31:25
Und wenn schon, die paar Prozent auch auf Nvidia kann man sich schenken, das ist so als ob man HQ-AF in Treiber aktiviert, den Verlust merkt keine Sau. Gedi meinte halt immer, das der Verlust Super riesig wäre, und das ist er halt nicht (bestätigt von einem PCGH Redakteur, auch Igor meinte das ist marginal) Egal ob Geforce oder Radeon. Eine GTX 1080Ti bleibt auch mit HDR die schnellste Karte.

N0Thing
2017-11-23, 15:32:37
Aktuell ist es so:

AMD PC: 8 Bit mit Dithering 4:4:4
nVidia PC: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht
PS4 Pro: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht
X-Box One S/X: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht.

Siehe den im letzten Beitrag von mir verlinkten Heise Artikel. Das gab es auch schon mal als News hier im 3DCenter.
Und Wenn AMD bei der Farbberechnung spart, ist es kein Wunder dass nVidia Karten ein paar Prozent mehr verlieren.



Ob das wirklich so ist, wissen wir gar nicht mit Sicherheit. AMD hat erst erklärt, es werde immer mit 10 Bit Farbtiefe gerendert und YUV 4:2:2 ausgegeben, später hat ein AMD-Manager von 8Bit und YUV 4:4:4 gesprochen. Also im Prinzip Aussage gegen Aussage.
Gibt es eine Methode, die Ausgabe zu vermessen, welche der beiden Angaben den Tatsachen entspricht? Da PS4 Pro und Xbox One X ebenfalls 10 Bit Farbtiefe und YUV 4:2:2 nutzen, kann es ja eigentlich nicht an der Hardware liegen, wenn am PC tatsächlich bei HDMI 8 Bit mit Dithering und 4:4:4 verwendet wird.

Ex3cut3r
2017-11-23, 15:52:07
Was soll überhaupt 12-Bit sein? :confused:

HDR10 ist halt mit 10-Bit sagt ja schon der Name, Dolby Vision hat doch keine 12-Bit oder?

Ansonsten sind 12-Bit wohl eher was für HDR 2, wenn das überhaupt kommt, den Kauderwelsch was HDR angeht, ist echt lächerlich, keiner kann sich auf einen Standard einigen. Jeder Hersteller kocht so sein eigenes Süppchen. Kein wunder, dass das auf dem PC Markt so schwer in Gang kommt.

Pirx
2017-11-23, 15:55:39
https://www.digitalzimmer.de/artikel/wissen/hdr-10-dolby-vision-unterschied/

Grendizer
2017-11-23, 16:02:15
https://www.digitalzimmer.de/artikel/wissen/hdr-10-dolby-vision-unterschied/

Wäre doch auch zu einfach, wenn man direkt bei Einführung nur EINEN Standard hat.

Pirx
2017-11-23, 16:09:20
Gibt schlimmeres, finde ich (bspw. adaptive Sync). HDR10 ist doch anscheinend erstmal der kleinste Nenner.

Troyan
2017-11-23, 16:10:29
Dolby Vision ist propritär und HDR10 ist offen.

Naja, wenn man ein AppleTV und nur einen HDR10 Fernseher hat, dann gibt es im Grunde keine Unterschiede zu Adaptive Sync auf dem PC...

Gipsel
2017-11-23, 17:49:23
Was soll denn bitteschön HDR mit 10 Bit sein?
Es gibt auf den PC 2 HDR Formate HDR10 und Dolbyvision. Ob AMD Karten überhaupt Dolbyvision können weiß ich nicht aber HDR 10 ist immer 10 Bit Farbtiefe, dass ist schließlich im Namen enthalten.
Die Frage ist aber was die Grafikkarte rechnet wenn ein Spiel mit HDR 10 läuft.
Aktuell ist es so:

AMD PC: 8 Bit mit Dithering 4:4:4
nVidia PC: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht
PS4 Pro: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht
X-Box One S/X: 10 Bit 4:2:2 mit Chroma Subsampling weil HDMI 2.0 Bandbreite nicht ausreicht.

Siehe den im letzten Beitrag von mir verlinkten Heise Artikel. Das gab es auch schon mal als News hier im 3DCenter.
Und Wenn AMD bei der Farbberechnung spart, ist es kein Wunder dass nVidia Karten ein paar Prozent mehr verlieren.Ähm, was Du da aufgelistet hast, bezeichnet nur die Übertragung zwischen GPU und Monitor. Das hat mit "Sparen bei der Farbberechnung" herzlich wenig zu tun. Und für die Darstellungsqualität bezüglich Farbtreue an feinen Details ist 4:4:4 mit 8Bit + Dithering der Variante 4:2:2 mit 10Bit übrigens überlegen. Das ist ein simpler Tradeoff, was Du über die begrenzte Bandbreite eines HDMI-Links drüberquetschen möchtest.
Edit: Und es gibt ja auch die Aussage von einem AMDler, daß die auch 4:2:2 mit 10 bit benutzen (Aussage war auf Polaris bezogen). Also das ist zum einen vermutlich konfigurierbar und zum Anderen eventuell je nach Treiber/Karten-Kombination sogar unterschiedlich. Einfluß auf die Performance sollte es nicht haben (weil das an der Berechnung nix ändert und der Scanout-Einheit ist es hoffentlich herzlich egal [es sei denn, die ist scheiße designed]).

scully1234
2017-11-23, 18:15:36
Edit: Und es gibt ja auch die Aussage von einem AMDler, daß die auch 4:2:2 mit 10 bit benutzen (Aussage war auf Polaris bezogen). .

Wenn sie 100% UHD konform sein wollen ,müssen sie das auch so ausgeben können,denn das Konsortium hat letzteres als Standard für HDR Scheiben definiert

Gipsel
2017-11-23, 18:21:29
Wenn sie 100% UHD konform sein wollen ,müssen sie das auch so ausgeben können,denn das Konsortium hat letzteres als Standard für HDR Scheiben definiert
UHD Blurays haben 4:2:0. HDR10 bei 4k@60Hz mit 4:2:2 ist laut einigen Quellen bei HDMI auch nur semioffiziell. Vorgeschrieben ist der Support dieser Art des Subsamplings wohl nur bei 8 und 12bit, bei 10bit reicht theoretisch auch 4:2:0 um HDMI2 kompatibel zu sein. Aber vielleicht haben die das inzwischen bei einem Spec-Update gefixt.

scully1234
2017-11-23, 18:22:08
UHD Blurays haben 4:2:0. HDR10 bei 4k@60Hz mit 4:2:2 ist laut einigen Quellen bei HDMI auch nur semioffiziell.

Stimmt sorry

scully1234
2017-11-23, 22:49:47
Wäre doch auch zu einfach, wenn man direkt bei Einführung nur EINEN Standard hat.

Geht ja noch weiter, sollte Samsung mit HDR10+ nicht kläglich scheitern, haben wir das Funktionsprinzip von dynamischen Metadaten wie bei Dolby Vision, dann nochmals in einem weiteren Standard vereint

Und jeder Drehrumbum der natürlich keine Lizenz an Dolby abdrücken möchte wird dort fündig

https://www.youtube.com/watch?v=_pijypdlPPg

Hätte man damals bei HDR10 nachgedacht, war der logische Evolutionsschritt eigentlich Dolby Vision, und für den Konsumenten der komfortabelste

gedi
2017-11-23, 23:17:48
Ähm, was Du da aufgelistet hast, bezeichnet nur die Übertragung zwischen GPU und Monitor. Das hat mit "Sparen bei der Farbberechnung" herzlich wenig zu tun. Und für die Darstellungsqualität bezüglich Farbtreue an feinen Details ist 4:4:4 mit 8Bit + Dithering der Variante 4:2:2 mit 10Bit übrigens überlegen. Das ist ein simpler Tradeoff, was Du über die begrenzte Bandbreite eines HDMI-Links drüberquetschen möchtest.
Edit: Und es gibt ja auch die Aussage von einem AMDler, daß die auch 4:2:2 mit 10 bit benutzen (Aussage war auf Polaris bezogen). Also das ist zum einen vermutlich konfigurierbar und zum Anderen eventuell je nach Treiber/Karten-Kombination sogar unterschiedlich. Einfluß auf die Performance sollte es nicht haben (weil das an der Berechnung nix ändert und der Scanout-Einheit ist es hoffentlich herzlich egal [es sei denn, die ist scheiße designed]).

Jupp, genau so sieht es aus (vielleicht ist auch die "Scanout-Einheit bei NV scheiße designt). Der Aufklärung halber: Bei Vega ist praktisch jede Konfiguration denkbar/realisierbar und ich widerspreche Blaidd ganz energisch. Auf Vega gibt es keinen Performance-Unterschied. Beispiel: F1 2017 maxed out mit HDR 10@ 4k (Vega @ 1,73/1100) avg. 72FPS min 62FPS, ohne HDR 10 exakt gleiches Ergebnis! Die Lags von denen er spricht gibt es auf Vega nicht, machen sich bei NV allerdings in grottigen Frametimes bemerkbar. Die NV-Jünger sollten mal die grüne Sonnenbrille abnehmen - es ist Winter. Und damit meine ich auch diejenigen, welche aufgrund der Werbung im eigenen Heftchen, Benchmarkszenen nach "Farbe" wählen.

scully1234
2017-11-23, 23:46:20
Und damit meine ich auch diejenigen, welche aufgrund der Werbung im eigenen Heftchen, Benchmarkszenen nach "Farbe" wählen.

Was für ein mieser Seitenhieb das schon wieder ist:rolleyes:
Meint ihr ernsthaft es macht eure Ergebnisse glaubhafter, wenn ihr andere diskreditiert die tagtäglich mehr Arbeit in solche Tests investieren,und ihnen Befangenheit unterstellt?

Aber gut es haben ja nun genug getestet neben PCGHW auch Igor, als auch ein Spieleentwickler hier sein klares Statement abgegeben hat.

Die Fud Kampagne kannst du ja gerne weiter betreiben, aber viel Rückhalt ist da jetzt nicht mehr, außer von V_V

GerryB
2017-11-24, 17:02:12
Ich hab in Ultra HD gemessen, mit einer RX Vega 64 und einer GTX 1080.

In zwei von 5 Spielen ist die Performance mit und ohne HDR quasi identisch, HDR ist minimal (~2 %) langsamer. In Call of Duty WW2 und Destiny 2 ist der Performance-Verlust am größten (aber immer noch unter 10 %). Tendenziell ist AMD tatsächlich ein bisschen schneller, aber es sind halt -7 % Performance (Nvidia) und -2% (AMD) oder so, nichts, weshalb man meines Erachtens ein großes Aufheben darum machen müsste...

Via Displayport (10 Bit), Windows, Treiber, Spiele, allesamt so aktuell, wie's grad ging (bis Gestern, aktuell also ziemlich aktuell :wink:).

Vielen Dank für Deine Bemühungen. Noch eine letzte Bitte:
Teste mal ME Andromeda mit Half 16=on vs. off.
Lt. Forum mit ner TitanXp = 50 auf 35 fps
https://forums.guru3d.com/threads/mass-effect-andromeda.390046/page-57#post-5417394

Treiber und TV-Probleme:
Stand im Forum:
Last info from NV on HDR support is that they are still looking for a way to enable their HDR API to work in 1703+. This however won't fix the titles which will rely on Windows HDR API as these will still require you to give video output control to Windows and it'll most certainly fuck up one way or another.
http://www.neogaf.com/forum/showthread.php?t=1399726&page=3
Das Problem liegt nur teilweise am Treiber. Betroffen sind vor allem TV´s Modelljahr 2016.
Durch Creators Update reicht die Bandbreite des Kontrollers nicht mehr.
Roundup AMD : leider Auflösung runter
Roundup NV: Auflösung runter oder alter Treiber(der hebelt irgendwie W10 aus)


Meine Einschätzung als Verbraucher:
Dieser 3dC-Thread ist für AMD-User wenig hilfreich und wenig kooperativ (Testzeitraum 6 Tage).
Es gibt von den Alteingesessen keine Tips+Tricks. Ich mußte ganz im Gegenteil noch selbst eine Menge googlen.
Fazit: AMD ist HDR ready (nur meine persönliche Meinung)
Den Thread selbst kann ich leider nicht weiterempfehlen.(schwer zu lesen und zu viel Spam)

Wer NV besitzt sollte sich bei MEA an NEOGAF halten. Da sind Owner unterwegs.
(älterer Treiber manchmal besser, gerade für Oleds Bj.2016, die Dolby Vision nutzen wollen)
Empfehlung Half 16=on für echtes HDR
Further, the need for compression restricts the brightness of mid-tones, as the brightest
colors get used for highlights. Removing the compression allows foroverall brighter mid-tones.
https://developer.nvidia.com/sites/default/files/akamai/gameworks/hdr/UHDColorForGames.pdf
PCGH hat sich HQ auf die Fahne geschrieben. +1
Warum dann MEA-Benchmarks nur mit SDR? Die anderen Hardwaretester auch nur SDR - warum?
Das Spiel wurde für HDR designed. (btw. die Amis spielen nur HDR in der Lounge meistens an big LG)
Wie soll dann der Verbraucher die passende Hardware finden ? Etwa hier im Thread ?

An Alle: Geht TimeSpy HDR mit NV ? Google findet nichts .
Was für einen Wert haben dann die Scores ? Wo wird gemessen ?


Vote:
Gedi+1
VV+/-0
Blaid +0,5
NichtOwner -1
Executr=Mod ? = -0,5
Umgangston -1

AMD+NV-Websites: im Konsumerbereich der Grafikkarten ist keine Info zu HDR als explicites Feature vorhanden
aktuelle HDR-Reviews auf dt. Hardwaretestseiten: Fehlanzeige (Inputlag+Qualität+passende Systemzusammenstellung+Benchmarks)
International: zumindestens Monitorreviews mit Inputlag+HDR-Vermessung verfügbar.
Monitore+TV: Samsung+LG bieten Firmwareupdates an. (diese Beiden hier im Thread = recherchiert)

gedi
2017-11-24, 22:59:18
Was für ein mieser Seitenhieb das schon wieder ist:rolleyes:
Meint ihr ernsthaft es macht eure Ergebnisse glaubhafter, wenn ihr andere diskreditiert die tagtäglich mehr Arbeit in solche Tests investieren,und ihnen Befangenheit unterstellt?

Aber gut es haben ja nun genug getestet neben PCGHW auch Igor, als auch ein Spieleentwickler hier sein klares Statement abgegeben hat.

Die Fud Kampagne kannst du ja gerne weiter betreiben, aber viel Rückhalt ist da jetzt nicht mehr, außer von V_V

Ich habe in den letzten Jahren jeglichen Scheiß verbaut und weiß daher nur eines mit Sicherheit: Die IHVs wollen nur mein Bestes - nämlich mein Geld. Nur wenn ich Benchmarks sehe, welche eben nicht der Realität entsprechen, dann sollte doch Kritik angebracht sein. Und Igor und seine Ansicht über AMD? Da ist selbst V_V sehr viel objektiver aufgestellt!

BTW. btt gibt es bis dato noch kein Game, welches HDR 12 supportet (der AMD-Treiber bereits schon - nur so als funfact angemerkt)!

Ex3cut3r
2017-11-24, 23:07:10
Aber gut es haben ja nun genug getestet neben PCGHW auch Igor, als auch ein Spieleentwickler hier sein klares Statement abgegeben hat.

Die Fud Kampagne kannst du ja gerne weiter betreiben, aber viel Rückhalt ist da jetzt nicht mehr, außer von V_V

So sieht aus, für mich ist die überschritt des Topics geklärt. Gedi kann sich seine Aussagen komplett ohne Beweiß Video, oder wenigstens irgendwas außer sein Wort in die Haare Schmieren.

gedi
2017-11-24, 23:19:04
So sieht aus, für mich ist die überschritt des Topics geklärt. Gedi kann sich seine Aussagen komplett ohne Beweiß Video, oder wenigstens irgendwas außer sein Wort in die Haare Schmieren.

Wenn er denn noch welche hätte :freak: Wie bereits erwähnt ist es mir egal was in meinem Rechner werkelt - nur sollte Wahrheit widerfahren. BTW. hast du ein Video von Blaidd? Weißt du ob die Treiberkonfig. bei ihm stimmt (10-Bit muss bei NV über die Chroma-Settings aktiv sein, sonst Fake-HDR!)?

Ach ja, schau mal was mein Panel und die Grafikkarte alles kann:

http://up.picr.de/31043414mf.png

Ex3cut3r
2017-11-24, 23:29:02
Wenn er denn noch welche hätte :freak: Wie bereits erwähnt ist es mir egal was in meinem Rechner werkelt - nur sollte Wahrheit widerfahren. BTW. hast du ein Video von Blaidd? Weißt du ob die Treiberkonfig. bei ihm stimmt (10-Bit muss bei NV über die Chroma-Settings aktiv sein, sonst Fake-HDR!)?

Hör doch auf, mit deiner Anti Nvidia Propaganda, du warst es doch der sagte, Nvidia verliert massiv an Leistung in HDR, aus deinem "massiv" sind es dann real ein paar Prozent laut Blaidd und Igor, bei Nvidia mal ein bisschen mehr teils-teils, aber auch nicht der Rede wert. Und wieso soll Blaidd ein Video machen? Schließlich sind die nur darauf aufmerksam geworden, weil du so laut "gebrüllt" hast.

Wenn jemand ein Video machen sollte, dann wohl du, du wirst doch noch eine Smartphone Kamera bedienen können? Ansonsten kann man die PCGH 01/2017 kaufen, da steht sicherlich mehr dazu drin.

Wenn du wirklich so große unterscheide festgestellt hast, dann wird vlt. der Fehler bei dir sitzen.

dildo4u
2017-11-24, 23:32:15
Es macht für mich auch kein Sinn große Verluste zu sehen wenn Sony sogar die alte PS4 HDR fähig gemacht hat.Ich halte es für unwahrscheinlich das Maxwell schlechter damit umgehen kann als GCN 2 von 2013.

gedi
2017-11-24, 23:43:07
Hör doch auf, mit deiner Anti Nvidia Propaganda, du warst es doch der sagte, Nvidia verliert massiv an Leistung in HDR, aus deinem "massiv" sind es dann real ein paar Prozent laut Blaidd und Igor, bei Nvidia mal ein bisschen mehr teils-teils, aber auch nicht der Rede wert. Und wieso soll Blaidd ein Video machen? Schließlich sind die nur darauf aufmerksam geworden, weil du so laut "gebrüllt" hast.

Wenn jemand ein Video machen sollte, dann wohl du, du wirst doch noch eine Smartphone Kamera bedienen können? Ansonsten kann man die PCGH 01/2017 kaufen, da steht sicherlich mehr dazu drin.

Wenn du wirklich so große unterscheide festgestellt hast, dann wird vlt. der Fehler bei dir sitzen.

Unwahrscheinlich, denn zuerst hat eine NV-GPU im Rechner gewerkelt. Das Setup ist das Selbe. Und für 10% geben hier manche im Forum hunderte von Teuronen aus. Komisch auch, dass von Blaidd nichts bezüglich der Frametimes zu hören war. Die sind nämlich das Hauptproblem ;) Und mit meinen Posts geht nix in Richtung Bashing o.ä. Nur was wahr ist, sollte auch wahr bleiben.

Kriton
2017-11-25, 14:41:14
10% finde ich auch schon ganz ordentlich. Aber generell könnte der Tonfall auch mal sachlicher bleiben (auf beiden Seiten).

GerryB
2017-11-25, 17:19:27
10% finde ich auch schon ganz ordentlich. Aber generell könnte der Tonfall auch mal sachlicher bleiben (auf beiden Seiten).
+1

GerryB
2017-11-25, 17:48:09
Löschzwerg wird Deine Vega auch wärmer mit HDR ?

scully1234
2017-11-25, 18:09:43
10% finde ich auch schon ganz ordentlich.

Es steht nirgendwo was von 10% bei den unabhängigen Quellen

Das maximale waren 7 und dort büßte Vega gleichfalls 2% ein, also kannst du die 10% nochmal halbieren, und landest bei schwindeleregenden 5%,wenn du zudem noch die anderen Games ignorierst, wo es keinen Gap gibt

"Sturm im Wasserglas Modus off"

Von dem 20 oder gar 25% Gerede von V_V und Co weit und breit keine empirischen Daten

btt gibt es bis dato noch kein Game, welches HDR 12 supportet (der AMD-Treiber bereits schon - nur so als funfact angemerkt)!

12Bit Farbtiefe bei 4.2.2 Subsampling unterstützt auch der Nvidia Treiber seit Äonen bandbreitenbedingt über DVI ,aber das hat nichts mit dem dynamischen Dolby Vision Verfahren zu tun oder HDR10+

Du bringst da zwei Sachen zusammen ,die nicht zusammen gehören

GerryB
2017-11-25, 22:56:20
Mal zur Ablenkung eine andere Frage:
Aktuell ist HBCC für Crossfire not available.
Könnte das später als unified Memory ala APU realisiert werden ?
Wieso wird eigentlich in den Reviews nur bis 16 GB aktiviert? Der bietet doch auch 20 an.(bei 32GB Ram)

Loeschzwerg
2017-11-26, 11:02:16
Habe jetzt gerade für ca. ne Stunde versucht HDR zu aktivieren... aber die Karte will einfach nicht :( Eingänge am TV sind alle für HDR konfiguriert.

GerryB
2017-11-26, 12:06:27
Habe jetzt gerade für ca. ne Stunde versucht HDR zu aktivieren... aber die Karte will einfach nicht :( Eingänge am TV sind alle für HDR konfiguriert.
Du mußt auf dem Desktop unter Anzeigeeinstellungen HDR ein machen. Hat der TV auch eine Einstellung PC-Eingang + Gamemode falls es das nicht war?
Viel Spaß.

Der Desktop wird dann etwas dunkler - nicht erschrecken. Ich habe immer schwarzen Hintergrund das passt dann schon.
Zwecks Lesbarkeit der Schrift im Explorer etc. empfehle ich Cleartype durchzuführen.(über Suchen)

GerryB
2017-11-26, 12:42:18
Ich hab auf meinen PC nur 2 HDR Spiele. Mass Effect Andromeda und Redout. Bei ersteren bekomme, ich seit den Win 10 Creators Update kein HDR mehr zum laufen

Da hilft auch kein neues Mitglied nichts der irgendwelche wirren Posts verfasst und sich HDR Ausgabe bei Benchmarks einbildet wo gar kein HDR da ist und sich damit selbst jede Qualifikation selbst nimmt, um überhaupt über das Thema zu sprechen.
Natürlich hat auch dieses neues Mitglied auch keinerlei Belege und Messungen zu bieten.
Tonfall-1

Bitte erst durchlesen:
http://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/PCMark-10-und-Updates-fuer-VRMark-und-3DMark-1218595/
http://64.91.255.7/forum/showthread.php?p=239865963
Lass dein MEA auf dem alten Treiber laufen oder nur mit 1080p. (Modellreihe 2016 u.U. etwas tricky bzgl. Bandbreite)
bzgl. Dolby Vision:
In contrast to HDR10 (which is only working properly using driver 378.92), Dolby vision actually works in mass effect using the most recent nvidia driver. Just turn off HDR in windows, set the PC to RGB FULL and change to either 1080/60 or 4k/30 in game and you should get proper Dolby vision (I tried it a couple of sec ago). Too bad it only works in 4k/60 on some 2017 TVs and it really sucks that you need to downgrade your drivers to play it in HDR10.

Hier einer mit LG6C
Hi to have been using 378.92 until yesterday's 385.69 release due to Microsoft changing the way HDR works now in windowed mode rather than full screen for MCP-HC movie viewing etc after 378.92 , which I think is something to do with their old Windows media player working fine with HDR in windowed mode.
After install the latest Nvidia drivers mentioned above I purchased and installed MEA and discovered that if I enabled windowed borderless 4:2:2 10Bit HDR10 worked on my LG C6 TV however pales in comparison to the Dolby Vision @ HDR 4:2:2 12Bit.

Wenn Du schon dabei bist wie hoch ist Dein Performanceverlust mit Half16=on?
alternativ
ALLE mit MEA (auch mit konventionellen Monitoren) können Half16=on testen und werden etliche fps einbüssen. (Darstellungsqualität an SDR mal
aussen vor, da es reinweg um das Weglassen der Kompression geht, die ja kein echtes HDR schaffen kann.)
Es dürfen dann auch Alle Ihre Fps on/off posten.

Wie das ganze mit Half16=on in voller Pracht aussieht könnt Ihr Euch in dem Promovideo von NV auf einem guten 4k-HDR TV genüsslich reinziehen.
Um das Nachzustellen benötigt man ein gaaanz fettes SLI. Ich hoffe Ihr seid mit Eurem Sys dann noch zufrieden (und mit LEDERJACKE).

Redout
recommended GTX960
Da kommen doch mit Deiner Titan gar keine echten Bandbreitenprobleme.

TimeSpy
Hast Du eine Version wo Du 1080p vorgeben kannst?
Dann bitte HDR auf dem Desktop an und mal probieren ob er umschaltet oder im HDR-Mode bleibt.
(Wenn es das selbe Problem wie bei MEA ist mit der Bandbreite.)

Hinweis: Auflösung runter derzeit die einzige Möglichkeit mit AMD für die 2016er Modelle falls Creators Update Ärger gemacht hat.

Prinzipiell:
Macht Euch bitte im Monitor+TV-Forum schlau bevor Ihr Schnäppchen vom letzten Jahr kauft.
Wenn der Kontroller wechselt dann meist nicht ohne Grund. Wartet bei TV`s lieber auf HDMI2.1.
Ich hab mir auch erst zig Tv´s angeschaut bis ich dann doch lieber nen Moni mit DP1.4 genommen habe
damit ich nicht gleich wieder am Ende der Bandbreite bin.

THEORETISCH SEID IHR ALLE SPITZE; ABER KEINER LIEST MAL DIE GEBRAUCHSANLEITUNG

r-or
2017-11-26, 18:40:47
10% finde ich auch schon ganz ordentlich. Aber generell könnte der Tonfall auch mal sachlicher bleiben (auf beiden Seiten).
Absolut zu erwarten, da ja allein 25% mehr Bandbreitenbedarf

Loeschzwerg
2017-11-26, 20:20:13
Du mußt auf dem Desktop unter Anzeigeeinstellungen HDR ein machen. Hat der TV auch eine Einstellung PC-Eingang + Gamemode falls es das nicht war?


Habe ich schon jeweils mit unterschiedlichen "Presets" am TV versucht... der HDR Schalter bleibt einfach nicht aktiv und springt nach dem Übernehmen wieder auf deaktiviert zurück.

Treiber bin ich noch beim 17.10.1. Da ich bis jetzt immer noch an Elex sitze, sah ich keinen Grund für ein Update. Win10 ist aktuell und die aktuellste FW beim TV ist ebenfalls installiert.

scully1234
2017-11-26, 20:49:33
Habe ich schon jeweils mit unterschiedlichen "Presets" am TV versucht... der HDR Schalter bleibt einfach nicht aktiv und springt nach dem Übernehmen wieder auf deaktiviert zurück.


Ist das HDMI Kabel ok?

Testweiße mal ein anderes nehmen

aufkrawall
2017-11-26, 21:15:31
Win10 ist aktuell
HDR-Output geht bei zig Leuten seit Creators Update 2 nicht mehr.

Loeschzwerg
2017-11-27, 06:52:31
Na toll :freak: Kann da AMD mit einem Treiber nachhelfen oder MUSS hier MS tätig werden?

@scully1234: Habe ich natürlich ;(

GerryB
2017-11-27, 17:08:50
Na toll :freak: Kann da AMD mit einem Treiber nachhelfen oder MUSS hier MS tätig werden?

@scully1234: Habe ich natürlich ;(
>153
oder einfach die Tips die ich Voodoo7mx
gegeben habe.
Win10 HDR erfordert eine höhere Bandbreite als die NV-Variante bei ME Andromeda (vor CU) bzw. Dolbyvision.
Daher können die 2016er Modelle kein Win10HDR in 4k.
Geh mit der Auflösung auf 1080p. Evtl. sollte 4k30Hz gehen.
(oder nehm den alten Treiber falls NV)
Timespy braucht man eine Version wo man auf 1080p einstellen kann, weil sonst wahrscheinlich dasselbe Problem wie bei MEA.
Falls 4k30hz geht reicht auch die Basicversion von Timespy.
Wie gesagt bei Timespy bleibt bei mir HDR-Mode an. Was genau gemacht wird ist mir aber rätselhaft und wird ja auch nicht mit gepunktet.
Ob jetzt Tricks mit 4:2:2/4:2:0 bei xx-Bit dann 4k 30Hz oder 60Hz wieder gängig machen, das sollen bitte die Experten klären incl. Statement, ob die Tricks zu Qualitätsverlust führen.(Seitenweise nur Geschwurbl und keine brauchbaren Tips)
DAS ZIEL:
Bitte eine TV-Liste mit brauchbaren Einstellungen für Seite 1 !!!
Z.Bsp. Gedi als 1. da bereits funktionsfähig.
Wer ist hier der Mod VV oder Exec ?
Auf jeden Fall in 1080p volle Qualität möglich.
Bei mir 1440p 10-bit 4:4:4 RGB mit DP1.4 kein Problem.



Ansonsten keiner mit MEA im Thread ?
Ich führe nochmal das Bsp.von 153 an.
Nutzer im guru3d-Forum mit Txp Half16 off =50fps Half16 on =35fps !!!
In Frametimes 20ms vs. 30ms Hinzu kommt das Inputlag vom TV von 20ms.
In Summe 50ms . Da kann das schon mit Frostbite sein das vor allem bei TV´s und langsamen Monitoren
das Aiming nicht mehr angenehm ist.
Bitte postet Eure Werte Half 16 off vs. on. (geht auch mit konventionellen Monitoren)
AUCH DIE PROZENTRECHNER DÜRFEN SICH BETEILIGEN.

Loeschzwerg
2017-11-27, 18:36:21
Habe doch aber einen LG C7, also ein 2017er Modell. Nervt mich schon wieder diese Sache... :( Setze mich am kommenden Wochenende nochmals dran.

GerryB
2017-11-27, 18:39:18
Habe doch aber einen LG C7, also ein 2017er Modell. Nervt mich schon wieder diese Sache... :( Setze mich am kommenden Wochenende nochmals dran.
Tut mir leid für Dich. Aber das wird schon noch.
Frag mal Akuji 13 im Monitor Thread. Der macht hier einen kompetenten Eindruck.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=491007&page=466

oder kurzer Weg:
Die Einstellungen von Gedi im Wattman müssten bei Dir auf jeden Fall gehen.
Der hat sicherlich auch ein ähnliches Menü am TV und kann Dir sagen, was da bzgl. der Eingänge etc. einzustellen ist.

hmmm
2017-11-27, 19:19:52
Ansonsten keiner mit MEA im Thread ?
Ich führe nochmal das Bsp.von 153 an.
Nutzer im guru3d-Forum mit Txp Half16 off =50fps Half16 on =35fps !!!
In Frametimes 20ms vs. 30ms Hinzu kommt das Inputlag vom TV von 20ms.
In Summe 50ms . Da kann das schon mit Frostbite sein das vor allem bei TV´s und langsamen Monitoren
das Aiming nicht mehr angenehm ist.
Bitte postet Eure Werte Half 16 off vs. on. (geht auch mit konventionellen Monitoren)
AUCH DIE PROZENTRECHNER DÜRFEN SICH BETEILIGEN.
Ob Half16 (93FPS) oder Compressed32(94FPS) macht bei einer Vega kaum einen unterschied, mal ist dies "schneller" mal das andere.

Gipsel
2017-11-27, 19:36:12
Ansonsten keiner mit MEA im Thread ?
Ich führe nochmal das Bsp.von 153 an.
Nutzer im guru3d-Forum mit Txp Half16 off =50fps Half16 on =35fps !!!
In Frametimes 20ms vs. 30ms Hinzu kommt das Inputlag vom TV von 20ms.
In Summe 50ms . Da kann das schon mit Frostbite sein das vor allem bei TV´s und langsamen Monitoren
das Aiming nicht mehr angenehm ist.
Bitte postet Eure Werte Half 16 off vs. on. (geht auch mit konventionellen Monitoren)
AUCH DIE PROZENTRECHNER DÜRFEN SICH BETEILIGEN.Die Frage des Performanceverlustes bei Aktivierung von half floats (aka float16) als Rendertarget in der kompletten Renderpipeline (so zumindest die Beschreibung der Einstellung) hat allerdings nicht wirklich was mit der Frage des Threads zu tun. Wenn das Framebufferformat von R11G11B10F (was vermutlich für "32bit compressed" benutzt wird) auf R16G16B16A16F (also 64bit pro Pixel) umgestellt wird, verdoppeln sich mal glatt die Bandbreitenanforderungen für alle Framebuffer-Zugriffe (und bei nV halbiert sich auch die theoretische ROP-Rate, bei AMD allerdings nicht). Daß da die Performance etwas leidet, ist schon nachvollziehbar. Die Hypothese im Startpost des Threads ist allerdings, daß auch ohne solch eine Änderung rein nur die Aktivierung der HDR-Ausgabe eine Reduzierung der Framerate zur Folge haben könnte.
Dies ist so zugespitzt eigentlich kaum erklärlich und könnte z.B. dadurch verursacht werden, daß bei HDR-Ausgabe die Spiele eben doch irgendwas Performancekritisches fundamental anders machen (also z.B. automatisch die Farbtiefe von Buffern hochsetzen). Minimale Unterschiede zwischen SDR/HDR10/DolbyVision kann man vielleicht hinkriegen (weil das Tonemapping etwas anders funktioniert), aber ansonsten würde fast nur bleiben, daß die Display-Engine beim Scanout des Framebuffers irgendeinen Blödsinn macht (die dafür nötige Framebuffer-Bandbreite ist eigentlich immer die gleiche, unabhängig vom Ausgabeformat zum Monitor), z.B. im Zusammenhang mit dem Color-Subsampling. Und das wäre doch recht verwunderlich.

gravitationsfeld
2017-11-27, 20:41:15
Man braucht kein FP16 fuer HDR in der Render-Pipeline. R11G11B10F reicht wenn man die Range adaptiv macht.

Und das hat immer noch nichts mit HDR-Displays zu tun. Praktisch jede Engine der letzten Dekade benutzt HDR-Targets.

GerryB
2017-11-27, 21:16:43
Ob Half16 (93FPS) oder Compressed32(94FPS) macht bei einer Vega kaum einen unterschied, mal ist dies "schneller" mal das andere.
Cool da kann ich mir das Spiel ja holen.

Wegen Creators Drama:
Ein eleganter Roundup wäre CRU. (falls es bei TV geht)
60Hz --> 50Hz. (reichts das dann schon mit der Bandbreite?)
Es wäre wirklich wichtig auf S.1 einen Roundup zu haben.
Das würde die Basis für den Thread erheblich stärken.
Dann hätten wir viel mehr Erfahrungswerte und weniger Theorie.
Das liest sich dann auch angenehmer und jeder kann einen mit vgl. Hardware fragen.
WIN WIN

"Man braucht kein FP16 fuer HDR in der Render-Pipeline. R11G11B10F reicht wenn man die Range adaptiv macht."
Ist das denn bei MEA so ? Kommt da doch noch was für W2 und bitte mit mGpu? (im Steam wären da Viele dankbar)
Gravitationsfeld kannst Du mit Mea 2 Videos machen 4kHDR und auf YOUTUBE laden ?
Möglichst mit Explosion damit die feinen Unterschiede rauskommen.
Verlustfreie Kompression:wird sicherlich gerne mitgenommen
Dann sollte NV mal sein Whitepaper aktualisieren und das Alte vom Netz nehmen und das Feature für Pascal garantieren.
https://developer.nvidia.com/sites/default/files/akamai/gameworks/hdr/UHDColorForGames.pdf

Also ich fand das Promovideo von NV klasse. (mit oder ohne Kompression?)
Die Quali möchte ich immer haben und die Leute mit 4.000,- € TV sicherlich auch.

GerryB
2017-11-27, 23:06:45
Die Frage des Performanceverlustes bei Aktivierung von half floats (aka float16) als Rendertarget in der kompletten Renderpipeline (so zumindest die Beschreibung der Einstellung) hat allerdings nicht wirklich was mit der Frage des Threads zu tun. Wenn das Framebufferformat von R11G11B10F (was vermutlich für "32bit compressed" benutzt wird) auf R16G16B16A16F (also 64bit pro Pixel) umgestellt wird, verdoppeln sich mal glatt die Bandbreitenanforderungen für alle Framebuffer-Zugriffe (und bei nV halbiert sich auch die theoretische ROP-Rate, bei AMD allerdings nicht). Daß da die Performance etwas leidet, ist schon nachvollziehbar. Die Hypothese im Startpost des Threads ist allerdings, daß auch ohne solch eine Änderung rein nur die Aktivierung der HDR-Ausgabe eine Reduzierung der Framerate zur Folge haben könnte.
Dies ist so zugespitzt eigentlich kaum erklärlich und könnte z.B. dadurch verursacht werden, daß bei HDR-Ausgabe die Spiele eben doch irgendwas Performancekritisches fundamental anders machen (also z.B. automatisch die Farbtiefe von Buffern hochsetzen). Minimale Unterschiede zwischen SDR/HDR10/DolbyVision kann man vielleicht hinkriegen (weil das Tonemapping etwas anders funktioniert), aber ansonsten würde fast nur bleiben, daß die Display-Engine beim Scanout des Framebuffers irgendeinen Blödsinn macht (die dafür nötige Framebuffer-Bandbreite ist eigentlich immer die gleiche, unabhängig vom Ausgabeformat zum Monitor), z.B. im Zusammenhang mit dem Color-Subsampling. Und das wäre doch recht verwunderlich.
Am Ende ist das Ergebnis für den unbesattelten Verbraucher entscheidend.
Der kauft den PC und das Spiel und dieser Thread ist doch wunderbar geeignet
dem Verbraucher zu beweisen das Qualität und Performance OK sind.
Wenn die Kompression nicht funzt ist es auch kein HDR. (das Gegenteil bitte per Video)
Damit gehört für mich Beides zusammen und ist aufzuklären !!!
Bei Verdacht auf Mangel liegt die Beweislast beim Händler/Hersteller. (Produkthaftung)

Haben Threadteilnahmer Spiel und Graka im Bundle bekommen ?
Dann bitte ordentlich bis zu Ende untersuchen.

Ich werd wohl noch warten mit der Wohnzimmer-Konfig. .

Gipsel
2017-11-27, 23:57:11
Man braucht kein FP16 fuer HDR in der Render-Pipeline. R11G11B10F reicht wenn man die Range adaptiv macht.

Und das hat immer noch nichts mit HDR-Displays zu tun. Praktisch jede Engine der letzten Dekade benutzt HDR-Targets.Mass Effect Andromeda hat offenbar genau dafür (R11G11B10F oder 4xFP16) eine Option. Dort kann man also auswählen, ob R11G11B10F oder FP16 benutzt werden soll. Und angeblich kann mit den 11/10 bit floats an einigen Stellen ein wenig Banding sehen. Fände ich bei nur 6 Bit Auflösung der Mantisse (für Blau ja sogar nur 5) auch nicht sonderlich überraschend, wenn das je nach Content auch mal knapp werden kann.

Aber klar, der mögliche Performanceunterschied zwischen 11/10bit floats und FP16 ist nachvollziehbar und hat eigentlich nichts mit einem möglichen Performanceabfall durch Aktivierung der HDR-Ausgabe zu tun. Das schrieb ich ja auch schon.

Dann sollte NV mal sein Whitepaper aktualisieren und das Alte vom Netz nehmen und das Feature für Pascal garantieren.
https://developer.nvidia.com/sites/default/files/akamai/gameworks/hdr/UHDColorForGames.pdfIch glaube, Du bringst da gerade was durcheinander. In dem Whitepaper geht es wohl hauptsächlich um das Tonemapping, also gewissermaßen die "Kompression" des Farbraums auf den des Anzeigegerätes. Und hier ist "Kompression" ungleich Kompression in anderen Zusammenhängen.

Am Ende ist das Ergebnis für den unbesattelten Verbraucher entscheidend.Man kann bei MEA die HDR-Ausgabe auch mit 32bit Framebuffer aktivieren. Der 64Bit Framebuffer (4xFP16) ist nur für das letzte bißchen Qualität. Das hat wie gesagt mit dem eigentlichen Thema des Threads nicht viel zu tun.
Wenn die Kompression nicht funzt ist es auch kein HDR. (das Gegenteil bitte per Video)
Damit gehört für mich Beides zusammen und ist aufzuklären !!!Ich habe das starke Gefühl, Du bringst da was durcheinander mit der Kompression.

GerryB
2017-11-28, 18:22:27
@Gipsel
Further, the need for compression restricts the brightness of mid-tones, as the brightest
colors get used for highlights. Removing the compression allows foroverall brighter mid-tones.
Das klingt für mich nicht wie eine Empfehlung die Kompression zu verwenden.

Bitte mal bei Nvidia direkt nachfragen.
Is in Mass Effect Andomeda Half 16=off in HDR Mode recommended?
Whats about Quality?



Privat kann jeder machen was er will. In Fachzeitschriften erwarte ich, das die Empfehlungen von Nvidia eingehalten werden.
So diese fehlen, sind die Empfehlungen einzuholen und im Review mit zu veröffentlichen.

Gipsel
2017-11-28, 18:35:49
@Gipsel
Further, the need for compression restricts the brightness of mid-tones, as the brightest
colors get used for highlights. Removing the compression allows foroverall brighter mid-tones.
Das klingt für mich nicht wie eine Empfehlung die Kompression zu verwenden.Komplett ohne den Kontext zitiert. In der Passage geht es um die Kompromisse, die man beim Tonemapping für LDR/SDR-Displays machen muß. Das hat so ziemlich nichts mit der Option in Mass Effect Andromeda zu tun. Ich sagte ja bereits, daß ich stark vermute, daß Du da was durcheinander bringst.
Bitte mal bei Nvidia direkt nachfragen.Wohl eher beim Entwickler von MEA. ;)
Is in Mass Effect Andomeda Half 16=off in HDR Mode recommended?Aus Performance-Gründen ja (spielt nach den Rückmeldungen hier im Thread offenbar für nV eine größere Rolle). Sie geben nur zu bedenken, daß das eben in bestimmten Situationen zu kleineren Artefakten (Banding) führen kann und man für maximale Qualität eben FP16-Farbwerte aktivieren kann. Aber HDR geht auch ohne das.

PS:
half16 ist irgendwie Banane. Entweder half (float) oder fp16.

GerryB
2017-11-28, 18:49:39
Wohl eher beim Entwickler von MEA. ;)
.

Ja frag bitte mal nach.

@gipsel
Danke für Deine Bemühungen.
Als Laie ist das o.g. für mich zu kompliziert.
Ich brauche einen Beipackzettel im Spiel und los gehts.

GerryB
2017-11-28, 18:53:09
Was ist mit den anderen Frostbite Games ?
Gibt es da auch sowas (half16) ?
Wie ist das da geregelt ? (Empfehlungen vom Entwickler)

Gibt es bei Creators Drama irgendwelche Erfolge?
Bitte Eure Einstellungen + Hardware posten.

hmmm
2017-11-28, 19:53:18
Man braucht kein FP16 fuer HDR in der Render-Pipeline. R11G11B10F reicht wenn man die Range adaptiv macht.

Und wenn man sich das sparen will, dann nimmt man FP16 und hat zudem idR noch eine bessere BQ.

Sie geben nur zu bedenken, daß das eben in bestimmten Situationen zu kleineren Artefakten (Banding) führen kann und man für maximale Qualität eben FP16-Farbwerte aktivieren kann. Aber HDR geht auch ohne das.
Musik geht auch ohne Noten, ohne Instrumente, ...
Sorry, aber HDR soll die BQ verbessern. Wenn man nun noch die BQ in die Waagschale wirft (und nur dann ist es doch eigentlich vergleichbar) dann gute nacht Nvidia.
Es war wohl doch die falsche Entscheidung FP16 bei den "Gamerkarten" zu kastrieren.

Gipsel
2017-11-28, 20:31:01
FP11/FP10 kann einen deutlich größeren dynamischen Bereich abdecken als RGBA32 mit den 8 Bit Integern. Dieser ist mit FP11/10 nämlich genau so groß (!) wie mit FP16 (~230 ohne Denormals). Damit ist es also sehr gut für die Darstellung eines großen dynamischen Bereiches (High Dynamic Range) geeignet. Daß es nichts bringt, stimmt also schlicht nicht. Bei der Farbauflösung muß man ein paar Kompromisse eingehen, um das in 32bit zu quetschen. Aber je nach Content kann das auch total unauffällig sein. Diese Option zu haben (die immerhin die Hälfte der Bandbreite bei entsprechenden Framebufferzugriffen spart), kann also nur gut sein. Hier kann der Entwickler (oder bei MEA eben sogar der User) abwägen, ob es den Performanceverlust (der je nach Karte ja offenbar unterschiedlich ausfällt) wert ist.

GerryB
2017-11-28, 21:03:14
Mal eine dumme Frage:
HDR ist eine Marke genauso wie HD.
Das Logo HD Ready bekommt man doch nur mit einer Zertifizierung.
Wie können dann Entwickler frei Schnauze Ihre Games mit HDR bekleben?
Da muss es doch Mindestparameter in der Bildqualität geben.
Und dafür sind dann die Renderpfade fest vorzugeben.

Ich bin mal gespannt was MEA zu Qualität sagt.

Gipsel
2017-11-28, 22:51:00
Mal eine dumme Frage:
HDR ist eine Marke genauso wie HD.Nein, das stimmt nicht. Es ist schlicht eine Abkürzung für High Dynamic Range und keinerlei Markenzeichen oder sonstwie geschützt.

gedi
2017-11-28, 23:01:27
Na toll :freak: Kann da AMD mit einem Treiber nachhelfen oder MUSS hier MS tätig werden?

@scully1234: Habe ich natürlich ;(

Deine Monitorsettings sehen so aus?

http://up.picr.de/31082845xv.jpg

vinacis_vivids
2017-11-28, 23:23:31
Deine Monitorsettings sehen so aus?

Dein "Monitor" kann also auch 12bit. Hast du die 1080Ti noch oder ist die schon weg?
Mich würde die 12bit Performance brennend interessieren, am liebsten garniert mit ein paar Zahlen. Pi mal Daumen also 25% oder gar höhere Verluste?

gedi
2017-11-28, 23:27:34
Dein "Monitor" kann also auch 12bit. Hast du die 1080Ti noch oder ist die schon weg?
Mich würde die 12bit Performance brennend interessieren, am liebsten garniert mit ein paar Zahlen. Pi mal Daumen also 25% oder gar höhere Verluste?

Die Ti habe ich verkauft. Die konnte afair auch kein 12-Bit mit HDR.

gravitationsfeld
2017-11-28, 23:56:03
HDR-Output geht bei zig Leuten seit Creators Update 2 nicht mehr.
Was haben sie eigentlich nicht kaputt gemacht?

aufkrawall
2017-11-29, 00:05:13
Der madVR-Entwickler empfiehlt einfach nur noch Windows 8.1 für HDR-Output. :freak:
Hinter dem MS-Müll kommt man mit Workarounds offenbar gar nicht mehr hinterher...

GerryB
2017-11-29, 15:33:33
Hat denn mal jemand probiert ob runter mit der Auflösung auf 1080p geht ?

GerryB
2017-11-29, 15:38:43
Dein "Monitor" kann also auch 12bit. Hast du die 1080Ti noch oder ist die schon weg?
Mich würde die 12bit Performance brennend interessieren, am liebsten garniert mit ein paar Zahlen. Pi mal Daumen also 25% oder gar höhere Verluste?
Hör doch mal bitte mit den Prozenten auf.
Viel wichtiger ist der Renderpfad und die Qualität.
Leute die 4.000,-€ für nen TV ausgeben wollen vor allem erstmal Top-Qualität.
Die Prozente rüsten die dann bei der Graka einfach nach.

Welche Engine benutzt welchen Renderpfad für HDR ?
Alle mit dem VERLUSTFREIEN KOMPRESSOR müßten dann auf den Prüfstand.

gravitationsfeld
2017-11-29, 15:43:23
Und wenn man sich das sparen will, dann nimmt man FP16 und hat zudem idR noch eine bessere BQ.
Kostet einiges an Performance. Warum nicht einfach überall FP32, richtig?

gravitationsfeld
2017-11-29, 15:45:55
Hör doch mal bitte mit den Prozenten auf.
Viel wichtiger ist der Renderpfad und die Qualität.
Leute die 4.000,-€ für nen TV ausgeben wollen vor allem erstmal Top-Qualität.
Die Prozente rüsten die dann bei der Graka einfach nach.

Welche Engine benutzt welchen Renderpfad für HDR ?
Alle mit dem VERLUSTFREIEN KOMPRESSOR müßten dann auf den Prüfstand.
Du hast immer noch nicht verstanden um welche "Kompression" es dort geht. Das Tonemapping *muss* verlustbehaftet sein, weil kein Display der Welt die komplette Range darstellen kann.

GerryB
2017-11-29, 15:55:59
Im NV Promo Video wurde extra bei der Explosion auf die Vorteile von HDR hingewiesen.
Bessere Sichtbarkeit der Details im Hintergrund.
Wenn Du das genauso hinbekommst und im Spiel kein Banding etc. hast dann wird der Kunde auch
zufrieden sein.
Wenn nicht, dann fliegst Du achtkantig raus.
Der Kunde kennt nur das Promo-Video. Daran musst Du Dich messen lassen.
Die Hardware und Software ist dem scheissegal. Der will Top Leistung für ne Menge Geld.

Mein Verdacht:
Die Programmierer sind meistens nur in Betas unterwegs.
Da gewöhnt man sich vielleicht an weniger Qualität und wird sozusagen Betriebsblind.

gravitationsfeld
2017-11-29, 16:16:16
Was hast du genau geraucht?

GerryB
2017-11-29, 16:24:48
Was hast du genau geraucht?
F6

Mach doch einfach mal ein Video fertig und disskutier nicht rum.

gravitationsfeld
2017-11-29, 16:29:50
Video wovon?

GerryB
2017-11-29, 16:31:20
MEA
Schau Dir doch einfach mal das Promo Video an.
Wenn Du eine ähnliche Explosion hinbekommst wäre das NICE.

gravitationsfeld
2017-11-29, 16:32:25
Es wurde dir schon hundert Mal gesagt, dass die Einstellungen in MEA *nichts* mit der Tone-Map-Compression zu tun haben die du zitierst. Es nervt.

Und ich bin nicht dein Laufbursche, mach deine Videos selber.

GerryB
2017-11-29, 16:45:12
Es wurde dir schon hundert Mal gesagt, dass die Einstellungen in MEA *nichts* mit der Tone-Map-Compression zu tun haben die du zitierst. Es nervt.

Und ich bin nicht dein Laufbursche, mach deine Videos selber.

Time will tell.
Bye

hmmm
2017-11-29, 16:57:06
Kostet einiges an Performance. Warum nicht einfach überall FP32, richtig?
Nein, falsch. Oder wäre das nach deiner Logik auch richtig?
-- HQ-AF kostet einiges an Pereformace warum also nicht einfach überall _nur_ Q-AF?

Auf AMD (ZB r9 390 und Vega) kostet es nichts an Performance, insofern sollten andere ihre Hausaufgaben machen.
FP16 bietet sich für HDR doch geradezu an, warum also das FP32 geraffel?

gravitationsfeld
2017-11-29, 17:27:41
Nein, falsch. Oder wäre das nach deiner Logik auch richtig?
R11G11B10F sieht gleich aus wenn man es richtig macht. Das weiss ich aus erster Hand von drei geshippten AAA-Spielen auf verschiedenen Engines.

Dein Kommentar ist also nichts ausser dummes Geschwaetz.

Gipsel
2017-11-29, 17:57:29
Auf AMD (ZB r9 390 und Vega) kostet es nichts an Performance, insofern sollten andere ihre Hausaufgaben machen.
FP16 bietet sich für HDR doch geradezu an, warum also das FP32 geraffel?Das gilt vielleicht auf einigen AMD-Karten für den Fall, daß man jede Menge Bandbreite zum Verbrennen übrig hat. Ist das nicht der Fall, kostet es da natürlich auch Performance.
Es ist immer schlecht, von nur einem Beispiel zu verallgemeinern. ;)

hmmm
2017-11-29, 18:13:00
Das gilt vielleicht auf einigen AMD-Karten für den Fall, daß man jede Menge Bandbreite zum Verbrennen übrig hat. Ist das nicht der Fall, kostet es da natürlich auch Performance.
Ja es kostet etwas mehr Bandbreite aber das alleine kann Nvidia s "Dilemma" nicht erklären.

Es ist immer schlecht, von nur einem Beispiel zu verallgemeinern. ;)
Du meinst das "eine" Nvidia Beispiel wo es schlecht läuft? ;)

Das weiss ich aus erster Hand von drei geshippten AAA-Spielen auf verschiedenen Engines.
Das soll mir nun was sagen? *kopfschüttel*

PS:Lass mich raten. -- gameWorks Spiele? ;)

Dein Kommentar ist also nichts ausser dummes Geschwaetz.
So sollten wir hier nicht miteinander umgehen.

gravitationsfeld
2017-11-29, 18:37:00
PS:Lass mich raten. -- gameWorks Spiele? ;)[
Nein. Doom, Dishonored 2 und New Colossus.

scully1234
2017-11-29, 19:59:14
Die Ti habe ich verkauft. Die konnte afair auch kein 12-Bit mit HDR.


Lass mich raten ,aber deine neue Vega ,kann Dolby Vision bzw HDR10+ abbilden, das wolltest du damit doch zum Ausdruck bringen oder;D


Ich sagte dir schon mal ,das 12 bit Farbtiefe im Treiber kein Alleinstellungsmerkmal von irgendwem ist.Allenfalls kann es bei höherem Subsampling nicht mehr über HDMI realisiert werden

Vielleicht auch besser das die Ti weg ist, wenn du mit dem Treibermenü nicht umgehen kannst...

Alles weitere oben sind lizenzrechtliche Dinge zwischen Dolby,Samsung,Hollywood und den Herstellern der Grafikkarten, also lass deine Missinformierung der Leute hier

Kannst dir ja mal anschauen ,wer nach dem ganzen Netflix,Amazon HickHack ,als erstes einen DRM konformen HDR Treiber (https://www.heise.de/newsticker/meldung/Nvidia-Netflix-Streaming-in-4K-und-HDR-moeglich-ab-Windows-10-Fall-Creators-Update-3842435.html) für breitbandige Verwendungen nicht nur für Spiele abgeliefert hat.

Und dann extrapolier das mal weiter, auf Dolbys bzw Samsungs neuen Ansatz ,mit bis zu 12 Bit Farbtiefe

GerryB
2017-11-29, 23:32:42
Mass Effect Andromeda hat offenbar genau dafür (R11G11B10F oder 4xFP16) eine Option. Dort kann man also auswählen, ob R11G11B10F oder FP16 benutzt werden soll. Und angeblich kann mit den 11/10 bit floats an einigen Stellen ein wenig Banding sehen. Fände ich bei nur 6 Bit Auflösung der Mantisse (für Blau ja sogar nur 5) auch nicht sonderlich überraschend, wenn das je nach Content auch mal knapp werden kann.

Danke nochmal an Gipsel für die gute Erklärung.

Der User hat also die Wahl analog Vsync on/off.
Mit Half 16=on keine Bandingprobleme
Mit Half 16=off hat Bandingprobleme (solange er das als NICE empfindet)

AMD kann Beides ohne Performanceverlust.
NV kann nur mit Banding ohne Performanceverlust.

Damit ist es jedem selber überlassen was er priorisiert.
Irgendwelche Prozente sind irrelevant solange der User mit der Qualität leben kann.
Damit ist für mich das Wesentliche geklärt.
Schön wäre trotzdem noch eine Liste mit Games+Engines, wo Half16=off (hat Bandingprobleme) verwendet wird.

Wenn bei Scully Netflix HDR über die Graka betrieben wird und nicht direkt vom TV ist das natürlich Pech.
Das schränkt die Auswahl ein.

gravitationsfeld
2017-11-30, 00:30:30
Die Performance-Verluste von FP16 gegen R11G11B10F sind auf beiden IHVs vergleichbar. Und das hat immer noch nichts mit der HDR-Displays zu tun.

GerryB
2017-11-30, 15:24:24
@G
Ich habe geschrieben bei AMD und NV mit Half16=off (quasi) ohne Performanceverlust. Kommastellen sind mir egal.
Mit meinem schlechten Optiker würde ich mir Half16=off aber nicht antun.
Deiner ist wahrscheinlich besser.
Mit Half16=on ist NV praktisch NICHT SPIELBAR.

War Dir das jetzt deutlich genug ausgedrückt.

MEHR GIBT ES DAZU NICHT ZU SAGEN.

gravitationsfeld
2017-11-30, 17:23:53
Es hat immer noch nichts mit HDR-Displays zu tun. Und ich bezweifle auch nicht, dass R11G11B10F in MEA scheisse aussieht, ich sage nur dass Bioware unfaehig ist. R11G11B10F ist ausreichend. Ja, auch fuer HDR-Displays.

vinacis_vivids
2017-11-30, 19:10:10
Banding + Performanceverluste gibs auch bei Shadow Warrior 2 mit Nvidia. Aber klar, Flying Wild Hog ist wohl auch "unfähig".

hmmm
2017-11-30, 19:48:08
Die Performance-Verluste von FP16 gegen R11G11B10F sind auf beiden IHVs vergleichbar.
Wie kommst du darauf? Meinst du Inc einigermaßen aktueller Karten?

samm
2017-11-30, 22:01:19
Zum Thema Netflix-PC und HDR sowie HDR-Wiedergabe an PCs allgemein: Alles was ich dabei mitbekomme, bezieht sich auf DRM-Quark, künstliche Beschränkung auf Prozessor- und Grafikkarten-Modelle. Bezüglich Performance gibt es also abseits von Games derzeit wenig zu untersuchen.

Und bei Games liegen die Verluste nicht an den Monitoren - zumindest nicht was FPS angeht. Hingegen die Latenz, welche man sich derzeit noch zusätzlich einhandelt. Wird da noch dermassen viel im Bildschirm rumgerechnet? Meinem Verständnis nach müssen Grafikkarte und Bildschirm nur einmal über verfügbare Helligkeits- und Farb-Range absprechen, und danach sollte das doch 1:1 flutschen, oder irre ich mich da? Fehlt da noch eine Protokoll-Standardisierung? Bei der Verbindung Fernseher - UHD-Player mache ich das noch manuell, d.h. Einstellen der max. Helligkeit und der Farbauflösung am Player, sodass es zum TV passt, dann wird das on the fly gemappt.

gravitationsfeld
2017-11-30, 23:02:07
Banding + Performanceverluste gibs auch bei Shadow Warrior 2 mit Nvidia. Aber klar, Flying Wild Hog ist wohl auch "unfähig".
Jap. Spiel sieht aus wie Arsch fuer die Performance. Allein dass es 30 FPS ist auf den Konsolen sagt schon alles.

hmmm
2017-11-30, 23:46:05
Jap. Spiel sieht aus wie Arsch fuer die Performance. Allein dass es 30 FPS ist auf den Konsolen sagt schon alles.
Boah, du bist ja mal ein umgänglicher Zeitgenosse :O
Schau dir mal Mass Effect Andromeda HDR an, dagegen wirken "deine" 3, bezug HDR, wie Kindergeburtstag aber leider nicht Farbenfroh sondern eher simpel.

aufkrawall
2017-11-30, 23:59:04
Cool, nur hat HDR nichts mit bunten Farben zu tun.

hmmm
2017-12-01, 00:11:26
Cool, nur hat HDR nichts mit bunten Farben zu tun.

Hat so ja auch niemand gesagt.

gravitationsfeld
2017-12-01, 00:46:41
Farbenfroh oder nicht hat auch nichts mit Banding zu tun. Im Gegenteil, bei wenig Farbunterschieden ist es viel eher zu sehen.

Boah, du bist ja mal ein umgänglicher Zeitgenosse :O
Ist mir relativ egal, ich halt das Gelaber hier einfach nicht mehr aus. Und wer Shadow Warrior in irgend einer technischen Diskussion als Argument her nimmt diskqualifiziert sich halt.

scully1234
2017-12-01, 11:12:29
Boah, du bist ja mal ein umgänglicher Zeitgenosse :O


Ist doch verständlich wenn man alles drölftausend mal erklärt (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11495456&postcount=56), und immer wieder einer kommt , der glaubt die Welt ist eine Scheibe

hmmm
2017-12-02, 11:28:39
Farbenfroh oder nicht hat auch nichts mit Banding zu tun. Im Gegenteil, bei wenig Farbunterschieden ist es viel eher zu sehen.

Für ein Laie stimmt dies wohl, dem wird es wohl dann besonders auffallen.
Aber es geht doch vorallem um Abstufungen von Rot, Violet,... im Besonderen von saturated colors, translucent colors, ...

R11G11B10F war immer nur ein performace Tweak und geht immer auf kosten der Qualität. Wenn FP16 nichts kostet, nimm FP16!

samm
2017-12-02, 11:35:15
Für ein Laie stimmt dies wohl, dem wird es wohl dann besonders auffallen.
Aber es geht doch vorallem um Abstufungen von Rot, Violet,... im Besonderen von saturated colors, translucent colors, ...Wieso dem Laien? Ist logisch, dass Banding bei geringen Farbunterschieden, Verläufen eben, eine Rolle spielt. Wenn sattes Rot ohne verlaufenden Übergang direkt neben sattem Grün sich befindet, dann ist das kein Banding sondern schlechtes Ausgangsmaterial.

R11G11B10F war immer nur ein performace Tweak und geht immer auf kosten der Qualität.Nein, eben nicht zwingend auf Kosten der Qualität - bei ME:A schon.Wenn FP16 nichts kostet, nimm FP16!Das "Wenn" trifft halt nicht zu.

gravitationsfeld
2017-12-02, 16:31:11
Für ein Laie stimmt dies wohl, dem wird es wohl dann besonders auffallen.
Aber es geht doch vorallem um Abstufungen von Rot, Violet,... im Besonderen von saturated colors, translucent colors, ...
Ich glaube du hast ein riesiges Verständnisproblem. Nur weil etwas bunt ist braucht man nicht mehr bits für den Gradienten pro Farbkanal.

R11G11B10F war immer nur ein performace Tweak und geht immer auf kosten der Qualität. Wenn FP16 nichts kostet, nimm FP16!
Nein. Es sieht gleich aus wenn man es richtig macht. Das hab ich dir jetzt schon drei Mal erklärt. FP16 kostet auf jeder Hardware.

dildo4u
2017-12-08, 12:57:53
Ich hab jetzt die PCGH mit den 4k HDR Benches.

CPU i7 6950k@4Ghz Nvidia Treiber 388.31/AMD 17.11.2

Call of Duty WW2

GTX 1080 G1 ohne HDR 59fps und 55 fps mit

Vega 64 Strix ohne HDR 54 und 53fps mit

Destiny 2

GTX 1080 G1 ohne HDR 49fps mit 45fps

Vega Strix ohne HDR 40 mit 38fps

Forza 7

GTX 1080 G1 ohne HDR 64fps mit 61fps

Vega Strix ohne HDR 70fps mit 69fps

Shadow of War

GTX 1080 G1 ohne HDR 34fps mit 33fps

Vega Strix ohne HDR 35fps mit 34fps

Battlefront 2

GTX 1080 G1 ohne HDR 40fps mit 39fps

Vega Strix ohne HDR 39fps mit 39fps

Raff
2017-12-08, 13:01:22
Quelle und weitere Infos: http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-01-2018-Magazin-DVD-Download-PDF-1244782/ :)

MfG,
Raff

Angiesan
2017-12-16, 11:02:29
Danke Raff :-) jetzt ist das auch mal geklärt. Finde es schon interessant, dass man von unspielbar bei NV redet und die AMD ist fast immer langsamer, auch wenn AMD prozentual wohl weniger bei der Zuschaltung von HDR verliert.

pilzsammler2002
2018-07-20, 12:21:49
https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/

i will just leave this here :D

Troyan
2018-07-20, 12:30:29
Unterstützt AMD schon 10bit oder ist HDR immer noch 8bit?

Linmoum
2018-07-20, 12:36:42
Es gab hier doch jemanden (gedi?), der das auch immer wieder erwähnt hat. Der wurde von den allseits bekannten Usern dafür ausgelacht und für unglaubwürdig erklärt. Tja.. ;)

aufkrawall
2018-07-20, 12:41:17
Und wenn der Fall jetzt genau umgekehrt wäre, würdest du natürlich keine Beweise dafür haben wollen, dass NV schneller wäre, gell? -> an die eigene Nase fassen..

pilzsammler2002
2018-07-20, 12:42:28
Und wenn der Fall jetzt genau umgekehrt wäre, würdest du natürlich keine Beweise dafür haben wollen, dass NV schneller wäre, gell? -> an die eigene Nase fassen..
Es gab von Gedi (???) tests und von Gamestar auch schon... ALso überraschend ist es jetzt ja nun wirklich nicht...
Die Gamestar Tests sind von 2017... :freak:

aufkrawall
2018-07-20, 12:45:48
Es gab von Gedi (???) tests
Wo hatte er denn fps gepostet?

pilzsammler2002
2018-07-20, 13:01:59
Wo hatte er denn fps gepostet?

Ich kann mich nur erinnern das es da Mal ne Diskussion zu gab. Deshalb die Fragezeichen...
Er hat ja genau die 20% gemeint die wir jetzt (kurioserweise) erreichen laut CBase in bestimmten Titeln...

Wenn ich schon wieder lese was hier für Bullshit verbreitet wird.
Ich hab am PC aktuell nur 2 HDR Spiele, Mass Effect Andromeda und Redout, allzu viele gibt es ja nicht.
Und bei beiden ist die Performance mit oder ohne HDR in etwa gleich.

Hier blubbern ein paar Leute was von 20% Performanceverlust und nennen nicht mal den entsprechenden Titel. Danach wird es dan sofort auf alle anderen HDR Spiele übertragen.
Es ist ja schließlich absolut unmöglich, dass dies ja ein Softwarefehler, Treiberbug, Windowsfehler oder eine Kombination von all denen ist, was nur einen einzigen Titel betrifft.
Aber klar, die 1080Ti verliert 20% Performance bei HDR. :rolleyes: Jeder Mensch der auch nur ein wenig Sachverstand mit diesen Thema hat und zu mindestens noch teilweise klar im Kopf ist, sollte wissen das die technisch unmöglich ist.

Und ja HDR am PC ist eine einzige Baustelle. Seit den Creators Update funktioniert es z.B. bei Mass Effect Andromeda nicht mehr richtig. Gibt nen ewig langen Thread im Bioware Forum. Mit der Beta Version vom Fall Creators Update was im Oktober kommen soll, scheint es wieder zu funktionieren.

Wie sieht diese Aussage denn jetzt aus? :freak:

vinacis_vivids
2018-07-20, 14:07:00
Klar gabs die Diskussion inkl. links und die meisten Nvidianer haben wieder alles ins Lächerliche gezogen.

SKYNET
2018-07-20, 14:09:42
https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/

iuno
2018-07-20, 14:19:38
Wie sieht diese Aussage denn jetzt aus? :freak:
Nur mal so zur Info: Mass Effect ist bei CB dabei und zeigt genau 0 Unterschied.
Waere doch zur Abwechslung mal ganz nett, beide Seiten wuerden damit aufhoeren, Leute anzugehen und sich stattdessen auf das eigentliche Problem beschraenken.

Sven77
2018-07-20, 14:36:28
Wie sieht diese Aussage denn jetzt aus? :freak:

https://abload.de/img/unbenanntf3d4q.png

vinacis_vivids
2018-07-20, 14:40:03
https://abload.de/img/unbenanntf3d4q.png

Im mittel preset ist die Auflösungsoptimierung an, also ist es das einzige Game, wo nicht nativ 2160p getetestet wurde, ergo unbrauchbar. ;D

Sven77
2018-07-20, 14:45:29
Ich brenne auf die Erklärung was das mit HDR zu tun haben soll

pilzsammler2002
2018-07-20, 14:47:56
Ich brenne auf die Erklärung was das mit HDR zu tun haben soll
Das müsste Nvidia erklären... :biggrin:
Und AMD, die verlieren ja auch, wenn auch nur marginal...

vinacis_vivids
2018-07-20, 14:54:22
Ich brenne auf die Erklärung was das mit HDR zu tun haben soll

Noch nie mit dynamisch skalierender Auflösung gespielt? Da wird ein Frametarget verwendet, also so schwierig kann es ja nich sein :rolleyes:

Argo Zero
2018-07-20, 14:59:01
Bleibt mal beim Thema und achtet auf euren Umgangston.

vinacis_vivids
2018-07-20, 15:25:17
https://abload.de/img/screenshot_2018-07-20vtitm.png

Vega spielt hier in einer anderen Liga. 40% schneller als 1080 bedeutet auch schneller als 1080Ti. Wenn man davon ausgeht, dass nicht alle Vega features (PS, fp16, hbbc on usw.) verwendet wurden, sieht es düster aus für Pascal bei den aktuellen/zukünftigen Frostbite Iterationen.

Platos
2018-07-20, 15:49:52
Mal sehen, wie es in ein Paar Wochen/Monaten aussieht. HDR ist ja (auf PC) relativ neu bzw. eigentlich eine Nische. Das werden sich bestimmt beide Lager mal genauer ansehen und gegebenfalls mit Treiber reagieren.

unl34shed
2018-07-20, 15:59:35
Das Problem ist bei Nvidia schon vor 1.5 Jahren aufgetaucht, damals gab es Tests von Gamestar mit 480 und 1060 mit ähnlichen Ergebnis. Verluste von 2-3% bei AMD 14% bei Nvidia.

Glaube nicht, dass es da einen Treiberfix für geben wird.

E:
Wird eher so ein fix wie async Compute für Maxwell, wo der fix dann Pascal hieß.

iuno
2018-07-20, 16:16:54
Wenn ihr euch so sicher seid, dass es eine Hardware-Sache ist, wo kommen dann die Unterschiede zwischen den Spielen und auch Karten her?