PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD stellt FreeSync 2 mit verpflichtendem Low Framerate Compensatio...


Leonidas
2017-01-04, 17:39:40
Link zur News:
https://www.3dcenter.org/news/amd-stellt-freesync-2-mit-verpflichtendem-low-framerate-compensation-lfc-und-high-dynamic-range

Gast
2017-01-04, 17:55:29
Das gute an den FS2 News ist, dass ich jetzt weiss der bisherige Standard funktioniert bei HDR nicht, das hätte ich glatt übersehen. So warte ich weiterhin mit dem Monitorkauf.

Dass mit FS2 das Tonemapping neu definiert wird zeigt leider auch, dass die ICM-Profile sich nie wirklich durgesetzt haben oder weiterentwickelt wurden. Dass AMD nun mit FS dort einen neuen Anfang wagt darf applaudiert werden, auf der anderen Seite möchte man aber eine Industrielösung die für alle Hersteller funktioniert. So hoffe ich auf die künftig weiterhin offene Standardisierung dieser Entwicklungen beim Displayport/VESA. Das HDMI-Freesync ist ja zumindest noch nicht so offen freigegeben....

Schade finde ich auch, dass es FS2 nicht für XBone oder PS4 gibt, auch gerade bei Konsolen und TVs stören die zusätzlichen Lags durch die Bildberechnungen.

Gast
2017-01-04, 17:58:55
ich finde das ziemlich mies von amd, da man wirkliches freesync lfc und geringen inputlag in das enthusiastenlevel verbannt, wobei man wohl auch dortige preise verlangen wird. freesync sollte freesync sein (als offener und kostenloser standard angekündigt) und nicht zur abzocke dienen. man ist damit keinen deut besser als nvidia, zudem baut man sich dann auch noch mit eigner api ein proprietäres imperium auf, was man jahrelang bei nvidias gameworks, gsync und co kritisiert hat. die firma wird mir immer unsympatischer, das gefasel von open source für alle und preiswerter offener standard, hat bei dem thema überhaupt keine substanz mehr.

ich werde mir ganz klar überlegen ob ich in zukunft noch amd hardware kaufen werde. jahrelang musste man die nachteile und das gefrickel an der hardware hinnehmen. das kann einfach nicht sein. jetzt kommt man mit den selben ideen potentielle bereiche abzuschöpfen wie nvidia das tut. dann kann man auch gleich nvidia kaufen, dass bekommt man ja jetzt schon.

bei der verteilung der marktanteile kann man sich nur wünschen, dass amd damit auf die fre**e fällt oder noch zurückrudert, um solche feature für ALLE die freesyncfähige hardware kaufen gangbar zu machen.

Gast
2017-01-04, 18:39:36
ich finde das ziemlich mies von amd, da man wirkliches freesync lfc und geringen inputlag in das enthusiastenlevel verbannt, wobei man wohl auch dortige preise verlangen wird. ...
Immer ruhig mit die Pferde, es wird ja erst mal nur angekündigt, bis klar ist wie das im Detail bepreist und angeboten wird werden wohl noch einige Monate vergehen. Dass HDR und diverse Mindestanforderungen im Ergebnis automatisch die teureren Monitore im heutigen Markt darstellen ist ja nur logisch. Es bleibt aber meines Erachtens beim *Mindestanforderungen* an die Hersteller und verlangt nicht Zwangsplatinen wie bei G-Sync. Wenn nun die Monitorhersteller auf ihrer Seite auf die Bildprozessoren für Tonemapping in den jeweiligen Monitoren verzichten, weil ja schon die Grafikkarte das erledigt, könnte das doch auch zu billigeren Geräten für Enthusiasten führen.
Ich glaube erstmal nicht, dass AMD extra Geld bzw. Roaylties für die Freesync 2 Logos verlangt. Es geht ja nur um das Logo, die Hersteller können doch verbauen was sie wollen... ist ja kein Patent, oder? Bleibt die API, von der noch nicht klar ist, ob die offen oder unfrei sein wird....

RLZ
2017-01-04, 18:43:28
denn mangels echter HDR-Spezifikationen können die Monitor-Hersteller faktisch jeden Monitor mit einem größeren Farbraum als gewöhnlich (besser als sRGB) als "HDR-tauglich" verkaufen.
Farbraum und Dynamikumfang sind 2 unterschiedliche Dinge.

von Richthofen
2017-01-04, 20:33:56
Ich glaube erstmal nicht, dass AMD extra Geld bzw. Roaylties für die Freesync 2 Logos verlangt.

Auch AMD ist nicht die Wohlfahrt. Wieso sollte man diese immensen Aufwand betreiben, nur um den ganzen Kram dann zu verschenken?

Das jetzige Erscheinen bzw. Ankündigen des Features kommt mir u.a. zeitlich unpassend vor. Man hat weder im CPU- noch im GPU-Segment etwas mit dem man auch nur in die Nähe des Enthusiastensegmentes heranreichte. Wer soll also den Kram kaufen? Oder anders: Wem sollen die Monitorhersteller ihr Gerät andrehen?
Man muss die Monitorhersteller, den Spielentwickler/- publisher und den Konsumenten überzeugen. Der kleinste gemeinsame Nenner daraus und die Tatsache dass nV's G-Sync weiter nebenherläuft lässt mich an AMDs Möglichkleiten zweifeln, die Technik erfolgreich im Markt zu platzieren.
Das Ganze könnte wie TrueAudio oder PhysX enden.

Kartenlehrling
2017-01-04, 20:37:43
http://www.it-finanzmagazin.de/wp-content/uploads/2015/01/Ricola-600.jpg

alles schon geregelt, wer hat`s erfunden...?


ROG Swift PG27UQ features G-SYNC HDR technology for a peak brightness several times greater than standard displays for stunning, vivid visuals.
http://videocardz.com/65369/asus-announces-swift-pg27uq-4k-ips-144hz-g-sync-monitor

samm
2017-01-04, 23:04:57
Man kann auch alles in Richtung schlecht umdeuten :D Nur weil es jetzt ein Label gibt für Monitore, die eine genügend grosses VRR-Fenster haben für LFC, und gewisse Mindestanforderungen an Farb- und Helligkeitsumfang sowie Input-Lag erfüllen, heisst das ja noch lange nicht, dass dadurch Freesync für günstige Monitore wegfällt, oder dass nur AMD-User etwas von einem zertifizierten FS2-Monitor haben, oder dass HDR direkt was damit zu tun hat etc. pp.
Letztlich sind es einfach striktere Richtlinien für das Label, plus der Möglichlichkeit, bei passender Software-Unterstützung einige Verarbeitungsschritte innerhalb des Monitors auszulassen.

Nach dem, was in den diversen Monitor-Threads und hier von Gästen und altbekannten Usern an Wortmeldungen kommt, frage ich mich echt, was es da geregnet hat...

Gast
2017-01-05, 20:51:47
Auch AMD ist nicht die Wohlfahrt. Wieso sollte man diese immensen Aufwand betreiben, nur um den ganzen Kram dann zu verschenken?

Das jetzige Erscheinen bzw. Ankündigen des Features kommt mir u.a. zeitlich unpassend vor. Man hat weder im CPU- noch im GPU-Segment etwas mit dem man auch nur in die Nähe des Enthusiastensegmentes heranreichte. Wer soll also den Kram kaufen? Oder anders: Wem sollen die Monitorhersteller ihr Gerät andrehen?
Man muss die Monitorhersteller, den Spielentwickler/- publisher und den Konsumenten überzeugen. Der kleinste gemeinsame Nenner daraus und die Tatsache dass nV's G-Sync weiter nebenherläuft lässt mich an AMDs Möglichkleiten zweifeln, die Technik erfolgreich im Markt zu platzieren.
Das Ganze könnte wie TrueAudio oder PhysX enden.

AMD profitiert bei Freesync durch die Werbung für die gemeinsame Lösung von namhaften Monitorherstellern. Das kann AMD grad gut gebrauchen.

Wenn sowas zum Beginn der CES schnell vorgestellt wird kann das auch ein Eingeständnis sein, damit ein Monitorhersteller selbst das auch Ankündigen kann, ich glaube Samsung hat das gemacht.
So eine CES und die Informationen sind ja eigentlich nicht für die Konsumenten bestimmt, sondern primär für die Händler, die solche Produkte ins Sortiment nehmen sollen, oder Softwareentwickler, die neue Features mit einplanen.
Nur Apple verkauft auch primär direkt und kündigt immer direkt Produkte kurz vor Release für seine Endkunden an... Sollte man nicht vergessen....

Gipsel
2017-01-05, 21:05:00
http://www.it-finanzmagazin.de/wp-content/uploads/2015/01/Ricola-600.jpg

alles schon geregelt, wer hat`s erfunden...?

http://videocardz.com/65369/asus-announces-swift-pg27uq-4k-ips-144hz-g-sync-monitorUnd was sollen die da genau erfunden haben? Auch da wird z.B. Tonemapping immer noch im Monitor gemacht. Oder etwa nicht?

Kartenlehrling
2017-01-05, 21:25:11
Ich bezog mich auf die Inputlag Reduzierung, Nvidia schreibe ja das sie es mit ihren Gsync-HDR Monitor genauso machen,
wo TVs fürs HDR tonemapping 20-45ms brauchen ist es mit dem Monitor gleich Null,
das kann ja nur sein in dem es von der GPU gemacht wurde und am intern Monitor-Scaler vorbei leiten.

Genauso wie es AMD mit freesync2 macht.

Gipsel
2017-01-05, 21:31:21
Ich bezog mich auf die Inputlag Reduzierung, Nvidia schreibe ja das sie es mit ihren Gsync-HDR Monitor genauso machen,Wo schreiben sie das?
Ich würde fast vermuten, die machen das Tonemapping auf dem GSync-Modul (das gibt es doch immer noch, oder?) und die Elektronik da ist schlicht schneller. Immerhin bekommt man dann auch was für den Aufpreis.

Kartenlehrling
2017-01-05, 21:40:52
PCGH.de soll es erfahren haben.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11256037&postcount=5892

Gipsel
2017-01-05, 22:06:09
PCGH.de soll es erfahren haben.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11256037&postcount=5892In Deinen Links und bei PCGH steht ganz genau gar nichts dazu, wo und wie das Tonemapping gemacht wird. Und wie bei FS2 Verlagerung ins Spiel geht ja schon mal schlecht, weil nirgendwo davon gesprochen wird, daß man Spielepatches dafür braucht. Einfach eine schnelle Elektronik dafür auf dem GSync-Modul erscheint mir die plausible Lösung.

Kartenlehrling
2017-01-05, 22:31:13
Bei welche Hardware G-Sync Modul Version sind wir den jetzt?
Der ROG Swift PG27UQ hat ja nun 2x DP1.4 und ein nicht definierter HDMI Eingang, wär peinlich wenn dieser wieder nur HDMI1.4b wär.

Vielleicht kann Daniel Möllendorf von Asus aus dem Nähkästchen plaudern.

Gast
2017-01-05, 22:33:46
In Deinen Links und bei PCGH steht ganz genau gar nichts dazu, wo und wie das Tonemapping gemacht wird. Und wie bei FS2 Verlagerung ins Spiel geht ja schon mal schlecht, weil nirgendwo davon gesprochen wird, daß man Spielepatches dafür braucht. Einfach eine schnelle Elektronik dafür auf dem GSync-Modul erscheint mir die plausible Lösung.
per gameworks - nv gsync hdr ist bestandteil davon. zudem setzt nv wie amd erstmal auf dci-p3 standard was plus 25% srgb entspricht und nichts mit wirklichem hdr zu tun hat, aber mit deutlich besseren hintergrundbeleuchtungszonen. da muss das modul nicht unbedingt bigger werden.

Gast
2017-01-05, 22:46:13
Bei welche Hardware G-Sync Modul Version sind wir den jetzt?
Der ROG Swift PG27UQ und ein nicht definierter HDMI Eingang, wär peinlich wenn dieser wieder nur HDMI1.4b wär.

was soll das bringen? gsync über hdmi? dazu ist nichts bekannt.

Kartenlehrling
2017-01-05, 22:55:56
Wie reden jetzt von einen Monitor, der HDMI als eine Schnittstelle hat,
da will ich die Freiheit haben einen extern UHD Player oder ein Chromecast Ultra anzuschliessen.

Gipsel
2017-01-05, 23:20:52
per gameworks - nv gsync hdr ist bestandteil davon.Link?
Und wo steht, daß die Funktionalität auf Gameworks-Titel beschränkt wäre?

Gast
2017-01-05, 23:22:23
Wie reden jetzt von einen Monitor, der HDMI als eine Schnittstelle hat,
da will ich die Freiheit haben einen extern UHD Player oder ein Chromecast Ultra anzuschliessen.
das wäre nur wichtig wenn du hdcp2.2 verschlüsselte inhalte in 4k wiedergeben willst. übrigens hdcp2.2 ist an keine besondere schnittstelle gebunden, da dieser durch einen externen hdcp-chip entschlüsselt wird und nicht durch den hdmicoder. dp, mhl und weitere sind kompatibel.

ich dachte wir reden von einen monitor der gsync rok serie, der ja in erster linie zum gaming gedacht ist.

Kartenlehrling
2017-01-05, 23:27:56
Von Gameworks-Titel ... hat er ja auch nicht geschrieben.
Das nur die 1000er Modell HDR DP support haben ist auch seltsam.

What is a High-Dynamic Range display?

High-Dynamic Range (HDR) refers to the range of luminance in an image. While definitions vary a bit, it typically means a range in luminance of 5 or more orders of magnitude. While HDR rendering has been around for over a decade, displays capable of directly reproducing HDR are just now becoming commonly available. Normal displays are considered Standard Dynamic Range and handle roughly 2-3 orders of magnitude difference in luminance.

Industry Support for HDR
Industry groups such as the Society of Motion Picture and Television Engineers (SMTPE) and the HDMI Forum have created standards for the next generation of displays. In particular, they go far beyond the dynamic range and color gamut described by sRGB and Rec. 709 which has driven the industry for the past two decades. These standards enable the encoding of brighter and richer colors than displays have traditionally been able to display. Additionally, an industry group called the UHD Alliance (UHDA) has set forward a certification program of what capabilities are required of a display to produce a high-quality experience today.

NVIDIA Support for HDR
All NVIDIA GPUs from the 900 and 1000 series support HDR display output.
The presence of HDMI 2.0 provides the bandwidth necessary for the higher quality signal desirable for HDR.
The 1000 series adds support for HDR over future Display Port revisions.

What displays are presently available?
Many of the latest premium TVs from LG, Samsung, Sony, and others support the necessary capabilities to display high-quality HDR images. Traditional desktop monitors can be expected at a later date.
How do I utilize HDR output with my app?

At a high level, utilizing HDR display only involves these steps.


Render good HDR data internally.
Preserve the precision of the color data rendered.
Tone map the scene appropriately.
Utilize NVAPI to communicate to the driver and display that you wish to display an HDR image.


Additionally, NVIDIA has a white paper explaining the more complete details as well as an SDK sample with all the code needed to get started.
Finally, this page links to some additional blog posts with yet more supplementary information to provide guidance on upgrading an application to support HDR displays.
https://developer.nvidia.com/high-dynamic-range-display-development

Gast
2017-01-05, 23:56:51
Link?
Und wo steht, daß die Funktionalität auf Gameworks-Titel beschränkt wäre?
in nvs dev-präsentation schon mitte des jahres (evan hart-rendering a game for hdr display). wie stellst du dir vor soll das bei amd per proprietärer api laufen und bei nv? (hdr tonemapmode? siehe auch maxwell oder pascal hdr, beides wird unter gameworks geführt)

ich soll dir einen link auf nvs gpu developers oder gameworks expert liefern? da brauchst du einen zugang für internas.

es braucht keine besondere logik zu verstehen das nv das in gw implementiert. amd macht ja nichts anderes.

Gipsel
2017-01-06, 05:00:30
in nvs dev-präsentation schon mitte des jahres (evan hart-rendering a game for hdr display). wie stellst du dir vor soll das bei amd per proprietärer api laufen und bei nv? (hdr tonemapmode? siehe auch maxwell oder pascal hdr, beides wird unter gameworks geführt)

ich soll dir einen link auf nvs gpu developers oder gameworks expert liefern? da brauchst du einen zugang für internas.

es braucht keine besondere logik zu verstehen das nv das in gw implementiert. amd macht ja nichts anderes.NVs Whitepaper von Evan Hart zu dem Thema habe ich gelesen. Da steht aber nicht unbedingt das drin, was Du behauptest. Und mit ein wenig Nachdenken kommt man auch drauf, daß das gar nicht stimmen kann. Denn nach Deiner Argumentation dürfte HDR + GSync dann nur zufriedenstellend funktionieren, wenn es ein GameWorks-Titel ist (und was passiert eigentlich bei der Anzeige von HDR-Fotos oder -Filmen?). Das denke ich aber nicht. Das wird schon etwas breitere Unterstützung geben. NV liefert natürlich auch Samples, wie man HDR-Tonemapping ganz ohne Gameworks hinbekommt. ;)

Die Empfehlungen von nV sind eigentlich ziemlich kompatibel zu AMDs Äußerungen. Die HDR fähigen Displays können (nicht alle tun es aber bisher) Metadaten mit ihren genauen Fähigkeiten an die GPU senden (maximale Helligkeit, Kontrast sowie die genauen Farbwerte ihrer drei Grundfarben sowie der Weißpunkt). Zur Aktivierung der HDR-Darstellung muß wiederum die GPU Daten ans Display senden, welche die Eigenschaften der Bilddaten (also für welche Maximalhelligkeit und drei Grundfarben das berechnet wurde) widerspiegeln sollten. Dies benutzt dann das Display normalerweise für das interne Tonemapping, um den Farbraum und den Helligkeitsbereich auf dem Display angemessen darzustellen.
NV empfiehlt, das spielinterne Tonemapping auf das Display auszurichten oder zumindest halbwegs übliche Werte anzunehmen (z.B. 1000nit + sRGB primaries), damit man sicherstellt, daß das Display nicht am Ende Schrott anzeigt (weil das displayinterne Tonemapping mit schwer zu erfüllenden Anforderungen konfrontiert wird, was das Bild schlechter als möglich aussehen läßt [sagt man dem Dislay, daß man das Bild für 10.000nit gemappt hat, wird der Helligkeitsbereich deutlich komprimiert werden, genau wie der Farbraum, sollte man einen deutlich größeren Bereich angeben, als dann letztendlich darstellbar und genutzt]).
Richtet man das spielinterne Tonemapping auf das Display aus (was seine Daten ja mitteilen kann und sowieso die empfohlene Prozedur ist, unabhängig vom Hersteller) und sagt dem Display das auch (was man auch kann und ebenfalls empfohlen ist, um die Darstellung zu optimieren) kann das displayinterne Tonemapping im Prinzip entfallen (weil es dann zur Identität degeneriert). Die Idee ist eigentlich völlig straightforward.

AMDs Vorgabe für das FS2-Label wird jetzt vermutlich sein, daß das Display das interne Tonemapping ausschalten muß, wenn diese sowieso empfohlenen Dinge erfüllt sind und man dies dem Display entsprechend signalisiert. Wie auch immer das genau im Detail passiert.
Die Kommunikation zwischen Display und Grafikkarte ist standardisiert (nur MS hat bis jetzt afaik noch nichts bereitgestellt, um das Vendor-agnostisch abzufragen und zu setzen, da muß der Entwickler also bisher nvapi bzw. ADL bemühen).

Insofern existiert diese Option zur Latenzverkürzung im Prinzip bei allen HDR-Monitoren (egal ob Free-/G-Sync oder feste Refreshrate), falls die Firmware nur minimal cleverer ist als üblich. Auch für nV bei GSync-Monitoren (sie haben ja per GSync-Modul sogar die Kontrolle darüber, was passiert). Oder sie haben auf dem GSync-Modul schlicht eine etwas schnellere Elektronik dafür integriert, die eben keine 20ms Lag oder so produziert, falls der Entwickler das verpennt hat (oder ein HDR-Film abgespielt wird, da ist das Tonemapping ja auch vorher festgelegt und das Display muß irgendwas draus machen). Dann funktioniert das immer schnell, ohne besondere Anforderungen an die Software zu stellen.

TLDR:
Das an Gameworks zu koppeln wäre idiotisch und ist technisch sicher nicht notwendig.

krötenfresse
2017-01-15, 14:20:27
mal eine frage zum frequenzbereich von freesync-fähigen bildschirmen: warum schaffen so viele bildschirme keine niedrigen frequenzen von unter 40hz oder unter 30hz?

Gast_samm
2017-01-15, 23:25:31
Einerseits gibt es physikalisch Probleme mit der Ausrichtung der Kristalle der LC-Matrix. Andererseits erfordern grössere Ranges wohl auch bessere Steuerungs-Hardware im Monitor.