PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

Tesseract
2015-01-07, 14:37:51
Das war mir bisher nicht klar das diese Begrenzung am Panel liegt. Und ganz verstehen tue ich es immer noch nicht. Liegt es daran das die Panels zu langsam oder zu schnell sind oder wie oder was?

du musst den zustand einer TFT-zelle (offen, halboffen, geschlossen etc.) ständig erneuern sonst "zerrinnt" dir das bild. unterhalb von ~30Hz ist das intervall bereits so groß, dass es zu sichtbaren abweichungen kommen kann.

Nightspider
2015-01-07, 14:38:37
Bis 40Hz im unteren Bereich finde ich ok, weniger kann man eh nicht mehr wirklich als flüssig bezeichnen. Was ich aber total bescheuert finde ist die Obergrenze von 60Hz. Was soll das? Ich hatte mich schon auf 72-75Hz @Freesync gefreut. :(

Es gibt aber SP Games wo sicherlich schon einige mal die Grafikregler auf 110% gestellt haben und sich trotz weniger fps an der Grafik und dem Spiel ergötzt haben. Mal abgesehen davon das es für Notebooks sinnvoll wäre, die eh keine hohen fps Zahlen erreichen.

GTA4 haben die meisten damals sogar mit rund ~20fps gezockt. Und sowas könnte bei Star Citizen auch wieder passieren.

Das war bei mir zuletzt bei Tomb Raider 2013 der Fall welches ich mit 2xSSAA bei 25-35fps gezockt habe.

Kartenlehrling
2015-01-07, 14:39:39
HEHE passend ...

http://www.zackzack.de/html/articlePreview.html


ASUS 27" LED-Monitor "ROG SWIFT PG278Q" auf ZackZack, bestimmt für 699€

Das war bei mir zuletzt bei Tomb Raider 2013 der Fall welches ich mit 2xSSAA bei 25-35fps gezockt habe.


Habe ich auch im 25fps bereich gespielt und fand es sehr angenehm, nur schaffen das wenige Spiele.


Für Videos gibts doch ein Russisches Projekt

http://www.svp-team.com/wiki/Main_Page
SmoothVideo Project (SVP)

samm
2015-01-07, 14:41:59
Samm ? was willst du denn noch?

http://scr3.golem.de/screenshots/1412/Catalyst-Omega-Test/thumb620/Catalyst-Omega-05_cr.pngVoll 24p-taugliche Monitore ;) Plus Support für noch tiefere Wiederholraten, von mir aus über Wiederholung des Bildes durch die Monitorelektronik. Diese Zwischenbildberechnung ist ersten orthogonal zum angesprochenen Problem, zweitens ist es, glaube ich, ein Feature, das derzeit nur in PowerDVD verfügbar ist, weil es die Entwickler extra einbauen müssen. Ausserdem fürchte ich weitere Quellen für Artefakte (ohne das konkret schon in Aktion gesehen zu haben).


Nightspider: Um ein Bild stabil zu halten, muss der Monitor zwingend immer mal wieder refreshed werden. Das kann man nicht direkt als "zu langsam" oder "zu schnell" bezeichnen.

Nightspider
2015-01-07, 14:42:27
du musst den zustand einer TFT-zelle (offen, halboffen, geschlossen etc.) ständig erneuern sonst "zerrinnt" dir das bild. unterhalb von ~30Hz ist das intervall bereits so groß, dass es zu sichtbaren abweichungen kommen kann.

Fangen die Flüssigkristalle dann an sich zu verteilen bzw. sich zu verdrehen?

Darüber habe ich noch nie nachgedacht aber dann könnte man den Effekt ja easy umgehen indem man manche Bilder eben 2-3mal refresht ohne das sich das Bild ändert. Bei 20fps könnte sich das Panel schon 3 mal refreshen.

Unicous
2015-01-07, 14:42:43
Zusammen mit dem zukünftigen "nativen" "Dynamic Frame Rate Control" Feature wäre die Sache mit VSync zumindest nach oben hin kein Problem, fällt mir gerade ein.

dargo
2015-01-07, 14:44:17
GTA4 haben die meisten damals sogar mit rund ~20fps gezockt.
Dann müssen die meisten weiter ne Diashow genießen. Zum Glück gehöre ich nicht zu den meisten. 20fps... :ucrazy:

samm
2015-01-07, 14:46:54
Darüber habe ich noch nie nachgedacht aber dann könnte man den Effekt ja easy umgehen indem man manche Bilder eben 2-3mal refresht ohne das sich das Bild ändert. Bei 20fps könnte sich das Panel schon 3 mal refreshen.
Genau sowas würde ich mir wünschen. Ist aber m.E. ein Punkt, den die Monitorhersteller statt der GPU-Treiberabteilung angehen müssen. Oder es kommen endlich OLED-Displays...

Zusammen mit dem zukünftigen "nativen" "Dynamic Frame Rate Control" Feature wäre die Sache mit VSync zumindest nach oben hin kein Problem, fällt mir gerade ein.
Klar, oder jedem sonstigen Limiter ;) Wohl kein Zufall, dass AMD dieses Feature jetzt so langsam mal einzubauen plant, wo die ersten Monitore promoted werden.

Unicous
2015-01-07, 14:51:18
@dargo

Wen interessiert der TN-Schrott? Ich spreche selbstverständlich von IPS/VA.

Was ist denn an der Aussage, es ist vom Panel abhängig so schlecht zu verstehen? Acer bringt einen G-Sync Monitor mit IPS/AHVA? der 144Hz können soll. Der Asus IPS!? Monitor kann 120 Hz und ist ein Adaptive Sync Monitor ohne FreeSync-Zertifizierung von AMD. Von AMD wird es laut Ryan Shrout auch keine White-List/Black List geben. Jeder Monitor der Adaptive beherrscht wird unterstützt)

Die LG-Monitore sind mit 75 Hz offiziell von AMD angegeben (verstehe jetzt nicht warum das wieder angezweifelt wird?). Wenn die Panel-Technologie es zulässt kann man auch über 120Hz hinaus gehen.


@samm

Ein offizieller Frame Limiter ist dennoch schick und einfacher zu handhaben als hier und da alles zehnfach einzustellen und zu schauen, ob es nicht mit anderen Einstellungen kollidiert.

Tesseract
2015-01-07, 14:56:30
Fangen die Flüssigkristalle dann an sich zu verteilen bzw. sich zu verdrehen?

ja, sie kehren langsam in ihren "normalzustand" zurück.

aber dann könnte man den Effekt ja easy umgehen indem man manche Bilder eben 2-3mal refresht ohne das sich das Bild ändert. Bei 20fps könnte sich das Panel schon 3 mal refreshen.
könnte man machen, ist aber bei weitem nicht so einfach wie bei konstanten refreshraten. das display bekommt einen frame, weiß aber nicht wann der nächste kommt. wenn es jetzt anfängt zu refreshen und im refresh ein neuer frame reinkommt müsste der warten und man hätte einen ruckler im frameverlauf. damit das nicht passieren kann müsste man die ausgabe um ein paar ms verzögern um sowas einplanen zu können und fängt sich damit erst wieder unnötigen inputlag ein.

Gipsel
2015-01-07, 15:00:29
Nur mal so nebenbei, bei "richtigem" (also etwas mehr darauf ausgelegten) Design gehen die Haltezeiten der Pixel in Richtung von 100ms (also 10Hz minimaler Refresh), die IGZO-Panels von Sharp bieten im Mobilbereich übrigens standardmäßig eine minimale Refreshrate von nur 1 Hz.
Will sagen: Da ist noch Luft nach unten.

Kartenlehrling
2015-01-07, 15:00:54
@Unicous
Also bei meinem 4 Jahre alter Samsung steht auch in der AMD CCC das die max Hz 75 wäre,
diese wird aber nur bei 1440x900 offizell eingerichte, bei 1080p sind es nur 60hz.
Ich habe mir dann mit CRU die Hz selbst eingerichte 48-60-72 und damit kann ich leben.

dargo
2015-01-07, 15:01:54
@dargo
Was ist denn an der Aussage, es ist vom Panel abhängig so schlecht zu verstehen? Acer bringt einen G-Sync Monitor mit IPS/AHVA? der 144Hz können soll. Der Asus IPS!? Monitor kann 120 Hz und ist ein Adaptive Sync Monitor ohne FreeSync-Zertifizierung von AMD. Von AMD wird es laut Ryan Shrout auch keine White-List/Black List geben. Jeder Monitor der Adaptive beherrscht wird unterstützt)

Die LG-Monitore sind mit 75 Hz offiziell von AMD angegeben (verstehe jetzt nicht warum das wieder angezweifelt wird?). Wenn die Panel-Technologie es zulässt kann man auch über 120Hz hinaus gehen.

Das mit dem LG @75Hz finde ich schon klasse. Mir gehts nur darum, dass diese Beschränkung bei 60Hz Bildschirmen völlig unnötig ist wenn Freesync eh bis 240Hz machbar. Afaik kann man jeden 60Hz Bildschirm mit mehr Hz betreiben. Die einen schaffen 72Hz, die anderen 76Hz. Und eben hier möchte ich auch Freesync haben. Alles andere ist unnötige Kastration.

btw.
Wenn der LG mit 75Hz angegeben ist kann man den sicherlich auch mit 85-90Hz betreiben.

M4xw0lf
2015-01-07, 15:03:17
Nur mal so nebenbei, bei "richtigem" (also etwas mehr darauf ausgelegten) Design gehen die Haltezeiten der Pixel in Richtung von 100ms (also 10Hz minimaler Refresh), die IGZO-Panels von Sharp bieten im Mobilbereich übrigens standardmäßig eine minimale Refreshrate von nur 1 Hz.
Will sagen: Da ist noch Luft nach unten.
Ich würde erwarten, dass eine lange Haltezeit mit einer schlechteren Schaltzeit und maximalen Refreshrate einhergeht; ist das in der Praxis so?

FlashBFE
2015-01-07, 15:06:24
Sowas würde ich mir erhoffen vom Treiber... Cooles Feature wäre zumindest bei fixen Rates wie bei "24"fps-Filmen, dass sowas z.B. verdoppelt oder verdreifacht wird. Sofern der Monitor an sich nicht ohnehin mit 24p umgehen kann.
du musst den zustand einer TFT-zelle (offen, halboffen, geschlossen etc.) ständig erneuern sonst "zerrinnt" dir das bild. unterhalb von ~30Hz ist das intervall bereits so groß, dass es zu sichtbaren abweichungen kommen kann.
Ich dachte genau für sowas wäre Panel Self Refresh da, sodass der Grafiktreiber keine doppelten Bilder mehr ausgeben muss und die LCD-Zellen trotzdem zyklisch aktualisiert werden. Das wäre ja nun ein starkes Stück, wenn auch keine 24Hz-Filme synchronisiert werden könnten.

Gipsel
2015-01-07, 15:09:07
Ich würde erwarten, dass eine lange Haltezeit mit einer schlechteren Schaltzeit und maximalen Refreshrate einhergeht; ist das in der Praxis so?Wenn man die exakt gleiche Schaltung nur skaliert, dürfte das so stimmen. Aber bei den erwähnten IGZO-Panels geht beides gleichzeitig. Es wird sowohl schneller und es hält länger (IGZO-TFTs vertragen höhere Ströme und haben gleichzeitig eine deutlich geringere Leakage).
Ich dachte genau für sowas wäre Panel Self Refresh da, sodass der Grafiktreiber keine doppelten Bilder mehr ausgeben muss und die LCD-Zellen trotzdem zyklisch aktualisiert werden. Das wäre ja nun ein starkes Stück, wenn auch keine 24Hz-Filme synchronisiert werden könnten.Panel-Self-Refresh erfordert zusätzlichen Speicher im Display (und der Controller muß es unterstützen). Das lohnt für Desktop-Panels eher nicht.

Unicous
2015-01-07, 15:12:39
@FlashBFE

Es geht um adaptive! variable! Wiederholraten. Bei Panel Self Refresh sind es konstante! Wiederholraten. Bzw. bei Videos sind es konstante! (variable) Wiederholraten.

Steht ja auch so im Whitepaper.

http://www.amd.com/Documents/FreeSync-Whitepaper.pdf


AMd hat ein für den DAU mE gut nachvollziehbares Video erstellt.
p7_ZiVY8vwE

Das G-Sync Video damals war zwar nicht schlecht, aber bei ein 30fps Video kann ich den Unterschied zwischen G-Sync an und aus nicht "sehen".


@Gipsel

Muss der Speicher bei PSR wirklich im Panel sitzen? Ich dachte die GPU macht das?

Nightspider
2015-01-07, 15:12:59
könnte man machen, ist aber bei weitem nicht so einfach wie bei konstanten refreshraten. das display bekommt einen frame, weiß aber nicht wann der nächste kommt. wenn es jetzt anfängt zu refreshen und im refresh ein neuer frame reinkommt müsste der warten und man hätte einen ruckler im frameverlauf. damit das nicht passieren kann müsste man die ausgabe um ein paar ms verzögern um sowas einplanen zu können und fängt sich damit erst wieder unnötigen inputlag ein.

Das Display könnte die FPS Rate ja parallel in echtzeit ausrechnen und den doppelten Bildaufbau bei bestimmten Grenzen. zB. bei 30fps einschalten oder ausschalten.

Da wir ja keine festen Intervalle mehr haben dürfte es doch ein leichtes sein den zweiten Bildaufbau des gleichen Frames nur kurz drin zu halten und dann einfach das nächste Frame aufzubauen.

Hoffe ich habe keinen Denkfehler.

Nightspider
2015-01-07, 15:15:50
Das lohnt für Desktop-Panels eher nicht.

Wie viel würde das kosten? 5 Euro?

Könnte man doch auch in der GPU machen. GPU schubst einfach zwei gleiche Bilder hintereinander raus bei bestimmten FPS-Raten und könnte das wahrscheinlich sogar genauer und schneller umschalten als jeder Monitor.

Gipsel
2015-01-07, 15:22:51
Könnte man doch auch in der GPU machen. GPU schubst einfach zwei gleiche Bilder hintereinander raus bei bestimmten FPS-Raten und könnte das wahrscheinlich sogar genauer und schneller umschalten als jeder Monitor.Das wäre die (kostenneutrale) Treiberlösung, die samm vorgeschlagen hat ;).
Bei niedrigen Frequenzen (wie 24fps) geht Strobing ja sowieso nicht, so daß man da ganz simpel auch auf 48/72Hz synchronisieren kann (oder man läßt die GPU noch Zwischenbilder berechnen und gibt dann 48/72/96/120/144Hz aus).

FlashBFE
2015-01-07, 15:26:25
@FlashBFE

Es geht um adaptive! variable! Wiederholraten. Bei Panel Self Refresh sind es konstante! Wiederholraten. Bzw. bei Videos sind es konstante! (variable) Wiederholraten.

Als! wäre! das! so! ein! Problem!, beides! zu! kombinieren! :freak:

Man weiß doch die Zeit des vorhergehenden Frames und kann vermuten, dass das aktuell am Monitor anliegende Frame genauso lange braucht und schiebt rechtzeitig ein Refresh ein. Klar braucht das einen Bildpuffer im Monitor, aber das bisschen Speicher kann doch nicht so teuer sein. Die ganze Monitorelektronik puffert doch eh schon ein oder mehrere Bilder, deshalb haben wir doch die leidigen Anzeigeverzögerungen von bis zu drei Bildern bei manchen Monitoren.

ndrs
2015-01-07, 15:58:50
Das Display könnte die FPS Rate ja parallel in echtzeit ausrechnen und den doppelten Bildaufbau bei bestimmten Grenzen. zB. bei 30fps einschalten oder ausschalten.
Wenn es dann natürlich doch eine plötzliche FPS-Schwankung gibt, hast du dann aber gleich einen sichtbaren Ruckler. Ich denke die Steuerung von doppelt ausgegebenen Bildern sollte man eher der GPU überlassen. Die weiß immerhin am ehesten, was gerade dargestellt wird.

Da wir ja keine festen Intervalle mehr haben dürfte es doch ein leichtes sein den zweiten Bildaufbau des gleichen Frames nur kurz drin zu halten und dann einfach das nächste Frame aufzubauen.
Eine gewisse Mindestanzeigezeit hast du ja trotzdem, da das Panel ja nicht unendlich schnell ist. theoretisch könntest du dann einen Inputlag von schlimmstenfalls 16ms (bei einem 60Hz-Display) bekommen.

Noch ne Frage an die Profis: Wie vorhersehbar ist die Berechnung eines Frames in der GPU? Wäre es möglich zwischendrin schon zu wissen, wie lang es noch etwa dauert, um dann bei Bedarf ein Zwischenbild zum passenden Zeitpunkt anzustoßen, um oben genannte Fälle zu vermeiden? Vermutlich müsste das aber bereits auf Engine-Ebene geschehen, oder?

Unicous
2015-01-07, 17:40:35
Kann es sein, dass der Lookaside Buffer im G-Sync Modul nichts weiter ist als ein PSR-RAM.:confused:

bI_gzkZqrrc

|MatMan|
2015-01-07, 17:43:10
LOL, natürlich behält AMD die Kontrolle, das ist ja wohl das absolut Mindeste. Alleine schon das AMD Mantle Open Source machen will und jedem erlaubt ohne Lizenskosten Treiber dafür zu schreiben ist weit mehr als Nvidia jemals tun würde. Ganz davon abgesehen das AMD Mantle sowhl für die Khronos-Group als auch für MS offen gelegt hat damit diese alle Vorzge sofort sehen und es ähnlich Implementieren können. Das bringt wie auch FreeSync die gesamte Industrie nach vorne.
:freak: Aha bei AMD ist es gut (sogar das "Mindeste"), dass sie die Kontrolle behalten - bei nVidia aber böse. Was verstehst du denn unter "open source" bei Mantle? Meinst du sie veröffentlichen den Quellcode ihres Treibers? Wohl kaum. Den werden sie auch nicht der Khronos-Group zeigen. Wäre auch recht sinnlos. Sie werden ein SDK veröffentlichen, wo eben die API Definition dokumentiert ist mit etwas Code drumherum, der die Software Entwicklung erleichert.

Als Gegenbeispiel sind entsprechende SDKs für CUDA frei (und bei PhysX für Entwickler) verfügbar. D.h. jeder kann sich anschauen, wie dort Probleme angegangen werden und kann dies für seine eigene Compute-API verwenden. (= dein "alle Vorzüge sofort sehen und es ähnlich Implementieren können")
OpenCL 1.0 war wohl auch etwas näher an CUDA als an CAL/CTM. Wahrscheinlich könnte man aber anhand der veröffentlichten API Spezifikation einen CUDA "Treiber" für AMD/Intel/... bauen.

D.h. also, dass Mantle ebenso ein geschlossener Standard ist, wie CUDA oder PhysX - mit dem Unterschied, dass AMD es als "offen" bezeichnet, weil sie anderen erlauben einen Treiber dafür zu entwicklen. Das sehe ich mehr als Marketing, da sie sicherlich selbst wissen, dass andere IHVs sich kaum an sie binden werden. AMD würde wohl kaum einen CUDA oder PhysX Treiber entwicklen, selbst wenn sie dürften.
Diese Einladung macht für dich Mantle zu einem offenen Standard?

(kann ein Mod bitte die Mantle Diskussion in den Mantle Thread schieben?)

Gipsel
2015-01-07, 18:08:11
Kann es sein, dass der Lookaside Buffer im G-Sync Modul nichts weiter ist als ein PSR-RAM.:confused:

http://youtu.be/bI_gzkZqrrcDas klingt danach. Obwohl die auf diesem FPGA-GSync-Modul doch schon sehr viel RAM verbaut hatten (768MB), um nur ein Frame zwischenzuspeichern. :rolleyes:

Skysnake
2015-01-07, 19:24:57
Naja, FPGAs sind teilweise ziemlich zickig was RAM-Module anbelangt, soweit ich das zumindest mitbekommen habe.

Unicous
2015-01-07, 23:01:36
Wie kommt man eigentlich auf solche Überschriften?

FreeSync kostet bei LG 319 und 549 Euro@CB (Artikel wird wegen dummer Überschrift nicht verlinkt:P)

:facepalm:

Der mutmaßlichen ältere Zwilling (zweieiig:confused:) 29UM65-P hatte anscheinend eine UVP von 349 Euro und beim 34UM65-P lag sie wohl bei 599 Euro. Von daher gäbe es (theoretisch) keinen Aufpreis, mal abgesehen davon, dass die Monitore schon ca. ein Jahr auf dem Markt sind.:wink:

dargo
2015-01-07, 23:34:00
Dann mach ich es. :P
http://www.computerbase.de/2015-01/freesync-kostet-bei-lg-319-und-549-euro/

Kartenlehrling
2015-01-08, 00:21:08
FreeSync kostet bei LG 319 und 549 Euro

Man muss es nur mehrmals lesen, dann kann man sogar darüber lachen.

fondness
2015-01-08, 14:08:40
ASUS MG279Q 27-in 2560x1440 IPS 120 Hz Variable Refresh Monitor um $599:
http://www.pcper.com/news/Displays/CES-2015-ASUS-MG279Q-27-2560x1440-IPS-120-Hz-Variable-Refresh-Monitor

...the fact that this monitor will work with AMD Radeon graphics cards and operate at a variable refresh rate. After talking with AMD's Robert Hallock at the show, he confirmed that AMD will not have a whitelist/blacklist policy for FreeSync displays and that as long as a monitor adheres to the standards of DP 1.2a+ then they will operate in the variable refresh rate window as defined by the display's EDID.

So, as described by the ASUS reps on hand, this panel will have a minimum refresh of around 40 Hz and a maximum of 120 Hz, leaving a sizeable window for variable refresh to work it's magic.

Was kostet noch mal schnell das ASUS 27" TN Modell mit G-Sync? :ugly:


RESEARCH NOTE: Why the Industry Needs Technologies Like AMD FreeSync


Table of Contents

How AMD FreeSync Emerged
How Does AMD FreeSync Work?
AMD FreeSync Brings Affordable Dynamic Refresh Rates to the People
AMD FreeSync Improves Gaming for Some But Not All

Companies Cited

AMD
BenQ
LG Electronics
Nixeus
Samsung
VESA
Viewsonic

http://www.moorinsightsstrategy.com/research-note-why-the-industry-needs-technologies-like-freesync/

Kartenlehrling
2015-01-08, 14:16:27
Was kostet noch mal schnell das ASUS 27" TN Modell mit G-Sync?

Teuflische 666€ beim ZackZack heute.

aufkrawall
2015-01-08, 14:21:59
Das TN-Teil sollte eigentlich stark im Preis fallen, sobald es den Acer gibt.

Verstehe nicht, warum der Asus nur 120Hz hat, wird das gleiche Panel wie beim Acer sein. Vielleicht geht ja OC.
Der Preis ist jedenfalls schon mal akzeptabel. Bleibt zu hoffen, dass er in DE nicht 1:1 €:$ kosten wird.

Von 4k IPS FreeSync immer noch nichts zu sehen?

Unicous
2015-01-08, 14:41:56
Da Asus das 4K Panel eh erst im zweiten Halbjahr herausbringt kann man sich die Frage spätestens dann stellen. ;)

Edit: Viel schlimmer ist, dass anscheinend sowohl die FS als auch GS Monitore erst im März kommen (laut CB), obwohl man zuvor noch von wenigen Wochen gesprochen hat. Dieser product cycle Scheiß ist einfach nur nervig.

boxleitnerb
2015-01-08, 15:05:14
Da ich mir in H1 2015 einen neuen Monitor kaufen möchte:
Freesync geht (aktuell) nur mit AMD, G-Sync nur mit NV?

Ist 4K + IPS auch für G-Sync angedacht außer dem Asus ROG Swift PG27AQ? Für Freesync ja scheinbar später im Jahr.

M4xw0lf
2015-01-08, 15:11:10
Da ich mir in H1 2015 einen neuen Monitor kaufen möchte:
Freesync geht (aktuell) nur mit AMD, G-Sync nur mit NV?

In der Tat. (Bist du so raus aus dem Hardwarezirkus? ^^)

Ist 4K + IPS auch für G-Sync angedacht außer dem Asus ROG Swift PG27AQ? Für Freesync ja scheinbar später im Jahr.
Außer dem Asus ist glaube ich nichts angekündigt bisher.

Unicous
2015-01-08, 15:16:26
@boxleitnerb

Für FreeSync ist wie aufkrawall schon anmerkte nichts angekündigt. Das PG27AQ ist für "after Q2" angekündigt und Juan Jose "JJ" Guerrero sagt es könnte Juli bis September sein, also irgendwann im Q3.:wink:

Wenn Asus keinen Adaptive Sync 4K IPS Monitor anbietet, wissen wir ja woran es liegt.


CES 2015: ASUS PA328Q 4K IPS LCD With 100% sRGB ProArt Series (http://www.pcper.com/news/Displays/CES-2015-ASUS-PA328Q-4K-IPS-LCD-100-sRGB-ProArt-Series)

Ist zwar ein etwas hinkender Vergleich, aber das Ding soll bei $1400 liegen, einen 4K IPS (xSync) wird es daher eher nicht unter $1000 zumindest von Asus geben.


F1deIQjp4M0

"Late in Q1":rolleyes: wahrscheinlich 40-120Hz

Kartenlehrling
2015-01-08, 15:42:26
man sieht leichte Lichthöfe an der untern Kante, trotzdem nett.
Für 600€ wird er aber 100% wie warme Semmel weg gehen, vorbestellen ist wohl pflicht.

aufkrawall
2015-01-08, 15:48:59
man sieht leichte Lichthöfe an der untern Kante, trotzdem nett.

Kann auch Glow sein.

1400$ für 4k Gsync, nur, weil IPS? Acer 4k TN Gsync kostet die Hälfte (und ist für TN sogar ziemlich gut). Verpiss dich, Asus...

boxleitnerb
2015-01-08, 15:50:46
In der Tat. (Bist du so raus aus dem Hardwarezirkus? ^^)


Außer dem Asus ist glaube ich nichts angekündigt bisher.

Ja, real life ist spannender ;)
Thx

Unicous
2015-01-08, 15:57:02
Kann auch Glow sein.

1400$ für 4k Gsync, nur, weil IPS? Acer 4k TN Gsync kostet die Hälfte (und ist für TN sogar ziemlich gut). Verpiss dich, Asus...

Ney, ney. Das ist ein anderer Monitor. 32" IPS mit 100% sRGB Abdeckung.

Aber wenn der 27"er IPS@1440p schon 600 Euro kostet glaube ich nicht, dass Asus den 4K IPS Monitor mit G-Sync wesentlich unter 1000 Euro/Dollar verkaufen wird.

fondness
2015-01-08, 16:48:07
Von 4k IPS FreeSync immer noch nichts zu sehen?

Ich gehe davon aus das eine der zwei Samsung-Serien IPS ist.

aufkrawall
2015-01-08, 16:58:17
Ney, ney. Das ist ein anderer Monitor. 32" IPS mit 100% sRGB Abdeckung.

Dann geht der Preis ja sogar in Ordnung, mea culpa.

Wenn bis März nichts angekündigt ist, kann man 4k IPS A/G-Sync wohl erstmal vergessen.
Der Preis wird vielleicht nicht soo schlimm, wenn es Konkurrenz gibt (wie nun bzw. bald bei 120Hz IPS).
Spätestens nächtes Jahr ist so was halt Standard.

Unicous
2015-01-08, 17:09:49
Warum das denn? Asus hat auch keinen "FreeSync"-Monitor im Angebot, wohl aber einen Adaptive Sync Monitor. Was hält Asus davon ab (außer vllt. Nvidia) einen 4K IPS Monitor mit Adaptive Sync herauszubringen. Man hält sich ja schon verdächtig bedeckt bei dem MG279Q und man musste bei ihnen erst mal in der Nase bohren um herauszufinden, dass der Monitor in der Tat Adaptive Sync unterstützt.

Der Scaler unterscheidet nicht zwischen IPS und TN oder sonstigen Panel-Technologien. Allein der Hersteller entscheidet ob er es implementiert.

Es ist also nicht der Fehler der VESA oder gar AMD, wenn Asus und Co. entsprechende Monitore nicht mit Scalern ausstattet und G-Sync präfereriert.

Nightspider
2015-01-08, 17:38:18
man sieht leichte Lichthöfe an der untern Kante, trotzdem nett.
Für 600€ wird er aber 100% wie warme Semmel weg gehen, vorbestellen ist wohl pflicht.

Glaube ich kaum.

Ich weiß der Vergleich hinkt da der QNIX bei weitem nicht perfekt ist aber dagegen ist der ASUS für 600 Euro ein Witz.

Den QNIX habe ich vor 1,5 Jahren für die Hälfte gekauft.

Kartenlehrling
2015-01-08, 18:04:01
Die Tests werden es hoffentlich belegen, das die 600€ verdient sind.
Im gegensatz zu @aufkrawall finde ich es gut das sie nur mit "120hz" werben.

aufkrawall
2015-01-08, 18:11:11
Glaube ich kaum.

Ich weiß der Vergleich hinkt da der QNIX bei weitem nicht perfekt ist aber dagegen ist der ASUS für 600 Euro ein Witz.

Den QNIX habe ich vor 1,5 Jahren für die Hälfte gekauft.
Ne, kein Witz. Der Qnix sieht bei 120Hz einfach beschissen aus. Außerdem hat er
-kein Overdrive
-kein OSD (nix Kalibrierung)
-keinen Scaler (für manche Leute offenbar wichtig)
-bescheidene Verarbeitungsqualität (führt etwa zu blb, extrem wackelig)
-hässliche Plastikverschalung
-keine Höhenverstellung
-häufiger Pixelfehler (wenn auch nicht unbedingt)
-kein A/G-Sync
-langsameres Panel
-externes Netzteil
-nur ein Jahr Garantie bei Händler in Korea
Edit:
Ach ja: -kein Strobing

Wenn Asus oder Acer was taugen, fliegt der Qnix hier raus. Will wieder TF2 mit mind. 120Hz spielen können, aber bitte bei nicht entsetzlicher Bildqualität.
Bis 75Hz äußerst brauchbar, erst recht für den Preis. Aber ansonsten? Ich bitte dich...

Nightspider
2015-01-08, 18:18:53
Kein OSD, kein Scaler = weniger Inputlag

Kalibrierung war von Werk aus ziemlich gut.

Hat der ASUS strobing?

Ich mein wenn der wirklich gut verbarietet ist und geringes Glowing und Backlightbleeding aufweißt könnte man darüber nachdenken aber 4K hat er eben auch nicht. Ist auch wieder ein No-Go. Man bräuchte eben 2 Monitore, einen für schnelle Games und einen für SP Games. First world problems von Studenten. ;D

Unicous
2015-01-08, 18:20:49
AT war dann auch mal in der AMD Booth und hat anscheinend mal ein paar Details zu den Demos und Monitoren parat (frage mich, was die anderen Leute immer fragen, sodass immer nur die Standardantworten kommen)

More important than the displays and hardware powering them is the fact that FreeSync worked just as you’d expect. AMD had serveral demos running, including a tearing test demo with a large vertical block of red moving across the display, and a greatly enhanced version of their earlier windmill demo. We could then enable/disable FreeSync and V-SYNC, we could set the target rendering speed from 40 to 55 Hz in 5Hz increments, or we could set it to vary (sweep) over time between 40 Hz and 55 Hz. The Samsung display meanwhile was even able to show the current refresh rate in its OSD, and with FreeSync enabled we could watch the fluctuations, as can be seen here.

Having seen and used G-SYNC, there was nothing particularly new being demonstrated here, but it is proof that AMD’s FreeSync solution is ready and delivering on all of AMD's feature goals, and it should be available in the next few months. Meanwhile AMD also took a moment to briefly address the issue of minimum framerates and pixel decay over time, stating that the minimum refresh rate each monitor supports will be on a per-monitor basis, and that it will depend on how quickly pixels decay. The most common outcome is that some displays will have a minimum refresh rate of 30Hz (33.3ms) and others with pixels quicker to decay will have a 40Hz (25ms) minimum.

AMD Shows Off Multiple FreeSync Displays (http://anandtech.com/show/8854/amd-shows-off-multiple-freesync-displays)

Kann das G-Sync OSD auch die aktuellen Refreshraten darstellen, habe dazu bisher nichts gelesen, gesehen oder gehört.

Nightspider
2015-01-08, 18:23:24
Wozu braucht man die Refreshraten?

hz=fps, darüber max. hz zahl und darunter auch.

Unicous
2015-01-08, 18:29:33
Ganz einfach OCD@OSD:freak:

Wenn ich eine Refreshrate einstelle ist es doch nett, das auch nochmal vom Monitor bestätigt zu bekommen.

Ein Typ in einem Video behauptet gerade, dass G-Sync nur in der nativen Auflösung des Monitors funktioniert, während FreeSync das können soll (e:also verschieden Auflösungen). Stimmt das? Habe ich jedenfalls auch noch nicht gehört. Wäre ja für 4K Monitore nicht unerheblich.

http://youtu.be/9PUF5Aw2ErM?t=1m24s

aufkrawall
2015-01-08, 18:34:15
Kein OSD, kein Scaler = weniger Inputlag

Der ist bei neueren Monitoren aber häufig nur noch bei sehr wenigen ms.


Hat der ASUS strobing?

Weiß man noch nicht.


Ist auch wieder ein No-Go. Man bräuchte eben 2 Monitore, einen für schnelle Games und einen für SP Games. First world problems von Studenten. ;D
Ideal ist es nicht, aber mit SSAA kann man auch gut SP-Spiele darauf genießen (imho besser als 4k TN).
Kein Tearing, Lag & Stutter und 120Hz IPS WQHD sind ja auch schon mal ein Fortschritt.

Mandalore
2015-01-08, 20:21:36
Gibts inzwischen einen direkten Vergleich zwischen G-Sync und FreeSync?

samm
2015-01-08, 21:25:03
Ein Typ in einem Video behauptet gerade, dass G-Sync nur in der nativen Auflösung des Monitors funktioniert, während FreeSync das können soll (e:also verschieden Auflösungen). Stimmt das? Habe ich jedenfalls auch noch nicht gehört. Wäre ja für 4K Monitore nicht unerheblich.

http://youtu.be/9PUF5Aw2ErM?t=1m24sKann mir nicht vorstellen, dass GSync das nicht kann. Hat ja einige User hier auf dem Forum, die das kurz überprüfen können.

Gibts inzwischen einen direkten Vergleich zwischen G-Sync und FreeSync?Nein, wie auch? Gibt ja noch keine käuflich erhältlichen Free/Adaptive Sync Monitore, erst Previews an den Messen.

aufkrawall
2015-01-08, 21:29:47
Wie hatte NV denn Redaktionen ermöglicht, vorab mehrere Spiele mit Gsync zu testen?

samm
2015-01-08, 21:38:35
Würde erst nach der CES mit "production"-Spec Samples rechnen. Aber natürlich wäre eine positive Überraschung... positiv ;)

fondness
2015-01-08, 21:46:16
BYWb66sg_gA

aufkrawall
2015-01-08, 21:53:59
*gähn*, der Peter Tauber von AMD...

N0Thing
2015-01-08, 22:25:00
Wie hatte NV denn Redaktionen ermöglicht, vorab mehrere Spiele mit Gsync zu testen?

So wie AMD auch. Auf Einladung zu einer eigenen Präsentation im letzten Jahr. Aber weder Nvidia (konnten sie damals ja auch nicht) noch AMD haben ein Produkt der Konkurrenz bereit gestellt.

Ob Asus und Konsorten vor der Markteinführung Free-/A-Sync-Monitore als Review-Exemplare verschicken, wird sich erst noch zeigen.

Fusion_Power
2015-01-08, 22:30:03
Sieht so aus als wäre die NVidia Lösung deutlich teurer als die von AMD, was ich als NVidia User sehr bedauerlich finde. Muss man im Zweifel zur Konkurenz wechseln oder bekommt NVidia da noch was gedeichselt beim derzeitigen Schweinepreis der G-Sync Technik?

Thomas Gräf
2015-01-08, 22:57:03
Die Frage lautet ja inzwischen...hey wer lässt den nun meinen Traum Monitor bauen, AMD oder nV? Sollte es keiner von den beiden schaffen bin ich bockig und warte auf dei Rift. ;)

Kartenlehrling
2015-01-08, 23:21:32
Sieht so aus als wäre die NVidia Lösung deutlich teurer als die von AMD, was ich als NVidia User sehr bedauerlich finde.
Muss man im Zweifel zur Konkurenz wechseln oder bekommt NVidia da noch was gedeichselt beim derzeitigen Schweinepreis der G-Sync Technik?

Nvidia hat ja immer noch die Behauptung aufgestellt das G-sync einige Vorteile gegenüber Vesa-Adaptive Vsync (bzw. AMD Freesync) hat.
Diese müssen erstmal bewiesen werden, einen weiß ich schon ... der grösser Bereich an "Alten" Grafikkarten.


Für die G-SYNC ist eine NVIDIA GeForce GTX 650 Ti BOOST oder höhere Grafikkarte erforderlich.

transstilben
2015-01-08, 23:25:09
Gibt es hier vielleicht jemanden mit einem brandaktueller iMac Retina, vorzugsweise mit 295 Grafik ? Ist da irgendwas von "Freesync" zu sehen oder einzustellen ? Sollte der nicht auch
Freesync unterstützen können, oder ist das "appleproprietär" gelöst ? :confused:

Wären wir hier nicht in der Spekulationsabteilung, fände ich die ganze Spekuliererei zum Kotzen. ;D

Kartenlehrling
2015-01-08, 23:32:07
Bei PCGH bzw. PCgames sind doch einige Redakteure zu Asus Promotion gewechselt.
PCGH müsste doch so an INSIDE Wissen kommen.

habs gefunden... und wie passend zu g-sync .... Daniel Möllendorf technical PR.Asus

https://www.youtube.com/watch?v=KOt2rVtaMxA
Mhaire Stritter und Daniel Möllendorf

transstilben
2015-01-08, 23:35:56
Nvidia hat ja immer noch die Behauptung aufgestellt das G-sync einige Vorteile gegenüber Vesa-Adaptive Vsync (bzw. AMD Freesync) hat.
Diese müssen erstmal bewiesen werden, einen weiß ich schon ... der grösser Bereich an "Alten" Grafikkarten.

Schau Dir mal an, wie viele AMD 7970 alias 280-Karten abgestoßen werden. Vielleicht korreliert das ja mit der Anzahl von Kaufinteressenten von Freesync-fähigen Monitoren. :wink:

Thomas Gräf
2015-01-09, 01:11:41
Winter 2014 ging klar an nV, aber was solls ich bin der festen Meinung das demnächst die Monitore für Graka Kauflust sorgen werden. Wer da ein sexy Packet bieten kann wird auch sein Graka Chip an den Kunden bringen. Das kann von Fall zu Fall sehr variieren, je nach Anwendungs Profil.

Unicous
2015-01-09, 01:17:16
@Kartenlehrling

Auch PR-Leute sind an NDAs gebunden und sehr oft nicht der richtige Ansprechpartner dafür, weil sie sich in den seltensten Fällen mit der Materie bis in alle Nuancen auskennen sondern nur ihre Pressemappen auswendig lernen.


@transstilben

Das hängt einzig und allein von der Panel-Elektronik ab, die Apple nutzt. Wenn der Timing Controller von Parade Technologies es unterstützt, dann ginge es natürlich theoretisch. Wenn aber Apple die Funktion nicht exponiert, kann sie natürlich dennoch nicht nutzen.

Der Timing Controller im retina iMac nennt sich DP665. Sowohl der DP663 als auch der DP667 beherrschen Adaptive Sync.

Leider hat noch niemand den Dell auseinandergenommen, der ja wahrscheinlich das gleiche Panel besitzt (aber u.U. eine andere Elektronik). Hp will auch ein 5K Display herausbringen und TFTCentral schätzt, dass alle drei Displays das selbe Panel haben.

LG arbeitet auch an einem 5K IPS ( bzw. IGZO?) Display, als auch Samsung mit PLS/"IPS". Die Chancen stehen sehr gut, dass zukünftig entsprechende Hardware eingesetzt wird, die Adapative Sync nutzt, weil Scaler bzw. Timing Controller Adaptive Sync dann eh schon beherrschen.

http://www.tftcentral.co.uk/news_archive/32.htm#lg.display_5k

Dabei stellt sich auch die Frage ob die Monitore von Seiki, die ja DP 1.3 beherrschen sollen Adaptive Sync fähig sind.
http://www.tftcentral.co.uk/news_archive/32.htm#seiki_4k_monitors

mironicus
2015-01-09, 13:11:31
http://www.computerbase.de/2015-01/asus-mg279q-bietet-ips-120-hz-und-wqhd-auf-27-zoll/

Newsupdate: Das Asus-Modell hat auch AdaptiveSync und wird 599 Dollar kosten.
IPS - WQHD - 120 Hz - Freesync = 599 Dollar. :D
TN - WQHD - 144 Hz - GSync = 799 Dollar. :D

Sunrise
2015-01-09, 13:26:39
http://www.computerbase.de/2015-01/asus-mg279q-bietet-ips-120-hz-und-wqhd-auf-27-zoll/

Newsupdate: Das Asus-Modell hat auch AdaptiveSync und wird 599 Dollar kosten.
IPS - WQHD - 120 Hz - Freesync = 599 Dollar. :D
TN - WQHD - 144 Hz - GSync = 799 Dollar. :D
Die originale Quelle schreibt hier noch etwas, was Computerbase weggelassen hat, mich persönlich aber stören würde:

http://www.pcper.com/news/Displays/CES-2015-ASUS-MG279Q-27-2560x1440-IPS-120-Hz-Variable-Refresh-Monitor
So, as described by the ASUS reps on hand, this panel will have a minimum refresh of around 40 Hz and a maximum of 120 Hz, leaving a sizeable window for variable refresh to work it's magic.

Immer diese unnötigen Pferdefüße. 40Hz finde ich zudem schon recht hoch.

fondness
2015-01-09, 13:29:43
IPS wirst du kaum unter 40Hz bekommen, TN scheint bis etwas 30Hz zu gehen wenn man sich bisherige Geräte ansieht.

Unicous
2015-01-09, 13:33:14
@Sunrise

Die Specs sind eh noch nicht final. Beschwere dich bitte bei den Panelherstellern. G-Sync Monitore haben genau das gleiche Problem.

CES 2015: MG279Q 27-inch WQHD IPS At 120+Hz! (http://rog.asus.com/393632015/gaming-monitors/ces-2015-mg279q-27-inch-wqhd-ips-at-120hz/)

The MG279Q is a 27-inch IPS-spec display that’ll run at 120+Hz (we’re still working on certifying 144Hz ready for launch) at WQHD (2560 x 1440) resolution.

In-Plane Switching (IPS spec) panel

Da steht IPS-Spec...also könnte das gleich AUO-Panel sein, das Acer nutzt.

Edit:

Irgendetwas ist auf jeden Fall anders beim neuen Acer G-Sync Monitor.

http://www.geforce.com/whats-new/articles/nvidia-g-sync-worlds-first-144hz-ips-monitor-unveiled

On the side there’s the required DisplayPort 1.2 output for G-SYNC, plus HDMI and DVI outputs for game consoles and other devices, as well as audio out and two USB 3.0 ports for accessories or storage.
Würde ein großes Manko von G-Sync beseitigen.

[...] the first IPS gaming monitor to also support NVIDIA Ultra Low Motion Blur (ULMB) technology, and one of the world’s first IPS monitors with a response time of only 4ms G-to-G.



[...] “when can I buy one?!” The answer: February.
Und warum sagt Acer März?

Gipsel
2015-01-09, 13:52:00
IPS wirst du kaum unter 40Hz bekommen, TN scheint bis etwas 30Hz zu gehen wenn man sich bisherige Geräte ansieht.Das hat nicht unbedingt mit der Technik der Pixel selber zu tun, sondern hängt eher an der Matrix der Panels, mit der die Pixel angesteuert werden und die den Zustand zwischen den Refreshes halten muß.

Sunrise
2015-01-09, 13:53:57
IPS wirst du kaum unter 40Hz bekommen.
Hauptsächlich viele Gaming-Displays machen es komischerweise nicht mit. Gerade da fände ich das aber begrüßenswert, vor allem jetzt bei Adaptive Sync. Unter 40Hz kommt man mit den entsprechenden Einstellungen sicher öfter mal.

Mein alter Eizo CG 243W kann das schon (23.xx bis ca. 63Hz), ebenso der neue LG 34UC97-S (bis runter auf 24Hz), der HP DreamColor Z27x kanns (geht von 24-60Hz), der LG 34UM65-P kanns auch...(könnte das beliebig ergänzen).

Ist eben auch eine persönliche Sache, ich will mich eigentlich nicht verschlechtern, wenn ich schon 600 oder mehr EUR für einen neuen Monitor ausgebe.

mironicus
2015-01-09, 13:54:29
Fernseher können bis 23 Hz runter, da sollte dynamisch mehr möglich sein.

Gipsel
2015-01-09, 14:02:46
Fernseher können bis 23 Hz runter, da sollte dynamisch mehr möglich sein.Eher anders rum. Feste 23Hz sind etwas einfacher, als mit variablen Refreshraten so tief zu kommen. ;)

Wake
2015-01-09, 14:04:38
Yep, das wäre cool für Video wenn man 23 Hz schaffen würde - von den angekündigten 9 Hz welche mit FreeSync angeblich möglich wären ist man aber immer noch weit entfernt.
Gut, es gibt jetzt nicht wirklich viel Content mit weniger als 20 fps, insofern ist das wohl eher eine Stromsparangelegenheit?

Auch eines der größten Kritikpunkte meines Erachtens an G-Sync im Vergleich zu ASync, Nvidia hat über Videowiedergabe noch kein Wort verloren.
Würde ihnen ja sogar zutrauen ASync nur für Video zu "missbrauchen" (;)) während auf der 3D-Grafikseite weiterhin G-Sync gepusht wird.

mironicus
2015-01-09, 14:05:29
Variabel ab 40 Hz wäre noch tolerabel bei WQHD und einer einzelnen Grafikkarte ab R290.

Und wenn nicht müßte man auf Monitore warten die einen größeren Bereich abdecken können... Jahre...

aufkrawall
2015-01-09, 14:07:18
Fernseher runden häufig durch Blending auf 24Hz auf. Davon kann man auch ein Vielfaches nehmen.

Unicous
2015-01-09, 14:16:27
Ihr verwechselt die ganze Zeit variable, "adaptierende" Wiederholraten (FreeSync/G-Sync) und variable aber konstante Wiederholraten die z.B. durch PSR ermöglicht werden. Intel nutzt das schon im mobilen Bereich, da wird es "Display Refresh Rate Switching" (DRRS) genannt. Aber soweit ich das mitbekommen habe ist es nicht so granular wie der Adaptive Sync Standard, sondern kann wohl nur von 60Hz auf 40Hz runtergehen. (Könnte mich aber auch irren gibt keine Dokumentation dazu. Voraussetzung ist auch eDP.

Bei F-/GSync passt sich der Monitor exakt an die Vorgabe von der GPU an. Bei PSR/DRRS bleibt sie konstant.

Wake
2015-01-09, 14:23:34
Schon klar, bis jetzt waren ja immer nur bestimmte Einstellungen möglich z.B. 120, 110, 100 und 60 Hz und das war es.

Mit ASync wird endlich die ganze Bandbreite freigegeben, insofern für Video ideal wenn sich die refresh rate dem jeweiligen Inhalt anpasst.
Dafür braucht es eben ein fähiges Panel, dann ist vielleicht auch auch 24 fps-Video nativ in Zukunft möglich.

ndrs
2015-01-09, 14:24:53
Genau das ist der Punkt. Niemand kann sagen, ob bei den ganzen genannten Beispielen mit 24Hz (o.ä.) das Display intern die Matrix nicht mit 48Hz refresht, also jedes Bild doppelt ausgibt. Mit variabler Refreshrate wäre das nicht möglich.

Edit: bezog mich auf Unicous

Wake
2015-01-09, 14:28:59
Wäre das nicht immer noch besser sein als zu versuchen, den Content an die Wiederholrate anzupassen? Siehe madVR smooth motion-setting und andere solche Lösungen.

Unicous
2015-01-09, 14:43:02
Bei Panel Self Refresh sind afaik Wiederholraten hinterlegt, bei adaptive Sync kann diese dynamisch festgelegt werden, man muss sie also nicht extra umstellen. Wenn ein Video mit 23,976 "fps" ausgegben wird, dann sagt die GPU zum Controller, stell dich mal auf 23,976 Hz. Wenn ich das Video abbreche und ein Video mit 24 fps abspiele, wir das sofort weitergegeben.

Afaik, konnte man bei einem Monitor nicht einfach 23,976 einstellen, aber ich habe mich damit schon ewig nicht mehr beschäftigt. Können einige Monitore das mittlerweile?

aufkrawall
2015-01-09, 14:53:00
Natürlich.

Wake
2015-01-09, 14:54:56
Dito habe mich mit Reclock auch nie wirklich beschäftigt, also k.A. ob man da 23,976 oder 24 einstellen muss und was dann genau passiert ;).

Unicous
2015-01-09, 14:55:00
@aufkrawall

Ohne spezielle Eingriffe meine ich.

Sunrise
2015-01-09, 14:58:31
Afaik, konnte man bei einem Monitor nicht einfach 23,976 einstellen, aber ich habe mich damit schon ewig nicht mehr beschäftigt. Können einige Monitore das mittlerweile?
Das geht zumindest beim Eizo (und den oben genannten) theoretisch problemlos, sprich, sie selbst unterstützen es, wenn es die Quelle auch so liefert. Man hat aber in der Praxis leider immer das Problem, dass die (gerade bei NV) oft nicht konstant ist, die schwankt immer etwas (im hinteren Kommabereich). Gerade bei DVI ist das ein Problem. Hier gibt es mit jeder Grafikkarte unterschiedliche Verhaltensweisen. AMD trifft die Werte oft sehr genau, wohingegen NV aus irgendeinem Grund nur mit Custom Timings genauer ist.

Das Ganze ist alles recht nervtötend. Und minimale Abweichungen führen dann eben schon dazu, dass der Renderer (madVR) ausgleichen muss. Eine Zwischenbildberechnung oder einfaches Blending will man möglichst vermeiden, da das wieder andere Nebeneffekte hat.

Mit Adaptive Sync müsste man sich da keine Gedanken mehr machen.

aufkrawall
2015-01-09, 15:00:38
Ging hier mit einem XL2411T TN und einem Qnix PLS mit bypass-PCB. Bei Letzterem aber nur mit Flackern.
Davon abgesehen laufen Filme afair nicht mit 23,976fps, sondern 23,976xx...fps.
Das ist wohl ohne Tricks wie ReClock oder Blending nicht völlig ohne Wiederholbilder darstellbar.

Was soll ein spezieller Eingriff sein? Wenn die Refreshrate geht, muss sie eben auch noch in EDID hinterlegt sein, damit man sie ohne Custom Resolution nutzen kann.
Meinst du vielleicht einfach nur einen Bug, den es bei Intel Pre-Haswell gab?

Sunrise
2015-01-09, 15:22:18
Hier wird übrigens auch darüber gesprochen:

http://www.pcper.com/news/Graphics-Cards/CES-2015-AMD-Talks-Technical-about-FreeSync-Monitors

However, there is a new specification to be concerned with on FreeSync as well: minimum frequency. This is the refresh rate that monitor needs to maintain to avoid artifacting and flickering that would be visible to the end user. For the LG monitor it was 40 Hz.
...
There are potential pitfalls to this solution though; what happens when you cross into that top or bottom region can cause issues depending on the specific implementation. We'll be researching this very soon.
Also nicht nur bei ASUS.

Kartenlehrling
2015-01-09, 15:30:46
Das wird sich aufs Gaming-freesync beziehen, für Videos adaptive vsync wird der Monitor mit "festen" Hz Wert laufen.

Unicous
2015-01-09, 15:39:04
@aufkrawall

Tja, bei meinem BL2400PT kann ich genau eine RR "einstellen": 60Hz. Die Range beträgt aber theoretisch 50-76Hz. Und so sieht es sicherlich bei dem Großteil der Monitore aus. Wenn es nicht in der EDID eingetragen ist, kann ich es auch ohne Eingriffe nicht ändern.

http://www.prad.de/new/monitore/test/2011/test-benq-bl2400pt-teil12.html

@Sunrise

Warten wir erst einmal die endgültigen Specs ab. Die CES ist prädestiniert dafür, Falschinformationen weiterzugeben. Ryan Shrout sagte im Video auch, dass der LG Monitor nur 60Hz kann, in einem anderen Video sagte man wieder 75Hz (wie von AMD angekündigt). Weiß jetzt leider nicht welches.

aufkrawall
2015-01-09, 16:23:11
@aufkrawall

Tja, bei meinem BL2400PT kann ich genau eine RR "einstellen": 60Hz. Die Range beträgt aber theoretisch 50-76Hz. Und so sieht es sicherlich bei dem Großteil der Monitore aus. Wenn es nicht in der EDID eingetragen ist, kann ich es auch ohne Eingriffe nicht ändern.

Und? Das hat dann keine technischen Gründe, und um die geht es hier doch.
Im Großteil der Monitore sitzt wahrscheinlich auch wenig flexible Elektronik, die einfach zu doof für was nennenswert anderes als die festgelegten 60Hz ist.
Solch antiquiertes Zeugs ist sicher nicht vergleichbar mit den neuen IPS A-Sync-Monitoren.

dargo
2015-01-09, 16:26:02
@aufkrawall

Tja, bei meinem BL2400PT kann ich genau eine RR "einstellen": 60Hz. Die Range beträgt aber theoretisch 50-76Hz.
Nicht nur theoretisch sondern auch praktisch. ;) Habe selbst den Monitor und alles zwischen 49 und 72Hz geht problemlos. Nur die 73-76Hz habe ich noch nicht geschafft. Eventuell muss man hier schon mit den Timings mehr frickeln.

Hier hast du mal die Timings für 72Hz.
50881

transstilben
2015-01-09, 17:16:35
Falls das FAQ von AMD hier noch nicht genannt wurde: http://support.amd.com/en-us/kb-articles/Pages/freesync-faq.aspx

Potential ranges include 36-240Hz, 21-144Hz, 17-120Hz and 9-60Hz.

In der aktuellen heißen Phase, ist ja manchmal nicht ganz klar, wer von wem abgeschrieben hat ;D.

Vielleicht sollte mal jemand anfangen, ein Tool zu schreiben, mit dem man
die nagelneuen Freesync-Monitore auf Herz und Nieren testen kann ?

compatible graphics drivers ... to coincide with the introduction of the first DisplayPort Adaptive-Sync monitors

Ich will den ersten bei 8 Hz verglühten Freesync Monitor sehen ;D ;).

Kartenlehrling
2015-01-09, 18:20:16
Vielleicht sollte mal jemand anfangen, ein Tool zu schreiben, mit dem man
die nagelneuen Freesync-Monitore auf Herz und Nieren testen kann ?


Beide Anbieter stellen ja bestimmt Demos bereit, Nvidia Pendel (http://www.nvidia.de/coolstuff/demos#!/g-sync) und AMD wird eine Windrad Demo warscheinlich bereitstellen.
Leider bekommt ich zb. mein Lucid Virtual vsync nicht unter Nvidias Pendel zum laufen.

fondness
2015-01-09, 18:30:01
Die beiden LG FreeSync-Monitore haben anscheinend ein IPS-Panel: Preis liegt bei 319EUR für die 29" Variante und 549EUR für die 34" Version.
http://www.computerbase.de/2015-01/freesync-kostet-bei-lg-319-und-549-euro/


http://s18.postimg.org/kx6pv5k55/image.jpg (http://postimage.org/)

aufkrawall
2015-01-09, 18:55:14
Starker Preis, auch immerhin offizielle 75Hz. Vielleicht geht ja noch mehr.
Aber die Pixeldichte ist nicht empfehlenswert. :(

Unicous
2015-01-09, 18:58:36
Ihr wisst schon, dass dargo es bereits vor zwei tagen verlinkt hat und ich zuvor die Preis-Korrelation mit den (IPS-)Schwestermodellen angestellt hatte?

M4xw0lf
2015-01-09, 19:02:04
Starker Preis, auch immerhin offizielle 75Hz. Vielleicht geht ja noch mehr.
Aber die Pixeldichte ist nicht empfehlenswert. :(
Ja, die Auflösung ist schon arg niedrig. Aber so ein 21:9-Gerät mit 1440p... dat wär schon fein.

horn 12
2015-01-09, 19:23:15
Hoffe zumindest da folgt noch eine U-HD Aufloesung 3840 x 2160 und Freesync!
Ansonsten Optisch Wahre Hingucker diese LG Monitore und Preislich echt TOP!!
Muss mich wohl durchbeissen und echtes Ultra HD abwarten inkl. Freesync (LG Monitor)

M4xw0lf
2015-01-09, 19:40:16
Hoffe zumindest da folgt noch eine U-HD Aufloesung 3840 x 2160 und Freesync!
Ansonsten Optisch Wahre Hingucker diese LG Monitore und Preislich echt TOP!!
Muss mich wohl durchbeissen und echtes Ultra HD abwarten inkl. Freesync (LG Monitor)
Gehts dir um UHD oder um LG? UHD mit Freesync ist von Samsung ja längst angekündigt.

horn 12
2015-01-09, 20:00:06
Moechte eben beides haben Ultra-HD und ausschliesslichLG Monitor.
Jener soll dann meinen 26 Zoll, Modell: LG 2600 HP-BF mit S-IPS Panel ersetzen.
Einen Samung eben nicht unbedingt :-(

aufkrawall
2015-01-09, 20:02:22
Solche Verallgemeinerungen sind nicht rational begründbar, es gibt sehr gute PLS-Monitore.
Abgesehen davon haben Samsung und LG schon beide ziemlichen Mist gebaut.

Sunrise
2015-01-09, 20:31:12
https://translate.googleusercontent.com/translate_c?depth=1&hl=en&ie=UTF8&prev=_t&rurl=translate.google.com&sl=auto&tl=de&u=http://www.hardware.fr/news/14025/ces-amd-freesync-presque-la-point.html&usg=ALkJrhgmFbiBghGrLKZGBg_BkvGu5Je_pw

One should note that FreeSync is not usable on the Windows desktop and needs fullscreen exclusive mode to work, which makes it incompatible with most video players. That said, the video player bundled with Windows 8.1 and Windows 10 is FreeSync compatible and the refresh rate will adapt to the video format, thereby ensuring perfectly smooth playback.
Interessant. Mal davon ab, dass die meisten guten Videoplayer mittlerweile Fullscreen Exclusive unterstützen (mir fällt gerade keiner ein, der es nicht kann), beißt sich das irgendwie mit den 40Hz Minimum. Hoffentlich bekommt man da bald ein paar Antworten drauf.

Zachs (MPDN - Media Player.net) ist schon auf der Suche für einen Programming Guide für eine Implementierung von FreeSync/G-Sync in den eigenen Player.

fondness
2015-01-09, 22:10:28
erALkHlth_4


Certification of FreeSync monitors will be handled by AMD directly. The company says it wants to ensure its brand is synonymous with a "good experience." The certification process will be free of charge, the company tells us, so it hopefully won't add to the cost of FreeSync panels. That said, AMD says its drivers will also allow variable-refresh mojo with non-FreeSync-certified panels, provided those panels support the DisplayPort 1.2a Adaptive-Sync specification. One such monitor will be Asus' MG279Q, which we saw earlier this week. With or without certification, though, a FreeSync-capable Radeon GPU will be required for variable refresh rates to work.

FreeSync panels entered mass-production last month, and AMD says 11 of them will be available by the end of March. Asus' MG279Q, too, is due out late in the first quarter. The number of capable displays will grow to as many as 20 by the end of the year, AMD predicts, so there should be a nice stable of them for Radeon users to choose from.

http://techreport.com/news/27650/here-240-fps-footage-of-amd-freesync-tech-and-some-new-info

Snafu
2015-01-09, 22:12:54
Die ersten Eindrücke zu Freesync sind positiv:
http://hothardware.com/news/amd-at-ces-freesync-carrizo-front-and-center

http://forums.blurbusters.com/viewtopic.php?f=16&t=1807&p=13256

Obviously a full comparison between G-Sync and FreeSync will have to wait for head-to-head hardware, but our team reports that the two standards appeared to perform identically.
Read more at http://hothardware.com/news/amd-at-ces-freesync-carrizo-front-and-center#BdKWiJLS2ItFc3zH.99


Now, my initial impressions of FreeSync is that it's on an equal footing to GSYNC in motion quality. At least by first impression, without looking closely at them "under a microscope". FreeSync certainly eliminated stutters and tearing, just like GSYNC does, even if the methods/technologies work somewhat differently.

Wake
2015-01-10, 00:17:39
Hört sich schon mal gut an.
Wäre halt gut für Reviews wenn es ein Monitormodell gäbe, welches als G-Sync- oder FreeSync-Variante (oder gar mit beidem integriert, wird aber wohl etwas teuer dann ;) ) erscheint.
Oder zumindest verschiedene Monitore welche dasselbe Panel verwenden, wobei dann wieder unterschiedliche FW und Herstellerpräferenzen die Vergleichbarkeit erschweren.

*edit*
While it has yet to be confirmed, I've seen talk that Adaptive Sync/FreeSync may have two frames of latency just like V-Sync, while G-Sync is polled at 1000Hz for a fixed overhead of 1ms.
And with G-Sync being separate hardware, it guarantees that you have the lowest latency possible. Being able to work with the display's existing processing seems detrimental from a gaming perspective.
Nur finde ich dazu keine anderen Quellen als reddit und doom9 (und wohl derselbe User imo), also insofern erst mal nur spekulativ.
Wäre aber eine interessante Frage an AMD/Nvidia.

Gipsel
2015-01-10, 10:33:19
*edit*
While it has yet to be confirmed, I've seen talk that Adaptive Sync/FreeSync may have two frames of latency just like V-Sync, while G-Sync is polled at 1000Hz for a fixed overhead of 1ms.
And with G-Sync being separate hardware, it guarantees that you have the lowest latency possible. Being able to work with the display's existing processing seems detrimental from a gaming perspective.
Nur finde ich dazu keine anderen Quellen als reddit und doom9 (und wohl derselbe User imo), also insofern erst mal nur spekulativ.
Wäre aber eine interessante Frage an AMD/Nvidia.Das ist schlicht Bullshit von Jemandem, der nicht versteht, wie es funktioniert. Am ehesten eliminiert Free-/A-Sync die dort angegebene 1ms Zusatzlatenz von GSync. ;)

Mandalore
2015-01-10, 15:20:05
Wie jetzt? Funktioniert FreeSync wie Gsync "all the time" oder nur bei Games? Ich verstehe nicht wieso das eigentlich nicht funktionieren sollte:crazy2:



BTW: Dieser Samsung 31"5+FreeSync, weiß man da schon genaueres über den Paneltyp? PLS (IPS) oder TN?

M4xw0lf
2015-01-10, 15:25:34
Wie jetzt? Funktioniert FreeSync wie Gsync "all the time" oder nur bei Games? Ich verstehe nicht wieso das eigentlich nicht funktionieren sollte:crazy2:
Offensichtlich funktioniert es nur bei fullscreen.

Kartenlehrling
2015-01-10, 15:31:34
"Vesa-Adaptive vsync" wird auch ausserhalb von Vollbild-Gaming funktionieren, Intel hat vor 2 jahren ja schon vorgestellt wo man es auch einsetzten will ... zb. um Strom zu sparen.
Bilder werden nur erneuert wenn sich was auf dem Monitorbild verändert, es gibt ja schon Laptops und Mobilgeräte die so arbeiten.

Unicous
2015-01-10, 17:47:43
Auf dem Desktop ist Windows King und diktiert die Refreshrate. Das ist bei G-Sync nicht anders, das funktioniert auch nur im Vollbild. Auch hier geht es wieder um Adaptive Sync, Panel Self Refresh müsste aber eigentlich funktionieren.

Eine Bestätigung von Nvidia:

https://forums.geforce.com/default/topic/784931/the-geforce-lounge/g-sync-and-dual-monitor/post/4348825/#4348825

Nvidia hat beim Acer IPS@144Hz vermutlich Blödsinn erzählt. Der Monitor soll laut TFT Central im Februar erst in Produktion gehen. Spät im März als Releasetermin wäre daher eher realistisch.

In November we brought you the news about the forthcoming Acer XB270HU display. According to the information we were given at the time by Acer, this was expected to be a new TN Film based screen offering a 27" screen size, 2560 x 1440 resolution, 1ms G2G response time, 144Hz refresh rate and G-sync support. This would have made it very similar to the extremely popular and unique Asus ROG Swift PG278Q display.

Update 9/1/15: We have confirmed with Acer that this screen WILL now be IPS based and that they have changed the spec since we originally brought you the news last November. We also know now that the response time is 4ms G2G in the spec. The screen will feature Acer's EyeProtect technology including Blue Light Filer and Flicker less backlight. The screen is expected at the moment to go in to production in February. More to come soon on ULMB and pricing we hope.
http://www.tftcentral.co.uk/news_archive/32.htm#acer_xb270hu_ips

Orbmu2k
2015-01-10, 19:04:23
Auf dem Desktop ist Windows King und diktiert die Refreshrate. Das ist bei G-Sync nicht anders, das funktioniert auch nur im Vollbild. Auch hier geht es wieder um Adaptive Sync, Panel Self Refresh müsste aber eigentlich funktionieren.

Eine Bestätigung von Nvidia:

https://forums.geforce.com/default/topic/784931/the-geforce-lounge/g-sync-and-dual-monitor/post/4348825/#4348825



Es gibt seit R346 einen Schalter für Windowed GSYNC.



#define VRR_MODE_STRING L"Enable G-SYNC globally"

enum EValues_VRR_MODE {
VRR_MODE_DISABLED = 0x0,
VRR_MODE_FULLSCREEN_ONLY = 0x1,
VRR_MODE_FULLSCREEN_AND_WINDOWED = 0x2,
VRR_MODE_NUM_VALUES = 3,
VRR_MODE_DEFAULT = VRR_MODE_FULLSCREEN_ONLY
};

http://img.techpowerup.org/150110/nvidia_20150110_191001.png

Unicous
2015-01-10, 19:16:22
Gut zu wissen. Wie verträgt sich das mit Windows, bzw. hast du es schon getestet?


Btw. das ist weiterhin keine offizielle Unterstützung von Nvidia. Man kann die Flags setzen per NvInspector setzen, aber sie tauchen nicht im Control Panel auf, richtig?

Orbmu2k
2015-01-10, 19:44:52
Scheint jedoch noch nicht zu funktionieren, weder im Fenster noch BorderlessWindow.

Im ControlPanel kann man das zwar auch nicht einstellen aber ich denke es läuft darauf hinaus dass NVIDIA dieses Flag für bestimmte BorderlessWindow Games selbst setzt um für diese GSYNC auch zu unterstützen.

mboeller
2015-01-11, 14:07:45
wurde zwar schon diskutiert, aber alle 4K Monitore von Samsung bekommen FreeSync als Standard:

http://www.heise.de/newsticker/meldung/CES-Kommende-4K-Monitore-von-Samsung-ohne-Ruckeln-und-Tearing-2515417.html

fondness
2015-01-11, 14:15:11
Damit ist auch bestätigt das die drei Samsung UE850 4K Modelle in 23,6 Zoll, 28 Zoll und 31,5-Zoll ein PLS und kein TN-Panel haben.

/Edit: Okay falsche gelesen, nur das 31,5-Zoll Modell hat wohl ein PLS-Panel, lame.

aufkrawall
2015-01-11, 14:16:56
Im 34SE790C steckt ein blickwinkelstabiles VA-Panel...
Auch 4k und somit FreeSync?

Unicous
2015-01-11, 14:30:04
Hatte Samsung aber schon bei Vorstellung im letzten Jahr gesagt.

Der Artikel ist sehr schlecht und unübersichtlich geschrieben. Lesen die Leute das auch eigentlich noch einmal selbst, bzw. gibt es keinen Volontär der über diesen Buchstabenbrei rübergeht?

Es sollen laut AMD 2015 min. 20 FS-Monitore geben (also bereits in Entwicklung, 11 davon werden im Q1 veröffentlicht) ich frage mich ob das auch "Adaptive Sync"-Monitore wie den Asus einschließt, ich denke nicht.

FreeSync Monitore werden ja auch explizit von AMD zertifiziert (also geguckt obs geht und Logo drauf:cool:), einige Hersteller haben darauf eher keinen Bock.:wink:

Ich hoffe daher, dass es noch weitere Hersteller und Varianten geben wird.

Dass Samsung nur für die 4K-Reihe Adaptive Sync vorsieht, finde ich übrigens sehr bescheiden. Sendet kein positives Signal aus. Ich hoffe das ist nur PR-Gequarke und sie werden FreeSync/Adaptive Sync in andere "Auflösungen" integrieren.

@aufkrawall

Ist eigentlich nicht 4K. Und ich glaube Samsung hatte dazu auch nichts verlauten lassen.

Schnoesel
2015-01-11, 15:11:23
YES!!!

Also sorry für die anderen aber genau der 31,5" hats mir angetan. Jetzt müssen nur noch die Tests gut ausfallen und die kommene Grafikkartengeneration überzeugen , dann bin ich bereit.

Knuddelbearli
2015-01-11, 15:15:02
Naja 4k scaler werden eh gerade neu entwickelt da es bisher keine gab. Für bestehende Bildschirme neue Scaler entwickeln, egal wie wenig Aufwand es ist, will Samsung natürlich nicht.

Nicht schön aber verständlich. Vermutlich wird jeder komplett neu erscheinende Samsung Monitor a-Synch benutzen

fondness
2015-01-15, 19:02:50
Die ersten zwei AMD Freesync Monitore sind gelistet:
http://geizhals.at/eu/acer-predator-xg277hu-um-hg0ee-001-a1218025.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&hloc=pl&hloc=uk&v=e#filterform
http://geizhals.at/eu/lg-electronics-34um67-p-a1218026.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&hloc=pl&hloc=uk&v=e#filterform

Dabei gibt es auch eine Überraschung die noch nicht mal angekündigt wurde, den Acer Predator XG277HU.

Unicous
2015-01-15, 19:09:36
Sind wohl OverclockersUK "Exclusives".

Für 20.02. (LG) und 27.03. angekündigt.

http://www.overclockers.co.uk/showproduct.php?prodid=MO-078-AC
http://www.overclockers.co.uk/showproduct.php?prodid=MO-127-LG

Hatte Acer nicht gesagt, dass sie nie und nimmer FreeSync-Monitore herstellen würden?

Rente
2015-01-15, 19:09:53
Ich hoffe nicht das sich die Preise am UVP orientieren.

fondness
2015-01-15, 19:11:03
Tun sie nicht, der LG wurde schon für 549EUR UVP angekündigt.

Es steht im übrigen auch dabei: **Price TBC: DO NOT ORDER YET**

Hatte Acer nicht gesagt, dass sie nie und nimmer FreeSync-Monitore herstellen würden?

Die haben wohl auch eine Werbevertrag mit Nvidia den sie sich gut bezahlen lassen. Aber solange sie auch FreeSync-Monitore bringen soll es mir egal sein.

Unicous
2015-01-15, 19:21:17
Generell ist OcUK oft ziemlich teuer. Manchmal gibt es Schnäppchen. Aber wer will schon aus UK bestellen und eine evtl. RMA abwickeln zu lassen.

Kartenlehrling
2015-01-15, 19:44:40
Dabei gibt es auch eine Überraschung die noch nicht mal angekündigt wurde, den Acer Predator XG277HU.

Alle 144hz TN G- und Free-sync Monitor muss sich erstmal gegen den 120hz Asus MG279Q (IPS) behaupten, ob man die Response Time wirklich brauch von einem TN.

Unicous
2015-01-15, 19:46:44
Ist wahrscheinlich das gleiche Panel wie beim Acer IPS 144Hz und Asus überlegt es auf 144Hz hochzusetzen. Von daher müsste es sich gegen diesen "behaupten".

Atma
2015-01-15, 19:56:47
LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?

Wir haben auf der CES mit einem Spieleentwickler und Programmierer gesprochen, der namentlich nicht genannt werden möchte, laut dem G-Sync spürbar besser arbeiten soll als Freesync. Vereinfacht würde der Treiber bei Freesync die zu erwartende Framerate bloß anhand der 3D-Last "vorhersagen" und daraufhin die Refresh-Intervalle an das Display schicken. Somit käme es bei wechselnden Frameraten trotzdem noch zu mehr oder weniger starken Lags auf Freesync-Displays.

Dies würde auch dazu passen, dass AMD in seinen Demos zwar flüssige Bewegtbilder in ungeraden Frameraten zeigt, allerdings nicht in wechselnden.


http://www.pcgameshardware.de/LCD-Hardware-154105/Specials/Freesync-schlechter-als-G-Sync-1148033/

M4xw0lf
2015-01-15, 20:03:42
Wie soll die GPU-Auslastung bitte Rückschlüsse auf die erreichte Framerate zulassen? :freak:

Blediator16
2015-01-15, 20:15:02
LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?




http://www.pcgameshardware.de/LCD-Hardware-154105/Specials/Freesync-schlechter-als-G-Sync-1148033/

Das hat genau der selbe Typ auch über Gsync gesagt kein Scherz:freak:

Unicous
2015-01-15, 20:24:50
Welcher selbe Typ?

Und was ist das eigentlich für ein FUD clickbait-Artikel. Wir haben zwei Sekunden vor Veröffentlichung bei AMD nachgefragt. Was hat AMD damit überhaupt zu tun?

Ist es ein Problem, das AMDs Implementierung haben soll, oder Adaptive Sync generell? Alles sehr mau und eigentlich der Diskussion nicht wert.

Blediator16
2015-01-15, 20:29:59
Welcher selbe Typ?

Und was ist das eigentlich für ein FUD clickbait-Artikel. Wir haben zwei Sekunden vor Veröffentlichung bei AMD nachgefragt. Was hat AMD damit überhaupt zu tun?

Ist es ein Problem, das AMDs Implementierung haben soll, oder Adaptive Sync generell? Alles sehr mau und eigentlich der Diskussion nicht wert.

Es wären im Umkehrschluss sämtliche Journalisten, die FS auf der CES gesehen haben, größter Mist, weil sie offensichtlich diese unheimlich große Schwäche von FS nicht gesehen haben. Sämtliche Fachpresse hat nur positives darüber berichtet.
Aktuell zerreißen sich die Fanboys über die angebliche 300Watt Karte von AMD aus dem Linkedin Profil eines Mitarbeiters. Poste diese "Meldung" mal auf ocn oder anandtech was glaubste was da los sein wird.

Kartenlehrling
2015-01-15, 20:48:03
Das kann man doch nur schreiben wenn G-sync mehr Vollbilder berechnend als es wirklich gibt.
Das würde aber die Test wiedersprechen das G-sync ca. 10-15% weniger frams bei 60fps ausgibt als vsync-AUS.

Oder halt der Umkehrschluss daraus,
Freesync schluckt noch mehr frams, dann müssten die Benchmarks von Freesync mehr als 15-20% kosten.

Grestorn
2015-01-15, 23:01:34
@Kartenlehrling: 10-15% fps Verlust kann ich nicht so recht nachvollziehen. Quelle, damit ich die Tests mal selbst nachstellen kann.

Zum Thema:

Ehrlich gesagt finde ich den postulierten Unterschied gar nicht so schrecklich, wenn er sich als korrekt herausstellen sollte.

Der Hauptvorteil von GSync ist ja, dass die Framerate auch mit VSync frei variieren kann, also nicht an feste Werte gebunden ist (bei 60 Hz z.B. 60/30/20 fps) und auch kein zusätzlicher Lag benötigt wird (wie beim Triple Buffer).

Und diesen Vorteil hätte man m.E. auch bei FreeSync, selbst dann, wenn die Einschränkung, die hier behauptet wird, vorhanden wäre. Mit GSync werden die Ruckler selbst ja nicht seltener oder weniger heftig. GSync ist genauso wie VSync aus ohne Tearing. Nicht mehr und nicht weniger.

(Ich besitze einen ROG Swift mit GSync).

Kartenlehrling
2015-01-15, 23:21:47
Ich besitze einen ROG Swift mit GSync

Es soll ja nicht reichen Gsync nur ab zuschalten, es muss ein andere Monitor angeklempt werden.
Dann kannst du ja 3Dmark und Tombraider testen.


http://www.geforce.com/hardware/technology/fcat

In MSI-Afterburner kannst du auch den Farbbalken aktivieren um nur ganze Frames zu messen, damit es auch 100% ist .

Grestorn
2015-01-15, 23:45:05
Es soll ja nicht reichen Gsync nur ab zuschalten, es muss ein andere Monitor angeklempt werden.
Dann kannst du ja 3Dmark und Tombraider testen.

Du behauptest, dass der GSync 15% Leistung frisst, auch wenn nur ein GSync Monitor angeschlossen ist?

Grundsätzlich ist das schon denkbar, da bei GSync so einiges von der Grafikkarte gemacht wird (deswegen geht z.B. auch kein SLI & DSR wenn ein GSync Monitor angeschlossen ist).

Andererseits gab es hier im Forum den robbitop Thread, wo genau dieses Thema untersucht wurde. Und da hab ich auch selbst Tests zu diesem Thema gemacht. Ergebnis: Die Framerate bricht mit einem GSync Monitor nur dann messbar ein, wenn man SLI verwendet und auch nur dann, wenn die PCIe Übertragungsrate nicht optimal ist. Ansonsten wirkt sich ein GSync Monitor (nur angeschlossen oder auch GSync aktiv) nicht messbar aus.

Kartenlehrling
2015-01-15, 23:57:21
Wie nicht messbar?
Nicht ohne Grund hatte Nvidia FCAT auf die Welt gebracht um zu beweisen das die millionen maxFPS von AMD gelogen sind,
weil die normalen Messprograme alle Frames mitzählen auch die abgebrochen und weil es bei Crossfire/SLI besonders auffällt,
hat doch erst Nvidia ein Faß aufgemacht.

Und wenn nun behaupt wird das G-sync geschmeidiger mit FPS wechsel klar kommt,
kann das ja nur heissen das sie mehr Frames liefern als AMD.

Grestorn
2015-01-15, 23:58:54
Der Einbruch durch GSync ist nicht messbar. Hier schaue ich nur die übliche Frameraten-Messung an. Es geht hier nicht um den Nachweis von Mikrorucklern oder den Beweis, dass man ohne VSync einen Großteil der berechneten Bilder gar nicht zu Gesicht bekommt.

Du hast gesagt, GSync würde 15% Leistung kosten und ich sage: Nein, das stimmt nicht.

Rente
2015-01-16, 00:01:42
Wie nicht messbar?
Nicht ohne Grund hatte Nvidia FCAT auf die Welt gebracht um zu beweisen das die millionen maxFPS von AMD gelogen sind,
weil die normalen Messprograme alle Frames mitzählen auch die abgebrochen und weil es bei Crossfire/SLI besonders auffällt,
hat doch erst Nvidia ein Faß aufgemacht.

Und wenn nun behaupt wird das G-sync geschmeidiger mit FPS wechsel klar kommt,
kann das ja nur heissen das sie mehr Frames liefern als AMD. Du wirfst gerade 2 verschiedene Themen durcheinander, Mikroruckler kann es auch mit G-Sync noch geben, dafür aber kein Tearing + kein Inputlag durch vSync.
€: Und hast scheinbar die Wirkungsweise von G-Sync und Freesync nicht verstanden...

Kartenlehrling
2015-01-16, 01:13:49
Ich schmeiße nichts durcheinander,
das FCAT kann genauso für G-sync Messunge genommen werden wie für die damalige "Aufgedeckung" vom Crossfire Framepacing probleme.

Solange Grestorn nicht nach dem Grafikkartenausgang misst sind alle Messunge von ihm falsch, da fraps und co. früher abgreift.
Man muss schon ein ähnliches System aufbauen wie im Video (https://www.youtube.com/watch?v=CsHuPxX8ZzQ) um wirkliche richtige Ergebnisse zu erhalten.

Grestorn
2015-01-16, 01:32:10
Kartenlehrling, Du erzählst Schmarrn.

FCAT kann natürlich für jede Messung verwendet werden, und es ist auch richtig, dass FRAPS & Co. nicht misst, wann ein Bild zur Anzeige kommt, sondern wann ein Frame für DX freigegeben wird.

Aber wir wollen hier nicht messen, ob GSync funktioniert, ob es zusätzlichen Lag einfügt oder gar Framepacing Probleme verursacht. Das alles war nicht Deine Behauptung, Deine Behauptung war, dass GSync 15% Leistung kostet. Leistung = Framerate. Und die kann man sehr wohl mit FRAPS messen. Oder möchtest Du behaupten, dass FRAPS z.B. 100fps misst aber nur 85 Frames vom Monitor in der Sekunde angezeigt werden?!

dargo
2015-01-16, 08:24:45
Der Einbruch durch GSync ist nicht messbar.
http://www.computerbase.de/2013-12/nvidia-gsync-test/4/#diagramm-crysis-3_2

Gipsel
2015-01-16, 08:49:07
LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?

Wir haben auf der CES mit einem Spieleentwickler und Programmierer gesprochen, der namentlich nicht genannt werden möchte, laut dem G-Sync spürbar besser arbeiten soll als Freesync. Vereinfacht würde der Treiber bei Freesync die zu erwartende Framerate bloß anhand der 3D-Last "vorhersagen" und daraufhin die Refresh-Intervalle an das Display schicken. Somit käme es bei wechselnden Frameraten trotzdem noch zu mehr oder weniger starken Lags auf Freesync-Displays.

Dies würde auch dazu passen, dass AMD in seinen Demos zwar flüssige Bewegtbilder in ungeraden Frameraten zeigt, allerdings nicht in wechselnden.


http://www.pcgameshardware.de/LCD-Hardware-154105/Specials/Freesync-schlechter-als-G-Sync-1148033/Schlicht Schwachsinn. Kein Wunder, daß der angebliche Entwickler seinen Namen nicht genannt haben will :freak:. Der Refresh wird getriggert, wenn das Frame fertig gerendert wurde (also genau dann, wenn sonst ohne VSYNC der Bufferflip erfolgen würde). Da braucht man überhaupt nichts vorhersagen. Wo hat PCGH diesen Idioten aufgetrieben? Und warum glauben die ihm überhaupt und entlarven das nicht durch eine halbe Sekunde Nachdenken?
Im Übrigen gibt es genug Leute, die variierende Frameraten (das AMD-Demo hatte eine Einstellung dafür) flüssig gesehen haben.

tm0975
2015-01-16, 08:54:12
Wo hat PCGH diesen Idioten aufgetrieben? Und warum glauben die ihm überhaupt und entlarven das nicht durch eine halbe Sekunde Nachdenken?

weil sie im kreis sitzen, klicks und kommentare zählen, und sich den bauch halten vor lachen, wie beide "lager" wieder aufeinander losgehen. die ganze art und weise der berichterstattung und der tests ist doch ausschließlich monitär getriggert.

Gipsel
2015-01-16, 09:02:54
weil sie im kreis sitzen, klicks und kommentare zählen, und sich den bauch halten vor lachen, wie beide "lager" wieder aufeinander losgehen. die ganze art und weise der berichterstattung und der tests ist doch ausschließlich monitär getriggert.Das geht mit der Verbreitung von FUD natürlich einfacher als mit gut recherchierten Artikeln. Da hast Du recht.

Black-Scorpion
2015-01-16, 10:25:00
Der Entwickler war bestimmt aus NV Lieblingsbude Ubisoft. Die würden alles für die machen und haben das ja auch schon reichlich getan.

robbitop
2015-01-16, 10:36:13
Andererseits gab es hier im Forum den robbitop Thread, wo genau dieses Thema untersucht wurde. Und da hab ich auch selbst Tests zu diesem Thema gemacht. Ergebnis: Die Framerate bricht mit einem GSync Monitor nur dann messbar ein, wenn man SLI verwendet und auch nur dann, wenn die PCIe Übertragungsrate nicht optimal ist. Ansonsten wirkt sich ein GSync Monitor (nur angeschlossen oder auch GSync aktiv) nicht messbar aus.
Korrekt. Weil bei G-Sync der Framebufferverkehrt nicht über die Brücke läuft sondern über den PCIe. Ist aber ab 16x PCIE 3.0 komplett egal, da kein Flaschenhals mehr.

Ich habe auch den ROG SWIFT und sehe keine signifikanten Leistungseinbußen. Im Gegenteil. Es sind jetzt weniger FPS schon "flüssig".

Allerdings ist der Effekt bei SLI geringer, da es ja dort prinzipbedingt eh mikro-ruckelt.



----------------------
Zur PCGH: man muss immer schauen, wo wer was schreibt. Das Kernteam ist eigentlich wirklich gut und hinterfragt auch alles. Die arbeiten aber zu 80 % für das Heft. Auf der Webseite posten halt auch viel B-Leute. (nicht abwertend gemeint) Dort geht es vermutlich nicht all zu streng zu. Natürlich trotzdem blöd für das Image von PCGH. Aber Absicht würde ich da nicht unterstellen.

derF
2015-01-16, 11:42:28
Klingt hier jedenfalls ganz funktionabel
http://forums.blurbusters.com/viewtopic.php?f=16&t=1807&p=13256

Unicous
2015-01-16, 12:49:56
Der Entwickler war bestimmt aus NV Lieblingsbude Ubisoft. Die würden alles für die machen und haben das ja auch schon reichlich getan.

Man muss den FUD nicht zum Ansatz nehmen um wieder Anzeige gegen "unerkannt" zu erheben.

Komisch ist es allemal und wieder typisch, dass ein Medium es unwidersprochen aufnimmt und nicht einmal die Antwort von AMD abwartet.

Demirug
2015-01-16, 12:55:10
Schlicht Schwachsinn. Kein Wunder, daß der angebliche Entwickler seinen Namen nicht genannt haben will :freak:. Der Refresh wird getriggert, wenn das Frame fertig gerendert wurde (also genau dann, wenn sonst ohne VSYNC der Bufferflip erfolgen würde). Da braucht man überhaupt nichts vorhersagen. Wo hat PCGH diesen Idioten aufgetrieben? Und warum glauben die ihm überhaupt und entlarven das nicht durch eine halbe Sekunde Nachdenken?
Im Übrigen gibt es genug Leute, die variierende Frameraten (das AMD-Demo hatte eine Einstellung dafür) flüssig gesehen haben.

Wenn man sich das Whitepaper (http://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-v1.pdf) von VESA zu dem Thema anschaut stimmt das nicht ganz. s. Figure 3: Frame analysis of traditional VSync vs Adaptive-Sync

Für den Fall das die Rendertime größer dem Bildintervall des Displays ist zeigt das Display solange dem alten Frame bis der nächste komplett ist. Das verhindert man das Tearing und der Lag ist in diesem Fall auch kleiner.

Ist die Rendertime aber kleiner kommt es zu dem bekannten V-Sync Effekt bei dem die GPU mit dem Intervall synchronisiert wird.

Der Fall wenn die GPU zwei oder mehr frames innerhalb eines Intervalls liefert ist leider nicht dargestellt.

Die erste Frage hier ist daher welchen Bereich bei dem Intervall erlaubt die Spezifikation. Im Whitepaper findet man Angaben von 10 bis 120 Hz. Diese beziehen sich aber erst mal auf dem Content.

Das man bei VESA die Spezifikation nicht mehr frei bekommt kann man solche Details leider nicht nachschauen.

Die zweite ist dann wie AMD dieses Intervall einstellt und gegebenenfalls ändert. Nimmt man nun die Aussage des Entwickler so versucht AMD scheinbar dieses Intervall dynamisch an die Framerate des Spiels anzupassen. Was bei stark schwankenden FPS natürlich nur begrenzt funktionieren kann.

Wenn dem aber nun so ist hat AMD sicherlich eine Motivation dafür. Eine könnte zum Beispiel sein die Framezeiten zu harmonisieren. Das bedeutet dann zwar in Summe mehr lag als bei G-Sync dafür wäre er aber wohl gleichmäßiger.

ndrs
2015-01-16, 13:32:57
Der Fall wenn die GPU zwei oder mehr frames innerhalb eines Intervalls liefert ist leider nicht dargestellt.
Da würde ich mal zu 99% davon ausgehen, dass einfach die minimale Frame-time abgewartet wird (die ja der GPU bekannt ist) und dann der aktuellste Frame abgeschickt wird.

Die erste Frage hier ist daher welchen Bereich bei dem Intervall erlaubt die Spezifikation. Im Whitepaper findet man Angaben von 10 bis 120 Hz. Diese beziehen sich aber erst mal auf dem Content.
Wird für die Bildausgabe sicher gleich sein. Letztendlich muss der Monitorhersteller festlegen, was er abkann.

Die zweite ist dann wie AMD dieses Intervall einstellt und gegebenenfalls ändert.
Hier kann ich dir nicht folgen. Warum müsste man das Intervall ändern?

Den einzigen Anwendungsfall, den ich mir für die beschriebene Rechenzeitabschätzung vorstellen kann, ist der, wenn die Refreshrate der GPU unterhalb der minimalen des Monitors kommt und daher ein Bild doppelt dargestellt werden muss und man so den Zeitpunkt für die Bildwiederholung besser wählen kann. Ansonsten könnte der Fall auftreten, dass kurz nach dem doppelt gesendeten Frame der nächste fertig ist, aber die minimale Zeit gewartet werden muss und so ein kurzer Lag über einen Frame entsteht.

Demirug
2015-01-16, 13:56:06
Da würde ich mal zu 99% davon ausgehen, dass einfach die minimale Frame-time abgewartet wird (die ja der GPU bekannt ist) und dann der aktuellste Frame abgeschickt wird.

Wird für die Bildausgabe sicher gleich sein. Letztendlich muss der Monitorhersteller festlegen, was er abkann.

Hier kann ich dir nicht folgen. Warum müsste man das Intervall ändern?

Den einzigen Anwendungsfall, den ich mir für die beschriebene Rechenzeitabschätzung vorstellen kann, ist der, wenn die Refreshrate der GPU unterhalb der minimalen des Monitors kommt und daher ein Bild doppelt dargestellt werden muss und man so den Zeitpunkt für die Bildwiederholung besser wählen kann. Ansonsten könnte der Fall auftreten, dass kurz nach dem doppelt gesendeten Frame der nächste fertig ist, aber die minimale Zeit gewartet werden muss und so ein kurzer Lag über einen Frame entsteht.

Hast du dir das Whitepaper mal angeschaut?

Scheinbar hat Adaptive Sync eben nicht nur das Frame complete Signal sondern eben auch noch ein Frame Intervall das dynamisch geändert werden kann. Die Motivation für das Intervall ist Content der ein festes Intervall hat. Zum Beispiel Filme oder wenn man für Powersave auf eine sehr geringe Frequenz will.

Man muss das Intervall nicht ändern aber laut der Aussage dieses Entwicklers tut AMD das ja angeblich. Aber selbst wenn sie es nicht dynamisch ändern bleibt die Frage auf was es initial eingestellt wird.

ndrs
2015-01-16, 14:52:56
Hast du dir das Whitepaper mal angeschaut?
Bisher nur die von dir angesprochene Grafik. Dann muss ich wohl nach der Arbeit mal etwas Zeit investieren.

Gipsel
2015-01-16, 15:49:13
Wenn man sich das Whitepaper (http://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-v1.pdf) von VESA zu dem Thema anschaut stimmt das nicht ganz. s. Figure 3: Frame analysis of traditional VSync vs Adaptive-Sync

Für den Fall das die Rendertime größer dem Bildintervall des Displays ist zeigt das Display solange dem alten Frame bis der nächste komplett ist. Das verhindert man das Tearing und der Lag ist in diesem Fall auch kleiner.

Ist die Rendertime aber kleiner kommt es zu dem bekannten V-Sync Effekt bei dem die GPU mit dem Intervall synchronisiert wird.Meine Aussage war natürlich auf den Frameraten- bzw. Frametimebereich bezogen, in dem der Monitor den variablen Refresh unterstützt. Dann stimmt das auch.
Der Fall wenn die GPU zwei oder mehr frames innerhalb eines Intervalls liefert ist leider nicht dargestellt.Nach einigen Berichten kann man bei AMD wählen, ob bei Frametimes außerhalb des unterstützten A-Sync-Bereiches dann VSync on oder off gelten soll. Das Verhalten wäre dann entsprechend. Wie das geregelt wird, ist allgemein Sache der GPU-Hersteller, das ist unabhängig von A-Sync und kümmert die Monitore nicht.

Die erste Frage hier ist daher welchen Bereich bei dem Intervall erlaubt die Spezifikation. Im Whitepaper findet man Angaben von 10 bis 120 Hz. Diese beziehen sich aber erst mal auf dem Content.

Das man bei VESA die Spezifikation nicht mehr frei bekommt kann man solche Details leider nicht nachschauen.

Die zweite ist dann wie AMD dieses Intervall einstellt und gegebenenfalls ändert. Nimmt man nun die Aussage des Entwickler so versucht AMD scheinbar dieses Intervall dynamisch an die Framerate des Spiels anzupassen. Was bei stark schwankenden FPS natürlich nur begrenzt funktionieren kann.Vergiß die Aussage dieses angeblichen Entwicklers mal einfach. Die ist falsch.

Der Ablauf:
1.
Die GPU schickt den Inhalt des Framebuffers an die Grafikkarte (mit der maximalen Geschwindigkeit, die unterstützt wird, was dann also z.B. ~7ms dauert [bei 144Hz maximaler Framerate]).
2.
Wird innerhalb dieser Zeit ein zweites Frame fertig, gibt es jetzt 2 Möglichkeiten: entweder wird gewartet, bis die Übertragung fertig ist und dann die Übertragung des nächsten Frames gestartet (VSync) oder es wird einfach so der Bufferflip durchgeführt (VSync off), so daß es Tearing gibt. In dieser Situation ist es vollkommen egal, ob A-Sync aktiv ist oder nicht.
3.
Ist das Frame fertig übertragen (aber noch kein neuer fertig), legt die Grafikkarte auf dem Displayausgang vblank an (ist ja bei DP-Port nur ein besonderes Datenpaket, was dort wiederholt übertragen wird, in der Zeit gibt es ja keine nutzbaren Bilddaten).
4.
Erreicht die Zeitdauer seit dem letzten Refresh die Maximaldauer (kennt die GPU ja aus den EDID-Daten, die bei A-Sync-Monitoren entsprechende Werte enthalten), wird schlicht das alte Frame neu übertragen (=>weiter mit Punkt 1).
5. Wird das neue Frame fertig, bevor die Maximaldauer erreicht wird, wird das Senden von vblank-Paketen eingestellt und es geht ebenfalls mit Punkt 1 weiter.

Total simpel eigentlich. Der Refresh wird praktisch vom Bufferflip getriggert. Die Justierung bzw. Beendigung des Refreshintervalls erfolgt erst nachdem das Bild gerendert wurde. Das funktioniert natürlich nur begrenzt, allerdings nur begrenzt durch die Fähigkeiten des Monitors bzw. dessen Panel ;). Prinzipiell gibt es erstmal keine Grenze für das System und vorhergesagt werden muß da wie gesagt auch nichts.

ndrs
2015-01-16, 16:07:47
4.
Erreicht die Zeitdauer seit dem letzten Refresh die Maximaldauer (kennt die GPU ja aus den EDID-Daten, die bei A-Sync-Monitoren entsprechende Werte enthalten), wird schlicht das alte Frame neu übertragen (=>weiter mit Punkt 1).
5. Wird das neue Frame fertig, bevor die Maximaldauer erreicht wird, wird das Senden von vblank-Paketen eingestellt und es geht ebenfalls mit Punkt 1 weiter.

Und genau an der Stelle greift meine Theorie, was der Typ gemeint haben könnte. Was passiert, wenn kurz nachdem der wiederholte Frame gesendet wurde, aber noch nicht die 7ms der minimalen Refreshzeit vorbei sind? Schlimmstenfalls müsste man 99% der 7ms warten, wodurch die Framerate auf die Hälfte fallen würde.
Ließe sich aber vorher ermitteln, wie lange der nächste Frame noch ungefähr dauert, könnte der Zwischenframe vorgezogen werden, um dann die 7ms Puffer zu haben, bevor der Frame letztendlich fertig ist. Wenn genau diese Berechnung nicht optimal funktioniert könnte es zu Inputlag, der allerdings kürzer als eine minimale Frametime ist, kommen.

Mir ist natürlich klar, dass ein solches Szenario nur auftreten kann, wenn die Framerate sprunghaft von "< minimale Refreshrate" zu "nahezu maximale Refreshrate" oder noch höher springt.

Gipsel
2015-01-16, 16:33:17
Und genau an der Stelle greift meine Theorie, was der Typ gemeint haben könnte. Was passiert, wenn kurz nachdem der wiederholte Frame gesendet wurde, aber noch nicht die 7ms der minimalen Refreshzeit vorbei sind? Schlimmstenfalls müsste man 99% der 7ms warten, wodurch die Framerate auf die Hälfte fallen würde.Dann greift Punkt 2 (wo man bei AMD wählen kann, welches Verhalten man bevorzugt, entweder minamles delay aber Tearing oder kleines zusätzliches Delay dafür das Beibehalten der Synchronisation).
Im Übrigen würde die Framerate nicht auf die Hälfte fallen, da ein Frame erst wiederholt wird, wenn die maximale Refreshdauer überschritten wurde, also z.B. nach 33ms bei 30Hz minimaler Refreshrate. Das Frame wäre dann also ~40ms on-Screen statt z.B. 34ms (was der Unterschied zwischen 29 und 25fps ist).

Das ist bei G-Sync übrigens nicht viel anders (ob man da auch diese Wahlmöglichkeit wie bei AMD hat oder nV die für einen trifft, weiß ich im Moment nicht [ich glaube mich zu erinnern, daß das bei G-Sync fest ist und nicht geändert werden kann, aber das könnte nV vielleicht mit einem Treiberupdate ändern]).

Von solchen Vorhersagen wie Du vorschlägst, würde ich großen Abstand halten, die funktionieren erfahrungsgemäß oft suboptimal. Es ist meiner Meinung nach sinnvoller, sich lieber auf Panels zu konzentrieren, die ausreichend niedrige Frameraten unterstützen. Mit denen es ist überhaupt kein Problem (bei 10 Frames die Sekunde hat man andere Probleme als eventuell ab und zu mal 6,9ms Zusatzdelay ;)).

Demirug
2015-01-16, 16:52:19
Vergiß die Aussage dieses angeblichen Entwicklers mal einfach. Die ist falsch.

Der Ablauf:
1.
Die GPU schickt den Inhalt des Framebuffers an die Grafikkarte (mit der maximalen Geschwindigkeit, die unterstützt wird, was dann also z.B. ~7ms dauert [bei 144Hz maximaler Framerate]).
2.
Wird innerhalb dieser Zeit ein zweites Frame fertig, gibt es jetzt 2 Möglichkeiten: entweder wird gewartet, bis die Übertragung fertig ist und dann die Übertragung des nächsten Frames gestartet (VSync) oder es wird einfach so der Bufferflip durchgeführt (VSync off), so daß es Tearing gibt. In dieser Situation ist es vollkommen egal, ob A-Sync aktiv ist oder nicht.
3.
Ist das Frame fertig übertragen (aber noch kein neuer fertig), legt die Grafikkarte auf dem Displayausgang vblank an (ist ja bei DP-Port nur ein besonderes Datenpaket, was dort wiederholt übertragen wird, in der Zeit gibt es ja keine nutzbaren Bilddaten).
4.
Erreicht die Zeitdauer seit dem letzten Refresh die Maximaldauer (kennt die GPU ja aus den EDID-Daten, die bei A-Sync-Monitoren entsprechende Werte enthalten), wird schlicht das alte Frame neu übertragen (=>weiter mit Punkt 1).
5. Wird das neue Frame fertig, bevor die Maximaldauer erreicht wird, wird das Senden von vblank-Paketen eingestellt und es geht ebenfalls mit Punkt 1 weiter.

Total simpel eigentlich. Der Refresh wird praktisch vom Bufferflip getriggert. Die Justierung bzw. Beendigung des Refreshintervalls erfolgt erst nachdem das Bild gerendert wurde. Das funktioniert natürlich nur begrenzt, allerdings nur begrenzt durch die Fähigkeiten des Monitors bzw. dessen Panel ;). Prinzipiell gibt es erstmal keine Grenze für das System und vorhergesagt werden muß da wie gesagt auch nichts.

Das ist mir schon klar das es so abläuft wenn man das Intervall auf maximum stellt und dort auch lässt.

Ich kann aber derzeit nicht beurteilen ob die Aussage dieses Entwicklers nun stimmt oder nicht. Da steht ja nun Aussage gegen Aussage.

Es lassen sich ja durchaus auch Argumente finden warum man das Display Interval an die FPS des Spiels anpassen möchte.

Gipsel
2015-01-16, 17:20:30
Das ist mir schon klar das es so abläuft wenn man das Intervall auf maximum stellt und dort auch lässt.

Ich kann aber derzeit nicht beurteilen ob die Aussage dieses Entwicklers nun stimmt oder nicht. Da steht ja nun Aussage gegen Aussage.Diese angebliche Aussage steht gegen jegliche Logik (und Aussagen sowohl von AMD [die explizit Vorhersagetechniken für Free-Sync verneint haben] als auch von anderen Leuten, die sich das da angesehen haben). Insofern kann man das schon beurteilen und die Wahrscheinlichkeit für das Zutreffen seiner Aussage auf praktisch Null terminieren.

Und welches Intervall willst Du da auf das Maximum stellen? Der Monitor teilt das maximale, von ihm unterstützte Intervall der Grafikkarte mit und die hält sich einfach dran. Die stellt da gar nichts ein im Sinne daß da irgendein Intervall oder Zeitdauer an den Monitor kommuniziert wird. Innerhalb der vom Monitor unterstützten Spanne kann frei gewählt werden, wenn denn nun der Refresh und neue Bilddaten kommen (welche Bilddaten das sind, liegt außerhalb der Spezifikation von A-Sync, weswegen es wie erklärt diese Wahlmöglichkeit mit V-Sync on und off für Frameraten außerhalb des unterstützten Intervalls gibt). Und wann genau der Refresh kommt, legt die GPU fest. Sinnvollerweise, wenn ein Frame gerade fertig geworden ist (also durch den Bufferflip getriggert), weswegen auch nichts vorhergesagt oder vorher an den Monitor kommuniziert werden muß.
Das Refreshintervall läuft einfach so lange weiter (mit vblank-Paketen auf dem DP-Link wird das praktisch offengehalten) bis die maximale vom Monitor unterstützte Dauer erreicht wurde oder das nächste Frame fertig ist. Weder die GPU noch der Monitor wissen vorher (sie müssen es schlicht nicht wissen), wie lange das dauern wird. Das ist nun wirklich keine Raketenwissenschaft.
Es lassen sich ja durchaus auch Argumente finden warum man das Display Interval an die FPS des Spiels anpassen möchte.Das tun Free-/G-Sync doch.

fondness
2015-01-20, 18:44:11
AMD Free Sync works well in real world
http://fudzilla.com/news/graphics/36791-amd-free-sync-works-well

Freesync more attractive than G-sync
http://www.expertreviews.co.uk/accessories/pc-monitors/1402471/amd-freesync-vs-nvidia-g-sync-the-adaptive-sync-battle

Unicous
2015-01-20, 18:55:53
Wo liegt der Mehrwert bei diesen Artikeln?


http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/News/gegens-G-Sync-nicht-schlechter-1148386/

[...]Demnach sei der oben geschilderte Fall nicht wahr. Die GPU selbst kann (wie auch bei G-Sync) die Bildwiederholrate des Displays anhand der ausgegebenen Bilder selbst anpassen. Über den Adaptive-Sync-Standard vom Displayport wird der Grafikkarte lediglich "mitgeteilt", welches minimale und maximale VBLANK-Intervall der Monitor unterstützt, sprich welche Hertz-Raten möglich sind. Liegt die Framerate der GPU außerhalb dieser Spanne, werden die Bilder dann angezeigt, wenn sie fertig sind – der Treiber wechselt dann also auf V-Sync, wie es auch bei G-Sync ausgewählt werden kann.

aufkrawall
2015-01-20, 19:09:18
Interessant wird ein Input Lag-Vergleich, etwa von blurbusters.

fondness
2015-01-20, 19:22:59
Wo liegt der Mehrwert bei diesen Artikeln?


Schlecht geschlafen?^^
Wo liegt der Mehrwert bei deinem Artikel?

Unicous
2015-01-20, 19:30:40
Ganz einfach. Eine neue Information bzw. Reaktion.

Was bringen mir bzw. dem Thread Verlinkungen auf Artikel ohne Einordnung oder wenigstens einem markanten Zitat? Die Artikel bringen dem Thread nichts.

Genauso gut könnte ich jetzt jeden einzelnen Artikel zu G-Sync und FreeSync heraussuchen und hier verlinken. Der Mehrwert ist nicht vorhanden.

Gipsel
2015-01-20, 19:34:26
Wo liegt der Mehrwert bei diesen Artikeln?

http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/News/gegens-G-Sync-nicht-schlechter-1148386/
Na sowas aber auch! Wer hätte auch ahnen können, daß die Aussage dieses angeblichen "Entwicklers" (würde zu gern wissen, welcher Idiot sich da produziert hat) Bullshit war?
Wobei ich die Aussage des neuen PCGH-Artikels, AMD hätte sich erst jetzt dazu geäußert und die FreeSync-FAQ geupdatet, nicht so ganz nachvollziehen kann. Irgendwie kenne ich das AMD-Statement dazu schon deutlich länger (ich habe mich ja immerhin darauf bezogen). Und ich beschäftige mich nicht hauptberuflich damit :freak:. Aber nunja, immerhin haben sie es noch richtig gestellt.

fondness
2015-01-20, 19:37:42
Ganz einfach. Eine neue Information bzw. Reaktion.

Was bringen mir bzw. dem Thread Verlinkungen auf Artikel ohne Einordnung oder wenigstens einem markanten Zitat? Die Artikel bringen dem Thread nichts.

Genauso gut könnte ich jetzt jeden einzelnen Artikel zu G-Sync und FreeSync heraussuchen und hier verlinken. Der Mehrwert ist nicht vorhanden.

Na wenn du das sagt. :rolleyes:

Unicous
2015-01-20, 19:40:49
Wenn es einen Mehrwert gäbe, solltest du ihn auch herausstellen und nicht einfach verlinken. Was ist denn daran so schwer?

Was soll ich denn mit zwei URLs anfangen? Am Ende sind es noch Penisbilder oder korpulierende Opas.

Locuza
2015-01-20, 20:02:38
Und ich beschäftige mich nicht hauptberuflich damit :freak:
Du bekommst beruflich vermutlich auch mehr als ein paar Cent pro Absatz.
Fachwissen kostet anscheinend zu viel für die meisten Meldungen auf der Main.

Die Theorie hört sich simpel an, aber AMD hat schon etwas seltsames verlauten lassen.
Bezüglich der "secret sauce" bei der Synchronisierung.
Das "wie" soll etwas Besonderes bei FreeSync darstellen, aber welchen bemerkenswerten Spielraum könnte man da haben?
Oder ist das klassische PR-Manier?


In contrast: FreeSync is a bundle of secret sauce in our driver that leans on Adaptive-Sync support in a monitor to update the display whenever a Radeon needs to. How you use the control is as important as having the control, so FreeSync is the “how” and Adaptive-Sync is the “have.”
http://www.tomshardware.co.uk/forum/id-2407018/official-amd-radeon-representative.html#14788173

Unicous
2015-01-20, 20:14:58
Ach Quatsch. Secret sauce muss man doch nicht wörtlich nehmen. Er sagt einfach, Adaptive Sync ist der Standard, FreeSync unsere Implementierung in Treiber und Hardware.

Hat er bei einem WTF-Tech "Interview" auch schon so gesagt.

The secret sauce is one part hardware (display controllers) and one part software (AMD Catalyst™).

Oder auch

Make no mistake, providing dynamic refresh rates to users still takes a lot of ‘secret sauce’ from the hardware and software ends of our products, including the correct display controllers in the hardware and the right algorithms in AMD Catalyst.
http://www.sweclockers.com/artikel/18798-amd-om-dynamiska-uppdateringsfrekvenser-med-project-freesync/2#pagehead

Es heißt einfach, nur weil der Monitor Adaptive Sync unterstützt, kann man im Umkehrschluss davon ausgehen, dass die GPU es auch ohne Anpassungen kann. Der Support muss in Software und Hardware implementiert werden

Locuza
2015-01-20, 20:25:04
Davon würde ich jetzt praktisch auch ausgehen.
Die Äußerungen suggerieren einem allerdings das da etwas mehr abläuft.
"How you use the control is as important as having the control" und "including the correct display controllers in the hardware and the right algorithms in AMD Catalyst"

Unicous
2015-01-20, 20:33:51
Ersetze algorithms einfach mit "Supa Awzum S0ftw4r3 Shenanigans".:wink:

tm0975
2015-01-20, 20:50:22
Wenn es einen Mehrwert gäbe, solltest du ihn auch herausstellen und nicht einfach verlinken. Was ist denn daran so schwer?

Was soll ich denn mit zwei URLs anfangen? Am Ende sind es noch Penisbilder oder korpulierende Opas.

da kann ich dich beruhigen, die inhalte sind interessant, aktuell und themenbezogen. von daher danke für die verlinkung. im übrigen sagt ja der name des links schon einiges aus.

Unicous
2015-01-20, 20:55:20
Ach wirklich?

Na dann los. Ich habe nicht eine Info gefunden die irgendwie neu (in diesem Thread) oder relevant wäre.

Gipsel
2015-01-20, 21:16:01
Bezüglich der "secret sauce":
Das ist schlicht eine etwas flexiblere Display-Pipeline im Chip, die nicht nur den Bufferflip (zwischen dem aktuell dargestellten und dem nächsten fertig gerenderten Frame) bis zum nächsten Refresh verzögern kann (traditionell im vblank Intervall durchgeführt, das hatte seinen Ursprung ja bei den alten CRTs) a.k.a. VSYNC, sondern vom Treiber auch so konfiguriert werden kann (das dürfte eine Einmalsache sein, der Treiber muß da also nicht bei jedem Frame eingreifen), daß das praktisch umgekehrt funktioniert, also am Ende der Übertragung eines Frames einfach so lange vblank anläßt, bis der nächste Bufferflip kommt, was dann durch Senden des neuen Bildes den Refresh am Monitor auslöst (und dabei auch die minimale Frequenz des verbauten Panels berücksichtigt).
G-Sync kommt im Zweifel mit einer etwas einfacheren Display-Pipeline in der GPU aus, da dort das G-Sync-Modul im Monitor mehr machen kann (z.B. die minimale Refreshrate zu berücksichtigen). Aber mit genauen Details hält sich nV wie üblich bedeckt.

robbitop
2015-01-21, 10:34:07
Wie steht es eigentlich mit Intel? Haben die mal etwas verlauten lassen, ob sie A-Sync unterstützen?

Es deutet sich ja ein wenig so an, dass der gesamte Monitormarkt (oder die Masse) A-Sync praktisch kostenlos mitunterstützt (weils beim Entwickeln neuer Scaler praktisch mitgenommen wird und nicht viel Änderungsaufwand bedeutet - also keine effektiven Mehrkosten). Wenn jetzt noch Intel diesen VESA Standard unterstützt, kann ich mir vorstellen, dass NV früher oder später auch umsattelt.

Allerdings kann ich mir vorstellen, dass NV versucht, das Gesicht zu wahren und sie ihre Version der A-Sync Unterstützung weiterhin G-Sync (oder G-Sync 2.0 :D) nennen. Immerhin brandet AMD ihre A-Sync Unterstützung ja auch (FreeSync).

Wäre IMO eine akzeptable Lösung oder was meint ihr?

Locuza
2015-01-21, 10:59:14
Es wäre schön, wenn Intel sich dazu irgendwie äußern würde.
Intel hält sich vielleicht bedeckt, weil sie bisher nicht die notwendigen Display-Controller haben?

Und ob Nvidia ihr G-Sync Branding auf ihre adaptive sync Lösung draufpappen, kann mir nur maximal egal sein, solange es keinen Vendor-Lock für meinen Monitor gibt.

M4xw0lf
2015-01-21, 10:59:46
Allerdings kann ich mir vorstellen, dass NV versucht, das Gesicht zu wahren und sie ihre Version der A-Sync Unterstützung weiterhin G-Sync (oder G-Sync 2.0 :D) nennen. Immerhin brandet AMD ihre A-Sync Unterstützung ja auch (FreeSync).

Wäre IMO eine akzeptable Lösung oder was meint ihr?
Ich erwarte das absolut.

robbitop
2015-01-21, 11:02:43
Die Frage ist, ob in GM2xx das ganze HW Seitig schon vorhanden ist, oder ob das erst mit Pascal einbezogen werden kann.

Ich hoffe, dass für die G-Sync Display Käufer, selbst nach einem hypotetischen Umschwenken NVs auf A-Sync ihre zukünftigen GPUs dann noch das originale GSync unterstützen werden.

:)

Gipsel
2015-01-21, 20:27:36
Wenn jetzt noch Intel diesen VESA Standard unterstützt, kann ich mir vorstellen, dass NV früher oder später auch umsattelt.

Allerdings kann ich mir vorstellen, dass NV versucht, das Gesicht zu wahren und sie ihre Version der A-Sync Unterstützung weiterhin G-Sync (oder G-Sync 2.0 :D) nennen. Immerhin brandet AMD ihre A-Sync Unterstützung ja auch (FreeSync).

Wäre IMO eine akzeptable Lösung oder was meint ihr?An sowas habe ich auch schon gedacht.
Bezüglich der Diskussion mit FPGA/ASIC und G-Sync, was ist denn die kostengünstigste Variante für nV? Im Prinzip das, was Skysnake schon angedeutet hat:
NVidia nutzt mit ihren GPUs im Prinzip den A-Sync-Standard und die entsprechend kompatiblem Scaler in den Monitoren (die es aufgrund der Massenfertigung als billige ASICS gibt), bastelt dazu aber in Absprache mit ausgewählten Monitorherstellern einfach einen Vendor-Lock und nennt das dann G-Sync. :rolleyes:

Aufgrund der relativen großen Ähnlichkeit zwischen A-Sync und G-Sync sollten A-Sync kompatible Scaler das zumindest mit den neueren nV-GPUs hinbekommen, auch wenn nV vielleicht etwas an ihrem Sync-Prozedere ändern müssen (Handshake und so, der eventuell nur mit älteren GPUs nötig ist). Der Nutzer wird so eine Umstellung kaum merken. Eventuell verkaufen Sie es uns ja auch als G-Sync 2.0, was ab Maxwell unterstützt wird. :wink:

Kriton
2015-01-24, 21:23:54
Schön, dass PCGH noch immer diese falsche Aussage aufkocht: :ubash2:

http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/News/keine-Unterstuetzung-durch-Nvidia-1148885/

Das "angeblich" rettet das auch nicht - diese Dinge bleiben dennoch hängen (deswegen auch kein quote von mir). Und keine Authorenangabe...
Und welche "Fachwelt" denn? Der eine anonyme Entwickler? Und "wiederholt"?

fondness
2015-01-24, 21:54:22
Schön, dass PCGH noch immer diese falsche Aussage aufkocht: :ubash2:

http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/News/keine-Unterstuetzung-durch-Nvidia-1148885/

Das "angeblich" rettet das auch nicht - diese Dinge bleiben dennoch hängen (deswegen auch kein quote von mir). Und keine Authorenangabe...
Und welche "Fachwelt" denn? Der eine anonyme Entwickler? Und "wiederholt"?

Das kann man nur noch als Propaganda bezeichnen.

Schnoesel
2015-01-24, 22:03:30
Ich finde das auch unterstes Niveau. Bei diesem Interview hat man das wohl dann auch glatt verpasst nach dem 970er Bug zu fragen nehme ich an, na man muss Prioritäten setzen.

Das Nvidia erstmal mit aller Macht versuchen wird ihren eigenen Käse duchzudrücken war auch von Anfang an klar.

fondness
2015-01-24, 22:20:25
Wenn der Markt in GPU-Segment auch nur noch ein bisschen funktioniert dann hat G-Sync keine Zukunft. Auf die bescheuerte Idee einen $300 FPGA in den Monitor zu pflanzen nur um die Bildrate zu syncen muss man erst mal kommen. Das kann eigentlich nur ein Schnellschuss gewesen sein weil man um jeden Preis vor AMD am Markt sein wollte.

BTW, hat eigentlich schon jemand den Stromverbrauch von diesem G-Sync-Modul gemessen?

hasebaer
2015-01-24, 22:28:34
Das G-Sync Modul ist nach 15 Monaten immernoch ein FPGA, kein ASIC?

Sunrise
2015-01-24, 22:33:54
Das G-Sync Modul ist nach 15 Monaten immernoch ein FPGA, kein ASIC?
:D

FIGHT!

robbitop
2015-01-25, 09:18:47
Lohnt sich für NV wohl nicht. Damit man die Kosten für Design und Maske wieder rein bekommt, müssten schon viele Monitore verkauft werden. Insbesondere jetzt, wo es eine VESA Lösung gibt, wird das nicht passieren. IMO wird NV eher in 1-2 Jahren einsehen, dass ihr Vendor Lock Versuch eher ein Nachteil für sie ist weil keiner GSync Monitore kaufen will und die Käufer verärgert sind, dass es mit A-Sync nicht kompatibel ist.

Wie oft IHVs ihre Meinung schon geändert haben... HDR, SGSSAA, winkelunabhängigs AF, SM3, Tesselation, Env Bumpmapping etcpp... braucht doch kein Mensch! Eine Gen später wurde es dann abgefeiert. :rolleyes:

fondness
2015-01-25, 09:58:01
Das sie jetzt nein sagen ist klar, denn sobald sie sagen das sie FreeSync in Zukunft unterstützten werden ist G-Sync tot. Niemand kauft ein Produkt mit einer Ablaufzeit.

Air Force One
2015-01-25, 10:29:10
Einfach G-Sync als Bestandteil der GW Features anbieten und schon ist zumindest der Name gerettet.

Gipsel
2015-01-25, 11:56:06
Einfach G-Sync als Bestandteil der GW Features anbieten und schon ist zumindest der Name gerettet.
Ja, wenn die Display-Pipelines in der GPU A-Sync unterstützen (ab Maxwell oder Pascal?) einfach das Ganze G-Sync 2.0 nennen (wie AMD den A-Sync-Support FreeSync nennt), was dann magischerweise nicht mehr nur mit G-Sync-Monitoren funktioniert (Hersteller können ja trotzdem optional ihre Monitore von nV als mit G-Sync kompatibel zertifizieren lassen, um "Mehrwert" zu implizieren :rolleyes:). Fertig ist der Lack.

-/\-CruNcher-/\-
2015-01-25, 12:02:21
So hats DivX gemacht waren damit auch erfolgreich ;)

Sunrise
2015-01-26, 16:56:19
Nvidia verfolgt G-Sync-Pläne unbeirrt
FreeSync bei Nvidia ist „sehr unwahrscheinlich“

http://www.computerbase.de/2015-01/freesync-bei-nvidia-ist-sehr-unwahrscheinlich/

Hier das Youtube-Video:
https://www.youtube.com/watch?v=HHrSe0DtXHk#t=3247

Muss ich jetzt hoffentlich nicht kommentieren, oder? War irgendwie fast klar, dass NV sich da von FreeSync nicht beeindrucken lässt. Die brauchen exklusive Features der exklusiven Features willen, so bleibt man im Gespräch.

Hoffentlich nimmt dort bald mal jemand einen der neueren G-Sync-Monitoren auseinander, sodass man sehen kann, was dort verbaut ist. Und dann wäre es spitze, wenn sich einigermaßen ausführliche Tests zeigen würden, denn wenn das so bleibt, schrenkt das die Monitorauswahl faktisch stark ein, was ein ziemlicher Scheiss (auf Deutsch gesagt) ist.

Ich suche mir doch einen guten Monitor, der auch zum Spielen super ist, nicht nach dem x-Sync-Support aus, soweit kommts noch. Da kann NV mich mal kreuzweise.

robbitop
2015-01-26, 17:02:10
Abwarten. Wenn in absehbarer Zeit der komplette Markt voller A-Sync Monitore ist und es nur einige wenige G-Sync Monitore gibt (was wahrscheinlich ist, weil alle neu entwickelten Scaler das Feature quasi 4 free mitnehmen) - dann steht NV unter der Situation, dass sie den VESA Standard nicht erfüllen und AMD/Intel haben ein gewaltiges Verkaufsargument.

NV wird dann (vermutlich still und heimlich) A-Sync mit unterstützen und es weiterhin G-Sync nennen. Oder aber dann als große Neuerung verkaufen.

Wäre nicht das erste Mal, dass die Meinung eines IHVs wie ein Fähnchen im Winde zum Generationswechsel sich wendet und Dinge, die vor kurzem als "unwichtig" abgestempelt wurden plötzlich als Neuerung abgefeiert werden.

Dinge, die man nicht unterstützt sind, solange man sie nicht unterstützt per definionem "unnötig" oder "sinnlos". ;)

Blieben sie stur, würde ihnen das langfristig weh tun. (wäre IMO auch völlig bescheuert, langfristig, einen existierenden VESA Standard ignorant zu ignorieren). Falls sie das tun, hoffe ich, dass entsprechender Druck der Öffentlichkeit/Presse das regelt.

Kartenlehrling
2015-01-26, 17:12:49
Dinge, die man nicht unterstützt sind, solange man sie nicht unterstützt per definionem "unnötig" oder "sinnlos".

Will nicht wissen wie weit wir heute wären hätte Nvidia auch vor 6 !! Jahren mit dem support von Displayport begonnen wie es AMD gemacht hat und dafür die Analog-VGA verbannt.

dargo
2015-01-26, 17:16:29
Nvidia verfolgt G-Sync-Pläne unbeirrt
FreeSync bei Nvidia ist „sehr unwahrscheinlich“

http://www.computerbase.de/2015-01/freesync-bei-nvidia-ist-sehr-unwahrscheinlich/

Hier das Youtube-Video:
https://www.youtube.com/watch?v=HHrSe0DtXHk#t=3247

Muss ich jetzt hoffentlich nicht kommentieren, oder? War irgendwie fast klar, dass NV sich da von FreeSync nicht beeindrucken lässt. Die brauchen exklusive Features der exklusiven Features willen, so bleibt man im Gespräch.

Hoffentlich nimmt dort bald mal jemand einen der neueren G-Sync-Monitoren auseinander, sodass man sehen kann, was dort verbaut ist. Und dann wäre es spitze, wenn sich einigermaßen ausführliche Tests zeigen würden, denn wenn das so bleibt, schrenkt das die Monitorauswahl faktisch stark ein, was ein ziemlicher Scheiss (auf Deutsch gesagt) ist.

Ich suche mir doch einen guten Monitor, der auch zum Spielen super ist, nicht nach dem x-Sync-Support aus, soweit kommts noch. Da kann NV mich mal kreuzweise.
Genau davor hatte ich die ganze Zeit Angst und jetzt tritt es ein. Zum Kotzen @Nvidia! :mad:

robbitop
2015-01-26, 17:21:20
Abwarten. :)

Kartenlehrling
2015-01-26, 17:21:40
Wie schon oft gesagt wird, hier werden zwei Sachen durch einander gebracht,
erstmal sagt keiner das Nvidia nicht Vesa-Adaptive vsync unterstützt, AMD-Freesync ist ja eigentlich nur das, was wir als Gaming-vsync verstehen,
aber es gibt ja noch Desktop- und Video-sync (Vesa-Adaptive-vsync).

Unicous
2015-01-26, 17:34:36
Da wird nichts durcheinander gebracht, Tom Peterson ist sehr eindeutig. Nvidia wird Adaptive Sync nicht unterstützen, "aber ich sag es nochmal: Sag niemals nie".

Und dann wird auch noch mal schön FUD von ihm verbreitet, man könnte sich nicht sicher sein ob A-Sync unterstützt wird, weil es ja nur optional ist. :rolleyes:

Zum kotzen sowas. Wenn es unterstützt wird, dann kennzeichnet der Hersteller es natürlich auch. Wie ja schon zig mal gesagt und auch von robbitop gerade nochmal erwähnt, zukünftige Scaler werden es einfach unterstützen, weil sich keiner der Hersteller dabei ein Bein abbricht und neue Scaler eh in Entwicklung sind.

Alleine das "never say never" ist für mich schon Entlarvung genug. Sie werden auf jeden Fall reagieren (müssen), wenn Adaptive Sync G-Sync Monitore aussticht.

Und dieses peinliche 'Wir unterstützen nur das was uns an der Spec zusagt'. DP 1.2 gerade genug für unsere Zwecke, DP 1.2a+ A-Sync braucht keine Sau.

Screemer
2015-01-26, 17:48:12
Warum sich pcper und hexus nicht endlich in planet-nv umbenennen erschließt sich mir nicht. Vielleicht könnte man ja die gute alte riva-station zusammen wiederbeleben, obwohl da wohl weniger Geld von nv hin geflossen ist als an die beiden.

dargo
2015-01-26, 17:58:42
Abwarten. :)
Natürlich, was anderes bleibt mir auch nicht übrig. Noch gibt es keine Freesync Bildschirme mit VA die für mich in Frage kämen. Ich hoffe aber, dass diese 2015 kommen und da befürchte ich, dass NV noch(?) nicht mitspielt.

fondness
2015-01-26, 18:08:10
IMO hat NV einfach noch keinen Support dafür in der aktuellen Hardware und muss deshalb auf Zeit mit G-Sync spielen. AMD bereitet das Feature immerhin schon seit Jahren vor und hat es seit Bonaire in HW.

Das kann sich für NV auch niemals rechnen, selbst wenn man den FPGA wesentlich billiger bekommt als die $300 welcher er im Einzelhandel kostet bleibt da unmöglich was über. Und das die Lösung gelinde gesagt suboptimal ist, wenn es einen offenen VESA-Standard gibt, der alles ohne einen teuren FPGA ermöglicht ist offensichtlich.

Unicous
2015-01-26, 18:11:56
Warum sich pcper und hexus nicht endlich in planet-nv umbenennen erschließt sich mir nicht. Vielleicht könnte man ja die gute alte riva-station zusammen wiederbeleben, obwohl da wohl weniger Geld von nv hin geflossen ist als an die beiden.

Das ist erst einmal Blödsinn. PCPer hat in der Vergangenheit auch schon viele Sachen mit AMD gemacht. Es ist nun aber mal einfach so, dass AMD keine neuen Produkte hat oder sonst irgendwelche geilen Features vorstellen könnte.

Aber was ich Ryan Shrout ankreide ist der Fakt, dass er bei diesen Aufzeichnungen sein Hirn ausschaltet und vor lauter Demut bei seinen Gästen nicht knallhart nachfragt. Warum, wieso, weshalb. Er lässt sich das immer schön erklären, nickt freundlich, fragt mal dezent nach, aber das war es dann auch schon.

Aber im Grunde genommen macht das jeder in der IT-Branche so. Und natürlich kann man denjenigen der mit 10 Grafikkarten in der Tasche ankommt nicht verärgern. So kommt es mir jedenfalls vor. Und manchmal denke ich mir auch, du weißt es doch eigentlich besser, warum kommt denn da nichts. Warum kommt da kein "Aber...". Viel zu passiv.

Kartenlehrling
2015-01-27, 02:57:47
https://www.youtube.com/watch?v=G7-jn07jy8I
AMD's Richard Huddy shows off FreeSync Monitors - CES 2015

ich weiß nicht ob es schon geposte wurde ... egal, Huddy kann man sich immer ansehen.

Nightspider
2015-01-27, 03:19:27
Ist doch klar das Nvidia jetzt nochmal die Werbetrommeln rührt und FreeSync abstreitet.
Schließlich kommen ja jetzt nochmal G-Sync Monitore auf den Markt und kampflos wird NV nicht aufgeben - das war klar.

Die nächsten 6 Monate werden es zeigen. Vllt ist G-Sync in einem Jahr tot.

tm0975
2015-01-27, 08:32:03
aberkaufbar ist noch kein free-sync, monitor, oder? ende q1 hatte ich irgendwo gelesen. hmm, abwarten :-(

horn 12
2015-01-27, 09:18:56
In etwa 4 Wochen sollten erste Geräte kaufbar sein!
So ab 21. bis 23.-ten Februar 2015

Unicous
2015-01-27, 12:17:36
Nein, es wird ab 22.-24. Februar sein. Auf jeden Fall aber nicht vom 20.-22.02..

Goser
2015-01-27, 21:56:54
BenQ Monitor XL2420G mit Nvidia G-Sync
http://www.hartware.de/news_62837.html

Sieht interessant aus.

Unicous
2015-01-27, 22:19:32
Was ist daran "interessant"?

So wie ich das sehe ist das der XL2420Z ohne Z dafür mit G. Dessen UVP liegt/lag anscheinend vor einem Jahr bei 409 Euro. Jetzt darf man (theoretisch) 140 Euro mehr für G-Sync bezahlen. Der Monitor wird zwar schon bei 499 Euro gelistet

http://geizhals.eu/de/benq-xl2420g-9h-lc5lb-qbe-a1204824.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu

der "Z" kostet aber auch "nur" noch ca. 355 Euro.

Wäre interessant (als Vergleich), wenn BenQ die "Z" Version mit Adaptive Sync neu auflegen würde, so wie es anscheinend beim XL2720Z (XL2730Z, Adaptive Sync Version) geschieht.

140/150 Euro Aufpreis ist einfach zu viel.

Generell sind mir die Preise für ein TN aber weiterhin zu hoch.

Kartenlehrling
2015-01-27, 22:37:05
erstmal mussen die Samsung und die LGs der Welt zum 1.Mai kommen, der Asus 120hz-IPS kommst bestimmt nicht vor Juli,
30" ips 120hz Korea soll zur 2te Jahrehälfte kommen, da tip ich auch darauf das er Vesa-adaptiv unterstützt.

OC_Burner
2015-01-27, 23:37:56
BenQ Monitor XL2420G mit Nvidia G-Sync
http://www.hartware.de/news_62837.html

Sieht interessant aus.

24" und FullHD:unono: In UltraHD Bitteschön.

Einzig Samsung hat bis jetzt ein solches Gerät angekündigt, leider mit FreeSync. Da kann man echt nur hoffen das G-Sync flopt und Nvidia notgedrungen Adaptive-Sync unterstützt. Zwei Ökosysteme und eines davon proprietär, muss nun echt nicht sein.

Unicous
2015-01-30, 22:07:59
Mobile G-Sync is for realz und man wird kein Module für den Laptop brauchen.:freak:

http://www.pcper.com/reviews/Graphics-Cards/Mobile-G-Sync-Confirmed-and-Tested-Leaked-Alpha-Driver

K7SYvgB6SZ4

Es ist im Alpha-Stadium und funktioniert noch nicht einwandfrei und nur mit speziellen Laptops, bis jetzt wohl nur aus der Asus G751 Reihe.

Hier sieht man auch warum es noch im Alphastadium ist:
an7KtuJih7M

nagus
2015-01-31, 10:45:42
erste bildschirme mit adaptive-sync sind auf geizhals gelistet (http://geizhals.at/eu/?cat=monlcd19wide&xf=103_Adaptive-Sync)!

M4xw0lf
2015-01-31, 11:36:22
erste bildschirme mit adaptive-sync sind auf geizhals gelistet (http://geizhals.at/eu/?cat=monlcd19wide&xf=103_Adaptive-Sync)!
Ah, wurde auch mal Zeit! :up:

Gipsel
2015-01-31, 12:11:24
Mobile G-Sync is for realz und man wird kein Module für den Laptop brauchen.:freak:

http://www.pcper.com/reviews/Graphics-Cards/Mobile-G-Sync-Confirmed-and-Tested-Leaked-Alpha-Driver

http://youtu.be/K7SYvgB6SZ4

Es ist im Alpha-Stadium und funktioniert noch nicht einwandfrei und nur mit speziellen Laptops, bis jetzt wohl nur aus der Asus G751 Reihe.

Hier sieht man auch warum es noch im Alphastadium ist:
http://youtu.be/an7KtuJih7MIch vermute schlicht A-Sync ohne die minimale Refreshrate des Panels zu beachten, daher die Probleme. Die müßten bei Überschreiten des maximalen Refreshintervalls einfach den alten Frame neu übertragen, wie das A-Sync vorsieht (bei G-Sync macht es das Modul ohne Mitwirkung der GPU). Die Frage ist halt nur, ob die Maxwells es schon komplett können. Das könnte aber gut möglich sein. Dann ist A-Sync-Support von nV vermutlich nur eine politische Frage.

aufkrawall
2015-01-31, 12:14:12
Lässt sich das nicht einfach per Treiber lösen?
So wie das Ausschalten des Syncs bei dem, was NV ursprünglich mal unter dem Namen adaptives Vsync brachte.

Gipsel
2015-01-31, 12:39:21
Lässt sich das nicht einfach per Treiber lösen?Wenn die Hardware das unterstützt, kann man es per Treiber aktivieren. Der benötigte Hardwaresupport ist wirklich relativ simpel, das ist also kein großes Problem. Es muß eben nur überhaupt vorgesehen sein. Maxwell ist offenbar zumindest fast da, sonst würde das nicht in der Form laufen. Vielleicht ist Maxwell auch schon komplett mit A-Sync kompatibel, sicher wissen tue ich es aber natürlich nicht. Bei AMD geht es ja auch erst ab Bonaire, mit früherer Hardware läßt sich da mit Treiber nicht so viel machen, zumindest wenn es gut funktionieren soll. Per Treiber mikrosekundengenau den Refresh manuell einzuleiten scheint mir auf den ersten Blick kein sehr robustes Konzept zu sein.

Schnoesel
2015-01-31, 14:32:00
Also gibts bald G-Gsync branded notebooks, die kein Modul verbaut haben aber sicherlich inklusive Fanaufschlag? :biggrin:

Unicous
2015-01-31, 14:41:14
Die Frage die sich mir stellt ist jedoch: nutzt Nvidia die Adaptive Sync Spec oder nur die erweiterte Funktionalität des Timing Controllers für Variable Refresh-Raten um ihre eigene Softarelösung durchzuschleusen. Ich schätze es ist letzteres. Ersteres hingegen wäre in der der Tat der Gipfel der Chuzpe.

Was mich auch weiterhin stört, ist die Tatsache, dass sie bei den Monitoren LVDS als Interface nutzen. Warum sind sie nicht gleich auf eDP gegangen. Wo liegen da die Vorteile. Die Elektronik wird ja eh komplett ausgetauscht...oder lag es an den verbauten Panels?

Und da kommt dann wieder die Frage auf: Was ist mit den Monitoren, die jetzt mehrere Anschlüsse anbieten. Was wurde da verändert. Altes Modul, neue "firmware"? Neues Modul? Evtl. nur noch ein abgespecktes Modul und Nutzung von Adaptive Sync fähiger Scaler/Timing Controller.

Mir kommt es immer mehr so vor als wollte Nvidia Adaptive Sync als ihre Erfindung anpreisen und schnell damit an den Markt um VESA und Co. ein Schnippchen zu schlagen. Sie haben aber nicht damit gerechnet, dass AMD und VESA es so schnell hinbekommen die "Industrie" davon zu überzeugen.

Robert Hallock hat auch noch ein paar Flocken fallen lassen, z.B. zu dem Nixeus Modell dass sie bei der Computex gezeigt hatten.

http://linustechtips.com/main/topic/300718-amd-caught-on-lying-as-well-falsely-presenting-a-working-variable-refresh-rate-monitor/?p=4087011

This is a Nixeus display. It supports DisplayPort Adaptive-Sync. It was our test mule when we were originally developing the technology, and it has a limited refresh rate range because that is what the LCD panel supports.



Capping the framerate to the exact refresh rate of the display does not eliminate tearing. The two rates can and still will be out of phase, and the tearing will oscillate up and down the display.



Please feel free to ask any additional questions about this or any other monitor.



//EDIT: It supports DP 1.2a after a firmware upgrade. That is the point. The scaler utilized by that display already had sufficient capabilities in the silicon that were exposed by alpha-grade firmware.

The tool didn't support roaming framerates then. It does now, and the footage from CES at TechReport et. al. will show you that. Even so, having a fixed framerate can still demonstrate stuttering and tearing. There is a common misconception that matching the framerate to the refresh rate will solve all tearing, but that is patently false.



Furthermore, please see the comments from Nixeus that confirm my own.

Und den Prozess beschrieben warum es so lange gedauert hat, bis die Spec stand, die Scaler-Hersteller im Boot waren, und die Monitorhersteller eingestiegen sind und Endgeräte in den Handel kommen.


Sort of. What most people probably don't think about is what kind of electronics run their monitor. We all go gaga over great panels, but great scalers--those electronics--are just as vital. There are three vendors in the world for those scalers: Realtek, MStar and Novatek. All three of them support FreeSync in their portfolio.



This support was predominantly achieved by developing new firmware that utilized latent capabilities in the silicon of the units already in mass production. That is to say, if a monitor vendor is using one of these scalers in their units or supply chain, now they only need to obtain a different ROM for their monitor and validate the monitor for DRR.



Tada: a FreeSync monitor is born, with no licensing or material costs beyond what they were already going to pay to build that monitor. Nor do we charge any sort of royalty fee. This is what puts the "free" in FreeSync. We made it as simple and as economical as possible for monitor guys.



There are certainly other scalers in the world that were not so lucky. For whatever reason, the silicon doesn't support DRR, or didn't support a range that would be "useful" for gaming. Monitors based on these scalers could not be retooled or upgraded, so the manufacturer would need to bring a new SKU into their lineup with a different scaler.



Finally, the scaler guys are also working on new SKUs to entice monitor vendors into sourcing them for new designs. These scalers are adopting FreeSync also, because the expertise and the Adaptive-Sync standard is already established and incorporable.



Like 4K, audio, daisychaining, and a whole host of other features, Adaptive-Sync is an optional feature of the 1.2a spec. Not every 1.2a monitor can be FreeSync, for the technical reason I described above, or simply because the vendor does not want to adopt the optional feature.



I hope that clears things up.



If monitors are already in mass production that support freesync in silicon and all that's needed is a firmware update, then why is it taking so long to get to market? Why don't we have firmware updates already?



A good question, and a couple reasons:



1) An industry standard just takes time. There are rounds of submission, editing, voting, drafts, etc. You have to finish the spec (Adaptive-Sync) and get it ratified in the body before you can ever truly begin the software development of new firmware. Big multi-party consortiums are by necessity pretty slow, because the standard has to be fair and equitable to all participating parties, and everyone has an opinion. ;)



2) Okay, now the spec is done. Now you have to get support from scaler vendors, which means months and weeks of meetings and pitches and proposals and technical demonstrations.



3) Okay, now there's scalers. Repeat the same pitch process for monitor vendors using those scalers.



4) Okay, now you've convinced the industry's biggest vendors. Software development isn't lightning fast, either. A monitor scaler is a complicated piece of silicon, and it takes time to design an entirely new piece of firmware on an entirely specification. Then, and most people don't know this, the monitor QA period is incredibly long.



That's it. It takes time to build an industry standard, and then get people onboard, then they have to build things.

Unicous
2015-02-06, 16:25:48
LOOOOOOOOOOOOOOOOLLLLL

;D;D;D;D;D;D

Der BenQ liegt jetzt 100 Euro über BenQs Empfehlung, während der Asus Swift jetzt ebenfalls vereinzelt für 699 Euro zu haben ist. Ein Schelm der Böses denkt.

http://geizhals.eu/benq-xl2730z-9h-ldclb-qbe-a1223748.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu

http://geizhals.eu/asus-rog-swift-pg278q-90lm00u0-b01370-a1052247.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu

Kartenlehrling
2015-02-07, 21:58:52
http://techreport.com/review/27762/benq-xl2420g-g-sync-monitor-reviewed
BenQ's XL2420G G-Sync monitor reviewed

Two scalers, one monitor, zero tearing

PHuV
2015-02-07, 22:35:09
Der BenQ liegt jetzt 100 Euro über BenQs Empfehlung, während der Asus Swift jetzt ebenfalls vereinzelt für 699 Euro zu haben ist. Ein Schelm der Böses denkt.
Ich habe von einem Händler gehört, daß jeder 2. Asus Swift Monitor ausfallen würde.

Kartenlehrling
2015-02-07, 22:47:41
Ganz ehrlich glaube ich das viele den Monitor nicht bedienen und richtig einstellen können.
Und das nur ein Displayport Eingang vorhanden ist finde ich auch nicht gelungen.

Sunrise
2015-02-07, 22:57:43
http://techreport.com/review/27762/benq-xl2420g-g-sync-monitor-reviewed
BenQ's XL2420G G-Sync monitor reviewed
Ein G-Sync FPGA und ein Scaler-ASIC? Was ein Quatsch.

Skysnake
2015-02-07, 23:43:11
Die haben das Ding nicht aufgeschraubt oder?

YfOrU
2015-02-08, 09:54:02
Ein G-Sync FPGA und ein Scaler-ASIC? Was ein Quatsch.

Ist der einzige G-Sync kompatible Monitor welcher mehr Anschlüsse als einen einzigen DP Port bietet. Wer zusätzlich zum Desktop beispielsweise ein Notebook hat nimmt das gerne. Eigentlich muss man sich schon fragen was Nvidia hier für einen Mist entwickelt hat. Nur ein Videoeingang, kein daisy chaining (DP Out) und dafür Preise von 400€ aufwärts. Das ist meiner Ansicht nach weder zeitgemäß noch dem Preis entsprechend.

fondness
2015-02-08, 09:56:24
Ist der einzige G-Sync kompatible Monitor welcher mehr Anschlüsse als einen einzigen DP Port bietet. Eigentlich muss man sich schon fragen was Nvidia hier für einen Mist entwickelt hat. Nur ein Videoeingang, kein daisy chaining und Preise um 400€ aufwärts.

Das war ein Schnellschuss, auch wenn es viele NV-Fans noch immer bezweifeln, alles andere macht Null Sinn. Langfristig hat so ein Murks hoffentlich keine Zukunft.

Loeschzwerg
2015-02-08, 10:28:39
Ein G-Sync FPGA und ein Scaler-ASIC? Was ein Quatsch.

Ich hatte es ja befürchtet :(

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10474286#post10474286

Achja, von BenQ kam natürlich keine Rückmeldung :freak:

@fondness: Wird sich bestimmt noch irgendwann zeigen was im Detail anders läuft zu A-Sync. Spätestens dann wenn NV auch auf A-Sync schwenkt ;D

Kartenlehrling
2015-02-12, 10:25:02
Bei tweakpc.de haben sie sich dem 4k-gsync angenommen, auch 3 schöne Videos von Guildwars2 test gemacht,
leider sieht man im G-sync Video immer noch ein leichts vsync typische Ruckeln das aber wohl vom der Aufnahme herkommt,
weil in LIVE sieht sowas immer geschmeidiger aus.

http://www.tweakpc.de/hardware/tests/grafikkarten/acer_xb280hk_4k_gsync_monitor/s04.php
Acer Predator XB280HK: Das erste 4k-Display mit G-SYNC

derF
2015-02-12, 10:33:52
Der Absatz aus dem Fazit ist komisch formuliert:
Mit den neuen 4K Bildschirmen bekommt die Sache allerdings eine ganz andere Dimension. Wer von 1080p oder 1440p auf 4K wechselt, wird schnell feststellen, dass sämtliche störenden Effekte nicht nur häufiger auftreten, sondern auch irgendwie deutlicher sichtbar sind. Insbesondere das Tearing stellt sich bei 4K besonders oft und heftig ein und stört extrem.
Das hat nicht direkt was mit der Auflösung zu tun, sondern eher mit 60 Hz und low fps. Die niedrigen FPS sind zwar teilweise durch 4k bedingt, aber in dem Absatz klingt es so als ob durch die hohe Auflösung Tearing schlimmer wird. :freak:

Kartenlehrling
2015-02-12, 10:36:25
Naja es fällt auf einem grossen Monitor >27" sowieso stärker störend auf, als auf einem 21" bzw. 24".

fondness
2015-02-12, 10:45:20
Inzwischen ist auch ein zweiten AMD FreeSync-Monitor gelistet:
http://geizhals.at/eu/?cat=monlcd19wide&xf=103_Adaptive-Sync#xf_top

Dimitri Mayakovsky
2015-02-12, 10:51:47
Das hat nicht direkt was mit der Auflösung zu tun, sondern eher mit 60 Hz und low fps. Die niedrigen FPS sind zwar teilweise durch 4k bedingt, aber in dem Absatz klingt es so als ob durch die hohe Auflösung Tearing schlimmer wird. :freak:
Ja komisch formuliert, IMO meinen sie aber genau das, was du schreibst. Durch 4K sinken die Framerates schneller unter 60fps und das bemerkt man dann.

Inzwischen ist auch ein zweiten AMD FreeSync-Monitor gelistet:
Wow, 700€. Kostet also genauso viel wie ein vergleichbarer G-Sync Monitor.

mironicus
2015-02-12, 10:57:01
Das sind erste Listenpreise, die werden noch auf deutlich unter 600 Euro fallen. Ein Preisunterschied zum Vorgängermodell ohne FreeSync wird es wohl immer geben.

StefanV
2015-02-12, 11:11:25
Wow, 700€. Kostet also genauso viel wie ein vergleichbarer G-Sync Monitor.
Und der hat dann auch ein 34" IPS 21:9 Panel mit 99% sRGB Abdeckung und 2x Thunderbolt Anschlüssen? Aha...

horn 12
2015-02-12, 11:31:46
Ab nächster Woche sollte es wohl End- Userberichte geben.
Der Benq sollte wohl morgen, spätestens Montags lieferbar sein!
Man darf gespannt sein.

Unicous
2015-02-13, 15:35:31
Geht man nach den Händlerangaben, sind die drei (bei gh) gelisteten Monitore von LG und BenQ ab der 4. Februarwoche (23.02.) lieferbar. Mal sehen ob das auch stimmt. Ich frage mich dahingehend ob die Redaktionen schon Samples geschickt bekommen, oder ob es das angekündigte Presse-Event gibt. Momentan sieht es eher nicht so aus.:rolleyes:

MechWOLLIer
2015-02-13, 15:38:59
Ein Presse-Event wurde ja auch nie angekündigt:D

Skysnake
2015-02-13, 15:54:08
Köntnt ihr BITTE BITTE BITTE BITTE... noch drlöf millionnen mal BITTE... Son Monitor mal SICHER aufschrauben und schauen, was da jetzt am Ende wirklich an Chips drin steckt? Wenn ihr es euch nicht SICHER zutraut, dann gibts da ja noch immer Seiten die Teardowns machen. Die sind da sicher für Gerüstet.

Unicous
2015-02-13, 15:54:24
@MechWOLLIer

Doch, Robert Hallock hatte es behauptet. Leider finde ich den entsprechenden Tweet nicht. Ich dachte, ich oder jemand hier im Thread hätte es verlinkt.:confused:


Die Schweine von BenQ haben anscheiend wirklich den UVP hochgesetzt, die PM hat aber anscheinend nur wenige interessiert. Das ist einfach nur noch unverschämt:
Der Hersteller BenQ hat seinen neuen Gaming-Monitor XL2730Z mit 27 Zoll Bilddiagonale zum Preis von 769 Euro vorgestellt.

http://www.hartware.de/news_62913.html

Da ist es auch egal, dass der Monitor schon ab 660 Euro zu kaufen ist. Sie wollen mit einem Feature, das marginale Mehrkosten erzeugt, Kohle machen. Der ROG Swift ist derweil auf 699 Euro gefallen und hat sicherlich das Gleiche oder zumindest eine ähnliches Panel (die "dynamischen" Konstrastwerte unterscheiden sich).

Kartenlehrling
2015-02-16, 16:04:08
Im CB Forum wird ein Bild von CCC (omega14.12) geposte wo eine R9270 in kombination mit einem Dell u2515h den Freesync Reiter freischalte.
Es muss ein Bugg sein aber trotzdem witzig.

http://www.computerbase.de/forum/attachment.php?attachmentid=475227&d=1424096144

Unicous
2015-02-16, 17:44:29
Skandal!!!!!:eek::eek::eek:

Freesync ohne Adapative Sync. Die wollen uns doch alle verarschen. Ich habe mal schnell einen Treiber geschrieben, der meine! Algorithmen verwendet um Adaptive Sync auf allen HDMI-Monitoren und TVs!!! freizuschalten.

Er nennt sich GameNapp-Alpha-Omega-Treiber. Ich habe auch ein paar jpgs eingefügen um zu zeigen, dass der Treiber von mir ist und nicht von AMD.

Ich werde damit an die Öffentlichkeit gehen und zeigen, dass AMD ganz Schlimmes im Schilde führt und jetzt gemeinsame Sache mit Nvidia macht.

Ich werde mal schnell einen Wordpress-Blog aufmachen und da nur wohlwollende Kommentare freischalten, die meiner Seele schmeicheln. Und ihr Hater und Besserwisser könnt draußenbleiben.


Ich habe fertig.

aufkrawall
2015-02-16, 17:45:46
An deinen Behauptungen könnte ja was dran sein, meinst du nicht?

Unicous
2015-02-16, 17:58:12
Behauptungen?:confused: Behauptungen?:mad:


Du bist auch so ein Hater. Das sind Fakten.:uattack4:

Kartenlehrling
2015-02-16, 18:02:35
@Unicous

Heute war soo ein schöner sonniger Rosenmontag, dir würden ein paar Sonnenstrahlen bestimmt helfen.

Unicous
2015-02-16, 18:07:17
Hautkrebs ist nicht so mein Ding. Ich stehe eher auf aristokratische Blässe.

Im Übrigen war es hier den ganzen Tag bewölkt.:rolleyes:

Unicous
2015-02-17, 16:50:15
Acer hat jetzt noch einmal offiziell den XG270HU angekündigt:

Acer XG270HU Monitor with AMD Freesync™ Delivers Smoother Gaming Experience
(http://us.acer.com/ac/en/US/press/2015/152687)

Ich vermute mal es ist das gleiche Panel das BenQ verwendet, weiterhin fraglich ob es ähnlich/gleich dem ROG Swift ist oder ein anderes Panel. HDMI 2.0 wird auch angegeben.

Kartenlehrling
2015-02-19, 23:43:26
Freesync ohne Adapative Sync. Die wollen uns doch alle verarschen.

Ich habe für dich noch mehr fake bilder ... :biggrin:
AMD und seine spartanisch Einstellunge.

http://i61.tinypic.com/2rdw48w.png

Unicous
2015-02-19, 23:59:52
Von welchem Treiber ist das? Win 10 Preview? Scheint der geteaserte Frame-Rate-Limiter zu sein. Hätte ja nur peripher etwas mit Adaptive Sync zu tun.

Edit:
Ach halt. Ich weiß es ja selbst. Es ist natürlich von meinem Gamenapp-Treiber geklaut. Muss ich gleich mal verbloggen.

Unicous
2015-02-26, 19:56:19
Got a nice shiny new AMD GPU with FreeSync support ready to test the first FreeSync monitors when available! Soon we hope...

https://twitter.com/TFTCentral/status/570506332362682368

Cool. TFTCentral hat jetzt eine "FreeSync-GPU" aber keinen "FreeSync-Monitor".

Die Monitore gehen langsam aber sicher in den Verkauf, lauter Acer jedenfalls noch "in diesem Monat" aber keines der Modelle schafft es mal in eine Redaktion.:facepalm:

M4xw0lf
2015-02-26, 21:23:36
AMD sollte mal mit Nachdruck für "Besampelung"(:freak:) sorgen.

fondness
2015-02-27, 13:26:39
In Österreich ist der erste FreeSync-Monitor offenbar lieferbar:
http://geizhals.at/eu/benq-xl2730z-9h-ldclb-qbe-a1223748.html?t=alle&plz=&va=b&vl=de&hloc=at&v=e#filterform