PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Flüssigkeitseindruck G-Sync vs. fixed High Frequency


robbitop
2013-11-08, 15:42:08
Was mich gerade beschäftigt, ist die Einschätzung des Flüssigkeitseindrucks von folgenden 2 Varianten:

- G-Sync: Abtastrate des Monitors ist variabel, Framebuffer wird fertig gerendert und danach zum Monitor übertragen
- hohe konstante Abtastrate des Monitors (120/144 Hz): Framebuffer wird (ohne VSync) mit konstanter Abtastrate unabhängig von seinem Fortschritt abgetastet

Bei schwankenden oder niedrigen FPS hat man ja gerade mit niedriger Abtastrate (60 Hz) Juddern. Aus meiner Sicht stellt G-Sync hier das Ideal dar, da so angezeigt wird, wie berechnet. Aber: je höher die Abtastrate, desto näher (abgesehen vom Tearing) müsste doch eigentlich das Ergebnis an G-Sync liegen, oder?

Vorteile der High Frequency Lösung:

- mit pulsierendem Backlight / Blackframe Insertion (Lightboost hack) kombinierbar und dadurch weniger Motion Blur
- Herstellerunabhängig
- sofort nutzbar

Mich würden eure Gedanken zu diesem Thema interessieren.

Knuddelbearli
2013-11-08, 15:56:27
naja da die 2te Methode extrem viel GPU leistung benötigt wäre selbst wenn die besser ist ( was sie vermutlich ist! ) GSynch vorzuziehen

robbitop
2013-11-08, 22:35:45
Wieso braucht diese mehr GPU Leistung? Mir geht es um die Abtastung durch den Monitor.

Hugo78
2013-11-08, 23:07:39
Vorweg:
Also ich hab einen 144Hz TFT mit > 3 mal höherer Backlight Frequenz.
Und ich hab bei meinem vorherigen IPS 60Hz TFT mit relativ niedrig getaktetem Backlight gemerkt wie belastet das für die Augen / die Konzentration allgemein war, ohne sofort zuwissen warum.

Darum schätze ich diesen 144Hz TFT, auch wenn es nur scheiß TN ist.

Zum Thema:

Je höher die Abtastrate, desto geringer sind die Effekte durch Inputlag und Shutter < 60 Hz Vsync, weil man statt 16,6ms, nur mit 8,3ms (120Hz) oder 6,9ms (144Hz) abtastet.
Aber man hat im Worstcase immernoch > 40ms inputlag (@ zb.40fps), statt ~250ms Worstcase @ 60Hz @ 40fps.
Und alles über 20ms bemerkt man.

Aktueller Fall bei mir, in GTA4 mit downsampling reicht es nicht für 144Hz, da muss ich auf 60Hz gehen um die höhere Auflösung zuerreichen.
Dabei rennt mein TFT natürlich weiter stur mit 144Hz, also ich hoffe es.
Aber Framerates < 50fps machen kein Spaß, trotz 144Hz TFT.
Das würde ich wirklich sehr gern auf einem G-Sync Monitor mal testen.

aufkrawall
2013-11-08, 23:21:37
Dabei rennt mein TFT natürlich weiter stur mit 144Hz, also ich hoffe es.

Wenn für die Auflösung nur 60Hz festgelegt sind, nimmt so ein flexibler TN auch intern wirklich nur 60Hz.

Bei niedrigen fps fällt mit 144Hz leider Tearing auch wieder stärker auf.
Nicht zu vergleichen mit 60Hz (da wird einem ja schwindelig), aber schon meist wahrnehmbar schlechter als mit hohen fps.

Aber du hast ja nach dem Flüssigkeitseindruck gefragt. 144fps ohne Vsync sind schon deutlich weniger flüssig als mit.
Für null Unterschied bräuchte es wohl irrsinnig hohe Refreshrates, würde ich mal vermuten.

Pentium M
2013-11-09, 02:19:00
Wie stehts eigentlich mit dynamischem Kontrast ,Helligkeitskontrolle usw.Übernimmt das alles G-Sync?

robbitop
2013-11-09, 07:55:56
Vorweg:
Also ich hab einen 144Hz TFT mit > 3 mal höherer Backlight Frequenz.

Was für eine Backlightfrequenz? Ist das PWM für Helligkeitssteuerung? Ich muss immer schmunzeln, warum LCD Hersteller das mit so niedrigen Frequenzen pulsen. Das fällt doch zwangsweise auf. Bester Fall wäre natürlich eine Spannungsregelung...


Und ich hab bei meinem vorherigen IPS 60Hz TFT mit relativ niedrig getaktetem Backlight gemerkt wie belastet das für die Augen / die Konzentration allgemein war, ohne sofort zuwissen warum.

Darum schätze ich diesen 144Hz TFT, auch wenn es nur scheiß TN ist.
Siehe oben. Gute Produkte regeln die Spannung direkt, ohne zu pulsen.



Aber man hat im Worstcase immernoch > 40ms inputlag (@ zb.40fps), statt ~250ms Worstcase @ 60Hz @ 40fps.

Erklärst du mir bitte, wie du auf diese Zahlen kommst? :) (ehrliche Frage - ich komme da auf andere Werte)
40 fps wäre der Inputlag IMO 1s/fps + (worst case) maximale dauer bis zum nächsten Abtasten des Monitors + Inputlag des Displays und Perepherie

Also 25 ms + 8,33 ms (120 Hz) = 33,33 ms inputlag (Monitor IL und Perepherie ausgeklammert, weil das vom Gerät abhängt).

Je höher der Monitor das Signal abtastet, desto geringer wird der IL. Je niedriger die FPS, desto höher. Wie kommst du aber auf 40 respektive 250 ms?


Aktueller Fall bei mir, in GTA4 mit downsampling reicht es nicht für 144Hz, da muss ich auf 60Hz gehen um die höhere Auflösung zuerreichen.
Dabei rennt mein TFT natürlich weiter stur mit 144Hz, also ich hoffe es.
Aber Framerates < 50fps machen kein Spaß, trotz 144Hz TFT.
Das würde ich wirklich sehr gern auf einem G-Sync Monitor mal testen.

Dein Panel läuft mit der Frequenz, die du einstellst. In dem Falle mit 60 Hz.
Das mag ich an "Downsampling" überhaupt nicht. Dass man dann mit der Frequenz runtergehen muss.

Die IHVs sollen endlich mal eine ordentliche Lösung in den Treiber einbauen, so dass die Grafikkarte ohne Wenn und Aber Supersampling auf diese Art und Weise machen kann und direkt skaliert und am Ende dem Monitor ein natives Signal ohne Einbußen in seiner Frequenz ausgibt. Ich kann mir nicht vorstellen, dass das so schwer sein soll...

robbitop
2013-11-09, 08:43:06
Wie ich es mir schon gedacht habe - Strobing und G-Sync (variable FPS/Hz) sind schwer kombinierbar:


@GuerillaDawg the didn’t talk about it, but this includes an improved lightboost driver, but it is currently a choice — gsync or flashed.



It is currently a selectable choice:
G-SYNC Mode: Better for variable framerates (eliminate stutters/tearing, more blur)
Strobe Mode: Better for constant max framerates (e.g. 120fps @ 120Hz, eliminates blur)

http://www.blurbusters.com/confirmed-nvidia-g-sync-includes-a-strobe-backlight-upgrade/

Das wird nicht ohne Grund "noch" so sein. Ich vermute hier mal, dass es auch so bleiben wird. :(
Es ist ja immer so: there is no lunch for free...

Gipsel
2013-11-09, 09:59:06
Vorteile der High Frequency Lösung:

- mit pulsierendem Backlight / Blackframe Insertion (Lightboost hack) kombinierbar und dadurch weniger Motion Blur
Der Punkt funktioniert nur richtig, wenn die Framerate des Spiels auf die Refreshrate des Monitors gelockt ist. Kommen zwei Backlight Strobes mit dem gleichen Bild, war es das mit dem weniger Motion Blur.

aufkrawall
2013-11-09, 11:17:17
Hieß es bei der G-Sync Demo nicht auch, der Text auf dem Pendel sei mit besser lesbar?
Ob das nur durch flüssigere Bildfolge resultiert?

Hugo78
2013-11-09, 11:25:26
Was für eine Backlightfrequenz? Ist das PWM für Helligkeitssteuerung?
Richtig die PWM Backlightfrequenz, in dem Fall des Dell U2311H.

Ich muss immer schmunzeln, warum LCD Hersteller das mit so niedrigen Frequenzen pulsen. Das fällt doch zwangsweise auf. Bester Fall wäre natürlich eine Spannungsregelung...

Wenn man es nicht weiß, sieht man auch nicht... :anonym:
Hatte dazu schonmal Gispel was geschrieben.

Ich kann dir nur sagen, was mir zu dem Thema bisher aufgefallen ist.
Mein vorheriger u2311h 60Hz IPS von Dell hatte (anscheinend) eine sehr niedrige PWM Frequenz.
Ich hab das nicht gesehen, aber bemerkt dass ich an dem Gerät schnell müde geworden bin.
Erst denkst du du wirst alt, was auch der Fall ist, dann hab ich den PRAD-artikel dazu entdeckt und wie ich dann den 144Hz hatte,
konnte ich das für mich auch bestätigen, an dem Gerät kann ich wieder bis "zum umfallen" sitzen. :smile:

Warum die Hersteller das so bauen, keine Ahnung.
Aber ich nehm Tom Peterson schon ab, dass man nicht unter 30fps geht, weil es dann zum flimmern kommen kann.
Das muss ja nicht bedeuten, dass alle Hersteller gleich schlecht arbeiten mit PWM Backlight.
Aber die schlechteste Lösung muss Nvidia ebend als unterestes Limit berücksichtigen.

Btw ... zum Dell gibts auch einen Clip auf der Röhre.
http://youtu.be/BogPfvzTTPc

Also weiter ...
Siehe oben. Gute Produkte regeln die Spannung direkt, ohne zu pulsen.
Ok, nur woran erkennt man die? :biggrin:

Mein aktueller 144Hz verwendet deutlich höhere Frequenzen und hier ist es ok für mich.
http://www.prad.de/new/monitore/test/2012/test-asus-vg278he-teil7.html#Backlight

Ansonst nochmal der PRAD Artikel zum Thema:
http://www.prad.de/new/monitore/specials/backlight.html
http://www.prad.de/new/monitore/specials/backlight-teil2.html


Erklärst du mir bitte, wie du auf diese Zahlen kommst? :) (ehrliche Frage - ich komme da auf andere Werte)
40 fps wäre der Inputlag IMO 1s/fps + (worst case) maximale dauer bis zum nächsten Abtasten des Monitors + Inputlag des Displays und Perepherie

Also 25 ms + 8,33 ms (120 Hz) = 33,33 ms inputlag (Monitor IL und Perepherie ausgeklammert, weil das vom Gerät abhängt).

Je höher der Monitor das Signal abtastet, desto geringer wird der IL. Je niedriger die FPS, desto höher. Wie kommst du aber auf 40 respektive 250 ms?

Also bei den 40ms war ich sogar zu optimistisch.

Bei 144Hz, dauert der Wechsel der Bilder 6,94ms.
Bei 40fps, dauert das zeichnen Eines der 40 Bilder 25ms.
Jetzt sagen wir TFT und GPU fangen bei 0ms an und die GPU bewirft den TFT jetzt mit den 40Bildern bis 1000ms, ergo 1 sekunde lang.

Für das 1. Bild braucht ein 144Hz TFT jetzt 4*6,94ms also ~28ms um die 25ms darzustellen.
Da hätte man schon die ersten 2,76 ms inputlag, aber auch nur wenn wir von einer perfekten Welt, mit perfektem Vsync reden,
in der die GPU auf den Monitor wartet und dem immer nur das nächste Bild rüberschiebt, wenn der wieder Luft hat.

Bisher läuft das aber so, die Graka ballert raus was sie hat und der Monitor nimmt was ihm grad passt.
Es werden also auch Bilder verworfen. Wenn man das jetzt durchspielt und das muss man wenn man genau sein will, kommt man sicherlich auf höhere Werte.

Ich hab dazu aber grad kein Bock (Mein Essen ist gleich fertig :biggrin:) und behaupte als Überschlag es werden in etwa 4 von 40 Bilder verworfen,
weil in 1000ms bei 27,76ms tatsächlicher Darstellungsdauer pro Bild, max. 36 Bilder pro Sekunde bei Vsync benutzt werden.
Mit jetzt den 2,76 ms inpult lag, pro Bild bei 36 Bildern hätten wir 99,36ms Inputlag.
Aber man müsste das jetzt durchspielen um auf einen genauen Wert zukommen.

Tom Petersen hat das bei PCper auch ausführlich dargestellt, wenn auch mit 60Hz, wo noch mehr inputlag auftritt.

http://www.youtube.com/watch?v=KhLYYYvFp9A&feature=youtu.be&t=16m

Gipsel
2013-11-09, 12:12:19
Siehe oben. Gute Produkte regeln die Spannung direkt, ohne zu pulsen.Das ist sehr schwierig so zu sagen. Der Wirkungsgrad von LEDs steigt mit der Helligkeit. Ein PWM-geregeltes Backlight verbraucht also z.T. deutlich weniger Strom als ein dauernd angeschaltetes (insbesondere bei niedriger Helligkeit). Bester Kompromiß wären also PWM-Frequenzen von ein paar kHz. ;)

Und wie die Kombination von GSync und Backlight-Strobing funktionieren könnte (Kombination von Strobe+ variable Länge von [quasi-]kontinuierlichem Backlight), habe ich auch schon mindestens zwei oder drei mal geschrieben. Bei niedrigen fps muß man natürlich etwas Bewegungsschärfe opfern (das kontinuierliche Backlight bekommt mehr und mehr Anteil von der Anzeigedauer des Frames), damit es nicht flimmert, aber das liegt in der Natur der Sache.

ndrs
2013-11-09, 12:30:24
Mit jetzt den 2,76 ms inpult lag, pro Bild bei 36 Bildern hätten wir 99,36ms Inputlag.
Du kannst doch nicht die Lags mehrerer Bilder addieren.
In deinem Zahlenbeispiel ist es eigentlich wie folgt: Im schlechtesten Fall ist das Bild von der GPU fertig gerade als der Monitor eins ausgegeben hat. Der Monitor hat also schon angefangen sich das nächste Bild zu holen, bevor das aktuelle im Framebuffer steht. (Ohne Vsync sollte dabei also Tearing entstehen) Das aktuelle Bild wird also erst mit dem nächsten Zyklus vollständig übertragen. Ich komme dann im absoluten Worst Case auf genau zwei Refresh-Zyklen. Mehr sollte eigentlich in keiner Situation auftreten können (ausgenommen anderer Lag-Quellen).
Korrekturen werden gern angenommen :)

Edit: Der U2311 hat noch CCFL-Backlight. Da ist klar, dass er keine hohen PWM-Frequenzen mitmacht.

MadManniMan
2013-11-09, 12:36:18
G-SYNC Mode: Better for variable framerates (eliminate stutters/tearing, more blur)
Strobe Mode: Better for constant max framerates (e.g. 120fps @ 120Hz, eliminates blur)

Da ich davon ausgehe, dass zumindest für mich die Zukunft in VR-Brillen bestehen wird, stellt sich mir die Frage, was davon für diese Technologie besser ist.

Hier am simplen Monitor ziehe ich ehrlich gesagt weniger Blur vor, trotz Tearing.

Terrarist
2013-11-09, 12:51:50
Blur hast du ja sowieso (zumindest mit dem dev-kit des Oculus Rifts) wenn du dich in der VR Welt umschaust, und blurry siehts durch die nicht perfekte Auflösung im Vergleich zu einem Monitor sowieso aus. Gut möglich dass dann das bisschen Blur obendrauf durch G-Sync nicht weiter ins Gewicht fällt. Eine möglichst flüssige Wiedergabe wäre mir da auf jeden Fall lieber, erst recht wenn ich dank G-Sync keine doppelt so starke Hardware brauche ;)

Psychopat
2013-11-09, 13:00:24
Weil gerade das PWM Thema angeschnitten wurde:
Strobing und G-Sync stehen eigentlich gar nicht in Konkurrenz sondern ergänzen sich. Strobing ist nur mit hohen Frequenzen möglich, da es sonst flimmert oder müde macht. Auch braucht es hohe FPS, da sonst das Strobing keinen Sinn macht. G-Sync bringt am beisten bei niedrigen FPS, wo Strobing nichts bringen würde. Wünschenswert wäre also ein adaptives Umschalten, was das G-Sync-Modul sogar eventuell kann. Einen offiziellen Support für Backlicktstrobing hat es jedenfalls: link (http://www.blurbusters.com/confirmed-nvidia-g-sync-includes-a-strobe-backlight-upgrade/)

Mr. Lolman
2013-11-09, 13:02:27
Wenn für die Auflösung nur 60Hz festgelegt sind, nimmt so ein flexibler TN auch intern wirklich nur 60Hz.

Bei niedrigen fps fällt mit 144Hz leider Tearing auch wieder stärker auf.
Nicht zu vergleichen mit 60Hz (da wird einem ja schwindelig), aber schon meist wahrnehmbar schlechter als mit hohen fps.

Aber du hast ja nach dem Flüssigkeitseindruck gefragt. 144fps ohne Vsync sind schon deutlich weniger flüssig als mit.
Für null Unterschied bräuchte es wohl irrsinnig hohe Refreshrates, würde ich mal vermuten.
Hm. Je höher die Monitorrefreshrate desto geringer das Tearing.

mironicus
2013-11-09, 13:08:28
Das passt dazu:
http://geizhals.de/eizo-foris-fg2421-schwarz-fg2421-bk-a1024965.html

Dieser Monitor hat ja standardmäßig Backlight und dafür sind mal "nur" 500 Euro fällig. :D

Mich würde interessieren, ob ich mit so einem Monitor die gleiche Bewegungsschärfe bekomme wie mit einem CRT-Monitor.
Ich habe hier zu Hause noch einen alten 32 Zoll CRT von Phillips stehen und der hat sogar einen HDMI-Eingang und kann 1080i-Signale darstellen. Bei Spielen wie Soul Calibur oder Dead or Alive ist die Bewegungsschärfe einfach nur geil. 720P sieht dank der Unschärfe der Röhre manchmal aus wie 1080P mit 8xAA auf einen Full HD-LCD. Leider flimmert das Bild stark und es geht ganz schön auf die Augen.

MadManniMan
2013-11-09, 13:31:01
Blur hast du ja sowieso (zumindest mit dem dev-kit des Oculus Rifts) wenn du dich in der VR Welt umschaust, und blurry siehts durch die nicht perfekte Auflösung im Vergleich zu einem Monitor sowieso aus. Gut möglich dass dann das bisschen Blur obendrauf durch G-Sync nicht weiter ins Gewicht fällt. Eine möglichst flüssige Wiedergabe wäre mir da auf jeden Fall lieber, erst recht wenn ich dank G-Sync keine doppelt so starke Hardware brauche ;)

Aber mir stellt sich halt die Frage, ob der "subjektive Inputlag", der durch den Blur entsteht, das VR-Erlebnis nicht zusätzlich zu schmälern im Stande ist.

Terrarist
2013-11-09, 14:30:31
Aber mir stellt sich halt die Frage, ob der "subjektive Inputlag", der durch den Blur entsteht, das VR-Erlebnis nicht zusätzlich zu schmälern im Stande ist.

Bestimmt, je nach Spiel-Genre. Vermutlich musst du abwägen was dir letztendlich wichtiger ist, bzw. dein Setup je nach Spiel anpassen um das Optimale rauszuholen.

ndrs
2013-11-09, 14:37:55
Weil gerade das PWM Thema angeschnitten wurde:
Strobing und G-Sync stehen eigentlich gar nicht in Konkurrenz sondern ergänzen sich. Strobing ist nur mit hohen Frequenzen möglich, da es sonst flimmert oder müde macht.
Das Problem ist nicht das Flimmern, sondern dass du nicht weißt, wann der nächste Frame und damit die nächste Abdunkelung kommt. Dadurch ist es schwierig eine konstante mittlere Helligkeit zu halten, da du ja die Abdunkelung durch erhöhte Helligkeit kompensieren musst.
Das Thema wurde aber schon im eigentlichen GSync-Thread behandelt. Ich versteh eh nicht, warum der TE überhaupt einen neuen aufgemacht hat. In dem anderen ist eh momentan nix los, da hätte man das auch mit reinpacken können.

Hugo78
2013-11-09, 14:45:28
@ndrs

Es wird vieles klarer wenn du die Ausführungen von Tom Petersen verfolgst.

Ab 21:32m

KhLYYYvFp9A

ndrs
2013-11-09, 18:14:05
@ndrs

Es wird vieles klarer wenn du die Ausführungen von Tom Petersen verfolgst.

Die Folie bei 28:28 zeigt eigentlich genau das, was ich geschrieben hab: Latenz vom Ende des Renderings zur Darstellung auf dem Monitor von maximal zwei Refreshzyklen.

RLZ
2013-11-09, 18:37:49
Da ich davon ausgehe, dass zumindest für mich die Zukunft in VR-Brillen bestehen wird, stellt sich mir die Frage, was davon für diese Technologie besser ist.
Ich würde einen Kasten Bier auf Strobing in der Consumer Version setzen. ;)

Hugo78
2013-11-09, 19:06:44
Die Folie bei 28:28 zeigt eigentlich genau das, was ich geschrieben hab: Latenz vom Ende des Renderings zur Darstellung auf dem Monitor von maximal zwei Refreshzyklen.

Ja bei Vsync off, da hat man auch keinen inputlag, da hat man Tearing und shutter.
Mit Vsync addiert sich mit jedem Bild das länger dauert als die Bildausgabe oder mit jedem verworfenen Bild (indirekt), der inputlag.

Tesseract
2013-11-09, 19:15:11
durch das video verstehen hoffentlich auch die letzten zweifler (bzw. radikalen fanboys) was gsync eigentlich ist und warum diese lösung technisch ganz einfach besser ist.

bestätigt mich auch darin, dass ich mit meiner "60fps@60hz mit vsync"-praxis in spielen, die ich in den letzten tagen gegen windmühlen verteidigen musste doch nicht ganz verrückt bin. ;)

robbitop
2013-11-09, 21:44:43
Bis jetzt sehr lehrreich der Thread. Danke euch! :)

ndrs
2013-11-09, 21:53:10
Ja bei Vsync off
Darum ging es doch seit Anfang des Threads ...

@Tesseract
Ich denke, dass die Kritik (zumindest von den Leuten, die nicht nur sinnlos bashen wollten) weniger um die grundsätzliche Eignung geht, sondern eher darum, ob man den Unterschied gegenüber einem einfachen 120Hz-Panel (der wohl meist noch günstiger ist) so deutlich sieht, dass man sich auf eine proprietäre Lösung mit den bereits bekannten Einschränkungen (kein Strobing, usw.) einlassen will.

Ich glaube, dass allen klar sein sollte, dass, wenn man nur die reine Technik hinter der Frameausgabe betrachtet, GSync den bisherigen Verfahren in jedem Punkt vorzuziehen sein sollte.

Tesseract
2013-11-09, 22:26:24
Ich denke, dass die Kritik (zumindest von den Leuten, die nicht nur sinnlos bashen wollten) weniger um die grundsätzliche Eignung geht, sondern eher darum, ob man den Unterschied gegenüber einem einfachen 120Hz-Panel (der wohl meist noch günstiger ist) so deutlich sieht, dass man sich auf eine proprietäre Lösung mit den bereits bekannten Einschränkungen (kein Strobing, usw.) einlassen will.

genau auf das wird ja im video eingegangen: um auf einem 120Hz-panel eine kohärente bildfolge zu haben müsste diese auf 120 fps kleben (oder auf einem ganzzahligen teiler davon) und das ist in der praxis eben ein problem, das man nur mit massiv rechenpower erschlagen kann, nicht jedoch mit anderen bufferswap-einstellungen oder irgendwelchen tricks.

außerdem kann gsync strobing, das ist keine einschänkung sondern ein feature.

samm
2013-11-09, 22:58:57
[kann gelöscht werden, Antwort im GSync-Thread gefunden]

Tesseract
2013-11-09, 23:05:46
Wie denn?
wurde doch von carmack gesagt, dass gsync je nach framerate dynamisch den strobe ein- und ausschaltet oder nicht?

robbitop
2013-11-09, 23:32:10
Hm also Tom Petersen von NV sagt in Minute 48, dass die G-Sync Monitore 3 Modi haben werden:
- G-Sync
- 3D Vision
- Low Persistance (Black Frame Insertion gegen Motion Blur)

Das hört sich so an, als wenn der G-Sync Modus kein BFI hat.

Bei Stunde 1:03 redet er nochmal über den Modus, der den Lightboost Hack ersetzen soll und dass er noch besser ist. Da er aber "other mode" sagt, klingt das für mich auch nicht so, als wenn es mit dem G-Sync Mode kombiniert (also gleichzeitig arbeitet) wird.

Also zwar smooth bei variabler Framerate aber leider standard Persistance und damit normaler Motion Blur...

Tesseract
2013-11-09, 23:52:45
Das hört sich so an, als wenn der G-Sync Modus kein BFI hat.

http://www.twitch.tv/linustech/b/471263848?t=1h47m28s

so wie sich das anhört kann die hardware das. wahrscheinlich kann nvidia den strobe treiberseitig ein und ausschalten d.h. thresholds verändern, neue modi hinzufügen usw.

robbitop
2013-11-10, 00:04:44
wahrscheinlich kann nvidia den strobe treiberseitig ein und ausschalten d.h. thresholds verändern, neue modi hinzufügen usw.
Und das klingt nach Spekulation. :)

Tesseract
2013-11-10, 00:05:48
Und das klingt nach Spekulation. :)
ist es auch. wäre aber naheliegend.

MadManniMan
2013-11-10, 13:39:58
Hm, er sagt, man hätte mit GSync annährend dieselbe Eingabelatenz wie ohne jede Synchronisation.

Ya?

sloth9
2013-11-21, 12:00:05
Ya.
Jedenfalls weniger als mit VSync on. 'Annähernd' ist schwammig.

Erdbeermayonnaise
2013-11-21, 20:20:07
Warum ist der Inputlag mit VSync eigentlich so groß? Eigentlich sollte doch nur auf den nächsten VRetrace gewartet werden, also maximal 1/Xtel Sekunde zusätzlichen Lag, wenn X hz die Wiederholfrequenz ist. In der Praxis scheint das jedoch deutlich mehr zu sein.

Hübie
2013-11-22, 08:54:40
Hier mal was zum Thema strobe backlight und G-Sync:
www.blurbusters.com/confirmed-nvidia-g-sync-includes-a-strobe-backlight-upgrade/

Thomas Gräf
2013-12-07, 19:07:50
Hallo, ich frage mal hier weil der andere G-Sync Fred fast versunken ist.
Weiß man schon ob G-Sync auch mit TripleScreen funktionieren wird?
Ich denke da an Rennsimulationen die TripleScreen auch vernünftig unterstützen wie iRacing oder AssettoCorsa. Da wär die Freude über ziemlich Lagfreie und sehr Speed-dynamik treue Bildwiedergabe natürlich riesig.

Hallo
2013-12-09, 08:36:08
Was mich gerade beschäftigt, ist die Einschätzung des Flüssigkeitseindrucks von folgenden 2 Varianten:

- G-Sync: Abtastrate des Monitors ist variabel, Framebuffer wird fertig gerendert und danach zum Monitor übertragen
- hohe konstante Abtastrate des Monitors (120/144 Hz): Framebuffer wird (ohne VSync) mit konstanter Abtastrate unabhängig von seinem Fortschritt abgetastet

Bei schwankenden oder niedrigen FPS hat man ja gerade mit niedriger Abtastrate (60 Hz) Juddern. Aus meiner Sicht stellt G-Sync hier das Ideal dar, da so angezeigt wird, wie berechnet. Aber: je höher die Abtastrate, desto näher (abgesehen vom Tearing) müsste doch eigentlich das Ergebnis an G-Sync liegen, oder?

Vorteile der High Frequency Lösung:

- mit pulsierendem Backlight / Blackframe Insertion (Lightboost hack) kombinierbar und dadurch weniger Motion Blur
- Herstellerunabhängig
- sofort nutzbar

Mich würden eure Gedanken zu diesem Thema interessieren.


Hmm, schwierig zu sagen. sehr hohe Frequenzen mit ähnlich hohem fps Output der GPU macht das Tearing unsichtbarer/feiner aber es wird nicht eliminiert. Dafür gibt es keinen zusätzlichen I-Lag.

Bei der G-Sync Variante wäre es interessant zu wissen wie ein Sample&Hold Display mit niedrigen Frequenzen/fps umgeht ausser das die Bewegtbilddarstellung in den Keller gehen würde. Bei einem CRT Monitor wären in diesem Modus auch konstante 47Hz/fps noch flüssig und scharf in Bewegung aber es würde flimmern. Ich schätze G-Sync spielt seine Vorteile am besten aus wenn man immer schön über 60fps bleibt. Laut N-Vidia soll es auch hier keinen zusätzlichen -I-Lag geben was ich aber nicht nachvollziehen kann.



EDIT:

Eine Frage hätte ich noch: Es gibt Konsolenspiele (gutes Bsp. Sine Mora auf 360) welche tearen wenns unter 60 fps geht (sehr selten bei dem Game) aber überhalb der 60 fps nicht tearen, sprich konstante 60 fps. Was ist hier los? Geht sowas auf PC auch? Denn wenn es nicht teared habe ich das Gefühl das es keine V-Sync typipische Lag-Schwurbelei gibt. Auch interessant bei MAME, es gibt die Option "Wait for vertical sync" was üblen Lag verursacht und "Sync to monitor refresh" was besser sein soll.

Obendrein zwinge ich meinen PC im NV Treiber das tripple buffering aus ist und die "max. Anzahl der vorgerenderten Bilder" auf 1 steht. Hier meine ich das selbst mit V-Sync der Lag minimiert wird, das Game läuft trotzdem rockstable ohne Zuckler, in diesem Fall das eher anspruchslose Sonic Racing Transformed, sprich meinem PC geht nicht die Puste aus und feuert sauber alle Frames raus.